Zeszyt przeznaczony jest dla studentów, odbywających zajęcia z
przedmiotu
Agrometeorologia
.
Recenzent:
prof. dr hab. J
AN
B
RZOZOWSKI
Projekt okładki: Zbigniew Szwejkowski
W pracach edytorskich wykorzystano programy komputerowe:
CORELDRAW!® firmy Corel i Word for Windows® firmy Microsoft
Druk:
SPIS TREŚCI
II. POMIARY I OBSERWACJE METEOROLOGICZNE..............................................7
III. ATMOSFERA ZIEMSKA......................................................................................15
IV. PROMIENIOWANIE SŁONECZNE .....................................................................21
V. CIEPŁO I TERMIKA UKŁADU PODŁOŻE –ATMOSFERA .................................31
VI. OBIEG WODY W PRZYRODZIE I JEJ PRZEMIANY FAZOWE .........................41
Uwarunkowania zjawisk związanych z przemianami fazowymi wody ...........41
Pomiary parowania .........................................................................................43
Pomiary zawartości pary wodnej w atmosferze..............................................44
Kondensacja pary wodnej i jej produkty .........................................................48
Opady i osady atmosferyczne ........................................................................50
VII. CIŚNIENIE ATMOSFERYCZNE ........................................................................55
VIII. CYRKULACJA POWIETRZA ............................................................................63
IX. ANALIZA I PROGNOZA POGODY .....................................................................73
Uwagi wstępne ...............................................................................................73
Podstawy kształtowania zjawisk i parametrów pogodowych ..........................74
Prognozowanie pogody ..................................................................................79
X. KLIMAT.................................................................................................................87
Uwagi ogólne ..................................................................................................87
Klimat Polski ...................................................................................................90
XI. WSPÓŁCZESNE PROBLEMY KLIMATYCZNE ŚWIATA I ICH ASPEKTY
EKONOMICZNO -PRAWNE.....................................................................................95
Najważniejsze zjawiska w zakresie ewolucji klimatu Ziemi ............................95
Polityczne implikacje zmian klimatu Ziemi....................................................103
Polska gospodarka i regulacje prawne w kontekście ochrony klimatu .........106
Ekonomiczne spojrzenie na problem emisji gazów cieplarnianych
z perspektywy gospodarki rolnej...................................................................109
XII. METEOROLOGIA ROLNICZA .........................................................................115
Uwagi ogólne ................................................................................................115
Waloryzacja warunków agrometeorologicznych...........................................116
Wpływ warunków pogodowych na wzrost, rozwój i plonowanie roślin .........120
Niesprzyjające czynniki pogodowe dla produkcji rolniczej............................124
Fenologia ......................................................................................................133
Topoklimat, mikroklimat, fitoklimat................................................................135
Agrometeorologiczna osłona rolnictwa .........................................................142
REFERENCJE ........................................................................................................146
ILUSTRACJE ..........................................................................................................147
I. WSTĘP
Spośród wszystkich czynników siedliskowych determinujących produkcję rolniczą,
najbardziej niezależnym i trudnym do kontroli jest przebieg warunków pogodowych.
Pomimo to praktyka i nauka zawsze szukały sposobów na jak najbardziej racjonalne
zorganizowanie produkcji, pozwalających maksymalizować efekty w ramach
istniejących uwarunkowań. Bowiem nawet w bardzo odległej, dającej się
przewidzieć przyszłości, nie będzie możliwe aktywne wpływanie na zjawiska
zachodzące w atmosferze. Pewien optymizm, który pojawił się w tym zakresie,
związany z możliwością wywoływania sztucznych opadów, rozpraszania
zachmurzenia i zamglenia, szybko jednak opadł gdy się okazało, iż są to sprawy
niezwykle kosztowne i co ważniejsze, pozostawiające groźne, nie dające się określić
skutki uboczne.
Wpływ warunków pogodowych na rolnictwo przejawia się zarówno w sferze
biologicznej, organizacyjnej jak i techniczno-technologicznej. Wszystkie te obszary
uzależnień znajdują się w obrębie zainteresowania nauki zwanej agrometeorologią.
Jest to dziedzina, która w ostatnich latach rozwija się bardzo dynamicznie, a jej
osiągnięcia przyczyniają się w coraz większym stopniu do podniesienia poziomu
ilościowego i jakościowego produkcji. Po okresie biernego, opisowego podejścia do
analizowanych zagadnień, aktualnie mamy do czynienia z kreowaniem bardzo
szczegółowych zaleceń produkcyjnych. Z tego powodu wiedza agrometeorologiczna
jest niezmiernie ważnym elementem wykształcenia rolniczego, zwłaszcza na
poziomie wyższym. Bez niej żaden rolnik nie byłby w stanie wykorzystać
oferowanych zasobów informacji o warunkach pogodowych. Rozumienie istniejących
zależności jest podstawą do prawidłowego przystosowania produkcji do istniejącej
lub przewidywanej sytuacji pogodowej. Wykorzystując współczesne osiągnięcia tej
dziedziny nauki można uzyskać wiele korzyści i uniknąć niepotrzebnych strat.
Niezwykle istotnymi są także takie działania, które w zgodzie z siłami natury
pozwalają wytwarzać produkty o najwyższej jakości. Problem wykorzystania wiedzy
agrometeorologicznej będzie w przyszłości jeszcze ważniejszy. Po pierwsze z
powodu tego, iż spodziewamy się poważnych zmian klimatycznych, które wymuszą
konieczność przystosowania się do nowej sytuacji, wyczucia skali i zakresu
niezbędnych przekształceń. Po drugie, nowe techniki i technologie wykazują coraz
większą czułość na warunki pogodowe w różnych aspektach. Przykładowo
stosowanie nowoczesnych pestycydów wymaga uwzględnienia wielu parametrów
atmosfery takich jak wiatr, wilgotność, temperatura powietrza. Jedynie w ściśle
określonych warunkach ich aplikacja nie grozi skażeniem środowiska naturalnego i
zapewnia wysoką efektywność działania.
Znaczenie znajomości zagadnień agrometeorologicznych nie ogranicza się jedynie
do spraw organizacyjno technicznych gospodarstw rolniczych, wykracza znacznie
ponad ten zakres. Czynniki pogodowe, kształtujące warunki produkcji rolniczej,
wywierają jednocześnie przemożny wpływ na ekonomikę gospodarki rolniczej w
najszerszej skali. Rynek rolny i sfery z nim związane charakteryzuje typowa
sezonowość zjawisk będąca następstwem cyklów natury. Szczególnie zakłócenia
tych cyklów mogą powodować perturbacje na rynku, czego przejawem bywa
fluktuacja cen, a przez to efektywność produkcji i handlu. Jednym z ważniejszych
atrybutów współczesnego marketingu związanego z rynkiem rolnym jest możliwość
wykorzystania prognoz pogodowych w celach osiągania niekiedy spektakularnych
efektów ekonomicznych.
Prawo kształtujące warunki na jakich człowiek współdziała z otaczającym
siedliskiem, w tym z atmosferą, staje się coraz obszerniejsze. Pojawiają się wciąż
nowe regulacje będące wynikiem inicjatyw lokalnych jak i międzynarodowych. Tak
jak każde inne prawo, tak i to z zakresu ochrony siedliska, klimatu, jest dobrym
prawem, jeżeli zostało stworzone z pełnym zrozumieniem zjawisk zachodzących w
przyrodzie. Z tego też względu wiedza meteorologiczna okazuje się coraz bardziej
przydatna także i w tej sferze.
W obliczu rysujących się potrzeb edukacyjnych powstaje wiele książek i
podręczników dotyczących meteorologii i dziedzin z nią związanych, ponieważ każdy
profil szkoleniowy wymaga nieco innego akcentowania problemów. Zainteresowani
mogą wybierać spośród wielu propozycji. Niniejsze opracowanie zostało napisane
pod kątem potrzeb studentów szkół wyższych, studiujących kierunki: rolnictwo oraz
ochrona środowiska, zwłaszcza w systemie zaocznym. W jego treści przedstawiono
wyodrębnione zagadnienia z dziedziny podstaw meteorologii, klimatologii oraz
agrometeorologii. Zawartość podręcznika stanowi najbardziej zwięzły zestaw wiedzy
z wyżej wymienionych zakresów. Po przestudiowaniu zagadnień podstawowych
czytelnik zyskuje orientacje w bardzo wielu sprawach dotyczących zasad
funkcjonowania atmosfery. Na tej bazie łatwiej można zrozumieć problemy typowe
dla współczesnej agrometeorologii. Na końcu podręcznika zamieszczono spis
literatury, traktowany jednocześnie jako referencje oraz wykaz pozycji
uzupełniających.
Olsztyn 1999
II. POMIARY I OBSERWACJE
METEOROLOGICZNE
Najcenniejszym źródłem informacji o atmosferze są dynamiczne pomiary jej
parametrów. Dane pozyskiwane na bieżąco służą najczęściej jako baza wyjściowa
dla stawiania prognoz pogodowych. Z kolei zarchiwizowane ciągi pomiarów z długich
okresów czasu wykorzystywane bywają do opracowań klimatologicznych. Dane dla
potrzeb meteorologii muszą posiadać szereg cech szczególnych aby mogły być
właściwie spożytkowane do realizacji wyżej wskazanych celów. Przede wszystkim
muszą być reprezentatywne dla danego miejsca i czasu obserwacji oraz winny
odpowiadać standardowi jednorodności.
Współczesna meteorologia posługuje się danymi pozyskiwanymi zasadniczo w
dwojaki sposób. Po pierwsze korzysta się z pomiarów naziemnych. W tym celu
instaluje się instrumenty, które dostarczają najczęściej informacji o najbliższym
otoczeniu; tylko niektóre z nich przenikają większą przestrzeń (np. radary). Drugi
sposób rejestracji warunków atmosferycznych to pomiary z powietrza i przestrzeni
kosmicznej. W tym przypadku przyrządy mają duży zasięg zarówno w pionowym jak
i poziomym profilu atmosfery. Stosunkowo najwcześniej do takich zadań używano
sond instalowanych na balonach, później posługiwano się rakietami wystrzeliwanymi
w górne warstwy atmosfery. Z początkiem ery kosmicznej służbę meteorologiczną
zaczęły pełnić sztuczne satelity Ziemi. Każdy z powyższych sposobów zbierania
informacji ma swoje zalety i wady. Tak więc dopiero kompleksowe badanie
właściwości atmosfery daje najlepsze rezultaty.
Zintegrowane systemy metodyczne i instrumentalne wymagają współdziałania
wielu instytucji, tak w wymiarze pojedynczych państw jak i w skali
międzynarodowej. Przeświadczenie o tym legło u podstaw powołania, jeszcze w
ubiegłym wieku, Międzynarodowej Organizacji Meteorologicznej, przekształconej po
II Wojnie Światowej w wyspecjalizowaną agendę ONZ i nazwaną Światową
Organizacją Meteorologiczną (WMO- World Meteorological Organization). W ramach
WMO wydzielono specjalną komórkę zajmującą się wyłączenie sprawami
prognozowania, tj Światową Służbę Pogodową (WWW – World Weather Watch).
Polska jest członkiem WMO, zaś krajowe zadania dotyczące meteorologii i
hydrologii organizuje Instytut Meteorologii i Gospodarki Wodnej w Warszawie.
Sieć stacji meteorologicznych podległych IMGW jeszcze w połowie lat
osiemdziesiątych była bardzo gęsta i wynosiła 61 stacji, wspierana ponadto przez
286 posterunków o mniejszej częstotliwości dobowej pomiarów. Dodatkowo poza
tymi punktami pomiarowymi istniało ponad tysiąc posterunków należących do
Pomiary i obserwacje meteorologiczne
8
różnych instytucji. Aktualnie, meteorologiczna sieć pomiarowa uległa znacznemu
skurczeniu, przy jednoczesnym unowocześnieniu sprzętu i zacieśnieniu współpracy
międzynarodowej.
Naziemne stacje meteorologiczne, niezależnie od usytuowania w strukturach
organizacyjnych, wykonują przy użyciu instrumentów standardowych i ponad
standardowych, podobny zestaw pomiarów. Instrumentarium pomiarowe
zlokalizowane jest w specjalnych miejscach, zwanych ogródkami meteorologicznymi.
Są to przestrzenie tak wybrane aby stan atmosfery nie był zakłócany jakimikolwiek
czynnikami oddziaływującymi na naturalny przebieg zjawisk pogodowych. Teren taki
jest ogrodzony i niedostępny dla osób postronnych. W ogródku meteorologicznym
przyrządy zgrupowane są w zespoły.
Rys. 1. Typowa klatka meteorologiczna
Głównym z nich jest ażurowa klatka meteorologiczna, ustawiona tak aby
zbiorniczki zainstalowanych termometrów znajdowały się na wysokości 2 m nad
powierzchnią gruntu. W klatce na specjalnym statywie umieszcza się termometry
suchy i zwilżony (w zespole stanowiące psychrometr Augusta) oraz minimalny i
maksymalny. Ponadto bywają tam też instalowane termograf, higrograf i higrometr.
Pomiary i obserwacje meteorologiczne
9
Rys. 2. Schemat automatycznej stacji agrometeorologicznej.
Pomiary temperatury przy gruncie (termometr minimalny) oraz temperatur gruntu
dokonuje się specjalnymi termometrami na wydzielonej części ogródka, pozbawionej
roślinności. Deszczomierz Hellmanna montuje się na słupku, tak aby górna jego
krawędź znajdowała się na wysokości 1 m nad powierzchnią gruntu. Pluwiograf
przytwierdza się do wzmocnionej podstawy, również z zachowaniem powyższego
Pomiary i obserwacje meteorologiczne
10
warunku. Z kolei wiatromierz Wilda instalowany bywa na słupie o wysokości 10 m.
Przyrządy do mierzenia ciśnienia atmosferycznego znajdują się zawsze w
pomieszczeniach obserwatorów.
Istotne znaczenie ma terminarz dokonywanych pomiarów i obserwacji. Czas
pomiaru jest ściśle oznaczony. W przypadku stacji pracujących na potrzeby prognoz
pogody dokonuje się 8 oznaczeń parametrów atmosfery co 3 godziny, począwszy od
godziny 00 GMT (średni czas Greenwich). W polskich warunkach, gdzie obowiązuje
czas środkowoeuropejski, pierwszy pomiar przypada na godzinę 01 a dalsze
wykonywane są w odstępach trzygodzinnych. Stacje, a zwłaszcza posterunki,
pracujące w systemie 3 pomiarów wykonują je o godzinach 07, 13 i 19; dodatkowo
stacje te, wykorzystując rejestratory (samopisy), pozyskują dane z 4 terminu, tj z
godziny 01. Do końca 1970 pomiarów dokonywano wg miejscowego czasu
słonecznego. Tego typu praktyka miała swoje uzasadnienie, ponieważ wszystkie
parametry miały większy walor porównawczy, szczególnie pod kątem wykorzystania
w opracowaniach klimatologicznych. Z punktu widzenia synoptyki system ten był
jednak zdecydowanie niewłaściwy.
Stacje meteorologiczne i posterunki prowadzą zapisy pomiarów i obserwacji w
specjalnych dzienniczkach. Przejrzysty układ treści tych dokumentów ułatwia
znacznie pracę obserwatora i ogranicza możliwość popełnienia błędu. Dalsze
wykorzystanie pozyskanych danych zależy od typu stacji, zwykle są one
przekazywane do instytucji nadrzędnych.
W ostatnich latach dokonała się swego rodzaju rewolucja w zakresie
podstawowych pomiarów meteorologicznych. W Polsce jesteśmy dopiero na
początku tej drogi. Istota zmian sprowadza się do pełnej automatyzacji i ciągłości
pomiarów. Dzięki nowym rozwiązaniom, precyzyjnie pomierzone dane gromadzone
są na nośnikach komputerowych pamięci masowych i stąd od razu gotowe do
przetwarzania. W ostatecznym efekcie, dzięki mniejszym kosztom (jednorazowy
wydatek na automat amortyzuje się po kilku latach), można pokryć badany obszar
gęstszą siecią punktów, co ma znaczenie nie tylko dla synoptyki i klimatologii, lecz
także dla monitoringu warunków produkcji.
Konstrukcje stacji automatycznych są różnorodne i dostosowane do zadań jakie
spełniają. W rolnictwie pomiary meteorologiczne atmosfery łączone są z pomiarami
warunków glebowych. Typowa stacja agrometeorologiczna pokazana jest na
rysunku 2. Jej zaletą jest prosta budowa, małe rozmiary i możliwość pracy z dala od
źródeł zasilania. Może być ona zestawiona z dowolnej liczby niezależnych sensorów
współpracujących z odpowiednim blokiem sterującym, zawierającym pamięć
elektroniczną. Blok sterujący, zgodnie z zadanym programem, uruchamia
każdorazowo pomiar określonego parametru i zapisuje wynik w pamięci. Istnieje
możliwość zaprogramowania odpowiedniego przedziału czasowego próbkowania
oraz formy agregacji wyników (średnia, suma, ekstremum, etc). Dane z bloku
można odczytać podłączając przenośny komputer lub wykorzystując system łączy
Pomiary i obserwacje meteorologiczne
11
bezpośrednich czy też radiowych celem zdalnej transmisji. Tego typu stacje
rozmieszczone w sieci pokrywającej rozległy obszar stanowić mogą doskonały
system informacyjny dla nowoczesnego rolnictwa. Jego funkcjonowanie opisane jest
w rozdziale dotyczącym agrometeorologii.
Rysunek 3. Monitor i schemat instalacji zestawu WeatherMonitor II firmy Davis
Przykładem innego automatycznego systemu pomiarowego jest zestaw o nazwie
WEATHER MONITOR II, kalifornijskiej firmy DAVIS (zamontowany między innymi na
budynku Katedry Meteorologii i Klimatologii UW-M w Olsztynie). Służy on do
automatycznego pomiaru takich parametrów jak temperatura (zewnętrzna,
wewnętrzna, temperatura punktu rosy i tzw. odczuwalna), wilgotność względna,
suma opadów, ciśnienie atmosferyczne, prędkość i kierunek wiatrów. W zestawie
podstawowym, każdy parametr śledzony jest z uwzględnieniem wartości
ekstremalnych. Ponadto zaimplementowane są w nim funkcje alarmu dla zadanych
liczb granicznych danej charakterystyki atmosfery. Opisywany system, ze względu
Pomiary i obserwacje meteorologiczne
12
na relatywnie niską cenę, może być instalowany w warunkach średniej i małej
przedsiębiorczości (np. w ogrodnictwie).
Oprócz stacji naziemnych istotnym elementem współczesnej meteorologii są
badania teledetekcyjne przy pomocy radarów, sodarów i radiometrów. Cechą
szczególną tych instrumentów i technik jest obejmowanie zasięgiem znacznej
przestrzeni. Wśród wielu zadań, które może spełniać sieć radarów, najważniejszym
jest informowanie o powstawaniu groźnych zjawisk pogodowych (tornada, tajfuny,
huragany) oraz o strefach zachmurzenia i wynikających z tego możliwościach
opadów.
Ważną funkcję w meteorologii spełniają sztuczne satelity Ziemi. Wyposażone w
przyrządy telemetryczne, penetrują obszary atmosfery o wielkim zasięgu poziomym
w całym pionowym przekroju troposfery. Satelity, zależnie od usytuowania na
orbicie, dzielą się na biegunowe i geostacjonarne. Pierwsze z nich umieszczone są
na wysokości 500 - 1500 km i okrążają Ziemię w czasie ok. 1 godz. i 40 minut,
zachowując zawsze jednakowe położenie wobec Słońca. Tak więc monitorują one
każdy punkt o tej samej porze dnia i nocy. Satelity geostacjonarne umiejscawiane są
na orbitach w płaszczyźnie równika, na wysokości ok. 35 000 km nad powierzchnią
Ziemi. Przemieszczając się po orbicie dokładnie w rytmie dobowego obrotu naszej
planety wokół własnej osi, penetrują zawsze dokładnie ten sam obszar. Na rysunku
poniżej podano (za WMO) schemat aktualnie pracujących satelitów
meteorologicznych.
Rysunek 4. Rozmieszczenie satelitów pogodowych na orbitach okołoziemskich
Pomiary i obserwacje meteorologiczne
13
Zdjęcia satelitarne wykonywane są w różnych zakresach fali
elektromagnetycznej, w związku z czym uzyskujemy zróżnicowane obrazy
informujące o zachmurzeniu, zawartości pary wodnej, temperaturze itp.
Europejskie centrum satelitarne znajduje się w Darmstadt (RFN), na potrzeby,
którego pracuje satelita Meteosat.
Zdjęcia satelitarne wykorzystywane są także jako podkład dla telewizyjnych
prognoz pogodowych, a osoby indywidualnie interesujące się tym zagadnieniem
mogą dotrzeć do, wprowadzanych co sześć godzin, obrazów zachmurzenia w sieci
Internet. Jeden z adresów oferujących tego typu usługę to:
http://www.meteo.fr/temps
Zaletą satelitów jest i to, że oprócz typowej informacji pogodowej dostarczać
mogą również materiału do szczegółowych analiz dotyczących różnych przejawów
działalności człowieka. W rolnictwie dotyczy to tak istotnych danych jak temperatura
czy wilgotność gleby, wartości dobowe parowania glebowego, stan ogólny plantacji,
dynamika rozwoju roślin, występowanie chorób i szkodników.
Pomiary i obserwacje meteorologiczne
14
III. ATMOSFERA ZIEMSKA
Atmosfera ziemska jest środowiskiem, w którym realizują się wszystkie procesy
pogodowe we współdziałaniu z przyległymi przestrzeniami hydrosfery, litosfery,
biosfery, a także przestrzeni kosmicznej. Składa się ona z mieszaniny gazów
tworzących powłokę wokół planety, utrzymywaną siłami ciążenia. Składniki
atmosfery nie wchodzą ze sobą w reakcje, poza specyficznymi, nielicznymi
sytuacjami. Granicę dolną atmosfery stanowi powierzchnia Ziemi, z tym że pomiędzy
atmosferą, a litosferą przejście jest łagodne bowiem gazy atmosferyczne wypełniają
pory glebowe. Skład powietrza glebowego jest nieco inny od składu atmosfery. Ilość
i jakość mieszaniny gazowej zawartej w glebie decyduje o jej walorach
agrotechnicznych. Górna granica atmosfery jest całkiem trudna do określenia ze
względu na dyfuzyjne przejście do przestrzeni kosmicznej.
W historii ewolucji planety można wyróżnić istnienie atmosfery pierwotnej i
wtórnej. Atmosfera pierwotna okresu gorącego składała się z najlżejszych gazów
(wodoru i helu), otaczających gęstniejącą materię środka złożoną z pierwiastków
ciężkich. Proces zastygania skorupy ziemskiej spowodował zasadnicze zmiany w
składzie otoczki gazowej. Dziś powszechnie uważa się, iż powstanie atmosfery
wtórnej (współczesnej) było związane z aktywnością wulkaniczną, która miała
miejsce na powierzchni Ziemi tuż po zakończeniu okresu gorącego ewolucji planety.
Istnieje wiele dowodów na potwierdzenie tej tezy, choć do końca pozostaną one
tylko hipotezami. Znany skład gazów wulkanicznych i analiza prawdopodobieństwa
zjawisk wskazują, iż jedynie azot pozostał w niezmienionej ilości. Azot bowiem, jako
gaz neutralny, nie wchodził zasadniczo w reakcje z innymi pierwiastkami mieszaniny
jak i związkami podłoża. Dominująca w wyziewach wulkanicznych para wodna
szybko kondensowała w stygnącej atmosferze, opadając na powierzchnię Ziemi i
tworząc przyszłe morza oraz oceany. Pod względem udziału w gazach wulkanicznych
drugie miejsce po parze zajmuje dwutlenek węgla. W wyniku zależności w jakie
uwikłana była ewolucja planety i atmosfery ilość tego gazu zmniejszyła się bardzo
wyraźnie. Stało się tak z powodu rozpuszczalności CO
2
w wodzie. Osady węglanów
na dnie oceanów świadczą o skali procesu, który miał kiedyś miejsce w układzie
atmosfera – litosfera. Proces ten zachodzi do dziś i jest jednym z mechanizmów
regulacji zawartości dwutlenku węgla w atmosferze. Ilość CO
2
we współczesnej
atmosferze kształtuje się zasadniczo pod wpływem czynników antropogenicznych, w
tym przede wszystkim w efekcie wzmożonej emisji i wyraźnie kurczącej się ilości
efektywnych czynników pochłaniania.
Atmosfera ziemska
16
W gazach wulkanicznych nie znajdujemy tlenu. Pierwiastek ten pojawił się
w atmosferze w wyniku reakcji fotolizy wody i dwutlenku węgla, do jakich
dochodziło pod wpływem promieniowania ultrafioletowego o fali krótszej od 240
nm. Powstający tlen atomowy, w wyniku redukcji tworzył później cząsteczkę
dwuatomową. Wydajność opisanych procesów była na tyle mała, że nie
gwarantowała stabilności udziału tlenu w atmosferze, gdyż główna jego część była
natychmiast związana w procesach wietrzenia skał. Zgromadzona jednak w ten
sposób niewielka ilość tlenu przyczyniła się do rozwoju życia na naszej planecie, a to
z kolei wyzwoliło proces wzmożonej, dalszej akumulacji tego pierwiastka do
notowanego współcześnie poziomu.
Tab. 1. Zawartość gazów atmosfery w pionowym przekroju do wysokości 100 km.
Wysokość w km
Gaz
0
10 20 60 100
Składniki pierwszorzędne w %
Azot 77,08
78,02
81,34 78,16
1,63
Tlen 20,75
20,99
18,05 7,32 0,07
Argon 0,93
0,55
0,16 0,04
Dwutlenek węgla 0,03
0,03
0,01
Składniki drugorzędne w ppm
Neon
18,00
Hel 5,00
Krypton
1,00
Xenon 0,09
Metan
1,70
Wodór 0,50
Ozon 0,05
10
Domieszki w %
Para wodna
1,20 0,01
Domieszki w ppb
Siarkowodór 0,20
Dwutlenek siarki
0,20
Amoniak 6,00
Freony 0-10
Wraz ze wzrostem ilości tlenu w atmosferze rozpoczęła się akumulacja ozonu.
Powstawanie tego gazu, składającego się z trzech atomów tlenu odbywa się wyniku
rozpadu tlenu cząsteczkowego pod wpływem promieniowania ultrafioletowego.
Uwolnione atomy tlenu zderzają się z innymi cząsteczkami tego gazu tworząc O
3
.
Atmosfera ziemska
17
Ozon nie jest w tym środowisku gazem trwałym, to samo promieniowanie, nawet o
nieco większej długości do 290 nm rozbija jego cząsteczki, ponadto pewna ilość tego
gazu wiązana jest z rodnikami substancji zawierającymi bor i chlor. Poziom
zawartości ozonu pozostaje więc w stanie dynamicznej równowagi, która bywa
ostatnio zachwiana przez emitowane do atmosfery zanieczyszczenia z grupy
chlorowcopochodnych węglowodorów. Przestrzenne rozmieszczenie najwyższych
zawartości ozonu wskazuje, że nie odpowiada ono rozkładowi korzystnych
warunków jego powstawania lecz mniej sprzyjających warunków jego destrukcji.
Ponadto gaz ten przemieszcza się łatwo w przestrzeni wraz z wielko i
średnioskalowymi ruchami atmosfery.
Analizując skład współczesnej atmosfery stwierdzamy, iż zawartość takich gazów
jak azot, tlen, argon, dwutlenek węgla jest najwyższa i wykazuje pewną stałość, są
to tzw. składniki pierwszorzędne. Inne także występują w stałych proporcjach,
jednak jest ich znaczne mniej i określane są mianem składników drugorzędnych.
Poza tym są i takie, nazywane domieszkami, których ilość zmienia się dość znacznie
(tab 1).
Do wysokości 80-100 km atmosfera wykazuje względnie duży stopień
jednorodności w odniesieniu do swych głównych składników. Powyżej pułapu 100
km absolutnie dominującą pozycje zyskują wodór (97,8%) i hel (0,46%).
Homogeniczność dolnych partii atmosfery wynika z faktu, iż tu właśnie dochodzi do
znaczących ruchów i mieszania zawartości. Powyżej przeważa dyfuzja prowadząca
do rozwarstwień gazów lżejszych i cięższych.
Tab. 2. Zestawienie zanieczyszczeń atmosfery powstających przy spalaniu tony jednostki
(ekwiwalentnej do węgla kamiennego) paliw kopalnianych:
Emisja w kg z jednostki ekwiwalentnej
Źródło
SO
2
NO
x
C
m
H
n
CO
Pył
(P)
, Sadza
(S)
Ołów
(Pb)
Węgiel kamienny w elektrowniach
Węgiel kamienny w przemyśle
Węgiel w gospodarstwach domowych
Węgiel brunatny w elektrowniach
Olej opałowy ciężki
Olej opałowy lekki
Olej opałowy w gosp. domowych
Gaz w elektrowniach
Gaz w gospodarstwach domowych
Benzyna w ruchu drogowym
Olej napędowy w ruchu drogowym
26,0
26,0
20,0
23,0
23,0
8,0
8,0
0,38
3,8
7,0
6,5
1,5
8,5
5,0
5,0
1,5
5,0
1,5
9,5
7,3
0,1
0,5
5,0
0,1
0,8
0,8
0,2
9,0
1,8
0,5
5,0
50,0
0,1
0,2
0,2
1,0
245,0
28,5
3,5
(P)
, 0,01
(Pb)
6,7
(P),
0,02
(Pb)
24,0
(P),
0,07
(Pb)
4,5
(P)
,0,015
(Pb)
1,5
(P)
1,5
(P)
0,2
(P)
0,38
(Pb)
1,5
(S)
/* za Ch.D. Schönweise
Atmosfera ziemska
18
Atmosfera zawiera także wiele gazów i substancji obcych dostających się do niej
głównie na drodze emisji przemysłowej. Traktowane są one jako zanieczyszczenia, a
część z nich wywiera destrukcyjny wpływ na inne związki atmosfery i bezpośrednio
zagraża środowisku naturalnemu. Zanieczyszczeniami są też składniki z grupy
naturalnych jeżeli występują w ilościach przekraczających wartości graniczne. Zatem
zanieczyszczenia można podzielić na grupę pochodzenia naturalnego i sztucznego.
Do tej pierwszej należą pyły kosmiczne i ziemskie, aerozole morskie, gazy
wulkaniczne, mikroorganizmy, części roślinne i zwierzęce. Zanieczyszczenia sztuczne
mają najczęściej charakter przemysłowy (tabela
2). Do najbardziej
zanieczyszczających gałęzi gospodarki człowieka należą: przeróbka ropy naftowej,
produkcja nawozów, cementu, produkcja szeroko rozumianych fabryk chemicznych,
a także rolnictwo.
Znajomość emisji zanieczyszczeń z różnych źródeł pozwala na podejmowanie
działań ograniczających zagrożenie. Należy jednak stwierdzić, iż każde tego typu
działanie jest dość kosztowne.
Atmosfera ziemska w przekroju pionowym różni się nie tylko składem mieszaniny
gazów lecz także innymi cechami fizycznymi, takimi jak temperatura, ciśnienie, skala
oraz rodzaj ruchów w poziomie czy pionie. Górna granica atmosfery jest trudna do
precyzyjnego określenia i przebiega na wysokości około 1000 km. Biorąc jednak
pod uwagę masę gazów tworzących mieszaninę stwierdzamy, że aż 99,99%
zlokalizowane jest w przestrzeni homogenicznej do 100 km, 99,0% w warstwie do
35km, zaś 80% w przestrzeni do 10 km. Zatem pod względem ilości materii
zasadnicze znaczenie ma warstwa przyziemna. Ona to z kosmosu widziana jest jako
cienka niebieskawa powłoka. W ogóle miąższość gazowej otoczki Ziemi jest
stosunkowo niewielka w zestawieniu ze średnicą planety.
Atmosferę dzielimy na pięć zasadniczych warstw. Licząc od dolnej granicy
wyróżnia się: troposferę, stratosferę, mezosferę, termosferę oraz magnetosferę
(egzosferę). Ich układ przedstawia rysunek 5.
Najniżej Ziemi położona jest troposfera. To w niej mają miejsce wszystkie
najistotniejsze procesy pogodowe. Najintensywniej zachodzą tu przemiany fazowe i
realizuje się atmosferyczny fragment obiegu wody w przyrodzie. Najbardziej
widocznym efektem tego jest tworzenie się chmur i opady atmosferyczne. Cechą
szczególną troposfery jest zjawisko wymiany pionowej masy oraz spadek
temperatury wraz z wysokością. Spadek ten wynosi od 0,44 do 0,68
o
C/100m w
zależności od szerokości geograficznej. Nad równikiem gradient termiczny jest
większy, wymiana intensywniejsza i obejmuje przestrzeń pionową do 16-18 km.
Taka też jest tu wysokość warstwy troposfery. Nad biegunem troposfera jest płytsza
bowiem ruchy pionowe dotyczą wysokości jedynie do 7 km. Temperatura górnej
granicy tej warstwy wynosi od –45
o
C (nad biegunami latem) do –80 (nad
równikiem). Powyżej troposfery rozciąga się wąska warstwa tropopauzy, a tuż nad
nią stratosfera.
Atmosfera ziemska
19
Rys. 5. Przekrój pionowy atmosfery ziemskiej
Atmosfera ziemska
20
W stratosferze temperatura początkowo utrzymuje się na poziomie takim jak w
górnej troposferze, by po przekroczeniu wysokości 35 km zacząć wzrastać.
Przeciętnie temperatura na granicy górnej osiąga ostatecznie wartość ok. 0
o
C.
Zjawisko ocieplenia tej przestrzeni w atmosferze wiąże się z absorbcją energii
promieniowania ultrafioletowego. Stratosfera zawiera przeważającą ilość ozonu
atmosferycznego, a największa jego koncentracja dotyczy przestrzeni 20-30km. W
omawianej warstwie znajduje się tylko znikoma ilość pary wodnej i stąd mieszczą się
w niej jedynie wierzchołki chmur wysokich i cumulonimbusów. Samodzielnie mogą
tworzyć się tu tzw. obłoki iryzujace, widoczne tylko w nocy, będące cienkimi
skupiskami kropelek przechłodzonej wody. Górna granica stratosfery przebiega na
wysokości ok. 50 km i kończy się warstwą przejściową – stratopauzą.
Nad stratosferą lokuje się mezosfera. Jej charakterystyczne cechy zaznaczają się
na wysokości od 50 do ok. 80-85 km. Zgodnie z nazwą jest to warstwa środkowa,
nazywana przez niektórych autorów górną troposferą. Jest to o tyle uprawnione
gdyż występuje tu podobny rozkład temperatury - od wartości 0
o
C u podstawy,
temperatura spada tu do granic –80
o
C. W miejscach tych występują najniższe
temperatury w całej atmosferze. Taki też rozkład termiki umożliwia pionowe ruchy
bardzo już rozrzedzonego tu powietrza. Ponad mezosferą rozpościera się
mezopauza.
Powyżej znajduje się warstwa o bardzo małej gęstości zwana termosferą. O ile w
dolnej troposferze średnia droga swobodna gazu wynosi 10
-5
cm to w warstwie
termosfery są to wartości od 1 do 100 km. Termosfera dolna nosi nazwę jonosfery.
W jonosferze przeważają zjonizowane cząsteczki gazów. Wolne jony dodatnie i
elektrony mogą się z sobą łączyć. Ponadto różnica ciężarów cząstek prowadzi do
rozwarstwień. W górnej przestrzeni tej warstwy temperatura wzrasta ponad
1000
o
C. Dla specjalistycznych celów niektórych nauk wydziela się specyficzne
warstwy oznaczane D,E F
1
, F
2
. Do jonosfery przenikają okresowo cząstki tzw.
„wiatru słonecznego” (plazmy słonecznej). Powoduje to charakterystyczne rozbłyski,
burze jonosferyczne, czy zorze polarne. Zjawiska występujące w tej warstwie
prowadzą do zakłóceń radiokomunikacji ziemskiej. Górna część termosfery -
egzosfera - jest warstwą w której jest tak mało materii, iż praktycznie cząstki gazów
nie zderzają się ze sobą. Jest to strefa z której materia wypływa w przestrzeń
kosmiczną.
Na zewnątrz typowych warstw atmosferycznych lokuje się tzw. Magnetosfera,
będąca układem pól magnetyzmu ziemskiego. Nie jest to już atmosfera jednak
spełnia - podobnie jak otoczka gazowa Ziemi – zadanie ochronne wobec planety.
Magnetosfera zabezpiecza nas przed „wiatrem słonecznym” i jego szkodliwym
działaniem na organizmy biologiczne.
IV. PROMIENIOWANIE SŁONECZNE
Emitowane przez Słońce promieniowanie, mające charakter fal
elektromagnetycznych, jest głównym źródłem energii dla procesów zachodzących na
kuli ziemskiej. Zaś z punktu widzenia meteorologicznego stanowi zasadniczy
czynnik klimatotwórczy.
Podstawowe pojęcia związane z promieniowaniem można zdefiniować
następująco:
N Promieniowanie: Zjawisko przepływu energii w postaci fali elektromagnetycznej
wysyłanej lub absorbowanej przez ciało.
N Energia promienista: Ilość energii niesionej przez promieniowanie (jednostka -
[J]).
N Gęstość energii promienistej: Ilość energii promienistej w jednostce objętości
[ J/m
3
].
N Strumień promienisty (moc promienista): Tempo emitowania, przekazywania lub
pochłaniania energii promienistej, czyli ilość energii promienistej emitowanej,
przenoszonej lub pochłanianej w jednostce czasu [ J/s - W].
N Emitancja (wypromieniowanie): Stosunek strumienia promienistego do wielkości
powierzchni promieniującej [W/m
2
].
N Irradiacja (napromieniowanie): Stosunek strumienia promienistego do wielkości
powierzchni, na którą pada [W/m
2
].
N Natężenie promieniowania: Stosunek strumienia promienistego do kąta
bryłowego jaki tworzy dany kierunek widziany ze źródła promieniowania [W/sr].
N Radiacja: Jak wyżej tylko dotyczy powierzchni przyjmującej promieniowanie
[W/m
2
/sr].
Promieniowanie podlega kilku fundamentalnym prawom fizycznym, a oto
najważniejsze z nich:
Prawo Wiena. Długość fali, na którą przypada maksimum promieniowania N
max
ciała
doskonale czarnego, jest odwrotnie proporcjonalna do temperatury tego ciała (T).
Zależność tę ujmuje wzór: N
max
= c/T
,
gdzie c = 2,8978
.
10
-3
m
.
K.
Prawo Stephana-Boltzmana. Całkowita emitancja ciała doskonale czarnego jest
proporcjonalna do temperatury powierzchni tego ciała, wyrażonej w skali
bezwzględnej.
Promieniowanie słoneczne
22
Słońce wysyła w przestrzeń kosmiczną fale o długości od ok. 0,01 2m do 100 m.
Selektywna przepuszczalność atmosfery sprawia, iż do powierzchni Ziemi docierają
tylko niektóre zakresy widma. Z punktu widzenia meteorologicznego
najistotniejszym z nich jest przedział optyczno-cieplny w zakresie długości fali od
0,290 do 24 2m, ponieważ niesie on z sobą przeważający ładunek energii
całkowitej. Powyższy przedział widmowy dzieli się dodatkowo na podzakresy:
nadfiolet (0,29 - 0,4 2m i 7% zasobu energii), promieniowanie widzialne (0,4- 0,75
2m - ok. 45% energii), podczerwień (0,75-24 2m, potencjał energetyczny – 48%).
Promienie słoneczne przenikają przez przestrzeń kosmiczną bez strat (próżnia
kosmiczna jest dla nich ośrodkiem przeźroczystym), zmienia się tylko gęstość
strumienia promieni w miarę oddalania się od Słońca. Największą irradiację, zwaną
niekiedy również natężeniem promieniowania notujemy na granicy atmosfery.
Wielkość tego parametru nazywamy „stałą słoneczną”. Jej wartość wynosi około
1380 W/m
2
(w literaturze przedmiotu znajdujemy różne dane z uwagi na różne
warunki i techniki pomiaru). Wartość ta w istocie, wbrew nazwie, nie jest stała.
Zmienia się w cyklu rocznym o ok. 3 - 4 % z powodu zmian odległości Ziemi od
Słońca. Ponadto ma na nią wpływ aktywność naszej najbliższej gwiazdy oraz
pojawianie się na drodze biegu promieni słonecznych w przestrzeni tzw. pyłu
kosmicznego.
Przyjętą wartość stałej słonecznej można korygować uwzględniając poprawki na
porę roku podawane w specjalnych zestawieniach tabelarycznych.
Rys. 6. Procesy, którym podlega promieniowanie słoneczne przenikające przez atmosferę.
Promieniowanie słoneczne
23
W miarę wnikania wiązki promieni do atmosfery ziemskiej obserwuje się zjawisko
jej osłabiania (ekstynkcji). Dzieje się tak na skutek odbicia ich części w kierunku
otwartej przestrzeni kosmicznej, rozpraszania oraz pochłaniania
przez
znajdujące się w niej cząsteczki gazów, zanieczyszczeń, kropel wody (rys. 6).
Procesy te prowadzą do strat energetycznych. Tak więc natężenie promieniowania
docierającego do powierzchni (dla uproszczenia prostopadłej) na Ziemi jest zawsze
mniejsze od stałej słonecznej. Wielkość napromieniowania na taką powierzchnię
obliczamy ze wzoru:
I
m
= I
o
x
p
m
gdzie:
I
m
- natężenie promieniowania na powierzchnię prostopadłą,
I
o
- stała słoneczna,
p - współczynnik przeźroczystości atmosfery, m - masa atmosferyczna.
Wielkość współczynnika przeźroczystości atmosfery zależy od zawartości w niej
pary wodnej i różnych zanieczyszczeń. Średnie wartości tego współczynnika (p)
uznane dla terenów nizinnych wynoszą od ok. 0,7 latem do 0,85 w okresie zimy.
Z kolei liczba mas atmosferycznych zależy od długości drogi przenikania promieni
poprzez atmosferę, czyli bezpośrednio od wysokości Słońca. Długość tej drogi
przybiera wartość jeden gdy Słońce znajduje się na wysokości 90
o
. Pierwsze
przybliżenie wartości masy atmosferycznej można uzyskać stosując niżej podany
wzór (dokładniejszą wartość m podaje tabela 3).
m = 1/sin(ho)
Tab. 3. Liczba (m) "mas" atmosferycznych (optycznych) w zależności od wysokości Słońca ho
przy średnim ciśnieniu atmosferycznym 1013 hPa
Ho m ho M Ho m ho m
90
80
70
65
60
55
50
45
40
35
30
1,000
1,015
1,064
1,103
1,154
1,220
1,304
1,413
1,553
1,740
1,995
25
23
21
19
17
15
14
13
12
11
10
2,357
2,546
2,773
3,049
3,388
3,816
4,075
4,372
4,716
5,120
5,400
9,5
9,0
8,5
8,0
7,5
7,0
6,5
6,0
5,5
5,0
4,5
5,870
6,180
6,510
6,880
7,300
7,770
8,300
8,900
9,590
10,40
11,33
4,0
3,5
3,0
2,5
2,0
1,5
1,0
0,5
0,0
12,44
13,76
15,36
17,30
19,80
22,90
27,00
32,30
39,70
Promieniowanie słoneczne
24
Promienie słoneczne docierające do powierzchni Ziemi bezpośrednio w postaci
wiązek równoległych stanowią część promieniowania nazywanego bezpośrednim.
Owo promieniowanie charakteryzuje się największym natężeniem gdy pada na
powierzchnię prostopadłą do kierunku transmisji. Powierzchnie usytuowane pod
innym kątem względem linii biegu promieni otrzymują mniejszą ilość energii.
Wyliczenia natężenia promieniowania na taką powierzchnię (zwaną w podręcznikach
jako pozioma) dokonujemy korzystając z zależności:
I
h
= I
m
x
sin(h
o
)
gdzie:
Ih - natężenie promieniowania słonecznego na powierzchnię poziomą,
Im - natężenie promieniowania słonecznego na powierzchnię prostopadłą,
ho - kąt padania promieni słonecznych.
Rys.7. Zależność kąta padania promieni słonecznych na powierzchnię poziomą (
D)
usytuowaną na różnych płaszczyznach w stosunku do horyzontu (
J) od wysokości Słońca nad
horyzontem (
E).
Kąt padania promieni słonecznych, a zatem i ilość docierającej energii do danego
punktu na powierzchni Ziemi, zależy od wielu czynników. Przede wszystkim
decyduje o tym szerokość geograficzna analizowanego obszaru. W odniesieniu do
każdego punktu na kuli ziemskiej obserwujemy roczną zmienność wysokości Słońca
nad horyzontem, wynikającą z zasad obrotu naszej planety wokół tej gwiazdy
(deklinacja Słońca). Najwyższe kąty wysokości Słońca względem płaszczyzny
Promieniowanie słoneczne
25
horyzontu notuje się w strefie międzyzwrotnikowej i z tego też powodu ta cześć
planety zyskuje najwięcej energii promienistej. Ponadto różnice dobowe wywołuje
też obrót Ziemi wokół własnej osi, ustalając dla każdej pory pora dnia (tzw. kąt
godzinowy).
Z punktu widzenia rolniczego duże znaczenie posiada analiza promieniowania w
zależności od konfiguracji pól. Zarówno wystawa zbocza jak również kąt jego
nachylenia decydują o ilości energii dostarczanej przez słoneczne promieniowanie
bezpośrednie. Chcąc uwzględnić powyższe zróżnicowanie należy w przypadku stoku
południowego do wartości kąta nachylenia promieni dodać wartość kąta spadku
powierzchni zbocza. Natomiast na powierzchnię stoku północnego promienie
bezpośrednie padają tylko wtedy gdy ich kąt padania jest większy od kąta spadku
zbocza. Zatem dla celów korekty rzeczywistego natężenia promieniowania należy od
kąta padania odjąć kąt spadku (rys. 7).
Oprócz promieniowania bezpośredniego, w postaci wiązek równoległych w
stosunku do kierunku Słońca, powierzchnia Ziemi otrzymuje także promieniowanie
rozproszone. Są to fale padające pod różnymi kątami na skutek odbić od cząstek
zawartych w atmosferze (para wodna, zanieczyszczenia, etc). Zjawisko rozproszenia
dotyczy w zmiennym stopniu fal o różnej długości. Zależność ta wyraża się
następująco: rozproszenie następuje wtedy gdy na drobinę padnie fala krótsza od
jej wymiarów; zatem silniejszemu rozpraszaniu podlegają fale krótsze oraz tym
intensywniejsze jest rozpraszanie im większe drobiny znajdują się w atmosferze
(rys. 6). W dni bezchmurne przeważa zdecydowanie promieniowanie bezpośrednie,
natomiast w dni pochmurne (w przypadkach pełnego zachmurzenia) docierają do
powierzchni tylko promienie rozproszone.
Rolnicza użyteczność pomiarów radiacji słonecznej pojawia się wtedy, gdy oprócz
oszacowania przychodów energii (liczonych także teoretycznie z uwzględnieniem
wyżej podanych zasad), wykonamy również oznaczenie strat tej energii wskutek
odbicia i wypromieniowania przez powierzchnię czynną pól.
Promienie, które dotrą do powierzchni Ziemi, w części zostaną pochłonięte, w
części zaś odbite. Zdolność odbijania promieniowania zależna jest od barwy
powierzchni, długości fali i kąta padania. Współczynnik informujący o ilości
promieniowania odbitego do padającego nosi nazwę albedo i wyrażany jest w
procentach lub wartościach ułamka dziesiętnego.
Zestawienie przychodów i rozchodów energii w danym punkcie nazywamy
bilansem promieniowania (bilansem radiacyjnym).
Po stronie przychodów wyróżniamy następujące elementy promieniowania:
N promieniowanie słoneczne całkowite (T), jako suma promieniowania
bezpośredniego o długości fali (0, 290 -3,0 2m) i rozproszonego (0, 290-1,5
2m),
Promieniowanie słoneczne
26
N promieniowanie zwrotne atmosfery Ea (4-120 µm), jako długofalowe
promieniowanie atmosfery w kierunku Ziemi.
Składowe bilansu radiacyjnego po stronie strat energetycznych to:
N
promieniowanie odbite od powierzchni Ziemi, R
k
(krótkofalowe) i R
d
(długofalowe),
albedo (A = R:T * 100 [%]),
N georadiacja E
z
(4-120 µm) - długofalowe wypromieniowanie Ziemi,
N promieniowanie efektywne E
e
= E
z
- E
a
Ostateczna postać bilansu promieniowania wyraża się wzorem:
Q = (I + D + E
a
) - (R
k
+ R
d
+ E
z
)
Część energii dostarczanej przez Słońce bierze udział w procesach decydujących
o wzroście i rozwoju roślin na danej przestrzeni rolniczej. Z ogólnej emisji
docierającej do powierzchni liści, w proces ten zaangażowane jest jednak jedynie 1-
3%.
Pochłonięta przez glebę energia uczestniczy w przemianach chemicznych
fizycznych i biologicznych decydując o jakości tej części środowiska względem
potrzeb - przede wszystkim - systemu korzeniowego rośliny. Zamiana
promieniowania na energię cieplną stwarza odpowiednie warunki do kiełkowania
nasion, a także decyduje o tempie pobierania składników pokarmowych i wody.
Dokładniejszy opis tych zjawisk znajduje się w rozdziale dotyczącym meteorologii
rolniczej.
Bilans promieniowania układu: Słońce – atmosfera – Ziemia, decyduje o
głównych elementach charakterystyki klimatu planety. Bilanse cząstkowe wybranych
okresów i przestrzeni rzutują na klimatyczne i pogodowe zjawiska lokalne. Śledząc
składowe bilansu promieniowania całej planety nie można pominąć innych form
wymiany energii, w tym głównie wymiany na drodze przemian fazowych wody.
Pełny bilans energetyczny, w układzie rocznym dla całej kuli ziemskiej przedstawia
rysunek 8.
Przychód energetyczny układu stanowi promieniowanie słoneczne krótkofalowe.
Z całej sumy tego promieniowania około 17% pochłaniają bezpośrednio składniki,
domieszki i zanieczyszczenia atmosfery. Około ¼ zostaje odbita i skierowana
z powrotem w przestrzeń kosmiczną. Do powierzchni Ziemi dociera 37% tej energii,
jako promieniowanie bezpośrednie w postaci dwóch strumieni – bezpośredniego
promieniowania przy bezchmurnym niebie i promieniowania bezpośredniego
przenikającego przez cienkie powłoki chmur. Nieco ponad 10% energii dostarcza
promieniowanie pośrednie. Część promieniowania bezpośredniego i pośredniego, po
dotarciu do Ziemi, jest odbijana od jej powierzchni i również wraca do przestrzeni
Promieniowanie słoneczne
27
kosmicznej. Razem z częścią odbitą od górnych powierzchni chmur stanowi to 35% i
określane jest mianem albeda Ziemi. Ostatecznie więc powierzchnia naszej planety
pochłania około 48% energii promienistej Słońca. Pochłonięta energia uczestniczy
dalej w procesie wymiany. Z uwagi jednak na to, iż Ziemia ogrzana promieniami
słonecznymi osiąga w wyniku tego średnią temperaturę powierzchni jedynie ok. 15
o
C, to jej maksymalna emisja promienista lokuje się w długim przedziale zakresu.
Tak więc promieniowanie ziemskie ma charakter długofalowy i jest z tego powodu
łatwiej absorbowane przez niektóre składniki atmosfery.
Rys.8. Uśredniony, roczny bilans energetyczny Ziemi.
Analiza przebiegu wymiany energii w zakresie dostarczanym przez
promieniowanie długofalowe jest bardziej skomplikowana, ze względu na jej
wielokrotny przepływ w różnych kierunkach i udział innych form wymiany w tym
procesie. Z zamieszczonego rysunku wynika, że suma wszystkich źródeł energii,
którymi gospodaruje podłoże wynosi aż 114%. (praktycznie taka sytuacja oczywiście
nigdy nie występuje, gdyż procesy dopływu i ubytku energii zachodzą równolegle).
Promieniowanie długofalowe powierzchni ziemskiej skierowane do atmosfery jest
niemal w całości pochłaniane przez atmosferę. Jedynie 5% z tego przenika do
Promieniowanie słoneczne
28
przestrzeni kosmicznej. Część ta nazywana jest oknem widmowym Ziemi. Około
30% zgromadzonej energii z podłoża dostaje się do atmosfery drogą przemian
fazowych wody. Suma energii ze wszystkich źródeł kumulowana przez atmosferę
wynosi więc ostatecznie 156%. Cała ta energia rozkłada się dalej na dwa strumienie
wypromieniowywane przez atmosferę, także w postaci fal długich. Pierwszy
strumień (60%) skierowany jest w przestrzeń kosmiczną i stanowi stratę energii
naszej planety. Wartość szacowaną na ok. 96% reprezentuje promieniowanie
atmosfery ku Ziemi (promieniowanie zwrotne).
Z przedstawionych wyżej liczb wynika, że ilość dopływającej do Ziemi energii w
cyklu rocznym równa się jej ubytkowi w tym samym czasie. Różnica między
przychodem, a rozchodem równa się więc zero. Dzięki temu temperatura
powierzchni Ziemi i atmosfery utrzymuje się na względnie równym poziomie.
Notowane w przeszłości wyraźne ocieplenia lub ochłodzenia (zlodowacenia) były
właśnie wynikiem zachwiania tej równowagi. O ile bilanse energii całej powierzchni
Ziemi w dłuższych okresach czasu bywają zrównoważone, o tyle lokalnie i w krótkim
czasie, pojawiają się znaczne stany nierównowagi. Generalnie przestrzeń
międzyzwrotnikowa oraz pory letnie wszystkich szerokości geograficznych
charakteryzują się większym pochłanianiem energii w stosunku do strat. Różnice
przestrzenne bywają jednak często zacierane dzięki poziomemu transportowi energii
w skali globalnej i lokalnej.
Do pomiaru napromieniowania w danym miejscu i czasie służy szereg
przyrządów zwanych radiometrami, pyrheliometrami czy aktynometrami. Różnice
między nimi sprowadzają się do rodzaju sensora oraz sposobu pomiaru, względnego
i bezwzględnego.
Jednym z bardziej rozpowszechnionych przyrządów tego typu jest solarymetr. W
wersjach meteorologicznych najbardziej znana jest jego odmiana zwana
solarymetrem Gorczyńskiego. Głównym jego elementem jest termostos Molla
składający się z ogniw termoelektrycznych (na przemian ułożone płytki, wykonane
ze specjalnych metali, zabarwione na biało i czarno). Promieniowanie słoneczne
powoduje zróżnicowane nagrzewanie pól i powstanie różnicy potencjałów między
płytkami, proporcjonalnej do wartości irradiacji. Zmierzone na mikrowoltomierzu
wartości prądu przeliczane są następnie na jednostki napromieniowania. Solarymetr
Gorczyńskiego, przy wykorzystaniu specjalnych przystawek, może mierzyć
promieniowanie bezpośrednie, rozproszone jak i całkowite.
Do pomiaru zmian promieniowania w układzie liniowym służą solarymetry
tubowe.
Aktualnie coraz powszechniej bywają używane przyrządy pozwalające na
wszechstronne pomiary promieniowania (różne zakresy fal, promieniowanie
fotosyntetycznie czynne - PhAR kierunki, etc.) i zapewniające całkowitą
automatyzację tego procesu (rejestracja i przetwarzanie komputerowe).
Promieniowanie słoneczne
29
Oprócz wartości irradiacji (napromieniowania), ważnym wskaźnikiem
meteorologicznym, a zwłaszcza agrometorologicznym, w skali czasowej jest tzw.
usłonecznienie. Usłonecznieniem nazywamy sumę czasu promieniowania
słonecznego, bezpośredniego dla określonego punktu na powierzchni Ziemi. Miarą
usłonecznienia są więc jednostki czasowe (godziny z dokładnością do dziesiętnych
części).
Rys. 9. Schemat solarymetru tubowego i kopułkowego
Promieniowanie słoneczne
30
Każdy punkt na powierzchni Ziemi można scharakteryzować pod tym kątem
miarą usłonecznienia teoretycznego, możliwego (czyli czasu liczonego od wschodu
do zachodu Słońca). Czas ten zależy od położenia geograficznego punktu i jest dla
niego wartością stałą w skali rocznej i zmienną w mniejszych przedziałach:
kwartalnym, miesięcznym, dekadowym. Usłonecznienie rzeczywiste jest natomiast
wartością zmierzoną dla danego miejsca i czasu, uwzględniającą satny
zachmurzenia. Klasycznym przyrządem do pomiaru usłonecznienia rzeczywistego
jest heliograf Campbella-Stokesa. Zasada pomiaru polega na skupianiu światła
słonecznego (kierunkowego) przez kulę szklaną i przepalaniu, dzięki
skoncentrowanej wiązce, paska papieru wzdłuż linii będącej przeciwległą w stosunku
do toru pozornego ruchu Słońca po sklepieniu niebieskim. Gdy Słońce zostanie
przesłonięte przez chmury wtedy do przepalenia nie dochodzi. Wyznaczając
usłonecznienie w ciągu doby odczytujemy łączną długość linii przepalenia ze skali
godzinowej naniesionej na pasku papieru (stosuje się różne rodzaje pasków w
zależności od okresu pomiaru). Należy przy tym uwzględniać każde nawet
najdrobniejsze ślady przepaleń.
Rys. 10. Heliograf Campbela-Stokesa
V. CIEPŁO I TERMIKA UKŁADU PODŁOŻE –
ATMOSFERA
Fizyka definiuje ciepło jako sumę energii kinetycznej nieuporządkowanego ruchu
cząsteczek lub atomów materii oraz energii potencjalnej ich wzajemnych
oddziaływań. Temperatura zaś to wielkość skalarna określająca stan równowagi
termodynamicznej danego ciała. Zwyczajowo ciepłym nazywamy nie to ciało, które
zawiera więcej energii cieplnej, tylko to, które ma wyższy jej poziom. Poziom ów
określa temperatura. Oznaczając temperaturę zestawiamy z sobą dwa układy
termodynamiczne. Jeden z nich służy jako wzorzec, a porównanie następuje wtedy
gdy między tymi układami pojawi się stan równowagi. Tak więc temperatura
oznaczana jest na podstawie mierzalnych cech termometrycznych wzorca
zmieniających się w trakcie wymiany energii. Najczęściej wykorzystywane
właściwości termometryczne to zmiana objętości, oporu, etc. Wartości liczbowe
temperatury ustalane są na podstawie skal opartych na tzw. punktach stałych.
Przykładowo skala Celsjusza powstała po przyjęciu za 0 poziom równowagi
termodynamicznej wody w jej tzw. punkcie potrójnym i 100 w stadium wrzenia, przy
wartości ciśnienia tzw. normalnego. W przypadku obowiązującej w układzie SI skali
Kelvina punkt potrójny wody odpowiada 273,16 K, zaś zero to w tym przypadku zero
bezwzględne (brak jakiegokolwiek ruchu cząstek materii – stan tylko teoretycznie
możliwy). W USA powszechnie używa się skali Fahrenheita. Warto więc wiedzieć, że
w stosunku do skali Celsjusza występują następujące relacje: 0
o
C to 32
o
F, zaś 100
o
C
odpowiada 212
o
F . Stopnie tych skal nie są równe. 1
o
C odpowiada 9/5 stopnia F i
odwrotnie: 1
o
F = 5/9
o
C. Zatem przeliczając stopnie ze skali Farenheita na Celsjusza
stosujemy regułę: T
o
C = (T
o
F – 32)
x
5/9.
Pomiędzy podłożem i atmosferą zachodzi permanentna wymiana energii. W
wyniku tej wymiany dochodzi do ustalenia parametrów cieplnych każdego ze
składowych układu. Efekt współdziałania zależy nie tylko od ilości dostarczonej
energii słonecznej, ale i od ich swoistych właściwości cieplnych. Dla lepszego
zrozumienia tych właściwości, przedstawiono poniżej definicje najważniejszych
wielkości z zakresu gromadzenia, przepływu i wymiany ciepła.
Ciepło właściwe. Jest to ilość ciepła jaka ogrzewa jednostkę masy danej
substancji o jednostkę temperatury. W przypadku ciał stałych i niektórych cieczy
podgrzewanie nie zmienia objętości, natomiast ogrzewanie gazów powoduje
zwiększanie objętości i zużycie części energii na ten proces. Z tego względu ciepło
właściwe gazów należy definiować jako ciepło właściwe pod stałym ciśnieniem lub w
stałej objętości.
Ciepło i termika układu atmosfera - podłoże
32
Pojemność cieplna. Wielkość pozwalająca na porównanie właściwości cieplnych
wszystkich rodzajów materii. Definiuje się ją jako ilość ciepła podnoszącą
temperaturę jednostki masy ciała o jednostkę temperatury.
Przewodnictwo cieplne. Jest to proces przekazywania energii za pośrednictwem
materii. Miarą jego jest tzw. współczynnik przewodnictwa równy ilości ciepła, która
przepływa w ciągu jednostki czasu (sekundy) przez jednostkę powierzchni i warstwę
o jednostkowej grubości, przy różnicy temperatur pomiędzy górną i dolną
powierzchnią wynoszącej 1K.
Dyfuzyjność cieplna. Jest to właściwość oznaczająca zdolność do przewodzenia
ciepła i wyliczana ze stosunku współczynnika przewodnictwa do pojemności cieplnej
danej materii.
Podstawowe rodzaje materii współdziałające w zakresie wymiany ciepła
charakteryzuje znaczna różnorodność (tab. 4). O ile atmosfera ziemska w całej swej
objętości jest w miarę jednolita, to współdziałające z nią w zakresie przepływu
ciepła podłoże, wykazuje bardzo dużą zmienność przestrzenną czego konsekwencją
są specyficzne stany pogodowe i klimatyczne.
Tab.4. Właściwości cieplne podstawowych rodzajów podłoża
Materia Ciężar
właściwy
Kg
.
m
-3.
10
3
Ciepło
właściwe
J
.
kg
-1.
K
-1 .
10
3
Pojemność
cieplna
(objętościowa)
J
.
m
-3.
K
-1 .
10
6
Współczynnik
przewodnictwa
cieplnego
J
.
cm
-1.
s
-1.
k
-1
Dyfuzja
cieplna
m
2 .
s
-1 .
10
-6
Gleba
sucha
1,60 0,80
1,28 0,0030
0,24
Woda
(4
o
C)
1,00 4,18
4,18 0,0057
0,14
Powietrze
(20
o
C)
0,0012
1,01
0,0012 0,00025
20,50
Ciepło przemieszcza się w atmosferze dość trudno. Współczynnik przewodnictwa
cieplnego gazów atmosferycznych jest bardzo niski, niższy o ok. 150 razy od
przewodnictwa litej skały, 20 razy od wody i ok. 12 razy od suchej gleby. Stanowi to
czynnik termoizolacyjny dla naszej planety. Niska jest także pojemność cieplna
powietrza, zwłaszcza liczona w stosunku do objętości.
Największe znaczenie w meteorologii przywiązuje się do wymiany cieplnej
pomiędzy atmosferą a podłożem. Przy niskich prędkościach wiatru temperatura
powietrza różnicuje się bardzo istotnie wraz ze zmianą wysokości. Dla okresu o
dodatnim bilansie promieniowania notuje się zazwyczaj wyższe temperatury w
pobliżu powierzchni, w przypadku bilansu ujemnego wystąpią tu temperatury
najniższe. W całym przekroju atmosfery występują określone prawidłowości w
Ciepło i termika układu atmosfera - podłoże
33
pionowym rozkładzie temperatur. Ponieważ gazy atmosfery ogrzewają się od
podłoża, zatem im wyżej, tym temperatura spada. W wyniku tego w troposferze
następuje stopniowe obniżanie temperatury. Spadek temperatury wraz z wysokością
(w
o
C/100 m), określany jest jako zwykły pionowy gradient temperatury.
W atmosferze duże znaczenie mają również procesy zmian temperatury bez
wymiany cieplnej z otoczeniem. Zjawiska te, zwane adiabatycznymi, zachodzą
w przemieszczających się pionowo masach powietrza. Powolność naturalnego
procesu przepływu ciepła (przewodnictwa) powoduje, że procesy sprężania i
rozprężania powietrza wpływają na jego temperaturę, zanim dojdzie do jej
wyrównania z otaczającymi masami. Jeżeli pewna objętość powietrza przemieszcza
się w górę to stopniowo trafia w obszary coraz to niższego ciśnienia i w związku z
tym rozpręża się. Praca zużyta na zmianę objętości powoduje obniżenie poziomu
energetycznego, a tym samym temperatury. W przypadku gdy powietrze opada w
dół w pionowym przekroju atmosfery to oznacza, iż przemieszcza się w kierunku
wzrastającego ciśnienia. W takich okolicznościach praca wykonana przez otaczające
daną objętość masy powietrza zamienia się w ciepło i podnosi wartość temperatury.
Rys. 11. Typy rozkładu pionowego temperatur w atmosferze
Pionowe zmiany temperatury wywołane tym zjawiskiem określane są mianem
pionowego gradientu adiabatycznego. Jeżeli procesy adiabatyczne będą
rozpatrywane w kontekście zmian cieplnych związanych z przemianami fazowymi
wody, to dodatkowo można mówić o gradiencie sucho- i wilgotno-adiabatycznym.
Temperatura powietrza w układzie pionowym zmienia się wraz z wysokością,
przy względnie stałym tempie spadku o 0,6 – 1
o
C. Czasem jednak zmiany
temperatury mogą mieć przejściowo inny charakteri w związku z tym wyróżnia się
stany inwersji czy izotermii (rys. 11).
Ciepło i termika układu atmosfera - podłoże
34
W przypadku gdy powietrze w pewnej przestrzeni unosi się lub opada to zmiany
temperatur wraz z wysokością, związane z procesami adiabatycznymi zachodzącymi
w tej warstwie, mogą kształtować się inaczej niż w powietrzu otaczającym. W
wyniku tych różnic ustalają się stany równowagi termodynamicznej, decydujące o
ważnych zjawiskach pogodowych.
Jeżeli gradient zewnętrzny jest większy niż gradient adiabatyczny warstwy
wznoszącej się(*
z
>*
a
), to powietrze przemieszcza się na dość duże wysokości zanim
pojawi się stan równowagi termicznej z otaczającą warstwą. Sytuacja taka określana
jest mianem równowagi chwiejnej. W czasie wznoszenia, powietrze rozprężając się i
ochładzając stopniowo, może osiągnąć temperaturę punktu rosy co zwykle
zapoczątkowuje powstawanie chmur.
Rys. 12. Stany równowagi termodynamicznej w atmosferze
W przeciwnym przypadku, gdy gradient zwykły powietrza otaczającego jest
mniejszy niż gradient adiabatyczny powietrza unoszącego się (*
z
<*
a
), to stosunkowo
szybko osiąga ono temperaturę niższą niż warstwa zewnętrzna i rozpoczyna
opadanie w dół. Przemieszczając się w dół ulega sprężeniu i adiabatycznemu
ogrzaniu, co znowu wyzwala impuls wznoszenia. W takim przypadku powietrze, po
uzyskaniu impulsu do wznoszenia lub opadania, nie może zasadniczo zmienić
swojego położenia. Ten stan nosi nazwę równowagi stałej.
Bardzo rzadko mamy do czynienia z relacją równości gradientu zewnętrznego i
adiabatycznego (*
z
=*
a
). W takiej sytuacji wznoszenie lub opadanie powietrza trwa
tylko tak długo jak długo działa impuls wyzwalający to zjawisko. W stanie
Ciepło i termika układu atmosfera - podłoże
35
równowagi obojętnej powietrze przemieszczone w dół lub górę pozostaje na nowym
miejscu.
W meteorologii terminem -
temperatura powietrza - określa się wartość liczbową
charakteryzującą stan cieplny mieszaniny gazów atmosferycznych w określonym
czasie i miejscu. Miejscem oznaczeń temperatury powietrza jest klatka
meteorologiczna lub w warunki zbliżone do tych jakie gwarantuje klatka
meteorologiczna, w których przyrząd pomiarowy umieszczono 200 cm nad
powierzchnią gruntu. Wszystkie inne oznaczenia w dowolnych punktach atmosfery,
aczkolwiek w wielu przypadkach przydatne, nie są temperaturą powietrza w sensie
meteorologicznym Ujednolicenie miejsca i warunków pomiaru jest konieczne dla
uzyskiwania porównywalnych wyników.
Podstawowym parametrem charakterystyki termicznej atmosfery dla danego
obszaru jest temperatura średnia dobowa. Jej wyliczeń dokonujemy na bazie
wartości pomiarów chwilowych, wykonywanych cyklicznie w stałych odstępach
czasowych w ciągu doby. Stosując najpowszechniejszą częstotliwość odczytów
wartości chwilowych, wyliczeń temperatury średniej dobowej (począwszy od 1
stycznia 1996) dokonujemy, stosując poniższy wzór:
t
dob
= (t
7
+t
13
+t
max
+t
min
)/4
Średnia dobowa służy do uproszczonej analizy zjawisk termicznych w ciągu dnia,
a jej wartość zależy od wartości temperatur rzeczywistych występujących o każdej
godzinie dnia i nocy. Dobowy przebieg przeciętnych wartości temperatury powietrza
wykazuje ścisły związek z bilansem całkowitym promieniowania w zakresie wielkości
minimalnych. Właściwością wymiany cieplnej w przygruntowej warstwie atmosfery
jest to, że od osiągnięcia określonego stanu temperatur przypowierzchniowych,
dopiero po około dwóch godzinach notuje się stan adekwatny na wysokości 2 m
(np. maksimum temperatury przy powierzchni i w klatce meteorologicznej).
Średnie temperatury dobowe powietrza służą do tworzenia kolejnych
przybliżonych charakterystyk przebiegu zjawisk termicznych o coraz większej skali
zgeneralizowania. W rolnictwie wykorzystuje się między innymi średnie pentadowe,
dekadowe, miesięczne, okresu wegetacyjnego, roczne, etc. W każdym przypadku
liczba pomiarów wziętych do obliczeń jest sumą dób analizowanego okresu
(5,10,...365(366)). Okresy pentadowe i dekadowe miesięcy ustala się według
zasady, że ostatnia pentada (dekada) zawiera nadwyżkę lub niedobór dób
pomiarowych w zależności od długości miesiąca.
Oprócz temperatury średniej dobowej, interesującymi z punktu widzenia
agroklimatycznego są również temperatury minimalne i maksymalne. Związane jest
to z wpływem temperatur progowych dla życia roślin - zwłaszcza minimalnych.
Zagadnienie to wiąże się między innymi ze zjawiskiem przymrozków. Różnica
pomiędzy wartościami temperatur ekstremalnych daje wynik w postaci amplitud,
Ciepło i termika układu atmosfera - podłoże
36
ustalanych analogicznie dla przedziałów dobowych, miesięcznych (najwyższa
maksymalna i najniższa minimalna temperatura dobowa miesiąca), rocznych etc.
Rys. 13. Termometr maksymalny
Do pomiaru temperatur powietrza służą termometry zwykłe oraz minimalny i
maksymalny. W klatce meteorologicznej znajdują się dwa termometry zwykłe,
jeden suchy służący do rejestracji temperatury powietrza, drugi zwilżony, który
wykorzystywany jest do innych celów - w zespole z pierwszym przeznaczony jest do
pomiaru wilgotności powietrza. Procedura odczytu temperatury jest ściśle ustalona i
obowiązuje obserwatorów na stacjach i posterunkach meteorologicznych. Należy
nadmienić, iż każdy pomiar (z dokładnością do jednej dziesiątej stopnia, przy
rozstępie skali co 0,2
o
C), musi być skorygowany o wartość poprawki na
niedokładność każdego termometru względem wzorca (dane znajdziemy na
formularzu świadectwa termometru, dostarczonym przez producenta).
Rys. 14. Termometr minimalny
Do pomiaru najwyższej temperatury od czasu ostatniej obserwacji służy
termometr maksymalny (rys. 13). Jego zasada działania polega na tym, iż rtęć jest
w stanie przenikać przez zwężenie na granicy przejścia zbiorniczka w kapilarę
(wtopiony w środek pręcik szklany), tylko wtedy gdy temperatura wzrasta. Powrót
do stanu wyjściowego możliwy jest jedynie po ostrożnym, aczkolwiek energicznym,
wstrząśnięciu; czyni się tak po odczytaniu pomiaru dla każdego okresu dobowego. Z
kolei temperaturę najniższą z przedziału czasowego mierzy się termometrem
nazywanym minimalnym. Jego konstrukcja i zasada działania wykorzystuje
prawidłowość polegającą na tym, że toluen wypełniający kapilarę, jest w stanie
przesuwać zawarty tam pręcik szklany lub metalowy tylko w przypadku gdy się
kurczy. Zatem aktualne położenie górnego końca pręcika wskazuje temperaturę
minimalną dla ostatniego okresu. Następny odczyt minimum termicznego jest
możliwy po przechyleniu termometru tak aby pręcik dotknął menisku toluenu. Cechą
Ciepło i termika układu atmosfera - podłoże
37
charakterystyczną tego termometru jest to, że posiada on zbiorniczek o dużej
powierzchni kontaktu z powietrzem (rozwidlony), tak aby zwiększyć szybkość reakcji
toluenu na zmiany temperatury. Obydwa powyższe termometry umieszcza się w
klatce meteorologicznej poziomo, przy czym maksymalny zbiorniczkiem lekko w dół.
Wszystkie wyżej opisane parametry termiczne pozwala zmierzyć przyrząd
samopiszący, zwany termografem. Jego częścią czułą na zmiany temperatury jest
zestaw dwu płytek o odmiennych charakterystykach termometrycznych, tzw.
bimetal. Dzięki temu, wraz ze zmianami temperatury, następują odkształcenia płytki
bimetalicznej przenoszone na pionowy ruch pisaka. Ten z kolei zaznacza ślad na
pasku osadzonym na obrotowym bębnie. Pełny obrót bębna następuje w ciągu 24
godzin. Linia zapisu na odpowiednio wyskalowanym termogramie stanowi wykres
funkcji temperatury w zależności od czasu.
Współcześnie coraz popularniejsze są zestawy elektroniczne, które rejestrują
temperaturę powietrza i wyświetlają na ekranie monitora. Odpowiednie klawisze
wywołują kolejno odczyty temperatury wewnątrz i na zewnątrz pomieszczeń.
Mikroprocesor zawarty w takich urządzeniach pozwala na wybór skali (Celsjusza lub
Fahrenheita), ponadto dokonuje zapisów ekstremów w pamięci urządzenia (wraz z
dokładnym czasem ich wystąpienia) Elektronika umożliwia zaimplementowanie wielu
funkcji obliczeniowych, na przykład temperatury odczuwalnej czy temperatury
punktu rosy.
Przestrzenny rozkład poszczególnych charakterystyk i zjawisk meteorologicznych
zwykło się przedstawiać graficznie w postaci linii nazywanych izarytmami. Noszą one
różne nazwy w zależności od rodzaju parametru, który charakteryzują.
Zobrazowanie graficzne układu temperatur w płaszczyźnie poziomej nosi nazwę
izoterm
1.
Praktyczne wykreślanie izoterm polega na wykorzystaniu metod
matematycznych bądź matematyczno-geograficznych. Pierwsza z metod ma
zastosowanie na obszarach płaskich, druga może być z powodzeniem użyta dla
charakterystyki terenu o dużej zmienności fizjograficznej. W tej ostatniej metodzie
kreślenie izoterm polega na ustaleniu położenia punktów izotermicznych drogą
ekstrapolacji matematycznej z uwzględnieniem ukształtowania terenu. Metoda
ekstrapolacji polega na przybliżonym wyznaczeniu punktów na linii łączącej dwie
sąsiednie lokalizacje, w których zmierzono temperaturę - jedną o niższej, drugą
o wyższej wartości w stosunku do wyznaczanej izotermy. Punkt izarytmy będzie
znajdował się na tej linii w odpowiedniej proporcji odległościowej w stosunku do
tych punktów. Przykładowo izoterma 16
o
C wyznaczana na mapie pomiędzy
punktami o zmierzonych wartościach temperatur 15.5
o
C i 16.5
o
C, oddalonymi o 4
1
Podobny wykres dla ciśnienia nazywa się izobarą. Analogicznie izolobary to wykres tendencji barycznej,
izohigry przedstawiają wilgotność, izohiety - opady, izotymy - parowanie, izohyony - grubość pokrywy śnieżnej,
izoknefy - dni pochmurne, izolampry - dni pogodne oraz izohele -usłonecznienie
Ciepło i termika układu atmosfera - podłoże
38
cm będzie przebiegać na linii łączącej je w odległościach, dokładnie po 2 cm od
każdego.
Oprócz pomiarów temperatury atmosfery dla celów agrometeorologicznych
dokonuje się także oznaczeń temperatury powierzchniowej warstwy Ziemi oraz
temperatury w naturalnych zbiornikach wodnych (jeziora, morza, oceany, etc). Jest
to istotne z dwóch powodów. Po pierwsze, temperatura taka wskazuje na warunki
bilansu promieniowania słonecznego i możliwości oddziaływania na temperaturę
atmosfery. Po drugie jest przydatna dla określenia warunków w jakich przebiegają
procesy biologiczne.
Temperatura gleby na ogół różni się od temperatury powietrza. Duża
różnorodność genetyczna gleb, parametry charakterystyki aktualnych właściwości
fizycznych, wreszcie rodzaj porastającej roślinności (lub jej brak), wszystko to
decyduje o termice gruntu. Tak jak atmosfera, tak i gleba charakteryzuje się
zmiennością czasową oraz przestrzenną temperatury.
Temperatura gleby kształtuje się bezpośrednio po wpływem docierającej energii
słonecznej. Gleba, w przeciwieństwie do atmosfery, jest wyraźnie chemicznie
zróżnicowana w przestrzeni, a owo zróżnicowanie determinuje warunki cieplne. Przy
tej samej ilości dostarczanej energii temperatura kształtuje się swoiście w glebach o
różnym pochodzeniu genetycznym, tych samych, ale odznaczających się odmiennym
stanem uwilgotnienia czy kultury rolnej. Warunki termiczne przy tym najsilniej
zdeterminowane są relacją pomiędzy fazą stałą, ciekłą i gazową. Każda z tych faz
posiada odmienne właściwości cieplne, a temperatura ustala się jako wypadkowa
tych właściwości.
Stwierdzenie, że w cyklu rocznym kształt krzywej temperatury gleby jest
identyczny z krzywą temperatury atmosfery jest oczywiste z tego powodu, iż to
atmosfera ogrzewa się od gleby. Dotyczy to zwłaszcza cienkiej warstwy
powierzchniowej gleby i warstwy atmosfery tuż nad jej powierzchnią. Im jednak
głębiej, tym warunki termiczne w glebie kształtują się odmiennie. W tym środowisku
praktyczne znaczenie ma wymiana cieplna drogą przewodnictwa. W przypadku gleb
mineralnych, suchych warstwę powierzchniową cechuje zwykle zdecydowanie
wyższa temperatura. Dzieje się tak dlatego, iż gleba taka ma mniejszą pojemność
cieplną (potrzeba mniej ciepła do jej ogrzania o jednostkę temperatury), a
jednocześnie źle przewodzi ciepło w głąb. Z kolei gleby wilgotne odznaczają się
niższą temperaturą, lecz bardziej równomiernie rozłożoną w profilu. Ciepło w glebie
przemieszcza się w kierunku zależnym od gradientu termicznego. W dzień, gdy
bilans powierzchniowy jest dodatni, strumień energii skierowany jest w dół. W nocy
odwrotnie. Tempo przenikania zależy od sumy przyjmowanej energii i dlatego,
niezależnie od kierunku przewodzenia, zróżnicowanie termiki w profilu glebowym
jest różne. Tak więc, notujemy inne wahania temperatury gleby w ciągu dnia i nocy,
a także odmienne w różnych porach roku. Jest rzeczą charakterystyczną, że okres
zmian temperatury jest niezmienny na różnych poziomach gleby, gdzie notowane są
Ciepło i termika układu atmosfera - podłoże
39
wahania temperatury. Maksima i minima następują w tych samych odstępach
czasowych. Jednak wraz z głębokością zmniejszają się bezwzględne wartości różnic
pomiędzy maksimum a minimum. W każdej glebie na określonym poziomie zanikają
wahania temperatury i utrzymuje się ona tam na stałym poziomie. Roczne wahania
temperatury zachodzą jednak na niższej głębokości niż dobowe. Jest to oczywiste
gdyż pomiędzy zimną i ciepłą porą roku kontrasty dopływu energii są większe niż
pomiędzy dniem a nocą. W glebie o tych samych właściwościach fizycznych,
podobnie uprawianej, amplituda dobowa temperatur zanika na głębokości 19 razy
płytszej w porównaniu z amplitudą roczną.
O temperaturze gleby decyduje w dużym stopniu szata roślinna. Z jednej strony
bowiem stanowi ona warstwę ochronną przed utratą ciepła, z drugiej zaś sama
przechwytuje część energii zmniejszając strumień jej dopływu do gleby. W wyniku
takich uwarunkowań gleba pod roślinnością charakteryzuje się niższą temperaturą
niż gleba nieosłonięta. Decyduje o tym fakt, iż wyraziściej zaznacza się funkcja
przechwytywania nad ochronną. Z tego też wynika, iż amplituda temperatur takiej
gleby jest niższa. Ważną rolę w kształtowaniu warunków termicznych gleby odgrywa
pokrywa śnieżna. Śnieg, zwłaszcza świeżo spadły, charakteryzuje się niską
przewodnością cieplną, gdyż jego warstwa zawiera duże ilości przestworów
wypełnionych powietrzem. W miarę osiadania pokrywy śnieżnej cecha ta zanika.
Niezależnie jednak od stanu ubicia, śnieg stanowi zawsze warstwę izolacyjną na
powierzchni gleby, utrudniającą wymianę ciepła. Gleba pokryta śniegiem w okresie
zimowym, w której zachodzą wahania temperatur, charakteryzuje się wyższą
wartością termiki i mniejszymi amplitudami.
Pomiarów temperatury gleby dokonuje się na stałych głębokościach 5,10,20 i
50 cm termometrami kolankowymi lub wyciągowymi, a także różnego rodzaju
konstrukcjami elektrycznymi o czujnikach platynowych. Umieszcza się je w ogródku
meteorologicznym w miejscu nie zacienionym.
Nieco inaczej kształtują się warunki termiczne w zbiornikach wodnych. Tu
wymiana ciepła odbywa się z wykorzystaniem wszystkich sposobów jego
przemieszczania. Ogrzana powierzchniowo woda przewodzi ciepło w dół, ruchy
konwekcyjne warstw powodują przemieszczanie się energii wraz z materią. Ponadto
woda wykazuje dużą przezroczystość taką, iż energia promienista Słońca dociera nie
tylko do powierzchni lustra wody, ale i w głąb. Pojemność cieplna wody jest
zdecydowanie większa niż gruntu. Zatem woda w zbiornikach wymaga znacznie
większej ilości energii na ogrzanie się o jednostkę temperatury niż gleba. Stąd też,
zarówno na początku dnia jak i na początku pory ciepłej, zbiorniki wodne bywają
chłodniejsze niż pobliskie obszary lądowe. Jednakże to samo ciepło dłużej pozostaje
zmagazynowane w wodzie i stąd obszary wód, o zachodzie oraz na początku zimy,
bywają zdecydowanie cieplejsze. O ile wahania temperatur w glebie, nawet te
roczne, sięgają zaledwie kilkunastu metrów, to amplitudy dobowe w przekroju
zbiornika wodnego notowane są na kilkudziesięciu, a roczne nawet kilkuset
Ciepło i termika układu atmosfera - podłoże
40
metrach. Ciepło powierzchni wód pozostaje utrzymane dłużej, gdyż
wypromieniowaniu energii z warstw górnych towarzyszy dopływ ciepła z głębi.
Ciepło zbiorników wodnych przemieszcza się nie tylko w kierunku pionowym lecz
także i poziomym. Dzięki temu zachodzi bardzo istotne zjawisko pogodo i
klimatotwórcze. Zasoby energii zgromadzone w jednej części kuli ziemskiej mogą
kształtować termikę atmosfery nawet w bardzo odległych obszarach. Często też
wysokie wartości energii słonecznej, docierającej do określonego miejsca, nie są
spożytkowane na podgrzanie atmosfery, gdyż na powierzchnię docierają zasoby
chłodniejszych wód wgłębnych.
VI. OBIEG WODY W PRZYRODZIE I JEJ
PRZEMIANY FAZOWE
Uwarunkowania zjawisk związanych z przemianami fazowymi wody
Jednymi z istotniejszych zjawisk występujących w przyrodzie i mających wpływ
na kształtowanie warunków pogodowych są przemiany stanu skupienia wody. Woda
parując staje się składową mieszaniny gazów atmosferycznych. Postać gazowa wody
w atmosferze nie jest trwała wobec czego powraca ona na powierzchnię naszej
planety w postaci opadów i osadów.
Tempo przechodzenia wody z fazy ciekłej do gazowej (parowania), wyznaczają
warunki pogodowe, ale jednocześnie te same warunki kształtują w dużym stopniu
zakres i szybkość z jaką woda przekształca się w parę. Istnieje zatem ścisły stan
sprzężenia między tymi zjawiskami. Dodatkowo, oprócz czynników
meteorologicznych, o szybkości parowania decydują warunki fizyczne i chemiczne
czynnych powierzchni parujących, a w przypadku parowania z roślin i innych
organizmów żywych, ich stadia rozwojowe oraz cechy osobnicze. Generalizując
należy stwierdzić, iż więcej pary wodnej trafia do atmosfery w miejscach
występowania dużych zbiorników wodnych, w strefach o wysokich temperaturach
powietrza i w miejscach porośniętych roślinnością, zwłaszcza wysoką. Z punktu
widzenia czysto fizycznego o tempie parowania decydują: temperatura cieczy oraz
gazów nad jej powierzchnią, (energia kinetyczna ruchu swobodnego cząstek) ilość
cząstek parującej cieczy w mieszaninie gazu, ciśnienie gazów oraz zjawiska
sprzyjające usuwaniu cząstek pary znad miejsca parowania. W przyrodzie podczas
wzrostu temperatury wody, zmniejszeniu udziału pary w atmosferze, zwiększeniu
ruchu powietrza nad powierzchnią parującą i spadku ciśnienia, następuje wzrost
szybkości parowania. Nie wszystkie cząstki wody przemienione w parę pozostają
dłużej w atmosferze, część z nich natychmiast wraca do zbiornika parującego.
Zatem tempo parowania oznacza ściśle tempo ubytku wody, a nie tempo uwalniania
cząstek wody do otoczenia gazowego. Z tego powodu, w niższych temperaturach,
intensywność parowania może być większa niż w wyższych, gdyż w tym ostatnim
przypadku powietrze zawiera małe ilości pary, natomiast wieje silny wiatr i panuje
niskie ciśnienie.
Procesem przeciwstawnym dla parowania jest kondensacja, czyli skraplanie pary
wodnej zawartej w powietrzu. Kondensacja zachodzi, jak już wspomniano wyżej,
równolegle z parowaniem. O intensywności tego zjawiska decyduje ilość pary
wodnej zawartej w powietrzu. Im ilość ta jest bliższa pełnemu nasyceniu, tym
Obieg wody w przyrodzie i jej przemiany fazowe
42
intensywniej para kondensuje. W trakcie kondensacji, bezpośrednio w atmosferze
niezbędne jest występowanie tam tzw jąder kondensacji, czyli cząstek materii stałej
o dużych właściwościach higroskopijnych. Generalnie rzecz biorąc, wszystkie
czynniki przyśpieszające parowanie zmniejszają tempo kondensacji i odwrotnie.
Pomimo, iż obydwa ważne procesy przemian zachodzą zawsze jednocześnie, w
praktyce mówi się o parowaniu wtedy gdy ilość wody przechodzącej w stan gazowy
jest większa w danym układzie, niż ilość pary wracającej w postaci płynnej do
powierzchni czynnej. Wtedy zaś, gdy zachodzi odwrotna relacja, sytuacja określana
jest jako kondensowanie pary wodnej. Teoretycznie możliwym jest też stan
absolutnej równowagi.
Znaczenie owych procesów, z punktu widzenia funkcjonowania środowiska
naturalnego jest wielkie, bowiem gwarantuje możliwość realizacji fundamentalnych
procesów przyrodniczych (duży i mały obieg wody w przyrodzie). Zawartość pary w
powietrzu, w skali atmosfery całego globu, stanowi ok. 1/40 sumy opadów
atmosferycznych w ciągu roku. Oznacza to, że czas pozostawania poszczególnych
cząsteczek tego gazu w atmosferze wynosi średnio 9 dni. Oprócz funkcji życiowych,
krążenie wody w środowisku spełnia rolę pogodo- i klimatotwórczą. Atmosfera
pozbawiona pary wodnej funkcjonowałaby zupełnie inaczej. Poza wszystkimi innymi
skutkami, jeden byłby szczególnie wyraźny - spadek temperatury. Para wodna jest
jednym z ważniejszych gazów cieplarnianych. Gaz ten pochłania bowiem dużo
energii promienistej, zwłaszcza pochodzącej z długofalowego promieniowania
Ziemi.
Ciągłe zmiany stanu skupienia wody oddziaływają modyfikująco na stosunki
termiczne w mikro i makroskali. Warstwa wodna jest materią cząsteczek wzajemnie
powiązanych znaczną siłą napięcia powierzchniowego. Dlatego cząstki, które
pokonują te siły parując, zużywają energię, w tym przypadku energię wody. W
fizyce mówi się o tzw. cieple utajonym parowania. Wyparowywanie każdego grama
wody wymaga 2514 J. Parująca woda traci więc energię i ochładza się jeżeli nie
nastąpi wyrównanie jej ubytku z innych źródeł. W momencie jednak, gdy cząstki
pary wracają do ośrodka wodnego (na powierzchnie czynne zbiorników czy tzw.
jąder kondensacji), zmagazynowana energia oddawana jest na powrót do otoczenia.
Proces parowania w warunkach środowiskowych odbywa się z różnych źródeł. W
przypadku powierzchni wodnych określa się go terminem ewaporacji. Parowanie ze
źródeł wewnętrznych organów roślinnych nazywa się transpiracją. Nad dużymi
przestrzeniami lądów, nad powierzchniami użytków rolnych, lasów, parków i innymi
podobnymi miejscami, odbywają się procesy ewaporacji i transpiracji jednocześnie.
Nie da się ich w tych przypadkach wyraźnie rozdzielić, stąd też parowanie wspólne
materii żywej i podłoża nosi miano ewapotranspiracji. Rozpatrując
ewapotranspirację jako zależną od warunków biologicznych i klimatycznych, przy
założeniu nieograniczonych źródeł wodnych, możemy uznać ją jako tzw.
ewapotranspirację potencjalną. Jest to więc potencjalna zdolność parowania
Obieg wody w przyrodzie i jej przemiany fazowe
43
terenowego w
konkretnych warunkach pogodowych, przy pokryciu obszaru
określonym zespołem roślinności. Zdolność ta jest jednak dodatkowo modyfikowana
przez układ czynników fizycznych (zasoby wodne terenu i ich ulokowanie w
otoczeniu warunków glebowych), biologicznych (gatunki roślin, fazy rozwojowe,
zagęszczenie biomasy na jednostce powierzchni) oraz antropogenicznych
(wynikających z działalności człowieka - przemysł, infrastruktura, agrotechnika).
Pomiary parowania
Metody pomiaru i oszacowania wielkości parowania dzielą się na empiryczne i
statystyczne. W pierwszym przypadku obserwuje się ubytki z teoretycznych, czy też
praktycznych, układów ewaporacyjnych i ewapotranspiracyjnych. Służą do tego
różnorodne konstrukcje przyrządów pomiarowych. W drugim, oszacowanie wywodzi
się z równań opisujących zależność parowania od czynników zewnętrznych. Tak
więc, w praktyce korzysta się z pomiarów innych parametrów otoczenia, zaś
pożądany wynik uzyskuje się na drodze odpowiednich przeliczeń. Wielkość
parowania określa się wysokością słupa wody, która wyparowała z jednego metra
kwadratowego i wyraża się w mm. W przeliczeniu na objętość jeden milimetr
parowania oznacza ubytek 1 litra wody z 1 m
2
powierzchni parującej.
Rys.15. Ewaporometr Wilda (A) i Piche’a (B)
Do najpopularniejszych przyrządów służących do oznaczenia parowania z wolnej
powierzchni wodnej (parowanie potencjalne) zaliczamy ewaporometry Piche’a
Obieg wody w przyrodzie i jej przemiany fazowe
44
i Wilda (rys. 15). W pierwszym przypadku mamy do czynienia z kalibrowaną rurką
szklaną o długości ok. 30 cm. Wierzchołek rurki jest zamknięty i zakończony uszkiem
służącym jako uchwyt do zawieszenia na metalowym statywie. Dno zamknięte jest
krążkiem bibuły przytrzymywanym przez sprężysty uchwyt. Po napełnieniu rurki
wodą destylowaną do granicznej kreski i zamknięciu dolnego otworu bibułą wiesza
się przyrząd na statywie. Woda parując z powierzchni bibuły obniża swój poziom
w rurce. Znając zakres tego ubytku w określonym czasie oraz uwzględniając
wielkość powierzchni bibuły, możemy obliczyć ilość wyparowanej wody w mm.
Przydatność takich pomiarów polega na uzyskaniu wskaźnika porównawczego
zdolności ewaporacyjnej powietrza. Ewaporometr Wilda składa się ze zbiornika na
parującą wodę o powierzchni 250 cm
2
i głębokości 1.5 cm. Zbiornik ten umieszczony
jest na zestawie dźwigni tworzących system wagowy. Skala tej wagi oznaczona jest
jednak w milimetrach. Tak więc, w miarę ubywania wody na skutek parowania,
wskazówka wagi przesuwa się wzdłuż skali wskazując każdorazowo ilość
wyparowanej wody w mm, w czasie od momentu całkowitego napełnienia zbiornika.
Przyrząd ten instaluje się w klatce meteorologicznej lub pod specjalnym
zadaszeniem. Jego pomiary mają podobną wartość jak pomiary wykonane
ewaporometrem Piche’a z ta różnicą, iż dotyczą otwartych przestrzeni i mogą być
prowadzone w sposób ciągły na wzór pomiarów np. temperatury powietrza.
Parowanie terenowe (ewapotranspirację rzeczywistą) można zmierzyć stosując
technikę lizymetryczną lub ewaporometry glebowe. Lizymetr glebowy pozwala
ustalić parowanie rzeczywiste w warunkach polowych. Działa on na zasadzie
pomiaru poziomu wody w studzience kontrolnej, zainstalowanej na bocznej ścianie
zbiornika z glebą (blaszany lub betonowy) umieszczonego w gruncie. Na
powierzchni zbiornika siane są rośliny i to ich właściwości, wraz z panującymi
warunkami pogodowymi, decydują o wielkości ewapotranspiracji, którą wyliczamy
na podstawie zmiany poziomu wody w studzience wskaźnikowej. Ewaporometr
glebowy to zespół składający się z blaszanego zbiornika (obudowy) zainstalowanego
na stałe w glebie oraz wyjmowanego wazonu ze zdejmowanym perforowanym
dnem. Wazon służy do pobrania monolitu glebowego z wybranej przestrzeni i
ustawieniu go w strefie, w której dokonujemy pomiaru. Obok zestawu
ewaporometru instaluje się system ruchomych wag pozwalających na pomiar wagi
monolitu. Wynik parowania terenowego uzyskujemy z oznaczenia ciężaru
początkowego i końcowego monolitu przy uwzględnieniu przesięku, sumy opadów i
powierzchni wazonu z monolitem.
Pomiary zawartości pary wodnej w atmosferze
Konsekwencją parowania jest przenikanie wody w postaci gazowej do atmosfery.
Uwarunkowania towarzyszące przemianom fazowym wody sprawiają, że jej ilość
zmienia się dynamicznie w czasie i przestrzeni. Stąd też przedział zawartości pary w
Obieg wody w przyrodzie i jej przemiany fazowe
45
atmosferze waha się w granicach od 0 do 3,5 -4.0% jej objętości. Powietrze może
zawierać tylko ograniczoną ilość pary wodnej. Wartość graniczna zawartości
nazywana jest wilgotnością maksymalną. Wilgotność maksymalna jest zmienna i
zależy od temperatury powietrza – im wyższa temperatura, tym wyższe wartości
osiąga maksymalna pojemność powietrza względem pary wodnej (patrz rysunek
16). W przeciwieństwie do innych gazów mieszaniny atmosferycznej rzadko stosuje
się miary procentowe charakteryzujące atmosferę pod katem zawartości pary.
Najpowszechniej w praktyce i to zarówno w meteorologii jak i innych dziedzinach,
posługujemy się miarą nazywaną wilgotnością
względną [f]. Wilgotność względną
wyraża się w procentach i definiuje jako stosunek ilości pary wodnej w danej chwili
w powietrzu, do ilości, która w panującej temperaturze stanowi wartość pełnego
wysycenia. Różnica między wartością prężności maksymalnej dla danej temperatury,
a prężnością aktualną (zmierzoną) nazywa się niedosytem
wilgotności powietrza [d]
(miano - hPa). Dodatkowo niekiedy stosuje się także miarę zwaną wilgotnością
bezwzględną
co oznacza ilość pary wodnej w 1 m
3
powietrza - jednostka kg/m
3
. W
kontekście rozważań o wilgotności powietrza, odwołujemy się też do pojęcia
temperatury
punktu rosy[t
d
] - czyli temperatury przy której aktualnie znajdująca się
w powietrzu para wodna osiąga stan nasycenia.
Rys. 16. Prężność maksymalna pary wodnej jako funkcja temperatury
Wilgotność względną mierzą przyrządy zwane higrometrami. Najprostszy z nich
to higrometr włosowy, którego zasada działania polega na reakcji odtłuszczonego
włosa ludzkiego na zmiany tego parametru. Włos podlega wydłużaniu w miarę
wzrostu wilgotności i skracaniu w przeciwnym wypadku. Zależność ta zostaje
przeniesiona przez system dźwigni na wskazówkę operującą w obrębie skali, na
Obieg wody w przyrodzie i jej przemiany fazowe
46
której naniesiono wartości od 0 do 100%. Skala ta nie jest w pełni arytmetyczna,
gdyż rozszerzalność włosa nie ma tej charakterystyki. Przyrząd na etapie produkcji,
a także okresowo w trakcie używania, musi być kalibrowany w odniesieniu do
wskazań wzorca. Gwarantowana przez higrometr włosowy niezbyt wysoka
dokładność nie przeszkadza w jego wykorzystaniu w wielu dziedzinach. Wersja
samopisząca tego przyrządu, działająca na tej samej zasadzie, nazywa się
higrografem.
Wilgotność względną można tez obliczyć pośrednio, oznaczając zawartość
aktualną pary w postaci jej ciśnienia parcjalnego. Ciśnienie (prężność) może być
miarą ilości pary wodnej w powietrzu gdyż zależy ono wprost proporcjonalnie od jej
ilości i nie wpływa na nie zawartość innych gazów atmosferycznych (prawo ciśnienia
parcjalnego w mieszaninie gazów). Prężność pary wodnej, która bywa używana też
jako samoistna jednostka oceny wilgotności powierza, wyrażana jest w hPa. Znając
prężność aktualną
[e] (zmierzoną) i prężność maksymalną [E] (z tablic
psychrometrycznych lub z wyliczeń funkcji), można określić wilgotność względną
powietrza.
Rys. 17. Psychrometr Assmanna
Bardzo dokładne pomiary wilgotności są możliwe przy użyciu psychrometrów.
Najprostszy psychrometr Augusta to zestaw dwóch termometrów (suchego,
służącego również do pomiaru temperatury powietrza) i tzw. termometru
wilgotnego, ustawionych na statywie w klatce meteorologicznej. Zasada pomiaru
wilgotności polega tu na oznaczeniu tzw. różnicy psychrometrycznej, czyli różnicy
temperatur wynikłych ze wskazań obydwu termometrów. Termometr uwilgotniony
Obieg wody w przyrodzie i jej przemiany fazowe
47
posiada zbiorniczek rtęci owinięty batystem, którego koniec zanurzony jest w
naczyńku z wodą destylowaną. Woda, parując z powierzchni batystu, czyni to
kosztem energii otoczenia. Tak więc przy intensywniejszym parowaniu, temperatura
wskazywana przez termometr wilgotny jest niższa. Z kolei tempo parowania zależy
od ilości pary wodnej zawartej w powietrzu, a konkretnie od stopnia niedosytu
wilgotności. Zależność ilości pary wodnej w powietrzu, oznaczonej jako jej prężność
aktualna, od różnicy psychrometrycznej i panującego ciśnienia atmosferycznego
ujmuje poniższy wzór:
e = E’ - A(t-t’)p
gdzie:
e - wilgotność (prężność) aktualna (w hPa)
A- stała (0.001 w zamkniętym pomieszczeniu, 0.0008 przy słabym
wietrze,0.00068 przy silnym wietrze)
E’- prężność pary wodnej nasyconej przy temperaturze termometru zwilżonego
t - temperatura termometru suchego
t’- temperatura termometru wilgotnego
p- ciśnienie atmosferyczne odczytane z barometru
Rys. 18. Zależność wilgotności względnej i niedosytu wilgotności od temperatury, przy stałej
zawartości pary wodnej w powietrzu
Na podobnej zasadzie działa też psychrometr Assmanna (rys. 17). Służy on
jednak do pomiarów wilgotności na otwartej przestrzeni, poza klatką
meteorologiczną, stąd też jego termometry znajdują się w specjalnej metalowej
osłonie, w której dodatkowo zamontowano wentylator zapewniający podczas
0
10
20
30
40
50
60
70
80
90
100
0
5
10
15
20
25
0
2
4
6
8
10
12
14
wilgotność
względna
niedosyt
wilgotności
temperatura w
o
C
wilgotność względna w %
niedosyt wilgotności w hPa
Obieg wody w przyrodzie i jej przemiany fazowe
48
pomiaru przepływ powietrza ze stałą prędkością 2 m/s. Wilgotność aktualną z
różnicy psychrometrycznej wyliczamy, stosując nieco zmodyfikowany wzór:
e = E’-0.5(t-t’)p*755
-1
(oznaczenia jak we wzorze odnoszącym się do psychrometru Assmanna)
W zestawach elektronicznych przyrządów automatycznych znajdują się również
czujniki mierzące wilgotność względną powietrza. Korzystając z odpowiednich
przycisków można uzyskać odczyt wilgotności wewnątrz pomieszczenia oraz na
zewnątrz. Wynik pomiaru zewnętrznego odpowiada warunkom panującym w klatce
meteorologicznej, gdyż czujniki wilgotności i temperatury umieszczone są w
specjalnej obudowie. Przyrządy takie pozwalają także na odczytanie temperatury
punktu rosy. Możliwe jest zatem śledzenie tej wartości głównie jako wskaźnika
możliwości pojawienia się mgły czy przymrozku. Wartości wilgotności względnej oraz
temperatury punktu rosy rejestrowane są w pamięci przyrządu w układzie
maksymalnym i minimalnym przy uwzględnieniu odpowiedniego przedziału
czasowego.
Kondensacja pary wodnej i jej produkty
Nadmiar pary wodnej, ponad możliwości jej pochłaniania w danej temperaturze,
ulega skropleniu (kondensacji). Praktyczne efekty tego procesu występują pod
postacią zawiesiny kropelek wodnych w powietrzu lub osadów na powierzchni ziemi
oraz różnych przedmiotów.
Najpowszechniej obserwowanym zjawiskiem, którego przyczyną jest skraplanie
pary wodnej w atmosferze, jest powstawanie chmur. Stanowią one zbiór kropel
wody i kryształków lodu lub ich mieszaniny, pojawiających się w obszarze
atmosfery, w którym proces kondensacji przeważa nad parowaniem. Kondensacja
w atmosferze jest możliwa tylko wtedy gdy w powietrzu znajdują się cząstki
niegazowe, nazywane z powodu swej roli, jądrami kondensacji. Tych jednak jest
zawsze wiele, powietrze bowiem zawiera szereg zanieczyszczeń stałych pochodzenia
naturalnego i sztucznego.
Utrzymywanie się chmur w atmosferze związane jest z oddziaływaniem prądów
wstępujących (konwekcji, turbulencji), dzięki czemu krople unoszą się w powietrzu.
Ponieważ równowaga termiczna w atmosferze jest zmienna, więc zjawiska
sprzyjające powstawaniu chmur, a z nimi same chmury, pojawiają się i zanikają.
Znajomość charakterystyki chmur i ich rozróżnianie są pomocne w meteorologii i
innych dziedzinach praktycznej działalności człowieka (np. w lotnictwie). Wiele
podręczników i skryptów zawiera bardziej lub mniej syntetyczne opisy
poszczególnych rodzajów z międzynarodowej klasyfikacji chmur. Odsyłając do tych
opisów wskażemy tu jedynie parę uwag na temat praktycznego ich rozpoznawania.
Obieg wody w przyrodzie i jej przemiany fazowe
49
Cechą pozwalającą na rozróżnienie rodzin chmur jest poprawne określenie
wysokości ich podstawy. Chmury wysokie takie jak
Ci, Cs,Cc lokują się wysoko na
niebie i ich właściwością szczególną jest to, że na ogół promienie słoneczne przez
nie przeświecają. Tak więc tej rodziny chmur nie sposób pomylić z żadną inną.
Biaława zasłona nieba z przenikającymi promieniami słonecznymi może mieć postać
delikatnych włókien lub pasm i wtedy mamy do czynienia z typowym
Cirrusem (Ci).
Jeżeli jednak widzimy wyraźnie zaznaczone płaty (bez cieni) bądź fragmenty
układające się w regularne zmarszczki lub soczewki to ten rodzaj chmur określa się
jako
Cirrocumulus (Cc). Z kolei zasłona wysokich chmur o gładkim, jednolitym
kształcie nazywa się
Cirrostratusem (Cs). Chmury wysokie nie dają opadów.
Równie bezproblemowo można odróżnić chmury z rodziny niskich, mających
niską podstawę i charakteryzujących się pionowym rozciągnięciem w atmosferze. Są
to przede wszystkim chmury z rodzaju
Cumulus (Cu) i Cumulonimbus (Cb). Chmura
Cu posiada wyraźnie zaznaczone kształty. Jej podstawa ma zwykle ciemne
zabarwienie, zaś boki i wierzchołek białe. Cechuje ją zmienność kształtów we
właściwym im cyklu rozwoju. Najpiękniejsze
Cu powstają podczas słonecznej
pogody i pojawiają się zwykle w drugiej połowie dnia. Bardziej rozwinięte chmury
kłębiaste mogą powodować przelotne opady. Chmury
Cb powstają wtedy, gdy
proces pionowego rozwoju
Cu obejmie większą warstwę troposfery, w wielu
przypadkach aż do jej górnych granic. Chmura taka posiada więc dużą rozciągłość
pionową i poziomą. Od podstawy jest ciemno zabarwiona oraz robi groźne wrażenie
gdy pojawia się jako zwiastun nadchodzącej burzy. Intensywne ruchy pionowe w tej
chmurze powodują powstawanie opadów o dużym natężeniu, zaś pojawiająca się
przy tym stratyfikacja ładunków elektrycznych jest przyczyną błyskawic i wyładowań
atmosferycznych.
Wśród występujących na naszym niebie chmur stosunkowo łatwy do identyfikacji
bywa też
Stratus (St). Jest to chmura o bardzo niskiej podstawie, niekiedy sięgającej
poziomu wyższych budynków i niewielkich wzniesień (w wyższych górach
wierzchołki są wtedy całkowicie niewidoczne). Występowanie jej czyni wrażenie
pokrycia nieba mleczną zasłoną, nie pozwalającą na przenikanie promieni
słonecznych. Występowaniu jej towarzyszą zwykle mało intensywne opady drobnych
kropel deszczu. Tego typu chmurę niską można przeciwstawić innej, zwanej
Nimbostratusem (Ns). Tworzy ona również nisko rozpostartą, nieprzenikliwą
warstwę, o wyraźnej ciemnoszarej barwie. Ciemna barwa oraz długotrwałe
i intensywniejsze opady odróżniają rodzaj
Nb od opisanego wyżej St. W grupie
chmur niskich klasyfikowany jest także
Stratocumulus (Sc). Jest to chmura trudniej
rozróżnialna i łatwa do pomylenia z
Nb, czy którąś z rodziny chmur średnich. Należy
jednak pamiętać, iż jej wyróżnikiem jest warstwowa budowa z wyraźnie
zaznaczonych płatów, brył, walców, itp. ułożonych dość regularnie w przestrzeni,
opady daje jednak bardzo rzadko.
Obieg wody w przyrodzie i jej przemiany fazowe
50
Chmury z rodziny średnich powstają w wyniku ewolucji i podnoszenia podstawy
chmur warstwowych i kłębiastych. W pierwszym przypadku powstaje
Altostratus
(As) w drugim Altocumulus (Ac). Wprawne oko obserwatora jest w stanie określić w
przybliżeniu wysokość ich podstaw. Jeżeli jest to trudne to należy zwrócić uwagę na
wielkość elementów tworzących składowe tych chmur. Walce, bryły czy płaty
chmury Ac będą znacznie mniejsze niż
Sc lecz zarazem większe od Sc. Altostratus to
szara lub niebieskawa warstwa chmur w formie zasłony lub płata, pokrywa niebo
całkowicie lub częściowo.
Prawidłowe oznaczanie chmur nie jest łatwe i wymaga nieco treningu, ponieważ
nie ma chmur absolutnie jednakowych, a co więcej, następuje często ewolucyjna
przemiana jednych w drugie i trudno czasem określić na jakim etapie proces
przemian się znajduje. Uporządkowaną charakterystykę chmur, sklasyfikowanych
według skali międzynarodowej, zawarto w zestawieniu tabelarycznym
zamieszczonym na końcu rozdziału (tab. 6), zaś przykładowe zdjęcia na końcu
podręcznika.
Zjawiskiem podobnym do chmury jest mgła. Składa się ona z drobnych kropelek
wody osiągających maksymalnie 0.1 mm średnicy, zawieszonych tuż nad
powierzchnią ziemi. Skutkiem jej jest ograniczona widoczność. Mgła ma wiele cech
wspólnych z chmurą lecz inne są bezpośrednie przyczyny jej powstawania. Biorąc za
kryterium przyczynę powstawania można wyróżnić mgły: adwekcyjne, radiacyjne,
frontowe, orograficzne i mgły parowania.
Opady i osady atmosferyczne
Produktami kondensacji, a jednocześnie zjawiskami pogodowymi, są opady i
osady atmosferyczne. Opady atmosferyczne są wtórnymi produktami kondensacji
gdyż ich powstawanie wiąże się z istnieniem chmur. Kropelki wody czy kryształki
lodu tworzące chmury, w momencie ich powstania, mają bardzo małą średnicę i
przez to masę. Siła ciężkości jest w takich sytuacjach mniejsza niż siła prądów
wstępujących, więc chmura utrzymuje się w powietrzu. W chmurze jednak mogą
zachodzić procesy prowadzące do zwiększania rozmiarów kropel i kryształków, do
takiego stopnia, iż spowoduje to w końcu ich wypadanie, czyli zjawisko opadu
atmosferycznego. Do dziś pozostają aktualne teoria Bergerona i teoria koagulacji,
wyjaśniające mechanizm powstawania opadów. Pierwsza z tych teorii tłumaczy
powstanie opadu zjawiskiem niższej prężności pary wodnej wokół kryształków lodu
niż w otoczeniu kropel wody (rys. 19). W chmurze zbudowanej z kropel i
kryształków dochodzi zatem do stałego przemieszczania się parującej wody od
kropel ku kryształkom i powiększanie rozmiarów tych ostatnich. W efekcie
odpowiednio ciężkie kryształki wypadają z chmury i docierają do powierzchni ziemi
w pierwotnej postaci (śnieg), gdy temperatura na przestrzeni do powierzchni ziemi
jest zerowa lub ujemna, bądź też w postaci deszczu, gdy jest ona dodatnia. Warunki
Obieg wody w przyrodzie i jej przemiany fazowe
51
do powstawania chmur mieszanych istnieją w średnich szerokościach
geograficznych, stąd też większość opadów powstaje tu w oparciu o powyżej
opisany schemat zjawisk. W okolicach międzyzwrotnikowych, gdzie chmury średnie i
niskie rozwijają się w przestrzeni temperatur dodatnich, mniej jest chmur
mieszanych. Tu przyczyną opadów atmosferycznych jest koagulacja kropel
(zlepianie), pojawiająca się na skutek różnej prędkości opadania oraz wznoszenia
kropel małych i większych. Koagulacja następuje zatem w wyniku zderzania się
kropel i powiększania ich rozmiarów.
Rys. 19. Wilgotność względna powietrza nad wodą (Fw) i lodem (Fl) w procentach.
Osady, jako produkty kondensacji, powstają na styku pomiędzy atmosferą a
powierzchnią ziemi i przedmiotami na niej występującymi. Najbardziej typowe osady
to: rosa, szron i szadź. Rosa pojawia się zawsze wtedy gdy powietrze styka się z
przedmiotem, którego temperatura jest niższa od temperatury powietrza i równa lub
niższa od temperatury punktu rosy. Wtedy to na powierzchni ciała stałego pojawiają
się kropelki wody. W sytuacji gdy proces ten zachodzi w temperaturze niższej od
zera, to skondensowana para natychmiast zamarza, a na powierzchni pojawia się
szron. Szadź osadza się na różnych przedmiotach (drzewach, słupach, płotach) w
okresie zimy gdy nad wychłodzone podłoże napływa cieplejsze zamglone powietrze.
Wtedy to kropelki mgły, stykając się z silnie oziębionymi przedmiotami, osadzają się
na nich w postaci kryształków lodu.
Wyraźnie różne skutki kondensacji w konkretnych warunkach sprawiają, że nie
mierzy się jej tak jak parowania, lecz określa w pewnych przypadkach ilość wody
produktu powstałego w wyniku tego procesu. Niektórych jednak bezpośrednich
efektów kondensacji (np. chmur) nie da się absolutnie określić miarą objętości
powstałej wody, mierzy się zatem sumy opadów.
Klasycznym przyrządem do pomiaru opadów jest deszczomierz Hellmanna. Jest
to blaszany pojemnik o powierzchni zbierającej 200 cm
2
, ustawiony pionowo tak,
aby krawędź wlotu znajdowała się dokładnie 1 m nad powierzchnią gruntu. Woda
opadowa, także śnieg, grad, krup, etc. dostają się przez krawędź wlotową i
0
50
100
150
200
0
-10
-20
-30
-40
dla fl=100%
dla fw=100%
f
w %
o
C
Obieg wody w przyrodzie i jej przemiany fazowe
52
lejkowate zwężenie do specjalnego zbiornika wewnętrznego. Pomiaru ilości opadów
dokonuje się poprzez zmierzenie specjalną menzurką poziomu wody (ilość opadu
stałego mierzy się po wcześniejszym roztopieniu). Skala menzurki uwzględnia
wielkość powierzchni, z której przechwytywane są opady, stąd odczytu dokonuje się
bezpośrednio w mm. Jeden milimetr opadu oznacza tu 1 litr wody na powierzchni
1 m
2
.
Rys. 20. Pluwiograf
Wersja samopisząca takiego deszczomierza nazywa się pluwiografem. W tym
przypadku woda opadowa dostająca się przez krawędź wlotową trafia do zbiornika z
pływakiem. Do pływaka przytwierdzone jest ramię dźwigni zakończone pisakiem.
Wznoszący się poziom wody podnosi dźwignię i na pasku pluwiogramu, owiniętym
na obracającym się bębnie, rysowana jest linia wznosząca. Brak opadów wskazuje
linia pozioma. Odczytu sumy opadów dokonujemy przez odjęcie wartości poziomu
wody na końcu okresu pomiaru, od wartości początkowej. Ponieważ zbiornik mieści
jedynie tyle wody ile odpowiada 10 mm opadu, tak więc woda po przekroczeniu
tego poziomu automatycznie wylewa się do dużego zbiornika, przy pomocy
mechanizmu lewarowego. Na pasku pluwiogramu oznacza to pionowy spadek linii
wykresu. W przypadku wystąpienia przelewów sposób oznaczenia sumy opadów
pozostaje taki sam z tym, że do odczytanej różnicy dodajemy po 10 mm na każdy
zaznaczony przelew.
Przyrządy automatyczne, sterowane mikroprocesorem, mierzą opad inaczej. W
wielu zestawach stosuje się tzw.
rain collector. Składa się on z podstawy z
urządzeniem pomiarowym oraz kołnierza plastikowego, zakończonego krawędzią
Obieg wody w przyrodzie i jej przemiany fazowe
53
wlotową. Podobnie jak w deszczomierzach woda zebrana ze ściśle ograniczonej
powierzchni przenika poprzez lejkowate zwężenie na zespół pomiarowy. Tu jednak
pomiar nie polega na zmierzeniu całej gromadzonej objętości, a jedynie kolejnych
dostających się ich porcji. Służy do tego mechanizm wahadłowy, zawierający na
końcach dwa małe zbiorniczki. Napełnienie jednego zbiorniczka do pełna oznacza
zgromadzenie ściśle określonej ilości wody. W tym momencie dźwignia przechyla się
i woda wylewa, zaś pod wylot lejka podchodzi kolejny zbiorniczek. Każdy przechył
powoduje przecięcie linii pola elektromagnetycznego, które łatwo jest zarejestrować
w urządzeniu elektronicznym. Tak więc przyrząd mierzy liczbę przechyłów, zaś
mikroprocesor pozwala przeliczyć to na objętość wody (w mm opadu) i zapisać w
pamięci wewnętrznej, dając możliwość odczytu w dowolnym momencie sumy
opadów na monitorze urządzenia. Operator zakładając określony cykl pomiarowy,
np. dobę, musi każdorazowo wymazać z pamięci odczytaną wartość. Taka
niedogodność nie występuje gdy przyrząd podłączymy do komputera.
Przestrzenny rozkład opadów atmosferycznych na powierzchni kuli ziemskiej jest
bardzo zróżnicowany. Poniższa tabela informuje o zanotowanych wartościach
ekstremalnych w Polsce i na świecie.
Tab. 5. Wartości ekstremalne opadów atmosferycznych, zanotowane w Polsce i na świecie w
XX wieku.
Rodzaj ekstremum
Zanotowana wartość
w Polsce
Najwyższa dobowa suma opadów atmosferycznych
(Hala
Gąsiennicowa – 1973)
300 mm
Najwyższa roczna suma opadów atmosferycznych
(Kasprowy
Wierch – 1938).
2418 mm
Najwyższa średnia roczna opadów atmosferycznych
(Kasprowy Wierch – w latach 1931-1960)
1629 mm
Najniższa średnia roczna opadów atmosferycznych
(Słubice,
Suwałki w latach 1931-1960)
333 mm
Najwyższa suma opadów atmosferycznych podczs burzy
(Sławniowice na Śląsku – 1914)
176 mm
na świecie
Najwyższa dobowa suma opadów atmosferycznych
(Cilaos,
wyspa Reunion – 1952)
1870 mm
Najwyższa roczna suma opadów atmosferycznych
(Czerapuńdżi, Indie– 1981).
23000 mm
Najniższa średnia roczna opadów atmosferycznych
(Iquique,
Chile)
0 mm przez 14 lat
Najwyższa średnia roczna opadów atmosferycznych
(Mount
Waialeale, Hawaje, USA – 1920-1954)
12344 mm
Najniższa średnia roczna opadów atmosferycznych –
(Arica,
Chile w latach 1911-1949)
0,7 mm
Obieg wody w przyrodzie i jej przemiany fazowe
54
Tabela. 6. Międzynarodowa klasyfikacja chmur
Wysokość
podstawy
(rodzina)
Rodzaj chmur
Materiał
Cechy szczególne
Opad
Cirrus (Ci)
kryształki
lodu
oddzielne włókna,
pasma, białe o dużej
przeźroczystości
nie dają
opadów
ponad 6000
(wysokie)
Cirrocumilus (Cc)
kryształki
lodu krople
przechłodzonej
wody
ławice, płaty bez cieni
elementy
przypominają sieć lub
plaster miodu
nie dają
opadów
Cirrostratus (Cs)
kryształki
lodu
włóknista zasłona,
biała o mlecznym
odcieniu, obserwuje
się zjawisko halo
nie dają
opadów
Altocumulus (Ac)
prawie wyłącznie
kropelki wody
szaro biała ławica lub
warstwa, płaty, bryły,
walce oddzielone i
uszeregowane - (halo)
nie dają
opadów
2500-6000 m
(średnie)
Altostratus (As)
kryształki
lodu krople
przechłodzonej
wody
szare lub niebieskawe
w postaci płata
prążkowane, włókniste
lub jednolite
opady o
małym
natężeniu
Stratocumulus
(Sc)
drobne kropelki
wody
szare lub białawe płaty
z wyraźnie
zaznaczonymi
ciemnymi miejscami,
bryły i walce jak u Ac
lecz większe
opady o
małym
natężeniu,
mżawka lub
śnieg
do 2500 m
(niskie)
Stratus (St)
krople wody bądź
kryształki lodu
jednorodna szara
warstwa podobna do
mgły
opady
mżawki i
śniegu o
małym
natężeniu
Nimbostratus (Ns)
mieszanina lub
wyłącznie krople
albo kryształki
jednostajna szara
warstwa chmur często
ciemna o rozmytej
podstawie, gęsta
opady ciągłe
deszczu lub
śniegu
(budowa
pionowa)
Cumulus (Cu)
głównie krople
wody, wysoko
kryształki lodu
oddzielne gęste
chmury o wyraźnie
zaznaczonych
konturach, rozwijające
się w kierunku
pionowym w kształcie
gór, wież etc.,
podstawa ciemna,
góra, oświetlona
słońcem - biała
opady tylko
przy silnym
rozbudowani
u chmur
Cumulonimbus
(Cb)
jak wyżej potężne, gęste,
kłębiaste chmury,
podobne do Cu lecz
bardziej zwarte, czynią
przygnębiające
wrażenie
opady
przelotne,
ulewne,
burze
VII. CIŚNIENIE ATMOSFERYCZNE
Gazy stanowiące mieszaninę tworzącą atmosferę ziemską, jako cząstki materii
posiadają masę. W obrębie oddziaływania grawitacji Ziemi masa ta wywiera swym
ciężarem nacisk, który nazywa się ciśnieniem atmosferycznym. Ciśnienie jest więc
ciężarem słupa powietrza oddziaływującym na daną powierzchnię. Wartość ciśnienia
wyraża się wielkością siły przypadającą na jednostkę powierzchni. W układzie SI,
jednostką ciśnienia jest 1 Pascal (Pa), to znaczy siła jednego Newtona
oddziaływująca na 1 m
2
. Ponieważ, relatywnie do wartości notowanych w
atmosferze jest to wielkość stosunkowo mała, w związku z tym w meteorologii za
podstawę uznaje się 1 hektopaskal (hPa), czyli 100 Pa. Wartość wynosząca 1013,16
hPa, zmierzona na poziomie morza, przy temperaturze 0
o
C i w szerokości
geograficznej 45
o
nosi nazwę normalnego ciśnienia atmosferycznego. Odchylenia
ciśnienia w górę i w dół, zmierzonego i zredukowanego do powyższych warunków,
określane są jako ciśnienie wysokie bądź niskie.
Ciśnienie zmienia się wraz z wysokością. Wynika to przede wszystkim z tego, że
w coraz to wyższych partiach atmosfery zmniejsza się słup naciskającego powietrza
oraz obniża się tzw. geopotencjał (potencjał jednostki masy podniesionej na
jednostkę wysokości wynikający z przeciwstawienia się jednostce siły ciężkości).
Geopotencjał punktu w atmosferze jest funkcją odległości tego punktu od poziomu
morza i wartości przyśpieszenia ziemskiego. To ostatnie zależy także od wysokości
nad poziomem morza i szerokości geograficznej (Ziemia jest geoidą nieco
spłaszczoną na biegunach). W rzeczywistości punktem odniesienia dla zmian
przyśpieszenia jest środek Ziemi, jednak dla uproszczenia przyjmujemy poziom
morza i dla średniej jego wartości geopotencjał oznaczamy liczbą 0. Gdyby na
wielkość ciśnienia w przekroju pionowym atmosfery wpływała tylko zmiana
geopotencjału, to malałoby ono liniowo wraz z wysokością. Tak jednak nie jest,
zmiany te mają charakter nieliniowy z powodu tego, iż atmosfera jako mieszanina
ściśliwych gazów najgęstsza jest przy Ziemi, zaś wraz z wysokością masa
jednostkowa atmosfery maleje. W sumie ciśnienie (p) w danym punkcie opisuje
uproszczony wzór:
B
h
z
z
z
g
p
U
Ciśnienie atmosferyczne
56
gdzie:
g(z) funkcja zmiany przyśpieszenia wraz ze zmianą odległości od środka Ziemi
7(z) funkcja zmiany masy objętościowej powietrza wraz ze zmianą wysokości
z – wysokość n.p.m.
Rozważania nad zależnością ciśnienia od wysokości muszą uwzględniać tzw
prawa gazowe, wśród nich przede wszystkim równania stanu gazu doskonałego. Dla
większości zjawisk zachodzących w atmosferze można bowiem przyjąć, iż powietrze
zachowuje się prawie jak gaz doskonały. Równanie stanu gazu doskonałego ujmuje
zależności pomiędzy ciśnieniem, a temperaturą. Znając objętość i temperaturę
danego wycinka atmosfery możemy obliczyć ciśnienie gdyż:
pV = RT
gdzie:
V - objętość właściwa [m
3
/kg]
T - temperatura w skali bezwzględnej [K]
R - stała gazowa [J/kgK]
Rys.21. Zmiana ciśnienia atmosferycznego wraz z wysokością w zależności od średniej
temperatury słupa powietrza.
Ciśnienie atmosferyczne
57
W równaniach mających zastosowanie do opisu atmosfery stała gazowa jest
średnią ważoną stałych właściwych dla gazów składowych. Bardzo ważnym jest
również prawo Daltona, stwierdzające, że między innymi ciśnienie mieszaniny gazów
jest sumą ciśnień cząstkowych (parcjalnych). W praktyce meteorologicznej wynika z
niego to, iż gdy w stałej temperaturze i do stałej objętości powietrza doprowadza się
parę wodną to ciśnienie tego powierza rośnie.
Ponieważ ciśnienie w danym punkcie atmosfery rozchodzi się równomiernie
we
wszystkich kierunkach, więc siły te wzajemnie znoszą się i stąd obiekty na Ziemi nie
ulegają odkształceniu pod wpływem tego zjawiska. Jedynie wtedy gdy zamknięta
przestrzeń, odcięta jest od dopływu powietrza atmosferycznego i charakteryzuje się
mniejszą gęstością powietrza, to siły ciśnienia wywierają nacisk na ścianki
przestrzeni zamkniętej mogąc je odkształcić. Przy wyższej gęstości wewnątrz niż na
zewnątrz odkształcenie odbywało się będzie z tego kierunku.
W pionowym przekroju atmosfery najbardziej charakterystycznym zjawiskiem,
jak już wspomniano, jest spadek ciśnienia wraz z wysokością. Jest on jednak różny
w zależności od temperatury powietrza. W powietrzu chłodnym zmiany ciśnienia
zachodzą w mniejszej skali niż w ciepłym (rys. 21). Odnosząc te zmiany do jednostki
wysokości uzyskamy wskaźnik zwany gradientem barycznym, pionowym.
Odwrotnością gradientu jest tzw. stopień barometryczny, który informuje na jakiej
odległości w pionie ciśnienie zmienia się o jednostkę.
Znajomość zmian ciśnienia wraz z wysokością ma duże znaczenie praktyczne.
Możliwa jest dzięki temu tzw. niwelacja barometryczna, czy też określenie wysokości
nad poziom morza obiektów latających. Żyjący w XIX wieku J. Babinet opracował
wzór, który wyraża zależność pomiędzy średnią temperaturą dwóch punktów,
różnicą ich wysokości oraz ciśnieniem. Podstawowa postać wzoru wygląda
następująco:
gdzie:
z
1
-z
2
– różnica wysokości
8000 – wysokość tzw. atmosfery jednorodnej (8000 m)
p
1,2
- wielkości ciśnienia w punktach z
1
i z
2
t
m
– średnia temperatura powietrza w punktach z
1
i z
2
, - współczynnik rozszerzalności gazów (1/273)
Poszczególne punkty atmosfery charakteryzuje określona wartość ciśnienia –
wszystkie punkty o identycznych wartościach można sobie wyobrazić jako
płaszczyzny. Noszą one w meteorologii nazwę powierzchni izobarycznych.
)
1
(
)
(
2
8000
2
1
2
1
2
1
m
t
p
p
p
p
z
z
,
Ciśnienie atmosferyczne
58
Dokonując przekroju powierzchni izobarycznych płaszczyzną do nich prostopadłą
uzyskamy obraz, który wskazuje, iż powierzchnie baryczne obszarów ciepłych mają
kształt wypukły, a chłodnych wklęsły. Wynika to z różnicy gradientów ciśnień.
Płaszczyzny izobaryczne na przecięciu z powierzchnią ziemi znaczą linie zwane
izobarami. Izobary są liniami analogicznymi do tych, które obrazują poziomy rozkład
temperatur. Z charakterystyki powierzchni izobarycznych wynika, iż na każdym
dowolnym poziomie przecięcia, obraz izobar będzie inny. Z tego powodu, aby
uzyskać prawidłową informację o rozkładzie poziomym ciśnienia na kuli ziemskiej,
należałoby dokonywać pomiarów na tej samej wysokości, najlepiej na poziomie
morza. Ponieważ jest to jednak niemożliwe, stosuje się zasadę, iż wszystkie pomiary
dokonane na dowolnej wysokości redukuje się do tej powierzchni i temperatury 0
o
C,
stosując wyżej wskazany wzór Babineta.
Rys. 22. Rozkład ciśnień i kierunki ruchu powietrza w głównych układach barycznych
Ciśnienie atmosferyczne w przestrzeni poziomej tworzy charakterystyczne układy
zwane układami barycznymi. Najprostszymi z nich są niż i wyż. Ten pierwszy
występuje wtedy gdy w danym miejscu ciśnienie jest niższe od tego, które jest
właściwe dla przylegających obszarów. Na mapie synoptycznej sytuacja taka ma
postać koncentrycznie ukształtowanych linii izobar, z których każda następna,
zewnętrzna reprezentuje wyższą wartość ciśnienia. Przeciwna sytuacja panuje w
wyżu. Wtedy jednak, gdy środkowy obszar obniżonego ciśnienia ma postać
Ciśnienie atmosferyczne
59
wydłużoną i jest otoczony z dwóch stron przestrzeniami o ciśnieniu podwyższonym,
to taki układ nazywa się zatoką. Wydłużony obszar wysokiego ciśnienia w środku
układu określany jest mianem klina podwyższonego ciśnienia. Na granicy pomiędzy
dwoma niżami plasuje się przestrzeń będąca wałem wysokiego ciśnienia, zaś dwa
sąsiadujące wyże oddziela tzw. bruzda. Czasem można się dopatrzyć sytuacji gdy
krzyżuje się sąsiedztwo dwóch układów wyżowych i dwóch niżowych (wyże, kliny,
niże, zatoki), wtedy przestrzeń zamknięta przez te charakterystyczne rozkłady
ciśnień określana jest jako siodło baryczne. Wszystkie te układy prezentuje wyżej
zamieszczony rysunek 22.
Pomiaru ciśnienia atmosferycznego możemy dokonać, używając różnych
przyrządów. Najstarszym historycznie jest barometr rtęciowy. Ogólna zasada
funkcjonowania tego instrumentu polega na zmianie wysokości słupa rtęci, zawartej
w szklanej rurce, w wyniku zmiany ciśnień. Barometr składa się z naczynia na rtęć i
zanurzonej w niej rurki szklanej (900 mm długości i średnicy 10 mm) od dołu
otwartej, zaś od góry zamkniętej, pozbawionej powietrza (tzw. próżnia
barometryczna). Z tego właśnie powodu ciśnienie działające na powierzchnię rtęci w
zbiorniku powoduje przenikanie jej do rurki na taką wysokość, że ciężar wypchniętej
rtęci zrównoważy wartości ciśnienia. Tak więc ciężar słupa rtęci, od poziomu
dolnego końca rurki aż do górnego menisku, odpowiada dokładnie aktualnie
panującemu ciśnieniu. Całość zamknięta jest w metalowej obudowie, do której
przytwierdzono skalę usytuowaną na wysokości 700 mm. Dla oznaczeń wartości
ciśnienia przyjęto pierwotnie wysokość słupa rtęci w rurce i wyrażano je w mm Hg.
Stosowanie tej skali w układzie SI okazało się wysoce niedogodne, więc korzystając
z prostej relacji wartości, zakłada się drugą skalę – w hPa - na obudowie barometru
lub odczyty w mm przelicza się na hPa. Zależność pomiędzy aktualną, a
historycznymi (choć często jeszcze obecnie wykorzystywanymi) jednostkami
kształtuje się następująco:
1 hPa = 1 mbar = 0,75 mm Hg = 0,75 Torr
1 mm Hg = 1 Torr = 1,333 hPa = 4/3 mbar
Odczytów ze skali barometru dokonuje się z dokładnością do dziesiątej części
milimetra, (hPa), umożliwia to zintegrowanie skali barometru z noniuszem. Pomiar
ciśnienia, dokonany przy pomocy barometru, musi zostać skorygowany o poprawki
mające charakter techniczny i systemowy. Do poprawek technicznych należy korekta
instrumentalna, czyli wartość, która informuje o odchyleniach pomiaru danym
barometrem, w porównaniu do wskazań przyrządu wzorcowego. Wartość poprawki
instrumentalnej zapisana jest w metryczce przyrządu. Druga tego typu korekta
dotyczy temperatury w jakiej dokonywany jest pomiar (np. temperatury
pomieszczenia). W tym przypadku korzystamy z danych tabelarycznych, które służą
Ciśnienie atmosferyczne
60
do wyeliminowania z odczytu błędu wynikłego z faktu rozszerzalności rtęci pod
wpływem temperatury.
Korekty systemowe sprowadzają dokonane odczyty do postaci umożliwiającej
wykorzystanie pomiarów dla określenia sytuacji barycznej w przestrzeni (np. na
mapach synoptycznych). W tym przypadku zastosowanie mają wzory Babineta.
Obliczamy więc ciśnienie na poziomie morza, biorąc pod uwagę średnią z
temperatury odczytanej w danym miejscu i temperatury 0
o
C (można też skorzystać
ze znajomości przeciętnej wielkości stopnia barometrycznego - 7,9m/hPa).
Dodatkowo korygujemy wynik o odchyłkę wynikającą z położenia danego punktu na
północ lub południe od szerokości geograficznej 45
o
(wynika to z faktu, iż Ziemia
jest geoidą i w związku z tym, w zależności od szerokości geograficznej, różna jest
odległość punktu na poziomie morza od środka planety, a to z kolei zmienia wartość
grawitacji ziemskiej). W naszych szerokościach geograficznych poprawkę tę
dodajemy, gdyż wyższe przyśpieszenie ziemskie powoduje nieznaczne przykurczenie
słupa rtęci.
Rys. 23. Schemat działania barometru rtęciowego
Inna jest zasada działania aneroidu przyrządu, który mierzy ciśnienie,
wykorzystując jako sensor jego zmian tzw. puszkę Vidiego. Puszka wykonana jest z
falistej blachy dla umożliwienia jak największej powierzchni styku powietrza
atmosferycznego z daną objętością. W jej wnętrzu panuje dość duże podciśnienie
Ciśnienie atmosferyczne
61
(niecałkowita próżnia), stąd też zmiany ciśnienia na zewnątrz powodują zmiany
objętości puszki. Dla zwiększenia efektywności działania wewnątrz, oprócz pewnej
ilości powietrza, znajduje się także sprężyna. Zmiany objętości przenoszone są
systemem dźwigni na ruch wskazówki wobec odpowiednio usytuowanej skali.
Aneroid jest przyrządem o dużej bezwładności i mniejszej dokładności. Jest jednak
dogodniejszy w stosowaniu w różnych warunkach, ponieważ odczyty wymagają
jedynie korekty instrumentalnej oraz możliwa jest jego znaczna miniaturyzacja. Na
bazie aneroidów budowane są przyrządy samopiszące zwane barografami.
Najnowsze tendencje w rozwoju tej grupy instrumentów meteorologicznych dotyczą
połączenia sensorów wrażliwych na zmiany ciśnienia z modułami elektronicznymi, co
powoduje, że odczyt korygowany jest zawsze automatycznie, a ciśnienie może być
próbkowane w dowolnych przedziałach czasowych. Tego typu przyrządy
automatycznie wyznaczają też tzw. tendencję baryczną, czyli kierunek zmian
ciśnienia w ciągu określonego przedziału czasowego. Wszystko to jest to możliwe
dzięki zastosowaniu specjalnych przetworników (transducers) oraz mikroprocesorów.
Ciśnienie atmosferyczne
62
VIII. CYRKULACJA POWIETRZA
Konsekwencją zróżnicowania ciśnienia w atmosferze jest naturalna tendencja do
jego wyrównywania. Tak więc cząstki powietrza przemieszczają się od miejsc gdzie
ciśnienie jest wyższe do tych gdzie jest ono niższe.
Rys.24. Schemat cyrkulacji ogólnej atmosfery
Wszelkie ruchy powietrza, które posiadają zasięg globalny obejmujący całą
powłokę powietrzną, w szczególności troposferę naszej planety, nazywane są ogólną
cyrkulacją atmosfery. Konsekwencją ruchów wielkoskalowych jest między innymi
wymiana mas powierza zalegających nad poszczególnymi częściami Ziemi.
Nierównomierny rozkład dopływu energii słonecznej do stref geograficznych
i wynikające z tego różnice ciśnień, wytwarzają układu przestrzenny, pozwalający
wyodrębnić trzy zakresy obrotu południkowego mas powietrza w obszarze każdej
z półkul, zwane „komórkami’. W strefie między równikiem a zwrotnikiem występuje
tzw. komórka Hadley’a. Ruch powietrza wywołują tu silne zjawiska konwekcji
charakterystyczne dla okolic równika, spowodowane silnym nagrzewaniem od
podłoża. Wznoszące się powietrze, ochładzając się adiabatycznie, powoduje
powstawanie układu rozbudowanych chmur kłębiastych, z którymi związane bywają
dość intensywne opady atmosferyczne. W takiej sytuacji wokół równika wytwarza
się pas niskiego ciśnienia. Pozbawione pary powietrze odpływa górą w kierunku
bieguna. Górny ruch południkowy zmienia się na równoleżnikowy z powodu
działania, opisanej w dalszej części rozdziału, siły Coriolisa. W końcu, w okolicach
Cyrkulacja powietrza
64
30
o
szerokości geograficznej, powietrze zaczyna opadać w dół, tworząc przy
powierzchni strefę wysokiego ciśnienia. Wykształcone w ten sposób różnice ciśnień
powodują, iż opadające powietrze wraca dołem do strefy równikowej. Przy tym
pewna jego część przemieszcza się dołem również w kierunku bieguna, do około 60
o
szerokości geograficznej, tam wznosi się do góry i górą powraca do strefy
zwrotnikowej. Ten układ cyrkulacyjny nosi nazwę komórki Ferrela. Na każdej z
półkul można wyodrębnić też trzecią komórkę - okołobiegunową. Wznoszące się
powietrze w obszarze 60
o
odpływa w przeciwnym kierunku i opada na terenach
rozciągających się w pobliżu bieguna. Strefa okołobiegunowa jest więc strefą
podwyższonego ciśnienia. Masy powietrza przemieszczając się przenoszą energię,
zmieniają zachmurzenie, itp. – generalnie, cyrkulacja jest podstawową przyczyną
zmian pogody. Na tak zakreślony ogólny schemat obiegu mas powietrza nakłada się
wielość tendencji lokalnych wyznaczających tory przemieszczania się gazów
atmosferycznych.
Jeżeli ruch powietrza odbywa się poziomo w stosunku do powierzchni ziemi to
zjawisko takie nazywane jest wiatrem. Wiatry zależą od różnic ciśnienia
(gradientów). W sytuacji nie zakłóconej innymi czynnikami, powietrze
przemieszczałoby się po najkrótszej drodze w kierunku prostopadłym do linii izobar.
Jednakże ruch obrotowy Ziemi wokół własnej osi powoduje zakłócenia. Wynikają
one z oddziaływania tzw. siły Coriolisa. Jest to siła pozorna, gdyż nie wpływa na
prędkość cząsteczek powietrza, a jedynie na ich kierunek. Wyjaśnienie mechanizmu
powstawania tej siły zawiera niżej zamieszczony rysunek nr 25. Wielkość siły
Coriolisa, a tym samym skalę odchylenia ruchu, określa poniższa formuła:
gdzie:
; - prędkość kątowa Ziemi
v – prędkość poruszającego się powietrza
1 - szerokość geograficzna
Wzór ten wskazuje, iż przy tej samej prędkości wiatru, odchylenie jego kierunku
od prostopadłej do izobar, wzrasta wraz ze wzrostem szerokości geograficznej.
W tej sytuacji największa wartość siły Coriolisa objawia się na biegunach, natomiast
na równiku równa się zero. Odchylenie od początkowego kierunku ruchu mas
następuje w prawo na półkuli północnej i w lewo na południowej. Z powodu
działania opisanej siły, chcąc określić kierunek ruchu powietrza należy przyjąć, że na
półkuli północnej będzie się on odbywał (patrząc zgodnie z kierunkiem gradientu) w
prawo. Z kolei, ustawiając się tyłem do strony nawietrznej (prawo Buys-Ballota),
niskie ciśnienie będziemy mieli po lewej ręce, lekko ku przodowi, zaś wysokie trochę
z tyłu po prawej.
M
Y
K
K
v
f
Cyrkulacja powietrza
65
Drugim czynnikiem zakłócającym naturalny ruch powietrza, powstającym w
efekcie działania pierwszego, jest siła odśrodkowa. Działając przy ruchu
krzywoliniowym jest ona skierowana na zewnątrz. Jej wartość rośnie proporcjonalnie
do kwadratu prędkości wiatru i zwiększa się wraz z promieniem krzywizny wzdłuż,
której poruszają się cząstki powietrza.
Kolejna przyczyna zaburzeń ruchu powietrza związana jest ze zjawiskiem tarcia.
Występuje ono na granicy pomiędzy atmosferą a powierzchnią Ziemi. Im większy
jest tzw. współczynnik szorstkości podłoża, tym prędkość wiatru jest silniej
hamowana i zmieniany jest jego kierunek. Tarcie przy powierzchni Ziemi powoduje
powstawanie tzw. turbulencji, co z kolei wywołuje tarcie wewnątrz
przemieszczającej się masy atmosfery.
Rys.25. Schemat działania siły Coriolisa (podczas ruchu układu współrzędnych z punktu p
do p’ kierunek pierwotnego przemieszczania się cząstek powietrza zmienia się, na co
wskazują różne kąty tego kierunku w stosunku do położeń współrzędnych układu – a i a’)
Wiatr jako czynnik pogodowy określany bywa kilkoma parametrami, tj.
kierunkiem, prędkością, siłą i porywistością. Kierunek odnosi się do geograficznych
stron świata z których napływają cząsteczki, a nie stron, ku którym się one
przemieszczają. Najprostsza skala obejmuje 4 podstawowe i 4 pośrednie kierunki
(N, NE, E, SE, S, SW, W, NW), czasem jednak stosowana jest też skala 16-
kierunkowa. Można również parametr ten określać w stopniach kątowych,
Cyrkulacja powietrza
66
poczynając od 0 dla kierunku północnego i dalej odpowiednio, zgodnie z ruchem
wskazówek zegara, aż do 360
o
.
Prędkość wiatru podawana bywa najczęściej w metrach na sekundę, chociaż
bardziej przemawiającą do wyobraźni jednostką (skojarzenie z prędkością pojazdów)
jest kilometr na godzinę. Zwyczajowo, prędkość określana bywa też w skalach
opisowo-punktowych. Najbardziej znana jest skala Beauforta. Obejmuje ona 13
stopni (0 do 12) od ciszy do huraganu (12
o
– przy prędkości wiatru powyżej 32,7
m/s). Do wyznaczenia stopnia skali służą wskaźniki wizualne, typowe dla sytuacji
spotykanych w przyrodzie.
Siła wiatru to nacisk masy cząsteczek atmosfery na przeszkodę, wyrażamy ją
tradycyjnie w kG/m
2
lub zgodnie z układem SI w N/m
2
. Siła wiatru jest
proporcjonalna do jego prędkości przy założeniu, że mamy do czynienia z
jednakową gęstością powietrza. Powietrze chłodniejsze, czy zawierające większą
ilość wilgoci, przy tej samej prędkości będzie napierało z większą siłą. Siła wiatru to
wskaźnik mówiący o jego wpływie na otoczenie, na które oddziałuje w sensie
pogodowym, a także wskaźnik dający pogląd na możliwości wykorzystania
podmuchów powietrza jako naturalnego, czystego źródła energii.
Prędkość wiatru na danej wysokości, w zależności od klasy szorstkości terenu,
określa formuła:
gdzie:
v1 i v2 - prędkości wiatru przy wysokości z1 i z2
,
współczynnik potęgowy zależny o szorstkości terenu [ z tabel]
Chcąc wyliczyć energię wiatru należy skorzystać z formuły fizycznej:
przy czym:
m =
,Fv
gdzie:
m - masa powietrza w kg, v – prędkość wiatru m m/s,
, - gęstość powietrza kg/m
3
F – powierzchnia przekroju poprzecznego przez który przepływa powietrze pod kątem
prostym
gęstość wyliczamy ze wzoru:
gdzie:
,
]
[
2
2
1
Z
Z
V
V
2
2
mv
E
RT
p
7
Cyrkulacja powietrza
67
p – ciśnienie atmosferyczne w Pascalach
R – 287(m
2
/(s
2
K))
T – temperatura w stopniach Kelwina
K - współczynnik szorstkości
Suma energii E w danym czasie to:
t – czas
Wiatr może wiać ze stałą siłą prędkością i w stałym kierunku, bądź parametry te
mogą podlegać częstym zmianom. W tym ostatnim przypadku mamy do czynienia z
wiatrem porywistym. Porywistość określa się maksymalnym odchyleniem prędkości
wiatru od jego prędkości średniej. Porywy podaje się wtedy, gdy prędkość
pojedynczego takiego zjawiska, w ciągu ostatnich 10 minut, przewyższa prędkość
średnią o 5 i więcej m/s.
Rys.26. Wiatromierz Wilda
2
7
3
/
10
778
,
2
2
m
kWh
t
v
E
K
K
7
Cyrkulacja powietrza
68
Do pomiaru parametrów wiatru służy między innymi klasyczny przyrząd zwany
wiatromierzem Wilda (rys. 26). Umieszcza się go na wysokości 10 m nad
powierzchnią gruntu. Składa się on z dwóch zespołów, to jest wskaźnika kierunków
obracającego się względem prętów określających 8 kierunków stron świata i
chorągiewki wskazującej prędkość. Wskaźnik, w postaci klina złożonego z dwóch
kawałków blachy, obraca się na osi, zakończonej po drugiej stronie kulą (walcem o
stożkowatej podstawie). To właśnie kula wskazuje kierunek wiatru, gdyż zawsze
ustawia się ona ku stronie świata skąd napływa powietrze. Chorągiewka prędkości
zbudowana jest z jednego płata blachy. W położeniu wyjściowym ustawiona jest
ona na osi prostopadle do kierunku wiatru. Pod jego wpływem wychyla się ku górze,
tak że obserwator może ustalić wartość odchylenia w stosunku do prętów specjalnej
skali. Po ustaleniu pręta, do którego sięga średnie wychylenie w ciągu 2 minut,
można określić prędkość wiatru korzystając z odpowiednich tabel.
Rys. 27. Anemometr
Bardziej precyzyjne dane uzyskamy korzystając ze wskazań tzw. anemometrów.
Anemometr to przyrząd z zespołem czasz osadzonych na wysięgnikach
przymocowanych do wspólnej osi. Przy pomocy tego instrumentu można określić
prędkość chwilową, a w przypadku bardziej złożonych konstrukcji, również prędkość
średnią. Wszystkie automatyczne systemy pomiarowe rejestrują prędkość wiatru na
zasadzie anemometru, zaś kierunek z użyciem prostego wskaźnika, którego
Cyrkulacja powietrza
69
wychylenie względem stron świata zamieniane jest na impuls elektryczny. Całość
zintegrowana jest elektronicznymi modułami pamięci i przetwarzania.
Opracowania warunków wietrznych mogą być dokonywane w ujęciu liczbowym
lub też graficznym. W tym ostatnim przypadku, kreśli się najczęściej tzw. różę
wiatru. Na skali będącej zespołem krzyżujących się linii, narysowanych zgodnie
z układem stron świata, odkłada się uśrednione dla danego okresu, częstotliwości
występowania wiatrów z danego kierunku. Można też owe częstotliwości rozłożyć na
przedziały prędkości wiatru, wtedy wykres róży przedstawia bardziej kompleksową
charakterystykę. Graficzne rozwiązania, w zakresie opisu wiatru na danym terenie,
bywają bardzo różnorodne i często całkiem oryginalne.
Rys.28. Systemy wiatrów lokalnych na kuli ziemskiej (ważniejsze przykłady)
Wiatry występujące na świecie można sklasyfikować jako wiatry stałe, wiejące z
dużą regularnością kierunkową i czasową (pasaty, monsuny), wiatry układów
barycznych związane z ośrodkami niżów i wyżów oraz wiatry lokalne, o których
specyfice decydują szczególne lokalne uwarunkowania geograficzno-klimatyczne.
Pasaty wieją w strefie międzyzwrotnikowej. Ich istnienie związane jest z opisaną
wcześniej tzw. globalną cyrkulacją powietrza w atmosferze ziemskiej. Kierunek
pasatów, wiejących praktycznie przez cały rok, kształtuje się pod wpływem siły
Coriolisa. Powietrze w komórce Hadley’a, zmierzając od zwrotników ku równikowi,
odchyla swój bieg w prawo na półkuli północnej i stąd północno-wschodni kierunek
tych wiatrów. Na półkuli południowej pasaty wieją z południowego wschodu. Inne
wiatry cyrkulacji ogólnej - monsuny - powstają na styku wielkich lądów i gorących
Cyrkulacja powietrza
70
oceanów. W lecie przepływ powietrza odbywa się z kierunku oceanu nad ląd
(zjawisku temu towarzyszą obfite opady atmosferyczne), gdyż ląd nagrzewa się
szybciej i to nad nim kształtują się obszary obniżonego ciśnienia. W zimie kierunek
jest odwrotny, a nad lądem panuje pora sucha. Tak więc monsuny, wiejąc z dużą
regularnością, zmieniają swój kierunek dwa razy w roku.
Wiatry układów barycznych są charakterystyczne dla dużych obszarów w strefach
pozazwrotnikowych. Na półkuli północnej, w strefie tej, wiatry wieją najczęściej z
kierunków zachodnich.
Wiele zjawisk związanych z przemieszczeniami powietrza ma charakter wiatrów
lokalnych. Cechują się one zwykle mniejszym zasięgiem niż wcześniej omówione i
zależą w głównej mierze od warunków geograficznych danych obszarów. Do grupy
tej można zaliczyć potężne i groźne wiatry jakie towarzyszą burzom tropikalnym
(huragany, cyklony, tajfuny, Willy-Willy) jak również wiatry bora, feny (np. wiatr
halny w Polsce na małym obszarze Tatr), czy wreszcie bryzy morskie oraz jeziorne.
Ważniejsze wiatry lokalne zaznaczono na wyżej zamieszczonej mapie (rys. 28).
Gwałtowne burze tropikalne powstają nad obszarami gorących wód
oceanicznych. Niezwykłe siły, jakie w takich sytuacjach są wyzwalane, pochodzą z
energii zgromadzonej przez wodę charakteryzującą się dużą pojemnością cieplną,
jak i z zachodzących wtedy na bardzo dużą skalę, przemian fazowych wody.
Początek huraganów to zwykle kilka, kilkanaście pojedynczych burz, które stopniowo
łączą się wytwarzając układ cyklonalny, z ośrodkiem zwanym „okiem”. Strumienie
powietrza krążą wokół niego z prędkością przekraczającą niekiedy nawet 400
km/godz, po lewoskrętnej (na półkuli północnej) z peryferii do centrum, wznosząc
się tam ku górze i dalej przemieszczając się na zewnątrz wiru. Funkcjonujące w oku
cyklonu prądy wstępujące powodują powstawanie rozbudowanych pionowo chmur
kłębiastych. Chmury te zwartą ścianą otaczają oko, wewnątrz którego panuje bardzo
niskie ciśnienie oraz słoneczna, prawie bezwietrzna pogoda.
Równie gwałtowny przebieg ma układ cyklonalny zwany tornadem lub trąbą
powietrzną. Prędkości wiatru w tym przypadku są także bardzo duże, jednak
średnica wirującego leja dochodzi tylko do kilkuset metrów. Tornada wyrządzają
wielkie szkody materialne w pasie swoich przejść (np. w tzw. alei tornad w USA).
Inne wiatry lokalne, aczkolwiek niekiedy bardzo uciążliwe, niekoniecznie mają
przebieg powodujący katastrofy, czasem stanowią jedynie lokalny fenomen
pogodowy. Przykładowo wiatr
bora jest silnym porywistym wiatrem wiejącym znad
gór przybrzeżnych ku cieplejszym morzom (np. na wybrzeżu Adriatyku). Wiatry
fenowe (w Polsce – wiatr halny), powstają podczas przepływu masy powietrza przez
wysokie łańcuchy górskie (Alpy, Tatry), przy dużych różnicach ciśnień. Wtedy to, po
stronie nawietrznej wstępujące po grzbietach gór powietrze ochładza się
adiabatycznie przyczyniając się do powstawania chmur opadowych. Przenikając na
drugą stronę grzbietu powietrze suche opada gwałtownie w dół po zboczach, tym
razem ogrzewając się adiabatycznie. Halny w Tatrach niszczy drzewostan i
Cyrkulacja powietrza
71
przyczynia się do szybkiego topnienia śniegu na przedwiośniu. W górach, jako
typowe, występuje zjawisko wiatrów dolinowych i górskich. W pierwszym
przypadku, w ciągu dnia powietrze ogrzane od silniej nagrzewających się zboczy
unosi się ku górze, a w jego miejsce napływa chłodniejsze z dolin. Z kolei w nocy
zbocza silnie się ochładzają przez wypromieniowanie, a od nich ochładza się
przylegające powietrze. Jako cięższe spływa w dół powodując zjawisko wiatru
górskiego.
Sąsiedztwo lądu i obszaru wodnego (np. morza, jeziora) nawet w lokalnej skali
bardzo wyraziście kształtuje cyrkulację przylegających mas powietrza. W dzień,
szybciej nagrzewający się ląd i dłużej pozostające jako wychłodzone masy wód,
wytwarzają kontrast ciśnień – niskie nad lądem, wysokie nad wodą. Dzięki temu
masy powietrza przemieszczają się dołem od wody ku lądowi i następnie odpływają
górą z powrotem nad obszar wodny, tworząc układ zwany bryzą morską (jeziorną,
etc.). W nocy następuje zmiana kierunku cyrkulacji na odwrotną.
W odróżnieniu do poziomego, pionowy ruch powietrza nazywamy konwekcją.
Prądy wstępujące są najczęstszą przyczyną powstawania chmur. W warunkach niżu i
istnienia równowagi chwiejnej pojawia się zachmurzenie oraz w wielu przypadkach
związane są z nim opady atmosferyczne. Podczas pogody wyżowej i rysującego się
stanu równowagi stałej, zachmurzenie zanika.
Oprócz ruchów pionowych i poziomych w atmosferze pojawiają się ruchy
nieuporządkowane, „chaotyczne”, nazwane turbulencjami. Turbulencje towarzyszą
niemal zawsze przepływowi laminarnemu powietrza w pionie i poziomie, stanowiąc
znaczącą ich składową.
Cyrkulacja powietrza
72
IX. ANALIZA I PROGNOZA POGODY
Uwagi wstępne
Pogoda to stan zjawisk oraz parametrów atmosfery w danym miejscu i chwili.
Zawarte w definicji określenie przedziału czasu – chwili - ma dość subtelne
znaczenie. Zasadniczo wszystkie charakterystyki zespołu zjawisk i wartości
elementów meteorologicznych dla danego obszaru, zestawione w przedziale
rocznym, uznaje się za opis pogody. Zestawienia obejmujące kilka lat są już opisami
klimatycznymi, z tym, że dla uzyskania właściwej informacji o klimacie niezbędne są
ciągi obejmujące co najmniej kilkanaście lat.
Na obraz sytuacji pogodowej, w krótszym czy też dłuższym okresie przemożny
wpływ mają procesy, które zachodzą w całej objętości atmosfery ziemskiej. Ze
względu na ciągłe przemieszczanie się powietrza, układy pogodowe ustalają nie
tylko miejscowe uwarunkowania tych procesów, lecz także te, które występują w
odległych obszarach. Mechanizmy zmian parametrów fizycznych atmosfery są dość
dobrze rozpoznane. Na poziome mechaniki płynów (atmosfera podlega tym
prawom) większość spraw jest opisana formułami matematycznymi. Wiemy także
wiele na temat relacji pomiędzy atmosferą, a podłożem oraz atmosferą a
przestrzenią kosmiczną. Tak się jednak składa, iż o pogodzie decyduje zarówno
wielkie centrum działania atmosfery jakim jest na przykład wyż syberyjski, jak i
niewielkie zakłócenie wywołujące splot pojedynczych, drobnych z pozoru zdarzeń
dających w efekcie końcowym znaczną zmianę pogody (słynny „efekt motyla”
2
).
Zjawisko to, podobnie jak kilka innych fenomenów przyrodniczych, tłumaczy
matematyczna teoria chaosu. W tym przypadku chaos nie oznacza brak
przyczynowości, czy nieporządek, lecz ogromny splot zależności między zjawiskami,
niemożliwy ostatecznie do jednoznacznego opisu.
U podstawy wszelkiej zmienności w atmosferze leży nierównomierny dopływ
energii do poszczególnych jej obszarów. Ma on dwojaką przyczynę. Pierwsza wynika
z praw irradiacji, a przede wszystkim z tego, iż jest ona zależna od kąta padania
promieni słonecznych. Druga związana jest z oddawaniem ciepła przez podłoże do
atmosfery, która to wymiana kształtuje zasadniczo warunki cieplne tego środowiska.
Różne powierzchnie oddają ciepło w różnych ilościach i z różnym tempem. Na kuli
ziemskiej istnieje więc zdecydowane zróżnicowanie dopływu energii do atmosfery w
2
Profesor Lorenz z MIT - USA określił obrazowo, że motyl, którego machnięcie
skrzydełkami nastąpiło w Arizonie może wywołać burze w Afryce.
Analiza i prognoza pogody
74
układzie równoleżnikowym, jak również to, które wynika z istnienia istotnie
skontrastowanych podłoży, lądowego i morskiego. Ponieważ w przyrodzie, zwłaszcza
na poziomie zjawisk fizycznych, układy niezrównoważone dążą do wyrównania, tak
więc zróżnicowane potencjały energetyczne uruchamiają ciąg zjawisk kształtujących
pogodę.
Podstawy kształtowania zjawisk i parametrów pogodowych
Przystępując do analizy zjawisk kształtujących pogodę należy zwrócić uwagę
głównie, na tzw. „obiekty meteorologiczne”, jako elementy strukturalne atmosfery o
szczególnych cechach, kształtujących określone typy pogody w specyficzny sposób.
Najważniejsze z nich to: masy powietrza, fronty atmosferyczne oraz układy
baryczne.
Rys. 29. Obszary źródłowe mas powietrza na półkuli północnej
Termin „masa powietrza
” oznacza fragment objętości troposfery, która
rozpościera się nad rozległym obszarem kształtującym jej właściwości. Owe
Analiza i prognoza pogody
75
właściwości, dość jednorodne i odmienne od innych przyległych warstw, pojawiają
się w wyniku zalegania powietrza nad daną przestrzenią przez dłuższy czas. Dzieje
się tak przede wszystkim w obszarach wyżów atmosferycznych, które sprzyjają
pozostawaniu powietrza nad tym samym podłożem. Region, nad którym formują się
określone odrębne charakterystyki atmosfery nazywa się obszarem źródłowym mas
powietrza (rys. 29). Masy można klasyfikować w oparciu o kryterium geograficzne i
termodynamiczne. Biorąc pod uwagę pierwsze kryterium wyróżniamy masy
powietrza arktycznego, polarnego (umiarkowanych szerokości geograficznych),
zwrotnikowego i równikowego. Pierwsze trzy masy, w zależności od rodzaju
podłoża, klasyfikowane są jako kontynentalne (powstałe nad lądami) i morskie. W
oparciu o kryterium termodynamiczne wyróżnia się masy ciepłe, chłodne i stare. Ta
ostatnia klasyfikacja dotyczy masy w ruchu. Ciepłą jest ona wtedy, gdy nasuwa się
nad obszar o niższej temperaturze podłoża– chłodną w odwrotnej sytuacji. Masa
powietrza starego to taka masa, która w znacznym stopniu utraciła cechy pierwotne,
nadane jej nad obszarem źródłowym i stopniowo nabiera cech nowego podłoża.
Proces ten w meteorologii nazywany jest transformacją.
Powietrze arktyczne, morskie (PAm) formuje się nad strefąi Morza Arktycznego,
pomiędzy Grenlandią a Szpicbergenem. Przenika ono nad nasz region od strony
północno – zachodniej, przesuwając się nad obszarem Morza Północnego i
Skandynawii. Przynosi ono znaczne ochłodzenie. Ochłodzenie to jest zwykle
relatywnie głębsze latem niż zimą. Zimą w pewnych układach z napływem tego
powietrza może się wiązać ocieplenie (wtedy gdy wyprze ono kontynentalną masę
arktyczną).
Powietrze arktyczne, kontynentalne (PAk) spływa nad Polskę od północy z
obszarów Arktyki, najczęściej przez Finlandię oraz Bałtyk. Są to masy
odpowiedzialne za głębokie ochłodzenia w okresie zimy oraz za późnowiosenne i
wczesnojesienne przymrozki. Z masami tymi związane są też podmuchy silnego
wiatru.
Powietrze polarne, morskie (PPm). W tym przypadku nazwa nie jest całkowicie
adekwatna do obszaru, nad którym się tworzy i jest używana tylko ze względów
historycznych (inna nazwa to masy umiarkowanych szerokości geograficznych).
Wraz z odmianą kontynentalną, jest to masa najczęściej kształtująca warunki
pogodowe w Polsce. Powietrze polarne tworzy się nad obszarem północnego
Atlantyku i dociera do centrum Europy od północy lub zachodu, przez Wyspy
Brytyjskie. Powietrze to w okresie zimowym przynosi często opady śniegu i potem
ocieplenie. W porze letniej następuje natomiast ochłodzenie, któremu towarzyszą
opady atmosferyczne. Charakterystyczną cechą pogody kształtowanej przez te masy
jest pojawianie się mgieł i niskiego, warstwowego zachmurzenia.
Powietrze polarne, kontynentalne (PPk). Masy te tworzą się na rozległych
obszarach dwóch kontynentów, Azji (Rosja) i Ameryki Północnej (Kanada).
Napływają nad Polskę od północy i północnego wschodu. Powietrze to
Analiza i prognoza pogody
76
charakteryzują się niską zawartością pary wodnej. W lecie wiąże się z nim lekkie
ochłodzenie oraz pogoda sucha i słoneczna. W zimę masy te powodują znaczne
ochłodzenie, czasem głębsze niż w przypadku powietrza arktycznego, zwłaszcza gdy
tworzy się ono nad rozległymi wychłodzonymi obszarami pokrytymi warstwą śniegu.
Powietrze zwrotnikowe, morskie (PZm). Formuje się w strefie środkowego
Atlantyku, najczęściej w sąsiedztwie Wysp Azorskich, gdzie zlokalizowany jest
stacjonarny wyż, stanowiący jedno z centrów atmosfery. Powietrze to napływa z
południowego zachodu i zachodu. Jest wilgotne i ciepłe. Pojawiając się latem
powoduje powstanie pogody burzowej, wywołującej zjawisko parności. W zimie
następuje gwałtowne ocieplenie i szybkie topnienie śniegu. Jeżeli masy te
dodatkowo wzbogacone zostaną wilgocią znad Morza Śródziemnego to może dojść
do wyjątkowo obfitych opadów nad terytorium Polski.
Powietrze zwrotnikowe
, kontynentalne (PZk). Masy te tworzą się nad obszarem
źródłowym w północnej Afryce, Azji Mniejszej i południowo-wschodniej Europie.
Powietrze tego rodzaju jest latem sprawcą pogody bardzo ciepłej, a w
ekstremalnych przypadkach, wyjątkowo upalnej. Kierunek napływu nad nasz obszar
to południe i południowy wschód.
Powietrze równikowe
(PR). Nie dociera ono nad nasz obszar. Tam gdzie się
tworzy charakteryzuje się dużą jednorodnością cech fizycznych. Jest ono wilgotne i
gorące. W takich warunkach dochodzi często do pojawiania się burz tropikalnych.
Powstają one nad obszarem oceanu i przemieszczają się w kierunku lądu. Te, które
pojawiają się w okolicach zachodnich wybrzeży Afryki, docierają wielokroć, aż do
Ameryki Środkowej i Północnej.
Ponieważ powietrze jest złym przewodnikiem ciepła, zatem proces poziomego
wyrównywania się temperatur pomiędzy różnymi masami jest powolny i dzięki temu
mogą one istnieć jako odrębne obiekty meteorologiczne. Na granicy pomiędzy
dwoma masami tworzy się strefa przejściowa, charakteryzująca się nieciągłością
zmian podstawowych charakterystyk. Dwie odmienne masy tworzą poziomą strefę
przejściową gdyż płaszczyzna ich styku (powierzchnia frontalna) usytuowana jest
pod małym kątem w stosunku do powierzchni podłoża. Umowne miejsce przecięcia
powierzchni frontowej przez płaszczyznę podłoża nosi nazwę linii frontu. W strefie
nieciągłości frontowej obserwowane są duże zmiany kierunku i prędkości wiatru,
stopnia zachmurzenia, wilgotności, ciśnienia, a także innych parametrów
meteorologicznych. Ze względu na długość i rozciągłość pionową wyróżnia się fronty
główne, podstawowe, wtórne i górne. Fronty główne obejmują znaczne obszary kuli
ziemskiej, występując jako strefy przejściowe między obszarami źródłowymi mas
powietrza. Wyróżnia się więc front arktyczny położony na granicy pomiędzy strefą
arktyczną, a umownie zwaną polarną. Z kolei ta ostania od obszaru zwrotnikowego
oddzielona jest frontem polarnym. Front zwrotnikowy oddziela obszar powietrza
zwrotnikowego od równikowego. Fronty te jednak nie tworzą regularnych i ciągłych
linii. Jako fronty główne, stacjonarne, poszczególne odcinki tych stref występują
Analiza i prognoza pogody
77
przejściowo. Fale pobudzające fragment frontu do ruchu zmieniają jego charakter
na front ruchomy. Ze względu na właściwości ruchu fronty dzieli się na cieple,
chłodne i fronty okluzji.
Rys. 30. Przekrój przez front ciepły
Rys. 31. Przekrój przez front chłodny
Rys. 32. Front okluzji o charakterze frontu ciepłego
Rys. 33. Front okluzji o charakterze frontu chłodnego
Strefa frontu ciepłego rozpościera się na przestrzeni 600 – 800 km, z czego na
obszar objęty opadami deszczu (śniegu) przypada 300-500 km (rys. 30). Opady
Analiza i prognoza pogody
78
frontu ciepłego związane są z rozległą warstwą chmur Nimbostratus lub czasem
Altostratus. Zatem są to opady najczęściej ciągłe. Front ciepły przemieszcza się z
prędkością 20 – 40 km/h, przeciętnie 25 km/h, zatem opady z nim związane mogą
trwać od 7 do 15 godzin. W klinie powietrza chłodnego, przed przejściem frontu, w
wyniku parowania i spadku ciśnienia tworzą się rozległe połacie mgły frontowej
(zwłaszcza zimą).
Front chłodny występuje w sytuacji gdy powietrze chłodne wypiera ciepłe znad
danego obszaru (rys. 31). Powietrze chłodne, jako cięższe, wciska się w postaci
klina, pod powietrze ciepłe, które dzięki temu wynoszone jest intensywnie do góry.
Szerokość strefy jest więc węższa. Pionowy ruch powietrza wywołuje znane skutki
związane z adiabatycznym ochłodzeniem. W tym jednak przypadku czołowa część
frontu objawia się napływem chmur kłębiastych. Dopiero za nimi pojawiają się
chmury wyższych pięter, zgodnie z układem płaszczyzny frontowej. Opady związane
z frontem chłodnym zależą od rozwoju sytuacji frontowej. W przypadku frontu
chłodnego I rodzaju, gdy powietrze chłodne przemieszcza się dość wolno, tworzą się
chmury będące niemal lustrzanym odbiciem sytuacji charakterystycznej dla frontu
ciepłego. Zatem po gwałtowniejszych opadach przelotnych pojawiają się opady
ciągłe o mniejszym natężeniu. W sytuacji gdy front chłodny przemieszcza się szybko
(front chłodny II rodzaju), to powstawanie chmur kłębiastych jest intensywniejsze,
co jest szczególnie wyraźne podczas miesięcy letnich. Tworzą się wtedy chmury
Nimbostratus dające opady burzowe. Chmury Nimbostratus i Altostratus w takich
sytuacjach nie występują. Wiatr podczas przejścia tego frontu skręca w prawo i
zwiększa prędkość. Prędkość przemieszczania się tego frontu osiąga około 50
km/godz.
Front okluzji jest frontem złożonym. Powstaje on wtedy gdy na odcinku frontu
stacjonarnego pojawia się fala, powodująca przemieszczanie się powietrza
cieplejszego (front ciepły) na północ i chłodniejszego (front chłodny) na południe.
Odcinek frontu chłodnego, szybciej przemieszczającego się, dogania po pewnym
czasie fragment będący frontem ciepłym. Przed połączeniem frontów dwa odcinki
frontowe zamykają stopniowo obszar powietrza cieplejszego i w końcu powodują
wyparcie jego ku górze. Jeżeli powietrze chłodne odcinka frontu chłodnego jest
chłodniejsze od powierza chłodnego na czele doganianego odcinka ciepłego, to po
połączeniu się tych dwóch frontów powstaje front zokludowany typu frontu ciepłego
(rys. 32). W odwrotnej sytuacji powstaje okluzja typu frontu chłodnego (rys. 33).
Zachmurzenie frontu okluzji ma początkowo charakter zachmurzenia obu
połączonych frontów, lecz w wyniku wypychania powietrza ciepłego ku górze, w
dolnych partiach troposfery zachmurzenie zanika lub pozostaje w postaci
zachmurzenia piętra środkowego i górnego. Opady frontu zokludowanego bywają na
początku ciągłe, lecz później, w związku ze zmianą zachmurzenia zanikają. Podobnie
jak w przypadku frontu chłodnego wiatr nasila się i skręca w prawo. Tendencja
baryczna najpierw jest spadkowa, a po przejściu okluzji wyraźnie wzrastająca.
Analiza i prognoza pogody
79
Charakterystyczna budowa układów barycznych była omówiona w rozdziale
dotyczącym ciśnienia atmosferycznego. W tym miejscu należy podkreślić, iż ich rola
jako czynników pogodotwórczych jest bardzo istotna. Powstawanie niżu związane
jest z tworzeniem się frontu okluzji. Niże są charakterystycznym elementem
pogodowym obszarów pozazwrotnikowych, powstają najczęściej na odcinkach
stacjonarnego frontu polarnego i przesuwają się z północnego zachodu na
południowy wschód. Często pojawiają się one seriami, wędrując jeden za drugim
nad obszarem Europy, by ostatecznie zaniknąć w strefie południowo wschodnich
obszarów Rosji i byłych republik ZSRR oraz Azji Mniejszej. Wznoszenie się powierza
ciepłego w finalnym stadium okluzji ku górze sprawia, iż kształtuje się przestrzenny
rozkład ciśnień z charakterystycznym centrum o najniższej wartości. Pogodotwórcza
funkcja niżu barycznego związana jest zarówno z charakterystycznymi elementami
pogodowymi frontu okluzji, jak i z ogólną cyrkulacją atmosfery wywołaną
powstaniem tego układu. Generalizując należy podkreślić, iż z niżem związana jest
zwykle pogoda o dużym zachmurzeniu i opadach mniej intensywnych lecz ciągłych,
zwłaszcza na wschodnim i północnym skraju niżu.
Formowanie się wyżów jest mniej poznane. Przypuszcza się, że ich powstanie
wiąże się z silnym ogrzaniem powietrza na obszarze pomiędzy istniejącymi układami
niżowymi. W wyżu, przy powierzchni ziemi, ruch powietrza odbywa się po skośnej
prawoskrętnej. W wyższych warstwach występuje zjawisko opadania powietrza. To
ostatnie zjawisko sprawia, iż w wyżu zachmurzenie zanika. Z układem wyżowym
związana jest zwykle stabilna, słoneczna pogoda w dłuższym okresie czasu.
W ciepłej porze roku zaleganie wyżów nad danym obszarem gwarantuje pogodę
upalną, szczególnie ustalającą się na zachodnim skraju wyżu. Z kolei w centrum, w
okresie zimy, panują niskie temperatury spowodowane dużym bezruchem powietrza
w tej strefie.
Na mapach klimatycznych niektóre układy baryczne charakteryzują się dość dużą
roczną bądź sezonową stałością ulokowania. Są to wspomniane wcześniej centra
działania atmosfery. Na pogodę w Polsce oddziaływają stałe układy wyżu azorskiego
i niżu islandzkiego. Sezonowo, w okresie zimy, ośrodkiem aktywności atmosfery jest
niż śródziemnomorski i wyż syberyjski, latem zaś niż południowoatlantycki i wyż
północnoamerykański. Stałość tych układów nie wyklucza jednak odstępstw od niej
w niektórych latach.
Prognozowanie pogody
Przewidywanie stanów pogodowych jest jednym z głównych celów poznania
atmosfery jak i najważniejszym pożytkiem płynącym z tej działalności. Z tego
powodu ludzie starali się przewidywać układy pogodowe od najdawniejszych
czasów. Przez stulecia praktyka i nauka wypracowały metody przewidywań, które
pozwalały na coraz precyzyjniejsze oszacowanie możliwości rozwoju sytuacji w
Analiza i prognoza pogody
80
atmosferze w przyszłości. Szczególny postęp zaznaczył się w okresie rewolucji
naukowo-technicznej, gdy do tych zadań włączono nie tylko doskonałe
instrumentarium pomiarowe, ale także komputery o wysokich możliwościach
przetwarzania informacji.
Rys. 34. Przykład mapy synoptycznej
Dział meteorologii zajmujący się zagadnieniami przewidywania pogody nazywa
się synoptyką (synopticos grec. – obejmujący okiem, szeroko widzący). Synoptyka
operuje metodami prognostycznymi, które można podzielić na trzy grupy: metody
analizy map synoptycznych, metody numryczne oraz metody wykorzystujące tzw.
prognostyki.
Analiza sytuacji meteorologicznej to zadanie, wykonywane w centrach
prognozowania pogody, polegające na ocenie stanu i rozwoju poszczególnych
obiektów i procesów meteorologicznych. Prawidłowo wykonana analiza jest
podstawą dobrej prognozy. Głównym warunkiem powodzenia analizy jest
Analiza i prognoza pogody
81
posiadanie, jak to już wyjaśniono w pierwszym rozdziale, dostatecznej liczby
obserwacji i pomiarów charakterystyki atmosfery pochodzących z możliwie
największego obszaru. Pozyskane dane służą do opracowywania map
synoptycznych. Mapa dla prognoz obszaru Polski musi obejmować cały kontynent,
północną część Atlantyku i Arktykę po Szpitzbergen oraz północne obszary Afryki.
Dane ze stacji zestawia się graficznie i liczbowo w postaci tzw. modelu. W modelu
tym zawarte są informacje dotyczące temperatury, widzialności, rodzaju i stopnia
zachmurzenia, kierunku oraz prędkości wiatru, a także ciśnienia, tendencji
barycznej, etc. Na podstawie modeli stacji synoptyk dokonuje interpolacji danych w
przestrzeni, kreśląc izobary (co 5 hPa), fronty, strefy opadów wraz z oznaczeniem
ich rodzaju, obszary z mgłami i burzami. Najtrudniejszą operacją w tym zakresie jest
wyznaczenie linii frontów. Obecnie, ułatwieniem w wykonaniu tego zadania są
zdjęcia satelitarne, z których wynika rozkład powłoki chmur. Z tego rozkładu
doświadczony synoptyk może pewnie wywnioskować o przebiegu strefy i linii
frontowej.
Korzystając z map dokonuje się analizy sytuacji i określa przyszłe zmiany na
podstawie prawidłowości rozwoju pogody. Mapa synoptyczna, pokazując sytuację w
atmosferze w określonym czasie i przestrzeni, może stanowić podstawę do snucia
przypuszczeń w zakresie przyszłych zmian pogody. Dla dokładniejszej analizy
koniecznym jest jednak posiłkowanie się serią map z pewnego przedziału
czasowego. Wtedy przewidywane zmiany mogą być konfrontowane na tle
udokumentowanego rozwoju sytuacji.
Fluktuacja pogody wynika z powstawania, rozwoju i przemieszczania się
obiektów atmosferycznych. Dynamika tych obiektów decyduje o powstawaniu
różnych, choć w wielu przypadkach bardzo zbliżonych, stanów atmosfery zwanych
typami pogody. Typy pogody bywają charakterystyczne dla poszczególnych pór
roku. Te same obiekty w różnych porach mogą powodować odmienne stany.
Najbardziej dynamicznymi obiektami meteorologicznymi są fronty atmosferyczne.
Ich przemieszczanie się może być związane z ogólną cyrkulacją lub ruchem
powietrza w niżu, z którym dany front jest związany. Wraz z frontami przemieszcza
się również sam niż. Przemieszczanie się niżu zależy od jego głębi, a to z kolei od
kontrastu temperatur znajdujących się po obu stronach frontów. Kierunek ruchu
tego układu wyznacza kierunek spadku ciśnienia przed frontem ciepłym i wzrost
ciśnienia za frontem chłodnym. Łącząc punkty będące środkami obszarów o
przeciwnych tendencjach barycznych, uzyskamy prawdopodobny kierunek
przemieszczania się niżu. Z kolei prędkość ruchu pozostaje w ścisłej zależności od
amplitudy tendencji barycznych. Zanik niżu można przewidzieć po powstaniu okluzji
i wypychaniu ciepłego powietrza ku górze. Gdy opuszczone miejsce przez powietrze
ciepłe zacznie zajmować chłodne to stopniowo niż ulegnie wypełnieniu. W niżu
charakter pogody jest wyraźnie zmienny, czego przyczyną są przemieszczające się
kolejne fragmenty frontów dążących do okluzji. Przykładowe, charakterystyczne
Analiza i prognoza pogody
82
sytuacje pogodowe, związane z przemieszczaniem się frontów atmosferycznych
zestawiono w tabeli 7, na końcu rozdziału.
Wyże powstają inaczej niż niże, przesuwają się wolniej w kierunku ujemnej
tendencji ciśnienia bądź pozostają w bezruchu. Powstając nad dużymi obszarami
wychładzającymi rozciągają się pionowo aż do górnych warstw troposfery. Synoptyk
zazwyczaj przyjmuje, iż rozległy, głęboki wyż będzie kształtował pogodę przez wiele
dni a nawet tygodni. Pod wpływem wyżu, w okresie letnim, kształtuje się pogoda
słoneczna i ciepła, natomiast wyże zimą sprzyjają pogodzie słonecznej lecz mroźnej.
Synoptyk musi zawsze pamiętać, że chociaż o przebiegu pogody decydują w
największym stopniu procesy wielkoskalowe, to jednak czynniki lokalne mogą
wpływać znacząco na modyfikację pogody powstałą w wyniku oddziaływania mas
powietrza, układów barycznych czy frontów. Najsilniej w mezoskali działa orografia.
Pogoda w górach wykazuje szczególną dynamikę zmienności, zarówno w czasie jak i
przestrzeni. Sprzyjają temu ruchy powietrza wobec przeszkód, które stanowią
łańcuchy czy zbocza górskie. Obserwowana tu zmiana ruchu poziomego na pionowy,
sprzyja powstawaniu chmur, zamgleń, lokalnej cyrkulacji wietrznej. Duże jest także
lokalne oddziaływanie powierzchni okrytych roślinnością wysoką. Obszary leśne
dłużej gromadzą wodę, która parując zwiększa możliwości późniejszych opadów.
Całkiem odmienne warunki pogodowe panują zwykle na pełnym morzu (oceanie), w
ich pobliżu oraz na lądzie. Przestrzenie wodne, zwłaszcza rozległe, łagodzą
amplitudy temperatur, sprzyjają intensywniejszemu parowaniu.
Rys. 35. Schemat podziału atmosfery dla prognoz numerycznych.
Obecnie coraz częściej bywają wykorzystywane w prognozowaniu metody
numeryczne. Z grubsza rzecz biorąc, metody te polegają na przetwarzaniu danych
zestawionych w układzie siatki kwadratowej lub sześciennej (patrz rysunek 36).
Analiza i prognoza pogody
83
Każdy punkt oczka takich siatek będący ściśle określonym miejscem w atmosferze,
reprezentowany jest przez wartość podstawowych parametrów fizycznych atmosfery
(temperatura, ciśnienie, wilgotność, etc). Przetwarzanie odbywa się przy
uwzględnieniu formuł opisujących zachowanie się danych wartości podlegających
wpływowi najbliższych punktów. Najlepsze efekty takiego prognozowania związane
są z gęstymi siatkami opisującymi stan atmosfery i z wykorzystaniem funkcji
zależności wzajemnych pomiędzy parametrami hydrotermicznymi gazów. Metodę
przetwarzania numerycznego stosuje się też i odmiennie. Chodzi mianowicie o
prognozy matematyczno – statystyczne. Prognozy te powstają na podstawie analizy
statystycznej zjawisk zapisanych w przeszłości i wyznaczeniu na tej podstawie
trendów zmian.
Stosując różne kryteria podziału, prognozy można podzielić na kilka kategorii. W
oparciu o czynnik czasowy wyróżnia się prognozy na bardzo krótki okres (12
godzin), krótkoterminowe (od 1 do 3 dni), średnioterminowe (4-10 dni),
długoterminowe (1 miesiąc). Ze względu na zakres wykorzystania prognoz można je
podzielić na ogólne i specjalistyczne. Ogólne mają charakter uniwersalny i mogą być
wykorzystywane przez wszystkich odbiorców. Prognozy specjalistyczne są
dedykowane do szczególnego wykorzystania w przemyśle, transporcie (prognozy
bardzo krótkie), rolnictwie. Ze względu na obszar objęty prognozowaniem
wyróżniamy prognozy lokalne i wielkoobszarowe.
Najważniejszą cechą dobrej prognozy jest jej wysoka sprawdzalność. Można ją
oceniać subiektywnie, z pozycji każdego odbiorcy, jak i obiektywnie, stosując
odpowiednie metody statystyczne. Oceniając subiektywnie prognozę stosuje się
zwykle szereg uproszczeń i popełnia błędy. Przykładowo, wiele prognoz nie sprawdzi
się punktowo, w konkretnym miejscu, nawet te mające charakter lokalny. Ponadto
trzeba wywarzyć odpowiedniość prognozy w stosunku do każdego elementu
oddzielnie. Dzięki metodom statystycznym ocena poprawności prognoz jest
prowadzona na bieżąco i stanowi ona stały element samooceny każdej stacji
synoptycznej. Ogólnie rzecz biorąc poziom sprawdzalności prognoz świadczy o
sprawności służb meteorologicznych. Z drugiej jednak strony praca służb na
obszarach o większej stabilności warunków pogodowych jest o wiele łatwiejsza, niż
tam gdzie pogoda zmienia się często (np. w obszarze ścierania się wpływów
cyrkulacji wschodniej i zachodniej – czyli w Europie środkowej). Sprawdzalność
prognoz krótkoterminowych osiąga pułap 85-90%. Im dłuży dystans czasowy tym
wskaźnik ten maleje. Dziś synoptycy stwierdzają jednoznacznie, że prognozy na
okres dłuższy niż 10 dni są tylko zgadywaniem. To odważne stwierdzenie pada w
sytuacji gdy synoptyk współczesny dysponuje tak rozbudowanym warsztatem
pomocniczym do stawiania prognoz. Na razie jednak, między innymi dzięki
nowoczesnemu wyposażeniu udało się dowieść, iż zjawiska w atmosferze mają
charakter chaotyczny (wspomniana wyżej teoria chaosu). Teoria ta nie dowodzi, jak
by się wydawało, braku związku między zjawiskami, jedynie stwierdza, iż o
Analiza i prognoza pogody
84
przebiegu zjawisk w atmosferze decyduje tak skomplikowany splot powiązań, iż
jeszcze długo nie będzie możliwe ich precyzyjne przewidywanie, nawet z pomocą
superszybkich komputerów. Paradoksalnie, zwiększające się zasoby informacji do
przetwarzania, w połączeniu z coraz bardziej skomplikowanymi formułami
zależności, wyprzedzają znacznie postęp techniki komputerowej (a wydaje się że
dokonuje się on w zawrotnym tempie), tak że czas przetwarzania wydłuża się
zamiast skracać.
Dotychczas omówione metody wymagają danych mierzalnych. Oprócz nich
praktyczne znaczenie mają też tzw.
prognostyki czyli dane niemierzalne -
obserwacje wizualne zjawisk atmosferycznych, w tym optycznych, takich jak: barwa
tarczy wschodzącego lub zachodzącego słońca, rozwój chmur, czy wreszcie
symptomy występujące w świecie roślinnym i zwierzęcym. Prognozy oparte na tych
obserwacjach stanowią najwcześniejszy historycznie sposób przewidywania pogody.
Wprawdzie ich sprawdzalność jest mała i mają zdecydowanie ograniczony horyzont
czasowy, to jednak nie można ich lekceważyć. Nawet doświadczony synoptyk nie
pominie wyrazistego prognostyku w celu uwiarygodnienia swoich przewidywań.
Wiekowe obserwacje, w połączeniu ze współczesną wiedzą meteorologiczną
pozwalają uznać za pomocne w przewidywaniu pogody następujące grupy zjawisk:
Dobra pogoda utrzyma się:
N Gdy wysokie ciśnienie atmosferyczne powoli i systematycznie stale rośnie
(jeżeli po ustaleniu się korzystnej pogody wzrost ten ustaje, to można
domniemywać o krótkotrwałości takiego układu pogodowego).
N Gdy pojawiają się wyraziste dobowe wahania temperatury.
N Gdy po bezchmurnym poranku, około południa, zaczną rozwijać się chmury
kłębiaste i trwać to będzie aż do popołudnia, a zanikać wieczorem.
N Gdy noc jest bezwietrzna, a szybkość wiatru wzrasta w dzień.
Zła pogoda będzie trwać:
N Gdy stosunkowo niskie ciśnienie atmosferyczne nie zmienia się lub powoli
spada.
N Gdy prędkość wiatru pozostaje dość znaczna.
N Gdy niebo pokryte jest chmurami warstwowymi lub warstwowo-
deszczowymi.
(Przy dłuższym utrzymywaniu się złej pogody, żadna z oznak miejscowych nie może
trafnie wskazywać na jej poprawę)
W szczegółach można domniemywać, że:
N Obniżenie się ciśnienia o 2-4 hPa w ciągu 3 godzin oznacza pojawienie się
czołowej części niżu barycznego.
N Tendencja baryczna wskazująca na wzrost ciśnienia o więcej niż 4 hPa w
ciągu trzech godzin oznacza rychłe przejście frontu chłodnego
N Początek zaniku ciągłych opadów deszczu sygnalizuje wyraźny wzrost
prędkości wiatru.
Analiza i prognoza pogody
85
N Wzrostowa tendencja baryczna po pogodzie deszczowej z silnym wiatrem
oznacza nadciąganie wyżu i poprawę pogody
N Gdy wieczorem prędkość wiatru wyraźnie się wzmaga oznacza to
prawdopodobieństwo pogorszenia pogody
N Nadejście frontu ciepłego sygnalizuje zwykle wzrost temperatury powietrza
zimą i nieznaczny spadek latem.
N Szybkie obniżanie się temperatury podczas złej pogody oznacza przejście
frontu chłodnego
N Wskaźnikiem zanikania mgły jest wzrost ciśnienia atmosferycznego.
N Wyższy niż przeciętny wzrost temperatury w porze wieczornej i nocnej
oznacza pogorszenie się pogody.
N Biało-mleczna barwa nieba w ciągu dnia to oznaka nadejścia opadów,
N Czerwieniejące niebo tuż nad horyzontem podczas wschodu Słońca
wskazuje na nadejście opadów i porywistego wiatru.
N Pomarańczowe niebo nad horyzontem podczas zachodu Słońca to
prawdopodobieństwo pogorszenie się pogody.
N Złotawa barwa nieba nad horyzontem po zachodzie Słońca jest symptomem
poprawy lub utrzymania się dobrej pogody.
N Pojawienie się chmur pierzastych, stopniowo gęstniejących jest symptomem
pogorszenia się pogody na skutek nadciągania frontu ciepłego.
N Chmury Altocumulus pojawiające się za Stratocumulusami wskazują na
zbliżanie się frontu chłodnego.
N Poprawę pogody wskazuje pogarszająca się słyszalność dźwięku.
N zPogorszenie się pogody i opady burzowe można przewidywać gdy pojawia
się bardzo dobra słyszalność dźwięków.
N Jeżeli nocne obserwacje wskazują na silne migotanie gwiazd, których
światło jest czerwonawe lub niebieskawe, to jest to oznaka nadciągania
niżu.
N Pojawienie się "otoczki" wokół Księżyca, wskazuje utrzymanie się pogody
wyżowej, a w lecie oznacza to piękną, słoneczną pogodę, zaś zimą silne
mrozy.
N Istnienie równowagi chwiejnej oraz wskazówką na utrzymanie się pięknej
wyżowej pogody jest dym unoszący się pionowo ku górze.
N Równowagę stałą lub obojętną sygnalizuje dym słabo wznoszący się ku
górze, co może jednocześnie wskazywać na wzrost prędkości wiatru i
pogorszenie się pogody.
Analiza i prognoza pogody
86
Tab. 7. Zmiany elementów meteorologicznych podczas przemieszczania się frontów.
Przed frontem
Elementy
meteorologiczne
ciepłym
chłodnym
C
IŚNIENIE
równomiernie
spada spada
W
IATR
wzmaga
się i czasami skręca
w kierunku przeciwnym do
ruchu wskazówek zegara
wzmaga się i lekko skręca kierunku
przeciwnym do ruchu wskazówek
zegara
T
EMPERATURA
spada w strefie
występowania deszczu
nie zmienia się lub nieco wzrasta
Z
ACHMURZENIE
Pojawiają się stopniowo
chmury:
Ci,Cs,As,Ns,St
,
chmury
Ac
lub
As
oraz
Cb
W
IDZIALNOŚĆ
poza
strefą deszczów - dobra zwykle zła
P
OGODA
opad
ciągły (deszcz, śnieg)
czasami mogą występować deszcze lub
burze
Podczas przechodzenia frontu
ciepłego
chłodnego
C
IŚNIENIE
spadek
ustaje
szybko wzrasta
W
IATR
skręca zgodnie z ruchem
wskazówek zegara czasami,
wzmaga się
nagle skręca zgodnie z ruchem
wskazówek zegara - występują często
szkwały
T
EMPERATURA
wzrasta
stopniowo
gwałtownie spada
Z
ACHMURZENIE
występują
Ns
oraz
St
Cb
z chmurami "złej pogody" nisko nad
powierzchnią
W
IDZIALNOŚĆ
słaba - często mgły
umiarkowana, szybko poprawiająca się
P
OGODA
opad
ustaje
często silny deszcz, opady gradu i burze
Po przejściu frontu
ciepłego
chłodnego
C
IŚNIENIE
zmienia
się nieznacznie
wzrasta stopniowo
W
IATR
kierunek nie zmienia się
po przejściu szkwału wiatr lekko skręca
w kierunku przeciwnym do ruchu
wskazówek zegara
T
EMPERATURA
wzrasta
wyraźnie
stopniowo spada; bardzo zmienna w
strefie deszczu
Z
ACHMURZENIE
chmury
St
lub
Sc
chmury
Ac, As
lub
Cu
i
Cb
W
IDZIALNOŚĆ
zazwyczaj
zła, możliwe mgły
bardzo dobra z wyjątkiem strefy
opadów
P
OGODA
silne
zachmurzenie,
występuje mżawka lub słaby
deszcz
silne przelotne opady - typ pogody
zmiennej
X. KLIMAT
Uwagi ogólne
Klimat, w odróżnieniu od pogody, jest długookresową charakterystyką stanów
atmosfery. Charakterystyka taka stanowi informację o przeciętnych zjawiskach
pogodowych typowych i anormalnych na danym obszarze, ustaloną na podstawie
wieloletnich ciągów obserwacyjnych.
Rys. 36. Schemat systemu klimatycznego
Podobnie jak prognoza pogody tak i informacja o właściwościach klimatu na
danym obszarze ma duże znaczenie praktyczne. Prognozy pogodowe pozwalają
dostosować bieżącą aktywność człowieka do istniejącej sytuacji, a w przypadkach
skrajnych zabezpieczyć ludzi przed skutkami zjawisk katastroficznych, pojawiających
się często dość nagle. Z kolei znajomość warunków klimatycznych daje możliwość
zorientowania się w zakresie stopnia ryzyka dla określonych zadań i jest przydatna
do planowania i wyznaczania strategii działań gospodarczych na danym obszarze.
Prognozowanie klimatu, co wydaje się być paradoksem, jest znacznie łatwiejsze niż
Klimat
88
pogody. W dłuższych okresach czasu możliwe są zasadniczo dwa scenariusze
zdarzeń. W pierwszym z nich zjawiska pogodowe krótkokresowe, aczkolwiek
chaotyczne przebiegają tak, iż wszelkie odchylenia mieszczą się w pewnych
granicach i klimat zachowuje stan równowagi dynamicznej. W drugim, chaos
codzienności układa się w ciąg zdarzeń, który posiada określony kierunek – klimat
wykazuje czytelną tendencję ewolucji. Przejrzyste zmiany są łatwe do przewidzenia,
zwłaszcza gdy bierze się pod uwagę długie okresy czasu. Klimatem bowiem sterują
procesy wielkoskalowe o mniejszej dynamice. Obrazowo można stwierdzić tak, iż
łatwiej przewidzieć, że w grudniu podczas najbliższych 20 lat nie pojawią się upały
w naszej strefie klimatycznej, niż to, że w następnym dniu nie będzie padać.
Klimat naszej planety jako całość jest systemem kształtowanym przez
różnorodne sfery i zjawiska (rys. 36). Mają one w większości charakter naturalny,
chociaż ostatnio coraz wyraźniej zaznacza się wpływ czynników sztucznych,
antropogenicznych. W systemie tym centralne miejsce zajmuje oczywiście
atmosfera, a współdziałają z nią przestrzeń kosmiczna, litosfera, hydrosfera,
biosfera i inne. Oddziaływania naturalne pomiędzy sferami systemu dzielą się na
wewnętrzne i zewnętrzne. W pierwszej grupie znajdą się te, które związane są
bezpośrednio z samym systemem. Do drugiej grupy zaliczymy czynniki pochodzące
spoza systemu oraz wszystkie inne wewnątrzsystemowe, które nie wykazują
sprzężeń zwrotnych z nim. Uwarunkowania zewnętrzne wywierają zaburzający
wpływ na procesy wymiany energii i materii w atmosferze, natomiast zmiany
wywołane tymi czynnikami nie wpływają na układ, który je wywołał. Czynniki
zewnętrzne mają w wielu przypadkach wpływ długookresowy (cykl zmian realizuje
się w okresach od dziesięcioleci do milionów lat). Do grupy tej zaliczymy zjawiska:
tektoniczne, astronomiczne, astrofizyczne, geofizyczne oraz sejsmologiczne. Czynniki
naturalne wewnętrzne działają raczej krótkookresowo, to znaczy efekt ich wpływu
odczuwa się w krótszym czasie. Z drugiej jednak strony zmiany wywołane ich
działaniem łatwiej też ustępują. W ten sposób oddzialywuja na klimat: lodowce, lód
morski, lądowa i morska część powierzchni Ziemi, organizmy żyjące w oceanach i na
lądach, etc.
Najważniejszym czynnikiem zewnętrznym systemu klimatycznego jest
promieniowanie słoneczne. Aktywność Słońca decyduje o ilości energii wysyłanej w
przestrzeń kosmiczną i docierającej między innymi do naszej planety. Zmiana
aktywności wpływa wyraźnie na wartość napromieniowania na górnej granicy
atmosfery, czyli stałą słoneczną. Stwierdzono, że średnio co 11 lat zmienia się
regularnie ilość plam na Słońcu, które sygnalizują zjawisko zmiany potencjału
energetycznego. Poza cyklicznością krótkoterminową Słońce wyraziście pulsuje
energetycznie w okresach stuletnich.
Orbita Ziemi wokół Słońca, jak obliczyli astronomowie, zmienia swój kształt w
cyklu 90 tysięcy lat. W takim też rytmie zmienia się sezonowa wartość stałej
słonecznej. Aktualnie, przy bardzo małym mimośrodzie, wahania roczne stałej
Klimat
89
wynoszą około 3.5%. W warunkach maksymalnego mimośrodu różnica ta wzrasta
do 30%. Również nachylenie osi obrotu Ziemi w stosunku do płaszczyzny ekliptyki
zmienia się w zakresie do 2,6
o
w przedziale czasowym około 40 tysięcy lat. Każde
zwiększenie tego kąta prowadzi nieuchronnie do silniejszego występowania
sezonowych różnic pogodowych, pogłębiających się wraz ze wzrostem szerokości
geograficznej. Również prędkość kątowa obrotu Ziemi wokół osi zmienia się, co jest
spowodowane przemieszczeniami mas powierzchniowych w układzie
równoleżnikowym. Przyśpieszenie następuje gdy znaczne masy wody zostaną
przesunięte ku biegunom (efekt obiegu). Opóźnianie ma miejsce w odwrotnej
sytuacji. Każdy przyrost prędkości kątowej wpływa zakłócająco na cyrkulację
południkową, zwiększając ruch równoleżnikowy mas i odwrotnie. Przyśpieszenia i
opóźnienia zmieniają się w przedziale czasowym 60-70 lat. Pewne znaczenie
klimatyczne ma także nutacja osi obrotu Ziemi, powiązana ze zmianą położenia
biegunów. To z kolei ustala poziom wód oceanicznych i wpływa na przebieg
naturalnych prądów morskich o znaczeniu pogodotwórczym. Należy także
wspomnieć o aktywności wulkanicznej skorupy ziemskiej. W miarę gdy ona rośnie,
do atmosfery dostaje się olbrzymia ilość gazów i pyłów, które mogą bardzo długo
pozostawać w powietrzu, skutecznie pochłaniając znaczną część promieniowania
słonecznego i powodując ochłodzenie klimatu. Największe zmiany klimatu dokonują
się jednak pod wpływem przemieszczeń płyt tektonicznych. Przegrupowanie mas
lądów i mórz zmieniało klimat w skali czasowej od milionów do miliarda lat.
Zewnętrzne czynniki klimatyczne działają z wielką siłą, tak że wywoływane przez
nie procesy mają charakter drastyczny i powodują totalną zmianę warunków
siedliskowych. Efektów tych zmian w przeszłości nie dokumentują żadne pomiary
bezpośrednie. Można jedynie je odtworzyć na podstawie dowodów pośrednich
pochodzących ze źródeł paleologicznych, archeologicznych, czy wreszcie
historycznych.
W przeszłości na naszej planecie panowały całkiem odmienne warunki
klimatyczne. Po uformowaniu się skorupy na kształt dzisiejszy, zapanował klimat
różniący się znacznie od współczesnego – przede wszystkim atmosfera była mniej
zróżnicowana termicznie. Temperatury obszarów równikowych były podobne do
aktualnych, natomiast w wyższych szerokościach geograficznych było znacznie
cieplej. Nie występowały czapy lodowe na biegunach. Po tym ciepłym okresie
następowało stopniowe ochłodzenie. W czwartorzędzie doszło do zlodowaceń,
okresy glacjalne przerywane były interglacjałami. Maksymalny zasięg zlodowaceń
wahał się od 56
o
do 40
o
szerokości geograficznej północnej. Epoka lodowcowa
zakończyła się ostatecznie 10 tysięcy lat temu. W okresie 5 – 3 tys. lat przed naszą
erą nastąpiło wielkie optimum postglacjalne, z wyraźną zwyżką temperatur. Już w
czasach historycznych 900-300 lat p.n.e. znów się ochłodziło, a w latach 1000-1200
temperatura wzrosła na tyle, iż zaczęto ten okres nazywać ciepłym średniowieczem.
Tak zwany „mały glacjał” objawił się w latach 1430 – 1850. Także w naszym
Klimat
90
stuleciu notowano przeplatające się okresy ociepleń i ochłodzeń. Ciepłe były
początki wieku, zaś zdecydowanie chłodniejsze trzydziestolecie od lat pięćdziesiątych
do schyłku siedemdziesiątych. Aktualnie jesteśmy w okresie wykazującym dość
wyraźny wzrost temperatur. Wraz ze zmianą czynników termicznych zmieniały się
także inne parametry pogodowe, w tym głównie opady, których było zawsze więcej
w miarę jak klimat się ocieplał.
System klimatyczny można rozpatrywać całościowo w skali planety i tak on
rzeczywiście funkcjonuje. Można też charakteryzować klimat dla wydzielonych
przestrzeni kuli ziemskiej, większych lub mniejszych. Niezależnie od tego co się
dzieje na całej planecie, wybrany fragment jego powierzchni może wykazywać
spowolnione tempo zmian lub nawet odwrotny kierunek ich realizacji. Specyfika
regionalna w zakresie czynników systemu nadaje strefom kuli ziemskiej odrębny
charakter klimatyczny. Autonomia obszarowa klimatu jest oczywiście ograniczona
ramami wyznaczonymi przez globalny system klimatyczny, a skala możliwych
odstępstw zależy od skali odmienności czynników tworzących system.
W zależności od wielkości obszarowej odmienności klimatycznej można mówić o
zjawiskach klimatycznych w makro, mezo i mikroskali. Skala makro obejmuje
największe obszary - fragmenty dużych kontynentów, kraje, regiony. W mezoskali
rysują się odmienności dotyczące np. terenów zurbanizowanych, dużych obszarów
leśnych czy też powierzchni jezior z przyległymi terenami lądowymi. Mikroklimat to
specyficzny układ warunków dotyczący najmniejszych powierzchni, przykładowo
partii stoku, łanów roślin, etc. Specyfika klimatyczna obszaru wyodrębnia się w
zależności od lokalnych uwarunkowań. Do głównych czynników tego rodzaju należą:
położenie obszaru w strefie określonej szerokości geograficznej, wysokość nad
poziomem morza, wzajemne relacje pomiędzy przestrzenią morską i lądową,
konfiguracja terenu, pokrycie terenu roślinnością, etc.
Klimat Polski
Nad obszarem naszego kraju następuje stałe przenikanie właściwości klimatów
morskiego i kontynentalnego. Cecha ta, zwana jest przejściowością, wynika z
bezpośredniego sąsiedztwa z akwenem Bałtyku oraz oddziaływania olbrzymich
obszarów źródłowych mas powietrza kontynentalnego. Do tego dochodzi
ukształtowanie terenu na tym obszarze, gdzie większość łańcuchów górskich
rozciąga się równoleżnikowo. Zwłaszcza pasma Alp i Karpat, usytuowane od
południa, sprawiają, że najbardziej sprzyjające warunki do penetracji tej przestrzeni
maja obiekty atmosferyczne (masy, fronty, układy baryczne), podążające ku nam z
dwóch kierunków, od zachodu i od wschodu. Rzadziej zatem mamy do czynienia z
powietrzem pochodzącym z południa. Polska, leżąc w strefie umiarkowanej, jest
wystawiana głównie na działanie mas powietrza polarnego. Powietrze to dociera do
nas w postaci powietrza morskiego (46% dni w roku znajdujemy się pod wpływem
Klimat
91
tych mas) oraz kontynentalnego (38%). Tak więc cyrkulacja oceaniczna, nadająca
charakter morski naszemu klimatowi, nieznacznie przeważa nad cyrkulacją znad
kontynentalnych obszarów Europy i sąsiedniej Azji. W pozostałe 16% dni roku
znajdujemy się pod wpływem innych wyróżnianych mas powietrznych, oczywiście za
wyjątkiem mas równikowych. Biorąc pod uwagę specyfikę globalnej cyrkulacji
powietrza w strefie pozazwrotnikowej (zachodnia cyrkulacja związana z układami
niżowymi), nad Polskę dociera 75% frontów atmosferycznych i związanych z nimi
układów niżowych, z kierunku zachodniego. Tego typu usytuowanie w sferze
oddziaływań czynników sprawia, iż pogoda w naszym kraju wykazuje duże
zróżnicowanie z dnia na dzień, czy z roku na rok, nadając cechę klimatowi naszego
kraju, nazywaną zmiennością. Z kolei duże wahania natężenia wszelkich czynników
meteorologicznych na małej odległości określane są mianem kontrastowości.
Obszar Polski jest na tyle różnorodny pod względem geograficznym, iż poza
bardzo ogólnymi stwierdzeniami dotyczącymi całości terytorium, należy rozróżniać
klimatyczną specyfikę regionalną. Cechy klimatu kontynentalnego słabną w
kierunku południowo – zachodnim. Daje się to zauważyć w trakcie analizy średnich
temperatur i sum opadów. Obszary, na których dominują tendencje kontynentalne,
charakteryzują się wyższą amplitudą temperatury rocznej i mniej równomiernym
rozkładem opadów, z przeważającą ich ilością w okresie letnim. Na wartość
temperatur rocznych wpływa także wysokość nad poziomem morza i odległość od
Bałtyku. Dane wyraźnie pokazują, iż najchłodniej jest w górach i na wzniesieniach
pojezierzy (zwłaszcza w północno-wschodniej części Pojezierza Mazurskiego).
Występowanie ekstremów termicznych nie zawsze pokrywa się z rozkładem
temperatur średnich dużych obszarów, stąd też najniższą temperaturę zanotowano
10 lutego 1929 roku w Żywcu i wynosiła ona – 40,6
o
C, strefie gdzie średnia nie jest
najniższa. Najcieplej natomiast bywa na nizinach, w centralnej i zachodniej Polsce.
W styczniu, najzimniejszym miesiącu roku, charakterystyczny, południkowy układ
izoterm wskazuje wyraźnie na charakter kontynentalny klimatu, nasilający się w
kierunku wschodnim (średnia temperatura waha się od –1
o
C na zachodzie, do –
4,5
o
C na wschodzie, z maksimum na obszarze suwalszczyzny -5,5
o
C). Z kolei w lipcu
układ izoterm zmienia się na równoleżnikowy (zatem bardziej zależny od
naturalnego rozkładu dopływu energii słonecznej do poszczególnych obszarów). W
tych warunkach obszary północne, a zwłaszcza te, które znajdują się pod wpływem
Bałtyku, charakteryzują się niższymi średnimi (16,5
o
C) od południowych, gdzie
notuje się przeciętnie 18-19
o
C. (maksimum na aktualnie polskich terenach to 40,2
o
C
– Pruszków k.Opola w lipcu 1927 roku).
Wielkość opadów atmosferycznych wynika z wpływu wielkoskalowych procesów
klimatotwórczych, lecz jednocześnie modyfikowana jest oddziaływaniem warunków
lokalnych. Należy do nich położenie obszaru względem poziomu morza. Wraz ze
wzrostem tej wysokości wyraźnie zwiększa się ilość opadów. Daje się przy tym
zauważyć istnienie prawidłowości zwanej gradientem hipsometrycznym. Polega to
Klimat
92
na tendencji wzrostu opadów do pewnej wysokości nad poziom morza. Polskie góry
i wyżyny środkowe nie przekraczają granicy zmiany znaku gradientu, stąd też
najwięcej opadów notujemy w Sudetach (wpływ oceanizmu klimatu), a następnie
Karpatach (powyżej 1200 mm).
W centralnej, nizinnej części Polski, przeciętne opady roczne wahają się w
granicach 450-550 mm. Na północy kraju opadów jest więcej, przy czym obfitsze są
one na pojezierzach Pomorskim i Mazurskim w porównaniu z wybrzeżem Bałtyku,
gdzie występują mniej korzystne warunki do konwekcji, a tym samym powstawania
chmur opadowych. Opady na terytorium Polski zmieniają się z roku na rok.
Pojawiają się one zarówno w szczególnie wysokich ilościach jak też bywają
ekstremalnie skąpe. Tak więc mamy do czynienia z latami o nadmiarze opadów i
okresami susz. Większość tego typu przypadków, jak się wydaje, ma swoje
przyczyny naturalne. Przyczynami suszy w Polsce są cyrkulacje antycyklonalne
(wyżowe), w tym zarówno ze sterowaniem wschodnim jak i zachodnim. Susze
pojawiają się w kolejnych seriach lat z zaznaczoną pewnego rodzaju następczością
występowania w stosunku do okresu, który można uznać za pierwotny,
rozpoczynający odpowiedni cykl miesięcy suchych w skali roku. Nadmierne opady
skoncentrowane są zawsze w cieplej porze roku. Pojawiają się one szczególnie pod
wpływem cyrkulacji cyklonalnej ze sterowaniem południowo-zachodnim. W ciągu
roku opady letnie przewyższają zimowe dwukrotnie w Polsce północno-zachodniej
oraz czterokrotnie na południowym wschodzie. Przewaga któregoś z typów klimatów
(kontynentalnego czy morskiego) skutkuje także w proporcjach między opadami
wiosennymi i letnimi. Na wschodzie Polski więcej opadów notuje się wiosną niż
jesienią, na zachodzie kraju relacja ta kształtuje się odwrotnie.
Klimat Polski podlega przeobrażeniom, które wpisują się w światowe trendy
zmian. Po pierwsze dlatego, iż zmiany w atmosferze toczą się w przestrzeniach
bardzo rozległych. Po drugie, nasza własna działalność wzmacnia procesy dziejące
się w skali globalnej. Dotyczy to głównie zmiany użytkowania gruntów oraz
zanieczyszczenia powietrza. W zakresie użytkowania ziemi, największe znaczenie
mają dwa czynniki: wylesianie oraz stałe zwiększanie obszarów zurbanizowanych.
To pierwsze powoduje wzrost kontrastów termicznych w przyziemnej warstwie
powietrza i spadek ilości pary wodnej w atmosferze. Zjawisko to, przez zmianę
szorstkości podłoża, prowadzi do wzrostu prędkości wiatru a to sprzyja zmniejszeniu
wilgotności powietrza i zwiększeniu parowania wody. W ciągu ostatnich kilkunastu
lat (od 1975 r.) ogólna powierzchnia lasów w kraju uległa wprawdzie nieznacznemu
zwiększeniu (o 1,7%). Jednakże w niektórych byłych województwach
(częstochowskie, jeleniogórskie, kieleckie, krakowskie, legnickie, leszczyńskie,
lubelskie) oraz w przeliczeniu na jednego mieszkańca kraju, powierzchnia obszarów
leśnych uległa zmniejszeniu. Funkcja klimatotwórcza lasów zaznacza się wyraźnie
dopiero w okresie ich pełnego rozwoju, tymczasem cały niewielki przyrost to młode
nasadzenia, zastępujące stare drzewostany. Tak więc pomimo, iż suche statystyki o
Klimat
93
tym nie informują, czynnik stanu zalesienia odgrywa poważną rolę w kształtowaniu,
zwłaszcza lokalnych warunków klimatycznych.
Urbanizacja obszarów sprzyja wzrostowi temperatury (tworzą się tzw. miejskie
wyspy ciepła), zmniejszeniu się amplitudy temperatur, osłabieniu dopływu
promieniowania słonecznego i zmianie systemu opadowego. Zanieczyszczenie
powietrza zakłóca bilans promieniowania słonecznego przez zmniejszenie
przezroczystości atmosfery, zmianę składu chemicznego powietrza i kropel wody
przyczyniającą się do opadów kwaśnych deszczów, wzrost koncentracji ozonu w
troposferze a spadek w stratosferze, dostarczanie do atmosfery dodatkowej ilości
energii cieplnej, co zmienia strukturę termiczną gazowej powłoki Ziemi.
Wszystko to dzieje się na terytorium Polski, przyczyniając się coraz bardziej do
kształtowania warunków środowiskowych. Zgodnie z tendencjami światowymi,
klimat Polski dostaje się coraz bardziej pod wpływ czynników antropogenicznych.
Dzięki temu przeciętna roczna temperatura powietrza w Polsce wzrosła, od końca lat
sześćdziesiątych do początku lat dziewięćdziesiątych, o około 0,5
o
C, a średnia roczna
suma opadów zmniejszyła się w tym czasie o około 70 mm. Emisja dwutlenku węgla
w roku 1996 wynosiła na naszym terytorium około 580 mln ton, a metanu ok. 3,2
mln ton. Podstawowym źródłem dwutlenku węgla jest aktywność ekonomiczna
sektora energetycznego (ok. 57,5%), a następnie rolnictwa i gospodarki komunalnej
(23,5%), przemysłu – 11% i transportu – 8%. Metan, dostający się do atmosfery, w
38% pochodzi z kopalń węgla, 35% – z rolnictwa i hodowli, 13% – z wysypisk
śmieci, 9% – stanowi naturalna emisja z bagien i 5% – z eksploatacji gazu
ziemnego.
Klimat
94
XI. WSPÓŁCZESNE PROBLEMY KLIMATYCZNE
ŚWIATA I ICH ASPEKTY EKONOMICZNO -
PRAWNE
Najważniejsze zjawiska w zakresie ewolucji klimatu Ziemi
Efekt szklarniowy i globalne ocieplenie
Jednym z ważniejszych procesów przyrodniczych, zachodzących współcześnie w
skali globalnej, jest zmiana klimatu. W dziejach ludzkości, na przestrzeni ostatnich
10 tysięcy lat, mieliśmy do czynienia z okresem względnej stabilności pogody.
Względnej, ponieważ w tym czasie podstawowe wskaźniki oscylowały wokół
wartości średnich, przy pojawiających się mniej lub bardziej regularnych, większych
lub mniejszych odchyłkach od stanu przeciętnego. Symptomy dziś obserwowane
wskazują, iż w następnym stuleciu może dojść do znacznych zmian klimatu Ziemi, w
skali nie notowanej od czasu ostatniego zlodowacenia. Będą one tym razem
wywołane czynnikami sztucznymi, antropogenicznymi i pojawią się jako skutek
uboczny rozwoju cywilizacyjnego.
Naturalna zawartość gazów absorbujących promieniowanie długofalowe w
atmosferze Ziemi (głównie dwutlenku węgla, pary wodnej, metanu), czyni ją
cieplejszą o około 33
o
C, zaś dalsze zwiększenie tej ilości prowadzi nieuchronnie do
podniesienia temperatury. Efekt cieplarniany pojawił się w chwili, gdy do powłoki
gazowej naszej planety, zaczął powracać dwutlenek węgla, pochodzący ze spalania
materii organicznej nagromadzonej w roślinności wegetującej na Ziemi przed
milionami lat, a przemienionej w naturalnych procesach w służące nam paliwa
kopalne. Dodatkowym źródłem uwalniania tego gazu jest gleba, z której trafia on do
atmosfery w wyniku intensywnych procesów uprawowych. Z drugiej strony
postępujące spustoszenia (często o charakterze gospodarki rabunkowej), wielkich
obszarów naturalnej absorpcji CO
2
, tzn. głównie lasów tropikalnych spowodowało, iż
zużycie dwutlenku węgla w procesie fotosyntezy proporcjonalnie maleje.
Zmniejszyły się także inne możliwości pochłaniania zwiększającej się ilości tego
gazu. Zasadniczo dzisiejsze zmiany dotyczą więc zachwiania równowagi pomiędzy
tzw "źródłami", tzn. obiektami emisji, a "zbiornikami" czyli procesami neutralizacji
CO
2
, zarówno jedne jak i drugie są jednakowo ważne.
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
96
Znaczenie dwutlenku węgla w zakresie zmian termiki jest dominujące, jednakże
inne niż CO
2
gazy cieplarniane będą wywierały coraz większy wpływ (freony, tlenki
azotu), ponieważ ich stężenie wzrasta szybciej, utrzymują się w atmosferze znacznie
dłużej i wszystkie razem reprezentują większy molekularny potencjał cieplarniany.
Sumaryczny efekt kształtowania zjawiska przez tę grupę gazów szacuje się na 40%.
Wyliczono, iż w porównaniu z erą przedindustrialną, koncentracja głównego gazu
cieplarnianego w atmosferze zwiększyła się obecnie o 25%. Prawie wszystkie
obliczenia teoretyczne sugerują, iż temperatura Ziemi winna podnieść się w tym
czasie o 0,4 do 1
o
C. Tak prawdopodobnie się stało w istocie, na co wskazują
poczynione analizy, jednak zmiany techniki i dokładności pomiarów, każą nam dane
sprzed stulecia interpretować z dużą ostrożnością.
Przewidywania skutków klimatycznych procesów koncentracji gazów
cieplarnianych w atmosferze, jak też efektów wtórnych tyczących gospodarki i życia
w ogóle na naszej planecie, nie są proste. Trudność polega na tym, iż nie do końca
jeszcze poznano procesy klimatotwórcze, z ich szerokim spektrum powiązań i
wzajemnych zależności. Łatwo jest wyliczyć o ile zmieni się średnia temperatura
atmosfery Ziemi pod wpływem wzrostu koncentracji gazów cieplarnianych bez
uwzględnienia sprzężeń zwrotnych. Natomiast nawet najlepsze modele interakcyjne
mają tylko wartość teoretyczną, jeżeli operują na danych globalnych
orgraniczających się do pojedynczego czynnika. Przeciwwagą dla powstawania
efektu szklarniowego są naturalne sprzężenia zwrotne, a najistotniejszym z nich jest
wzrost pojemności powietrza względem pary wodnej - jej powstawaniu bowiem
towarzyszy proces pochłaniania energii. Ta ważna zależność nie ma jednak jeszcze
dziś dokładnego ilościowego przełożenia na skutki w termice atmosfery. Proces
ocieplenia spowodowałby także zmiany w globalnym i lokalnym zachmurzeniu, co
nie pozostałoby bez znaczenia dla omawianych zjawisk. Kolejne sprzężenie zwrotne
to reakcja roślin na zwiększoną koncentrację CO
2
, w postaci wzrostu intensywności
fotosyntezy. I znów zależność nie jest całkiem jednoznaczna, bo dodatkowo
oddziaływają tu czynniki siedliskowe i agrotechniczne. Pozostałe potencjalne
biologiczno - fizyczne wzajemne oddziaływania mogą być wywołane zmianą
temperatury gleby i jej uwilgotnienia, zwiększeniem produktywności węgla
organicznego w morzach i oceanach, zawężeniem stosunku C:N w materii
organicznej, czy zakłóceniem procesu naturalnego magazynowania węgla i metanu
na dużych połaciach tundry.
Pomimo tak wielu niewiadomych co do natury zjawiska panuje zgodność wśród
większości uczonych, iż w następnym stuleciu dojdzie do globalnego ocieplenia.
Spowodowało to intensyfikację prac zarówno nad przewidywaniami zakresu zmian,
mechanizmami i rozległymi efektami w odniesieniu do parametrów klimatycznych,
jak i wskazaniami na zmiany w środowisku bytowania człowieka i jego gospodarce
tak, aby można było przygotować się do rozwiązywania czekających nas problemów.
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
97
Wiele ośrodków naukowych na całym świecie opracowuje i doskonali
matematyczne modele (tzw. GCMs - Global Climat Models), symulacji zmian
klimatycznych pod wpływem czynników naturalnych i sztucznych. Prace
obliczeniowe wykonane w 1990 roku pozwoliły postawić prognozę, według której
ocieplenie klimatu ziemskiego w następnym stuleciu będzie postępowało w tempie
0,2-0,5
o
C na dekadę. Szacunki z 1992 roku, wykonane na bazie rozwiniętego
modelu mówią o wzroście temperatury o 0,7-1,0
o
C do 2030 roku i o 1,5-3,0
o
C do
2100 r. Ważniejszą kwestią niż zmiany globalne, są ich przeniesienia do skali
lokalnej. Otóż wykazano, iż największe ocieplenie wystąpi w strefach
podbiegunowych, kilkakrotnie przewyższające efekt generalny. W średnich
szerokościach geograficznych ocieplenie będzie o 50% większe od przeciętnego.
Wraz ze zmianami temperatury nastąpi zmiana wielkości oraz rozkładu
czasowego i przestrzennego opadów. Obecne wyniki testów przy pomocy modeli
GCM wskazują na to, iż przede wszystkim zwiększy się intensywność opadów,
spowodowana wzrostem głębokiej konwekcji powietrza w niskich i średnich
szerokościach geograficznych oraz wzrostem płytkiej konwekcji rozgrzanego
powietrza w wysokich szerokościach geograficznych. Konwekcja jak wiadomo jest
przyczyną intensywnych opadów burzowych. Jednocześnie dobiegunowo będzie
malała liczba dni z opadem. Oczywiście tego typu prognoza związana z siatką
geograficzną jest mniej przydatna praktycznie, ponieważ opady atmosferyczne silnie
modyfikowane są lokalną zmiennością przestrzeni geograficznej. Przykładowo
dzisiejsze modele GCM nie są w stanie przewidzieć rozwoju cyklonów. Zwiększona
konwekcja zmieni obraz powłoki chmur, mniej będzie chmur warstwowych, więcej
kłębiastych. Stratyfikacja globalna chmur pogłębi się, bardziej zwarta powłoka
wystąpi w strefach od zwrotników ku biegunom, rzadsza zaś w okolicach
równikowych. Doprowadzi to do zmian w zakresie radiacji słonecznej, odgrywającej
kluczową rolę w asymilacji roślin. Pojawi się z pewnością wiele dalszych zmian w
środowisku, wywołanych wzrostem zawartości gazów cieplarnianych w atmosferze,
niestety współczesne, zgeneralizowane modele nie są w stanie poprawnie ich
estymować. Stąd próby oceny na modelach bardziej szczegółowych abstrahujących
od efektu globalnego.
Analiza problemu nasuwa wiele pytań w tym między innymi takie, czy tendencje
globalne zyskują potwierdzenie w obserwacjach lokalnych, krajowych, a nawet
regionalnych. Na podstawie obliczeń wykonanych w Katedrze Meteorologii i
Klimatologii UW-M w Olsztynie, dotyczących czterdziestolecia 1951-1990 i okolic
Olsztyna, stwierdzono występowanie niewielkich tendencji spadkowych temperatur
średnich w miesiącach letnich, od czerwca do września ( np. w czerwcu spadek ten
wynosił średnio 0,0396
o
C w ciągu roku). W pozostałych miesiącach zaznaczył się
natomiast trend ku ociepleniu (do 0,0622
o
C/rok w maju). W badanym 40 - leciu
zaobserwowano wzrost opadów atmosferycznych w większości miesięcy
(maksymalnie do 0,0431 mm/rok). Przy tym stwierdzono obniżenie ilości opadów w
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
98
miesiącach zimowych i wiosennych (spadek w lutym i kwietniu wystąpił w skali od
0,0124 do 0,0364 mm/rok).
Analiza zmian wilgotności względnej wykazała generalnie we wszystkich
miesiącach tendencje wzrostowe, które były istotne na poziomie 0,05 w okresie
zimowym (listopad - styczeń), późnej wiosny (maj - czerwiec) i w lipcu. W czerwcu
wartość wilgotności względnej wzrastała corocznie przeciętnie o 0,0859%. Istotny
spadek tego czynnika zaznaczył się jedynie w lutym (0,0432 %/rok). Uzyskane
wartości w skali setnych i tysięcznych ułamka należy traktować jako praktycznie
istotne, dotyczy to bowiem zmian w skali rocznej oraz odnosi się do parametrów,
dających znaczny efekt środowiskowy. Podobne wyniki uzyskano dla Wyżyny
Lubelskiej. Stwierdzono więc jakby zgodność z obserwacjami i prognozami ogólnymi,
chociaż jak zwykle w takich przypadkach należy pamiętać o tym, iż nawet w
układach uważanych za stabilne obserwuje się również fluktuacje okresowe w
przedziałach 20. czy 40. letnich, a nawet dłuższych. Istnieje zatem duże
prawdopodobieństwo sprawdzenia się prognoz zmian klimatycznych wywołanych nie
dającym się skutecznie ograniczyć wzrostem koncentracji gazów cieplarnianych. W
tej sytuacji pozostaje jedynie starać się minimalizować skalę zmian i właściwie
przysposobić się do życia w nowej sytuacji.
Podstawowe skutki przyrodnicze, które przyniesie za sobą globalne ocieplenie, są
stosunkowo łatwe do przewidzenia, natomiast w szczegółach snuje się dziś wiele
często sprzecznych przypuszczeń z uwagi na wzajemne, skomplikowane powiązania
pomiędzy procesami.
Najbardziej spektakularnym bezpośrednim efektem ocieplenia byłoby zapewne
podniesienie się poziomu mórz i oceanów. Z jednej strony, na skutek termicznej
ekspansji wody (rozszerzalność), z drugiej z powodu kurczenia się lądolodów i
topnienia lodowców górskich. W sytuacji spełnienia się najbardziej "czarnego"
scenariusza możliwe byłoby podniesienie poziomu morza aż o 60 cm do 2100 roku
Zniknęłoby wtedy z map wiele wysp i terenów przybrzeżnych. Paradoksalnie,
większe opady mogłyby przyczynić się też do zmniejszenia zasobów wody pitnej,
ponieważ będą one rozmieszczone przestrzennie bardziej nierównomiernie,
powodując przy tym w jednych regionach katastrofalne susze w innych żywiołowe
powodzie. Ponadto najprawdopodobniej pogłębi się zjawisko intruzji wody słonej do
zasobów wód słodkich.
Rolnictwo będzie tą dziedziną gospodarki, która skutki zmian klimatu odczuje
najmocniej. To co może się w tym względzie wydarzyć częściowo już dziś można
wskazać. Należy jednak przyjąć założenie, że każdy organizm żywy, roślinny czy
zwierzęcy z uwagi na swą odrębność gatunkową, może zareagować swoiście.
Ponadto, całkiem odmiennie mogą odreagować zmiany zbiorowiska roślinności
naturalnej w porównaniu ze sztucznymi (np naturalne trwałe użytki zielone, lasy, w
porównaniu do łanów roślin uprawnych).
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
99
Polska i inne kraje leżące w części wschodniej Europy znajdują się na etapie
reformowania nieefektywnej w przeszłości gospodarki. Przestarzałe środki i metody
produkcji powodują, iż stanowią one czołówkę państw emitujących znaczne ilości
gazów cieplarnianych, stąd skutki klimatyczne mogą być znaczące (szacunki mówią
o możliwości podniesienia temperatury średniej o ok. 3,5
o
C zaś temperatury
stycznia nawet o 5
o
C). Powyższe zmiany klimatu będą oddziaływały na produkcję
rolną z jednej strony dodatnio, z innej zaś ujemnie. Najbardziej zasadniczą zmianą
jaka może nastąpić będzie wydłużenie okresu wegetacyjnego o 50 - 70 dni. Dłuższy
okres wegetacyjny, wyższa temperatura i zwiększona koncentracja dwutlenku węgla
najsilniej będą wpływać na produkcję roślin pastewnych, która może wzrosnąć
nawet trzykrotnie. Jednostkowe wydajności zbóż mogą zwiększyć się natomiast
dwukrotnie. Dostatek pasz oraz dłuższy okres wypasu sprzyjać będzie także hodowli
zwierząt gospodarczych. Sprawdzenie się wyżej nakreślonych scenariuszy zmian
klimatycznych zwiększyłoby, zwłaszcza w północnej części naszego regionu,
możliwości uprawy tak cennych gatunków jak kukurydza i soja. W każdym kraju tej
części Europy z całą pewnością poszerzyłby się asortyment gatunkowy i odmianowy
upraw polowych oraz warzywnych. Optymizm powyższych przewidywań należy
jednak nieco ochłodzić rozważaniami nad skutkami ubocznymi. Na przykład, wysokie
temperatury mogą zakłócić przebieg faz rozwojowych roślin klimatu
umiarkowanego. Poza tym hydrolodzy przewidują, że ewapotranspiracja w tych
warunkach może zwiększyć się o 30%, a jednocześnie odpływ wód aż o 50-100%.
Spowoduje to zmniejszenie zmagazynowanej wody w glebie, a nawalne deszcze i
spływy wzmogą erozję.
Najbardziej należy się jednak obawiać inwazyjności chorób i szkodników. W
naszych warunkach naturalnym czynnikiem regulacji populacji patogenów są
ekstremalne warunki zimowania. Ocieplenie tego okresu spowoduje, że uprawy
będą atakowane ze zwiększoną intensywnością. Nie wiadomo czy potrafimy się
przed tym obronić, jednocześnie dbając o jakość środowiska i ograniczając zużycie
pestycydów.
Jeżeli temperatura będzie nadal wzrastać i osiągnie prognozowany poziom,
spowoduje to zmiany w składzie gatunkowym lasów. Eliminowane będą gatunki
iglaste na rzecz liściastych. Ta, per saldo, korzystna zmiana to tylko jeden z
aspektów zagadnienia. Wskutek zmniejszenia dostępności wody ograniczony
zostanie przyrost masy drzewnej. Wielkie zagrożenie spowodują spodziewane
pożary drzewostanu. O skali problemu mogliśmy się przekonać, obserwując wielkie
pożary w Australii, na zachodnim wybrzeżu USA, czy w 1998 roku w Indonezji.
Średni poziom wód Bałtyku, który nieustannie wzrasta, może podnieść się do
tego stopnia, iż pochłonie znaczną część obszaru państw mających do niego dostęp.
Zasadniczo linia brzegowa Bałtyku południowego sąsiaduje z obszarami rolniczymi,
które w ten sposób mogą zniknąć z mapy. Do tego należy dodać negatywne skutki
zasolenia ujściowych odcinków rzek oraz przybrzeżnych jezior. W naszym kraju
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
100
zagrożenia z tego tytułu oraz wynikłe z wpływów na inne dziedziny gospodarki,
dotyczą strefy zamieszkałej przez 700 tys. mieszkańców. Same tylko koszty ochrony
wybrzeża szacuje się na 7 mld dolarów (1992). Jednocześnie kwota ta jawi się
zupełnie inaczej w kontekście stwierdzenia, że koszt likwidacji negatywnych skutków
zmian klimatycznych, gdyby takiej ochrony zaniechać, wyniósłby 70 mld USD.
Przedstawione powyżej perspektywy zmian klimatu i spodziewane skutki w
rolnictwie wskazują na powagę problemu. Nie poruszano przy tym implikacji w
pozostałych dziedzinach gospodarki, w życiu społecznym, politycznym i innych. Ten
ostatni aspekt jest bardzo ważny bo oznacza dalsze pogłębienie różnic pomiędzy
krajami bogatymi a rozwijającymi się. Wielu analityków wskazuje na groźbę napięć
społecznych w dużej skali.
W dzisiejszych czasach przeważa logika ekonomicznego myślenia. Decydenci
wyznaczają cele, zaś ekonomiści rozważają najbardziej efektywne finansowo
działania. Wiadomo, ponad wszelką wątpliwość, iż koszty utrzymania emisji gazów
cieplarnianych na dzisiejszym poziomie, byłyby większe niż korzyści gospodarcze z
tego wynikające. Jednocześnie problem o znaczeniu globalnym można rozwiązać
tylko wspólnym wysiłkiem wszystkich krajów. Jak jednak dojść do porozumienia w
tej kwestii gdy w jednych państwach zagrożenie zmianami klimatu dotyczy sfery
gospodarczej wytwarzającej 1 - 3% GDP (produktu krajowego brutto), a w innych
kilkadziesiąt procent. Ograniczając emisję gazów cieplarnianych, należy dokonać
dużych nakładów finansowych. Przy tym redukcja o 10 – 20% jest stosunkowo
tania. Chcąc wyeliminować czynniki wywołujące efekt cieplarniany w skali powyżej
20%, należy się liczyć z gwałtownym wzrostem kosztów. Ograniczenie globalnego
ocieplenia charakteryzuje się stale wzrastającymi kosztami granicznymi
podejmowanych przedsięwzięć.
Jednocząc się i reformując swoje gospodarki, unowocześniając rolnictwo,
poszczególne kraje muszą brać także i uwarunkowania klimatyczne, które jeszcze
dziś stanowią niekiedy enigmatyczne przewidywania, gdy tymczasem jutro mogą
stać się autentycznymi wyzwaniami.
Problem zaniku warstwy ozonowej
Chemia powietrza jest analizowana stosunkowo od niedawna, a w szczególności,
dopiero od lat sześćdziesiątych zaznacza się zainteresowanie wyższymi warstwami
atmosfery. Obserwacje poczynione w tym zakresie pozwoliły na wyjaśnienie wielu
zjawisk związanych ze zmianą ilości niektórych z nich. Stosunkowo wcześnie dało się
zauważyć, iż bardzo dynamiczny i ważny gaz atmosferyczny jakim jest ozon,
wykazuje tendencje do zaniku w niektórych obszarach górnej stratosfery. Naukowcy
z Instytutu Badań Wody i Atmosfery (NIWA) w Nowej Zelandii podają, że każdego
roku od października do grudnia notuje się znaczącą redukcję warstwy ozonowej.
Ubytek ozonu w płaszczu stratosfery nad mroźnym kontynentem, badacze szacują
na 25 mln km kw. - co wykazały dane satelitarne z NASA. Dziura ozonowa jest
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
101
większa niż cały kontynent europejski. Od 5 lat bije wszelkie dotychczasowe
rekordy. Warstwa ozonu jest obecnie najcieńsza od czasu rozpoczęcia obserwacji i
pomiarów, tj. od ponad 36 lat.
Wśród wielu hipotez dotyczących przyczyn tego zjawiska, jako najbardziej
przekonywująca wydaje się być ta, która wskazuje na czynniki antropogeniczne.
Istnieją dowody statystyczne i laboratoryjne potwierdzające słuszność takich
przypuszczeń. Najwyraźniejszy zanik ozonu zaobserwowano w stratosferze
rozciągającej się nad Antarktydą. Warunki solarne terenów podbiegunowych
wprawdzie nie sprzyjają intensywnemu procesowi powstawania tego gazu, lecz
jednocześnie na obszarach tych nie występują przemysłowe źródła zanieczyszczeń
powietrza. Biorąc jednak pod uwagę zasady cyrkulacji powietrza można się
spodziewać, iż czynnik lokalizacji nie stanowi przeszkody do migracji jakichkolwiek
substancji w atmosferze ziemskiej.
Dziś powszechnie wiadomo, że do powstawania „dziur ozonowych” przyczyniają
się chlorowcopochodne węglowodorów (freony), związki boru, halony, czterochlorek
węgla i tlenki azotu. Odkrycie przyczyn zachwiania równowagi dynamicznej
powstawania i rozkładu ozonu pozwoliło na wyjaśnienie, iż substancje chemiczne
szczególnie efektywnie działają w warunkach skrajnie niskiej temperatury
Ozon w atmosferze można traktować jako gaz cieplarniany, jego znacząca
obecność w środkowej stratosferze przyczynia się wyraźnie do wzrostu jej
temperatury. W tym jednak przypadku wahania zawartości gazu są niepokojące z
powodu czysto biologicznego. Zanik ozonu oznacza bowiem zwiększoną penetrację
szkodliwego, ultrafioletowego (poniżej 0,3 mikrona) pasma promieniowania
słonecznego do powierzchni Ziemi. W zależności od skali zjawiska początkowo
efekty tego są mało widoczne. Dalsze jednak pogłębienie spadku ilości ozonu może
powodować uszkodzenia skóry, wzroku, zwiększenie liczby mutacji, uszkodzenia
niektórych roślin uprawnych, mikroorganizmów i planktonu morskiego. Każde z tych
zjawisk stanowi poważne zagrożenie dla życia na planecie. Należy jednak zwrócić
uwagę, iż ostatni z wymienionych skutków może wywołać implikacje klimatyczne.
Wiadomo bowiem, iż najpoważniejszym czynnikiem pochłaniającym dostający się do
atmosfery naturalny i sztuczny dwutlenek węgla są olbrzymie zasoby organizmów
morskich. W obliczu powyższego, pozytywnym jest to że, biologiczne skutki
zmniejszania się zawartości ozonu w atmosferze nie mają jeszcze potwierdzenia
statystycznego.
W przypadku problemu dziury ozonowej działania zaradcze podjęte przez
czynniki decyzyjne wielu krajów pojawiły się bardzo wcześnie i w dość szerokiej
skali. Zagadnienie to nie stwarza poważniejszych problemów natury politycznej.
Należy podkreślić dużą rolę środków masowego przekazu, które we właściwy sobie
sposób, nadały zagadnieniu szczególny rozgłos. W tym zakresie najskuteczniej
zadziałały kraje wysoko uprzemysłowione. Przykładowo ustawodawstwo Republiki
Federalnej Niemiec jest bardzo rygorystyczne w zakresie ograniczania emisji gazów
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
102
powodujących destrukcję ozonu i tradycyjnie w Niemczech, stosowane z dużą
konsekwencją.
Zjawisko El Niño
W ostatnich latach wzrosło zainteresowanie zjawiskiem, które początkowo znane
było jako lokalna anomalia pogodowa, a następnie stało się głośne na całym
świecie.
W niektórych latach, zwykle w czasie poprzedzającym Boże Narodzenie, rybacy
peruwiańscy stwierdzali, iż wody przybrzeżne stają się zdecydowanie cieplejsze,
a łowiska wyraźnie ubożeją. Z uwagi na skojarzenie z porą roku, nadano tej anomalii
nazwę El Niño (dzieciątko - w domyśle Jezus). Zaczynał się trudny czas, gdyż
mniejsze połowy oznaczały po prostu biedę, a na domiar złego pogoda stawała się
mniej sprzyjająca, wielokroć nieprzewidywalna, wręcz groźna.
Z czasem meteorolodzy zaczęli badać zjawisko i okazało się, iż dzieje się tak z
powodu słabnięcia zachodnich prądów morskich w rejonie międzyzwrotnikowym.
Ciepłe wody Pacyfiku zaczynają się cofać ku wybrzeżom Ameryki Środkowej. Brak
odpływu oceanicznych wód powierzchniowych wstrzymuje proces upwellingu, czyli
dopływu na powierzchnię chłodnych, a jednocześnie bogatych w składniki odżywcze,
wód głębinowych. Ciepłe wody stają się przyczyną nadmiernych opadów, powodując
często powodzie. Pozbawione niezbędnych składników, flora i fauna wybrzeży
obumiera bądź zmienia miejsce zasiedlenia.
Występujący w zachodnich rejonach środkowej Ameryki, chłodny prąd morski
(prąd peruwiański, zwany prądem Humbolta lub lokalnie, dla kontrastu La Niñia –
dziewczynka), powoduje, iż wilgotne powietrze atmosferyczne napływające zwykle
znad Pacyfiku traci parę, tworzą się chmury warstwowe i pojawiają opady. Nad
kontynent przesuwają się już tylko suche masy. Stąd na wybrzeżach regionu
zlokalizowane są enklawy miejsc o najniższych opadach na świecie. Odwrotna
sytuacja występuje w czasie El Niño, ciepłe wody wybrzeży sprzyjają konwekcji i
tworzeniu rozbudowanych chmur kłębiastych, które przesuwając się nad ląd
powodują anomalie w postaci bardzo intensywnych opadów, wywołujących niekiedy
groźne powodzie. Gdy w Ameryce Środkowej występuje El Niño to jednocześnie po
drugiej stronie Pacyfiku w Australii, Indonezji, Filipinach, etc. pojawiają się
dokuczliwe susze. Stwierdza się jednocześnie, że w przypadku El Niño, osłabia się
aktywność tropikalnych huraganów w środkowej strefie Atlantyku - nie wyklucza się
też reperkusji pogodowych odczuwanych również i w Europie. Zatem zjawisko to
oznacza dość poważne zachwianie światowego systemu pogodowego z poważnymi
reperkusjami gospodarczymi.
El Niño ma charakter quasi cykliczny. Pojawia się co 3 do 8 lat. Klimatolodzy
tłumaczą fenomen tego typu wewnętrznymi procesami zachodzącymi pomiędzy
atmosferą a powierzchnią oceanów, na zasadzie sprzężeń zwrotnych.
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
103
Polityczne implikacje zmian klimatu Ziemi
Atmosfera otaczająca naszą planetę stanowi absolutną całość, żadna z części
świata nie dysponuje wyodrębnionym obszarem, czy jej objętością. Powietrze,
pozostając w nieustannym ruchu przepływa nad różnymi kontynentami przenosząc z
miejsca na miejsce cechy nabyte, powodowane czynnikami naturalnymi czy też
sztucznymi. Z tej też przyczyny wszystko co dzieje się w atmosferze pozostaje
sprawą wspólną całej ludzkości. Problem w tym, iż nie wszyscy w równym stopniu
wpływają na proces ewolucji klimatu, nie wszyscy też w równym stopniu są w stanie
podjąć efektywne działania przeciwstawiające się negatywnym skutkom zmian
klimatu. Tak więc potrzebna jest współpraca międzynarodowa, którą można
zainicjować jedynie na forum politycznym.
Siła opiniotwórcza środowisk naukowych sprawiła, że najwcześniej zainteresowali
się sprawą politycy krajów najbardziej rozwiniętych. Pierwsze działania podjęto
jeszcze w latach siedemdziesiątych w obliczu problemu jaki wówczas stanowiła
„niską” emisja dwutlenku siarki do atmosfery. Gaz ten powodował efekt kwaśnych
deszczów zagrażających naturalnemu środowisku, bardzo często poza miejscem
gdzie trafiał do atmosfery. Przewaga zachodniej cyrkulacji powietrza w Europie
sprawiała, że ofiarą rozwoju przemysłu na Zachodzie stały się głównie lasy Europy
Wschodniej i Centralnej. W tym momencie ujawniły się też trudności jakie napotyka
próba uzgodnień wspólnej strategii przeciwdziałania. Pierwsza konferencja na ten
temat, która odbyła się w 1972 roku, nie przyniosła konkretnych uzgodnień, pomimo
dobrej woli wszystkich jej uczestników, w zakresie konieczności podjęcia kroków w
celu przeciwstawienia się temu szkodliwemu zjawisku.
W latach osiemdziesiątych dostrzeżono zagrożenie wynikające z powodu
stopniowego zaniku warstwy ozonowej. Problem ten zrazu widziany był jako bardzo
poważny, wymagający niemal natychmiastowego współdziałania wszystkich państw
świata. Uwieńczeniem pierwszej fazy starań o ograniczenie emisji destruktorów
warstwy ozonu stratosferycznego było podpisanie protokołu uzgodnień w Montrealu.
Konferencja w Kanadzie w roku 1987 stała się w tym momencie pewnym wzorem
wyznaczającym strategię przyszłych negocjacji międzypaństwowych, ale tylko
negocjacji. Okazało się bowiem wkrótce, że wielu z sygnatariuszy protokołu nie ma
możliwości, a czasem nawet woli politycznej, aby zastosować się do wspólnie
podjętych postanowień. Wyraźnie zarysował się bowiem podział pomiędzy biednymi
państwami Południa, a bogatymi Północy. Argumentem pierwszych,
usprawiedliwiających ich małe zaangażowanie w tym kierunku, był problem braku
środków finansowych oraz przekonanie, że to głównie bogaci najbardziej
zanieczyszczają atmosferę planety. Z kolei czynniki polityczne państw wysoko
uprzemysłowionych są przekonane, iż żadne z działań na rzecz ochrony klimatu nie
będzie efektywne bez zaangażowania całej społeczności świata. Poza tym wskazuje
się na fakt, iż wprawdzie najwyższa emisja gazów wynika z przemysłowej
działalności państw Północy, to jednak pod względem wskaźników przeliczeniowych
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
104
są to kraje o najniższej emisyjności. Oto bowiem zarówno na jednostkę produktu
krajowego brutto, jak i
per capita, emisja przemysłowa w tych krajach jest
kilkakrotnie niższa. Spór obydwu stron na argumenty rozgorzał na nowo, kiedy
trzeba było podjąć problematykę ograniczenia emisji dwutlenku węgla grożącej
globalnym ociepleniem.
Rys. 37. Relatywny stosunek zużycia energii do wartości jednostki produktu narodowego
brutto w niektórych państwach świata – USA = 1.
Już rok później w Kanadzie, tym razem w Toronto, zwołano konferencję,
na której podjęto pierwsze kroki przygotowawcze mające doprowadzić do
globalnych rozstrzygnięć w tej dziedzinie. Następnie próbowano działań również na
forum ONZ, jednak pomimo deklaracji woli nie udało się osiągnąć konkretnych
porozumień. Wydawało się, iż najlepszym sposobem na wyjście z impasu będzie
przeniesienie dyskusji na najwyższy szczebel polityczny. Tak też się stało,
orędownicy idei ochrony klimatu, doprowadzili do zorganizowania najpoważniejszej
konferencji, tak ze względu na liczbę jak i rangę jej uczestników (szefowie rządów,
głowy państw), która odbyła się w czerwcu 1992 w Rio de Janeiro. Nazwano ją
Szczytem Ekologicznym Ziemi lub krótko Szczytem Ziemi (Earth Summit). Na
konferencji negocjowano szereg dokumentów dotyczących rozwiązania problemów
ekologicznych świata. Oprócz Karty Ziemi i Agendy 21, tyczących zrównoważonego
rozwoju i zachowania naturalnych zasobów planety, negocjowano też Ramową
Konwencję Klimatyczną. W zakresie ochrony klimatu zgodzono się jedynie co do
0.4
0.6
1
1
1.5
4.3
6.6
4.1
2.1
0
1
2
3
4
5
6
7
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
105
ustabilizowania, nie zaś ograniczenia, poziomu emisji CO
2
do roku 2000,
uruchomienia mechanizmów śledzenia poziomu tego gazu w troposferze,
transformacji gospodarek na mniej energochłonne, zwiększenia pochłaniania
dwutlenku węgla przez tzw. „zbiorniki” – glebę, wody, lasy i użytki zielone.
Dokumenty te zostały ostatecznie podpisane przez przedstawicieli 153 państw, co
jednak i tym razem nie oznaczało natychmiastowego wdrożenia zawartych tam
postanowień. W kontekście tej sprawy zarysowały się także różnice poglądów
pomiędzy Europą, zwłaszcza UE, a Stanami Zjednoczonymi.
Europa zarzuca Ameryce, iż jest największym konsumentem energii i
konsumentem gazów cieplarnianych (GHC – Greenhouse Gases). Argumenty
przedstawicieli naszego kontynentu wywodzą się z silnych opcji proekologicznych,
które jednak w dużej mierze zabarwione są ideologicznie, inaczej mówiąc są oni
przeciw, nie wskazując jednak innych, alternatywnych rozwiązań. Z kolei, w USA
normy ograniczenia zanieczyszczeń powietrza są wyższe niż w Europie, zaś
najbardziej zagrożone ekologicznie obszary znajdują się pod szczególną ochroną.
Jako naukowe ciało doradcze rządów-stron Konwencji w Sprawie Zmiany Klimatu z
Rio de Janeiro wiodącą rolę odgrywa utworzony w 1988 roku Międzynarodowy
Panel ds. Zmian Klimatu (International Panel for Climatic Changes - IPCC). Od 1990
roku opublikował on trzy raporty, w których winą za ogrzewanie klimatu obciążono
naszą cywilizację. Oświadczono przy tym, że jest to zgodna opinia środowiska
naukowego. Stwierdzenie takie jest jednak przesadne, gdyż oceny i wnioski IPCC, a
także sama metoda pracy tego ciała, spotkały się z krytyką. Po Szczycie Ziemi
odbyło się kilka kolejnych konferencji klimatycznych. Ostatnia z nich miła miejsce w
Japonii i była w dużej mierze wspierana autorytetem vice prezydenta USA Al Gore’a.
Miejscem spotkania było Kyoto3. Konferencja zakończyła się w grudniu 1997 roku
3
GŁÓWNE POSTANOWIENIA PROTOKOŁU Z KYOTO:
Redukcja: Trzydzieści osiem uprzemysłowionych państw jest zgodnych w zakresie redukcji emisji gazów
cieplarnianych do poziomu z roku 1990, w przedziale lat 2008-2012. Unia Europejska deklaruje przy tym redukcję o
8%, Stany Zjednoczone o 8% i Japonia o 6%. Niektóre z pozostałych krajów zadeklarowały mniejszą skale obniżki
emisji, inne natomiast nie są gotowe do podjęcia stosownych działań w chwili obecnej. Jako grupa, państwa te
obniżą aktualną emisję średnio o ponad 5%.
Gazy podlegające redukcji: Do grupy gazów, których emisja będzie ograniczana zaliczono dwutlenek węgla,
metan, podtlenek azotu oraz trzy halowęglany używane jako substytuty chloro-fluorowęglanów, niszczących
warstwę ozonową.
Redukcja na drodze wymiany: Kraje, które nie osiągną założonych celów redukcyjnych mogą wchodzić w
układy z osiągającymi „nadwyżki” w zakresie obniżania emisji na zasadzie wykupu „kwot pozwoleń”. Dzięki temu
proces realizacji postanowień protokołu może zyskać ekonomiczny impuls motywacyjny.
Wprowadzanie w życie postanowień: Kolejno następujące po sobie przyszłe spotkania państw sygnatariuszy
ustalą sposoby „właściwego i efektywnego” postępowania w zakresie nacisku na tych którzy nie będą wywiązywać
się z podjętych zobowiązań.
Trzeci świat: Kraje rozwijające się, włączając w to głównych emitentów gazów cieplarnianych takich jak
Chiny i Indie, będą zachęcane do podejmowania własnych dobrowolnych zobowiązań redukcyjnych.
Przyszłość procesu: Porozumienia zawarte na konferencji w Kyoto wchodzą w życie z chwilą zatwierdzenia
przez parlamenty 55 krajów, reprezentujących minimum 55% emisji dwutlenku węgla do atmosfery. Protokół staje
się obowiązującym prawem w danym państwie gdy zaaprobuje go parlament.
S Protokół podpisany w Kyoto jest pierwszym krokiem ku rozwiązaniu istotnego problemu ludzkości, od którego
nie ma możliwości odstąpienia. Porozumienie musi służyć jako punkt zwrotny w rozwiązywaniu zagadnienia
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
106
po dziesięciu dniach burzliwych obrad. Uczestniczyli w niej przedstawiciele rządów
wszystkich krajów świata. Celem jej było podjęcie wiążących decyzji dotyczących
ograniczenia antropogenicznych emisji 6 gazów cieplarnianych (m.in. dwutlenku
węgla, metanu i podtlenku azotu) do atmosfery. Po konferencji tej oczekiwano
konkretnych ustaleń, które jednak osiągnięto jedynie połowicznie, bo wbrew
naciskom, państwa rozwijające się nadal nie wrażały zgody na redukcje. Ich
potencjał ekonomiczny dopiero się wykształca, więc w większości nie są
zainteresowane ograniczaniem go przez rozwiązania narzucone z zewnątrz.
Przedstawiciele USA, państwa stojącego na czele światowej listy emiterów CO
2
(25%
w 1990 roku), utrzymywali pryncypialne stanowisko zgody na proponowane warunki
tylko w przypadku, gdy uczynią to również wszystkie państwa sygnatariusze
Ramowej Konwencji Klimatycznej, w tym Chiny i Indie, których emisje będą w
najbliższym czasie szybko rosły. W trakcie obrad pojawiło się rozwiązanie dotyczące
Japonii, USA, Kanady i Rosji. W wyniku zawartej umowy te trzy pierwsze państwa
mogłyby "kupować" nie wykorzystane limity emisji gazów cieplarnianych od Rosji,
która z powodu załamania gospodarki w wyniku upadku komunizmu, wyrzuca
obecnie do atmosfery o 30% mniej CO
2
niż w 1990 roku. Umowa ta, rozszerzona
potem na wszystkie państwa uprzemysłowione, sprawiła, że ogólny wynik spotkania
w Kyoto przyniósł wymierne rezultaty. Klauzulę tę obwarowano zastrzeżeniem, że
taka wymiana może być przeprowadzona tylko między państwami rozwiniętymi i
można ją zastosować tylko wtedy, gdy wiąże się to z finansowaniem przedsięwzięć
prowadzących do obniżenia emisji CO
2
w państwie, które "sprzedaje" swoje limity.
Delegacja Polski, na czele z ministrem Ochrony Środowiska, Zasobów Naturalnych i
Leśnictwa, zgodziła się w Kyoto na 6-procentową redukcję zaleconą dla naszej grupy
państw.
Polska gospodarka i regulacje prawne w kontekście ochrony klimatu
Według raportu Państwowej Inspekcji Ochrony Środowiska "Stan środowiska
w Polsce", lata 90. przyniosły znaczne ograniczenie emisji zanieczyszczeń wielu
szkodliwych substancji, a gospodarka rozwija się przy bardziej efektywnym
wykorzystywaniu energii i surowców. Jest to wynikiem egzekucji prawa dotyczącego
środowiska oraz stworzenia mechanizmów finansowania jego ochrony (zwłaszcza
inwestycji tzw. "końca rury" - do takich należą między innymi: budowa oczyszczalni
ochrony środowiska, ale wymagany jest jeszcze większy wysiłek w celu odwrócenia niekorzystnych zaszłości w
zakresie zmian klimatu.
S Kraje rozwinięte winny jak najszybciej wykonać postanowienia protokółu tak aby można było określić kwoty
obrotu pozwoleniami emisji.
S Grupy reprezentujące stronnictwa związane z ochroną środowiska na całym świecie muszą wskazywać, iż
porozumienie z Kyoto zawiera sygnały ostrzegające grupy przemysłu i biznesu, iż muszą one zainicjować
działania uwalniające ich od uzależnienia od węgla i ropy naftowej.
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
107
ścieków czy filtrów na kominie) wraz z równoczesnym wprowadzaniem
mechanizmów rynkowych do gospodarki. Mimo tego pozytywnego obrazu, poprawa
stanu środowiska następuje bardzo powoli i istnieje jeszcze wiele zaległości w
eliminacji groźnych źródeł zanieczyszczeń. Jednocześnie rozwojowi gospodarczemu
towarzyszą nowe zagrożenia płynące z masowej motoryzacji, intensyfikacji rolnictwa
czy szybko wzrastającej produkcji towarów jednorazowego użytku i opakowań,
powodujących wzrost problemów z odpadami komunalnymi.
Rys.38. Redukcja emisji dwutlenku węgla oraz zmiany w zużyciu substancji zubożających
warstwę ozonową w Polsce w latach 1988 – 1994.
W rezultacie tych zjawisk tempo ograniczania emisji zanieczyszczeń słabnie, a w
niektórych przypadkach następuje wzrost emisji, jak choćby w tlenkach azotu ze
źródeł transportowych.
Przyjęta przez Polskę 6 procentowa redukcja emisji gazów cieplarnianych do
2010 r. może kosztować ponad 12 mld Euro. Do 2005 r. nie należy więc spodziewać
się istotnego - ujemnego - wpływu proponowanej redukcji emisji gazów
cieplarnianych na rozwój gospodarczy kraju, jednakże w perspektywie 2010 r.
prawdopodobieństwo takiego oddziaływania jest duże. Należy się jednak liczyć z
tym, że emisja dwutlenku węgla może rosnąć, chociaż utrzymanie 8 proc. redukcji
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
108
poniżej roku bazowego (1988), nie wydaje się być zagrożone. Podstawową
przyczyną wzrostu emisji będzie konieczność osiągnięcia wysokości dochodu
narodowego, podobnego do poziomu w krajach UE, poprawy efektywności produkcji
i zużycia surowców energetycznych. Obecna wartość PKB Polski jest porównywalna
ze wskaźnikami krajów UE z lat 60. i jest prawie 3-krotnie niższa w odniesieniu do
przeciętnego, aktualnego dochodu w krajach Unii.
Rys. 39. Wielkość wydatków na ochronę atmosfery w Polsce w latach 1989-1995 oraz ich
udział we wszystkich wydatkach na ochronę środowiska.
Udział węgla stanowi obecnie 97 proc. w całkowitym zaopatrzeniu naszej
gospodarki w energię i do 2010 r. nie ulegnie zasadniczym zmianom. Będzie to
zapewne priorytetowe i najtrudniejsze zadanie ze względu na konsekwencje
społeczne i ekonomiczne. Proces ratyfikacji międzynarodowych konwencji jest w
Polsce bardzo powolny. W Kyoto zobowiązaliśmy się do redukcji emisji dwutlenku
węgla. Aby to osiągnąć trzeba będzie uruchomić w kraju mechanizm tzw. „joint
Implementation”. Polega on na tym, że Polska może zaoferować któremuś z krajów
gospodarczo rozwiniętych wspólne finansowanie konkretnego projektu dotyczącego
redukcji emisji gazów szklarniowych. Po wykonaniu tego projektu, obydwa państwa
podzielą się powstałym przy tym zyskiem ekologicznym. Kraj-dawca zapisuje ten
zysk tak, jakby redukcja emisji nastąpiła w jego kraju. Korzyść dla niego polega na
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
109
tym, że zmniejszenie tej samej ilości emisji u siebie byłoby kilkakrotnie droższe. Po
roku 2000 wiele krajów Europy Zachodniej zmuszonych będzie do "kupowania"
emisji dwutlenku węgla za granicą; w krajach b. ZSRR i Europy Centralnej. Szacuje
się, że aby wypełnić zobowiązania z Kyoto, konieczne będą zakupy na poziomie 10-
20 mln ton dwutlenku węgla rocznie. Oznacza to, że kwoty przeznaczone corocznie
na ten cel wynosić będą co najmniej 500-1000 mln US$. Polska ma dużą szansę,
aby przejąć znaczącą część tej kwoty w formie dotacji.
Bez zmiany polityki środowiskowej nie jesteśmy w stanie sprostać wymaganiom
międzynarodowym, a szczególnie nowym zobowiązaniom Ramowej Konwencji o
Zmianie Klimatu. Zrównoważony rozwój, czyli zharmonizowanie potrzeb oraz
aspiracji społeczeństwa i państwa z możliwościami, jakie daje środowisko, w którym
żyjemy - to podstawowy priorytet nowej ekologii na przyszłe lata XXI wieku. Na
jednej szali stawia się wzrost dochodu narodowego, na drugiej - czyste środowisko.
Wymagać to będzie większej integracji polityki gospodarczej i regionalnej państwa z
ochroną środowiska. W wyniku realizacji NEP (Nowej Polityki Ekologicznej) chcemy
osiągnąć cztery podstawowe cele: zachowanie różnorodności biologicznej, czyste
powietrze, lepszą jakość wody i zdrowe społeczeństwo.
Ekonomiczne spojrzenie na problem emisji gazów cieplarnianych
z perspektywy gospodarki rolnej.
Współczesne, utechnicznione rolnictwo dość istotnie zmienia naturalne
środowisko. Będąc gałęzią gospodarki najbardziej uzależnioną od czynników
pogodowych, jednocześnie samo w coraz większym stopniu wpływa na system
klimatyczny planety. Mechanizm tego działania jest taki sam jak i pozostałych
czynników antroipogenicznych, destrukcyjnych – uwalnianie do atmosfery gazów
cieplarnianych. Główne źródła ich emisji ze sfery gospodarki rolnej ilustruje niżej
zamieszczony rysunek (rys. 40). Jego treść wskazuje, że ocena emisji netto CO
2
jest
często niewłaściwa, gdyż nie uwzględnia kontrybucji przemysłu środków produkcji
na rzecz rolnictwa. Przykładowo całe obciążenie z tytułu produkcji energii
elektrycznej przypisuje się tej gałęzi przemysłu, tymczasem inne dziedziny
gospodarki – w tym rolnictwo - funkcjonują z udziałem tej energii. Konieczność
uwzględnienia wszystkich źródeł emisji dla danej dziedziny, jest niezbędna w
przypadku projektowania instrumentów ekonomicznych, mających na celu
uregulowanie poziomu uwalniania gazów cieplarnianych. Nie jest łatwo ustalić
ogólną ilość GHC przenikających do atmosfery w związku z produkcją rolniczą.
Najlepsze oceny tego problemu dotyczą rolnictwa USA. Wyniki tych oznaczeń
wskazują, że ten dział gospodarki partycypuje w zanieczyszczaniu atmosfery w skali
mniej niż 2% ogólnej emisji ze źródeł gospodarczych. Jednocześnie podkreśla się, że
gospodarki rolne w krajach o niższym stopniu rozwoju emitują z pewnością
relatywnie więcej.
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
110
Na poziom emisji gazów przez rolnictwo wpływa przede wszystkim sposób
zagospodarowania obszarów. Jeżeli za punkt odniesienia weźmiemy powierzchnie
leśne, to gospodarka rolnicza, przemienna powoduje zmniejszenie możliwości
akumulacji CO
2
o 70%, zaś gospodarka towarowa na gruntach ornych oraz trwałe
zadarnienie aż o 75 do 80%. Oceniając kompleksowo znaczenie zalesienia w
zakresie kształtowania emisji gazów cieplarnianych należy stwierdzić, że
mechanizmy powodujące jej redukcję wynikają ze zwiększenia zasobów biomasy
akumulującej CO
2
, zachowania części dwutlenku węgla w postaci wyrobów
drzewnych, zmniejszenia emisji dzięki zastępowaniu drzewem produktów, których
wytwarzanie uwalnia bardzo duże ilości gazów cieplarnianych, np. cementu, czy
wreszcie zastępowania paliw kopalnianych, paliwem pochodzącym z biomasy
drzewnej.
Rys. 40. Szeroki kontekst wpływu rolnictwa na uwalnianie dwutlenku węgla do atmosfery
W ramach gospodarki na gruntach ornych, bardzo ważnym czynnikiem jest
sposób uprawy roli. Przede wszystkim ograniczenie liczby zabiegów mechanicznych
stanowi czynnik znacznego zmniejszenia uwalniania węgla z resztek organicznych.
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
111
Sprzeczności pojawiają się w ocenie roli poplonów w tym względzie. Stwierdza się,
że poplony wymagają dodatkowych zabiegów uprawowych i przez to przyczyniają
się do mineralizacji próchnicy i uwalniania gazów. Jednocześnie na ostateczny bilans
emisji może wpływać fakt, że pominięcie poplonów zwiększa wymogi roślin w
stosunku do zabiegów ochronnych przeciwko chwastom i patogenom roślinnym - te
zaś - to głównie pestycydy, będące środkami produkowanymi przez przemysł
z dużym udziałem energii i materiałów zawierających niekiedy uwalniające się
później gazy cieplarniane.
Rolnictwo emituje do atmosfery także metan w postaci wydzielin zwierzęcych.
Zjawisko to dotyczy głównie przeżuwaczy, które rozkładając celulozę uwalniają do
atmosfery gazowy metan. Również zwierzęta nieprzeżuwające przyczyniają się do
powstawania metanu, gdy ich odchody rozkładają się w warunkach beztlenowych.
Duże znaczenie ma także poziom stosowania nawozów, zwłaszcza azotowych,
będących źródłem dodatkowego uwalniania do atmosfery N
2
O. Tak więc rolnictwo
jest dziedziną, która ma także swój udział w oddziaływaniu cywilizacyjnym na
atmosferę ziemską.
Ocena globalnych efektów zmian klimatycznych w sferze ekonomii rolnej jest
bardzo trudna. Pierwsze niewiadome wynikają już z samego faktu, iż wprawdzie
oczekujemy ewolucji klimatu i zmian gospodarczych w określonym kierunku, to
jednak ostateczna skala tych zjawisk jest dziś nieznana. Następny problemem wiąże
się z właściwą oceną elastyczności produkcji rolnej w zakresie możliwości szybkiej
adaptacji do nowych warunków. Wreszcie brak też jest pełnych danych
ekonomicznych, na których można by oprzeć proces analizy przyszłych zjawisk.
Największe, przyszłe zmiany klimatyczne spodziewane są w strefie wysokich
szerokości geograficznych, z tego względu najbardziej miarodajne dane do analiz
pochodzą z obszarów położonych powyżej 55
o
szerokości geograficznej północnej.
W strefie tej, w samej tylko Kanadzie, przyrost brutto powierzchni rolniczej wyniesie
około 7 mln hektarów. Zwiększenie areału ziem rolniczych w tych rejonach wiązać
się będzie z pogorszeniem warunków produkcji na obszarach położonych na
południe. Brak możliwości zastosowania efektywnej irygacji (np na terytorium
borykającej się z trudnościami ekonomicznymi Rosji) spowoduje, że przyrost netto
będzie mniejszy. Generalne, wyniki dotychczasowego naukowego rozeznania
sytuacji, pozwalają mieć nadzieję, że spodziewane zmiany klimatyczne nie zmniejszą
w skali światowej wielkości strumienia dostarczanych przez rolnictwo surowców
żywnościowych. Problem jednak w tym, że zachowanie potencjału żywieniowego
planety wynikać będzie z beneficjów jakie uzyskają dzięki temu bogate kraje
północy oraz strat poniesionych przez rolnictwo obszarów tropikalnych i
subtropikalnych. Poza tym wspomniana równowaga zależeć będzie w największym
stopniu od tego na ile rynki gospodarcze, a także sami producenci, będą elastyczni
w zakresie dostosowywania się do czekających przekształceń klimatu i całej rolniczej
przestrzeni produkcyjnej.
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
112
Gospodarka światowa, w tym jej ważna część jaką jest rolnictwo, musi zmierzać
ku ograniczeniu oddziaływań bezpośrednich na właściwości klimatu Ziemi. Problemu
nie da się rozwiązać jedynie poprzez opisane wyżej działania w sferze politycznej.
Wprawdzie działania te stanowią pierwszy, niezbędny krok w dziedzinie ochrony
klimatu, to jednak język politycznych porozumień musi z czasem zostać zmieniony
na język konkretów. W państwach demokratycznych wszelkie regulacje ekonomiczne
muszą mieć postać jasnych instrumentów ekonomicznych. Światowa ekonomia
posiłkuje się przy takich okazjach różnymi metodami. Według ekonomistów w
dziedzinie ochrony klimatu, skutecznie można działać, stosując następujące
narzędzia:
N System pozwoleń emisyjnych w zakresie gazów cieplarnianych. Firmy, w tym
również gospodarstwa rolne, nabywałyby pakiety pozwoleń i stosownie do
swych możliwości ekonomicznych kształtowały poziom produkcji. W wielu
wypadkach większa produkcja, energochłonna i emitująca większą ilość
gazów zagrażających stabilności atmosfery, stawałaby się nieopłacalna.
N System standardów technologicznych, w tym zakazy stosowania
poszczególnych gazów takich jak na przykład chlorowcopochodne
węglowodorów (CFCs).
N System podatków węglowych dotyczący nie tylko paliw kopalnianych lecz
również wszelkiej aktywności gospodarczej, której towarzyszy emisja CO
2
,
np. produkcji związanej z rozkładem materii organicznej itp.
N System subsydiów wspierających technologie wolne od negatywnych
wpływów na atmosferę.
Systemy powyższe mogą być efektywne, lecz ich stosowanie nie jest łatwe i
wymaga dokładnego rozeznania sytuacji. Emisja kontrolowana przez płatne
pozwolenia jest szczególnie trudnym do zastosowania instrumentem ekonomicznym.
W przypadku rolnictwa wymagałoby to bardzo dokładnego rozpoznania źródeł i skali
zanieczyszczeń atmosfery dotyczących każdego gospodarstwa. Gdyby przy tym takie
pozwolenia miały być rozprowadzane na farmach przy zastosowaniu kryterium
uprzedniej emisji, to mogłoby się zdarzyć, iż korzyści z systemu odnieśliby ci, którzy
wcześniej najwięcej zaszkodzili środowisku.
Lepszym rozwiązaniem w rolnictwie byłoby nałożenie standardów
technologicznych. Wzorując się na rozwiązaniach z transportu samochodowego,
należałoby wprowadzić normy emisyjne na ciągniki rolnicze, kombajny i inne
maszyny samobieżne. Idąc dalej tropem takich rozważań można by tworzyć kolejne
standardy, między innymi dotyczące produkcji, przechowywania i aplikowania
nawozów organicznych. Normą objęte winny być więc warunki przechowywania,
wielkości dawek nawozów organicznych, terminy ich stosowania, czas od momentu
zastosowania do przyorania, itp. Dalej można byłoby określić maksymalną liczbę
operacji w ramach wydzielonych zadań technologicznych, czy też poziomy dawek
nawozów mineralnych. W określonych rejonach dobry efekt dałoby wprowadzenie
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
113
całkowitych zakazów ugorowania (tzw. czarny ugór, pozostawiony bez roślinności)
lub chemicznych środków ochrony roślin. Całe zagadnienie nie byłoby łatwe do
systemowego wdrożenia, lecz efektywność takich działań byłaby duża. Duże
znaczenie miałoby także prowadzenie akcji uświadamiającej wśród farmerów,
jednak skutek propagandowych oddziaływań byłby różny w różnych krajach ze
względu na poziomy świadomości samych rolników, jak i efektywności działania
służb doradczych. Kraje zachodnie, mające doświadczenie w prowadzeniu polityki
regulacji wewnętrznych w sektorze gospodarki rolnej wskazują, iż dużo łatwiej
wprowadzić jest ograniczenia czy kontrole nad tymi elementami procesu, które nie
są bezpośrednio związane z kosztami.
Podatki dotyczące substancji, których stosowanie wiąże się z emisją gazów
cieplarnianych, są bardzo trudne do wprowadzenia ze względów politycznych. Każde
dodatkowe zaostrzenie reguł fiskalnych przyjmowane jest przez ludzi bardzo
niechętnie. Stąd też politykom często trudno jest decydować się na działania
zmierzające w kierunku preferowania reguł czystego środowiska naturalnego, na
drodze dodatkowych obciążeń ekonomicznych gospodarki, bo to grozi utratą głosów
sporej części elektoratu. Doświadczenia we wprowadzaniu podatków od nawozów
posiada gospodarka szwedzka. Podatek od nawozów fosforowych i azotowych
wprowadzono tam już w 1984 roku. Spowodował on wzrost cen tych środków
produkcji o 5% i przyniósł dodatkowe dochody budżetowe wynoszące 21,5 mln
dolarów. Natomiast skutek w postaci ograniczenia zużycia tych nawozów okazał się
nieistotny. Holendrzy wprowadzili do tej pory podatek na stosowanie nawozów
organicznych, które wprawdzie stanowią podstawę wysokiej produktywności
rolnictwa, lecz jednocześnie eutrofizują środowisko i przyczyniają się do uwalniania
dużej ilości metanu oraz dwutlenku węgla. Bardzo łatwo udało się obliczyć
przychody budżetu z tego tytułu, natomiast efekty wynikające ze stosowania
podatków są dotąd nieznane.
Bezspornie, najlepszym rozwiązaniem byłoby całkowite zniesienie subsydiów dla
rolnictwa z tytułu stosowania środków przyczyniających się do emisji gazów
cieplarnianych. Zniesienie wielu subsydiów w ogóle, spowodowałoby ograniczenia w
zakresie środków będących bezpośrednim zagrożeniem dla atmosfery. Cofnięcie
dopłat do wszelkich działań na rzecz poprawy żyzności gleby zmieniłoby sposoby
użytkowania dużych obszarów pól. Uprawę płużną zastąpiłby system trwałego
zadarnienia lub nawet zalesienie, które to sposoby użytkowania są wysoce
efektywne w zakresie magazynowania asymilowanego CO
2
w materii organicznej.
Cofnięcie dopłat do nawadniania terenów mało zasobnych w wodę spowodowałoby
w pierwszym rzędzie zmniejszenie użycia przemysłowych środków produkcji (tylko
dostępność wody gwarantuje np. efektywne wykorzystanie wysokich dawek
nawozów), a w dalszej kolejności konwersję sposobu użytkowania na bardziej
przyjazny środowisku. Strategia cofnięcia subsydiów do wskazanych wyżej
kierunków produkcji mogłaby być zastąpiona dotowaniem produkcji specjalnej.
Współczesne problemy klimatyczne świata i ich aspekty ekonomiczno-prawne
114
Przykładowo, wspomożenie ekonomiczne uprawy roślin chroniących glebę przed
erozją, stanowiących strefy ochronne na terenach nadmorskich, mogłoby skutkować
zwiększeniem pochłaniania dwutlenku węgla z atmosfery. Sensownym rozwiązaniem
mogłoby okazać się też dotowanie używania paliw ekologicznie czystych.
Polityka prowadząca w konsekwencji do ograniczenia emisji gazów cieplarnianych
związana jest zawsze z dużymi kosztami. Same instrumenty ekonomiczne
ukierunkowujące na oczekiwane zachowania farmerów, zwykle okazują się
niewystarczające. Duże koszty pojawiają się zwłaszcza wtedy, gdy bierze się pod
rozwagę realizację strategicznych działań dających poważne skutki ochronne dla
klimatu planety. W przypadku rolnictwa, jak już wspomniano wyżej, decydujące
znaczenie ma tu zmiana sposobu użytkowania ziemi w kierunku zwiększenia
lesistości. Zalesienie nowych obszarów to droga inwestycja związana z dużymi
nakładami, niezbędnymi zwłaszcza w pierwszym okresie rozwoju drzewostanu.
Koszty związane są tu z przygotowaniem gleby, zakupem materiału szkółkarskiego,
a przede wszystkim z pielęgnacją młodych drzewek. Kiedy koszty założenia
jednostki powierzchni młodego lasu pomnoży się przez powierzchnię niezbędną do
uzyskania choćby minimalnego, zauważalnego efektu ochronnego, to okaże się, iż są
to poważne kwoty. Wyliczenia wykonane w Stanach Zjednoczonych wykazały, że
koszty zalesienia powierzchni użytkowanych rolniczo, które obniżyłyby dzisiejszą
emisję gazów przez rolnictwo o 2,5%, wyniosłyby 500 mln dolarów w ciągu roku.
Redukcja o połowę wymagałaby nakładów już ponad 21 mld dolarów/rok, zaś każde
dalsze ograniczenie kosztowałoby zdecydowanie więcej. Tak więc, jak w całej
gospodarce tak i w rolnictwie, pojawia się tu kategoria kosztu marginalnego
rosnącego w postępie geometrycznym.
W następstwie globalnego ocieplenia należy się spodziewać niewielkiego wzrostu
produktu narodowego brutto. Jednak dwa spośród wydzielonych regionów nie będą
beneficjantami tych zmian. Dotyczy to południowo-wschodniej Azji i Europy
zachodniej. Niekorzystne perspektywy dla tych obszarów wynikają niemal ze
wszystkich scenariuszów zdarzeń jakie zostały zastosowanie do oceny efektów
ekonomicznych globalnego ocieplenia. Gorsze perspektywy dla rolnictwa tych
regionów spowodują przy tym wzrost cen wszystkich produktów spożywczych i
surowców dostarczanych przez rolnictwo, za wyjątkiem produktów drzewnych. Kraje
Europy środkowej, transformujące swoje sektory rolnicze, mogą osiągnąć korzyści
pod warunkiem wszakże, że zostanie zachowana konkurencyjność produktów
rolnych wynikająca z niskich kosztów siły roboczej.
XII. METEOROLOGIA ROLNICZA
Uwagi ogólne
Meteorologia stała się tak rozległą dziedziną wiedzy, że z czasem zaczęły się
wyodrębniać z niej wyspecjalizowane dyscypliny. Oprócz wewnętrznych kierunków
poznawczych dotyczących poszczególnych zakresów wiedzy o pogodzie, powstały i
takie, które jako zasadniczy cel poznania stawiają sobie opisanie relacji pomiędzy
sferą praktycznej działalności człowieka, a zjawiskami zachodzącymi w atmosferze.
Jedną z takich dyscyplin, operujących na pograniczu nauk biologicznych i
meteorologii jest agrometeorologia, zwana w niektórych krajach biometeorologią4.
Rolnictwo, jako jedna z wielu dziedzin gospodarki, znajduje się pod nieustającą
presją pogody. Pogoda dyktuje przy tym nie tylko tempo wzrostu i rozwoju roślin
lecz jednocześnie decyduje o organizacji prac w gospodarstwach. Początkowo
agrometeorologia zajmowała się wszystkimi przejawami reakcji świata żywego na
warunki panujące w atmosferze. Dziś dyscyplina ta wyspecjalizowała się tylko w
badaniach odnoszących się do świata roślinnego (badania wpływu pogody na
zwierzęta to domena zoohigieny, natomiast biometeorologia to według polskich
standardów nauka zajmująca się reakcją organizmów ludzkich na ten czynnik).
W agrometeorologii (meteorologii rolniczej) można wyróżnić kilka wątków
poznawczych. Rozwijały się one stopniowo w miarę poszerzania wiedzy
meteorologicznej i przyrodniczej oraz doskonalenia warsztatu, a także metod
badawczych.
Stosunkowo najwcześniej rozpoczęły się badania dotyczące waloryzacji
warunków pogodowych i klimatycznych pod kątem potrzeb produkcji rolniczej.
Zagadnienie to w gruncie rzeczy nie proste, rozpatrywane było mniej lub bardziej
kompleksowo, a efektem badań były najczęściej przestrzenne, graficzne
opracowania pokazujące charakterystykę obszaru przy uwzględnieniu wybranego
kryterium. Najprostsze zestawienia dotyczą zmienności i rozkładu przestrzennego
podstawowych parametrów czysto meteorologicznych (temperatura, opady), inne
operują wskaźnikami typowo rolniczymi jak np. długość okresu wegetacyjnego,
pojawy przymrozków, wartości napromieniowania, pory fenologiczne, etc.
Najbardziej kompleksowo rzecz całą traktują opracowania dotyczące waloryzacji
rolniczej przestrzeni produkcyjnej, gdzie, warunki agrometeorologiczne terenu dla
określonych celów, sprowadza się do jednego syntetycznego wskaźnika.
4 Dotyczy to głównie USA i krajów anglosaskich.
Meteorologia rolnicza
116
Drugi nurt badawczy lokuje się na pograniczu fizjologii i meteorologii. W tym
zakresie trwają prace mające na celu określenie precyzyjnej relacji pomiędzy
wartością pojedynczego, bądź grupy czynników meteorologicznych, a fizjologią i
biochemią organizmu roślinnego. Dotyczy to przykładowo określenia wpływu
warunków świetlnych, termiki, czy wreszcie składu atmosfery na procesy życiowe.
W ostatnich latach najbardziej dynamicznie rozwija się kierunek badań
dotyczących matematycznego modelowania relacji pogoda – roślina. Tego typu
podejście daje szansę stworzenia narzędzi prognostycznych, przydatnych w praktyce
rolniczej na różnych szczeblach decyzyjnych. Model „pogoda – roślina”, umożliwia
podejmowanie decyzji zarówno technologicznych, rynkowych jak i strategicznych,
dotyczących kreowania polityki rolnej w dużej skali. Niezbędnym warunkiem rozwoju
i wdrażania tej nowoczesnej koncepcji jest z jednej strony rozwój badań, z drugiej
zaś stworzenie infrastruktury obejmującej niezbędne wyposażenie dla sieci stacji
monitorujących przebieg warunków meteorologicznych w odpowiedniej skali. W
takim systemie nie wystarcza bowiem istniejąca sieć nadzorowana przez IMGW (dziś
znacznie unowocześniona, lecz przeznaczona zasadniczo do pełnienia innych celów).
Waloryzacja warunków agrometeorologicznych
Najstarszym systemem waloryzującym warunki meteorologiczne występujące w
Polsce, przydatnym także z punktu widzenia agrometeorologicznego, jest
klasyfikacja klimatu według Romera.
Zaletą jej jest prostota, wadą natomiast zbyt duża ogólność. Zatem korzyści z
tego opracowania zależne są od celu w jakim się go wykorzystuje. Romer wydzielił
na terenie kraju 7 regionów klimatycznych, a w każdym z nich krainy geograficzne.
Powyższa charakterystyka powstała na bazie danych z lat 1880 – 1930, uważana
jest nadal za aktualną gdyż podział ten bywał uszczegółowiany. Należy stwierdzić, iż
dodanie do analizy ciągów obserwacyjnych obejmujących ostatnie 60 lat, z
pewnością nie zmieniłoby zasadniczo obrazu sytuacji, pewnie skorygowałoby granice
wyznaczające poszczególne strefy.
Według klasyfikacji Romera, regiony wyróżnia się na podstawie zespołu cech
charakterystycznych, które zestawiono poniżej.
Klimat bałtycki (A)
Występuje w wąskim pasie wybrzeża i w delcie Wisły. Kształtuje się pod wpływem
Bałtyku. Właściwości szczególne to:
N dość ciepłe i łagodne zimy,
N na ogół chłodniejsze lata,
N stosunkowo często występujące silne wiatry,
N suche i pogodne jesienie (zależnie od podregionu),
N opady roczne 500 -700 mm.
Meteorologia rolnicza
117
Klimat pojezierny (Pojezierze Pomorskie B
1
i Mazurskie B
2
).
Tereny dość wzniesione nad poziom morza i na znacznej powierzchni urzeźbione.
Cechy charakterystyczne:
N duże lokalne różnice klimatu,
N klimat bardziej surowy,
N dość chłodne, śnieżne i długie zimy,
N późne przymrozki wiosenne,
N w strefie jezior wyższa wilgotność powietrza,
N opady roczne 600-700 mm.
Rys. 41. Rejony klimatyczne wg. Romera
Klimat Krainy Wielkich Dolin (C)
Obejmuje największy, centralny obszar w Polsce. Charakterystyka:
N część zachodnia cieplejsza, ale suchsza z wczesną wiosną i dłuższym okresem
wegetacyjnym, część wschodnia chłodniejsza, szczególnie w okresie zimy,
N region o najniższych opadach, zwłaszcza w części środkowej, rocznie od 450 do
500 mm.
Meteorologia rolnicza
118
Klimat wyżyn środkowych(Śląsko-Małopolska D
1
i Lubelska D
2
)
Tereny pagórkowate o większych wyniesieniach i spadkach niż na pojezierzach, o
następującej charakterystyce:
N dominacja cech klimatu kontynentalnego,
N średnie roczne temperatury dość wysokie,
N duża koncentracja ulewnych opadów letnich, stosunkowo duże zagrożenie
opadami gradu,
N roczna ilość opadów 600 – 700 mm.
Klimat podgórskich nizin i kotlin (Śląska E
1
i Sandomierska E
2
)
Klimat stosunkowo łagodny, o poniższych cechach:
N krótka zima, dłuższe lato,
N najdłuższy okres wegetacyjny w Polsce,
N mniejsze lecz korzystniej rozłożone opady niż w innych regionach kraju od 500
do 600 mm.
Klimat górski i podgórski (Sudety F
1
, Karpaty F
2
)
Powierzchnia silnie urzeźbiona i znacznie wyniesiona ponad poziom morza.
Charakterystyka:
N duże kontrasty klimatów lokalnych,
N klimat dość chłodny o dużej ilości opadów,
N wyżej w górach znacznie chłodniej i dużo opadów nawet ponad 1000 mm
rocznie
Klimat zaciszy górskich (G)
Charakteryzuje się:
N wielkimi kontrastami pomiędzy dniem i nocą,
N dużym zróżnicowaniem dopływu energii słonecznej w różnych częściach zboczy,
N dużymi zróżnicowaniami prędkości wiatru.
W latach siedemdziesiątych, w Instytucie Uprawy Nawożenia i Gleboznawstwa
w Puławach, dokonano kompleksowej waloryzacji rolniczej przestrzeni produkcyjnej.
Jednym z jej elementów była ocena agroklimatu. Czynnik ten oceniano w skali do 15
punktów, przyjmując za wskaźnik plony przeliczeniowe najważniejszych roślin
uprawnych. Wyliczono odpowiednie wartości dla jednostek obszarowych na
poziomie gminy. Średnie z gmin posłużyły do ustalenia wartości bonitacyjnej klimatu
w odniesieniu do województw, według podziału administracyjnego obowiązującego
przed 1998 rokiem. Skala stosunkowo małych województw bardzo dobrze graficznie
oddaje obraz przestrzennego rozkładu jakości agroklimatu w Polsce (skala gminna
jest już zbyt szczegółowa, natomiast regionalna zbyt ogólna).
Na przedstawionej poniżej mapie Polski (rys. 42) wyraźnie zaznacza się
strefowość układu jakości agroklimatu. Zdecydowanie najmniej korzystnymi pod tym
względem są tereny górskie i podgórskie, które uzyskały ocenę punktową niższą od
5, na 15 możliwych. Decydują o tym czynniki związane z położeniem obszarów
Meteorologia rolnicza
119
względem poziomu morza. Podobnie mało korzystny jest agroklimat krańców Polski
północno-wschodniej. W tym przypadku wynika to z przyczyn związanych z
cyrkulacją mas atmosfery, sprowadzającą nad ten region więcej chłodnego
powietrza pochodzenia arktycznego i polarnego. Część terytorium naszego kraju,
leżąca w przybliżeniu na południe od linii Warty i Narwi, jest pod względem
klimatycznym zdecydowanie korzystniejszą od tej zlokalizowanej na północ. Na
południu występuje strefa agroklimatyczna o wartości punktowej powyżej 11 (za
wyjątkiem obszarów wyżyn środkowych (Śląsko-Małopolska i Lubelska). Powyżej
rozciąga się pas z przedziałem od 5 do 11 punktów. Ogólnie można wyraźnie
określić kierunki zmian wartości agroklimatu w kształtowaniu warunków produkcji
rolniczej. Klimat rolniczy zmienia się na korzyść, poczynając od północnego zachodu
w kierunku na południowy wschód, a jego walory maleją od południowego zachodu
ku północnemu wschodowi.
Rys.42. Punktowa ocena agroklimatu Polski wg podziału administracyjnego sprzed 1999 r.
Meteorologia rolnicza
120
Wpływ warunków pogodowych na wzrost, rozwój i plonowanie roślin
Do najważniejszych czynników pogodowych wpływających bezpośrednio na
produkcję roślinną należą: promieniowanie słoneczne, temperatura, opady
atmosferyczne, wilgotność powietrza, wiatry. Każdy z nich spełnia określoną funkcję
w życiu organizmów roślinnych. Każdy z nich działa też w kompleksie z innymi i na
ostateczny efekt składa się współdziałanie wielu tych czynników na raz. Tym
niemniej istnieje niekiedy potrzeba określenia reakcji poszczególnych gatunków na
zmiany warunków pogodowych w pojedynczym zakresie. To wyodrębnienie pozwala
sklasyfikować rośliny pod względem wymagań odnośnie konkretnego czynnika
pogodowego, który na danym obszarze pełni rolę dominującą.
Wpływ promieniowania słonecznego można rozpatrywać w aspekcie reakcji roślin
na światło oraz wymagań termicznych. W pierwszym przypadku gatunki uprawne
można podzielić na światło i cieniolubne. Do światłolubnych należą te, których
intensywność fotosyntezy osiąga maksimum przy maksymalnym natężeniu
napromieniowania w danych warunkach. Cieniolubne gatunki reagują wzrostem
intensywności fotosyntezy do wartości około 0,1 maksymalnego napromieniowania.
Pomiędzy tymi dwoma biegunami ekstremalnych wymagań znajdują się gatunki
określane mianem znoszących zacienienie. Nie ma możliwości bezpośredniego
wpływu na pogodowe warunki świetlne. Do dyspozycji rolnika pozostają zatem
metody pośrednie, z których największe znaczenie mają działania kształtujące tzw.
architekturę łanu. Polega to na odpowiedniej metodzie siewu zapewniającej
właściwą gęstość roślin i ich korzystne ułożenie względem siebie. Poza tym, na
terenie falistym istnieje możliwość doboru stanowisk o wystawach południowych,
jako najodpowiedniejszych dla gatunków o dużych wymaganiach świetlnych.
Rośliny reagują także na światło, uzależniając od tego czynnika przejście od fazy
wegetatywnego do generatywnego rozwoju. Zależność ta nazywa się
fotoperiodyzmem. Z tego punktu widzenia dzieli się gatunki na rośliny dnia długiego
i krótkiego. Do pierwszej grupy należą te, które pochodzą z wysokich szerokości
geograficznych, gdzie w pełni sezonu dzień jest dłuższy od 14 godzin (zboża,
koniczyna, len, ziemniak, etc). Drugą grupę stanowią gatunki ze stref
międzyzwrotnikowych o dniu krótszym niż 12 godzin. Część gatunków dnia krótkiego
z trudem aklimatyzuje się w Polsce. Do ważniejszych przedstawicieli roślin tej grupy,
uprawianych w naszym kraju należy zaliczyć: kukurydzę, soję i szereg gatunków
warzywnych. Praktyczne wykorzystanie wiedzy z zakresu reakcji roślin na czynnik
świetlny polega przede wszystkim na doborze właściwych terminów siewu i takiej
rejonizacji upraw, która uwzględnia wartość charakterystyki klimatycznej, zwanej
usłonecznieniem.
Promieniowanie słoneczne jest źródłem energii niezbędnej dla zajścia
określonych reakcji biochemicznych w organizmach roślinnych. Proces wiązania
energii realizuje się podczas reakcji fotosyntezy. Nie cała energia docierająca do
powierzchni ziemi wykorzystywana jest przez rośliny. Występują tu dość
Meteorologia rolnicza
121
skomplikowane zależności, które określa bilans energetyczny obszaru. Przede
wszystkim, zgodnie z opisem w rozdziale dotyczącym promieniowania, część energii
tracona jest w wyniku odbicia i dopiero to co zostaje pochłaniane jest przez
powierzchnię gleby i rośliny. Udział roślin w bezpośrednim pochłanianiu i
wykorzystywaniu energii słonecznej jest niewielki. Poza fotosyntezą, energia
pochłaniana przez rośliny bierze udział w kształtowaniu procesu transpiracji.
Kiedy rośliny wegetują to wynik bilansu promieniowania na danym obszarze jest
dodatni. Nadwyżka energii ponad rozchody wykorzystywana jest częściowo w
ekosystemie (łanie roślin), część zaś zwiększa potencjał energetyczny powietrza
atmosferycznego, podnosząc jego temperaturę. Każdy ekosystem, a nawet gatunek
roślin, kształtuje swoiście te relacje. Przykładowo powietrze nad powierzchnią bez
pokrywy roślinnej (sucha) wykorzystuje nieco ponad ¾ tej energii, jaka uczestniczy
w procesie parowania (tzw. stosunek Bowena wynosi tu 0,76), tymczasem obszar
leśny tylko 8%, łąka 17%, pole rzepaku 28%, pszenicy 35%. Tak więc w terenie
pokrytym szatą roślinną, jest chłodniej niż nad ugorem czy w mieście, gdzie nie
występuje intensywne parowanie terenowe.
Warunki życiowe dla roślin kształtuje temperatura otoczenia, a właściwie
temperatura powietrza ustalająca się jako wynik warunków bilansu cieplnego
obszarów. Wszystkie reakcje biochemiczne zachodzą w określonym przedziale
temperatur, zaś poza nim albo całkowicie ustają lub też rozpoczyna się proces
destrukcji organizmu. Każdy gatunek rośliny cechują swoiste wymagania co do
wartości tego czynnika. Roślina może funkcjonować w zakresie pomiędzy
temperaturą minimum i maksimum. W tym przedziale można dodatkowo wydzielić
wartość zwaną optimum, gwarantującą najszybsze tempo wzrostu i rozwoju.
Minimalna temperatura wzrostu i rozwoju zbóż i większości innych gatunków
pastewnych oraz okopowych, zawarta jest w przedziale od 0-5
o
C. Zdecydowanie
bardziej ciepłolubną jest kukurydza wymagająca minimum 8-11
o
C, zaś najniższa
temperatura dla niektórych warzyw osiąga pułap 12-18
o
C. Wartości maksymalne
temperatur dla podstawowych zbóż sięgają 37
o
C, dla pozostałych gatunków
mieszczą się w granicach 40-45
o
C. Z punktu widzenia rolniczego ważną jest różnica
pomiędzy temperaturą warstwy gleby przerośniętej masą korzeniową, a temperaturą
powietrza otaczającego nadziemną część roślin - nazywana gradientem cieplnym.
Wysoka wartość tego wskaźnika w okresie wegetacji (wiosną lub jesienią),
powoduje dysproporcje w rozwoju części nadziemnych i podziemnych roślin.
Niedorozwinięty z tego powodu system korzeniowy może spowodować osłabienie
roślin i ich podatność na wyleganie.
Należy podkreślić, iż wartości temperatur w jakich następuje wzrost i rozwój
roślin zostały podane tu jedynie orientacyjne, gdyż stały postęp hodowlany skutkuje
wprowadzaniem odmian o niższym pułapie wymagań, co ma duże znaczenie w
układach klimatycznych Polski. Wrażliwość roślin na warunki termiczne zmienia się z
Meteorologia rolnicza
122
wiekiem, a także może być w niewielkim stopniu modyfikowana poprzez niektóre
elementy technologii (uprawa roli, nawożenie).
Wymagania wodne roślin zaspokajane są przez zasoby tej substancji w
środowisku. Ponieważ cały czas zasoby te wyczerpują się w wyniku procesu
parowania terenowego, w związku z tym najważniejszą funkcję uzupełniającą
spełniają tu opady atmosferyczne. Tak realizuje się jeden z najważniejszych
obiegów w przyrodzie – obieg wodny. Rośliny wykorzystują wodę jako medium, w
którym zachodzą wszystkie reakcje biochemiczne, część wody wykorzystywana jest
jako materiał konstytucyjny tkanek – około 0,05%, reszta zaś spełnia rolę
transportową w organizmie, uczestnicząc zarazem w procesie transpiracji.
Wypadkowa wszystkich zależności kształtujących bilans wodny środowiska decyduje
o potencjalnych możliwościach zabezpieczenia potrzeb roślin. Nie zawsze jednak
duże zasoby wody decydują o funkcjonowaniu roślin lecz jej dostępność, w tym
wynikająca z właściwości gleby przesądzających o sile powiązań H
2
O z substancją
mineralną i organiczną. O ile człowiek nie jest w stanie regulować obiegu wody w
przyrodzie, to o zasobach i dostępności mogą decydować melioracje rolne oraz
szereg zabiegów agrotechnicznych.
Na ogół wysokość plonów roślin (P) zależy od ilości zużytej wody na transpirację.
Powyższą relację można wyrazić równaniem:
P = W
t
x
Q
w
Symbol W
t
w niniejszym równaniu oznacza współczynnik transpiracji informujący
ile mililitrów wody (litrów) potrzeba na wytworzenie kilograma suchej masy (kg
.
ha
-
1 .
mm
-1
), zaś Q
w
wyraża ogólną ilość transpirowanej wody. Współczynnik ten jest
cechą gatunkową tak, że pomiędzy nimin zaznaczają się duże różnice. Przykładowo
wśród zbóż najoszczędniej wodą gospodaruje jęczmień Wt = 18, a największe
potrzeby wykazuje owies – W
t
= 26. Z kolei kukurydza wykorzystuje najwięcej wody
z jednostki powierzchni, ale jej współczynnik transpiracji jest mniejszy od owsa,
gdyż roślinę tę charakteryzuje zdecydowanie większa produktywność jednostkowa.
Wskaźnik W
t
dla buraków wynosi 61, zaś dla grochu 34. Najczęściej jednak
potrzeby wodne roślin określa się w postaci optymalnych opadów i właściwego ich
rozkładu w ciągu całego okresu wegetacji. Przykładowo potrzeby opadowe żyta
ocenia się na 260 mm, pszenicy 254 mm, jęczmienia 267, owsa 271 mm, ziemniaka
od 260 mm do 390 mm, w zależności od stopnia wczesności odmiany, buraka
cukrowego - 457 mm.
Rozkład opadów atmosferycznych w sezonie wegetacyjnym ma pierwszorzędne
znaczenie w kształtowaniu warunków i tempa rozwoju roślin. W przypadku każdego
gatunku można spostrzec, że w określonej fazie rośliny reagują najsilniej na
niedostatek opadów. Fazy takie nazywa się okresami krytycznymi wymagań
wodnych. Wśród roślin zbożowych faza krytyczna przypada na czas
Meteorologia rolnicza
123
najintensywniejszego przyrostu masy, czyli na okres od pełni krzewienia do
zakończenia strzelania w źdźbło. Najmniejsze potrzeby występują w momencie
dochodzenia do dojrzałości technicznej. Dla ziemniaka okresem krytycznym jest faza
kwitnienia związana z początkiem zawiązywania bulw, u buraka moment
intensywnego przyrostu masy liściowej.
Uzupełnieniem zasobów wodnych gleby i wody wykorzystywanej przez system
korzeniowy jest bezpośrednia intercepcja wody opadowej przez szatę roślinną oraz
intercepcja kropel rosy powstającej na liściach i łodygach. Badania dowodzą, iż w
okresach niedoborów opadów lub w suchym klimacie, rosa może zaspokajać
znaczny procent potrzeb. W warunkach Polski, przeciętne ilości wody dostarczanej w
ten sposób w okresie pełni wegetacji wynoszą od 0,70 do blisko 2 mm wody
dziennie.
Wilgotność powietrza, rozumiana jako tak zwana względna, stanowi ważne
uzupełnienie informacji o warunkach termiczno-wodnych siedliska. Przy dużej
wilgotności i małym niedosycie pojawiają się warunki znacznie utrudniające
parowanie, a tym samym i transpirację. Odwrotna sytuacja prowadzi do szybkiej
utraty wody przez rośliny i potęguje skutki braku tego składnika. Z tego powodu
znacznie dotkliwsze dla roślin są zawsze okresy bezopadowe występujące w
warunkach wysokich temperatur powietrza. Wskaźniki wilgotności względnej i
niedosytu wilgotności bywają powszechnie wykorzystywane przy ocenie potrzeb
deszczowania roślin. Wilgotność powietrza odgrywa też istotną rolę w kształtowaniu
warunków produkcji w sposób pośredni. Jest to jeden z ważniejszych czynników
wpływających na inwazyjność chorób i szkodników. Duża wilgotność powietrza,
wespół z wysokimi temperaturami, jest przyczyną wystąpienia wielu chorób
grzybowych. Czynnik wilgotnościowo - termiczny decyduje między innymi
o intensywności żerowania mszyc. Należy podkreślić, iż wilgotność powietrza,
w dużo większym stopniu niż inne czynniki, bywa kształtowana przez łany roślinne.
Właściwość ta jest najważniejszym wyróżnikiem swoistego mikroklimatu jaki panuje
wewnątrz porostu. Często to oddziaływania mikroklimatyczne ukierunkowują
procesy życiowe roślin i możliwości wystąpienia chorób i szkodników silniej, niż
warunki dalszego otoczenia. Na tym tle ujawnia się między innymi swoista reakcja
roślin uprawianych w siewach mieszanych, nawet jeżeli sieje się tak gatunki blisko
spokrewnione jak jęczmień z owsem lub nawet różne odmiany tego samego
gatunku.
Warunki wietrzne odgrywają także istotną rolę w kształtowaniu wzrostu i rozwoju
roślin uprawnych. Realizuje się ona między innymi poprzez wpływ na intensywność
transpiracji. Wiatry o wzrastającej prędkości przyspieszają ten proces. Brak ruchu
powietrza utrudnia parowanie z powierzchni roślin. Wiatr, oddziałując mechanicznie
na organizm roślinny, sprzyja większej elastyczności łodyg, większemu przyrostowi
tkanki mechanicznej, a tym samym pozytywnie modeluje architekturę łanów.
Szybsza transpiracja i ubytek wody są szczególnie istotne w fazie dojrzewania roślin.
Meteorologia rolnicza
124
Największym sprzymierzeńcem rolnika w tym względzie jest wiatr wiejący w dni
słoneczne, w okresie sianokosów. Rola wiatru w życiu roślin poszerza się także na
kształtowanie procesu zapylania. Część gatunków uprawnych należy do grupy
obcopylnych. Są to między innymi ze zbóż: żyto, kukurydza, a także częściowo
niektóre motylkowe. W zapylaniu, w tych przypadkach (pomijając rośliny
owadopylne), pomocnym jest więc wiatr. Kolejna funkcja pośrednia wiatru to udział
w rozprzestrzenianiu się nasion chwastów, a także na co wskazują najnowsze
badania agrometeorologów, regulowanie migracji wielu szkodników roślinnych.
Zależność wegetacji roślin od ważniejszych parametrów pogodowych nie jest
łatwa do zdefiniowania i bezbłędnego określenia. Z tego też powodu w literaturze
przedmiotu oprócz zgodnych stwierdzeń znajdziemy również szereg kontrowersji.
Niezależnie jednak od tego, prace badawcze nad ustaleniem precyzyjnych związków
plonowania roślin z warunkami pogodowymi nieustannie trwają. Szczytowym
osiągnięciem z tego zakresu jest wyżej wspomniany model pogoda – plon. Model, to
najczęściej złożona funkcja matematyczna ustalająca związki liczbowe pomiędzy
wydajnością jednostkową, a wartością parametrów pogodowych określanych jako
zmienne niezależne. Wartość takich modeli polega nie tylko na tym, iż dowiadujemy
się jak rośliny reagują na ciąg zjawisk pogodowych, ale przede wszystkim na tym, iż
pozwala to na prognozowanie i planowanie produkcji rolniczej.
Niesprzyjające czynniki pogodowe dla produkcji rolniczej
Powyżej zamieszczony opis wskazywał na ogólne relacje i mechanizmy działania
czynników pogodowych kształtujących wzrost i rozwój roślin. Niezmiernie rzadko się
zdarza, aby układ parametrów pogodowych odpowiadał dokładnie potrzebom
roślinności wszelkich gatunków. W większości przypadków mamy do czynienia z
mniejszym lub większym odstępstwem od optimum. Warunki mieszczące się jednak
w ramach wymagań określanych jako minimalne i maksymalne zapewniają rolnikom,
abstrahując od innych uwarunkowań ekonomicznych i gospodarczych, akceptowalną
wydajność i wynikające z tego profity. Zdarza się jednak, iż mamy do czynienia albo
z przekroczeniem wartości progowych lub też z nieciągłością przestrzenną i czasową
zjawisk. Skutkiem tego jest znaczne obniżenie poziomu produkcji, włącznie z
pojawieniem się ewidentnych strat. Jeżeli czynniki klimatyczne obniżają drastycznie
wydajność to mają charakter szkodliwy, czasem jednak owa szkodliwość osiąga
poziom klęskowy, a nawet katastrofalny. Na szczęście, w umiarkowanym, chociaż
bardzo zmiennym klimacie Polski, zjawiska klęskowe i katastrofalne występują
rzadko.
Każda grupa roślin, a nawet gatunek i odmiana charakteryzuje się inną czułością
na poziom czynnika przekraczającego przeciętny poziom szkodliwości. Z tej też
przyczyny zdarza się, że pojawiają się znaczne uszkodzenia gatunków roślin, ale
przykładowo tylko u niektórych odmian. Ponadto formy uprawne gatunków
Meteorologia rolnicza
125
charakteryzuje różny stan zagrożeń. Rośliny ozime, wysiewane na jesieni, pozostają
na polu w okresie zimowym, stwarzającym ryzyko wystąpienia wielu zjawisk
szkodliwych, których nie doświadczają formy jare. Stopień ryzyka uprawy tych roślin
wzrasta w sytuacjach gdy wysiewane bywają stosunkowo wcześnie na jesieni czy
nawet późnym latem. Warunki wstępnej fazy wegetacji mogą bowiem rzutować na
możliwości przezimowania. Rośliny jare narażone bywają na utrudnioną wegetację
wtedy, gdy wysiewa się je późną wiosną, mogąc z jednej strony trafić na okres
suszy wiosennej, z drugiej zaś, być poddane destrukcyjnemu stresowi termicznemu
związanemu ze spóźnionymi przymrozkami wiosennymi (roślinom ozimym czynniki
te zdecydowanie mniej zagrażają).
Zjawiska szkodliwe pojawiają się albo pojedynczo lub też kompleksowo. Mogą
przy tym mieć charakter pośredni lub bezpośredni. W warunkach klimatycznych
Polski występują układy pogodowe niekorzystne, wśród których można wyróżnić
kilka niżej opisanych kategorii.
Zagrożenia okresu zimowego
Większość roślin uprawnych, ozimych trwa przez okres zimowy w stanie
anabiozy. Wysoka koncentracja soków komórkowych gwarantuje im dużą odporność
na znaczne obniżenie temperatur powietrza i gleby. Każdy jednak gatunek, a nawet
odmiana, charakteryzuje się jednak progiem odporności po przekroczeniu, którego
następują nieodwracalne procesy destrukcji. Powszechnie znana jest gradacja
gatunków, od najbardziej odpornych do wrażliwych, według której na pierwszym
miejscu plasuje się żyto, następnie pszenica, rzepak i jęczmień ozimy. Żyto jest w
stanie przetrwać spadki temperatur do poziomu około –25
o
C, bez okrywy śnieżnej.
Pszenica, której węzeł krzewienia znajduje się bliżej powierzchni gleby, zaczyna
reagować ujemnie po przekroczeniu progu –20
o
C. U rzepaku i jęczmienia pojawiają
się problemy z zimowaniem już przy spadkach temperatury poniżej poziomu –15
o
C.
W warunkach zalegania pokrywy śnieżnej, która spełnia rolę izolatora z powodu
dużej ilości przestworów wypełnionych powietrzem, rośliny zimują bezpiecznej i
odporność na niskie temperatury powietrza wzrasta o około 5-10
o
C. Przetrwanie w
niskich temperaturach zależy od stanu roślin tuż przed wejściem w okres anabiozy.
Każdy z wyżej wymienionych gatunków musi osiągnąć określony etap rozwoju, który
gwarantuje mu największą odporność. W tym przypadku stan zagrożeń wzrasta gdy
rośliny w okres zimowania wchodzą opóźnione w rozwoju, bądź zbytnio
przyśpieszone. Szczególnie wrażliwy na ten czynnik jest rzepak ozimy, który
wysiewa się bardzo wcześnie, na początku sierpnia. Trudności z jego zimowym
przetrwaniem pojawiają się wtedy gdy jesień jest długa i ciepła, a rośliny wykształcą
więcej niż cztery pary liści rozetowych. W przypadku wszystkich gatunków ozimych
następuje w ciągu zimy stopniowa utrata odporności na niskie temperatury, z tego
też powodu szkodliwe są głębokie spadki temperatur na przedwiośniu.
Meteorologia rolnicza
126
Pokrywa śnieżna bywa jednocześnie czynnikiem zabezpieczającym przed niską
temperatura, ale jednocześnie może stać się przyczyną poważnych strat na
plantacjach ozimin. Dotyczy to sytuacji gdy ma ona dużą grubość i zalega zbyt
długo. Za niebezpieczne uznaje się utrzymywanie się warstwy śniegu przez okres
dłuższy niż 80 dni lub też w krótszym, bo nawet już nieco ponad 30 dniowym
przedziale czasowym, przy grubości ponad 20 cm. Problemy z pokrywą śniegową
pojawiają się bowiem z tej przyczyny, iż utrudnia ona wymianę powietrza. Nawet
spowolniona wegetacja powoduje gromadzenie się dwutlenku węgla i brak tlenu. Z
tego powodu niekorzystną jest taka sytuacja pogodowa, gdy najpierw pojawia się
warstwa śniegu, a następnie dopiero dokonuje się obniżenie temperatur poniżej
pułapu hamującego jesienną wegetację. Rośliny nie zahartowane przed mrozami źle
znoszą taki układ pogodowy.
Kolejnym czynnikiem destrukcyjnym w okresie zimy są następujące często po
sobie okresy ocieplenia i chłodów. Prowadzi to do stopniowego rozhartowania roślin
i wzrostu podatności na uszkodzenia wywołane niskimi temperaturami, a w dalszej
konsekwencji ich osłabienia. Rozhartowanie roślin pod pokrywą śniegową następuje
często w trakcie trwania zimy. Straty spowodowane tym zjawiskiem, określanym
jako „wyprzenie”, należą do najpoważniejszych, przy czym spotęgowane bywają
poprzez porażenie roślin przez kompleksy grzybowe, wywołujące chorobę zwaną
pleśnią śniegową. Szczególnie wrażliwe na ten czynnik destrukcyjny są żyto ozime i
jęczmień. Skutki wyparzenia odczuło rolnictwo polskie szczególnie dotkliwie w czasie
tzw. zim stulecia, które dwukrotnie wystąpiły w okresie ostatnich dwudziestu lat.
Inną konsekwencją przejściowych zmian temperatury w okresie zimy jest
zamarzanie i rozmarzanie gleby. Jest to zjawisko tylko częściowo korzystne,
zwiększające retencję wody. Na polach porośniętych roślinnością dochodzi wtedy do
ruchów wierzchniej warstwy, powodujących uszkadzanie korzeni roślin, odsłonięcie
węzłów krzewienia czy też pąków szczytowych. Spore straty z tego tytuły notuje się
przede wszystkim na plantacjach rzepaku ozimego. Pokrewna roślina z rzepakiem –
rzepik ozimy – nie wydłuża pędu nawet przy wczesnym siewie i dlatego jest
uważana za konkurencyjną na terenach o bardziej niekorzystnych warunkach
klimatycznych (np. na północnym – wschodzie Polski).
W trakcie zimy następują czasem gwałtowne roztopy spowodowane napływem
mas ciepłego powietrza. Woda roztopowa, nie znajdując ujścia i mając utrudnione
przesiąkanie w głąb gleby, tworzy zastoiska na powierzchni pól. Rośliny podtopione
mają utrudnione oddychanie i z czasem ulegają „uduszeniu”. Po długotrwałych
zastoiskach pozostają często na polach miejsca, pozbawione roślin uprawnych, a
porośnięte chwastami. Kiedy woda, nawet tworząca płytkie zastoiska, zamarza
następują wtedy mechaniczne uszkodzenia tkanek roślinnych.
Kiedy pole pozbawione jest pokrywy śnieżnej, wtedy bardzo niebezpieczne
bywają silne wiatry. Szczególnie groźne jest to zjawisko wczesną wiosną, kiedy
cieplejsze powietrze napływa nad wychłodzony grunt. Temperatura powietrza
Meteorologia rolnicza
127
pobudza rośliny do powolnej wegetacji, tymczasem gleba pozostaje nadal
zamarznięta. Silny wiatr powoduje przyśpieszenie transpiracji i utratę wody, której
rośliny nie mogą uzupełnić z powodu jej niedostępności. Oziminy w takich
warunkach zaczynają stopniowo zmieniać barwę na ciemną, dającą złudzenie jakoby
były podpalane. Z tej przyczyny rolnicy nazywają zjawisko to wysmalaniem.
Szczególnie narażone na wysmalanie są partie pól położone na wierzchołkach
wzniesień.
Przymrozki
Niekorzystny przebieg pogody w okresie poza zimowym stwarza też szereg
zagrożeń dla roślin. Można wyróżnić tu wiele sytuacji. Do najczęstszych należą te,
które związane są z zachwianiem reżimów termiczno-wodnych.
W Polsce rzadko dochodzi do przekroczenia temperatur maksymalnych dla
wzrostu i rozwoju roślin. Dużo częściej w trakcie wegetacji pojawiają się stany
pogodowe charakteryzujace się spadkiem temperatur poniżej minimum tolerancji,
czyli w większości przypadków poniżej 0
o
C.
Istnieje wiele definicji pojęcia „przymrozek”. Według najogólniejszej z nich
oznacza to spadek temperatury powietrza poniżej zera stopni Celsjusza. Dalej
można uściślić tę definicję o człon stwierdzający swoiste oddziaływanie tak
obniżonej temperatury na przyrodę ożywioną i nieożywioną, a także podkreślić, iż
towarzyszą temu pewne swoiste zjawiska związane z przechodzeniem wody w lód.
Z punktu widzenia praktyki rolniczej, definicja ogólna pojęcia, obejmuje zbyt
wiele sytuacji różnych pod względem znaczenia dla procesów produkcyjnych. Z tego
powodu, zarówno pod względem meteorologicznym jak i rolniczym, najprecyzyjniej
przymrozki można określić jako spadek temperatury minimalnej poniżej zera w
okresie trwania wegetacji roślin.
Przyjmując powyższą definicję przymrozki można klasyfikować według
różnorodnych kryteriów takich jak:
S intensywność (łagodne – obniżenie temperatury do –2
o
C, umiarkowane, spadek
w granicach –2 O -4
o
C, silne, poniżej – 4
o
C);
S pora wystąpienia ( - przymrozki wiosenne, letnie, wczesne jesienne, - nocne,
wieczorne);
S strefa pionowa atmosfery, w której następuje obniżenie temperatury
(przymrozki na wysokości ok. 2 metrów w strefie kwiatostanów, przymrozki
przygruntowe);
S przyczyny pojawu (adwekcyjne, radiacyjne);
S zjawiska towarzyszące (przymrozki bez wiatru, przymrozki przy słabych ruchach
powietrza, przymrozki z wiatrem);
S skutki (przymrozki uszkadzające kwiatostany, podstawy łodyg, systemy
korzeniowe).
Meteorologia rolnicza
128
Na powierzchni naszej planety, im bardziej przesuwamy się w kierunku
biegunów, tym później kończy się i wcześniej rozpoczyna okres zagrożenia przez
przymrozki podczas sezonu wegetacyjnego. Praktycznie wcale nie występują one w
strefie równika (wyjątkiem mogą tu być tereny bardzo wyniesione nad poziom
morza). Rzadziej występujące przymrozki w strefie zwrotnikowej są jednak
szczególnie groźne, gdyż zagrażają uprawom roślin ciepłolubnych tej strefy
klimatycznej (np. cytrusom, winorośli, kawie).
Powstawanie przymrozków, wiąże się z przebiegiem bilansu promieniowania. W
dzień, gdy do powierzchni ziemi dociera energia i jest przez nią pochłaniana, wtedy
zgodnie z prawami fizycznymi od cieplejszego podłoża nagrzewa się położona tuż
nad nim warstwa powietrza. Im wyżej tym przepływ energii słabnie i stąd wraz z
wysokością temperatura powietrza obniża się. Pomimo oddawania ciepła
powierzchniowa warstwa gruntu pozostaje cieplejsza od powietrza z powodu
napływu coraz to nowych porcji promieniowania słonecznego. W nocy dopływ
energii do podłoża ustaje. W tej sytuacji ubytki energii nie są kompensowane, grunt
powoli się ochładza, a wraz z nim najbliższa warstwa powietrza. W okresie od
kwietnia do października, a więc w czasie pełni wegetacji, praktycznie nie istnieją
sytuacje doprowadzające do takiego wypromieniowania, które spowodowałoby
wyłącznie z tego powodu spadek temperatur poniżej granicy zero stopni Celsjusza.
Do przymrozków dochodzi więc najczęściej gdy wcześniej nad daną powierzchnię
napłynie warstwa chłodnego powietrza z obszarów północnych. Tak więc podział
przymrozków na radiacyjne i adwekcyjne nie jest absolutnie rygorystyczny. W
momencie gdy temperatura dolnej warstwy powietrza obniży się znacznie, wtedy
jako cięższa będzie pozostawać w tej strefie.
O skali zjawiska przymrozkowego decyduje w poważnym stopniu wilgotność
powietrza i zachmurzenie. Pierwszy z tych czynników zmienia warunki termiczne
poprzez oddawanie utajonego ciepła podczas kondensacji pary wodnej. Kondensacja
wywoływana bywa spadkiem temperatury powietrza. Zachmurzenie reguluje bardzo
ważny składnik bilansu wymiany ciepła pomiędzy podłożem, a atmosferą jakim jest
tzw. promieniowanie zwrotne. Rzadko dochodzi do sytuacji przymrozkowych przy
pełnym zachmurzeniu. Promieniowanie zwrotne skutecznie uzupełnia ubytki ciepła z
podłoża. Z kolei bezchmurne noce, przy wystąpieniu dwóch głównych przyczyn
pojawu przymrozków, są czynnikiem bezwzględnie sprzyjającym zjawisku.
Wiatr odgrywa bardzo ważną rolę zarówno w zakresie powstawania zagrożeń
przymrozkowych jak i ich późniejszej szkodliwości. Brak ruchów powietrza sprzyja
powstawaniu uwarstwienia i strefowości termicznej dolnej troposfery. Wiatry o
średniej i dużej prędkości powodują turbulencję i mieszanie się powietrza chłodnego
z ciepłym, zapobiegając powstawaniu przymrozków, zwłaszcza obejmujących niskie
obszary w rzeźbie terenu.
Generalizując należy stwierdzić, iż aby wystąpił przymrozek w okresie wegetacji
musi pojawić się kompleks meteorologicznych przyczyn w następującej kolejności:
Meteorologia rolnicza
129
napływ chłodnego powietrza nad ciepłe podłoże, niskie wartości składowych bilansu
promieniowania związane z warunkami sezonowo zmieniającej się irradiacji, niska
wilgotność powierza, brak zachmurzenia oraz cisza lub słaby wiatr. Główny powód
pojawiania się przymrozków związany jest z sytuacją synoptyczną, dlatego też
bardzo rzadko występuje klika nocy z rzędu z przymrozkami. Fale wiosennych i
jesiennych ochłodzeń powodują, iż jedna lub dwie noce przymrozkowe przedziela
noc lub kilka bez przymrozków. Ponadto statystyczny rozkład typów cyrkulacji
powietrza, informujący o powtarzalności zjawisk w atmosferze nad danym
terytorium, powoduje, że przymrozki pojawiają się z dużym prawdopodobieństwem
w pewnych charakterystycznych porach. W Polsce okresem tym jest czas między 12-
14 maja, zwany „zimnymi ogrodnikami”.
Miąższość przygruntowej warstwy zimnego powietrza zazwyczaj przekracza
znacznie wysokość strefy wzrostu roślin. Tym niemniej rośliny niższe o wiele
wcześniej i częściej znajdują się w strefie zagrożenia, niż wyższe jak na przykład
drzewa. Przyczyny meteorologiczne sprzyjające powstawaniu przymrozków nie
zawsze powodują, iż pojawią się szkody u roślin. O szkodliwości tego zjawiska
decyduje przede wszystkim pora wystąpienia i skala obniżki temperatury. W
przeciętnym roku pod względem przebiegu pogody, czas zagrożeń przymrozkowych
rozpoczyna się od momentu zakwitnięcia drzew owocowych (najwcześniej kwitnie
czereśnia). W tym także okresie przymrozki najbardziej szkodzą kulturom leśnym i
rolniczym. W tym ostatnim przypadku czas szczególnego zagrożenia objawia się w
trzeciej dekadzie kwietnia i dwóch pierwszych dekadach maja. Do roślin wysoce
wrażliwych na przymrozki należy bardzo liczna grupa gatunków warzyw, a wśród
nich ogórek, pomidor, fasola i wiele innych. Spośród grupy gatunków uprawy
polowej wrażliwymi na przymrozki są: kukurydza, ziemniak, gryka, burak cukrowy i
pastewny. Z powodu przymrozków następuje opóźnienie terminu siewu kukurydzy i
sadzenia ziemniaków wczesnych na terenach Polski północnej. Grykę wysiewa się w
obawie przed tym zjawiskiem dopiero w połowie maja, jednak ostatnie przymrozki
wiosenne występujące czasem w końcu maja, a nawet w czerwcu, niszczą niemal
całkowicie plantacje tej rośliny. Szczególnie niebezpieczne są sytuacje
przymrozkowe na terenach północno-wschodniej Polski, pojawiające się w drugiej
połowie maja i pierwszej dekadzie czerwca. Z kolei na terenach gdzie wegetacja
rozpoczyna się wcześniej, zagrożenie stanowią sytuacje przymrozkowe z końca
kwietnia i początku maja. Wczesne przymrozki jesienne bywają już mniej
niebezpieczne, gdyż większość roślin albo zeszła z pola, albo też jest obojętna na
wystąpienie takiej sytuacji. Przymrozki jesienne mogą natomiast być problemem dla
kukurydzy, zwłaszcza uprawianej z przeznaczeniem na ziarno. W takich sytuacjach
dochodzi po pogorszenia jakości surowca.
Tak jak w zakresie rozwoju pogody w ogóle, tak i w odniesieniu do przymrozków
ważna jest możliwość przewidywania ich wystąpienia. Wprawdzie w jednym jak i
drugim przypadku nie istnieją poważne metody wpływu na rozwój sytuacji, jednak z
Meteorologia rolnicza
130
przewidywań mogą wynikać działania ograniczające zakres wyrządzanych szkód. W
ogólności każda z metod prognozy przymrozków polega na znalezieniu zależności
pomiędzy temperaturą dnia poprzedniego (maksymalną lub o określonej porze), a
temperaturą minimalną nocy. Temperaturę wyjściową można zmierzyć, natomiast
obniżka następująca w wyniku wychłodzenia statycznego (adwekcja) i
dynamicznego (radiacja) jest wynikiem bardzo skomplikowanego układu zależności,
na który składa się wpływ cyrkulacji ogólnej i lokalnej oraz właściwości podłoża. Z
tego tytułu dość łatwo jest ustalić prawdopodobieństwo przymrozków dla dużego
obszaru bez wskazywania konkretnej lokalizacji. Aktualnie istnieje kilkaset metod
prognozowania przymrozków, lecz żadna z nich nie może być traktowana jako
uniwersalna. Zarówno bardzo uproszczone jak i rozbudowane, oparte na równaniach
regresji, metody muszą być dostosowane do warunków lokalnych. Przytoczone niżej
metody stanowią klasyczne przykłady odznaczające się przy tym prostotą
opracowania.
S Metoda Brounowa. Do oszacowania prawdopodobieństwa przymrozków używa
się wykresu obejmującego na rzędnej temperaturę z godziny 21, a odciętej
różnicę temperatur pomiędzy godziną 13 a 21. Biorąc pod uwagę wartości
zanotowane w danym dniu, otrzymamy na przecięciu linii, punkt położony w
obszarze określającym prawdopodobieństwo przymrozku oznaczone w
procentach. Wartość metody nie jest zbyt duża, gdyż z prawdopodobieństwa
zjawiska nie wynikają żadne zalecenia ani co do podejmowania akcji
przeciwdziałania, ani też co do jej zakresu i intensywności.
S Metoda Kammermanna. W tym przypadku przymrozek przewidujemy na
podstawie założenia istnienia stałej różnicy pomiędzy wskazaniem termometru
zwilżonego z godziny 13 i temperaturą minimum następnego ranka. Wartość
stałej różnic jest jednak właściwością danej lokalizacji (typy cyrkulacji ogólnej i
lokalnej, rzeźba terenu, przeważające rodzaje podłoża) i pory roku (miesiąca).
W metodzie tej ustalamy temperaturę minimalną, odejmując od temperatury
termometru zwilżonego, odnotowanej o godzinie 13, wartość ustalonej
wcześniej stałej.
S Metoda Langa-Mohna Michelsona. Niezbędnym dla przewidywań przymrozków
jest znajomość temperatury punktu rosy dla danej sytuacji atmosferycznej.
Powietrze zawierające dużą ilość pary wodnej będzie ograniczało spadek
temperatury poprzez uwalnianie ciepła utajonego. Jeżeli zawarta w powietrzu
para wodna osiąga stan nasycenia w temperaturze powyżej 0
o
C, to
prawdopodobnie nie dojdzie do przymrozku, gdyż uwolnione ciepło będzie
zapobiegało dalszemu oziębianiu.
Arsenał środków ograniczających skutki przymrozków jest duży, chociaż żaden z
nich nie daje 100% pewności. Coraz skuteczniejsze sposoby ochrony oznaczają
Meteorologia rolnicza
131
jednocześnie wzrost kosztów ich zastosowania. Przymrozki mogą być ograniczane
poprzez stosowanie ogrzewania i zadymiania zmniejszającego wypromieniowanie
efektywne, przez mechaniczne mieszanie powietrza (wiatraki), przykrywanie
powierzchni młodych zasiewów gałęziami, matami, foliami, hamowanie spływu
chłodnych mas powietrza do stref zagrożenia lub odpowiednie ukierunkowanie tego
spływu poza obszar tych stref, deszczowanie roślin i wiele innych.
Długość okresu wegetacji
Ważnym wskaźnikiem jakości warunków agroklimatycznych obszarów jest czas
trwania meteorologicznych okresów gospodarczych i wegetacyjnych. Pierwszy z nich
determinują czynniki termiczno-wodne, to znaczy temperatura powierza i stan
uwilgotnienia pól. W sensie czysto rolniczym okres gospodarczy wyznaczają daty
rozpoczęcia prac polowych wiosną i ich zakończenia jesienią. Wszelkie czynności
agrotechniczne na polach mogą być wykonywane po uzyskaniu takiego stopnia ich
wilgotności, który nie grozi nadmierną destrukcją cech fizycznych gleby pod
wpływem działania maszyn i narzędzi. Ustalając czas trwania tego okresu w sensie
meteorologicznym przyjmuje się datę początkową i końcową, przedziału, w którym
temperatura średnia dobowa ustala się na poziomie wyższym od +2,5
o
C. Podobnie
postępujemy, obliczając długość meteorologicznego okresu wegetacyjnego, z tym, iż
wartością graniczną temperatury jest +5
o
C. Liczba dni okresu wegetacyjnego w
Polsce (pomijając obszary górskie i podgórskie) wynosi od 180 do 220 i zmniejsza
się od południowego – zachodu ku północnemu wschodowi. Czasem jednak
dochodzi do znacznego jego skrócenia i sytuacja taka jest uważana za pogodowy
czynnik szkodliwy. Zmniejszenie czasu trwania omawianego okresu bywa
powodowane przedłużaniem się chłodów i czasu trwania zimy. Skracanie wegetacji
w Polsce dokonuje się w przeciętnej skali od 5 do 20 dni. Przy tym, obszary gdzie
sezon wegetacyjny rozpoczyna się najwcześniej, charakteryzują się też większą
częstością opóźnień i głębszą ich skalą. Podobnie kształtuje się problem
wcześniejszego obniżenia temperatury jesienią.
Szkodliwość skrócenia okresu wegetacji polega na tym, iż rośliny wysiewa się w
terminach odbiegających od optymalnych. Tymczasem wiadomo, iż owe terminy
gwarantują prawidłowy wzrost i rozwój, decydując o uzyskaniu najwyższych plonów.
Rośliny siane zbyt późno, dzięki regulacji fotoperiodycznej przyspieszają tempo
wegetacji, jednak zawsze dzieje się to kosztem wydajności. Skrócenie jesiennej
wegetacji nie pozwala albo na uzyskanie plonu o wymaganych parametrach
jakościowych lub też w ogóle uniemożliwia zbiór roślin z zamarzniętej gleby.
Ekstremalne warunki zaopatrzenia roślin w wodę
Czynnik wodny ma decydujące znaczenie dla produkcji rolniczej. Jeżeli potrzeby
roślin w tym zakresie zaspakajane są w granicach tolerancji, to można liczyć na
Meteorologia rolnicza
132
wysoki i jakościowo dobry plon. Jako sytuacje szkodliwe uznaje się natomiast
niedobory i nadmiary wilgoci.
Nadmierne opady powodują utrudnienia w zakresie prac polowych, przy tym
niekoniecznie chodzi tu o opady intensywne. Nawet długotrwałe opady dżdżu
uniemożliwiają wykonywanie wielu czynności technologicznych. Około 20% obszaru
kraju znajduje się w strefie występowania zjawiska erozji wodnej. Jest to proces
powodujący straty w produkcji rolniczej. Pojawia się on przede wszystkim na
terenach falistych, charakteryzujących się glebą podatną na zmywy powierzchniowe.
Ostatecznym jednak czynnikiem wywołującym erozję są intensywne opady
atmosferyczne. Intensywność opadów, zgodnie z definicją tej wielkości jest rzadko
mierzona, z tego też powodu operuje się ustalonymi wartościami granicznymi sum
opadów dobowych. Pierwsze objawy erozji powierzchniowej i wgłębnej pojawiają się
już przy sumach opadów dobowych powyżej 10 mm. Silną erozję na terenach
podatnych wywołują opady o wielkości ponad 25, a nawet 20 mm/dobę, w
zależności od spadku terenu. Nawet na terenach o małej skali zagrożenia
niebezpieczne są opady burzowe, typu oberwania chmur. W takich przypadkach
woda przemieszcza tysiące ton powierzchniowej warstwy gleby. Częstość opadów
wywołujących erozję jest różna na terenie kraju. Zjawiska opadowe o wartościach
przekraczających 10 mm na dobę, pojawiają się na terenach erodowanych z
częstością kilkanaście przypadków na rok, zaś wyższe od 20 mm/dobę, od 2 do
6/rok. Jak wykazały badania regionalne, w Polsce północno-wschodniej intensywne
opady charakteryzuje zmiana częstości w 4 letnim cyklu.
Opady burzowe, nawet jeżeli nie powodują erozji, bywają niekorzystne dla
rolnictwa z powodu dużej siły strumieni deszczu i towarzyszących wiatrów. Zjawiska
burzowe charakterystyczne są dla miesięcy najintensywniejszej operacji słonecznej,
gdy rozwijające się konwekcyjne prądy wstępujące, doprowadzają do powstania
mocno rozbudowanych chmur typu
Cumulonimbus. Przyczyny powstawania burz
związane są często z czynnikami lokalnymi, stąd pojawiają się one na obszarach
zwanych szlakami burzowymi. Generalnie więcej tego typu sytuacji pogodowych jest
charakterystycznych dla Polski południowej, a szczególnie południowo-wschodniej
(kontynentalne typy pogodowe). Zdecydowanie mniej burz notuje się natomiast na
terenach przybałtyckich, wzdłuż dolnej Wisły, a szczególnie na pograniczu Mazur i
Mazowsza. Opady burzowe powodują przede wszystkim duże szkody na plantacjach
zbóż, powodując ich wyleganie. Obalone przez opady i silne wiatry łany zbóż łatwo
ulegają porastaniu, co znacznie utrudnia zbiór mechaniczny. W pewnych
specyficznych okolicznościach chmura burzowa przynosi opady gradu. Dzieje się tak
wtedy, gdy typowe dla
Cumulonimbusa ruchy wstępujące i zstępujące osiągają
poziom górnej troposfery. Panująca tam temperatura sprzyja takiej koagulacji
składowych chmury, która prowadzi do powstawania bryłek lodu. W Polsce
opadające gradziny mają najczęściej średnicę nasion grochu, chociaż w świecie
pojawiają się takie ekstrema jak opady gradu wielkości piłek golfowych. Grad bywa
Meteorologia rolnicza
133
szkodliwy dla każdego gatunku uprawnego, jednak największe zagrożenie stanowi
dla łanów roślin szerokolistnych. Do szczególnie wrażliwych należy więc przede
wszystkim tytoń, a ponadto rośliny okopowo-korzeniowe, rzepak i inne. Burze
gradowe pojawiają się jeszcze bardziej regularnie wzdłuż typowych szlaków. Znane
są szlaki podsudeckie, małopolskie i lubelskie. Należy nadmienić, że w rejonach
tych notujemy największe obszary roślin szczególnie wrażliwych, w tym przede
wszystkim tytoniu.
Bardzo dużym problemem w rolnictwie jest sytuacja niedoboru opadów
atmosferycznych. Zjawisko posuch charakteryzuje się zakłóceniami w zakresie
bilansów wymiany wilgoci i ciepła między rośliną a otoczeniem. Zakłócenia te
pojawiają się w różnym czasie i skali w zależności od siedlisk. Gleby zwięzłe i
średnie, zawierające bogatszy kompleks koloidalny, są w stanie retencjonować
więcej wody i dłużej udostępniać ją roślinom. Na utworach lekkich niedobory
pojawiają się znacznie wcześniej. Z punktu widzenia meteorologicznego przyjmuje
się jednak jednolite wskaźniki posuch, bez rozróżniania rodzaju gleby. Jednym z nich
są tzw. ciągi bezopadowe, czyli okresy wielodniowe, podczas których nie
odnotowano żadnych opadów. Według wielu źródeł pierwszą wartością graniczną
minimalnej liczby dni bezopadowych, która może wywołać negatywne zjawiska dla
wegetacji roślin, jest dziesięć. Stany poważnych zagrożeń wywołują ciągi dłuższe niż
28 dni. Niekiedy jako charakterystykę stopnia zaspokojenia potrzeb wodnych, w
poszczególnych okresach, przyjmuje się sumę opadów danego okresu względem
przeciętnej wieloletniej na rozpatrywanym obszarze. Szkodliwość susz dla roślin
zależy od gatunku, odmiany, stadium zaawansowania wegetacji oraz w pewnym
stopniu od czynników technologicznych. Najgroźniejsze są susze w okresach
wczesnej i późnej wiosny oraz jesieni. W pierwszym przypadku największe straty
dotyczą plantacji zbóż jarych i buraka cukrowego, w drugim roślin późnego siewu
(za wyjątkiem ziemniaków). Susze jesienne utrudniają siewy ozimin i ograniczają
intensywność początkowego wzrostu i rozwoju (np. przedłużając ponad miarę okres
kiełkowania). W Polsce susze są dość częste, chociaż z dużą rzadkością przybierają
one charakter klęskowy. Biorąc pod uwagę terytorium całego kraju, można
zauważyć występowanie tego zjawiska z okresową zmianą częstości w cyklu 4-5
letnim. Ponadto głębsze susze lat osiemdziesiątych i dziewięćdziesiątych
występowały często po dwie w jednym cyklu.
Fenologia
Przedstawiony wyżej opis ujawnia skomplikowany obraz uwikłań wegetacji roślin
w przebieg warunków pogodowych. Nawet coraz doskonalsze metody oceny tych
warunków, nie są w stanie niekiedy sprostać wymogom praktyki rolniczej. Z tego
powodu, jako wskaźniki zastępcze dla oceny stanu parametrów atmosfery względem
potrzeb roślin, stosuje się uznane obserwacje zachowań przedstawicieli agrocenoz.
Meteorologia rolnicza
134
Rośliny bytujące w stanie naturalnym bardzo czule i precyzyjnie reagują na sumę
bodźców pogodowych. Spełnienie kolejnych potrzeb w tym względzie powoduje
osiąganie następujących po sobie faz rozwojowych. W tej sytuacji obserwacja
zjawisk w naturze stanowi rodzaj bardzo czułego wskaźnika, mogącego być
przydatnym dla oceny spełnienia wymagań klimatycznych względem potrzeb świata
roślinnego. Tego typu zagadnieniami zajmuje się nauka zwana fenologią. Dzięki
aktywności fenelogów ustalono między innymi kalendarium fenologiczne, dzielące
rok na pory, które tylko w nazwie nawiązują do pór astronomicznych. Klasyfikacje
polskich autorów najczęściej obejmują 8 fenologicznych pór roku, według
następujących kryteriów:
-
początek wiosny (pylenie leszczyny, kwitnienie podbiału, zawilca,
przylaszczki);
-
wczesna wiosna (listnienie brzozy, kwitnienie wierzby Iwy, mniszka
lekarskiego, konwalii, czereśni);
-
pełnia wiosny (kwitnienie jabłoni, kasztanowca, bzu lilaka, kłoszenie żyta);
-
wczesne lato (kwitnienie akacji, czarnego bzu, maliny, żyta, początek
sianokosów);
-
lato (kwitnienie lipy, dojrzewanie porzeczki, malin, wczesnych zbóż);
-
wczesna jesień (kwitnienie wrzosu, dojrzewanie owoców kasztanowca);
-
jesień (opadanie liści brzozy i kasztanowca);
-
zima (początek spoczynku zimowego roślin).
Fenologiczne pory roku informują o tempie sezonowych zmian pogodowych w
przyrodzie. Na tej podstawie można się zorientować w przebiegu warunków
wegetacji roślin rolniczych, można też w oparciu o te informacje decydować o
podejmowaniu różnorodnych prac polowych. Ważnym dla praktyki rolniczej
symptomem możliwości rozpoczęcia wiosennych prac polowych jest zakwitanie
przebiśniegu czy podbiału pospolitego. Z kolei do siewu owsa przystępuje się
obserwując początek zakwitania wierzby. W okresie gdy kwitną dwa popularne
gatunki drzew owocowych, wierzba i grusza, oznacza to, że można już wypędzać
bydło na pastwiska. Zakwitanie czereśni stanowi dobry prognostyk możliwości
sadzenia ziemniaków. Fenologicznym wskaźnikiem rozpoczęcia sianokosów jest
początek zakwitania traw. Moment ten oznacza jednocześnie, że uzyskamy siano o
najwyższej wartości odżywczej. Pojawy fenologiczne mogą także stanowić podstawę
do prognozowania przebiegu warunków pogodowych w danym roku. Dla obszaru
całego kraju opracowano dość dokładne kalendarze wskazujące na terminy zjawisk
wskaźnikowych. Porównując stan aktualny z danymi kalendarzowymi można łatwo
zorientować się na ile przebieg warunków pogodowych jest w danym roku typowy
(w ocenie kompleksowej wszelkich zjawisk pogodowych, a nie tylko jednego
wybranego czynnika) lub w jakim zakresie odbiega od norm. Termin pojawu danej
fazy fenologicznej umożliwia ocenę czy kolejne fazy będą ewentualnie przesunięte
w stosunku do układu typowego. Ponadto obserwacje fenologiczne pozwalają ustalić
Meteorologia rolnicza
135
rejony klimatyczno-glebowe, dla określenia zasięgu uprawy roślin
charakteryzujących się określonymi wymaganiami klimatycznymi.
Topoklimat, mikroklimat, fitoklimat
Prawidłowości układu warunków pogodowych występujące na dużych obszarach,
kształtujące się pod wpływem czynników największej skali oddziaływania, nazywane
bywają makroklimatem. Określenie topoklimat (mezoklimat), jak już wspomniano
wcześniej, dotyczy zjawisk w mniejszej skali. Ograniczając się tylko do zakresu tej
dziedziny wytwórczości, można wskazać na typowe rodzaje topoklimatu takie jak:
topoklimat płaskich obszarów rolniczych, topoklimat terenów urzeźbionych,
topoklimat terenów leśnych, topoklimat obszarów przylegających do zbiorników
wodnych, etc. Typowy topoklimat rolniczego obszaru nizinnego realizuje się według
reguł wyznaczanych przez rodzaj roślinności pól uprawnych. Poczynając od
topoklimatu i przechodząc ku dalszej skali uszczegółowienia, wkraczamy w strefę, w
której realizowane są życiowe procesy roślinne, ważne dla produkcji rolniczej.
Specyfika klimatu łanu (fitoklimatu, mikroklimatu) wyciska swoje piętno na obszarze
atmosfery w mikroskali.
Termika, ciepło oraz wilgotność powietrza w łanach roślin
Łany roślin uprawnych stanowią rodzaj powierzchni czynnych, przy udziale
których, realizują się specyficzne bilanse cieplne, mające znaczenie tak dla procesów
pogodowych w atmosferze jak i dla zespołów roślinnych, decydując o ich tempie
wzrostu i rozwoju. Postać bilansu energetycznego powierzchni czynnej wyraża wzór:
R
n
= LE + S + G = 0
gdzie:
Rn - saldo promieniowania
LE – strumień ciepła utajonego
S – strumień ciepła jawnego
G – strumień ciepła glebowego
Wielkość poszczególnych strumieni ciepła zależy od szeregu czynników
zewnętrznych. Istnieją także oddziaływania wewnętrzne pomiędzy strumieniami.
Przejawem tego typu zależności jest mechanizm zwany priorytetem parowania.
Mechanizm ten działa tak, iż jeżeli powierzchnia czynna dysponuje dostateczną
ilością wody, to istniejący zapas energii wykorzystywany jest na parowanie, a w
dalszej kolejności dopiero na ogrzanie powietrza i gleby.
Meteorologia rolnicza
136
Saldo promieniowania określa ilość energii użytecznej wykorzystywanej przez
ekosystem. Stosunkowo niewielka część tej energii asymilowana jest w biomasie,
reszta uczestniczy w procesie wymiany. W okresie dnia strumień ciepła jawnego z
atmosfery ogrzewa powierzchnię czynną. Wieczorem i w nocy sytuacja ulega
odwróceniu i ciepło powierzchni czynnej przenika do atmosfery tworząc układ zwany
inwersją temperatury. Dodatkowo wymiana dotyczy również ciepła utajonego, który
to proces realizuje się podczas przemian fazowych wody. Na dowolnym poziomie
szaty roślinnej można określić saldo promieniowania (R
np
) jako sumę wszystkich
składowych uczestniczących w wymianie:
R
np
= R
tp
– R
tr
+ R
ld
– R
lu
gdzie:
R
tp
- napromieniowanie całkowite na daną powierzchnię szaty roślinnej
R
tr
- promieniowanie słoneczne odbite od danej powierzchni
R
ld
- promieniowanie długofalowe skierowane w głąb szaty roślinnej
R
lu
-
promieniowanie długofalowe emitowane przez szatę roślinną
Główną rolę w kształtowaniu gospodarki energią w łanie odgrywają liście roślin.
Od ich ilości, wielkości, kąta ustawienia, barwy, etc. zależy wielkość poszczególnych
składników bilansu. Z tego też powodu znając napromieniowanie całkowite możemy
obliczyć saldo promieniowania jako funkcję współczynnika pokrycia liści LAI (leaf
area index) :
R
np
(L) = R
tp
(1-r).exp(-0,622
.
L +0,055
.
L
2
)
gdzie:
r – współczynnik odbicia całkowitego promieniowania słonecznego
L – LAI
Salda promieniowania na poszczególnych poziomach wysokości łanu różnią się
niekiedy znacznie. W przebiegu dobowym sald najmniejsze różnice pomiędzy
warstwą powierzchniową, a znajdującą się tuż przy gruncie, występują w porach
wieczornej, nocnej i rannej. W ciągu dnia dysproporcje te pogłębiają się osiągając
maksimum w okresie najintensywniejszego napromieniowania słonecznego. W dzień
słoneczny spadek wartości salda promieniowania, wraz z przemieszczaniem się w
głąb szaty roślinnej, jest większy niż w dzień pochmurny.
Gospodarka energetyczna łanu roślin w dużym stopniu wpływa na temperaturę
gleby. W ciągu dnia dopływ energii, a tym samym jej przychód od gleby, wyraźnie
zmniejsza się. Tymczasem w nocy szata roślinna wyraźnie chroni powierzchnię gleby
przed utratą energii w formie promieniowania długofalowego.
W zakresie gospodarki wodnej w przyrodzie można wydzielić system: podłoże-
roślina-atmosfera, który zapewnia wzrost i rozwój organizmów roślinnych.
Meteorologia rolnicza
137
Niezależnie od wielowątkowych zadań, które realizują się dzięki systemowi, jego
funkcjonowanie podlega zasadzie, która mówi, iż gęstość strumienia wody
przepływającej w systemie jest wprost proporcjonalna do gradientu siły
powodującej przepływ i odwrotnie proporcjonalna do oporu jaki stawia materia
przez, którą woda przepływa. Strumień wody wpływający do systemu jest równy
strumieniowi wody wypływającemu przez liście, plus woda konstytucyjna
wbudowana w składniki organizmu.
Przepływ wody przez roślinę rozpoczyna się od strefy korzeniowej. Pobrana woda
z otoczenia tej strefy powoduje powstanie różnic potencjału od wilgotniejszych
objętości gleby do korzenia. Ponadto istnieje drugi mechanizm wytwarzania różnic
potencjału – parowanie powierzchniowe. W ten sposób woda z głębszych warstw
profilu podsiąka do stref korzeniowych. Rośliny mogą pobierać wodę aktywnie dzięki
mechanizmowi przenikania osmotycznego oraz biernie na zasadzie różnicy
potencjału ciśnieniowego wody w glebie i korzeniu.
Woda w roślinie przemieszcza się systemem naczyń od korzenia aż do tkanek,
dzięki stałemu utrzymywaniu różnicy potencjałów pomiędzy różnymi organami.
Możliwe są inne kierunki przepływu, zawsze jednak od potencjału wyższego do
niższego.
Ostatnim procesem w omawianym systemie jest transpiracja, polegająca na
wyparowywaniu wody przez kutikulę lub szparki. Intensywność transpiracji zależy od
gradientu ciśnienia pary wodnej, wielkości otwarcia szparek i od ilości energii
wykorzystywanej do parowania wody. Strumień pary wodnej wypływający z
powierzchni roślin do atmosfery niesie z sobą porcję energii utajonej. Stosunek
energii strumienia parowania z danej powierzchni do energii ciepła jawnego
wypromieniowywanego, nazywa się stosunkiem Bowena (
Bowen ratio).
- = S/LE
gdzie:
S -
strumień ciepła jawnego
LE - strumień ciepła utajonego
W agrometeorologii transpirację rozpatruje się wespół z parowaniem z
powierzchni gleby i określa mianem ewapotranspiracji. Rozróżniamy
ewapotranspirację potencjalną (ETP) i rzeczywistą (ETR). Wartości rzeczywiste
dotyczą konkretnej powierzchni parującej (gleby i roślinności) w danym czasie i
oznaczamy je w milimetrach (mm). Podobnie w milimetrach wyrażamy
ewapotranspirację potencjalną, która zachodziłaby w danym miejscu przy
nieograniczonych zasobach wody. Pomiędzy tymi wielkościami istnieje relacja:
ETR = k
.
ETP
gdzie:
Meteorologia rolnicza
138
k - zależny jest od fazy rozwojowej rośliny (f) i od wskaźnika zawartości wody
dostępnej dla roślin w glebie (x
w
).
Pomiarów ewapotranspiracji rzeczywistej dokonuje się za pomocą przyrządów
zwanych ewaporometrami glebowymi bądź lizymetrami. Można też oszacować tę
wartość przy pomocy metod pośrednich. Ustalono szereg formuł matematycznych
opisujących relację parowania rzeczywistego w stosunku do czynników
zewnętrznych, jednak posiadają one szereg wad, do których zalicza się przede
wszystkim konieczność wykonywania innych skomplikowanych pomiarów
parametrów dolnej troposfery, gleby i rośliny.
Najprostsze metody wyliczeń ETP wywodzą się z zależności statystycznych jakie
istnieją między podstawowymi parametrami meteorologicznymi, a wielkością
parowania z otwartych powierzchni wodnych. Wzory empiryczne na wyliczenie ETP
należy stosować tylko w odniesieniu do obszarów dla, których zostały one
opracowane. Wynika to z faktu, iż do ich ustalenia użyto danych statystycznych z
tych właśnie terenów. Poniżej zaprezentowano kilka tego typu wzorów.
N wzór Schmucka
E = 30 .
$d
gdzie:
E = suma parowania za okres półroczny w mm
d – średni miesięczny niedosyt wilgotności powietrza w mm Hg
S wzór Tichomirowa
E =d
.
(15+3
.
v)
gdzie:
d – średni miesięczny niedosyt wilgotności powietrza w mm Hg
v - średnia miesięczna prędkość wiatru na wysokości od 10-15 m
S wzór Iwanowa
E=0,0018
.
(25=t)
2
.
(100-f)
gdzie:
t – średnia miesięczna temperatura powietrza w
o
C
f – średnia miesięczna wilgotność względna w %
S wzór Baca
E = 3d
.
av +0,344
.
Rs
gdzie:
d – średni miesięczny niedosyt wilgotności powietrza w hPa
Rs – suma miesięczna promieniowania całkowitego w kWh
Meteorologia rolnicza
139
Dla produkcji rolniczej ważne są wskaźniki ogólnie charakteryzujące pokrycie
zapotrzebowania roślin na wodę. Najprostszym z nich jest wzór na określenie
stopnia suchości, który wyraża różnicę pomiędzy wielkością opadów
atmosferycznych a ewapotranspiracją :
S
s
= P-ETR
W bardziej rozbudowanej postaci formułę tę prezentuje Sarnacka:
N = P - ETR - WŁDp + WŁDk + H
gdzie:
N- niedobory w mm
ETR - ewapotranspiracja rzeczywista,
P - opad
WŁDp - woda łatwo dostępna (stan początkowy),
WŁDk - woda łatwo dostępna (stan końcowy),
H- odpływ.
Można też liczyć stopień uwilgotnienia jako iloraz tych wartości:
S
w
= P/ETR
W literaturze przedmiotu spotykamy też często oszacowania tzw. współczynnika
hydrotermicznego Sielianinowa. Jest to iloraz sumy opadów miesięcznych przez
jedną dziesiątą sumy temperatur miesiąca:
K=P/0,1
$t
Miesiąc, w którym wartość współczynnika hydrotermicznego jest mniejsza od 1,
określany jest mianem posuszny, zaś przy wartościach poniżej 0,5 mamy do
czynienia z intensywną posuchą.
Topoklimat terenów szczególnych
Bardzo ważnym elementem, kształtującym warunki mikroklimatyczne w łanach
roślin jest topografia terenu. Na wszelkie zależności wynikające z bardzo subtelnych
niekiedy oddziaływań między rośliną uprawną a atmosferą, nakłada się dodatkowy
czynnik różnicujący – ekspozycja danej powierzchni. Czynnik ten w pierwszym
rzędzie decyduje o przychodach energii. Jak już wskazywano w rozdziale
dotyczącym promieniowania słonecznego, rozstrzyga o tym kąt padania promieni
słonecznych. Stoki południowe charakteryzuje większy przychód energii w
Meteorologia rolnicza
140
porównaniu z północnymi, z tego powodu, że do tych ostatnich wielokroć nie
dociera w ogóle promieniowanie bezpośrednie. Wystawy południowe wzmacniają
napromieniowanie powierzchni, gdyż kąty padania promieni są tu zawsze wyższe.
Na stok północny natomiast promieniowanie bezpośrednie dociera jedynie wówczas,
gdy wysokość Słońca nad horyzontem przewyższa kąt spadku stoku. W tym też
przypadku napromieniowanie jednostki powierzchni jest zawsze mniejsze niż
powierzchni stoku południowego, a nawet ustawionej poziomo. Powierzchnie stoków
absorbujących energię słoneczną wpływają na wartość temperatur przylegających
dolnych obszarów troposfery. Zróżnicowanie temperatur bywa zwykle największe tuż
przy samej powierzchni i stopniowo maleje wraz z wysokością. Podczas pięknej
słonecznej, bezwietrznej pogody, nad powierzchniami stoków południowego i
północnego wytwarza się różnica temperatur przekraczająca kilka stopni. W czasie
nocy oraz dni chłodniejszych pojawia się dodatkowa stratyfikacja termiki w rzeźbie.
Zwykle najcieplej jest wtedy w pobliżu wierzchowiny, najchłodniej u podnóża. Dzieje
się tak dlatego, że chłodniejsze powietrze spływa w dół (nocą), zaś cieplejsze
wędruje ku górze po stoku (w dzień). Różnice w stopniu napromieniowania
przeciwległych powierzchni terenu urzeźbionego nie zawsze przekładają się
proporcjonalnie na różnice temperatur powietrza. Zwłaszcza wtedy gdy wieje wiatr z
prędkością przekraczającą 2 m/sek. Następuje wówczas wymieszanie zalegających
mas powietrza, zaś różnice w termice nie przekraczają 1
o
C. Układ powierzchni
stokowych wpływa także na inne parametry agrometeorologiczne. Jednym z nich
jest zróżnicowany rozkład opadów. Szczególnie wyraziście objawia się to zjawisko
przy dużych różnicach wzniesień na terenach wyżynnych i górskich. Tam też można
wyznaczyć tzw. gradient hipsometryczny, czyli zmianę sumy opadów wraz ze zmianą
wysokości terenu nad poziom morza. Tereny wyżej położone, do pewnych
wysokości granicznych, otrzymują większe porcje opadów, po ich przekroczeniu
sumy opadów maleją. Na falistych terenach, o małych deniwelacjach, użytkowanych
rolniczo notuje się także przestrzenne zmiany wielkości opadów. Wiąże się to
głównie z przenoszeniem strumieni opadów przez silniejsze podmuchy wiatru.
Działanie takie jest szczególnie widoczne na terenach pojeziernych,
charakteryzujących się urozmaiconą kopulastą rzeźbą. Pomiary wykazały, iż
najmniejszą porcję wody uzyskują partie wierzchołkowe, w których silniejsze
podmuchy wiatru, typowe dla tej części stoku, znoszą deszcz na odległość kilku do
kilkunastu metrów. Jeszcze silniejsze przestrzenne zróżnicowanie dotyczy opadów
śniegu i następnie rozłożenia pokrywy śnieżnej. Na wierzchołkowych, otwartych
przestrzeniach śnieg jest wywiewany, jego warstwa pozostaje najcieńsza i wiosną
najszybciej ulega roztopieniu. Z kolei u podnóży i na stokach północnych pokrywa
śniegowa zalega najdłużej opóźniając wiosenne ruszenie wegetacji roślin. Wraz z
różnym rozkładem opadów atmosferycznych pojawia się zmienna wilgotność
powietrza. Nad powierzchniami stoków i wierzchowin panuje zwykle najniższa
Meteorologia rolnicza
141
wilgotność względna, w przeciwieństwie do części osłoniętych, zalegających w
dolnych partiach.
Swoiste warunki mikroklimatyczne kształtują się również w otoczeniu zbiorników
wodnych. Zasięg zmian zależy tu od wielkości powierzchni wodnej. Mikroklimat tych
obszarów warunkuje przede wszystkim różna charakterystyka cieplna wody i
przylegającego lądu. W ciągu dnia woda nagrzewając się wolniej utrzymuje niższą
temperaturę powietrza w bezpośrednim otoczeniu. Z kolei w nocy sytuacja staje się
odwrotna, w pobliżu zbiorników wodnych jest cieplej. Układ taki tworzy zjawiska
podobne do wiatrów bryzowych. Także w czasie zimy zamarznięty zbiornik wodny
zmniejsza tarcie powietrza, zwiększając szybkość wiatrów. Kolejnym efektem
bliskości otwartych powierzchni wodnych na mikroklimat przylegających pól jest
częstsze tworzenie się mgieł, w tym charakterystycznej mgły z wyparowania.
Podobnie jak zbiorniki wodne, oddziaływają tereny podmokłe. W takich jednak
sytuacjach woda, jako istotny składnik środowiska glebowego, reaguje nieco
swoiście z powietrzem w zakresie wymiany ciepła. Nie występuje tu bowiem
wymiana wgłębna ciepła. Tereny nadmiernie uwilgotnione, bagienne, torfowe
uważane są za zimne. Zwłaszcza wiosenna wegetacja na nadmiernie uwilgotnionych
glebach organicznych lub w pobliżu rozleglejszych obszarów podmokłych, jest
znacznie opóźniana.
Tereny leśne same w sobie wytwarzają typowy klimat, którego najbardziej
charakterystycznymi cechami są: zmniejszony dopływ energii do podłoża i
wolniejsza jej utrata, dłużej zalegająca pokrywa śniegowa, zatrzymywanie znacznej
części opadów atmosferycznych przez korony drzew. W ciągu dnia najwyższą
temperaturą charakteryzują się części koron drzew, zaś w strefie poszycia panuje
temperatura najniższa, najniższe jest tu również nasłonecznienie. Z punku widzenia
rolniczego ważnym jest, iż kompleksy leśne wpływają na mikroklimat przylegających
terenów. Lesistość jest bowiem w pierwszym rzędzie czynnikiem zwiększającym
sumy opadów atmosferycznych. W otoczeniu takich obszarów łagodnieje prędkość
wiatru, zmniejszają się kontrasty termiczne w ciągu pór roku i części doby.
Rolnictwo dostrzegło pożytki wynikające z istnienia drzewostanu w pobliżu pól już w
ubiegłym wieku. Idea ta znalazła praktyczny wyraz w budowaniu zadrzewień
śródpolnych na obszarach bezleśnych, przyczyniających się do znacznej poprawy
mikroklimatu pól. W warunkach nowoczesnego rolnictwa pasy zadrzewień stały się
jednak przeszkodą dla wykonywania prac polowych, tak że idea ta stopniowo traci
na znaczeniu.
Rozrastające się aglomeracje, zwłaszcza w połączeniu z istniejącymi zakładami
przemysłowymi, powodują tworzenie się enklaw typowego mikroklimatu miejskiego.
Najbardziej wyrazistą cechą tego mikroklimatu jest podniesienie średniej
temperatury powietrza o 1-2 stopni w otoczeniu wielkich metropolii. Inne zjawiska
występują w pobliżu terenów kopalnych. Kopalnie wszelkiego rodzaju ingerują w
stosunki wodno-powietrzne gruntu, zmieniając tym samym właściwości cieplne
Meteorologia rolnicza
142
podłoża oraz temperaturę i wilgotność powietrza. Kompleksowe oddziaływanie tego
typu terenów na kształtowanie warunków mikroklimatycznych wegetacji roślin jest
ujemne, pomimo, iż przykładowo zwiększona koncentracja dwutlenku węgla może
być traktowana jako czynnik stymulujący wydajność roślin.
Agrometeorologiczna osłona rolnictwa
Po okresie biernego, opisowego podejścia do zagadnień związanych z relacją
pomiędzy warunkami pogodowymi, a wzrostem i rozwojem roślin, mamy aktualnie
do czynienia z kreowaniem bardzo szczegółowych zaleceń produkcyjnych na bazie
nagromadzonej wiedzy i bieżącego monitoringu środowiska. W odróżnieniu od
innych dyscyplin ze sfery nauk rolniczych generujących postęp, zalecenia
agrometeorologiczne przekazywane do praktyki w sposób tradycyjny, mają
ograniczoną wartość. Jedynie najbardziej ogólne zasady postępowania w
określonych sytuacjach pogodowych mogą docierać do odbiorców w formie
książkowo-broszurowej. Ze względu na dynamikę zmian pogodowych koniecznym
jest przekazywanie zaleceń w czasie rzeczywistym, bez opóźnień. Najlepiej zadanie
to może spełnić system składający się z sieci obserwacyjnej, centrów gromadzenia i
przetwarzania danych, środków łączności z odbiorcami informacji (rolnikami).
Naukowcy zajmujący się tą dziedziną określają system jako agrometeorologiczną
osłonę rolnictwa. Niezależnie od konkretnych rozwiązań techniczno –
organizacyjnych, wszystkie jego elementy muszą istnieć oraz działać precyzyjnie i
niezawodnie. Idea systemu nie jest wprawdzie całkiem nowa, jednak wczesne
rozwiązania z tego zakresu pozostawały mało efektywne z dwóch powodów. Po
pierwsze, z powodu niskiej sprawności sieci pomiarów parametrów
agrometeorologicznych, sieci składającej się z klasycznych zestawów instrumentów,
z których odczyty wykonywano manualnie. Po drugie, z przyczyny braku
odpowiednich narzędzi modelowych pozwalających na spożytkowanie pozyskanych
danych. Aktualnie większość tych trudności zostało przełamanych. Praktycznie rzecz
biorąc nie istnieją przeszkody techniczne dla dowolnego kształtowania każdego z
elementów systemu. Zadania pomiarowe spełniają doskonale automatyczne, zdalnie
sterowane, stacje agrometeorologiczne, omówione pod względem technicznym w
rozdziale pierwszym. Stacja taka działa w sposób ciągły i może być
zaprogramowana do rejestracji każdego parametru meteorologicznego, z dowolną
częstotliwością. Dzięki automatyce w sieci można zainstalować niezbędną ilość
stacji, taką aby zapewniła maksimum reprezentatywności pomiarów dla
specyficznych pogodowo obszarów. Dobrą praktyką, stosowaną w krajach
przodujących w tego typu rozwiązaniach, jest zintegrowanie specjalistycznych
urządzeń agrometeorologicznych z ogólną siecią meteorologiczną. Wynikają z tego
korzyści dla obydwu systemów. Rezultaty pomiarów trafiają do centrów
gromadzenia i przetwarzania drogą radiową lub poprzez sieć telefoniczną. Dane,
Meteorologia rolnicza
143
które zbiera centrum przetwarzania podlegają weryfikacji, zapisaniu w
specjalistycznej bazie danych i następnie obróbce cyfrowej na użytek zaleceń
agrometeorologicznych. System przetwarzania generuje wyniki, dające się zaliczyć
do 3 kategorii. Pierwsza z nich to ostrzeżenia o pogodowych zjawiskach szkodliwych,
mogących spowodować poważne straty w produkcji. Będą to przykładowo
ostrzeżenia o przymrozkach, nadchodzących ulewnych opadach, gradobiciach etc.
Odrębną kategorię stanowią odpowiednio spreparowane dane, które mogą być
wykorzystywane przy podejmowaniu ważnych decyzji organizacyjnych i
technologicznych. Typowym przykładem z tego zakresu jest informacja o
spodziewanej prędkości i kierunku wiatru, niezwykle istotna w przypadku aplikacji
środków ochrony roślin, pozwalająca uniknąć skażeń środowiska czy zniszczenia
sąsiednich plantacji. Do tej kategorii zaliczają się także informacje o zapasach wody
pozimowej w glebie, zasobach ciepła w okresie wegetacji oraz zasobach wody
użytecznej pod plantacjami roślin. Trzecia wreszcie grupa przetworzonych danych to
wyniki obliczeń uzyskanych z wykorzystaniem modeli matematycznych. Dzięki
modelom i danym pozyskanym dla ich obsługi, możliwe jest prognozowanie rozwoju
roślin i tła meteorologicznego tego rozwoju, w różnych perspektywach czasowych.
Najczęściej prognozy określają terminy wznowienia wegetacji roślin po okresie
zimowym, daty pojawu ważniejszych faz i czasu ich trwania. Znajomość tempa
rozwoju roślin stwarza możliwość zaplanowania prac w gospodarstwie, zakupu
środków produkcji, precyzyjnego sformułowania umów na zlecane usługi, określenia
terminów i wielkości dostaw produktów rolnych do punktów skupu. Modelowaniu
podlegają także zjawiska związane z inwazyjnością chorób i szkodników, która to
inwazyjność w dużym stopniu zależy od przebiegu warunków pogodowych.
Właściwością modeli prognostycznych jest to, iż ich sprawdzalność wzrasta w miarę
zaawansowania wegetacji. Tak więc zbliżając się do finalnych stadiów rozwojowych
uzyskujemy coraz wyższą trafność przewidywań, a błąd prognozy spada poniżej
10% Część informacji powstała na bazie modeli może być wykorzystywana szerzej,
nie tylko w obrębie pojedynczego gospodarstwa. Tak więc korzyści z istnienia
systemu mogą odnosić także instytucje administracyjne, usługowe, handlowe i
techniczne pracujące na rzecz rolnictwa, bądź z nim związane.
Ostatnie ogniwo systemu to przekaz informacji dla odbiorców. W tym względzie
możliwych jest wiele rozwiązań, z tym, że największe perspektywy istnieją przed
systemem elektronicznym na bazie internetu. Internet bowiem nie tylko zapewnia
najprostszy sposób przesyłu, ale jednocześnie daje szansę dostępu do ściśle
wyspecyfikowanych danych oraz ich interaktywne wykorzystanie. Należy wyraźnie
podkreślić, iż pełne i efektywne spożytkowanie informacji z systemu nie zależy tylko
od jego naukowej, technicznej i organizacyjnej sprawności. Niezwykle ważnym jest
też odpowiednie przygotowanie odbiorców. Wprawdzie część danych i zaleceń
można wykorzystać bezpośrednio, część z nich jednak wymaga uwzględnienia
dalszych warunków kształtujących procesy produkcyjne. Tak więc większe korzyści z
Meteorologia rolnicza
144
systemu wyniosą osoby z odpowiednim wykształceniem rolniczym lub te, które
skorzystają ze specjalistycznego przygotowania kursowego.
Rys. 43. Okno internetowe sieci automatycznej stanu Georgia, USA. Interaktywny
kalkulator bilansów wodnych .
Opisany powyżej schemat organizacyjny sieci oraz jego walory użytkowe, to
rzeczywistość spotykana w krajach o wysokim poziomie rozwoju. Przodują w tym
względzie przede wszystkim Stany Zjednoczone. Na użytek rolnictwa bardzo
efektywnie pracują sieci stanowe, z najstarszą, bo powstałą w połowie lat
osiemdziesiątych siecią AZMET, obsługującą stan Arizona. Należy podkreślić, iż część
kosztów funkcjonowania sieci ponoszą jej bezpośredni beneficjanci, wymuszając
przy tym wysoką jakość usług oraz ich sukcesywne ulepszanie czy rozszerzanie.
Podobne rozwiązania techniczno-organizacyjne istnieją w krajach Unii Europejskiej.
Polskie rolnictwo, nękane przeciwnościami różnej natury, nie może też liczyć na
osłonę agrometeorologiczną, w tak zaawansowanym wydaniu. Wprawdzie
odpowiedzialne instytucje wykonują na użytek rolnictwa w tym względzie dużo -
zainteresowani mogą korzystać z okresowych informacji agrometeorologicznych,
Meteorologia rolnicza
145
opisowych i w formie zaleceń – to jednak system ten nie jest interaktywny, działa z
pewnym opóźnieniem i nie zapewnia dostatecznej reprezentatywności.
Rys. 44. Okno internetowe sieci automatycznej stanu Georgia, USA. Wyniki oznaczeń
warunków rozwoju roślin bieżących i przewidywanych na tle danych wieloletnich.
REFERENCJE
Bac, S., Koźmiński Cz., Rojek M. 1998, Agrometeorologia. PWN Warszawa
Czaja S. 1998. Globalne zmiany klimatyczne. WeiŚ Białystok
Dzieżyc J. 1989. Potrzeby wodne roślin uprawnych. PWN Warszawa
Il’ko J. 1992. Minileksykon – Meteorologia. PWN Warszawa
Kędziora A. 1996. Podstawy agrometeorologii. PWRiL Warszawa
Kożuchowski K. 1998. Atmosfera, klimat, ekoklimat. PWN Warszawa.
Łykowski B., Madany R. 1980 Materiały do ćwiczeń z agrometeorologii. SGGW
Warszawa
Łykowski B. i inni. 1995. Wybrane zagadnienia z klimatologii ogólnej i
stosowanej, Fundacja „Rozwój SGGW”, Warszawa
Radomski Cz. 1973. Agrometeorologia, PWN Warszawa
Rojek M., Żyromski A.
1994. Agrometeorologia i Klimatologia, AWR Wrocław
Schönwiese CH.D
. 1997. Klimat i człowiek. Prószyński i S-ka.
Szwejkowski Z. 1999. Zeszyt do ćwiczeń z agrometeorologii. Wydawn. ART
Olsztyn.
Woś A. 1996, Meteorologia dla geografów, PWN Warszawa
ILUSTRACJE
Fot 1. Automatyczna stacja agrometeorologiczna firmy Eijkelkamp, zainstalowana na
Stacji Badawczej w Tomaszkowie
koło Olsztyna
Ilustracje
148
Fot. 2. Przykłady chmur wysokich
Ilustracje
149
Fot. 3. Przykłady chmur średnich
Ilustracje
150
Fot. 4. Przykłady chmur niskich warstwowych
Ilustracje
151
Fot. 5. Przykłady chmur niskich kłębiastych