Grawimetria
1. Co to jest siła ciężkości. Co to jest wartość normalna siły ciężkości i jakim ulega ona zmianom. Uzasadnij dlaczego
Siła ciężkości, pot. ciężar wypadkowa siły z jaką Ziemia lub inne ciało niebieskieprzyciąga dany obiekt oraz siły
odśrodkowej wynikającej z obiegu określonego obiektu wokół Ziemi (ciała niebieskiego).
Jednostką ciężaru w układzie SI jest niuton, jednak nadal dozwolone jest używanie jednostek spoza układu SI,
specjaliści stosują np. kilogram-siłę kgf[1].
Ciężar jako siła jest wielkością wektorową wektor ciężaru skierowany jest w każdym miejscu przestrzeni do środka
ciężkości układu planeta ciało (w przypadku rotacji synchronicznej), co w praktyce oznacza środek ciężkości planety.
Wartość normalna siły ciężkości- teoretyczna wartość siły ciężkości na powierzchni odniesienia (nosi nazwę wartości
normalnej siły ciężkości)
2. Co to są drugie pochodne potencjału siły ciężkości jak można je wyznaczyć
Drugie pochodne potencjału siły ciężkości:
Å›ðW
gn =ð -ð
Å›ðn
gn -ð przyspieszenie
dW -ð pot.s.c
dn -ð n.s.c.
Drugie pochodne krzywiznowe:
Wxy,DðW =ð Wyy -ðWxx
Gradient różnicy krzywizn głównych normalnych przekrojów powierzchni odniesienia wynosi:
2
2
R =ð W Dð +ð (ð2Wxy)ð
Gradient R jest miarÄ… odchylenia powierzchni odniesienia od powierzchni
W(ðx, y, z)ð =ð const
Drugie pochodne gradientowe:
Wxz,Wyz,Wzz
Poziomy gradient siły ciężkości (w płąszczyznie xy):
2
dg
=ð Wxz +ð Wyz 2
ds
Azymut wektora gradientu poziomego siły ciężkości:
Wy 2
tgað =ð
Wx 2
Pionowy gradient siły ciężkości:
dg
=ð Wzz
dz
1
1E =ð 10-ð9
Jednostka. Etwesz:
s2
Waga skręceń- do mierzenia drugich pochodnych
3. Geoida sens fizyczny i definicja
Geoida- to powierzchnia ekwipotencjalna potencjału siły ciężkości, która pokrywa się ze średnim poziomem mórz i
oceanów.
W =ð (ðx, y, z)ð=ð const.(ðstala)ð
Geoida odzwierciedla właściwości fizyczne budowy Ziemi, nieciągłości jej krzywizny odpowiadają nieciągłością w
rozkładzie mas we wnętrzu Ziemi.
Geoida bryła, której powierzchnia w każdym miejscu jest prostopadła do pionu wyznaczonego przez siłę ciężkości.
Geoida jest teoretycznąpowierzchnią, na której potencjał siły ciężkości Ziemi jest stały, równy potencjałowi siły
ciężkości na średnim poziomie mórz otwartych i przedłużoną umownie pod powierzchnią lądów. Ponieważ zawiera
ona lustro wody w morzach i oceanach, dodatkowo określana jest jako Geoida Zerowa. Jako powierzchnia
ekwipotencjalna, geoida w każdym swym punkcie jest prostopadła do kierunku siły ciężkości (lokalnegopionu)[1].
Pojęcie wprowadził w 1873 roku niemiecki matematyk Johann Benedict Listing[2].
Ponieważ 71% powierzchni Ziemi stanowią oceany, najbardziej reprezentatywne przybliżenie figury Ziemi stanowi
geoida. Jednak pod lądami przebieg geoidy jest skomplikowany ze względu na bardzo urozmaicony rozkład
przestrzenny gÄ™stoÅ›ci, głównie w przypowierzchniowych warstwach skorupy ziemskiej[3]. Henri PoincaréwykazaÅ‚, że
jest niemożliwe wyrażenie w sposób ścisły równania geoidy na obszarze lądów i oceanów jedną funkcją analityczną[4].
Przebieg geoidy jest efektem równowagi pewnych sił, jest ona zatem powierzchnią dynamiczną, stale ulegającą
pewnym okresowym zmianom. W praktyce korzysta się z modelu geoidy, czyli zbioru liczb będących wartościami
wysokości geoidy w węzłach siatki geograficznej.
4. Co to są anomalie siły ciężkości. Jak można je wyznaczyć
Anomalia siły ciężkości w geofizyce różnica między zmierzoną (i zredukowaną do poziomu elipsoidy) w danym
punkcie siłą ciężkości anormalną siłą ciężkości na danej szerokości geograficznej. Zwyczajowo mierzona jest
w miligalach (mGal), rzadko stosuje siÄ™ milimetry na sekundÄ™ do kwadratu (mm/s2).
W celu określenia anomalii, należy dla zmierzonej siły ciężkości zastosować szereg poprawek:
·ð poprawka wolnopowietrzna (Faye'a) sprowadza punkt pomiarowy do poziomu elipsoidy
·ð poprawka na pÅ‚ytÄ™ pÅ‚askorównolegÅ‚Ä… uwzglÄ™dnia masy leżące miÄ™dzy punktem pomiaru a powierzchniÄ…
odniesienia
·ð poprawka topograficzna uwzglÄ™dnia wpÅ‚yw uksztaÅ‚towania otaczajÄ…cego terenu
·ð poprawka lunisolarna uwzglÄ™dnia wpÅ‚yw oddziaÅ‚ywania sÅ‚oÅ„ca iksiężyca.
Na podstawie anomalii siły ciężkości można określić położenie i kształt niektórych struktur geologicznych. Obiekty o
gęstości wyższej, niż otoczenie (np. rudy) oddziałują dodatnio na siłę ciężkości, natomiast te o gęstości mniejszej
(kawerny, wysady solne) ujemnie. Należy przy tym zaznaczyć, że nad łańcuchami górskimi anomalie są ujemne, a
nad morzami dodatnie spowodowane jest to zjawiskiem izostazji. W centralnych Alpach typowa wartość anomalii
wynosi 150 mGal ( 1,5 mm/s2). Anomalie spowodowane dużymi i głęboko zalegającymi strukturami noszą nazwę
anomalii regionalnych i rzadko stanowią obiekt badań geofizyka stosowana wykorzystuje anomalie lokalne (należy je
oddzielić od anomalii regionalnych na drodze interpretacji jakościowej).
Wartość obliczonych anomalii siły ciężkości pozwala wyciągnąć wnioski o budowie geologicznej przebadanego
rejonu. Anomalia siły ciężkości jest różnicą wartości zredukowanej siły ciężkości a wartością normalną siły ciężkości
w danym punkcie. Wartości normalne są wyliczone dla idealnej Ziemi w kształcie elipsoidy z jednorodnym rozkładem
mas. Stopień niejednorodności w rzeczywistym rozkładzie mas górotworu można określić na podstawie wielkości
anomalii siły ciężkości. Wyróżnia się anomalie lokalne i regionalne siły ciężkości. Podział ten uwzględnia obszar,
który one obejmuję. Pierwsze np. mogę identyfikować niejednorodności w strukturach geologicznych opisanych
anomaliami regionalnymi.
Graficzne przedstawienie rozkładu anomalii siły ciężkości na tle planu lub mapy topograficznej nosi nazwę mapy
grawimetrycznej (punkty o tych samych wartościach anomalii są połączone izoliniami).
5. Dlaczego przy wyznaczaniu anomalii siły ciężkości musimy przeprowadzać redukcje pomiarów. Wymień rodzaje
redukcji
Interpretacja fizyczna Redukcji Wolnopowietrznej to wgniecenie (przesunięcie) mas poniżej poziomu odniesienia.
Redukcja ta spełnia w znacznej mierze postulaty teorii Stokesa, regularyzuje geoidę i tylko w małym stopniu ją
deformuje. Agwp = g Å‚o + Rwp
Redukcja i Anomalia Faye a rożni się od redukcji i anomalii wolnopowietrznej uwzględnieniem nierówności terenu
wokół punktu czyli wprowadzeniem wprowadzeniem poprawki terenowej. AgF = g ło + Rwp+ "gt
Fizyczna interpretacja Redukcji Bouguera przedstawia się, jako usunięcie matematyczne tzw. płyty bugerowskiej.
Takie usunięcie sporej ilości mas spod punktu grawimetrycznego prowadzi do deformacji geoidy. RgB nie nadaje się do
badania figury Ziemi w myśl koncepcji Stokesa. Jednak regularyzuje geoidę, usuwając masy o przyjętej gęstości
znajdujÄ…ce siÄ™ ponad geoidÄ…. AgB = g Å‚o + Rgwp + RgB
Redukcja Poincarégo - Preya skÅ‚ada siÄ™ z nastÄ™pujÄ…cych etapów: - wygÅ‚adzenie otoczenia punktu pomiarowego, czyli
wprowadzenie poprawki terenowej do przyśpieszenia w punkcie na powierzchni Ziemi, 1.usunięcie grawitacyjnego
wpływu mas zawartych między poziomem stanowiska a powierzchnią odniesienia, co równoważne jest z
wprowadzeniem redukcji Bouguera RgB, 2.przesunięcie punktu pomiarowego na poziom odniesienia za pomocą
redukcji wolnopowietrznej Rgwp, 3. przywrócenie usuniętego przyciągania mas, a więc uwzględnienie przyciągania
tych mas w punkcje na powierzchni odniesienia; wpływ przyciągania mas jest równy redukcji Bouguera RgB, 4.
odtworzenie grawitacyjnego wpływu rzezby terenu na przyśpieszenie siły ciężkości w punkcie położonym na
powierzchni odniesienia "gt ; poprawka ta nie jest taka sama jak poprawka terenowa uwzględniona na początku
procesu redukcyjnego.
RgPP = (3,0855 0,0008372 * Ã) * H + "gt + "gt
Redukcja ta nie regularyzuje geoidy. Nie można dlatego znalezć bezpośredniego zastosowania jej w badaniach
związanych z teorią Stokesa. Ma natomiast duże znaczenie w teorii niwelacji precyzyjnej przy opracowaniu poprawek
grawimetrycznych w różnych systemach wysokości.
W celu określenia anomalii, należy dla zmierzonej siły ciężkości zastosować szereg poprawek:
·ð poprawka wolnopowietrzna (Faye'a) sprowadza punkt pomiarowy do poziomu elipsoidy
·ð poprawka na pÅ‚ytÄ™ pÅ‚askorównolegÅ‚Ä… uwzglÄ™dnia masy leżące miÄ™dzy punktem pomiaru a powierzchniÄ…
odniesienia
·ð poprawka topograficzna uwzglÄ™dnia wpÅ‚yw uksztaÅ‚towania otaczajÄ…cego terenu
·ð poprawka lunisolarna uwzglÄ™dnia wpÅ‚yw oddziaÅ‚ywania sÅ‚oÅ„ca iksiężyca.
6. Interpretacja jakościowa anomalii siły ciężkości cel i metody
Interpretacja jakościowa pozwala uzyskać dane co do lokalizacji struktur zaburzających, polega na opisie związków
anomalii lokalnych i regionalnych z przyczynami wywołującymi je w świetle geologicznych warunków ich
występowania.
Wyznaczona za pomocą grawimetrów wartość przyśpieszeni siły ciężkości jest wynikiem nakładania się wielu struktur
geologicznych głębszych (regionalnych) i płytszych (lokalnych).
W wyniku interpretacji jakościowej wyróżnia się z pomiarów anomalie lokalne od regionalnych.
7. Interpretacje ilościowe anomalii siły ciężkości (sens i metody)
Interpretacja ilościowa polega na analizie wydzielonej anomalii w powiązaniu z budową geologiczną rejonu badań.
Zadaniem interpretacji ilościowej jest określenie kształtów, rozmiarów, głębokości i innych parametrów interesujących
nas obiektów geologicznych.
8. Niejednoznaczność interpretacji ilościowej w grawimetrii wymienić na czym polega i jak ją można ograniczyć
Występuje w tej analizie zbyt dużo niewiadomych, dlatego aby ograniczyć ich ilość stosuje się zakres zmienności. Przyjmuje się za znane:
kształt ciała zaburzającego (po dopasowaniu do wzorca), zasięg głębokościowy ciała, znana jest najcześciej różnica gęstości. W ten sposób
można ograniczyć się do kilku alternatyw. Dla potwierdzenia stosuje się inne metody.
9. Budowa i zasada działania grawimetru względnego.
Punkty pomiarowe są stabilizowane na powierzchni terenu. Można je stabilizować na trwale (jeśli obserwacje
grawimetryczne będą powtarzane co jakiś czas) lub tylko na czas pomiarów (realizacji zadania poszukiwawczego).
Grawimetr jest przyrządem do pomiarów względnych zmian siły ciężkości. Jego podstawowy element pomiarowy to
ramię, na końcu którego umocowano masę. W momencie pomiaru siła ciężkości działająca na masę równoważona jest
przez sprężynę lub układ sprężyn kwarcowych, na których utrzymywane jest ramię z masą. Wielkość deformacji
sprężyny stanowi miarę zmiany siły ciężkości. Dokładność grawimetrów posiadanych przez Zakład Geofizyki wynosi
0,01 mGal (10 mGal) [jednostka natężenia siÅ‚y ciężkoÅ›ci - gal; 1 Gal = 10-2N× kg-1].
10. Definicja anomalii Bouguera siły ciężkości. Co jest zródłem anomalii
Poziomem odniesienia może być np. przy pomiarach lokalnych poziom przechodzący przez najniżej położony punkt.
Zazwyczaj takim poziomem jest poziom morza (powierzchnia geoidy). Wyniki pomiarów grawimetrycznych są
sprowadzane do jednego poziomu odniesienia redukcją Bouguera. Uwzględnia ona: wysokość punktu nadpoziom
odniesienia, wpływ grawitacyjny mas położonych nad przyjętym poziomem odniesienia. Redukcje uzupełnia się
poprawkami siły ciężkości: topograficzną, urbanistyczną, luni-solarną, uwzględniającą dryft przyrządu.
·ð Bouguera uwzglÄ™dnia wpÅ‚yw mas znajdujÄ…cych siÄ™ pomiÄ™dzy pow. odniesienia a
stanowiskiem. Anomalia:
·ð Anomalia grawimetryczna jest to różnica miÄ™dzy zmierzonÄ… wartoÅ›ciÄ… siÅ‚y ciężkoÅ›ci wyznaczonÄ…
grawimetrycznie w danym miejscu powierzchni Ziemi a tzw. wartością normalną obliczoną teoretycznie z modelu
pola siły ciężkości GRS80;
·ð delta g= g0-y0
·ð Jest to tzw. anomalia Bouguer'a siÅ‚y ciężkoÅ›ci wyznaczona z różnicy miÄ™dzy wartoÅ›ciÄ… siÅ‚y ciężkoÅ›ci
zredukowaną do poziomu odniesienia g0 i wartością normalną y0 w danym punkcie pomiarowym.
11. Istota i zasada pomiaru bezwzględnego siły ciężkości grawimetrem balistycznym
Grawimetr absolutny balistyczny FG-5.
Aparatura działa na zasadzie rejestracji czasu i drogi swobodnego
pionowego spadku próbnika w wysokiej próżni. Posiada laserowy
interferometr Michelsona. OsiÄ…gana precyzja to 2,5*10-8 m/s2, czyli
2,5 mikrogala. Jest to urządzenie przenośne.
Urządzenie służy do bezwzględnych wyznaczeń natężenia siły
ciężkości Ziemi. Rejestracja wskazań instrumentu pozwala na
śledzenia zmian w czasie przyspieszenia ziemskiego i określania
wartości tego parametru w miejscach badań geodynamicznych i na
stanowiskach podstawowej sieci grawimetrycznej kraju oraz w
międzynarodowych kampaniach kalibracyjnych, organizowanych przez
Międzynarodowe Biuro Grawimetryczne International Association of
Geodesy.
Planetologia
1. Scharakteryzuj 2 najważniejsze rodzaje sił oddziałujących na obiekty materialne w kosmosie. Jaki jest rezultat ich
oddziaływania.
ZAKAADAM ISTNIENIE GRAWITACYJNYCH ODDZIAAYWAC NASTPUJACYCH RELACJI:
·ð OBIEKT MATERIALNY - OBIEKT MATERIALNY
·ð OBIEKT MATERIALNY - CIEMNA MATERIA
Oddziaływanie grawitacyjne pomiędzy obiektami materialnymi stara się te obiekty do siebie zbliżyć i szybko maleje wraz z rosnącą
odległością. Natomiast grawitacyjne oddziaływanie pomiędzy ciemną materią a obiektem materialnym wpływa hamująco na wszelki
ruch obiektu względem cząstek ciemnej materii. Działa jak klej grawitacyjny. Ta wszechobecna hamująca siła jest niezmiernie mała, ale
bardzo istotna przy jeszcze mniejszych siłach grawitacyjnego przyciągania pomiędzy obiektami odległymi.
Jeżeli obiekty materialne dzieli niewielka odległość, przeważają wtedy siły przyciągania pomiędzy obiektami materialnymi, grawitacyjny wpływ
ciemnej materii praktycznie nie ma znaczenia.
Wraz ze wzrostem odległości, gdy oddziaływanie grawitacyjne pomiędzy obiektami materialnymi szybko maleje, zaczyna mieć znaczenie
grawitacyjny wpływ ciemnej materii na obiekty materialne. Znaczenie oddziaływania ciemnej materii jest tym większe, im większa odległość
dzieli obiekty materialne. W efekcie pomiędzy obiektami odległymi, grawitacyjne oddziaływanie relacji obiekt materialny - obiekt materialny,
praktycznie nie istnieje, bowiem zostaje zdominowane przez grawitacyjne oddziaływanie relacji obiekt materialny - ciemna materia.
W ten sposób otrzymujemy model Wszechświata, któremu nie grozi grawitacyjny kolaps ani rozproszenie w nicość. Chociaż w modelu tym nie
występują siły dosłownie rozumianego odpychania kosmicznego, to jednak skutki grawitacyjnego oddziaływanie ciemnej materii na materię są
zgodne z tymi, jakich oczekiwał Albert Einstein od hipotetycznego odpychania kosmicznego. Otrzymujemy model Wszechświata, który
ekspanduje i jednocześnie jest stacjonarny.
2. Prawo Titusa-Bodego. Interpretacja prawa Titusa-Bodego Sens fizyczny i wynikajÄ…ce z niego wnioski dotyczÄ…ce
układu słonecznego.
Reguła Titiusa-Bodego
Reguła Titiusa-Bodego hipoteza, według której średnie odległości planet od gwiazdy centralnej w Układzie
Słonecznym spełniają dość dokładnie pewne proste arytmetyczne prawo.
Historia odkrycia
Hipoteza ta została przedstawiona w 1766 roku przez Daniela Titiusa[1] i opublikowana w roku 1772 przez
dyrektora obserwatorium astronomicznego w Berlinie Johanna Elerta Bodego; od nazwisk tych dwóch badaczy
pochodzi nazwa. W niektórych zródłach odkrycie reguły przypisywane jest niemieckiemu filozofowi Christianowi
Wolffowi w roku 1724, a nawet Davidowi Gregory'emu[2].
Prawo to dość wiernie odtwarzało wielkie osie wszystkich planet do Saturna włącznie, ale pozostawiało puste miejsce
na planetę pomiędzy Marsem a Jowiszem. Odkrycie przez Williama Herschela Urana o orbicie położonej dalej i
rozszerzającej zasięg działania reguły Titiusa-Bodego dodatkowo wzmocniło przekonanie, że pomiędzy Marsem a
Jowiszem musi znajdować się dodatkowa planeta[3]. W roku 1801 Giuseppe Piazzizaobserwował pierwszą planetoidę,
znajdującą się we wskazanym miejscu, znaną obecnie pod nazwą Ceres, której orbita o wielkiej półosi wynoszącej 2,77
j.a. doskonale pasowała do przewidywań wzoru (2,8 j.a.)[1]; zapoczątkowało to odkrycie wielu ciał w obszarze znanym
obecnie jako pas planetoid.
Reguła
Pierwotna formuła brzmiała :
gdzie:
·ð a Å›rednia odlegÅ‚ość planety od SÅ‚oÅ„ca
·ð n 0, 3, 6, 12, 24, 48, ..., każda nastÄ™pna liczba jest podwojeniem poprzedniej.
Ostatecznie reguła przyjęła następującą postać:
Średnia odległość a planety od Słońca w jednostkach astronomicznych:
gdzie:
k = 0, 1, 2, 4, 8, ..., (ciąg kolejnych potęg dwójki wraz z zerem)
Astronomowie nie są zgodni co do powodu, dla którego satelity Słońca spełniają omówioną zależność, ani
co do tego, czy podobne reguły mają zastosowanie również do innych układów.
Za prawdopodobne wyjaśnienie uważa się, że rezonans orbitalny powstający pomiędzy ciałami w Układzie
Słonecznym powoduje powstanie obszarów "zabronionych", w których brak orbit o długich okresach
stabilności. Wyniki symulacji procesów planetotwórczych wydają się sugerować, że reguły podobne do
reguły Titiusa-Bodego stanowią naturalną konsekwencję procesów planetotwórczych[4].
Badania pozasłonecznych systemów planetarnych także sugerują, że pewien rodzaj reguły Titiusa-Bodego
może być prawem uniwersalnym[5]. Analizę szczególnie bogatego układu planetarnego wokół gwiazdy HD
10180przeprowadził Lovis i współpracownicy, wykazując istnienie co najmniej pięciu, a może siedmiu
planet w tym układzie. Planety te, a także kilka innych układów planetarnych, składających się z co
najmniej trzech planet, wskazują na istnienie czegoś w rodzaju reguły Titiusa-Bodego[6]. Materiał
obserwacyjny jest jednak na razie zbyt ubogi, aby można było z niego wyciągnąć bardziej kategoryczne
wnioski.
Konfrontacja reguły z rzeczywistością
średnia odległość od Słońca w j.a.
element
k
Układu Słonecznego
według Titiusa-Bodego rzeczywista
Merkury 0 0,4 0,39
Wenus 1 0,7 0,72
Ziemia 2 1,0 1,00
Mars 4 1,6 1,52
Pas planetoid 8 2,8 2,17 3,64
Jowisz 16 5,2 5,20
Saturn 32 10,0 9,54
Uran 64 19,6 19,2
Neptun 128 38,8 30,1
Pluton[a] 39,5
256 77,2
(136199) Eris[b] śr. 68,05[7]
W powyższej tabeli widać wyjątki od reguły Titiusa-Bodego:
·ð Nie ma planety pomiÄ™dzyMarsem a Jowiszem, jednakże w przestrzeni pomiÄ™dzy nimi istnieje pas
planetoid. Pierwszaplanetoida, Ceres, została odkryta przez Piazziego w roku 1801, jej średnia
odległość od Słońcawynosi 2,77 j.a.,
·ð Neptun znajduje siÄ™ dużo bliżej, niż zakÅ‚ada reguÅ‚a. MiÄ™dzy innymi dlatego po jego odkryciu rozpoczÄ™to
poszukiwania dziewiątej planety (do 2006 roku uważano, że jest to Pluton),
·ð W sekwencji brakuje obiektów Pasa Kuipera.
3. Co to jest gwiazda? Co jest zródłem emitowanej energii?
Gwiazda kuliste ciało niebieskie stanowiące skupisko powiązanej grawitacyjnie materii w stanie plazmy
bądzzdegenerowanej. Przynajmniej przez część swojego istnienia gwiazda w sposób stabilny emituje powstającą w
jej jądrze w wyniku procesów syntezy jądrowej atomów wodoru energięw postaci promieniowania
elektromagnetycznego, w szczególności światło widzialne. Gwiazdy zbudowane są głównie z wodoru i helu, prawie
wszystkie atomy innych cięższych pierwiastków znajdujące się we Wszechświeciepowstały w efekcie zachodzących w
nich przemian jądrowych lub podczas wieńczących ich istnienie wybuchów.
Gwiazda powstaje wskutek kolapsu obłoku molekularnego chmury materii złożonej w większości z wodoru, a także
helu oraz śladowych ilości cięższych pierwiastków. Gdy jądro gwiazdy osiągnie dostatecznie dużą gęstość, rozpoczyna
się proces stopniowej zamiany składającego się nań wodoru w hel na drodze stabilnych reakcji fuzji jądrowej[1].
Pozostała część materii gwiazdy przenosi energię wyzwalaną w tym procesie z jądra w przestrzeń kosmiczną za
pomocą procesów transportu promieniowania oraz konwekcji. Powstałe w ten sposób ciśnienie wewnętrzne zapobiega
dalszemu zapadaniu się tworzącej gwiazdę materii pod wpływem grawitacji. Gdy wodór w jądrze ulegnie wyczerpaniu,
gwiazdy o masie równej przynajmniej 0,4 masy Słońca[2] znacznie się powiększają i ulegają przeobrażeniu wczerwone
olbrzymy, które w niektórych przypadkach zdolne są spalać cięższe pierwiastki bezpośrednio w jądrze bądz w
powłokach je otaczających. Gwiazda rozpoczyna wtedy ewolucję do formy zdegenerowanej, zwracając część swojej
materii składowej w przestrzeń, gdzie utworzy ona kolejne pokolenie gwiazd o większej zawartości ciężkich
pierwiastków[3].
Astronomowie mogą ustalić masę, wiek, skład chemicznyoraz wiele innych cech gwiazdy, badając
jej spektrum,jasność oraz drogę, jaką przebywa w przestrzeni kosmicznej. Masa gwiazdy stanowi główną determinantę
procesu jej ewolucji oraz sposobu, w jaki zakończy ona swe życie. Inne parametry gwiazdy, takie jak średnica,
prędkość obrotu wokół własnej osi, sposób poruszania się oraz temperatura, określa się na podstawie jej
dotychczasowej ewolucji. Wykres zależności pomiędzy temperaturami gwiazd a ich jasnością nosi nazwę diagramu
Hertzsprunga-Russella (H-R) i pozwala oszacować wiek gwiazdy oraz określić stadium życia, w którym się ona
znajduje.
Z wyjątkiem najbliższej naszej planecie gwiazdy Słońca oraz niektórych supernowych[a], gwiazdy można
obserwować z powierzchni Ziemi jedynie na nocnym niebie, gdyż wtedy nie przyćmiewa ich Słońce[b]. Najlepiej
widocznym na sferze niebieskiej gwiazdom od dawna nadawano różne nazwy, łączono je także w gwiazdozbiory.
Astronomowie pogrupowali gwiazdy oraz inne ciała niebieskie w katalogi astronomiczne, które zapewniają
ujednolicone nazewnictwo tych obiektów.
Wiele gwiazd, choć nie większość[4], jest związanych grawitacyjnie z innymi, tworząc układy
podwójne lubwieloskładnikowe układy gwiazd, w których owe ciała niebieskie poruszają się wokół siebie po w miarę
stabilnychorbitach. W ciasnych układach podwójnych, gdzie dwie gwiazdy krążą w małej odległości, ich wzajemne
oddziaływanie może istotnie wpływać na przebieg procesów ich ewolucji[5]. Gwiazdy nie są jednorodnie rozrzucone
we Wszechświecie, lecz wchodzą w skład dużych struktur utrzymywanych dzięki sile grawitacji, takich
jak gromady czy galaktyki.
Rozgwieżdżone niebo inspirowało prace wielu poetów, pisarzy, filozofów oraz muzyków, niejednokrotnie
bezpośrednio angażowali się oni w prowadzenie badań astronomicznych[6].
yródłem promieniowania gwiazd, a więc i Słońca, są reakcje jądrowe, w których jądra pierwiastków chemicznych
cięższych budowane są z jąder pierwiastków lżejszych. Wyzwala się przy reakcjach tego rodzaju energia wiązania
poszczególnych składników jąder atomowych przechodząc w energię wiązania poszczególnych składników jąder
atomowych przechodzÄ…c w energiÄ™ promieniowania. Protony i neutrony w jÄ…drach atomowych zwiÄ…zane sÄ… bardzo
dużymi siłami jądrowymi. Jeżeli do jądra atomowego dołączona zostanie jakaś cząstka, np. proton lub neutron,
powstanie wtedy nowe jądro atomowe. Szczególnie istotnymi reakcjami są te, gdzie w jądro uderzają protony. Aby
mogły one pokonać odpychanie elektrostatyczne muszą mieć wielkie prędkości, inaczej mówiąc reakcje takie
występować mogą tylko w wysokich temperaturach. Dlatego noszą one nazwę reakcji termojądrowych. Proton
przenikając do jądra atomowego zostaje związany z pozostałymi składnikami jądra, protonami i neutronami, siłami
jÄ…drowymi. PowstajÄ…cy podczas reakcji tego rodzaju nadmiar energii bywa emitowany w postaci kwantu promieni
gamma, bądz uniesiony przez wyrzuconą z jądra cząstkę elementarną (proton, neutron, elektron, bądz pozyton). Część
energii bywa unoszona przez cząstki neutrino, którym przypisuje się masy zerowe.
Przy wyzwalaniu energii podczas reakcji tego rodzaju można uwzględnić prawo Einsteina, wyrażające się wzorem:
E = m0c2,
gdzie m0 jest masą spoczynkową cząstki, c prędkością światła, a E całkowitą energią cząstki o masie m0. Przy
procesie powstawania jąder atomowych z cząstek elementarnych , któremu towarzyszy emisja energii, masa nowo
powstającego jądra powinna być mniejsza od sumy mas poszczególnych jego składników. Tak jest w przypadku jądra
helu.
Już w roku 1915 Harkins wysunął przypuszczenie, że we wnętrzu gwiazdy budowany jest hel z wodoru, a tę samą
możliwość przewidywał Eddington w roku 1920. Dopiero jednak około roku 1940 poznano reakcje termojądrowe,
które mogą prowadzić do syntezy helu z wodoru i tym samym mogą być zródłem energii promieniowania gwiazd.
Znamy dwa rodzaje reakcji termojądrowych, przy których z czterech jąder atomowych wodoru powstaje jądro helu.
Pierwszy rodzaj nosi nazwę protonowo-protonowego (cykl p-p) i zachodzi w temperaturach niższych. Jest to
zasadnicze zródło promieniowania Słońca. Cykl ten zachodzi w temperaturach nie wyższych niż 15-16 milionów
stopni.
W wyższych temperaturach może występować bardziej złożony cykl węglowo-azotowy (cykl C-N), wykryty w roku
1939 przez amerykańskiego fizyka Bethe go.
W cyklu węglowo-azotowym dla pełnej efektowności wymagana jest temperatura 18,5 milionów stopni. We wnętrzu
gwiazd głównego ciągu występują prawdopodobnie oba cykle budowy helu z wodoru, cykl p-p i cykl C-N.
Z chwilą, gdy wodór we wnętrzu gwiazdy zostanie zużyty do tego stopnia, że synteza helu z wodoru staje się mało
efektywnym zródłem promieniowania gwiazdy, tworzy się w środku gwiazdy jądro helowe o temperaturze powyżej
100 mln stopni i zaczyna się budowa cięższych pierwiastków chemicznych z cząstek ą, przy czym najbardziej
prawdopodobna jest reakcja nosząca nazwę 3ą , w której z trzech jąder atomowych helu powstaje jądro atomowe
węgla.
Omówię teraz zródła energii Słońca. Strumień energii płynący z wnętrza Słońca ku jego powierzchni pokrywa straty,
jakie Słońce ponosi na skutek stałego wysyłania w przestrzeń promieniowania. To promieniowanie jest bardzo duże i
ma moc 3,9 * 1033 ergów/s [jednostka mocy, energii i ciepła; 1 erg = 10-7J]. Żeby Słońce mogło pracować z
niezmienną mocą musi ono mieć masę przeszło 4 milionów ton. O tym, że Słońce promieniuje od bardzo dawna,
wiemy z badań pokładów geologicznych, świadczących, że Ziemia w ciągu całego swego istnienia otrzymywała od
Słońca energię w niezmiennej w przybliżeniu ilości. Ziemia zaś istnieje już od około 4,5 miliarda lat, a więc w Słońcu
powinny istnieć zródła energii zapewniające mu nie ulegającą poważniejszym zmianom moc promieniowania w tak
długim przedziale czasu. Już w XIX wieku wypowiadano różne hipotezy co do zródeł energii Słońca. Największym
powodzeniem wtedy cieszyła się teoria kontrakcyjna, czyli teoria kurczenia się, wypowiedziana przez Helmoltza.
Zgodnie z tą teorią Słońce miało się stale kurczyć, a podczas kurczenia zmniejszałaby się jego energia potencjalna
przechodząc częściowo w energię cieplną. Część tej energii byłaby zużywana na podniesienie temperatury we wnętrzu
Słońca, a część pokrywałaby straty ponoszone przez Słońce na skutek promieniowania. Jednak kurczenie Słońca nie
może dostarczyć energii na tak długie odstępy czasu, jak tego wymaga wiek Ziemi, gdybyśmy bowiem założyli, że
Słońce miało kiedyś rozmiary tak wielkie jak cały układ planetarny i skurczyło się do rozmiarów obecnych, to górna
granica wieku Słońca wyniosłaby zaledwie 20 milionów lat. Gdy nie były jeszcze znane metody wyznaczania wieku
Ziemi, czas ten wydawał się dostatecznie długi. Z chwilą jednak poznania wieku Ziemi, taki krótki okres życia Słońca
stał się nie do przyjęcia i trzeba było szukać wydajniejszych zródeł energii.
Dostatecznie wydajne zródła energii promieniowania słonecznego znajdujemy dopiero w przemianach termojądrowych
we wnętrzu Słońca. Wystarczy tylko jedna dziesiąta masy Słońca, aby dzięki reakcjom termojądrowym wytworzyć
dostateczną ilość energii, która pokryłaby straty jakie Słońce ponosi na skutek promieniowania. Synteza helu z wodoru
we wnętrzu Słońca sprawia, że helu tam przybywa, a wodoru ubywa. Z biegiem czasu powinna się w Słońcu
wytworzyć jądro helowe. Słońce, którego wiek liczy się na jakieś 5 miliardów lat, ma znikomo małe takie jądro. Jednak
będzie ono wzrastać wraz ze spadkiem zawartości wodoru we wnętrzu Słońca. Przypuszczalnie w środku tej gwiazdy
już wypaliło się około 25% wodoru. Gdy wodoru zostanie tam tylko 1%, wodorowe reakcje termojądrowe nie
zdołają utrzymać temperatury i ciśnienia, potrzebnych do zrównoważenia naporu grawitacyjnego gazów słonecznych,
centralne obszary zaczną się kurczyć, przy czym temperatura ich wzrośnie powyżej 100 milionów stopni. Nastąpi
wtedy nowy etap rozwoju Słońca. Przypuszczalnie dla Słońca stanie się to za jakieś 5 miliardów lat, do tego zaś czasu
zmiany w energii promieniowania Słońca będą stosunkowo nieznaczne, czyli Ziemia ma zapewniony przypływ energii
ze Słońca w dotychczasowych rozmiarach jeszcze w ciągu około 5 miliardów lat. Po upływie tego czasu ilość energii
przychodzącej ze Słońca na Ziemię gwałtownie wzrośnie.
4. Omów najważniejsze reakcje jądrowe zachodzące we wnętrzu gwiazd.
Procesy jÄ…drowe
zachodzÄ…ce w
gwiazdach
Reakcje syntezy lekkich jąder są podstawowym zródłem energii wszechświata. Słońce - gwiazda, która dostarcza energii niezbędnej do życia na naszej planecie Ziemi, i w której 94%
masy stanowi wodór i hel - jest reaktorem, w którym odbywa się synteza jądrowa helu. Wydziela się przy tym trudna do wyobrażenia ilość energii. Przebieg procesu zachodzącego w
SÅ‚oÅ„cu zostaÅ‚ wyjaÅ›niony przez fizyka Hansa A. Bethego. Taki sam cykl zostaÅ‚ niezależnie, w tym samym czasie, podany przez fizyka Carla von Weizsäckera. WedÅ‚ug Bethego głównÄ…
reakcją termojądrową w tym procesie jest synteza helu z wodoru przy współudziale niewielkiej ilości węgla C-12, spełniającego funkcję katalizatora.
Zgodnie z teorią jądro wodoru, czyli proton, oddziałuje z jądrem 12C:
13
N jest pierwiastkiem promieniotwórczym i ulega przemianie ²+:
Trwałe jądro 13C reaguje z następnym, drugim protonem:
Następnie powstały trwały izotop - azot-14 - reaguje z trzecim protonem, przekształcając się w nietrwały tlen-15:
Tlen-15 ulega przemianie ²+:
Wreszcie azot-15 reaguje z czwartym z kolei protonem:
Chociaż możliwe jest powstanie 16O w tych warunkach, głównie przebiega reakcja odtwarzania jądra 12C.
Po dodaniu wszystkich powyższych równań okazuje się, że sumaryczną reakcję, zwaną cyklem węglowym, można przedstawić następująco:
Jak widać węgiel działa w tych reakcjach jak katalizator, który bierze udział w reakcji, ostatecznie nie ulegając przemianie. Model ten jednak przewiduje inną moc od wartości uzyskiwanej
na Słońcu. Obecnie badacze przypuszczają, że reakcje jądrowe w Słońcu zachodzą poprzez łańcuch protonowo-protonowy:
Sumarycznie przemiana ta wygląda następująco:
Według obecnego stanu wiedzy cykl węglowy występuje w gwiazdach o wyższych temperaturach (jaśniejszych) niż Słońce.
Okazuje się, że długość życia gwiazdy jest funkcją jej masy. Gwiazdy o masie zbliżonej do Słońca żyją około 10 miliardów lat. Gwiazdy o większej masie - krócej.
Gdy wyczerpuje się paliwo jądrowe (głównie wodór przekształcający się w hel), gwiazda nadal wypromieniowuje swoją energię, a więc traci swoją masę i stopniowo się kurczy. Jeżeli
masa gwiazdy nie przewyższała masy Słońca więcej niż 1,44 razy, to kurczenie się ustaje w chwili, gdy gęstość materii gwiazdy osiągnie wartość ok. 109 g/cm3. Promień takiej gwiazdy
zmniejsza się do kilku tysięcy kilometrów. Gwiazdę w takim stadium ewolucji nazywamy biały karłem. Po zamienieniu się w białego karła gwiazda nadal stygnie, lecz na skutek ciśnienia
w jej wnętrzu, pochodzącego od oddziaływań między ciasno upakowanymi elektronami plazmy (tworzącej materie gwiazdy), promień już się nie zmienia. Ponieważ ciśnienie we wnętrzu
gwiazdy nie zależy już od temperatury, jej rozmiary w miarę wypalania nie ulegają zmianie. Po wystygnięciu biały karzeł przekształca się w czarnego karła.
W gwiazdach o znacznie większej masie od Słońca panują inne warunki - jest tam wyższa temperatura i zachodzą inne reakcje termonuklearne. Na przykład wśród czerwonych
olbrzymów, u których w otoczkach wokół jądra helowego zachodzi synteza helu z wodoru, reakcje przebiegają z udziałem litu lub innych lekkich pierwiastków. Gwiazdy o masie większej
niż 1,44 masy Słońca, po osiągnięciu gęstości większej od 109 g/cm3, ulegają dalszemu kurczeniu na skutek zachodzących w ich wnętrzu reakcji jądrowych pochłaniających znaczne
energie. Efektem tego jest znaczne załamanie równowagi pomiędzy ciśnieniem wewnątrz gwiazdy a siłami grawitacyjnymi i gwałtowne jej zapadnięcie się. W tych warunkach zachodzi
fuzja jąder helu w jądra berylu i na skutek zapaści (kolapsu) następuje gigantyczna eksplozja jądrowa z wydzieleniem ogromnej ilości energii, którą obserwuje się jako rozbłysk
supernowej. Przy wybuchu gwiazda odrzuca większą część swojej materii w formie szybko rozszerzającej się otoczki, na skutek czego po kilku dniach jasność supernowej maleje.
Rozszerzające się otoczki supernowych można jeszcze obserwować w formie mgławic przez wiele stuleci po wybuchu. Nieodrzucone wskutek wybuchu centralne części gwiazdy
zaczynają się znowu kurczyć. Siły grawitacji ściskają w gwiezdzie materię tak bardzo, że gęstość w środku gwiazdy staje się porównywalna z gęstością jądra atomowego (ok. 1014 -
1015 g/cm3). Dzięki "neutronizacji" materii (połączeniu się protonów z elektronami) gwiazda zmienia się w gwiazdę neutronową, przypominającą jądro atomowe o średnicy 10 20 km.
Uwolniona energia przemiany elektronów i protonów w neutrony przejawia się w formie strumieni neutrin. Jedną z form gwiazd neutronowych są pulsary. W gwiazdach tych ich silne pole
magnetyczne powoduje wypromieniowanie energii w postaci fal radiowych.
Dla obiektów gwiezdnych o większych jeszcze masach gwiazdy neutronowe nie są ostatecznym etapem ich aktywnego życia. Obliczenia wykazują, że gdy po wypaleniu paliwa
jądrowego, skurczeniu się, masa gwiazdy przekracza wartość krytyczną (około dwóch mas Słońca), wówczas nawet ciśnienie supergęstej materii nie powstrzymuje jej przed dalszym
zapadaniem się pod wpływem sił grawitacji. Powstaje wtedy czarna dziura, obiekt o niewyobrażalnej dla nas gęstości materii rzędu 1020 g/cm3. Siły grawitacyjne są tak duże, że nie
pozwalają nawet na opuszczenie tego obiektu przez promieniowanie świetlne. Są to, więc obiekty astronomiczne, których nie można zaobserwować bezpośrednio.
5. Omów (w punktach) proces powstawania i definicję gwiazdy
Warsztaty Fizyczne - maj 2010 - materiały dla uczestników
Projekt współfinansowany przez Unię Europejską z Europejskiego Funduszu Społecznego
1
Narodziny gwiazd
dr Anna Bartkiewicz
Centrum Astronomii, UMK
Najbardziej powszechne ciała niebieskie, ktore widzimy patrząc w nocne niebo to
gwiazdy. Gwiazdy, czyli olbrzymie kule gazowe, w ktorych zachodzÄ… reakcje syntezy jÄ…drowej
(np. reakcja połączenia wodoru H, ktora daje hel He oraz porcję energii) emitujące energię w
postaci promieniowania elektromagnetycznego, w szczegolności fal z zakresu widzialnego:
światła. Najprostsza definicja gwiazdy to krotkie stwierdzenie, \e świecą własnym światłem i są
dla nas widoczne. Inne ciała niebieskie, jak planety, czy księ\yce nie produkują tego rodzaju
energii i są dla nas widoczne dzięki temu, \e odbijają światło od gwiazd. Słońce to najbli\sza
nam gwiazda, znajduje siÄ™ ok. 150 000 000 km od nas. KsiÄ™\yc, satelita ziemski, staje siÄ™
widoczny mieszkańcom naszej planety dzięki temu, \e odbija światło słoneczne.
Ro\norodne gwiazdy o ro\nej masie, w ro\nym wieku, ro\nym rozmiarze,
rozmieszczone są w całej Galaktyce stanowiąc jej podstawowy budulec. Niektore z gwiazd to
niemowlęta - bardzo młode gwiazdy zaczynające dopiero spalanie wodoru, inne to
nastolatki \yjące całą pełnią, tryskające energią. Są te\ gwiazdy starsze, będące u schyłku
\ycia, ktorym kończy się paliwo podtrzymujące reakcje dające energię. Są te\ i te ktore kończą
swoj \ywot, jedne statecznie spalajÄ…c spokojnie hel, inne zaÅ› spektakularnie wybuchajÄ…c jako
nowe czy supernowe, a kończąc jako tajemnicze czarne dziury. śycie gwiazd, tak jak nasze,
posiada w sobie wiele piękna i tajemniczości, ktore chcemy poznawać. Mieszkając na naszej
planecie Ziemi czy te\ wznosząc się nieco poza jej obszar, mo\emy jedynie usiłować podglądać
\ycie ciał niebieskich wykorzystując przy tym najnowszą technologię ludzkości i probując
sięgać dalej i głębiej. Dzisiaj mo\emy jedynie pomarzyć o podro\ach w statkach kosmicznych,
w ktorych mijalibyśmy kolejne gwiazdy patrząc przez okna na ich rozwoj.
Artystyczna wizja Drogi Mlecznej -
widoczne jest zgrubienie centralne oraz
ramiona spiralne Galaktyki (R.Hurt,
NASA/JPL)
Teleskop Gemini ulokowany na Hawajach
na wysokości 4,2 km n.p.m. posiadający
lustra o średnicy 8,1 m (www.gemini.edu).
Sprobujmy podejrzeć narodziny gwiazd. Jak i gdzie powstają te olbrzymie kule gazowe?
Gdzie sÄ… tzw. obszary formowania gwiazd? Dla niektorych jest to zaskoczeniem, ale rownie\
dzisiaj rodzą się gwiazdy! Do powstania gwiazdy z pewnością potrzebny jest materiał. Jest nim
materia międzygwiazdowa wypełniająca przestrzeń kosmiczną. Jej głowny składnik to
oczywiście wodor atomowy H. Materia musi być znacznie bardziej gęstsza ni\ ta typowa w
Warsztaty Fizyczne - maj 2010 - materiały dla uczestników
Projekt współfinansowany przez Unię Europejską z Europejskiego Funduszu Społecznego
2
przestrzeni (kilka cząsteczek w cm3), by mogły zajść procesy prowadzące do powstania gwiazd.
Patrząc na galaktykę spiralną (w takiej mieszkamy!) mo\na zauwa\yć, \e to ramiona spiralne są
skupiskiem materii, ktora dostrzegamy własnym okiem. Faktycznie w Drodze Mlecznej, czyli
naszej Galaktyce obszary powstawania gwiazd ulokowane są w ramionach. Wiemy to z badań
prowadzonych w zakresie podczerwieni oraz na falach radiowych. Gęste obszary gazu i pyłu
uniemo\liwiają wydostanie się promieniowania z zakresu widzialnego (światła) spoza ich
obszarow. Dlatego te\ astronomowie u\ywajÄ… odbiornikow rejestrujÄ…cych promieniowanie
podczerwone (np. teleskopy GEMINI na Hawajach i w Chile) lub te\ radioteleskopow (np.
amerykańska sieć Very Large Array układ 27 anten o średnicy 25m). Fale z zakresu
podczerwieni czy radiowego są dłu\sze i udaje się im wydostać z gęstych kokonow materii.
Gwiazdy rodzą się w obłokach molekularnych. W niektorych miejscach powstają zagęszczenia,
powstaje wodor cząsteczkowy H2, znacznie wzrasta gęstość materii. Zaczyna się zapadanie
materii pod wpływem sił grawitacji, tym samym materia ogrzewa się. Zapadający się obłok
rozpada się na mniejsze, te dalej zmniejszają swą objętość i rozgrzewają materia staje się
sferyczną obracająca protogwiazdą. Kiedy temperatura wzrośnie do kilkunastu milionow stopni,
wtedy zaczynajÄ… siÄ™ reakcje syntezy jÄ…drowej i rodzi siÄ™ gwiazda.
Schemat powstania protogwiazd i narodzin gwiazd:
Olbrzymi obłok molekularny,
gdzie materia jest kilkaset
razy gęstsza od materii
między-gwiazdowej.
W wyniku niestabilności
(zaburzenia) powstajÄ… w
obłoku molekularnym
zagęszczenia materii, wodór
atomowy tworzy się wodór
czÄ…steczkowy.
Zagęszczenia materii zapadają
się, gęstnieją, ocieplają.
TworzÄ… siÄ™ protogwiazdy.
Kiedy temp. wzrośnie do mln K
zaczynajÄ… siÄ™ proces palenia
wodoru - rodzi siÄ™ gwiazda!
Co powoduje powstanie zaburzenia w obłoku molekularnym? Niekiedy mo\e to być zderzenie
takich obłokow. Najczęściej jednak jest to przejście fali uderzeniowej (jak np. podmuch wiatru,
ktory odczuwamy, kiedy obok nas przejedzie autobus) będące wynikiem np. wybuchu
supernowej gdzieś w pobli\u. Śmierć jednej gwiazdy napędza mechanizmy gwiazdotworcze
innej gwiazdy a materia wyrzucona podczas wybuchu zostaje zu\yta jako budulec dla
powstajÄ…cej gwiazdy.
Wspołczesna astrofizyka skupia się na badaniu narodzin gwiazd masywnych (czyli
takich, ktore zaczynają \ycie mając masę co najmniej 8 mas Słońca a kończą jako czarne
dziury). Zwykły mechanizm akrecji (opadania materii), ktory zaprezentowano powy\ej nie jest
w stanie wygenerować masywniejszych obiektow. Ciśnienie we wnętrzu takiej protogwiazdy nie
pozwoliłoby na dokładanie budulca. Najnowsze obserwacje radiowo-podczerwone sugerują
nam, \e mamy do czynienia ze scenariuszem okołogwiazdowego torusa przez ktory opada
materia na protogwiazdę, a nadmiar energii usuwany jest przez okołobiegunowe wypływy. W
badaniach tych udział biorą rownie\ toruńscy astronomowie. Okazuje się, \e wokoł masywnych
protogwiazd znajdują się skomplikowane cząsteczki, ktore emitują fale o długości kilku cm.
Warsztaty Fizyczne - maj 2010 - materiały dla uczestników
Projekt współfinansowany przez Unię Europejską z Europejskiego Funduszu Społecznego
3
Radioteleskop Centrum Astronomii UMK w Piwnicach posiada odpowiednie odbiorniki, aby
takie sygnały odbierać.
Do wyjaśnienia zagadek astrofizycznych potrzeba prac astronomow z całego świata.
Jedni wykonują modele zachodzących procesow, drudzy zbierają dane, aby moc zbadać
prawdziwość takich modeli. Modele są następnie poprawiane. Krok po kroku, długotrwałe
badania... po to, by rozwiązać jedną z zagadek jak rodzą się gwiazdy?
Radioteleskop UMK w Piwnicach pod Toruniem o średnicy czaszy 32m. Antena posiada
odbiorniki na fale cm (foto S.Krawczyk).
6. Wymień planety skaliste oraz planety gazowe układu słonecznego. Na podstawie czego dokonujemy tego podziału
skaliste: Ziemia, Mars, Wenus i Merkury
Gazowe: Saturn, Pluton, Neptun i Jowisz
życze powodzenia
Planety dzielone są na dwie kategorie: duże gazowe olbrzymy o małej gęstości oraz mniejsze planety skaliste. Według
definicji IAU, w Układzie Słonecznym znanych jest 8 planet: cztery wewnętrzne Merkury, Wenus, Ziemia, Mars i
cztery zewnętrzne Jowisz, Saturn, Uran i Neptun. Z wyjątkiem Merkurego i Wenus, wokół każdej z nich krąży jeden
lub więcej księżyców. Dotychczas (stan na 5 grudnia 2013) potwierdzono także istnienie 1050 planet pozasłonecznych.
Gazowy olbrzym (planeta olbrzym) typ planety, która nie ma stałej powierzchni, a skały nie stanowią znacznej
części jej masy. Ma ona gęstą atmosferę, może być zbudowana głównie z gazu lub lodu; ma także niewielkie
metaliczne, skalne lub skalno-lodowe jądro. Cechą takich obiektów astronomicznych jest ich bardzo duży rozmiar i
stosunkowo mała gęstość (w porównaniu z planetami skalistymi).
Planeta skalista, planeta typu ziemskiego typ planety, która ma skalną lub skalno-lodową powłokę jądra
metalicznego. Charakteryzuje ją duża gęstość w porównaniu z gazowymi olbrzymami, stała powierzchnia i niewielka
masa do kilku lub kilkunastu mas Ziemi.
7. Powstanie systemu słonecznego (syntetycznie)
Powstanie i ewolucja Układu Słonecznego rozpoczęły się 4,6 miliarda lat temu, gdy na
skutek grawitacyjnegozapadnięcia się jednej z części niestabilnegoobłoku molekularnego rozpoczął się proces
formowania Słońca i innych gwiazd. Większość zapadającej się masy z tej części obłoku zebrała się pośrodku,
tworzącSłońce, podczas gdy reszta spłaszczyła się, formując dysk protoplanetarny, z którego następnie
powstały planety, księżyce,planety karłowate i pozostałe małe ciała Układu Słonecznego.
Ten powszechnie akceptowany model znany jako hipoteza mgławicy słonecznej został po raz pierwszy zaproponowany
w XVIII wieku przez Emanuela Swedenborga, Immanuela Kanta i Pierre'a Simona Laplace'a. Jego pózniejszy rozwój
wymagał współudziału rozmaitych dyscyplin naukowych takich jak astronomia, fizyka, geologiaczy nauki planetarne.
Od początków ery podboju kosmosu w latach 50. XX wieku poprzez odkrycia planet pozasłonecznych w latach 90.
model powstania Układu Słonecznego był kwestionowany i modyfikowany, aby uwzględnić nowe obserwacje.
Od swojego powstania Układ Słoneczny uległ znaczącym zmianom. Uważa się, że wiele księżyców (regularne)
krążących wokół swoich macierzystych planet powstało z wirujących dysków gazu i pyłu, podczas gdy inne
(nieregularne) zostały przechwycone lub, w przypadku Księżyca Ziemi, powstały na skutek gigantycznych zderzeń.
Kolizje pomiędzy obiektami miały miejsce nieustannie do czasów współczesnych; są one zasadniczym elementem
ewolucji systemu. Planety często zmieniały swoje pozycje, przesuwając się zarówno na zewnątrz, jak i do środka, a
nawet zamieniając się miejscami. Migracja planetarna była odpowiedzialna za ewolucję Układu Słonecznego we
wczesnym okresie jego istnienia.
Układ Słoneczny wciąż ewoluuje i nie będzie istniał wiecznie w obecnej formie. Za około 5 miliardów lat Słońce
powiększy wielokrotnie swoją średnicę, stając się czerwonym olbrzymem, który odrzuci swoje zewnętrzne warstwy
jako mgławicę planetarną i przekształci się w białego karła. Ruch planet najbliższych Słońcu zostanie wyhamowany
przez słoneczną atmosferę i spadną do jego wnętrza, dalsze planety czeka pózniej podobny los w wyniku hamowania
przez gaz mgławicy planetarnej. Istnieje też szansa, choć jest ona niezmiernie mała, że w odległej przyszłości
grawitacja gwiazd przechodzących w sąsiedztwie Układu Słonecznego uszczupli orszak planet towarzyszących Słońcu,
wówczas zostaną one wyrzucone w przestrzeń międzygwiezdną. Wydarzenie takie może być skutkiem zbliżenia
gwiazdy z Drogi Mlecznej lub z innej galaktyki podczas zderzenia galaktyk, szczególnie, że za około 3 miliardy lat
oczekiwane jest zderzenie Galaktyki Andromedy z Drogą Mleczną. Istnieje też niebezpieczeństwo, że w planetę uderzy
inne ciało niebieskie o masie wystarczającej do rozerwania i zniszczenia jej. Słońce pozostanie prawdopodobnie
samotne, bez orbitujÄ…cych planet.
8. Wnioski wypływające z prawa Hubble a odnośnie dalszej ewolucji Wszechświata
Około 1931 roku wielu astronomów zrozumiało, że obserwacje Hubble'a oznaczają, że wszechświat rozszerza się.
Wszechświat rozszerzający się był wszechświatem zmieniającym się. Ekspandujący wszechświat miał
najprawdopodobniej jakiś początek i będzie miał pewnie jakiś koniec. Ekspansja wszechświata jest prawdopodobnie
najbardziej doniosłym odkryciem, jakiego kiedykolwiek dokonano w astronomii. Wielu z krytycznych pytań dzisiejszej
kosmologii - takich jak: jaki jest ostateczny los wszechświata, dlaczego w wielkiej skali kosmos jest tak jednorodny,
jakiego rodzaju olbrzymia, jednolita siła istniała w pierwszym ułamku sekundy po Wielkim Wybuchu nie byłoby,
gdyby wszechświat był statyczny. Jest bardzo prawdopodobne, że ekspansja ulegnie spowolnieniu i wreszcie zatrzyma
się a wszechświat zapadnie się ostatecznie w siebie, w podobny sposób jak doszło do wybuchu. Jeżeli jednak prędkość
ta jest większa od prędkości ucieczki, ekspansja będzie trwała wiecznie dążąc w coraz bardziej osamotnioną
przyszłość.
9. Co to jest pas Kuipera w Układzie Słonecznym?
Pas Kuipera, zwany też pasem Edgewortha-Kuipera obszar Układu Słonecznego rozciągający się
za orbitąNeptuna, od 30 do około 50 j.a. od Słońca. Jest podobny do pasa planetoid, ale o wiele większy: 20 razy
szerszy i 20 200 razy bardziej masywny[2][3]. Podobnie jak pas planetoid, zawiera wiele małych obiektów, będących
pozostałościami po procesie formowania się Układu Słonecznego. Krążą w nim co najmniej trzy planety
karłowate: Pluton, Haumea iMakemake. O ile pas planetoid składa się głównie z obiektówskalnych i metalowych,
większość obiektów Pasa Kuipera jest zbudowanych z zestalonych prostych związków, takich
jak metan, amoniak i woda.
Magnetometria
1. Co to jest ziemska indukcja magnetyczna . Jednostki. Przedstaw elementy składowe rozkładu wektora T w układzie
prostokÄ…tnym
Ziemskie pole magnetyczne pole magnetyczne występujące naturalnie wewnątrz i wokół Ziemi. Odpowiada ono w
przybliżeniu polu dipola magnetycznego z jednym biegunem magnetycznym w pobliżu geograficznego bieguna
północnego i z drugim biegunem magnetycznym w pobliżu bieguna południowego . Linia łącząca bieguny
magnetyczne tworzy z osiÄ… obrotu Ziemi kÄ…t 11,3°. Pole magnetyczne rozciÄ…ga siÄ™ na kilkadziesiÄ…t tysiÄ™cy kilometrów
od Ziemi, a obszar w którym ono występuje nazywa się ziemską magnetosferą .
KWESTIA NAZEWNICTWA BIEGUNÓW
Jako biegun północny igły magnetycznej (i ogólnie magnesów ) przyjęło się wskazywać ten z jej końców, który
wskazuje północ. Jest on przyciągany przez odwrotnie spolaryzowany biegun magnetyczny Ziemi, skąd wynika, iż na
północnej półkuli Ziemi znajduje się jej południowy biegun magnetyczny i odwrotnie, na południu biegun północny[1].
Mimo to często stosowane jest oznaczanie biegunów magnetycznych Ziemi zgodnie z nazwami biegunów
geograficznych, a odwrotnie w stosunku do oznaczeń biegunów magnesu stosowanych w fizyce.
BIEGUNY MAGNETYCZNE
Miejsca przecięcia osi symetrii ziemskiego pola magnetycznego z powierzchnią Ziemi nazywa się biegunami
geomagnetycznymi . Bieguny cały czas przesuwają się po powierzchni Ziemi z prędkością około 15 km na rok,
zataczając kręgi. Bieguny magnetyczne nie leżą dokładnie po przeciwnych stronach Ziemi, ich położenie przedstawia
tabela:
(1965) 73,5° N 100,6° (2001) 81,3° N 110,8° (2004) 82,3° N 113.4° (2005 ) 82,7° N 114,4°
Północny biegun[2]
W W W W
Południowy
(1965) 66,5° S 140,3° E (1998) 64,6° S 138,5° E (2004 ) 63,5° S 138,0°
biegun[3] E
OPIS POLA MAGNETYCZNEGO
W każdym punkcie przestrzeni pole magnetyczne określone jest wektorem pola magnetycznego, wektor ten określa się
przez podanie współrzędnych w układzie współrzędnych Ziemi podając jego składową północną, wschodnią i pionową.
W układzie współrzędnych cylindrycznych określa się deklinację, składową poziomą, oraz składową pionową, a w
układzie sferycznym określa się inklinację, deklinację i moduł natężenia.
Deklinacją pola magnetycznego jest kąt między jego składową poziomą, a południkiem geograficznym.
Inklinacja jest to kąt jaki tworzy wektor natężenia pola z płaszczyzną poziomą.
Na mapach wytycza siÄ™ linie Å‚Ä…czÄ…ce punkty o jednakowej deklinacji zwane izogonami. Linie Å‚Ä…czÄ…ce punkty o
jednakowej inklinacji, to izokliny, izoklina odpowiadajÄ…ca inklinacji równej 0° nazywana jest równikiem
magnetycznym.
NATŻENIE POLA MAGNETYCZNEGO
Natężenie pola magnetycznego jako pierwszy zmierzył Carl Friedrich Gauss w 1835 roku, od tego czasu pole
magnetyczne było mierzone wielokrotnie, a od XX w. jest mierzone regularnie w wielu ośrodkach badawczych. Dane z
tego okresu wykazują, że pole magnetyczne cały czas zmienia się. Przy czym wyróżnia się składową zmienną, oraz
wartość uśrednioną zwaną stałe pole magnetyczne. Stałe pole magnetyczne ulega też powolnej zmianie, słabnie
wykładniczo z czasem połowicznego zaniku w przybliżeniu równym 1400 lat. Obecnie jest 10-15% słabsze niż 150 lat
temu.
STAAE POLE MAGNETYCZNE
Obecnie indukcja ziemskiego pola magnetycznego przy powierzchni Ziemi zawiera siÄ™ w granicach od
30 mikrotesli (odpowiada to natężeniu pola magnetycznego 24 A/m) dla większości obszarów na małych i średnich
szerokościach geograficznych do 60 mikrotesli (48 A/m) w okolicach biegunów magnetycznych w północnej
Kanadzie, w południowej Australii oraz w części Syberii.
Do badania pola magnetycznego używa się magnetometrów, które rejestrują niewielkie odchylenia natężenia i kierunku
pola magnetycznego wywołane pokładami rud żelaza, zastygłej lawy wulkanicznej i innych struktur geologicznych.
Obszary, w których kierunek pola magnetycznego wyraznie odbiega od średniego dla danej szerokości geograficznej,
nazywa się anomalią magnetyczną . Jedną z największych anomalii magnetycznych jest Kurska anomalia
magnetyczna wywołana występowaniem na tym obszarze ogromnych pokładów rud żelaza. Używając magnetometrów
skonstruowanych podczas II wojny światowej do wykrywania łodzi podwodnych, dokonano dokładnych pomiarów
zmian pola magnetycznego dna oceanicznego. Gdy wypływający z głębi bazalt zastyga, stygną też towarzyszące mu
minerały, stając się ferromagnetykami. "Zamrażają" one w sobie pole magnetyczne skierowane zgodnie z ówczesnym
kierunkiem ziemskiego pola magnetycznego (magnetyzacja szczątkowa ), pole to nie zmienia się już pomimo zmian
pola zewnętrznego. Badając skały wulkaniczne można określić kierunek i natężenie pola magnetycznego w przeszłości.
Dział nauki, który zajmuje się badaniem pola magnetycznego w przeszłości, nazywany jest paleomagnetyzmem .
ZMIENNE POLE MAGNETYCZNE
Zmienne pole magnetyczne zmienia swoją wartość o 1% jego wartości, czasami zmiana ta dochodzi do 5%. Główną
przyczyną zmian są zjawiska zachodzące wokół Ziemi, takie jak deformacja pola magnetycznego wywoływana przez
wiatr słoneczny, zmiany w jonosferze ziemskiej ( dynamo atmosferyczne ). Obserwuje się zmiany okresowe z
najsilniejszą zmianą dobową, znacznie słabszą zmianę wywołaną położeniem Księżyca. Przyczyną powtarzających się
zmian dobowych jest słoneczne promieniowanie elektromagnetyczne wpływające na intensywność prądów w
jonosferze. Także Księżyc powoduje pływy w jonosferze ziemskiej, będącej częścią atmosfery.
Duży wpływ na zaburzenia ziemskiego pola magnetycznego ma aktywność słoneczna w postaci koronalnych wyrzutów
masy i zmian w natężeniu wiatru słonecznego. Czasami powodują duże zmiany głównie składowej horyzontalnej,
określane mianem burz magnetycznych , podczas których następują zakłócenia w łączności, a czasem nawet
uszkodzenia linii przesyłowych energii elektrycznej. Zorza polarna staje się jasna i obserwuje się ją wtedy na
szerokościach geograficznych, gdzie zwykle nie występuje: nawet w Polsce albo nawet jeszcze dalej na południe.
Klasyfikacja zmian pola magnetycznego Ziemi
Zmienne pole magnetyczne Ziemi jest definiowane jako różnica pomiędzy wartością obserwowaną składowych
natężenia pola magnetycznego a średnią wartością obliczoną dla ustalonego przedziału czasowego. Wyróżniamy
następujące zmian czasowe pola magnetycznego:
1. Zmiany długookresowe (wiekowe) wywoływane przez powolne zmiany namagnesowania wnętrza Ziemi .
MajÄ… charakter periodycznych zjawisk o okresie 500-600 lat. PrzyczynÄ… jest przesuwanie siÄ™ bieguna
magnetycznego Ziemi po krzywej zamkniętej.
2. Zmiany krótkookresowe:
1. Zmiany spokojne (płynne) podlegające określonym prawidłowościom wywołane przez ruchy
przypływowe jonosfery.
1. zmiany dobowe słoneczne,
2. zmiany dobowe księżycowe,
2. Zmiany zaburzone. MajÄ… one charakter nieuporzÄ…dkowany.
1. zmiany nieregularne,
2. zmiany aperiodyczne,
3. wariacje dobowe zaburzone,
3. Zakłócenia i burze magnetyczne. Są to nagłe i nieokresowe zmiany elementów pola magnetycznego Ziemi
(czas trwania do kilku dni).
1. zakłócenia lokalne,
2. zakłócenia zatokowe (charakter prawidłowy, lecz nie posiadające okresu),
3. burze magnetyczne (wywoływane są przez promieniowanie korpuskularne pochodzące od Słońca),
4. pulsacje (sinusoidalne wahania natężenia pola o amplitudzie kilku jednostek i okresie kilku minut).
POLE MAGNETYCZNE W PRZESZAOÅšCI
Na podstawie badań lawy wulkanicznej na Hawajach stwierdzono, że ziemskie pole magnetyczne zmienia cały czas
swe natężenie, a co kilkadziesiąt tysięcy do milionów lat zmienia swój kierunek ( przebiegunowanie Ziemi ). Średni
czas między przebiegunowaniami wynosi 250 000 lat, ostatnie wystąpiło około 780 000 lat temu.
Nie ma obecnie jasnej teorii opisujÄ…cej przyczyny przebiegunowania.
POWSTAWANIE POLA MAGNETYCZNEGO
Najstarsze poglądy, mówiące, że pole magnetyczne jest wynikiem namagnesowana głębokich warstw Ziemi, zostały
skrytykowane na początku XX w. po odkryciu przez Piotra Curie granicznej temperatury, powyżej której substancje
przestają być ferromagnetykami. Temperatura wnętrza Ziemi jest znacznie wyższa od temperatury Curie znanych
substancji.
TeoriÄ… uznawanÄ… obecnie za najbardziej prawdopodobnÄ… jest hipoteza zaproponowana przez Edwarda Bullarda,
mówiąca, że pole magnetyczne Ziemi wywołują wirowe prądy elektryczne płynące w płynnym jądrze Ziemi. Teoria ta,
zwana "samowzbudne dynamo" lub "geodynamo", znajduje poparcie w magnetohydrodynamice uzyskuje tu
uzasadnienie matematyczne w modelu zwanym dynamem magnetohydrodynamicznym . Obecnie uważa się, że siłą
napędową geodynama są prądy konwekcyjne w płynnym jądrze Ziemi. W prądach tych, ruch obrotowy Ziemi
poprzez efekt Coriolisa , wywołuje wiry działające jakjednobiegunowy generator Faradaya , wytwarzając prąd
elektryczny, który wytwarza pole magnetyczne.
Modele matematyczne, budowane w oparciu o założenia dynama magnetohydrodynamicznego, przewidują zmiany
pola magnetycznego oraz utratÄ™ jego charakteru dipolowego.
Układ kartezjański
Najczęściej stosowany jest prostokątny, kartezjański układ współrzędnych, którego ortonormalną bazę
tworzą trzy wektory jednostkowe (wersory) i, j, k, poprowadzone z poczatku układu współrzędnych O.
Położenie dowolnego punktu P określa wektor wodzący punktu r, łączący początek układu
współrzędnych O z punktem P. Wektor r można rozłożyc wzgledęm bazy i, j, k:
r=xi+yj+zk, gdzie xi, yj, zk są składowymi wektora r wzdłuż osi współrzędnych.
Współczynniki rozkładu x, y, z są współrzędnymi kartezjanskimi punktu P, nazywanymi również
współrzędnymi (składowymi) wektora wodzacęgo r. Ze względu na ortogonalność wektorów bazy,
wspólrzędne x, y, z są równe rzutom wektora wodzącego r na odpowiednie osie układu współrzędnych.
Ruch punktu materialnego jest w pełni określony, jeśli zadane są trzy ciagłe i jednoznaczne funkcje
czasu t:
x=x(t), y=y(t), z=z(t),
opisujące zmianę w czasie współrzędnych punktu.
Równania te nazywamy kinematycznymi równaniami ruchu punktu. Są one równoważne jednemu
wektorowemu równaniu: r=r(t).
2. Pole niedipolowe ziemskiego pola magnetycznego (definicja) oraz zwiÄ…zki z budowÄ… geologicznÄ…
Rzeczywiste pole m. ziemi lepiej opisuje dipol umieszczony w Å›rodku Ziemi, tworzÄ…cy z jej osiÄ… obrotu kÄ…t 11,5º. Jego
pole to ok. 90% pola stałego. Pozostałe 10% to pole niedipolowe o nieregularnym rozkładzie na powierzchni ziemi.
Jeśli przedstawimy na rysunku pole niedipolowe jego cechą cha-
rakterystyczną będzie widoczna obecność centrów wokół których układają się izolonie. Pole
niedipolowe osiąga w centrach maksymalne amplitudy. Obszary o średnicach wielu tysięcy
kilometrów wokół centrów nazwano anomaliami regionalnymi.
3. Co to są wartości normalne składowej pionowej ziemskiej indukcji magnetycznej. Jakim ulegają zmianom ????
4. Co to sÄ… anomalie magnetyczne skÅ‚adowej Z. Od czego zależy wartość anomalii DðZ ????
5. Zasada działania magnetometru protonowego
W magnetometrze protonowym korzysta się z faktu, iż protony zawarte w wielu cieczach (wodzie, nafcie, alkoholu itp.) wykazują
w stałym polu magnetycznym zjawisko precesji, czyli ruchu obrotowego podobnego do ruchu dziecinnego bąka. Ilość obrotów na
sekundę jest wprost proporcjonalna do wartości zewnętrznego pola magnetycznego. Fakt ten wykorzystuje się do określenia
wartości pola magnetycznego poprzez pomiar częstotliwości wirowania. Metoda ta jest niezwykle dokładna i pozwala wykryć
zmiany pola magnetycznego rzędu 0,1 nT. Zatem za pomocą magnetometru protonowego można pomierzyć wartość ziemskiego
pola magnetycznego z dokładnością do około dwóch części na milion.
Fakt ten wykorzystuje się szeroko do poszukiwań złóż surowców mineralnych takich jak rudy metali, ropa naftowa, ale także
ukrytych w ziemi przedmiotów.
Jak łatwo się przekonać obserwując śrubokręt przyciągający gwozdzie, większość przedmiotów stalowych wykazuje podobne
zachowanie jak magnesy trwałe, ponieważ posiadają własne pole magnetyczne. Fakt ten powoduje, że zakopane przedmioty
metalowe zmieniają wartość ziemskiego pola magnetycznego powodując jego zmniejszenie bądz wzrost, w zależności od
położenia i kształtu. Korzystając z możliwości pomiaru wartości pola za pomocą magnetometru protonowego można określić ich
położenie i z wystarczającą dokładnością rozmiary.
Zaletą magnetometru protonowego w porównaniu z nieco tańszymi sondami transduktorowymi jest bezkierunkowy charakter
magnetometru. Objawia się to tym, że magnetometr protonowy pokazuje zawsze poprawną wartość pola, niezależnie od
położenia sondy w przestrzeni (dokładnie rzecz biorąc sonda nie może być jedynie idealnie równoległa do pola magnetycznego).
Zaburzenie pola magnetycznego nosi nazwę anomalii magnetycznej. Rozległość i wysokość anomalii zależy od usytuowania i
rozmiarów przedmiotu, ale regułą jest, że większe przedmioty dają anomalie o większej rozciągłości i wysokości sygnału. Fakt ten
ma dodatkowe konsekwencje w postaci niskiego zasięgu magnetometru na różnego rodzaju małe przedmioty żelazne, takie jak
kapsle czy gwozdzie, który jest poniżej jednego metra. Pozwala to uniknąć fałszywych sygnałów poprzez nieco wyższe położenie
sondy. Większe przedmioty gwarantują wyraznie większy zasięg. I tak np. samochód osobowy jest zródłem anomalii wykrywanej
do odległości kilkunastu metrów, wagon cysterna jest stwierdzany z odległości 40 - 50 m. Z podobnej odległości można wykryć
obecność czołgu. Wraki statków dają anomalie wykrywalne w przypadku dużych jednostek z odległości 200 - 300 m (np. wrak
kutra rybackiego z odległości 80 - 90 m daje anomalię rzędu 100 nT ). Tak duże zasięgi czynią magnetometr protonowy
niezastąpionym w przypadku przeszukiwania dużych obszarów, ponieważ można ustalić trasy poszczególnych pomiarów w
odległościach wystarczających do stwierdzenia obecności przedmiotu ( w przypadku samochodu np. co 20 m zaś dla czołgu co
50 - 70 m).
6. Jak można zmierzyć lub wyznaczyć moduł wektora ziemskiej indukcji magnetycznej
Istotą metody magnetycznej jest pomiar pola magnetycznego Ziemi (modułu całkowitego wektora
indukcji magnetycznej T) i wyznaczenie anomalii magnetycznych (Dð T) posiadajÄ…cych zwiÄ…zek z
własnościami magnetycznymi skał budujących skorupę ziemską. yródłem anomalii mogą być także
sztuczne obiekty (znajdujÄ…ce siÄ™ na lub pod powierzchniÄ… Ziemi) zawierajÄ…ce elementy ferromagnetyczne.
Dla zlokalizowania zaburzenia ziemskiego pola magnetycznego przeprowadzone zostanie tzw. zdjęcie
mikromagnetyczne, polegające na wykonaniu pomiarów modułu całkowitego wektora indukcji
magnetycznejTpom. w odpowiednio dobranej gęstej siatce pomiarowej, przy użyciu magnetometrów
protonowych. Aby wyeliminować zmiany dobowe ziemskiego pola magnetycznego i wyznaczyć
anomaliÄ™ Dð T, wykonane pomiaryTpom. odnosi siÄ™ do Tbaz. - moduÅ‚u caÅ‚kowitego wektora indukcji
magnetycznej, mierzonego synchronicznie w odpowiednio wybranym, stałym punkcie bazowym. Punkt
ten (zwany bazą) powinien być zlokalizowany w pobliżu badanego obszaru, ale poza strefą
przypuszczalnego oddziaływania pola anomalnego. Zakładając, że zakłócenia wywołane zmianami
dobowymi ziemskiego pola magnetycznego są przestrzennie stacjonarne, wartość anomalii
magnetycznej Dð T w punkcie pomiarowym wyrazi siÄ™ nastÄ™pujÄ…cym wzorem:
Dð T = Tpom - Tbaz
7. Niejednoznaczność interpretacji ilościowej w magnetometrii na czym polega i jak ją można ograniczyć ????
8. Podstawy fizyczne badań paleomagnetyczych
Paleomagnetyzm magnetyczne właściwości każdej skały ziemskiej zawierającej minerały ferromagnetyczne.
W trakcie powstawania skał (wylewnych lub osadowych) utrwala się ziemskie pole magnetyczne istniejące w danym
momencie azymut (deklinacja) i inklinacja bieguna magnetycznego. Magnetyzacja szczątkowa zależy też od
natężenia pola magnetycznego w momencie powstawania skały.
Na podstawie badań paleomagnetycznych określa się miejsce i czas powstawania skał. W historii Ziemi wyróżnia
się epoki paleomagnetyczne o normalnej i odwróconej polarności biegunów magnetycznych (patrz Przebiegunowanie
Ziemi).
Dzięki paleomagnetyzmowi udowodniono różne rozmieszczenie w przeszłości geologicznej lądów i mórz wędrówkę
kontynentów i bieguna magnetycznego Ziemi (patrz Tektonika płyt).
Paleomagnetyzm jest dziedziną geomagnetyzmu zajmującą się badaniem pola magnetycznego w przeszłości. Metoda
paleomagnetyczna opiera się na fakcie, że powstające skały (zarówno wylewne, jak i osadowe) ulegają trwałemu
namagnesowaniu w momencie zastygania lub sedymentacji w sposób zgodny z panującym w danym czasie polem
magnetycznym; namagnesowanie to pozostaje pomimo zmian kierunku zewnętrznego pola magnetycznego. Badając
skały w miejscu ich narastania, można określić kierunek pola magnetycznego w przeszłości.
PALEOMAGNETYZM
W laboratorium paleomagnetycznym prowadzone są badania kierunków i natężenia
namagnesowania szczątkowego, obecnego we wszystkich rodzajach skał. Obejmują one
również badania podatności magnetycznej i jej własności kierunkowych (anizotropia
podatności magnetycznej AMS), a także ogólne badania właściwości magnetycznych
skał: identyfikacji mineralnych nośników namagnesowania i podatności magnetycznej.
·ð SporzÄ…dzanie rekonstrukcji paleogeograficznych poÅ‚ożenia kontynentów i mniejszych jednostek tektonicznych w poszczególnych epokach fanerozoiku
·ð PodziaÅ‚ i korelacja magnetostratygraficzna (na podstawie skali zmian polarnoÅ›ci) utworów skalnych pozbawionych skamieniaÅ‚oÅ›ci przewodnich
·ð Rekonstrukcja warunków paleoÅ›rodowiskowych (w tym głównie paleoklimatycznych) na podstawie zmiennoÅ›ci wartoÅ›ci niektórych parametrów petromagnetycznych
·ð Datowanie wydarzeÅ„ diagenetycznych na podstawie wtórnych skÅ‚adowych namagnesowania
·ð Orientacje rdzeni z otworów wiertniczych, na podstawie współczesnej lepkiej pozostaÅ‚oÅ›ci magnetycznej (VRM)
·ð OkreÅ›lanie podatnoÅ›ci magnetycznej i namagnesowania resztkowego skaÅ‚ do celów interpretacji map magnetycznych
·ð Badania anizotropii wÅ‚aÅ›ciwoÅ›ci magnetycznych skaÅ‚ i jej interpretacja tektoniczna
9. Wykorzystanie badań paleomagnetycznych w naukach o Ziemi
Magnetyzm i Paleomagnetyzm
·ð Wykorzystanie badaÅ„ paleomagnetycznych oraz badaÅ„ anizotropii magnetycznej i innych wÅ‚asnoÅ›ci magnetycznych skaÅ‚ do rozwiÄ…zywania zagadnieÅ„ geologicznych i paleogeograficznych
(m.in. Polski, Europy środkowo-wschodniej i Spitsbergenu)
·ð Wykorzystanie zjawiska indukcji EM do rozpoznania struktury geoelektrycznej skorupy i górnego pÅ‚aszcza Ziemi (2D i 3D numeryczne modelowanie rozkÅ‚adu przewodnictwa
elektrycznego)
·ð Wdrażanie nowych metod analizy pogody kosmicznej na podstawie zmian pola magnetycznego obserwowanego na powierzchni Ziemi
·ð Badania wÅ‚asnoÅ›ci magnetycznych noÅ›ników pozostaÅ‚oÅ›ci magnetycznej w skaÅ‚ach i glebach
·ð Wykorzystanie metod magnetyzmu Å›rodowiskowego do rozpoznania zanieczyszczeÅ„ antropogenicznych gleb
·ð Numeryczne modelowanie rozkÅ‚adu przewodnictwa elektrycznego w strukturach 3-wymiarowych
·ð Analiza regionalnego rozkÅ‚adu pola magnetycznego przy pomocy szeregów funkcyjnych
·ð Zastosowanie magnetometrii do monitorowania zanieczyszczeÅ„ gleb i powietrza na podstawie pomiarów zanieczyszczeÅ„ akumulowanych na liÅ›ciach drzew, w kurzu domowym, na filtrach
powietrza i w glebie
10. Uzasadnij dlaczego w oparciu o badania paleomagnetyczne można wyznaczyć miejsce powstania skały i prędkość
dryfu płyty lub mikropłyty
5.3 Badania paleomagnetyczne
Część materiału z tego punktu także była omawiana w Wykładzie 3.
Przejdzmy teraz do badań paleomagnetycznych, a właściwie do dryfu kontynentów badanego
metodami paleomagnetycznymi. Jak wiemy, ziemskie pole magnetyczne zmienia siÄ™ w czasie. Dla
celów badania dryfu korzysta się z kilku podstawowych założeń.
·ð Badanie namagnesowanie skaÅ‚ pozwala okreÅ›lić lokalny kierunek pola magnetycznego w
przeszłości (czyli deklinację D i inklinację I pola).
·ð Ziemskie pole magnetyczne byÅ‚o zawsze (poza krótkimi okresami przy zmianie biegunowoÅ›ci)
w przybliżeniu polem dipolowym o osi dipola pokrywającym się w przybliżeniu z osią obrotu
Ziemi.
Przy spełnieniu obu warunków z lokalnego kierunku pola można określić odległość i kierunek
położenia bieguna w przeszłości względem danej próbki skały.
Kierunek pola istniejącego w minionych epokach geologicznych określamy na podstawie
kierunku namagnesowania skał powstałych w danej epoce. Okazuje się bowiem, że skała najtrwalej
zachowuje to namagnesowanie, które przybrała w momencie swego powstania. Wyrzucona przez
wulkan lawa stygnie i w pewnym momencie temperatura jej opada poniżej temperatury punktu Curie,
którego temperatura wynosi około kilkuset stopni Celsjusza. Dla magnetytu (Fe3O4), który jest
odpowiedzialny za namagnesowanie większości skał, temperatura punktu Curie wynosi 580 oC. Skała
zachowuje namagnesowanie, które miała w tym właśnie momencie. To namagnesowanie
nazywamy termiczną pozostałością magnetyczną. Mimo, że pózniej skała pozostaje również pod
działaniem różnokierunkowych pól magnetycznych, to jednak pierwotne namagnesowanie jest
najtrwalsze i za pomocą różnych zabiegów można w wielu skałach usunąć pózniejsze
namagnesowanie, nie naruszajÄ…c pierwotnego. Na tym polegajÄ… metody paleomagnetyczne,
pozwalające określić D oraz I w przeszłości. Z mniejszą pewnością pozwalają one wnioskować o
natężeniu pola w przeszłości.
Oczywiście próbka skały, którą badamy, musi spełnić wiele warunków, a więc pochodzić z
utworu, który zachował swoje pierwotne położenie, nie podlegał pózniejszym fałdowaniom, obrotom,
zgniataniom i innym deformacjom. Pierwotne namagnesowanie skały musi też być najtrwalsze - są
bowiem skały, w których namagnesowanie może zmienić się samorzutnie na przeciwne!
Zanim próbka będzie wycięta ze skały, należy określić jej orientację względem stron świata. Po
wycięciu jest ona poddana w laboratorium procesom częściowego rozmagnesowania przez
ogrzewanie bądz za pomocą zmiennego pola magnetycznego; po każdym procesie mierzy się
pozostałe namagnesowanie. Otrzymuje się w ten sposób informacje o historii namagnesowania
badanej próbki. Wreszcie pozostaje jedynie namagnesowanie pierwotne. Dopiero teraz można je
zmierzyć czułym magnetometrem i określić Ioraz D. Należy również ustalić wiek skały, aby wiedzieć,
do jakiego okresu odnoszą się inklinacja i deklinacja. Wiek próbki określamy albo metodami opartymi
na badaniu produktów rozpadu pierwiastków radioaktywnych, albo na podstawie szczątków
organizmów zawartych w skale.
Dalszym krokiem w badaniach jest określenie położenia bieguna magnetycznego w przeszłości
(tzw. bieguna paleomagnetycznego). Pamiętajmy, że w paleomagnetyzmie zakładamy, że bieguny
geomagnetyczne były blisko biegunów geograficznych. Dla pola ściśle dipolowego inklinacja
magnetyczna I jest związana z odległością kątową od bieguna następującym wzorem (patrz też rys.
5.7)
tg (I) = 2 ctg(¸) (5.1)
gdzie ¸ to odlegÅ‚ość kÄ…towa od bieguna (zauważ, że 90o-¸ to szerokość geograficzna).
Znając D możemy ustalić kierunek wskazujący biegun północny, więc I i D pozwalają wyznaczyć
położenie bieguna. Najpierw korzystając z I oraz z wykresu pokazanego na rysunku 5.7 znajdujemy
szerokość geograficzną w przeszłości i obliczamy kąt
¸ = 90o- (szerokość geograficzna).
Rys. 5.7 Zależność inklinacji magnetycznej I od szerokości geograficznej.
Pózniej obliczamy liniową odległość od bieguna.
Wynosi ona:
l=RE ¸ (5.2)
gdzie ¸ mierzymy w radianach, natomiast RE = 6370 km
to promień Ziemi. Odległość tę odkładamy z danego
punktu P w kierunku określonym przez deklinację D i
otrzymujemy położenie bieguna paleomagnetycznego
względem badanej skały (rys. 5.8).
Rys. 5.8 Określenie położenia bieguna
geomagnetycznego na podstawie inklinacji i deklinacji
pola magnetycznego
Badania paleomagnetyczne rozwinęły się w
początkach lat pięćdziesiątych. Przodowały tutaj dwie
grupy brytyjskie grupa P. Blacketta z Imperial
College w Londynie oraz S.K. Runcorna z
Uniwersytetu w Newcastle. Już pierwsze lata badań
wykazały wyrazne, choć powolne zmiany położenia biegunów magnetycznych w przeszłości
względem Wysp Brytyjskich, skąd brano pierwsze próbki. Badania rozszerzono następnie na inne
kontynenty. Tysiące przebadanych próbek z różnych okresów pozwoliły ustalić zmiany położenia
biegunów geomagnetycznych względem każdego z kontynentów od początku ery paleozoicznej do
chwili obecnej. Pokazano to na rysunku 5.9. Zaznaczono na nim drogi przemieszczania siÄ™ bieguna
magnetycznego określone na podstawie badań skał z różnych miejsc na Ziemi.
Rys. 5.9
Trasy biegunów paleomagnetycznych względem różnych kontynentów. Literami oznaczono położenie
bieguna w danym okresie geologicznym: Pa paleozoik, E kambr, K -- kreda, J jura, T trias,
M mezozoik. Według Cooka, 1973, Physics of the Earth s planet, Mc Millan, London
Wniosek jest jednoznaczny - kontynenty poruszały się zarówno względem bieguna, jak i
względem siebie. Nie można bowiem jedynie ruchem bieguna wytłumaczyć, dlaczego badania skał
pochodzących z jednego kontynentu wyznaczają odmienną drogę jego wędrówki niż analogiczne
wyniki uzyskane ze skał innego kontynentu. Początkowo, kiedy wyników było niewiele, a błąd ich był
duży, tak właśnie próbowano tłumaczyć owe niezgodności. Po przeprowadzeniu dalszych badań
musiano to wyjaśnienie odrzucić. Wprawdzie błąd popełniany przy wyznaczeniu położenia bieguna
magnetycznego na podstawie jednej próbki pozostał niezmieniony, dysponując jednak wieloma
pomiarami można było posłużyć się statystycznymi metodami opracowania danych, co znacznie
zwiększyło wiarygodność wyników. Należy tu jednak zaznaczyć, że błąd przy określaniu położenia
biegunów jest nadal duży (rzędu 1000 km, a czasem ponad).
11. Wyniki badań magnetycznych w pobliżu ryftów oceanicznych (w punktach)
Liniowe anomalie magnetyczne (w skrócie l.a.m.) odkryto na Pacyfiku u wybrzeży Kalifornii w
1961 r. Z pokładu statku Pionier prowadzono pomiary pola magnetycznego, pokrywając nimi gęsto
badany obszar. Na ich podstawie Ronald G. Mason i Arthur Raff wykreślili izolinie jednakowego
natężenia pola. Okazało się, iż układają się one w regularne, prawie równoległe pasy na przemian
silniejszego i słabszego pola magnetycznego. Pasy te są często poprzecinane prostopadłymi uskokami
i przesunięte o setki kilometrów wzdłuż nich. Przykład liniowych anomalii magnetycznych
przedstawia mapa pokazana na rysunku 5.15.
Hipotezę tłumaczącą powstanie l.a.m. przedstawili w 1963 r. F. Vine i D. Matthews z
Cambridge. Przyjęli oni, zgodnie z sugetiami Hessa i Dietza, że w strefie ryftu powstaje nowa skorupa
oceaniczna. Oczywiście jest ona namagnesowana zgodnie z aktualnym kierunkiem pola
magnetycznego Ziemi. Jeśli jednak nastąpi inwersja pola magnetycznego, to powstająca skorupa
będzie magnesować się przeciwnie. Kolejne inwersje dają więc przemiennie (pod względem
kierunku) namagnesowane pasy skorupy (rys. 5.16). Pole magnetyczne skał skorupy dodaje się do
obecnego pola Ziemi (gdy jest ono zgodne z tym polem) lub odejmuje (jeśli jest przeciwne). W
rezultacie obserwujemy obszary pola silniejszego lub słabszego. A zatem, jak w łamigłówce, złożyły
się tu trzy zjawiska: l.a.m., inwersje magnetyczne i rozrastanie się dna oceanicznego. Jak widać
istnienie l.a.m. doskonale zgadza siÄ™ z procesem spredingu.
http://www.melonxyz.republika.pl/
Termika
1. Krótko scharakteryzuj hipotetyczne zródła ziemskiego pola cieplnego. Wyszczególnij według ich udziału w
obserwowanym ziemskim przepływie ciepła
1. Ziemia powstawała jako ciało gorące i ulega ochładzaniu. 2. Ziemia narastała ze zbitków materii, i w związku z tym
podczas zderzania się cząstek wydzielało się ciepło (ale małe ilości) oraz zagęszczała się materia i następowała
konsolidacja (wzrost ciśnienia wytwarzał ciepło, lecz też małe ilości). 3. Wewnętrzne zródła ciepła: rozpad
pierwiastków promieniotwórczych. 5. Zwalnianie prędkości obrotowej Ziemi. 6. Ciepło wytwarzane w procesie
dyferencjacji magnet. Ziemi.
2. Własności cieplne skał jak można je wyznaczyć
http://delibra.bg.polsl.pl/Content/2472/Chmura.pdf
1. Wstęp teoretyczny
Badanie termicznych własności skał, minerałów i rud ma duże znaczenie dla poznania cieplnego reżimu skorupy
ziemskiej, wyjaśnienie genezy różnych kopalin użytecznych, rozszerzanie zakresu stosowania profilowań
temperaturowych otworów wiertniczych a także dla ustalenia prawidłowości zależności innych fizycznych własności
do cieplnego stanu skał
Do głównych termicznych własności skał zaliczamy współczynnik przewodności cieplnej lub jego
odwrotności : cieplna oporność właściwą ś cieplną pojemność właściwą Cwł i współczynnik przewodności
temperaturowej a.
Przewodność cieplna
Przewodność cieplna określa właściwości materiału do przewodzenia strumienia ciepła w wyniku różnicy
temperatur jego wódz przeciwległych powierzchni i jest mierzona współczynnikiem przewodzenia ciepła .
Przewodność cieplna skał charakteryzuje zdolność do przekazywania energii kinetycznej ruchu cieplnego cząsteczek.
Przewodności cieplna materiału jest to przechodzenie ciepła przez materiał o grubości 1m i powierzchni 1m2
przy różnicy 1K.
Przewodność cieplna materiałów zależy od dwóch zasadniczych parametrów:
- od ich ciężaru właściwego ( gęstości objętościowej)
- wewnętrznej struktury
Zasadniczo im mniejszy ciężar właściwy, tym słabsza przewodność cieplna, czyli lepsza izolacja termiczna. Z drugiej
strony ponieważ współczynnik przewodności cieplnej powietrza jest wielokrotnie mniejszy od współczynnika
przewodności cieplnej substancji stałych , materiałów o strukturze porowatej czyli wypełnione powietrzem słabiej
przewodzą ciepło. Widzimy zatem że korek jest idealnym izolatorem termicznym gdyż po pierwsze ma bardzo mały
ciężar właściwy a po drugie ma strukturę porowatą.
Współczynnik przewodności cieplnej danego materiału nie jest stały i zależy między innymi od zawartości
wilgoci. Wiele dobrych materiałów izolacyjnych traci swoje właściwości, jeśli ulegnie zawilgoceniu, gdyż woda
doskonale przewodzi ciepło. Korek jest pod tym względem materiałem bardzo odpornym gdyż nie psuje się pod
wpływem wody i nie nasiąka oraz nie przepuszcza pary wodnej. Jak dowodzą badania materiały takie jak styropian czy
wełna mineralna mają mniejszy od korka ciężar właściwy ale za to żaden materiał nie ma lepszego (mniejszego)
współczynnika przewodnoÅ›ci cieplnej ( 0,045 W/m°K)
Cieplna pojemność właściwa
Pojemność cieplna C ośrodka w ogólnym przypadku określa się stosunkiem ilości ciepła "Q dostarczonego w
jakimś procesie do wywołanej tym zmiany temperatury "T.
Pojemności cieplna odniesiona do jednostki masy ośrodka nosi nazwę właściwej pojemności cieplnej Cwł.
Pojemności cieplna odniesiona do jednostki objętości ośrodka jest nazywana objętościową właściwością pojemnością
cieplnÄ… Cv.
Właściwa pojemność cieplna Cwł ośrodka zależy od warunków jego nagrzewania. Przede wszystkim zawsze
pojemność właściwa Cwł określona przy stałym ciśnieniu jest większa od pojemności Cwł określonej przy stałej
objętości. Wynika to stąd że podczas grzania ośrodka przy stałym ciśnieniu część ciepła jest zużywana na rozszerzenie
ciała natomiast przy stałej objętości całe dostarczone ciepło idzie na wzrost wewnętrznej energii ciała
Pojemności cieplna przypadająca na jednostkę masy to ciepło właściwe a na 1mol to molowe ciepło właściwe (
ciepło molowe).
Pojemność cieplna C jest związana z ciepłem właściwym poprzez prostą zależność:
Gdzie: c ciepło właściwe
m- masa substancji
Pojemność cieplną oblicza się często na podstawie molowego ciepła właściwego według wzoru:
Gdzie: M masa molowa
Wygodnie jest rozpatrywać pojemność cieplną molową. We wszystkich równaniach poniżej używa się właśnie
molowych pojemności cieplnych.
Pojemność cieplna gazów:
W przypadku układów zawierających fazy nieskondensowane (gazy i pary) często konieczne jest jeszcze rozróżnienie
warunków w których mierzona jest (molowa) pojemność cieplna
·ð Dla przemiany izochorycznej (przy staÅ‚ej objÄ™toÅ›ci ukÅ‚adu, V=const)
·ð Dla przemiany izobarycznej (przy staÅ‚ym ciÅ›nieniu w ukÅ‚adzie, p=const)
Przewodności temperaturowa
Przewodność temperaturowa określa szybkość zmian temperatury skały w czasie ilościowo określa ją
współczynnik przewodności temperaturowej . Określa on cieplną inercję skał wyrażając zmiany temperatury
jednostki objętości ośrodka w jednostce czasu w trakcie zmian ciepła. Wzrost temperatury w próbce skały w
danym momencie czasowym jest związany z akumulacją doprowadzonego do niej ciepła i będzie tym większy
im mniejsza pojemność ciepła Cv jednostki objętości próbki. Równocześnie szybkość nagrzewania się skały jest
uwarunkowana intensywnością przechodzenia ciepła przy danej różnicy temperatur między sąsiednimi
warstwami wobec tego współczynnik przewodności temperaturowej wyraża się zależnością :
Gdzie :
Stąd wynika że :
Generalnie własności termiczne skał zależą o wielu czynników a w szczególności od :
a) Charakterystyki litologicznej
b) Składu granulometrycznego
c) Gęstości i porowatości
d) Charakteru i stopnia nasycenia
e) Anizotropii cieplnej
Skały dość dobrze różnicują się pod względem termicznych własności. Przy badaniach geotermicznych
szczególne znaczenia ma zróżnicowanie skał pod względem ich przewodności cieplnej. Duży wpływ na przewodność
cieplną skał ma ich skład mineralogiczno-petrograficzny
Do wyznaczania termicznych własności skał wykorzystuje się metody ustalonego i nieustalonego cieplnego lub
metodę krótkotrwałego impulsu liniowego zródła ciepła. W oparciu o tę ostatnią metodę zbudowano stanowisko
pomiaru fizyko termicznych własności skał składające się z dwu zasadniczych zespołów:
1) › metru z grzejnikiem który sÅ‚uży do wytwarzania elektrycznego impulsu grzejnego sterowanego w sposób
ręczny lub automatyczny
2) Rejestratora z termoparą rejestrującego napięcie o ustalonym zakresie pomiarowym 0-0,2 mV co pozwala na
pomiar przyrostu temperatury złącza termopary żelazno-niklowej
Jednym z etapów pomiarów termicznych parametrów skał jest cechowanie termopary mające na celu określenie
zależności między wielkością wychylenia i pisaka rejestratora od napięcia wyjściowego U rejestratora zależnego z
kolei od temperatury T złącza termopary. Cechowanie termopary ma na celu określenie stałej przewodnika C.
Po umieszczeniu grzejnika i termopary w uprzednio odwierconych otworach próbki skalnej przystępuje się po
pewnym czasie do wytworzenia określonej ilości ciepła Q w postaci impulsu.
2. Opis metody pomiarowej
Do wyznaczenia temperatury właściwej skały wykorzystujemy metodę krótkotrwałego impulsu liniowego zródła
ciepła. Przed przestąpieniem do właściwych pomiarów dokonuje się cechowania termopary która pozwoli na określenie
zależności między wielkością wychylenia pisaka rejestratora od napięcia wejściowego rejestratora który zależny jest od
temperatury. Określa się również temperaturę w funkcji wychylenia pisaka . Po włożeniu termopary do pojemnika z
cieczą i włączeniu rejestratora ustawiamy wskazówkę w pobliżu 0. Podnosimy stopniowo temperaturę cieczy
dolewając ciepłą wodę. Wykonujemy 10 odczytów temperatury wody i wskazań rejestratora. Następnie przystępujemy
do badania właściwości termicznych wcześniej przygotowanych próbek. Autotransformatorem ustalmy prąd impulsu
elektrycznego następnie następnie wkładamy w otwory w próbce grzałkę i termoparę, włączamy pisak rejestratora oraz
grzałkę i grzejemy przez zadamy okres czasu. Po wyłączeniu impulsu czekamy aż rejestrator odnotuje maksimum
temperatury przekazanej termoparze. Pomiar powtarzamy dla różnych wartości natężenia prądu i różnych czasów
impulsów.
3. Jak i przy jakich ograniczeniach można wyznaczyć powierzchniową gęstość ziemskiego strumienia energii
cieplnej.
1. WPROWADZENIE
Systematyczne badania gęsto.ci powierzchniowego
strumienia cieplnego Ziemi sÄ… prowadzone od 1963 roku
pod auspicjami Międzynarodowej Unii Geodezji
i Geofizyki (International Union of Geodesy and Geophysics).
W Polsce prekursorem tych badań był
S. Plewa (Plewa, 1966).
Dla oznaczenia gęsto.ci strumienia cieplnego Ziemi
niezbędne jest wykonanie pomiarów temperatury
w głębokich odwiertach w warunkach ustalonej równowagi
cieplnej oraz zbadanie wła.ciwej przewodno.ci cieplnej
skał w badanym profilu litostratygraficznym.
Istotnym elementem wpływającym na dokładno.ć oblicze
ń jest okre.lenie warunków transferu ciepła,
zwłaszcza ocena udziału składowej konwekcyjnej.
Przeprowadzono analizę dostępnych pomiarów
temperatury górotworu wykonanych w głębokich
od- wiertach oraz laboratoryjnych pomiarów własno.ci
cieplnych skał, ze szczególnym uwzględnieniem badań
wykonanych w parametrycznych otworach PIG OG
Sosnowiec, które zostały zaprojektowane w węzłowych,
dla rozpoznania budowy geologicznej, punktach
zagłębia. W wymienionych otworach równolegle z szerokim
zakresem badań geologicznych zostały wykonane
badania geotermiczne (profilowanie temperatury
w warunkach ustalonej równowagi cieplnej i badania
laboratoryjne własno.ci cieplnych skał).
Do chwili obecnej w omawianym obszarze obejmuj
ącym około 5500 km2 powierzchni wykonano ponad
5000 odwiertów, w tym ciągłe profilowanie
temperatury zostało zrealizowane w około 600 otworach
wiertniczych. Otwory wiertnicze z pomiarami temperatury
są rozmieszczone nierównomiernie, ich lokalizacja
pozostaje w .cisłym związku z rejonizacją obszarów
dokumentowania złóż węgla kamiennego, głęboko.ć
penetracji do końca lat siedemdziesiątych na ogół tylko
nieznacznie przekraczała 1000 m i podyktowana była
zainteresowaniem górnictwa wydobyciem węgla maksymalnie
do tej głęboko.ci. W latach osiemdziesiątych
bezpo.rednie rozpoznanie wiertnicze głębokich poziom
ów karbonu produktywnego prowadzono do
głęboko.ci 2000 m. Pomiary temperatury wykonano
przy zachowaniu szerokiego zakresu zmian kryterium
stabilizacji pola temperatur w sÄ…siedztwie otworu wiertniczego
(od pomiarów bezpo.rednio po płukaniu, do
pomiarów wykonanych po kilkunastodobowej stójce;
.rednia stójka 120 h). Pomiary temperatury realizowano
termometrami elektrooporowymi o bezwzględnej
dokÅ‚adno.ci pomiaru Ä…0,3°C. W spÄ…gu odcinków pomiarowych
prowadzono dodatkowo punktowe pomiary
temperatury, wykonane termometrami maksymalnymi.
Stwierdzone różnice nie przekraczajÄ… 0,5°C. Na ogół
błąd oceny rzeczywistej temperatury górotworu jest
znacznie większy i jest związany z obecno.cią dodatkowych
bod.ców termodynamicznych uruchomionych
w procesie wiercenia (Karwasiecka, Rychlicki,
1988).
Ocena parametrów geotermicznych górotworu
została przeprowadzona dla termogramów zarejestrowanych
w warunkach zbliżonych do quasistacjonarnych.
Podstawowym kryterium weryfikacji pomiaru temperatury
były: czas zatrzymania odwiertu od chwili zakoń-
czenia wszelkich prac instrumentacyjnych do chwili
pomiaru - .stójka. odwiertu, temperatura zarejestrowana
na poziomie neutralnym, gdzie zanikają wpływy
zwiÄ…zane z insolacjÄ…, oraz monotoniczny charakter
zmian temperatury z głęboko.cią.
Pomiary przewodno.ci cieplnej skał były realizowane
z wykorzystaniem metody stacjonarnego pomiaru
oraz z zastosowaniem wzorców, kryształu kwarcu
wyciętych wzdłuż osi optycznych, do kalibracji aparatury.
Badania laboratoryjne zostały wykonane w Zakładzie
Petrofizyki Przedsiębiorstwa Badań Geofizycznych
(PBG) w Warszawie. Próby przed wykonaniem pomiaru
były suszone do stałej wagi, w suszarce próżniowej
w temperaturze 105-110°C, nastÄ™pnie nasycone 5%
roztworem soli NaCl.
Przebadana kolekcja skał dotyczyła 2212 prób pobranych
z 20 odwiertów reprezentujących podstawowe
litotypy skał płonych występujące w profilu
litostratygraficznym. Przedmiotem analizy były próby
wycięte w kierunku równoległym do osi rdzenia. Ciepln
ą przewodno.ć węgla kamiennego przyjęto wg danych
literaturowych (Chmura, 1970; Chmura, Chudek, 1992;
M. Plewa, S. Plewa, 1999).
http://kgp.wnoz.us.edu.pl/Pdf/a6.pdf
4. Omów krótko zależność powierzchniowej gęstości strumienia cieplnego od mocy generowanego ciepła. Podaj
interpretację geologiczną tej zależności- co to są prowincje geotermalne ????
Izostazja
1. Wyjaśnij kiedy i dlaczego następuje zaburzenie równowagi izostatycznej Ziemi
Zaburzenie równowagi w skorupie ziemskiej powoduje izostatyczne ruchy dzwigania bądz zapadania części skorupy
ziemskiej, prowadzące do zrównoważenia sił czyli izostazji. Do zaburzenia izostazji może dojść w wyniku lokalnego
obciążenia litosfery lub lokalnego odciążenia. Do obciążenia dochodzi w wyniku tworzenia lądolodu, zwiększenia
ilości wody w morzach lub jeziorach, sedymentacji oraz ruchów górotwórczych, erozja lodu lub lądu prowadzi zaś do
odciążenia bloku litosfery.
Zaburzenie równowagi izostatycznej jest przyczyną pionowych ruchów skorupy ziemskiej. Do zaburzenia równowagi i
zapoczątkowania ruchów może dojść wskutek powstawania i zanikania lądolodów, sedymentacji, erozji, dodatkowego
obciążenia skorupy ziemskiej w wyniku ruchów górotwórczych, zmian fazowych minerałów, prądów konwekcyjnych
w płaszczu Ziemi, zmiany ilości wód w zbiornikach. Dodatkowe obciążenie powoduje wciśnięcie fragmentu skorupy
ziemskiej głębiej, zaś zdjęcie części w wyniku erozji lodowej lub lądowej prowadzi do podniesienia skorupy.
Przemiany fazowe minerałów w górnej części płaszcza lub dolnej warstwie skorupy prowadzą do zmian właściwości
fizycznych, w tym zmian objętości gęstości i mogą być przyczyną zarówno ruchu w górę, jak i w dół[1]. W
rozważaniach teoretycznych przyjmuje się, że litosfera zbudowana jest z bloków, pomiędzy którymi nie występuje
tarcie lub jest ono znikome. W rzeczywistości skorupa ziemska nie jest zbudowana z bloków, lecz tworzy sztywną,
sprężystą powłokę. Dodatkowy ciężar w części takiej powłoki powoduje zagłębienie się obszaru na której spoczywa
oraz przyległego. Kompensacja nie ma więc charakteru lokalnego, a regionalny. W Fennoskandii, gdzie odnotowuje się
ujemną anomalię izostatyczną, obserwuje się jednocześnie podnoszenie skorupy ziemskiej. Według szacunków
równowagę izostatyczną obszar ten osiągnie po podniesieniu się o około 200 m. Na obszarze Hawajów, gdzie
stwierdzono dodatnią anomalię izostatyczną, nie dochodzi do znaczącego obniżenia skorupy, co prawdopodobnie jest
efektem skompensowania sił przez sztywność skorupy ziemskiej.
Lądolody, które w przeszłości przekraczały grubość 2000 m, powodowały wciśnięcie zajętych obszarów. Przyjmuje
się, że w wyniku ustąpienia lodowców doszło do podniesienia obszarów Kanady o około 270 m, a Alaski o około 180
m. Dalsze podnoszenie obszarów zajętych w przeszłości przez lodowce według obliczeń doprowadzi do
przekształcenia Zatoki Botnickiej w Europie i Zatoki Hudsońskiej w Ameryce Północnej w jeziora. Jednocześnie
ubytek wody podczas tworzenia lądolodu prowadził do obniżenia o 100 m poziomu wód wskutek ubytku wody i
podniesienia dna o około 30 m wskutek zmniejszenia obciążenia. Stopienie lodowców powoduje obniżenie
dnaoceanów odpowiadające 1/3 dodatkowej warstwy wody.
2. Podstawowe założenia równowagi izostatycznej skorupy ziemi wg koncepcji Airy ego. Kiedy skorupa ziemska
osiąga stan równowagi izostatycznej
Według koncepcji Airy'ego linia poziomu wyrównania przechodzi przez bloki jednakowej gęstości lżejsze od
tworzącej podłoże astenosfery. O wyrównaniu ciśnienia decyduje wysokość kier. Obliczenia wskazują, że poziom
wyrównania izostatycznego leży na głębokości 110-120 km. Jeżeli blok znajduje się w stanie równowagi, nie działają
na niego żadne siły, gdy istnieją anomalie izostatyczne blok przemieszcza się w górę lub w dół. Stwierdzenie anomalii
izostatycznych dodatnich oznacza, że blok budujący litosferę powinien się zanurzyć głębiej. Anomalia izostatyczna
ujemna oznacza, że stan równowagi zostanie osiągnięty, gdy bok podniesie się.
3. Koncepcja równowagi izostatycznej Pratta
Zarówno hipoteza Pratta, jak i hipoteza Airy'ego przyjmują istnienie głębokości, na której panuje równowaga
hydrostatyczna. Poziom wyrównania izostatycznego, czyli poziom jednakowego ciśnienia działającego na jednostkę
powierzchni, w koncepcji Pratta to linia, nad którą znajdują się bloki o różnej gęstości. Bloki o niskiej gęstości
odpowiadajÄ… wzniesieniom na powierzchni.
Sejsmologia
1. Jaki sens fizyczny ma pojęcie magnitudy wstrząsu. Co oznacza magnituda M.=3,0 oraz M.= -2
Magnituda (łac. magnitudo "wielkość" od magnus) parametr stosowany w pomiarach wielkości trzęsienia ziemi,
wprowadzony w 1935 roku przez Charlesa Richtera wraz z opracowaniem przez niego skali magnitud , nazwanej
pózniej skalą Richtera.
Wielkość ta była definiowana jako logarytm największej amplitudy drgań gruntu mierzonej w mikronach,
zarejestrowanych przez sejsmograf Wooda-Andersona położony w odległości stu kilometrów od epicentrumtrzęsienia.
Tak dokładna definicja umożliwiała łatwe porównywanie wstrząsów sejsmicznych w różnych miejscachkuli ziemskiej.
W 1970 r. japoński geofizyk, HirM Kanamori, zmodyfikował sposób obliczania magnitudy, aby nadawała się ona do
określania energii najsilniejszych wstrząsów i nie była zależna od przestarzałego sejsmografu.
Obecnie magnituda obliczana jest na podstawie wartości momentu sejsmicznego, lecz w przedziale mierzonym przez
skalę Richtera jest z nią porównywalna.
Energię wyzwalaną w trakcie trzęsienia ziemi wyraża się w stopniach magnitudy. Magnituda równa 0 lub ujemna
(stosowana do oznaczania tzw. "mikrowstrząsów", rejestrowanych tylko przez bardzo czułe przyrządy) oznacza
wibracje rejestrowane tylko przez aparaturę pomiarową, zaś magnituda równa 9,5 (wartość magnitudy najsilniejszego,
udokumentowanego instrumentalnie trzęsienia ziemi) powoduje zmiany w otaczającym krajobrazie. Sejsmolodzy
powątpiewają w istnienie trzęsień ziemi o magnitudzie większej niż 10, jednak teoretycznie wszystkie skale pomiarowe
zjawisk sejsmicznych (np. logarytmiczna skala Richtera) to skale otwarte. Należy przy tym zaznaczyć, że każdy
kolejny stopień magnitudy jest mierzony, jako dziesięciokrotnie większy od poprzedniego, ale faktycznie: każdy
kolejny stopień niesie ze sobą w przybliżeniu 31-krotny wzrost energii.
Do pomiaru intensywności drgań gruntu służy natomiast szereg skal - dawniej opierających się na sondażach,
wykonywanych na grupie osób dotkniętych konkretnym trzęsieniem ziemi, obecnie zaś na wynikach pomiarów
przyspieszenia gruntu zmierzonego w trakcie wstrząsów. Do najpopularniejszych skal należy zmodyfikowana skala
Mercallego - Mercallego-Cancaniego-Sieberga (MCS). W skali tej stopień I oznacza wibracje rejestrowane wyłącznie
przez aparaturę pomiarową, a stopień XII - wstrząsy powodujące zmiany w otaczającym krajobrazie.
2. Metody lokalizacji ogniska wstrzÄ…su wady i zalety
Metody lokalizacji ogniska wstrząsu oparte na parametrach odczytywanych z sejsmogramów:
1. czas pierwszego przyjścia fali
2. metoda tłumienia
3. metoda lokalizacji względnej
4. metoda azymutalna
5. różnica czasów wstąpienia fali P i S
6. inne
Pomiary wstrząsów sejsmicznych dokonuje się za pomocą sejsmografów. Sejsmometrem określa się przyrząd
rejestrujÄ…cy, zaÅ› sejsmogram to sam zapis wstrzÄ…su.
Aparatury pomiarowe zainstalowane w stacjach sejsmicznych zwykle pracujÄ… bez przerwy, w istocie notujÄ…c
nieustanne drgania (bardzo rzadko zdarza się, aby na sejsmogramie utrwalona została idealnie pozioma linia). Jest to
najbardziej namacalny dowód na nieustanny ruch płyt tektonicznych.
Za najstarszy znany sejsmometr uważa się wynalazek skonstruowany przez chińskiego uczonego, Chan Henga(78-139
n.e.). Było to metalowe naczynie w kształcie dzbana, do którego ze wszystkich stron przymocowano głowy smoków, a
na otaczającej dzban podstawie figury żab. Każdy ze smoków trzymał w pysku dokładnie wyważoną kulkę. W chwili
nadejścia wibracji, wywołanych bardzo silnym wstrząsem sejsmicznym z epicentrum w dość dużej odległości od
urządzenia, kulka, ustawiona w paszczy smoka przymocowanego od strony epicentrum, spadała do paszczy ropuchy.
W ten sposób władze cesarskie potrafiły wysłać pomoc w region klęski żywiołowej jeszcze przed nadejściem
rządowego posłańca.
3. Na czym polega lokalizacja ogniska wstrząsu metodą fali P. Omów krótko istotę tej metody i uzasadnij konieczną
liczbę stacji które zarejestrowały wstrząs do zlokalizowania ogniska wstrząsu
polega na rejestracji czasu wejścia fali podłużnej P na poszczególne stacje pomiarowe. Fala P zawsze przychodzi jako
pierwsza. Jest to najdokładniejsza metoda wyznaczania epi i hipocentrum. X-stacje sejsmiczne; t- czas przyjścia fali
pomiarowej do każdej stacji, to- czas w ognisku.Nalezy wyznaczyć współrzędne epicentrum xo,yo. Układamy to w
układ równań, jeśli znamy prędkość- są 3 niewiadome w postaci płaskiej, a 4 w postaci przestrzennej. Aby rozwiązać
układ równań należy mieć 4 równania w przypadku płaskim, a 5 w przestrzennym. Są to równania z kilkoma
rozwiązaniami wiec musimy mieć wiekszą liczbe równań.
4. Na czym polega lokalizacja ogniska wstrząsu metodą fal S-P. Omów krótko istotę metody uzasadnij konieczną
liczbÄ™ stacji do zlokalizowania ogniska ????
5. Jaki sens fizyczny ma pojęcie intensywności wstrząsu od czego zależą zniszczenia obiektów w wyniku
dochodzÄ…cych fal sejsmicznych
Oznaczanie siły trzęsień ziemi i intensywności drgań gruntu
Energię wyzwalaną w trakcie trzęsienia ziemi wyraża się w stopniach magnitudy. Magnituda równa 0 lub ujemna
(stosowana do oznaczania tzw. "mikrowstrząsów", rejestrowanych tylko przez bardzo czułe przyrządy) oznacza
wibracje rejestrowane tylko przez aparaturę pomiarową, zaś magnituda równa 9,5 (wartość magnitudy najsilniejszego,
udokumentowanego instrumentalnie trzęsienia ziemi) powoduje zmiany w otaczającym krajobrazie. Sejsmolodzy
powątpiewają w istnienie trzęsień ziemi o magnitudzie większej niż 10, jednak teoretycznie wszystkie skale pomiarowe
zjawisk sejsmicznych (np. logarytmiczna skala Richtera) to skale otwarte. Należy przy tym zaznaczyć, że każdy
kolejny stopień magnitudy jest mierzony, jako dziesięciokrotnie większy od poprzedniego, ale faktycznie: każdy
kolejny stopień niesie ze sobą w przybliżeniu 31-krotny wzrost energii.
Do pomiaru intensywności drgań gruntu służy natomiast szereg skal - dawniej opierających się na sondażach,
wykonywanych na grupie osób dotkniętych konkretnym trzęsieniem ziemi, obecnie zaś na wynikach pomiarów
przyspieszenia gruntu zmierzonego w trakcie wstrząsów. Do najpopularniejszych skal należy zmodyfikowana skala
Mercallego - Mercallego-Cancaniego-Sieberga (MCS). W skali tej stopień I oznacza wibracje rejestrowane wyłącznie
przez aparaturę pomiarową, a stopień XII - wstrząsy powodujące zmiany w otaczającym krajobrazie.
Fale sejsmiczne rozchodzące się z hipocentrum docierają najprędzej do powierzchni Ziemi w miejscu położonym
bezpośrednio nad ogniskiem. Miejsce to zwiemy epicentrum. Im dalej od epicentrum, tym pózniej dobiegają drgania i
tym są one słabsze. Dlatego największe zniszczenia występują w najbliższym jego sąsiedztwie, tzw. Obszarze
epicentralnym, w którym także najsilniej zaznacza się działania fal długich. Te ostatnie przedstawiają fale wtórne,
wzbudzone na powierzchni ziemi przez fale podłużne i poprzeczne; powodują one największe wychylenia gruntu i tym
samym - zniszczenia. Rozmiary obszaru epicentralnego zależą od wielkości trzęsienia ziemi i od głębokości ogniska.
Skutki trzęsienia ziemi zalezą od siły wstrząsów, głębokości, na której powstają oraz od rodzaju skał na powierzchni
ziemi. Grunt może pękać, unosić się i zapadać. W obszarach górzystych mogą powstać lawiny i osuwiska, nawet na
łagodnych stokach gliniaste gleby mogą zacząć pełznąć na podobieństwo -płynnej lawy.
Trzęsienie ziemi trwa na ogół nie dłużej niż kilka sekund, ale niektóre trwają minutę lub dłużej. Trzęsienie ziemi w San
Francisco w 1906 roku trwało np.. 40 sekund, podczas gdy trzęsienie ziemi, które nawiedziło Alaskę 24 stycznia 1964
roku wstrząs sało ziemią ponad 7 minut, z tego przez 3 minuty ze szczególnie niszczącą siłą.
Często głównemu wstrząsowi towarzyszą tzw. Wstrząsy potomne, z których każdy kolejny jest słabszy od
poprzedniego. WstrzÄ…sy potomne powstajÄ… wskutek przemieszczania siÄ™ mas skalnych, dopasowujÄ…cych siÄ™ do stanu
nowej równowagi. Mogą one powodować katastrofalne zniszczenia nieobliczalne w skutkach. W 1985 roku zostało
zniszczone centrum stolicy Meksyku w następnie trzęsienia ziemi ocenianego w skali Mercalliego na 11 stopni.
Następnie wystąpił wstrząs potomny w sile 10 stopni, a obrócił on w ruinę jeszcze większą część miasta.
6. Co musi zawierać prognoza trzęsienia ziemi czy można przewidywać trzęsienia ziemi
Badania dotyczące prognozowania trzęsień ziemi najbardziej zaawansowane są w Stanach Zjednoczonych, Japonii,
Chinach i do niedawna także w Związku Radzieckim. W dwóch krajach powołano narodowe zespoły naukowe
upoważnione do oceny przesłanek świadczących o możliwości wystąpienia trzęsienia ziemi.
W 1975 roku przy urzędzie gubernatora Kalifornii powołano specjalny zespół naukowy do oceny prognoz wystąpienia
trzęsień ziemi w tym stanie. Zajmuje się on wyłącznie oceną podstaw naukowych prognozy konkretnego trzęsienia
ziemi. Do roku 1992 zespół ten ocenił jedynie trzy przypadki prognozy dotyczące przyszłych trzęsień ziemi w
Kalifornii.
Jedyna oficjalna prognoza w tym stanie, która zyskała ogromną popularność w środkach masowego przekazu,
dotyczyła trzęsienia, które powinno nastąpić między rokiem 1987 i 1993 w pobliżu miasteczka Parkfield leżącego obok
uskoku Świętego Andrzeja. W 1985 roku uczeni doszli do wniosku, że następne trzęsienie ziemi po trzęsieniu w 1966
roku powinno tam nastąpić w roku 1993. W połowie listopada 1993 roku w Parkfield zanotowano trzęsienie o
magnitudzie 4.8. Władze stanowe ogłosiły 14 listopada 1993 roku alert sejsmiczny na poziomie A, co oznaczało jedną
szansę na trzy, że w ciągu 72 godzin trzęsienia ziemi o magnitudzie 6.0. Okres alertu minął, trzęsienia ziemi nie było, a
najpoważniejszym incydentem alertu była kolizja samochodu prasowego z zabłąkaną krową.
Bez względu na dotychczasowe niepowodzenia w prognozowaniu trzęsień ziemi w Parkfield, eksperyment kalifornijski
dostarczył wielu obserwacji i pozwolił pogłębić wiedzą na temat prognozowania trzęsień ziemi. Od 1985 roku
Parkfield stało się prawdziwą mekką dla specjalistów studiujących te spektakularne zjawiska przyrody. W rejonie tym
założono 28 różnych sieci obserwacyjnych do pomiaru aktywności sejsmicznej, zmian parametrów geofizycznych,
poziomu wód gruntowych oraz pól elektro magnetycznych. Specjalistyczne pzyrządu geodezyjne rejestrują deformację
skał oraz różnych przemieszczeń na uskoku. Z pomiarów tych wynika , że ilość nagromadzonej energii sprężystej w
skorupie ziemskiej w rejonie Parkfield wystarcza do wywołania trzęsienia ziemi o magnitudzie co najmniej 6.0.
Akumulacja jest warunkiem koniecznym, ale nie jedynym powstania trzęsienia ziemi.
Właśnie nieznajomość warunków dostatecznych czyni prognozowanie zjawisk sejsmicznych zadaniem niezwykle
trudnym. Niejasna sÄ… procesy fizyczne i mechanizmy samej inicjacji rozrywu mas skalnych zwiÄ…zanych z
powstawaniem trzęsienia ziemi.
Przez długi e okresy w ogóle się go nie obserwuje. Siła tarcia utrzymuje płyty w bezruchu. Kiedy naprężenia stają się
większe niż wytrzymałość skał następuje gwałtowne pęknięcie - trzęsienie ziemi uruchamiające płyty. Nikt nie potrafi
przewidzieć dokładnie kiedy może nastąpić trzęsienie ziemi. Skrupulatne opracowywanie map i monitoring aktywności
sejsmicznej umożliwiają naukowcom określenie stref zagrożenia i częstości występowania wstrząsów sejsmicznych.
kilka wielkich trzęsień ziemi grzecznie zapowiedziało swoje nadejście w postaci serii drobnych wstrząsów
7. Jak należy rozumieć energię całkowitą trzęsienia Ziemi i energie sejsmiczną. Jaka część energii całkowitej może
być wydzielona w formie energii fal sejsmicznych ????
8. Uzasadnij dlaczego w skałach osadowych prędkośc fali podłużnej zależy od porowatości efektywnej równanie
czasów średnich Wyllie go
Sejsmika
1. Od czego zależy prędkość propagacji fali podłużnej w skałach
Prędkość rozchodzenia się fali, a zatem i jej długość zależą od właściwości mechanicznych ośrodka, w którym
propagujÄ… siÄ™ zaburzenia.
Do głównych czynników mających wpływ na prędkość fali zaliczyć należy gęstość ośrodka i jego właściwości
sprężyste.
W przypadku różnych rodzajów fal mechanicznych i ośrodków, równania przestawiające prędkość rozchodzenia się
fali mają nieco inną postać. Poniżej przedstawiono wzory na prędkość fal poprzecznych i podłużnych w wybranych
ośrodkach.
1. Fala poprzeczna w ciele stałym.
gdzie: M moduÅ‚ sprężystoÅ›ci postaciowej, Á gÄ™stość ciaÅ‚a.
2. Fala podłużna w ciele stałym.
Fala podłużna w ciele stałym rozchodzi się około 1,5 razy szybciej niż fala poprzeczna.
3. Fala podłużna w cieczy i gazie.
gdzie: K - moduł ściśliwości ośrodka.
2. Co to jest tłumienie fal sejsmicznych i od czego zależy jego miara w skałach
Maksymalne tłumienie fal sprężystych obserwuje się w gazach, mniejsze w cieczach a minimalne w
ciałach stałych. Górotwór będąc ośrodkiem mało sprężystym, porowatym, niejednorodnym, tłumi
fale silniej niż ciecz, dlatego współczynnik tłumienia fali w skałach porowatych w miarę nasycania
ich wodÄ… zmniejsza siÄ™.
3. Definicja geofizyczna granicy Moho interpretacja geologiczna
Nieciągłość Mohorovi%0ńicia (nieciągłość Moho) termin geologiczny, oznaczający granicę
pomiędzyskorupą i płaszczem Ziemi. Jest to kilkusetmetrowej grubości warstwa przejściowa. Leży na różnych
głębokościach, pod oceanami średnio na głębokości 5-8 km, natomiast pod kontynentami znacznie głębiej około 35
km. Pod wysokimi górami (np.Himalajami) może leżeć nawet na głębokościach do 80 km.
Odkryta została w 1909 roku przez Andriję Mohorovi%0ńicia, chorwackiego meteorologa isejsmologa, który zauważył
skokową zmianę prędkości fal sejsmicznych na tej właśnie głębokości od ok. 7 km/s do nieco powyżej 8 km/s [1].
Warunki panujące w skałach w tej strefie są znane dzięki odsłonięciom sekwencji ofiolitowej - skał powstałych na dnie
oceanu. Do tej pory żadne wiercenia nie dotarły do nieciągłości Moho. Najgłębszy odwiert na lądzie sięga ponad 12 km
pod powierzchnię (SG-3 na Półwyspie Kolskim), a na oceanie 2111 metrów (Statek JOIDES Resolution, odwiert
504B, wschodni Pacyfik[2]) pod jego dnem. Na początku drugiej połowy XX wieku istniała propozycja wywiercenia
otworu w dnie oceanu, który sięgałby do tej nieciągłości (tzw. Projekt MOHOLE), ale z powodu braku środków
zaniechano jego realizacji w 1967 r.
W ostatnich latach do strefy nieciągłości i do górnego płaszcza chcą się przewiercić Japończycy przy pomocy
kosztującego 540 mln dolarów statku badawczego "Chikyu". Statek ten może wykonać odwierty do głębokości 10 km
przy maksymalnej głębokości dna oceanu 2500 m.[3] Dotarcie do strefy Moho jest dla japońskich naukowców sprawą
kluczową, gdyż pozwala zweryfikować teorie na temat budowy płaszcza ziemskiego i w konsekwencji lepiej
zrozumieć mechanizm powstawania trzęsień ziemi.
4. Budowa, funkcje i zasada działania aparatury sejsmicznej
Aparatura badawcza
Sprzęt pomiarowy
Zakład dysponuje własnymi zestawami aparatur pomiarowych, które mogą być użyte w różnych eksperymentach sejsmicznych, w zależności od założonych celów naukowych:
·ð Wspólna pula polsko-austriacko-fiÅ„ska: 90 jednokanaÅ‚owych stacji sejsmicznych typu RefTEK 125 Texan (USA) wraz z 4,5 Hz geofonami pionowymi. SÄ… to powszechnie używane na
całym świecie aparatury typowo polowe , pozwalające na szybkie rozstawianie na profilu (możliwe jest ich zakopanie w ziemi).
Stacja sejsmiczna typu RefTEK 125 Texan z podłączonym geofonem.
·ð 50 jednokanaÅ‚owych stacji sejsmicznych DATA-CUBE (Niemcy) wraz z geofonami pionowymi 4,5 Hz. Nowoczesna aparatura polowa z wmontowanym odbiornikiem GPS i zasilaniem
bateryjnym, rejestrująca na standardowych kartach pamięci. Bardzo lekka i łatwa w obsłudze i programowaniu.
Stacja sejsmiczna typu DATA-CUBE z podłączonym geofonem.
·ð 6 dennych stacji sejsmicznych (Ocean Bottom Seismometer) typu CMG-6TC OBS wraz z wyposażeniem i oprogramowaniem - produkcja Güralp Systems Ltd
OBS umieszczony w skrzyni dostosowanej do transportu.
·ð 2 cyfrowe rejestratory sejsmiczne typu FDL, produkcji IGF PAN (ZakÅ‚adu Konstrukcji Aparatury) UrzÄ…dzenia te pozwalajÄ… na rejestracje w ciÄ…gu dÅ‚ugiego czasu, można podÅ‚Ä…czyć do nich
czujniki 3-składowe fal sejsmicznych. Wymagają zasilania zewnętrznego i umieszcza się je w budynkach.
·ð 20 trójskÅ‚adowych sejsmometrów (1 Hz ) MARK-L4C produkcji (USA)
Trójskładowy sejsmometr MARK-L4C.
·ð 9 sejsmometrów SM3 (1 Hz) produkcji radzieckiej
Sejsmometr SM3
Większość przetwarzania i modelowania odbywa się na komputerach klasy PC, pracujących w środowisku Linuxa. Dane gromadzone są na macierzy dyskowej typu NAS. Przetwarzanie danych
realizowane jest w doskonałym (i darmowym!) pakiecie Seismic Unix.
Zakład posiada także stały dostęp do klastra obliczeniowego Dell PowerEdge M1000e z węzłami:
·ð 1x Dell M620 1 x Intel(R) Xeon(R) CPU E5-2665 @ 2.40GHz, 128GB RAM
·ð 7x Dell M620 2 x Intel(R) Xeon(R) CPU E5-2640 @ 2.50GHz, 32GB RAM
Klaster wyposażony jest również w switch InfiniBand dla szybszego połączenia między węzłami i zewnętrzną macierzą dyskową.
Modelowanie
Modelowanie sejsmiczne prowadzimy głównie metodÄ… promieniowÄ… używajÄ…c pakietu SEIS83 (ervenż V. i Paen%0Å„ík I., 1983. 2-D seismic ray tracing package SEIS83) wraz z interfejsem
graficznym MODEL (Komminaho K., 1993) i ZPLOT (Zelt C.A., 1994.).
Używamy także metod inwersyjnych i tomograficznych 2D i 3D:
·ð JIVE3D (Hobro J.W.D., Singh S.C., Minshull T.A., 2003.),
·ð Pakiet tomograficzny na podstawie pierwszych wejść autorstwa J.A. Hole'a (Hole J.A., 1992),
·ð Fast (Zelt C.A., Barton P.J., 1998), RayInvr (Zelt, C. A. and R. B. Smith, 1992).
Aparatura AMAX-GSI jest wielokanałową cyfrową aparaturą sejsmometryczną do rejestracji prędkości i przyspieszeń drgań na powierzchni. Wbudowane w sprzęt oprogramowanie do interpretacji
sejsmogramów napisane jest w środowisku Windows i umożliwia wygodną i szybką obsługę graficzną oraz analizę danych i ocenę wpływu wstrząsów na obiekty budowlane w oparciu o skalę GSI (nowa
skala górnicza opracowana dla wstrząsów z obszaru LGOM i GZW) oraz w oparciu o skalę MSK-64, SWD i DIN-4150 (skale do analizy wstrząsów, strzelań ładunkami MW oraz wibracje przemysłowe).
Aparatura AMAX-GSI może pracować samodzielnie w terenie lub współpracować na odległość z biurem (modemowa lub radiowa transmisja danych pomiarowych z terenu). Aparatura posiada 16 bitową
kartę przetwornika AC, która zapewnia dużą dynamikę i w konsekwencji powoduje nie przesterowywanie drgań od nawet najsilniejszych wstrząsów górniczych. Częstotliwość próbkowania rejestrowanych
zjawisk ustawiana jest opcjonalnie przez użytkownika.
System może być w łatwy sposób przeinstalowywany w różne miejsca, zgodnie z potrzebami i rozwojem sejsmiczności lokalnej w mieście. Oprogramowanie interpretacyjne umożliwia samodzielną analizę
wstrząsów przez użytkownika. Aparatura AMAX- GSI działa na zasadzie czuwania i zapisywania wszystkich zjawisk po przekroczeniu ustawionego programowo przez użytkownika progu drgań. W
pamięci może być zapisanych wiele tysięcy zjawisk sejsmicznych, co umożliwia ciągły monitoring ryzyka sejsmicznego przez kilka miesięcy , nawet bez ingerencji obsługi .
Aparatura może być również wykorzystana do pomiaru ciągłego bez opcji automatycznego wyzwalania (np. przy pomiarach drgań od ruchu ulicznego, kafarów, wibromłotów itp.).
Oprogramowanie SEJSGRAM (stanowiące wyposażenie standardowe aparatury AMAX- GSI) umożliwia dokonywanie wszelkich analiz sygnałów sejsmicznych niezbędnych do monitoringu, analizy i
oceny zagrożenia sejsmicznego na powierzchni.
Aparatura AMAX- GSI sprzedawana jest w wersji wykalibrowanej, a każde zarejestrowane zjawisko opisane jest w rzeczywistych jednostkach układu SI (np. amplitudy przyspieszenia w m/s2 , amplitudy
prędkości drgań w m/s) .
Główne zalety:
Podstawowe zalety standardowego oprogramo-wania aparatury AMAX:
·ð przejrzysta i wygodna prezentacja graficzna zarejestrowanych wstrzÄ…sów
·ð analiza widmowa wstrzÄ…sów (FFT)
·ð caÅ‚kowanie zapisów przyspieszenia drgaÅ„ na amplitudy prÄ™dkoÅ›ci z uwzglÄ™dnieniem korekty linii bazowej (tzw. baseline correction)
·ð projektowanie przez użytkownika filtrów o wybranej dowolnej charakterystyce
·ð opcja automatycznej oceny zarejestrowanych wstrzÄ…sów na budynki przy użyciu skali GSI.
·ð Obliczanie czasu trwania wstrzÄ…su
·ð Eksport i import plików w formacie ASCII
·ð monitoring obiektów powierzchniowych
·ð ocena wpÅ‚ywu eksploatacji górniczej na kubaturowe obiekty powierzchniowe (po analizie danych)
Zastosowania rynkowe:
Podstawowym celem wykorzystania aparatury AMAX-GSI jest pomoc dla lokalnych społeczności, zakładów pracy itp. przy monitorowaniu potencjalnie szkodliwych drgań pochodzących od maszyn,
strzelań materiałami wybuchowymi czy prowadzonej eksploatacji górniczej. Dzięki temu można oceniać możliwy wpływ tych drgań na uszkodzenia badanych obiektów, głównie budynków mieszkalnych
oraz przemysłowych. Pozwala to w sposób wymierny tzn. finansowy ocenić wartość poniesionych strat.
O FIRMIE
Firma GeoSpectrum prowadzi działalność w zakresie inżynierskich badań geofizycznych, geotechniki, geologii oraz analiz stateczności. Dodatkowo świadczy usługi w
zakresie doradztwa w doborze geofizycznych metod i zakresu ich prac dla optymalnego wykonania zadań inżynierskich. Prowadzi nadzór oraz weryfikację wyników prac
geofizycznych wykonanych przez inne podmioty. Doradza także w wyborze i wdrożeniu aparatury geofizycznej w zakresie jej obsługi oraz oprogramowania geofizycznego.
Kadra firmy posiada uprawnienia geofizyczne i geologiczne w zakresie projektowania, dozorowania i wykonywania
prac geofizycznych i geologicznych. W ciągu kilkunastu lat wykonała pomiary, przetwarzanie i interpretację kilku
tysięcy kilometrów profili georadarowych, kilkudziesięciu kilometrów profili sejsmicznych i elektrooporowych oraz
kilku tysięcy punktów grawimetrycznych. Doświadczenie zdobyte zarówno w sferze naukowej jak i w przemysłowej
pozwala na optymalizację doboru nowoczesnych technik badawczych (na etapie pomiarów, przetwarzania danych
oraz interpretacji) dla szczegółowego rozpoznania struktury i stanu geomechanicznego badanego ośrodka.
Firma do badań geofizycznych wykorzystujenowoczesne aparatury uznanych producentów:
- najnowszy i unikalny w Polsce model rejestratora sejsmicznego Geode-24CH v.2012 - produkcji Geometrics Inc.
USA
- okablowanie i czujniki (geofony pionowe, poziome i wieloskładowe, aktywne pojedyncze sondy hydrofonowe
DEEPENDER 500 lub wielokanałowe)
uznanych producentów jak GeoSpace LP/OYO,Geometrics Inc.USA
- otworowe kierunkowe pojedyncze sondy geofonowe jedno-, wielokierunkowe,
- nowatorskie otworowe kierunkowe systemy wielokierunkowych sond geofonowych,
- unikalny geofonowy landstreamer powierzchniowy,
- udarowe powierzchniowe zródła energii sejsmicznej (elektrodynamiczny kafar "accelerated weight drop" PEG-40
produkcji R.T. Clark, młot sejsmiczny "sledgehammer")
- otworowe zródła energii sejsmicznej: fali podłużnej "P-Wave Source" i poprzecznej "S-Wave Source", w otworach
suchych i zawodnionych,
- systemy georadarowe anten o różnych częstotliwościach, ekranowane, nieekranowane oraz otworowe: RAMAC,
X3M, ProEX, RIS, SIR produkcji: Mala, IDS, GSSI,
- system do pomiarów elektrooporowych ARES oraz Terrameter LUND SYSTEM produkcji: GF Instruments, ABEM,
- konduktometry EM-31, EM-61-MK2, seria CMD produkcji: Geonics, GF Instruments.
Kadra ma także wieloletnie doświadczenie w obsłudze specjalistycznego oprogramowania geofizycznego
takiego jak:
- pakiet do przetwarzania interpretacji danych sejsmicznych refrakcyjnych i MASW: SeisImager 2D /SW
(programy PickWin, Plotrefa, WaveEq, Geoplot (prod. OYO Corporation),
- pakiet do przetwarzania interpretacji danych georadarowych i sejsmicznych: ReflexW (Sandmeier),
- program do przetwarzania i interpretacji Res2DInv (GEOTOMO SOFTWARE),
- program do przetwarzania i interpretacji pionowych sondowań geoelektrycznych IPI2Win oraz innych
aplikacji.
Naszymi atutami są przede wszystkim bardzo wysoka jakość usług realizowanych przez doświadczoną
kadrę uprawnionych inżynierów, szybki czas mobilizacji i realizacji zadania oraz optymalna oferta
cenowa.
Serdecznie zapraszamy Państwa do zapoznania się z naszą ofertą.
5. Omów krótko zadania i najważniejsze wyniki głębokich sondowań
sejsmicznych w Polsce.
http://private.igf.edu.pl/~michalm/pliki/mm_phd.pdf
Aktywne eksperymenty sejsmiczne
Wśród wielu metod badawczych, które pozwalają poszerzyć wiedzę o strukturze litosfery należy wyróżnić metody sejsmiczne, a zwłaszcza głębokie badania sejsmiczne. Badania te wykorzystują
rejestracje fal sejsmicznych, które rozchodząc się w Ziemi nawet na znacznych odległościach niosą ze sobą informacje o jej wewnętrznej strukturze. Używane są różne zródła energii sejsmicznej i
różne metody interpretacji zarejestrowanych fal. W naszym Zakładzie zajmujemy się głównie modelowaniem i interpretacją danych pochodzących z aktywnych, rzadziej pasywnych eksperymentów
sejsmicznych.
Jako zródła energii w aktywnych eksperymentach sejsmicznych wykorzystywane są eksplozje ładunków chemicznych (zazwyczaj trotylu - TNT) lub umieszczone na specjalnych pojazdach
(wibratorach sejsmicznych), ciężkie płyty stalowe, które uderzając o powierzchnię gruntu, wprawiają go w drgania i generują użyteczne dla nas fale. W projektach morskich zródłem wzbudzenia fal są
prócz ładunków chemicznych (TNT) tzw. działka na sprężone powietrze (ang. air-guns) ciągnięte za statkiem. Wzbudzana w ten sposób energia sejsmiczna rejestrowana jest za pomocą sejsmografów
dennych (ang. ocean bottom seismometer, OBS) lub/także stacji lądowych. W dużych eksperymentach lądowych, o skali ponadregionalnej, do rejestracji fal sejsmicznych wykorzystuje się dużą liczbę
(zwykle kilkaset) jednokanałowych (składowa pionowa drgań) rejestratorów cyfrowych.
W projektach pasywnych, które prowadzi się w dłuższych okresach pomiarowych (zwykle rok lub dłużej), wykorzystujących energię pochodzącą z naturalnych zródeł (dalekie silne trzęsienia ziemi, ale
także i wstrząsy lokalne) i zródeł przemysłowych (kopalnie, kamieniołomy itp.) stosuje się często rejestracje trzech składowych (Z, N, E).
Mimo znacznego wzrostu w ostatnich latach liczby eksperymentów pasywnych i spektakularnych możliwości badawczych jakie ze sobą niosą, wciąż najlepszym narzędziem do rozpoznania struktury
skorupy i górnego płaszcza pozostają metody sejsmologii aktywnej - refrakcyjna i refleksyjna.
Stosowany przez nas wariant metody refrakcyjnej nazywany jest też metodą głębokich sondowań sejsmicznych (GSS, ang. deep seismic soundings - DSS) lub metodą refrakcji i odbić
szerokokątowych (ang. wide-angle reflection and refraction - WARR). Polega on na rejestracji i interpretacji fal załamanych i odbitych od granic strukturalnych w głębi Ziemi. Pozwala na określenie
parametrów fizycznych skorupy i górnego płaszcza Ziemi w badanym regionie (pola prędkości fal sejsmicznych P (Vp), a także fal S (Vs) i rozkładu współczynnika Vp/Vs) oraz geometrii granic
sejsmicznych. W zależności od skali i projektu eksperymentu oraz jakości uzyskanych danych można na ich podstawie otrzymać jedno-, dwu- lub trójwymiarowe modele struktury litosfery dla
badanego obszaru.
Metoda refleksyjna dzięki otrzymanym sekcjom sejsmicznym pozwala poznać bardzo dokładny obraz właściwości odbijających (refleksyjności) w poszczególnych warstwach skorupy i górnego
płaszcza, a co za tym idzie, ich zróżnicowanie, kierunek zapadania granic itd. Metoda ta, poza stosunkowo płytkimi warstwami, nie pozwala na precyzyjne określenie prędkości fal sejsmicznych, a w
konsekwencji daje tylko przybliżoną informację o dokładnej głębokości horyzontów odbijających. Głębokie badania refleksyjne mają kilkakrotnie wydłużone czasy rejestracji w porównaniu do
standardowych refleksyjnych badań poszukiwawczych, których zasięg ograniczony jest zwykle do kilku kilometrów głębokości. Do pomiarów polowych i przetwarzania danych wymagane jest
zaangażowanie specjalistycznych przedsiębiorstw geofizycznych dysponujących odpowiednim wyposażeniem technicznym.
Informacje uzyskane dzięki obu metodom uzupełniają się wzajemnie, a ich wspólne wykorzystanie pozwala na dużo dokładniejszy opis własności modelu niż jest to możliwe przy użyciu tylko jednej z
metod.
6. Hodogafy fal czołowych (refrakcyjnych). Na czym polega interpretacja
hodograf fali sejsmicznej - wykres krzywej odczytanego na sejsmogramie czasu przebiegu fali sejsmicznej od ogniska wstrząsu do geofonu; analiza hodografu umożliwia
wyznaczenie głębokości zalegania powierzchni załamującej (refrakcyjnej) lub odbijającej (refleksyjnej).
15) Interpretacja hodografu fali załamanej. jaka zawiera informacje o osrodku i jak ja wyznaczamy?
Hodograf fali refrakcyjnej jest to wykres czasów pierwszych wejść dla fali bezpośredniej i refrakcyjnej (czołowej)
zarejestrowany przez wszystkie geofony rozstawu. Interpretacja hodografu polega na obliczeniu prędkości pozornej
propagacji fal (na podstawie nachylenia hodografu prędkość pozorna w kierunku zanurzania granicy mniejsza niż w
kierunku odwrotnym) oraz głębokości granic. Równanie hodografu uzyskuje się dzieląc drogi poszczególnych
segmentów przez odpowiednie prędkości propagacji fal. Efektem interpretacji hodografu jest przekrój refrakcyjny.
Dostarcza informacji o rzeczywistych prędkościach fal załamanych, ilości, głębokości, kształtach i kątach zalegania
granic ośrodków skalnych.
7. Poprawka dynamiczna w sejsmice. Dlaczego siÄ™ jÄ… wprowadza
wprowadzenie poprawek statycznych i dynamicznych - poprawka statyczna polega na uwzględnieniu wpływu
topografii terenu i strefy małych prędkości, nie jest zależna od czasu - wprowadza się ją w dowolnym momencie
przetwarzania danych. Poprawka dynamiczna polega na przeliczeniu czasów zmierzonych na poszczególnych trasach
na czas podwójny pionowy, zmierzony w punkcie leżącym najbliżej punktu wzbudzenia (prostowanie hodografów),
należy ją wprowadzić przez sumowaniem;
8. Hodografy fal odbitych. Jakie zawierają informacje o ośrodku geologicznym. Na czym polega interpretacja,
14) Interpretacja hodografu fali odbitej. (Jaka zawiera informacje o osrodku i jak ja wyznaczamy?
- jest to wykres ilustrujący czas przyjscia fali w funkcji odległości od punktu obserwacyjnego , z hodografu
można odczytac prędkość rozchodzenia się fali, wyznaczyc nieciągłości, głębokości. Hodograf fali refrakcyjnej
jest to wykres czasów pierwszych wejść dla fal refleksyjnych zarejestrowanych przez wszystkie geofony
rozstawu. Nie rejestruje się bezpośrednio prędkości fal, lecz czas nadejścia fali do punktu obserwacyjnego.
(wykres zależności czasu przebiegu fali sejsmicznej od odległości między hipocentrum a punktem jej
obserwacji). Każdy punkt granicy odbijającej dostarcza informacji tylko jeden raz. Oś czasu wystawiona jest w
punkcie wzbudzenia fal. Czas T0 zależy od głębokości granicy odbijającej, głębokość jest wprostproporcjonalna
do T0. Kształt h. zal od prędkości propagacji (v), przy h stałym im wyższa prędkość tym czas nad punktem
wzbudzania t0 mniejszy i hodograf jest bardziej płaski-GRANICA PAASKA
vð analiza pozwala wyznaczyć prÄ™dkość fal sejsmicznych
vð ksztaÅ‚t hodografu zależy do wÅ‚aÅ›ciwoÅ›ci fizycznych skaÅ‚
9. Istota i fakty metody pokryć wielokrotnych wspólnego punktu odbicia
Natomiast w pomiarach refleksyjnych metodą pokryć wielokrotnych użyteczne są fale odbite od granic i nieciągłości
warstw. Sytuacja taka ma miejsce gdy istnieje kontrast w tzw. impedancji akustycznej (gęstości i prędkości fal) w
sąsiadujących warstwach. Podczas pomiaru istotne są tzw. podwójne czasy propagacji fal odbitych od granic i
nieciągłości oraz zmiany amplitudy rejestrowanego sygnału, które są wykorzystywane w etapach przetwarzania i
interpretacji, do określania budowy i właściwości ośrodka. Przeliczenia czasów przyjścia fal na realne położenie granic
sejsmicznych i nieciągłości dokonuje się poprzez analizy prędkości i konwersję głębokościową.
Pomiar polega na emisji fali sejsmicznej przez zródło fali sejsmicznej w punkcie wzbudzenia, a następnie rejestracji
sygnałów przez czujniki drgań umieszczone na powierzchni ziemi w punktach odbioru. Drgania docierające do
punktów odbioru są wynikiem propagacji i odbić fali sejsmicznej w głębi ziemi. Przy projektowaniu punktów
wzbudzenia i odbioru należy przestrzegać tzw. Zasady wielokrotnego pokrycia - przez każdy punkt odbicia powinno
przechodzić 70 do 100 promieni sejsmicznych. Ma ona na celu wzmocnienie sygnału pochodzącego z każdego punktu
odbicia.
Odbiór i rejestracja za pomocą sejsmografu odbich od struktur podziemnych fal sejsmicznych prowadzi do
stworzenia hodografu fali odbitej. Badania tą metodą jest możliwe, gdy ośrodek musi być warstwowany, o upadzie
warstw do 45° i niewielkim zuskokowaniu. Odbicia, fali nastÄ™pujÄ… w miejscach gdzie oÅ›rodki różniÄ… siÄ™ impedancjÄ…
akustycznÄ….
Idea pomiaru w sejsmice refleksyjnej
10. Hodograf fali czołowej dla ośrodka wielowarstwowego o stałych prędkościach. Na czym polega interpretacja
www.zgs.us.edu.pl/dydaktyka/wyklady/pobierz.php?plik=Geo_stos4
Równanie hodografu fali czołowej dla układu wielowarstwowego, składającego się z m poziomo leżących warstw, ma
postać:
Wzór ogólny (dla jednej granicy odbijającej): t = 1/V*sqr(4h2+x2).
Wzór właściwy: t = x/Vg+2*suma (z k=m po k=1)*(hk*cos*im,k)/Vk, gdzie: Vg prędkość graniczna w warstwie
załamującej [m/s]; Vk prędkość w warstwie k nadległej w stosunku do granicy załamującej [m/s]; hk miąższość
warstwy k w m; im,k kąt krytyczny przy przejściu fali z warstwy k do warstwy m.
11. Interpretacja hodografu fali odbitej
Hodograf refleksyjny to krzywa opisująca zależność czasu dojścia fali odbitej od poziomej odległości zródła i punktu
rejestracji.
Powyższe rysunki (pkt.6) przedstawiają hodografy w zależności od głębokości granicy odbijającej i od
prędkości fali odbitej w nadkładzie. Z rycin łatwo zauważyć, że im granica odbijająca występuje głębiej przy stałej
prędkości w nadkładzie, tym czas to (czas zarejestrowany na powierzchni ziemi w punkcie wzbudzania fali, wynosi:
to=???h/m) jest dłuższy i odwrotnie, im większa prędkość w nadkładzie, a granica jest na stałej głębokości, tym czas
jest krótszy. JednoczeÅ›nie widać, że zmieniajÄ…cy siÄ™ gradient hiperboli okreÅ›lany jako przyrost czasu Dðt jest na równej
odległości x od minimum hodografu.
Elektryka
1. Co to jest i od czego zależy rzeczywisty opór właściwy skały
Opór właściwy, przewodnictwo właściwe - definicja, jednostki.
Oporem właściwym nazywamy opór, jaki stawia ośrodek o długości 1 m i przekroju 1m kwadratowego.
Opór wÅ‚aÅ›ciwy oznaczamy symbolem rð.ð ðJednostkÄ… oporu wÅ‚aÅ›ciwego jest [ohm*m].
Przewodnictwo wÅ‚aÅ›ciwe jest odwrotnoÅ›ciÄ… oporu wÅ‚aÅ›ciwego, oznaczamy ja symbolem sð ð.ð ð
Jednostką przewodnictwa właściwego jest [S/m] (Simens na metr)
1[S/m] = 1/ 1 [ohm*m]
Zakres zmian oporu właściwego dla kilku wybranych skał w [ohm*m]:
Rodzaj skały opór pozorny
piaski suche, piaskowce 100 - 10 000
piaski zawodnione 15 - 100
Wapienie 50 - 10 000
iły lądowe 5 - 20
iły pochodzenia morskiego 1 - 15
gliny wapienne 15 - 25
Aupki ilaste 5 - 20
skały krystaliczne 800 10 000
sól kamienna, anhydryty 10 000 - 1 000 000
2. Co to jest pozorny opór właściwy. Jak wykorzystujemy to pojęcie w poszukiwaniach geoelektrycznych
Oporność pozorna.
Oporność zmierzona, lub wyliczona teoretycznie dla danego układu pomiarowego dla ośrodków
niejednorodnych określamy jako oporność pozorną. Dla ośrodka jednorodnego wielkość ta nie zależy od
wielkości rozstawu i jest równa oporowi właściwemu ośrodka.
Dla profilowań i sondowań oporność pozorną wylicza się wg wzoru:
gdzie:
K - jest współczynnikiem geometrycznym układu [m.]
Dð V - różnica potencjałów zmierzona pomiÄ™dzy punktami M. i N [mV]
I - prąd płynący w obwodzie pomiędzy elektrodami A i B [mA]
Metoda elektrooporowa
Obrazowanie elektrooporowe 2D i 3D to efektywne narzędzie do badań w miejscach poszukiwań oraz szeroko pojętej inżynierii, łączące badania rozpoznawcze i środowiskowe.
Podstawowe założenia:
Zasadniczym założeniem obrazowania elektrooporowego jest fakt, że różne materiały geologiczne posiadają różne właściwości elektryczne. Warstwy zalegające pod powierzchnią terenu
mogą być identyfikowane/rozpoznane na podstawie tych właściwości. Wykorzystywanym parametrem jest tu rezystywność wyrażona w Ohmach albo jej odwrotność czyli przewodność
wyrażona w Siemensach na metr. Rezystywność zależy głównie od zawartości wody oraz minerałów ilastych.
Metoda bazuje na pomiarach pola potencjałowego stymulowanego bezpośrednio przez prąd albo bardzo niskiej częstotliwości zmienny prąd płynący w umieszczonych w gruncie
metalowych elektrodach. Prąd elektryczny jest wprowadzany do ośrodkagruntowego przez parę elektrod prądowych, a różnica potencjałów mierzona jest przy pomocy pary elektrod
potencjałowych.
Sprzęt:
Rozwój nowych technologii w obrazowaniu elektrooporowym spowodował wprowadzenie do użycia systemów gromadzących duże ilości danych wykorzystujących komputery zaopatrzone
w operacyjne systemy pomiarowe. Po tym, jak serie elektrod są rozwijane w układzie (zwykle Wenner, Schlumberger, dipol-dipol, pole-pole), rejestrator automatycznie zbiera dane z
wielu różnych konfiguracji elektrod. Większa przestrzeń między elektrodami oraz większa ich ilość w zestawie pomiarowym, skutkuje większą głębokością penetracji lecz również zarazem
spadkiem rozdzielczości.
Na końcowy efekt składają się podpowierzchniowe modele rezystywności pozornej i geologiczne ich interpretacje. Rezultaty zwykle są przedstawiane w postaci warstwicowych map
oporności pozornej. Wyniki mogą być również przesyłane do programów CAD.
Pseudosekcje są konstruowane na podstawie danych pomiarowych. Rezystywność pozorna jest obliczana na podstawie tych danych przy użyciu inwersji zadania odwrotnego. Pomiary
mogą być przeprowadzane w postaci 2D lub 3D w zależności od postawionego problemu.
Zastosowanie:
Obrazowanie elektroporowe jest nieinwazyjną techniką, która może znalezć szereg różnych zastosowań. Szczególnie efektywne jest w silnie przewodzących ośrodkach, np. w obszarach o
gliniastych gruntach, gdzie metoda georadarowa lub inne metody elektromagnetyczne sÄ… nieprzydatne.
W badaniach geotechnicznych i pracach poszukiwawczych, metoda elektrooporowa może być używana na przykład do określania głębokości zalegania podłoża skalnego albo miąższości
nadkładu, grubości warstw glin i iłów lub nasypów, szczelności i struktury zapór ziemnych, lokalizowania zapadlisk, pustek oraz stref spękań.
W hydrogeologii kierunek spływu i zaleganie zwierciadła wód podziemnych, kartowanie abrazji morskiej i rzecznej, wtargnięć zasolonej wody i charakteryzowanie podpowierzchniowych
warunków hydrogeologicznych.
W badaniach środowiskowych, obrazowanie elektrooporowe jest efektywne w kartowaniu smug dobrze przewodzących skażeń albo zanieczyszczeń gruntu metalami ciężkimi. Metoda
może być również użyteczna do nakreślenia przestrzeń przestrzeni podlegającej oczyszczeniu. Obrazowanie elektrooporowe może być również wykorzystane do określania zasobów
piasku i żwiru, kartowaniu archeologicznym oraz pracach związanych z drążeniem tuneli drogowych i kolejowych.
Metoda elektrooporowa należąca do geofizycznych metod geoelektrycznych znajduje szerokie zastosowanie w szeroko pojmowanej ochronie środowiska. Głównie wykorzystywana ze
względu na swoją specyfikę jest metoda elektrooporowa w kontroli jakości i ochronie środowiska gruntowo-wodnego. Wykorzystuje ona fakt, iż każdy materiał posiada inny opór
elektryczny. W czasie badań rejestrowane są zmiany wartości względnego oporu ośrodka (zmiany oporu w stosunku do tła) podczas przepływu prądu elektrycznego. Uzależnione są one
od obecności w niej obiektów archeologicznych, struktur geologicznych oraz różnego rodzaju substancji mogących mieć wpływ na zmianę charakterystyki opornościowej. Prąd przepływa
pomiędzy wbitymi w ziemię elektrodami, połączonymi ze zródłem prądu elektrycznego. Badania metodą elektrooporową mogą być realizowane w zależności od potrzeb w postaci
geoelektrycznych badań penetracyjnych, elektrooporowego sondowania azymutalnego, dipolowego profilowania indukcyjnego oraz obrazowania elektrooporowego (resistivity imaging).
Badaniom tą metodą podlegają zjawiska zachodzące w zakresie do kilkunastu metrów wgłąb ośrodka i wywołują zmianę chemizmu w środowisku hydrogeologicznym, jak rónież takie
które powodują zaburzenia w pierwotnej strukturze gruntu. Możliwa jest analiza dynamiki zmian zjawisk zarówno w sensie ich zasięgu jak i intensywności. Głównym celem badań
elektrooporowych w dziedzinie ochrony środowiska jest:
·ð kartowanie ( zasiÄ™g poziomy i pionowy) aureoli skażeÅ„ wokół ogniska skażeÅ„, którym może być czynne bÄ…dz zrekultywowane skÅ‚adowisko odpadów, oczyszczalnia Å›cieków,
mogielniki i zbiorniki paliw oraz wszelkiego rodzaju obiekty mogące stanowić zagrożenie dla środowiska ze względu na charakter swojej pracy,
·ð monitoring migracji i dynamiki zmian skażeÅ„.
Przeprowadzenie badań elektoroporowych jest zalecane zarówno na etapie prac projektowych, ponieważ pozwala zapoznać się z warunkami istniejącymi na danym terenie, w przypadku
obiektów użytkowanych ponieważ działając w formie monitoringu daje informacje o stanie faktycznym szczelności i przyjazności obiektów dla środowiska, a w przypadku katastrof daje
precyzyjne informacje o zasięgu i intensywności zanieczyszczeń oraz na etapie zamykania (rekultywacji) kontrolując jakość zabezpieczeń i chroniąc przed zanieczyszczeniem lub alarmując
w postaci powstania takowego.
3. Na czym polega sondowanie i profilowanie oporu.
A. Pionowe sondowania elektryczne (PSE)
Istota metody
Metoda wykorzystuje różnice oporu właściwego kolejnych, coraz głębszych warstw przekroju
geologicznego. Zakłada się mały, co najwyżej do kilku stopni, kąt upadu warstw.
Układ pomiarowy składa się z obwodu prądowego AB oraz obwodu napięciowego MN.
Zwiększając rozstaw AB/2 lub AO dla układu trójelektrodowego, przy czym punkt O leży w połowie
odległości między elektrodami MN, mierzymy wartości oporności pozornej, której zmiana jest efektem
rozprzestrzeniania się pola elektrycznego w coraz to głębszych warstwach przekroju.
Jak przedstawiono wyżej oporność pozornÄ… rð a wyraża siÄ™ wzorem:
Współczynnik geometryczny układu K wyraża się wzorem:
dla układu czteroelektrodowego oraz
dla układu trójelektrodowego,
gdzie:
AM, AN, MN, są odległościami między poszczególnymi elektrodami układu wyrażonymi w [m.].
Dla celów umożliwienia porównania krzywych pomiarowych z krzywymi teoretycznymi i interpretacji,
krzywą zależności zmian oporności pozornej od wielkości rozstawu AB/2 nanosimy na wykresie w skali
bilogarytmicznej.
Interpretację wyników pomiarowych wykonujemy przy użyciu programu komputerowego INT
bazującego na metodzie filtrów.
Zestaw aparatury do PSE
·ð PrzyrzÄ…d prÄ…du staÅ‚ego GEOMES z automatycznÄ… kompensacjÄ… polaryzacji elektrod M i N.
Maksymalny prÄ…d w obwodzie AB do 6 [A].
·ð Do sondowaÅ„ o maÅ‚ym rozstawie (AB/2 do 140 m.) można wykorzystać przyrzÄ…d prÄ…du zmiennego
małej częstotliwości 6 Hz - CMG 01. Maksymalny prąd w obwodzie AB dla tej aparatury wynosi
99.9 [mA].
·ð Zestaw kabli i elektrod.
B. Profilowania elektryczne
Istota metody
Metoda pozwala Å›ledzić zmiany opornoÅ›ci pozornej rð a dla wybranej wielkoÅ›ci AB/2 lub AO z krokiem
profilowania Dð X.
Krzywa oporności pozornej charakteryzuje zmiany budowy geologicznej wzdłuż profilu.
Zasięg głębokościowy metody określa wielkość rozstawu AB/2.
W oparciu o wykres rð a dokonujemy jakoÅ›ciowej interpretacji geologicznej.
Zestaw aparatury do profilowań:
·ð PrzyrzÄ…d pomiarowy CMG 01
·ð Zestaw kabli i elektrod.
4. Na czym polega interpretacja sondowań oporu
A. Pionowe sondowania elektryczne (PSE)
Interpretację wyników pomiarowych wykonujemy przy użyciu programu komputerowego INT
bazującego na metodzie filtrów.
B. Profilowania elektryczne
W oparciu o wykres rð a dokonujemy jakoÅ›ciowej interpretacji geologicznej.
5. Co to jest standardowy (optymalny) rozstaw profilowania oporu. Dlaczego zachodzi konieczność optymalizacji
wielkości rozstawu
www.zgs.us.edu.pl/dydaktyka/wyklady/pobierz.php?plik=Geo_stos8
6. Istota i zadania pseudotomografii elektrycznej w rozpoznaniu budowy ośrodka.
4. Pseudo-tomografia elektrooporowa 3D: Jest to metoda geoelektryczna. Pozwala ona na wykonania sondowania
elektrooporowego na wybranych profilach wraz z dokładnym określeniem głębokości sondowania. Po wykonaniu
określonej ilości pomiarów zostają one zintegrowane oraz przetworzone graficznie w 3D, tak aby dawały
precyzyjny obraz badanego obszaru w trzech wymiarach.
Metoda pozwala na:
·ð - utworzenie trójwymiarowego obrazu badanego obszaru do wybranej gÅ‚Ä™bokoÅ›ci
Datowanie
1. Omów prawo rozpadu promieniotwórczego izotopów. Uzasadnij kiedy go można wykorzystać do wyznaczania
wieku bezwzględnego skały
http://www.ichtj.waw.pl/ichtj/general/documents/prawa_rozpadu.pdf
Metody datowań bezwzględnych
Są to metody pozwalające na określenie wieku skały w latach. Zastosowanie tych metod stało się możliwe po odkryciu
zjawiska promieniotwórczości niektórych pierwiastków i ich odmian izotopowych.
·ð Metoda radiometryczna - wykorzystuje wÅ‚aÅ›ciwoÅ›ci pierwiastków promieniotwórczych. Każdy z izotopów
ma określony czas, po którym połowa jego atomów ulega rozpadowi na atomy pierwiastków potomnych oraz jeden
lub więcej rodzajów promieniowania. Jest to tzw. czas połowicznego rozpadu. Proporcje między ilością
pierwiastka promieniotwórczego, a ilością produktów jego rozpadu, przy znanym okresie połowicznego rozpadu i
wyznaczonej eksperymentalnie stałej rozpadu, wskazują liczbę lat, które upłynęły od momentu krystalizacji skały.
Najwcześniej wykorzystywanymi były izotopy uranu (235U i 238U) (metoda uran-ołów). Poza uranem
wykorzystuje się w tej chwili izotop potasu (40K). Metody te znajdują zastosowanie w badaniu skał
magmowychi metamorficznych.
Bezwzględny wiek skał magmowych, zawierających pierwiastki promieniotwórcze określa się na podstawie
stosunku ilości stałego izotopu radiogenicznego, powstałego z rozpadu izotopu promieniotwórczego, do
pozostałego izotopu promieniotwórczego w skale przy zachowaniu układu zamkniętego.
Bezwzględny wiek młodych skał osadowych (do 40 tys. lat wstecz) wyznacza się określając ilościowy
stosunek izotopu węgla 14C do całej ilości pierwiastka węgla w szczątkach organicznych. Ponieważ proporcja
węgla 14C do 12C jest stała w materii żywej, a po śmierci organizmu zmniejsza się z biegiem czasu, dlatego też
na podstawie tego można określić wiek śmierci organizmu.
·ð Metoda de Geera - wykorzystuje iÅ‚y warwowe, powstajÄ…ce w cyklach rocznych: jaÅ›niejsza
warstwa w lecie, ciemniejsza w zimie. Analiza sekwencji grubości poszczególnych pakietów
rocznych pozwala ustalić dość precyzyjnie wiek badanych iłów warwowych.
·ð Metoda magnetometryczna - wykorzystuje cechy magnetyczne skaÅ‚ nabyte w różnych epokach
geologicznych w ówczesnym ziemskim polu magnetycznym. Badania cech magnetycznych skał
kontynentów pozwoliły na wyznaczenie krzywej względnego ruchu bieguna magnetycznego w
przeszłości geologicznej i wyskalowanie jej w jednostkach czasu.
·ð Metoda sedymentologiczna - wywodzÄ…ca siÄ™ z pomiarów tempa sedymentacji osadów w
zbiornikach wodnych. Aby określić w jakim czasie powstawał dany zespół osadów, obserwuje się
współczesne tempo sedymentacji. Szybkość sedymentacji iłów w Morzu Bałtyckim została
oszacowana na 2 3 cm w ciągu 100 lat. W morzach otwartych, szybkość sedymentacji jest
znacznie mniejsza, do 1 milimetra na 100 lat. Znając współczesne tempo sedymentacji osadów i ich
miąższość można obliczyć, w jakim czasie powstawały te osady. Metody sedymentologiczne
pozwalają tylko na określenie szacunkowego czasu tworzenia się osadów, gdyż tempo
sedymentacji zależy od wielu czynników, które w dalekiej przeszłości geologicznej mogły być inne
niż obecne.
2. Co to jest izochrona Pb207-Pb206. Dlaczego i jak można ją wykorzystać do datowania bezwzględnego
Co to jest izochrona 207Pb-206Pb i jak można ja wyznaczyć
Metoda zakłada początkowy stały stosunek izotopów Pb dla różnych minerałów. Dlatego też metoda jest wiarygodna
dopiero gdy okaże się iż we wszystkich badanych próbkach była taka sama zawartość izotopów Pb oraz gdy istnieje
pewność że do badanych próbek nie dostał się U i Pb z zewnątrz. Metoda ta pozwala określić kiedy zaczęły formować
się planety i ciała podobne. Odnosi się to w praktyce do badania meteorytów kamiennych i żelaznych.
3. Co to jest izochrona Sm147-Nd143. Jak wykorzystujemy ją do wyznaczania wieku bezwzględnego skał
Samar ma pięć naturalnie występujące izotopy i neodym ma siedem.
Oba elementy sÄ… poÅ‚Ä…czone w relacji rodzic-córka przez rozpad alfa z 147 SM 143 Nd z półtrwania 1,06 × 10 11 lat.
146 Sm jest niemal wymarÅ‚y nuklidu, który rozpada siÄ™ poprzez emisjÄ™ alfa produkować 142 ND, z okresem półtrwania 1,08 × 10 8 lat.
146 Sm jest sama produkowana przez rozpad 150 Gd poprzez rozpad alfa z okresem półtrwania 1,79 × 10 6 lat.
Isochron jest obliczana normalnie. Jak z Rb-Sr i Pb-Pb geochemii izotopów , początkowa 143 Nd / 144 stosunek Nd systemu izotopowego
zawiera ważne informacje na tematskorupy ziemskiej tworzenia i izotopowej ewolucji Układu Słonecznego.
Co to jest izochrona 40K-40Ar i jak można ja wyznaczyć
Metoda ta zakłada stały stosunek izotopów Ar w skale = 295,5. Jeśli ten warunek jest spełniony to można wyznaczyć
wiek zarówno pojedynczego minerału jak i skały. Metoda nadaje się do wyznaczania skał względnie młodych oraz
historii termicznej skał. Problemy: Ar jest gazem i w związku z tym łatwo ulega migracji ze skały oraz badanej próbki.
4. Omów ograniczenia metod izotopowego datowania wieku bezwzględnego minerałów
http://157.158.96.98/c14new/download/pdf/Bezwzgledne_skale_czasu.pdf
5. Co to jest izochrona Rb- Sr. Jakie z niej można wyciągnąć wnioski
Co to jest izochrona 87Rb-87Sr i jak można ja wyznaczyć
Metoda ta zakłada stały początkowy stosunek izotopów Sr dla różnych minerałów w skale, wiek można wyznaczyć bez jakichkolwiek założeń.
Wartość wskazuje czy próbka pochodzi z przetopionej skały czy ze skał głębinowych. Problemy: Rb i Sr są mobilne, łatwo wymywane ze
skały i ie występują we wszystkich rodzajach skał (wapieniach , skałach ultrazasadowych). Metody tej nie można stosować do skał młodych ze
względu na duży błąd.
Izochrona Sm - Nd
6. Kiedy nie trzeba stosować założenia o układzie zamkniętym
??????
Wyszukiwarka
Podobne podstrony:
egzamin pytaniaBiofizyka egzamin pytania teoretycznePrawo budowlane EGZAMIN pytaniaalgorytmy pytania na egzamin pytania wyklad4algorytmy pytania na egzamin pytania wyklad7egzamin pytaniaprawo egzamin pytaniaegzamin pytaniaONT Egzamin pytania2Fizyka egzamin pytaniaegzamin pytania i odpowiedziegzamin pytania i odpowiedzi prof Pęcherski 2Egzamin pytania i odp, gr 1Egzamin Pytania i Odpowiedzi 2więcej podobnych podstron