1. DEFINICJA DZIEDZINY FOTOGRAMETRIA I TELEDETEKCJA.
Zaktualizowany na XVI-ym Kongresie w Kioto w 1988 r. statut Międzynarodowego Towarzystwa Fotogrametrii i Teledetekcji podaje łączną definicję fotogrametrii i teledetekcji następująco: jest to dziedzina nauk technicznych zajmująca się pozyskiwaniem wiarygodnych informacji o obiektach fizycznych i ich otoczeniu drogą rejestracji pomiaru i interpretacji obrazów lub ich reprezentacji numerycznych otrzymywanych z sensorów nie będących w bezpośrednim kontakcie z tymi obiektami.
PODZIAŁ FOTOGRAMETRII NA DZIAŁY,TECHNOLOGIE I METODY OPRACOWANIA ZDJĘĆ.
Fotogrametria jest więc złożoną dziedziną posiadającą wiele różnych gałęzi, między innymi:
- fotogrametrię analogową - gałąź fotogrametrii, która zaczyna się, na zięciach, a kontynuowana jest na optycznych instrumentach,
- fotogrametrię analityczną - gałąź fotogrametrii, która zaczyna się, podobnie na zdjęciach i kontynuowana jest na skomputeryzowanych instrumentach,
- fotogrametrię cyfrową - gałąź, w której obraz nie jest rejestrowany fotogrametrycznie lecz przy pomocy elektroniki w postaci cyfrowej, gdzie następnie techniki komputerowe stymulują wizją i rozpoznawaniem
Fotogrametrie dzielimy na :
naziemną (terrofotogrametria): jednoobrazowa i dwuobrazowa
lotniczą (aerofotogrametria) : jednoobrazowa(płaska) i dwuobrazowa(przestrzenna)
satelitarną
2. PROMIENIOWANIE ELEKTROMAGNETYCZNE WYKORZYSTYWANE DO REJESTRACJI OBRAZÓW FOTOGRAMETRYCZNYCH.
Promieniowanie nadfioletowe jest pierwszym zakresem promieniowania krótkofalowego, którego część przylegająca do widma widzialnego, wykorzystując okno atmosferyczne, dociera do powierzchni Ziemi. Promieniowanie to, zwane promieniowaniem adfioletowym, wchodzi w skład widma elektromagnetycznego i zajmuje obszar falowy w granicach 10-400 nm. Chociaż nadfiolet przylega do widma widzialnego i na ten właśnie zakres promieniowania przypada maksimum uczulenia halogenków srebra, stanowiących podstawowy składnik światłoczułych materiałów fotograficznych, to jednak jest to jeden z najmniej zbadanych zakresów promieniowania elektromagnetycznego.
Kolejnym zakresem promieniowania elektromagnetycznego, wykorzystywanym najpowszechniej w teledetekcji powierzchni Ziemi jest widmo widzialne, czyli światło. Metod, rejestrującą informacje otrzymywane w tym zakresie widma jest fotografia.
Jak wiadomo, istnieje grupa związków chemicznych, w których pod wpływem działania światła następują zmiany w ich budowie Substancje te są określane jako światłoczułe a reakcje chemiczne wywołane pod wpływem światła nazywa się reakcjami fotochemicznymi Niektóre z tych substancji znalazły zastosowanie w fotografii. Należą do nich sole srebra chromiany, związki dwuazowe i sole żelazowe Najważniejsze, ze względu na znaczne uczulę nie na działanie światła, są sole srebra, stąd te: wchodzą one w skład prawie wszystkich materiałów fotograficznych.
Promieniowanie podczerwone obejmuje znaczną część widma elektromagnetycznego, rozciągającą się od długofalowej granicy światła aż do mikrofal. O ile krótkofalowa granica promieniowania podczerwonego została ściśle określona długością fali równą 760 nm, o tyle granicę długofalową przyjmuje się umownie przy długości fali równej 1000 μm. Granica ta występuje już w zakresie submilimetrowych fal radiowych. Cały ten ogromny obszar podczerwieni podzielono umownie na trzy podzakresy. Pierwszy z nich obejmuje promieniowanie o długości fali 760-1500 μm, zwane podczerwienią bliską lub niekiedy podczerwienią fotograficzną, gdyż można ją rejestrować na odpowiednio uczulonym filmie fotograficznym. Drugi podzakres stanowi podczerwień środkowa, w granicach 1,5-10,0 μm. Wreszcie trzeci, od 10,0 do 1000 μm, to długofalowe promieniowanie podczerwone, zwane także podczerwienią daleką.
Kolejnym zakresem promieniowania elektromagnetycznego wykorzystywanym w zdalnych badaniach Ziemi są mikrofale. Obejmują one zakres między długofalowym promieniowaniem podczerwonym a krótkimi falami radiowymi. Współczesna technika wykorzystuje jednakże tylko pewne przedziały tego zakresu promieniowania. W systemie pasywnym jest stosowane tylko promieniowanie o długości fali od 3 mm do 30 cm, natomiast w systemie aktywnym od 8,3 mm do 133 cm.
3.PODSTAWOWE MODELE BARW – BARWY ADDYTYWNE, SUBTRAKTYWNE
Kolor
Percepcja kolorów przez człowieka zależy od względnej ilości światła czerwonego, zielonego i niebieskiego, które zostaje pomierzone przez światłoczułe stożki (sensory) w oku. Z kombinacji promieniowania czerwonego, zielonego i niebieskiego powstają różne kolory. Jest to szersza gama kolorów niż ta, którą można utworzyć z mieszaniny innych kolorów. Dlatego kolory: czerwony- zielony i niebieski uważa się za addytywne kolory podstawowe.
Przy łączeniu kolorów czerwonego zielonego i niebieskiego można tworzyć prawie nieskończona liczbę barw i odcieni. Na monitorze, różne kolory będące kombinacjami czerwonego, zielonego i niebieskiego pozwalają rozróżniać zmiany występujące na obrazie. Współczesne monitory kolorowe mogą generować 2 lub 16 777 216 kolorów. Z kolei każdy kolor może mieć 2 (256) różnych wartości.
Działa kolorów
W monitorze działa kolorów kierują strumienie elektronów na warstwę fosforu świecąca w kolorach czerwonym, zielonym i niebieskim. Warstwa ta świeci z odpowiednimi częstotliwościami odbieranymi jako różne kolory. Monitory kolorowe zazwyczaj nazywane są monitorami RGB. (Red. Green. Blue - czerwony, zielony, niebieski).
Warstwa fosforu (czerwonego, zielonego i niebieskiego) w lampie obrazowej nanoszona jest na ekran w postaci cienkich kolorowych plamek. Ludzkie oko łączy te plamki, a ich świecenie odbierane jest łącznie. Każdy piksel jest reprezentowany przez jednakową liczbę plamek świecących w kolorze czerwonym, zielonym i niebieskim.
Wartości jasności (lub wartości intensywności l są wartościami natężenia każdego z kolorów podstawowych charakteryzujących dany piksel. W czasie wizualizacji zobrazowania wartość
jaskrawości jest obliczana dla każdego działa elektronowego i w efekcie dla każdego piksela. Wszystkie kolory wyjściowe obrazu wyświetlanego na monitorze mogą być wyrażone przy pomocy trzech wartości jaskrawości - po jednej dla każdego działa kolorów.
Tablice barw i wzorcowe komórki kolorów
Kolor na ekranie jest tworzony jako kombinacja kolorów czerwonego, zielonego i niebieskiego, a każdy z kolorów składowych jest przedstawiony w postaci wartości 8-biiowej. Tak wiec do przedstawienia kolorowego obrazu potrzebne są 24 bity. Ponieważ wiele systemów jest wyposażonych w monitory 8-bitowe. do przetwarzania wartości 8-bitowej na dany kolor stosuje się tablice barw.
Konwersja RGB na CMY
W atramentowych urządzeniach drukujących podstawowymi kolorami są zielononiebieski, purpurowy i żółty. zamiast podstawowych kolorów światła (czerwonego, zielonego i niebieskiego). Do utworzenia koloru czarnego służy subtraktywna metoda łączenia kolorów zielononiebieskiego, purpury i żółtego. Podstawowe kolory światła - czerwony, zielony i niebieski - łączone metodą adtytywną dają kolor biały.
Przesyłane na urządzenie drukujące wartości pliku danych oraz towarzyszące im tablice kolorów i kontrastów są prezentowane w schemacie RGB. Wartości jaskrawości RGB w tablicach kontrastów i kolorów muszą zostać zamienione na wartości ĆMY.
Podstawowe kolory RGB są przeciwstawne do kolorów ĆMY. Oznacza to na przykład, że obecność koloru zielonożółtego oznacza równoważny brak koloru czerwonego. Wartość jaskrawość;
przeciwstawnej tworzy się przez jej konwersję, a więc przez odjęcie od maksymalnej wartości jaskrawości każdej wartości jaskrawości RGB.
C=MAX-R M=MAX-G Y=MAX-B
gdzie:
MAX- maksymalna wartość jaskrawości
R - wartość czerwieni w tablicy przeglądowej
G - wartość zieleni w tablicy przeglądowej
B - wartość koloru niebieskiego w tablicy przeglądowej
C - obliczona wartość koloru zielononiebieskiego M - obliczona wartość koloru purpury
C - obliczona wartość koloru żółtego
Modele barw:
-monochromatyczne – czarnobiałe
- panchromatyczne RGB, HSB, IHS(intensywność, kontrast, nasycenie)
- multispektralne – CMYK
4.FORMATOWANIE I ZAPIS OBRAZU FOTOGRAFICZNEGO – PROCES NEGATYWOWY I POZYTYWOWY.
Przejście od obrazu utajonego do obrazu widocznego nazywa się wywoływaniem. Wywolywanie jest to poddanie naświetlonej emulsji działaniu pewnych odczynników chemicznych, w czasie którego naświetlone ziarenka halogenków srebra zmieniają się w srebro metaliczne. W miejscach, gdzie światło działało dłużej lub intensywniej, naświetlonych zostało więcej ziarenek halogenków srebra, mniej zaś w cieniach obrazu optycznego. Ziarna srebra silnie pochłaniają światło i w miejscach ich skupienia powstają czarne plamki. Mniejsze skupiska ziarenek srebra widoczne są jako plamki szare lub jasne. Tak więc duże skupiska ziaren srebra tworzą obraz miejsc silnie naświetlonych, w postaci czarnych powierzchni (obserwacja w świetle przepuszczonym). Małe skupiska ziaren srebra tworzą obraz miejsc mniej naświetlonych, w postaci plam szarych o różnej tonacji. Tam gdzie nie powstał obraz utajony, nie ma też ziaren srebra pochłaniających światło i miejsca te są zupełnie jasne. Oglądany w takiej postaci obraz optyczny nazywa się negatywem, a to z powodu odwrócenia na nim walorów świetlnych rzeczywistego obrazu optycznego.
Przejście od obrazu negatywnego, do obrazu zgodnego z walorami świetlnymi oryginału, nazywa się procesem pozytywowym, a rezultat tego procesu pozytywem. Przejście od negatywu do pozytywu następuje na drodze kopiowania stykowego lub optycznego. Zarówno kopiowanie stykowe, jak i optyczne pozwala na uzyskanie z jednego negatywu dowolnej liczby pozytywów. Przy kopiowaniu stykowym skale negatywu i pozytywu są sobie równe. Przy kopiowaniu optycznym możliwe jest powiększenie lub pomniejszenie skali negatywu. Zazwyczaj jednak skala pozytywu jest większa od skali negatywu.
Proces negatywowy i pozytywowy składa się z tych samych grup czynności, a mianowicie : naświetlenia, wywołania, kąpieli przerywającej, utrwalenia, płukania i wysuszenia.
Naświetlenie jest to czynność najbardziej odpowiedzialna w całym procesie fotografowania. Uzyskanie dobrego negatywu uzależnione jest od wszystkich czynników. Z dobrego negatywu można wykonać dobre lub złe pozytywy. .Zależy to, przede wszystkim, od właściwego naświetlenia w czasie kopiowania.
Każdy wywoływacz składa się z czterech podstawowych substancji: redukującej, wywołującej, konserwującej, przyspieszającej i klarującej. Substancje te dobrane w odpowiednich proporcjach, są rozpuszczone w wodzie o temperaturze około 20'C. Kąpiel obrazu utajonego w wywoływaczu trwa od kilkudziesięciu sekund do kilku lub kilkunastu minut. Kąpiel musi być w określonym czasie zakończona. Przedłużanie kąpieli może spowodować wywoływanie nienaświetlonych ziarenek halogenków srebra, a tym samym dodatkowe zaczernienie negatywu i zniekształcenie treści obrazu.
Kąpiel przerywająca ma na celu usunięcie resztek wywoływacza. Zabezpiecza to utrwalacz przed zanieczyszczeniem. Negatyw zanurza się w wodzie na kilka sekund. Wywołany negatyw zawiera wiele nie rozłożonych ziarenek halogenków srebra, które nie biorą udziału w budowie obrazu. Do budowy obrazu zużywa się około 20% bromku srebrowego zawartego w emulsji światłoczułej. Pozostałe 80%, jest w dalszym ciągu wrażliwe na działanie światła. Należy więc usunąć z żelatyny wszystkie substancje, prócz srebra metalicznego. Proces rozłożenia halogenków srebra w sole rozpuszczające się w wodzie nazywamy utrwalaniem, a kąpiel, w której się to odbywa - utrwalaczem. Czas utrwalania wynosi kilka lub kilkanaście minut.
Trwałość obrazu utrwalonego zależy od właściwego wypłukania z warstwy żelatyny resztek utrwalacza i innych związków powstałych w emulsji w czasie wywoływania i utrwalania. Płukanie powinno odbywać się w bieżącej wodzie o temperaturze kąpieli wywołującej i utrwalającej. Im dłuższy czas płukania, tym dłuższa trwałość obrazu. Minimalny czas płukania dla negatywów 10 - 15 minut, dla pozytywów 20 - 30 minut.
Suszenie negatywów odbywa się w warunkach laboratorium fotograficznego. Niekiedy stosowane są specjalne, ocieplane i wentylowane pomieszczenia do szybkiego suszenia negatywów. Suszenie pozytywów o powierzchni matowej odbywa się na płytach szklanych. Suszenie pozytywów o powierzchni błyszczącej odbywa się na specjalnych suszarkach elektrycznych.
5.Wielkości Sensytometryczne
światłoczułość arytmetyczną, światłoczułość logarytmiczną, kontrastowość oraz gęstość maksymalną.
6. KAMERY LOTNICZE DZIELIMY:
kamery do wykonywania zdj. pojedynczych (migawkowe obejmujące zasięgiem ramki tłowe, wycinek fotografowanego obszaru)
kamery szczelinowe (bez migawki), dostarczające ciągłego pasa terenu na przesuwającym się odpowiednio do prędkości lotu fil....
kamery panoramiczne
Wg orientacji kamery dzielimy:
kamery do wykonywania zdjęć pionowych lub prawie pionowych (w szeregach)
- kamery do wykonania zdj. perspektywistycznych (o widocznej linii horyzontu)
- kamery sprzężone – dwie kamery o wspólnym podwieszeniu o ustalonym kącie zbieżności
Zasięg pola widzenia
a) WK 100 – 200 600 mm
b) NK 500 – 750 300 mm
c) SzK 850 – 950 150 mm
d) NSk 1100 – 1300 90 mm
Elementy podstawowe:
Korpus kamery służy do pomieszczenia stożka obiektywowego, nazywanego również blokiem optycznym.
Kaseta (ładownik) - jest przeznaczona do pomieszczenia materiału światłoczułego i stopniowego przewijania go w czasie między kolejnymi ekspozycjami.
Podwieszenie służy do umocowania korpusu kamery do podłogi samolotu w ten sposób, aby obiektyw znalazł się nad otworem, przez który są wykonywane zdjęcia.
Stożek obiektywowy stanowi najważniejszy element kamery lotniczej. W dolnej części stożka jest umieszczony obiektyw, wewnątrz którego wmontowana jest przysłona i migawka aparatu
Urządzenie sterujące jest pomocniczym elementem kamery lotniczej, który reguluje rytm pracy i współdziałanie poszczególnych jej mechanizmów.
Etapami cyklu pracy kamery lotniczej są:
• przewinięcie błony fotograficznej,
• naciągnięcie migawki,
• wyrównanie błony fotograficznej w płaszczyźnie ramki tłowej,
• ekspozycja.
CECHY I WŁAŚCIWOŚCI OBIEKTYWU.
Najważniejszą częścią kamery lotniczej jest obiektyw. Składa się on z układu odpowiednio dobranych soczewek, które zapewniają powstawanie w płaszczyźnie tłowej (na matówce lub materiale światłoczułym), ostrego i odwzorowanego zgodnie z zasadami rzutu środkowego, obrazu powierzchni terenu. Obiektywy fotogrametryczne powinny być zatem wolne od dystorsji oraz odznaczać się wysoką zdolnością rozdzielczą. Charakteryzuje się je za pomocą wskaźników optycznych, takich jak:
- ogniskowa,
- otwór względny,
- kąt rozwarcia i kąt widzenia,
- zdolność rozdzielcza,
- ortoskopowość.
Ogniskowa obiektywu f’ jest to odległość głównego ogniska obrazowego F' od głównego punktu obrazowego obiektywy.
Otwór względny obiektywu jest to stosunek średnicy otworu wejściowego obiektywu - d, do ogniskowej obiektywu - f'.
Kąt rozwarcia i kąt widzenia obiektywu wiąże się z polem obrazu i polem widzenia obiektywu. Polem widzenia obiektywu (rys) przyjęto nazywać podstawę stożkowej wiązki promieni, które tworzą obraz nieskończenie dalekiego przedmiotu.
Zdolność rozdzielcza obiektywu jest jedną z podstawowych wielkości cechujących jego układ optyczny. Polega ona na właściwości rozdzielnego przekazania obrazu dwóch jednakowo jasnych, blisko położonych punktów lub linii, a wartość jej jest wyrażana liczbą
oddzielnie odwzorowanych linii, przypadających na l mm obrazu optycznego.
Aberracje obiektywów. Nawet najlepsze obiektywy są obarczone pewnymi wadami. Jedną z takich wad układów optycznych, polegającą na zniekształceniu przebiegu promieni świetlnych przez poszczególne elementy układu, jest dystorsja. Błąd dystorsji powstaje na skutek różnicy kątów padania promieni wchodzących do obiektywu i wychodzących z niego.
Aberracja sferyczna polega ona na tym, że wiązki światła symetryczne względem osi optycznej (równoległe do osi lub wychodzące z jednego punktu na osi) po przejściu przez obiektyw przecinają się nie w jednym punkcie (rys), lecz na pewnej powierzchni, nazywanej powierzchnią diakaustyczną. Zniekształcenie to jest spowodowane faktem, iż poszczególne strefy soczewek układu optycznego mają różne ogniska (strefy bliższe brzegu soczewki załamują promienie silniej, ponieważ mają krótszą ogniskową). W rezultacie promienie równoległe do osi obiektywu przecinają się w różnych płaszczyznach obrazowych, tworząc na matówce obraz o zróżnicowanej ostrości. Wpływ aberracji sferycznej redukuje się przez dobór odpowiednich soczewek i konstrukcję najkorzystniejszych ich układów.
Aberracja chromatyczna obiektywu (rys) jest spowodowana zróżnicowaniem współczynnika załamania promieni odpowiadających składowym barwom światła białego (najsilniej są załamywane promienie fioletowe, najsłabiej - czerwone). Rezultatem tego zjawiska jest przecięcie się promieni poszczególnych barw w różnych płaszczyznach obrazowych, co powoduje powstawanie na obrazie barwnych obwódek, a przez to zmniejszenie ostrości obrazu. Niekorzystny wpływ tej aberracji eliminuje się przez zastosowanie achromatycznych układów optycznych.
7.
8. Fotogram – pojedyncze zdjęcie
Stereogram - para odpowiednio pokrywających się zdjęć, muszą one być wykonane z dwóch stanowisk (z bazy) usytuowanych w podobnej odległości od obiektu, zdjęcia powinny być poprawnie zorientowane i nadające się do obserwacji stereoskopowej.
Szereg zdjęć – lotnicze zdjęcia pomiarowe wykonane szeregowo, pokrycie wzajemne dwóch zdjęć w szeregu stosuję się: 60% pokrycie podłużne (wzdłuż linii lotu) i 20-40% pokrycie poprzeczne (pomiędzy szeregami)
Blok zdjęć – minimum dwa szeregi.
9. RODZAJE ZDJĘĆ LOTNICZYCH
a)Wg. Skali zdjęć:
- Małoskalowe 25 000 < Mz < 100 000
- Średnioskalowe 5 000 < Mz < 25 000
- Wielkoskalowe 500 < Mz < 5 000
b) ze względu na kąty nachylenia zdjęcia
- zdj. Pionowe v ≤ 3o – układ odniesienia – oś celowa kamery
- zdj. Nachylone v > 3o bez widocznego na zdjęciu horyzontu
- zdj. Ukośne z widocznego na zdjęciu horyzontem
10.WYPADKOWA ZDOLNOŚĆ ROZDZIELCZA ZDJĘCIA
Zdjęcie fotogrametryczne — oprócz dobrej jakości geometrycznej — powinno się również charakteryzować dużą szczegółowością, tj. właściwością odwzorowywania drobnych detali fotografowanego obiektu. Ta szczegółowość ma istotny wpływ na treść opracowania (np. treść tworzonej mapy), a dla opracowań fotointerpretacyjnych — gdzie charakterystyka jakościowa opracowania zwykle przeważa nad ilościową - duża szczegółowość zdjęcia jest większym walorem niż jego wierność geometryczna. Szczegółowość zdjęcia zależy od jego zdolności rozdzielczej, a ta zależy od:
- zdolności rozdzielczej obiektywu,
- zdolności rozdzielczej emulsji fotograficznej,
- rozmazania obrazu wskutek ruchu kamery w czasie otwarcia migawki (ruch postępowy nośnika i wibracje korpusu),
- rozproszenia światła i innych zjawisk optycznych zachodzących w atmosferze.
Zdolność rozdzielcza lotniczych zdjęć pomiarowych
Zdolność rozdzielcza zdjęcia, rozkład kontrastów na nim zależą zarówno od emulsji, obiektywu, materiału światłoczułego, jak również od rozmazania obrazu spowodowanego ruchem samolotu i wibracjami korpusu w czasie otwarcia migawki, atmosfery powodującej zmianę kontrastów i ewentualnych błędów montażu obiektywu względem ramki tłowej kamery. Charakterystyka przenoszenia kontrastu jest również przydatna do ilościowego opisu każdego z tych czynników, podobnie jak w przypadku obiektywu. Wynikowa charakterystyka zdjęcia — najbardziej interesująca odbiorcę — będzie iloczynem charakterystyk wymienionych czynników. Przykład takich charakterystyk cząstkowych i charakterystykę wynikową dla wybranych warunków fotografowania ilustruje rys. 2.21. Jak widać z tego przykładu, zdolność rozdzielcza otrzymanych zdjęć jest rzędu 20 linii/mm.
Rys. 2.21. Funkcje przenoszenia kontrastu charakteryzujące elementy procesu fotograficznego:
7 - wibracje kamery o częstotliwości 15 Hz i amplitudzie 0,03 mm, 2 — obiekt, 3 — obiektyw Aviogon 6,3/150 (kamera RC 8), 4 — film Kodak Aerographic Plus X, 5 — rozmazanie obrazu przy v = 69 m/s, wys. lotu h = 1500 m, czasie otwarcia migawki 1/280 s (przy sprawności świetlnej 67%), 6 - wynikowa charakterystyka procesu
Z wymienionych czynników ograniczających zdolność rozdzielczą warto zwrócić uwagę na rozmazanie obrazu spowodowane ruchem postępowym samolotu w momencie ekspozycji. Wielkość tego rozmazania wynosi:
Gdzie: δs- wielkość rozmazania obrazu, v - prędkość lotu samolotu, t-czas otwarcia migawki,
m- mianownik skali zdjęcia, ck— odległość obrazowa kamery, h — wysokość lotu.
Z zależności tej wynika, że rozmazanie obrazu jest groźne przy dużych skalach fotografowania, a właśnie duże skale są obecnie dominujące w produkcji fotogrametrycznej.
11. PROJEKT NALOTU FOTOGRAMETRYCZNEGO
Kryteria i warunki techniczne projektu:
- cel opracowania fotogrametrycznego
- charakterystyka obiektu ( powierzchnia obiektu, kształt obiektu, max. różnica przewyższeń terenu, średnia rzędna terenu)
- technologia i metoda opracowania fotogrametrycznego (skala zdjęć, pokrycie podłużne i poprzeczne, rodzaj materiału negatywowego)
- parametry techniczne kamery fotogrametrycznej ( typ kamery, stała kamery, format zdjęć, migawka, wyposażenie dodatkowe)
- parametry techniczne samolotu ( max. zasięg, pułap, prędkość, długość drogi startowej)
Parametry projektu:
1) Skala zdjęć Mz = c √ Mp Mz=w/ck c- współczynnik Grubera
2) wysokość fotografowania w = ck Mz
3) wysokość absolutna fotografowania wa = w + Zśr
4) Długość boku zdjęcia w terenie lz = lx (ly) Lz = lz Mz
5) Długość bazy (podłużnej) fotografowania przy p% Bx = Lz(1 – p% / 100)
6) Odległość między osiami szeregów przy q% As = Lz (1 - q% / 100) By=As (By – poprzeczna baza)
7) Baza fotografowania w skali zdjęcia bx = Bx / Mz
8) Odległość między osiami szeregów w skali zdjęcia as = As / Mz
9) Stosunek bazowy v = Bx / w
10) Powierzchnia użyteczna zdjęcia Pz = Lz2 = lz2 Mz2
11) Powierzchnia stereogramu Ps = (Lz – Bx) Lz
12) Powierzchnia stereogramu nowo utworzona PN = Bx As
13) Liczba szeregów w bloku ns = Q / As + 1 Q – szerokość bloku
14) ilość modeli w kolejnym szeregu nmi = S(i) / Bx + 1 Si – długość szeregu
15) Ilość zdjęć w kolejnym szeregu nz(i) = nm(i) + 1
16) ilość zdjęć w bloku nZB = ∑nZ(i)
17) Czas ekspozycji tmax≤kr Mz / V V-prędkość samolotu kr≤0.02 mm
18) Interwał fotografowania Δt = Bx [m] / V [m/s] ≥2 s
19) Długość filmu LF = 1.1 ∑nZ(i) 22 cm (18x18) lub 28 cm (23x23)
20) Długość lotu L = 1.2 Po / As Po-powierzchnia obiektu
21) Czas lotu T = L / V
12. PARAMETRY FOTOGRAMETRYCZNEJ OCENY SZEREGU I BLOKU ZDJĘĆ LOTNICZYCH.
Po wykonaniu zdjęć lotniczych są one poddane kontroli. Kontrola jakości zdjęć dzieli się na ocenę jakości fotograficznej i fotogrametrycznej.
Ocena jakości fotograficznej powinna przebiegać na podstawie sensytometrycznych określeń wskaźników jakościowych trzech wybranych zdjęć (negatywów) z każdej błony filmowej. Są to zwykle zdjęcia początkowe, środkowe i końcowe. Pozostałe negatywy oceniane są wizualnie w porównaniu z trzema badanymi lub z negatywami wzorcowymi. Skala ocen : bardzo dobry, dobry, dostateczny i niedostateczny. Negatywy z ostatnią oceną nie powinny być dopuszczone do dalszego opracowania.
Ocena jakości fotogrametrycznej polega na sprawdzeniu : nieistnienia przerw fotogrametrycznych, prostolinijności osi szeregów, wartości kątów nachylenia zdjęć, odchylenia od zaprojektowanej wysokości fotografowania, wartości kątów skręcenia zdjęć, pokrycia podłużnego i poprzecznego.
Skręcenie zdjęć w stosunku do osi szeregu
Pokrycie zdjęć nie powinno się różnić od zadanego więcej niż ± 5%. Gdy Px<53% lub Py < 15%, to zdjęcia nie przechodzą do dalszego opracowania.
Kąty skręcenia zdjęć χ. w stosunku do osi szeregu nie powinny przekraczać ± 10°, przy dążeniu średniej wartości do 0. Systematyczne skręcanie zdjęć może spowodować choinkę (rys. 42), co jest zjawiskiem niepożądanym.
Odchylenie wysokości fotografowania W 'od zadanej nie powinno przekraczać 5%
Zdjęcia lotnicze (negatywy) o v > 3o są odrzucane, a liczba zdjęć o v > 2o nie powinna przekraczać 10%, ogólnej liczby wykonanych zdjęć.
Prostolinijność osi szeregu określana odchyleniem środka dowolnego zdjęcia od linii łączącej środki skrajnych zdjęć w szeregu nie powinna przekraczać 3% długości szeregu.
Zdjęcia z przerwami fotogrametrycznymi nie nadają się do dalszego opracowania. Zachodzi wtedy konieczność opracowania tradycyjnego - geodezyjnego lub powtórne wykonanie zdjęć.
13.UKŁADY WSPÓŁRZĘDNYCH STOSOWANYCH W FOTOGRAMETRII
-Układ współrzędnych terenowych
Układ współrzędnych terenowych (X, Y, Z) definiuje się w przestrzeni przedmiotowej jako prawoskrętny układ ortogonalny. Definicji tej nie spełniają najczęściej układy współrzędnych geodezyjnych, dlatego też istnieją trudności z bezpośrednim ich wykorzystaniem w opracowaniach fotogrametrycznych.
Zazwyczaj oś X układu terenowego jest zgodna z kierunkiem osi szeregu zdjęć lotniczych. Początek układu może być dowolny, jednak dla większego zespołu zdjęć jest on najczęściej przyjmowany pośrodku opracowywanego terenu.
Dla tego układu współrzędnych ustalono, że osią pierwszą jest oś X, drugą oś Y, natomiast dla osi Z przyjęto dodatni kierunek zwrotu do góry.
W układzie terenowym przedstawiane są ostateczne rezultaty opracowania fotogrametrycznego. Jest to możliwe przy znajomości współrzędnych X, Y, Z, punktów osnowy odwzorowanych na zdjęciach wykorzystywanych w opracowaniu. W układzie tym definiuje się położenie wiązki promieni homologicznych za pomocą sześciu elementów zwanych elementami orientacji zewnętrznej. Są to trzy wielkości liniowe określające położenie środka rzutów zdjęcia (Xs, Ys, Zs) oraz trzy kąty wyrażające nachylenia osi układu przestrzennego zdjęcia względem osi układu terenowego (ω, φ, k ).
- Układ współrzędnych fotogrametrycznych
W wielu opracowaniach wyznaczanie współrzędnych punktów w układzie terenowym realizuje się dwuetapowo. W pierwszym etapie określa się współrzędne punktów w układzie lokalnym dla pojedynczego stereogramu lub szeregu zdjęć. Takie postępowanie umożliwia rekonstrukcję geometryczną opracowywanego terenu lub obiektu na drodze spełnienia tylko wzajemnych relacji między zdjęciami. W rezultacie powstaje model podobny do obiektu (w postaci dyskretnej) bez dokładnej znajomości jego skali oraz orientacji przestrzennej. Drugi etap tego typu opracowania to transformacja przestrzenna współrzędnych punktów z układu fotogrametrycznego do układu terenowego. Ze względu na sposób budowy modelu obiektu na pierwszym etapie transformacja przestrzenna ma charakter transformacji przez podobieństwo.
Wewnętrzne zależności pomiędzy wiązkami służącymi do rekonstrukcji modelu określa pięć niezależnych elementów orientacji zewnętrznej zdjęć spośród dwunastu (trzy współrzędne środka rzutów i trzy kąty obrotu dla każdego zdjęcia).
Praktycznie wyróżnia się dwa zespoły parametrów definiujących orientację wzajemną zdjęć:
1) kąty obrotu wiązek z przyjęciem nachylenia poprzecznego zdjęcia lewego za zerowe,
2) orientację zewnętrzną drugiego zdjęcia wyrażoną w układzie przestrzennym zdjęcia pierwszego z pominięciem współrzędnej X środka rzutów drugiego zdjęcia; wartość tej współrzędnej wpływa jedynie na skalę odtwarzanego modelu.
- Przestrzenny układ współrzędnych zdjęcia
Podstawowymi danymi pełniącymi rolę obserwacji w rozwiązaniu analitycznym są współrzędne tłowe. Wielkości te są określane w wyniku pomiaru na zdjęciach przy użyciu specjalnych instrumentów fotogrametrycznych zwanych monokomparatorami lub stereokomparatorami. Celem takiego pomiaru jest rekonstrukcja wiązki promieni rzutujących danego zobrazowania. Określenie współrzędnych punktów jest realizowane w płaskim ortogonalnym układzie na zdjęciu, zwanym układem tłowym.
Za początek układu iłowego przyjmuje się punkt główny zdjęcia (tj. rzut ortogonalny środka rzutów na płaszczyznę tłową zdjęcia).
Dla zdjęć lotniczych oś x układu tłowego ma kierunek równoległy do osi szeregu zdjęć. W przypadku obserwacji stereoskopowych oś ta jest zdefiniowana przez środki rzutów zdjęć tworzących stereogram.
Dla zdjęć naziemnych oś x układu tłowego przechodzi przez poziome znaczki tłowe fotogramu.
Rekonstrukcja wiązki, która jest pierwszym etapem opracowań analitycznych wymaga przyjęcia układu przestrzennego pozwalającego na matematyczny zapis zaobserwowanych promieni. Warunek ten jest spełniony przez przestrzenny układ współrzędnych zdjęcia zdefiniowany w sposób następujący:
- początek układu stanowi środek rzutów zdjęcia,
- osie x, y tego układu są równoległe do osi x', y' układu tłowego zdjęcia,
- kierunek zwrotu osi z przyjmuje się w ten sposób, aby z wcześniej zdefiniowanymi osiami x, y został utworzony ortogonalny układ prawoskrętny. Na rys. 3.4 przedstawiono przestrzenny układ dla pozytywu i negatywu zdjęć lotniczych. Jak wynika z tego rysunku, współrzędne x, y w przypadku
obserwacji pozytywu i negatywu są takie same. Natomiast trzecia współrzędna różni się co do znaku i równa się odległości obrazu CK.
negatyw
14.RZUT ŚRODKOWY W UJĘCIU ANALITYCZNYM
15.OBRÓT ZDJĘCIA W PŁASZCZYŹNIE I PRZESTRZENI – MACIERZE OBROTU „DUŻA” I „MAŁA”
1.Obrót w płaszczyźnie
- wlaność macierzy obrotu R
- odwrotność macierzy obrotu R-1
własności:
- macierz obrotu R jest macierzą ortogonalną
- suma kwadratów elementów w wierszu lub kolumnie =1
- odwrotność macierzy R= jej transpozie (dzięki temu, że jest to macierz ortogonalna) R-1=RT
2.Obrót w przestrzeni
- W odniesieniu do układu x,y,z,
- przestrzenna macierz obrotu Rωφk
- ortogonalność macierzy R
- kolejność obrotów
- mała macierz obrotu
- macierz Rodriguesa
Duża macierz: 1 0 0
0 cosω -sinω
0 sinω cosω
Mała macierz: 1 -dk dφ
dk 1 -dω
-dφ dω 1
16. ELEMENTY ORIENTACJI WEWNĘTRZNEJ ZIĘCIA.
Elementami orientacji wewnętrznej zdjęcia lotniczego (rys) nazywamy wielkości umożliwiające określenie położenia środka rzutów O w stosunku do płaszczyzny zdjęcia. Elementami orientacji wewnętrznej są zatem:
• współrzędne tłowe głównego punktu zdjęcia O' (x’o, y'o)
• ogniskowa kamery f, tj. odległość między głównym punktem obrazowym obiektywu kamery a płaszczyzną obrazu (płaszczyzną ramki tłowej). Jest ona odpowiednikiem odległości środka rzutu O od rzutni π.
METRYKA KALIBRACJI KAMERY
Kalibracja kamer ma na celu dostarczenie charakterystyki metrycznej kamer fotogrametrycznych. Taka charakterystyka jest niezbędna do przeprowadzenia prac fotogrametrycznych i obejmuje następujące parametry:
1) odległość obrazowa kamery (stalą kamery — oznacza się przez ck lubf),
2) położenie punktu głównego kamery w stosunku do znaczków tłowych (xo , yo),
3) radialna i tangencjalna dystorsja obiektywu,
4) zdolność rozdzielcza obiektywu,
5) odległość pomiędzy znaczkami Iłowymi,
6) odchylenia ramki tłowej do płaszczyzny.
7)podstawowe definicje
8)szkice rozmieszczenia i numeracja znaczków tłowych
9)parametry emulsji fotograficznej
10)punkt przecięcia łącznic diagonalnych
11)punkt przecięcia łącznic pionowej i poziomej
12)punkt główny autokolimacji? (PPA)
13)główny punkt symetrii zdjęcia PPS
14)wielkości i dokładności
15)sztuczny punkt na zdjęciu z którego promienie radialne korygowane z tytułu dystorsji mają najmniejsze poprawki
16)współrzędne znaczków tłowych w odniesieniu do punktu PPS
17)parametry obrubki fotochemicznej
18)odległość wzdłuż przekątnych
Ponadto, jeśli kamera zawiera siatkę reseau, muszą być również określone położenia znaczków „reseau" w stosunku do znaczków tłowych. Powyższe dane pozwalają na przeprowadzenie precyzyjnej geometrycznej rekonstrukcji wiązki promieni, która została zarejestrowana w kamerze podczas ekspozycji. Rekonstrukcji tej można dokonać graficznie, instrumentalnie i matematycznie.
Metody kalibracji można podzielić na polowe i laboratoryjne. Metody polowe wymagają budowy pola testowego lub wykorzystania wybranych gwiazd jako punktów o znanych współrzędnych. Do metod tych zalicza się metody statyczne i dynamiczne. Te ostatnie umożliwiają pozyskiwanie informacji do kalibracji kamer lotniczych w czasie lotu. Najczęściej stosuje się jednak metody laboratoryjne, oparte na wykorzystaniu kalibratorów wielokolimatorowych lub goniometrów, czyli kalibrację przeprowadza się metodą fotograficzną lub wizualną.
17. ELEMENTY ORIENTACJI ZEWNĘTRZNEJ ZDJĘCIA.
Elementy orientacji zewnętrznej zdjęcia lotniczego (rys) są to wielkości określające położenie kamery względem fotografowanego terenu. Umożliwiają one wyznaczenie orientacji przestrzennej wiązki promieni rzutujących w momencie wykonywania zdjęcia. Elementami tymi są:
• współrzędne przestrzenne środka rzutów Xo Yo Zo (w układzie współrzędnych prostokątnych, przyjętym do prac pomiarowych w terenie);
• kąt nachylenia zdjęcia v - kąt nachylenia płaszczyzny zdjęcia w stosunku do płaszczyzny poziomej. Może być on również określony jako kąt odchylenia osi kamery od pionu, a więc kąt zawarty między prostą pionową przechodzącą przez środek optyczny obiektywu a osią optyczną kamery fotograficznej. Kąt v rozkłada się na dwa kąty składowe: wzdłuż osi x - kąt nachylenia podłużnego φ wzdłuż osi y - kąt nachylenia poprzecznego ω,
• kąt kierunkowy osi kamery (azymut zdjęcia) α. Jest to kąt zawarty między kierunkiem początkowym terenowego układu współrzędnych (dodatnim kierunkiem osi Y) a rzutem prostokątnym osi optycznej kamery na płaszczyznę XY;
• kąt skręcenia zdjęcia χ. Jest to kąt zawarty między prostą największego spadku v'v' a dodatnim kierunkiem osi y', mierzony w płaszczyźnie zdjęcia, w kierunku zgodnym z ruchem wskazówki zegara.
18. 28. PUNKTY I LINIE SZCZEGÓLNE ZDJĘCIA.
• płaszczyznę terenu T;
• płaszczyznę zdjęcia π, nachyloną w stosunku do płaszczyzny terenu T pod kątem v;
• płaszczyznę horyzontu T, czyli płaszczyznę poziomą przechodzącą przez środek rzutów O i równoległą do płaszczyzny terenu T.
W celu wyznaczenia linii i punktów charakterystycznych poprowadzimy przez środek rzutów O płaszczyznę β, zawierającą promień główny (oś zdjęcia 00' = f ) i prostopadłą do płaszczyzny terenu T. Krawędź przecięcia płaszczyzny β i π utworzy linię charakterystyczną zdjęcia, nazywaną główną pionową zdjęcia v' v'. Jest ona jednocześnie linią największego spadku płaszczyzny zdjęcia π.
Krawędź przecięcia płaszczyzny T z płaszczyzną zdjęcia π jest nazywana linią horyzontu zz. Stanowi ona jednocześnie ślad zbiegu płaszczyzny terenu T. Prowadząc przez punkt główny zdjęcia O' prostą równoległą do linii horyzontu otrzymamy główną poziomą zdjęcia h' h', która jest prostopadła do głównej pionowej zdjęcia. Punktami szczególnymi zdjęcia lotniczego są:
• punkt główny zdjęcia O',
• punkt nadirowy zdjęcia N',
• punkt izocentryczny zdjęcia f',
• główny punkt zbiegu Z'.
Punkt główny zdjęcia O’ jest rzutem prostokątnym środka rzutów O (głównego punktu obiektywu) na płaszczyznę zdjęcia. Ma on duże znaczenie praktyczne jako punkt wyjściowy w pomiarach fotogrametrycznych.
Punkt nadirowy zdjęcia N' jest punktem przebicia płaszczyzny zdjęcia prostą pionową, przechodzącą przez środek rzutu O. Punkt nadirowy nie odfotografowuje się na zdjęciach wykonanych zwykłymi kamerami lotniczymi. Jego położenie na zdjęciu można wyznaczyć sposobem analityczno-graficznym - na podstawie znajomości kąta nachylenia v i ogniskowej kamery f. W tym celu rozpatrzmy zależności w ∆OO'N' (rys):
gdzie O'O = f, stąd odległość punktu nadirowego od punktu głównego mierzona wzdłuż prostej największego spadku wynosi:
O’N’ = ftgv
Punkt nadirowy N' jest punktem zbiegu wszystkich linii pionowych, a więc linii prostopadłych do płaszczyzny terenu T.
Punkt izocentryczny zdjęcia I' jest punktem przebicia płaszczyzny zdjęcia π prostą, dwusieczną kąta nachylenia zdjęcia v. Punkt izocentryczny nie odfotografowuje się na zdjęciach, a położenie jego można jedynie wyznaczyć metodą analityczno-graficzną, na podstawie następującej zależności (rys):
gdzie O’0 = f, zatem
Powyższy wzór pozwala na obliczenie odległości punktu izocentrycznego I'od punktu głównego O'. Odległość tę odmierzamy wzdłuż głównej pionowej zdjęcia (prostej największego spadku). Szczególną właściwością punktu izocentrycznego jest to, że kąty, których wierzchołki znajdują się w tym punkcie, mierzone w płaszczyźnie zdjęcia, są równe odpowiednim kątom mierzonym w terenie, natomiast kąty mierzone w innych punktach zdjęcia nachylonego nie odpowiadają kątom rzeczywistym, ponieważ są obarczone błędem, wynikającym ze zmienności skali zdjęcia.
Główny punkt zbiegu - Z' - to punkt przebicia płaszczyzny zdjęcia prostą prostopadłą do linii horyzontu zz i przechodzącą przez środek rzutów O. Punkt ten leży na głównej pionowej zdjęcia v’v’. Odległość głównego punktu zbiegu Z' od punktu głównego zdjęcia O' można wyznaczyć sposobem analityczno-graficznym, znając kąt nachylenia zdjęcia v. Z trójkąta OZO' (rys) wynika zależność:
v
gdzie 0'O=f,
stąd 0'Z = f*ctgv
Główny punkt zbiegu Z' stanowi punkt zbiegu wszystkich linii terenu, które są równoległe do prostokątnego rzutu osi zdjęcia na płaszczyznę terenu T.
Odległość głównego punktu zbiegu Z' od środka rzutów O jest wykorzystywana praktycznie w procesie przetwarzania zdjęć lotniczych na przetwornikach fotomechanicznych. Odległość tę można wyznaczyć ze związków zachodzących w trójkącie 00'Z', gdzie:
ponieważ O’Z’ = f*ctgv,
19. WYZNACZENIE ŚREDNIEJ SKALI ZDJĘCIA
- przy znajomości Ck i wys. lotu W
- gdy nie dysponujemy takimi samymi danymi wówczas musimy mieć mapę topograf. i porównujemy odcinki wyznaczane na zdj. Z tymi z mapy. One powinny być zorientowane wzdłuż prostych najw. spadku i gł. poziomej zdj. Wtedy:
D-dł odcinka z mapy topograf.
d-dł. odc. na zdjęciu
20. ZALEŻNOŚĆ ZNIEKSZTAŁCEŃ OBRAZU ZDJĘCIA LOTNICZEGO OD DENIWELACJI TERENU.
Deniwelacje terenu powodują radialne (w stosunku do punktu nadirowego N) przesunięcie obrazów punktów położonych powyżej lub poniżej płaszczyzny odpowiadającej średniej wysokości terenu T. W rezultacie punkty terenu A i B, których rzut ortogonalny na płaszczyznę T odpowiednio A0 i B0 odfotografowują się na zdjęciu jako punkty A' i B'. Położenie tych punktów należy więc skorygować o wartość Δr, doprowadzając do położenia A'0 i B'0. W przypadku punktu A, który leży poniżej płaszczyzny T, korekta będzie polegała na przesunięciu jego położenia o wielkość r'A w kierunku od punktu nadirowego, natomiast w przypadku punktu B, leżącego powyżej płaszczyzny T, na przesunięciu położenia o odcinek r'B skierowany do punktu nadirowego.
W celu wyznaczenia wielkości odchyłki Δr’B rozpatrzymy zależności na rysunku a. Z podobieństwa trójkąta BB1B0 wynika proporcja:
ponieważ ΔrB = Δr’Bm
gdzie: m - mianownik skali zdjęcia, stąd:
a zatem
lub
gdzie: Δr’B - odchyłka (przesunięcie liniowe) położenia punktu B' spowodowana deniwelacją terenu,
r'B - odległość korygowanego punktu od punktu nadirowego lub od punktu głównego zdjęcia prawie pionowego, Δh - różnica wysokości punktu terenu w stosunku do płaszczyzny odniesienia T, H - wysokość fotografowania (w odniesieniu do płaszczyzny T).
Jak wynika z powyższego wzoru, wpływ deniwelacji terenu na położenie obrazu punktu Jest tym większy, im bardziej jest on oddalony od punktu nadirowego, im większe jest przewyższenie tego punktu w stosunku do średniej wysokości terenu oraz im mniejsza jest wysokość fotografowania. Minimalne zniekształcenia występują w przypadku terenów równinnych i w środkowej części użytecznego pola zdjęcia.
Należy zaznaczyć, że praktycznie, w przypadku zdjęć prawie pionowych, poprawkę r’B odkładamy na promieniu Δr’B wykreślonym z głównego punktu zdjęcia O', gdyż prawie pokrywa się on z punktem nadirowym N'. Wpływ tej nieścisłości na ostateczne położenie punktu jest znikomy i nie przekracza granic dokładności graficznej.
21.ZMIANA SKALI ZDJĘCIA LOTNICZEGO Mz W ZALEŻNOŚĆI OD OGÓLNEGO KĄTA NACHYLENIA ZDJĘCIAv
W celu określenia skali wybranego punktu na nachylonym zdjęciu lotniczym należy znać wysokość terenową ha tego punktu oraz jego położenie na zdjęciu w stosunku do głównej pionowej zdjęcia i osi jego nachylenia. Położenie głównej pionowej można określić na podstawie znajomości kąta skręcenia zdjęcia x, a położenie punktu nadirowego O'N' z zależności Cktgv (rys. 1.18). Te same wielkości służą do wyznaczenia położenia punktu izocentrycznego /'. Określa to zależność ck*tg v/2. Znajomość położenia tego punktu umożliwia lokalizację linii nachylenia zdjęcia jako prostopadłej do głównej pionowej zdjęcia w punkcie /'.
Do określenia skali zdjęcia nachylonego oprócz hA, k oraz v należy znać wysokość lotu H i stałą kamery ck. Pierwszym etapem wyznaczenia skali dla punktu a będzie wyznaczenie położenia tego punktu na zdjęciu (w terenie punktu A o znanej wysokości — rys. 1.19). W tym celu należy pomierzone współrzędne tłowe x, y przekształcić na współrzędne x', y' (układ głównej pionowej i prostej równoległej do osi nachylenia zdjęcia, przechodzącej przez punkt N'). Po uwzględnieniu obrotu x' oraz przesunięcia układu, które wynosi cktg v, otrzymuje się
x'-=x cosk.'+y sink' y'= -k sink'+ ycosk'+ cktgv
Jeżeli prosta km będzie prostopadła do ON, to będzie ona prostą poziomą, gdyż ON jest linią pionu. Odcinek am jako odcięta w nowym układzie x' y' jest prostopadły do osi y' (linii największego spadku), a więc jest również poziomy.
Zatem trójkąt kma leży na płaszczyźnie poziomej. Trójkąt ten jest podobny do poziomego trójkąta terenowego KMA. Z zależności tych trójkątów można określić skalę zdjęcia nachylonego dla punktu a. Z trójkątów Oka i OKA otrzymuje się
ka Ok. ON – Kn ck/cos – y sinv 1
KA OK H - hA H - hA mz
Stosunek poziomych odległości ka (na zdjęciu nachylonym) do odległości KA w derenie określa skalę zdjęcia 1/mz dla punktów o wysokości hA leżących na płaszczyźnie kma.
22.WPŁYW CZYNNIKÓW OPTYCZNYCH NA ZNIEKSZTAŁCENIE OBRAZU.
DYSTORSJA OBIEKTYWU
Powiedziano, że w idealnym obiektywie powiększenie kątowe jest równe jedności .Oznacza to, że obraz płaskiego przedmiotu usytuowanego w płaszczyźnie prostopadłej do osi optycznej obiektywu jest podobny do tego przedmiotu, a o takim obiektywie mówi się, że jest ortoskopowy. W rzeczywistych obiektywach ortoskopia jest zaburzona). Zjawisko to nazywa się dystorsją radialną obiektywu (zwaną również symetryczną) lub po prostu dystorsją. Charakter i wielkość dystorsji zależą od konstrukcji obiektywu i umiejscowienia w nim diafragmy. Wolne od dystorsji są obiektywy symetryczne z diafragmą znajdującą się w płaszczyźnie symetrii, jednak dążąc do eliminacji innych błędów i zwiększenia jasności obiektywów, odstępuje się od tej konstrukcji. Dystorsja obiektywu powoduje przesunięcie obrazu punktu na płaszczyźnie tłowej. Przesunięcie to można rozłożyć na dwie składowe: pierwszą, tj. rzut przesunięcia dystorsyjnego na promień radialny — noszący nazwę dystorsji radialnej, drugą (prostopadłą do kierunku promienia) noszącą nazwę dystorsji tangencjalnej. Dystorsja tengencjalna jest bardzo mała w porównaniu z dystorsją radialną. Wielkość przesunięcia radialnego zależy od kąta osiowego, a więc i długości promienia radialnego (rys. 2.12):
Δr = r -cktgα
gdzie:
Δr — wielkość dystorsji radialnej,
r — promień radialny określający odległość rzeczywistego obrazu od punktu głównego zdjęcia,
ck— odległość obrazowa (odległość ramki tłowej od obrazowego punktu głównego obiektywu),
α— kąt osiowy w przestrzeni przedmiotowej (między danym promieniem a osią główną obiektywu).
Ponieważ dystorsja jest związana z konstrukcją obiektywu, więc jej wielkość i rozkład są znane już na etapie projektowania obiektywu.
Dystorsję radialną łatwo można opisać analitycznie. Jej wartość dobrze aproksymuje funkcja:
Ar = a1r3 + a2r5 + a3r7 + ...
gdzie:
Δr — wartość przesunięcia obrazu danego punktu,
r — promień radialny,
a1, a2, a3 - współczynniki.
Do skutecznego opisania dystorsji obiektywu kamery wystarczy przyjąć trzy wyrazy wielomianu
Dystorsja radialna opisana wzorem (2.4) jest wyznaczona względem „punktu najlepszej symetrii", tj. punktu, względem którego rozkład przesunięć radialnych na powierzchni zdjęcia jest najbardziej symetryczny (stąd nazwa „dystorsja symetryczna"). Punkt ten — ściśle mówiąc — nie musi się pokrywać z określonym wcześniej punktem głównym zdjęcia. Dystorsja zniekształca wiązkę promieni rzutujących, a więc opis tych zniekształceń wyrażony funkcją (2.4), pozwalający zrekonstruować rzeczywistą wiązkę przedmiotową zdjęcia, należy traktować — obok odległości obrazowej i położenia punktu głównego - jako element uzupełniający zestaw elementów orientacji wewnętrznej.
Wartości współczynników wielomianu (2.4) opisujących dystorsję radialną mogą być wyznaczone w procesie kalibracji kamery.
SZCZĄTKOWE WADY OBIEKTYWÓW (aberacje, astygmatyzm) są we współczesnych obiektywach praktycznie zaniedbywalne
Korekcja współrzędnych tłowych zdjęcia Δrx’ = x’ (k0 + k1r’2 + k2r’4 + k3 r’6 + ...)
Δry’ = y’ (k0 + k1r’2 + k2r’4 + k3 r’6 + ...)
Gdzie
DEFORMACJE PODŁOŻA EMULSJI FOTOGRAFICZNEJ
Obecnie, jako nośnika emulsji światłoczułej używa się niepalnych błon acetatowych i poliestrowych. Błony te w nieznacznym stopniu kurczą się pod wpływem zmian wilgotności, temperatury i czasu składowania. Można mówić o skurczach regularnych i nieregularnych.
Wpływ niepłaskości emulsji fotograficznej
Pomimo, że w kamerach film przed ekspozycją jest poddawany wypłaszczaniu, a w większości kamer naziemnych używa się płyt szklanych, to jednak w żadnym z tych przypadków podłoże emulsji nie stanowi idealnej płaszczyzny.Dla zdjęć lotniczych najpełniej wpływ niepłaskości emulsji można uwzględnić w przypadku wykorzystania kamery z siatką Roseau. W kamerach takich w płaszczyźnie tłowej znajduje się gruba płyta szklana z precyzyjnie wytrawioną siatką kwadratów. Siatka ta odwzorowuje się na emulsji dociskanej w czasie ekspozycji do płyty. Ewentualne lokalne niepłaskości emulsji spowodują przesunięcie zarówno obrazu powierzchni terenu, jak również najbliższych węzłów siatki. Pomiar tych węzłów na zdjęciu i znajomość ich nominalnego położenia umożliwiają uwzględnienie lokalnych wpływów niepłaskości emulsji.
23.WPŁYW CZYNNIKÓW FIZYCZNYCH
Wpływ refrakcji atmosferycznej
Atmosfera nie jest jednorodnym środowiskiem optycznym. Promienie świetlne tworzące obraz fotograficzny nie rozchodzą się po liniach prostych — lecz załamują się, przechodząc przez warstwy powietrza o różnej gęstości. Ilustruje to rys. 2.15. Na zdjęciu pionowym obraz terenowego punktu A zamiast w punkcie a' — jak wynikałoby z teorii rzutu środkowego - utworzy się w punkcie a przesuniętym radialnie na zewnątrz o wartości δr. Kątowa wartość tego przesunięcia Θ jest refrakcją atmosferyczną. Wielkość refrakcji zależy m.in. od stanu atmosfery, toteż w zależności od przyjętego modelu atmosfery można napotkać w literaturze różne wzory opisujące jej wpływ (dające praktycznie jednakowe wyniki dla niskich i średnich pułapów lotniczych). Dla standardowej atmosfery przesunięcie radialne obrazów punktów spowodowane refrakcją atmosferyczną można wyrazić następująco:
gdzie:
δr — poprawka z tytułu refrakcji, r — promień radialny punktu, ck — odległość obrazowa kamery,
c - wartość fotogrametrycznej refrakcji dla kąta osiowego a = 45° (wyrażona w radianach).
Widać więc, że wpływ refrakcji rośnie ku skrajom zdjęcia i jest większy dla kamer o krótszych odległościach obrazu. Wartość refrakcji c występującej we wzorze (2.6) jest standaryzowana dla standardowej atmosfery. Zależy ona od wysokości lotu nad poziomem morza i średniej wysokości fotografowanego terenu.
Wpływ krzywizny Ziemi
Zakrzywienie Ziemi nie powoduje zniekształceń wiązki perspektywicznej. Ponieważ jednak współrzędne geodezyjne są odniesione do przyjętej płaszczyzny odwzorowawczej, zatem przy określeniu współrzędnych terenowych na podstawie zdjęć lotniczych fakt zakrzywienia Ziemi powinien być uwzględniony. Na rys. 2.16 A jest punktem terenowym, A' jego położeniem na powierzchni odwzorowawczej stycznej do powierzchni Ziemi w punkcie nadirowym. Aby przedstawić powierzchnię Ziemi na płaszczyźnie, należy więc do pomiarów na zdjęciu wprowadzić poprawkę radialną dr. Z rysunku wynika, że jej wartość: gdzie:
dr — poprawka radialna z tytułu krzywizny Ziemi, r — promień radialny punktu,
H — wysokość fotografowania,
R— promień krzywizny Ziemi (R~6370km)
ck— odległość obrazowa kamery.
Widać więc, że wpływ krzywizny Ziemi szybko rośnie ku skrajom zdjęcia, jest wprost proporcjonalny do wysokości fotografowania i odwrotnie proporcjonalny do odległości obrazu.
24. METODY OTRZYMYWANIA EFEKTU STEREOSKOPOWEGO
1. Sposób optyczny
Polega on na rozdzieleniu promieni biegnących od lewego zdjęcia do lewego oka i promieni biegnących od prawego zdjęcia do prawego oka za pomocą specjalnych układów optycznych. Najprostszym układem optycznym służącym dla wymienionego celu jest stereoskop zwierciadlany.
2. Sposób anaglifowy
Polega na połączeniu dwóch obrazów, tego samego obiektu, zabarwionych dopełniającymi się kolorami i obserwacji ich przez filtry optyczne (barwne) tak dobrane, aby każde oko widziało tylko jeden obraz.
3. Sposób wirujących przesłon
Polega na przemiennym rzutowaniu obrazu lewego zdjęcia i prawego zdjęcia. Do przemiennego rzutowania używane są dyski z wyciętymi rowkami.
4. Sposób polaroidów
Podobny do sposobu anaglifowego, z tym, że dla rozdzielenia obrazów – zamiast kolorowych filtrów – stosowane są polaryzatory optyczne. Działanie tych polaryzatorów polega na uporządkowaniu drgań fal świetlnych w jednej wybranej płaszczyźnie.
5. Sposób rastrów
Polega na równoczesnym rzutowaniu dwu zdjęć poprzez siatki linii równoległych, co prowadzi nie tylko do uzyskania modelu stereoskopowego, ale także linii na tym modelu, które są odpowiednikami warstwic.
6. Sposób holograficzny
Różni się zdecydowanie od wszystkich metod możliwością bezsoczewkowego uzyskania modelu stereoskopowego za pomocą światła spójnego.
RODZAJE EFEKTU STEREOSKOPOWEGO
W zależności od ułożenia zdjęć względem siebie może być uzyskany jeden z trzech rodzajów efektu stereoskopowego:
- efekt ortoskopowy – przy którym model utworzony z pary zdjęć lotniczych ma ukształtowanie pionowe zgodne z naturalnym tzn. wzniesienia terenowe są skierowane w stronę obserwatora. Bazy fotografowania zajmuje położenie „do wewnątrz”.
- efekt pseudoskopowy – przy którym następuje zmiana ukształtowania pionowego, tzn. formy wypukłe obserwuje się jako wklęsłe, rzeki płyną grzbietami itp. Powstaje na skutek obserwacji zdjęcia lewego prawym okiem, a prawego lewym. Baza fotografowania na zdjęciach zajmuje położenie „na zewnątrz”.
- efekt zerowy – (minimalny), przy którym zanika wrażenie plastyki. Teren płaski. Zdjęcie lewe skręcone jest o 90o i obserwowane lewym okiem, a prawe jest także skręcone o 90o i obserwowane prawym okiem. Efekt zerowy stosowany jest wtedy, gdy przy obserwowaniu stereogramu niepożądana jest obserwacja przestrzennego ukształtowania terenu.
WARUNKI OPTYCZNE I GEOMETRYCZNE SZTUCZNEGO EFEKTU STEREOSKOPOWEGO WIDZENIA
Uzyskanie modelu stereoskopowego uzależnione jest od pewnych czynników:
Czynniki związane z procesem fotografowania:
Wykonanie zdjęć z dwóch różnych punktów przestrzeni (baz fotografowania) – podobna odległość od obiektu,
Wykonanie takich zdjęć żeby skale zdjęci lewego i prawego były w przybliżeniu jednakowe (dopuszczalna różnica 15%)
Promienie rzutujące wykonanych zdjęć nie powinny przecinać się pod kątem większym od 15º.
Pokrycie podłużne zdjęć 60%, poprzeczne 20 – 40%.
Czynniki ograniczające uzyskanie efektu stereoskopowego:
Konieczność prowadzenia obserwacji punktów modelu stereoskopowego w płaszczyznach rdzennych
Prowadzenie obserwacji zdjęć z odległości najlepszego widzenia
Odpowiednie ułożenie zdjęć do obserwacji (zdjęcie lewe stereogramu powinno być obserwowane lewym okiem, a prawe zdjęcie – prawym
WIRTUALNY ZNACZEK POMIAROWY
Sposób pomiaru za pomocą znaczka wirtualnego nazywany jest także sposobem dwóch znaczków rzeczywistych wyobrażalnego. Ogólną zasadą pomiaru stereoskopowego za pomocą dwóch znaczków wyjaśnia rysunek. Jeżeli w polu widzenia każdego zdjęcia umieścimy znaczek pomiarowy, którego położenie względem zdjęcia może się zmieniać, to istnieje takie jedno położenie znaczka, przy którym jest on styczny do powierzchni modelu.
W położeniu wyjściowym – stosunkowo łatwo jest monokularne pokrycie jednego znaczka pomiarowego z obserwowanym punktem, np. a’. Równocześnie z tym drugi znaczek przemieszczany jest w płaszczyźnie drugiego zdjęcia (π2). Jeżeli ustawienie drugiego znaczka odpowiada położeniu 3, to przestrzenny znaczek pomiarowy znajdzie się pod powierzchnią widocznego modelu stereoskopowego. Dopiero dokładne naprowadzenie prawego znaczka na punkt a’’ zdjęcia π2 – położenie 1 – prowadzi do styczności wyobrażalnego znaczka pomiarowego z mierzonym punktem A modelu. Doprowadzenie do styczności wyobrażalnego znaczka pomiarowego z obserwowanym punktem modelu, osiągnięte więc jest poprzez dokładne naprowadzenie znaczków rzeczywistych na jednoimienne punkty zdjęć π1 i π2. następnie na licznikach instrumentu wykonywane są odczyty położenia punktów na zdjęciach.
Wartość odczytu odpowiadającego położeniu znaczka pomiarowego na danym punkcie zdjęć jest funkcją tego punktu na powierzchni modelu stereoskopowego od bazy obserwacji.
25.Płaszczyzna rdzenna: płaszczyzna przechodząca przez bazę obserwacyjną
Płaszczyzna rdzenna wyznaczona jest przez obydwa ośrodki rzutów O1 i O2 (oś rdzenną) oraz punkt A, B … (lub inny punkt w przestrzeni przedmiotowej) obfotografowany na obserwowanych zdjęciach. Odpowiadające sobie promienie rdzenne r’a i r’’a czy r’b i r’’b przecinają się na krawędzi przecięcia płaszczyzn obrazów KK.
O1 i O2 – baza obserwacyjna
Rys. 1.38. Przekroje poziome: a) i b) przez bazę oczną, c) przez bazę zdjęć: a) i b) główna płaszczyzna obserwacji określona punktami O1, O2, F, f1, f2; Ff1 oraz Ff2 — osie oczu; różnica f1a1 – f2a2 jest paralaksą fizjologiczną punktu A; c) płaszczyzna rdzenna O1O2A ; punkty rdzenne R1 i R2 promienie rdzenne r’a i r’’a
26.MONOKOMPARATORY I STEREOKOMPARATORY
Obserwacja i pomiar punktów zdjęć na monokomparatorze i stereokomparatorze prowadzi do wyznaczenia współrzędnych płaskich w układzie pomiarowym instrumentu (xst, yst). Wybór typu instrumentu pomiarowego jest związany ze sposobem wyboru i definiowania mierzonych punktów. Stereoskopowy pomiar zdjęć na stereokomparatorze umożliwia dokonanie przyporządkowania punktów homologicznych oraz wybór punktów wyznaczanych na etapie obserwacji. Stosowanie obserwacji monokulamej na monokomparatorze wymaga wyboru jednoznacznych punktów lub, w przypadku ich braku, sygnalizacji punktów na obiekcie przed wykonaniem fotogramów.
W instrumentach służących do pomiaru położenia punktów na fotogramach wyróżnia się dwa zasadnicze podzespoły:
- system obserwacyjny,
- układ pomiarowy instrumentu.
System optyczny to najczęściej podwójny mikroskop zogniskowany na górne płaszczyzny nośników, na które zakłada się mierzone zdjęcia. Okulary tego systemu umożliwiają obserwatorowi indywidualną regulację ostrości obrazu i ich rozstawu. Znajdujący się w systemie optycznym pozorny znaczek pomiarowy gwarantuje właściwą precyzję pomiaru.
Układ pomiarowy składa się z:
- nośników, na które kładzie się mierzone fotogramy (nośniki te mogą się obracać we własnej płaszczyźnie),
- układu prowadnic, definiujących materialne układy współrzędnych instrumentu, pozwalających na wykonanie pomiaru.
Właściwy pomiar odbywa się poprzez przesuwanie zdjęć na nośnikach względem nieruchomego systemu obserwacyjnego lub odwrotnie.
Na rys. 3.5 przedstawiono schematycznie budowę stereokomparatora 1818 firmy Cari Zeiss Jena.
W instrumencie tym wielkościami mierzonymi są xst, yst pxst, pyst. Wielkości xst, pxst są określane poprzez pomiar przesuwu nośników względem nieruchomego na tym kierunku systemu optycznego. Pomiar wielkości yst, pyst na kierunku prostopadłym do poprzedniego jest realizowany poprzez przesuw układu optycznego stereokomparatora. Dokładność nominalna wielkości mierzonych jest zróżnicowana. Współrzędne xst, yst odczytuje się z dokładnością ±0,02 mm, natomiast
dokładność paralaksy pxst, pyst jest równa ±0,005 mm. : Zwiększona dokładność pomiaru paralaks jest szczególnie cenna przy wykonywaniu pomiarów różnicowych na tzw. stereogramach czasowych. W tego typu stereogramach mierzone paralaksy są funkcją zmian badanego obiektu w czasie i skali zdjęcia, ich wartość na ogół jest rzędu pojedynczych milimetrów. Przy takim zakresie pomiaru paralaks można przyjmować, że błędy t instrumentalne nie wpływają na wyznaczane wartości.
stereokomparator- urządzenie do pomiaru współrzędnych tłowych lub paralaks stereogramu. Do pomiaru przyjnuje się równoległe pary zdjęć; układ odniesienia to oś „x” lub oś „y”, doprowadzany poziomą łącznicą lewego i prawego zdjęcia do równoległości z osią x stereokoparatora (lub pionową łącznicą do równoległości z osią y streokomp.).
max format zdjęć 18*18 cm
pomiar x’, y’, Px, Py
dokładność pomiaru współrzędnych tłowych ok. 10M m
znaczek pomiarowy wyobrażalny
budowa: żeliwna rama z prowadnicami, po której przesuwa się wózek, licznik ze śrubą, zacisk dokujący, śruba „q” – do ustawiania paralaksy poprzecznej, „p”-paralaksy podłużnej, okulary, układ optyczny, włącznik oświetlenia.
max format 24*24 cm
dokł. ok. 3M m
pomiar x’, y’, Px, Py
budowa: komputer, urządzenie do odczytu i transmisji danych, jednostka centralna: okulary o dużym powiększeniu, nośniki zdjęć na wózkach, korbki powodujące przesunięcie obydwu zdjęć (ruch „x”, lub ruchomych części układu optycznego – ruch „y”; korbki nośników zdjęcia prawego [Px=p] /prawe porusza się wzglllędem lewego/; korbki nośników zdjęci lewego [Py=q] /lewe porusza się wzglllędem prawego/) , 6 różnych znaczków pomiarowych.
Stereokomparatory:
- analogowe z układu pixelowego na tłowy
- cyfrowe
Monokomparatory- obserwacje na jednym obrazie cyfrowym
Stereokomparatory- obserwacje równocześnie dwóch obrazów
27.METODY OBSERWACJI ZDJĘĆ DO OBSERWACJI STEREOSKOPOWYCH, POMIAR WSPÓŁRZĘDNYCH TŁOWYCH I PARALAKS NA ZDJĘCIACH FOTOGRAMETRYCZNYCH
Pomiar współrzędnych punktów na zdjęciach lotniczych
W opracowaniach analitycznych za obserwacje przyjmowane są współrzędne nowe punktów, natomiast w instrumencie fotogrametrycznym obserwacja i pomiar odbywa się w układzie pomiarowym instrumentu. Równoczesny pomiar znaczków tłowych wraz z właściwymi obserwacjami wyznaczanych punktów umożliwia ich przeliczenie z układu pomiarowego instrumentu na układ tłowy drogą transformacji płaskiej.
Taki sposób postępowania jest niemożliwy z przyczyn technicznych (ograniczony zakres paralaks) na opisanym wcześniej stereokomparatorze 1818. Przy stosowaniu tego instrumentu należy właściwy etap pomiaru poprzedzić centrowaniem zdjęć na nośnikach oraz ich strojeniem wzdłuż bazy.
Poprzez centrowanie zdjęć należy rozumieć takie ich usytuowanie na nośnikach instrumentu, aby punkt główny zdjęcia pokrył się z krzyżem naciętym na nośniku materializującym jego pionową oś obrotu. Praktycznie czynność ta polega na odpowiednim wpasowaniu znaczków tłowych względem kresek wygrawerowanych w narożnikach nośnika instrumentu (ze względu na brak sygnalizacji punktu głównego na zdjęciu).
Strojenie zdjęć wzdłuż bazy polega na doprowadzeniu do równoległości osi , układu Iłowego do odpowiednich osi instrumentu pomiarowego.
Takie wzajemne usytuowanie układów w czasie obserwacji upraszcza sposób wyznaczania współrzędnych tłowych, gdyż wykonane pomiary należy poddać jedynie procesowi translacji. Wartości wektorów translacji są wyznaczane poprzez stereoskopowy pomiar punktów głównych zdjęć (w praktyce — krzyży wygrawerowanych na nośnikach instrumentu).
Dodatkowym efektem strojenia wzdłuż bazy jest doprowadzenie do równoległości promieni rdzennych z bazą obserwacyjną (w przybliżeniu). Zapewnia to wykonanie obserwacji przy maksimum efektu stereoskopowego.
Opisane czynności wstępne w tym instrumencie zastępują pomiar znaczków tłowych i w związku z tym powinny być wykonane z dużą starannością.
Czynności prowadzące do pomiaru zdjęć lotniczych na stereokomparatorze 1818 są następujące:
l. Zakłada się zdjęcia na nośniki stereokomparatora, wpasowując ich znaczki tłowe w specjalne nacięcia w postaci krzyży lub kresek, umieszczone w narożnikach nośników. W ten sposób krzyż wryty ma środku nosnika materializuje położenie punktu głównego na zdjęciu.
2. Ruchami x i y ustawia się lewy znaczek pomiarowy na punkcie głównym lewego zdjęcia (obserwacja monokularna tylko lewego fotogramu), następnie ruchami x i py (nie ruszając pokrętki y) ustawia się prawy znaczek : pomiarowy na punkcie głównym prawego zdjęcia (również obserwacja monokularna tym razem prawego zdjęcia). Czynności te należy sprawdzić. Wykonanie tego etapu strojenia można uznać za poprawne, jeżeli w celu przejścia z obserwacji jednego punktu głównego do drugiego wystarczy wykonanie ruchu x . Od tego momentu pokrętka ruchu py nie powinna być używana w dalszym etapie strojenia
3. Ruchami x ustawia się lewy znaczek pomiarowy w okolice lewego punktu głównego, a następnie ruchem px oraz skręceniem prawego zdjęcia ustawia się prawy znaczek pomiarowy na tym samym punkcie terenu. Początkowo obserwacja ma charakter monokularny. Po odpowiednim zbliżeniu odpowiadających sobie obrazów uzyskuje się efekt stereoskopowy terenu i wrażenie przestrzennego znaczka pomiarowego. Efekt ten umożliwia dokładne usuwanie paralaksy poprzecznej poprzez skręcenie prawego nośnika x"). Dla początkującego obserwatora zaleca się usuwanie paralaksy poprzecznej przy rozdwojeniu znaczka pomiarowego wzdłuż osi x, tj. celowym zagłębieniu znaczka pomiarowego wskutek ruchu px.
4. Ruchem x ustawia się znaczek pomiarowy w okolice prawego punktu głównego, eliminując jednocześnie występującą paralaksę podłużną px, która zależy od ukształtowania terenu.
Z wykorzystaniem efektu stereoskopowego eliminuje się występującą tutaj paralaksę poprzeczną poprzez skręcenie lewego nośnika
5. Opisane wcześniej czynności zwane strojeniem wzdłuż bazy powtarza się aż do całkowitego usunięcia paralaksy poprzecznej (p ) w okolicy obydwu punktów głównych.
6. Pomiar zdjęć lotniczych rozpoczyna się od pomierzenia współrzędnych i paralaks punktów głównych, a następnie mierzy się wszystkie punkty wyznaczane. Oczywiście pomiar każdego punktu powinien być wykonany dwukrotnie. Dopuszczalna różnica odczytów poszczególnych wielkości dla początkującego obserwatora może osiągać kilka setnych milimetra.
METODY ORIENTACJI ZDJĘĆ NA STEREOKOMPARATORACH
Po bazie
Poprawne ułożenie negatywów lub diapozytywów na płytce szklanej (nośniki zdjęć), krzyżyki wyznaczają środki obrotów – punkty główne zdjęć
Za pomocą pokrętła x i y sprowadzamy lewy znaczek pomiarowy na pkt główny lewego zdjęcia
Posługując się pokrętłami x, p, q naprowadzamy znaczek pomiarowy na pkt główny prawego zdjęcia (wtedy ucieka lewy pkt główny)
Pokrętłem x naprowadzamy lewy znaczek pomiarowy na lewy pkt główny
Pokrętłem p w polu widzenia okularu naprowadzamy szczegół sytuacyjny
Po znaczkach tłowych
Pokrętłami x i y naprowadzamy lewy znaczek pomiarowy na pkt główny lewego zdjęcia
Pokrętłem x naprowadzamy znaczek tłowy nr 6 lub 8, widoczną paralaksę usuwamy pokrętłem (kappa)
Kontrolę poprawności orientacji przez powrót na lewy pkt główny
Wszystkie czynności powtarzamy dla prawego zdjęcia wykorzystując tylko prawą część układu optycznego
28.ZALEŻNOŚĆ PRZEWYŻSZENIA Δh OD RÓŻNICY PARALAKS PODŁUŻNYCH Δpx DLA ZDJĘĆ ŚCIŚLE PIONOWYCH
hD – jest znane
Δh = hE - hD
B – baza
PD – paralaksa punktu D
PE – paralaksa punktu E
H-hD = B*CK/PD hD = H - B*CK/PD
H-hE = B*CK/PE hE = H - B*CK/PE
Δh = hE - hD = B*CK/PE - B*CK/PD = (BCK(PE – PD))/( PE * PD)
oznaczając PD = b’ = b’’ = b b’-baza w skali zdjęcia b’= Ol’Op’’ b’’= Ol’’Op’
29.OBRAZ CYFROWY
Jest to uporządkowany zbiór pikseli w postaci np. macierzy z przypisanymi do nich jasnościami spektralnymi lub poziomami szarości zapisanymi na nośniki danych najczęściej na stronę bajtową tzn. stopień szarości pojedynczego piksela jest opisywany cyfrowo w granicach 0 (czerń) do 2 55 (biel) tj 28 = 256 poziomów szarości, położenie piksela w obrazie oznaczają rzędy i kolumny macierzy tj. wsp. płaskie obrazu.
Jest to uporządkowany zbiór odpowiedzi spektralnych pomierzonych na elementarnych polach obiektu i zapisanych na komputerowych nośnikach danych. Odpowiedz spektralna to wartość energii odbitej lub emitowanej przez obiekty terenowe w określonym przedziale promieniowania elektromagnetycznego( stopiń szarości, intensywność, gęstość obrazu lub sygnał – synonimy)
30. DYSKRETYZACJA I KWANTYZACJA (TWORZENIE OBRAZU CYFROWEGO)
Dyskretyzacja – przedstawienie obrazu w określonej liczbie pikseli. Mówi o tym w ilu pikselach został zapisany dany obraz.
Kwantyzacja – przypisanie odpowiednim pikselom których położenie jest już zidentyfikowane w matrycy odpowiednich poziomów szarości. Obraz powinien być kwantyzowany przy jak największej liczbie k.
Sposób pozyskiwania obrazu cyfrowego:
- spos. Bezpośredni – obrazy gł. Naziemne(kamerami cyfrowymi)
- pośredni – wysokorozdzielcze skanery (sposób pośredniej akwizycji danych)- digitalizacja
31.FORMATY ZAPISU DANYCH RASTROWYCH
-TIFF- Tag image file format – najczęściej używany do skanowania
-BMP- bit mapa – do obrabiania zdjęć w środowisku Windows
Format tiff: nagłówek zawierający informacje ogólne o parametrach obrazu, druga część zawierająca treść obrazu. Format bmp jest czytelniejszy
-jpg – standard, który w sobie zawiera już kompresję. Obecnie w fotogrametrii jest standard 2000, piksele łączone są w grupy 8x8
-pmg
32.SKANERY FOTOGRAMETRYCZNE I WARUNKI SKANOWANIA ZDJĘĆ
Typy skanerów
- mapowe – bębenkowe lub z linijką CCD
- skanery do zdjęć lotniczych
Ze względu na okres rejestrowanego promieniowania
- termalne (lub działające w podczerwieni) skanery liniowe (długa podczerwień)
- wielospektralne (widzialna i termalna część widma)
Ze względu na sposoby działania wyróżniamy skanery
- optyczno-mechaniczne – dokonują rejestracji terenu linią po linii – każdy piksel jest kolejno rejestrowany
- elektrooptyczny – równoczesna rejestracja wszystkich pikseli należących do jednej linii
Skanery
- kanałowe – posiada jeden detektor
- wielokanałowe – posiada 2 lub więcej detektorów
- skanery elektroopty. pow. CCD – zamiast linijki detektorów jest dwuwymiarowa matryca obr. CCD zaw. M linijek czyli N*N detektorów
Dygitalizować – uzyskiwać z analogowej reprezentacji wielk. fizycznej zbliżone wielkości w postaci cyfrowej
Skanery fotogram i skanowanie zdjęć
skanery | Format cm/cm | Geometria zdj. piksel/cal | Zdolnośc rozdzielcza |
---|---|---|---|
DTP | DIN A4/13 | 400-1200 | 8 bit (x3) |
Skanery mapowe | 60/90 | 400-1200 | 8 bit (x1-3) |
Skanery do zdjęć lotniczych | 26/26 | 3500 | 8 bit (x3) |
Skaner PS1 Photo scan – minimalny wymiar piksela to 7,5μm, dokładność 1μm, można zmieniac wymiar piksela ale co 7,5μm (15; 22,5; 30μm). W linijce sensora SSD jest 2048 pikseli
Photoscan 2002- najnowsza wersja skanera fotogrametrycznego pozwala zapisać 12bitowy dla Obr. Czarno-białych, a 36bitowy dla Obr. Kolorowych
Rozdzielczość skanowania musi być tak dobrana, by nie stracić informacji, jaka można uzyskać ze zdjęcia. Rozdzielczość R zdjęć określana jest w parach linii na milimetr [1p/mm lub 1/mm]. Teoretyczny wymiar piksela jaki należy przyjąć do skanowania możemy policzyć ze wzoru: ΔD [mm] < 1/(2xR). W praktyce przyjmuje się następująco: ΔD [mm] < 0,7/(2xR)
33.MATRYCA CCD JAKO SENSOR BEZPOŚREDNIEGO TRYBU POZYSKIWANIA OBRAZÓW CYFRPWYCH
Długość x wysokość (wymiar pionowy x poziomy)
34.CECHY OBRAZU CYFROWEGO
Geometryczne – rozdzielczość powierzchniowa-wymiar piksela w terenie
określają geometrię obrazu
wymiar obrazu.
Liczbę pikseli na cal
Wymiar piksela
Układ wsp. pxl w lewym górnym narożniku
Rozdzielczość globalna(całkowita) obrazu cyfrowego – ilość pikseli składająca się na obraz (liczba wierszy x liczba kolumn) wskaźnik: dpi (dat per image) – liczba pikseli na cal (1cal -2,54cm),
wymiar piksela – długość x szerokość w μm
Radiometryczne – rozdzielczość radiometryczna -opisuje zasięg oraz dająca się wyróżnić liczbę określającą dyskretne wartości jasności
6 bit, 8 bitowy, 24 bit, 32 bit -czyli ilość bitów potrzebnych do zapisania obrazu cyfrowego
jasność obrazu cyfrowego
kontrastowość obrazu cyfrowego
Spektralne – rejestracja może dotyczyć określanego wspólnego zakresu fal elektromagnetycznych.
35.UKŁAD WSPÓŁRZĘDNYCH PIKSELOWYCH I METODY TRANSFORMACJI WSPÓŁRZĘDNYCH PIKSELOWYCH DO UKŁADU TŁOWEGO ZDJĘCIA.
x0,y0 – określa położenie środka rzutów w stosunku do układy współrzędnych tłowych na zdjęciu
(rys) xa = xa’ – x0,
w procesie transformacji afinicznej dokonuje się redukcji współrzędnych tłowych i korekcja błędów systematycznych (min. 3 pkt dostosowania, najpierw odległość wsp. transformowanych, potem przeliczane są współrzędne)
przejście z układu pxl. do tłowego x’ = (X’ – Xp’) px y’ = (Y’ – Yp’) py
Transformacja pomierzonych wsp pixelowych do układu wsp tłowych za pomocą transformacji afinicznej w VSD
Deformacje spowodowane są tym, że nie zachowana jest oś odciętych, rzędnych przy skanerze. Otrzymujemy układ z nieprostopadłymi osiami, wówczas trzeba stosować transformacje, które powodują:
- redukcję układu
- wprowadzenie korekcji deformacji ze względu na błędy systematyczne podłoża fotograficznego (najczęstszym źródłem błędów systematycznych jest niedociskanie materiału fotograficznego w momencie ekspozycji oraz zniekształcenie spowodowane jego obróbką i przechowywaniem)
- największa jest deformacja materiału negatywowego
- błędy szczególne układu optycznego kamery fotograficznej (deformacja radialna i tangencjalna)
Do wprowadzenia korekcji systematycznych błędów wsp tłowych stosuje się następujące transformacje, które przekształcają pomierzone wsp tłowe na układ wsp wzorcowych
Sytuacja: mamy 4 znaczki tłowe i obserwując wsp tłowe jesteśmy w stanie ułożyć 8 równań:
transformacja przez podobieństwo (konforemna) transformacja Helmerta – zachowuje kąty w skali. Mamy do wyznaczenia 4 wsp, które opisują nam model korekcji tak, że musimy mieć 2 znaczki tłowe z pomierzonymi wsp tłowymi z uwzględnieniem kalibracji kamery. Możemy wtedy ułożyć 4 równania obserwacyjne rozwiązać je metodą podstawienia i wyznaczyć niewiadome: a0, b0, a, b. Zakładamy tu, że: osie układu są ortogonalne, zniekształcenia skali wzdłuż obu osi są jednakowe (2 pkt dostosowania)
x’ = a0 + a1xs’ – b1ys’
y’ = b0 + b1xs’ – a1ys’ xs’, ys’ – w układzie stereokomparatora
2. pseudoafiniczna (bilinearna) – musimy wyznaczyć współczynnik, stąd potrzeba 4 znaczków tłowych. Stosowanie metod ścisłych jest utrudniona, ponieważ brak tu obs nadliczbowych, tzn układ równań jest słabo określony. Transformacja ta nie powinna być stosowana w przypadku kamer z 4 znaczkami tłowymi, jajlepiej stosować ją dla kamer semimetrycznych ... ponieważ tutaj jest dużo obs nadliczbowych.
x’ = a0 +a1xs’ + a2ys’ + a3xs’ys’
y’ = b0 + b1xs’ + b2ys’ + b3xs’ys’
3. afiniczna – zakłada wyznaczenie 6 współrzędnych opisujących ten model transformacji. Musimy tu mieć 3 znaczki tłowe i na ich podstawie ułożyć 6 równań poprawek dla współczynnika. Dzięki niej można obliczyć mx, my (wsp zmiany skali wzdłuż osi) oraz kąty między osiami układu. Metoda uwzględnia nieprostopadłość osi układu i różnoskalowe zniekształcenia wzdłuż osi układu wsp. Mimo że nie zachowuje kształtu, linie równoległe po transformacji pozostają równoległe. Oprócz poprawienia skurczu za pomocą wsp skalujących, transformacja poprawia również przesunięcie początku układu współrzędnych z układu wsp komparatora xs, ys do układu wsp tłowych zdjęcia x, y oraz stosuje obrót o kat skręcenia obydwu układów.
x’ = a0 +a1xs’ + a2ys’ + a3xs’ys’ => x’ = x0 + Rx’
y’ = b0 + b1xs’ + b2ys’ + b3xs’ys’
Etapy: I – określenie wsp a i b wykorzystując pkt, które znane są w obydwu układach
II – przeliczenie wszystkich pkt z układu xs, ys na układ x, y wykorzystując obliczone współczynniki. W celu wprowadzenia poprawek można napisać 2 równania typu (wyżej) dla każdego znaczka tłowego, czyli dla 4 znaczków tłowych 4 równania Mz współrzędnych x i 4 dla y. Dla określenia współczynnika a potrzeba tylko 3 równań dla wsp x, podobnie jak dla współczynnika b wystarczają 3 równania Mz wsp y. Dlatego równoczesne rozwiązanie tych równań met najmniejszych kwadratów zwiększa dokładność wyznaczanych niewiadomych.
UKŁAD WSPÓŁRZĘDNYCH PISELOWYCH.
standardowo może być zdefiniowany tak, że początek układu współrzędnych jest w lewym górnym rogu matrycy
- jest prostokątny to trzeba uwzględnić jego wymiar przy przejściu od układu współrzędnych pikselowych na układ tłowy
Przejście z jednego układu do drugiego
x’=(x’-x’p)*psx
z kładu pikselowego do tłowego
y’=(y’p-y’)*psy
psx-wymiar piksela wzdłuż osi odciętych
36.ANALIZA OBRAZU CYFROWEGO
HISTOGRAM OBRAZU
Histogram obrazu cyfrowego-jest to określenie z jaką częstotliwością występują piksele o określonym poziomie szarości. Przedstawiony w postaci wykresu, tabel (jest to statystyczny rozkład skali szarości w funkcji liczby pikseli)
METODY ZMIANY HISTOGRAMU
- przez zastosowanie procesu wyrównania – histogram sprawdzamy przy wyrównaniu do stanu gdy częstotliwości występowania pikseli o podobnym stopniu szarości jest jednakowa. Zmienne są wartości poziomu szarości przypisane każdemu pikselowi
- normalizacja histogramu – histogram jest sprawdzany do krzywej Gaussa – rozkład częstotliwości odpowiada krzywej Gaussa.
- rozciągnięcie histogramu – poprawienie kontrastu;
- obcięcie histogramu – ten sposób prowadzi do zmiejszenia kontrastu
Idealny obraz cyfrowy powinien mieć histogram podobny do rozkładu normalnego – krzywa Gaussa. Takich obrazów nie mamy, ale obraz można poprzez obróbkę sprowadzić do krzywej Gaussa.
Interpretacja przez histogram:
a)obraz ciemny
b) obraz jasny
c) obraz kontrastowy
d) obraz małokontrastowy
37. FILTRACJA OBRAZU CYFROWEGO – RODZAJE FILTRÓW I ICH ZASTOSOWANIE.
Filtrowanie – ma na celu polepszenie jakości zdjęcia.
Przyczyny pogorszenia jakości obrazu:
zakłócenie w transmisji danych cyfrowych pracy sensora;
zła ostrość;
dodatkowe szumy;
błąd sensora.
Metody filtracji:
przestrzenne i częstotliwościowe.
liniowe i nieliniowe.
Najpopularniejszy podział filtrów:
dolnoprzepustowe – do eliminacji szumu na skutek digitalizacji, defektu poziomu szarości na skutek błędu szarości kamery – wygładzają szczegóły w obrazie, zmniejszają poziom kontrastu obrazu cyfrowego (rozmazanie i nieostrość krawędzi), wygaszanie wysokich częstotliwości.
górnoprzepustowe – wzmacniają krawędzie i wyodrębniają ostre zmiany intensywności w obrazie, tłumi niskie częstotliwości.
środkowoprzepustowe – najrzadziej stosowane ( do wyodrębniania określonych szczegółów).
obraz cyfrowy reprezentowany jest przez 3 wymiary ( wsp. pikselowe x, y i poziom szarości)
filtrem jest macierz o określonych wartościach przez które mnożymy obraz wyjściowy ( pierwotny)
Wyznaczana jest nowa wartość
wsp. jest to filtr uśredniający
filtrowanie jest procesem stratnym, bo ostatnia kolumna i ostatni wiersz po filtrowaniu są czarnymi pasami ale dzięki funkcji ob. cyfr. jest to eliminowane ;
filtr uśredniający – tłumaczenie częstotliwościowych zakłóceń oraz tłumaczenie poziomów szarości dla krawędzi o wysokim poziomie szarości – ten filtr ma małe znaczenie, średnia wartość z przedziału zmniejsza błędy, zmniejsza ostrość krawędzi;
gdy zakłócenie obejmuje pojedynczy piksel to możemy zastosować filtr:
- gdy zakłócenie jest linią poziomą to stosujemy filtr:
- gdy zakłócenie jest linią pionową to stosujemy filtr:
- filtrowanie za pomocą filtrów medianowych – określenie mediany, czyli przyporządkowanie nowego piksela wartości średniej z określonego przedziału;
usunięcie pojedynczych zakłóceń za pomocą lokalnej mediany;
- filtr cyfrowy- wymnożenie matrycy obrazu przez maskę filtru
38. METODY POPRAWIENIA JAKOŚCI OBRAZU CYFROWEGO
- sprowadzenie ...... do krzywej Gaussa
- wyrównanie histogramu zakładamy pewien poziom szarości do wyrównania
- rozciągnięcie histogramu – poprawienie kontrastu;
- filtracja obrazu – np. w celu wyeliminowania szumów.
39. METODY INTERPOLACJI OBRAZU CYFROWEGO.
algorytmy zmieniające poziom szarości danego piksela w odpowiedni dla jego otoczenia ( interpolacja powoduje wygładzenie obrazu – przechodzimy ze strony pikselowej do półtonowej)
metoda najbliższego sąsiada – zaokrąglana jest współrz. danego piksela do najbliższego pełnego piksela ( piksel przejmuje jasność od najbliższego sąsiada)
bilinearna(bilingowa) – realizowane jest sąsiedztwo 4 najbliższych pikseli. Nowy piksel ma nowy poziom szarości wynikający z 4 sąsiadujących pikseli (nie jest to śr. arytmetyczna )
bikubiczna i Lagrange’a – piksel otrzymuje nowy poziom szarości wynikający z sąsiednich 16 pikseli (4x4)
Resampling – powtórne przepróbkowanie obrazu i wykonanie transformacji bikubicznej, bilinearnej, najbliższego sąsiada i Lagrange’a.
40.PIRAMIDY OBRAZÓW.
Piramida jednokrotna – obraz pierwotny zdegradowany
( została zmniejsz. Dla jego rozdzielczości)
Piramida obrazów – stopniowo zmniejsza się rozdzielczość obrazu pierwotnego, by uzyskać szybkość wyświetlania i pozycjonowania obrazów, Schemat:
3 2
6 4
1 2 8
2 5 6
proces tworzenia piramidy obrazu – hierarchiczna wielopoziomowa korelacja;
machting – dopasowanie obrazów
Metody tworzenia obrazów piramidalnych –służą do przyspieszania procesu pomiarowego i szybszego wyznaczania położenia obiektów:
wysuwamy z obrazu pierwotnego co drugi wiersz i co drugą kolumnę obrazu cyfrowego;
uśredniamy wartości sąsiednich wierszy i kolumn obrazu cyfrowego;
zastosowanie jednej z czterech metod interpolacji;
metody związane z wygładzaniem.
W celu rekonstrukcji geometrycznych kształtów obiektów znajdujących się na zdjęciach stosuje się różne metody. Jedną z nich jest metoda piramid. Jest ona metodą hierarchiczną stosowaną w wielu algorytmach korelacji, która rozpoczyna się od utworzenia piramidy. Materiałem wyjściowym do tworzenia piramidy są zdjęcia. Pierwszy poziom wygładzany jest przez odpowiedni filtr Gaussa. Poszczególne poziomy piramid różnia się rozdzielczością. Na kolejnych poziomach rozdzielczość geometryczna w wierszach i kolumnach jest redukowana dwukrotnie, poprzez:
- eliminowanie co drugiego wiersza i co drugiej kolumny,
- uśrednianie pikseli 2x2 w wyższym obrazie
- resampling
-lub inne przekształcenia.
Piramide można interpretować jako wielopoziomowy filtr wygładzający. Struktura piramidy eliminuje stopniowo informacje zawartą na zdjęciu, pozostawiając najbardziej znaczące obiekty i struktury na najwyższym poziomie. Utworzona raz piramida pozwala na lokalizacje elementów, rozpoczynając od p[oziomu najbardziej ogólnego (n) do szczegółowego.
41.MATCHING OBRAZÓW CYFROWYCH
Stereo-matching jest jedną z najczęściej badanych dziedzin przez naukowców zajmujących się fotogrametrią cyfrową i „widzeniem komputerowym". Technika matching'u znajduje punkty homologiczne na dwóch (stereo) lub więcej obrazach (2D) zawierających ten sam obszar przestrzeni. Odwzorowaniu może podlegać obszar grupy pikseli obrazu zarejestrowany w tablicy (ABM — Area Based Matching) lub cecha obrazu (FBM — Feature Based Matching), w tym cecha lokalna (punkt, elementy krawędziowe, krótkie krawędzie lub odcinki, małe regiony) lub też globalna (poligon, złożona struktura). Stosowanie zdjęć cyfrowych daje łatwą możliwość modyfikacji, korygowania kontrastów zwłaszcza przy łączeniu zdjęć, wykonywania klasyfikacji, tworzenia warstw informacyjnych, np. w GIS. Zastosowanie korelacji obrazów i piramidy zdjęć dają możliwość całkowitego lub też ze względu na stopień skomplikowania częściowego zautomatyzowania niektórych etapów opracowania fotogrametrycznego.
Korelacje obrazów
Znaczki tłowe, punkty sygnalizowane oraz jednoznacznie identyfikowalne punkty naturalne można przedstawić w postaci wzorców. Korelacja obrazów polega na automatycznym odnajdywaniu na zdjęciu fragmentów, które mają największy stopień podobieństwa do przyjętego wzorca. Mając tablicę wzorcową, np. znaczka tłowego i znając jego przybliżone położenie, przeszukujemy obszar wokół tego położenia. Obszar ten tworzy nam tablicę badaną. Obie tablice możemy zilustrować następująco:
Tablica wzorcowa znaczka
11911 11911 99999 11911 11911
Tablica badana:
111111111111 111111211111 111111111121 112111111111 111111211111 111111911111 111111921111 111189999211 111111911111 111111911111 111111111111 111111111111
Znaczek tłowy został przedstawiony w postaci krzyża, widzimy więc, że w tablicy badanej występuje on w wierszu ósmym i kolumnie siódmej.
W trakcie szukania wykorzystujemy piramidy zdjęć. Wstępne dopasowana dokonywane jest na poziomie najwyższym — n, tu określamy również stopień pokrycia podłużnego (w przypadku pary zdjęć). Przechodząc na kolejne poziomy o wyższej rozdzielczości i niższym numerze, wykonywana jest korelacja o wyższym stopniu dokładności. Dla każdego położenia wyznaczany jest współczynnik korelacji r pomiędzy wzorcem, a sprawdzanym fragmentem.
gdzie:
gs1, gs2 -średnia arytmetyczna wartości radiometrycznych pikseli dla badanego obszaru i analogiczna średnia dla wzorca,
δ1,2 - kowariancja,
δ1, δ2 - odchylenie standardowe,
g1, g2 - wartości radiometryczne, gęstości,
r - współczynnik korelacji.
-1≤ r ≤1
Maksimum funkcji korelacji określa największy stopień prawdopodobieństwa.
Przeszukiwanie może być utrudnione ze względu na:
— szumy, zniekształcenia gęstości poprzez przypadkowe błędy,
— ograniczony zakres skanujących sensorów — „rozmycie brzegów".
VSD (videostereodigitizer) – cyfrowy autograf analityczny, może pracować jako monokomparator i jako stereokomparator. Pomiar odbywa się na ekranie monitora za pomocą znaczka pomiarowego (sterowanego myszą)
POPOS –dokładność porównywalna z dokładnością stereokomparatorów precyzyjnych rzędu ok. 0,1-0,3 piksela, monitor + odpowiednie oprogramowanie
43.METODY POMIARU WSPÓŁRZĘDNYCH PIKSELOWYCH
Manualny – operator myszą i TAB dokonuje sprzężenia kursorów i naprowadza znaczki na punkty
Semiautomatyczny – kursor na punkt lewy dokładnie, a na prawy zgrubnie(F9)
Automatyczny -
44. WARUNEK KOLINEARNOŚCI
Zdjęcie w położeniu pozytywowym
Wektor rb – wektor obrazowy wychodzący ze stanowiska naświetlenia zdjęcia D do pkt obrotu b
Wektor Rb – wektor przedmiotowy wychodzący ze stanowiska środka rzutów O do pkt przedmiotu B
Wektory te są kolinearne tzn jeden jest skalarny wielokrotnością drugiego, zatem rb = k Rb gdzie k jest skalarem( współczynnikiem skali) równym stosunkowi IrbI : IRbI .Punkt przedmiotu B, środek rzutów O i pkt obrazu b leżą na jednej prostej. Warunek ten może być zakłócony, gdyż zniekształcenie obrazu spowodowane dystorsją obiektywu, refrakcją atmosferyczną itp mogą spowodować odchylenie promienia od kolinearności – można je wyeliminować za pomocą poprawek.
Rys. 2.25. Warunek kolinearności, orientacja zewnętrzna, kątowe odtworzenie środka rzutów
45. Wyznaczenie elementów orientacji zewnętrznej zdjęcia – fotogrametryczne wcięcie wstecz
Elementy orientacji zewnętrznej zdjęcia można obliczyć, rozwiązując zadanie wcięcia wstecz. Dokonuje się tego przez wpasowanie fotogrametrycznej wiązki rzutu środkowego w zespół punktów o znanych współrzędnych terenowych. Można do tego celu użyć wzorów (2.45), w których liniowe elementy orientacji zewnętrznej zdjęcia oznaczono przez Xo, Yo, Zo, natomiast kątowe elementy tej orientacji k, φ ,ω są zawarte w elementach macierzy a11...a33. Określenie elementów orientacji zewnętrznej zdjęcia na podstawie wzorów (2.45) wymaga znajomości (pomiaru na zdjęciu i wyznaczenia w terenie) współrzędnych trzech punktów, kiedy znane są elementy orientacji wewnętrznej kamery lub współrzędnych czterech punktów, kiedy znana jest tylko odległość obrazowa kamery CK.
Równania (2.45) są nieliniowe i do ich linearyzacji korzysta się z szeregów Taylora.
(2.45)
Uproszczona forma liniowego równania opartego na warunku kolinearności :
Vx=m11dω+m12dφ+m13dk-m14dX0-m15dY0-m16dZ0+m14dXB+m15dYB+m16dZB+M (2.94)
Vy=m21dω+m22dφ+m23dk-m24dX0-m25dY0-m26dZ0+m24dXB+m25dYB+m26dZB+N (2.95)
Wrównaniach tych M i N oznaczają odpowiednio P0/g i R0/g. Współczynniki m11…m26 są równe różniczkom cząstkowym. Rozwiązując układy równań (2.94) i (2.95),oblicza się wartości poprawek do przyjętych początkowo wartości przybliżonych. Zatem po zakończeniu pierwszego rozwiązania obliczone poprawki dodaje się do przyjętych za niewiadome wartości i na podstawie takich nowych przybliżeń przeprowadza się drugie rozwiązanie, obliczając nowe poprawki. Obliczenia kontynuuje się drogą iteracji tak długo (zazwyczaj dwu- lub trzykrotnie), aż nowe poprawki stają się zaniedbywanie.
Układ równań (2.94) i (2.95), opartych na warunku kolinearności, w zapisie macierzowym przedstawia się następująco:
V=AX-L
gdzie
V — macierz poprawek do współrzędnych tłowych x i y,
A — macierz współczynników mij występujących przy niewiadomych,
X — macierz niewiadomych poprawek do przyjętych na początku wartości przybliżonych,
L — macierz wartości stałych M i N.
Do określenia wszystkich sześciu elementów należy ułożyć sześć równań (2.94) i (2.95) pomijając w nich wyrazy, w których występują wskaźniki B (dXB, dYB, dZB). Potrzebna jest do tego celu znajomość trzech fotopunktów.
46.PRZEKSZTAŁCENIE RZUTOWE ZDJĘCIA NA PŁASZCZYZNĘ TERENU
Przekształcenie płaszczyzny obiektu (zdjęcia) XY (Z=0) uz płaszczyzna terenu . Wychodząc z równań warunku kolinearności po kolejnych przekształceniach otrzymujemy równania wiążące współrzędne tłowe ze wsp terenowymi (8 współczynników)
Dla takiego opracowania sytuacyjnego musimy mieć minimum 4 Fpkt, aby wyznaczyć współczynniki transformacji. Każdy Fpkt o znanych współrzędnych terenowych pomierzonych współrzędnych tłowych daje 2 równania. Jest to transformacja 8parametrowa.
x, y – współrzędne terenowe (geodezyjne) punktu
x’, y’ – współrzędne ortogonalne punktu homologicznego, pomierzone na zdjęciu (wsp. Pikselowe)
Transformacja rzutowa jest realizowana na etapie :
-orientacji wew.
- orientacji wzajemnej
-w procesie ortorektyfikacji obrazu (przejście z rzutu środkowego do ortogonalnego)
- tworzenie stereokomponentów
Parametry to elementy orientacji zew. X0, Y0, Z0, ω, φ, k
47.PRZYPADEK ZDJĘĆ NORMALNYCH PARY ZDJĘĆ – TEORIA BŁĘDÓW
48.WARUNEK KOMPLAMARNOŚCI
Dwa środki rzutów O1 i O2, punkt przedmiotu A oraz dwa obrazy tego punktu a’ i a’’ na zdjęciu stereogramu leżą na wspólnej płaszczyźnie.Jest to podstawowy warunek orientacji wzajemnej i fotogrametrycznego wcięcia w przód. Warunek ten określa funkcja Fi, która jest iloczynem mieszanym trzech wektorów i równa się zeru. Fi = B R1i x R2i = 0
Jedno równanie określające komplanarność trzech wektorów B, R1, R2 można zapisać dla każdego punktu przedmiotu.
. Warunek komplanarności i orientacja wzajemna
49.Orientacja wzajemna służy do otworzenia wzajemnych relacji między przestrzennym położeniem zdjęć w momencie ich fotografowania.
Zależna para zdjęć:
50. PRZYBLIŻONA METODA WYZNACZENIA ELEMENTÓW ORIENTACJI WZAJEMNEJ.
Zakłada się tu że każdy z fotogramów tworzących stereogram jest wychylony o wartości kątowe EOZ ωL, φL, κL, oraz ωP, φP, κP. Tworzy się układ równań dla 6 pkt standardowych znajdujących się na obszarze podwójnego pokrycia. Metodę tę stosuje się dla układu definiowanego przez poziomą bazę, czyli gdy para zdjęć jest niezależna.
Wychodząc z ogólnego równania poprawek, dzięki temu że możemy ustawić współrzędne dla punktów standardowych, równanie upraszcza się . Poprzez kolejne redukcje możemy wyznaczyć EO wzajemnej, ale tylko kątowe.
Metody tej nie stosuje się do wyrafinowanych procedur analityczno-numerycznych. Stosuje się ją, gdy np. wykonujemy pracę na autografie i aby przyspieszyć proces strojenia, gdy pomierzymy paralaksę i ze wzorów wyliczymy EO wzajemnej.
51.ŚCISŁA METODA WYZNACZANIA ELEMENTÓW ORIENTACJI WZAJEMNEJ – METODA SCHUTA
Metodę tę stosuje się, gdy układ zdefiniowany jest tu umownie (BxF’)*F’’=0 pozornym lewym zdjęciem. Początkowo punkty przestrzeni przedmiotowej powinny znajdować się w płaszczyznach rdzennych (komplementarności). Na początku zakładamy dla lewego zdjęcia, że φ’, ω’, χ’ = 0, poprawki dla współrzędnych tłowych x’, x’’ = 0, natomiast poprawki dla y’, y’’ różnią się znakami, a więc redukują się. Niewiadomymi w równaniu są: by, bz i współrzędne x’’, y’’, z’’ będące współrzędnymi promienia rzutującego r’’ określonymi pomierzonymi na zdjęciu wspólrzędnymi x’’, y’’, CK, φ’’, ω’’, χ’’. Dlatego poszukiwanymi niewiadomymi są: by, bz, φ’’, ω’’, χ’’.
Kolejność obliczeń:
ze znanych lub przyjętych dla pierwszego zdjęcia obrotów tworzymy macierz obrotów A i określamy następujące wielkości x’, y’, z’, współrzędne wektora r’.
wybieramy wartości przybliżone dla drugiego zdjęcia 1by, 1bz, 1φ’’, 1ω’’, 1χ’’.
obliczamy wartości 1x’, 1y’, 1z’ za pomocą wartości z punktu 2.
obliczamy niewiadome dφ, dω, dχ, dbz, dby przez rozwiązanie minimum 5 równań.
obliczamy elementy pierwszej poprawionej macierzy 2A posługując się elementami obliczonymi w punkcie 4.
obliczamy macierz A=2A*1A. Elementy tej macierzy posłużą do obliczeń jak w punkcie 3.
powtarzamy obliczenia od punktu 3 do 6 dopóki dφ, dω, dχ, dbz, dby nie staną się dostatecznie małe aby je pominąć.
Pięć punktów musi być rozmieszczone jak przy punktach standardowych ze względu na pow. krytyczne gdy mamy więcej niż 5 punktów niewiadome (punkt 4) obliczamy wyrównaniem. Równanie błędów rozwiązujemy metodą najmniejszych kwadratów.
52.DEFORMACJA WYSOKOŚCIOWA MODELU SPOWODOWANA BŁĘDAMI WYZNACZENIA ELEMENTÓW ORIENTACJI WZAJEMNEJ ZDJĘĆ.
Zniekształcenia modelu spowodowane są niedokładnym przeprowadzeniem orientacji wzajemnej dwóch zdjęć lub projektorów. Wpływ tego zniekształcenia można prześledzić rozpatrując poszczególne przesunięcia i obroty występujące we wzorach różniczkowych dX w równaniu 3.15 dla
lewego zdjęcia i dX' w równaniach 3.16 dla prawego zdjęcia.
Różnica dX – dX’’ = dpx
określa małe zmiany paralaksy podłużnej px. Pokazano to na rysunku 3.25. Na rysunku pokazano też zależność pomiędzy małymi zmianami paralaksy podłużnej dpx a zmianami wysokości modelu dZ.
Rys. 3.25. Wpływ zmian paralaksy podłużnej px na zmiany wysokości modelu dZ
x’A – x’’A = pxA ; x’B – x’’B = pxB; pxA – pxB = dpx = dX – dX’’
Wstawiając do tego równania za dpx wartość określoną równaniem (3.34), w którym za dx i dX'’ wprowadzi się prawe strony równań 3.15 i 3.16, można otrzymać:
gdzie zmiany różniczkowe dbx...dk. bez wskaźników dotyczą lewego zdjęcia, a zmiany z ,,bisami" dotyczą prawego zdjęcia modelu. Z równania 3.36 można łatwo określić wpływ niedokładnego odtworzenia poszczególnych małych zmian położenia projektorów na wysokość modelu. Na przykład rozpatrując wpływ dbx i dbx" otrzymuje się
Wynika z tego, że błąd dbx wpływa na zmianę skali modelu i będzie powodował jednakową zmianę wysokości modelu na wszystkich punktach. A więc nie deformuje kształtu powierzchni modelu. Postępując podobnie z pozostałymi różniczkowymi zmianami położeń projektorów (zdjęć) dbz, dω, dφ, dx, można prześledzić wpływ ich błędnego odtworzenia na ukształtowanie powierzchni modelu. Pozwala to na wyodrębnienie zniekształceń wywołanych zmianami różniczkowymi lewego czy też prawego zdjęcia (projektora) Wpływ dby nie oddziaływuje na zniekształcenie powierzchni modelu, gdyż, jak widać, nie występuje w równaniu 3.36. Zmiany dby nie wywołują zmian w składowej dX, a tym samym nie oddziałują na paralaksy podłużne px, czyli nie mogą powodować zmian wysokości modelu. Błąd dbz wywołuje podłużne nachylenie modelu w kierunku X. Wpływ tego błędu usuwa się podczas poziomowania modelu. Mały błąd dω powoduje pewne spaczenie powierzchni modelu. Wpływ tego błędu można ujawnić, kiedy w czterech narożach modelu zlokalizowane są wysokościowe punkty kontrolne. Błąd dφ powoduje cylindryczne wygięcie powierzchni modelu. Błąd dk wywołuje poprzeczne nachylenie modelu w kierunku Y i podobnie jak błąd dbz usuwany jest podczas poziomowania modelu.
53.WYZNACZENIE WSPÓŁRZĘDNYCH PRZESTRZENNYCH MODELU – FOTOGRAMETRYCZNE WCIĘCIE W PRZÓD.
Przestrzenne wcięcie w przód dla przypadku zdjęć zwróconych
Wykonanie kolejnych zadań elementarnych:
— rekonstrukcji wiązki,
— wyznaczenie orientacji wzajemnej,
— przekształcenie zdjęć,
pozwala na zbudowanie przestrzennego modelu terenu w formie numeryczne
(dyskretnej).
Przestrzenne wcięcie w przód polega na wyznaczeniu punktów przecięć pa promieni homologicznych przy znanej wzajemnej orientacji wiązek.
Zastosowanie etapu przekształcania zdjęć w przypadku zdjęć lotniczych prowadzi do otrzymania stereogramu zdjęć normalnych, przy wykorzystaniu jedynie elementów orientacji wzajemnej, lub zdjęć zwróconych, jeżeli znana jest ich orientacja zewnętrzna.
Zależność geometryczną między współrzędnymi Iłowymi punktów zdjęć zwróconych a poszukiwanymi współrzędnymi punktów modelu przedstawi rys. 3.10.
Jeśli wzajemne usytuowanie wiązek jest określone poprawnie, to promieni homologiczne przecinają się w punktach modelu, których współrzędne przestrzenne są zdefiniowane równaniami:
Xi = λi xi’ = μi xi’’ + Bx
Zi = λi cK +Bz
W równaniach tych nieznanymi wartościami są jedynie współczynniki λi, μi, które można wyznaczyć z zależności:
Interpretując geometrycznie to zadanie, można powiedzieć, że przestrzenne wcięcie w przód polega na określeniu współczynników skalowych punktów homologicznych zarejestrowanych na zdjęciach tworzących stereogram.
Rys. 3.10. Geometria zdjęć zwróconych. Relacja między współrzędnymi punktu w modelu i na
zdjęciach
Dla zdjęć normalnych przedstawione wzory ulegają uproszczeniu, gdyż dla takiego stereogramu składowe liniowe By i Bz przyjmują wartości zerowe. W związku z tym, współczynniki skalowe zobrazowań punktów homologicznych są równe i wynoszą
Natomiast wzory na wyznaczenie współrzędnych przestrzennych punktów modelu przyjmują postać:
54.ORIENTACJA BEZWZGLĘDNA MODELU METODĄ TRANSFORMACJI PRZESTRZENNEJ PRZEZ PODOBIEŃSTWO
Polega ona na przetransformowaniu układu lokalnego (układu współrzędnych modelu) do układu współrzędnych terenowych. Początkiem lokalnego układu współrzędnych jest środek rzutów lewego zdjęcia a oś celowa lewego zdjęcia pokrywa się z osią układu współrzędnych. Zależność między tymi dwoma układami opisana jest wektorami. Wektor x0 opisuje odległość wektorową między układem współrzędnych geodezyjnych a środkiem rzutów układu współrzędnych modelu; wektor xS opisuje położenie punktu w układzie współrzędnych geodezyjnych, a wektor x – w układzie modelu.
Sposób zapisu wcięcia w przód: xS=x0+mRx
Otrzymujemy tu zespół równań z 7 parametrami transformacji x0, y0, z0 (składowe przesunięcia wektora translacji) elementy kątowe φ, ω, χ macierzy obrotu oraz współrzędne zmiany skali m. Może być tak, że współczynnik zmiany skali wzdłuż każdej osi jest inny (mx, my, mz) i wtedy mamy 9 niewiadomych. Aby obliczyć 7 parametrów w sposób ścisły trzeba mieć min 7 obserwacji ??????????????.
Jednak najczęściej stosuje się 3 pełne fotopunkty, z czego można ułożyć 9 równań. Układ poprawek rozwiązujemy metodą najmniejszych kwadratów i w konsekwencji otrzymujemy parametry transformacji przestrzennej. Parametry te otrzymujemy w procesie iteracyjnym. Teraz korzystając z tych równań obliczamy x, y, z, każdego punktu, który nie jest w danym modelu fotopunktem.
55. METODA WIĄZEK
Metoda wiązek jest to metoda jednoczesnego wyznaczenia wszystkich niewiadomych. Pomiar wykonuje się w układzie poziomej bazy. Muszą być znane współrzędne punktów. Im dokładniej są wyznaczone tym maleje liczba iteracji. Wyznaczamy tu elementy orientacji zewnętrznej x0, y0, z0, φ, ω, κ bazując na warunku kolinearności.
Dane inicjalne(wejściowe) konieczne do zbudowania modelu metodą wiązek.
1.Dane dotyczące kamery:
-współrzędne znaczków tłowych
-stała kamery (ck)
-współrzędne punktu głównego lub punktu najlepszej symetrii
-współczynniki wielomianu opisującego dystorsję radialną i tangencjalną (lub ich wartości dla punktów położonych na przekątnych)
2.Współrzędne pikselowe wszystkich pomierzonych punktów:
-znaczki tłowe
-fotopunkty
-punkty wiążące
-punkty nowowyznaczane
3.Współrzędne geodezyjne fotopunktów oraz dodatkowych lub fikcyjnych obserwacji geodezyjnych.
4.Błędy wyznaczenia położenia znaczków tłowych , fotopunktów itp.
Plusy i minusy metody wiązek
Plusy:
-najdokładniejsza metoda fotogrametrycznego , analitycznego opracowania zdjęć -model funkcjonalny (deterministyczny) równania kolinearności , które w łatwy sposób można rozszerzyć o dodatkowe parametry modelujące błędy systematycznego obrazowania ( technika samokalibracji) -istnieje możliwość dołączenia obserwacji geodezyjnych( np. pomierzonych długości między fotopunktami, obserwacji różnic wysokości, pomierzone azymuty, pomierzone kierunki) co czyni układ lepiej rozwiązywalnym
-można przyjąć do wyrównania obserwacje fikcyjne( np. obserwacje zbiornika wodnego, przyjmujemy, że wysokość powierzchni wody jest w każdym punkcie taka sama) -pozwala na rozwiązanie bardzo skomplikowanych konfiguracji zdjęć
-pozwala wykonać rozwiązanie na podstawie niemetrycznych aparatów i kamer , w tym również cyfrowych -dostarcza danych do orientacji autografów analitycznych i cyfrowych
-wszystkie obserwacje uczestniczą w procesie wyrównania i wyznaczenia niewiadomych -najdokładniejsza metoda rozwiązania aerotriangulacji dzięki temu, że zachodzi bezpośredni związek między współrzędnymi zdjęcia a współrzędnymi geodezyjnymi, wyrównanie przez równanie kolinearności ( nie ma konieczności rozwiązania pojedynczego modelu jako etapu obliczeń)
-pozwala na wprowadzenie dodatkowych parametrów opisujących błędy systematyczne zdjęcia( dystorsja radialna, tangencjalna, deformacja negatywu)
Minusy: -równania kolinearności są w postaci nieliniowej (rozwiązanie problemu nieliniowego , tzn. musimy linearyzować)
-nie można rozdzielić wyrównania płaskiego od wysokościowego tzn. trzeba wyznaczyć zawsze X ,Y,Z
-jest to metoda o dużym nakładzie , ponieważ występuje duża liczba obserwacji , a proces wyrównania jest procesem iteracyjnym.
Metoda wiązek z dodatkowymi obserwacjami i GPS
Obserwacjami dodatkowymi mogą być kąty zenitalne, azymuty, odcinki, kąty poziome, obserwacje fikcyjne, proste pionowe, poziome, dowolnie zorientowane. Można dodatkowo też ułożyć równania poprawek do liniowych i kątowych elementów orientacji zewnętrznej i wewnętrznej. Równania błędów do tych obserwacji można zapisać w postaci macierzowej i dołączyć do wyrównania metodą najmniejszych kwadratów(pośredniczącą). Można też dołączyć obserwacje GPS – współrzędne środków rzutów zdjęć. Jednak nie są one bezbłędne, gdyż w związku z ruchem samolotu są niewielkie rozbieżności pomiędzy rzeczywistymi a rejestrowanymi współrzędnymi GPS. W związku z tym również podlegają wyrównaniu. Zarówno obserwacje geodezyjne jak i fotogrametryczne i GPS otrzymują odpowiednie wagi w procesie wyrównania. Zarówno obserwacje geodezyjne jak i fotogrametryczne i GPS otrzymują odpowiednie wagi w procesie wyrównania. Obserwacje GPS do nawigacji kamery (samolotu), wyznacają środek rzutów ????
Obserwacje dodatkowe to dołączenie obserwacji z GPS
I – obserwacje fotogrametryczne – z warunku kolinearności mamy wielkości bezpośrednio obsrewowane czyli 2 współrzędne tłowe każdego punktu pomiarowego.
II – obserwacje geodezyjne – obserwacje fotopunktów, pomierzone odcinki między punktami, azymuty, wysokości
Przy wyrównaniu aerotriangulacji metodą wiązek możemy dołączyć wektor dodatkowy parametrów opisujących EOW oraz parametry opisujące deformacje systematyczne na zdjęciu (dystorsje radialną, tangencjalną, spiralną, ∆x’, ∆y’, ∆CK).
Dokładność wyznaczenia współrzędnych z samokalibracją:
m'x,y = ± 3um
m’z = ± 0,03 %o W(sk, wk)
Bez zastosowania samokalibracji wyniki są 2x gorsze.
Proces wyrównywania metodą wiązek: Każda wiązka musi być przesunieta (wyznaczenie x0, y0, z0) oraz każda wiązka promieni musi być obrócona w przestrzeni (wyznaczenie φ, ω, k). To musi być wykonywane tak długo aż na punktach wiążących dochodzi do najlepszego przesunięcia się tych promieni i kiedy promirnir rzutujące w sposób możliwie najdokładniej przecinają fotopunkty.
Model funkcjonalny – w sposób matematyczny opisuje zależności między przestrzeniąobrazową i przedmiotową. Model stochastyczny – zdefiniowany model błędu dla wyrównanych obserwacji (model wag) Warunek rozwiązania metody wiązek: znajomość przybliżonych wartości wszystkich wyznaczanych niewiadomych Samokalibracja: technika rozwiązywania sieci zdjęć lotniczych i naziemnych, w której oprócz podstawowych niewiadomych (elementy orientacji wew. i wsp. pkt. nowowyznaczalnych) wyznaczone są dodatkowo parametry (nie więcej niż 20) opisujące błędy systematyczne.
Metoda Schmida Divi = GiΔili gdzie D- macierz współczynników przy poprawkach do współrzędnych fotopunktów (współczynniki d11…d23 w macierzy D i w macierzy G będą miały inne wartości liczbowe, ale obliczane są z takich samych wzorów
v’x v’y vx = v vy vz
v’x, v’y – poprawki do współrzędnych zdjęcia; vx, vy, vz – poprawki do współrzędnych fotopunktów
l – macierz dwuelementowa w której wyrazy wolne, czyli różnice pomiędzy pomierzonymi współrzędnymi na zdjęciu x’, y’ a współrzędnymi, jakie otrzymuje się dla tych punktów, gdy elementy orientacji zewnętrznej są równe zeru lub są określone z urządzeń pokładowych samolotu
G- macierz współczynników przy elementach orientacji zewnętrznej i wewnętrznej oraz przy współrzędnych wyznaczanych punktów;
ΔT = [ΔX0 ΔY0 ΔZ0 Δφ Δω Δk ΔX ΔY ΔZ Δf Δx0 Δy0 ]
Δ – macierz kolumnowa zawierająca niewiadome elementy orientacji i współrzędne wyznaczane.
Dla fotopunktów w macierzy D współczynniki d11 …d23 są różne od zera, a współczynniki przy niewiadomych ΔX ΔY ΔZ w macierzy G są zerami. Dla punktów wyznaczanych jest odwrotnie. Ponadto dla fotopunktów istnieje potrzeba przeskalowania poprawek vx, vy, vz w taki sposób, ażeby odpowiadały wymiarom w skali zdjęć. Dobór wag wpływa na jakość wyznaczanych niewiadomych.
Metoda ta jest kłopotliwa w obliczeniach, gdyż dla każdego zdjęcia należy określić sześć elementów orientacji zewnętrznej oraz trzy niewiadome dla każdego wyznaczanego punktu. Czyli średnio dla każdego zdjęcia wypada 15 niewiadomych. Powoduje to, że nawet dla niedużych bloków zdjęć trzeba używać szybkich i o dużej, ewentualnie średniej pamięci komputerów. W metodzie tej, odtwarzającej dla każdego zdjęcia wiązki rzutu środkowego, wszystkie elementy orientacji zewnętrznej i współrzędne wyznaczanych punktów określane są na drodze ścisłego wyrównania. Dla każdego i promienia wiązki, czyli dla każdego punktu układa się równanie (4.19). Jest to najbardziej ogólne podejście do aerotriangulacji. Schmid wprowadza tu jedno uproszczenie, a mianowicie stałość elementów orientacji wewnętrznej. Tak współrzędne punktów dostosowania (fotopunktów) jak i współrzędne punktów wyznaczanych (w tym wiążących) podlegają wyrównaniu. Wagi fotopunktów powinny być różne. Poprawki v do współrzędnych są zmiennymi zależnymi, a funkcje ich vv podlegają minimalizacji. Dlatego przy rozwiązaniu równań (4.19) należy zastosować metodę korelat, która umożliwia rozwiązanie zadania warunkowego.
Obliczenia realizuje się iteracyjnie, dlatego niezbędne są wartości przybliżone wszystkich niewiadomych. Na średniej wielkości komputerze można rozwiązac aerotriangulację bloku składającego się z około 100 zdjęć.
. AEROTRIANGULACJA METODĄ WIĄZEK
Warunki redukcji do aerotriangulacji:
- w bloku zdjęć odpowiednie punkty dowiązania (fotopunkty). Dla jakości rozwiązania warunkiem koniecznym jest posiadanie punktów nawiązania w narożnikach bloku,
- warunek pokrycia podłużnego szeregu zdjęć (ok 60%), pokrycie poprzeczne 20-30%,
- położenie punktów wiążących (3 pary punktów wiążących w strefak okołostandardowych)
Punkty nowowyznaczane:
punkty wiążące (mogą być to punkty posiłkowe i punkty zagęszczenia osnowy III klasy),
punkty sytuacyjne i wysokościowe numerycznego modelu rzeźby terenu (wyznaczenie punktów osnowy III klasy i punktów osnowy pomiarowej),
punkty sytuacyjne i wysokościowe składające się na mapę numeryczną,
punkty graniczne i punkty załamania granic i punkty określające położenie użytków.
Aerotriangulacja – służy do wyznaczenia współrzędnych przestrzennych punktów (x, y, z) na drodze analitycznej lub analityczno – numerycznej na podstawie pomierzonych na zdjęciu współrzędnych tłowych. Punkty te będą punktami zagęszczenia osnowy III klasy lub osnowy pomiarowej. Jednocześnie służy do wyznaczenia punktów dowiązania w procesie orientacji bezwzględnej modelu.
Punkty nowowyznaczane po rozwiązaniu aerotriangulacji stają się fotopunktami wykorzystywanymi w procesie opracowania zdjęć na autografach.
Na podstawie pojedynczego zdjęcia:
2D opracowanie
mierzymy współrzędne tłowe (x’, y’)
na ich podstawie i fotopunktów (min 4) wyznaczamy współrzędne X, Y w terenie
3D opracowanie np. aerotriangulacji
co najmniej 2 zdjęcia,
mierzymy na nich x’, y’, x’’, y’’,
musimy mieć też min 3 fotopunkty otrzymujemy X, Y, Z terenowe (geodezyjne)
56.RODZAJE I ROZMIESZCZENIE PUNKTÓW W PROCESIE BUDOWY SZEREGU LUB BLOKU AEROTRIANGULACJI – FOTOPUNKTY, PUNKTY WIĄŻĄCE PUNKTY KONTROLNE.
Stereogram – para zdjęć umożliwia obserwacje stereoskopowe. Gdy zdjęcia są silnie zbieżne to nie można wykonywać obserwacji (kąt zbieżności > od 15˚)
Stereogram zdjęc lotniczych – położenie punktów standardowych
+3 +4
+1 +2
+5 +6
12 – baza
12=15=24=26=a’ powinna być jak największa aby maksymalnie opisać obszar podwójnego pokrycia
Punkty okołostandardowe – są w obszarze (1 – 1,5 cm) wokół punktów standardowych.
Szereg zdjęć lotniczych
▲Punkty dowiązania (fotopunkty) sygnalizowane w terenie:
naturalna sygnalizacja (do opracowań map średnio i małoskalowych)
sygnalizowane sztucznie – przed nalotem
na obszarze lotu rozmieszczone co 2 bazy
1) Punkty wyszukiwane przed nalotem i przyjęte do geodezyjnego i fotogrametrycznego wyznaczenia (np. właz do kanału, trójmiedza, pojedynczy krzak, przecięcie dróg polnych)
punkty nawiązania – są o klasę wyżej niż punkty które wyznaczają (dla celów gospodarczych wyznaczamy osnowę III klasy wtedy punkty nawiązania są punktami II klasy)
Punkty wiążące – są w pasach potrójnego pokrycia (obszar wspólny dla 3 kolejnych zdjęć). Muszą być rozmieszczone ~ w środku, u góry i na dole pasa potrójnego pokrycia.
Punkt nowo-wyznaczany – punkty dla których wyznaczane są współrzędne X, Y, Z na drodze fotogrametrycznej ( punkty nowowyznaczanej osnowy III klasy i pomiarowej, punkty katastralne - narożniki działek, punkty sytuacyjne i wysokościowe)
Punkty masowe – były to kiedyś punkty nowowyznaczane.
Punkty kontrolne – punkty, które w procesie rozwiązania i wyrównania areotriangulacji pełnią rolę punktu kontrolnego, są traktowane jako punkty nowo wyznaczane Xgeod – Xfotogr = ∆X (Y analogicznie). Powinny być w najsłabszych miejscach bloku aerotriangulacji (2-3 daleko położone, 1-2 blisko) na obrzeżach lub w środku bloku.
Punkty pomiarowe – wszystkie punkty mierzone w bloku zdjęć fotogrametrycznych.
Punkty standardowe – do numerycznej orientacji wzajemnej pojedynczego modelu.
Technologiczne aspekty wyrównania aerotriangulacji dla bloku zdjęć – rozmieszczenie fotopunktów, wielkość i kształt bloku zdjęć, dokładność wyznaczenia współrzędnych punktów obiektu i elementów orientacji zdjęć.
Metoda Schmida – odpowiada matematycznej realizacji rzutu środkowego. Fotopunkty na obszarze bloku, (jeżeli para zdjęć to 3 fotop. tworzą trójkąt równoboczny).
Dokładność dla metody wiązek (gdy punkty obserwowane są punktami osnowy sygnalizowanej w terenie przed nalotem):
błąd wyanaczenia współrzędnych płaskich:
σ’x,y =6um
σz’ = 0,06 %o W-wysokość lotu (SK, WK)
σz’ = 0,08 %o W (NSK)
zdjęcia w skali 1:5000
σx,y = 5000x6um
W = MzxCK 300 mm
Wielkość sygnalizowania zależy od
- kąta rozwarcia kamery fotogrametrycznej
skali zdjęć
Dokładność dla punktów sygnalizowanych naturalnie:
- najdokładniejsze są pokrywy kanałów studzienki /4-6 cm(x,y), 1-3 cm(z)/,
- mniej dokładne są narożniki budynku, płoty /x,y – 7-12 cm, z – 8-15 cm/,
- tereny rolne- narożniki pól /x,y- 20-100 cm, z- 10-20 cm/,
- pojedyncze krzaki, drzewa / x,y- 20-100 cm, z- 20-100 cm/
Błąd długości odcinka w fotogrametrii nie zależu od długości odcinka:
Metoda niezależnych modeli
- modele są przesunięte, odwrócone i zniekształcone,
- modelem matematycznym rozwiązania jest przestrzenna trassformacja,
- dokładności gorsze niż w metodzie wiązek (plus: jest to metoda etapowa /sekwencyjna/ - 1. orientacja wzajemna, 2. budowa pojedynczego modelu, 3. orientacja bezwzględna; umożliwia rozłączenie wyrównania sieci płaskiej i wysokościowej; minus: występuje problem dołączenia kolejnych modeli).
.
Technika samokalibracji w wyrównaniu bloku zdjęć.
Stosowanie samokalibracji do zdjęć lotniczych pozwala poprawić dokładność opracowania. Potrzeba tu sieci fotopunktów o dużej gęstości i dokładności. Fotopunkty muszą występować na krawędziach bloku, jak i w środku, preferowane jest duże pokrycie poprzeczne, przez co zwiększa się liczba obserwacji nadliczbowych. Jeśli wprowadzimy wielomiany n-tego rzędu ze zbyt dużą liczbą parametrów, to możemy prze parametryzować układ i wówczas spadnie dokładność. Dla każdego fotopunktu możemy otrzymać dodatkowe równanie, mierząc odległości między punktami, kąty, azymuty, obserwacje GPS.
Integracja danych GPS/INS.
Przeszkodą pomiarowego wykorzystania lotniczych obrazów skaner jest trudność dokładnej rejestracji trajektorii lotu i kątów nachylenia skanera. Rozwiązaniem jest zintegrowanie dwóch systemów: GPS (ang. Global Positioning System) i INS (ang. Inertial Navigation System). System GPS pozwala rejestrować trajektorię lotu (X, Y, Z) z dokładnością nie gorszą niż 10cm. Inercjalny system nawigacyjny INS mierzy przyśpieszenia wzdłuż trzech osi oraz zmiany kątowych pochyleń kamery. Ciągłe integrowanie (sumowanie tych pomiarów w czasie pozwala wyznaczyć bardzo dokładnie trajektorię samolotu (z błędem rzędu 2 cm) i kąty pochylenia. Wadą systemów INS jest dryft, powodujący spadek dokładności pomiaru pozycji i kątów nachylenia z upływem czasu. Ten błąd systematyczny może być korygowany z danych GPS, zachowujących wysoką i stabilną w czasie dokładność. Z kolei dane INS są wykorzystywane do interpolacji pozycji podczas możliwych, krótkich przerw w łączności z satelitami GPS (np. „przesłonięcie" satelity skrzydłem samolotu podczas manewru nawrotu).
Podczas nalotu stosuje się GPS/INS
GPS – dokładność kilkunastu cm
INS – system inercjalny, który pozwala wyznaczyć elementy orientacji zewnętrznej (ωφk).Dokładność kilku minut. Rejestruje wartości pochyleń
57.AEROTRIANGULACJA CYFROWA
Aerotriangulacja cyfrowa wykorzystuje korelację obrazów. Obecnie stosowane są dwie metody aerotriangulacji cyfrowej:
1. Metoda półautomatyczna. gdzie operator interaktywnie wybiera jeden punkt wiążący w pobliżu nominalnego położenia w pasie pokrycia podłużnego lub poprzecznego zdjęć lotniczych. Punkt ten transferowany jest metodą korelacji obrazów (image matching) na wszystkie zdjęcia, na których występuje. W przypadku nie osiągnięcia założonych dokładności, operator wybiera inny punkt.
2. Metoda automatyczna, gdzie punkty wiążące są automatycznie wybierane, transferowane i
mierzone (na wszystkich zdjęciach, w których występują ) w dziewięciu nominalnie rozmieszczonych regionach (oknach). Pomiar odbywa się nie w jednym punkcie, ale w grupie punktów znajdujących się w tych rejonach. Jako punkty wybierane są szczegóły terenowe (feature points) przy pomocy operatora Forstena. Proces rozpoczyna się od najbardziej zgrubnego obrazu (z kilku wcześniej utworzonych obrazów piramidalnych poprzez pomniejszenie obrazu oryginalnego) wzdłuż i w poprzek bloku zdjęć, przechodząc poprzez obrazy bardziej dokładne aż do obrazu oryginalnego. Wspomaganie interaktywne bywa potrzebne jedynie w około 6% i to głównie w celu wykonania przybliżonego pomiaru na terenach zabudowanych, leśnych oraz przy opracowaniu zdjęć lotniczych w skalach dużych i o małym pokryciu q. Operator Forstena używany jest do automatycznego wyboru punktów wiążących. Do końcowego pomiaru współrzędnych wykorzystuje się metodę korelacji z uwzględnieniem warunków rzutowych. czyli tzw. metodę ..object-space-multi-image-least square correlation". Do zgrubnej korelacji korzysta się z obrazów piramidalnych. Punktami wiążącymi mogą być punkty sygnalizowane, jak i naturalne. W przypadku używania punktów sygnalizowanych ich wymiar (po zeskanowaniu) powinien być rzędu 5x5 pikseli. Pozwala to na automatyczną detekcje i pomiar współrzędnych tłowych zdjęć z dokładnością rzędu 1 5 piksela. Dokładność bloku zdjęć po wyrównaniu reprezentowana przez błąd średni pomiaru współrzędnych tłowych δ wynosi wtedy 4 m.
58.PRZYGOTOWANIE DANYCH FOTOGRAMETRYCZNYCH I GEODEZYJNYCH ORAZ PRZEBIEG ROZWIĄZANIA SZEREGU AEROTRIANGULACJI METODĄ WIĄZEK – NA PRZYKŁADZIE WYRÓWNANIA PROGRAMU AEROSYS.
AeroSys służy do rozwiązania i wyrównania aerotriangulacji metodą wiązek, rozwiązanie met. DLT, możliwość samokalibracji, różnych transformacji.
Parametry wejściowe to: współrzędne tłowe w układzie stereokomparatora precyzyjnie zredukowane do punktu głównego; współrzędne fotopunktów i ich dokładności; CK i poprawki kamery dotyczące dystorsji itp; współrzędne znaczków tłowych.
Na początku przygotowujemy pliki: 1. bezename.txt – ze współrzędnymi tłowymi w układzie stereokomparatora. Średnie z wielokrotnego pomiaru, 2. bezename.cal – są tu informacje o: liczbie znaczków tłowych, CK, skalibrowane współrzędne punktu głównego, współrzęne dla określenia dystorsji radialnej, 3. bezename.bdl – plik dzięki któremu program odnajdzie plik tekstowy. Zawiera on: liczbę zdjęć w szeregu, ilość kamer, CK, ilośc znaczków tłowych, 4. bezename.ctl – współrzędne fotopunktów oraz ich dokładności.
Możemy aerotriangulacje obliczyć tu automatycznie lub w sposób etapowy z podglądem. Wynikiem aerotriangulacji są: współrzędne geodezyjne wyrównane nowowyznaczanych punktów; oceny dokładności wyznaczenia tych punktów; EOZ; poprawki do obserwacji; wartości średnie dla x, y, z z wyłączeniem lub z włączeniem punktów nawiązania (fotopunktów).
59.KLASYFIKACJA STEREOAUTOGRAFÓW
Zasada projekcji
Zdjęcia analogowe Zdjęcia cyfrowe
Autografy analogowe Autografy analityczne Autografy cyfrowe
Projekcja
Optyczna mechaniczna numeryczna numeryczna
1obiektywna 3przestzrenna 5komputer sterujący 6 stacja robocza
2.subiektywna 4na płaszczyznę
Ze względu na dokładność:
1. Autografy precyzyjne
mX’,Y’ ≤ 15μm mh ≤0,10‰W
2.Autografy dla celów topograficznych
15μm < mX’Y’ ≤ 50μm 0,10‰W < mh< 0,25‰W
60. Autograf analityczny- elementy podstawowej budowy
Budowa podstawowa - optyczno-mechaniczne urządzenie systemu projekcji ( VIEWER ) - centralny komputer sterujący - komputer aplikacyjny
System projekcji : utworzenie modelu - 2 wózki ( nośniki) zdjęć - komputer sterujący ( czas rzeczywisty ) - transformacja x' —> x ( X ), numerycznie System obserwacji: obserwacja modelu Binokularny optyczny system obserwacji, przestrzenny znaczek pomiarowy System pomiarowy : - Wprowadzenie danych x: korby ręczne, tarcza nożna, 3D-mysz
- A/D przetwornik (IGR, koder liniowy, tablet digitalizujqcy) - D/A przetwornik Komputer aplikacyjny : x-> X, funkcje kreślenia, management System kartowania : Koordynatograf cyfrowy DZT, plotter opcjonalnie
Zasada działania Obserwator, korbami X i Y oraz tarczą nośną Z, zadaje współrzędne modelu. Na podstawie tych współrzędnych oraz znanych elementów orientacji zdjęć emc oblicza odpowiadają tym współrzędnym współrzędne tłowe lewego i prawego zdjęcia x1, y1, x2, y2. Silniki krokowe przesuwają karetki zdjęć tak, że lewy i prawy znaczek pomiarowy znajdują się na jednoimiennych obrazach punktu, a obserwator ujrzy jeden przestrzenny znaczek pomiarowy dotykający modelu. Współrzędne modelu są również przesyłane na automatyczny koordynatograf, gdzie powstaje np. rysunek graficzny mapy sytuacyjno-wysokościowej. Dzięki dużej szybkości działania emc opisany tu proces trwa bardzo krótko, tak ze obserwator może w sposób ciągły zmieniać współrzędne przestrzenne modelu i obserwować odpowiedni efekt przez układ optyczny. Elementy orientacji zdjęć są obliczane na podstawie pomiaru paralaks w kilku punktach stereogramu.
Do emc na początkowym etapie wprowadza się również współrzędne fotopunktów, elementy orientacji wewnętrznej kamery pomiarowej, informacje o deformacjach zdjęć i inne dane. Autografy analityczne praktycznie nie stawiają ograniczeń dotyczących opracowywanych zdjęć, jeśli tylko jest możliwa wizualna identyfikacja jednoimiennych punktów na zdjęciach tworzących parę, a dokładność opracowania zależy od dokładności pomiaru współrzędnych tłowych.
KONSTRUKCJA I DZIAŁANIE AUTOGRAFÓW CYFROWYCH
Instrument: autograf cyfrowy to moduł, który umożliwia pomiary w 3D w celu digitalizacji szczegółów terenowych
Projekcja: numeryczna
Fotogrametryczne cyfrowe przetwarzanie obrazów,
Hardware: stacja robocza ze stereodispleyem.
System obserwacji stereoskopowej, 3D-mysz, tarcza nożna
Software: Managment, Orientacja, przetwarzanie obrazów, opracowanie
Wyniki opracowania: Cyfrowe ortophoto, DTM, Aerotriangulacja on-line, cyfrowe kartowanie i GIS (System Informacji Geograficznej)
W VSD:
W lewej części lewe zdjęcie, w prawej części prawe zdjęcie.Pracujemy przy efekcie stereoskopowym. Lustra przenoszą nam fragmenty obrazu. Zaletą tego jest to, że obraz jest statyczny( nie drga). Obserwacje są prowadzone na zdjęciach barwnych albo czarno-białych.
Metoda polaryzacji- raz wyświetla obraz składający się z lini pionowych a raz z pionowych
Plusy autografów analitycznych i cyfrowych:
- duża wszechstronność instrumentów bo nie ma ograniczenia co do stałej kamery
- mogą być wykonywane opracowania pochodzące z różnych źródeł
- nie ma dużych ograniczeń co do konfiguracji zdjęć,
- nie ma żadnych ograniczeń co do przekładni zdjęć
- wyższa precyzja : możliwość eliminacji błędów systematycznych obrazu i instrumentu
-znaczny zakres automatyzacji pomiarów( odnosi się to do pomiaru punktów i możliwości kreślenia wektora)
- poprzez automatyzacje wzrasta szybkość pomiaru oraz tryb dodatkowych funkcji wspomagających pomiar
61.OROGRAMOWANIE NARZĘDZIOWE I APLIKACYJNE W AUTOGRAFACH ANALITYCZNYCH I CYFROWYCH
Software systemowy:
podprogramy wejścia, wyjścia, wczytanie danych, korekcja danych systemowych, transf. Płaskie i przestrzenne
podprogramy do automatycznego najechania na znaczki tłowe czy na punktach w strefach Grubera
podprogramy służace do sterowania stołem kreślącym
Software aplikacyjny:
podprogramy związane z orientacją zdjęć ( model orient. Bezw., wew. i wzajemnej)
podprogramy do rozwiązania aerotriangulacji lub budowy pojedynczego modelu (w przypadku pary zdjęć)
podprogramy służące do obliczenia ortorektyfikacji
podprogramy wspomagające wykonanie pomiarów profilami, pomiaru rastrem, orientacji stołu kreślącego, kartowanie
62. Video Stereo Digitizer AGH (VSD) jest analitycznym autografem cyfrowym przeznaczonym do opracowywania czarno białych lub kolorowych par cyfrowych obrazów fotogrametrycznych (stereogramów lub stereoortofotogramów).
VSD akceptuje skanowane obrazy lotnicze, naziemne jak i satelitarne, obrazy skanerowe, obrazy pochodzące z kamer CC D.
VSD może być używany do tworzenia lub aktualizacji numerycznych map topograficznych, tematycznych itp. jak również do sporządzania wektorowej dokumentacji architektonicznej, konserwatorskiej lub archeologicznej.
Pary obrazów cyfrowych wyświetlonych na ekranie SVGA komputera typu PC obserwowane są przy pomocy stereoskopu zwierciadlanego. Szczegóły wybierane są przez operatora przy użyciu pary kursorów (znaczków pomiarowych) animowanych myszą Wskazywane homologiczne punkty obu obrazów mogą być łączone linią łamaną. Nieregularne krzywe są wykreślane przez rejestrowanie trajektorii kursora. Linie łamane i trajektorie nakładane są na półtonalne obrazy cyfrowe na ekranie PC w wybranym kolorze. Każdy kolor linii lub trajektorii stanowi oddzielną warstwę w kodzie DXF lub kodzie binarnym programu VSD. Obserwowane pojedyncze punkty mogą być również zapisywane w plikach tekstowych lub w kodzie DXF dla potrzeb np. DTM lub tworzonej mapy numerycznej.
Z wykorzystaniem VSD możliwe jest opracowywanie wektorowe pojedynczych fotogramów cyfrowych obiektów płaskich (przetwarzanie analityczne).
VSD pracuje również w trybie mono lub stereokomparatora wykonując pomiar obrazów cyfrowych z dokładnością odpowiadającą ułamkom piksela zależną od skali powiększenia obrazu cyfrowego.
W miarę potrzeb VSD może być zatem: autografem, przetwornikiem analitycznym zwektoryzowanych obrazów, monokomparatorem lub stereokomparatorem.
63. Orientacja pary zdjęć lotniczych w autografie analitycznym Prace wstępne : - określenie parametrów projektu, trybu pracy, management danymi Orientacja wewnętrzna:
- założenie zdjęć na nośniki (bez centrowania)
- pomiar znaczków tłowych (automatyczne najechanie znaczkiem)
- określenie parametrów transformacji
x' —> (x') (system współrzędnych instrumentu) Wyznaczenie i korekcja błędów systematycznych obrazu za pomocą wielomianów Orientacja wzajemna: - rozwiązanie numeryczne
- pomiar współrzędnych tłowych (paralaks poprzecznych) na punktach w pasie podwójnego pokrycia (9-15 punktów) lub na punktach standardowych
- wyrównanie obserwacji - podanie błędów szczotkowych (paralaksy poprzeczne), dokładności
Orientacja bezwzględna : - Rozwiązanie numeryczne : Przestrzenna transformacja przez podobieństwo :
X=Xo+ m ALx - współrzędne modelu X - współrzęne obiektu - Pomiar x dla ≥ 3 fotopunktów w modelu
- Wyznaczenie parametrów transformacji (7 niewiadomych) przez wyrównanie metodą iteracyjną - Określenie błędów szczotkowych i dokładności Wyrównanie metodq wiqzek :
Ścisłe, łączne wyrównanie obserwacji metodą wiązek (warunek kolinearności) zamiast etapowego wyznaczenia elementów orientacji wzajemnej i bezwzględnej Opcje : - jeden komputer łączący funkcje 2-ch jednostek : sterującej i aplikacyjnej - nakładanie (superimposition) obrazu zdjęcia i opracowania cyfrowego
- digitalizacja fragmentów zdjęć przez wbudowane w system obserwacyjny autografu kamery CCD - przebudowa autografów analogowych
64.FOTOGRAMETRYCZNE STACJE CYFROWE – FUNKCJE, ZAKRES OPRACOWANIA ZDJĘĆ, PRZYKŁADY ROZWIĄZAŃ
65.STEREOFOTOGRAMETRYCZNA METODA POMIARU SYTUACJI I RZEŹBY TERENU – ZAKRES, SPOSOBY POMIARU, DOKŁADNOŚĆ
Grupy obiektów na etapie opracowania mapy stereofotogrametrycznej:
Pomiar punktów
Pomiar linii przestrzennych, gdzie w sposób dynamiczny będą się zmieniać współrzędne X,Y,Z np.droga
Pomiar linii wysokości (warstwic) – zmienia się X i Y, a Z musi być utrzymywana przez operatora na tej samej wysokości z=const.
Dynamiczny sposób pomiaru profilami – będziemy mieć X i Y stałe albo będzie profil dowolnie zorientowany (Δx i Δy) Δx≠Δy z-będzie się zmieniało np.wykonanie pomiaru profilami wzdłuż krzywych (pomiar granicy zbiornika wodnego)
Pomiar punktowy:
Metodą punktów rozproszonych – gdy wymaga tego sytuacja np. pastwiska
Metoda siatki kwadratów – narzucona jest siatka kwadratów przez software. Stosowana jest jako alternatywa pomiaru warstwicami przy pomiarze rzeźby terenu (pomiary związane z DTM-em)
Pomiar profilami:
interwał czasowy – zapis wysokości w określonym czasie
interwał liniowy – co określony moduł przyrostu długości będzie wykonywany pomiar
Dokładność opracowania stereofotogrametrycznego zależy od:
stała kamery
skala zdjęcia i wysokość fotografowania
stosunek bazowy v=B/W
jakość fotograficzna i radiometryczna (dla autografów cyfrowych)
korekcja błędów systematycznych (zmiana jasności i kontrastów)
dokładność osnowy fotogrametrycznej
dokładność instrumentu pomiarowego
metoda pomiaru
dokładność identyfikacji punktów pomiarowych
- błąd położenia punktu na zdjęciu σX’Y’ = ±6μm
- błąd położenia wysokościowego σZ = 0,006‰ ÷0,08‰w w- wysokość lotu
- błąd identyfikacji punktów pomiarowych
* włazy do studzienek σX’Y’ = 4-6cm σZ =1-3cm
* narożniki domów, ogrodzeń trwałych σX’Y’ =7-12cm σZ =8-15cm
* narożniki użytków rolnych σX’Y’ =20-100cm σZ =10-20cm
* pojedyncze drzewa, krzaki σX’Y’ =20-100cm σZ =20-100cm
Prawo przenoszenia się błędów :
N-naturalnie, S-sytuacyjnie, I- identyfikacja
Tak można opracować błąd opracowania punktów dyskretnych dla pomiarów statycznych tj. dla pomiarów punktowych
Liniowe sytuacyjne obiekty jesteśmy w stanie opracować z dokł. ±45μm w skali zdjęcia σL =±45μm
Statyczny pomiar rastrami lub statycznie profilami to: σ(Z)(S)=0,1÷0,15‰w
W przypadku warstwic gdy wykonujemy pomiar ciągły, dynamicznie po powierzchni terenu to:
σZ(D)=0,25‰w D- dynamicznie
Wniosek: Chcąc otrzymać dobrą dokładność należy tam gdzie się da wykonać pomiar sytuacyjny, statyczny. W przypadku VSD pomiar dynamiczny jest możliwy przy określaniu trajektorii ruchu.
66. Opracowanie map numerycznych metodą stereofotogrametryczną
• Przeznaczenie, funkcja, skala
• Odwzorowanie, układ współrzędnych, podział na arkusze, format
• Metoda i dokładność orientacji zdjęć
• Struktura bazy danych
• Format zapisu danych wektorowych • Znaki umowne i kody
• Zakres, sposób i dokładność pomiaru sytuacyjnego
• Zakres, sposób i dokładność pomiaru wysokościowego • Wielkość cięcia warstwicowego
• Redakcja i edycja pierworysu Etapy sporządzenia pierworysu mapy • Management projektu
• Organizacja bazy danych (warstwy tematyczne)
• Sporządzenie tabeli kodów
• Definicja znaków umownych
• Sporządzenia graficznej reprezentacji ramki i godła mapy • Pomiar sytuacji w zdefiniowanej hierarchii danych • Pomiar linii szkieletowych rzeźby terenu • Pomiar rzeźby terenu w określonej strukturze • Kontrola kompletności opracowania
• Edycja mapy wektorowej (wyplot)
67.NUMERYCZNY MODEL TERENU (DTM)
DTM – Zbiór punktów powierzchni odpowiednio wybranych o współrzędnych x, y, z utworzonych jako jej reprezentacja oraz algorytmy umożliwiające odtworzenie jej powierzchni (kształtu) w określonym obszarze.
Punkty reprezentujące DTM mogą być uporządkowane w jednej z dwóch struktur (rodzaje DTM):
• TIN (Triangular Irregular Network) — nieregularna sieć trójkątów (pierwotna) wraz z topologią. Wierzchołki trójkątów opierają się na punktach pomiarowych.
• Regularna sieć (kwadratów - GRID, prostokątów lub trójkątów) uzupełniona o punkty reprezentujące formy terenowe, takie jak:
• linie szkieletowe (grzbiety, cieki),
• linie nieciągłości (skarpy, urwiska),
• powierzchnie wyłączeń (wody, budynki),
• ekstremalne pikiety (wierzchołki, dna).
Regularna sieć (zwykle kwadratów) powstaje zwykle nie poprzez pomiar, lecz poprzez interpolację między rozproszonymi punktami pomiarowymi. Ta sieć jest określana jako „sieć wtórna", lub „sieć wynikowa" DTM.
Z punktu widzenia użytkownika nie jest obojętne jaką strukturę ma DTM. Każda z tych form ma swoje zalety i wady.
Model TIN:
• zachowuje związki topologiczne między punktami pomiarowymi,
• łatwo opisuje i zachowuje w jednakowej strukturze opis morfologicznych form terenowych,
• archiwizacja DTM w tej strukturze wymaga większych zbiorów,
• metody automatycznego generowania DTM nie przewidują struktury TIN.
DTM w regularnej siatce:
• zawiera dane interpolowane (a nie oryginalne dane pomiarow
• daje większą łatwość modelowania powierzchni (interpolacji wysokości w dowolnym punkcie, generowania profili, generowania warstwic, generowania map spadków i ekspozycji, obliczania
objętości, określania widoczności między dwoma punktami, łatwiejszą wizualizację 3D
powierzchni, łatwiejszą symulację, itd.),
• jest przydatniejszy do generowania cyfrowych ortofotomap,
• jest łatwiejszy do archiwizacji (regularna siatka tworzy „macierz" wysokości, określenie struktury tej macierzy pozwala zachowywać dane tylko w postaci współrzędnej „z" węzłów siatki, położenie węzłów określone jest przez położenie w macierzy).
DTM zawiera:
Zbiór punktów GRID lubTIN
Przebieg linii szkieletowych ( te, które tworzą szkielet rzeźby terenu) np. zbocze, spadek, góra i podstawa
Linie nieciągłości, a więc: granice urwisk, granice skarp, granice wyłączeń obszarów poziomych (np. zbiorniki wodne, które maja tą samą rzędną z), granice obszarów o jednakowym spadku (rzeki o szerokości większej niż 5m), lokalne ekstrema (zmax, zmin).
Dalsze przeznaczenie DTM:
- generowanie ortofotografii,
- wykonywanie zestawień tabelarycznych,
- generowanie plików w formatach zgodnych z innym oprogramowaniem,
- tworzenie rysunków warstwicowych,
- generowanie map spadków lub pochyleń,
- wykonywanie profili o zadanej lokalizacji w terenie,
- tworzenie rysunków aksonometrycznych i w rzucie środkowym,
- generowanie danych do przetwarzania ortograficznego zdjęć i obrazów satelitarnych,
- wyznaczania objętości lub ich zmian w czasie.
68. Metody pomiaru pionowego ukształtowania terenu – DTM
1. Bezpośredni pomiar geodezyjny
2. Digitalizacja warstwic map topograficznych i gospodarzcych
3. Pomiar fotogrametryczny:
- pomiar pojedynczych punktów w strukturze TIN lub GRID
- dynamiczna rejestracja profili
- pomiar warstwic, linii równych paralaks px
- pomiar pojedynczych punktów wysokościowych
Tryby fotogrametrtcznego pomiaru DTM:
- manualny (stereofotogrametryczny 3D) – strategia pomiaru bardzo zbliżona do pracy na autografie analitycznym,
- półautomatyczny- pomiar wspomagany korelatorem obrazu – pomiar jak wyżej, tj. prowadzony przez operatora, ale znaczek pomiarowy ustawiany jest na terenie automatycznie, przez kolerator obrazu,
-automatyczny.
Technologie otrzymywania DTM-ów
Tachimetryczna – bezpośredni pomiar w terenie za pomocą Total Station
Wektoryzacja map zasadniczych – topograficznych : wymaga ona informacji o uksztaltowaniu terenu w postaci warswic w postaci analogowej
Wektoryzacja:
Prowadzenie kursora po linii warstwicy z=const., a zmienia się Δx≠Δy – za pomocą digitizera
skanowanie – padanie mapy analogowej procesowi digitalizacji cyfrowej poprzez zeskanowanie ( skanujemy w przedziale 256 poz. Szarości i 8bit, czyli czarno-białe, rozdzielczość 250-400dpi).
Dokładność i jakość DTM
Pod pojęciem dokładności wysokościowej DTM rozumie się błąd wysokości wyinterpolowanej z
wynikowego DTM. Na błąd ten składają :
— błędy danych pomiarowych,
— wielkość oczka siatki determinująca reprezentatywność powierzchni przez węzły siatki DTM,
— czynnik opisujący charakter terenu.
Te parametry ujmuje często używany w praktyce wzór empiryczny zaproponowany przez Ackermann'a: mz2DTM = mz2pom + (α * d)2
Gdzie: mzDTM - błąd średni wyinterpolowanej wysokości,
mzpom – błąd średni danych pomiarowych,
α - współczynnik opisujący charakter terenu,
d - średnia odległość punktów pomiarowych
Przyjmuje się:
α = 0,004-0,007 dla terenów łatwych (o gładkiej powierzchni),
α = 0,010-0,020 dla terenów średnich,
α = 0,022-0,044 dla terenów trudnych (o nieregularnych i stromych powierzchniach).
Pojęcie jakości DTM jest pojęciem szerszym od dokładności i obejmuje również kompletność i adekwatność opisu morfologicznych form terenowych.
69. TWORZENIE WTÓRNEGO NMT METODĄ INTERPOLACJI
Interpolacja DTM-u : Drogą pomiarów manualnych. Zastosowanie wielomianu drugiego rzędu. Czym wyższa kategoria terenu tym wyższy wielomian należy zastosować.
Metody generowania wtórnego DTM-u:
Wyznaczanie wartości współczynników punktów oporowych (w trybie manualnym)
- co najmiej 6 punktów dostosowania, które mają znane współrzędne
- układamy równania
- wymnozenie macierzy przez wektor
z=Ba a=(B)-1*z z-wektor współrzędnych wysokościowych
- wyznaczamy interpolowaną wartość z
Jeżeli mamy więcej punktów niż 6 punktów oporowych to wartości współczynników ulegają zmianie vi + zi = biTa i=1(1)n a= (BTB)-1*BTz
Wyznaczane jest to metodą parametryczną.
Metoda automatycznego generowania MATCH-T
Generowanie automatyczne – gdy wykonujemy DTM terenów odkrytych ze zdjęć średnio i małoskalowych (tereny odkryte- tereny nie zalesione, nie porosnięte roslinnością i niezabudowane). Warunkowo można też generowanie DTM-u robić wspomagane pomiarem automatycznym.
Możliwość zastosowania operatorów automatycznego generowania DTM-u wynika z 4 warunków:
wyraźna tekstura powierzchni obiektu
Tereny nie mogą być zalesione i zabudowane
Różnica w orientacji zdjęć nie może przekraczać 30°
Różnice skal nie mogą przekraczać 25% (zdjęcia lewego i prawego+ sąsiednich zdjęć)
W autografach cyfrowych (np. Intergraph Z III) istnieje dodatkowe oprogramowanie pozwalające na pomiar powierzchni terenu metodą automatycznej korelacji cyfrowych obrazów. Metoda ta całkowicie zastępuje obserwatora, który jest niezbędny przy pomiarze wykonywanym na autografie analogowym czy analitycznym. W efekcie taki pomiar jest wykonywany bardzo szybko i dla pojedynczego stereogramu nie przekracza obecnie l godziny. Uzyskany w autografie cyfrowym model to zbiór punktów rozproszonych o dużym stopniu nasycenia powierzchni jednostkowej. Oczywiście wyznaczone punkty to zarówno interesujące nas punkty na powierzchni terenu jak również na obiektach terenowych jak budynki, drzewa. Takie punkty nie należące do DTM trzeba wydzielić i nie uwzględniać przy generowaniu wtórnego (docelowego) modelu. Do tego celu służą specjalne programy filtrujące oraz wizualna kontrola tworzonego DTM w modelu przestrzennym. W praktyce kontrolę tę wykonujemy poprzez generowanie warstwie i ich nałożenie na obrazy analizowanego obszaru. Można to zrobić zarówno w autografie cyfrowym, jak i analitycznym. W autografach analitycznych są do tego celu konstruowane specjalne przystawki optyczne (rozwiązanie hardwąrowo-softwarowe), które wprowadzają obrazy graficzne warstwie w projekcji rzutu środkowego do lewego i prawego okularu instrumentu. Dzięki superpozycji (nałożeniu) obrazów obserwator widzi przestrzennie warstwice na tle zrekonstruowanego modelu przestrzennego. Pozwala to na kontrolę NMT-DTM i ewentualne jego poprawianie na zasadzie edycyjnej.
70. LOTNICZY SKANER LASEROWY (airborne laser skaning) – architektura systemu Technologia skaningu laserowego
Ideę skaningu laserowego można sprowadzić do zasady laserowego pomiaru odległości z lecącego samolotu (helikoptera) do powierzchni terenu. Jeżeli gęstość terenowych punktów pomiarowych jest duża, taka np. że ich średnia odległość wynosi metr do kilku metrów, to w efekcie uzyskuje się quasi-ciągłą, przestrzenną reprezentację powierzchni terenu. W praktyce promień dalmierza laserowego, poprzez zwierciadło skanujące i układ światłowodów „przeczesuje" teren poprzecznie do kierunku lotu. Laser działa impulsowo i z dużą częstotliwością „próbkuje" teren. Częściowo odbita od powierzchni terenu energia jest rejestrowana poprzez odbiorczy układ optyczny skanera i rejestrowana. Tak jak w tradycyjnym dalmierzu laserowym, na podstawie pomiaru czasu powrotu odbitego sygnału określa się z dużą dokładnością odległość samolot — punkt terenowy.
Z dalmierzem synchronicznie współpracuje system GPS, który określa pozycję samolotu, z której wysłano impuls, oraz inercjalny system nawigacyjny, który określa aktualne nachylenia kątowe platformy, na której zamontowana jest optyczna głowica skanująca. Integracja danych z tych trzech systemów pomiarowych daje położenie, z którego wykonano pomiar odległości, samą odległość i kierunek. Pozwala to określić współrzędne punktu (współrzędne X, Y, Z) terenowego, w który (w danym momencie) był wycelowany laser.
Nietrudno dostrzec, że na poziomie idei działania — lotniczy skaner laserowy działa jak szybki tachymetr elektroniczny, toteż system ten nazywany jest często „lotniczą total station".
Architektura systemu
Na system lotniczego skaningu laserowego składają się dwa segmenty:
pokładowy (latający) i naziemny. W skład segmentu pokładowego wchodzi:
— dalmierz laserowy (LRS — Laser Rangę Finder),
— system pozycjonowania trajektorii lotu oparty o GPS (Global Positioning System),
— inercjalny system nawigacyjny INS (Inertial Navigation System),
— kamera (lub kamery) video,
— blok rejestracji danych,
— system planowania i zarządzania lotem. Na segment naziemny składa się:
— naziemna, referencyjna stacja GPS,
— stacja robocza do obróbki i przetwarzania danych pomiarowych pozyskanych podczas misji i do generowania wynikowego DTM (w trybie off--line).
Rys. 7.14. Zasada działania lotniczego skanera laserowego
Dalmierz laserowy (LRS) działa w zakresie podczerwieni (bliska podczerwień, do 1540 nm), lub rzadziej, w zakresie widzialnym. Dalmierz działa impulsowo, z częstotliwością rzędu kilku kHz, oznacza to próbkowanie (pomiar odległości) do kilku tysięcy punktów na sekundę. Promień lasera poprzez optyczny układ skanujący, kierowany jest w płaszczyźnie poprzecznej do trajektorii lotu. W wyniku ruchu samolotu, uzyskuje się w jednym przelocie obraz prostokątnego pasa terenu. Impuls laserowy dociera do powierzchni terenu i jest przez nią rozpraszany. Tylko znikoma część energii odbija się w kierunku samolotu i może być zarejestrowana przez optyczny układ odbiorczy, a na jej podstawie określona odległość. Oznacza to, że laser musi być odpowiednio silny, znacznie silniejszy od używanych w zwykłych dalmierzach naziemnych, gdzie odbicie następuje od lustra na drugim końcu mierzonej odległości. Moc skanera, jak również wymogi bezpieczeństwa, nakładają ograniczenia zakresu działania skanerowego systemu laserowego. Dokładność pomiaru odległości jest bardzo wysoka, rzędu 1 cm.
Trajektoria lotu samolotu wyznaczana jest poprzez system GPS. Wykorzystuje się tu tzw. Pomiar różnicowy (technologia dGPS = differential GPS), tj. mierzy się nie same współrzędne, a różnice współrzędnych między odbiornikiem umiejscowionym na pokładzie samolotu, a odbiornikiem naziemnym, umiejscowionym na punkcie o znanych współrzędnych. Pozwala to uwolnić się od błędów związanych z zakodowaną fałszywą składową sygnału GPS oraz rezultatem wpływu jonosfery i atmosfery na transmitowany sygnał. W rezultacie trajektoria samolotu może być wyznaczona z dokładnością nie gorszą niż 10 cm.
Inercjalny system nawigacyjny INS mierzy przyśpieszenie wzdłuż trzech osi i zmiany kątowych pochyleń platformy z odbiornikiem. Sumowanie tych pomiarów w czasie pozwala wyznaczyć bardzo dokładnie trajektorię lotu samolotu (z błędem poniżej 2 cm), kąty pochylenia sensorów zamontowanych na tej samej platformie co INS (w tym przypadku jest to głowica skanująca dalmierza laserowego). Wadą systemu INS jest dryft, powodujący spadek dokładności pomiaru pozycji i kątów nachylenia z upływem czasu. Połączenie systemów GPS i INS, charakteryzujących się różną i komplementarną propagacją błędów, daje zalety obu systemów: stabilność pomiaru GPS i precyzję INS, co pozwala wyznaczyć dane o pozycji i kątach nachylenia z bardzo dużą dokładnością.
System planowania i zarządzania lotem zawiera wcześniej przygotowany plan lotu. W trakcie realizacji misji odbiornik GPS na bieżąco określa aktualne położenie samolotu. Pilot otrzymuje na monitorze informację graficzną i numeryczną o aktualnym położeniu samolotu na tle wcześniej przygotowanego planu lotu. To pomaga precyzyjnie prowadzić samolot po osiach szeregów z dokładnością rzędu 40-70 m. W przypadku wymaganej większej dokładności realizacji lotu (np. zdjęcia lotnicze w bardzo dużej skali) istnieje możliwość prowadzenia nawigacji opartej o pomiar różnicowy dGPS. W tym przypadku komputer nawigacyjny uwzględnia poprawki do sygnału GPS w drodze łącza radiowego ze stacją naziemną GPS, lub odbiorem na kanale radiowym RDS.
System planowania i zarządzania lotem skanera laserowego nie różni się od podobnych systemów używanych podczas zwykłych misji fotogrametrycznych. Zwykle odbiornik GPS systemu planowania lotem jest niezależny od odbiornika GPS do precyzyjnego pozycjonowania trajektorii lotu.
Ze skanerem laserowym zwykle współpracuje kamera video skierowana pionowo w dół. Kamera ta rejestruje na taśmie pas terenu szerszy od zasięgu lasera. Dla synchronizacji danych ze skanera laserowego z innymi sensorami, każda klatka zapisu video ma zarejestrowany numer i dokładny czas. Oprócz kamery rejestrującej nadirowo, można zainstalować drugą kamerę, skierowaną pod kątem 45° do przodu i dającą perspektywiczny wgląd w obrazowany teren.
Obrazy video na etapie obróbki danych i budowy DTM są przydatne do interpretacji pokrycia terenu i filtrowania danych wysokościowych. Mogą stanowić również tani, samodzielny produkt w budowanym systemie GIS.
Z przedstawionego działania systemu skaningu laserowego wynika, że w wyniku pomiaru otrzymuje się gęstą sieć punktów o współrzędnych X, Y, Z w układzie współrzędnych WGS-84, lub przeliczonych na inny układ, reprezentujących punkty pomiarowe, od których odbił się promień lasera. Opisany proces jest prawie całkowicie zautomatyzowany. Nie jest to jednak produkt końcowy. Punkty pomiarowe, od których odbił się promień lasera, leżą nie tylko na powierzchni terenu, ale również na obiektach „wystających" ponad tę powierzchnię gruntu (jak budynki, drzewa, samochody, kable linii przesyłowej, czy nawet ptaki). Reprezentują one tzw. Numeryczny Model Powierzchni Terenu (DSM — Digital Surface Model). Jeżeli produktem finalnym jest numeryczny model rzeźby terenu — DTM, odniesiony do powierzchni gruntu, to wszystkie odbicia od obiektów nie leżących na gruncie muszą być usunięte. Ten proces „czyszczenia" danych pomiarowych realizowany jest po misji (tryb off-line) i wymaga specjalistycznego oprogramowania i dość znacznych mocy obliczeniowych. Obróbka danych pomiarowych prowadzona jest interaktywnie i może być zautomatyzowana tylko do pewnego stopnia.
71. DTM TWORZONY TECHNIKA SKANOWANIA LASEREM – WŁASCIWOŚCI, DOKŁADNOŚCI
Ocena użyteczności technologii skaningu laserowego
Technologia skaningu, postrzegana jako źródło danych dla budowy Numerycznego Modelu Rzeźby Terenu (DTM), ma - w porównaniu z tradycyjnymi zdjęciami fotogrametrycznymi — szereg istotnych zalet:
— niezależność od warunków oświetleniowych,
— znaczną niezależność od warunków pogodowych,
— penetracja poprzez pokrywę roślinną,
— bardzo wysoka dokładność wysokościowa danych pomiarowych,
— krótki czas uzyskania produktu finalnego i relatywnie niskie koszty. Skaner laserowy jest systemem aktywnym (ma własne źródło „oświetlenia"), co czyni go całkowicie niezależnym od warunków oświetleniowych. Pora nocna obrazowania jest nawet korzystniejsza, ale nocą nie jest możliwa rejestracja video). Obrazowanie tą techniką jest możliwe nawet przy pełnym zachmurzeniu, o ile podstawa chmur jest wyższa od wysokości lotu. Tylko silny deszcz i mgła, tj. warunki ograniczające penetrację promienia laserowego, stanowią przeszkodę. Oznacza to, że w naszych warunkach klimatycznych prawie połowa dni w roku to dni „lotne". Stanowi to bardzo istotną przewagę nad zdjęciami lotniczymi.
Unikalną cechą lotniczego skanera laserowego jest możliwość przenikania przez warstwę roślinności. Ocenia się, że 20-30% impulsów laserowych latem i aż 70% zimą dociera do gruntu poprzez korony lasu szpilkowego. Przy dużej gęstości próbkowania jest stosunkowo łatwo — na etapie obróbki danych — odróżnić i wyeliminować odbicia od koron drzew od odbić od gruntu. Dodatkowo pomocne są echa, tj. wielokrotne odbicia od koron i gruntu jednego impulsu (od jednego impulsu można odebrać odbicie od korony i od gruntu). Trudności mogą wystąpić w młodniku świerkowym o zwartym pokryciu koron. Właściwość ta czyni technologię skaningu laserowego przydatną na obszarach zalesionych, gdzie tradycyjne zdjęcia nie sprawdzają się.
W wyniku opracowania danych pomiarowych skanera laserowego uzyskuje się reprezentację powierzchni gruntu w formie pomiarowych punktów rozproszonych o wyznaczonych współrzędnych X, Y, Z. Średnia odległość tych punktów waha się zwykle w przedziale 1-5 m, co daje powyżej 100000 p-tów/km2. Dotychczasowe doświadczenia pokazują, że błąd wysokościowy tych danych (w rozumieniu błędu średniego) wynosi:
mz = 0,15-0,25 m
Dolny zakres tego przedziału dokładności odnosi się do obszarów odkrytych, a górny do obszarów pokrytych roślinnością, gdzie zachodzi potrzeba filtracji danych pomiarowych. W terenie górzystym o zalesionych stokach należy się liczyć ze spadkiem dokładności do około 0,5-0,7 m. Tak odfiltrowane dane stanowią produkt końcowy. Jakość tych danych pozwala — jeśli jest taka potrzeba — łatwo generować DTM w formie regularnej siatki kwadratów (tzw. „siatka wtórna" — model GRID) o boku w zakresie 5-10 m.
Wydajność technologii lotniczego skaningu laserowego ocenia się na kilkadziesiąt kilometrów kwadratowych obrazowanej powierzchni w ciągu godziny lotu. Dokładna ocena zależy od parametrów geometrycznych użytego systemu i kształtu obrazowanego obiektu (większa dla pojedynczego długiego szeregu, mniejsza dla powierzchniowego obszaru o nieregularnych kształtach, pokrywanego równoległymi szeregami).
Wyniki końcowego opracowania - zwykle w formie DTM - mogą być uzyskane wkrótce po nalocie (2-3 dni). Konieczna jest obróbka danych na komputerowej stacji roboczej z wykorzystaniem dość skomplikowanego oprogramowania. Obróbka ta, szczególnie na etapie „filtrowania" danych (odfiltrowanie obiektów wystających z powierzchni terenu jak domy, drzewa, samochody) wymaga interaktywnego działania operatora i jest dość czasochłonna, zajmuje 2-3 godziny pracy stacji na obrobienie danych z jednej godziny lotu, a dla terenów trudnych nawet więcej (tam, gdzie jest konieczna częsta, interaktywna ingerencja operatora). Ten proces może być zautomatyzowany tylko do pewnego stopnia. Stosuje się różne rodzaje filtrów (zależnie od morfologii terenu, pokrycia roślinnością, filtrowanych obiektów itp.). Ocenia się, że tą drogą można odfiltrować automatycznie do 95% roślinności (ze względu na duże obciążenie robi się to zwykle w trybie wsadowym). Nadal jednak pozostaje znaczący, czasochłonny, interaktywny udział operatora.
Ocenia się, że koszty produktu finalnego, tj. DTM uzyskanego tą drogą są niższe od produktu uzyskanego z opracowania tradycyjnych zdjęć lotniczych. Na koszt ten znaczący wpływ ma gęstość punktów pomiarowych, decydująca o czasochłonności procesu obróbki danych. Porównując koszty należy mieć na uwadze, że ekwiwalentne — co do dokładności — wyniki można byłoby uzyskać ze zdjęć fotogrametrycznych w skali około 1:8000, wykonanych kamerą szerokokątną.
Dokładności: mz =0,15-0,25‰w-tereny łatwe mz =0,5-0,7‰w-tereny górzyste
72.TEORETYCZNE PODSTAWY ORTOFOTOGRAFII. Idea cyfrowego przetwarzania Ortofotografia, w ujęciu teoretycznym (rys. 7.16b), jest zdjęciem, którego płaszczyzna projekcji jest równoległa do płaszczyzny odniesienia, a wszystkie
Środek rzutu dla redukcji ortofoto
Rys. 7.16. Zdjęcia: a) w rzucie środkowym, b) ortofotograficznym promienie są prostopadłe do tych dwóch płaszczyzn. W obrazie nie ma więc żadnych przesunięć spowodowanych pochyleniem zdjęć, czy różnicą wysokości terenu. Odległości poziome mierzone na takim zdjęciu są poprawne, niezależnie od różnic wysokości terenu. Na konwencjonalnych zdjęciach wykonanych w rzucie środkowym różnice wysokości terenu powodują przesunięcia punktów a do a', czy b do b' (rys. 7.16a).
Jeśli zdjęcia są pochylone, zachodzą dodatkowe zniekształcenia skali. Korygując pojedyncze zdjęcie przez przekształcenie rzutowe, możemy zauważyć, że deniwelacja nie jest uwzględniona. Ortofotografia pozwala na otrzymanie ze zdjęcia pomiarowego dokumentu kartograficznego. W rzucie ortogonalnym przedstawione są tylko te elementy, które należą do sfotografowanej powierzchni. Obrazy szczegółów wystających ponad powierzchnię (np. dachów budynków, koron drzew) są na ortofotografii przesunięte proporcjonalnie do wysokości tych szczegółów i odległości ich obrazów od punktu nadirowego fotogramu, na którym zostały zarejestrowane. Numeryczny model terenu pozwala na uwzględnienie deniwelacji. Zależność pomiędzy zdjęciem, modelem terenu a Ortofotografia pokazuje rysunek poniżej:
Środek rzutu
Zasada ortoprojekcji
73.Fotomapa – mapa fotograficzna, która powstała w wyniku przetwarzania fotomechanicznego. Fotomapa powstaje przez odpowiednie ułożenie, przycięcie i przyklejenie przetworzonych , najczęściej metodą fotomechaniczną, zdjęć lotniczych. Fotomapa zawiera bogatą treść sytuacyjną w postaci obrazu fotograficznego, takiego samego co oryginalne zdjęcie lotnicze, a więc są na niej wszystkie szczegóły jakie istniały w terenie w momencie fotografowania. Fotomapa jest dokumentem kartogrametrycznym. Dokładność sytuacyjna tej mapy jest charakteryzowana przez średni błąd położenia szczegółów względem osnowy geodezyjnej, który nie powinien przekraczać odpowiednio: ±0,4 mm dla szczegółów pierwszej grupy dokładnościowej, ±0,6 mm dla pozostałych szczegółów. Są one najczęściej stosowane w: planowaniu przestrzennym, górnictwie, gospodarce komunalnej oraz stanowią materiał źródłowy dla wielu map tematycznych. Fotoszkic. Materiał ten powstaje przez naklejenie poszczególnych odbitek stykowych całego zespołu zdjęć z danego obszaru na sztywny karton tak, aby tworzyły one jednolity obraz fotograficzny terenu. Przy sporządzaniu fotoszkicu kierujemy się tylko sytuacją na brzegach poszczególnych odbitek. Zbędne części odbitek odcinamy wzdłuż dowolnych linii ( należy unikać cięcia w wzdłuż liniowych szczegółów terenowych ). Jeżeli opracowywany teren był poziomy i zdjęcia zostały wykonane starannie ( przy pionowym położeniu osi optycznej kamery i z tej samej wysokości ), to fotoszkice takie mogą być dość dokładne. Dokładność ta będzie jednak rzeczą przypadku i przy korzystaniu z fotoszkiców należy zdawać sobie z tego sprawę. Fotoszkic ulepszony zestawia się z odbitek sprowadzonych do wspólnej określonej ( przybliżonej ) skali. W tym celu określa się skalę poszczególnych zdjęć na podstawie mapy, a następnie drogą zwykłego przefotografowania na aparacie do wykonywania powiększeń , sprowadza się je do wspólnej skali. Fotoszkic ulepszony może więc być wykonany w innej skali niż zdjęcia lotnicze. Ponieważ przy powiększaniu zdjęć nie uwzględnia się błędów wywołanych nachyleniem kamery w momencie fotografowania, na fotoszkicu ulepszonym występują zniekształcenia z tego tytułu.
74.Otrofotomapa-powstała w trybie przetwarzania ortograficznego. Jest to produkt z przetwarzania różniczkowego. Ortofotomapa powstaje przez odpowiednie zestawienie przekształconych zdjęć lotniczych, będących rzutem środkowym zdjętego terenu, na równoważne zdjęcia, które będą rzutem ortogonalnym. Ortofotomapa jest zatem materiałem pozbawionym zniekształceń wywołanych deniwelacją terenu. Przetwarzanie różniczkowe( inaczej różnicowe =szczelinowe=pasmowe) Tryby przetwarzania różniczkowego: 1. Tryb on-line Był wykorzystywany autograf analogowy. On-line(system łączny) Obserwator prowadząc wirtualny znaczek pomiarowy po terenie podawał informacje o położeniu x, y, z znaczka, rzeczywiste położenie znaczka. Ortofotoskop przetwarzał to i zmieniał skalę . 2. Tryb off-line Autograf był wykorzystywany do przygotowania danych wejściowych dotyczących DTM-u-wsp.z i realizowany był proces ortorektyfikacji Przetwarzanie różniczkowe- to inaczej ortofotografie czyli technika przetwarzania zdjęć, w której małe powierzchnia zdjęcia zostają do jednakowej skali przy jednoczesnym wyeliminowaniu zniekształceń obrazu wywołanych deniwelacjami terenu i nachyleniem zdjęcia. Cechy systemów on i off-line: On-line: -prosta technologia (+) -brak korekcji pochylenia poprzecznego (-) Off- line: -zastosowano korekcję pochylenia poprzecznego (+) -znacznie większa szybkość opracowania w stosunku do on-line ( +) -możliwość przygotowania DTM-u z różnych źródeł (+) -skomplikowana technologia (-) -konieczność posiadania Hardware i Software (-) Dokładność przetwarzania zależy od: - od różnic wysokości w obrębie zdefiniowanej szczeliny - od błędów ustawienia projektora w płaszczyźnie projekcji, w kierunku z - od wpływu nachylenia zdjęcia na ortofotograf Do przetwarzani w trybie of-line można było wykorzystać dane dotyczące ukształtowania terenuz: 1. opracowania autogrametrycznego 2.pozyskiwanie DTM-u w trybie pomiaru warstwicowego 3. digitalizacja map zawierających warstwice (DTM-u) 4. z banku danych dotyczących DTM-u Przetwarzanie różniczkowe Odmiennym sposobem wytwarzania opracowań kartometrycznych dla terenów falistych jest technika ortofotografii. Pod pojęciem ortofotografii należy rozumieć obraz fotograficzny posiadający na całej swej powierzchni jednolitą ustaloną skalę, nie obarczony wpływem błędów orientacji zewnętrznej i deniwelacji terenu. Obraz tak zdefiniowany odpowiada geometrycznie projekcji równoległej ortogonalnej na płaszczyznę odniesienia. Nie może on powstać w sposób pierwotny, tj. poprzez bezpośrednią rejestrację obiektu, gdyż wymieniony typ projekcji nie jest technicznie możliwy do realizacji. Ortofotografia powstaje więc w wyniku przetworzenia oryginalnych zdjęć lotniczych w specjalnych urządzeniach, zwanych ortofotoskopami.
Z analizy wpływu błędów orientacji zewnętrznej oraz deniwelacji terenu wiadomo, że czynniki te mają charakter lokalny. Poprawna korekcja wymienionych wcześniej czynników wymaga więc przetworzenia elementarnych fragmentów zdjęć lotniczych, zwanych obrazami elementarnymi.
W praktyce, wielkość obrazu elementarnego jest definiowana przez wymiary specjalnej szczeliny, przez którą następuje naświetlenie ortofotografii. Szczelina ta porusza się wzdłuż ustalonego kierunku, powodując naświetlenie pasmowe, w czasie którego korekcje geometryczne obrazu są realizowane! w sposób ciągły.
Dla korekcji wpływu deniwelacji potrzebne są informacje o pionowym ukształtowaniu obiektu odwzorowanym na zdjęciu oryginalnym. Informacje te j w postaci wysokościowego modelu numerycznego terenu można uzyskać na| podstawie:
— bezpośrednich pomiarów geodezyjnych w terenie,
— fotogrametrycznego odtworzenia modelu przestrzennego terenu,
— digitalizacji warstwie istniejących opracowań mapowych.
Obecnie, w procesie tworzenia ortofotografii, najczęściej wykorzystuje się informacje wysokościowe z przestrzennego modelu terenu zrekonstruowanego fotogrametrycznie. W związku z tym, wyróżnia się dwa sposoby pracy orto- i fotoskopów: on-line i off-line.
Sposób on-line polega na wytwarzaniu ortofotografii w cyklu synchronicznym z procesem profilowania powierzchni modelu terenu zrekonstruowanej l w autografie. Zadaniem obserwatora w procesie profilowania jest utrzymywa-1 nie znaczka pomiarowego na powierzchni modelu, co eliminuje wpływ deni-| welacji. Stosując ten sposób pracy, można sporządzić ortofotografię dla terenu odwzorowanego na stereogramie zdjęć lotniczych. Całe zdjęcie lotnicze można przetwarzać różniczkowo w systemie pracy off-line. Ten system pracy ortofotoskopu charakteryzuje się rozdzieleniem procesu przetwarza-1 nią od etapu pozyskiwania informacji wysokościowej. Takie rozwiązanie umożliwia skuteczniejsze wykorzystanie ortofotoskopów, jak również geometrycznie wierniejsze tworzenie ortofotografii. Zwiększenie dokładności przetwarzania w tym systemie pracy ortofotoskopu jest związane z wprowadzeniem dodatkowej korekcji ze względu na poprzeczne nachylenie terenu w obrębie długości szczeliny.
75. CYFROWE PRZETWARZANIE POJEDYNCZEGO ZDJĘCIA OBIEKTU PŁASKIEGO METODĄ PZREKSZTAŁCENIA RZUTOWEGO.
Przetwarzanie cyfrowe – modyfikacja pikseli
- geometryczne
- radiometryczne w trakcie resamplingu
Zasada:
Różniczkowe numeryczne przekształcenie zdjęcia na płaszczyznę projekcji (mapy) w określonej skali mapy za pomocą metod cyfrowego przetwarzania zdjęć. Konieczność posiadania informacji o rzeźbie terenu
Metody cyfrowego przetwarzania pojedynczych zdjęć:
-bezpośrednia
- pośrednia
Instrument:
Komputer z software’owym modułem cyfrowego przetwarzania zdjęć
Wynik opracowania: cyfrowe zdjęcia ortofoto – cyfrowa ortofotomapa
Pośrednia metoda przetwarzania cyfrowego:
- określenie elementów orientacji zewnętrznej zdjęcia
- Budowa regularnego DTM w układzie współrzędnych X, Y, Z obiektu
- Wybór wielkości piksela w układzie obiektu: 50…100μm
Współrzędne X, Y punktów środka pikseli w układzie obiektu
- interpolacja wysokości Z dla punktów środka pikseli
- Transformacja numeryczna współrzędnych tłowych w układ współrzędnych skanera p’(Xd’,Yd’)
- Określenie poziomu szarości g piksela za pomocą metody Resamplingu dla wszystkich pikseli obrazu
- Wydruk cyfrowego obrazu ortofoto ∑P(X,Y,g) za pomocą precyzyjnego plotera rastrowego.
76. ORTOFOTOMAPA cyfrowa–Jest to kartometryczny tonalny obraz terenu powstały w wyniku przetwarzania zdjęć lotniczych na obraz odpowiadający rzutowi ortogonalnemu na powierzchni odniesienia przedstawiony w odpowiednim odwzorowaniu i kroju arkusza, uzupełniony nazwami, symbolami, siatką kwadratów, opisem współrzędnych oraz informacjami pozaramkowymi.
Def.2: Plik rastrowy lub zbiór plików rastrowych, wektorowych, tekstowych z zapisanymi odpowiednio: treścia obrazową – format tif, ramka z opisem, współrzędne narożników mapy, warstwice(ewentualnie)
Ortofotomapa cyfrowa stanowi podstawę informacji dla systemów Informacji przestrzennej (GIS). Umożliwia ona multispektralną klasyfikacje, segmentację obrazów, rozpoznawanie obiektów etc. Za pomocą ortofotomapy cyfr. Możemy wykonywać przetworzeń cyfrowych.
77.ORTOREKTYFIKACJA (POŚREDNIA METODA PRZETWARZANIA) OBRAZÓW CYFROWYCH – PODSTAWY TEOR., WYMAGANE DANE, PRZEBIEG PROCESU PRZETWARZANIA
Wrunkiem koniecznym do wykonania ortorektyfikacji cyfrowej jest:
Posiadanie obrazu cyfrowego na podstawie zeskanowanych zdjęć
Dane z kalibracji zdjęć i skanera
Posiadanie elementów orientacji zewnętrznej i wew: położenie środka rzutów w szeregu, kątowe elementy orientacji zew.- bierze się to z pomiaru GPS albo z rozwiązania aerotriangulacji metodą niezależnych wiązek
osnowa fotogrametryczna: fotopunkty pełniące rolę dowiązania, nazywane punktami do przetwarzania, punkty kontrolne, nie biorące udziału w przetwarzaniu
DTM- w zależności od charakteru terenu i skali zdjęć wykorzystujemy strukture TIN lub GRID. Jeżeli mamy tereny zurbanizowane lub tereny trudne to dla nich stosujemy naloty dajace zdjęcia w skali większej i strukture TIN. Dla terenów łatwych zdjęcia średnio i mało skalowe w strukturze GRID.
W procesie ortorektyfikacji należy wykonac korektę obrazu, dokonać transformacji geometrycznej i resamplingu rastra w celu przypisania nowych poziomów szarości.
78.TECHNOLOGIA OPRACOWANIA CYFROWEJ ORTOFOTOMAPY
79.CZYNNIKI WPŁYWAJACE NA DOKŁADNOŚĆ ORTOFOTOMAPY CYFROWEJ
- skala zdjęć lotniczych
- błąd identyfikacji punktu
- jakoś fotograficzna obrazu
- wielkość piksela dla opracowań cyfrowych (rozdzielczość zdjęć, rozdzielczość skanowania, skala ortofotomapy, kategoria terenu, czy teren jest użytkowany rolniczo czy zabudowany, forma prezentacji ortofotomapy, postać danych źródłowych)
- dokładność osnowy
- precyzja instrumentu i metoda opracowania
- korekcja błędów systematycznych
- DTM
80.TEORIA PROMIENIOWANIA W ASPEKCIE POZYSKIWANIA DANYCH FOTOINTERPRETACYJNYCH I TELEDETEKCYJNYCH
81.FOTOINTERPRETACYJNE CECHY ROZPOZNAWCZE OBRAZÓW OBIEKTÓW
1. Bezpośrednie: kształt, wielkość, foton lub barwa, struktura, tekstura
2. Pośrednie: cień własny, cień rzucany, rozmieszczenie topograficzne, powiązanie z innymi elementami terenu
82. KLUCZE FOTOINTERPRETACYJNE I WZORCE PORÓWNAWCZE
Klucz fotointerpretacyjny- zdjęcie wraz z opisem pojedynczych obiektów lub elementów krajobrazu geograficznego
Wzorce porównawcze- zdjęcie i opisy fotointerpretacyjne charakteryzujące określone związki terytorialne pomiędzy obiektami oraz związki pomiędzy elementami środowiska geograficznego
Klasyfikacja: 1. wielkość odfotografowanych na zdjęciu obiektów 2. stopień złożoności struktury obiektów 3. charakter opisu fotointerpretacyjnego
83.FOTOINTERPRETACJA ZDJĘĆ LOTNICZYCH
METODYKA POSTĘPOWANIA FOTOINTERPRETACYJNEGO
Pierwszym etapem procesu fotointerpretacyjnego jest rozpoznanie obiektów na zdjęciu lotniczym. Polega ono na kojarzeniu cech obrazów z rzeczywistością. Wynik pracy na tym etapie zależy od następujących czynników:
predyspozycji psychofizjologicznych i doświadczenia interpretatora oraz jakości materiału fotograficznego, a także wyposażenia instrumentalnego stanowiska pracy.
Etap drugi – właściwa interpretacja zdjęć – polega na analizie, a następnie uogólnieniu informacji uzyskanych w procesie odczytywania określonych obiektów, zjawisk i procesów. Pewnym skojarzeniom zostaje nadana ukierunkowana interpretacja związana z celem badań.
Rezultaty tego etapu są uzależnione od:
dokładności i wiarygodności odczytania zdjęć,
przygotowania teoretycznego, a zwłaszcza zasobu wiedzy z dziedziny, na użytek, której są realizowane badania,
doświadczenia fotointerpretacyjnego,
poziomu techniki i instrumentów fotointerpretacyjnych,
możliwości posiadania innych źródeł informacji o badanym obszarze do analiz porównawczych (zdjęcia wykonane innymi technikami, archiwalne materiały kartograficzne)
Etap trzeci obejmuje wnioskowanie fotointerpretacyjne i stawianie hipotez. Celem tego etapu jest dokonanie, na podstawie wyników dwóch poprzednich, syntezy zgromadzonych i uporządkowanych informacji w myśl założeń, które stanowiły cel badań fotointerpretacyjnych. Wynikiem tej syntezy są wnioski i hipotezy (w formie graficznej lub tekstowej) dotyczące:
rzeczywistości interesującej użytkownika (dziedziny, na użytek której prowadzono badania),
rzeczywistości interesującej interpretatora w aspekcie ogólnej zgodności wyników badań z rzeczywistością, a także doświadczeń wypływających z praktyki.
Etap czwarty dotyczy podejmowania decyzji na podstawie wniosków i hipotez fotointerpretacyjnych. Charakteryzuje się on świadomym oddziaływaniem na rzeczywistość poznaną w wyniku procesu badań fotointerpretacyjnych i studiów innych źródeł informacji. Wynikiem tego etapu są decyzje inicjujące odpowiednie zabiegi techniczne, planowanie. Przy czym bardzo ważne jest tutaj wyważenie wartości informacji pochodzącej z badań fotointerpretacyjnych. Podjęcie decyzji zamyka cel badawczy.
Konfrontacja terenowa wyników badań umożliwia weryfikację decyzji. Pociąga to za sobą niekiedy konieczność repetycji etapów 1-2-3 z częstotliwością uzależnioną od dynamiki interpretowanego zjawiska.
Jak wynika z powyższego opisu, proces fotointerpretacji jest procesem modelowania rzeczywistości, przy czym model rzeczywistości przechodzi przez kolejne stadia: obraz na zdjęciu, model w świadomości interpretatora, model uogólniony – abstrakcyjny ( na wyższym poziomie świadomości), model hipotetyczny, zweryfikowany (skorygowany) i wreszcie model pragmatyczny (decyzyjny).
ETAPY: 1.okreslenie celu 2. wybór i przygotowanie materiałów fotograficznych 3. wybór i analiza materiałów pomocniczych 4. interpretacja zdjęć lotniczych
Zastosowanie metod fotointerpretacji zdjęć lotniczych A: Opracowania fotointerpretacyjne 1. Opracowanie fotointerpretacyjne wybranych elementów środowiska przyrodniczego
2. Opracowanie fotointerpretacyjne stanu istniejącego i możliwości użytkowania terenu 3. Opracowanie fotointerpretacyjne stanu degradacji środowiska
4. Opracowanie fotointerpretacyjne dla poszczególnych dziedzin inżynierii środowiska
5. Opracowanie fotointerpretacyjne dla potrzeb archeologii oraz rewaloryzacji modernizacji miast 6. Opracowanie map panoramicznych w dowolnym zakresie tematycznym B: Opracowania fizjograficzne 1. Opracowania fizjograficzne inwentaryzacyjne i bonitacyjne elementów 2. Wykonanie ocen warunków fizjograficznych terenu
C: Opracowania projektowe dla ochrony środowiska
84. PODSTAWOWE PARAMETRY CHRAKTERYZUJACE SATELITARNE SYSTEMY OBRAZOWANIA
Charakterystyka wysokorozdzielczych systemów satelitarnych Podstawowe charakterystyki komercyjnych, wysokorozdzielczych systemów satelitarnych podano w tablicy 7.7. Systemy te różnią się w szczegółach, mają jednak wiele wspólnych cech, o zasadniczym znaczeniu dla ich użyteczności i wyróżniających je z systemów znanych wcześniej:
1. Systemy są umieszczane na kołowych orbitach heliosynchronicznych, tj. orbitach nachylonych do płaszczyzny równika o kąt około 98°. Jest to więc orbita okołobiegunowa (odchylona o około 8° od biegunów) taka, że zachowany jest stały w czasie kąt między płaszczyzną orbity a kierunkiem na Słońce. Oznacza to przejście satelity przez dany obszar zawsze o tym samym czasie lokalnym, a w konsekwencji obrazowanie o porównywalnych warunkach oświetleniowych (przy tym samym azymucie Słońca).
2. Trajektoria orbity oraz elementy orientacji kamery są z dużą częstotliwością i dokładnością rejestrowane. To bardzo ważne dla dalszego opracowania pomiarowego. Uzyskiwana precyzja pomiaru tych elementów pozwala, w zakresie drobniejszych skal, opracowywać obrazy bez znajomości punktów geodezyjnych, tzw. fotopunktów.
3. System obrazowania oparty jest na zasadzie skanera elektrooptycznego. W płaszczyźnie ogniskowej układu optycznego umieszczona jest linijka detektorów (linijka CCD), dająca linię obrazu w kierunku poprzecznym do kierunku orbity; obraz w kierunku orbity tworzony jest w sposób ciągły, w wyniku ruchu satelity. O zdolności rozdzielczej decyduje wysokość orbity, ogniskowa układu optycznego i wymiary samych pikseli. Zdolność ta charakteryzowana jest przez terenowy wymiar piksela. Używane określenie „system metrowy" oznacza system z terenowym wymiarem piksela bliskim l m.
4. W płaszczyźnie ogniskowej znajduje się zwykle linijka detektorów rejestrująca w zakresie widzialnym — tryb panchromatyczny, oraz linijki rejestrujące w wąskich podzakresach spektrum, zwykle niebieskim, zielonym, czerwonym i podczerwonym — tryb wielospektralny. Regułą jest, że rozdzielczość w trybie wielospektralnym jest gorsza — piksel jest zwykle 4 razy większy.
5. Systemy mają dużą rozdzielczość radiometryczną, tj. zdolność rozróżniania wielkości odbicia obiektów naziemnych. Zdolność tą charakteryzuje tzw. „zakres dynamiczny", np. zakres 11-bitowy oznacza możliwość rozróżnienia 2 048 poziomów szarości (dla porównania, tradycyjne zdjęcia fotograficzne charakteryzują się zakresem około 6 bitów, co odpowiada rozróżnieniu 64 poziomów szarości).
6. Układ optyczny może być wychylany w dużym przedziale kątowym w przód i wstecz oraz na boki. Oznacza to, że stosunkowo wąski pas obrazowania jest wybierany z szerokiego pasa terenu, nad którym przelatuje satelita. Ma to kapitalne znaczenie dla operatywności systemu, można bowiem „zaprogramować" seans obrazowania z danej orbity tak, aby obrazować tylko interesujące obszary oraz te spośród nich, które w danym momencie nie są pokryte chmurami. Możliwość wychylenia układu „na boki" istotnie skraca tzw. okres rewizyty, tj. okres co ile dany obszar na powierzchni Ziemi może być „ujrzany" przez system.
Możliwość wychylenia układu optycznego w przód i wstecz umożliwia tzw. „stereoskopię z jednej orbity". System obrazuje dany obszar dwa razy:
raz wychylając układ „do przodu" i drugi raz „wstecz", z opóźnieniem kilkudziesięciu sekund (patrz rys. 7.19). W rezultacie otrzymuje się parę stereo o bardzo dobrych warunkach pomiaru wysokości. Ten sposób stereoskopii ma zdecydowaną przewagę nad stereoskopią „z sąsiednich orbit", stosowaną w satelitach SPOT i IRS. W tym przypadku obrazy stereo otrzymuje się przez wychylenie układu w poprzek i obrazowanie z sąsiednich orbit. Problem jednak w tym, że przejście przez te orbity następuje w różnych terminach i w obu muszą jednocześnie zaistnieć sprzyjające warunki pogodowe. To bardzo zmniejsza szansę na dobrą stereoskopię.
Alternatywą dla stereoskopii jest możliwość obrazowania z jednej orbity więcej niż jednego pasa terenu. Pozwala to istotnie zwiększyć szerokość obrazowanego pasa terenu podczas jednego przejścia satelity. Wyjaśniono to na rysunku 7.19.
7. Operatorzy systemów komercyjnych zakładają umieszczanie kolejnych satelitów, co wydłuży ich żywotność do wielu lat. Towarzyszy temu sprawna sieć dystrybucji obrazów radykalnie skracająca czas ich dostępu dla użytkownika. Bogata jest oferta przetwarzania obrazów do produktów kartograficznych o różnej skali i dokładności geometrycznej.
85. TECHNIKA SKANEROWA POZYSKIWANIA OBRAZÓW CYFROWYCH – PODSTAWOWE TYPY SKANERÓW
Skanowanie : W procesie skanowania obraz jest dzielony na wiele małych prostokącików, jak by "jednostek podstawowych", z których każdy zostanie następnie opisany za pomocą jednego, konkretnego koloru. Z takiej mozaiki obraz zostanie później odtworzony w pamięci komputera. Na podstawie tego opisu jasno wynika, że jeżeli podzielimy obraz na więcej prostokącików, to jego odpowiednik cyfrowy będzie dokładniejszy. Z tym wiąże się jeden z podstawowych parametrów urządzeń przetwarzających obrazy (skanery, drukarki): rozdzielczość. Jednostką rozdzielczości jest liczba punktów na cal, w skrócie DPl (ang. Dots Per Inch) i generalnie, im większa rozdzielczość tym lepszy efekt. W skanerach zastosowano metodę rozróżniania kolorów bliźniaczo podobną do oka, a rolę pręcików spełniają światłoczułe elementy elektroniczne, najczęściej półprzewodnikowe o sprzężeniu pojemnościowym - CCD (ang. Charge Coupled Device). Czujniki te przetwarzają natężenie światła każdej z podstawowych barw na wartości elektryczne (napięcie). Sygnały elektryczne są doprowadzane do przetworników analogowo - cyfrowych, które przetwarzają wartości analogowe napięcia na odpowiadające im poziomy cyfrowe. I tak, w przypadku przetwornika 8-bitowego, od natężenia maksymalnego do minimalnego mamy 256 stopni pośrednich dla każdej składowej koloru, co w efekcie daje pełną, 24-bitową paletę barw (tzw. True Color). Czasami stosowane są przetworniki o większej liczbie bitów ( 10 lub 12 bitowe), a "nadmiarowe" bity wykorzystuje się do sprzętowej korekcji skanowanego obrazu wykonywanej bezpośrednio przez układy elektroniczne skanera (poprawa kontrastu jaskrawości, wyostrzanie), lub do dokonywania przez skaner separacji barwnej CMYK (ang. Cyan, Magenta, Yellow, Black) - w której kolor każdego punktu jest opisywaną za pomocą 32 bitów. Podczas skanowania oryginał jest oświetlany jest kolejno światłem czerwonym zielonym i niebieskim, generowanym przez odpowiednie lampy fluorescencyjne lub halogenowe, i przepuszczanym przez kolorowe filtry. Światło odbijane od kolejnych punktów oryginału pada na przesuwane silnikiem krokowym lustro, od którego odbija się i trafia przez układ ogniskujący do elementów światłoczułych. Proces oświetlania kolejno trzema barwami może być zrealizowany w trzech przebiegach zespołu lampa - lustro, albo w jednym przebiegu, wtedy oświetlenie jest zmieniane kolejno dla każdej linii. Jasno widać więc, że na jakość skanera największy wpływ ma układ optyczny, a także precyzja układu przesuwającego lampę i lustro. Od precyzji przesuwania zależy rozdzielczość pionowa skanera, pozioma jest stała i zależy od liczby elementów światłoczułych. Jeżeli program obsługujący skaner umożliwia zmianę rozdzielczości w pewnym zakresie, nie będzie to zmiana fizycznych parametrów skanowania, a tylko tzw. interpolowanie. Proces interpolacji polega na wyznaczeniu barwy punktu przy uwzględnieniu barw punktów go otaczających.
Podział skanerów:
Zasadniczo wyróżniamy dwa rodzaje skanerów: skanery płaskie i skanery ręczne. Istnieje też trzeci rodzaj, skanery bębnowe, ale są to urządzenia bardzo profesjonalne i bardzo drogie.
* Skanery płaskie : Właściwie skaner płaski (ang. desktop scanner) został już opisany w poprzednim punkcie, przy okazji omawiania zasady działania tych urządzeń. Może zróbmy to jeszcze raz, tym razem w sposób uporządkowany. Z wyglądu skaner płaski do złudzenia przypomina kserokopiarkę, jest tylko mniejszy. W swojej górnej części posiada pokrywę, pod którą znajduje się szyba. Na szybę kładziemy oryginał do skanowania, stroną właściwą do spodu. Pod szybą w trakcie skanowania porusza się zespół lampa-lustro. Zazwyczaj skanery płaskie podłącza się do komputera przez interfejs SCSI lub przez port równoległy Centronics. Rozdzielczości optyczne skanerów płaskich wynoszą od 300x600 dpi do 800x 1600 dpi, a interpolowane nawet do 9600x9600 dpi. Urządzenia te występują zarówno w wersjach kolorowych, jak i czarno-białych. Zastosowanie skanerów płaskich to przede wszystkim profesjonalne prace graficzne, wymagające dobrych parametrów skanowania, oraz biurowe (skanery czarno-białe), polegające na skanowaniu dokumentów w celu późniejszego poddania ich obróbce OCR (patrz punkt 13.5). Niektóre firmy produkują do swoich skanerów płaskich specjalne przystawki DIA do skanowania przezroczy (diapozytywów).
* Skanery ręczne : Jest to druga z najpopularniejszych grup skanerów. Nazwa "ręczne" (ang. haţd scanner) pochodzi od tego, że użytkownik przeciąga ręką skaner po powierzchni oryginału. Prostsza konstrukcja tych skanerów znacznie obniża koszt ich produkcji, ale także obniża parametry. Zasada działania jest bardzo prosta: w spodniej części skanera jest zainstalowany specjalny wałek, który obraca się w trakcie przesuwania skanera i informuje układy elektroniczne o przebytej drodze. Zespół elementów światłoczułych może, na podstawie informacji o prędkości poruszania się skanera, odpowiednio dobrać częstotliwość próbkowania oryginału. Oczywiście, skanery ręczne są bardzo wrażliwe na wszelkie drgnięcia ręki operatora, zwłaszcza w kierunkach bocznych, tak więc otrzymanie idealnego skaningu jest bardzo trudne. Wadą skanerów ręcznych, która od razu rzuca się w oczy, jest ograniczona szerokość skanowanego materiału: przeważnie do 10,5 cm. Problem ten rozwiązują niektóre programy graficzne, posiadające opcję sklejania obrazka skanowanego w kilku przebiegach w jedną całość. Ważne jest tu zachowanie wystarczająco szerokiej "zakładki", czyli nachodzenia na siebie poszczególnych przebiegów skanowania. Zwykle wystarcza zakładka o szerokości 0,5 cm. Ciekawą odmianą skanerów ręcznych są skanery z własnym napędem. Nie trzeba ich ciągnąć, bo są wyposażone w silniczki i same się przesuwają. Skanery ręczne występują zarówno w wersjach czarno-białych jak i kolorowych. Ich zastosowanie to przede wszystkim proste, domowe prace graficzne oraz skanowanie i obróbka OCR krótkich tekstów. Podłącza się je do komputera przez interfejs Centronics lub przez własną kartę rozszerzającą. Typowe rozdzielczości skanerów ręcznych wynoszą od 100 do 400 dpi.
* Skanery bębnowe : Skanery bębnowe, bardzo rzadko spotykane, należą do elity sprzętu ściśle profesjonalnego. Są one bardzo duże, drogie i niewygodne w obsłudze, ale jakością skanowania biją na głowę skanery ręczne, a nawet płaskie. Zasada działania jest dosyć prosta: oryginał przykleja się do specjalnego bębna, wirującego wokół centralnie umieszczonej, przesuwającej się głowicy. Warto zauważyć, że o ile w skanerach ręcznych i płaskich powszechnie stosuje się półprzewodnikowe, światłoczułe elementy CCD, to w skanerach bębnowych wykorzystuje się specjalne lampy zwane fotopowielaczami, mające o wiele lepsze parametry.
86. FOTOGRAFICZNE SYSTEMY ZOBRAZOWAŃ SATELITARNYCH – PARAMETRY TECHNICZNE I ZASTOSOWANIE
Produkty wysokorozdzielczych systemów
Typowe produkty wysokorozdzielczych systemów satelitarnych to:
— „Surowe" obrazy, zwykle po wstępnej korekcji geometrycznej i radio-metrycznej. Takie obrazy, uzupełnione o model geometryczny kamery i parametry orbity nadają się do dalszego opracowania, np. tworzenia orto-fotomap, czy automatycznej klasyfikacji. W przypadku obrazów stereoskopowych możliwe jest generowanie DTM lub stereodigitalizacja (przestrzenny pomiar, np. dla tworzenia mapy wektorowej). - Obrazy ortorektyfikowane, przetworzone do wybranej projekcji kartograficznej na wybraną elipsoidę. Pojedyncze obrazy mogą być połączone (mozaikowane) w ciągły obraz większego obszaru.
Produkty te mogą być dostarczane w opcji czamo-białej — wynik pracy systemu w trybie panchromatycznym (PAN) lub w opcji barwnej — tryb wielospektralny (MSI). Jeżeli system obrazuje w zakresie barw: niebieskiej, zielonej, czerwonej i podczerwonej, to możliwe jest wygenerowanie obrazu barwnego w barwach rzeczywistych (przez złożenie barw: niebieskiej, zielonej i czerwonej), lub barwnego w podczerwieni (złożenie barw: zielonej czerwonej i podczerwonej).
Regułą jest, że zdolność rozdzielcza obrazów w zakresie wielospektralnym jest gorsza niż w zakresie panchromatycznym. Piksel w zakresie wielospektralnym jest zwykle 4 razy większy niż w zakresie panchromatycznym. Powszechnie stosuje się fuzję obu takich produktów, dającą obraz barwny „wyostrzony" (ang. pan-sharpened — PSM). Są to barwne obrazy, ale z pikselem jak w zakresie panchromatycznym. To właśnie takie obrazy są zwykle prezentowane w publikacjach.
Obraz „wyostrzony" otrzymuje się w kilku etapach przekształcenia:
— przepróbkowanie obrazu barwnego do rozdzielczości obrazu panchromatycznego,
— transformacja obrazu barwnego z przestrzeni barwowej RGB (czerwony--zielony-niebieski) do przestrzeni IHS (intensywność-odcień-nasycenie),
— zamiana kanału „intensywność" przez obraz panchromatyczny,
— powrót z przestrzeni IHS do RGB.
Obrazy barwne „wyostrzone" nie są przydatne do automatycznej klasyfikacji.
Wydajność obrazowania satelitarnego
Podstawowym użytkowym parametrem systemu obrazowania jest jego wydajność. Wydajność ta dla obszaru małego powinna określać szansę zobrazowania w limitowanym czasie, a dla dużego obszaru określać czas konieczny dla jego pokrycia obrazami. Wydawać by się mogło, że kluczowym parametrem określającym taką wydajność jest szerokość obrazowanego pasa terenu;
im szerszy pas, tym większa wydajność i tym krótszy okres potrzebny na zobrazowanie dużego obszaru. Bliższe przyjrzenie się temu zagadnieniu pokazuje jednak, że na wydajność ma wpływ kilka czynników, a wspomniana szerokość pasa obrazowania nie jest najważniejszym z nich. Ogólnie, wydajność zależy od parametrów kamery i orbity, a w tym:
— szerokości obrazowanego pasa,
— „manewrowalności" określającej czas konieczny na skierowanie układu optycznego na wybrany obiekt,
— czasu przebywania satelity nad obiektem,
— częstotliwości rewizyt, określającej jak często obiekt może znaleźć się
w polu widzenia kamery.
Bliższa analiza tych czynników wskazuje, że pierwszorzędnym parametrem, decydującym o wydajności, jest wysokość orbity. Z wyższej orbity, przy tym samym kącie wychylenia kamery, w polu widzenia systemu jest większy pas terenu. Dla przykładu, przy wychyleniu ±30° Ikonos z wysokości 680 km ma w zasięgu pas o szerokości 780 km, a OuickBird 520 km. Oznacza to zwiększenie częstotliwości rewizyt. Przy tych parametrach, dla szerokości geograficznej 35° Ikonos rewizytuje dany obszar co 3 dni, a OuickBird co 4. Zwiększona częstotliwość rewizyt daje większe szansę obrazowania danego obszaru bez chmur lub szybsze pokrycie obrazami obszaru bardzo rozległego.
Wyższa orbita oznacza również, że — przy zadanym kącie wychylenia układu w kierunku podłużnym — satelita dłużej przebywa nad obiektem. Pozwala to w jednym przelocie zarejestrować zwarty obszar o szerokości kilkakrotnie większej niż pojedynczy pas. Pokazano to na rysunku 7.19. Układ optyczny skierowany do przodu rejestruje pierwszy pas, następnie obraca się wstecz i nieco w bok, rejestruje drugi pas z niewielkim pokryciem z pierwszym itd. System Ikonos charakteryzuje się bardzo dużą manewrowalnością, skierowanie układu w wybrane miejsce zajmuje kilkanaście sekund (czas zależy od kąta, o który należy obrócić układ). W rezultacie, Ikons w jednym przelocie zdąży zarejestrować 4 pasy terenu o długości do 104 km, a Ouick-Bird 2 pasy o długości do 36 km.
Widać więc, że zmiana wysokości orbity QuickBird z planowanej 600 km do 450 km pozwoliła zwiększyć zdolność rozdzielczą, ale kosztem zmniejszenia wydajności obrazowania. Ikonos wysoką orbitę, dającą większą wydajność, okupuje większym układem optycznym i zmniejszoną zdolnością rozdzielczą
87.SKANERY WIELKOSPEKTRALNE (MSS) – PARAMETRY TECHNICZNE I ZASTOSOWANIE
Zdecydowaną większość zdjęć satelitarnych wykonuje się obecnie skanerami pracującymi na pokładach satelitów krążących na orbitach o wysokościach w przedziale od 400 do 800 km nad powierzchnią Ziemi. Są to skanery wielospektralne rejestrujące w kilku zakresach energię odbitą od powierzchni Ziemi i energię wypromieniowaną przez obiekty (np. przez budynki, roslinność) oraz powierzchniową warstwę lądów i wód.
MSS to pierwszy globalny systemem monitoringowy Ziemi pozwalający na cyfrowe przetwarzanie danych. Skaner wielospektralny MSS wykorzystywany jest także w obecnie pracujących satelitach. Rozdzielczość MSS wynosi 79x56 m, z IFOV wynoszącym 79x79 m. Detektory rejestrują promieniowanie w czterech zakresach:
- spektrum widzialne 0.5-0.6 m m (zielone) oraz 0.6-0.7 m m (czerwone) - pozwala na rozróżnianie obiektów infrastruktury
- spektrum bliskiej podczerwieni 0.7-0.8 m m oraz 0.8-1.1 m m ? pozwala rozgraniczać wodę i ląd oraz wyróżniać rodzaje roślinności.
MSS wykorzystywany jest do analiz dużych obszarów, np. interpretacje geologiczne. Ze względu na ilość danych ze skanera MSS (kilka milionów scen), zgromadzonych w archiwach jest to bogate źródło informacji do długoterminowych badań zmian zachodzących w przyrodzie
88.ISTOTA KLASYFIKACJI NADZOROWANEJ I NIEMADZOROWANEJ W PROCESIE OPRACOWANIA CYFROWYCH DANYCH TELEDETEKCYJNYCH
KLASYFIKACJA OBRAZU- polega na wyodrebnieniu z ogółu elementarnych powierzchni obrazu (zbioru pikseli), które należą do zbioru pochodzącego do określonego rodzaju obiektów. Rozpoznawanie klas obiektów na podstawie obrazu cyfrowego polega na wykonywaniu i wyodrębnianiu określonych cech obiektu
Klasyfikacja nienadzorowana- klasy są wyodrębnione na podstawie wzajemnego położenia pikseli w przestrzeni spektralnej. Ustala się parametry wejściowe tzn. liczbę klas, zasięg spektralny, dopuszczalne odchylenia standardowe, minimalne odległości między środkami klas. Algorytmy klasyfikacji nie posiadają informacji o terenie
Klasyfikacja nadzorowana – posiadanie informacji o terenie ( są to informacje tremingowe), które uczą system wyróżniania klas. Ten rodzaj klasyfikacji przeprowadza się na podstawie wyinterpolowanych podzbiorów i prób terenowych. Często wykonuję się ją bazując na informacjach pochodzących z map topograficznych lub tematycznych. Takie postępowanie umożliwia ustalenie liczby klas, rodzaju oraz ich położenie w obrazie obiektów, które odpowiadaja wyróżnionym polom treningowym.
89.CHARAKTERYSTYKA PORÓWNAWCZA SATELITARNYCH SYSTEMÓW OBRAZOWANIA
IKONOS-2 (Space Imaging)
System został umieszczony na orbicie 24 września 1999 r. Już 12 października 1999 r. opublikowano pierwszy obraz Waszyngtonu, a wkrótce z fazy testowania system przeszedł w fazę operacyjną. Obrazuje on w zakresie pan-chromatycznym (PAN) i wielospektralnym (MS). Podstawowe parametry orbity i kamery przedstawione są w tablicy 7.7. Sercem systemu obrazowania jest teleskop o ogniskowej 10 m (!), zbudowany przez firmę Kodak. Jest to teleskop zwierciadlany złożony z 3 zwierciadeł ogniskujących i 2 zwierciadeł płaskich, co umożliwiło skrócenie fizycznej długości teleskopu do około 2 m. W płaszczyźnie ogniskowej znajduje się linijka detektorów CCD, obrazująca w zakresie panchromatycznym, złożona z 13 816 elementów oraz dodatkowo 4 linijek obrazujących w zakresie wielospektralnym. Umożliwia to obrazowanie pasa terenu o szerokości 11 km z terenowym wymiarem piksela 0,82 m w nadirze. System ma pokładowy rejestrator o pojemności 64 Gb, co umożliwia rejestrację 26 pełnych scen0, zarówno w zakresie PAN, jak i MS. Dane te są przesyłane do stacji naziemnych w Fairbanks (Allaska) i Tromso (północna Norwegia). Dodatkowo, istnieje sieć naziemnych stacji odbierających dane w czasie bezpośredniego zasięgu. Polska znajduje się w zasięgu stacji położonej w Turcji, należącej do Space Imaging Eurasia.
QuickBird-2 (Digital Globe)
System QuickBird-2 został umieszczony na orbicie 18 października 2001 r., stając się drugim — po Ikonosie — dostarczającym „metrowe" obrazy. Już 17 grudnia 2001 r. opublikowano pierwsze obrazy panchromatyczne i barwne (Waszyngton i Bangkok). System jest w fazie testowania, w fazę operacyjną ma wejść w lipcu br. Ogłoszona polityka dystrybucyjna zakłada nieograniczony dostęp do parametrów kamery i orbity, co ułatwi samodzielne opracowanie „surowych" obrazów. Zostały opublikowane wstępne cenniki.
Podstawowe parametry orbity i kamery przedstawione są w tablicy 7.7. Jak widać, system ten w zakresie panchromatycznym obrazuje z pikselem terenowym w nadirze równym 0,61 m (!) w pasie o szerokości 16,5 km. Przy wychyleniu układu optycznego na boki ten wymiar i szerokość nieco wzrastają (np. dla wychylenia 25° jest to 0,72 m). Jest to więc obecnie komercyjny system o najwyższej zdolności rozdzielczej. Osiągnięto to, zmieniając orbitę z planowanej pierwotnie wysokości 600 km na 450 km. Taką decyzję podjęto po uzyskaniu w międzyczasie licencji na operowanie systemem z pikselem do 0,5 m. Ta zmiana pozwoliła zwiększyć zdolność rozdzielczą, ale kosztem zmniejszenia szerokości pasa obrazowania (z 22 km do 16,5 km) i zmniejszenia wydajności obrazowania (o czym dalej). Teleskop układu optycznego ma ogniskową o długości 8,78 m i został zbudowany przez Bali Aerospace. Linijka CCD rejestrująca w zakresie panchromatycznym ma ekwiwalentną długość 27 632 elementy. Ponieważ takie linijki nie są obecnie dostępne, w płaszczyźnie ogniskowej znajdują się fizyczne 3 linijki, każda po ponad 9 000 elementów. System pozyskuje więc 3 pasy obrazu z niewielkim pokryciem, z których po wstępnej obróbce generuje się jeden ekwiwalentny obraz (podobną koncepcję wykorzystuje się w satelitach EROS-A oraz IRS).
Obrazy rejestrowane na pokładowych nośnikach są przesyłane do dwóch stacji naziemnych: w Fairbanks (Allaska) i Tromso (północna Norwegia). Takie „północne" położenie obu stacji powoduje, że każda orbita satelity znajduje się z zasięgu jednej z nich, umożliwiając przekaz zarejestrowanych danych. Następnie dane te przesyłane są specjalną magistralą do centrum przetwarzania w Longmont koło Denver(kolorado). Nie przewiduje się sieci naziemnych stacji odbiorczych. Wynikać to może m.in. z konieczności dość złożonego przetwarzania wstępnego danych.
LANDSAT:
W 1967 roku NASA (National Aeronautic and Space Agency) rozpoczęła prace nad możliwością wykorzystania satelitów do zasobów i zmian środowiska naturalnego. Program ERTS (Earth Resources Technology Satellites) zakładał wysłanie serii sześciu satelitów obserwacyjnych.
ERTS-1 znalazł się na orbicie w lipcu 1972 roku. Wraz z wysłaniem następnego satelity w 1975 roku cały program został przemianowany na Landsat i taką nazwę nadawano też kolejnym satelitą. Do tej pory wysłano ich sześć (misja Landsata-6 zakończyła się niepowodzeniem), satelity Landsat-1,2 i 3 zostały wycofane z użytku, obecnie dane zbierają Landsat 4 i 5.
Pierwsze trzy satelity miały bardzo podobną charakterystykę. Poruszały się po orbicie na pułapie 900 km. W ciągu dnia Ziemia okrążana była 14-krotnie, a poszczególne ścieżki oddalone były od siebie o około 2760 km (na równiku). Przy szerokości ścieżki omiatania wynoszącej 185 km, pozostawały duże niepokryte przerwy. W ciągu następnych dni orbita satelity przesuwała się na zachód, nieznacznie nakładając się na obszar pokryty poprzednią. W ten sposób uzyskano pokrycie całej kuli ziemskiej w ciągu 18 dni, po którym to czasie satelita ponownie prowadzi obserwacje w punkcie wyjścia.
Na pokładzie satelity Landsat-1,2 i 3 umieszczono sensory typu RBV (Return Beam Vidicon) oraz MSS (Multispectral Scanner). RBV były to trzy kamery telewizyjne o rozdzielczości 80 m (w trzecim z kolei satelicie rozdzielczość zwiększono do 30 m). System RBV stał się drugorzędnym systemem i był rzadko wykorzystywany. MSS to pierwszy globalny systemem monitoringowy Ziemi pozwalający na cyfrowe przetwarzanie danych. Skaner wielospektralny MSS wykorzystywany jest także w obecnie pracujących satelitach. Rozdzielczość MSS wynosi 79x56 m, z IFOV wynoszącym 79x79 m. Detektory rejestrują promieniowanie w czterech zakresach:
- spektrum widzialne 0.5-0.6 m m (zielone) oraz 0.6-0.7 m m (czerwone) - pozwala na rozróżnianie obiektów infrastruktury
- spektrum bliskiej podczerwieni 0.7-0.8 m m oraz 0.8-1.1 m m ? pozwala rozgraniczać wodę i ląd oraz wyróżniać rodzaje roślinności.
Satelity Landsat-4 i 5 wyposażone zostały w nowe urządzenie skaner Thematic Mapper (TM) zastępujące RBV, skaner MSS pozostał praktycznie nie zmieniony. Zmieniono także orbitę obniżając ją do 705 km. Spowodowane było to umożliwieniem zwiększenia rozdzielczości sensorów oraz potencjalnej naprawy satelity przez wahadłowiec. Minimalnie zwiększyła się też prędkość, gdyż w ciągu doby satelita okrąża Ziemię 14.5 razy, a cykl jego ruchu powtarza się co 16 dni. Szerokość ścieżki omiatania wynosi 185 km.
TM jest sensorem o wysokim zaawansowaniu technologicznym i zawiera szereg nowych rozwiązań w porównaniu do MSS. Rejestruje on odbitą energie elektromagnetyczną promieniowania w zakresie widzialnym, podczerwieni oraz podczerwieni termalnej. Dane zbierane są w siedmiu zakresach, dodano nowe zakresy w widzialnym (niebieskim), podczerwonym i termalnym spektrum. Zakres długości fal i ich położenie zostały tak dobrane aby polepszyć rozróżnialność większości obiektów ziemskich. Uzyskano także lepszą precyzję radiometryczną stosując 8 bitowe (wartości piksela od 0 do 255) przetwarzanie danych analogowych na cyfrowe. Dzięki temu możliwa jest obserwacja różnic, które niezauważalne były przez MSS (konwersja 6 bitowa). Rozdzielczość geometryczna skanera TM wynosi 30 m, z wyjątkiem kanału 6 (termalny) w którym wynosi 120 m. W celu dopasowania wielkości piksela kanały 6 do innych pasm jest on przetwarzany do rozmiarów 30x30 m.
Zastosowanie
MSS
MSS wykorzystywany jest do analiz dużych obszarów, np. interpretacje geologiczne. Ze względu na ilość danych ze skanera MSS (kilka milionów scen), zgromadzonych w archiwach jest to bogate źródło informacji do długoterminowych badań zmian zachodzących w przyrodzie.
TM
Zwiększenie rozdzielczości spektralnej i radiometrycznej, w porównaniu do MSS, pozwala na zastosowanie zobrazowań TM do szeregu nowych analiz niedostępnych przy pomocy MSS. Podstawowym zastosowaniem zobrazowań TM są analizy użytkowania terenu landcover mapping. Mapy użytkowania terenu znajdują zastosowanie w wielu dziedzinach: planowanie przestrzenne, ochrona środowiska, rolnictwo.
Sceny satelitarne szeroko wykorzystywane są w badaniach wód przybrzeżnych. Pozwalają obserwować procesy sedymentacyjne w deltach rzek.
Możliwość rozdzielenia gleb od roślinności oraz określania wielkości biomasy okazuje się bardzo przydatne do identyfikacji i planowania plonów. Zróżnicowanie emisji promieniowania przez poszczególne gatunki roślin oraz rośliny zdrowe i chore pozwala monitorować obszary leśne oraz uprawne.
Bardzo szerokie zastosowanie znajdują zobrazowania TM w geologii. Na podstawie scen satelitarnych wyznaczane są struktury tektoniczne. Kanał 7 pozwala na analizę rodzajów skał i wyznaczanie granic pomiędzy nimi. Kanał termalny pozwala określić aktywność geotermalną.
Ochrona środowiska to następna dziedzina, w której analizy satelitarne są coraz częściej stosowane. Pozwalają na analizy zdrowotności roślinności, detekcję zanieczyszczeń oraz kontrolę stosowania środków chemicznych.
SPOT
Na początku 1978 roku rząd francuski podjął decyzje o wdrożeniu programu Systeme Pour l`observation de la Terre (SPOT). Zaprojektowany we francuskim Centre National d`Etudes Spatiales (CNES), SPOT rozrósł się do dużego projektu międzynarodowego ze stacjami kontroli naziemnej i centrami sprzedaży usytuowanymi w ponad 30 krajach.
Pierwszy satelita SPOT-1 został umieszczony na orbicie 21 lutego 1986 r. Był to pierwszy satelita zawierający liniowy szereg sensorów oraz wykorzystujący technikę skanowani pushbroom (wszystkie elementy skanera zamocowane są na stałe, a skanowanie odbywa się dzięki postępowemu ruchowi satelity). Sensory pracują w dwóch trybach: wielospektralnym (3000 sensorów) i panchromatycznym (6000 sensorów). Następcami wycofanego w grudniu 1990 roku satelity SPOT-1 są SPOT-2 i 3 wysłane na orbitę odpowiednio w 1990 i 1993 roku.
Nominalna orbita satelity SPOT-1, -2 i -3 znajduje się na wysokości 832 km. SPOT pozwala obserwować ten sam obszar na powierzchni Ziemi co 26 dni. Skaner satelity generuje zazwyczaj zobrazowania nadirowe (obszar na powierzchni Ziemi znajdujący się pionowo pod detektorami skanera). System optyczny satelity pozwala także wykonywać zobrazowania pozanadirowe (odchylone od pionu). Pozwala to obserwować wybrane obszary Ziemi co kilka dni (w zależności od szerokości geograficznej). Szerokość ścieżki obserwacji wynosi od 60 km, dla zobrazowań nadirowych, do 80 km dla poza nadirowych.
Sensory SPOT składają się z dwóch identycznych systemów HVR (high resolution visable) oraz urządzeń do zapisu taśm magnetycznych. Każdy HVR został zaprojektowany do pracy w trybie panchronatycznym (rozdzielczość 10 m) i wielospektralnym (rozdzielczość 20 m). W poniższych tabelach przedstawiono zakresy dla poszczególnych trybów pracy oraz ich parametry.
System pozwala na wykonywanie zobrazowań stereoskopowych (stereopary), czyli rejestracji dwóch pozanadirowych zobrazowań tego samego terenu obserwowanych z sąsiednich ścieżek satelity. Dla uzyskania obrazu stereoskopowego możliwe jest także wykorzystanie jednego zobrazowania nadirowego i drugiego odchylonego od nadiru. Stereopary służą do wykonania map wysokościowych (numeryczny model terenu).