1.FOTKA I JEJ KIERUNKI
Fotka-to nauka zajmująca się określaniem położenia , wymiarów i kształtu obiektów przestrzennych na podstawie ich obrazów fotograficznych lub cyfrowych. Nazwa pochodzi z j.greckiego i składa się z 3 części:
photos- światło; gramma - zapis; metro - pomiar, czyli oznacza to mierzenie i zapisywanie za pomocą światła.
Podział ze względu na miejsce wykonania zdjęcia:
FOTOGRAMETRIA
1)Naziemna - terrofotka
jednoobrazowa
dwuobrazowa
2) Lotnicza - aerofotka
jednoobrazowa
dwuobrazowa
Obecnie doszła jeszcze fotka satelitarna.
METODY OPRACOWANIA FOTOGRAMETRYCZNEGO
Analogowe- do wyznaczenia potrzebnych wielkości stosuje konstrukcje optyczno- mechaniczne
Analityczne- potrzebne wielkości wyznacza się stosując komputery na podstawie zależności geometrycznych zachodzących między obiektem a jego obrazem na zdjęciu oraz
Cyfrowe- opracowywane zdjęcie ma postać cyfrową. Autograf cyfrowy. NMT. Ortofotomapa
2.PODSTAWY TEORII ŚWIATŁA
Korpuskularna teoria rozchodzenia się światła (Newton) - wg tej teorii światło polega na ruchu maleńkich ciałek, korpuskuł, wybiegających ze źródła światła i poruszających się po liniach prostych. Korpuskuły te wpadają do oka, wywołując wrażenie światła
Już w 1690 r Huyohens twierdził, że rozchodzenie się światła polega nie na ruchu korpuskuł lecz na ruchu fal ale jego teoria na długo uległa zapomnieniu.
Początek XIX w dzięki badaniom Younga i Fresnela, zostały zobserwowane zjawiska świetlne których nie można wyjaśnić w oparciu o model korpuskularny:
-Dyfrakcja- światło nie rozchodzi się prostoliniowo w tych przypadkach, w których przechodzi przez bardzo małe otwory lub gdy napotyka przeszkody o rozmiarach mniejszych od dziesiętnych części milimetra.W tych przypadkach światło ulega ugięciu=dyfrakcji.
-Światło polega na rozchodzeniu się fal.
-Interferencja (dość. Younga)- zjawisko typowe dla ruchu falowego. W najprostszym przypadku jest to nakładanie się dwu ciągów fal, przy którym w pewnych miejscach następuje wzmocnienie a w innych osłabienie lub całkowity zanik drgań. Dwa źródła fal i dwa ciągi fal przez te źródła wywołane nazywamy spójnymi. Tylko fale spójne mogą interferować dając obraz interferencyjny nie zmieniający się w czasie. Uzyskanie In terferencji światła przez nałożenie się dwóch wiązek światła wychodzących z dwóch różnych źródeł jest niemożliwe. Różne źródła światła, oprócz laserów, są zawsze niespójne. Dość. Younga wykazuje falową naturę światła i prowadzi do wniosków:
a)wniosków faktu że szczeliny muszą być b.małe i położone blisko siebie wynika, że długości fal są b.małe;
b)wyraźny obraz interferencyjny światła powstaje jedynie wówczas, gdy obie szczeliny są oświetlone równocześnie tego samego źródła światła.
Zasada Huygensa- każdy punkt do którego dociera fala staje się źródłem nowej fali kulistej.
Einstein - Model budowy atomu: elektron nie może wysyłać fotonów. Elektron znajdujący się na wyższym poziomie może wysłać foton podczas zmiany orbity na niższą.
Przyjmuje się że światło to cząsteczki, których położenie jest przypadkowe. Ich rozchodzenie można uzna za faliste, czyli że ma naturę falową. Rozchodzi się drganiami przestrzennymi we wszystkich kierunkach.
3.PRZEKSZTAŁCENIA AFINICZNE NA PŁASZCZYŹNIE. RODZAJE I WŁASNOŚCI
Przekształcenie afiniczne (transformacja afiniczna) to przekształcenie w którym linie proste pozostaja prostymi, a równoległe równoległymi, kąty mogą ulegać zmianom oraz mogą być wprowadzone różne związki skalowe w różnych kierunkach. Przekształcenie afiniczne stosujemy przy obrocie, zmianie skali, przesunięciu itp. -to nie ma być izometria. Przesunięcie to przekształcenie geometryczne, którego obrazem punktu P jest punkt P' taki że P (x,y) ⇒jest P'(x', y') czyli x'= x+c1, y'= y+c2 gdzie c = [ c1,c2] jest wektorem przesuniecia. Symetria względem osi x'=x, y'=-y, x'=-x, y'=y, P'=AP A = [sinα -sinα] 1, [cosα cosα] 2, nieporozumienie w fotogrametrii to właśnie zmiana kierunku lotu samolotu. Obrót to przekształcenie geom. Które można złożyć z symetrii osiowych ( właściwość ta ma szczególne znaczenie przy nakładaniu zdjęć fotogram.) Jednokładność to przekształcenie geom. Które punktowi P przyporzdkowuje punkt P' taki że odcinek SP= k*SP' x'= k* (X-X0)+X0 ,y'= k* (y-y0)+y0 Powinowactwo- przekształcenie geom.w którym x'=x, y'=a*y
4.UKŁADY WSPÓŁRZ STOS W FOTOGRAM
Układ wsp terenowych XYZ definiowany jest jako prawoskrętny układ ortogonalny, Zazwyczaj oś X jest zgodna z kier osi szeregu, Początek może być dowolny ale zazwyczaj obierany jest w środku obszaru. Da osi Z dodatni kierunek zwrotu, w tym ukł są przedstawione ostateczne wyniki opracowania dzięki znajomości wsp punktów osnowy odwz na zdjęciach W tym układzie wiązka homologiczna jest definiowana elem XoYoZo i w fi ksi.
Układ wsp tłowych jest prawoskrętny układ ortogonalny, którego początek to środek rzutów a pł zdjęcia to x'y'. Przyjmuje się prostopadłość osi kamery w punk gł O', układ odniesienia jest przesunięty do płaszczyzny zdjęcia. Środek rzutów ma tu wsp (xo'yo'ck). Często początek układu jest przesuw do środka rzutów O, wtedy zdjęcie można rozpatrywać w położeniu negatywowym (czyli położenie kamery podczas fotografowania) i pozytywowym, dla którego jest zgodność zwrotów osi układu. W obu przypadkach te same punkty będą miały te same współrzędne x=xn, y=yn przy czym trzecia z=zn=-ck ma wartość ujemną ze względu na przeciwne kierunki osi z oraz osi kamery. W przypadku zdjęć naziemnych oś kamery ma ten sam zwrot co oś układu terenowego Y i dlatego wartość ck (odległość obrazowa) jest dodatnia.
Układ współ. transformowanych Xi'Yi'Z'i to układ którego środek jest w środku rzutów zdjęcia O, a osie są równoległe do lokalnego układu wsp terenowych X,Y,Z. Różni się on orientacją bo osie są równ do terenowego. Jeżeli kąty pomiędzy osiami układu transf i układu zdjęcia są=0 to układy pokrywają się ze soba i tym samym odpowiednie współrzędne są sobie równe,
Układ współrz fotogrametrycznych to pierwszy etap wyznaczania wsp terenowych. Używa się go w stereogrametrii naziemnej tzw. terenowy układ ortogonalny związany z osią kamery pomiarowej XF,YF,ZF.Za początek przyjmuje się punkt główny obiektywu kamert O na lewym stanowisku bazy. Pozioma oś YF pokrywa się z osią kamery pomiarowej. Oś XF jest pozioma i prostopadła do osi YF w punkcie O. Oś ZF jest pionowa.
5.KAMERY LOTNICZE
Kamera fotogrametryczna(pomiarowa kamera lotnicza)- urządzenie do pozyskiwania zdjęć lotniczych. Są to bardzo dokładne i skomplikowane układy mechaniczne, elektryczne, optyczne i elektroniczne.
Kamera składa się z:
Obiektywu (wolnego od dystorsji) wyposażonego w zmienną lub stałą przysłonę i urządzenie do regulacji czasu naświetlania filmu
Korpusu kamery, wyposażonego w szlifowaną ramkę tłową ze znaczkami tłowymi, a także uchwyt na kasety lub ładownik z materiałem negatywowym. Ramka tłowa zazwyczaj znajduje się w płaszczyźnie ogniskowej obiektywu i jest prostopadła do osi obiektywu.
Urządzeń umożliwiających realizację określonej orientacji zewnętrznej (GPS, celownik, komputer)
Kaset lub ładowników
Zawieszenia lub spodarki ze statywem
Dodatkowego wyposażenia (np. filtr, statoskop, numerator zdjęć)
Wymagania konstrukcyjne kamer pomiarowych:
-obiektyw wolny od zniekształceń geometrycznych obrazu (szczególnie dystorsji)
-obiektyw powinien mieć dużą rozdzielczość
-konstrukcja podzespołów powinna gwarantować uzyskanie ostrego obrazu w ruchu
-powinna naświetlać znaczki tłowe
-ramka tłowa powinna być prostopadła do osi kamery
-powinna posiadać urządzenie do orientowania osi optycznej
Podział kamer lotniczych ze względu na:
Geometrię zdjęcia- kadrowe, szczelinowe, panoramiczne
Kąt widzenia:
-wąskokątne 10°-20° ck= 610,950mm
-normalnokątne 50°-75° ck= 210,300mm
-szerokokątne 85°-95° ck= 152mm
-ponad szerokokątne 110°-130° ck= 88mm
Odległość obrazu
Wymiary zdjęcia:
-małoformatowe<18x18mmm,
-normalnego formatu 18x18, 23x23
-wielkoformatowe >23x23
Stopień automatyzacji (ręczne, półauto, auto)
Rodzaj podłoża materiału fotograficznego
Zakres promieniowania
Producenci: Wild, Carl Zeiss Jena, Opton
6.ZDJĘCIA LOTNICZE.
Zdjęcia lotnicze dzielimy na:
|Pionowe (v = 0) i prawie pionowe v<3°(najczęściej opracowywane)
Nachylone v>3°-obejmują duży obszar rzadko stosowane do celów kartograficznych (v<45°)
Perspektywiczne (o dużym nachyleniu z odfotografowaną linią horyzontu)-do celów przeglądowych i rozpoznawczych
Zbieżne (o niedużym nachyleniu, osie kamer zbieżne- każde zdjęcie pokrywa tę samą część terenu)
Zdjęcia wykonywane są szeregowo. Pokrycie wzajemne dwóch sąsiednich zdjęć w szeregu wynosi około 60% ich powierzchni choć stosowane są także inne powierzchnie pokrycia podłużnego.
ORIENTACJIA WEWNĘTRZNA
Zdjęcie fotograficzne jest rzutem środkowym. Do celów ważna jest precyzja rekonstrukcyjna tego rzutu. Rekonstrukcji tej dokonuje się na drodze graficznej, matematycznej. Elementy orientacji wewnętrznej pozwalają na zrekonstruowanie wiązki promieni podobnej do tej, jaka była w momencie fotografowania. Elementy orientacji wewn określają położenie wewnętrznego środka rzutów Ot w odniesieniu do płaszczyzny ramki tłowej. Są to:
odległość środka rzutów od płaszczyzny tłowej, zwana odległością obrazową kamery Ck,
położenie punktu głównego O' (w układzie współrzędnych tłowych), który jest punktem przebicia płaszczyzny tłowej prostą przechodzącą przez środek rzutów Ot i prostopadłą do płaszczyzny tłowej. Punkt ten nazywa się punktem głównym O'(xo,yo)
Dla zdjęć fotogrametrycznych, gdy odległość fotografowania jest na tyle duża, że obraz powstaje w płaszczyźnie ogniskowej, odległość środka rzutów od płaszczyzny tłowej jest równa, ogniskowej kamery.
Punkt główny O' wyznaczony jest przez przecięcie się linii łączących przeciwległe znaczki tłowe, umieszczone odpowiednio w płaszczyźnie Iłowej kamery i odfotografowanie na zdjęciach.
7.GEOMETRYCZNE I RADIOMETRYCZNE ZNIEKSZTAŁCENIA OBRAZU
Zniekształcenia liniowe.
Wpływ nachylenia zdjęcia
Punkt terenowy odwzoruje się na nachylonym zdjęciu lotniczym przesuniętym radialnie w kierunku punktu izocentrycznego, w porównaniu z jego odpowiednikiem na zdjęciu ściśle pionowym. Wartość przesunięcia wynosi:
Wpływ deniwelacji
Różnice terenowe powodują zniekształcenia perspektywistyczne punktów. Wpływ rozpatrzono na zdjęciach pionowych, gdyż wartość jest tego samego rzędu i wynosi:
Kierunek przesunięcia jest zgodny z kierunkiem do punktu nadirowego.
Zniekształcenia kątów o wierzchołkach w punktach głównych
Zniekształcenie spowodowane nachyleniem zdjęcia.
Gdy zdjęcie jest nachylone o wartość kąta v, to podczas pomiaru kierunków z punktu głównego, powstają błędy o wartości obliczanej z wzoru:
Zniekształcenie kierunku spowodowane deniwelacją terenu.
Przesunięcie radialne kierunków spowodowane deniwelacją terenu powoduje zniekształcenie kątowe kierunku mierzonego z punktu głównego. Wartość przesunięcia wynosi:
Czynniki zniekształcające geometrię zdjęcia:
dystorsja obiektywu
deformacja podłoża emulsji fotograficznej
wpływ niepłaskości emulsji fotograficznej
wpływ refrakcji atmosferycznej
Dystorsja obiektywu lub dystorsja radialna
jest cechą stałą dla danego obiektywu. Jest to zniekształcenie obrazu rotacyjno-symetryczne, które jest cechą konstrukcyjną obiektywu. Zniekształcenie to powoduje radialne przemieszczenie obrazów punktów w kierunku do lub od punktu głównego zdjęcia i jest wynikiem różnego powiększania obrazów leżących w różnych odległościach kątowych od osi obiektywu. Dystorsję opisuje się przez podanie wektora określonej długości i kierunku. Oś obiektywu zazwyczaj nie jest linią prostą (oscyluje wokół domniemanej osi). Jeżeli w czasie montażu obiektywu, jego elementy optyczne nie zostały precyzyjnie scentrowane lub uzyskały niewielkie pochylenie, to będą działały w przybliżeniu jak mały pryzmat powodując decentrację dystorsji. Taką dystorsję określa się dwiema składowymi: radialną i tangencjalną
- charakter i wielkość dystorsji obiektywu zależą od konstrukcji obiektywu i umiejscowienia w nim diafragmy
- powstaje na skutek nierówności kątów wejścia i wyjścia promieni z obiektywu,
- na jej wartość wpływa dokładność montażu układu optycznego,
- charakterystyka podawana jest w postaci krzywej dystorsji,
- można ją wyeliminować jedną z czterech metod:
1. zasada Porro - Koppego,
2. stosowanie płyt kompensacyjnych
3. zmiana odległości obrazowej
4. metoda analityczna
- powoduje przesunięcie obrazu punktu na płaszczyźnie tłowej; przesunięcie to można rozłożyć na dwie składowe:
I rzut przesunięcia dystorsyjnego na promień radialny - dystorsja radialna
- II dystorsja tangencjalna.
Ta druga jest mała w porównaniu do pierwszej.
Wielkość przesunięcia radialnego zależy od kąta osiowego i długości promienia radialnego
Δr = r - ck * tg α
Dystorsja jest znana już przy projektowaniu obiektywu i najczęściej jest pomijana, gdyż jest ona bardzo mała.
Deformacje podłoża emulsji fotograficznej
Używane jako nośniki emulsji światłoczułej błony acetanowe i poliestrowe, pod wpływem temperatury, wilgotności i czasu składowania kurczą się.
Uwzględnić je można przez porównanie pomierzonych odległości znaczków tłowych z ich nominalnymi wartościami. Ta czynność pozwala określić i uwzględnić deformację podłoża o charakterze afinicznym.
Wpływ niepłaskości emulsji fotograficznej
Emulsja nie stanowi idealnej płaszczyzny. Gdy emulsja odstaje od płaszczyzny ramki tłowej, to promień utworzy obraz w punkcie na powierzchni emulsji, zamiast być odwzorowany w punkcie płaszczyzny tłowej. Dalszemu pomiarowi podlega punkt, który jest rzutem ortogonalnym obrazu na płaszczyznę. W wyniku tej niepłaskości następuje radialne przesunięcie punktów zdjęcia względem ich położenia zgodnie z zasadą rzutu środkowego.
Wpływ refrakcji atmosferycznej
Promienie świetlne tworzące obraz fotograficzny, nie rozchodzą się po liniach prostych, lecz się załamują, gdy przechodzą przez warstwy powietrza o różnej gęstości. Wartość kątową tego przesunięcia nazywamy refrakcją atmosferyczną. Wielkość refrakcji zależy od stanu atmosfery. Wpływ refrakcji rośnie ku skrajom zdjęcia
Wpływ krzywizny Ziemi
Zakrzywienie Ziemi nie powoduje zniekształceń wiązki perspektywicznej. Jednak współrzędne geodezyjne są odniesione do przyjętej płaszczyzny odwzorowawczej, więc trzeba uwzględnić zakrzywienie Ziemi.
Aby przedstawić powierzchnię Ziemi na płaszczyźnie, należy wprowadzić poprawkę radialną, do pomiarów na zdjęciu
Wpływ krzywizny Ziemi rośnie szybko ku skrajom zdjęcia, jest wprost proporcjonalny do wysokości fotografowania i odwrotnie proporcjonalny do odległości obrazu.
8.PROTOKÓŁ KALIBRACJI KAMERY
Kalibracja kamer ma na celu dostarczenie charakterystyki metrycznej kamer fotogrametrycznych. Taka charakterystyka jest niezbędna do przeprowadzenia prac fotogrametrycznych fotogrametrycznych obejmuje następujące parametry:
Odległość obrazowa kamery (stała kamery- ck lub f)
Położenie punktu głównego kamery w stosunku do znaczków tłowych (xo,yo)
Radialna i tangencjalna dystorsja obiektywu
Odległość pomiędzy znaczkami tłowymi
Odchylenia ramki tłowej od płaszczyzny
Powyższe dane pozwalają na przeprowadzenie precyzyjnej geometrycznej rekonstrukcji wiązki promieni, która została zarejestrowana w kamerze podczas ekspozycji.. Metody kalibracji można podzielić na polowe i laboratoryjne. M. polwe wymagają budowy pola testowego lub wykorzystania wybranych gwiazd jako punktów o znanych współ. Do metod tych zalicza się metody statyczne i dynamiczne. Te ostatnie umożliwiają na przeprowadzanie kalibracji w czasie lotu. Najczęściej stosuje się jednak metody laboratoryjne, oparte na wykorzystaniu kalibratorów wielokolimatorowych lub goniometrów, czyli kalibrację przeprowadza się metodą fotograficzną lub wizualną.
9.STEREOKOMPERATOR
Stereokomparator reprezentuje instrumenty stereofotogrametryczne służące do tzw. opracowania punktowego zdjęć pomiarowych. Opracowanie punktowe polega na wyznaczeniu współrzędnych X, Y, Z wybranych punktów. Celem takiego opracowania może być wyznaczenie jedynie współrzędnych punktów, albo dalsze jeszcze wykorzystanie tych współrzędnych, np. do obliczenia powierzchni, kubatury lub sporządzenia mapy numerycznej.
Stereoskopowy pomiar zdjęć na stereokomparatorze umożliwia dokonanie przyporządkowania punktów homologicznych oraz wybór punktów wyznaczanych na etapie obserwacji. Stosowanie obserwacji monokularnej na monokom-paratorze wymaga wyboru jednoznacznych punktów lub, w przypadku ich braku, sygnalizacji punktów na obiekcie przed wykonaniem fotogramów.
Budowa:
- wózki
- sztywne obudowy
- płaszcz fotogramów
- obiektywy nieruchomej części układu optycznego
- obiektywy ruchomej części układu optycznego
W instrumentach służących do pomiaru położenia punktów na fotogramach wyróżnia się dwa zasadnicze podzespoły:
— system obserwacyjny,
układ pomiarowy instrumentu.
System optyczny to najczęściej podwójny mikroskop zogniskowany na górne płaszczyzny nośników, na które zakłada się mierzone zdjęcia. Okulary tego systemu umożliwiają obserwatorowi indywidualną regulację ostrości obrazu i ich rozstawu. Znajdujący się w systemie optycznym pozorny znaczek pomiarowy gwarantuje właściwą precyzję pomiarową.
Układ pomiarowy składa się z:
- nośników, na które kładzie się mierzone fotogramy (nośniki te mogą się obracać we własnej płaszczyźnie),
- układu prowadnic, definiujących materialne układy współrzędnych instrumentu, pozwalających na wykonanie
pomiaru. Właściwy pomiar odbywa się poprzez przesuwanie zdjęć na nośnikach względem nieruchomego
systemu obserwacyjnego lub odwrotnie.
9.STEKOMETR
Stecometr jest sterowanym cyfrowo instrumentem odtwarzającym matematycznie wiązki rzutu środkowego. Jest to instrument optyczno-mechaniczno -elektroniczny.
Optyczna część instrumentu — to układ optyczny wraz ze znaczkiem pomiarowym. Jest to układ podobny do układu optycznego stereokomparatora. Największą dokładność pomiaru otrzymuje się wtedy, gdy znaczek pomiarowy znajduje się na głównej płaszczyźnie pomiarowej lub z nią koincyduje.
Układ optyczny stekometru może być ustawiony na powiększenia 6 x, 9 x, 12x, i 18x . Średnica znaczka pomiarowego w płaszczyźnie obrazu wynosi 0,02; 0,04 lub 0,06 mm. Znaczek pomiarowy dzięki zastosowanym filtrom może mieć zabarwienie białe, zielone lub pomarańczowe przy jednoczesnej możliwości regulacji intensywności świecenia znaczka. Układ potencjometrów pozwala na niezależne ustawienie oświetlenia zdjęcia lewego i prawego, co jest istotne przy nierównym zaczernieniu zdjęć tworzących stereogram.
Płaszczyznę pomiarową wyznaczają dwie śruby prowadzące (po jednej dla każdej osi x oraz y), które w przypadku użycia przetworników obrotowo-impulsowych spełnią także funkcje pomiarowe. Kiedy stosuje się przetworniki liniowo-impulsowe wtedy płaszczyznę pomiarową wyznaczają liniały przetworników .
Mechaniczna część instrumentu, to nośniki zdjęć oraz system transportu tych nośników. Precyzja autografu analitycznego zależy głównie od projektu transportu nośników zdjęć oraz od systemu pomiarowego. Istotne znaczenie będą odgrywały prowadnice nośników zdjęć i system transportu (kulkowy, rolkowy, aerostatyczny). Kiedy stosuje się przetworniki liniowo-impulsowe, wtedy śruby prowadzące pełnią tylko rolę przesuwania i nastawiania nośnika zdjęcia w zadanym położeniu. Steruje tym nastawieniem komputer — najlepiej-z wykorzystaniem silników krokowych.
Korbki powodujące przesunięcie wózków obydwu zdjęć (ruch x) lub ruchomych części układu obserwacyjnego (ruch y), a także korbki nośników lewego zdjęcia (ruch py — q) i prawego zdjęcia (ruch px — p) działają jako pokrętła mechaniczne lub (po włączeniu sprzęgieł elektromagnetycznych) jako urządzenia sterujące przesuwami elektromechanicznymi. Ułatwia to i przyspiesza wykonywanie obserwacji i pomiarów punktów stereogramu.
Zakres pomiarowy dla x i y wynosi od 0 do 280 mm, dla px od -10 do +130 mm, dla py od -40 do +400 mm. Maksymalny format zdjęć 24 x 24 cm. Dokładność wszystkich odczytów liniowych oraz ich rejestracji wynosi lμm.
Elektronika stecometru może być rozwiązana w różny sposób, ale często stosowane jest rozdzielenie obliczeń i użycie różnych typów mikroprocesorów dostosowanych do zadań, jakie mają wykonywać. Dlatego do rozwiązywania większości zadań i pełnienia kontroli nad całokształtem obliczeń i poleceń musi być używany mikrokomputer. Ten centralny komputer gromadzi system operacyjny autografu analitycznego i organizuje przepływ informacji pomiędzy różnymi podzespołami autografu i koordynatografu automatycznego oraz obserwatorem. Jest to zatem komputer, który przeprowadza obliczenia zasadnicze, a ponadto pełni on funkcje kontrolne w stosunku do wszystkich mikroprocesorów. Współpraca człowiek-maszyna przebiega tutaj następująco: Impulsy z trzech podstawowych generatorów przekazywane są komputerowi przez obserwatora za pośrednictwem korb X i Y oraz tarczy Z. Zostają one wprowadzone do maszyny liczącej porcjami.
Program pracy autografu wykorzystuje kilka podprogramów, z których najważniejsze to:
1) program główny „main program", który realizuje cykl obliczania współrzędnych tłowych na podstawie przekazywanych kolejno przez obserwatora współrzędnych modelu i znanych elementów orientacji zdjęć;
2) podprogram centrowania nośników zdjęć i orientacji wewnętrznej;
3) podprogram orientacji wzajemnej;
4) podprogram orientacji bezwzględnej.
W rezultacie kolejnego wywoływania tych podprogramów do obliczeń, w pamięci komputera zostają umieszczone współrzędne środków rzutów, macierze obrotów zbudowane w wyniku obliczenia elementów orientacji wzajemnej i bezwzględnej oraz dane, niezbędne do wprowadzania korekcji współrzędnych tłowych. Dane te wraz z przekazywanymi do komputera impulsami pochodzącymi z trzech podstawowych generatorów, wykorzystywane są w cyklicznych obliczeniach współrzędnych tłowych lewego x', y' i prawego x", y" zdjęcia.
10.ZDJĘCIE LOTNICZE W POSTACI CYFROWEJ
Zdjęcie lotnicze w postaci cyfrowej powstaje dwoma sposobami:
I metoda (starsza stosowana w Polsce)
-badany teren jest fotografowany zwykłą kamerą lotniczą (rozdz. 3880dpi)
-zdjęcie lotnicze jest skanowane skanerem o rozdz. 1800dpi
-obraz cyfrowy dla opracowań fotogram. Posiada rozdz. 1300dpii zapisywany jest jako plik .bmp .tiff .gif
II metoda-zdjęcia terenu wykonywane są kamerą cyfrową o rozdzielczości 3880dpi. Powstaje obraz cyfrowy o tejże rozdzielczości (bez straty informacji)
OBRAZ CYFROWY - to raster matematyczny, czyli macierz, której każdy element opisuje jedną cechę określonego elementu obrazu. Najmniejszym elementem obrazu cyfrowego jest piksel. Cechą pikseli jest poziom szarości w przedziale 0 - 255 dla obrazu biało - czarnego (0 - czarny, 255 - biały). Człowiek rozróżnia 32 - 40 poziomów szarości. Podstawowym modelem kolorowego obrazu jest model RGB (red, green, blue). Każdy piksel obrazu modelu RGB jest wypadkową zniesienia tych trzech barw. Natężenie tych barw mierzy się podobnie jak w przypadku obrazu czarno - białego - poziomoami czerwoności, zieloności, niebieskości. Jakość obrazu cyfrowego zależy od ilości pikseli tworzących ten obraz.
Wielkość piksela wiąże się z rozdzielczością skanowania
-zdolność rozdzielcza obiektywu - jest to cecha obiektywu związana z możliwością rozróżnienia bardzo małych obiektów na zdjęciu. Im mniejsze obiekty widzimy, tym większa rozdzielczość. Najłatwiej określić przez obserwacje linii biało - czarnej. Zdolność różni się na krawędziach i w centrum.
-rozdzielczość emulsji fotograficznej - zależy od jej jakości i wynosi kilkadziesiąt linii podwójnych na milimetr.
-zdolność rozdzielcza zdjęcia
-rozdzielczość skanowania - dla takiego zdjęcia nie warto skanować z mniejszą rozdzielczością niż 20 mikrometrów.
R = XxY
R - rozdzielczość
X - ilość pikseli na osi poziomej
Y - ilość pikseli na osi pionowej
Geometryczna rozdzielczość układu negatyw+obiektyw = 3880 dpi, przy czym piksel ma wielkość 7mikrometrów.
Rozdzielczość podajemy w dpi - liczba punktów na cal.
11.FORMATY BMP i TIFF
Mapa bitowa
Obraz utworzony z ciągów pikseli lub kropek. Skanery oraz programy malarskie, takie jak Corel PHOTO-PAINT, generują obrazy w postaci map bitowych. W CorelDRAW rysunki tworzone są przy wykorzystaniu obiektów wektorowych. Mapy bitowe, zwane czasem obrazkami rastrowymi, składają się z punktów zwanych pikselami (ang. 'pixel' = 'picture element', czyli 'element obrazu'), których ułożenie i kolor decydują o wyglądzie obrazu. Po odpowiednim powiększeniu takiego obrazu widać pojedyncze, kwadratowe punkty, z których zbudowany jest cały obraz. Zwiększenie wielkości mapy bitowej powoduje, że zwiększane są także te punkty, przez co linie i krawędzie stają się postrzępione.
Oglądane z większej odległości kolory i kształty widoczne na mapach bitowych wyglądają jednak poprawnie. Ponieważ kolor każdego piksela jest definiowany niezależnie od pozostałych, można na mapach bitowych stosować realistyczne efekty specjalne, takie jak cieniowanie lub zwiększanie nasycenia kolorów wybranego obszaru, piksel po pikselu.
Zmniejszanie wielkości mapy bitowej również może spowodować zniekształcenia obrazu, ponieważ podczas takiej operacji część punktów jest usuwana z rysunku.
Także fakt, że mapa bitowa zbudowana jest z odpowiednio ułożonych pikseli, jest przyczyną tego, że nie można dowolnie operować (np. przesuwać) poszczególnymi jej częściami.
Przy pracy z mapami bitowymi ostateczna jakość obrazu zależy od rozdzielczości obrazu określonej w początkowej fazie tworzenia rysunku. Rozdzielczość jest to ogólny termin odnoszący się do ilości szczegółów, które są możliwe do rozróżnienia na rysunku, a także do ilości rozróżnialnych szczegółów obrazu (jego jakości), który został odczytany z urządzeń wejściowych bądź jest wysyłany do urządzeń wyjściowych (np. na ekran monitora). Przy pracy z mapami bitowymi rozdzielczość wpływa zarówno na ostateczną jakość obrazu, jak i wielkość pliku zawierającego taki obraz.
Praca z mapami bitowymi wymaga odpowiedniego planowania, ponieważ wybrana rozdzielczość takiej mapy bitowej z reguły nie jest później zmieniana. Niezależnie od tego, czy obraz będzie drukowany na drukarce o rozdzielczości 300 dpi, czy też na naświetlarce o rozdzielczości 1270 dpi, rozdzielczość mapy bitowej zawsze będzie taka, jaką określono przy jej tworzeniu (o ile rozdzielczość urządzenia drukującego nie jest mniejsza od rozdzielczości mapy bitowej).
Jeśli ostateczny wydruk ma wyglądać tak, jak wyświetlany na ekranie obraz, należy zwracać uwagę na związek pomiędzy rozdzielczością mapy bitowej a rozdzielczościami różnych urządzeń drukujących. Pozwala to na uzyskanie wyników o stałej jakości.
TIFF - Skrót od "Tagged Image File Format". Format pliku opracowany specjalnie z myślą o aplikacjach służących do składu publikacji i obsługiwany przez wszystkie aplikacje do edycji grafiki. W plikach TIFF można przechowywać dane w formacie RGB, CMYK I LAB, lecz nie duotone.
12.PALETY BARW
Monitor komputerowy wytwarza kolory poprzez mieszanie światła czerwonego z zielonym i niebieskim. Oznacza to, że miliony wyświetlanych na monitorze kolorów można opisać za pomocą udziałów koloru czerwonego, zielonego i niebieskiego. Wymienione trzy składowe koloru tworzą podstawę modelu kolorów RGB (Rczerwony, Gzielony i Bniebieski). Każdy z trzech kolorów składowych modelu RGB można opisać liczbą z zakresu od 0 do 255. Ponieważ model RGB oparty jest o kolory światła, większe wartości składowych odpowiadają większej ilości światła. Skutkiem tego im większe są wartości RGB, tym jaśniejsze kolory one opisują. Gdy wszystkie trzy wartości składowych osiągną maksimum, uzyskiwany jest kolor biały. Ponieważ w modelu RGB kolory tworzone są przez sumowanie światła, jest on nazywany addytywnym modelem kolorów.
Gdy wyświetlane na ekranie monitora kolory odtwarzane są na papierze, w celu ich uzyskania zamiast światła wykorzystywany jest atrament. Najczęściej spotykanym sposobem uzyskiwania kolorowych obrazów na papierze jest odpowiednie wymieszanie atramentu niebieskozielonego, purpurowego, żółtego i czarnego. Kolory te są składowymi koloru modelu CMYK (Cniebieskozielony, Mpurpurowy, Yżółty i Kczarny). Zwykle każdy z kolorów składowych modelu CMYK opisuje się za pomocą skali procentowej (od 0 do 100).
Generowanie koloru za pomocą atramentu polega na odbijaniu określonych kolorów światła i jednoczesnym absorbowaniu innych. Ciemniejszy atrament absorbuje więcej światła. Ponieważ model kolorów CMYK oparty jest na kolorach atramentu, im większe wartości procentowe kolorów składowych, tym ciemniejszy kolor one opisują. Teoretycznie, po zmieszaniu 100% koloru niebieskozielonego, 100% purpurowego i 100% żółtego powinno się uzyskać kolor czarny. W rzeczywistości należy stosować również czarny atrament w celu skompensowania ograniczeń pozostałych atramentów. Ponieważ kolory modelu CMYK powstają w wyniku pochłaniania światła, jest on nazywany subtraktywnym modelem kolorów.
Modele RGB i CMYK oparte są na określonych metodach generowania kolorów. Istnieją jednak inne modele kolorów, które nie bazują na metodach reprodukcji, lecz udostępniają dodatkowe sposoby pracy z kolorami. Dostępnych jest kilka takich alternatywnych modeli kolorów, z których można skorzystać. Najpopularniejszym z nich jest model kolorów HSB.
Model kolorów HSB oparto na wartościach określających barwę, nasycenie i jaskrawość koloru. Barwa jest podstawą koloru. Nasycenie określa siłę koloru, bądź jego odległość od koloru szarego. Jaskrawość odpowiada udziałowi bieli w danym kolorze. Kolor o nasyceniu równym 0 jest odcieniem szarości (z zakresu od bieli od czerni). Kolor o jaskrawości równej 0 jest kolorem czarnym, a o jaskrawości 100kolorem białym. Ponieważ w modelu HSB nie jest stosowane mieszanie kolorów składowych, odnalezienie za jego pomocą właściwego koloru może okazać się łatwiejsze.
13,ORIENTACJA BEZWZGLĘDNA
Elementy orientacji bezwzględnej: przesunięcia x, y, z, kąt obrotu względem układu geodezyjnego, oraz współczynnik zmiany skali mx, my, mz
Orientacja bezwzględna polega na doprowadzeniu modelu do założonej skali i poziomu, gdyż model uzyskany w wyniku orientacji wzajemnej nie ma skali i ma przypadkową orientację w przestrzeni. Poziomowanie modelu polega na doprowadzeniu do równoległości płaszczyznę XOY autografu do pł. XGOYG układu odniesienia. Do skalowania modelu potrzebne są dwa punkty o znanych współrzędnych geodezyjnych. Małe nachylenie pozwala na porównanie rzutów poziomych odcinka. Po zmierzeniu współrzędnych fotogrametrycznych obu końców odcinka, oblicza się współczynnik skali:
gdzie:
l - długość odcinka terenowego wyrażona w odpowiedniej skali
l' = długość odcinka w autografie
mmod - mianownik skali budowanego modelu
XG, YG - przyrosty współrzędnych w układzie geodezyjnym
X, Y - przyrosty współrzędnych w autografie
Współczynnik skali będzie bliski 1, gdy baza na etapie czynności wstępnych została prawidłowo określona.
Po skalowaniu należy model spoziomować. Nachylenie modelu rozkłada się na dwie składowe: nachylenie podłużne , i poprzeczne . Do wyznaczenie tych kątów, potrzebna jest znajomość minimum trzech punktów o znanych wysokościach geodezyjnych, które powinny tworzyć trójkąt, obejmujący jak największą powierzchnię strereogramu.
13. WYZNACZENIE WSPÓŁCZYNNIKÓW TRANSFORMACJI Z UKŁADU WSPÓŁRZĘDNYCH PIKSELOWYCH DO TŁOWYCH.
-współrzędne znaczków tłowych bierzemy z protokołu kalibracji kamery.
|
|
|
|
C(i, j) i = 0,1,2,…n, j = 0,1,2,…n
I |
X'i |
Y'i |
x |
Y |
1 |
-100 |
-100 |
0 |
10000 |
2 |
100 |
100 |
10000 |
0 |
3 |
-100 |
100 |
0 |
0 |
4 |
100 |
-100 |
10000 |
10000 |
5 |
|
|
|
|
6 |
|
|
|
|
7 |
|
|
|
|
8 |
|
|
|
|
wystarczą trzy znaczki
x' = ax + by + c
y' = dx + ey + f
-100 = a*0 + b*10000 +c
-100 = d*0 + e*10000 +f
100 = a*10000 + b*0 +c
100 = d*10000 + e*0 +f
-100 = a*0 + b*0 +c
100 = d*0 + e*0 +f
a = 0,02 c = -100 e = -0,02
b = 0 d = 0 f = 100
x' = 0,02*x + 0*y - 100
y' = 0*x -0,02*y + 100
Skala (0,02, -0,02) bliska jedynki
Obrót (0,0) bliski zeru
Zmiana znaku przy y bo następuje symetria.
Ze względu na błędy estymatorów lepiej liczyć z :
X' = a1(x-x) + b1(y-y) +c1
y' = d1(x-x) + e1(y-y) +f1
14.EFEKT STEREOSKOPOWY
Obserwacja dwuoczna , która pozwala na spostrzeżenie głębokości (odległości) nazywa się stereoskopowym widzeniem. Powstanie efektu stereoskopowego wynika ze zdolności człowieka do przestrzennego widzenia.
Z geometrycznego punktu widzenia, jednoczesna obserwacja dwuoczna jest przestrzennym wcięciem obserwowanego punktu z końców bazy danych. W stereofotografii takie przestrzenne wcięcie w przód, realizowane jest przez fotografowanie tego samego obiektu z dwóch końców bazy. Końcami bazy fotografowania są środki rzutów obiektywu kamery pomiarowej w momentach wykonywania zdjęcia.
Podstawą tworzenia obrazu stereoskopowego jest równoczesna obserwacja tego samego obiektu z dwóch końców bazy. Jeżeli posłużymy się dwoma aparatami fotograficznymi to promienie przechodzące przez skrajne punkty przedmiotu utworzą dwie płaszczyzny zdjęć. Różnica długości jednoimiennych odcinków nazywane jest paralaksą liniową.
Aby uzyskać sztuczny efekt stereoskopowy ze zdjęć fotograficznych należy spełnić następujące warunki:
1.Zdjęcia muszą być wykonane z dwóch stanowisk
2.Obydwa zdjęcia powinny być wykonane w podobnej skali - nie różniącej między sobą więcej niż 16%.
3.Każde oko powinno obserwować odpowiednie zdjęcie.
4.Zdjęcia powinny być obserwowane w płaszczyźnie rdzennej(takiej która zawiera obydwa środki rzutów S1 i S2 i dowolny punkt A
5.Promienie rzutujące zdjęć nie mogą przecinać się pod kątem >15°-wynika to ze stosunku bazy ocznej (bo= ok.65mm) do odległości najlepszego widzenia (Ymin= ok. 250mm). Przy odległości <Ymin następuje zanikanie stereoskopowego widzenia, a kąty osi optycznych oczu są wtedy >15°.
6.Prowadzenie obserwacji zdjęć z odległości najlepszego widzenia.
Dzięki pomiarom stereoskopowym uzyskana dokładność jest 1,8 x większa niż przy pomiarach monekularnych.
WIDZENIE PRZESTRZENNE
Oczy człowieka znajdują się w stałej od siebie odległości zwanej bazą oczną bo= odległości między środkami
obrotu oczu S' i S” [bo=(58-72mm)].Wprzypadku obserwowania bardzo odległych obiektów (np.gwiazdy), osie
optyczne oczu S'O' i S”O” są do siebie równoległe i prostopadłe do bazy. Obraz gwiazdy otrzymamy w punktach
głównych oka lewego prawego.. W skutek tego obydwa obrazy zleją się w mózgu w jeden przestrzenny punkt do
którego odległości nie sposób określić, ponieważ przecięcie osi optycznych następuje w nieskończoności. Z tego względu wszystkie gwiazdy wydają się być jednakowo oddalone od obserwatora. Jeżeli obserwujemy punkty w odległości skończonej, to osie optyczne są zbieżne (konwergentne). Obserwując dwa punkty (A i C). Ponieważ baza oczna jest mała, wcięcia otrzymujemy pod ostrym kątem, więc określenie odległości jest mało dokładne (rzędu 10-20%). Jeżeli dowolny punkt będzie znajdował się w odległości mniejszej od maks głębokości (odległości) widzenia osie oczu zbiegające się w tym punkcie utworzą kąt paralaktyczny zwany też paralaksą kątową. Jej wielkość także odbierana jest przez obserwatora w sposób przybliżony. Dopiero różnica dwóch paralaks kątowych percypowana jest o wiele dokładniej i na jej podstawie możemy określić wzajemne rozmieszczenie punktów w przestrzeni.. Różnica ta wywołuje u obserwatora tzw paralaksę fizjologiczną, która powoduje w mózgu odczucie wzajemnego przestrzennego rozmieszczenia punktów obserwowanych (głębokość).
STEREOGRAM LOTNICZY
Stereogram lotniczy tworzy para zdjęć lotniczych wykonanych w podobnej skali (różnica do 16%), które mają zwykle pokrycia wzajemne około 60% ich powierzchni choć stosowane są także inne powierzchnie pokrycia podłużnego.
15.ORIENTACJA WZAJEMNA STEREOGRAMU
Ma ona na celu doprowadzenie pary zdjęć do takiego położenia jakie zajmowały one w momencie naświetlenia. W takim położeniu bowiem promienie jednoimienne należące do dwóch wiernie zrekonstruowanych wiązek, przecinają się tworząc model optyczny podobny do przedmiotu. Orientacji wzajemnej dokonuje się tylko wtedy gdy nie znane są elementy o. zewnętrznej. Do jej przeprowadzenia wymagany jest pomiar 6 punktów (5 elementów=5równań + 1 równanie do wyrównania). Elementy orientacji wzajemnej moża zdefiniować w różny sposób w zależności od przejętych warunków początkowych.
Elementy o. wzajemnej
Baza pozioma i ω=0 (oś kamery I-go zdjęcia leży w płaszczyźnie pionowej)
- ϕ' i ϕ”- kąt nachylenia podłużnego lewego prawego zdjęcia
-χ' i χ” - kąt skręcenia lewego i prawego zdjęcia
- ω”- kąt nachylenia poprzecznego prawego zdjęcia.
Za początki układów współ. X1,y1,z1 oraz x2,y2,z2 przyjmuje się środki rzutów 2 sąsiednich zdjęć O1 i O2
Przy czym zakłada się pionowość osi kamery zd.I-szego oraz równoległość osi ukł. Lok. Do osi tłowych x', y'
Zdjęcia nr1 to elementy orientacji są takie:
Δϕ-różnica kątów nachylenia podłużnego określona w płaszczyźnie x2, z2
Δω-różnica kątów nachylenia poprzecznego określona w płaszczyźnie ,y2,ck
Δχ- różnica kątów skręcenia określona w płaszczyźnie drugiego zdjęcia
β= arctgbz/bx-kąt nachylenia bazy b względem przyjętego układu odniesienia (oś pierwszego zd pionowa zatem pł x1,y1, pozioma)
α=arctgby/bx- kąt zwrotu bazy b w stosunku do przyjętego układu x1,y1,z1 dla I-szego zdjęcia
16. OBRAZY EPIPOLARNE.
Fotogrametria cyfrowa pojawiła się w 1976r. Kiedy opracowano teorię obrazów epipolarnych ( normalnych) - obrazy stają się pionowymi.
Zdjęcia epipolarne - prawe zdjęcie rzutujemy na obraz zdjęcia lewego i obserwacja stereoskopowa może być przeprowadzana na jednym ekranie.
17.ORIENT. BEZWZGLĘDNA MODELU. PRZEKSZTAŁCENIE AFINICZNE W PRZESTRZENI
R=RO+λA r gdzie RoT= [ X0, Y0, Z0] - jest wektorem przesunięcia, λ- jest mianownikiem skali, A macierz przekształceń, r T= [x, y, z] X =X0+λ( a11x + a12y+a13z); Y =Y0+λ( a21x + a22y+a23z); Z=Z0+λ( a31x + a32y+a33z), tak więc mamy 13 elementów orientacji w modelu ogólnym a tak naprawdę tj. ich 7: X0, Y0, Z0, λ,ω,ϕ,χ, w danym punkcie X0 mamy zależności: f (X0+ΔX)= f(X0) +[df/ d(X0)] ΔX. Wprowadzając ostatecznie równania poprawek : vx= ΔX0+ZΔϕ - YΔχ+XΔλ- lx ; vy= ΔY0+ZΔω +XΔχ+YΔλ - ly ; vz= ΔZ0- XΔϕ +YΔω+ZΔλ - lz;
lx= x-X0 -λX ; ly= y-Y0 -λY ; lz= z-Z0 -λZ; tj. przekształcenie afiniczne czyli ma przekształcenie odwrotne a więc: r = A-1(R-R0) 1/λ, r = r0 +λ'A' R0 aby rozwiązać elementy orientacji bezwzględnej wystarczyłyby 2 fotopunkty i jedna współrzędna w praktyce powinno być 5 punktów na obszarze podwójnego pokrycia zdjęć. Zapis analityczny rzutu środkowego-wzór na przekształcenie rzutowe: x' = AX+BY+ CZ+D/IX+JY+KZ+1
y' = EX+FY+ GZ+H/IX+JY+KZ+1. Wzórna przekształcenie rzutowe płaszczyzny na płaszczyznę ( płaski teren): x' = AX+BY+ C/GX+HY+1; y' = DX+EY+ F/GX+HY+1; jeżeli przyjmiemy że G=H=0, x' = AX+BY+ C; y' = DX+EY+ F
18. ORIENTACJA ZEWNĘTRZNA- PRZEKSZTAŁCENIE RZUTOWE
Za pomocą elementów orientacji zewnętrznej ( 6 elementów) możemy zrekonstruować położenie wiązki promieni jaka w momencie naświetlania utworzyła obraz w trójwymiarowej przestrzeni. Elementy te to 3 współrzędne (X0, Y0, Z0)- określające położenie środka rzutów (zewnętrznego punktu głównego obiektywu) oraz trzy kąty. Kąt υ - kąt nachylenia zdjęcia, zwany także kątową odległością nadirową, jest zawarty w płaszczyżnie pionowej pomiędzy osią kamery O' a prostą pionową NN' przechodzącą przez środek rzutów O, kąt ξ - jest to kąt kierunkowy osi kamery, który jest zawarty pomiędzy rzutem osi kamery na płaszczyznę X,Y, aprostą równoległą do osi X przechodzącą przez punkt nadirowy N, χ -kat skręcenia zawarty w płaszczyźnie zdjęcia pomiędzy linią największego spadku zdjęcia O'N' (główną pionową zdjęcia a jedną z dodatnich osi współrzędnych tłowych,x, y). Usytuowanie osi kamery w przestrzeni, wyrażone za pomocą kątów ξ,υ można także określić za pomocą nachylenia poprzecznego ω i podłużnego ϕ. PRZEKSZTAŁCENIE RZUTOWE x =a11(X-X0)+a12(Y-Y0)+a13(Z-Z0), y=a21(X-X0)+a22(Y-Y0)+a23(Z-Z0), z =a31(X-X0)+a32(Y-Y0)+a33(Z-Z0),
X =t*x', y = t*y' , z = t*z'→ x' = (1/t)*x, y' = (1/t)*y, z' = (1/t)*z, w naszym przypadku z' = -ck, czyli -ck = (1/t)*z →(1/t)*c = ck/z, skąd x' = -ck (x/z) i y' = -ck(y/z)
↔ x' = -ck { [a11(X-X0)+a12(Y-Y0)+a13(Z-Z0)] / [a31(X-X0)+a32(Y-Y0)+a33(Z-Z0)]}
y' = -ck { [a21(X-X0)+a22(Y-Y0)+a23(Z-Z0)] / [a31(X-X0)+a32(Y-Y0)+a33(Z-Z0)]}
Tak więc wyróżniamy 6 elementów orientacji zewnętrznej - (X, Y, Z)→(X', Y) zdjęcia X0, Y0, Z0, λ, Ω, ϕ
19.AEROTRIANGULACJA
Aerotriangulacja - technologia kameralnego zagęszczenia osnowy. Na poziom aerotriangulacji wpływają:
-rodzaj stosowanego sprzętu pomiarowego
-metoda zasadniczego wyrównania
-stosowane metody wyznaczania punktów osnowy polowej
-uwzględnianie dodatkowych obserwacji geodezyjnych.
Właściwe wykonanie aerotriangulacji powinny poprzedzić prace przygotowawcze, definiujące na zdjęciach punkty wiążące i przejściowe, których położenie w zewnętrznym układzie odniesienia zostanie określone w tym zadaniu.
W efekcie finalnym definiuje na każdym stereogramie grupę nowo wyznaczonych punktów, dla których są określone współrzędne terenowe w układzie zdefiniowanym przez grupę punktów osnowy polowej. Jednocześnie wyznaczane są elementy orientacji zewnętrznej zdjęć lub elementy orientacji bezwzględnej modeli w bloku, które mogą być wykorzystywane na etapie rekonstrukcji modeli fotogrametrycznych przed procesem pomiaru NMT. Precyzja wyznaczenia punktów wiążących zależy od:
-konfiguracji i sposobu wykonania zdjęć,
-liczby i lokalizacji punktów osnowy polowej w bloku,
-sygnalizacji punktów osnowy i wyznaczanych,
-dokładności pomiaru terenowego punktów osnowy.
Aerotriangulacja powinna być kontrolowana w oparciu o punkty kontrolne pomierzone w bloku zdjęć w ilości równej 10 % stosowanej liczby punktów osnowy. Punkty te należy wybierać na obrzeżu wyrównanego bloku
20,NUMERYCZNY MODEL TERENU
NMT- jest numeryczną, punktową reprezentacją wysokości topograficznej powierzchni terenu, wraz z algorytmem interpolacyjnym umożliwiającym odtworzenie jej kształtu w określonym obszarze. Zwykle NMT jest reprezentowany przez punkty, rozłożone regularnie lub nieregularnie na powierzchni terenu i uzupełnione dodatkowo punktami opisującymi morfologiczne formy terenu.
Punkty mogą być uporządkowane w jednej z dwóch struktur:
-TIN - nieregularna sieć trójkątów wraz z topologią. Wierzchołki trójkątów opierają się na punktach pomiarowych
-Regularna sieć uzupełniona o punkty reprezentujące formy terenowe, takie jak:
a)linie szkieletowe - grzbiety, cieki
b)linie nieciągłości - skarpy, urwiska
c)powierzchnie wyłączeń - wody, budynki
d)ekstremalne pikiety - wierzchołki, dna
Dane źródłowe do generowania NMT można uzyskać wykorzystując:
-bezpośredni pomiar terenowy
-technologia kartograficzna
-technologia fotogrametryczna, a w tym:
a)opracowanie autogrametryczne
b)opracowanie cyfrowe
c)lotniczy skaner laserowy
d)opracowanie zdjęć i obrazów satelitarnych.
Dokładność
błąd średni wysokości wyinterpolowanej z wynikowego NMT, który składa się z :
-błędów danych pomiarowych
-wielkość oczka siatki determinująca reprezentatywność powierzchni terenu przez węzły siatki NMT
-czynnik opisujący charakter terenu
Przyjmuje się:
a = 0,004 - 0,007 dla terenów łatwych
a = 0,010 - 0,020 dla terenów średnich
a = 0,022 - 0,044 dla terenów trudnych
21.ORTOFOTOMAPA
Ortofotografia - zdjęcie, którego płaszczyzna projekcji jest równoległa do płaszczyzny odniesienia, a wszystkie promienie są prostopadłe do tych dwóch płaszczyzn. Odległości mierzone na takim zdjęciu są poprawne, niezależnie od różnic wysokości.
Wykonanie ortofotomapy polega na:
-skanowaniu zdjęcie(Zdjęcie zapisywane jest w formacie .bmp .tiff .gif 110MB-zd. Czarno-białe, 330Mb-zdjęcie kolorowe, zdjęcie posiada rozdzielczość 3880dpi po zeskanowaniu 1300dpi do opracowań fotogrametrycznych)
-odtworzeniu orientacji zewnętrznej zdjęć
-pomierzeniu NMT
-przetworzeniu cyfrowym zdjęć - generowanie ortofotografii
-mozaikowaniu ortofotografii
-redakcji ortofotomapy
-dystrybucji produktu finalnego
Obraz cyfrowy jest tablicą składającą się z pikseli poukładanych w kolumny i wiersze, charakteryzujących się wartością radialną. Jednym z podstawowych procesów produkcji ortofotomap jest transformacja tablicy zeskanowanego zdjęcia pomiędzy układem kamery i terenowym układem współrzędnych (przepróbkowanie- resampling). Proces ten jest głównym zadaniem w procesie tworzenia cyfrowej ortofotomapy. Definiujemy orto, jej wielkość i zakres w układzie terenowym. Zając rozdzielczość, rozdzielczość więc i rozmiar piksela - nowego kreowanego rastra, możemy wyznaczyć na podstawie oryginalnego zdjęcia (zeskanowanego) na podstawie algorytmu przyporządkowania wartości radiometryczne nowych tworzonych pikseli następującymi metodami:
Najbliższego sąsiada (nearest neighbour)- najprostsza metoda nadająca pikseloi wyznaczanemu wartość radiometryczną taką jak wartość piksela z oryginalnego obrazu, którego środek znajduje się najbliżej wyznaczanego piksela. Wada: W najgorszym przypadku elementy są przesunięte o pół piksela, co powoduje pogorszenie obrazu lini na ortofoto (ząbki). Używając tej metody trzeba brać większą liczbę pikseli do wyznaczenia, by uniknąć tracenia pikseli z oryginału.
Interpolacji dwuliniowej (bilinear transformation)-wartość radiometryczna określana jest na podstawie 4 sąsiadujących pikseli. Wartości pikseli są sztuczne i nie odpowiadają jaskrawości realnych obiektów.
Cubic convolution-wartość piksela jest wartością ważoną obliczaną na podstawie 16 otaczających pikseli , przy czym waga jest odwrotnie proporcjonalna do do odległości piksela wynikowego.
Wielomianów Langrange'a- W. piksela jest wyznaczana w wyniku interpolacji z 16 najbliższych pikseli
Spline przestrzennych- W. piksela jest wyznaczana w wyniku interpolacji z 16 najbliższych pikseli
22. TELEDETEKCJA
Teledetekcja to zdalne badanie środowiska przyrodniczego. Ogólnie wyróżnia się dwa systemy rejestracji danych: a) fotograficzny- przy pomocy kamery pomiarowej i emulsji fotograficznej, b) elektroniczny - za pomocą skanera ( rejestruje proces odbijania się energii i zapisuje dane otrzymane na taśmie magnetycznej, lub bezpośrednio są transmitowane na ziemię,- za pomocą radaru bocznego wybierania obrazu SLAR) Skanery i radary stosowane są w trudnych warunkach pogodowych przy dużym zachmurzeniu oraz przy pokryciu terenów roślinnością, przez którą chce się zobrazować powierzchnię ziemi. Obrazy skanerowe i radarowe ze względu na mniejszą jeszcze rozdzielczość w porównaniu ze zdjęciem lotniczym i większe trudności w identyfikacji szczegółów terenowych, nie są stosowane do opracowywania map w większych skalach.