5099


1.FOTKA I JEJ KIERUNKI

Fotka-to nauka zajmująca się określaniem położenia , wymiarów i kształtu obiektów przestrzennych na podstawie ich obrazów fotograficznych lub cyfrowych. Nazwa pochodzi z j.greckiego i składa się z 3 części:

photos- światło; gramma - zapis; metro - pomiar, czyli oznacza to mierzenie i zapisywanie za pomocą światła.

Podział ze względu na miejsce wykonania zdjęcia:

FOTOGRAMETRIA

1)Naziemna - terrofotka

2) Lotnicza - aerofotka

Obecnie doszła jeszcze fotka satelitarna.

METODY OPRACOWANIA FOTOGRAMETRYCZNEGO

Analogowe- do wyznaczenia potrzebnych wielkości stosuje konstrukcje optyczno- mechaniczne

Analityczne- potrzebne wielkości wyznacza się stosując komputery na podstawie zależności geometrycznych zachodzących między obiektem a jego obrazem na zdjęciu oraz

Cyfrowe- opracowywane zdjęcie ma postać cyfrową. Autograf cyfrowy. NMT. Ortofotomapa

2.PODSTAWY TEORII ŚWIATŁA

-Dyfrakcja- światło nie rozchodzi się prostoliniowo w tych przypadkach, w których przechodzi przez bardzo małe otwory lub gdy napotyka przeszkody o rozmiarach mniejszych od dziesiętnych części milimetra.W tych przypadkach światło ulega ugięciu=dyfrakcji.

-Światło polega na rozchodzeniu się fal.

-Interferencja (dość. Younga)- zjawisko typowe dla ruchu falowego. W najprostszym przypadku jest to nakładanie się dwu ciągów fal, przy którym w pewnych miejscach następuje wzmocnienie a w innych osłabienie lub całkowity zanik drgań. Dwa źródła fal i dwa ciągi fal przez te źródła wywołane nazywamy spójnymi. Tylko fale spójne mogą interferować dając obraz interferencyjny nie zmieniający się w czasie. Uzyskanie In terferencji światła przez nałożenie się dwóch wiązek światła wychodzących z dwóch różnych źródeł jest niemożliwe. Różne źródła światła, oprócz laserów, są zawsze niespójne. Dość. Younga wykazuje falową naturę światła i prowadzi do wniosków:

a)wniosków faktu że szczeliny muszą być b.małe i położone blisko siebie wynika, że długości fal są b.małe;

b)wyraźny obraz interferencyjny światła powstaje jedynie wówczas, gdy obie szczeliny są oświetlone równocześnie tego samego źródła światła.

Przyjmuje się że światło to cząsteczki, których położenie jest przypadkowe. Ich rozchodzenie można uzna za faliste, czyli że ma naturę falową. Rozchodzi się drganiami przestrzennymi we wszystkich kierunkach.

3.PRZEKSZTAŁCENIA AFINICZNE NA PŁASZCZYŹNIE. RODZAJE I WŁASNOŚCI

Przekształcenie afiniczne (transformacja afiniczna) to przekształcenie w którym linie proste pozostaja prostymi, a równoległe równoległymi, kąty mogą ulegać zmianom oraz mogą być wprowadzone różne związki skalowe w różnych kierunkach. Przekształcenie afiniczne stosujemy przy obrocie, zmianie skali, przesunięciu itp. -to nie ma być izometria. Przesunięcie to przekształcenie geometryczne, którego obrazem punktu P jest punkt P' taki że P (x,y) ⇒jest P'(x', y') czyli x'= x+c1, y'= y+c2 gdzie c = [ c1,c2] jest wektorem przesuniecia. Symetria względem osi x'=x, y'=-y, x'=-x, y'=y, P'=AP A = [sinα -sinα] 1, [cosα cosα] 2, nieporozumienie w fotogrametrii to właśnie zmiana kierunku lotu samolotu. Obrót to przekształcenie geom. Które można złożyć z symetrii osiowych ( właściwość ta ma szczególne znaczenie przy nakładaniu zdjęć fotogram.) Jednokładność to przekształcenie geom. Które punktowi P przyporzdkowuje punkt P' taki że odcinek SP= k*SP' x'= k* (X-X0)+X0 ,y'= k* (y-y0)+y0 Powinowactwo- przekształcenie geom.w którym x'=x, y'=a*y

4.UKŁADY WSPÓŁRZ STOS W FOTOGRAM

Układ wsp terenowych XYZ definiowany jest jako prawoskrętny układ ortogonalny, Zazwyczaj oś X jest zgodna z kier osi szeregu, Początek może być dowolny ale zazwyczaj obierany jest w środku obszaru. Da osi Z dodatni kierunek zwrotu, w tym ukł są przedstawione ostateczne wyniki opracowania dzięki znajomości wsp punktów osnowy odwz na zdjęciach W tym układzie wiązka homologiczna jest definiowana elem XoYoZo i w fi ksi.

Układ wsp tłowych jest prawoskrętny układ ortogonalny, którego początek to środek rzutów a pł zdjęcia to x'y'. Przyjmuje się prostopadłość osi kamery w punk gł O', układ odniesienia jest przesunięty do płaszczyzny zdjęcia. Środek rzutów ma tu wsp (xo'yo'ck). Często początek układu jest przesuw do środka rzutów O, wtedy zdjęcie można rozpatrywać w położeniu negatywowym (czyli położenie kamery podczas fotografowania) i pozytywowym, dla którego jest zgodność zwrotów osi układu. W obu przypadkach te same punkty będą miały te same współrzędne x=xn, y=yn przy czym trzecia z=zn=-ck ma wartość ujemną ze względu na przeciwne kierunki osi z oraz osi kamery. W przypadku zdjęć naziemnych oś kamery ma ten sam zwrot co oś układu terenowego Y i dlatego wartość ck (odległość obrazowa) jest dodatnia.

Układ współ. transformowanych Xi'Yi'Z'i to układ którego środek jest w środku rzutów zdjęcia O, a osie są równoległe do lokalnego układu wsp terenowych X,Y,Z. Różni się on orientacją bo osie są równ do terenowego. Jeżeli kąty pomiędzy osiami układu transf i układu zdjęcia są=0 to układy pokrywają się ze soba i tym samym odpowiednie współrzędne są sobie równe,

Układ współrz fotogrametrycznych to pierwszy etap wyznaczania wsp terenowych. Używa się go w stereogrametrii naziemnej tzw. terenowy układ ortogonalny związany z osią kamery pomiarowej XF,YF,ZF.Za początek przyjmuje się punkt główny obiektywu kamert O na lewym stanowisku bazy. Pozioma oś YF pokrywa się z osią kamery pomiarowej. Oś XF jest pozioma i prostopadła do osi YF w punkcie O. Oś ZF jest pionowa.

5.KAMERY LOTNICZE

Kamera fotogrametryczna(pomiarowa kamera lotnicza)- urządzenie do pozyskiwania zdjęć lotniczych. Są to bardzo dokładne i skomplikowane układy mechaniczne, elektryczne, optyczne i elektroniczne.

Kamera składa się z:

Wymagania konstrukcyjne kamer pomiarowych:

-obiektyw wolny od zniekształceń geometrycznych obrazu (szczególnie dystorsji)

-obiektyw powinien mieć dużą rozdzielczość

-konstrukcja podzespołów powinna gwarantować uzyskanie ostrego obrazu w ruchu

-powinna naświetlać znaczki tłowe

-ramka tłowa powinna być prostopadła do osi kamery

-powinna posiadać urządzenie do orientowania osi optycznej

Podział kamer lotniczych ze względu na:

-wąskokątne 10°-20° ck= 610,950mm

-normalnokątne 50°-75° ck= 210,300mm

-szerokokątne 85°-95° ck= 152mm

-ponad szerokokątne 110°-130° ck= 88mm

-małoformatowe<18x18mmm,

-normalnego formatu 18x18, 23x23

-wielkoformatowe >23x23

Producenci: Wild, Carl Zeiss Jena, Opton

6.ZDJĘCIA LOTNICZE.

Zdjęcia lotnicze dzielimy na:

Zdjęcia wykonywane są szeregowo. Pokrycie wzajemne dwóch sąsiednich zdjęć w szeregu wynosi około 60% ich powierzchni choć stosowane są także inne powierzchnie pokrycia podłużnego.

ORIENTACJIA WEWNĘTRZNA

Zdjęcie fotograficzne jest rzutem środkowym. Do celów ważna jest precyzja rekonstrukcyjna tego rzutu. Rekonstrukcji tej dokonuje się na drodze graficznej, matematycznej. Elementy orientacji wewnętrznej pozwalają na zrekonstruowanie wiązki promieni podobnej do tej, jaka była w momencie fotografowania. Elementy orientacji wewn określają położenie wewnętrznego środka rzutów Ot w odniesieniu do płaszczyzny ramki tłowej. Są to:

Dla zdjęć fotogrametrycznych, gdy odległość fotografowania jest na tyle duża, że obraz powstaje w płaszczyźnie ogniskowej, odległość środka rzutów od płaszczyzny tłowej jest równa, ogniskowej kamery.

Punkt główny O' wyznaczony jest przez przecięcie się linii łączących przeciwległe zna­czki tłowe, umieszczone odpowiednio w płaszczyźnie Iłowej kamery i odfotografowanie na zdjęciach.

7.GEOMETRYCZNE I RADIOMETRYCZNE ZNIEKSZTAŁCENIA OBRAZU

Zniekształcenia liniowe.

Wpływ nachylenia zdjęcia

Punkt terenowy odwzoruje się na nachylonym zdjęciu lotniczym przesuniętym radialnie w kierunku punktu izocentrycznego, w porównaniu z jego odpowiednikiem na zdjęciu ściśle pionowym. Wartość przesunięcia wynosi:

Wpływ deniwelacji

Różnice terenowe powodują zniekształcenia perspektywistyczne punktów. Wpływ rozpatrzono na zdjęciach pionowych, gdyż wartość jest tego samego rzędu i wynosi:

Kierunek przesunięcia jest zgodny z kierunkiem do punktu nadirowego.

Zniekształcenia kątów o wierzchołkach w punktach głównych

Zniekształcenie spowodowane nachyleniem zdjęcia.

Gdy zdjęcie jest nachylone o wartość kąta v, to podczas pomiaru kierunków z punktu głównego, powstają błędy o wartości obliczanej z wzoru:

Zniekształcenie kierunku spowodowane deniwelacją terenu.

Przesunięcie radialne kierunków spowodowane deniwelacją terenu powoduje zniekształcenie kątowe kierunku mierzonego z punktu głównego. Wartość przesunięcia wynosi:

Czynniki zniekształcające geometrię zdjęcia:

Dystorsja obiektywu lub dystorsja radialna

jest cechą stałą dla danego obiektywu. Jest to zniekształcenie obrazu rotacyjno-symetryczne, które jest cechą konstrukcyjną obiektywu. Zniekształcenie to powoduje radialne przemieszczenie obrazów punktów w kierunku do lub od punktu głównego zdjęcia i jest wynikiem różnego powiększania obrazów leżących w różnych odległościach kątowych od osi obiektywu. Dystorsję opisuje się przez podanie wektora określonej długości i kierunku. Oś obiektywu zazwyczaj nie jest linią prostą (oscyluje wokół domniemanej osi). Jeżeli w czasie montażu obiektywu, jego elementy optyczne nie zostały precyzyjnie scentrowane lub uzyskały niewielkie pochyle­nie, to będą działały w przybliżeniu jak mały pryzmat powodując decentrację dystorsji. Taką dystorsję określa się dwiema składowymi: radialną i tangencjalną

- charakter i wielkość dystorsji obiektywu zależą od konstrukcji obiektywu i umiejscowienia w nim diafragmy

- powstaje na skutek nierówności kątów wejścia i wyjścia promieni z obiektywu,

- na jej wartość wpływa dokładność montażu układu optycznego,

- charakterystyka podawana jest w postaci krzywej dystorsji,

- można ją wyeliminować jedną z czterech metod:

1. zasada Porro - Koppego,

2. stosowanie płyt kompensacyjnych

3. zmiana odległości obrazowej

4. metoda analityczna

- powoduje przesunięcie obrazu punktu na płaszczyźnie tłowej; przesunięcie to można rozłożyć na dwie składowe:

I rzut przesunięcia dystorsyjnego na promień radialny - dystorsja radialna

- II dystorsja tangencjalna.

Ta druga jest mała w porównaniu do pierwszej.

Wielkość przesunięcia radialnego zależy od kąta osiowego i długości promienia radialnego

Δr = r - ck * tg α

Dystorsja jest znana już przy projektowaniu obiektywu i najczęściej jest pomijana, gdyż jest ona bardzo mała.

Deformacje podłoża emulsji fotograficznej

Używane jako nośniki emulsji światłoczułej błony acetanowe i poliestrowe, pod wpływem temperatury, wilgotności i czasu składowania kurczą się.

Uwzględnić je można przez porównanie pomierzonych odległości znaczków tłowych z ich nominalnymi wartościami. Ta czynność pozwala określić i uwzględnić deformację podłoża o charakterze afinicznym.

Wpływ niepłaskości emulsji fotograficznej

Emulsja nie stanowi idealnej płaszczyzny. Gdy emulsja odstaje od płaszczyzny ramki tłowej, to promień utworzy obraz w punkcie na powierzchni emulsji, zamiast być odwzorowany w punkcie płaszczyzny tłowej. Dalszemu pomiarowi podlega punkt, który jest rzutem ortogonalnym obrazu na płaszczyznę. W wyniku tej niepłaskości następuje radialne przesunięcie punktów zdjęcia względem ich położenia zgodnie z zasadą rzutu środkowego.

Wpływ refrakcji atmosferycznej

Promienie świetlne tworzące obraz fotograficzny, nie rozchodzą się po liniach prostych, lecz się załamują, gdy przechodzą przez warstwy powietrza o różnej gęstości. Wartość kątową tego przesunięcia nazywamy refrakcją atmosferyczną. Wielkość refrakcji zależy od stanu atmosfery. Wpływ refrakcji rośnie ku skrajom zdjęcia

Wpływ krzywizny Ziemi

Zakrzywienie Ziemi nie powoduje zniekształceń wiązki perspektywicznej. Jednak współrzędne geodezyjne są odniesione do przyjętej płaszczyzny odwzorowawczej, więc trzeba uwzględnić zakrzywienie Ziemi.

Aby przedstawić powierzchnię Ziemi na płaszczyźnie, należy wprowadzić poprawkę radialną, do pomiarów na zdjęciu

Wpływ krzywizny Ziemi rośnie szybko ku skrajom zdjęcia, jest wprost proporcjonalny do wysokości fotografowania i odwrotnie proporcjonalny do odległości obrazu.

8.PROTOKÓŁ KALIBRACJI KAMERY

Kalibracja kamer ma na celu dostarczenie charakterystyki metrycznej kamer fotogrametrycznych. Taka charakterystyka jest niezbędna do przeprowadzenia prac fotogrametrycznych fotogrametrycznych obejmuje następujące parametry:

Odchylenia ramki tłowej od płaszczyzny

Powyższe dane pozwalają na przeprowadzenie precyzyjnej geometrycznej rekonstrukcji wiązki promieni, która została zarejestrowana w kamerze podczas ekspozycji.. Metody kalibracji można podzielić na polowe i laboratoryjne. M. polwe wymagają budowy pola testowego lub wykorzystania wybranych gwiazd jako punktów o znanych współ. Do metod tych zalicza się metody statyczne i dynamiczne. Te ostatnie umożliwiają na przeprowadzanie kalibracji w czasie lotu. Najczęściej stosuje się jednak metody laboratoryjne, oparte na wykorzystaniu kalibratorów wielokolimatorowych lub goniometrów, czyli kalibrację przeprowadza się metodą fotograficzną lub wizualną.

9.STEREOKOMPERATOR

Stereokomparator reprezentuje instrumenty stereofotogrametryczne służące do tzw. opracowania punktowego zdjęć pomiarowych. Opracowanie punktowe polega na wyzna­czeniu współrzędnych X, Y, Z wybranych punktów. Celem takiego opracowania może być wyznaczenie jedynie współrzędnych punktów, albo dalsze jeszcze wykorzystanie tych współrzędnych, np. do obliczenia powierzchni, kubatury lub sporządzenia mapy numerycznej.

Stereoskopowy pomiar zdjęć na stereokomparatorze umożliwia dokonanie przyporządkowania punktów homologicznych oraz wybór punktów wyznacza­nych na etapie obserwacji. Stosowanie obserwacji monokularnej na monokom-paratorze wymaga wyboru jednoznacznych punktów lub, w przypadku ich braku, sygnalizacji punktów na obiekcie przed wykonaniem fotogramów.

Budowa:

- wózki

- sztywne obudowy

- płaszcz fotogramów

- obiektywy nieruchomej części układu optycznego

- obiektywy ruchomej części układu optycznego

W instrumentach służących do pomiaru położenia punktów na fotogramach wyróżnia się dwa zasadnicze podzespoły:

— system obserwacyjny,

System optyczny to najczęściej podwójny mikroskop zogniskowany na górne płaszczyzny nośników, na które zakłada się mierzone zdjęcia. Okulary tego systemu umożliwiają obserwatorowi indywidualną regulację ostrości obrazu i ich rozstawu. Znajdujący się w systemie optycznym pozorny znaczek pomiarowy gwarantuje właściwą precyzję pomiarową.

Układ pomiarowy składa się z:

- nośników, na które kładzie się mierzone fotogramy (nośniki te mogą się obracać we własnej płaszczyźnie),

- układu prowadnic, definiujących materialne układy współrzędnych instru­mentu, pozwalających na wykonanie

pomiaru. Właściwy pomiar odbywa się poprzez przesuwanie zdjęć na nośnikach względem nieruchomego

systemu obserwacyjnego lub odwrotnie.

9.STEKOMETR

Stecometr jest sterowanym cyfrowo instrumentem odtwarzającym matematycznie wiązki rzutu środkowego. Jest to instrument optyczno-mechaniczno -elektroniczny.

Optyczna część instrumentu — to układ optyczny wraz ze znaczkiem po­miarowym. Jest to układ podobny do układu optycznego stereokomparatora. Największą dokładność pomiaru otrzymuje się wtedy, gdy znaczek pomiarowy znajduje się na głównej płaszczyźnie pomiarowej lub z nią koincyduje.

Układ optyczny stekometru może być ustawiony na powiększenia 6 x, 9 x, 12x, i 18x . Średnica znaczka pomiarowego w płaszczyźnie obrazu wynosi 0,02; 0,04 lub 0,06 mm. Znaczek pomiarowy dzięki zastosowanym filtrom może mieć zabarwienie białe, zielone lub pomarańczowe przy jednoczesnej możliwości regulacji intensywności świecenia zna­czka. Układ potencjometrów pozwala na niezależne ustawienie oświetlenia zdjęcia lewego i prawego, co jest istotne przy nierównym zaczernieniu zdjęć tworzących stereogram.

Płaszczyznę pomiarową wyznaczają dwie śruby prowadzące (po jednej dla każdej osi x oraz y), które w przypadku użycia przetworników obrotowo-impulsowych spełnią także funkcje pomiarowe. Kiedy stosuje się przetworniki liniowo-impulsowe wtedy płaszczyznę pomiarową wyznaczają liniały przetworników .

Mechaniczna część instrumentu, to nośniki zdjęć oraz system transportu tych nośników. Precyzja autografu analitycznego zależy głównie od projektu transpor­tu nośników zdjęć oraz od systemu pomiarowego. Istotne znaczenie będą odgrywały prowadnice nośników zdjęć i system transportu (kulkowy, rolkowy, aerostatyczny). Kiedy stosuje się przetworniki liniowo-impulsowe, wtedy śruby prowadzące pełnią tylko rolę przesuwania i nastawiania nośnika zdjęcia w zadanym położeniu. Steruje tym nastawieniem komputer — najlepiej-z wykorzystaniem silników krokowych.

Korbki powodujące przesunięcie wózków obydwu zdjęć (ruch x) lub ruchomych części układu obserwacyjnego (ruch y), a także korbki nośników lewego zdjęcia (ruch py — q) i prawego zdjęcia (ruch px — p) działają jako pokrętła mechaniczne lub (po włącze­niu sprzęgieł elektromagnetycznych) jako urządzenia sterujące przesuwami elektro­mechanicznymi. Ułatwia to i przyspiesza wykonywanie obserwacji i pomiarów punktów stereogramu.

Zakres pomiarowy dla x i y wynosi od 0 do 280 mm, dla px od -10 do +130 mm, dla py od -40 do +400 mm. Maksymalny format zdjęć 24 x 24 cm. Dokładność wszystkich odczytów liniowych oraz ich rejestracji wynosi lμm.

Elektronika stecometru może być rozwiązana w różny sposób, ale często stosowane jest rozdzielenie obliczeń i użycie różnych typów mikroprocesorów dostosowanych do zadań, jakie mają wykonywać. Dlatego do rozwiązywania większości zadań i pełnienia kontroli nad całokształtem obliczeń i poleceń musi być używany mikrokomputer. Ten centralny kom­puter gromadzi system operacyjny autografu analitycznego i organizuje przepływ informacji pomiędzy różnymi podzespołami autografu i koordynatografu automa­tycznego oraz obserwatorem. Jest to zatem komputer, który przeprowadza oblicze­nia zasadnicze, a ponadto pełni on funkcje kontrolne w stosunku do wszystkich mikroprocesorów. Współpraca człowiek-maszyna przebiega tutaj następująco: Impulsy z trzech podstawowych generatorów przekazywane są komputerowi przez obserwatora za pośrednictwem korb X i Y oraz tarczy Z. Zostają one wprowadzone do maszyny liczącej porcjami.

Program pracy autografu wykorzystuje kilka podprogramów, z których naj­ważniejsze to:

1) program główny „main program", który realizuje cykl obliczania współ­rzędnych tłowych na podstawie przekazywanych kolejno przez obserwatora współ­rzędnych modelu i znanych elementów orientacji zdjęć;

2) podprogram centrowania nośników zdjęć i orientacji wewnętrznej;

3) podprogram orientacji wzajemnej;

4) podprogram orientacji bezwzględnej.

W rezultacie kolejnego wywoływania tych podprogramów do obliczeń, w pa­mięci komputera zostają umieszczone współrzędne środków rzutów, macierze obrotów zbudowane w wyniku obliczenia elementów orientacji wzajemnej i bez­względnej oraz dane, niezbędne do wprowadzania korekcji współrzędnych tłowych. Dane te wraz z przekazywanymi do komputera impulsami pochodzącymi z trzech podstawowych generatorów, wykorzystywane są w cyklicznych obliczeniach współrzędnych tłowych lewego x', y' i prawego x", y" zdjęcia.

10.ZDJĘCIE LOTNICZE W POSTACI CYFROWEJ

Zdjęcie lotnicze w postaci cyfrowej powstaje dwoma sposobami:

-badany teren jest fotografowany zwykłą kamerą lotniczą (rozdz. 3880dpi)

-zdjęcie lotnicze jest skanowane skanerem o rozdz. 1800dpi

-obraz cyfrowy dla opracowań fotogram. Posiada rozdz. 1300dpii zapisywany jest jako plik .bmp .tiff .gif

OBRAZ CYFROWY - to raster matematyczny, czyli macierz, której każdy element opisuje jedną cechę określonego elementu obrazu. Najmniejszym elementem obrazu cyfrowego jest piksel. Cechą pikseli jest poziom szarości w przedziale 0 - 255 dla obrazu biało - czarnego (0 - czarny, 255 - biały). Człowiek rozróżnia 32 - 40 poziomów szarości. Podstawowym modelem kolorowego obrazu jest model RGB (red, green, blue). Każdy piksel obrazu modelu RGB jest wypadkową zniesienia tych trzech barw. Natężenie tych barw mierzy się podobnie jak w przypadku obrazu czarno - białego - poziomoami czerwoności, zieloności, niebieskości. Jakość obrazu cyfrowego zależy od ilości pikseli tworzących ten obraz.

Wielkość piksela wiąże się z rozdzielczością skanowania

-zdolność rozdzielcza obiektywu - jest to cecha obiektywu związana z możliwością rozróżnienia bardzo małych obiektów na zdjęciu. Im mniejsze obiekty widzimy, tym większa rozdzielczość. Najłatwiej określić przez obserwacje linii biało - czarnej. Zdolność różni się na krawędziach i w centrum.

-rozdzielczość emulsji fotograficznej - zależy od jej jakości i wynosi kilkadziesiąt linii podwójnych na milimetr.

-zdolność rozdzielcza zdjęcia

-rozdzielczość skanowania - dla takiego zdjęcia nie warto skanować z mniejszą rozdzielczością niż 20 mikrometrów.

R = XxY

R - rozdzielczość

X - ilość pikseli na osi poziomej

Y - ilość pikseli na osi pionowej

Geometryczna rozdzielczość układu negatyw+obiektyw = 3880 dpi, przy czym piksel ma wielkość 7mikrometrów.

Rozdzielczość podajemy w dpi - liczba punktów na cal.

11.FORMATY BMP i TIFF

Mapa bitowa

Obraz utworzony z ciągów pikseli lub kropek. Skanery oraz programy malarskie, takie jak Corel PHOTO-PAINT, generują obrazy w postaci map bitowych. W CorelDRAW rysunki tworzone są przy wykorzystaniu obiektów wektorowych. Mapy bitowe, zwane czasem obrazkami rastrowymi, składają się z punktów zwanych pikselami (ang. 'pixel' = 'picture element', czyli 'element obrazu'), których ułożenie i kolor decydują o wyglądzie obrazu. Po odpowiednim powiększeniu takiego obrazu widać pojedyncze, kwadratowe punkty, z których zbudowany jest cały obraz. Zwiększenie wielkości mapy bitowej powoduje, że zwiększane są także te punkty, przez co linie i krawędzie stają się postrzępione.

Oglądane z większej odległości kolory i kształty widoczne na mapach bitowych wyglądają jednak poprawnie. Ponieważ kolor każdego piksela jest definiowany niezależnie od pozostałych, można na mapach bitowych stosować realistyczne efekty specjalne, takie jak cieniowanie lub zwiększanie nasycenia kolorów wybranego obszaru, piksel po pikselu.

Zmniejszanie wielkości mapy bitowej również może spowodować zniekształcenia obrazu, ponieważ podczas takiej operacji część punktów jest usuwana z rysunku.

Także fakt, że mapa bitowa zbudowana jest z odpowiednio ułożonych pikseli, jest przyczyną tego, że nie można dowolnie operować (np. przesuwać) poszczególnymi jej częściami.

Przy pracy z mapami bitowymi ostateczna jakość obrazu zależy od rozdzielczości obrazu określonej w początkowej fazie tworzenia rysunku. Rozdzielczość jest to ogólny termin odnoszący się do ilości szczegółów, które są możliwe do rozróżnienia na rysunku, a także do ilości rozróżnialnych szczegółów obrazu (jego jakości), który został odczytany z urządzeń wejściowych bądź jest wysyłany do urządzeń wyjściowych (np. na ekran monitora). Przy pracy z mapami bitowymi rozdzielczość wpływa zarówno na ostateczną jakość obrazu, jak i wielkość pliku zawierającego taki obraz.

Praca z mapami bitowymi wymaga odpowiedniego planowania, ponieważ wybrana rozdzielczość takiej mapy bitowej z reguły nie jest później zmieniana. Niezależnie od tego, czy obraz będzie drukowany na drukarce o rozdzielczości 300 dpi, czy też na naświetlarce o rozdzielczości 1270 dpi, rozdzielczość mapy bitowej zawsze będzie taka, jaką określono przy jej tworzeniu (o ile rozdzielczość urządzenia drukującego nie jest mniejsza od rozdzielczości mapy bitowej).

Jeśli ostateczny wydruk ma wyglądać tak, jak wyświetlany na ekranie obraz, należy zwracać uwagę na związek pomiędzy rozdzielczością mapy bitowej a rozdzielczościami różnych urządzeń drukujących. Pozwala to na uzyskanie wyników o stałej jakości.

TIFF - Skrót od "Tagged Image File Format". Format pliku opracowany specjalnie z myślą o aplikacjach służących do składu publikacji i obsługiwany przez wszystkie aplikacje do edycji grafiki. W plikach TIFF można przechowywać dane w formacie RGB, CMYK I LAB, lecz nie duotone.

12.PALETY BARW

Monitor komputerowy wytwarza kolory poprzez mieszanie światła czerwonego z zielonym i niebieskim. Oznacza to, że miliony wyświetlanych na monitorze kolorów można opisać za pomocą udziałów koloru czerwonego, zielonego i niebieskiego. Wymienione trzy składowe koloru tworzą podstawę modelu kolorów RGB (Rczerwony, Gzielony i Bniebieski). Każdy z trzech kolorów składowych modelu RGB można opisać liczbą z zakresu od 0 do 255. Ponieważ model RGB oparty jest o kolory światła, większe wartości składowych odpowiadają większej ilości światła. Skutkiem tego im większe są wartości RGB, tym jaśniejsze kolory one opisują. Gdy wszystkie trzy wartości składowych osiągną maksimum, uzyskiwany jest kolor biały. Ponieważ w modelu RGB kolory tworzone są przez sumowanie światła, jest on nazywany addytywnym modelem kolorów.

Gdy wyświetlane na ekranie monitora kolory odtwarzane są na papierze, w celu ich uzyskania zamiast światła wykorzystywany jest atrament. Najczęściej spotykanym sposobem uzyskiwania kolorowych obrazów na papierze jest odpowiednie wymieszanie atramentu niebieskozielonego, purpurowego, żółtego i czarnego. Kolory te są składowymi koloru modelu CMYK (Cniebieskozielony, Mpurpurowy, Yżółty i Kczarny). Zwykle każdy z kolorów składowych modelu CMYK opisuje się za pomocą skali procentowej (od 0 do 100).

Generowanie koloru za pomocą atramentu polega na odbijaniu określonych kolorów światła i jednoczesnym absorbowaniu innych. Ciemniejszy atrament absorbuje więcej światła. Ponieważ model kolorów CMYK oparty jest na kolorach atramentu, im większe wartości procentowe kolorów składowych, tym ciemniejszy kolor one opisują. Teoretycznie, po zmieszaniu 100% koloru niebieskozielonego, 100% purpurowego i 100% żółtego powinno się uzyskać kolor czarny. W rzeczywistości należy stosować również czarny atrament w celu skompensowania ograniczeń pozostałych atramentów. Ponieważ kolory modelu CMYK powstają w wyniku pochłaniania światła, jest on nazywany subtraktywnym modelem kolorów.

Modele RGB i CMYK oparte są na określonych metodach generowania kolorów. Istnieją jednak inne modele kolorów, które nie bazują na metodach reprodukcji, lecz udostępniają dodatkowe sposoby pracy z kolorami. Dostępnych jest kilka takich alternatywnych modeli kolorów, z których można skorzystać. Najpopularniejszym z nich jest model kolorów HSB.

Model kolorów HSB oparto na wartościach określających barwę, nasycenie i jaskrawość koloru. Barwa jest podstawą koloru. Nasycenie określa siłę koloru, bądź jego odległość od koloru szarego. Jaskrawość odpowiada udziałowi bieli w danym kolorze. Kolor o nasyceniu równym 0 jest odcieniem szarości (z zakresu od bieli od czerni). Kolor o jaskrawości równej 0 jest kolorem czarnym, a o jaskrawości 100kolorem białym. Ponieważ w modelu HSB nie jest stosowane mieszanie kolorów składowych, odnalezienie za jego pomocą właściwego koloru może okazać się łatwiejsze.

13,ORIENTACJA BEZWZGLĘDNA

Elementy orientacji bezwzględnej: przesunięcia  x,  y,  z, kąt obrotu względem układu geodezyjnego, oraz współczynnik zmiany skali mx, my, mz

Orientacja bezwzględna polega na doprowadzeniu modelu do założonej skali i poziomu, gdyż model uzyskany w wyniku orientacji wzajemnej nie ma skali i ma przypadkową orientację w przestrzeni. Poziomowanie modelu polega na doprowadzeniu do równoległości płaszczyznę XOY autografu do pł. XGOYG układu odniesienia. Do skalowania modelu potrzebne są dwa punkty o znanych współrzędnych geodezyjnych. Małe nachylenie pozwala na porównanie rzutów poziomych odcinka. Po zmierzeniu współrzędnych fotogrametrycznych obu końców odcinka, oblicza się współczynnik skali:

gdzie:

l - długość odcinka terenowego wyrażona w odpowiedniej skali

l' = długość odcinka w autografie

mmod - mianownik skali budowanego modelu

XG, YG - przyrosty współrzędnych w układzie geodezyjnym

X, Y - przyrosty współrzędnych w autografie

Współczynnik skali będzie bliski 1, gdy baza na etapie czynności wstępnych została prawidłowo określona.

Po skalowaniu należy model spoziomować. Nachylenie modelu rozkłada się na dwie składowe: nachylenie podłużne , i poprzeczne . Do wyznaczenie tych kątów, potrzebna jest znajomość minimum trzech punktów o znanych wysokościach geodezyjnych, które powinny tworzyć trójkąt, obejmujący jak największą powierzchnię strereogramu.

13. WYZNACZENIE WSPÓŁCZYNNIKÓW TRANSFORMACJI Z UKŁADU WSPÓŁRZĘDNYCH PIKSELOWYCH DO TŁOWYCH.

-współrzędne znaczków tłowych bierzemy z protokołu kalibracji kamery.

C(i, j) i = 0,1,2,…n, j = 0,1,2,…n

I

X'i

Y'i

x

Y

1

-100

-100

0

10000

2

100

100

10000

0

3

-100

100

0

0

4

100

-100

10000

10000

5

6

7

8

x' = ax + by + c

y' = dx + ey + f

-100 = a*0 + b*10000 +c

-100 = d*0 + e*10000 +f

100 = a*10000 + b*0 +c

100 = d*10000 + e*0 +f

-100 = a*0 + b*0 +c

100 = d*0 + e*0 +f

a = 0,02 c = -100 e = -0,02

b = 0 d = 0 f = 100

x' = 0,02*x + 0*y - 100

y' = 0*x -0,02*y + 100

Skala (0,02, -0,02) bliska jedynki

Obrót (0,0) bliski zeru

Zmiana znaku przy y bo następuje symetria.

Ze względu na błędy estymatorów lepiej liczyć z :

X' = a1(x-x) + b1(y-y) +c1

y' = d1(x-x) + e1(y-y) +f1

14.EFEKT STEREOSKOPOWY

Obserwacja dwuoczna , która pozwala na spostrzeżenie głębokości (odległości) nazywa się stereoskopowym widzeniem. Powstanie efektu stereoskopowego wynika ze zdolności człowieka do przestrzennego widzenia.

Z geometrycznego punktu widzenia, jednoczesna obserwacja dwuoczna jest przestrzennym wcięciem obserwowanego punktu z końców bazy danych. W stereofotografii takie przestrzenne wcięcie w przód, realizowane jest przez fotografowanie tego samego obiektu z dwóch końców bazy. Końcami bazy fotografowania są środki rzutów obiektywu kamery pomiarowej w momentach wykonywania zdjęcia.

Podstawą tworzenia obrazu stereoskopowego jest równoczesna obserwacja tego samego obiektu z dwóch końców bazy. Jeżeli posłużymy się dwoma aparatami fotograficznymi to promienie przechodzące przez skrajne punkty przedmiotu utworzą dwie płaszczyzny zdjęć. Różnica długości jednoimiennych odcinków nazywane jest paralaksą liniową.

Aby uzyskać sztuczny efekt stereoskopowy ze zdjęć fotograficznych należy spełnić następujące warunki:

1.Zdjęcia muszą być wykonane z dwóch stanowisk

2.Obydwa zdjęcia powinny być wykonane w podobnej skali - nie różniącej między sobą więcej niż 16%.

3.Każde oko powinno obserwować odpowiednie zdjęcie.

4.Zdjęcia powinny być obserwowane w płaszczyźnie rdzennej(takiej która zawiera obydwa środki rzutów S1 i S2 i dowolny punkt A

5.Promienie rzutujące zdjęć nie mogą przecinać się pod kątem >15°-wynika to ze stosunku bazy ocznej (bo= ok.65mm) do odległości najlepszego widzenia (Ymin= ok. 250mm). Przy odległości <Ymin następuje zanikanie stereoskopowego widzenia, a kąty osi optycznych oczu są wtedy >15°.

6.Prowadzenie obserwacji zdjęć z odległości najlepszego widzenia.

Dzięki pomiarom stereoskopowym uzyskana dokładność jest 1,8 x większa niż przy pomiarach monekularnych.

WIDZENIE PRZESTRZENNE

Oczy człowieka znajdują się w stałej od siebie odległości zwanej bazą oczną bo= odległości między środkami

obrotu oczu S' i S” [bo=(58-72mm)].Wprzypadku obserwowania bardzo odległych obiektów (np.gwiazdy), osie

optyczne oczu S'O' i S”O” są do siebie równoległe i prostopadłe do bazy. Obraz gwiazdy otrzymamy w punktach

głównych oka lewego prawego.. W skutek tego obydwa obrazy zleją się w mózgu w jeden przestrzenny punkt do

którego odległości nie sposób określić, ponieważ przecięcie osi optycznych następuje w nieskończoności. Z tego względu wszystkie gwiazdy wydają się być jednakowo oddalone od obserwatora. Jeżeli obserwujemy punkty w odległości skończonej, to osie optyczne są zbieżne (konwergentne). Obserwując dwa punkty (A i C). Ponieważ baza oczna jest mała, wcięcia otrzymujemy pod ostrym kątem, więc określenie odległości jest mało dokładne (rzędu 10-20%). Jeżeli dowolny punkt będzie znajdował się w odległości mniejszej od maks głębokości (odległości) widzenia osie oczu zbiegające się w tym punkcie utworzą kąt paralaktyczny zwany też paralaksą kątową. Jej wielkość także odbierana jest przez obserwatora w sposób przybliżony. Dopiero różnica dwóch paralaks kątowych percypowana jest o wiele dokładniej i na jej podstawie możemy określić wzajemne rozmieszczenie punktów w przestrzeni.. Różnica ta wywołuje u obserwatora tzw paralaksę fizjologiczną, która powoduje w mózgu odczucie wzajemnego przestrzennego rozmieszczenia punktów obserwowanych (głębokość).

STEREOGRAM LOTNICZY

Stereogram lotniczy tworzy para zdjęć lotniczych wykonanych w podobnej skali (różnica do 16%), które mają zwykle pokrycia wzajemne około 60% ich powierzchni choć stosowane są także inne powierzchnie pokrycia podłużnego.

15.ORIENTACJA WZAJEMNA STEREOGRAMU

Ma ona na celu doprowadzenie pary zdjęć do takiego położenia jakie zajmowały one w momencie naświetlenia. W takim położeniu bowiem promienie jednoimienne należące do dwóch wiernie zrekonstruowanych wiązek, przecinają się tworząc model optyczny podobny do przedmiotu. Orientacji wzajemnej dokonuje się tylko wtedy gdy nie znane są elementy o. zewnętrznej. Do jej przeprowadzenia wymagany jest pomiar 6 punktów (5 elementów=5równań + 1 równanie do wyrównania). Elementy orientacji wzajemnej moża zdefiniować w różny sposób w zależności od przejętych warunków początkowych.

Elementy o. wzajemnej

- ϕ' i ϕ”- kąt nachylenia podłużnego lewego prawego zdjęcia

-χ' i χ” - kąt skręcenia lewego i prawego zdjęcia

- ω”- kąt nachylenia poprzecznego prawego zdjęcia.

Przy czym zakłada się pionowość osi kamery zd.I-szego oraz równoległość osi ukł. Lok. Do osi tłowych x', y'

Zdjęcia nr1 to elementy orientacji są takie:

Δϕ-różnica kątów nachylenia podłużnego określona w płaszczyźnie x2, z2

Δω-różnica kątów nachylenia poprzecznego określona w płaszczyźnie ,y2,ck

Δχ- różnica kątów skręcenia określona w płaszczyźnie drugiego zdjęcia

β= arctgbz/bx-kąt nachylenia bazy b względem przyjętego układu odniesienia (oś pierwszego zd pionowa zatem pł x1,y1, pozioma)

α=arctgby/bx- kąt zwrotu bazy b w stosunku do przyjętego układu x1,y1,z1 dla I-szego zdjęcia

16. OBRAZY EPIPOLARNE.

Fotogrametria cyfrowa pojawiła się w 1976r. Kiedy opracowano teorię obrazów epipolarnych ( normalnych) - obrazy stają się pionowymi.

Zdjęcia epipolarne - prawe zdjęcie rzutujemy na obraz zdjęcia lewego i obserwacja stereoskopowa może być przeprowadzana na jednym ekranie.

17.ORIENT. BEZWZGLĘDNA MODELU. PRZEKSZTAŁCENIE AFINICZNE W PRZESTRZENI

R=RO+λA r gdzie RoT= [ X0, Y0, Z0] - jest wektorem przesunięcia, λ- jest mianownikiem skali, A macierz przekształceń, r T= [x, y, z] X =X0+λ( a11x + a12y+a13z); Y =Y0+λ( a21x + a22y+a23z); Z=Z0+λ( a31x + a32y+a33z), tak więc mamy 13 elementów orientacji w modelu ogólnym a tak naprawdę tj. ich 7: X0, Y0, Z0, λ,ω,ϕ,χ, w danym punkcie X0 mamy zależności: f (X0+ΔX)= f(X0) +[df/ d(X0)] ΔX. Wprowadzając ostatecznie równania poprawek : vx= ΔX0+ZΔϕ - YΔχ+XΔλ- lx ; vy= ΔY0+ZΔω +XΔχ+YΔλ - ly ; vz= ΔZ0- XΔϕ +YΔω+ZΔλ - lz;

lx= x-X0 -λX ; ly= y-Y0 -λY ; lz= z-Z0 -λZ; tj. przekształcenie afiniczne czyli ma przekształcenie odwrotne a więc: r = A-1(R-R0) 1/λ, r = r0 +λ'A' R0 aby rozwiązać elementy orientacji bezwzględnej wystarczyłyby 2 fotopunkty i jedna współrzędna w praktyce powinno być 5 punktów na obszarze podwójnego pokrycia zdjęć. Zapis analityczny rzutu środkowego-wzór na przekształcenie rzutowe: x' = AX+BY+ CZ+D/IX+JY+KZ+1

y' = EX+FY+ GZ+H/IX+JY+KZ+1. Wzórna przekształcenie rzutowe płaszczyzny na płaszczyznę ( płaski teren): x' = AX+BY+ C/GX+HY+1; y' = DX+EY+ F/GX+HY+1; jeżeli przyjmiemy że G=H=0, x' = AX+BY+ C; y' = DX+EY+ F

18. ORIENTACJA ZEWNĘTRZNA- PRZEKSZTAŁCENIE RZUTOWE

Za pomocą elementów orientacji zewnętrznej ( 6 elementów) możemy zrekonstruować położenie wiązki promieni jaka w momencie naświetlania utworzyła obraz w trójwymiarowej przestrzeni. Elementy te to 3 współrzędne (X0, Y0, Z0)- określające położenie środka rzutów (zewnętrznego punktu głównego obiektywu) oraz trzy kąty. Kąt υ - kąt nachylenia zdjęcia, zwany także kątową odległością nadirową, jest zawarty w płaszczyżnie pionowej pomiędzy osią kamery O' a prostą pionową NN' przechodzącą przez środek rzutów O, kąt ξ - jest to kąt kierunkowy osi kamery, który jest zawarty pomiędzy rzutem osi kamery na płaszczyznę X,Y, aprostą równoległą do osi X przechodzącą przez punkt nadirowy N, χ -kat skręcenia zawarty w płaszczyźnie zdjęcia pomiędzy linią największego spadku zdjęcia O'N' (główną pionową zdjęcia a jedną z dodatnich osi współrzędnych tłowych,x, y). Usytuowanie osi kamery w przestrzeni, wyrażone za pomocą kątów ξ,υ można także określić za pomocą nachylenia poprzecznego ω i podłużnego ϕ. PRZEKSZTAŁCENIE RZUTOWE x =a11(X-X0)+a12(Y-Y0)+a13(Z-Z0), y=a21(X-X0)+a22(Y-Y0)+a23(Z-Z0), z =a31(X-X0)+a32(Y-Y0)+a33(Z-Z0),

X =t*x', y = t*y' , z = t*z'→ x' = (1/t)*x, y' = (1/t)*y, z' = (1/t)*z, w naszym przypadku z' = -ck, czyli -ck = (1/t)*z →(1/t)*c = ck/z, skąd x' = -ck (x/z) i y' = -ck(y/z)

↔ x' = -ck { [a11(X-X0)+a12(Y-Y0)+a13(Z-Z0)] / [a31(X-X0)+a32(Y-Y0)+a33(Z-Z0)]}

y' = -ck { [a21(X-X0)+a22(Y-Y0)+a23(Z-Z0)] / [a31(X-X0)+a32(Y-Y0)+a33(Z-Z0)]}

Tak więc wyróżniamy 6 elementów orientacji zewnętrznej - (X, Y, Z)→(X', Y) zdjęcia X0, Y0, Z0, λ, Ω, ϕ

19.AEROTRIANGULACJA

Aerotriangulacja - technologia kameralnego zagęszczenia osnowy. Na poziom aerotriangulacji wpływają:

-rodzaj stosowanego sprzętu pomiarowego

-metoda zasadniczego wyrównania

-stosowane metody wyznaczania punktów osnowy polowej

-uwzględnianie dodatkowych obserwacji geodezyjnych.

Właściwe wykonanie aerotriangulacji powinny poprzedzić prace przygotowawcze, definiujące na zdjęciach punkty wiążące i przejściowe, których położenie w zewnętrznym układzie odniesienia zostanie określone w tym zadaniu.

W efekcie finalnym definiuje na każdym stereogramie grupę nowo wyznaczonych punktów, dla których są określone współrzędne terenowe w układzie zdefiniowanym przez grupę punktów osnowy polowej. Jednocześnie wyznaczane są elementy orientacji zewnętrznej zdjęć lub elementy orientacji bezwzględnej modeli w bloku, które mogą być wykorzystywane na etapie rekonstrukcji modeli fotogrametrycznych przed procesem pomiaru NMT. Precyzja wyznaczenia punktów wiążących zależy od:

-konfiguracji i sposobu wykonania zdjęć,

-liczby i lokalizacji punktów osnowy polowej w bloku,

-sygnalizacji punktów osnowy i wyznaczanych,

-dokładności pomiaru terenowego punktów osnowy.

Aerotriangulacja powinna być kontrolowana w oparciu o punkty kontrolne pomierzone w bloku zdjęć w ilości równej 10 % stosowanej liczby punktów osnowy. Punkty te należy wybierać na obrzeżu wyrównanego bloku

20,NUMERYCZNY MODEL TERENU

NMT- jest numeryczną, punktową reprezentacją wysokości topograficznej powierzchni terenu, wraz z algorytmem interpolacyjnym umożliwiającym odtworzenie jej kształtu w określonym obszarze. Zwykle NMT jest reprezentowany przez punkty, rozłożone regularnie lub nieregularnie na powierzchni terenu i uzupełnione dodatkowo punktami opisującymi morfologiczne formy terenu.

Punkty mogą być uporządkowane w jednej z dwóch struktur:

-TIN - nieregularna sieć trójkątów wraz z topologią. Wierzchołki trójkątów opierają się na punktach pomiarowych

-Regularna sieć uzupełniona o punkty reprezentujące formy terenowe, takie jak:

a)linie szkieletowe - grzbiety, cieki

b)linie nieciągłości - skarpy, urwiska

c)powierzchnie wyłączeń - wody, budynki

d)ekstremalne pikiety - wierzchołki, dna

Dane źródłowe do generowania NMT można uzyskać wykorzystując:

-bezpośredni pomiar terenowy

-technologia kartograficzna

-technologia fotogrametryczna, a w tym:

a)opracowanie autogrametryczne

b)opracowanie cyfrowe

c)lotniczy skaner laserowy

d)opracowanie zdjęć i obrazów satelitarnych.

Dokładność

błąd średni wysokości wyinterpolowanej z wynikowego NMT, który składa się z :

-błędów danych pomiarowych

-wielkość oczka siatki determinująca reprezentatywność powierzchni terenu przez węzły siatki NMT

-czynnik opisujący charakter terenu

Przyjmuje się:

a = 0,004 - 0,007 dla terenów łatwych

a = 0,010 - 0,020 dla terenów średnich

a = 0,022 - 0,044 dla terenów trudnych

21.ORTOFOTOMAPA

Ortofotografia - zdjęcie, którego płaszczyzna projekcji jest równoległa do płaszczyzny odniesienia, a wszystkie promienie są prostopadłe do tych dwóch płaszczyzn. Odległości mierzone na takim zdjęciu są poprawne, niezależnie od różnic wysokości.

Wykonanie ortofotomapy polega na:

-skanowaniu zdjęcie(Zdjęcie zapisywane jest w formacie .bmp .tiff .gif 110MB-zd. Czarno-białe, 330Mb-zdjęcie kolorowe, zdjęcie posiada rozdzielczość 3880dpi po zeskanowaniu 1300dpi do opracowań fotogrametrycznych)

-odtworzeniu orientacji zewnętrznej zdjęć

-pomierzeniu NMT

-przetworzeniu cyfrowym zdjęć - generowanie ortofotografii

-mozaikowaniu ortofotografii

-redakcji ortofotomapy

-dystrybucji produktu finalnego

Obraz cyfrowy jest tablicą składającą się z pikseli poukładanych w kolumny i wiersze, charakteryzujących się wartością radialną. Jednym z podstawowych procesów produkcji ortofotomap jest transformacja tablicy zeskanowanego zdjęcia pomiędzy układem kamery i terenowym układem współrzędnych (przepróbkowanie- resampling). Proces ten jest głównym zadaniem w procesie tworzenia cyfrowej ortofotomapy. Definiujemy orto, jej wielkość i zakres w układzie terenowym. Zając rozdzielczość, rozdzielczość więc i rozmiar piksela - nowego kreowanego rastra, możemy wyznaczyć na podstawie oryginalnego zdjęcia (zeskanowanego) na podstawie algorytmu przyporządkowania wartości radiometryczne nowych tworzonych pikseli następującymi metodami:

22. TELEDETEKCJA

Teledetekcja to zdalne badanie środowiska przyrodniczego. Ogólnie wyróżnia się dwa systemy rejestracji danych: a) fotograficzny- przy pomocy kamery pomiarowej i emulsji fotograficznej, b) elektroniczny - za pomocą skanera ( rejestruje proces odbijania się energii i zapisuje dane otrzymane na taśmie magnetycznej, lub bezpośrednio są transmitowane na ziemię,- za pomocą radaru bocznego wybierania obrazu SLAR) Skanery i radary stosowane są w trudnych warunkach pogodowych przy dużym zachmurzeniu oraz przy pokryciu terenów roślinnością, przez którą chce się zobrazować powierzchnię ziemi. Obrazy skanerowe i radarowe ze względu na mniejszą jeszcze rozdzielczość w porównaniu ze zdjęciem lotniczym i większe trudności w identyfikacji szczegółów terenowych, nie są stosowane do opracowywania map w większych skalach.



Wyszukiwarka

Podobne podstrony:
5099
5099
5099
5099
5099
5099
5099
5099

więcej podobnych podstron