Fotogrametria jako nauka.
To nauka zajmująca się określaniem położenia , wymiarów i kształtu obiektów przestrzennych na podstawie ich obrazów fotograficznych lub cyfrowych. Nazwa pochodzi z j.greckiego i składa się z 3 części:
photos- światło; gramma – zapis; metro – pomiar, czyli oznacza to mierzenie i zapisywanie za pomocą światła.
Podział ze względu na miejsce wykonania zdjęcia:
FOTOGRAMETRIA
1)Naziemna - terrofotka
jednoobrazowa
dwuobrazowa
2) Lotnicza – aerofotka
jednoobrazowa
dwuobrazowa
Obecnie doszła jeszcze fotka satelitarna.
Kamery lotnicze, analogowe i cyfrowe.
Kamera fotogrametryczna(pomiarowa kamera lotnicza)- urządzenie do pozyskiwania zdjęć lotniczych. Są to bardzo dokładne i skomplikowane układy mechaniczne, elektryczne, optyczne i elektroniczne.
Kamera składa się z:
Obiektywu (wolnego od dystorsji) wyposażonego w zmienną lub stałą przysłonę i urządzenie do regulacji czasu naświetlania filmu
Korpusu kamery, wyposażonego w szlifowaną ramkę tłową ze znaczkami tłowymi, a także uchwyt na kasety lub ładownik z materiałem negatywowym. Ramka tłowa zazwyczaj znajduje się w płaszczyźnie ogniskowej obiektywu i jest prostopadła do osi obiektywu.
Urządzeń umożliwiających realizację określonej orientacji zewnętrznej (GPS, celownik, komputer)
Kaset lub ładowników
Zawieszenia lub spodarki ze statywem
Dodatkowego wyposażenia (np. filtr, statoskop, numerator zdjęć)
Cykl pracy kamery:
Odciągnięcie płyty od ramki tłowej,
Wyrównanie ciśnień
Przewinięcie filmu,
Przyssanie filmy do płyty
Dociśniecie filmu do ramki tłowej,
Naciągniecie i wyzwolenie migawki.
Wymagania konstrukcyjne kamer pomiarowych:
-obiektyw wolny od zniekształceń geometrycznych obrazu (szczególnie dystorsji)
-obiektyw powinien mieć dużą rozdzielczość
-konstrukcja podzespołów powinna gwarantować uzyskanie ostrego obrazu w ruchu
-powinna naświetlać znaczki tłowe
-ramka tłowa powinna być prostopadła do osi kamery
-powinna posiadać urządzenie do orientowania osi optycznej
Podział kamer lotniczych ze względu na:
Geometrię zdjęcia- kadrowe, szczelinowe, panoramiczne
Kąt widzenia:
-wąskokątne 10°-20° ck= 610,950mm
-normalnokątne 50°-75° ck= 210,300mm
-szerokokątne 85°-95° ck= 152mm
-ponad szerokokątne 110°-130° ck= 88mm
Odległość obrazu
Wymiary zdjęcia:
-małoformatowe<18x18mmm,
-normalnego formatu 18x18, 23x23
-wielkoformatowe >23x23
Stopień automatyzacji (ręczne, półauto, auto)
Rodzaj podłoża materiału fotograficznego
Zakres promieniowania
Analogowe zdjęcie lotnicze.
Zdjęcia lotnicze dzielimy na:
Pionowe (v = 0) i prawie pionowe v<3°(najczęściej opracowywane)
Nachylone v>3°-obejmują duży obszar rzadko stosowane do celów kartograficznych (v<45°)
Perspektywiczne (o dużym nachyleniu z odfotografowaną linią horyzontu)-do celów przeglądowych i rozpoznawczych
Zbieżne (o niedużym nachyleniu, osie kamer zbieżne- każde zdjęcie pokrywa tę samą część terenu)
Zdjęcia wykonywane są szeregowo. Pokrycie wzajemne dwóch sąsiednich zdjęć w szeregu wynosi około 60% ich powierzchni choć stosowane są także inne powierzchnie pokrycia podłużnego.
Zdjęcia cyfrowe – metody pozyskiwania
OBRAZ CYFROWY - to raster matematyczny, czyli macierz, której każdy element opisuje jedną cechę określonego elementu obrazu. Najmniejszym elementem obrazu cyfrowego jest piksel. Cechą pikseli jest poziom szarości w przedziale 0 - 255 dla obrazu biało - czarnego (0 - czarny, 255 - biały). Człowiek rozróżnia 32 - 40 poziomów szarości. Podstawowym modelem kolorowego obrazu jest model RGB (red, green, blue). Każdy piksel obrazu modelu RGB jest wypadkową zniesienia tych trzech barw.
Zdjęcie lotnicze w postaci cyfrowej powstaje dwoma sposobami:
I metoda (starsza stosowana w Polsce)
-badany teren jest fotografowany zwykłą kamerą lotniczą (rozdz. 3880dpi)
-zdjęcie lotnicze jest skanowane skanerem o rozdz. 1800dpi
-obraz cyfrowy dla opracowań fotogram. Posiada rozdz. 1300dpii zapisywany jest jako plik .bmp .tiff .gif
II metoda-zdjęcia terenu wykonywane są kamerą cyfrową o rozdzielczości 3880dpi. Powstaje obraz cyfrowy o tejże rozdzielczości (bez straty informacji)
Protokół kalibracji kamery
Znaczki tłowe wyróżniają zdjęcia od innych. Jeżeli jest kamera fotogrametryczna to musi być protokół kalibracji. Protokół kalibracji: robimy nie rzadziej niż dwa lata, zawiera nr kamery, datę, informację o Ck (dokł. 10 μm = 0,01mm), rzucie środka rzutów O’, położeniu znaczków tłowych (dokł. 1μm) -> układ współrzędnych płaskich tłowych XY, punktach PPS i PPA.
Zniekształcenia geometryczne i radiometryczne zdjęć analogowych i cyfrowych.
Zniekształcenia liniowe.
Wpływ nachylenia zdjęcia
Punkt terenowy odwzoruje się na nachylonym zdjęciu lotniczym przesuniętym radialnie w kierunku punktu izocentrycznego, w porównaniu z jego odpowiednikiem na zdjęciu ściśle pionowym. Wartość przesunięcia wynosi:
Wpływ deniwelacji
Różnice terenowe powodują zniekształcenia perspektywistyczne punktów. Wpływ rozpatrzono na zdjęciach pionowych, gdyż wartość jest tego samego rzędu i wynosi:
Kierunek przesunięcia jest zgodny z kierunkiem do punktu nadirowego.
Zniekształcenia kątów o wierzchołkach w punktach głównych
Zniekształcenie spowodowane nachyleniem zdjęcia.
Gdy zdjęcie jest nachylone o wartość kąta v, to podczas pomiaru kierunków z punktu głównego, powstają błędy o wartości obliczanej z wzoru:
Zniekształcenie kierunku spowodowane deniwelacją terenu.
Przesunięcie radialne kierunków spowodowane deniwelacją terenu powoduje zniekształcenie kątowe kierunku mierzonego z punktu głównego. Wartość przesunięcia wynosi:
Czynniki zniekształcające geometrię zdjęcia:
dystorsja obiektywu
deformacja podłoża emulsji fotograficznej
wpływ niepłaskości emulsji fotograficznej
wpływ refrakcji atmosferycznej
Dystorsja obiektywu lub dystorsja radialna
jest cechą stałą dla danego obiektywu. Jest to zniekształcenie obrazu rotacyjno-symetryczne, które jest cechą konstrukcyjną obiektywu. Zniekształcenie to powoduje radialne przemieszczenie obrazów punktów w kierunku do lub od punktu głównego zdjęcia i jest wynikiem różnego powiększania obrazów leżących w różnych odległościach kątowych od osi obiektywu. Dystorsję opisuje się przez podanie wektora określonej długości i kierunku. Oś obiektywu zazwyczaj nie jest linią prostą (oscyluje wokół domniemanej osi). Jeżeli w czasie montażu obiektywu, jego elementy optyczne nie zostały precyzyjnie scentrowane lub uzyskały niewielkie pochylenie, to będą działały w przybliżeniu jak mały pryzmat powodując decentrację dystorsji. Taką dystorsję określa się dwiema składowymi: radialną i tangencjalną
- charakter i wielkość dystorsji obiektywu zależą od konstrukcji obiektywu i umiejscowienia w nim diafragmy
- powstaje na skutek nierówności kątów wejścia i wyjścia promieni z obiektywu,
- na jej wartość wpływa dokładność montażu układu optycznego,
- charakterystyka podawana jest w postaci krzywej dystorsji,
- można ją wyeliminować jedną z czterech metod:
1. zasada Porro - Koppego,
2. stosowanie płyt kompensacyjnych
3. zmiana odległości obrazowej
4. metoda analityczna
- powoduje przesunięcie obrazu punktu na płaszczyźnie tłowej; przesunięcie to można rozłożyć na dwie składowe:
I rzut przesunięcia dystorsyjnego na promień radialny - dystorsja radialna
- obraz w rzucie środkowym jest bez zniekształceń
- kamera kreśli obraz rastrowy
Praktycznie: Punkty przecięcia nie są na płaszczyźnie, tworzą taką jakby „czaszę ”. Wtedy promienie musiałyby przejść i utworzyłyby obraz „krążka nieostrości ”. Jeśli przechodzą tak zniekształcenia są najmniejsze, w praktyce są to minimalne różnice rzędu μm.
Dystorsja radialna zależy od odległości od środka (r)
- II dystorsja tangencjalna.
Zależy od kąta jaki tworzy, bierzemy pod uwagę kąt φ i odległość od środka S. Wynika z faktu, że układ optyczny nie jest idealnie w jednej linii.
Ta druga jest mała w porównaniu do pierwszej.
Wielkość przesunięcia radialnego zależy od kąta osiowego i długości promienia radialnego
Δr = r - ck * tg α
Dystorsja jest znana już przy projektowaniu obiektywu i najczęściej jest pomijana, gdyż jest ona bardzo mała.
Deformacje podłoża emulsji fotograficznej
Używane jako nośniki emulsji światłoczułej błony acetonowe i poliestrowe, pod wpływem temperatury, wilgotności i czasu składowania kurczą się.
Uwzględnić je można przez porównanie pomierzonych odległości znaczków tłowych z ich nominalnymi wartościami. Ta czynność pozwala określić i uwzględnić deformację podłoża o charakterze afinicznym.
Wpływ niepłaskości emulsji fotograficznej
Emulsja nie stanowi idealnej płaszczyzny. Gdy emulsja odstaje od płaszczyzny ramki tłowej, to promień utworzy obraz w punkcie na powierzchni emulsji, zamiast być odwzorowany w punkcie płaszczyzny tłowej. Dalszemu pomiarowi podlega punkt, który jest rzutem ortogonalnym obrazu na płaszczyznę. W wyniku tej niepłaskości następuje radialne przesunięcie punktów zdjęcia względem ich położenia zgodnie z zasadą rzutu środkowego.
Nastąpi przesunięcie radialne: jeśli α=45st to Δr=Δu, tgα=Δr/Δu Δrrad=Δu tgα
Wpływ refrakcji atmosferycznej
Promienie świetlne tworzące obraz fotograficzny, nie rozchodzą się po liniach prostych, lecz się załamują, gdy przechodzą przez warstwy powietrza o różnej gęstości. Wartość kątową tego przesunięcia nazywamy refrakcją atmosferyczną. Wielkość refrakcji zależy od stanu atmosfery. Wpływ refrakcji rośnie ku skrajom zdjęcia
dr= -r (1+r2/Ck2) C , gdzie dr popr. z tytułu refrakcji r – promień radialny pkt , Ck- odl. Obraz. Kam. C – wartość refrakcji fotogrametrycznej kąta osiowego
Wpływ krzywizny Ziemi
Zakrzywienie Ziemi nie powoduje zniekształceń wiązki perspektywicznej. Jednak współrzędne geodezyjne są odniesione do przyjętej płaszczyzny odwzorowawczej, więc trzeba uwzględnić zakrzywienie Ziemi.
Aby przedstawić powierzchnię Ziemi na płaszczyźnie, należy wprowadzić poprawkę radialną, do pomiarów na zdjęciu
Wpływ krzywizny Ziemi rośnie szybko ku skrajom zdjęcia, jest wprost proporcjonalny do wysokości fotografowania i odwrotnie proporcjonalny do odległości obrazu.
Orientacja wewnętrzna zdjęcia analogowego i cyfrowego – analitycznie.
Zdjęcie fotograficzne jest rzutem środkowym. Do celów ważna jest precyzja rekonstrukcyjna tego rzutu. Rekonstrukcji tej dokonuje się na drodze graficznej, matematycznej. Elementy orientacji wewnętrznej zdjęcia analogowego pozwalają na zrekonstruowanie wiązki promieni świetlnych w kamerze, jaka była w momencie fotografowania. Elementy orientacji wewn określają położenie wewnętrznego środka rzutów S w odniesieniu do płaszczyzny ramki tłowej. Są to:
odległość środka rzutów od płaszczyzny tłowej, zwana odległością obrazową kamery Ck,
położenie punktu głównego O’ (w układzie współrzędnych tłowych), który jest punktem przebicia płaszczyzny tłowej prostą przechodzącą przez środek rzutów S i prostopadłą do płaszczyzny tłowej. Punkt ten nazywa się punktem głównym O’(xo,yo)
Punkt główny O’ wyznaczony jest przez przecięcie się linii łączących przeciwległe znaczki tłowe, umieszczone odpowiednio w płaszczyźnie Iłowej kamery i odfotografowanie na zdjęciach.
Orientacja wew. Zdj. Cyfrowego- polegająca na transformacji z układu współ. pikselowych do tłowych.
Transformacje:
Płaszczyzny na płaszczyznę
R2 =>R2 R2=> N2 (liczny rzeczywiste- liczby naturalne)
-translacja(przesunięcie) ; -obrót (jeśli osie układów nie są do siebie równoległe, bardzo małe kąty)
-zmiana skali (jednokrotność)
(X’,Y’)-układ współrzędnych tłowych (X,Y) – układ współrzędnych pikselowych
R2 R2; R2 N2;przekształcenie afiniczne:
x=a11u+a21v+a31;y=a21+a22v+a23
$\begin{bmatrix} a11 & a12 & 0 \\ a21 & a22 & 0 \\ a31 & a32 & 1 \\ \end{bmatrix}$obrót$\begin{bmatrix} \text{cosα} & \text{sinα} & 0 \\ \text{sinα} & - cos\alpha & 0 \\ 0 & 0 & 1 \\ \end{bmatrix}$zmiana skali$\begin{bmatrix} \text{Su} & 0 & 0 \\ 0 & \text{Sv} & 0 \\ 0 & 0 & 1 \\ \end{bmatrix}$
Poprawny zapis wymaga wprowadzenia wsołrzędnych:
$\overrightarrow{r} = \begin{bmatrix} x \\ y \\ \end{bmatrix}$;$\overrightarrow{R} = \begin{bmatrix} u \\ v \\ \end{bmatrix}$;A=$\begin{bmatrix} a11 & a12 \\ a21 & a22 \\ \end{bmatrix}$;$\overrightarrow{b} = \begin{bmatrix} a31 \\ a32 \\ \end{bmatrix}$;$\overrightarrow{r} = A\overrightarrow{R} + \overrightarrow{b}$
[$\begin{matrix} x^{'} = ax + by + c \\ y^{'} = dx + ey + f \\ \end{matrix}$
Widzenie steroskopowe--takie, które jest niejako wcięciem w przód, umożliwia ocenę przedmiotów we wszystkich trzech wymiarach, a także pozwala oceniać odległości. Warunki widzenia przestrzennego: obszar wspólnego pokrycia, baza oczu około 65 mm, odległość dobrego widzenia 20 cm, oddzielny obraz dla lewego i prawego oka, różnica skal <16%, kąt paralaktyczny 30”<γ<150, obserwacja w płaszczyźnie rdzennej α(O1,O2).
Zegranie da się tylko wykonać miejscowo, ponieważ obraz nie jest odtworzony przestrzennie. Obraz jest na płaszczyźnie a płaszczyny mogą być skręcone/pochylone – jedna względem drugiej.
Układy współrzędnych w fotogrametrii i transformacje.
U. współ. pikselowych zdjęcia – początek układu przujmuje się w lewym górnym narożniku zdjęcia, oś X skierowana w prawo, oś Y skierowana w dół.
U. współ. tłowych zdjęcia – początek układu przyjmuję się w punkcie głównym zdjęcia O’, układ matematyczny (oś X w prawo, Y w górę).
U. współ. terenowych – (X,Y,Z) początek układu w dowolnym miejscu, występują X0,Y0,Z0 – współrzędne środka rzutów w układzie terenowym.
Transformacje
Afiniczna
Patrz O.W.
Rzutowanie płaszczyzny
Rzutowanie przestrzeni euklidesowej na płaszczyznę euklidesową (tłowe -> terenowe)
Orientacja zewnętrzna zdjęcia
Określenie współrzędnych zdjęcia w układzie współrzędnych terenowych lub określenie położenia zdjęcia w trójwymiarowej przestrzeni w momencie fotografowania. Elementy (6): X0,Y0,Z0 – e.liniowe, współrzędne środka rzutów w układzie terenowym, φ ω γ –e. kątowe określające położenie osi optycznej kamery pomiarowej względem osi układu odniesienia.
Równania kolinearności:(wektory leżą w jednej linii) pokazują zależności między współrzędnymi terenowymi punktu a współrzędnymi tego punktu na zdjęciu.
$$X = - Ck\frac{a11\left( X - X0 \right) + a12\left( Y - y0 \right) + a13(Z - Z0)}{a31\left( X - X0 \right) + a32\left( Y - Y0 \right) + a33(Z - Z0)}$$
$$Y = - Ck\frac{a21\left( X - X0 \right) + a22\left( Y - y0 \right) + a23(Z - Z0)}{a31\left( X - X0 \right) + a32\left( Y - Y0 \right) + a33(Z - Z0)}$$
Orientacja wzajemna stereogramu – analitycznie
O. Wz. Jest procedurą analityczną w wyniku, której doprowadzane są do przecięcia wybrane promienie homologiczne wiązek obu zdjęć stereogramu. Celem jest odtworzenie wzajemnego położenia zdjęć stereogramu jakie miały w momencie ich wykonania.
Należy wykonać orientację wewnętrzną, mamy 6 parametrów:
Bx,by,bz,ω;φ;χ||przyjmuje się, że bx=1, dla innych rozwiązuje się układy równań:
α(O1,O2,L1,L2);α($\overrightarrow{b}$,$\overrightarrow{r'}$,$\overrightarrow{rt"}$);P=l1∩2;$\overrightarrow{r"} = \left\lbrack \begin{matrix} x" \\ y" \\ z" \\ \end{matrix} \bullet \begin{matrix} xt" \\ yt" \\ zt" \\ \end{matrix} \right\rbrack = \overrightarrow{rt"} = A\omega\varphi\chi \bullet \overrightarrow{v"} = \begin{bmatrix} a11 & a12 & a13 \\ a21 & a22 & a23 \\ a31 & a32 & a33 \\ \end{bmatrix} \bullet \begin{bmatrix} x" \\ y" \\ z" \\ \end{bmatrix}$;wektory muszą być komplanarne$\overrightarrow{b} \bullet \left( \overrightarrow{r^{'}} \times \overrightarrow{rt"} \right) = 0$
$\begin{bmatrix} \text{bx} & \text{by} & \text{bz} \\ x' & y' & z' \\ xt" & yt" & zt" \\ \end{bmatrix} = 0$;macierz obrotu
$$\begin{bmatrix}
\text{cosφcosχ} & - cos\varphi sin\chi & \text{sinφ} \\
sin\omega sin\varphi + cos\chi & - sin\omega sin\varphi sin\chi + cos\omega cos\chi & - sin\omega cos\varphi \\
- cos\omega sin\varphi + sin\omega cos\chi & cos\omega sin\varphi sin\chi + sin\omega cso\chi & \text{csoωcosφ} \\
\end{bmatrix}$$
ω − obrot dookola osi X (bliskie 0); φ − obr.dookola osi Y (bliskie 0); χ − obr.dookola osi z(niewielkie)||jesliα < 3oto sinα ≈ tgα; cosα ≈ 1
Macierz małych kątów obrotu: Aωφχ=$\left| \begin{matrix} 1 & - \chi & \varphi \\ \chi & 1 & - \omega \\ - \varphi & \omega & 1 \\ \end{matrix} \right|$
$\overrightarrow{b} = \begin{bmatrix} \text{bx} \\ \text{by} \\ \text{bz} \\ \end{bmatrix}$;$\overrightarrow{r'} = \begin{bmatrix} x' \\ y' \\ z' \\ \end{bmatrix}$;$\overrightarrow{r"} = \left| \begin{matrix} x" \\ y" \\ z" \\ \end{matrix} \right|$;$\overrightarrow{rt"} = Awyr \bullet \overrightarrow{r"} = \begin{bmatrix} 1 & - \chi & \varphi \\ \chi & 1 & - \omega \\ - \varphi & \omega & 1 \\ \end{bmatrix} \bullet \begin{bmatrix} x" \\ y" \\ z" \\ \end{bmatrix}$
$\begin{Bmatrix} xt\mathrm{= x} - d\chi y" + d\varphi z" \\ \text{yt}\mathrm{= d\chi x} + y" - \text{dωz}" \\ \text{zt}\mathrm{= - d\varphi x} + d\omega y" + z" \\ \end{Bmatrix}$wyznacznik macierzy(bx,by,bz)
y’zt”-yt”z’-by(x’zt”-xt”z’)+bz(x’yt”-xt”y’)=0
y’($- \varphi x\mathrm{+ \omega y} + z\mathrm{) - (\chi x} + y" - \omega"z)z' + by\lbrack x^{'}\left( - \varphi x\mathrm{+ \omega y} + z\mathrm{) - (x} - \chi y\mathrm{+ \varphi z} \right)z'\rbrack + bz\lbrack x^{'}\left( \text{χx}\mathrm{+ y' - \omega z} \right) - (x\mathrm{- \chi y} + \varphi z")y'\rbrack = 0$
Obrazy epipolarne
Wykorzystywane są na fotogrametrycznych stacjach cyfrowych dla uzyskania efektu stereoskopowego bez konieczności eliminowania w czasie rzeczywistym paralaksy poprzecznej. Zwykle promienie rdzenne obrazów nie są równoległe do osi x układu tłowego. Wskazane jest zatem przetransformowanie każdego obrazu do takiego układu osi. Wykonuje się zatem rzutowe przekształcenie obrazów do takiej postaci, jaką miałyby w przypadku zdjęć normalnych. Takie stereopary nazywa się obrazami epipolarnymi (lub znormalizowanymi). Obrazy epipolarne są generowane po wykonaniu orientacji wzajemnej stereogramu. W trakcie ich tworzenia następuje przepróbowanie oryginalnego obrazu cyfrowego do nowego obrazu- znormalizowanego.
Orientacja bezwzględna modelu.
Jest procedurą w której wykonywane jest przejście do układu terenowego przez transformację przestrzenną układu modelu do układu terenowego.
$\overrightarrow{r}\ \overrightarrow{R1}$;$\overrightarrow{R1} = A_{\text{ΩΦΧ}} \bullet \overrightarrow{r};\overrightarrow{R} = \overrightarrow{R0} + \overrightarrow{R1};\overrightarrow{R} = \overrightarrow{R0} + A_{\text{ΩΦΧ}}\overrightarrow{r}$
Ponieważ model ma jakąś skalę I nie wystarczy obrócić, by przejść do drugiego układu, lecz należy pomnożyć przez jakiś współczynnik skali.
$$\overrightarrow{R1} = \overrightarrow{R0} + \lambda A_{\text{ΩΦΧ}} \bullet \overrightarrow{r}$$
$$\begin{matrix}
X \\
Y \\
Z \\
\end{matrix} = \lambda \bullet R\left| \begin{matrix}
\text{xm} \\
\text{ym} \\
\text{zm} \\
\end{matrix} \right| + \left| \begin{matrix}
\text{xt} \\
\text{yt} \\
\text{zt} \\
\end{matrix} \right|$$
$$\begin{Bmatrix}
x = x0 + \lambda(a11x + a12y + a13z \\
y = y0 + \lambda(a21 + a22y + a23z) \\
z = z0 + \lambda(a31x + a32y + a33z \\
\end{Bmatrix}$$
7 elementów orientacji:
X0,Y0,Z0,λ; Ω, Φ,
Równania poprawek
$$\begin{Bmatrix}
vx = \Delta x0 - z\text{ΔΦ} - y\Delta\chi + x\Delta\lambda - lx \\
vy = \Delta y0 - z\text{ΔΩ} + x\chi + y\Delta\lambda - ly \\
vz = \Delta z0 + x\text{ΔΦ} + y\text{ΔΩ} + z\Delta\lambda - lz \\
\end{Bmatrix}\begin{Bmatrix}
lx = x - x0 - \lambda x \\
ly = y - y0 - \lambda y \\
lz = z - z0 - \lambda z \\
\end{Bmatrix}$$
Jeżeli wykonujemy transformację z jednego układu do drugiego, potrzebne są punkty dostosowania. Potrzebne są przynajmniej 3 fotopunkty. Wybieramy je możliwie szeroko, symetrycznie, rozłożone w obszarze pokrycia, równomiernie. Powinny leżeć na szczegółach sytuacyjnych i punktach sygnalizowanych.
Aerotriangulacja metodą wiązek
1.Wyznaczenie transformacji z układu współrzędnych pikselowych do tłowych dla każdego zdjęcia
2.Zbudowanie równań poprawek na podstawie równań
$\begin{bmatrix} x \\ y \\ z \\ \end{bmatrix} = \begin{bmatrix} x0i \\ y0i \\ z0i \\ \end{bmatrix} + xiA_{\text{ΩiΦiΧi}}\begin{bmatrix} \text{xi} \\ \text{yi} \\ - \text{cki} \\ \end{bmatrix}$x,y-wsp. Tłowe,XYZ-wsp.terenowe;i-numer zdjęcia
3.Jednoczesne wyznaczenie parametrów orientacji zewnętrznej wszystkich zdjęć oraz współrzędnych pkt. Wiążących w układzie terenowym.
Analiza dokładności:
1.mxy,mz – błąd średni obliczony na podstawie różnic pomiędzy współrzędnymi fotopunktów i współrzędnymi z aerotriangulacji
2.$m_{0} = \sqrt{\frac{\sum_{}^{}\text{vv}}{n - m}} < 10\mu m$ - błąd średni pojedynczej obserwacji
3. błędy średnie elementów orientacji zewnętrznej
4.Mxy,Mz – błędy średnie obliczone na podstawie różnic między współrzędnymi terenowymi punktów kontrolnych.
Aerotriangulacja niezależnych modeli
1.Wyznaczenie transformacji z układu współrzędnych pikselowych do tłowych dla każdego zdjęcia
2.wykonanie orientacji wzajemnej wszystkich stereopar i wyznaczenie współrzędnych modeli
3.zbudowanie równań poprawek
4.jednoczesne wyznaczenie współ. trans. Współrzędnych punktów modeli do układu terenowego oraz współrzędnych terenowych tych punktów
$\begin{bmatrix} x \\ y \\ z \\ \end{bmatrix} = \begin{bmatrix} x0i \\ y0i \\ z0i \\ \end{bmatrix} + xiA_{\text{ΩiΦiΧi}}\begin{bmatrix} \text{xi} \\ \text{yi} \\ \text{zi} \\ \end{bmatrix}$|$\begin{bmatrix} x \\ y \\ z \\ \end{bmatrix} = \begin{bmatrix} x0i \\ y0i \\ z0i \\ \end{bmatrix} + xi\begin{bmatrix} 1 & - \chi & \Phi \\ \chi & 1 & - \Omega \\ - \Phi & \Omega & 1 \\ \end{bmatrix}\begin{bmatrix} \text{xi} \\ \text{yi} \\ \text{zi} \\ \end{bmatrix}$
$$\begin{Bmatrix}
vx = \Delta x0 - z\text{ΔΦ} - y\Delta\chi + x\Delta\lambda - lx \\
vy = \Delta y0 - z\text{ΔΩ} + x\chi + y\Delta\lambda - ly \\
vz = \Delta z0 + x\text{ΔΦ} + y\text{ΔΩ} + z\Delta\lambda - lz \\
\end{Bmatrix}\begin{Bmatrix}
lx = x - x0 - \lambda x \\
ly = y - y0 - \lambda y \\
lz = z - z0 - \lambda z \\
\end{Bmatrix}$$
Wyznaczanie współrzędnych terenowych punktów metodami fotogrametrycznymi – generowanie mapy wektorowej.
- autograf analogowy, analityczny, cyfrowy.
Podstawowym źródłem są zdjęcia, stereogram. Wyniki aerotriangulacji: 1. ωφΕ X0Y0Z0 – elementy o. zew. 2. XYZ pktów wiążących
Teoretyczne podstawy spasowania obrazów Matching.
c′(i′, j′) gdzie n′≤i′≤N′ m′≤j′≤M′
$$\mathbf{c"}\left( \mathbf{i",\ j"} \right)\mathbf{\text{\ \ \ gdzie\ }}\mathbf{n}^{\mathbf{"}}\mathbf{\leq}\mathbf{i}^{\mathbf{"}}\mathbf{\leq}\mathbf{N}^{\mathbf{"}}\mathbf{\ \ \ \ m" \leq j" \leq M"}$$
$$d(c^{'},c\mathrm{(x"},y\mathrm{)) = min(d(c',c}\left( \text{dx}\mathrm{,dy} \right)))$$
d = 1 − r
Warunek dla współczynnika korelacji r(Δx”,Δy”)≥r0
Warunek dla wielkości obszaru, w którym poszukiwane jest ekstremum |Δx|<Δx0 , |Δy|<Δy0
Warunek na ochylenie standardowe współczynnika korelacji Sr≥So
Warunek na wartość minimalną współczynnika korelacji: min(r (Δx,Δy))>r1
Warunek na różnicę między dwiema największymi wartościami współczynnika korelacji:
|rmax – r1max1| > Δr0
Każdy z tych warunków ogranicza obszar rozwiązań.
Numeryczny Model Terenu – definicja, metody interpolacji.
NMT – zbiór punktów o znanych współrzędnych terenowych XYZ wraz z metodą interpolacji wartości Z w punkcie X,Y. Metody pozyskiwania: manualna – sami wskazujemy punkty, automatyczna – wtedy, gdy na lewym zdjęciu określam parametry (wielkość obszaru, przesunięcie Δx,Δy) automatycznie na prawym zdjęciu generuje się obszar podobny do tego na lewym (podobne otoczenie punktu). Rodzaje: Numeryczny Model Powierzchni Terenu – powierzchni topograficznej, Numeryczny Model Pokrycia Terenu – model ze wszystkimi elementami na powierzchni. Metody interpolacji NMT:
• regularna siatka punktów (macierz punktów wysokościowych) (ang. GRID - Regular Raster Grid)– jest to najczęściej stosowany w GIS model. Zazwyczaj zapisywany jest on w postaci rastra. Każdy punkt (element macierzy) zawiera średnią wartość rzędnej wysokościowej pola podstawowego o rozmiarze zależnym od dobranej rozdzielczości przestrzennej modelu.
• model triangulacyjny (nieregularna siatka trójkątów) (ang. TIN – Triangular Irregular Network) – model ten zapisuje się w postaci wektorowej. Powierzchnia terenu dzielona jest na trójkąty, których wierzchołki stanowią punkty wysokościowe.
• model poziomicowy – (ang. DGL – Digital Line Graph) – przedstawia kształt danej powierzchni przy użyciu izohips (linii łączących punkty o jednakowej wysokości), zapisywanych w postaci obiektów wektorowych o współrzędnych (x, y, z).
W fotogrametrii używa się najczęściej regularnej siatki trójkątów, tworzy się ją poprzez wykorzystanie nieregularnej siatki trójkątów i triangulacji Delaney’a.
INTERPOLACJA DWULINIOWA:
Z=W1Z1+W2Z2+W3Z3+W4Z4
Z=(1-X)(1-Y)*Z1+(1-Y)X*Z2+XYZ3+(1-X)Y*Z4
Z=Z1-YZ1-XZ1+XYZ1+XZ2-XYZ2+XYZ3+YZ4-XYZ4 – forma dwuliniowa
INTERPOLACJA LINIOWA:
$$\frac{Z2 - Z1}{X2 - X1} = \frac{Z - Z1}{X - X1}$$
$$Z - Z1 = \frac{Z2 - Z1}{X2 - X1}(X - X1)$$
Z = k(X−X1) + Z1
Z = Z(X)
Interpolacja liniowa bo: liniowa ze wzg. na X
Interpolacja dwuliniowa bo: liniowa ze wzg. na X i liniowa ze wzg. na Y => iloczyny XY
Metoda fotogrametryczna budowy NMT - algorytm
Fotogrametryczny pomiar zdjęć lotniczych jest najlepszym źródłem danych dla generowania DTM. Pomiar ten może mieć miejsce na: - autografie analitycznym (lub analogowym), — autografie cyfrowym (cyfrowej fotogrametrycznej stacji roboczej).
Pomiar na autografie (analitycznym czy analogowym) sprowadza się do zbudowania modelu i stereodigitalizacji powierzchni terenu. Pomiarowi podlegają punkty masowe — w miarę regularnie pokrywające obszar — oraz dodatkowo punkty reprezentujące forrny terenowe (linie szkieletowe, linie nieciągłości, ekstremalne pikiety, powierzchnie wyłączeń). Autograf analityczny jest bardzo przydatnym narzędziem do tego celu. Dla równomiernego pokrycia obszaru punktami pomiarowymi można realizować pomiar w zadanej siatce (tzw. „siatka pierwotna"), co zwykle ma miejsce. Autograf analityczny pozycjonuje znaczek pomiarowy w wierzchołkach siatki, a operator tylko „stawia znaczek pomiarowy na terenie", co bardzo przyśpiesza pomiar. Możliwy jest pomiar w zadanych profilach, lub „inteligentne" próbkowanie, tj. automatyczna zmiana gęstości pomiaru w zależności od lokalnego nachylenia terenu. Błąd pomiaru wysokości jest wprost proporcjonalny do wysokości lotu, z której wykonano zdjęcia. Dla przeciętnych warunków produkcyjnych, przy pomiarze „statycznym" przyjmuje się, że błąd ten wynosi:
MZpoz=0,1÷0,015%Wf
MZpoz – błąd pomiaru
Wf – wysokość fotografowania
Przyjmuje się, że średnia odległość punktów pomiarowych (oczko „siatki pierwotnej" jeśli pomiar jestrealizowany w siatce) jest 2-3 razy większa niż oczko siatki DTM. Oznacza to, że wynikowy DTM zawiera 5-10 razy więcej punktów interpolowanych, niż punktów oryginalnie pomierzonych. W odniesieniu do stereogramu daje to normalnie 2-10 tyś, punktów pomiarowych na stereogram (wielkość zależna od typu terenu, przeciętnie jest to 5-6 tyś. punktów). Zwykle etap pomiaru i etap generowania wtórnej siatki DTM są procesami rozłącznymi w czasie. Zwiększenie oczka siatki DTM poza zalecane powyżej relacje- powoduje obniżenie jego dokładności wysokościowej.
Ortofotomapa – metoda generowania (algorytm)
Mapa, bo ma ukł. wsp., siatkę kartograficzną, skalę.
Foto, bo jest zrobiona ze zdjęcia i ma cechy obrazu fotograficznego
Orto, bo jest wykonana w rzucie ortogonalnym (prostopadłym do XY)
Jest obrazem powstałym ze zdjęć lotniczych przetworzonych do jednolitej skali w założonym odwzorowaniu kartograficznym.
Dane:
Zdjęcie (zdjęcia, protokół kalibracji)
Elementy orientacji zdjęć: wew. (analogowego, cyfrowego zdjęcia), zew. (aerotriangulacja)
NMT
ETAPY:
Aerotriangulacja – technologia kameralnego zagęszczania osnowy + orientacja zew. zdjęć
NMT – zbiór punktów o znanych współrzędnych terenowych XYZ wraz z metodą interpolacji wartości Z w punkcie X,Y.
Ortorektyfikacja –poprawienie położenia pikseli, tak by było to w układzie ortogonalnym
Mozaikowanie – stosuje się do usuwania: błędów geometrycznych na obrazach łączonych, błędów radiometrycznych powstałych podczas procesów fotochemicznych (brak jednakowych barw)
Badanie dokładności (kartometryczności)
Dokładność:
-Błędy biorą się głównie z NMT
-Błędy powinny być rzędu 2-3 piksele (skanowane) – wtedy jest OK.
-mx my ok. 50 cm w terenie dla mapy w skali 1:8000 ( błąd mniejszy niż 0,3mm na mapie)
Zastosowanie:
Idealny materiał badawczy przydatny do oceny stanu środowiska przyrodniczego, baza informacyjna dla planistów, geodetów administracji publicznej.
Zalety ortofotomapy:
- na ortofotomapie jest więcej informacji
- można bardzo szybko odnowić (szybsze generowanie od mapy wektorowej – lepsza automatyzacja)
- jest materiałem bardziej wiarygodnym
- może służyć do weryfikacji innych map
Mozaikowanie ortobrazu.
Stosuje się do usuwania: błędów geometrycznych na obrazach łączonych, błędów radiometrycznych powstałych podczas procesów fotochemicznych (brak jednakowych barw). Tniemy po granicach (a nie przez środek) i sklejamy dwa zdjęcia. Jasność/Tekstura może być różna na kolejnych zdjęciach (np. z powodu padania promieni słonecznych). Barwy po sklejeniu mimo idealnego dopasowania są różne, więc linia łączenia będzie widoczna. Ponieważ nie można uzyskać identycznej jakości na dwóch zdjęciach trzeba jedno zdjęcie „przerobić” by było takie jak drugie – wykonać transformacji. Zmiana kontrastu: $\begin{Bmatrix} R1 = a0 + a1R2 + a2G2 + a3B2 \\ C1 = b0 + b1R2 + b2G2 + b3B2 \\ B1 = c0 + c1R2 + c2G2 + c3G3 \\ \end{Bmatrix}$
a0,a1… c0,c1… bierzemy z punktów wspólnych.
Metody identyfikacji obiektów na obrazach.
Pierwszym etapem procesu fotointerpretacyjnego jest rozpoznanie obiektów na zdjęciu lotniczym. Polega ono na kojarzeniu cech obrazów z rzeczywistością.
Etap drugi – właściwa interpretacja zdjęć – polega na analizie, a następnie uogólnieniu informacji uzyskanych w procesie odczytywania określonych obiektów, zjawisk i procesów.
Rezultaty tego etapu są uzależnione od:
dokładności i wiarygodności odczytania zdjęć,
przygotowania teoretycznego, a zwłaszcza zasobu wiedzy z dziedziny, na użytek, której są realizowane badania,
doświadczenia fotointerpretacyjnego,
poziomu techniki i instrumentów fotointerpretacyjnych,
możliwości posiadania innych źródeł informacji o badanym obszarze do analiz porównawczych (zdjęcia wykonane innymi technikami, archiwalne materiały kartograficzne)
Etap trzeci obejmuje wnioskowanie fotointerpretacyjne i stawianie hipotez. Celem jest dokonanie, na podstawie wyników dwóch poprzednich, syntezy zgromadzonych i uporządkowanych informacji w myśl założeń, które stanowiły cel badań fotointerpretacyjnych. Wynikiem tej syntezy są wnioski i hipotezy (w formie graficznej lub tekstowej) dotyczące:
rzeczywistości interesującej użytkownika (dziedziny, na użytek której prowadzono badania),
rzeczywistości interesującej interpretatora w aspekcie ogólnej zgodności wyników badań z rzeczywistością, a także doświadczeń wypływających z praktyki.
Etap czwarty dotyczy podejmowania decyzji na podstawie wniosków i hipotez fotointerpretacyjnych. Charakteryzuje się on świadomym oddziaływaniem na rzeczywistość poznaną w wyniku procesu badań fotointerpretacyjnych i studiów innych źródeł informacji. Wynikiem tego etapu są decyzje inicjujące odpowiednie zabiegi techniczne, planowanie. Przy czym bardzo ważne jest tutaj wyważenie wartości informacji pochodzącej z badań fotointerpretacyjnych. Podjęcie decyzji zamyka cel badawczy.
Konfrontacja terenowa wyników badań umożliwia weryfikację decyzji. Pociąga to za sobą niekiedy konieczność repetycji etapów 1-2-3 z częstotliwością uzależnioną od dynamiki interpretowanego zjawiska.
Jak wynika z powyższego opisu, proces fotointerpretacji jest procesem modelowania rzeczywistości, przy czym model rzeczywistości przechodzi przez kolejne stadia: obraz na zdjęciu, model w świadomości interpretatora, model uogólniony – abstrakcyjny ( na wyższym poziomie świadomości), model hipotetyczny, zweryfikowany (skorygowany) i wreszcie model pragmatyczny (decyzyjny).
ETAPY:
1. okreslenie celu
2. wybór i przygotowanie materiałów fotograficznych
3. wybór i analiza materiałów pomocniczych
4. interpretacja zdjęć lotniczych
Zastosowanie metod fotointerpretacji zdjęć lotniczych:
A: Opracowania fotointerpretacyjne
1. wybranych elementów środowiska przyrodniczego
stanu istniejącego i możliwości użytkowania terenu
3. stanu degradacji środowiska
4. dla poszczególnych dziedzin inżynierii środowiska
5. dla potrzeb archeologii oraz rewaloryzacji modernizacji miast
6. map panoramicznych w dowolnym zakresie tematycznym
B: Opracowania fizjograficzne
1.Opracowania fizjograficzne inwentaryzacyjne i bonitacyjne elementów
2. Wykonanie ocen warunków fizjograficznych terenu
C: Opracowania projektowe dla ochrony środowiska
Teledetekcja jako nauka.
Teledetekcja to badanie wykonane z pewnej odległości. Badania teledetekcyjne można wykonywać z samolotów, przestrzeni kosmicznej lub z powierzchni ziemi. Metody teledetekcyjne dzielą się na aktywne i pasywne. W aktywnej teledetekcji sygnał jest wysłany z instrumentu, a po odbiciu od obiektu, odbierany i analizowany. Przykładami aktywnej teledetekcji jest radar, w którym wysyłane są mikrofale, lidar – w tym przypadku wysyłane jest światło, czy sodar – wtedy wysyłane są fale akustyczne. Pasywnymi metodami teledetekcji są metody oparte na analizie sygnału wysyłanego od obserwowanego obiektu. Zdjęcie fotograficzne jest przykładem teledetekcji pasywnej.
Obrazy satelitarne, charakterystyka, zastosowanie.
Obrazy rejestrowane przez instrumenty detekcyjne satelity lub samolotu udostępniane są
zazwyczaj w postaci rastrowej. Instrumenty detekcyjne satelity rejestrują, w zależności od ich typu i czułości spektralnej, promieniowanie słoneczne odbite od powierzchni Ziemi, chmur, a także samej atmosfery, promieniowanie termiczne Ziemi lub generowane przez źródło umieszczone na samym satelicie promieniowanie mikrofalowe odbite od powierzchni Ziemi. Podstawowe parametry, charakteryzujące zdjęcie satelitarne to: liczba pasm spektralnych, w których dokonano zapisu, zakres i rozdzielczość widmowa oraz zakres dynamiczny każdego z pasm, a także rozdzielczość przestrzenna zdjęcia, czyli rozmiar terenu odpowiadający jednemu pikselowi na zdjeciu.
Zapotrzebowanie na zdjęcia o obrazy satelitarne zauważalne jest w rolnictwie, leśnictwie, obronności, planowaniu przestrzennym, transporcie i przy tworzeniu map topograficznych.
Wydajność obrazowania satelitarnego
Podstawowym użytkowym parametrem systemu obrazowania jest jego wydajność. Ogólnie, wydajność zależy od parametrów kamery i orbity, a w tym:
— szerokości obrazowanego pasa,
— „manewrowalności" określającej czas konieczny na skierowanie układu optycznego na wybrany obiekt,
— czasu przebywania satelity nad obiektem,
— częstotliwości rewizyt, określającej jak często obiekt może znaleźć się
w polu widzenia kamery.
Klasyfikacja obrazów polega na interpretacji wielospektralnych obrazów powierzchni Ziemi wykonanych z pułapu satelitarnego i lotniczego. Tworzy ona określoną, automatycznie lub przez użytkownika, liczbę klas, w ramach których grupuje się piksele o podobnych właściwościach. Polega ona na analizie podobieństwa odbicia spektralnego dla poszczególnych kategorii użytkowania terenu w różnych zakresach spektralnych.
Klasyfikację nadzorowaną wykorzystuje się wówczas, kiedy posiadamy pewną wiedzę na temat klasyfikowanego zbioru danych. Wykorzystuje się tu tzw. „pola treningowe”, czyli wybrane fragmenty obrazu, które można uznać za reprezentatywne dla poszczególnych kategorii użytkowania terenu, stanowiące wzorce klas.
Metoda najmniejszej odległości polega na porównaniu odległości spektralnej pomiędzy wektorem pary pikseli ze zbioru danych klasyfikowanych (w przestrzeni spektralnej) do odległości wektorów regionów treningowych. Decyzja polega na wybraniu minimalnej odległości spośród wszystkich policzonych odległości.
Metoda największego podobieństwa określa prawdopodobieństwo, że dany piksel należy do danej klasy. W przypadku gdy posiadamy informacje wskazujące na to, że prawdopodobieństwo przynależności danego piksela do jednej klasy jest większe niż prawdopodobieństwo przynależności danego piksela do drugiej klasy, wówczas należy zastosować wagowane współczynniki w klasyfikatorze.
Metoda równoległoboków – polega na zdefiniowaniu dla każdej wyróżnionej kategorii i zakresu spektralnego granic przedziału wartości piksela. Dla analizowanych dwóch kanałów spektralnych piksele zakwalifikowane do danej klasy muszą się znaleźć wewnątrz prostokąta. Przy analizie trzech kanałów będzie to graniastosłup.
Klasyfikacja nienadzorowana nie bazuje na wcześniejszej wiedzy dotyczącej ewentualnego algorytmu podziału pikseli na klasy. Wyróżniamy tu metodę k-średnich. Algorytmy ISOCLASS (ISODATA) automatycznie grupują dane w klasy. Aby przeprowadzić interpretację wizualną obrazu satelitarnego lub oznaczyć pola wyznaczone w trakcie komputerowej klasyfikacji nienadzorowanej konieczne jest zebranie danych z kilku miejsc badań pokrycia terenu. W celu przeprowadzenia klasyfikacji automatycznej zgodnie z tymi algorytmami należy padać szereg parametrów początkowych do których należy zaliczyć najważniejsze, czyli:
- K - maksymalna liczba klas,
- N - maksymalna liczba iteracji,
- P - procentowy poziom niezmienności podziału pikseli na klasy.
Fotogrametria jako nauka.
To nauka zajmująca się określaniem położenia , wymiarów i kształtu obiektów przestrzennych na podstawie ich obrazów fotograficznych lub cyfrowych. Nazwa pochodzi z j.greckiego i składa się z 3 części:
photos- światło; gramma – zapis; metro – pomiar, czyli oznacza to mierzenie i zapisywanie za pomocą światła.
Podział ze względu na miejsce wykonania zdjęcia:
FOTOGRAMETRIA
1)Naziemna - terrofotka
jednoobrazowa
dwuobrazowa
2) Lotnicza – aerofotka
jednoobrazowa
dwuobrazowa
Obecnie doszła jeszcze fotka satelitarna.
Kamery lotnicze, analogowe i cyfrowe.
Kamera fotogrametryczna(pomiarowa kamera lotnicza)- urządzenie do pozyskiwania zdjęć lotniczych. Są to bardzo dokładne i skomplikowane układy mechaniczne, elektryczne, optyczne i elektroniczne.
Kamera składa się z:
Obiektywu (wolnego od dystorsji) wyposażonego w zmienną lub stałą przysłonę i urządzenie do regulacji czasu naświetlania filmu
Korpusu kamery, wyposażonego w szlifowaną ramkę tłową ze znaczkami tłowymi, a także uchwyt na kasety lub ładownik z materiałem negatywowym. Ramka tłowa zazwyczaj znajduje się w płaszczyźnie ogniskowej obiektywu i jest prostopadła do osi obiektywu.
Urządzeń umożliwiających realizację określonej orientacji zewnętrznej (GPS, celownik, komputer)
Kaset lub ładowników
Zawieszenia lub spodarki ze statywem
Dodatkowego wyposażenia (np. filtr, statoskop, numerator zdjęć)
Cykl pracy kamery:
Odciągnięcie płyty od ramki tłowej,
Wyrównanie ciśnień
Przewinięcie filmu,
Przyssanie filmy do płyty
Dociśniecie filmu do ramki tłowej,
Naciągniecie i wyzwolenie migawki.
Wymagania konstrukcyjne kamer pomiarowych:
-obiektyw wolny od zniekształceń geometrycznych obrazu (szczególnie dystorsji)
-obiektyw powinien mieć dużą rozdzielczość
-konstrukcja podzespołów powinna gwarantować uzyskanie ostrego obrazu w ruchu
-powinna naświetlać znaczki tłowe
-ramka tłowa powinna być prostopadła do osi kamery
-powinna posiadać urządzenie do orientowania osi optycznej
Podział kamer lotniczych ze względu na:
Geometrię zdjęcia- kadrowe, szczelinowe, panoramiczne
Kąt widzenia:
-wąskokątne 10°-20° ck= 610,950mm
-normalnokątne 50°-75° ck= 210,300mm
-szerokokątne 85°-95° ck= 152mm
-ponad szerokokątne 110°-130° ck= 88mm
Odległość obrazu
Wymiary zdjęcia:
-małoformatowe<18x18mmm,
-normalnego formatu 18x18, 23x23
-wielkoformatowe >23x23
Stopień automatyzacji (ręczne, półauto, auto)
Rodzaj podłoża materiału fotograficznego
Zakres promieniowania
Analogowe zdjęcie lotnicze.
Zdjęcia lotnicze dzielimy na:
Pionowe (v = 0) i prawie pionowe v<3°(najczęściej opracowywane)
Nachylone v>3°-obejmują duży obszar rzadko stosowane do celów kartograficznych (v<45°)
Perspektywiczne (o dużym nachyleniu z odfotografowaną linią horyzontu)-do celów przeglądowych i rozpoznawczych
Zbieżne (o niedużym nachyleniu, osie kamer zbieżne- każde zdjęcie pokrywa tę samą część terenu)
Zdjęcia wykonywane są szeregowo. Pokrycie wzajemne dwóch sąsiednich zdjęć w szeregu wynosi około 60% ich powierzchni choć stosowane są także inne powierzchnie pokrycia podłużnego.
Zdjęcia cyfrowe – metody pozyskiwania
OBRAZ CYFROWY - to raster matematyczny, czyli macierz, której każdy element opisuje jedną cechę określonego elementu obrazu. Najmniejszym elementem obrazu cyfrowego jest piksel. Cechą pikseli jest poziom szarości w przedziale 0 - 255 dla obrazu biało - czarnego (0 - czarny, 255 - biały). Człowiek rozróżnia 32 - 40 poziomów szarości. Podstawowym modelem kolorowego obrazu jest model RGB (red, green, blue). Każdy piksel obrazu modelu RGB jest wypadkową zniesienia tych trzech barw.
Zdjęcie lotnicze w postaci cyfrowej powstaje dwoma sposobami:
I metoda (starsza stosowana w Polsce)
-badany teren jest fotografowany zwykłą kamerą lotniczą (rozdz. 3880dpi)
-zdjęcie lotnicze jest skanowane skanerem o rozdz. 1800dpi
-obraz cyfrowy dla opracowań fotogram. Posiada rozdz. 1300dpii zapisywany jest jako plik .bmp .tiff .gif
II metoda-zdjęcia terenu wykonywane są kamerą cyfrową o rozdzielczości 3880dpi. Powstaje obraz cyfrowy o tejże rozdzielczości (bez straty informacji)
Protokół kalibracji kamery
Znaczki tłowe wyróżniają zdjęcia od innych. Jeżeli jest kamera fotogrametryczna to musi być protokół kalibracji. Protokół kalibracji: robimy nie rzadziej niż dwa lata, zawiera nr kamery, datę, informację o Ck (dokł. 10 μm = 0,01mm), rzucie środka rzutów O’, położeniu znaczków tłowych (dokł. 1μm) -> układ współrzędnych płaskich tłowych XY, punktach PPS i PPA.
Zniekształcenia geometryczne i radiometryczne zdjęć analogowych i cyfrowych.
Zniekształcenia liniowe.
Wpływ nachylenia zdjęcia
Punkt terenowy odwzoruje się na nachylonym zdjęciu lotniczym przesuniętym radialnie w kierunku punktu izocentrycznego, w porównaniu z jego odpowiednikiem na zdjęciu ściśle pionowym. Wartość przesunięcia wynosi:
Wpływ deniwelacji
Różnice terenowe powodują zniekształcenia perspektywistyczne punktów. Wpływ rozpatrzono na zdjęciach pionowych, gdyż wartość jest tego samego rzędu i wynosi:
Kierunek przesunięcia jest zgodny z kierunkiem do punktu nadirowego.
Zniekształcenia kątów o wierzchołkach w punktach głównych
Zniekształcenie spowodowane nachyleniem zdjęcia.
Gdy zdjęcie jest nachylone o wartość kąta v, to podczas pomiaru kierunków z punktu głównego, powstają błędy o wartości obliczanej z wzoru:
Zniekształcenie kierunku spowodowane deniwelacją terenu.
Przesunięcie radialne kierunków spowodowane deniwelacją terenu powoduje zniekształcenie kątowe kierunku mierzonego z punktu głównego. Wartość przesunięcia wynosi:
Czynniki zniekształcające geometrię zdjęcia:
dystorsja obiektywu
deformacja podłoża emulsji fotograficznej
wpływ niepłaskości emulsji fotograficznej
wpływ refrakcji atmosferycznej
Dystorsja obiektywu lub dystorsja radialna
jest cechą stałą dla danego obiektywu. Jest to zniekształcenie obrazu rotacyjno-symetryczne, które jest cechą konstrukcyjną obiektywu. Zniekształcenie to powoduje radialne przemieszczenie obrazów punktów w kierunku do lub od punktu głównego zdjęcia i jest wynikiem różnego powiększania obrazów leżących w różnych odległościach kątowych od osi obiektywu. Dystorsję opisuje się przez podanie wektora określonej długości i kierunku. Oś obiektywu zazwyczaj nie jest linią prostą (oscyluje wokół domniemanej osi). Jeżeli w czasie montażu obiektywu, jego elementy optyczne nie zostały precyzyjnie scentrowane lub uzyskały niewielkie pochylenie, to będą działały w przybliżeniu jak mały pryzmat powodując decentrację dystorsji. Taką dystorsję określa się dwiema składowymi: radialną i tangencjalną
orientacji wewn określają położenie wewnętrznego środka rzutów S w odniesieniu do płaszczyzny ramki tłowej. Są to:
odległość środka rzutów od płaszczyzny tłowej, zwana odległością obrazową kamery Ck,
położenie punktu głównego O’ (w układzie współrzędnych tłowych), który jest punktem przebicia płaszczyzny tłowej prostą przechodzącą przez środek rzutów S i prostopadłą do płaszczyzny tłowej. Punkt ten nazywa się punktem głównym O’(xo,yo)
Punkt główny O’ wyznaczony jest przez przecięcie się linii łączących przeciwległe znaczki tłowe, umieszczone odpowiednio w płaszczyźnie Iłowej kamery i odfotografowanie na zdjęciach.
Orientacja wew. Zdj. Cyfrowego- polegająca na transformacji z układu współ. pikselowych do tłowych.
Transformacje:
Płaszczyzny na płaszczyznę
R2 =>R2 R2=> N2 (liczny rzeczywiste- liczby naturalne)
-translacja(przesunięcie) ; -obrót (jeśli osie układów nie są do siebie równoległe, bardzo małe kąty)
-zmiana skali (jednokrotność)
(X’,Y’)-układ współrzędnych tłowych (X,Y) – układ współrzędnych pikselowych
R2 R2; R2 N2;przekształcenie afiniczne:
x=a11u+a21v+a31;y=a21+a22v+a23
$\begin{bmatrix} a11 & a12 & 0 \\ a21 & a22 & 0 \\ a31 & a32 & 1 \\ \end{bmatrix}$obrót$\begin{bmatrix} \text{cosα} & \text{sinα} & 0 \\ \text{sinα} & - cos\alpha & 0 \\ 0 & 0 & 1 \\ \end{bmatrix}$zmiana skali$\begin{bmatrix} \text{Su} & 0 & 0 \\ 0 & \text{Sv} & 0 \\ 0 & 0 & 1 \\ \end{bmatrix}$
Poprawny zapis wymaga wprowadzenia wsołrzędnych:
$\overrightarrow{r} = \begin{bmatrix} x \\ y \\ \end{bmatrix}$;$\overrightarrow{R} = \begin{bmatrix} u \\ v \\ \end{bmatrix}$;A=$\begin{bmatrix} a11 & a12 \\ a21 & a22 \\ \end{bmatrix}$;$\overrightarrow{b} = \begin{bmatrix} a31 \\ a32 \\ \end{bmatrix}$;$\overrightarrow{r} = A\overrightarrow{R} + \overrightarrow{b}$
[$\begin{matrix} x^{'} = ax + by + c \\ y^{'} = dx + ey + f \\ \end{matrix}$
Widzenie steroskopowe--takie, które jest niejako wcięciem w przód, umożliwia ocenę przedmiotów we wszystkich trzech wymiarach, a także pozwala oceniać odległości. Warunki widzenia przestrzennego: obszar wspólnego pokrycia, baza oczu około 65 mm, odległość dobrego widzenia 20 cm, oddzielny obraz dla lewego i prawego oka, różnica skal <16%, kąt paralaktyczny 30”<γ<150, obserwacja w płaszczyźnie rdzennej α(O1,O2).
Zegranie da się tylko wykonać miejscowo, ponieważ obraz nie jest odtworzony przestrzennie. Obraz jest na płaszczyźnie a płaszczyny mogą być skręcone/pochylone – jedna względem drugiej.
Układy współrzędnych w fotogrametrii i transformacje.
U. współ. pikselowych zdjęcia – początek układu przujmuje się w lewym górnym narożniku zdjęcia, oś X skierowana w prawo, oś Y skierowana w dół.
U. współ. tłowych zdjęcia – początek układu przyjmuję się w punkcie głównym zdjęcia O’, układ matematyczny (oś X w prawo, Y w górę).
U. współ. terenowych – (X,Y,Z) początek układu w dowolnym miejscu, występują X0,Y0,Z0 – współrzędne środka rzutów w układzie terenowym.
Transformacje
Afiniczna
Patrz O.W.
Rzutowanie płaszczyzny
Rzutowanie przestrzeni euklidesowej na płaszczyznę euklidesową (tłowe -> terenowe)
$\overrightarrow{r}\ \overrightarrow{R1}$;$\overrightarrow{R1} = A_{\text{ΩΦΧ}} \bullet \overrightarrow{r};\overrightarrow{R} = \overrightarrow{R0} + \overrightarrow{R1};\overrightarrow{R} = \overrightarrow{R0} + A_{\text{ΩΦΧ}}\overrightarrow{r}$
Ponieważ model ma jakąś skalę I nie wystarczy obrócić, by przejść do drugiego układu, lecz należy pomnożyć przez jakiś współczynnik skali.
$$\overrightarrow{R1} = \overrightarrow{R0} + \lambda A_{\text{ΩΦΧ}} \bullet \overrightarrow{r}$$
$$\begin{matrix}
X \\
Y \\
Z \\
\end{matrix} = \lambda \bullet R\left| \begin{matrix}
\text{xm} \\
\text{ym} \\
\text{zm} \\
\end{matrix} \right| + \left| \begin{matrix}
\text{xt} \\
\text{yt} \\
\text{zt} \\
\end{matrix} \right|$$
$$\begin{Bmatrix}
x = x0 + \lambda(a11x + a12y + a13z \\
y = y0 + \lambda(a21 + a22y + a23z) \\
z = z0 + \lambda(a31x + a32y + a33z \\
\end{Bmatrix}$$
7 elementów orientacji:
X0,Y0,Z0,λ; Ω, Φ,
Równania poprawek
$$\begin{Bmatrix}
vx = \Delta x0 - z\text{ΔΦ} - y\Delta\chi + x\Delta\lambda - lx \\
vy = \Delta y0 - z\text{ΔΩ} + x\chi + y\Delta\lambda - ly \\
vz = \Delta z0 + x\text{ΔΦ} + y\text{ΔΩ} + z\Delta\lambda - lz \\
\end{Bmatrix}\begin{Bmatrix}
lx = x - x0 - \lambda x \\
ly = y - y0 - \lambda y \\
lz = z - z0 - \lambda z \\
\end{Bmatrix}$$
Jeżeli wykonujemy transformację z jednego układu do drugiego, potrzebne są punkty dostosowania. Potrzebne są przynajmniej 3 fotopunkty. Wybieramy je możliwie szeroko, symetrycznie, rozłożone w obszarze pokrycia, równomiernie. Powinny leżeć na szczegółach sytuacyjnych i punktach sygnalizowanych.
Aerotriangulacja metodą wiązek
1.Wyznaczenie transformacji z układu współrzędnych pikselowych do tłowych dla każdego zdjęcia
2.Zbudowanie równań poprawek na podstawie równań
$\begin{bmatrix} x \\ y \\ z \\ \end{bmatrix} = \begin{bmatrix} x0i \\ y0i \\ z0i \\ \end{bmatrix} + xiA_{\text{ΩiΦiΧi}}\begin{bmatrix} \text{xi} \\ \text{yi} \\ - \text{cki} \\ \end{bmatrix}$x,y-wsp. Tłowe,XYZ-wsp.terenowe;i-numer zdjęcia
3.Jednoczesne wyznaczenie parametrów orientacji zewnętrznej wszystkich zdjęć oraz współrzędnych pkt. Wiążących w układzie terenowym.
Analiza dokładności:
1.mxy,mz – błąd średni obliczony na podstawie różnic pomiędzy współrzędnymi fotopunktów i współrzędnymi z aerotriangulacji
2.$m_{0} = \sqrt{\frac{\sum_{}^{}\text{vv}}{n - m}} < 10\mu m$ - błąd średni pojedynczej obserwacji
3. błędy średnie elementów orientacji zewnętrznej
4.Mxy,Mz – błędy średnie obliczone na podstawie różnic między współrzędnymi terenowymi punktów kontrolnych.
Aerotriangulacja niezależnych modeli
1.Wyznaczenie transformacji z układu współrzędnych pikselowych do tłowych dla każdego zdjęcia
2.wykonanie orientacji wzajemnej wszystkich stereopar i wyznaczenie współrzędnych modeli
3.zbudowanie równań poprawek
4.jednoczesne wyznaczenie współ. trans. Współrzędnych punktów modeli do układu terenowego oraz współrzędnych terenowych tych punktów
$\begin{bmatrix} x \\ y \\ z \\ \end{bmatrix} = \begin{bmatrix} x0i \\ y0i \\ z0i \\ \end{bmatrix} + xiA_{\text{ΩiΦiΧi}}\begin{bmatrix} \text{xi} \\ \text{yi} \\ \text{zi} \\ \end{bmatrix}$|$\begin{bmatrix} x \\ y \\ z \\ \end{bmatrix} = \begin{bmatrix} x0i \\ y0i \\ z0i \\ \end{bmatrix} + xi\begin{bmatrix} 1 & - \chi & \Phi \\ \chi & 1 & - \Omega \\ - \Phi & \Omega & 1 \\ \end{bmatrix}\begin{bmatrix} \text{xi} \\ \text{yi} \\ \text{zi} \\ \end{bmatrix}$
$$\begin{Bmatrix}
vx = \Delta x0 - z\text{ΔΦ} - y\Delta\chi + x\Delta\lambda - lx \\
vy = \Delta y0 - z\text{ΔΩ} + x\chi + y\Delta\lambda - ly \\
vz = \Delta z0 + x\text{ΔΦ} + y\text{ΔΩ} + z\Delta\lambda - lz \\
\end{Bmatrix}\begin{Bmatrix}
lx = x - x0 - \lambda x \\
ly = y - y0 - \lambda y \\
lz = z - z0 - \lambda z \\
\end{Bmatrix}$$
Wyznaczanie współrzędnych terenowych punktów metodami fotogrametrycznymi – generowanie mapy wektorowej.
- autograf analogowy, analityczny, cyfrowy.
Podstawowym źródłem są zdjęcia, stereogram. Wyniki aerotriangulacji: 1. ωφΕ X0Y0Z0 – elementy o. zew. 2. XYZ pktów wiążących
Teoretyczne podstawy spasowania obrazów Matching.
c′(i′, j′) gdzie n′≤i′≤N′ m′≤j′≤M′
$$\mathbf{c"}\left( \mathbf{i",\ j"} \right)\mathbf{\text{\ \ \ gdzie\ }}\mathbf{n}^{\mathbf{"}}\mathbf{\leq}\mathbf{i}^{\mathbf{"}}\mathbf{\leq}\mathbf{N}^{\mathbf{"}}\mathbf{\ \ \ \ m" \leq j" \leq M"}$$
$$d(c^{'},c\mathrm{(x"},y\mathrm{)) = min(d(c',c}\left( \text{dx}\mathrm{,dy} \right)))$$
d = 1 − r
Warunek dla współczynnika korelacji r(Δx”,Δy”)≥r0
Warunek dla wielkości obszaru, w którym poszukiwane jest ekstremum |Δx|<Δx0 , |Δy|<Δy0
Warunek na ochylenie standardowe współczynnika korelacji Sr≥So
Warunek na wartość minimalną współczynnika korelacji: min(r (Δx,Δy))>r1
Warunek na różnicę między dwiema największymi wartościami współczynnika korelacji:
|rmax – r1max1| > Δr0
Każdy z tych warunków ogranicza obszar rozwiązań.
Numeryczny Model Terenu – definicja, metody interpolacji.
NMT – zbiór punktów o znanych współrzędnych terenowych XYZ wraz z metodą interpolacji wartości Z w punkcie X,Y. Metody pozyskiwania: manualna – sami wskazujemy punkty, automatyczna – wtedy, gdy na lewym zdjęciu określam parametry (wielkość obszaru, przesunięcie Δx,Δy) automatycznie na prawym zdjęciu generuje się obszar podobny do tego na
lewym (podobne otoczenie punktu). Rodzaje: Numeryczny Model Powierzchni Terenu – powierzchni topograficznej, Numeryczny Model Pokrycia Terenu – model ze wszystkimi elementami na powierzchni. Metody interpolacji NMT:
• regularna siatka punktów (macierz punktów wysokościowych) (ang. GRID - Regular Raster Grid)– jest to najczęściej stosowany w GIS model. Zazwyczaj zapisywany jest on w postaci rastra. Każdy punkt (element macierzy) zawiera średnią wartość rzędnej wysokościowej pola podstawowego o rozmiarze zależnym od dobranej rozdzielczości przestrzennej modelu.
• model triangulacyjny (nieregularna siatka trójkątów) (ang. TIN – Triangular Irregular Network) – model ten zapisuje się w postaci wektorowej. Powierzchnia terenu dzielona jest na trójkąty, których wierzchołki stanowią punkty wysokościowe.
• model poziomicowy – (ang. DGL – Digital Line Graph) – przedstawia kształt danej powierzchni przy użyciu izohips (linii łączących punkty o jednakowej wysokości), zapisywanych w postaci obiektów wektorowych o współrzędnych (x, y, z).
W fotogrametrii używa się najczęściej regularnej siatki trójkątów, tworzy się ją poprzez wykorzystanie nieregularnej siatki trójkątów i triangulacji Delaney’a.
INTERPOLACJA DWULINIOWA:
Z=W1Z1+W2Z2+W3Z3+W4Z4
Z=(1-X)(1-Y)*Z1+(1-Y)X*Z2+XYZ3+(1-X)Y*Z4
Z=Z1-YZ1-XZ1+XYZ1+XZ2-XYZ2+XYZ3+YZ4-XYZ4 – forma dwuliniowa
INTERPOLACJA LINIOWA:
$$\frac{Z2 - Z1}{X2 - X1} = \frac{Z - Z1}{X - X1}$$
$$Z - Z1 = \frac{Z2 - Z1}{X2 - X1}(X - X1)$$
Z = k(X−X1) + Z1
Z = Z(X)
Interpolacja liniowa bo: liniowa ze wzg. na X
Interpolacja dwuliniowa bo: liniowa ze wzg. na X i liniowa ze wzg. na Y => iloczyny XY
Metoda fotogrametryczna budowy NMT - algorytm
Fotogrametryczny pomiar zdjęć lotniczych jest najlepszym źródłem danych dla generowania DTM. Pomiar ten może mieć miejsce na: - autografie analitycznym (lub analogowym), — autografie cyfrowym (cyfrowej fotogrametrycznej stacji roboczej).
Pomiar na autografie (analitycznym czy analogowym) sprowadza się do zbudowania modelu i stereodigitalizacji powierzchni terenu. Pomiarowi podlegają punkty masowe — w miarę regularnie pokrywające obszar — oraz dodatkowo punkty reprezentujące forrny terenowe (linie szkieletowe, linie nieciągłości, ekstremalne pikiety, powierzchnie wyłączeń). Autograf analityczny jest bardzo przydatnym narzędziem do tego celu. Dla równomiernego pokrycia obszaru punktami pomiarowymi można realizować pomiar w zadanej siatce (tzw. „siatka pierwotna"), co zwykle ma miejsce. Autograf analityczny pozycjonuje znaczek pomiarowy w wierzchołkach siatki, a operator tylko „stawia znaczek pomiarowy na terenie", co bardzo przyśpiesza pomiar. Możliwy jest pomiar w zadanych profilach, lub „inteligentne" próbkowanie, tj. automatyczna zmiana gęstości pomiaru w zależności od lokalnego nachylenia terenu. Błąd pomiaru wysokości jest wprost proporcjonalny do wysokości lotu, z której wykonano zdjęcia. Dla przeciętnych warunków produkcyjnych, przy pomiarze „statycznym" przyjmuje się, że błąd ten wynosi:
MZpoz=0,1÷0,015%Wf
MZpoz – błąd pomiaru
Wf – wysokość fotografowania
Przyjmuje się, że średnia odległość punktów pomiarowych (oczko „siatki pierwotnej" jeśli pomiar jestrealizowany w siatce) jest 2-3 razy większa niż oczko siatki DTM. Oznacza to, że wynikowy DTM zawiera 5-10 razy więcej punktów interpolowanych, niż punktów oryginalnie pomierzonych. W odniesieniu do stereogramu daje to normalnie 2-10 tyś, punktów pomiarowych na stereogram (wielkość zależna od typu terenu, przeciętnie jest to 5-6 tyś. punktów). Zwykle etap pomiaru i etap generowania wtórnej siatki DTM są procesami rozłącznymi w czasie. Zwiększenie oczka siatki DTM poza zalecane powyżej relacje- powoduje obniżenie jego dokładności wysokościowej.
Ortofotomapa – metoda generowania (algorytm)
Mapa, bo ma ukł. wsp., siatkę kartograficzną, skalę.
Foto, bo jest zrobiona ze zdjęcia i ma cechy obrazu fotograficznego
Orto, bo jest wykonana w rzucie ortogonalnym (prostopadłym do XY)
Jest obrazem powstałym ze zdjęć lotniczych przetworzonych do jednolitej skali w założonym odwzorowaniu kartograficznym.
Dane:
Zdjęcie (zdjęcia, protokół kalibracji)
Elementy orientacji zdjęć: wew. (analogowego, cyfrowego zdjęcia), zew. (aerotriangulacja)
NMT
ETAPY:
Aerotriangulacja – technologia kameralnego zagęszczania osnowy + orientacja zew. zdjęć
NMT – zbiór punktów o znanych współrzędnych terenowych XYZ wraz z metodą interpolacji wartości Z w punkcie X,Y.
Ortorektyfikacja –poprawienie położenia pikseli, tak by było to w układzie ortogonalnym
Mozaikowanie – stosuje się do usuwania: błędów geometrycznych na obrazach łączonych, błędów radiometrycznych powstałych podczas procesów fotochemicznych (brak jednakowych barw)
Badanie dokładności (kartometryczności)
Dokładność:
-Błędy biorą się głównie z NMT
-Błędy powinny być rzędu 2-3 piksele (skanowane) – wtedy jest OK.
-mx my ok. 50 cm w terenie dla mapy w skali 1:8000 ( błąd mniejszy niż 0,3mm na mapie)
Zastosowanie:
Idealny materiał badawczy przydatny do oceny stanu środowiska przyrodniczego, baza informacyjna dla planistów, geodetów administracji publicznej.
Zalety ortofotomapy:
- na ortofotomapie jest więcej informacji
- można bardzo szybko odnowić (szybsze generowanie od mapy wektorowej – lepsza automatyzacja)
- jest materiałem bardziej wiarygodnym
- może służyć do weryfikacji innych map
Mozaikowanie ortobrazu.
Stosuje się do usuwania: błędów geometrycznych na obrazach łączonych, błędów radiometrycznych powstałych podczas procesów fotochemicznych (brak jednakowych barw). Tniemy po granicach (a nie przez środek) i sklejamy dwa zdjęcia. Jasność/Tekstura może być różna na kolejnych zdjęciach (np. z powodu padania promieni słonecznych). Barwy po sklejeniu mimo idealnego dopasowania są różne, więc linia łączenia będzie widoczna. Ponieważ nie można uzyskać identycznej jakości na dwóch zdjęciach trzeba jedno zdjęcie „przerobić” by było takie jak drugie – wykonać transformacji. Zmiana kontrastu: $\begin{Bmatrix} R1 = a0 + a1R2 + a2G2 + a3B2 \\ C1 = b0 + b1R2 + b2G2 + b3B2 \\ B1 = c0 + c1R2 + c2G2 + c3G3 \\ \end{Bmatrix}$
a0,a1… c0,c1… bierzemy z punktów wspólnych.
Metody identyfikacji obiektów na obrazach.
Pierwszym etapem procesu fotointerpretacyjnego jest rozpoznanie obiektów na zdjęciu lotniczym. Polega ono na kojarzeniu cech obrazów z rzeczywistością.
Orientacja zewnętrzna zdjęcia
Określenie współrzędnych zdjęcia w układzie współrzędnych terenowych lub określenie położenia zdjęcia w trójwymiarowej przestrzeni w momencie fotografowania. Elementy (6): X0,Y0,Z0 – e.liniowe, współrzędne środka rzutów w układzie terenowym, φ ω γ –e. kątowe określające położenie osi optycznej kamery pomiarowej względem osi układu odniesienia.
Równania kolinearności:(wektory leżą w jednej linii) pokazują zależności między współrzędnymi terenowymi punktu a współrzędnymi tego punktu na zdjęciu.
$$X = - Ck\frac{a11\left( X - X0 \right) + a12\left( Y - y0 \right) + a13(Z - Z0)}{a31\left( X - X0 \right) + a32\left( Y - Y0 \right) + a33(Z - Z0)}$$
$$Y = - Ck\frac{a21\left( X - X0 \right) + a22\left( Y - y0 \right) + a23(Z - Z0)}{a31\left( X - X0 \right) + a32\left( Y - Y0 \right) + a33(Z - Z0)}$$
Orientacja wzajemna stereogramu – analitycznie
O. Wz. Jest procedurą analityczną w wyniku, której doprowadzane są do przecięcia wybrane promienie homologiczne wiązek obu zdjęć stereogramu. Celem jest odtworzenie wzajemnego położenia zdjęć stereogramu jakie miały w momencie ich wykonania.
Należy wykonać orientację wewnętrzną, mamy 6 parametrów:
Bx,by,bz,ω;φ;χ||przyjmuje się, że bx=1, dla innych rozwiązuje się układy równań:
α(O1,O2,L1,L2);α($\overrightarrow{b}$,$\overrightarrow{r'}$,$\overrightarrow{rt"}$);P=l1∩2;$\overrightarrow{r"} = \left\lbrack \begin{matrix} x" \\ y" \\ z" \\ \end{matrix} \bullet \begin{matrix} xt" \\ yt" \\ zt" \\ \end{matrix} \right\rbrack = \overrightarrow{rt"} = A\omega\varphi\chi \bullet \overrightarrow{v"} = \begin{bmatrix} a11 & a12 & a13 \\ a21 & a22 & a23 \\ a31 & a32 & a33 \\ \end{bmatrix} \bullet \begin{bmatrix} x" \\ y" \\ z" \\ \end{bmatrix}$;wektory muszą być komplanarne$\overrightarrow{b} \bullet \left( \overrightarrow{r^{'}} \times \overrightarrow{rt"} \right) = 0$
$\begin{bmatrix} \text{bx} & \text{by} & \text{bz} \\ x' & y' & z' \\ xt" & yt" & zt" \\ \end{bmatrix} = 0$;macierz obrotu
$$\begin{bmatrix}
\text{cosφcosχ} & - cos\varphi sin\chi & \text{sinφ} \\
sin\omega sin\varphi + cos\chi & - sin\omega sin\varphi sin\chi + cos\omega cos\chi & - sin\omega cos\varphi \\
- cos\omega sin\varphi + sin\omega cos\chi & cos\omega sin\varphi sin\chi + sin\omega cso\chi & \text{csoωcosφ} \\
\end{bmatrix}$$
ω − obrot dookola osi X (bliskie 0); φ − obr.dookola osi Y (bliskie 0); χ − obr.dookola osi z(niewielkie)||jesliα < 3oto sinα ≈ tgα; cosα ≈ 1
Macierz małych kątów obrotu: Aωφχ=$\left| \begin{matrix} 1 & - \chi & \varphi \\ \chi & 1 & - \omega \\ - \varphi & \omega & 1 \\ \end{matrix} \right|$
$\overrightarrow{b} = \begin{bmatrix} \text{bx} \\ \text{by} \\ \text{bz} \\ \end{bmatrix}$;$\overrightarrow{r'} = \begin{bmatrix} x' \\ y' \\ z' \\ \end{bmatrix}$;$\overrightarrow{r"} = \left| \begin{matrix} x" \\ y" \\ z" \\ \end{matrix} \right|$;$\overrightarrow{rt"} = Awyr \bullet \overrightarrow{r"} = \begin{bmatrix} 1 & - \chi & \varphi \\ \chi & 1 & - \omega \\ - \varphi & \omega & 1 \\ \end{bmatrix} \bullet \begin{bmatrix} x" \\ y" \\ z" \\ \end{bmatrix}$
$\begin{Bmatrix} \text{xt}\mathrm{= x} - d\chi y" + d\varphi z" \\ \text{yt}\mathrm{= d\chi x} + y" - \text{dωz}" \\ \text{zt}\mathrm{= - d\varphi x} + d\omega y" + z" \\ \end{Bmatrix}$wyznacznik macierzy(bx,by,bz)
y’zt”-yt”z’-by(x’zt”-xt”z’)+bz(x’yt”-xt”y’)=0
y’($- \varphi x\mathrm{+ \omega y} + z\mathrm{) - (\chi x} + y" - \omega"z)z' + by\lbrack x^{'}\left( - \varphi x\mathrm{+ \omega y} + z\mathrm{) - (x} - \chi y\mathrm{+ \varphi z} \right)z'\rbrack + bz\lbrack x^{'}\left( \text{χx}\mathrm{+ y' - \omega z} \right) - (x\mathrm{- \chi y} + \varphi z")y'\rbrack = 0$
Obrazy epipolarne
Wykorzystywane są na fotogrametrycznych stacjach cyfrowych dla uzyskania efektu stereoskopowego bez konieczności eliminowania w czasie rzeczywistym paralaksy poprzecznej. Zwykle promienie rdzenne obrazów nie są równoległe do osi x układu tłowego. Wskazane jest zatem przetransformowanie każdego obrazu do takiego układu osi. Wykonuje się zatem rzutowe przekształcenie obrazów do takiej postaci, jaką miałyby w przypadku zdjęć normalnych. Takie stereopary nazywa się obrazami epipolarnymi (lub znormalizowanymi). Obrazy epipolarne są generowane po wykonaniu orientacji wzajemnej stereogramu. W trakcie ich tworzenia następuje przepróbowanie oryginalnego obrazu cyfrowego do nowego obrazu- znormalizowanego.
Orientacja bezwzględna modelu.
Jest procedurą w której wykonywane jest przejście do układu terenowego przez transformację przestrzenną układu modelu do układu terenowego.
- charakter i wielkość dystorsji obiektywu zależą od konstrukcji obiektywu i umiejscowienia w nim diafragmy
- powstaje na skutek nierówności kątów wejścia i wyjścia promieni z obiektywu,
- na jej wartość wpływa dokładność montażu układu optycznego,
- charakterystyka podawana jest w postaci krzywej dystorsji,
- można ją wyeliminować jedną z czterech metod:
1. zasada Porro - Koppego,
2. stosowanie płyt kompensacyjnych
3. zmiana odległości obrazowej
4. metoda analityczna
- powoduje przesunięcie obrazu punktu na płaszczyźnie tłowej; przesunięcie to można rozłożyć na dwie składowe:
I rzut przesunięcia dystorsyjnego na promień radialny - dystorsja radialna
- obraz w rzucie środkowym jest bez zniekształceń
- kamera kreśli obraz rastrowy
Praktycznie: Punkty przecięcia nie są na płaszczyźnie, tworzą taką jakby „czaszę ”. Wtedy promienie musiałyby przejść i utworzyłyby obraz „krążka nieostrości ”. Jeśli przechodzą tak zniekształcenia są najmniejsze, w praktyce są to minimalne różnice rzędu μm.
Dystorsja radialna zależy od odległości od środka (r)
- II dystorsja tangencjalna.
Zależy od kąta jaki tworzy, bierzemy pod uwagę kąt φ i odległość od środka S. Wynika z faktu, że układ optyczny nie jest idealnie w jednej linii.
Ta druga jest mała w porównaniu do pierwszej.
Wielkość przesunięcia radialnego zależy od kąta osiowego i długości promienia radialnego
Δr = r - ck * tg α
Dystorsja jest znana już przy projektowaniu obiektywu i najczęściej jest pomijana, gdyż jest ona bardzo mała.
Deformacje podłoża emulsji fotograficznej
Używane jako nośniki emulsji światłoczułej błony acetonowe i poliestrowe, pod wpływem temperatury, wilgotności i czasu składowania kurczą się.
Uwzględnić je można przez porównanie pomierzonych odległości znaczków tłowych z ich nominalnymi wartościami. Ta czynność pozwala określić i uwzględnić deformację podłoża o charakterze afinicznym.
Wpływ niepłaskości emulsji fotograficznej
Emulsja nie stanowi idealnej płaszczyzny. Gdy emulsja odstaje od płaszczyzny ramki tłowej, to promień utworzy obraz w punkcie na powierzchni emulsji, zamiast być odwzorowany w punkcie płaszczyzny tłowej. Dalszemu pomiarowi podlega punkt, który jest rzutem ortogonalnym obrazu na płaszczyznę. W wyniku tej niepłaskości następuje radialne przesunięcie punktów zdjęcia względem ich położenia zgodnie z zasadą rzutu środkowego.
Nastąpi przesunięcie radialne: jeśli α=45st to Δr=Δu, tgα=Δr/Δu Δrrad=Δu tgα
Wpływ refrakcji atmosferycznej
Promienie świetlne tworzące obraz fotograficzny, nie rozchodzą się po liniach prostych, lecz się załamują, gdy przechodzą przez warstwy powietrza o różnej gęstości. Wartość kątową tego przesunięcia nazywamy refrakcją atmosferyczną. Wielkość refrakcji zależy od stanu atmosfery. Wpływ refrakcji rośnie ku skrajom zdjęcia
dr= -r (1+r2/Ck2) C , gdzie dr popr. z tytułu refrakcji r – promień radialny pkt , Ck- odl. Obraz. Kam. C – wartość refrakcji fotogrametrycznej kąta osiowego
Wpływ krzywizny Ziemi
Zakrzywienie Ziemi nie powoduje zniekształceń wiązki perspektywicznej. Jednak współrzędne geodezyjne są odniesione do przyjętej płaszczyzny odwzorowawczej, więc trzeba uwzględnić zakrzywienie Ziemi.
Aby przedstawić powierzchnię Ziemi na płaszczyźnie, należy wprowadzić poprawkę radialną, do pomiarów na zdjęciu
Wpływ krzywizny Ziemi rośnie szybko ku skrajom zdjęcia, jest wprost proporcjonalny do wysokości fotografowania i odwrotnie proporcjonalny do odległości obrazu.
Orientacja wewnętrzna zdjęcia analogowego i cyfrowego – analitycznie.
Zdjęcie fotograficzne jest rzutem środkowym. Do celów ważna jest precyzja rekonstrukcyjna tego rzutu. Rekonstrukcji tej dokonuje się na drodze graficznej, matematycznej. Elementy orientacji wewnętrznej zdjęcia analogowego pozwalają na zrekonstruowanie wiązki promieni świetlnych w kamerze, jaka była w momencie fotografowania. Elementy