1.FOTOGRAMETRIA nauka zajmująca się określaniem położenia,wymiarów, kształtu obiektów przestrzennych na podstawie ich obrazów fotograficznych lub cyfrowych. Photos – światło, gramma – zapis, metro – pomiar. Podział: a) miejsce wykonania zdjęć: - naziemna (terrof.) – lotnicza (aerof.) – satelitarna (mogą być jedno lub dwuobrazowe)b)na metody opracowania – analogowa (zdjęcia analogowe, instrumenty optyczne) – analityczna (zdjęcie w postaci rastrowej, skomputeryzowane instrumenty) – cyfrowa (zdjęcie rejestrowane w postaci cyfrowej, przetwarzane komputerowo) Zastosowanie: a) lotnicza i satelitarna – w opracowywaniu różnego rodzaju map wektorowych, ortofotomap, NMT, aktualizacja map topograficznych i ewidencyjnych, źródło danych dla SIP oraz projektów technicznych dużych budów. b) naziemna – do opracowań architektonicznych (przekroje, rzuty i rysunki elewacji, fotoplany); do opracowań budowlanych (badanie odkształceń, wpasowanie w istniejącą architekturę); w górnictwie (wyznaczanie wielkości urobku w kopalniach odkrywkowych); glacjologia (badanie ruchów lodowców); - geologia (rejestrowanie zjawisk geologicznych); archeologia (inwentaryzacja wykopów, rekonstrukcja obiektów); medycyna (pomiary ludzkiego ciała, w tym uzębienia); hydrologia (pomiar deformacji linii brzegowej).
2.KAMERY LOTNICZE – urządzenie do pozyskiwania zdjęć lotniczych. Są to dokładne i skomplikowane układy mechaniczne, elektryczne i optyczne. Podział: a) geometria zdjęć (kadrowe, szczelinowe, panoramiczne) b) kąt widzenia (wąskokątne 10-20st, ck=610,950mm; normalnokątne 50-70, ck=210,300; szerokokątne 85-95, ck=152mm, ponadszerokokątne 110-130, ck=88mm c) wymiary zdjęcia (małoformatowe <18x18, normalnego formatu 18x18, 23x23; wielkofroamatowe >23x23) d) stopień zautomatyzowania (ręczne, półautomatyczne, automatyczne). Budowa: korpus kamery (zawiera ramkę tłową oraz uchwyt na kasety (ładownik) – służy do pomieszczenia stożka obiektywowego); kaseta – służy do pomieszczenia i przewijania materiału światłoczułego; stożek obiektywowy – w dolnej jego części umieszczony jest obiektyw, wewnątrz którego wmontowana jest przesłona i migawka urządzenie sterujące – reguluje rytm pracy i współdziałanie elementów GPS, celownik, komputer- urządzenie umożliwiające realizację orientacji zewnętrznej zawieszenie lub spodarka ze statywem; Wymagania konstrukcyjne –obiektyw wolny od zniekształceń geometrycznych obrazu – duża rozdzielczość obiektywu – konstrukcja podzespołów powinna gwarantować uzyskanie ostrego obrazu w ruchu – ramka tłowa prostop. do osi – powinna naświetlać znaczki tłowe. Wskaźniki na ramce tłowej: - nr kamery, nr zdjęcia, stała kamery, wysokościomierz, zegar, libella pudełkowa. Cyfrowe kamery lotnicze – kamery wykorzystującą technologię CCD (change coupled devices), jest to obrazowanie barwne na matrycach z wykorzystanie materiału światłoczułego (krzem). Zarejestrowana przez sensor intensywność energii świetlnej jest przetwarzana na widmo elektromagnetyczne (np. widmo RGB). Nowoczesna, wysokorozdzielcza kamera cyfrowa posiada system przetwarzający obrazy analogowe w cyfrowe i wbudowany twardy dysk o dużej pojemności. Problemem jest uzyskanie rozdzielczości zbliżonej do zdjęć analogowych. By uzyskać zadowalającą jakość stosuje się: - linijki detektorów, -kilka matryc detektorów CCD wypełniających kadr, - cyfrowy adapter do analogowej kamery. Wspomniane technologie są jednak bardzo drogie, stąd wciąż nie słabnie popularność kamer analogowych.
3. ANALOGOWE Z.L – zdjęcia wykonane kamerą analogową. Światło dobite od przedmiotu kamera z materiałem światłoczułym obraz optyczny naświetlenie materiału światłoczułego wywołanie negatywu kopiowanie (pozytyw). Zdjęcie oprócz fotografowanego obszaru zawiera elementy ramki tłowej oraz wyryte znaczki tłowe.
4. OBRAZ CYFROWY – raster matematyczny, czyli macierz, której każdy element opisuje jedną cechę określonego elementu obrazu. Najmniejszym elementem jest piksel. Cechą piksela jest poziom szarości (0-255) dla zdjęć czarno-białych. Dla zdjęć kolorowych w zależności od przyjętego zestawu kolorów podstawowych mamy np. RGB w pamięci komputera zapisuje się dla jednego obrazu - kilka obrazów składowych, a w każdym obrazie składowym poziom jasności danego koloru podstawowego. Cechy: a)rozdzielczość geometryczna - charakteryzuje wielkość piksela) - najczęściej wyrażana liczbą pikseli na jeden cal (obrazu optycznego), zapisywana skrótem dpi. b)rozdzielczość radiometryczna - charakteryzuje liczbę
poziomów jasności, w której zapisywany jest obraz cyfrowy. Najczęściej obraz zapisywany jest na 256 poziomach jasności, co pozwala na zapisanie wartości piksela na jednym bajcie. c)rozdzielczość spektralna – podaje w jakim zakresie spektrum promieniowania elektromagnetycznego zarejestrowany jest obraz METODY POZYSKIWANIA: a) skanowanie zdjęć analogowych do formatu bmp, tiff, giff – rozdzielczość 1300 dpi. b) zdjęcia cyfrowe wykonane za pomocą metod pasywnych: (–skanera optycznego, - skanera optyczno-elektrycznego –kamery CCD) lub aktywnych (radar, skaner laserowy).
5.PROTOKÓŁ KALIBRACJI KAMERY – charakterystyka metryczna kamery fotogrametrycznej wyznaczona w procesie okresowej (2 lata) obowiązkowej kalibracji (wyznaczenia elementów orientacji wewnętrznej). Taka charakterystyka jest niezbędna do przeprowadzenia opracowań fotogrametrycznych. Zawiera: - stałą kamery lub ogniskową – położenie punktu głównego w stosunku do znaczków tłowych (x0,y0) – zdolność rozdzielczą obiektywu – wartość dystorsji obiektywu – odległości między znaczkami tłowymi – odchylenie ramki tłowej od płaszczyzny. Te parametr umożliwiają precyzyjną rekonstrukcję wiązki promieni. Metody kalibracji: a) polowe (z wykorzystaniem pola testowego lub wybranych gwiazd jako punktów o znanych współrzędnych – dzielą się na statyczne i dynamiczne) b) laboratoryjne (oparte na wykorzystaniu kalibratorów wielokolimatorowych lub goniometrów).
6.ZNIEKSZTAŁCENIA A. GEOMETRYCZNE zdjęcie jest z geometrycznego punktu widzenia - rzutem środkowym przestrzennego obiektu na płaszczyznę. W praktyce to założenie jest spełnione tylko w przybliżeniu. Czynniki zniekształcające geometrię: a) Wpływ nachylenia zdjęcia - punkt terenowy odwzoruje się na nachylonym zdjęciu lotniczym przesuniętym radialnie w kierunku punktu izocentrycznego, w porównaniu z jego odpowiednikiem na zdjęciu ściśle pionowym b) Wpływ deniwelacji - różnice terenowe powodują zniekształcenia perspektywistyczne punktów, Kierunek przesunięcia jest zgodny z kierunkiem do punktu nadirowego. c) Dystorsja obiektywu lub dystorsja radialna jest cechą stałą dla danego obiektywu. Jest to zniekształcenie rotacyjno-symetryczne obrazu. Zniekształcenie to powoduje radialne przemieszczenie obrazów punktów w kierunku do lub od punktu głównego zdjęcia i jest wynikiem różnego powiększania obrazów leżących w różnych odległościach kątowych od osi obiektywu. Dystorsję opisuje się przez podanie wektora określonej długości i kierunku. d) Deformacje podłoża emulsji foto - używane jako nośniki emulsji światłoczułej błony acetanowe i poliestrowe, pod wpływem temperatury, wilgotności i czasu składowania kurczą się. Uwzględnić je można przez porównanie pomierzonych odległości znaczków tłowych z ich h nominalnymi wartościami. e) wpływ niepłaskości emulsji foto - emulsja nie stanowi idealnej płaszczyzny. W wyniku tej niepłaskości następuje radialne przesunięcie punktów zdjęcia względem ich położenia zgodnie z zasadą rzutu środkowego. f) wpływ refrakcji atmosferycznej - promienie świetlne tworzące obraz fotograficzny, nie rozchodzą się po liniach prostych, lecz się załamują, gdy przechodzą przez warstwy powietrza o różnej gęstości. Wielkość refrakcji zależy od stanu atmosfery. Wpływ refrakcji rośnie ku skrajom zdjęcia. g) wpływ krzywizny Ziemi - zakrzywienie Ziemi nie powoduje zniekształceń wiązki perspektywicznej. Jednak współrzędne geodezyjne są odniesione do przyjętej płaszczyzny odwzorowawczej, więc trzeba uwzględnić zakrzywienie Ziemi. Wpływ krzywizny Ziemi rośnie ku skrajom zdjęcia, jest wprost proporcjonalny do wysokości fotografowania i odwrotnie proporcjonalny do odległości obrazu. B. RADIALNE – Zniekształcenia radiometryczne, są spowodowane: - nierównomiernością oświetlenia, - błędami konwersji oświetlenie – sygnał elektryczny (tzn. błędami detekcji). Jednym z najczęściej spotykanych przypadków zniekształceń radiometrycznych jest spadek jasności na brzegach obrazu. Mamy tu do czynienia z liniową albo nieliniową funkcją spadku jasności od środka obrazu. Jeżeli funkcje te są różne dla poszczególnych składowych kolorów, to na zdjęciu możemy zaobserwować zjawisko zmian kolorów na obrazie w zależności od odległości od środka obrazu. Jest to nie do zaakceptowania przy prezentacji zdjęć, fotoplanów lub ortofotomap i dlatego zdjęcia takie poddaje się korekcji.
7.ORIENTACJA WEWNĘTRZNA – jest rekonstrukcja rzutu środkowego. Jej parametry umożliwiają odtworzenie położenie środka rzutów, są to: współrzędne tłowe punktu głównego O’ (X0,Y0) oraz stała kamery (Ck) – jest to O’O czyli odległość punktu głównego środka rzutów. Orientacja wewnętrzna zdjęcia polega na transformacji współrzędnych obrazu z układu pikselowego do układu tłowego. W tym celu najczęściej stosuje się transformację alfiniczną (, a także biliniową lub Helmerta. Podczas orientacji punktami dostosowania są znaczki tłowe. Ich współrzędne w układzie tłowym, a także Ck i x0,y0 powinny znajdować się w metryce kamery. Transformacja z pikselowych na tlowe:
x = A(xp−xs) + B(yp−ys) + C; y = D(xp−xs) + E(yp−ys) + F
Elementy orientacji wewnetrznej pozwalają na odtworzenie wiązki promieni rzucających. Są to elementy liniowe określające położenie środka rzutów S w stosunku do płaszczyzny obrazowej ( ). Elementami orientacji wewnętrznej zdjęcia są : a) odległość obrazowa kamery fotogrametrycznej oznaczona symbolem F lub Ck ( f= Ck ) b) współrzędne punktu głównego zdjęcia o (x ,y ) stanowiącego rzut prostokątny środka rzutów S na płaszczyznę obrazową Punkt główny zdjęcia o jest punktem wyznaczonym przez przecięcie łącznic łączących przeciwległe znaczki tłowe zdjęcia fotogrametrycznego. Płaszczyzna obrazowa zwana jest również płaszczyzną tłową , a układ współrzędnych – prostokątnym. Zdjęcia układem współrzędnych tłowych. Rzut środkowy zmienia się ze zmianą położenia środka rzutów S i przedmiotów względem płaszczyzny tłowej. To właśnie położenie środka rzutów S względem płaszczyzny tłowej określają elementy orientacji wewnętrznej zdjęcia. Dla zdjęć fotogrametrycznych gdy odległość fotografowana jest na tyle duża , że obraz powstaje w płaszczyznie ogniskowej , odległość środka rzutów od płaszczyzny tłowej jest równa ogniskowej kamery. Położenie punktu głównego określone jest w lokalnym systemie współrzędnych zdjęcia , zwanym współrzędnych tłowych, które wyznaczają znaczki tłowe umieszczone w płaszczyznie tłowej kamery pomiarowej. Znaczki tłowe są umieszczone zazwyczaj pośrodku na przeciwległych bokach zdjęcia i odwzorowując się na każdym zdjęciu wyznaczają w ten sposób osie układu współrzędnych tłowych.
8. WIDZENIE STEREOSKOPOWE. Naturalny efekt stereoskopowy – wiąże się ze zdolnością ludzkich oczu odbierania wrażenia przestrzenności i ocenę odległości. Jest to możliwe dzięki różnicy obrazów powstałych na siatkówkach oczu oddalonych od siebie o ok. 65 mm. Warunkiem jest współuczestnictwo obu oczu – jednakowej wielkości obrazy powstają w odpowiadających sobie miejscach na siatkówce oczu. Sztuczny efekt stereoskopowy – uzyskujemy obserwując zdjęcia wykonane z dwóch różnych miejsc. Warunki: - zdjęcie lewe obserwujemy okiem lewym a prawe prawym – podobna skala obu zdjęć (do 15%) – 30’’<γ<15st – obserwacja w płaszczyźnie rdzennej α(O’,O’’,P’)=α(O’,O’’,P’’) p’€α, p’’€α By spełnić te warunki należy przeprowadzić orientację wzajemną.
9. UKŁADY WSPÓŁRZĘDNYCH
Układ współrzędnych terenowych (X, Y, Z) definiuje się jako prawoskrętny układ ortogonalny. Zazwyczaj oś X jest zgodna z kierunkiem osi szeregu zdjęć lotniczych. Początek układu może być dowolny, jednak dla większego zespołu zdjęć jest on przyjmowany pośrodku opracowywanego terenu. Dla osi Z przyjęto dodatni kierunek zwrotu do góry. W układzie terenowym przedstawiane są ostateczne rezultaty opracowania fotogrametrycznego. Jest to możliwe przy znajomości współrzędnych XYZ punktów osnowy odwzorowanych na zdjęciach. Położenie wiązki promieni homologicznych opisują elementy orientacji zewnętrznej. Są to trzy wielkości liniowe określające położenie środka rzutów zdjęcia (XYZ) oraz trzy kąty wyrażające nachylenia osi układu przestrzennego zdjęcia względem osi układu terenowego (φ, ω, κ).
Lokalny układ współrzędnych fotogrametrycznych określa się współrzędne punktów w układzie lokalnym dla pojedynczego stereogramu lub szeregu zdjęć. Takie postępowanie umożliwia rekonstrukcję geometryczną opracowywanego terenu lub obiektu na drodze spełnienia tylko wzajemnych relacji między zdjęciami. W rezultacie powstaje model podobny do obiektu bez dokładnej znajomości jego skali oraz orientacji przestrzennej
Przestrzenny układ współrzędnych zdjęcia. Podstawowymi danymi pełniącymi rolę obserwacji w rozwiązaniu analitycznym są współrzędne tłowe. Wielkości te są określane w wyniku pomiaru na zdjęciach przy użyciu stereokomparatorów - początek układu stanowi środek rzutów zdjęcia, -osie x,y tego układu są równoległe do osi x', y' układu tłowego zdjęcia, - kierunek zwrotu osi z przyjmuje się w ten sposób, aby z osiami x,y został utworzony ortogonalny układ prawoskrętny. TRANSFORMACJE
Przekształcenie rzutowe Przekształcenie rzutowe płaszczyzny na płaszczyznę: przestrzeni na płaszczyznę:
Czteroparametrowa Transformacja bilinearną(4):
transformacja (Hellmerta)(2)
x = ao + a1xs + b1ys x = ao + a1xs + a2ys + a3xsys
y = b0 + a1ys – b1xs y = b0 + b1ys + b2xs + b2xsys
Transformacja afiniczna(3) - Jest to nieco zmodyfikowana dwuwymiarowa transformacja konforemna, włączająca dla kierunków x i y różne współczynniki skalowe. Mimo, że nie zachowuje ona kształtu, linie równoległe po tej transformacji pozostają równoległe. Oprócz poprawienia skurczu za pomocą współczynników skalowych, transformacja afiniczna wprowadza również przesunięcie początku układu współrzędnych z układu współrzędnych komparatora xs, ys, do układu współrzędnych zdjęcia x, y oraz stosuje obrót o kąt skręcenia obydwu układów: x = a1 + a2xs + a3ys; y = b1 + b2xs + b3ys
10. ORIENTACJA ZEWNĘTRZNA
Orientacja zewnętrzna pozwala na określenie położenia zdjęcia w układzie współrzędnych terenowych. Za pomocą 6 elementów możemy zrekonstruować położenie wiązki promieni jaka w momencie naświetlania utworzyła obraz w trójwymiarowej przestrzeni. - 3 elementy liniowe określające położenie środka rzutów w układzie odniesienia (geodezyjnym) (X, Y, Z) - 3 elementy kątowe określające położenie osi kamery pomiarowej względem osi układu odniesienia(Ω, Elementy orientacji zewnętrznej zdjęcia można obliczyć, rozwiązując zadanie wcięcia wstecz. Dokonuje się tego przez wpasowanie fotogrametrycznej wiązki rzutu środkowego w zespół punktów o znanych współrzędnych terenowych. Można do tego celu użyć wzorów x=a11(X-X0)+a12(Y-Y0)+a13(Z-Z0); y=a21(X-X0)+a22(Y-Y0)+a23(Z-Z0); z=a31(X-X0)+a32(Y-Y0)+ a33 (Z-Z0), z=-ck dzielimy przez –ck obie strony i przenosimy na prawą
Wymagają one znajomości (pomiaru na zdjęciu i wyznaczenia w terenie) współrzędnych trzech punktów, kiedy znane są Ck, X0, Y0 lub czterech punktów, kiedy znana jest tylko Ck.
11. ORIENTACJA WZAJEMNA – polega na wprowadzeniu układu modelu, a więc powiązaniu dwóch zdjęć i analitycznym „odtworzeniu wiązek”. Zadaniem orientacji jest doprowadzenia zdjęć do takiej postaci jaka było w momencie fotografowania. Pomiarowi podlegają punkty jednoznacznie identyfikowalne na lewym i prawym zdjęciu.Orient. wzaj. dokonuje się tylko wtedy gdy nie znane są elementy o. zewn. Do jej przeprowadzenia wymagany jest pomiar 6 punktów homologicznych w tzw. Rejonach Grubera. Baza b=[bx,by,bz]T, obserwacja rdzenna r=[x’,y’,z’] rT – wektor obserwacji transformowanych, płaszczynza orientacji α(O1,O2’,P’) α(b,r). Warunek widzenia stereoskopowego P’’€α
$r_{t}^{''} = A*r^{''} = \begin{bmatrix} 1 & - \kappa & \varphi \\ \kappa & 1 & - \omega \\ - \varphi & \omega & 1 \\ \end{bmatrix}*\begin{bmatrix} x'' \\ y'' \\ - ck \\ \end{bmatrix}$
Warunek współpłaszczyznowości 3 wektorów b(rxrT)=0 , założenie bx=1
$$bx( - 1)^{2}\begin{bmatrix}
y^{'} & z'\rbrack \\
yt^{''} & zt^{''} \\
\end{bmatrix} + by( - 1)^{3}\begin{bmatrix}
x^{'} & z^{'} \\
xt^{''} & zt^{''} \\
\end{bmatrix} + bz( - 1)^{4}\begin{bmatrix}
x^{'} & y^{'} \\
xt^{''} & yt^{''} \\
\end{bmatrix} = 0$$
*dω(y′y″+z′z″) + dφ(−y′x″) + dκ(−z′x″) + dby(z′x″−x′z″) + dbz(x′y″−y′x″) + y′z″ − z′y″ + by(z′x″−x′z″) + bz(x′y″−y′x″) = 0
Wybieramy 6 punktów homologicznych. W I iteracji mierzymy współrzędne tłowe 6 punktów 6*(x’y’z’) oraz 6*(x’’,y’’,z’’), z’=-ck. Z 6 równań * mamy dbz,dy,dk,dfi,domega(1). W II iteracji zamiast x’’,y’’,z’’ wstawiamy xt’’,yt’’,zt’’. Uzyskujemy wsp. (2). III iteracja taka jak II. I na koniec np. k=dk(1)+dk(2)+…
12. Obrazy epipolarne - to postad geometryczna zdjęć, uzyskiwana po procesie orientacji wzajemne, tak przekształcona, że paralaksa istnieje tylko na kierunku poziomym. wykorzystywane są na fotogrametrycznych stacjach cyfrowych dla uzyskania efektu stereoskopowego bez konieczności eliminowania w czasie rzeczywistym paralaksy poprzecznej. Zwykle promienie rdzenne obrazów nie są równoległe do osi x układu tłowego. Wskazane jest zatem przetransformowanie każdego obrazu do takiego układu osi. Wykonuje się zatem rzutowe przekształcenie obrazów do takiej postaci, jaką miałyby w przypadku zdjęć normalnych. Takie stereopary nazywa się obrazami epipolarnymi (znormalizowanymi). W celu wygenerowania obrazów epipolarnych modelu potrzebne są: obrazy oryginalne, dane kalibracji kamery, elementy orientacji wewnętrznej, elementy orientacji wzajemnej.
13.Orientacja bezwzględna modelu - polega ona na przetransformowaniu układu lokalnego (układu współrzędnych modelu) do układu współrzędnych terenowych. Orientacja bezwzględna jest transformacją. W orientacji bezwzględnej mamy 7 parametrów : Xo,Yo,Zo (środek rzutu lewego zdjęcia w ukł. wsp. terenowych), λ(współczynnik skali), Ω,Φ,χ lub 12 – z macierzą a11..Punktami dostosowania są fotopunkty (minimum 3 X,Y,Z, ale w praktyce przyjmuje się więcej)
R = R0 + λA * r $\left\{ \begin{matrix} v_{x} = \Delta X_{0} - z\Delta\phi - y\Delta\chi + x\Delta\lambda - l_{x} \\ v_{y} = \Delta Y_{0} - z\text{ΔΩ} + x\Delta\chi + y\Delta\lambda - l_{y} \\ v_{z} = \Delta Z_{0} + x\Delta\phi + y\text{ΔΩ} + z\Delta\lambda - l_{z} \\ \end{matrix} \right.\ $ $\left\{ \begin{matrix} l_{x} = x - x_{0} - \lambda x \\ l_{y} = y - y_{0} - \lambda y \\ l_{z} = z - z_{0} - \lambda z \\ \end{matrix} \right.\ $
AEROTRIANGULACJA - proces obliczeniowy zmierzający do precyzyjnego określenia położenia wykonanych zdjęć lotniczych w przestrzeni (dawniej zagęszczenie osnowy). Warunek pokrycie podłużne – min 60%, poprzeczne min 25%.AEROTRIANGULACJA W PROGRAMIE AEROSYS 1) orientacja wzajemna 2) program przelicza wszystkie modele do modelu pierwszego 3) orientacja bezwzględna 4) program liczy przybliżone elementy orient zewnętrznej 5) program na podstawie elementów orientacji zewnętrznej liczy wsp terenowe 6) podsumowanie.
14. METODA WIĄZEK - Pomierzone na zdjęciu punkty, przy znanych elementach orientacji wewnętrznej kamery, umożliwiają odtworzenie wiązki promieni. Wszystkie promienie przecinają się w środku rzutów kamery. Aerotriangulacja metodą niezależnych wiązek polega na znalezieniu takiego położenia poszczególnych wiązek (określonego przez elementy orientacji zewnętrznej tj. współrzędne środków rzutów Xo, Yo, Zo oraz trzy kąty(ω,φ,κ), aby spełnione były następujące warunki: - promienie pochodzące od tych samych punktów terenowych (tzw. punkty wiążące) powinny się przecinać,- promienie pochodzące od punktów o znanych współrzędnych terenowych ( tzw.fotopunktów) powinny przechodzić przez dany punkt. Warunki powyższe, zapisywane dla wszystkich obserwowanych punktów, tworzą układ równań, który rozwiązywany jest metodą najmniejszych kwadratów. Z punktu widzenia rachunku wyrównawczego mamy do czynienia z zagadnieniem równoczesnego wyrównania sieci przestrzennej. Procedura 1) układ pikselowytłowy 2) Zbudowanie równań poprawek na podstawie równań R = R0 + Ar 3) Jednoczesne obliczenie parametrów orientacji zewnętrznej wszystkich zdjęć oraz współrzędne punktów wiążących. Równanie 2) nie jest zależnością liniową; kątowe elementy orientacji zewnętrznej zawarte są w macierzy transformacji A w postaci uwikłanej, jako sumy iloczynów funkcji trygonometrycznych kątów. Linearyzacja równania przeprowadzana jest przez zastąpienie ścisłej macierzy obrotów przez macierz małych kątów, która jest jej przybliżeniem. Powoduje to konieczność iteracyjnego obliczenia niewiadomych. Podstawą matematyczną jest warunek kolinearności (jak w zewn.)
15. METODA NIEZALEŻNYCH MODELI - To rozwinięcie metody wyznaczania XYZ przez o. wew. , wzajemną, bezwzględną. Tworzymy tyle niezależnych modeli ile mamy stereogramów. Modele są niezależne bo mają różne układy współrzędnych. Trzeba wiec przetransformować je do jednego układu wspólnego. Model transformowany jest do układu geodezyjnego w oparciu o współrzędnych fotopunktów. Procedura 1) Transformacja z pikselowych do tłowych 2) Orientacja wzajemna i wyznaczenie współrzędnych w układzie modelu 3) Zbudowanie równań poprawek 4) Jednoczesne dla wszystkich stereogramów wyznaczenie współczynników transformacji z układu modelu do układu terenowego oraz współrzędnych terenowych punktów. Wzory jak w bezwzględnej!
16. NIC SENSOWNEGO NIE MAM
17. MATCHING C’=C’(i’,j’), C’’=C’’(i’’,j’’); Zij(C’’(i’’,j’’)-C’(i’,j’))^2=min; Z=d – odległość między obrazami. d(δiδj)=min, współczynnik korelacji – miara zależności liniowej między zmiennymi $r = \frac{Z(xi - x)(yi - y)}{\sqrt{Z(xi - x)^{2}Z(yi - y)^{2}}}$ rmax=dmin, rmax=r(δiδj). Przyjmujemy że obrazy są podobne dla rmax>r0 (r0 najczęściej 0,7) Matching oznacza to automatyczne znajdywanie odpowiednika na innym obrazie cyfrowym. Etapy: 1) wyboru elementów dopasowania 2) znalezienia ich odpowiedników na drugim obrazie (lub kolejnych obrazach) 3) obliczenia położenia przestrzennego dopasowywanych elementów, 4) oszacowania (kontroli) dokładności dopasowania. Rodzaje image to image - automatycznego poszukiwania punktów identycznych na lewym i prawym zdjęciu stereogramu, image to model - automatycznego poszukiwania na zdjęciach takich obrazów, dla których wcześniej znany jest obraz tzw. wzorcowy (np. znaczki tłowe, sygnalizowane krzyże), inaczej mówiąc jest to próba „dopasowania” obrazu rzeczywistego do obrazu wzorca. Zastosowanie kalibracja, orientacja wewnętrzna, orientacja wzajemna, orientacji bezwzględnej, aerotriangulacji, generowania NMT. Metody ograniczenia obszaru poszukiwań na drugim obrazie: - wykorzystanie promieni rdzennych, - wykorzystanie położenia linii pionowych (lub poziomych w przypadku fotogrametrii naziemnej), - podejście hierarchiczne. Metody • Area Based Matching opiera się na analizie obszaru grupy pikseli (porównanie ich skali szarości). W przypadku obrazu kolorowego można wykorzystać jeden z kanałów do korelacji. W metodzie tej porównuje się małe fragmenty obrazów, a następnie mierzy się ich podobieństwa na podstawie korelacji lub metod najmniejszych kwadratów • Feature-Based Matching jest używany przeważnie w grafice komputerowej. Krawędzie lub inne obiekty wydobywane z obrazów oryginalnych są porównywane do odpowiednich, homologicznych obiektów na drugim lub pozostałych obrazach. Podobieństwo liczone jest najczęściej jako funkcja kosztów • Symbolic Matching. Metoda ta porównuje opisy symboliczne używając również funkcji kosztów. Opisy symboliczne mogą odnosić się do skali szarości lub występujących na obrazie obiektów. Mogą być zaimplementowane do systemu jako grafy, drzewa, sieci semantyczne. W porównaniu do poprzednich metod symbolic matching nie bazuje na podobieństwie geometrycznym. Zamiast podobieństwa kształtu lub położenia, porównuje własności topologiczne obiektów.
18. Numeryczny model terenu- Z=Z(X,Y) numeryczna reprezentacja powierzchni terenowej, utworzona poprzez zbiór odpowiednio wybranych punktów leżących na tej powierzchni oraz algorytmów interpolacyjnych umożliwiających jej odtworzenie w określonym obszarze. Model GRID - oparty jest na siatce kwadratów, której punkty węzłowe posiadają określone wysokości powierzchni terenowej. Struktura taka jest wyjątkowo łatwa do przetwarzania, zabiera bardzo mało pamięci, a algorytmy używane do modelowania terenu są stosunkowo proste. !Metoda interpolacji – zagęszczanie siatki! Im gęstsza siatka zostanie zastosowana tym otrzymany model będzie dokładniejszy. Zwiększając gęstość siatki prowadzi jednak do sytuacji, że jest ona również zwiększana w miejscach o małym urozmaiceniu terenu, powodując tym samym znaczny wzrost nic nie wnoszących danych. Rozwiązaniem jest uzupełnienie struktury o punkty charakterystyczne i linie szkieletowe lub zastosowanie siatki o strukturze hierarchicznej dostosowującej gęstość do stopnia skomplikowania rzeźby. Model TIN - nieregularna sieć trójkątów powstaje głownie jako efekt bezpośrednich pomiarów terenowych, gdzie cały zakres opracowania zapełnia się trójkątami opartymi o punkty pomiarowe. Ponieważ w tych modelach wykorzystywane są wszystkie punkty charakterystyczne model jest stosunkowo dokładny. !Metoda interpolacji! triangulacja Delaunay'a. Trójkąty tworzone są w ten sposób aby żaden z punktów nie należących do niego nie był położony wewnątrz okręgu opisanego na trójkącie. Modele rastrowe – przedstawiają „wysokościowy obraz” powierzchni terenu. Każdy piksel, lub inaczej komórka macierzy, stanowi zapis wysokości danego fragmentu terenu w rzeczywistości. W związku z powyższym, wymagają one danych wejściowych w formie punktów wysokościowych, rozplanowanych przestrzennie w formie siatki. Wysokości przypisane są pikselom, o wybranych przez użytkownika rzeczywistych wymiarach terenowych. Wielkość terenowa piksela jest narzucana przez rozdzielczość poziomą modelu i założenia pomiarowe. !Metoda interpolacji! -metoda najbliższego sąsiada – zaokrąglana jest współrz. danego piksela do najbliższego pełnego piksela ( piksel przejmuje jasność od najbliższego sąsiada) -bilinearna – realizowane jest sąsiedztwo 4 najbliższych pikseli. Nowy piksel ma nowy poziom szarości wynikający z 4 sąsiadujących pikseli (nie jest to śr. arytmetyczna ) - bikubiczna – piksel otrzymuje nowy poziom szarości wynikający z sąsiednich 16 pikseli (4x4)Dokładność NMT m^2NMT=m^2Z+(αd)^2 mz - bład średni interpolowanej wysokości, α – współczynnik rzeżby terenu, d – średnia odległośc punktów pomiarowych
19. Fotogramteryczna metoda budowy NMT Pozyskiwanie danych: - pomiar modelu stereoskopowego; obecnie głównie w cyfrowej stacji fotogrametrycznej, - interferometria radarowa, - skaning laserowy. Prace fotogrametryczne opierają się głównie na pomiarze punktów homologicznych na dwóch lub więcej obrazach. W fotogrametrii cyfrowej dąży się do zautomatyzowania pomiaru. Proces ten nazywa się spasowaniem obrazów. Algorytmy automatycznego pomiaru na obrazach cyfrowych opierają się głownie na metodach
korelacji. Podstawową miarą podobieństwa (funkcją celu) jest współczynnik korelacji. Mając wyznaczone współrzędne pikselowe punktów homologicznych następuje ich przeliczenie do układu współrzędnych tłowych, a następnie na podstawie znanych elementów orientacji wzajemnej i bezwzględnej wyznaczane są współrzędne terenowe punktów oporowych NMT. W cyfrowych met
odach generowania NMT, realizowanych na nowoczesnych stacjach fotogrametrycznych częściej wykorzystuje się orientację zewnętrzną
zdjęć, wyznaczoną w procesie aerotriangulacji. Wartości elementów orientacji zewnętrznej służą do budowy obrazów epipolarnych, stosowanych w celu usprawnienia procesu automatycznego poszukiwania punktów. homologicznych, i określenia terenowego położenia źródłowych punktów NMT Algorytm – Tworzony jest stos z najbliższych punktów i sprawdzany współczynnik korelacji między zdjęciem lewym i prawym.
20. Ortofotomapa jest obrazem terenu powstałym ze zdjęć lotniczych przetworzonych do jednolitej skali w założonym odwzorowaniu kartograficznym. Łączy w sobie zalety zdjęcia lotniczego z tradycyjną mapą. Idealny materiał badawczy przydatny do oceny stanu środowiska przyrodniczego, baza informacyjna dla planistów, geodetów czy administracji publicznej. Mapa, bo ma skalę, ukł wsp, siatkę kwadratów. Foto, bo jest zrobiona ze zdjęcia i ma cechy obrazy fotograficznego. Orto, bo jest wykonane w rzucie ortogonalnym (prostopadłym do X,Y) Potrzebne dane: -zdjęcia -elementy orientacji: wewnętrzna, zewnętrzna(aerotriangulacja) –NMT Algorytm generowania ortofotomapy 1) Wybieramy pierwszy piksel i okreslamy jego współrzędne terenowe według wzoru: 2) Obliczamy wysokosc Z z numerycznego modelu terenu 3) Obliczamy współrzędne tłowe, korzystając z równań kolinearności oraz elementów orientacji zewnętrznej 4) Przeliczamy współrzędne tłowe na współrzędne pikselowe 5) W kolejnym etapie nadajemy wybranemu pikselowi odpowiednia wartosc ,,L^^ (kolor). Nastepnie sprawdzamy czy jeszcze zostały jakies piksele którym nalezy nadac odpowiedni kolor, jezeli zostały piksele do zamalowania, czyli NIE wszystkie piksele maja nadana odpowiednia wartosc, powtarzamy algorytm. W przypadku gdy wszystkie piksele maja nadana wartosc (TAK), ma to miejsce gdy i^^=n, j^^=m (m,n rozmiar arkusza ortofotomapy) nastepuje koniec algorytmu. $C^{''}\left( i^{''},j^{''} \right) = \frac{1}{W}\iint_{\text{Pij}}^{}{F\left( X,X \right)\text{dxdy}}$
21 MOZOIKOWANIE OBRAZÓW
Jest procedurą zmierzającą do utworzenia jednego obrazu ze zbioru kilkunastu lub nawet kilkudziesięciu obrazów składowych. Jest wykorzystywane do sporządzania map obrazowych obejmujących obszar większy niż pojedyncze zdjęcie lotnicze czy obraz satelitarny. Charakterystyczną cechą mozaikowania jest nałożenie cyfrowe zachodzących częściowo na siebie obrazów, które mogą pochodzić z różnych systemów teledetekcyjnych. W mozaikowaniu obraz górny pokrywa obraz dolny w sposób, który w obrazie wynikowym umożliwia obserwację tylko obrazu górnego. Jasność i tekstura na kolejnych zdjęciach mogą się różnić , dlatego po dopasowaniu zdjęć linia łączenia będzie widoczna. Robiąc ortofotomapę powinniśmy mieć zdjęcia podobnej jakości. Ponieważ nie można uzyskać identycznej jakości na 2 zdjęciach trzeba wykonać transformację kolorów jednego zdjęcia - korekcję radiometryczną.
22. Rekonstrukcja obrazów obiektów z wykorzystaniem zdjęć naziemnych Celem polowych prac terrofotogrametrycznych jest dostarczenie zdjęć i danych pomiarowych umożliwiających opracowanie mapy lub uzyskanie liczbowych informacji o sfotografowanym obiekcie. Metoda nie nadaje się do stosowania w terenach o mało zróżnicowanej rzeźbie. Typowymi obiektami są: kopalnie odkrywkowe, kamieniołomy, masywy górskie (czy lodowce),
wysokie budowle, oraz budynki i obiekty zabytkowe. Ze względu na wymogi obserwacji stereoskopowej, oraz prostotę obliczeń, stosuje się głównie pary zdjęć o osiach równoległych. Są to stereogramy normalne lub zwrócone (poziome lub nachylone); rzadziej stosuje się
zdjęcia zbieżne. Stanowiska kamer obiera się w miejscach dających dobry wgląd w obiekt, starając się zminimalizować „martwe pola”
Zasięg każdego ze zdjęć można sprawdzić na matówce (lub w celowniku) kamery, wybierając tą drogą najwłaściwszy zasięg pionowy i kierunki osi kamer. Baza fotografowania nie powinna być większa niż
1/4 odległości do najbliższych (przewidzianych do opracowania ) partii terenu. Jest to wymóg stereoskopii. Z drugiej strony baza nie może być zbyt mała ze względu na dokładność fotogrametrycznego wcięcia w przód. Obydwa stanowiska powinny znajdować się na podobnej wysokości; zbyt duża różnica wysokości zmniejsza pionowy zasięg stereogramu. W przypadku zdjęć zwróconych, wielkość zwrotu (od normalności) nie powinna być większa niż 30 gradów.
Komputerowe modelowanie obiektów architektonicznych w większości wypadków sprowadza się do rekonstrukcji obiektów na podstawie fotografii bądź obrazów, które wiernie oddają perspektywę obiektu. Dysponując kilkoma zdjęciami obiektu (wraz z dodatkowymi danymi pozwalającymi wyznaczyć położenie kamery w czasie fotografowania), można dokonać rekonstrukcji obiektu. Najpierw przeprowadza się korektę zniekształcenia soczewki obiektywu, następnie orientację wzajemną zdjęć i ostatecznie – orientację bezwzględną. Na podstawie tych danych można wyznaczyć położenie elementów geometrycznych danego obiektu przedstawionego na zdjęciach. Można dokonać rekonstrukcji obiektów na podstawie planów architektonicznych (rzutów ortogonalnych). Dysponując schematami ortogonalnymi obiektu (np. rzut elewacji frontowej, bocznej i tylnej), usuwa się poprzez korektę perspektywiczną zniekształcenia, a następnie przeprowadza się ich orientację. Korekta perspektywiczna służy tutaj także jako wstępny element orientacji planów 2D. Możliwa jest też rekonstrukcja obiektów na podstawie ortofotografii, (które mogą być utworzone wcześniej na podstawie zdjęć obiektu – np. rekonstrukcja fasad budynków). Jeżeli ortofoto-
grafie są niedostępne, a dysponujemy zdjęciami – należy w takim wypadku dokonać korekcji perspektywicznej (wcześniej opcjonalnie korektę zniekształceń soczewki obiektywu), która doprowadzi zdjęcie do postaci ortofotografii. Jeśli są dostępne ortofotografie danego obiektu, można przystąpić do rekonstrukcji, która odbywa się na takiej samej zasadzie, jak w wypadku odtwarzania kształtu za pomocą schematów architektonicznych.
Właściwy proces modelowania rozpoczyna się od etapu tworzenia modelu szkieletowego – NFR (Numeric Frame of Reference) danego obiektu, w oparciu o wybrane punkty na poszczególnych strukturach jego konstrukcji, określone przez fotogrametryczne wcięcie w przód. Pomiar tych punktów na zdjęciach może być wykonywany w trybie mono lub stereoskopowym w zależności od możliwości fotogrametrycznego systemu cyfrowego oraz geometrii wykonanych zdjęć. Drugi etap modelowania polega na nałożeniu tekstur sztucznych lub naturalnych na wszystkie lub wybrane powierzchnie obiektu. W tym celu możliwe jest definiowanie koloru lub typu powierzchni, nałożenie tekstur, wzorów oraz rysunków pozyskiwanych z przetworzonych obrazów cyfrowych.
23. Fotointerpretacja – metoda badania obrazów w celu identyfikacji obiektów kluczowych, wnioskowania o ich znaczeniu, rozpoznania procesów i zjawisk. Etapy: 1)wstępne kameralne rozpoznawanie interpretowanego obrazu 2)polowe odczytanie treści wybranych, charakterystycznych elementów na polach treningowych – stworzenie wzorcy bądź kluczy 3) Właściwa interpretacja całego materiału zdjęciowego 4) Ostateczne opracowanie wyników interpolacji Cechy rozpoznawcze: - kształt –rozmiar –ton – struktura –rozmieszczenie - cień Zastosowania: -geologia – rolnictwo –kartografia (mapy użytkowania terenu) –leśnictwo –ochrona środowiska Metody identyfikacji np. histogramowa X~N(m,σ) $f = \frac{1}{\sqrt{2\pi\sigma}}e - \frac{(x - m)^{2}}{2\sigma^{2}}$ połowa części wspólnej dwóch histogramów to błędnie sklasyfikowane piksele.; identyfikacja na podstawie krzywych spektralnych; obrazy wielospektralne, obrazy spektrostrefowe, metoda Boyesa metoda największej wiarygodności, metoda najmniejszej odległości, obrazy wielospektralne , równoległościanów, Mahalanobisa (najmniejszej odległości). Klasyfikacja jest procesem, w którym interpretacja obrazów jest dokonywana w sposób częściowo zautomatyzowany, przy pomocy systemu komputerowego. Transformacje obrazu polegają na poddaniu obrazów przekształceniom przy użyciu formuł matematycznych. Większość procedur klasyfikacyjnych oparta jest wyłącznie o cechy spektralne obrazu wielospektralnego, tzn. o wartości pikseli poszczególnych kanałów spektralnych. Jeżeli nie znamy parametrów klas jest to k nienadzorowana, a jeżeli znamy to nadzorowana. W klasyfikacji nadzorowanej system komputerowy wydziela poszczególne obiekty (klasy pokrycia terenu) na podstawie parametrów statystycznych pochodzących ze wskazanych przez operatora fragmentów obrazu stanowiących wzorce wydzielanych klas (tzw. pól treningowych). – metoda histogramowa.etap 1) określenie przez operatora pól treningowych- fragmentów obrazu stanowiących wzorzec klas.Wzorce powinny być REPREZENTATYWNE- fragmenty pokrycia terenu typowe dla danej klasy i aby zawierały odpowiednio liczną próbkę pikseli do uzyskania wiarygodnej inf statystycznej HOMOGENICZNE- nie zawierały pikseli należących do innych klas. Etap 2) system komp analizuje wskazane fragmenty obrazu efektem analizy są SYGNATURY KLAS- zestaw parametrów statystycznych charakteryzujące piksele należące do wzorców poszczególnych klas. Etap 3) system komp dokonuje klasyfikacji obrazu badając odp spektralne każdego z pikseli w poszczególnych kanałach podejmuje decyzje do jakiego z analizowanych wzorcó piksel jest najbardziej podobny. W przypadku klasyfikacji nienadzorowanej system komputerowy określa piksele obrazu, które są podobne do siebie we wszystkich kanałach spektralnych, natomiast zadaniem operatora jest dokonanie interpretacji wydzielonych klas poprzez przypisanie im odpowiednich klas użytkowania terenu. Wydzielane grupy noszą nazwę klastrów. Operator przypisuje klastrom odpowiednie klasy pokrycia terenu. Interpretacja wymaga od operatora znajomości interpretowanego terenu lub wizyt w terenie Ocena dokładności. Polega ona na określeniu zestawu punktów kontrolnych, w których sprawdza się w terenie istniejący sposób użytkowania. Informacja uzyskana w terenie jest następnie porównywana z wynikiem klasyfikacji. Może być ona następnie użyta w celu poprawy procesu klasyfikacji, np. ponownego określenia niektórych pól treningowych.
24 TELEDETEKCJA dział nauk technicznych zajmujący się pozyskiwaniem, przetwarzaniem i interpretowaniem danych będących wynikiem rejestracji promieniowania elektromagnetycznego odbitego lub emitowanego przez różnego rodzaju obiekty. Rejestracji dokonuje się przyrządami przenoszonymi przez satelity lub samoloty. Pomiary takie pozwalają wnioskować o istocie i rodzaju terenu oraz zachodzących na nim zjawiskach lub też badać stan mórz i oceanów. Teledetekcja to również proces zdalnego pozyskiwania inf o obiektach lub zjawiskach. Koncentruje się przede wszystkim na określeniu cech jakościowych badanych obiektów. Dane pozyskane mogą posiadać charakter punktowy lub przestrzenny. Ze względu na źródło pochodzenia promieniowania zarejestrowanego sensory dzieli się na aktywne i pasywne. Pasywne rejestrują promienie pochodzące od istniejących źródeł energii. Sensory aktywne emitują własną energię.
Promieniowanie elektromagnetyczne docierające do obiektu wchodzi z nim w trzy rodzaje interakcji – ulega odbiciu, absorpcji lub transmisji. Sensory teledetekcyjne rejestrują zwykle promieniowanie odbite od badanych obiektów. To, jaka część promieniowania ulega odbiciu, jaka absorpcji, a jaka transmisji zależy od właściwości obiektu i długości fali promieniowania. Charakterystyka współczynnika odbicia
w zależności od długości fali stanowi tzw. krzywą spektralną. U podstaw teledetekcji leży założenie, iż charakterystyki odbicia promieniowania (krzywe spektralne) poszczególnych badanych obiektów wykazują różnice wystarczające by dokonać ich rozróżnienia.
Rozdzielczość spektralna – dotyczy zakresu spektralnego wykonanego obrazu. Wyróżniamy panchromatyczne (zakres widzialny – czarno białe) wielospektralne (kolorowe + podczerwień) – hiperspektralne (jak wielospektralne tylko ilość kanałów od kilkudziesięciu do kilkuset) Zakres promieniowania użytecznego z punktu widzenia teledetekcji zaczyna się wraz z pasmem promieniowania widzialnego i rozciąga poprzez bliską i średnia podczerwien, aż do podczerwieni termalnej i zakresu promieniowania mikrofalowego. Obrazy wielospektralne składają się z wielu kanałów będących uogólnieniem kanałów barw podstawowych na dowolne zakresy spektralne. Idealny przyrząd do obrazowania wielospektralnego dokonuje w określonym przedziale współrzędnych i długości fal jednoczesnego pomiaru funkcji I(x,y,λ) λ-dl fali, a I natężenie energii promieniowania. Przyczyna stosowania obrazów wielospektralnych: charakterystyki spektralne niektórych obiektów) różnią się czasem jedynie w niektórych (małych) fragmentach spektrum (kanałach). Odróżnienie tych obiektów na obrazie panchromatycznym lub nawet kolorowym jest w zasadzie niemożliwe. Wykrycie różnicy w tym jednym kanale obrazu wielospektralnego umożliwia rozróżnienie obiektów Obrazy spektrostrefowe – zdjęcia barwne w barwach umownych – nienaturalnych, często stosowane do potrzeb inwentaryzacji obiektów o dużej przestrzennej zmienności przyrodniczej. Rejestrują z reguły dwa lub jeden z zakresów widzialnego promieniowania i zawsze rejestrują zakres promieniowania podczerwonego. Zwane są też zdjęciami barwnymi z zakresem podczerwieni; Dane teledetekcyjne poddawane są różnorodnym operacjom komputerowym, które określane są jako CYFROWE PRZETWARZANIE OBRAZÓW.- korekcje wstępne ( usunięcie zniekształceń i zakłóceń oraz kalibrację obrazu). Korekcje wstępne można podzielić na radiometryczne i geometryczne. RADIOMETRYCZNE mają na celu -zniwelowanie zakłóceń wpływających na wartość poziomu zarejestrowanej przez detektory energii promieniowania i usunięcie tych zniekształceń. Błędy te są wywołane istnieniem warstwy atmosfery pomiędzy powierzchnią Ziemi a sensorem. – usunięcie błędów rejestracji wprowadzonych do zobrazowania przez poszczególne detektory skanera. – procedury kalibracyjne polegające na zmianie wartości jasności poszczególnych pikseli obrazu . GEOMETRYCZNE polegają na: - usunięciu zniekształceń wywołanych ruchem sensora – błąd wpasowania obrazu w pożądany z punktu widzenia użytkownika układ współrzędnych – ortorektyfikacja- proces w którym usuwane są dodatkowo zniekształcenia spowodowane zmienną wysokością terenu oraz wynikające z geometrii odwzorowania – wzmocnienie odwzorowania polega na przetwarzaniu obrazów w taki sposób aby zwiększyć ich wizualne walory interpretacyjne.zawiera: - wzmocnienie kontrastu – technika kompozycji barwnych ( tworzenie obrazu kolorowego z dowolnych 3 kanałów obrazu wielospektralnego) – techniki filtracyjne ( usunięcie nieostrości, wykrycie i wyostrzenie krawędzi). – klasyfikacja – transformacje przykład przekształcenie zwane INDEKSAMI OBRAZU- opierają się na wielkości odbicia spektralnego w kanałach czerwonym i podczerwonym. Im wyższa wartość indeksu tym większa istniejąca w danym miejscu biomasa.
25 OBRAZY SATELITARNE podział:: ze względu na pułap: 1) lotnicze satelitarne, podział: 1) pasywne 2) aktywne, podział 1) wysoka rozdzielczość (LANDSAT, SPOT, IRS, ENVIAT) 2) bardzo wysoka rozdzielczość ( IKNOS, GEO-EYE, QUICKBIRD). Charakterystyka Wysokorozdzielczych systemów satelitarnych cechy wspólne: 1) systemy są umieszczane na orbitach kołowych nachylonych do płaszczyzny równika pod kątem 98st 2) duża częstotliwość rejestracji elementów orientacji kamery 3) system odwzorowania oparty jest na zasadzie skanera elektrooptycznego. O zdolności rozdzielczej decyduje wysokość orbity, ognikowa układu optycznego, wymiary pikseli 4) w płaszczyźnie ogniskowej znajduje się linijka detektorów rejestrująca w zakresie widzialnym 5) systemy mają duża rozdzielczość- zdolność rozróżniania wielkości odbicia obiektów naziemnych. 6) układ optyczny może być wychylony w dużym przedziale kątowym. Obrazy rejestrowane przez instrumenty detekcyjne satelity lub samolotu udostępniane są zazwyczaj w postaci rastrowej. Podstawowe parametry, charakteryzujące zdjęcie satelitarne to: liczba pasm spektralnych, w których dokonano zapisu, zakres i rozdzielczość widmowa oraz zakres dynamiczny każdego z pasm, a także rozdzielczość przestrzenna zdjęcia, czyli rozmiar terenu odpowiadający jednemu pikselowi na zdjęciu. ZASTOSOWANIE Zapotrzebowanie na obrazy satelitarne zauważalne jest w rolnictwie, leśnictwie, obronności, planowaniu przestrzennym, transporcie i przy tworzeniu map topograficznych. SYSTEMY: NOAA (The National Oceanic and Atmospheric Administration) System zaprojektowano specjalnie dla meteorologii, jednakże ze względu na jakość i przydatność danych gromadzonych przez niego wykorzystuje się je w wielu dziedzinach (od Rolnictwa do Oceanografii) LANDSAT Obrazy rejestrowane przez satelity serii Landsat należą do najpowszechniej wykorzystywanych materiałów teledetekcyjnych. Kanały spektralne skanerów TM i ETM+ zostały zaprojektowane pod kątem pozyskiwania informacji o środowisku. Kanał niebieski stosowany jest do badania wód (promieniowanie z tego zakresu częściowo przenika przez czystą wodę) oraz analiz pokrycia terenu, gleb i wegetacji. Promieniowanie rejestrowane w kanale zielonym odpowiada zakresowi zwiększonej odbijalności dla zdrowej roślinności. Kanał czerwony pokrywa si z zakresem absorpcji promieniowania dla chlorofilu. Kanał ten używany jest również w kartografii gleb i geologii. Kanał bliskiej podczerwieni umożliwia ocenęilości biomasy. Wykorzystuje się go m.in. w monitorowaniu upraw. Promieniowanie rejestrowane w zakresie 1,55-1,75 m pozwala m.in. na ocen zawartoci wody w roślinach (ważne np. w monitorowaniu upraw i ocenie zagrożenia suszami). Ponadto jest to jeden z niewielu zakresów promieniowania, w którym możliwe jest rozróżnianie pomiędzy chmurami, śniegiem i lodem, co czyni go niezwykle ważnym w badaniach hydrologicznych. Drugi z zakresów średniej podczerwieni wykorzystywany jest dla rozpoznawania utworów geologicznych. Kanał termalny umożliwia pomiar temperatury powierzchni Ziemi. Znajduje on zastosowanie w lokalizowaniu i monitorowaniu obszarów aktywności geotermalnej, badaniach geologicznych, ocenie wilgotności gleby oraz monitorowaniu roślinności. SPOT - europejski, IRS - indyjski, ASTER – rejestracja na zamowienie, EO-1 – pierwszy hiperspektralny, IKONOS – pierwszy w pełni komercyjny. Dzięki wysokiej rozdzielczości przestrzennej obrazy z tego satelity (i innych satelitów wysokorozdzielczych) znajdują szereg nowych zastosowań w obszarach zarezerwowanych dotąd dla zdjęć lotniczych (m.in. w planowaniu przestrzennym i sporządzaniu map topograficznych), QUICKBIRD jest obecnie satelitą o największej rozdzielczości przestrzennej.