1 6Test egzamin Fot i Teled OZL2


Fotogrametria


F1. Efekt stereoskopowy to:

a. Efekt zerowy (obrót o 90 stopni i przesunięcie dorównoległych do bazy ocznej)

b. Efekt pseudoskopowy – oko Lewe widzi obraz Prawy; oko Prawe obraz Lewy;

c. Efekt ortoskopowy – oko Lewe widzi obraz Lewy; oko Prawe obraz Prawy


F2. Wskaż poprawną odpowiedź dotyczącą standardów ortofotomapy LPIS – IACS w Polsce:

a. czarno-białe zdjęcia lotnicze 1:13.000; ortofotomapa w dwóch standardach (piksel 2m oraz piksel 1m);

b. barwne zdjęcia lotnicze 1:13.000; ortofotomapa w dwóch standardach (piksel 0,25m oraz 0,5-1,0m);

c. czarno-białe zdjęcia lotnicze 1:13.000; ortofotomapa w dwóch standardach piksel 0,25m oraz 0,5-1,0m);


F3. Kamera lotnicza ze względu na stałą kamery może być klasyfikowana jako:

  1. długoogniskowe ck > 400 mm

krótkoogniskowe 55 < ck < 150 mm

normalnoogniskowe 150 < ck < 400 mm

b. normalnoogniskowe 150 < ck < 300 mm

długoogniskowe ck > 300 mm;

krótkoogniskowe 55 < ck < 150 mm

c. krótkoogniskowe 55 < ck < 250 mm

normalnoogniskowe 250 < ck < 350 mm

długoogniskowe ck > 350 mm;


F4. Podaj poprawna definicję rzutu środkowego:

  1. rzut obiektu na płaszczyznę, wiązką prostych, przechodzących równolegle do płaszczyzny rzutującej;

b. rzut obiektu na płaszczyznę, wiązką prostych, przechodzących przez jeden punkt;

c. rzut obiektu na płaszczyznę, wiązką prostych, przechodzących przez wiele punktów





F5. Na rysunku oznaczono:

  1. S jako punkt główny;

b. O` oraz O`` jako punkty główne ;

c. a`b` oraz a``b``jako rzuty środkowe odcinka AB


F6. Wskaż prawdziwe definicje. „W fotogrametrii wyróżnia się”:

a. orientację wewnętrzną kamery pomiarowej;

orientację zewnętrzną kamery pomiarowej;

orientację wzajemną (lub względną) pojedynczego zdjęcia ;

orientację bezwzględną (absolutną) pojedynczego zdjęcia

b. orientację wewnętrzną kamery pomiarowej;

orientację zewnętrzną kamery pomiarowej;

orientację wzajemną (lub względną) pary zdjęć tworzących stereogram;

orientację bezwzględną (absolutną) modelu przestrzennego

c. orientację wewnętrzną modelu przestrzenengo;

orientację zewnętrzną kamery pomiarowej;

orientację wzajemną (lub względną) pojedyńczego zdjęcia;

orientację bezwzględną (absolutną) modelu przestrzennego


F7. Dla terminu „ortofotografia” prawdziwe jest stwierdzenie:

a. jest to obraz zestawiony z jednego bądź większej liczby zdjęć lotniczych, przetworzonych do rzutu ortogonalnego;

b. obraz charakteryzujący się dokładnością kartometryczną;

c. jej skala jest identyczna w każdym miejscu obrazu.



F8. Ortorektyfikacja to:

a. proces przetworzenia obrazu mający na celu usunięcie jego zniekształceń powodowanych różnicami wysokości powierzchni terenowej oraz nachyleniem zdjęcia;

b. proces przekształcenia NMT w NMPT;

c. łączenie zespołów ortofotografii.


F9. Termin fotointerpretacja oznacza:

a. fotografowanie terenu filmem spektrostrefowym CIR;

b. odczytywanie cech jakościowych i ilościowych odfotografowanych obiektów;

c. wykrycie i identyfikację obiektów.


F10. Krzywa spektrofotometryczna dla zielonego liścia drzewa obrazuje:

a. przebieg pochłoniętego przez barwniki promieniowania od obiektu;

b. przebieg odbitego promieniowania elektromagnetycznego od liścia;

c. wpływ struktury komórkowej liścia na odbicie w podczerwieni.


F11. Stereodigitalizacja na stacji fotogrametrycznej VSD dokonywana jest w oparciu o:

a. pojedyncze zdjęcie lotnicze;

b. stereogram zeskanowanych zdjęć lotniczych;

c. stereoparę cyfrowych zdjęć lotniczych.


F12. Aby opracować stereoskopowo zdjęcia lotnicze i wyniki opracowania zintegrować z systemem GIS niezbędne jest:

a. wykonanie orientacji wewnętrznej, wzajemnej i bezwzględnej;

b. wystarczy wykonanie tylko orientacji wzajemnej;

c. wykonanie tylko orientacji zewnętrznej.


F13. Które stwierdzenie jest poprawne:

a. Podstawy pni drzew oraz wysokich budynków mają poprawną lokalizację gdyż zastosowano NMT;

b. Wierzchołki drzew i dachy wysokich budynków mogą mieć niewłaściwą lokalizację gdyż zastosowano NMT

c. Wierzchołki drzew i dachy wysokich budynków mają poprawną lokalizację gdyż zastosowano NMPT.


F14. Struktura obrazu to:

a. ilość pikseli o tej samej barwie formujących określony kształt;

b. ułożenie pojedynczych elementów obrazu;

c. wielkości pojedynczych elementów obrazu o takim samym fototonie i stopień wypełnienia przez nie powierzchni.


F15. Barwne spektrostrefowe zdjęcia lotnicze to:

a. obrazy rejestrowane na filmie czułym na zakres podczerwieni;

b. obrazy zapisane w zakresie termalnym promieniowania elektromegnetycznego;

c. obrazy wykonane na materiale uczulonym m.in. na zakres promieniowania G, R oraz NIR


TELEDETEKCJA


T1. Rozdzielczość spektralna definiowana jest jako:

a. zdolność systemu teledetekcyjnego do rozróżniania promieniowania elektromagnetyczne-go w wielu zakresach w tym między innymi w zakresie światła podczerwonego;

b. zdolność systemu satelitarnego do rejestracji bardzo małych obiektów;

c. czas rejestracji obiektu tylko w zakresie podczerwieni.


T2. LiDAR charakteryzuje się:

a. Wysyłaniem zintegrowanej wiązki radaru zjednoczesną rejestracją kamerą cyfrową;

b. Wysyłaniem wiązki światła w podczerwieni i rejestracji czasu jaki upływa do momentu jego powrotu wraz z zapisem kąta oraz pozycji skanera;

c. Generowaniem NMPT na podstawie chmury punktów generowanej w oparciu o promień lasera, GPS i INS.


T3. Wysokorozdzielcze optyczne systemy satelitarne dostarczają danych mogących służyć do:

a. określania składu gatunkowego w drzewostanach wielopiętrowych i przerębowych;

b. pozyskiwania informacji o granicy rolno-leśnej;

c. ustalania szacunkowej liczby drzew starszych klas wieku jako cechy taksacyjnej (zagęszczenie).


T4. Klasyfikacja nienadzorowana polega na:

a. Interaktywnym przydzielaniu pikseli do klas przez operatora;

b. Określeniu maksymalnej liczby klas przez operatora bez potrzeby wskazywania pól treningowych;

c. Określeniu maksymalnej liczby klas przez operatora przy jednoczesnym zdefiniowaniu pól treningowych.



T5. Automatyczna klasyfikacja obiektowa polega na:

a. Wskazywaniu przez opratora pół treningowych i testowych;

b. Wykorzystaniu podobieństw jasności pikseli oraz kształtów obiektów (segmentów);

c. Wykorzystaniu tylko podobieństw jasności pikseli w poszczególnych kanałach spektralnych


T6. Satelita LANDSAT 7 ETM+ charakteryzuje się:

a. rozdzielczością terenową rzędu 10m x10m;

b. rozdzielczością terenową w wybranych kanałach wielospektralnych (MS) 30mx30m, oraz panchromatycznego (PAN) 15m x 15m

c. rozdzielczością terenową 60m x 60m w kanale termalnym.


T7. Rozdzielczość radiometryczną określa się:

a. liczbą rejestrowanych pikseli obrazu;

b. liczbą rozróżnianych poziomów promieniowania czyli sposobem zapisu (ilością bitów np.. 8-bitowa, 11 bitowa)

c. ilością kanałów spektralnych sensora (np. 7 kanałów).


T8. Satelita QuickBird (DigitalGlobe) charakteryzuje się m.in. :

a. rozdzielczością czasową wynoszącą 18 dni;

b. rozdzielczością radiometryczną 11 bitów, co odpowiada 2048 odcieniom szarości;

c. rozdzielczością terenową kanału PAN wynoszącą 0,62 m (w nadirze).


T9. Rozdzielczość przestrzenna określa jest:

a. skalą zapisu koloru w przestrzeni dyskowej;

b. wielkością sensora zainstalowanego na satelicie;

c. wielkością piksela obrazu terenowego wyrażaną np. w metrach.


T10. Proces klasyfikacji obrazu polega na:

a. przydzieleniu odpowiedniego piksela kolejnym elementom obrazu tworząc w ten sposób pary pikseli (1:1)

b. przypisaniu poszczególnych pikseli do odpowiedniej klasy obiektów na podstawie różnic statystycznych w poszczególnych kanałach spektralnych;

c. zamianie obrazu rastrowego na wektorowy model.


T11. Obraz VHR QuickBird po zakupie od dostawcy wymaga kalibracji czyli:

a. Skompresowania obrazu ze względu na jego wielkość;

b. Wykonania procesu transformacji do przyjętego układu współrzędnych w oparciu o punkty dostosowania;

c. Skalibrowania kolorów na kolejnych scenach


T12. Pasywny system teledetekcyjny to:

a. LiDAR, hiperspektralny skaner optyczny, kamera cyfrowa;

b. kamera cyfrowa, radar, hiperspektralny skaner optyczny; LiDAR;

c. kamera cyfrowa , hiperspektralny skaner optyczny, kamera lotnicza, kamera video.


T13. Rozdzielczość czasową definiujemy jako:

a. odstęp czasu, podawany w dniach, między dwoma kolejnymi pokryciami danego fragmentu powierzchni Ziemi przez zdalny system obraowania ;

b. odstęp czasu jaki jest potrzebny do okrążenia przez satelitę kuli ziemskiej;

c. odstęp czasu jaki mija pomiędzy rejestracją obrazu a przesłaniem go do stacji odbiorczej i dalej do użytkownika.


T14. Najlepsza do oceny stanu zdrowotnego drzewostanów zamierających pod wpływem przemysłu jest kombinacja kanałów spektralnych QuickBird:

a.321;

b.742

c.432.


T15. Które z wymienionych systemów należą do aktywnych :

a. JERS, ERS, IRS;

b. IRS, JERS, RADARSAT;

c. JERS, ERS, RADARSAT









Wyszukiwarka