Cw2


Co to jest rozdzielczość obrazu i jak ją definiujemy, jak wpływa na wielkość pliku ?

W przypadku urządzeń wejściowych rozdzielczość opisuje wielkość pikseli wykorzystywanych przy próbkowaniu obrazu. Natomiast w przypadku urządzeń wyjściowych ich rozdzielczość determinowana jest wielkością kropek używanych do reprodukcji obrazów przetworzonych przez urządzenia wejściowe. Najwyższa możliwa rozdzielczość określa jednocześnie najmniejszą kropkę, którą dane urządzenie wyjściowe jest w stanie wytworzyć. W przypadku obrazów w postaci cyfrowej rozdzielczość jest jednym z jego odstawowych parametrów. Określana jest zwykle przez dwie liczby: Y odpowiadającą ilości linii obrazu (pikseli) w pionie (rozdzielczość pionowa) oraz X odpowiadającą ilości punktów obrazu (pikseli) w każdej linii (rozdzielczość pozioma).

Co to jest piksel, dlaczego można go porównać do bitu ?

Piksele są odpowiedzialne za cyfrową reprezentację obrazu i są jego najmniejszą częścią składową (rys. 2.2a). Termin ten powstał poprzez połączenie dwóch angielskich słów: obraz (ang. picture) i element/składnik (ang. element).

O ile bit jest najmniejszą jednostką informacji, to piksel jest jego „młodszym bratem”. Wyraża on najniższy poziom grafiki komputerowej. Mówiąc prosto - obraz przedstawiony za pomocą bitów jest porównywany do bardzo precyzyjnego ściegu zawierającego odpowiednie nitki jednego koloru. Piksel, czyli litera alfabetu otaczającego nas wirtualnego świata posiada tak naprawdę trzy zmienne określające jego wartość:

− Lokalizację;

Na czym polega i czym jest spowodowana pikselizacja obrazu ?

pikselizacja (widoczne na ekranie pojedyncze piksle obrazu, będące wynikiem powiększenia obrazu o zbyt małej rozdzielczości) i efekt poklatkowy (brak płynności ruchu).

Co nazywamy rozdzielczością przestrzenną obrazu i jak wpływa ona na obraz ?

Wielkość pikseli jest zależna od gęstości siatki obrazu, na który się one znajdują. Ta siatka elementarnych punktów cyfrowego obrazu nazywana jest bitmapą. Gęstość siatki bitmapy determinowana jest wielkością pojedynczego piksela i nazywana rozmiarem logicznym lub rozdzielczością przestrzenną obrazu. Owa rozdzielczość obrazu (rys. 2.2a) pozwala określić dokładność, z jaką detale cyfrowego obrazu są zapisane w pliku, oraz stopień precyzji możliwy do osiągnięcia przy przedstawianiu detali za pomocą urządzeń wejściowych (cyfrowych kamer, aparatów i skanerów) i wyjściowych (monitorów, drukarek).

Co nazywamy głębią kolorów obrazu, jak wpływa ona na obraz i wielkość pliku ?

Liczba możliwych do uzyskania odcieni danego koloru jest czasem nazywana rozdzielczością jaskrawości lub głębią piksela.

Co oznacza skrót RGB, skąd w praktyce się wywodzi, gdzie się z nim spotykamy ?

natężenie podstawowych barw addytywnych (składowych) - mamy wtedy do czynienia z systemem RGB (ang. Red Green Blue), w którym każdy kolor uzyskiwany jest poprzez mieszanie barw podstawowych w technice addytywnej (czerwonej, zielonej i niebieskiej). System ten najczęściej jest stosowany w wyświetlaniu kolorów na monitorach komputerowych.

Co to jest, co opisuje luminancja i chrominancja ?

W fizyce pojęciem luminancji określa się miarę intensywności świecenia źródeł lub powierzchni odbijających światło w odniesieniu do ustalonych warunków pomiarowych. Jednostką pomiarową jest zwykle Kandela na metr kwadratowy, ale są i inne jednostki do pomiaru luminancji, na przykład: Stilb, Apostilb, Lambert, wynikające z różnych koncepcji warunków pomiarowych. Jeszcze jedną koncepcją pomiaru luminancji może być pomiar intensywności światła (ang. Brightness) danej barwy w odniesieniu do jednostki powierzchni.

Generalnie luminancja określa jasność piksela (ang. Brightness), natomiast chrominancja określa jego nasycenie (ang. Saturation) oraz odcień (ang. Hue) koloru, generalnie różnicę w kolorach.

Co to jest digitalizacja obrazu i jak ją realizujemy w praktyce, czego wymaga ?

karta telewizyjna. Jej zadaniem jest digitalizacja (zamiana na postać cyfrową) dowolnego sygnału wideo pochodzącego z kamery, tunera TV lub magnetowidu. Karty wideo występowały początkowo w dwóch rodzajach, jako niezależne lub zintegrowane.

Jakie są tryby wyświetlania obrazu w kartach wideo, jakie są rodzaje tych kart ?

trybie nakładania obrazu "overlay" polegającym na nałożeniu danych wideo na analogowy sygnał karty wideo.

tryb podglądu obrazu "preview". Okazał się on znacznie bardziej efektywny i obecne karty wykorzystują już tylko ten rodzaj pracy. Polega on na wprowadzeniu cyfrowych danych obrazu wideo bezpośrednio do pamięci karty graficznej.

Co to jest kompresja i jakie są jej podstawowe rodzaje ?

Kompresja jest tanim (może nawet najtańszym) sposobem/procesem zmniejszenia objętości danych wejściowych (źródłowych), w taki sposób, aby zajmowały one jak najmniej miejsca. Dekompresją nazywamy proces odwrotny do kompresji, polegający na odtworzeniu z danych wyjściowych (skompresowanych) danych wejściowych. W zależności od rodzaju kompresji dane odtworzone (zdekompresowane) odpowiadają danym wejściowym w 100% (kompresja bezstratna) lub jedynie z pewnym przybliżeniem (kompresja stratna). Kompresja bezstratna stosowana jest wszędzie tam, gdzie zmiana nawet jednego bitu danych może wywołać negatywne skutki - np. w plikach wykonywalnych EXE, dokumentach DOC, arkuszach XLS. Kompresja stratna stosowana jest tam, gdzie dopuszczalne jest powstanie różnicy między danymi wejściowymi a odtworzonymi, głównie właśnie w kompresji obrazów i dźwięków - np. JPEG, MPEG, MP3.

Co to jest i co umożliwia redundancja zbioru danych ?

Realizacja procesu kompresji możliwa jest dzięki tzw. redundancji (nadmiarowości) informacji zawartej w danych źródłowych oraz dzięki różnym zależnościom w strukturze danych.

Jaki jest ogólny podział metod kompresji danych i jakie są między nimi różnice ?

Metody kompresji danych ogólnie dzielimy na obliczeniowe i statystyczne. Obliczeniowe dokonują kompresji poprzez mniej lub bardziej złożone obliczenia matematyczne, których bazą jest zbiór danych wejściowych. Nie poszukują jednak powiązań między samymi danymi. Statystyczne zaś dostosowują algorytm kompresji do zawartości zbioru danych wejściowych, częstości występowania poszczególnych elementów, znaków, symboli, fraz, itp. W ogólnym ujęciu metody statystyczne dają zawsze lepsze rezultaty (większe współczynniki kompresji) niż obliczeniowe. Wymagają jednak określenia częstości występowania poszczególnych elementów zbioru wejściowego, a więc wymagają znajomości całego zbioru danych wejściowych przed rozpoczęciem procesu kompresji

Co to jest entropia wejścia zbioru danych i jakie jest jej znaczenie praktyczne ?

Jest to możliwe dzięki tzw. entropii wejścia (współczynnikowi chaosu zbioru), określającej właśnie podatność na kompresję i obliczanej ze wzoru (4.1b):

Entropia duża (duża przypadkowość danych, chaos, losowość):

Entropia mała (uporządkowanie danych, wyraźna przewaga części danych):

Entropia zdążająca do minimum (przewaga jednych danych, brak innych):

Co to jest współczynnik kompresji, jak go definiujemy i co na niego wpływa ?

Każdą kompresję charakteryzuje tzw. współczynnik kompresji k, wyrażony wzorem (4.1a):

Wielkość współczynnika kompresji może zmieniać się od 0 do 100% i zależy od przyjętego algorytmu (metody) kompresji oraz od zawartości zbioru. O ile pierwsza przyczyna nie wymaga komentarza, to druga może nie być już tak oczywista.

Jakie rodzaje kompresji stosowane są zwykle do kompresji plków tekstowych a jakie do obrazu ?

Jakie są podstawowe metody kompresji obrazów nieruchomych, co je łączy a co wyróżnia ?

predykcyjna DPCM (ang. Differential Pulse Code Modulation) wiąże kwantyzację z predykcją, aby zredukować błąd rekonstrukcji obrazu w procesie dekompresji.

Drugi z paradygmatów, nazywany paradygmatem kanałów głównych, przyjmuje, że po pewnej transformacji (przetworzeniu) wielowymiarowych sygnałów zawartych w obrazie energia tychże sygnałów w nowym wymiarze skupia się na niewielkiej liczbie kanałów. Wystarczy, zatem kodować tylko te sygnały, których wartości (energia sygnałów) są znaczące. Występuje wiele transformacji, które mieszczą się w tym paradygmacie i znajdują swe zastosowanie w kompresji obrazów (np. kompresja transformacyjna omawiana poniżej przy okazji standardu JPEG). Kompensacja ruchu MC ustala podobieństwo pomiędzy elementami dwóch obrazów. Wystarczy dla danego bloku (np. 16 x 16) obrazu znaleźć najbardziej do niego podobny blok w poprzednim obrazie i zakodować wektor przesunięcia tych bloków.

Jakie są generacje kompresji obrazu i co je różni ?

Pierwsza generacja algorytmów kompresji obrazów przyjmuje do kodowania piksel lub blok pikseli jako podstawową porcje danych. Obraz traktowany jest jako ciąg sygnałów jedno lub więcej wymiarowych w pewnej bazie sygnałów. Natomiast treść i układ obrazu nie ma tu żadnego znaczenia. Ten typ algorytmów wykorzystywany jest w ramach takich standardów jak: JPEG, H.261 i MPEG-2. Standardy te niestety nie pozwalają na kodowanie z dobrą jakością sekwencji obrazów dla kanałów transmisyjnych o przepływności bitowej poniżej 64 kbit/sek.

Druga generacja algorytmów kompresji obrazów przeprowadza wstępną analizę sceny mającą na celu podział obrazu na obiekty obrazowe związane z obiektami fizycznymi znajdującymi się w scenie. Algorytmy te uwzględniają w większym stopniu system wizyjny człowieka HVS jako element toru kodera i dekodera w procesie kompresji. Algorytm kompresji drugiej generacji najczęściej pozwala na uzyskanie kompromisu pomiędzy stopniem kompresji a jakością obrazu po rekonstrukcji

Co to jest format BMP i jakie jest jego praktyczne znaczenie, wady i zastosowania ?

BMP - format BMP jest standardowym formatem bitmap w środowisku Windows i w systemie DOS. Zachowując pliki w tym formacie, można wybrać odmianę Microsoft Windows lub OS/2 oraz głębię pikseli - od 1 do 24 bitów. W przypadku obrazków 4- i 8-bitowych można ponadto skorzystać z kompresji Run-Length-Encoding (RLE). Kompresja ta jest bezstratna.

Co różni formaty BMP i JPEG ? Co różni łączy GIF i JPEG ?

GIF (ang. Graphics Interchange Format) - definiuje protokół, który umożliwia niezależną sprzętowo, transmisję grafiki online. Obrazy są kompresowane metodą Lempela-Ziva. GIF definiuje strumienie danych, które składają się bloków i podbloków reprezentujących obraz wraz z niezbędnymi informacjami sterującymi pozwalającymi na dostarczenie obrazu na docelowe urządzenie wyjściowe. Nie ma on jednak możliwości wykrywania błędów.

JPEG (ang. Joint Photographic Expert Group) - umożliwia zarówno stratną jak i bezstratną kompresję danych, jednak ta pierwsza daje dużo lepsze rezultaty. Stopień straty danych jest kontrolowany poprzez ustawienie parametrów zdefiniowanych w specyfikacji JPEG. Algorytm kompresji zastosowany w formacie JPEG wykorzystuje dyskretną transformatę kosinusową DCT (ang. Discrete Cosinus Transformation).

Gdzie jest stosowana i na czym polega kompresja transformacyjna obrazu ?

Schemat kodowania transformacyjnego dzieli cały obraz na bloki o rozmiarze N x N punktów (pikseli). Sama transformacja działa już tylko na danym pojedynczym bloku. Blok ten następnie zawiera współczynniki transformacji, które są poddawane kwantyzacji. Kwantyzacja pozostawia jedynie te współczynniki, w których zawarta jest największa energia odrzucając pozostałe. Dzięki temu otrzymujemy zbiór danych o bardzo małej entropii wejścia (współczynnika chaosu zbioru). W tym momencie stosując kompresję bezstratną otrzymujemy wyśmienite wyniki, jeżeli chodzi o stopień kompresji danych. Należy także podkreślić, iż przy odpowiednim doborze współczynników całego procesu możemy w końcowej fazie otrzymać wizualnie (a więc pozornie!) bezstratną kompresję.

Co łączy i różni formaty MJPEG i MPEG ?

Film (ruchomy obraz) to nic innego, jak seria pojedynczych klatek obrazu. Zamieniając je do postaci cyfrowej jedna po drugiej uzyskamy serię bitmap. Wyświetlając je we właściwej kolejności i we właściwym tempie uzyskamy nic innego jak cyfrowo zapisany film. Poszukując metod kompresji obrazów ruchomych najłatwiej było sięgnąć do doświadczeń z metod kompresji obrazów statycznych - pojedynczych klatek. W ten sposób powstał standard

M-JPEG, będący rozwinięciem formatu JPEG do zastosowań dla obrazów ruchomych - M od słowa „ruch” (ang. Motion). W standardzie tym każda klatka filmu kompresowana jest jedna po drugiej wg algorytmu JPEG, bez żadnych powiązań między kolejnymi klatkami, i układana w chronologicznej kolejności. Uzyskane współczynniki kompresji dla filmu M-JPEG oczywiście w niczym nie będą odbiegać od tych uzyskiwanych przy standardzie JPEG i w praktyce (dla dającej się zaakceptować jakości) wynoszą zaledwie około 1:20.

Nie zmienia to jednak faktu, że pojawienie się kart ze sprzętową kompresją M-JPEG (np. Fast, Miro) zapoczątkowało erę cyfrowego wideo. Praktycznie wszystkie korzystały z układów kompresji opracowanych przez, wspomnianą wcześniej, firmę Zoran.

Co to jest AVI, czy zaliczamy go do kompresorów obrazu i dlaczego ?

Wprowadzeniu w 1992 roku przez firmę Microsoft formatu AVI (ang. Audio Video Interleave) należy przypisać początek ery multimediów dla komputerów klasy PC, chociaż na ich swobodne wykorzystanie trzeba było jeszcze poczekać kilka lat. AVI stanowi część techniki Windows, odpowiedzialnej za systemową obróbkę dźwięku i obrazu, tzw. Video for Windows. Samo AVI nie jest właściwie żadnym kompresorem, jedynie formatem precyzującym sposób zapisu cyfrowego dźwięku i obrazu. Wykorzystano w nim odmianę formatu RIFF, wykorzystując pomysł sposobu zapisywania danych poprzez ich podział na części. AVI rozszerza ten pomysł dodając dwa lub trzy identyfikatory, opisujące nagłówek pliku, informacje o pliku i obrazie, właściwe dane audio-wideo oraz informacje o położeniu samych części wewnątrz plików. Wykorzystana technika pozwala na zapisanie danych zarówno skompresowanych, jak i bez kompresji. Dzięki temu np. plik poddany kompresji DivX może być nadal plikiem AVI.

Co to jest MPEG i czym różnią się jego kolejne generacje ?

Najbardziej popularnym formatem zapisu ruchomych obrazów cyfrowych jest MPEG (ang. Motion Picture Expert Group) to skrót, który jest nadany kilku standardom kompresji sekwencji obrazów cyfrowych i towarzyszącego tej sekwencji dźwięku cyfrowego. Jest to system kodowania z kontrolowaną utratą danych. Istnieje możliwość decydowania o oczekiwanej jakości obrazu za pomocą określenia współczynnika kompresji. Jest to ważne w szczególności przy transmisji obrazu gdzie w zależności od stosowanego medium transmisyjnego mamy możliwość decydowania o ilości przesyłanych danych. Dzięki uzyskaniu wartości współczynnika kompresji na poziomie około 1:100 format MPEG zapoczątkował prawdziwą erę cyfrowej rejestracji obrazów.

Jakie są podstawowe cechy obiektu audiowizualnego AVO w kompresji MPEG ?

Nowy standard kompresji i transmisji danych, jakim jest MPEG4 przedstawia metody reprezentacji danych w postaci zbioru tzw. obiektów audiowizualnych AVO (ang. Audio-Visual Objects), które mogą być syntetyczne (sztucznie wygenerowane) lub naturalne. Szeroko została wprowadzona możliwość skalowalności reprezentacji danych (obrazu i dźwięku) w wielu wymiarach: przestrzeni, czasie, jakości i złożoności obliczeniowej. Istotne są również możliwości swobodnego dostępu i przeszukiwania danych (dzięki technikom zapytań i przeglądania) poprzez zdalny terminal i sieci komunikacyjne o różnych przepustowościac

Standard MPEG4 jest systemem komunikacji obiektów audiowizualnych AVO stanowiących reprezentację obiektów rzeczywistych lub wirtualnych. Obiekty AVO mają charakter hierarchiczny i mogą być definiowane jako złożone z wielu podobiektów, zwanych subobiektami. W architekturze komunikacyjnej standardu MPEG4 jeden lub kilka obiektów AVO jest przesyłanych ze źródła do dekodera użytkownika MPEG4.

Co umożliwia osiągnięcie dużej kopresji w standardzie MPEG ?

Jakie są podstawowe zalety rejestracji cyfrowej ?

Główna różnica między systemami nadzoru wizyjnego w wersji analogowej i cyfrowej sprowadza się do metody rejestracji obrazu. W systemach cyfrowych analogowa kaseta VHS została zastąpiona dyskiem twardym, zawierającym obraz w postaci cyfrowej. Dalsze różnice (i zalety) wynikają już z cech i możliwości samego cyfrowego przetwarzania obrazów. Należą do nich:

Jaka jest podstawowa różnica w zapisie obrazu w systemach analogowych i cyfrowych ?

Co różni kartę wideo dla systemów profesjonalnych od karty telewizyjnej ?

Narysuj i opisz podstawowy schemat blokowy karty wideo dla systemów rejestracji.




Wyszukiwarka

Podobne podstrony:
Farmakologia cw2 s
cw2
cw2 3
cw2 7
Instr monma ćw2
cw2 tip 2012 13
2012 cw2 katy Mid 27683
SK-cw2 4h MODEMY opis przebiegu zaj dla studenta, Sieci Komputerowe
korespondencja polecenia, Weterynaria Lublin, INFORMATYKA, cw3, cw2
sciaga egz cw2, Studia, UTP Ochrona środowiska, I rok, Semestr II, Ekologia
Wykonanie próbek z zapraw?mentowych cw2
opto cw2
cw2
sem IV TWiS lab inne cw2 AnetaSzot
Cw2 t id 123178 Nieznany
lab ćw2 poliuretany i poliamidy
LA cw2 id 257339 Nieznany
cw2 spekto bud,zasa

więcej podobnych podstron