opracowanko histogram id 338711 Nieznany

background image

Histogram

Obraz może być opisany histogramem.
Aby automatycznie wyznaczyć wektor histogramu, należy zbudować wektor o 256 pozycjach, następnie
skanować macierz wartości, odczytać kolejną wartość i pod właściwym indeksem wektora histogramu
zwiększyć liczbę wystąpień o 1. Znormalizowany histogram mówi z jakim prawdopodobieństwem znajdziemy
kolejne wartości w macierzy danych, nie znormalizowany – pokazuje liczbę wystąpień danej wartości.
Aby operację przeprowadzić na obrazie np. RGB, należy rozbić go na 3 macierze, na każdej wykonać daną
operację i następnie złożyć je z powrotem w obraz.

Zwiększenie kontrastu – rozciągnięcie histogramu.

Najpierw stosujemy skalowanie liniowe Y=AX+B, wyznaczając parametry A i B używając danych: było

80 (szary) - ma być 0 (czarny); było 230 (jasno szary) - ma być 255 (biały).
0=A*80+B i 255=A*230+B. Po wyznaczeniu wartości parametrów możemy przeskalować (rozciągnąć liniowo)
histogram, a dzięki temu wartości obrazu. Na podstawie funkcji skalowania uzyskuje się tablicę przejść LUT,
która zamienia wartości z histogramu/obrazu początkowego na końcowe.

Wyrównanie histogramu – poprawa kontrastu

W przypadku, kiedy nie może być wykorzystane rozciągnięcie, bo histogram obejmuje skrajne

wartości. N – liczba pikseli, L – liczba poziomów
Rozpatrujemy histogramy jako funkcje ciągłe, więc przekształcenie histogramu powinno dotyczyć każdego

słupka. Zakładamy, że docelowa wysokość słupka powinna dążyć do rozkładu wyrównanego

:

ho(y)*d(y)=ho(y)*(L-1)/L=N/L -> ho(y)=N/(L-1), ponieważ dy=(L-1)/L i dąży do 1, gdy L dąży do nieskończoności.
Znormalizowany histogram zbiorczy (skumulowany) to dystrybuanta.

Dopasowanie histogramu

Załóżmy, że posiadamy dwa obrazy stanowiące część jednego obrazu (podział np. podczas skanowania

dużego formatu na skanerze o mniejszym formacie). W wyniku zniekształceń obrazy mogą się różnić
kontrastem, co skutkuje znaczącymi różnicami po połączeniu. Dopasowanie histogramu stosujemy, aby pozbyć
się tego efektu. Proces dopasowania może przebiegać względem innego obrazu lub wzorcowego histogramu
(np. rozkładu Gaussa).

Filtracja
Dla jednowymiarowego sygnału cyfrowego

Aby filtrować obrazy musimy najpierw sygnał w dziedzinie czasu transformować do dziedziny

częstotliwości. Dzięki temu możemy zobaczyć, dla jakich częstotliwości występują wartości funkcji. Robimy to
za pomocą transformaty Fouriera. Przy ponownym wykreśleniu funkcji zauważamy już osobne „piki”, dzięki
czemu wiemy, jakie są częstotliwości w sygnale. Aby się pozbyć określonej częstotliwości, projektujemy funkcję
wycinającą (mnożącą przez 0) wartości, o częstotliwości większej, niż zadana częstotliwość graniczna. Następnie
wracamy z powrotem do dziedziny czasu, stosując odwrotną transformację Fouriera.

Obraz – dwuwymiarowy sygnał cyfrowy, definiowany przez macierz (szerokość N x M wysokość)

Dziedziną obrazu jest przestrzeń.

a) jeśli w obrazie występują gwałtowne zmiany wartości sąsiednich w określonych przekrojach, to
mówimy, że w ujęciu jakościowym obraz charakteryzuje się wysokimi częstotliwościami;
b) jeśli w obrazie występują płynne (gładkie) zmiany wartości sąsiednich w określonych
przekrojach, to mówimy, że w ujęciu jakościowym obraz charakteryzuje się niskimi
częstotliwościami;
c) jeśli w obrazie nie ma w ogóle zmian wówczas częstotliwości równe są 0.

Wyostrzanie obrazu – filtracja górnoprzepustowa, uwypuklenie różnic
Rozmycie obrazu – filtracja dolnoprzepustowa, wygładzenie wartości obrazu

background image

Wyznaczamy transformatę Fouriera obrazu, następnie obliczamy moduł (wynik transformacji zdefiniowany jest
w dziedzinie liczb zespolonych). Wyrównujemy histogram w celu wygenerowania zakresu 0…255, dla obrazu w
skali szarości. Następnie zamieniamy ćwiartki otrzymanego obrazu tak, aby składowa stała (częstotliwość 0,0)
znajdowała się bliżej środka obrazu, utworzonego dla skalowanych wartości modułu.

Filtrację danych dwuwymiarowych można przeprowadzić w podobny sposób jak dla danych
jednowymiarowych:
a) transformować macierz do dziedziny częstotliwości
b) zdefiniować filtr w dziedzinie częstotliwości (lub w dziedzinie przestrzeni i transformować do dziedziny
częstotliwości)

filtr definiujemy jako macierz danych, którą poddamy transformacji Fouriera do dziedziny

częstotliwości. (np. filtr dolnoprzepustowy w postaci kapelusza, którym nakrywamy widmo – warunek ten
spełnia dwuwymiarowy rozkład Gaussa)
c) zastosować filtr w dziedzinie częstotliwości

rozmiar filtru będzie zwykle różny od rozmiaru obrazu, dlatego stosujemy funkcję, która wyrówna

rozmiar macierzy filtru i macierzy obrazu
d) zastosować odwrotną transformację Fouriera uzyskując macierz obrazu

filtracja w dziedzinie częstotliwości to pomnożenie odpowiednich wartości w dziedzinie

częstotliwości i wykonanie odwrotnej transformacji Fouriera

Splot

Funkcję filtru dolnoprzepustowego można przedstawić za pomocą macierzy, których wartości będą dodatnie.
Funkcję filtru górnoprzepustowego można przedstawić za pomocą macierzy, których wartości będą ujemne.
Uzyskany po filtracji obraz będzie miał niski kontrast, dlatego później stosujemy rozszerzenie histogramu.
Funkcję filtru górnoprzepustowego można również uzyskać poprzez negację (-f(x)) i znormalizowanie funkcji
filtru dolnoprzepustowego. Suma wartości wag w masce filtru dolnoprzepustowego jest zawsze większa od 0 (w
rozwiązaniach praktycznych =1). W przypadku filtru górnoprzepustowego suma wag daje 0.
Przy splocie nie musimy korzystać z przekształcenia Fouriera, ponieważ mnożenie w dziedzinie częstotliwości to
splot w dziedzinie czasu, a dla danych 2D, mnożenie w dziedzinie częstotliwości przestrzennych to splot w
dziedzinie przestrzeni.
Dla splotu stosujemy warunek brzegowy – przepisujemy brzeg z oryginału.
Filtracja obrazów ma zazwyczaj charakter jakościowy, dlatego zwykle analizuje się jedynie efekt wizualny
uzyskany dla danej maski filtru.

Filtracja szumu

W przypadku poprawy możliwości rozumienia treści przez obserwatora parametry dotyczące jakości

będą definiować te własności obrazu, które wpływają na percepcję obrazu, rozpoznawanie obiektów i
wnioskowanie. W zakresie poprawy percepcji treści obrazu można wyróżnić szereg parametrów jakości:
- kontrast obrazu,
- stosunek sygnału (treści użytecznej) do szumu (tła, które nie jest nośnikiem informacji),
- stopień rozróżniania krawędzi ("ostrość" obrazu),
- wierność kolorów (w odniesieniu do obserwowanego obiektu w rzeczywistości),
- różnica w percepcji kolorów (np. dla osób ze ślepotą barw),
- stopień zniekształceń geometrycznych, itp.
Poprawa jakości obrazów w odniesienie do interpretacji treści przez programy komputerowe związana jest z
definiowaniem kryteriów, które muszą być osiągnięte przez obraz, aby dany algorytm (program) zadziałał
zgodnie z oczekiwaniem.

background image

Jako globalną miarę kontrastu w obrazie można użyć odchylenia standardowego oraz wariancji. Im większe
będą te wartości, tym lepiej. Kolejny parametr opisujący jakość obrazu to stosunek sygnału do szumu. W
przypadku obrazów parametr ten jest w pewnym sensie rozszerzeniem kontrastu.

Szum "sól i pieprz" to niekorzystne zakłócenie obrazu powstałe w czasie akwizycji obrazu (np. wady

urządzeń elektronicznych, kurz na powierzchni skanera, itd.). Zadaniem metod przetwarzania obrazów jest
poprawa jakości obrazu, czyli w tym przypadku usunięcie lub redukcja szumu.
Redukcja szumu może być osiągnięta przez zastosowanie filtru. Szum zwiększa częstotliwości przestrzenne w
obrazie, sprawdzamy to za pomocą transformacji Fouriera i analizy widma. Aby pozbyć się wysokich
częstotliwości, stosujemy filtry dolnoprzepustowe. Szum ten może mieć różny charakter (np. rozkład). W
aplikacjach praktycznych, redukcja szumu związana jest z niedoskonałością procesu akwizycji (rekonstrukcji,
syntezy) obrazów.

Filtracja z zastosowaniem operacji splotu, to najczęściej stosowana metoda filtracji

dolnoprzepustowej. Można też zastosować medianę (wartość średnią rozkładu) zamiast wartości średniej w
oknie o rozmiarach maski.

Wyostrzanie obrazów

Efekt rozmycia możemy uzyskać stosując filtr dolnoprzepustowy.
Filtr górnoprzepustowy redukuje niskie częstotliwości przestrzenne, wprowadzając uwypuklenie tych

miejsc w obrazie, które lokalnie różnią się wartościami macierzy danych. Efektem jest wyostrzony obraz.
Aby nie trzeba było rozciągać histogramu wartości po filtracji, należy zwiększyć wartość centralną maski filtru
górnoprzepustowego (np. w macierzy 5x5 wypełnionej samymi -1, miejsce 3x3 będzie miało wartość 25).

Detekcja krawędzi

Filtracja górnoprzepustowa zwiększa lokalne różnice wartości. Można zatem wykorzystać tę operację

do detekcji krawędzi (brzegów regionów/obiektów) w obrazie.

Obserwując, że splot realizuje lokalną sumę wartości przemnożonych przez wagi, można tak dobrać

wagi maski filtru, aby uzyskać lokalną różnicę wartości. Jeśli lokalne wartości sąsiednie są takie same lub
podobne, uzyskamy 0 lub niską wartość różnicy. W przeciwnym przypadku wartość gradientu będzie wysoka, co
oznacza, że w obrazie występuje granica regionów/obiektów o różnych wartościach. Różnicę wartości możemy
badać dla różnych kierunków, stąd szereg filtrów krawędziowych nosi nazwę pochodzącą od kierunku
obliczania gradientu (np. północny, południowo-wschodni, itd.). Popularnym filtrem jest filtr Sobela.

Filtry specjalne

Obliczanie laplasjana (suma operatorów drugich pochodnych cząstkowych po kartezjańskich

współrzędnych przestrzennych). W każdym punkcie trzeba obliczyć nową wartość na podstawie wartości
sąsiednich z odpowiednimi wagami. Można to zrealizować za pomocą splotu z odpowiednią maską. Efektem
jest detekcja krawędzi. Laplasjan jest również czuły na szum o wysokiej częstotliwości, dlatego najpierw można
dokonać filtracji dolnoprzepustowej (np. filtrem Gaussa), a następnie zastosować laplasjan – nazywa się to
Laplacian od Gaussian (LoG).

Operacja „unsharp” - Ciekawy efekt wizualny otrzymamy odejmując lub dodając do obrazu

oryginalnego wynik detekcji krawędzi. Można również wykonać filtrację dolnoprzepustową i efekt odjąć od
obrazu, uzyskaną różnicę dodać (z wagą a) do obrazu oryginalnego.

Efekty wizualne

- detekcja krawędzi przy skalowaniu uzyskanych wartości od ujemnych do dodatnich

Współrzędne i geometria

background image

Każdy piksel posiada określone współrzędne, dlatego każdy element obrazu, wyróżniany przez

obserwatora ma również cechy przestrzenne. Obserwator może wyróżnić w obrazie punkty, linie, wielolinie,
wieloboki i inne obiekty geometryczne.
W przetwarzaniu obrazów transformacja geometrii jest najczęściej wykorzystywana do:
- korekcji geometrii obrazu (np. zmiana kąta obserwacji),
- zlokalizowania obrazu w stosunku do układu współrzędnych Ziemi (np. fotomapa),
- dopasowania geometrii obrazów z kilku obrazów (np. dane obrazu z diagnostyki funkcjonalnej mózgu z
danymi obrazu z diagnostyki strukturalnej/morfologicznej mózgu),
- deformacji obrazów (np. uzyskanie ciekawych efektów w obrazie).
Metody przekształcenia geometrii możemy ogólnie podzielić na:
- elastyczne (linie proste mogą być przekształcone w krzywe)
- sztywne (linie proste pozostaną proste)  dzielone na

afiniczne

(równoległe pozostają równoległe) oraz

perspektywiczne

(równoległe mogą tracić tę cechę i np. zbiegać się w perspektywie).

Transformacje afiniczne
Przesunięcie (translacja)

Załóżmy, że A00=1, A01=0, A10=0, A11=1; wówczas uzyskujemy następujący układ równań:
X'=Xo+t0,
Y'=Yo+t1
Jej realizacja w obrazie najczęściej związana jest z przesunięciem wierszy i/lub kolumn. Ponieważ obraz
(macierz) definiuje zakres możliwych współrzędnych, zatem nie można przesunąć np. kolumny poza ostatnią
kolumną w macierzy. Załóżmy, że kolumn jest 10 (od 0 do 9). Jeśli chcę zmienić współrzędną x=0 o 2 (X'=0+2)
wówczas przesunę 0-ową kolumnę do 2 kolumny (1 do 3, itd.). Ale co pozostanie w 0 i 1 kolumnie po
przesunięciu? Możliwe są dwa warianty:
1.) wypełnimy kolumny wartościami domyślnymi (np. wartościami tła 0),
2.) zawiniemy obraz tak, że przesunięta kolumna nr 9 będzie kolumną 1, a przesunięta kolumna nr 8 będzie
kolumną nr 0. Analogicznie możemy przesuwać wiersze oraz wykonywać odbicie kolumn/wierszy wokół
wybranych osi odbicia.

Skalowanie

Załóżmy, że A01=0, A10=0, t0=0,t1=0; wówczas uzyskujemy następujący układ równań:
X'=A00*Xo
Y'=A11*Yo
Taka operacja nazywana jest skalowaniem (powiększanie, pomniejszanie, zoom). Jej realizacja w obrazie
najczęściej związana jest z:
- zwiększeniem liczby pikseli (powiększenie),
- zmniejszeniem liczby pikseli (pomniejszenie).
Po operacji zwiększenia/zmniejszenia liczby pikseli stosuje się często operację interpolacji w celu "wygładzenia"
obrazu. W tym celu można zastosować również filtrację dolnoprzepustową.
Najprostsza postać skalowania - poprzez zwiększanie/zmniejszanie liczby pikseli.

Obrót
Załóżmy, że A00=cos(kąt), A01=-sin(kąt), A10=sin(kąt), A11=cos(kąt),
t0=0,t1=0
wówczas uzyskujemy następujący układ równań:
X'=cos(kąt)*Xo-sin(kąt)*Yo,
Y'=sin(kąt)*Xo+cos(kąt)*Yo, gdzie kąt to kąt obrotu.
Taka operacja nazywana jest obrotem wokół początku układu współrzędnych.

background image

Problem pojawia się dopiero, kiedy np. chcemy uzyskać obrót o 45°, ponieważ pole po obrocie jest większe niż
pole obrazu oryginalnego. Wyznaczenie wartości obrazu w danym obróconym punkcie odbywa się poprzez
zastosowanie metod powtórnego próbkowania (resampling) obróconej płaszczyzny obrazu.
Metody obliczania nowej wartości w punkcie (piksel) mogą dzielić się na:
- najbliższego sąsiedztwa (na wyjście przepisywana jest wartość punktu z obróconej macierzy, leżącego najbliżej
punktu nowej, prostokątnej macierzy obrazu)
- interpolacja dwuliniowa (obliczamy średnią ważoną z 4 najbliższych sąsiadów),
- splotu (obliczamy średnią ważoną z 16, 25 najbliższych sąsiadów: operacja podobna w efekcie jak
zastosowaniem filtracji dolnoprzepustowej z wykorzystaniem operacji splotu).
Transformacje afiniczną można złożyć z kilku operacji tworząc zestaw 6 parametrów w układzie równań.
Parametry te można często uzyskać porównując 3 pary punktów źródłowego i docelowego układu
współrzędnych. Wówczas istnieje możliwość dopasowania układu współrzędnych dwóch obrazów.

Grafika trójwymiarowa

To w rzeczywistości płaski obraz na ekranie, sprawiający posiadanie głębokości. Wrażenie 3D wynika z tego, że
oczy widzą dwa przesunięte wobec siebie obrazy, a mózg łączy je w całość. Występuje perspektywa, czyli
wrażenie, że obiekty znajdujące się dalej są mniejsze niż obiekty położone bliżej. Sama perspektywa wystarczy
do osiągnięcia wrażenia trójwymiarowości. Aby określić gdzie obiekt ma przód i tył stosuje się zasłanianie
krawędzi, dające wrażenie wypełnienia bryły. Następnie koloruje się go, oraz stosuje cieniowanie w celu
emulacji oświetlenia. Z kolei oświetlenie daje cienie, które obiekt powinien rzucać.
W celu wyświetlenia na płaskim ekranie, współrzędne trójwymiarowe są na niego rzutowane.
Rzut równoległy – podanie prostokątnej bryły rzutowania, wszystko co jest poza bryłą nie będzie rzutowane.
Rzut perspektywiczny – bryła rzutowania przypomina piramidę ze ściętym wierzchołkiem. Obiekty znajdujące
się bliżej obserwatora mają rozmiary zbliżone do oryginalnych, natomiast te znajdujące się dalej wydają się
mniejsze. Zwiększa realizm, jest wykorzystywane do symulacji oraz tworzenia animacji 3D.

Raytracing – opis metody renderingu

Tzw. Śledzenie promieni – do fotorealistycznych scen 3D. jest to algorytm przetwarzania sceny przez śledzenie
promieni biegnących od kamery, aż do czasu, gdy opuszczą one obszar widziany przez kamerę. Gdy pierwsze
promienie natrafią na obiekt szklany lub odbijający, przywoływane i śledzone są również promienie dodatkowe.
Raytracing jest nazywany często odwrotnym, ponieważ w przeciwieństwie do rzeczywistości, promienie biegną
od kamery w głąb sceny. Metoda ta pozwala uzyskać cienie dokładnie oddające kształt obiektu. Promienie
biegnące od źródła światła zbierają informacje o położeniu każdego obiektu na scenie, natomiast kolejne
promienie informują o globalnych odległościach w scenie.

Operacje boolowskie

Powiększają możliwości tworzenia bardziej skomplikowanych brył. W grafice komputerowej taka technika
konstrukcji nosi nazwę CSG (Constructive Solid Geometry) i pozwala na definicję dowolnego kształtu.
Union – połączenie dwóch obiektów
Intersection – nowy obiekt jest częścią wspólną
Difference A-B – od obiektu A odejmujemy B

Podstawowe transformacje obiektów

Przesunięcie – dowolnie na osiach x, y, z
Obrót – o dowolny kąt względem dowolnej osi
Skalowanie – powiększanie/pomniejszanie względem dowolnej osi

Światło i właściwości optyczne

Filter – ilość światła filtrowana przez daną powierzchnię, światło po przejściu przez obiekt będzie w
zdefiniowanym kolorze, w określonej procentowo ilości.
Transmit – ilość światła przepuszczana przez daną powierzchnię. Światło nie zmienia swojej barwy, w
przeciwieństwie do tego w poleceniu filter.

background image

Światło

Może być punktowe, stożkowe, cylindryczne. W zależności jaki rodzaj światła zdefiniowaliśmy, na scenie
otrzymamy różne efekty barwne, jak również strefy cienia i półcienia.
Dwa modele oświetlenia

Model Lamberta – stosowany w grafice komputerowej model oświetlenia powierzchni matowych

przez światło punktowe. Powierzchnie matowe rozpraszają światło w jednakowy sposób we wszystkich
kierunkach, dlatego wydają się jednakowo jasne, niezależnie od kąta patrzenia. Jeśli strumień światła ma

nieskończenie mały przekrój dA, to oświetla on powierzchnię równą

, gdzie α- kąt pomiędzy wektorem

normalnym płaszczyzny N a kierunkiem padania promienia światła L. Natężenie światła docierające do
obserwatora zależy tylko i wyłącznie od cos α i wyraża się wzorem:

Jeśli odległość światła od obiektów jest bardzo duża (dąży do nieskończoności), to kąt pomiędzy N a L jest
praktycznie stały. Wówczas takie światło nazywa się światłem kierunkowym.

Model Phonga – stosowany w grafice komputerowej, służy do modelowania odbić zwierciedlanych od

nieidealnych obiektów. Nie ma podstaw fizycznych, ale dobrze przybliża charakterystykę powierzchni, dla
których został stworzony. Model ten przyjmuje, że powierzchnia obiektu jest pokryta bardzo cienką
przezroczystą warstwą, na której zachodzi odbicie zwierciedlane (światło nie zmienia barwy, natomiast na
powierzchni pod tą warstwą następuje odbicie rozproszone, zabarwiające światło na kolor obiektu. Takie
właściwości w realu mają błyszczące plastiki, czy powierzchnie pomalowane bezbarwnym lakierem.
Przyjmuje się, że maksymalne odbicie zwierciedlane zachodzi, gdy kąt pomiędzy promieniem odbitym a
kierunkiem do obserwatora jest równy 0. Gdy kąt ten jest większy od zera, odbicie zwierciedlane bardzo
szybko słabnie. Na natężenie światła docierającego do obserwatora składają się:

- natężenie światła odbijanego zwierciedlanie

- natężenie światła rozproszonego (obliczanego na podstawie modelu Lamberta)

- natężenie światła otoczenia, które jest stałe

Raytracing (o

pis str. 5)

Obecnie najpopularniejszy z systemów. Dość wolny, lecz daje dobre rezultaty. Algorytm:

1. Z punktu, w którym znajduje się kamera wypuszczany jest promień w kierunku rzutni, rozdzielonej na

piksele. Jeden lub więcej promieni przechodzi przez każdy piksel.

2. Opcjonalnie, dla każdego promienia określa się, z jakimi obiektami może się potencjalnie przeciąć na

podstawie prostej heurystyki (przyspiesza to rendering).

3. Sprawdzanie przecięć promienia z obiektami. Ważne dwa aspekty: szybkość wyznaczania przecięć oraz

minimalizacja obliczeń. Dąży się do odrzucenia jak największej ilości obiektów przed jakimikolwiek
dokładnymi obliczeniami.

4. Spośród uzyskanych punktów przecięć wybiera się ten, który leży najbliżej kamery.
5. Przetwarzanie punktu – wypuszczanie z niego promieni w kierunku każdego ze świateł na scenie, by

określić te, które oświetlą przetwarzany punkt. Następnie dla oświetlonych oblicza się (przez zadany
model np. Lamberta) jasność, dodatkowo uwzględnia parametry takie jak kolor. Uwzględniana jest
odległość danego światła od punktu, modelując tłumienie.

6. Przy możliwości wypuszczania dodatkowych promieni przez obiekt (np. przezroczysty), przed

przypisaniem koloru danemu pikselowi, przetwarzane jest drzewo promieni.

Wady: słabo radzi sobie ze światłem rozproszonym, modelowaniem bardziej skomplikowanych źródeł światła,
co daje ostre i nierealistyczne krawędzie cieni. Nie może prawidłowo modelować dyfrakcji, ponieważ operuje
na pojedynczych promieniach.

Photon map

Technika modelowania realistycznego rozkładu oświetlenia. Polega na tworzeniu tekstur, które odpowiadają
rozkładowi światła w danej scenie 3D. Z punktu, w którym znajduje się źródło światła, w różnych kierunkach
wypuszczane są fotony, bada się ich interakcję ze sceną za pomocą metod śledzenia promieni. Fotony mogą
ulegać rozproszeniu i załamaniu – modelowanie światła przechodzącego przez soczewki itd.

background image

Forward raytracing

Metoda śledzenia promieni, zaczynająca się od źródeł światła. Symulowane promienie poruszają się w tym
samym kierunku co w rzeczywistym świecie. Dale lepsze wyniki niż raytracing wsteczny, lecz wymaga więcej
mocy obliczeniowej.

Radiosity

Metoda energetyczna, wywodzi się z efektów badań nad promieniowaniem cieplnym. Służy do modelowania
światła otoczenia, uzyskane efekty są niezależne od położenia obserwatora. Scena trójwymiarowa podzielona
jest na tzw. Płaty, każdy ma współczynnik pochłaniania światła (+ - pochłania energię, - - emituje). Dla każdej
pary płatów określany jest też współczynnik sprzężenia optycznego, który informuje ile energii świetlnej może
zostać przekazane z jednego płata do drugiego. Ze względu na błędy numeryczne, mogą występować przecieki
światła na połączeniach płatów. Następnie iteracyjnie oblicza się jasność płatów, im więcej iteracji, tym obraz
jest lepszej jakości. Dobre efekty uzyskuje się łącząc tę metodę z metodą śledzenia promieni.

Użycie tekstur

Istnieje możliwość nakładania tekstury na model obiektu trójwymiarowego. Możliwe są różne typy mapowania:
0 – tekstura nakładana na płaszczyznę,
1 – naciągana na sferę
2 – naciągana na walec
5 – nakładana na torus
Aby zwykła tekstura nie wyglądała sztucznie, możemy użyć filtracji lub techniki „bump map”, czyli
uprzestrzenniania dwuwymiarowej płaskiej tekstury.

Dokładniejsze efekty możemy uzyskać wykorzystują zaawansowane funkcję, opisujące sposób rozchodzenia się,
odbijania i przyjmowania światła na obiekcie, rozproszenia, połysk, punktowe rozjaśnienie, efekt metallic,
odbicie lustrzane, rodzaj obicia, efekty artystyczne i inne.



Wyszukiwarka

Podobne podstrony:
opracowanie pytan id 338374 Nieznany
Nhip opracowanie pytan id 31802 Nieznany
Opracowanie pytan 3 id 338376 Nieznany
opracowania Ekologia id 794643 Nieznany
Opracowanie Hoffmanna id 338261 Nieznany
opracowanie antropologia id 338 Nieznany
Opracowanie Metrologia 2 id 338 Nieznany
opracowanie ak id 338118 Nieznany
Opracowanie klp id 338270 Nieznany
Opracowanie seminaria id 338435 Nieznany
opracowanie lewkowicz id 338277 Nieznany
dod opracowanie wynikow id 1386 Nieznany
opracowanie cw5 id 338131 Nieznany
OpracowanieUOOPby wpiana7 id 33 Nieznany
OPRACOWANE ODPOWIEDZI id 337615 Nieznany
MOJE OPRACOWANIE wersja C id 30 Nieznany
Opracowanie pytan 5 id 338378 Nieznany
opracowane pytania 2 id 337625 Nieznany
opracowanie metrologia id 33828 Nieznany

więcej podobnych podstron