background image

Histogram 

Obraz może być opisany histogramem. 
Aby automatycznie wyznaczyć wektor histogramu, należy zbudować wektor o 256 pozycjach, następnie 
skanować macierz wartości, odczytać kolejną wartość i pod właściwym indeksem wektora histogramu 
zwiększyć liczbę wystąpień o 1. Znormalizowany histogram mówi z jakim prawdopodobieństwem znajdziemy 
kolejne wartości w macierzy danych, nie znormalizowany – pokazuje liczbę wystąpień danej wartości. 
Aby operację przeprowadzić na obrazie np. RGB, należy rozbić go na 3 macierze, na każdej wykonać daną 
operację i następnie złożyć je z powrotem w obraz. 

Zwiększenie kontrastu – rozciągnięcie histogramu. 

 

Najpierw stosujemy skalowanie liniowe Y=AX+B, wyznaczając parametry A i B używając danych: było 

80 (szary) - ma być 0 (czarny); było 230 (jasno szary) - ma być 255 (biały).  
0=A*80+B i 255=A*230+B. Po wyznaczeniu wartości parametrów możemy przeskalować (rozciągnąć liniowo) 
histogram, a dzięki temu wartości obrazu. Na podstawie funkcji skalowania uzyskuje się tablicę przejść LUT, 
która zamienia wartości z histogramu/obrazu początkowego na końcowe. 

Wyrównanie histogramu – poprawa kontrastu 

 

W przypadku, kiedy nie może być wykorzystane rozciągnięcie, bo histogram obejmuje skrajne 

wartości. N – liczba pikseli, L – liczba poziomów 
Rozpatrujemy histogramy jako funkcje ciągłe, więc przekształcenie histogramu powinno dotyczyć każdego 

słupka. Zakładamy, że docelowa wysokość słupka powinna dążyć do rozkładu wyrównanego  

 

 

ho(y)*d(y)=ho(y)*(L-1)/L=N/L -> ho(y)=N/(L-1), ponieważ dy=(L-1)/L i dąży do 1, gdy L dąży do nieskończoności. 
Znormalizowany histogram zbiorczy (skumulowany) to dystrybuanta. 

Dopasowanie histogramu 

 

Załóżmy, że posiadamy dwa obrazy stanowiące część jednego obrazu (podział np. podczas skanowania 

dużego formatu na skanerze o mniejszym formacie). W wyniku zniekształceń obrazy mogą się różnić 
kontrastem, co skutkuje znaczącymi różnicami po połączeniu. Dopasowanie histogramu stosujemy, aby pozbyć 
się tego efektu. Proces dopasowania może przebiegać względem innego obrazu lub wzorcowego histogramu 
(np. rozkładu Gaussa). 
 

Filtracja 
Dla jednowymiarowego sygnału cyfrowego 

Aby filtrować obrazy musimy najpierw sygnał w dziedzinie czasu transformować do dziedziny 

częstotliwości. Dzięki temu możemy zobaczyć, dla jakich częstotliwości występują wartości funkcji. Robimy to 
za pomocą transformaty Fouriera. Przy ponownym wykreśleniu funkcji zauważamy już osobne „piki”, dzięki 
czemu wiemy, jakie są częstotliwości w sygnale. Aby się pozbyć określonej częstotliwości, projektujemy funkcję 
wycinającą (mnożącą przez 0) wartości, o częstotliwości większej, niż zadana częstotliwość graniczna. Następnie 
wracamy z powrotem do dziedziny czasu, stosując odwrotną transformację Fouriera.  

Obraz – dwuwymiarowy sygnał cyfrowy, definiowany przez macierz (szerokość N x M wysokość) 

Dziedziną obrazu jest przestrzeń. 

a) jeśli w obrazie występują gwałtowne zmiany wartości sąsiednich w określonych przekrojach, to 
mówimy, że w ujęciu jakościowym obraz charakteryzuje się wysokimi częstotliwościami; 
b) jeśli w obrazie występują płynne (gładkie) zmiany wartości sąsiednich w określonych 
przekrojach, to mówimy, że w ujęciu jakościowym obraz charakteryzuje się niskimi 
częstotliwościami; 
c) jeśli w obrazie nie ma w ogóle zmian wówczas częstotliwości równe są 0. 
 

Wyostrzanie obrazu – filtracja górnoprzepustowa, uwypuklenie różnic 
Rozmycie obrazu – filtracja dolnoprzepustowa, wygładzenie wartości obrazu 

 

background image

Wyznaczamy transformatę Fouriera obrazu, następnie obliczamy moduł (wynik transformacji zdefiniowany jest 
w dziedzinie liczb zespolonych). Wyrównujemy histogram w celu wygenerowania zakresu 0…255, dla obrazu w 
skali szarości. Następnie zamieniamy ćwiartki otrzymanego obrazu tak, aby składowa stała (częstotliwość 0,0) 
znajdowała się bliżej środka obrazu, utworzonego dla skalowanych wartości modułu. 
 
Filtrację danych dwuwymiarowych można przeprowadzić w podobny sposób jak dla danych 
jednowymiarowych: 
a) transformować macierz do dziedziny częstotliwości 
b) zdefiniować filtr w dziedzinie częstotliwości (lub w dziedzinie przestrzeni i transformować do dziedziny 
częstotliwości) 
 

filtr definiujemy jako macierz danych, którą poddamy transformacji Fouriera do dziedziny 

częstotliwości. (np. filtr dolnoprzepustowy w postaci kapelusza, którym nakrywamy widmo – warunek ten 
spełnia dwuwymiarowy rozkład Gaussa) 
c) zastosować filtr w dziedzinie częstotliwości 
 

rozmiar filtru będzie zwykle różny od rozmiaru obrazu, dlatego stosujemy funkcję, która wyrówna 

rozmiar macierzy filtru i macierzy obrazu 
d) zastosować odwrotną transformację Fouriera uzyskując macierz obrazu 
 

filtracja w dziedzinie częstotliwości to pomnożenie odpowiednich wartości w dziedzinie 

częstotliwości i wykonanie odwrotnej transformacji Fouriera 
 

Splot 

Funkcję filtru dolnoprzepustowego można przedstawić za pomocą macierzy, których wartości będą dodatnie. 
Funkcję filtru górnoprzepustowego można przedstawić za pomocą macierzy, których wartości będą ujemne. 
Uzyskany po filtracji obraz będzie miał niski kontrast, dlatego później stosujemy rozszerzenie histogramu. 
Funkcję filtru górnoprzepustowego można również uzyskać poprzez negację (-f(x)) i znormalizowanie funkcji 
filtru dolnoprzepustowego. Suma wartości wag w masce filtru dolnoprzepustowego jest zawsze większa od 0 (w 
rozwiązaniach praktycznych =1). W przypadku filtru górnoprzepustowego suma wag daje 0. 
Przy splocie nie musimy korzystać z przekształcenia Fouriera, ponieważ mnożenie w dziedzinie częstotliwości to 
splot w dziedzinie czasu, a dla danych 2D, mnożenie w dziedzinie częstotliwości przestrzennych to splot w 
dziedzinie przestrzeni.  
Dla splotu stosujemy warunek brzegowy – przepisujemy brzeg z oryginału.  
Filtracja obrazów ma zazwyczaj charakter jakościowy, dlatego zwykle analizuje się jedynie efekt wizualny 
uzyskany dla danej maski filtru. 
 

Filtracja szumu 

W przypadku poprawy możliwości rozumienia treści przez obserwatora parametry dotyczące jakości 

będą definiować te własności obrazu, które wpływają na percepcję obrazu, rozpoznawanie obiektów i 
wnioskowanie. W zakresie poprawy percepcji treści obrazu można wyróżnić szereg parametrów jakości: 
- kontrast obrazu, 
- stosunek sygnału (treści użytecznej) do szumu (tła, które nie jest nośnikiem informacji), 
- stopień rozróżniania krawędzi ("ostrość" obrazu), 
- wierność kolorów (w odniesieniu do obserwowanego obiektu w rzeczywistości), 
- różnica w percepcji kolorów (np. dla osób ze ślepotą barw), 
- stopień zniekształceń geometrycznych, itp. 
Poprawa jakości obrazów w odniesienie do interpretacji treści przez programy komputerowe związana jest z 
definiowaniem kryteriów, które muszą być osiągnięte przez obraz, aby dany algorytm (program) zadziałał 
zgodnie z oczekiwaniem. 

background image

Jako globalną miarę kontrastu w obrazie można użyć odchylenia standardowego oraz wariancji. Im większe 
będą te wartości, tym lepiej. Kolejny parametr opisujący jakość obrazu to stosunek sygnału do szumu. W  
przypadku obrazów parametr ten jest w pewnym sensie rozszerzeniem kontrastu. 

Szum "sól i pieprz" to niekorzystne zakłócenie obrazu powstałe w czasie akwizycji obrazu (np. wady 

urządzeń elektronicznych, kurz na powierzchni skanera, itd.). Zadaniem metod przetwarzania obrazów jest 
poprawa jakości obrazu, czyli w tym przypadku usunięcie lub redukcja szumu. 
Redukcja szumu może być osiągnięta przez zastosowanie filtru. Szum zwiększa częstotliwości przestrzenne w 
obrazie, sprawdzamy to za pomocą transformacji Fouriera i analizy widma. Aby pozbyć się wysokich 
częstotliwości, stosujemy filtry dolnoprzepustowe. Szum ten może mieć różny charakter (np. rozkład). W 
aplikacjach praktycznych, redukcja szumu związana jest z niedoskonałością procesu akwizycji (rekonstrukcji, 
syntezy) obrazów. 

Filtracja z zastosowaniem operacji splotu, to najczęściej stosowana metoda filtracji 

dolnoprzepustowej. Można też zastosować medianę (wartość średnią rozkładu) zamiast wartości średniej w 
oknie o rozmiarach maski.  
 

Wyostrzanie obrazów 

Efekt rozmycia możemy uzyskać stosując filtr dolnoprzepustowy. 
Filtr górnoprzepustowy redukuje niskie częstotliwości przestrzenne, wprowadzając uwypuklenie tych 

miejsc w obrazie, które lokalnie różnią się wartościami macierzy danych. Efektem jest wyostrzony obraz.  
Aby nie trzeba było rozciągać histogramu wartości po filtracji, należy zwiększyć wartość centralną maski filtru 
górnoprzepustowego (np. w macierzy 5x5 wypełnionej samymi -1, miejsce 3x3 będzie miało wartość 25). 
 

Detekcja krawędzi 

Filtracja górnoprzepustowa zwiększa lokalne różnice wartości. Można zatem wykorzystać tę operację 

do detekcji krawędzi (brzegów regionów/obiektów) w obrazie. 

Obserwując, że splot realizuje lokalną sumę wartości przemnożonych przez wagi, można tak dobrać 

wagi maski filtru, aby uzyskać lokalną różnicę wartości. Jeśli lokalne wartości sąsiednie są takie same lub 
podobne, uzyskamy 0 lub niską wartość różnicy. W przeciwnym przypadku wartość gradientu będzie wysoka, co 
oznacza, że w obrazie występuje granica regionów/obiektów o różnych wartościach. Różnicę wartości możemy 
badać dla różnych kierunków, stąd szereg filtrów krawędziowych nosi nazwę pochodzącą od kierunku 
obliczania gradientu (np. północny, południowo-wschodni, itd.). Popularnym filtrem jest filtr Sobela. 
 

Filtry specjalne 

Obliczanie laplasjana (suma operatorów drugich pochodnych cząstkowych po kartezjańskich 

współrzędnych przestrzennych). W każdym punkcie trzeba obliczyć nową wartość na podstawie wartości 
sąsiednich z odpowiednimi wagami. Można to zrealizować za pomocą splotu z odpowiednią maską. Efektem 
jest detekcja krawędzi. Laplasjan jest również czuły na szum o wysokiej częstotliwości, dlatego najpierw można 
dokonać filtracji dolnoprzepustowej (np. filtrem Gaussa), a następnie zastosować laplasjan – nazywa się to 
Laplacian od Gaussian (LoG). 

Operacja „unsharp” - Ciekawy efekt wizualny otrzymamy odejmując lub dodając do obrazu 

oryginalnego wynik detekcji krawędzi. Można również wykonać filtrację dolnoprzepustową i efekt odjąć od 
obrazu, uzyskaną różnicę dodać (z wagą a) do obrazu oryginalnego. 
 

Efekty wizualne 

- detekcja krawędzi przy skalowaniu uzyskanych wartości od ujemnych do dodatnich 
 

Współrzędne i geometria 

background image

Każdy piksel posiada określone współrzędne, dlatego każdy element obrazu, wyróżniany przez 

obserwatora ma również cechy przestrzenne. Obserwator może wyróżnić w obrazie punkty, linie, wielolinie, 
wieloboki i inne obiekty geometryczne. 
W przetwarzaniu obrazów transformacja geometrii jest najczęściej wykorzystywana do: 
- korekcji geometrii obrazu (np. zmiana kąta obserwacji), 
- zlokalizowania obrazu w stosunku do układu współrzędnych Ziemi (np. fotomapa), 
- dopasowania geometrii obrazów z kilku obrazów (np. dane obrazu z diagnostyki funkcjonalnej mózgu z 
danymi obrazu z diagnostyki strukturalnej/morfologicznej mózgu), 
- deformacji obrazów (np. uzyskanie ciekawych efektów w obrazie). 
Metody przekształcenia geometrii możemy ogólnie podzielić na: 
- elastyczne (linie proste mogą być przekształcone w krzywe)  
- sztywne (linie proste pozostaną proste)  dzielone na 

afiniczne

 (równoległe pozostają równoległe) oraz 

perspektywiczne

 (równoległe mogą tracić tę cechę i np. zbiegać się w perspektywie). 

 

Transformacje afiniczne 
Przesunięcie (translacja) 

Załóżmy, że A00=1, A01=0, A10=0, A11=1;   wówczas uzyskujemy następujący układ równań: 
X'=Xo+t0, 
Y'=Yo+t1 
Jej realizacja w obrazie najczęściej związana jest z przesunięciem wierszy i/lub kolumn. Ponieważ obraz  
(macierz) definiuje zakres możliwych współrzędnych, zatem nie można przesunąć np. kolumny poza ostatnią 
kolumną w macierzy. Załóżmy, że kolumn jest 10 (od 0 do 9). Jeśli chcę zmienić współrzędną x=0 o 2 (X'=0+2) 
wówczas przesunę 0-ową kolumnę do 2 kolumny (1 do 3, itd.). Ale co pozostanie w 0 i 1 kolumnie po 
przesunięciu? Możliwe są dwa warianty:  
1.) wypełnimy kolumny wartościami domyślnymi (np. wartościami tła 0), 
2.) zawiniemy obraz tak, że przesunięta kolumna nr 9 będzie kolumną 1, a przesunięta kolumna nr 8 będzie 
kolumną nr 0. Analogicznie możemy przesuwać wiersze oraz wykonywać odbicie kolumn/wierszy wokół 
wybranych osi odbicia. 
 

Skalowanie 

Załóżmy, że   A01=0, A10=0, t0=0,t1=0;  wówczas uzyskujemy następujący układ równań: 
X'=A00*Xo 
Y'=A11*Yo 
Taka operacja nazywana jest skalowaniem (powiększanie, pomniejszanie, zoom). Jej realizacja w obrazie 
najczęściej związana jest z: 
- zwiększeniem liczby pikseli (powiększenie), 
- zmniejszeniem liczby pikseli (pomniejszenie). 
Po operacji zwiększenia/zmniejszenia liczby pikseli stosuje się często operację interpolacji w celu "wygładzenia" 
obrazu. W tym celu można zastosować również filtrację dolnoprzepustową. 
Najprostsza postać skalowania - poprzez zwiększanie/zmniejszanie liczby pikseli. 
 
Obrót 
Załóżmy, że A00=cos(kąt), A01=-sin(kąt), A10=sin(kąt), A11=cos(kąt), 
t0=0,t1=0 
wówczas uzyskujemy następujący układ równań: 
X'=cos(kąt)*Xo-sin(kąt)*Yo, 
Y'=sin(kąt)*Xo+cos(kąt)*Yo, gdzie kąt to kąt obrotu. 
Taka operacja nazywana jest obrotem wokół początku układu współrzędnych. 
 

background image

Problem pojawia się dopiero, kiedy np. chcemy uzyskać obrót o 45°, ponieważ pole po obrocie jest większe niż 
pole obrazu oryginalnego. Wyznaczenie wartości obrazu w danym obróconym punkcie odbywa się poprzez 
zastosowanie metod powtórnego próbkowania (resampling) obróconej płaszczyzny obrazu. 
Metody obliczania nowej wartości w punkcie (piksel) mogą dzielić się na: 
- najbliższego sąsiedztwa (na wyjście przepisywana jest wartość punktu z obróconej macierzy, leżącego najbliżej 
punktu nowej, prostokątnej macierzy obrazu) 
- interpolacja dwuliniowa (obliczamy średnią ważoną z 4 najbliższych sąsiadów), 
- splotu (obliczamy średnią ważoną z 16, 25 najbliższych sąsiadów: operacja podobna w efekcie jak 
zastosowaniem filtracji dolnoprzepustowej z wykorzystaniem operacji splotu). 
Transformacje afiniczną można złożyć z kilku operacji tworząc zestaw 6 parametrów w układzie równań. 
Parametry te można często uzyskać porównując 3 pary punktów źródłowego i docelowego układu  
współrzędnych. Wówczas istnieje możliwość dopasowania układu współrzędnych dwóch obrazów. 
 

Grafika trójwymiarowa 

To w rzeczywistości płaski obraz na ekranie, sprawiający posiadanie głębokości. Wrażenie 3D wynika z tego, że 
oczy widzą dwa przesunięte wobec siebie obrazy, a mózg łączy je w całość. Występuje perspektywa, czyli 
wrażenie, że obiekty znajdujące się dalej są mniejsze niż obiekty położone bliżej. Sama perspektywa wystarczy 
do osiągnięcia wrażenia trójwymiarowości. Aby określić gdzie obiekt ma przód i tył stosuje się zasłanianie 
krawędzi, dające wrażenie wypełnienia bryły. Następnie koloruje się go, oraz stosuje cieniowanie w celu 
emulacji oświetlenia. Z kolei oświetlenie daje cienie, które obiekt powinien rzucać. 
W celu wyświetlenia na płaskim ekranie, współrzędne trójwymiarowe są na niego rzutowane.  
Rzut równoległy – podanie prostokątnej bryły rzutowania, wszystko co jest poza bryłą nie będzie rzutowane. 
Rzut perspektywiczny – bryła rzutowania przypomina piramidę ze ściętym wierzchołkiem. Obiekty znajdujące 
się bliżej obserwatora mają rozmiary zbliżone do oryginalnych, natomiast te znajdujące się dalej wydają się 
mniejsze. Zwiększa realizm, jest wykorzystywane do symulacji oraz tworzenia animacji 3D. 

Raytracing – opis metody renderingu 

Tzw. Śledzenie promieni – do fotorealistycznych scen 3D. jest to algorytm przetwarzania sceny przez śledzenie 
promieni biegnących od kamery, aż do czasu, gdy opuszczą one obszar widziany przez kamerę. Gdy pierwsze 
promienie natrafią na obiekt szklany lub odbijający, przywoływane i śledzone są również promienie dodatkowe. 
Raytracing jest nazywany często odwrotnym, ponieważ w przeciwieństwie do rzeczywistości, promienie biegną 
od kamery w głąb sceny. Metoda ta pozwala uzyskać cienie dokładnie oddające kształt obiektu. Promienie 
biegnące od źródła światła zbierają informacje o położeniu każdego obiektu na scenie, natomiast kolejne 
promienie informują o globalnych odległościach w scenie. 

Operacje boolowskie 

Powiększają możliwości tworzenia bardziej skomplikowanych brył. W grafice komputerowej taka technika 
konstrukcji nosi nazwę CSG (Constructive Solid Geometry) i pozwala na definicję dowolnego kształtu. 
Union – połączenie dwóch obiektów 
Intersection – nowy obiekt jest częścią wspólną 
Difference A-B – od obiektu A odejmujemy B 

Podstawowe transformacje obiektów 

Przesunięcie – dowolnie na osiach x, y, z 
Obrót – o dowolny kąt względem dowolnej osi 
Skalowanie – powiększanie/pomniejszanie względem dowolnej osi 

Światło i właściwości optyczne 

Filter – ilość światła filtrowana przez daną powierzchnię, światło po przejściu przez obiekt będzie w 
zdefiniowanym kolorze, w określonej procentowo ilości. 
Transmit – ilość światła przepuszczana przez daną powierzchnię. Światło nie zmienia swojej barwy, w 
przeciwieństwie do tego w poleceniu filter. 
 

 

background image

Światło 

Może być punktowe, stożkowe, cylindryczne. W zależności jaki rodzaj światła zdefiniowaliśmy, na scenie 
otrzymamy różne efekty barwne, jak również strefy cienia i półcienia. 
Dwa modele oświetlenia 
 

Model Lamberta – stosowany w grafice komputerowej model oświetlenia powierzchni matowych 

przez światło punktowe. Powierzchnie matowe rozpraszają światło w jednakowy sposób we wszystkich 
kierunkach, dlatego wydają się jednakowo jasne, niezależnie od kąta patrzenia. Jeśli strumień światła ma 

nieskończenie mały przekrój dA, to oświetla on powierzchnię równą 

  

    

, gdzie α- kąt pomiędzy wektorem 

normalnym płaszczyzny N a kierunkiem padania promienia światła L. Natężenie światła docierające do 
obserwatora zależy tylko i wyłącznie od cos α i wyraża się wzorem: 
     

                 

   

                    

   

       

        

Jeśli odległość światła od obiektów jest bardzo duża (dąży do nieskończoności), to kąt pomiędzy N a L jest 
praktycznie stały. Wówczas takie światło nazywa się światłem kierunkowym. 
 

Model Phonga – stosowany w grafice komputerowej, służy do modelowania odbić zwierciedlanych od 

nieidealnych obiektów. Nie ma podstaw fizycznych, ale dobrze przybliża charakterystykę powierzchni, dla 
których został stworzony. Model ten przyjmuje, że powierzchnia obiektu jest pokryta bardzo cienką 
przezroczystą warstwą, na której zachodzi odbicie zwierciedlane (światło nie zmienia barwy, natomiast na 
powierzchni pod tą warstwą następuje odbicie rozproszone, zabarwiające światło na kolor obiektu. Takie 
właściwości w realu mają błyszczące plastiki, czy powierzchnie pomalowane bezbarwnym lakierem.  
Przyjmuje się, że maksymalne odbicie zwierciedlane zachodzi, gdy kąt pomiędzy promieniem odbitym a 
kierunkiem do obserwatora jest równy 0.  Gdy kąt ten jest większy od zera, odbicie zwierciedlane bardzo 
szybko słabnie. Na natężenie światła docierającego do obserwatora składają się: 
 

 

- natężenie światła odbijanego zwierciedlanie 

 

 

- natężenie światła rozproszonego (obliczanego na podstawie modelu Lamberta) 

 

 

- natężenie światła otoczenia, które jest stałe 

Raytracing (o

pis str. 5) 

Obecnie najpopularniejszy z systemów. Dość wolny, lecz daje dobre rezultaty. Algorytm: 

1.  Z punktu, w którym znajduje się kamera wypuszczany jest promień w kierunku rzutni, rozdzielonej na 

piksele. Jeden lub więcej promieni przechodzi przez każdy piksel. 

2.  Opcjonalnie, dla każdego promienia określa się, z jakimi obiektami może się potencjalnie przeciąć na 

podstawie prostej heurystyki (przyspiesza to rendering). 

3.  Sprawdzanie przecięć promienia z obiektami. Ważne dwa aspekty: szybkość wyznaczania przecięć oraz 

minimalizacja obliczeń. Dąży się do odrzucenia jak największej ilości obiektów przed jakimikolwiek 
dokładnymi obliczeniami. 

4.  Spośród uzyskanych punktów przecięć wybiera się ten, który leży najbliżej kamery. 
5.  Przetwarzanie punktu – wypuszczanie z niego promieni w kierunku każdego ze świateł na scenie, by 

określić te, które oświetlą przetwarzany punkt. Następnie dla oświetlonych oblicza się (przez zadany 
model np. Lamberta) jasność, dodatkowo uwzględnia parametry takie jak kolor. Uwzględniana jest 
odległość danego światła od punktu, modelując tłumienie. 

6.  Przy możliwości wypuszczania dodatkowych promieni przez obiekt (np. przezroczysty), przed 

przypisaniem koloru danemu pikselowi, przetwarzane jest drzewo promieni. 

Wady: słabo radzi sobie ze światłem rozproszonym, modelowaniem bardziej skomplikowanych źródeł światła, 
co daje ostre i nierealistyczne krawędzie cieni. Nie może prawidłowo modelować dyfrakcji, ponieważ operuje 
na pojedynczych promieniach. 

Photon map 

Technika modelowania realistycznego rozkładu oświetlenia. Polega na tworzeniu tekstur, które odpowiadają 
rozkładowi światła w danej scenie 3D. Z punktu, w którym znajduje się źródło światła, w różnych kierunkach 
wypuszczane są fotony, bada się ich interakcję ze sceną za pomocą metod śledzenia promieni. Fotony mogą 
ulegać rozproszeniu i załamaniu – modelowanie światła przechodzącego przez soczewki itd. 

background image

Forward raytracing 

Metoda śledzenia promieni, zaczynająca się od źródeł światła. Symulowane promienie poruszają się w tym 
samym kierunku co w rzeczywistym świecie. Dale lepsze wyniki niż raytracing wsteczny, lecz wymaga więcej 
mocy obliczeniowej. 

Radiosity 

Metoda energetyczna, wywodzi się z efektów badań nad promieniowaniem cieplnym. Służy do modelowania 
światła otoczenia, uzyskane efekty są niezależne od położenia obserwatora. Scena trójwymiarowa podzielona 
jest na tzw. Płaty, każdy ma współczynnik pochłaniania światła (+ - pochłania energię, - - emituje). Dla każdej 
pary płatów określany jest też współczynnik sprzężenia optycznego, który informuje ile energii świetlnej może 
zostać przekazane z jednego płata do drugiego. Ze względu na błędy numeryczne, mogą występować przecieki 
światła na połączeniach płatów. Następnie iteracyjnie oblicza się jasność płatów, im więcej iteracji, tym obraz 
jest lepszej jakości. Dobre efekty uzyskuje się łącząc tę metodę z metodą śledzenia promieni.

 

Użycie tekstur 

Istnieje możliwość nakładania tekstury na model obiektu trójwymiarowego. Możliwe są różne typy mapowania: 
0 – tekstura nakładana na płaszczyznę, 
1 – naciągana na sferę 
2 – naciągana na walec 
5 – nakładana na torus 
Aby zwykła tekstura nie wyglądała sztucznie, możemy użyć filtracji lub techniki „bump map”, czyli 
uprzestrzenniania dwuwymiarowej płaskiej tekstury. 
 
Dokładniejsze efekty możemy uzyskać wykorzystują zaawansowane funkcję, opisujące sposób rozchodzenia się, 
odbijania i przyjmowania światła na obiekcie, rozproszenia, połysk, punktowe rozjaśnienie, efekt metallic, 
odbicie lustrzane, rodzaj obicia, efekty artystyczne i inne.