Fotografia cyfrowa i analogowa Podobieństwa i różnice [d 2005]


Fotografia cyfrowa i analogowa.
Fotografia cyfrowa i analogowa. Podobieństwa i różnice.
W niniejszym artykule chciałbym zwrócić uwagę na najważniejsze różnice występujące
pomiędzy fotografią cyfrową i tradycyjną (analogową). Wyjaśnić ich zródła oraz wpływ na
końcowy efekt w postaci zdjęcia. Tak naprawdę różnice pomiędzy tymi technikami dotyczą dwóch
aspektów: powstawania obrazu i rejestracji obrazu. Pierwszy z nich związany jest z mniejszymi
rozmiarami elementu rejestrującego obraz w aparacie cyfrowym w porównaniu z klatką filmu
małoobrazkowego w aparacie tradycyjnym. W chwili, gdy rozmiary tych elementów zrównają się,
zanikną również różnice. Póki co jednak większość aparatów cyfrowych posiada matryce mniejsze
niż klatka filmu, co więcej promocja formatu 3:4 sugeruje, że różnica ta utrwali się, warto więc
wiedzieć jakie konsekwencje pociąga za sobą różnica w rozmiarze elementu światłoczułego. Drugi
obszar, czyli różnica w sposobie rejestracji obrazu, jest nierozłącznie związana z rozróżnieniem
obydwu technik i będzie istniała zawsze. Zajmijmy się więc kolejno omówieniem każdego z tych
zagadnień.
Powstawanie obrazu.
Zasady optyki pozostają oczywiście nie zmienione niezależnie od tego czy fotografujemy
aparatem analogowym czy cyfrowym. Wydawać by się więc mogło, że wpływ optyki na ostateczny
wygląd zdjęcia w obu rodzajach fotografii będzie taki sam. Tak jednak nie jest.
Popatrzmy na rysunek 1a. Pokazano na nim
obiektyw o długości ogniskowej f oraz klatkę filmu o
długości przekątnej p. To co nas najczęściej interesuje przy
robieniu zdjęcia, to kąt widzenia obiektywu, a więc
wycinek całego pola widzenia, który będzie widoczny na
zdjęciu. Kąt ten, nazwany tutaj ą , zaznaczono na rysunku.
Jak widać wielkość tego kąta zależy zarówno od
ogniskowej jak i rozmiaru klatki filmu. W tradycyjnej
fotografii wykorzystuje się filmy o bardzo różnych
rozmiarach klatki, jednak najbardziej popularnym
formatem, który stał się defacto standardem, jest format
małoobrazkowy o rozmiarach klatki 24mm x 36mm czyli o
długości przekątnej ok. 43,27mm. Znając długość
ogniskowej obiektywu możemy ocenić czy jest to
obiektyw normalny (np. 58mm), szerokokątny (np. 28mm)
Rysunek 1Zależność kąta widzenia obiektywu od
czy też teleobiektyw (np. 150mm). Ocena ta jednak
ogniskowej i rozmiaru elementu światłoczułego
związana jest z milczącym założeniem, że odnosimy się
właśnie do standardu klatki 24x36. Rozmiar elementów światłoczułych CCD (lub CMOS) w
większości aparatów cyfrowych jest różny od standardu filmu małoobrazkowego. Różnica ta
powoduje, że nasze przyzwyczajenia dotyczące kąta widzenia obiektywów nie przystają do
rzeczywistości aparatów cyfrowych. Co więcej elementy światłoczułe mogą mieć bardzo różne
rozmiary. Do każdego aparatu trzeba by więc stosować inne kryteria oceny czy obiektyw jest
szeroko czy wąskokątny. Wybrano prostsze rozwiązanie. Ogniskowe w aparatach cyfrowych
przeliczane są na odpowiadającą temu samemu kątowi widzenia długość ogniskowej w aparacie
małoobrazkowym. Popatrzmy na rysunek 1b. Jeżeli element CCD o długości przekątnej p* , krótszej
niż dla klatki filmu małoobrazkowego, umieścimy w odległości ogniskowej to kąt widzenia
obiektywu ą* zmniejszy się. Ten sam obiektyw, który dla tradycyjnego aparatu był obiektywem
normalnym, dla aparatu cyfrowego stanie się teleobiektywem. Jeśli chcemy zachować kąt widzenia,
to musimy element CCD zbliżyć do obiektywu na odległość f* (rysunek 1c). Aatwo pokazać, że
- 1 -
Fotografia cyfrowa i analogowa.
odległość ta musi być tyle razy mniejsza, ile razy przekątna elementu CCD jest mniejsza od
przekątnej klatki filmu małoobrazkowego. W praktyce oznacza to, że jeżeli mamy podaną
ogniskową obiektywu w aparacie cyfrowym f* to żeby wyliczyć jej odpowiednik dla aparatu
małoobrazkowego f trzeba przemnożyć f* przez stosunek przekątnych p/p*. Oczywiście stosunek
ten jest podawany przez producentów dla każdego aparatu. Dla przykładu dla aparatu Minolta
A1długość przekątnej CCD to około 11mm stąd przelicznik wynosi około 3,9. Obiektyw A1 ma
zmienną ogniskową w zakresie 7,2mm  50,8mm, co w przeliczeniu na aparat małoobrazkowy daje
zakres ogniskowych od około 28mm do prawie 200mm. Wiele aparatów ma jeszcze mniejsze
elementy CCD. Na przykład Sony DSC-S90 ma przekątną równą około 6.7mm i odpowiadający jej
przelicznik 6,45.
Fakt przeliczania (odpowiedniości) długości ogniskowych w aparatach cyfrowych i
analogowych nie miałby wielkiego znaczenia, gdyby nie istotny wpływ jaki wywiera rzeczywista (a
nie przeliczona) długość ogniskowej na końcowy wygląd obrazu na zdjęciu. Dwa najważniejsze
aspekty na jakie wpływa ogniskowa obiektywu to deformacje perspektywiczne oraz głębia ostrości.
Popatrzmy na rysunek 2. Po lewej stronie
przedstawiono zdjęcie wykonane przy krótkiej wartości
ogniskowej po prawej zaś przy długiej ogniskowej. Obie
filiżanki w rzeczywistości miały identyczne rozmiary. Na
Rysunek 2Związek pomiędzy długością
zdjęciu po lewej, filiżanka znajdująca się bliżej nas wydaje
ogniskowej a zniekształceniem perspektywicznym
się być znacznie większa od tej oddalonej. Na zdjęciu po
prawej efekt  zmniejszenia filiżanki oddalonej jest znacznie mniejszy. Innymi słowy obiektywy o
krótkich ogniskowych wyrazniej uwypuklają efekt perspektywy. Obiektywy o długich ogniskowych
efekt perspektywy łagodzą. Przekładając tą wiedzę na porównanie fotografii cyfrowej i analogowej,
możemy powiedzieć, że zdjęcie wykonane aparatem tradycyjnym o pewnej ogniskowej będzie
miało mniejsze zniekształcenia perspektywiczne niż zdjęcie wykonane aparatem cyfrowym, przy
przeliczonej ogniskowej takiej samej jak w aparacie analogowym. Różnica będzie tym większa im
mniejszy jest element CCD w porównaniu do klatki filmu małoobrazkowego. W szczególności
różnica zniknie, gdy element CCD będzie równy rozmiarami klatce filmu (co jak dotąd oferuje
tylko kilka aparatów).
Problem głębi ostrości jest nieco bardziej skomplikowany, między innymi dlatego, że samo
pojęcie ostrości nie jest zbyt jednoznaczne. To czy coś uznamy za ostre czy nieostre w dużej mierze
zależy od przyjętych kryteriów. W dalszej części będę się opierał na założeniach stosowanych w
firmach Leica i Zeiss. Otóż szacuje się, że rozdzielczość ludzkiego oka mieści się w granicach
jednej do czterech minut kątowych. Oznacza to, że z odległości dobrego widzenia, a więc około
25cm człowiek jest w stanie rozróżnić mniej więcej 10 punktów na milimetr. Jeżeli trzymana w
ręku fotografia zawiera szczegóły o rozmiarach rzędu 0,1mm uznamy ją za ostrą. Jeśli najmniejsze
szczegóły zdjęcia będą miały większe rozmiary, zdjęcie uznamy za nieostre (rozmyte). Znając skalę
powiększenia negatywu przy tworzeniu odbitek możemy wyliczyć najmniejszy rozmiar punktu na
negatywie, który zapewni nam wrażenie  ostrości zdjęcia. Dla typowych zdjęć pocztówkowych
będzie to około 0,02mm-0.03mm. Każdy punkt na negatywie o takim rozmiarze odbierzemy jako
ostry. Popatrzmy na rysunek 3a. Punkt znajdujący się dokładnie w odległości na którą nastawiono
ostrość d odwzoruje się dokładnie jako punkt na kliszy ustawionej w odległości s od obiektywu.
Jeśli jednak punkt znajduje się nieco bliżej obiektywu, jego obraz powstanie nieco za kliszą.
Oznacza to, że na kliszy zostanie naświetlony rozmyty krążek o pewnym promieniu (rysunek 3b).
Podobnie, gdy punkt znajduje się dalej od obiektywu, jego obraz powstanie przed kliszą, a na kliszy
ponownie powstanie krążek o innym promieniu. W obu przypadkach obrazem pojedynczego punktu
na kliszy będzie plamka. Plamkę tą nazywamy krążkiem rozmycia. W tradycyjnej fotografii, jeżeli
krążek rozmycia nie przekracza wspomnianego krytycznego rozmiaru rzędu 0.03mm, uznamy go na
- 2 -
Fotografia cyfrowa i analogowa.
zdjęciu za ostro zarysowany punkt. W przeciwnym
wypadku odniesiemy wrażenie rozmycia. W fotografii
cyfrowej sensowne wydaje się stosowanie innego
kryterium. Przyjmijmy, że jeżeli krążek rozmycia nie
przekracza wielkości pojedynczego piksela matrycy CCD
to obraz odbieramy jako ostry. Jeśli natomiast obraz
punktu rozciąga się na więcej niż jeden piksel, to taki
punkt uznamy za nieostry. Rozmiar krążka rozmycia
zależy od tego jak daleko znajduje się dany punkt od
miejsca, na które nastawiono ostrość aparatu. Punkty
znajdujące się bliżej aparatu niż pewna minimalna
odległość d oraz punkty znajdujące się dalej niż pewna
min
maksymalna odległość d zostaną odwzorowane na
max
negatywie nieostro (ich krążki rozmycia będą większe niż
wartość krytyczna). Obszar pomiędzy d a d
min max
nazywamy głębią ostrości. Rzecz w tym, że obie te
wartości zależą ponownie od rzeczywistej, a nie
przeliczonej długości ogniskowej. Zależą one również od
wielkości przysłony, ale tym zajmiemy się za chwilę.
Można pokazać (po szczegóły odsyłam na stronę
internetową), że im większa rzeczywista długość
Rysunek 3Mechanizm powstawania głębi
ogniskowej tym mniejsza głębia ostrości. Fotografując
ostrości
aparatem małoobrazkowym obiektywem o ogniskowej
200mm otrzymamy znacznie mniejszą głębię ostrości niż robiąc zdjęcie aparatem Minolta A1 z
ogniskową 50.8mm, której przeliczona ogniskowa odpowiada właśnie wartości 200mm.
Omówiony powyżej mechanizm powstawania
nieostrości odwzorowania na zdjęciu wynika z praw optyki
geometrycznej. W wielu sytuacjach do głosu dochodzą również
prawa optyki falowej. Rozważmy sytuację przedstawioną na
rysunku 4a. Załóżmy, że punkt fotografowanego obiektu
znajduje się dalej od obiektywu niż d , czyli daleko poza
max
głębią ostrości. Jego obrazem na negatywie będzie krążek o
promieniu r. Spróbujmy teraz zmniejszyć rozmiar przysłony z
początkowego otworu o średnicy a do znacznie mniejszego
otworu o średnicy a*. Zauważmy, że rozmiar krążka rozmycia
r* również uległ zmniejszeniu. Zmniejszenie rozmiaru
przysłony skutkuje więc zwiększeniem głębi ostrości. Efekt ten Rysunek 4Zależność rozmiarów krążka
rozmycia od wielkości przysłony
jest niezależny od rodzaju fotografii jaką uprawiamy.
Zmniejszenie otworu przysłony wiąże się jednak ze wzrostem dyfrakcyjnych efektów falowych. Im
mniejszy otwór, tym większe rozmycie punktu wynikające z zasad optyki falowej. Z jednej strony
zmniejszanie otworu przysłony powoduje wzrost głębi ostrości, z drugiej zaś wzrost efektów
dyfrakcyjnych czyli ogólne pogorszenie ostrości zdjęcia. W przypadku aparatów małoobrazkowych
optymalna wartość przysłony wynosi około 1:8 lub 1:16. Wartość przysłony 1:8 oznacza, że
rzeczywisty rozmiar przysłony, średnica otworu, jest równy f/8. Dla ogniskowej 28mm dla aparatu
małoobrazkowego średnica ta wynosi 3,5mm. Dla odpowiadającej tej długości, ogniskowej w
Minolcie A1 równej 7,2mm otrzymamy średnicę otworu przysłony 0,9mm. Taka średnica
odpowiadałaby rozmiarami przysłonie 1:32 dla tradycyjnego aparatu. Oznacza to, że w fotografii
cyfrowej optymalne rezultaty pod względem zarówno głębi ostrości, jak i ogólnej ostrości całego
- 3 -
Fotografia cyfrowa i analogowa.
zdjęcia otrzymamy dla znacznie mniejszych wartości przysłon rzędu 1:4 czy 1:5,6. Opisany
mechanizm wyjaśnia również dlaczego w aparatach cyfrowych nie spotyka się przysłon rzędu 1:16
czy 1:22. Po prostu rozmycie wynikające z efektów falowych byłyby zbyt silne i cały obraz byłby
nieostry.
Przy tej okazji warto poczynić jeszcze pewną uwagę praktyczną. Bardzo często aparaty
fotograficzne ustawiają ostrość na tzw. odległość hiperfokalną. Oznacza to, że głębia ostrości
rozciąga się z grubsza od połowy odległości obiektyw-przedmiot do nieskończoności. Jeśli zależy
nam wyłącznie na fotografowanym przedmiocie jest to dobry wybór. Często jednak ważne jest dla
nas również tło. Teoretycznie przy odległości hiperfokalnej tło powinno być ostre, bo zakres
ostrości rozciąga się do nieskończoności. W praktyce, oznacza to jednak, że punkty z
nieskończoności będą odwzorowywane w postaci krążków spełniających warunek ostrości, ale
niezbyt od tego kryterium odległe. Wystarczy więc przesunąć punkt na który ustawiono ostrość
nieco dalej od obiektywu, a kosztem niewielkiego skrócenia głębi ostrości od strony obiektywu
otrzymamy wyrazne zmniejszenie rozmiarów krążka rozmycia dla punktów w nieskończoności. W
praktyce takie postępowanie poprawia ogólne wrażenie ostrości zdjęcia.
Rejestracja obrazu.
Drugie zródło różnic pomiędzy zdjęciami analogowymi i cyfrowymi leży w sposobie
rejestracji obrazu. Srebrowa błona fotograficzna i krzemowy element CCD bazują na skrajnie
odmiennych zjawiskach fizyko-chemicznych, których szczegółowe opisy znalezć można w
literaturze, nie będę więc im tutaj poświęcał czasu. Skoncentruję się raczej na specyfice rejestracji
obrazu każdą z metod.
Błona światłoczuła i element CCD
reagują w różny sposób na światło o różnym
natężeniu. Mówi się, że reakcja błony jest
bardziej sigmoidalna, reakcja CCD zaś liniowa.
Oznacza to, że w przypadku błony
fotograficznej dwukrotny wzrost jasności
Rysunek 5Matryce CCD (a,d) i efekt Moira (b,c)
światła nie zawsze przekłada się na dwukrotnie
większe zaciemnienie błony, podczas gdy w przypadku CCD relacja ta jest zachowana. Zagadnienie
to będzie dokładniej omówione w jednym z następnych odcinków cyklu, którego tematem będzie
ekspozycja w fotografii cyfrowej. Błona fotograficzna i element CCD reagują również inaczej w
funkcji czasu naświetlania. Różnica ta nie jest istotna za wyjątkiem dłuższych czasów naświetlania
rzędu sekund. Kolejna różnica dotyczy rozkładu elementów światłoczułych w błonie i w CCD. W
błonie srebrowej elementem światłoczułym są ziarna substancji chemicznych. Ziarna te rozłożone
są w błonie w sposób równomierny. Oznacza to, że nie ma znaczenia jaką pozycję zajmuje błona w
stosunku do obiektu fotografowanego. W przypadku matrycy CCD sprawa wygląda inaczej. Patrząc
na rysunek 5a widzimy, że odległość od danego elementu do jego najbliższego sąsiada w różnych
kierunkach jest różna. Oznacza to, że obraz jaki otrzymamy na zdjęciu w pewnym stopniu zależy od
tego jak położona jest matryca względem fotografowanego obiektu. Zjawisko to występuje
najwyrazniej w przypadku fotografowania regularnych struktur, wzorów składających się z
równoległych linii lub krat i nosi nazwę efektu Moira. Rysunek 5b pokazuje przykład równoległych
linii, które układają się równolegle do elementów matrycy, a rysunek 5c prezentuje te same linie
obrócone o kąt około 5 stopni. W efekcie otrzymaliśmy wrażenie istnienia dodatkowych skośnych
linii (wzory Moira) nieobecnych w oryginalnym obrazie. Firma Fuji wprowadziła inny rodzaj
matrycy zwany Super CCD SR (rysunek 5d). Taki układ elementów światłoczułych jest bardziej
izotropowy, zmniejsza efekt Moiry oraz lepiej wykorzystuje powierzchnię światłoczułą. Ostatnia
rzecz o jakiej warto wspomnieć przy okazji omawiania elementu CCD to filtrowanie kolorów.
- 4 -
Fotografia cyfrowa i analogowa.
Błona fotograficzna w każdym punkcie rejestruje informację o wszystkich trzech składowych
koloru, a więc czerwonym R (red) , zielonym G (green) i niebieskim B (blue). W fotografii
cyfrowej, jak dotychczas, taką własność ma tylko
jedna matryca  matryca Foveon montowana w
aparatach firmy Sigma. Wszystkie inne elementy
CCD wykorzystują zespół różnokolorowych filtrów,
które najczęściej ułożone są tak jak na rysunku 6a.
Jak widać, zbieramy dwa razy więcej informacji o
kolorze zielonym niż o każdym z dwóch
Rysunek 6Filtry kolorów na matrycach CCD
pozostałych. Wynika to ze zwiększonej czułości
ludzkiego oka w zakresie barwy zielonej i okolic. W sumie nie powinno nas to dziwić, biorąc pod
uwagę, że większą część swojej ewolucyjnej historii człowiek spędził wśród zieleni sawann i lasów.
Wracając do matrycy CCD stwierdzamy, że tak naprawdę pewną informację o kolorze mamy w co
drugim pikselu. Wartości składowej koloru w punktach, w których nie została ona zmierzona
wyznaczane są metodą interpolacji. I tutaj kolejna uwaga bardzo praktyczna. O ile to możliwe
zapisujmy zdjęcia w natywnym formacie naszego aparatu (RAW), a dopiero w komputerze
przetwarzajmy je na format BMP, TIFF czy JPG. Procesory umieszczane w aparatach cyfrowych
mają niewielkie wydajności w porównaniu z procesorami komputerów klasy PC. Dodatkowo w
aparacie mamy niewiele czasu na przetworzenie zdjęcia. Dlatego też, producenci często
implementują w aparatach uproszczone algorytmy interpolacji kolorów. Programy na PC
dostarczane przez producenta aparatu najczęściej wykonają to zadanie lepiej. W internecie można
również znalezć alternatywne wersje programów do przetwarzania danych z matrycy aparatów
cyfrowych, które czasami dają lepsze efekty niż oryginalne oprogramowanie producenta aparatu.
Można jeszcze wspomnieć o próbach poprawy odwzorowania kolorów poprzez stosowanie innego
zestawu filtrów na matrycach CCD. Najczęściej używane są filtry RGB, czyli czerwony  zielony 
niebieski. Na rysunkach 6b i 6c pokazano inne spotykane filtry. Pierwszy z nich RGBE zastępuje
jeden z dwóch zielonych pikseli kolorem szmaragdowym (emerald), drugi zaś stosuje filtry typowe
dla kolorów drukarskich czyli CMYG (cyan, magenta, yellow, green) turkusowy - karmazynowy -
żółty wzbogacony oczywiście kolorem zielonym. Filtry te mają poprawić interpolację kolorów w
porównaniu z filtrem RGB. Pisząc o matrycy CCD należałoby zwrócić uwagę na jeszcze jeden fakt,
który przez kilka pierwszych lat rozwoju fotografii cyfrowej uchodził uwadze konstruktorów
aparatów cyfrowych. Otóż matryca CCD nie jest płaska. Matryca składa się z wielu elementów
światłoczułych, z których każdy posiada swoją własną soczewkę. Jeżeli promienie świetlne nie
padają dokładnie prostopadle na całą powierzchnię matrycy, to elementy skrajne będą częściowo
przysłaniane przez swoich sąsiadów, wskutek czego zarejestrują mniejsze natężenie światła niż
powinny (rysunek 7). Efekt jest niezwykle subtelny, ale potrafi być zauważalny, na przykład przy
Rysunek 7Efekt przysłaniania skrajnych elementów matrycy CCD
tworzeniu panoramy, gdy pas łączenia ujęć okazuje się czasami delikatnie ciemniejszy od pozostałej
części zdjęcia. Współcześnie wielu producentów oferuje specjalne typy obiektywów dostosowane
do aparatów cyfrowych, które mają redukować ten efekt do minimum. Przy okazji warto zwrócić
uwagę, że przekonanie o tym, że błona filmowa jest płaska jest również dalekie od rzeczywistości.
W szczególności dotyczy to zwijanych filmów małoobrazkowych. Tuż po przewinięciu filmu
nierówności powierzchni mogą sięgać 0.1mm. Wraz z upływem czasu od przewinięcia film
częściowo wyrównuje się. W przypadku błony filmowej nierówności wpływają na pogorszenie
- 5 -
Fotografia cyfrowa i analogowa.
lokalnego kontrastu.
Podsumowanie.
Omówione powyżej różnice pomiędzy fotografią cyfrową i analogową wydają się
najistotniejsze, a stosunkowo rzadko dyskutowane. Przedstawionych tu rozważań nie należy
traktować w kategoriach dyskusji o wyższości jednej techniki nad drugą. Chciałbym jedynie, żeby
widząc olbrzymie podobieństwo obydwu technik mieć świadomość dzielących je różnic i umieć je
wykorzystać. Ponad stuletnia historia fotografii tradycyjnej doprowadziła ją do stanu bliskiego
doskonałości. Niewątpliwie jest ona wzorcem dla fotografii cyfrowej. Ostatnie lata pokazały, że na
poziomie amatorskim obie techniki są już nierozróżnialne. Na poziomie profesjonalnym fotografia
cyfrowa na wielu polach zbliżyła się już do fotografii tradycyjnej (szumy, odwzorowanie kolorów)
na niektórych jeszcze jej ustępuje (rozdzielczość). Myślę, że już niedługo aparaty cyfrowe zaoferują
możliwości niedostępne urządzeniom klasycznym. Jest to kwestia czasu (stosunkowo krótkiego, jak
sądzę) i ceny (stosunkowo wysokiej, przynajmniej na początku).
- 6 -


Wyszukiwarka

Podobne podstrony:
Fotografia cyfrowa w kryminalistyce aspekty techniczno prawne
Fotografia cyfrowa Ćwiczenia praktyczne
Fotografia cyfrowa OCSKAV7ZEDJX56SMFULR2H67UH6LBY2XLB6EJEA
FOTOGRAFIA CYFROWA PORADNIK
Fotografia Cyfrowa Rozmyte tło
Barok Charakterystyczne cechy poezji barokowej na podstawie wybranych wierszy J A Morsztyna i D

więcej podobnych podstron