Techniki fotograficzne egzamin

background image

EGZAMIN PISEMNY

Z TECHNIK
FOTOGRAFICZNYCH

background image

1. Dokonaj podziału aparatów fotograficznych.

przeznaczenie:

aparat amatorski

aparat popularny

aparat profesjonalny

technologia:

aparat analogowy

aparat cyfrowy

budowa:

aparat przeziernikowy

aparat skrzynkowy

aparat mieszkowy

aparat dalmierzowy

lustrzanka

lustrzanka jednoobiektywowa

lustrzanka dwuobiektywowa

aparat studyjny

lotniczy aparat fotograficzny

wielkość klatki filmu:

małoobrazkowe – 24 x 36 mm

aparat średnioformatowy – 4,5x6, 6x6, 6x9 (6x7, 6x8) cm

aparat wielkoformatowy – od 4x5 cala

sterowanie:

ręczne (manualne)

automatyczne

autofocus z automatycznym ustawianiem ostrości

background image

2. Dokonaj podziału materiałów światłoczułych.

Materiał światłoczuły – ogólne pojęcie oznaczające wszystkie wyroby wykazujące
wrażliwość na światło, które są wykorzystywane w różnorodnych procesach
fotograficznych. Należą do nich zarówno materiały wrażliwe na światło widzialne, jak
również na bliską podczerwień i ultrafiolet.

Podział materiałów światłoczułych

Zasadniczy podział materiałów fotograficznych, to materiały pozytywowe lub
negatywowe, oraz materiały monochromatyczne (najczęściej czarno-białe) lub
kolorowe, osobnym materiałem światłoczułym są matryce cyfrowe, mogące również
rejestrować światło widzialne i niewidzialne ludzkim okiem.

3. Jakie są sposoby wykonywania pomiaru światła.

Wstęp

Z technicznego punktu widzenia, jedną

z najważniejszych decyzji, które należy podjąć podczas fotografowania, jest
ustalenie, ile światła powinno dotrzeć do materiału światłoczułego (w przypadku cyfry
– przetwornika obrazowego, czyli matrycy). Za regulację ilości światła wpuszczanego
do środka aparatu odpowiadają dwie zmienne – czas otwarcia migawki i wielkość
otworu przysłony. Najpierw jednak musimy zmierzyć oświetlenie fotografowanej
sceny i odpowiednio zinterpretować wyniki, świa- domie wybierając rodzaj pomiaru.
Aparaty cyfrowe umożliwiają użytkownikowi korzystanie z trzech podstawowych
sposobów pomiaru światła: matrycowego, centralnie ważonego i pun- ktowego.
Każdy ma wady i zalety, i każdy sprawdza się w innych okolicznościach. To do
fotografa należy wybór trybu najlepszego dla danej sytuacji i to on bierze
odpowiedzialność za rezultaty. Dlatego poznanie możliwości różnych opcji i nauka
ich zastosowania jest tak ważna

Nazwy trybów pomiaru światła (zwanych też czasem nieprawidłowo trybami pomiaru
ekspozycji) to skrótowe opisy zasady ich działania. Dlatego, kiedy raz dowiemy się,
na czym polega dany tryb, nie będziemy mieli problemów z jego identyfikacją w
przyszłości.

Tryb matrycowy

Tryb matrycowy to naj- częściej używany spo- sób pomiaru oświetle- nia
wbudowanego w aparat. Nazywany jest także wielosegment- owym, ewaluacyjnym
lub wielopunktowym (choć ostatnie określenie tradycyjnie oznacza coś innego).
Podstawą matry- cowego pomiaru światła jest porównanie informacji o natężeniu
światła w różnych częściach kadru. Aparat mierzy jasność w wie- lu punktach,
porównuje rozkład jasności z wbudowaną bazą da- nych i za pomocą

background image

skomplikowanych algorytmów oblicza, jaka kombinacja czasu i przysłony da
najlepsze rezultaty dla wybranej czułości. Aparat tak dobierze parametry ekspozycji,
żeby zdjęcie było równomiernie naświetlone – nie miało przepalonych świateł

i niedoświetlonych cieni. Dużym plusem takiego rozwiązania jest wygoda, ponieważ
w wielu typowych sytua-cjach system poradzi sobie bez problemu, umożliwiając
fotografującemu skupienie się na kadrowaniu i uchwyceniu chwili. Minusem jest jego
nieprzewidywalność oraz brak bezpośredniego wglądu w mechanizm działania.
Ponieważ aparat za każdym razem porównuje fotografowaną scenę ze swoją bazą
danych, nigdy nie możemy mieć pewności, jak się zachowa. A w świadomej fotografii
przewidywalność wyników to podstawa. Do tego nie zawsze (a właściwie – rzadko)
możliwe jest dobranie takich parametrów ekspozycji (czas i przysłona), żeby udało
się zachować szczegóły zarówno w światłach, jak i w głębokich cieniach. Wtedy
przydaje się tryb, którego działanie można przewidzieć, czyli pomiar centralnie
ważony i punktowy.

Tryb centralnie ważony

Znaczy to że przy dobieraniu parametrów ekspozycji jasność centrum ma wagę 60%,
a brzegów – 40% (w Nikonie D60 cent- rum ma wagę 75%). Zaletą pomiaru
centralnie ważonego jest przewidywalność rezultatów. Kiedy już się z nim
zaznajomimy,

z łatwością będziemy potrafili powiedzieć, jak się zachowa w da- nej sytuacji, i
ewentualnie skorygować odczyt za pomocą blokady lub kompensacji ekspozycji
(patrz ramka). Tryb centralnie ważony nie sprawdza się natomiast jako domyślne
ustawienie do łatwego i szybkiego „pstrykania”, chyba że wszystkie nasze zdjęcia
mają najważniejszy obiekt w centrum kadru. Oczywiście, nie zachęcamy do takiego
fotografowania.

Tryb punktowy

Tryb punktowy to wyższa szkoła jazdy. Po wybraniu tej opcji aparat mierzy natężenie
światła w jednym punkcie – zazwyczaj jest to pole centralne, ale w niektórych
modelach użytkownik może wybrać niemal dowolne położenie na powierzchni klatki
lub powiązać punkt pomiaru z punktem ostrości (to bardzo wygodne rozwiązanie).
Dzięki zawężeniu pomiaru do kilku procent kadru (w przywoływanym już wcześniej
jako przykład Nikonie D60 wartość ta wynosi ok. 2,5%) jesteśmy w stanie precyzyjnie
określić natężenie światła w najbardziej nas interesującym miejscu zdjęcia i dobrać
parametry ekspozycji tak, by osiągnąć pożądany efekt. Pomiarowi punktowemu
niestraszne jest ani kontrastowe oświetlenie (choćby podczas fotografowania pod
światło), ani silne źródła światła, które mogłyby zmylić tryb matrycowy czy centralnie
ważony. Dla wartości odczytu najważniejsze jest miejsce, na które skierujemy punkt
pomiarowy. Dzięki przeprowadzeniu pomiaru kolejno w kilku partiach obrazu
zaawansowani amatorzy fotografii mogą korzystać z pomiaru punktowego w celu
określenia rozpiętości tonalnej fotografowanej sceny, ale to temat na osobny artykuł.

background image

Zalety punktowego pomiaru światła są jednocześnie jego wadami. Pomiar z
niewielkiego wycinka kadru nie bierze pod uwagę tego, co się dzieje w reszcie
zdjęcia, często nie mniej ważnej niż główny motyw. Łatwo wtedy o zdjęcie
niedoświetlone lub prześwietlone, ponieważ odczyt z głównego obiektu zdominuje
całe zdjęcie. Dlatego ten tryb jest zalecany osobom, które fotografują już w pełni
świadomie i mogą celowo dążyć do „nieprawidłowego” naświetlenia zdjęcia.
Trudność tego rozwiązania polega na tym, że to już nie aparat, a fotograf podejmuje
decyzję dotyczącą dobrania odpowiednich parametrów ekspozycji, wybierając punkt,
w którym mierzy światło. Dlatego do skutecznego stosowania trybu punktowego
pomiaru światła niezbędne jest zrozumienie zagadnienia średniej szarości (18%) i
sposobu działania światłomierza (patrz ramka).

Jak widać, każdy z rodzajów pomiaru światła ma swoje zastosowanie i sprawdza się
w innej sytuacji: matrycowy pozwala na łatwe i w miarę bezpieczne fotografowanie,
centralnie ważony daje większą kontrolę użytkownikowi, a punktowy jest
przeznaczony do zadań specjalnych. Pamiętajmy – jeśli nie jesteśmy zadowoleni z
rezultatów, to nie światłomierz się pomylił, lecz fotograf, który z niego korzystał.

Blokada ekspozycji

Warto pamiętać, że jeden z najpopularniejszych sposobów radzenia sobie z
ułomnością automatyki parametrów ekspozycji, czyli blokada ekspozycji (kiedy po
naciśnięciu spustu migawki do połowy następuje przekomponowanie kadru), nie
sprawdza się w pomiarze matrycowym. Całe założenie blokady ekspozycji opiera się
na tym, że użytkownik jest w stanie przewidzieć, jak zachowa się system pomiaru
światła. Tymczasem w przypadku trybu matrycowego nie możemy mieć pewności –
zapisujemy w pa- mięci aparatu zestaw ustawień, które zostały dobrane do
pierwotnego kadru i które mogą się nie nadawać do kadru ostatecznego (po
przekomponowaniu). Jeśli już korzystamy z pomiaru wielosegmentowego, zdajmy się
na niego w całości. Nie po to inżynierowie producenta aparatu męczyli się, by system
sprawdzał się w trudnych warunkach, żebyśmy potem nie korzystali z owoców ich
pracy. Należy pamiętać, że dzięki dobieraniu parametrów do każdej sceny z osobna
pomiar matrycowy ma szansę nas zaskoczyć i poradzić sobie z trudnym ujęciem.
Dajmy mu szansę lub skorzystajmy z trybu centralnie ważonego albo punktowego.

Średnia szarość (18%) i światłomierz

Światłomierz, czy to wbudowany w aparat, czy też zewnętrzny, nie widzi świata tak
jak my. Tak naprawdę nie mierzy też bezwzględnego natężenia światła. Odczyt
informuje użytkownika

o ilości światła odbitego od fotografowanego przedmiotu. Światłomierz jest
skalibrowany do pomiaru światła odbitego od obiektu o jasności na poziomie tzw.
średniej szarości (18%). Dlatego wszystko traktuje jakby było szare i podaje takie
wartości parametrów ekspozycji, które zapewnią oddanie tej osiemna-
stoprocentowej szarości na zdjęciu – nawet jeśli fotografujemy czarnego kota w

background image

kopalni czy polarnego niedźwiedzia na śniegu. Wymusza to na użytkowniku
dokonywanie pomiaru (czy to w try- bie centralnie ważonym, czy też punktowym) na
obiektach o jasności zbliżonej do średniej szarości lub wprowadzanie korekty
ekspozycji. W trybie pomiaru punktowego, jeśli chcemy, by czarne ubranie wyszło na
zdjęciu w głębokiej czerni, należy albo wycelować punkt pomiarowy na główny obiekt
i wprowadzić ujemną korektę ekspozycji (ponieważ światłomierz będzie się starał
rozjaśnić czerń do szarości), albo zmierzyć światło w takim miejscu kadru, które jest
oświetlone podobnie jak model, ale jego poziom jasności jest zbliżony do szarości
18%.

Niektórzy polecają stosowanie tzw. szarej karty, która w każdej sytuacji zapewni nam
wzór dla światłomierza. Jednak w fotografii cyfrowej, dzięki możliwości
natychmiastowego obejrzenia zdjęcia po jego wykonaniu i funkcji histogramu, to
akcesorium stało się niepotrzebne.

Warto wiedzieć

W najprostszych aparatach kompaktowych pomiar światła jest zwykle powiązany z

punktem AF, dzięki czemu fotografowany obiekt (na który ustawiamy ostrość)
zostanie właściwie naświetlony. Modele bardziej zaawansowane pozwalają o
powiązaniu pomiaru światła z punktem ostrości użytkownikowi.

W aparatach cyfrowych marki Nikon tryb pomiaru światła wybiera się w Menu

fotografowania w polu Pomiar światła. Niektóre modele umożliwiają też dostęp do tej
opcji bezpośrednio z przycisku lub pokrętła na obudowie (jak w lu- strzance D300),
albo za pomocą nawigacji po wyświetlaczu LCD.

W trybie pomiaru matrycowego siatka punktów pomia- rowych - zwana też matrycą,

stąd nazwa - pokrywa większość powierzchni klatki. W amatorskiej lustrzance Nikon
D60 tych pól jest aż 420, ale zazwyczaj producenci ograniczają się do kilku,
kilkunastu a najwyżej kilkudziesięciu pól pomiarowych.

background image

4. Jakie funkcje spełnia przysłona - wyjaśnij wyczerpująco.

Jednym z najważniejszych elementów każdego aparatu fotograficznego jest
przysłona. Pozwala ona ograniczyć ilość światła wpadającego przez obiektyw,
padającego następnie na materiał światłoczuły (matrycę), i dzięki temu pozwala (jako
drugi mechanizm obok migawki) wpływać na ekspozycję zdjęcia.

Przysłona, jako przyrząd służący ograniczaniu ilości światła rejestrowanego przez
aparat, jest na pozór jego zbędnym elementem. Właściwa ekspozycja zdjęcia zależy
od oświetlenia i czasu rejestracji zdjęcia, zatem do manipulowania nią powinno
wystarczyć samo regulowanie czasu naświetlania – a więc mechanizm migawki.
Niekiedy jednak zależy nam na określonym czasie ekspozycji. Długim, gdy chcemy
np. uzyskać rozmycie na zdjęciu obiektów znajdujących się w ruchu lub trwających
dłużej, np. fajerwerków. Krótkim, gdy wykonujemy zdjęcia przy bardzo długich
ogniskowych (dużym zoom-em), i chcemy uzyskać nieporuszone ujęcia. Z innym
ograniczeniem możemy się spotkać, gdy wykorzystujemy materiały światłoczułe
(ustawienia matrycy) o bardzo małej lub bardzo dużej czułości – wówczas konieczny
czas ekspozycji może wykraczać poza możliwości techniczne migawki.

W takiej sytuacji należałoby właściwą ekspozycję uzyskać, regulując oświetlenie
fotografowanego obiektu, jednak poza fotografią studyjną rzadko mamy taką
możliwość. I tu właśnie do akcji wkracza przysłona, pozwalając regulować ilość
światła wpadającego przez obiektyw, a więc wpływać na ekspozycję zdjęcia. Dzięki
temu taką samą ekspozycję możemy uzyskać za pomocą nieograniczonej
(teoretycznie, w praktyce ograniczeniem są zakresy działania migawki i przysłony)
liczby kombinacji wielkości otworu przysłony i czasu naświetlania.

Kolejną ważną funkcją przysłony jest regulowanie głębi ostrości, czyli strefy przed i
za ustawioną odległością fotografowania (przedmiotową), w której osiągamy jeszcze
zadowalająco ostre odwzorowanie. Im mniejszy jest otwór przysłony, tym większa
jest głębia ostrości – więcej na ten temat dowiecie się z artykułu Głębia ostrości w
teorii i w praktyce.

Od przysłony zależy jeszcze kilka innych aspektów obrazu. Jak już wspomnieliśmy,
kształt otworu przysłony wpływa na sposób odwzorowania nieostrych obszarów
zdjęcia, tzw. bokeh (czyt. boke). O ile zazwyczaj dąży się do uzyskania możliwie
kołowego kształtu otworu przysłony (przez odpowiednie kształt i liczbę jej listków),
niekiedy stosuje się przysłony o nietypowych, wymyślnych kształtach otworu –
pozwala to uzyskać interesujące, trikowe efekty plastyczne. Przykładem obiektywu
który umożliwia stosowanie takich przysłon (typu wsuwkowego) jest opisywany przez
nas niedawno Lensbaby.

Ponadto od otworu przysłony zależy zdolność rozdzielcza obiektywu – w pewnym
zakresie zwiększa się ona wraz ze zmniejszaniem otworu przysłony. Dzieje się tak
jednak tylko do pewnego momentu, poniżej pewnej średnicy otworu uwidacznia się

background image

wpływ ugięcia światła (dyfrakcja) na krawędzi listków, i na wskutek tego zdolność
obiektywu do odwzorowania szczegółów zaczyna się pogarszać.

Przysłona – źrenica obiektywu

Sposób działania przysłony jest bardzo prosty – polega na wprowadzeniu w światło
obiektywu nieprzezroczystej płaszczyzny z wyciętym otworem, dzięki czemu do
wnętrza aparatu dostaje się tylko pewna część wpadającego do obiektywu światła. W
najstarszym historycznie wydaniu służyła do tego szczelina w obudowie obiektywu,
przez którą do jego wnętrza wsuwało się blaszki z otworami o różnych średnicach.
Oczywiście taka konstrukcja (wsuwkowa) była bardzo niewygodna w użyciu, dlatego
szybko poszukano rozwiązań, które pozwalałyby sprawniej zmieniać otwór przysłony.
Prostą przysłoną pozwalającą na płynną regulację otworu jest "kocie oko" –
konstrukcja składająca się z dwóch przeciwstawnie przesuwających się blaszek, z
których każda posiada wycięcie w kształcie litery V. Jej zasadniczą wadą jest
kwadratowy przekrój otworu, co powoduje nienaturalne odwzorowanie nieostrych
obszarów zdjęcia. W aparatach kompaktowych często spotykana jest przysłona
obrotowa (rewolwerowa), mająca postać okrągłej tarczy z koliście rozmieszczonymi
otworami o różnej wielkości. Jest on umieszczona tak, by przez jej obrót można było
owe otwory wprowadzać w światło obiektywu. Co prawda ograniczona jest liczba
otworów o różnej średnicy, jakie można dzięki niej uzyskać, jednak zaletą jest bardzo
prosta i zwarta budowa, pozwalająca stosować ją w również aparatach prostych,
tanich i o niewielkich gabarytach.

Niewątpliwie najdoskonalszą konstrukcją jest przysłona irysowa. Zbudowana z kilku
(zwykle 5 do 9) blaszek (tzw. listków) o sierpowatym kształcie pozwala płynnie
regulować otwór przysłony, zachowując przy tym jego okrągły (lub bardzo do niego
zbliżony) kształt. Listki przysłony są koliście rozmieszczone na obwodzie obiektywu i
zamocowane obrotowo, dzięki czemu mogą być płynnie wsuwane do wnętrza
obiektywu.

Przysłonę irysową stosuje się przede wszystkim w obiektywach wymiennych do
lustrzanek, zwykle jest ona również zintegrowana z migawką centralną przeznaczoną
do stosowania w aparatach dużego formatu. Wykorzystywana jest też w
zaawansowanych aparatach kompaktowych – tych, w których płynnie regulować
można otwór przysłony.

Nie sposób przeoczyć podobieństwo przysłony irysowej do źrenicy (tęczówki)
ludzkiego oka. Zupełnie jak w wypadku przysłony, reguluje ona ilość wpadającego do
oka światła. Z tego właśnie powodu po zmroku widzimy mniej wyraźnie – na skutek
zwiększenia otworu tęczówki zmniejsza się głębia ostrości obrazu, który
postrzegamy.

background image

Ustawianie wartości przysłony

W starszych aparatach fotograficznych otwór przysłony ustalało się zwykle
pierścieniem umieszczonym na obudowie obiektywu. W wypadku obiektywów
wbudowanych na stałe niekiedy zamiast pierścienia służyła do tego celu
odpowiednia dźwignia. W obu wypadkach należało posługiwać się wygrawerowanymi
na obudowie obiektywu wartościami przysłony. Często przed wykonaniem zdjęcia
należało jeszcze dodatkowo przed samym wykonaniem zdjęcia przymknąć przysłonę
do pozycji roboczej, w bardziej zaawansowanych konstrukcjach przysłona domykana
była automatycznie.

W nowoczesnych aparatach, zarówno cyfrowych jak i analogowych korzystanie z
przysłony jest dużo prostsze, pod warunkiem jednak, że nasz aparat w ogóle na to
pozwala. Niestety, większość prostych aparatów kompaktowych pozbawionych jest
funkcji pozwalających użytkownikowi na regulowanie otworu przysłony. Jest to o tyle
usprawiedliwione, że zazwyczaj wyposażone są one w proste przysłony o jedynie
kilku wartościach, a ustalanie ekspozycji odbywa się przez dopasowanie czasu
naświetlania zdjęcia.

Jeśli zatem rozważamy wybór aparatu, a chcielibyśmy mieć w przyszłości wpływ na
takie elementy zdjęcia jak np. głębia ostrości, szukajmy modeli wyposażonych w tryb
manualny (Manual, M) lub priorytetu przysłony (Aperture Priority, A lub Av), a
najlepiej w oba.

Aby ustawić wartość przysłony w trybie A (Av), zwykle wystarczy kręcić kółkiem
nastawczym aparatu. W trybie M (manualnym) sprawa może być nieco bardziej
skomplikowana. Bardziej zaawansowane lustrzanki zwykle wyposażone są w dwa
pokrętła ustawień – w trybie manualnym jedno z nich służy do ustawienia czasu
ekspozycji, a drugie właśnie pozwala nam ustawić otwór przysłony. Większość
aparatów jednak wyposażona jest tylko w jedno pokrętło (lub jedynie w manipulator-
dżojstik), który służy do sterowania oboma parametrami, a wyboru konkretnego z
nich dokonujemy, wciskając dedykowany przycisk. Wartość ustawionej przysłony
widzimy na wyświetlaczu – w kompaktach i tanich lustrzankach głównym kolorowym,
lustrzanki zaawansowane zwykle wyposażone są w wyświetlacz pomocniczy,
pokazujący bieżące ustawienia aparatu.

Pokazywana na wyświetlaczu aparatu liczba to wartość przysłony. Jest ona tym
większa, im mniejszy jest otwór przysłony. Zatem F4 oznacza szeroko otwartą
przysłonę, F16 to wartość odpowiadająca przysłonie przymkniętej.

Przysłona a otwór względny

Jak widać, ten na pozór zbędny element aparatu ma ogromny wpływ na jego
funkcjonalność, możliwość wykonywania zdjęć w określonych warunkach a przede
wszystkim na plastykę rejestrowanego obrazu.

background image

Na kształt otworu przysłony czy jej konstrukcję mechaniczną rzadko mamy wpływ,
zazwyczaj tylko w momencie wyboru konkretnego aparatu bądź obiektywu. Jednak w
zwykłej praktyce fotograficznej kwestie te nie są zbyt istotne, o ile nie mamy żyłki
eksperymentatora i majsterkowicza. Znacznie ważniejsze są: głębia ostrości i
ekspozycja zdjęcia – a tu znaczenia ma odpowiednia wielkość otworu przysłony.

Zasadniczą funkcją przysłony jest limitowanie ilości światła docierającego do
materiału światłoczułego, czyli filmu bądź matrycy. Natężenie to ściśle zależy od
odległości obrazowej – wynika to z prawa odległości Isaaca Newtona, które mówi że
natężenie oświetlenia jest odwrotnie proporcjonalne do kwadratu odległości
pomiędzy źródłem (obiektywem) a oświetlaną płaszczyzną (filmem, matrycą). Z tego
powodu wielkość otworu przysłony podaje się nie jako wartość bezwzględną, a jako
stosunek średnicy otworu do ogniskowej obiektywu (jest ona równa odległości
obrazowej przy ostrości ustawionej na nieskończoność) – wartość ta nosi nazwę
otworu względnego. Dzięki temu fotografując ten sam kadr dwoma obiektywami o
różnych ogniskowych, jednak o tym samym otworze względnym, uzyskamy tę samą
ekspozycję.

Wartość otworu względnego można podawać na kilka różnych sposobów: f/1, f:1
oraz f1 oznaczają otwór przysłony równy ogniskowej obiektywu. W wypadku
oznaczeń obiektywów często stosuje się oznaczenie, w którym ogniskowa podana
jest wprost, a więc 50/1 czy 50:2.

Otwór względny a czas ekspozycji

Jak już wspominaliśmy, stosując różne kombinacje otworu przysłony i czasu
naświetlania możemy uzyskać tę samą ekspozycję. Jeśli zatem zwiększamy
dwukrotnie czas ekspozycji, powinniśmy w odpowiednim stopniu zmniejszyć otwór
względny przysłony, tak by dwukrotnie zmniejszyć natężenie przechodzącego przez
obiektyw światłą. W odpowiedni – to znaczy właściwie w jaki?

Ilość światła przepuszczanego przez przysłonę zależy od powierzchni jej otworu,
zatem to ją należy zmniejszyć, w naszym wypadku dwukrotnie. Jak pamiętamy,
otwór przysłony ma najczęściej przekrój kołowy (lub ma kształt możliwie zbliżony),
zatem jego średnicę należy w tym celu podzielić przez pierwiastek kwadratowy z
dwóch. W ten sposób zmniejszymy jego powierzchnię o połowę, i w analogicznym
stopniu ilość przepuszczanego przez przysłonę światła.

Powtarzając tę operację, uzyskamy kolejno cztero-, ośmio- czy szesnastokrotne
ograniczenie ilości światła dochodzącego do materiału światłoczułego. Jak łatwo
zauważyć, jest to zmiana kolejno o 1, 2, 3 i 4 EV. Stosując wspomnianą wcześniej
nomenklaturę taki ciąg wartości otworu względnego miałby postać 1:1.414, 1:2,
1:2.828, 1:4 jednak w praktyce stosuje się wartości zaokrąglone 1:1.4, 1:2. 1:2.8, 1:4.
Często stosuje się dla uproszczenia również ich odwrotności, czyli tzw. liczbę
przysłony (wartość przysłony): 1, 1.4, 2, 2.8, 4, 5.6, 8, 11, 16, 22, 32, 45, 64.

background image

Niezależnie od zapisu, im mniejsza jest liczba (lub podstawa ułamka, czyli liczba po
ukośniku lub dwukropku) reprezentująca otwór względny, tym większy jest otwór
przysłony. Podany powyżej szereg wartości przysłony nie jest zamknięty – można go
przedłużyć zarówno w stronę większych jak i mniejszych wartości, jednak zwykle ich
się nie spotyka (poza makrofotografią). Oprócz podanych wartości stosuje się
również wartości pośrednie, co 1/2 lub 1/3 EV, pozwalające precyzyjnie regulować
ekspozycję zdjęcia.

Ponieważ czasy otwarcia migawki również wyskalowane są tak, by zmiana o jeden
pełny stopień oznaczała dwukrotne (o 1 EV) wydłużenie lub skrócenie czasu
ekspozycji, równoczesne wydłużenie czasu i przymknięcie przysłony o jeden stopień
pozwala zachować tę samą ekspozycję. Poniżej przedstawiamy przykładowy ciąg
ustawień czasu ekspozycji i wartości przysłony zapewniających tę samą ekspozycję:

wartość przysłony 1,4 2 2,8 4 5,6 8 11 16

czas ekspozycji 1/250 s 1/125 s 1/60 s 1/30 s 1/15 s 1/8 s 1/4 s 1/2 s

Otwór względny a jasność obiektywu

Największy możliwy do ustawienia otwór względny (najmniejsza liczba przysłony)
nazywany jest jasnością obiektywu. Jest to dość niefortunne określenie, gdyż może
być mylone z fotometrycznym pojęciem natężenia światła, jednak powszechnie się
przyjęło w żargonie fotograficznym.

Obiektywy o dużej jasności (otworze względnym większym niż f:2) to zwykle
konstrukcje dość kosztowne, i przeznaczone do specyficznych zastosowań gdzie
przydatna jest niewielka głębia ostrości (np. fotografia portretowa) lub fotografowania
w warunkach niedostatecznego oświetlenia. Ponieważ przy pełnym otworze
przysłony najsilniej uwidacznia się większość wad optycznych obiektywu, ultrajasne
obiektywy są dla zwykłego fotoamatora mało przydatne, gdyż i tak większość zdjęć
będzie on wykonywał przy przysłonie przymkniętej do f:5.6 lub f:8.

Niestety, określenia wartość przysłony i otwór względny są często używane
zamiennie, co prowadzi do nieporozumień – należy pamiętać, że zwiększanie otworu
względnego oznacza zmniejszanie wartości (liczby przysłony).Innym częstym
nieporozumieniem jest twierdzenie, że największym możliwym otworem względnym
jest f:1. Tymczasem nic (poza względami technicznymi) nie stoi na przeszkodzie, by
konstruować obiektywy o większym otworze względnym. Najjaśniejszym chyba
obiektywem, jaki został wyprodukowany był 50 mm Planar f/0.7, wyprodukowany na
potrzeby misji kosmicznych NASA, stosowany również w kinematografii, m.in. przez
Stanleya Kubricka podczas kręcenia sceny przy świetle świec w filmie "Barry

background image

Lyndon". Obiektywy o jasności większej niż f:1 produkowały również firmy takie jak
Canon, Rodenstock czy Schneider-Kreuznach.

Ponieważ jasność obiektywu (największy otwór względny) należy do jego
najważniejszych parametrów, jest on zawsze nanoszony na jego obudowę. Również
tutaj spotkać można wiele sposobów zapisu tej wartości, i tak dla obiektywu o
ogniskowej 50 mm i świetle f/2 może to być: 50/2, 50 F/2, 50 F2, 50 1:2… Za każdym
razem zapis ten znaczy to samo. Oczywiście, niektórzy producenci muszą
wprowadzać własną nomenklaturę – i tak Zeiss (a za nim Sony) odwracają kolejność
zapisu, mamy zatem również obiektywy takie jak Planar 1.4/50.

W amatorskich obiektywach zmiennoogniskowych (oraz znakomitej większości
obiektywów wbudowanych w aparaty kompaktowe) maksymalny otwór względny
zmniejsza się wraz z wydłużaniem ogniskowej, należało zatem ująć to w oznaczeniu
obiektywu. I tu również możemy spotkać się z wieloma wariantami: 28-210 3.5-5.6,
28-210mm 1:3.5-5.6 czy 28-210 F/3.5-5.6. Za każdym razem zapis ten oznacza, że
mamy do czynienia z obiektywem o zakresie ogniskowych od 28 do 210 mm, który
przy najkrótszej ogniskowej ma otwór względny f/3.5, a przy najdłuższej zwiększa się
on do f/5.6.

Otwór względny a odległość fotografowania

Powszechnie przyjmuje się, że otwór względny to stosunek średnicy otworu
przysłony do ogniskowej obiektywu. Jest to uproszczenie, które jest na tyle bliskie
rzeczywistym wartościom, że w normalnych warunkach fotograficznych sprawdza się
bardzo dobrze. Dlaczego jednak jest to tylko przybliżenie? Otóż tak naprawdę, w tej
definicji dla obu parametrów przyjęto niewłaściwe wartości…

W wypadku, gdy fotografowane obiekty znajdują się w dużej odległości od obiektywu
(nie musi to być nieskończoność, wystarczy mniej więcej dwudziestokrotność
ogniskowej obiektywu) można przyjąć, że płaszczyzna obrazowa znajduje się w
odległości równej ogniskowej od obiektywu (a dokładniej od tylnego, obrazowego
punktu węzłowego). W miarę jednak, jak zmniejsza się odległość od fotografowanego
przedmiotu (o. przedmiotowa) wydłuża się odległość obrazowa, stanowiąca
podstawę do wyznaczania otworu względnego. Oznacza to ni mniej ni więcej, że dla
niewielkich odległości fotografowania zmniejsza się otwór względny obiektywu w
stosunku do wartości nominalnej.

Nie musimy się tym przejmować, jeżeli używamy nowoczesnej lustrzanki AF z
dedykowanymi obiektywami bądź aparatu kompaktowego – wbudowany układ
kontroli ekspozycji uwzględni w obliczeniach odległość, na którą nastawiona została
ostrość, i wprowadzi do ustalonej ekspozycji odpowiednią korektę. Inaczej sytuacja
ma się, gdy chcemy posługiwać się manualnymi obiektywami (np. M42) lub
pierścieniami pośrednimi bez przeniesienia automatyki oraz zewnętrznym
światłomierzem. Tu już niezbędne będzie ręczne wprowadzenie korekty – jest to
szczególnie istotne w makrofotografii, gdyż w tym zastosowaniu najczęściej spotyka

background image

się zarówno stare obiektywy manualne jak i niewielkie odległości fotografowania. O
ile w wypadku lustrzanki cyfrowej łatwo odpowiednią korektę ekspozycji ustalić
eksperymentalnie, posługując się histogramem, to w przypadku aparatu
analogowego nie mamy już tej możliwości, i musimy posłużyć się odpowiednimi
wzorami. Tu nie będziemy ich przytaczać, podamy jedynie orientacyjne tabele, o ile
należy wydłużyć ekspozycję dla różnych odległości fotografowania oraz skal
odwzorowania (za: Tadeusz Cyprian, "Fotografia, technika i technologia" 1960).

Odległość fotografowania f×17 f×9 f×5 f×3 f×2

Wydłużenie czasu ekspozycji ×1,12 ×1,25 ×1,56 ×2,25 ×4

Odległość fotografowania f:1 2:1 3:1 4:1 5:1

Wydłużenie czasu ekspozycji ×4 ×9 ×16 × 25 ×36

Jak łatwo zauważyć, "referencyjna" w makrofotografii skala odwzorowania 1:1
(osiągamy ją przy odległości fotografowania równej dwukrotności ogniskowej)
wymaga zwiększenia ekspozycji aż o 2 EV (np. przez czterokrotne wydłużenie czasu
ekspozycji). Z tego też powodu obiektywy do makrofotografii przy skali odwzorowania
1:1 zwykle oferują otwór względny f/64, a często nawet mniejszy.

Drugim parametrem w równaniu otworu względnego jest średnica otworu przysłony.
W rzeczywistości powinniśmy posługiwać się tzw. źrenicą wejściową, czyli
projekcyjną wielkością otworu przysłony… Na szczęście tą rozbieżnością w definicji
nie musimy się przejmować, dopóki nie zamierzamy samodzielnie budować
obiektywu. Wystarczy, jeśli będziemy polegać na wartościach podanych przez
producenta – jeśli zatem obiektyw o ogniskowej 50 mm ma otwór względny f/2, to
jego źrenica wejściowa (a nie fizyczna średnica otworu przysłony!) wynosi 25 mm.
Dla uproszczenia przyjmuje się jednak powszechnie, że oba pojęcia są tożsame.

background image

5. Jakie funkcje spełnia czas naświetlania.

Czas ekspozycji to jeden z ważniejszych parametrów, które wybieramy ustalając
ekspozycję zdjęcia. Gdy już dokonamy wyboru, za jego realizację odpowiada
mechanizm zwany migawką.

Jednym ze sposobów wpływania na ekspozycję zdjęcia jest regulowanie czasu
naświetlania błony światłoczułej bądź matrycy aparatu cyfrowego. We wczesnym
okresie rozwoju fotografii wystarczało do tego proste nakrycie obiektywu, które
zdejmowało się ręcznie na czas niezbędny do uzyskania prawidłowej ekspozycji. Nie
było to problemem, gdy stosowane materiały światłoczułe były bardzo niskoczułe, a
czas ten mierzono w sekundach czy nawet minutach, dziś jednak tę metodę można
stosować wyłącznie w specyficznych sytuacjach (np. zdjęcia nocne), natomiast
typowy czas ekspozycji wynosi kilka dziesiątych, setnych a nawet tysięcznych części
sekundy. W tej sytuacji najbardziej nawet "szybkoręki" fotograf jest bez szans na
odsłonięcie obiektywu na potrzebny okres. Dlatego też we współczesnych aparatach
fotograficznych za regulowanie czasu ekspozycji odpowiada mechanizm zwany
migawką (ang. shutter).

Migawka to ruchoma mechaniczna przysłona, umieszczona na drodze światła
wpadającego do wnętrza aparatu przez obiektyw. Jest ona otwierana na czas
niezbędny do zapewnienia prawidłowej ekspozycji. W starszych aparatach czas ten
był regulowany za pomocą odpowiedniego układu mechanicznego, dziś migawki są z
reguły sterowane elektronicznie.

Pierwsza migawka pojawiła się dopiero w roku 1845, kiedy to dwóch francuskich
fizyków, Fizeau i Foucault opracowało urządzenie do kontrolowania czasu
ekspozycji, wykorzystywane do wykonywania zdjęć tarczy słonecznej. Aż do 1880
migawka traktowana była jak mniej lub bardziej użyteczny gadżet, jednak bynajmniej
nie niezbędny do wykonywania zdjęć. W późniejszym okresie szybki rozwój
materiałów światłoczułych (a zwłaszcza ogromny wzrost ich czułości) spowodował,
że migawka stała się obowiązkowym wyposażeniem każdego aparatu. W historii
fotografii przewinęło się wiele najróżniejszych rodzajów migawek, które różniły się
zarówno pod względem budowy, jak i miejsca umieszczenia w aparacie (lub poza
nim), jak np. migawki żaluzjowe, otworkowe czy miechowa Grundnera.

Dziś stosuje się niemal wyłącznie dwa typy migawek: szczelinowe i centralne.

Migawki szczelinowe to domena aparatów małego formatu, co dziś oznacza niemal
wyłącznie aparaty małoobrazkowe na błonę 35mm oraz lustrzanki cyfrowe będące
pochodną lustrzanek małoobrazkowych, można je też spotkać w aparatach
średniego formatu jak Hasselblad FC czy Pentacon Six. Migawkę centralną stosuje
się dziś w aparatach średniego i dużego formatu, przy czym różne może być jej
umieszczenie względem aparatu i obiektywu.

background image

Czasy otwarcia migawki zostały usystematyzowane podobnie jak wartości otworu
przysłony. Dzięki temu w łatwy sposób można dostosować czas naświetlania do
wybranego otworu względnego, tak by otrzymać pożądaną ekspozycję zdjęcia.
Podstawowy szereg czasów otwarcia migawki wynosi:

1, 1/2,1/4, 1/8, 1/15, 1/30, 1/60, 1/125, 1/250, 1/500, 1/1000, 1/2000 s

Jak łatwo zauważyć, każdy kolejny czas otwarcia jest niemal dokładnie o połowę
krótszy, zatem różnica pomiędzy nimi wynosi 1 EV. Zwykle nowoczesne aparaty
pozwalają na dokładniejsze ustalanie czasu ekspozycji zdjęcia, zazwyczaj co 1/2 lub
1/3 EV.

Budowa migawki szczelinowej

Migawka szczelinowa we współczesnym wydaniu umieszczona jest możliwie blisko
płaszczyzny obrazowej aparatu (stąd jej angielska nazwa focal-plane shutter; w
zasadzie odnosiu się ona do wszystkich migawek tam umiejscowionych, ale dziś
umieszcza się w tym miejscu tylko migawki szczelinowe), a więc tuż przed błoną
światłoczułą lub matrycą. Składa się ona z dwóch przysłon rozdzielonych szczeliną,
przesuwających się przed płaszczyzną obrazową tak, że wpadające przez szczelinę
światło naświetla zdjęcie. Czas ekspozycji regulowany jest szerokością szczeliny –
im jest ona węższa, tym mniej światła dociera do filmu lub matrycy.

W starszych aparatach owe przysłony miały postać roletek z nieprzezroczystej
tkaniny, a szczelina przesuwała się wzdłuż dłuższego boku kadru. W nowoczesnych
konstrukcjach zbudowane są one z metalowych blaszek zwanych lamelkami, a
szczelina pomiędzy nimi przesuwa się w pionie, wzdłuż krótszego boku klatki.

Przy dłuższych czasach ekspozycji (w starszych aparatach jest to 1/30 do 1/60
sekundy, w nowszych z metalową migawką 1/125 do 1/250 sekundy) szerokość
szczeliny staje się równa szerokości klatki, dzięki czemu cała powierzchnia kadru
naświetlana jest równocześnie. Przy takim czasie (lub dłuższym) możliwe jest
skorzystanie z lampy błyskowej (jej błysk naświetli od razu całą klatkę), stąd też czas
taki nazywany jest minimalnym czasem synchronizacji z lampą błyskową.

Przy krótszym czasie ekspozycji błysk lampy naświetliłby jedynie wąski pasek kadru
znajdujący się w danym momencie naprzeciw szczeliny migawki. Z tego powodu
większość nowoczesnych aparatów po podłączeniu dedykowanej lampy błyskowej
(lub włączeniu wbudowanej) nie pozwoli ustawić krótszego czasu ekspozycji.

Niewątpliwą zaletą migawek szczelinowych jest duży zakres czasów ekspozycji – te
stosowane w profesjonalnych lustrzanka pozwalają uzyskać czas naświetlania
1/8000 s, w korpusach amatorskich normą jest najkrótszy czas ekspozycji rzędu
1/2000–1/4000 s.

background image

Budowa migawki centralnej

Określenie migawka centralna odnosi się nie tyle do jej budowy, co do umieszczenia
wewnątrz aparatu, a w zasadzie obiektywu, gdyż migawka centralna powinna
znajdować się w płaszczyźnie głównej obiektywu, a zatem możliwie blisko przysłony.
Ponieważ tak umieszczone migawki mają wyłącznie budowę sektorową, mianem
migawki centralnej przyjęło się określać wszystkie migawki sektorowe, również te
umieszczone pomiędzy obiektywem a płaszczyzną obrazową.

Migawka sektorowa ma budowę bardzo podobną do klasycznej przysłony irysowej –
składa się z kilku (zwykle dwóch do siedmiu) półkolistych, metalowych blaszek
zawieszonych wahadłowo wokół otworu migawki. Za pomocą sprężyny utrzymywane
są one w takiej pozycji, by zasłonić otwór obiektywu. W trakcie naświetlania zdjęcia
są one rozsuwane na czas niezbędny do uzyskania prawidłowej ekspozycji, po czym
natychmiast wracają do pozycji zamkniętej.

Na efektywny czas otwarcia migawki sektorowej składa się zarówno okres pełnego
rozsunięcia listków, jak i proces ich otwierania oraz zamykania. Ruch migawki
odsłania najpierw środek obiektywu, i odwrotnie, zasłania go na samym końcu. Jest
to główna przyczyna umieszczania migawek sektorowych w pozycji centralnej, w
pobliżu przysłony – w tej pozycji migawka działa jak druga przysłona o zmiennej
średnicy i geometrii. Dzięki temu okres niepełnego otwarcia migawki wpływa jedynie
na zwiększenie głębi ostrości bądź zmianę charakteru przejścia pomiędzy obszarami
ostrymi i nieostrymi.

Inaczej rzecz będzie się miała gdy migawkę sektorową umieścimy poza obiektywem.
Im bliżej płaszczyzny obrazowej będzie się ona znajdowała, tym silniejsze będzie
zaciemnienie obrzeży kadru powodowane okresem niepełnego otwarcia migawki.
Efekt ten będzie tym silniejszy, im krótszy będzie czas ekspozycji. Dlatego tez w
sytuacji, gdy migawka znajduje się poza obiektywem, stosuje się odpowiednie filtry
korekcyjne z ciemniejszym centrum.

Wszystko to powoduje, że dziś migawki sektorowe występują wyłącznie jako migawki
centralne, a to ostatnie miano stało się w zasadzie ich synonimem. W tradycyjnym
wykonaniu, spotykanym również dziś w aparatach wielkoformatowych, migawka
centralna jest niezależnym modułem, zawierającym również układ przysłony, a
często również samowyzwalacza i synchronizacji z lampą błyskową. Często sama
migawka jest równocześnie przysłoną – po wyzwoleniu, otwiera się jedynie do
ustalonej uprzednio wartości. Do takiego modułu mocowane są dwie części
obiektywu – przednia i tylna. Takie rozwiązanie pozwala wykorzystywać jedną
migawkę z wieloma obiektywami.

Inne podejście od lat prezentuje Hasselblad, konsekwentnie wbudowując migawkę
centralną w obiektywy (z wyjątkiem tych przeznaczonych dla systemu FC). Z jednej
strony upraszcza to użytkowanie aparatu, pozwalając na szybką wymianę
obiektywów, z drugiej komplikuje budowę odpowiednich szkieł i podnosi ich koszty.

background image

Chociaż migawka centralna jest bardzo prostym mechanizmem, na jej elementy
działają bardzo duże siły – wystarczy wspomnieć, że blaszki tworzące sektory
migawki w czasie jej otwierania i zamykania przyspieszają do prędkości 50 km/h w
czasie zaledwie 1/1000 sekundy! Powoduje to, że konieczna jest wysoka precyzja
wykonania i materiały wysokiej jakości. Co ciekawe, w wytwarzaniu migawek
centralnych wyspecjalizowało się kilka firm, które często nie produkowały ani
aparatów, ani obiektywów, zaś ich wyroby stosowane były powszechnie w większości
aparatów. Nazwy takie jak Prontor, Compur czy Copal trwale zapisały się w historii
fotografii, chociaż ich wytwórcy nie zawsze dotrwali dzisiejszych czasów. Firmy
Alfred Gauthier (producent Prontorów) oraz Deckel (wytwórca Compurów) zostały
wchłonięte przez Zeiss Foundation (holding będący właścicielem zakładów Zeissa
oraz wytwórcy szkła optycznego Schott), po czym połączone w 1984 roku. Produkcja
Compurów na rynek zewnętrzny była utrzymywana do 2002 roku, dziś można je
spotkać tylko wbudowane w obiektywy Zeissa (np. te przeznaczone dla systemu
Hasselblad 500). Dziś najbardziej znanym niezależnym wytwórcą jest Schneider, z
którego migawkami serii Copal współpracują obiektywy takich producentów jak
Nikon, Rodenstock (Linos)i Sinar (oraz oczywiście szkła Schneidera).

Migawki centralne (sektorowe) mają swoje wady i zalety. W porównaniu do migawek
szczelinowych, oferują one stosunkowo długie czasy naświetlania – najkrótszy czas
ekspozycji oferowany przez produkowaną obecnie zewnętrzna migawkę centralną
(Schneider Copal 0) to 1/500 sekundy. Nieco lepiej jest w wypadku migawek
wbudowanych w obiektywy średniego formatu w wypadku szkieł przeznaczonych dla
Hasselblada H3D jest to 1/800 sekundy. Trzeba przyznać, że w porównaniu do
możliwości migawek szczelinowych to niewiele. Wynika to z tego, że czas operacji
rozsuwania i zamykania sektorów migawki jest mniej więcej stały, zatem przy bardzo
krótkich czasach ekspozycji proporcje pomiędzy czasem pełnego a częściowego
otwarcia migawki byłyby już bardzo zachwiane. Z drugiej zaś strony, migawki
centralne pozwalają na synchronizację z lampą błyskową przy dowolnym czasie
otwarcia migawki, gdyż ta zawsze otwiera się na wystarczającą szerokość.

Migawki w aparatach cyfrowych

Cechą charakterystyczna migawek stosowanych w większości aparatów cyfrowych
jest to… że ich nie ma. To nie żart – matryce stosowane w aparatach cyfrowych
(przede wszystkim kompaktowych) pozwalają w dość dużym zakresie regulować
czas zbierania informacji o obrazie, a więc czas ekspozycji. Pozwala to nie tylko
uprościć konstrukcję takiego aparatu (a więc i obniżyć jego cenę), ale i zmniejszyć
rozmiary. To właśnie dzięki tej właściwości stosowanych sensorów zawdzięczamy
aparaty tak małe, że mieszczą się w telefonach komórkowych.jeśli zatem w
dokumentacji aparatu kompaktowego widzimy pozycję "migawka elektroniczna"
możemy być pewni, że aparat ten nie ma migawki z prawdziwego zdarzenia.

No dobrze, ale dlaczego w takim razie cyfrowe lustrzanki w dalszym ciągu
wyposażane są w mechaniczne migawki? Przecież to stosunkowo drogi element

background image

aparatu, na dodatek podlegający zużyciu (migawka amatorskiej lustrzanki cyfrowej
wytrzymuje od 60 do 100 tysięcy cykli pracy, czyli wykonanych zdjęć). Aparaty
kompaktowe pozbawione są migawki niejako z konieczności – matryca musi przez
cały czas rejestrować obraz, by zapewnić możliwość kadrowania zdjęcia na
wyświetlaczu. Ponadto w cyfrowych kompaktach sensor światłoczuły jest
uniwersalnym elementem pomiarowym odpowiadającym za dostarczenie danych
układom kontroli ekspozycji oraz ustawienia ostrości (autofokusowi). Aby wszystko to
zapewnić, matryca aparatu musi pracować "na okrągło". Ma to jednak określone
konsekwencje. Część powierzchni matrycy musi zostać poświęcona na układy
kontrolujące czas zbierania danych – powoduje to, że zmniejszona zostaje jej
aktywna powierzchnia, a co za tym idzie, większe są elektroniczne szumy widoczne
na zdjęciach. Ponadto stale pracujący przetwornik wyraźnie się grzeje, co w
konsekwencji znów doprowadza do wzrostu zaszumienia (wraz z temperaturą rośnie
tzw. ciemny prąd matrycy).

Tymczasem w lustrzankach matryca nie musi pracować przez cały czas –
kadrowanie zdjęcia zapewnia nam lustrzany wizjer optyczny, zaś za pomiar
ekspozycji zdjęcia i ustawienie ostrości odpowiadają wyspecjalizowane układy
pomiarowe. Dzięki temu matryca mniej się grzeje, a zastosowanie migawki pozwala
dodatkowo uprościć budowę sensora światłoczułego i efektywniej wykorzystać jego
powierzchnię. Oczywiście od reguły bywają wyjątki – wśród lustrzanek jest nim Nikon
D70 (oraz aparaty wyposażone w analogiczną matrycę: D70s, D50 oraz D40). Otóż
aparat ten jest co prawda wyposażony w metalową migawkę lamelkową, jednak
reguluje ona czasy ekspozycji w zakresie od 30 sekund do 1/500 sekundy. Krótsze
czasy naświetlania zdjęcia są już uzyskiwane elektronicznie. Skutkuje to nieco
większym niż u konkurencji poziomem szumów (za wyjątkiem D40, ale jest to
zasługą bardzo dobrego układu redukcji szumów), ale ma też swoje zalety.
Mianowicie małoobrazkowe lustrzanki Nikona z hybrydową migawką jako jedyne
pozwalają wykonywać zdjęcia z lampą błyskową przy czasie synchronizacji 1/500 s
(pomijając wykonywanie zdjęć w trybie hi-speed, ale to już temat na odrębny artykuł).

background image

6. Po co jest balans bieli i co go łączy z temperatura barwową.

Często chwalimy fotografię cyfrową za to, że znacznie ułatwia robienie zdjęć.
Możliwości natychmiastowego obejrzenia rezultatów przyspiesza naukę, a obróbka
komputerowa daje praktycznie każdemu dostęp do efektów, które wcześniej były
zarezerwowane dla wtajemniczonych. Tymczasem jest jeden aspekt pracy fotografa
amatora, który cyfra skomplikowała, wprowadzając nowe zagadnienie. Mowa o
balansie bieli, czyli funkcji odpowiedzialnej za kolorystyczną neutralność zdjęcia.

Kiedyś można było znaleźć dwa rodzaje filmów kolorowych – przeznaczone do
użytku w świetle dziennym (znakomita większość) i przygotowane tak, że dawały
naturalne kolory w świetle sztucznym (rzadkie i drogie). Większość fotoamatorów
używała powszechnie dostępnych filmów do światła dziennego, godząc się z
dominantą kolorystyczną (czyli nienaturalnym zabarwieniem), jeśli część fotografii
została wykonana we wnętrzach oświetlonych sztucznym światłem, lub zdając się na
doświadczenia laboranta, który przygotowywał odbitki. Do równoważenia
temperatury światła stosowano też specjalne filtry optyczne, ale było to niewygodne i
uciążliwe. W cyfrze możliwości fotografa są ogromne. Możliwość dostosowania
ustawień aparatu do temperatury barwowej światła, w którym akurat fotografujemy
(choćby na jedno ujęcie!), to błogosławieństwo. Z drugiej jednak strony to kolejny
element fotograficznego abecadła, który musimy opanować, zanim będziemy mogli z
dumą stwierdzić, że fotografujemy w pełni świadomie i samodzielnie.

Oczywiście istnieje możliwość zdania się na kogoś innego – wprawnego laboranta
zastąpiła automatyka aparatu, ale nie w każdych warunkach takie rozwiązanie się
sprawdzi. Nie zaszkodzi więc poznać podstawy i nauczyć się korzystać przynajmniej
z ustawień predefiniowanych aparatu.

Zaczynamy jednak od skoku na głęboką wodę.

Im cieplej tym zimniej?

Określenie „balans bieli” to kalka językowa z angielskiego white balance. Termin ten
oznacza software’owy mechanizm równoważenia bieli, czyli interpretacji surowych
danych z matrycy (o czym później), żeby biel była na zdjęciu biała, w celu uniknięcia
niezgodnego z rzeczywistością zafarbu. Ludzkie oko ma ogromne zdolności
adaptacyjne i potrafi się przystosować do różnych warunków oświetleniowych, nie
tylko jasności (po chwili spędzonej w ciemności zaczynamy widzieć kontury
przedmiotów, a ostre słońce razi nas tylko przez chwilę), ale też różnych kolorów
światła. Nasz mózg to najskuteczniejszy system balansu bieli świata – on wie, co
powinno być białe, co czerwone, zielone itp., nawet w bardzo wymagających
sytuacjach widzimy prawidłowo (pomijając oczywiście sytuacje skrajne, np. podczas
koncertów). Aparat tak nie potrafi, trzeba mu pomóc w podjęciu decyzji, wybierając
odpowiednie ustawienie odpowiadające temperaturze barwowej najczęściej
spotykanych źródeł światła.

background image

Temperaturę światła, mającą wpływ na jego kolor (widziany przez ludzkie oko),
mierzy się w Kelvinach (nie w „stopniach Kelvina”!). Wbrew intuicji, im wyższa
temperatura podawana w Kelvinach, tym „zimniejsze światło”. Za barwy ciepłe
przyjęło się uważać żółcie i czerwienie – gorące słońce ma przecież właśnie ten
zakres tonalny. Z kolei synonimem barwy zimnej jest niebieski. Są to oczywiście
skojarzenia czysto emocjonalne, ale na tyle powszechne, że trudno się od nich
uwolnić. Lecz kiedy chcemy zrozumieć temperaturę światła, jest to konieczne,
ponieważ tutaj jest odwrotnie.

Temperatura barwowa różnych rodzajów światła zazwyczaj ma wartość umowną, bo
nie ma przecież jednego, wzorcowego rodzaju światła słonecznego czy żarowego.
Poniższe wartości oscylują w powszechnie przyjętych granicach:

– światło żarowe: 3500 K,

– światło jarzeniowe: od 2700 K do 7200 K (białe 3700 K),

– światło słoneczne (powszechnie nazywane dziennym): 5200 K,

– światło lampy błyskowej: 5400 K,

– chmury: 6000 K,

– cień: 8000 K.

Do wyboru do koloru

W zależności od stopnia zaawansowania aparatu użytkownik ma do dyspozycji od
kilku do kilkunastu ustawień balansu bieli. Można je podzielić na trzy grupy:

- automatykę (aparat sam decyduje o ustawieniach),

- ustawienia predefiniowane (zapisane w pamięci aparatu, identyfikowane dzięki
obrazowym nazwom, np. światło dzienne, światło żarowe),

- ustawienia manualne (zarówno według wzoru, jak i możliwość wyboru temperatury
w Kelvinach).

Możliwość wyboru spośród dwóch pierwszych kategorii dają praktycznie wszystkie
aparaty cyfrowe – różnice mogą dotyczyć liczby ustawień predefiniowanych (np.
niektórzy producenci udostępniają użytkownikom nie jedną, lecz kilka opcji pracy w
świetle jarzeniówek, w zależności od ich rodzaju). Ustawienia manualne to domena
aparatów zaawansowanych, choć i wśród modeli z górnej półki widoczne są znaczne
różnice w stopniu szczegółowości i w łatwości dostępu do ustawień użytkownika.

Jedną z podstawowych zalet fotografii cyfrowej jest możliwość natychmiastowego
obejrzenia zdjęcia. A jeśli chodzi o balans bieli, najbardziej przydaje się możliwość
obserwacji obrazu na żywo na ekranie LCD, na którym użytkownik widzi wpływ
wybranych parametrów na zdjęcie – w tym również balansu bieli. Umożliwiają to

background image

wszystkie kompakty i coraz więcej lustrzanek cyfrowych, wyposażanych zgodnie z
najnowszymi trendami w systemy podglądu na żywo. Dzięki tej funkcji łatwo
zrozumieć zależność między poszczególnymi ustawieniami predefiniowanymi a
wyglądem fotografii oraz zapamiętać, że im wyższa temperatura barwowa w
Kelvinach, tym „zimniejsze” światło.

Zaawansowane aparaty cyfrowe, zarówno kompakty z górnej półki, jak i lustrzanki,
oferują użytkownikowi możliwość zapisu zdjęć w surowym formacie RAW (każdy
producent stosuje inny sposób zapisu, stąd różne rozszerzenia plików). Zawierają
one wszystkie informacje zarejestrowane przez matrycę światłoczułą, dzięki czemu
pozwalają fotografowi przejąć rolę procesora aparatu i regulować wartość wielu
parametrów już po wykonaniu zdjęcia (w komputerze lub w aparacie), bez straty
jakości. Daje to ogromną swobodę, choćby przy równoważeniu bieli – możliwość
podjęcia decyzji w zaciszu domowym, przy komputerze, pozwala skupić się na
fotografowaniu ze świadomością, że niewłaściwie wybrane ustawienie nie zepsuje
zdjęcia.

W praktyce

W najczęściej spotykanych warunkach oświetleniowych (światło dzienne, chmury)
automatyka aparatu poradzi sobie znakomicie. Są jednak sytuacje, w których warto,
a nawet trzeba, sięgnąć przynajmniej do ustawień predefiniowanych. Tryb Auto ma
ograniczony zakres temperatur barwowych, który zazwyczaj nie obejmuje dolnych
wartości, przez co nie radzi sobie np. ze światłem żarowym. Automatyka ustawi
balans bieli tak, że zdjęcia będą miały mocną żółtą dominantę i o wiernym oddaniu
kolorów możemy zapomnieć.

Światło jest kapryśne i lubi czasem płatać figle. Nierzadko fotografujemy w
sytuacjach, w których źródeł światła jest kilka (np. dzienne, żarowe i jarzeniowe –
mówimy wtedy o świetle mieszanym), często o temperaturze barwowej z krańców
skali, przez co po prostu nie da się zrobić zdjęcia o neutralnych barwach. Czasami
można wyodrębnić główne, najmocniejsze źródło światła – wtedy ustawiamy balans
bieli z myślą o nim. Zdarza się jednak, że wszystkie źródła są tak samo silne i mają
taki sam wpływ na wygląd fotografowanej sceny. Nie ma wtedy rady – musimy
wybierać. Trzeba się zdecydować na któreś ustawienie i pogodzić z faktem, że część
zdjęcia będzie wyglądała nienaturalnie (ale czy to na pewno źle? – patrz ramka).
Ewentualnie możemy wykonać kilka zdjęć przy różnych ustawieniach i potem wybrać
to, które najbardziej przypadnie nam do gustu.

Tradycyjnie już w podsumowaniu ponownie zachęcę do brania spraw we własne ręce
i świadomego wyboru wszystkich parametrów zdjęciowych. Nie obrażajmy się na
cyfrę, że dała nam kolejne zagadnienie fotograficzne do poznania, bo wraz z nim
dostaliśmy większy wpływ na końcowy rezultat niż w czasach fotografii analogowej.
„Natychmiastowość” cyfry znacznie ułatwia naukę, więc balans bieli nie powinien
przysporzyć nam kłopotów. Wystarczy tylko chcieć.

background image

Najwyższa precyzja

Zaawansowane modele cyfrówek pozwalają użytkownikowi dostroić ustawienia
predefiniowane do swoich upodobań. Dzięki temu nie jesteśmy ograniczeni do
założeń producenta, z którymi nie każdy musi się zgadzać. Jedne firmy umożliwiają
dokonanie zmian za pomocą narzędzi wizualnych na osiach żółty–niebieski i zielony–
purpura, inne podają po prostu wartość w Kelvinach, którą użytkownik może
zmieniać. Niektórzy producenci dają użytkownikowi do dyspozycji oba te narzędzia.

Warto pamiętać, że zasady są po to, żeby je łamać. Starając się o naturalne kolory
bez przekłamującej wygląd fotografowanej sceny dominanty barwnej, nie
zapominajmy, że fotografia to medium, które w dwóch wymiarach musi oddać całość:
nie tylko trójwymiarowość rzeczywistości, ale też nasze emocje i wrażenia związane
ze zmysłami innymi niż wzrok. Dlatego w wielu sytuacjach neutralne kolory się nie
sprawdzają. Oświetlona jarzeniówkami stacja metra będzie wyglądała znacznie
ciekawiej, jeśli sfotografujemy ją przy ustawieniu dla światła dziennego. To samo
dotyczy jednego z najczęstszych tematów fotograficznych – zachodu słońca. Nie
warto więc przesadzać z neutralnością.

Cała władza w ręce ludu

W wielu sytuacjach zdjęciowych automatyka balansu bieli nie radzi sobie, wybór
ustawienia predefiniowanego niewiele zmienia, a brakuje czasu na zabawę z
precyzyjnym dostrajaniem wartości zapisanych w pamięci aparatu. Najłatwiej i
najszybciej skorzystać wtedy z możliwości manualnego ustawienia równoważenia
bieli według wzorca. Polega to na tym, że wycelowujemy obiektyw w biały lub szary
przedmiot (ale koniecznie neutralny!, np. białą kartkę) znajdujący się w oświetleniu, w
którym fotografujemy. Po wybraniu odpowiedniej funkcji naciskamy spust migawki, a
aparat ustawia balans bieli tak, żeby przedmiot, w który wycelowaliśmy obiektyw, nie
miał dominanty barwnej. W niektórych aparatach „fotografowany” obiekt musi
wypełnić cały kadr, w innych wystarczy, że zajmie centralną część klatki. Modele z
górnej półki pozwalają zapamiętać kilka ustawień manualnych, dzięki czemu
użytkownik nie musi za każdym razem, kiedy zmienia sytuację zdjęciową, od nowa
ustawiać balansu bieli (np. kiedy fotografuje ślub i przechodzi z kościoła do domu
weselnego).

background image

7. Co rozumiesz przez termin fotografia tradycyjna.

Fotografia tradycyjna (inaczej, chociaż nie do końca poprawnie: fotografia
analogowa, w odróżnieniu od cyfrowej) – fotografia w której nośnikiem obrazu są
chemiczne materiały światłoczułe (filmy, błony, płyty, papiery itp.). W fotografii
tradycyjnej dominuje fotografia srebrowa, czyli fotografia oparta na światłoczułych
halogenkach srebra. Do fotografii tradycyjnej zaliczają się też szlachetne techniki
fotograficzne wykorzystujące światłoczułe właściwości chromianów.

Fotografia tradycyjna ma wiele zalet w porównaniu z fotografią cyfrową. Na przykład
dla fotografii tradycyjnej na nośnikach srebrowych, wciąż zaletą pozostaje
rozdzielczość, nawet przy użyciu małego formatu. Dla przykładu, negatyw Fomapan
Creative 200 według danych producenta [1] osiąga zdolność rozdzielczą na poziomie
110 linii/mm. Oznaczałoby to przybliżony ekwiwalent 12 100 pkt obrazu na mm2
filmu. Przy rozmiarze klatki 36x24mm oznacza to w przybliżeniu 10 454 400 pkt
obrazu. Przewyższa to zdolność rozdzielczą większości współczesnych aparatów
cyfrowych, zwłaszcza że producenci tych ostatnich używają oznaczenia (w
Megapikselach) pomijając fakt, że aparaty te używają filtrów Bayera. Mamy także -
nawet w najtańszych modelach aparatów "tradycyjnych" - do czynienia z większym
obszarem światłoczułym (w aparatach cyfrowych odpowiednik to "sensor
pełnoklatkowy", dostępny tylko w profesjonalnych modelach). Dla filmu w średnim
formacie, moglibyśmy mówić o 43 560 000 pkt (43 MPix). Istnieją także materiały o
większej rozdzielczości, np. filmy Ilford.

Zalety fotografii cyfrowej

— natychmiastowy podgląd zdjęcia bez czekania na wywołanie filmu. Jeśli zdjęcie
jest nieudane, fotograf dowiaduje się o tym od razu i może spróbować ponownie,

— możliwość poprawienia bądź przekształcenia zdjęcia przed zrobieniem odbitek,

— płaci się jedynie za odbitki udanych zdjęć,

— małe koszty przechowywania dużej ilości zdjęć (jeśli pozostają w formacie
cyfrowym, a nie jako odbitki),

— zdjęcia mogą być kopiowane z jednego nośnika na drugi bez utraty jakości,

— nie ma potrzeby skanowania zdjęć przed użyciem ich w komputerze,

— możliwość wydruku własnych zdjęć na drukarce, czasami nawet bezpośrednio z
aparatu,

— aparaty cyfrowe mogą być o wiele mniejsze od aparatów tradycyjnych o
jednakowej jakości,

background image

— możliwość dołączania do zdjęć dodatkowych danych (EXIF), takich jak data i czas
wykonania zdjęcia, model aparatu, czas naświetlania, użycie lampy błyskowej itp.
Ułatwia to przeglądanie i sortowanie zdjęć,

— profesjonalne aparaty oferują rozdzielczość porównywalną lub lepszą od aparatów
tradycyjnych,

Zalety fotografii tradycyjnej

— dłuższa żywotność baterii. Jednak niektóre współczesne aparaty cyfrowe używają
akumulatorów o bardzo dużej żywotności,

— manualne aparaty analogowe nie potrzebują baterii i są proste w konstrukcji,
przez co mogą pracować w warunkach ekstremalnych,

— filmy w aparatach tradycyjnych są ściśle ustandaryzowane i łatwe do kupienia,
podczas gdy karty pamięci mogą być niedostępne w mniej cywilizowanych rejonach,
w dodatku jest ich wiele rodzajów,

— aparaty tradycyjne nie wymagają umiejętności posługiwania się komputerem,

— w tańszych aparatach cyfrowych występuje długi czas pomiędzy naciśnięciem
spustu migawki a wyzwoleniem migawki, przez co można utracić ważny moment na
zdjęciu,

— lustrzanki cyfrowe są w tej chwili dużo droższe od ich tradycyjnych
odpowiedników, chociaż ceny szybko spadają,

— klisze filmowe oferują wciąż z reguły dużo większą rozdzielczość. Klatka 35 mm
odpowiada mniej więcej 19 megapikselom, średni format (56 mm x 56 mm) - 69
megapikselom, a duży format (8 x 10 cali) - 1135 megapikselom. Współczesne
profesjonalne lustrzanki cyfrowe mają matryce CCD o wielkości nawet 22
megapikseli.

background image

8. Wymień przybory dodatkowe fotograficzne.

Dekielki na Obiektywy

Filtry Efektowe, Polaryzacyjne, typu Cokin, UV

Fotocele, Kostki Synchro

Karty Pamięci

Muszle Oczne

Obiektywy

Odwrotne Mocowania

Osłony LCD

Osłony Przeciwsłoneczne

Paski i Gripy

Pierścienie Pośrednie

Piloty na Podczerwień

Piloty Radiowe

Przewody

Redukcje Filtrowe

Tuleje Redukcyjne

Wężyki Spustowe

Zestawy Czyszczące

Zewnętrzne lampy błyskowe

Torby, Futerały, Plecaki

Statywy

Obudowy podwodne

Blendy

Parasolki

Dyfuzory

Gripy

background image

9. Czym się różni ISO w analogowym aparacie od ISO w cyfrowym
aparacie.

…………………………………………………………………………………………………

…………………………………………………………………………………………………

…………………………………………………………………………………………………

…………………………………………………………………………………………………

…………………………………………………………………………………………………

…………………………………………………………………………………………………

…………………………………………………………………………………………………

…………………………………………………………………………………………………

…………………………………………………………………………………………………

…………………………………………………………………………………………………

…………………………………………………………………………………………………

…………………………………………………………………………………………………

…………………………………………………………………………………………………

…………………………………………………………………………………………………

…………………………………………………………………………………………………

…………………………………………………………………………………………………

…………………………………………………………………………………………………

…………………………………………………………………………………………………

background image

10. Opisz kilka rodzajów perspektywy.

Rzadko zdarza się, abyśmy w każdej sytuacji patrzyli na świat wyłącznie w jeden
sposób. Zmiana perspektywy to doskonała metoda aby ujrzeć rzeczy w nowym
świetle. Podobnie ma się rzecz z fotografią – nietypowe uchwycenie rzeczywistości
pozwala wyodrębnić z niej na zdjęciach zupełnie nowe elementy. Umożliwiają to
między innymi różne rodzaje punktu widzenia, które opisujemy w niniejszym
poradniku.

Od kiedy w sztukach plastycznych człowiek zaczął poszukiwać sposobu na oddanie
przestrzeni na dwuwymiarowym dziele sztuki (w nowożytnej Europie moment ten
przypadł na schyłek średniowiecza), idealne odwzorowanie perspektywiczne stało się
"świętym Grallem" artystów malarzy. O jednym z wybitnych twórców tamtych czasów,
Paolo Uccello (1396-1475) krąży nawet anegdota, że w swoich (dziś
powiedzielibyśmy, że nieco naiwnych) studiach nad perspektywą posunął się tak
daleko, że zaniedbał własną żonę.

Fotografia nie stawia przed swoimi twórcami takich wymogów – prawa fizyki i
matematyczne reguły rzutowania przestrzennego obrazu na płaszczyznę wykonują
za nas "krecią robotę" w dziedzinie odwzorowywania na zdjęciu fotografowanej
rzeczywistości. Jednak znajomość pewnych reguł kompozycyjnych związanych z
perspektywą pozwala w prosty sposób bardzo urozmaicić wykonywane przez nas
zdjęcia.

Okiem człowieka, ptaka i żaby

W zależności od tego, jaką pozycję przyjmiemy wraz z aparatem w stosunku do
fotografowanego obiektu, możemy mówić o różnych rodzajach perspektywy. Jeżeli
nie zmieniając własnego położenia będziemy opuszczać, lub zadzierać obiektyw,
będziemy mieli do czynienia z trzema punktami widzenia: perspektywą ludzką
(normalną), ptasią oraz żabią.

Pierwszy typ perspektywy zazwyczaj nie jest nazywany w żaden sposób – na
potrzeby tego artykułu nazywać będziemy ją normalną lub ludzką. Jest to najczęstszy
sposób robienia zdjęć, który nie wymaga od fotografującego praktycznie niczego,
poza prostym trzymaniem aparatu. Sposób prezentacji przestrzeni na zdjęciu
wykonanym w perspektywie normalnej praktycznie nie różni się od naszego
codziennego sposobu postrzegania świata (o ile oczywiście fotografujący nie stosuje
żadnych innych zabiegów czyniących zdjęcie nietypowym – np. nie używa obiektywu
ultra szerokokątnego).

background image

Perspektywa normalna jest więc fotograficznym narzędziem dokumentującym, gdyż
umożliwia zarejestrowanie obrazu pozbawionego zniekształceń, możliwości
różnorodnej interpretacji. Jednym słowem jest to narzędzie kronikarskie, a zarazem
dość bezpieczne w użyciu. Większość naszych zdjęć powstaje właśnie z tego punktu
widzenia i nie ma w tym nic dziwnego ani tym bardziej nagannego. Czasem jednak
możemy zechcieć przedstawić rzeczy nie takimi jakie są, lecz takimi jakimi chcemy,
aby się wydawały. Wówczas możemy sięgnąć po jeden z dwóch pozostałych
punktów widzenia.

Z perspektywą żabią mamy do czynienia wówczas, gdy zadzieramy aparat w górę i
fotografujemy obiekt lub osobę znacznie od nas wyższą lub wyżej umieszczoną. W
efekcie przedmiot lub żywa istota będąca tematem zdjęcia wydają się większe oraz
nabierają wrażenia siły i dostojeństwa – niezależnie od tego, jak duże są w
rzeczywistości.

Zabieg ukazywania ważnych miejsc i postaci od dołu w żabiej perspektywie
wykorzystywany jest bardzo często w kinie. Użyty na szeroką skalę po raz pierwszy
przez Orsona Wellesa w legendarnym już obrazie pt. "Obywatel Kane" z 1941 roku
stał się stałym elementem języka filmu.

Perspektywa ptasia daje – jak można się łatwo domyślić – zupełnie przeciwne do
żabiej efekty. Sfotografowane w ten sposób przedmioty oraz ludzie wydają się
mniejsi oraz "wciśnięci" w tło. Zabieg ten można wykorzystać wówczas, gdy zależy
nam na ukazaniu wielkości świata wobec fotografowanej osoby. W perspektywie
ptasiej doskonale można też przedstawić interakcję ludzi lub przedmiotów z
otoczeniem z uwagi na fakt, iż przy perspektywie tego typu tło jest bardzo istotne dla
kompozycji sceny.

Niestety, ptasi punkt widzenia jest bardzo często niewłaściwie stosowany przez
nieświadomych tego rodziców fotografujących swoje pociechy z wysokości swojego
wzroku. Małe dzieci uwiecznione w ten sposób są niejako "wyciągane" ze swojego
naturalnego środowiska, tego co je cieszy i interesuje. Aby oglądający fotografie
maluchów nie musieli "patrzeć na dzieci z góry", warto podczas robienia zdjęć
ustawić się z aparatem na wysokości wzroku małego modela – ten punkt widzenia,
nazywany czasem "psią perspektywą" opisujemy w dalszej części.

background image

Praktyczne przykłady wykorzystania nietypowej perspektywy

Oczywiście punkty widzenia żaby i ptaka mogą pomysłowym fotografom posłużyć nie
tylko w celu pozornego powiększenia lub pomniejszenia głównego tematu zdjęcia. Po
osiągnięciu pewnej wprawy w stosowaniu tych technik możemy się pokusić o ich
twórcze wykorzystanie w celu uzyskania zupełnie niebanalnych kompozycji
fotograficznych. Poniżej przedstawiamy kilka takich przykładów wraz z ich krótkimi
omówieniami.

To zdjęcie, wykonane podczas koncertu zespołu Digit-All-Love w trakcie festiwalu
Wrocław Non Stop dnia 26 czerwca 2006 roku to przykład wykorzystania dość
szokującej kombinacji dwóch elementów – żabiej perspektywy oraz szerokiego kąta
widzenia (ogniskowa 19 mm w przeliczeniu na mały obrazek) – w celu zwiększenia
dynamiki zdjęcia reportażowego. Wykonanie samej fotografii z pewnością nie
należało do łatwych (wymagało wejścia na scenę w trakcie trwania koncertu), jednak
wysiłek i niecodzienny zabieg zaowocował uzyskaniem doskonałego ujęcia.

background image

O efektach ubocznych zadzierania nosa

Za każdym razem, gdy odchylamy aparat w górę lub w dół, bądźmy świadomi
konsekwencji, jakie to ze sobą niesie. Jedną z nich jest zmiana linii zbiegu
perspektywy ujęcia. Ma to szczególne znaczenie podczas fotografowania
architektury – jeżeli bowiem nawet w niewielkim stopniu odchylimy aparat w górę (np.
aby zmieścić w kadrze całą fasadę budynku), wówczas okaże się, że fotografowany
obiekt na zdjęciu jest przechylony. Efekt ten będzie tym większy, im szerszy był kąt
widzenia aparatu w momencie wykonywania zdjęcia.

background image

Aby zmieścić w kadrze cały biurowiec z widoczną na pierwszym planie fontanną
fotograf wykonał zdjęcie pod niewielkim kątem w górę. W efekcie uzyskał on zdjęcie
dziwacznie przechylonego budynku.

Jeżeli spotka nas taki problem, możemy spróbować go rozwiązać poprzez korektę
perspektywy w programie graficznym. Znacznie lepszym rozwiązaniem będzie
jednak wykonywanie zdjęć architektury zgodnie z zasadami sztuki – dbając o
prawidłowe położenie aparatu podczas kadrowania. A jeżeli mamy kłopoty z
ustawieniem właściwego kadru bez zadzierania obiektywu, najlepszym rozwiązaniem
jest… cofnięcie się o kilkanaście metrów lub (jeżeli jest to możliwe) wykonanie
zdjęcia z wyżej położonego punktu, np. balkonu lub dachu stojącego nieopodal
budynku.

Zniżyć się do poziomu modela

Jak wspomniałem już na początku tego artykułu, oprócz perspektywy normalnej,
żabiej i ptasiej istnieje jeszcze jeden punkt widzenia, który bywa szczególnie
przydatny podczas fotografowania dzieci i małych zwierząt. Bywa on czasem
nazywany "perspektywą psa". Najogólniej mówiąc fotografowanie z perspektywy psa
polega na silnym obniżeniu aparatu poprzez kucnięcie lub wręcz położenie się na
podłodze lub ziemi tak, aby znaleźć się na tej samej wysokości, co nasz model.

Fotografując dziecko z wysokości dla niego naturalnej uzyskano doskonałe ujęcie
przedstawiające malucha podczas zabawy.

background image

Perspektywa "z oczu dziecka" jest jednym z najczęściej niedocenianych sposobów
na uwiecznienie malucha w jego naturalnym środowisku i ukazanie świata takim, jaki
może je on widzieć na co dzień. Stosujmy ją robiąc jak najwięcej zdjęć na wysokości
naszego małego modela, zamiast z góry. Jest to przy okazji doskonała okazja do
nawiązania jeszcze bliższego kontaktu z dzieckiem, z której warto korzystać zawsze
– nie tylko wówczas, gdy chcemy uzupełnić rodzinny album ze zdjęciami.

Na koniec

Perspektywa to jeden z wielu – obok kolorystyki, kompozycji, właściwie dobranego
tematu i innych – elementów w zasadniczy sposób wpływających na jakość naszych
fotografii. Z całą pewnością nie należy się ograniczać tylko do jednej, najprostszej i
najbardziej naturalnej. Jednak, jak wszystkie inne zabiegi fotograficzne, stosowanie
perspektywy powinno być uzasadnione treścią zdjęcia. Zanim więc postanowimy
zaszokować świat różnorodnością naszych prac, najpierw poćwiczmy i nabierzmy
wprawy w praktycznym stosowaniu świeżo nabytej wiedzy. Życzę powodzenia w
pierwszych i kolejnych próbach oraz setek udanych zdjęć wykonanych z wielu
punktów widzenia.

background image

11. Podaj najważniejsze zasady poprawnej kompozycji obrazu.

Robienie zdjęć nie polega tylko na wycelowaniu obiektywu we właściwą stronę i
naciśnięciu spustu migawki. Udana fotografia powstaje w naszej głowie jeszcze
zanim podniesiemy aparat do oka. Jednym z najważniejszych elementów dobrego
zdjęcia jest jego kompozycja. Bardzo istotnym jej aspektem jest z kolei
rozmieszczenie w kadrze elementów istotnych dla fotografowanego tematu.

Jak to się dzieje, że pewne kompozycje fotograficzne wydają się nam harmonijne i
odpowiednie dla przedstawianego tematu (bardziej statyczne lub dynamiczne w
zależności od potrzeb), a inne przypadkowe i nieuporządkowane? Sposób, w jaki
odbieramy zdjęcia nie jest – jak się okazuje – kwestią przypadku. Choć może się to
wydawać niezwykłe jest on również w bardzo niewielkim stopniu regulowany naszymi
indywidualnymi cechami osobowymi. Za percepcję zdjęć, podobnie jak obrazów,
rzeźb i innych dzieł sztuk wizualnych, odpowiada u nas bowiem mechanizm, u
podstaw którego leżą bardzo proste prawa.

Przez wieki rozwoju wrażliwości estetycznej człowieka u podstaw tego procesu leżało
podpatrywanie natury. Ta ostatnia zaś pod tym względem okazała się być tak
konsekwentna, że już w starożytności podjęto udane próby opisania „przepisu natury
na piękno” za pomocą języka matematyki i geometrii. Stworzone wówczas reguły
odnaleźć można również u podstaw wszystkich udanych kompozycji fotograficznych.

Mocne punkty i linie kadru

Wykonując zdjęcie jakiegoś przedmiotu, zwierzęcia lub osoby, zazwyczaj
umieszczamy interesujący nas obiekt w centrum kadru. Robimy to odruchowo –
ponieważ tak jest wygodniej, ponieważ autofokus wielu aparatów zwykle działa
najlepiej w tym właśnie punkcie, a także ponieważ wydaje się to nam właściwe.
Tymczasem centrum kadru nie jest ani jedynym, ani najwłaściwszym punktem na
zdjęciu.

Czy kiedykolwiek, oglądając telewizję, zastanawialiście się, dlaczego logo stacji
umieszczone jest w narożniku (najczęściej jednym z górnych) ekranu? Wbrew
pozorom nie jest to bowiem spowodowane chęcią właścicieli stacji, aby statyczny
obrazek jak najmniej rzucał się w oczy. Wręcz przeciwnie! Narożniki te, to jedno z
miejsc, na które wzrok oglądającego pada w pierwszej kolejności po włączeniu
telewizora – tzw. mocny punkt.

W przypadku zdjęcia (podobnie jak w przypadku każdego innego dwuwymiarowego
obrazu) mocne punkty kadru to miejsca, w którym znajdujące się fotografowane
obiekty wywierają na oglądającego najsilniejszy wpływ. Odpowiednie wykorzystanie

background image

dwóch lub więcej mocnych punktów pozwala uzyskać wyraziste zdjęcie o harmonijnej
kompozycji. Ignorując ich istnienie oraz nie dbając o równowagę w rozmieszczaniu
obiektów w kadrze nie osiągnie się udanej fotografii. Jak już zapewne zdążyliście się
domyślić, centrum fotografii niekoniecznie musi być mocnym punktem kadru.

Osobną, równie ważną sprawą są tzw. mocne linie kadru. Na większości zdjęć
można wyznaczyć ważne dla obrazu linie. Mogą być one rzeczywiste (np. fasada
budynku, linia horyzontu, pasy na jezdni), jak i wirtualne (takie jak linia wzroku
modelki, czy linie łączące uwiecznione osoby pozostające ze sobą w określonych
relacjach). W niemal każdym ujęciu, nad którym fotograf pomyślał dłużej niż
kilkanaście sekund, można wyznaczyć co najmniej kilka istotnych linii.

W wielu zdjęciach linie tworzące kadr są widoczne w sposób dosłowny – w tym
przypadku są to pobocza drogi, pasy na jezdni oraz horyzont. Nie jest to jednak
regułą, ponieważ bardzo często linie kadru nie są obecne na zdjęciu wprost.

Ważne jest, aby linie te pokrywały się z przebiegiem tzw. mocnych linii kadru, na
których przecięciu powstają mocne punkty. Linii takich jest bardzo wiele i mogą być
wyznaczane zgodnie z rozmaitymi regułami. Pewne układy mają charakter bardziej
dynamiczny, inne służą "uspokojeniu" obrazu, a jeszcze inne sprawiają, że kadr
"zapętla się" w sobie i w hipnotyzujący sposób przykuwa naszą uwagę. Jak łatwo
można się domyślić, nie każdy układ mocnych linii i mocnych punktów nadaje się do
skomponowania zdjęcia, o którym aktualnie myślimy.

Zarówno mocne linie jak i mocne punkty kadru nie istnieją przypadkowo. Ich
położenie wyznaczają prawa, które – jak wspominałem już wcześniej – nasi
przodkowie sformułowali po raz pierwszy ponad 2500 lat temu. A dokonali tego
obserwując piękno i harmonię natury.

background image

Złoty Podział

Pierwsza i najważniejsza reguła kompozycyjna nosi nazwę złotego podziału
(ang. Golden Sections) lub boskich proporcji (ang. Divine Proportions). Została
sformułowana po raz pierwszy w starożytnej Grecji a jej opracowanie przypisuje się
Pitagorasowi lub jego uczniom. Wiadomo jedynie, że Złota Reguła została
matematycznie opisana przez Euklidesa. Według tego opisu ze złotym podziałem
mamy do czynienia wówczas, gdy długość odcinka podzielonego na dwie nierówne
części pozostaje w stosunku do części dłuższej w takich samych proporcjach, jak
część dłuższa do krótszej. Ów złoty stosunek wynosi w przybliżeniu 1,618.

Jeżeli zgodnie z tą regułą podzielimy czterema liniami prostokąt wyznaczający kadr
zdjęcia, otrzymamy tzw. siatkę złotego podziału wyznaczającą cztery mocne punkty
kadru. Znajdują się one dość blisko centrum zdjęcia, jednak są też od niego wyraźnie
odsunięte. Takie ułożenie obiektów w kadrze pozwala silnie zaakcentować związek
między nimi, a jednocześnie czyni zdjęcie harmonijnym – jeżeli tylko zadbamy, aby
obiekty te wzajemnie się uzupełniały.

background image

W grupowych zdjęciach skomponowanych z zastosowaniem reguły złotego podziału
fotografowane osoby zazwyczaj znajdują się bardzo blisko siebie.

Poziome linie złotego podziału kadru to również dobra lokalizacja dla umiejscowienia
linii horyzontu. Efektem takiej kompozycji krajobrazu jest zdjęcie przypominające do
złudzenia klatkę z filmu – zwłaszcza, jeżeli obraz ma proporcje typowe dla filmu
kinowego (panoramiczne). Najlepsze efekty daje jednak wykorzystanie złotego
podziału w kadrach o proporcjach boków wyznaczonych przez tę samą regułę – czyli
zbliżonych do najczęściej spotykanego w cyfrowych lustrzankach standardu 3:2
(więcej na ten temat piszemy w dalszej części tekstu).

Ujęcie o bardzo filmowym charakterze. Położenie horyzontu wyznacza jedna z linii
złotego podziału.

background image

Można nieco uprościć

Pewnym przybliżeniem złotego podziału, łatwym do zastosowania praktycznie w
każdych warunkach, jest tzw. trójpodział. Polega on na prostym podzieleniu kadru
na trzy równe części pionowe i trzy poziome. W efekcie otrzymujemy układ dzielący
kadr na dziewięć części, z czterema mocnymi liniami i czterema mocnymi punktami.
Choć ich położenie odbiega od tego, co wynika z zasady złotego podziału, to reguła
ta sprawdza się znakomicie praktycznie w każdym rodzaju fotografii.

Trojpodział jest regułą kompozycji podobną do złotego podziału, ale prostszą w
użyciu.

Trójpodział jest najczęściej stosowaną z fotografii techniką kompozycyjną, zwłaszcza
przez początkujących fotografów. Wiele aparatów cyfrowych – zarówno prostych, jak
i zaawansowanych – umożliwia wyświetlenie pomocniczej siatki geometrycznej
jeszcze podczas wykonywania zdjęcia i najczęściej jest to właśnie siatka trójpodziału.
Wśród użytkowników lustrzanek cyfrowych popularne są z kolei wymienne matówki z
naniesionymi liniami wyznaczającymi tego typu mocne punkty kadru. Oczywiście
dotyczy to modeli, w których matówkę można wymienić w sposób w miarę
bezproblemowy, choć w Internecie można znaleźć firmy, które oferują wymianę
matówki również w modelach, w których nie przewidziano takiej możliwości (np. Katz
Eye Optics).

background image

Należy jednak pamiętać, że zbyt dokładne trzymanie się tej reguły może
spowodować, że nasze kadry będą wydawały się nieco sztuczne. Trójpodział jest
bowiem formą organizacji kadru opartą o elementy o identycznych rozmiarach. W
niektórych przypadkach taki idealnie równy podział może nie wyglądać zbyt dobrze.
Doskonale nadaje się on natomiast (co ciekawe, również za sprawą swojej
regularności) do komponowania kadrów kwadratowych lub prawie kwadratowych.

Zdjęcie o kwadratowych proporcjach kadru skomponowane z wykorzystaniem reguły
trójpodziału. W kadrze można zauważyć porządek, harmonię i dynamikę.

Opanowanie kadrowania z wykorzystaniem reguły trójpodziału powinno być punktem
wyjścia każdego fotoamatora do bardziej zaawansowanej "edukacji fotograficznej".
Świadome stosowanie tej prostej reguły to najlepsza metoda, aby zacząć panować
nad kompozycją obrazu.

background image

Kompozycje ukośne – więcej dynamiki

Zdjęcia zbudowane na bazie złotego podziału i trójpodziału są harmonijne i
eleganckie, czasem jednak chcielibyśmy uczynić je nieco bardziej dynamicznymi.
Jest na to prosta metoda, którą zna każdy, kto choć krótko poznawał teorię sztuk
plastycznych – umieszczenie w kadrze linii ukośnych.

W praktyce fotograficznej wykorzystywane są najczęściej dwa typy ukośnego
podziału kadru. Pierwszym jest układ oparty na trójkątach (ang. Triangle), często – i
niestety błędnie – nazywanych złotymi. Polega on na wyznaczeniu przekątnej kadru,
a następnie poprowadzeniu dwóch prostopadłych do niej linii wychodzących z
przeciwległych wierzchołków tegoż. Otrzymamy w ten sposób zdjęcie podzielone na
cztery trójkątne obszary pozostające ze sobą we wzajemnej harmonii. Jeżeli na
zdjęciu obszary te będą się nawzajem uzupełniały, otrzymamy mocno
zdynamizowaną, lecz jednocześnie elegancką kompozycję.

Kadr oparty na silnej linii ukośnej pokrywającej się z przekątną obrazu. W układzie
kompozycji trójkątnej leżące naprzeciwko siebie obszary dopełniają się wzajemnie.

Linie wyznaczone przez regułę podziału ukośnego opartego na trójkątach doskonale
nadają się też do komponowania intrygujących zdjęć portretowych. W przypadku

background image

fotografii studyjnej możemy (i powinniśmy) wykorzystać okazję do ustawienia
fotografowanej osoby tak, aby jej sylwetka układała się zgodnie z mocnymi liniami
tego rodzaju kadry. Efekty mogą być wręcz zaskakująco dobre.

Przykład portretu skomponowanego w oparciu regułę podziału ukośnego. Uzyskana
w ten sposób sylwetka modelki jest bardziej interesująca od tradycyjnego,
''sztywnego'' ustawienia fotografowanej osoby .

Drugim, bardzo interesującym rodzajem podziału ukośnego, jest podział oparty na
kwadratach (ang. Diagonal). Uzyskujemy go wyprowadzając z narożników kadru
cztery linie ustawione do jego krawędzi pod kątem 45 stopni. Efektem – w zależności
od proporcji fotografii – jest siatka składająca się z dwóch (w przypadku kadru
kwadratowego) lub czterech mocnych linii, oraz jednego (kadr kwadratowy), dwóch
(panorama) lub czterech mocnych punktów.

background image

Kompozycja diagonalna to znakomity sposób zaakcentowania przeciwieństw,
antagonizmów, opozycji. Obiekty umieszczone w mocnych punktach takiego kadru w
naturalny sposób dążą do starcia, jednocześnie będąc swoim wzajemnym
uzupełnieniem.

Podział oparty na kwadratach znakomicie nadaje się do uwieczniania abstrakcyjnych,
geometrycznych wzorów, ale nie tylko. Szczegółowa analiza wielu zdjęć, obrazów i
dzieł graficznych, które – choć nie zostały skomponowane z wykorzystaniem reguły
trójpodziału czy też złotego podziału – urzekają nas swoją harmonijnością wykazuje,
że ich twórca stosował regułę odwróconych kwadratów. W praktyce okazuje się, że
ten mało znany typ kompozycji występuje częściej, niż moglibyśmy się spodziewać.

Muszla ślimaka i inne

To prawda, że wszelkiego rodzaju układy okręgów, łuków oraz spirale mają w sobie
coś hipnotyzującego. Kierują one uwagę oglądającego w sposób dla niego
niezauważalny od krawędzi do wnętrza. Najczęściej spotykany w naturze model
spirali jest nazywany złotą spiralą i opiera się (a jakże!) na zasadzie złotego
podziału. Figura ta jest jednocześnie wyjątkowo wdzięcznym schematem
komponowania kadru fotograficznego.

background image

Mimo, iż na zdjęciu widoczne są niezależne od siebie łuki, to dzięki odpowiedniej
kompozycji elementy te stały się częścią wielkiej spirali.

Jeżeli narysujemy prostokąt, którego boki będą miały długości wynikające ze złotej
proporcji (dłuższy bok będzie o około 1,618 razy dłuższy od krótszego) i podzielimy
go zgodnie z tą samą regułą, otrzymamy dwie figury geometryczne: kwadrat oraz
mniejszy prostokąt proporcjonalny do większego. Podział ten możemy powtarzać w
nieskończoność i efekt będzie za każdym razem taki sam. Jeżeli następnie w tak
powstałe kwadraty zaczniemy wpisywać łączące się ze sobą ćwiartki okręgów,
otrzymamy właśnie złotą spiralę.

Schemat budowy złotej spirali – linii zbudowanej z połówek okręgów wpisanych w
kwadraty.

background image

Kompozycje oparte na złotej spirali urzekają swoją harmonią i przyciągają wzrok w
sposób niemal hipnotyczny. Nie są one proste ani do dostrzeżenia, ani też do
poprawnego skadrowania, jednak trud poniesiony w ich odnalezienie i uwiecznienie z
pewnością wart jest osiąganych rezultatów.

Kompozycje oparte na linii złotej spirali można odnaleźć w najbardziej
nieprawdopodobnych miejscach – na przykład takich, jak wykonana obiektywem typu
Fish-Eye fotografia przedstawiająca krajobraz z kosza lecącego balonu.

Przy okazji omawiania złotej spirali warto zwrócić uwagę na jeden element:
wspomniany wcześniej złoty prostokąt o bokach wyrażonych proporcją 1,618 nie bez
powodu nosi nazwę „złotego”. Jest to bowiem figura harmonijna, bardzo dobrze
odbierana przez oglądającego jako pole obrazowania. W praktyce fotograficznej
najbardziej do tego kształtu zbliżony jest typowy dla lustrzanek cyfrowych kadr 3:2,
którego proporcje boków wyraża liczba 1,5. Spotykany w większości aparatów
kompaktowych oraz lustrzankach systemu Four Thirds (Olympus, Panasonic) kadr
4:3 ma bardziej "kwadratowe" proporcje 1,33(3).

background image

Pustka to również coś!

Komponując kadr każdy prędzej czy później styka się z następującym problemem:
bardzo interesujące ujęcie o przemyślanej kompozycji, z istotnym elementem w
jednym z mocnych punktów psuje brak elementu wypełniającego i równoważącego z
drugiej strony. W efekcie tego pechowy fotograf często rezygnuje z wykonania
zdjęcia. Tymczasem właśnie w tym momencie być może popełnia on niewybaczalny
błąd.

Zdjęcie skomponowane w oparciu o regułę trójpodziału. Rolę równoważni dla
samotnego drzewa z lewej strony kadru pełni widoczne z prawej strony zachmurzone
niebo.

Oprócz konkretnych obiektów, takich jak ludzka twarz, samochód, drzewo, góra, rolę
mocnego punktu kadru może z powodzeniem pełnić również ... przestrzeń. Puste
niebo, chmury, lita skała czy zwyczajna ziemia – to wszystko może stanowić
równoważnię dla innego elementu, znajdującego się np. w przeciwległym rogu
zdjęcia. Zdarzają się też sytuacje, w których sama przestrzeń jest głównym
bohaterem zdjęcia. W takiej sytuacji inny obiekt (np. niewielka ludzka sylwetka)
stanowi jedynie skalę porównawczą – sposób na nadanie zamkniętej na zdjęciu
przestrzeni głębi i rozmiarów.

Jak zatem "oswoić" tę przestrzeń na tyle, aby móc wykorzystać ją w fotografii?
Należy popatrzeć na nią, jak na przedmiot materialny, aby dostrzec jej cechy, takie

background image

jak kształt, barwę, jasność, czy "fakturę" i na podstawie tej obserwacji wkomponować
ją w kadr. Dla początkującego fotografa, dla którego pustka nie zawsze jest łatwo
postrzegalna, może stanowić to pewien problem. Tu z pomocą przyjdzie nam
technika cyfrowa – możliwość natychmiastowego obejrzenia na wyświetlaczu LCD
jak przestrzeń "układa się" w kadrze stanowi nieocenioną pomoc podczas
komponowania ujęcia.

Nie tylko na jeden sposób

Wiele zdjęć można wykadrować na kilka różnych wariantów, w zależności od tego,
zgodnie z jaką regułą komponujemy ostateczną fotografię. Rezultaty – nawet jeżeli
są do siebie podobne – zazwyczaj w nieco inny sposób oddziaływają na
oglądającego. Istnieją jednak też ujęcia o dużej sile oddziaływania, w których
odnaleźć można ślady kilku różnych typów kompozycji. To w czym celowali dawni
mistrzowie malarscy, tacy jak Leonardo da Vinci (w jego arcydziełach krytycy
doszukują się licznych i niekiedy bardzo skomplikowanych reguł) nie jest obce
również fotografom.

Opanowałeś reguły? Więc spróbuj je złamać

Pierwszą reakcją każdego fotoamatora, który "wchodzi w świat" kompozycji obrazu
jest bardzo dokładne, wręcz pedantyczne trzymanie się jej zasad. Prędzej czy
później powinna jednak nadejść pora eksperymentowania – co stanie się, jeżeli
reguły te naruszymy?

Jest to ważny moment, w którym każdy z nas zaczyna odkrywać swoją indywidualną
wrażliwość fotograficzną. Nie bójmy się więc tego. Spróbujmy podrażnić widza,
zagrajmy na jego oczekiwaniach co do zdjęcia i wrażliwości estetycznej. Umiejętne
łamanie zasad jest bowiem równie ważne, co ich opanowanie. Życzę wielu owocnych
ćwiczeń!

background image

12. Czym się różni klisza od negatywu?

Klisza – rodzaj matrycy w postaci płaskiej, sztywnej płyty.

W fotografii pierwsze klisze w postaci szklanych płyt pojawiły się w II poł. XIX w. Były
to klisze negatywowe, służące do fotografowania, a następnie reprodukcji zdjęć
fotograficznych. W dwudziestoleciu międzywojennym zostały wyparte przez znacznie
wygodniejsze w użyciu błony fotograficzne (cięte i zwojowe), umożliwiające nie tylko
wygodniejsze przechowywanie i obróbkę materiałów światłoczułych, ale i
wykonywanie (w przypadku błon zwojowych) wielu zdjęć z jednego ładunku w
aparacie fotograficznym. Od tych czasów, pojęcie 'kliszy' stało się również
popularnym, potocznym (choć niezupełnie precyzyjnym) określeniem na materiały w
postaci błony.

W tradycyjnej poligrafii, czyli druku wypukłym, klisze były metalowymi płytami
(później również z tworzywa sztucznego), służącymi do reprodukcji grafiki. W
zależności od charakteru grafiki, wyróżniano klisze siatkowe, służące do reprodukcji
materiałów wielotonalnych metodą rastra oraz klisze kreskowe, służące do
reprodukcji grafiki całotonalnej. Klisze te przygotowywano metodą chemigraficzną
(naświetlanie warstwy światłoczułej, a następnie trawienie metalu lub wymywanie
tworzywa sztucznego) lub grawerską (na urządzeniu zwanym kliszografem).
Metalowe klisze poligraficzne w druku wypukłym (typograficzne) zostały wyparte
dopiero w latach 90. XX w. wraz z zanikiem tradycyjnego druku wypukłego. Dzisiaj
wykorzystywane są klisze stalowe do przygotowywania form drukowych w
tampondruku, a w introligatorstwie kliszami nazywa się płyty do tłoczeń.

W poligrafii istnieją również inne rodzaje klisz, np. kamienna klisza fotolitograficzna
(odmiana litografii, w której obraz naniesiono metodą fotograficzną), które niegdyś
były technikami reprodukcji przemysłowej, a obecnie stosowane są już tylko w grafice
warsztatowej.

Negatyw - odwrotność pozytywu, czyli oryginału.

W kopiowaniu brył negatyw jest symetrycznym odciśnięciem oryginału, czyli matrycą.

W fotografii monochromatycznej jest przeciwieństwem jasności tonów z
uwzględnieniem pełnej skali dynamiki nośnika (np. dla jasnego obrazu negatyw
będzie ciemny, a nie tylko "odwrócony").

W fotografii kolorowej to samo, co w monochromatycznej, ale dodatkowo barwy są
zamienione na barwy dopełniające.

Popularna nazwa błony fotograficznej negatywowej.

Negatyw to także nazwa naświetlonej taśmy filmowej po nakręceniu na niej obrazów
filmowych w kamerze. Negatyw jest najważniejszym spośród wszystkich tzw.
materiałów wyjściowych filmu, służących do wyprodukowania kopii pokazowych

background image

filmu. Obok niego jest jeszcze negatyw tonu z naświetloną ścieżką dźwiękową.
Oryginalne negatywy przechowuje się w archiwach a kopie eksploatacyjne do kin są
wykonywane z duplikatów tzw. dupnegatywów. W przypadku zniszczenia oryginału
wykonuje się tzw. kontrnegatyw z zachowanej kopii pozytywowej.

13. Do czego służy preselekcja czasu i przysłony?

Tv: Tryb Preselekcji Czasu

Nieco tajemnicza nazwa oznacza, że fotograf ustawia wybraną przez siebie wartość
czasu naświetlania, a aparat dobierze do tej wartości wymaganą wartość przysłony.
Oczywiście wybrana wartość czasu musi mieścić się w zakresie, dla którego warunki
oświetleniowe i wybrana wartość ISO pozwolą dobrać przysłonę zapewniającą
prawidłowe naświetlenie. Jeśli wybierzemy zbyt krótki czas, to aparat wybierze
najniższą możliwą przysłonę i zrobi z nią niedoświetlone zdjęcie. Przy zbyt długim
czasie zdjęcie będzie prześwietlone.

Av: Tryb Preselekcji Przysłony

Drugi ukochany tryb fotografów. Tryb Preselekcji Przysłony, który jest jakby
przeciwnością trybu Tv. Fotograf w tym wypadku decyduje o tym jakiej wartości
przysłony chce użyć do danego ujęcia, a aparat dobierze do niej czas naświetlania.
Trzeba przy tym jednak pamiętać, że im wyższa wartość przysłony tym mniej światła
pada na matrycę i tym dłuższy czas naświetlania. Dlatego też swobodę dobierania
dowolnej przysłony mamy rzadko, tylko w bardzo dobrych warunkach oświetlenia. W
pozostałych sytuacjach (pochmurno, zmierzch, wieczór, wnętrza) jeśli nie możemy
robić zdjęć ze statywu to jesteśmy zmuszeni do używania najniższych wartości
przysłon. Takie życie :)

Pamiętajmy także o drugim aspekcie związanym ze zmianą przysłony. Im większa
wartość przysłony, tym większa głębia ostrości.
Gdy wybierzemy niską
przysłonę, to wykonamy piękny portret (wyraźna twarz, rozmyte tło). Gdy wybierzemy
wysoką wartość to zrobimy piękne zdjęcie w plenerze (wszystko będzie ostre i
wyraźne, od kamienia leżącego metr przed nami do szczytu gór widocznego w
oddali).

O głębi ostrości decyduje jednak także jeszcze jeden czynnik: ogniskowa
obiektywu. Im większa ogniskowa, tym mniejsza głębia ostrości (w dziale
Optyka dowiesz się wszystkiego na temat Głębi Ostrości).

background image

15. Co to jest digitalizacja obrazu?

Digitalizacja

Inaczej ucyfrowienie - działanie polegające na konwersji materiałów zapisanych w
postaci analogowej na format cyfrowy

16. Która z technik była bliższa fotografii : heliografia, dagerotypia,
kalotypia? (Odp.: Kalotypia)

Heliografia (fr. héliographie) – technika fotograficzna wynaleziona przez Josepha
Nicéphore'a Niépce'a na początku lat 20. XIX wieku. Przy jej pomocy w 1826 Niépce
otrzymał pierwsze zdjęcie na świecie – Widok z okna w Le Gras.

Eksperymenty nad fotografią Niépce rozpoczął od eksperymentów związanych z
powielaniem obrazów na papierze. Używał w tym celuasfaltu syryjskiego, którym
pokrywał szklaną płytę. Na tak przygotowaną płytę kładł pokrytą olejem kartkę
papieru z obrazem, który miał być powielony (dzięki olejowi papier stawał się
półprzezroczysty). Jak zauważył Niépce, asfalt twardniał w miejscach wystawionych
na działanie światła, a z miejsc nienaświetlonych dawał się usunąć przy pomocy
olejku lawendowego. W efekcie formował się negatyw, z którego można było
wykonać kopie obrazu. Pierwszy udany eksperyment przeprowadził w 1822 przy
pomocy ryciny z wizerunkiem papieża Piusa VII. Później Niépce zaczął używać
metalowych płyt, które po naświetleniu wytrawiał w kwasie (kwas działał na płytę w
miejscach, które nie były pokryte warstwą asfaltu, a nie działał w miejscach, w
których pozostał asfalt). W ten sposób w 1826 zreprodukował grafikę z wizerunkiem
kardynała Georges'a d'Amboise autorstwa Isaaca Briota. Odbitki wykonał na zlecenie
Niépce'a paryski grafik Augustin François Lemaître.

Metoda ta dała początek technice druku, zwanej heliograwiurą (fotograwiurą),
opracowanej w 1879 przez Karela Kliča.

Niépce kontynuował prace nad swoim wynalazkiem, próbując go zaadaptować tak,
aby przy jego pomocy możliwe było uzyskanie na płycie obrazu z camera obscura. W
wyniku dalszych prac w 1826 (lub 1827) na płycie cynowej o wymiarach 20,3 × 16,5,
pokrytej asfaltem otrzymał fotografię, przedstawiającą widok z pracowni w Le Gras
na zabudowania gospodarcze i pola (obecnie znajduje się w zbiorach Gernsheim
Collection of the Harry Ransom Humanities Research Center na University of Texas
w Austin). Czas jej naświetlania nie jest znany (szacowany jest na osiem godzin lub
więcej). Technikę, w wyniku której otrzymał to zdjęcie, nazwał heliografią.

background image

Wkrótce z Niépce'em skontaktował się Louis Jacques Daguerre, który słyszał o jego
eksperymentach. Dwaj wynalazcy zawiązali spółkę, ale z powodu śmierci Niépce'a w
1833 dalsze prace nad heliografią (nazwaną później dagerotypią) prowadził sam
Daguerre. Gdy w 1839 wynalazek fotografii został ogłoszony publicznie, to właśnie
Daguerre był nazwany jej wynalazcą, a rola Niépce została zmarginalizowana.

Dagerotypia – proces fotograficzny, w wyniku którego na metalowej płytce
otrzymywany jest unikatowy (bez możliwości jego powielenia) obraz,
zwany dagerotypem. Technika ta została opracowana w latach 20. i 30. XIX wieku
przez Josepha Nicéphore'a Niépce'a i Louisa Jacques'a Daguerre'a (od jego
nazwiska pochodzi jej nazwa), a publicznie ogłoszona w 1839 roku. Był to pierwszy w
historii praktyczny proces fotograficzny, a rok 1839 symbolicznie uważany jest za
początek fotografii. Dagerotypia dominowała do lat 50. XIX, kiedy wyparły ją inne
techniki.

Materiałem światłoczułym była warstewka jodku srebra na powierzchni polerowanej i
posrebrzonej płytki miedzianej. Obraz po naświetleniu wywoływany był w parach
rtęci. Zdjęcie charakteryzowało się dużą rozdzielczością oraz bogactwem
szczegółów. Powierzchnia dagerotypu była bardzo wrażliwa na dotyk, stąd fotografie
umieszczano za szkłem w specjalnym etui. Początkowo czas naświetlania był zbyt
długi, by dagerotypię można było wykorzystać w fotografii ludzi, jednak zmieniło się
to na początku lat 40. dzięki ulepszeniu procesu chemicznego oraz aparatów i
soczewek. Otrzymany obraz był pozytywem, jednak w zależności od kąta patrzenia
oglądający postrzegał go bądź jako pozytyw, bądź jako negatyw. Problem braku
możliwości duplikowania dagerotypu rozwiązywano poprzez zatrudnianie grafików,
którzy na podstawie zdjęć wykonywali ryciny, a te z kolei bez trudności mogły być
powielane i wykorzystywane w prasie bądź książkach.

Początki i ogłoszenie techniki

Początki dagerotypii sięgają badań, prowadzonych przez Josepha Nicéphore'a
Niépce'a nad utrwaleniem obrazu, otrzymywanego w urządzeniu, zwanym camera
obscura
. Pierwsze trwałe zdjęcie – Widok z okna w Le Gras – udało mu się uzyskać
w 1826. Jego czas naświetlania był jednak bardzo długi (według jednych szacunków
mógł on wynosić osiem godzin, według innych nawet kilka dni), a ostrość i czytelność
obrazu niewielkie. O osiągnięciach Niépce'a dowiedział się Daguerre i w 1829
zawiązali spółkę. W 1833 Niépce zmarł i Daguerre był zmuszony samodzielnie
prowadzić dalsze eksperymenty. W 1835 odkrył zjawisko obrazu utajonego, co
pozwoliło mu na znaczne skrócenie czasu naświetlania. W 1838 opatentował
wynalazek i zaoferował do sprzedaży, ale bez sukcesu.

Na początku 1839 wynalezienie dagerotypii, jak nazwano tę metodę, zostało
ogłoszone w biuletynie Francuskiej Akademii Nauk. 19 sierpnia tego roku François
Arago zaprezentował wynalazek na spotkaniu Akademii Nauk i Akademii Sztuk
Pięknych w Paryżu. Arago wymieniał możliwości nowej techniki – mówił na przykład,
że gdyby wcześniej znano fotografię, można by było wykonać zdjęcia podczas

background image

ekspedycji egipskiej i sfotografować miliony hieroglifów, do czego bez użycia
fotografii potrzeba by legionu rysowników i dziesiątek lat

[1]

. Arago ogłosił, że Francja,

która kupiła prawa do tego procesu, bezinteresownie przekazuje go światu (tym
niemniej chcący używać dagerotypii Brytyjczycy musieli wykupić licencję). Na
spotkanie przyszły tłumy, a wynalazek spotkał się z ogromnym zainteresowaniem.

Francuzów, a za nimi kolejne narody, wkrótce opanowała "dagerotypomania", co nie
umknęło uwadze humorzystów, np. Théodore'a Maurisseta, który w grudniu 1839
opublikował grafikę Dagerotypomania. Daguerre wydał publikację Dagerotyp i
diorama, czyli dokładny i autentyczny opis mojej metody oraz aparatów do utrwalania
obrazów z camera obscura i stosowanego przeze mnie w dioramie sposobu
malowania i oświetlania
. W odpowiedzi na duże zainteresowanie i trudności, na jakie
napotykali amatorzy fotografii, Daguerre zorganizował we wrześniu 1839 pokaz
dagerotypii.

W międzyczasie (po ogłoszeniu wynalazku Daguerre'a w biuletynie, ale przed jego
prezentacją przez Arago) inny badacz, Brytyjczyk William Fox Talbot, ogłosił się
wynalazcą fotografii. Metoda Talbota (talbotypia, zwana też kalotypią) różniła się
jednak od metody Daguerre'a zarówno wykorzystywanym procesem chemicznym,
jak i podłożem (talbotypia wykonywana była na papierze, dagerotypia na metalowej
płytce) oraz wyrazem otrzymywanych odbitek (talbotypia była bardziej malarska i
nieostra, dagerotypia cechowała się dużą szczegółowością). Co więcej, w wyniku
procesu Talbota otrzymywano negatyw, z którego można było otrzymać
nieskończenie wiele pozytywów, podczas gdy dagerotyp nie dawał możliwości
multiplikacji odbitki. Choć początkowo to dagerotypia zyskała na popularności,
ostatecznie została wyparta przez procesy negatywowo-pozytywowe.

Popularność

Do połowy lat 40. studia wykonujące dagerotypy istniały już w niemal wszystkich
większych miastach świata

[2]

(przykładowo: w Australii pierwszy tego typu zakład

powstał w 1842 na dachu Royal Hotelu w Sydney; w 1840 w Brazylii 14-letniemu
cesarzowi Piotrowi II tak spodobał się pokaz wędrownego dagerotypisty, że sam
kupił aparat), aczkolwiek im dalej na północ i wschód od Paryża, tym dagerotypia
była mniej popularna. Wpływał na to brak licznej i stabilnej klasy średniej,
występujący np. w Serbii, Litwie, Finlandii, Polsce czy na Węgrzech

[3]

. W efekcie

dagerotypia rozwijała się głównie we Francji, Wielkiej Brytanii i USA.

Dagerotypia szczególnie chętnie była wykorzystywana do tworzenia portretów.
Początkowe niedostatki techniki (aby w 1839 wykonać portret, należało bez ruchu
pozować przez 15 min. w oślepiającym świetle

[4]

) udało się przezwyciężyć na

początku lat 40. dzięki prowadzonym w wielu krajach próbom jej ulepszenia,
polegającym na wprowadzeniu jaśniejszych obiektywów, ulepszonych aparatów itd.
Wykonywaniem fotograficznych portretów zajęli się głównie malarze-miniaturzyści i
pejzażyści, którzy w wyniku pojawienia się dagerotypii stanęli w obliczu
bezrobocia. Charles Baudelaire stwierdził wręcz, że przemysł fotograficzny

background image

dał schronienie niespełnionym malarzom o zbyt małym talencie. Dagerotypia
przyciągała również rzemieślników (np. optyków), takich jak Antoine François
Claudet, który przed fotografowaniem zajmował się produkcją szklanych płyt.

Jak wyglądało wykonywanie dagerotypowanych portretów, można zobaczyć na
jednej z najwcześniejszych fotografii, przedstawiających fotografa przy pracy: jest to
zdjęcie nieznanego autora, ukazującego fotografującego Jabeza Hogga. Model jest
tak usadzony, aby nie mógł się poruszyć podczas naświetlania (głowę ma opartą na
specjalnej podpórce, jedną rękę opartą na poręczy krzesła, drugą ma zaciśniętą) –
stąd tak często sportretowane osoby wyglądają sztywno i ponuro. Z braku możliwości
wykonania zdjęć kolorowych, powszechnie kolorowano dagerotypy ręcznie.

Szczególną popularnością dagerotypia cieszyła się w USA; była tam wykorzystywana
dłużej, niż w innych w krajach. Wiadomości o wynalezieniu dagerotypii trafiły do USA
jeszcze w 1839, a już w 1840 (wcześniej, niż w Europie) powstały pierwsze studia
fotograficzne.

Zainteresowanie dagerotypią skupiało się przede wszystkim na możliwości
wykonywania portretów, ale nie ominęło także innych dziedzin. Dagerotypia szybko
zaczęła być wykorzystywana przez turystów i podróżników. Wykonywano widoki
zabytków, architektury, pejzaży itp. Organizowano także specjalne przedsięwzięcia,
których owocem były publikacje w rodzaju Dagerotypowe wycieczki czyWłochy w
dagerotypach
, zawierające ryciny wykonane na podstawie zdjęć. Szczególnie chętnie
wykonywano fotografie panoramiczne, dokumentujące wygląd miast lub naturalnych
krajobrazów.

Schyłek dagerotypii

W Europie dagerotypia była w powszechnym użyciu do początku lat 50., w USA – do
końca tej dekady. Przez cały ten okres (tj. od 1839 do lat 50.) dagerotypia nie była
jedyną techniką, w jakiej wykonywano fotografie. Posługiwano się także fotografią na
papierze (kalotypią), ale w zakresie fotografii portretowej nie osiągnęła ona takiej
popularności, jak dagerotyp. Wynaleziona w latach 50. mokra płyta (

kolodionowa

)

zaczęła stopniowo wypierać dagerotyp. Była to technika negatywowo-pozytywowa, a
więc pozwalała na otrzymanie wielu odbitek z jednego negatywu.

Dagerotypia w Polsce

Informacja o wynalezieniu dagerotypii natychmiast dotarła do Polski i już w styczniu
1839 podawała ją prasa. W warszawskim "Magazynie powszechnym" pisano:

Niemożemy dłużej odkładać udzielenia czytelnikom naszym wiadomości, o
zadziwiającym swą nadzwyczajnością i prawie bajeczności sięgającym wynalazku, o
którym znakomicie naukom zasłużony Arago, na posiedzeniu paryzkiej akademii
nauk dnia 7 stycznia roku bieżącego doniósł; a który jednak pewna mgła
tajemniczości okrywa. Dla tego mówiąc o nim, niepodobna nam tak dokładnego, ile

background image

byśmy pragnęli, dać objaśnienia, i samem tylko jego opisaniem ograniczyć się
musimy
(pisownia oryginalna).

W prasie pojawiały się kolejne artykuły i dokonywano pierwszych pokazów
sprowadzonych z zagranicy dagerotypów. W październiku tego samego roku
dostępny był w księgarniach podręcznik Daguerre'a, a już w 1840 nabyć można było
jego polskie tłumaczenie, zatytułowane Daguerreotyp i dijorama, czyli dokładny i
autentyczny opis postępowania i aparatu mojego, do utrwalenia obrazów ciemnicy
optycznej (camera obscura), przytem o rodzaju i sposobie malowania i oświetlenia w
Dijoramie
i wydane przez oficynę braci Szerków. W tym samym czasie docierały
także wiadomości o innej ogłoszonej w tym samym roku technice fotograficznej, jaką
była talbotypia (kalotypia).

Nie jest jasne, kto był pierwszym polskim dagerotypistą; badacze wymieniają
m.in. Jędrzeja Radwańskiego i Maurycego Scholtza

[8]

. Pionierem dagerotypii w

Krakowie był profesor Uniwersytetu Jagiellońskiego Stefan Ludwik Kuczyński, który
swoje fotografie pokazał po raz pierwszy jesienią 1840

[9]

. We Lwowie pierwsze

dagerotypy amatorsko wykonywał Jan Gleisner, a zawodowo – Hipolit Augustyn
Chołoniewski

[10]

. Wkrótce zaczęły powstawać pierwsze studia, oferujące możliwość

wykonania dagerotypowanych portretów, a na łamach prasy pojawiły się ogłoszenia
o sprzedaży sprzętu fotograficznego. Mimo dużej liczby wykonywanych fotografii, do
dziś zachowanych jest jedynie ok. 500 dagerotypów i wczesnych talbotypów

[11]

.

Z czasem, podobnie jak w innych krajach, dagerotypia została wyparta przez inne
techniki.

Kalotypia (również znana jako talbotypia od nazwiska wynalazcy, anglika W.H.F.
Talbota) — fotograficzna technika negatywowo-pozytywowa, wynaleziona w 1839 r.

Materiałem światłoczułym był papier nasycony azotanem srebra i — po wysuszeniu
— kąpany w roztworze chlorku lub bromku sodu. Naświetlony negatyw wywołuje się
w roztworze kwasu galusowego i utrwala w roztworze tiosiarczanu sodu. Następnie
należy go wypłukać i wysuszyć. Dla uzyskania przezroczystości podłoża negatyw
woskuje się. Pozytyw uzyskuje się przez kopiowanie na podobnie przygotowanym
materiale światłoczułym. Zawartość srebra w kalotypach pozwala na uzyskanie
odbitek o bogatszej tonacji niż cyjanotypy. Proces ten porzucono, ponieważ na
przełomie XIX i XX w. nie potrafiono skutecznie usuwać pozostałości chemii z
papieru, które z czasem prowadziły do zniszczenia obrazu. Dzisiejsze bezkwasowe
papiery oraz wykorzystanie utrwalacza Hypo pozwalają na uzyskanie stosunkowo
trwałego obrazu. Metoda ta wymaga wykorzystania odbitek drogą stykową. Do
wykonywania odbitek nadają się negatywy kontrastowe.

background image

17. Do drukowania odbitek trzeba ustawić obrazek w trybie : RGB,
CMYK, LAB?

RGB – jeden z modeli przestrzeni barw, opisywanej współrzędnymi RGB. Jego
nazwa powstała ze złożenia pierwszych liter angielskich nazw barw: R –

red (czerwonej), G – green (zielonej) i B – blue (niebieskiej), z których model ten się

składa. Jest to model wynikający z właściwości odbiorczych ludzkiego oka, w którym
wrażenie widzenia dowolnej barwy można wywołać przez zmieszanie w ustalonych
proporcjach trzech wiązek światła o barwie czerwonej, zielonej i niebieskiej
(zob. promieniowanie elektromagnetyczne).

Z połączenia barw RGB w dowolnych kombinacjach ilościowych można otrzymać
szeroki zakres barw pochodnych, np. z połączenia barwy zielonej i czerwonej
powstaje barwa żółta. Do przestrzeni RGB ma zastosowanie synteza addytywna, w
której wartości najniższe oznaczają barwę czarną, najwyższe zaś białą. Model RGB
jest jednak modelem teoretycznym a jego odwzorowanie zależy od urządzenia
(ang. device dependent), co oznacza, że w każdym urządzeniu każda ze składowych
RGB może posiadać nieco inną charakterystykę widmową, a co za tym idzie, każde z
urządzeń może posiadać własny zakres barw możliwych do uzyskania.

Model RGB miał pierwotnie zastosowanie do techniki analogowej, obecnie ma
również do cyfrowej. Jest szeroko wykorzystywany w urządzeniach analizujących
obraz (np. aparaty cyfrowe, skanery) oraz w urządzeniach wyświetlających obraz
(np. telewizory, monitory komputerowe).

Zapis koloru jako RGB często stosuje się w informatyce (np. palety barw w plikach
graficznych, w plikach html). Najczęściej stosowany jest 24-bitowy zapis kolorów (po
8 bitów na każdą z barw składowych), w którym każda z barw jest zapisana przy
pomocy składowych, które przyjmują wartość z zakresu 0-255. W modelu RGB
wartość 0 wszystkich składowych daje kolor czarny, natomiast 255 - kolor biały. W
rzadszych przypadkach stosuje się model, w którym przypada po 12 lub 16 bitów na
każdą ze składowych, co daje dużo większe możliwości przy manipulowaniu
kolorem.

Kolor RGB można obliczyć ze wzoru:

numer koloru = R * 65536 + G * 256 + B

gdzie R, G i B przyjmują wartość od 0 do 255.

background image

Addytywne mieszanie barw

CMYK

– zestaw czterech podstawowych kolorów farb drukarskich stosowanych

powszechnie w druku wielobarwnym w poligrafii i metodach pokrewnych
(atramenty, tonery i inne materiały barwiące
w drukarkach komputerowych, kserokopiarkach itp.). Na zestaw tych kolorów mówi
się również barwy procesowe

[1]

lub kolory triadowe (kolor i barwa w jęz. polskim to

synonimy). CMYK to jednocześnie jedna z przestrzeni barw w pracy z grafiką
komputerową.

Skrót CMYK powstał jako złożenie pierwszych liter angielskich nazw kolorów.
Końcowa litera K może oznaczać albo literę ostatnią słowablack (czarny) (ostatnią,
ponieważ litera B jest skrótem jednego z podstawowych kolorów w analogicznym
skrócie RGB)

[2]

bądź skrót key colour (kolor kluczowy)

[3]

.

Cyjan – odcień niebieskiego, ale trochę bledszy i bardziej spłowiały, można go
określić jako szarobłękitny lub sinoniebieski. Najbardziej podobne kolory
to błękit, szafir i turkus. Nazywanie koloru cyjanowego kolorem "zielononiebieskim"
jest błędem wynikającym z niezrozumienia różnic pomiędzy addytywną i
subtraktywną metodą mieszania barw. W syntezie addytywnej kolor uzyskany w
wyniku połączenia zielonego i niebieskiego.

Magenta – w syntezie addytywnej kolor uzyskany w wyniku połączenia czerwieni i
niebieskiego. Najbardziej podobne kolory to fuksja, karmazyn i amarant.

Yellow – kolor bardzo podobny do żółtego, jednak trochę bledszy od typowej
nasyconej żółcieni. W syntezie addytywnej kolor uzyskany w wyniku połączenia
czerwieni i zielonego.

Black – kolor czarny, jednak o niezbyt głębokiej czerni.

background image

Farby w ww. kolorach nie są określone jednoznacznie, toteż odcienie ich kolorów
różnią się u różnych producentów, szczególnie w różnych regionach świata.

Łączenie barw

Barwy wynikowe w metodzie CMYK otrzymuje się poprzez łączenie barw
podstawowych w proporcjach (dla każdej z nich) od 0% do 100%. Farby CMYK
to substancje barwiące przepuszczające (lub rozpraszające) światło, czyli barwniki,
tak więc łączy się je nie metodą mieszania tylko nakładania warstwami i dlatego
barwa wynikowa może mieć od 0% do 400% koloru (czyli kolorów składowych). Na
kolory budowane wg CMYK należy patrzeć jak na warstwy kolorowej,
przepuszczającej światło folii.

Raster

Druk farbami (atramentami) CMYK odbywa się metodą

rastra

, czyli drukowania

widocznych pod lupą punktów. Raster posiada 100% koloru. Może mieć różny kształt
(raster klasyczny ma kształt koła), różną wielkość. Na danym obszarze druku
stosunek powierzchni pokrytej rastrem danego koloru (np. cyjanu) do całej
powierzchni tego obszaru, wyrażony w procentach, to wartość tonalna. Wartość
tonalna 0% dla cyjanu oznacza powierzchnię nie pokrytą cyjanem, a wartość tonalna
100% (pełny ton) cyjanu oznacza powierzchnię pokrytą cyjanem w całości. Drukując
różnymi wartościami tonalnymi dla cyjanu mamy wrażenie optyczne różnego
natężenia barwy cyjan. W druku CMYK klasyczną kolejnością druku jest Black,
Cyjan, Magenta, Yellow. Kolejne nakładanie się kolorów drukowanych w różnych
wartościach tonalnych sprawia, że można uzyskać szeroką gamę barw. Farby
(atramenty) CMYK są półtransparentne. Kiedy na raster C zostanie położony raster
M to będzie widoczna barwa wypadkowa.

Dokładnych odpowiedników barw C i M nie ma w języku polskim, są to specjalnie
stworzone kolory na użytek przemysłu, które w połączeniu z Y i K umożliwiają
oddawanie jak największej ilości barw. Absolutnie wszystkich istniejących barw nie
uda się uzyskać metodą nakładania na siebie barw CMYK z wielu różnych powodów,
z których najważniejszym jest brak możliwości uzyskania w
praktyce farb teoretycznych o absolutnej czystości koloru. Idealnie czyste kolory C,
M, Y – są barwami dopełniającymi dla trzech barw prostych najsilniej odbieranych
przez receptory ludzkiego oka. Kolor ostatni – K – został dołożony do pozostałych
trzech na praktyczne potrzeby przemysłu poligraficznego. Farby (atramenty) triadowe
używane w Europie nie pokrywają się barwą z używanymi np. w USA. W efekcie z
form drukowych przygotowanych w Europie nie można uzyskać tych samych barw
używając farb (atramentów) CMYK europejskich i amerykańskich.

Kolor czarny

Teoretycznie można uzyskać kolor czarny przez złożenie kolorów C+M+Y, ale w
praktyce tak uzyskany kolor czarny jest kolorem ciemno-brudno-brązowym. Poza tym

background image

ekonomicznie nieuzasadnione byłoby drukowanie czarnego tekstu za pomocą
składania barw CMY. Widoczne jest to na separacji CMY i CMYK: aby w pierwszym
przypadku osiągnąć efekt finalny należy znacznie więcej zużyć farby drukarskiej niż
w przypadku separacji CMYK. Przy zwiększonym zużyciu farb pojawia się też
problem techniczny w procesie druku. Jednym z nich może być utrudnione schnięcie,
a co za tym może iść – odbijanie w stosie, ścieranie się farby, opóźnienia w dalszej
odróbce druku np. cięcie na gilotynach.

CMYK a inne kolory

Mowa o typowych kolorach jest zawsze naznaczona piętnem błędu. Wynika to z
faktu, że każdy człowiek trochę inaczej odbiera kolory z powodów zarówno
osobniczych, jak i bieżącego oświetlenia. Można się jednak pokusić o pewne
uproszczenia.

Biały – pod pojęciem bieli rozumie się brak wszystkich składowych, a w domyśle jest
to biel podłoża. Często dla uzyskania bieli (druk na przezroczystych foliach,
papierach metalizowanych, podłożach nie-białych) używa się bieli kryjącej – poddruk
bielą kryjącą

Żółty – dla uzyskania idealnej pełnej nasyconej żółcieni trzeba dodać do 100% Y
także kilka procent M

Czerwony – teoretycznie jest to 100% kolorów: Y i M – jest to rzeczywiście neutralna
czerwień w tonach średnich

Zielony – teoretycznie jest to 100% kolorów: Y i C – jest to zieleń bez żadnych
odcieni, ale jednak wyraźnie ciemna, dla jej rozjaśnienia trzeba zdjąć trochę więcej C
niż Y

Niebieski – teoretycznie jest to 100% kolorów: C i M – kolor taki ma jednak niewielki
odcień fioletowy, dla uzyskania jaśniejszego i bardziej neutralnego niebieskiego
oprócz zdjęcia obu składowych dodaje się też K

Szary – jest to użycie procentowe K, jak również analogiczne CMY, lub CMYK – przy
czym farby cmykowe nie są idealne (i różnią się u producentów) i dlatego
zamiennikiem K będzie użycie CMY w nierównomiernych proporcjach pomiędzy sobą
i w dodatku w wielu różnych wersjach, aby zrównoważyć tzw. balans szarości – który
zawsze musi być określony konkretnym zastosowaniem; odpowiednikiem 50% K
może być dla CMY np. 46% C, 32% M i 34% Y, a dla CMYK może być to zestaw np.
42% C, 27% M, 29% Y i 10% K – regułą jest założenie, że kolor cyjanowy jest
zabrudzony magentą, a yellow też, tyle że słabiej.

Czarny – użycie tylko koloru K da nam neutralną czerń, jednak spłowiałą i niezbyt
nasyconą. Teoretycznie 100% C, M Y ale bez K też da namczerń, będzie ona nawet
głębsza od samej K ale będzie posiadać dominantę brązową. W praktyce dla
uzyskania pięknej głębokiej czerni stosuje się różne kombinacje wszystkich czterech

background image

kolorów składowych. Można też drukować gotowymi specjalnymi farbami czarnymi
(czerń nie-triadowa, farba dziełowa).

Ogólnie mówiąc – nie istnieje jednolity system definiowania kolorów z natury za
pośrednictwem kolorów CMYK. Można dokonywać tylko ogólnych uproszczeń.
Pewnego zakresu odcieni nie da się w ogóle uzyskać z powodów technologicznych,
a pozostałe kolory muszą być definiowane składowymi CMYK z uwzględnieniem
wielu czynników jak: biel podłoża, wsiąkliwość farby, czy cechy farb konkretnego
producenta, aczkolwiek na świecie mamy kilka standardów – np. w Europie dominuje
Euroscala, w Ameryce SWOP.

Drukowanie farbami procesowymi – problem kolorów

Tak jak za pomocą farb CMY nie można uzyskać koloru czarnego i dlatego powstał
CMYK, tak również nie wszystkie barwy można uzyskać przez "składanie" ze sobą, w
różnych proporcjach, farb procesowych. Problem ten rozwiązuje się w praktyce przez
zastąpienie farb procesowych farbą dającą żądany efekt kolorystyczny. Farba taka
(tzw. spot kolor) jest tworzona najczęściej przez zmieszanie kilku baz pigmentowych
spośród kilkunastu najczęściej wykorzystywanych. Owe kilkanaście pigmentów daje
znacznie większe możliwości tworzenia kolorów niż nakładanie na siebie czterech
barw procesowych. Tworzenie farb o kolorach specjalnych, jak i ich stosowanie, jest
kłopotliwe dla drukarni. Jednym ze sposobów ograniczenia potrzeby stosowania farb
mieszanych jest zwiększenie liczby kolorów procesowych z czterech do sześciu
(model heksachromatyczny), stąd też powstały sześciokolorowe maszyny drukarskie
redukujące konieczność używania farb mieszanych i podnoszące jakość
wydrukowanej barwy przy użyciu jedynie farb procesowych.

W praktyce drukarskiej zazwyczaj drukuje się na maszynach czterokolorowych
farbami triadowymi w następującej kolejności: czarny, turkusowy, magenta, żółty. Od
tej reguły bywają odstępstwa. Zmiana kolejności drukowanych farb wpływa na finalny
efekt barwny.

background image

Subtraktywne mieszanie barw

LAB - ?

background image

18. Na czym polega mokra metoda kolodionowa?

W marcu 1851 roku Frederick Scott Archer i Gustave Le Gray wynaleźli sposób
pozwalający na uczulenie płyty szklanej pokrytej roztworem nitrocelulozy (kolodion),
zwanej też bawełną strzelniczą. W odróżnieniu od kolegi Daguerra (dagerotypia) i
Talbot'a (kolotypia), Archer nie opatentował swojego wynalazku, ale opisał go i
upublicznił, stając sie tym samym "ojcem mokrego kolodionu".

Całość wymyślonego procesu uczulania, naświetlania i wołania odbywala się na
mokro. Fakt ten był zarówno przekleństwem nowej techniki, ale i też stanowił jej
wyjątkowość. Wykonanie zdjęcia składa się z kilku etapów, które zazwyczaj musi
wykonać sam fotograf, co powoduje, że staje się rzemieślnikiem ręcznie
przygotowującym całe zaplecze techniczne i przeprowadza cały cykl fotograficzny. W
wyniku tej pracy, powstaje obraz na płycie szklanej. W zależności od zastosowanego
szkła, uzyskujemy albo negatyw możliwy do skopiowania w postaci odbitki
albuminowej lub solnej (białe szkło), albo obraz pozytywowy odwrócony stronami -
Ambrotyp (czarne szkło). Oczywiście w trakcie rozwoju techniki wymyślano kolejne
podłoża, na których da się wylać kolodion, np.: płytki metalowe - Ferrotypia
(potocznie: Tintype w USA), cerata - Panotypia. Niemniej, tylko szkło gwarantuje cud
kolodionu, a osobiście uważam, że jedynie Ambrotyp oddaje w pełni magię
kolodionu.

Efekty są jednak możliwe do docenienie, jedynie przez osobisty kontakt ze szkłem.
Tylko ogląd Ambrotypu w oryginale ukazuje moc plastyki kamer wielkoformatowych i
charakterystyki plastycznej szkła. Dodatkowym atutem jest zachowanie się emulsji,
które jest nieprzewidywalne i każde różnice w sposobie rozlania emulsji, w długości
uczulania, w sposobie naświetlania są od razu widoczne na zdjęciu. Praktycznie nie
da się powtórzyć idealnie tych samych warunków dla dwóch fotografii. Wyjątkowość
jest więc sercem kolodionisty...

Technika opracowana przez Archera miała dwie zalety, których nie miały
dotychczasowe Dagerotypy. Była prostsza technologicznie i tańsza jednocześnie, a
obraz na białym szkle mógł zostać w końcu prawidłowo odwrócony na odbitce, czego
nie dało zrobić się z Dagerotypem. Wspomniane powyżej różne podłoża stosowane
przez fotografów ewoluowały lub umierały. Z biegiem czasu, Ambrotypia poszła w
niepamięć, a zyskała Ferrotypia. Dlaczego? To proste. Cienką płytkę metalową
można było zapakować w sztywną kopertę i wysłać pocztą. Z płytą szklaną w
formacie 8x10 nie jest już tak łatwo :)

Poniżej znajduje się ogólny opis poszczególnych etapów procesu kolodionowego. Z
racji ogólności tego materiału, pozostanie to jedynie zarys tego, co trzeba zrobić, aby
pierwszy kolodion stał się Waszym dziełem:

W przypadku kolodionu, podłożem w klasycznym rozumieniu było szkło lub płytki
metalowe - Ferrotypia. Stosowano szkło białe, które umożliwiało wykonanie odbitki
oraz szkło czarne (lakierowane z jednej storny lub barwione w masie), na których

background image

uzyskuje się obraz pozytywowy, odwrócony stronami. Materiał przygotowuje się
oczyszczając jego powierzchnie jak najdokładniej za pomocą środków chemicznych

Przygotowaną płytę szklaną powleka się kolodionem, który przylega do podłoża.

Następnie wciąż mokra płytę umieszcza się w roztworze uczulającym, aby uzyskać
"wrażliwość świetlną" emulsji.

Tak uczuloną płytę umieszcza się w kasecie i wykonuje się zdjęcie wcześniej
przygotowanego modela. Z racji niskiej czułości materiału (ocenianej na 2-3 ISO)
czas naświetlania jest bardzo długi. Stosować można światło zastane, sztuczne
ciągłe i błyskowe. Dodatkowo podstawowe ograniczenie, jakim jest konieczność
niedopuszczenia do wyschnięcia emulsji powoduje, że mamy nie więcej niż 5-8 minut
na wykonanie fotografii.

Po naświetleniu, płytę wywołuje się, a następnie utrwala w celu wypłukania zbędnych
i nienaświetlonych części materiału.

Obraz kolodionowy jest bardzo delikatny i podatny na uszkodzenia mechaniczne i
chemiczne utlenianie się. Dlatego, płytę szklaną werniksuje się, aby uzyskać trwałą
powłokę odporną na uszkodzenia i zachować obraz na dziesiątki i setki lat.

19. Ile kopii pozwala uzyskać dagerotypia?

Jedną kopię.

background image

20. Czy fotogramy można uzyskać w photoshopie?

Fotogram (obraz fotograficzny na materiale światłoczułym, otrzymany bez
pośrednictwa aparatu fotograficznego)–. Wyraz stosowany w kilku znaczeniach:

odbitka zdjęcia fotograficznego wykonana w celach artystycznych (jako samoistne
dzieło sztuki), lub w celach wystawienniczych (na potrzeby ekspozycji), reklamowych
itp. – dzieło pracy fotografika

zdjęcie fotogrametryczne – zdjęcie fotograficzne wykonane na
potrzeby fotogrametrii za pomocą specjalnego urządzenia – kamery
fotogrametrycznej (służy do wykonania precyzyjnych pomiarów wielkości i kształtu
badanego obiektu, np. przedmiotu lub terenu)

obraz na materiale światłoczułym, który uzyskano bez użycia specjalnego urządzenia
naświetlającego (aparatu fotograficznego, powiększalnika, naświetlarki itp.), a jedynie
poprzez naświetlenie materiału światłoczułego przysłoniętego różnego rodzaju
przedmiotami półprzezroczystymi lub nieprzezroczystymi (luksografia)

Plasterki cytryny o różnej grubości i łodygi pomidora na celofanie położonym na
papierze fotograficznym. Widać też zmarszczki celofanu i krople soku.

background image

21. Opisz film i rodzaje czułości emulsji.

Błona fotograficzna, film fotograficzny lub tylko film (potocznie: taśma filmowa, klisza)
– jeden z podstawowych rodzajów materiałów światłoczułych. Błona fotograficzna
jest materiałem płaskim, przezroczystym i elastycznym.

Sposoby konfekcjonowania

błona cięta – w postaci arkuszy dopasowanych do kasety aparatu
fotograficznego (najczęściej wielkoformatowego);

błona zwojowa – w postaci wstęgi nawiniętej na rolkę, o szerokości dopasowanej
do aparatów średnioformatowych oraz urządzeń przemysłowych (np. naświetlarek);

film, taśma filmowa – materiał zawierający perforację na jednej lub obu krawędziach
w celu ułatwienia precyzyjnego przesuwu w projektorze, kamerze lub aparacie
fotograficznym (najczęściej małoobrazkowym).

klisza - materiał fotograficzny wykonany na bazie szklanych płytek odpowiedniego
formatu; najczęściej występuje w postaci emulsji halogenosrebrowej naniesionej na
płytkę szklaną; zalety klisz: duża sztywność - brak odkształceń i przemieszczeń w
czasie rejestracji, co jest szczególnie ważne w przypadku materiałów o dużych
wymiarach, a także w systemach rejestracji wymagających najwyższego stopnia
stabilności układu rejestrującego (w tym także materiału).

Budowa

Błona fotograficzna składa się z podłoża z tworzywa sztucznego o wysokiej
przejrzystości, z naniesioną warstwą emulsji światłoczułej. Dawniej jako podłoże,
stosowano celuloid, dziś octan celulozy. W przypadku błon barwoczułych, na podłożu
naniesione jest kilka warstw emulsji, poprzedzielanych odpowiednimi filtrami
barwnymi.

Obróbka

Błonę fotograficzną po naświetleniu należy poddać procesowi obróbki chemicznej,
zwanej wywołaniem. Procesu tego dokonuje się ręcznie w koreksie (pracując z
danym materiałem w ciemni fotograficznej) lub maszynowo w minilabie.

Rodzaje błon fotograficznych

negatyw barwny

negatyw czarno-biały

diapozytyw barwny, przezrocze, slajd

diapozytyw czarno-biały

background image

Parametry błon fotograficznych

balans barwny

czułość

format

rozdzielczość

rozpiętość tonalna

sposób reprodukcji barw

tolerancja naświetlenia

ziarnistość

Producenci

na świecie

Agfa, Efke, FOMA, Forte, Ferrania, Fujifilm, Ilford, Kodak, Konica, Maco, ORWO,

Polaroid

background image

1. Podłoże z tworzywa sztucznego

2. Warstwa przeciwodblaskowa

3. Emulsja czuła na światło czerwone

4. Emulsja czuła na światło zielone

5. Żółty filtr

6. Emulsja czuła na światło niebieskie

7. Filtr ultrafioletowy

8. Warstwa ochronna

9. Światło widzialne.

Czułość - wielkość określająca stopień reagowania filmu fotograficznego na światło.
Znajomość czułości umożliwia określenie prawidłowej ekspozycji.

background image

Skale czułości

Stosowane są następujące skale czułości:

ASA — skala opracowana przez American Standards Association (jedna z dawnych
nazw ANSI). Jest to skala liniowa – dwukrotna zmiana wartości ASA odpowiada
zmianieEV o 1.

DIN – skala opracowana przez Niemiecki Instytut Normalizacji (niem. Deutsches
Institut für Normung). Jest to skala logarytmiczna – zmiana czułości o 3° odpowiada
zmianie EV o 1.

GOST – skala opracowana przez sowiecką instytucję ds. normalizacji; symbol
jest skrótowcem od rosyjskiego terminu norma państwowa (ros. Государственный
стандарт,Gosudarstwiennyj standart). Jest to skala liniowa, zbliżona do skali ASA
(od 1987 praktycznie identyczna).

Przeliczanie jednostek (skala GOST sprzed ujednolicenia z ASA)

ASA

DIN GOST

2

2,5

3

4

5

6

5,5

8

10°

7

10

11°

9

12

12°

11

ASA

DIN GOST

16

13°

14

20

14°

18

25

15°

22

32

16°

28

40

17°

35

50

18°

45

64

19°

56

80

20°

70

100

21°

90

ASA

DIN GOST

125

22°

110

160

23°

140

200

24°

180

250

25°

220

320

26°

280

400

27°

360

500

28°

450

640

29°

560

800

30°

720

ASA

DIN GOST

1000 31°

900

1250 32°

1120

1600 33°

1440

2000 34°

2500 35°

3200 36°

4000 37°

5000 38°

6400 39°

background image

ISO wydała normy ISO 5800:1987, ISO 6:1993 oraz ISO 2240:2003, które m.in.
wprowadziły ujednolicone oznaczenia czułości, praktycznie znormalizowane
oznaczenie zawiera czułość wg ASA oraz DIN (w 1987 skala GOST została
ujednolicona ze skalą ASA).

Według ISO oznaczenie czułości filmu powinno być podane następująco:

<czułość w ASA>/<czułość w DIN>° ISO

Przykład: 200/24° ISO.

Regulacja czułości

W aparatach cyfrowych często istnieje możliwość wybrania czułości ISO. Im wyższa
światłoczułość, tym krótszy czas potrzebny do naświetlenia danej klatki. Można w ten
sposób uniknąć stosowania statywu do wykonywania zdjęć w słabym oświetleniu.
Zbyt wysoka czułość ISO w technice analogowej skutkuje jednak
zwiększonym ziarnem, a w technice cyfrowej zwiększa możliwość powstania na
zdjęciu szumów.

Przed rozpoczęciem wykonywania zdjęć powinniśmy zdecydować, na jak czułym
materiale fotograficznym chcemy pracować. Czułość materiału światłoczułego jest
podawana w odpowiedniej skali. W przypadku matryc aparatów cyfrowych oficjalnie
stosowana skala jest zdefiniowana wg normy ISO 12232:2006. Skala ta jest oparta
na złożonym pomiarze zależności wartości pikseli wysyłanych do pamięci aparatu
przez matrycę od luminancji i czasu działania światła padającego na matrycę. W
przypadku filmów światłoczułych ta sama norma określa wartości czułości w funkcji
pomiaru kolorymetrycznego poprawnie wywołanego negatywu.

Najczęściej spotykane wartości czułości to 25, 50, 100, 200, 400, 800, 1600 i 3200.
Wartości te są relatywne – tzn. nie można ich prosto odnieść do konkretnych,
fizycznych parametrów reakcji na światło, można jednak w przybliżeniu powiedzieć,
że np. film ISO 200 jest dwukrotnie czulszy od filmu ISO 100. Jeśli zatem
wykonujemy zdjęcie z użyciem filmu 200 i w tych samych warunkach z użyciem ISO
100, to, aby uzyskać zbliżone zdjęcie, musimy tak ustawić czas naświetlania i
przysłonę w aparacie, aby na film ISO 200 padało dwa razy mniej światła niż na film
ISO 100.

Jaką czułość użyć w praktyce?

Aby zminimalizować pojawianie się efektu ziarna/szumu, należy starać się stosować
materiał o jak najmniejszej czułości. Oczywiście wybór czułości materiału
podyktowany jest również warunkami oświetleniowymi i charakterem zdjęcia, które
chcemy wykonać – może się więc okazać, że w danej sytuacji musimy zastosować
materiał o większej niż minimalna czułości. W przypadku, gdy chcemy robić zdjęcia
bez lampy błyskowej przy słabym świetle, nie zawsze wystarczy zmniejszyć wartość
przysłony i wydłużyć czas naświetlania. Jeżeli nie mamy statywu, zbytnie wydłużanie

background image

czasu naświetlania przy nieustabilizowanym aparacie fotograficznym spowoduje, że
otrzymamy zdjęcia mniej lub bardziej rozmyte (poruszone). Zobacz rozdział
Ustawianie czasu i przysłony.

Czułość należy potraktować jako parametr, który pozwala zmniejszyć ilość
szumów/ziarna na zdjęciu kosztem wydłużenia czasu naświetlania, bądź kosztem
zastosowania większego otworu przysłony lub też odwrotnie – zmniejszyć czas
naświetlania lub umożliwić zastosowanie mniejszego otworu przysłony – kosztem
zwiększenia szumów/ziarna na zdjęciu.

Jeśli konieczność wyboru większej czułości wynika z niedoboru oświetlenia, należy
rozważyć unieruchomienie aparatu – czy to poprzez użycie statywu, czy też poprzez
ustawienie aparatu na jakimś stabilnym obiekcie – w tym wypadku, aby
wyeliminować możliwość wprowadzenia drgań w momencie wyzwalania migawki,
należy zastosować wężyk spustowy lub pilot lub też wykonać zdjęcie z
wykorzystaniem samowyzwalacza w przypadku nieposiadania ww. urządzeń.

Jeśli jednak na zrobionym zdjęciu pojawiły się szumy czy ziarno, sprawa nie jest
jeszcze przegrana – można spróbować je usunąć bądź zredukować poprzez obróbkę
zdjęcia w programie graficznym. Większość współczesnego oprogramowania
graficznego posiada opcję redukcji szumów. Problemem jest tutaj czasem spadek
ostrości detali w momencie zmniejszania szumów. Aby więc uchronić się przed tym
zjawiskiem, należy stosować redukcję szumów z umiarem, bądź ograniczyć ją do
części zdjęcia, które dużej ilości detali nie potrzebują – np. powierzchnia nieba.

background image

22. Czy jest jakaś zależność pomiędzy balansem bieli a temperaturą
barwową, jeżeli tak to jaka, jeżeli nie to dlaczego?

Patrz pkt 6

23. W jaki sposób i po co używa się szarej karty Kodaka?

Szara karta Kodaka jest kawałkiem powierzchni o takiej barwie, że odbija ona światło
nań padające w ilości osiemnastu procent. Do tego barwa ta jest neutralna (szara) co
wyklucza błędy pomiarowe światłomierzy wynikające z ewentualnych różnic w
uczuleniu spektralnym. Druga strona karty Kodaka jest biała i odbija dokładnie 90%
światła nań padającego. Zastosowanie takiej szarej karty narzuca się samo. Karta
jest przecież powierzchnią o znanym współczynniku odbicia padającego światła-
umieszczając ją więc w takim samym oświetleniu, którym oświetlony jest obiekt,
który chcemy sfotografować możemy łatwo i szybko ustalić ekspozycję nie
przejmując się już właściwościami samego obiektu. Właściwości karty przecież
znamy. Mówiąc bardzo prosto- jeśli kartę umiejscowimy tak, aby była oświetlona tak
samo jako obiekt a ekspozycję dobierzemy tak, aby karta była dobrze naświetlona to
obiekt również będzie dobrze naświetlony. Jest to pomocne rozwiązanie w wielu
sytuacjach, np.: w przypadku obiektu, dla którego nie znamy stopnia odbicia światła
padającego, w sytuacje gdy obiekt połyskuje itp. Szara karta Kodaka (jak każda z
resztą inna jednolita powierzchnia) może również doskonale posłużyć jako narzędzie
do mierzenia kontrastów. Dzięki niej można za pomocą odczytów światłomierza
zbadać kontrast oświetlenia czy też sprawdzić rozkład odbijalności światła na
obiekcie. Jak widać zastosowane szarej karty może być wielorakie.

Mechanizm działania

Zacznijmy od tego, że szarość dobrana na karcie, odbijająca zawsze

dokładnie 18% padającego światła, jest dobrana celowo, choć wartość 18% wynika
bardziej z historii niż z nauki (od czasów A. Adamsa, twórcy systemu strefowego,
przyjmuje się, że 18% to szarość średnia, przeciętna; tymczasem odcień odbijający
18% światła padającego nie leży dokładnie między bielą odbijająca 90% światła a
czernią odbijającego 3% światła- leży w odległości 2,3EV od bieli i około 2,7EV od
czerni). Niemniej, odcień szarej karty Kodaka przyjęty jest umownie za odcień średni,
środkowy a ważne jest to aby po prostu wiedzieć jak na prawdę oddalone są od
niego biel i czerń i o ile oraz to, że szara karta Kodaka ma zawsze 18% (i 90% druga
strona, czyli jest biała).

background image

Drugim elementem układanki (upraszczając) jest fakt, że światłomierz zawsze (o ile
czułość błony jest odpowiednio ustawiona) daje takie parametry ekspozycji po
pomiarze, że mierzona powierzchnia naświetli się tak jakby miała właśnie odcień
środkowy, czyli tak jakby dana powierzchnia pomiaru była właśnie barwy szarej karty
Kodaka

Pomijając zawiłości mamy więc dwa współgrające elementy: światłomierz

proponujący parametry ekspozycji takie, że powierzchnia mierzona oddana zostanie
jako walor średni oraz szarą kartę Kodaka mającą barwę właśnie waloru średniego.

Gdy chcemy więc naświetlić obiekt a przy pomiarze ekspozycji nie martwić się o jego
właściwości, możemy usytuować szarą tak, aby była oświetlona tak samo jak dany
obiekt, dokonać na nią pomiaru i z tak dobranymi parametrami naświetlić klisze- jest
to dość prosta droga do otrzymania prawidłowych naświetleń nawet obiektów o
skomplikowanych właściwościach. Gdy mamy natomiast do czynienia z kontrastem
oświetlenia, który nie zostanie pominięty tak jak kontrast obiektu przy stosowaniu
szarej karty, musimy mieć świadomość, że "odpowiednio" będzie naświetlona ta
część sceny/obiektu, która była oświetlona takim samym światłem jak szara karta w
momencie dokonywania pomiaru (piszę "odpowiednio" a nie odpowiednio, bo myśleć
należy o całym kadrze a nie tylko o części...-przykład z ramki). Czy o czymś powinno
się jeszcze wiedzieć? No niestety jest coś jeszcze.

Problemy w stosowaniu

Stosując szarą kartę Kodaka w praktyce pojawia się często jeszcze jeden problem.

Wszyscy wiedzą po przeczytaniu ogólnych wskazówek dostępnych w wielu
miejscach, że należy kartę oświetlić tak jak obiekt, ale mając ją już w ręku wielu się
zastanawia jak dokładnie ją ułożyć! Stosując szarą np. przy portrecie, podchodzi się
do modelki, kartę przybliża do twarzy.....hmmm, ale pod jakim kątem ją ułożyć?
Przecież ekspozycja bardzo często się różni przy pomiarach na kartę nachyloną pod
różnymi kątami, która jest więc "odpowiednia"? W wielu miejscach można
przeczytać, że szarą kartę należy trzymać podczas pomiaru prostopadle do osi
optycznej obiektywu, w innych opracowaniach natomiast autorzy radzą, aby szarą
kartę wychylić do źródła światła, tak, aby była najjaśniejsza (najbardziej oświetlona)
[np. A. Mroczek pisząc o swoim białym substytucie karty]. Gdzie jest więc prawda?
Czym powodowana jest różnica i jak się powinno prawidłowo wykorzystać szarą
kartę Kodaka? Nie mogąc znaleźć nigdzie wyczerpujących odpowiedzi postanowiłem
samodzielnie przemyśleć sprawę i dokonać parę testów...

Cały problem tkwi w stwierdzeniu, że karta powinna być oświetlona "takim samym

światłem co obiekt"!!! Ale po kolei...:)

Zacznijmy od tego, że jasność powierzchni jaka się zarejestruje na materiale zależy
od ilości światła od niej odbitego a więc od kąta nachylenia danej powierzchni do
źródła światła. Powierzchnie wychylone więc tak do źródła, że więcej jego trafi na
klisze, będą jaśniejsze. Tak samo więc jak takie same (kolor, jasność) powierzchnie

background image

są różne wizualnie bo nachylone pod innymi kątami do źródła światła tak samo szara
karta nachylona pod różnymi kątami zdeterminuje inne parametry ekspozycji. W jaki
sposób więc nachylić kartę? Jeśli karta będzie równoległa z pierwszą powierzchnią to
właśnie ta powierzchnia będzie oddana "realnie", jeśli będzie równoległa z drugą
(jaśniejszą lub to ciemniejsza od pierwszej) to parametry ekspozycji będą inne ale
odpowiednie dla drugiej płaszczyzny aby była oddana "realnie", a pierwsza ciemniej
lub jaśniej w stosunku do niej (realnie w sensie jasności czyli np. odległości w EV od
waloru średniego, o których pisałem w tekście: Pomiar punktowy...). Zagadnienie to
dobrze widać na ilustracji. Obiektyw "widzi" 4 płaszczyzny, znajdujące się pod
różnymi kątami do źródła światła. Każda z płaszczyzn odbija światło w innej ilości,
wydaje się więc, że każda ma inna jasność, mimo, że w rzeczywistości jest to
jednolita bryła. Dla ułatwienia przyjmijmy, że jest ona średnio szara- tak samo jak
szara jest karta Kodaka. Sterując nachyleniem szarej karty przy dokonywaniu
pomiaru, sprawiając, że będzie ona równoległa do wybranej powierzchni uczynimy,
że tak jak w rzeczywistości zarejestrujemy tę właśnie wybraną powierzchnię.
Odnosząc się do ilustracji- gdy karta będzie pionowo, ta przednia płaszczyzna
zarejestruje się "realnie", ta leżąca wyżej będzie jaśniejsza a ta spodnia natomiast
ciemna. Gdy kartę przechylimy jednak tak, aby była równoległa do tej wyższej
płaszczyzny, ta płaszczyzna zostanie zarejestrowana, po dokonaniu pomiaru, tak
samo jak w poprzednim wypadku ta pionowa.

Jak to się ma do praktyki? A tak, że w każdej scenie może znajdować się bardzo

wiele, różnie usytuowanych płaszczyzn, powierzchni i szarą kartę Kodaka należy
stosować świadomie, układając ją odpowiednio- czyli tak, aby otrzymać odczyt dla
wybranej powierzchni, kontrolując przy tym oczywiście inne. Nie ma więc zasady, że
kartę należy zawsze trzymać prostopadle do osi optycznej obiektywu! Gdy
fotografujesz powiedzmy trawnik oświetlony przez słońce znajdujące się z przodu w
stosunku do aparatu, prostopadłe do osi trzymanie karty da zupełnie bezsensowne
parametry! Poprawianie byłoby położyć po prostu kartę na trawie. Skąd więc takie
przekonanie? A stąd, że jest to wygodne i najczęściej dające dobre efekty podejście
przy fotografowaniu brył.

Bryła to twór złożony z określonej ilości płaszczyzn, uogólniając nawet głowę

modelki możemy potraktować jako "bryłę" :). Jeśli więc bryła składa się z jakiejś ilości
płaszczyzn, które są różnie nachylone do źródła światła, nie ma możliwości aby
każda z tych płaszczyzn dała jednakową ekspozycję- i dobrze- takie jaśniejsze i
ciemniejsze powierzchnie sprawiają wrażenie trójwymiarowości. Jak w takim
wypadku nachylić szarą kartę? Tak aby była równoległa do powierzchni, która ma
być w pośrodku- między tą najjaśniejszą i tą najciemniejszą. W przypadku ilustracji
powyżej należałoby ją akurat ustawić prostopadle do osi optycznej- wtedy
powierzchnia powyżej będzie jaśniejsza a ta poniżej ciemniejsza co wywoła efekt
trójwymiarowości. Podobnie będzie z głową modelki. Wyobraźcie sobie, że robicie
portret, oświetlenie boczno-górne, lekko wysunięte do aparatu- jeden policzek i część
czoła będzie oczywiście oświetlona a drugi będzie zacieniony. Gdy szarą kartę w

background image

takiej sytuacji ustawimy prostopadle do twarzy, to środkowa część czoła, jak również
zapewne część twarzy pod oczyma, usta, broda i w ogóle "przód" twarzy
wyeksponowany zostanie "realne", policzek od strony światła będzie jaśniejszy a ten
drugi zostanie oddany w cieniu. Jeśli kartę nachylić by równolegle do oświetlonego
mocniej policzka to on właśnie byłby zarejestrowany "realnie" (a nie tak jasno jak
poprzednio), przód twarzy będzie trochę ciemniejszy a policzek zacieniony stanie się
jeszcze ciemniejszą częścią obrazu...(jeszcze raz podkreślam, że słowo "realnie" jest
wprowadzone sztucznie, aby łatwiej było zobrazować sytuacje).

Podsumowując, ilość światła odbitego od powierzchni zależy od niej samej oraz od

jej nachylenia względem źródła światła. Płaszczyzn w scenie może być bardzo wiele,
a każda może inaczej obijać światło. Bryła to twór złożony z wielu płaszczyzn. W
przypadku płaszczyzna nie dających połysków, odblasków kąt patrzenia obiektywu
czy dokonywania pomiaru nie wpływa na wyniki (na jasność płaszczyzny).

24. Napisz kilka zdań o kompozycji klasycznej.

KOMPOZYCJA – budowa dzieła sztuki, układ określający funkcje jego elementów
w ramach całości i ich wzajemne ustosunkowanie treściowe i formalne (WEP PWN,
tom , str. 765).

W ten dość formalny sposób chciałem zacząć kolejny artykuł dotyczący zasad

kompozycji obrazu w fotografii.
Do napisania tego tekstu skłoniło mnie kilka czynników:

oglądane prace na różnych portalach fotograficznych oraz w albumach domowych,

sugestie użytkowników Portalu fotorecenzja.pl o potrzebie pojawienia się poradnika
dla adeptów fotografii w skondensowanej i czytelnej formie

Pewnie każdy z nas oglądając setki zdjęć zastanawiał się dlaczego na jedne

zdjęcia patrzy się z przyjemnością, a na inne ze znudzeniem. Czasami dwa obrazy
przedstawiające tę samą scenę diametralnie różnie do nas przemawiają. Co jest
tego przyczyną? Myślę, że odpowiedź w znacznym stopniu kryje się w zacytowanej
na samym początku definicji encyklopedycznej. To właśnie sposób przedstawienia
obiektów na fotografii i ich wzajemne uwarunkowania powodują coś co odbieramy
jako ciekawy, przemawiający do nas obraz. Zastanówmy się zatem co należy
uczynić, aby zwiększyć atrakcyjność tworzonych przez nas zdjęć.

W artykule tym będę starał się unikać omawiania zagadnień technicznych.

Skupię się na omówieniu podstawowych zasad kompozycji, przy zastosowaniu

których możemy w prosty sposób uatrakcyjnić nasze prace.

background image

PIONOWO CZY POZIOMO - CZYLI WYBÓR KADRU

Do wyboru mamy trzy rodzaje formatów: prostokąt poziomy, prostokąt pionowy

oraz kwadrat. Tu związek fotografowanego motywu z formatem jest dość prosty.
Motyw posiadający przewagę linii poziomych zamykamy przeważnie w prostokącie
poziomym natomiast motyw z przewaga linii pionowych w prostokącie pionowym.
Ta zdawałoby się banalna reguła sprawdza się w większości zastosowań. Dla
przykładu obraz w którym dominuje długa linia horyzontu, brzegu morza itp. bardzo
dobrze wpisuje się w poziomy kadr. Z kolei wysoki budynek, czy strzelistą wieżę
kościoła znacznie lepiej jest przedstawić w orientacji pionowej. Nie każdy jednak
wie, że kadr poziomy „uspokaja” obraz natomiast kadr pionowy nadaje mu
dynamiki. Warto wziąć to pod uwagę podejmując decyzję o ustawieniu aparatu
przed wykonaniem zdjęcia.

Kadr kwadratowy często nazywamy kadrem neutralnym bądź zrównoważonym.

Nie potęguje on znaczenia linii pionowych czy poziomych. Osobiście używam tego
kadru w kompozycjach centralnych, które w ramach kwadratu nie rażą swoją
„centrycznością”.

Podanych wyżej zasad nie należy brać „na sztywno”. Komponując obraz, nie

możemy czuć się skrępowani tego typu ramami. Łamiąc jednak zasady bądźmy
świadomi, że istnieje niebezpieczeństwo zepsucia zdjęcia, jeśli próba łamania ww.
zasad się nie powiedzie.

JEDNOŚĆ I PROSTOTA

To co fotografujemy, czyli nasz motyw, może być prosty, bądź bardziej

skomplikowany. Jest tylko do spełnienia ważny warunek. MOTYW MUSI BYĆ
JEDEN!!! Jeśli widz oglądający nasza fotografię zawaha się choć na chwilkę –
zepsuliśmy zdjęcie. Zasada jedności motywu nie oznacza, że mamy fotografować
na raz tylko jeden przedmiot. Motywem może być drzewo jak i cały las, człowiek jak
i grupa ludzi, pojedynczy kwiat jak i kwiatowa rabata. Ważne jest jednak to aby
wszystko na zdjęciu uzupełniało się wzajemnie i stanowiło swoistą całość. Jedność
motywu musi być naturalna.

Metody walki z aberacją chromatyczną polegają na takiej konstrukcji obiektywu

aby soczewki użyte do jego budowy miały przeciwne aberacje (tworzy się w
obiektywie tzw. układ achromatyczny). Po zrobieniu zdjęcia obarczonego tą wadą
zostaje nam obróbka za pomocą programów graficznych. Niektóre z nich mają
nawet specjalne filtry do usuwania tej wady.

background image

Posłużę się przykładem z książki T.Cypriana pt. „Fotografia”.

„Jeśli wykonać zdjęcie zapalonej świecy i leżącej obok niej książki, w myśli widza
powstaje skojarzenie: ktoś czytał książkę przy świetle świecy. Skojarzenie nasuwa
na myśl pewną logicznie powiązaną historię i zadowala widza, ale jeśli obok świecy
umieścimy szczoteczkę do zębów, brak będzie możliwości skojarzenia tych obu
przedmiotów i obraz nie osiągnie swego celu.”

Często mawia się, że fotografia lubi izolację. Mówiąc prościej – starajmy się

upraszczać przekaz płynący z naszych obrazów. Początkujący fotograf chciałby
uwiecznić wszystko wokoło. Chciałby mięć możliwie dużo informacji na jednym
zdjęciu. Prowadzi to do bardzo „zabałaganionych” kadrów, na których zamiast
konkretnego przekazu widzimy zlepek przypadkowych obiektów na którym ciężko
skupić uwagę.
Nie należy popadać jednak w skrajności. Oczyszczenie obrazu z całego otoczenia
często prowadzi do uzyskania obrazu wyjałowionego z jakiejkolwiek treści.
Podsumowując – zachowajmy równowagę.

ZŁOTY PODZIAŁ I MAGICZNA TRÓJKA

Oglądając klasyczne obrazy będące uznanymi dziełami sztuki zauważamy, że

rozłożenie obiektów na tych obrazach oparte zostało na pewnych schematach
geometrycznych. Układ ten dobrany jest tak aby najbardziej odpowiadał naszemu
poczuciu piękna.
Jedną z najczęściej stosowanych reguł jest reguła ZŁOTEGO PODZIAŁU. Ilustruje
ją rysunek poniżej.

background image

Jeśli przekątną prostokąta przetniemy dwoma liniami wychodzącymi z

pozostałych dwóch wierzchołków pod katem prostym, to w miejscach przecięć
uzyskamy tzw. dwa złote punkty (mocne punkty obrazu). Umiejscowienie w którymś
z nich głównego motywu fotografii zdecydowania wzmacnia jej oddziaływanie na
widza. Fotografia przedstawiająca swój główny motyw w mocnych punktach
uznawana jest za zbudowana harmonijnie. Zauważmy też, że w przypadku kadru
kwadratowego mocny punkt obrazu wypadnie dokładnie na środku.

Fotografowie ułatwili sobie troszkę życie i mocne punkty wyznaczają za pomocą

tzw. trójpodziału kadru. Przedstawia go rysunek poniżej.

background image

Boki prostokąta zostały podzielone na trzy odcinki i połączone liniami. Miejsca

przecięć wyznaczają mocne punkty obrazu, w których staramy się umieścić główny
motyw zdjęcia.
Dodatkowo linie poziome to dobre miejsce do umieszczenia np. linii horyzontu na
zdjęciu. Jeśli chcemy zwrócić uwagę widza na niebo, linie horyzontu umieszczajmy
na dolnej linii. Jeśli bardziej znacząca okazać się ma dolna część zdjęcia (góry, las,
morskie fale) umieśćmy linie horyzontu na górnej linii. W większości przypadków
zdjęcie zdecydowanie bardziej atrakcyjne niż gdybyśmy przecięli je linią horyzontu
na pół.

Fotografowie wykorzystują często tez przekątną do pokazania linii ukośnych,

wzmagających zazwyczaj dynamikę zdjęcia.

KILKA ZASAD NA ZAKOŃCZENIE

Komponuj obraz tak, aby miał jeden główny punkt – ta część obrazu, która od razu
skupia uwagę widza.

Wszystkie linie i plamy muszą stanowić swoisty rysunek i powinny być
podporządkowane głównemu motywowi zdjęcia.

Unikaj linii, które odcinają część obrazu od jego całości.

Dąż do kompozycji asymetrycznych, a jednocześnie zrównoważonych.

Dąż do prostoty ujęcia (jedność motywu). Każdy zbędny element rozprasza uwagę
widza.

Pamiętaj, że zasady możesz łamać. Ważne jest jednak wtedy, aby było to
świadome działanie, które służy wyeksponowaniu głównego motywu zdjęcia.

Używaj możliwości sterowania głębią ostrości w celu wyeksponowania głównego
motywu zdjęcia.

Nie tłumacz popełnionych błędów chęcią świadomego złamania zasad.

Zanim zaczniesz łamać zasady naucz się dobrze je stosować.


Wyszukiwarka

Podobne podstrony:
podstawy tpl, Technik Farmaceutyczny, Egzaminy, EGZAMINY
fotka zadania na koloII-reczuch, Geodezja, Fotogrametria, Egzamin
Krople do oczu 1, Technik Farmaceutyczny, Egzaminy, standaryzacje
tech bezp pracy, BHP, Technik BHP Egzamin Zawodowy, Techniczne bezpieczeństwo pracy
fotogrametria-karmazyn, Geodezja, Fotogrametria, Egzamin
ZADANIE 4, Technik Mechatronik - Egzamin praktyczny
ZADANIE 5, Technik Mechatronik - Egzamin praktyczny
Test pisemny dla zawodu technik hotelarstwa Egzamin potwierdzający kwalifikacje zawodowe 08
Część pisemna - Przykładowy arkusz 01, TECHNIK FARMACEUTYCZNY, TECHNIK FARMACEUTYCZN
ustawa o uslugach turystycznych, SZKOŁA- TECHNICY★ ############################, HOTELARSTWO #######
miedzynarodowe, Technik Farmaceutyczny, Egzaminy, EGZAMINY
Test pisemny dla zawodu technik hotelarstwa Egzamin potwierdzający kwalifikacje zawodowe cz II c
recepty Marty, Technik Farmaceutyczny, Egzaminy, EGZAMINY
Kopia Praca kontrolna, BHP, Technik BHP Egzamin Zawodowy, Użytkowanie komputera
sciaga z testu, Geodezja, Fotogrametria, Egzamin
1 Przykładowe rozwiązanie zad pratycznego -Technik mechanik, Technik mechanik - egzamin zawodowy, 20
sciaga fota, Geodezja, Fotogrametria, Egzamin

więcej podobnych podstron