background image

 

 

Megapiksele, kolory i szumy 

 -  

czyli wszystko o matrycach aparatów 

Autor: Marcin Pawlak, Jarosław Zachwieja 

 

Konstruktorzy aparatów cyfrowych prześcigają się w wymyślaniu coraz to bar-

dziej  zaawansowanych  sensorów  i  odmiennie  działających  metod  rejestracji 

kolorowego obrazu. Przedstawiamy, czym różnią się od siebie najczęściej sto-

sowane w aparatach matryce. 

 

Matryca  fotograficznego  aparatu  cyfrowego  pozwala  na  rejestrowanie  obrazu  rzuto-

wanego przez obiektyw i pełni analogiczną funkcję jak dobrze znany film światłoczuły 

stosowany  od  lat  w  tradycyjnych  aparatach  analogowych.  W  najprostszym  wydaniu 

"cyfrowa klisz

a" jest szachownicą miniaturowych fotoelementów, które dokonują po-

miaru  natężenia  padającego  na  nie  światła.  Odczytana  wartość  zgromadzonych 

przez fotoelement ładunków elektrycznych zawiera informację o jasności obrazu pa-

dającego na matrycę. Niestety same  elementy światłoczułe  nie  potrafią rejestrować 

informacji o barwie (chrominancji) padającego na nie światła, a jedynie o jego natę-

żeniu  (luminancji),  dlatego  tak  uzyskany  obraz  jest  monochromatyczny  –  tak,  jak 

czarno-

biała fotografia.  

 

 

background image

Prosta  matryca  światłoczuła  nie  rejestruje  informacji  o  barwie  padającego  światła, 

dlatego uzyskiwany obraz jest monochromatyczny. 

 

Otrzymany obraz ma postać szachownicy punktów (pikseli), odwzorowujących układ 

elementów światłoczułych sensora. Dokładność tej informacji zależy od powierzchni, 

z jakiej zbiera światło pojedynczy element – im są one mniejsze i gęściej upakowane, 

tym dokładniej rejestrowany jest padający na matrycę obraz, a więc większa jest jego 

rozdzielczość.  

 

 

 

Sposób pracy matrycy powoduje, że zapisany obraz ma nieciągłą strukturę – składa 

się z szachownicy punktów o zmiennej jasności. 

background image

Przy  odpowiednio  dużym  zagęszczeniu  elementów  sensora  ludzki  wzrok  przestaje 

dostrzegać  granice  pomiędzy  poszczególnymi  punktami  i  zarejestrowaną  mozaikę 

postrzegamy  jako  ciągły  obraz.  W  przeciwnym  wypadku  zauważamy  pojedyncze 

elementy składowe obrazu – piksele.  

 

 

 

Odpowiednio  duża  liczba  punktów  przetwornika  powoduje,  że  fotografowany  obraz 

zawiera wystarczającą liczbę szczegółów. 

 

Wydawać  by  się  mogło  zatem,  iż  zwiększenie  liczby  elementów  światłoczułych  jest 

prostą  metodą  na  poprawę  szczegółowości  rejestrowanego  obrazu.  Reklamy  cyfro-

wych aparatów fotograficzny starają się utwierdzić nas w tym przekonaniu. Ba, moż-

na  nawet  przeczytać  o  "wspaniałych  10  megapikselowych  rezultatach"  –  to  cytat  z 

oficjalnych materiałów prasowych znanego japońskiego producenta. Sytuacja nie jest 

jednak tak prosta. 

 

Po pierwsze, liczba punktów przetwornika jest tylko jednym z elementów wpływają-

cych  na  sz

czegółowość  obrazu.  O  wiele  ważniejszym  parametrem  jest  jakość 

optyczna zastosowanego obiektywu. Jeśli ten nie będzie dawał odpowiednio ostrego 

obrazu,  nawet  największa  rozdzielczość  matrycy  światłoczułej  nie  "uratuje"  straco-

nych detali obrazu. 

background image

Po  drugi

e,  zagęszczanie  elementów  światłoczułych  i  związane  z  tym  zmniejszanie 

ich  rozmiaru  niesie ze sobą konkretne, negatywne skutki.  Od pola powierzchni ele-

mentów przetwornika zależy bowiem zdolność do przetwarzania  światła  na sygnały 

elektryczne. Małe elementy słabo sprawują się przy niedostatecznym oświetleniu, a 

konieczność wzmacniania wytwarzanego przez nie sygnału prowadzi do powstawa-

nia zakłóceń obrazu, zwanych potocznie szumami. Szum można co prawda zniwelo-

wać na drodze programowej obróbki obrazu, ale  – ponownie – kosztem szczegóło-

wości obrazu. 

 

Bezkrytyczne zwiększanie liczby punktów przetwornika (liczonych w megapikselach, 

gdyż dzisiejsze matryce światłoczułe mają ich miliony) ma również skutki niezwiąza-

ne z jakością obrazu. Większa liczba punktów obrazu oznacza większą objętość pli-

ku, w postaci którego zdjęcie zostanie zapisane na karcie pamięci. Dostępne obecnie 

karty pamięci są już tak tanie, że nie jest to problemem od strony kosztów. Jednak 

duża  objętość  zdjęć  staje  się  problemem,  gdy  chcemy  je  poddać  cyfrowej  obróbce 

bądź po prostu wyświetlić na ekranie telewizora korzystając ze stacjonarnego odtwa-

rzacza DVD/DivX. 

 

Jak widać zatem, więcej nie zawsze znaczy lepiej.  

 

Od szarości do koloru 

 

Jak już wspomnieliśmy, pojedyncze elementy matrycy światłoczułej rejestrują jedynie 

natężenie  padającego  na  nie  światła.  W  jaki  sposób  uzyskiwany  jest  zatem  obraz 

kolorowy?  W  najpowszechniej  spotykanym  rozwiązaniu  przed  każdym  elementem 

przetwornika umiesz

czony jest filtr barwny w jednym z trzech kolorów podstawowych: 

czerwonym (R), zielonym (G) lub niebieskim (B). Po

woduje on, że dany element re-

jestruje  natężenie  światła  jedynie  o  ściśle  określonej  barwie.  Tak  otrzymany  obraz 

nie nadaje się co prawda do oglądania, jednak w dalszym ciągu zawiera pełną infor-

mację o luminancji dla całej powierzchni zdjęcia, a ponadto wyrywkowe dane o bar-

wie.  

 

 

 

background image

 

 

Dzięki zastosowaniu filtrów RGB możliwe jest rejestrowane informacji o barwie świa-

tła padającego na matrycę. 

 

Można  by  się  jednak  zapytać,  dlaczego  obrazu  odczytanego  z  tak  skonstruowanej 

matrycy  nie  można  bez  dalszego  przetwarzania  oglądać?  Zobrazujemy  to  na  przy-

kładzie.  Gdy  przyjrzymy  się  dokładniej  zdjęciu,  zobaczymy  na  nim  drobny  wzorek, 

który jest jeszcze bardziej widoczny na powiększonym fragmencie zdjęcia. 

 

 

 

background image

F

ragment zdjęcia w postaci nieprzetworzonego zapisu danych z matrycy światłoczu-

łej. 

 

Duże  powiększenie  wyraźnie  pokazuje,  iż  "surowy"  obraz  zapisany  przez  matrycę 

aparatu nosi wyraźne "ślady" układu filtrów w postaci dość regularnego wzoru. 

 

 

 

Na powiększonym fragmencie zdjęcia wyraźnie widać, iż filtry składowych RGB mają 

różną siłę oddziaływania. 

 

Skąd bierze się ten wzór? Filtry barw podstawowych (czerwony,  zielony i niebieski) 

nałożone na fotoelementy "zabierają" różną ilość światła, a czerwony zatrzymuje go 

najwięcej.  Dlatego  nawet  do  odtworzenia  czarno-białego  zdjęcia  monochromatycz-

nego konieczn

e jest wyrównanie tych różnic. Nie jest to trudne, gdyż elektronika apa-

ratu "wie", jaką siłę oddziaływania mają poszczególne filtry RGB. 

  

background image

Wracamy więc do pytania skąd zatem biorą się kolory na zdjęciach? Jak się okazuje, 

zarejestrowane  informacje  w  wysta

rczają,  by  poprzez  interpolację  odtworzyć  infor-

mację  o  chrominancji  (barwie)  danego  punktu  obrazu.  By  tego  dokonać,  procesor 

aparatu uwzględnia  informację o luminancji i barwie  punktów sąsiednich.  Ponieważ 

szachownicy  fotoelementów  nie  da  się  w  równomierny  sposób  podzielić  pomiędzy 

trzy  kolory  składowe,  punktów  odpowiedzialnych  za  rejestrację  zieleni  (G)  jest  dwa 

razy  więcej  niż  dla  koloru  niebieskiego  (B)  i  czerwonego  (R).  Taki  układ  filtrów 

barwnych opracowany został w roku 1976 przez pracującego w laboratoriach Ko-

daka  naukowca  Bryce'a  Bayera 

i  stosowany  jest  w  większości  aparatów  cyfro-

wych do dziś. Nie jest to jednak jedyny możliwy układ filtrów. Zdarzają się również 

zestawy filtrów o innej charakterystyce. Przykładowo firma Sony wiele lat temu pro-

ponowała sensory z zestawem filtrów RGBE, gdzie połowa z filtrów zielonych zastą-

piona została szmaragdowymi (E od ang. emerald). Rozwiązanie to nie przyjęło się 

jednak na rynku. 

 

 

 

Informacja  o  barwie  pojedynczego  punktu  obrazu  jest  interpolowana  na  podstawie 

danych pochodzących z sąsiednich komórek matrycy 

 

Jak  widać,  liczba  otrzymanych  przez  interpolację  punktów  obrazu  jest  nieco  mniej-

sza, niż liczba elementów światłoczułych, które tworzą matrycę. Stąd bierze się róż-

nica  pomiędzy  dwiema  wartościami,  które  łatwo  można  znaleźć  w  specyfikacji  każ-

dego  aparatu  cyfrowego  - 

mianowicie pomiędzy liczbą punktów (pikseli) przetworni-

ka, a efektywną liczbą punktów obrazu. 

  

background image

Za  interpolację  informacji  o  kolorze  zazwyczaj  odpowiedzialny  jest  procesor  obrazu 

wbudowany  w  aparat,  tak  się  dzieje  w  przypadku  rejestrowania  zdjęć  w  formatach 

JPEG  bądź  TIFF. Inaczej  jest,  gdy  zdjęcie  zapisujemy  w  postaci  plików  RAW

Zbiór  taki  jest  surowym  zapisem  informacji  odczytanej  przez  matrycę  aparatu,  zaś 

całe  jej przetwarzanie  do czytelnej dla  nas postaci odbywa się  podczas obróbki ta-

kiego pliku na komputerze. 

 

Po przekątnej, czyli matryce od Fuji 

 

Przedstawiona na poprzedniej stronie  kon

strukcja matrycy Bayera, chociaż jest naj-

częściej spotykaną, nie jest jedyną stosowaną w aparatach cyfrowych. Firma Fujifilm 

zaproponowała zupełnie nowy sposób rozmieszczenia elementów światłoczułych na 

powierzchni sensora. W matrycach z serii SuperCCD 

pojedyncze komórki nie dość, 

że  są  ośmiokątne  (zamiast  tradycyjnych,  prostokątnych),  to  jeszcze  rozmieszczone 

zostały po przekątnej. Według producenta układ taki pozwala lepiej wykorzystać po-

wierzchnię  matrycy,  dzięki  zmniejszeniu  odstępów  pomiędzy  pojedynczymi  fotoele-

mentami  (ze  względów  technologicznych  nie  wypełniają  one  szczelnie  całej  po-

wierzchni matrycy 

– są pomiędzy mini pewne odstępy). Układ zaproponowany przez 

Fujifilm  komplikuje  jednak  obróbkę  obrazu.  Ponieważ  rozmieszczenie  elementów 

matrycy  nie 

pokrywa  się  z  układem  pikseli  obrazu,  interpolować  trzeba  również  in-

formację o luminancji. Zaletą takiego rozwiązania jest za to możliwość uzyskania ob-

razu o większej szczegółowości.  

 

 

background image

Oktagonalny  układ elementów  matrycy  SuperCCD  HR  pozwala  na  lepsze  wykorzy-

stanie powierzchni sensora. 

 

Firma Fujifilm nie  poprzestała  jednak na modyfikacji układu elementów.  Aby  zwięk-

szyć  rozpiętość  tonalną  rejestrowanego  obrazu,  zastosowała  dodatkowe  elementy 

światłoczułe, pracujące z inną (mniejszą) czułością niż główne fotodiody przetworni-

ka.  Owe  dodatko

we  elementy  rejestrują  "niedoświetlony"  obraz,  pozwalając  w  ten 

sposób uzyskać dokładniejszą informację na temat "przepalonych" obszarów zdjęcia. 

Jest to rozwiązanie podobne do stosowanego w analogowych błonach o dużej roz-

piętości tonalnej, w których również używane były dodatkowe warstwy światłoczułe o 

obniżonej czułości. 

 

 

 

Wprowadzenie  dodatkowych,  niskoczułych  punktów  pozwoliło  zwiększyć  rozpiętość 

tonalną rejestrowanego obrazu. 

 

Wspomniane zalety sprawiły, że aparaty Fujifilm zdobyły sobie w swoim czasie duże 

uznanie  fotografów  mody  i  specjalizujących  się  w  dokumentowaniu  ślubów. W tych 

zastosowaniach  możliwość  "uratowania"  prześwietlonej  jasnej  kreacji  jest  nie  do 

przecenienia. 

 

Dwa razy więcej punktów – czy dwa razy lepiej? 

 

background image

Na targach Photokina 2008 firma Fujifilm zaprezentowała zupełnie nowy typ prze-

twornika  o  nazwie  Super  CCD  EXR

, który łączy zalety obydwu konstrukcji oraz je 

udoskonala. Choć nie został zaprezentowany jeszcze żaden model aparatu wyposa-

żony w sensor tego typu producent zapewnia, że nowa konstrukcja już wkrótce udo-

wodni swoją wyższość zarówno nad poprzednikami jak i nad tradycyjnymi matrycami 

CCD i CMOS opartymi o 

mozaikę Bayera. Ciekawe czy podobnie jak w przeszłości 

kolejna lustrzanka Fuji

film będzie bazowała na korpusie profesjonalnej lustrzanki Ni-

kona (tym razem np. na D300)? 

 

 

 

Schemat budowy matrycy Super CCD EXR oraz porównanie struktury starych wersji 

sensorów Super CCD z najnowszą. 

 

W matrycach Super CCD EXR od razu rzuca się w oczy zmiana układu filtrów barw-

nych odpowiadających za to, które komórki światłoczułe będą odczytywały informacje 

o konkretnych barwach składowych. Zamiast mozaiki składającej się z punktów nie-

bieskich  i  czerwonych  otaczanych  z  czterech  stron  przez  zielone,  zastosowano  bu-

dowę "pasiastą". Jak się jednak łatwo przekonać zmiana ta jest tylko pozorna. 

 

 

 

Schemat parowania się fotodiod odczytujących barwy składowe o mniejszym i więk-

szym natężeniu światła. 

background image

Najważniejszą innowacją nowej matrycy jest rozdzielenie układów rejestrujących ja-

śniejsze i ciemniejsze partie obrazu z jednego układu podwójnego na dwa niezależ-

ne, ze sobą sąsiadujące. Dzięki temu informacja o kompletnej barwie ciemniejszych i 

jaśniejszych partii obrazu odczytywana jest z większej powierzchni przetwornika, niż 

miało to miejsce w sensorach typu SR. Co ważniejsze, zarówno układy typu A (od-

powiadające za jasne partie obrazu) jak i B (odpowiadające za ciemne partie obrazu) 

są tej samej wielkości, co według producenta ma zwiększyć precyzję odczytu. 

 

Taka zmiana w konstrukcji przetwornika wymaga oczywiście zastosowania zupełnie 

nowe

go  procesora  obrazu,  który  będzie  dokonywał  interpolacji  (składania)  sygnału 

pocho

dzącego ze wszystkich trzech składowych barwnych o dwóch różnych natęże-

niach 

–  co  w  sumie  daje  sześć  typów  danych.  Na  potrzeby  realizacji  tego  zadania 

opracowa

no  odpowiedni  procesor,  którego  rezultaty  działania  mają  zapewnić  mak-

symalny możliwy poziom detali w zarejestrowanym obrazie. 

 

 

 

Schemat separacji informacji o barwie jaśniejszych i ciemniejszych obszarów zdjęcia. 

 

Co osiągnięto stosując tak nietypową kombinację? Producent twierdzi, że udało się w 

ten sposób zwiększyć powierzchnię pojedynczych fotoelementów, które mogą w ten 

sposób  przechwytywać  więcej  światła.  Z  pewnością  pozwoliło  to  również  uprościć 

proces produkc

ji, gdyż obecnie wszystkie elementy przetwornika mają te same roz-

miary,  a  "dwuczęściowe"  elementy  SR  miały  z  pewnością  bardziej  skomplikowaną 

budowę. Podobnie jak w matrycy SR, dzięki oktagonalnemu kształtowi, zagęszczono 

też  rozmieszczenie  elementów,  dzięki  czemu  "jałowa  przestrzeń",  która  nie  prze-

background image

chwytuje  informacji o świetle  jest mniejsza niż  w rozwiązaniach klasycznych.  Ma to 

zarówno  pozytywnie  wpłynąć  na  rozpiętość  tonalną  zdjęć,  jak  i  zmniejszyć  poziom 

szumów rejestrowanych przez aparat. 

 

Na  praktyc

zną  weryfikacje  tych  deklaracji  przyjdzie  jeszcze  poczekać  do  momentu 

premiery pierwszych aparatów z opisywaną matrycą. Jedno co na pewno wiadomo, 

wobec  ogromnego  postępu  jakiego  dokonali  wytwórcy  klasycznych  przetworników, 

nie będzie to zadanie proste. 

 

Foveon 

– odmienny sposób na kolor 

 

Jeszcze inną drogą niż poprzednicy podążyła firma Foveon, mimo że zaproponowa-

ne przez nią rozwiązanie nieco przypomina budowę barwnego filmu światłoczułego. 

Otóż  matryca  X3  składa  się  z  trzech  warstw  sensorów,  z  których  każda  odpowie-

dzialna jest za rejestrację innej składowej RGB.  X3 nie  zawiera  przy tym barwnych 

filtrów  w  układzie  bayerowskim  –  funkcję  filtrów  pełnią  półprzezroczyste  warstwy 

sensorów. Rozwiązanie takie powoduje, że dla każdego z punktów sensora odczyty-

wan

a jest pełna informacja o kolorze, nie jest zatem potrzebna interpolacja informacji 

o barwie pomiędzy sąsiednimi punktami obrazu. Dzięki temu rejestrowany obraz jest 

bardzo szczegółowy również w kwestii kolorystyki. Trzeba pamiętać, że interpolacja 

zawsze 

powoduje pewną utratę detali. Z kolei minusem są dość wysokie szumy reje-

strowane  na  zdjęciach  przy  wyższych  czułościach  matrycy,  zwłaszcza  w  kanale 

czerwonym.  Spowodowane  jest  to  tym,  że  do  najniższej  warstwy  sensorów,  odpo-

wiedzialnej za kolor czerwony doc

iera najmniej światła (część zabierają wyżej poło-

żone warstwy). 

 

Choć rozwiązanie zastosowane przez Foveona gwarantuje bardzo wierne odwzoro-

wanie  kolorów,  zupełnie  nie  sprawdza  się  przy  rejestracji  słabo  oświetlonych  scen. 

background image

Kolejne warstwy sensorów pochłaniają na tyle dużo światła, że do ich grupy znajdu-

jącej się na spodzie dociera go już zbyt mało. 

 

Chociaż pomysł Foveona na przetwornik X3 można nazwać bez mała rewolucyjnym, 

jak na razie jedynie Sigma zdecydo

wała się na dłuższy mariaż z matrycami tej firmy. 

Nie obyło się jednak bez problemów. Pierwsze lustrzanki SD9 i SD10 miały poważne 

problemy z zaszumieniem ob

razu przy wyższych czułościach ISO. Problem przetwa-

rzania obrazu pochodzącego z wielowarstwowej matrycy okazał się na tyle poważny, 

iż na kompaktowy model Sigma DP1 trzeba było czekać kilka lat, a prace nad proce-

sorem  obrazu  w  pewnym  momencie  r

ozpoczęto  od  nowa.  Dziś  doczekaliśmy  się 

"już" drugiego kompaktu oznaczonego DP2, ale wobec bogactwa oferty konkurencji 

wciąż są to aparaty niemalże eksperymentalne. Nie zanosi się też, by inni producenci 

zdecydowali się na stosowanie nowatorskiego przetwornika. 

 

Matryca światłoczuła to nie tylko fotolementy 

 

Matryca to nie tylko szachownica detektorów i filtrów. Ponieważ elementy światłoczu-

łe  rejestrują  nie  tylko  widzialną  część  widma,  przed  matrycą  umieszczony  jest  filtr 

podczerwieni. Gdyby nie jego obecność, fotografie byłyby zafałszowane dodatkowym 

obrazem 

rejestrowanym  w  promieniowaniu  niewidzialnym.  Siła  jego  oddziaływania 

różni się w zależności od producenta, co powoduje, że różne aparaty w odmiennym 

stopniu nadają się do fotografowania w podczerwieni. 

 

Zazwyczaj jest to integralna część matrycy, ale zdarzają się wyjątki. We wspomnia-

nych już lustrzankach Sigmy jest to osobny element zamontowany przed (!) lustrem i 

szczelnie  zamykający  dostęp  do  wnętrza  aparatu.  Dzięki  takiemu  umiejscowieniu 

dodatkowo chroni on komorę lustra przed zanieczyszczeniami. Co  ciekawe, w razie 

potrzeby ów filtr można łatwo zdemontować. 

 

 

background image

Kolejnym elementem umieszczonym tuż przed matrycą jest optyczny filtr dolnoprze-

pustowy.  Jego  zadaniem  jest  wyelimino

wanie  z  obrazu  wzorów  o  częstotliwości 

przekraczającej zdolności rozdzielcze matrycy, dzięki czemu eliminowane jest zjawi-

sko mory, czyli barwnych wzorków interferencyjnych. 

 

Przetwornik w okularach 

 

Przetworniki  obrazu  wytwarzane  są  w  technologiach,  które  wymagają  pewnych  od-

stępów pomiędzy poszczególnymi fotoelementami. Odstępy te wcale nie są znikome 

co powoduje, iż spora część powierzchni przetwornika stanowi obszar "martwy" i nie 

uczestniczy aktywnie w rejestracji obrazu. Z tego powodu obecnie powszechnie sto-

suje  się  powłokę  miniaturowych  soczewek  nakładanych  na  powierzchnię  matrycy 

fotoelementów.  Zbierane przez  nie  światło  kierowane  jest  na  powierzchnię  elemen-

tów  światłoczułych  przetwornika.  Odstępy  pomiędzy  mikrosoczewkami  są  znacznie 

mniejsze niż pomiędzy fotoelementami, dlatego aktywna powierzchnia tak skonstru-

owanego przetwornika optymalnie wykorzystana. 

 

 

 

Zastosowanie mikrosoczewek pozwala  zwiększyć powierzchnię  aktywnie  zbierającą 

światło padające na powierzchnię przetwornika aparatu. 

 

Zastosowanie mikrosocze

wek ma też inne zalety. Pojedyncze elementy światłoczułe 

mają postać miniaturowych "studni" z powierzchnią aktywną znajdująca się na dnie. 

Powoduje to, iż przy mniejszych kątach padania światła część powierzchni aktywnej 

fotoelementu znajdu

je się w "cieniu" rzucanym przez jego ścianę. Jest to przyczyną 

swoistego  winieto

wania,  które  zdarza  się  przy  połączeniu  obiektywów  z  dużą  tylną 

background image

soczewką oraz matryc o niewielkiej przekątnej. Zastosowanie mikrosoczewek skupia-

jących światło na "dnie" fotoelementu pozwala w dużej mierze uniknąć tego efektu. 

 

Trzy matryce w jednej, czyli lustra zamiast filtrów 

 

Stosowane  dotychczas  w  apara

tach  cyfrowych  matryce  światłoczułe  do  rozdziału 

światła  na  składowe  RGB  wykorzystują  umieszczone  nad  poszczególnymi  fotoele-

mentami filtry pochłaniające światło, dzięki czemu dany fotoelement rejestrował wy-

łącznie  promieniowanie  o  określonej  częstotliwości.  Niestety,  taki  sposób  działania 

powoduje,  iż  znaczna  część  padającego  na  sensor  światła  była  marnowana,  nie 

uczes

tnicząc w rejestracji obrazu – jest to jedna z przyczyn, dla których na zdjęciach 

wykonanych  w  słabych  warunkach  oświetleniowych  możemy  zobaczyć  charaktery-

styczne szumy. Ponadto taka budowa ma

trycy powoduje, że pełna informacja o kolo-

rze dla danego punku uzyskiwana jest po

przez interpolację danych pochodzących z 

punktów sąsiednich – powoduje to nieunikniony spadek szczegółowości informacji o 

kolorystyce obrazu. Problemu tego nie rozwiązuje również technologia X3 Foveona, 

gdyż umieszczone jedna nad drugą warstwy sensorów również pochłaniają znaczne 

ilości padającego na przetwornik światła. 

 

W droższych modelach kamer wideo stosuje się inny sposób separacji rejestrowane-

go obrazu na składowe RGB. Otóż obraz rzutowany przez obiektyw przechodzi przez 

układ tzw. pryzmatów dichroicznych, który rozdziela go na trzy osobne wiązki, odpo-

wiadające składowym RGB, po czym każda z nich kierowana jest na osobną matry-

cę. 

 

 

background image

W układach trójprzetwornikowych zestaw pryzmatów dichroicznych rozdziela światło 

na  trzy  wiązki  kierowane  do  osobnych  matryc  światłoczułych,  odpowiadających  za 

rejestrację składowych RGB. (fot.: wikimedia) 

 

Zaletą  takiego  rozwiązania  jest  fakt,  iż  strumień  światła  padającego  na  pryzmat  di-

chroiczny separowany jest na składowe niemal bez strat, dzięki czemu efektywność 

takiego układu jest bardzo wysoka. Ze względu na duże rozmiary i stopień komplika-

cji układu pryzmatu i trzech matryc rozwiązania tego nie stosuje się jednak w apara-

tach fotograficznych. 

 

W ujawnionym  w  2007  roku  wniosku  patentowym  Nikon  zaproponował  nowatorskie 

rozwinięcie tego pomysłu, które pozwala zintegrować całość do postaci pojedyncze-

go,  p

łaskiego  przetwornika.  Pomysł  Nikona  zakłada  umieszczenie  pomiędzy  po-

wierzchnią matrycy (która przykryta jest maską z otworami  – źrenicami), a mikroso-

czewką zestawu luster z naniesionymi filtrami dichroicznymi. Ich zadaniem jest kie-

rowanie światła o określonej barwie do osobnych fotoelementów – jednak bez osła-

biania pozostałych części spektrum. 

 

 

 

Dzięki temu rozwiązaniu każdy z fotoelementów otrzyma tę samą ilość światła, bez 

żadnych strat, gdyż światło padające na zestaw luster dichroicznych jest separowane 

na składowe poprzez odbicie promieniowania o określonej częstotliwości, a nie jego 

pochłanianie. Tym samym duży, pryzmatyczny separator RGB z kamer wideo zosta-

nie przeniesiony w miniaturowej wersji na po

wierzchnię samej matrycy. 

background image

Taka konstrukcja matrycy ma kilka ogromnych zalet. Po pierwsze, pozwala uniknąć 

interpolacji informacji o kolorze, 

co powinno podnieść szczegółowość rejestrowanego 

obrazu.  Pod  tym  względem  jest  to  rozwiązanie  konkurencyjne  dla  technologii  X3 

Foveona.  Po  drugie,  ograniczenie  strat  światła  na  filtrach  RGB  pozwoli  znacznie 

zmniejszyć szumy rejestrowanego obrazu. 

 

Orygin

alny pomysł Nikona, zaprezentowany we wspomnianym wniosku patentowym, 

ma  też  ograniczenia.  Poważnym  jest  stosunkowo  niewielka  powierzchnia  fotoele-

mentów, ograniczona ich układem na powierzchni przetwornika, co widać na poniż-

szej ilustracji. 

 

 

 

W rozwiązaniu Nikona elementy światłoczułe mają stosunkowo niewielką powierzch-

nię. 

 

Okazuje  się  jednak,  iż  problem  ten  można  stosunkowo  łatwo  obejść,  przesuwając 

poszczególne linie fotoelementów względem siebie. Dzięki temu, jak widać na poniż-

szej  ilustracji,  pojedyncze  fotoelementy  mogą  mieć  dużo  większą  powierzchnię.  

 

 

background image

 

 

Przesunięcie  poszczególnych  linii  przetwornika  względem  siebie  pozwala  lepiej  za-

gospodarować powierzchnię sensora. 

 

Inną zaletą takiego układu jest najbardziej efektywne z możliwych ułożenie mikroso-

czewek  pod  względem  zagospodarowania  powierzchni  przetwornika.  Układ  taki ma 

też  swoje  wady  –  podobnie  jak  w  wypadku  "ukośnych"  sensorów  Fujifilm,  bardziej 

skomplikowana  jest 

interpolacja  danych  do  prostokątnego  układu  pikseli  obrazu. 

Pomysłodawca tej modyfikacji pomysłu Nikona nie jest nam znany, a natrafiliśmy na 

nią na fotograficznym blogu Nikon Watch. 

 

Sensor aparatu jak ludzkie oko 

 

Jak już wspominaliśmy wielokrotnie, rejestrowanie informacji o kolorze poprzez filtra-

cję składowych RGB ma zasadniczą wadę - mianowicie powoduje duże straty światła 

docierającego bezpośrednio do powierzchni sensora. Z tego powodu firmy zajmujące 

się wytwarzaniem matryc światłoczułych nieustannie poszukują rozwiązań, które mo-

głyby zastąpić klasyczny, tzw. bayerowski układ filtrów. 

 

background image

Kodak, po pięciu latach badań opracował nową metodę odczytu informacji o kolorze 

(chrominancji)  i  luminancji  ob

razu,  która  pozwoli  za  pomocą  stosowanych  dzisiaj 

przetworników CCD i CMOS rejestrować obraz o rozpiętości tonalnej od 1 do 2 EV 

wyższej niż pozwalał na to klasyczny filtr bayerowski (nota bene opracowany w labo-

ratoriach Kodaka). 

 

Projekt filtra barwnego drugiej generacji (Color Filter Array 2.0) opiera się na założe-

niu,  że  oprócz  rejestrowania  natężenia  trzech  barw  podstawowych,  matryca  będzie 

r

ównież  mierzyła  natężenie  światła  nierozszczepionego  (luminancję)  dla  każdego 

punktu obrazu. Będzie to osiągane przez dodanie do układu trzech filtrów barwnych 

punktów  "czystych"  (tzw.  panchromatycznych),  przepuszczających  pełne  spektrum 

światła.  Opracowane  przez  firmę  Kodak  algorytmy  pozwolą  na  odczytanie  z  takich 

punktów matrycy pełniejszych informacji o jasności obrazu niż jest w stanie  dostar-

czyć światło przefiltrowane. 

 

 

 

Różnica pomiędzy konstrukcją filtra stosowanego w matrycy bayerowskiej (z lewej) a 

Color Filter Array 2.0 (z prawej). 

 

Poprzez  połączenie  ze  sobą  danych  o  barwach  składowych  (chrominancji)  z  infor-

macjami o luminancji możliwe będzie odtworzenie obrazu o większej rozpiętości to-

nalnej i mniejszym zaszumieniu. Ta ostatnia cecha pozwoli z kolei zwiększyć czułość 

ISO aparatów cyfrowych i rejestrować obraz o lepszej jakości przy słabym oświetle-

niu. Ceną za to jest konieczność opracowania bardziej złożonych algorytmów inter-

pretujących  sygnał  z  przetwornika,  a  także  zmniejszenie  się  rozdzielczości  obrazu 

zarejestrowanego  przez  matrycę  –  każdy  piksel  musi  być  bowiem  składany  nie  z 

czterech, lecz z szesnastu punktów składowych. 

background image

 

 

W zależności od budowy przetwornika obrazu oraz jego oprogramowania może zo-

stać wykorzystany jeden z kilku wzorów matrycy. 

 

Inżynierowie  z  laboratoriów  Kodaka  przewidują,  że  w  zależności  od  mocy  oblicze-

niowej urządzenia, producenci sprzętu foto i wideo mogą zechcieć wykorzystać róż-

ne układy filtrów nowej generacji. Trzy zaprojektowane wzory pozwolą konstruować 

matryce  o  wysokie

j  precyzji  obrazu,  wymagające  silnego  procesora  oraz  takie,  któ-

rych sygnał będzie znacznie łatwiejszy do przetworzenia na gotowy obraz. W każdym 

z nich została zachowana stała proporcja pikseli: znana z matrycy bayerowskiej dwu-

krotnie większa liczba komórek zielonych aniżeli czerwonych i niebieskich oraz rów-

na sumie trzech pól barwnych liczba komórek nie filtrujących światła. 

 

Nowa  technolo

gia  w  większym  stopniu  niż  wcześniejsze  przypomina  sposób  reje-

strowania  obrazu świata przez nasze oczy.  Na  nowej matrycy  znajdują  się  bowiem 

punkty rejestrujące światło o słabym natężeniu, za to nie rejestrujące kolorów – są to 

odpowiedniki  pręcików.  Z  kolei  komórki  z  filtrami  RGB  odpowiadają  działaniu  czop-

ków,  które  pełnią  w  oku  rolę  receptorów  barw  (co  ciekawe,  wrażliwych  na  ten  sam 

zestaw barw składowych). Ponadto w ludzkim oku znajduje się znacznie więcej prę-

cików niż czopków, co odpowiada konstrukcji nowych filtrów Kodaka, w których punk-

ty "czyste" pokrywa

ją połowę powierzchni światłoczułej. 

 

Oprócz różnic w rozmieszczeniu elementów światłoczułych i sposobie rejestrowania 

informacji o barwie, ma

tryce stosowane w aparatach różnią się też budową samych 

elementów światłoczułych. Dwie dominujące technologie to CCD i CMOS – ale to już 

temat na osobny, ob

szerny artykuł.