Megapiksele, kolory i szumy
-
czyli wszystko o matrycach aparatów
Autor: Marcin Pawlak, Jarosław Zachwieja
Konstruktorzy aparatów cyfrowych prześcigają się w wymyślaniu coraz to bardziej zaawansowanych sensorów i odmiennie działających metod rejestracji kolorowego obrazu. Przedstawiamy, czym różnią się od siebie najczęściej stosowane w aparatach matryce.
Matryca fotograficznego aparatu cyfrowego pozwala na rejestrowanie obrazu rzutowanego przez obiektyw i pełni analogiczną funkcję jak dobrze znany film światłoczuły stosowany od lat w tradycyjnych aparatach analogowych. W najprostszym wydaniu "cyfrowa klisza" jest szachownicą miniaturowych fotoelementów, które dokonują pomiaru natężenia padającego na nie światła. Odczytana wartość zgromadzonych przez fotoelement ładunków elektrycznych zawiera informację o jasności obrazu padającego na matrycę. Niestety same elementy światłoczułe nie potrafią rejestrować informacji o barwie (chrominancji) padającego na nie światła, a jedynie o jego natężeniu (luminancji), dlatego tak uzyskany obraz jest monochromatyczny – tak, jak czarno-biała fotografia.
Prosta matryca światłoczuła nie rejestruje informacji o barwie padającego światła, dlatego uzyskiwany obraz jest monochromatyczny.
Otrzymany obraz ma postać szachownicy punktów (pikseli), odwzorowujących układ elementów światłoczułych sensora. Dokładność tej informacji zależy od powierzchni, z jakiej zbiera światło pojedynczy element – im są one mniejsze i gęściej upakowane, tym dokładniej rejestrowany jest padający na matrycę obraz, a więc większa jest jego rozdzielczość.
Sposób pracy matrycy powoduje, że zapisany obraz ma nieciągłą strukturę – składa się z szachownicy punktów o zmiennej jasności.
Przy odpowiednio dużym zagęszczeniu elementów sensora ludzki wzrok przestaje dostrzegać granice pomiędzy poszczególnymi punktami i zarejestrowaną mozaikę postrzegamy jako ciągły obraz. W przeciwnym wypadku zauważamy pojedyncze elementy składowe obrazu – piksele.
Odpowiednio duża liczba punktów przetwornika powoduje, że fotografowany obraz zawiera wystarczającą liczbę szczegółów.
Wydawać by się mogło zatem, iż zwiększenie liczby elementów światłoczułych jest prostą metodą na poprawę szczegółowości rejestrowanego obrazu. Reklamy cyfrowych aparatów fotograficzny starają się utwierdzić nas w tym przekonaniu. Ba, można nawet przeczytać o "wspaniałych 10 megapikselowych rezultatach" – to cytat z oficjalnych materiałów prasowych znanego japońskiego producenta. Sytuacja nie jest jednak tak prosta.
Po pierwsze, liczba punktów przetwornika jest tylko jednym z elementów wpływających na szczegółowość obrazu. O wiele ważniejszym parametrem jest jakość optyczna zastosowanego obiektywu. Jeśli ten nie będzie dawał odpowiednio ostrego obrazu, nawet największa rozdzielczość matrycy światłoczułej nie "uratuje" straconych detali obrazu.
Po drugie, zagęszczanie elementów światłoczułych i związane z tym zmniejszanie ich rozmiaru niesie ze sobą konkretne, negatywne skutki. Od pola powierzchni elementów przetwornika zależy bowiem zdolność do przetwarzania światła na sygnały elektryczne. Małe elementy słabo sprawują się przy niedostatecznym oświetleniu, a konieczność wzmacniania wytwarzanego przez nie sygnału prowadzi do powstawania zakłóceń obrazu, zwanych potocznie szumami. Szum można co prawda zniwelować na drodze programowej obróbki obrazu, ale – ponownie – kosztem szczegółowości obrazu.
Bezkrytyczne zwiększanie liczby punktów przetwornika (liczonych w megapikselach, gdyż dzisiejsze matryce światłoczułe mają ich miliony) ma również skutki niezwiązane z jakością obrazu. Większa liczba punktów obrazu oznacza większą objętość pliku, w postaci którego zdjęcie zostanie zapisane na karcie pamięci. Dostępne obecnie karty pamięci są już tak tanie, że nie jest to problemem od strony kosztów. Jednak duża objętość zdjęć staje się problemem, gdy chcemy je poddać cyfrowej obróbce bądź po prostu wyświetlić na ekranie telewizora korzystając ze stacjonarnego odtwarzacza DVD/DivX.
Jak widać zatem, więcej nie zawsze znaczy lepiej.
Od szarości do koloru
Jak już wspomnieliśmy, pojedyncze elementy matrycy światłoczułej rejestrują jedynie natężenie padającego na nie światła. W jaki sposób uzyskiwany jest zatem obraz kolorowy? W najpowszechniej spotykanym rozwiązaniu przed każdym elementem przetwornika umieszczony jest filtr barwny w jednym z trzech kolorów podstawowych: czerwonym (R), zielonym (G) lub niebieskim (B). Powoduje on, że dany element rejestruje natężenie światła jedynie o ściśle określonej barwie. Tak otrzymany obraz nie nadaje się co prawda do oglądania, jednak w dalszym ciągu zawiera pełną informację o luminancji dla całej powierzchni zdjęcia, a ponadto wyrywkowe dane o barwie.
Dzięki zastosowaniu filtrów RGB możliwe jest rejestrowane informacji o barwie światła padającego na matrycę.
Można by się jednak zapytać, dlaczego obrazu odczytanego z tak skonstruowanej matrycy nie można bez dalszego przetwarzania oglądać? Zobrazujemy to na przykładzie. Gdy przyjrzymy się dokładniej zdjęciu, zobaczymy na nim drobny wzorek, który jest jeszcze bardziej widoczny na powiększonym fragmencie zdjęcia.
Fragment zdjęcia w postaci nieprzetworzonego zapisu danych z matrycy światłoczułej.
Duże powiększenie wyraźnie pokazuje, iż "surowy" obraz zapisany przez matrycę aparatu nosi wyraźne "ślady" układu filtrów w postaci dość regularnego wzoru.
Na powiększonym fragmencie zdjęcia wyraźnie widać, iż filtry składowych RGB mają różną siłę oddziaływania.
Skąd bierze się ten wzór? Filtry barw podstawowych (czerwony, zielony i niebieski) nałożone na fotoelementy "zabierają" różną ilość światła, a czerwony zatrzymuje go najwięcej. Dlatego nawet do odtworzenia czarno-białego zdjęcia monochromatycznego konieczne jest wyrównanie tych różnic. Nie jest to trudne, gdyż elektronika aparatu "wie", jaką siłę oddziaływania mają poszczególne filtry RGB.
Wracamy więc do pytania skąd zatem biorą się kolory na zdjęciach? Jak się okazuje, zarejestrowane informacje w wystarczają, by poprzez interpolację odtworzyć informację o chrominancji (barwie) danego punktu obrazu. By tego dokonać, procesor aparatu uwzględnia informację o luminancji i barwie punktów sąsiednich. Ponieważ szachownicy fotoelementów nie da się w równomierny sposób podzielić pomiędzy trzy kolory składowe, punktów odpowiedzialnych za rejestrację zieleni (G) jest dwa razy więcej niż dla koloru niebieskiego (B) i czerwonego (R). Taki układ filtrów barwnych opracowany został w roku 1976 przez pracującego w laboratoriach Kodaka naukowca Bryce'a Bayera i stosowany jest w większości aparatów cyfrowych do dziś. Nie jest to jednak jedyny możliwy układ filtrów. Zdarzają się również zestawy filtrów o innej charakterystyce. Przykładowo firma Sony wiele lat temu proponowała sensory z zestawem filtrów RGBE, gdzie połowa z filtrów zielonych zastąpiona została szmaragdowymi (E od ang. emerald). Rozwiązanie to nie przyjęło się jednak na rynku.
Informacja o barwie pojedynczego punktu obrazu jest interpolowana na podstawie danych pochodzących z sąsiednich komórek matrycy
Jak widać, liczba otrzymanych przez interpolację punktów obrazu jest nieco mniejsza, niż liczba elementów światłoczułych, które tworzą matrycę. Stąd bierze się różnica pomiędzy dwiema wartościami, które łatwo można znaleźć w specyfikacji każdego aparatu cyfrowego - mianowicie pomiędzy liczbą punktów (pikseli) przetwornika, a efektywną liczbą punktów obrazu.
Za interpolację informacji o kolorze zazwyczaj odpowiedzialny jest procesor obrazu wbudowany w aparat, tak się dzieje w przypadku rejestrowania zdjęć w formatach JPEG bądź TIFF. Inaczej jest, gdy zdjęcie zapisujemy w postaci plików RAW. Zbiór taki jest surowym zapisem informacji odczytanej przez matrycę aparatu, zaś całe jej przetwarzanie do czytelnej dla nas postaci odbywa się podczas obróbki takiego pliku na komputerze.
Po przekątnej, czyli matryce od Fuji
Przedstawiona na poprzedniej stronie konstrukcja matrycy Bayera, chociaż jest najczęściej spotykaną, nie jest jedyną stosowaną w aparatach cyfrowych. Firma Fujifilm zaproponowała zupełnie nowy sposób rozmieszczenia elementów światłoczułych na powierzchni sensora. W matrycach z serii SuperCCD pojedyncze komórki nie dość, że są ośmiokątne (zamiast tradycyjnych, prostokątnych), to jeszcze rozmieszczone zostały po przekątnej. Według producenta układ taki pozwala lepiej wykorzystać powierzchnię matrycy, dzięki zmniejszeniu odstępów pomiędzy pojedynczymi fotoelementami (ze względów technologicznych nie wypełniają one szczelnie całej powierzchni matrycy – są pomiędzy mini pewne odstępy). Układ zaproponowany przez Fujifilm komplikuje jednak obróbkę obrazu. Ponieważ rozmieszczenie elementów matrycy nie pokrywa się z układem pikseli obrazu, interpolować trzeba również informację o luminancji. Zaletą takiego rozwiązania jest za to możliwość uzyskania obrazu o większej szczegółowości.
Oktagonalny układ elementów matrycy SuperCCD HR pozwala na lepsze wykorzystanie powierzchni sensora.
Firma Fujifilm nie poprzestała jednak na modyfikacji układu elementów. Aby zwiększyć rozpiętość tonalną rejestrowanego obrazu, zastosowała dodatkowe elementy światłoczułe, pracujące z inną (mniejszą) czułością niż główne fotodiody przetwornika. Owe dodatkowe elementy rejestrują "niedoświetlony" obraz, pozwalając w ten sposób uzyskać dokładniejszą informację na temat "przepalonych" obszarów zdjęcia. Jest to rozwiązanie podobne do stosowanego w analogowych błonach o dużej rozpiętości tonalnej, w których również używane były dodatkowe warstwy światłoczułe o obniżonej czułości.
Wprowadzenie dodatkowych, niskoczułych punktów pozwoliło zwiększyć rozpiętość tonalną rejestrowanego obrazu.
Wspomniane zalety sprawiły, że aparaty Fujifilm zdobyły sobie w swoim czasie duże uznanie fotografów mody i specjalizujących się w dokumentowaniu ślubów. W tych zastosowaniach możliwość "uratowania" prześwietlonej jasnej kreacji jest nie do przecenienia.
Dwa razy więcej punktów – czy dwa razy lepiej?
Na targach Photokina 2008 firma Fujifilm zaprezentowała zupełnie nowy typ przetwornika o nazwie Super CCD EXR, który łączy zalety obydwu konstrukcji oraz je udoskonala. Choć nie został zaprezentowany jeszcze żaden model aparatu wyposażony w sensor tego typu producent zapewnia, że nowa konstrukcja już wkrótce udowodni swoją wyższość zarówno nad poprzednikami jak i nad tradycyjnymi matrycami CCD i CMOS opartymi o mozaikę Bayera. Ciekawe czy podobnie jak w przeszłości kolejna lustrzanka Fujifilm będzie bazowała na korpusie profesjonalnej lustrzanki Nikona (tym razem np. na D300)?
Schemat budowy matrycy Super CCD EXR oraz porównanie struktury starych wersji sensorów Super CCD z najnowszą.
W matrycach Super CCD EXR od razu rzuca się w oczy zmiana układu filtrów barwnych odpowiadających za to, które komórki światłoczułe będą odczytywały informacje o konkretnych barwach składowych. Zamiast mozaiki składającej się z punktów niebieskich i czerwonych otaczanych z czterech stron przez zielone, zastosowano budowę "pasiastą". Jak się jednak łatwo przekonać zmiana ta jest tylko pozorna.
Schemat parowania się fotodiod odczytujących barwy składowe o mniejszym i większym natężeniu światła.
Najważniejszą innowacją nowej matrycy jest rozdzielenie układów rejestrujących jaśniejsze i ciemniejsze partie obrazu z jednego układu podwójnego na dwa niezależne, ze sobą sąsiadujące. Dzięki temu informacja o kompletnej barwie ciemniejszych i jaśniejszych partii obrazu odczytywana jest z większej powierzchni przetwornika, niż miało to miejsce w sensorach typu SR. Co ważniejsze, zarówno układy typu A (odpowiadające za jasne partie obrazu) jak i B (odpowiadające za ciemne partie obrazu) są tej samej wielkości, co według producenta ma zwiększyć precyzję odczytu.
Taka zmiana w konstrukcji przetwornika wymaga oczywiście zastosowania zupełnie nowego procesora obrazu, który będzie dokonywał interpolacji (składania) sygnału pochodzącego ze wszystkich trzech składowych barwnych o dwóch różnych natężeniach – co w sumie daje sześć typów danych. Na potrzeby realizacji tego zadania opracowano odpowiedni procesor, którego rezultaty działania mają zapewnić maksymalny możliwy poziom detali w zarejestrowanym obrazie.
Schemat separacji informacji o barwie jaśniejszych i ciemniejszych obszarów zdjęcia.
Co osiągnięto stosując tak nietypową kombinację? Producent twierdzi, że udało się w ten sposób zwiększyć powierzchnię pojedynczych fotoelementów, które mogą w ten sposób przechwytywać więcej światła. Z pewnością pozwoliło to również uprościć proces produkcji, gdyż obecnie wszystkie elementy przetwornika mają te same rozmiary, a "dwuczęściowe" elementy SR miały z pewnością bardziej skomplikowaną budowę. Podobnie jak w matrycy SR, dzięki oktagonalnemu kształtowi, zagęszczono też rozmieszczenie elementów, dzięki czemu "jałowa przestrzeń", która nie przechwytuje informacji o świetle jest mniejsza niż w rozwiązaniach klasycznych. Ma to zarówno pozytywnie wpłynąć na rozpiętość tonalną zdjęć, jak i zmniejszyć poziom szumów rejestrowanych przez aparat.
Na praktyczną weryfikacje tych deklaracji przyjdzie jeszcze poczekać do momentu premiery pierwszych aparatów z opisywaną matrycą. Jedno co na pewno wiadomo, wobec ogromnego postępu jakiego dokonali wytwórcy klasycznych przetworników, nie będzie to zadanie proste.
Foveon – odmienny sposób na kolor
Jeszcze inną drogą niż poprzednicy podążyła firma Foveon, mimo że zaproponowane przez nią rozwiązanie nieco przypomina budowę barwnego filmu światłoczułego. Otóż matryca X3 składa się z trzech warstw sensorów, z których każda odpowiedzialna jest za rejestrację innej składowej RGB. X3 nie zawiera przy tym barwnych filtrów w układzie bayerowskim – funkcję filtrów pełnią półprzezroczyste warstwy sensorów. Rozwiązanie takie powoduje, że dla każdego z punktów sensora odczytywana jest pełna informacja o kolorze, nie jest zatem potrzebna interpolacja informacji o barwie pomiędzy sąsiednimi punktami obrazu. Dzięki temu rejestrowany obraz jest bardzo szczegółowy również w kwestii kolorystyki. Trzeba pamiętać, że interpolacja zawsze powoduje pewną utratę detali. Z kolei minusem są dość wysokie szumy rejestrowane na zdjęciach przy wyższych czułościach matrycy, zwłaszcza w kanale czerwonym. Spowodowane jest to tym, że do najniższej warstwy sensorów, odpowiedzialnej za kolor czerwony dociera najmniej światła (część zabierają wyżej położone warstwy).
Choć rozwiązanie zastosowane przez Foveona gwarantuje bardzo wierne odwzorowanie kolorów, zupełnie nie sprawdza się przy rejestracji słabo oświetlonych scen. Kolejne warstwy sensorów pochłaniają na tyle dużo światła, że do ich grupy znajdującej się na spodzie dociera go już zbyt mało.
Chociaż pomysł Foveona na przetwornik X3 można nazwać bez mała rewolucyjnym, jak na razie jedynie Sigma zdecydowała się na dłuższy mariaż z matrycami tej firmy. Nie obyło się jednak bez problemów. Pierwsze lustrzanki SD9 i SD10 miały poważne problemy z zaszumieniem obrazu przy wyższych czułościach ISO. Problem przetwarzania obrazu pochodzącego z wielowarstwowej matrycy okazał się na tyle poważny, iż na kompaktowy model Sigma DP1 trzeba było czekać kilka lat, a prace nad procesorem obrazu w pewnym momencie rozpoczęto od nowa. Dziś doczekaliśmy się "już" drugiego kompaktu oznaczonego DP2, ale wobec bogactwa oferty konkurencji wciąż są to aparaty niemalże eksperymentalne. Nie zanosi się też, by inni producenci zdecydowali się na stosowanie nowatorskiego przetwornika.
Matryca światłoczuła to nie tylko fotolementy
Matryca to nie tylko szachownica detektorów i filtrów. Ponieważ elementy światłoczułe rejestrują nie tylko widzialną część widma, przed matrycą umieszczony jest filtr podczerwieni. Gdyby nie jego obecność, fotografie byłyby zafałszowane dodatkowym obrazem rejestrowanym w promieniowaniu niewidzialnym. Siła jego oddziaływania różni się w zależności od producenta, co powoduje, że różne aparaty w odmiennym stopniu nadają się do fotografowania w podczerwieni.
Zazwyczaj jest to integralna część matrycy, ale zdarzają się wyjątki. We wspomnianych już lustrzankach Sigmy jest to osobny element zamontowany przed (!) lustrem i szczelnie zamykający dostęp do wnętrza aparatu. Dzięki takiemu umiejscowieniu dodatkowo chroni on komorę lustra przed zanieczyszczeniami. Co ciekawe, w razie potrzeby ów filtr można łatwo zdemontować.
Kolejnym elementem umieszczonym tuż przed matrycą jest optyczny filtr dolnoprzepustowy. Jego zadaniem jest wyeliminowanie z obrazu wzorów o częstotliwości przekraczającej zdolności rozdzielcze matrycy, dzięki czemu eliminowane jest zjawisko mory, czyli barwnych wzorków interferencyjnych.
Przetwornik w okularach
Przetworniki obrazu wytwarzane są w technologiach, które wymagają pewnych odstępów pomiędzy poszczególnymi fotoelementami. Odstępy te wcale nie są znikome co powoduje, iż spora część powierzchni przetwornika stanowi obszar "martwy" i nie uczestniczy aktywnie w rejestracji obrazu. Z tego powodu obecnie powszechnie stosuje się powłokę miniaturowych soczewek nakładanych na powierzchnię matrycy fotoelementów. Zbierane przez nie światło kierowane jest na powierzchnię elementów światłoczułych przetwornika. Odstępy pomiędzy mikrosoczewkami są znacznie mniejsze niż pomiędzy fotoelementami, dlatego aktywna powierzchnia tak skonstruowanego przetwornika optymalnie wykorzystana.
Zastosowanie mikrosoczewek pozwala zwiększyć powierzchnię aktywnie zbierającą światło padające na powierzchnię przetwornika aparatu.
Zastosowanie mikrosoczewek ma też inne zalety. Pojedyncze elementy światłoczułe mają postać miniaturowych "studni" z powierzchnią aktywną znajdująca się na dnie. Powoduje to, iż przy mniejszych kątach padania światła część powierzchni aktywnej fotoelementu znajduje się w "cieniu" rzucanym przez jego ścianę. Jest to przyczyną swoistego winietowania, które zdarza się przy połączeniu obiektywów z dużą tylną soczewką oraz matryc o niewielkiej przekątnej. Zastosowanie mikrosoczewek skupiających światło na "dnie" fotoelementu pozwala w dużej mierze uniknąć tego efektu.
Trzy matryce w jednej, czyli lustra zamiast filtrów
Stosowane dotychczas w aparatach cyfrowych matryce światłoczułe do rozdziału światła na składowe RGB wykorzystują umieszczone nad poszczególnymi fotoelementami filtry pochłaniające światło, dzięki czemu dany fotoelement rejestrował wyłącznie promieniowanie o określonej częstotliwości. Niestety, taki sposób działania powoduje, iż znaczna część padającego na sensor światła była marnowana, nie uczestnicząc w rejestracji obrazu – jest to jedna z przyczyn, dla których na zdjęciach wykonanych w słabych warunkach oświetleniowych możemy zobaczyć charakterystyczne szumy. Ponadto taka budowa matrycy powoduje, że pełna informacja o kolorze dla danego punku uzyskiwana jest poprzez interpolację danych pochodzących z punktów sąsiednich – powoduje to nieunikniony spadek szczegółowości informacji o kolorystyce obrazu. Problemu tego nie rozwiązuje również technologia X3 Foveona, gdyż umieszczone jedna nad drugą warstwy sensorów również pochłaniają znaczne ilości padającego na przetwornik światła.
W droższych modelach kamer wideo stosuje się inny sposób separacji rejestrowanego obrazu na składowe RGB. Otóż obraz rzutowany przez obiektyw przechodzi przez układ tzw. pryzmatów dichroicznych, który rozdziela go na trzy osobne wiązki, odpowiadające składowym RGB, po czym każda z nich kierowana jest na osobną matrycę.
W układach trójprzetwornikowych zestaw pryzmatów dichroicznych rozdziela światło na trzy wiązki kierowane do osobnych matryc światłoczułych, odpowiadających za rejestrację składowych RGB. (fot.: wikimedia)
Zaletą takiego rozwiązania jest fakt, iż strumień światła padającego na pryzmat dichroiczny separowany jest na składowe niemal bez strat, dzięki czemu efektywność takiego układu jest bardzo wysoka. Ze względu na duże rozmiary i stopień komplikacji układu pryzmatu i trzech matryc rozwiązania tego nie stosuje się jednak w aparatach fotograficznych.
W ujawnionym w 2007 roku wniosku patentowym Nikon zaproponował nowatorskie rozwinięcie tego pomysłu, które pozwala zintegrować całość do postaci pojedynczego, płaskiego przetwornika. Pomysł Nikona zakłada umieszczenie pomiędzy powierzchnią matrycy (która przykryta jest maską z otworami – źrenicami), a mikrosoczewką zestawu luster z naniesionymi filtrami dichroicznymi. Ich zadaniem jest kierowanie światła o określonej barwie do osobnych fotoelementów – jednak bez osłabiania pozostałych części spektrum.
Dzięki temu rozwiązaniu każdy z fotoelementów otrzyma tę samą ilość światła, bez żadnych strat, gdyż światło padające na zestaw luster dichroicznych jest separowane na składowe poprzez odbicie promieniowania o określonej częstotliwości, a nie jego pochłanianie. Tym samym duży, pryzmatyczny separator RGB z kamer wideo zostanie przeniesiony w miniaturowej wersji na powierzchnię samej matrycy.
Taka konstrukcja matrycy ma kilka ogromnych zalet. Po pierwsze, pozwala uniknąć interpolacji informacji o kolorze, co powinno podnieść szczegółowość rejestrowanego obrazu. Pod tym względem jest to rozwiązanie konkurencyjne dla technologii X3 Foveona. Po drugie, ograniczenie strat światła na filtrach RGB pozwoli znacznie zmniejszyć szumy rejestrowanego obrazu.
Oryginalny pomysł Nikona, zaprezentowany we wspomnianym wniosku patentowym, ma też ograniczenia. Poważnym jest stosunkowo niewielka powierzchnia fotoelementów, ograniczona ich układem na powierzchni przetwornika, co widać na poniższej ilustracji.
W rozwiązaniu Nikona elementy światłoczułe mają stosunkowo niewielką powierzchnię.
Okazuje
się jednak, iż problem ten można stosunkowo łatwo obejść,
przesuwając poszczególne linie fotoelementów względem siebie.
Dzięki temu, jak widać na poniższej ilustracji, pojedyncze
fotoelementy mogą mieć dużo większą powierzchnię.
Przesunięcie poszczególnych linii przetwornika względem siebie pozwala lepiej zagospodarować powierzchnię sensora.
Inną zaletą takiego układu jest najbardziej efektywne z możliwych ułożenie mikrosoczewek pod względem zagospodarowania powierzchni przetwornika. Układ taki ma też swoje wady – podobnie jak w wypadku "ukośnych" sensorów Fujifilm, bardziej skomplikowana jest interpolacja danych do prostokątnego układu pikseli obrazu. Pomysłodawca tej modyfikacji pomysłu Nikona nie jest nam znany, a natrafiliśmy na nią na fotograficznym blogu Nikon Watch.
Sensor aparatu jak ludzkie oko
Jak już wspominaliśmy wielokrotnie, rejestrowanie informacji o kolorze poprzez filtrację składowych RGB ma zasadniczą wadę - mianowicie powoduje duże straty światła docierającego bezpośrednio do powierzchni sensora. Z tego powodu firmy zajmujące się wytwarzaniem matryc światłoczułych nieustannie poszukują rozwiązań, które mogłyby zastąpić klasyczny, tzw. bayerowski układ filtrów.
Kodak, po pięciu latach badań opracował nową metodę odczytu informacji o kolorze (chrominancji) i luminancji obrazu, która pozwoli za pomocą stosowanych dzisiaj przetworników CCD i CMOS rejestrować obraz o rozpiętości tonalnej od 1 do 2 EV wyższej niż pozwalał na to klasyczny filtr bayerowski (nota bene opracowany w laboratoriach Kodaka).
Projekt filtra barwnego drugiej generacji (Color Filter Array 2.0) opiera się na założeniu, że oprócz rejestrowania natężenia trzech barw podstawowych, matryca będzie również mierzyła natężenie światła nierozszczepionego (luminancję) dla każdego punktu obrazu. Będzie to osiągane przez dodanie do układu trzech filtrów barwnych punktów "czystych" (tzw. panchromatycznych), przepuszczających pełne spektrum światła. Opracowane przez firmę Kodak algorytmy pozwolą na odczytanie z takich punktów matrycy pełniejszych informacji o jasności obrazu niż jest w stanie dostarczyć światło przefiltrowane.
Różnica pomiędzy konstrukcją filtra stosowanego w matrycy bayerowskiej (z lewej) a Color Filter Array 2.0 (z prawej).
Poprzez połączenie ze sobą danych o barwach składowych (chrominancji) z informacjami o luminancji możliwe będzie odtworzenie obrazu o większej rozpiętości tonalnej i mniejszym zaszumieniu. Ta ostatnia cecha pozwoli z kolei zwiększyć czułość ISO aparatów cyfrowych i rejestrować obraz o lepszej jakości przy słabym oświetleniu. Ceną za to jest konieczność opracowania bardziej złożonych algorytmów interpretujących sygnał z przetwornika, a także zmniejszenie się rozdzielczości obrazu zarejestrowanego przez matrycę – każdy piksel musi być bowiem składany nie z czterech, lecz z szesnastu punktów składowych.
W zależności od budowy przetwornika obrazu oraz jego oprogramowania może zostać wykorzystany jeden z kilku wzorów matrycy.
Inżynierowie z laboratoriów Kodaka przewidują, że w zależności od mocy obliczeniowej urządzenia, producenci sprzętu foto i wideo mogą zechcieć wykorzystać różne układy filtrów nowej generacji. Trzy zaprojektowane wzory pozwolą konstruować matryce o wysokiej precyzji obrazu, wymagające silnego procesora oraz takie, których sygnał będzie znacznie łatwiejszy do przetworzenia na gotowy obraz. W każdym z nich została zachowana stała proporcja pikseli: znana z matrycy bayerowskiej dwukrotnie większa liczba komórek zielonych aniżeli czerwonych i niebieskich oraz równa sumie trzech pól barwnych liczba komórek nie filtrujących światła.
Nowa technologia w większym stopniu niż wcześniejsze przypomina sposób rejestrowania obrazu świata przez nasze oczy. Na nowej matrycy znajdują się bowiem punkty rejestrujące światło o słabym natężeniu, za to nie rejestrujące kolorów – są to odpowiedniki pręcików. Z kolei komórki z filtrami RGB odpowiadają działaniu czopków, które pełnią w oku rolę receptorów barw (co ciekawe, wrażliwych na ten sam zestaw barw składowych). Ponadto w ludzkim oku znajduje się znacznie więcej pręcików niż czopków, co odpowiada konstrukcji nowych filtrów Kodaka, w których punkty "czyste" pokrywają połowę powierzchni światłoczułej.
Oprócz różnic w rozmieszczeniu elementów światłoczułych i sposobie rejestrowania informacji o barwie, matryce stosowane w aparatach różnią się też budową samych elementów światłoczułych. Dwie dominujące technologie to CCD i CMOS – ale to już temat na osobny, obszerny artykuł.