bio rozpozn twarzy-1, analiza obrazu


Inżynieria Obrazu

Damian Gajewski, MiEPU 2004/2005

Temat: Rozpoznawanie osób na podstawie geometrii kształtu twarzy - przegląd metod

1. Wstęp

Systemy biometryczne można podzielić na dwie kategorie - fizjologiczne i behawioralne. Systemy fizjologiczne badają cechy różnych elementów ciała, zaś behawioralne - charakterystykę ruchu czy głosu osób. Rozpoznawanie osób na podstawie geometrii kształtu twarzy należy do rodziny systemów fizjologicznych. Inne systemy fizjologiczne bazują na weryfikacji na podstawie wzoru tęczówki oka, odcisku palca, geometrii dłoni, ucha.

Cechy biologiczne funkcjonują jako środki identyfikacji tożsamości - np. fotografia, podpis itp., od czasów średniowiecza. Chińczycy używali odcisków kciuka do pieczętowania dokumentów już ponad 2000 lat temu. Fotografie znalazły zastosowanie w paszportach na początku ubiegłego wieku.

Wybór optymalnej technologii biometrycznej zależy przede wszystkim od jej zastosowania.

Spośród szerzej rozpowszechnionych metod identyfikacja na podstawie tęczówki oka uznawana jest na najbardziej pewną. Wymaga jednak wysokiej klasy kamery / zespołu kamer, odpowiedniego oświetlenia lub użycia promieniowania podczerwonego, co wiąże się z obawami użytkowników o wpływ urządzenia na ich stan zdrowia. Najbardziej rozpowszechniona jest identyfikacja na podstawie odcisku palca - czujniki i oprogramowanie są spotykane w komercyjnym sprzęcie, np. w klawiaturach, telefonach komórkowych z najwyższej półki. Metoda wymaga jednak kontaktu ciała z czujnikiem, powstają trudności z zastosowaniem tej metody w pewnych środowiskach (sygnalizowano już problemy z liniami papilarnymi chirurgów, którzy szorując intensywnie swoje ręce przed zabiegami chirurgicznymi rozmazywali relief linii papilarnych, co skutkowało trudnościami w ich identyfikacji). Badanie geometrycznych cech ludzkiej dłoni jest metodą wygodniejszą, ale wyraźnie mniej pewną. Najczęściej używa się jej jako metody identyfikacji przy dostępie do mniej ważnych pomieszczeń - duża popularność w budynkach rządowych w USA.

Przedmiotem niniejszego referatu jest przegląd metod bazujących na analizie twarzy jako całości lub jej fragmentach (oczy, nos, usta) i ich wzajemnych zależności.

2. Fizjonomia kluczem

Badania wskazują, że twarz, z którą się urodziliśmy pozostaje identyfikowalna przez resztę życia. Zależności pomiędzy poszczególnymi częściami twarzy, kontury pozostają względnie stabilne od okresu dzieciństwa. Rozpoznawanie na podstawie geometrii kształtu twarzy jest metodą najmniej inwazyjną - nie wymaga kontaktu ciała z czujnikiem, tolerancja ustawienia głowy względem kamery pozwala na identyfikację po minimalnej liczbie prób. Metoda nie wymaga zaawansowanego sprzętu - wystarcza standardowa kamera przemysłowa CCTV lub nawet kamera typu webcam podłączona do komputera - resztę załatwia oprogramowanie. Jest to metoda komfortowa ze względu na psychikę użytkowników; dla osób nie obeznanych z techniką najlepiej stosować systemy jak najbardziej naturalne w obsłudze. Zalety metody okupione są mniejszą pewnością i niezawodnością (skuteczność oceniana na 85 %). Dla porównania skuteczność analizy linii papilarnych jest oceniana na 99%. Dodatkowo powstaje dyskusja o granice prywatności przy identyfikacji - tworzenie bazy i rozpoznawanie osób na podstawie geometrii kształtu twarzy może odbywać się bez wiedzy i współpracy ludzi poddawanych identyfikacji.

Zasada działania, podobnie jak w przypadku daktyloskopii, została zapożyczona z kryminalistyki i wykorzystuje pomiary antropometryczne twarzy. Pewną wadą tego rozwiązania są kłopoty z rozróżnianiem bliźniaków jednojajowych. Kłopoty mogą też sprawiać zmiany wyglądu przychodzące z wiekiem.

Do weryfikacji tożsamości wykorzystać można również analizę ruchu ust - może ona być uzupełnieniem rozpoznawania rysów twarzy.

Pojawia się pytanie o próby oszustwa i odporność systemu identyfikacji na podstawie kształtu twarzy na możliwość użycia zdjęcia. Bardziej zaawansowane systemy używają kamer pracujących w podczerwieni, badając rozkład temperatur na twarzy osoby - termiczna analiza twarzy pozwala tworzyć termogramy i zwiększa bezpieczeństwo metody. Należy jednak pamiętać, że połączenie wysokiej pewności i niezawodności z łatwością użycia skutkuje wysokimi cenami systemu, co przy wykorzystaniu kilkudziesięciu terminali ma duże znaczenie.

3. Trochę historii

Początkowo systemy weryfikacji twarzy działały poprawnie wyłącznie w tzw. środowisku kontrolowanym, czyli posiadającym jednolite tło, łatwo odróżniające się od głowy, a fotografie były robione zawsze dla identycznej orientacji i odległości głowy od kamery. Pierwsze algorytmy wrażliwe były (w większym stopniu niż obecnie) na zmiany wyglądu twarzy spowodowane okularami, zmianą fryzury, obecnością wąsów, brody, itp. Dzisiejsze algorytmy są w większości przypadków inwariantne w stosunku do przytoczonych zakłóceń (orientacja głowy objęta jest pewną tolerancją), a głównym kierunkiem ich rozwoju jest czas przetwarzania, aby maksymalnie skrócić czas identyfikacji osoby w dużych bazach danych.

4. Przegląd metod

Wszystkie systemy biometryczne zapisują w swojej pamięci określony wzór wybranej cechy i przechowują go jako plik lub szablon. Następnie, podczas procesu weryfikacji, system próbuje dopasować określoną cechę użytkownika do zapisanych wzorców. W procesie weryfikacji budowany jest matematyczny wzorzec twarzy, który jest następnie porównywany ze wzorcem zapisanym w trakcie rejestracji.

Pierwszym i podstawowym elementem współczesnych metod weryfikacji twarzy jest detekcja i lokalizacja twarzy w obrazie otrzymywanym z kamery. Wycinek obrazu zawierający zlokalizowana twarz jest przekazywany do algorytmu weryfikacji / identyfikacji. Pierwsza grupa metod weryfikujących obraz twarzy traktuje obraz jako wektor jednakowo istotnych elementów (tu: pikseli). Następnie za pomocą znanych narzędzi statystycznych eliminowane są elementy silnie skorelowane, prowadząc do zestawu słabo zależnych liczb tworzących wektor cech twarzy. M. Turk i A. Pentland zaproponowali w roku 1991 tzw. metodę twarzy własnych (ang. eigenfaces), bazującą na transformacie Karhunena-Loevego (częściej określanej w literaturze mianem analizy składowej głównej - PCA, ang. Principal Component Analysis), która obecnie jest niemalże standardem w systemach weryfikacji twarzy. Metoda ta doczekała się licznych modyfikacji zwiększających jej niezawodność (np. metoda fisherfaces, analiza składowych niezależnych).

Rysunek 1 przedstawia cztery kroki algorytmu detekcji twarzy w systemie budowanym w NASK i PW [2]. Algorytm ten oparty jest na powszechnie wykorzystywanej technice transformaty Hough'a.

0x01 graphic

Odmienną grupą metod weryfikujących obraz twarzy są metody wyznaczające punkty charakterystyczne twarzy, tj. oczy, nos, kąciki ust i wyznaczające geometryczne zależności

pomiędzy tymi elementami. Najbardziej rozpowszechnioną metodą jest tzw. metoda dopasowania grafu (EGM, ang. Elastic Graph Matching) pierwotnie zaproponowana przez M. Lades et al. w roku 1993, wraz z późniejszymi modyfikacjami. Metody te badają stopień dopasowania grafu rozpiętego na automatycznie wyznaczonych punktach charakterystycznych twarzy. Metody te są odporne na kilkunastostopniowe zmiany orientacji głowy i do pewnego stopnia na zmienne oświetlenie. Metody oparte wyłącznie na geometrycznych cechach obiektów obrazu zawodzą, gdy w obrazie pojawiają się inne kształty, na które wrażliwy jest algorytm.

Ciekawym pomysłem, wymagającej niestety specjalistycznego sprzętu, jest podejście oparte na detekcji położenia oczu [3], z wykorzystaniem efektu czerwonych oczu, tak niepożądanego w normalnej fotografii. Pierwszy półobraz (dotyczy wybierania międzyliniowego standard w telewizji przemysłowej) wykonywany jest przy oświetleniu interesującego obiektu światłem znajdującym się w osi obiektywu, zaś drugi półobraz światłem nie wspóliniowym. Porównując ona półobrazy największe różnice dostrzec można w okolicy źrenic oczu, gdzie dla pierwszego półobrazu widać będzie wyraźne odbicie światła od dna oka, a w drugim takiego efektu nie dostrzeżemy. Metoda taka lokalizuje również twarz obróconą o pewien kąt, co jest najpoważniejszym problemem większości algorytmów. Rysunek 2 obrazuje skuteczność detekcji opartej na tej metodzie.

0x01 graphic
rys. 2

Do rozpoznawania twarzy na obrazach cyfrowych wykorzystuje się różnorodne metody, znane także z innych zastosowań takich jak: sieci neuronowe, uczenie maszynowe, dopasowywanie szablonów (ang. template matching), wspomniana transformata Hough'a czy wreszcie analiza kolorów. Jednak praktycznie najważniejsze znaczenie mają metody wykorzystujące sieci neuronowe oraz analizę kolorów bazujące na informacji o wartościach kolorów punktów na obrazie i barwie ludzkiej skóry w komputerowym modelu barw oraz sieciach neuronowych.

Przyjrzyjmy się bliżej pierwszemu etapowi identyfikacji - detekcji twarzy. Rein-Lien Hsu [4] zastosował wieloetapowy algorytm detekcji uzyskując na zbiorze 382 zdjęć (także grupowych, 1.72 twarzy na obrazek) skuteczność detekcji 80.35% oraz 10.41% błędnych detekcji. Kolejne etapy algorytmu:

- kompensacja światła na obrazie wejściowym w celu uniezależnienia wpływu oświetlenia na kolor ludzkiej skóry,

- detekcja obszarów skóry przy użyciu modelu barw YCbCr,

- weryfikacja obszarów skóry m.in. poprzez lokalizację linii oczu oraz ust (bazując na fakcie, że barwę pikseli w okolicach oczu cechują wysokie wartości składowej Cb oraz niskie składowej Cr, wysokie wartości Cr w okolicach ust oraz, że okolice oczu zawierają piksele zarówno o niskiej jak i wysokiej jasności - składowa Y),

- generacja elipsy zawierającej obszar twarzy, posiadającą orientację wyznaczaną przez wektor, którego końcem są usta a początkiem środek odcinka łączącego oczy.

Kolejne etapy przedstawiono graficznie na rys. 3.

0x01 graphic

rys. 3. źródło oryginału: [4]

Przedstawiony algorytm działa dobrze dla obszaru twarzy wielkości od 13 * 13 pikseli, do około ¾ rozmiaru obrazu wejściowego.

Należy zauważyć, że kwalifikacja obszarów skóry zależy silnie od warunków oświetlenia. W oparciu o nieliniową skalę luminancji wynikającą z korekcji gamma zliczane są piksele o luminancji z zakresu 95-100% skali. Jeżeli jest ich odpowiednio dużo (>100) oznaczane są jako „biel odniesienia”. Następnie składowe RGB poddawane są niezależnie regulacji, tak, aby uzyskać znormalizowaną skalę szarości do wartości 255. Obraz nie jest zmieniany, jeżeli wspomnianych pikseli „bieli odniesienia” jest zbyt mało. Na rys. 4 przedstawiono uzyskane wyniki.

0x01 graphic

rys. 4. a - oryginał b - po kompensacji c - obszary skóry dla (a) d - obszary skóry dla (b)

źródło: [4]

Rysunek 5 przedstawia przyjętą przestrzeń koloru skóry w podprzestrzeni barw CbCr. Zbiór jasnych punktów reprezentuje przestrzeń barw osiągalną na monitorze, ciemny obszar to model przestrzeni koloru ludzkiej skóry.

0x01 graphic
rys. 5. 0x01 graphic
rys. 6

Kolejny etap to lokalizacja oczu, ust i owalu twarzy. Wykorzystywana jest informacja niesiona w luminancji i chrominancji.. Oczywiście uwzględniane są tylko obszary zakwalifikowane wcześniej jako obszary skóry. Najpierw tworzona jest „mapa oczu” będącą kombinacją dwóch map dla obu oczu. Dla chrominancji wykorzystano obserwację, że w okolicy oczu składowa Cb ma duże wartości a składowa Cr małe. Użyte wzory i założenia można znaleźć w [4]. W zakresie luminancji okolice oczu składają się zarówno z jasnych jak i ciemnych pikseli. Do lokalizacji i opisu obszaru oczu w zakresie luminancji wykorzystuje się typowo operacje morfologiczne (np. dylacja, erozja).

Dla obszaru ust można zauważyć zwiększoną obecność składowej czerwonej i osłabioną obecność składowej niebieskiej. Rysunek 6 przedstawia efekt lokalizacji oczu ust i owalu twarzy.

Rowley, Baluja i Kanade [5] prezentują algorytm bazujący na użyciu sieci neuronowych, którego skuteczność w zależności od stosowanej architektury (kilkanaście wariantów) wahała się od 86% do 97% poprawnych detekcji. Algorytm składa się z dwóch głównych etapów - najpierw obraz wejściowy poddawany jest działaniu filtrów bazujących na sieciach neuronowych, które badają każdą część obrazu wejściowego w kilku różnych skalach, szukając lokacji mogących zawierać twarz. Następnie uruchamiany jest mechanizm łączący uzyskane z indywidualnych filtrów wyniki i eliminujący błędne lub nadmiarowe obszary. W celu zmniejszenia błędu fałszywych identyfikacji, zastosowanych zostało kilka niezależnie uczonych sieci, a część wspólną ich odpowiedzi traktowano jako odpowiedź systemu.

Wśród algorytmów służących do identyfikacji twarzy często wykorzystywaną techniką jest technika dopasowywania grafu (ang. graph matching), w której obiekty przedstawia się w postaci grafów z wierzchołkami odpowiadającymi elementom twarzy oraz krawędziom obrazującym odległości między nimi, a proces identyfikacji polega na znalezieniu grafu najbardziej pasującego do zadanego. Ulepszoną wersję techniki dopasowywania grafu (ang. morphological elastic graph matching) prezentuje w swojej pracy C. Kotropoulos [6], proponując jako alternatywę do używanego w podstawowej metodzie wyznaczania wektora cech na bazie filtrów Gabora, zastosowanie wieloskalowych morfologicznych filtrów rozszerzających/erodujących (ang. multiscale morphological dilation-erosion), co pozwoliło na zwiększenie skuteczności bazowej metody (spadek błędu EER z 5.4% do 3.7%).

Innym rozwiązaniem może być bezpośrednie porównanie, polegające na obliczeniu różnicy wartości pikseli pomiędzy obrazem badanym a wzorcem (bądź kilkoma wzorcami) zawartymi w bazie danych. Wadą tej metody są dość restrykcyjne warunki, jakie muszą być spełnione, aby dopasowanie przebiegło pomyślnie (ten sam rozmiar obrazów, zbliżone naświetlenie, orientacja twarzy).

Algorytm lokalizacji twarzy opisany w [1] bazuje na odnalezieniu na obrazie odpowiednio dużych skupisk pikseli, których barwa odpowiada kolorowi ludzkiej skóry, a następnie ujęciu ich w prostokątne ramki i przeskalowaniu do ustalonych rozmiarów w celu poddania dalszej analizie. Na potrzeby algorytmu określono cały zbiór parametrów obrazu wejściowego i wyjściowego, m. in. rozmiary obrazów, barwę i tolerancję pikseli obszarów ludzkiej skóry, parametry filtru usuwającego szumy, warunki uznania obszarów jako nadających się do odrzucenia. Wyszczególniono następujące kroki algorytmu:

krok 1 - wyznaczanie obszarów ludzkiej skóry - rys.7

0x01 graphic
rys. 7

krok 2 - filtrowanie zakłóceń - usuwane są pojedyncze piksele bądź ich skupiska; filtracja najczęściej wymaga pominięcia pikseli brzegowych (ze względu na zastosowane okno)

krok 3 - segmentacja obszarów - wyznaczenie liczby potencjalnych obszarów twarzy oraz znalezienie współrzędnych okien, w których się zawierają

krok 4 - wstępna weryfikacja - odrzucenie obszarów o zbyt małych rozmiarach

krok 5 - interpolacja - przeskalowanie obszarów twarzy do jednakowych rozmiarów z wykorzystaniem algorytmu interpolacji dwuliniowej

krok 6 - wektory cech - generacja ciągów liczb odpowiadających poziomom szarości każdego z pikseli przeskalowanych obszarów twarzy

Kroki algorytmu od 1 do 6 powtarzane są kilkakrotnie dla każdego obrazu z różnymi zestawami parametrów, jako że nie da się znaleźć uniwersalnego dla wszystkich zdjęć zestawu parametrów. Prowadzi to do redundancji wyników oraz znalezienia większej ilości obszarów nie będących twarzami, pozwala jednak na wydobycie z obrazu wszelkich obszarów, które potencjalnie zawierają obrazy twarzy.

Otrzymane wektory cech podane zostaną na wejście sieci neuronowej w celu ustalenia czy są one twarzą poszukiwanej osoby (identyfikacja). Błędne zidentyfikowane obszary zostają odrzucone przez sieć neuronową. Jako sieć neuronowa użyty został program Student Version Basis of AI Backprop autorstwa Donalda R. Tveter'a w wersji z listopada 1998r. Sieć neuronowa zbudowana jest z kolejnych warstw neuronów, połączonych każdy z każdym. Wszystkie połączenia posiadają swoje wagi, których poprawne wyznaczenie jest celem uczenia sieci neuronowej. Odbywa się to poprzez podawanie na wejście sieci ciągów uczących, tzn. zbiorów danych, dla których znamy rozwiązanie. Sieć generuje odpowiedź i sprawdza ją z rzeczywistym wynikiem, jeśli błąd sieci jest zbyt duży, następuje odpowiednia modyfikacja wag (wg zadanego algorytmu). Zastosowana aplikacja działa w oparciu o algorytm wstecznej propagacji błędów (ang. backpropagation). Polega on na wyznaczaniu wektora gradientu powierzchni błędu, tzn. kierunku, w którym wzrost funkcji błędu jest najszybszy. Tak więc modyfikacja wag odbywa się dokładnie w przeciwnym kierunku w celu zmniejszenia funkcji błędu. Wagi ustalane są na nowo i powtórnie analizowane są wszystkie ciągi uczące, aż do momentu uzyskania odpowiednio małego błędu.

Po przeprowadzeniu eksperymentów na 32 zestawach parametrów, wytypowanych zostało 5 zestawów, których zastosowanie pozwoliło na uzyskanie skuteczności detekcji ok. 85-90%.

Do nauki sieci neuronowej wykorzystanych zostało: 110 obrazów twarzy osoby X, które zostały wykonane w różnych warunkach oświetleniowych, na dowolnym tle, z twarzą ustawioną pod różnymi kątami, nie większymi jednak niż 30 stopni od pozycji frontalnej oraz 110 dowolnych obrazów nie zawierających żadnych twarzy jak i zawierające twarze innych osób. Obrazy zostały podzielone na trzy ciągi: uczący, walidacyjny oraz testowy w następujący sposób: po 50 zdjęć pozytywnych oraz negatywnych jako ciąg uczący oraz odpowiednio po 30 zdjęć na ciągi walidacyjny oraz testowy.

Struktura sieci neuronowej, za pomocą której udało się uzyskać najlepsze wyniki składała się jedynie z 2 warstw neuronów: wejściowej (400 neuronów, reprezentującej poziomy szarości pikseli obszaru wejściowego) oraz wyjściowej (2 neurony reprezentujące dwie klasy identyfikacji. Wyniki działania sieci neuronowych użytych do identyfikacji różnych par typów obrazów przedstawiono w tabeli 1.

Tab.1. Eksperymentalne wyniki działania sieci neuronowych

Lp.

Porównanie

Pozytywna identyfikacja

Współczynnik błędu

1.

TX z T

71,67

0,31225

2.

TX z T i NT

73,33

0,26788

3.

TX z NT

91,67

0,09054

4.

T z NT

70,00

0,28832

TX - twarze osoby X

T - dowolne twarze

NT - obrazy nie zawierające twarzy, ale wyodrębnione przez algorytm

W pracy [7] przedstawiono zagadnienia związane z rozpoznawaniem twarzy w przestrzeni 3D. Wskazano, że kształt w przestrzeni 3D jest najczęściej analizowany równolegle z „tradycyjnym” kształtem twarzy w formie obrazu dwuwymiarowego. Potencjalnie analiza 3D pozwala uzyskać lepszą skuteczność i pewność rozpoznawania niż analiza 2D. Zauważono, że analiza 3D jest bardziej odporna na zmienne warunki oświetlenia i położenie punktu obserwacji. Dodatkowo lepiej opisuje takie fragmenty twarzy jak czoło, policzki, podbródek. Opisano podejście bazujące na segmentacji obrazu twarzy bazującej na krzywiznach. Właściwości krzywizn i odległości posłużyły do ekstrakcji zestawu cech opisujących twarz. Identyfikacja odbywa się na prostej zasadzie porównywania cech w przestrzeni traktującej dane każdej twarzy jako punkt. W artykule zawarto przegląd publikacji dotyczących analizy w przestrzeni 3D i wskazano typowe problemy z nią związane, jak pojawianie się pustych obszarów na mapie twarzy („dziur”), „kolców” oraz utrudnionej współpracy z systemem związanej z zawężonym polem działania skanerów 3D.

Erik Hjelmås [8] usystematyzował rozpoznawanie twarzy na identyfikację i autentyfikację. Identyfikacja pozwala przydzielić próbny obraz do jednej z klas twarzy z „galerii”.

Autentyfikacja ma za zadanie podjąć decyzję, czy próbny obraz przydzielono do właściwej klasy. W dokumencie skupiono się na zagadnieniu identyfikacji. Przyjrzyjmy się bliżej algorytmowi identyfikacji zaproponowanemu w [8].

Użyto oddzielnych algorytmów do treningu i testów ( algorytm 1 i algorytm 2). Zasada jest wspólna dla obu algorytmów. Pierwszym krokiem jest filtracja obrazu zestawem filtrów Gabora. Następnie wykonywane jest „ważenie” obszarów obrazu poprzez użycie funkcji Gaussa, tak, aby skupić się na centrum twarzy ( wykorzystano odpowiednio przygotowaną bazę 40 osób z 10 ujęciami każdej z nich). Celem jest wyłowienie cech twarzy z centrum z pominięciem cech konturu. Przetworzony obraz jest skanowany w poszukiwaniu wartości maksymalnych (pików) które zostają uznane jako interesujące nas cechy obrazu twarzy. Dla każdej z tych wartości wyznaczany jest wektor cech składający się ze współczynników filtracji Gabora i zapisywany. Na rys. 8 przedstawiono wizualizację efektu działania algorytmu testowego.

0x01 graphic
rys .8

Zależy nam na znalezieniu obszarów twarzy zawierających wiele treści w sensie informacji.. Typowo obszary te są zlokalizowane w okolicach oczu, nosa i ust. Założono, że najbardziej stabilna informacja identyfikująca osobę zawarta jest w centrum twarzy, nie uwzględniono zatem konturu twarzy i włosów. Tworząc daną klasę, tylko dla pierwszego obrazu twarzy zapisywany jest komplet wektorów cech. Dla kolejnych dopisywane są tylko wektory wcześniej nie klasyfikowane.

W algorytmie testowym zawarto obliczenia dystansu każdego wyizolowanego wektora cech od wszystkich wektorów cech zawartych w „galerii”. Poszukiwana jest klasa o najmniejszym wynikowym dystansie. W [8] przedstawiono szczegóły filtracji Gabora oraz algorytm wyznaczania wartości maksymalnych (pików). Obraz jest skanowany z użyciem okna o rozmiarze ω * ω i oflagowaniu pikseli spełniających warunki:

- centralny piksel okna ma wartość większą niż wszystkie pozostałe z okna,

- wszystkie piksele okna mają wartości powyżej średniej wartości całego obrazu twarzy

Przyjęto doświadczaną wielkość okna ω = 7.

Eksperymenty potwierdziły 85 % skuteczność metody.

Przykłady komercyjnych systemów weryfikacji / identyfikacji twarzy to: TrueFace firmy eTrue, seria produktów firmy Viisage (FaceFINDERTM, FacePASS TM, FacePIN TM oraz

FaceNET TM), jeden z najlepszych produktów z dostępnym SDK - FaceIt® firmy Visionics, FaceVACS firmy Plettac Electronic oraz One-on-One produkcji Biometric Access Corporation.

5. Literatura

[1] Janusz Sobecki , Tomasz Chwiszczuk, „Wyszukiwanie i identyfikowanie osób na obrazach cyfrowych zamieszczonych w sieci Internet”

http://www.zsi.pwr.wroc.pl/zsi/missi2002/pdf/s604.pdf

[2] Biuletyn NASK, „Twój PIN to Ty, część 2”, marzec-kwiecień-maj 2003, strona 18

http://www.nask.pl/biuletyn/biuletyn2003_04.pdf

[3] Carlos Morimoto, Dave Koons, Arnon Amir, Myron Flickner, “Real-Time Detection of Eyes and Faces”, IBM Almaden Research Center http://www.cs.ucsb.edu/conferences/PUI/PUIWorkshop98/Papers/Morimoto.pdf

[4] R.-L. Hsu, M. Abdel-Mottaleb, and A. K. Jain, “Face detection in color images”, ICIP, Grecja, 7-10 październik 2001, http://www.cse.msu.edu/~hsureinl/facloc/tpami113783_.pdf

[5] Henry A. Rowley, Shumeet Baluja, Takeo Kanade, “Neural NetworkBased Face Detection”

http://imagelab.ing.unimo.it/ttei/varie/rowley96neural.pdf

[6] C. Kotropoulos, A. Tefas, and I. Pitas, "Frontal face authentication using morphological elastic graph matching,'' IEEE Trans. Image Processing, tom. 9, strony 555-560, kwiecień 2000.

http://citeseer.ist.psu.edu/cache/papers/cs/14608/http:zSzzSzposeidon.csd.auth.grzSzpaperszSzPUBLISHEDzSzJOURNALzSzKotropoulos00bzSzKotropoulos00b.pdf/kotropoulos99frontal.pdf

[7] Kevin W. Bowyer, Kyong Chang, and Patrick Flynn, “A Survey Of 3D and Multi-Modal 3D+2D Face Recognition”, Notre Dame Department of Computer Science and Engineering Technical Report, styczeń 2004.

http://www.biometricscatalog.org/documents/TR-2004-22-9.pdf

[8] Erik Hjelmås, “Biometric Systems: A Face Recognition Approach”, Department of Informatics University of Oslo, http://www.nik.no/2000/Erik.Hjelmaas.pdf

Pozostałe materiały:

www.nask.pl/biuletyn/biuletyn2003_01.pdf

http://www.pckurier.pl/archiwum/artykuly/setlak_michal/2000_18_70/

http://www.logistyka.net.pl/cgi-bin/article.cgi?portal=logistyka&sid=2002/07/22/1032253

http://www.fromherz.net/papers/PhDFromh.pdf

http://www.cim.mcgill.ca/~wsun/sa/project/report.html

http://www.biometricscatalog.org/documents/TR-2004-21-6.pdf

http://vismod.media.mit.edu/vismod/demos/facerec/

http://www.dcs.qmul.ac.uk/~sgg/identity-surface/idsurf/#sec:ref

Niniejszy dokument i pozostałe materiały dostępne pod adresem

http://www.et.put.poznan.pl/~dgajew/download/PUT/SEMESTR_10/IO/FACE_RECOGNITION



Wyszukiwarka

Podobne podstrony:
Komputerowa akwizycja i analiza obrazu (lab PolWr)
Analiza obrazu Zaślubiny Arnoldinch
Raport z analizy obrazu
analiza obrazu-opis dziela-APOTEOZA del Pozzo, Analiza dzieł sztuki
analiza obrazu, Pedagogika, Studia, PWiPP
studium przypadku, [050512] Gra yna Ziomek - Opis i analiza rozpoznawa, OPIS I ANALIZA ROZPOZNAWANIA
2010-Pytania otwarte, BIO, Diagnostyka Laboratoryjna, analiza instrumentalna
7.Czy możliwa jest rejestracja czystych widm elektronowych, BIO, Diagnostyka Laboratoryjna, analiza
ocena struktur iloścowych metodami analizy obrazu
2009 06 Analiza obrazu z wykorzystaniem ImageJ [Grafika]
Analiza obrazu Powrót syna marnotrawnego
Materiały na Systemy sensoryczne i wizyjne analiza obrazu i dźwięku 1
Analiza obrazu
Linie lotnicze eksperymentują z technologią rozpoznawania twarzy
Jacopo Bassano „Miłosierny Samarytanin” opis i analiza obrazu
interpretacja analiza obrazu szaradowski
Analiza obrazu „ Portret Sylwii von Harden” Otto Dixa

więcej podobnych podstron