Wprowadzenie (W=1/L=0)
Podstawowe pojęcia (mlaskowski)
Cechy biometryczne człowieka (mlaskowski)
Cechy statyczne
Cechy dynamiczne
Dane obrazowe stosowane w biometrii (jbelkowski)
Bazy danych biometrycznych
Multimodale bazy danych
Rynek biometrii według FRVT2006 (kwrobel)
Techniki i technologie biometryczne (3/0)
Technologia, stosująca odciski palca (awinnicka)
Technologia, stosująca geometrię ręki (awinnicka)
Technologia, bazująca na rozpoznawaniu twarzy (akamrowska)
Technologia, bazująca na rozpoznawaniu tęczówki oka (akamrowska)
Technologia, bazująca na rozpoznawaniu biometrycznych cech dynamicznych (wslowacki)
Podstawy matematyki dla technologii biometrycznych (2/2)
Algebra macierzowa
Algebra liniowa
Rachunek prawdopodobieństwa
Obróbka wstępna obrazów w technologiach biometrycznych (2/4)
Skalowanie, segmentacja, binaryzacja, konturyzacja obrazów
Filtracja obrazów, polepszenie jakości
Przygotowanie obrazów do ekstrakcji cech w FaReS
Metody ekstrakcji cech w FaReS (uzasadnienie i procedury)
Komputerowe modelowanie zadań i systemów rozpoznawania twarzy (2/4)
Przedstawienie struktury: formalny zapis oraz schemat blokowy (bkropornicki)
Planowanie eksperymentu
Metodyka projektowania (syntezy i analizy) FaReS (bkropornicki)
Wybór bazy dla testów systemu i jej podział na bazowe i testowe (tbaltyka)
Obróbka wstępna obrazów wejściowych (tbaltyka)
Wybór sposobu ekstrakcji cech z obrazów twarzy (tbaltyka + akamrowska)
Wybór klasyfikatora i metody przyjęcia decyzji (tbaltyka)
Zakończenie eksperymentu (tbaltyka)
FaReS-MOD: Środowisko dla modelowania FaReS (2/2)
Etapy projektowania (syntezy i analizy) FaReS
Prykłady projektowania FaReS
Modelowanie FaReS w środowisku pakietu MATLAB (3/3)
Projekt FaReS (1/5)
Opracowania
1.1 Podstawowe pojęcia:
Systemy biometryczne - są automatycznymi systemami realizującymi pobranie próbek biometrycznych od użytkownika, ekstrakcję biometrycznych cech z próbki, porównywanie tych cech z jedną lub większą liczbą wzorców, podjęcie decyzji o tym jak dobrze te cechy odpowiadają sobie, oraz wyprowadzenie informacji o tym, czy przeprowadzono pomyślnie weryfikacje lub identyfikację.
Weryfikacja (potwierdzenie tożsamości) - proces porównywania 2 zbirów metryk w celu określenia, czy pochodzą od tej samej osoby.
Ustalenie identyczności zadanej twarzy z pewnym znanym wzorcem, ten tryb rozpoznawania nazywany jest „1 do 1”. Rezultatem weryfikacji określa się miarę podobieństwa 2 obrazów. Przy czym pewien ustalony próg miary prawdopodobieństwa może określać graniczne warunki podjęcia decyzji: stwierdzenia, czy twarze należą tego samego człowieka, czy nie.
Identyfikacja (jednoznaczne określenie tożsamości) - jest to jednoznaczne określenie tożsamości człowieka na podstawie jego twarzy przy jej porównywaniu z wzorcami przechowywanymi w bazie danych (wybór podobnej twarzy do zadanej z bazy danych, poszukiwanie twarzy w bazie), „1 do wielu” . Rezultatem jest numer klasy (tożsamość osoby) do której należy dany obraz (jest najbardziej podobny).
Ten typ sytemu biometrycznego szuka tożsamości w bazie danych, a nie weryfikuje podaną tożsamość.
FRR, False Rejection Rate, błąd I rodzaju (porażka w procesie odnajdywania wzorca, gdy powinien on być znaleziony, a nie został).
Stopień prawdopodobieństwa określający sytuację, kiedy system biometryczny zawiedzie podczas identyfikacji osoby zarejestrowanej lub weryfikacji podanej tożsamości przez prawowitą osobę.
FAR, False Acceptance Rate, błąd II rodzaju (porażka, polegająca na odnalezieniu wzorca gdy nie powinien on być znaleziony).
Stopień prawdopodobieństwa określający sytuację, kiedy system biometryczny dokona niewłaściwej identyfikacji osoby lub dokona niewłaściwej identyfikacji osoby nie mającej biometrycznego referencyjnego wzorca w bazie danych systemu.
Lokalizacja twarzy występuje wtedy, gdy kadr zawiera jedną twarz. W wyniku lokalizacji określona jest pozycja tej twarzy.
Detekcja twarzy związana jest z określeniem pozycji wszystkich twarzy znajdujących sie w kadrze. Detekcja realizowana jest przed lokalizacją, tyle razy, ile mamy twarzy na obrazie bieżącym.
//wymieniłem pojęcia te najbardziej podstawowe (to z czym nas ciągle molestował na wykładach), jak ktoś chce to może przejrzeć jeszcze na:
1.2 Cechy biometryczne człowieka:
Cechy statyczne (fizyczne):
odciski palców;
geometria i zarys dłoni;
kształt linii zgięcia wnętrza dłoni;
układ naczyń krwionośnych na dłoni lub przegubie ręki;
obraz tęczówki oraz siatkówki oka;
kształt uszu;
kształt i rozmieszczenie zębów;
zdjęcie twarzy (wideo lub termogramy);
cechy geometrii twarzy (owal twarzy, kształt czoła, podbródka, wysokość i szerokość nosa, szerokość ust (odciski warg));
cechy antropometrii twarzy - rozstaw pomiędzy punktami charakterystycznymi twarzy (centrami oczu; czubkiem nosa, a linią oczu; centrami oczu, a centrami ust itd.);
zwichrzenie na środku głowy;
zapach;
tatuaże;
barwa głosu;
analiza faktury powierzchni skóry (pory etc. );
fale mózgowe EEG;
DNA;
podpis (jako zdjęcie).
Cechy dynamiczne (behawioralne):
styl pracy na klawiaturze;
dynamika odręcznego pisania tekstu;
sposób poruszania się;
poruszanie ustami;
charakterystyka głosu, mowy;
charakterystyka ruchu gałki ocznej;
niewidoczne drgania myszki.
//była jeszcze wilgotność na skórze, ale to nie jestem do końca pewny czy powinno być do statycznych?
1.3.Dane obrazowe stosowane w biometrii
1.3.1 Nie wiem dokładnie o co chodzi, ale wydaje mi się ze tu można przytoczyć podział na bazy przechowujace dane statyczne, dynamiczne i właśnie te multimodalne (o czym nizej). statyczne to by były: odcisk palca, geometria dłoni, teczówka oka. Dynamiczne to ruch ciała, podpis, głos.
1.3.2 taka baza, która zawiera cały (lub spory) zestaw cech biometrycznych dla każdej osoby. Baza tego typu łaczy w sobie kilka cech biometrycznych kazdej osoby, statycznych i dynamicznych np: sprawdzanie teczówki oka i podpisu a potem jeszcze trzeba zatanczyc lub zaśpiewać
BioBase: wielomodalna biometryczna baza danych
Jednym z pierwszym zadań Pracowni Biometrii NASK/PW było utworzenie wielomodalnej bazy danych biometrycznych, tzn. takiej bazy, która zawiera cały zestaw cech biometrycznych dla każdej osoby. Baza tego typu jest niezbędna dla celów projektowania i testowania technik biometrycznych, w tym technik wielomodalnych. Baza zarejestrowana została w GIODO (Generalny Inspektor ds. Ochrony Danych Osobowych) jako pierwsza w Polsce wielomodalna baza danych. W chwili obecnej w bazie zarejestrowane są pomiary od około 200 osób, mianowicie:
obrazy dłoni
obrazy tęczówek
obrazy odcisków palców
podpisy odręczne
wyniki pracy systemu Panasonic ET100 (tęczówka)
wyniki pracy systemu HandKey II (geometria dłoni)
Baza jest stale rozszerzana. Obecnie trwają prace umożliwiające wykorzystanie bazy przez instytucje spoza Pracowni w sposób uniemożliwiający odczytanie danych biometrycznych.
1.4 Rynek biometrii według FRVT2006
FRVT2006
Face Recognition Vendor Test (FRVT) - test rozpoczęty 30 stycznia 2006 przez rząd Stanów Zjednoczonych. Jest to najbardziej aktualny test systemów rozpoznawania twarzy. Jego głównym celem jest zbadanie postępu jaki dokonał się od ostatniego FRVT 2002. Test ten przeprowadzany jest aby sprawdzić czy algorytmy/systemy mogą spełnić obecne i przyszłe wymagania agencji rządowych rządu USA.
Test ten sprawdza wyniki z:
- Obrazów wysokiej rozdzielczości 5-6 Mega-pixeli ( w formacie .jpeg, różne rozdzielczości, portrait lub landscape)
- trójwymiarowe obrazy twarzy
- wielu próbek fotografii twarzy (ang. - „Multi-sample still facial imagery”)
- Algorytmów obróbki wstępnej, rekompensujących poze i oświetlenie (ang - “Pre-processing algorithms that compensate for pose and illumination”)
Uczestnicy testu: Animetrics, Inc. Carnegie Mellon, University Cognitec Systems GmbH, Diamond Information Systems (DIS), Geometrix, Inc. , Guardia, Identix, Inc. , Neven Vision , New Jersey Institute of Technology (NJIT), Nivis, LLC , Old Dominion University Panvista Limited, Peking University, Center for Information Science, PeopleSpot Inc., Rafael Armament Development Authority Ltd. , SAGEM SA , Samsung Advanced Institute of Technology (SAIT), Tsinghua University, Tili Technology Limited, Toshiba Corporation, University of Houston, Viisage
Wyniki (marzec 2007):
Podczas testu poniżsi uczestnicy uzyskali wymagane FRR(false reject rate), FAR(false akcept rate) na poziomie 0,001 (1 na 1000)
a) Obrazy wysokiej rozdzielczości
- Neven Vision (NV1-norm algorithm)
b) Obrazy 3D
- Viisage (V-3D-n algorithm)
ICE2006
Podano również wyniki dotyczące testów systemów rozpoznawania tęczówki oka(badanie ICE2006):
W badaniu wzięły udział: Cambridge (Cam-2), Iritech (IrTch-2) and Sagem-Iridian (SI-2)
Wyniki
- Rozpoznawanie prawego oka wychodziło lepiej niż lewego.
- czas wykonania algorytmów różny - od 6 do 300 godzin (w FRVT max to 72 godziny, dla ICE 3 tygodnie)
- Sagem-Iridian (SI-2) - najlepszy,
- Cambridge (Cam-2) - najszybszy
2.1. Technologia stosująca odciski palca
Odciski palców nadają się do identyfikacji ponieważ są:
uniwersalne - każdy człowiek posiada określoną cechę w stopniu pozwalającym na identyfikację;
unikatowe - dwie osoby nie mają identycznej charakterystyki odcisku palca;
trwałe - nie zmieniają się w czasie w stopniu uniemożliwiającym identyfikację;
określone - dają się opisać w sposób ilościowy.
Do celów identyfikacyjnych wykorzystuje się:
ogólny wzór linii papilarnych;
nieregularny kształt ich krawędzi;
kształt i rozmieszczenie porów;
tzw. minucje - czyli charakterystyczne cechy budowy w postaci początków linii, oczek, rozwidleń kropek itp.
Z wykładów Kukhareva: Tworzy się rysunki charakterystyczne
rozgałęzienie,
zakończenie,
kierunek,
pory (doliny) - pory występują w dolinach i to jest charakterystyczne dla każdego człowieka
jądro
łuki
Linie papilarne układają się w regularne struktury:
spirale,
pętle,
trójkąty.
Odciski palców dzielą sie przeważnie na 5 głównych typów w zależności od ułożenia sygnatur:
łuk (wzór łukowy)
rozciągnięty łuk (wzór namiotowy)
pętla w lewo (wzór pętlicowy lewy)
pętla w prawo (wzór pętlicowy prawy)
spirala (wzór wirowy)
Model odcisku:
W bazie przechowywany jest tylko wzorzec (MODEL) odcisku (układu minucji)
Format danych opisujący odciski palców zdefiniowany jest przez 3 standardy:
ISO 19784 - BioAPI - format danych biometrycznych,
ISO 19794-2 - format zapisu minucji,
ISO 19794-2 - parametry obrazu linii papilarnych.
Przebieg linii papilarnych może być efektywnie opisane przy pomocy struktury nazywanej mapą kierunkową (lub rysunkiem kierunkowym), która jest dyskretną matrycą opisującą które elementy wyznaczają orientację stycznej do linii papilarnych. Analogicznie gęstość linii papilarnych może zostać określona przy pomocy mapy gęstości.
Wzorzec odcisku:
Mikro-sygnatury nazywane minucje /minuetami lub charakterystykami Galtona, są definiowane przez zakończenia (termination) lub rozgałęzienia (bifurcation) linii papilarnych. Minuety odgrywają podstawową rolę w rozpoznawaniu odcisków palców od kiedy większość algorytmów opiera się na porównaniu minuetów w celu rozpoznania odcisku palca. Porównywanie minuetów jest podstawowym problemem w istniejących obecnie algorytmach umożliwiających automatyczne porównywanie odcisków palców.
Analiza cech charakterystycznych (minucji)
Zastosowanie:
zamki drzwiowe
identyfikacja użytkownika komputera
kontrola czasu pracy
zabezpieczenie samochodu
dostęp do sieci VPN
w połączeniu z inną metodą identyfikacji - dostęp do stref strzeżonych
Typy urządzeń akwizycyjnych:
sensory optyczne
sensory pojemnościowe
sensory naciskowe
sensory termiczne
sensory ultradźwiękowe
2.2. Technologia stosująca geometrię ręki
Opiera się na fakcie, iż dłoń każdej osoby jest ukształtowana odmiennie i że kształt dłoni po osiągnięciu pewnego wieku nie zmienia się w sposób znaczący.
Analiza geometrii dłoni to prosta i mało kłopotliwa dla użytkownika metoda biometryczna.
Po umieszczeniu dłoni w komorze urządzenia dłoń jest oświetlana promieniami podczerwonymi i skanowana matrycą CCD w różnych pozycjach. Zebrane informacje pozwalają na odtworzenie trójwymiarowego kształtu dłoni, na podstawie którego budowany jest wzorzec.
Mierzony jest rozmiar i kształt dłoni:
długość i szerokość dłoni
długość i grubość czterech palców
obszar pomiędzy kostkami palców
(kciuk raczej nie jest wykorzystywany)
Tworzony jest maksymalnie 9-bajtowy wzorzec, który zapisywany jest w pamięci razem z kodem ID osoby. Proces weryfikacji użytkownika polega na wprowadzeniu kodu ID oraz porównaniu wzorca dłoni aktualnie analizowanego ze wzorcem umieszczonym w pamięci. Jeżeli wynik porównania jest pozytywny - osoba jest uprawniona (np. do wejścia do pomieszczenia).
Wielkość wzorca jest niewielka, więc przeszukiwanie bazy danych jest szybkie.
Gdy wielkość bazy danych rośnie konieczne jest użycie większej ilości cech charakterystycznych, by odróżnić jednego indywiduum od drugiego o podobnej charakterystyce.
Najbardziej znana firma: Recognition Systems (HandKey II).
Najczęściej montowany w takich miejscach jak:
port lotnicze,
kasyna,
szpitale,
instytucje rządowe i wojskowe,
fabryki.
(uwaga: treść drastyczna)
Wiele osób zastanawia się co będzie jeśli ręka zostanie obcięta i użyta w celu fałszywej weryfikacji. Odpowiedź jest prosta - nic z tego. Już po kilku sekundach od amputacji dłoń traci swoje właściwości, co jest spowodowane głównie odpływem krwi. W niedługim czasie następuje także stężenie pośmiertne, co uniemożliwia jej prawidłowe ułożenie na skanerze.
Źródła:
http://ul.ii.uj.edu.pl/index.php?option=com_docman&task=doc_view&gid=50&Itemid=34
2.3. Technologia, bazująca na rozpoznawaniu twarzy
Biometryczne systemy identyfikacji, oparte na rozpoznawaniu twarzy.
systemy rozpoznawania twarzy, które charakteryzują się niską inwazyjnością. Zaletą takiego podejścia jest możliwość przeprowadzania identyfikacji obrazu twarzy z urządzeń kontrolnych bez konieczności angażowania osoby rozpoznawanej. Systemy rozpoznawania twarzy ograniczają się jedynie do pozyskania obrazu twarzy lub ich sekwencji, po czym same dokonują analizy obrazu i podejmują decyzję czy dana osoba figuruje w bazie danych, czy też nie. Jedyną czynnością jaką wykonuje badana osoba to wejście w zasięg działania systemu, np. w zakres pola widzenia kamery.
Podstawowymi zadaniami systemów rozpoznawania twarzy są:
- wykrycie twarzy (wydobycie jej z obrazu) - twarz zlokalizowana przez ten podsystem jest używana w części rozpoznawania
- rozpoznawanie twarzy - identyfikacja twarzy na podstawie znanych wzorów, weryfikacja wyników identyfikacji przez zadane kryteria (arbitraż)
Poprawna identyfikacja twarzy zależy mocno od jakości danych wejściowych (obrazów), wydobyciu cech charakterystycznych z obrazu twarzy, użytych metod identyfikacji i zastosowanych kryteriów funkcji.
Wśród tych metod najbardziej widocznymi są:
metody korelacji
metody oparte na PCA
metody oparte na LDA
Systemy identyfikacji twarzy mogą być podzielone ze względu na wykorzystywane przez nie metody na:
kryteria oparte na wzorcach:
rozpoznawanie w oparciu o jeden wzorzec
rozpoznawanie w oparciu o bazę wzorców
kryteria oparte na narzędziach klasyfikacji
metody sztucznej inteligencji (sieci neuronowe, logika rozmyta itp.)
metody matematyczne
System identyfikacyjny musi wyodrębnić twarz z obrazu i zidentyfikować ją poprzez porównanie z obrazami zgromadzonymi w bazie danych.
Proces działania systemu rozpoznawania twarzy można podzielić na cztery podstawowe etapy
pozyskania obrazu z urządzenia wejściowego (np. kamery cyfrowej)
- obróbki wstępnej pozyskanego obrazu (detekcja twarzy na obrazie, normalizacja obrazu i etapy mające za zadanie przyśpieszyć rozpoznawanie - uproszczenie obliczeń, redukcja przestrzeni cech)
- rozpoznania Polega na porównaniu obrazu wejściowego z obrazami przechowywanymi w bazie danych i stwierdzeniu czy obraz wejściowy ma swój odpowiednik w bazie danych. (np. metodą metryki L0)
- weryfikacji i kontroli poprawności (potwierdzenie wyników wcześniejszego rozpoznawania innym algorytmem rozpoznawania)
Problemy, na które można natknąć się w projektowaniu systemów identyfikacji twarzy to:
niekorzystny wpływ transformacji (obrót, skala, przesunięcie)
wpływ oświetlenia
zmiany obrazu twarzy wywołane przez wiek, mimikę, makijaż itp.
Podział systemów:
Systemy rozpoznawania czasu rzeczywistego,
Systemy kontroli dostępu
Systemy klasy „Name it” - rozpoznawanie z kadru telewizyjnego
System FaResMod
Metody rozpoznawania twarzy:
- systemy analityczne - pod uwagę bierze się anatomiczne cechy twarzy
metody sztucznej inteligencji (sieci neuronowe, logika rozmyta itp.)
metody matematyczne
lokalizuje się charakterystyczne punkty na obrazie twarzy i mierzy się względne odległości między tymi punktami.
Wśród wielu cech twarzy ludzkiej, w różnych podejściach bierze się pod uwagę takie cechy jak: szerokości twarzy, wysokość twarzy, odległości między: środkami oczu, najdalszymi punktami oczu, najbliższymi punktami oczu, oczami i nosem, linią oczu i linią ust, szerokość nosa, długość nosa, matematyczny opis kształtu twarzy (owal) i krzywych itp.
Poszczególne cechy zostają zapisane w postaci wektora cech. Badana twarz testowa, reprezentowana przez wektor cech, jest porównywana z każdą twarzą z bazy danych (reprezentowaną przez odpowiedni wektor cech), poprzez badanie odległości pomiędzy każdą parą punktów - elementów wektora cech.
- systemy bazujące na podejściach globalnych - W podejściu globalnym wykorzystuje się cały obraz twarzy
rozpoznawanie w oparciu o jeden wzorzec
rozpoznawanie w oparciu o bazę wzorców
Są to: metody oparte na korelacji, metody oparte na PCA i koncepcji "Eigenface", metody oparte na metryce L0 - algorytm Arena, metody oparte na LDA i koncepcji "Fisherface"
2.4. Technologia, bazująca na rozpoznawaniu tęczówki oka
Rozpoznawanie tęczówki i siatkówki - jest jedną z najefektywniejszych metod rozpoznawania. Unikalność siatkówki i tęczówki daje nam potężne narzędzie w identyfikowaniu osób.
Zalety:
- Niezmienność w czasie
- Odporność na zmiany
- Stabilność
- Punktów charakterystycznych jest ponad 200, wielokrotnie więcej niż punktów charakterystycznych odcisku palca
- Naturalne odseparowanie od środowiska zewnętrznego i zabezpieczenie przed jego wpływami, wynikające z faktu, że jest to wewnętrzny organ oka
Wadami tej metody są:
- wymaga wysokiej jakości obiektywu w urządzeniach wejściowych
użytkownik musi w niewygodny sposób brać udział w procesie identyfikacji (pobieranie obrazu oka)
- wymaga kosztownego, zaawansowanego sprzętu
jest bardzo wrażliwa na warunki oświetleniowe (odbłyski na źrenicy) Wpływ rotacji i skali może być łatwo zignorowany, ponieważ obraz źrenicy jest przenoszony do współrzędnych biegunowych.
Tęczówka każdego oka jest absolutnie wyjątkowa. W całej populacji ludzkiej nie ma dwóch tęczówek, których szczegółowy opis matematyczny byłby identyczny, nawet w przypadku identycznych (jednojajowych) bliźniąt.
2.5 Technologia, bazująca na rozpoznawaniu biometrycznych cech dynamicznych
Charakterystyka głosu
Podstawy. Jest to jeden z prostszych systemów biometrycznych. Zmiany w ludzkim głosie powoduje budowa fizyczna, ale przede wszystkim wzorce zachowań. Akordy akustyczne wibrują 80 razy na sekundę - u mężczyzn i około 400 razy na sekundę u kobiet. Wibracje modyfikowane są przez rozmiar otwarcia szczęki oraz przez ułożenie języka i warg. To sprawia, że głos ludzki jest unikalny. Aby system mógł pobrać informację do zbadania, użytkownik musi wypowiedzieć pewną ustaloną frazę do mikrofonu. W celu większego zaangażowania systemu użytkownik zobowiązany jest do wielokrotnego powtórzenia określonej frazy. Oprogramowanie w systemie analizuje jego głos biorąc pod uwagę około 20 parametrów, takich jak: wysokość tonu, sposób wymowy, gęstość energii, kształt fali, itp. Tak wykreowany profil, porównywany jest z innymi profilami w bazie danych.
Zastosowanie. Rozpoznawanie głosu jest bardzo dobrym rozwiązaniem w systemach, w których już istnieją aplikacje związane z dźwiękiem. W przypadku, gdy mowa jest nowym narzędziem, nie jest to praktykowane. Dlatego podstawowym podłożem do stosowania tej metody jest telefonia. I w przyszłości będzie to także główne pole działania weryfikacji głosu. Główne zastosowania to autoryzacja klientów w banku podczas zdalnej obsługi konta, identyfikacja klienta przy rozmowach serwisowych. Dodatkowo rozpoznawanie głosu znajduje zastosowania na przejściach granicznych do identyfikacji podróżnych mimo, że nie jest to naturalne środowisko wdrożeniowe dla tego typu systemu.
Skuteczność. Różne źródła oscylują wokół następujących wartości: około 5% właściwych użytkowników jest odrzucanych, około 2% fałszywych osobników jest przepuszczanych. Dodatkowe zabezpieczenie takiego systemu wiążą się z zastosowaniem losowo generowanych słów, fraz, które identyfikujący musi wypowiedzieć, a także używanie wysokich i niskich tonów. Oprogramowanie analizujące źle radzi sobie w środowiskach z zakłóceniami w postaci dźwięków tła.
Dynamiczny podpis
Podstawy. Jak wiadomo, ludzie autoryzują wiele operacji swoim statycznym podpisem. Po prostu weryfikuje się zgodność z oryginałem. Tak samo jak sam podpis, jego dynamika jest unikalna. Unikalne jest rozłożenie sił podczas pisania, szybkość pisania, kąt nachylenia pióra. Właśnie te właściwości są wykorzystywane przy metodzie podpisu dynamicznego. Do pobrania danych o charakterze podpisu wykorzystuje się specjalne pióra i tzw. tablet, po którym użytkownik pisze. Takie pióro posiada dwuosiowy miernik prędkości, którego odczyty odzwierciedlają zmiany sił w poziomych kierunkach x i y. Czytnik siły na tablecie mierzy nacisk w osi z. System odczytuje takie informacje i przeprowadza analizę dopuszczając dany podpis lub go odrzucając. Oprogramowanie wyróżnia takie cechy jak szybkość pisania, ostrość zakreślania pętli, zmiany nacisku. System uczy się, dostrajając wzorce do prawidłowych weryfikacji, co eliminuje potrzebę ponownej rejestracji z wiekiem jednostki.
Zastosowanie. Technika wykorzystywana jest w miejscach, gdzie podpis jest już stosowany, czyli wszelkie dotychczasowe operacje weryfikacji statycznym podpisem są potencjalnym polem działania podpisu dynamicznego.
Skuteczność. Metoda ta jest uznawana za najmniej bezpieczną. Dlatego stosuje się ją jedynie do celów weryfikacji. Dane podają, że prawidłowe podpisy są odrzucane w stopniu od 2 do 9%, natomiast fałszywe podpisy są przyjmowane w około 7%.
Charakterystyka pisania na klawiaturze
Podstawy. Podobnie jak w przypadku dynamicznego podpisu, dynamika pisania na klawiaturze ma początki w statycznej metodzie wprowadzania danych. Oprócz wprowadzania samego hasła użytkownik dodatkowo wprowadza dane w postaci szybkości wciskanych klawiszy, odstępów między wciśnięciami, siły nacisku, umiejscowienia palców, itp. To pozwala stworzyć unikalny profil, który można weryfikować. Wystarczy, aby użytkownik zalogował się do systemu, a informacje potrzebne do stworzenia jego profilu weryfikacji zostają wprowadzone. Dodatkowo, aby zbadać nacisk i ułożenie palców potrzebna jest odpowiednia klawiatura. Resztą zajmuje się odpowiednie oprogramowanie, które porównuje uzyskany profil z wpisami w bazie.
Zastosowanie. Główny obszar zastosowania, to miejsca, w których używa się klawiatury na codzień, więc jest to stosowane jako dodatkowe zabezpieczenie podczas logowania użytkowników do systemów czy sieci komputerowych. Jest to nowa metoda, ale zyskuje coraz większą popularność.
Styl pracy na klawiaturze
Idea pracy systemu sprowadza się do analizy czasów trwania naciśnięcia danego klawisza oraz analizy czasów odstępu między naciskanymi klawiszami. Uzyskane wartości parametrów czasowych, pozwalają na ustalenie pewnego charakterystycznego przedziału, w którym winny mieścić się czasy uzyskiwane w trakcie próby uwierzytelniania przez użytkownika prawowitego. Granice przedziału wyznaczają wartości odchylenia standardowego
Ten system biometryczny nie wymaga specjalistycznego sprzętu, jedynie software. Użytkownik tworzy najpierw szablon własnych cech, wpisując grupę słów kilkanaście razy, najlepiej w odstępach czasu, żeby uzyskać odwzorowanie kondycji w różnych warunkach. System analizuje zebrane dane i wyciąga następujące cechy:
- łączny czas wpisywania
odstęp czasu między uderzeniami w klawisze
ile każdy klawisz jest wciśnięty
częstotliwość używania specjalnych klawiszy na klawiaturze, np. klawiszy funkcyjnych lub numpada
sekwencja wykorzystywana gdy użytkownik wpisuje dużą literę - czy najpierw wciska shift, czy literę
Te charakterystyki są łączone w profil który następnie używany jest jako szablon w weryfikacji lub identyfikacji.
Zalety - nie wymaga softu, może być zintegrowany z innymi systemami autoryzacji, np. z wpisywaniem hasła, poddanie się testowi wykorzystującemu taką metodę rozpoznawania nie wymaga skomplikowanych instrukcji, bo każdy zrozumie.
Wady - użytkownik musi pamiętać testową frazę (albo login i hasło), czyli posiada wady takie jak system loginów i haseł, system ten nie został też nigdzie solidnie przetestowany w warunkach polowych (tzn. nie wprowadzano go na dużą skalę).
Ruch oka
Pomiary biometryczne polegają na zarejestrowaniu w zdefiniowanym czasie osobniczych ruchów oka osoby podlegającej rozpoznaniu i podjęciu na tej podstawie decyzji co do tożsamości, jej akceptacji bądź odrzucenia przez system.
Dane pomiarowe systemu rozpoznawania ruchu oka to: rozmiar i dynamika zmian źrenicy, szybkość zmian położenia oka oraz sposób odbicia wiązki podczerwieni. Umożliwiają pomiar osobniczo specyficznych parametrów mechaniki ruchu oka człowieka przy wykorzystaniu wysokiej
rozdzielczości. Mniejsza rozdzielczość systemu umożliwia szczegółową analizę interakcji pomiędzy człowiekiem a prezentowanym na monitorze komputera materiałem graficznym. Zastosowanie systemu pomiarowego ruchu oka zapewnia, w odróżnieniu od innych metod o charakterze statycznym, genotypowym, jak linie papilarne lub dno oka, realizację dynamicznej identyfikacji osobniczej wymagającej pełnego zaangażowania w ten proces pracy mózgu. Rozwiązanie takie umożliwia równocześnie określenie stanu emocjonalnego człowieka, stwierdzenie wpływu wszelkiego rodzaju używek jak alkohol, narkotyki lub lekarstwa.
Istnieje kilka różnych metod pomiarów cech osobniczych ruchu gałki ocznej. Np. polegająca na pomiarze napięcia pomiędzy rogówką a dnem oka tzw. metoda elektrookulograficzna. Do przeprowadzenia pomiaru wykorzystuje się także kamery służące do identyfikacji i śledzenia zmian położenia źrenicy oka. Jednak są to metody zbyt mało precyzyjne, by wyznaczyć cechy unikatowe. Najpopularniejsza wydaje się metoda oparta o analizę sposobu odbicia wiązki podczerwonej od gałki ocznej (analiza różnicowa sygnału IR wysłanego i odebranego). Nadajnik IR emituje wiązkę światła podczerwonego, która odbita od rogówki lub twardówki odbierana jest przez odbiornik (detektor podczerwieni ustalający moc sygnału). Ruch oka powoduje zmianę odbicia wiązki IR, co wpływa na ilość podczerwieni defekowanej przez detektor. System interpretuje tę informację, by określić kierunek i zakres ruchu oka.
Ekstrakcja cech osobniczych z sygnału ruchu gałki ocznej jest elementem najtrudniejszym. Po poprawnym wykryciu fiksacji (zatrzymania ruchu na punkcie otoczenia) i sakad (ruchów między fiksacjami) analizuje się np. średni czas fiksacji, częstotliwość, amplitudę i kierunek drgań oka podczas fiksacji, prędkość i przyśpieszenie ruchów oka, czas trwania i trajektorię sakady. Dodatkowo interesujących informacji dostarcza analiza mrugnięć, ich częstości, czasu trwania oraz czasu zamykania powiek.
Generalnie źródłem informacji cech osobniczych staje się korelacja: stymulacja (sygnał wejściowy oka) a ruch oka (odpowiedź), dzięki czemu mona uzyskać powtarzalność wyników dla tej samej osoby, a więc poznać unikatowy wzorzec, na którym opiera się proces identyfikacji.
Sposób poruszania się
Metoda ta oferuje możliwość identyfikacji na odległość, a więc jest bezinwazyjna i bezkontaktowa (brak interakcji z urządzeniem biometrycznym). Już z daleka wiemy, z kim mamy do czynienia, monitorowana osoba nie musi nawet wiedzieć, że jest poddawana badaniu tożsamości. Inną zaletą takiego systemu jest trudność w jego ominięciu - nie można nie chodzić, podczas gdy można zasłonić twarz tak, aby kamera jej nie zauważyła. Jeszcze trudniej jest naśladować czyjś chód tak, aby sensory i algorytmy dały się oszukać. Chód można rozpoznawać też korzystając z obrazów niskiej rozdzielczości lub zakłóconych. Wadą jest trudność analizy chodu nawet jednej osoby, bo choć każdy ma swój specyficzny sposób poruszania się, kamera może patrzeć na człowieka pod różnym kątem, może być różne oświetlenie, różny kontrast ubrania z otoczeniem itd.
Z rejestrowanego filmu wideo analizowane są sekwencje klatek w celu wyodrębnienia postaci człowieka w różnych fazach chodu. Następnie wyodrębniany i opisywany jest ruchomy kształt, dokonywane są przekształcenia sylwetki i pomiary w celu ekstrakcji pożądanych cech. Po zlokalizowaniu w obrazie części ciała, mierzy się składowe chodu, np. nachylenie miednicy względem pionu, stopień zgięcia w kolanie oraz położenie względem siebie głowy i nóg lub kąt zawarty pomiędzy osiami części udowych nóg. Badane mogą też być: kierunek chodu, linia chodu, linia stopy, kąt stopy, kąt kroku, długość i szerokość kroku oraz długość i szerokość stopy.
Oprócz identyfikacji osób, technika obserwacji ruchu może być także stosowana w medycynie, do rozpoznawania i wykrywania zaburzeń ruchu i innych schorzeń ortopedycznych.
Rozpoznawanie ruchu ust
Rozpoznawanie ruchu ust wykorzystuje unikatowy sposób poruszania się ust podczas wypowiadania sekwencji słów przez każdą osobę.
Osobnik poddany procesowi uwierzytelniania wypowiada określoną sekwencję słów. Proces ten jest
nagrywany kamerą wideo. Z każdej klatki wideo rozpoznawany jest obszar zarysu
ust na podstawie ich koloru z wykorzystaniem tzw. modelu HLS (HLS to jeden z
modeli opisowych dla kolorów postrzeganych przez ludzi; polega na tym, e każdej
barwie postrzeganej przez człowieka jest przyporządkowany jeden punkt w
przestrzeni trójwymiarowej identyfikowany przez trzy składowe: H - ang.
Hue - odcień, barwa, L - ang. Lightness - średnie światło
białe, S - ang. Saturation - nasycenie koloru). Na podstawie tego
zarysu określany jest stosunek szerokości ust do ich wysokości i w konsekwencji
tzw. ramka brzegowa, będąca swoistym wizualnym wzorcem. Identyfikowanie
następuje przez porównanie nowo uzyskanego wzorca z przechowywanym w bazie
danych. Wyniki doświadczeń opartych na tej koncepcji wskazywały, e ta metoda
jest wiarygodna, gdy wypowiedź jest w miarę długa
5.1 Przedstawienie struktury: formalny zapis oraz schemat blokowy
W strukturze FaReS-Mod możemy wydzielić 3 główne elementy:
- bazę danych
- moduł projektowy
- moduł analizy
Baza danych - zawiera zestawy obrazów, obrazy należące do 1 osoby tworzą klasę, wszystkie klasy dla których przeprowadzamy identyczne transformacje tworzą grupę
Moduł projektowy - jest to środowisko graficzne umożliwiające zaprojektowanie nowego systemu z wykorzystaniem bloków funkcyjnych*. Wiąże ze sobą 2 pozostałe moduły - dane źródłowe pochodzą z BD a rezultaty są przekazywane do moduły analizy.
*Bloki funkcyjne - graficzna reprezentacja technik i metod wykorzystywanych w zadaniach rozpoznawania twarzy. Dzielimy je na 4 rodzaje:
- wejściowy - źródło obrazów,
- przetwarzające - np. histogram, skala
- ekstrakcji cech - np. LDA, PCA
- analizy.
Użytkownik może skorzystać z 14 bloków: grupa, wycinek, FFT, filtr (splot), histogram, maska, filtr medianowy, LDA, PCA, PCA R+C, PCA Plus i Multi Pattern oraz blok analizy.
Moduł analizy - umożliwia analizę modelowanego systemu, dzięki różnym sposobom przedstawienia rezultatów możliwa jest łatwiejsza interpretacja uzyskanych wyników, przez co szybiej można dobrać optymalne parametry badanego systemu.
5.2.1. Metodyka projektowania (syntezy i analizy) FaReS
Projektowanie systemu
Na początku umieszczamy w obszarze projektowym blok GROUP (łącznik pomiędzy bażą a systemem). Następnie w oknie dialogowym należy wybrać zdefiniowaną grupę. Później można dołączć poszczególne bloki funkcyjne (np. histogram, FFT…) - bloki takie łączymy linią.
Kolejnym krokiem może być dodanie bloków pozwalających na ekstrakcję cech i bloku analizy. Przykład takiego modelu:
Użytkownik może oczywiście dodać więcej bloków typu GROUP i dla każdego zdefiniować indywidualny zestaw przekształceń. Należy jednak pamiętać, że obrazy wyjściowe dla poszczególnych grup będą miały taki sam rozmiar. Musimy również pamiętać, że można stosować tylko jeden rodzaj ekstrakcji cech (np. PCA, LDA…)!
Przykład:
Analiza
- umożliwia przetestowanie zaprojektowanego systemu rozpoznawania przy użyciu wybranej bazy obrazów.
Okno modułu podzielone jest na 4 części:
1) zawiera obrazy testowe + info o przebiegu transformacji obrazu
2) pięć najbliższych obrazów bazowych
3) tabela z odległościami testowanego obrazu do obrazów bazowych
4) rozkład obrazów w przestrzeni wybranych cech
Po zakończeniu analizy wyświetlane jest okno z krótkim podsumowaniem (ilość grup, klas i obrazów (baz. + test.)
Użytkownik może wyświetlić pełną informację o wynikach wciskając przycisk „Statistics”. W oknie statystyk dostępne będą dostępne info. o ilość grup, klas, obrazów oraz różne współczynniki rozpoznawania.
Obliczanie współczynnika rozpoznawania polega najczęściej na sprawdzeniu czy obraz bazowy należy do tej samej klasy co obraz testowy. Jeżeli tak to program uznaje że osoba została prawidłowo rozpoznana.
Odległość między wybranymi elementami liczona jest zazwyczaj wg. wzoru na odległość Euklidesową (można również wybrać zmodyfikowany wzór na odległość)
W zależności od wybranego kryterium poprawnego rozpoznania środowisko oblicza kilka wariantów współczynników:
- the closest - najbliższy obraz bazowy wskazuje klasę do której należy obraz testowy
- avarge - obliczane są średnie obrazy w klasach, najbliższa średnia określa numer klasy, do której należy obraz testowy
-2 of 3 (3 of 5) - obraz testowy należy do klasy do której należą 2 z 3 najbliższych obrazów w bazie
- FAR, FArec - pozwalają ocenić system pod względem przydatności w rzeczywistych warunkach
Zwiększając ilośc warunków (w opcjach) zmniejsza się współczynnik FAR (rośnie pewność co do poprawnej klasyfikacji obrazu), zazwyczaj zmniejsza się też współczynnik rozpoznawania FArec.
Po przeprowadzonej analizie wyniki można wydrukować do raportów… no ale chyba o to już nie będzie pytał
5.2.2. Wybór bazy dla testów systemu i jej podział na bazowe i testowe
Dobór właściwej bazy danych pozwala na lepsze przetestowanie systemu. Należy wybrać w jakiej formie mają być obrazy podstawowe, tj. czy zawierają samą twarz czy popiersie. Jakość obrazów ma także istotne znaczenie dlatego należy zadbać by były możliwie wyraźne i jednoznaczne. Baza powinna zawierać wiele klas - im więcej tym większa możliwość sprawdzenia modelowanego systemu. Zazwyczaj wstępnie używa się zbiory po kilkadziesiąt klas w celu skontrolowania systemu czy pracuje zgodnie z ideą twórcy, a następnie zbiór zwiększa się do setek, tysięcy klas, by bliżej zbadać jego skuteczność i wykryć w których miejscach konieczna jest optymalizacja jakościowa jak i czasowa. Dobrą sytuacją jest gdy mamy do dyspozycji po kilka obrazów w jeden klasie. W ten sposób możemy zbadać skuteczność systemu bardziej szczegółowo a także poddać go samotestowi. Test odbywa się na podziale obrazów w klasie na zbiór testowy i bazowy. Zbiór testowy jest stawiany przeciw zbiorowi bazowemu i między tymi zbiorami następują procesy porównawcze. W przypadku, gdy nie dysponujemy mnogością obrazów w klasie, istnieje możliwość sztucznego wygenerowania obrazów. Odbywa się to w prosty sposób - nowe obrazy tworzymy na podstawie tego który posiadamy. Wykonuje się mi.n. lustrzane odbicie, podział twarzy na część lewą i prawą i konstrukcje twarzy z obu połówek. W ten sposób z jednego obrazu otrzymujemy cztery.
Wybór bazy dla testów systemu i jej podział na bazowe i testowe
Baza danych - źródło obrazów wykorzystywanych w procesie analizy modelowanego systemu rozpoznawania twarzy;
Zawartość:
Zawiera obrazy w odcieniach szarości (kolorowe są automatycznie przekształcane na czarno-białe)
Format obrazów: JPG, BMP
Rozmiar wszystkich obrazów powinien być jednakowy (w procesie rozpoznawania rozmiarem bazowym będzie najmniejszy rozmiar obrazu wejściowego)
Zawartość dzieli się na trzy grupy:
Obrazy bazowe - służą do budowy matematycznego modelu, który umożliwia przeprowadzenie procesu rozpoznawania obrazów testowych (np. do obliczenia macierzy kowariancji)
Obrazy testowe - umożliwiają sprawdzenie skuteczności badanego systemu rozpoznawania
Obrazy nieaktywne - niewykorzystywane w systemie
Struktura - baza ma strukturę hierarchiczną:
co najmniej jedna grupa - można dla niej zdefiniować indywidualną ścieżkę przekształceń obrazów (te fajne kolorowe bloczki ;])
grupa zawiera klasy (klasa to zbiór obrazów twarzy tej samej osoby)
klasa zawiera obrazy
Podział bazy na obrazy bazowe i testowe:
założenia
Potrzebny minimum jeden obraz testowy aby możliwe było przetestowanie zamodelowanego systemu
Im więcej obrazów testowych, tym wyniki są statystycznie bardziej wiarygodne
Ilość obrazów testowych nie powinna być większa niż ilość obrazów bazowych
Realizacja
Każdy z obrazów można ręcznie przydzielić do danej kategorii(bazowy, testowy, nieaktywny)
Automatyczny podział obrazów w każdej klasie na kategorie (określamy ilość bazowych i testowych, pozostałe obrazy w każdej klasie będą nieaktywne) z wykorzystaniem jednego z trybów:
Lineał - podział liniowy, pierwsze n obrazów w klasie otrzyma kategorię „bazowy”, następne „testowy”, pozostałe zostaną nieaktywne
Min distance - obrazy w klasie są sortowane według odległości od średniego obrazu w klasie, pierwsze n najbliższych obrazów otrzyma kategorię „bazowy”, następne „testowy”
Max distance - odwrotnie do „min dostance”
Max distance (+ min) - do obrazów bazowych zostają przydzielone obrazy najbardziej oddalone od średniej oraz obraz najbliższy
5.2.3. Obróbka wstępna obrazów wejściowych
Obróbka wstępna zazwyczaj występuje w przypadkach, gdy albo nie posiadamy bazy obrazów i musimy ją uzyskać na podstawie innych obrazów (wyszukiwanie twarzy, kadrowanie, wycinanie, przydział do klas itd.) albo baza jaką posiadamy posiada inny kontekst aniżeli potrzebujemy w eksperymencie np. posiadamy bazę popiersi a potrzebujemy bazę samych twarzy. Dodatkowe obróbki to np. wyostrzanie, konstrast, zmiana koloru obrazu z kolorowego na odcienie szarości. itd.
5.2.4. Wybór sposobu ekstrakcji cech z obrazów twarzy
Wybór sposobu ekstrakcji cech ma istotne znaczenie na pracę całego systemu. Zazwyczaj spotykamy się z zależnością jakość kosztem czasu. W tym bloku funkcyjnym tkwi esencja jakości systemu, właściwy jego projekt zmniejsza konieczność ponownej reorganizacji modułu. Sposób w jaki cechy zostają wyodrębnione ma istotny wpływ na nakład obliczeń. Istnieje wiele metod ekstrakcji cech, od prostych (np. histogram - nie uwzględnia drobnych ruchów) do złożonych (FFT - uwzględnia częstotliwości kierunkowe, PCA).
5.2.4 - uzupełnieniowe przez Anię
Redukcję danych można dokonać na dwa podstawowe sposoby - poprzez ekstrakcję cech w czasie której wybieramy tylko niektóre, najważniejsze z punktu widzenia rozpoznawania cechy twarzy jak i poprzez redukcję przestrzeni cech - na przykład za pomocą LDA czy KLT.
Ekstrakcji cech można dokonać na wiele sposobów wybierając różne cechy jako najważniejsze. Wybór metody zależy przede wszystkim od stopnia redukcji do którego dążymy jak i od późniejszych wykorzystywanych metod rozpoznawania. Na schemacie przedstawiono różne sposoby wyodrębniania cech z twarzy ludzkiej. W tabelce obok przedstawiono wymiar przestrzeni cech w zależności od wyboru cech.
Różne podejścia do problemu ekstrakcji cech
Możemy wybrać do dalszej analizy:
zredukowany w wymiarach obraz (1)
widmo obrazu (2)
stworzyć powiązany łańcuch cech z linii i kolumn (3, 4)
zastosować model elastyczny - formować wektor cech z zapisanych współrzędnych punktów konturowego modelu twarzy (5)
wyodrębnić cechy lokalne takie jak: położenie źrenic, najbliższych i najdalszych punktów oczu, kącików ust itp. (6)
określić każdy wiersz lub każdą kolumnę obrazu jako samodzielnego wektora cech
KLASYFIKATOR, REGUŁA DECYZYJNA (classifier, decision rule) - stosowany w klasyfikowaniu obrazów przepis na przydzielanie obserwowanej jednostki obrazu do określonej klasy wzorców na podstawie cech wydzielonych z obrazu.
5.2.5. Wybór klasyfikatora i metody przyjęcia decyzji
Na tym etapie należy wybrać, w zależności od potrzeby, sposób kwalifikacji poprawne/niepoprawne. W tej części interesuje nas nie tylko bezpośredni sposób porównania, ale także ostateczne rankingowanie wyników. Przykładowo do porównania stosuje się różne normy odległości np. Euklidesowa, L0, L1 itd. Na podstawie uzyskanych danych można dodatkowo nałożyć pewien warunek określający czy rozpoznanie nastąpiło czy nie. Najczęściej stosuje się rozwiązanie, w którym sprawdzane jest tylko najlepsze rozwiązania, a także takie, w którym uwzględnia się małą pewną ilość najlepszych rozwiązań dla danego porównania i rozpatruje, czy poprawne rozwiązanie znajduje sie w tym zbiorze.
5.2.6. Zakończenie eksperymentu
Po zakończeniu eksperyment należy przeanalizować wyniki i poddać konkluzji całe przedsięwzięcie, a także wysnuć wnioski i wyznaczyć kierunek dlaszych prac w celu optymalizacji systemu.