Kluczowym zagadnieniem związanym z realizacją danej pracy jest lokalizacja twarzy na obrazie z kamery internetowej. Po wykryciu pozycji twarzy możliwa jest dalsza ekstrakcja jej elementów oraz wykrywanie stanu mimiki.
Obecnie działające systemy wykorzystujące lokalizację twarzy działają na bardzo różnorodnych algorytmach. Każdy z nich charakteryzuje się mniejszą lub większą szybkością działania i efektywnością poprawnej lokalizacji twarzy.
Do podstawowych algorytmów lokalizacji twarzy zalicza się całą gamę metod bazujących na kolorach. Ludzka skóra posiada charakterystyczne zabarwienie. Wyznaczając odpowiedni wzorzec barwy można wskazać na obrazie regiony ciała człowieka. W pracy [1] wymienionych zostało kilka metod bazujących na różnych przekształceniach przestrzeni barw. Do najpopularniejszych przekształceń wykorzystywanych w algorytmach lokalizacji twarzy należą transformacje nieliniowe: HSV, I1I2I3 oraz transformacja liniowa YCbCr. Algorytm bazujący na przestrzeni barw YCbCr wykorzystano w pracy [2].
Model YCbCr opisywany jest przez składowe Y - luminancja, Cb - chrominancja różnicowa i Cr - chrominancja.
Analizując pewną ilość obrazów zawierających twarz ustalono, że średnia wartość składowych Cb oraz Cr dla ludzkiej skóry zamknięta jest w ściśle określonych granicach.
10