sygnałów analitycznych. Przy pomocy metody COfV, piki znajdujące się w sygnale analitycznym P są dopasowywane do ich odpowiedników w sygnale wzorcowym T. Aby osiągnąć jak najlepsze rezultaty dopasowania, współczynnik korelacji między sygnałami P i T musi być maksymalny. W metodzie tej należy zoptymalizować dwa parametry. Są to długość sekcji N i parametr t (ang. slack parameter). Szczegółową prezentację algorytmu COW można znaleźć w pracy [90].
2.11. Analiza czynników głównych (PCA)
Analiza czynników głównych (ang. Principal Components Analysis, PCA) jest metodą modelowania, kompresji i wizualizacji wielowymiarowych danych [97-100].
Zadaniem PCA jest przedstawienie danych, X, o m obiektach i n zmiennych, jako iloczyn dwóch nowych macierzy T (m*f) i P (n*f) (gdzie f«ri), które zawierają współrzędne obiektów i parametrów na kierunkach maksymalizujących opis wariancji danych. O liczbie kolumn macierzy T i P, czyli o kompleksowości modelu PCA, decyduje chemiczny rząd macierzy X, który jest co najwyżej równy jej rzędowi matematycznemu. Model PCA można wyrazić następująco:
[m,«]
— T PT -4- F
“ V/r[/,"K Ł[m,/|]
gdzie:
T - macierz wyników, P - macierz wag, a E - macierz reszt od modelu PCA z / czynnikami głównymi.
Każdy kolejny czynnik główny opisuje niewyjaśnioną przez poprzednie czynniki wariancję danych i dlatego jego wkład do opisu całkowitej wariancji jest mniejszy. Kolumny T są ortogonalne, a kolumny P ortonormalne, czyli mają jednostkową długość i są ortogonalne. Biorąc pod uwagę wspomniane ograniczenia dotyczące konstrukcji czynników głównych, równanie (3) posiada jednoznaczne rozwiązanie. Z każdym czynnikiem głównym jest stowarzyszona tzw. wartość własna, v,. Oblicza się ją jako sumę kwadratów wartości wyników dla danego czynnika głównego.
Czynniki główne pozwalają na określenie podobieństwa między próbkami, natomiast wagi niosą informację o udziale poszczególnych zmiennych. Gdy dwie
57