Analiza funkcji dyskryminacyjnej
Cel i główna idea analizy funkcji dyskryminacyjnej
Cechy wspólne analizy funkcji dyskryminacyjnej z innymi analizami statystycznymi
Założenia
Krokowa analiza dyskryminacyjna: postępująca i wsteczna. Kryterium wprowadzania/usuwania zmiennych z modelu
Istotność wkładu zmiennej w dyskryminację grup a istotność (błąd alfa) różnic między grupami.
Tolerancja i R2
Wskaźniki istotności statystycznej modelu
Interpretacja funkcji dyskryminacyjnych: istotność, współczynniki standaryzowane, funkcje w środkach ciężkości grup, macierz strukturalna czynników.
Klasyfikacja: macierz klasyfikacji, prawdopodobieństwo wstępne trafności przewidywania, testowanie trafności przewidywania.
Cel: pokazuje, które zmienne są najlepszymi predyktorami przynależności do grup (umożliwiają najlepszą dyskryminację typów, podgrup itd.).
Główna idea: rozstrzygnięcie, czy grupy różnią się ze względu na średnią pewnej zmiennej, a następnie wykorzystanie tej zmiennej do przewidywania przynależności do grup.
Odwrócenie procesu MANOVA: Jeżeli średnie pewnej zmiennej są istotnie różne w różnych grupach, to możemy powiedzieć, że ta zmienna dyskryminuje te grupy.
Krokowa analiza dyskryminacyjna - celem jest zbudowanie modelu umożliwiającego przewidywanie przynależności do grupy w kolejnych krokach, które polegają na włączaniu do modelu zmiennych, które zwiększają trafność przewidywania.
Postępująca krokowa
Na każdym etapie Program będzie przeglądał wszystkie zmienne i oceniać, która najbardziej przyczyniają się do dyskryminacji grup. Ta najlepsza zmienna zostaje włączona do modelu i program przechodzi do wykonywania kolejnego kroku.
Krokowa wsteczna
Program włącza do modelu wszystkie zmienne, a następnie w każdym kroku będzie eliminował zmienną, która najmniej wnosi do przewidywania przynależności do grupy. Na końcu pozostaną nam tylko ważne zmienne, które rzeczywiście przyczyniają się do dyskryminacji grupy.
Sterownik procedury krokowej
Są nimi wartości F wprowadzenia i F usunięcia. Wskazują one istotność statystyczną w dyskryminowaniu grup, to znaczy mówi, jaki jest indywidualny wkład zmiennej w przewidywaniu przynależności do grupy. Jego funkcja jest taka sama, jak w ANALIZIE REGRESJI.
(W SPSS można wpisać poziom istotności np. 0.05 wprowadzenia - będą wprowadzane tylko istotne)
Program będzie wybierać zmienne do modelu, dopóki odpowiednie wartości F dla tych zmiennych będą większe niż określone prze użytkownika F wprowadzenia lub usuwać te, które są mniejsze od F usunięcia.
W SPSS ogólna istotność modelu jest w ostatnim kroku
Typowy błąd
W każdym kroku Program oblicza istotność wkładu każdej rozważanej zmiennej. Dlatego procedury krokowe mogą dawać lepsze wyniki przypadkowo, ponieważ przebierają w zmiennych, które mają włączone do modelu, tak aby uzyskać najlepszą (maksymalną) dyskryminację. Zatem stosują podejście krokowe badacz powinien być świadomy, że poziomy istotności nie odzwierciedlają rzeczywistej wielkości błędu ALPHA (czyli błędnego odrzucenia H0 - że nie ma żadnego zróżnicowania grup).
Tolerancja
W każdym kroku program oblicza korelację wielokrotną pomiędzy zmienną włączoną do modelu w tym kroku a zmiennymi, które już zostały do niego włączone w ten sposób powstaje R2 - który jest miarą wspólnej wariancji danej zmiennej z pozostałymi w modelu. 1-R2. Po każdym kroku R2 jest na nowo obliczany dla każdej zmiennej w modelu z innymi zmiennymi, a więc się zmienia, bo do modelu wchodzą nowe zmienne. Tolerancja = 1 - R2. Bardziej interesująca jest interpretacja R2, niż samej tolerancji jako takiej. Jeśli tolerancja jest równa 0 (lub bardzo bliska), oznacza to, że wkład danej zmiennej do dyskryminacji jest minimalny w świetle wkładu pozostałych. A więc tolerancja pokazuje wielkość wyjątkowego (niepowtarzalnego przez inne zmienne) wkładu danej zmiennej do dyskrymiancji grup w świetle pozostałych.
Wartość cząstkowej Lambdy Wilksa
Wartość cząstkowej Lambdy Wilksa wskazuje, która zmienna ma największy (bo wartość cząstkowa Lambda jest najmniejsza) wkład do ogólnej dyskryminacji
2 grupy
Wynik analizy dyskryminacyjny jest identyczny z wynikiem analizy regresji.
Zmienne, które mają największe standaryzowane współczynniki regresji w największym stopniu przyczyniają się do predykcji przynależności do grup:
Grupa = a + b1×x1+b2×x2 + ... + bm×xm
Funkcje dyskryminacyjne dla wielu grup
Jeżeli mamy więcej niż dwie grupy możemy oszacować osobne funkcje dyskryminacyjne dla grup łączonych w taki sposób, żeby tworzyły pary: np. 1 vs. 2+3 lub 2 vs. 3. Współczynniki można interpretować tak samo, jak poprzednio.
Analiza kanoniczna
Jeżeli nie określamy sposobu łączenia grup, to program automatycznie określi optymalną kombinację zmiennych, tak że pierwsza funkcja zapewni najbardziej ogólne rozróżnienie między grupami, druga następne w kolejności.
Funkcje te są ortogonalne (niezależne) i ich udział w dyskryminowaniu grup nie będzie się pokrywał. Ich liczba wynosi n-1, gdzie n liczba grup. Zostanie to obliczone poprzez korelację kanoniczną.
Tworzą one ukryte czynniki (utajone zmienne), które pozwalają najlepiej różnicować grupy. Jeżeli by sprawdzić istotność różnic w zakresie tych zmiennych utajonych, grupy będą się w nich różnić. Każda utajona zmienna pozwala ustalić różnice pomiędzy innymi zestawami grup. Inaczej, po nazwaniu tych zmiennych utajonych będziemy wiedzieli, na podstawie jakich zmiennych (ukrytych) można odróżnić jedną grupę od innych.
Interpretacja funkcji dyskryminacyjnych
Im większy współczynnik standaryzowany, tym większy udział tej zmiennej w dyskryminowaniu grup. Nie mówią one jednak, które grupy są dyskryminowane przez dane funkcje.
Naturę dyskryminacji możemy określi przyglądając się średnim dla tych funkcji w grupach (w SPSS - Funkcje w środkach grup + dobra ilustracja Połączone grupy) - czyli jakie grupy dyskryminuje dana funkcja. Patrzymy, która średnia odbiega od reszty - jaką grupę należy przeciwstawić jakiej dla danej funkcji.
Współczynniki funkcji dyskryminacyjnej określają indywidualny (cząstkowy) wkład każdej zmiennej do funkcji dyskryminacyjnej.
Nasilenie funkcji dyskryminacyjnych można zapisać, aby można je w przyszłości korelować z innymi zmiennymi.
Macierz strukturalna czynników
W SPSS podane są korelacje ze wszystkimi zmiennymi - dla ułatwienia interpretacji zmiennych kanonicznych
Pokazuje korelacje między zmiennymi a tą funkcją dyskryminacyjną. Podobnie jak współczynniki pozwala ustalić która zmienna/zmienne jest najbardziej znacząca (decyduje o wartości) funkcji dysryminacyjnej, czyli są najbardziej wartościowe w procesie predykcji. Jeżeli chcemy te funkcje nazwać, należy wykorzystać macierz strukturalną, a czynniki interpretuje się tak samo, jak w analizie czynnikowej.
Istotność funkcji dyskryminacyjnych
Należy interpretować tylko te, które są istotne - czyli od tego należy zacząć!
Etapy interpretacji:
Testowanie istotności funkcji (pierwiastków)
Dla istotnych przeglądami współczynniki standaryzowane b. Im większe b, tym większy wkład zmiennej w dyskryminację.
Jeżeli chcemy nazwać funkcje dyskryminacyjne, to interpretujemy macierz strukturalną
Na podstawie średnich zmiennych kanonicznych dowiadujemy się, jakie grupy najlepiej dana funkcja dyskryminuje
Założenia
Takie same jak ANOVA/MANOVA
Normalność rozkładu - ale nie jest zgubne.
Homogeniczność wariancji - nie są zbyt ważne
Korelacja średnie-wariancja - rzeczywiste zagrożenie → obserwacje skrajne
Zmienne nie powinny być w pełni redundantne (inaczej złe uwarunkowanie macierzy - jeżeli zmienna będzie redundantna w więcej niż 99%)
W razie wątpliwości, można pozbyć się mniej interesujących grup, i powtórzyć obliczenia, czy interpretacja pozostanie taka sama.
Klasyfikacja
Stanowi główny cel zastosowania analizy funkcji dyskryminacyjnej
Predykcja post hoc - predykcja w oparciu o funkcję klasyfikacyjną wyników, na podstawie których została ona wyliczona.
Predykcja a priori - predykcja przypadków na postawie funkcji klasyfikacyjnych, które nie były wykorzystywane do obliczania funkcji dyskryminacyjnej.
Funkcje klasyfikacyjne (<>funkcje dyskryminacyjne) służą do predykcji przynależności do grupy. Jest ich tyle, ile jest grup.
Odległość Mahalanoisa - odległość między dwoma punktami w przestrzeniu wielowymiarowej, której wymiary nie są ortogonalne (wskutek skorelowania zmiennych). Gdyby były ortogonalne, byłaby to odległość Euklidesowa. Dla każdej grupy ustala się średnie w poszczególnych wymiarach, które stanowią nasilenia poszczególnych zmiennych na podstawie których dokonujemy predykcji. Punkty te dla grup nazywa się centroidami. Poszczególnym osobom też odpowiadają punkty w tej przestrzeni. Osoba będzie zaklasyfikowana do tej grupy, do której centroidu znajduje się najbliżej
Macierz klasyfikacji
Pokazuje, na ile dobrze funkcje klasyfikacyjne pozwalają przewidzieć przynależność przypadków do grupy. Pokazuje liczbę przypadków poprawnie sklasyfikowanych oraz tych, które zostały sklasyfikowane błędnie.
W SPSS - Tabela podsumowań - odczytujemy po przekątnej % trafności klasyfikacji. Można je porównać ze wstępnymi, aby zobaczyć, o ile zwiększa się trafność przewidywania w stosunku do losowej.
Należy ustawić wstępne prawdopodobieństwa szacowane w oparciu o liczebności grup.
Trafność funkcji klasyfikacyjnych
Aby przekonać się, na ile trafnie funkcje klasyfikacyjne działają, należy zaklasyfikować inne nowe przypadki, które nie były wykorzystane do oszacowania funkcji klasyfikacyjnych.
Klasyfikacja starych przypadków jest dobrym narzędziem identyfikacji przypadków odstających lub obszarów, gdzie ta funkcja jest mniej trafna
4