31
1.5. Macierze współzależności
dla i,k= 1,2.....p. Jej elementami, poza główną przekątną, są współczynniki ko
relacji par zmiennych określonych w wektorze zmiennych, które obliczamy według wzoru
*
(120)
Macierz korelacji jest symetryczną (rjt — r. ) macierzą kwadratową (p X p). Jest ona związana z macierzą kowariancji S relacją
(1.21)
(122)
r = d,/2sd~1/2
Zależność odwrotną możemy zapisać następująco
s=d1/2rd,/2
Jeżeli zmienne są standaryzowane (a wówczas macierz odchyleń standardowych jest jednostkowa, D1/ — I), to
S = R
(123)
W podejściu stochastycznym macierz korelacji oznaczamy symbolem P Macierz współczynników korelacji R dostarcza pierwszej wskazówki o powiązaniach zmiennych występujących w macierzy danych . Niektóre metody analizy wielowymiarowej wymagają, aby współczynniki korelacji były istotne. Jeżeli więc obliczenia wykonujemy na macierzy korelacji z próby prostej, to w teście hipotezy o niezależności zmiennych w populacji wykorzystujemy statystykę
X1 = -nln |R|
(124)
stopniami swobody (obszar krytyczny w tym teście jest prawostronny).
W roku 1929 R Frisch wprowadził termin współczynnika rozproszenia, de finiując go jako pierwiastek kwadratowy z wyznacznika macierzy korelacji mię
dzy parami zmiennych. J\R\. Jest on traktowany jako miara własności rozkładu
wielowymiarowego. Odpowiednik tego współczynnika dla dwóch zmiennych, czyli / |r, |, jest nazywany współczynnikiem alienacji
W analizie wielowymiarowej występują też inne macierze, szczególnie tz.w. macierze odległości lub podobieństwa. Zostaną one omówione w odpowiednich rozdziałach.
22 Macierz korelacji służy do pewnych pogłębionych analiz powiązań, jak np metodą clcmcntar nych powiązań (ang. single linkage).