Współczynnik korelacji Pearsona:
∑
∑
∑
=
=
=
−
−
−
−
=
=
n
i
i
n
i
i
n
i
i
i
y
x
xy
y
y
n
x
x
n
y
y
x
x
n
s
s
y
x
r
1
2
1
2
1
)
(
1
)
(
1
)
)(
(
1
)
,
cov(
gdzie:
n- liczebność próby,
cov(x,y)- kowariancja (współzmienność pomiędzy x i y),
s
x
, s
y
, - odchylenia standardowe zmiennej x i .
Interpretacja:
Mówi o sile (wartość) i kierunku (znak) zależności pomiędzy dwoma cechami, np. r
xy
=0.9
ś
wiadczy o silnej, dodatniej korelacji (zależności, związku) pomiędzy x i y.
Właściwości:
- korelacja pomiędzy dwoma cechami ilościowymi,
- tylko dla zależności liniowych,
- korelacja ujemna i dodatnia (od-1 do 1):
- "+":cechy zmieniają się jednokierunkowo: wzrostowi (spadkowi) wartości x
towarzyszy wzrost (spadek) wartości y,
- "-": cechy zmieniają się dwukierunkowo: wzrostowi (spadkowi) wartości x
towarzyszy spadek (wzrost) wartości y.
Współczynnik korelacji cząstkowa Kendalla
Dla 3 cech: x
1
, x
1
, x
1
mamy:
)
1
)(
1
(
2
23
2
13
23
13
12
3
.
12
r
r
r
r
r
r
−
−
−
=
)
1
)(
1
(
2
23
2
12
23
12
13
2
.
13
r
r
r
r
r
r
−
−
−
=
)
1
)(
1
(
2
13
2
12
13
12
23
1
.
23
r
r
r
r
r
r
−
−
−
=
gdzie: r
ij
– współczynnik korelacji Pearsona pomiędzy i-tą i j-tą zmienną.
Interpretacja:
r
12.3
=0.9 oznacza, że istnieje silna, dodatnia korelacja (zależność) pomiędzy zmienną 1 i 2, po
wyeliminowaniu wpływu zmiennej 3.
Właściwości:
- pomiędzy dwoma cechami (zmiennymi) ilościowymi, lecz gdy wpływ innych chcemy
odseparować,
- korelacje różnego rzędu:
- np. rz I: dla 3 zmiennych z wyłączeniem oddziaływania jednej z nich,
- rz II: dla 4 zmiennych z wyłącznieniem oddziaływania dwóch z nich,
- rz "n": dla n+2 zmiennych z wyłączeniem oddziaływania "n" z nich,
- korelacja ujemna i dodatnia (od -1 do 1) jak w przypadku Pearsona.
Współczynnik korelacji wielorakiej (pierwiastek ze współczynnika determinacji):
R
D
R
xk
x
x
x
y
det
det
1
,...,
3
,
2
,
1
.
−
=
gdzie:
D- macierz korelacji pomiędzy wszystkimi zmiennymi (objaśniającymi x i objaśnianą y):
=
1
...
...
1
...
...
...
...
1
...
1
...
1
2
.
1
.
.
.
2
1
.
2
.
2
.
1
2
1
.
1
.
2
1
.
x
xk
x
xk
y
xk
xk
x
x
x
y
x
xk
x
x
x
y
x
xk
y
yx
x
y
r
r
r
r
r
r
r
r
r
r
r
r
D
R- macierz korelacji pomiędzy zmiennymi objaśniającymi (x)
Interpretacja:
Zazwyczaj interpretacji podlega kwadrat R zwany współczynnikiem determinacji R
2
. Np.
jeżeli R=0.9, to R
2
=0,81, co oznacza, że zmienność zm. zależnej (y) została w 81%
wyjaśniona zmiennością zm. niezależnych (x-ami) , a mówiąc prościej, że model w 81 %
opisuje dopasowanie modelu do danych.
Właściwości:
- pomiędzy wieloma cechami (zmiennymi) ilościowymi,
- wartości z przedziału (0;1):
- im bliżej 1 tym związek pomiędzy y a x-ami jest silniejszy,
- im bliżej 0 tym związek pomiędzy y a x-ami słabszy,
- podniesiony do kwadratu daje współczynnik determinacji.
Współczynnik korelacji rang Spearmana:
n
n
d
r
n
i
i
S
−
−
=
∑
=
3
1
2
6
1
gdzie:
d
i
– dystans (różnica) pomiędzy rangami, tzn. różnica pomiędzy rangami cechy x
i y.
Interpretacja:
- gdy korelacja rang jest doskonała, to
Σ
d
i
2
=0 oraz r
S
=+1, co oznacza pełną zgodność
uporządkowań,
- gdy korelacja rang jest przeciwna, to
Σ
d
i
2
=(n
3
-n)/3 oraz r
S
=-1, co oznacza pełną
przeciwstawność uporządkowań,
- r
S
=0 otrzymujemy brak zgodności uporządkowań.
Właściwości:
- pomiędzy dwoma cechami (zmiennymi) jakościowymi,
- zmiennym przypisuje się rangi zgodnie z intensywnością występowania danej cechy,
- jest to wsp. korelacji Pearsona, tylko dla rang prościej się go liczy.