Współczynnik korelacji rang Spearmana
Charakterystyka
Współczynnik korelacji rang Spearmana (współczynnik korelacji kolejnościowej) jest wykorzystywany do opisu siły korelacji dwóch cech, wtedy gdy:
mają charakter jakościowy (np. kolor oczu) i istnieje możliwość ich uporządkowania
do badania zależności między cechami ilościowymi (np. wzrost) w przypadku niewielkiej liczby obserwacji.
Obliczenia
Do obliczania współczynnika korelacji rang Spearmana wykorzystuje się wzór:
gdzie:
di- różnice między rangami odpowiadających sobie wartości cechy xi i cechy yi (i= 1,2,...,n)
n - liczba badanych obiektów
Etapy obliczeń rang Spearmana:
1. Uporządkowanie zmiennych według rosnących (lub malejących) wariantów jednej cechy
2.Uporządkowanym wartościom zmiennych nadajemy nr kolejnych liczb naturalnych (1,2..)- rangowanie
Rangowanie może odbywać się od największej do najmniejszej wartości lub odwrotnie (sposób rangowania musi być jednakowy dla obu zmiennych)
Rangowanie odbywa się na 2 sposoby:
stymulanta- wartości cechy są pożądane- ranguje się malejąco- najwięcej zarabiający ma 1, najmniej 10
de stymulanta- cecha której wartości są niepożądane- ranguje się rosnąco- 1-ten co ma najmniej wypadków
W przypadku, gdy występują jednakowe wartości realizacji zmiennych, przyporządkowujemy im średnią arytmetyczną obliczoną z ich kolejnych numerów. Mówi się wówczas o występowaniu tzw. węzłów. Jednakowe rangi wartości badanych zmiennych (lub na ogół jednakowe) świadczą o istnieniu dodatniej korelacji między zmiennymi [(X= Y =1), tzn Y rośnie zawsze wtedy gdy X i na odwrót]. Natomiast przeciwstawna numeracja sugeruje istnienie korelacji ujemnej.
Współczynnik korelacji rang przyjmuje wartości z przedziału [-1, 1], a jego interpretacja jest identyczna jak współczynnika korelacji Pearsona.
Dodatni znak współczynnika świadczy o istnieniu współzależności dodatniej, ujemny świadczy o korelacji ujemnej. Im bardziej współczynnik korelacji jest bliższy jedności, tym zależność korelacyjna jest silniejsza. W przypadku gdy rs= 0 świadczy o braku związku korelacyjnego między badanymi zmiennymi.
Przykład:
Ustalić współzależność pomiędzy dzienną liczbą reklam a wysokością obrotów pewnego dobra
liczba reklam | 3 | 5 | 4 | 5 | 6 | 7 | 4 | 8 |
---|---|---|---|---|---|---|---|---|
wysokość obrotu | 115 | 133 | 142 | 150 | 148 | 151 | 148 | 129 |
l.reklam | obrut | dx | dy | di | di2 | |||
3 | 115 | 1 | 1 | 0 | 0 | |||
4 | 142 | 2,5 | 4 | -1,5 | 2,25 | |||
4 | 148 | 2,5 | 5,5 | -3 | 9 | |||
5 | 133 | 4,5 | 3 | 1,5 | 2,25 | |||
5 | 150 | 4,5 | 7 | -2,5 | 6,25 | |||
6 | 148 | 6 | 5,5 | 0,5 | 0,25 | |||
7 | 151 | 7 | 8 | -1 | 1 | |||
8 | 129 | 8 | 2 | 6 | 36 | |||
suma | 57 |
rs = 0,321429
Otrzymany wynik wskazuje, że współzależność między liczbą reklam a obrotem jest bardzo słaba. Liczba reklam nie ma wpływu na obrót danym towarem.
Regresje liniowe
Na podstawie wyników badan doświadczalnych wyznacza sie zależność pomiędzy zmiennymi losowymi, najczęściej w formie tzw. równania regresji, które przedstawia charakter związków pomiędzy czynnikami wejściowymi i wynikowymi.
Z matematycznego punktu widzenia, regresja nazywamy dowolna metodę statystyczna pozwalającą estymować warunkową wartość oczekiwaną zmiennej losowej, zwanej zmienna objaśnianą, dla żądanych wartości innej zmiennej lub wektora zmiennych losowych (tzw. zmiennych objasniajacych).
Analiza regresji zajmuje sie opisem zależności miedzy wybraną zmienną (nazywana zmienna zależną lub objaśnianą) i jedna lub wieloma zmiennymi nazywanymi zmiennymi niezależnymi lub objaśniającymi.
Współzależność miedzy zmiennymi może występować w dwóch odmianach: funkcyjnej (deterministycznej)- zmiana wartości jednej zmiennej powoduje ściśle określoną zmianę wartości drugiej zmiennej i stochastycznej- wraz ze zmianą wartości jednej zmiennej zmienia się rozkład prawdopodobieństwa drugiej zmiennej. Najczęściej mamy do czynienia ze współzależnością typu stochastycznego (probabilistycznego). Do pomiaru siły tej współzależności wykorzystujemy współczynniki korelacji. Natomiast narzędziem pozwalającym badać mechanizm powiązań między różnymi zjawiskami (co do których istnieje przypuszczenie o związku przyczynowym) są funkcje regresji. Funkcje te można podzielić na liniowe i nieliniowe. Najprostszym i najczęściej wykorzystywanym narzędziem badania współzależności występujących miedzy dwoma zjawiskami jest funkcja liniowa z jedną zmienną niezależną.
Funkcja regresji Y względem zmiennej X przybiera postać:
i=1,…,n
Funkcję regresji X względem zmiennej Y można przedstawić następująco:
gdzie: n – liczba obserwacji (liczebność próby),
α0, α1, β0, β1 - parametry równań regresji,
ξi, εi - składniki losowe obu równań.