myli'
■ tfclHrt (Mliii.........
1
i
*
i
m
u
u
u
ii
Można jednak |*i wypuszczać, że ani dzienni kurze nni politycy nic korzystają z testów proporcji wypowiadając się o rosnącym lub słabnącym poparciu.
Wybrane procedury statystyczne
gdzie Pi to proporcja sukcesów w grupie i a po,< to zadana stała. Innymi słowy hipoteza zerowa to przypuszczenie, że prawdopodobieństwo sukcesu w grupie i jest równe po,o Argument p powinien określać wektor wartości po,, .
Przykładowe wykorzystania testu proporcji przedstawimy na przykładzie politycznym. Przed wyborami prezydenckimi w roku 2005 przeprowadzano wiele sondaży. Przypomnijmy wyniki sondażu PBSu z 19 października 2005 roku. 1 W grupie przebadanych 1234 pełnoletnich osób 48% osób (592 osoby) zadeklarowało głosowanie na Lecha Kaczyńskiego a 52'/. (642 osoby) na Donalda Tuska. Sprawdźmy testem proporcji, czy 592/1234 jest istotnie różne od poparcia 50'/..
> <t 594 sukcesy (lub symetrycznie 642) na 1234 prtfby mogły się zdarzyć
przy prawdopodobieństwie sukcesu 50%
> (wtestu = prop.test(594,1234,p=0.5))
1-sample proportions test with continuity correction
data: 594 out of 1234, nuli probability 0.5 X-3quared = 1.641, df = 1, p-value = 0.2002 alternative hypothesis: true p is not equal to 0.5 95 percent confldence interval:
0.4531816 0.5096586 sample estimates:
P
0.4813614 > utestułconf. int
Cl] 0.4531816 0.5096586
attr(,"conf.level")
[1] 0.95 S|
y. ' ' V / ■
A więc, dla tych wyników, nie ma podstaw, by odrzucić hipotezę, że poparcie obu kandydatów było równe!
Podobnie jak w przypadku testowania równości średnich w ANOVA, tak też dla testowania równości proporcji odrzucenie hipotezy zerowej odpowiada stwierdzeniu, że któreś dwa prawdopodobieństwa sukcesu różnią się istotnie. Nie wiemy jednak które. Aby to ocenić, należy porównywać populacje parami. Można to zrobić testem prop.testO uruchamiając go dla każdej pary podpopulacji lub wykorzystać funkcję pairwise.prop.test(stats). Funkcja ta przeprowadza test proporcji pomiędzy każdą parą proporcji, a do otrzymanych p-wartości stosuje wybraną (z wielu możliwych) korektę uwzględniających liczbę wykonanych testów (patrz argument p.adjust.method). Poniżej przedstawiamy przykład z wykorzystaniem konserwatywnej korekty Bonferroniego.
> * określamy wektor liczby sukcesów oraz liczby prób w pięciu
eksperymentach
> x <- c(ll,120,1300,14000,150000)
> n <- c(100,1000,10000,100000,1000000)
? t) wyliczone proporcje różnią się o mniej więcej tyle samo
> jc/n
[jj 0.11 0.12 0.13 0.14 0.15
> tt ale wynik testu zależy od różnicy pomiędzy proporcjami i liczby prób.
? ż warto samodzielnie sprawdzić jak zmieni się wynik, jeżeli zmienimy
metodę korekty na liczbę testów
> pairuise.prop.test(x, n, p.adjust.method ■= “bonferroni")
Pairuise coraparisons using Pairuise comparison of proportiona -. data: x out of n
1 2 3 4
2 1.000 -3 1.000 1.000 -
4 1.000 0.769 0.061
5 1.000 0.090 2.7e-07 2.7e-16
p value adjustment method: bonferroni
Do testowania wartości prawdopodobieństwa sukcesu w rozkładzie dwumianowym (a więc dla jednej próby) można toż wykorzystać test binom.test(stats).
3.5.5 Testy istotności dla wybranych współczynników zależności pomiędzy dwoma zmiennymi
W tym rozdziale będą przedstawione funkcje i pakiety R pozwalające na wyznaczenie różnych, próbkowych współczynników zależności dla dwóch zmiennych w tyra: korelacji, korelacji rangowej, współczynnika kappa, czułości, specyficzności itp. W tym rozdziale przedstawione będą również testy pozwalające weryfikować hipotezy o istotności danego współczynnika.
3.5.5.1 Dwie zmienne jakościowe i współczynnik korelacji
Najpopularniejszą miarą zależności pomiędzy dwoma zmiennymi jest współczynnik 3 , korelacji Pearsona. Jeżeli zmienne mają łączny rozkład normalny, to korelacja mir ! f. rzy liniową zależność pomiędzy tymi zmiennymi. Próbkowy współczynnik korelacji i P Pearsona wyznaczany jest ze wzoru
cor(X, Y) = px.y
(3.18)
gdzie przez px,Y będziemy oznaczać próbkowe współczynniki korelacji (z więc iick ny korelacji pomiędzy zmiennymi losowymi). W R współczynnik korelacji wyli cza się funkcją cor(). Ta funkcja poza współczynnikiem korelacji Pearsona może wyznaczyć również współczynnik p Spearmana (rangowy współczynnik koieliujl, wyznaczany, gdy argument method="spearman") lub r Kendalla (gdy argumenl oethod="kendall"). Aby zweryfikować hipotezę zerową:
fffl • Px,y — O,
Wyniki tego sondażu PDSu st| dostępne pod adresem http://wvmi.pbssojiot.com.pl/xphp9x 184/Kalkutalor-prrzyderirki htrnl