Teoria testowania hipotez statystycznych
1. Podstawowe pojęcia.
2. Testy jednostajne najmocniejsze.
3. Testy oparte na ilorazie wiarogodności.
X = ( X , X ,..., X
= θ
P : θ ∈
1
2
) T
n
- próba losowa prosta z rozkładu θ
P ∈ P {
}
Θ o dystrybuancie F,
przyjmująca wartości w przestrzeni X n .
P = { θ
P :θ ∈ }
Θ - rodzina rozkładów prawdopodobieństwa zmiennej losowej X określona na (X, F ) indeksowana parametrem θ ∈ Θ .
X
Na podstawie wyników obserwacji x= ( x ,
1 x ,...,
2
xn) z próby losowej X chcemy zweryfikować po-
stawioną hipotezę dotyczącą nieznanego rozkładu θ
P lub nieznanego parametru θ rozkładu θ
P wek-
tora losowego X, tj. podjąć decyzję o jej przyjęciu lub odrzuceniu.
1 – Podstawowe pojęcia
Hipoteza statystyczna
Hipotezą statystyczną nazywamy każde przypuszczenie dotyczące nieznanego rozkładu prawdopodobieństwa badanej zmiennej losowej (jego postaci funkcyjnej lub wartości jego parametrów).
Weryfikacja hipotezy statystycznej polega na podejmowanie decyzji o prawdziwości lub fałszywości hipotezy statystycznej na podstawie wyników próby losowej X.
Testem hipotezy statystycznej nazywamy regułę postępowania, która każdej wartości X przyporząd-kowuje jedną z dwóch decyzji - decyzję przyjęcia hipotezy (gdy brak podstaw do jej odrzucenia) lub decyzję odrzucenia hipotezy (i przyjęcia hipotezy alternatywnej).
• Rodzaje hipotez
Hipotezy dotyczące wartości parametrów rozkładu nazywamy hipotezami parametrycznymi, hipotezy, które nie są parametryczne nazywamy hipotezami nieparametrycznymi.
Hipotezę parametryczną,, która wyznacza dokładnie jeden jej rozkład nazywamy prostą, hipotezę, któ-
ra wyznacza rodzinę rozkładów nazywamy hipotezą złożoną.
Przykład 7.1. Hipotezy statystyczne – przykłady.
1. Przypuśćmy, że czas życia elementu jest zmienną losową X o rozkładzie wykładniczym Ex(θ ) z nieznanym parametrem θ > 0 .
Obserwujemy X , X ,..., X
Ex θ
1
2
n , niezależne zmienne losowe o jednakowym rozkładzie
( ).
1
Hipoteza: EX =
= 100
θ
, średni czas życia elementu wynosi 100 h (hipoteza parametryczna prosta).
2. Wykonujemy pomiary i interesuje nas ich dokładność.
N (
2
,
9 σ )
Obserwujemy X , X ,..., X
1
2
n , niezależne zmienne losowe o jednakowym rozkładzie
, wa-
riancja nie jest znana.
1
2
σ ≤1, wariancja nie przekracza pewnej ustalonej wartości (hipoteza parametryczna zło-
żona).
3. Interesuje nas czas T pomiędzy dwoma kolejnymi zgłoszeniami do centrali telefonicznej.
Obserwujemy X , X ,..., X
1
2
n momenty zgłoszeń do centrali telefonicznej.
Hipoteza: Zmienna losowa T ma rozkład wykładniczy (hipoteza nieparametryczna).
• Rozważamy hipotezę statystyczną (przypuszczenie) dotyczącą nieznanego rozkładu θ
P lub
nieznanego parametru θ rozkładu θ
P wektora losowego X. Gdyby rozkład θ
P lub parametr
θ rozkładu θ
P był znany, wiadomo byłoby również, czy postawiona hipoteza jest prawdzi-wa.
Niech rodzina rozkładów P =
,
1
P = ∅
0
P ∩
0
P ∪ 1
P
, gdzie
0
P - zawiera te rozkłady θ
P , dla których hipoteza jest prawdziwa,
P −
1
P =
0
P - zawiera te rozkłady, dla których hipoteza jest fałszywa.
W analogiczny sposób, zbiór parametrów Θ = Θ ∪ Θ
Θ
Θ1 = ∅
0
1 ,
0 ∩
, gdzie
Θ - zawiera parametry tych rozkładów
0
θ
P , dla których hipoteza jest prawdziwa
Θ = Θ − Θ
1
0 - zawiera parametry tych rozkładów, dla których hipoteza jest fałszywa.
Przy takim podziale rodziny rozkładów P lub zbioru parametrów Θ postawiona hipoteza jest rów-noważna stwierdzeniu, że rozkład Pθ ∈
θ ∈Θ
0
P lub parametr
0 .
Hipotezę postawioną oznaczamy przez H 0 i nazywamy hipotezą zerową.
Z hipotezą zerową H 0 związana jest hipoteza alternatywna. Jest to hipoteza, którą jesteśmy skłonni akceptować po odrzuceniu hipotezy zerowej. Oznaczamy ją przez H 1 .
Rozkłady należące do zbioru 1
P nazywamy alternatywnymi względem 0
P , a 1
P nazywamy rodziną
alternatyw.
Hipotezy statystyczne zapisujemy w postaci:
H
θ ∈Θ
H
θ ∈
0 :
Θ
0 ,
1 :
1 ,
gdzie Θ , Θ
Θ
Θ1 = ∅
1 ⊂ Θ i
0 ∩
.
0
Jeżeli zbiór Θ0 jest jednoelementowy, to hipotezę H 0 nazywamy prostą.
Decyzję o przyjęciu lub odrzuceniu hipotezy zerowej H 0 podejmujemy na podstawie zaobserwowa-nych wartości - realizacji x = ( x ,... x
1
n ) - wektora losowego X.
Test statystyczny
Testem hipotezy statystycznej nazywamy regułę, która precyzuje dla jakich wartości x = ( x ,... x 1
n ) ∈
X n wektora losowego X powinniśmy przyjąć hipotezę H 0 , a dla jakich wartości X ją odrzucić.
Zbiór X n
c
= B ∪ B , B ∩ c
B = ∅ , gdzie
B - zbiór tych wartości wektora X, dla których odrzucamy hipotezę zerową H 0 , 2
B c =X n -B - dopełnienie zbioru B, zbiór tych wartości wektora X, dla których przyjmujemy hipotezę zerową H 0 .
Zbiór B nazywamy obszarem odrzucenia lub obszarem krytycznym, zbiór B c nazywamy obszarem przyjęcia.
Definicja 7.1. Testem niezrandomizowanym hipotezy H 0 przeciwko hipotezie H 1 nazywamy funkcj
n
ę ϕ : X → { }
1
,
0
taką, że
1
x ∈ B
ϕ (x) = 1
,
B (x) =
0
∈ c
x
B
gdzie B = {x ∈ X n : ϕ (x) = }
1 jest obszarem odrzucenia, a B c =X n -B obszarem przyjęcia..
Funkcja ϕ (x) jest indykatorem zbioru B:
ϕ (x) = 0 - nie ma podstaw do odrzucenia H 0 , x ∈B c , ϕ (x) = 1 - odrzucamy H 0 , x ∈B .
• Obszar odrzucenia B konstruuje się w oparciu o statystykę T : X n → R nazywaną statystyką testową. Wtedy obszarowi odrzucenia B odpowiada zbiór K w zbiorze wartości statystyki T nazywany zbiorem krytycznym
Przykład 7.2. Dla statystyki testowej
X − µ
T
0
(Χ) =
n
2
σ 0
N (
2
µ0,σ0 )
opartej na próbie losowej X = ( X , X ,..., X
1
2
) T
n
z populacji o rozkładzie normalnym
ze
znanymi parametrami obszar odrzucenia jest określony jako zbiór
x − µ
B = x = ( x ,..., x
0
1
n ): T (x) =
n > c ,
σ0
(co oznacza odrzucić hipotezę H 0 , gdy obliczona wartość funkcji T (x) jest większa od c)
i odpowiada to obszarowi krytycznemu
K = { t : t > }
c ,
x − µ
gdzie t jest wartością statystyki T , tzn. t = T ( ) =
0
x
n > c
σ
.
0
Stałą c nazywamy wartością krytyczną.
Definicja 7.2. Testem zrandomizowanym hipotezy H 0 przeciwko hipotezie H 1 nazywamy funkcję ϕ : X n→ [ ]
1
,
0
, gdzie ϕ (x)∈[
]
1
,
0
jest prawdopodobieństwem podjęcia decyzji o odrzuceniu hipo-
tezy H 0 , gdy zaobserwowano x.
Dla zaobserwowanej wartości x:
ϕ (x) = 0 - nie ma podstaw do odrzucenia H 0 , x ∈B c ,
ϕ (x)∈ (
)1
,
0
- odrzucamy H
ϕ
0 z prawdopodobieństwem
(x), x∈B,
ϕ (x) = 1 - odrzucamy H 0 , x ∈B.
3
Dla zaobserwowanej wartości x∈X n hipoteza H 0 zostaje przyjęta z prawdopodobieństwem
1 − ϕ (x) i odrzucona z prawdopodobieństwem ϕ (x)
Błędy I i II rodzaju
Przy podejmowaniu decyzji o przyjęciu bądź odrzuceniu hipotezy H 0 można podjąć decyzję poprawną (przyjąć hipotezę, gdy jest prawdziwa) lub popełnić jeden z dwóch rodzajów błędów.
Definicja 7.3. Błędem I rodzaju nazywamy podjęcie decyzji o odrzuceniu hipotezy H 0 , gdy jest ona prawdziwa i powinna być przyjęta.
Definicja 7.4. Błędem II rodzaju nazywamy podjęcie decyzji o przyjęciu hipotezy H 0 , gdy jest ona fałszywa i powinna być odrzucona.
W tabeli są przedstawione dwa rodzaje błędów w testowaniu hipotez.
Na podstawie próby
H 0 jest prawdziwa
H 0 jest fałszywa
odrzucamy H
błąd I rodzaju
decyzja poprawna
0
przyjmujemy H
decyzja poprawna
błąd II rodzaju
0
Prawdopodobieństwo błędu I rodzaju jest równe P (X
θ
∈ B) , gdzie θ ∈Θ
=
0 , X
( X , X ,..., X
1
2
) T
n
.
Prawdopodobie
c
ństwo błędu II rodzaju jest równe P (X
θ
∈ B ) = 1 − P(X ∈ B), gdzie θ ∈Θ1,
X = ( X , X ,..., X
1
2
) T
n
.
Przykład 7.2. Na podstawie próby jednoelementowej x = 0,5 wylosowanej z rozkładu wykładniczego z parametrem λ o funkcji gęstości
−
f ( x) = λ λ
e
x 1 ∞ x
x ∈ R λ >
(0, ) ( ),
,
0
a) zweryfikować hipotezę H : λ = 2
H
λ =
0
przeciwko
:
1
1
przyjmując obszar odrzucenia
B = { x : x > }
1 ,
b) obliczyć prawdopodobieństwa błędów I i II rodzaju.
Rozwiązanie.
a) x = 0,5∉ B , zatem H 0 należy przyjąć, rozkład zmiennej losowej X jest rozkładem wykładniczym z parametrem λ = 2 .
b) Dla λ = 2 , prawdopodobieństwo popełnienia błędu I rodzaju jest równe
+∞ −λ x
−λ x ∞
−λ
P (
λ X ∈ B) = λ
P ( X > )
1 = λ ∫ e
dx = − e
= e
λ = = 1
,
0 36
1
2
.
1
Dla λ = 1, prawdopodobieństwo popełnienia błędu II rodzaju jest równe
1 − x
λ
−λ x
−λ
1
P ( X
λ
∉ B) = Pλ ( X ≤ )
1
1
= λ∫ e
dx = − e
= 1
( − e
) λ = = 1− = 6
,
0 31
0
1
.
0
e
Funkcja mocy
Definicja 7.5. Funkcję β : Θ → [
]
1
,
0
określoną wzorem β (θ ) = E[ϕ (Χ)] nazywamy funkcją mocy
testu zrandomizowanego ϕ .
4
Wartość oczekiwaną E[ϕ (Χ)] w punkcie θ ∈ Θ1 nazywamy mocą testu ϕ przy alternatywie θ .
Prawdopodobieństwo błędu I rodzaju jest równe β (θ ) = E[ϕ (Χ)], θ ∈ Θ0 .
Prawdopodobieństwo błędu II rodzaju jest równe 1 − β (θ ) = 1 − E[ϕ (Χ)], θ ∈ Θ1 .
Dla testu niezrandomizowanego E[ϕ (Χ)] = 1⋅ Pθ (Χ ∈ B)+ 0 ⋅ Pθ (Χ ∈ Bc )= Pθ (Χ ∈ B) .
Definicja 7.6. Funkcję β : Θ → [
]
1
,
0
określoną wzorem β (θ ) = Pθ (Χ ∈ B) nazywamy funkcją mo-
cy testu niezrandomizowanego ϕ z obszarem odrzucenia B.
Stąd mamy
β (θ ) = Pθ (Χ ∈ B)= P(odrzucenie H
θ ∈ Θ
0 , prawdziwej) = P(błąd I rodzaju), jeżeli
0 ,
moc testu:
β (θ ) = Pθ (Χ ∈ B)= P(odrzucenie H
θ ∈Θ
0 , fałszywej) = 1- P(błąd II rodzaju), jeżeli
1 .
Rozmiar i poziom istotności testu
Definicja 7.7. Rozmiarem testu ϕ nazywamy liczbę
α = sup β (θ ), α ∈[
]
1
,
0
.
θ Θ
∈ 0
Jest to supremum prawdopodobieństwa błędu I rodzaju (odrzucenie hipotezy, gdy jest prawdziwa).
Definicja 7.8. Test ϕ z funkcją mocy β (θ ) jest testem na poziomie istotności α , jeżeli sup β (θ ) ≤ α .
θ Θ
∈ 0
Zbiór testów na poziomie istotności α zawiera zbiór testów rozmiaru α .
• Najlepszym testem byłby test, który minimalizuje prawdopodobieństwa obu błędów jednocze-
śnie. Taki test nie istnieje, ponieważ dla ustalonego rozmiaru próby X nie jest możliwa jedno-czesna minimalizacja prawdopodobieństw błędu I i II rodzaju - zmniejszanie prawdopodobieństwa błędu I rodzaju powoduje wzrost prawdopodobieństwa błędu II rodzaju i odwrotnie
• Ponieważ funkcja mocy β (θ ) określa prawdopodobieństwo odrzucenia hipotezy H 0 przy zastosowaniu testu ϕ w zależności od parametru θ , więc dobry test powinien mieć funkcje mocy bliską zeru dla większości θ ∈ Θ0 (minimalne prawdopodobieństwo odrzucenia hipotezy, gdy jest prawdziwa) i bliską jedności dla większości θ ∈ Θ1 (maksymalne prawdopodobieństwo odrzucenia hipotezy, gdy jest fałszywa).
• Testy konstruuje się tak, aby ich moc była jak największa (maksymalne prawdopodobieństwo odrzucenia hipotezy, gdy jest fałszywa) lub jak najmniejsze prawdopodobieństwo błędu II rodzaju (przyjęcia hipotezy, gdy jest fałszywa)
Schemat budowy testu statystycznego
1. Określenie modelu statystycznego (np. próba pochodzi z rozkładu normalnego o nieznanej warto
2
ści oczekiwanej µ i wariancji σ
= 6 ).
2. Sformułowanie hipotez: zerowej H
H
µ =
H µ ≠
0 i alternatywnej H 1 (np.
:
0
:
0
0
1
).
3. Ustalenie poziomu istotności testu α (np . α = .
0 0 )
5 .
5
4. Obliczenie statystyki testowej T, wyznaczenie zbioru krytycznego K, wartości krytycznej (postać statystyki T, zbioru K i wartości krytycznej zależy od obu hipotez i poziomu istotności α ).
5. Obliczenie wartości statystyki testowej dla danych wartości próby losowej.
6. Podjęcie decyzji:
Jeśli T ( X ,... X
1
∈
n )
K - odrzucić hipotezę H 0 ,
Jeśli T ∉ K - nie ma podstaw do odrzucenia hipotezy H 0 , uzyskane dane nie zawierają wystar-czających argumentów do odrzucenia H 0 .
2 - Testy jednostajnie najmocniejsze
Wśród testów na poziomie istotności α poszukujemy testu o największej mocy.
Niech ϕ0 , ϕ będą testami na poziomie istotności α .
Definicja 7.9. Test ϕ0 jest mocniejszy niż test ϕ dla testowania hipotezy H 0 przy alternatywie H 1 , jeżeli
dla każdego θ ∈ Θ
βϕ θ ≥ β
,
0
ϕ θ
1
( )
( )
istnieje θ ∈ Θ
βϕ θ > β
.
0
ϕ θ
1
( )
( )
Definicja 7.10. Test ϕ0 na poziomie istotności α nazywamy testem jednostajnie najmocniejszym (TJNM) dla testowania hipotezy H 0 przy alternatywie H 1 , jeżeli dla każdego testu ϕ na poziomie istotności α zachodzi
dla każdego θ ∈ Θ
βϕ θ ≥ β
,
0
ϕ θ
1
( )
( )
istnieje θ ∈ Θ
βϕ θ > β
.
0
ϕ θ
1
( )
( )
• Twiedzenie Neymana-Pearsona podaje sposób wyznaczenia obszaru krytycznego testu jednostajnie najmocniejszego na przyjętym poziomie istotności dla testowania hipotez prostych H 0
i H 1
Twierdzenie 7.1. (lemat Neymana –Pearsona).
Niech X = ( X , X ,..., X
= θ
P : θ ∈
1
2
) T
n
będzie wektorem losowym o rozkładzie θ
P ∈ P {
}
Θ .
Jeżeli
(i) testujemy hipotezę prostą H
θ =θ
θ = θ
0 :
0 przeciwko hipotezie prostej H 1 :
1
(ii) fθ (x) i fθ (x) są funkcjami gęstości rozkładów θ
P i θ
P ,
0
1
0
1
fθ (x)
(iii) K* = x :
1
> c jest obszarem krytycznym spełniającym warunek θ
P ( K )
* = α ,
fθ (x)
0
0
to test o obszarze krytycznym K* jest testem jednostajnie najmocniejszym na poziomie istotności α .
• Praktyczne zastosowanie kryterium Neymana-Pearsona polega na sprawdzeniu nierówności fθ > cfθ dla danej obserwacji x. W przypadku spełnienia tej nierówności hipotezę H od-1
0
0
rzuca się.
6
Przykład 7.3. Z rozkładu N ( 8
,
m
)1 wylosowano próbę losową prostą o liczebności n= 16, w której
zaobserwowano x = 8 .
a) Zweryfikować hipotezę H
m =
m =
α =
0 :
10 przeciwko alternatywie H 1 :
7 przyjmując
0
,
0 5 .
b) Naszkicować wykres funkcji mocy testu.
f m (x)
Rozwiązanie a) Zgodnie z lematem Neymana –Pearsona obszar krytyczny K* = x : 1
> c
fm (x)
0
jednostajnie najmocniejszego testu na poziomie istotności α dla testowania hipotezy prostej H 0 prze-n
∏ fm ( xi )
fm (x)
1
i =
ciwko H
1
>
1
> c ⇔
1 wyznacza nierówność
, która zachodzi ⇔
n
m (x)
c
f 0
∏ fm ( xi )
1
i =1
n
1
1
ex
p −
∑
− 2
n 2
( x m
i
n
1
2
)
(2π ) σ
2σ i=1
n
1
> ⇔ exp −
n 2
2
2
2
( m 1 − m 0)− ( m 1− m 0)∑ x > c
n
i
1
1
2σ
=1
ex
p −
∑
−
2
i
n 2
( x m
i
n
0
2
) c
(2π ) σ
2σ i=1
n( m
m
σ
0 +
2
0 − m 1 ) m 0 + m
⇔
m
exp
1 − x > c ⇔
1 − X >
ln c
2
σ
2
2
n( m
m
0
1 )
⇔
−
2
σ
2
σ
+
0
m +
m
m
X <
m
X < K , gdzie K =
ln
0
1
c +
n(
1
c
n(
−
1
m
0
m )
.
1
m − 0
m )ln +
⇔
2
2
Stałą K wyznaczymy z warunku Pm ( K )
* = α .
0
2
9
Jeżeli hipoteza H
m =
X ~ N m ,
0 :
10 jest prawdziwa, to
0
i zmienna losowa
4
X − 0
m .4 ~ N( )1
,
0
. Wtedy warunek Pm ( K )
* = α ma postać
9
0
fm (x)
X − 0
m
K − m
0
K − m
1
α = P
Pm {
( x: X ≤ K})= P
4
m
≤
4 = Φ
0 4
m
x :
>
.
0
c
f
0
0
9
9
9
m (x )
=
0
Dla α = 0
,
0 5 i m = 10 mamy
K −10
−10
K −10
0
,
0 5 = P
x :
≤
Φ
⋅
Φ K
⋅ =
⋅
m
{( X K})=
4 lub
4
9
,
0 5 , skąd
4 =1,64 i
0
9
9
9
K = 3
,
6 1 .
Obszarem krytycznym jest zbiór K* = {x : x < 3
,
6
}
1 .
Ponieważ zaobserwowano x = 8 ∉ K * , to na poziomie istotności α = 0
,
0 5 hipotezę H
m =
0 :
10
przyjmujemy.
Rozwiązanie b) Funkcja mocy dana jest wzorem
β (
X − m
− m
=
Χ ∈
=
≤
=
⋅ ≤
⋅ = Φ
−
1
m ) P (
K *) P
m
m ( X
3
,
6
)
3
,
6 1
1
1
P
4
1 4
( 8,
2 04
,
0 444 1
m ).
1
1
9
9
Do sporządzenia wykresu pomocna może być tabela wartości funkcji mocy dla wybranych wartości 1
m .
7
1
m
10
9
8
7
6
5
4
3
2,804-0,444
1
m
-1,631 -1,192 -0,748 -0,304 0,140 0,584 1,028 1,472
Φ(2,804 -0,444m1) 0,05
0,11
0,23
0,38
0,56
0,72
0,85
0,93
x
n−
Przykład 7.4. Z rozkładu B( ,
1 p) o funkcji prawdopodobieństwa f ( x) = p (1− p) x , gdzie p = P( X = )
1 , 1 − p = P( X = 0) , p ∈ (
)1
,
0
wylosowano próbę losową prostą o liczebności n=20, w
której zaobserwowano x = ,
0 25.
a) Zweryfikować hipotezę H
p =
p =
0 :
,
0 2
0
przeciwko alternatywie H 1 :
3
,
0
1
przyjmując
α = 0
,
0 5 .
b) Naszkicować wykres funkcji mocy testu dla p <
0
1
p .
n
∏ fp ( xi )
f p (x)
1
i =
Rozwiązanie a) W tym przypadku nierówność
1
> ⇔ 1
> c ⇔
n
p (x)
c
f 0
∏ fp ( xi )
0
i =1
n
n
∑
nx
n
p
xi
n
xi
1
p 1(1− p 1) 1− p
i
1 =1
( − p 1) − ∑
i=1
> c ⇔
1
> c
n
n
p 0 (1 − p 0 )
⇔
∑
1 − p 0
p
xi
n
xi
0
1
i=1
( − p 0) − ∑ i=1
1 − p
ln c −
1
n ln
p
n
1 − p
1(1 − p 1 )
1− p
0
x
n ln
ln
1
ln
∑ xi >
⇔
p
i =1
1
p (1 − 1
p )
0 (1 − p 0 ) + n
>
c ⇔
1− p 0
ln p 0(1− p 0)
n
n
1 − p
1− p
ln c
0
0
ln c
n
1− p
n
1− p
1
1
∑ x >
⇔ ∑ >
K =
i
i
, gdzie
.
=
1
p (1− 1
p )
1
1 1 −
i
p (
p 1)
x
K
i =1
ln
ln
p
p 0 (1− p 0 )
0 (1 − p 0 )
Z warunku E(ϕ (X) = α dla θ ∈ Θ0 (test zrandomizowany) mamy
n
n
α = P
γ p
x :
x
.
0
∑ i > K + Pp 0 ∑ xi = K
i =1
i=1
Dla α = 0
,
0 5 i K=7 mamy
20
0
,
0 5 =
0
,
0 32 + 0
,
0 5 γ
5 , skąd γ = 3
,
0 33 , ponieważ P ∑ X
p
i > 7 = Q( 2
;
8 0 0
; 2) = 0
,
0 32 oraz
0 i 1
=
20
P ∑ X
p
i = 7 = Q(
2
;
7 0 0
; 2)− Q( 2
;
8 0
2
,
0
;
)= 0,
0 87 − 0
,
0 32 = 0
,
0 55 .
0 i 1
=
7
1
∑ X i > 7
i =1
7
Stąd ϕ (x) = 3
,
0 33
∑ X i = 7 .
i =1
7
0
∑ X i < 7
i =1
8
Ponieważ zaobserwowano nx = 20 ⋅ ,
0 25 = 5 < 7 , to na poziomie istotności α = 0
,
0 5 hipotezę
H
p =
0 :
,
0 2
0
należy przyjąć (odrzucić z prawdopodobieństwem równym zeru).
Gdyby nx = 7 , trzeba byłoby uruchomić mechanizm losowy, który pozwoliłby odrzucić H 0 z prawdopodobieństwem 0,333. Np. odrzucamy hipotezę H 0 , jeżeli wypadnie 5 lub 6 oczek w rzucie kost-ką.
Rozwiązanie b) Moc testu wynosi
20
20
β ( 1
p ) = P (Χ ∈ K )
* = P ∑ X
P
X
p
p
i > 7 +
3
,
0 33 ∑ i = 7 =
1
1
i=1
i=1
Q( 2
;
8 0
)3
,
0
;
+ 3
,
0 3 [
3 Q( 2
;
7 0 0
;
)3− Q( 2;
8 0 0
;
)3]= 2,
0 28 + 3
,
0 33⋅ 1
,
0 64 = 2
,
0 84
Do sporządzenia wykresu pomocna może być tabela wartości funkcji mocy dla wybranych wartości 1
p .
1
p
0,3
0,4
0,5
0,6
0,7
0,8
0,9
Pp { nX > }
7
0,228 0,584 0,868 0,994 1,000 1,000 1,000
1
Pp { nX = }
7
0,164 0,166 0,074 0,005 0,000 0,000 0,000
1
β ( 1
p )
0,284 0,639 0,893 0,996 1,000 1,000 1,000
3 - Testy oparte na ilorazie wiarogodności
Niech X = ( X , X ,..., X
= θ
P : θ ∈
1
2
) T
n
będzie wektorem losowym o rozkładzie θ
P ∈ P {
}
Θ .
Rozpatrujemy problem testowania hipotezy H
θ ∈ Θ
θ ∈ Θ
0 :
0 przeciwko hipotezie H 1 :
1 .
Ilorazem wiarogodno
n
ści nazywamy funkcje λ : X → +
R określoną wzorem
sup L(x,θ )
θ Θ
∈
λ(X,θ )
0
=
,
sup L(x,θ )
θ Θ
∈
gdzie L(x,θ ) jest funkcją wiarogodności , λ(x)∈[ ]
1
,
0
dla każdego x∈X n .
Definicja 7.11. Test hipotezy H
θ ∈ Θ
θ ∈ Θ
0 :
0 przeciwko hipotezie H 1 :
1 postaci
1 λ(x)< λ
0
ϕ (x) = γ
λ(x) = λ
K* = {x : λ x > λ0}
0 , gdzie
( )
jest zbiorem krytycznym testu, a
0 λ(x)> λ0
stałe λ
sup
ϕ
E
X =
0 i γ są tak dobrane, aby
( ) α nazywamy testem opartym na ilorazie wiarogodno-
θ Θ
∈ 0
ści (testem IW) na poziomie istotności α .
• Przy prostej hipotezie zerowej i prostej alternatywie test oparty na ilorazie wiarogodności o rozmiarze α pokrywa się z testem Neymana-Pearsona o tym samym rozmiarze.
• Jeżeli rozkład statystyki λ(X) jest typu ciągłego, to test oparty na ilorazie wiarogodności o zadanym rozmiarze α może być określony poprzez wyznaczenie stałej α
λ ∈[ ]
1
,
0
takiej, że
sup
θ
P (λ(X) < λα ) = α .
θ Θ
∈ 0
9
2
,
m σ )
Przykład 7.5. Z rozkładu
, gdzie σ nie jest znane, wylosowano próbę losową prostą o li-
czebno
2
ści n= 26, w której zaobserwowano x = 8 i s = 4 . Zweryfikować hipotezę H
m =
0 :
4
przeciwko alternatywie H
m ≠
α =
1 :
4 przyjmując
0
,
0 5 .
Rozwiązanie.
Funkcja wiarogodności dla rozkładu normalnego ma postać
1
1
L(X,m,σ )
n
=
ex
p −
∑ x
m 2
,
n
2
( i − )
( 2πσ)
2σ i=1
n
)
1
n
2
1
2
oceny parametrów m i σ s
2
ą dane wzorami m =
∑ x
σ) = ∑ xi − x =
1 = x ,
(
) s .
n i =1
n i=1
n
−
e 2
Stąd sup L(x, m,σ ) =
. Jeżeli H 0 jest hipotezą prawdziwą, to ocena parametru 2
σ jest da-
θ Θ
∈
(2π ) n n
2 s
n
−
n
2
2
1
2
e
na wzorem σ) =
∑ ( x
sup
x,m
=
0 ,σ
i − m 0 ) i stąd
L(
)
.
n
n
i =1
θ Θ
∈ 0
( π
2 ) ) n
2 σ
W rezultacie iloraz wiarogodności jest dany wzorem
n
sup L(x,m σ
0 ,
)
/ 2
n / 2
− n
n
2
2
θ Θ
∈
S
S
nS
X
− m
0
(
)
/ 2
2
0
λ(X)
=
=
=
=
=
+
)
.
sup L(x,m,σ )
1
n
2
n
σ
σ
∑ (
S
X −
i
m )
2
2
0
θ Θ
∈
i 1
=
− n / 2
X − m
2
t
Podstawiając
0
t =
n − 1 otrzymujemy λ(X)
=
+ 1
.
S
n − 1
− n / 2
−2
2
2
t
t
Hipotezę odrzucamy, gdy λ ≤
α
λ ⇔
+ 1
≤
⇔
+ 1 ≥ n
k
⇔ t ≥ K
,
α
λ
α
− ,
1 α
n −
n
1
n − 1
2
−
gdzie K −
n
n
,
1 α =
( n− )1 kα −1 . Stała Kn α,1
−
jest dobrana tak, aby był spełniony warunek
P{ t ≥ Kn− α
,
1
}=α .
Jeżeli hipoteza jest H 0 prawdziwa, to statystyka t ma rozkład t- Studenta z n-1 stopniami swobody istotności. Ponieważ n-1=25, α = 0
,
0 5 , to K
K =
≥
n
α
,
1
−
=2,06 i stąd
*
{t: t 0,
2
}
6 .
Zaobserwowana wartość statystyki t jest równa 2,5, i dlatego hipotezę odrzucamy.
Test ilorazu wiarogodności dla dużych prób
Niech X = ( X , X ,..., X
1
2
) T
n
będzie próbą losową w modelu statystycznym spełniającym warunki re-
gularności typu Cramera-Rao (X n , B(X n ),P={ θ
P ,θ ∈ }
Θ ), Θ ⊂ Rk , k ≥ 1.
Rozpatrujemy problem testowania hipotezy H
θ ∈ Θ
θ ∈ Θ
0 :
0 przeciwko hipotezie H 1 :
1 .
10
Twierdzenie 7.2. Jeżeli istnieje jednoznacznie wyznaczony estymator największej wiarogodności parametru θ , to
1 +∞ −
1 / 2
lim Pθ {− 2ln(λ(X) ≤ }
u =
∫ x
ex (
p − x / 2) dx ,
0
n→∞
2π 0
tzn. przy hipotezie H
θ = θ
n →
− 2ln(λ X )
0 :
0 rozkładem granicznym , przy
∞ , statystyki
( jest
P{χ 2 1 > χ 2α }
K* = {
2
x : -2lnλ > χα }
rozkład
2
χ )
1
( ,
i
( )
= α .
Przykład 7.6. Z rozkładu geometrycznego o funkcji prawdopodobieństwa f ( ) = θ (1−θ ) x x
,
x =
,
1
,
0 ... , θ ∈ ( )
1
,
0
, wylosowano próbę losową prostą o liczebności n=100 i otrzymano x = 3 . Na poziomie istotności α zweryfikować hipotezę H θ =
θ ≠
0 :
,
0 4 przeciwko hipotezie H 1 :
,
0 4 .
Rozwiązanie.
Funkcja wiarogodności ma postać
(
∑
X,θ )
n
n
=θ (1−θ ) xi
L
=
= (θ 1−θ ) ,
i 1
(
) x n
n
ln L(X,θ ) = n lnθ + ∑ x ln
i
(1−θ)= [ n lnθ + x ln(1−θ)],
i =1
∂
1
x
)
1
ln L = n
−
= 0 ⇔ θ = +1
∂θ
,
θ 1−θ
x
2
∂
1
ln L = − n
< 0 dla każdego θ ∈Θ .
2
2
∂θ
θ
Iloraz wiarogodności jest równy
sup L(x,θ )
λ(
θ Θ
∈
x)
0
( ,04)100( 6,
0 )300
=
=
= 6
,
1 ⋅
8
,
0
= 6
,
1 ⋅ 5
,
0 12
= 8
,
0 192
.
100
300
(
)100
3
100
sup L(x,θ )
( )
(
)
(
)100
( 2,
0
)5 ( 7,
0
)5
θ Θ
∈
− 2lnλ(x) = −200ln 8
,
0 192 = 39 8
, 9 .
K* = {
2
x : -2lnλ > χα } i K* = {x : -2lnλ > 7
,
2 0 }
6 .
Ponieważ zaobserwowana wartość statystyki − 2 ln λ = 39 8
, 9 wpada do obszaru odrzucenia, to hipo-
tezę H 0 należy odrzucić.
11