Estymacja – szacowanie nieznanego parametru lub funkcji na podstawie wyników obserwacji.
Statystyki próbkowe:
3. Momenty z próby
4. Statystyki pozycyjne
Niech X= ( X , X ,..., X
= θ
P : θ ∈
1
2
) T
n
będzie próbą losową prostą z rozkładu θ
P ∈ P {
}
Θ o dystry-
buancie F przyjmującą wartości w przestrzeni
n
R .
P = { θ
P : θ ∈ }
Θ - rodzina rozkładów prawdopodobieństwa zmiennej losowej X określonej na (X, F ) indeksowana parametrem θ ∈ Θ .
X
θ ∈ Θ ⊆ R( k
R ) jest nieznanym parametrem.
Estymacja punktowa – na podstawie wyników obserwacji x= ( x , x ,..., x 1
2
) T
n
próby losowej
R( k
R )
X= ( X , X ,..., X
θ ∈Θ
1
2
) T
n
szacujemy nieznany parametr θ rozkładu θ
P ,
⊆
wektora loso-
wego X.
3 - Momenty z próby
Momenty z próby - statystyki, których wartości są momentami rozkładu, odpowiadającemu ustalonej realizacji dystrybuanty empirycznej. Momenty z próby służą do szacowania momentów teoretycznych rozkładu zmiennej losowej (wektora losowego).
Definicja 3.2. Momentem zwykłym rzędu k z próby X= ( X , X ,..., X
1
2
) T
n
nazywamy statystykę
A : Rn → R
k
określoną wzorem
n
1
k
A (X) =
∑ k
X i .
n i =1
Dla ustalonej realizacji x= ( x , x ,..., x
1
2
) T
n
próby X wartość statystyki k
A jest k-tym momentem roz-
kładu o dystrybuancie empirycznej Fn ( ,
• x),
n
+∞
1
k
A (x) =
∑ k
xi = ∫ k
t d n
F ( t, x),
n i =1
−∞
n
gdzie F : R n
∈ , x ∈
n
F t, x = ∑
n
× R → [ ]
1
,
0
jest dystrybuantą empiryczną
( )
(
1 −∞ t,,]( xi ),
n
t
R
R .
i=1
Fakt 3.1. Jeżeli X X ,..., X
,
1
2
n są zmiennymi losowymi o rozkładzie prawdopodobieństwa z
EX k = α < ∞, i = ,
1 ,
2 ..., n
=
i
k
, to E k
A
α k ,
n
n
n
1
1
1
1
gdzie E
X =
∑
=
∑
=
∑
=
α = α
k
A ( )
k
k
k
E
X i
E
X i
EX i
n k
k .
n i=1
n
i=1
n i =1
n
• Średnia z próby X jest momentem zwykłym rzędu k = 1 z próby X : n
1
A 1(X) = X =
∑ X i .
n i =1
1
1
Dla ustalonej realizacji x= ( x , x ,..., x
x =
1
2
) T
n
próby X wartość średniej jest równa
∑ xi ,
n i=1
1. Średnia z próby X służy do szacowania nieznanej wartości oczekiwanej EX = µ rozkładu θ
P ,
θ ∈Θ zmiennej losowej X w populacji generalnej , o czym mówi prawo wielkich liczb.
• Mocne prawo wielkich liczb (MPWL)
Niech X ,
,...
1 X 2
będzie ciągiem zmiennych losowych o jednakowym rozkładzie prawdopodobień-
stwa z wartością oczekiwaną EX
VarX i =
i = µ < ∞ i wariancją
2
σ .
n
1
Niech S =
∑ X , n ∈ N
n
j
oznacza średnią z pierwszych n zmiennych losowych.
n j=1
Wtedy ciąg ( Sn) n N
∈ jest zbieżny do średniej µ z prawdopodobieństwem 1, co zapisujemy
Pω : lim Sn (ω ) = µ = 1.
n→∞
MPWL mówi, że dla dowolnie małego ε > 0
P(X - µ ≤ ε ) jest bliskie 1 dla dostatecznie dużego n.
Czyli możemy szacować nieznaną wartość oczekiwaną ( średnią) rozkładu θ
P , θ ∈ Θ z dokładno-
ścią do ε , używając średniej X , jeżeli tylko próba będzie dostatecznie duża.
2. Parametry rozkładu średniej X
• Wartość oczekiwana średniej X
Jeżeli EX = µ < ,
∞ i = ,12
n
X
E
=
i
,..., , to
µ ,
n
1
1
n
n
1
1
gdzie X
E
= E ∑ X
i
= E ∑ X
i
= ∑ EX i =
µ
n = µ .
n i=1
n
i=1
n i=1
n
Wartość oczekiwana jest wskaźnikiem położenia rozkładu. Położenie rozkładu średniej X pokrywa się z położeniem pojedynczej obserwacji.
• Wariancja średniej X
2
σ
Jeżeli
2
VarX
=
=
i = σ
, i
,
1 ,
2 ..., n , to VarX
,
n
n
n
n
2
1
1
1
1
σ
gdzie Va X
r
= Var ∑ X =
Var ∑ X =
∑ VarX =
n 2
σ =
i
i
i
.
n
2
2
2
i 1
=
n
i 1
=
n i 1
=
n
n
• Odchylenie standardowe
σ
VarX =
- wskaźnik rozproszenia próby X wokół średniej X . W wyniku uśredniania rozpro-n
szenie rozkładu średniej X zmniejszyło się n razy w stosunku do rozproszenia pojedynczej obserwacji.
Definicja 3.3. Momentem centralnym rzędu k z próby X= ( X , X ,..., X
1
2
) T
n
nazywamy statystykę
M : Rn → R
k
określoną wzorem
n
1
k
M k (X) =
∑ ( X i − X ) .
n i=1
2
Fakt 3.2. Jeżeli X X ,..., X
,
1
2
n są zmiennymi losowymi o rozkładzie prawdopodobieństwa z skończo-k
nym momentem centralnym rz
k
ędu k z próby X, E( X
σ
σ >
≠
i − X )
=
< ∞ ,
0 , to
k
EM
σ
k
dla
k ≥ 2 .
• Wariancja z próby jest momentem centralnym rzędu k = 2 z próby X: n
2
1
2
M 2 = S =
∑ ( X i − X ) .
n i=1
Dla ustalonej realizacji x= ( x , x ,..., x
1
2
) T
n
próby X wartość wariancji jest równa
n
2 = 1
s
∑ ( x
2
i − x) .
n i=1
Wariancja z próby 2
S służy do szacowania nieznanej wariancji
2
VarX = σ rozkładu θ
P , θ ∈ Θ
zmiennej losowej X w populacji generalnej.
1. Jeżeli X X ,..., X
,
1
2
n są niezależnymi zmiennymi losowymi o rozkładzie prawdopodobieństwa z 2
n − 1
EX
2
−
=
= σ < ∞
=
2
2
EM = ES =
σ ≠ σ
i = µ < ∞ , E ( X
X
i
) VarX
,
i
,
1 ,
2 ..., n
i
, to
2
2
,
n
gdzie µ jest wartością oczekiwaną, a 2
σ wariancją zmiennej losowej Xi w populacji generalnej.
Obliczenia:
2
2
i) EX i = VarX i + [ EX i ]
2
2
= σ + µ .
2
2
2
n
1
1
n
1
n n
1
n n
1
ii) E( X ) = E ∑ X
∑ ∑
i
=
E
E( X
) =
2
∑ X i =
E ∑ ∑ X iX j =
i X j
n
2
2
i =1
n
n i=1
n
i= j 1=1
n i= j
1 =1
1 n
n n
1 n
1
∑ σ + µ + n n −1 µ = σ + µ .
2
( 2 2)
=
∑ EX 2
(
) 2
2
2
i + ∑ ∑ EX i EX j
=
2
n i=1
i = j
1 =1
n i 1
=
n
i ≠ j
n
2
1
2
n
1
2
1 n
2
2
iii) EM 2 = ES = E ∑( X i − X ) =
∑ E( X i − X ) = ∑ EXi − nE( X ) =
n i=1
n i =1
n i =1
1
−
=
n
( 2
2
σ + µ )
1
n 1
2
2
2
− n σ + µ =
σ .
n
n
n
• Za definicję wariancji z próby przyjmuje się
n
~2
1
2
S
=
∑ ( Xi − X )
n − 1 i=1
~
i jest to uzasadnione faktem,
2
że
2
S
E
= σ , gdzie 2
σ jest wariancją rozkładu zmiennej losowej X w
populacji generalnej. Dla ustalonej realizacji x= ( x , x ,..., x 1
2
) T
n
próby X wartość wariancji jest równa
n
2 = 1
s
~
∑ ( x
2
i − x ) .
n −1 i =1
3
n
2
1
2
n
Ponadto zachodzi zależność: S
=
∑ ( X − X =
i
)
2
S .
n − 1 i 1
=
n − 1
~
n
n
n
n − 1
Obliczenia:
2
2
2
2
2
S
E
= E
S =
ES =
σ = σ .
n − 1
n − 1
n − 1 n
• Własności graniczne momentów z próby
Twierdzenie 3.3.
Niech X =
= θ
P : θ ∈
n
( X , X ,..., X
1
2
) T
n
będzie próbą losową prostą z rozkładu θ
P ∈ P {
}
Θ dla
którego istnieje k-ty moment zwykły
k
EX
= α k < .
∞
1
. Wtedy
i) ciąg k-tych momentów zwykłych ( k
A (Xn )
z próby X jest zbieżny z prawdopodobieństwem
n∈ N
n
1 do momentu α , gdy n
k
→ ∞ ,
ii) ciąg k-tych momentów centralnych ( M k (Xn )
z próby X jest zbieżny z prawdopodobień-
n∈ N
n
stwem 1 do momentu centralnego µ =
−
n →
k
E( X i EX ) k
i
, gdy
∞ .
Twierdzenie 3.4 .
Niech X =
= θ
P : θ ∈
n
( X , X ,..., X
1
2
) T
n
będzie próbą losową prostą z rozkładu θ
P ∈ P {
}
Θ dla
którego istnieje moment zwykły
2 k
EX
α
k ≥
1
= 2 k < ∞ ,
1 .
Wtedy ciąg momentów ( k
A (Xn )
z próby X jest asymptotycznie normalny
n∈ N
n
2
α
α
2 k −
AN
k
α
n →
k ,
, gdy
∞ .
n
Twierdzenie to mówi, że prawdopodobieństwo, że zmienna losowa
(X
α
k
A
n ) różni się od
k co do
2
α k −α
2
k
wartości bezwzględnej o co najmniej ε
,
ε > 0 , zmierza przy n → ∞ do granicy rów-
n
nej prawdopodobieństwu, że zmienna losowa o rozkładzie normalnym N (
)1
,
0
jest co do modułu nie
2
2
t
α2 k −α k
∞ −
2
mniejsza niż ε , czyli lim P A
2
k (X n ) − α k ≥ ε
=
∫
e
dt
n→∞
n
π
2
ε
4 – Statystyki pozycyjne
Statystyki pozycyjne - statystyki, których wartości są kwantylami rozkładu, odpowiadającemu ustalonej realizacji dystrybuanty empirycznej. Kwantyle próbkowe służą do szacowania kwantyli teortycz-nych rozkładu zmiennej losowej (wektora losowego).
Definicja 3.4. Niech X= ( X , X ,..., X
1
2
) T
n
będzie wektorem losowym określonym na przestrzeni Pro-
babilistycznej (Ω, F, P) .
k-tą statystyką pozycyjną , k = ,
1 ,
2 ..., n , nazywamy zmienną losową X
:
:
Ω → R
k n
, której wartość
X k: n (ω ) dla każdego ω jest równa k-tej co do wielkości współrzędnej wektora X(ω ) = ( X
( x , x ,..., x
1
2
n ) T
1(ω ), X 2 (ω ),..., X ω ) T
n
=
.
Wektor losowy X* = ( X :
1 n , X 2: n ,..., X n: ) T
n
nazywamy wektorem statystyk pozycyjnych wektora X.
4
Współrzędne wektora X* = ( X :
1 n , X 2: n ,..., X n: ) T
n
są uporządkowanymi niemalejąco współrzędnymi
wektora X i spełniają warunek . X
≤
≤
:
1 n
X 2: n .... ≤ X n: n .
W szczególności: X
=
:
1 n
mi {
n X , X ,..., X
1
2
n },
X
=
n: n
ma {
x X , X ,..., X
1
2
n}.
• Niektóre funkcje statystyk pozycyjnych:
Rozstęp z próby: X
−
n: n
X :1 n
X
− X
Środek rozstępu:
n: n
:
1 n
2
n
1
Średnia z próby:
∑ X i: n
n i =1
X n + X n
: n
+ :
1 n
2
2
gdy
n jest l
iczbą parzystą
Mediana z próby: me (X) =
2
X n+
gdy n
jest l
iczbą n
ieparzystą
1
: n
2
Przykład 3.3.
Niech x = (1,5,7,12,3
) T
,4,8
będzie realizacją prostej próby losowej X = ( X , X
1
2 ,...,
7 ) T
X
. Porząd-
kujemy współrzędne wektora x niemalejąco i otrzymujemy wektor x* = (1,3,4,5,7,
) T
8,12
.
Wtedy X
= =
=
=
=
=
:
1 7
1
1
x , X
=
2:7
3
x 5 , X
=
:
3 7
4
x 6 , X
=
4:7
5
x 2 , X
=
:
5 7
7
x 3 ,
X
= =
=
6:7
8
x 7 , X
=
7:7
12
x 4 .
X* = ( X
, X
:
1 7
2:7 ,...,
7:7 ) T
X
jest wektorem statystyk pozycyjnych wektora X = ( X , X
1
2 ,...,
7 ) T
X
.
Dla realizacji x = (1,5,7,12,3
) T
,4,8
: rozstęp z próby x
− x = 11
7:7
:
1 7
,
x
− x
środek rozstępu 7:7
:
1 7 = 11/ 2 ,
2
7
1
średnia z próby
∑ xi:7 = 40 / 7 ,
7 i=1
me (x) = x 4:7 =12.
• Rozkłady prawdopodobieństwa statystyk pozycyjnych
Twierdzenie 3.5. Jeżeli X = ( X , X ,..., X
1
2
) T
n
jest próbą losową prostą z rozkładu prawdopodobień-
stwa θ
P ∈ P o dystrybuancie F, to statystyka pozycyjna X k: n ma rozkład prawdopodobieństwa o dystrybuancie
F ( x)
n!
k −1
n− k
k
F : n ( x) = P( X k: n ≤ x) =
∫ t
(1− t)
( k − )
1 !( n −
dt
k )! 0
lub równoważnie
n n
i
n− i
k
F : n ( x) = ∑ [
F( x)] [1 − F( x)]
.
i = k i
Dowód: np. w podręczniku J. Bartoszewicza (1989).
5
Wniosek 3.1. Jeżeli X = ( X , X ,..., X
1
2
) T
n
jest próbą losową prostą z rozkładu prawdopodobieństwa
d
θ
P ∈ P typu ciągłego o gęstości f ( x) =
F ( x) , to
dx
i) gęstość rozkładu k-tej statystyki pozycyjnej X k: n ma postać
!
n
k 1
−
n−
f
k
=
−
k : n ( x)
[ F( x)] [1 F( x)] f ( x) ( k − )
1 !( n − k)!
ii) gęstość rozkładu łącznego pary statystyk pozycyjnych ( X
1 ≤ ≤ ≤
r: n , X s: n ),
r
s
n , ma postać
!
−
− −
−
f
1
1
=
−
−
r, ( x, )
n
y
[ F( x)] r
s
[ F( y) F( x)] s r [1 F( y)] n sf ( x) f ( y 1) ({ x, y): x< y}( x, y) ( r − )
1 !( s − r − )
1 !( n − s)!
gdy x < y oraz f ( x, y) = 0 , gdy x ≥ y .
Dystrybuanta rozkładu łącznego pary statystyk pozycyjnych ( X
1 ≤ ≤ ≤
r: n , X s: n ),
r
s
n , ma postać
n
j
n!
i
j − i
n− j
r
F , s ( x, y) = ∑ ∑
[ F( x)] [ F( y) − F( x)] [1− F( y)]
j = si = ri!( j − i)!( n − j)!
iii) gęstość rozkładu łącznego wektora statystyk pozycyjnych X* = ( X : 1 n , X 2: n ,..., X n: ) T
n
ma postać
n
f ( x , x ,..., x
1
2
n ) = n! ∏ f ( xi )1 (
{ x ,... x
,
,...,
1
n ): x 1 < x 2 <...< xn }( x x
x
1
2
n )
i =1
Dowód np. w podręczniku M. Krzyśki (2005).
Przykład 3.4.
Jeżeli X , X ,..., X
1
2
n są niezależnymi zmiennymi losowymi o rozkładzie jednostajnym U [
]1
,
0
, to
X
~ Be k n
k n
− k +
:
( ,
)1.
Przykład 3.5.
a) Dystrybuanta n-tej statystyki pozycyjnej X
=
n: n
ma {
x X , X ,..., X
1
2
n}.
F
( x
n: n
) = P( X n: n ≤ x) = P(ma {
x X ,..., X
1
n }≤ x) = P( X 1 ≤ x ∧ X 2 ≤ x ∧ ... ∧ X n ≤ x) =
n
n
= ∏ P( X i ≤ x) = [ F( x)]
i =1
lub ze wzoru w twierdzeniu 3.5 po podstawieniu k = n
n n
i
n− i
= ∑
−
=
n
F : n ( x)
[ F( x)] [1 F( x)]
[ F( x)] n .
i = n i
b) Funkcja gęstości n-tej statystyki pozycyjnej X
=
n: n
ma {
x X , X ,..., X
1
2
n}:
d
d
n
1
−
f
n
=
=
=
n: n ( x)
F
( x)
n: n
[ F( x)]
[ nF( x)] f ( x)
dx
dx
lub ze wzoru we wniosku 3.1 i) po podstawieniu k = n
!
n
n 1
−
n − n
1
−
f
n
=
−
=
n: n ( x)
f ( x [
) F ( x)]
[1 F( x)]
[ nF( x ]) f ( x) .
( k − )
1 !( n − k)!
c) Dystrybuanta 1-ej statystyki pozycyjnej X
=
:
1 n
mi {
n X , X ,..., X
1
2
n }.
F
( x
:
1 n
) = P( X :1 n ≤ x) = 1− P( X :1 n > x) = 1− P(mi {
n X ,..., X
1
n }> x) =
6
n
= 1− P( X
1 − ∏ P( X i > x) = 1 − [1 − F( x)]
1 > x ∧ X 2 > x ∧ ... ∧ X n > x) =
i =1
lub ze wzoru w twierdzeniu 3.5 po podstawieniu k = 1
n n
n
i
n− i
0
n
F
=
≤ = ∑
−
= −
−
= − −
:
1 n ( x)
P( X :1 n
x)
[ F( x)] [1 F( x)]
1
[ F( x)] [1 F( x)] 1 [1 F( x)] n i 1
= i
0
d) Funkcja gęstości 1-ej statystyki pozycyjnej X
=
:
1 n
mi {
n X , X ,..., X
1
2
n }
d
d
n
n 1
−
1
−
f
n
=
=
− −
= − −
−
=
−
:
1 n ( x)
F
( x)
:
1 n
[1 1( F( x)) ] [ n 1 F( x)] ( f( x)) [ n 1 F( x)] f( x).
dx
dx
lub ze wzoru we wniosku 3.1 i) po podstawieniu k = 1
!
n
0
n
1
−
f
n
=
−
=
−
:
1 n ( x)
f ( x [
) F ( x ]
) [1 F( x)]
[ n 1 F( x)] f ( x).
!
0 ( n − )
1 !
Przykład 3.6.
Niech X = ( X , X ,..., X
U
a a >
1
2
) T
n
będzie próbą prostą losową z rozkładu jednostajnego
( ,0 ), 0 o
dystrybuancie F. Wyznaczyć dystrybuantę i gęstość zmiennej losowej X
=
n: n
ma {
x X , X ,..., X
1
2
n},
wartość oczekiwaną i wariancję zmiennej losowej X n: n .
Obliczenia:
1. Funkcja gęstości f(x) rozkładu jednostajnego U ( ,
0 a), a > 0 jest dana wzorem
1
x ∈ ,
0 a
f ( x)
( )
= a
0 x ∉( ,
0 a)
2. Dystrybuantę F rozkładu jednostajnego U ( ,
0 a), a > 0 wyznaczamy ze wzoru
x
F ( x) = P( X ≤ x) = ∫ f ( t) dt .
−∞
Dla x < ,
0
F ( x) = 0
x 1
t
x
Dla 0 ≤ x < a,
F ( x) = ∫ dt
x
= 0 =
a
a
a
0
a 1
t
Dla a ≤ x,
F( x) = ∫ dt =
a = 1
0
0 a
a
0
x < 0
x
Stąd F ( x) =
0 ≤ x < a .
a
1
x ≥ a
3. Dystrybuanta n-tej statystyki pozycyjnej X n: n ma postać (twierdzenie 3.5 lub przykład 3.5 a)
0
x < 0
n
n
x
0 ≤ x <
n
F : n ( x) = P( X n: n ≤ x) = [ F( x)] =
a .
a
1
x ≥ a
4. Funkcja gęstości n-tej statystyki pozycyjnej X n: n jest równa (wniosek 3.1 lub przykład 3.5 b) 7
n
d
n x
n
n−1
x ∈ ,
0 a
fn: n ( x) =
[ F( x ]) = [ nF( x)]
( )
f ( x) = a a
.
dx
0
x ∉ ( ,
0 a)
+∞
a
n
n+ 2
n x
n
x
na
5. EX n n = ∫ xf
( x) dx
n n
= ∫ x dx =
a =
:
:
0
.
n+1
a a
−∞
a
n + 2
n + 2
0
+∞
a
n
n+3
2
n x
n
x
na
2
2
EX n n = ∫ x f
( x)
2
dx
n n
= ∫ x
dx =
a =
:
:
0
n+1
a a
−∞
a
n + 3
n + 3
0
2
2
2
na
na
na n +
− n a n +
2
2
2 2
2 2
3
2
na
VarX n n = EX n n − EX n n
=
−
=
=
:
:
[ : ]
(
)
(
)
n + 3 n + 2
( n + 2)( n + )
3
( n+ 2)( n + )3
Analogicznie dla pozostałych rozkładów prawdopodobieństwa.
• Kwantyle próbkowe
Definicja 3.5. Kwantylem rzędu p, p ∈ (
)1
,
0
zmiennej losowej X o rozkładzie określonym dystrybu-
−
ant
1
ą F nazywamy liczbę z = F
p
X ( p) spełniającą nierówności
P( X ≤ z ≥
≥
≥ 1−
p )
p , P( X
zp )
p .
Powyższy układ nierówności jest równoważny układowi
− 0 ≤ ≤
X
F ( zp
) p XF ( zp).
−
Je
1
żeli rozkład prawdopodobieństwa zmiennej losowej jest typu ciągłego, to kwantyl z = F
p
X ( p)
z p
spełnia równanie F
=
≤
= ∫ ( ) =
X ( zp )
P( X
zp )
f x dx
p .
−∞
Przykład 3.8.
Kwantyl rzędu ½ nazywamy medianą rozkładu zmiennej losowej X o dystrybuancie F i oznaczamy
1/ 2
me( X ) = F x 1 = ∫
f ( x) dx
2 −∞
Kwantyle rzędu ¼ i ¾ nazywamy kwartylami rozkładu zmiennej losowej X o dystrybuancie F.
Różnicę x
−
3 / 4
1
x / 4 kwantyli rzędu ¾ i ¼ nazywamy odległością międzykwartylową zmiennej losowej X o dystrybuancie F.
Kwantyle są wskaźnikami położenia rozkładu zmiennej losowej X.
Definicja 3.6. Kwantylem próbkowym rzędu p, p ∈ (
)1
,
0
z próby losowej prostej
X = ( X , X ,..., X
1
2
) T
n
nazywamy statystykę pozycyjną
X
gdy np jest liczbą calkowitą
np: n
Z p, n (X) =
X [ np]+
gdy np nie jest liczbą calkowitą
:
1 n
Dla ustalonej realizacji x= ( x , x ,..., x
1
2
) T
n
próby losowej prostej X wartość statystyki Zp, n jest kwantylem rzędu p rozkładu o dystrybuancie empirycznej Fn ( ,
• x):
−
Z
=
=
p, n (x)
1
zp,
F
n
n
( p,x),
n
gdzie F : R n
∈ , x ∈
n
F t, x = ∑
n
× R → [ ]
1
,
0
jest dystrybuantą empiryczną
( )
(
1 −∞ t,,]( xi ),
n
t
R
R .
i=1
8
Kwantyl próbkowy rzędu p = k/n jest k-tą statystyką pozycyjną X k: n X
=
k : n
Z k (X).
, n
n
Kwantyl próbkowy rzędu p = ½ jest nazywany medianą próbkową me(X).
Twierdzenie 3.6. Niech X =
n
( X , X ,..., X
1
2
) T
n
będzie próbą losową prostą z rozkładu θ
P ∈ P o
dystrybuancie F , p ∈ (
)1
,
0
.
Niech zp będzie kwantylem rzędu p rozkładu θ
P ∈ P o dystrybuancie F , a Zp, n kwantylem próbkowym rzędu p z próby losowej prostej X =
n
( X , X ,..., X
1
2
) T
n
.
Wtedy
p. w
i) Jeżeli dystrybuanta F jest rosnąca w punkcie x
n →
,
Xn
.
p , to Z
→
p n (
)
zp , gdy
∞ .
ii) Jeżeli dystrybuanta F jest różniczkowalna w punkcie x F xp >
p i
' ( ) 0 , to ciąg kwantyli próbko-
p 1
( − p)
wych ( Zp, n )
jest asymptotycznie normalny AN z ,
.
n∈ N
p
2
[ nF'( xp)]
iii) Jeżeli dystrybuanta F ma funkcję gęstości f w otoczeniu punktu xp i jeśli f jest dodatnia i ciągła w punkcie xp , to ciąg kwantyli próbkowych ( Zp, n ) jest asymptotycznie normalny
n∈ N
p 1
( − p)
AN zp,
.
2
nf ( xp )
Dowód: np. w J. Bartoszewiczu (1989).
9