asymptotyka

background image

Paweł Strawiński

Asymptotyka i statystyczne podstawy regresji

0.1

Statystyczne Podstawy Modelu Regresji

Niech dana będzie przestrzeń probabilistyczna (Ω, F , P ). Funkcję X : Ω → R,
okresloną na przestrzeni zdarzeń elementarnych Ω, o wartościach rzeczywi-
stych, takich że

∀t ∈ R {ω ∈ Ω : X(ω) < t} ∈ F

(1)

nazywamy zmienną losową. Warunek, aby zbiór (1) należał do F dla każdego
t ∈ R nazywa się mierzalnością X względem σ-algebry F. W przypadku, gdy
Ω = R

n

rodzina F jest z reguły tak dobrana by ciągłość funkcji implikowała

jej mierzalność.

Z definicji zmiennej losowej wynika, że zbiór (1) jest zdarzeniem nale-

żącym do przestrzeni probabilistycznej (Ω, F , P ). Możemy zatem obliczyć
prawdopodobieństwo tego zdarzenia.

Funkcję F

X

(X) : R → [0, 1] określoną wzorem

F

X

(X) = P ({ω ∈ Ω : X(ω) < t})

nazywamy dystrybuantą zmiennej losowej. W przypadku wielowymiarowym
będziemy mówić o wektorze losowym.

Niech F będzie dystrybuantą wektora losowego (X, Y ). Załóżmy, że F (X, Y )

jest typu ciągłego o gęstości prawdopodobieństwa f (x, y). Wówczas

F (x, y) =

Z

x

−∞

Z

y

−∞

f (u, v)dudv

Jeżeli obie pochodne mieszane dystrybuanty F istnieją i są ciągłę to (X, Y )
jest ciągłe o gęstości

f (x, y) =

2

∂x∂y

F (x, y)

Każda ze współrzędnych wektora losowego jest zmienną losową. Oznacz-

my przez F

X

i F

Y

dystrybuantę każdej współrzędnej. Wtedy:

F

X

(x) = P (X < x) = P (X < x, Y < ∞)

jeśli zmienna losowa jest typu ciągłego to:

F

X

(x) = P (X < x) =

Z

x

−∞

Z

y

−∞

f (u, v)dudv

a gęstość wyraża się wzorem:

f

X

(x) =

Z

−∞

f (x, y)dy

1

background image

Paweł Strawiński

Asymptotyka i statystyczne podstawy regresji

Przy badaniu zależności między zjawiskami opisanymi przez zmienne lo-

sowe X i Y najbardziej interesujące są prawdopodobieństwa zdarzeń doty-
czących jednej zmiennej przy nałożonym warunku na drugą zmienną

P (Y < y|X ∈ B) =

P (Y < y, X ∈ B)

P (X ∈ B)

gdzie zakładamy, że P (X ∈ B) > 0, czyli warunek jest nietrywialny. Prawdo-
podobieństwo warunkowe jako funkcja argumentu y posiada wszystkie wła-
sności dystrybuanty i nazywane jest warunkową dystrybuantą X. Dla ciągłej
zmiennej losowej P (X = x) = 0. Wobec tego, z powyższego wzoru nie można
obliczyć prawdopodobieństwa zdarzenia. Dla ciągłych zmiennych losowych
definiujemy warunkową gęstość zmiennej losowej Y przy warunku (X ∈ B)
następująco:

f (y|X = x

0

) =

f (x

0

, y)

f

Y

(y)

=

f (x

0

, y)

R

−∞

f (x

0

, y)dy

Warunkową wartość oczekiwaną zmiennej Y , przy warunku X = x

0

oblicza-

my korzystając ze wzoru

E(Y |X = x

0

) =

Z

−∞

yf (y|X = x

0

)dy

Warunkową wartość oczekiwaną E(Y |X = x

0

) nazywamy funkcją regresji Y

na X.

0.2

Szacowanie modelu regresji za pomocą MNW

Na początku kursu pokazaliśmy, że dla modelu

y = Xβ + ε

ε ∼ N (0, σ

2

I)

b = (X

0

X)

−1

X

0

y jest estymatorem Metody Najmniejszych Kwadratów dla

wektora nieznanych parametrów. Obecnie wyprowadzimy estymatory me-
tody największej wiarogodności dla liniowego modelu regresji. Niech ε =

1

, . . . , ε

n

). Funkcja łącznej gęstości rozkładu normalnego jest dana przez:

f (ε) =



1

2Πσ

2



n

exp −

1

2

ε

0

ε



Warunkowa gęstość ma następującą własność

f (y|X) = f (ε)



∂ε

∂y



2

background image

Paweł Strawiński

Asymptotyka i statystyczne podstawy regresji

|·| jest wartością bezwzględną wyznacznika macierzy n×n pochodnych cząst-
kowych wektora ε obliczoną względem kolejnych elementów wektora wartości
zmiennej zależnej y. W tym przypadku macierz się redukuje do macierzy jed-
nostkowej.

Możemy zapisać funkcję wiarogodności. Jest to funkcja łącznej gęstości

prawdopodobieństwa traktowana jako funkcja nieznanych parametrów.

`(β, σ

2

) = ln f (y|X) = ln f (ε)

`(β, σ

2

) = −

n

2

ln(2Π) −

n

2

ln(σ

2

) −

1

2

ε

0

ε

`(β, σ

2

) = −

n

2

ln(2Π) −

n

2

ln(σ

2

) −

1

2

(y − Xβ)

0

(y − Xβ)

Wektor nieznanych parametrów ma k + 1 elementów wymagających oszaco-
wania. Pochodne cząstkowe względem wektorów parametrów przedstawiają
się następująco:

∂`

∂β

=

1

2

(−X

0

y + X

0

Xβ)

∂`

∂σ

2

= −

n

2

+

1

4

(y − Xβ)

0

(y − Xβ)

przyrównując pochodne do zera otrzymujemy następujący układ równań:

∂`

∂β

= 0

∂`

∂σ

2

= 0



ˆ

β = (X

0

X)

−1

X

0

y

ˆ

σ

2

=

1

n

(y − Xβ)

0

(y − Xβ)

Wobec tego EN W (β) jest równoważny estymatorowi wektora parametrów
MNK. Z MNK wiemy, że E(σ

2

) =

n−k

n

σ

2

, wobec tego ˆ

σ

2

otrzymany metodą

NMW jest obciążonym estymatorem wariancji. W zastosowaniach z reguły
ilość obserwacji n jest duża, ilość zmiennych w modelu k niewielka, wobec
tego obciążenie estymatora MNW jest małe. Zaletą estymatorów MNW jest
ich prostota numeryczna w stosunku do estymatorów MNK. Gdy liczebność
próby dąży do nieskończoności to obciążenie estymatora MNW dąży do zera.
Oznacza to, że estymator MNW dla wariancji jest asymptotycznie nieobcią-
żony.

Dla formalności powinnismy jeszcze sprawdzić czy rzeczywiście funkcja

wiarogodności ma maksimum w punkcie ( ˆ

β, ˆ

σ

2

). Obliczmy drugie pochodne

2

`

∂ββ

0

= −

X

0

X

σ

2

2

`

∂βσ

2

= −

X

0

ε

σ

4

3

background image

Paweł Strawiński

Asymptotyka i statystyczne podstawy regresji

∂`

2

σ

2

=

n

4

ε

0

ε

σ

6

Wobec tego,

−E

 ∂

2

`

∂ββ

0



= −

X

0

X

σ

2

−E



2

`

∂βσ

2



= 0

−E



∂`

2

σ

2



=

n

4

ponieważ E(ε

0

ε) = nσ

2

.

Możemy zapisać macierz informacyjną Fishera

I(θ) =



1

σ

2

X

0

X

0

0

n

4



Wartości zero poza diagonalą macierzy oznaczają, że rozkłady β i σ

2

są nie-

skorelowane, a ponieważ mają łączny rozkład normalny to są niezależne.

0.3

Podstawy Teorii Asymptotycznej

Celem analizy asymptotycznej jest zbadanie własności estymatorów, gdy
wielkość próby wzrasta. Pojęcia związane z zachowaniami granicznymi es-
tymatorów są trudne, szczególnie dla osób nie zajmujących się na codzień
teorią prawdopodobieństwa, z tego powodu zostaną one zilustrowane przy-
kładami.

Przypuścmy, że chcemy zbadać własności wartości średniej nieznanego

rozkładu. Niech zmienna losowa X posiada pewien nieznany rozkład praw-
dopodobieństwa o skończonej wartości średniej µ, oraz skończonej wariancji
σ

2

. Ponadto, dysponujemy wynikami n niezależnych losowań z tego rozkładu,

co można zapisać jako (X

1

, . . . X

n

) ∼

IID

(µ, σ

2

). Oznaczmy przez ¯

x

n

średnią

wartość z n-elementowej próby. Wartość średnia jest sama w sobie zmienną
losową o pewnym rozkładzie. Zasadniczym pytaniem w teorii asymptotycznej
jest w jaki sposób zachowują się wartości i rozkład zmiennej losowej, takiej
jak ¯

x

n

, gdy liczebność próby dąży do nieskończoności (n → ∞).

Przed wyprowadzeniem własności asymptotycznych przypomnimy kilka

podstawowych definicji.

Definicja 1 Ciąg liczb {a

N

: N = 1, 2, . . .} zbiega do granicy a (posiada

granicę a) jeżeli ∀ ε > 0 ∃ N

ε

, takie że, ∀ N > N

ε

|a

N

− a| < ε

4

background image

Paweł Strawiński

Asymptotyka i statystyczne podstawy regresji

Zapisujemy, że a

N

→ a, lub a

N

n→∞

→ a , gdy N → ∞. Oznacza to, że wyrazy

o indeksach wyższych od N

ε

leżą w epsilonowym otoczeniu punktu a. Jeśli

wyrazy ciągu, o indeksach wyższych od N

ε

zbliżą się do granicy a to pozostałe

wyrazy będą znajdowac się w jej otoczeniu.

Przykład 1. Jeżeli a

N

= 2 +

1

N

, wtedy a

N

→ 2.

Przykład 2. Jeżeli a

N

= −1

N

, wtedy a

N

nie ma granicy, bowiem możemy

wybrać podciągi, pierwszy złożony z wyrazów nieparzystych zbieżny do −1,
drugi złożony z wyrazów parzystych zbieżny do 1.

Definicja 2 Ciąg liczb {a

N

: N = 1, 2, . . .} jest ograniczony wtedy i tylko

wtedy gdy

∃b < ∞ ∀ N > N

ε

|a

N

| < b.

Definicja 3 Ciąg {a

N

} jest ciągiem conajwyżej rzędu O(N

λ

) jeśli ciąg {N

−λ

a

N

}

jest ograniczony.

0.3.1

Zbieżność według prawdopodobieństwa

Niech X ∼

IID

(µ, σ

2

). Wówczas

E(¯

x

n

) = µ

V ar(¯

x

n

) =

σ

2

n

wobec tego ¯

x

n

jest nieobciążonym estymatorem parametru µ dla próby o do-

wolnej liczebności, oraz wariancja estymatora dąży do zera wraz ze wzrostem
liczebności próby. Intuicyjnie jest oczywiste, że rozkład ¯

x

n

wraz ze wzrostem

liczebności próby staje się coraz bardziej skupiony wokół wartości parametru
µ. Formalnie można ten fakt zapisać jako

P ({µ − ε < ¯

x

n

< µ + ε}) = P (|¯

x

n

− µ| < ε)

Wybrany przedział może być dowolnie wąski poprzez odpowieni dobór war-
tości ε. Ponieważ var(¯

x

n

) maleje monotonicznie wraz ze wzrostem liczebności

próby n, istnieją pewna liczba N

ε

oraz liczba δ ∈ [0, 1], takie że

∀ n > N

ε

P (|¯

x

n

− µ| < ε) = 1 − δ

Zmienna losowa ¯

x

n

jest nazywana wówczas zbieżną według prawdopodobień-

stwa do stałej µ. Równoważnym sformułowaniem jest

lim

n→∞

P ({|X

n

− µ| < ε}) = 1

Opisując słowami, prawdopodobieństwo, że ¯

x

n

znajdzie się w dowolnie małym

otoczeniu wartości µ może być dowolnie bliskie wartości 1, jeżeli liczebność
próby dąży do nieskończoności.

Alternatywnie definicję można przedstawić następująco

5

background image

Paweł Strawiński

Asymptotyka i statystyczne podstawy regresji

Definicja 4 Ciąg zmiennych losowych {X

N

: N = 1, 2, . . .}, gdzie indeks N

oznacza liczebność próby, jest zbieżny według prawdopodobieństwa do liczby
a, jeżeli

∀ ε > 0 lim

n→∞

P (|X

n

− a| > ε) = 0

Oznacza to, że w granicy prawdopodobieństwo zdarzenia, że wartość zmien-
nej losowej X

n

odchyli się od wartości µ o więcej niż dowolnie mała liczna ε

wynosi zero.

Zbieżność według prawdopodobieństwa oznaczamy X

n

P

a, oraz mówi-

my, że a jest granicą prawdopodobieństwa (plim) dla ciągu X

N

. W podręcz-

nikach do ekonometrii najczęściej spotykanym oznaczeniem jest plim X

N

= a

0.3.2

Prawa wielkich liczb

Twierdzenie 1 Nierówność Markowa.
Niech
X

n

≥ 0 będzie zmienną losową. Wtedy dla każdego a > 0

P (X

n

≥ a) ≤

EX

a

Dowód:

aP (X

n

≥ a) ≤

Z

X≥a

XdP ≤ EX

Wprost z nierówności Markowa wynika nierówność Czebyszewa.

Definicja 5 Niech EX = µ, oraz a > 0. Wtedy:

P (|X − µ| ≥ a) ≤

V arX

a

2

Definicja 6 Niech ciąg X

n

będzie nieskończonym ciągiem zmiennych loso-

wych. Mówimy, że ciąg jest zbieżny prawie na pewno lub z prawdopodobień-
stwem 1 do liczby
a jeżeli

P ({ω : lim

n→∞

X

n

(ω) = a}) = 1

Zbieżność prawie na pewno oznaczamy X

n

p.n.

a, Oznacza to, że dla ro-

snącej próby wartość zmiennej losowej znajduje się w epsilonowym otoczeniu
liczby a z prawdopodobieństwem równym 1.

Twierdzenie 2 Prawo Wielkich Liczb.
Jeżeli
X

1

, X

2

, . . . są niezależnymi zmiennymi losowymi o jednakowym rozkła-

dzie, ze skończoną wartością oczekiwaną µ < ∞. Wtedy

∀ε > 0 lim

n→∞

P



|

S

n

n

− µ| ≤ ε



= 1

6

background image

Paweł Strawiński

Asymptotyka i statystyczne podstawy regresji

Intuicyjnie, wartość oczekiwana jest liczbą do której zmierza według praw-
dopodobieństwa średnia z wielu niezależnych realizacji zmiennej losowej. Z
PWL wynika, że częstość empiryczna jest estymatorem zgodnym prawdopo-
dobieństwa sukcesu.

Twierdzenie 3 Mocne Prawo Wielkich Liczb.
Niech ciąg
X

n

będzie ciągiem niezależnych zmiennych losowych o jednakowym

rozkładzie, ze skończoną wartością oczekiwaną µ < ∞, to dla każdego ε > 0

∀ε > 0 lim

n→∞

(sup

m≥n

|

X

1

+ . . . + X

m

m

− µ| ≤ ε) = 1

Twierdzenie 4 Słuckiego. Niech g : R

K

→ R

J

będzie funkcją ciągłą w pew-

nym punkcie c ∈ R

K

. Niech {x

N

: N = 1, 2, . . .} będzie ciągiem wektorów o

wymiarach K × 1, takim że x

N

P

→ c. Wtedy:

plim g(x

N

) = g(plim x

N

)

jeżeli g(·) jest ciągła w punkcie plim x

N

Twierdzenie Słuckiego jest bardzo użyteczne. Pozwala manipulować granica-
mi, nawet w przypadku funkcji nieliniowych, pod warunkiem, że są ciągłe.

Wnioskiem z twierdzenia Słuckiego jest następujące twierdzenie.

Twierdzenie 5 Operowanie granicami. Jeżeli X

n

oraz Y

n

są zmiennymi

losowymi zbieżnymi według prawdopodobieństwa o granicach plim X

n

= c,

plim Y

n

= d, wówczas:

• plim(X

n

+ Y

n

) = c + d

• plim(X

n

Y

n

) = cd

• plim(X

n

/Y

n

) = c/d jeżeli d 6= 0

Powyższe własności zachodzą również dla macierzy, których elementami są
zmienne losowe.

0.3.3

Zbieżność według rozkładu

Innym ważnym problemem jest zachownaie rozkładu ¯

x

n

przy rosnącym n do

nieskończoności. Przypomnijmy, że analityczna forma rozkładu jest niezna-
na, ponieważ nieznany jest rozkład pojedynczej zmiennej losowej X. Ponad-
to, wariancja rozkładu asymptotycznie dąży do zera, przez co rozkład jest
zdegenerowany do jednopunktowego o wartosci µ.

Najsilniejszą formą zbieżności jest zbieżność według rozkładu (dystrybu-

anty).

7

background image

Paweł Strawiński

Asymptotyka i statystyczne podstawy regresji

Definicja 7 Zbieżność według rozkładu.
Ciąg zmiennych losowych
{X

N

: N = 1, 2, . . .}, gdzie indeks N oznacza

wielkość próby, zbiega według rozkładu do ciągłej zmiennej losowej X, wtedy
i tylko wtedy gdy:

lim

n→∞

F

N

(ξ) = F (ξ)

∀ ξ ∈ R

gdzie F

N

jest dystrybuantą x

N

, oraz F jest ciągłą dystrybuantą zmiennej

losowej X. Zbieżność według rozkładu oznaczamy x

N

d

→ x. Przyjęło się mó-

wić, że zmienna losowa zbiega do rozkładu, chociaż w rzeczywistości zbiega
do innej zmiennej losowej o znanym rozkładzie.

Przykład 3. Gdy X ∼ N (µ, σ

2

), wtedy x

N

d

→ N (µ, σ

2

) lub x

N

a

N (µ, σ

2

). Mówimy, że X

n

zbiega do rozkładu normalnego lub krócej, że ma

rozkład asymptotycznie normalny.

Twierdzenie 6 Centralne Twierdzenie Graniczne.
Jeżeli
X

1

, . . . , X

n

są niezależnymi zmiennymi losowymi o jednakowym roz-

kładzie prawdopodobieństwa o wartości oczekiwanej EX

i

= µ i wariancji

V arX

i

= σ

2

oraz S

n

= X

1

+ . . . + X

n

, to dla każdej liczby a,

lim

n→∞

P



S

n

− nµ

≤ a



= Φ(a)

Czasem tezę CTG przedstawia się za pomocą zbieżności według rozkładu:

S

n

− nµ

d

N (0, 1)

W celu znalezienia rozkładu granicznego zastępuje się estymator jego

pewną funkcją, ktorej rozkład nie jest zdegenerowany. Dla rozkładu ¯

x

n

roz-

sądnym wyborem jest statystyka

n(¯

x

n

− µ)/σ, która posiada średnią zero

i jednostkową wariancję. Na mocy CTG rozkladem granicznym tej zmien-
nej losowej jest rozkład N (0, 1). Niezależnie od formy rozkładu, granicznym
rozkładem statystyki jest rozkład standardowy normalny. Ten fenomen jest
nazywany zbieżnością według rozkładu.

0.4

Asymptotyczne własności estymatorów

Ważną cechą estymatorów jest zgodność.

Definicja 8 Niech estymator ˆ

θ

n

będzie oszacowaniem parametru θ. Estyma-

tor nazwiemy estymatorem zgodnym, wtedy i tylko wtedy gdy

∀ε > 0 lim

n→∞

P ((ˆ

θ − θ) > ε) = 0

8

background image

Paweł Strawiński

Asymptotyka i statystyczne podstawy regresji

w skrócie możemy to zapisać jako

plim ˆ

θ

n

= θ

Estymator nazywamy zgodnym, gdy dla dostatecznie dużej liczebności

próby ciąg estymatorów zbiega z dużym prawdopodobieństwem do wartości
estymowanej. Oznacza to, że jeżeli budujemy estymatory na podstawie coraz
liczniejszych prób, coraz lepiej przybliżają one estymowaną wartość.

Przykład 4.
Inna ważną cechą, znacznie ułatwiającą ocenę prawidłowości oszacowań

jest asymptotyczna normalność.

Definicja 9 Niech estymator ˆ

θ

n

będzie oszacowaniem parametru θ. Przypu-

śćmy, że

N (ˆ

θ

N

− θ)

d

→ N (0, V )

(2)

gdzie V jest nieujemnie określoną macierzą o wymiarach P × P . Mówimy,
że
ˆ

θ

N

ma rozkład asymptotycznie normalny oraz V jest asymptotyczną wa-

riancją

N (ˆ

θ

N

− θ), zapisująć AV ar

N (ˆ

θ

N

− θ) = V .

Należy podkreślić, że ˆ

θ

N

tylko w specjalnych przypadkach ma rozkład

normalny. Mimo wszystko przyjmujemy, że

ˆ

θ

N

∼ N (0, V /N )

gdy spełniona jest zależność (2). Wobec tego V /N jest nazywane asympto-
tyczną wariancją ˆ

θ

N

0.5

Zadania

Zadanie 1.

1. Pokaż, że z twierdzenia Czebyszewa wynika, że jeśli lim

n→∞

Var (a

i

) = 0,

to plim a

i

= E (a

i

).

2. Pokaż, że dla jeśli dla n = 1, 2, . . .

a

i

=



0 z p-stwem 1 −

1

n

n z p-stwem

1

n

to plim (a

i

) = 0 mimo, że E (a

i

) = 1 a lim

n→∞

Var (a

i

) = ∞.

3. Czy prawdą jest, że

9

background image

Paweł Strawiński

Asymptotyka i statystyczne podstawy regresji

(a) plim a

i

= E (a

i

) =⇒ lim

n→∞

Var (a

i

) = 0

(b) lim

n→∞

Var (a

i

) = 0 =⇒ plim a

i

= E (a

i

)

(c) plim a

i

= E (a

i

) ⇐⇒ lim

n→∞

Var (a

i

) = 0

Rozwiązanie

1. Nierówność Czebyszewa mówi, że dla każdego ε > 0

Pr (|x| ≥ ε) ≤

E (x)

2

ε

2

Zdefiniujmy x = a

i

− E (a

i

). Otrzymamy wtedy

Pr (|a

i

− E (a

i

)| ≥ ε) ≤

E [a

i

− E (a

i

)]

2

ε

2

=

1

ε

2

Var (a

i

)

plim (a

i

) = E (a

i

) wtedy i tylko wtedy, gdy

lim

n−→∞

Pr (|a

n

− a| > δ) = 0

dla każdego δ > 0. Jeśli jednak δ = ε, to

lim

n−→∞

Pr (|a

i

− E (a

i

)| ≥ ε) ≤

1

δ

2

lim

n−→∞

Var (a

i

) = 0

2. Załóżmy, że a = 0. Z definicji granicy według prawdopodobieństwa i

sposobu zdefiniowania rozkładu otrzymujemy

lim

n−→∞

Pr (|a

n

− a| > δ) = lim

n−→∞

Pr (|a

n

| > δ)

Przeanalizujmy jaką wartosć przyjmuje wyraz a

i

ciągu.

a

i

=



0 z p-stwem 1 −

1

n

n z p-stwem

1

n

ale lim

n−→∞

1

n

= 0 więc

a

i

=



0 z p-stwem 1

n z p-stwem 0

zatem

lim

n−→∞

Pr (|a

n

− a| > δ) = lim

n−→∞

 1

n



= 0

10

background image

Paweł Strawiński

Asymptotyka i statystyczne podstawy regresji

a więc istotnie plim a

n

= 0.

E (a

i

) =



1 −

1

n



× 0 +

1

n

× n = 1

E a

2
i



=



1 −

1

n



× 0 +

1

n

× n

2

= n

Var (a

i

) = E a

2
i

 − [E (a

i

)]

2

= n − 1 → ∞

3. Z poprzednich punktów wynika, że

(a) jest fałszem

(b) jest prawdą

(c) jest fałszem

Zadanie 2.

Rzucamy n razy kostką i oznaczmy przez y

i

ilość wyrzuconych oczek. Po-

wiedzmy, że rozkład prawdopodobieństwa dla rzutów kostką nie zmienia się
w czasie i poszczególne rzuty są niezależne. Prawdopodobieństwa wyrzucenia
i oczek jest równe p

i

1. Podaj rozkład ε

i

dla liczby wyrzuconych oczek dla modelu postaci

y

i

= β + ε

i

E (ε

i

) = 0

Var (ε

i

) = σ

2

2. Podaj postać estymatora M N K dla wielkości parametru β

3. Podaj estymator M N K dla σ

2

4. Udowodnij, że estymatory M N K dla parametrów β i σ

2

są zgodne w

tym modelu

5. Podaj asymptotyczny rozkład estymatora b. Jaki będzie asymptotyczny

rozkład tego estymatora jeśli p

1

= . . . = p

6

.

6. Na podstawie uzyskanych dla obserwacji y

i

= {1, 2, 3, 2, 2, 3, 2, 2, 1} es-

tymatorów parametrów β i σ

2

zweryfikuj hipotezę, że oczekiwana liczba

oczek jest taka jak przypadku, w którym p

1

= . . . = p

6

. Zastosuj przy-

bliżenie wynikające z rozkładu asymptotycznego.

11

background image

Paweł Strawiński

Asymptotyka i statystyczne podstawy regresji

Rozwiązanie

1. Rozkład ε

i

można wywnioskować z rozkładu y

i

, ponieważ ε

i

= y

i

− β.

Rozkład y

i

jest dany wzorem

y

i

=

1

z p-stwem

p

1

2

z p-stwem

p

2

..

.

..

.

..

.

6

z p-stwem

p

6

więc

ε

i

=

1 − β

z p-stwem

p

1

2 − β

z p-stwem

p

2

..

.

..

.

..

.

6 − β

z p-stwem

p

6

Zauważmy, że E (y

i

) =

P

6
i=1

ip

i

. Ponieważ E (y

i

) = E (β + ε

i

) = β więc

β =

P

6
i=1

ip

i

i β jest skończona, ponieważ p

i

∈ [0, 1]

2. Jedyną zmienną objaśniającą jest stała, więc b = y

3. Jedyną zmienną objaśniającą jest stała, więc s

2

=

1

n−1

P

n
i=1

(y

i

− y)

2

4. Estymatory M N K są zgodne, jeśli x

i

i ε

i

są niezależne od siebie, mają

stałe rozkłady niezależne w czasie oraz skończone 1, 2 i 4 momenty przy
czym E (ε

i

) = 0 i E (x

0
i

x

i

) jest odwracalne. x

i

= 1, więc niezależność x

i

i ε

i

jest oczywista, tak samo jak stałość rozkładu, skończoność momen-

tów x

i

i odwracalność E (x

0
i

x

i

). Składnik losowy ε

i

ma stały rozkład o

ile nie zmieniają się p

i

, to, że E (ε

i

) = 0 wynika z definicji ε

i

, skończo-

ność momentów centralnych 2 i 4 błędu ε

i

pokazujemy w następujący

sposób:

Var (ε) = Var (y − β) = Var (y) = E y

2

 − [E (y)]

2

=

6

X

i=1

i

2

p

i

"

6

X

i=1

ip

i

#

2

< ∞

Var ε

2



= E ε

4

 − E ε

2



2

=

6

X

i=1

(i − β)

4

p

i

"

6

X

i=1

(i − β)

2

p

i

#

2

< ∞

ponieważ p

i

∈ [0, 1] i β skończone

12

background image

Paweł Strawiński

Asymptotyka i statystyczne podstawy regresji

5. Rozkład asymptotyczny estymatora b znajdujemy z ogólnego wzoru:

n (b − β)

D

−→ N



0, σ

2

[E (x

0

x)]

−1



E (x

0

x) = 1, σ

2

= Var (ε

2

) a więc

n (b − β)

D

−→ N 0, Var ε

2
i



gdzie β =

P

6
i=1

ip

i

, Var (ε) =

P

6
i=1

i

2

p

i

P

6
i=1

ip

i



2

Dla równych p

i

musimy mieć

P

6
i=1

p

i

= 1 więc p

i

=

1
6

,

P

6
i=1

ip

i

=

1
6

P

6
i=1

i =

1
6

6(6+1)

2

=

7
2

,

P

6
i=1

i

2

p

i

=

1
6

P

6
i=1

i

2

=

1
6

6(6+1)(12+1)

6

=

7×13

6

=

91

6

, Var (ε) =

91

6

49

4

=

181

12

147

12

=

34
12

=

17

6

n



b −

7

2



D

−→ N



0,

17

6



6. Wychodząc z wyprowadzonego rozkładu możemy zastosować aproksy-

mację

U =

b −

7
2

q

17

6

a

∼ N (0, 1)

Estymator b dla podanych danych jest równy y = 2. Wartosć statystyki

testowej U =

2−

7
2

17

6

≈ −. 89. Zatem nie ma podstaw do odrzucenia H

0

.

Zadanie 3.

Niech Y

i

, i = 1, 2, . . . będzie ciągiem niezależnych zmiennych losowych o

jednakowym rozkładzie, dla których E(Y

2

i

) < ∞. Niech E(Y

i

) = µ oraz

V ar(Y

i

) = σ

2

1. Niech ¯

Y

N

będzie średnią próbkową, dla próby o liczebności N. Znajdź

V ar(

N ( ¯

Y

N

− µ))

2. Znajdź asymptotyczną wariancję dla V ar(

N ( ¯

Y

N

− µ))

3. Znajdź asymptotyczną wariancję dla ¯

Y

N

i porównaj z V ar( ¯

Y

N

).

4. Znajdź asymptotyczne odchylenie standardowe dla ¯

Y

N

.

5. W jaki sposób można obliczyć asymptotyczne odchylenie standardowe

dla ¯

Y

N

.

Rozwiązanie

13

background image

Paweł Strawiński

Asymptotyka i statystyczne podstawy regresji

1. Ponieważ V ar(Y

i

) = σ

2

zatem V ar( ¯

Y

N

) =

σ

2

N

. Wnioskujemy zatem, że

V ar(

N ( ¯

Y

N

− µ)) = N

σ

2

N

= σ

2

2. Na podstawie CTG wiemy, że (

N ( ¯

Y

N

− µ))

a

∼ N (0, σ

2

). Wobec tego

AV ar(

N ( ¯

Y

N

− µ)) = σ

2

3. Aby obliczyć AV ar( ¯

Y

N

) dzieląc AV ar(

N ( ¯

Y

N

− µ)) przez N . Wobec

tego, AV ar( ¯

Y

N

) =

σ

2

N

. Tak jak oczekiwaliśmy jest ona równa wariancji.

4. Asymptotyczne odchylenie standardowe ¯

Y

N

jest równie pierwiastkowi

kwadratowemu z asymptotycznej wariancji. Wynosi

σ

N

.

5. Aby uzyskać asymptotyczne odchylenie standardowe dla ¯

Y

N

, niezbęd-

ny jest zgodny estymator dla σ. Zazwyczaj używany jest nieobciążony
estymator dla σ

2

: ˆ

σ

2

=

P

n
i=1

(y

i

− ¯

y

M

)

2

/(N − 1). Wtedy estymato-

rem odchylenia kwadratowego jest nieujemny pierwiastek oszacowania
wariancji. Asymptotyczne odchylenie standardowe wynosi

ˆ

σ

N

Literatura

[1]

Gajek Łesław,

Kałuszka Marek (1996) Wnioskowanie statystyczne,

WNT, str. 60-63.

[2] Greene William H. (2003) Econometric Analysis, Upper Saddle River,

str. 897-914.

[3] Jakubowski Jacek, Sztencel Rafał (2001) Wstęp do teorii prawdopodo-

bieństwa, SCRIPT.

[4] Johnston Jack, DiNardo Jonh (2006) Econometric Methods. McGraw-

Hill. 4th edition.

[5] Niemiro Wojciech (1999) Rachunek Prawdopodobieństwa i Statystyka

Matematyczna, Szkoła Nauk Ścisłych, str. 81-95.

[6]

Wooldridge Jeffrey M. (2002) Econometric Analysis of Cross Section

and Panel Data, MIT Press, str. 35-45.

14


Wyszukiwarka

Podobne podstrony:
Asymptoty ekstrema punkty przegiecia szkic zadania domowe
Matematyka cw5 Granice funkcji Ciaglosc funkcji Asymptoty
asymptoty
C04 Granica i asymptoty funkcji
Asymptoty Zadanie domowe [PDF Zadanie domowe id 627463 (2)
Asymptoty i pochodna z definicji
Zestaw 7 Ekstremum funkcji jednej zmiennej Punkty przegięcia wykresu Asymptoty
hospital i asymptoty id 206201 Nieznany
ciągłość funkcji asymptory ćwiczenia, matematyka sokołowska
asymptoty
asymptoty funkcji (2)
asymptoty
Asymptoty Zadanie domowe [PDF Rozwiazanie zadania domowego id (2)


więcej podobnych podstron