3

WYKŁAD 3 05.04.2011

T: WŁASNOŚCI ESTYMATORÓW

Własność 1. Estymator nieobciążony.

Estymator jest nieobciążony jeżeli jego wartość oczekiwana (nadzieja matematyczna) jest równa estymowanemu parametrowi (nieznanemu parametrowi α)

E(a) = α

Dla modelu danego jako:

y = Xa + ξ

Wektor parametrów strukturalnych dany jest jako:

a = (X’X)-1X’Y

Wektor ocen parametrów jest nieobciążonym, czyli:

E(a) = E[(X’X)-1X’Y] = E[(X’X)-1X’*(Xα + ξ)

Jeśli model tak wygląda, każda wielkość będzie wielkością oczekiwaną.

Ponieważ zmienne X (objaśniające) są nielosowane, więc:

E(α) = α

E(ξ) = 0

Wartość współczynnika losowego równa jest zero. Z punktu widzenia poziomu przeciętnego wartości ξ są takie same.

Stąd estymator parametrów strukturalnych jest nieobciążony, jeżeli:

  1. Zmienne objaśniające są nielosowe – kowariancja składnika losowego nie zależy od zmiennych objaśniających.

E(Xξ) = 0

Nie występuje zależność między zmiennymi i losowymi a składnikiem losowym

  1. Składnik losowy ma wartość oczekiwaną równą zero:

E(ξ) = 0

Własność 2. Estymator zgodny.

Estymator parametru α jest zgodny jeżeli jest stochastycznie zbieżny do szacowanego nieznanego parametru α.

Im więcej obserwacji, tym lepiej. Przeładowanie modelu informacjami może jednak narazić nas na efekty postarzania informacji etc.

Oznacza to, że przy wzroście liczby obserwacji do nieskończoności jego wartość dąży stochastycznie do prawdziwej wartości parametru


p{|aα|<ε} = 1

W tym momencie wariancja składnika losowego będzie coraz mniejsza – popełniamy coraz mniejszy błąd między teoretycznym modelem a rzeczywistością.

Jeżeli wraz ze wzrostem liczebności próby oczekiwana wartość rozkładu estymatora zmierza do wartości szacowanego parametru, a jednocześnie wariancja estymatora zmierza do zer, to estymator taki jest zgodny.

Własność 3. Estymator efektywny.

Przy danych kilku estymatorach zgodnych i nieobciążonych estymatorem najefektywniejszym jest ten, który posiada najmniejszą wariancję.

Zastosowanie estymatora powoduje generowanie określonych błędów; zwraca się uwagę na procedury testowania estymatorów, by błąd z estymacji był jak najmniejszy, szczególnie w modelach finansowych.

Jeżeli spełnione są założenia klasycznej metody najmniejszych kwadratów (dotyczące składnika losowego oraz zmiennych objaśniających) to estymator:

a = (X’X)-1X’Y

Jest najefektywniejszym spośród estymatorów liniowych, gdzie jego wariancja dana jest następującą formułą:

D2(α) = σ2 (X’X)-1

Wynikiem jest symetryczna macierz wariancji-kowariancji – na głównej przekątnej znajdują się wariancje estymatorów. Pierwiastki z nich to odchylenia standardowe, przyporządkowane parametrom na poziomie przeciętnym. Nazywa się to średnimi błędami szacunku i mówi o tym jak dobrze oszacowaliśmy model. W estymatorze zgodnym odchylenia te będą miały wartość 0. Generuje on idealny model teoretyczny.

Założenia klasyczne MNK w odniesieniu do własności estymatorów:

a = (X’X)-1X’Y

ponieważ nie istnieje macierz odwrotna do macierzy X’X, ponieważ wyznacznik macierzy jest równy zero, czyli: det(X’X) = 0

Zdarza się to gdy wprowadzamy zmienne sztuczne, naśladujące.

a = (X’X)-1X’Y

jest nieobciążony i zgodny, ale nie jest już najefektywniejszy.

cov(ξtt+1) ≠ 0

a w zbiorze zmiennych objaśniających nie ma zmiennej endogenicznej opóźnionej w czasie, to:

a = (X’X)-1X’Y

jest nieobciążony i zgodny, ale nie jest już najefektywniejszy.

cov(ξtt+1) ≠ 0

a w zbiorze zmiennych objaśniających istnieje zmienna endogeniczna opóźniona w czasie, to:

a = (X’X)-1X’Y

nie jest zgodny; nie dążymy do prawdziwej realizacji parametru

a = (X’X)-1X’Y

nie jest zgodny.

Klasyczne założenia dotyczące składnik losowego

Dana jest macierz wariancji i kowariancji składnika losowego:

D21) E(ξ1 ξ2) E(ξ1 ξ3) … E(ξ1 ξn)

E(ξ2 ξ1) D22) E(ξ2 ξ3) … E(ξ2 ξn)

E(ξ ξ’) = … … … … …

E(ξn ξ1) E(ξn ξ2) E(ξn ξ3) … D2n)

Macierz wariancji i kowariancji składnika losowego jest:

Można wyróżnić cztery sytuacje ze względu na macierz wariancji i kowariancji składnika losowego.

One właśnie podlegają weryfikacji:

Sytuacja 1. Spełnione założenia MNK.

D21) = D22) = … = D2n) = σ2

E(ξtt+τ) = 0 dla każdego τ > 0

Wówczas macierz wariancji i kowariancji ma następującą postać:

σ2 0 … 0

0 σ2 … 0 σ2 - wariancje składnika losowego

… … … … = σ2 In In macierz jednostkowa

0 0 … σ2

Sytuacja 2. Nie jest spełnione założenie o jednorodności wariancji składnika losowego.

W takiej sytuacji – odstępstwa od założeń MNK – można udoskonalić model przez doestymowanie modelu, stosując uogólnioną metodę MNK – zminimalizuje to niestałość wariancji w czasie (bo model ma być modelem prognostycznym i gdy wystąpi wysoka wariancja, jest zagrożenie dużego błędu w przyszłości).

Oznacza to, iż

D21) ≠ D22) ≠ … ≠ D2n) ≠ σ2

A składnik losowy jest niezależny nie występuje autokorelacja składnika losowego, tzn.

E(ξt, ξt+τ) = 0 dla każdego τ > 0

Wówczas macierz wariancji i kowariancji składnika losowego jest macierzą diagonalną ma postać:

D21) 0 0 … 0

E(ξ ξ’) = 0 D22) 0 … 0

… … … … …

0 0 0 … D2n)

Wariancja ma tendencje do tego, że niskie poziomy wariancji grupują się razem, a wysokie poziomy wariancji – również razem.

Sytuacja 3. Jeżeli spełnione jest założenie o jednorodności wariancji składnika losowego, czyli

D21) = D22) = … = D2n) = σ2

(homoschedastyczny składnik losowy)

a składnik losowy jest zależny (występuje autokorelacja składnika losowego) trzeba zastanowić się co może powodować autokorelację,

Autokorelacja może występować wskutek:

Poprawianie modelu:

Jeśli to nie pomoże – doszacowanie modelu uogólnioną metodą MNK; po poprawieniu model traci jednak na efektywności.

Wówczas macierz wariancji i kowariancji składnika losowego jest macierzą symetryczną i ma następującą postać:

1 ρ12 ρ13 … ρ1n

E(ξ ξ’) = ρ21 1 ρ23 … ρ2n

… … … … …

ρn1 ρn2 ρn3 … 1

(współczynniki autokorelacji miedzy składnikiem losowym i-tego i j-tego okresu)

Sytuacja 4. Jeżeli nie jest spełnione założenie o jednorodności wariancji składnika losowego czyli

D21) = D22) = … = D2n) = σ2

oraz nie jest spełnione założenie o braku autokorelacji, czyli występuje sytuacja, w której

E(ξt, ξt+τ) ≠ 0

Wówczas macierz wariancji i kowariancji składnika losowego jest macierzą symetryczną i ma następującą postać:

D21) E(ξ1 ξ2) E(ξ1 ξ3) … E(ξ1 ξn)

E(ξ2 ξ1) D22) E(ξ2 ξ3) … E(ξ2 ξn)

E(ξ ξ’) = … … … … …

E(ξn ξ1) E(ξn ξ2) E(ξn ξ3) … D2n)

W tej sytuacji należy poprawić autokorelację


Modele nieliniowe sprowadzalne do liniowych

Model hiperboliczny

Oszacować model o postaci:


$$Y_{t} = \alpha_{1}\frac{1}{X_{1t}} + \alpha_{0} + \xi_{t}$$

Na podstawie danych statystycznych zamieszczonych w tablicy, gdzie:

Yt – wielkość sprzedaży [sztuki]

X1t – cena [100 PLN]

Interpretuje się zawsze parametry postaci nieliniowej!

Model należy sprowadzić do postaci liniowej:


$$G_{t} = \frac{1}{X_{1t}}$$

Stąd model będzie liniowy ze względu na zmienną Gt


Yt = α1Gt + α0 + ξt

Nigdy nie interpretuje się parametru przy zmiennej Gt.

Stosując metodę MNK:

a = (X’X)-1X’Y

Powstaje macierz realizacji X i Y, ostatecznie otrzymuje się wektor ocen parametrów strukturalnych. Można przejść do postaci nieliniowej przez postać liniową lub bezpośrednio.

Ostatecznie otrzymujemy:

Postać pierwsza:


Yt = 1, 17Gt + 0, 93 + ut

NIE INTERPRETUJEMY WSPÓŁCZYNNIKA PRZY G!

Postać druga i ostateczna:


$$Y_{t} = 1,17\frac{1}{X_{1t}} + 0,93 + u_{t}$$

Wzrost ceny o jednostkę spowoduje spadek wielkości sprzedaży o 1,17 jednostki.

W modelach hiperbolicznych weryfikuje się postać liniową i jeśli wynik jest pozytywny, można przenieść wyniki na model nieliniowy.

Weryfikacja modelu ekonometrycznego

Oznacza to:

brak jednego, sprawdzonego sposobu na weryfikację modelu ekonometrycznego, ale część elementów należy do procedury standardowej.

Miary struktury stochastycznej:

Wariancja resztowa i odchylenie standardowe reszt

Przy spełnionych warunkach MNK nieobciążonym estymatorem wariancji reszto wje jest wariancja resztowa wyznaczona według następującej formuły:


$$\text{Su}^{2} = \frac{1}{n - k}\sum_{t = 1}^{n}{({Y_{t} - Y_{t}^{*})}^{2}} = \frac{1}{n - k}\sum_{t = 1}^{n}{u_{t}}^{2}$$

Im wariancja resztowa jest mniejsza, tym lepiej.

Reszta ujemna – przeszacowanie – wartość teoretyczna wyższa od rzeczywistej.

Reszta dodatnia – niedoszacowanie – wartość teoretyczna niższa od rzeczywistej.

Reszty powinny być symetryczne ze względu na znak (tyle samo niedoszacowań i przeszacowań).

Pierwiastek kwadratowy z wariancji resztowej daje tzw. odchylenie standardowe reszt czyli:


$$Su = \sqrt{\text{Su}^{2}}$$

Interpretacja odchylenia standardowego

Odchylenie standardowe informuje o ile średnio rzecz biorąc In plus bądź In minus odchylają się rzeczywiste realizacje zmiennej endogenicznej od wartości teoretycznych wyznaczonych przez model.

Macierz wariancji i kowariancji oraz średnie błędy szacunku

Przy spełnionych warunkach MNK macierz wariancji i kowariancji dana jest następującą formuła:

D2(a) = σ2 (X’X)-1

gdzie

σ2 = Su2

D2(α) = Su2 (X’X)-1

Miary struktury stochastycznej (wariancja resztowa oraz macierz wariancji i kowariancji) modelu związane są ze zmienną ξt.

Miarą precyzji estymacji parametrów strukturalnych αt są średnie błędy szacunku

Kwadraty błędów szacunku znajdują się na głównej przekątnej macierzy wariancji i kowariancji. Pierwiastek wariancji estymatora daje zatem średni błąd szacunku dla danego parametru ai

Miary dopasowania modelu do danych empirycznych

Jest to badanie jakości modelu:

Współczynnik zbieżności

Dany jest następującą formułą:


$$\varphi^{2} = \frac{\sum_{t = 1}^{n}{(Y_{t} - Y_{t}^{*})}^{2}}{\sum_{t = 1}^{n}{(Y_{t} - \overset{\overline{}}{Y})}^{2}}$$

Współczynnik determinacji

Jest miarą alternatywną w stosunku do współczynnika zbieżności i dany jest następującą formułą:

R2=1 – φ2


Skorygowany współczynnik determinacji:


$${\tilde{R}}^{2} = 1 - \frac{n - 1}{n - m - 1}(1 - R^{2})$$

n – liczba obserwacji

m- liczba zmiennych objaśniających

Skorygowane R2 jest zawsze niższe od R2


$$\ {\tilde{R}}^{2} < R^{2}$$

Liczy się go najczęściej gdy model ma mieć zastosowanie prognostyczne.

Współczynnik zmienności losowej

Dany jest następującą formuła:


$$V_{s} = \frac{\text{Su}}{\overset{\overline{}}{Y}}*100\%$$

Jest to miara uzupełniająca do miary jakości modelu. Im wyższe Vs tym niższe R2.

Współczynnik zmienności losowej informuje jaką część średniego poziomu zmiennej endogenicznej stanowią wahania przypadkowe.

R2 stosujemy wyłącznie dla modeli liniowych.

Dla modeli nieliniowych istnieją inne wskaźniki.


Wyszukiwarka

Podobne podstrony:
3
3
3
3
Wykład 3 03 2014
122 3,124 ttl i cmos
3
Gotyckie pismo epigraficzne w Polsce str 3 156
3
3
3
3
3
3
3
3
3
3
3
3

więcej podobnych podstron