T: Własności estymatorów
1.
I . Własność 1: Estymator nieobciążony
Estymator jest nieobciążony jeżeli jego wartość oczekiwana (nadzieja matematyczna) jest równa estymowanemu parametrowi
E(a) = α
Dla modelu danego jako: Y = Xa + ξ
Wektor parametrów strukturalnych Jany jest jako: a= (X’ X)-1 X’ Y
Jest estymatorem nieobciążonym czyli:
E(a) = E [(X’ X)-1 X’ Y] = E[(X’ X)-1 X’ (Xa + ξ)]
Ponieważ zmienne X (objaśniające) są nielosowe, więc:
E(a) = α
E ( ξ ) = 0
Stąd estymator parametrów strukturalnych jest nieobciążony jeżeli:
Zmienne objaśniające są nielosowe – kowariancja składnika losowego nie zależy od zmiennych objaśniających.
Składnik losowy ma wartość oczekiwaną równą 0.
E ( ξ ) = 0
II. Własność 2 : Estymator zgodny
Estymator parametru α jest zgodny jeżeli jest stochastycznie zbieżny do szacowanego nieznanego parametru α
Wraz ze wzrostem wartości parametru do nieskończoności …
(…) oznacza, że przy wzroście liczby obserwacji do nieskończoności jego wartość dąży stochastycznie do prawdziwej wartości parametru
$\operatorname{}{\mathbf{p\ \{}\left| \mathbf{a -}\mathbf{\alpha} \right|\mathbf{<}\ }\hat{\mathbf{\varepsilon}}$ } = 1
Jeżeli wraz ze wzrostem liczebności próby oczekiwana wartość rozkładu estymatora zmierza do wartości szacowanego parametru, a jednocześnie wariancja estymatora zmierza do zera, to estymator taki jest zgodny
III. Własność 3 : Estymator efektywny
Przy danych kilku estymatorach zgodnych i nieobciążonych estymatorem najefektywniejszym jest ten, który posiada najmniejszą wariancję
Jeżeli spełnione są założenia klasycznej metody najmniejszych kwadratów (dotyczące składnika losowego oraz zmiennych objaśniających) to estymator:
a = ( X’ X) -1 X’ Y
Jest estymatorem najefektywniejszym spośród estymatorów liniowych, gdzie jego wariancja dana jest następującą formułą:
D2(a) = σ2 (X’ X)-1
Założenia klasyczne MNK w odniesieniu do własności estymatorów:
Jeżeli zmienne objaśniające są współliniowe, to istnieje estymator dany formułą:
a = ( X’ X) -1 X’ Y
ponieważ nie istnieje macierz odwrotna macierzy X’ X, to wyznacznik macierzy jest równy zero, czyli:
det (X’ X) = 0
Jeżeli wariancja składnika losowego nie jest stała, to:
a = ( X’ X) -1 X’ Y
jest nieobciążony i zgodny, ale nie jest już najefektywniejszy
Jeżeli składnik losowy jest zależny:
Yt = βYt-1 + cov (ξt, ξ t+1) ≠0
Stałe
A w zbiorze zmiennych objaśniających nie ma zmiennej endogenicznej I opóźnionej w czasie, to:
a = ( X’ X) -1 X’ Y
jest nieobciążony i zgodny, ale nie jest najefektywniejszy
Jeżeli składnik losowy jest zależny:
cov (ξt, ξ t+1) ≠ 0
a w zbiorze zmiennych objaśniających istnieje zmienna endogeniczna opóźniona w czasie, to:
a = ( X’ X) -1 X’ Y
nie jest zgodny
Jeżeli wariancja składnika losowego jest funkcją zmiennych objaśniających, to estymator:
a = ( X’ X) -1 X’ Y
nie jest zgodny
Klasyczne założenia dotyczące składnika losowego:
Dana jest macierz wariancji i kowariancji składnika losowego:
E(ξ , ξ’) = $\begin{bmatrix} {\text{\ \ }D}^{2}\left( \xi_{1} \right)\text{\ \ \ }E\left( \xi_{1,\ \ \ }\xi_{2} \right)\text{\ \ \ \ }E\left( \xi_{1,\ \ \ }\xi_{3} \right)\ \ \ \cdots\ \ \ E\left( \xi_{1,\ \ \ }\xi_{n} \right)\text{\ \ \ } \\ E\left( \xi_{2,\ \ \ }\xi_{1} \right)\text{\ \ \ }D^{2}\left( \xi_{2} \right)\text{\ \ \ \ \ }\text{E\ }\left( \xi_{2,\ \ \ }\xi_{3} \right)\ \ \cdots\ \ \ E\left( \xi_{2,\ \ \ }\xi_{n} \right) \\ \text{\ \ \ \ \ \ \ }\cdots\ \ \ \ \ \ \ \ \ \ \ \ \ \ \cdots\text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ }\cdots\text{\ \ \ \ \ \ \ \ \ \ }\cdots\ \ \ \ \ \ \ \ \ \ \ \cdots \\ E\left( \xi_{n,\ \ \ }\xi_{1} \right)\text{\ \ \ E}\left( \xi_{n,\ \ \ }\xi_{2} \right)\text{\ \ \ E}\left( \xi_{n,\ \ \ }\xi_{3} \right)\ \ \cdots\text{\ \ }D^{2}\left( \xi_{n} \right) \\ \end{bmatrix}\text{\ \ }$
Główna przekątna – wariancje estymatorów
Pozostałe przekątne – kowariancje estymatorów
Macierz wariancji i kowariancji składnika losowego jest:
Macierzą kwadratową i symetryczną o wymiarach ( n *n)
Na głównej przekątnej znajdują się wariancje składników losowych poszczególnych okresów (w przypadku szeregów czasowych)
Natomiast poza główną przekątną znajdują się kowariancje między składnikami losowymi poszczególnych okresów
Można wyróżnić 4 sytuacje ze względu na macierz kowariancji składnika losowego:
Sytuacja 1: SPEŁNIONE ZAŁOŻENIA MNK
Wariancja jest jednorodna:
D2(ξ1) = D2(ξ2) = … = D2(ξn) = δ2
Brak autokorelacji, czyli składnik losowy jest niezależny
E (ξt ξt+1 ) = 0
Macierz wariancji i kowariancji ma postać:
E ( ξ ξ’ ) = $\begin{bmatrix} \delta^{2}\ 0\ 0\ \ldots\ 0 \\ 0\ {\ \delta}^{2\ \ }0\ldots\ 0 \\ \ldots\ldots\ldots\ldots\ldots \\ 0\ \ \ \ 0\ \ \ 0\ \ 0\ \delta^{2} \\ \end{bmatrix}$ = δ2 In
Sytuacja 2 : NIE JEST SPEŁNIONE ZAŁOŻENIE O JEDNORODNOŚCI WARIANCJI SKŁADNIKA LOSOWEGO
Oznacza to, że:
D2(ξ1) ≠ D2(ξ2) ≠ … ≠D2(ξn) ≠ δ2
A składnik losowy jest niezależny (nie występuje autokorelacja składnika losowego, im:
E (ξt ξt+1 ) = 0 dla każdego r > 0
Wówczas macierz wariancji i kowariancji składnika losowego jest macierzą diagonalną i ma postać:
E ( ξ ξ’ ) = $\begin{bmatrix} D^{2}\left( \xi_{1} \right)\ \ \ \ \ \ \ 0\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ 0\ \ \ \ \ldots\ \ \ \ \ \ \ \ \ \ 0 \\ \ \ \ \ \ \ 0\text{\ \ \ \ \ \ \ \ \ D}^{2}\left( \xi_{2} \right)\ \ \ \ \ \ \ \ \ \ 0\ \ \ \ \ \ldots\ \ \ \ \ \ \ \ \ 0 \\ \ \ \ \ \ldots\ \ \ \ \ \ \ \ \ldots\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ldots\ \ \ \ldots\ \ \ \ \ \ \ \ \ \ldots\ \\ \ \ \ \ \ \ \ \ \ \ \ 0\ \ \ \ \ \ \ \ \ \ \ \ 0\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ 0\ \ \ \ \ldots\text{\ \ \ \ \ D}^{2}(\xi_{n}) \\ \end{bmatrix}$
Sytuacja 3 : JEŻELI SPEŁNIONE JEST ZAŁOŻENIE O JEDNORODNOŚCI WARIANCJI SKŁADNIKA LOSOWEGO, CZYLI:
D2(ξ1) = D2(ξ2) = … = D2(ξn) = δ2
A składnik losowy jest zależny (występuje autokorelacja składnika losowego
Wówczas macierz wariancji i kowariancji składnika losowego jest macierzą diagonalną i ma postać:
E ( ξ ξ’ ) = $\begin{bmatrix} \ \ \ 1\ \ \ \ \ \ \ \ p_{12}\text{\ \ \ \ \ \ \ \ }p_{13}\ \ \ \ \ldots\ \ \ \ \ p_{1n}\ \\ p_{21}\ \ \ \ 1\ \ \ \ \ \ \ \ \ \ \ p_{23}\ \ \ \ \ \ldots\ \ \ \ \ \ \ \ \ \\ \ \ \ \ldots\ \ \ \ \ \ldots\ \ \ \ \ \ \ \ \ \ \ \ldots\ \ \ \ \ \ldots\ \ \ \ \ \ldots\ \\ \ p_{n1}\ \text{\ \ }\text{\ \ }p_{n2}\ \text{\ \ }\ p_{n3}\ \ \ \ \ \ldots\ \ \ \ \ \ 1 \\ \end{bmatrix}$
Autokorelacja – przyczyny jej powstawania:
- pominięcie istotnej zmiennej objaśniającej
- nieprawidłowe określenie opóźnień zmiennych objaśniających
Poprawianie modelu:
Uzupełnienie zmiennej objaśniającej
Doszacowanie modelu
Sytuacja 4 : JEŻELI NIE JEST SPEŁNIONE ZAŁOŻENIE O JEDNORODNOŚCI WARIANCJI SKŁADNIKA LOSOWEGO, CZYLI:
D2(ξ1) ≠ D2(ξ2) ≠ … ≠D2(ξn) ≠ δ2
Oraz nie jest spełnione założenie o braku autokorelacji, czyli występuje sytuacja w której:
E (ξt ξt+1 ) ≠ 0
Wówczas macierz wariancji i kowariancji składnika losowego jest macierzą symetryczna i ma następującą postać:
E(ξ , ξ’) = $\begin{bmatrix} {\text{\ \ }D}^{2}\left( \xi_{1} \right)\text{\ \ \ }E\left( \xi_{1,\ \ \ }\xi_{2} \right)\text{\ \ \ \ }E\left( \xi_{1,\ \ \ }\xi_{3} \right)\ \ \ \cdots\ \ \ E\left( \xi_{1,\ \ \ }\xi_{n} \right)\text{\ \ \ } \\ E\left( \xi_{2,\ \ \ }\xi_{1} \right)\text{\ \ \ }D^{2}\left( \xi_{2} \right)\text{\ \ \ \ \ }\text{E\ }\left( \xi_{2,\ \ \ }\xi_{3} \right)\ \ \cdots\ \ \ E\left( \xi_{2,\ \ \ }\xi_{n} \right) \\ \ \ \ \ \ \ \ \cdots\ \ \ \ \ \ \ \ \ \ \ \ \ \ \cdots\ \ \ \ \ \ \ \ \ \ \ \ \ \ \cdots\ \ \ \ \ \ \ \ \ \ \cdots\ \ \ \ \ \ \ \ \ \ \ \cdots \\ E\left( \xi_{n,\ \ \ }\xi_{1} \right)\text{\ \ \ E}\left( \xi_{n,\ \ \ }\xi_{2} \right)\text{\ \ \ E}\left( \xi_{n,\ \ \ }\xi_{3} \right)\ \ \cdots\ \ D^{2}\left( \xi_{n} \right) \\ \end{bmatrix}$
Trzeba poprawić autkorelację
Ewentualnie potem należy przeformułować model
Modele nieliniowe sprawdzalne do liniowych:
MODEL HIPERBOLICZNY
Oszacować model o postaci:
Y1 = a 1 $\frac{\mathbf{1}}{\mathbf{X}_{\mathbf{1\ t}}}$ + a 0+ ξ t
Na podstawie danych statystycznych zamieszczonych w tablicy
Y t | X 1 t | G t |
---|---|---|
1 | 11 | 0,09 |
1,1 | 8 | 0,126 |
1,11 | 6 | 0,16 |
1,12 | 4 | 0,25 |
1,22 | 4 | 0,25 |
1,25 | 3 | 0,33 |
1,36 | 2 | 0,5 |
1,54 | 2 | 0,5 |
2 | 2 | 0,5 |
2 | 1 | 1 |
Y – wielkość sprzedaży [sztuki]
X 1t – cena [100 PLN]
Stosując metodę NMK
a = (X’ X)-1 X’Y
mamy
X = $\begin{bmatrix} 0,09\ \ \ \ 1 \\ 0,125\ \ 1 \\ 0,166\ \ 1 \\ 0,25\ \ \ \ 1 \\ 0,25\ \ \ \ 1 \\ 0,33\ \ \ \ 1 \\ 0,5\ \ \ \ \ \ \ 1\ \\ 0,5\ \ \ \ \ \ 1 \\ 0,5\ \ \ \ \ \ 1 \\ 1\ \ \ \ \ \ \ \ \ \ 1 \\ \end{bmatrix}$ Y = $\begin{bmatrix} 1 \\ 1,1 \\ 1,11 \\ 1,12 \\ 1,22 \\ 1,25 \\ 1,36 \\ 1,54 \\ 2 \\ 2 \\ \end{bmatrix}$
X’ X = $\begin{bmatrix} 2,03 & 3,71 \\ 3,71 & 10 \\ \end{bmatrix}$ (X’ X) -1 = $\begin{bmatrix} 1,52 & - 0,56 \\ - 0,56 & 0,31 \\ \end{bmatrix}$
X’ Y = $\begin{bmatrix} 5,86 \\ 13,7 \\ \end{bmatrix}$ a = $\begin{bmatrix} 1,17 \\ 0,93 \\ \end{bmatrix}$
Ostatecznie otrzymujemy:
Postać pierwsza:
Yt = 1,17 G t + 0,93 + ut
Postać druga i ostateczna ( Y bez * )
Yt = 1,17 $\frac{\mathbf{1}}{\mathbf{X}_{\mathbf{1}\mathbf{t}}}$ + 0,93 + ut
Weryfikacja modelu ekonometrycznego.
Weryfikacja modelu ekonometrycznego oznacza:
Zbadanie, czy oszacowany model jest zgodny z rzeczywistością (kierunek wpływu zmiennych objaśniających jest zgodny z rzeczywistością)
Zbadanie czy model ekonometryczny jest wystarczająco precyzyjny
Zbadanie, czy zmienne objaśniające istotnie wpływają na zmienną endogeniczną
Zbadanie, czy spełnione są założenia MNK
Miary struktury stochastycznej
Wariancja resztowa i odchylenie standardowe reszt
Przy spełnionych warunkach MNK nieobciążonym estymatorem wariancji resztowej jest wariancja resztowa wyrażona według następującej formuły:
Su2 = $\frac{\mathbf{1}}{\mathbf{n - k}}$ $\sum_{\mathbf{i = 1}}^{\mathbf{n}}\mathbf{(}$Yt – Yt*)2 = $\frac{\mathbf{1}}{\mathbf{n - k}}$ $\sum_{\mathbf{i = 1}}^{\mathbf{n}}\mathbf{u}$02
Pierwiastek kwadratowy z wariancji resztowej daje tzw. odchylenie standardowe reszt, czyli:
Su = $\sqrt{\mathbf{S}_{\mathbf{u}}^{\mathbf{2}}}$
Interpretacja odchylenie standardowego:
Odchylenie standardowe informuje o ile średnio rzecz biorąc In plus bądź In minus odchylają się rzeczywiste realizacje zmiennej endogenicznej od wartości teoretycznych wyznaczonych przez model
Macierz wariancji i kowariancji oraz średnie błędy szacunku
Przy spełnionych warunkach MNK macierz wariancji i kowariancji dana jest następującą formułą:
D2(a) = δ2 (X’ X)-1
Gdzie δ2= Su2
D2(a) = Su2 (X’ X) -1
Miary struktury stochastycznej (Wariancja resztowa oraz macierz wariancji i kowariancji) modelu związane są ze zmienną ξ t
Miara precyzji estymacji parametrów strukturalnych Y są średnie błędy szacunku
Kwadraty błędów szacunku znajdują się na głównej przekątnej macierzy wariancji i kowariancji. Pierwiastek wariancji estymatora daje zatem średni błąd szacunku dla danego parametru at
Miary dopasowania modelu do danych empirycznych
Współczynnik zbieżności – dany jest formułą:
φ2 = $\frac{\sum_{\mathbf{i = 1}}^{\mathbf{n}}{\mathbf{(\ }\mathbf{Y}_{\mathbf{t}}\mathbf{-}\mathbf{Y}_{\mathbf{t}}^{\mathbf{*}}\mathbf{\ )}}^{\mathbf{2}}}{\sum_{\mathbf{i = 1}}^{\mathbf{n}}{\mathbf{(\ }\mathbf{Y}_{\mathbf{t}}\mathbf{-}\overline{\mathbf{Y}}\mathbf{\ )}}^{\mathbf{2}}}$
Przyjmuje wartości z przedziału <0;1>
Im δ2 jest bliższe, bądź równe 1, tym słabiej wyjaśniona została wariancja zmiennej endogenicznej Yt
Współczynnik determinacji
Jest miarą alternatywną w stosunku do współczynnika zbieżności i dany jest następującą formułą:
R2 = 1 - δ2
R2 = 1- $\frac{\mathbf{n}\mathbf{-}\mathbf{1}}{\mathbf{n}\mathbf{-}\mathbf{m}\mathbf{-}\mathbf{1}}$ (1- R2)
Między współczynnikiem determinacji i współczynnikiem skorygowanym determinacji zachodzi następująca nierówność:
R2 > $\tilde{\mathbf{R}^{\mathbf{2}}}$
Współczynnik zmienności losowej
Dany jest następującą formułą:
Vs = $\frac{\mathbf{S}_{\mathbf{u}}}{\overline{\mathbf{Y}}}$ • 100 %
Współczynnik zmienności losowej informuje jaką część średniego parametru zmiennej endogenicznej stanowią wahania przypadkowe