Wykład III

EKONOMETRIA

Wykład III (22-03-2012)

  1. Szacowanie parametrów modelu ekonometrycznego.

Szacowanie parametrów przeprowadzamy w oparciu o dane statystyczne i stosując odpowiednią metodę ich estymacji statystycznej.

Estymacja statystyczna to szacownie wartości parametrów lub postaci funkcji rozkładu prawdopodobieństwa w populacji generalnej na podstawie wyników próby.

Estymatorem Tn parametru θ rozkładu populacji generalnej nazywamy funkcją z próby.

Tn=t(x1,x2,...xn) która służy do oszacowania wartości parametru θ. Celem jego zastosowania jest znalezienie parametru rozkładu cechy w populacji.

Estymatory parametrów strukturalnym modelu ekonometrycznego są zmiennymi losowymi, natomiast wartości estymatorów nazywane są ocenami parametrów i obliczamy je na podstawie próby.

Oceną lub szacunkiem parametru jest konkretna wartość liczbowa estymatora z danej próby. Jeżeli jako ocenę (szacunek) podajemy jedną wartość liczbową nazywamy ją oceną punktową (szacunkiem punktowym) parametru populacji wyrażenie będące różnicą pomiędzy estymatorem, a wartości parametru θ czyli Tn- θ= określamy błędem szacunku lub błędem estymacji (jest to zmienna losowa o rozkładzie indukowanym przez rozkład estymatora).

  1. Własności estymatorów

Wyrażenie E (Tn)- θ= b(Tn) określamy jako obciążenie estymatora, zaś estymator jest asymptotycznie obciążony, jeżeli:


b (Tn) = 0

Własność nieobciążoności oznacza, że przy wielokrotnym losowaniu próby średnia z wartości przyjmowanych przez estymator nieobciążony równa się wartości szacowanego parametru. Własność ta gwarantuje otrzymanie za jego pomocą ocen wolnych od błędu statystycznego.


P{|Tn−θ|<ε}=1 

ε>0 przy ε minimum

Wraz ze wzrostem liczebności próby wzrasta dokładność oszacowania parametru θ.

Przy małych liczebnościach ważniejsza praktycznie jest zwykle kwestia nie obciążalności lub rozmiarów obciążalności estymatora.

D2 (Tn0)≤D2(Tin)

Miarą efektywności estymatora jest

a(Tn0………

Efektywność estymatora związana jest z wielkością rozrzutu wartości dookoła jego nadziei matematycznej (w przypadku estymatora nieobciążonego).

  1. Estymator Tn zgodny, nieobciążony i najefektywniejszy pozwoli najlepiej oszacować nieznany parametr θ ponieważ z dużym prawdopodobieństwem można przyjąć że zaobserwowana wartość estymatora Tn jest bliska rzeczywistej wartości θ.

Przy estymacji punktowej za oceną parametru przyjmuje się wartość estymatora, więc korzystniejsza jest sytuacja, że im wartość Tn grupują się bliżej wartości θ,   tym niższa jest wariancja estymatora (wybiera się ten który w rozpatrywanym zbiorze jest najefektywniejszy).

Pierwiastek z wariancji estymatora nieobciążonego nazywany jest błędem średnim szacunku D(Tn) macierzy oczekiwany rząd odchyleń wartości estymatora od prawdziwej wartości parametru (mierzy przeciętną wielkość błędów szacunku jakie popełniono by in plus i in minus gdyby z wyróżnionej zbiorowości wielokrotnie pobierano próby złożone z n obserwacji i na ich podstawie szacowanego θ za pomocą estymatora Tn).

Względny błąd średni szacunku określony jako D(tn)/θ

  1. Metody wyznaczania estymatorów

  1. Klasyczna metoda najmniejszych kwadratów

Metoda szacowania parametrów liniowych modeli ekonometrycznych.

Y= α01x1+…+ αkxk

Idea tej metody sprowadza się do takiego wyznaczenia wartości ocen $\hat{\alpha_{0,\ }\ }\hat{\alpha_{1}}\ldots.\ \hat{\alpha_{k}}$ parametrów strukturalnych α0, α1 … αk to suma kwadratów odchyleń zaobserwowanych wartości zmiennej objaśnianej od jej wartości teoretycznych obliczanych z modelu była najmniejsza. Warunek ten zapisuje się następująco:


$$\sum_{t = 1}^{n}{e_{\text{t\ }}^{2} =}\sum_{t = 1}^{n}{(y_{t} - \hat{\alpha_{0}\ }} - \hat{\alpha_{1}}x_{t1} - \hat{\alpha_{2}}x_{t2} - \hat{\alpha_{k}}x_{\text{tk}})^{2} \rightarrow minimum$$

Gdzie et (t=1,2,…,n)- odchylenie empirycznych wartości zmiennej objaśniającej od jej wartości teoretycznych nazywane resztami modelu:

et= yt-$\hat{y_{t}}$ ,

przy czym:


$$\hat{y} = \ \hat{\alpha_{0}} + \ \hat{\alpha_{1}}x_{t1} + \hat{\alpha_{2}}x_{t2} + \ldots + \hat{\alpha_{k}}x_{\text{tk}}$$

  1. Założenia KMNK (założenia Gaussa-Markowa):

(Autokorelacja składnik losowy jest porównywany z innym elementem tego samego szeregu).

  1. Twierdzenie Gaussa- Markowa

Twierdzenie 1

Jeżeli x jest nielosowe i U czyste to $\hat{\alpha}$ uzyskany według MNK jest zgodny, nieobciążony i najefektywniejszy w klasie estymatorów liniowych.

Twierdzenie 2

Jeżeli x jest losowe, ale niezależne od U to $\hat{\alpha}$ jest zgodny, nieobciążony.

Twierdzenie 3

Jeżeli x jest nielosowe i U czyste to obciążonym estymatorem wariancji składnika ……..

  1. Szacowanie parametrów modelu z jedną zmienną

Liniowy model ekonometryczny z jedną zmienną objaśniającą ma ogólną postać:

Y= α0 + α1x + ε

Zakładając że:


$$\sum_{t = 1}^{n}e_{t}^{2} = \sum_{t = 1}^{n}{(y}_{t} - \hat{\alpha_{0}} - \hat{\alpha_{1}}x)^{2} \rightarrow minmum$$

Wyznaczamy pochodne cząsteczkowe funkcji i przy……

Otrzymujemy zatem


$$\hat{\alpha_{1}} = \ \frac{\sum_{t = 1}^{n}{(y_{t}} - \ \overset{\overline{}}{y})(x_{t} - \ \overset{\overline{}}{x)}}{\sum_{t = 1}^{n}{(x_{t} - {\overset{\overline{}}{x)}}^{2}}} = \ \frac{\overset{\overline{}}{\text{xy}} - \overset{\overline{}}{x}*\overset{\overline{}}{y}}{\overset{\overline{}}{x^{2}\ } - \ {\overset{\overline{}}{x}}^{2}} = \ \frac{cov\ (x,y)}{S^{2}(x)}$$


$$\hat{\alpha_{0}} = \ \overset{\overline{}}{y} - \ \hat{\alpha_{1}}*\overset{\overline{}}{x}$$

  1. Szacowanie parametrów modelu z jedną zmienną- ujęcie macierzowe

Y=$\begin{matrix} y_{\begin{matrix} \begin{matrix} 1 \\ . \\ \end{matrix} \\ . \\ . \\ . \\ . \\ \end{matrix}} \\ y_{\begin{matrix} i \\ . \\ . \\ . \\ . \\ . \\ . \\ \end{matrix}} \\ y_{n} \\ \end{matrix}$ - wektor obserwacji zmiennej objaśnianej,

X= $\begin{matrix} 1x_{\begin{matrix} 1 \\ . \\ . \\ . \\ . \\ \end{matrix}} \\ 1x_{\begin{matrix} i \\ . \\ . \\ . \\ . \\ \end{matrix}} \\ 1x_{n} \\ \end{matrix}$ - macierz obserwacji zmiennej objaśniającej,

α= $\begin{matrix} \alpha_{0} \\ \alpha_{1} \\ \end{matrix}$- wektor nieznanych parametrów modelu,

ε= $\begin{matrix} \varepsilon_{\begin{matrix} 1 \\ . \\ . \\ . \\ \end{matrix}} \\ \varepsilon_{\begin{matrix} i \\ . \\ . \\ . \\ \end{matrix}} \\ \varepsilon_{n} \\ \end{matrix}$- wektor składników losowych

Przy zapisie macierzowym model ma postać:

Y= xα + ε

Wektor ocen parametrów strukturalnych modeli wyznaczony według wzoru:

$\hat{\alpha} = (X^{T}X)$-1 XT Y

XTX= $\begin{matrix} n & \sum_{t = 1}^{n}x_{t} \\ \sum_{t = 1}^{n}x_{t} & \sum_{t = 1}^{n}x_{i} \\ \end{matrix}$ XTY=$\begin{matrix} n & \sum_{t = 1}^{n}y_{t} \\ \sum_{t = 1}^{n}y_{t} & x_{t} \\ \end{matrix}$

det (XTX)-1= n$\sum_{t = 1}^{n}{x^{2} - \ (\sum_{t = 1}^{n}{x_{t})}}$2

  1. Szacowanie modelu z wieloma zmiennymi objaśniającymi

Y= α01x1t+… αkxk+ ε

Przy zapisie macierzowym model ma postać:

Y= xα+ρ

Zakładamy że dysponujemy:

- wartościami zmiennej endogenicznej, yt w okresie t=1,2…n

- wartościom n…..

Y= $\begin{matrix} y_{\begin{matrix} 1 \\ . \\ . \\ . \\ . \\ \end{matrix}} \\ y_{\begin{matrix} i \\ . \\ . \\ . \\ . \\ \end{matrix}} \\ y_{n} \\ \end{matrix}$ XTX=$\begin{matrix} n & \sum_{t = 1}^{n}x_{1t} & \sum_{t = 1}^{n}x_{2t} \\ \sum_{t = 1}^{n}x_{1t} & \sum_{t = 1}^{n}x_{1t}^{2} & \sum_{t = 1}^{n}{x_{1t}*x_{2t}} \\ \sum_{t = 1}^{n}x_{2t} & \sum_{t = 1}^{n}{x_{1t}*x_{2t}} & \sum_{t = 1}^{n}x_{2t}^{2} \\ \end{matrix}$

XTY= $\begin{matrix} \sum_{t = 1}^{n}y_{t} \\ \sum_{t = 1}^{n}{y_{t}*x_{1t}} \\ \sum_{t = 1}^{n}{y_{t}*x_{2t}} \\ \end{matrix}$

  1. Weryfikacja modelu

1)Badanie stopnia dopasowania modelu do danych empirycznych

2)Badanie statystycznej istotności estymatorów parametrów modelu

3)Weryfikacja hipotez dotyczących odchyleń losowych

  1. Miary dobroci modelu (mierniki jakości modelu)

Ocena dopasowania modelu do danych empirycznych ma na celu sprawdzenie, czy model ten w wystarczająco wysokim stopniu wyjaśnia kształtowanie się zmiennej objaśnianej.

  1. Odchylenie standardowe składnika resztowego (pierwiastek z wariancji składnika resztowego jako estymator wariancji składnika losowego σ2)

Se= $\frac{\sqrt{\sum_{i = 1}^{n}e_{i}^{2}}}{n - k - 1} = \sqrt{\frac{e^{T}e}{n - k - 1}} = \ \sqrt{\frac{y^{T}y - y^{T}x_{a}}{n - k - 1}} = \ \sqrt{\frac{\sum_{i = 1}^{n}{(x^{T}{y)}^{T}a}}{n - k - 1}}$

n- liczba obserwacji,

k- liczba zmiennych w modelu,

  1. Wektor ocen parametrów strukturalnych

Współczynnik ten informuje o ile średnio odchylały się wartości empiryczne od wartości teoretycznych wyznaczonych na podstawie modelu.

  1. Współczynnik zmienności losowej

Vs= $\frac{S_{e}}{\overset{\overline{}}{y}}*10\%$

Współczynnik ten informuje, ile procentowo wartości średniej arytmetycznej zmiennej objaśnianej stanowi.

Mniejsze wartości współczynnika wskazują na lepsze dopasowanie modelu do danych empirycznych. Przyjmuje się że nie powinien on przekraczać 10%.

  1. Współczynnik zbieżności (indeterminacji) który wyraża udział zmienności losowej w całkowitej zmienności zmiennej objaśnianej?


$$\varphi^{2} = \ \frac{\sum_{i = 1}^{n}{(y_{t} - \hat{y})^{2}}}{\sum_{i = 1}^{n}(y_{t} - \overset{\overline{}}{y})^{2}} = \ \frac{\sum_{i = 1}^{n}e_{t}^{2}}{\sum_{i = 1}^{n}{(y_{t} - \overset{\overline{}}{y})^{2}}} = \ \frac{(n - k - 1)\text{Se}^{2}}{\sum_{i = 1}^{n}{(y_{t} - \overset{\overline{}}{y})^{2}}} = \frac{(n - k - 1)S^{2}e}{n*S^{2}y} = \ \frac{y^{T}y - y^{T}x_{a}}{(y - \ \overset{\overline{}}{y})^{T}*(y - \overset{\overline{}}{y})}$$

Wskazuje jaki procent zmienności zmiennej objaśnianej nie został wyjaśniony przez model. Dopasowanie modelu do danych jest tym lepsze, im współczynnik jest bliższy zeru. Pożądane są wartości współczynnika nieprzekraczającego 10%.

  1. Współczynnik determinacji który informuje jaką część całkowitej zmienności zmiennej objaśnianej stanowi zmienność wartości teoretycznych tej zmiennej, tj. część zdeterminowana przez zmienne objaśniające.

R2= $\frac{\sum_{i = 1}^{n}{(\hat{y_{t}} - \ \overset{\overline{}}{y})^{2}}}{\sum_{i = 1}^{n}{{(y}_{t} - \ \overset{\overline{}}{y})^{2}}} = 1 - \varphi^{2}$

Współczynnik ten przyjmuje wartości z przedziału [0;1]. Dopasowanie modelu do danych jest tym lepsze im współczynnik determinacji jest bliższy jedności.

Jeżeli k+1- liczba szacowanych parametrów modelu jest niewiele mniejsza od liczby obserwacji n, to stosujemy skorygowany współczynnik determinacji.

  1. Macierz wariancji i kowariancji estymatorów parametrów


D2(α = S2e * (XTX)−1

Szczególne znaczenie mają elementy diagonalne tej macierzy (wariancje estymatorów parametrów). Pierwiastki tych wartości to błędy średnie szacunku parametrów. Kolejność otrzymanych wariancji uzależniona jest od kolejności zmiennych w macierzy X. Poza główną przekątną znajdują się kowariancje estymatorów parametrów.

Obliczanie średnich błędów szacunku parametrów pozwala na zorientowanie się w dokładności otrzymanych szacunków, a ich dokładność rozstrzyga o ich przydatności praktycznej. Ocena standardowego błędu szacunku parametru informuje, o ile średnio jednostek wartości oceny różni się od rzeczywistej wartości parametru.

  1. Badanie statystycznej istotności estymatorów parametru modelu

Sprawdzenie statystycznej istotności parametrów strukturalnych polega na ocenie, czy parametry różnią się statystycznie istotnie od zera. Służy temu test istotności t- Studenta. Hipotezy tego testu są następujące:

H0: α1=0

H1: α1≠0

Hipoteza zerowa H0 oznacza, że parametr statystycznie nieistotny, natomiast hipoteza H1(alternatywna) oznacza, że parametr jest istotny. Sprawdzeniem testu jest statystyka t- Studenta, liczona według następującego wzoru:

$t_{\hat{\alpha_{1}}} = \ \frac{|\hat{\alpha_{i}|}}{(D\ \hat{\alpha_{i}})}$ ocena i-tego parametru strukturalnego

błąd średni szacunku parametru strukturalnego

Obliczoną wartość statystyki t- Studenta porównujemy z wartością krytyczną odczytaną dla zadanego poziomu istotności α i n-k-1 stopni swobody (najczęściej przyjmuje się że tα, n-k-1= 2). Jeżeli:

t$\hat{\alpha_{1}}$ ≥ tα, n-k-1 – hipotezę zerową odrzucamy na korzyść hipotezy alternatywnej

t$\hat{\alpha_{1}}$ < tα, n-k-1 – nie ma podstaw do odrzucenia hipotezy zerowej

Przyczyny braku statystycznej istotności parametrów:

  1. niska jakość danych statystycznych,

  2. mała liczebność próby,

  3. niewłaściwie dobrany zestaw zmiennych objaśniających,

  4. niewłaściwa postać analityczna modelu

Badanie własności składnika losowego:

Sprawdzamy czy spełnione są przyjęte przy estymacji założenia dotyczące składnika losowego (reszty „dobrego” modelu powinny charakteryzować się losowością, normalnością i symetrią)

- badanie autokorelacji składnika losowego (np. test Durbina- Watsona)

- sprawdzenie czy reszty mają charakter losowy

- sprawdzenie czy reszty mają rozkład normalny

- weryfikacja hipotezy ostałości wariancji składnika losowego

- badanie stabilności opisywanych relacji czasie (np. test Chower)

  1. Autokorelacja odchyleń losowych oznacza liniową zależność między odchyleniami losowymi z różnych jednostek czasu. Miarą siły…..

……nazywamy współczynnik autokorelacji rzędu ….. oznaczeniem tego współczynnika jest współczynnik autokorelacji Reszty et i tti?

  1. Przyczyny autokorelacji składnika losowego:

  1. Skutki autoregresji:

  1. Badanie autokorelacji składnika losowego- test Durbina – Watsona:

H0: p=0 brak autokorelacji składnika losowego

H1: p≠0 występuje autokorelacja składnika losowego (można użyć w hipotezie odpowiednio znaku większości, jeżeli autokorelacja jest dodatnia lub znaku mniejszości jeżeli autokorelacja jest ujemna).

Sprawdzeniem jest statystyka


$$d_{\text{emp}} = \frac{\sum_{t = 2}^{n}{(e_{t} - e_{t - 1})^{2}}}{\sum_{t = 1}^{n}e_{t}^{2}}$$

Statystyka d przyjmuje wartości z przedziału[0;4]. Jeżeli H0 jest prawdziwa to d=2. Wartość d<2 świadczą o istnieniu autokorelacji dodatniej, natomiast wartość d>2 świadczą o istnieniu autokorelacji ujemnej. Zatem zależności od otrzymanej wartości d trzeba sprecyzować dokładniej hipotezę alternatywną.

  1. Obliczona wartość statystyki d (lub d’) porównuje się z dwoma wartościami krytycznymi : dL i dU odczytamy z tablic Durbina-Watsona dla przyjętego poziomu istotności α oraz n i k stopni swobody (n- liczba obserwacji, k- liczba zmiennych objaśniających w modelu).

Reguły decyzyjne:

W sytuacji gdy dL≤d≤dU możemy posłużyć się współczynnikiem autokorelacji p, który z d powiązany jest następująco


$$\hat{p} = \frac{2 - d}{2}$$

Jeżeli występuje autokorelacja reszt wówczas najlepszą metoda estymacji jest uogólnienie MNK Aitkena, jest również prostsza.

  1. Heteroskedastyczność

Zjawisko heteroskedastyczności polega na niejednorodności wariancji składników losowych w obrębie próby(obserwacji)

Przyczyny powstawania heteroskedastyczności:

Skutki heteroskedastyczności składnika losowego dla estymatorów MNK:

  1. Podstawowe transformacje modeli nieliniowych

Transformacja liniowa- polega na sprawdzaniu za pomocą odpowiednich przekształceń, funkcji nieliniowych do funkcji liniowych względem występujących w niej parametrów.

  1. Funkcja potęgowa

Y=α0a0*Xa1

Przekształcenie do postaci liniowej odbywa się przez logarytmowanie

lny=lna0+a1lnX

Funkcja potęgowa jest jedną z najczęściej stosowanych postaci, gdyż nadaje się do opisu różnego rodzaju zależności.

  1. Funkcja wykładnicza

Y=a0-a1x a0>0, a1>0

Przekształcenie do postaci liniowej odbywa się poprzez logarytmowanie

lny=lna0+Xlna1

Funkcja wykładnicza znajduje najczęściej zastosowanie jako model tendencji liniowej, w analizie rynku

  1. Funkcja hiperboliczna

Y=a0+a1$\frac{1}{x}$ a1>0

Przekształcenie do postaci liniowej odbywa się poprzez odpowiednie podstawienia

$\frac{1}{x}$=Z

Y=a0+a1Z

  1. Funkcja logarytmiczna

Y=a0+a1logX a0>0, a1>0

Przekształcenie do postaci liniowej odbywa się poprzez odpowiednie podstawienia

logX=Z

Y=a0+a1Z

Dobrze opisuje krzywe Engla dla dóbr wyższego rzędu.

  1. Funkcja wielomianowa

Y=a0+a1*X+a2*X2

Przekształcenie do postaci liniowej odbywa się poprzez odpowiednie podstawienia

X2=Z

Y=a0+a1*X+a2Z


Wyszukiwarka

Podobne podstrony:
TBL WYKŁAD III Freud
wykład III Ubezpieczenia na życie2011
wykład III pns psychopatologia
WYKLAD III diagnoza psychologiczna
MAKROEKONOMIA WYKŁAD III
Zarzadzanie strategiczne w organizacjach publicznych wyklad III listopad 2010
FARMAKOLOGIA WYKŁAD III RAT MED ST
FPP wykład III
wykład III bud ciało i szybkość
BHP - wykład III - biomechanika, materiauy
Wyklad 8, III rok, Diagnostyka laboratoryjna, Wykłady diagnostyka
wyklad III- uklad wydalniczy, Biologia, zoologia
zadanie 1, wykład III
Podstawy programowania (wykład III)
prawo?ministracyjne Wyklad III 8 03 2011

więcej podobnych podstron