Ekonometria opracowanie

Ekonometria - zbitka „ekonomia- gospodarka”, „nametrix-mierzyc”; dziedzina ta zajmuje się pomiarem pewnych wielkości. Jako nauka ma przedmiot badania i metody badawcze. Te metody będą prezentowane (skoro zajmujemy się gospodarką, czyli ekonomią to po to, aby analizować wiec często mówimy, że ekonometria to dyscyplina analityczna obok statystyki, zastosowania matematyki w ekonomii oraz pośrednio związane z ekonometrią dyscypliny.). Obok słowa ekonometria znajduje się wiele definicji, które w istocie są do siebie podobne gdyż mniej więcej przez ekonometrię rozumiemy naukę badającą procesy gospodarczo- społeczne wykorzystując do tego wybrane teorie badawcze. To podejście interdyscyplinarne- z jednej strony ekonomia z drugiej metody pomiaru. W ekonometrii wykorzystuje się elementy statystyki i metodologii informatycznych. Podstawą są procesy lub zjawiska ekonomiczne. Gdyby tak zdefiniować ekonometrię to można powiedzieć dodatkowo, że robi się to w jakimś celu- rozpoznania procesów, zbadania współzależności procesów i w określony sposób to wykorzystać w procesach decyzyjnych, operatywnych i procesach predykcji, czyli przewidywania w przyszłość. W tej chwili mówimy, że badamy po to żeby wyniki te wykorzystać. Ekonometria to młoda dyscyplina naukowa.
* Początki ekonometrii: Oskar Lange, Jan Timbergen

MODEL EKONOMETRYCZNY – RODZAJE I ETAPY BADANIA

Model ekonometryczny: jest konstrukcją formalną opisującą wycinek rzeczywistości ekonomicznej za pomocą pozornych relacji, które mają postać równań ekonometrycznych.
- podstawowe narzędzie badawcze ekonometrii
- wynik modelu jest decyzją
- równanie lub system równań opisujące relacje między ekonomicznymi i nieekonomicznymi zmiennymi losowymi
- składa się z równań stochastycznych i deterministycznych
- Model do systemu ekonometrycznego: układ względnie odosobniony, składający się z elementów i relacji.
System otwarty uwzględnia otoczenia oraz wzajemne relacje, istnieje również system zamknięty.

Klasyfikacja modeli ze względu na:
1. Liczbę rozpatrywanych równań modelu:
a) jednorównaniowe: analizy jednej zmiennej objaśnionej
b) wielorównaniowe: każde z równań odnosi się do zmiennej objaśnianej
- proste: W roli zmiennych objaśniających występują wyłącznie zmienne z góry ustalone, np.
NIt= α11+α12NIt1+ α13t+ ξt1 – wielkość inwestycji zależy od nakładów
$\mathbf{R =}\frac{\mathbf{1}}{\mathbf{2}}\left( \frac{\mathbf{1}}{\mathbf{0}}\frac{\mathbf{0}}{\mathbf{1}} \right)$, gdzie 1 kolumna macierzy odpowiada występowaniu NIt, a druga It

Szacuje się parametry strukturalne metodą najmniejszych kwadratów.
Proces predykcji ekonometrycznej: przewidywanie, prawdopodobne przyszłe kształtowanie się wielkości.

- rekurencyjne: Powiązania -> nieopóźnione w czasie, nawiązania łańcuchowe pomiędzy zmiennymi.
Wzajemna zależność między wydajnością i płacami:
Lt=β11 β12WPt+ξt1, gdzie Lt – płace Wt – zbiorowa wydajność pracy
nakłady pracy żywej – liczba zatrudnionych

Zbiorowa wydajność pracy jest równa ilorazowi produkcji i liczby zatrudnionych (ewentualnie liczby przepracowanych godzin roboczych)


WPt=β21+β22Lt1+β23Lt2+ξt2

$\mathbf{R =}\frac{\mathbf{1}}{\mathbf{2}}\left( \frac{\mathbf{1}}{\mathbf{0}}\frac{\mathbf{-}\mathbf{\beta}_{\mathbf{22}}}{\mathbf{1}} \right)$ – macierz trójkątna, w której − β22  ≠ 0 oraz 1 kolumna macierzy odpowiada występowaniu Lt, a druga WPt

Modele rekurencyjne również wykorzystują metodę najmniejszych kwadratów. Modele o równaniach współzależnych – sprzężenie zwrotne. W tych samych procesach występuje przyczyna i skutek.

2. Formę związku pomiędzy zmienną objaśnianą a zmiennymi objaśniającymi:
a) liniowe: zmienna objaśniana jest liniową funkcją zmiennych objaśniających oraz składnika losowego:
Yt=α1Xt1+α2Xt2++αkXtk+ξt lub $\mathbf{Y}_{\mathbf{t}}\mathbf{=}{\sum_{\mathbf{i = 1}}^{\mathbf{k}}\mathbf{\alpha}_{\mathbf{i}}\mathbf{X}}_{\mathbf{\text{ti}}}\mathbf{+}\mathbf{\xi}_{\mathbf{t}}$

Yt - zmienna objaśniana Xt – zmienna objaśniająca ξt – czynnik losowy (każda ze zmiennych pełni rolę przyczyn oprócz Xt1 oraz charakteryzują skutek Yt)

Xt1 1 (tożsamość jedności)

b) nieliniowe:
- sprowadzalne do postaci liniowej
- niesprowadzalne do postaci liniowej
- potęgowe: Pt= β1+ZtB2+ MtB3+ eξt

Pt – produkcja Zt – zatrudnienie Mt – majątek/kapitał,

Logarytmowanie – doprowadzenie do postaci liniowej:


LPt= Lβ1+β2LZt+ β3LMt+ ξt

Nakłady inwestycyjne (zależą od nakładów inwestycyjnych):
Nt= α11+α12Nt1+ α13Wt+ ξt1, Wt - zysk, 11 jest zmienną (1 cyfra nr równania, 2 cyfra nr zmiennej)


It= α21+α22Nt* α23*t+ ξt2 ∖ n ∖ nZatrudnienie : ∖n

4. Strukturę dynamiczną modelu:
a) statyczne: modele dla zmiennych losowych, obserwacje zmiennych dot. zbioru obiektów ekonomicznych w ustalonej jednostce czasu (oparte na danych przekrojowych, N – liczba obiektów)
b) dynamiczne: modele procesów stochastycznych, obserwacje oparte są na szeregach czasowych, dot. zarówno jednego obiektu jak i wielu obiektów czasowych (oparte na danych przekrojowo-czasowych, T – liczba okresów)
- modele trendu
- autoregresyjne
- z rozłożonymi opóźnieniami
- autoregresyjne z rozłożonymi opóźnieniami

5. Zakres badawczy:
a) mikroekonomiczne
b) makroekonomiczne

6. Zadania, którym w praktyce gospodarczej modele mają służyć:
a) opisowe
b) optymalizacyjne

7. Ze względu na wartości poznawcze:
a) Przyczynowo-skutkowe: pomiędzy zmienną objaśnianą a zmiennymi objaśniającymi zachodzi związek przyczynowo-skutkowy, tzn. zmienne objaśniające określają poziom kształtowania się zmiennej objaśnianej, która spełnia rolę skutku.|
* nie można ich dokładnie określić
b) Symptomatyczne: zmienne objaśniające są silnie skorelowane ze zmienną objaśnianą, ale na nią bezpośrednio nie oddziaływają.
c) Autoregresyjne: rolę zmiennej objaśniającej pełni opóźniona w czasie zmienna objaśniana, czyli np. jeżeli model postaci liniowej ma 2 zmienne objaśniające to zmienna objaśniana jest opóźniona o 2 okresy Yt-1 oraz Yt-2.
d) Tendencji rozwojowej: opisują rozwój zjawiska w czasie, zmienną objaśniającą jest zmienna czasowa:
Yt= β1+β2t+  ξt

t{1,  2,  3,  , n} Okresy są względnymi jednostkami obserwacji, a analiza jest oparta o szeregi czasowe

T – jest zmienną czasową, a jej wartości przyrastają o jednostki:

Lata YT t t
2005 1 -2
2006 2 -1
2007 3 0

=> nie muszą być to liczby dodatnie!

Możliwości kształtowania Yt zależą od czasu. Nie można użyć w równaniu 4 kwartałów, bo układ nie miałby rozwiązania.


Yt=β1+β2t+γ1Q1+γ2Q2+γ3Q3+ξt

Rodzaje zmiennych występujących w modelach ekonometrycznych:
1. Klasyfikacja zmiennych w jednorównaniowym modelu ekonometrycznym:
a) zmienne endogeniczne:
- nieopóźnione w czasie -> wyjaśniane
- opóźnione w czasie -> objaśniające
b) zmienne egzogeniczne:
- nieopóźnione w czasie -> objaśniające
- opóźnione w czasie -> objaśniające
2. Klasyfikacja zmiennych w wielorównaniowym modelu ekonometrycznym:
a) zmienne endogeniczne:
- nieopóźnione w czasie -> łącznie współzależne
- opóźnione w czasie -> z góry ustalone
b) zmienne egzogeniczne:
- nieopóźnione w czasie -> z góry ustalone
- opóźnione w czasie -> z góry ustalone

*zmienne objaśniane zawsze są zmiennymi ekonomicznymi (np. popyt, dochód, cena)
*zmienne objaśniające mogą być zarówno ekonomiczne jak i pozaekonomiczne (np. zmienne klimatyczne, techniczne)
*zmienne egzogeniczne jeżeli są nieekonomiczne, to pochodzą spoza systemu, mają charakter zewnętrzny, ale często wpływają na zmienne ekonomiczne
*zmienne egzogeniczne jeżeli są ekonomiczne, to są one losowe i mogą występować jako endogeniczne w modelach opisujących inny fragment rzeczywistości ekonomicznej
*zmienne objaśniane są po lewej stronie równania, są to przyczyny
*zmienne objaśniające są po prawej stronie równania, są to skutki
*powiązania między nieopóźnionymi zmiennymi endogenicznymi, opóźnienia to np. t -1, t-k

Ujęcie stochastyczne modelu – występują zakłócenia losowe
Ujęcie dynamiczne modelu – ujmuje zjawiska w czasie
Ujęcie statyczne modelu – badania przekrojowe - t występuje, jako np. poszczególne przedsiębiorstwa

Parametry strukturalne:
- liniowe: definiują, o ile jednostek zmieni się wielkość zmiennej objaśnianej jeżeli wielkość zmiennej objaśniającej wzrośnie o 1 przy założeniu ceteris paribus
- nieliniowe: definiują o ile procent zmieni się wielkość zmiennej objaśnianej, jeżeli wielkość zmiennej objaśniającej wzrośnie o 1 przy założeniu ceteris paribus

Składniki losowe:

ξt – wyraz wolny musi być wykorzystany/wprowadzony, nie jest bezpośrednio obserwowalny. Przyjmuje postać stochastyczną, szukamy prawidłowości, ale różnicuje czynniki.

Przyczyny występowania składnika losowego:
- niewłaściwa postać analityczna modelu (postać funkcji)
- niemożność uwzględnienia w modelu wszystkich przyczyn (zmiennych) kształtujących badane zjawisko
- błędy wynikające z niedoskonałości pomiaru
- losowość zachowań ludzkich
- efekty pogodowe
- niekompletność teorii, w wyniku których pomija się ważne zmienne ekonomiczne

Etapy konstrukcji modelu ekonometrycznego:
1. Określenie celu badania.
2. Określenie zmiennych objaśnianych: dla kogo przeznaczony jest model oraz do czego będzie służyć?
3. Wybór zmiennych objaśniających: w oparciu o wiedzę z zakresu teorii ekonomii oraz metody statystyczne. Dobierana jest tylko pewna grupa zmiennych objaśniających – nie da się uwzględnić wszystkiego, więc wybieramy najważniejsze.


Yt=α1Xt1+α2Xt2+α3Xt3+ξt

4. Zebranie danych statystycznych.
5. Wybór postaci analitycznej modelu ekonometrycznego:
- Postać analityczna modelu – robiona metodą prób i błędów – również trzeba uwzględnić koniecznie składnik losowy.
- Pomiar zmiennych jest zawsze obarczony błędami.
- Modele z błędami w równaniach modelu.
- Modele z błędami w wartościach zmiennych.
*Zmienne 0-1: odpowiadają występowaniu lub niewystępowaniu badanej cechy.
6. Oszacowanie (estymacja) modelu: Szacowanie parametrów w oparciu o próbę statystyczną z wykorzystaniem odpowiednich metod: Klasyczna Metoda Najmniejszych Kwadratów, Metoda Największej Wiarygodności, Metoda Momentów. W wyniku estymacji uzyskujemy model empiryczny.
7. Weryfikacja modelu (jeżeli model nie przejdzie weryfikacji pozytywnie, to wracamy do punktu nr 3): weryfikacja modelu ekonometrycznego na podstawie testów modelu.
8. Praktyczne wykorzystanie modelu:
- Analiza przeszłości: np. badanie gospodarności przedsiębiorstwa w oparciu o model przychodów i kosztów, analiza przyczyn i wyliczanie wskaźników, sterowanie gospodarcze.
- Prognozowanie przyszłych wartości zmiennej objaśnianej.
- Symulacja (wariantowanie), tzn. badanie możliwych stanów rzeczywistości ekonomicznej opisanej przez dany model. Czyli obliczanie wartości zmiennej objaśnianej przy różnych możliwych wartościach zmiennych objaśniających lub możliwych wartościach parametrów.
9. Raport zawierający interpretację modelu oraz wskazówki wynikające z praktycznego wykorzystania modelu dla celów podejmowania decyzji gospodarczych.

KLASYCZNA METODA NAJMNIEJSZYCH KWADRATÓW – ESTYMACJA MODELU

a) model liniowy:

Y=α1X1+α2X2++αkXk+ξ – hipoteza modelowa (rzeczywistość)

Y – zmienna objaśniana (endogeniczna)
Xk – zmienne objaśniające (egzogeniczne), k = 1,2,…,K
αo
– stała
αk – parametry strukturalne modelu
ξ – składnik losowy
K – liczba zmiennych objaśniających
(K+1) – liczba parametrów strukturalnych

Model liniowy w postaci empirycznej (po zebraniu danych statystycznych) ma postać:
Yi=α1Xi1+α2Xi2++αkXik+ξi – zaistniała rzeczywistość (właściwie jej urywek)


Yt=β1+Xt2++Xtkβk+eξt


lnYt=lnβ1+β2lnXt2++βklnXtk+ξt

okresy/momenty jednostki obserwacji Yt Xt1 Xt2 Xtk ξt
2000 1 Y1 1 X12 X1k ξ1
2001 2 Y2 1 X22 X2k ξ2
2012 n Yn 1 Xn Xnk ξn

Okresy są dynamiczne, jednostki obserwacyjne są wartościami przekrojowymi, Yt – jest wektorem składającym się z n obserwacji , Xt1 , Xt2 ,  Xtk - są macierzą X o wymiarach nxk , αj –parametry strukturalne


E(Xk,ε)=0 ∖ n ∖ n

5. Wartość oczekiwana składnika losowego jest równa zero, tj. E(ε)=0


$$\mathbf{D}^{\mathbf{2}}\left( \mathbf{\varepsilon} \right)\mathbf{= E}\left( \mathbf{\varepsilon}\mathbf{\varepsilon}^{\mathbf{T}} \right)\mathbf{=}\mathbf{\sigma}^{\mathbf{2}}\mathbf{I =}\begin{bmatrix} \begin{matrix} \begin{matrix} \mathbf{\sigma}_{\mathbf{11}}^{\mathbf{2}} & \mathbf{0} \\ \end{matrix} \\ \begin{matrix} \mathbf{0} & \mathbf{\sigma}_{\mathbf{22}}^{\mathbf{2}} \\ \end{matrix} \\ \end{matrix} & \begin{matrix} \mathbf{\cdots} \\ \mathbf{\cdots} \\ \end{matrix} & \begin{matrix} \mathbf{0} \\ \mathbf{0} \\ \end{matrix} \\ \begin{matrix} \mathbf{\vdots} & \mathbf{\vdots} \\ \end{matrix} & \mathbf{\ddots} & \mathbf{\vdots} \\ \begin{matrix} \mathbf{0} & \mathbf{0} \\ \end{matrix} & \mathbf{\cdots} & \mathbf{\sigma}_{\mathbf{\text{NN}}}^{\mathbf{2}} \\ \end{bmatrix}\mathbf{,\ }\mathbf{\text{przy\ czym}}\mathbf{\text{\ dla\ }}\hat{\mathbf{i}}\mathbf{\text{\ \ }}\mathbf{\sigma}_{\mathbf{\text{ii}}}^{\mathbf{2}}\mathbf{\ =}\mathbf{\sigma}^{\mathbf{2}}$$

Szacowanie parametrów strukturalnych modelu KMNK.

Istotą Klasycznej Metody Najmniejszych Kwadratów jest wyznaczenie ocen parametrów strukturalnych modelu ak tak, aby różnice między wartościami zaobserwowanej zmiennej yi były jak najmniejsze, dlatego, aby część teoretyczna modelu empirycznego możliwie dobrze odwzorowała prawdę). Różnice podnosimy do potęgi drugiej.


$$\sum_{\mathbf{i = 1}}^{\mathbf{N}}\mathbf{e}_{\mathbf{i}}^{\mathbf{2}}\mathbf{=}\mathbf{e}^{\mathbf{T}}\mathbf{e \rightarrow min}$$

Interpretacja graficzna:


a=(XTX)1XTy

a) Estymator nazywamy zgodnym, jeśli jest stochastycznie zbieżny do szacowanego parametru:

Oznacza to, że jeśli rośnie liczebność próby, rośnie też prawdopodobieństwo, że oszacowanie przy pomocy estymatora będzie przyjmować wartości coraz bliższe wartości szacowanego parametru. Inaczej: zwiększając liczebność próby, zmniejszamy ryzyko popełnienia błędu większego niż pewna ustalona wielkość.

b) Estymator jest nieobciążony, jeśli wartość oczekiwana rozkładu estymatora jest równa wartości szacowanego parametru:

Jeśli różnica pomiędzy wartością oczekiwaną rozkładu estymatora a wartością szacowanego parametru jest zależna funkcyjnie od estymatora:

to estymator nazywamy obciążonym, zaś samą różnicę nazywamy obciążeniem estymatora.

αj – nieznany parametr
α* – estymator
$\hat{\mathbf{\alpha}}$j – oszacowanie nieznanego parametru

Rozkład symetryczny (Gaussa Laplace’a): wynika z nieobciążoności estymatora, za każdą próbą otrzymujemy szacunki, które tworzą rozkład symetryczny.

Mediana = Dominanta = Średnia = Wielkość oczekiwana (nadzieja matematyczna) estymatora

E(α*)=α

Szacowanie parametrów – równania:


$$\mathbf{S = \ }\sum_{\mathbf{t = 1}}^{\mathbf{n}}{\mathbf{(}\mathbf{Y}_{\mathbf{t}}\mathbf{-}\hat{\mathbf{Y}_{\mathbf{t}}}\mathbf{)}}^{\mathbf{2}}\mathbf{= > min}$$


$$\hat{\mathbf{Y}_{\mathbf{t}}}\mathbf{= \ }\hat{\mathbf{\alpha}_{\mathbf{1}}}\mathbf{+ \ }\hat{\mathbf{\alpha}_{\mathbf{2}}}\mathbf{X}_{\mathbf{t}\mathbf{2}}$$


$$\mathbf{S = \ }{\sum_{}^{}{\mathbf{(}\mathbf{Y}_{\mathbf{t}}\mathbf{-}\hat{\mathbf{\alpha}_{\mathbf{1}}}\mathbf{- \ }\hat{\mathbf{\alpha}_{\mathbf{2}}}\mathbf{X}_{\mathbf{t}\mathbf{2}}}\mathbf{)}}^{\mathbf{2}}\mathbf{= > min}$$


$$\frac{\mathbf{\partial S}}{\mathbf{\partial}\hat{\mathbf{\alpha}_{\mathbf{1}}}}\mathbf{=}\sum_{}^{}{\mathbf{(Y}_{\mathbf{t}}\mathbf{- n -}\mathbf{X}_{\mathbf{t}\mathbf{2}}}\mathbf{) = 0}$$


$$\frac{\mathbf{\partial S}}{\mathbf{\partial}\hat{\mathbf{\alpha}_{\mathbf{2}}}}\mathbf{=}\sum_{}^{}{\mathbf{(Y}_{\mathbf{t}}\mathbf{-}\mathbf{\alpha}_{\mathbf{1}}\mathbf{-}\mathbf{X}_{\mathbf{t}\mathbf{2}}}\mathbf{) = 0}$$


$$\sum_{}^{}{\mathbf{Y}_{\mathbf{t}}\mathbf{- n}\mathbf{\alpha}_{\mathbf{2}}\sum_{}^{}{\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{= 0}}}$$


$$\sum_{}^{}{\mathbf{Y}_{\mathbf{t}}\mathbf{+ n +}\sum_{}^{}\mathbf{X}_{\mathbf{t}\mathbf{2}}}$$


$$\sum_{}^{}{\mathbf{Y}_{\mathbf{t}}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{=}\mathbf{\alpha}_{\mathbf{1}}\mathbf{-}\mathbf{\alpha}_{\mathbf{2}}\sum_{}^{}\mathbf{X}_{\mathbf{t}\mathbf{2}}^{\mathbf{2}}}\mathbf{= 0}$$


$$\sum_{}^{}{\mathbf{Y}_{\mathbf{t}}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{= n +}\sum_{}^{}{\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{*}\mathbf{X}_{\mathbf{t}\mathbf{2}}}}$$


$$\begin{bmatrix} \mathbf{n} & \sum_{}^{}\mathbf{X}_{\mathbf{t}\mathbf{2}} \\ \sum_{}^{}\mathbf{X}_{\mathbf{t}\mathbf{2}} & \sum_{}^{}{\mathbf{X}_{\mathbf{t}\mathbf{2}}}^{\mathbf{2}} \\ \end{bmatrix}^{\mathbf{- 1}}\mathbf{*\ }\begin{bmatrix} \sum_{}^{}\mathbf{Y}_{\mathbf{t}} \\ \sum_{}^{}\mathbf{Y}_{\mathbf{t}}\mathbf{X}_{\mathbf{t}\mathbf{2}} \\ \end{bmatrix}\mathbf{=}\begin{bmatrix} \hat{\mathbf{\alpha}_{\mathbf{1}}} \\ \hat{\mathbf{\alpha}_{\mathbf{2}}} \\ \end{bmatrix}$$


Yt= α1+α2Xt2+α3Xt3+ξt


$$\begin{bmatrix} \mathbf{n} & \sum_{}^{}\mathbf{X}_{\mathbf{t}\mathbf{2}} & \sum_{}^{}\mathbf{X}_{\mathbf{t}\mathbf{3}} \\ \sum_{}^{}\mathbf{X}_{\mathbf{t}\mathbf{2}} & \sum_{}^{}{\mathbf{X}_{\mathbf{t}\mathbf{2}}}^{\mathbf{2}} & \sum_{}^{}{\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{X}_{\mathbf{t}\mathbf{3}}} \\ \sum_{}^{}\mathbf{X}_{\mathbf{t}\mathbf{3}} & \sum_{}^{}{\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{X}_{\mathbf{t}\mathbf{2}}} & \sum_{}^{}\mathbf{X}_{\mathbf{t}\mathbf{3}} \\ \end{bmatrix}^{\mathbf{- 1}}\mathbf{*\ }\begin{bmatrix} \sum_{}^{}\mathbf{Y}_{\mathbf{t}} \\ \sum_{}^{}\mathbf{Y}_{\mathbf{t}}\mathbf{X}_{\mathbf{t}\mathbf{2}} \\ \sum_{}^{}\mathbf{Y}_{\mathbf{t}}\mathbf{X}_{\mathbf{t}\mathbf{3}} \\ \end{bmatrix}\mathbf{=}\begin{bmatrix} \hat{\mathbf{\alpha}_{\mathbf{1}}} \\ \hat{\mathbf{\alpha}_{\mathbf{2}}} \\ \hat{\mathbf{\alpha}_{\mathbf{3}}} \\ \end{bmatrix}$$

Dowód:


$$\mathbf{S =}{\sum_{}^{}{\mathbf{(}{\hat{\mathbf{Y}}}_{\mathbf{t}}\mathbf{-}}{\hat{\mathbf{\alpha}}}_{\mathbf{1}}\mathbf{-}{\hat{\mathbf{\alpha}}}_{\mathbf{2}}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{-}{\hat{\mathbf{\alpha}}}_{\mathbf{3}}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{- \ldots -}{\hat{\mathbf{\alpha}}}_{\mathbf{k}}\mathbf{X}_{\mathbf{\text{tk}}}\mathbf{)}}^{\mathbf{2}}\mathbf{= > \ }\mathbf{Z}_{\mathbf{t}}^{\mathbf{2}}\backslash n$$


$$\frac{\mathbf{\partial S}}{\mathbf{\partial}\mathbf{\alpha}_{\mathbf{1}}}\mathbf{= 2}\sum_{}^{}{\mathbf{(}{\hat{\mathbf{Y}}}_{\mathbf{t}}\mathbf{-}}{\hat{\mathbf{\alpha}}}_{\mathbf{1}}\mathbf{-}{\hat{\mathbf{\alpha}}}_{\mathbf{2}}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{-}{\hat{\mathbf{\alpha}}}_{\mathbf{3}}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{- \ldots -}{\hat{\mathbf{\alpha}}}_{\mathbf{k}}\mathbf{X}_{\mathbf{\text{tk}}}\mathbf{)*( - 1) = 0}$$


$$\frac{\mathbf{\partial S}}{\mathbf{\partial}\mathbf{\alpha}_{\mathbf{2}}}\mathbf{= 2}\sum_{}^{}{\mathbf{(}{\hat{\mathbf{Y}}}_{\mathbf{t}}\mathbf{-}}{\hat{\mathbf{\alpha}}}_{\mathbf{1}}\mathbf{-}{\hat{\mathbf{\alpha}}}_{\mathbf{2}}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{-}{\hat{\mathbf{\alpha}}}_{\mathbf{3}}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{- \ldots -}{\hat{\mathbf{\alpha}}}_{\mathbf{k}}\mathbf{X}_{\mathbf{\text{tk}}}\mathbf{)*( -}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{) = 0}$$


$$\frac{\mathbf{\partial S}}{\mathbf{\partial}\mathbf{\alpha}_{\mathbf{3}}}\mathbf{= 2}\sum_{}^{}{\mathbf{(}{\hat{\mathbf{Y}}}_{\mathbf{t}}\mathbf{-}}{\hat{\mathbf{\alpha}}}_{\mathbf{1}}\mathbf{-}{\hat{\mathbf{\alpha}}}_{\mathbf{2}}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{-}{\hat{\mathbf{\alpha}}}_{\mathbf{3}}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{- \ldots -}{\hat{\mathbf{\alpha}}}_{\mathbf{k}}\mathbf{X}_{\mathbf{\text{tk}}}\mathbf{)*( -}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{) = 0}$$


$$\frac{\mathbf{\partial S}}{\mathbf{\partial}\mathbf{\alpha}_{\mathbf{k}}}\mathbf{= 2}\sum_{}^{}{\mathbf{(}{\hat{\mathbf{Y}}}_{\mathbf{t}}\mathbf{-}}{\hat{\mathbf{\alpha}}}_{\mathbf{1}}\mathbf{-}{\hat{\mathbf{\alpha}}}_{\mathbf{2}}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{-}{\hat{\mathbf{\alpha}}}_{\mathbf{3}}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{- \ldots -}{\hat{\mathbf{\alpha}}}_{\mathbf{k}}\mathbf{X}_{\mathbf{\text{tk}}}\mathbf{)*( -}\mathbf{X}_{\mathbf{\text{tk}}}\mathbf{) = 0}\backslash n$$


$$\sum_{}^{}{\mathbf{(}{\mathbf{-}\hat{\mathbf{Y}}}_{\mathbf{t}}\mathbf{+}}{\hat{\mathbf{\alpha}}}_{\mathbf{1}}\mathbf{+}{\hat{\mathbf{\alpha}}}_{\mathbf{2}}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{+}{\hat{\mathbf{\alpha}}}_{\mathbf{3}}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{+ \ldots +}{\hat{\mathbf{\alpha}}}_{\mathbf{k}}\mathbf{X}_{\mathbf{\text{tk}}}\mathbf{) = 0}$$


$$\sum_{}^{}{\mathbf{( -}{\hat{\mathbf{Y}}}_{\mathbf{t}}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{+}}{\hat{\mathbf{\alpha}}}_{\mathbf{1}}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{+}{\hat{\mathbf{\alpha}}}_{\mathbf{2}}\mathbf{X}_{\mathbf{t}\mathbf{2}}^{\mathbf{2}}\mathbf{+}{\hat{\mathbf{\alpha}}}_{\mathbf{3}}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{+ \ldots +}{\hat{\mathbf{\alpha}}}_{\mathbf{k}}{\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{X}}_{\mathbf{\text{tk}}}\mathbf{) = 0}$$


$$\sum_{}^{}{\mathbf{(}{\mathbf{-}\hat{\mathbf{Y}}}_{\mathbf{t}}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{+}}{\hat{\mathbf{\alpha}}}_{\mathbf{1}}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{+}{\hat{\mathbf{\alpha}}}_{\mathbf{2}}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{+}{\hat{\mathbf{\alpha}}}_{\mathbf{3}}\mathbf{X}_{\mathbf{t}\mathbf{3}}^{\mathbf{2}}\mathbf{+ \ldots +}{\hat{\mathbf{\alpha}}}_{\mathbf{k}}{\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{X}}_{\mathbf{\text{tk}}}\mathbf{) = 0}$$


$$\sum_{}^{}{\mathbf{(}{\mathbf{-}\hat{\mathbf{Y}}}_{\mathbf{t}}\mathbf{X}_{\mathbf{\text{tk}}}\mathbf{+}}{\hat{\mathbf{\alpha}}}_{\mathbf{1}}\mathbf{X}_{\mathbf{\text{tk}}}\mathbf{+}{\hat{\mathbf{\alpha}}}_{\mathbf{2}}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{X}_{\mathbf{\text{tk}}}\mathbf{+}{\hat{\mathbf{\alpha}}}_{\mathbf{3}}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{X}_{\mathbf{\text{tk}}}\mathbf{+ \ldots +}{\hat{\mathbf{\alpha}}}_{\mathbf{k}}\mathbf{X}_{\mathbf{\text{tk}}}^{\mathbf{2}}\mathbf{) = 0}\backslash n$$


$$\mathbf{n}{\hat{\mathbf{\alpha}}}_{\mathbf{1}}\mathbf{+}{\hat{\mathbf{\alpha}}}_{\mathbf{2}}\mathbf{\sum}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{+}{\hat{\mathbf{\alpha}}}_{\mathbf{3}}\mathbf{\sum}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{+ \ldots +}{\hat{\mathbf{\alpha}}}_{\mathbf{k}}\mathbf{\sum}\mathbf{X}_{\mathbf{\text{tk}}}\mathbf{) = \sum}{\hat{\mathbf{Y}}}_{\mathbf{t}}$$

${\hat{\mathbf{\alpha}}}_{\mathbf{1}}\mathbf{\sum}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{+}{\hat{\mathbf{\alpha}}}_{\mathbf{2}}\mathbf{\sum}\mathbf{X}_{\mathbf{t}\mathbf{2}}^{\mathbf{2}}\mathbf{+}{\hat{\mathbf{\alpha}}}_{\mathbf{3}}\mathbf{\sum}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{+ \ldots +}{\hat{\mathbf{\alpha}}}_{\mathbf{k}}\mathbf{\sum}{\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{X}}_{\mathbf{\text{tk}}}\mathbf{) = \sum}{\hat{\mathbf{Y}}}_{\mathbf{t}}\mathbf{X}_{\mathbf{t}\mathbf{2}}$


$${\hat{\mathbf{\alpha}}}_{\mathbf{1}}\mathbf{\sum}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{+}{\hat{\mathbf{\alpha}}}_{\mathbf{2}}\mathbf{\sum X}_{\mathbf{t}\mathbf{2}}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{+}{\hat{\mathbf{\alpha}}}_{\mathbf{3}}\mathbf{\sum}\mathbf{X}_{\mathbf{t}\mathbf{3}}^{\mathbf{2}}\mathbf{+ \ldots +}{\hat{\mathbf{\alpha}}}_{\mathbf{k}}{\mathbf{\sum X}_{\mathbf{t}\mathbf{3}}\mathbf{X}}_{\mathbf{\text{tk}}}\mathbf{) = \sum}{\hat{\mathbf{Y}}}_{\mathbf{t}}\mathbf{X}_{\mathbf{t}\mathbf{3}}$$


$${\hat{\mathbf{\alpha}}}_{\mathbf{1}}\mathbf{\sum}\mathbf{X}_{\mathbf{\text{tk}}}\mathbf{+}{\hat{\mathbf{\alpha}}}_{\mathbf{2}}\mathbf{\sum X}_{\mathbf{t2}}\mathbf{X}_{\mathbf{\text{tk}}}\mathbf{+}{\hat{\mathbf{\alpha}}}_{\mathbf{3}}\mathbf{\sum X}_{\mathbf{t}\mathbf{3}}\mathbf{X}_{\mathbf{\text{tk}}}\mathbf{+ \ldots +}{\hat{\mathbf{\alpha}}}_{\mathbf{k}}\mathbf{\sum X}_{\mathbf{\text{tk}}}^{\mathbf{2}}\mathbf{) = \sum}{\hat{\mathbf{Y}}}_{\mathbf{t}}\mathbf{X}_{\mathbf{\text{tk}}}\backslash n$$


$$\hat{\mathbf{\alpha}}\mathbf{=}{\mathbf{(}\mathbf{X}^{\mathbf{T}}\mathbf{X)}}^{\mathbf{- 1}}\mathbf{*}\mathbf{X}^{\mathbf{T}}\mathbf{y}$$

WERYFIKACJA MODELU EKONOMETRYCZNEGO

Weryfikacja modelu ekonometrycznego umożliwia sprawdzenie zgodności otrzymanych wyników z teorią ekonomii. Mówi o tym, które zmienne objaśniające rzeczywiście miały największy wpływ na zmienną objaśnianą oraz które procesy są zgodne lub niezgodne z teorią oraz założeniami. Weryfikacja również służy do badania istotności parametrów, postaci funkcyjnej modelu oraz właściwości składnika losowego za pomocą testów statystycznych.

Weryfikacja może przebiegać wg następujących etapów:
1. Badanie istotności parametrów strukturalnych αi :
a) Test T-studenta
b) Test Fishera

2. Badanie dopasowania modelu do danych empirycznych:
a) Współczynnik determinacji i współczynnik zbieżności
b) Współczynnik zbieżności losowej

3. Weryfikacja własności struktury stochastycznej:
a) Losowość składnika losowego (Test serii)
b) Normalność rozkładu składnika losowego (Test Bery-Jarque’a)
c) Autokorelacja składnika losowego (Test Durbina-Watsona, test h-Durbina, test współczynników autokorelacji cząstkowej PACF, test mnożnika Lagrange’a oraz test Ljunga-Boxa)
d) Jednorodność wariancji składnika losowego (test Fishera-Snedecora, test White’a)

4. Inne użyteczne testy:
a) Badanie liniowości postaci funkcji (test RESET)
b) Porównywanie alternatywnych niezagnieżdżonych specyfikacji modelu (Test J)
c) Stabilność parametrów modelu - występowanie załamania strukturalnego (test Chowa)

Wszystkie testy i współczynniki poza testami na autokorelację składnika losowego oraz testem na stabilność parametrów modelu można stosować zarówno dla modeli budowanych dla danych przekrojowych jak i dla szeregów czasowych. Badanie autokorelacji oraz stabilności parametrów jest zasadne tylko w przypadku danych w postaci szeregu czasowego oraz danych panelowych.

Syntetyczne miary dopasowania:

1. Współczynnik determinacji: określa zmienność zmiennej objaśnianej (która kształtuje się w R2) pod wpływem zmienności zmiennych objaśniających w modelu. Informuje, jaka część zmiennej objaśnianej została wyjaśniona przez model. Przyjmuje wartości (0;1). Dopasowanie jest tym lepsze im wartość R2 jest bliższa jedności (im większy od 0 tym lepiej)


$$\mathbf{R}^{\mathbf{2}}\mathbf{=}\frac{\sum_{\mathbf{t = 1}}^{\mathbf{T}}{\mathbf{(}\hat{\mathbf{y}_{\mathbf{i}}}\mathbf{-}\overset{\overline{}}{\mathbf{y}}\mathbf{)}}^{\mathbf{2}}}{\sum_{\mathbf{t = 1}}^{\mathbf{T}}{\mathbf{(}\mathbf{y}_{\mathbf{i}}\mathbf{-}\overset{\overline{}}{\mathbf{y}}\mathbf{)}}^{\mathbf{2}}}$$

2. Współczynnik indeterminacji: określa zmienność zmiennej objaśnianej (która kształtuje się w φ2pod wpływem zmienności zmiennych objaśniających nieujętych w modelu. Informuje, jaka część zmiennej objaśnianej nie została wyjaśniona przez model. Również przyjmuje wartości (0;1), które są przeważnie wyrażone w procentach. Dopasowanie jest tym lepsze im wartość φ2 jest bliższa zeru (im mniejszy od 1 tym lepiej).


$$\mathbf{\varphi}^{\mathbf{2}}\mathbf{=}\frac{\sum_{\mathbf{t = 1}}^{\mathbf{T}}{\mathbf{(}\mathbf{y}_{\mathbf{i}}\mathbf{-}\hat{\mathbf{y}_{\mathbf{i}}}\mathbf{)}}^{\mathbf{2}}}{\sum_{\mathbf{t = 1}}^{\mathbf{T}}{\mathbf{(}\mathbf{y}_{\mathbf{i}}\mathbf{-}\overset{\overline{}}{\mathbf{y}}\mathbf{)}}^{\mathbf{2}}}$$

Współczynnik determinacji i współczynnik indeterminacji dopełniają się do jedności:


R2+φ2=1

3. Skorygowany współczynnik determinacji: zmienność zmiennej objaśnianej określa się w $\overset{\overline{}}{\mathbf{R}^{\mathbf{2}}}$ pod wpływem zmienności zmiennych objaśniających modelu, po uwzględnieniu liczby stopni swobody. Może przyjmować wartości ujemne oraz mniejsze lub równe współczynnikowi determinacji. Stosowany jest do porównań modeli o różnej liczbie zmiennych objaśniających.


$$\overset{\overline{}}{\mathbf{R}^{\mathbf{2}}}\mathbf{=}\mathbf{R}^{\mathbf{2}}\mathbf{-}\frac{\mathbf{K}}{\mathbf{T - K - 1}}\mathbf{*(1 -}\mathbf{R}^{\mathbf{2}}\mathbf{)}$$

4. Skorygowany współczynnik determinacji: zmienność zmiennej objaśnianej określa się w $\overset{\overline{}}{\mathbf{\varphi}^{\mathbf{2}}}$ pod wpływem zmienności zmiennych objaśniających nieujętych w modelu, po uwzględnieniu liczby stopni swobody.

$\overset{\overline{}}{\mathbf{\varphi}^{\mathbf{2}}}\mathbf{=}\frac{\mathbf{T - 1}}{\mathbf{T - K - 1}}\mathbf{*}\mathbf{\varphi}^{\mathbf{2}}$**

5. Wariancja resztowa:


$$\mathbf{\sigma}_{\mathbf{\xi}}^{\mathbf{2}}\mathbf{=}\frac{\sum_{\mathbf{t = 1}}^{\mathbf{T}}{\mathbf{(}\mathbf{Y}_{\mathbf{t}}\mathbf{-}\hat{\mathbf{Y}_{\mathbf{t}}}\mathbf{)}}^{\mathbf{2}}}{\mathbf{T - K - 1}}\mathbf{=}\frac{\sum_{\mathbf{t = 1}}^{\mathbf{T}}\hat{\mathbf{\xi}_{\mathbf{t}}^{\mathbf{2}}}}{\mathbf{T - K - 1}}$$

6. Odchylenie standardowe reszt (średni błąd resztowy): pokazuje, o ile przeciętna wartość zmiennej objaśnianej różni się od wartości teoretycznej średnio o ±σξ


$$\mathbf{\sigma}_{\mathbf{\xi}}\mathbf{=}\sqrt{\mathbf{\sigma}_{\mathbf{\xi}}^{\mathbf{2}}}\mathbf{= \ }\sqrt{\frac{\sum_{\mathbf{t = 1}}^{\mathbf{T}}{\mathbf{(}\mathbf{Y}_{\mathbf{t}}\mathbf{-}\hat{\mathbf{Y}_{\mathbf{t}}}\mathbf{)}}^{\mathbf{2}}}{\mathbf{T - K - 1}}}\mathbf{=}\sqrt{\frac{\sum_{\mathbf{t = 1}}^{\mathbf{T}}\hat{\mathbf{\xi}_{\mathbf{t}}^{\mathbf{2}}}}{\mathbf{T - K - 1}}}$$

7. Współczynnik zmienności losowej: określa udział średniego błędu resztowego w średniej wartości zmiennej objaśnianej (ile wynosi V). Błąd nie powinien być wyższy niż 10%.


$$\mathbf{V =}\frac{\mathbf{\sigma}_{\mathbf{\xi}}}{\overset{\overline{}}{\mathbf{y}}}\mathbf{*100\%}$$

Istotność parametrów strukturalnych

Model jest dany wzorem:


$$\hat{\mathbf{y}_{\mathbf{i}}}\mathbf{=}\mathbf{a}_{\mathbf{0}}\mathbf{+}\mathbf{a}_{\mathbf{1}}\mathbf{X}_{\mathbf{1}\mathbf{i}}\mathbf{+}\mathbf{a}_{\mathbf{2}}\mathbf{X}_{\mathbf{2}\mathbf{i}}\mathbf{+ \ldots +}\mathbf{a}_{\mathbf{k}}\mathbf{X}_{\mathbf{\text{ki}}}$$

S(a0)  S(a1)     S(a2)               S(ak)   , gdzie:
Yi – obserwacje na zmiennej objaśnianej Y, i=1,2,…,N
Xki – obserwacje na zmiennej objaśniającej Xk , k = 1,2,…,K
αo
– ocena wyrazu wolnego
αk – oceny parametrów strukturalnych modelu
N – ilość obserwacji
K – ilość zmiennych objaśniających

W pierwszym etapie weryfikacji badamy istotność parametrów strukturalnych w celu sprawdzenia, które ze zmiennych objaśniających ISTOTNIE wpływają na opisywany proces. Najlepiej by było, jakby każda zmienna objaśniająca istotnie wpływała na zmienną objaśnianą.
- Nie bada się istotności wyrazu wolnego, gdyż bez względu na jego wpływ na zmienną objaśnianą, nie usuwa się go z modelu.

a) Badanie indywidualnej istotności parametrów strukturalnych za pomocą testu T-Studenta
- Pierwszym krokiem jest weryfikacja dwóch hipotez o postaci:

H0:αk=0 – Hipoteza zerowa: parametr αk nieistotnie różni się od zera, czyli zmienna objaśniająca Xk statycznie nieistotnie wpływa na zmienną objaśnianą Y (wszystkie parametry strukturalne muszą równać się zero)

 HA:αk0 – Hipoteza alternatywna: parametr αk istotnie różni się od zera, czyli zmienna objaśniająca Xk statycznie istotnie wpływa na zmienną objaśnianą Y (przynajmniej jeden parametr musi być różny od zera)
αk – jest to parametr stojący przy badanej zmiennej Xk

- Drugim krokiem jest wyznaczenie statystyki testowej przy założeniu prawdziwości hipotezy zerowej.
Statystyka t-studenta dana jest wzorem:


$$\mathbf{t}_{\mathbf{\alpha}_{\mathbf{k}}}\mathbf{=}\frac{\mathbf{\alpha}_{\mathbf{k}}}{\mathbf{S(}\mathbf{\alpha}_{\mathbf{k}}\mathbf{)}}$$

αk – ocena parametru α, S(αk) – średni błąd resztowy parametru αk

- Kolejnym krokiem jest odczytanie wartości krytycznej z tablic rozkładu przy ustalonym poziomie istotności α oraz
(N-K-1) liczbie stopni swobody.

- Ostatnim krokiem jest podjęcie decyzji na podstawie rozpatrzenia warunków.
Parametr α wyraża poziom istotności, który w zależności od badania standardowo przyjmuje wartości α=0,01 , α=0,05, α=0,1. Parametr α określa wielkość prawdopodobieństwa, z jakim statystyka t znajduje się w obszarze krytycznym, co dane jest wzorem:

P{|tαk|tα,NK1}=α (statystyka większa lub równa od wartości krytycznej)

Jeżeli powyższy warunek jest spełniony to odrzucamy hipotezę zerową na rzecz alternatywnej. Oznacza to, że parametr αk istotnie różnie się od zera, czyli zmienna objaśniająca Xk istotnie wpływa na zmienną objaśnianą Y.
Natomiast wielkość 1 – α określa prawdopodobieństwo tego, że statystyka t znajdzie się w przedziale ufności, co wyraża się wzorem:

P{|tαk|<tα,NK1}=α (statystyka mniejsza od wartości krytycznej)
Wtedy hipotezę zerową uznajemy, jako prawdziwą, więc oznacza to, że parametr αk nieistotnie różnie się od zera, czyli zmienna objaśniająca Xk nieistotnie wpływa na zmienną objaśnianą Y.
* Wykres rozkładu prawdopodobieństwa statystyki t-Studenta: wykres ten ma dwustronny obszar krytyczny, jest hipotetycznym rozkładem tej statystyki.

b) Badanie łącznej istotności parametrów strukturalnych za pomocą testu Fishera
- Pierwszym krokiem jest weryfikacja dwóch hipotez o postaci:

H0:α1=0α2=0α3=0 – Hipoteza zerowa: parametry strukturalne nieistotnie różnią się od zera, czyli zmienne objaśniające Xk statycznie nieistotnie wpływają na zmienną objaśnianą Y (wszystkie parametry strukturalne muszą równać się zero)

HA:α10 α20α30 – Hipoteza alternatywna: co najmniej jeden parametr strukturalny istotnie różni się od zera, czyli co najmniej zmienna objaśniająca Xk istotnie wpływa na zmienną objaśnianą Y (przynajmniej jeden parametr musi być różny od zera)

- Drugim krokiem jest wyznaczenie statystyki testowej F, która dana jest wzorem:


$$\mathbf{F =}\frac{\mathbf{R}^{\mathbf{2}}}{\mathbf{\varphi}^{\mathbf{2}}}\mathbf{*}\frac{\mathbf{N - K - 1}}{\mathbf{K}}\mathbf{=}\frac{\mathbf{R}^{\mathbf{2}}}{\mathbf{1 -}\mathbf{R}^{\mathbf{2}}}\mathbf{*}\frac{\mathbf{N - K - 1}}{\mathbf{K}}$$

- Kolejnym krokiem jest odczytanie z tablic rozkładu wartości krytycznej testu Fα,r1,r2 przy poziomie istotności α oraz poziomach swobody: r1=K,    r2=NK1

- Ostatnim etapem jest podjęcie decyzji.
Jeżeli wartość statystyki F jest większa bądź równa od wartości krytycznej to odrzucamy hipotezę zerową na rzecz hipotezy alternatywnej. Oznacza to, że co najmniej jeden parametr α istotnie różni się od zera, więc co najmniej jedna zmienna objaśniająca istotnie wpływa na zmienną objaśnianą.


FFα,r1,r2=>  HA

Natomiast, jeżeli wartość statystyki F jest mniejsza od wartości krytycznej to przyjmujemy hipotezę zerową, jako prawdziwą. Oznacza to, że parametry α nieistotnie różnią się od zera, więc wszystkie zmienne objaśniające nieistotnie wpływają na zmienną objaśnianą.


F<Fα,r1,r2=>  H0

*Zmienne objaśniające, które w nieistotny sposób wpływają na zmienną objaśnianą należy usunąć z modelu i oszacować model ponownie. Czynność należy powtarzać aż do uzyskania modelu, w którym wszystkie zmienne objaśniające istotnie wpływają na zmienną objaśniającą.

<- wykres testu Fishera

Badanie dopasowania modelu do danych empirycznych

Dopasowanie oszacowanego modelu do danych empirycznych mierzy się za pomocą następujących wielkości:
współczynnika determinacji, współczynnika indeterminacji oraz współczynnika zmienności losowej, których wzory i interpretacje zostały opisane wcześniej.
Dwa pierwsze współczynniki obliczane są z tzw. równości wariacyjnej, która wyraża całkowitą zmienność zmiennej objaśnianej, która dzieli się na zmienność wynikającą z oszacowanego modelu ekonometrycznego oraz zmienność resztową. Równość wariacyjna dana jest wzorem:

$\mathbf{S}^{\mathbf{2}}\left( \mathbf{y}_{\mathbf{i}} \right)\mathbf{=}\mathbf{S}^{\mathbf{2}}\left( {\hat{\mathbf{y}}}_{\mathbf{i}} \right)\mathbf{+}\mathbf{S}^{\mathbf{2}}\mathbf{(}\mathbf{e}_{\mathbf{i}}\mathbf{)}$ – TO NIE JEST WARIANCJA RESZTOWA!!!!!!!

S2(yi) – estymator wariancji zmiennej objaśnianej
$\mathbf{S}^{\mathbf{2}}\left( {\hat{\mathbf{y}}}_{\mathbf{i}} \right)$ – estymator wariancji wartości teoretycznych zmiennej objaśnianej
S2(ei) – estymator wariancji resztowej modelu

Weryfikacja własności struktury stochastycznej (własności reszt modelu)

Kolejnym etapem weryfikacji oszacowanego modelu jest badanie wybranych własności rozkładu reszt.

a) Badanie losowego charakteru reszt.
Weryfikacja losowości reszt modelu przebiega w oparciu o TEST SERII.
- Zaczynamy od zbadania hipotez:
$\mathbf{H}_{\mathbf{0}}\mathbf{:}\hat{\mathbf{y}}\mathbf{= X}\hat{\mathbf{\alpha}}$ – Hipoteza zerowa: reszty modelu ei mają charakter losowy (postać modelu jest liniowa)

$\mathbf{H}_{\mathbf{A}}\mathbf{:}\hat{\mathbf{y}}\mathbf{\neq X}\hat{\mathbf{\alpha}}$ – Hipoteza alternatywna: reszty modelu ei nie mają charakteru losowego (postać modelu nie jest liniowa)
*Reszty modelu określa się jako różnice między wartościami obserwowanymi a wartościami oszacowanymi zmiennej objaśnianej, a składnik losowy stanowi reszty ei:


$$\mathbf{e}_{\mathbf{i}}\mathbf{=}\mathbf{y}_{\mathbf{i}}\mathbf{-}\hat{\mathbf{y}_{\mathbf{i}}}$$

- Następnie tworzymy ciąg reszt o postaci: e1,e2,,eN
*Reszty o wartościach dodatnich oznacza się symbolem A: ei>0A, reszty o wartościach ujemnych oznacza się symbolem B: ei<0B, a reszty równe zero są pomijane.
*Korzystając z tych oznaczeń właśnie tworzymy ciąg serii będący podstawą weryfikacji hipotez, w którym wyróżnia się:
k – liczba serii (seria jest to podciąg jednakowych symboli)
nA – liczba symboli A
nB – liczba symboli B
Na przykład mamy dany ciąg: AABABAAAB, to mamy zatem k=6, nA=6, nB=3

- Wyznaczoną wartość K porównuje się z wartościami krytycznymi z tablic rozkładu testu serii (test dwustronny) - $\mathbf{k}_{\frac{\mathbf{\alpha}}{\mathbf{2}}}\mathbf{,}\mathbf{k}_{\mathbf{1 -}\frac{\mathbf{\alpha}}{\mathbf{2}}}$ dla poziomu istotności α=0,05, wartości krytyczne wynoszą odpowiednio:


$$\mathbf{k}_{\frac{\mathbf{\alpha}}{\mathbf{2}}}\mathbf{=}\mathbf{k}_{\mathbf{0,025}}\mathbf{,}\mathbf{\text{\ \ k}}_{\mathbf{1 -}\frac{\mathbf{\alpha}}{\mathbf{2}}}\mathbf{=}\mathbf{k}_{\mathbf{0,0975}}$$

- Ostatnim etapem jest decyzja.
Jeżeli wartość k znajdzie się w przedziale $\mathbf{k}_{\frac{\mathbf{\alpha}}{\mathbf{2}}}\mathbf{\leq k \leq}\mathbf{k}_{\mathbf{1 -}\frac{\mathbf{\alpha}}{\mathbf{2}}}$ wówczas nie ma podstaw do odrzucenia hipotezy zerowej. Stwierdza się wtedy, że reszty modelu mają charakter losowy, więc model ma postać liniową.

Jeżeli wartość k znajdzie się w przedziałach $\mathbf{k <}\mathbf{k}_{\frac{\mathbf{\alpha}}{\mathbf{2}}}$ lub $\mathbf{k >}\mathbf{k}_{\mathbf{1 -}\frac{\mathbf{\alpha}}{\mathbf{2}}}$ to odrzuca się hipotezę zerową na rzecz alternatywnej. Stwierdza się wtedy, że reszty nie mają charakteru losowego, a model nie ma postaci liniowej. Wówczas należy wybrać inną postać analityczną i oszacować model ponownie.

b) Badanie normalności rozkładu składnika losowego.

Wykorzystuje się statystykę Bery i Jarque’a. Badanie polega na porównaniu rozkładu składnika losowego z próby z postulowanym, teoretycznym rozkładem normalnym. Ten test należy stosować w przypadku mniejszej wartości próby. Dla wartości próby >50 zaleca się test zgodności chi-kwadrat.
- Zaczynamy od weryfikacji hipotez:

H0:ξt ∼ N(0;σξ2) – Hipoteza zerowa: rozkład składnika losowego jest rozkładem normalnym

HA:ξt ∼ N(0;σξ2) – Hipoteza alternatywna: rozkład składnika losowego nie jest rozkładem normalnym
Gdzie 0 jest wartością oczekiwaną.
- Rozkład statystyki Bery-Jarque’a (JB) jest zbieżny do rozkładu chi-kwadrat o 2 stopniach swobody χα2(2):

$\mathbf{JB = T}\left( \frac{\mathbf{1}}{\mathbf{6}}\mathbf{c}_{\mathbf{1}}\mathbf{+}\frac{\mathbf{1}}{\mathbf{24}}{\mathbf{(}\mathbf{c}_{\mathbf{2}}\mathbf{- 3)}}^{\mathbf{2}} \right)$ gdzie występują zależności:

$\mathbf{c}_{\mathbf{1}}\mathbf{=}\frac{\mathbf{m}_{\mathbf{3}}}{{\mathbf{(}\sqrt{\mathbf{m}_{\mathbf{2}}}\mathbf{)}}^{\mathbf{3}}}$ - współczynnik skośności (im dalej od 0 tym rozkład nie jest normalny)

$\mathbf{c}_{\mathbf{2}}\mathbf{=}\frac{\mathbf{m}_{\mathbf{4}}}{\mathbf{m}_{\mathbf{2}}^{\mathbf{2}}}$ - współczynnik kurtozy (im bliżej 3 tym lepiej)

$\mathbf{m}_{\mathbf{1}}\mathbf{=}\frac{\sum_{\mathbf{t = 1}}^{\mathbf{T}}{\hat{\mathbf{\xi}}}_{\mathbf{t}}^{\mathbf{i}}}{\mathbf{T}}$ - próbkowy moment centralny reszt z oszacowania MNK (i=1,2,3,4)

Przy czym wartość chi-kwadrat dla poziomu istotności α = 0, 05 oraz 2 stopniach swobody wynosi 5,99:


χα=0,052(2)=5,99

- Decyzja.
Jeżeli rozkład JB jest mniejszy od rozkładu chi-kwadrat o 2 stopniach swobody to przyjmujemy hipotezę zerową, jako prawdziwą. Rozkład składnika losowego jest rozkładem normalnym: JB<χα2(2).

Jeżeli rozkład JB jest większy lub równy niż rozkład chi-kwadrat to rezygnujemy z hipotezy zerowej na rzecz hipotezy alternatywnej. Rozkład składnika losowego nie jest rozkładem normalnym (niezgodność): JBχα2(2).

- Wykres testu:

c) Badanie autokorelacji składnika losowego I rzędu.

Autokorelacja jest to zależność wartości bieżących obserwowanych w czasie t od wartości wcześniejszych obserwowanych w czasie t – 1 (autokorelacja I rzędu). Występowania autokorelacji nie bada się w przypadku danych przekrojowych. Jednym z warunków stosowania klasycznej MNK jest założenie o diagonalnej macierzy wariancji-kowariancji składnika losowego postaci:


$$\mathbf{D}^{\mathbf{2}}\left( \mathbf{\varepsilon} \right)\mathbf{= E}\left( \mathbf{\varepsilon}\mathbf{\varepsilon}^{\mathbf{T}} \right)\mathbf{=}\mathbf{\sigma}^{\mathbf{2}}\mathbf{I =}\begin{bmatrix} \begin{matrix} \begin{matrix} \mathbf{\sigma}_{\mathbf{11}}^{\mathbf{2}} & \mathbf{0} \\ \end{matrix} \\ \begin{matrix} \mathbf{0} & \mathbf{\sigma}_{\mathbf{22}}^{\mathbf{2}} \\ \end{matrix} \\ \end{matrix} & \begin{matrix} \mathbf{\cdots} \\ \mathbf{\cdots} \\ \end{matrix} & \begin{matrix} \mathbf{0} \\ \mathbf{0} \\ \end{matrix} \\ \begin{matrix} \mathbf{\vdots} & \mathbf{\vdots} \\ \end{matrix} & \mathbf{\ddots} & \mathbf{\vdots} \\ \begin{matrix} \mathbf{0} & \mathbf{0} \\ \end{matrix} & \mathbf{\cdots} & \mathbf{\sigma}_{\mathbf{\text{NN}}}^{\mathbf{2}} \\ \end{bmatrix}\mathbf{,\ }\mathbf{\text{przy\ czym}}\mathbf{\text{\ dla\ }}\hat{\mathbf{i}}\mathbf{\text{\ \ }}\mathbf{\sigma}_{\mathbf{\text{ii}}}^{\mathbf{2}}\mathbf{\ =}\mathbf{\sigma}^{\mathbf{2}}$$

Macierz wariancji-kowariancji jest macierzą diagonalną, tzn. wyrazy na głównej przekątnej macierzy są wartościami różnymi od 0. Założenie o braku autokorelacji odnosi się do elementów poza główną przekątną tej macierzy, które stanowią kowariancje składnika losowego. Jeżeli kowariancje są równe 0 to jest brak autokorelacji składnika losowego.


cov(εi,εj)=0   ij

Natomiast, jeżeli warunek nie jest spełniony, występuje autokorelacja składnika losowego, a estymator KMNK nie spełnia warunku efektywności. Jeżeli składnik losowy ηt zawiera autokorelację I rzędu to zależność zapisujemy tak:

ηt=ρ1ηt1+εt (wzór na składnik losowy zawierający autokorelację)

εt – składnik losowy niezawierający autokorelacji, ρ1 – współczynnik autokorelacji I rzędu

TEST DURBINA-WATSONA:

- Zapisujemy hipotezy badania autokorelacji:

H0:ρ1=0 – Hipoteza zerowa: brak autokorelacji I rzędu składnika losowego

HA:ρ10 – Hipoteza alternatywna: występuje autokorelacja I rzędu składnika losowego

ρ1>0 – autokorelacja dodatnia I rzędu lub ρ1<0 – autokorelacja ujemna I rzędu

- Obliczamy statystykę DW, która dana jest wzorem:


$$\mathbf{DW =}\frac{\sum_{\mathbf{t = 2}}^{\mathbf{T}}\left( \mathbf{e}_{\mathbf{t}}\mathbf{-}\mathbf{e}_{\mathbf{t - 1}} \right)^{\mathbf{2}}}{\sum_{\mathbf{t = 1}}^{\mathbf{T}}{\mathbf{e}_{\mathbf{t}}}^{\mathbf{2}}}$$

et – reszty modelu z okresu t

et1 – reszty modelu z okresu t-1

- Decyzja:
1. Wartość statystyki DW zawiera się w zbiorze <0;4>. Jeżeli wartość statystyki DW mieści się w przedziale <0; 2> to możliwe jest występowanie autokorelacji dodatniej i hipoteza alternatywna ma postać: HA:ρ1>0 – występuje autokorelacja dodatnia I rzędu składnika losowego.

2. Jeżeli wartość statystyki DW zawiera się w zbiorze (2; 4>, to możliwie się występowanie autokorelacji ujemnej i hipoteza alternatywna ma postać: HA:ρ1<0 – występuje autokorelacja ujemna I rzędu składnika losowego.

3. Jeżeli wartość statystyki DW jest równe 2 to nie występuje autokorelacja I rzędu składnika losowego.

- Statystykę Dw porównuje się z wartościami krytycznymi z tablic rozkładu D-W dL i dU przy poziomie istotności α, przy liczbie obserwacji T oraz przy liczbie zmiennych objaśniających K.
Tablice są przeznaczone dla autokorelacji dodatniej, więc dla autokorelacji ujemnej należy obliczyć wartość:
DW*=4DW.

1. Jeżeli DW,DW*>dU – nie ma podstaw do odrzucenia hipotezy zerowej (brak autokorelacji)
2. Jeżeli dL<DW,DW*dU – występuje obszar niekonkluzywności, test nie daje odpowiedzi, należy zatem użyć alternatywnych testów (PACF, mnożnika Lagrange’a, Ljunga-Boxa)
3. Jeżeli DW,DW*<dL – przyjmujemy hipotezę alternatywną (występuje autokorelacja)

Występowanie autokorelacji świadczy o błędzie specyfikacji modelu i jest zjawiskiem niepożądanym. Przyczyną występowania autokorelacji dodatniej jest uwzględnienie zbyt małej liczby zmiennych objaśniających w modelu, a przyczyną autokorelacji ujemnej jest uwzględnienie zbyt dużej liczby zmiennych objaśniających. Autokorelację może powodować błędna postać analityczna modelu lub niewłaściwa transformacja zmiennych objaśniających (błędne logarytmowanie). Występowanie autokorelacji oznacza niespełnienie wszystkich założeń KMNK, należy wówczas wybrać alternatywną metodę do szacowania parametrów – Uogólnioną Metodę Najmniejszych Kwadratów.

TEST h-DURBINA:

Badamy autokorelację I rzędu składnika losowego w przypadku opóźnionych zmiennych endogenicznych.

- Najpierw badamy hipotezy (hipotezy są takie same jak w teście D-W)
- Obliczamy statystykę h-Durbina, która dana jest wzorem:


$$\mathbf{h =}\mathbf{\rho}_{\mathbf{1}}\sqrt{\frac{\mathbf{T - 1}}{\mathbf{1 - (T - 1)}\mathbf{S}^{\mathbf{2}}\mathbf{(}\mathbf{b}_{\mathbf{1}}\mathbf{)}}}$$

ρ1 – współczynnik korelacji

T – liczebność próby

S2(b1) – średni błąd oceny parametru przy opóźnionej zmiennej endogenicznej

- Porównanie statystyki h z wartościami krytycznymi z tablic rozkładu za przy poziomie istotności α.

Z0,05=1,96 !!!!!!!!!!!!!!!!!
- Decyzja:
Jeżeli h ≥ za to odrzuca się hipotezę zerową na rzecz alternatywnej. Występuje wówczas autokorelacja I rzędu składnika losowego. A jeżeli h < za to przyjmujemy hipotezę zerową, jako prawdziwą, wówczas nie występuje autokorelacja.
- Wykres testu:

TEST BREUCHA-GODFREYA


$$\hat{\mathbf{\xi}_{\mathbf{t}}}\mathbf{=}\mathbf{\beta}_{\mathbf{0}}\mathbf{+}\mathbf{\beta}_{\mathbf{1}}\mathbf{X}_{\mathbf{t}\mathbf{2}}\mathbf{+}\mathbf{\beta}_{\mathbf{2}}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{+}\mathbf{\beta}_{\mathbf{3}}\mathbf{X}_{\mathbf{t}\mathbf{4}}\mathbf{+}\mathbf{\varrho}_{\mathbf{1}}\hat{\mathbf{\xi}_{\mathbf{t - 1}}}\mathbf{+}\mathbf{\varrho}_{\mathbf{2}}\hat{\mathbf{\xi}_{\mathbf{t - 2}}}\mathbf{+}\mathbf{\varrho}_{\mathbf{3}}\hat{\mathbf{\xi}_{\mathbf{t - 3}}}$$

Powyżej mamy model pomocniczy wykonany specjalnie do przeprowadzenia testów. Test ten jest w stanie wykryć autokorelacje wyższych rzędów.
- Zaczynamy od wyprowadzenia hipotez:


H0: 𝜚1=0𝜚2=0𝜚3=0𝜚4=0


HA: 𝜚10𝜚20𝜚30𝜚40

- Obliczamy statystykę mnożnika Langrange’a (LMF) opartej o statystykę LMχ2(m). Dana jest wzorem:


LM=TR2 ∖ n

d) Badanie jednorodności wariancji składnika losowego (heteroskedastyczność).

Jednorodność wariancji składnika losowego wynika podobnie jak autokorelacja z macierzy wariancji-kowariancji.
Dla przypomnienia:


$$\mathbf{D}^{\mathbf{2}}\left( \mathbf{\varepsilon} \right)\mathbf{= E}\left( \mathbf{\varepsilon}\mathbf{\varepsilon}^{\mathbf{T}} \right)\mathbf{=}\mathbf{\sigma}^{\mathbf{2}}\mathbf{I =}\begin{bmatrix} \begin{matrix} \begin{matrix} \mathbf{\sigma}_{\mathbf{11}}^{\mathbf{2}} & \mathbf{0} \\ \end{matrix} \\ \begin{matrix} \mathbf{0} & \mathbf{\sigma}_{\mathbf{22}}^{\mathbf{2}} \\ \end{matrix} \\ \end{matrix} & \begin{matrix} \mathbf{\cdots} \\ \mathbf{\cdots} \\ \end{matrix} & \begin{matrix} \mathbf{0} \\ \mathbf{0} \\ \end{matrix} \\ \begin{matrix} \mathbf{\vdots} & \mathbf{\vdots} \\ \end{matrix} & \mathbf{\ddots} & \mathbf{\vdots} \\ \begin{matrix} \mathbf{0} & \mathbf{0} \\ \end{matrix} & \mathbf{\cdots} & \mathbf{\sigma}_{\mathbf{\text{NN}}}^{\mathbf{2}} \\ \end{bmatrix}\mathbf{,\ }\mathbf{\text{przy\ czym}}\mathbf{\text{\ dla\ }}\hat{\mathbf{i}}\mathbf{\text{\ \ }}\mathbf{\sigma}_{\mathbf{\text{ii}}}^{\mathbf{2}}\mathbf{\ =}\mathbf{\sigma}^{\mathbf{2}}$$

Elementy poza główną przekątną macierzy przyjmują wartość równą zero. Natomiast elementy na głównej przekątnej macierzy stanowią wariancję składnika losowego. Z założenia KMNK wynika, że właśnie te elementy muszą być sobie równe σ112=σ222=σNN2. Jeżeli założenie to nie zostanie spełnione to estymator KMNK nie jest efektywny. Czyli wartości estymatora mają wówczas dużą wariancję oraz duże odchylenie standardowe. To jest niekorzystne dla modelu ekonometrycznego, gdyż wartość oczekiwana estymatora wynosi 0, więc wariancja estymatora musi być jak najbliżej 0. Czyli jak łatwo się domyślić: estymator efektywny to taki, którego wariancja jest niewielka (i przy okazji odchylenie standardowe). Taki estymator jest pożądany.

TEST WHITE’A


$$\hat{\mathbf{Y}_{\mathbf{t}}^{\mathbf{2}}}\mathbf{=}\mathbf{B}_{\mathbf{0}}\mathbf{+}\mathbf{B}_{\mathbf{1}}\mathbf{X}_{\mathbf{t2}}\mathbf{+}\mathbf{B}_{\mathbf{2}}\mathbf{X}_{\mathbf{t}\mathbf{3}}\mathbf{+}\mathbf{B}_{\mathbf{3}}\mathbf{X}_{\mathbf{t}\mathbf{4}}$$

W powyższym modelu występują 3 zmienne objaśniające, lecz jak łatwo zauważyć zmienna objaśniana jest podniesiona do kwadratu, więc zmiennych objaśniających będzie aż 9. Do tego testu wykorzystuje się model pomocniczy:

$\hat{\mathbf{\xi}_{\mathbf{k}}^{\mathbf{2}}}\mathbf{=}\mathbf{Y}_{\mathbf{0}}\mathbf{+}\mathbf{Y}_{\mathbf{1}}\hat{\mathbf{Y}_{\mathbf{t}}^{\mathbf{2}}}\mathbf{+}\mathbf{\mu}_{\mathbf{t}}$ (dodatkowa regresja kwadratów reszt)

- analizujemy hipotezy:

H0:E(ξt)=σξ2=const. – Hipoteza zerowa: wariancje z podprób są równe, więc wariancja składnika losowego jest jednorodna i składnik losowy jest homoschedastyczny.

HA:E(ξt)const. – Hipoteza alternatywna: wariancje z podprób nie są równe, więc wariancja składnika losowego nie jest jednorodna i składnik losowy jest heteroschedastyczny.

- Obliczamy statystykę testową daną wzorem:

W=T*R2

- Porównujemy z wartościami krytycznymi:
> Jeżeli n30 to jeżeli statystyka WFTk11 to przyjmujemy hipotezę alternatywną, a jeżeli statystyka W<FTk11 to przyjmujemy hipotezę zerową.
* Na egzaminie porównujemy statystykę W z wartością krytyczną FT21

> Jeżeli n>30 to jeżeli statystyka Wχα2(K) to przyjmujemy hipotezę alternatywną, a jeżeli statystyka W<χα2(K) to przyjmujemy hipotezę zerową.
* Na egzaminie porównujemy statystykę W z wartością krytyczną χα2(1) a K określa liczbę zmiennych objaśniających w modelu pomocniczym.

Dla małej ilości obserwacji nie zwraca się uwagi na parametr p. O istotności hipotezy zerowej, czyli o możliwości jej odrzucenia informuje tzw. wartość p. Jeżeli jest mniejsza niż przyjęty poziom istotności, np. α = 0,05 to należy odrzucić hipotezę zerową i przyjąć hipotezę alternatywną. Program gretl oznacza wartości parametru p gwiazdkami:
- α = 0,01 – 3 gwiazdki - ρ<0;0,01)
- α = 0,05 – 2 gwiazdki -
ρ<0,01;0,05)
- α = 0,1 – 1 gwiazdka -
ρ<0,05;0,1)
- α > 0,1 – brak gwiazdek -
 ρ<0,1;1>

Oceny modelu:
1. Jakościowa polega na ocenie czy znaki i parametry przy zmiennych są zgodne z prawami ekonomii.
2. Ilościowa przebiega przez 5 etapów:
1) ocena normalności rozkładu czyli test JB;
2) ocena czy wariancja składników losowych jest homoskedastyczna testem White'a;
3) zbadanie czy występuje autokorelacja składników losowych testem Durbina-Watsona;
4) ocena indywidualnej istotnosci zmiennych (test t-studenta) i łącznej istotnosci testem F i
5) piaty etap to analiza ośmiu syntetycznych miar dopasowania czyli:
a) wariancji,
b) odchylenia standardowego reszt,
c) współczynnika zmienności losowej,
d) współczynnika determinacji,
e) współczynnika indeterminacji,
f) skorygowanego współczynnika determinacji,
g) skorygowanego indeterminacji,
h) współczynnika korelacji wielorakiej.


Wyszukiwarka