Przykład: interpretacja wyników estymacji
Badano zależność wielkości importu w Polsce w roku t (Yt, w mld zł) od następujących zmiennych:
PBK - zmiana wartości produktu krajowego brutto w roku t w stosunku do roku poprzedniego,
W - średni kurs dolara w PLN w roku t,
C - wskaźnik poziomu cen w roku t (rok poprzedni = 100).
Oszacowano następujące modele ekonometryczne:
M1:
M2:
M3:
Przeprowadzić analizę błędów standardowych oszacowań w tych modelach. Na podstawie błędów względnych oraz wartości współczynnika determinacji ocenić jakość model M1,M2 i M3.
Dla najlepszego z modeli podać interpretację ekonomiczną oszacowań parametrów oraz opisać zastosowanie modelu do prognozy wielkości importu w Polsce.
Uzupełnienie: Test Jarque-Bera-Łomnickiego: punkt 3.8 podręcznika
Jest to test normalności badanego szeregu. Wartość statystyki jest wyznaczana według wzoru:
Gdzie n oznacza liczebność próby, k- liczbę oszacowanych parametrów, K- kurtozę badanego szeregu. Hipoteza zerowa zakłada normalność badanego szeregu.
Idea testu polega na porównaniu empirycznych momentów rozkładu badanego szeregu z odpowiednimi momentami rozkładu normalnego. Statystyka testu przy założeniu prawdziwości hipotezy zerowej ma rozkład
(o dwu stopniach swobody).
Weryfikacja statystycznej istotności
Test t Studenta: Hipoteza zerowa zakłada, że parametr przy zmiennej objaśniającej jest równy zeru, alternatywna - że jest różny od zera. Statystyka t Studenta jest równa ilorazowi oceny parametru przez błąd szacunku:
. Liczba stopni swobody testu t jest równa różnicy między liczbą obserwacji a liczbą parametrów do oszacowania:
Jeśli obliczona wartość statystyki testu jest co do modułu większa niż wartość krytyczna odczytana z tablic, hipotezę zerową odrzucamy.
Uogólniony test Walda:
Test łącznej istotności całej grupy zmiennych objaśniających. Jedna z wersji testu dotyczy sprawdzenia łącznej istotności wszystkich zmiennych objaśniających, czyli dla modelu
H0:
, H1: niektóre z tych parametrów są niezerowe.
Statystyka testu Walda: jest wyznaczana na podstawie wartości współczynnika determinacji dla modelu:
i ma rozkład F-Snedecora F(k, n-(k+1)).
Jeśli obliczona wartość statystyki F jest większa niż wartość krytyczna dla przyjętego poziomu istotności, to odrzucamy hipotezę zerową.
Model 1: Estymacja KMNK z wykorzystaniem 36 obserwacji 1959-1994
Zmienna zależna: Ct
Zmienna Współczynnik Błąd stand. Statystyka t Wartość p
const -221,425 19,2949 -11,476 <0,00001 ***
Yt 0,710290 0,00431991 164,422 <0,00001 ***
Srednia arytmetyczna zmiennej zależnej = 2811,18
Odchylenie standardowe zmiennej zależnej = 945,543
Suma kwadratów reszt = 39304,5
Błąd standardowy reszt = 34,0002
Wsp. determinacji R-kwadrat = 0,998744
Skorygowany wsp. R-kwadrat = 0,998707
Stopnie swobody = 34
Statystyka testu Durbina-Watsona = 0,938149
Autokorelacja reszt rzędu pierwszego = 0,506688
Logarytm wiarygodności = -177,002
Kryterium informacyjne Akaika (AIC) = 358,004
Kryterium bayesowskie Schwarza (BIC) = 361,171
Kryterium infor.Hannana-Quinna (HQC) = 359,11
Kryterium informacyjne Akaike (1974):
, gdzie k - liczba parametrów, T - liczba obserwacji.
Kryterium informacyjne Schwarza (1978):
, gdzie k - liczba parametrów, T - liczba obserwacji.
Kryterium Hannana-Quinna (Hannan (1980)):
dla stałej c
2.
Test Jarque'a-Bera. Hipoteza zerowa: dystrybuanta empiryczna posiada rozkład normalny:
Chi-kwadrat(2) = 2,409 z wartością p 0,29985.
Nie ma podstaw do odrzucenia hipotezy zerowej.
Testy autokorelacji:
Test Breuscha-Godfreya na autokorelacja rzędu pierwszego
Estymacja KMNK z wykorzystaniem 35 obserwacji 1960-1994
Zmienna zależna: uhat
Zmienna Współczynnik Błąd stand. Statystyka t Wartość p
const -5,97341 17,3510 -0,344 0,73290
Yt 0,00109737 0,00384366 0,286 0,77710
uhat_1 0,505025 0,147137 3,432 0,00167 ***
Wsp. determinacji R-kwadrat = 0,271987
Statystyka testu: LMF = 11,955260,
z wartością p = P(F(1,32) > 11,9553) = 0,00156
Alternatywna statystyka: TR^2 = 9,519545,
z wartością p = P(Chi-kwadrat(1) > 9,51955) = 0,00203
Ljung-Box Q' = 10,5583 z wartością p = P(Chi-kwadrat(1) > 10,5583) = 0,00116
Niech
oznacza współczynniki autokorelacji reszt z próby:
.
Błędy standardowe są równe T-0,5 ale dla małej liczby opóźnień mogą być mniejsze. Na wykresie słupkowym współczynników autokorelacji zaznacza się linie poziome odpowiadające błędom - jeśli współczynnik
przekracza wartość T-0,5, uważamy współczynniki autokorelacji za istotne.
Łączna statystyka (Ljung i Box (1978)):
ma przy założeniu hipotezy zerowej rozkład
, gdzie h -liczba parametrów modelu.
Jeśli obliczona wartość statystyki przekracza wartość krytyczną odczytaną z tablic dla odpowiedniej liczby stopni swobody i przyjętego poziomu istotności, hipotezę zerową należy odrzucić.
Test heteroskedastyczności:
Test White'a na heteroskedastyczność reszt (zmienność wariancji resztowej)
Estymacja KMNK z wykorzystaniem 36 obserwacji 1959-1994
Zmienna zależna: uhat^2
Zmienna Współczynnik Błąd stand. Statystyka t Wartość p
const -1104,35 2715,57 -0,407 0,68687
Yt 1,32069 1,32308 0,998 0,32545
sq_Yt -0,000172564 0,000150518 -1,146 0,25985
Wsp. determinacji R-kwadrat = 0,0660539
Statystyka testu: TR^2 = 2,377940,
z wartością p = P(Chi-kwadrat(2) > 2,377940) = 0,304535
Test White'a: zob. podręcznik.
Błędy prognoz
Symbolem h oznaczono horyzont prognozy:
1) Błąd średniokwadratowy
,
gdzie h - horyzont prognozy,
- wartości prognoz i
- wartości empiryczne zmiennej prognozowanej, t = T+1, T+2,...,T+h.
2) Pierwiastek błędu średniokwadratowego
RMSE =
3) Średni błąd absolutny
MAE =
4) Średni absolutny błąd procentowy
MAPE =
5) Współczynnik rozbieżności Theila
jest miernikiem unormowanym, przyjmującym wartości z przedziału
, Niskie wartości współczynnika oznaczają dużą dokładność prognoz.
Niech
oznacza średnią arytmetyczną wartości prognoz,
- średnią arytmetyczną obserwacji zmiennej prognozowanej w okresie prognozy,
-współczynnik korelacji wektora prognoz i wektora wartości empirycznych,
i
- odchylenia standardowe odpowiednio dla prognoz i dla wartości empirycznych, Przy tych oznaczeniach można zapisać błąd średniokwadratowy w postaci sumy trzech składowych, co ułatwia interpretację (por. wzory (7.53) i (7.54a-c), s. 206, A. Welfe [1998]):
Pierwszy z wyznaczonych na tej podstawie składników (na wydruku komputerowym obok wykresu prognoz: bias proportion)
wyraża odchylenie średniej wartości prognozowanej od średniej wartości empirycznej. Różna od zera wartość tego składnika oznacza obciążenie prognozy.
Drugi składnik (na wydruku: variance proportion)
„mierzy stopień odwzorowania przez model wariancji zmiennej objaśnianej. Duże wartości tego współczynnika są dowodem na to, że zmienność zmiennej prognozowanej jest niedostateczna lub nadmierna w stosunku do zmienności empirycznej” (A. Welfe [1998], s. 206).
Trzeci składnik (na wydruku: covariance proportion)
jest miarą niesystematycznego błędu spowodowanego innymi czynnikami.
Druga wersja współczynnika rozbieżności
jest miernikiem nieunormowanym, przyjmuje wartości z przedziału
- niskie wartości oznaczają dużą dokładność prognoz, Pierwszy i drugi współczynnik zbieżności służy do konstrukcji współczynników dla przyrostów zmiennej prognozowanej (por. A. Welfe [1998], wzory (7.62, 7.63), s. 208-209), stanowiących mierniki zdolności modelu do przewidywania punktów zwrotnych:
,
Interpretacja współczynników dla przyrostów jest następująca (por. A. Welfe [1998], s. 209): Wartości
świadczą o tym, że prognoza jest gorsza od takiej, w której zakłada się brak zmian (zachowanie status quo). Jeśli prognozowane zmiany są systematycznie niedoszacowane,
, to
.
6
Ekonometria - ćwiczenia nr 2