1
Tw. Gaussa- Markowa i własności MNK
t
kt
k
t
1
1
0
t
x
...
x
y
ε
Xα
y
Założenia KMNK:
1. zmienne objaśniające są nielosowe o ustalonych wartościach (lub losowe i nieskorelowane ze
składnikiem losowym modelu)
2. rz(X)=k+1
3.
0
)
(
E
t
4.
0
)
,
cov(
s
t
,
const
)
var(
2
t
I
εε
2
T
2
)
(
D
5.
)
,
0
(
N
:
2
t
Metoda najmniejszych kwadratów:
Xa
yˆ
y
y
e
ˆ
n
1
t
2
t
T
min
e
e
e
y
X
X)
(X
a
T
1
T
1
2
2
(
)
(
D
X)
X
a
T
α
a)
(
E
Estymator KMNK jest:
- zgodny
- nieobciążony
- najefektywniejszy w klasie estymatorów liniowych nieobciążonych (BLUE)
Własności algebraiczne (dla modelu z wyrazem wolnym):
n
1
t
t
0
e
0
e
X
T
0
ˆ
T
e
y
y
X
a
y
y
T
T
T
ˆ
ˆ
Współczynnik determinacji
Współczynnik determinacji zwykły (scentrowany)
2
T
T
T
T
2
T
T
n
1
t
2
t
n
1
t
2
t
t
n
1
t
2
t
n
1
t
2
t
2
)
y
(
n
y
y
y
X
a
y
y
1
)
y
(
n
y
y
e
e
1
)
y
y
(
)
yˆ
y
(
1
)
y
y
(
)
y
yˆ
(
R
0
1
0
2
R
R
R
R
T
Skorygowany współczynnik determinacji
)
R
1
(
)
1
k
(
n
k
R
R
2
2
2
,
Niescentrowany współczynnik determinacji
y
y
e
e
T
T
N
R
1
2
2
Średnie błędy oszacowań parametrów
1
2
2
(
)
(
D
X)
X
a
T
)
1
k
(
n
e
e
)
1
k
(
n
)
yˆ
y
(
S
T
n
1
t
2
t
t
2
nieobciążony estymator
2
1
2
2
(
S
)
(
D
ˆ
X)
X
a
T
,
Istotność zmiennych objaśniających
a. badanie istotności pojedynczej zmiennej objaśniającej – test t-Studenta
H
0
:
0
j
H
1
:
0
j
Przy założeniu normalności rozkładu składnika losowego statystyka
j
a
j
S
a
t
ma rozkład t-Studenta z n-(k+1) stopniami swobody.
b. badanie istotności zestawu zmiennych objaśniających – test F
H
0
:
0
...
k
2
1
H
1
: przynajmniej jedna zmienna objaśniająca jest istotna
Jeżeli składnik losowy ma rozkład normalny, to statystyka
)
1
k
n
/(
)
R
1
(
k
/
R
F
2
2
ma rozkład F-Snedecora z r
1
=k oraz r
2
=n-(k+1) stopniami swobody.
Czynnik inflacji wariancji (CIW)
(VIF - Variance Inflation Factor) :
2
1
1
j
j
R
CIW
Przy braku współliniowości zmiennych
0
2
j
R
, CIW
j
=1.
Autokorelacja składnika losowego
Schemat autokorelacyjny pierwszego rzędu AR(1).
t
1
t
t
,
gdzie
,
0
)
(
E
t
I
ηη
2
0
T
2
)
(
D
Testowanie autokorelacji pierwszego rzędu – test Durbina-Watsona
Procedura testu:
1. Szacujemy współczynnik autokorelacji na podstawie próby
n
2
t
2
1
t
n
2
t
2
t
n
2
t
1
t
t
e
e
e
e
ˆ
2. Przy hipotezie zerowej H
0
:
0
stawiamy hipotezę alternatywną
H
1
:
0 , jeżeli
0
ˆ
(autokorelacja dodatnia)
lub
H
1
:
0
, jeżeli
0
ˆ
(autokorelacja ujemna)
3
3. Obliczamy wartość statystyki
n
1
t
2
t
n
2
t
2
1
t
t
e
)
e
e
(
d
4. Podejmujemy decyzję:
H
1
:
0
decyzja
H
1
:
0
l
d
d
H
0
odrzucamy
l
d
4
d
u
d
d
nie ma podstaw do odrzucenia
hipotezy zerowej
u
d
4
d
Uwaga: Dla dużej liczby obserwacji n można zauważyć, że
)
ˆ
1
(
2
d
.
Błąd prognozy:
P
P
y
y
e
Prognoza punktowa
a
x
T
P
ˆ
y
xˆ
- wektor przewidywanych wartości zmiennych objaśniających
0
)
e
(
E
P
(predykcja nieobciążona)
)
)
(
1
(
)
e
(
D
1
T
T
2
P
2
x
X
X
x
Średni błąd prognozy ex ante
)
)
(
1
(
S
)
(
D
ˆ
S
S
1
T
T
2
2
T
2
P
x
X
X
x
x
a
x
Średni względny błąd prognozy ex ante
%
100
y
S
v
P
P
Prognoza przedziałowa
Jeżeli składnik losowy modelu ma rozkład normalny, to zmienna losowa
P
P
S
e
u
ma rozkład t-Studenta z n-(k+1) stopniami swobody
Przedział ufności dla zmiennej prognozowanej (przedział wiarygodności)
1
)
t
u
(
P
*
*
P
P
*
P
P
t
S
y
y
t
S
y
Miary dokładności prognoz ex post
błąd średni
ME=
)
y
y
(
P
m
1
m
1
średni błąd absolutny
MAE=
|
y
y
|
P
m
1
m
1
4
błąd średniokwadratowy
MSE=
2
P
m
1
m
1
)
y
y
(
RMSE=
MSE
Współczynnik rozbieżności
m
P
m
m
m
m
P
m
y
y
y
y
U
1
2
1
1
2
1
1
2
1
Współczynnik Theila
m
1
2
m
1
2
P
y
)
y
y
(
I