WYKŁAD 1 23.09.2002
Ekonometria:
Zastosowanie wszelkich metod matematycznych w ekonomii
Zastosowanie statystyki matematycznej i rachunku prawdopodobieństwa do badania problemów ekonomicznych ( znaczenie węższe )
METODA NAJMNIEJSZYCH KWADRATÓW
Hipoteza
Y = β1X1 + β2X2 + ... + βkXk + ε
wielkość objaśniana wielkości objaśniające błąd\reszta
( zmienna )
Dane statystyczne
y1 x11 x12 … x1K K - liczba zmiennych
y2 x21 x22 … x2K objaśniających ( nr.
y = ... x = ... ... … … zmiennej )
yr xT1 xT2 … xTK T - liczba danych ( nr
danej )
Równanie
ŷ = b1xt1 + b2xt2 + ... + bkxtk ( t = 1,2,…,T )
jeżeli mamy wolny β to w całej kolumnie w macierzy mamy same jedynki
należy oszacować β na podstawie X i Y
oceniamy oszacowane równanie
b1, b2, bk - szacowania parametrów
Szacowanie parametrów
Przykład 1
koszty ( mln zł ) |
-5,25 |
7,5 |
1 |
-2 |
3,25 |
1,5 |
6 |
temperatura ( ºC ) |
-4 |
3 |
1 |
-2 |
0 |
-1 |
3 |
produkcja ( tyś. ton ) |
1 |
2 |
1 |
0 |
1 |
2 |
3 |
Zbudować liniową funkcję w której koszty zależą od wielkości produkcji i temperatury przechowywania surowców
MNK oszacować parametry funkcji kosztów
Ocenić dobroć dopasowania funkcji do danych rzeczywistych
Y = β1X1 + β2X2 + β3X3 + ε ( x3 = 1 )
koszty
produkcji temperatura produkcja
-5,25 -4 1 1
7,5 3 2 1
1 1 1 1
Y = -2 X = -2 0 1
3,25 0 1 1
1,5 -1 2 1
6 ( 7,1 ) 3 3 1 ( 7,3 )
wartości empiryczne
ŷt = b1xt1 + b2xt2 + b3xt3
wartości
teoretyczne liczby
Wartości teoretyczne mają być możliwie bliskie wartościom empirycznym
y
ŷ reszta \ błąd
ŷ = β1xt1 + β2xt2 ( xt2 = 1 )
X3
T
MNK = ∑ ( yt - ŷt )2 → min
T t=1
S ( b1, b2, b3 ) = ∑ ( yt - b1xt1 - b2xt2 - b3xt3 )2 → min
t=1
oceny parametrów
b1
b = b2 , ŷ = Xb, S (b) = ( y - Xb)T ( y - Xb ) → min
...
bk
wektor ocen wektor reszty
parametrów ( kolumna)
x1 2
2x1 + 3x2 + 4x3 = 2 3 4 x2 = x1 x2 x3 3
x3 4
forma liniowa
Rachunek różniczkowy w zapisie macierzowym → ksero
2
∂ L = 3
∂ x 4
wektor pochodnych cząstkowych - gradient
( niech będzie kolumnowy )
Gradient - kolumna współczynników stojących przy zmiennych
forma kwadratowa 1 2 x1 = x12 + 5x1x2 + 4x22
wektora x x1 x2 3 4 x2
macierz formy
kwadratowej
∂ K (x) = 2x1 + 5x2 = 2 5 x1 = 1 2 + 1 3 x1
∂ x 5x1 + 8x2 5 8 x2 3 4 2 4 x2
gradient
yTy - yTXb - ( Xb )Ty + ( Xb )TXb → min
S (b) = yTy - yTXb - bTXTy + bTXTXb → min
gradient ∂ S(b) = - ( yTX )T - XTy + [ ( XTX ) + ( XTX )T ] b
∂ b
Warunek konieczny istnienia ekstremum :
∂ S(b) = ( 0 ) tłuste zero
∂ b ( wektor zero )
- XTy - XTy + [ XTX + XTX ] b = 0
macierz symetryczna
bo równa się swojej
- 2 XTy + 2 ( XTX ) b = 0 transpozycji
XTXb = XTy
Gdyby XTX było macierzą nieosobliwą to mnożymy przez jej macierz
( XTX )-1 ( XTX ) b = XTy ( XTX )-1
b = ( XTX )-1 XTy
Wektor b wyznaczony z tego wzoru minimalizuje kwadraty odchyleń!
WYKŁAD 2 30.09.2002
Oszacowanie funkcji z przykładu 1
Dane
I II III
-5,25 -4 1 1
7,8 3 2 1
1 1 1 1
Y = -2 X = -2 0 1
3,25 0 1 1
1,5 -1 2 1
6 3 3 1
Obliczenia
suma kwadratów iloczyn skalarny dwóch
liczb w kolumnie I wektorów I i II
(musi być dodatnia) 40 10 0
XTX = 10 20 10
0 10 7
suma kwadratów
suma iloczynów kolumny III
kolumn I i II
4 -7 10
(XTX)-1 = 1/90 -7 28 -40
10 -40 70
Obydwie macierze są symetryczne.
65 1,5
XTy = 35 b = 0,5
12 1
ŷ = 1,5X1 + 0,5X2 + 1
błędy przybliżenia, odchylenie
oceny (szacunki) parametrów
-5,25 -4,5 -0,75
7,8 6,5 1
1 3 -2
y = -2 ŷ = -2 e = 0
3,25 1,5 1,75
1,5 0,5 1
6 7 -1
S (b) = 10,625
min
Suma kwadratów odchyleń e jest minimalna dla danych wartości wektora b. Dla każdych innych oszacowań b, suma ta nie byłaby minimalna.
Wektor pochodnych cząstkowych, ∂ S (b)
pochodnych cząstkowych jest tyle ile = -2XTy + 2 (XTX) b
składowych ma wektor b. ∂ b
Hesjan ∂ S2 (b)
macierz drugich pochodnych = 2 (XTX)
∂ b ∂ b
Macierz A jest
dodatnio określona, gdy zTA z > 0, z ≠ 0
ujemnie określona, gdy zTA z < 0, z ≠ 0
nieujemnie określona, gdy zTA z ≥ 0, z ≠ 0
(ujemnie półokreślona)
niedodatnio określona, gdy zTA z ≤ 0, z ≠ 0
(ujemnie półokreślona)
Gdy AT = A to A jest macierzą symetryczną.
Sprawdzimy:
zT 2 XTX z > 0
zT XTX z > 0
podstawienie: zTXT = ( Xz )T = (w)T
wTw > 0 (wiersz x kolumna to liczba)
wTw = ∑ wt2 (suma kwadratów elementów wektora w)
O ile chociaż jedno wt jest różne od zera to suma jest dodatnia. Natomiast gdy wt = 0, to suma również wynosi 0.
x1 x2 xk
z1 + z2 + ... + zk = 0 liniowa kombinacja kolumn macierzy A, (Xz=0)
Jeżeli nie istnieje taki z ≠ 0, żeby to równanie było spełnione to kolumny X są liniowo niezależne. Jeżeli kolumny są liniowo niezależne to macierz jest dodatnio określona, a oceny parametrów b da się wyznaczyć jednoznacznie. Jeżeli kolumny są liniowo zależne, to macierz jest osobliwa.
Rząd macierzy X → k , jeżeli kolumny są liniowo niezależne.
rz (X(T,k)) = K ≤ T rząd tej macierzy musi być równy liczbie kolumn aby
< T XTX była dodatnio określona
liczba kolumn (rząd macierzy) liczba danych nie może być mniejsza od liczby kolumn (zmiennych)
ŷ = Xb → wektor wartości teoretycznych
XTXb = XTy wektory prostopadłe
XTŷ = XTy
XT ( y - ŷ ) = 0 (-4,2) 2 (1,2)
reszty
XTe = 0
iloczyn skalarny wektorów równa się 0 -4 1
Własności hiperpłaszczyzny dopasowanej MNK do wyników obserwacji (zachodzą zawsze, dla każdego równania modelu):
Wektor reszt jest ortogonalny do kolumn macierzy X
ŷTe = bT XTe = 0 (chude zero)
0
Model z wyrazem wolnym. Jeżeli istnieje wyraz wolny ( mamy kolumny z samymi jedynkami) to:
suma reszt jest równa zero
1 1 ... 1 e = 0
suma wartości teoretycznych jest równa sumie wartości empirycznych
1 1 ... 1 ŷ = 1 1 ... 1 y
w przykładzie: yTy = 137,352 bTXTy = 127,0 1/T ( ¶Ty )2 = 20,971
¶Ty - wektor składowych równych średniej
DEKOMPOZYCJA WARIANCJI
OSK = ∑ ( yt - ÿ )2 = ( y - [ 1/T ¶Ty ] )T ( y - [ 1/T ¶Ty ] ) = yTy - 1/T ( ¶Ty)2 - 1/T (¶Ty)2
+ ( 1/T ¶Ty2 ) T
ogólna suma OSK = ∑ ( yt - ÿ )2 = yTy - 1/T ( ¶Ty)2
kwadratów
suma kwadratów SKO = ∑ ( yt - ŷt )2 = yTy - bTXTy minimalna wartość sumy kwadratów
odchyleń odchyleń (minimalizujemy)
_
regresyjna suma RSK = ∑ ( ŷt - ŷ )2 = bTXTy - 1/T ( ¶Ty )2 jeżeli równanie ma wyraz wolny
kwadratów
Jeżeli szacowane równanie ma wyraz wolny, to:
OSK = SKO + RSK
OSK - zakres zmienności zmiennej objaśnianej
SKO - suma kwadratów reszt
RSK - część zmienności zmiennej objaśnianej, którą dało się objaśnić
SKO RSK
1 = +
OSK OSK
współczynnik zbieżności φ2 R2 współczynnik determinacji
(rozbieżności) mówi o tym zakresie zmienności
mówi o tym zakresie zmienności zmiennej zmiennej objaśnianej, który został
objaśnianej, który nie został objaśniony objaśniony poprzez szacowane równanie
poprzez szacowane równanie
R współczynnik korelacji wielorakiej
mówi o skorelowaniu wszystkich
zmiennych objaśniających z jedną
zmienną objaśnianą
WYKŁAD 3 07.10.2002
Skąd biorą się dane statystyczne?
Yt = β1Xt1 + β2Xt2 + ... + βkXtk + εt
błąd, zmienna losowa, losowe zakłócenie
Hipoteza deterministyczna
Hipoteza probabilistyczna
Hipoteza klasyczna (ekonometryczna)
Losowy składnik nakłada się na prawo czyli Yt jest zmienną losową, jej wartości to realizacje zmiennej losowej. Wszystkie wartości tego równania mają inny charakter.
|
znane |
|
losowe |
Y |
ε |
|
X |
|
składnik losowy ma odzwierciedlać
wszystkie błędy powstałe w próbie statystycznej, wszystkie błędy
łącznie odnajdują wyraz w tym
składniku losowym
ustalone w powtarzalnych próbach
(mogą być obarczone błędami) stała i szacowana
Chodzi o to aby jak najwięcej zakresu zmienności zmiennej objaśnianej objaśnić
szacowanym modelem.
Założenie 1 Hipoteza
Y(T) = X(T,K) β(K) + ε(T) wektor składników losowych
wektor macierz wartości
zm. objaśniających wektor parametrów β, kolumna o K elementach
Założenie 2
rz X(T,K) = K
Założenie 3
E (εt) = 0 wartość oczekiwana losowych zakłóceń jest 0
E (ε) = 0 wartość oczekiwana wektora jest wektorem zer
D2 (εt) = E [ εt - E (εt) ]2 = σ2
składniki losowe mają tę samą wariancję, błędy
są jednakowo rozproszone
cov (εt,εs) = E {[εt - E (εt)] [εs - E (εs)]} gdyby t = s to mamy wariancję
t≠s
miara współzmienności zmiennych losowych - średnia z iloczynu odchyleń od
średnich ( zakładamy że = 0, to
znaczy że błędy nie są
systematyczne, nie są powiązane ze
sobą)
εt ∼ N ( 0, σ ) przyjęcie rozkładu normalnego oznacza że często
popełniamy błędy małe, a rzadko duże.
Macierz wariancji i kowariancji
∑z = E [( z - E (z)) ( z - E (z))T] w wyniku otrzymamy macierz jednostkową stopnia T
macierz wektor wektor
(kolumna) (wiersz)
Własności
symetryczna
na przekątnej są wariancje
wymiar TxT - kwadratowa
σ2 I → macierz skalarna, ponieważ do jej utworzenia potrzebna jest tylko jedna
liczba
Założenie 4
∑ε = E [( ε - E(ε)) (ε - E(ε))T] = E (ε εT) = σ2 I
Założenie 5
ε ∼ N ( 0, σ2 I ) rozkład błędu ma T-wymiarowy rozkład normalny
Przy tych 5 założeniach będziemy prowadzić wnioskowanie.
MNK
β - parametr ( stały i nieznany ), b - ocena ( szacunek ) - realizacje estymatora
b = (XTX)-1 XTy
wektor ocen parametrów odpowiadających wektorowi y
З = ( XTX )-1 XT Y Y(T) = X(T,K) β(K) + ε(T)
estymator parametru- zmienna losowa
na podstawie której szacujemy estymator,
na tymże estymatorze opiera się wnioskowanie
Interpretacje
wariancja - średni kwadrat odchyleń od średnich
odchylenie standardowe - średnie odchylenie od średnich
Obydwa parametry są miarą rozproszenia od średniej. Im większe rozproszenie (odchylenie) tym estymator mniej wiarygodny i odwrotnie.
Własności estymatorów uzyskanych MNK
З = (XTX)-1 XTY = (XTX)-1 XT (Xβ + ε) = (XTX)-1 XTXβ + (XTX)-1 XTε =
= β + (XTX)-1 XTε
Estymator jest funkcją składników losowych, a uzyskany MNK jest estymatorem
liniowym.
E ( З ) = E ( β + (XTX)-1 XTε) = E (β) + E ((XTX)-1 XTε) = β + (XTX)-1 XT E(ε) = β
stała wartość oczekiwana estymatora = szacowanemu parametrowi
stąd jest to estymator nieobciążony (bez błędu systematycznego)
9
EKONOMETRIA