Wykład II Ekonometria
Model regresji wielorakiej:
Model zależności stochastycznej:
Model oszacowany:
Regresja wieloraka
Dane do analizy regresji:
Metoda najmniejszych kwadratów (MNK)
Suma kwadratów różnic (błędów):
MNK:
Min (SSE)
b0,b1,bk
Błędy dopasowania:
Średni blad kwadratowy:
Standardowy błąd szacunku
Dla liniowego modelu ekonometrycznego:
Σni=1 (yi- y)2 = Σni=1(yi-ŷi)2 + Σni=1 (ŷi-y)2
Współczynnik determinacji wielorakiej:
Skorygowany współczynnik determinacji wielorakiej:
Weryfikacja statystyczna istnienia liniowej zależności
Tabela analizy wariancji:
Hipoteza o istnieniu liniowej zależności miedzy zmienna y i kombinacja liniowa zmiennych x:
Przykład:
df SS MS F istotność F
Regresja 2 349,931646 174,9658 64,0411 3,168E-05
Resztkowy 7 19,1246044 2,732086
Razem 9 369,05625
Rozklad.f.odw(0,05;2;7)= 4,74
Rozklad.f(64;2;7)=3,15E-05
Badanie istotności parametrów strukturalnych:
Gdzie:
Badanie istotności parametrów strukturalnych:
Hipoteza o istotności parametrów strukturalnych:
Przykład:
Współczynniki błąd standardowy t stat wartość -p
Przeciecie 35,09382492 2,23759562 15,68372 1,04E-06
Zmienna x1 0,578496678 0,12164652 4,755555 0,00207
Zmienna x2 1,782380091 0,52973487 3,364664 0,012008
Regresja nie liniowa:
Model regresji nieliniowej:
Model zależności stochastycznej:
Model oszacowany:
ŷi =f(xi,b) gdzie bT=[b1,b2,…,bN]
przykłady:
yi= α+β*x1i+γ*x22i+εi
ŷi= a+b*x1i+c*x22i
Metoda najmniejszych kwadratów (MNK)
Suma kwadratów różnic (błędów):
MNK:
Min(SSE)
b0,b1,…bk
Klasyfikacja regresywnych modeli nieliniowych.
Modele linearyzowane- transformacja zmiennych:
ŷi= f(xi,b) >> ŷi'=b0'+b1'*x1i'+…+bk' * xki'
Modele ściśle nieliniowe- metody optymalizacji nieliniowej
yi= β0*x1i+β1*eβ2*x2i+εi
ŷi= b0*x1i+b1*eb2*x2i
Model wielomianowy:
yi= b0+b1*xi+b2*xi2+b3*xi3+…+ bk* xik
yi= b0+b1*x1i+b2*x2i+b3*x1i*x2i+b4*x21i+b5*x22i+…
Linearyzacja:
x'ji = xji
x'ji= xk11i*xk22i
Model odwrotny do liniowego:
yi= 1/ b0+b1*x1i+b2*x2i+…+bk*xki
Linearyzacja
y' = ¼
Model potęgowy
Np. funkcja produkcji Comba- Douglasa:
yi= b0*xb11i*xb22i*…*xbkki
Linearyzacja: obustronne logarytmowanie
ln yi= lnb0+b1*lnx1i+b2*lnx2i+…+Bk* lnxki +ln ε
y'i= lnyi; b0'= lnb0; x'ji = ln xji
Y=a*xb1*xc2
Ln y = ln a+ ln xb1+ln xc2
Ln y = ln a+ b ln x1+ c ln x2
Ln y = y'
Ln a = a'
Ln x1= x1'
ln x2 = x2'
y' = a'+bx1'+cx2'
a' = 2 b= 3 c=4
a = e2
a=ea2 exp(2)
y= e2 * x13*x24
Model wykładniczy :
yi= b0*eb1*x1i+b2*x2i+...+Bk* xki
Linearyzacja: obustronnie logarytmowane
Ln yi= ln b0+ b1*x1i+b2*x2i+…+Bk*xki
y'i = lnyi; b'0= ln b0
Y= a* ebx1+cx2
Ln y= lna+ lnebx1+cx2
Lny= lna + (bx1+cx2) lne
Lne= 1
y'= a'+bx1+cx2
a'=3 b=2 c=0,5
a= ea'= e3
y= e3 * e 2x1+ 0,5 x2
Model logarytmiczny
yi= b0+b1*lnx1i+b2*lnx2i+…+bk*lnxki
Linearyzacja:
X'ji= ln xji
Ściśle nieliniowe modele regresywne- przykład:
Model:
ŷi= b0*x1i+b1*eb2+x2i
MNK:
SSE= Σni=1 (yi-ŷi)2= Σni=1(yi-b0*x1i-b1*eb2*x2i)2
Min b0,b1,b2 SSE
Warunek konieczny istnienia ekstremum funkcji
δSSE/δb0=0; δSSE/δb1=0; δSSEn/δb2=0
1
Całkowita suma kwadratów
Syy
Suma kwadratów błędów SSE
Suma kwadratów odchyleń regresywnych SSR
y=1,5092x+74,404
y= -0,4936x2+7,9095x+59,317