Wykład II Ekonometria

Model regresji wielorakiej:

0x08 graphic

Regresja wieloraka

Dane do analizy regresji:

0x08 graphic

Metoda najmniejszych kwadratów (MNK)

Min (SSE)

b0,b1,bk

0x01 graphic

Błędy dopasowania:

0x08 graphic

0x08 graphic

0x08 graphic
0x08 graphic
Σni=1 (yi- y)2 = Σni=1(yii)2 + Σni=1 i-y)2

0x08 graphic
0x01 graphic

0x08 graphic

0x08 graphic

Weryfikacja statystyczna istnienia liniowej zależności

Tabela analizy wariancji:

0x08 graphic

Hipoteza o istnieniu liniowej zależności miedzy zmienna y i kombinacja liniowa zmiennych x:

0x08 graphic

Przykład:

df SS MS F istotność F

Regresja 2 349,931646 174,9658 64,0411 3,168E-05

Resztkowy 7 19,1246044 2,732086

Razem 9 369,05625

Rozklad.f.odw(0,05;2;7)= 4,74

Rozklad.f(64;2;7)=3,15E-05

Badanie istotności parametrów strukturalnych:

0x08 graphic
0x01 graphic

Gdzie:

0x08 graphic

Badanie istotności parametrów strukturalnych:

Hipoteza o istotności parametrów strukturalnych:

0x08 graphic
0x01 graphic

Przykład:

Współczynniki błąd standardowy t stat wartość -p

Przeciecie 35,09382492 2,23759562 15,68372 1,04E-06

Zmienna x1 0,578496678 0,12164652 4,755555 0,00207

Zmienna x2 1,782380091 0,52973487 3,364664 0,012008

Regresja nie liniowa:

0x08 graphic
0x01 graphic

Model regresji nieliniowej:

0x08 graphic

ŷi =f(xi,b) gdzie bT=[b1,b2,…,bN]

przykłady:

yi= α+β*x1i+γ*x22ii

ŷi= a+b*x1i+c*x22i

Metoda najmniejszych kwadratów (MNK)

0x08 graphic

Min(SSE)

b0,b1,…bk

Klasyfikacja regresywnych modeli nieliniowych.

ŷi= f(xi,b) >> ŷi'=b0'+b1'*x1i'+…+bk' * xki'

yi= β0*x1i1*eβ2*x2i+εi

ŷi= b0*x1i+b1*eb2*x2i

Model wielomianowy:

yi= b0+b1*xi+b2*xi2+b3*xi3+…+ bk* xik

yi= b0+b1*x1i+b2*x2i+b3*x1i*x2i+b4*x21i+b5*x22i+…

x'ji = xji

x'ji= xk11i*xk22i

0x08 graphic
0x01 graphic

Model odwrotny do liniowego:

yi= 1/ b0+b1*x1i+b2*x2i+…+bk*xki

y' = ¼

0x08 graphic
0x08 graphic
0x01 graphic

Model potęgowy

yi= b0*xb11i*xb22i*…*xbkki

ln yi= lnb0+b1*lnx1i+b2*lnx2i+…+Bk* lnxki +ln ε

y'i= lnyi; b0'= lnb0; x'ji = ln xji

0x08 graphic
0x01 graphic

Y=a*xb1*xc2

Ln y = ln a+ ln xb1+ln xc2

Ln y = ln a+ b ln x1+ c ln x2

Ln y = y'

Ln a = a'

Ln x1= x1'

ln x2 = x2'

y' = a'+bx1'+cx2'

a' = 2 b= 3 c=4

a = e2

a=ea2 exp(2)

y= e2 * x13*x24

Model wykładniczy :

yi= b0*eb1*x1i+b2*x2i+...+Bk* xki

Ln yi= ln b0+ b1*x1i+b2*x2i+…+Bk*xki

y'i = lnyi; b'0= ln b0

0x08 graphic
0x01 graphic

Y= a* ebx1+cx2

Ln y= lna+ lnebx1+cx2

Lny= lna + (bx1+cx2) lne

Lne= 1

y'= a'+bx1+cx2

a'=3 b=2 c=0,5

a= ea'= e3

y= e3 * e 2x1+ 0,5 x2

Model logarytmiczny

yi= b0+b1*lnx1i+b2*lnx2i+…+bk*lnxki

Linearyzacja:

X'ji= ln xji

0x08 graphic
0x01 graphic

Ściśle nieliniowe modele regresywne- przykład:

ŷi= b0*x1i+b1*eb2+x2i

SSE= Σni=1 (yii)2= Σni=1(yi-b0*x1i-b1*eb2*x2i)2

Min b0,b1,b2 SSE

δSSE/δb0=0; δSSE/δb1=0; δSSEn/δb2=0

1

0x01 graphic

0x01 graphic

0x01 graphic

0x01 graphic

0x01 graphic

0x01 graphic

Całkowita suma kwadratów

Syy

Suma kwadratów błędów SSE

Suma kwadratów odchyleń regresywnych SSR

0x01 graphic

0x01 graphic

0x01 graphic

0x01 graphic

0x01 graphic

y=1,5092x+74,404

y= -0,4936x2+7,9095x+59,317

0x01 graphic

0x01 graphic