1. CO TO JEST MODEL
EKONOM
ETRYCZNY?
Model ekonometryczny, jest uproszczoną wizją rzeczywistości. Przedstawia on zależności zachodzące miedzy zjawiskiem objaśnianym i najważniejszymi zjawiskami objaśniającymi za pomocą równania regresji. Celem budowy takiego modelu jest zebranie danych, ich selekcja pod katem istotności dla badanego zjawiska . Model możemy zapisać w następującej postaci
Y=([x, xj , Xn )+c - Gdzie f oznacza postać
analityczną funkcji . y oznacza zmienną objaśnianą, x
zmienne objaśniające, c składnik losowy.
Równanie to ma postać matematyczną, w której
pojedyncza zmienna, zwana zmienną objaśnianą
przedstawiona jest jako funkcja deterministyczna
zmiennych, zwanych zmiennymi objaśniającymi.
Równanie takie dopełnione jest tak zwanym
zaburzeniem losowym ( błędem losowym).
Klasyfikacja modeli ekonometrycznych:
a).ze wzglądu na liczbę, równań:
-jednorównaniowe, wielorównaniowe
b).ze względu na postać analityczną zależności modelu:
-.liniowe, nieliniowe
c).ze względu na role czynnika czasu w równaniach
modelu
- statyczne, dynamiczne
2. PROSZĘ
PRZEDSTAWIĆ METODOLOGIĘ
EKONOMETRII.
Metodologia ekonometrii - sposób postępowania w
trakcie modelowania ekonometrycznego.
ELEMENTY:
Metodologia ekonometrii to sposób postępowania przy
formułowaniu modelu ekonometrycznego.
Następujące kroki:
1. Ustalenie
teorii ekonomicznej lub zbioru hipotez,
które
model ekonomiczny ma potwierdzić lub odrzucić.
Stawiamy
hipotezy o tym, czy w konkretnych
warunkach
ekonomicznych nadal funkcjonuje teoria w
swojej
niezmienionej postaci, czy może dotąd
rozpoznane
czynniki, w świetle postawionych hipotez.
zaczynają
wywierać silniejszy lub słabszy wpływ niż
poprzednio,
a może ujawniają swoje działanie nowe,
nieznane
dotąd w teorii mechanizmy, które modyfikują
istniejącą
dotąd wizję rzeczywistości.
2. Specyfikacja matematyczna modelu
ekonometrycznego
-sformułowanie matematyczne,
które
powiąże zmienne objaśniane ze zmiennymi
objaśniającymi
-wpływ liniowy (np. zmiana o jednostkę),
- wipek
logarytmiczny ( na każdy % zmiany zmiennej
objaśniającej
zmienna objaśniana reaguje o
określony%)
3.Specyfikacja stochastyczna (losowa) określa jak w tej realizacji matematycznej należy uwzględnić zaburzenie losowe- tzn. czy jest dodatnie (addytywne) czy mnożnikowe.
4. Określenie zbioru danych statystycznych. Każdy model oparty jest na jakichś danych statystycznych które można sklasyfikować na 3 grupy:
- dane
przekrojowe - różne jednostki są obserwowane
w
tym samym przedziale czasu, momencie (np. w
danym
miesiącu)
- szeregi
czasowe - stany jakiegoś zjawiska w
kolejnych
jednostkach czasu (w kolejnych latach,
kwartałach,
miesiącach),
rozróżnienie tych dwóch kategorii jest ważne do budowania modelu ekonometrycznego
rt. „ f,$tymaCja (obcowanie) modelu
ekonometrycznego. Ustalamy jaki jest wpływ każdej ze zm,ennych na zmienną objaśnianą, jaki jest łączny
ob£ianaTnnyCh *>*»»*** na zmienną objaśnianą, czy jest istotny, czy nie
n5E°2£; '?*/-*ustollć- cz>modei nie
TSrryC W3,d: *WWcych poprawek, to : ' Pr0CCdur P^lWych odpowiedzieć na pytania
•S 'SSĘ?* MŹ °dra,CiĆ P°S,awion* hiP°,ez«
:
wraz z upływem czasu, e
we wszystkich grupach społ.-
-.czy
są jednakow,
s^,cP;uTeSą°SnTaC°Wane
* rÓWnanlU
"W»
« qr
ulegają zmianie wraz z unłvw..m c™»
ekonomicznych,
-jakie są szczegółowe cech oszacowanego przez nas
modelu
7.Predykcja albo prognozowanie i symulacja - móc
odpowiedzieć na pytanie: jak interesujące nas zjawisko
zachowa się w przyszłości, co można przewidywać na
przyszłość np. jaki będzie PKB w roku następnym jak
ustalimy jego wartość oczekiwaną z jakim błędem- czy
liczba ta jest wiarygodna czy nie (model predykcji
pozwala wnioskować w przyszłości)
3. PROSZĘ WYMIENIĆ I PRZEDYSKUTOWAĆ ZAŁOŻENIA KLASYCZNEGO MODELU REGRESJI LINIOWEJ.
Klasyczny model regresji liniowej opiera się na sześciu
założeniach:
1.Za łożenie o generowaniu obserwacji na zmiennej
objaśnianej. Mówi ona o tym , że i-ta obserwacja na
zmiennej y jest sumą iloczynów parametrów p
przemnożonych przez i-te obserwacje z dodatkiem
zaburzenia losowego czyli yi=pi
y=Xb+e (zapis macierzowy) dla i-tej obserwacji, gdzie
i=U,...4i:
yi=b,+b.xii+b)X3i+...+bkXkr+ei xu bk. każda
zmienna objaśniająca daje zmiennej objaśnianej efekt,
który jest wartością tej zmiennej, np. zmienną
objaśnianą są płace, objaśniającą staż pracy (xh liczba
lat stażu) b\ ustala jaki jest wpływ stażu na dochód + e .
Parametry są w pierwszej potędze i to jest dowód na to,
że jest to model liniowy.
X jest stałe w powtarzalnych próbach, jest to założenie sztuczne, ale wygodne dla obliczeń.
Rząd macierzy X jest równy liczbie szacowanych parametrów K, a liczba obserwacji n jest większa od liczby szacowanych parametrów K a więc r(X)=K<n. W równaniu regresji są tylko takie zmienne które wnoszą do równania regresji własną informację a nie powtarzają informacji wnoszonych przez inne już istniejące zmienne.
Wektor zaburzeń losowych ma warunkową wartość oczekiwaną przy danej macierzy X równą wektorowi zerowemu E(e)=0. Oznacza to, że zmienne losowe się znoszą i wartością oczekiwaną jest 0.
zaburzenia losowe są sferyczne
var(e)=E
| E-E(e) || EE(e) ]'-E(ee' )| = s!I,gdzie
I
oznacza macierz jednostkową. Warunkowa macierz
wariancji
- kowariancji jest równa bezwarunkowej
macierzy
wariancji kowariancji.
Wariancje
kolejnych zaburzeń (elementy stanowiące
diagonalną
macierzy) są takie same dla wszystkich
obserwacji
i równe s!,
gdzie sJ
jest dodatnią stałą ,
elementy
pozadiagonalne, które są kowariancjami
zaburzeń
dla różnych obserwacji są równe 0. Równość
wariancji
zaburzeń ei nazywany homoscedastycznością
(jednorodność).
Jeśli wariancje ei zmieniają się wraz z
numerem
obserwacji zachodzi heteroscedastyczność.
Przypadek
zerowych kowariancji dla różnych zaburzeń
losowych
e i i e j nazywamy brakiem autokorelacji
zaburzeń
E (e i e j ) = 0 i ;£ j , jeśli dla różnych
obserwacji
ich kowariancja jest różna od zera to taki
przypadek
nazywamy autokorelacją E (e, e f)
# 0 i £ j.
6Zaburzenia
losowe mają n-wymiarowy rozkład
normalny
e—N(o,sII) rozkład
normalny
(dwuparametryczny) zależny od średniej i wartości, w postaci wieloparametrowej zależny od wektora średnich (nie są zera) i od macierzy wariancji kowariancji.
4.JAKĄ ROLĘ SPEŁNIA SKŁADNIK LOSOWY W KLASYCZNYM MODELU REGRESJI LINIOWEJ?
Składnik losowy reprezentuje losowe zakłócenia funkcyjnego powiązania między wartościami zmiennej zależnej a wartościami zmiennej niezależnej. Składnik ten wyraża wpływ wszystkich czynników, które obok X mogą wpływać na zmienną objaśnianą Y. Jest on związany z brakiem pełnego dopasowania analitycznej postaci funkcji regresji do rzeczywistego powiązania między analizowanymi zmiennymi. Składnik losowy pozwala obliczyć dokładność szacunku parametrów liniowej funkcji regresji.
Y= bo+blxI+e ,- e Zaburzenie losowe (błąd losowy) jego celem jest przedstawienie sumarycznego
oddziaływania na zmienną objaśnianą wszystkich innych czynników, pominiętych w równaniu, ze względu na ich pomijalne znaczenie dla opisu badanego związku. Błąd ten może wynikać z nieadekwatności teorii ekonomii, lub niepoprawności postawionych hipotez, które ma weryfikować model. Zaburzenie losowe zawiera także błędy pomiaru zmiennych wynikające z niedokładności mierzenia wartości, jakie przyjmują zmienne, jak również z uchybień zawinionych zarówno przez ankieterów i osoby gromadzące dane jak i udzielające odpowiedzi na pytania ankieterów. Wreszcie w zaburzeniu losowym zawarte są wpływy indywidualnych cech jednostek, które obok wyróżnionych zmiennych objaśniających mogą oddziaływać na zmienną objaśnianą. Dodanie do równania regresji składnika losowego powoduje, że równanie regresji ma charakter stochastyczny (losowy)
5. JAKIE
SĄ RODZAJE DANYCH
STATYSTYCZNYCH?
Dane szeregów czasowych, w których kolejne obserwacje rejestrują badane zjawisko ekonomiczne w następujących po sobie przedziałach czasu. Dla przykładu takimi danymi mogą być PKB, zatrudnienie, stopa inflacji, zestawiane jako dane roczne, kwartalne lub miesięczne) a nawet godzinowe - kursy walut).Są one z reguły danymi zagregowanymi opisującymi przeciętną wartość badanego zjawiska z określonego przedziału czasu.
Dane przekrojowe pojawiają się jako obserwacje wielu obiektów dokonywane w tej samej jednostce czasu. Np. obserwacja budżetów gospodarstw domowych. GUS obserwuje je np. na terenie całego kraju i dostarcza informacji o dochodach, wydatkach, o składzie demograficznym rodzin, o ich mieszkaniu. Dane te są szczegółowe i uwzględniają różnorodność badanych gospodarstw domowych. Dane panelowe łączą cechy danych szeregów czasowych i danych przekrojowych np. dane PKB dla poszczególnego kraju są pojedynczym szeregiem czasowym, ale zestawienie PKB dla np. krajów OECED tworzy dane połączone. Typowymi danymi panelowymi są panele gosp. domowych. Dla Polski zestawiono panele z lat 1993-97 i 97-2000 zawierające' około 3 tys. tych samych gospodarstw domowych badanych przez okresy czteroletnie. W Luksemburgu znajduje się baza danych panelowych gospodarstw domowych dla wszystkich krajów Unii i stanów Zjednoczonych. Dane statystyczne pełnią ważne role w modelowaniu ekonometrycznym. One potwierdzają poprawność specyfikacji funkcji regresji i poprawność postawionych hipotez.
6. NA
CZYM POLEGA LINIOWOŚĆ W
KLASYCZNYM
MODELU REGRESJI
LINIOWEJ?
Klasyczny model regresji jest modelem liniowym względem parametrów, a nie względem zmiennych objaśniających. Regresory w równaniu regresji mogą być dowolnymi funkcjami zmiennych objaśniających. Dla zmiennej wieku wprowadzić można do równania regresji dwa regresory: wiek i wiek w kwadracie. Model jest linowy względem parametrów jeśli każda z pochodnych cząstkowych zmiennej objaśnianej względem parametrów jest niezależna od wszystkich parametrów modelu. Liniowość względem parametrów to jedno z założeń modelu regresji liniowej. Liniowość jest konieczna względem parametrów a nie wobec zmiennych objaśniających - parametry równania muszą być w pierwszej potędze np. Y=po + pix,+, ,+pk+c i= 1.2,3, n
Przykład dla modelu regresji prostej (z jedna zmienną objaśniającą). Takim modelem jest Yi= p0+ PiX,-£i Interpretacją parametru p, = bezwzgedna zmienna \7 bezwzględna zmienna X.
Pi mierzy zmienną y w zależności od zmiennej JUllÓwj o ile jednostek zmieni się y, gdy x zmieni się o jedną jednostkę przy pozostałych zmiennych w modelu niezmienionych. Warunek ceteris paribus. Np. funkcja popytu na kawę w zależności od dochodu.
Parametr Pi będzie miał interpretację ile kg kawy spożywa się z każdej 1 zl dochodu? Jeżeli funkcja jest liniowa względem parametru, a jednocześnie liniowa względem zmiennej to obydwie zmienne są w jednostkach relacji pc. wskazuje o ile jednostek wzrasta Y gdy X wzrasta o jedną jednostkę. W funkcji podwójnie logarytmicznej ten sam parametr ma inna interpretację. Wskazuje o ile % zmieni się Y gdy X zmieni się o 1 %.
7. JAKĄ
INTERPRETACJĘ MAJĄ
WSPÓŁCZYNNIKI
REGRESJI W
MODELU
LINIOWYM
WZGLĘDEM ZMIENNYCH
OBJAŚNIAJĄCYCH?
Model liniowy ma postać yi - bi+b!X!|...+bkxkl+
_.+bkxld + bKXKi-ei i-ii_.
E (y, / x' i) = b,+b2x,h„+bkxi,,+ ...+bkxk, + bK xa
-e i-u_.
ćE( V|/x'l).bic
te*
BK mierzy oczekiwaną zmianę yj_ jako efekt zmiany xti
o jednostkę, gdy inne zmienne w modelu pozostają niezmienione. Warunek ten zwany jest ceteris paribus. w modelu regresji wielorakiej pojedynczy współczynnik ma jedynie sensowną interpretacje ekonomiczną przy warunku ceteribus paribus pi mierzy zmienną y w zależności od zmiennej x, mówi o ile jednostek zmieni się y, gdy x zmieni się o jedną jednostkę przy pozostałych zmiennych w modelu niezmienionych.
Warunek ceteris paribus. Np. funkcja popytu na kawę w zależności od dochodu . Parametr pi będzie miał interpretację ile kg kawy spożywa się z każdej 1 z! dochodu, (krańcowy efekt)
8. JAKĄ INTERPRETACJĘ MAJA
WSPÓŁCZYNNIKI
REGRESJI W MODELU
PODWÓJNIE
LOGARYTMICZNYM.
W modelu podwójnie logarytmicznym wyznaczamy elastyczność. Elastyczność odpowiada na pytanie: o ile procent zmieni się zmienna objaśniana, gdy zmienna objaśniająca zmieni się o jeden procent. Elastyczności mogą być wyznaczane bezpośrednio z modelu, w którym zarówno zmienna objaśniana jak i zmienne objaśniające są logarytmami zmiennych pierwotnych. M odel taki możemy zapisać: ln.v, =r, + r2!n.v2,+---H-ln/AA-t, + v,, ( = 1.2.-, gdzie dla odróżnienia parametry oznaczyliśmy symbolami ~ , zaburzenie losowe symbolem 3, a
indeks * zastąpiliśmy przez * dla podkreślenia, że takie modele są wyznaczane na danych szeregów czasowych. Logarytmowanie jest wygodną transformacją, ze względu na fakt, że logarytm ilorazu jest w przybliżeniu równy relatywnej (względnej) znuanie zmiennej, co zapisujemy:
toJ'i-lnj'M = ln[ —]»
9.
PROSZĘ SFORMUŁOWAĆ TWIERDZENIE
GAUSSA - MARKOWA I JE
ZINTERPRETOWAĆ.
W klasycznym modelu regresji liniowej najlepszym liniowym i nieobciążonym estymatorem wektora
B
parametrów r jest b wyznaczone za pomocą MNK: , X' ° macierzy wariancji - kowariancji
■ ■ ■ °" 'XX)' • Dyskusja twierdzenia: Estymator b jest estymatorem liniowym, gdyż jest liniową funkcją zmiennej losowej y. 0 jest estymatorem nieobciążonym. tzn. E(b)=
^.Więc b-W-x)'X'."P'[xx)'X' Więc W'ĄxxV Xc)-{rxy xf>. b w powtarzalnych próbach, przy danej macierzy X. jest sreon.o równy nieznanemu wektorowi parametrów
Ze «li HdChy'a S'K Wi(;C od wielk°ści. którą estymuje. Ze wzglądu na mdywidualne zaburzenia losowe różne
* różnych próbach, oszacowane b różni się od P .
jednak średnio różnice te się znoszą. Jest więc estymatorem nieobciążonym.
Estymator b jest estymatorem najlepszym, tzn. że ma minimalną macierz wariancji-kowariancji wynoszącą
Dopełnieniem własności estymatorów MNK jest własność zgodności, co oznacza, że dla wzrastającej wielkości próby estymator b jest zbieżny do
prawdziwych wartości ^* w populacji.
10.CO TO JEST BŁĄD STANDARDOWY ESTYMATORA? PROSZĘ PODAĆ WZÓR DLA PRZYPADKU REGRESJI WIELORAKIEJ I GO ZINTERPRETOWAĆ.
Błąd standardowy estymatora ' *"'- to pierwiastek kwadratowy z wariancji z próby dla bk
Błędy standardowe umieszczamy w równaniu regresji w nawiasach pod wyznaczonymi ocenami.
11. CO TO JEST PRZEDZIAŁ UFNOŚCI DLA
NIEZNANEGO PARAMETRU A?
Przedział ufności - przedział, w którym znajduje się
nieznana wartość parametru^' z
prawdopodobieństwem 1- .
Wyznaczamy go wg wzoru:
Wh - '-wA * A *A+'.-wA>=1 _ a
Wielkości ^-',-t,n.CTb< ^
n-k:ai2 ft, nazywamy odpowiednio lewostronną i prawostronną granicą przedziału ufności. Jeśli uprzednio wyznaczyliśmy przedział ufności to wyniki tych obliczeń możemy wykorzystać dla
weryfikacji °' "* - . Jeśli przedział ufności nie zawiera liczby 0, to odrzucamy hipotezę zerową.
12. CO
TO SĄ HIPOTEZY PROSTE I JAK JE
WERYFIKUJEMY
W KLASYCZNYM MODELU
REGRESJI
LINIOWEJ?
Weryfikacja prostych hipotez
Hipotezy proste stawiamy względem jednego
parametru. Rozkład t - Studenta jest wykorzystywany dla weryfikacji prostych hipotez i wyznaczania przedziałów ufności. Idea testowania prostych hipotez jest następująca.
LJ
Stawiamy hipotezą zerową « i określamy jaką wartość przyjmuje ^k ■ Dla przykładu postawmy
hipotezę, że parametr "* przyjmuje określoną wartość
"* , a więc •" "ł ~ ^' ■ Jeśli zerowa hipoteza nie jest prawdziwa to przyjmujemy hipotezę alternatywną
™l-Pk * Pk . Jeśli "0 jest prawdziwa, to
'n-K :
statystyka testująca ' ma rozkład
t - Studenta 0 n ~ * stopniach swobody. Postępowanie testowania jest następujące: Odrzucamy
zerową hipotezę jeśli przy tej hipotezie n-K „^ ^ dużą wartość, która jest bardzo mało prawdopodobna. Mówiąc dokładniej odrzucamy hipotezę zerową, jeśli prawdopodobieństwo zaobserwowania wartości
I "-*l lub większej jest mniejsze od tak zwanego poziomu istotności Z przyjmowanego z reguły jako
P\t,->:\>'„->„/■,}=
a
0,05.
A więc ■ ■
"'
gdzie
tzw.
wartość krytyczni "~ *° wyznaczamy z tablic rozkładu t - Studenta <jia fanej liczby stopni
swobody "— **■ i db postulowanego poziomu istotności D.
A
Powyższy
test jest testem dwustronnym gdyż hipoteza alternatywna Hi
dopuszcza, aby wartości parametru
była większa lub mniejsza od
13. NA CZY POLEGA STATYSTYCZNA ISTOTNOŚĆ ZMIENNEJ OBJAŚNIAJĄCEJ?
Wśród hipotez dwustronnych powszechnie stosowana
wobec
jest
hipoteza zerowa postaci
■ 0
Ą:A
hipotezy alternatywnej 1 t*k .Odrzucenie Ho
oznacza, że parametr stojący przy k-tej zmiennej
objaśniającej jest statystycznie * ^, a więc, że k-ta zmienna jest statystycznie istotna - wyjaśnia zachowanie się zmiennej objaśnianej.
. . . , W > 2 , .
Reguła kciuka '' - ułatwia sprawdzenie
statystycznej istotności zmiennej objaśniającej. Jeśli
liczba stopni swobody wynosi 20 lub więcej i jeśli
poziom
istotności —
' to °^ł
~~ odrzucamy,
jeśli wartość statystyki
Jeśli t wyliczone jest znacznie większe od t tablicowego, to odrzucimy Hu i przyjmujemy H, * p — value:
„ ^-vaw<o,o5 t0 H,A =0 odmicamy
H,„2. P~^'"e> 0fi5 ,0 H„A =0 akceptujemy Ho.
14. PROSZĘ
PRZEDSTAWIĆ TEST ISTOTNOŚCI
RÓWNANIA
REGRESJI.
Pytanie czy równanie regresji jest istotne, jest równoznaczne z pytaniem czy łączne współczynniki regresji są równe 0 z wyłączenien stałej. Stwiamy
H 8
H,:P=0
wobec ': " 4
0.
Przy takiej hipotezie.
wyjaśniona
suma kwadratów ESS powinna być mała. a
RSS
winna być duża. Konstruujemy
ESSl(K-\)
statystykę RSS/(n-K)
mająca rozkład Fishera o K-1 i
n-K stopniach swobody. Obie zmienne są od siebie
niezależne i mają rozkład X2. Jeżeli korzystając ze
współczynników determinacji R2 licznik i mianownik
dzielimy przez TSS i otrzymujemy
jm _ ESSl(K-l) _ R:/{K-1)
-' RSS/[n-K)~(l-R2)/{n-K) Jeś!i wiąc
wyUczone F jest większe od F tablicowego to hipotezę odrzucamy i stwierdzamy, że regresja jest statystycznie istotna.
15. PROSZĘ
PRZEDSTAWIĆ WZÓR
DEKOMPOZYCJI
ZMIENNOŚCI CAŁKOWITEJ
Y
NA ZMIENNOŚĆ WYJAŚNIONĄ I
NIEWYJAŚNIONĄ.
Zmienność całkowitą zmiennej objaśnianej "; oznaczaną w literaturze angielskim skrótem TSS.' mierzymy za pomocą sumy kwadratów odchyleń obserwacji zmiennej objaśnianej od średniej:
rss = X(y,-y):
'•1
Jeśli model zawiera stałą, to całkowitą sumę kwadratów możemy zdekomponować na dwa składniki, na wyjaśnioną (równaniem regresji) sumę kwadratów. oznaczaną przez ESS (Explained Sum of Sąuares)
£SS = £(y,-F)2
i resztową (niewyjaśnioną) sumę kwadratów, oznaczaną przez RSS
Vi = y< l Odejmując od obydwu stron średnią-^ mamy
po
y.=yl*e,
= (yl-y)=(yl-y)+e^
a
podniesieniu
do kwadratu i sumowaniu
fTi «i '-i '■'
wiemy, że l=1 . '"'
Wzór dekompozycyjny ma następującą
ś>,-f)j=Ż(jw>j+£>.j
postać: '■' '■' '•' lub inaczej
TSS = ESS+RSS.
W oparciu o tę dekompozycję zdefiniowany jest współczynnik determinacji ■
«--
TSS
Jh-W
calkowBumttuadraiów
TSS r
16. PROSZĘ WYPROWADZIĆ WZORY NA
WSPÓŁCZYNNIK DETERMINACJI I
SKORYGOWANY WSPÓŁCZYNNIK
DETERMINACJI ORAZ PODAĆ ICH
INTERPRETACJE.
Współczynnik determinacji oznaczany przez R:
określa jaka część zmienności zmiennej objaśnianej ^ jest wyjaśniona przez zmienność wszystkich zmiennych objaśniających. Zmienność całkowita, zmiennej objaśnianej y, (TSS), mierzymy za pomocą sumy kwadratów odchyleń obserwacji zmiennej objaśnianej
TSS =
fi(y,.-yf
od
średniej: <-'
Jeśli model zawiera stałą, to całkowitą TSS dzielimy na 2 składniki:- wyjaśnioną sumę kwadratów
ess = %&-?)
i resztową sumę kwadratów
R, _ESS RSS
TSS
'-' i dalej TSS TSS . R>
przyjmuje wartości z przedziału między 0 i 1. Jeśli wynosi 1 to funkcja regresji w 100% wyjaśnia zmienność y, a jeśli 0 to model regresji w ogóle nie wyjaśnia zmienności y. Jeśli na przykład R1 wynosi 0,6 to możemy powiedzieć, że 60% zmienności zmiennej objaśnianej y jest wyjaśnione zmiennością wszystkich zmiennych objaśniających łącznie, a 40% zmienności jest niewyjaśnione (jest zmiennością resztową).
Skorygowany współczynnik determinacji R1 współczynnik ten jest skorygowany ze względu na tak zwaną liczbę stopni swobody, to znaczy ze względu na różnicę między liczbą obserwacji n a liczbą zmiennych
objaśniających K. Współczynnik ^zdefiniowany jest następująco:
Ś«r'(n-AT)
ŻP=1-
^"2
pŁ2«Ui5Ł5Ł —■-
17. PROSZĘ
OMÓWIĆ WPROWADZANIE DO
RÓWNANIA
REGRESJI 0-1 ZMIENNYCH
OBJAŚNIAJĄCYCH.
Wprowadza się je gdy mamy do czynienia ze zmiennymi jakościowymi zwanymi kategoriami, których wartości nie mogą być przedstawwiane za pomocą liczb rzeczywistych np.: wykształcenie, płeć, poziom wykształcenia, region zamieszkania itp. Aby do modelu dodać zmienną jakościową o dwóch kategoriach musimy z niej stworzyć kat. 0-1. Aby doła.czyć do modelu cechy jakościowej o m kategoriach, należy wprowadzić do równania regresji jedynie m-1 zmiennych 0-1, pomijając dowolną z kategorii. Tę pominiętą kategorię, której zmienna 0-1 przyjmuje wartość 0 nazywamy kategorią bazową albo referencyjną. Oszacowanie parametru dla zmiennej 0-1 interpretujemy względem jej kategorii referencyjnej.
18. CO
TO JEST WSPÓŁLINIOWOŚĆ? JAKIE
SĄ
KONSEKWENCJE WSPÓŁLINIOWOŚCI?
JAK
MOŻNA JĄ PRZEZWYCIĘŻYĆ?
Współliniowość jest cechą próby a nie populacji, w której zmienne są ze sobą zbyt silnie powiązane liniowo. Oznacza ona dokładną lub niemal dokładną liniową zależność (korelację) miedzy regresorami, co utrudnia a czasami wręcz uniemożliwia określenie wpływu każdej ze zmiennych objaśniających na zmienną objaśnianą. Współliniowość - wywiera negatywny wpływ na oszacowanie modelu, jest zjawiskiem niebezpiecznym. Gdy pojawia się współliniowość to estymatory są nadal BLUE. ale mają zbyt duże błędy standardowe, co zmniejsza precyzję oszacowania a również regresji charakteryzuje się niską precyzją oszacowania. Symptomy współliniowości:
1)Współczynniki mają duże błędy standardowe i w związku z tym znaczna liczba regresorów jest nieistotna, nawet wtedy, gdy łącznie są one istotne, a
R jest wysokie.
2)Współczynniki mogą mieć niewłaściwe znaki i
niedopuszczalną wielkość.
3)Małe zmiany w zbiorze statystycznym (np.: dodanie
jednej lub kilku nowych obserwacji) mogą prowadzić
do znacznych zmian oszacowań współczynników
regTesji przy niektórych zmiennych.
Przezwyciężyć ją można przez:
Opuszczenie zmiennej- powoduje, że teoria ekonomii
dopasowuje się do złych danych.
Można wprowadzić dodatkowe regresory, kwadraty
zmiennych pierwotnych.
Można rozszerzyć zbiór pierwotnych obserwacji o
dodatkowe obserwacje.
Zastępowanie brakujących informacji średnią
arytmetyczną lub średnią ruchomą (szeregi czasowe)
prow-adzi do obciążenia estymatorów.
Wykrywanie obserwacji znaczących: nietypowych
wartości zmiennej objaśnianej i obserwacji
dźwigniowych dla zmiennych objaśniających.
Obserwacje nietypowe charakteryzuja.ee się
. e, = V- — v.
nieoczekiwanie dużymi resztami ' J' *-'. Obserwacje dźwigniowe - znacznie oddalone od środka zmienności zmiennych objaśniających, co wpływa na ocenę parametrów przy małej wielkości reszty. Brak w obserwacjach dźwigniowych ostatniej obserwacji zmienia znacząco równanie regresji można przez to uzyskać inny model, ale nie jest on zgodny z danymi.
19. NA CZY POLEGA UOGÓLNIONA METODA NAJMNIEJSZYCH KWADRATÓW????
Uogólniona metoda najmniejszych kwadratów zwana jest również od nazwiska jej autora metodą Aikena. Uogólnioną Metodę Najmniejszych kwadratów używa się do modelu regresji liniowej z niesferycznym składnikiem losowym. Stosuje się w sytuacji, gdy macierz wariancji-kowariancji lna postać Var(Ą\) = £(£f'|X) = Var(E) = E{es') = <r i Q Estymator UMNK otrzymamy gdy estymator MNK b = (X'X) X'y ustąpimy y przez Py, x przez PX oraz s przez "£, który dla odróżnienia oznaczamy
przez b :
b = [(PX)'(PX)]-,(PX)'Py = (X'/2-'X)-,X'/3r,y.
Reszty oznaczamy wUMNK e = y- Xb
e'e
.Wtedy
podobnie do wariancji resztowej w MNK"
- M"ł
CT" =
n — K. Otrzymamy n—K
20. PROSZĘ
POKAZAĆ JAK UOGÓLNIONĄ
METODĘ
NAJMNIEJSZYCH KWADRATÓW
MOŻNA
SPROWADZIĆ DO KLASYCZNEJ
METODY
NAJMNIEJSZYCH KWADRATÓW.
Przyjmując założenie, że
Var(ĄX) = E(eć\X) = Var(E) = E{eć) = o^I n
Macierz " jest dodatnio określona (jako macierz wariancji-kowariancji zaburzenia losowego ), co oznacza że ma dodatni wyznacznik i jest określona, co oznacza że jest macierzą odwracalną. Z algebry macierzy wiadomo, że dla macierzy dodatnio określonej istnieje taka macież dolnotrójkontna P. że:
PT-/y oraz P*P' = I.Ponieważmacierz
« jest znana to możemy wyznaczyć macierz PJeżeli przemnożymy lewostronnie równanie regresji
y - V+1 przez P to otrzymamy * = *W+ P*. Gdzie wektor zaburzeń spemia założenie klasycznego modelu regresji, gdyż wariancja tego zaburzenia jest
równa var<P£> = PvaK«)P' = <r:P/2P' = <rl
Oznacza to, że model UMNK sprowadziliśmy po przez przemnożenie przez macierz P do KMNK. Estymator MNK
21. PROSZĘ PRZEDSTAWIĆ TEST
GOLDFELDA-QUANDTA.
Test GoldfeIda-Quandta jest stosowany w przypadkach, gdy znamyzmienną odpowiedzialną za wzrost wariancji zaburzenia losowego. Użycie tego testu sprowadza się do wykonania następujących kroków: DPrzenumerowujemy obserwacje według rosnących wartości, cechy, odpowiedzialnej za wzrost wariancji (np. według rosnącego dochodu). 2)Opuszczamy c środkowych obserwacji, gdzie c
c*"/£
dobrane jest tak, że ' 3; oraz " - C jest parzyste. (Opuszczenie c środkowych obserwacji zwiększa moc testu, a więc zdolność testu do wykrvcia homoscedastyczności, gdy ona rzeczywiście występuje).
3) Ozie Urny próbę n-c na 2 podpróby n-c-2 obserwacji 3)SZacujemy dwa równania regresji dla pierwszej i drugiej części próby i wyznaczamy dwie wariancje resztowe, oznaczone odpowiednio subskryptami 1 i 2
-2 e,'e,
a, =-
dla pierwszej i drugiej części próby:
-2 e;e,
a-,
= -
--
n-c
2
J-f
■ - _
2
4)Stawiamy
hipotezę zerową 0"
2 1
(występuje homoscedastyczność) wobec hipotezy
(występuje
alternatywnej
heteroscedastyczność).
testową
statystykę
5
)Konstruujemy
F.Z
2 ', gdzie liczby przy statystyce F są liczbami stopni swobody licznika i mianownika
dla tej statystyki, która ma rozkład t" Fishera-Snedecora.
.^rr
6)Weryfikujemy hipoteza zerową: jeśli F M> >wm
KT*'>Ftmm f
( T"* (gdzie *Wa"« oznacza
wartość tablicową), to odrzucamy hipotezą zerową o homoscedastyczności i przyjmujemy hipotezę alternatywną o heteroscedastyczności. Korzystając z
—-K
ST~K
wartości p dla wyliczonej statystyki
, . . . , ,- p<0,05
możemy również stwierdzić, ze jeśli r , to
odrzucamy hipotezę, zerową o homoscedastyczności i
przyjmujemy hipotezę alternatywną o
heteroscedastyczności. Badania symulacyjne nad tym
testem wskazują, że jest on czuty na spełnienie
założenia o normalności zaburzeń.
22. PROSZĘ PRZEDSTAWIĆ TEST BREUSCHA-PAGANA.
Oznaczany jest skrótem BP i jest stosowany gdy więcej
niż jedna ze zmiennych objaśniających odpowiada za
wzrost wariancji.
Procedurę testowania testem Breuscha-Pagana można
ująć w kolejnych krokach:
l)Szacujemy za pomocą MNK równanie wyjściowe
y, = A+A*& + • • •+Pkx» + £, ora2
drugie - wyznaczające wariancją zaburzenia losowego: a) = a, + a2zv + ■■■ + am:ml + u,
2
Jeśli a*
■«»—-*.
= °,t
o °7 =
ai
i*
a2=^—
2)Wyznaczamy wariancję resztową "
Zauważmy, że przy liczeniu wariancji resztowej sumę
kwadratów reszt dzielimy nie przez " — "■ , a przez
" . Tak wyznaczona wariancja resztową jest estymatorem metodv największej wiarogodności.
-Ś.
3)Konstruujemy nową zmienną a . Jest to
kwadrat i-tej reszty podzielony przez wariancję
resztową.
Szacujemy regresję pomocniczą
5)Z oszacowania równania regresji pomocniczej
Pim et, + a-,z-„ ■ ■ ■ + a z +u-
r, i 3-2/ v-„-m «, wyznaczamy
wyjaśnioną
sumę kwadratów ESS
_
gcj2ie
'"' i
definiujemy statystykę testującą
. Tak zdefiniowana statystyka ma
asymptotyczny rozkład % o m-1 stopniach
swobody, co zapisujemy ~ -^ Xm-\
6)Weryfikujemy " h'ip0te2(.
H0:a2 = a3 = ••• = « =0
m za pomocą
su^styki BP. Jeśli BP > %l-i t0 odrzucamy nmotezę zerową „ homoscedastyczności i Przyjmujemy. że występuje heteroscedastyczność.
WATSRON^^ZED?TA^,Ć TEST DURBINA-»YATSONA I CO OMÓWIĆ
MHfaS? ~ WatS°na StOSOWany d0 grywania autokorelacji pierwszego rzędu, a więc autokorelacji
Ł™^'^ zaburzeniami losowJi.
normany sSfcaT* * m°ddu sta,eJ- rozUad
objaśnianeJJJ ^*T• brak °PÓżnień zmiennej
J Srod an«nnych objaśniających.
ETAPY:
Oszacujemy za pomocą MNK równanie regresji i
e-
wyznaczamy reszty ' .
2)Obliczamy statystykę d (większość programów komputerowych wykonuje takie obliczenia rutynowo). 3)Z tablic rozkładu statystyki d dla danej wielkości próby T oraz danej liczby regresorów K znajdujemy
dwie wartości: "« oraz ". gdzie L oznacza (lower - dolną) oraz U (upper - gómą) granicę przedziału, między którymi znajduje się rzeczywista
wartość krytyczna, na ogól podawana dla '
4)Stawiamy 0'P~ (brak autokorelacji) wobec
hipotezy alternatywnej "vP> .
5)Jeśli d<dL I0 odrzucamy H0:P=0 i
przyjmujemy "\'P>®, oznacza to, że występuje dodatnia autokorelacja zaburzeń losowych.
Jeśli Ł — — U > jo test jest nie rozstrzygnięty.
.« d>d,,
Jeśli
,
to przyjmujemy
H0:p
= 0
oznacza to brak dodatniej autokorelacji zaburzeń
losowych.
Niekiedy alternatywną hipotezą jest występowanie
ujemnej autokorelacji. Przy doskonałej ujemnej
autokorelacji wartość statystyki d, jak wynika z
U S« S 4 jest równa 4. Stąd, ze względu na symetrię statystyki d wokół wartości 2 , przy weryfikacji ujemnej autokorelacji za granicę dolną
A-du . . A-d,
możemy przyjmować u i za gomą L .
Test ten ma wiele wad: przedział nie rozstrzygnięcia testu. Test ten ma zdolność wykrywania autokorelacji tylko pierwszego rzędu. Test jest bardzo czuły na założenie normalności zaburzeń losowych.
24. PROSZĘ PRZEDSTAWIĆ TEST Breuscha -
Godfreya.
Oznaczamy skrótem BG jest testem ogólnym ponieważ
może zawierać regresory stochastyczne i wykrywać
autokorelacje wyższych rzędów, zachodzące między
zaburzeniami losowymi.
Idea testu: Niech model z K regresorami ma tradycyjną
postać: y- mp\+fiA*-+fi**a*i.
Załóżmy, że występuje autokorelacja zaburzeń losowych rzędu p. którą przedstawia równanie:
e, = ft*,-l + P2S,-2 + -+ P,S-p + "i
gdzie"
~ A,(°'£T
') tak jak poprzednio. Na przykład
dla
danych kwartalnych p
= 4.
Weryfikujemy hipotezę
"o^A-A-»-p,«0 co 02naczai Że
między zaburzeniami nie zachodzi autokorelacja
żadnego rzędu.
ETAPY:
l)Szacujemy za pomocą MNK wyjściowe równanie
g. regresji y = xP+Ei wyznaczamy reszty ' .
2)Szacujemy równanie regresji pomocniczej, w którym
zmienną objaśnianą są reszty ' z równania, zaś zmiennymi objaśniającymi wszystkie regresory z równania oraz dodatkowo p opóźnionych reszt:
i-V i-2*'" ' t-p . .
r wyznaczonych również z tego
równania. Równanie regresji pomocniczej ma więc
postać:
t, ■ ff, *«,*., ♦ — •<!,.*». */V..i ~P:*,.. * — *p c, *,,
Dla oszacowania regresji pomocniczej , ze względu na opóźnione reszty, tracimy p pierwszych obserwacji, w związku z tym dla oszacowania równania dysponujemy jedynie T-p obserwacjami. Dla regresji pomocniczej wyznaczamy " .
3)Stawiamy hipotezę zerową
H»:p, =*=-= P,=0 wobec hjpotezy
alternatywnej, że nie wszystkie " są jednocześnie ■ 0
4) Dla dużych prób statystyka (T-p) R ma rozkład chi-kwadrat o p stopniach swobody, więc:
(T-p)R2~Asy.X2.
5) Weryfikujemy hipotezę
Ho'-P\ -Pi ="-=Pp =0 za pomocą
statystyki (T-p) R2. Jeśli (T-p)R2> V 2 t0
odrzucamy hipotezę zerową, że między zaburzeniami nie zachodzi autokorelacja żadnego rzędu i przyjmujemy hipotezęalternatywną.
25. CO
TO JEST STANDARDOWY BŁĄD
PROGNOZY
I PRZEDZIAŁ PROGNOZY?
Błąd standardowy określa o ile średnio różni się prognoza od średniej prognozowanej. Wyrażony jest wzorem:
K. = #L = ^P^w^ćr^]^
2 " 2
oznacza nieznaną wariancję, °^ - jej nieobciążony estymator z próby Znając standardowy błąd prognozy możemy wyznaczyć
przedział prognozy dla wartości sT+S
«.*r- -'.*4Ćh. s -"'■'s >■'-•''--<«**.''' - " zakładamy,
że wektor wartości, jakie przyjmują zmienne
objaśniające w okresie prognozowanym jest znany
badaczowi:
XT+S
=
l*» X2.T*S>
X3.T+S>'">
XK.T*S
I
fc.
L J.
Dla
wyznaczenia prognozy znajomość tego wektora jest
niezbędna. Przedział prognozy oznacza
prawdopodobieństwo, że zmienna propgnozowana
znajduje się w pzredziale: przed prognozowaniem i po
proganozowaniu.
26. JAKIE
SĄ SKUTKI POMINIĘCIA W
RÓWNANIU REGRESJI ISTOTNYCH
ZMIENNYCH
OBJAŚNIAJĄCYCH?
Konstruując równanie regresji powinniśmy do niego włączyć wszystkie zmienne objaśniające, które z punktu widzenia teorii ekonomii mogą wyjaśniać zachowanie się zmiennej objaśnianej, a następnie eliminujemy te z nich, które okażą się nieistotne, a teoria sugeruje, że mają one drugorzędne znaczenie. Pominięcie w równaniu regresji istotnych zmiennych objaśniających powoduje, że estymatory MNK dla istniejących zmiennych są obciążone. -Do równania powinniśmy wstawiać wszystkie zmienne nawet gdyby były nie istotne. Usunięcie zmiennych świadczy, że zbiór danych do oszacowania modelu nie potwierdza teorii ekonomii.
27. JAKIE
SĄ EFEKTY DODANIA W
RÓWNANIU
REGRESJI NIEISTOTNYCH
ZMIENNYCH
OBJAŚNIAJĄCYCH?
Gdy do równania regresji wstawiamy regresory nieistotne, wtedy powstanie nam drugie równanie , które jest niepotrzebnie rozszerzone o nieistotny zbiór regresorów. Za pomocą testu t —Studenta weryfikujemy hipotezy o istotności zmiennych. Estymatory są wtedy nieobciążone, mają nieco większe błędy standardowe, co powoduje, że są one mniej efektywne od tych dla równania z pominięciem zmiennych nieistotnych. Większa liczba regresorów, nawet nieistotnych, podwyższa
ii
R\
współczynnik
determinacji R
,
należy więc stosować przy
małej liczbie stopni swobody, skorygowany
współczynnik detenninacj
28. PROSZĘ PRZEDSTAWIĆ TEST \VHITE'A I
GOOMÓWIĆ.
Test White'a stosujemy, gdy nie wiemy jaka zmienna
wywołuje heteroscedastyczność. Stosujemy wtedy gdy
nie potrafimy określić" zmiennych odpowiedzialnych za
wzrost wariancji. Test ten wykrywa również błędną
specyfikacje, równania, wskazuje, że aktualnie
zastosowana postać równania regresji jest niepoprawna.
Przedstawię testu White'a na przykładzie regresji z
dwiema zmiennymi objaśniającymi. Idea tej procedury
sprowadza się do uzależnienia wariancji zaburzenia
losowego od regresorów, ich kwadratów i iloczynów.
Procedura testowaniaprzebiega w następujących
krokach:
1) Szacujemy za pomocą MNK równanie regresji
yt = P\ + Pixv *PAi + si i wyznaczamy reszty
2)Wyznaczamy regresją pomocniczą:
ef = ff, + ff2 *„ + a A, + a44 + asxl + a^xvx)l + u, _
w której regresorami są zmienne objaśniające równania wyjściowego, ich kwadraty i iloczyny.
3(Wyznaczamy « dla regresji pomocniczej.
Statystyka "x^"ma asymptotyczny rozkład * o m-
/ stopniach swobody, gdzie m jest liczbą regresorów
w regresji pomocniczej, co zapisujemy
nxR2~Asy.z2m_i
4)Stawiamy hipotezę
Hn: cc, = or, = a, = a- = 0 . „
0 2 3 4 a wobec H,: nie
wszystkie a są równocześnie równe 0
5) Konstruujemy stsatystykę testującą
nxR1~Asy.zl*
6) Testowaanie
Ho : jeśli "x^
>
*"-'
to
odrzucamy
hipotezę zerową o homoscedastyczności i
przyjmujemy
Hi, że występuje heteroscedastyczność.
30. PROSZĘ PRZEDSTAWIĆ TEST
STABILNOŚCI PARAMETRÓW CHOWA.
Testy stabilności sprawdzają hipotezy, czy parametry
modelu są stabilne w różnych podpróbach dla
przypadku danych przekrojowych lub w różnych
podokresach czasu dla przypadku szeregów czasowych.
Ten drugi przypadek nazywamy testem punktu
zwrotnego.
Dane przekrojowe: regresja płac dla kobiet i mężczyzn:
płaca, - 0, * fiip/tc, * Px"auta, + P^iek. * P,*iek: * P^iaz, * c,
gdzie: Placai. piaca miesięczna '~'eJ osoby,
P'ec<- płeć *-* osoby,"*"**- lata nauki '"*
osoby, weki -wiek '~teJ osoby mierzony w latach,
Wek> - wiek do kwadratu '~'eJ osoby/"72'- staż
pracy J osoby mierzony w latach. Wykształcenie
definiujemy jako zmienną 0-1:
tgau ■ {'•'a'""M'"°i'""aH>fa;«'«'iiV»>u.-f.
[OJesliintit.
irednir « l,J'a"'~'a°'°t""""'>*':"'k"<irsrcdr,it. ' [Ijcsliinne.
gdzie kategorią referencyjną jest wykształcenie
podstawowe, (kategoria bazowa).
Model regresji:
p<°<°. - fi, * fi-jte. ♦ /»,-,*>«, ♦ Amh; + AMrt + AlAł: t f^
Zróżnicowanie płac ze względu na płeć oddaje
E^l \,7aŚ efekty ^^ztalcenia, wieku i stażu Sta^W ^ jed,nakowe- Możemy założyć, że efekty wykształcema. w.eku i stażu są odmienne dla mężczyzn
i dU kobiet, a więc, że parametry A*A przyimują
mo^eTe n- ° my-ZT'eryflk0Wai; *"* 3 jednakowe SSiST J "ak ^ Z "i=h J«t oparty na
i 3-ci- dl ~!f K g r dla P°dPróby tylko mężczyzn 3<. dla podproby ty,ko kobie[ | JgJJ bę?dą g
A,
i związanym z nią parametrem '
Wica. =■ fl ł P,*yw. * Pfimt. * A""'*< * A»''*.! * A"». * *
"• : A*A są takie same dla mężczyzn, jak i dla
kobiet, ' : nr°fil są różne dla mężczyzn i kobiet Statystyka testująca opiera się na porównaniu sumy kwadratów reszt dla modelu próby połączonej, w której obserwowani są jednocześnie mężczyźni i kobiety z sumami kwadratów reszt z modeli estymowanych
e'e
oddzielnie dla każdej z tych dwóch podprób.
sumę kwadratów reszt dla próby połączonej, przez
e'e
1 * - sumę kwadratów reszt dla modelu z podproby
e'e
mężczyzn;
2 2. Sumę
kwadratów reszt dla modelu z
pi (e'e-e;e|-e'e:)/5
podproby kobiet ""' («>,+e'2e2)/(n-2x5) Test punktu zwrotnego Chowa ( Test stabilności parametrów dla szeregów czasowych). Gdy szacujemy modele na podstawie szeregów czasowych, to często interesuje nas, czy parametry równania nie uległy zmianie w czasie. Dla testowania takiej hipotezy dzielimy zbiór obserwacji z całego okresu próby na dwa lub więcej podokresów. T - elementowy przedział próby dzielimy na pierwszy podokres, zawierający 7"; obserwacji i drugi, zawierający 7; obserwacji, tak, że Ti + T:= T. Liczba obserwacji w każdym z podokresów była większa od liczby szacowanych współczynników. Dalej procedura testowania przebiega analogicznie jak w przypadku testu stabilności. Statystyka testująca jest taka sama tylko, że wielkość próby oznaczamy w tej sytuacji przez 7", a liczbę szacowanych parametrów jak zwykle przez K.
K (e'e-e'.e,-e'2e2)/K
"** (e;e, + e;e2)/(7:-2x/0
31. PROSZĘ PRZEDSTAWIĆ TEST PUNKTU ZWROTNEGO CHOWA.
Test punktu zwrotnego Chowa (Test stabilności parametrów dla szeregów czasowych). Gdy szacujemy modele na podstawie szeregów czasowych, to często interesuje nas, czy parametry równania nie uległy zmianie w czasie. Testem wykorzystywanym w tej sytuacji jest test stabilności Chowa, zwany wówczas testem punktu zwrotnego. Dla testowania takiej hipotezy dzielimy zbiór obserwacji z całego okresu próby na dwa lub więcej podokresów. Przyjmijmy, że T - elementowy przedział próby dzielimy na pierwszy podokres, zawierający 77 obserwacji i drugi, zawierający Ti obserwacji, tak, że Ti + T; = T. Obowiązuje ten sam wymóg, aby liczba obserwacji w każdym z podokresów była większa od liczby szacowanych współczynników. Dalej procedura testowania przebiega analogicznie jak w przypadku testu stabilności.
Teoria ekonometrii nie dostarcza wyraźnych i szybkich reguł dzielenia próby o liczebności 7" na dwie podproby Ti i T:. Niekiedy podziały takie są oczywiste, jak na przykład w przypadku szeregów czasowych z okresu przed transformacją i w jej trakcie, gdzie rok 1989 oddziela okres gospodarki centralnie planowanej od gospodarki o orientacji rynkowej. Niekiedy może to być data wprowadzenia nowych przepisów, jak na przykład importu używanych samochodów, łub zmiana stałego kursu walutowego na płynny itp. Gdy brak jest a priori wskazówek określających czas wprowadzenia zmiany strukturalnej, to praktyczną zasadą (regułą kciuka) jest użycie-85% do 90% obserwacji "dla estymacji i wykorzystanie dalszej części próby dla testowania stabilności parametrów. Dla testu punktu zwrotnego obowiązuje wzór:
(e'e-e;e,-e;e;)/£
M" (e;e, + e;e:)/(r-2«A-) ?_
wielkość próby . K- liczba szacowanych parametrów..
32. PROSZĘ
PRZEDSTAWIĆ TEST RESET I
OMÓWIĆ
NA CZYM POLEGA NIEPOPRAWNA
SPECYFIKACJA
FUNKCJI REGRESJI.
Niepoprawna
specyfikacja to odchylenie od założeń
przyjętych
w KMRL. Heteroscedastyczność,
"autokorelacja i nienormalność zaburzeń losowych naruszają założenie, że zaburzenia mają rozkład normalny, że są niezależne i że mają jednakowe wariancje). Test RESET jest ogólnym testem wychwytującym następujące błędy specyfikacji: 1) Pominięcie istotnych zmiennych objaśniających 2 (Niewłaściwa postać funkcyjna równania regresji. Oznacza to, że wszystkie zmienne y lub x winny być transformowane, a więc przedstawione jako funkcje logarytmiczne, potęgowe, odwrotności lub inne funkcje wyjściowych zmiennych.
3)Korelacja między X i ° wywołana błędem pomiaru niektórych zmiennych objaśniających z macierzy X lub kombinacją opóźnionych wartości zmiennej objaśnianej y lub autokorelacją zaburzenia losowego. W tej sytuacji estymatory MNK są obciążone i niezgodne Test RESET jest oparty na regresji rozszerzonej, w której obok zmiennych objaśniających X występuje drugi zbiór zmiennych Z, zawierający potęgi wartości wyliczonych zmiennej objaśnianej y, (najczęściej drugie i trzecie, niekiedy również wyższe), a więc:
z = (y2,y3).
Procedura testowania:
1 (Rozwiązujemy wyjściowe równanie regresji, które
oznaczmy przez
y = Xp+e
Z rozwiązania wyznaczamy wartości wyliczone
v - - Y~
zmiennej objaśnianej J , a następnie ich kwadraty *
■ f
i trzecie potęgi J oraz współczynnik determinacji
d2
tego równania .który oznaczymy przez * . 2)Szacujemy równanie regresji rozszerzonej, które oznaczmy przez
y=X/?+Z)' + u
dodane są regresory Z i wyznaczamy współczynnik determinacji tego równania, który oznaczymy przez
3)Stawiamy "O*'(równanie regresji jest
poprawnie wyspecyfikowane), » ' (równanie
regresji jest niepoprawnie wyspecyfikowane). 4) Wyznaczamy statystykę:
przy
"Ki
(l-*22)/("-K-2),gtóeliczbyi
statystyce
F
są
liczbami stopni swobody licznika i
mianownika statystyki, która ma rozkład ** Fishera-
Snedecora.
5)Weryfikujemy hipotezę zerową: jeśli F jest większa
od wartości krytycznej wziętej z tablic, to odrzucamy
hipotezę zerową o poprawności wyspecyfikowania
równania wyjściowego.
Z'
s
=
eV
33. PROSZĘ PRZEDSTAWIĆ TEST
NORMALNOŚI
ZABURZEŃ JARQUE - BERA.
Normalność
zaburzeń jest zwykle sprawdzana za
pomocą
miary skośności S i maiary kurtozy dla reszt K
wyznaczonych
MNK. Miarę skośności definiuje się
jako
iloraz trzeciego momentu przez odchylenie
standardowe
reszt podniesione do trzeciej potęgi
O" o" . Jeśli S jest dodatnie, to mówimy
o prawostronnej skośności (prawy ogon rozkładu jest dłuższy od lewego) i odwrotnie. Dla rozkładu normalnego S = 0 . co oznacza symetrię rozkładu, a więc brak skośności.
reszt
Miarę
kunozy (K) definiuje sic. jako iloraz czwartego momenąi przez
odchylenie standardowe podniesione do czwartej potęgi, a więc:
<r a-4
Dla rozkładu normalnego kurtoza wynosi 3. Gdy <K>3 rozkład staje się platokurtyczny (jest spłaszczony) zaś rozkład, w którym K < 3 nazywamy rozkładem leptokurtycznym (mówimy, że rozkład ma grube ogony i jest smuklejszy' od rozkładu normalnego). Test Jarque-Bera normalności zaburzeń ma postać :
JB
= n
S>
+(K-iy
6 24
■ł, gdzie S oznacza skośność, zaś K - kunozę. Test ten ma rozkład chi-kwadrat o
dwóch stopniach swobody: ~ ■*2. Jeśli
Zlhforat [0 odrzucamy hipotezę o normalności zaburzeń.
5B5H98W57;.- ~V?^xrx-rrw?~