I. MATEMATYKA
1. Potęgi o wykładnikach całkowitych.
Przez
, gdzie n jest liczba naturalną, rozumiemy iloczyn n czynników, z których każdy równa a się tzn.
;
.
n razy
Przyjmuje się, że każda liczba różna od zera poniesiona do potęgi zerowej równa się jeden, tzn.:
przy
.
Przez potęgę o wykładniku całkowitym ujemnym
, przy
, n - naturalnym, rozumiemy odwrotność
tzn.
.
Dla potęg o wykładnikach całkowitych przy założeniu, że
, oraz
, mamy następujące wzory:
(1.1.)
(1.4.)
(1.2.)
(1.5.)
(1.3.)
2. Potęgi o wykładnikach wymiernych. Pierwiastki.
Niech a oznacza liczbę dodatnią, m i n - liczby naturalne; wówczas przez wyrażenie
(potęga o wykładniku wymiernym) rozumiemy pierwiastek arytmetyczny
. Dla
i
,
. Dla
oraz n naturalnym i nieparzystym otrzymujemy
. Zakłada się, że
.
(1.6.)
, dla
,
3. Funkcje wykładnicze.
Przez funkcję wykładniczą rozumiemy funkcję, która dowolnej liczbie rzeczywistej x przyporządkowuje liczbę
,
.
Najbardziej znaną funkcją wykładniczą jest funkcja
o podstawie
.
4. Funkcje logarytmiczne.
Niech a będzie liczbą dodatnia różną od 1, b zaś liczbą dodatnią. Przez logarytm b przy podstawie a, oznaczany symbolem
, rozumiemy taką liczbę c, która spełnia równość
.
Prawdziwe są następujące równości:
(1.7.)
(1.11.)
(1.8.)
, przy
,
i
(1.12.)
(1.9.)
(1.13.)
(1.10.)
METODA NAJMNIEJSZYCH KWADRATÓW - MNK
Założenia metody najmniejszych kwadratów
Liczebność próby n jest większa niż liczba szacowanych parametrów k, tj.
.
Model musi być liniowy względem parametrów.
Pomiędzy wektorami obserwacji zmiennych objaśniających nie istnieje zależność liniowa. (jest to założenie o braku współliniowości). Rząd macierzy
jest równy liczbie szacowanych parametrów.
Zmienne objaśniające są nielosowe, ich wartości są traktowane jako wielkości stałe w powtarzających się próbach.
Wartości oczekiwane składników losowych są równe zeru, tzn.
, dla
.
Wariancje składników losowych
są stałe, tzn.
dla
. Jest to tzw. homoskedastyczność.
Składniki losowe
i
są od siebie niezależne, dla
,
. Nie występuje autokorelacja składników losowych, tzn. współczynnik autokorelacji
Każdy ze składników losowych
ma rozkład normalny.
lub
- wektor reszt modelu, gdzie
lub
- wektor obserwacji zmiennej objaśnianej
oraz
-
oraz
-
-
-
|
|
|
|
Dowolna (k-ta) ilość zmiennych objaśniających
|
Dowolna (k-ta) ilość zmiennych objaśniających
|
|
|
|
|
Dowolna (k-ta) ilość zmiennych objaśniających
|
Dowolna (k-ta) ilość zmiennych objaśniających
|
II. WERYFIKACJA STATYSTYCZNA MODELU EKONOMETRYCZNEGO
1. Wariancja składnika resztowego
(jako estymator wariancji składnika losowego) dana wzorem:
(2.1.)
, lub wzór macierzowy
(2.2.)
Warto zauważyć, że
; natomiast
, co znacznie ułatwi obliczenia.
2. Odchylenie standardowe reszt
(2.3.)
Wielkość
wskazuje na przeciętną różnicę między zaobserwowanymi wartościami zmiennej objaśnianej
i wartościami teoretycznymi
. Odchylenie standardowe reszt jest wielkością mianowaną; posiada takie samo miano jak zmienna objaśniana.
3. Macierz wariancji i kowariancji estymatorów parametrów
(2.4.)
Szczególne znaczenie maja elementy diagonalne tej macierzy (wariacje estymatorów parametrów). Pierwiastki z nich to błędy średnie szacunku parametrów. Natomiast poza główną przekątną znajdują się kowariancje estymatorów parametrów. A zatem:
(2.5.)
- wariancja estymatora parametru
(2.6.)
- kowariancja estymatorów
,
gdzie:
- element macierzy
jeśli
to wówczas
- będzie oznaczać element głównej przekątnej macierzy
Średni błąd estymatora
(2.7.)
, oznaczany często jako
Przedział ufności dla parametrów
(2.8.)
gdzie:
- wartość krytyczna dla zmiennej losowej o rozkładzie t-Studenta dla
stopni swobody, przy ustalonym z góry poziomie istotności
; np.:
;
, itp.
Interpretacja: z prawdopodobieństwem równym
, (np. 0,95) możemy twierdzić, że przedział określony wzorem (2.8.) pokryje faktyczną wartość szacowanego parametru
.
Miary dopasowania modelu do zmiennych empirycznych.
Ogólna suma kwadratów odchyleń wartości empirycznych zmiennej objaśnianej od wartości średniej, czyli całkowita zmienność zmiennej objaśnianej:
(2.9.)
gdzie:
- suma kwadratów odchyleń wartości teoretycznych zmiennej objaśnianej od wartości średniej, zmienność wyjaśniona (objaśniona) przez model.
- suma kwadratów reszt, czyli zmienność niewyjaśniona (objaśniona) przez model (zmienność resztowa).
Słownie wzór (2.9.) można przedstawić jako:
całkowita zmienność zmiennej objaśnianej |
= |
zmienność wyjaśniona |
+ |
zmienność niewyjaśniona |
Po podzieleniu wzoru (2.9.) obustronnie przez
, otrzymujemy:
(2.10.)
Oznaczając przez
zmienność wyjaśnioną przez model oraz przez
zmienność niewyjaśnioną przez model ostatecznie otrzymujemy
(2.11.)
4. Współczynnik determinacji
:
(2.12.)
(2.13.)
5. Współczynnik zbieżności
(2.14.)
lub wzór macierzowy
(2.15.)
Interpretacja: zgodnie z przyjętymi oznaczeniami (2.9. - 2.11.) wiadomo, że zarówno współczynnik determinacji
jak i współczynnik zbieżności
przyjmują wartości z przedziału [0; 1]. Dopasowanie modelu do danych jest tym lepsze im współczynnik determinacji
jest bliski 1, oraz jeśli współczynnik zbieżności
jest bliski 0. Słabe dopasowanie modelu można stwierdzić po wartości współczynnika determinacji
bliskiego 0, oraz gdy współczynnik zbieżności
jest bliski 1. Zgodnie z tym współczynniki
i
są jednocześnie albo dobre, albo złe. Np. jeśli
to
, co oznacza, że model w 98% opisuje badane zjawisko, pozostałe 2% nie zostało objaśnione przez model - jest to zmienność odchyleń losowych.
Najczęstszymi przyczynami słabego dopasowania modelu są:
nieodpowiedni dobór zmiennych objaśniających,
niewłaściwa postać analityczna modelu.
(Warto powiedzieć, że w niektórych badaniach ekonometrycznych wartość
jest bardzo niska, co wynika z charakteru badanego zjawiska).
Innymi, często stosowanymi miernikami dopasowania modelu do danych empirycznych są:
6. Skorygowany współczynnik determinacji
:
(2.16.)
Jest to współczynnik determinacji
skorygowany stopniami swobody. Współczynnik ten pozwala porównywać dopasowanie równań różniących się ilością włączonych do nich zmiennych objaśniających.
7. Współczynnik korelacji wielorakiej
:
(2.17.)
Współczynnik korelacji wielorakiej
jest miarą siły związku liniowego zmiennej objaśnianej
ze zmiennymi objaśniającymi
.
Aby stwierdzić, czy dopasowanie modelu do danych empirycznych jest dostatecznie duże, można zweryfikować hipotezę o istotności współczynnika korelacji wielorakiej.
Sprawdzianem tej hipotezy jest następująca statystyka:
, gdzie: n - liczebność próby, k - liczba szacowanych parametrów.
Statystyka ta ma rozkład F Fishera-Snedecora o
oraz
stopniach swobody. Z tablic testu F dla zadanego poziomu istotności
odczytujemy wartość krytyczną
. Jeśli
to nie ma podstaw do odrzucenia hipotezy
, co oznacza, że współczynnik korelacji wielorakiej jest nieistotny. Jeśli
, to odrzucamy hipotezę
, co oznacza, że współczynnik
jest istotny.
8. Współczynnik zmienności losowej
, zwany inaczej współczynnikiem wyrazistości:
(2.18.)
Współczynnik ten informuje o tym, jaką część średniej wartości zmiennej objaśnianej stanowi jej odchylenie standardowe. W praktyce zależy nam, aby wartość
była możliwie bliska 0. dlatego też przyjmuje się w danym badaniu pewna wartość krytyczną
(np.
=0,1). Jeżeli
, to przyjmuje się, że model jest dopuszczalny.
Testowanie hipotez dotyczących istotności parametrów
9. Test t-Studenta o istotności parametrów strukturalnych modelu.
Za pomocą tego testu badamy istotność poszczególnych parametrów pojedynczo.
Sprawdzianem tej hipotezy jest test oparty na statystyce t-Studenta:
(2.19.)
lub wykorzystując inne oznaczenie
gdzie:
- ocena j-tego parametru,
- prawdziwa wartość parametru (zgodnie z hipotezą zerową
),
- błąd średni szacunku parametru
.
W związku z powyższym wzór (2.19.) przyjmuje ostatecznie postać:
(2.20.)
Po odczytaniu z tablic rozkładu t-Studenta, wartości krytycznej
, dla przyjętego poziomu sitotności
oraz
(gdzie k - oznacza liczbę szacowanych parametrów) stopni sowbody, sprawdzamy czy
. Jeśli tak to należy odrzucić hipotezę zerową
na korzyść hipotezy alternatywnej
. A zatem parametr
istotnie różni się od zera. W przeciwnym wypadku, tzn. gdy
nie podstaw do odrzucenia hipotezy
, co oznacza, że parametr
jest nieistotny statystycznie.
Uwaga!!!
Przy zapisie oszacowanego modelu stosowane są trzy konwencje zapisu:
I
(1,82) (0,79) (0,11) - w nawiasach podano średnie błedy szacunku parametrów
Zgodnie ze wzorem (2.20.), otrzymujemy:
(lub -8,18)
dla
wszystkie relacje
są spełnione, zatem wszystkie parametry strukturalne są istotne.
II
(14,29) (6,08) (-8,18) - w nawiasach podano wartości testu t-Studenta dla poszczególnych parametrów
III
(14,29) (6,08) (8,18) - w nawiasach podano wartości bezwzględne testu t-Studenta dla poszczególnych parametrów
Należy zwrócić na to szczególną uwagę. Najpierw trzeba się zorientować, co oznaczają liczby w nawiasach a dopiero potem zastanowić się czy należy dzielić oszacowania parametrów przez ich średnie błędy szacunku (tak jak w I przypadku), czy też od razu przystąpić do interpretacji (tak jak w przypadku II i III). Wykonanie dzielenia z przypadku I i zastosowanie tej reguły w II (III) przypadku prowadzi do fałszywych wniosków:
co wskazuje, że wszystkie parametry są niestotne. Informacja o tym co oznaczają liczby w nawiasch musi być podana, inaczej nie można dokonać interpretacji, czy parametry strukturalne modelu są istotne czy też nie.
10. Test F Fishera-Snedecora o istotności parametrów strukturalnych modelu.
Test F jednocześnie testuje cały układ współczynników regresji (najczęściej bez wyrazu wolnego); inaczej jak w teście t-Studenta, gdzie testowano parametry osobno:
Hipoteza alternatywna
jest taka, że co najmniej jedna z równości nie jest spełniona, Sprawdzianem hipotezy
jest:
(2.21.)
gdzie:
- jest n-elementowym wektorem „jedynek”, zatem
Podobnie jak w 7. statystyka ta ma rozkład F Fishera-Snedecora o
oraz
stopniach swobody. Z tablic testu F dla zadanego poziomu istotności
odczytujemy wartość krytyczną
. Jeśli
to nie ma podstaw do odrzucenia hipotezy
, co oznacza, że współczynniki regresji są nieistotne. Jeśli
, to odrzucamy hipotezę
, co oznacza, że współczynniki regresji są statystycznie istotne.
Warto powiedzieć, że w przypadku 7, 9, 10 oznaczenie wartości krytycznej jest dowolne, tzn. można dodać do litery oznaczającej odpowiedni test indeks dolny
(poziom istotności) lub e - oznaczający „empiryczny”, „*” lub inne oznaczenie, wyraźnie wskazując w opisie czego dotyczy dany symbol i w konsekwencji co oznacza podana wartość.
11. Test DW Durbina-Watsona o występowaniu autokorelacji reszt.
Badanie autokorelacji składników losowych sprowadza się do badania autokorelacji reszt. Do tego celu, służy test Durbina-Watsona DW.
Najpierw sprawdza się, jaki jest współczynnik autokorelacji reszt I rzędu, określony wzorem:
(2.22.)
- litera alfabetu greckiego „ro”, lub łacińskie „r”
gdzie:
- reszty modelu
- reszty opóźnione o jeden okres
a następnie sprawdzamy testem DW następującą hipotezę
:
lub
(2.23.)
, często test DW oznacz się przez
Rozkład DW przyjmuje wartości od 0 do 4 i jest symetryczny. W związku z tym jest on ztablicowany od 0 do 2. Jeśli zatem wartość DW obliczona za pomocą wzoru (2.23.) jest większa od 2, np. 2,32 to należy dokonać prostego przekształcenia polegającego na odjęciu od 4 wartości DW.
(2.24.)
w naszym przykładzie:
Obliczoną wartość DW czy
porównujemy z dwoma wartościami krytycznymi:
L-Lower i
U-Upper
Interpretacja:
I.
w modelu występuje autokorelacja reszt
II
test DW nie daje odpowiedzi na pytanie czy w w modelu występuje autoko-
relacja reszt.
III
w modelu nie występuje autokorelacja reszt
I II III
ŹLE ??? DOBRZE
Opracowanie mgr Markos Jeropulos na podstawie:
Gajda J.B. - „Ekonometria praktyczna”, Absolwent Łódź, 2002
Jajuga K. (red.) - „Ekonometria. Metody i analiza problemów ekonomicznych”, Wydawnictwo Akademii Ekonomicznej we Wrocławiu, Wrocław, 2002.
Krzysztofiak M. (red.) - „Ekonometria”, PWE, Warszawa 1978.
Kukuła K. (red.) - „Wprowadzenie do ekonometrii w przykładach i zadaniach”, PWN, Warszawa 1999.
Łapińska-Sobczak N. (red.) - „Opisowe modele ekonometryczne”, Wydawnictwo Uniwersytetu Łódzkiego, Łódź, 2001.
Nowak E. - „Zarys metod ekonometrii”, PWN, Warszawa 2002.
9
macierz obserwacji
zmiennych objaśniających
z wyrazem wolnym
macierz obserwacji
zmiennych objaśniających
bez wyrazu wolnego
Wektor ocen parametrów
z wyrazem wolnym
Wektor ocen parametrów
bez wyrazu wolnego