18.02.11
EKONOMETRIA zrodziła się mniej niż 100 lat temu. Impuls do jej powstania dał wielki kryzys
gospodarki światowej z lat 1929 – 1933. Kryzys ten spowodował potrzebę znalezienia pewnych narzędzi wspomagania gospodarki, aby zmniejszyć amplitudę wahań koniunkturalnych.
Ojcem ekonometrii jest RAGNAR FRISCH, Norweg z pochodzenia, który życie spędził w USA. W 1926
roku utworzył Towarzystwo Ekonometryczne, które rozpoczęło wydawanie czasopisma naukowego pt.: „ECONOMETRICA” – stąd wzięło się pojęcie ekonometrii. To czasopismo do dziś jest najważniejszym czasopismem ekonometrycznym. Świat uważa, że rok 1926 jest rokiem, w którym pojawiła się ekonometria w sensie instytucjonalnym.
W latach wielkiego kryzysu rządy państw usiłowały znaleźć środowiska ekonomistów, które miałyby
dotrzeć do odpowiednich narzędzi w celu załagodzenia skutków kryzysu. Amerykanom zależało na tym, aby kryzys nigdy więcej nie wrócił – im mniejsza amplituda wahań koniunkturalnych tym lepiej. Znaleźli COWLESA – miał on zorganizować zespół najwybitniejszych ekonomistów, aby stworzyli narzędzia łagodzące skutki kryzysu. Powstała KOMISJA COWLESA. W jej skład wchodzili ok. Amerykanie. Znalazł się w niej także polski ekonomista – OSKAR LANGE (ok. 30. Letni profesor), który zajmował się teorią ekonomii, statystyką. Jako pierwszy, w tej części Europy, napisał podręcznik „WSTĘP DO EKONOMETRII” wydany w 1957 r.
Te narzędzia (służące do opisu wahań koniunkturalnych i wykorzystywania ich do prognozowania koniunktury oraz podejmowania decyzji w skali państwa powodujących zmniejszenie amplitudy wahań koniunkturalnych), jakie powstały w KC noszą nazwę BAROMETRU KONIUNKTURY. Na owe czasy była to rewolucja. Lange opisał je w swojej książce, którą przetłumaczono na ok. 30 języków.
W latach 80-tych uczeni z Krakowa odnaleźli w bibliotece obecnej Akademii Ekonomicznej pracę ok.
PAWŁA CIOMPA, wydaną w Galicji w 1910 roku, pt.: „ZARYS EKONOMETRII I TEORIA BUCHALTERII”. Słowo „ekonometria” pojawiło się więc na świecie po raz pierwszy w 1910 r. i to w Polsce.
Ekonometria rozwijała się dynamicznie w czasach kryzysu i później w czasie II wojny światowej
(moment powstania BADAŃ OPERACYJNYCH).
LEONID KANTOROWICZ – znakomity Rosjanin, specjalista badań operacyjnych, opracował metody optymalizacji transportu morskiego.
Ekonometria rozwijała się prężnie, ale nie w państwach bloku wschodniego – Stalin nie lubił ekonometrii, uważał, że jest to „pseudonauka burżuazyjna; wykorzystywanie ludu pracowniczego przez burżuazję”.
W ZSRR a latach 60. Pojawiły się badania z obszaru ekonometrii – „CYBERNETYKA EKONOMICZNA” .
II połowa lat 60. – w Polsce zaczęto wykładać ekonometrię.
Ekonometria się rozprzestrzeniała – najpierw na Węgrzech – Budapeszt (lata 70.) i w Bratysławie, gdzie powstało Centrum Badań Ekonomicznych.
Początek lat 80. – pojawiły się komputery ATARI, co dało ogromne możliwości w rozwoju ekonometrii empirycznej.
Ekonometria powstała z trzech dziedzin nauki: matematyki, statystyki oraz ekonomii:
M – matematyka,
S – statystyka,
E – ekonomia,
SM – statystyka matematyczna,
SE – statystyka ekonomiczna – nie da jej się uprawiać bez odpowiednich organów (w Polsce jest to GUS),
EM – ekonomia matematyczna – Vilfredo Pareto – model rozkładu dochodów; R.G.D Allen ( „EKONOMIA MATEMATYCZNA” ok. 1960 r.).
Ekonometria jest nauką ekonomiczną, która wykorzystuje i tworzy wyspecjalizowane narzędzia badawcze, pochodzące głównie z obszaru statystyki matematycznej do badania zjawisk i procesów ekonomicznych.
EKONOMETRIA
KLASYCZNA BADANIA OPERACYJNE
I – TEORIA EKONOMETRII: - programowanie matematyczne
- narzędzia i instrumenty badawcze ekonometrii,
- metody estymacji parametrów,
- metody prognozowania.
II – EKONOMETRIA STOSOWANA:
- MAKROEKONOMETRIA (badanie gospodarek
narodowych i ich części za pomocą stworzonych
przez teorię narzędzi); pierwsza metoda z ekonometrii
stosowanej, powstała w okresie międzywojennym
po KC – powstały pierwsze modele
makroekonometryczne (modele gospodarek
narodowych).
TWÓRCA modeli gospodarki narodowej USA
I Holandii: JAN TINBERGEN (razem z Frischem
w 1969 r. otrzymał Nagrodę Nobla).
Tinbergen założył Instytut Holenderski w
Rotterdamie.
- MIKROEKONOMETRIA (wykorzystanie narzędzi
ekonometrycznych – przydatne dla przedsiębiorstw).
25.02.11
MODEL EKONOMETRYCZNY – podstawowe narzędzie stosowane w ekonometrii. Opisuje mechanizm zmienności zmiennej objaśnianej. Ma wyjaśnić jak zmienia się wielkość zmiennej objaśniającej pod wpływem każdej zmiany zmiennych objaśnianych. Ma charakter stochastyczny, ponieważ zawiera składnik losowy (gdyby tego składnika nie było to model byłby deterministyczny). Stosowanie modelu ekonometrycznego jest możliwe tylko wówczas, gdy występujące w nim zmienne można wyrazić za pomocą liczb.
yt = f(xt1,…,xtj,…,xtk,ηt)
Przyjmuje określoną postać analityczną.
Powyższa równość mówi, że zmienna objaśniana zależy od zbioru zmiennych objaśniających.
OZNACZENIA:
ZMIENNA OBJAŚNIANA – Y o obserwacjach yt, przy czym t oznacza numer obserwacji statystycznej (t=1,2,…,n). Zmienna o charakterze ekonomicznym (dlatego model nazywamy ekonometrycznym) – mogą to być zmienne typu popyt, podaż, koszty produkcji, płace, PKB, podatki, ceny. Najczęściej jest wyrażana w jednostkach pieniężnych jest zmienną ekonomiczną. Każda zmienna ekonomiczna jest mierzalna, przy czym konieczne jest rozumienie liczb, jakie powstają z pomiaru. Na zmienną objaśnianą wpływają sytuacje ekonomiczne, ale także polityczne, socjologiczne.
Charakter zmiennej decyduje o tym, z jakimi mamy do czynienia modelem:
Model demometryczny – opisuje zmienną demograficzną.
Model socjometryczny – opisuje zmienne socjologiczne (np. preferencje obywateli).
Model psychometryczny – opisuje zmienne psychologiczne.
ηt−składnik losowy, część niewyjaśniona. Pięć cech, dlaczego występuje w modelu:
S.S. Stevens (1946 r. w „SCIENCE”) – opracował teorię skal pomiarowych (poziomy pomiaru).
Skale – od najsłabszej do najsilniejszej:
Skala nominalna – liczby pełnią rolę identyfikatorów (służą do identyfikacji obiektów albo ich cech); liczby są równe (a = b) albo różne od siebie (a ≠ c); liczby w tej skali występują najpowszechniej (pesel, numer dowodu, NIP, nr indeksu, nr telefonu); nie można na nich wykonywać żadnych operacji arytmetycznych. ZMIENNA ZERO-JEDYNKOWA:
$x_{\text{tj}} = \left\{ \begin{matrix} 1,\ \text{gdy}\ \text{spe}l\text{nione}\ V_{j} \\ 0,\ w\ \text{przypadku}\ \text{przeciwnym} \\ \end{matrix} \right.\ $
Model prawdopodobieństwa (model Goldbergera) – model ze zmienną zero-jedynkową.
Skala porządkowa (rangowa) – a < b < c < … < z (a ≥ b ≥ c ≥ … ≥ z); różnice pomiędzy liczbami są nieznane, różnice są odmienne – odległość między a i b jest inna niż między c i d; rangi pozwalają na tworzenie struktury hierarchicznej; na rangach nie wolno wykonywać żadnych operacji arytmetycznych; dodawanie do siebie rang – jest niemożliwe! Rangi można zliczać.
Skala przedziałowa (interwałowa) – znane są odległości między liczbami i są one identyczne pomiędzy liczbami sąsiednimi; nie jest znane zero naturalne (dlatego też liczb ze skali przedziałowej nie wolno dzielić!); zero naturalne występuje w skali stopni Celsjusza i Fahrenheita. Operacje normowania zmiennej losowej – znalezienie odchylenia od średniej arytmetycznej. Standaryzacja zmiennej losowej – zmienna standaryzowana posiada średnią 0 i jednostkowa wariancję (równa 1);
Skala stosunkowa (ilorazowa) – pojawia się zero naturalne (możemy wykonywać wszelkie operacje arytmetyczne).
4.03.11
TEMAT: LINIOWY MODEL EKONOMETRYCZNY.
- największe modele w Japonii składały się nawet z 6000 równań,
yt = f(xt1,…,xtj,…,xtk,ηt)
- przejście z tego modelu wyżej na wybraną postać analityczną:
Postać liniowa (model liniowy, addytywny):
yt = α0 + α1xt1 + … + αjxtj + … + αkxtk + ηt
t=1,2,…,n
Możemy ten model zapisać macierzowo (pojawią się obserwacje na zmiennych i elementy nieobserwowalne):
Y = X • α + η
nx1 nx(k+1) (k+1)x1 nx1
Y – wektor obserwacji na zmiennej objaśnianej (wektor kolumnowy), zawiera n obserwacji na zmiennej objaśnianej,
$$Y = \begin{bmatrix}
\begin{matrix}
y_{1} \\
\vdots \\
\end{matrix} \\
y_{t} \\
\vdots \\
y_{n} \\
\end{bmatrix}$$
X – macierz obserwacji na zmiennych objaśniających modelu,
xt0 = 1−z α0 wiąże się wektor kolumnowy jedynek:
$$X = \left\lbrack \begin{matrix}
\begin{matrix}
1 \\
\vdots \\
1 \\
\end{matrix} \\
\vdots \\
1 \\
\end{matrix}\begin{matrix}
\text{\ \ }\begin{matrix}
x_{1t} \\
\vdots \\
x_{t1\ \ } \\
\end{matrix} \\
\vdots \\
x_{n1} \\
\end{matrix}\begin{matrix}
\begin{matrix}
\cdots \\
\vdots \\
\cdots\text{\ \ } \\
\end{matrix} \\
\vdots \\
\cdots \\
\end{matrix}\begin{matrix}
\begin{matrix}
x_{1j}\text{\ \ } \\
\vdots \\
x_{\text{tj}\text{\ \ }} \\
\end{matrix} \\
\vdots \\
x_{\text{nj}} \\
\end{matrix}\begin{matrix}
\begin{matrix}
x_{1k} \\
\vdots \\
x_{\text{tk}} \\
\end{matrix} \\
\vdots \\
x_{\text{nk}} \\
\end{matrix} \right\rbrack$$
α wektor nieobserwowalny, wektor ten zawiera parametry strukturalne, które są nieobserwowalne (szacuje/estymuje się je – szuka się ich przybliżeń). Dowolny parametr αj (oprócz α0) informuje o tym, o ile zmieni się wielkość zmiennej objaśnianej, jeśli wartość zmiennej objaśniającej xj wzrośnie o jednostkę, przy założeniu, że wielkości pozostałych zmiennych objaśniających nie ulegną zmianie (ceteris paribus).
$$\alpha = \begin{bmatrix}
\begin{matrix}
\alpha_{0} \\
\alpha_{1} \\
\vdots \\
\end{matrix} \\
\alpha_{j} \\
\vdots \\
\alpha_{k} \\
\end{bmatrix}$$
η−składnik losowy, nieobserwowalny, podlega estymacji; występuje w modelu stochastycznym nie zależnie od tego, czy nam się to podoba czy nie. Nie da się opisać żadnego procesu ekonomicznego z pełną dokładnością. Oszacowane w wielkości składników losowych noszą nazwę RESZT. Składnik losowy powinien być błędem losowym, powinien posiadać zerową nadzieję matematyczną i rozkład normalny.
$$\eta = \begin{bmatrix}
\begin{matrix}
\eta_{1} \\
\vdots \\
\eta_{t} \\
\end{matrix} \\
\vdots \\
\eta_{n} \\
\end{bmatrix}$$
BŁĄD POMIARU – Karol Gauss, twórca teorii pomiaru. W trakcie badań nad pomiarami odkrył rozkład normalny i stwierdził, że losowy błąd pomiaru ma rozkład normalny [wartość normalna – nadzieja matematyczna (błędu losowego wynosi 0) i wszystkie odchylenia x/- muszą się kompensować – wtedy pomiar jest z błędem losowym].
Chcemy znaleźć empiryczny model dla procesu, który nas interesuje (np. dla stopy inflacji). Żeby do tego modelu dojść należy wykonać postępowanie badawcze – ETAPY BUDOWY MODELU EKONOMETRYCZNEGO:
ETAP I – SPECYFIKACJA MODELU:
Najważniejszy etap budowy modelu,
Może jej dokonać wyłącznie ekonomista,
Dzieli się na dwie części:
Specyfikacja zmiennych modelu – ustalamy cel badania, zakres badania (czasowy – wskazanie okresu, np. roczny i przestrzenny – czy badamy jeden obiekt, czy wiele), metodę przetwarzania informacji (narzędziem może być model ekonometryczny). Badamy np. produkcję przedsiębiorstwa, musimy przyporządkować jej określoną zmienną objaśnianą (opisanie mechanizmów produkcji – najlepszą zmienną dla opisania produkcji są przychody ze sprzedaży netto w zł), należy ustalić, co wpływa na przychody ze sprzedaży netto (potencjalne zmienne objaśniające – wielkość kapitału, liczba zatrudnionych w osobach w przeliczeniu na pełne etaty, kwota wydatków na działalność marketingową, liczba produktów sprzedawane jako markowe, liczba konkurentów na terenie działalności firmy) i zdefiniować zmienne i je zwymiarować.
Specyfikacja równań – ustalenie postaci analitycznej modelu (model o jednym, czy wielu równaniach).
Muszą być zgromadzone dane statystyczne (macierz X i Y muszą zawierać liczby),
Posiadamy hipotetyczny (teoretyczny) model ekonometryczny.
ETAP II – IDENTYFIKACJA MODELU:
Dotyczy tylko i wyłącznie modeli o wielu równaniach (2 i więcej).
ETAP III – ESTYMACJA PARAMETRÓW MODELU:
Ustalenie odpowiednich liczbowych odpowiedników parametrów strukturalnych,
Dwie fazy:
Dokonanie wyboru estymatorów (ESTYMATOR –pozwala oszacować nieznany (parametr) – należy kierować się własnościami, jakie osiąga on w danym, konkretnym modelu:
Nieobciążony,
Zgodny,
Efektywny (tym bardziej efektywny im posiada mniejszą wariancję) – dokładność, precyzja,
Dostateczność.
ETAP IV – WERYFIKACJA MODELU – sprawdzenie jakości modelu; jest dwufazowa:
Weryfikacja statystyczna – stosujemy różne miary dobroci (miary jakości) modelu:
Globalne miary dobroci,
Szczegółowe miary dobroci,
Testy statystyczne, które służą do sprawdzania hipotez, formułowanych w związku z budową modelu.
Należy dbać o to, aby składnik losowy w modelu odgrywał niewielką rolę i był tzw. czystym składnikiem losowym, ponad to zmienne objaśniające modelu empirycznego winny być istotne statystycznie (parametr strukturalny jest różny od zera).
Jeśli w trakcie weryfikacji okaże się, ze model spełnia wszelkie wymagania jakościowe ze statystycznego punktu widzenia to mamy akceptowalny empiryczny model ekonometryczny i możemy przejść do jego eksploatacji pod warunkiem, że jest on logiczny ekonomicznie. Jeśli model jest wadliwy statystycznie to należy go poprawić, czyli powrócić do jego specyfikacji – mówimy wówczas o respecyfikacji modelu (może ona polegać na usunięciu zmiennej objaśniającej, dodaniu nowej zmiennej objaśniającej albo zmianie postaci analitycznej równania).
Empiryczny model akceptowalny statystycznie poddajemy weryfikacji ekonomicznej (sprawdzamy jego ekonomiczną logikę).
Weryfikacja ekonomiczna – jeśli potrafimy wyjaśnić ekonomiczną logikę modelu empirycznego to uznajemy, że jest on w pełni akceptowalny i kwalifikuje się do eksploatacji.
ETAP V – EKSPLOATACJA MODELU – praktyczne wykorzystanie modelu; model można wykorzystać wielokierunkowo:
Model może być narzędziem szacowania prognoz (naukowego przewidywania przyszłych wartości badanych zmiennych)zmiennych ekonomicznych; techniki prognozowania na modelu ekonometrycznym dotarły do przedsiębiorstw;
Symulacja za pomocą modelu ekonometrycznego to m.in. rozważanie rozmaitych wariantów decyzji, z tych wielu wariantów wybieramy ten najbardziej korzystny (racjonalny);
Model może służyć do podejmowania bieżących decyzji zarządczych.
Najczęściej eksploatuje się model pierwszy, a najrzadziej ostatni.
11.03.11
ESTYMACJA PARAMETRÓW MODELU LINIOWEGO.
Y= Xα+ η
Rozpatrujemy model z jedna z zmienną objaśniającą:
yt = α0 + α1xt + ηt
$\text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ }{\hat{\mathbf{y}}}_{\mathbf{t}}\mathbf{=}\mathbf{a}_{\mathbf{0}}\mathbf{+}\mathbf{a}_{\mathbf{1}}\mathbf{\alpha}_{\mathbf{t}}\mathbf{\text{\ \ \ \ }}\mathbf{\text{lub}}\mathbf{\text{\ \ \ \ \ }}\mathbf{y}_{\mathbf{t}}\mathbf{=}\mathbf{a}_{\mathbf{0}}\mathbf{+}\mathbf{a}_{\mathbf{1}}\mathbf{x}_{\mathbf{t}}\mathbf{+}\mathbf{u}_{\mathbf{t}}\mathbf{\text{\ \ }}$
xt
Zminimalizować funkcję:
$$S = \sum_{t = 1}^{n}\left( y_{t} - {\hat{y}}_{t} \right)^{2} = \sum_{t = 1}^{n}{u_{t}}^{2} = u^{T}u$$
a1 = tg γ
Reszta:
$$u_{t} = y_{t} - {\hat{y}}_{t}$$
$$U = Y - \hat{Y} = Y - X\hat{\alpha}$$
t = 1, 2, …, n
Reszty są estymatorem składnika losowego, a konkretne liczby będą szacunkami składnika losowego.
$$S = U^{T}U = \left( Y - X\hat{\alpha} \right)^{T}\left( Y - X\hat{\alpha} \right) = Y^{T}Y - Y^{T}X\hat{\alpha} - {\hat{\alpha}}^{T}X^{T}Y + {\hat{\alpha}}^{T}X^{T}X\hat{\alpha} = Y^{T}Y - 2{\hat{\alpha}}^{T}X^{T}Y + {\hat{\alpha}}^{T}X^{T}X\hat{\alpha}$$
$$\left( \mathbf{Y}^{\mathbf{T}}\mathbf{X}\hat{\mathbf{\alpha}} \right)^{\mathbf{T}}\mathbf{=}{\hat{\mathbf{\alpha}}}^{\mathbf{T}}\mathbf{X}^{\mathbf{T}}\mathbf{Y}$$
$$\frac{\partial S}{\partial\hat{\alpha}} = - 2X^{T}X + 2X^{T}X\hat{\alpha} = 0$$
$$\frac{\partial^{2}S}{\partial^{2}\hat{\alpha}\ \partial{\hat{\alpha}}^{T}} = 2X^{T}X > 0$$
XTX− macierz Hessa (jeśli jest dodatnia to istnieje macierz odwrotna).
$$\mathbf{X}^{\mathbf{T}}\mathbf{X}\hat{\mathbf{\alpha}}\mathbf{=}\mathbf{X}^{\mathbf{T}}\mathbf{X}$$
Estymator KMNK: $\hat{\mathbf{\alpha}}\mathbf{=}\left( \mathbf{X}^{\mathbf{T}}\mathbf{X} \right)^{\mathbf{-}\mathbf{1}}\mathbf{X}^{\mathbf{T}}\mathbf{Y}$
$$E\left( \hat{\alpha} \right) = \alpha$$
E(η) = α
WARUNKI STOSOWALNOŚCI KMNK:
- ma zastosowanie do modeli wyłącznie liniowych, jest jednak od tego odstępstwo, które polega na tym, że jeśli model nieliniowy można przekształcić do postaci liniowej (zlinearyzować) do tej wersji zlinearyzowanej wolno stosować KMNK,
Modele, które można zlinearyzować to:
MODELE ILOCZYNOWE:
Model potęgowy yt=α0•α1xt1•…•αjxtj• eηt stosuje się do zmiennych ciągłych, których obserwacje osiągają wyłącznie wartości dodatnie; zmienna objaśniana w tym modelu musi być dodatnia, tzn. że nie można jej unormować;
Model wykładniczy yt=α0•xt1α1•…•xtjαj• eη można stosować na zmiennych dyskretnych.
Należy je zlogarytmować:
lnyt=lnα0+α1lnxt1+…+αjlnxtj+…+αklnxtk+ηt
lnyt = yt*
lnα0 = α0*
lnxtj=xtj*
j = (1, …, k)
lnyt = lnα0 + xt1α1 + … + xtjlnαj + … + xtklnαk + ηt
yt*=α0*+xt1α1 *+…+αjxtj*+…+αkxtk*+ηt
yt*=α0*+α1xt1*+…+αjxtj*+…+αkxtk*+ηt
Modele liniowe i nielinearyzowane – model Törnquista. Model nieliniowy – logistyczny.
Model nieliniowy, który da się transformować do postaci liniowej – model wykładniczo-potęgowy:
yt = α0 • xt1α1 • xt2α2 • α3x3 • α4x3 • eη
Dla postaci nieliniowej nie da się przeprowadzić technicznej estymacji.
By estymator KMNK był nieobciążony – zmienne objaśniające modelu powinny być nielosowe.
Trudny do spełnienia warunek dla zmiennych ekonomicznych. Powinien być spełniony warunek nieskorelowania zmiennych objaśniających ze składnikiem losowym.
E(XTη) = 0
Wszelkie kowariancje zmiennych objaśniających ze składnikiem losowym powinny być zerowe. Jeśli ten warunek nie jest spełniony to estymator nie jest zgodny (warunek zgodności estymatora KMNK).
Rząd macierzy obserwacji na zmiennych objaśniających (macierzy X) powinien być równy liczbie parametrów strukturalnych modelu.
n(X) = k + 1
Ten warunek nie będzie spełniony, jeśli w modelu pojawi się współliniowość deterministyczna zmiennych objaśniających to rząd macierzy X będzie mniejszy niż k+1 to macierzy nie da się odwrócić (macierz Hessa staje się osobliwa).
Osobliwość modelu Hessa wynika z błędu specyfikacji modelu – dopuszczono współliniowość deterministyczną.
Xtj = βj0 + βj1xtj
(j,j′=0,1,…,k; j≠j′)
Aby usunąć ten błąd, należy usunąć jedną z dwóch zmiennych z modelu, która jest nieistotna (zbędna).
Przykład
Składnik losowy powinien być czystym (sferyczny) składnikiem losowym.
Homoskedastyczny – jednorodny,
Bez autokorelacji.
Macierz wariancji-kowariancji składników losowych powinna być diagonalna (o identycznych elementach na głównej przekątnej).
$$E\left( \eta\eta^{T} \right)\sigma^{2}I_{n} = \begin{bmatrix}
\begin{matrix}
\sigma_{1}^{2} & \text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }\text{cov}\left( \eta_{t},\eta_{1} \right) & \ldots \\
\end{matrix}\text{\ \ \ \ \ \ \ \ \ \ }\begin{matrix}
\text{cov}\left( \eta_{1},\eta_{t} \right) & \ldots & \text{cov}\left( \eta_{1},\eta_{n} \right) \\
\end{matrix} \\
\begin{matrix}
\text{cov}\left( \eta_{2},\eta_{1} \right) & \text{\ \ \ \ \ \ \ }\sigma_{2}^{2} & \text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }\ldots \\
\end{matrix}\text{\ \ \ \ \ \ \ \ \ \ }\begin{matrix}
\text{cov}\left( \eta_{2},\eta_{t} \right) & \ldots & \text{cov}\left( \eta_{2},\eta_{n} \right) \\
\end{matrix} \\
\text{\ \ \ \ \ \ }\begin{matrix}
\ldots & \text{\ \ \ \ \ \ \ \ \ \ \ \ \ }\ldots & \text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }\ldots \\
\end{matrix}\text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }\begin{matrix}
\ldots & \text{\ \ \ \ \ \ \ \ \ }\ldots & \text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }\ldots \\
\end{matrix}\text{\ \ \ \ \ \ \ \ \ } \\
\begin{matrix}
\text{cov}\left( \eta_{t},\eta_{1} \right)\text{\ \ \ } & \text{\ \ \ \ }\text{cov}\left( \eta_{t},\eta_{2} \right)\text{\ \ \ \ \ \ \ \ \ \ } & \ldots \\
\end{matrix}\text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }\begin{matrix}
\sigma_{t}^{2} & \text{\ \ \ \ \ \ \ \ }\ldots\text{\ \ \ \ \ \ \ \ \ \ \ \ \ } & \text{cov}\left( \eta_{t},\eta_{n} \right) \\
\end{matrix} \\
\ \begin{matrix}
\ldots & \text{\ \ \ \ \ \ \ \ \ \ \ }\ldots & \text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }\ldots \\
\end{matrix}\text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }\begin{matrix}
\ldots & \text{\ \ \ \ \ \ \ \ \ }\ldots & \text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }\ldots \\
\end{matrix} \\
\begin{matrix}
\text{cov}\left( \eta_{n},\eta_{1} \right)\text{\ \ \ \ \ \ \ } & \text{cov}\left( \eta_{n},\eta_{2} \right) & \text{\ \ \ \ \ \ \ \ }\ldots \\
\end{matrix}\text{\ \ \ \ \ }\begin{matrix}
\text{\ \ \ \ \ \ \ \ }\text{cov}\left( \eta_{n},\eta_{t} \right) & \text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }\ldots\text{\ \ \ \ \ \ \ \ \ \ \ \ } & \sigma_{n}^{2} \\
\end{matrix} \\
\end{bmatrix}$$
Warunek jednorodności składnika losowego – wszystkie wariancje powinny być sobie równe.
σ12 = σ22 = … = σt2 = … = σn2 = σ2 = const.
Jeśli warunek jednorodności wariancji nie jest spełniony, pogarsza się efektywność estymatora KMNK. Może prowadzić to do błędu poznawczego, który przejawia się tzw. pozorną nieistotnością zmiennej objaśniającej (jednej lub wielu).
Wszystkie kowariancje powinny być zerowe (brak autokorelacji składnika losowego):
cov(ηt,ηt′) = 0
(t,t′=1,…,n; t≠t′)
Wystąpienie autokorelacji powoduje pogorszenie efektywności estymatora KMNK.
W modelu nie powinna wystąpić współliniowość stochastyczna zmiennych objaśniających. Współliniowość stochastyczną mierzy się współczynnikiem korelacji liniowej Pearsona.
Współliniowości stochastycznej nie ma wtedy, gdy:
r(xtj,xtj′) = 0
(j,j′=0,1,2,…,k; j≠j′)
Wszystkie zmienne objaśniające są skorelowane na poziomie zero – zbiór zmiennych ortogonalnych (nie istnieje).
Brak współliniowości stochastycznej oznacza, że wszystkie współczynniki korelacji dla każdej z par zmiennych objaśniających są statystycznie nieistotne, na rozsądnym poziomie istotności, przy zastosowaniu np. testu t-Studenta.
Jeśli w modelu występuje współliniowość stochastyczna to pogarsza się efektywność estymatora KMNK, co może prowadzić do błędu poznawczego.
Zasadniczo w przypadku współliniowości stochastycznej eliminuje się jedną z pary zmiennych objaśniających, wzajemnie skorelowanych.
Współliniowość stochastyczna jest trudna do uniknięcia. Istnieją takie modele ekonometryczne, w których współliniowość stochastyczna jest nieunikniona – przykładem może być model produkcji (COBB, DOUGLAS):
Pt = α0Ltα1Ktα2eηt
Pt – produkcja,
Lt – nakłady pracy żywej (wyrażone w zatrudnieniu),
Kt – nakłady kapitału, przy czym Kt najczęściej reprezentowane jest przez majątek trwały.
Kapitał i praca – dwa związki:
Związki komplementarne – zależność dodatnia kapitału i pracy (skorelowanie dodatnie),
Substytucja pracy kapitałem – występuje naturalne skorelowanie zmiennych objaśniających.
Poza parametrami strukturalnymi, szacujemy także wariancje składnika losowego za pomocą wariancji resztowej
$$S_{u}^{2} = \frac{1}{n - k - 1}\sum_{t = 1}^{n}{u_{t}^{2} = \frac{1}{n - k - 1}\sum_{t = 1}^{n}{\left( y_{t} - {\hat{y}}_{t} \right)^{2} = \frac{1}{n - k - 1}U^{T}U}}$$
Otrzymujemy wariancję resztową, która jest nieobciążonym estymatorem wariancji składnika losowego.
25.03.11
Odchylenie standardowe reszt:
$$\text{Su} = \sqrt[ + ]{\frac{1}{n - k - 1}\sum_{t = 1}^{n}u_{t}^{2}}$$
Jest to liczba mianowana – wyrażana w tych samych jednostkach co zmienna objaśniana. Su informuje o tym, o ile średnio rzecz biorąc teoretyczne wartości zmiennej objaśnianej obliczone na podstawie modelu empirycznego różnią się od rzeczywistych wartości zmiennej objaśnianej.
Przykład – modelowanie przychodów ze sprzedaży:
yt− przychody ze sprzedaży w mln zł
Su = ±0, 76 mln zl
Su nie daje porównania jakości dwóch rożnych modeli pod względem rzędu wahań losowych.
$$\mathbf{V} = \frac{S_{u}}{\overset{\overline{}}{y}} \bullet 100\left\lbrack \% \right\rbrack$$
Im mniejsze V tym lepszy model. Jest rezultatem zmiennych objaśniających.
Budując model staramy się utworzyć takie model, aby …
Masa całkowitej zmienności zmiennej objaśnianej:
$$\sum_{t = 1}^{n}\left( y_{t} - \overset{\overline{}}{y} \right)^{2} = \sum_{t = 1}^{n}\left( {\hat{y}}_{t} - \overset{\overline{}}{y} \right)^{2} + \sum_{t = 1}^{n}\left( y_{t} - {\hat{y}}_{t} \right)^{2}$$
$$\frac{\sum_{t = 1}^{n}\left( {\hat{y}}_{t} - \overset{\overline{}}{y} \right)^{2}}{\sum_{t = 1}^{n}\left( y_{t} - \overset{\overline{}}{y} \right)^{2}} + \frac{\sum_{t = 1}^{n}u_{t}^{2}}{\sum_{t = 1}^{n}\left( y_{t} - \overset{\overline{}}{y} \right)^{2}} = 1$$
Pierwszy człon – udział zmienności powodowanej przez zmienne objaśniane w całkowitej zmienności zmiennej objaśnianej.
Drugi człon – udział zmienności losowej całkowitej zmienności zmiennej objaśnianej.
Współczynnik zmienności losowej:
$$R^{2} = \frac{\sum_{t = 1}^{n}\left( {\hat{y}}_{t} - \overset{\overline{}}{y} \right)^{2}}{\sum_{t = 1}^{n}\left( y_{t} - \overset{\overline{}}{y} \right)^{2}}$$
Informuje o tym, jaką część całkowitej zmienności zmiennej objaśnianej wyjaśniają zmienne objaśniające, uwzględnione w modelu empirycznym.
Współczynnik zbieżności:
$$\varphi^{2} = \frac{\sum_{t = 1}^{n}u_{t}^{2}}{\sum_{t = 1}^{n}\left( y_{t} - \overset{\overline{}}{y} \right)^{2}}$$
Informuje o tym, jaką część całkowitej zmienności zmiennej objaśnianej ma charakter losowy.
Ich suma daje 1.
Im większe R2 tym model jest lepszy.
Jeżeli φ2 > 0, 1 i R2 > 0, 9 to model jest dobry.
Mikromodel, np. model opisujący procesy w przedsiębiorstwie, oparty na danych rocznych –uzyskanie R2 na poziomie 0,75 do 0,80 uznać należy za duży sukces. W danych rocznych nie widać wahań sezonowych (okresowych) – są wygładzone/zatarte. Dane o okresach krótszych niż rok – tam pojawiają się wahania okresowe.
Nie porównuje się modeli o różnych okresach obserwacji.
MIARY SZCZEGÓŁOWE DOBROCI:
yt = α0 + α1xt1 + … + αjxtj + … + αkxtk + ut
(Sa0) (Sa1) (Saj) (Sak)
Błędy ocen parametrów:
D2(a) = Su2 • (XTX)−1
Błędy powinny być małe – im mniejsze tym lepiej.
BADANIE ISTOTNOŚCI ZMIENNYCH OBJAŚNIAJĄCYCH MODELU:
- test t-Studenta – duża koncentracja wokół średniej arytmetycznej.
(wykres zmienności statystyki t-Studenta z ćwiczeń).
POZIOM ISTOTNOŚCI jest ryzykiem błędu I rodzaju.
Hipotezy:
H0 : αj = 0
H1 : αj ≠ 0
Sprawdzeniem hipotezy jest statystyka t-Studenta:
$$t_{j} = \frac{\left| a_{j} - \alpha_{j} \right|}{Sa_{j}} = \frac{\left| a_{j} \right|}{Sa_{j}}$$
0, 05 ≤ γ ≤ 0, 01
tj ≤ tγ; n − k − 1 − nie ma podstaw do odrzucenia H0, j-ta zmienna objaśniająca jest nieistotna na wybranym poziomie istotności.
tj > tγ; n − k − 1− odrzucamy H0na rzecz hipotezy alternatywnej i wnioskujemy, że j-ta zmienna objaśniająca jest statystycznie istotna.
1.04.11
TEMAT: BADANIE AUTOKORELACJI SKŁADNIKA LOSOWEGO.
Jeżeli kowariancje są zerowe (składników losowych z różnych okresów) oznaczają brak autokorelacji składnika losowego.
Składnik losowy nie ma być autoregresyjny:
ηt = f(ηt − 1,ηt − 2,…,εt) – błąd specyfikacji modelu, autokorelacja składnika losowego.
Bada się autokorelację rzędu I:
ηt = f(ηt − 1,εt)
Miara: ρ1− współczynnik autokorelacji rzędu I; nie ma autokorelacji = 0.
Przyczyny autokorelacji składnika losowego (każda z nich jest błędem specyfikacji modelu):
Wadliwa postać analityczna modelu (autokorelacja dodatnia).
Autokorelacja składnika losowego powoduje pogorszenie jakości estymatora KMNK. Trzeba usunąć błąd specyfikacji modelu: odrzucamy błędną postać, trzeba zastosować inną postać analityczną: model potęgowy, iloczynowy, wykładniczy i wtedy błąd znika.
Brak w modelu zauważalnej (statystycznie istotnej) zmiennej objaśniającej.
Gdy brakuje informacji statystycznej o ważnej zmiennej objaśniającej warto zastosować rozwiązanie w postaci modelu symptomatycznego. Zamiast ważnej zmiennej objaśniającej, o której nie mamy informacji, wprowadzamy zmienną symptomatyczną (zwaną też zmienną zastępczą), o której wiemy, że jest silnie skorelowana z pominiętą ważną zmienną objaśniającą. Efektem będzie usunięcie z modelu autokorelacji składnika losowego. Model będzie poznawczo gorszy od modelu przyczynowo – skutkowego w sensie poznawczym, natomiast jego walory decyzyjne będą znacznie większe niż tego modelu bez ważnej zmiennej objaśniającej z autokorelacją składnika losowego. Jedyny przypadek, gdzie uwzględnia się model symptomatyczny (przy autokorelacji dodatniej) …
Nie uwzględnienie wahań okresowych (to samo, co 2) ) – niedobór zmiennych.
EGZAMIN – nadmiar zmiennych statystycznie nieistotnych w modelu, czego efektem może być ujemna autokorelacja składnika losowego (bardzo częsta zmiana znaków reszt). Wystarczy pozbyć się pojedynczo (!) zmiennych nieistotnych statystycznie, co eliminuje autokorelację składnika losowego.
BADANIE AUTOKORELACJI:
TEST DURIBINA – WATSONA:
Testuje się autokorelację rzędu I. Można wykazać, że jeśli nie ma autokorelacji rzędu I to nie będzie autokorelacji rzędów wyższych. Jeśli jest autokorelacja rzędu I to nie zawsze jest autokorelacja rzędów wyższych.
Trzeba poznać przyczynę (jaki jest rodzaj autokorelacji, czy w ogóle jest, co ją spowodowało, usunięcie przyczyny).
Testujemy: ρ1
H0 : ρ1 = 0− brak autokorelacji I rzędu,
H1 : ρ1 > 0− dodatnia autokorelacja I rzędu.
$$\text{DW} = \frac{\sum_{t = 2}^{n}\left( u_{t} - u_{t - 1} \right)^{2}}{\sum_{t = 2}^{n}u_{t}^{2}}$$
Zależności:
$$\text{DW} \approx 2\left( 1 - {\hat{\rho}}_{1} \right)$$
Przypadek 1:
${\hat{\rho}}_{1} = 1 \rightarrow DW \approx 0 -$ dodatnia autokorelacja składnika losowego.
Przypadek 2:
${\hat{\rho}}_{2} = 0 \rightarrow DW \approx 2 -$ brak autokorelacji składnika losowego.
Przypadek 3:
${\hat{\rho}}_{3} = - 1 \rightarrow DW \approx 4 -$ ujemna autokorelacja składnika losowego.
dl < du− wartość krytyczna: dolna i górna.
+++++ ????? 00000
+++++ 00000
0 dl du 2 4
0 ≤ DW ≤ 2
2) DW > du – na ustalonym poziomie istotności brak podstaw do odrzucenia H0 (do tego chcemy doprowadzić).
3) dl ≤ DW ≤ du – test nie udziela odpowiedzi na pytanie o autokorelację, obszar nieczułości testu.
1) DW < dL – na poziomie istotności odrzucamy H0, wnioskujemy, że występuje dodatnia autokorelacja składnika losowego, ustalić przyczynę i usunąć.
Obszar nieczułości testu – należy zastosować inny test (t-Studenta) na współczynnik korelacji – rozstrzyga jednoznacznie.
Jeśli DW > 2: Dla DW (nie dla DW*)
2) 1)
3)
00000 ????? - - - - - - -
00000 - - - - - - -
0 2 4 – du 4 – dl 4
Zmieniamy hipotezę alternatywną:
H0 : ρ1 = 0
H1 : ρ1 < 0
DW*=4 − DW
DW* < dl = > na poziomie istotności odrzucamy H0 (ujemna autokorelacja składnika losowego),
DW* > du = > na poziomie istotności nie ma podstaw do odrzucenia H0 (brak autokorelacji),
dl ≤ DW* ≤ du = > test Durbina-Watsona nie daje odpowiedzi, należy zastosować inny test.
Wartości krytyczne dl i du:
- każda tablica dla innego poziomu istotności (najczęściej γ = 0, 05),
- jeżeli nie ma 10 to zaczynamy od 15,
- jeżeli mamy 55 a jest 50 i 60 – trzeba interpolować: (50+60):2.
Dobry model:
- właściwe R2 i ρ2 (wcześniej ustalony),
- wszystkie zmienne istotne statystyczne (0,05 – najlepiej, gdy 0,01),
- nie może wystąpić autokorelacja składnika losowego,
- model musi być logiczny ekonometrycznie.
Jeśli występuje autokorelacja – pogarsza się efektywność estymatora KMNK.
Współliniowość zmiennych objaśniających w modelu i jego wpływ na efektywność estymatora KMNK.
Współliniowość deterministyczna:
xtj = βj0 + βjj′, xtj
(j,j′=0,1,…,k;j≠j′)
Estymator KMNK nie istnieje.
Eliminacja błędu: usunięcie jednej z pary zmiennych w modelu (dwie zmienne zawierają te same informacje o zmiennej objaśnianej).
Współliniowość stochastyczna:
r(xtj,xtj′) ≠ 0−istotne statystycznie skorelowanie zmiennych objaśniających.
(j,j′=0,1,…,k;j≠j′)
Skorelowanie zmiennych objaśniających rośniej:
rjj′ ↑ −to wyznacznik macierzy Hessa jest duży det(XTX) ↓ − zmierza do zera,
duży det(XTX)−1 ↑ − diagonalne elementy macierzy odwrotnej do macierzy Hessa,
duży $\det{\ D}^{2}\left( \hat{\alpha} \right) \uparrow -$ diagonalne elementy macierzy wariancji kowariancji,
S(aj) (j=0,1,…,k) ↑ − błędy ocen parametrów strukturalnych,
$t_{j} = \frac{\left| a_{j} \right|}{Sa_{j}} \downarrow -$ zjawisko …
Psuje się efektywność szacunków.
EGZAMIN – skorelowanie może spowodować, że zmienna xj okaże się nieistotna przy statystyce t-Studenta, ale ta niestotność może być pozorna – spowodowana współliniowością stochastyczną. Co zrobić, aby nie doprowadzić do błędu poznawczego (pozorna niestotność)? – należy doprowadzić do tego, aby zmienne nie wystąpiły razem.
8.04.11