EKONOMETRIA - zajmuje się mierzeniem zależności między zjawiskami ekonomicznymi wykorzystując znane narzędzia ze statystyki i matematyki. Zajmuje się mierzeniem zjawisk ekonomicznych. Słowo ekonometria użyto w 1925 r
Zajmuje się ona metodami związków między różnymi zjawiskami ekonomicznymi z jednej strony, a innymi zjawiskami (niekoniecznie ekonomicznymi) z drugiej.
Ekonometria stawia sobie kilka zasadniczych celów:
opis mechanizmu kształtowania się zależności między zjawiskami ekonomicznymi - cel poznawczy,
przewidywanie, prognozowanie dalszego przebiegu zjawisk ekonomicznych - cel predyktywny
wpływanie na dalszy przebieg - sterowanie zjawisk ekonomicznych - cel decyzyjny.
Ekonometria rozumiana w najwęższym sensie spełnia tylko cel poznawczy, ekonometria sensu stricto spełnia cel poznawczy i predyktywny, ekonometria sensu largo - wszystkie trzy cele.
Każde zjawisko np. wielkość produkcji zależy od: - ilości produkcji, - tego jak dostępny jest surowiec, - od tego jak chłonny jest rynek. Liczba zjawisk ekonomicznych wpływająca na nasz skutek jest nieskończenie duża. Element przypadkowy decyduje o jakości naszych badań.
MODEL EKONOMETRYCZNY - jest to podstawowe narzędzie badawcze. Model ekonom. można określić jako opis interesującego nas fragmentu rzeczywistości ekonomicznej. Formą tego modelu jest układ równań przedstawiających zasadnicze relacje między zjawiskami ekonomicznymi.
Po lewej stronie równania znajduje się symbol odpowiadający pewnemu zjawisku jako skutek -nazywany jest zmienną objaśnianą.
Po prawej stronie równania znajduje się jedna zmienna, agregat, czynnik zewnętrzny - element losowy.
MODELE JEDNOWYMIAROWE - jedna zmienna objaśniana
W modelu występują:
ZMIENNE:
Rozpatrując każde równanie oddzielnie wyróżniamy:
zmienne objaśniane - jest ich tyle ile równań
zmienne objaśniające - zbiory tych dwóch zmiennych nie wykluczają się.
Rozpatrując model jako całość zmienne dzielimy na:
zmienne endogeniczne - wewnętrzne
zmienne egzogeniczne - występują jedynie w roli zmiennych objaśniających w poszczególnych równaniach.
PARAMETRY - zwykłe
liczby bądź zmienne losowe.:
populacja generalna - istnieje rzeczywista zależność zmiennej objaśnianej od zmiennych objaśniających
parametry strukturalne modelu - liczby, zmienne. W celu oszacowania wartości tych zmiennych parametrów strukturalnych pobieramy próbę. Każdy parametr obliczamy na podstawie próbki jest zmienną losową i nazywamy go ESTYMATOREM. Parametry obliczane na podstawie próbki nazywamy estymatorami strukturalnymi.
ESTYMATOR - może być postrzegany jako:
rzeczywista liczba nieznana
zmienna losowa
realizacja estymatora - konkretna liczba gdy próba jest pobrana.
MODEL LINIOWY
3. ELEMENT LOSOWY - występuje jako składnik - symbol: ε
Składnik losowy musi występować w modelu liniowym, reprezentuje zjawiska zewnętrzne.
Występujące w modelu zmienne są mierzone - istnieje zatem możliwość wystąpienia błędu pomiaru.
Zawsze istnieje ryzyko wybranie błędnej postaci funkcji.
REGRESJA I KORELACJA
REGRESJA - funkcja matematyczna. Znajomość f. regresji sprowadza się do znajomości parametrów. Do oszacowania potrzebne są dane statystyczne.
W statystyce są 2 rodzaje regresji:
regresja I - go rodzaju
regresja II - go rodzaju
Wartość oczekiwana - uogólnienie średniej arytmetycznej.
Warunkowa wartość oczekiwana - przeciętnie średnio u wszystkich jednostek statystycznych u których
x = x 0, zmienna y powinna przyjąć wartość warunkowej wartości oczekiwanej.
X 1 = X 0 + Δ X
Punkty leżące na linii na współrzędnych y =warunkowej wartości oczekiwanej zmiennej y dla danej wartości zmiennej x linię tą nazywamy LINIĄ REGRESJI
I - GO RODZAJU. W praktyce liczba obserwacji jest na ogół niewielka i dlatego znalezienie linii regresji I - go rodzaju jest niemożliwe.
LINIĄ REGRESJI II - GO RODZAJU jest linia wyznaczona na podstawie próbki zbioru skończonego. W przypadku linii regresji II rodzaju zamiast wart. oczekiwanej będziemy ją nazywać WARTOŚCIĄ TEORETYCZNĄ.
Ŷi = A 1 Xi + B 1
ei - błąd wnioskowania na podstawie regresji lub reszta
Suma odchyleń musi być jak najmniejsza
ei = yi - Ŷi = yi - a 1 xi - b 1
reszta dodatnia - punkt leży nad linią
reszta ujemna - punkt leży pod linią
Odległość nie może być ujemna:
S = ∑ ei = min
S = f (a 1, b 1) = min
Własności regresji - proste:
Ÿ = a 1 x + b 1
X = a 1 y + b 2
KORELACJA - kąt przecięcia się obu prostych regresji zależy od rozrzutu punktów empirycznych na wykresie korelacyjnym. Miara współczynnika korelacji powinna znajdować się w przedziale od -1 do 1. W przypadku całkowitego braku zależności powinna przyjmować wartość 0.
r =
lub r =
INTERPRETACJA:
1. Znak współczynnika korelacji świadczy o kierunku zależności, gdy:
r > 0 - występuje zależność stochastyczna dodatnia (wraz ze wzrostem wartości jednej zmiennej wzrastają wartości drugiej zmiennej)
r < 0 - występuje zależność stochastyczna ujemna (wraz ze wzrostem wartości jednej zmiennej zmniejszają się wartości drugiej zmiennej.
2. wartość wpółcz. korel. Świadczy o sile zależności, gdy
r = 0 - obie zmienne są nieskorelowane
0 < r < 1 - występuje zależność stochastyczna a siła zależności jest wprost proporcjonalna do modelu wartości współcz. korel.
R = 1 - występuje zależność funkcjonalna (liniowa)
KLASYCZNA METODA NAJMNIEJSZYCH KWADRATÓW (KMNK)
A = ( X T X) X T Y
Warunki KMNK muszą być spełnione:
bezwzględnie
nie muszą być spełnione
charakter formalny
Założenia KMNK:
KMNK stosujemy do szacowania modelu liniowego
KMNK wartość oczekiwana składników losowych dla wszystkich obserwacji jest = 0, jest to założenie formalne. Suma reszt jest zawsze = 0.
jeżeli wszystkie składniki dla wszystkich obserwacji tworzą wektor losowy, każda z zmiennych losowych ma swoją wariancję. Wszystkie te wariancje są sobie równe, jednakowe.
macierz X jest macierzą nielosową jest to założenie nieformalne
r (X) = k + 1
r - liczba objaśniających
k - liczba szacowanych parametrów
macierz musi istnieć wtedy gdy liczby wierszy tej macierzy muszą być przynajmniej n > k + 1. Kolumny macierzy X muszą być liniowo niezależne
nie ma błędów w pomiarze liczby w macierzy są prawdziwe
parametry strukturalne wektor a nie podlegają żadnym ograniczeniom, czyli nie spełniają żadnych założeń. Parametr musi byż z przedziału od 0 do 1
NIEKTÓRE WŁASNOŚCI ESTYMATORA A
Wektor A nazywamy estymatorem jest on zatem zmienną losową k + 1, jeśli jest zmienną to posiada parametry. Występują tu wariancje parametrów które łączą się z kowariancjami.
Wariancje i kowariancje zapisujemy w postaci macierzy wariancji i kowariancji estymatorów i parametrów strukturalnych.
W wierszu „i” w kolumnie „j” znajduje się kowariancja między parametrem o numerze „i” oraz o nr „j”. Jeśli jest to element na głównej przekątnej to wtedy ta kowariancja staje się wariancją.
∑ a - macierz wariancji i kowariancji
∑ a = G (X X)
G - wariancja składnika losowego
Sa - estymator macierzy wariancji i kowariancji estymatorów parametrów strukturalnych.
Sa = S ( X X)
WERYFIKACJA MODELI - jest to sprawdzenie jakości modelu
Kryteria weryfikacji:
Dopasowanie modeli
Istotność wpływu zmiennych objaśniających na zmienną objaśnianą
Własności składnika losowego
Ad. 1.
ϕ - stosunek wariancji resztowej w wariancji całkowitej, współczynnik zbieżności lub zgodności
R - współczynnik determinacji lub określoności , udział wariancji regresywnej w wariancji całkowitej
+ R = 1
INTERPRETACJA MERYTORYCZNA:
ϕ - określa w jakim stopniu zmienność zmiennej objaśnianej zależy od czynników zewnętrznych zjawisk zmiennych, które w modelu nie występują, ale które są w modelu przez coś reprezentowane a więc przez składnik losowy
R - określa w jakim stopniu zmienność zmiennej objaśnianej zależy os zmiennych objaściających ma ona byś największa wtedy jest dobrze dopasowane