Dobór zmiennych objaśniających do liniowego modelu ekonometrycznego
Wstępnym zadaniem przy budowie modelu ekonometrycznego jest określenie zmiennych objaśniających. Kryterium wyboru powinna być merytoryczna znajomość badanego zjawiska. Należy wybierać takie czynniki (zmienne objaśniające), które mają istotny wpływ na kształtowanie się badanego zjawiska (zmiennej objaśnianej). Tak zebrane zmienne będą nazywane zbiorem potencjalnych zmiennych objaśniających.
Do najważniejszych kryteriów formalno-statystycznych stosowanych w metodach wyboru zmiennych należą:
1. Zmienne występujące w modelu powinny charakteryzować się dużą zmiennością;
2. Należy zapewnić maksymalne skorelowanie zmiennej objaśnianej ze zmiennymi objaśniającymi;
3. Zmienne objaśniające nie powinny być istotnie skorelowane między sobą;
4. Należy dążyć do maksymalnego stopnia dopasowania modelu do rzeczywistych relacji gospodarczych, co wyraża się w maksymalizacji współczynnika determinacji R2.
Załóżmy, że dysponujemy k-elementowym zbiorem „kandydatek” na zmienne objaśniające {X1, X2, …, Xk}, dla których szacujemy macierz R:
oraz wektor R0:
Mając wyznaczone macierz R i wektor R0 przystępuje się do obliczania tzw. indywidualnych pojemności nośników informacji X o zmiennej Y, wchodzących w skład różnych kombinacji utworzonych z elementów danego k-elementowego zbioru potencjalnych zmiennych objaśniających. Wiadomo, że ogólna liczba tych kombinacji wynosi dokładnie
l = 2k - 1
Indywidualne pojemności nośników informacji dla poszczególnych potencjalnych zmiennych objaśniających w ramach każdej kombinacji zdefiniowane są następująco:
gdzie: hkj - wskaźnik indywidualnej pojemności informacji zmiennej Xj w k-tej kombinacji; r0j - współczynnik korelacji zmiennej objaśnianej ze zmienną Xj; rij - współczynnik korelacji miedzy potencjalnymi zmiennymi objaśniającymi Xi oraz Xj; nk - liczba potencjalnych zmiennych objaśniających w k - tej kombinacji.
Następnie oblicza się wskaźniki integralnej pojemności informacji w ramach każdej z n kombinacji według wzoru
Wskaźniki indywidualnej i integralnej pojemności informacji charakteryzują się następującymi własnościami:
* przyjmują tym większe wartości, im silniej zmienne objaśniające są skorelowane ze zmienną objaśnianą,
* przyjmują tym większe wartości, im słabiej zmienne objaśniające są skorelowane między sobą,
* są unormowane: 0≤hkj≤1, 0≤Hk≤1.
* są niemianowane.
Przedstawiona metoda postępowania pozwala na wybór optymalnej kombinacji zmiennych objaśniających. Kryterium wyboru takiej kombinacji można zapisać jako
gdzie:
Hk* - oznacza kombinację optymalnych zmiennych.
W pierwszej kolejności wyznaczamy macierz korelacji R. Następnie rozpatrujemy wyznaczniki poszczególnych podmacierzy otrzymanych z macierzy R, w której zachowano tylko wiersze i kolumny o numerach równych numerom zmiennych w rozpatrywanej kombinacji. Za optymalną kombinację uważa się taką kombinację zmiennych, dla której odpowiedni podwyznacznik jest największy (zmienne X1, X2, …, Xk są tym słabiej skorelowane między sobą, im większy i bliższy jedności jest odpowiedni wyznacznik macierzy korelacji).
Idea tej metody, podobnie jak w metodzie pojemności informacji, opiera się na wyborze takich zmiennych objaśniających do modelu, które są silnie skorelowane ze zmienną objaśnianą oraz słabo skorelowane między sobą. Procedura metody rozpoczyna się od utworzenia wektora korelacji R0 między zmienną objaśnianą a potencjalnymi zmiennymi objaśniającymi oraz macierzy korelacji R parami między potencjalnymi zmiennymi objaśniającymi.
W kolejnym etapie sprawdzamy, które elementy macierzy R są tak małe, że możemy je uznać za zerowe (nieistotnie różne od zera). W tym celu porównujemy rzeczywiste współczynniki korelacji rij z macierzy R ze współczynnikiem krytycznym, który możemy wyznaczyć dwoma sposobami. Współczynnik ten można wyznaczyć ze wzoru
gdzie t jest wartością statystyki odczytaną z tablic testu t-Studenta dla zadanego poziomu istotności α oraz dla n - 2 stopni swobody.
Drugi sposób jest oparty na regule minimaksowej, takiej, że na podstawie macierzy R ustalamy:
Jeśli zachodzi warunek , to wszystkie elementy spełniające ten warunek zastępujemy w macierzy R zerami. Macierz tę oznaczamy R'.
W kolejnym etapie na podstawie macierzy R' budujemy graf, w którym wierzchołkami są potencjalne zmienne objaśniające, a wiązadłami niezerowe elementy macierzy R'. Możemy otrzymać graf spójny lub kilka podgrafów, a także punkty (zmienne) odosobnione. Z tak powstałych podgrafów do modelu wybieramy zmienne odosobnione (nie są one bowiem skorelowane z innymi potencjalnymi zmiennymi objaśniającymi) oraz te zmienne, które mają największą liczbę powiązań (wiązadeł) z innymi potencjalnymi zmiennymi objaśniającymi. Jeżeli takich zmiennych jest więcej niż jedna, to wybiera się spośród nich tę, która jest najsilniej skorelowana ze zmienną objaśnianą. Taki wybór jest podyktowany tym, że zmienna o największej liczbie wiązadeł w grafie gromadzi w sobie najwięcej informacji o pozostałych zmiennych (z którymi była powiązana), a więc będzie dobrą ich reprezentantką.
Warunkiem wstępnym do tego, aby dana zmienna mogła być uznana za objaśniającą w modelu, jest jej wystarczające zróżnicowanie. Zmienną objaśniającą bowiem nie może być zmienna, której poszczególne obserwacje nie różnią się między sobą (lub różnią się w niewielkim stopniu). Nie jest to wtedy zmienna, lecz stała (lub quasi-stała). Do mierzenia poziomu zróżnicowania najczęściej wykorzystuje się klasyczny współczynnik zmienności:
gdzie:
- odchylenie standardowe zmiennej Xj,
- średnia arytmetyczna zmiennej Xj.
Zwykle obiera się krytyczną wartość współczynnika zmienności V* (np. V* =0,1). Zmienne spełniające nierówność
uznaje się za mało zróżnicowane i eliminuje ze zbioru potencjalnych zmiennych objaśniających. Zmienne te nie wnoszą istotnych informacji.
W metodzie tej ustala się tzw. wartość krytyczną współczynnika korelacji. Określa ona poziom istotności współczynnika korelacji. Wartość ta może być zadana przez badacza albo wyznaczona ze wzoru:
Procedura doboru zmiennych objaśniających jest następująca.
1. Ze zbioru potencjalnych zmiennych objaśniających eliminuje się wszystkie zmienne, dla których zachodzi nierówność
są to bowiem zmienne nieistotnie skorelowane ze zmienną objaśnianą.
2. Spośród pozostałych potencjalnych zmiennych jako zmienną objaśniającą wybiera się taką zmienną Xh, dla której
Ponieważ zmienna Xh jest nośnikiem największego zasobu informacji o zmiennej objaśnianej.
3. Ze zbioru pozostałych potencjalnych zmiennych objaśniających eliminuje się te wszystkie zmienne, dla których
są to bowiem zmienne zbyt silnie skorelowane ze zmienną objaśniającą Xh, a więc powielające dostarczone przez nią informacje.
Jeśli pozostały jeszcze jakieś zmienne, to przechodzi się do punktu 2. Postępowanie kontynuuje się do momentu wyczerpania zbioru potencjalnych zmiennych objaśniających.
Standardowy model liniowy i klasyczna metoda najmniejszych kwadratów
W konstrukcji modelu ekonometrycznego wiele zależy od realizacji etapu związanego z estymacją parametrów strukturalnych. Szacowanie parametrów modelu ekonometrycznego sprowadza się do przypisywania nieokreślonym liczbowo parametrom konkretnych wartości liczbowych. Szacowanie to powinno być przeprowadzone w taki sposób, aby zapewniło najlepsze dopasowanie modelu do danych empirycznych.
Powszechnie wykorzystywaną metodą szacowania parametrów liniowych modeli ekonometrycznych:
Y=α0 + α1X1 + … + αkXk + ε
jest klasyczna metoda najmniejszych kwadratów.
Idea tej metody sprowadza się do takiego wyznaczenia wartości ocen a0, a1,…, ak parametrów strukturalnych α0, α1,…, αk, że suma kwadratów odchyleń zaobserwowanych wartości zmiennej objaśnianej od jej wartości teoretycznych obliczonych z modelu była najmniejsza. Warunek ten zapisuje się następująco:
gdzie et(ut) (t=1,2,…,n) - odchylenie empirycznych wartości zmiennej objaśniającej od jej wartości teoretycznych nazywane resztami modelu:
przy czym:
Zastosowanie klasycznej metody najmniejszych kwadratów wymaga przyjęcia następujących założeń:
* postać modelu jest liniowa względem parametrów (lub sprowadzalna do liniowej),
* zmienne objaśniające są wielkościami nielosowymi,
* zmienne są niezależne i wolne od współliniowości, czyli nie występuje między
zmiennymi dokładna zależność liniowa,
* składnik losowy ε nie jest skorelowany ze zmiennymi objaśniającymi,
* E(ε)=0, czyli składniki losowe dla wszystkich obserwacji mają wartości oczekiwane równe zeru. Konsekwencją tego jest bardzo ważna interpretacja liczbowa parametru αi. Oszacowana wartość liczbowa parametru αi informuje o ile wzrośnie (lub zmniejszy się) przeciętna wartość zmiennej objaśnianej Y, gdy przy nie zmienionych wartościach innych zmiennych objaśniających wartość zmiennej objaśniającej Xi wzrośnie o jednostkę,
* E(εεT)=σ2I. Założenie to można podzielić na dwie części. Po pierwsze mówi ono, że E(εt2)=σ2 dla wszystkich t, co jest założeniem o jednorodności (stałości) wariancji składnika losowego (o homoscedastyczności składnika losowego). Jednorodna wariancja implikuje, że dyspersja (rozrzut) łącznego wpływu zmiennych nie uwzględnionych w modelu nie zmienia się w czasie.
Po drugie oznacza, że E(εs,εt)=0 (kowariancja jest równa 0) dla wszystkich s≠t, co jest założeniem o nie skorelowaniu składników losowych. Konsekwencją tego założenia jest fakt, że rozkład składnika losowego jest dla wszystkich obserwacji, taki sam i nie zależy od zmiennych objaśniających, a zatem wielkość w dowolnym momencie (okresie) nie ma żadnej wartości informacyjnej z uwagi na rozkład w innych momentach (okresach),
* rz(X)=k+1≤n. Założenie to stanowi warunek konieczny dla jednoznacznego określenia estymatorów Klasyczną Metodą Najmniejszych Kwadratów.
Liniowy model ekonometryczny z jedną zmienną objaśniającą ma ogólną postać:
Wartości ocen a0 oraz a1 parametrów strukturalnych α0 oraz α1 otrzymuje się w tym wypadku z warunku:
Wyznaczamy pochodne cząstkowe funkcji S i porównujemy je do zera, gdyż warunkiem koniecznym na to, aby funkcja dwóch zmiennych przyjęła wartość minimalną, są zerowe wartości poszczególnych pochodnych cząstkowych względem obu zmiennych.
Ostatecznie otrzymujemy układ równań:
Przekształcając drugie równanie mamy:
Podstawiając jednocześnie do pierwszego równania w miejsce a0 otrzymujemy:
W wyniku rozwiązania układu równań normalnych otrzymujemy ostatecznie następujące wzory na a0 i a1:
gdzie
oraz oznaczają średnie arytmetyczne zmiennych Y i X. Wzór na ocenę a ma jeszcze inną postać.
Rozpatrzmy osobno mianownik i licznik:
Licznik:
Mianownik:
Stąd:
Wartość oceny a parametru α informuje, o ile jednostek zmieni się wartość zmiennej objaśnianej Y, jeśli wartość zmiennej objaśniającej X zmieni się o jednostkę.
Specyficznym modelem liniowym z jedną zmienną objaśniającą jest liniowy model tendencji rozwojowej (trend liniowy) o postaci:
gdzie t oznacza zmienną czasową.
Wzory na oceny parametrów strukturalnych trendu liniowego są podobne do poprzednich, z tym, że zamiast zmiennej X występuje zmienna czasowa t tzn.:
Warto zauważyć, że w przypadku macierzy symetrycznej macierz dopełnień równa jest transponowanej macierzy dopełnień.
Parametry liniowego modelu ekonometrycznego szacujemy analogicznie jak w przypadku modelu z jedną zmienną objaśniającą, wyznaczając minimum:
Dalsze obliczenia wygodniej jest prowadzić w zapisie macierzowym. Liniowy model ekonometryczny można wtedy przedstawić w postaci:
Y = Xα + ε,
gdzie:
- wektor obserwacji zmiennej objaśniającej,
- macierz obserwacji zmiennych objaśniających,
- wektor parametrów,
- wektor składników losowych.
Ocenę a wektora parametrów α znajduje się przez zminimalizowanie funkcji
ƒ(a)=(y-Xa)T(y-Xa)
Po zróżniczkowaniu względem wektora a i po rozwiązaniu równania okazuje się, że funkcja ƒ osiąga minimum w punkcie
=(XTX) -1XTy
przy założeniu, że det(XTX)≠0
Wektora a jest nazywany wektorem ocen parametrów α. Po oszacowaniu model zapisuje się zwykle w postaci
gdzie - wartości teoretyczne zmiennej objaśnianej Y.
Po oszacowaniu otrzymujemy - wspomniane już wcześniej - tzw. reszty modelu, czyli różnice między rzeczywistymi a teoretycznymi wartościami zmiennej objaśnianej. Reszta odpowiadająca i-tej obserwacji wyraża się więc wzorem
Ocena wariancji składnika losowego wyraża się wzorem
gdzie k - oznacza liczbę zmiennych objaśniających.
Wielkość ta określa się często jako wariancję resztową, a jej pierwiastek kwadratowy mówi, o ile przeciętnie odchylają się poszczególne obserwacje zmiennej objaśnianej od ich wartości teoretycznych oszacowanych na podstawie modelu.
Macierz wariancji i kowariancji ocen parametrów szacuje się na podstawie wzoru
W macierzy tej na głównej przekątnej są wariancje ocen parametrów V(aj) dla j=1, 2, …, n. Wielkości
są standardowymi błędami szacunku parametrów. S(aj) informuje, o ile jednostek wartość oceny aj różni się od rzeczywistej wartości parametru αj.
Ocena dopasowania modelu do danych empirycznych
Po oszacowaniu parametrów modelu należy zbadać, czy zbudowany model dobrze opisuje badane zależności. Jeśli okaże się, że rozbieżność między otrzymanym modelem a danymi empirycznymi lub między otrzymanym modelem a wiedzą ekonomiczną o badanych zależnościach jest duża, wówczas należy go skorygować oraz poprawić.
Przyczyny powodujące złą jakość modelu ekonometrycznego mogą się pojawić już w początkowych etapach badania ekonometrycznego. Nigdy nie ma pewności, czy zostały dobrane odpowiednie zmienne objaśniające. Wątpliwości może budzić także dobór postaci analitycznej modelu. W samym procesie estymacji mogła też być zastosowana niewłaściwa metoda szacowania parametrów. Wszystko to powoduje potrzebę przeprowadzania weryfikacji zbudowanego modelu przed jego wykorzystaniem do wnioskowania o badanych zależnościach.
Weryfikacja modelu sprowadza się do zbadania trzech własności:
Badanie dokładności szacunku modelu
Badanie stopnia dopasowania modelu do danych empirycznych
Weryfikacja hipotez dotyczących odchyleń losowych
Badanie statystycznej istotności estymatorów parametrów występujących w modelu
Badanie zasadności przyjętej postaci analitycznej modelu
Ocena dopasowania modelu do danych empirycznych ma na celu sprawdzenie, czy model ten w wystarczająco dużym stopniu wyjaśnia kształtowanie się zmiennej objaśnianej. Do tego celu służą różne miary zgodności modelu z danymi empirycznymi.
Jedną z podstawowych miar jakości dopasowania modelu do danych empirycznych jest współczynnik determinacji. Ma on postać:
Współczynnik ten przyjmuje wartości z przedziału [0;1]. Informuje on, jaką część całkowitej zmienności zmiennej objaśnianej stanowi zmienność wartości teoretycznych tej zmiennej, tj. część zdeterminowana przez zmienne objaśniające. Dopasowanie modelu do danych jest tym lepsze, im współczynnik determinacji jest bliższy jedności.
Miarą uzupełniającą miarę R2 jest współczynnik zbieżności. Ma on postać:
Widać stąd, że φ2=0 jedynie wówczas, gdy wszystkie reszty modelu są równe zeru (odpowiada to dokładnemu dopasowaniu modelu do danych empirycznych). Z drugiej strony, jeśli reszty modelu wykazują taką samą zmienność (w sensie wariancji) jak obserwacje dotyczące zmiennej objaśnianej, to współczynnik zbieżności przyjmuje wartość 1. Sytuacja ta oznacza brak dopasowania modelu do danych empirycznych. Można wykazać, że
R2 =1-φ2.
Dlatego też wartość miary R2 interpretujemy jako frakcję zmienności zmiennej objaśnianej - wyjaśnianą przez model, a wartość miary φ2 odpowiada frakcji zmienności, której model nie wyjaśnia. Z praktycznego punktu widzenia pożądane jest, aby R2 było bliskie 1.
Kolejnym elementem parametrów struktury stochastycznej jest współczynnik korelacji wielorakiej.
Jest on miarą siły związku liniowego zmiennej objaśnianej Y ze zmiennymi objaśniającymi X1, X2, …, Xk . Zdefiniowany jest następująco:
gdzie: det(R) - wyznacznik macierzy R współczynników korelacji zmiennych objaśniających X1, X2, …, Xk łączonych parami; det(W) - wyznacznik macierzy:
Współczynnik korelacji wielorakiej jest unormowany w przedziale [0;1]. Przyjmuje tym większe wartości, im związek zmiennej objaśnianej ze zmiennymi objaśniającymi jest silniejszy. Współczynnik korelacji wielorakiej może być kryterium wyboru najlepszej kombinacji zmiennych objaśniających spośród jednakowo licznych kombinacji. Wartość R można wyznaczyć również z następującej zależności:
W ocenie stopnia dopasowania modelu do danych empirycznych przydatne jest wyznaczenie współczynnika zmienności losowej. Współczynnik ten informuje, ile procent wartości średniej arytmetycznej zmiennej objaśnianej stanowi odchylenie standardowe składnika losowego. Wyznacza się go zatem z następującej zależności:
Przyjmuje się, że nie powinien on przekraczać 10%.
W procesie weryfikacji oprócz analizy „zdroworozsądkowej”, mającej na celu wykluczenie wyników niezgodnych bądź z teorią ekonomii, bądź z długo obserwowanymi wynikami doświadczeń, szerokie zastosowanie znajdują instrumenty z zakresu statystyki matematycznej. Chodzi tu przede wszystkim o teorię hipotez statystycznych.
Kolejnym etapem weryfikacji modelu ekonometrycznego jest sprawdzenie statystycznej istotności parametrów strukturalnych, tj. ocena, czy parametry różnią się statystycznie istotnie od zera. Służy temu test istotności t-Studenta. Hipotezy tego testu są następujące:
H0 : αi = 0
H1 : αi ≠ 0
Hipoteza zerowa H0 oznacza, że parametr jest statystycznie nieistotny, natomiast hipoteza H0 alternatywna oznacza, że parametr jest istotny. Sprawdzianem testu jest statystyka t-Studenta, liczona według następującego wzoru:
gdzie:
ai - ocena i-tego parametru strukturalnego,
S(ai) - błąd średni szacunku parametru strukturalnego αi.
Po obliczeniu statystyki t-Studenta porównujemy jej wartość bezwzględną z wartością krytyczną tα,n-1 odczytaną z tablic kwantyli rozkładu t-Studenta dla przyjętego poziomu istotności α (najczęściej przyjmuje się, że α=0,05) i df=n-k stopni swobody (n jest to liczba obserwacji, k jest liczbą szacowanych parametrów). Jeżeli moduł obliczonej statystyki tai z próby jest większy od krytycznej wartości statystyki tα,n-1, oznacza to, że hipotezę zerową mówiącą o braku istotności parametru strukturalnego należy odrzucić na rzecz hipotezy alternatywnej mówiącej, że parametr jest statystycznie istotny. W przeciwnym wypadku nie mamy podstaw, aby dany parametr uznać za istotny.
Współczynnik determinacji - przy dodatkowym założeniu o normalności rozkładu wektora składnika losowego - może być zbadany z punktu widzenia rozkładu użytecznego do budowy testu dotyczącego istotności parametrów. W tym przypadku hipoteza zerowa ma postać:
H0 : α1=α2=…=αm= 0
przeciwko
H1 : |α1|+|α2|+…+|αm|≠ 0
W razie odrzucenia hipotezy zerowej wnioskujemy, że przynajmniej jeden z parametrów strukturalnych rozpatrywanego modelu jest różny od zera. W razie braku podstaw do odrzucenia hipotezy zerowej należy uznać, że wszystkie m zmiennych objaśniających należałoby z modelu usunąć, wobec czego procedurę budowy modelu trzeba rozpocząć od nowa. Akceptacja H0 oznacza bowiem, że wartości zmiennej objaśnianej powinny być wyjaśniane przez jej wartość przeciętną z próby (z pominięciem wpływu składnika losowego).
Można wykazać, że przy prawdziwości hipotezy zerowej statystyka
ma rozkład F-Fishera-Snedecora k-1 oraz n-k stopniami swobody.
Procedura testowania jest więc następująca:
* Na podstawie próby obliczamy wartość empiryczną statystyki F (co wymaga znajomości współczynnika determinacji).
* Dla zadanego poziomu istotności α znajdujemy wartość krytyczną F*. Odczytu dokonujemy dla k-1 i n-k stopni swobody.
* Jeżeli F>F*, to hipotezę H0 odrzucamy. W przeciwnym razie stwierdzamy brak podstaw do odrzucenia H0.
Analiza wybranych własności
rozkładu reszt
Poprawnie skonstruowany i oszacowany model, który następnie ma być wykorzystany do celów analizy i predykcji, poza wysokim stopniem odzwierciedlania zmian wartości empirycznych powinien także charakteryzować się pewnymi pożądanymi własnościami rozkładu reszt. Ich weryfikacji dokonuje się za pomocą odpowiednich testów statystycznych.
I tak reszty „dobrego” modelu powinny m.in. charakteryzować się losowością, normalnością i symetrią. Ponadto, w przypadku gdy dane empiryczne mają charakter szeregów czasowych, należy sprawdzić, czy nie występuje zjawisko autokorelacji reszt modelu.
Autokorelacja odchyleń losowych oznacza liniową zależność między odchyleniami losowymi z różnych jednostek czasu. Miarą siły i kierunku autokorelacji odchyleń losowych εt z okresu t i odchyleń losowych εt-τ z okresu t-τ jest współczynnik korelacji:
ρτ=ρ(εt, εt-τ)
nazywany współczynnikiem autokorelacji rzędu τ. Oszacowaniem tego współczynnika jest współczynnik autokorelacji reszt et i et-τ określony wzorem:
Do weryfikacji hipotezy o braku autokorelacji odchyleń losowych εt i εt-1, tj. hipotezy
H0 : [ρ1=0],
wobec hipotezy alternatywnej
H1 : [ρ1≠0]
służy test Durbina-Watsona.
Sprawdzianem tej hipotezy w wypadku autokorelacji dodatniej jest statystyka:
Statystyka d przyjmuje wartości z przedziału [0,4], jeżeli hipoteza zerowa jest prawdziwa, to d=2. Wartość d<2 świadczą o istnieniu autokorelacji dodatniej, natomiast wartości d>2 świadczą o istnieniu autokorelacji ujemnej. Zatem w zależności od otrzymanej wartości d trzeba sprecyzować dokładniej hipotezę alternatywną.
Przy autokorelacji ujemnej należy wyznaczyć d' według wzoru:
d' = 4 - d.
Obliczoną wartość statystyki d (lub d') porównuje się z dwoma wartościami krytycznymi: dL i dU odczytanymi z tablic Durbina-Watsona dla przyjętego poziomu istotności α oraz n i k-1 stopni swobody (n - liczba obserwacji, k-1 - liczba zmiennych objaśniających w modelu, bez zmiennej tożsamościowo równiej jeden).
Reguła decyzyjna jest następująca. Hipotezę zerową (o braku autokorelacji) odrzucamy (na korzyść hipotezy alternatywnej) w przypadku, gdy wartość d obliczona na podstawie obserwacji będzie mniejsza od dL. W przypadku, gdy d>dU, stwierdzamy brak podstaw do odrzucenia hipotezy H0. W przypadku, gdy
dL ≤ d ≤ dU,
nie podejmujemy żadnej decyzji (obszar niekonkluzywności).
W sytuacji, gdy dL ≤ d ≤ dU, możemy posłużyć się współczynnikiem autokorelacji ρ, który z d powiązany jest następująco:
Jednoznacznie dla danej liczby obserwacji n i poziomu ufności α można odczytać z tablic wartość istotnego współczynnika autokorelacji. Np. przyjmijmy, że ρ = 0,6, wówczas
d = 2 - 2ρ
d = 0,8
Wszystkie wartości d mniejsze od 0,8 świadczą wówczas o autokorelacji.
Badanie istotności autokorelacji odchyleń losowych dowolnego rzędu może być również przeprowadzone za pomocą testu istotności współczynnika korelacji. Test ten pozwala na zweryfikowanie hipotezy H0 : [ρτ=0] wobec hipotezy alternatywnej H1 : [ρτ≠0]. Sprawdzianem tej hipotezy jest statystyka:
Z tablic t-Studenta dla przyjętego poziomu istotności α oraz dla m=n-τ-2 stopni swobody odczytuje się wartość krytyczną I*. Jeśli Iτ≤I*, nie ma podstaw do odrzucenia hipotezy H0; współczynnik autokorelacji ρτ jest nieistotny. Jeśli Iτ>I*, hipotezę H0 należy odrzucić na rzecz hipotezy H1; współczynnik autokorelacji ρτ jest istotny.
Badanie normalności rozkładu odchyleń losowych sprowadza się do weryfikacji hipotezy, że dystrybuanta odchyleń F(ε) jest równa dystrybuancie rozkładu normalnego FN(ε). Weryfikujemy więc hipotezę H0 : [F(ε)=FN(ε)] wobec hipotezy H1 : [F(ε)≠FN(ε)]. Do werydfikowania hipotezy o normalności rozkładu służy m.in. test zgodności Hellwiga i test normalności Shapiro-Wilka.
Dla małej próby stosuje się test Hellwiga. Jest to w istocie test zgodności, za pomocą którego można zweryfikować hipotezę o dowolnym rozkładzie. Test ten opiera się bowiem na własności znanej statystyki: jeżeli zmienna losowa X ma rozkład F, to zmienna losowa F(X) ma rozkład jednostajny.
Procedura testu Hellwiga jest następująca:
1. Przeprowadza się standaryzację reszt według wzoru:
gdzie: - średnia arytmetyczna reszt et (t=1,2,…,n);
- odchylenie standardowe reszt et (t=1,2,…,n) obliczane według wzoru:
Jeśli badania dotyczą modelu liniowego szacowanego metodą najmniejszych kwadratów, to średnia arytmetyczna reszt równa jest 0.
2. Zestandaryzowane reszty porządkuje się według wartości niemalejących tak, że u(1)≤u(2)≤…≤u(n).
3. Z tablic dystrybuanty rozkładu normalnego odczytuje się wartość dystrybuanty Φ(u(t))=P(u<u(t)).
4. Wyznacza się tzw. cele lt (t=1,2,…,n), którymi są przedziały liczbowe o rozpiętości 1/n powstałe po podzieleniu odcinka [0,1] na n równych części.
5. Wartości dystrybuanty Φ(u(t)) przyporządkuje się odpowiednim celom i określa się liczbę cel pustych K, tj. takich, do których nie trafiła żadna wartość Φ(u(t)).
6. Z tablic testu zgodności Hellwiga dla danej liczby obserwacji n oraz dla przyjętego poziomu istotności α odczytuje się wartości krytyczne K1 i K2.
7. Jeżeli K1≤K≤K2, nie ma podstaw do odrzucenia hipotezy zerowej. Odchylenia losowe mają wówczas rozkład normalny. Natomiast jeśli K<K1 lub K>K2, to hipotezę zerową należy odrzucić na rzecz hipotezy alternatywnej. Odchylenia losowe nie mają wówczas rozkładu normalnego.
Procedura testu Shapiro-Wilka przedstawia się następująco:
1. Porządkuje się reszty według wartości niemalejących tak, że otrzymuje się ciąg: e(1),e(2),…,e(n).
2. Oblicza się wartość statystyki:
gdzie: [n/2] - część całkowita liczby n/2; an-t+1 - współczynnik Shapiro Wilka.
3. Z tablic testu Shapiro-Wilka dla przyjętego poziomu istotności α odczytuje się wartość W*.
4. Jeśli W≥W*, nie ma podstaw do odrzucenia hipotezy H0, mówiącej, że rozkład odchyleń losowych jest normalny. Natomiast jeżeli W<W*, hipotezę H0 należy odrzucić na rzecz hipotezy H1, co oznacza, że rozkład odchyleń losowych nie jest normalny.
Testowanie losowości ma związek przede wszystkim z wyborem postaci analitycznej modelu. Zgodnie z założeniami standardowego modelu liniowego zmienna objaśniana jest liniową funkcją zmiennych objaśniających plus losowa korekta. W przypadku, gdy wspomniane korekty mają przez dłuższy okres jednakowe znaki, można przypuszczać, że został popełniony błąd specyfikacji, polegający na nietrafnym wyborze postaci analitycznej modelu lub nietrafnym wyborze zmiennych objaśniających.
Do weryfikacji hipotezy
H0 : εt losowy
wobec hipotezy
H1 : εt nielosowy
służy test liczby serii.
Procedura dla tego typu testu jest następująca. Dla danego ciągu reszt e1,e2,…,en przyporządkowujemy wartościom dodatnim symbol a (et>0), wartościom ujemnym zaś symbol b (et<0). Wartości et=0 praktycznie nigdy nie występują. Jeśli jednak zdarzy się taka sytuacja, to należy zwiększyć dokładność obliczeń. Jeśli nie jest to możliwe, należy umownie, według pewnej zasady, niektórym resztom zerowym przypisać znak dodatni, pozostałym - ujemnym. W ostateczności reszty takie można zignorować (zmniejsza się wówczas także wielkość próby) - ale jest to najgorsze rozwiązanie.
Przez serię rozumie się ciąg jednakowych symboli, np. aaa lub bbb. Następnie oblicza się empiryczną liczbę serii Ke. W przypadku, gdy korzystamy z testu dwustronnego, z tablic testu serii odczytujemy wartości krytyczne K1 i K2 (przy zadanym poziomie istotności α). Jeżeli
K1≤Ke≤K2
to stwierdzamy, że brakuje podstaw do odrzucenia hipotezy zerowej. Jeżeli Ke<K1 (zbyt mała zaobserwowana liczba serii) lub Ke>K2 (zbyt duża zaobserwowana liczba serii), to hipotezę o losowości odrzucamy.
W przypadku testu jednostronnego podstawą do odrzucenia hipotezy zerowej jest stwierdzenie zbyt małej liczby serii. H0 odrzuca się, jeżeli Ke<K* (gdzie K* jest wartością krytyczną odczytaną z tablic jednostronnych lub też z tablic testu dwustronnego, ale dla poziomu istotności 2α).
Badanie nieobciążoności odchyleń losowych modelu przeprowadza się dla modeli nieliniowych ze względu na parametry strukturalne. Sprowadza się ono do zweryfikowania hipotezy H0 : [E(ε)=0] wobec hipotezy alternatywnej H1 : [E(ε)≠0]. Sprawdzianem hipotezy jest statystyka
gdzie: - średnia arytmetyczna reszt et (t=1,2,…,n);
- odchylenie standardowe reszt et (t=1,2,…,n).
Z tablic testu t-Studenta dla n-1 stopni swobody oraz dla przyjętego poziomu istotności α odczytuje się wartość krytyczną I*. Jeśli I≤I*, nie ma podstaw do odrzucenia hipotezy H0. Wartość oczekiwana odchyleń losowych jest wówczas nieistotnie różna od zera i odchylenia są nieobciążone. Natomiast jeśli I>I*, hipotezę H0 należy odrzucić na rzecz hipotezy H1. Wartość oczekiwana odchyleń losowych jest wówczas istotnie różna od zera i odchylenia te są obciążone.
Kolejnym odstępstwem od założeń klasycznej metody najmniejszych kwadratów jest rezygnacja z postulatu, aby wariancje składnika losowego były stałe w czasie. W praktyce wariancje składnika losowego (jeśli nie są spełnione klasyczne założenia) mają tendencję do wzrastania lub zmniejszania się. W celu wykrycia tego zjawiska stosuje się test Goldfelda i Quandta.
Test ten polega na zweryfikowaniu hipotezy o równości wariancji odchyleń dwóch skrajnych grup obserwacji. Rozpatruje się takie dwa podzbiory obserwacji, co do których istnieje przypuszczenie, że wariancja odchyleń jest najmniejsza i największa. Niech n1 oznacza liczbę obserwacji w pierwszym podzbiorze, tj. obserwacji o numerach t=1,2,…,n1, a n2 - liczbę obserwacji w drugim podzbiorze, tj. obserwacji o numerach t=n-n2+1, n-n2+2,…,n.
Do zweryfikowania hipotezy o równości wariancji odchyleń losowych obu podzbiorów, tj. hipotezy H0: [σ2ε,1=σ2ε,2], wobec hipotezy alternatywnej H1: [σ2ε,1<σ2ε,2] może być wykorzystany test F. Sprawdzianem hipotezy jest statystyka:
gdzie: S2e,1 - wariancja resztowa n1 pierwszych obserwacji:
S2e,2 - wariancja resztowa n2 pierwszych obserwacji:
W powyższych wzorach i oznaczają średnie arytmetyczne odpowiednich ciągów reszt.
Z tablic testu F dla przyjętego poziomu istotności α oraz m1=n2-k-1 i m2=n1-k-1 stopni swobody odczytuje się wartość krytyczną F*. Jeśli F≤F*, nie ma podstaw do odrzucenia hipotezy H0; wariancja odchyleń losowych jest stała w czasie. Jeśli F>F*, hipotezę H0 należy odrzucić na rzecz hipotezy H1; w miarę upływu czasu wariancja odchyleń losowych wzrasta.
Obserwacje odchylające się in minus (in plus) od wartości modelowych powinny stanowić połowę (w sensie probabilistycznym) wszystkich obserwacji.
Badanie to sprowadza się do zweryfikowania hipotezy zerowej, głoszącej że składnik losowy ma rozkład symetryczny:
Wobec hipotezy alernatywnej, głoszącej, że rozkład składnika resztowego nie jest symetryczny:
przy czym m jest liczbą reszt odchylających się in plus, a n liczbą wszystkich obserwacji.
Do weryfikacji hipotezy zerowej służy statystyka:
W przypadku gdy n≤30, statystyka t ma przy założeniu prawdziwości H0 rozkład t-Studenta o n-1 stopniach swobody, natomiast dla n>30 statystyka ma rozkład normalny.
Wybór postaci analitycznej modelu ekonometrycznego
Wybór postaci analitycznej modelu ekonometrycznego jest jednym z najtrudniejszych etapów badań. Jest on szczególnie uciążliwy, gdy rozpatrujemy modele z większą liczbą zmiennych objaśniających.
Praktycznie istnieją trzy sposoby podejścia do tego zagadnienia:
1. Sposób źródłowy - wykorzystujący teorię ekonomii. Ten sposób wyboru postaci analitycznej jest najbardziej poprawny z punktu widzenia wartości poznawczej modelu. Określoną postać analityczną model ekonometryczny w takim przypadku przyjmuje na drodze: teoria ekonomii - układ równań różniczkowych - model ekonometryczny. Model ekonometryczny przyjmuje wówczas taka postać analityczną, jaka powstaje w wyniku całkowania odpowiedniego równania (równań) różniczkowego. Należy jednak podkreślić, iż tylko nieliczne teorie ekonomii opracowane zostały do tego stopnia, by można było ocenić ich ścisłość.
2. Sposób wynikowy polega na statystycznej analizie posiadanego materiału empirycznego (w zasadzie abstrahując od jakichkolwiek teorii ekonomii) i na jej podstawie przyjmowanie odpowiedniego rodzaju zależności. Oznacza to, że wybieramy taką funkcję (bądź klasę funkcji), która najlepiej z punktu widzenia przyjętego kryterium (na przykład odchylenia standardowego) opisuje posiadany materiał empiryczny. Z reguły tego rodzaju postępowanie przy wyborze postaci analitycznej ogranicza możliwości stosowania modeli ekonometrycznych w praktyce.
3. Sposób mieszany oparty na dwóch powyższych. W sposobie tym postać analityczną przyjmuje się głównie na podstawie materiału empirycznego, ale uwzględnia się wiedzę teoretyczną o badanym procesie ekonomicznym (na przykład istnienie poziomu nasycenia).
W przypadku wyboru postaci analitycznej w sposób źródłowy i wynikowy, gdy mamy do czynienia z modelem z jedną zmienną objaśniającą, etap ten sprowadza się w zasadzie do graficznej analizy danych empirycznych. Metody tego typu prezentowane są w wielu opracowaniach z zakresu ekonometrii i statystyki, a są to między innymi: metoda heurystyczna, metoda oceny wzrokowej. Aby za pomocą takich metod wybrać postać analityczną modelu, trzeba dla każdej postaci hipotetycznej przejść przez etap estymacji i weryfikacji, i dopiero ponownie wracając do etapu wyboru postaci analitycznej dokonać wyboru najlepszej funkcji opisującej badaną prawidłowość.
Jeżeli mamy do czynienia z modelami ekonometrycznymi z wieloma zmiennymi objaśniającymi pomocna w ustalaniu postaci analitycznej jest analiza rozkładów poszczególnych zmiennych (w modelu związku dla danych przekrojowych) oraz analiza funkcji trendów poszczególnych zmiennych (w modelu związku dla danych w postaci szeregów czasowych).
W modelach związków dla danych przekrojowych:
1) jeżeli wszystkie zmienne w modelu mają rozkłady normalne (lub zbliżone do normalnych) i są niezależne, wówczas model tworzy wielowymiarowy rozkład normalny (ślad rozkładu - eliptyczny), co jednoznacznie wskazuje na liniową postać modelu związku;
2) jeżeli rozkłady zmiennych w modelu są asymetryczne, ale mają zbliżone parametry rozkładu, to w myśl twierdzeń granicznych, możemy przyjąć, że zależność między tymi zmiennymi jest liniowa;
3) jeżeli wielowymiarowy rozkład obserwacji zmiennych w modelu nie tworzy rozkładu eliptyczno-symetrycznego, wówczas badamy jednorodność zbioru obserwacji; jeżeli zbiór jest niejednorodny przeprowadzamy klasyfikację na względnie jednorodne podzbiory; dla podzbiorów jednorodnych, które spełniają 1) przyjmujemy liniową zależność pomiędzy zmiennymi; jeżeli 1) nie spełniają przyjmujemy postać nieliniową;
4) w pozostałych przypadkach poszukujemy nieliniowej (ale o najprostszym z możliwych zapisie matematycznym) postaci analitycznej modelu związku.
W modelach związku dla danych w postaci szeregów czasowych:
1) jeżeli trendy wszystkich zmiennych są liniowe lub ogólniej rzecz biorąc wielomianowe, wówczas zależność między zmiennymi może mieć charakter liniowy;
2) jeżeli trendy poszczególnych zmiennych są nieliniowe (ale monotoniczne), a „kształt” nieliniowości jest zbliżony, wówczas model związku może przyjąć postać liniową;
3) jeżeli trendy poszczególnych zmiennych są nieliniowe (i nie monotoniczne) różnego „kształtu”, wówczas możliwości jest wiele, najkorzystniej jest jednak przeprowadzić periodyzację zmiennych lub związku na jednorodne podokresy, a następnie w jednorodnych podzbiorach ustalić zależności tak jak 1) lub 2);
4) w pozostałych przypadkach poszukujemy nieliniowej (ale o najprostszym z możliwych zapisie matematycznym) postaci analitycznej modelu związku.
Z punktu widzenia postaci analitycznej, modele ekonometryczne można dzielić na modele liniowe oraz nieliniowe. Przy czym modele nieliniowe możemy z kolei podzielić na modele nieliniowe sensu stricto oraz na nieliniowe, dla których istnieje liniowa transformacja.
Proces przekształcania modeli nieliniowych w liniową transformację nosi nazwę linearyzacji.
Należy zwrócić uwagę, że określając postać analityczną modelu ekonometrycznego należy kierować się wyborem funkcji jak najmniej skomplikowanej pod względem matematycznym. Prostota modelu wiąże się z reguły z bardziej czytelną jego interpretacją ekonomiczną. Dlatego też, jeżeli jest to tylko merytorycznie uzasadnione stosuje się w pierwszej kolejności modele liniowe, w następnej nieliniowe z liniową transformantą, a dopiero w ostateczności modele nieliniowe sensu stricto.
Transformacja liniowa jest zatem rozwiązaniem kompromisowym. Z jednej strony dążymy do pełnej merytorycznej poprawności postaci analitycznej, a z drugiej liczymy się zawsze z możliwościami szacunku parametrów modelu. Znane i stosunkowo proste metody estymacji parametrów modeli ekonometrycznych zakładają z reguły liniowość modelu (lub przynajmniej liniowość modelu względem parametrów, niekoniecznie zmiennych). Przykładem funkcji nieliniowych, które są liniowe względem parametrów a nieliniowe względem zmiennych są funkcje wielomianowe
Funkcje nieliniowe nie zawsze spełniają ten wymóg. Jeżeli wymóg ten nie jest spełniony, wówczas uciekamy się do transformacji liniowej, polegającej na sprowadzeniu funkcji nieliniowych do liniowych za pomocą zamiany zmiennych, albo też za pomocą podstawień. Warunkiem koniecznym (jednak nie dostatecznym) zastosowania procedury transformacji liniowej jest wymóg, aby liczba parametrów modelu nieliniowego była co najmniej równa k+1 (gdzie k - liczba zmiennych modelu).
Jej postać analityczna jest następująca:
Y=α0α1X,
przy założeniu, że α0>0, α1>0.
Przekształcenie do postaci liniowej odbywa się poprzez logarytmowanie. Zatem linearyzacja przebiega następująco:
Funkcja wykładnicza znajduje najczęściej zastosowanie jako model tendencji rozwojowej (w którym występuje tylko jedna zmienna objaśniająca - zmienna czasowa t). Ponadto ma zastosowanie:
* w przypadku, gdy tempo wzrostu danej wielkości jest stałe, na przykład w badaniu dynamiki dochodu narodowego;
* w analizie rynku, przy badaniu na dobra nowe, w fazie rozpowszechniania;
* w demometrii;
* jest także jedną z typowych funkcji kosztów całkowitych.
przy założeniu, że α0>0, α1>0.
Funkcja potęgowa jednej zmiennej ma postać:
Y=α0Xα1.
Przekształcenie do postaci liniowej odbywa się podobnie jak w przypadku funkcji wykładniczej:
Funkcja potęgowa jest jedną z najczęściej stosowanych postaci, gdyż nadaje się do opisu różnego rodzaju zależności, zarówno liniowych jak i krzywoliniowych. Tego typu funkcja ma zastosowanie:
* w analizie rynku przy badaniu popytu na dobra nowe, wówczas α1>0 oraz gdy dane dobro rośnie ale w tempie malejącym;
* dla α1>0 dobrze aproksymuje zależność indywidualnej wydajności pracy od czasu dojazdu do pracy;
* w demometrii, przy szacowaniu potencjału życiowego ludności.
Postać analityczna w tym wypadku wygląda następująco:
Y=α0+α1logX,
przy założeniu, że α0>0, α1>0.
Sprowadzenie funkcji do postaci liniowej odbywa się poprzez odpowiednie podstawienia.
Zastosowania w tym przypadku są następujące:
* dla α1>0 dobrze aproksymuje krzywe Engla dla dóbr wyższego rzędu (dóbr względnie luksusowych lub inaczej półluksusowych), gdy popyt na te dobra rośnie, ale w tempie malejącym;
* opisuje udział procentowy pracowników na przykład inżynieryjno-technicznych w stosunku do ogółu zatrudnionych w przemyśle;
* dla α0=0, α1>0 jest funkcją kosztów całkowitych - jest to konsekwencją hipotezy, że funkcja kosztów całkowitych jest funkcją odwrotną do funkcji produkcji.
Dla funkcji hiperbolicznej postać analityczna jest często następująca:
Y=α0+α1 ,
przy założeniu, że α1>0.
W wyniku podstawienia otrzymujemy następującą postać zlinearyzowaną:
Dla α0≥0, α1>0 jest funkcją kosztów przeciętnych, gdy funkcja kosztów całkowitych jest funkcją liniową.
przy założeniu, że α1>0.
Zastosowanie tego typu funkcji ma miejsce głównie w ekonometrycznej analizie kosztów produkcji. Dla przykładu wielomian stopnia trzeciego ma postać:
Y=α0+α1X1+ α2X22+α3X33,
A jego wykres, gdy parametry spełniają warunki: α0>0, α1>0, α3>0, α2<0, α22<3α1α3.
Wielomian stopnia drugiego ma przebieg zmienności dobrze znany z elementarnego kursu matematyki.
Y=α0+α1X1+ α2X22,
I tak dla α2<0, α1>0 dobrze opisuje zależności indywidualnej wydajności pracy od wieku pracownika, przebieg zmienności tej funkcji jest z reguły zgodny z obserwacjami empirycznymi - najpierw wydajność pracy rośnie coraz szybciej, a później coraz wolniej (optymalny wiek produkcyjny), a następnie maleje coraz to szybciej i wreszcie coraz to wolniej dążąc do zera, gdy x->∞.
Tego typu funkcję linearyzujemy również metodą podstawiania.
Głównym zastosowaniem funkcji Törquista pierwszego rodzaju jest opis popytu na dobra podstawowe, czyli pierwsze potrzeby w zależności od dochodów:
przy czym parametr α interpretowany jest jako tzw. poziom nasycenia, czyli asymptota pozioma wykresu funkcji.
W celu oszacowania parametrów tej funkcji transponuje się ją do postaci liniowej poprzez odwrócenie obu stron równania:
czyli
po podstawieniu:
otrzymujemy postać liniową modelu:
gdzie parametr Y=α jest asymptotą poziomą funkcji natomiast X=-β asymptotą pionową. Parametr γ z kolei jest poziomem X, przy którym pojawia się objaśniane zjawisko Y. W celu oszacowania parametrów tej funkcji transponuje się ją do postaci liniowej poprzez przemnożenie obu stron równania przez mianownik (X+β):
czyli
dalej więc
stąd po podstawieniu
otrzymujemy postać liniową:
Funkcja ta jest dobrą aproksymantą krzywej Engla dla dóbr i usług wyższego rzędu. Parametr γ jest minimalną wielkością dochodu, przy którym powstają wydatki na dane dobro wyższego rzędu. Łatwo dostrzec, że jeżeli jest on równy zeru, to model ten staje się modelem takim jak uprzednio.
Funkcja Törnquista III rodzaju służy do określania zależności pomiędzy dochodami a wydatkami na dobra luksusowe. Parametr α nie odgrywa tu już roli poziomu nasycenia, gdyż model ten nie ma asymptoty poziomej, lecz skośną, o postaci:
y=αx-α(β+γ).
Z modelu tego można odczytać, że popyt na dobro luksusowe jest realizowany wtedy, gdy dochody są większe od X=γ. Etapy transformacji tej funkcji są analogiczne do poprzedniego modelu.
Zmienną objaśniającą w modelu logistycznym jest często czas, jest to więc model tendencji rozwojowej:
Opisane wcześniej modele nieliniowe były sprowadzane do modelu regresji liniowej przez transformację zmiennych lub przekształcenie całego modelu. Występują jednak również także zależności nieliniowe, które wymagają specyficznych metod przekształceń i szacowania parametrów. Przykładem takiego modelu jest krzywa logistyczna, która znajduje zastosowanie w badaniach makro- i mikroekonomicznych. W makroekonomii służy często do opisu wzrostu gospodarki narodowej lub liczebności populacji ludzkiej, w zagadnieniach mikroekonomicznych zaś jest dobrą aproksymantą funkcji popytu. Funkcja ta pisuje zjawiska, które charakteryzują się przechodzeniem od szybkiego wzrostu do coraz wolniejszego tempa, które stabilizuje się na pewnym poziomie, zwanym poziomem nasycenia.
Wśród metod wyznaczania tendencji rozwojowej wyróżnia się m.in.:
* średnie ruchome zwykłe i scentrowane
* metody analityczne.
Średnia ruchoma zwykła eliminuje wahania przypadkowe. Stosowana jest do wyodrębnienia trendu w szeregach, w których nie występują wahania okresowe. Średnia arytmetyczna zwykła jest to średnia arytmetyczna nieparzystej liczby kolejnych wyrazów szeregu.
Średnia ruchoma scentrowana eliminuje wahania okresowe i przypadkowe. Jest to średnia arytmetyczna liczona z parzystej liczby d wyrazów szeregu czasowego. W celu wyeliminowania wahań okresowych stosuje się średnią ruchomą o długości równej okresowi wahań albo wielokrotności tego okresu.
Metody analityczne polegają na założeniu , że tendencję rozwojową można przedstawić za pomocą pewnej funkcji matematycznej:
Pt=f(t).
Nie ma jednoznacznych metod wyboru postaci analitycznej trendu. Do najczęściej wykorzystywanych sposobów wyznaczania postaci trendu należą:
1. Wykorzystywanie teorii ekonomii do określania mechanizmu rozwoju zjawiska w czasie. Postać trendu wynika często z teorii ekonomii tłumaczącej mechanizm rozwoju badanego zjawiska w czasie.
2. Metoda graficzna. Prosty wykres szeregu czasowego pozwala ostawić hipotezę o analitycznej postaci trendu. Analiza graficzna polega na sporządzeniu wykresu szeregu dynamicznego na układzie współrzędnych prostokątnych.
Na podstawie analizy wykresu i znajomości przebiegu określonych funkcji matematycznych można sformułować hipotezę o postaci analitycznej funkcji trendu. Jeżeli na wykresie punkty empiryczne układają się w przybliżeniu wzdłuż prostej odpowiednio w układzie współrzędnych (t, lnyt), (lnt, yt) oraz (lnt, lnyt) można mówić wtedy o istnieniu trendu wykładniczego, logarytmicznego i potęgowego.
3. Metoda empiryczna polega na przyjęciu za funkcję trendu każdej funkcji charakteryzującej się tym, że wartości szeregu czasowego różnią się od niej w sposób losowy. Buduje się kilka różnych funkcji trendu i wybiera się tę, która jest najlepiej dopasowana do danych empirycznych. Badanie, czy dana funkcja zmiennej czasowej t może być uznana za trend polega na zbadaniu reszt za pomocą odpowiednich testów statystycznych.
4. Metoda analizy dynamicznych własności równania trendu polega na sformułowaniu hipotezy co do postaci funkcji trendu na podstawie analizy przyrostów absolutnych lub względnych. I tak dla przykładu:
Funkcja liniowa posiada stałe przyrosty absolutne rzędu pierwszego
Δyt= yt - yt-1.
Funkcja kwadratowa posiada stałe przyrosty absolutne rzędu drugiego:
Δ2yt= Δyt - Δyt-1.
Wielomian stopnia trzeciego posiada stałe przyrosty absolutne rzędu trzeciego:
Δ3yt= Δ2yt - Δ2yt-1.
Funkcja wykładnicza posiada stałe przyrosty względne rzędu pierwszego:
5. Metoda uśrednionych gradientów polega na analizie przyrostów absolutnych lub względnych. Stosuje się tu dodatkową procedurę polegającą na wyeliminowaniu wahań losowych za pomocą wartości przeciętnych przyrostów z sąsiednich okresów.
To jest wersja html pliku http://gmentel.sd.prz.edu.pl/file/MjMsNjcsNDE1LDcuX2FuYWxpemFfcHJvZHVrY2ppLl9mdW5rY2phX3Byb2R1a2NqaV9jb2JiYS1kb3VnbGFzYS5wcHQ=.
G o o g l e automatycznie generuje wersję html dokumentu podczas indeksowania Sieci.
Analiza produkcji
Funkcja produkcji Cobba-Douglasa
Proces produkcyjny jest najważniejszym elementem działalności przedsiębiorstwa produkcyjnego. Proces ten może być badany z różnych punktów widzenia. Jednym z nich, niekoniecznie najważniejszym, jest analiza ekonometryczna. Polega ona na badaniu ilościowych relacji między różnymi zjawiskami techniczno-ekonomicznymi występującymi w procesie produkcyjnym. Zależności między tymi zjawiskami są (powinny być) silne i wielokierunkowe.
Narzędziem badawczym jest model ekonometryczny. Może to być model jedno- lub wielorównaniowy, w którym przynajmniej jedną ze zmiennych endogenicznych nieopóźnionych w czasie jest poziom produkcji określonego dobra.
Ograniczając się w rozważaniach do modeli jednorównaniowych funkcja produkcji może mieć różną postać analityczną. W takim modelu zmienną objaśnianą jest wielkość produkcji, natomiast zmiennymi objaśniającymi są tzw. czynniki produkcji.
W teorii ekonomii wyróżnia się trzy główne czynniki produkcji:
* pracę żywą,
* pracę uprzedmiotowioną (kapitał),
* ziemię (zwłaszcza w rolnictwie).
W przedsiębiorstwach nierolniczych zmienia na ogół nie odgrywa istotnej roli, dlatego ten czynnik pomijamy.
Najczęściej spotykaną w praktyce postacią analityczną funkcji produkcji jest funkcja potęgowa, zwana funkcją produkcji Cobba-Douglasa:
Zasadniczo funkcja ta przybiera postać dwuczynnikową:
jeżeli , to: jeżeli , to: jeżeli , to:
Funkcja ta ma teoretyczne uzasadnienie i znalazła potwierdzenie w praktyce.
Często stosowaną postacią analityczną jest również postać liniowa:
Różne własności i cechy funkcji produkcji opisuje się korzystając z szeregu pojęć, które określa się jako charakterystyki funkcji produkcji. Kolejne definicje, interpretacje i przykłady je pokazują.
Do ekonometrycznej analizy procesu produkcyjnego stosuje się kilka mierników syntetycznych.
Produkt całkowity jest to teoretyczna wartość zmiennej objaśnianej przy znanych, prognozowanych lub ustalonych wartościach wszystkich zmiennych objaśnianych, czyli:
Oznacza on taki poziom produkcji, który powinien być osiągnięty przy określonych wielkościach wszystkich czynników produkcji występujących w modelu. Miano tego czynnika jest oczywiście takie samo, jak miano zmiennej objaśnianej, czyli produkcji.
Porównanie rzeczywistego poziomu produkcji z odpowiadającym mu produktem całkowitym pozwala na ocenę działalności firmy w danym okresie. W sytuacji, gdy rzeczywisty poziom produkcji jest większy od produktu całkowitego, ocena ta jest pozytywna, w sytuacji odwrotnej - negatywna, co zmusza do szukania przyczyn powstania takiej sytuacji.
Miano produktu przeciętnego jest stosunkiem miana produkcji do miana i-tego czynnika produkcji. Interpretacja produktu przeciętnego jest następująca: produkt przeciętny jest to przeciętna wielkość produkcji przypadająca na jednostkę i-tego czynnika produkcji przy ustalonych wartościach wszystkich czynników produkcji (czyli w ustalonym punkcie). Interpretacja ta jest równoważna pojęciu przeciętnej wydajności (produktywności) czynnika produkcji w ustalonych warunkach.
Produkt krańcowy (marginalny) określa zmianę wielkości produkcji, spowodowaną zmianą i-tego czynnika produkcji o jednostkę (przy ustalonym poziomie pozostałych czynników produkcji):
Jeśli znana jest postać analityczna funkcji produkcji, to produkt krańcowy jest pochodną cząstkową tej funkcji względem i-tego czynnika produkcji:
Miano produktu krańcowego jest takie samo jak miano produktu przeciętnego. Interpretacja produktu krańcowego jest następująca: produkt krańcowy jest to oczekiwany przyrost produkcji, spowodowany przyrostem i-tego czynnika produkcji o jednostkę przy założeniu, że pozostałe czynniki produkcji nie zmieniają się.
Elastyczność produkcji względem i-tego czynnika produkcji określa względną zmianę wielkości produkcji (w procentach) spowodowaną względną zmianą tylko i-tego czynnika produkcji o jeden procent (przy ustalonym poziomie pozostałych czynników produkcji):
Interpretacja elastyczności jest następująca: elastyczność jest to oczekiwany względny przyrost produkcji (np. w procentach), spowodowany jednostkowym względnym przyrostem i-tego czynnika produkcji (np. 1%) przy założeniu, że pozostałe czynniki produkcji się nie zmieniają, lub: elastyczność jest to oczekiwany względny przyrost produkcji (np. w procentach) spowodowany, ceteris paribus, względnym przyrostem i-tego czynnika produkcji o jednostkę (np. o 1%).
Definiując elastyczność, przyjmuje się założenie, że tylko jeden czynnik produkcji wzrasta o 1%, pozostałe zaś się nie zmieniają. Zakładając, że wszystkie czynniki produkcji wzrastają jednocześnie o 1%, należy spodziewać się, że produkcja wzrośnie o A%:
Wskaźnik ten nazywamy efektem skali produkcji (oznacza się ją też symbolem ESP).
Wydaje się, że naturalne jest oczekiwanie, aby A=1; w praktyce często tak się zdarza. Rzeczywista wartość efektu skali produkcji daje cenne informacje o charakterze procesu produkcyjnego. Jeśli A<1, oznacza to, że efekty rosną wolniej niż nakłady i zasoby czynników produkcji. Jeśli A>1, to efekty rosną szybciej niż nakłady i zasoby. I wreszcie gdy A=1, wtedy efekty rosną w takim samym tempie, jak nakłady i zasoby czynników produkcji.
Krańcowa stopa substytucji czynników produkcji (czynnika i przez czynnik j)
określa, jaki nakład (zasób) czynnika j musi być wprowadzony w miejsce wycofanej jednostki nakładów (zasobów) czynnika i, przy założeniu, że pozostałe czynniki się nie zmieniają, tak by poziom produkcji również nie uległ zmianie. Ponieważ ΔXi jest ujemne, więc SSij jest liczbą dodatnią. Przekształcając wzór otrzymujemy:
Q1
Q2
Q3
X1
X2
Q1
Q2
Q3
X2
X1
Q1
Q2
Q3
X2
X1
Izokwanta produkcji jest to krzywa jednakowego poziomu produkcji dla wszystkich możliwych kombinacji nakładów (zasobów) czynników produkcji.
DOSKONAŁA SUBSTYTUCYJNOŚĆ (KOKS- GAZ)
KOMPLEMENTARNOŚĆ (PARA BUTÓW)
RZECZYWISTA SUBSTYTUCYJNOŚĆ
Oszacowano funkcję produkcji typu Cobba-Douglasa
gdzie:
P - produkcja (w tys. zł),
X1 - majątek trwały (w tys. zł),
X2 - zatrudnienie (w osobach).
W pewnym okresie wartość majątku trwałego wynosiła 100 000 zł, zatrudnienie 200 osób.
Produkt całkowity:
Komentarz: Przy danych nakładach obu czynników produkcji należy się spodziewać efektów produkcyjnych na poziomie 94,3 tys. zł.
Produkt przeciętny:
Komentarz: przy danych wartościach zmiennych objaśniających z 1 tys. zł majątku trwałego można uzyskać przeciętnie produkcję wartości 943 zł (jest to więc produktywność majątku trwałego), a na 1 zatrudnionego przypada produkcja o wartości przeciętnej 471,5 zł (jest to więc wydajność pracy - oczywiście teoretyczna, wynikająca z modelu).
Produkt krańcowy:
Komentarz: zwiększenie majątku trwałego o 1 tys. zł powinno, ceteris paribus, spowodować wzrost produkcji o 287 zł, a zwiększenie zatrudnienia o 1 osobę o 318 zł.
Elastyczność produkcji:
Komentarz: zwiększenie majątku trwałego o 1% powinno, ceteris paribus, spowodować wzrost produkcji o 0,304%, a zwiększenie zatrudnienia o 1% - o 0,674%.
Efekt skali produkcji:
Komentarz: jednoczesne zwiększenie obu czynników produkcji (majątku trwałego i zatrudnienia) o 1% powinno dać zwiększenie produkcji o 0,978%. Ponieważ efekt skali produkcji jest prawie równy 1, można więc powiedzieć, że efekty (produkcja) rosną w takim samym tempie jak nakłady obu czynników produkcji, czyli mamy do czynienia za stałą wydajnością czynników produkcji.
Krańcowa stopa substytucji:
Komentarz: jednego pracownika można zastąpić majątkiem trwałym wartości około 1108 zł lub majątek trwały wartości 1 tys. zł można zastąpić zwiększeniem zatrudnienia o około 0,902 etatu.
To jest wersja html pliku http://gmentel.sd.prz.edu.pl/file/MjMsNjcsNDE1LDguX2FuYWxpemFfa29zenRvd19pX3Byb2d1X3JlbnRvd25vc2NpLnBwdA==.
G o o g l e automatycznie generuje wersję html dokumentu podczas indeksowania Sieci.
Analiza kosztów i progu rentowności
Narzędziem analizy kosztów jest model ekonometryczny, w którym zmienną objaśnianą są koszty całkowite, zmiennymi objaśniającymi zaś - czynniki wpływające na ich poziom. Najważniejszym czynnikiem determinującym poziom kosztów całkowitych jest wielkość produkcji. Model taki nazywamy modelem kosztów lub funkcją kosztów.
Model kosztów może mieć charakter zarówno dynamiczny (w długich lub krótkich okresach), jak i statyczny.
Układ zmiennych objaśniających w modelu kosztów może być różny. Najczęstszym przypadkiem jest model z jedną zmienną objaśniającą, która jest poziomem produkcji (Q):
Koszty całkowite - globalne (K) składają się z dwóch części, a mianowicie:
* z całkowitych kosztów stałych (KSC), niezależnych od wielkości produkcji (lub inaczej - ponoszonych przy poziomie produkcji Q=0),
* z całkowitych kosztów zmiennych (KZC), zależnych tylko od wielkości produkcji.
Między tymi trzema kategoriami istnieje prosta tożsamościowa zależność:
K = KSC + KZC
Z tej zależności można również zdefiniować całkowite koszty zmienne jako różnicę między kosztami całkowitymi a kosztami stałymi, czyli
KZC = K - KSC
Jeśli znana jest postać analityczna funkcji kosztów całkowitych, to możemy z niej wyprowadzić zarówno całkowite koszty stałe, jak i całkowite koszty zmienne.
Całkowite koszty stałe możemy mianowicie interpretować jako takie koszty, które muszą być ponoszone bez względu na wielkość produkcji, a więc również wtedy, gdy poziom produkcji jest zerowy, czyli
Ponieważ całkowite koszty zmienne są rozumiane jako różnica między kosztami całkowitymi a całkowitymi kosztami stałymi, więc przenosząc to stwierdzenie do modelu kosztów, mamy
Na podstawie trzech przedstawionych modeli można również wyprowadzić modele wtórne, a mianowicie:
* model kosztów przeciętnych - globalnych (lub inaczej - kosztów jednostkowych)
* model jednostkowych kosztów stałych
* model jednostkowych kosztów zmiennych
Podobnie jak w modelach kosztów całkowitych, również w modelach kosztów jednostkowych istnieje między nimi zależność tożsamościowa:
czyli
Wszystkie pojęcia kosztów jednostkowych są analogami pojęcia produktu przeciętnego z analizy produkcji. W ekonometrycznej analizie kosztów stosowany jest również odpowiednik produktu krańcowego, a mianowicie koszt krańcowy, który jest tak samo definiowany:
czyli jest to pochodna funkcji kosztów całkowitych względem wielkości produkcji.
Ekonomiczna interpretacja wszystkich omawianych pojęć jest następująca:
* koszt całkowity jest to spodziewana (teoretyczna), wynikająca z równania modelu kosztów całkowitych, wartość zmiennej objaśnianej przy danej wielkości produkcji (zmiennej objaśnianej);
* całkowity koszt stały jest to oczekiwana (teoretyczna) wartość zmiennej objaśnianej, która nie zależy od wielkości produkcji, wynikająca z równania modelu całkowitych kosztów stałych, a więc jest to koszt ponoszony przy zerowym poziomie produkcji (jest to więc wielkość stała);
* całkowity koszt zmienny jest to oczekiwany poziom zmiennej objaśnianej, odpowiadający danej wielkości produkcji, wynikający z równania modelu całkowitych kosztów zmiennych;
* koszt jednostkowy jest to spodziewany (teoretyczny), wynikający z równania modelu kosztów jednostkowych poziom zmiennej objaśnianej przy danej wielkości produkcji;
* jednostkowy koszt stały jest to oczekiwana (teoretyczna) wartość zmiennej objaśnianej, odpowiadająca danej wielkości produkcji, wynikająca z równania modelu jednostkowych kosztów stałych;
* jednostkowy koszt zmienny jest to oczekiwany poziom zmiennej objaśnianej modelu jednostkowych kosztów zmiennych, odpowiadający danej wielkości produkcji;
* koszt krańcowy jest to spodziewany wzrost kosztów całkowitych (ale również kosztów zmiennych), spowodowany jednostkowym zwiększeniem poziomu produkcji.
Funkcja kosztów całkowitych
Funkcje kosztów jednostkowych
W praktyce do modelowania kosztów używane są różne klasy funkcji. Najczęściej używanymi funkcjami są:
* funkcja liniowa
* wielomian stopnia drugiego
* wielomian stopnia trzeciego
* funkcja potęgowa
* funkcja wykładnicza
Rachunek ekonomiczny prowadzi do planowania produkcji na takim poziomie, przy którym różnica między przychodami uzyskanymi ze sprzedaży produkcji i kosztami poniesionymi na wytworzenie tej produkcji będzie większa nić zero. Wielkość produkcji, przy której uzyskane przychody równają się kosztom poniesionym na produkcję, to próg rentowności (break even point). W tym rozumieniu próg rentowności produkcji jest bardzo użytecznym narzędziem badania opłacalności prowadzenia działalności gospodarczej.
Analiza progu rentowności produkcji opiera się na relacjach między przychodem ze sprzedaży, kosztami i zyskiem w takim okresie, w którym jest możliwe osiągnięcie określonej wielkości produkcji.
Poprawna interpretacja progu rentowności wymaga przyjęcia pewnych założeń przy jego wyznaczaniu. Najważniejsze założenia przyjmowane w standardowej analizie progu rentowności są następujące:
1.Przy wyznaczaniu progu rentowności zakłada się, że wszystkie inne czynniki, oprócz rozpatrywanych w analizie, są traktowane jako stałe. Przykładowo, istotna zmiana wydajności produkcji ma wpływ na przychód ze sprzedaży i na koszty. Jeżeli w analizowanym okresie taka zmiana zajdzie, tak wyznaczony próg rentowności będzie nieprawidłowy.
2.Produkuje się i sprzedaje pojedynczy wyrób. Jeżeli produkcja jest wieloasortymentowa, to sprzedaż rozpatruje się łącznie w postaci wartościowej. Do analizy przyjmuje się średni przychód i średni poziom kosztów zmiennych dla danej sprzedaży łącznej.
3.Koszty stałe poniesione w analizowanym okresie są traktowane jako wydatek tego okresu. Kalkulacja zysku jest przeprowadzana na podstawie rachunku kosztów zmiennych. Konsekwencją tego jest założenie, że produkcja jest równa sprzedaży. W przypadku niespełnienia tego warunku będzie się zmieniał poziom zapasów, co wypaczy interpretację progu rentowności.
4.Koszty całkowite i przychody całkowite są liniowymi funkcjami wielkości produkcji. Oznacza to oczywiście, że jednostkowe koszty zmienne i ceny sprzedaży są stałe.
5. Wyznaczenia progu rentowności dokonuje się tylko i wyłącznie w przedziale zmienności produkcji.
6.Koszty całkowite muszą zostać rozdzielone na dwie części: koszty stałe i koszty zmienne. Koszty stałe bezwzględnie muszą mieć charakter stały, koszty zmienne zaś zmieniają się proporcjonalnie do wahań wielkości produkcji.
W klasycznej analizie progu rentowności zakłada się ponadto liniową zależność pomiędzy wielkością produkcji a kosztami produkcji oraz wielkością produkcji a przychodami ze sprzedaży:
P = c·Q
Kc = Ks + Kz = Ks + kzj·Q
gdzie:
P - przychody ze sprzedaży,
Q - wielkość produkcji (sprzedanej),
Kc - koszty całkowite,
Ks - koszty stałe (mogą być szacowane jako parametr strukturalny modelu kosztów całkowitych),
Kz - koszty zmienne,
c - cena jednostkowa (parametr strukturalny modelu przychodów),
kzj - jednostkowe koszty zmienne (parametr strukturalny modeli kosztów całkowitych).
Próg rentowności w ujęciu ilościowym (Q*) oznacza taki poziom sprzedaży, który zapewnia pokrycie kosztów całkowitych przychodami ze sprzedaży:
P = Kc
czyli:
c·Q* = Ks + kzj·Q*
stąd
Natomiast próg rentowności w ujęciu wartościowym (P*) ma postać:
P* = c·Q*
Funkcje kosztów całkowitych i przychodów na tle produkcji
Analiza graficzna progu rentowności jest bardzo przydatna do szczegółowej analizy rezultatów obliczeń, gdyż kąt nachylenia prostych kosztowej i przychodowej oraz usytuowanie punktu równowagi w stosunku do całkowitych zdolności produkcyjnych może ujawnić potencjalne słabości firmy.
Analiza progu rentowności umożliwia również ocenę wrażliwości jego poziomu na zmianę wybranych czynników. Zwykle bierze się pod uwagę reakcję poziomu progu rentowności na zmiany jednostkowej ceny sprzedaży, jednostkowych kosztów zmiennych i stałych. W szczególności można obliczyć graniczne wartości cen lub jednostkowego kosztu zmiennego, a więc takie, które gwarantują osiągnięcie progu rentowności.
Graniczny poziom jednostkowej ceny sprzedaży (cgr) można wyznaczyć ze wzoru:
Natomiast graniczny poziom jednostkowego kosztu zmiennego (zjzgr) ze wzoru:
Na podstawie granicznych wielkości poszczególnych czynników można określić margines bezpieczeństwa progu rentowności:
- ze względu na jednostkową cenę sprzedaży:
- ze względu na jednostkowy koszt zmienny:
Obydwa współczynniki określają pole manewru cenowego oraz kosztowego w firmie. Informują, o ile firma może obniżyć swe ceny (bądź jednostkowe koszty zmienne), aby nie zejść poniżej progu rentowności.
W praktyce analiza progu rentowności niezwykle rzadko może być przeprowadzona przy pomocy podejścia klasycznego. Najczęściej spotkać można trzy przypadki niezgodne z założeniami standardowymi:
1.nie są znane wartości parametrów potrzebnych do obliczenia progu rentowności: cena, koszt jednostkowy zmienny i koszt stały,
2.nie spełnione jest założenie o liniowości funkcji przychodów i kosztów,
3.nie dysponujemy informacjami o produkcji w ujęciu ilościowym, bądź mamy do czynienia z produkcją wieloasortymentową.
Z ilościowego punktu widzenia problem ustalania progu rentowności sprowadza się do oszacowania modeli związków. Wychodząc od wariantu klasycznego szacowane są dwa modele: model kosztów całkowitych w zależności od wielkości produkcji oraz model przychodów uzależnionych od wielkości produkcji. Przy czym zakłada się, że oba modele są modelami liniowymi:
P = γ·Q + uP
Kc = α0 + α1·Q + uK .
W tym przypadku estymatory parametrów γ, α0, α1, są estymatorami ceny, kosztu stałego i jednostkowego kosztu zmiennego, a wielkości uP, uK to składniki losowe funkcji przychodów i kosztów.
Ponieważ funkcje powyższe są modelami ekonometrycznymi, opisują one badaną rzeczywistość z określoną dokładnością. Dokładność tą można oszacować m.in. przy pomocy odchylenia standardowego składnika losowego. Dla funkcji przychodów będzie to wielkość SeP, dla funkcji kosztów SeK.
Oszacowane funkcje kosztów całkowitych
i przychodów w zależności od produkcji
W ujęciu ilościowym próg rentowności oznacza przedział poziomu sprzedaży, powyżej którego firma osiąga zysk, a poniżej którego straty. Oszacowania zatem wymagają końce wspomnianego przedziału oznaczone symbolami Qs - próg pewnej straty i Qs - próg pewnego zysku. Próg pewnej straty można oszacować korzystając z następujących funkcji:
czyli otrzymujemy:
Analogicznie można oszacować próg pewnego zysku:
czyli:
Natomiast progi pewnego zysku i pewnej straty wartościowe mają następujące postacie:
W klasycznej analizie progu rentowności próg wyznaczany jest w ujęciu ilościowym. Zatem możliwości jego wyznaczenia są ograniczone do produkcji jednorodnej. W rzeczywistości jednak najczęściej mamy do czynienia z firmami, których produkcja nie jest jednorodna, bądź z firmami, które prowadzą działalność różnego rodzaju. W sytuacji takiej próg rentowności można wyznaczyć korzystając z następującego wzoru:
gdzie:
P* - przychód, przy którym firma osiąga próg rentowności,
P - przychód firmy,
Ks - koszty stałe,
Kz - koszty zmienne.
Funkcje kosztów całkowitych i przychodów na tle produkcji w warunkach braku progu rentowności przy założeniu nieliniowych funkcji przychodów i kosztów
Funkcje kosztów całkowitych i przychodów na tle produkcji przy założeniu nieliniowych funkcji przychodów i kosztów
Badanie statystycznej istotności estymatorów parametrów występujących w modelu
W przypadku modelu liniowego z jedną zmienną objaśniającą oprócz zapisu algebraicznego możemy również stosować zapis macierzowy wartości oszacowań parametrów strukturalnych tzn.
Zwróćmy uwagę, że:
Teraz odwróćmy macierz XTX:
Badanie dokładności szacunku modelu
Badanie statystycznej istotności estymatorów parametrów występujących w modelu
Badanie statystycznej istotności estymatorów parametrów występujących w modelu
Badanie statystycznej istotności estymatorów parametrów występujących w modelu