EKONOMETRIA
Wykład III (22-03-2012)
Szacowanie parametrów modelu ekonometrycznego.
Szacowanie parametrów przeprowadzamy w oparciu o dane statystyczne i stosując odpowiednią metodę ich estymacji statystycznej.
Estymacja statystyczna to szacownie wartości parametrów lub postaci funkcji rozkładu prawdopodobieństwa w populacji generalnej na podstawie wyników próby.
Estymatorem Tn parametru θ rozkładu populacji generalnej nazywamy funkcją z próby.
Tn=t(x1,x2,...xn) która służy do oszacowania wartości parametru θ. Celem jego zastosowania jest znalezienie parametru rozkładu cechy w populacji.
Estymatory parametrów strukturalnym modelu ekonometrycznego są zmiennymi losowymi, natomiast wartości estymatorów nazywane są ocenami parametrów i obliczamy je na podstawie próby.
Oceną lub szacunkiem parametru jest konkretna wartość liczbowa estymatora z danej próby. Jeżeli jako ocenę (szacunek) podajemy jedną wartość liczbową nazywamy ją oceną punktową (szacunkiem punktowym) parametru populacji wyrażenie będące różnicą pomiędzy estymatorem, a wartości parametru θ czyli Tn- θ= określamy błędem szacunku lub błędem estymacji (jest to zmienna losowa o rozkładzie indukowanym przez rozkład estymatora).
Własności estymatorów
nieobciążalność- estymator jest obciążony, jeżeli jego wartość oczekiwana jest równa parametrowi populacji, do oszacowania której służy E(Tn)= θ , n=1,2…
Wyrażenie E (Tn)- θ= b(Tn) określamy jako obciążenie estymatora, zaś estymator jest asymptotycznie obciążony, jeżeli:
b (Tn) = 0
Własność nieobciążoności oznacza, że przy wielokrotnym losowaniu próby średnia z wartości przyjmowanych przez estymator nieobciążony równa się wartości szacowanego parametru. Własność ta gwarantuje otrzymanie za jego pomocą ocen wolnych od błędu statystycznego.
zgodność- estymator jest zgodny jeżeli prawdopodobieństwo, że jego wartość będzie bliska wartości szacowanego parametru wzrasta wraz ze wzrostem liczebności próby tzn. dla dostarczenia licznej próby szansa otrzymania oceny estymatora różnego od parametru jest bliska 0 (estymator jest zgodny jeżeli podlega działaniu prawa wielkich liczb)
P{|Tn−θ|<ε}=1
ε>0 przy ε minimum
Wraz ze wzrostem liczebności próby wzrasta dokładność oszacowania parametru θ.
Przy małych liczebnościach ważniejsza praktycznie jest zwykle kwestia nie obciążalności lub rozmiarów obciążalności estymatora.
efektywność- estymator jest efektywny jeżeli na niewielką wariancję (a tym samym niewielkie odchylenie standardowe)- pośród wszystkich nieobciążonych estymatorów parametru θ, ten o najmniejszej wariancji nazwiemy najefektywniejszym (nierówność Rao Cramerra)
D2 (Tn0)≤D2(Tin)
Miarą efektywności estymatora jest
a(Tn0………
Efektywność estymatora związana jest z wielkością rozrzutu wartości dookoła jego nadziei matematycznej (w przypadku estymatora nieobciążonego).
dostateczność- estymator Tn parametru θ jest dostateczny (wystarczający) jeżeli zawiera wszystkie informacje, jakie na temat parametru θ można uzyskać na podstawie próby i żaden inny estymator nie umożliwia otrzymania dodatkowych informacji o szacowanym parametrze.
Estymator Tn zgodny, nieobciążony i najefektywniejszy pozwoli najlepiej oszacować nieznany parametr θ ponieważ z dużym prawdopodobieństwem można przyjąć że zaobserwowana wartość estymatora Tn jest bliska rzeczywistej wartości θ.
Przy estymacji punktowej za oceną parametru przyjmuje się wartość estymatora, więc korzystniejsza jest sytuacja, że im wartość Tn grupują się bliżej wartości θ, tym niższa jest wariancja estymatora (wybiera się ten który w rozpatrywanym zbiorze jest najefektywniejszy).
Pierwiastek z wariancji estymatora nieobciążonego nazywany jest błędem średnim szacunku D(Tn) macierzy oczekiwany rząd odchyleń wartości estymatora od prawdziwej wartości parametru (mierzy przeciętną wielkość błędów szacunku jakie popełniono by in plus i in minus gdyby z wyróżnionej zbiorowości wielokrotnie pobierano próby złożone z n obserwacji i na ich podstawie szacowanego θ za pomocą estymatora Tn).
Względny błąd średni szacunku określony jako D(tn)/θ
Metody wyznaczania estymatorów
metoda momentów- estymatory zgodne, ale przeważnie obciążone i mało efektywne,
metoda największej wiarygodności – estymatory zgodne, asymptotycznie nieobciążone i asymptotycznie efektywne,
metoda najmniejszych kwadratów- (estymacja parametrów wyrażających różne zależności pomiędzy zmiennymi losowymi) estymatory zgodne, nieobciążone i najefektywniejsze w klasie estymatorów linowych.
Klasyczna metoda najmniejszych kwadratów
Metoda szacowania parametrów liniowych modeli ekonometrycznych.
Y= α0+α1x1+…+ αkxk+ε
Idea tej metody sprowadza się do takiego wyznaczenia wartości ocen $\hat{\alpha_{0,\ }\ }\hat{\alpha_{1}}\ldots.\ \hat{\alpha_{k}}$ parametrów strukturalnych α0, α1 … αk to suma kwadratów odchyleń zaobserwowanych wartości zmiennej objaśnianej od jej wartości teoretycznych obliczanych z modelu była najmniejsza. Warunek ten zapisuje się następująco:
$$\sum_{t = 1}^{n}{e_{\text{t\ }}^{2} =}\sum_{t = 1}^{n}{(y_{t} - \hat{\alpha_{0}\ }} - \hat{\alpha_{1}}x_{t1} - \hat{\alpha_{2}}x_{t2} - \hat{\alpha_{k}}x_{\text{tk}})^{2} \rightarrow minimum$$
Gdzie et (t=1,2,…,n)- odchylenie empirycznych wartości zmiennej objaśniającej od jej wartości teoretycznych nazywane resztami modelu:
et= yt-$\hat{y_{t}}$ ,
przy czym:
$$\hat{y} = \ \hat{\alpha_{0}} + \ \hat{\alpha_{1}}x_{t1} + \hat{\alpha_{2}}x_{t2} + \ldots + \hat{\alpha_{k}}x_{\text{tk}}$$
Założenia KMNK (założenia Gaussa-Markowa):
postać funkcji regresji jest liniowa (lub sprowadzalna do liniowej) i stała (jej parametry nie zmieniają się wewnątrz zbioru obserwacji) tzn. relacja między zmiennymi jest stabilna.
zmienne objaśniające(egzogeniczne) są losowe, ich wartości są ustalonymi liczbami rzeczywistymi.
macierz obserwacji o wymiarach [nx(k+1)] jest macierzą pełnego rzędu n(X)=k+1<n tzn. zmienne objaśniające nie są współliniowe, czyli nie występuje między nimi dokładna, zależność liniowa oraz liczba obserwacji przekracza liczbą szacowanych parametrów modelu.
składnik losowy ma rozkład normalny o średniej równej 0 (E(εi)=0) i stałym odchyleniu standardowym (D2(ε1)=σ2 – tzw. własność homoskedastyczności.
nie występuje zjawisko autokorelacji składnika losowego czyli zależności składnika losowego różnych jednostkach czasu cov (εi, εj)=0, i≠j.
(Autokorelacja składnik losowy jest porównywany z innym elementem tego samego szeregu).
Twierdzenie Gaussa- Markowa
Twierdzenie 1
Jeżeli x jest nielosowe i U czyste to $\hat{\alpha}$ uzyskany według MNK jest zgodny, nieobciążony i najefektywniejszy w klasie estymatorów liniowych.
Twierdzenie 2
Jeżeli x jest losowe, ale niezależne od U to $\hat{\alpha}$ jest zgodny, nieobciążony.
Twierdzenie 3
Jeżeli x jest nielosowe i U czyste to obciążonym estymatorem wariancji składnika ……..
Szacowanie parametrów modelu z jedną zmienną
Liniowy model ekonometryczny z jedną zmienną objaśniającą ma ogólną postać:
Y= α0 + α1x + ε
Zakładając że:
$$\sum_{t = 1}^{n}e_{t}^{2} = \sum_{t = 1}^{n}{(y}_{t} - \hat{\alpha_{0}} - \hat{\alpha_{1}}x)^{2} \rightarrow minmum$$
Wyznaczamy pochodne cząsteczkowe funkcji i przy……
Otrzymujemy zatem
$$\hat{\alpha_{1}} = \ \frac{\sum_{t = 1}^{n}{(y_{t}} - \ \overset{\overline{}}{y})(x_{t} - \ \overset{\overline{}}{x)}}{\sum_{t = 1}^{n}{(x_{t} - {\overset{\overline{}}{x)}}^{2}}} = \ \frac{\overset{\overline{}}{\text{xy}} - \overset{\overline{}}{x}*\overset{\overline{}}{y}}{\overset{\overline{}}{x^{2}\ } - \ {\overset{\overline{}}{x}}^{2}} = \ \frac{cov\ (x,y)}{S^{2}(x)}$$
$$\hat{\alpha_{0}} = \ \overset{\overline{}}{y} - \ \hat{\alpha_{1}}*\overset{\overline{}}{x}$$
Szacowanie parametrów modelu z jedną zmienną- ujęcie macierzowe
Y=$\begin{matrix} y_{\begin{matrix} \begin{matrix} 1 \\ . \\ \end{matrix} \\ . \\ . \\ . \\ . \\ \end{matrix}} \\ y_{\begin{matrix} i \\ . \\ . \\ . \\ . \\ . \\ . \\ \end{matrix}} \\ y_{n} \\ \end{matrix}$ - wektor obserwacji zmiennej objaśnianej,
X= $\begin{matrix} 1x_{\begin{matrix} 1 \\ . \\ . \\ . \\ . \\ \end{matrix}} \\ 1x_{\begin{matrix} i \\ . \\ . \\ . \\ . \\ \end{matrix}} \\ 1x_{n} \\ \end{matrix}$ - macierz obserwacji zmiennej objaśniającej,
α= $\begin{matrix} \alpha_{0} \\ \alpha_{1} \\ \end{matrix}$- wektor nieznanych parametrów modelu,
ε= $\begin{matrix} \varepsilon_{\begin{matrix} 1 \\ . \\ . \\ . \\ \end{matrix}} \\ \varepsilon_{\begin{matrix} i \\ . \\ . \\ . \\ \end{matrix}} \\ \varepsilon_{n} \\ \end{matrix}$- wektor składników losowych
Przy zapisie macierzowym model ma postać:
Y= xα + ε
Wektor ocen parametrów strukturalnych modeli wyznaczony według wzoru:
$\hat{\alpha} = (X^{T}X)$-1 XT Y
XTX= $\begin{matrix} n & \sum_{t = 1}^{n}x_{t} \\ \sum_{t = 1}^{n}x_{t} & \sum_{t = 1}^{n}x_{i} \\ \end{matrix}$ XTY=$\begin{matrix} n & \sum_{t = 1}^{n}y_{t} \\ \sum_{t = 1}^{n}y_{t} & x_{t} \\ \end{matrix}$
det (XTX)-1= n$\sum_{t = 1}^{n}{x^{2} - \ (\sum_{t = 1}^{n}{x_{t})}}$2
Szacowanie modelu z wieloma zmiennymi objaśniającymi
Y= α0+α1x1t+… αkxk+ ε
Przy zapisie macierzowym model ma postać:
Y= xα+ρ
Zakładamy że dysponujemy:
- wartościami zmiennej endogenicznej, yt w okresie t=1,2…n
- wartościom n…..
Y= $\begin{matrix} y_{\begin{matrix} 1 \\ . \\ . \\ . \\ . \\ \end{matrix}} \\ y_{\begin{matrix} i \\ . \\ . \\ . \\ . \\ \end{matrix}} \\ y_{n} \\ \end{matrix}$ XTX=$\begin{matrix} n & \sum_{t = 1}^{n}x_{1t} & \sum_{t = 1}^{n}x_{2t} \\ \sum_{t = 1}^{n}x_{1t} & \sum_{t = 1}^{n}x_{1t}^{2} & \sum_{t = 1}^{n}{x_{1t}*x_{2t}} \\ \sum_{t = 1}^{n}x_{2t} & \sum_{t = 1}^{n}{x_{1t}*x_{2t}} & \sum_{t = 1}^{n}x_{2t}^{2} \\ \end{matrix}$
XTY= $\begin{matrix} \sum_{t = 1}^{n}y_{t} \\ \sum_{t = 1}^{n}{y_{t}*x_{1t}} \\ \sum_{t = 1}^{n}{y_{t}*x_{2t}} \\ \end{matrix}$
Weryfikacja modelu
1)Badanie stopnia dopasowania modelu do danych empirycznych
2)Badanie statystycznej istotności estymatorów parametrów modelu
3)Weryfikacja hipotez dotyczących odchyleń losowych
Miary dobroci modelu (mierniki jakości modelu)
Ocena dopasowania modelu do danych empirycznych ma na celu sprawdzenie, czy model ten w wystarczająco wysokim stopniu wyjaśnia kształtowanie się zmiennej objaśnianej.
Odchylenie standardowe składnika resztowego (pierwiastek z wariancji składnika resztowego jako estymator wariancji składnika losowego σ2)
Se= $\frac{\sqrt{\sum_{i = 1}^{n}e_{i}^{2}}}{n - k - 1} = \sqrt{\frac{e^{T}e}{n - k - 1}} = \ \sqrt{\frac{y^{T}y - y^{T}x_{a}}{n - k - 1}} = \ \sqrt{\frac{\sum_{i = 1}^{n}{(x^{T}{y)}^{T}a}}{n - k - 1}}$
n- liczba obserwacji,
k- liczba zmiennych w modelu,
Wektor ocen parametrów strukturalnych
Współczynnik ten informuje o ile średnio odchylały się wartości empiryczne od wartości teoretycznych wyznaczonych na podstawie modelu.
Współczynnik zmienności losowej
Vs= $\frac{S_{e}}{\overset{\overline{}}{y}}*10\%$
Współczynnik ten informuje, ile procentowo wartości średniej arytmetycznej zmiennej objaśnianej stanowi.
Mniejsze wartości współczynnika wskazują na lepsze dopasowanie modelu do danych empirycznych. Przyjmuje się że nie powinien on przekraczać 10%.
Współczynnik zbieżności (indeterminacji) który wyraża udział zmienności losowej w całkowitej zmienności zmiennej objaśnianej?
$$\varphi^{2} = \ \frac{\sum_{i = 1}^{n}{(y_{t} - \hat{y})^{2}}}{\sum_{i = 1}^{n}(y_{t} - \overset{\overline{}}{y})^{2}} = \ \frac{\sum_{i = 1}^{n}e_{t}^{2}}{\sum_{i = 1}^{n}{(y_{t} - \overset{\overline{}}{y})^{2}}} = \ \frac{(n - k - 1)\text{Se}^{2}}{\sum_{i = 1}^{n}{(y_{t} - \overset{\overline{}}{y})^{2}}} = \frac{(n - k - 1)S^{2}e}{n*S^{2}y} = \ \frac{y^{T}y - y^{T}x_{a}}{(y - \ \overset{\overline{}}{y})^{T}*(y - \overset{\overline{}}{y})}$$
Wskazuje jaki procent zmienności zmiennej objaśnianej nie został wyjaśniony przez model. Dopasowanie modelu do danych jest tym lepsze, im współczynnik jest bliższy zeru. Pożądane są wartości współczynnika nieprzekraczającego 10%.
Współczynnik determinacji który informuje jaką część całkowitej zmienności zmiennej objaśnianej stanowi zmienność wartości teoretycznych tej zmiennej, tj. część zdeterminowana przez zmienne objaśniające.
R2= $\frac{\sum_{i = 1}^{n}{(\hat{y_{t}} - \ \overset{\overline{}}{y})^{2}}}{\sum_{i = 1}^{n}{{(y}_{t} - \ \overset{\overline{}}{y})^{2}}} = 1 - \varphi^{2}$
Współczynnik ten przyjmuje wartości z przedziału [0;1]. Dopasowanie modelu do danych jest tym lepsze im współczynnik determinacji jest bliższy jedności.
Jeżeli k+1- liczba szacowanych parametrów modelu jest niewiele mniejsza od liczby obserwacji n, to stosujemy skorygowany współczynnik determinacji.
Macierz wariancji i kowariancji estymatorów parametrów
D2(α = S2e * (XTX)−1
Szczególne znaczenie mają elementy diagonalne tej macierzy (wariancje estymatorów parametrów). Pierwiastki tych wartości to błędy średnie szacunku parametrów. Kolejność otrzymanych wariancji uzależniona jest od kolejności zmiennych w macierzy X. Poza główną przekątną znajdują się kowariancje estymatorów parametrów.
Obliczanie średnich błędów szacunku parametrów pozwala na zorientowanie się w dokładności otrzymanych szacunków, a ich dokładność rozstrzyga o ich przydatności praktycznej. Ocena standardowego błędu szacunku parametru informuje, o ile średnio jednostek wartości oceny różni się od rzeczywistej wartości parametru.
Badanie statystycznej istotności estymatorów parametru modelu
Sprawdzenie statystycznej istotności parametrów strukturalnych polega na ocenie, czy parametry różnią się statystycznie istotnie od zera. Służy temu test istotności t- Studenta. Hipotezy tego testu są następujące:
H0: α1=0
H1: α1≠0
Hipoteza zerowa H0 oznacza, że parametr statystycznie nieistotny, natomiast hipoteza H1(alternatywna) oznacza, że parametr jest istotny. Sprawdzeniem testu jest statystyka t- Studenta, liczona według następującego wzoru:
$t_{\hat{\alpha_{1}}} = \ \frac{|\hat{\alpha_{i}|}}{(D\ \hat{\alpha_{i}})}$ ocena i-tego parametru strukturalnego
błąd średni szacunku parametru strukturalnego
Obliczoną wartość statystyki t- Studenta porównujemy z wartością krytyczną odczytaną dla zadanego poziomu istotności α i n-k-1 stopni swobody (najczęściej przyjmuje się że tα, n-k-1= 2). Jeżeli:
t$\hat{\alpha_{1}}$ ≥ tα, n-k-1 – hipotezę zerową odrzucamy na korzyść hipotezy alternatywnej
t$\hat{\alpha_{1}}$ < tα, n-k-1 – nie ma podstaw do odrzucenia hipotezy zerowej
Przyczyny braku statystycznej istotności parametrów:
niska jakość danych statystycznych,
mała liczebność próby,
niewłaściwie dobrany zestaw zmiennych objaśniających,
niewłaściwa postać analityczna modelu
Badanie własności składnika losowego:
Sprawdzamy czy spełnione są przyjęte przy estymacji założenia dotyczące składnika losowego (reszty „dobrego” modelu powinny charakteryzować się losowością, normalnością i symetrią)
- badanie autokorelacji składnika losowego (np. test Durbina- Watsona)
- sprawdzenie czy reszty mają charakter losowy
- sprawdzenie czy reszty mają rozkład normalny
- weryfikacja hipotezy ostałości wariancji składnika losowego
- badanie stabilności opisywanych relacji czasie (np. test Chower)
Autokorelacja odchyleń losowych oznacza liniową zależność między odchyleniami losowymi z różnych jednostek czasu. Miarą siły…..
……nazywamy współczynnik autokorelacji rzędu ….. oznaczeniem tego współczynnika jest współczynnik autokorelacji Reszty et i tti?
Przyczyny autokorelacji składnika losowego:
natura niektórych procesów gospodarczych (nieurodzajne lata, klęski żywiołowe, których oddziaływanie rozciąga się na lata)
psychologia podejmowania decyzji (duży wpływ mają zdarzenia z przeszłości)
niepoprawna postać funkcyjna modelu (cykliczność zjawisk)
wadliwa struktura dynamiczna modelu (gdy w roli zmiennej objaśniającej nie występuje, a powinna, opóźniona zmienna objaśniona, albo brak jest opóźnionych zmiennych niezależnych)
pominięcie w specyfikacji modelu ważnej zmiennej
dane niestacjonarne- prowadzą do regresji pozornej w związku z tym także do autokorelacji składnika losowego
zabiegi na szeregach czasowych (interpolacje, agregacje lub wygładzenia)
Skutki autoregresji:
estymator MNK jest nieefektywny ale jest nieobciążony
estymator wariancji estymatorów MNK jest obciążony
średnie błędy szacunku są niedoszacowane
wartość statystyk t są przeszacowane
przeszacowany jest współczynnik determinacji
Badanie autokorelacji składnika losowego- test Durbina – Watsona:
H0: p=0 brak autokorelacji składnika losowego
H1: p≠0 występuje autokorelacja składnika losowego (można użyć w hipotezie odpowiednio znaku większości, jeżeli autokorelacja jest dodatnia lub znaku mniejszości jeżeli autokorelacja jest ujemna).
Sprawdzeniem jest statystyka
$$d_{\text{emp}} = \frac{\sum_{t = 2}^{n}{(e_{t} - e_{t - 1})^{2}}}{\sum_{t = 1}^{n}e_{t}^{2}}$$
Statystyka d przyjmuje wartości z przedziału[0;4]. Jeżeli H0 jest prawdziwa to d=2. Wartość d<2 świadczą o istnieniu autokorelacji dodatniej, natomiast wartość d>2 świadczą o istnieniu autokorelacji ujemnej. Zatem zależności od otrzymanej wartości d trzeba sprecyzować dokładniej hipotezę alternatywną.
Obliczona wartość statystyki d (lub d’) porównuje się z dwoma wartościami krytycznymi : dL i dU odczytamy z tablic Durbina-Watsona dla przyjętego poziomu istotności α oraz n i k stopni swobody (n- liczba obserwacji, k- liczba zmiennych objaśniających w modelu).
Reguły decyzyjne:
jeżeli wartość d < dL to H0 (o braku autokorelacji) odrzucamy (na korzyść H1)
w przypadku d>dU, brak podstaw do odrzucenia hipotezy zerowej
w przypadku gdy dL≤d≤dU nie podejmujemy żadnej decyzji (obszar niekonkluzywności)
W sytuacji gdy dL≤d≤dU możemy posłużyć się współczynnikiem autokorelacji p, który z d powiązany jest następująco
$$\hat{p} = \frac{2 - d}{2}$$
Jeżeli występuje autokorelacja reszt wówczas najlepszą metoda estymacji jest uogólnienie MNK Aitkena, jest również prostsza.
Heteroskedastyczność
Zjawisko heteroskedastyczności polega na niejednorodności wariancji składników losowych w obrębie próby(obserwacji)
Przyczyny powstawania heteroskedastyczności:
wśród podmiotów „większych” można się spodziewać większej zmienności zachowań co może znaleźć odzwierciedlenie w kształtowaniu się składników losowych
występowanie procesów uczenia się oraz udoskonalenia technik gromadzenia i przetwarzania informacji może spowodować że wariancja składnika losowego modelu będzie maleć z upływem czasu
test może wyłapać błędną postać funkcyjną lub pominięte zmienne obja….?
Skutki heteroskedastyczności składnika losowego dla estymatorów MNK:
estymatory są nieobciążone, ale nie efektywne
ocena? ich wariancji są obciążone
statystyki oparte na wariancjach (a więc i odchyleń standardowych) estymatorów nie są wiarygodne
Podstawowe transformacje modeli nieliniowych
Transformacja liniowa- polega na sprawdzaniu za pomocą odpowiednich przekształceń, funkcji nieliniowych do funkcji liniowych względem występujących w niej parametrów.
Funkcja potęgowa
Y=α0a0*Xa1
Przekształcenie do postaci liniowej odbywa się przez logarytmowanie
lny=lna0+a1lnX
Funkcja potęgowa jest jedną z najczęściej stosowanych postaci, gdyż nadaje się do opisu różnego rodzaju zależności.
Funkcja wykładnicza
Y=a0-a1x a0>0, a1>0
Przekształcenie do postaci liniowej odbywa się poprzez logarytmowanie
lny=lna0+Xlna1
Funkcja wykładnicza znajduje najczęściej zastosowanie jako model tendencji liniowej, w analizie rynku
Funkcja hiperboliczna
Y=a0+a1$\frac{1}{x}$ a1>0
Przekształcenie do postaci liniowej odbywa się poprzez odpowiednie podstawienia
$\frac{1}{x}$=Z
Y=a0+a1Z
Funkcja logarytmiczna
Y=a0+a1logX a0>0, a1>0
Przekształcenie do postaci liniowej odbywa się poprzez odpowiednie podstawienia
logX=Z
Y=a0+a1Z
Dobrze opisuje krzywe Engla dla dóbr wyższego rzędu.
Funkcja wielomianowa
Y=a0+a1*X+a2*X2
Przekształcenie do postaci liniowej odbywa się poprzez odpowiednie podstawienia
X2=Z
Y=a0+a1*X+a2Z