danych liczb x wartość oczekiwana E(Y) jest liniowa względem x, a więc równa a + fi x. W obu przypadkach może być stosowana do estymacji współczynników zależności analiza regresji, chociaż gdy X i Y są zmiennymi losowymi, estymacja pięciu parametrów: m, p,. o„ Oj i p również jest właściwa i taka procedura nazywana jest statystyczną analizą korelacji.
Analiza regresji obejmuje zasadniczo dwie grupy zagadnień: estymację współczynników zależności i weryfikację uzyskanej zależności. W najprostszym modelu zależności liniowej estymacji podlegają trzy parametry: współczynnik a, współczynnik kierunkowy P i wariancja <r. Natomiast przy weryfikacji zależności podstawowe pytanie brzmi: Czy dane wskazują na istotną zależność średniej zmiennej k>sowq Y od zmiennej x? Czyli sprawdza się hipotezę zerową H©: (3=0. Jeśli zależność okaże się nieistotna, to model może być uproszczony przez pominięcie zmiennej x i traktowanie zmiennej Y jako zwykłej zmiennej losowej. Podobnie może być sprawdzona hipoteza o nieistotności wyrazu wolnego a = 0.
Naturalnie przy większej liczbie zmiennych niezależnych model zależności może być przedstawiony w postaci:
Wówczas metoda analizy statystycznej takiego modelu nosi nazwę analizy regresji wielokrotnej.
Kiedy w analizie regresji mówi się. że model jest liniowy bądź nieliniowy, odnosi się to do liniowości lub nieliniowości względem współczynników. Wartość najwyższej potęgi zmiennej niezależnej modelu nazywa się stopniem modelu. Na przykład, przy założeniu, że związek między zmienną zależną Y a zmienną niezależną x jest w postaci modelu nieliniowego multiplikatywnego:
Y~axf,c, (4.7)
gdzie /r jest odchyleniem losowym, wówczas przez logarytuiowanic można przekształcić ten model do postaci liniowej:
In Y=]n a+/71nx + ln e, (4.8)
i analizować go, używając metod regresji liniowej.
Podobnie model wykładniczy:
Y = cxp(« + px) przekształca się do ln T= a+px, (4.9)
i model odwrotny:
Y - 1/ (a+fłx) przekształca się do MY= a+px. (4,10)
43