Dorozhovets Niepewność liniowej regresji ortogonalnej


Mykhaylo DOROZHOVETS
POLITECHNIKA RZESZOWSKA, ZAKAAD METROLOGII I SYSTEMÓW POMIAROWYCH
Niepewność liniowej regresji ortogonalnej
Prof. dr hab. inż. Mykhaylo DOROZHOVETS
Jest absolwentem (1975) Katedry Techniki
y
Y=y )/a
i-(x-x
i 1
Informacyjno-Pomiarowej Politechniki Lwowskiej,
tytuł doktora nauk technicznych uzyskał w 1986 r. a (x ; y )
i i
w 2001 r. obronił pracę habilitacyjną. Obecnie jest
Y=a +a x
0 1
zatrudniony na stanowisku profesora w Zakładzie
Å
y
i
Metrologii i Systemów Pomiarowych Politechniki h
i
Rzeszowskiej. W pracy naukowo-badawczej zajmuje
się zagadnieniami pomiarów tomograficznych,
(x ; y )
oi 0i x
problemami przetwarzania sygnałów pomiarowych
oraz analizą i oceną niedokładności wyników
Å
x
i
pomiarów.
e-mail:michdor@prz.edu.pl, dorozhovets@polynet.lviv.ua
Rys. 1. Regresja ortogonalna
Streszczenie
Fig 1. Orthogonal regression
W referacie przeanalizowano problemy wyznaczania parametrów
Oczywistym jest, że warunek minimalizacji (2) dla regresji
ortogonalnej regresji liniowej i przedstawiono metodÄ™ wyznaczania
ortogonalnej (1) zdecydowanie różni się od warunku
niepewności współczynników oraz przewidywanych wartości regresji.
n
1
2
minimalizacji w przypadku regresji zwykÅ‚ej: Ò! MIN .
"Åy
i
n i=1
Słowa kluczowe: niepewność, regresja, ortogonalna.
2. Wartości współczynników liniowej
Uncertainty of linear orthogonal
regresji ortogonalnej
regression
W przypadku regresji ortogonalnej odstęp hi V-go punktu od
Abstract
poszukiwanej linii (1) równa się długości odcinka leżącego na
In the paper the problems of linear orthogonal regression parameters linii prostopadłej mierzonego od punktu (xi ; yi ) do punktu
calculation are discussed and method of uncertainties of coefficients and
(x0i ; y0i ) (rys. 1). Równanie linii prostopadłej opisuje się
regression line is presented.
wzorem yp = yi -(x - xi ) a1 dlatego odległość punktu
Key words: uncertainty, regression, orthogonal.
(x0i ; y0i ) od poszukiwanej prostej wzdłuż osi 0x jest równa:
1. Wstęp
a1xi - ( yi - a0 )
Åxi = xi - xoi = a1 2 . (3)
W praktyce pomiarowej podczas badania układów (na przykład
a1 +1
czujników) z wielkościami wejściową oraz wyjściową w celu
wyznaczania ich funkcji przetwarzania często należy uwzględniać
nie tylko niepewności wyników pomiaru wielkości wyjściowej Ponieważ odległość punktu (x0i ; y0i ) od poszukiwanej prostej
(wartości funkcji), co ma miejsce w zwykłej aproksymacji metodą
wzdÅ‚uż osi 0y wynosi Åyi = yi - yoi = -Åxi a1 , wtedy kwadrat
najmniejszych kwadratów [1],[2], ale również też i niepewności
odległości punktu eksperymentalnego (xi ; yi ) od linii (1) we
pomiaru (lub formowania) wielkości wejściowej (argumentu). W
takim przypadku dla wyznaczania najlepszej funkcji
wzorze (2) osiąga wartość:
aproksymacyjnej należy wykorzystać regresje ortogonalną [3].
Regresja ortogonalna różni się od zwykłej tym, że parametry linii
2
Åxi2 [a1xi - ( yi - a0 )]
aproksymacyjnej
hi2 = Åxi2 +Åyi2 = Åxi2 + = . (4)
2 2
a1 a1 +1
y = Fa (x) = a0 + a1x . (1)
Wartości współczynników a0 oraz a1 linii regresji można
są obliczane na podstawie minimalizacji sumy kwadratów
znalezć z rozwiązania warunku minimalizacji (1) po podstawieniu
odchyleń hi (rys.1)
do niego wyrażenia (4). Jednak istnieje problem realizacji takiego
zagadnienia, związany z niejednakową wymiarowością wielkości
n n wejściowej (x) i wyjściowej (y). Na przykład podczas badania
1 1
2
(Åxi2 +Åyi2)Ò! MIN , (2) rezystancyjnego czujnika temperatury, w którym wielkoÅ›ciÄ…
"h = "
i
n n
i=1 i=1 wejściową jest temperatura, a wielkością wyjściową jest
rezystancja, we wzorze (1) występuje suma kwadratów dwóch
różnych wielkości (temperatury i rezystancji). Oprócz tego, we
punktów (xi ; yi ) eksperymentalnych od poszukiwanej linii
wzorze (2) wymiarowość współczynnika a1 jest równa
regresji (1) (gdzie Åxi oraz Åyi - odchylenia punktu
stosunkowi wymiarowości wielkości wyjściowej (y) oraz
eksperymentalnego wzdłuż odpowiednich współrzędnych (rys.1)).
wejściowej (x). W wyniku tego w mianowniku wzoru (1) w
Oznacza to, że przy regresji ortogonalnej są uwzględniane
ogólnym przypadku występuje suma kwadratu wielkości
niepewności wyników pomiaru u(y) oraz u(x) zarówno
wymiarowej i bezwymiarowej.
wielkości wyjściowej (y) jak i wielkości wejściowej (x).
n
W celu eliminacji tego problemu wartości wielkości wejściowej
1
2 2 2 2
oraz wyjÅ›ciowej należy przeksztaÅ‚cić w taki sposób żeby staÅ‚y siÄ™ Rx2 y2 = (xi - x )(yi - y )= Áx2 y2 S2x2 Å" S2 y2 , (13)
"
n
one bezwymiarowymi. Takie przekształcenie można i=1
przeprowadzić na wiele sposobów, na przykład poprzez
unormowanie wyników pomiaru wartości wejściowej oraz
a Áx2 y2 jest współczynnikiem korelacji pomiÄ™dzy unormowanymi
wyjściowej do wartości normujących: X - dla wielkości
N
wartościami wielkości wejściowej oraz wyjściowej.
wejściowej oraz YN - dla wielkości wyjściowej. Jeżeli
2
Ze wzoru (12) otrzymuje się wartość współczynnika a1 :
odchylenia eksperymentalnych wyników od ich wartości
rzeczywistych są spowodowane niedoskonałością ich pomiarów
2Áx2 y2
(wpływem zródeł niepewności związanych z pomiarami tych
2
a1 = , (14)
wielkości za pomocą odpowiednich przyrządów pomiarowych)
2 2
Sx2 y2 + Sx2 y2 + 4Áx2 y2
wtedy jako normujące wartości można przyjąć odpowiednie
zakresy pomiarowe X oraz Yk przyrządów, którymi zostały
k
zmierzone wartości wielkości wejściowej oraz wyjściowej:
gdzie Sx2 y2 = Sx2 Sy2 - Sy2 Sx2 .
2
Wartość współczynnika a0 oblicza się z równania (10) dla
X = X oraz YN = Yk . (5)
N k
wartości średnich:
W takim przypadku przed aproksymacją wartości wielkości
wejściowej oraz wyjściowej należy przeliczyć zgodnie z
2Áx2 y2
zależnościami 2 2 2
a0 = y - Å" x . (15)
2 2
Sx2 y2 + Sx2 y2 + 4Áx2 y2
xi xi 2
yi yi
2
xi = = , yi = = , i = 1, 2, ..., n . (6)
YN Yk 2 2 2
X X W przypadku zwykłej regresji liniowej: y = b0 + b1x ,
N k
uwzględniając niepewności pomiaru tylko wielkości wyjściowej,
wartości współczynników tej linii można obliczyć ze wzorów:
Inny sposób unormowania wartości wielkości wejściowej oraz
wyjściowej polega na ich standaryzacji (centrowaniu i
unormowaniu) wg wzorów:
Sy2
2 2 y 2 2 2
b1y x = Áx2 y2 , b0 x = y -b1x . (16)
Sx2
xi - x yi - y
2 2
xi = oraz yi = , i = 1, 2, ..., n , (7)
Sx2 S
2
y
3. Standardowe niepewności
współczynników
n
n
1
1
gdzie x = xi i y = yi - wartości średnie; (8)
" "
n 2 2
n Standardowe złożone niepewności uc (a0 ) oraz uc (a1)
i =1 i=1
współczynników liniowej ortogonalnej regresji można obliczyć
n n
bezpośrednio ze wzorów (14) oraz (15) wg metody obliczania
1 1
2 2
2 2
2 2 2 2
Sx2 = (xi - x ) , S = (yi - y ) - (9) niepewności wyników pomiaru pośrednich [2], a mianowicie:
" 2 "
y
n n
i =1 i =1
2
îÅ‚ëÅ‚ "a1 öÅ‚2 Å‚Å‚
n
ëÅ‚ öÅ‚
2 2
"a1
eksperymentalne centralne momenty drugiego rzędu wielkości
2
2
uc (a1) =
"ïÅ‚ìÅ‚ "x2 j ÷Å‚ u2 (Åx2 j ) + ìÅ‚ "y2 j ÷Å‚ u2 (Åy2 j )śł, (17)
wejściowej oraz wyjściowej.
ìÅ‚ ÷Å‚
ïÅ‚ìÅ‚ ÷Å‚ śł
j=1
íÅ‚ Å‚Å‚
W takim przypadku kwadrat odstępu punktu z unormowanymi
ðÅ‚íÅ‚ Å‚Å‚ ûÅ‚
współrzędnymi (6) od poszukiwanej prostej
oraz
2
îÅ‚ëÅ‚ "a0 öÅ‚2 Å‚Å‚
n
ëÅ‚ öÅ‚
2 2 2 2 2 2
y = a0 + a1x (10) "a0
2
2
uc (a0 ) =
"ïÅ‚ìÅ‚ "x2 j ÷Å‚ u2 (Åx2 j ) + ìÅ‚ "y2 j ÷Å‚ u2 (Åy2 j )śł, (18)
ìÅ‚ ÷Å‚
ïÅ‚ìÅ‚ ÷Å‚ śł
j=1
íÅ‚ Å‚Å‚
opisuje siÄ™ podobnym do (4) wyrażeniem ðÅ‚íÅ‚ Å‚Å‚ ûÅ‚
2
2 2 2 2
"a1 "a1 "a0 "a0
2 2 2 2
[a1xi - ( yi - a0 )]
gdzie , , , - pochodne wyznaczane względem
2 2 2 2 2 2
hi = Åxi +Åyi = . (11)
2 j 2 j 2 j 2 j
"x "y "x "y
2
a12 +1
odpowiednich wartości wielkości wejściowej i wyjściowej;
2 j 2 j 2 j
Ponieważ dla wartoÅ›ci Å›rednich we wzorze (10) zachodzi u2(Åx ) oraz u2(Åy ) - wariancje skÅ‚adowych odchyleÅ„ Åx i
2 2 2 2
zależność: y = a0 + a1 Å" x warunek minimum sumy kwadratów
2 j
Åy unormowanych wyników pomiaru tych wielkoÅ›ci.
(2) ma postać:
Na podstawie zależności (14) pochodne we wzorze (17)
wynoszÄ…:
n n
2
1 1 1
2
2 2 2 2
[a1(xi - x )- (yi - y )] =
"h2 = 2 +1 n "
i
2 2
n a12 =1 "a1 a1 îÅ‚Sx2 y2 2 2 2 2
i=1 i
= Å" (yj - y )- 2(xj - x)Å‚Å‚ ; (19)
ïÅ‚ śł
. (12)
2 2 2
"xj nÅ"!x2 y2 ïÅ‚Áx2 y2
śł
2 2
a12Sx2 - 2a1Rx2 y2 + Sy2 ðÅ‚ ûÅ‚
= Ò! MIN.
2
a12 +1
gdzie
2
2 2
2 2 2
"a1 a1 îÅ‚Sx2 y2 2 2 2 2 a12 + Sx2 Sy2 ëÅ‚ öÅ‚
2 2
uA(y ) x
.(28)
2 2 2 ìÅ‚ ÷Å‚
= Å" (xj - x )+ 2(yj - y )Å‚Å‚ . (20) uc (a0) = 1+ a14 + a12
ïÅ‚ śł
2
2 2 Áx2 y2 ìÅ‚ Sx2 ÷Å‚
"yj nÅ"!x2 y2 ïÅ‚Áx2 y2 (1+ a12)Å" n
śł íÅ‚ Å‚Å‚
ðÅ‚ ûÅ‚
2 2 2
W przypadku zwykłej regresji liniowej y = b0 + b1x
2 2
gdzie Cx2 y2 = Sx2 Å" Sy2 Å" Sx2 y2 + 4Áx2 y2 .
standardowe niepewności współczynników opisuje się wzorami:
Jeżeli wyniki pomiaru charakteryzują się jednakowymi dla
wszystkich punktów eksperymentalnych wariancjami składowych
2 2
2 2 2 2 uA(y ;bi )
odchyleń:
; 2 , (29)
2 y x uA(y ;bi ) uc(b1y x) =
uc (b0 x) =
Sx2 Sx2 n
n
2 2 2 j 2
u2(Åxj ) = u2(Åx ) oraz u2(Åy ) = u2(Åy ) , (21)
2
2 2
gdzie uA( y ;bi ) jest estymatÄ… wariancji, obliczonej na odstawie
odchyleń punktów eksperymentalnych od znalezionej zwykłej
i są wzajemnie niezależne pomiędzy sobą, wtedy po podstawieniu
2 2 2
linii regresji y = b0 + b1x wg wzoru, podobnego do (25).
zależności (19) i (20) do wyrażenia (17) po przekształceniu
otrzymujemy wyrażenie dla standardowej niepewności
2 4. Standardowe oraz rozszerzone
współczynnika a1 :
niepewności przewidywanych wartości
2 2 2
funkcji
2 2
2 uA(Åx ) Sx2 + uA(Åy ) Sy2
a1 2
2
uc(a1) = Å" . (22)
n Standardową niepewność przewidywanych wartości funkcji
Áx2 y2
(10) można obliczyć wykorzystując znalezione wyżej wartości
standardowych niepewności współczynników (27) oraz (28):
Ponieważ na podstawie zależności (15) pochodne dla
2
współczynnika a0 wynoszą:
2
2 2 2 2 2 2 2 , (30)
uc (ya(x))= u2(a0)+ 2Å" ra a1u(a0)u(a1)Å" x + u2(a1)Å" x
0
2 2 2 2 2
"a0 "a1 a1 "a0 1 "a1
2 2 gdzie ra a1 - współczynnik korelacji pomiędzy współczynnikami
= - x - ; = - x , (23)
0
2 j 2 j 2 j 2 j
"x "x n "y n "y
2 2
a0 oraz a1 , dla którego ma miejsce zależność:
2 2 2 2
ra0a1u(a0)u(a1)= -x Å"u2(a1). Dlatego standardowa niepewność
wtedy po podstawieniu tych zależności do wyrażenia (18) V
przekształceniu otrzymujemy wzór na obliczanie standardowej
wartości linii ortogonalnej regresji opisuje się zależnością:
2
niepewności współczynnika a0 :
2
uc(ya(x )) =
2 2
2 2
ëÅ‚ öÅ‚ ëÅ‚ öÅ‚
2 2 2 2
(x ) uA(Åx ) a12(x ) uA(Åy ) (31)
.(24)
2 2
÷Å‚ ìÅ‚1+ 2 2 ÷Å‚
2 2 2 2
uc (a0 ) = a1 Å"ìÅ‚1+ + a12 + Sx2 Sy2 ëÅ‚ - x
2 2 2 öÅ‚
uA( y ) x
2 2
ìÅ‚ ìÅ‚
Áx2 y2 S2 x2 ÷Å‚ n Áx2 y2 S2 y2 ÷Å‚ n 2 2 ìÅ‚ ÷Å‚
1+ a14 + a12 Å" .
íÅ‚ Å‚Å‚ íÅ‚ Å‚Å‚ 2
2 Áx2 y2 ìÅ‚ Sx2 ÷Å‚
(1+ a12) n
íÅ‚ Å‚Å‚
2
W przypadku, kiedy standardowe niepewnoÅ›ci u(Åx ) oraz
Standardową niepewność przewidywanych wartości zwykłej
2
u(Åy ) wyników pomiaru wartoÅ›ci wejÅ›ciowej oraz wyjÅ›ciowej
regresji można obliczyć na podstawie wzoru:
2
nie są znane, ich wartości są oceniane metodą typu A na
2 2 ëÅ‚ öÅ‚
2 2
uA( y ;bi ) x - x
podstawie wstępnego obliczenia odchyleń punktów
. (32)
2 2 ìÅ‚ ÷Å‚
uc(ya(x ;bi )) = 1+
ìÅ‚ ÷Å‚
eksperymentalnych od linii regresji ortogonalnej wzdłuż
Sx2
n
íÅ‚ Å‚Å‚
współrzędnej y [2]:
Niepewność rozszerzona równa się iloczynowi niepewności
n
2
standardowej (31) oraz współczynnika rozszerzenia kp :
2 2 2
"(y2 - (a0 + a1xi))
i
2
i=1
2
uA(y ) H" . (25)
. (33)
U (ya(x))= kpuc(ya(x))
n - 2
p
Stąd oceny wariancji wyników pomiaru są równe:
W przypadku rozkładu normalnego wyników pomiaru wartości
wejściowej oraz wyjściowej wartość współczynnika rozszerzenia
2
równa się odpowiedniemu kwantylowi z rozkładu Studenta:
2
ëÅ‚ 2 öÅ‚
a1 2 2
uA( y )
2 ìÅ‚ ÷Å‚ 2 ,
u2(Åx ) H" uA(y ) 2 . (26) k = t (n - 2) [2].
u2(Åy ) H"
p p
ìÅ‚1+ a12 ÷Å‚ 2
2
2
(1+ a12)
íÅ‚ Å‚Å‚
Wartości współczynników linii regresji pierwotnej (2) można
obliczyć na podstawie odwrotnego podstawiania znalezionych
Po podstawieniu zależności (26) do wzorów (22) oraz (24)
2 2
wartości współczynników a0 oraz a1 do wzorów (6):
otrzymujemy wzory na obliczenie standardowych niepewności
współczynników linii regresji ortogonalnej:
YN 2
2
a0 = YN Å" a0 oraz a1 = Å" a1 . (34)
2 2 X
N
2
2
a1 a12 + Sx2 Sy2
uA(y)
2
uc(a1) = Å" Å" , (27)
2
2
1+ a12
Áx2 y2 Å" Sx2 n
Standardowe niepewności uc (a0 ) oraz uc (a1) tych
współczynników są równe standardowym niepewnościom
oraz
2 2
współczynników a0 (27) oraz a1 (28) przeskalowanym na b1 H" 1,53177, b0 H" -0,3220.
2
odpowiednie wartości YN oraz YN X . Z tego wynika, że 8. Wartości współczynników a0 oraz b0 różnią się o -9,4%, 0
N
standardową niepewność linii regresji ortogonalnej (2) można
2
a1 oraz b1  o -3,3%.
obliczyć na podstawie wzoru:
9. Wartości współczynników pierwotnej linii prostej (33):
YN 2
2
a0 = YN Å" a0 = -17,777; a1 = Å" a1 = 3,960783.
ëÅ‚ öÅ‚
ëÅ‚ öÅ‚÷Å‚
x
X
ìÅ‚ ÷Å‚÷Å‚
uc(ya(x))= YN Å"ucìÅ‚ yaìÅ‚ ÷Å‚ =
N
ìÅ‚
X
íÅ‚ N Å‚Å‚ 2
íÅ‚ Å‚Å‚
2
10. Ekwiwalentna standardowa niepewność uA( y ) (25):
(35)
2
2 2
n
2
a12 + Sx2 Sy2 ëÅ‚ - x
öÅ‚
YNuA( ya ) x
2
2 2 2
2 2 ìÅ‚ ÷Å‚ 2 - (a0 + a1xi ))
= 1+ a14 + a12 .
"(yi
2 2
÷Å‚
2 Áx2 y2 Sx2 ìÅ‚ X
(1+ a12) n i=1
N
íÅ‚ Å‚Å‚
2
uA ( y ) H" H" 0,031855 .
n - 2
11. Standardowa niepewność linii regresji (31):
5. Przykład
2
uc(ya(x))= 0,3539 Å" 1 + 0,3616 Å"(x -12,769) ,
Dla zadanych n =12 par wyników pomiaru:
(rys.2 linia punktowa).
wartości wejściowej EV=: 10,072; 10,556; 11,099; 11,522; 11,953;
3
12,568; 12,975; 13,535; 13,902; 14,455; 15,018; 15,568;
oraz wartości wyjściowej CV=: 24,304; 24,424; 25,736;26,020;
U0,95(ya(x;b1))
30,020; 33,208; 34,172; 34,884; 36,260; 37,164; 40,860; 46,504
1,5
należy wyznaczyć parametry ortogonalnej regresji liniowej i U0,95(ya(x)) uc(ya(x))
obliczyć ich niepewności a także otrzymane wyniki porównać z
wynikami dla zwykłej regresji liniowej.
0
-uc(ya(x))
Pomiary wartości wielkości wejściowej dokonano na zakresie
-U0,95(ya(x))
pierwszego miernika X = 20 , 0 wielkości wyjściowej na
k
-U0,95(ya(x;b1))
1,5
zakresie pomiarowym drugiego miernika Yk = 50 . Wymiarowość (xi; yi)
x
wielkości wejściowej oraz wyjściowej są różne. Wyniki pomiaru
3 10 11 12 13 14 15 16
nie są skorelowane pomiędzy sobą a ich rozkład
prawdopodobieństwa jest normalnym. Niepewności rozszerzone
należy obliczyć dla poziomu ufności p=0,95. Fig.2. Standard and expanded uncertainties of orthogonal linear regression
Rys.2. Standardowa oraz rozszerzona niepewności ortogonalnej liniowej regresji
RozwiÄ…zanie
12. Niepewność rozszerzona regresji liniowej dla
k0,95 = t0,95(12 -1) = 2,228 :
1. Unormowane wartości wyników pomiaru wg (7):
2
xi =: 0,50360; 0,52780;0,55495; 0,57610; 0,59765; 0,62840;
2
U0,95(ya(x)) = 0,7886 Å" 1 + 0,3618 Å"(x -12,769) ,
0,64875; 0,67675; 0,69510; 0,72275; 0,75090; 0,77840;
(rys.2 linia ciągła).
2
yi =: 0,48608; 0,48848; 0,51472; 0,52040; 0,60040; 0,66416;
13. Niepewność rozszerzona zwykłej regresji liniowej:
0,68344; 0,69768; 0,72520; 0,74328; 0,81720; 0,93008.
2
U0,95(ya(x;b1))= 1,0122Å" 1+ 0,3441Å"(x -12,769) ,
2. Wartości średnie (8):
n n
(rys.2 linia kreskowana).
1 1
2 2 2 2
x = xi =0,638429; y = yi =0,655927.
" "
n n
i=1 i=1
6. Uwagi końcowe
3. Wartości momentów drugiego rzędu (9), (13):
n
1
2
2
Jeżeli podczas pomiaru wielkości wejściowej oraz wyjściowej
2 2
S = (xi - x ) =7,264421·10-3;
2
x "
n
występują jednocześnie zródła niepewności to dla uzyskania
i=1
n poprawnych wyników aproksymacji należy wykorzystać metodę
1
2
2
2 2
S = (yi - y ) =17,870245·10-3; regresji ortogonalnej.
2
y "
n
i=1
Zaprezentowane zależności pozwalają na podstawie wyników
n
pomiaru wielkości wejściowej oraz wyjściowej obliczyć najlepsze
1
2 2 2 2
Rx2 y2 = (xi - x )(yi - y )=11,127424·10-3.
" (względem minimalizacji sumarycznego wpływu niepewności
n
i=1
wyników pomiaru obydwu wielkości) wartości współczynników
4. Wartość współczynnika korelacji z (13):
linii regresji ortogonalnej oraz ich niepewności a także
Rx2 y2 niepewności przewidywanych wartości funkcji.
Áx2 y2 = 0,976627.
Sx2 Å" Sy2
7. Literatura
5. Wartość parametru
Sx2 y2 = Sx2 Sy2 - Sy2 Sx2 = -0,930848.
[1] Mańczak K. Technika planowania eksperymentu. Warszawa:
6. Wartość współczynnika (14):
2
a1
WNT 1976.
2Áx2 y2
[2] Guide of the Expression of Uncertainty In Measurement.
2 1,5843.
a1 = =
International Organisation for Standardisation. Switzerland,
2 2
Sx2 y2 + Sx2 y2 + 4Áx2 y2
1993, 1995.
[3] Kramer H. Mathematical Methods of Statistics. Stockholm,
2
7. Wartość współczynnika a0 (15):
1946.
2 2 2 2
a0 = y - a1 x = -0,355545.
__________________________________________________
Artykuł recenzowany
6. Wartości współczynników zwykłej regresji liniowej (16):


Wyszukiwarka

Podobne podstrony:
sokolski,statystyka inżynierska,regresja liniowa
L4 regresja liniowa klucz
Analiza regresji liniowej
Temat 4 I Klasyczny model regresji liniowej
2 Model regresji liniowej
Regresja liniowa
Regresja liniowa
L4 regresja liniowa (2)
Regresja liniowa
3 Istotność parametrów modelu regresji liniowej
3 Zastosowanie regresji liniowej do obliczania szybkości reakcji chemicznych
Regresja liniowa
Temat 5 I Weryfikacja modelu regresji liniowej
Regresja liniowa 7
Wzory regresji liniowej

więcej podobnych podstron