Tablica 1.3
Krytyczne wartości %2
(X |
0,80 |
0,90 |
0,95 |
0,98 |
0,99 |
0,995 |
0,998 |
0,999 |
4 |
5,55 |
7,78 |
9,49 |
11,67 |
13,28 |
14,9 |
16,9 |
18,5 |
5 |
7.2 9 |
9,24 |
11,07 |
13,39 |
15,09 |
16,3 |
18,9 |
20,5 |
6 |
8,56 |
10,64 |
12,59 |
15,03 |
16,80 |
18,6 |
20,7 |
22.5 |
7 |
9,80 |
12,02 |
14,07 |
16,6 |
18,5 |
20,3 |
22,6 |
24.3 |
8 |
11,03 |
13,36 |
15,51 |
18,2 |
20,1 |
21,9 |
243 |
26,1 |
9 |
12,24 |
14,68 |
16,9 |
19,7 |
21,7 |
23,6 |
26,1 |
27,9 |
10 |
13,44 |
15,99 |
18,3 |
21,2 |
23,2 |
25,2 |
27,7 |
29,6 |
11 |
14,63 |
173 |
19,7 |
22,6 |
24,7 |
26,8 |
29.4 |
31,3 |
12 |
15,8 |
18,5 |
21.0 |
24,1 |
26,2 |
28.3 |
31,0 |
32,9 |
13 |
17,0 |
19,8 |
22.4 |
25,5 |
27,7 |
29,9 |
32,5 |
34.5 |
14 |
18,2 |
21,1 |
23,7 |
26,9 |
29,1 |
31,3 |
34,0 |
36,1 |
13 |
19,3 |
22,3 |
25,0 |
28,3 |
30,6 |
32,7 |
35,6 |
37,7 |
16 |
20,5 |
23.5 |
263 |
29,6 |
32,0 |
34.2 |
37,1 |
393 |
17 |
21,6 |
24,8 |
27,6 |
31,0 |
33,4 |
35.7 |
38,6 |
40,8 |
18 |
22,8 |
26,0 |
28,9 |
32,3 |
34,8 |
m |
40,1 |
42,3 |
19 |
23,9 |
27,2 |
30,1 |
33,7 |
36,2 |
38,6 |
41,6 |
43,8 |
20 |
25.0 |
28,4 |
31,4 |
35,0 |
37,6 |
40,0 |
43,1 |
45.3 |
22 |
27.3 |
30,8 |
33,9 |
37,7 |
40,3 |
42,7 |
45,9 |
48,3 |
24 |
29,6 |
33,2 |
36,4 |
40,3 |
43,0 |
45.5 |
48,7 |
51,2 |
26 |
31,8 |
35,6 |
38,9 |
42,9 |
45,6 |
48,2 |
51.5 |
54,1 |
28 |
34,0 |
37,9 |
41,3 |
45,4 |
48,3 |
51.0 |
54,3 |
56,9 |
30 |
36,3 |
403 |
43,8 |
48,0 |
50,9 |
53,7 |
57,1 |
59,7 |
W przypadku gdy hipoteza o normalnym rozkładzie jest odrzucona przez test X2 lub metody przybliżone, niekiedy udaje się znaleźć takie przekształcenie wyników pomiarów xt, że uzyskane wielkości y( = /(*,) podlegają rozkładowi normalnemu. W tym przypadku podane wyżej oceny można zastosować w odniesieniu do przekształconych wielkości yr a następnie przeliczyć je dla wielkości x.. Na przykład często rozkładowi normalnemu podlegają nie same wyniki pomiaru, ale ich logarytmy. Przypadek taki zachodzi wtedy, gdy czynniki zniekształcające wynik pomiaru wywołują efekt proporcjonalny do wyniku pomiaru (tj. gdy stałymi okazują się średnie względne błędy pomiaru). Wtedy mówi się, że wynik pomiaru x podlega rozkładowi logarytmiczno-normalnemu.
Metoda najmniejszych kwadratów jest jedną z najstarszych i najczęściej stosowanych metod statystyki matematycznej [17]. W najprostszy sposób istotę tej metody można przedstawić następująco.
Niech będzie dana funkcja y = F(x), która w kolejnych punktach x0, xv x2, .... xm przybiera wartości y0, yv y2,-,ym- Chcemy znaleźć takie przybliżenie tej funkcji wielomianem (co najwyżej stopnia n<m)
/(*) = b0 + bix + b2%1 + + (1-22)
aby błąd średni M aproksymacji osiągnął minimum, tj. aby funkcja
<b [b0, bv bn) = [y0 - (b0 + b{xQ + b2% +... + b„xf)f +
+ |k - {bo + Vi + b2xi * - + Mi")f +
= (m + l)Af2
osiągała minimum. Należy podkreślić, że przy takim postawieniu zagadnienia minimalizuje się tylko błąd średni M, z jakim wartości wielomianu /(*)
w punktach x0, x2.....xm przybliżają wartości y0, y,, y2.....ym do funkcji
F(x). W metodzie tej jest poszukiwane minimum funkcji <D(ó0, b{, ...,ój i dlatego musi być spełniona zależność
(1.24)
— - - m _ o
dbQ dbx dbn
Otrzymuje się stąd n +1 równali liniowych i tyle samo niewiadomych bQ, br...,bH. Dokładność przybliżenia tej funkcji ocenia się przez podanie błędu średniego M aproksymacji, który jest wyznaczany ze wzoru (1.23)
M2 - —5— *(*-„.*......ij. (1.25)
n + 1
Metoda najmniejszych kwadratów pozwala znajdować aproksymacje funkcji, w przypadku gdy n<m. Natomiast gdy n = m, umożliwia ona otrzymanie wielomianu interpolacyjnego, ale w sposób bardziej złożony niż przy zastosowaniu bezpośredniej metody interpolacyjnej.
W celu zbadania zależności między pewnymi wielkościami x i y należy posłużyć się pojęciami regresji i korelacji. Oba te pojęcia dotyczą zależności między tymi zmiennymi, przy czym korelacja zajmuje się ustaleniem, jak silna jest ta zależność, a regresja — charakterem funkcji. Po przyporządkowaniu