mierzenia, nie jest uprzywilejowana, czyli jest jednakowo prawdopodobna, a zaokrąglanie takich liczb wykonujemy wg reguł, które zapewniają „symetrię odchyleń”, czyli błąd zaokrąglenia nie może przekroczyć granic ±0.5 jednostki na pozycji zaokrąglonej i powinien mieć rozkład jednostajny. Gdy działają czynniki, które równocześnie wywołują błędy o rozkładzie normalnym, a równocześnie występuje zaokrąglanie (kwantowanie) i błędy zaokrąglenia są tego samego rzędu, to wypadkowy rozkład (rozkład kompozycji) tych rozkładów modeluje się - jak już sygnalizowaliśmy - dość dokładnie za pomocą rozkładu normalnego, o wariancji równej sumie wariancji obu zmiennych (tj. sumie kwadratów odchyleń standardowych).
Całka z funkcji (1.8) w granicach od v-a do v+er wyraża prawdopodobieństwo p||/— G<,xśv+o }= 0.6827, że wartość x znajdzie się w wymienionym przedziale z
prawdopodobieństwem 0.6827. Podobnie można wyznaczyć prawdopodobieństwo dla przedziału v±2a, wynoszące 0.9545, oraz dla przedziału v±3ct, wynoszące 0.9973. Zostały więc wyznaczone graniczne wartości x, takie że przekroczenie wskazanych granic przez losowe odchylenia wartości x od wartości oczekiwanej v są mało prawdopodobne. Na przykład w ostatnim przypadku wynosi: 1-0.9973 = 0.0027.
Rozwiązując nierówność v-kcr<.x< v + ker ze względu na v, w której k jest dowolnym współczynnikiem, otrzymamy:
albo w postaci zapisu przyjętego w miernictwie:
Nierówność (1.9) odczytujemy inaczej niż nierówność wyjściową, z której tę ostatnią otrzymaliśmy przez przekształcenie, bo v nie jest zmienną losową, lecz jest stałą natomiast losowe jest x Losowe jest z tego powodu położenie przedziału. Tę nierówność czytamy mianowicie: nieznana i stała wartość oczekiwana v znajduje się w przedziale x ± ker, symetrycznie położonym wokół losowego x Wartość k zależy od wybranego prawdopodobieństwa. W tym zastosowaniu zamiast słowa „prawdopodobieństwo” stosuje się nazwę „poziom ufności”, a otrzymany przedział nazywa się przedziałem ufności, w tym przypadku przedział ufności dla v. Podkreślmy, że v nie zmienia się, jest konkretne, lecz jest nieznane, a o jego wartości możemy powiedzieć tylko tyle, że gdy zrealizowało się jakieś losowe x, to przy danym poziomie ufności nieznane yjest nie mniejsze niż vml„ i me większe niż iw (rys. 1.2). Taki przedział w miernictwie jest interpretowany jako przedziałowa ocena niepewności nieznanego v ocenionego na podstawie otrzymanego losowego x Taki
przykład możliwej wartości v
- - ■ ■ . _Łj_i_X*
Vmu= X VmI=
= v-ka -y+ko
Rys. 1.2. Nieznane v zawiera się w przedziale (v„ .y^)
przedział (ufności) nazywany jest niepewnością graniczną przy poziomie ufności obranym do wyznaczenia k Dla niepewności przedziałowej wprowadziliśmy symbol 6. Można by też połączyć nazwy i powiedzieć o takim przedziale: niepewność przedziałowa graniczna Graniczność oznacza tu tylko tyle, Ze zadowala nas wybrany poziom ufności, przy którym wyznaczono wartość k, a pośrednio wielkość przedziału ufności Z wybranej wielkości k wynika też odpowiednie prawdopodobieństwo, że faktyczne odchylenie nie przekroczy granic przedziału ufności.
Gdy możemy powtórzyć doświadczenie pomiarowe, czyli zrealizować wielokrotnie ten sam podstawowy układ warunków i gdy zjawiska składające się na układ warunków są takie, że wywołują losowy rozrzut wyników, to otrzymujemy większą liczbę wartości zmiennej losowej, np. n wartości. Przy takim założeniu wyniki należą do zbioru zdarzeń o tym samym rozkładzie charakterystycznym dla tego podstawowego układu warunków Przyjmijmy, że jest to rozkład normalny n(x; v,a) (choć może być dowolny). Oznacza to, te otrzymane wartości */, xj, ...xj, ...x„ są rozrzucone losowo wokół tej samej wartości oczekiwanej v, więc jest uzasadnione oczekiwanie, że średnia z otrzymanych wyników (I 10), też losowa wartość (jako wynik dodawania liczb losowych), będzie przeciętnie bliższa wartości
m
oczekiwanej niż każdy z wyników w pojedynkę. „Przeciętnie” oznacza, że realizując takie sene powtórzeń wielokrotnie i licząc średnie z każdej serii otrzymalibyśmy zbiór średnich, których wartości byłyby bardziej skupione wokół v niż pierwotne wyniki surowe x,, z których średnie powstawały. Okazuje się (co nie byłoby trudne do policzenia), że nowa zmienna losowa X (zmienna losowa utworzona jako średnia arytmetyczna z innych zmiennych) ma rozkład gęstości prawdopodobieństwa n(x; V,a/j-m ), czyli jest zmienną losową o takiej samej wartości oczekiwanej v i też (dokładnie!) o rozkładzie normalnym, ale o odchyleniu
standardowym -Jn razy mniejszym. W wyniku zastosowania tego rozumowania otrzymujemy jeszcze coś więcej, bo okazuje się, że ta nowa zmienna losowa (czyli średnia) ma rozkład gęstości prawdopodobieństwa w granicy normalny1 nawet wówczas, gdy składniki tej średniej mają dowolny rozkład, ale średnia liczona jest z dużej liczby zmiennych losowych. Duża liczebność n składników, z których ma się zrealizować średnia, żeby jej rozkład dość dokładnie byl modelowany rozkładem normalnym, może wynosić np. trzy albo pięć, a dla każdej większej liczby rozkład normalny będzie jeszcze dokładniejszym modelem. Wynika z tego oczywisty wniosek, że gdy wartości x, mają rozkład normalny, to rozkład średniej jest bezwarunkowo normalny (nawet dla średniej z dwu wartości). Ten fakt jest (między innymi) powodem tego, że prawie automatycznie korzystamy z rozkładu normalnego.
Z powyższych rozważań wynika, że jest przeciętnie dokładniejsze i tym samym bardziej praktyczne - tam gdzie jest to możliwe - przedział ufności (1.9) zbudować wokół wartości średniej X z serii x, wyników, niż wokół pojedynczego wyniku x,. Wówczas bowiem przedział ufności (1.9) przyjmie postać (1.11), a to oznacza, że wynik pomiaru jest
dokładniejszy, bo przedział ufności jest -Jn razy mniejszy, a więc niepewność oceny v za pomocą X jest lepsza
v-x±k-Zr (1.11)
39
Już było powiedziane, te rozkład normalny jest granicznym rozkładem kompozycji dowolnych rozkładów , czyli rozkładem sumy zmiennych losowych.