B.Kamys; Notatki do wykładu SMOP-I 2007/08
1
Statystyczne Metody Opracowania
Pomiarów I
B. Kamys; Instytut Fizyki UJ
Spis treści
Elementy teorii prawdopodobieństwa
2
. . . . . . . . . . . . . . . . . . . . . . . . . . .
2
. . . . . . . . . . . . . . . . . . . . . . . . . .
3
Podstawowe pojęcia teorii estymacji
5
Ilościowy opis zmiennych losowych
7
9
Charakterystyki rozkładu prawdopodobieństwa
11
15
Podstawy rachunku niepewności pomiarowych
17
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
Estymator wartości oczekiwanej
. . . . . . . . . . . . . . . . . . . . . . . . . .
22
Estymator odchylenia standardowego
. . . . . . . . . . . . . . . . . . . . . . .
23
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
Rozkład liczby pozytywnie zakończonych doświadczeń
. . . . . . . . . . . . . .
26
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
Estymator E(Y) dla pomiaru pośredniego Y
. . . . . . . . . . . . . . . .
29
Niepewność pomiaru pośredniego
. . . . . . . . . . . . . . . . . . . . .
29
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
31
33
B.Kamys; Notatki do wykładu SMOP-I 2007/08
2
1
ELEMENTY TEORII PRAWDOPODOBIEŃSTWA
1.1
DEFINICJE PODSTAWOWYCH POJĘĆ
DEFINICJA: Zbiór zdarzeń elementarnych - zbiór takich zdarzeń, które si¸
e wzajemnie wyk-
luczaj¸
a oraz wyczerpuj¸
a wszystkie możliwości (tzn. w każdym możliwym przypadku przy-
najmniej jedno z nich musi zachodzić).
DEFINICJA: Zdarzeniem jest dowolny podzbiór zdarzeń elementarnych E.
DEFINICJA: Zdarzeniem pewnym jest zdarzenie zawieraj¸
ace wszystkie elementy zbioru E (za-
chodzi zawsze).
DEFINICJA: Zdarzeniem niemożliwym jest zdarzenie nie zawieraj¸
ace żadnego elementu zbioru
E tj. zbiór pusty Ø.
DEFINICJA: Zdarzenie A zawiera si¸
e w zdarzeniu B jeżeli każde zdarzenie elementarne należ¸
ace
do zbioru A należy do B: ’A ⊂ B’
DEFINICJA: Zdarzenia A i B s¸
a równe
gdy A ⊂ B i B ⊂ A.
DEFINICJA: Suma zdarzeń A+B
to zdarzenie zawieraj¸
ace te i tylko te zdarzenia elementarne, które należ¸
a do któregokolwiek
ze zdarzeń A, B,... (suma logiczna zbiorów zdarzeń elementarnych ’A
S
B
S
..’).
DEFINICJA: Różnica zdarzeń A-B
to zdarzenie zawieraj¸
ace te i tylko te zdarzenia elementarne, które należ¸
a do zdarzenia A a
nie należ¸
a do zdarzenia B.
DEFINICJA: Iloczyn zdarzeń A.B
to zdarzenie zawieraj¸
ace te i tylko te zdarzenia elementarne, które należ¸
a do wszystkich
zdarzeń A, B (tzn. w j¸
ezyku zbiorów ’A
T
B’).
DEFINICJA: Zdarzeniem przeciwnym do A: A nazywamy różnic¸
e ’E-A’
DEFINICJA: Zdarzeniem losowym - nazywamy zdarzenie spełniaj¸
ace poniższe warunki:
1. W zbiorze zdarzeń losowych znajduje si¸
e zdarzenie pewne oraz zdarzenie niemożliwe.
2. Jeżeli zdarzenia A
1
, A
2
,... w ilości skończonej lub przeliczalnej s¸
a zdarzeniami losowymi
to ich iloczyn i ich suma s¸
a również zdarzeniami losowymi.
3. Jeżeli A
1
i A
2
s¸
a zdarzeniami losowymi to ich różnica jest również zdarzeniem losowym.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
3
INTUICYJNE OKREŚLENIE: Zdarzenie losowe to takie, o którym nie możemy powiedzieć
czy zajdzie w danych warunkach czy też nie zajdzie.
DEFINICJA: Zmienn¸
a losow¸
a nazywamy jednoznaczn¸
a funkcj¸
e rzeczywist¸
a X(e) określon¸
a
na zbiorze E zdarzeń elementarnych tak¸
a, że każdemu przedziałowi wartości funkcji X
odpowiada zdarzenie losowe.
DEFINICJA: Zmienna losowa typu skokowego (dyskretnego)
to taka, która przyjmuje
tylko co najwyżej przeliczalny zbiór wartości. Zmienna losowa typu ci¸
agłego - może przyj-
mować dowolne wartości od minus do plus nieskończoności.
DEFINICJA: Definicja prawdopodobieństwa
Aksjomat 1:
Każdemu zdarzeniu losowemu przyporz¸
adkowana jest jednoznacznie nieu-
jemna liczba rzeczywista zwana prawdopodobieństwem.
Aksjomat 2:
Prawdopodobieństwo zdarzenia pewnego jest równe jedności.
Aksjomat 3:
Jeżeli zdarzenie losowe Z jest sum¸
a skończonej lub przeliczalnej liczby rozł¸
acznych
zdarzeń losowych Z
1
,Z
2
,.. to prawdopodobieństwo zrealizowania si¸
e zdarzenia Z jest
równe sumie prawdopodobieństw zdarzeń Z
1
,Z
2
, ..
Aksjomat 4: Prawdopodobieństwo warunkowe zdarzenia A pod warunkiem, że zachodzi
zdarzenie B; ’P(A|B)’ wyraża si¸
e wzorem:
P(A|B) =
P (A.B)
P (B)
Prawdopodobieństwo to jest nieokreślone, gdy prawdopodobieństwo zdarzenia B wynosi
zero.
1.2
WŁASNOŚCI PRAWDOPODOBIEŃSTWA
1.) Zdarzenie przeciwne do A :
P(A) = 1 - P(A)
Dowód:
A+
A = E a wi¸
ec P(A+A) = P(E) = 1,
z drugiej strony A i A wykluczaj¸
a si¸
e wi¸
ec
P(A+A) = P(A) + P(A).
St¸
ad P(A) = P( E) - P(A) czyli P(A) = 1 - P(A) c.b.d.o.
2.) Zdarzenie niemożliwe :
P(Ø) = 0
B.Kamys; Notatki do wykładu SMOP-I 2007/08
4
Dowód:
E i Ø wykluczaj¸
a si¸
e wi¸
ec P(E+Ø)=P(E)+P(Ø) oraz E+Ø=E a wi¸
ec P(E+Ø)=P(E), czyli
P(Ø) = 0
c.b.d.o.
3.) Zdarzenie A zawiera si¸
e w B :
P(A) ≤ P(B)
Dowód: P(B) = P(A+(A.B)) = P(A)+P(A.B) ≥ P(A) c.b.d.o.
4.) Dowolne zdarzenie losowe :
0 ≤ P(A) ≤ 1
Dowód: Dla każdego zdarzenia jest prawdziwe:
Ø ⊂ A+Ø = A = A.E ⊂ E
a wi¸
ec prawdopodobieństwa zdarzeń Ø,A i E spełniaj¸
a:
0 ≤ P(A) ≤ 1 c.b.d.o.
5.) Suma dowolnych zdarzeń A+B :
P(A+B) = P(A) + P(B) - P(A.B)
Dowód:
Zarówno A+B jak i B możemy zapisać jako sumy rozł¸
acznych (wykluczaj¸
acych si¸
e) zdarzeń:
A + B
=
A + (B − A.B)
oraz
B
=
A.B + (B − A.B),
stosujemy aksjomat nr 3 definicji prawdopodobieństwa,
P (A + B)
=
P (A) + P (B − A.B),
P (B)
=
P (A.B) + P (B − A.B)
odejmujemy stronami: P(A+B) = P(A) + P(B) - P(A.B) c.b.d.o.
6.) Iloczyn zdarzeń A.B :
P(A.B) = P(B).P(A|B) = P(A).P(B|A)
Dowód:
Wynika to automatycznie z 4 aksjomatu definicji prawdopodobieństwa.
DEFINICJA: Zdarzenie A jest niezależne od B gdy P(A|B) = P(A).
B.Kamys; Notatki do wykładu SMOP-I 2007/08
5
7.) Jeżeli A nie zależy od B to B nie zależy od A.
Dowód:
Korzystamy z dwu wzorów na prawdopodobieństwo A.B podanych wyżej, przy czym w pier-
wszym z nich uwzgl¸
edniamy, że A jest niezależne od B. Wówczas z porównania obu wzorów
dostajemy P(B|A) = P(B).
c.b.d.o.
8.) WKW niezależnosci: P(A.B) = P(A).P(B)
Dowód:
Wynika to automatycznie ze wzoru na prawdopodobieństwo iloczynu zdarzeń.
c.b.d.o
9.) Formuła ’całkowitego prawdopodobieństwa’: Jeżeli istnieje zbiór zdarzeń A
1
, A
2
... wykluczaj¸
acych si¸
e wzajemnie i wyczerpuj¸
acych wszystkie możliwości wówczas praw-
dopodobieństwo dowolnego zdarzenia B może być zapisane nast¸
epuj¸
aco:
P(B) =
P
i
P (A
i
).P (B | A
i
)
Dowód:
B =
P
i
B.A
i
(suma rozł¸
acznych zdarzeń) a wiec P(B) =
P
i
P(B.A
i
) a każdy składnik można
zapisać jako P(A
i
).P(B|A
i
). c.b.d.o.
2
PODSTAWOWE POJĘCIA TEORII ESTYMACJI
DEFINICJA: W statystyce skończony zespół doświadczeń nazywamy prób¸
a a wnioskowanie
na podstawie próby o własnościach nieskończonego (zwykle) zespołu wszystkich możliwych
doświadczeń zwanego populacj¸
a generaln¸
a , nazywamy estymacj¸
a .
DEFINICJA: Przez prób¸
e prost¸
a rozumiemy ci¸
ag niezależnych doświadczeń odnosz¸
acych
si¸
e do tej samej populacji generalnej.
DEFINICJA: Statystyk¸
a nazywamy tak¸
a funkcj¸
e zmiennych losowych obserwowanych w
próbie, która sama jest zmienn¸
a losow¸
a.
DEFINICJA: Estymatorem T
n
(x
1
, x
2
, ..x
n
; θ) parametru θ lub w skrócie T
n
(θ) nazy-
wamy statystyk¸
e o rozkładzie prawdopodobieństwa zależnym od θ. Tu x
1
, x
2
, .. oznaczaj¸
a
wyniki pomiarów próby a przez rozkład prawdopodobieństwa rozumiemy przyporz¸
adkowanie
prawdopodobieństw różnym wartościom statystyki T
n
.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
6
DEFINICJA: Estymacja punktowa to taka estymacja, która polega na oszacowaniu wartości
danego parametru θ przez wartość jego estymatora.
DEFINICJA: Estymacja przedziałowa polega na szukaniu przedziału liczbowego, wewn¸
atrz
którego z założonym prawdopodobieństwem leży prawdziwa wartość parametru.
DEFINICJA: Estymator T
n
(θ), jest zgodny
jeżeli dla każdego > 0 jest spełniony
warunek:
lim
n→∞
P (| T
n
(θ) − θ |< ) = 1
W takim przypadku używa si¸
e cz¸
esto określenia, że estymator spełnia prawo wielkich liczb .
PRZYKŁAD: TWIERDZENIE (Bernoulli): Wzgl¸
edna cz¸
estość pojawiania si¸
e zdarzenia
’A’ w ci¸
agu ’n’ doświadczeń spełnia prawo wielkich liczb czyli jest zgodnym estymatorem
prawdopodobieństwa zdarzenia A: P(A).
lim
n→∞
P( | n
A
/n - P(A) |< ) = 1
DEFINICJA:
Estymator spełniaj¸
acy mocne prawo wielkich liczb to taki, który jest zbieżny do estymowanego
parametru z prawdopodobieństwem równym jedności.
P( lim
n→∞
T
n
(θ) = θ ) = 1
PRZYKŁAD:
TWIERDZENIE: F.P.Cantelli udowodnił w 1917 roku, że wzgl¸
edna cz¸
estość pozyty-
wnego zakończenia doświadczenia; n
A
/n jest zbieżna do prawdopodobieństwa zdarzenia A;
P(A) z prawdopodobieństwem równym jedności:
P( lim
n→∞
(n
A
/n) = P(A) ) = 1
czyli wzgl¸
edna cz¸
estość spełnia mocne prawo wielkich liczb.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
7
3
ILOŚCIOWY OPIS ZMIENNYCH LOSOWYCH
Ilościowy opis zmiennych losowych uzyskujemy stosuj¸
ac
• Dystrybuant¸e (Zwan¸a cz¸esto przez statystyków funkcj¸
a rozkładu)
• Rozkład prawdopodobieństwa (Tylko dla zmiennych dyskretnych)
• Funkcj¸e g¸estości prawdopodobieństwa (Tylko dla zmiennych ci¸agłych) oraz wielkości
charakteryzuj¸
ace te powyżej wymienione twory.
DEFINICJA: Dystrybuant¸
a F(x) nazywamy prawdopodobieństwo tego, że zmienna losowa
X przyjmie wartość mniejsz¸
a od x. (’X’ - to symbol zmiennej losowej a ’x’ to jej konkretna
wartość). Oczywiście dystrybuanta jest funkcj¸
a x.
F(x) ≡ P( X < x )
Własności dystrybuanty:
1. 0 ≤ F(x) ≤ 1
2. F(-∞) = 0
3. F(+∞) = 1
4. F(x) jest niemalej¸
ac¸
a funkcj¸
a
5. F(x) nie posiada wymiaru
Przykład:
Dla rzutu kostk¸
a do gry, gdzie jako zmienn¸
a losow¸
a przyj¸
eto liczb¸
e wyrzuconych punktów:
F (x)
=
0 dla x ≤ 1,
=
1/6 dla 1 < x ≤ 2,
=
2/6 dla 2 < x ≤ 3,
=
3/6 dla 3 < x ≤ 4,
=
4/6 dla 4 < x ≤ 5,
=
5/6 dla 5 < x ≤ 6,
=
1 dla x > 6
B.Kamys; Notatki do wykładu SMOP-I 2007/08
8
DEFINICJA: Rozkład prawdopodobieństwa : Jeżeli x
i
(i=1,2,...) s¸
a wartościami dyskret-
nej zmiennej losowej to rozkładem prawdopodobieństwa nazywamy zespół prawdopodo-
bieństw:
P(X=x
i
) = p
i
,
P
i
p
i
= 1
Przykład:
Rozkład prawdopodobieństwa dla rzutu kostk¸
a do gry omawianego powyżej: p
i
= 1/6 dla
i = 1,2 .. 6.
DEFINICJA:
Funkcja g¸
estości prawdopodobieństwa f(x)
f(x)dx ≡ P(x ≤ X < x+dx)
Własności funkcji gęstości prawdopodobieństwa:
1. f(x) ≥ 0,
2. f(x) jest unormowana tj.
R
+∞
−∞
f (x)dx = 1
3.
f(x)=
dF (x)
dx
4.
Wymiar f(x) = wymiar (1/x)
Przykład:
Rozkład jednorodny w przedziale [a,b]:
f (x) =
0
dla x < a
=
1/(b − a)
dla a ≤ x ≤ b
=
0
dla b < x
B.Kamys; Notatki do wykładu SMOP-I 2007/08
9
4
FUNKCJE ZMIENNEJ LOSOWEJ
Funkcja Y zmiennej losowej X: Y = Y(X) jest również zmienn¸
a losow¸
a. Dlatego też można
dla niej określić dystrybuant¸
e, rozkład prawdopodobieństwa lub funkcj¸
e g¸
estości praw-
dopodobieństwa. S¸
a one prosto zwi¸
azane z odpowiednimi wielkościami dla zmiennej X.
Należy rozpatrzyć niezależnie przypadek, gdy funkcja Y(X) jest monotoniczna oraz gdy nie
posiada tej własnosci.
a) Funkcja Y = Y(X) jest monotoniczna.
Można wówczas jednoznacznie określić funkcj¸
e odwrotn¸
a X=X(Y).
1. Dystrybuanta funkcji Y(X): G(y)
Y(X) jest rosn¸
aca :
G(y) = F(x(y))
Y(X) jest malej¸
aca :
G(y) = 1 - F(x(y)) - P(x;y=y(x)
Dowód: Wychodz¸
ac z definicji dla Y(X) rosn¸
acej:
G(y)
=
P (Y < y)
=
P (X(Y ) < x)
=
F (x(y))
dla Y(X) malej¸
acej:
G(y)
=
P (Y < y)
=
P (X(Y ) > x)
=
1 − P (X(Y ) ≤ x)
=
1 − P (X(Y ) < x) − P (X(Y ) = x)
=
1 − F (x(y)) − P (x; Y = y(x)) c.b.d.o.
2. Rozkład prawdopodobieństwa P(y):
P(y
i
) = P(x
i
;y
i
=Y(x
i
))
B.Kamys; Notatki do wykładu SMOP-I 2007/08
10
3. Funkcja g¸
estości prawdopodobieństwa g(y):
g(y) = f(x(y)) |
dx(y)
dy
|
gdzie X(Y) jest funkcj¸
a odwrotn¸
a do Y(X).
Z definicji: f(x) dx = P(x ≤ X < x+dx) a to prawdopodobieństwo przy jednoznacznym
zwi¸
azku mi¸
edzy X i Y wynosi P(y ≤ Y < y+dy)=g(y) dy.
Znak modułu przy pochodnej pojawia si¸
e st¸
ad, że przy malej¸
acej funkcji Y(X) pochodna
b¸
edzie ujemna co powodowałoby, że g(y) byłaby ujemna a zgodnie z definicj¸
a musi być
nieujemna.
Przykład dla funkcji monotonicznej:
Y(X) = a X + b; a i b to rzeczywiste stałe
1. Rozkład prawdopodobieństwa:
P(Y=y
i
) = P(a x
i
+ b =y
i
) = P(x
i
=
y
i
−b
a
)
2. Dystrybuanta:
dla a > 0, G(y) = F(x =
y−b
a
),
dla a < 0, G(y)=1 - F(x=
y−b
a
) - P(x=
y−b
a
)
3. G¸
estość prawdopodobieństwa:
g(y)=
1
|a|
f(x=
y−b
a
)
b.) Funkcja Y(X) nie jest monotoniczna .
Wówczas dzielimy obszar zmienności X na przedziały, w których Y(X) jest monoton-
iczna i powtarzamy powyższe rozważania sumuj¸
ac przyczynki od rozł¸
acznych przedzi-
ałów.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
11
Przykład dla funkcji niemonotonicznej:
Y(X)=X
2
1. Rozkład prawdopodobieństwa:
P(y
i
) = P(X
2
=y
i
) = P(X=-
√
y
i
)+P(X=+
√
y
i
)
2. Dystrybuanta:
G(y) = P(Y <y) = P(X
2
< y) =
P(-
√
y < X < +
√
y)
G(y)
=
0 dla y ≤ 0
G(y)
=
F (
√
y) − F (−
√
y) dla y ≥ 0
3. Rozkład g¸
estości prawdopodobieństwa:
g(y)
=
0 dla y < 0
g(y)
=
|
−1
2
√
y
| f (
√
y) +
1
2
√
y
f (−
√
y)
=
1
2
√
y
(f (
√
y) + f (−
√
y)) dla y ≥ 0
5
CHARAKTERYSTYKI ROZKŁADU PRAWDOPODOBIEŃSTWA
W praktycznych zastosowaniach cz¸
esto wystarcza poznanie wartości pewnych wielkości, które
charakteryzuj¸
a rozkład prawdopodobieństwa zamiast pełnej informacji o rozkładzie.
Oto najczęściej stosowane:
DEFINICJA: fraktyl x
q
(zwany również kwantylem) jest to wartość zmiennej losowej, dla
której dystrybuanta przyjmuje wartość ’q’.
F(x
q
) = q
Najważniejsze fraktyle to dolny kwartyl: x
0.25
, górny kwartyl: x
0.75
oraz mediana: x
0.5
.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
12
DEFINICJA: Moda (zwana również wartości¸
a modaln¸
a jest to taka wartość zmiennej losowej,
dla której rozkład prawdopodobieństwa (lub funkcja g¸
estości prawdopodobieństwa) przyjmuje
maksimum.
DEFINICJA: Rozkłady prawdopodobieństwa posiadaj¸
ace jedn¸
a mod¸
e zwane s¸
a
jednomodalnymi a te, które maj¸
a wi¸
ecej niż jedn¸
a - wielomodalnymi.
DEFINICJA: Momentem rozkładu rz¸
edu ’k’
wzgl¸
edem punktu x
0
, nazywamy nast¸
epuj¸
ac¸
a wielkość:
m
k
(x
0
) ≡
R
(x - x
0
)
k
f(x) dx
m
k
(x
0
) ≡
P
i
(x
i
-x
0
)
k
p(x
i
)
dla zmiennych ci¸
agłych i dyskretnych odpowiednio.
Najważniejszymi momentami s¸
a te, które liczone s¸
a wzgl¸
edem pocz¸
atku układu współrz¸
ednych
tj. x
0
=0 - (b¸
edziemy je oznaczali przez ’ m
k
’ ) oraz momenty liczone wzgl¸
edem X
0
= m
1
tj.
wzgl¸
edem pierwszego momentu wzgl¸
edem pocz¸
atku układu współrz¸
ednych. Te ostatnie momenty
nazywa si¸
e momentami centralnymi (b¸
edziemy je oznaczać przez ’ µ
k
’).
DEFINICJA: m
1
zwany wartości¸
a oczekiwan¸
a, wartości¸
a średni¸
a lub nadziej¸
a matematyczn¸
a.
B¸
edziemy go oznaczali przez E(X) (stosuje si¸
e również oznaczenie M(X) lub ˆ
X ).
E(X) ≡
P
i
p
i
x
i
dla zmiennych dyskretnych,
E(X) ≡
R
f(x) x dx
dla zmiennych ci¸
agłych
Jeżeli powyższa całka (lub suma) sa bezwzgl¸
ednie zbieżne to mówimy, że istnieje wartość oczeki-
wana. W przeciwnym wypadku (nawet jeżeli całka jest zbieżna) mówimy, że wartość oczekiwana
nie istnieje !
Interpretacja E(X):
E(X) jest współrz¸
edn¸
a punktu, który byłby środkiem masy rozkładu prawdopodobieństwa (lub
pola pod funkcj¸
a g¸
estości prawdopodobieństwa) gdyby prawdopodobieństwa poszczególnych wartości
"x
i
"traktować jako masy (lub odpowiednio gęstość prawdodobieństwa jako zwykł¸
a g¸
estość).
B.Kamys; Notatki do wykładu SMOP-I 2007/08
13
Własności E(X):
E(X) jest operatorem liniowym a wi¸
ec:
1.
E(
P
i
C
i
X
i
) =
P
i
C
i
E(X
i
)
Co w szczególnych przypadkach daje:
(a) E(C)=C
(b) E(CX)=C.E(X)
(c) E(X
1
+ X
2
)=E(X
1
)+E(X
2
)
2. Dla zmiennych niezależnych X
1
, ... , X
n
E(Π
i
X
i
) = Π
i
E(X
i
)
UWAGA: Warunkiem koniecznym i wystarczaj¸
acym by zmienne były niezależne jest aby
wspólny rozkład prawdopodobieństwa faktoryzował si¸
e: f(X
1
,X
2
,..,X
n
) = f
1
(X
1
) . f
2
(X
2
)
... f
3
(X
n
). Rozkłady wielu zmiennych losowych omówimy później.
3. Dla funkcji zmiennej X; Y=Y(X)
wartość oczekiwana E(Y) może być znaleziona przy pomocy rozkładu zmiennej X bez
konieczności szukania rozkładu f(y):
E(Y) =
P
i
y(x
i
) p
i
, E(Y) =
R
y(x) f(x) dx
dla zmiennej dyskretnej i dla zmiennej ci¸
agłej odpowiednio.
Korzystaj¸
ac z tej własności zauważamy natychmiast,
że dowolny moment m
k
(x
0
) może być potraktowany jako wartość oczekiwana
funkcji Y(X)=(X-x
0
)
k
:
m
k
(x
0
) ≡
R
dx f(x) (x-x
0
)
k
= E((x-x
0
)
k
)
DEFINICJA: µ
2
, zwany wariancj¸
a lub dyspersj¸
a
B¸
edziemy go oznaczać przez ’ σ
2
(X) ’ lub ’ var(X) ’ (stosuje si¸
e również oznaczenie ’ D(X) ’).
Pierwiastek z wariancji nazywany jest odchyleniem standardowymi oznaczany ’ σ(X)’ ale czasami
używa si¸
e również nazwy ’ dyspersja ’.
σ
2
(X) ≡
P
i
p
i
(x
i
- E(x))
2
zmienna dyskretna
σ
2
(X) ≡
R
f(x)(x-E(x))
2
dx
zmienna ci¸
agła
B.Kamys; Notatki do wykładu SMOP-I 2007/08
14
Własności wariancji:
1. Wariancja może być wyrażona przez momenty liczone wzgl¸
edem pocz¸
atku układu współrz¸
ednych:
σ
2
(X) = m
2
− m
2
1
σ
2
(X) = E(X
2
) − E
2
(X)
Dowód: Korzystamy z trzeciej własności wartości oczekiwanej tj.
m
2
(E(X))
=
E((X − E(X))
2
)
=
E(X
2
− 2X.E(X) + E
2
(X))
=
E(X
2
) − 2E(X).E(X) + E
2
(X)
=
E(X
2
) − E
2
(X)
c.b.d.o.
Posługujac si¸
e tym przedstawieniem wariancji dostajemy natychmiast nast¸
epuj¸
ace włas-
ności:
(a)
var(C)=0 .
bo E(C
2
)-E
2
(C)=C
2
-C
2
=0 c.b.d.o.
(b)
var(CX)=C
2
var(X)
jest to nast¸
epstwo liniowości E(X), przez któr¸
a definiowaliśmy var(X).
(c)
var(C
1
X+C
2
) = C
2
var(X)
2. Dla zmiennych niezależnych
var(
P
i
C
i
X
i
) =
P
i
C
2
i
var(X)
Wzór ten łatwo wyprowadzić korzystaj¸
ac z 3 własności wartości oczekiwanej:
var(y=
P
i
C
i
X
i
) ≡ E((y − E(Y ))
2
).
Po wstawieniu do wzoru oraz podniesieniu do kwadratu otrzymamy sum¸
e kwadratów wyrażeń
’ C
i
(X
i
- E(X
i
)) ’ oraz iloczyny mieszane tych wyrażeń. Iloczyny mieszane znikn¸
a w chwili gdy
podziała na nie zewn¸
etrzny operator wartości oczekiwanej (ponieważ E(X-E(X))=E(X)-E(X)=0).
Założenie niezależności jest potrzebne przy liczeniu wartości oczekiwanej z iloczynów mieszanych
(wówczas wartość oczekiwana iloczynu równa jest iloczynowi wartości oczekiwanych).
Suma
wartości oczekiwanych z kwadratów wyrażeń ’C
i
(X
i
-E(X
i
))’ jest właśnie oczekiwanym przez nas
wyrażeniem.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
15
Interpretacja wariancji wynika z nierówności Czebyszewa, któr¸
a można zapisać nast¸
epuj¸
aco:
P( | X-E(X) | ≥ a.σ(X)) ≤ a
−2
TWIERDZENIE:
Prawdopodobieństwo odchylenia wartości zmiennej losowej od wartości oczekiwanej E(X) o ’a’
-krotn¸
a wartość odchylenia standardowego jest mniejsze lub równe od
1
a
2
.
Twierdzenie to jest słuszne dla wszystkich rozkładów, które posiadaj¸
a wariancj¸
e (a wi¸
ec, co za tym
idzie i wartość oczekiwan¸
a). Liczba ’ a ’ jest dowoln¸
a dodatni¸
a rzeczywist¸
a liczb¸
a.
Interpretacja wariancji
Korzystaj¸
ac z powyższego twierdzenia dochodzimy do wniosku, że wariancja (lub odchylenie
standardowe) jest miar¸
a rozrzutu zmiennej losowej dokoła wartości oczekiwanej.
Jest to bardzo ważny wniosek bo w analizie danych doświadczalnych utożsamiamy
wartość oczekiwan¸
a pomiarów wykonanych w obecności bł¸edów przypadkowych z
wartości¸
a prawdziw¸
a mierzonej wielkości. Wtedy miar¸
a bł¸
edu przypadkowego
jest odchylenie standardowe bo ono określa rozrzut wyników dokoła wartości prawdzi-
wej.
6
ROZKŁAD NORMALNY (Gaussa)
DEFINICJA:
Ci¸
agła zmienna losowa X, której funkcja g¸
estości prawdopodobieństwa ma nast¸
epuj¸
ac¸
a postać:
f (X) =
1
√
2π B
exp(
−(X−A)
2
2B
2
)
nazywa si¸
e zmienn¸
a o rozkładzie normalnym N(A,B).
Własności rozkładu normalnego f(X) ≡ N(A,B):
Wartość oczekiwana:
E(X) = A
Odchylenie standardowe:
σ(X) = B
B.Kamys; Notatki do wykładu SMOP-I 2007/08
16
St¸
ad łatwo widać, że N(A,B) ≡ N( E(X),σ(X) )
Dystrybuanta rozkładu normalnego nie wyraża si¸
e przez funkcje elementarne.
Warto zapami¸
etać nast¸
epuj¸
ace wartości prawdopodobieństwa znalezienia zmiennej X
w danym przedziale:
P( E(X) - σ(X) ≤ X < E(X) +
σ(X) ) = 0.6827
P( E(X) - 2σ(X) ≤ X < E(X) + 2σ(X) ) = 0.9545
P( E(X) - 3σ(X) ≤ X < E(X) + 3σ(X) ) = 0.9973
Uwaga:
Dowoln¸
a zmienn¸
a Y o rozkładzie normalnym można standaryzować tworz¸
ac wielkość Z o rozkładzie
’standardowym normalnym’ N(0,1):
Z = (Y - E(Y))/σ(Y).
Standaryzacja jest ważna ze wzgl¸
edu na możliwość tablicowania zarówno funkcji g¸
estości praw-
dopodobieństwa, jak i dystrybuanty rozkładu N(0,1) a potem wykorzystania faktu, że maj¸
ac
zmienn¸
a X o rozkładzie N(0,1) możemy stworzyć zmienn¸
a Y o rozkładzie N(A,B) przez prost¸
a
transformacj¸
e: Y = B*X+A .
Co więcej, przez standaryzację sprowadzamy wszystkie wartości oryginalnej zmiennej do obszaru
w pobliżu zera a jednostką jest odchylenie standardowe. Dzięki temu można porównywać rozkłady
wielkości różniące się znacznie położeniem centrum i skalą wartości.
Centralne Twierdzenie Graniczne (Intuicyjne sformułowanie)
Zmienna Z b¸
ed¸
aca standaryzowan¸
a sum¸
a niezależnych zmiennych losowych bedzie miała standar-
dowy rozkład normalny gdy liczba składników w sumie d¸
aży do nieskończoności oraz w sumie nie
wyst¸
epuj¸
a zmienne o wariancjach dominuj¸
acych w stosunku do reszty składników.
Właśnie to twierdzenie powoduje, że rozkład normalny jest wyróżnionym rozkładem
- bardzo często stosowanym w statystyce.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
17
7
PODSTAWY RACHUNKU NIEPEWNOŚCI POMIAROWYCH
Wynik pomiaru bez podania dokładności doświadczenia (niepewności pomiaru)
jest bezwartościowy.
DEFINICJA: Pomiarem bezpośrednim nazywamy doświadczenie, w którym przy po-
mocy odpowiednich przyrz¸
adow mierzymy (porównujemy z jednostk¸
a) interesuj¸
ac¸
a
nas wielkość fizyczn¸
a.
Przykład:
• Pomiar długości przedmiotu przy pomocy linijki
• Pomiar długości odcinka czasu przy pomocy zegara
DEFINICJA: Pomiarem pośrednim nazywamy doświadczenie, w którym wyznaczamy
wartość interesuj¸
acej nas wielkości fizycznej przez pomiar innych wielkości fizycznych
zwi¸
azanych z dan¸
a wielkości¸
a znanym zwi¸
azkiem funkcyjnym.
Przykład:
• Pomiar oporu elektrycznego przewodnika: mierzymy spadek napi¸
ecia ’U’ na
przewodniku i pr¸
ad ’I’ przez niego płyn¸
acy a opór ’R’ wyznaczamy z prawa
Ohma: R=U/I.
• Pomiar g¸
estości stopu, z którego zbudowany jest prostopadłościan: mierzymy
bezpośrednio długość kraw¸
edzi ’a’,’b’ i ’c’ prostopadłościanu i jego mas¸
e ’m’ a
g¸
estość wyznaczamy ze wzoru: ρ = m/(a . b . c).
DEFINICJA: Tradycyjnie bł¸
edem pomiaru ’e’ nazywano różnic¸
e pomi¸
edzy wartości¸
a
’X’ uzyskan¸
a w doświadczeniu a prawdziw¸
a (nieznan¸
a) wartości¸
a ’X
0
’ danej wielkości:
e = X-X
0
Bł¸
edy dzielono na grube, systematyczne i przypadkowe
B.Kamys; Notatki do wykładu SMOP-I 2007/08
18
Zgodnie z NORMĄ ISO (Międzynarodowej Organizacji Normalizacyjnej) wprowadzoną w
1995 roku należy unikać słowa ”błąd” zastępując go słowami ”niepewności pomiarowe”.
”Błąd” należy zarezerwować tylko dla pomyłek eksperymentatora (tj. do błędów grubych)
lub niewłaściwej metody pomiarowej (tj. do błędów systematycznych) - patrz poniżej.
Norma zaleca używanie symbolu u(x) dla niepewności pomiaru zmiennej x. Symbol ten
pochodzi od angielskiego słowa ”uncertainty” ≡ ”niepewność”.
DEFINICJA: Bł¸
edy grube to bł¸
edy, które pojawiaj¸
a si¸
e w wyniku pomyłki ekspery-
mentatora (np. odczyt na niewłaściwej skali przyrz¸
adu) lub w wyniku niesprawności
aparatury pomiarowej. Zwykle s¸
a one na tyle duże, że można je łatwo zauważyć.
Dla unikni¸
ecia tych bł¸
edów należy starannie zorganizować proces pomiaru i uży-
wać do doświadczeń tylko właściwie wytestowanych przyrz¸
adów.
DEFINICJA: Bł¸
edy systematyczne to takie, które podczas wykonywania pomiaru
systematycznie przesuwaj¸
a wyniki pomiarów w jedn¸
a stron¸
e w stosunku do prawdzi-
wej wartości.
Przykład:
Przy pomiarze oporu możemy zastosować dwa różne schematy podł¸
aczenia
woltomierza i amperomierza:
1. Woltomierz podł¸
aczony równolegle do oporu a szeregowo do nich amperomierz. Wówczas
spadek napi¸
ecia mierzony jest rzeczywiście na oporniku ale pr¸
ad mierzony przez am-
peromierz odpowiada nie samemu pr¸
adowi płyn¸
acemu przez przewodnik lecz sumie
pr¸
adów - opornika i woltomierza. Systematycznie zawyżamy wartość pr¸
adu ’I’ co w
przypadku gdy opór woltomierza nie jest wielokrotnie wi¸
ekszy od oporu przewodnika
może prowadzić do znacz¸
acego bł¸
edu.
V
A
2. Woltomierz podł¸
aczony jest równolegle do układu szeregowo poł¸
aczonego opornika i
amperomierza. Wówczas woltomierz mierzy spadek napi¸
ecia na przewodniku oraz na
amperomierzu równocześnie. Systematycznie zawyżamy napi¸
ecie ’U’ co w przypadku
gdy opór wewn¸
etrzny amperomierza nie jest wielokrotnie mniejszy od oporu przewod-
nika może prowadzić do znacz¸
acego błędu.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
19
V
A
Błedy systematyczne s¸
a trudne do zauważenia i oszacowania.
Dla ich unikni¸
ecia
stosuje si¸
e:
• staranne przemyślenie metody pomiaru w poszukiwaniu możliwych źródeł bł¸
edów
systematycznych i rezygnacja z metod, które prowadz¸
a do takich bł¸
edów,
• zmian¸
e metody pomiaru np.
opór w powyższym przykładzie można mierzyć
metod¸
a mostka, która nie wprowadza takich systematycznych bł¸
edów jak omówione
najprostsze schematy pomiaru. Ważne stałe fizyczne takie jak pr¸
edkość światła
’c’ były wielokrotnie mierzone różnymi metodami, głównie po to by upewnić
si¸
e, że unikni¸
eto bł¸
edów systematycznych,
• unikanie oczywistych źródeł bł¸
edu jak np. "bł¸
ad paralaksy"polegaj¸
acy na od-
czytaniu skali nie patrz¸
ac na ni¸
a z kierunku prostopadłego,
• pomiary wzgl¸
edne polegaj¸
ace na tym, że mierzymy równocześnie, t¸
a sam¸
a metod¸
a
dwie wielkości - jedn¸
a dobrze znan¸
a a drug¸
a - t¸
e, któr¸
a chcemy zmierzyć.
Odnosz¸
ac wynik pomiaru nieznanej wielkości do wyniku pomiaru znanej wielkości
zwykle możemy wyeliminować bł¸
edy systematyczne.
DEFINICJA: Przypadkowe niepewności pomiarowe (zwane tradycyjnie ”
błędami przy-
padkowymi ”) to niepewności, które zmieniaj¸
a si¸
e od pomiaru do pomiaru, powoduj¸
ac
odchylenia od wartości prawdziwej zarówno w dół jak i w górę.
Zakłada si¸
e, że
spowodowane s¸
a one przez wiele niezależnych przyczyn o porównywalnym znaczeniu.
Metody statystyki pozwalaj¸
a na oszacowanie tego typu niepewności zarówno jakoś-
ciowo jak i ilościowo. Nie mówi¸
a jednak nic o bł¸
edach systematycznych czy grubych.
Dlatego dalsze rozważania dotyczyć będą tylko niepewności przypadkowych.
Jeżeli mamy do czynienia tylko z niepewnościami przypadkowymi to s¸
a spełnione
założenia centralnego twierdzenia granicznego a wi¸
ec:
Rozkład niepewności przypadkowej u to rozkład N(0,σ(u)).
B.Kamys; Notatki do wykładu SMOP-I 2007/08
20
f (u) =
1
√
2π σ(u)
exp(
−u
2
2σ
2
(u)
)
7.1
ROZKŁAD POMIARÓW
Ponieważ wartość oczekiwana niepewności przypadkowej jest z definicji równa zero i
rozrzut niepewności dokoła wartości oczekiwanej niepewności jest określony przez od-
chylenie standardowe σ(u) a wynik pomiaru ’X’ różni si¸
e od niepewności pomiarowej
’u’ tylko przesuni¸
eciem skali współrz¸
ednych o ’X
0
’ (wartość prawdziw¸
a mierzonej
wielkości) to rozkład wartości mierzonej ’X’ jest rozkładem Gaussa N (X
0
, σ(u)):
f (X) =
1
√
2π σ(u)
exp(
−(X−X
0
)
2
2σ
2
(u)
).
WAŻNE WNIOSKI:
• Wartość prawdziwa mierzonej wielkości jest równa wartości oczekiwanej pomia-
rów (jeżeli s¸
a tylko niepewności przypadkowe).
• Rozrzut pomiarów dokoła wartości prawdziwej jest określony przez odchylenie
standardowe σ(e) rozkładu niepewności przypadkowych .
• Miar¸
a niepewności pojedynczego pomiaru jest odchylenie standardowe pomia-
rów.
Z powyższych faktów wynika, że:
Szukanie prawdziwej wartości mierzonej wielkości i jej niepewności to
estymacja wartości oczekiwanej i odchylenia standardowego pomiarów
DEFINICJA: Estymatorem nieobci¸
ażonym T
n
(θ) parametru θ nazywamy taki estymator,
którego wartość oczekiwana równa jest wartości estymowanego parametru niezależnie
od rozmiarów próby:
E(T
n
(θ)) = θ
B.Kamys; Notatki do wykładu SMOP-I 2007/08
21
DEFINICJA: Obci¸
ażeniem estymatora ’B
n
’ nazywamy różnic¸
e jego wartości oczekiwanej
i wartości estymowanego parametru:
B
n
= E(T
n
(θ)) - θ
DEFINICJA: Estymatorem obci¸
ażonym nazywamy taki estymator, którego obci¸
ażenie
jest różne od zera.
DEFINICJA: Estymatorem asymptotycznie nieobci¸
ażonym nazywamy taki estymator obci¸
ażony,
którego obci¸
ażenie zmierza do zera gdy rozmiary próby nieskończenie rosn¸
a:
lim
n→∞
B
n
= 0
TWIERDZENIE:
Jeżeli wariancja estymatora nieobci¸
ażonego lub asymptotycznie nieobci¸
ażonego d¸
aży
do zera gdy rozmiary próby rosn¸
a nieograniczenie wówczas estymator ten jest zgodny.
TWIERDZENIE:
Jeżeli T
n
(θ) jest zgodnym estymatorem θ i jeżeli h(θ) jest wielomianem lub ilorazem
wielomianów to estymator h(T
n
(θ)) jest estymatorem zgodnym dla h(θ).
DEFINICJA:
Jeżeli mamy zbiór estymatorów tego samego parametru θ: T
(1)
n
(θ),T
(2)
n
(θ), ... T
(k)
n
(θ),
wówczas ten spośród nich nazywany jest najbardziej efektywnym, który ma najmniejsz¸
a
wariancj¸
e.
OD ’DOBREGO’ ESTYMATORA ŻA
¸ DAMY ABY:
• spełniał mocne prawo wielkich liczb lub był zgodny
• O ile to możliwe chcemy by był:
– Nieobci¸
ażony,
– Najbardziej efektywny.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
22
7.2
ESTYMATOR WARTOŚCI OCZEKIWANEJ
Jako
estymator wartości oczekiwanej T
n
(E(X))
przyjmuje si¸
e średni¸
a arytmetyczn¸
a
niezależnych pomiarów wielkości X. B¸
edziemy j¸
a oznaczać przez X :
T
n
(E(X)) ≡ X =
1
n
P
n
i=1
X
i
Estymator ten posiada optymalne własności:
1. Kołmogorow pokazał, że X spełnia mocne prawo wielkich liczb a wi¸
ec oczywiście
jest zgodny,
2. Estymator X jest nieobci¸
ażony.
E(
1
n
P
i
X
i
) =
1
n
P
i
E(X
i
) =
1
n
(n.E(X)) = E(X) c.b.d.o.
Tu wykorzystano fakt, że wszystkie wartości oczekiwane s¸
a równe E(X
i
)=E(X).
3. Można pokazać, że X jest najbardziej efektywnym estymatorem E(X).
TWIERDZENIE:
Estymator X wartości oczekiwanej E(X) ma rozkład normalny N(E(X),
σ(X)
√
n
) gdzie ’n’
jest liczb¸
a pomiarów w próbie.
WNIOSKI:
1. Odchylenie standardowe średniej arytmetycznej X jest
√
n - krotnie mniejsze
od odchylenia standardowego pojedynczego pomiaru.
2. Odchylenie standardowe σ(X) czyli
standardowa niepewność pomiaru średniej
arytmetycznej u( ¯
X) (wg tradycyjnej nomenklatury
bł¸
ad średni kwadratowy
średniej arytmetycznej ) charakteryzuje dokładność wyznaczenia prawdziwej wartości
X w danym pomiarze składaj¸
acym si¸
e z n niezależnych doświadczeń.
3. Aby charakteryzować dokładność metody pomiarowej należy jako miar¸
e dokład-
ności podać
standardową niepewność pojedynczego pomiaru u(X) ≡ σ(X) (wg
tradycyjnej nomenklatury -
błąd pojedynczego pomiaru ) .
4. W granicach wyznaczonych przez σ(X) powinno leżeć 68.27% wszystkich pomi-
arów a nie wszystkie pomiary.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
23
7.3
ESTYMATOR ODCHYLENIA STANDARDOWEGO
(1)
S(X) ≡
q
1
n−1
P
n
i=1
(X
i
− X)
2
Jest to zgodny, asymptotycznie nieobci¸
ażony estymator.
UWAGA: zaleca się używać tego estymatora odchylenia standardowego.
(2)
s(X) ≡
q
1
n
P
n
i=1
(X
i
− X)
2
Jest to zgodny, asymptotycznie nieobci¸
ażony i najbardziej efektywny estymator
(3)
S(X) ≡ k
n
S(X)
gdzie k
n
=
q
n−1
2
Γ(
n−1
2
)
Γ(
n
2
)
Jest to zgodny i nieobci¸
ażony estymator σ(X).
Współczynnik "k
n
"można zast¸
apić z niezłym przybliżeniem przez wstawienie do
wzoru na S(X) zamiast 1/(n-1) czynnika 1/(n-1.45).
Poniżej podajemy w tabelce przykładowe wartości współczynnika k
n
dla różnych
’n’:
n
k
n
q
n−1
n−1.45
3
1.1284
1.1359
4
1.0853
1.0847
5
1.0640
1.0615
6
1.0506
1.0482
7
1.0423
1.0397
10
1.0280
1.0260
15
1.0181
1.0165
20
1.0134
1.0121
25
1.0104
1.0095
50
1.0051
1.0046
B.Kamys; Notatki do wykładu SMOP-I 2007/08
24
7.4
ZAPIS WYNIKÓW POMIARÓW
Ponieważ z doświadczenia nie uzyskujemy prawdziwej wartości oczekiwanej E(X)
oraz odchylenia standardowego σ(X) a tylko ich estymatory wi¸
ec nie podaje si¸
e ich
wartości z pełn¸
a (uzyskan¸
a z obliczeń) liczb¸
a cyfr znacz¸
acych.
KONWENCJA: Stosuje si¸
e nast¸
epuj¸
ac¸
a
konwencje
¸ zapisu wyników
, gdzie jako miarę
niepewności pomiaru podaje się
niepewność standardową u(x) ≡ S(x)
.
• Pozostawia si¸
e tylko
dwie cyfry znacz¸
ace
standardowej
niepewności pomiarowej, np. 0,023.
• Wynik pomiaru obliczamy tak aby wyznaczyć jedno
miejsce
dziesi¸
etne
dalej
niż
miejsce
dziesi¸
etne,
na
którym zaokr¸
aglono niepewność pomiarową, a nast¸
epnie
zaokr¸
aglamy do tego samego miejsca dziesi¸
etnego, do
którego wyznaczono niepewność pomiarową, np. zamiast
1,9024 bierzemy 1,902.
• Wynik wraz z niepewnością pomiarową podajemy w ten
sposób, że
po wypisaniu wyniku dopisujemy w nawiasie dwie
cyfry znaczące reprezentujące niepewność pomiaru i podajemy
jednostkę
, np.
m = 1,902(23) kg
lub
m = 1,902(0,023) kg
INNA FORMA ZAPISU:
•
Stosuje się również zapis:
x = (wynik(x) ± U (x)) jednostka(x) , gdzie
U (x) ≡ k · u(x)
tzw.
niepewność rozszerzona
.
Współczynnik rozszerzenia ” k”
przyjmuje wartości 2 ≤ k ≤ 3
przy czym domyślnie, tzn. jeżeli nie podaje się tego jawnie,
przyjmuje się k = 2.
• UWAGA: ten zapis jest identyczny jak zapis stosowany dawniej (przed przyję-
ciem aktualnej konwencji zapisu) ale wtedy podawało się
standardową niepewność
u(x)
zamiast
rozszerzonej niepewności U (x) ≡ k · u(x)
.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
25
•
Zapis przykładowy przytaczanego
powyżej wyniku:
masa = (1,902 ± 0.046) kg .
UWAGA: Zastosowanie formy zapisu: (wynik ± niepewność pomiaru) może prowadzić
do nieporozumienia, gdy nie napiszemy wyraźnie, że stosujemy nową konwencję i że
jako współczynnik rozszerzenia niepewności bierzemy k = 2.
Zaleca się więc stosowanie zapisu, w którym podaje się w naw-
iasie 2 cyfry znaczące standardowej niepewności pomiarowej. W
przeciwnym wypadku należy wyraźnie zaznaczyć, że podajemy roz-
szerzoną niepewność standardową oraz wypisać wartość k.
UWAGA: Ponieważ omawiana metoda szacowania niepewności opiera się o statysty-
czny rozrzut pomiarów rządzony rozkładem Gaussa, to
•
Niepewność standardowa
pomiaru określa przedział wartości mierzonej wielkości
gdzie
z prawdopodobieństwem ≈ 0.68 znajduje się prawdziwa wartość mierzonej wielkości.
•
Rozszerzona niepewność z czynnikiem rozszerzenia k=2
określa przedział,
gdzie
z prawdopodobieństwem ≈ 0.95 znajduje się prawdziwa wartość.
Norma ISO określania niepewności pomiarowych proponuje zastosowanie dwu
metod do tego celu:
Metoda A
szacowania niepewności pomiarowych to opisane powyżej wnioskowanie o
niepewności pomiaru z rozrzutu statystycznego wyników pomiaru
Metoda B
stosuje się, gdy nie możemy takiego rozrzutu zaobserwować , np. gdy
• Działka skali przyrządu pomiarowego jest większa od obserwowanego rozrzutu,
• Pomiar można wykonać tylko jednokrotnie bo, np. towarzyszy mu zniszcze-
nie badanego obiektu, itp.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
26
W metodzie B: postępujemy następująco:
• Szukamy takiego przedziału [a, b] wartości mierzonej wielkości x, że wszys-
tkie wartości x ∈ [a, b] (np. długość [a, b] to wielkość działki skali przyrządu).
• Zakładamy funkcję gęstości prawdopodobieństwa zmiennej x; najczęściej
zakłada się jednostajny rozkład: f (x) = 1/(b − a).
• Odchylenie standardowe tej wielkości bierzemy jako wartość niepewności
standardowej, np. dla rozkładu jednostajnego
u(x) ≡ σ(x) = (b − a)/(2
√
3).
UWAGA: Ponieważ (b − a)/2 ≡ ∆x, gdzie ∆x to (tradycyjnie) tzw.
błąd maksymalny
więc wtedy
standardowa niepewność
u(x) = ∆x/
√
3.
7.5
ROZKŁAD LICZBY POZYTYWNIE ZAKOŃCZONYCH DOŚWIAD-
CZEŃ
TWIERDZENIE: Jeżeli prawdopodobieństwo zrealizowania si¸
e danego zdarzenia losowego
w pojedynczym doświadczeniu jest równe ’p’ to liczba ’k’ zrealizowanych zdarzeń w
’N ’ niezależnych doświadczeniach rz¸
adzona jest rozkładem Bernoulliego
( dwumianowym, binomialnym):
P (k) =
N !
k!(N −k)!
p
k
(1 − p)
N −k
; k = 0, 1, ..N
Łatwo można pokazać, że
E(k) = N · p
σ(k) =
p
N · p · (1 − p)
W fizyce cz¸
esto zdarza si¸
e sytuacja gdy ’N ’ jest bardzo duże, ’p’ bardzo małe a
wartość oczekiwana rejestrowanych zdarzeń E(k) ≡ N · p jest stała. np. N - liczba
radioaktywnych j¸
ader w badanej próbce, p - prawdopodobieństwo rozpadu pojedynczego radioakty-
wnego j¸
adra w jednostce czasu, k - liczba rejestrowanych rozpadów w jednostce czasu
B.Kamys; Notatki do wykładu SMOP-I 2007/08
27
W takiej sytuacji rozkład Bernoulliego przechodzi w rozkład Poissona:
P (k) =
λ
k
k!
exp(−λ)
Wartość oczekiwana i odchylenie standardowe wyrażaj¸
a si¸
e wzorem:
E(k) = λ
σ(k) =
√
λ
Można pokazać, że dla dla N ⇒ ∞ rozkład Bernoulliego i rozkład Poissona d¸
aż¸
a
do rozkładu normalnego N(N.p,
p
N.p.(1 − p)) i N(λ,
√
λ) odpowiednio.
7.6
NIEPEWNOŚĆ STATYSTYCZNA
Liczba rejestrowanych w danym okresie czasu zdarzeń ’k’ rz¸
adzonych powyższymi
prawami jest zmienn¸
a losow¸
a a wi¸
ec ”prawdziwa” liczba zdarzeń to E(k) a jej niepewność
to σ(k). Tę niepewność nazywana jest ”niepewnością statystyczną” (tradycyjnie
”błę-
dem statystycznym”).
ESTYMATOR prawdziwej liczby zdarzeń i jej niepewności statystycznej.
Jako
estymator prawdziwej liczby zdarzeń
przyjmuje si¸
e liczb¸
e ” k”
zareje-
strowanych zdarzeń podczas pojedynczego pomiaru:
T
n
(E(k)) = k
a jako
estymator niepewności statystycznej
pierwiastek z tej liczby:
T
n
(σ(k)) =
√
k
POZORNY PARADOKS: Im dłużej mierzymy tym statystyczna niepewność liczby
zarejestrowanych zdarzeń jest wi¸
eksza.
WYTŁUMACZENIE: Istotna jest statystyczna niepewność wzgl¸
edna a nie bezwzgl¸
edna:
T
n
(
σ(k)
E(k)
) =
1
√
k
.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
28
NOMENKLATURA: Pomiar z małą statystyczną niepewnością wzgl¸
edną to pomiar z
DOBRA
¸
a z dużą statystyczną niepewnością względną to pomiar ze
ZŁA
¸ STATYSTYKA
¸
.
W praktyce do opisu rejestracji liczby zdarzeń stosujemy rozkład Poissona. In-
teresuje nas jednak nie tylko odpowiedź na pytanie:
’Ile zdarzeń zachodzi w określonym czasie ?’
ale również odpowiedź na inne pytanie:
’Ile zachodzi zdarzeń DANEGO TYPU ?’
PRZYKŁAD: Rejestrujemy produkty reakcji j¸
adrowej. Chcemy wiedzieć nie tylko
ile reakcji zachodzi ale także ile jest produktów posiadaj¸
acych określon¸
a energi¸
e.
PYTANIA:
1. Jakim rozkładem rz¸
adzona jest liczba zdarzeń w każdym przedziale (”kanale”)
energii?
2. Co by si¸
e stało gdybyśmy dodali liczby zdarzeń z kilku s¸
asiednich kanałów (dla
poprawienia ”statystyki” liczby zdarzeń) ?
ODPOWIEDZI:
ad 1 Liczba zdarzeń w każdym kanale jest rz¸
adzona rozkładem Poissona ale każdy z
tych rozkładów ma zwykle różny parametr λ.
ad 2 Korzystaj¸
ac z poniższego twierdzenia:
TWIERDZENIE
Rozkład prawdopodobieństwa sumy skończonej liczby niezależnych składników,
z których każdy rz¸
adzony jest rozkładem Poissona o parametrze λ
i
jest również
rozkładem Poissona ale o nowym parametrze λ =
P
i
λ
i
.
stwierdzamy, że liczba zdarzeń w kilku wysumowanych kanałach k =
P
i
k
i
b¸
edzie
dalej rz¸
adzona rozkładem Poissona z parametrem λ, którego estymator jest
równy T
n
(E(k)) =
P
i
k
i
.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
29
7.7
POMIARY POŚREDNIE
Jeżeli w doświadczeniu mierzymy wielkości X
1
, X
2
, .. X
N
a nast¸
epnie wyliczamy
wartość funkcji Y = Y(X
1
, X
2
, ..
X
N
) to tak¸
a procedur¸
e nazywamy pomiarem
pośrednim.
7.7.1
ESTYMATOR E(Y) POMIARU POŚREDNIEGO Y
Estymatorem E(Y) jest wartość funkcji Y wyliczona dla argumentów, które s¸
a esty-
matorami X
1
, X
2
, .. X
N
tzn. dla średnich arytmetycznych X
1
, X
2
, ..., X
N
:
T
n
(E(Y(X
1
, X
2
, ..X
N
))) = Y(X
1
, X
2
, ..., X
N
)
lub inaczej
E(Y(X
1
, X
2
, ..X
N
)) ≈ Y(X
1
, X
2
, ..., X
N
)
7.7.2
NIEPEWNOŚĆ POMIARU POŚREDNIEGO
Przy założeniu, że pomiary X
1
, X
2
, .. X
N
były wykonywane niezależnie odpowied-
nio n
1
, n
2
, ..
n
N
razy, niepewność pomiaru pośredniego nazywana wg NORMY
ISO ”
niepewnością złożoną
” (tradycyjnie
błędem średnim kwadratowym ) oszacowuje
si¸
e nast¸
epuj¸
aco:
σ(Y ) ≈
s
N
P
i
(
∂Y
∂X
i
)
2
X
i
=X
i
· σ
2
(X
i
)
UWAGA:
1. X
1
, X
2
, .. X
N
to różne wielkości a nie kolejne pomiary wielkości "X",
2. Pochodne liczone wzgl¸
edem ’X
i
’ to pochodne cz¸
astkowe tzn. liczone przy za-
łożeniu, że pozostałe zmienne ’X’ s¸
a ustalone,
3. Zamiast wariancji zmiennej σ
2
(X
i
) używa si¸
e jej estymatora tzn. S
2
(X
i
) N-
krotnie mniejszego od estymatora S
2
(X
i
).
Jeżeli pomiary wielkości mierzonych bezpośrednio były wykonywane jednokrotnie
to nie możemy oszacować σ( ¯
X) z rozrzutu (tj. metodą A wg NORMY ISO) lecz
stosujemy metodę B oszacowania niepewności standardowej pomiaru bezpośredniego
opisaną powyżej.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
30
7.7.3
BŁA
¸ D MAKSYMALNY
Błąd maksymalny pomiaru pośredniego to tradycyjne pojęcie, które stosowano, gdy
nie można było oszacować niepewności pomiaru bezpośredniego z rozrzutu wyników.
Liczono go wg poniższego wzoru, tzn.
metoda
¸ różniczki zupełnej
.
∆(Y ) ≈
N
P
i
|
∂Y
∂X
i
| · ∆(X
i
)
Tu moduły pochodnych s¸
a wyliczane dla jednokrotnie zmierzonych wielkości X
i
a
symbol ∆(X
i
) oznacza maksymalny bł¸
ad tej wielkości mierzonej bezpośrednio.
Zgodnie z NORMĄ ISO : Nie należy używać pojęcia błędu maksymalnego po-
miaru pośredniego lecz liczyć niepewność pomiaru pośredniego jako
złożoną niepewność
pomiarową
wstawiając zamiast niepewności pomiarów bezpośrednich otrzymanych
"metodą A"(tzn. z rozrzutu pomiarów) niepewności oszacowane "metodą B".
Należy tak postępować bo:
• W odróżnieniu od złożonej niepewności standardowej
bł¸
ad maksymalny nie ma
interpretacji statystycznej
.
• Łatwo można pokazać , że błąd maksymalny obliczony metod¸
a różniczki zupełnej
jest zawsze wi¸
ekszy od złożonej niepewności standardowej.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
31
8
REGRESJA LINIOWA
DEFINICJA
Regresja liniowa zmiennej Y wzgle
¸dem zmiennej X
to linia prosta
Y = a · X + b,
której parametry ” a” i ” b” dobiera się tak aby minimalizować sum¸
e kwadratów
odchyleń współrz¸
ednych (Y
i
, i = 1, 2, ..n) zespołu ’n’ punktów o współrz¸
ednych
(X
1
, Y
1
),(X
2
, Y
2
),... (X
n
, Y
n
) od linii.
UWAGA Regresja liniowa X wzgl¸
edem Y tj.
prosta X = c · Y + d pokrywa
si¸
e z regresj¸
a liniow¸
a Y wzgl¸
edem X tj. prost¸
a Y = a · X + b znalezion¸
a dla tego
samego zespołu punktów doświadczalnych tylko wtedy gdy zwi¸
azek pomi¸
edzy X i Y
jest funkcyjnym zwi¸
azkiem liniowym (a nie zależności¸
a statystyczn¸
a).
Rozważymy tu specyficzn¸
a sytuacj¸
e polegaj¸
ac¸
a na tym, że:
• zmienna X ma zaniedbywalnie małe niepewności pomiarowe
(mówimy wtedy, że ’X jest zmienn¸
a kontrolowan¸
a’)
• Niepewność standardowa zmiennej Y jest taka sama dla wszystkich punktów i
wynosi σ(Y ).
Wtedy dostajemy proste, analityczne wzory na estymatory parametrów regresji:
T
n
(b)
=
(
P
i
X
i
2
) · (
P
i
Y
i
) − (
P
i
X
i
) · (
P
i
X
i
· Y
i
)
W
T
n
(a)
=
n · (
P
i
X
i
· Y
i
) − (
P
i
X
i
) · (
P
i
Y
i
)
W
W
≡ n ·
X
i
X
2
i
− (
X
i
X
i
)
2
Wskaźnik sumowania ” i” przebiega wartości od 1 do ” n”.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
32
Niepewności standardowe estymatorów parametrów ”a” i ”b” również wyrażaj¸
a si¸
e
analitycznymi wzorami:
u(b) ≡ T
n
(σ(b))
=
σ(Y ) ·
s
P
i
X
2
i
W
u(a) ≡ T
n
(σ(a))
=
σ(Y ) ·
r
n
W
Możemy również podać wzór na niepewność standardową wartości Y przewidzianej
przez lini¸
e regresji (zależną od X):
u(Y (X)) ≡ T
n
(σ(Y (X)))
=
σ(Y ) ·
v
u
u
t
1
n
+
(X − X)
2
P
i
(X
i
− X)
2
• T
n
(σ(Y (X))) to estymator niepewności standardowej wartości Y (X) przewidzianej
przez regresj¸
e,
• σ(Y ) to niepewnośc pomiaru współrz¸
ednej Y
i
(z założenia taka sama dla wszys-
tkich punktów).
Gdy jej nie znamy wpisujemy tu (i do wzorów na niepewności parametrów a i b) estymator
T
n
(σ(Y )),
• X to średnia arytmetyczna wartości zmiennej kontrolowanej wyliczona ze współrz¸
ednych
punktów X
1
,X
2
,... X
n
,
• X - to wartość zmiennej kontrolowanej X, dla której wyliczamy wartość regresji
liniowej Y (X) oraz estymator niepewności regresji liniowej Y (X) dla tej wartości
argumentu X.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
33
9
INDEKS
-
definicja
gruby
maksymalny
przypadkowy
systematyczny
statystyczny
-
Centralne twierdzenie graniczne 16
-
zmiennej losowej
,
funkcji zmiennej losowej
-
punktowa
przedziałowa
-
asymptotycznie nieobciążony
standardowej niepewności pojedynczego pomiaru
standardowej niepewności pomiaru pośredniego
standardowej niepewności parametrów regresji liniowej
standardowej niepewności regresji liniowej
standardowej niepewności średniej arytmetycznej
niepewności statystycznej
najbardziej efektywny
nieobciążony
obciążony
odchylenia standardowego
prawdopodobieństwa
spełniający mocne prawo wielkich liczb
wartości oczekiwanej
zgodny (spełniający prawo wielkich liczb)
-
dolny kwartyl
górny kwartyl
mediana
B.Kamys; Notatki do wykładu SMOP-I 2007/08
34
- Moda
- Moment
- Niepewność pomiarowa
metoda A wyznaczania
metoda B wyznaczania
rozszerzona
rozszerzona - zapis
standardowa pomiaru bezpośredniego
standardowa pomiaru pośredniego (niepewność złożona)
standardowa - zapis
statystyczna
statystyczna - względna
- Prawdopodobieństwo
definicja
estymator
gęstość
rozkład
własności
-
- Rozkład
Bernoulliego (dwumianowy, binomialny)
Gaussa (normalny)
Poissona
-
-
(nadzieja matematyczna, wartość średnia)
-
(dyspersja, kwadrat odchylenia standardowego)
- Współczynnik rozszerzenia (niepewności pomiarowej),
- Zapis wyników,
B.Kamys; Notatki do wykładu SMOP-I 2007/08
35
- Zdarzenia
elementarne
iloczyn zdarzeń
losowe
niemożliwe
niezależne
pewne
przeciwne
różnica zdarzeń
suma zdarzeń
- Zmienna
losowa
losowa skokowa
SZANOWNY CZYTELNIKU !
• Notatki, które czytasz nie mają zastąpić wykładu SMOP-I, co najlepiej
widać po tym, że prawie nie zawierają komentarzy. Sądzę jednak, że mogą
być pożyteczne dla tych, którzy chcą znaleźć w jednym miejscu podstawowe
definicje i wzory niezbędne do analizy statystycznej danych na poziomie Pier-
wszej Pracowni Fizycznej. Mogą również stanowić wstęp do nauki bardziej
zaawansowanych metod statystycznych - wykładanych w ramach wykładu
SMOP-II.
• Mam nadzieję, że w tych notatkach jest stosunkowo mało pomyłek.
Jednakże
wielokrotnie
przekonałem
się,
że
błędów
nie
robią
tylko
ci
co
nic
nie
robią
a
więc
z
pewnością
znajdą
się
tu
błędy.
Będę wdzięczny za powiadomienie mnie o tych błędach
oraz
za
wszelkie
uwagi, które pomogą poprawić te notatki oraz jakość wykładu na nich
opartego.
(B. Kamys;