STATYSTYCZNE METODY OPRACOWANIA
POMIARÓW I
B. Kamys 2014/15
B. Kamys (Instytut Fizyki UJ)
2014/15
1 / 80
Podstawy teorii prawdopodobie«stwa
DEFINICJA:
Zbiór zdarze« elementarnych
- zbiór takich zdarze«, które
sie wzajemnie wykluczaja oraz wyczerpuja wszystkie
mo»liwo±ci (tzn. w ka»dym mo»liwym przypadku
przynajmniej jedno z nich musi zachodzi¢).
DEFINICJA:
Zdarzeniem
jest dowolny podzbiór zdarze« elementarnych E.
DEFINICJA:
Zdarzeniem pewnym
jest zdarzenie zawierajace wszystkie
elementy zbioru E (zachodzi zawsze).
DEFINICJA:
Zdarzeniem niemo»liwym
jest zdarzenie nie zawierajace
»adnego elementu zbioru E tj. zbiór pusty ∅.
DEFINICJA:
Zdarzenie A zawiera sie w zdarzeniu B
je»eli ka»de
zdarzenie elementarne nale»ace do zbioru A nale»y do B:
A ⊂ B
B. Kamys (Instytut Fizyki UJ)
2014/15
2 / 80
Podstawy teorii prawdopodobie«stwa
DEFINICJA:
Zdarzenia A i B sa równe
gdy A ⊂ B i B ⊂ A.
DEFINICJA:
Suma zdarze« A + B
to zdarzenie zawierajace te i tylko te zdarzenia elementarne,
które nale»a do któregokolwiek ze zdarze« A, B (suma
logiczna zbiorów zdarze« elementarnych A S B).
DEFINICJA:
Ró»nica zdarze« A − B
to zdarzenie zawierajace te i tylko te zdarzenia elementarne,
które nale»a do zdarzenia A a nie nale»a do zdarzenia B.
DEFINICJA:
Iloczyn zdarze« A · B
to zdarzenie zawierajace te i tylko te
zdarzenia elementarne, które nale»a do wszystkich zdarze« A,
B (tzn. w jezyku zbiorów A T B).
DEFINICJA:
Zdarzeniem przeciwnym do A:
A nazywamy ró»nice
E −
A .
B. Kamys (Instytut Fizyki UJ)
2014/15
3 / 80
Podstawy teorii prawdopodobie«stwa
INTUICYJNE OKRELENIE:
Zdarzenie losowe
to takie, o którym zwykle
nie mo»emy powiedzie¢ czy zajdzie w danych warunkach czy
te» nie zajdzie.
DEFINICJA:
Zdarzeniem losowym
- nazywamy zdarzenie speªniajace
poni»sze warunki:
1
W zbiorze zdarze« losowych znajduje sie zdarzenie
pewne oraz zdarzenie niemo»liwe.
2
Je»eli zdarzenia A
1
,
A
2
, ...
w ilo±ci sko«czonej lub
przeliczalnej sa zdarzeniami losowymi to ich iloczyn i ich
suma sa równie» zdarzeniami losowymi.
3
Je»eli A
1
i A
2
sa zdarzeniami losowymi to ich ró»nica
jest równie» zdarzeniem losowym.
B. Kamys (Instytut Fizyki UJ)
2014/15
4 / 80
Podstawy teorii prawdopodobie«stwa
DEFINICJA:
Zmienna losowa
nazywamy jednoznaczna funkcje
rzeczywista X (e) okre±lona na zbiorze E zdarze«
elementarnych taka, »e ka»demu przedziaªowi warto±ci funkcji
X typu (−∞, x) odpowiada zdarzenie losowe.
DEFINICJA:
Zmienna losowa
typu skokowego (dyskretnego)
to taka,
która przyjmuje tylko co najwy»ej przeliczalny zbiór warto±ci.
DEFINICJA:
Zmienna losowa
typu ciagªego
- mo»e przyjmowa¢ dowolne
warto±ci od minus do plus niesko«czono±ci.
B. Kamys (Instytut Fizyki UJ)
2014/15
5 / 80
Podstawy teorii prawdopodobie«stwa
DEFINICJA:
Denicja prawdopodobie«stwa
Aksjomat 1:
Ka»demu zdarzeniu losowemu przyporzadkowana jest
jednoznacznie nieujemna liczba rzeczywista zwana
prawdopodobie«stwem.
Aksjomat 2:
Prawdopodobie«stwo zdarzenia pewnego jest równe jedno±ci.
Aksjomat 3:
Je»eli zdarzenie losowe Z jest suma sko«czonej lub
przeliczalnej liczby rozªacznych zdarze« losowych Z
1
,Z
2
,..
to prawdopodobie«stwo zrealizowania sie zdarzenia Z jest
równe sumie prawdopodobie«stw zdarze« Z
1
,Z
2
, ..
Aksjomat 4:
Prawdopodobie«stwo warunkowe
zdarzenia A pod
warunkiem, »e zachodzi zdarzenie B; P(A | B) wyra»a sie
wzorem:
P(A | B) =
P(A·B)
P(B)
Prawdopodobie«stwo to jest nieokre±lone, gdy
prawdopodobie«stwo zdarzenia B wynosi zero.
B. Kamys (Instytut Fizyki UJ)
2014/15
6 / 80
Podstawy teorii prawdopodobie«stwa
Zdarzenie przeciwne do A
:
P(A) = 1 − P(A)
Dowód:
A + A = E a wiec P(A + A) = P(E) = 1,
z drugiej strony A i A wykluczaja sie wiec
P(A + A) = P(A) + P(A).
Stad P(A) = P(E) − P(A) czyli P(A) = 1 − P(A) c.b.d.o.
Zdarzenie niemo»liwe
:
P(∅) = 0
Dowód:
E
i ∅ wykluczaja sie wiec P(E + ∅) = P(E) + P(∅) oraz
E + ∅ = E
a wiec P(E + ∅) = P(E), czyli P(∅) = 0
c.b.d.o.
B. Kamys (Instytut Fizyki UJ)
2014/15
7 / 80
Podstawy teorii prawdopodobie«stwa
Zdarzenie A zawiera sie w B
:
P(A) ≤ P(B)
Dowód: P(B) = P(A + (A · B)) = P(A) + P(A · B) ≥ P(A)
c.b.d.o.
Dowolne zdarzenie losowe
:
0 ≤ P(A) ≤ 1
Dowód: Dla ka»dego zdarzenia jest prawdziwe:
∅ ⊂
A + ∅ = A = A · E ⊂ E
a wiec prawdopodobie«stwa zdarze« ∅, A i E speªniaja:
0 ≤ P(A) ≤ 1
c.b.d.o.
B. Kamys (Instytut Fizyki UJ)
2014/15
8 / 80
Podstawy teorii prawdopodobie«stwa
Suma dowolnych zdarze« A + B
:
P(A + B) = P(A) + P(B) − P(A · B)
Dowód:
Zarówno A + B jak i B mo»emy zapisa¢ jako sumy rozªacznych
(wykluczajacych sie) zdarze«:
A + B = A + (B − A · B) oraz
B = A · B + (B − A · B),
stosujemy aksjomat nr 3 denicji prawdopodobie«stwa,
P(A + B) = P(A) + P(B − A · B),
P(B) = P(A · B) + P(B − A · B)
odejmujemy stronami: P(A + B) = P(A) + P(B) − P(A · B)
c.b.d.o.
B. Kamys (Instytut Fizyki UJ)
2014/15
9 / 80
Podstawy teorii prawdopodobie«stwa
Iloczyn zdarze« A · B
:
P(A · B) = P(B) · P(A | B) = P(A) · P(B | A)
Dowód:
Wynika to automatycznie z 4 aksjomatu denicji
prawdopodobie«stwa.
DEFINICJA:
Zdarzenie
A jest niezale»ne od B
gdy P(A | B) = P(A).
TWIERDZENIE:
Je»eli A nie zale»y od B to B nie zale»y od A.
Dowód:
Korzystamy z dwu wzorów na prawdopodobie«stwo A · B
podanych wy»ej, przy czym w pierwszym z nich uwzgledniamy, »e
A jest niezale»ne od B. Wówczas z porównania obu wzorów
dostajemy P(B | A) = P(B).
c.b.d.o.
B. Kamys (Instytut Fizyki UJ)
2014/15
10 / 80
Podstawy teorii prawdopodobie«stwa
WKW niezale»no±ci:
P(A · B) = P(A) · P(B)
Dowód:
Wynika to automatycznie ze wzoru na prawdopodobie«stwo
iloczynu zdarze«.
c.b.d.o
Formuªa caªkowitego prawdopodobie«stwa:
Je»eli istnieje zbiór zdarze« A
1
,
A
2
, ...
wykluczajacych sie wzajemnie i wyczerpujacych
wszystkie mo»liwo±ci wówczas prawdopodobie«stwo
dowolnego zdarzenia B mo»e by¢ zapisane nastepujaco:
P(B) = P
i
P(A
i
) ·
P(B | A
i
)
Dowód:
B = P
i
B · A
i
(suma rozªacznych zdarze«) a wiec
P(B) = P
i
P(B · A
i
) a ka»dy skªadnik mo»na zapisa¢ jako
P(A
i
) ·
P(B | A
i
)
. c.b.d.o.
B. Kamys (Instytut Fizyki UJ)
2014/15
11 / 80
Ilo±ciowy opis zmiennych losowych
Ilo±ciowy opis zmiennych losowych uzyskujemy stosujac
•
Dystrybuante (Zwana czesto przez statystyków funkcja rozkªadu)
•
Rozkªad prawdopodobie«stwa (Tylko dla zmiennych dyskretnych)
•
Funkcje gesto±ci prawdopodobie«stwa (Tylko dla zmiennych
ciagªych) oraz wielko±ci charakteryzujace te powy»ej wymienione twory.
DEFINICJA:
Dystrybuanta F(x)
nazywamy prawdopodobie«stwo tego, »e
zmienna losowa X przyjmie warto±¢ mniejsza od x.
(X - to symbol zmiennej losowej a x to jej konkretna
warto±¢). Oczywi±cie dystrybuanta jest funkcja x.
F (x) ≡ P(X < x)
B. Kamys (Instytut Fizyki UJ)
2014/15
12 / 80
Ilo±ciowy opis zmiennych losowych
Wªasno±ci dystrybuanty:
1
0 ≤ F (x) ≤ 1
2
F (−∞) = 0
3
F (+∞) = 1
4
F (x) jest niemalejaca funkcja
5
F (x) nie posiada wymiaru
Przykªad:
Dla rzutu kostka do gry, gdzie jako zmienna losowa przyjeto
liczbe wyrzuconych punktów:
F (x) = 0 dla x ≤ 1,
=
1/6 dla 1 < x ≤ 2,
=
2/6 dla 2 < x ≤ 3,
=
3/6 dla 3 < x ≤ 4,
=
4/6 dla 4 < x ≤ 5,
=
5/6 dla 5 < x ≤ 6,
=
1 dla x > 6
B. Kamys (Instytut Fizyki UJ)
2014/15
13 / 80
Ilo±ciowy opis zmiennych losowych
DEFINICJA:
Rozkªad prawdopodobie«stwa
: Je»eli x
i
(
i = 1, 2, ...) sa
warto±ciami dyskretnej zmiennej losowej to rozkªadem
prawdopodobie«stwa nazywamy zespóª prawdopodobie«stw:
P(X = x
i
) =
p
i
P
i
p
i
=
1
Przykªad:
Rozkªad prawdopodobie«stwa dla rzutu kostka do gry
omawianego powy»ej: p
i
=
1/6 dla i = 1, 2..6.
B. Kamys (Instytut Fizyki UJ)
2014/15
14 / 80
Ilo±ciowy opis zmiennych losowych
DEFINICJA:
Funkcja gesto±ci prawdopodobie«stwa f(x):
f (x)dx ≡ P(x ≤ X ≤ x + dx)
Wªasno±ci funkcji gesto±ci prawdopodobie«stwa:
1
f (x) ≥ 0,
2
f (x) jest unormowana
tj.R
+∞
−∞
f (x)dx = 1
3
f (x) =
dF (x)
dx
4
wymiar f (x) = wymiar(1/x)
Przykªad:
Rozkªad jednostajny na odcinku [a, b]:
f (x) =
0
dla
x < a
1/(b − a) dla
a ≤ x ≤ b
0
dla
x > b
B. Kamys (Instytut Fizyki UJ)
2014/15
15 / 80
Funkcja Y zmiennej losowej X:
Y = Y (X )
jest równie» zmienna losowa. Dlatego te» mo»na dla niej
okre±li¢ dystrybuante, rozkªad prawdopodobie«stwa lub
funkcje gesto±ci prawdopodobie«stwa. Sa one prosto
zwiazane z odpowiednimi wielko±ciami dla zmiennej X .
Nale»y rozpatrzy¢ niezale»nie przypadek, gdy funkcja Y (X )
jest monotoniczna oraz gdy nie posiada tej wªasnosci
. W
pierwszym wypadku mo»na jednoznacznie okre±li¢ funkcje
odwrotna X = X (Y ) a w drugim caªy przedziaª warto±ci X
trzeba podzieli¢ na rozªaczne podprzedziaªy, w których
funkcja bedzie monotoniczna a wyniki doda¢
(prawdopodobie«stwa rozªacznych zdarze« sumuja sie).
B. Kamys (Instytut Fizyki UJ)
2014/15
16 / 80
Dla monotonicznej funkcji Y = Y(X):
Dystrybuanta G(y) rosnacej funkcji Y(X)
wynosi:
G(y) = F (x(y))
Dowód:
Wychodzac z denicji dla Y(X) rosnacej:
G(y) = P(Y < y)
=
P (X (Y ) < x)
=
F (x(y))
B. Kamys (Instytut Fizyki UJ)
2014/15
17 / 80
Dla monotonicznej funkcji Y = Y(X):
Dystrybuanta G(y) malejacej funkcji Y(X)
wynosi:
G(y) = 1 − F (x(y)) − P (x; y = y(x))
Dowód:
Wychodzac z denicji dystrybuanty
G(y) = P(Y < y)
=
P (X (Y ) > x)
=
1 − P (X (Y ) ≤ x)
=
1 − P (X (Y ) < x) − P (X (Y ) = x)
=
1 − F (x(y)) − P (x; Y = y(x)) c.b.d.o.
B. Kamys (Instytut Fizyki UJ)
2014/15
18 / 80
Rozkªad prawdopodobie«stwa P(y):
P(y
i
) =
P(x
i
;
y
i
=
Y (x
i
))
bo dla
funkcji monotonicznej warto±ci x
i
sa jednoznacznie zwiazane
z wartosciami y
i
.
Funkcja gesto±ci prawdopodobie«stwa g(y):
g(y) = f (x(y)) |
dx(y)
dy
|
gdzie X (Y ) jest funkcja odwrotna do Y (X ). Z denicji:
f (x)dx = P(x ≤ X < x + dx) a to prawdopodobie«stwo
przy jednoznacznym zwiazku miedzy X i Y wynosi
P(y ≤ Y < y + dy) = g(y)dy.
Iloraz niesko«czenie maªych przyrostów dy/dx równy jest
pochodnej z dokªadno±cia do znaku. A wiec moduª przy
pochodnej pojawia sie stad, »e przy malejacej funkcji Y (X )
pochodna bedzie ujemna a iloraz niesko«czenie maªych
przyrostów jest zawsze dodatni.
B. Kamys (Instytut Fizyki UJ)
2014/15
19 / 80
Przykªad dla funkcji monotonicznej:
Y (X ) = aX + b ; a i b to
rzeczywiste staªe.
Rozkªad prawdopodobie«stwa:
P(Y = y
i
) =
P(ax
i
+
b = y
i
) =
P(x
i
=
y
i
−
b
a
)
.
Dystrybuanta:
dla a > 0
G(y) = F
x =
y−b
a
dla a < 0
G(y) = 1 − F
x =
y−b
a
−
P
x =
y−b
a
Gesto±¢ prawdopodobie«stwa:
g(y) =
1
|
a|
f (x =
y−b
a
)
.
B. Kamys (Instytut Fizyki UJ)
2014/15
20 / 80
Przykªad dla funkcji niemonotonicznej:
Y (X ) = X
2
1.) Rozkªad prawdopodobie«stwa
wynosi:
P(y
i
) =
P(X
2
=
y
i
) =
P(X = −
√y
i
) +
P(X = +
√y
i
)
2.) Dystrybuanta
wynosi:
G(y) = P(Y < y) = P(X
2
<
y)
=
P(−
√
y < X < +
√
y)
G(y) = 0 dla y ≤ 0
G(y) = F (
√
y) − F (−
√
y) dla y ≥ 0
3.) Rozkªad gesto±ci prawdopodobie«stwa
wynosi:
g(y) = 0 dla y < 0
g(y) = |
−
1
2
√y
|
f (
√
y) +
1
2
√y f
(−
√
y)
=
1
2
√y
(
f (
√
y) + f (−
√
y)) dla y ≥ 0
B. Kamys (Instytut Fizyki UJ)
2014/15
21 / 80
W praktycznych zastosowaniach czesto wystarcza poznanie warto±ci
pewnych wielko±ci, które charakteryzuja rozkªad prawdopodobie«stwa
zamiast peªnej informacji o rozkªadzie.
Oto najcze±ciej stosowane:
DEFINICJA:
fraktyl x
q
(zwany równie»
kwantylem
) jest to taka warto±¢
zmiennej losowej, »e prawdopodobie«stwo znalezienia
mniejszych od niej warto±ci wynosi q:
P(X < x
q
) ≡
F (x
q
) =
q
Najwa»niejsze fraktyle to
dolny kwartyl: x
0.25
,
górny kwartyl: x
0.75
oraz
mediana: x
0.5
.
B. Kamys (Instytut Fizyki UJ)
2014/15
22 / 80
DEFINICJA:
Moda
(zwana równie»
warto±cia modalna
) jest to taka
warto±¢ zmiennej losowej, dla której rozkªad
prawdopodobie«stwa (lub funkcja gesto±ci
prawdopodobie«stwa) przyjmuje maksimum.
DEFINICJA:
Rozkªady prawdopodobie«stwa posiadajace jedna mode
zwane sa
jednomodalnymi
a te, które maja wiecej ni» jedna
-
wielomodalnymi
.
DEFINICJA:
Warto±¢ oczekiwana
,
warto±¢ ±rednia
lub
nadzieja
matematyczna
. Bedziemy go oznaczali przez E(X)
(stosuje sie równie» oznaczenie M(X) lub ^
X ).
E(X ) ≡ P
i
x
i
·
p
i
dla zmiennych dyskretnych,
E(X ) ≡ R x · f (x) dx
dla zmiennych ciagªych
B. Kamys (Instytut Fizyki UJ)
2014/15
23 / 80
INTERPRETACJA E(X):
E(X ) jest wspóªrzedna punktu, który
byªby ±rodkiem masy rozkªadu praw-
dopodobie«stwa (lub pola pod funkcja
gesto±ci prawdopodobie«stwa) gdyby
prawdopodobie«stwa poszczególnych
warto±ci x
i
traktowa¢ jako masy
(lub odpowiednio gesto±¢ prawdodo-
bie«stwa jako zwykªa gesto±¢).
B. Kamys (Instytut Fizyki UJ)
2014/15
24 / 80
WASNOCI E(X)
: E(X ) jest operatorem liniowym a wiec:
1
E(P
i
C
i
·
X
i
) =
P
i
C
i
·
E(X
i
)
co w szczególnych przypadkach daje:
•
E(C) = C
•
E(C · X ) = C · E(X )
•
E(X
1
+
X
2
) =
E(X
1
) +
E(X
2
)
2
Dla zmiennych niezale»nych X
1
, ...,
X
n
E
Q
i
X
i
=
Q
i
E {X
i
}
UWAGA:
Warunkiem koniecznym i wystarczajacym by
zmienne
byªy
niezale»ne
jest aby wspólny rozkªad prawdopodobie«stwa
faktoryzowaª sie:
f (X
1
,
X
2
, ..,
X
n
) =
f
1
(
X
1
) ·
f
2
(
X
2
)...
f
n
(
X
n
)
.
B. Kamys (Instytut Fizyki UJ)
2014/15
25 / 80
Dla funkcji zmiennej X; Y = Y (X )
warto±¢ oczekiwana E(Y ) mo»e by¢
znaleziona przy pomocy rozkªadu zmiennej X bez
konieczno±ci szukania rozkªadu g(y):
E(Y ) = P
i
y(x
i
) ·
p
i
,
E(Y ) = R y(x) · f (x) · dx
odpowiednio dla zmiennej dyskretnej i dla zmiennej ciagªej.
DEFINICJA:
Momentem rozkªadu rzedu k wzgledem punktu x
0
,
nazywamy nastepujaca wielko±¢:
m
k
(
x
0
) ≡
E{(x − x
0
)
k
}
czyli
m
k
(
x
0
) ≡
R (
x − x
0
)
k
·
f (x) · dx
m
k
(
x
0
) ≡
P
i
(
x
i
−
x
0
)
k
p(x
i
)
odpowiednio dla zmiennych ciagªych i dyskretnych.
B. Kamys (Instytut Fizyki UJ)
2014/15
26 / 80
Najwa»niejszymi momentami sa te, które
liczone sa wzgledem poczatku ukªadu wspóªrzednych tj. x
0
=
0
(oznacza sie je zwykle przez
m
k
)
oraz
momenty liczone wzgledem x
0
=
m
1
tj. wzgledem pierwszego momentu
liczonego od poczatku ukªadu wspóªrzednych. Te ostatnie momenty
nazywa sie
momentami centralnymi
(zwykle oznaczane sa przez
µ
k
).
UWAGA:
m
1
≡
E(x); µ
1
≡
0
B. Kamys (Instytut Fizyki UJ)
2014/15
27 / 80
DEFINICJA:
µ
2
, zwany
wariancja
lub
dyspersja
. Bedziemy go oznacza¢
przez σ
2
(
X ) lub var(X ) (stosuje sie równie» oznaczenie
D(X )).
DEFINICJA:
Pierwiastek z wariancji nazywany jest
odchyleniem
standardowym
i oznaczany σ(X ) ale czasami u»ywa sie
równie» nazwy
dyspersja
.
σ
2
(
X ) ≡ P
i
(
x
i
−
E(x))
2
·
p
i
zmienna dyskretna
σ
2
(
X ) ≡ R (x − E(x))
2
·
f (x) · dx
zmienna ciagªa
B. Kamys (Instytut Fizyki UJ)
2014/15
28 / 80
WASNOCI WARIANCJI:
Wariancja mo»e by¢ wyra»ona przez momenty
liczone wzgledem poczatku ukªadu wspóªrzednych:
σ
2
(
X ) = m
2
−
m
2
1
σ
2
(
X ) = E(X
2
) −
E
2
(
X )
DOWÓD:
Korzystamy z trzeciej wªasno±ci warto±ci oczekiwanej tj.
m
2
(
E(X )) ≡ E((X − E(X ))
2
)
=
E(X
2
−
2X · E(X ) + E
2
(
X ))
=
E(X
2
) −
2E(X ) · E(X ) + E
2
(
X )
=
E(X
2
) −
E
2
(
X )
c.b.d.o.
B. Kamys (Instytut Fizyki UJ)
2014/15
29 / 80
•
var(C) = 0
bo E(C
2
) −
E
2
(
C) = C
2
−
C
2
=
0 c.b.d.o.
•
var(C · X ) = C
2
·
var(X )
jest to nastepstwo liniowo±ci E(X), przez która deniowali±my var(X).
•
var(C
1
·
X + C
2
) =
C
2
1
·
var(X )
Przesuni¦cie skali o C
2
nie zmienia wariancji a pomno»enie zmiennej
przez C
1
wprowadza czynnik C
2
1
j.w.
•
Dla zmiennych niezale»nych var(P
i
C
i
·
X
i
) =
P
i
C
2
i
·
var(X )
B. Kamys (Instytut Fizyki UJ)
2014/15
30 / 80
DOWÓD:
Wzór ten ªatwo wyprowadzi¢ przypominajac denicje
wariancji i korzystajac z trzeciej wªasno±ci warto±ci
oczekiwanej: var(y = P
i
C
i
·
X
i
) ≡
E
(
y − E(Y ))
2
.
Po wstawieniu do wzoru oraz podniesieniu do kwadratu
otrzymamy
sume kwadratów
wyra»e« C
i
· (
X
i
−
E(X
i
))
oraz
iloczyny mieszane
tych wyra»e«.
Iloczyny mieszane znikna w chwili gdy podziaªa na nie
zewnetrzny operator warto±ci oczekiwanej (bo
E (X − E(X )) = E(X ) − E(X ) = 0).
Zaªo»enie niezale»no±ci jest potrzebne przy liczeniu warto±ci
oczekiwanej z iloczynów mieszanych (wówczas warto±¢
oczekiwana iloczynu równa jest iloczynowi warto±ci
oczekiwanych). Suma warto±ci oczekiwanych z kwadratów
wyra»e« C
i
· (
X
i
−
E(X
i
))
jest wªa±nie poszukiwanym przez
nas wyra»eniem.
B. Kamys (Instytut Fizyki UJ)
2014/15
31 / 80
Interpretacja wariancji wynika z
nierówno±ci Czebyszewa
, która mo»na
zapisa¢ nastepujaco:
P (| X − E(X ) |≥ a · σ(X )) ≤ a
−
2
TWIERDZENIE:
Prawdopodobie«stwo odchylenia warto±ci zmiennej losowej od warto±ci
oczekiwanej E(X) o a -krotna warto±¢ odchylenia standardowego jest
mniejsze lub równe od
1
a
2
.
Twierdzenie to jest sªuszne dla wszystkich rozkªadów, które posiadaja
wariancje (a wiec, co za tym idzie i warto±¢ oczekiwana). Liczba a jest
dowolna dodatnia liczba.
B. Kamys (Instytut Fizyki UJ)
2014/15
32 / 80
INTERPRETACJA WARIANCJI:
Korzystajac z nierówno±ci Czebyszewa
dochodzimy do wniosku, »e
wariancja (lub odchylenie standardowe) jest miara rozrzutu
zmiennej losowej dokoªa warto±ci oczekiwanej .
Jest to bardzo wa»ny wniosek bo w analizie danych
do±wiadczalnych
uto»samiamy warto±¢ oczekiwana pomiarów
wykonanych w obecno±ci przypadkowych niepewno±ci
pomiarowych
z warto±cia prawdziwa
mierzonej wielko±ci.
Wtedy
miara przypadkowej niepewno±ci pomiarowej jest
odchylenie standardowe
bo ono okre±la rozrzut wyników
dokoªa warto±ci prawdziwej.
B. Kamys (Instytut Fizyki UJ)
2014/15
33 / 80
Podstawowe pojecia teorii estymacji
DEFINICJA:
W statystyce sko«czony zespóª do±wiadcze« nazywamy
próba
a wnioskowanie na podstawie próby o wªasno±ciach
niesko«czonego (zwykle) zespoªu wszystkich mo»liwych
do±wiadcze« zwanego
populacja generalna
, nazywamy
estymacja
.
DEFINICJA:
Przez
próbe prosta
rozumiemy ciag niezale»nych
do±wiadcze« odnoszacych sie do tej samej populacji
generalnej.
DEFINICJA:
Statystyka
nazywamy taka funkcje zmiennych losowych
obserwowanych w próbie, która sama jest zmienna losowa.
B. Kamys (Instytut Fizyki UJ)
2014/15
34 / 80
Podstawowe pojecia teorii estymacji
DEFINICJA:
Estymatorem T
n
(
x
1
,
x
2
, ..
x
n
; θ)
parametru θ lub w skrócie
T
n
(θ)
nazywamy statystyke o rozkªadzie
prawdopodobie«stwa zale»nym od θ. Tu 'x
1
,
x
2
, ..
' oznaczaja
wyniki pomiarów próby.
DEFINICJA:
Estymacja punktowa
to taka estymacja, która polega na
oszacowaniu warto±ci danego parametru θ przez warto±¢ jego
estymatora T
n
(θ)
.
DEFINICJA:
Estymacja przedziaªowa
polega na szukaniu przedziaªu
liczbowego, wewnatrz którego z zaªo»onym
prawdopodobie«stwem le»y prawdziwa warto±¢ parametru.
B. Kamys (Instytut Fizyki UJ)
2014/15
35 / 80
Podstawowe pojecia teorii estymacji
DEFINICJA:
Estymator T
n
(θ)
, jest
zgodny
je»eli dla ka»dego > 0 jest
speªniony warunek:
lim
n→∞
P(| T
n
(θ) − θ |< ) =
1
W takim przypadku u»ywa sie czesto okre±lenia, »e
estymator speªnia prawo wielkich liczb
.
PRZYKAD:
TWIERDZENIE (Bernoulli):
Wzgledna czesto±¢
pojawiania sie zdarzenia A w ciagu n do±wiadcze« speªnia
prawo wielkich liczb czyli jest zgodnym estymatorem
prawdopodobie«stwa zdarzenia A: P(A).
lim
n→∞
P(| n
A
/
n − P(A) |< ) = 1
B. Kamys (Instytut Fizyki UJ)
2014/15
36 / 80
Podstawowe pojecia teorii estymacji
DEFINICJA:
Estymator
speªniajacy mocne prawo wielkich liczb
to
taki, który jest zbie»ny do estymowanego parametru z
prawdopodobie«stwem równym jedno±ci:
P(lim
n→∞
T
n
(θ) = θ) =
1
PRZYKAD:
TWIERDZENIE: F.P.Cantelli
udowodniª w 1917 roku, »e
wzgledna czesto±¢ pozytywnego zako«czenia do±wiadczenia;
n
A
/
n jest zbie»na do prawdopodobie«stwa zdarzenia A;
P(A) z prawdopodobie«stwem równym jedno±ci:
P(lim
n→∞
(
n
A
/
n) = P(A)) = 1
czyli wzgledna czesto±¢ speªnia mocne prawo wielkich liczb.
B. Kamys (Instytut Fizyki UJ)
2014/15
37 / 80
Podstawowe pojecia teorii estymacji
DEFINICJA:
Estymatorem nieobcia»onym
T
n
(θ)
parametru θ
nazywamy taki estymator, którego warto±¢ oczekiwana równa
jest warto±ci estymowanego parametru niezale»nie od
rozmiarów próby:
E(T
n
(θ)) = θ
DEFINICJA:
Obcia»eniem estymatora 'B
n
'
nazywamy ró»nice jego
warto±ci oczekiwanej i warto±ci estymowanego parametru:
B
n
=
E(T
n
(θ)) − θ
DEFINICJA:
Estymatorem obcia»onym
nazywamy taki estymator,
którego obcia»enie jest ró»ne od zera.
B. Kamys (Instytut Fizyki UJ)
2014/15
38 / 80
Podstawowe pojecia teorii estymacji
DEFINICJA:
Estymatorem asymptotycznie nieobcia»onym
nazywamy
taki estymator obcia»ony, którego obcia»enie zmierza do zera
gdy rozmiary próby niesko«czenie rosna:
lim
n→∞
B
n
=
0
TWIERDZENIE:
Je»eli wariancja estymatora nieobcia»onego lub
asymptotycznie nieobcia»onego da»y do zera gdy rozmiary
próby rosna nieograniczenie wówczas estymator ten jest
zgodny.
TWIERDZENIE:
Je»eli T
n
(θ)
jest zgodnym estymatorem θ i je»eli h(θ)
jest wielomianem lub ilorazem wielomianów to estymator
h(T
n
(θ))
jest estymatorem zgodnym dla h(θ).
B. Kamys (Instytut Fizyki UJ)
2014/15
39 / 80
DEFINICJA:
Ciagªa zmienna losowa X, której funkcja gesto±ci
prawdopodobie«stwa ma nastepujaca posta¢:
f (X ) =
1
√
2π B
exp
−(
X −A)
2
2B
2
nazywa sie
zmienna o rozkªadzie normalnym
N(A, B).
Warto±¢ oczekiwana:
E(X ) = A
Odchylenie standardowe:
σ(
X ) = B
Stad ªatwo wida¢, »e N(A, B) ≡ N (E(X ), σ(X ))
Dystrybuanta:
rozkªadu normalnego nie wyra»a sie przez funkcje
elementarne.
B. Kamys (Instytut Fizyki UJ)
2014/15
40 / 80
Warto zapamieta¢ nastepujace warto±ci prawdopodobie«stwa znalezienia
zmiennej X w danym przedziale:
P(E(X ) − σ(X ) < X < E(X ) + σ(X )) = 0.6827
P(E(X ) − 2σ(X ) < X < E(X ) + 2σ(X )) = 0.9545
P(E(X ) − 3σ(X ) < X < E(X ) + 3σ(X )) = 0.9973
B. Kamys (Instytut Fizyki UJ)
2014/15
41 / 80
UWAGA:
Dowolna zmienna Y o rozkªadzie normalnym mo»na
standaryzowa¢
tworzac wielko±¢ Z o rozkªadzie
standardowym normalnym N(0, 1)
:
Z = (Y − E(Y ))/σ(Y ).
Standaryzacja jest wa»na ze wzgledu na mo»liwo±¢
tablicowania zarówno funkcji gesto±ci prawdopodobie«stwa,
jak i dystrybuanty rozkªadu N(0, 1) a potem wykorzystania
faktu, »e majac zmienna X o rozkªadzie N(0, 1) mo»emy
stworzy¢ zmienna Y o rozkªadzie N(A, B) przez prosta
transformacje: Y = B ∗ X + A .
B. Kamys (Instytut Fizyki UJ)
2014/15
42 / 80
Centralne Twierdzenie Graniczne
(intuicyjne sformuªowanie)
Zmienna Z bedaca standaryzowana suma nieza-
le»nych zmiennych losowych bedzie miaªa standar-
dowy rozkªad normalny gdy liczba skªadników w
sumie da»y do niesko«czono±ci oraz w sumie nie
wystepuja zmienne o wariancjach dominujacych w
stosunku do reszty skªadników.
Wªa±nie to twierdzenie powoduje, »e rozkªad normalny jest
wyró»nionym rozkªadem - bardzo czesto stosowanym w
statystyce.
B. Kamys (Instytut Fizyki UJ)
2014/15
43 / 80
Podstawy rachunku niepewno±ci pomiarowych
Motto:
Wynik pomiaru bez podania dokªadno±ci do±wiad-
czenia (podania niepewno±ci pomiaru) jest bezwar-
to±ciowy.
DEFINICJA:
Pomiarem bezpo±rednim
nazywamy do±wiadczenie, w
którym przy pomocy odpowiednich przyrzadow mierzymy
(porównujemy z jednostka) interesujaca nas wielko±¢ zyczna.
Przykªad:
•
Pomiar dªugo±ci przedmiotu przy pomocy linijki
•
Pomiar dªugo±ci odcinka czasu przy pomocy zegara
B. Kamys (Instytut Fizyki UJ)
2014/15
44 / 80
Podstawy rachunku niepewno±ci pomiarowych
DEFINICJA:
Pomiarem po±rednim
nazywamy do±wiadczenie, w którym
wyznaczamy warto±¢ interesujacej nas wielko±ci zycznej
przez pomiar innych wielko±ci zycznych zwiazanych z dana
wielko±cia znanym zwiazkiem funkcyjnym.
Przykªad:
•
Pomiar oporu elektrycznego przewodnika: mierzymy
spadek napiecia U na przewodniku i prad I przez niego
pªynacy a opór R wyznaczamy z prawa Ohma:
R = U/I .
•
Pomiar gesto±ci stopu, z którego zbudowany jest
prostopadªo±cian: mierzymy bezpo±rednio dªugo±¢
krawedzi a, b i c prostopadªo±cianu i jego mase m a
gesto±¢ wyznaczamy ze wzoru: ρ = m/(a · b · c).
B. Kamys (Instytut Fizyki UJ)
2014/15
45 / 80
Podstawy rachunku niepewno±ci pomiarowych
DEFINICJA:
Bªedem pomiaru e
nazywano (tradycyjnie) ró»nice
pomiedzy warto±cia x uzyskana w do±wiadczeniu a prawdziwa
(nieznana) warto±cia x
0
danej wielko±ci:
e = x − x
0
UWAGA:
Zgodnie z Mi¦dzynarodow¡ Norm¡ ISO okre±lenie
bª¡d
zast¦puje si¦ okre±leniem
niepewno±¢ pomiarowa
.
Niepewno±¢ pomiaru wielko±ci x oznacza si¦ u(x) .
Podziaª niepewno±ci pomiarowych:
Niepewno±ci pomiarowe dzielimy na
•
grube
•
systematyczne
•
przypadkowe
B. Kamys (Instytut Fizyki UJ)
2014/15
46 / 80
Podstawy rachunku niepewno±ci pomiarowych
DEFINICJA:
Niepewno±ci grube
to takie, które pojawiaja sie w wyniku
pomyªki eksperymentatora (np. odczyt na niewªa±ciwej skali
przyrzadu) lub w wyniku niesprawno±ci aparatury pomiarowej.
Zwykle sa one na tyle du»e, »e mo»na je ªatwo zauwa»y¢.
Dla unikniecia takich niepewno±ci pomiarowych nale»y
starannie zorganizowa¢ proces pomiaru i u»ywa¢ do
do±wiadcze« tylko wªa±ciwie wytestowanych przyrzadów.
B. Kamys (Instytut Fizyki UJ)
2014/15
47 / 80
Podstawy rachunku niepewno±ci pomiarowych
DEFINICJA:
Niepewno±ci systematyczne
to takie, które podczas
wykonywania pomiaru systematycznie przesuwaja wyniki
pomiarów w jedna strone w stosunku do prawdziwej warto±ci.
Moga mie¢ one ró»ne przyczyny. Najcze±ciej to:
•
Niewªa±ciwy sposób przeprowadzania pomiaru
(np.
Bªad paralaksy
)
•
Stosowanie zªych przyrzadów
(np. waga szalkowa o ró»nej dªugo±ci ramion)
•
Stosowanie nieprzemy±lanej metody (patrz poni»ej)
B. Kamys (Instytut Fizyki UJ)
2014/15
48 / 80
Podstawy rachunku niepewno±ci pomiarowych
Przykªad:
Przy pomiarze oporu mo»emy zastosowa¢ dwa ró»ne
schematy podªaczenia woltomierza i amperomierza:
V
A
Rysunek:
Schemat pierwszy: Woltomierz podªaczony równolegle
do opornika a szeregowo do nich amperomierz.
Systematycznie
zawy»amy warto±¢ pradu I a wiec zani»amy opór.
V
A
Rysunek:
Schemat drugi: Woltomierz podªaczony równolegle do
ukªadu szeregowo poªaczonych opornika i amperomierza.
Systematycznie zawy»amy warto±¢ napiecia U a wiec zawy»amy
opór.
B. Kamys (Instytut Fizyki UJ)
2014/15
49 / 80
Podstawy rachunku niepewno±ci pomiarowych
Niepewno±ci systematyczne sa trudne do zauwa»enia i oszacowania.
Dla ich unikniecia stosuje sie:
•
staranne przemy±lenie metody pomiaru w poszukiwaniu mo»liwych
¹ródeª niepewno±ci systematycznych i wybór metody, która nie jest
nimi obarczona, np. opór w powy»szym przykªadzie mo»na mierzy¢
metoda mostka.
•
zmiane metody pomiaru , aby wyeliminowa¢ ukryte, niekontrolowane
¹ródªa niepewno±ci systematycznych. Na przykªad, wa»ne staªe
zyczne takie jak predko±¢ ±wiatªa c byªy wielokrotnie mierzone
ró»nymi metodami, gªównie po to aby upewni¢ sie, »e uniknieto
niepewno±ci systematycznych,
•
pomiary wzgledne polegajace na tym, »e mierzymy równocze±nie, ta
sama metoda dwie wielko±ci - jedna dobrze znana a druga - te, która
chcemy zmierzy¢.
B. Kamys (Instytut Fizyki UJ)
2014/15
50 / 80
Podstawy rachunku niepewno±ci pomiarowych
DEFINICJA:
Niepewno±ci przypadkowe
to takie, które zmieniaja sie od
pomiaru do pomiaru, powodujac odchylenia od warto±ci
prawdziwej zarówno w dóª jak i w gór¦.
Zakªada sie, »e spowodowane sa one przez wiele
niezale»nych przyczyn o porównywalnym znaczeniu.
Metody statystyki pozwalaja na oszacowanie tego typu
efektów zarowno jako±ciowo jak i ilo±ciowo. Nie mówia
jednak nic o niepewno±ciach systematycznych czy grubych.
Dlatego dalsze rozwa»ania beda dotyczyªy
tylko niepewno±ci przypadkowych .
B. Kamys (Instytut Fizyki UJ)
2014/15
51 / 80
Podstawy rachunku niepewno±ci pomiarowych
Rozkªad niepewno±ci przypadkowych
Rozkªad niepewno±ci przypadkowej u
to N(0, σ(u)) czyli
f(u) =
1
√
2π σ(u)
exp
−
u
2
2σ
2
(
u)
bo gdy mamy do czynienia tylko z niepewno±ciami
przypadkowymi wówczas:
•
Sa speªnione zaªo»enia centralnego twierdzenia
granicznego a wiec rozkªad niepewno±ci pomiarowych
jest rozkªadem normalnym.
•
Warto±¢ oczekiwana niepewno±ci przypadkowej u znika
(z zaªo»enia równe prawdopodobie«stwo odchylenia w
góre i w dóª w stosunku do prawdziwej warto±ci
mierzonej wielko±ci).
•
Miara wielko±ci niepewno±ci przypadkowej jest
odchylenie standardowe rozkªadu niepewno±ci: σ(u).
B. Kamys (Instytut Fizyki UJ)
2014/15
52 / 80
Podstawy rachunku niepewno±ci pomiarowych
Rozkªad pomiarów obarczonych niepewno±ciami
Rozkªad pomiarów:
Pomiary przeprowadzane w obecno±ci jedynie
niepewno±ci przypadkowych maja rozkªad N (x
0
, σ(
u)) bo
wynik pomiaru x jest przesuniety od prawdziwej warto±ci x
0
o
niepewno±¢ przypadkow¡ u:
x = x
0
+
u
a transformacja rozkªadu f (u) do g(x) daje wzór:
g(x) =
1
√
2π σ(u)
exp
−(
x−x
0
)
2
2σ
2
(
u)
.
B. Kamys (Instytut Fizyki UJ)
2014/15
53 / 80
Podstawy rachunku niepewno±ci pomiarowych
Rozkªad pomiarów obarczonych niepewno±ciami
WNIOSKI:
Z poni»szych faktów wynika, »e:
szukanie prawdziwej warto±ci mierzonej wielko±ci i
jej niepewno±ci to estymacja warto±ci oczekiwanej
i odchylenia standardowego pomiarów
•
Warto±¢ prawdziwa mierzonej wielko±ci jest równa
warto±ci oczekiwanej pomiarów (je»eli sa tylko
niepewno±ci przypadkowe).
•
Rozrzut pomiarów dokoªa warto±ci prawdziwej jest
okre±lony przez odchylenie standardowe σ(u) rozkªadu
niepewno±ci przypadkowych.
•
Miara niepewno±ci pojedynczego pomiaru jest
odchylenie standardowe pomiarów.
B. Kamys (Instytut Fizyki UJ)
2014/15
54 / 80
Podstawy rachunku niepewno±ci pomiarowych
Estymator warto±ci oczekiwanej
Estymator E(x)
to ±rednia arytmetyczna niezale»nych pomiarów wielko±ci
x. Bedziemy ja oznacza¢ przez x :
T
n
(
E(x)) ≡ x =
1
n
P
n
i=1
x
i
•
Koªmogorow pokazaª, »e x speªnia mocne prawo
wielkich liczb a wiec oczywi±cie jest zgodny,
•
Estymator x jest nieobcia»ony.
E(
1
n
P
i
x
i
) =
1
n
P
i
E(x
i
) =
1
n
(
n · E(x)) = E(x) c.b.d.o.
Tu wykorzystano fakt, »e wszystkie warto±ci oczekiwane sa
sobie równe E(x
i
) =
E(x).
•
Mo»na pokaza¢, »e x jest najbardziej efektywnym
estymatorem E(x).
B. Kamys (Instytut Fizyki UJ)
2014/15
55 / 80
Podstawy rachunku niepewno±ci pomiarowych
Estymator warto±ci oczekiwanej
TWIERDZENIE:
Estymator x warto±ci oczekiwanej E(x) ma rozkªad
normalny N
E(x),
σ(
x)
√
n
gdzie n jest liczba pomiarów w
próbie.
WNIOSKI:
•
Odchylenie standardowe ±redniej arytmetycznej x jest
√
n - krotnie mniejsze od odchylenia standardowego
pojedynczego pomiaru.
•
Odchylenie standardowe σ(x) czyli
niepewno±¢
pomiarowa ±redniej arytmetycznej u(¯x)
charakteryzuje dokªadno±¢ wyznaczenia prawdziwej
warto±ci x w danym konkretnym pomiarze
skªadajacym sie z n niezale»nych do±wiadcze«.
•
Aby opisa¢ dokªadno±¢ metody pomiarowej
podajemy
niepewno±¢ pomiarow¡ pojedynczego
pomiaru
tj. u(x) ≡ σ(x) .
B. Kamys (Instytut Fizyki UJ)
2014/15
56 / 80
Podstawy rachunku niepewno±ci pomiarowych
Estymator odchylenia standardowego
Estymator S(x):
S(x) ≡
q
1
n−1
P
n
i=1
(
x
i
−
x)
2
Jest to
zgodny, asymptotycznie nieobcia»ony
estymator.
ZALECA SI STOSOWANIE TEGO ESTYMATORA
Estymator s(x):
s(x) ≡
q
1
n
P
n
i=1
(
x
i
−
x)
2
Jest to
zgodny, asymptotycznie nieobcia»ony i najbardziej
efektywny
estymator
Estymator S(x):
S(x) ≡
q
n−1
2
Γ(
n−1
2
)
Γ(
n
2
)
·
S(x)
Jest to
zgodny i nieobcia»ony
estymator
B. Kamys (Instytut Fizyki UJ)
2014/15
57 / 80
Podstawy rachunku niepewno±ci pomiarowych
Estymator odchylenia standardowego
UWAGA:
Wspóªczynnik k
n
o który ró»ni sie S(x) od S(x) jest
znaczaco ró»ny od 1.0
tylko dla maªych prób
i mo»e by¢ w
przybli»eniu zastapiony przez wstawienie do wzoru na S(X )
zamiast 1/(n − 1) czynnika 1/(n − 1.45).
n
k
n
q
n−1
n−1.45
3 1.1284
1.1359
4 1.0853
1.0847
5 1.0640
1.0615
6 1.0506
1.0482
7 1.0423
1.0397
10 1.0280
1.0260
15 1.0181
1.0165
20 1.0134
1.0121
25 1.0104
1.0095
50 1.0051
1.0046
B. Kamys (Instytut Fizyki UJ)
2014/15
58 / 80
Podstawy rachunku niepewno±ci pomiarowych
KONWENCJA:
Stosuje sie nastepujaca
konwencje zapisu wyników
,
gdzie jako miar¦ niepewno±ci pomiaru podaje si¦
niepewno±¢
standardow¡ u(x) ≡ S(¯x)
.
•
Pozostawia sie tylko
dwie cyfry znaczace
standardowej niepewno±ci pomiarowej, np. 0,023.
•
Wynik pomiaru obliczamy tak aby wyznaczy¢ jedno
miejsce dziesietne dalej ni» miejsce dziesietne, na
którym zaokraglono niepewno±¢ pomiarow¡, a
nastepnie zaokraglamy do tego samego miejsca
dziesietnego, do którego wyznaczono niepewno±¢
pomiarow¡, np. zamiast 1,9024 bierzemy 1,902.
•
Wynik wraz z niepewno±ci¡ pomiarow¡ podajemy w
ten sposób, »e
po wypisaniu wyniku dopisujemy
w nawiasie dwie cyfry znacz¡ce reprezentuj¡ce
niepewno±¢ pomiaru i podajemy jednostk¦
, np.
m = 1,902(23) kg
lub
m = 1,902(0,023) kg
B. Kamys (Instytut Fizyki UJ)
2014/15
59 / 80
Podstawy rachunku niepewno±ci pomiarowych
KONWENCJA (c.d.):
•
Stosuje si¦ równie» zapis:
x = (wynik(x) ± U(x)) jednostka(x)
, gdzie
U(x) ≡ k · u(x)
tzw.
niepewno±¢ rozszerzona
.
k przyjmuje warto±ci 2 ≤ k ≤ 3 przy czym
domy±lnie, tzn. je»eli nie podaje si¦ tego jawnie,
przyjmuje si¦ k = 2.
•
UWAGA: ten zapis jest identyczny jak zapis stosowany
dawniej (przed przyj¦ciem aktualnej konwencji zapisu)
ale wtedy podawaªo si¦
standardow¡ niepewno±¢ u(x)
zamiast
rozszerzonej niepewno±ci U(x) ≡ k · u(x)
.
•
Zapis przykªadowy przytaczanego powy»ej wyniku:
masa = (1,902 ± 0.046) kg
.
B. Kamys (Instytut Fizyki UJ)
2014/15
60 / 80
Podstawy rachunku niepewno±ci pomiarowych
UWAGA:
Zastosowanie konwencji, w której zapisujemy wynik i jego
niepewno±¢ w formie: (wynik ± niepewno±¢ pomiaru)
mo»e prowadzi¢ do nieporozumienia, gdy nie napiszemy
wyra¹nie, »e stosujemy now¡ konwencj¦ i »e jako
wspóªczynnik rozszerzenia niepewno±ci
bierzemy
k = 2
.
Zaleca si¦ wi¦c stosowanie zapisu, w którym podaje si¦
w nawiasie 2 cyfry znacz¡ce standardowej niepewno±ci
pomiarowej. W przeciwnym wypadku nale»y wyra¹nie
zaznaczy¢, »e podajemy rozszerzon¡ niepewno±¢
standardow¡ oraz wypisa¢ warto±¢ k.
B. Kamys (Instytut Fizyki UJ)
2014/15
61 / 80
Podstawy rachunku niepewno±ci pomiarowych
UWAGA:
Poniewa» omawiana metoda szacowania niepewno±ci opiera
si¦ o statystyczny rozrzut pomiarów rz¡dzony rozkªadem
Gaussa, to
•
Niepewno±¢ standardowa
pomiaru okre±la przedziaª
warto±ci mierzonej wielko±ci gdzie z
prawdopodobie«stwem ≈ 0.68 znajduje si¦ prawdziwa
warto±¢ mierzonej wielko±ci.
•
Rozszerzona niepewno±¢ z czynnikiem rozszerzenia
k=2
okre±la przedziaª, gdzie z
prawdopodobie«stwem ≈ 0.95 znajduje si¦ prawdziwa
warto±¢.
B. Kamys (Instytut Fizyki UJ)
2014/15
62 / 80
Podstawy rachunku niepewno±ci pomiarowych
Metoda A
szacowania niepewno±ci pomiarowych to wg normy ISO
opisane powy»ej wnioskowanie o niepewno±ci pomiaru
z rozrzutu statystycznego wyników pomiaru
Metoda B
stosuje si¦, gdy nie mo»emy takiego rozrzutu zaobserwowa¢ ,
np. gdy
•
Dziaªka skali przyrz¡du pomiarowego jest wi¦ksza od
obserwowanego rozrzutu,
•
Pomiar mo»na wykona¢ tylko jednokrotnie bo, np.
towarzyszy mu zniszczenie badanego obiektu,
•
itp.
B. Kamys (Instytut Fizyki UJ)
2014/15
63 / 80
Podstawy rachunku niepewno±ci pomiarowych
W metodzie B:
•
Szukamy takiego przedziaªu [a, b] warto±ci mierzonej
wielko±ci x, »e wszystkie warto±ci x ∈ [a, b] (np.
dªugo±¢ [a, b] to wielko±¢ dziaªki skali przyrz¡du).
•
Zakªadamy funkcj¦ g¦sto±ci prawdopodobie«stwa
zmiennej x; najcz¦±ciej zakªada si¦ jednostajny rozkªad:
f (x) = 1/(b − a).
•
Odchylenie standardowe tej wielko±ci bierzemy jako
warto±¢ niepewno±ci standardowej, np. dla rozkªadu
jednostajnego
u(x) ≡ σ(x) = (b − a)/(2
√
3).
UWAGA:
Poniewa» (b − a)/2 ≡ ∆x, gdzie ∆x to (tradycyjnie) tzw.
bª¡d maksymalny
wi¦c wtedy
standardowa niepewno±¢
u(x) = ∆x/
√
3.
B. Kamys (Instytut Fizyki UJ)
2014/15
64 / 80
Rozkªad liczby pozytywnie zako«czonych do±wiadcze«
TWIERDZENIE:
Je»eli prawdopodobie«stwo zrealizowania sie danego
zdarzenia losowego w pojedynczym do±wiadczeniu jest
równe p to liczba k zrealizowanych zdarze« w N
niezale»nych do±wiadczeniach rzadzona jest
rozkªadem
Bernoulliego
(dwumianowym, binomialnym):
P(k) =
N!
k!(N−k)!
p
k
(
1 − p)
N−k
;
k = 0, 1, ..N
atwo mo»na pokaza¢, »e
E(k) = N · p
σ(
k) = pN · p · (1 − p)
B. Kamys (Instytut Fizyki UJ)
2014/15
65 / 80
Rozkªad liczby pozytywnie zako«czonych do±wiadcze«
Graniczny przypadek:
czesto realizowany w zyce atomowej, jader
atomowych i czastek elementarnych to sytuacja gdy N jest
bardzo du»e
, p
bardzo maªe
a warto±¢ oczekiwana
rejestrowanych zdarze« E(k) ≡ N · p jest
staªa
.
Przykªad:
•
N - liczba radioaktywnych jader w badanej próbce,
•
p - prawdopodobie«stwo rozpadu pojedynczego
radioaktywnego jadra w jednostce czasu,
•
k - liczba rejestrowanych rozpadów w jednostce czasu
Rozkªad Poissona
jest wtedy graniczna postacia rozkªadu Bernoulliego:
P(k) =
λ
k
k!
exp(−λ)
Warto±¢ oczekiwana i odchylenie standardowe wyra»aja sie
wzorem:
E(k) = λ
σ(
k) =
√
λ
B. Kamys (Instytut Fizyki UJ)
2014/15
66 / 80
Rozkªad liczby pozytywnie zako«czonych do±wiadcze«
Liczba rejestrowanych w danym okresie czasu zdarze« k rzadzonych
powy»szymi prawami jest zmienna losowa a wiec prawdziwa liczba
zdarze« to E(k) a jej niepewno±¢ to σ(k). Nazywana jest ona
niepewno±ci¡ statystyczn¡
(tradycyjnie bª¦dem statystycznym).
ESTYMATOR prawdziwej liczby zdarze«
to liczba k zarejestrowanych
zdarze« podczas pojedynczego pomiaru:
T
n
(
E(k)) = k
ESTYMATOR niepewno±ci statystycznej:
to
u(k) ≡ T
n
(σ(
k)) =
√
k
B. Kamys (Instytut Fizyki UJ)
2014/15
67 / 80
Rozkªad liczby pozytywnie zako«czonych do±wiadcze«
POZORNY PARADOKS:
Im dªu»ej mierzymy tym niepewno±¢ liczby
zarejestrowanych zdarze« jest wieksza.
WYTUMACZENIE:
Istotna jest statystyczna niepewno±¢
wzgledna
u
r
(
k) a nie bezwzgledna u(k):
u
r
(
k) ≡ u(k)/k =
1
√
k
NOMENKLATURA:
Pomiar z maª¡ wzgledn¡ niepewno±ci¡ statystyczn¡
to pomiar z
dobra statystyka
a z du»¡ wzgledn¡
niepewno±ci¡ statystyczn¡ to pomiar ze
zªa statystyka
.
UWAGA:
Nale»y zwraca¢ uwage, »e
niepewno±¢ statystyczna ma
identyczny wymiar jak liczba zdarze«, tj. wymiar
odwrotny do czasu
mimo, »e ilo±ciowo jest pierwiastkiem z
liczby zdarze«.
B. Kamys (Instytut Fizyki UJ)
2014/15
68 / 80
Rozkªad liczby pozytywnie zako«czonych do±wiadcze«
W praktyce interesuje nas obok odpowiedzi na pytanie:
Ile zdarze« zachodzi w okre±lonym czasie ?
równie» odpowied¹ na pytanie:
Ile zachodzi zdarze« DANEGO TYPU ?
PRZYKAD:
Rejestrujemy produkty reakcji jadrowej. Chcemy wiedzie¢
nie tylko ile reakcji zachodzi ale tak»e ile jest produktów
posiadajacych okre±lona energie.
PYTANIA:
1
Jakim rozkªadem rzadzona jest liczba zdarze« w ka»dym
przedziale ('kanale') energii?
2
Co by sie staªo gdyby±my dodali liczby zdarze« z kilku
sasiednich kanaªów (dla poprawienia 'statystyki' liczby
zdarze«) ?
B. Kamys (Instytut Fizyki UJ)
2014/15
69 / 80
Rozkªad liczby pozytywnie zako«czonych do±wiadcze«
Korzystamy z twierdzenia:
TWIERDZENIE:
Rozkªad prawdopodobie«stwa sumy sko«czonej liczby
niezale»nych skªadników, z których ka»dy rzadzony jest
rozkªadem Poissona o parametrze λ
i
jest równie» rozkªadem
Poissona ale o nowym parametrze λ = P
i
λ
i
.
ODPOWIED na 1 pytanie:
Liczba zdarze« w ka»dym kanale jest rzadzona
rozkªadem Poissona ale ka»dy z tych rozkªadów ma zwykle
ró»ny parametr λ
i
.
ODPOWIED na 2 pytanie:
Liczba zdarze« w kilku wysumowanych
kanaªach k = P
i
k
i
bedzie rzadzona rozkªadem Poissona z
parametrem λ, którego estymator jest równy
T
n
(λ ≡
E(k)) = P
i
k
i
.
B. Kamys (Instytut Fizyki UJ)
2014/15
70 / 80
DEFINICJA:
Je»eli w do±wiadczeniu mierzymy wielko±ci X
1
,
X
2
, ..,
X
N
a
nastepnie wyliczamy warto±¢ funkcji Y = Y(X
1
,
X
2
, ..,
X
N
)
to taka procedure nazywamy
pomiarem po±rednim
.
ESTYMATOR:
Estymatorem E(Y) pomiaru po±redniego
jest warto±¢
funkcji Y wyliczona dla argumentów, które sa estymatorami
prawdziwych warto±ci X
1
,
X
2
, ..
X
N
tzn. dla ±rednich
arytmetycznych X
1
,
X
2
, ...,
X
N
:
T
n
(
E(Y (X
1
,
X
2
, ..
X
N
))) =
Y (X
1
,
X
2
, ...,
X
N
)
lub inaczej
E(Y (X
1
,
X
2
, ..
X
N
)) ≈
Y (X
1
,
X
2
, ...,
X
N
)
B. Kamys (Instytut Fizyki UJ)
2014/15
71 / 80
Niepewno±¢ pomiaru po±redniego
ESTYMATOR:
niepewno±ci pomiaru po±redniego, tzw.
zªo»ona
niepewno±¢ standardowa
(tradycyjnie:
bªad ±redni
kwadratowy
) liczy sie nastepujaco (UWAGA: wzory s¡
sªuszne przy zaªo»eniu, »e pomiary X
1
,
X
2
, ..,
X
N
byªy
wykonywane niezale»nie odpowiednio n
1
,
n
2
, ..,
n
N
razy):
σ(
Y ) ≈
s
N
P
i=1
∂
Y
∂
X
i
2
X
i
=
X
i
· σ
2
(
X
i
)
UWAGA:
•
X
1
,
X
2
, ..
X
N
to ró»ne wielko±ci a nie kolejne pomiary
wielko±ci "X ",
•
Pochodne liczone wzgledem 'X
i
' to pochodne
czastkowe tzn. liczone przy zaªo»eniu, »e pozostaªe
zmienne 'X
j6=i
' sa ustalone,
•
Zamiast wariancji zmiennej σ
2
(
X
i
)
u»ywa sie jej
estymatora tzn. S
2
(
X
i
)
(n
i
- krotnie mniejszego od
estymatora S
2
(
X
i
)).
B. Kamys (Instytut Fizyki UJ)
2014/15
72 / 80
Bªad maksymalny pomiaru po±redniego
to tradycyjne poj¦cie, które
stosowano, gdy nie mo»na byªo oszacowa¢ niepewno±ci
pomiaru bezpo±redniego z rozrzutu wyników. Liczono go wg
poni»szego wzoru, tzn.
metoda ró»niczki zupeªnej
.
∆(
Y ) ≈
N
P
i=1
|
∂
Y
∂
X
i
| · ∆(
X
i
)
Tu moduªy pochodnych sa wyliczane dla jednokrotnie
zmierzonych wielko±ci X
i
a symbol ∆(X
i
)
oznacza
maksymalny bªad tej wielko±ci mierzonej bezpo±rednio.
B. Kamys (Instytut Fizyki UJ)
2014/15
73 / 80
Zgodnie z now¡ NORM:
Nie nale»y u»ywa¢ poj¦cia bª¦du maksymalnego lecz liczy¢
niepewno±¢ pomiaru po±redniego jako
zªo»on¡ niepewno±¢
pomiarow¡
wstawiaj¡c zamiast niepewno±ci pomiarów
bezpo±rednich otrzymanych "metod¡ A"(tzn. z rozrzutu
pomiarów) niepewno±ci oszacowane "metod¡ B".
Nale»y tak post¦powa¢ bo:
•
W odró»nieniu od zªo»onej niepewno±ci standardowej
bªad maksymalny nie ma interpretacji statystycznej
.
•
atwo mo»na pokaza¢ , »e bª¡d maksymalny obliczony
metoda ró»niczki zupeªnej
jest zawsze wiekszy od
zªo»onej niepewno±ci standardowej.
B. Kamys (Instytut Fizyki UJ)
2014/15
74 / 80
DEFINICJA:
Regresja liniowa zmiennej Y wzgledem zmiennej X
to
linia prosta Y = a · X + b z parametrami a i b dobranymi
tak aby minimalizowa¢ sume kwadratów odchyle«
wspóªrzednych (y
i
,
i = 1, 2, ..n) zespoªu n punktów o
wspóªrzednych (x
1
,
y
1
),(x
2
,
y
2
),... (x
n
,
y
n
) od tej linii:
Q
2
=
n
P
i=1
(
y
i
−
a · x
i
−
b)
2
Zmienna Y nazywana jest
zmienna obja±niana
a
zmienna X
zmienna obja±niajaca
.
UWAGA:
Regresja liniowa X wzgledem Y tj. prosta X = c · Y + d
pokrywa sie z regresja liniowa Y wzgledem X tj. prosta
Y = a · X + b znaleziona dla tego samego zespoªu punktów
do±wiadczalnych tylko wtedy gdy zwiazek pomiedzy X i Y
jest funkcyjnym zwiazkiem liniowym (a nie zale»no±cia
statystyczna).
B. Kamys (Instytut Fizyki UJ)
2014/15
75 / 80
Specyczna sytuacja:
polegajaca na tym, »e:
•
zmienna obja±niajaca X ma
zaniedbywalnie maªe
niepewno±ci
i jest traktowana jako nielosowa zmienna.
•
zmienna obja±niana Y jest zmienna losowa o
znanej
niepewno±ci standardowej
σ(
y
i
)
dla punktu o
wspóªrz¦dnych (x
i
,
y
i
)
.
Wtedy dostajemy takie estymatory parametrów regresji:
T
n
(
a) =
n
P
i=1
w
i
y
i
(
x
i
− ¯
x
w
)
n
P
i=1
w
i
(
x
i
− ¯
x
w
)
2
T
n
(
b) = ¯y
w
−
T
n
(
a) · ¯x
w
gdzie w
i
≡
1/σ
2
(
y
i
),
¯
x
w
≡
n
X
i=1
w
i
x
i
/
n
X
i=1
w
i
,
¯
y
w
≡
n
X
i=1
w
i
y
i
/
n
X
i=1
w
i
B. Kamys (Instytut Fizyki UJ)
2014/15
76 / 80
Niepewno±ci standardowe estymatorów parametrów a i b
równie» wyra»aja
sie analitycznymi wzorami:
σ (
T
n
(
a)) = 1/
v
u
u
t
n
X
i=1
w
i
(
x
i
− ¯
x
w
)
2
σ (
T
n
(
b)) =
v
u
u
u
t
1
n
P
i=1
w
i
+
¯
x
2
w
n
P
i=1
w
i
(
x
i
− ¯
x
w
)
2
Niepewno±¢ standardowa warto±ci Y przewidzianej przez linie regresji
(zale»na od x):
σ (
y (x)) =
v
u
u
u
u
t
1
n
P
i=1
w
i
+
(
x − ¯x
w
)
2
n
P
i=1
w
i
(
x
i
− ¯
x
w
)
2
B. Kamys (Instytut Fizyki UJ)
2014/15
77 / 80
Jeszcze prostsza sytuacja:
polegajaca na tym, »e:
•
zmienna obja±niana Y jest zmienna losowa o
identycznej
niepewno±ci standardowej σ(Y ) dla wszystkich
punktów.
Wtedy dostajemy proste, analityczne wzory na estymatory
parametrów regresji:
T
n
(
b) =
(
P
i
x
i
2
) · (
P
i
y
i
) − (
P
i
x
i
) · (
P
i
x
i
·
y
i
)
W
T
n
(
a) =
n · (P
i
x
i
·
y
i
) − (
P
i
x
i
) · (
P
i
y
i
)
W
W ≡ n ·
X
i
x
2
i
− (
X
i
x
i
)
2
Wska¹nik sumowania i przebiega warto±ci od 1 do n.
B. Kamys (Instytut Fizyki UJ)
2014/15
78 / 80
Niepewno±ci standardowe estymatorów parametrów a i b
równie» wyra»aja
sie analitycznymi wzorami:
T
n
(σ(
b)) = σ(Y ) ·
s
P
i
x
2
i
W
T
n
(σ(
a)) = σ(Y ) ·
r
n
W
Niepewno±¢ standardowa warto±ci Y przewidzianej przez linie regresji
(zale»na od x):
T
n
(σ(
Y (x))) = σ(Y ) ·
s 1
n
+
(
x − x)
2
P
i
(
x
i
−
x)
2
B. Kamys (Instytut Fizyki UJ)
2014/15
79 / 80
UWAGA:
W praktyce opuszcza sie symbol estymatora, zarówno dla
parametrów regresji a, b jak i dla warto±ci Y przewidzianej
przez regresje, tzn. zamiast T
n
(
a) pisze sie po prostu a, itd.
ale nale»y pamieta¢, »e sa to estymatory. W powy»szych
wzorach zastosowano nastepujace oznaczenia:
•
T
n
(σ(
Y (x)))
to estymator niepewno±ci warto±ci Y (x)
przewidzianej przez regresje,
•
σ(
Y )
to niepewno±¢ pomiarowa wspóªrzednej Y
i
z
zaªo»enia taka sama dla wszystkich punktów,
•
x
to ±rednia arytmetyczna warto±ci zmiennej
kontrolowanej wyliczona ze wspóªrzednych punktów
x
1
,
x
2
, ...
x
n
,
•
x
- to warto±¢ zmiennej kontrolowanej X , dla której
wyliczamy warto±¢ regresji liniowej Y (x) i estymator
niepewno±ci regresji liniowej T
n
(σ(
Y (x))).
B. Kamys (Instytut Fizyki UJ)
2014/15
80 / 80