STATYSTYCZNE METODY OPRACOWANIA
POMIARÓW I
B. Kamys 2007/08
B. Kamys
(Instytut Fizyki UJ)
2007/08
1 / 78
Podstawy teorii prawdopodobieństwa
DEFINICJA:
Zbiór zdarzeń elementarnych
- zbiór takich zdarzeń, które
sie¸ wzajemnie wykluczaja¸ oraz wyczerpuja¸ wszystkie
możliwości (tzn. w każdym możliwym przypadku
przynajmniej jedno z nich musi zachodzić).
DEFINICJA:
Zdarzeniem
jest dowolny podzbiór zdarzeń elementarnych E.
DEFINICJA:
Zdarzeniem pewnym
jest zdarzenie zawieraja¸ce wszystkie
elementy zbioru E (zachodzi zawsze).
DEFINICJA:
Zdarzeniem niemożliwym
jest zdarzenie nie zawieraja¸ce
żadnego elementu zbioru E tj. zbiór pusty ∅.
DEFINICJA:
Zdarzenie A zawiera sie
¸ w zdarzeniu B
jeżeli każde
zdarzenie elementarne należa¸ce do zbioru A należy do B:
A
⊂ B
B. Kamys
(Instytut Fizyki UJ)
2007/08
2 / 78
Podstawy teorii prawdopodobieństwa
DEFINICJA:
Zdarzenia A i B sa
¸ równe
gdy A ⊂ B i B ⊂ A.
DEFINICJA:
Suma zdarzeń A + B
to zdarzenie zawieraja¸ce te i tylko te zdarzenia elementarne,
które należa¸ do któregokolwiek ze zdarzeń A, B (suma
logiczna zbiorów zdarzeń elementarnych A
S B).
DEFINICJA:
Różnica zdarzeń A
− B
to zdarzenie zawieraja¸ce te i tylko te zdarzenia elementarne,
które należa¸ do zdarzenia A a nie należa¸ do zdarzenia B.
DEFINICJA:
Iloczyn zdarzeń A
· B
to zdarzenie zawieraja¸ce te i tylko te
zdarzenia elementarne, które należa¸ do wszystkich zdarzeń A,
B
(tzn. w je¸zyku zbiorów A
T B).
DEFINICJA:
Zdarzeniem przeciwnym do A:
A
nazywamy różnice¸
E − A .
B. Kamys
(Instytut Fizyki UJ)
2007/08
3 / 78
Podstawy teorii prawdopodobieństwa
INTUICYJNE OKREŚLENIE:
Zdarzenie losowe
to takie, o którym zwykle
nie możemy powiedzieć czy zajdzie w danych warunkach czy
też nie zajdzie.
DEFINICJA:
Zdarzeniem losowym
- nazywamy zdarzenie spełniaja¸ce
poniższe warunki:
1
W zbiorze zdarzeń losowych znajduje sie¸ zdarzenie
pewne
oraz zdarzenie niemożliwe.
2
Jeżeli zdarzenia A
1
, A
2
, ... w ilości skończonej lub
przeliczalnej sa¸ zdarzeniami losowymi to ich iloczyn i ich
suma
sa¸ również zdarzeniami losowymi.
3
Jeżeli A
1
i A
2
sa¸ zdarzeniami losowymi to ich różnica
jest również zdarzeniem losowym.
B. Kamys
(Instytut Fizyki UJ)
2007/08
4 / 78
Podstawy teorii prawdopodobieństwa
DEFINICJA:
Zmienna
¸ losowa
¸
nazywamy jednoznaczna¸ funkcje¸
rzeczywista¸ X (e) określona¸ na zbiorze E zdarzeń
elementarnych taka¸, że każdemu przedziałowi wartości funkcji
X
odpowiada zdarzenie losowe.
DEFINICJA:
Zmienna losowa
typu skokowego (dyskretnego)
to taka,
która przyjmuje tylko co najwyżej przeliczalny zbiór wartości.
DEFINICJA:
Zmienna losowa
typu cia
¸głego
- może przyjmować dowolne
wartości od minus do plus nieskończoności.
B. Kamys
(Instytut Fizyki UJ)
2007/08
5 / 78
Podstawy teorii prawdopodobieństwa
DEFINICJA:
Definicja prawdopodobieństwa
Aksjomat 1:
Każdemu zdarzeniu losowemu przyporza¸dkowana jest
jednoznacznie nieujemna liczba rzeczywista zwana
prawdopodobieństwem.
Aksjomat 2:
Prawdopodobieństwo zdarzenia pewnego jest równe jedności.
Aksjomat 3:
Jeżeli zdarzenie losowe Z jest suma¸ skończonej lub
przeliczalnej liczby rozła
¸cznych
zdarzeń losowych Z
1
,Z
2
,..
to prawdopodobieństwo zrealizowania sie¸ zdarzenia Z jest
równe sumie prawdopodobieństw zdarzeń Z
1
,Z
2
, ..
Aksjomat 4:
Prawdopodobieństwo warunkowe
zdarzenia A pod
warunkiem, że zachodzi zdarzenie B; P(A | B) wyraża sie¸
wzorem:
P(A | B) =
P(A·B)
P(B)
Prawdopodobieństwo to jest nieokreślone, gdy
prawdopodobieństwo zdarzenia B wynosi zero.
B. Kamys
(Instytut Fizyki UJ)
2007/08
6 / 78
Podstawy teorii prawdopodobieństwa
Własności prawdopodobieństwa
Zdarzenie przeciwne do A
:
P(A) = 1 − P(A)
Dowód:
A + A = E a wie¸c P(A + A) = P(E) = 1,
z drugiej strony A i A wykluczaja
¸ sie¸ wie¸c
P(A + A) = P(A) + P(A).
Sta
¸d P(A) = P(E) − P(A) czyli P(A) = 1 − P(A) c.b.d.o.
Zdarzenie niemożliwe
:
P(∅) = 0
Dowód:
E i ∅ wykluczaja¸ sie¸ wie¸c P(E + ∅) = P(E) + P(∅) oraz
E + ∅ = E a wie¸c P(E + ∅) = P(E), czyli P(∅) = 0
c.b.d.o.
B. Kamys
(Instytut Fizyki UJ)
2007/08
7 / 78
Podstawy teorii prawdopodobieństwa
Własności prawdopodobieństwa
Zdarzenie A zawiera sie¸ w B
:
P(A) ≤ P(B)
Dowód: P(B) = P(A + (A · B)) = P(A) + P(A · B) ≥ P(A)
c.b.d.o.
Dowolne zdarzenie losowe
:
0
≤ P(A) ≤ 1
Dowód: Dla każdego zdarzenia jest prawdziwe:
∅ ⊂ A + ∅ = A = A · E ⊂ E
a wie¸c prawdopodobieństwa zdarzeń ∅, A i E spełniaja
¸:
0 ≤ P(A) ≤ 1
c.b.d.o.
B. Kamys
(Instytut Fizyki UJ)
2007/08
8 / 78
Podstawy teorii prawdopodobieństwa
Własności prawdopodobieństwa
Suma dowolnych zdarzeń A + B
:
P(A + B) = P(A) + P(B) − P(A · B)
Dowód:
Zarówno A + B jak i B możemy zapisać jako sumy rozła
¸cznych
(wykluczaja
¸cych sie¸) zdarzeń:
A + B
=
A + (B − A · B)
oraz
B
=
A · B + (B − A · B),
stosujemy aksjomat nr 3 definicji prawdopodobieństwa,
P(A + B)
=
P(A) + P(B − A · B),
P(B)
=
P(A · B) + P(B − A · B)
odejmujemy stronami: P(A + B) = P(A) + P(B) − P(A · B)
c.b.d.o.
B. Kamys
(Instytut Fizyki UJ)
2007/08
9 / 78
Podstawy teorii prawdopodobieństwa
Własności prawdopodobieństwa
Iloczyn zdarzeń A · B
:
P(A · B) = P(B) · P(A | B) = P(A) · P(B | A)
Dowód:
Wynika to automatycznie z 4 aksjomatu definicji
prawdopodobieństwa.
DEFINICJA:
Zdarzenie
A jest niezależne od B
gdy P(A | B) = P(A).
TWIERDZENIE:
Jeżeli A nie zależy od B to B nie zależy od A.
Dowód:
Korzystamy z dwu wzorów na prawdopodobieństwo A · B
podanych wyżej, przy czym w pierwszym z nich uwzgle¸dniamy, że
A jest niezależne od B. Wówczas z porównania obu wzorów
dostajemy P(B | A) = P(B).
c.b.d.o.
B. Kamys
(Instytut Fizyki UJ)
2007/08
10 / 78
Podstawy teorii prawdopodobieństwa
Własności prawdopodobieństwa
WKW niezależności:
P(A · B) = P(A) · P(B)
Dowód:
Wynika to automatycznie ze wzoru na prawdopodobieństwo
iloczynu zdarzeń.
c.b.d.o
Formuła całkowitego prawdopodobieństwa:
Jeżeli istnieje zbiór zdarzeń A
1
,
A
2
, ... wykluczaja
¸cych sie¸ wzajemnie i wyczerpuja¸cych
wszystkie możliwości wówczas prawdopodobieństwo
dowolnego zdarzenia B może być zapisane naste¸puja¸co:
P(B) =
P
i
P(A
i
) · P(B | A
i
)
Dowód:
B =
P
i
B · A
i
(suma rozła
¸cznych zdarzeń) a wie¸c
P(B) =
P
i
P(B · A
i
) a każdy składnik można zapisać jako
P(A
i
) · P(B | A
i
). c.b.d.o.
B. Kamys
(Instytut Fizyki UJ)
2007/08
11 / 78
Ilościowy opis zmiennych losowych
Ilościowy opis zmiennych losowych uzyskujemy stosuja¸c
•
Dystrybuante
¸
(Zwana¸ cze¸sto przez statystyków funkcja
¸ rozkładu
)
•
Rozkład prawdopodobieństwa
(Tylko dla zmiennych dyskretnych)
•
Funkcje
¸ ge
¸stości prawdopodobieństwa
(Tylko dla zmiennych
cia¸głych) oraz wielkości charakteryzuja¸ce te powyżej wymienione twory.
DEFINICJA:
Dystrybuanta
¸ F(x)
nazywamy prawdopodobieństwo tego, że
zmienna losowa X przyjmie wartość mniejsza¸ od x .
(X - to symbol zmiennej losowej a x to jej konkretna
wartość). Oczywiście dystrybuanta jest funkcja¸ x .
F (x ) ≡ P(X < x )
B. Kamys
(Instytut Fizyki UJ)
2007/08
12 / 78
Ilościowy opis zmiennych losowych
Własności dystrybuanty:
1
0
≤ F (x) ≤ 1
2
F (−∞) = 0
3
F (+∞) = 1
4
F (x ) jest niemaleja¸ca¸ funkcja¸
5
F (x ) nie posiada wymiaru
Przykład:
Dla rzutu kostka¸ do gry, gdzie jako zmienna¸ losowa¸ przyje¸to
liczbe¸ wyrzuconych punktów:
F (x ) = 0 dla x ≤ 1,
=
1/6 dla 1 < x ≤ 2,
=
2/6 dla 2 < x ≤ 3,
=
3/6 dla 3 < x ≤ 4,
=
4/6 dla 4 < x ≤ 5,
=
5/6 dla 5 < x ≤ 6,
=
1 dla x > 6
B. Kamys
(Instytut Fizyki UJ)
2007/08
13 / 78
Ilościowy opis zmiennych losowych
DEFINICJA:
Rozkład prawdopodobieństwa
: Jeżeli x
i
(i = 1, 2, ...) sa
¸
wartościami dyskretnej zmiennej losowej to rozkładem
prawdopodobieństwa nazywamy zespół prawdopodobieństw:
P(X = x
i
) = p
i
P
i
p
i
= 1
Przykład:
Rozkład prawdopodobieństwa dla rzutu kostka¸ do gry
omawianego powyżej: p
i
= 1/6 dla i = 1, 2..6.
B. Kamys
(Instytut Fizyki UJ)
2007/08
14 / 78
Ilościowy opis zmiennych losowych
DEFINICJA:
Funkcja ge
¸stości prawdopodobieństwa f(x):
f (x )dx ≡ P(x ≤ X ≤ x + dx )
Własności funkcji ge¸stości prawdopodobieństwa:
1
f (x ) ≥ 0,
2
f (x ) jest unormowana
tj.
R
+∞
−∞
f (x )dx = 1
3
f (x ) =
dF (x )
dx
4
wymiar f (x ) = wymiar (1/x )
Przykład:
Rozkład jednostajny na odcinku [a, b]:
f (x ) =
0
dla
x < a
1/(b − a)
dla
a
≤ x ≤ b
0
dla
x > b
B. Kamys
(Instytut Fizyki UJ)
2007/08
15 / 78
Funkcje zmiennej losowej
Funkcja Y zmiennej losowej X:
Y = Y (X )
jest również zmienna¸ losowa¸. Dlatego też można dla niej
określić dystrybuante¸, rozkład prawdopodobieństwa lub
funkcje¸ ge¸stości prawdopodobieństwa. Sa¸ one prosto
zwia¸zane z odpowiednimi wielkościami dla zmiennej X .
Należy rozpatrzyć niezależnie przypadek, gdy funkcja Y (X )
jest monotoniczna oraz gdy nie posiada tej własnosci
. W
pierwszym wypadku można jednoznacznie określić funkcje¸
odwrotna¸ X = X (Y ) a w drugim cały przedział wartości X
trzeba podzielić na rozła¸czne podprzedziały, w których
funkcja be¸dzie monotoniczna a wyniki dodać
(prawdopodobieństwa rozła¸cznych zdarzeń sumuja¸ sie¸).
B. Kamys
(Instytut Fizyki UJ)
2007/08
16 / 78
Funkcje zmiennej losowej
Dla monotonicznej funkcji Y = Y(X):
Dystrybuanta G(y) rosna¸cej funkcji Y(X)
wynosi:
G (y ) = F (x (y ))
Dowód:
Wychodza¸c z definicji dla Y(X) rosna¸cej:
G (y ) = P(Y < y )
=
P (X (Y ) < x )
=
F (x (y ))
B. Kamys
(Instytut Fizyki UJ)
2007/08
17 / 78
Funkcje zmiennej losowej
Dla monotonicznej funkcji Y = Y(X):
Dystrybuanta G(y) maleja¸cej funkcji Y(X)
wynosi:
G (y ) = 1 − F (x (y )) − P (x ; y = y (x ))
Dowód:
Wychodza¸c z definicji dystrybuanty
G (y ) = P(Y < y )
=
P (X (Y ) > x )
=
1
− P (X (Y ) ≤ x)
=
1
− P (X (Y ) < x) − P (X (Y ) = x)
=
1
− F (x(y )) − P (x; Y = y (x))
c.b.d .o.
B. Kamys
(Instytut Fizyki UJ)
2007/08
18 / 78
Funkcje zmiennej losowej
Rozkład prawdopodobieństwa P(y):
P(y
i
) = P(x
i
; y
i
= Y (x
i
))
bo dla
funkcji monotonicznej wartości x
i
sa¸ jednoznacznie zwia¸zane
z wartosciami y
i
.
Funkcja ge¸stości prawdopodobieństwa g(y):
g (y ) = f (x (y )) |
dx (y )
dy
|
gdzie X (Y ) jest funkcja¸ odwrotna¸ do Y (X ). Z definicji:
f (x )dx = P(x ≤ X < x + dx ) a to prawdopodobieństwo
przy jednoznacznym zwia¸zku mie¸dzy X i Y wynosi
P(y ≤ Y < y + dy ) = g (y )dy .
Iloraz nieskończenie małych przyrostów dy /dx równy jest
pochodnej z dokładnościa¸ do znaku. A wie¸c moduł przy
pochodnej pojawia sie¸ sta¸d, że przy maleja¸cej funkcji Y (X )
pochodna be¸dzie ujemna a iloraz nieskończenie małych
przyrostów jest zawsze dodatni.
B. Kamys
(Instytut Fizyki UJ)
2007/08
19 / 78
Funkcje zmiennej losowej
Przykład dla funkcji monotonicznej:
Y (X ) = aX + b ; a i b to
rzeczywiste stałe.
Rozkład prawdopodobieństwa:
P(Y = y
i
) = P(ax
i
+ b = y
i
) = P(x
i
=
y
i
−b
a
).
Dystrybuanta:
dla a > 0
G (y ) = F
x =
y −b
a
dla a < 0
G (y ) = 1 − F
x =
y −b
a
− P
x =
y −b
a
Ge¸stość prawdopodobieństwa:
g (y ) =
1
|a|
f (x =
y −b
a
) .
B. Kamys
(Instytut Fizyki UJ)
2007/08
20 / 78
Funkcje zmiennej losowej
Przykład dla funkcji niemonotonicznej:
Y (X ) = X
2
1.) Rozkład prawdopodobieństwa
wynosi:
P(y
i
) = P(X
2
= y
i
) = P(X = −
√
y
i
) + P(X = +
√
y
i
)
2.) Dystrybuanta
wynosi:
G (y ) = P(Y < y ) = P(X
2
< y )
=
P(−
√
y < X < +
√
y )
G (y ) = 0 dla y ≤ 0
G (y ) = F (
√
y ) − F (−
√
y ) dla y ≥ 0
3.) Rozkład ge¸stości prawdopodobieństwa
wynosi:
g (y ) = 0 dla y < 0
g (y ) = |
−1
2
√
y
| f (
√
y ) +
1
2
√
y
f (−
√
y )
=
1
2
√
y
(f (
√
y ) + f (−
√
y )) dla y ≥ 0
B. Kamys
(Instytut Fizyki UJ)
2007/08
21 / 78
Charakterystyki opisowe
W praktycznych zastosowaniach cze¸sto wystarcza poznanie wartości
pewnych wielkości, które charakteryzuja¸ rozkład prawdopodobieństwa
zamiast pełnej informacji o rozkładzie.
Oto najcze¸ściej stosowane:
DEFINICJA:
fraktyl x
q
(zwany również
kwantylem
) jest to taka wartość
zmiennej losowej, że prawdopodobieństwo znalezienia
mniejszych od niej wartości wynosi q:
P(X < x
q
) ≡ F (x
q
) = q
Najważniejsze fraktyle to
dolny kwartyl: x
0.25
,
górny kwartyl: x
0.75
oraz
mediana: x
0.5
.
B. Kamys
(Instytut Fizyki UJ)
2007/08
22 / 78
Charakterystyki opisowe
DEFINICJA:
Moda
(zwana również
wartościa
¸ modalna
¸
) jest to taka
wartość zmiennej losowej, dla której rozkład
prawdopodobieństwa (lub funkcja ge¸stości
prawdopodobieństwa) przyjmuje maksimum.
DEFINICJA:
Rozkłady prawdopodobieństwa posiadaja¸ce jedna¸ mode¸
zwane sa¸
jednomodalnymi
a te, które maja¸ wie¸cej niż jedna¸
-
wielomodalnymi
.
DEFINICJA:
Wartość oczekiwana
,
wartość średnia
lub
nadzieja
matematyczna
. Be¸dziemy go oznaczali przez E(X)
(stosuje sie¸ również oznaczenie M(X) lub ^
X
).
E(X ) ≡
P
i
x
i
· p
i
dla zmiennych dyskretnych,
E(X ) ≡
R x · f (x) dx
dla zmiennych cia¸głych
B. Kamys
(Instytut Fizyki UJ)
2007/08
23 / 78
Charakterystyki opisowe
INTERPRETACJA E(X):
E (X ) jest współrze¸dna¸ punktu, który
byłby środkiem masy rozkładu praw-
dopodobieństwa (lub pola pod funkcja¸
ge¸stości prawdopodobieństwa) gdyby
prawdopodobieństwa poszczególnych
wartości x
i
traktować jako masy
(lub
odpowiednio
ge¸stość
praw-
dodobieństwa jako zwykła¸ ge¸stość).
B. Kamys
(Instytut Fizyki UJ)
2007/08
24 / 78
Charakterystyki opisowe
WŁASNOŚCI E(X)
: E (X ) jest operatorem liniowym a wie¸c:
1
E (
P
i
C
i
· X
i
) =
P
i
C
i
· E (X
i
)
co w szczególnych przypadkach daje:
•
E (C ) = C
•
E (C · X ) = C · E (X )
•
E (X
1
+ X
2
) = E (X
1
) + E (X
2
)
2
Dla zmiennych niezależnych X
1
, ..., X
n
E
Q
i
X
i
=
Q
i
E
{X
i
}
UWAGA:
Warunkiem koniecznym i wystarczaja¸cym by
zmienne
były
niezależne
jest aby wspólny rozkład prawdopodobieństwa
faktoryzował sie¸:
f (X
1
, X
2
, .., X
n
) = f
1
(X
1
) · f
2
(X
2
)...f
n
(X
n
).
B. Kamys
(Instytut Fizyki UJ)
2007/08
25 / 78
Charakterystyki opisowe
Dla funkcji zmiennej X; Y = Y (X )
wartość oczekiwana E (Y ) może być
znaleziona przy pomocy rozkładu zmiennej X bez
konieczności szukania rozkładu g (y ):
E (Y ) =
P
i
y (x
i
) · p
i
,
E (Y ) =
R y (x) · f (x) · dx
odpowiednio dla zmiennej dyskretnej i dla zmiennej cia¸głej.
DEFINICJA:
Momentem rozkładu rze
¸du k wzgle
¸dem punktu x
0
,
nazywamy naste¸puja¸ca¸ wielkość:
m
k
(x
0
) ≡ E {(x − x
0
)
k
}
czyli
m
k
(x
0
) ≡
R (x − x
0
)
k
· f (x) · dx
m
k
(x
0
) ≡
P
i
(x
i
− x
0
)
k
p(x
i
)
odpowiednio dla zmiennych cia¸głych i dyskretnych.
B. Kamys
(Instytut Fizyki UJ)
2007/08
26 / 78
Charakterystyki opisowe
Najważniejszymi momentami sa¸ te, które
liczone sa¸ wzgle¸dem pocza¸tku układu współrze¸dnych tj. x
0
= 0
(oznacza sie¸ je zwykle przez
m
k
)
oraz
momenty liczone wzgle¸dem x
0
= m
1
tj. wzgle¸dem pierwszego momentu
liczonego od pocza¸tku układu współrze¸dnych. Te ostatnie momenty
nazywa sie¸
momentami centralnymi
(zwykle oznaczane sa¸ przez
µ
k
).
UWAGA:
m
1
≡ E (x);
µ
1
≡ 0
B. Kamys
(Instytut Fizyki UJ)
2007/08
27 / 78
Charakterystyki opisowe
DEFINICJA:
µ
2
, zwany
wariancja
¸
lub
dyspersja
¸
. Be¸dziemy go oznaczać
przez σ
2
(X ) lub var (X ) (stosuje sie¸ również oznaczenie
D(X )).
DEFINICJA:
Pierwiastek z wariancji nazywany jest
odchyleniem
standardowym
i oznaczany σ(X ) ale czasami używa sie¸
również nazwy
dyspersja
.
σ
2
(X ) ≡
P
i
(x
i
− E (x))
2
· p
i
zmienna dyskretna
σ
2
(X ) ≡
R (x − E (x))
2
· f (x) · dx
zmienna cia¸gła
B. Kamys
(Instytut Fizyki UJ)
2007/08
28 / 78
Charakterystyki opisowe
WŁASNOŚCI WARIANCJI:
Wariancja może być wyrażona przez momenty
liczone wzgle¸dem pocza¸tku układu współrze¸dnych:
σ
2
(X ) = m
2
− m
2
1
σ
2
(X ) = E (X
2
) − E
2
(X )
DOWÓD:
Korzystamy z trzeciej własności wartości oczekiwanej tj.
m
2
(E (X ))
≡
E ((X − E (X ))
2
)
=
E (X
2
− 2X · E (X ) + E
2
(X ))
=
E (X
2
) − 2E (X ) · E (X ) + E
2
(X )
=
E (X
2
) − E
2
(X )
c.b.d.o.
B. Kamys
(Instytut Fizyki UJ)
2007/08
29 / 78
Charakterystyki opisowe
•
var (C ) = 0
bo E (C
2
) − E
2
(C ) = C
2
− C
2
= 0 c.b.d.o.
•
var (C · X ) = C
2
· var (X )
jest to naste¸pstwo liniowości E(X), przez która
¸ definiowaliśmy var(X).
•
var (C
1
· X + C
2
) = C
2
1
· var (X )
Przesunięcie skali o C
2
nie zmienia wariancji a pomnożenie zmiennej
przez C
1
wprowadza czynnik C
2
1
j.w.
•
Dla zmiennych niezależnych
var (
P
i
C
i
· X
i
) =
P
i
C
2
i
· var (X )
B. Kamys
(Instytut Fizyki UJ)
2007/08
30 / 78
Charakterystyki opisowe
DOWÓD:
Wzór ten łatwo wyprowadzić przypominaja¸c definicje¸
wariancji i korzystaja¸c z trzeciej własności wartości
oczekiwanej: var (y =
P
i
C
i
· X
i
) ≡ E
(y − E (Y ))
2
.
Po wstawieniu do wzoru oraz podniesieniu do kwadratu
otrzymamy
sume¸ kwadratów
wyrażeń C
i
· (X
i
− E (X
i
))
oraz
iloczyny mieszane
tych wyrażeń.
Iloczyny mieszane znikna¸ w chwili gdy podziała na nie
zewne¸trzny operator wartości oczekiwanej (bo
E (X − E (X )) = E (X ) − E (X ) = 0).
Założenie niezależności jest potrzebne przy liczeniu wartości
oczekiwanej z iloczynów mieszanych (wówczas wartość
oczekiwana iloczynu równa jest iloczynowi wartości
oczekiwanych). Suma wartości oczekiwanych z kwadratów
wyrażeń C
i
· (X
i
− E (X
i
)) jest właśnie poszukiwanym przez
nas wyrażeniem.
B. Kamys
(Instytut Fizyki UJ)
2007/08
31 / 78
Charakterystyki opisowe
Interpretacja wariancji wynika z
nierówności Czebyszewa
, która¸ można
zapisać naste¸puja¸co:
P (| X − E (X ) |≥ a · σ(X )) ≤ a
−2
TWIERDZENIE:
Prawdopodobieństwo odchylenia wartości zmiennej losowej od wartości
oczekiwanej E(X) o a -krotna¸ wartość odchylenia standardowego jest
mniejsze lub równe od
1
a
2
.
Twierdzenie to jest słuszne dla wszystkich rozkładów, które posiadaja¸
wariancje¸ (a wie¸c, co za tym idzie i wartość oczekiwana¸). Liczba a jest
dowolna¸ dodatnia¸ liczba¸.
B. Kamys
(Instytut Fizyki UJ)
2007/08
32 / 78
Charakterystyki opisowe
INTERPRETACJA WARIANCJI:
Korzystaja¸c z nierówności Czebyszewa
dochodzimy do wniosku, że
wariancja (lub odchylenie standardowe) jest miara¸ rozrzutu
zmiennej losowej dokoła wartości oczekiwanej .
Jest to bardzo ważny wniosek bo w analizie danych
doświadczalnych
utożsamiamy wartość oczekiwana¸ pomiarów
wykonanych w obecności przypadkowych niepewności
pomiarowych
z wartościa¸ prawdziwa¸
mierzonej wielkości.
Wtedy
miara¸ przypadkowej niepewności pomiarowej jest
odchylenie standardowe
bo ono określa rozrzut wyników
dokoła wartości prawdziwej.
B. Kamys
(Instytut Fizyki UJ)
2007/08
33 / 78
Podstawowe poje
¸cia teorii estymacji
DEFINICJA:
W statystyce skończony zespół doświadczeń nazywamy
próba
¸
a wnioskowanie na podstawie próby o własnościach
nieskończonego (zwykle) zespołu wszystkich możliwych
doświadczeń zwanego
populacja
¸ generalna
¸
, nazywamy
estymacja
¸
.
DEFINICJA:
Przez
próbe
¸ prosta
¸
rozumiemy cia¸g niezależnych
doświadczeń odnosza¸cych sie¸ do tej samej populacji
generalnej.
DEFINICJA:
Statystyka
¸
nazywamy taka¸ funkcje¸ zmiennych losowych
obserwowanych w próbie, która sama jest zmienna¸ losowa¸.
B. Kamys
(Instytut Fizyki UJ)
2007/08
34 / 78
Podstawowe poje
¸cia teorii estymacji
DEFINICJA:
Estymatorem T
n
(x
1
, x
2
, ..x
n
; θ)
parametru θ lub w skrócie
T
n
(θ)
nazywamy statystyke¸ o rozkładzie
prawdopodobieństwa zależnym od θ. Tu ’x
1
, x
2
, ..’ oznaczaja
¸
wyniki pomiarów próby.
DEFINICJA:
Estymacja punktowa
to taka estymacja, która polega na
oszacowaniu wartości danego parametru θ przez wartość jego
estymatora T
n
(θ).
DEFINICJA:
Estymacja przedziałowa
polega na szukaniu przedziału
liczbowego, wewna¸trz którego z założonym
prawdopodobieństwem leży prawdziwa wartość parametru.
B. Kamys
(Instytut Fizyki UJ)
2007/08
35 / 78
Podstawowe poje
¸cia teorii estymacji
DEFINICJA:
Estymator T
n
(θ), jest
zgodny
jeżeli dla każdego > 0 jest
spełniony warunek:
lim
n→∞
P(| T
n
(θ) − θ |< ) = 1
W takim przypadku używa sie¸ cze¸sto określenia, że
estymator spełnia prawo wielkich liczb
.
PRZYKŁAD:
TWIERDZENIE (Bernoulli):
Wzgle¸dna cze¸stość
pojawiania sie¸ zdarzenia A w cia¸gu n doświadczeń spełnia
prawo wielkich liczb czyli jest zgodnym estymatorem
prawdopodobieństwa zdarzenia A: P(A).
lim
n→∞
P(| n
A
/n − P(A) |< ) = 1
B. Kamys
(Instytut Fizyki UJ)
2007/08
36 / 78
Podstawowe poje
¸cia teorii estymacji
DEFINICJA:
Estymator
spełniaja
¸cy mocne prawo wielkich liczb
to
taki, który jest zbieżny do estymowanego parametru z
prawdopodobieństwem równym jedności:
P(lim
n→∞
T
n
(θ) = θ) = 1
PRZYKŁAD:
TWIERDZENIE: F.P.Cantelli
udowodnił w 1917 roku, że
wzgle¸dna cze¸stość pozytywnego zakończenia doświadczenia;
n
A
/n jest zbieżna do prawdopodobieństwa zdarzenia A;
P(A) z prawdopodobieństwem równym jedności:
P(lim
n→∞
(n
A
/n) = P(A)) = 1
czyli wzgle¸dna cze¸stość spełnia mocne prawo wielkich liczb.
B. Kamys
(Instytut Fizyki UJ)
2007/08
37 / 78
Podstawowe poje
¸cia teorii estymacji
DEFINICJA:
Estymatorem nieobcia
¸żonym
T
n
(θ) parametru θ
nazywamy taki estymator, którego wartość oczekiwana równa
jest wartości estymowanego parametru niezależnie od
rozmiarów próby:
E (T
n
(θ)) = θ
DEFINICJA:
Obcia
¸żeniem estymatora ’B
n
’
nazywamy różnice¸ jego
wartości oczekiwanej i wartości estymowanego parametru:
B
n
= E (T
n
(θ)) − θ
DEFINICJA:
Estymatorem obcia
¸żonym
nazywamy taki estymator,
którego obcia¸żenie jest różne od zera.
B. Kamys
(Instytut Fizyki UJ)
2007/08
38 / 78
Podstawowe poje
¸cia teorii estymacji
DEFINICJA:
Estymatorem asymptotycznie nieobcia
¸żonym
nazywamy
taki estymator obcia¸żony, którego obcia¸żenie zmierza do zera
gdy rozmiary próby nieskończenie rosna¸:
lim
n→∞
B
n
= 0
TWIERDZENIE:
Jeżeli wariancja estymatora nieobcia¸żonego lub
asymptotycznie nieobcia¸żonego da¸ży do zera gdy rozmiary
próby rosna¸ nieograniczenie wówczas estymator ten jest
zgodny.
TWIERDZENIE:
Jeżeli T
n
(θ) jest zgodnym estymatorem θ i jeżeli h(θ)
jest wielomianem lub ilorazem wielomianów to estymator
h(T
n
(θ)) jest estymatorem zgodnym dla h(θ).
B. Kamys
(Instytut Fizyki UJ)
2007/08
39 / 78
Rozkład normalny (Gaussa)
DEFINICJA:
Cia¸gła zmienna losowa X, której funkcja ge¸stości
prawdopodobieństwa ma naste¸puja¸ca¸ postać:
f (X ) =
1
√
2π B
exp
−(X −A)
2
2B
2
nazywa sie¸
zmienna
¸ o rozkładzie normalnym
N(A, B).
Wartość oczekiwana:
E (X ) = A
Odchylenie standardowe:
σ(X ) = B
Sta¸d łatwo widać, że N(A, B) ≡ N (E (X ), σ(X ))
Dystrybuanta:
rozkładu normalnego nie wyraża sie¸ przez funkcje
elementarne.
B. Kamys
(Instytut Fizyki UJ)
2007/08
40 / 78
Rozkład normalny (Gaussa)
Warto zapamie¸tać naste¸puja¸ce wartości prawdopodobieństwa znalezienia
zmiennej X w danym przedziale:
P(E (X ) − σ(X ) < X < E (X ) + σ(X )) = 0.6827
P(E (X ) − 2σ(X ) < X < E (X ) + 2σ(X )) = 0.9545
P(E (X ) − 3σ(X ) < X < E (X ) + 3σ(X )) = 0.9973
B. Kamys
(Instytut Fizyki UJ)
2007/08
41 / 78
Rozkład normalny (Gaussa)
UWAGA:
Dowolna¸ zmienna¸ Y o rozkładzie normalnym można
standaryzować
tworza¸c wielkość Z o rozkładzie
standardowym normalnym N(0, 1)
:
Z = (Y − E (Y ))/σ(Y ).
Standaryzacja jest ważna ze wzgle¸du na możliwość
tablicowania zarówno funkcji ge¸stości prawdopodobieństwa,
jak i dystrybuanty rozkładu N(0, 1) a potem wykorzystania
faktu, że maja¸c zmienna¸ X o rozkładzie N(0, 1) możemy
stworzyć zmienna¸ Y o rozkładzie N(A, B) przez prosta¸
transformacje¸: Y = B ∗ X + A .
B. Kamys
(Instytut Fizyki UJ)
2007/08
42 / 78
Rozkład normalny (Gaussa)
Centralne Twierdzenie Graniczne
(intuicyjne sformułowanie)
Zmienna Z be¸da¸ca standaryzowana¸ suma¸ nieza-
leżnych zmiennych losowych bedzie miała standar-
dowy rozkład normalny gdy liczba składników w
sumie da¸ży do nieskończoności oraz w sumie nie
wyste¸puja¸ zmienne o wariancjach dominuja¸cych w
stosunku do reszty składników.
Właśnie to twierdzenie powoduje, że rozkład normalny jest
wyróżnionym rozkładem - bardzo cze¸sto stosowanym w
statystyce.
B. Kamys
(Instytut Fizyki UJ)
2007/08
43 / 78
Podstawy rachunku błe
¸dów
Motto:
Wynik pomiaru bez podania dokładności doświad-
czenia
(podania
niepewności
pomiaru)
jest
bezwartościowy.
DEFINICJA:
Pomiarem bezpośrednim
nazywamy doświadczenie, w
którym przy pomocy odpowiednich przyrza¸dow mierzymy
(porównujemy z jednostka¸) interesuja¸ca¸ nas wielkość fizyczna¸.
Przykład:
•
Pomiar długości przedmiotu przy pomocy linijki
•
Pomiar długości odcinka czasu przy pomocy zegara
B. Kamys
(Instytut Fizyki UJ)
2007/08
44 / 78
Podstawy rachunku błe
¸dów
DEFINICJA:
Pomiarem pośrednim
nazywamy doświadczenie, w którym
wyznaczamy wartość interesuja¸cej nas wielkości fizycznej
przez pomiar innych wielkości fizycznych zwia¸zanych z dana¸
wielkościa¸ znanym zwia¸zkiem funkcyjnym.
Przykład:
•
Pomiar oporu elektrycznego przewodnika: mierzymy
spadek napie¸cia U na przewodniku i pra¸d I przez niego
płyna¸cy a opór R wyznaczamy z prawa Ohma:
R = U/I .
•
Pomiar ge¸stości stopu, z którego zbudowany jest
prostopadłościan: mierzymy bezpośrednio długość
krawe¸dzi a, b i c prostopadłościanu i jego mase¸ m a
ge¸stość wyznaczamy ze wzoru: ρ = m/(a · b · c).
B. Kamys
(Instytut Fizyki UJ)
2007/08
45 / 78
Podstawy rachunku błe
¸dów
DEFINICJA:
Błe
¸dem pomiaru e
nazywano (tradycyjnie) różnice¸
pomie¸dzy wartościa¸ x uzyskana¸ w doświadczeniu a prawdziwa¸
(nieznana¸) wartościa¸ x
0
danej wielkości:
e = x − x
0
UWAGA:
Zgodnie z Międzynarodową Normą ISO określenie
błąd
zastępuje się określeniem
niepewność pomiarowa
.
Niepewność pomiaru wielkości x oznacza się u(x ) .
Podział niepewności pomiarowych:
Niepewności pomiarowe dzielimy na
•
grube
•
systematyczne
•
przypadkowe
B. Kamys
(Instytut Fizyki UJ)
2007/08
46 / 78
Podstawy rachunku błe
¸dów
DEFINICJA:
Niepewności grube
to takie, które pojawiaja¸ sie¸ w wyniku
pomyłki eksperymentatora (np. odczyt na niewłaściwej skali
przyrza¸du) lub w wyniku niesprawności aparatury pomiarowej.
Zwykle sa¸ one na tyle duże, że można je łatwo zauważyć.
Dla uniknie¸cia takich niepewności pomiarowych należy
starannie zorganizować proces pomiaru i używać do
doświadczeń tylko właściwie wytestowanych przyrza¸dów.
B. Kamys
(Instytut Fizyki UJ)
2007/08
47 / 78
Podstawy rachunku błe
¸dów
DEFINICJA:
Niepewności systematyczne
to takie, które podczas
wykonywania pomiaru systematycznie przesuwaja¸ wyniki
pomiarów w jedna¸ strone¸ w stosunku do prawdziwej wartości.
Moga¸ mieć one różne przyczyny. Najcze¸ściej to:
•
Niewłaściwy sposób przeprowadzania pomiaru
(np.
Bła¸d paralaksy
)
•
Stosowanie złych przyrza¸dów
(np. waga szalkowa o różnej długości ramion)
•
Stosowanie nieprzemyślanej metody (patrz poniżej)
B. Kamys
(Instytut Fizyki UJ)
2007/08
48 / 78
Podstawy rachunku błe
¸dów
Przykład:
Przy pomiarze oporu możemy zastosować dwa różne
schematy podła¸czenia woltomierza i amperomierza:
V
A
Rysunek:
Schemat pierwszy: Woltomierz podła
¸czony równolegle
do opornika a szeregowo do nich amperomierz.
Systematycznie
zawyżamy wartość pra
¸du I a wie¸c zaniżamy opór.
V
A
Rysunek:
Schemat drugi: Woltomierz podła
¸czony równolegle do
układu szeregowo poła
¸czonych opornika i amperomierza.
Systematycznie zawyżamy wartość napie¸cia U a wie¸c zawyżamy
opór.
B. Kamys
(Instytut Fizyki UJ)
2007/08
49 / 78
Podstawy rachunku błe
¸dów
Niepewności systematyczne sa¸ trudne do zauważenia i oszacowania.
Dla ich uniknie¸cia stosuje sie¸:
•
staranne przemyślenie metody pomiaru w poszukiwaniu możliwych
źródeł niepewności systematycznych i wybór metody, która nie jest
nimi obarczona, np. opór w powyższym przykładzie można mierzyć
metoda¸ mostka.
•
zmiane¸ metody pomiaru , aby wyeliminować ukryte, niekontrolowane
źródła niepewności systematycznych. Na przykład, ważne stałe
fizyczne takie jak pre¸dkość światła c były wielokrotnie mierzone
różnymi metodami, głównie po to aby upewnić sie¸, że uniknie¸to
niepewności systematycznych,
•
pomiary wzgle¸dne polegaja¸ce na tym, że mierzymy równocześnie, ta¸
sama¸ metoda¸ dwie wielkości - jedna¸ dobrze znana¸ a druga¸ - te¸, która¸
chcemy zmierzyć.
B. Kamys
(Instytut Fizyki UJ)
2007/08
50 / 78
Podstawy rachunku błe
¸dów
DEFINICJA:
Niepewności przypadkowe
to takie, które zmieniaja¸ sie¸ od
pomiaru do pomiaru, powoduja¸c odchylenia od wartości
prawdziwej zarówno w dół jak i w górę.
Zakłada sie¸, że spowodowane sa¸ one przez wiele
niezależnych przyczyn o porównywalnym znaczeniu
.
Metody statystyki pozwalaja¸ na oszacowanie tego typu
efektów zarowno jakościowo jak i ilościowo. Nie mówia¸
jednak nic o niepewnościach systematycznych czy grubych.
Dlatego dalsze rozważania be
¸da
¸ dotyczyły
tylko niepewności przypadkowych
.
B. Kamys
(Instytut Fizyki UJ)
2007/08
51 / 78
Podstawy rachunku błe
¸dów
Rozkład niepewności przypadkowych
Rozkład niepewności przypadkowej ”u”
to N(0, σ(u)) czyli
f(u) =
1
√
2π σ(u)
exp
−u
2
2σ
2
(
u)
bo gdy mamy do czynienia tylko z niepewnościami
przypadkowymi wówczas:
•
Sa¸ spełnione założenia centralnego twierdzenia
granicznego a wie¸c rozkład niepewności pomiarowych
jest rozkładem normalnym.
•
Wartość oczekiwana niepewności przypadkowej u znika
(z założenia równe prawdopodobieństwo odchylenia w
góre¸ i w dół w stosunku do prawdziwej wartości
mierzonej wielkości).
•
Miara¸ wielkości niepewności przypadkowej jest
odchylenie standardowe rozkładu niepewności: σ(u).
B. Kamys
(Instytut Fizyki UJ)
2007/08
52 / 78
Podstawy rachunku błe
¸dów
Rozkład pomiarów obarczonych niepewnościami
przypadkowymi
Rozkład pomiarów:
Pomiary przeprowadzane w obecności jedynie
niepewności przypadkowych maja¸ rozkład N (x
0
, σ(u)) bo
wynik pomiaru x jest przesunie¸ty od prawdziwej wartości x
0
o
niepewność przypadkową u:
x = x
0
+ u
a transformacja rozkładu f (u) do g (x ) daje wzór:
g (x ) =
1
√
2π σ(u)
exp
−(x−x
0
)
2
2σ
2
(
u)
.
B. Kamys
(Instytut Fizyki UJ)
2007/08
53 / 78
Podstawy rachunku błe
¸dów
Rozkład pomiarów obarczonych niepewnościami
przypadkowymi
WNIOSKI:
Z poniższych faktów wynika, że:
szukanie prawdziwej wartości mierzonej wielkości i
jej niepewności to estymacja wartości oczekiwanej
i odchylenia standardowego pomiarów
•
Wartość prawdziwa mierzonej wielkości jest równa
wartości oczekiwanej pomiarów (jeżeli sa¸ tylko
niepewności przypadkowe).
•
Rozrzut pomiarów dokoła wartości prawdziwej jest
określony przez odchylenie standardowe σ(u) rozkładu
niepewności przypadkowych.
•
Miara¸ niepewności pojedynczego pomiaru jest
odchylenie standardowe pomiarów.
B. Kamys
(Instytut Fizyki UJ)
2007/08
54 / 78
Podstawy rachunku błe
¸dów
Estymator wartości oczekiwanej
Estymator E (x )
to średnia arytmetyczna niezależnych pomiarów wielkości
x
. Be¸dziemy ja¸ oznaczać przez x :
T
n
(E (x )) ≡ x =
1
n
P
n
i =1
x
i
•
Kołmogorow pokazał, że x spełnia mocne prawo
wielkich liczb
a wie¸c oczywiście jest zgodny,
•
Estymator x jest nieobcia
¸żony
.
E (
1
n
P
i
x
i
) =
1
n
P
i
E (x
i
) =
1
n
(n · E (x )) = E (x ) c.b.d.o.
Tu wykorzystano fakt, że wszystkie wartości oczekiwane sa
¸
sobie równe E (x
i
) = E (x ).
•
Można pokazać, że x jest najbardziej efektywnym
estymatorem E (x ).
B. Kamys
(Instytut Fizyki UJ)
2007/08
55 / 78
Podstawy rachunku błe
¸dów
Estymator wartości oczekiwanej
TWIERDZENIE:
Estymator x wartości oczekiwanej E (x ) ma rozkład
normalny N
E (x ),
σ(
x )
√
n
gdzie n jest liczba¸ pomiarów w
próbie.
WNIOSKI:
•
Odchylenie standardowe średniej arytmetycznej x jest
√
n - krotnie mniejsze
od odchylenia standardowego
pojedynczego pomiaru.
•
Odchylenie standardowe σ(x ) czyli
niepewność
pomiarowa średniej arytmetycznej u(¯
x )
charakteryzuje dokładność wyznaczenia prawdziwej
wartości x w danym konkretnym pomiarze
składaja¸cym sie¸ z n niezależnych doświadczeń.
•
Aby opisać dokładność metody pomiarowej
podajemy
niepewność pomiarową pojedynczego
pomiaru
tj. u(x ) ≡ σ(x ) .
B. Kamys
(Instytut Fizyki UJ)
2007/08
56 / 78
Podstawy rachunku błe
¸dów
Estymator odchylenia standardowego
Estymator S(x):
S(x ) ≡
q
1
n−1
P
n
i =1
(x
i
− x)
2
Jest to
zgodny, asymptotycznie nieobcia¸żony
estymator.
ZALECA SIĘ STOSOWANIE TEGO ESTYMATORA
Estymator s(x):
s(x ) ≡
q
1
n
P
n
i =1
(x
i
− x)
2
Jest to
zgodny, asymptotycznie nieobcia¸żony i najbardziej
efektywny
estymator
Estymator S(x):
S(x ) ≡
q
n−1
2
Γ(
n
−1
2
)
Γ(
n
2
)
· S(x)
Jest to
zgodny i nieobcia¸żony
estymator
B. Kamys
(Instytut Fizyki UJ)
2007/08
57 / 78
Podstawy rachunku błe
¸dów
Estymator odchylenia standardowego
UWAGA:
Współczynnik k
n
o który różni sie¸ S(x ) od S(x ) jest
znacza¸co różny od 1.0
tylko dla małych prób
i może być w
przybliżeniu zasta¸piony przez wstawienie do wzoru na S(X )
zamiast 1/(n − 1) czynnika 1/(n − 1.45).
n
k
n
q
n−1
n−1.45
3
1.1284
1.1359
4
1.0853
1.0847
5
1.0640
1.0615
6
1.0506
1.0482
7
1.0423
1.0397
10
1.0280
1.0260
15
1.0181
1.0165
20
1.0134
1.0121
25
1.0104
1.0095
50
1.0051
1.0046
B. Kamys
(Instytut Fizyki UJ)
2007/08
58 / 78
Podstawy rachunku błe
¸dów
Zapis wyników pomiarów
KONWENCJA:
Stosuje sie¸ naste¸puja¸ca¸
konwencje
¸ zapisu wyników
,
gdzie jako miarę niepewności pomiaru podaje się
niepewność
standardową u(x ) ≡ S(¯
x )
.
•
Pozostawia sie¸ tylko
dwie cyfry znacza
¸ce
standardowej niepewności pomiarowej, np. 0,023.
•
Wynik pomiaru obliczamy tak aby wyznaczyć jedno
miejsce dziesie¸tne dalej niż miejsce dziesie¸tne, na
którym zaokra¸glono niepewność pomiarową, a
naste¸pnie zaokra¸glamy do tego samego miejsca
dziesie¸tnego, do którego wyznaczono niepewność
pomiarową, np. zamiast 1,9024 bierzemy 1,902.
•
Wynik wraz z niepewnością pomiarową podajemy w
ten sposób, że
po wypisaniu wyniku dopisujemy
w nawiasie dwie cyfry znaczące reprezentujące
niepewność pomiaru i podajemy jednostkę
, np.
m = 1,902(23) kg
lub
m = 1,902(0,023) kg
B. Kamys
(Instytut Fizyki UJ)
2007/08
59 / 78
Podstawy rachunku błe
¸dów
Zapis wyników pomiarów
KONWENCJA (c.d.):
•
Stosuje się również zapis:
x = (wynik(x ) ± U(x )) jednostka(x )
, gdzie
U(x ) ≡ k · u(x )
tzw.
niepewność rozszerzona
.
”k” przyjmuje wartości 2 ≤ k ≤ 3 przy czym
domyślnie, tzn. jeżeli nie podaje się tego jawnie,
przyjmuje się k = 2.
•
UWAGA: ten zapis jest identyczny jak zapis stosowany
dawniej (przed przyjęciem nowej konwencji zapisu) ale
wtedy podawało się
standardową niepewność u(x )
zamiast
rozszerzonej niepewności U(x ) ≡ k · u(x )
.
•
Zapis przykładowy przytaczanego powyżej wyniku:
masa = (1,902
± 0.046) kg
.
B. Kamys
(Instytut Fizyki UJ)
2007/08
60 / 78
Podstawy rachunku błe
¸dów
Zapis wyników pomiarów
UWAGA:
Zastosowanie konwencji, w której zapisujemy wynik i jego
niepewność w formie: (wynik ± niepewność pomiaru)
może prowadzić do nieporozumienia, gdy nie napiszemy
wyraźnie, że stosujemy nową konwencję i że jako
współczynnik rozszerzenia niepewności
bierzemy
k = 2
.
Zaleca się więc stosowanie zapisu, w którym podaje się
w nawiasie 2 cyfry znaczące standardowej niepewności
pomiarowej. W przeciwnym wypadku należy wyraźnie
zaznaczyć, że podajemy rozszerzoną niepewność
standardową oraz wypisać wartość k.
B. Kamys
(Instytut Fizyki UJ)
2007/08
61 / 78
Podstawy rachunku błe
¸dów
Zapis wyników pomiarów
UWAGA:
Ponieważ omawiana metoda szacowania niepewności opiera
się o statystyczny rozrzut pomiarów rządzony rozkładem
Gaussa, to
•
Niepewność standardowa
pomiaru określa przedział
wartości mierzonej wielkości gdzie z
prawdopodobieństwem ≈ 0.68 znajduje się prawdziwa
wartość mierzonej wielkości.
•
Rozszerzona niepewność z czynnikiem rozszerzenia
k=2
określa przedział, gdzie z
prawdopodobieństwem ≈ 0.95 znajduje się prawdziwa
wartość.
B. Kamys
(Instytut Fizyki UJ)
2007/08
62 / 78
Podstawy rachunku błe
¸dów
Zapis wyników pomiarów
Metoda A
szacowania niepewności pomiarowych to wg normy ISO
opisane powyżej wnioskowanie o niepewności pomiaru
z rozrzutu statystycznego wyników pomiaru
Metoda B
stosuje się, gdy nie możemy takiego rozrzutu zaobserwować ,
np. gdy
•
Działka skali przyrządu pomiarowego jest większa od
obserwowanego rozrzutu,
•
Pomiar można wykonać tylko jednokrotnie bo, np.
towarzyszy mu zniszczenie badanego obiektu,
•
itp.
B. Kamys
(Instytut Fizyki UJ)
2007/08
63 / 78
Podstawy rachunku błe
¸dów
Zapis wyników pomiarów
W metodzie B:
•
Szukamy takiego przedziału [a, b] wartości mierzonej
wielkości x , że wszystkie wartości x ∈ [a, b] (np.
długość [a, b] to wielkość działki skali przyrządu).
•
Zakładamy funkcję gęstości prawdopodobieństwa
zmiennej x ; najczęściej zakłada się jednostajny rozkład:
f (x ) = 1/(b − a).
•
Odchylenie standardowe tej wielkości bierzemy jako
wartość niepewności standardowej, np. dla rozkładu
jednostajnego
u(x ) ≡ σ(x ) = (b − a)/(2
√
3).
UWAGA:
Ponieważ (b − a)/2 ≡ ∆x , gdzie ∆x to (tradycyjnie) tzw.
błąd maksymalny
więc wtedy
standardowa niepewność
u(x ) = ∆x /
√
3.
B. Kamys
(Instytut Fizyki UJ)
2007/08
64 / 78
Rozkład liczby pozytywnie zakończonych doświadczeń
TWIERDZENIE:
Jeżeli prawdopodobieństwo zrealizowania sie¸ danego
zdarzenia losowego w pojedynczym doświadczeniu jest
równe p to liczba k zrealizowanych zdarzeń w N
niezależnych
doświadczeniach rza¸dzona jest
rozkładem
Bernoulliego
(dwumianowym, binomialnym):
P(k) =
N!
k!(N−k)!
p
k
(1 − p)
N−k
; k = 0, 1, ..N
Łatwo można pokazać, że
E (k) = N · p
σ(k) =
pN · p · (1 − p)
B. Kamys
(Instytut Fizyki UJ)
2007/08
65 / 78
Rozkład liczby pozytywnie zakończonych doświadczeń
Graniczny przypadek:
cze¸sto realizowany w fizyce atomowej, ja¸der
atomowych i cza¸stek elementarnych to sytuacja gdy N jest
bardzo duże
, p
bardzo małe
a wartość oczekiwana
rejestrowanych zdarzeń E (k) ≡ N · p jest
stała
.
Przykład:
•
N
- liczba radioaktywnych ja¸der w badanej próbce,
•
p
- prawdopodobieństwo rozpadu pojedynczego
radioaktywnego ja¸dra w jednostce czasu,
•
k
- liczba rejestrowanych rozpadów w jednostce czasu
Rozkład Poissona
jest wtedy graniczna¸ postacia¸ rozkładu Bernoulliego:
P(k) =
λ
k
k!
exp(−λ)
Wartość oczekiwana i odchylenie standardowe wyrażaja¸ sie¸
wzorem:
E (k) = λ
σ(k) =
√
λ
B. Kamys
(Instytut Fizyki UJ)
2007/08
66 / 78
Rozkład liczby pozytywnie zakończonych doświadczeń
Niepewność statystyczna
Liczba rejestrowanych w danym okresie czasu zdarzeń k rza¸dzonych
powyższymi prawami jest zmienna¸ losowa¸ a wie¸c ”prawdziwa” liczba
zdarzeń to E(k)
a jej ”niepewność” to σ(k). Nazywana jest ona
niepewnością statystyczną
(tradycyjnie ”błędem statystycznym”).
ESTYMATOR prawdziwej liczby zdarzeń
to liczba k zarejestrowanych
zdarzeń podczas pojedynczego pomiaru:
T
n
(E (k)) = k
ESTYMATOR niepewności statystycznej:
to
u(k) ≡ T
n
(σ(k)) =
√
k
B. Kamys
(Instytut Fizyki UJ)
2007/08
67 / 78
Rozkład liczby pozytywnie zakończonych doświadczeń
Niepewność statystyczna
POZORNY PARADOKS:
Im dłużej mierzymy tym niepewność liczby
zarejestrowanych zdarzeń jest wie¸ksza.
WYTŁUMACZENIE:
Istotna jest statystyczna niepewność
wzgle¸dna
u
r
(k) a nie bezwzgle¸dna u(k):
u
r
(k) ≡ u(k)/k =
1
√
k
NOMENKLATURA:
Pomiar z małą wzgle¸dną niepewnością statystyczną
to pomiar z
dobra
¸ statystyka
¸
a z dużą wzgle¸dną
niepewnością statystyczną to pomiar ze
zła
¸ statystyka
¸
.
UWAGA:
Należy zwracać uwage¸, że
niepewność statystyczna ma
identyczny wymiar jak liczba zdarzeń, tj. wymiar
odwrotny do czasu
mimo, że ilościowo jest pierwiastkiem z
liczby zdarzeń.
B. Kamys
(Instytut Fizyki UJ)
2007/08
68 / 78
Rozkład liczby pozytywnie zakończonych doświadczeń
Niepewność statystyczna
W praktyce interesuje nas obok odpowiedzi na pytanie:
Ile zdarzeń zachodzi w określonym czasie ?
również odpowiedź na pytanie:
Ile zachodzi zdarzeń DANEGO TYPU ?
PRZYKŁAD:
Rejestrujemy produkty reakcji ja¸drowej. Chcemy wiedzieć
nie tylko ile reakcji zachodzi ale także ile jest produktów
posiadaja¸cych określona¸ energie¸.
PYTANIA:
1
Jakim rozkładem rza¸dzona jest liczba zdarzeń w każdym
przedziale (’kanale’) energii?
2
Co by sie¸ stało gdybyśmy dodali liczby zdarzeń z kilku
sa¸siednich kanałów (dla poprawienia ’statystyki’ liczby
zdarzeń) ?
B. Kamys
(Instytut Fizyki UJ)
2007/08
69 / 78
Rozkład liczby pozytywnie zakończonych doświadczeń
Niepewność statystyczna
Korzystamy z twierdzenia:
TWIERDZENIE:
Rozkład prawdopodobieństwa sumy skończonej liczby
niezależnych składników, z których każdy rza¸dzony jest
rozkładem Poissona o parametrze λ
i
jest również rozkładem
Poissona ale o nowym parametrze
λ =
P
i
λ
i
.
ODPOWIEDŹ na 1 pytanie:
Liczba zdarzeń w każdym kanale jest rza¸dzona
rozkładem Poissona ale każdy z tych rozkładów ma zwykle
różny parametr λ
i
.
ODPOWIEDŹ na 2 pytanie:
Liczba zdarzeń w kilku wysumowanych
kanałach k =
P
i
k
i
be¸dzie rza¸dzona rozkładem Poissona z
parametrem λ, którego estymator jest równy
T
n
(λ ≡ E (k)) =
P
i
k
i
.
B. Kamys
(Instytut Fizyki UJ)
2007/08
70 / 78
Pomiary pośrednie
DEFINICJA:
Jeżeli w doświadczeniu mierzymy wielkości X
1
, X
2
, .., X
N
a
naste¸pnie wyliczamy wartość funkcji Y = Y(X
1
, X
2
, .., X
N
)
to taka¸ procedure¸ nazywamy
pomiarem pośrednim
.
ESTYMATOR:
Estymatorem E(Y) pomiaru pośredniego
jest wartość
funkcji Y wyliczona dla argumentów, które sa¸ estymatorami
prawdziwych wartości X
1
, X
2
, ..X
N
tzn. dla średnich
arytmetycznych X
1
, X
2
, ..., X
N
:
T
n
(E (Y (X
1
, X
2
, ..X
N
))) = Y (X
1
, X
2
, ..., X
N
)
lub inaczej
E (Y (X
1
, X
2
, ..X
N
)) ≈ Y (X
1
, X
2
, ..., X
N
)
B. Kamys
(Instytut Fizyki UJ)
2007/08
71 / 78
Pomiary pośrednie
Niepewność pomiaru pośredniego
ESTYMATOR:
niepewności pomiaru pośredniego, tzw.
złożona
niepewność standardowa
(tradycyjnie:
bła¸d średni
kwadratowy
) liczy sie¸ naste¸puja¸co (UWAGA: wzory są
słuszne przy założeniu, że pomiary X
1
, X
2
, .., X
N
były
wykonywane niezależnie odpowiednio n
1
, n
2
, .., n
N
razy):
σ(Y ) ≈
s
N
P
i =1
∂
Y
∂
X
i
2
X
i
=
X
i
· σ
2
(X
i
)
UWAGA:
•
X
1
, X
2
, ..X
N
to różne wielkości a nie kolejne pomiary
wielkości "X ",
•
Pochodne liczone wzgle¸dem ’X
i
’ to pochodne
cza¸stkowe tzn. liczone przy założeniu, że pozostałe
zmienne ’X
j 6=i
’ sa¸ ustalone,
•
Zamiast wariancji zmiennej σ
2
(X
i
) używa sie¸ jej
estymatora tzn. S
2
(X
i
) (n
i
- krotnie mniejszego od
estymatora S
2
(X
i
)).
B. Kamys
(Instytut Fizyki UJ)
2007/08
72 / 78
Pomiary pośrednie
Błąd maksymalny
Bła¸d maksymalny pomiaru pośredniego
to tradycyjne pojęcie, które
stosowano, gdy nie można było oszacować niepewności
pomiaru bezpośredniego z rozrzutu wyników. Liczono go wg
poniższego wzoru, tzn.
metoda
¸ różniczki zupełnej
.
∆(Y ) ≈
N
P
i =1
|
∂
Y
∂
X
i
| · ∆(X
i
)
Tu moduły pochodnych sa¸ wyliczane dla jednokrotnie
zmierzonych wielkości X
i
a symbol ∆(X
i
) oznacza
maksymalny bła¸d tej wielkości mierzonej bezpośrednio.
B. Kamys
(Instytut Fizyki UJ)
2007/08
73 / 78
Pomiary pośrednie
Błąd maksymalny
Zgodnie z nową NORMĄ:
Nie należy używać pojęcia błędu maksymalnego lecz liczyć
niepewność pomiaru pośredniego jako
złożoną niepewność
pomiarową
wstawiając zamiast niepewności pomiarów
bezpośrednich otrzymanych "metodą A"(tzn. z rozrzutu
pomiarów) niepewności oszacowane "metodą B".
Należy tak postępować bo:
•
W odróżnieniu od złożonej niepewności standardowej
bła¸d maksymalny nie ma interpretacji statystycznej
.
•
Łatwo można pokazać , że błąd maksymalny obliczony
metoda¸ różniczki zupełnej
jest zawsze wie¸kszy od
złożonej niepewności standardowej.
B. Kamys
(Instytut Fizyki UJ)
2007/08
74 / 78
Pomiary pośrednie
Regresja liniowa
DEFINICJA:
Regresja liniowa zmiennej Y wzgle
¸dem zmiennej X
to
linia prosta Y = a · X + b z parametrami a i b dobranymi
tak aby minimalizować sume¸ kwadratów odchyleń
współrze¸dnych (y
i
, i = 1, 2, ..n) zespołu n punktów o
współrze¸dnych (x
1
, y
1
),(x
2
, y
2
),... (x
n
, y
n
) od tej linii:
Q
2
=
n
P
i =1
(y
i
− a · x
i
− b)
2
Zmienna Y nazywana jest
zmienna
¸ objaśniana
¸
a
zmienna X
zmienna
¸ objaśniaja
¸ca
¸
.
UWAGA:
Regresja liniowa X wzgle¸dem Y tj. prosta X = c · Y + d
pokrywa sie¸ z regresja¸ liniowa¸ Y wzgle¸dem X tj. prosta¸
Y = a · X + b znaleziona¸ dla tego samego zespołu punktów
doświadczalnych tylko wtedy gdy zwia¸zek pomie¸dzy X i Y
jest funkcyjnym zwia¸zkiem liniowym (a nie zależnościa¸
statystyczna¸).
B. Kamys
(Instytut Fizyki UJ)
2007/08
75 / 78
Pomiary pośrednie
Regresja liniowa
Specyficzna sytuacja:
polegaja¸ca¸ na tym, że:
•
zmienna objaśniaja¸ca X ma
zaniedbywalnie małe
niepewności
traktowana jako nielosowa zmienna.
•
zmienna objaśniana Y jest zmienna¸ losowa¸ o
identycznej
niepewności standardowej σ(Y ) dla wszystkich punktów.
Wtedy dostajemy proste, analityczne wzory na estymatory
parametrów regresji
:
T
n
(b)
=
(
P
i
x
i
2
) · (
P
i
y
i
) − (
P
i
x
i
) · (
P
i
x
i
· y
i
)
W
T
n
(a)
=
n
· (
P
i
x
i
· y
i
) − (
P
i
x
i
) · (
P
i
y
i
)
W
W
≡ n ·
X
i
x
2
i
− (
X
i
x
i
)
2
Wskaźnik sumowania i przebiega wartości od 1 do n.
B. Kamys
(Instytut Fizyki UJ)
2007/08
76 / 78
Pomiary pośrednie
Regresja liniowa
Niepewności standardowe estymatorów parametrów a i b
również wyrażaja¸
sie¸ analitycznymi wzorami:
T
n
(σ(b))
=
σ(Y ) ·
s
P
i
x
2
i
W
T
n
(σ(a))
=
σ(Y ) ·
r n
W
Niepewność standardowa wartości Y przewidzianej przez linie¸ regresji
(zależna od x):
T
n
(σ(Y (x )))
=
σ(Y ) ·
s
1
n
+
(x − x )
2
P
i
(x
i
− x)
2
B. Kamys
(Instytut Fizyki UJ)
2007/08
77 / 78
Pomiary pośrednie
Regresja liniowa
UWAGA:
W praktyce opuszcza sie¸ symbol estymatora, zarówno dla
parametrów regresji a, b jak i dla wartości Y przewidzianej
przez regresje¸, tzn. zamiast T
n
(a) pisze sie¸ po prostu a, itd.
ale należy pamie¸tać, że sa¸ to estymatory. W powyższych
wzorach zastosowano naste¸puja¸ce oznaczenia:
•
T
n
(σ(Y (x )))
to estymator niepewności wartości Y (x )
przewidzianej przez regresje¸,
•
σ(Y )
to niepewność pomiarowa współrze¸dnej Y
i
z
założenia taka sama dla wszystkich punktów,
•
x
to średnia arytmetyczna wartości zmiennej
kontrolowanej wyliczona ze współrze¸dnych punktów
x
1
, x
2
, ...x
n
,
•
x
- to wartość zmiennej kontrolowanej X , dla której
wyliczamy wartość regresji liniowej Y (x ) i estymator
niepewności regresji liniowej T
n
(σ(Y (x ))).
B. Kamys
(Instytut Fizyki UJ)
2007/08
78 / 78