B Kamys Statystyczne metody opracowania wyników pomiarów

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

1

Statystyczne Metody Opracowania

Pomiarów I

B. Kamys; Instytut Fizyki UJ

Spis treści

1

Elementy teorii prawdopodobieństwa

2

1.1

Definicje podstawowych pojęć

. . . . . . . . . . . . . . . . . . . . . . . . . . .

2

1.2

Własności prawdopodobieństwa

. . . . . . . . . . . . . . . . . . . . . . . . . .

3

2

Podstawowe pojęcia teorii estymacji

5

3

Ilościowy opis zmiennych losowych

7

4

Funkcje zmiennej losowej

9

5

Charakterystyki rozkładu prawdopodobieństwa

11

6

Rozkład normalny (Gaussa)

15

7

Podstawy rachunku niepewności pomiarowych

17

7.1

Rozkład pomiarów

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

20

7.2

Estymator wartości oczekiwanej

. . . . . . . . . . . . . . . . . . . . . . . . . .

22

7.3

Estymator odchylenia standardowego

. . . . . . . . . . . . . . . . . . . . . . .

23

7.4

Zapis wyników pomiarów

. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

7.5

Rozkład liczby pozytywnie zakończonych doświadczeń

. . . . . . . . . . . . . .

26

7.6

Niepewność statystyczna

. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27

7.7

Pomiary pośrednie

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29

7.7.1

Estymator E(Y) dla pomiaru pośredniego Y

. . . . . . . . . . . . . . . .

29

7.7.2

Niepewność pomiaru pośredniego

. . . . . . . . . . . . . . . . . . . . .

29

7.7.3

Błąd maksymalny

. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

30

8

Regresja liniowa

31

9

Indeks

33

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

2

1

ELEMENTY TEORII PRAWDOPODOBIEŃSTWA

1.1

DEFINICJE PODSTAWOWYCH POJĘĆ

DEFINICJA: Zbiór zdarzeń elementarnych - zbiór takich zdarzeń, które si¸

e wzajemnie wyk-

luczaj¸

a oraz wyczerpuj¸

a wszystkie możliwości (tzn. w każdym możliwym przypadku przy-

najmniej jedno z nich musi zachodzić).

DEFINICJA: Zdarzeniem jest dowolny podzbiór zdarzeń elementarnych E.

DEFINICJA: Zdarzeniem pewnym jest zdarzenie zawieraj¸

ace wszystkie elementy zbioru E (za-

chodzi zawsze).

DEFINICJA: Zdarzeniem niemożliwym jest zdarzenie nie zawieraj¸

ace żadnego elementu zbioru

E tj. zbiór pusty Ø.

DEFINICJA: Zdarzenie A zawiera si¸

e w zdarzeniu B jeżeli każde zdarzenie elementarne należ¸

ace

do zbioru A należy do B: ’A ⊂ B’

DEFINICJA: Zdarzenia A i B s¸

a równe

gdy A ⊂ B i B ⊂ A.

DEFINICJA: Suma zdarzeń A+B

to zdarzenie zawieraj¸

ace te i tylko te zdarzenia elementarne, które należ¸

a do któregokolwiek

ze zdarzeń A, B,... (suma logiczna zbiorów zdarzeń elementarnych ’A

S

B

S

..’).

DEFINICJA: Różnica zdarzeń A-B

to zdarzenie zawieraj¸

ace te i tylko te zdarzenia elementarne, które należ¸

a do zdarzenia A a

nie należ¸

a do zdarzenia B.

DEFINICJA: Iloczyn zdarzeń A.B

to zdarzenie zawieraj¸

ace te i tylko te zdarzenia elementarne, które należ¸

a do wszystkich

zdarzeń A, B (tzn. w j¸

ezyku zbiorów ’A

T

B’).

DEFINICJA: Zdarzeniem przeciwnym do A: A nazywamy różnic¸

e ’E-A’

DEFINICJA: Zdarzeniem losowym - nazywamy zdarzenie spełniaj¸

ace poniższe warunki:

1. W zbiorze zdarzeń losowych znajduje si¸

e zdarzenie pewne oraz zdarzenie niemożliwe.

2. Jeżeli zdarzenia A

1

, A

2

,... w ilości skończonej lub przeliczalnej s¸

a zdarzeniami losowymi

to ich iloczyn i ich suma s¸

a również zdarzeniami losowymi.

3. Jeżeli A

1

i A

2

a zdarzeniami losowymi to ich różnica jest również zdarzeniem losowym.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

3

INTUICYJNE OKREŚLENIE: Zdarzenie losowe to takie, o którym nie możemy powiedzieć

czy zajdzie w danych warunkach czy też nie zajdzie.

DEFINICJA: Zmienn¸

a losow¸

a nazywamy jednoznaczn¸

a funkcj¸

e rzeczywist¸

a X(e) określon¸

a

na zbiorze E zdarzeń elementarnych tak¸

a, że każdemu przedziałowi wartości funkcji X

odpowiada zdarzenie losowe.

DEFINICJA: Zmienna losowa typu skokowego (dyskretnego)

to taka, która przyjmuje

tylko co najwyżej przeliczalny zbiór wartości. Zmienna losowa typu ci¸

agłego - może przyj-

mować dowolne wartości od minus do plus nieskończoności.

DEFINICJA: Definicja prawdopodobieństwa

Aksjomat 1:

Każdemu zdarzeniu losowemu przyporz¸

adkowana jest jednoznacznie nieu-

jemna liczba rzeczywista zwana prawdopodobieństwem.

Aksjomat 2:

Prawdopodobieństwo zdarzenia pewnego jest równe jedności.

Aksjomat 3:

Jeżeli zdarzenie losowe Z jest sum¸

a skończonej lub przeliczalnej liczby rozł¸

acznych

zdarzeń losowych Z

1

,Z

2

,.. to prawdopodobieństwo zrealizowania si¸

e zdarzenia Z jest

równe sumie prawdopodobieństw zdarzeń Z

1

,Z

2

, ..

Aksjomat 4: Prawdopodobieństwo warunkowe zdarzenia A pod warunkiem, że zachodzi

zdarzenie B; ’P(A|B)’ wyraża si¸

e wzorem:

P(A|B) =

P (A.B)

P (B)

Prawdopodobieństwo to jest nieokreślone, gdy prawdopodobieństwo zdarzenia B wynosi

zero.

1.2

WŁASNOŚCI PRAWDOPODOBIEŃSTWA

1.) Zdarzenie przeciwne do A :

P(A) = 1 - P(A)

Dowód:

A+

A = E a wi¸

ec P(A+A) = P(E) = 1,

z drugiej strony A i A wykluczaj¸

a si¸

e wi¸

ec

P(A+A) = P(A) + P(A).

St¸

ad P(A) = P( E) - P(A) czyli P(A) = 1 - P(A) c.b.d.o.

2.) Zdarzenie niemożliwe :

P(Ø) = 0

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

4

Dowód:

E i Ø wykluczaj¸

a si¸

e wi¸

ec P(E+Ø)=P(E)+P(Ø) oraz E+Ø=E a wi¸

ec P(E+Ø)=P(E), czyli

P(Ø) = 0

c.b.d.o.

3.) Zdarzenie A zawiera si¸

e w B :

P(A) ≤ P(B)

Dowód: P(B) = P(A+(A.B)) = P(A)+P(A.B) ≥ P(A) c.b.d.o.

4.) Dowolne zdarzenie losowe :

0 ≤ P(A) ≤ 1

Dowód: Dla każdego zdarzenia jest prawdziwe:

Ø ⊂ A+Ø = A = A.E ⊂ E

a wi¸

ec prawdopodobieństwa zdarzeń Ø,A i E spełniaj¸

a:

0 ≤ P(A) ≤ 1 c.b.d.o.

5.) Suma dowolnych zdarzeń A+B :

P(A+B) = P(A) + P(B) - P(A.B)

Dowód:

Zarówno A+B jak i B możemy zapisać jako sumy rozł¸

acznych (wykluczaj¸

acych si¸

e) zdarzeń:

A + B

=

A + (B − A.B)

oraz

B

=

A.B + (B − A.B),

stosujemy aksjomat nr 3 definicji prawdopodobieństwa,

P (A + B)

=

P (A) + P (B − A.B),

P (B)

=

P (A.B) + P (B − A.B)

odejmujemy stronami: P(A+B) = P(A) + P(B) - P(A.B) c.b.d.o.

6.) Iloczyn zdarzeń A.B :

P(A.B) = P(B).P(A|B) = P(A).P(B|A)

Dowód:

Wynika to automatycznie z 4 aksjomatu definicji prawdopodobieństwa.

DEFINICJA: Zdarzenie A jest niezależne od B gdy P(A|B) = P(A).

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

5

7.) Jeżeli A nie zależy od B to B nie zależy od A.

Dowód:

Korzystamy z dwu wzorów na prawdopodobieństwo A.B podanych wyżej, przy czym w pier-

wszym z nich uwzgl¸

edniamy, że A jest niezależne od B. Wówczas z porównania obu wzorów

dostajemy P(B|A) = P(B).

c.b.d.o.

8.) WKW niezależnosci: P(A.B) = P(A).P(B)

Dowód:

Wynika to automatycznie ze wzoru na prawdopodobieństwo iloczynu zdarzeń.

c.b.d.o

9.) Formuła ’całkowitego prawdopodobieństwa’: Jeżeli istnieje zbiór zdarzeń A

1

, A

2

... wykluczaj¸

acych si¸

e wzajemnie i wyczerpuj¸

acych wszystkie możliwości wówczas praw-

dopodobieństwo dowolnego zdarzenia B może być zapisane nast¸

epuj¸

aco:

P(B) =

P

i

P (A

i

).P (B | A

i

)

Dowód:

B =

P

i

B.A

i

(suma rozł¸

acznych zdarzeń) a wiec P(B) =

P

i

P(B.A

i

) a każdy składnik można

zapisać jako P(A

i

).P(B|A

i

). c.b.d.o.

2

PODSTAWOWE POJĘCIA TEORII ESTYMACJI

DEFINICJA: W statystyce skończony zespół doświadczeń nazywamy prób¸

a a wnioskowanie

na podstawie próby o własnościach nieskończonego (zwykle) zespołu wszystkich możliwych

doświadczeń zwanego populacj¸

a generaln¸

a , nazywamy estymacj¸

a .

DEFINICJA: Przez prób¸

e prost¸

a rozumiemy ci¸

ag niezależnych doświadczeń odnosz¸

acych

si¸

e do tej samej populacji generalnej.

DEFINICJA: Statystyk¸

a nazywamy tak¸

a funkcj¸

e zmiennych losowych obserwowanych w

próbie, która sama jest zmienn¸

a losow¸

a.

DEFINICJA: Estymatorem T

n

(x

1

, x

2

, ..x

n

; θ) parametru θ lub w skrócie T

n

(θ) nazy-

wamy statystyk¸

e o rozkładzie prawdopodobieństwa zależnym od θ. Tu x

1

, x

2

, .. oznaczaj¸

a

wyniki pomiarów próby a przez rozkład prawdopodobieństwa rozumiemy przyporz¸

adkowanie

prawdopodobieństw różnym wartościom statystyki T

n

.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

6

DEFINICJA: Estymacja punktowa to taka estymacja, która polega na oszacowaniu wartości

danego parametru θ przez wartość jego estymatora.

DEFINICJA: Estymacja przedziałowa polega na szukaniu przedziału liczbowego, wewn¸

atrz

którego z założonym prawdopodobieństwem leży prawdziwa wartość parametru.

DEFINICJA: Estymator T

n

(θ), jest zgodny

jeżeli dla każdego  > 0 jest spełniony

warunek:

lim

n→∞

P (| T

n

(θ) − θ |< ) = 1

W takim przypadku używa si¸

e cz¸

esto określenia, że estymator spełnia prawo wielkich liczb .

PRZYKŁAD: TWIERDZENIE (Bernoulli): Wzgl¸

edna cz¸

estość pojawiania si¸

e zdarzenia

’A’ w ci¸

agu ’n’ doświadczeń spełnia prawo wielkich liczb czyli jest zgodnym estymatorem

prawdopodobieństwa zdarzenia A: P(A).

lim

n→∞

P( | n

A

/n - P(A) |<  ) = 1

DEFINICJA:

Estymator spełniaj¸

acy mocne prawo wielkich liczb to taki, który jest zbieżny do estymowanego

parametru z prawdopodobieństwem równym jedności.

P( lim

n→∞

T

n

(θ) = θ ) = 1

PRZYKŁAD:

TWIERDZENIE: F.P.Cantelli udowodnił w 1917 roku, że wzgl¸

edna cz¸

estość pozyty-

wnego zakończenia doświadczenia; n

A

/n jest zbieżna do prawdopodobieństwa zdarzenia A;

P(A) z prawdopodobieństwem równym jedności:

P( lim

n→∞

(n

A

/n) = P(A) ) = 1

czyli wzgl¸

edna cz¸

estość spełnia mocne prawo wielkich liczb.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

7

3

ILOŚCIOWY OPIS ZMIENNYCH LOSOWYCH

Ilościowy opis zmiennych losowych uzyskujemy stosuj¸

ac

• Dystrybuant¸e (Zwan¸a cz¸esto przez statystyków funkcj¸

a rozkładu)

• Rozkład prawdopodobieństwa (Tylko dla zmiennych dyskretnych)

• Funkcj¸e g¸estości prawdopodobieństwa (Tylko dla zmiennych ci¸agłych) oraz wielkości

charakteryzuj¸

ace te powyżej wymienione twory.

DEFINICJA: Dystrybuant¸

a F(x) nazywamy prawdopodobieństwo tego, że zmienna losowa

X przyjmie wartość mniejsz¸

a od x. (’X’ - to symbol zmiennej losowej a ’x’ to jej konkretna

wartość). Oczywiście dystrybuanta jest funkcj¸

a x.

F(x) ≡ P( X < x )

Własności dystrybuanty:

1. 0 ≤ F(x) ≤ 1

2. F(-∞) = 0

3. F(+∞) = 1

4. F(x) jest niemalej¸

ac¸

a funkcj¸

a

5. F(x) nie posiada wymiaru

Przykład:

Dla rzutu kostk¸

a do gry, gdzie jako zmienn¸

a losow¸

a przyj¸

eto liczb¸

e wyrzuconych punktów:

F (x)

=

0 dla x ≤ 1,

=

1/6 dla 1 < x ≤ 2,

=

2/6 dla 2 < x ≤ 3,

=

3/6 dla 3 < x ≤ 4,

=

4/6 dla 4 < x ≤ 5,

=

5/6 dla 5 < x ≤ 6,

=

1 dla x > 6

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

8

DEFINICJA: Rozkład prawdopodobieństwa : Jeżeli x

i

(i=1,2,...) s¸

a wartościami dyskret-

nej zmiennej losowej to rozkładem prawdopodobieństwa nazywamy zespół prawdopodo-

bieństw:

P(X=x

i

) = p

i

,

P

i

p

i

= 1

Przykład:

Rozkład prawdopodobieństwa dla rzutu kostk¸

a do gry omawianego powyżej: p

i

= 1/6 dla

i = 1,2 .. 6.

DEFINICJA:

Funkcja g¸

estości prawdopodobieństwa f(x)

f(x)dx ≡ P(x ≤ X < x+dx)

Własności funkcji gęstości prawdopodobieństwa:

1. f(x) ≥ 0,

2. f(x) jest unormowana tj.

R

+∞

−∞

f (x)dx = 1

3.

f(x)=

dF (x)

dx

4.

Wymiar f(x) = wymiar (1/x)

Przykład:

Rozkład jednorodny w przedziale [a,b]:

f (x) =

0

dla x < a

=

1/(b − a)

dla a ≤ x ≤ b

=

0

dla b < x

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

9

4

FUNKCJE ZMIENNEJ LOSOWEJ

Funkcja Y zmiennej losowej X: Y = Y(X) jest również zmienn¸

a losow¸

a. Dlatego też można

dla niej określić dystrybuant¸

e, rozkład prawdopodobieństwa lub funkcj¸

e g¸

estości praw-

dopodobieństwa. S¸

a one prosto zwi¸

azane z odpowiednimi wielkościami dla zmiennej X.

Należy rozpatrzyć niezależnie przypadek, gdy funkcja Y(X) jest monotoniczna oraz gdy nie

posiada tej własnosci.

a) Funkcja Y = Y(X) jest monotoniczna.

Można wówczas jednoznacznie określić funkcj¸

e odwrotn¸

a X=X(Y).

1. Dystrybuanta funkcji Y(X): G(y)

Y(X) jest rosn¸

aca :

G(y) = F(x(y))

Y(X) jest malej¸

aca :

G(y) = 1 - F(x(y)) - P(x;y=y(x)

Dowód: Wychodz¸

ac z definicji dla Y(X) rosn¸

acej:

G(y)

=

P (Y < y)

=

P (X(Y ) < x)

=

F (x(y))

dla Y(X) malej¸

acej:

G(y)

=

P (Y < y)

=

P (X(Y ) > x)

=

1 − P (X(Y ) ≤ x)

=

1 − P (X(Y ) < x) − P (X(Y ) = x)

=

1 − F (x(y)) − P (x; Y = y(x)) c.b.d.o.

2. Rozkład prawdopodobieństwa P(y):

P(y

i

) = P(x

i

;y

i

=Y(x

i

))

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

10

3. Funkcja g¸

estości prawdopodobieństwa g(y):

g(y) = f(x(y)) |

dx(y)

dy

|

gdzie X(Y) jest funkcj¸

a odwrotn¸

a do Y(X).

Z definicji: f(x) dx = P(x ≤ X < x+dx) a to prawdopodobieństwo przy jednoznacznym

zwi¸

azku mi¸

edzy X i Y wynosi P(y ≤ Y < y+dy)=g(y) dy.

Znak modułu przy pochodnej pojawia si¸

e st¸

ad, że przy malej¸

acej funkcji Y(X) pochodna

edzie ujemna co powodowałoby, że g(y) byłaby ujemna a zgodnie z definicj¸

a musi być

nieujemna.

Przykład dla funkcji monotonicznej:

Y(X) = a X + b; a i b to rzeczywiste stałe

1. Rozkład prawdopodobieństwa:

P(Y=y

i

) = P(a x

i

+ b =y

i

) = P(x

i

=

y

i

−b

a

)

2. Dystrybuanta:

dla a > 0, G(y) = F(x =

y−b

a

),

dla a < 0, G(y)=1 - F(x=

y−b

a

) - P(x=

y−b

a

)

3. G¸

estość prawdopodobieństwa:

g(y)=

1

|a|

f(x=

y−b

a

)

b.) Funkcja Y(X) nie jest monotoniczna .

Wówczas dzielimy obszar zmienności X na przedziały, w których Y(X) jest monoton-

iczna i powtarzamy powyższe rozważania sumuj¸

ac przyczynki od rozł¸

acznych przedzi-

ałów.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

11

Przykład dla funkcji niemonotonicznej:

Y(X)=X

2

1. Rozkład prawdopodobieństwa:

P(y

i

) = P(X

2

=y

i

) = P(X=-

y

i

)+P(X=+

y

i

)

2. Dystrybuanta:

G(y) = P(Y <y) = P(X

2

< y) =

P(-

y < X < +

y)

G(y)

=

0 dla y ≤ 0

G(y)

=

F (

y) − F (−

y) dla y ≥ 0

3. Rozkład g¸

estości prawdopodobieństwa:

g(y)

=

0 dla y < 0

g(y)

=

|

−1

2

y

| f (

y) +

1

2

y

f (−

y)

=

1

2

y

(f (

y) + f (−

y)) dla y ≥ 0

5

CHARAKTERYSTYKI ROZKŁADU PRAWDOPODOBIEŃSTWA

W praktycznych zastosowaniach cz¸

esto wystarcza poznanie wartości pewnych wielkości, które

charakteryzuj¸

a rozkład prawdopodobieństwa zamiast pełnej informacji o rozkładzie.

Oto najczęściej stosowane:

DEFINICJA: fraktyl x

q

(zwany również kwantylem) jest to wartość zmiennej losowej, dla

której dystrybuanta przyjmuje wartość ’q’.

F(x

q

) = q

Najważniejsze fraktyle to dolny kwartyl: x

0.25

, górny kwartyl: x

0.75

oraz mediana: x

0.5

.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

12

DEFINICJA: Moda (zwana również wartości¸

a modaln¸

a jest to taka wartość zmiennej losowej,

dla której rozkład prawdopodobieństwa (lub funkcja g¸

estości prawdopodobieństwa) przyjmuje

maksimum.

DEFINICJA: Rozkłady prawdopodobieństwa posiadaj¸

ace jedn¸

a mod¸

e zwane s¸

a

jednomodalnymi a te, które maj¸

a wi¸

ecej niż jedn¸

a - wielomodalnymi.

DEFINICJA: Momentem rozkładu rz¸

edu ’k’

wzgl¸

edem punktu x

0

, nazywamy nast¸

epuj¸

ac¸

a wielkość:

m

k

(x

0

) ≡

R

(x - x

0

)

k

f(x) dx

m

k

(x

0

) ≡

P

i

(x

i

-x

0

)

k

p(x

i

)

dla zmiennych ci¸

agłych i dyskretnych odpowiednio.

Najważniejszymi momentami s¸

a te, które liczone s¸

a wzgl¸

edem pocz¸

atku układu współrz¸

ednych

tj. x

0

=0 - (b¸

edziemy je oznaczali przez ’ m

k

’ ) oraz momenty liczone wzgl¸

edem X

0

= m

1

tj.

wzgl¸

edem pierwszego momentu wzgl¸

edem pocz¸

atku układu współrz¸

ednych. Te ostatnie momenty

nazywa si¸

e momentami centralnymi (b¸

edziemy je oznaczać przez ’ µ

k

’).

DEFINICJA: m

1

zwany wartości¸

a oczekiwan¸

a, wartości¸

a średni¸

a lub nadziej¸

a matematyczn¸

a.

edziemy go oznaczali przez E(X) (stosuje si¸

e również oznaczenie M(X) lub ˆ

X ).

E(X) ≡

P

i

p

i

x

i

dla zmiennych dyskretnych,

E(X) ≡

R

f(x) x dx

dla zmiennych ci¸

agłych

Jeżeli powyższa całka (lub suma) sa bezwzgl¸

ednie zbieżne to mówimy, że istnieje wartość oczeki-

wana. W przeciwnym wypadku (nawet jeżeli całka jest zbieżna) mówimy, że wartość oczekiwana

nie istnieje !

Interpretacja E(X):

E(X) jest współrz¸

edn¸

a punktu, który byłby środkiem masy rozkładu prawdopodobieństwa (lub

pola pod funkcj¸

a g¸

estości prawdopodobieństwa) gdyby prawdopodobieństwa poszczególnych wartości

"x

i

"traktować jako masy (lub odpowiednio gęstość prawdodobieństwa jako zwykł¸

a g¸

estość).

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

13

Własności E(X):

E(X) jest operatorem liniowym a wi¸

ec:

1.

E(

P

i

C

i

X

i

) =

P

i

C

i

E(X

i

)

Co w szczególnych przypadkach daje:

(a) E(C)=C

(b) E(CX)=C.E(X)

(c) E(X

1

+ X

2

)=E(X

1

)+E(X

2

)

2. Dla zmiennych niezależnych X

1

, ... , X

n

E(Π

i

X

i

) = Π

i

E(X

i

)

UWAGA: Warunkiem koniecznym i wystarczaj¸

acym by zmienne były niezależne jest aby

wspólny rozkład prawdopodobieństwa faktoryzował si¸

e: f(X

1

,X

2

,..,X

n

) = f

1

(X

1

) . f

2

(X

2

)

... f

3

(X

n

). Rozkłady wielu zmiennych losowych omówimy później.

3. Dla funkcji zmiennej X; Y=Y(X)

wartość oczekiwana E(Y) może być znaleziona przy pomocy rozkładu zmiennej X bez

konieczności szukania rozkładu f(y):

E(Y) =

P

i

y(x

i

) p

i

, E(Y) =

R

y(x) f(x) dx

dla zmiennej dyskretnej i dla zmiennej ci¸

agłej odpowiednio.

Korzystaj¸

ac z tej własności zauważamy natychmiast,

że dowolny moment m

k

(x

0

) może być potraktowany jako wartość oczekiwana

funkcji Y(X)=(X-x

0

)

k

:

m

k

(x

0

) ≡

R

dx f(x) (x-x

0

)

k

= E((x-x

0

)

k

)

DEFINICJA: µ

2

, zwany wariancj¸

a lub dyspersj¸

a

edziemy go oznaczać przez ’ σ

2

(X) ’ lub ’ var(X) ’ (stosuje si¸

e również oznaczenie ’ D(X) ’).

Pierwiastek z wariancji nazywany jest odchyleniem standardowymi oznaczany ’ σ(X)’ ale czasami

używa si¸

e również nazwy ’ dyspersja ’.

σ

2

(X) ≡

P

i

p

i

(x

i

- E(x))

2

zmienna dyskretna

σ

2

(X) ≡

R

f(x)(x-E(x))

2

dx

zmienna ci¸

agła

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

14

Własności wariancji:

1. Wariancja może być wyrażona przez momenty liczone wzgl¸

edem pocz¸

atku układu współrz¸

ednych:

σ

2

(X) = m

2

− m

2
1

σ

2

(X) = E(X

2

) − E

2

(X)

Dowód: Korzystamy z trzeciej własności wartości oczekiwanej tj.

m

2

(E(X))

=

E((X − E(X))

2

)

=

E(X

2

− 2X.E(X) + E

2

(X))

=

E(X

2

) − 2E(X).E(X) + E

2

(X)

=

E(X

2

) − E

2

(X)

c.b.d.o.

Posługujac si¸

e tym przedstawieniem wariancji dostajemy natychmiast nast¸

epuj¸

ace włas-

ności:

(a)

var(C)=0 .

bo E(C

2

)-E

2

(C)=C

2

-C

2

=0 c.b.d.o.

(b)

var(CX)=C

2

var(X)

jest to nast¸

epstwo liniowości E(X), przez któr¸

a definiowaliśmy var(X).

(c)

var(C

1

X+C

2

) = C

2

var(X)

2. Dla zmiennych niezależnych

var(

P

i

C

i

X

i

) =

P

i

C

2
i

var(X)

Wzór ten łatwo wyprowadzić korzystaj¸

ac z 3 własności wartości oczekiwanej:

var(y=

P

i

C

i

X

i

) ≡ E((y − E(Y ))

2

).

Po wstawieniu do wzoru oraz podniesieniu do kwadratu otrzymamy sum¸

e kwadratów wyrażeń

’ C

i

(X

i

- E(X

i

)) ’ oraz iloczyny mieszane tych wyrażeń. Iloczyny mieszane znikn¸

a w chwili gdy

podziała na nie zewn¸

etrzny operator wartości oczekiwanej (ponieważ E(X-E(X))=E(X)-E(X)=0).

Założenie niezależności jest potrzebne przy liczeniu wartości oczekiwanej z iloczynów mieszanych

(wówczas wartość oczekiwana iloczynu równa jest iloczynowi wartości oczekiwanych).

Suma

wartości oczekiwanych z kwadratów wyrażeń ’C

i

(X

i

-E(X

i

))’ jest właśnie oczekiwanym przez nas

wyrażeniem.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

15

Interpretacja wariancji wynika z nierówności Czebyszewa, któr¸

a można zapisać nast¸

epuj¸

aco:

P( | X-E(X) | ≥ a.σ(X)) ≤ a

−2

TWIERDZENIE:

Prawdopodobieństwo odchylenia wartości zmiennej losowej od wartości oczekiwanej E(X) o ’a’

-krotn¸

a wartość odchylenia standardowego jest mniejsze lub równe od

1

a

2

.

Twierdzenie to jest słuszne dla wszystkich rozkładów, które posiadaj¸

a wariancj¸

e (a wi¸

ec, co za tym

idzie i wartość oczekiwan¸

a). Liczba ’ a ’ jest dowoln¸

a dodatni¸

a rzeczywist¸

a liczb¸

a.

Interpretacja wariancji

Korzystaj¸

ac z powyższego twierdzenia dochodzimy do wniosku, że wariancja (lub odchylenie

standardowe) jest miar¸

a rozrzutu zmiennej losowej dokoła wartości oczekiwanej.

Jest to bardzo ważny wniosek bo w analizie danych doświadczalnych utożsamiamy

wartość oczekiwan¸

a pomiarów wykonanych w obecności bł¸edów przypadkowych z

wartości¸

a prawdziw¸

a mierzonej wielkości. Wtedy miar¸

a bł¸

edu przypadkowego

jest odchylenie standardowe bo ono określa rozrzut wyników dokoła wartości prawdzi-

wej.

6

ROZKŁAD NORMALNY (Gaussa)

DEFINICJA:

Ci¸

agła zmienna losowa X, której funkcja g¸

estości prawdopodobieństwa ma nast¸

epuj¸

ac¸

a postać:

f (X) =

1

2π B

exp(

−(X−A)

2

2B

2

)

nazywa si¸

e zmienn¸

a o rozkładzie normalnym N(A,B).

Własności rozkładu normalnego f(X) ≡ N(A,B):

Wartość oczekiwana:

E(X) = A

Odchylenie standardowe:

σ(X) = B

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

16

St¸

ad łatwo widać, że N(A,B) ≡ N( E(X),σ(X) )

Dystrybuanta rozkładu normalnego nie wyraża si¸

e przez funkcje elementarne.

Warto zapami¸

etać nast¸

epuj¸

ace wartości prawdopodobieństwa znalezienia zmiennej X

w danym przedziale:

P( E(X) - σ(X) ≤ X < E(X) +

σ(X) ) = 0.6827

P( E(X) - 2σ(X) ≤ X < E(X) + 2σ(X) ) = 0.9545

P( E(X) - 3σ(X) ≤ X < E(X) + 3σ(X) ) = 0.9973

Uwaga:

Dowoln¸

a zmienn¸

a Y o rozkładzie normalnym można standaryzować tworz¸

ac wielkość Z o rozkładzie

’standardowym normalnym’ N(0,1):

Z = (Y - E(Y))/σ(Y).

Standaryzacja jest ważna ze wzgl¸

edu na możliwość tablicowania zarówno funkcji g¸

estości praw-

dopodobieństwa, jak i dystrybuanty rozkładu N(0,1) a potem wykorzystania faktu, że maj¸

ac

zmienn¸

a X o rozkładzie N(0,1) możemy stworzyć zmienn¸

a Y o rozkładzie N(A,B) przez prost¸

a

transformacj¸

e: Y = B*X+A .

Co więcej, przez standaryzację sprowadzamy wszystkie wartości oryginalnej zmiennej do obszaru

w pobliżu zera a jednostką jest odchylenie standardowe. Dzięki temu można porównywać rozkłady

wielkości różniące się znacznie położeniem centrum i skalą wartości.

Centralne Twierdzenie Graniczne (Intuicyjne sformułowanie)

Zmienna Z b¸

ed¸

aca standaryzowan¸

a sum¸

a niezależnych zmiennych losowych bedzie miała standar-

dowy rozkład normalny gdy liczba składników w sumie d¸

aży do nieskończoności oraz w sumie nie

wyst¸

epuj¸

a zmienne o wariancjach dominuj¸

acych w stosunku do reszty składników.

Właśnie to twierdzenie powoduje, że rozkład normalny jest wyróżnionym rozkładem

- bardzo często stosowanym w statystyce.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

17

7

PODSTAWY RACHUNKU NIEPEWNOŚCI POMIAROWYCH

Wynik pomiaru bez podania dokładności doświadczenia (niepewności pomiaru)

jest bezwartościowy.

DEFINICJA: Pomiarem bezpośrednim nazywamy doświadczenie, w którym przy po-

mocy odpowiednich przyrz¸

adow mierzymy (porównujemy z jednostk¸

a) interesuj¸

ac¸

a

nas wielkość fizyczn¸

a.

Przykład:

• Pomiar długości przedmiotu przy pomocy linijki

• Pomiar długości odcinka czasu przy pomocy zegara

DEFINICJA: Pomiarem pośrednim nazywamy doświadczenie, w którym wyznaczamy

wartość interesuj¸

acej nas wielkości fizycznej przez pomiar innych wielkości fizycznych

zwi¸

azanych z dan¸

a wielkości¸

a znanym zwi¸

azkiem funkcyjnym.

Przykład:

• Pomiar oporu elektrycznego przewodnika: mierzymy spadek napi¸

ecia ’U’ na

przewodniku i pr¸

ad ’I’ przez niego płyn¸

acy a opór ’R’ wyznaczamy z prawa

Ohma: R=U/I.

• Pomiar g¸

estości stopu, z którego zbudowany jest prostopadłościan: mierzymy

bezpośrednio długość kraw¸

edzi ’a’,’b’ i ’c’ prostopadłościanu i jego mas¸

e ’m’ a

estość wyznaczamy ze wzoru: ρ = m/(a . b . c).

DEFINICJA: Tradycyjnie bł¸

edem pomiaru ’e’ nazywano różnic¸

e pomi¸

edzy wartości¸

a

’X’ uzyskan¸

a w doświadczeniu a prawdziw¸

a (nieznan¸

a) wartości¸

a ’X

0

’ danej wielkości:

e = X-X

0

Bł¸

edy dzielono na grube, systematyczne i przypadkowe

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

18

Zgodnie z NORMĄ ISO (Międzynarodowej Organizacji Normalizacyjnej) wprowadzoną w

1995 roku należy unikać słowa ”błąd” zastępując go słowami ”niepewności pomiarowe”.

”Błąd” należy zarezerwować tylko dla pomyłek eksperymentatora (tj. do błędów grubych)

lub niewłaściwej metody pomiarowej (tj. do błędów systematycznych) - patrz poniżej.

Norma zaleca używanie symbolu u(x) dla niepewności pomiaru zmiennej x. Symbol ten

pochodzi od angielskiego słowa ”uncertainty” ≡ ”niepewność”.

DEFINICJA: Bł¸

edy grube to bł¸

edy, które pojawiaj¸

a si¸

e w wyniku pomyłki ekspery-

mentatora (np. odczyt na niewłaściwej skali przyrz¸

adu) lub w wyniku niesprawności

aparatury pomiarowej. Zwykle s¸

a one na tyle duże, że można je łatwo zauważyć.

Dla unikni¸

ecia tych bł¸

edów należy starannie zorganizować proces pomiaru i uży-

wać do doświadczeń tylko właściwie wytestowanych przyrz¸

adów.

DEFINICJA: Bł¸

edy systematyczne to takie, które podczas wykonywania pomiaru

systematycznie przesuwaj¸

a wyniki pomiarów w jedn¸

a stron¸

e w stosunku do prawdzi-

wej wartości.

Przykład:

Przy pomiarze oporu możemy zastosować dwa różne schematy podł¸

aczenia

woltomierza i amperomierza:

1. Woltomierz podł¸

aczony równolegle do oporu a szeregowo do nich amperomierz. Wówczas

spadek napi¸

ecia mierzony jest rzeczywiście na oporniku ale pr¸

ad mierzony przez am-

peromierz odpowiada nie samemu pr¸

adowi płyn¸

acemu przez przewodnik lecz sumie

pr¸

adów - opornika i woltomierza. Systematycznie zawyżamy wartość pr¸

adu ’I’ co w

przypadku gdy opór woltomierza nie jest wielokrotnie wi¸

ekszy od oporu przewodnika

może prowadzić do znacz¸

acego bł¸

edu.

V

A

2. Woltomierz podł¸

aczony jest równolegle do układu szeregowo poł¸

aczonego opornika i

amperomierza. Wówczas woltomierz mierzy spadek napi¸

ecia na przewodniku oraz na

amperomierzu równocześnie. Systematycznie zawyżamy napi¸

ecie ’U’ co w przypadku

gdy opór wewn¸

etrzny amperomierza nie jest wielokrotnie mniejszy od oporu przewod-

nika może prowadzić do znacz¸

acego błędu.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

19

V

A

Błedy systematyczne s¸

a trudne do zauważenia i oszacowania.

Dla ich unikni¸

ecia

stosuje si¸

e:

• staranne przemyślenie metody pomiaru w poszukiwaniu możliwych źródeł bł¸

edów

systematycznych i rezygnacja z metod, które prowadz¸

a do takich bł¸

edów,

• zmian¸

e metody pomiaru np.

opór w powyższym przykładzie można mierzyć

metod¸

a mostka, która nie wprowadza takich systematycznych bł¸

edów jak omówione

najprostsze schematy pomiaru. Ważne stałe fizyczne takie jak pr¸

edkość światła

’c’ były wielokrotnie mierzone różnymi metodami, głównie po to by upewnić

si¸

e, że unikni¸

eto bł¸

edów systematycznych,

• unikanie oczywistych źródeł bł¸

edu jak np. "bł¸

ad paralaksy"polegaj¸

acy na od-

czytaniu skali nie patrz¸

ac na ni¸

a z kierunku prostopadłego,

• pomiary wzgl¸

edne polegaj¸

ace na tym, że mierzymy równocześnie, t¸

a sam¸

a metod¸

a

dwie wielkości - jedn¸

a dobrze znan¸

a a drug¸

a - t¸

e, któr¸

a chcemy zmierzyć.

Odnosz¸

ac wynik pomiaru nieznanej wielkości do wyniku pomiaru znanej wielkości

zwykle możemy wyeliminować bł¸

edy systematyczne.

DEFINICJA: Przypadkowe niepewności pomiarowe (zwane tradycyjnie ”

błędami przy-

padkowymi ”) to niepewności, które zmieniaj¸

a si¸

e od pomiaru do pomiaru, powoduj¸

ac

odchylenia od wartości prawdziwej zarówno w dół jak i w górę.

Zakłada si¸

e, że

spowodowane s¸

a one przez wiele niezależnych przyczyn o porównywalnym znaczeniu.

Metody statystyki pozwalaj¸

a na oszacowanie tego typu niepewności zarówno jakoś-

ciowo jak i ilościowo. Nie mówi¸

a jednak nic o bł¸

edach systematycznych czy grubych.

Dlatego dalsze rozważania dotyczyć będą tylko niepewności przypadkowych.

Jeżeli mamy do czynienia tylko z niepewnościami przypadkowymi to s¸

a spełnione

założenia centralnego twierdzenia granicznego a wi¸

ec:

Rozkład niepewności przypadkowej u to rozkład N(0,σ(u)).

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

20

f (u) =

1

2π σ(u)

exp(

−u

2

2

(u)

)

7.1

ROZKŁAD POMIARÓW

Ponieważ wartość oczekiwana niepewności przypadkowej jest z definicji równa zero i

rozrzut niepewności dokoła wartości oczekiwanej niepewności jest określony przez od-

chylenie standardowe σ(u) a wynik pomiaru ’X’ różni si¸

e od niepewności pomiarowej

’u’ tylko przesuni¸

eciem skali współrz¸

ednych o ’X

0

’ (wartość prawdziw¸

a mierzonej

wielkości) to rozkład wartości mierzonej ’X’ jest rozkładem Gaussa N (X

0

, σ(u)):

f (X) =

1

2π σ(u)

exp(

−(X−X

0

)

2

2

(u)

).

WAŻNE WNIOSKI:

• Wartość prawdziwa mierzonej wielkości jest równa wartości oczekiwanej pomia-

rów (jeżeli s¸

a tylko niepewności przypadkowe).

• Rozrzut pomiarów dokoła wartości prawdziwej jest określony przez odchylenie

standardowe σ(e) rozkładu niepewności przypadkowych .

• Miar¸

a niepewności pojedynczego pomiaru jest odchylenie standardowe pomia-

rów.

Z powyższych faktów wynika, że:

Szukanie prawdziwej wartości mierzonej wielkości i jej niepewności to

estymacja wartości oczekiwanej i odchylenia standardowego pomiarów

DEFINICJA: Estymatorem nieobci¸

ażonym T

n

(θ) parametru θ nazywamy taki estymator,

którego wartość oczekiwana równa jest wartości estymowanego parametru niezależnie

od rozmiarów próby:

E(T

n

(θ)) = θ

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

21

DEFINICJA: Obci¸

ażeniem estymatora ’B

n

’ nazywamy różnic¸

e jego wartości oczekiwanej

i wartości estymowanego parametru:

B

n

= E(T

n

(θ)) - θ

DEFINICJA: Estymatorem obci¸

ażonym nazywamy taki estymator, którego obci¸

ażenie

jest różne od zera.

DEFINICJA: Estymatorem asymptotycznie nieobci¸

ażonym nazywamy taki estymator obci¸

ażony,

którego obci¸

ażenie zmierza do zera gdy rozmiary próby nieskończenie rosn¸

a:

lim

n→∞

B

n

= 0

TWIERDZENIE:

Jeżeli wariancja estymatora nieobci¸

ażonego lub asymptotycznie nieobci¸

ażonego d¸

aży

do zera gdy rozmiary próby rosn¸

a nieograniczenie wówczas estymator ten jest zgodny.

TWIERDZENIE:

Jeżeli T

n

(θ) jest zgodnym estymatorem θ i jeżeli h(θ) jest wielomianem lub ilorazem

wielomianów to estymator h(T

n

(θ)) jest estymatorem zgodnym dla h(θ).

DEFINICJA:

Jeżeli mamy zbiór estymatorów tego samego parametru θ: T

(1)
n

(θ),T

(2)
n

(θ), ... T

(k)
n

(θ),

wówczas ten spośród nich nazywany jest najbardziej efektywnym, który ma najmniejsz¸

a

wariancj¸

e.

OD ’DOBREGO’ ESTYMATORA ŻA

¸ DAMY ABY:

• spełniał mocne prawo wielkich liczb lub był zgodny

• O ile to możliwe chcemy by był:

– Nieobci¸

ażony,

– Najbardziej efektywny.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

22

7.2

ESTYMATOR WARTOŚCI OCZEKIWANEJ

Jako

estymator wartości oczekiwanej T

n

(E(X))

przyjmuje si¸

e średni¸

a arytmetyczn¸

a

niezależnych pomiarów wielkości X. B¸

edziemy j¸

a oznaczać przez X :

T

n

(E(X)) ≡ X =

1

n

P

n
i=1

X

i

Estymator ten posiada optymalne własności:

1. Kołmogorow pokazał, że X spełnia mocne prawo wielkich liczb a wi¸

ec oczywiście

jest zgodny,

2. Estymator X jest nieobci¸

ażony.

E(

1

n

P

i

X

i

) =

1

n

P

i

E(X

i

) =

1

n

(n.E(X)) = E(X) c.b.d.o.

Tu wykorzystano fakt, że wszystkie wartości oczekiwane s¸

a równe E(X

i

)=E(X).

3. Można pokazać, że X jest najbardziej efektywnym estymatorem E(X).

TWIERDZENIE:

Estymator X wartości oczekiwanej E(X) ma rozkład normalny N(E(X),

σ(X)

n

) gdzie ’n’

jest liczb¸

a pomiarów w próbie.

WNIOSKI:

1. Odchylenie standardowe średniej arytmetycznej X jest

n - krotnie mniejsze

od odchylenia standardowego pojedynczego pomiaru.

2. Odchylenie standardowe σ(X) czyli

standardowa niepewność pomiaru średniej

arytmetycznej u( ¯

X) (wg tradycyjnej nomenklatury

bł¸

ad średni kwadratowy

średniej arytmetycznej ) charakteryzuje dokładność wyznaczenia prawdziwej wartości

X w danym pomiarze składaj¸

acym si¸

e z n niezależnych doświadczeń.

3. Aby charakteryzować dokładność metody pomiarowej należy jako miar¸

e dokład-

ności podać

standardową niepewność pojedynczego pomiaru u(X) ≡ σ(X) (wg

tradycyjnej nomenklatury -

błąd pojedynczego pomiaru ) .

4. W granicach wyznaczonych przez σ(X) powinno leżeć 68.27% wszystkich pomi-

arów a nie wszystkie pomiary.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

23

7.3

ESTYMATOR ODCHYLENIA STANDARDOWEGO

(1)

S(X) ≡

q

1

n−1

P

n
i=1

(X

i

− X)

2

Jest to zgodny, asymptotycznie nieobci¸

ażony estymator.

UWAGA: zaleca się używać tego estymatora odchylenia standardowego.

(2)

s(X) ≡

q

1

n

P

n
i=1

(X

i

− X)

2

Jest to zgodny, asymptotycznie nieobci¸

ażony i najbardziej efektywny estymator

(3)

S(X) ≡ k

n

S(X)

gdzie k

n

=

q

n−1

2

Γ(

n−1

2

)

Γ(

n

2

)

Jest to zgodny i nieobci¸

ażony estymator σ(X).

Współczynnik "k

n

"można zast¸

apić z niezłym przybliżeniem przez wstawienie do

wzoru na S(X) zamiast 1/(n-1) czynnika 1/(n-1.45).

Poniżej podajemy w tabelce przykładowe wartości współczynnika k

n

dla różnych

’n’:

n

k

n

q

n−1

n−1.45

3

1.1284

1.1359

4

1.0853

1.0847

5

1.0640

1.0615

6

1.0506

1.0482

7

1.0423

1.0397

10

1.0280

1.0260

15

1.0181

1.0165

20

1.0134

1.0121

25

1.0104

1.0095

50

1.0051

1.0046

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

24

7.4

ZAPIS WYNIKÓW POMIARÓW

Ponieważ z doświadczenia nie uzyskujemy prawdziwej wartości oczekiwanej E(X)

oraz odchylenia standardowego σ(X) a tylko ich estymatory wi¸

ec nie podaje si¸

e ich

wartości z pełn¸

a (uzyskan¸

a z obliczeń) liczb¸

a cyfr znacz¸

acych.

KONWENCJA: Stosuje si¸

e nast¸

epuj¸

ac¸

a

konwencje

¸ zapisu wyników

, gdzie jako miarę

niepewności pomiaru podaje się

niepewność standardową u(x) ≡ S(x)

.

• Pozostawia si¸

e tylko

dwie cyfry znacz¸

ace

standardowej

niepewności pomiarowej, np. 0,023.

• Wynik pomiaru obliczamy tak aby wyznaczyć jedno

miejsce

dziesi¸

etne

dalej

niż

miejsce

dziesi¸

etne,

na

którym zaokr¸

aglono niepewność pomiarową, a nast¸

epnie

zaokr¸

aglamy do tego samego miejsca dziesi¸

etnego, do

którego wyznaczono niepewność pomiarową, np. zamiast

1,9024 bierzemy 1,902.

• Wynik wraz z niepewnością pomiarową podajemy w ten

sposób, że

po wypisaniu wyniku dopisujemy w nawiasie dwie

cyfry znaczące reprezentujące niepewność pomiaru i podajemy

jednostkę

, np.

m = 1,902(23) kg

lub

m = 1,902(0,023) kg

INNA FORMA ZAPISU:

Stosuje się również zapis:

x = (wynik(x) ± U (x)) jednostka(x) , gdzie

U (x) ≡ k · u(x)

tzw.

niepewność rozszerzona

.

Współczynnik rozszerzenia ” k”

przyjmuje wartości 2 ≤ k ≤ 3

przy czym domyślnie, tzn. jeżeli nie podaje się tego jawnie,

przyjmuje się k = 2.

• UWAGA: ten zapis jest identyczny jak zapis stosowany dawniej (przed przyję-

ciem aktualnej konwencji zapisu) ale wtedy podawało się

standardową niepewność

u(x)

zamiast

rozszerzonej niepewności U (x) ≡ k · u(x)

.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

25

Zapis przykładowy przytaczanego

powyżej wyniku:

masa = (1,902 ± 0.046) kg .

UWAGA: Zastosowanie formy zapisu: (wynik ± niepewność pomiaru) może prowadzić

do nieporozumienia, gdy nie napiszemy wyraźnie, że stosujemy nową konwencję i że

jako współczynnik rozszerzenia niepewności bierzemy k = 2.

Zaleca się więc stosowanie zapisu, w którym podaje się w naw-

iasie 2 cyfry znaczące standardowej niepewności pomiarowej. W

przeciwnym wypadku należy wyraźnie zaznaczyć, że podajemy roz-

szerzoną niepewność standardową oraz wypisać wartość k.

UWAGA: Ponieważ omawiana metoda szacowania niepewności opiera się o statysty-

czny rozrzut pomiarów rządzony rozkładem Gaussa, to

Niepewność standardowa

pomiaru określa przedział wartości mierzonej wielkości

gdzie

z prawdopodobieństwem ≈ 0.68 znajduje się prawdziwa wartość mierzonej wielkości.

Rozszerzona niepewność z czynnikiem rozszerzenia k=2

określa przedział,

gdzie

z prawdopodobieństwem ≈ 0.95 znajduje się prawdziwa wartość.

Norma ISO określania niepewności pomiarowych proponuje zastosowanie dwu

metod do tego celu:

Metoda A

szacowania niepewności pomiarowych to opisane powyżej wnioskowanie o

niepewności pomiaru z rozrzutu statystycznego wyników pomiaru

Metoda B

stosuje się, gdy nie możemy takiego rozrzutu zaobserwować , np. gdy

• Działka skali przyrządu pomiarowego jest większa od obserwowanego rozrzutu,

• Pomiar można wykonać tylko jednokrotnie bo, np. towarzyszy mu zniszcze-

nie badanego obiektu, itp.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

26

W metodzie B: postępujemy następująco:

• Szukamy takiego przedziału [a, b] wartości mierzonej wielkości x, że wszys-

tkie wartości x ∈ [a, b] (np. długość [a, b] to wielkość działki skali przyrządu).

• Zakładamy funkcję gęstości prawdopodobieństwa zmiennej x; najczęściej

zakłada się jednostajny rozkład: f (x) = 1/(b − a).

• Odchylenie standardowe tej wielkości bierzemy jako wartość niepewności

standardowej, np. dla rozkładu jednostajnego

u(x) ≡ σ(x) = (b − a)/(2

3).

UWAGA: Ponieważ (b − a)/2 ≡ ∆x, gdzie ∆x to (tradycyjnie) tzw.

błąd maksymalny

więc wtedy

standardowa niepewność

u(x) = ∆x/

3.

7.5

ROZKŁAD LICZBY POZYTYWNIE ZAKOŃCZONYCH DOŚWIAD-

CZEŃ

TWIERDZENIE: Jeżeli prawdopodobieństwo zrealizowania si¸

e danego zdarzenia losowego

w pojedynczym doświadczeniu jest równe ’p’ to liczba ’k’ zrealizowanych zdarzeń w

’N ’ niezależnych doświadczeniach rz¸

adzona jest rozkładem Bernoulliego

( dwumianowym, binomialnym):

P (k) =

N !

k!(N −k)!

p

k

(1 − p)

N −k

; k = 0, 1, ..N

Łatwo można pokazać, że

E(k) = N · p

σ(k) =

p

N · p · (1 − p)

W fizyce cz¸

esto zdarza si¸

e sytuacja gdy ’N ’ jest bardzo duże, ’p’ bardzo małe a

wartość oczekiwana rejestrowanych zdarzeń E(k) ≡ N · p jest stała. np. N - liczba

radioaktywnych j¸

ader w badanej próbce, p - prawdopodobieństwo rozpadu pojedynczego radioakty-

wnego j¸

adra w jednostce czasu, k - liczba rejestrowanych rozpadów w jednostce czasu

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

27

W takiej sytuacji rozkład Bernoulliego przechodzi w rozkład Poissona:

P (k) =

λ

k

k!

exp(−λ)

Wartość oczekiwana i odchylenie standardowe wyrażaj¸

a si¸

e wzorem:

E(k) = λ

σ(k) =

λ

Można pokazać, że dla dla N ⇒ ∞ rozkład Bernoulliego i rozkład Poissona d¸

aż¸

a

do rozkładu normalnego N(N.p,

p

N.p.(1 − p)) i N(λ,

λ) odpowiednio.

7.6

NIEPEWNOŚĆ STATYSTYCZNA

Liczba rejestrowanych w danym okresie czasu zdarzeń ’k’ rz¸

adzonych powyższymi

prawami jest zmienn¸

a losow¸

a a wi¸

ec ”prawdziwa” liczba zdarzeń to E(k) a jej niepewność

to σ(k). Tę niepewność nazywana jest ”niepewnością statystyczną” (tradycyjnie

”błę-

dem statystycznym”).

ESTYMATOR prawdziwej liczby zdarzeń i jej niepewności statystycznej.

Jako

estymator prawdziwej liczby zdarzeń

przyjmuje si¸

e liczb¸

e ” k”

zareje-

strowanych zdarzeń podczas pojedynczego pomiaru:

T

n

(E(k)) = k

a jako

estymator niepewności statystycznej

pierwiastek z tej liczby:

T

n

(σ(k)) =

k

POZORNY PARADOKS: Im dłużej mierzymy tym statystyczna niepewność liczby

zarejestrowanych zdarzeń jest wi¸

eksza.

WYTŁUMACZENIE: Istotna jest statystyczna niepewność wzgl¸

edna a nie bezwzgl¸

edna:

T

n

(

σ(k)
E(k)

) =

1

k

.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

28

NOMENKLATURA: Pomiar z małą statystyczną niepewnością wzgl¸

edną to pomiar z

DOBRA

¸

a z dużą statystyczną niepewnością względną to pomiar ze

ZŁA

¸ STATYSTYKA

¸

.

W praktyce do opisu rejestracji liczby zdarzeń stosujemy rozkład Poissona. In-

teresuje nas jednak nie tylko odpowiedź na pytanie:

’Ile zdarzeń zachodzi w określonym czasie ?’

ale również odpowiedź na inne pytanie:

’Ile zachodzi zdarzeń DANEGO TYPU ?’

PRZYKŁAD: Rejestrujemy produkty reakcji j¸

adrowej. Chcemy wiedzieć nie tylko

ile reakcji zachodzi ale także ile jest produktów posiadaj¸

acych określon¸

a energi¸

e.

PYTANIA:

1. Jakim rozkładem rz¸

adzona jest liczba zdarzeń w każdym przedziale (”kanale”)

energii?

2. Co by si¸

e stało gdybyśmy dodali liczby zdarzeń z kilku s¸

asiednich kanałów (dla

poprawienia ”statystyki” liczby zdarzeń) ?

ODPOWIEDZI:

ad 1 Liczba zdarzeń w każdym kanale jest rz¸

adzona rozkładem Poissona ale każdy z

tych rozkładów ma zwykle różny parametr λ.

ad 2 Korzystaj¸

ac z poniższego twierdzenia:

TWIERDZENIE

Rozkład prawdopodobieństwa sumy skończonej liczby niezależnych składników,

z których każdy rz¸

adzony jest rozkładem Poissona o parametrze λ

i

jest również

rozkładem Poissona ale o nowym parametrze λ =

P

i

λ

i

.

stwierdzamy, że liczba zdarzeń w kilku wysumowanych kanałach k =

P

i

k

i

edzie

dalej rz¸

adzona rozkładem Poissona z parametrem λ, którego estymator jest

równy T

n

(E(k)) =

P

i

k

i

.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

29

7.7

POMIARY POŚREDNIE

Jeżeli w doświadczeniu mierzymy wielkości X

1

, X

2

, .. X

N

a nast¸

epnie wyliczamy

wartość funkcji Y = Y(X

1

, X

2

, ..

X

N

) to tak¸

a procedur¸

e nazywamy pomiarem

pośrednim.

7.7.1

ESTYMATOR E(Y) POMIARU POŚREDNIEGO Y

Estymatorem E(Y) jest wartość funkcji Y wyliczona dla argumentów, które s¸

a esty-

matorami X

1

, X

2

, .. X

N

tzn. dla średnich arytmetycznych X

1

, X

2

, ..., X

N

:

T

n

(E(Y(X

1

, X

2

, ..X

N

))) = Y(X

1

, X

2

, ..., X

N

)

lub inaczej

E(Y(X

1

, X

2

, ..X

N

)) ≈ Y(X

1

, X

2

, ..., X

N

)

7.7.2

NIEPEWNOŚĆ POMIARU POŚREDNIEGO

Przy założeniu, że pomiary X

1

, X

2

, .. X

N

były wykonywane niezależnie odpowied-

nio n

1

, n

2

, ..

n

N

razy, niepewność pomiaru pośredniego nazywana wg NORMY

ISO ”

niepewnością złożoną

” (tradycyjnie

błędem średnim kwadratowym ) oszacowuje

si¸

e nast¸

epuj¸

aco:

σ(Y ) ≈

s

N

P

i

(

∂Y

∂X

i

)

2
X

i

=X

i

· σ

2

(X

i

)

UWAGA:

1. X

1

, X

2

, .. X

N

to różne wielkości a nie kolejne pomiary wielkości "X",

2. Pochodne liczone wzgl¸

edem ’X

i

’ to pochodne cz¸

astkowe tzn. liczone przy za-

łożeniu, że pozostałe zmienne ’X’ s¸

a ustalone,

3. Zamiast wariancji zmiennej σ

2

(X

i

) używa si¸

e jej estymatora tzn. S

2

(X

i

) N-

krotnie mniejszego od estymatora S

2

(X

i

).

Jeżeli pomiary wielkości mierzonych bezpośrednio były wykonywane jednokrotnie

to nie możemy oszacować σ( ¯

X) z rozrzutu (tj. metodą A wg NORMY ISO) lecz

stosujemy metodę B oszacowania niepewności standardowej pomiaru bezpośredniego

opisaną powyżej.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

30

7.7.3

BŁA

¸ D MAKSYMALNY

Błąd maksymalny pomiaru pośredniego to tradycyjne pojęcie, które stosowano, gdy

nie można było oszacować niepewności pomiaru bezpośredniego z rozrzutu wyników.

Liczono go wg poniższego wzoru, tzn.

metoda

¸ różniczki zupełnej

.

∆(Y ) ≈

N

P

i

|

∂Y

∂X

i

| · ∆(X

i

)

Tu moduły pochodnych s¸

a wyliczane dla jednokrotnie zmierzonych wielkości X

i

a

symbol ∆(X

i

) oznacza maksymalny bł¸

ad tej wielkości mierzonej bezpośrednio.

Zgodnie z NORMĄ ISO : Nie należy używać pojęcia błędu maksymalnego po-

miaru pośredniego lecz liczyć niepewność pomiaru pośredniego jako

złożoną niepewność

pomiarową

wstawiając zamiast niepewności pomiarów bezpośrednich otrzymanych

"metodą A"(tzn. z rozrzutu pomiarów) niepewności oszacowane "metodą B".

Należy tak postępować bo:

• W odróżnieniu od złożonej niepewności standardowej

bł¸

ad maksymalny nie ma

interpretacji statystycznej

.

• Łatwo można pokazać , że błąd maksymalny obliczony metod¸

a różniczki zupełnej

jest zawsze wi¸

ekszy od złożonej niepewności standardowej.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

31

8

REGRESJA LINIOWA

DEFINICJA

Regresja liniowa zmiennej Y wzgle

¸dem zmiennej X

to linia prosta

Y = a · X + b,

której parametry ” a” i ” b” dobiera się tak aby minimalizować sum¸

e kwadratów

odchyleń współrz¸

ednych (Y

i

, i = 1, 2, ..n) zespołu ’n’ punktów o współrz¸

ednych

(X

1

, Y

1

),(X

2

, Y

2

),... (X

n

, Y

n

) od linii.

UWAGA Regresja liniowa X wzgl¸

edem Y tj.

prosta X = c · Y + d pokrywa

si¸

e z regresj¸

a liniow¸

a Y wzgl¸

edem X tj. prost¸

a Y = a · X + b znalezion¸

a dla tego

samego zespołu punktów doświadczalnych tylko wtedy gdy zwi¸

azek pomi¸

edzy X i Y

jest funkcyjnym zwi¸

azkiem liniowym (a nie zależności¸

a statystyczn¸

a).

Rozważymy tu specyficzn¸

a sytuacj¸

e polegaj¸

ac¸

a na tym, że:

• zmienna X ma zaniedbywalnie małe niepewności pomiarowe

(mówimy wtedy, że ’X jest zmienn¸

a kontrolowan¸

a’)

• Niepewność standardowa zmiennej Y jest taka sama dla wszystkich punktów i

wynosi σ(Y ).

Wtedy dostajemy proste, analityczne wzory na estymatory parametrów regresji:

T

n

(b)

=

(

P

i

X

i

2

) · (

P

i

Y

i

) − (

P

i

X

i

) · (

P

i

X

i

· Y

i

)

W

T

n

(a)

=

n · (

P

i

X

i

· Y

i

) − (

P

i

X

i

) · (

P

i

Y

i

)

W

W

≡ n ·

X

i

X

2

i

− (

X

i

X

i

)

2

Wskaźnik sumowania ” i” przebiega wartości od 1 do ” n”.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

32

Niepewności standardowe estymatorów parametrów ”a” i ”b” również wyrażaj¸

a si¸

e

analitycznymi wzorami:

u(b) ≡ T

n

(σ(b))

=

σ(Y ) ·

s

P

i

X

2

i

W

u(a) ≡ T

n

(σ(a))

=

σ(Y ) ·

r

n

W

Możemy również podać wzór na niepewność standardową wartości Y przewidzianej

przez lini¸

e regresji (zależną od X):

u(Y (X)) ≡ T

n

(σ(Y (X)))

=

σ(Y ) ·

v
u
u
t

1

n

+

(X − X)

2

P

i

(X

i

− X)

2

• T

n

(σ(Y (X))) to estymator niepewności standardowej wartości Y (X) przewidzianej

przez regresj¸

e,

• σ(Y ) to niepewnośc pomiaru współrz¸

ednej Y

i

(z założenia taka sama dla wszys-

tkich punktów).

Gdy jej nie znamy wpisujemy tu (i do wzorów na niepewności parametrów a i b) estymator

T

n

(σ(Y )),

• X to średnia arytmetyczna wartości zmiennej kontrolowanej wyliczona ze współrz¸

ednych

punktów X

1

,X

2

,... X

n

,

• X - to wartość zmiennej kontrolowanej X, dla której wyliczamy wartość regresji

liniowej Y (X) oraz estymator niepewności regresji liniowej Y (X) dla tej wartości

argumentu X.

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

33

9

INDEKS

-

Błąd

definicja

17

,

gruby

18

,

maksymalny

30

,

przypadkowy

19

,

systematyczny

18

,

statystyczny

27

,

-

Centralne twierdzenie graniczne 16

-

Dystrybuanta

zmiennej losowej

7

,

funkcji zmiennej losowej

9

,

-

Estymacja

punktowa

5

,

przedziałowa

6

-

Estymator

asymptotycznie nieobciążony

21

,

standardowej niepewności pojedynczego pomiaru

24

,

standardowej niepewności pomiaru pośredniego

29

,

standardowej niepewności parametrów regresji liniowej

32

,

standardowej niepewności regresji liniowej

32

,

standardowej niepewności średniej arytmetycznej

22

,

niepewności statystycznej

27

,

najbardziej efektywny

21

,

nieobciążony

20

,

obciążony

21

,

odchylenia standardowego

23

,

prawdopodobieństwa

6

,

spełniający mocne prawo wielkich liczb

6

,

wartości oczekiwanej

22

,

zgodny (spełniający prawo wielkich liczb)

6

,

-

Kwantyl (fraktyl)

dolny kwartyl

11

,

górny kwartyl

11

,

mediana

11

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

34

- Moda

12

- Moment

12

- Niepewność pomiarowa

metoda A wyznaczania

25

,

metoda B wyznaczania

25

,

rozszerzona

24

,

rozszerzona - zapis

24

,

standardowa pomiaru bezpośredniego

20

,

standardowa pomiaru pośredniego (niepewność złożona)

29

,

standardowa - zapis

24

,

statystyczna

27

,

statystyczna - względna

27

,

- Prawdopodobieństwo

definicja

3

,

estymator

6

,

gęstość

8

,

rozkład

8

,

własności

3

,

-

Regresja liniowa 31

- Rozkład

Bernoulliego (dwumianowy, binomialny)

26

,

Gaussa (normalny)

15

,

Poissona

27

,

-

Statystyka 5

-

Wartość oczekiwana

(nadzieja matematyczna, wartość średnia)

12

-

Wariancja

(dyspersja, kwadrat odchylenia standardowego)

13

- Współczynnik rozszerzenia (niepewności pomiarowej),

24

- Zapis wyników,

24

background image

B.Kamys; Notatki do wykładu SMOP-I 2007/08

35

- Zdarzenia

2

elementarne

2

,

iloczyn zdarzeń

2

,

losowe

2

,

3

,

niemożliwe

2

,

niezależne

4

,

pewne

2

,

przeciwne

2

,

różnica zdarzeń

2

,

suma zdarzeń

2

,

- Zmienna

losowa

3

,

losowa skokowa

3

SZANOWNY CZYTELNIKU !

• Notatki, które czytasz nie mają zastąpić wykładu SMOP-I, co najlepiej

widać po tym, że prawie nie zawierają komentarzy. Sądzę jednak, że mogą

być pożyteczne dla tych, którzy chcą znaleźć w jednym miejscu podstawowe

definicje i wzory niezbędne do analizy statystycznej danych na poziomie Pier-

wszej Pracowni Fizycznej. Mogą również stanowić wstęp do nauki bardziej

zaawansowanych metod statystycznych - wykładanych w ramach wykładu

SMOP-II.

• Mam nadzieję, że w tych notatkach jest stosunkowo mało pomyłek.

Jednakże

wielokrotnie

przekonałem

się,

że

błędów

nie

robią

tylko

ci

co

nic

nie

robią

a

więc

z

pewnością

znajdą

się

tu

błędy.

Będę wdzięczny za powiadomienie mnie o tych błędach

oraz

za

wszelkie

uwagi, które pomogą poprawić te notatki oraz jakość wykładu na nich

opartego.

(B. Kamys;

boguslaw.kamys@uj.edu.pl

)


Document Outline


Wyszukiwarka

Podobne podstrony:
B Kamys Statystyczne metody opracowania i pomiarów
Kamys B Statystyczne metody opracowania pomiarów 1
METODYKA OPRACOWYWANIA WYNIKÓW POMIAROWYCH, MET0DYKA-spr., POLITECHNIKA RADOMSKA
Metrologia-lab-Metodyka opracowań wyników pomiarowych, METPOM S, POLITECHNIKA RADOMSKA
Metrologia-lab-Metodyka opracowań wyników pomiarowych, Metodyka opracowań wyników pomiarowychspr, PO
METODYKA OPRACOWYWANIA WYNIKÓW POMIAROWYCH, METPOM Radzio, POLITECHNIKA RADOMSKA
METODYKA OPRACOWYWANIA WYNIKÓW POMIAROWYCH, MET0DY s G, POLITECHNIKA RADOMSKA
Metrologia-lab-Metodyka opracowań wyników pomiarowych, Metodyka, RADOM
Analiza błędów Statystyczne opracowanie wyników pomiarów
ćwiczenie 2 Statystyczne opracowanie wyników pomiarów, ZiIP Politechnika Poznańska, Podstawy Metrolo
LABORATORIUM 1 [Statystyczne opracowanie wyników pomiarów wytrzymałości?tonu na ściskanie]
Analiza błędów. Statystyczne opracowanie wyników pomiarów, Metrologia
Opracowanie wyników pomiaru
Opracowanie wyników pomiarowych - błędy, bledy, Gęstość jest cechą substancji określającą masę jedno
Zastosowanie programów statycznych do opracowania wyników pomiarów
31, 31, Opracowanie wyników pomiarów M

więcej podobnych podstron