background image

 

1

ANALIZA NIEPEWNOŚCI POMIAROWYCH 

Spis treści 

1. POMIARY FIZYCZNE I NIEPEWNOŚCI POMIAROWE  

1.1. Rodzaje niepewności 

 1.1.1. 

Niepewności systematyczne

  

1.1.2. 

Niepewności przypadkowe

  

1.1.3. Błąd gruby (nie zajmujemy się nimi). 

1.2  

Podsumowanie

 

2. NIEPEWNOŚCI SYSTEMATYCZNE  

2.1. 

Niepewności systematyczne pomiarów bezpośrednich

  

2.2. 

Niepewności systematyczne pomiarów pośrednich

  

3. NIEPEWNOŚCI PRZYPADKOWE  

3.1. 

Rozkład normalny

  

4. GRAFICZNA ANALIZA DANYCH POMIAROWYCH  

4.1. 

Zasady sporządzenia wykresów

  

4.2. 

Regresja liniowa

  

background image

 

2

1. POMIARY FIZYCZNE I NIEPEWNOŚCI POMIAROWE  

Załóżmy,  że pewna mierzona wielkość fizyczna x  (np. długość, czas, 

masa, prędkość) ma rzeczywistą wartość  x

p

, której z reguły nie znamy. 

W wyniku pomiaru tej wielkości nie uzyskujemy zasadniczo jej 

rzeczywistej wartości. Składa się na to wiele powodów, zależnych od 

metody pomiaru, użytych przyrządów pomiarowych, obserwatora, itp. 

Mówimy, że każdy pomiar obarczony jest niepewnościami pomiarowymi 

(lub błędami pomiarowymi, choć tego terminu używać dalej nie 

będziemy).  

Występują dwa zasadnicze rodzaje niepewności pomiarowych:  

• 

niepewności systematyczne  

• 

niepewności przypadkowe.  

Zwykle w każdym pomiarze występują one łącznie, składając się na 

niepewność całkowitą.  

background image

 

3

1.1.1. NIEPEWNOŚCI SYSTEMATYCZNE 

A. W jaki sposób się objawiają ?  

a) Wyniki kilkakrotnie powtarzanego pomiaru są identyczne  

B. Jaka jest tego przyczyna ?  

a) Użyty przyrząd pomiarowy nie pozwala na uzyskanie większej 

dokładności (ograniczona liczba kresek podziałki przyrządu, klasa 

miernika).  

b) Obserwator ma ograniczoną dokładność odczytu.  

 

Komentarz 

Wartość rzeczywista mieści się zatem w przedziale (x - 

Δ

x, x + 

Δ

x). 

Dokładność 

Δ

x stanowi maksymalną wartość niepewności 

systematycznej wnoszonej przez sam przyrząd i dlatego 

Δ

x nazywana 

jest często niepewnością maksymalną. 

Przykładowe niepewności systematyczne dla kilku przyrządów 

pomiarowych:  

linijka milimetrowa 

Δl = 1 mm.  

sekundomierz 

Δt = 0,2 s.  

termometr pokojowy 

ΔT= 1 K.  

W przypadku analogowych mierników elektrycznych, różnicę 

pomiędzy wynikiem pomiaru a wartością rzeczywistą znajdujemy 

background image

 

4

posługując się liczbą zwaną klasą przyrządu.  Klasą przyrządu 

nazywamy wyrażony w procentach stosunek niepewności 

systematycznej do pełnego zakresu wychylenia miernika.  

Przykład

amperomierz

 

o klasie 0,5 i maksymalnym zakresie 5 A 

Niepewność systematyczna 

Δ

 jest równa: 

Δ

I = (0.5/100)

•5 = 0.025 A 

Dla  mierników cyfrowych za niepewność systematyczną przyjmujemy 

najmniejszą wartość wyświetlaną na danym mierniku.  

 

Obserwator wnosi niezależny przyczynek do niepewności 

systematycznej. Mierząc np. czas trwania jakiegoś procesu musimy 

uwzględnić skończony czas refleksu obserwatora. Przy pomiarze 

odległości popełniamy zwykle błąd paralaksy. Wkład obserwatora do 

niepewności systematycznej jest z reguły mniejszy od dokładności 

przyrządu pomiarowego.  

background image

 

5

Przykład.  Woltomierzem klasy 0,2 o zakresie do 10 V wykonujemy 

odczyt napięcia na oporniku. 

 Położenie wskazówki woltomierza możemy odczytać z dokładnością do 

0,01 V.  

Jaka jest niepewność systematyczna pomiaru ? 

- Niepewność wynikająca z klasy przyrządu wynosi  

(0.2/100) 

•10 = 0.02V,  

- niepewność odczytu 0,01 V, 

- całkowita niepewność systematyczna pomiaru wynosi więc 

   

ΔU = 0,02 + 0,01 = 0,03 V. 

 Gdybyśmy przykładowo odczytali wartość U = 3,05 V, to wynik końcowy 

zapiszemy w postaci  U = (3.05 ± 0.03)V

background image

 

6

1.1.2. NIEPEWNOŚCI PRZYPADKOWE 

A. W jaki sposób się objawiają ?  

a) Przy kolejnych powtórzeniach pomiaru nie uzyskuje się identycznych 

wyników, występuje ich statystyczny rozrzut.  

B. Jaka jest tego przyczyna ?  

a) Brak identyczności elementów zbioru.  

b) Niezgodność przyjętego modelu z obiektem mierzonym.  

c) Metoda pomiaru, zmienne warunki pomiaru, wpływu zmysłów 

obserwatora.  

 

Komentarze

 

do powyższych punktów:  

Zwiększenie ilości pomiarów prowadzi do zmniejszenia 

niepewności pomiarowej. Wartości pomiarów grupują się w specyficzny 

sposób wokół wartości rzeczywistej. Gdy wykonujemy bardzo dużo 

pomiarów, wyniki niektórych z nich mogą być takie same.  

Ta przyczyna występuje wtedy, gdy pomiaru wykonujemy nie na 

pojedynczym obiekcie, ale na pewnym zbiorze, dla którego zdefiniowana 

jest mierzona wielkość. Na przykład, mierzymy średnice pewnej liczby 

metalowych kulek itp. Rozrzut wyników wynika ze statystycznego 

charakteru mierzonej wielkości.  

Przyczyną jest odstępstwo przedmiotu pomiaru od założonego 

modelu. Na przykład, mamy zmierzyć długość walca i zakładamy, że jest 

background image

 

7

to idealny walec. Nie jest to oczywiście prawdą i dlatego pomiar jego 

długości wzdłuż różnych linii nie da nam tych samych wyników. 

Odstępstwo przedmiotu od ideału ujawni się wtedy, gdy dokładność 

stosowanego przyrządu pomiarowego jest wystarczająco duża.  

Przykładem na to, że metoda pomiarowa wnosi własny przyczynek 

do niepewności przypadkowej jest pomiar długości gumki. Wynik 

pomiaru zależy od naprężenia gumki i sposobu przykładania linijki. 

Również przypadkowo zmieniające się czynniki zewnętrzne (ciśnienie, 

temperatura) mają wpływ na rezultat końcowy. Wpływ zmysłów na wynik 

pomiaru występuje najwyraźniej wtedy, gdy musimy ocenić minimum lub 

maksimum natężenia dźwięku, równości oświetlenia pola widzenia itp.  

background image

 

8

1.3. PODSUMOWANIE 

Celem ustalenia, która z niepewności dominuje, pomiar należy 

powtórzyć kilkakrotnie, 3-4 razy. 

1.    Jeżeli wyniki kolejnych pomiarów są identyczne, wtedy miarą 

dokładności pomiaru są niepewności systematyczne. 

2.  Jeżeli występuje statystyczny rozrzut wyników, czyli każdy pomiar 

daje inny rezultat, lub przynajmniej niektóre wyniki są różne, a różnice 

pomiędzy poszczególnymi wynikami przewyższają niepewności 

systematyczne, wtedy dominuje niepewność przypadkowa.  

3

. W pomiarach, z którymi mamy do czynienia, występują z 

reguły niepewności systematyczne

 jak i przypadkowe. Na 

początku ograniczymy nasze rozważania do przypadków skrajnych, w 

których dominuje tylko jeden rodzaj niepewności.  

background image

 

9

2. NIEPEWNOŚCI SYSTEMATYCZNE  

2.1. NIEPEWNOŚCI SYSTEMATYCZNE POMIARÓW 

BEZPOŚREDNICH 

Pomiar bezpośredni, gdy wartość liczbowa pewnej wielkości odczytana 

być może bezpośrednio z przyrządu pomiarowego. 

 Do takich pomiarów należy np. odczyt długości ciała za pomocą linijki, 

odczyt długości czasu trwania spadku ciała za pomocą sekundomierza, 

odczyt temperatury za pomocą termometru.  

Dla pojedynczych pomiarów stosujemy: 

- niepewność bezwzględną pomiaru

Δx= x-x

o

, 

 

gdzie: x  -  wartość  zmierzona,   x

o

 – wartość rzeczywista, 

 - 

niepewność względną pomiaru: 

δ=

o

x

x

Δ

Niepewność względna jest niemianowana i często bywa wyrażona w 

procentach.  

- Niepewność procentowa  

 

δ%=

o

x

x

Δ

100 

 

background image

 

10

Przykład 

Stoperem wyznaczyliśmy czas spadania ciała otrzymując t= 12,2 s. 

Niepewność systematyczną przyjmiemy 

Δ

t = 0,2 s. 

Wynik pomiaru zapiszemy: t = (12,2  ± 0,2) s.  

Niepewność względna wynosi:      

δ=

2

.

12

2

.

0

=0.016 

Niepewność procentowa: 

δ% = δ 100= 1.6 %. 

background image

 

11

2.2. NIEPEWNOŚCI SYSTEMATYCZNE POMIARÓW POŚREDNICH 

Mierzymy wielkości x

1

, x

2

,...x

n

 – bezpośrednio. 

Wielkość y obliczamy ze wzoru y = f(x

1

, x

2

,...x

n

). 

 Zatem  wielkość y nie jest mierzona bezpośrednio i o takich pomiarach 

mówimy, że są pomiarami pośrednimi. 

 

Przykład 

-Wyznaczamy prędkość ciała poruszającego się jednostajnie, 

dysponując jedynie sekundomierzem i linijką.  

-

Mierzymy: długość odcinka s i czas jego przebycia t.

 

-Liczymy prędkość ciała   v=s/t. 

Niepewność 

Δv musi być związana z niepewnościami t!!!! 

background image

 

12

Ogólnie. 

Mierzone wielkości: x

1

, x

2

,...,x

n

 

niepewności systematyczne odpowiednio 

Δx

1

,   

Δx

2

Δx

n

.  

Zakładamy, że 

Δx

i

<< x

i

 dla i = 1,2,...,n, posługując się rozwinięciem 

Taylora otrzymamy: 

i

n

i

i

n

x

x

x

x

x

f

y

Δ

=

Δ

=1

2

1

)

,.....

,

(

 

Zakładamy ponadto, że wszystkie 

Δx

i

 mają ten sam znak, 

wtedy 

Δy  nazywamy niepewnością maksymalną Δy

m

.  

i

n

i

i

n

m

x

x

x

x

x

f

y

Δ

=

Δ

=1

2

1

)

,.....

,

(

Jest to metoda różniczki zupełnej. 

Przykład

.

 

Zmierzono walec:  

r=(1.5 ± 0.1) cm, 
h= (5.4 ± 0.2) cm. 

Objętość V=

πr

2

 h = 38.17 cm

3

 Maksymalna niepewność systematyczna:  

ΔV

m

 = 

|2π r h Δr| + |π r

2

 

Δh| = 6.5 cm

3

 

Wynik końcowy zapiszemy w postaci 

V=(38,2 ± 6,5)cm

3

background image

 

13

3. NIEPEWNOŚCI PRZYPADKOWE 

Niepewności przypadkowe wynikają z równoczesnego działania bardzo 

wielu niezależnych czynników. Każdy z tych czynników wpływa jedynie 

nieznacznie na rezultat pomiaru, powodując z prawdopodobieństwem p 

= 0,5 odchylenie wartości pomiaru o małą wartość w górę lub dół. 

Sumaryczne działanie wszystkich tych zakłócających czynników jest 

chaotyczne, dlatego przy powtórnym pomiarze nie otrzymamy tego 

samego co wcześniej rezultatu.  Prawo rozkładu wyników pomiarowych 

opisuje tzw. rozkład normalny, zwany inaczej rozkładem Gaussa 

(statystyka).  

background image

 

14

3.1. ROZKŁAD NORMALNY 

Gęstość prawdopodobieństwa wystąpienia wielkości x lub jej błędu 

Δx  

jest opisana wzorem:  

=

Φ

2

2

0

2

)

(

exp

2

1

)

(

σ

π

σ

x

x

x

 

gdzie: 

 

Φ jest gęstością prawdopodobieństwa wystąpienia w 

 pomiarze wartości x (oznacza szansę na wystąpienie 

wartości x),  

 

σ odchyleniem standardowym (miara rozrzutu  

otrzymywanych wartości x, czyli jest miarą niepewności  

pomiarowej) 

(

)

)

1

(

)

(

2

=

=

n

n

x

x

x

u

i

σ

x

 jest wartością najbardziej prawdopodobną i może nią być  

wartość średnia:  

n

x

x

n

i

i

=

background image

 

15

 Prawdopodobieństwo uzyskania wyniku x zawartego w przedziale 

(x

1

, x

2

) wynosi:  

P(x

1

,x

2

) = 

∫ Φ

2

1

x

x

dx

 

 

 

 

 

 

 

 

 

 

 

W przedziale x

o

-

σ < x < x

o

+

σ mieści się ok. 68% wszystkich pomiarów. 

Podana powyżej postać  f(x) nosi nazwę niestandaryzowanego rozkładu 

normalnego 

0

5

10

15

20

25

30

0

1

2

3

Φ

(x)

x

x

0

=15

σ

=2

 

σ

=5

background image

 

16

 

4. GRAFICZNA ANALIZA DANYCH POMIAROWYCH 

4.1. ZASADY SPORZĄDZANIA WYKRESÓW 

Podczas robienia wykresu należy kierować się następującymi zasadami:  

1. Wykres wykonuje się na papierze milimetrowym. Rozmiar wykresu 

określa zakres mierzonych wielkości i wybrana skala na osiach (a nie 

odwrotnie!).  

 

2. Na osi y odkładamy wartości funkcji, na osi x - wartości 

argumentów

Na przykład mając wykreślić temperaturową zależność oporu metalu, na 

osi x odkładamy temperaturę, na osi y - opór elektryczny.  

 

3. Na każdej z osi odkładamy tylko taki zakres zmian mierzonej 

wielkości fizycznej, w którym zostały wykonane pomiary. Nie ma 

zatem obowiązku odkładania na osiach punktów zerowych. 

 

4. Rozmiar wykresu nie jest dowolny i nie powinien wynikać z tego, że 

dysponujemy takim a nie innym kawałkiem papieru. Rozmiar powinien 

być określony przez niepewności pomiarowe tych wielkości, które 

odkłada się na osiach. Niepewność ta powinna w wybranej skali być 

odcinkiem o łatwo zauważalnej, znaczącej długości. 

background image

 

17

  

5.  Skalę na każdej z osi wybiera się niezależnie, tak że mogą one 

być różne. Dążymy do tego, aby uzyskany wykres lub jego główna 

część był pod kątem około 45

o

 do osi układu współrzędnych.  

 

6.  Skalę na osiach układu nanosimy zazwyczaj w postaci 

równooddalonych, pełnych liczb. Ich wybór i gęstość na osi musi 

zapewniać jak największą prostotę i wygodę korzystania z nich.  

 

7. Punkty na wykres nanosimy tak, by były wyraźnie widoczne. Gdy 

na jednym rysunku ma być kilka krzywych, punkty na każdej z nich 

zaznacza się inaczej: kółkami, trójkątami, kwadracikami itp.  

 

8. Po naniesieniu punktów na wykres, rysujemy ciągłą, bez nagłych 

zagięć i załamań, krzywą. Powinna ona leżeć tak, aby ilość punktów po 

obu jej stronach była taka sama. Nie należy dążyć do tego, aby 

przechodziła ona przez wszystkie punkty, ponieważ każdy z nich 

obarczony jest niepewnością.  

 

9. Na osiach wykresu muszą być napisane odkładane wielkości i ich 

jednostki.  

 

background image

 

18

10. Aby wykres jak najlepiej odzwierciedlał zależność dwu wielkości, 

czasami na osiach odkłada się nie same te wielkości, ale ich funkcje. 

Przykład 

Temperaturowa zależność oporu elektrycznego półprzewodnika  

R = R

o

 exp(-

α/T). 

Logarytmując obustronnie, otrzymamy lnR = ln(Ro) - 

α/T. 

11. Na rysunku należy zaznaczyć niepewności pomiarowe w postaci 

prostokątów lub odcinków.  

12. Każdy rysunek powinien być podpisany. Podpis mówi, co rysunek 

zawiera, wyjaśnia co reprezentują zaznaczone krzywe.  

 

 

 

 

Rys. 5. Prawidłowo i nieprawidłowo sporządzone rysunki, 

przedstawiające temperaturową zależność oporu elektrycznego metalu  

 

background image

 

19

Rysunki sporządzono na podstawie tych samych pomiarów. Pierwszy z 

nich sporządzono kierując się tymi regułami i jest prawidłowo zrobiony, 

drugi niezgodnie z wyżej przedstawionymi wskazówkami.  

 

background image

 

20

4.2. REGRESJA LINIOWA 

Zakładamy, że zależność y(x) jest opisana równaniem   

y = ax + b. 

- temperaturowa zależność oporu elektrycznego metali  R = f(T), 

-skręcenie płaszczyzny polaryzacji światła w funkcji stężenia  

  roztworu cukru a = f(s), 

- okres drgań relaksacyjnych w obwodzie kondensatora i  

  neonówki od pojemności kondensatora T = f(C) itp.  

Wykonując pomiary tych dwu wielkości x i y uzyskujemy pary liczb (x

i

, y

i

i naszym zadaniem jest znaleźć równanie linii prostej (tzn. parametry a i 

b w równaniu prostej), najlepiej "pasującej" do nich. Niech równanie to 

będzie miało postać: 

y

i

 = ax

i

+ b. 

 "Dopasowanie" zgodnie z metodą najmniejszych kwadratów oznacza, 

że  

(

)

[

]

min

2

2

=

+

=

n

i

i

i

b

ax

y

S

Wyrażenie w nawiasie jest odchyleniem punktu eksperymentalnego 

(liczonym wzdłuż osi y) od odpowiadającej mu wartości wynikającej z 

równania prostej.  

Parametry a i b są emiprycznymi współczynnikami regresji liniowej. 

background image

 

21

Poszukując ekstremum  powyższego równania udowadnia się, że:  

 

 

gdzie i = 1,2,3,...,n, czyli n jest ilością par punktów (x

i

, y

i

).  

Na odchylenie standardowe S

a

 i S

b

, będące miarą niepewności 

pomiarowych współczynników regresji a i b otrzymuje się następujące 

równania  

 

 

Kryterium tego, jak nasze punkty pomiarowe (x

i

,y

i

) potwierdzają liniową 

zależność pomiędzy wielkościami x i y, stanowi wartość tzw. 

współczynnika korelacji liniowej. r. Jego wartość zmienia się w granicach 

od 1 do 0. Gdy |r| = 1, to dopasowanie jest idealne, wszystkie punkty 

pomiarowe leżą na prostej. Gdy r = 0, to zależność liniowa pomiędzy x

i

 i 

y

i

 nie istnieje. W pomiarach fizycznych wartość współczynnika korelacji r 

jest zwykle większa niż 0,98. Wzór na współczynnik korelacji  

background image

 

22

 

 

 

Przykład. Wykonując pomiary temperaturowej zależności oporu 

elektrycznego półprzewodnika otrzymano R =f(T). Wcześniej 

udowodniono, że   lnR = f(1/T)  spełnia zależność y = ax + b. U nas x

i

 to 

odwrotności temperatury, a y

i

 to „opory elektryczne”, i = 1,2,3,4,5.... 

background image

 

23

4

6

8

10

12

14

16

0

20

40

60

x

i

y

x

f(x)=ax+b
a=3.23, b=-2.08

Szukamy  równania prostej najlepiej pasującej do tych danych oraz 

współczynnika korelacji.