Przyjęte za niezależne w danym układzie wielkości; zdefiniowane są one na podstawie dowolnie wybranych zjawisk lub właściwości wybranych ciał, zapewniających jednoznaczność oraz wystarczającą dokładność pomiaru. (Metr, Kilogram, Sekunda, Amper, Kelwin, mol – jednostka ilości substancji, kandela – jednostka natężenia światła)
Wyrażone za pomocą ilorazu lub iloczynu jednostek miar podstawowych (lub też uzupełniających) w danym układzie; zwykle są one tworzone za pomocą wzorów określających i definiujących zależność wielkości pochodnej od wielkości podstawowych. (Siła, Ciśnienie, Praca, Moc)
Przyrząd pomiarowy składa się z trzech zasadniczych podzespołów:
Przetwornik (czujnik) pomiarowy- najważniejszy element układu pomiarowego, przetwarza wielkość mierzoną na wielkość elektryczną. Dodatkowo czujniki można podzielić na dwie zasadnicze grupy:
Generacyjne - wykorzystują część energii parametru mierzonego w celu wytworzenia impulsu elektrycznego, nie wymaga dodatkowego zasilania, gdyż pod wpływem wielkości mierzonej wytwarzana jest energia elektryczna, co objawia się powstaniem siły elektromotorycznej i przepływem prądu przez przyłączony do niego obwód. Pomiar przy ich użyciu sprowadza się do wzmocnienia albo demodulacji i odczytaniu wartości mierzonej.
Termoelektryczne
Piezoelektryczne
Fotoelektryczne
Magneto indukcyjne
Parametryczne – przekształcają wielkość mierzoną w impuls elektryczny, wymaga odrębnego źródła zasilania, przy pomiarach szybkozmiennych wymagane jest źródło zasilania o odpowiedniej częstotliwości oraz stabilności
Indukcyjne
Pojemnościowe
Rezystancyjne
Łącze pomiarowe – przekazuje sygnał elektryczny z przetwornika do miernika
Miernik – odbiera sygnał elektryczny, który następnie przekształca po odpowiednim skalibrowaniu na wartość mierzoną pokazując jej wynik.
Wejście-doprowadza wzajemnie niezależne i niezależne ze względu na przyrząd wielkości wejściowe x1, x2, xm, przy czym wielkość xm= x wielkością mierzoną, a pozostałe w liczbie m - 1 są wielkościami wpływającymi
Wyjście- wprowadza wielkość wyjściowa y, wielkość zależna od wielkości wejściowych i właściwości przyrządu
Klasyfikacja według kryterium:
Fizyczne zasady ich działania
Konstrukcja przyrządu
Rodzaj skali
Dokładność przyrządu
Zastosowanie do określonych rodzajów pomiarów
Wg. Fizycznej zasady działania:
przyrządy o bezpośrednim wskazaniu w miejscu pomiaru,
przyrządy zdalnie wskazujące,
przyrządy sterujące i sygnalizujące,
przyrządy liczące i sumujące.
Pomiary bezpośrednie są najprostsze – polegają wprost na porównaniu danej wielkości z odpowiednią miarą wzorcową np. pomiar wymiarów ciała za pomocą linijki, suwmiarki, śruby mikrometrycznej itp., pomiar czasu trwania jakiegoś procesu przy użyciu stopera.
Pomiar pośredni to pomiar, którego wynik otrzymuje się na podstawie bezpośredniego pomiaru innych wielkości, opierając się na znanej zależności między tymi wielkościami a wielkością mierzoną. Na przykład – chcemy wyznaczyć wartość przyspieszenia ziemskiego na podstawie okresu drgań wahadła matematycznego. Jak wiadomo okres drgań wahadła opisuje wzór: , stąd . W celu wyznaczenia wartości g musimy zatem dokonać pomiarów (bezpośrednich) okresu drgań wahadła (T) oraz długości nici (L). Innym przykładem jest wyznaczanie natężenia prądu elektrycznego na podstawie pomiarów spadku napięcia na oporniku wzorcowym oraz prawa Ohma . Widzimy, że w zależności od wyboru metody pomiarowej, wartości niektórych wielkości fizycznych mogą być wyznaczane zarówno drogą pomiarów bezpośrednich, jak i pośrednich.
Z jednej strony bloku, nazywanej wejściem, są doprowadzone wzajemnie niezależne i niezależne ze względu na przyrząd wielkości wejściowe x1, x2 ..., xm, przy czym xm = x jest wielkością mierzoną, a pozostałe w liczbie m - 1 są wielkościami wpływającymi.
Symbol z oznacza niemierzalne zakłócenia
Z drugiej strony - na wyjściu - jest wyprowadzona jedna wielkość wyjściowa y, wielkość zależna od wielkości wejściowych i od właściwości przyrządu. Związek przyczynowy oznaczony jest na schemacie strzałkami.
Między wyjściem a wejściem przyrządu zachodzi związek y = f(x1, ...., xm), który nazywa się równaniem przetwarzania.
Każda z wielkości y, x1, ..., xm, tworzy zbiór Y, X1, ..., Xm , a funkcja f określa operacje przekształcające zbiory X1, ..., Xm w zbiór Y.
Co to jest wzorcowanie przyrządu?Wzorcowanie jest to nadanie wielkości wyjściowej y przyrządu, miary wielkości mierzonej x i utrwalenie tej odpowiedniości. na którym model matematyczny przyrządu został uzupełniony procedurą wzorcowania x* = ϕ(y) podającą, jaką wartość xi* przypisać wartości yi.x* dla :
Kwestią bardzo ważną jest określenie procedury wzorcowania ϕ. W najprostszym przypadku, jeśli błąd przyrządu zdefiniujemy następująco: Δ= x* - x, to z zapisu modelu f i procedury ϕ oraz z warunku Δ = 0 powinniśmy wyznaczyć procedurę wzorcowania ϕ. |
|
---|---|
Charakterystyka przetworników generacyjnychCzujniki generacyjne, które wytwarzają energię elektryczną, zużywając do tego część energii związanej z wielkością mierzoną. Czujniki generacyjne nie wymagają zasilania energią elektryczną, a pomiar przy ich użyciu sprowadza się do wzmocnienia, ewentualnej demodulacji i odczytania wielkości mierzonej. Pod wpływem wielkości mierzonej (kosztem jej energii) jest wytwarzana energia elektryczna, co objawia się powstaniem w czujniku siły elektromotorycznej i przepływem prądu przez przyłączony do niego obwód. X
|
|
Charakterystyka przetworników parametrycznych
X Schemat łańcucha pomiarowego czujnika parametrycznego |
|
Zasady doboru przetworników pomiarowych |
Dobór czujników uzależniony jest praktycznie od trzech podstawowych warunków: zakresów pracy w jakich czujniki będą pracowały, wymaganej dokładności (w procentach lub działkach pomiarowych) warunków na jakie będzie narażony czujnik w czasie eksploatacji.
Pobranie pewnej ilości energii z tego ośrodka, która w czujniku jest przetwarzana na sygnał pomiarowy, a także ciepła, pracy tarcia (o ile czujnik ma części ruchome) i innych niekontrolowanych ubytków energii ze środowiska wielkości mierzonej. Jeżeli np. pojemności cieplne ośrodka i samego czujnika są porównywalne to zniekształcenia przy pomiarze z powodów cieplnych mogą być dość znaczne. Aby temu zapobiec czujniki powinny być miniaturyzowane i kompensowane cieplnie.
Pomiar czułości układu pomiarowego – polega na takim odstrojeniu mostka od stanu równowagi, aby uzyskać znaczące odchylenie wskaźnika zera. Jeżeli wskaźnikiem zera jest galwanometr, to odchylenie jego wskazówki powinno wynosić kilka lub kilkanaście działek podziałki. Wyznaczona wartość czułości pozwala ze stosownych zależności wyznaczyć wartość błędu nieczułości.
Stała czasowa czujnika, to jest czas potrzebny na osiągnięcie przez czujnik nowego stanu przy skokowej zmianie wielkości x, powinna być dopasowana do charakteru czasowego x. W szczególnym przypadku, gdy x jest okresową funkcją czasu (np. harmoniczną), stała czasowa czujnika staje się okresem jego drgań własnych i jest odwrotnością częstotliwości własnej, musi więc spełniać co najmniej warunek określony zależnością fw > 2f. Problem wierności odtworzenia sygnału analogowego po przetworzeniu na cyfrowy rozwiązali teoretycznie C. Shannon i Kotielnikow w postaci prawa próbkowania. Mówi ono, że cała informacja zawarta w sygnale może być wyrażona w postaci kolejnych próbek cyfrowych jego wartości, jeżeli częstotliwość próbkowania jest co najmniej dwukrotnie większa od częstotliwości występującej w widmie sygnału.
czujniki parametryczne, które przekształcają wielkość mierzoną na parametr elektryczny. Zasilanie czujników parametrycznych wymaga odrębnych źródeł energii elektrycznej. Przy pomiarach wielkości szybkozmiennych zasilanie odbywa się ze źródeł o odpowiednio wysokiej częstotliwości, która musi być stabilizowana (np. źródło dostarczające napięcia o wysokiej stabilizowanej częstotliwości i amplitudzie, a czasem również o stabilizowanym kształcie przebiegu).
Rozróżnia się czujniki generacyjne, które wytwarzają energię elektryczną, zużywając do tego część energii związanej z wielkością mierzoną. Czujniki generacyjne nie wymagają zasilania energią elektryczną, a pomiar przy ich użyciu sprowadza się do wzmocnienia, ewentualnej demodulacji i odczytania wielkości mierzonej. Pod wpływem wielkości mierzonej (kosztem jej energii) jest wytwarzana energia elektryczna, co objawia się powstaniem w czujniku siły elektromotorycznej i przepływem prądu przez przyłączony do niego obwód.
x czujnik miernik
W najprostszym przypadku, jeśli błąd przyrządu zdefiniujemy następująco: Δ= x* - x,to z zapisu modelu f i procedury φ oraz z warunku Δ = 0 powinniśmy wyznaczyć procedurę wzorcowania φ. Ale w modelu y = fo(x1, ...., xm-1, x) funkcja odwrotna f nie jest jednoznaczna wskutek zmienności wielkości wpływających x1, ..., xm-1. Aby wzorcowanie było proste i jednoznaczne, przeprowadza się je w warunkach odniesienia xi = xio= const dla i = l, ..., m - 1. W warunkach odniesienia właściwości przyrządu modeluje równanie przetwarzania y = fo(x1, ...., xm-1, x) = fo(x). Dla warunku Δ = 0 otrzymujemy x* = φ[fo(x)] = x,
= fo-1 po zastosowaniu procedury wzorcowania model matematyczny przyrządu wzorcowanego jest bardzo prosty x* = x
Przyrządy pomiarowe, które użytkujemy, są opisywane takim właśnie modelem na przedziale (xd, xg).
Procedura wzorcowania jest funkcją mierzalnego argumentu i nie kryje żadnej losowości. Można ją wyrazić wielomianem x* = φ(y) = co + c1yo + ... + cpyop Wzorem x*= x opisuje się także marę wzorców. Wielkość x jest nieznanym dokładnie stanem wzorca, a x*jest miarą nadaną wzorcowi. Błąd wzorca Δ= x* - x jest wyznaczalny doświadczalnie przez porównanie, jeżeli stan x odtwarzany w procesie porównania przez wzorzec o pomijalnie małym błędzie i komparator ma błąd pomijalnie mały. Wzorem
x* = x opisuje się także marę wzorców. Wielkość x jest nieznanym dokładnie stanem wzorca, a x* jest miarą nadaną wzorcowi. Błąd wzorca Δ = x* - x jest wyznaczalny doświadczalnie przez porównanie,
jeżeli stan x odtwarzany w procesie porównania przez wzorzec o pomijalnie małym błędzie i komparator ma błąd pomijalnie mały.
Przetwarzanie zbieranych danych cyfrowych może czasem polegać jedynie na
prostym porównaniu z zadanymi wartościami,
lecz często składa się ze skomplikowanych działań, takich jak np.:
obróbka statystyczna
bądź wyodrębnienie sygnałów pomiarowych z sygnałów zakłóconych szumami na drodze odpowiednich operacji matematycznych.
Na ogół celem przetwarzania jest uzyskanie informacji użytecznej do sterowania procesami i do wizualizacji. Do wykonania powyższych funkcji konieczne jest przetworzenie sygnału analogowego na cyfrowy w przetworniku analogowo-cyfrowym (a/c). Ważnym zagadnieniem jest określenie minimalnej częstotliwości próbkowania, zapewniającej pełne odtworzenie sygnału analogowego po przetworzeniu go na postać cyfrową. Problem ten został teoretycznie rozwiązany przez C. Shannona oraz W. Kotielnikowa i sformułowany w postaci tzw. prawa próbkowania. Mówi ono, że cała informacja zawarta w sygnale ciągłym zmieniającym się w czasie może być wyrażona w postaci kolejnych próbek cyfrowych jego wartości, jeżeli częstotliwość próbkowania jest co najmniej dwukrotnie większa od maksymalnej częstotliwości występującej w widmie sygnału.
Rozdzielczość przetwornika zależy ilości dyskretnych danych jaką może on przetworzyć. Podaje się ją w bitach, np. jeżeli potrafi przetworzyć próbkę na jedną z 256 wartości to jego rozdzielczość wynosi 8 bitów gdyż 2^8=256. Rozdzielczość może być wyrażona w woltach. Jest ona wówczas równa całkowitej skali pomiaru podzielonej przez liczbę poziomów kwantyzacji.
W układach pomiarowych z reguły mamy do czynienia z sygnałami zmieniającymi się w czasie. Pobieranie i przetwarzanie próbek napięcia następuje w wybranych chwilach, na ogół periodycznie z pewną częstotliwością, zwaną częstotliwością próbkowania. Podczas trwania konwersji w przetworniku a/c wartość sygnału wejściowego może ulec zmianom, co spowoduje powstawanie pewnego błędu o wartości zależnej od wzajemnej relacji szybkości zmian sygnału i szybkości przetwarzania. W celu uniknięcia tego błędu, szczególnie przy przetwarzaniu napięć szybkozmiennych, stosuje się układ próbkujący z pamięcią, który umieszczony przed przetwornikiem utrzymuje stałą wartość sygnału podczas przetwarzania. Ważnym zagadnieniem jest określenie minimalnej częstotliwości próbkowania, zapewniającej pełne odtworzenie sygnału analogowego po przetworzeniu go na postać cyfrową. Problem ten został teoretycznie rozwiązany przez C. Shannona oraz W. Kotielnikowa i sformułowany w postaci tzw. prawa próbkowania. Mówi ono, że cała informacja zawarta w sygnale ciągłym zmieniającym się w czasie może być wyrażona w postaci kolejnych próbek cyfrowych jego wartości, jeżeli częstotliwość próbkowania jest co najmniej dwukrotnie większa od maksymalnej częstotliwości występującej w widmie sygnału
Istnieje wiele rodzajów takich systemów - począwszy od zupełnie prostych, aż do bardzo rozbudowanych o różnych konfiguracjach.
W zależności od zastosowania (badania laboratoryjne, sterowanie procesami przemysłowymi) aparatura wchodząca w skład systemów zbierania danych powinna charakteryzować się odpowiednią dokładnością, stałością parametrów przy zmianach temperatury, odpornością na zakłócenia oraz umożliwiać przesyłanie sygnałów, czasem na znaczne odległości.
Wybór konfiguracji systemu zbierania danych oraz bloków wchodzących w jego skład jest uwarunkowany następującymi głównymi czynnikami:
rozdzielczością i dokładnością,
liczbą obsługiwanych torów analogowych,
częstotliwością próbkowania w każdym torze
oraz sumaryczną częstotliwością próbkowania we wszystkich kanałach, warunkami dopasowania sygnałów pomiarowych, długością kanałów transmisyjnych.
Bardzo istotny jest także koszt całego systemu.
Zbieranie danych w postaci cyfrowej jest przeprowadzane w celu ich rejestracji, przesyłania oraz przetwarzania.
Dane mogą być rejestrowane w postaci prostej, tj. w takiej w jakiej wychodzą z czujników pomiarowych, bądź też w formie przetworzonej zgodnie z określonymi formułami.
Mogą one być przesyłane do pamięci operacyjnej komputera lub też przenoszone na nośniki umożliwiające trwałe ich zapamiętanie, np. na dyski magnetyczne.
Przetwarzanie zbieranych danych cyfrowych może czasem polegać jedynie na
prostym porównaniu z zadanymi wartościami,
lecz często składa się ze skomplikowanych działań, takich jak np.
obróbka statystyczna
bądź wyodrębnienie sygnałów pomiarowych z sygnałów zakłóconych szumami na drodze odpowiednich operacji matematycznych.
Na ogół celem przetwarzania jest uzyskanie informacji użytecznej do sterowania procesami i do wizualizacji.
Do wykonania powyższych funkcji konieczne jest przetworzenie sygnału analogowego na cyfrowy w przetworniku analogowo-cyfrowym (a/c).
Wraz z rozwojem techniki cyfrowej i komputerowej powstawały różnorodne systemy zbierania danych, o różnych rozwiązaniach i możliwościach, głównie dla potrzeb laboratoriów badawczych i sterowania procesami przemysłowymi.
Rozwój techniki cyfrowej i mikrokomputerowej spowodował, że w powstały systemy pomiarowe wykorzystujące jako system interfejsu magistralę mikroprocesorową, do której są dołączone zarówno typowe pakiety informatyczne (CPU, pamięci RAM i ROM, pamięć masowa, układy wejścia-wyjścia), jak i układy przetworników analogowo-cyfrowych.
W ten sposób typowy i tani mikrokomputer może stać się programowalnym układem pomiarowym o szerokich możliwościach. Wiele firm produkuje do komputerów kompatybilnych z IBM PC karty przetworników a/c i c/a.
Można tu przykładowo wymienić prostą kartę typu ADDA-12, wyposażoną w 12 bitowy przetwornik a/c oraz 16 kanałowy multiplekser wejściowy. Obsługa karty jest całkowicie programowa.
Umożliwia ona pomiary napięć uni- i bipolarnych z częstotliwością kilku tysięcy odczytów/s.
Karta jest wyposażona w multiplekser wejściowy (16 wejść niesymetrycznych lub 8 różnicowych), wzmacniacz o programowo ustawianym wzmocnieniu, układ próbkująco - pamiętający oraz zespół sterujący, umożliwiający autonomiczną pracę układu pomiarowego. Produkowane są także karty pomiarowe o rozdzielczości 14 i 16 bitów i o szybkości przetwarzania do 1 000 000 odczytów/s.
Rozbudowane systemy pomiarowe tego typu są wyposażane w:
wielokanałowe multipleksery wejściowe,
wzmacniacze pomiarowe,
układy kompensacji temperatury zimnych końców termoelementów,
układy próbkująco-pamiętające
oraz obwody sterowania, umożliwiające realizację skomplikowanych procedur pomiarowych.
Wszystkie te elementy nie mieszczą się na pojedynczej karcie montowanej do wnętrza komputera. Konieczne staje się umieszczenie ich w oddzielnej obudowie i połączenie z komputerem za pomocą wielożyłowego kabla. W komputerze znajduje się jedynie karta zawierająca układy transmisyjne mające na celu wydłużenie magistrali systemowej.
Czynniki rzutujące na niepewność metody pomiaru powinny być najpierw
zidentyfikowane,
a następnie powinno się określić priorytety, lub inaczej wagi wpływu tych czynników na wyniki obserwacji w warunkach realizacji metody badawczej.
Do analizy źródeł błędów przypadkowych i systematycznych metod pomiarowych (w szczególności analitycznych) można wykorzystać wykres przyczynowo-skutkowy Ishikawy.
W analizie źródeł niepewności uwzględnia się następujące elementy procesu pomiarowego:
1. Określenie wielkości mierzonej. Każda nieścisłość w jej definicji może być źródłem błędów. Przykładowo dla prędkości rozchodzenia się dźwięku w powietrzu konieczne jest jednoznaczne określenie składu powietrza i warunków środowiskowych.
2. Błędy aparaturowe, związane ze sprzętem pomiarowym. W większości pomiarów podstawowym źródłem błędów jest wyposażenie pomiarowe. Efektem występowania różnych czynników są: błąd poprawności wskazania, rozrzut wskazań, błąd histerezy, itd.
3.Błędy obserwacji. Niedoskonałość zmysłów ludzkich, niewłaściwe rozmieszczenie przyrządów na stanowisku pomiarowym oraz parametry układu automatycznej rejestracji wyników pomiarów mogą być przyczynami błędów odczytania wskazań przyrządów.
4. Błędy metody. Błąd metody jest składową błędu pomiaru spowodowana tym, że zastosowana metoda nie umożliwia zmierzenia ściśle tej wartości, która miała być zmierzona. Wynika to z niedoskonałości sprzężenia informacyjnego między obiektem i narzędziem, oddziaływań energetycznych między obiektem i narzędziem lub nieokreśloności modelu wielkościowego opisującego obiekt. Na przykład, przy pomiarze temperatury pirometrem atmosfera między obiektem a pirometrem pochłania część promieniowania emitowanego przez obiekt; termometr stykowy wprowadzany do badanego ośrodka zmienia jego temperaturę. W przypadku pomiarów pośrednich zastosowanie przybliżonych wzorów na wielkość mierzoną można zaliczyć do błędów metody.
5. Błędy środowiskowe. Czynniki środowiskowe oddziałują zarówno na system pomiarowy, jak i na wielkość mierzoną. Warunki środowiskowe, tj. temperatura, ciśnienie, wilgotność, są czynnikami oddziałującymi na system pomiarowy, a tym samym wpływają na wyniki pomiarów. Wpływ ten ogranicza się przez odpowiednie sterowanie i utrzymywanie warunków środowiskowych w odpowiednich zakresach zmienności. Zewnętrzne czynniki takie jak pola elektryczne i magnetyczne, promieniowanie jądrowe, drgania, uderzenia, zapylenie itp. również mogą mieć znaczący wpływ na dokładność pomiarów.
6. Błędy obliczeniowe wynikają z zaokrągleń i uproszczeń oraz numerycznego przetwarzania wyników pomiaru.
Błędy w poszczególnych grupach mogą mieć zarówno charakter przypadkowy, jak i systematyczny. Ich wypadkową jest błąd pomiaru, który może być rozpatrywany jako zmienna losowa.
Jednym z ważniejszych elementów procedury szacowania niepewności pomiaru jest sformułowanie wzoru określającego wielkość mierzoną. Powinien on obejmować wszystkie parametry wpływające na wynik pomiaru.
Poprawne sformułowanie modelu matematycznego ułatwia analizowanie źródeł niepewności i właściwe oszacowanie ich wartości.
Sprawdzanie cech charakterystycznych metody badawczej koncentruje się na tych czynnikach, które wywierają istotny wpływ na niepewność pomiarów.
Do nich można zaliczyć:
czynnik ludzki (błąd obserwatora),
niejednorodność materiału próbki,
sposób pobierania próbek,
czystość odczynników,
parametry środowiska, w którym prowadzi się pomiary,
stałe błędy we wskazaniach przyrządów pomiarowych (np. błędy wagi lub błędy w nastawie temperatury),
zanieczyszczenia próbek ze środowiska lub aparatury,
efekt bezkrytycznego stosowania programów komputerowych (np. stosowanie modelu nieliniowej regresji wówczas, gdy należy stosować model liniowej regresji ważonej),
inne efekty przypadkowe wynikające z braku nadzoru, błędów wzorcowania wyposażenia pomiarowego, złej konserwacji sprzętu lub jego uszkodzenia.
Do analizy źródeł błędów przypadkowych i systematycznych metod pomiarowych ,analitycznych
Niepewność wyniku pomiaru wyrażona w formie odchylenia standardowego średniej
Niepewność standardowa wyniku pomiaru określana, gdy wynik ten jest otrzymywany z wartości pewnej liczby innych wielkości, równa pierwiastkowi kwadratowemu z sumy wyrazów, będących wariancjami lub kowariancjami tych innych wielkości z wagami zależnymi od tego jak wynik pomiaru zmienia się wraz ze zmianami tych wielkości.
Określa przedział wokół wyniku pomiaru, od którego to przedziału oczekuje się, że obejmie dużą część rozkładu wartości, które w uzasadniony sposób można przypisać wielkości spełniającą definicję wielkości mierzonej.
Kolejne etapy obliczania i wyrażania niepewności wyniku pomiaru metodami przedstawionymi w Przewodniku można uporządkować następująco:
Wyrażenie związku między wielkością mierzoną Y i wielkościami Xi, od których Y zależy, w postaci funkcji Y= f (X1 X2, ..., Xn). Funkcja f powinna zawierać wszystkie wielkości, włączając w to poprawki i współczynniki poprawkowe uwzględniające oddziaływania, które mogą wnosić znaczące składowe do niepewności wyniku pomiaru.
Wyznaczenie estymat xi wartości wielkości wejściowych X; albo na podstawie analizy statystycznej serii obserwacji, albo za pomocą innych metod.
Obliczenie niepewności standardowych u(xi) estymat wartości wielkości wejściowych xi. Dla estymat xi wyznaczonych na drodze statystycznej analizy serii obserwacji niepewności standardowe u (xi) oblicza się tak, jak podano dla metody A (obliczanie niepewności metoda typu A). Dla estymat xi wyznaczanych innymi metodami niepewności standardowe u (xi) oblicza się tak, jak podano dla metody B (obliczanie niepewności metodą typu B).
Obliczenie kowariancji związanych z estymatami wartości wielkości wejściowych skorelowanych.
Obliczenie wyniku pomiaru, to jest estymaty y wielkości mierzonej Y z zależności funkcyjnej f, dla wartości wielkości wejściowych Xi równych estymatom xi wyznaczonym w punkcie 2.
Określenie złożonej niepewności standardowej uc (y) wyniku pomiaru y na podstawie niepewności standardowych i kowariancji związanych z estymatami wartości wielkości wejściowych. Jeżeli w pomiarze określa się równocześnie więcej niż jedną wielkość wyjściową, należy także obliczyć ich kowariancje.
Określenie, jeżeli jest to konieczne, niepewności rozszerzonej U służącej do wyznaczania przedziału od y - U do y + U, który powinien obejmować dużą część rozkładu wartości, które można w sposób uzasadniony przypisać wielkości mierzonej Y. Niepewność rozszerzoną U oblicza się mnożąc złożoną niepewność standardową uc (y) przez współczynnik rozszerzenia k, zwykle mieszczący się w zakresie od 2 do 3, U = k uc ( y). Wartość k wybiera się na podstawie żądanego poziomu ufności.
Podanie wyniku pomiaru y wraz z jego złożoną niepewnością standardową uc (y) lub niepewnością rozszerzoną U. Do wyniku pomiaru należy dołączyć opis sposobu wyznaczenia y i uc (y) lub U.
Dokładność pomiarów
Dokładność wykonywania pomiarów jest podstawową cechą narzędzi pomiarowych i wyników pomiarów. Dokładność charakteryzuje się pośrednio podając właściwość przeciwną: niezgodność (uchybienie) albo niepewność (niedokładność). Niepewność pomiaru to inaczej ryzyko uzyskania błędnego wyniku w pomiarze.
1.7.1. Błąd bezwzględny pomiaru
Elementarną i podstawową miarą liczbową niezgodności jest błąd bezwzględny (dawniej uchyb). W metrologii błędem bezwzględnym Δ nazywa się różnicę pomiędzy wartością zmierzoną (Wp ), a wartością dokładną (Wrz ),to jest: Δ = Wp – Wrz gdzie:
(Wp ) - jest wartością mierzoną, której błąd wyznacza się, a więc jest wynikiem pomiaru,
(Wrz) - wartość dokładna, jest teoretycznie wartością rzeczywistą (prawdziwą), ustaloną np. jako wynik teoretycznych obliczeń, wartością średnią dużej liczby pomiarów lub parametrem procesu technologicznego.
Błąd bezwzględny zawsze wyrażony jest w jednostkach wartości mierzonej i może przyjmować znak plus lub minus. W praktyce błąd bezwzględny otrzymujemy w przybliżeniu z analizy dokładności pomiaru. Wartość przeciwna błędu bezwzględnego, tzn. − Δ, nazywana jest poprawką:
Możemy wyznaczyć w przybliżeniu wartość dokładną: Wrz = Wp + p
1.7.2. Błąd względny pomiaru
Do wyrażenia błędu i niepewności jest stosowana również skala względna. Błąd względny to iloraz błędu bezwzględnego Δ i wartości dokładnej (Wrz)
Błąd względny jest bezwymiarowy, najczęściej wyrażany w procentach. Służy głównie do oceny dokładności przyrządów pomiarowych pracujących na różnych zakresach pomiarowych.
Powtarzalność pomiaru : to stopień zgodności kolejnych wyników pomiarów tej samej wielkości mierzonej, wykonywanych w tych samych warunkach pomiarowych.
Metody pomiaru temperatury:
1) Stykowe: termometry. Czujnik temperatury ma kontakt (styk) bezpośredni z ciałem lub badanym ośrodkiem i wymienia ciepło na drodze przewodzenia, konwekcji lub promieniowania. W wyniku zaburzenia czujnikiem ciała lub badanego ośrodka zostaje zdeformowane pole temperatury, a powstałe błędy zależą od charakterystyki ośrodka i czujnika.
2) Bezstykowe: pirometry (najczęściej wykonane jako optyczne). Zjawisko wysyłania promieniowania cieplnego przez nagrzane ciało; polegają na pomiarze wielkości charakteryzującej promieniowanie i zależnej od temperatury.
Pomiar temperatury zmiennej w czasie należy do pomiarów trudnych. Podstawą do rozpatrywania własności dynamicznych czujników do pomiaru temperatury jest więc znajomość zjawisk wymiany ciepła w czujniku i jego otoczeniu, czyli ośrodku, którego temperaturę mierzy.
*Temperaturę czujnika wprowadzonego do ośrodka o temperaturze T określa równanie:
Z zależności przytoczonych wynika, że wartość stałej czasowej (to) określa bezwładność cieplną czujnika termometru. Zależy ona zarówno od własności konstrukcyjnych i fizycznych czujnika, jak i warunków wymiany ciepła między czujnikiem a jego otoczeniem.
Pomiar nieustalonej w czasie temperatury płynu
*Przy pomiarach szybkozmiennej temperatury należy więc stosować czujniki, które cechuje w danym ośrodku
–mała stała czasowa, np. termometry o małych pojemnościach cieplnych czujników,
–dobrą wymiana ciepła między czujnikiem a badanym ciałem.
Paramagnetyczny analizator tlenu - Właściwości paramagnetyczne cząsteczek tlenu zostały wykorzystane do pomiaru jego stężenia w gazach. Cząsteczki tlenu pod wpływem pola magnetycznego zmieniają kierunek ruchu; przepływając przez kanał poziomy powodują chłodzenie czujników przepływu. Pojawienie się przepływu w kanale poziomym oznacza obecność tlenu w badanym gazie; natomiast natężenie jego przepływu jest marą jego stężenia w badanym gazie.
Elektrochemiczny analizator tlenu - W wyniku reakcji oksydacyjno-redukcyjnej w pobliżu elektrod ogniwa powstaje na nich różnica potencjałów proporcjonalna stężenia tlenu w ich pobliżu.
Do cylindrycznego reaktora, w którym utrzymywane jest przez pompę próżniową, niewielkie ciśnienie rzędu 5-7 mmHg, doprowadzany jest ze stałym, bardzo małym natężeniem przepływu badany gaz oraz ozon wytwarzany w generatorze stanowiącym integralną część całego urządzenia. Pomiędzy cząsteczkami NO i trójtlenku tlenu zachodzi reakcja połączona z promieniowaniem elektromagnetycznym. Emisja ta za pośrednictwem fotopowielacza zamieniana jest syg. Elektryczny, który wzmocniony trafia do miernika wskazówkowego, cyfrowego lub rejestratora. W skład analizatora wchodzi ponadto konwerter termiczny, który w wyniku podgrzania analizowanego gazu do temperatury około 650C powoduje rozkład NO2 wg reakcji: 2NO2 2NO O2. Konwerter ten umieszczony jest równolegle z przewodem doprowadzającym spaliny bezpośrednio do analizatora. Dzięki temu możliwe jest określenie zarówno stężenia NO w spalinach płynących bezpośrednio do analizatora, jak też przepuszczając je przez konwerter można określić następnie sumę stężeń NO i NO2. Liczba cząsteczek i stężeń NO powstałego z rozkładu NO2 są równe, zgodne z prawem Avogadro, liczbie cząsteczek i stężeniu tego ostatniego związku.
Metody oparte na niskodyspresyjnej absorpcji w podczerwieni wykorzystują zjawisko, że prawie wszystkie związki chemiczne wykazują charakterystyczną, selektywną absorpcję w podczerwieni. Większość spektrofotometrów na podczerwień pracuje przy tym w zakresie długości fal 2-15 μm. Pomiar absorpcji promieniowania przy określonej długości fali może stanowić podstawę do ilościowej oceny określonych związków.
Selektywność – przyjęta metoda powinna być specyficzna dla określonego zanieczyszczenia, a wpływ innych zanieczyszczeń powietrza powinien być pomijalnie mały lub łatwy do wyeliminowania. Czułość i zakres - minimalne stężenie możliwe do określenia daną metodą, powinno być znacznie mniejsze od dopuszczalnej wartości stężenia, a zakres pomiaru powinien obejmować wartości większe od wartości normalnych. Stabilność próbki - pobrana próbka powinna wykazywać dostateczną stabilność w okresie od chwili poboru do chwili przeprowadzenia oznaczenia. Dokładność wskazań - błąd względny pomiaru powinien być dostatecznie mały, a błąd systematyczny metody - łatwy do jednoznacznego wyznaczenia. Czas uśredniania wskazań - powinien być zgodny z wartościami przyjętymi za wartości normowane. Opóźnienie oraz stałe czasowe odpowiedzi - przyrząd pomiarowy powinien reagować dostatecznie szybko na skokowe zmiany stężeń zanieczyszczeń, przy czym czas ten powinien być mniejszy ad czasu uśredniania.
Metody kulometryczne są sposobem analizy ilościowej opartym na prawach elektrolizy Faradaya w których wykorzystywana jest proporcjonalność masy wydzielanego składnika do ilości prądu jaki przepłynął w obwodzie. W przypadku określenia stężeń zanieczyszczeń powietrza stosowana jest pośrednia analiza kulometryczna polegająca na wytworzeniu elektrolitycznym rozpuszczalnej substancji która reaguje ilościowo z substancją oznaczania. Analizatory chemiluminescencyjny- do cylindrycznego reaktora w którym utrzymywane jest przez pompę próżniową niewielkie ciśnienie absolutne rzędu 5-7 mm Hg doprowadzany jest ze stałym bardzo małym natężeniem przepływu badany gaz oraz ozon.
Analizatory półprzewodnikowe Na złączu dwóch półprzewodników, w określonych warunkach temperaturowych, zachodzą reakcje chemiczne katalizowane substancją półprzewodnika. W wyniku tych reakcji zmienia się opór elektryczny złącza. Zmiana spadku napięcia na złączu półprzewodnikowym jest miarą stężenia tlenu.
Analizatory półprzewodnikowe
Na złączu dwóch półprzewodników, w określonych warunkach temperaturowych, zachodzą reakcje chemiczne katalizowane substancją półprzewodnika. W wyniku tych reakcji zmienia się opór elektryczny złącza. Zmiana spadku napięcia na złączu półprzewodnikowym jest miarą stężenia. Selektywność przetwornika zależy od rodzaju półprzewodnika i temperatury złącza oraz zmian oporności złącza wywołanych procesami chemicznymi w strefie złącza.