Hipotezy o strukturze błędów pomiarów geodezyjnych
Hipoteza molekularna Hagena
Twierdzenia graniczne o sumach niezależnych składników losowych
Superpozycyjny model niedokładności (błędu) obserwacji
Teoria błędów pomiarów geodezyjnych
Rozważania nad własnościami losowych wyników pomiarów prowadziło wielu badaczy. Podstawowym problemem z którym należy się zmierzyć to fakt, że wyniki obserwacji zapisywane są z określona dokładnością np. mm lub cc i w tych jednostkach jest liczba całkowitą. Wynika stąd prosty wniosek, że wynik pomiaru jest dyskretną zmienną losową. Jednak to badając obserwacje geodezyjne Gauss odkrył (1820) rozkład normalny opisujący ciągłą zmienną losową i estymacja oparta o ten rozkład sprowadza się do liniowego zadania Metody Najmniejszych Kwadratów.
Błąd prawdziwy obserwacji ε
różnica między nieznaną prawdziwą wartością mierzonej wielkości Ltrue
i wynikiem pomiaru Lobs (obserwacją)
ε = Ltrue−Lobs
Źródła błędów:
- niedoskonałość zmysłów obserwatora,
- niedokładność narzędzi pomiarowych (dalmierz, teodolit, niwelator)
- warunki środowiskowe (temperatura, ciśnienie, wilgotność, wiatr, opady, promieniowanie słoneczne).
Klasyfikacja błędów obserwacji
- błędy grube (omyłki),
- systematyczne,
- przypadkowe (losowe).
Błędy grube (obserwacje odstające)
powstają z przekłamania informacji charakteryzującej wynik pomiaru.
Podczas pomiaru instrumentami analogowymi wynikają one z nieuwagi obserwatora, są spowodowane omyłkowym odczytem przyrządów użytych do pomiaru, bądź słabo czytelnym zapisem wyniku. Podczas pracy instrumentami cyfrowymi wykonującymi odczyt i zapis wyniku automatycznie, błędy grube wynikają z wadliwej identyfikacji np. błędny numer celu a nawet nieumyślne naciśnięcie klawisza ODCZYT. Błędy grube muszą być wykryte i wyeliminowane, w przypadkach wątpliwych należy wykonać powtórny pomiar.
Błędy systematyczne
powstają wskutek oddziaływania różnych czynników na wynik pomiaru jak brak kalibracji instrumentów lub wpływ środowiska np. temperatury na pomiar długości taśmą stalową. Znając źródło i prawo powstawania błędu, można wyeliminować błąd z wyników poprzez
stosowanie specjalnych metod pomiarów eliminujących niektóre błędy systematyczne,
obliczenie poprawki i zredukowanie obserwacji,
wprowadzenie do wyrównania ścisłego dodatkowych parametrów modelujących wpływ systematyczny.
Błędy przypadkowe
mają charakter losowy, spowodowane przyczynami, których nie da się uniknąć np. niedoskonałość zmysłów obserwatora, niedoskonałość instrumentów użytych do pomiarów a nawet pozostałości nieusuniętych błędów systematycznych. Błędów losowych nie możemy uniknąć ani usunąć ale możemy ograniczyć ich wpływ na końcowy rezultat pomiarów poprzez uśrednienie wpływów błędów poszczególnych obserwacji dlatego musimy posiadać nadmiar obserwacji w stosunku do wyznaczanych niewiadomych parametrów.
Hipoteza molekularna (Hagen 1837)
Wynik pomiaru stanowi rezultat wielu czynności obarczonych wpływem różnorodnych czynników instrumentalnych, środowiskowych i osobowych. A według Bessela ile czynności tyle błędów. Jego uczeń Hagen wyraził błąd w formie sumy n błędów elementarnych przyjmujących wartości −δ i + δ z prawdopodobienstwami 1/2
Oznaczając przez k liczbę błędów elementarnych ze znakiem minus otrzymamy wartości zmiennej losowej
xk = (n−k)δ − kδ = (n−2k)δ gdzie k = 0, 1, …, n
oraz prawdopodobieństwo tego szczególnego rozkładu dwumianowego
$$p_{k} = \frac{1}{2^{n}}\begin{pmatrix}
n \\
k \\
\end{pmatrix} = \frac{n!}{2^{n}\left( n - k \right)!k!}$$
Wartości zmiennej Hagena należą do przedziału −nδ ≤ xk ≤ nδ i są równomiernie rozmieszczone co 2δ
Parametry
E(X) = 0
σ2 = μ2 = nδ2
$\mu_{4} = n^{2}\delta^{4}\left( 3 - \frac{2}{n} \right) = \sigma^{4}\left( 3 - \frac{2}{n} \right)$
$Kurt = \frac{- 2}{n}$ czyli w miarę wzrostu n rozkład Hagena zbliża się asymptotycznie do rozkładu normalnego.
Rozkład Hagena jest szczególnym przypadkiem rozkładu dwumianowego Bernoulliego dla p=1/2 przesuniętego tak aby wartość oczekiwana była zerowa.
Rozkład dwumianowy Bernoulliego
$$P\left( X = k \right) = \begin{pmatrix}
n \\
k \\
\end{pmatrix}p^{k}\left( 1 - p \right)^{n - k}\ \ \ \ \ k = 0,1,\ldots.,n$$
Wartość oczekiwana m = E(X) = np
wariancja σ2 = np(1−p)
współczynnik skośności $\frac{1 - 2p}{\sqrt{\text{np}\left( 1 - p \right)}}$
Kurtoza $Kurt = \frac{\mu_{4}}{\sigma^{4}} - 3 = \frac{1 - 6p\left( 1 - p \right)}{\text{np}\left( 1 - p \right)}$
Kurtoza maleje więc proporcjonalnie do liczby składników – rozkład sumy dąży do rozkładu normalnego
PROBLEM JEST ESTYMACJA W DZIEDZINIE LICZB CAŁKOWITYCH
- CZY KAZDA WIELKOŚĆ MIERZONA JEST CAŁKOWITA ?
NP. BOKI I PRZEKATNA PROSTOKĄTA
Superpozycyjny model niedokładności (błędu) obserwacji (Nowak 1986)
Wiemy, że źródeł błędów jest wiele, a wynik obserwacji jest dyskretny. Nie możemy zakładać, że każde źródło błędów działa dyskretnie i jednakowo jak zrobił to Hagen. Z twierdzeń granicznych wynika, że zsumowanie wielu składowych losowych o różnych rozkładach ciągłych i dyskretnych daje w granicy rozkład normalny. Współczesne instrumenty składają się z części analogowej (np. limbus teodolitu na którym analogowo odkładany jest mierzony kąt) i części cyfrowej stanowiącej automatyczny system odczytowy.
Miara wielkości analogowej (np. przekątna kwadratu) jest liczbą rzeczywistą obarczoną działaniem czynników fizycznych. Część losowa tego wpływu jako suma wielu komponentów losowych jest zmienną losową o granicznym rozkładzie normalnym.
System odczytowy digitalizuje mierzoną wielkość analogową z określoną rozdzielczością i emituje wynik obserwacji jako całkowitą liczbę działek. Funkcję systemu odczytowego można porównać z zaokrąglaniem liczby rzeczywistej stanowiącej miarę wielkości analogowej do liczby całkowitej. Takie zaokrąglenie oznacza zniekształcenie miary przez błąd zaokrąglenia. Dla idealnego systemu odczytowego błąd zaokrąglenia jest zmienną losową o ciągłym rozkładzie równomiernym w przedziale $\left( - \frac{1}{2},\frac{1}{2} \right)$.
Rozkład wyników obserwacji O jest więc superpozycją (złożeniem) rozkładu normalnego i rozkładu równomiernego w efekcie otrzymamy quasi-normalny rozkład dyskretny. Cechy tego rozkładu zależą od stosunku szerokości działki
d = 2δ w rozkladzie Hagena
do odchylenia standardowego σ rozkładu normalnego opisującego miarę wielkości analogowej.
Przeanalizujemy generowanie rozkładu obserwacji O procesie dyskretyzacji w formie nałożenia skali z kreskami w stałych odstępach d, realizujących zaokrąglenie$\ \ \ ( - \frac{d}{2},\frac{d}{2} >$, na rozkład normalny N(m,σ)
zaczynamy od sytuacji gdy kreska (zerowa) skali pokrywa się z osią symetrii rozkładu normalnego – uzyskany rozkład jest symetryczny, wartość oczekiwana E(O)= E(N)=0 (wynosi zero) i wartości zero odpowiada największe prawdopodobieństwo maksimum P=P(O=0) – uzyskany rozkład jest podobny do rozkładu Hagena dla parzystego n
przesuwając rozkład normalny o niewielki odcinek w prawo 0<E(N)<d/2 uzyskujemy niesymetryczny rozkład obserwacji O (dominuje prawa strona maksymalnie dla E(N)=d/4)
przesuwając rozkład normalny o niewielki odcinek w lewo –d/2<E(N)<0 uzyskujemy niesymetryczny rozkład obserwacji O (dominuje lewa strona maksymalnie dla E(n)=–d/4)
przesuwając rozkład o d/2 uzyskamy rozkład symetryczny E(N)=E(O)=d/2, dominujące prawdopodobieństwa występują dla dwóch odczytów P(O=0)=P(O=1), uzyskany rozkład jest podobny do rozkładu Hagena dla nieparzystego n
dalsze przesunięcia stanowią cykliczne powtórzenia opisanych przypadków
Rozkład ten jest bardzo zbliżony do normalnego gdy wielkość działki nie przekracza odchylenia standardowego σ rozkładu normalnego opisującego miarę wielkości analogowej. Rozkład można uzyskać w poszczególnych przedziałach działek na podstawie dystrybuandty rozkładu normalnego – Excelu ROZKŁ.NORMALNY.S(x;PRAWDA).