Statystyka – jkpiechota.pl
Statystyka
Statystyka dzieli się na statystykę opisową oraz statystykę matematyczną (wnioskowanie statystyczne).
Statystyka opisowa – umożliwia opis, uporządkowanie, zestawienie danych liczbowych i ich reprezentację w postaci szeregów, tabel, wykresów.
Statystyka matematyczna – zbiór recept do opracowania danych doświadczalnych. Również pewien sposób myślenia w którym oceniamy wpływ czynników losowych. Statystyka matematyczna dostarcza narzędzi do odpowiedniego zaplanowania, analizy i interpretacji wszelkiego rodzaju eksperymentów empirycznych.
Populacja
Przedmiotem badań statystycznych jest zbiorowość statystyczna określana mianem populacji.
Populacja może być:
skończona – zbiorowość o ustalonej lub możliwej do ustalenia liczbie elementów.
nieskończona – zbiór elementów zbiorowości jest nieograniczony lub niemożliwy do ustalenia.
Badania obejmujące całą populację (wszystkie jej jednostki) są badaniami kompletnymi.
Badania, które obejmują tylko część populacji zwanej próbą są badaniami częściowymi. Aby badania częściowe były wiarygodne próba musi być losowa (tzn. każdy element populacji będzie miał takie samo prawdopodobieństwo dostania się do próby) i reprezentatywna (tzn. jej struktura musi być jak najbardziej zbliżona do struktury całej zbiorowości statystycznej).
Statystyka matematyczna
Dyscyplina dostarczająca informacji niezbędnych do:
planowania doświadczeń.
sposobu zbierania danych
sposobu analizy uzyskanych danych liczbowych;
sposobu wnioskowania na podstawie danych liczbowych.
Wnioskowanie statystyczne
Zadaniem wnioskowania statystycznego jest:
estymacja nieznanych parametrów np. średniej badanej wartości w danej populacji;
testowanie istotności hipotez;
wysnuwanie właściwych wniosków z obserwacji poczynionych na próbie i przenoszenie ich na badane populacje.
Cechy
Mierzalne (skalarne, ciągłe) – wyrażone w liczbach rzeczywistych, mogące przyjąć dowolną wartość, np. Wzrost, masa ciała, stężenie związku itp.
Policzalne (skokowe, dyskretne) – wyrażone w liczbach naturalnych, przyjmujące tylko określone wartości, np. liczba dzieci w rodzinie.
Niemierzalne (jakościowe) – zaliczane do wcześniej ustalonych kategorii, np. kolor oczu.
Skala
Skala interwałowa (przedziałowa) - w tej skali zmienność jest ciągła.
Skala porządkowa - W tej skali nadajemy poszczególnym obiektom badanym rangi.
Skala nominalna - W tej skali przydzielamy poszczególne obiekty do określonych kategorii.
Skalę interwałową można zamienić na skalę porządkową, zaś skalę porządkową na skalę nominalną. Nie można tego uczynić w drugą stronę.
Szeregi
Szereg prosty (statystyczny): rosnący lub malejący – uzyskuje się porządkując uzyskane wyniki rosnąco lub malejąco.
Przy dużej liczbie pomiarów dane grupuje się w klasy (przedziały) tworząc szereg rozdzielczy (zgrupowany). Liczba klas nie powinna być mniejsza od 6 ani większa od 30.
Z szeregu rozdzielczego łatwo tworzy się szereg skumulowany, który wskazuje ogólną liczbę pomiarów wartości cechy, poniżej określonej wartości górnej granicy danej klasy.
Szereg rozdzielczy zgrupowany wielostopniowy
Szereg taki otrzymujemy przez podział wartości cechy ciągłej na klasy oraz przyporządkowanie poszczególnym klasom odpowiednich liczebności wartości zmiennej.
Postępowanie:
Ustalenie liczby klas (k), gdzie N to liczba pomiarów. $k = \text{od}\ \frac{\sqrt{N\ }}{2}\text{\ \ }\text{do}\ \sqrt{N\ }\ $
Ustalenie szerokości klas (h), gdzie R to rozstęp. $h = \frac{R}{k}$
Określenie granic przedziałów. Xmin. - najmniejsza wartość pomiaru, α - niedokładność pomiaru.
Dolna granica pierwszej klasy to wartość: $X_{\min} - \frac{\alpha}{2}$
Górna granica pierwszej klasy to wartość:$\text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }\ X_{\min} - \frac{\alpha}{2}$ + h
Górna granica jednej klasy jest jednocześnie dolną granicą klasy następnej.
Rozkład dwumianowy Bernouliego
$$\text{P\ }\left( r,\ n,\ p \right) = \begin{pmatrix}
n \\
r \\
\end{pmatrix}p^{r}q^{n - r}$$
p – prawdopodobieństwo sukcesu
q – prawdopodobieństwo porażki (q = 1 - p)
n – liczba powtórzeń (wielkość próby)
r – liczba sukcesów
Dwumian Newtona:
$$\begin{pmatrix}
n \\
r \\
\end{pmatrix} = \ \frac{n!}{\left( n - r \right)!r!}$$
Błędy
Rodzaje błędów, które można popełnić przy testowaniu hipotez.
Błąd I-go rodzaju (α) – odrzucenie prawdziwej hipotezy H0.
Błąd II-go rodzaju (1-β) – przyjęcie fałszywej hipotezy H0.
Hipoteza H0 | |
---|---|
Prawdziwa | |
Odrzucamy | α |
Przyjmujemy |
Błąd III-go rodzaju (γ) – przyjęcie złego kierunku HA.
Kiedy do testowania hipotezy stosujemy rozkład dwumianowy?
Gdy:
badana cecha jest niemierzalna i może przyjąć dwie możliwe wartości (np. orzeł i reszka);
dysponujemy pojedynczą próbą (np. jedną serią), w której policzono ilość przypadków wystąpienia każdej z dwóch wartości, jakie może przyjąć cecha (np. ilość wyrzuconych orłów i reszek);
dysponujemy rozkładem teoretycznym;
próba (seria) zdarzeń (np. rzutów monetą) jest małoliczna (mniej niż 30).
Kodowanie danych
Dodawanie, odejmowanie, mnożenie i dzielenie wszystkich elementów szeregu przez stałą. W/w działania można łączyć.
Obliczając statystyki z danych zakodowanych można je odkodować i uzyskujemy statystykę, jak z danych niekodowanych.
Rozkład przy kodowaniu przesuwa się na skali, zwęża lub rozszerza, ale jego zasadniczy kształt nie zmienia się.
Transformowanie danych
Pierwiastkowanie, podnoszenie do potęgi, obliczanie odwrotności, logarytmowanie i antylogarytmowanie, stosowanie funkcji trygonometrycznych,
Transformowanie danych stosujemy, gdy mamy do czynienia z przypadkami zależności nieliniowych (występujących w przyrodzie).
Np. powierzchnia liścia rośne z kwadratem długości
Kiedy do testowania hipotezy stosujemy rozkład normalny?
Gdy:
badana cecha jest mierzalna (tzn. posiada rozkład ciągły);
badana cecha posiada rozkład normalny;
dysponujemy pojedynczym wynikiem;
dysponujemy parametrami (μ i σ) rozkładu cechy w badanej populacji;
Przybliżenie rozkładu dwumianowego rozkładem normalnym.
Dla prób o dużej liczebności (najlepiej n>100) rozkład dwumianowy można przybliżyć rozkładem normalnym o parametrach:
$$P \rightarrow N\ (p,\ \sqrt{\frac{\text{pq}}{n}})$$
gdzie:
n- liczebność próby
p- prawdopodobieństwo sukcesu
q=(1−p) - prawdopodobieństwo porażki
Zatem:
μ = p
$$\sigma = \sqrt{\frac{\text{pq}}{n}}$$
Kiedy do testowania hipotezy stosujemy przybliżenie rozkładu dwumianowego do rozkładu normalnego?
Gdy:
badana cecha jest niemierzalna i może przyjąć dwie możliwe wartości (np. płeć męska lub żeńska);
dysponujemy pojedynczą próbą, w której określono proporcję obydwu wartości, jakie może przyjmować cecha;
dysponujemy rozkładem teoretycznym;
próba jest duża (przynajmniej 30, najlepiej powyżej 100).
Test istotności różnicy frakcji
Przy założeniu, że hipoteza, tzn. H0: p1-p2=0 , jest prawdziwa wówczas zmienna losowa Z:
$$Z = \ \frac{p_{1} - p_{2}}{\sqrt{\frac{p(1 - p)}{n_{1}} + \ \frac{p(1 - p)}{n_{2}}}}$$
gdzie:
n1, n2 – liczebność prób
a ,b – liczba sukcesów
p1, p2 – prawdopodobieństwo sukcesów
$$p_{1} = \frac{a}{n_{1}}\text{\ \ \ \ }p_{2} = \frac{b}{n_{2}}\ \ \ \ p = \frac{n_{1}p_{1} + n_{2}p_{2}}{n_{1} + n_{2}} = \ \frac{a + b}{n_{1} + n_{2}}$$
ma rozkład asymptotycznie normalny N(0,1).
Kiedy do testowania hipotezy stosujemy test istotności różnicy frakcji?
Gdy:
● badana cecha jest niemierzalna i może przyjąć dwie możliwe wartości (np. kurczak żywy lub martwy);
● Badana cecha jest mierzalna lub policzalna i uzyskane wyniki można podzielić na dwie kategorie;
● dysponujemy dwiema próbami, w których określono proporcje obydwu wartości, jakie może przyjmować cecha;
● próby są duże (przynajmniej 30). W przypadku prawdopodobieństwa sukcesu p w pojedynczym zdarzeniu znacznie odbiegającego od 0,5 próba powinna wynosić przynajmniej 100.
● w przypadku małolicznych prób (mniej niż 30 przypadków) powinno się stosować test dokładny Fishera lub test niezależności χ2 z poprawką Jatesa.
Test Chi-kwadrat
Test ten służy do weryfikacji hipotezy, że obserwowana cecha w próbie (populacji) ma założony przez eksperymentatora rozkład. Statystyką testu jest wyrażenie:
$$\chi^{2} = \sum_{i = 1}^{k}\frac{(n_{i} - \text{np}_{i})^{2}}{\text{np}_{i}}$$
gdzie:
ni - wartość doświadczalna (obserwowana) w klasie i,
npi - wartość teoretyczna (oczekiwana) w klasie i,
n - liczba klas.
k - liczność próby
Statystyka χ2 zawiera się w przedziale (0, +∞). Test chi-kwadrat jest testem jednostronnym.
UWAGA: Liczność oczekiwana w każdej klasie nie może być mniejsza od 5. Jeżeli zaistnieje taki przypadek, że liczność pewnej klasy jest mniejsza od 5, to klasy sąsiednie należy połączyć tak, aby łączna częstość oczekiwana wynosiła co najmniej 5.
Kiedy do testowania hipotezy stosujemy test zgodności χ2?
Gdy:
badana cecha jest niemierzalna i może przyjąć więcej niż dwie możliwe wartości (np. liczba oczek na kostce do gry);
badana cecha jest policzalna lub mierzalna, a uzyskane wyniki możemy podzielić na kilka kategorii;
potrafimy wskazać wartości teoretyczne;
Ograniczenia:
liczebność teoretyczna każdej kategorii/grupy powinna wynosić minimum 5 obserwacji.
Gdy ten warunek nie jest spełniony należy połączyć część kategorii ze sobą.
Centralne miary położenia
Średnia;
Moda (dominanta);
Mediana;
Kwantyle (kwartyle, decyle, centyle);
Moda (Mo, D) – wartość cechy występującej najczęściej (najliczniej).
Mediana (Me, M) – dzieli uporządkowany szereg liczbowy na połowę. Jest wartością środkową szeregu.
Kwantyle – dzielą szereg uporządkowany na części o jednakowej liczności.
Mediana (Me)
Dla szeregu statystycznego nieparzystego = środkowemu członowi szeregu.
Dla szeregu statystycznego parzystego = średniej arytmetycznej dwóch środkowych liczb.
Mediana jest nieczuła na wartości skrajne.
Stosuje się ją czasem do charakterystyki krótkich serii wyników (N<10), gdy pojedyncze pomiary odbiegają od pozostałych.
Moda (Mo) – Wartość modalna
Miejsce na osi o największej liczebności.
Moda jest nieczuła na wartości skrajne.
Jeśli pomiary są ciągłe to wyznaczamy przedział modalny.
Stosowane średnie:
Średnia arytmetyczna:
Średnia ważona:
Średnia geometryczna:
Średnia harmoniczna:
Średnia w szeregu rozdzielczym:
Odchylenie standardowe w szeregu rozdzielczym:
Wskaźniki rozproszenia
Rozstęp (xmax - xmin);
Rozstęp międzykwartylowy (q = Q3 - Q1);
Wariancja σ2;
Odchylenie standardowe (σ).
Parametry charakteryzujące populację: μ, σ.
Statystyki charakteryzujące próbę: s.
Średnia (arytmetyczna) próby:
Wariancja i odchylenie standardowe próby:
Oszacowanie nieznanej wariancji populacji na podstawie wariancji z próby.
Oszacowanie nieznanej wariancji populacji na podstawie wariancji z próby.
Ss jest nieobciążonym estymatorem odchylenia standardowego w populacji. Tak naprawdę zawsze chodzi nam o oszacowanie odchylenia standardowego w populacji (czyli ss) na podstawie próby, którą dysponujemy. Wiele podręczników dokonuje tu pewnego skrótu (myślowego) równoważąc odchylenie standardowe próby z jego estymatorem nieobciążonym i używa wzoru a) dla małej próby lub wzoru b) dla dużej próby. MY TEŻ TAK BĘDZIEMY ROBIĆ!
Oszacowanie nieznanej średniej w populacji na podstawie średniej z próby:
Ale obliczona średnia jest obarczona błędem.
Oszacowanie błędu średniej z próby.
Jeżeli pewna cecha posiada rozkład normalny o parametrach μ i σ
to średnia z n elementów posiada rozkład:
Zatem odchylenie standardowe średniej z n elementów wynosi:
Momenty centralne
Moment II-rzędu to wariancja.
Moment III-rzędu służy do analizy asymetrii rozkładu.
Moment IV-rzędu służy do analizy kurtozy rozkładu.
Skośność
Skośność jest miarą asymetrii rozkładu cechy.
Współczynnik skośności
Współczynnik asymetrii
Ze względu na wartość współczynników rozkłady prawdopodobieństwa możemy podzielić na:
Symetryczne A = 0
Prawoskośne A > 0
Lewoskośne A < 0
Przekształcenia pozwalające zmniejszyć skośność rozkładu
Liczenie średniej ruchomej
Śr.ruch. = (2 · śrn-tej.kat. + śrn-tej.kat.poprzedniej + śrn-tej.kat. Następnej)/4
Rozkład prawoskośny:
● logarytmowanie pomiarów
● jeżeli skośność nie jest zbyt duża to pierwiastkowanie
Rozkład lewoskośny:
● antylogarytmowanie pomiarów (eX, 10X)
● jeżeli skośność nie jest zbyt duża to podnoszenie do potęgi (X2, X3)
Kurtoza
Kurtoza jest miarą koncentracji („wypiętrzenia”) rozkładu wartości cechy.
Ze względu na wartość kurtozy rozkłady prawdopodobieństwa możemy podzielić na:
Mezokurtyczne: Kurt = 0 – spłaszczenie rozkładu podobne, jak w rozkładzie normalnym)
Leptokurtyczne: Kurt > 0 – rozkład „wypiętrzony”
Platykurtyczne: Kurt < 0 – rozkład „spłaszczony”
Kurtozę z próby liczymy ze wzoru:
Test t-Studenta – test o średniej arytmetycznej
Średnia n elementów pobranych z populacji o parametrach N(μ,σ) posiada rozkład:
W praktyce σ najczęściej nie jest znane. Znamy jedynie s uzyskane z wybranej próby. Po zamianie otrzymujemy parametr, którego rozkład ma charakter rozkładu t-studenta.
Dla n→∞ rozkład t-studenta zbliża się do rozkładu normalnego (coraz mniejszy błąd
związany z oszacowaniem odchylenia standardowego s).
Kiedy do testowania hipotezy stosujemy test t-Studenta dla jednej próby?
Gdy:
badana cecha jest mierzalna;
dysponujemy jedną próbą;
chcemy porównać, czy wartość średniej z próby jest zgodna z wartością przewidywaną dla całej populacji;
potrafimy wskazać wartość μ (np. na podstawie wcześniejszych badań na dużą skalę);
Ograniczenia:
uzyskana próba musi być losowa i reprezentatywna;
próba musi mieć rozkład normalny. Gdy próba nie ma charakteru rozkładu normalnego należy stosować tzw. testy nieparametryczne.
Test t-Studenta dla dwóch grup niezależnych
Statystyką testu jest wyrażenie:
gdzie:
Liczba stopni swobody:
Kiedy do testowania hipotezy stosujemy test t-Studenta dla dwóch prób niezależnych
Gdy:
badana cecha mierzalna;
dysponujemy dwoma próbami;
chcemy porównać, czy wartości średnich z dwóch prób różnią się w sposób istotny od siebie;
Ograniczenia:
uzyskane próby muszą być losowe i reprezentatywne;
obydwie próby muszą mieć rozkład normalny.
wariancje obydwu prób muszą być równe (nie mogą różnić się od siebie w sposób istotny statystycznie)
Gdy dwa ostatnie warunki nie są spełnione należy stosować tzw. testy nieparametryczne.
Test na równość wariancji – test F (Fishera-Snedecora)
Kiedy do testowania hipotezy stosujemy test F (Fishera-Snedecora)?
Gdy:
badana cecha jest mierzalna (ewentualnie policzalna);
dysponujemy dwoma próbami;
chcemy porównać, czy wariancje w tych próbach różnią się w sposób istotny statystycznie.
Ograniczenia:
uzyskane próby muszą być losowe i reprezentatywne;
obydwie próby muszą mieć rozkład normalny.
Test Cochrana-Coxa
Statystyka C Cochrana-Coxa jest dana wzorem:
Wartość krytyczna jest dana wzorem:
Kiedy do testowania hipotezy stosujemy test Cochrana-Coxa?
Gdy:
badana cecha jest mierzalna (ewentualnie policzalna);
dysponujemy dwoma próbami;
chcemy sprawdzić, czy wartości średnich z dwóch prób różnią się w sposób istotny
statystycznie;
Wariancje w próbach różnią się się od siebie w sposób istotny statystycznie.
Ograniczenia:
uzyskane próby muszą być losowe i reprezentatywne;
obydwie próby muszą mieć rozkład normalny.
Test t-studenta dla danych sparowanych
Liczymy różnicę dla każdej pary:
Następnie obliczamy statystykę:
Kiedy do testowania hipotezy stosujemy test t-Studenta dla danych sparowanych?
Gdy:
badana cecha mierzalna (ewentualnie policzalna);
gdy dysponujemy jedną próbą;
gdy analizujemy wyniki doświadczenia typu „przed” - „po”, tzn. gdy dysponujemy dwoma zbiorami danych, które można połączyć w logiczne pary danych.
Ograniczenia:
badana próba musi być losowa i reprezentatywna;
zbiór różnic di musi mieć charakter rozkładu normalnego.
Przedział ufności
Przedział ufności (PU) dla nieznanej średniej populacji wyznacza wzór:
czyli:
Współczynnik zmienności Pearsona
Współczynnik zmienności nie wyrażony w procentach nosi nazwę względnego odchylenia standardowego.
Można również obliczyć współczynnik zmienności odchylenia średniej:
Teoria błędów
Wskutek niedoskonałości przyrządów, jak również niedoskonałości organów zmysłów – wszystkie pomiary są dokonywane z określonym stopniem dokładności. Nie otrzymujemy prawidłowych wartości mierzonej wielkości, lecz wartości do niej zbliżone.
Wszystkie wartości wielkości fizycznych obarczone są pewnym błędem.
Pomiarem nazywamy czynności związane z ustaleniem wartości liczbowej miary danej wielkości fizycznej. Istotą pomiaru fizycznego jest porównanie wielkości z ustalonym wzorcem czyli jednostką.
Narzędzia pomiarowe: wzorce, przyrządy pomiarowe.
Sposób pomiaru: wielkości proste – pomiar bezpośredni; wielkości złożone – pomiar pośredni.
W pracowni spotykamy się z dwoma następującymi po sobie procesami:
Pomiar ustawienie przyrządu, obserwacja zjawiska, odczyt mierzonej wielkości
Obliczenia, również krytyczna analiza prawidłowości i stopnia ich pewności.
Błędy popełniane podczas pomiarów
Błędy przypadkowe – są to błędy nie powtarzające się. Mogą przyjmować wartość dodatnią lub ujemną. Spowodowane są przez różne niekontrolowane przez eksperymentatora czynniki, działające w chwili pomiaru (np. zmiany napięcia w sieci elektrycznej, do której podłączone są urządzenia pomiarowe, ograniczona dokładność obserwacji eksperymentatora).
Błędy grube – są to duże błędy przypadkowe spowodowane nieuwagą lub niestarannością eksperymentatora.
Błędy systematyczne – są to błędy powtarzające się, w większości tego samego znaku. Powodują je czynniki działające w jednakowy sposób w czasie wielokrotnego powtarzania tego samego pomiaru. Przyczyną tych błędów może być: niedokładność przyrządów, niedokładność metod pomiarowych oraz wzorów stosowanych do ostatecznych obliczeń.
Błędy systematyczne
błąd systematyczny określa się najczęściej w postaci błędu bezwzględnego
zwykle za błąd pojedynczego oznaczenia lub analizy przyjmuje się dokładność przyrządu
Metoda analityczna może być obarczona
1. systematycznym błędem stałym (powodowanym addytywnymi zakłóceniami)
2. systematycznym błędem zmiennym (powodowanym względnymi zakłóceniami)
Aby wykryć zmienny lub stały błąd systematyczny metody należy:
zbadać N próbek;
przyjąć, że wartości Xi to wartości dane a Yi to wartości oznaczone daną metodą analityczną;
wyznaczyć zależność pomiędzy powyższymi wartościami w postaci zależności funkcyjnej Y = aX + b;
jeśli wyraz wolny b istotnie różni się od 0 to dowodzi to występowania błędu stałego;
jeśli współczynnik kierunkowy a prostej istotnie różni się od 1 to dowodzi to występowania błędu zmiennego;
Występowanie błędów systematycznych zostaje stwierdzone jeśli:
Błędy pomiarowe
Błędy przypadkowe (losowe):
w pomiarach bezpośrednich opisuje je odchylenie standardowe, odchylenie standardowe średniej i wariancja.
Tak opisane błędy stosujemy tylko do takich samych warunków pomiarowych, czyli do analizy w danym laboratorium, gdy spełnione są te same założenia pomiarowe (tu odchylenie s można określać jako odchylenie standardowe dokładności).
w pomiarach pośrednich (gdy nie możemy zmierzyć bezpośrednio wielkości fizycznej A, lecz jest ona związana z K innymi wielkościami fizycznymi X1, X2, ......XK błąd całkowity określa nam różniczka zupełna:
Jeśli rozpatrzymy związek między dwiema zmiennymi X1 i X2 to przenoszenie (propagacja) błędu zachodzi według prostych zależności:
Dokładność, precyzja i powtarzalność metody
Dokładność– stopień zgodności z wartością prawdziwą; przeciętne odchylenie otrzymanych wyników od wartości rzeczywistej (wzorca).
Precyzja – zgodność między indywidualnymi wynikami powtarzanymi wielokrotnie na tym samym materiale, określa się za pomocą np. odchylenia standardowego.
Powtarzalność – uzyskiwanie tych samych wyników na tym samym materiale w różnym czasie, przez różnych analityków, różnymi odczynnikami.
Inne kryteria metody analitycznej
Czułość m. a. - najmniejsza różnica zawartości składnika, jaką można oznaczyć daną metodą.
Wykrywalność m. a. - najmniejsza wartość stężenia lub ilości składnika, jaką można wykryć tą metodą,
Oznaczalność m. a. - najmniejsze stężenie składnika, jakie można oznaczyć ilościowo daną metodą,
Selektywność m. a. - możliwe jest wykrycie np. niewielkiej liczby różnego rodzaju cząsteczek,
Specyficzność m. a. - możliwe jest wykrycie np. cząsteczek jednego rodzaju.
Dokładność i precyzję metody analitycznej można sprawdzić kilkoma metodami:
1. Statystyczna ocena oznaczeń wzorców;
2. Ustalenie współzależności korelacyjnej dla mieszaniny wzorców;
3. Porównanie dwóch metod;
4. Użycie odzysku.
Metoda odzysku
Polega na równoległym oznaczeniu nieznanego stężenia w badanej próbce oraz w tej samej próbce z dodatkiem określonej ilości wzorca.
Jest to miara dokładności metody.
Ustalenie współzależności korelacyjnej dla mieszaniny wzorców
Roztwór wzorcowy rozcieńczamy w celu otrzymania serii różnych stężeń wzorca (stężenie oczekiwane oś X).
Dokonujemy pomiarów (stężenia znalezione oś Y).
Liczymy współczynniki prostej regresji.
Metoda jest dokładna jeśli:
r≥0,98 0,98≤a≤1,02 oraz b=0
Porównanie dwóch metod
Serię wzorców oznacza się dotychczas używaną metodą o znanej dokładności (wartości oczekiwane X0 i s0) i nową metodą (wartości znalezione X1 i s1).
Różnica pomiędzy dwoma metodami stanowi ocenę dokładności i precyzji
- ocena dokładności – sprawdzanie istotności różnic pomiędzy średnimi
- ocena precyzji – sprawdzenie istotności różnic pomiędzy wariancjami.
Dokładność pojedynczego wyniku określa błąd pomiaru:
ΔXi dla pojedynczego pomiaru szacujemy na podstawie dużej próby N>>30 jeśli cecha ma rozkład normalny
Maksymalne granica błędu przypadkowego pojedynczego pomiaru:
Często za błąd pojedynczego pomiaru przyjmuje się dokładność przyrządu
pomiarowego.
Dokładność wyniku końcowego analizy:
Na ten błąd ma wpływ błąd przypadkowy średniej i błąd systematyczny metody.
Jeśli cecha ma rozkład normalny to:
Maksymalne granice błędu przypadkowego dla dużej próby
Maksymalne granice błędu przypadkowego dla małej próby
Błąd względny metody w %
Błąd systematyczny duży w porównaniu z błędem przypadkowym
1. Wielkości proste, szacujemy błąd na podstawie dokładności lub klasy przyrządu (= najmniejsza działka skali)
2. Wielkości złożone, obliczmy błąd maksymalny, tzn. określamy jaki maksymalny wpływ na wynik końcowy posiadają błędy systematyczne poszczególnych wielkości prostych
- matematycznie, różniczka zupełna
Błędy pomiarowe
Błąd gruby – kryterium eliminacji:
Test Q-Diksona
Test Grubbsa
Sposób von Graf'a i Henninga:
1. Dla N 10 < N < 1000
2. Pomija się wynik „podejrzany” i oblicza średnią i odchylenie standardowe
3. Jeśli liczba rozpatrywanych wyników jest większa od 10 i jeśli wynik „podejrzany” różni się od średniej o 4 lub więcej odchyleń standardowych to wynik ten z dużym prawdopodobieństwem jest obciążony błędem grubym
Gdy N > 30
Odrzucanie wyników niepewnych. Test Grubbsa
W teście Grubbsa do sprawdzenia największej wartości z próby o liczności n posługujemy się wzorem:
Dla wartości najmniejszej mamy:
Gdzie
W celu ustalenia, czy dwie wartości odbiegają od pozostałych korzystamy z zależności:
Dla wartości najmniejszej mamy:
Gdzie
Odrzucamy wyniki z określonym prawdopodobieństwem, kiedy we wszystkich wymienionych przypadkach wartość doświadczalna stosunku (Si2/S2)d jest mniejsza od wartości teoretycznej (Si2/S2)t.
Odrzucanie wyników niepewnych. Test Q Dixona
W teście Q Dixona do sprawdzenia największej wartości z próby o liczności n posługujemy się wzorem:
Dla wartości najmniejszej mamy:
gdzie R - rozstęp.
Wynik uznajemy za niepewny jeżeli wartość Qp lub Ql jest większa od wartości krytycznej.
Regresja liniowa
Prosta regresji najmniejszych kwadratów:
y=ax+b
Szukamy takich wartości a i b, aby różnice:
były jak najmniejsze.
Współczynniki regresji liniowej:
Odchylenie standardowe współczynnika kierunkowego regresji a oraz współczynnika przesunięcia b wyliczmy ze wzorów:
Przedziały ufności dla współczynnika kierunkowego regresji a oraz współczynnika przesunięcia b wyliczmy ze wzorów:
Odchylenie standardowe resztkowe:
Miarą współzależności liniowej dwóch zmiennych X i Y jest kowariancja określona wzorem:
Bezpośrednie porównywanie pierwotnych wartości liczbowych par cech w badanej próbie nie ma merytorycznego uzasadnienia. Można porównywać ze sobą wartości unormowane różnych cech.
Wartości unormowane są obliczane z następujących wzorów.
Powszechnie przyjęto używać jako miary związku współzależności między cechami wielkość zwaną
współczynnikiem korelacyjnym Pearsona r:
Uwaga! W tym przypadku we wzorach na sx oraz sy w mianowniku jest n, a nie n-1!
Lub współczynnika determinacji - r2: jest naturalna miarą jakości dopasowania modelu do danych empirycznych oraz informuje w jakim stopniu zmienność zmiennej objaśnianej jest wyjaśniona przez model.
Odchylenie standardowe współczynnika korelacji dla małolicznej próby wynosi:
Współczynnik korelacji r przybiera wartości z zakresu <-1;1>.
Przy zupełnym braku korelacji r = 0.
Przy pełnej korelacji r = 1 (korelacja dodatnia) lub r = -1 (korelacja ujemna).
Pozostałe wartości świadczą o częściowej korelacji.
Istotność korelacji można zweryfikować testem t-Studenta.