1.Badanie statystyczne. Etapy badania i rodzaje badań statystycznych
Badanie statystyczne - ogół prac mających na celu poznanie prawidłowości występujących w procesach masowych. Przedmiotem badań są określone zbiorowości (populacje), które stanowią zbiór jednostek powiązanych ze sobą logicznie i jednocześnie nie identycznych. Etapy badania statystycznego:
-planowanie - sprecyzować cel badania ( wyjaśnić przyczyny zjawiska: zdefiniować zbiorowość statyst., dokonać wyboru cech statyst., które będą obserwowane)
-obserwacja statystyczna ( zbieranie danych liczbowych) - formy badania: obserwacje spisowe, bieżąca obserwacja, inne badania o charakterze i przeznaczeniu specjalnym. W wyniku otrzymujemy surowy materiał statyst.
-opracowanie zebranego materiału statyst - pogrupowanie i zliczanie materiału statyst., otrzymujemy szeregi statyst. (ciąg wielkości statystycznych rosnących lub malejących uporządkowanych według określonych cech
-opinia i wnioskowanie statyst.
Badanie całkowite - takie gdzie badaniem objęte są wszystkie jednostki badanej zbiorowości
Badanie częściowe - j.w. niektóre jednostki
Rodzaje badań częściowych:
-reprezentacyjne - część zbiorowości wybrana losowo
-monograficzne - ustalona część zbiorowości
-ankietowe - badanie sondażowe
2.Cechy statystyczne - klasyfikacja cech statystycznych, przykłady
Cecha statyst. - pewna własność (właściwość) jednostki statyst. wchodzącej w skład badanej zbiorowości np. wiek, płeć. Dzielimy na:
-ilościowe (mierzalne) - poszczególne ich warianty dają się wyrazić za pomocą liczb. Możemy podzielić na: ciągłe (wiek), tzn. może przyjmować dowolne wartości z pewnego przedziału liczbowego i skokowe (liczba dzieci w rodzinie), tzn. przyjmuje ona tylko niektóre wartości z pewnego przedziału.
cechy jakościowe (niemierzalne) - warianty ich wyrażamy za pomocą słów np. płeć, zawód.
3.Charakterystyka tablicy statystycznej. Symbole umowne stosowane w publikacjach
W postaci tablic najczęściej przedstawiamy rezultaty obserwacji statyst. . Tablice statyst. są liczbowym obrazem struktury badanej zbiorowości. Są formą statystycznego uporządkowania danych liczbowych w sposób umowny. Tablice statyst. są zbiorem szeregów statystycznych. Dzielimy je na: proste i kombinowane. Tablica, która zawiera jeden szereg nazywamy tablicą prostą. Tablice kombinowane składają się z kilku szeregów, przy czym obejmują one jedną zbiorowość statyst. scharakteryzowaną według dwóch lub więcej cech jednocześnie.
Zasadniczo każda tablica składa się z trzech części: tytuł i nr. Tablicy i informacje na temat budowy tablicy.
Budując tablice statyst. należy zwrócić uwagę aby każda jej pozycja była zapełniona odpowiednią liczbą. Jeśli z pewnych przyczyn nie możemy wypełnić jakiejś pozycji liczbą, to w tym miejscu stawiamy jeden z następujących znaków umownych:
-kreska (-) która oznacza, że dane zjawisko nie występuje
-kropka (.) która oznacza brak informacji lub brak wiarygodnych informacji o danym zjawisku
-zero (0) które oznacza, że dane zjawisko występuje, ale w ilościach rzędu mniejszego od rzędu liczb podanych w tablicy
-wykrzyknik (!) obok liczby używany jest dla podkreślenia, że została ona zamieszczona w tablicy jako poprawniejsza w porównaniu z poprzednio ogłoszoną
-krzyżyk (#) który oznacza, że rubryka nie może być wypełniona ze względu na układ tablicy.
Pod tablicą umieszcza się uwagi i odsyłacze, które zawierają dodatkowe wyjaśnienia dotyczące poszczególnych informacji lub całości tablicy.
4.Charakterystyka i zastosowanie klasycznych miar przeciętnych
Do miar średnich klasycznych zaliczamy :
-średnia arytmetyczna - stanowi ją suma wartości wszystkich jednostek zbiorowości statyst. podzielona przez liczebność tej zbiorowości
-średnia harmoniczna - stosujemy gdy wartości cechy podane są w formie odwrotności (gdy wartości jednej cechy są podane w przeliczeniu na stała jednostkę innej cechy), np. przeciętna prędkość pojazdów, towarów itd.
-średnia geometryczna - charakteryzuje cechę gdy wartości tej cechy przedstawione są w postaci względnej. Stosowana gdy występują duże różnice między obserwacjami, jest mniej wrażliwa na wartości nietypowe niż średnia arytmetyczna.
5.Charakterystyka i zastosowanie pozycyjnych miar przeciętnych
Do tych miar zaliczamy:
-dominanta (moda) - to wartość cechy, która w badanej zbiorowości występuje najliczniej i najczęściej. Można ją policzyć jeśli w szeregu wystąpi jedna największa wartość i rozpiętości przedziałów sąsiadujących są równe. Jest wielkością mianowaną.
-mediana - jest to ta wartość cechy, która występuje pośrodku uporządkowanego szeregu statyst. Jest wielkością mianowaną. Nie może być poddawana działaniom arytmetycznym.
-kwartyle - mediana jest nie kiedy nazwana drugim kwartylem. Występuje jeszcze pierwszy i trzeci kwartyl. Kwartyle obliczane z szeregu rozdzielczego są wartościami przybliżonymi. Wszystkie te miary są mianowane tzn. wyrażone w takich jednostkach jak badana cecha.
6.Charakterystyka i zastosowanie względnych i bezwzględnych miar zróżnicowania
Zadaniem miary zróżnicowania jest wskazanie w jakim stopniu poszczególne wartości cechy jednostki zbiorowości statyst. koncentrują się wokół średniej danej cechy. Pozwalają mierzyć zróżnicowanie wartości zmiennej w ramach badanej zbiorowości, informują jak duże są różnice między różnymi wartościami cechy a przeciętną.
Miary zróżnicowania dzielimy na:
-klasyczne (odchylenie standardowe, odchylenie przeciętne, wariancja)
-pozycyjne (rozstęp - obszar zmienności, odchylenie ćwiartkowe)
Miary zróżnicowania względne i bezwzględne:
-względne - stosujemy je zwłaszcza w dwóch przypadkach: 1. przy porównywaniu zróżnicowania tych samych cech o równym poziomie średniej arytmetycznej 2. przy porównywaniu różnoimiennych cech. Miary względne to współczynniki zmienności oparte na: odchyleniu przeciętnym, odchyleniu standardowym, odchyleniu ćwiartkowym. Duże wartości świadczą o silnym zróżnicowaniu wartości cechy.
-bezwzględne - wyrażają natężenie zróżnicowania w takich samych jednostkach jak badane cechy. Wartości mianowane. Są to : odchylenie standardowe, odchylenie przeciętne, odchylenie ćwiartkowe, wariancja i rozstęp.
7.Miary asymetrii ( skośności )
Za ich pomocą mierzymy czy odchylenia od wartości średnich w jedną stronę są mniej lub więcej liczne od odchyleń w drugą stronę. Wyróżniamy następujące miary służące do pomiaru kierunku i sił asymetrii:
-klasyczny współczynnik asymetrii ( którego znak informuje o kierunku asymetrii, a wartość bezwzględna o sile)
-współczynnik asymetrii oparty na kwartylach ( j.w.)
8.Charakterystyka, interpretacja i zastosowanie indywidualnych wskaźników dynamiki
Indywidualne wskaźniki dynamiki ( tzw. indeksy) służą do porównań wielkości zjawisk w dwóch okresach lub momentach czasu.
Indeksy indywidualne dzielimy na:
-jedno-punktowe - informują jak zmienia się wielkość zjawiska w porównaniu z wielkością zjawiska z okresu który został przyjęty jako podstawa porównań. Jest często wyrażany w procentach.
-łańcuchowe - charakteryzują zmiany wielkości zjawiska z okresu na okres do oceny zmiany wielkości zjawiska wykorzystywany jest miernik zwany przeciętnym okresowym tempem zmiany zjawiska - jest to średnia geometryczna z indeksów łańcuchowych
9.Charakterystyka, interpretacja i zastosowanie agregatowych indeksów dla wielkości absolutnych
Użyjemy agregatowych indeksów gdy składniki są niesumowalne. Stosowane są przy badaniach wielkości produkcji, dynamiki eksportu, importu.
Wyróżniamy:
-indeks wartości - informuje o tym jak zmienia się wartość produkcji przedsiębiorstwa w porównywanych okresach (podstawowym i badanym)
Indeksy pomocnicze:
-indeks ilości - otrzymujemy wówczas gdy formułę indeksu wartości ceny produkowanych towarów w porównywanych okresach nie zmieniały się.
-indeks ilości o formule Laspeyresa - otrzymujemy jeżeli przyjmiemy, że w porównywalnych okresach ceny jednostkowe towarów nie zmieniały się i były takie jak w okresie podstawowym.
-indeks ilości o formule Paaschego - jeżeli założymy, że w porównywalnych okresach ceny jednostkowe towarów nie zmieniały się i były takie jak w okresie badanym
-indeks cen - otrzymujemy gdy przyjmujemy założenie, że w porównywanych okresach ilości produkowanych towarów nie zmieniał się
-indeks cen o formule Laspeyresa - otrzymujemy jeżeli przyjmiemy, że ilości towarów w dwóch okresach były takie jak w okresie podstawowym
-indeks cen o formule Paaschego - otrzymujemy jeśli założymy, że w porównywalnych okresach ilości towarów nie zmieniały się i były takie jak w okresie badanym
10.Metody wyodrębniania wahań sezonowych
Wyróżniamy dwie metody:
-metoda mechaniczna - polega na wyrównywaniu szeregu czasowego poprzez obliczanie średnich ruchomych. Najczęściej używa się średnie ruchome 3-, 5-, 7 - okresowe. Dane dla kolejnych okresów zastępowane są średnimi ruchomymi z okresu badanego i kilku okresów przyległych. Polega na wyznaczaniu linii wokół której układają się punkty na wykresie przedstawiające dane zjawiska (linia trendu ). Linia trendu służy do przewidywania zjawiska w przyszłości. Każda prognoza obarczona jest błędem wyrażonym przez odchylenie standardowe resztowe.
-metoda analityczna
11.Analityczna metoda wyodrębniania wahań sezonowych
W pierwszym etapie wyznaczamy równanie linii trendu, następnie obliczamy wskaźnik
sezonowości brutto
gdzie: ∑yi(t) i ∑yˆi(t) ozn. odpow. sumy wartosci empirycznych i teoretycznych dla okresow jednoimiennych.
Jeśli
(d-liczba okresow), to obliczamy skorygowane wsk. sezonowosci: O=O`i : R
,gdzie:
12.Metody pomiaru zależności korelacyjnej dwóch cech w przypadku korelacji krzywoliniowej
Jeżeli wartością jednej z cech odpowiadają zmiany średnich z kilku wartości innej cechy to powiemy, że między tymi cechami występuje zależność korelacyjna. Jeżeli punkty na płaszczyźnie przedstawiające wartości cech skupiają się wokół pewnej linii krzywej to powiemy, że między badanymi cechami występuje zależność korelacyjna krzywoliniowa. Miary siły związku korelacyjnego dwóch cech w przypadku zależności krzywoliniowej:
-współczynnik korelacji rang - rangą wartości cechy nazywamy numer miejsca jakie zajmuje ta wartość cechy po uporządkowaniu w sposób niemalejący wszystkich wartości cech. Wykorzystywany jest do badania siły i kierunku zależności korelacyjnej między dwoma cechami mierzalnymi zarówno prosto jak i krzywoliniowej. Może być też stosowany w przypadku cech niemierzalnych pod warunkiem, że wartości tych cech dadzą się uporządkować . Jest to miara unormowana, która spełnia zależność -1=< R =< 1. O sile zależności informuje /R/ : bliskie jedności jego wartości oznaczają b. silną korelację natomiast wartości bliskie zeru b. słabą zależność bądź jej brak. O kierunku zależności korelacyjnej informuje znak współ. R.
-Stosunek korelacji- stosuje się gdy jedna z cech jest niemierzalną (choć może być mierzalna). Obliczany jest z danych pogrupowanych w tabeli korelacyjnej. Może być stosowany do zależności krzywo i prosto liniowych. Miara jest wielkością unormowaną .Korelacja pomiędzy cechami jest tym silniejsza im bliższy jedności jest stosunek korelacji. Między cechami występuje zależność funkcyjna. Miara ta jest niesymetryczna
-Współczynnik kontygnencji C-Pearsona- Wykorzystywany jest przede wszystkim do badania siły zależności korelacyjnej między dwiema cechami mierzalnymi. Miernik ten jest wielkością unormowaną i zawsze spełnia nierówność 0=<C=<1. Bliskie zeru wartości oznaczają ,że między badanymi cechami występuje bardzo słaba zależność bądź też zależności tej nie ma. Natomiast bliskie 1 oznaczają bardzo silną zależność. Miernika tego można używać zarówno do badania zależności prosto i krzywoliniowych.
13.Funkcja regresji. Metoda szacowania parametrów równania linii regresji. Zast.
Funkcja regresji może służyć do przewidywania wartości jednej cechy przy określonym poziomie drugiej cechy. Związek między dwoma cechami można opisać za pomocą funkcji postaci y^=a+bx .Parametry a i b wyznaczamy z układu równań normalnych, którego rozwiązaniem są poszukiwane parametry linii regresji. Układ równań nazywany jest układem równań normalnych, a zastosowana metoda, która prowadzi do tego układu nosi nazwę metody najmniejszych kwadratów.
14. Miary ścisłości związku korelacyjnego w przypadku korelacji prostoliniowej.Stopień zależności pomiędzy dwoma badanymi cechami mierzalnymi X Y które pozostają w związku liniowym określane za pomocą:
-Współczynnika korelacji r..
-Współczynnik korelacji rang Spearmana
-Stosunek korelacji e.. określony jest jako udział zmienności objaśnionej w zmienności całkowitej gdy e..=1 gdy między cechami XY istnieje zależność funkcyjna, gdy e..=0 cech są nieskorelowane.
15. Regresja krzywoliniowa, kryteria wyboru optymalnej postaci funkcji regresji
Po ustaleniu, że między rozważanymi cechami istnieje korelacja, przechodzimy do znalezienia funkcji regresji, która może służyć do przewidywania wartości jednej cechy przy określonym poziomie drugiej cechy. Jeżeli punkty na płaszczyźnie oznaczające wartości obu cech, skupiają się wzdłuż pewnej linii krzywej, to powiemy, że między badanymi cechami występuje zależność krzywoliniowa.
Krzywoliniowa funkcja regresji może mieć postać:
1.
(dla cechy X:
)
2.
po transformacji mamy postać liniową:
Aby wybrać najlepszą z możliwych funkcji regresji stosujemy metodę najmniejszych kwadratów:
1.
Otrzymaliśmy układ równań o niewiadomych a, b, c, których rozwiązaniami są poszukiwane parametry równań funkcji regresji. Ten układ równań nazywamy układem równań normalnych. Najlepszą z możliwych funkcji regresji charakteryzuje wysoki współczynnik determinacji:
Współczynnik ten informuje w ilu % zmienność cechy Y wyjaśniana jest zmiennością cechy X, a tym samym o stopniu dopasowania linii regresji do danych empirycznych. Im wartość współczynnika determinacji jest bliższa 1, tym lepszy stopień dopasowania.
16. Estymatory i ich własności
Załóżmy, że dystrybuanta F(x, θ) charakteryzuje rozkład populacji generalnej, gdzie θ jest nieznanym parametrem. Niech x1, ..., xn będzie n-elementową próbą wylosowaną z tej populacji. Statystykę Tn która jest funkcją tej próby służącą do oszacowania θ nazywać będziemy estymatorem. Wartość tej funkcji (tn) nazywać będziemy oceną estymatora (konkretna liczba odpowiadająca danej realizacji próby).
Cechy dobrego estymatora:
-zgodność estymatora Tn parametru θ
W miarę wzrostu liczebności próby prawdopodobieństwo przekroczenia dowolnie małej różnicy spada do 0
-nieobciążalność parametru
estymator Tn jest nieobciążalnym estymatorem parametru θ jeżeli wartość nieoczekiwana E(Tn)=θ. Jeżeli przy pomocy nieobciążalnego estymatora szacujemy parametr θ, to chociaż w poszczególnych przypadkach uzyskiwane cechy mogą się różnić od wartości parametru θ, to w dużej serii średnia takich ocen będzie bliska 0
-efektywność estymatora
estymator Tn jest najefektywniejszy jeżeli wśród estymatorów nieobciążalnych ma on najmniejszą wariancję
-wystarczalność
Estymator Tn jest wystarczalny jeśli zawiera wszystkie tkwiące w próbie informacje o θ
17. Metoda estymacji przedziałowej średniej w zbiorowości generalnej
Załóżmy, że badamy pewną zmienną X, która w zbiorowości generalnej ma rozkład X~N(m,σ) przy czym znamy wartość σ. Ze zbiorowości tej losujemy
n-elementową próbę. Chcemy oszacować parametr m (θ=m). Estymatorem tego parametru, posiadającym wszystkie cechy dobrego estymatora jest średnia arytmetyczna z próby (Tn=
) Przedział ufności dla szacowanego parametru ma postać:
uα - wielkość odczytywana z tablic dystrybuanty rozkładu normalnego w oparciu o zależność:
2) θ=m, Tn=
, X~N(m,σ), nie znamy σ
Przedział ufności ma postać:
tα - wielkość odczytywana z tablicy rozkładu t-Studenta w oparciu o zależność:, dla n-1 st.
swobody
3) ) θ=m, Tn=
, X rozkład nieznany, nie znamy σ, n>30
18. Niezbędna liczebność próby
Chcemy oszacować nieznaną średnią wartość m w zbiorowości na podstawie
n-elementowej próby, aby przy ustalonym współczynniku ufności 1-α, max. błąd szacunkowy nie przekroczył z góry określonej liczby d
1) θ=m, Tn=
, X~N(m,σ), znamy σ
Niezbędna liczebność próby wynosi:
2) θ=m, Tn=
, X~N(m,σ), nie znamy σ
Niezbędna liczebność próby wynosi:
3) θ=p, znany jest rząd wielkości p
4) θ=p, nie znany jest rząd wielkości parametru p
19. Metody szacowania miar zróżnicowania w przypadku częściowego badania statystycznego
Do klasycznych miar zróżnicowania zaliczamy m.in. wariancję i odchylenie standardowe
-przedział ufności dla wariancji
X~N(m,σ), θ=σ², Tn=s², n nie musi być duże
Przedział ufności dla wariancji ma postać:
parametry c1 i c2 odczytujemy z tablic wartości krytycznych rozkładu χ² dla n-1 stopni swobody i w oparciu o zależności:
-przedział ufności dla odchylenia standardowego
X ma dowolny rozkład, n>30, θ=σ, Tn=s
Przedział ufności dla odchylenia standardowego ma postać:
uα odczytujemy z tablic dla współczynnika ufności 1-α, tak aby spełniona była relacja: P{-Uα<U<Uα}=1-α
20. Weryfikacja hipotezy o równości dwóch średnich przy założeniu normalności rozkładu badanej zmiennej w zbiorowościach generalnych
1) N(m1,σ1) i N(m2,σ2)
znamy σ1, σ2
na podstawie wyników z prób (o liczebnościach n1, n2) wyznaczamy wartość statystyki:
statystyka ta przy założeniu prawdziwości H0 ma rozkład normalny N(0,1)
dla przyjętego poziomu istotności α wartości krytyczne uα odczytujemy tak, by spełnione były równości:
gdy:
to H0 odrzucamy na rzecz H1: m1≠m2
to H0 odrzucamy na rzecz H1: m1<m2
to H0 odrzucamy na rzecz H1: m1>m2
2) jeżeli nie mamy podstaw do przyjęcia założenia o normalności rozkładów postępujemy analogicznie, ale zamiast nieznanych σ1², σ2² wstawiamy s1², s2²
3) Jeżeli N(m1,σ1) i N(m2,σ2) i nie znamy σ1, σ2 ale wiemy że σ1=σ2,
to korzystamy z testu Studenta:
statystyka ta ma przy założeniu prawdziwości H0 rozkład Studenta o n1+n2-2 stopniach swobody oraz dla założonego α taką wartość tα, że:
Jeśli spełniona jest co najmniej jedna nierówność odrzucamy H0
Jeżeli wiemy że: N(m1, σ1) i N(m2, σ2) ale nie znamy parametrów należy najpierw zweryfikować:
H0: σ1²=σ2²
H1: σ1²>σ2²
Statystyka F ma przy założeniu prawdziwości H0 rozkład F Snedecora o r1= n1-1 i r2=n2-1 stopniach swobody
Fα odczytujemy z tablic, gdy F>Fα odrzucamy H0
21. Estymacja przedziałowa wskaźnika struktury
θ=p - wskaźnik struktury zbiorowości
Tn= k/n - wskaźnik struktury z próby
n>100
Przedział ufności ma postać:
k - liczba jednostek wyróżnionych z n-elementowej próby
uα odczytujemy z tablicy rozkładu normalnego
Weryfikacja hipotezy o równości dwóch wskaźników struktury
n1,n2>100
H0: p1=p2
H1: p1≠p2
Obliczamy wartość statystyki:
Statystyka U ma przy założeniu prawdziwości H0 rozkład N(0,1)
jeżeli
to H0 odrzucamy na rzecz H1: m1≠m2
22. Testy normalności
Testy normalności są testami nieparametrycznymi, służą do weryfikacji hipotezy o rozkładzie normalnym cechy X w zbiorowości generalnej.
1) Test zgodności χ²
dana jest duża próba
H0: F(x)∈ω
H1: ~H0
budujemy szereg rozdzielczy o przedziałach klasowych o liczebnościach ni, przy czym w każdej klasie musi być co najmniej 8 elementów
następnie trzeba obliczyć prawdopodobieństwo że zmienna losowa o dystrybuancie F(x) przyjmie wartości należące do i-tej klasy
Wartość statystyki obliczamy ze wzoru:
r - liczba przedziałów
ni - liczebność i-tego przedziału
npi - liczebność teoretyczna
przy danym poziomie istotności α odczytuje się z tablic rozkładu χ² dla r-k-1 stopni swobody (k - liczba szacowanych parametrów; najczęściej 2 - średnia i wariancja) wartość krytyczną χ²α
Jeżeli zachodzi nierówność χ² < χ²α to odrzucamy H0
2) Test normalności Shapiro - Wilka
dana jest mała próba
H0: F(x)=F0(x); gdzie F0(x) jest dystrybuantą rozkładu normalnego
H1: ~H0
obliczamy wartość statystyki:
n/2 - część całkowita n/2
x(i) - uporządkowany rosnąco ciąg wartości zmiennej
an-i+1 - odczytujemy z tablic współczynników dla testu normalności Shapiro - Wilka
odczytujemy Wα z tablicy wartości krytycznych dla testu normalności Shapiro - Wilka
jeżeli W≥Wα nie ma podstaw do odrzucenia H0
23. Test niezależności χ²
Zbiorowość generalna badana jest ze względu na dwie cechy niekoniecznie mierzalne. Ze zbiorowości losujemy próbę n - elementową. Wyniki próby grupujemy tworząc tablicę niezależności o r wierszach i s kolumnach. Grupowanie przeprowadzamy w ten sposób, aby w każdym polu tablicy liczba elementów była równa co najmniej 8. Sprawdzamy czy badane cechy są niezależne:
H0: P(x=xi; y=yj) = p(x=xi)P(y=yj)
H1: ~H0
Sprawdzianem tej hipotezy jest:
Wartość sprawdzianu porównujemy następnie z wartością krytyczną χ²α którą przy danym poziomie istotności α i dla (r-1)(s-1) stopni swobody odczytujemy z tablic rozkładu χ² w oparciu o zależność: P(χ²≥χα²)=α
Jeżeli: χ²≥χα² to odrzucamy H0
Pomiar siły korelacji dwóch cech niemierzalnych
Współczynnik kontyngencji C - Pearsona
Miernik ten jest wielkością unormowaną; spełna w-k: C∈<0,1>
Bliskie 0 wartości świadczą o bardzo słabej zależności między cechami. Wartości bliskie 1 oznaczają bardzo silną zależność.
24. Charakterystyka i zastosowanie testów serii
Testy serii to testy nieparametryczne stosowane dla sprawdzenia hipotezy tylko wówczas gdy nie można wykorzystać testów parametrycznych ze względu na wymagane założenia.
1) Test serii losowości próby
Z badanej zbiorowości pobieramy próbę n - elementową.
H0: wybrana próba jest losowa
H1: ~H0
Test istotności:
Z uporządkowanego wg kolejności pobierania elementów ciągu wyników próby obliczamy medianę.
Każdemu wynikowi przypisujemy symbol: „a” jeśli xi<Me lub „b” jeśli xi>Me.
Wynik xi=Me odrzucamy.
Otrzymujemy ciąg symboli „a” i „b”. Obliczamy liczbę serii k.
Z tablic rozkładu liczby serii przy danym poziomie istotności α odczytujemy takie dwie wartości krytyczne k1 i k2 aby spełnione były relacje:
P(k≤k1)=α/2
P(k>k2)=1-α/2
Jeżeli: k1<k<k2 nie mamy podstaw do odrzucenia H0
2) Test serii sprawdzający hipotezę, że dwie próby pochodzą z jednej zbiorowości
Dane są dwie zbiorowości, z których wylosowano próby o liczebnościach n1 i n2. Na podstawie wyników tych prób należy sprawdzić hipotezę, że próby te pochodzą z jednej zbiorowości (rozkłady badanych zbiorowości nie różnią się).
Test istotności:
Wyniki dwóch prób ustawiamy rosnąco w jeden ciąg. Elementy próby z I zbiorowości oznaczamy „a”, a elementy z II próby „b”. Odczytujemy z tablic rozkładu liczby serii dla przyjętego poziomu istotności α oraz liczb n1, n2 wartość krytyczną kα. Jeżeli k≤kα to odrzucamy H0.