Statystyka ściąga III KRW4OGLSWPYDN33EYYJZ6VVQVN5SKG7CSSNXFMA


1.Badanie statystyczne. Etapy badania i rodzaje badań statystycznych

Badanie statystyczne - ogół prac mających na celu poznanie prawidłowości występujących w procesach masowych. Przedmiotem badań są określone zbiorowości (populacje), które stanowią zbiór jednostek powiązanych ze sobą logicznie i jednocześnie nie identycznych. Etapy badania statystycznego:

-planowanie - sprecyzować cel badania ( wyjaśnić przyczyny zjawiska: zdefiniować zbiorowość statyst., dokonać wyboru cech statyst., które będą obserwowane)

-obserwacja statystyczna ( zbieranie danych liczbowych) - formy badania: obserwacje spisowe, bieżąca obserwacja, inne badania o charakterze i przeznaczeniu specjalnym. W wyniku otrzymujemy surowy materiał statyst.

-opracowanie zebranego materiału statyst - pogrupowanie i zliczanie materiału statyst., otrzymujemy szeregi statyst. (ciąg wielkości statystycznych rosnących lub malejących uporządkowanych według określonych cech

-opinia i wnioskowanie statyst.

Badanie całkowite - takie gdzie badaniem objęte są wszystkie jednostki badanej zbiorowości

Badanie częściowe - j.w. niektóre jednostki

Rodzaje badań częściowych:

-reprezentacyjne - część zbiorowości wybrana losowo

-monograficzne - ustalona część zbiorowości

-ankietowe - badanie sondażowe

2.Cechy statystyczne - klasyfikacja cech statystycznych, przykłady

Cecha statyst. - pewna własność (właściwość) jednostki statyst. wchodzącej w skład badanej zbiorowości np. wiek, płeć. Dzielimy na:

-ilościowe (mierzalne) - poszczególne ich warianty dają się wyrazić za pomocą liczb. Możemy podzielić na: ciągłe (wiek), tzn. może przyjmować dowolne wartości z pewnego przedziału liczbowego i skokowe (liczba dzieci w rodzinie), tzn. przyjmuje ona tylko niektóre wartości z pewnego przedziału.

cechy jakościowe (niemierzalne) - warianty ich wyrażamy za pomocą słów np. płeć, zawód.

3.Charakterystyka tablicy statystycznej. Symbole umowne stosowane w publikacjach

W postaci tablic najczęściej przedstawiamy rezultaty obserwacji statyst. . Tablice statyst. są liczbowym obrazem struktury badanej zbiorowości. Są formą statystycznego uporządkowania danych liczbowych w sposób umowny. Tablice statyst. są zbiorem szeregów statystycznych. Dzielimy je na: proste i kombinowane. Tablica, która zawiera jeden szereg nazywamy tablicą prostą. Tablice kombinowane składają się z kilku szeregów, przy czym obejmują one jedną zbiorowość statyst. scharakteryzowaną według dwóch lub więcej cech jednocześnie.

Zasadniczo każda tablica składa się z trzech części: tytuł i nr. Tablicy i informacje na temat budowy tablicy.

Budując tablice statyst. należy zwrócić uwagę aby każda jej pozycja była zapełniona odpowiednią liczbą. Jeśli z pewnych przyczyn nie możemy wypełnić jakiejś pozycji liczbą, to w tym miejscu stawiamy jeden z następujących znaków umownych:

-kreska (-) która oznacza, że dane zjawisko nie występuje

-kropka (.) która oznacza brak informacji lub brak wiarygodnych informacji o danym zjawisku

-zero (0) które oznacza, że dane zjawisko występuje, ale w ilościach rzędu mniejszego od rzędu liczb podanych w tablicy

-wykrzyknik (!) obok liczby używany jest dla podkreślenia, że została ona zamieszczona w tablicy jako poprawniejsza w porównaniu z poprzednio ogłoszoną

-krzyżyk (#) który oznacza, że rubryka nie może być wypełniona ze względu na układ tablicy.

Pod tablicą umieszcza się uwagi i odsyłacze, które zawierają dodatkowe wyjaśnienia dotyczące poszczególnych informacji lub całości tablicy.

4.Charakterystyka i zastosowanie klasycznych miar przeciętnych

0x08 graphic
Do miar średnich klasycznych zaliczamy :

-średnia arytmetyczna - stanowi ją suma wartości wszystkich jednostek zbiorowości statyst. podzielona przez liczebność tej zbiorowości

-średnia harmoniczna - stosujemy gdy wartości cechy podane są w formie odwrotności (gdy wartości jednej cechy są podane w przeliczeniu na stała jednostkę innej cechy), np. przeciętna prędkość pojazdów, towarów itd.

-średnia geometryczna - charakteryzuje cechę gdy wartości tej cechy przedstawione są w postaci względnej. Stosowana gdy występują duże różnice między obserwacjami, jest mniej wrażliwa na wartości nietypowe niż średnia arytmetyczna.

5.Charakterystyka i zastosowanie pozycyjnych miar przeciętnych

Do tych miar zaliczamy:

-dominanta (moda) - to wartość cechy, która w badanej zbiorowości występuje najliczniej i najczęściej. Można ją policzyć jeśli w szeregu wystąpi jedna największa wartość i rozpiętości przedziałów sąsiadujących są równe. Jest wielkością mianowaną.

-mediana - jest to ta wartość cechy, która występuje pośrodku uporządkowanego szeregu statyst. Jest wielkością mianowaną. Nie może być poddawana działaniom arytmetycznym.

-kwartyle - mediana jest nie kiedy nazwana drugim kwartylem. Występuje jeszcze pierwszy i trzeci kwartyl. Kwartyle obliczane z szeregu rozdzielczego są wartościami przybliżonymi. Wszystkie te miary są mianowane tzn. wyrażone w takich jednostkach jak badana cecha.

6.Charakterystyka i zastosowanie względnych i bezwzględnych miar zróżnicowania

Zadaniem miary zróżnicowania jest wskazanie w jakim stopniu poszczególne wartości cechy jednostki zbiorowości statyst. koncentrują się wokół średniej danej cechy. Pozwalają mierzyć zróżnicowanie wartości zmiennej w ramach badanej zbiorowości, informują jak duże są różnice między różnymi wartościami cechy a przeciętną.

Miary zróżnicowania dzielimy na:

-klasyczne (odchylenie standardowe, odchylenie przeciętne, wariancja)

-pozycyjne (rozstęp - obszar zmienności, odchylenie ćwiartkowe)

Miary zróżnicowania względne i bezwzględne:

-względne - stosujemy je zwłaszcza w dwóch przypadkach: 1. przy porównywaniu zróżnicowania tych samych cech o równym poziomie średniej arytmetycznej 2. przy porównywaniu różnoimiennych cech. Miary względne to współczynniki zmienności oparte na: odchyleniu przeciętnym, odchyleniu standardowym, odchyleniu ćwiartkowym. Duże wartości świadczą o silnym zróżnicowaniu wartości cechy.

-bezwzględne - wyrażają natężenie zróżnicowania w takich samych jednostkach jak badane cechy. Wartości mianowane. Są to : odchylenie standardowe, odchylenie przeciętne, odchylenie ćwiartkowe, wariancja i rozstęp.

7.Miary asymetrii ( skośności )

Za ich pomocą mierzymy czy odchylenia od wartości średnich w jedną stronę są mniej lub więcej liczne od odchyleń w drugą stronę. Wyróżniamy następujące miary służące do pomiaru kierunku i sił asymetrii:

-klasyczny współczynnik asymetrii ( którego znak informuje o kierunku asymetrii, a wartość bezwzględna o sile)

-współczynnik asymetrii oparty na kwartylach ( j.w.)

8.Charakterystyka, interpretacja i zastosowanie indywidualnych wskaźników dynamiki

Indywidualne wskaźniki dynamiki ( tzw. indeksy) służą do porównań wielkości zjawisk w dwóch okresach lub momentach czasu.

Indeksy indywidualne dzielimy na:

-jedno-punktowe - informują jak zmienia się wielkość zjawiska w porównaniu z wielkością zjawiska z okresu który został przyjęty jako podstawa porównań. Jest często wyrażany w procentach.

-łańcuchowe - charakteryzują zmiany wielkości zjawiska z okresu na okres do oceny zmiany wielkości zjawiska wykorzystywany jest miernik zwany przeciętnym okresowym tempem zmiany zjawiska - jest to średnia geometryczna z indeksów łańcuchowych

9.Charakterystyka, interpretacja i zastosowanie agregatowych indeksów dla wielkości absolutnych

Użyjemy agregatowych indeksów gdy składniki są niesumowalne. Stosowane są przy badaniach wielkości produkcji, dynamiki eksportu, importu.

Wyróżniamy:

-indeks wartości - informuje o tym jak zmienia się wartość produkcji przedsiębiorstwa w porównywanych okresach (podstawowym i badanym)

Indeksy pomocnicze:

-indeks ilości - otrzymujemy wówczas gdy formułę indeksu wartości ceny produkowanych towarów w porównywanych okresach nie zmieniały się.

-indeks ilości o formule Laspeyresa - otrzymujemy jeżeli przyjmiemy, że w porównywalnych okresach ceny jednostkowe towarów nie zmieniały się i były takie jak w okresie podstawowym.

-indeks ilości o formule Paaschego - jeżeli założymy, że w porównywalnych okresach ceny jednostkowe towarów nie zmieniały się i były takie jak w okresie badanym

-indeks cen - otrzymujemy gdy przyjmujemy założenie, że w porównywanych okresach ilości produkowanych towarów nie zmieniał się

-indeks cen o formule Laspeyresa - otrzymujemy jeżeli przyjmiemy, że ilości towarów w dwóch okresach były takie jak w okresie podstawowym

-indeks cen o formule Paaschego - otrzymujemy jeśli założymy, że w porównywalnych okresach ilości towarów nie zmieniały się i były takie jak w okresie badanym

10.Metody wyodrębniania wahań sezonowych

Wyróżniamy dwie metody:

-metoda mechaniczna - polega na wyrównywaniu szeregu czasowego poprzez obliczanie średnich ruchomych. Najczęściej używa się średnie ruchome 3-, 5-, 7 - okresowe. Dane dla kolejnych okresów zastępowane są średnimi ruchomymi z okresu badanego i kilku okresów przyległych. Polega na wyznaczaniu linii wokół której układają się punkty na wykresie przedstawiające dane zjawiska (linia trendu ). Linia trendu służy do przewidywania zjawiska w przyszłości. Każda prognoza obarczona jest błędem wyrażonym przez odchylenie standardowe resztowe.

-metoda analityczna

11.Analityczna metoda wyodrębniania wahań sezonowych

W pierwszym etapie wyznaczamy równanie linii trendu, następnie obliczamy wskaźnik

sezonowości brutto

0x08 graphic
0x08 graphic
gdzie: ∑yi(t) i ∑yˆi(t) ozn. odpow. sumy wartosci empirycznych i teoretycznych dla okresow jednoimiennych.

0x08 graphic

Jeśli

(d-liczba okresow), to obliczamy skorygowane wsk. sezonowosci: O=O`i : R

0x08 graphic

,gdzie:

12.Metody pomiaru zależności korelacyjnej dwóch cech w przypadku korelacji krzywoliniowej

Jeżeli wartością jednej z cech odpowiadają zmiany średnich z kilku wartości innej cechy to powiemy, że między tymi cechami występuje zależność korelacyjna. Jeżeli punkty na płaszczyźnie przedstawiające wartości cech skupiają się wokół pewnej linii krzywej to powiemy, że między badanymi cechami występuje zależność korelacyjna krzywoliniowa. Miary siły związku korelacyjnego dwóch cech w przypadku zależności krzywoliniowej:

-współczynnik korelacji rang - rangą wartości cechy nazywamy numer miejsca jakie zajmuje ta wartość cechy po uporządkowaniu w sposób niemalejący wszystkich wartości cech. Wykorzystywany jest do badania siły i kierunku zależności korelacyjnej między dwoma cechami mierzalnymi zarówno prosto jak i krzywoliniowej. Może być też stosowany w przypadku cech niemierzalnych pod warunkiem, że wartości tych cech dadzą się uporządkować . Jest to miara unormowana, która spełnia zależność -1=< R =< 1. O sile zależności informuje /R/ : bliskie jedności jego wartości oznaczają b. silną korelację natomiast wartości bliskie zeru b. słabą zależność bądź jej brak. O kierunku zależności korelacyjnej informuje znak współ. R.

-Stosunek korelacji- stosuje się gdy jedna z cech jest niemierzalną (choć może być mierzalna). Obliczany jest z danych pogrupowanych w tabeli korelacyjnej. Może być stosowany do zależności krzywo i prosto liniowych. Miara jest wielkością unormowaną .Korelacja pomiędzy cechami jest tym silniejsza im bliższy jedności jest stosunek korelacji. Między cechami występuje zależność funkcyjna. Miara ta jest niesymetryczna

-Współczynnik kontygnencji C-Pearsona- Wykorzystywany jest przede wszystkim do badania siły zależności korelacyjnej między dwiema cechami mierzalnymi. Miernik ten jest wielkością unormowaną i zawsze spełnia nierówność 0=<C=<1. Bliskie zeru wartości oznaczają ,że między badanymi cechami występuje bardzo słaba zależność bądź też zależności tej nie ma. Natomiast bliskie 1 oznaczają bardzo silną zależność. Miernika tego można używać zarówno do badania zależności prosto i krzywoliniowych.

13.Funkcja regresji. Metoda szacowania parametrów równania linii regresji. Zast.

Funkcja regresji może służyć do przewidywania wartości jednej cechy przy określonym poziomie drugiej cechy. Związek między dwoma cechami można opisać za pomocą funkcji postaci y^=a+bx .Parametry a i b wyznaczamy z układu równań normalnych, którego rozwiązaniem są poszukiwane parametry linii regresji. Układ równań nazywany jest układem równań normalnych, a zastosowana metoda, która prowadzi do tego układu nosi nazwę metody najmniejszych kwadratów.

14. Miary ścisłości związku korelacyjnego w przypadku korelacji prostoliniowej.Stopień zależności pomiędzy dwoma badanymi cechami mierzalnymi X Y które pozostają w związku liniowym określane za pomocą:

-Współczynnika korelacji r..

-Współczynnik korelacji rang Spearmana

-Stosunek korelacji e.. określony jest jako udział zmienności objaśnionej w zmienności całkowitej gdy e..=1 gdy między cechami XY istnieje zależność funkcyjna, gdy e..=0 cech są nieskorelowane.

15. Regresja krzywoliniowa, kryteria wyboru optymalnej postaci funkcji regresji

Po ustaleniu, że między rozważanymi cechami istnieje korelacja, przechodzimy do znalezienia funkcji regresji, która może służyć do przewidywania wartości jednej cechy przy określonym poziomie drugiej cechy. Jeżeli punkty na płaszczyźnie oznaczające wartości obu cech, skupiają się wzdłuż pewnej linii krzywej, to powiemy, że między badanymi cechami występuje zależność krzywoliniowa.

Krzywoliniowa funkcja regresji może mieć postać:

1. 0x01 graphic
(dla cechy X: 0x01 graphic
)

2. 0x01 graphic
po transformacji mamy postać liniową:0x01 graphic

Aby wybrać najlepszą z możliwych funkcji regresji stosujemy metodę najmniejszych kwadratów:

1.0x01 graphic

Otrzymaliśmy układ równań o niewiadomych a, b, c, których rozwiązaniami są poszukiwane parametry równań funkcji regresji. Ten układ równań nazywamy układem równań normalnych. Najlepszą z możliwych funkcji regresji charakteryzuje wysoki współczynnik determinacji:

0x01 graphic

Współczynnik ten informuje w ilu % zmienność cechy Y wyjaśniana jest zmiennością cechy X, a tym samym o stopniu dopasowania linii regresji do danych empirycznych. Im wartość współczynnika determinacji jest bliższa 1, tym lepszy stopień dopasowania.

16. Estymatory i ich własności

Załóżmy, że dystrybuanta F(x, θ) charakteryzuje rozkład populacji generalnej, gdzie θ jest nieznanym parametrem. Niech x1, ..., xn będzie n-elementową próbą wylosowaną z tej populacji. Statystykę Tn która jest funkcją tej próby służącą do oszacowania θ nazywać będziemy estymatorem. Wartość tej funkcji (tn) nazywać będziemy oceną estymatora (konkretna liczba odpowiadająca danej realizacji próby).

Cechy dobrego estymatora:

-zgodność estymatora Tn parametru θ

0x01 graphic
W miarę wzrostu liczebności próby prawdopodobieństwo przekroczenia dowolnie małej różnicy spada do 0

-nieobciążalność parametru

estymator Tn jest nieobciążalnym estymatorem parametru θ jeżeli wartość nieoczekiwana E(Tn)=θ. Jeżeli przy pomocy nieobciążalnego estymatora szacujemy parametr θ, to chociaż w poszczególnych przypadkach uzyskiwane cechy mogą się różnić od wartości parametru θ, to w dużej serii średnia takich ocen będzie bliska 0

-efektywność estymatora

estymator Tn jest najefektywniejszy jeżeli wśród estymatorów nieobciążalnych ma on najmniejszą wariancję

-wystarczalność

Estymator Tn jest wystarczalny jeśli zawiera wszystkie tkwiące w próbie informacje o θ

17. Metoda estymacji przedziałowej średniej w zbiorowości generalnej

Załóżmy, że badamy pewną zmienną X, która w zbiorowości generalnej ma rozkład X~N(m,σ) przy czym znamy wartość σ. Ze zbiorowości tej losujemy

n-elementową próbę. Chcemy oszacować parametr m (θ=m). Estymatorem tego parametru, posiadającym wszystkie cechy dobrego estymatora jest średnia arytmetyczna z próby (Tn=0x01 graphic
) Przedział ufności dla szacowanego parametru ma postać: 0x01 graphic

uα - wielkość odczytywana z tablic dystrybuanty rozkładu normalnego w oparciu o zależność:0x01 graphic

2) θ=m, Tn=0x01 graphic
, X~N(m,σ), nie znamy σ

Przedział ufności ma postać:

0x01 graphic

tα - wielkość odczytywana z tablicy rozkładu t-Studenta w oparciu o zależność:, dla n-1 st.

swobody0x01 graphic

3) ) θ=m, Tn=0x01 graphic
, X rozkład nieznany, nie znamy σ, n>30

0x01 graphic

18. Niezbędna liczebność próby

Chcemy oszacować nieznaną średnią wartość m w zbiorowości na podstawie

n-elementowej próby, aby przy ustalonym współczynniku ufności 1-α, max. błąd szacunkowy nie przekroczył z góry określonej liczby d

1) θ=m, Tn=0x01 graphic
, X~N(m,σ), znamy σ

Niezbędna liczebność próby wynosi:

0x01 graphic

2) θ=m, Tn=0x01 graphic
, X~N(m,σ), nie znamy σ

Niezbędna liczebność próby wynosi:

0x01 graphic

3) θ=p, znany jest rząd wielkości p

0x01 graphic

4) θ=p, nie znany jest rząd wielkości parametru p

0x01 graphic

19. Metody szacowania miar zróżnicowania w przypadku częściowego badania statystycznego

Do klasycznych miar zróżnicowania zaliczamy m.in. wariancję i odchylenie standardowe

-przedział ufności dla wariancji

X~N(m,σ), θ=σ², Tn=s², n nie musi być duże

Przedział ufności dla wariancji ma postać:

0x01 graphic

parametry c1 i c2 odczytujemy z tablic wartości krytycznych rozkładu χ² dla n-1 stopni swobody i w oparciu o zależności:

0x01 graphic

-przedział ufności dla odchylenia standardowego

X ma dowolny rozkład, n>30, θ=σ, Tn=s

Przedział ufności dla odchylenia standardowego ma postać:

0x01 graphic

uα odczytujemy z tablic dla współczynnika ufności 1-α, tak aby spełniona była relacja: P{-Uα<U<Uα}=1-α

20. Weryfikacja hipotezy o równości dwóch średnich przy założeniu normalności rozkładu badanej zmiennej w zbiorowościach generalnych

1) N(m11) i N(m22)

znamy σ1, σ2

na podstawie wyników z prób (o liczebnościach n1, n2) wyznaczamy wartość statystyki:

0x01 graphic

statystyka ta przy założeniu prawdziwości H0 ma rozkład normalny N(0,1)

dla przyjętego poziomu istotności α wartości krytyczne uα odczytujemy tak, by spełnione były równości:

0x01 graphic

gdy:

0x01 graphic
to H0 odrzucamy na rzecz H1: m1≠m2

0x01 graphic
to H0 odrzucamy na rzecz H1: m1<m2

0x01 graphic
to H0 odrzucamy na rzecz H1: m1>m2

2) jeżeli nie mamy podstaw do przyjęcia założenia o normalności rozkładów postępujemy analogicznie, ale zamiast nieznanych σ1², σ2² wstawiamy s1², s2²

3) Jeżeli N(m11) i N(m22) i nie znamy σ1, σ2 ale wiemy że σ12,

to korzystamy z testu Studenta:

0x01 graphic

statystyka ta ma przy założeniu prawdziwości H0 rozkład Studenta o n1+n2-2 stopniach swobody oraz dla założonego α taką wartość tα, że:

0x01 graphic

Jeśli spełniona jest co najmniej jedna nierówność odrzucamy H0

Jeżeli wiemy że: N(m1, σ1) i N(m2, σ2) ale nie znamy parametrów należy najpierw zweryfikować:

H: σ1²=σ2²

H1: σ1²>σ2²

0x01 graphic

Statystyka F ma przy założeniu prawdziwości H0 rozkład F Snedecora o r1= n1-1 i r2=n2-1 stopniach swobody

Fα odczytujemy z tablic, gdy F>Fα odrzucamy H0

21. Estymacja przedziałowa wskaźnika struktury

θ=p - wskaźnik struktury zbiorowości

Tn= k/n - wskaźnik struktury z próby

n>100

Przedział ufności ma postać:

0x01 graphic

k - liczba jednostek wyróżnionych z n-elementowej próby

uα odczytujemy z tablicy rozkładu normalnego

Weryfikacja hipotezy o równości dwóch wskaźników struktury

n1,n2>100

H0: p1=p2

H1: p1≠p2

Obliczamy wartość statystyki:

0x01 graphic

Statystyka U ma przy założeniu prawdziwości H0 rozkład N(0,1)

jeżeli 0x01 graphic
to H0 odrzucamy na rzecz H1: m1≠m2

22. Testy normalności

Testy normalności są testami nieparametrycznymi, służą do weryfikacji hipotezy o rozkładzie normalnym cechy X w zbiorowości generalnej.

1) Test zgodności χ²

dana jest duża próba

H0: F(x)∈ω

H1: ~H0

budujemy szereg rozdzielczy o przedziałach klasowych o liczebnościach ni, przy czym w każdej klasie musi być co najmniej 8 elementów

0x01 graphic

następnie trzeba obliczyć prawdopodobieństwo że zmienna losowa o dystrybuancie F(x) przyjmie wartości należące do i-tej klasy

0x01 graphic

Wartość statystyki obliczamy ze wzoru:

0x01 graphic

r - liczba przedziałów

ni - liczebność i-tego przedziału

npi - liczebność teoretyczna

przy danym poziomie istotności α odczytuje się z tablic rozkładu χ² dla r-k-1 stopni swobody (k - liczba szacowanych parametrów; najczęściej 2 - średnia i wariancja) wartość krytyczną χ²α

Jeżeli zachodzi nierówność χ² < χ²α to odrzucamy H0

2) Test normalności Shapiro - Wilka

dana jest mała próba

H0: F(x)=F0(x); gdzie F0(x) jest dystrybuantą rozkładu normalnego

H1: ~H0

obliczamy wartość statystyki:

0x01 graphic

n/2 - część całkowita n/2

x(i) - uporządkowany rosnąco ciąg wartości zmiennej

an-i+1 - odczytujemy z tablic współczynników dla testu normalności Shapiro - Wilka

odczytujemy Wα z tablicy wartości krytycznych dla testu normalności Shapiro - Wilka

jeżeli W≥Wα nie ma podstaw do odrzucenia H0

23. Test niezależności χ²

Zbiorowość generalna badana jest ze względu na dwie cechy niekoniecznie mierzalne. Ze zbiorowości losujemy próbę n - elementową. Wyniki próby grupujemy tworząc tablicę niezależności o r wierszach i s kolumnach. Grupowanie przeprowadzamy w ten sposób, aby w każdym polu tablicy liczba elementów była równa co najmniej 8. Sprawdzamy czy badane cechy są niezależne:

H0: P(x=xi; y=yj) = p(x=xi)P(y=yj)

H1: ~H0

Sprawdzianem tej hipotezy jest:

0x01 graphic

Wartość sprawdzianu porównujemy następnie z wartością krytyczną χ²α którą przy danym poziomie istotności α i dla (r-1)(s-1) stopni swobody odczytujemy z tablic rozkładu χ² w oparciu o zależność: P(χ²≥χα²)=α

Jeżeli: χ²≥χα² to odrzucamy H0

Pomiar siły korelacji dwóch cech niemierzalnych

Współczynnik kontyngencji C - Pearsona

Miernik ten jest wielkością unormowaną; spełna w-k: C∈<0,1>

Bliskie 0 wartości świadczą o bardzo słabej zależności między cechami. Wartości bliskie 1 oznaczają bardzo silną zależność.

0x01 graphic

24. Charakterystyka i zastosowanie testów serii

Testy serii to testy nieparametryczne stosowane dla sprawdzenia hipotezy tylko wówczas gdy nie można wykorzystać testów parametrycznych ze względu na wymagane założenia.

1) Test serii losowości próby

Z badanej zbiorowości pobieramy próbę n - elementową.

H0: wybrana próba jest losowa

H1: ~H0

Test istotności:

Z uporządkowanego wg kolejności pobierania elementów ciągu wyników próby obliczamy medianę.

Każdemu wynikowi przypisujemy symbol: „a” jeśli xi<Me lub „b” jeśli xi>Me.

Wynik xi=Me odrzucamy.

Otrzymujemy ciąg symboli „a” i „b”. Obliczamy liczbę serii k.

Z tablic rozkładu liczby serii przy danym poziomie istotności α odczytujemy takie dwie wartości krytyczne k1 i k2 aby spełnione były relacje:

P(k≤k1)=α/2

P(k>k2)=1-α/2

Jeżeli: k1<k<k2 nie mamy podstaw do odrzucenia H0

2) Test serii sprawdzający hipotezę, że dwie próby pochodzą z jednej zbiorowości

Dane są dwie zbiorowości, z których wylosowano próby o liczebnościach n1 i n2. Na podstawie wyników tych prób należy sprawdzić hipotezę, że próby te pochodzą z jednej zbiorowości (rozkłady badanych zbiorowości nie różnią się).

Test istotności:

Wyniki dwóch prób ustawiamy rosnąco w jeden ciąg. Elementy próby z I zbiorowości oznaczamy „a”, a elementy z II próby „b”. Odczytujemy z tablic rozkładu liczby serii dla przyjętego poziomu istotności α oraz liczb n1, n2 wartość krytyczną kα. Jeżeli kkα to odrzucamy H0.

0x01 graphic

0x01 graphic

0x01 graphic

0x01 graphic

0x01 graphic



Wyszukiwarka

Podobne podstrony:
Statystyka - ściąga, Ochrona Środowiska studia, 2 rok (2007-2008), Semestr III (Rok 2), Statystyka
PW Sciąga III sem, Prawo wspolnotowe i integracja eurpejska
statystyka ściąga wzory
Wnioskowanie statystyczne ściąga D6B4JQ75G5T3M73CHPOI7P6EFHU5KSVYOKQFV3Q
Statystyka ściąga (6 stron) IEFXT4WWBA2VXFI3K6XJIWGYHKPVE6NOWBPMRYA
statystyka wyklad III
STATYSTYKA- ściąga, statystyka z demografią
statystyka sciąga
statystyka ściąga
wzory statystyka(1), notatki, III semestr
statystyka ściąga, Automatyka i robotyka air pwr, IV SEMESTR, statystyka stosowana
statystyka sciaga
Nerka - ściąga., III
statystyka sciaga, PK, Statystyka
statystyka sciaga

więcej podobnych podstron