ELEMENTY RACHUNKU PRAWDOPODOBIEŃSTWA
Rachunek prawdopodobieństwa zajmuje się badaniem praw rządzących zdarzeniami losowymi.
Doświadczenie nazywamy losowym, jeżeli pomimo sprecyzowania warunków, w których jest ono realizowane nie jesteśmy w stanie przewidzieć jego wyniku.
Z każdym doświadczeniem losowym związany jest zbiór tzw. zdarzeń elementarnych i oznaczamy przez omegę (Ω). Zdarzenia elementarne (oznaczamy małą omegą ω) mają własności:
dane zdarzenie elementarne może zajść lub nie
jedno ze zdarzeń elementarnych na pewno zajdzie
zajście jednego zdarzenia elementarnego wyklucza zajście innego zdarzenia elementarnego w tym samym doświadczeniu
Przykłady:
rzucamy monetą - zbiór zdarzeń elementarnych Ω składa się z dwóch elementów ω1 i ω2 (orzeł lub reszka)
Ω = { ω1, ω2}
rzucamy kostka symetryczną do gry - elementów jest sześć: Ω = { ω1,ω2,ω3,ω4,ω5,ω6}
ωi - zdarzenie polegające na wyrzuceniu i-oczek gdzie i
{1,2,3,4,5,6}
dwukrotny rzut monetą - Ω = {(o,o);(o,r);(r,o);(r,r)}
obserwowanie jakości towaru (towar dobrej jakości, towar złej jakości) Ω = { ω1, ω2}
rzut monetą do momentu wyrzucenia reszki (możliwości jest nieskończenie wiele)
Ω = { ω1, ω2,ω3,...}, gdzie ω1- wyrzucenie reszki za pierwszym razem; ω2- wyrzucenie reszki za drugim razem...
wybieramy losowo punkt z odcinka o końcach 0-1 (nieskończenie wiele rozwiązań - nie przeliczamy zdarzeń elementarnych) Ω = { ω} gdzie ω to zdarzenie polegające na wylosowaniu liczby z przedziału 0-1
Każdy podzbiór przestrzeni zdarzeń elementarnych nazywamy zdarzeniem losowym (np. zdarzenie polegające na wyrzuceniu parzystej liczby oczek Ω = { ω2, ω4,ω6})
Definicja 1: Różnicą zdarzeń A i B (A-B, A\B) nazywamy zdarzenie polegające na zajściu zdarzenia A i nie zajściu zdarzenia B.
Definicja 2: Sumą lub alternatywą zdarzeń A i B (A
B) nazywamy zdarzenie polegające na zajściu przynajmniej jednego z tych zdarzeń.
Definicja 3: Koniunkcją lub iloczynem zdarzeń A i B (A
B) nazywamy zdarzenie polegające na tym, że zawiera te i tylko te zdarzenia elementarne, które sprzyjają jednocześnie zdarzeniu A i B.
Definicja 4: Dopełnienie (zdarzenie przeciwne). Niech A będzie zdarzeniem dowolnym,
Ω - przestrzenią zdarzenia to różnicę Ω\A nazywamy zdarzeniem przeciwnym do zdarzenia A (A').
Definicja 5: Mówimy, że zdarzenie A pociąga zdarzenie B (lub B jest następstwem zdarzenia A), jeżeli każde zdarzenie elementarne sprzyjające zdarzeniu A sprzyja zdarzeniu B.
Definicja: Niech Ω będzie przestrzenią zdarzeń elementarnych, 2Ω zbiorem wszystkich podzbiorów Ω. Niepustą klasę F
2Ω nazywamy
-ciałem (ciałem przeliczalnie addytywnym) jeśli:
A1: A
F
A'
F
A2: A1,A2,…
F
A1
A2
...
F, gdzie
Fakt:
A1,A2,…
F
Ft -
-ciała, t
F
-
-ciało
Ø,
2Ω to istnieje najmniejsze
-ciało zawierające
. [azywa się
-ciało generowane i oznaczamy
(
)].
(
) =
{F:F-
-ciało,
F}
Definicja aksjomatyczna prawdopodobieństwa: Niech Ω będzie przestrzenią zdarzeń elementarnych. F -
-ciałem tej przestrzeni. Prawdopodobieństwem nazywamy dowolną funkcję P działającą z
-ciała F (P: F
R) do zbioru liczb rzeczywistych spełniającą warunki:
B1: P(A)
0 dla każdego A
F
B2: P(Ω) = 1
B3: dla dowolnego ciągu zdarzeń A1, A2, ... parami wykluczających się zachodzi:
P(A1
A2
...) =
Trójkę (Ω, F, P) nazywamy przestrzenią probabilistyczną, natomiast parę (Ω, F) przestrzenią mierzalną, zaś dowolny element
-ciała zdarzeniem losowym.
WŁASNOŚCI:
C1: P(A') = 1-P(A)
C2: A, B
F
P(A
B) =P(A) + P(B) - P(A
B)
C3: A1,A2,…An
F
P(A1
A2
...
An) =
C4:
C5:
C6: P(A)
1
C7: Jeśli przestrzeń Ω jest co najwyżej przeliczalna (Ω={
,
,...}) i określone są prawdopodobieństwa zdarzeń jednoelementowych P({
}) = p1, P({
}) = p2,..., przy czym pi > 0, i = 1, 2,...,
, to prawdopodobieństwo dowolnego zdarzenia A = {
,
,...} jest równe:
P(A) = pi1 + pi2 + ...
C8: Definicja klasyczna prawdopodobieństwa: Jeżeli Ω = {
,
,...,
} oraz wszystkie zdarzenia jednoelementowe są tak samo prawdopodobne (P({
}) = P({
}) =...= P({
})=
) to prawdopodobieństwo dowolnego zdarzenia k (A = {
}) to prawdopodobieństwo jest równe:
P(A) =
Gdy Ω jest nieprzeliczalny, to prawdopodobieństwo dowolnego zdarzenia A wyrażamy przez równość:
, gdzie m - miara Lebesque'a
Definicja prawdopodobieństwa warunkowego: Niech (Ω, F, P) będzie przestrzenią probabilistyczną; A, B
F; P(B) > 0. Prawdopodobieństwem warunkowym zdarzenia A (lub liczbę zdarzenia A pod warunkiem B) nazywamy liczbę:
Definicja niezależności: Zdarzenia A i B nazywamy niezależnymi
Jeśli P(A) > 0, P(B) > 0 to warunkiem koniecznym i dostatecznym na to, by zdarzenia były niezależne jest: P(A/B) = P(A) i P(B/A) = P(B)
Definicja: Zdarzenia A1,A2,…An nazywamy wzajemnie (zespołowo) niezależnymi, jeśli dla dowolnego ciągu m-elementarnego, m
n zachodzi:
P(Ai1
Ai2
...
Aim) = P(Ai1) · … · P(Aim)
Definicja prawdopodobieństwa całkowitego: niech (P, F, Ω) będzie przestrzenią probabilistyczną. Jeśli B jest dowolnym zdarzeniem zaś A1,A2,…An spełnia warunki:
D1: zdarzenia wykluczają się parami Ai
Aj = Ø, i=j, i, j = 1,...,m
D2: A1
A2
...
An = Ω
D3: P(Ai) > 0; i = 1, 2,...,n
to
Twierdzenie Bayesa: Jeśli B jest dowolnym zdarzeniem, zaś A1,...,An spełniają warunki D1, D2, D3, to dla dowolnego k = 1, 2, 3,...,n:
ZMIENNE LOSOWE JEDNOWYMIAROWE
Zmienna losowa i jej dystrybuanta
Definicja: Niech (P, F, Ω) będzie przestrzenią probabilistyczną, zmienną losową nazywamy dowolną funkcję X określoną na przestrzeni zdarzeń elementarnych Ω o wartościach ze zbioru liczb rzeczywistych spełniającą warunek: dla dowolnej liczby rzeczywistej x, zbiór zdarzeń elementarnych
, które spełniają nierówność X(
) < x jest zdarzeniem losowym. {
: X(
) < x}
F
UWAGA!!!
Jeśli Ω jest zbiorem skończonym, to dowolny podzbiór jest zdarzeniem. Zatem dowolna funkcja X: Ω
R jest zmienną losową.
Definicja dystrybuanty: Niech (P, F, Ω) będzie przestrzenią probabilistyczną, X - zmienną losową. Dystrybuantą zmiennej losowej X nazywamy funkcję FX: R
R określoną następująco:
FX(x) = P(X < x) = P({
: X(
) < x})
Jeśli wiadomo, o jaką zmienną losową chodzi to omijamy indeks X!!!
WŁASNOŚCI DYSTRYBUANTY:
E1:
E2:
;
E3: F jest funkcją niemalejącą, tzn. x < y
F(x)
F(y)
E4: F jest funkcją co najmniej lewostronnie ciągłą, tzn.
dla dowolnego x0
R.
E5:
E6:
WNIOSEK: Dystrybuanta jest ciągła w punkcie x0
P(X=x0) = 0
Zmienna losowa typu skokowego
Definicja: Mówimy, że zmienna losowa X jest typu skokowego (dyskretnego), jeżeli istnieje co najwyżej przeliczalny zbiór jej wartości.
WX = {x1, x2, ...}
Wówczas określone są prawdopodobieństwa P(X=Xi) = pi, pi > 0, i=1, 2,... oraz
Liczby x1, x2,... nazywane są punktami skokowymi, natomiast p1, p2,... skokami.
UWAGA!!!
Jeśli dane są prawdopodobieństwa z jakimi zmienna losowa przyjmuje swoje wartości to mówimy, że znany jest rozkład prawdopodobieństwa tej zmiennej losowej:
xi |
x1 |
x2 |
pi |
p1 |
p2 |
FAKT: Dystrybuantę zmiennej losowej typu skokowego można wyznaczyć ze wzoru:
F(x) = P(X <x) =
Przykłady typowych rozkładów zmiennych losowych typu skokowego:
Rozkład równomierny - prawdopodobieństwa są jednakowe
xi |
x1 |
x2 |
... |
xn |
pi |
|
|
… |
|
Rozkład jednopunktowy
xi |
a |
pi |
1 |
Rozkład zero - jedynkowy
xi |
0 |
1 |
pi |
q |
p |
p + q = 1
Rozkład dwumianowy z parametrami n i p > 0 (Rozkład Bernoulliego)
; k = 0, 1, 2,..., n
Rozkład geometryczny - na zbiorze skończonym
; q + p = 1; k = 1, 2,...
Rozkład Poissona z parametrami
> 0
; k = 0, 1, 2,...
Uwaga!!!
Dla bardzo dużych n rozkład dwumianowy może być przybliżony do rozkładu Piossona. Zazwyczaj, gdy n
Zmienna losowa typu ciągłego
Definicja: Niech (F, P, Ω) będzie przestrzenią probabilistyczną. Zmienną losową X określoną na tej przestrzeni nazywamy ciągłą (absolutnie ciągłą), jeżeli jej dystrybuanta jest postaci:
F(x) =
, gdzie f to nieujemna funkcja całkowalna.
Funkcję f nazywamy GĘSTOŚCIĄ zmiennej losowej X. Powiemy, że dany jest rozkład prawdopodobieństwa zmiennej losowej X, jeżeli dana jest funkcja gęstości lub jej dystrybuanta.
Gęstość prawdopodobieństwa musi spełniać warunek:
Własności:
F1: Jeśli x jest punktem ciągłości funkcji gęstości to F'(x) = f(x)
F2: Dla dowolnego a
R:
P(X=a) = 0 w przypadku zmiennej typu ciągłego!!!
F3: P(a
F4:
Przykłady typowych rozkładów zmiennej losowej typu ciągłego:
Rozkład jednostajny na [a,b]
f(x) =
x
(
F(x) = 0
F(x) =
F(x) =
Rozkład wykładniczy z parametrami
> 0
f(x) =
x
F(x) = 0
x > 0 F(x) =
Rozkład normalny (Gaussa) z parametrami m,
f(x) =
F(x) =
Jest to rozkład symetryczny i zapisujemy go: N(m,
.
Charakterystyki liczbowe zmiennej losowej:
Definicja średniej: Wartością oczekiwaną (średnią, przeciętną, nadzieją matemat.) zmiennej losowej X określonej na przestrzeni probabilistycznej (Ω, F, P) nazywamy liczbę E(X) daną wzorem:
przy założeniu, że szereg oraz całka po prawej stronie są zbieżne bezwzględnie (mają sens), tzn.:
;
WŁASNOŚCI ŚREDNIEJ:
G1: E(c)=c; c-stała
G2: E(a ∙X) = a ∙ E(X)
G3: E(X + b) = E(X) + b
G4: E(X - E(X)) = 0 to E(X) - E(X) = 0
G5: E(X + Y) = E(X) + E(Y)
G6: E(X ∙ Y) = E(X) ∙ E(Y), gdy X i Y są niezależne.
X i Y są niezależne
,
dla dowolnych x, y
Definicja wariancji: Wariancją zmiennej losowej X nazywamy liczbę określoną następująco:
Fakt:
Dowód:
WŁASNOŚCI WARIANCJI:
H1: D2 (c) = c
H2: D2 (a ∙ X) = a2 ∙ D2 (X)
H3: D2 (X+b) = D2 (X)
H4: D2 (X + Y) = D2 (X) + D2 (Y), gdy X I Y są niezależne
Definicja odchylenia: Odchyleniem standardowym zmiennej losowej X nazywamy liczbę:
Standaryzacja zmiennej losowej
Definicja: Zmienną losową X, dla której E(X) = 0 i D2 (X) = 1, nazywamy zmienną losową standaryzowaną.
Twierdzenie: Niech X będzie zmienną losową, dla której E(X) <
i D2 (X) > 0, wtedy zmienna losowa:
jest zmienną standaryzowaną.
Dowód:
WEKTORY LOSOWE
Definicja: n-wymiarową zmienną losową (n-wymiarowym wektorem losowym) określonym na przestrzeni probabilistycznej (Ω, F, P) nazywamy dowolną funkcję X: Ω
taką, że dla dowolnego x
.
X = (X1, X2,...,Xn)
Definicja dystrybuanty: Dystrybuantą wektora losowego X = (X1, X2,...,Xn) nazywamy funkcję F: Rn
R określoną następująco;
F(x1, x2,...,xn) =
Własności:
F jest funkcją niemalejącą względem każdej ze zmiennych
F jest funkcją co najmniej lewostronnie ciągłą ze względu na każdą zmienną
, gdzie k = 1, 2,...,n
, gdzie k = 1, 2,...,n
ZMIENNE LOSOWE DWUWYMIAROWE
1. Zmienne losowe dwuwymiarowe typu skokowego.
Definicja: Dwuwymiarową zmienną losową (X, Y), która przyjmuje co najwyżej przeliczalnie wiele wartości (xi, yi) odpowiednio z prawdopodobieństwami
P(X = xi, Y = yi) = pij
przy czym
, nazywamy zmienną losową dwuwymiarową typu skokowego.
Y X |
y1 |
y2 |
… |
yj |
pi. |
|
x1 |
p11 |
p12 |
... |
p1j |
|
|
x2 |
p21 |
p22 |
... |
p2j |
|
|
... |
... |
... |
... |
|
|
|
xi |
pi1 |
pi2 |
... |
pij |
|
|
p.j |
|
|
|
|
|
P(X = xi) =
P(Y = yj) =
Definicja: Rozkład prawdopodobieństwa wyznaczony przez funkcję prawdopodobieństwa określoną wzorem:
P(X = xi) = pi. =
nazywamy rozkł. brzegowym zmiennej X w rozkładzie dwuwymiarowej zmiennej (X, Y)
F1(x) =
oraz F2(x) =
Definicja: Rozkład prawdopodobieństwa wyznaczony przez funkcję prawdopodobieństwa określoną wzorem:
P(X = xi / Y = yi) =
analogicznie dla Y: P(Y = yj / X = xi) =
Dystrybuanta rozkładu warunkowego:
2. Dwuwymiarowa zmienna losowa typu ciągłego.
Definicja: Dwuwymiarową zmienną losową (X, Y) nazywamy typuciągłego jeśli istnieje nieujemna funkcja f : R2
R taka, że dystrybuantę tej zmiennej da się zapisać jako całkę:
WŁASNOŚCI:
J1:
J2: W punktach ciągłości funkcji f zachodzi równość, że
J3: Prawdopodobieństwo, że
Definicja: Rozkład prawdopodobieństwa wyznaczony przez funkcję f1[f2]: R
R określoną następująco:
nazywamy rozkładem brzegowym zmiennej X [Y] w rozkładzie dwuwymiarowej zmiennej losowej (X,Y).
Wnioski:
Dystrybuantę rozkładu brzegowego zmiennej losowej X wyznaczamy następująco;
Dystrybuantę zmiennej losowej Y wyznaczamy podobnie, tzn.:
Niezależność zmiennych losowych
Definicja: Zmienne losowe (X,Y) nazywamy niezależnymi, jeżeli dla dowolnych x,y
zdarzenia:
i
są niezależne, tzn.:
Fakt:
X i Y są niezależne
F(x,y) = F1(x) ∙ F2(y) dla dowolnych (x,y)
.
(X,Y) skokowe to:
X, Y są niezależne
P(X = xi; Y = yj) = P(X = xi) ∙ P(Y = yj)
pij = pi. ∙ p.j dla dowolnego i, j
(X,Y) ciągłe to:
X, Y niezależne
f(x, y) = f1(x) ∙ f2(y) dla dowolnego (x, y)
Charakterystyki liczbowe Zmiennej (X, Y)
Definicja kowariancji: Kowariancją zmiennej losowej (X,Y) nazywamy liczbę:
o ile ona istnieje.
WŁASNOŚCI:
K1: COV(X, Y) = E(X ∙ Y) - E(X) - E(Y)
K2: COV(X, Y) = D2(X)
K3: COV (X, Y) = COV(Y, X)
Fakt:
X, Y są niezależne, jeśli COV(X, Y) = 0
Jeśli D2(X), D2(Y) i COV(X, Y) istnieją to:
D2(X + Y) = D2(X) + D2(Y) + 2COV(X, Y)
D2(X - Y) = D2(X) + D2(Y) - 2COV(X, Y)
Definicja korelacji: Liczbę
nazywamy współczynnikiem korelacji zmiennej X,Y o ile D2(X) > 0, D2(Y) = 0 i istnieje COV(X, Y).
Statystyka - nauka zajmująca się opisywaniem i analizowaniem zjawisk masowych. Dzieli się na:
Statystykę opisową - zajmuje się sposobami gromadzenia, prezentacji i opisu danych.
Statystykę matematyczną - wnioskowanie o właściwościach całej zbiorowości na podstawie całej jej części przy wykorzystaniu elementów teorii rachunku prawdopodobieństwa.
Podstawowe pojęcia.
Zbiorowość statystyczna (populacja generalna) - zbiór nieidentycznych jednostek, które posiadają przynajmniej jedną wspólną cechę ze względu na cel badania. Zbiorowość ta powinna być jednorodna i jednoznacznie określona.
Zbiorowość jednorodna - zbiorowość, której elementy podlegają wpływom tych samych przyczyn głównym oraz różnych przyczyn ubocznych. Różnice między jednostkami w tej zbiorowości mają charakter ILOŚCIOWY. (W zbiorowości niejednorodnej różnice mają charakter JAKOŚCIOWY).
Jednostka statystyczna - element zbiorowości badanej.
Rodzaje badań:
Badania całkowite, gdy badaniu podlegają wszystkie jednostki populacji generalnej.
Badania częściowe, gdy badaniu podlega skończony podzbiór populacji generalne. Podzbiór ten nazywa się PRÓBKĄ.
Pożądane jest, aby próbka była reprezentacją populacji w tym sensie, że częstość występowania badanych cech w próbce nie powinna znacznie różnić się od częstości występowania tych cech w populacji.
Próba losowa prosta n-elementowa - próbka pobrana z populacji w taki sposób, że przed jej pobraniem każdy n-elementowy podzbiór populacji miał takie same szanse wylosowania (losowanie ze zwrotem).
Podział prób:
n ≤ 30 próbka mała
n > 30 próbka duża
Cechy podlegające badaniu dzielimy na:
Mierzalne - dające się wyrazić liczbowo (wzrost, waga, itp.)
Niemierzalne - nie można wyrazić liczbowo (kolor włosów)
Rachunek prawdopodobieństwa |
Statystyka |
Zmienna losowa |
Cecha |
Prawdopodobieństwo |
Częstość względna |
Dystrybuanta zmiennej losowej |
Dystrybuanta empiryczna |
Rozkład zmiennej losowej |
Rozkład empiryczny |
Analiza danych.
Szereg statystyczny szczegółowy - szereg wartości cechy zapisanych w kolejności, w jakiej jednostki statystyczne losowano do próbki.
Szereg statystyczny rozdzielczy - dwie kolumny lub dwa wiersze, gdzie w jednej uporządkowane są warianty cechy zwane KLASAMI a w drugiej odpowiadające im LICZEBNOŚCI, czyli liczby jednostek posiadających dany wariant cechy.
Rodzaje szeregów rozdzielczych:
Punktowy - tworzony dla cechy skokowej (liczba rodzeństwa, oceny)
Przedziałowy - tworzony dla cechy ciągłej (waga, wzrost) lub skokowej w przypadku dużej liczby jej wariantów.
Przykłady
Zbadano wydajność 15 robotników pewnej brygady w dniu 30. 11 1991 i otrzymano następujące wyniki w sztukach na godzinę:
10,12,11,12,12,13,14,10,11,11,12,12,13,13,11
Jest to cecha skokowa (bo w sztukach), szereg szczegółowy, próbka mała (n ≤ 30), a jednostką statystyczną są robotnicy.
struktura 225 rodzin Pomorza Zachodniego wg liczby dzieci do 24 lat pozostających na utrzymaniu w 1995r. była następująca:
Liczba dzieci xi |
Liczba rodzin ni |
Częstość względna ( |
Liczebność skumulowana |
Dystrybuanta empiryczna |
|
0 |
25 |
0,11 |
25 |
0,11 |
|
1 |
45 |
0,2 |
70 |
0,31 |
|
2 |
60 |
0,27 |
130 |
0,58 |
|
3 |
30 |
0,13 |
160 |
0,71 |
|
4 |
20 |
0,09 |
180 |
0,8 |
|
5 |
18 |
0,08 |
198 |
0,88 |
|
6 |
12 |
0,05 |
210 |
0,93 |
|
7 |
15 |
0,07 |
225 |
1 |
|
|
Jest to szereg rozdzielczy, cecha skokowa, próbka duża (n > 30)
Dystrybuanta empiryczna =
Rozkład cechy badanej zbiorowości:
Roczne sumy opadów w wybranych 300 stacjach meteorologicznych w Polsce w latach 1981-1990 przedstawia szereg:
Roczne opady (mm) xi |
Liczba stacji ni |
410-440 |
5 |
440-470 |
11 |
470-500 |
24 |
500-530 |
50 |
530-560 |
70 |
560-590 |
40 |
590-620 |
35 |
620-650 |
25 |
650-680 |
16 |
680-710 |
14 |
710-740 |
10 |
|
300 |
Rozkłady empiryczne:
Symetryczne i niesymetryczne
Jednomodalne i wielomodalne
Siodłowe
Równomierne
Dla cechy skokowej:
Dla cechy ciągłej:
Teoria estymacji
Podstawowe formy wnioskowania statystycznego:
Estymacja - szacowanie nieznanych parametrów bądź ich funkcji rozkładu zmiennej losowej (cechy) w populacji.
Weryfikacja - sprawdzanie prawdziwości postawionych hipotez statystycznych
Dowolne n-elementowe próbki wylosowane z populacji zazwyczaj są różne. Zatem wygodnie jest traktować wartości x1, x2,...,xn cechy X jako realizację ciągu zmiennych losowych X1, X2,...,Xn. Jeżeli dodatkowo zmienne te są niezależne i każda z nich ma taki sam rozkład jak zmienna losowa badana w populacji X, to ciąg zmiennych losowych X1, X2,...,Xn nazywamy próbą prostą. Natomiast x1, x2,...,xn nazywamy zaobserwowaną próbą losową lub po prostu próbką.
Estymatory i ich własności.
Niech zmienna losowa X ma nieznany rozkład zależny od parametru
(Theta). Chcemy na podstawie próby prostej X1,...,Xn oszacować nieznany parametr
.
Statystyka - to również każda jednoznacznie zdefiniowana funkcja g(X1,...,Xn) próby losowej. Statystyka jest także zmienną losową mającą swój własny rozkład zależny od postaci funkcji g oraz od rozkładu zmiennych X1,...,Xn.
Estymator - dowolna statystyka, której wartości przyjmujemy za ocenę parametru
.
Ocena estymatora - konkretna wartość liczbowa przyjęta przez estymator na podstawie wyników próbki.
Własności:
(Tn = Tn(X1,...,Xn))
Zgodność - Definicja: Estymator Tn nazywamy zgodnym estymatorem parametru
, jeżeli dla dowolnego
> 0 granica
.
zbieżność wg prawdopodobieństwa.
Nieobciążoność - definicja: Estymator Tn nazywamy nieobciążonym estymatorem parametru
, jeżeli E(Tn) =
.
Obciążoność - definicja: Jeżeli estymator Tn ma wartość oczekiwaną i E(Tn)
, to nazywa się estymatorem obciążonym. Natomiast różnicę Bn(
) = E(Tn) -
nazywamy obciążeniem estymatora Tn. Jeżeli
to estymator Tn nazywamy asymptotycznie nieobciążonym.
Twierdzenie: Jeśli estymator Tn parametru
spełnia własności:
a) D2(Tn)
(n
);
b) jest estymatorem nieobciążonym lub asymptotycznie nieobciążonym;
to Tn jest estymatorem zgodnym.
Efektywność - definicja: Jeżeli Tn i Tn* są estymatorami nieobciążonymi parametru
o skończonych wariancjach oraz
to estymator Tn nazywamy efektywniejszym od estymatora Tn*.
Definicja: Estymator Tn o najmniejszej wariancji spośród wszystkich estymatorów nieobciążonych parametru
nazywamy estymatorem najefektywniejszym (efektywnym).
Uwaga!!!
Dla dowolnego rozkładu (oprócz rozkładu jednostajnego) można wykazać, że wariancja estymatora nieobciążonego Tn spełnia nierówność Rao - Cramera:
gdzie f to funkcja gęstości dla zmiennej losowej ciągłej lub funkcja prawdopodobieństwa dla zmiennej losowej skokowej.
Niech Tn* będzie estymatorem najefektywniejszym parametru
oraz Tn estymatorem nieobciążonym tego parametru. Liczbę:
;
nazywamy efektywnością estymatora Tn.
Jeżeli
to estymator Tn nazywamy asymptotycznie najefektywniejszym (asymptotycznie efektywnym).
Estymacja punktowa - punktowa ocena nieznanego parametru rozkładu, przy czym nie można udzielić odpowiedzi, jaka jest dokładność tej oceny. Polega na wyborze optymalnego estymatora spośród wszystkich estymatorów badanego parametru
i wyznaczeniu jego wartości na podstawie próby losowej. Wartość tę przyjmujemy jako najlepszą ocenę parametru
.
Nieznany parametr estymacji |
Estymator |
Własności |
Dla jakiej rodziny rozkładów |
1.Wartość oczekiwana E(X) = m |
X = |
Zgodny, nieobciążony |
Rozkład dowolny, dla rozkładu N(m, |
|
Mediana
|
Zgodny, asymptotycznie nieobciążony |
Rozkład dowolny |
2.Wariancja D2 (X) = |
|
Zgodny, nieobciążony |
Rozkład dowolny, dla rozkładu N(m, |
3.Wariancja D2 (X) = |
|
Zgodny, nieobciążony |
Rozkład dowolny, dla rozkładu N(m, |
4.Wskaźnik struktury w populacji p. |
|
Zgodny |
Rozkład dwupunktowy |
Estymacja przedziałowa - polega na wyznaczaniu takich przedziałów liczbowych, aby z prawdopodobieństwem bliskim 1 można było oczekiwać, że prawdziwa wartość nieznanego parametru zawiera się wewnątrz tego przedziału.
Definicja przedziału ufności: Przedziałem ufności dla parametru
na poziomie ufności 1-
nazywamy przedział liczbowy (
1,
2) spełniający warunki:
Końce tego przedziału są funkcjami próby losowej prostej, tzn.
1=
1(X1,...,Xn),
2 =
2(X1,...,Xn).
Prawdopodobieństwo pokrycia przez ten przedział nieznanego parametru
wynosi
1-
, tzn. P
.
Liczbę 1-
nazywamy współczynnikiem ufności.
Konstrukcja przedziału ufności dla wartości oczekiwanej badanej populacji.
Model I
Badana cecha X ma w populacji rozkład normalny z parametrami m i
, przy czym
jest znane. Chcemy na podstawie n-elementowej próby losowej prostej oszacować przedziałową wartość przeciętną w populacji.
E(X) = m; (X1, X2,...,Xn) ~N(m,
); X ~N(m,
);
Estymatorem E(X) w populacji jest średnia arytmetyczna z próby, która ma rozkład normalny z parametrami m i
(X ~N(m,
)).
Standaryzując średnią arytmetyczną otrzymamy nową zmienną U:
,gdzie N(0, 1)
Konstruujemy przedział liczbowy dla zmiennej U tak, aby
:
odczytujemy z tablic dystrybuanty rozkładu normalnego z tej właśnie zależności.
Model |
Rozkład cechy X |
Przedział ufności |
Statystyka użyta do konstrukcji |
Wartości krytyczne |
I |
Rozkład normalny N(m,
|
|
rozkład N(0, 1) |
z tablic dystrybuanty rozkładu normalnego |
II |
Rozkład normalny N(m,
|
|
Rozkład Studenta |
z tablic Studenta |
III |
Rozkład dowolny lub zbliżony do normalnego (duża próba) |
|
Rozkład N(0, 1) |
z tablic dystrybuanty rozkładu normalnego |
Przedziały ufności dla wariancji / odchylenia standardowego.
Model |
Rozkład cechy X |
Przedział ufności |
Statystyka użyta do konstrukcji |
Wartość krytyczna |
I |
Rozkład normalny N(m,
m, |
|
rozkład |
Z tablic |
II |
Rozkład normalny N(m,
m, |
|
Rozkład N(0, 1) |
z tablic dystrybuanty rozkładu normalnego |
Przedział ufności dla wskaźnika struktury.
Model |
Rozkład cechy X |
Przedział ufności |
Statystyka użyta do konstrukcji |
Wartość krytyczna |
I |
Rozkład dwupunktowy z parametrem p |
|
asymptotycz. normalny N(0,1) |
z tablic dystrybuanty rozkładu normalnego |
Testy statystyczne
Hipoteza statystyczna - każde przypuszczenie dotyczące rozkładu badanej cechy w populacji. Dzielimy na:
parametryczne (dotyczą parametru rozkładu badanej cechy)
nieparametryczne (dotyczą postaci rozkładu)
Test statystyczny - każda jednoznacznie sformułowana zasada postępowania pozwalająca stwierdzić, czy badaną hipotezę należy odrzucić, czy nie.
H0 - hipoteza bezpośrednio sprawdzana (zakłada brak jakichkolwiek różnic)
H1 - hipoteza alternatywna
Budowa testu:
W populacji generalnej badana jest cecha X. H0 dotyczy rozkładu tej cechy. Na podstawie próby losowej prostej X1,...,Xn należy sprawdzić hipotezę H0. Budowa testu najogólniej ujmując jest następująca:
Wybieramy pewną statystykę Zn = Zn(X1,...,Xn) zwaną statystyką testową lub sprawdzianem.
Wybieramy liczbę
zwaną poziomem istotności testu. Liczba ta powinna być bliska 0 gdyż oznacza prawdopodobieństwo odrzucenia hipotezy H0, gdy jest ona prawdziwa.
Wyznaczamy zbiór K zwany zbiorem krytycznym (odrzuceń hipotezy H0) taki, że prawdopodobieństwo, iż statystyka Zn przyjmuje wartości z tego zbioru przy założeniu, że H0 jest prawdziwa, wynosi
.
Rodzaje błędów decyzji:
Błąd pierwszego rodzaju - polega na odrzuceniu hipotezy H0, gdy jest ona prawdziwa. Prawdopodobieństwo tego błędu oznaczamy
i nazywamy poziomem istotności.
Błąd drugiego rodzaju - polega na przyjęciu H0, gdy jest fałszywa. Prawdopodobieństwo tego błędu oznaczamy
.
Sytuacja Decyzja |
H0 prawdziwa |
H0 fałszywa |
Przyjęcie H0 |
Decyzja poprawna |
Decyzja błędna (błąd II rodzaju) |
Odrzucenie H0 |
Decyzja błędna (błąd I rodzaju) |
Decyzja poprawna |
Aby sprawdzić weryfikowaną hipotezę H0, przy ustalonej hipotezie alternatywnej, mając wybraną statystykę testową, poziom istotności oraz zbiór krytyczny, należy pobrać próbkę z populacji i wyznaczyć wartość statystyki Zn dla tej próbki. Możliwe są następujące decyzje:
a)
odrzucamy hipotezę H0 (przyjmujemy H1)
b)
przyjmujemy H0 (odrzucamy H1)
Uwaga!!!
Decyzje te są właściwe tylko dla małych
i
. Przy ustalonym poziomie istotności wartość
jest bardzo duża albo niemożliwa do wyznaczenia. W takich sytuacjach bezpieczniej jest zamiast decyzji, Ze przyjmujemy H0, podjąć decyzję ostrożniejszą - nie ma podstaw do odrzucenia hipotezy H0.
Parametryczne testy istotności
Większość stosowanych w praktyce testów statystycznych nie uwzględnia błędu II rodzaju. Wówczas na podstawie wyników próbki losowej możliwe jest podjęcie decyzji o odrzuceniu hipotezy H0 lub stwierdzenie, że brak jest podstaw do jej odrzucenia. Takie testy nazywamy testami istotności. Podstawowa wada testu to brak decyzji o przyjęciu H0.
Jeżeli
to oznacza, że zrealizowało się zdarzenie o bardzo małym prawdopodobieństwie, czyli praktycznie niemożliwe do zrealizowania się podczas jednej próbki.
Jeżeli
to prawdopodobieństwo tego zdarzenia jest >
. Można więc stwierdzić, że nie ma podstaw do odrzucenia hipotezy H0, gdyż podczas jednej próbki losowej zrealizowało się doświadczenie, które nie przeczy tej hipotezie.
W testach istotności pożądane jest takie formułowanie hipotezy H0. aby było większe podejrzenie co do jej fałszywości niż prawdziwości.
Weryfikacja hipotezy wartości średniej w populacji
W populacji badana jest cecha X. Na podstawie próby losowej prostej X1,...,Xn przy ustalonym poziomie istotności
, chcemy sprawdzić hipotezę H0 : m = m0
Model I
X ~N(m,
);
- znane
Nr testu |
Hipotezy |
Statystyka testująca |
Obszar krytyczny |
Wartość krytyczna |
1 |
H0: m = m0
H0: m |
|
|
|
2 |
H0: m = m0 H0: m < m0 |
|
|
|
3 |
H0: m = m0 H0: m > m0 |
|
|
z dystrybuanty rozkładu normalnego |
odrzucamy
nie ma podstaw do odrzucenia H0
(I MODEL)
Definicja: Kwantylem rzędu p nazywamy taką wartość Xp zmiennej losowej X, dla której zachodzi równanie:
F(Xp) = p (dla zmiennej losowej typu ciągłego)
(II MODEL)
Definicja: Jeśli
jest cechą populacji o rozkładzie normalnym N(m,
), gdzie parametry rozkładu są znane, to statystyka testowa
przy założeniu prawdziwości hipotezy zerowej H0: m = m0 ma rozkład t Studenta z n-1 stopniami swobody.
Obszary krytyczne K dla odpowiednich hipotez alternatywnych zbieramy w tablicy:
Hipoteza zerowa H0 |
Hipoteza alternatywna H1 |
Statystyka testowa tn |
Obszar krytyczny K |
H0: m = m0
|
H0: m |
|
|
|
H0: m < m0 |
|
|
|
H0: m > m0 |
|
|
gdzie
jest kwantylem rzędu
rozkładu t studenta z n-1 stopniami swobody.
(III MODEL)
Definicja: Jeśli cecha X populacji ma nieznany rozkład lecz parametry m,
istnieją, to dla dużych n (n
100; n
50; n
30) statystyka
ma rozkład w przybliżeniu normalny N(1, 0).
Dla dużych n będziemy szacować
, gdzie
Zatem w tym przypadku statystyka testowa będzie:
przy założeniu prawdziwości hipotezy H0.
Obszary krytyczne dla odpowiednich hipotez alternatywnych zbierzemy w tablicy:
Hipoteza zerowa H0 |
Hipoteza alternatywna H1 |
Statystyka testowa tn |
Obszar krytyczny K |
H0: m = m0
|
H0: m |
|
|
|
H0: m < m0 |
|
|
|
H0: m > m0 |
|
|
Testy związane z wariancją
Weryfikowanie hipotez statystycznych dla wariancji (lub odchylenia standardowego)
Rozpoznajemy populację i pewną cechę X, dla której parametry m = E(X) i
= D2(X) nie są znane. Będziemy używać statystykę
.
(I MODEL)
Definicja: Jeśli cecha X ma rozkład normalny N(m,
) o nieznanych parametrach m i
, to statystyka testowa
przy założeniu prawdziwości hipotezy H0:
(lub H0:
) ma rozkład
z n-1 stopniami swobody.
Obszary krytyczne dla odpowiednich hipotez alternatywnych zbierzemy w tablicy:
Hipoteza zerowa H0 |
Hipoteza alternatywna H1 |
Statystyka testowa |
Obszar krytyczny K |
H0:
(H0: |
H1:
( |
|
|
|
H1:
( |
|
|
|
H1:
( |
|
|
gdzie
jest kwantylem rzędu
rozkładu
z n-1 stopniami swobody.
(II MODEL)
Definicja: Jeśli cecha X ma rozkład normalny N(m,
) o nieznanych parametrach, n
50 to statystyka testowa
ma rozkład N(
;1) przy założeniu prawdziwości hipotezy zerowej
Obszary krytyczne dla odpowiednich hipotez alternatywnych zbierzemy w tablicy:
Hipoteza zerowa H0 |
Hipoteza alternatywna H1 |
Statystyka testowa |
Obszar krytyczny K |
H0:
|
H1:
|
|
|
|
H1:
|
|
|
|
H1:
|
|
|
Weryfikacja hipotezy o wskaźniku struktury
Definicja: Jeśli cecha X ma rozkład 0-1 o nieznanym parametrze p, to statystyka testowa
ma przy założeniu prawdziwości hipotezy
i n
rozkład normalny N(0,1).
Hipoteza zerowa H0 |
Hipoteza alternatywna H1 |
Statystyka testowa |
Obszar krytyczny K |
H0:
|
H1:
|
|
|
|
H1:
|
|
|
|
H1:
|
|
|
gdzie m - ilość elementów wyróżnionych w próbce n-elementowej.
Weryfikacja hipotezy o wartości przeciętnej w dwóch populacjach
(I MODEL)
Definicja: Jeśli badana cecha X ma w obu populacjach rozkłady normalne
i
oraz m1 i m2 są nieznane, a
i
są znane to
ma przy założeniu prawdziwości hipotezy zerowej H0: m1=m2 rozkład normalny N(0,1).
Hipoteza zerowa H0 |
Hipoteza alternatywna H1 |
Statystyka testowa |
Obszar krytyczny K |
H0:
|
H1:
|
|
|
|
H1:
|
|
|
|
H1:
|
|
|
(II MODEL)
Definicja: Jeśli przy założeniach
tablica testu nie różni się od tablicy z I modelu.
(III MODEL)
Definicja: Jeśli cecha X ma w dwóch populacjach rozkłady normalne
i
odpowiednio o nieznanych parametrach, to przy założeniu
, statystyka
ma rozkład t-Studenta z (n1+n2 - 2) stopniami swobody przy założeniu prawdziwości hipotezy zerowej H0:
.
Hipoteza zerowa H0 |
Hipoteza alternatywna H1 |
Statystyka testowa tn |
Obszar krytyczny K |
H0:
|
H1:
|
|
|
|
H1:
|
|
|
|
H1:
|
|
|
gdzie t(
) jest kwantylem rzędu
rozkładu t-Studenta z
stopniami swobody.
(IV MODEL)
Definicja: Jeśli pewna populacja jest poddana badaniu statystycznemu ze względu na cechę X dwa razy: przed i po pewnym działaniu na populację, to otrzymane próbki (X1',...,Xn') - przed działaniem i (X1'',...,Xn'') - po działaniu, są zależne?
Wtedy weryfikujemy hipotezę H0: m1 - m2 = 0 wobec hipotez alternatywnych H1: m1 - m2
0
dla próbki (X1,...,Xn) określonej wzorem: xi = xi' - xi'' dla
. Stosujemy testy dla jednej średniej (m0 = 0)
Weryfikacja hipotezy o równości dwóch wariancji
Definicja: Jeśli cecha X ma w dwóch populacjach rozkłady normalne N(m1,
) i N(m2,
) o nieznanych parametrach, to statystka testowa
ma rozkład Snedecora z n1-1 i n2-1 stopniami swobody przy założeniu prawdziwości hipotezy zerowej H0:
(H0:
).
Opis testowy:
Hipoteza zerowa H0 |
Hipoteza alternatywna H1 |
Statystyka testowa |
Obszar krytyczny K |
H0:
(H0: |
H1:
( |
|
|
|
H1:
( |
|
|
|
H1:
( |
|
|
gdzie
jest kwantylem rzędu
rozkładu Snedecora z
stopniami swobody.
Weryfikacja hipotezy o równości dwóch wskaźników struktury
Definicja: Jeśli cecha X ma w dwóch populacjach rozkład 0-1 z nieznanymi parametrami p1 i p2 oraz n1
100 i n2
100, statystyka:
; gdzie
oraz
M1 i M2 - zmienne losowe, których wartościami są ilości wyróżnionych elementów w populacji 1 i 2 odpowiedzi?
przy założeniu prawdziwości hipotezy zerowej H0 : p1 = p2.
Hipoteza zerowa H0 |
Hipoteza alternatywna H1 |
Statystyka testowa |
Obszar krytyczny K |
H0:
|
H1:
|
|
|
|
H1:
|
|
|
|
H1:
|
|
|
Badanie statystyczne ze względu na dwie cechy
Przy badaniu populacji za względu na dwie cechy chcemy uzyskać informacje dotyczące siły zależności między cechami oraz kształt (postać) tej zależności.
Próbki z badań są postaci (xi, yi) i
i w celu wstępnego oszacowania zależności tworzymy tzw. DIAGRAM KORELACYJNY nanosząc punkty na płaszczyznę, np.
Podstawowymi pojęciami występującymi przy badaniu zależności między 2 cechami są korelacja i regresja.
KORELACJA - dostarcza informacji na temat siły związku między 2 cechami. Najczęściej stosowany jest współczynnik korelacji
mierzący siłę zależności liniowej:
; zależność jest silna gdy:
. [Gdy
to cechy X i Y są nieskorelowane - mogą być zależne].
REGRESJA - ma na celu określenie zależności funkcyjnej między cechami X i Y. Celem jest wyznaczenie takiej funkcji g by można było szacować
. Funkcja g może być liniowa lub krzywoliniowa.
UWAGA 1!!!
Jeśli
to
, ale korelacja nic nie mówi o wartościach współczynników a i b (poza znakiem liczby a).
UWAGA 2!!!
Jeśli cechy X i Y mają w populacji rozkład normalny to wektor (X, Y) ma dwuwymiarowy rozkład normalny i regresja jest liniowa.
Estymacja, testy dla współczynnika korelacji
W wyniku prawdopodobieństwa wiadomo, że dla dowolnych zmiennych losowych X i Y współczynnik korelacji liniowej wyraża się wzorem:
Estymatorem zgodnym współczynnika korelacji między cechami X i Y jest statystyka R określona wzorem:
; gdzie
UWAGA 1!!!
Estymator R jest obciążony, gdyż E(R)
.
UWAGA 2!!!
Realizacją estymatora R zwaną współczynnikiem korelacji z próbki wyznaczamy ze wzorów:
;
lub
UWAGA 3!!!
Gdy
, dane z próbki (xi, yi) grupuje się w dwuwymiarowy szereg przedziałowy rozdzielczy zwany tablicą korelacyjną:
X Y |
y1 dolne-y2 górne |
y2 dolne-y2 górne |
x1 dolne-x1 górne |
n11 |
n12 |
x2 dolne-x2 górne |
n21 |
n22 |
Estymacja współczynników liniowej funkcji regresji
W wyniku prawdopodobieństwa współczynniki liniowej funkcji regresji II rzędu
wyznaczamy ze wzoru:
Estymatorami A i B współczynników
i
są:
i
(Estymatory są zgodne i nieobciążone).
Realizacje a i b z próbki wyznaczamy ze wzoru:
i
, gdzie a jest współczynnikiem kierunkowym (Dla przyrostu cechy X o jednostkę otrzymamy przyrost cechy Y o wartość „a” jednostek).
dla zmiennej typu skokowego
dla zmiennej typu ciągłego
liczebność skumulowana
n
ni
Diagram liczebności
60 50 40 30 20 10
xi
0 1 2 3 4 5 6 7
Histogram liczebności
Symetryczny
Umiarkowanie asymetrycznie prawostronnie
Umiarkowanie asymetryczny lewostronnie
Skrajnie asymetryczny prawostronnie
Skrajnie asymetryczny lewostronnie
Bimodalny
Równomierny
Siodłowy
Symetryczny
Umiarkowanie asymetryczny prawostronnie
Skrajnie asymetryczny prawostronnie
Umiarkowanie asymetryczny lewostronnie
Skrajnie asymetryczny lewostronnie
Bimodalny
Wielomodalny
Siodłowy
Równomierny
Xp
p
silna zależność typu liniowego
słaba zależność hiperboliczna
brak zależności