Definicja σ-algebry zdarzeń.
σ-algebrą (σ-ciałem) zdarzeń przestrzeni Ω nazywamy niepustą klasę F jej podzbiorów spełniającą następujące aksjomaty:
Jeżeli A∈F to A'∈Fgdzie A'=Ω\A
Jeżeli A1, A2,...∈F, to
Ai∈F
Aksjomatyczna definicja prawdopodobieństwa.
Podał ją Kołmoganow w 1933
Prawdopodobieństwem nazywamy funkcję P przyporządkowującą każdemu zdarzeniu A∈F liczbę P(A) zgodnie z następującymi aksjomatami:
P(A)≥0
P(Ω)=1
Jeżeli A1,A2... jest dowolnym ciągiem parami rozłącznych zdarzeń należących do F, to
Własności prawdopodobieństwa.
P(∅)=0
Jeżeli A⊂B to P(A)≤P(B)
P(A∪B) = P(A)+P(B)-P(A∩B)
P(A∪B) ≤ P(A)+P(B)
P(A') = 1-P(A)
Definicja przestrzeni probabilistycznej.
Trójkę
Ω - przestrzeń zdarzeń elementarnych,
F - niepusta klasa podzbiorów przestrzeni Ω,
P - nazywamy przestrzenią probabilistyczną.
Definicja prawdopodobieństwa warunkowego.
Niech (Ω, F, P) będzie dowolna przestrzenią probabilistyczną.
Prawdopodobieństwem warunkowym zdarzenia A, że zaszło zdarzenie B nazywamy
Twierdzenie:
Jeżeli (Ω, F, P) jest przestrzenią probabilistyczną i P(B)>0 dla B∈F to (Ω, F, P*) gdzie P*(A) = P(A/B) jest również przestrzenią probabilistyczną.
Definicja zdarzeń niezależnych.
Zdarzenia A i B należące do F nazywamy niezależnymi, jeżeli:
P(A∩B) = P(A)
w przeciwnym wypadku zdarzenia A i B nazywamy zależnymi.
Definicja zmiennej losowej.
Niech (Ω, F, P) będzie dowolną przestrzenią probabilistyczną. Zmienną losową X nazywamy funkcję określoną na przestrzeni zdarzeń elementarnych Ω i przyjmującą wartości rzeczywiste
X: ΩR
spełniającą warunek:
{ω: X(ω)<x} = F dla każdego x∈R
Twierdzenie:
Jeżeli X(ω) jest zmienną losową, a h(x) jest funkcją przedziałami ciągłą, której dziedzina zawiera zbiór wartości X, to Y(ω) = h(X(ω)) jest zmienną losową określoną na tej samej przestrzeni probabilistycznej co X.
Definicja i własności dystrybuanty.
DEFINICJA:
Dystrybuantą F zmiennej losowej X nazywamy funkcję zmiennej rzeczywistej, określoną wzorem:
F(x) = P({ω:X(ω)<x}) P(X<x)dla każdego x∈R
Twierdzenie:
Funkcja F(x)jest dystrybuantą pewnej zmiennej losowej X wtedy i tylko wtedy, gdy:
F(x) jest niemalejąca,
F(x) jest lewostronnie ciągła,
Uwaga:
Niekiedy dystrybuantę definiuje się wzorem:
F(x) = P(X≤x) dla x∈R
WŁASNOŚCI:
P(a ≤ X ≤ b) = F(b) - F(a)
P(X = a) = F(a+0) - F(a),
gdzie F(a+0) =
P(X ≥ a) = 1-P(X<a) = 1-F(a)
Własności gęstości prawdopodobieństwa.
W punktach różniczkowalności F(x) zachodzi:
f(x) = F'(x)
P(a≤X<b) = P(a≤X≤b) = P(a<X<b) = P(a<X≤b) =
Definicja i własności wartości oczekiwanej.
DEFINICJA:
Wartość oczekiwana zmiennej losowej (zmienna matematyczna, wartość średnia lub przeciętna) należy do podstawowych pojęć rachunku prawdopodobieństwa.
Wartością oczekiwaną zmiennej losowej X o dystrybuancie F nazywamy liczbę EX określoną wzorem:
o ile całka ta jest bezwzględnie zbieżna, tzn. o ile istnieje całka
.
Jeżeli
nie istnieje, lub, jeżeli nie jest bezwzględnie zbieżna, to mówimy, że wartości oczekiwana nie istnieje.
EX =
WŁASNOŚCI:
Wartość oczekiwana jest operatorem liniowym, tzn.
E(aX+bY) = aEX+bEY, a, b∈R
Jeżeli zmienne losowe X i Y są niezależne, to:
E(X*Y) = EX*EY
Jeżeli h(x) jest przedziałami ciągła, to:
,gdzie F(x) jest dystrybuantą zmiennej losowej X.
W interpretacji mechanicznej wartość oczekiwana jest współrzędną środka masy układu.
Definicja i własności wariancji.
DEFINICJA:
Wariancją zmiennej losowej X nazywa się liczbę D2X określoną wzorem:
D2X = E(X-EX)2
WŁASNOŚCI:
D2X≥0
D2X=0 wtedy i tylko wtedy, gdy zmienna losowa X przyjmuje wartość stałą z prawdopodobieństwem 1, tzn. gdy P(X=x0)=1 dla x0∈R
D2(aX+b) = a2D2X, gdzie a, b∈R.
Jeżeli X i Y są niezależne, to
D2(X+Y) = D2X+ D2Y
D2X = EX2-(EX)2
Definicja i własności rozkładu wykładniczego
λ>0 (parametr rozkładu)
EX =
D2X =
Rozkład wykładniczy jest jedynym rozkładem ciągłym, który ma własność „braku pamięci”:
P(X≥(a+b) | X≥a) = P(X≥b)
Definicja i własności rozkładu normalnego.
dla x∈R
μ∈R, σ>0 parametry rozkładu.
EX = μ D2X = σ2
σx = σ
U =
~ N(μ,σ), N(0;1) to rozkład standaryzowany
Jest to rozkład symetryczny.
Definicja estymatora nieobciążonego.
Jest to estymator
, który przy każdym n spełnia warunek
E
= Q
Jeżeli
, to estymator Qn nazywamy asymptotycznie nieobciążonym estymatorem parametru Q
Definicja estymatora najefektywniejszego.
Jest to estymator nieobciążony, którego wariancja jest możliwie najmniejsza.
Miarą efektywności nieobciążonego estymatora
jest liczba:
, gdzie
jest estymatorem najefektywniejszym
0<ef
≤1
Jeżeli ef
= 1, to estymator
jest najefektywniejszy
Jeżeli
, to
nazywamy estymatorem asymptotycznie najefektywniejszym parametru Q.
Definicja przedziału ufności.
Przedziałem ufności dla parametru Q, na poziomie ufności „1-α”, α∈(0,1) nazywamy przedział (Q*,Q*) spełniający warunki:
Jego końce są statystykami,
P(Q*<Q<Q*) = 1-α
(q*,q*) to realizacja przedziału ufności.
Przykładowa odpowiedź do zadania:
„Przedział (q*,q*)z prawdopodobieństwem 1-α pokrywa nieznany parametr Q.
Definicja hipotezy statystycznej.
Hipotezą statystyczną nazywamy każde przypuszczenie dotyczące nieznanego rozkładu badanej cechy populacji, które może być zweryfikowane na podstawie pobranej próby.
Hipotezy dzielimy na:
Parametryczne
Nieparametryczne
Hipotezę podlegającą weryfikacji nazywamy hipotezę zerową i oznaczamy H0.
Każda dopuszczalna hipoteza poza hipotezą zerową nazywa się hipotezą alternatywną i oznaczamy ją H1.
Sprawdzając hipotezę statystyczną możemy podjąć poprawną decyzję, albo popełnić jeden z następujących błędów: (patrz następne pytania)
Definicja błędu I rodzaju.
Jest to błąd polegający na odrzuceniu weryfikowanej hipotezy H0 gdy jest ona prawdziwa
(prawdopodobieństwo popełnienia oznaczamy przez „α”)
Definicja błędu II rodzaju.
Jest to błąd polegający na przyjęciu weryfikowanej hipotezy H0 gdy jest ona fałszywa
(prawdopodobieństwo popełnienia oznaczamy przez „β”)
Obydwa powyższe błędy są ze sobą sprzężone. Jeżeli opieramy się na tej samej próbie, to mniejsze α pociąga za sobą większe β i na odwrót.
Definicja obszaru krytycznego.
R - zbiór wartości statystyki testowej Un, których wystąpienie jest tak mało prawdopodobne, gdy hipoteza H0 jest prawdziwa, że odczytujemy je jako zaprzeczenie hipotezie H0.
Od czego zależy obszar krytyczny.
Rozkładu statystyki testowej,
Postaci hipotez,
Prawdopodobieństwa błędów.
Parę (Un, R) nazywamy testem statystycznym
α = P(Un∈R | H0)
β = P(Un∉R | H1) = 1 - P(Un∈R | H0)
Definicja poziomu istotności.
Poziom istotności występuje w teście istotności pod postacią prawdopodobieństwa popełnienia błędu I rodzaju „α”.
Definicja mocy testu.
Mocą testu nazywamy prawdopodobieństwo odrzucenia hipotezy H0 gdy prawdziwa jest hipoteza H1.
P(Un∈R | H1) = 1-β
W klasycznej teorii weryfikacji hipotez statystycznych przy ustalonym poziomie ufności α statystykę i obszar krytyczny dobiera się tak, aby możliwie największa była moc testu.
Typy decyzji weryfikacyjnych,
dla hipotez przy ustalonym poziomie istotności α:
Jeżeli Un∈R, to odrzucamy hipotezę H0 z prawdopodobieństwem błędu I rodzaju równym α.
Jeżeli Un∉R, to nie ma podstaw do odrzucenia hipotezy H0 z prawdopodobieństwem 1-α
Definicja zmiennej losowej dwuwymiarowej.
Niech (Ω, F, P) będzie dowolną przestrzenią probabilistyczną. Zmienną losową dwuwymiarową (X,Y) nazywamy funkcje: (X,Y):ΩR2, mierzalną względem σ-algebry zdarzeń F, tzn. spełniającą warunek:
(X,Y) - wektor losowy dwuwymiarowy,
X,Y - jednowymiarowe zmienne losowe.
Definicja i własności dystrybuanty zmiennej losowej dwuwymiarowej.
DEFINICJA:
Dystrybuanta (łączną) zmiennej losowej (X,Y) to funkcja F:R2<0,1>, taka że:
F(x,y) = P(X<x,Y<y), dla (x,y)∈R2.
WŁASNOŚCI:
Funkcja niemalejąca względem każdego z argumentów,
Jest funkcją co najmniej lewostronnie ciągłą względem każdego z argumentów,
,
F(x2,y2) - F(x2,y1) - F(x1,y2) + F(x1,y1) ≥ 0
Definicja zmiennych losowych niezależnych.
Mówimy, że zmienne losowe X i Y są niezależne, jeżeli dla dowolnych x,y∈R zachodzi:
F(x,y) = FX(x)*FY(y)
Twierdzenie:
Zmienne losowe X i Y skokowe są niezależne wtedy i tylko wtedy, gdy dla dowolnych i,j∈N zachodzi
pij = pi*pj.
Twierdzenie:
Zmienne losowe X i Y absolutnie ciągłe są niezależne wtedy i tylko wtedy, gdy dla dowolnych x,y∈R zachodzi:
f(x,y) = fX(x)*fY(y).
Definicja i własności kowariancji.
DEFINICJA:
Jest to moment centralny rzędu drugiego:
μ11 = E*[(X-EX)*(Y-EY)] = cov(X,Y).
WŁASNOŚCI:
cov(X,X) = D2X
cov(X,Y) = cov(Y,X)
cov(X,Y) = E(X*Y) - EX*EY
|cov(X,Y)≤σX*σY
Jeżeli zmienne losowe X i Y są niezależne to cov(X,Y) = 0
D2(aX+bY+c) = a2D2X+2a*b*cov(X,Y)+b2D2Y gdzie a, b, c∈R
Definicja macierzy kowariancji.
Jest to macierz momentów centralnych rzędu drugiego:
korzystając z własności kowariancji otrzymujemy:
macierz kowariancji jest symetryczna.
Definicja i własności współczynnika korelacji.
DEFINICJA:
Współczynnikiem korelacji losowych X i Y nazywamy iloraz:
WŁASNOŚCI:
|ρ|≤1
Jeżeli X i Y są niezależne, to ρ = 0
|ρ| = 1 wtedy i tylko wtedy, gdy istnieją stałe a≠0 i b≠0, że
P(Y = aX+b) = 1
Definicja zmiennych losowych nieskorelowanych.
Zmienne losowe są nieskorelowane jeżeli ich współczynnik korelacji ρ, ze wzoru
,
jest równy zero.
Definicja linii regresji pierwszego rodzaju.
Zbiór punktów na płaszczyźnie R2 spełniających równanie:
y = E(Y | X=x) = m2(x)
Nazywamy linia regresji pierwszego rodzaju zmiennej losowej Y względem X.
Zbiór punktów na płaszczyźnie R2 spełniających równanie:
x = E(X | Y=y) = m1(y)
Nazywamy linia regresji pierwszego rodzaju zmiennej losowej X względem Y.
Definicja prostej regresji drugiego rodzaju.
Będziemy poszukiwać najlepszego przybliżenia zmiennej losowej Y liniową funkcją zmiennej losowej X.
Prosta regresji drugiego rodzaju zmiennej losowej Y względem zmiennej losowej X nazywamy prosta:
y = αx+β,
której współczynniki są tak dobrane, aby wyrażenie E[Y-(αx+β)]2 było jak najmniejsze.
Twierdzenie:
Wyrażenie E[Y-(αx+β)]2 osiąga najmniejszą wartość, gdy:
,
, zatem równanie prostej regresji drugiego rodzaju ma postać:
,
,
- wariancja resztowa (niewyjaśniona liniową regresją)
,
- wariancja wyjaśniona liniową regresją.
Definicja i interpretacja współczynnika determinacji.
ρ2 (współczynnik determinacji) wskazuje jaką część całkowitej wariancji zmiennej zależnej stanowi wariancja wyjaśniona liniową regresją względem drugiej zmiennej.
Własności dwuwymiarowego rozkładu normalnego.
WŁASNOŚCI:
Jeżeli ρ = 0 to zmienne losowe są niezależne,
Rozkłady brzegowe i rozkłady warunkowe są jednowymiarowymi rozkładami normalnymi,
Linie regresji pierwszego rodzaju są liniami prostymi.
1
, gdy X jest zmienną skokową,
, gdy X jest zmienną absolutnie ciągłą.
0 dla x<0
f(x)
λe-λx dla x≥0