zagadnienia teoretyczne na egzamin, dokumenty, polibuda, sem 2, rachunek prawdopodobienstwa


1. Sigma σ-algebry zdarzeń - w przestrzeni Ω nazywamy rodziną F jej podzbiorów spełniającą następujące aksjomaty:

1) Ω ∈ F,

2) jeżeli A ∈ F, to A'∈ F (A'=Ω\A)

3) jeżeli A1, A2 ∈ F, to 0x01 graphic
Ai ∈ F

Elementy σ-algebry zdarzeń F nazywamy zdarzeniami losowymi zdarzeniami.

2. Aksjomatyczna definicja prawdopodobieństwa.

Jeżeli Ω jest przestrzenią zdarzeń elementarnych, F jest σ-algebrą zdarzeń, to prawdopodobieństwo nazywamy funkcją. p: F→R, taka że:

1) dla każdego A∈F jest P(A)≥0

2) P(Ω)=1 (wartość unormowania)

3) jeżeli A1, A2, .... jest dowolnym ciągiem parami wykluczających się zdarzeń, to:

P(0x01 graphic
Ai)=0x01 graphic
(Ai)

3.Własności prawdopodobieństwa.

1) P(∅)=0

2) jeżeli A⊂B, to P(A) ≤ P(B)

3) P(A∪B) = P(A) + P(B) - P(A∩B)

4) P(A∪B) ≤ P(A) + P(B)

5) jeżeli B⊂A, to P(A\B) = P(A) - P(B)

6) P(A\B) = P(A)-P(A∩B)

7) P(A') = 1 - P(A)

4. Definicja przestrzeni probabilistycznej. Trójka (Ω, F, P)

5. Definicja prawdopodobieństwa warunkowego.

Prawdopodobieństwo zdarzenia A pod warunkiem zdarzenia B określone jest wzorem:

P(A\B)=0x01 graphic
, P(B)>0

6.Definicja zdarzeń niezależnych.

Mówimy, że zdarzenia A i B SA niezależne jeżeli: P(A∩B) = P(A)∙ P(B).

Jeżeli zdarzenia A i B są niezależne i P(B)>0, to P(A\B)=P(A)

Mówimy, że zdarzenia A1, A2, … (ciąg skończony lub nieskończony) są niezależne, jeżeli dla dowolnych Ai1, Ai2, …, Aik zachodzi równość:

P(Ai1 ∩ Ai2 ∩…∩ Aik) = P(Ai1) x P(Ai2) x … x P(Aik)

Uwaga. Jeżeli wszystkie lub tylko niektóre zdarzenia niezależne A1, A2, … zastąpimy przez zdarzenia przeciwne do nich, to otrzymamy również zdarzenia niezależne.

7.Definicja zmiennej losowej.

Niech (Ω,F,P) będzie dowolną przestrzenią probabilistyczna. Zmienna losową X nazywamy funkcją określoną na przestrzeni zdarzeń elementarnych Ω i przyjmującą wartości rzeczywiste: X: Ω→R, spełniającą warunek: {ω: X(ω)≤x} ∈ F, dla każdego x∈R

8.Definicja i własności dystrybuanty.

Dystrybuantą zmiennej losowej X nazywamy funkcją rzeczywistą zmiennej rzeczywistej określona wzorem:

F(x)=P({ω: X(ω)≤x}) = P(X ≤ x), dla każdego x∈R

Twierdzenie. Funkcja F(x) jest dystrybuantą pewnej zmiennej losowej ↔ :

1) F(x) jest niemalejąca,

2) F(x) jest prawostronnie ciągła

3) 0x01 graphic
F(x)=0

4) 0x01 graphic
F(x)=1

(WYKRESY)

9.Własności dystrybuanty:

P(X ≤ a) = F(a)

P(X < a) = 0x01 graphic
F(x) = F(a-)

P(X = a) = F(a) - F(a-)

P(X > a) = 1 - F(a)

P(X ≥ a) = 1 - F(a-)

P(a < X ≤ b) = F(b) - F(a)

P(a < X < b) = F(b-) - F(a)

P(a ≤ X ≤ b) = F(b) - F(a-)

P(a ≤ X < b) = F(b-) - F(a-)

10. Definicja i własności wartości oczekiwanej.

Własności:

1) Wartość oczekiwana jest operatorem liniowym, tzn.

E(aX + By) = aEX + bEY, a, b ∈ R

2) Jeżeli zmienne losowe X i Y są niezależne, to

E(X∙Y) = EX ∙ EY

3) Jeżeli h(x) jest funkcja przedziałami ciągłą, to

E[h(x)] = 0x01 graphic
, gdzie F(x) jest dystrybuantą zmiennej losowej x.

11. Definicja i własności wariancji.

Wariancją zmiennej losowej X nazywamy liczbą D2X określoną wzorem: D2X = E(X-EX)2

Wariancją jest miara rozrzutu. Interpretacja fizyczna: moment bezwładności względem środka masy.

Własności wariancji:

1) D2X ≥ 0

2) D2X = 0 ↔ zmienna losowa X przyjmuje wartość stałą z prawdopodobieństwem 1,

tzn. gdy P(x=x0) = 1 dla pewnej liczby x0 ∈ R

3) D2(aX + b) = a2 ∙ D2X, a, b ∈ R

4) Jeżeli X I Y są niezależne, to:

D2(X + Y) = D2X + D2Y

5) D2X = EX2 - (EX)2

12. Definicja i własności rozkładu wykładniczego.

Rozkład wykładniczy to rozkład zmiennej losowej opisujący sytuację, w której obiekt może przyjmować stany X i Y, przy czym obiekt w stanie X może ze stałym prawdopodobieństwem przejść w stan Y w jednostce czasu. Prawdopodobieństwo wyznaczane przez ten rozkład to prawdopodobieństwo przejścia ze stanu X w stan Y w czasie δt.

Własności:

1) Gęstość:

-rozkład wykładniczy jednoparametrowy o parametrze λ (λ > 0):

f(x) = λeλxI[0,](x)

-rozkład wykładniczy ujemny (dwuparametrowy) z parametrami położenia μ ∈ R

i parametrami skali σ > 0 ma gęstość:

f(x; μ, σ) = 0x01 graphic
I(μ,)(x)

-rozkład podwójnie wykładniczy o parametrach położenia β i parametrze skali γ > 0

ma gęstość:

f(x; β, γ) = 0x01 graphic
, x ∈ R

2) Dystrybuanta jest funkcją F określoną dla wartości rzeczywistych x taką, że

F(x) = P(X < x). Dla ciągłej zmiennej losowej X:

F(x) = 0x01 graphic
,

gdzie f jest gęstością X.

3) Wariancją zmiennej losowej X jest wielkość będąca miarą rozproszenia rozkładu

wokół wartości oczekiwanej. Zazwyczaj stosuje się oznaczenia: Var(X), D2(X), σ2

Jeżeli EX < ∞, to Var(X) = EX2 - (EX)2

13. Definicja i własności rozkładu normalnego.

Istnieje wiele równoważnych sposobów zdefiniowania rozkładu normalnego. Należą do nich: funkcja gęstości, dystrybuanta, momenty, kumulanty, funkcja charakterystyczna, funkcja tworząca momenty i funkcja tworząca kumulanty. Wszystkie kumulanty rozkładu normalnego wynoszą 0 oprócz pierwszych dwóch.

Własności:

1) Jeżeli zmienne losowe x1, x2, …, xn są niezależne oraz x ~ N(μi; σi) i=1, 2, …

x1 + x2 +… +xn ~ N(μ1, μ2, …+ μn) 0x01 graphic

2) Jeżeli zmienne losowe x1, x2, …, xn są niezależne oraz

xi ~ N(μ, σ) dla i=1,2,…,n

x1 + x2 +…+xn ~ N(n μ, σ0x01 graphic
)

3) Jeżeli zmienne losowe x1 i x2 są niezależne oraz

x1 ~ N(μ11) x2 ~ N(μ22)

to x1 - x2 x1 ~ N(μ1- μ2,0x01 graphic
)

4) Jeżeli zmienne losowe x1, x2 są niezależne oraz

x1 ~ N(μ,σ) x2 ~ N(μ,σ)

to x1 - x2 ~ N(0, 0x01 graphic
σ)

5) Jeżeli zmienne losowe x1, x2,…, xn są niezależne oraz

xi ~ N(μ11) dla i=1,2,…

to 0x01 graphic
n =0x01 graphic
~ N(0x01 graphic
1 + μ2 +…+ μn)∙0x01 graphic
(0x01 graphic
))

6) Jeżeli zmienne losowe x1, x2,…, xn są niezależne

xi ~ N(μ,σ) dla i=1,2,…,n

0x01 graphic
n =0x01 graphic
~ N(μ,0x01 graphic
)

14. Definicja estymatora niedociążonego.

Estymator 0x01 graphic
n parametru Q nazywamy estymatorem zgodnym, jeżeli

0x01 graphic
P(|0x01 graphic
n - Q| < ε) = 1 dla każdego ε > 0

Estymator 0x01 graphic
n, który przy każdym n spełnia warunek E0x01 graphic
n = 0 nazywamy estymatorem niedociążonym parametru Q.

Jeżeli 0x01 graphic
E0x01 graphic
n =Q, to estymator 0x01 graphic
n nazywamy estymatorem asymptotycznie niedociążonym parametru Q.

15. Definicja estymatora najefektywniejszego.

Estymator niedociążony, którego wariancja jest możliwie najmniejsza nazywamy estymatorem najefektywniejszym parametru Q. Miara efektywności niedociążonego estymatora 0x01 graphic
n jest liczba: ef0x01 graphic
n = 0x01 graphic

Zwaną efektywnością estymatora 0x01 graphic
n, gdzie 0x01 graphic
jest estymatorem najefektywniejszym.

0 < ef0x01 graphic
n ≤ 1

Jeżeli ef0x01 graphic
n = 1, to estymator 0x01 graphic
n jest najefektywniejszy.

Jeżeli 0x01 graphic
ef0x01 graphic
n = 1, to 0x01 graphic
n nazywamy estymatorem asymptotycznym najefektywniejszym parametru Q.

16. Definicja przedziału ufności.

Przedziałem ufności (dwustronnym) dla parametru Q na poziomie ufności 1- α, α ∈ (0;1), nazywamy przedział (Q*, Q*) spełniający warunki:

- jego końce są statystykami,

- P(Q* < Q < Q*) = 1 - α

(q*, q*) - realizacja przedziału ufności

Odp. Przedział (q*, q*) z prawdopodobieństwem 1 - α pokrywa nieznany parametr Q.

17. Definicja hipotezy statystycznej.

Hipotezę statystyczną nazywamy każde przypuszczenie dotyczące nieznanego rozkładu badanej cechy populacji, które może być zweryfikowane na podstawie sporawej próby.

Hipotezę dzielimy na:

- parametryczne,

- nieparametryczne

Hipotezę podlegającą weryfikacji nazywamy hipotezę zerową i oznaczamy H0. Każda dopuszczalna hipoteza poza hipotezą zerową nazywa się hipotezą alternatywną i oznacza się

H1.

18.19. Definicja błędu I rodzaju i błędu II rodzaju:

Sprawdzając hipotezę statystyczną możemy podjąć poprawną decyzję albo popełnić jeden z dwóch następujących błędów:

- możemy odrzucić weryfikowaną hipotezę H0, wtedy gdy jest ona w rzeczywistości prawidłowa (błąd I rodzaju, prawdopodobieństwo jego popełnienia oznaczamy przez α).

- możemy przyjąć weryfikowaną hipotezę H0, jako prawidłową, podczas gdy jest ona w rzeczywistości fałszywa (błąd II rodzaju, prawdopodobieństwo jego popełnienia oznaczamy przez β).

Obydwa błędy są ze sobą sprzężone, jeżeli opieramy się na tej samej próbie, to mniejsze α pociąga za sobą większe β i na odwrót).

20. Definicja obszaru krytycznego.

R - zbiór wartości statystyki testowej Un, których wystąpienie jest tak mało prawdopodobne, gdy hipoteza H0 jest prawdziwa, że odczytujemy je jako zaprzeczenie hipotezy H0 (obszar krytyczny).

21. Od czego zależy obszar krytyczny.

Obszar krytyczny zależy od:

- rozkładu statystyki testowej,

- postaci hipotez,

- prawdopodobieństw błędów.

22. Definicja poziomu istotności.

Test, w którym bierzemy pod uwagę jedynie prawdopodobieństwo α popełniania błędu i rodzaju nazywamy testem istotności, a prawdopodobieństwo α nazywamy poziomem istotności.

23. Definicja mocy testu.

Prawdopodobieństwo odrzucenia hipotezy H0, gdy prawidłowa jest hipoteza H1 nazywamy mocą testu.

moc testu = 1 - β

W klasycznej teorii weryfikacji hipotez statystycznych przy ustalonym poziomie istotności α, statystykę i obszar krytyczny dobieramy tak, aby możliwie największa była moc testu.

24. Typy decyzji weryfikowanych dla hipotez.

Typy decyzji weryfikacji przy ustalonym poziomie istotności α:

- Jeżeli Un ∈ R, to odrzucamy hipotezę H0, z prawdopodobieństwem błędu i rodzaju równym α,

- Jeżeli Un ∉ R, to nie ma podstaw do odrzucenia hipotezy H0, z prawdopodobieństwem 1 - α.

25. Definicja zmiennej losowej dwuwymiarowej.

Niech (Ω,F, P) będzie dowolną przestrzenią probabilistyczną. Zmienną losową dwuwymiarową (X, Y) nazywamy funkcję:

(X, Y): Ω → R2

Niezależną względem σ -algebry zdarzeń F, tzn. spełniającej warunek:

0x01 graphic
{ω ∈ Ω: X(ω) ≤ x, Y(ω) ≤ y} ∈ F

(X,Y) - dwuwymiarowe zmienne losowe

x,y - jednowymiarowe zmienne losowe

26. Definicja i własności dystrybuanty zmiennej losowej dwuwymiarowej.

Funkcję F: R2 → <0;1> określoną wzorem F(x, y) = P(X ≤ x, Y ≤ y), dla (x, y) ∈ R2 nazywamy łączna dystrybuanty zmiennej losowej dwuwymiarowej (X, Y).

Uwaga:

P(X ≤ x, Y ≤ y) = P({ω: X(ω) ≤ x} ∩ {ω: Y(ω) ≤ y})

27. Definicja niezależności zmiennych losowych.

Mówimy, że zmienne losowe X i Y SA niezależne, jeżeli:

0x01 graphic
F(x, y) = Fx(x) ∙ Fy(y)

Zmienne losowe skokowe X i Y SA niezależne, jeżeli

0x01 graphic
Pij = Pi ∙ Pj

Zmienne losowe absolutnie ciągłe X i Y są niezależne, jeżeli

0x01 graphic
f(x, y) = fx(x) ∙ fy(y)

28. Definicja i własności kowariancji.

Kowariancją zmiennych losowych X i Y nazywamy liczbę

cor(X,Y) = E[(X - EX)(Y - EY)]

Własności kowariancji:

1) cor(X,Y) = D2X

2) cor(X,Y) = cor(Y,X)

3) cor(X,Y) = E(X ∙ Y) - EX ∙ EY

4) (cor(X,Y)) ≤ σx ∙ σy nierówność Schwarza

29. Definicja macierzy kowariancji.

Macierz kowariancji:

0x01 graphic
= 0x01 graphic

Korzystając z własności kowariancji mamy:

0x01 graphic
=0x01 graphic

Macierz kowariancji jest macierzą symetryczna.

30. Definicja i własności współczynnika korelacji.

Współczynnikiem korelacji Pearsona nazywamy liczbę

δ = 0x01 graphic
, σxy > 0

Własności współczynnika korelacji:

1) -1 < δ < 1

2) | δ| = 1 ⇔ istnieją takie stałe a, b ∈ R, a≠0, że P(Y= aX + b) = 1

3) Jeżeli X i Y SA niezależnymi zmiennymi losowymi, to δxy = 0

4) δxx = 1

5) δxy = δyx

0x01 graphic
0x01 graphic
macierz współczynnika korelacji

C - macierz symetryczna

31. Definicja zmiennych losowych nieskorelowanych.

Współczynnik korelacji Pearsona mierzy siłę zależności liniowej zmiennych losowych X i Y. Mówimy, że zmienne losowe X i Y są nieskorelowane jeżeli δxy = 0

32. Definicja linii regresji I rodzaju.

Zbiór punktów spełniających równanie:

y = E(Y|X = x)

nazywamy linią regresji I rodzaju zmiennej losowej Y względem zmiennej losowej X.

33. Definicja linii regresji II rodzaju.

Punkcje g(x) nazywamy funkcją regresji II rodzaju zmiennej losowej Y względem zmiennej losowej X, jeżeli wyrażenie:

E{[Y - u(X)]2}

Przyjmuje wartość minimalną dla u(x) ≡ g(x), gdy u(X) należy do ustalonej klasy funkcji.

34. Definicja i interpretacja współczynnika determinacji.

Współczynnik determinacji jest jedną z podstawowych miar jakości dopasowania modelu. Informuje o tym, jaka część zmienności zmiennej objaśnianej została wyjaśniona przez model. Jest on więc miarą stopnia, w jakim model wyjaśnia kształtowania się zmiennej objaśnianej. Można również powiedzieć, ze współczynnik determinacji opisuje tę część zmienności zmiennej objaśnianej, która wynika z jej zależności od uwzględnionych w modelu zmiennych objaśniających. Współczynnik determinacji przyjmuje wartości z przedziału [0;1]. Jego wartości najczęściej są wyrażane w procentach. Dopasowanie modelu jest tym lepsze, im jego wartość jest bliższa jedności.

0x01 graphic

gdzie:

yi - rzeczywista wartość zmiennej objaśnianej

ŷi - wartość teoretyczna zmiennej objaśnianej (na podstawie modelu)

0x01 graphic
- średnia arytmetyczna empirycznych wartości zmiennej objaśnianej

35. Własności dwuwymiarowego rozkładu normalnego.

Zmienna losowa (X, Y) ma dwuwymiarowy rozkład normalny, jeśli ma gęstość postaci:

f(x, y) = 0x01 graphic
∙ exp 0x01 graphic
,

gdzie:

0x01 graphic

- ∞ < x < ∞, - ∞ < y < ∞, stałe σx, σy, ρ spełniają warunki σx > 0, σy > 0, -1 < ρ < 1

(X, Y) ~ N(μx, μy, σx, σy, ρ)

Jeśli (X, Y) ~ N(μx, μy, σx, σy, ρ), to:

1) X ~ N(μx, σx), Y ~ N(μy, σy)

2) cor(X, Y) = ρ

3) X, Y są niezależne ⇔ ρ = 0



Wyszukiwarka