1. Pojęcia pierwotne rachunku prawdopodobieństwa:
Pojęciem pierwotnym (czyli nie definiowalnym) w teorii prawdopodobieństwa jest pojęcie zdarzenia elementarnego. Zbiór wszystkich możliwych wyników doświadczenia losowego tworzy przestrzeń zdarzeń elementarnych i oznaczany jest literą Ω. Każdy podzbiór zbioru , nazywamy zdarzeniem losowym lub krótko zdarzeniem.
2. Definicja klasyczna rachunku prawdopodobieństwa:
Prawdopodobieństwo zdarzenia A jest równe stosunkowi miary zbioru zdarzeń sprzyjających temu zdarzeniu do miary przestrzeni zdarzeń elementarnych.
3. Definicja kombinatoryki:
Kombinatoryką nazywamy dziedzinę matematyki, której zadaniem jest obliczanie liczby zbiorów w które można łączyć określone przedmioty należące do danego zbioru.
4. Permutacje i ich własności :
Zbiór składający się z n-elementów uporządkowanych i różnych nazywamy permutacją bez powtórzeń z n-elementów. Liczba utworzonych zbiorów oznaczamy symbolem Pn i obliczamy jako:
Pn = n!. Permutacje bez powtórzeń charakteryzują się tym, że:
- istotna jest kolejność, w jakiej ustawiamy rozróżnialne elementy;
- żaden z elementów nie może wystąpić więcej niż raz
- nie wybieramy elementów, tylko je porządkujemy.
5. Permutacje z powtórzeniami:
Zbiór składający się z n-elementów uporządkowanych wśród których pewne elementy powtarzają się odpowiednio n1, n2, . . . nk razy nazywamy n-elementową permutacją z powtórzeniami.
6. Kombinacje bez powtórzeń
Kombinacją bez powtórzeń z n-elementów po k-elementów nazywamy zbiór składający się z k różnych elementów wybranych spośród n różnych elementów przy czym nie istotne jest jak te
elementy są rozłożone. Liczbę k-elementowych kombinacji bez powtorzeń zbioru n-elementowego oznaczamy Ck.
Kombinacje bez powtórzeń charakteryzują się tym, że:
- nie jest istotna kolejność, w jakiej ustawiamy elementy;
- każdy element może wystąpić tylko raz.
7. Wariacje def. i ich własności:
Wariacją bez powtórzeń z n-elementów po k-elementów k ≤ n nazywamy zbiór składający się z k różnych elementów wybranych spośród n różnych elementów.
Wariacje bez powtórzeń charakteryzują się tym, że:
- istotna jest kolejność, w jakiej ustawiamy elementy;
- żaden element nie może wystąpić w ustawieniu więcej niż raz (dlatego k ≤ n).
Wariacje z powtórzeniami
Wariacją z powtórzeniami z n-elementów po k-elementów k ≤ n nazywamy uporządkowany zbiór składający się z k elementów różnych lub nie różniących się między sobą wybranych spośród n różnych elementów.
8. Aksjomaty prawdopodobieństwa
W literaturze spotkamy także następującą aksjomatyczną definicję prawdopodobieństwa.
Niech Ω oznacza przestrzeń zdarzeń elementarnych, zaś A ⊂ Ω zdarzenie sprzyjające. Prawdopodobieństwem nazywamy funkcję P przyporządkowującą każdemu zdarzeniu A liczbę P(A) określoną następującymi warunkami:
1. P(A) 0 dla każdego zdarzenia A;
2. P(Ω) = 1;
3. Jeżeli A1, A2, A3, . . . An jest dowolnym ciągiem parami rozłącznych zdarzeń to P(A1∪ A2 ∪· · ·∪ An ∪. . .) = P(A1)+P(A2)+· · ·+P(An)
9. Własności prawdopodobieństwa
Twierdzenie
1. P(∅) = 0;
2. Jeżeli A ⊂ B to P(A) ≤ P(B);
3. Jeżeli A ⊂ Ω jest dowolnym zdarzeniem to P(A) ≤ 1;
4. Jeżeli A ⊂ B to P(B \ A) = P(B) − P(A);
5. Jeżeli A1, A2, A3, . . . An są zdarzeniami rozłącznymi parami to
PP(A1 ∪ A2 ∪ · · · ∪ An) = P(A1) + P(A2) + · · · + P(An);
6. P(A) + P(A’) = 1;
7. P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
10. Prawdopodobieństwo warunkowe
Niech A i B będą dowolnymi zdarzeniami. Zdarzenie polegające na zajściu zdarzenia A, przy założeniu, że zaszło zdarzenie B oznaczamy symbolem A/B, a prawdopodobieństwo tego zdarzenia P(A/B) nazywamy prawdopodobieństwem warunkowym.
Definicja
Mówimy, że zdarzenie A jest niezależne od zdarzenia B jeżeli
P(A ∩ B) = P(A) · P(B).
11, 12. Prawdopodobieństwo całkowite i wzór Bayesa
Jeśli zdarzenia B1, B2, . . . , Bn spełniają warunki:
- Bi ∩ Bj = ∅, i ≠j;
- B1 ∪ B2 · · · ∪ Bn = Ω
wtedy mówimy, że tworzą układ zupełny zdarzeń.
Twierdzenie
Niech A będzie dowolnym zdarzeniem losowym i niech zdarzenia losowe B1, . . . Bn, P(Bi) > 0 dla i = 1, . . . n, tworzą układ zupełny zdarzeń w przestrzeni Ω. Wtedy prawdziwa jest równość:
P(A) = P(A/B1)P(B1) + · · · + P(A/Bn)P(Bn).
Twierdzenie (założenia takie jak w prawdopodobieństwie całkowitym)
$$P(B_{k}/A) = \ \frac{P\left( B_{k} \right)*P(A/B_{k)}}{\sum_{i = 1}^{n}{P\left( B_{i} \right)*P(A/B_{i})}}$$
13. Zmienna losowa dyskretna i ciągła
Niech będzie zbiorem zdarzeń elementarnych pewnego doświadczenia losowego.
Definicja
Zmienną losową nazywamy dowolną funkcję X , taką że:
X :Ω → R
tzn. przyporządkowuje ona każdemu elementowi zbioru zdarzeń elementarnych pewną liczbę rzeczywistą.
Wśród zmiennych losowych można wyróżnić:
- zmienną losową dyskretną (skokową)
- zmienną losową ciągłą.
14. Dystrybuanta zmiennej losowej:
Dystrybuantą zmiennej losowej X : Ω → R nazywamy funkcję
FX : R → [0, 1] określoną w następujący sposób:
FX (t) = P(X < t).
15. Własności dystrybuanty:
Dystrybuanta zmiennej losowej X ma następujące własności:
1. jest funkcją niemalejącą,
2. jest funkcją lewostronnie ciągłą,
3. FX(t) = 0
4. FX(t) = 1
16. ???????????
17. Przykłady charakterystyki rozkładów dyskretnych i ich parametry:
Rozkład dwupunktowy
Mówimy, że zmienna losowa X ma rozkład dwupunktowy, jeżeli z dodatnimi prawdopodobieństwami przyjmuje jedynie dwie wartości t1, t2.
Funkcja prawdopodobieństwa jest określona następująco:
P(X = t1) = p, P(X = t2) = 1 − p = q, 0 < p < 1.
Często dla wygody przyjmuje się, że t1 = 0, t2 = 1, wówczas rozkład prawdopodobieństwa jest postaci:
ti | 0 | 1 |
---|---|---|
pi | p | q |
Ten ostatni nazywamy rozkładem zero-jedynkowym.
Rozkład Bernoullie’go (dwumianowy, binominalny).
Mówimy, że zmienna losowa X ma rozkład Bernoullie’go, jeżeli jej funkcja prawdopodobieństwa dana jest wzorem
P[X = k] = ($\begin{matrix} n \\ k \\ \end{matrix}$)pkqn-k , q=1-p, k=0,1,2…n
Interpretacja: Prawdopodobieństwo k sukcesów w n próbach
Rozkład Pascala (ujemny rozkład dwumianowy).
Mówimy, że zmienna losowa Xk ma rozkład Pascala, jeśli jej funkcja prawdopodobieństwa dana jest wzorem
P[Xk = n] = ($\begin{matrix} n - 1 \\ k - 1 \\ \end{matrix}$) pkqn-k , q=1-p
gdzie k jest dowolną ustaloną liczbą naturalną, natomiast n = k, k + 1, . . . .
Interpretacja: Prawdopodobieństwo, że k-ty sukces wystąpi w n-tej próbie. W przypadku, gdy k = 1 otrzymujemy tzw. rozkład geometryczny.
Rozkład Poissona
Mówimy, że zmienna losowa X ma rozkład Poissona, jeśli jej funkcja prawdopodobieństwa dana jest wzorem
P[Xn=k]=$\frac{\lambda^{k}e^{- \lambda}}{k!}$ k=0,1….., λ=np.
Rozkład Poissona jest przybliżeniem rozkładu Bernoulliego dla dużych prób, tzn:
$$\operatorname{}{\begin{pmatrix}
n \\
k \\
\end{pmatrix}p^{k}q^{n - k} = e^{- \lambda}}\frac{\lambda^{k}}{k!}$$
W praktyce wykorzystujemy go, gdy n ≥ 50.
18. Definicja zmiennej losowej ciągłej:
Zmienna losowa X przyjmująca wartości z pewnego przedziału (lub przedziałów) dla której istnieje nieujemna funkcja f taka, że dystrybuantę FX można przedstawić w postaci:
FX (t) = ∫−∞tf(x)dx
nazywamy zmienną losową ciągłą, zaś funkcję f jej gęstością.
Rozkład prawdopodobieństwa ciągłej zmiennej losowej Xokreślamy podając jej funkcję gęstości lub dystrybuantę.
Twierdzenie
Na to, aby funkcja f : R → R była funkcją gęstości rozkładu pewnej zmiennej losowej potrzeba i wystarcza, by spełnione były następujące warunki:
1. f (x) ≥ 0 dla dowolnego x ∈ R;
2. f jest całkowalna w całej swojej dziedzinie;
3. ∫−∞∞f(x)dx = 1
19. Własności funkcji gęstości
1. Jeżeli x jest punktem ciągłości f , to F’(x)=f(x)
2. P[a < X < B] = P[a ≤ X < b] = P[a < X ≤ b] =
P[a ≤ X ≤ b] = FX (b) − FX (a) = ∫abf(x)dx
3. P[X = a] = 0.
20. Rozkłady zmiennej losowej ciągłej:
- jednostajny
- gamma
- normalny.
21.
22. Wartość oczekiwana
Definicja
Jeżeli zmienna losowa X jest zmienna losową dyskretną, przyjmującą wartości x1, x2, . . . , xn to jej wartością oczekiwaną nazywamy liczbę:
EX = $\sum_{i = 1}^{n}{x_{i}p_{i}}$
gdzie pi = P[X = xi].
Jeżeli zaś zmienna losowa X jest typu ciągłego, o gęstości f, wówczas jej wartość oczekiwana jest równa:
EX = ∫−∞∞xf(x)dx
Własności EX
1. E(a) = a;
2. E(aX) = aE(X);
3. E(X + b) = E(X) + b;
4. E(X − EX) = 0;
5. E(X + Y ) = E(X) + E(Y );
6. E(XY ) = E(X)E(Y ), gdy zmienne losowe X i Y są
Niezależne
23. Wariancja
Wariancją zmiennej losowej X nazywamy liczbę oznaczaną przez D2X będącą wartością oczekiwaną zmiennej losowej (X − EX)2, tzn.
D2X = E(X − EX)2
Można wykazać, że dla wariancji zachodzi równość:
D2X = E(X − EX)2= EX2− (EX)2
która jest znacznie wygodniejsza do praktycznego zastosowania. Odchyleniem standardowym zmiennej losowej X nazywamy liczbę:
DX = $\sqrt{D^{2}X}$
Własności wariancji
1. D2(a) = 0;
2. D2(aX) = a2D2(X);
3. D2(X + b) = D2(X);
4. D2(X ± Y ) = D2(X) + D2(Y), jeżeli zmienne X i Y są niezależne
24. Mediana
Medianą Me zmiennej losowej X nazywamy liczbę x spełniającą związki
P[X ≤ x] ≥ $\frac{1}{2}$, P[X≥x] ≥ $\frac{1}{2}$.
W przypadku zmiennej losowej ciągłej o gęstości f (x) i dystrybuancie F(x) powyższe nierówności sprowadzają się do równania F(x) = $\frac{1}{2}$.
25. MODA
Dominantą zmiennej losowej X mającej rozkład dyskretny nazywamy wartość x, największym prawdopodobieństwie wystąpienia, lub wartość najczęściej występująca w próbie. Dla zmiennej losowej X mającej rozkład ciągły jest to wartość, dla której funkcja gęstości prawdopodobieństwa ma wartość największą (osiąga maximum globalne).
26. KWANTYLE
Kwantylem rzędu p, gdzie 0 ≤ p ≤ 1 zmiennej losowej X nazywamy liczbę x spełniającą związki:
P[X ≤ x] ≥ p, [P[X ≥ x] ≥ 1 − p.
Jak łatwo widać wspomniana powyżej mediana jest kwantylem rzędu $\frac{1}{2}$. W praktyce do badań używa się również:
• kwantyle rzędu $\frac{1}{4}$, $\frac{3}{4}$ nazywane odpowiednio kwartylem dolnym (pierwszym)-oznaczanym Q1 oraz kwartylem górnym (trzecim) - oznaczanym Q3:
• kwantyle rzędu $\frac{1}{5}$, $\frac{2}{5}$, $\frac{3}{5}$, $\frac{4}{5}$ nazywane kwintylami;
• kwantyle rzędu $\frac{1}{10}$, $\frac{2}{10}$,…., $\frac{9}{10}$ nazywane decylami;
• kwantyle rzędu $\frac{1}{100}$, $\frac{2}{100}$,…, $\frac{99}{100}$ nazywane percentylami.
27. Momenty zwykłe i centralne
Momentem zwykłym rzędu k (gdzie k = 1, 2, ...) zmiennej losowej X nazywamy wartość oczekiwaną
k-ej potęgi tej zmiennej.
Moment centralny rzędu k (k = 1, 2, . . . , n) zmiennej losowej X nazywamy wartość oczekiwaną funkcji [X − EX]k, tzn. dla zmiennej losowej dyskretnej mamy
µk = E(X − EX)k=$\sum_{k = 1}^{n}{{(xi\ - \ EX)}^{k}\text{pi}}$
zaś dla zmiennej losowej ciągłej:
µk = E(X − EX)k=∫−∞+∞(x−EX)k f(x)dx
28. Współczynnik asymetrii i skupienia
Współczynnikiem asymetrii nazywamy iloraz trzeciego momentu centralnego przez trzecią potęgę odchylenia standardowego:
A = $\frac{u_{3}}{{(DX)}^{3}}$
29. Współczynnik skupienia
Współczynnik skupienia (koncentracji) (kurtoza) K - jest miarą skupienia poszczególnych obserwacji wokół średniej. Im wyższa wartość współczynnika tym bardziej wysmukła krzywa liczebności,
większa koncentracja wartości cech wokół średniej. Kurtozę wyznaczamy korzystając ze wzoru:
K =µ4/(DX)4
30.
31. Zmienna losowa dwuwymiarowa – dystrybuanta i jej własności
Funkcję rzeczywistą F (x, y) zmiennych rzeczywistych x i y określoną na całej płaszczyźnie Oxy w następujący sposób
F(x, y) = P[X < x, Y < y]
nazywamy dystrybuantą zmiennej losowej dwuwymiarowej (X, Y).
Własności dystrybuanty
Dysrybuanta F(x, y) jest względem każdego z argumentów x i y funkcją:
1. niemalejącą;
2. co najmniej lewostronnie ciągłą;
3. posiadającą następujące własności graniczne:
F(x,y) = 1
F(x,y) = 0
F(x,y) = 0
4. jeżeli x1, x2 ∈ R, y1, y2 ∈ R oraz x1 < x2, y1 < y2 to
F(x2, y2) − F(x1, y2) − F(x2, y1) + F(x1, y1) ≥0.
32. Zmienna losowa skokowa.
Mówimy, że zmienna losowa dwuwymiarowa (X, Y ) jest typu skokowego, jeżeli dla każdej pary wskaźników i oraz k mamy:
P[X=xi, Y=yk]= Pik > 0, $\sum_{i}^{}{\sum_{k}^{\ }P_{\text{ik}}}$=1
oraz dla każdego x, y ∈ R spełniony jest warunek:
F(x,y)=$\sum_{xi < x}^{}{\sum_{yk < y}^{}\text{Pik}}$
33. Rozkład brzegowy
Rozkład prawdopodobieństwa wyznaczony przez liczby pi∗ lub p∗k nazywamy rozkładem brzegowym zmiennej skokowej X lub Y w dwuwymiarowym rozkładzie zmiennej losowej (X, Y ) a wyrażenie
pi∗ lub p∗k nazywamy funkcją prawdopodobieństwa tego rozkładu.
DYSTRYBUANTA
F1(x) = P[X < x, Y < ∞]
nazywamy dystrybuantą rozkładu brzegowego zmiennej losowej X w dwuwymiarowym rozkładzie zmiennej losowej (X, Y ).
Analogicznie funkcję
F2(y) = P[X < ∞, Y < y]
nazywamy dystrybuantą rozkładu brzegowego zmiennej losowej Y w dwuwymiarowym rozkładzie zmiennej losowej (X, Y ).
34. Rozkłady warunkowe zmiennej losowej dwuwymiarowej
Rozkład prawdopodobieństwa wyznaczony przez liczby pi|k nazywamy rozkładem warunkowym zmiennej losowej skokowej X przy warunku, że zmienna losowa Y przyjmuje wartość yk w
dwuwymiarowym rozkładzie zmiennej losowej (X, Y ).
35. Zmienna losowa dwuwymiarowa (X, Y ) typu ciągłego.
Mówimy, że zmienna losowa dwuwymiarowa (X, Y ) jest typu ciągłego, jeżeli istnieje nieujemna i całkowalna funkcja f (x, y) taka, że dla każdego x, y ∈ R spełniony jest warunek:
F(x, y) =∫−∞x∫−∞yf(s, t)dsdt.
DYSTRYBUANTA
Funkcje
F1(x)=∫−∞xf1(s)ds oraz F2(x)=∫−∞xf2(t)dt
nazywamy dystrybuantami rozkładu brzegowego odpowiednio zmiennej losowej X, zmiennej losowej Y w dwuwymiarowym rozkładzie zmiennej losowej (X, Y ).
36.
37. Kowariancja, cov(X,Y) – liczba określająca zależność liniową między zmiennymi losowymi X i Y.
38. Korelacja - związek pomiędzy dwiema zmiennymi losowymi X i Y