Podręczniki:
[1] Bobrowski D., Probabilistyka w zastosowaniach technicznych, WNT,
[2] Krysicki W. i inni, Rachunek prawdopodobieństwa i statystyka
Matematyczna w zadaniach, PWN, cz.I i II,
[3] Bobrowski D., Łybacka K., Wybrane metody wnioskowania statystycznego,
Wyd. PP.
Teoria prawdopodobieństwa – jak każda nauka dedukcyjna opiera się na pojęciu pierwotnym i układzie aksjomatów.
Pojęciem pierwotnym w teorii prawdopodobieństwa jest przystrzeń zdarzeń elementarnych Ω, a jej elementy nazywamy zdarzeniami elementarnymi ω ∈ Ω .
W zagadnieniach praktycznych przez przestrzeń zdarzeń elementarnych rozumie się, na ogół, zbiór wszystkich możliwych, niepodzielnych wyników doświadczenia czy obserwacji.
Przestrzeń zdarzeń elementarnych dla danego doświadczenia można określić w różny sposób, w zależności od celu jaki chcemy osiągnąć .
Przykład.
Niech doświadczenie polega na trzykrotnym rzucie symetryczną monetą. Przestrzeń zdarzeń elementarnych dla tego doświadczenia możemy określić w następujący sposób :
Ω1 = {(O,O,O), (R,O,O), (O,R,O), (O,O,R), (R,R,O), (R,O,R), (O,R,R), (R,R,R)},
ale także w ten sposób : Ω2 = {ω0, ω1, ω2, ω3},
gdzie ωi – oznacza zdarzenie, że orzeł wypadł i razy (i =0, 1, 2, 3).
Przestrzeń zdarzeń elementarnych może być :
- skończona (np. rzut kostką do gry),
-przeliczalna (np. rzuty monetą do chwili wypadnięcia orła),
-nieprzeliczalna (np. pomiar temperatury w stacji meteo).
Zdarzenia losowe są to podzbiory przestrzeni zdarzeń elementarnych Ω należące do pewnej klasy podzbiorów zwanej σ-ciałem lub σ-algebrą zdarzeń (zbiorów).
Definicja:
σ-ciałem zdarzeń ℱ nazywamy klasę podzbiorów niepustej przestrzeni zdarzeń elementarnych Ω spełniających następujące postulaty:
1) Ω ∈ ℱ,
2) A ∈ ℱ ⇒A′∈ ℱ ,
3) $A_{1},\ A_{2},\ \ldots\ \in \mathcal{F\ \Longrightarrow \ }\bigcup_{n = 1}^{\infty}{A_{n}\mathcal{\ \in \ F}}$ .
Dowolny zbiór należący do ciała zdarzeń ℱ nazywamy zdarzeniem losowym .
Uwaga:
Gdy Ω jest zbiorem co najwyżej przeliczalnym i ℱ jest klasą wszystkich podzbiorów Ω, to postulaty 1)- 3) są spełnione.
Wszystkie prawa rachunku zbiorów dotyczą także zdarzeń.
Własności σ-ciała zdarzeń ℱ :
1) ⌀ ∈ ℱ ,
2) $A_{1},\ A_{2},\ \ldots\ \in \mathcal{F\ \Longrightarrow \ }\bigcap_{n = 1}^{\infty}{A_{n}\mathcal{\ \in \ F}}$ ,
3) A, B ∈ ℱ ⇒A − B ∈ ℱ .
Definicja:
Niech dana będzie przestrzeń zdarzeń elementarnych Ω i określone na niej ciało zdarzeń ℱ. Na σ-ciele zdarzeń ℱ określimy funkcję rzeczywistą P, o
której zakładamy, że spełnia następujący układ aksjomatów :
A1) dla każdego A∈ ℱ funkcja P jest nieujemna P(A) ≥ 0 ,
A2) P(Ω) = 1,
A3) dla każdego ciągu A1, A2, … zdarzeń parami rozłącznych, tzn.
Ai ∩ Aj = ⌀ , i ≠ j ,
funkcja P jest przeliczalnie addytywną funkcją zbioru, co oznacza że
$P\left( \bigcup_{n = 1}^{\infty}A_{n} \right) = \sum_{n = 1}^{\infty}{{P(A}_{n})}$ .
Funkcję P spełniającą układ tych aksjomatów nazywamy rozkładem prawdopodobieństwem zdarzenia A . Wartośc funkcji P na zdarzeniu A nazywać będziemy prawdopodobieństwem zdarzenia A.
Własności rozkładu prawdopodobieństwa P :
1) P(⌀) = 0 .
2) Jezeli A ⊂ B, to P(A) ≤ P(B) .
3) Dla dowolnych zdarzeń A, B ∈ ℱ zachodzi
P(A∪B) = P(A) + P(B) − P(A∩B) .
4) P(A) + P(A′) = 1 lub inaczej P(A′) = 1 − P(A) .
Definicja:
Przestrzeń zdarzeń elementarnych Ω z określonym na niej σ-ciałem zdarzeń ℱ i rozkładem prawdopodobieństwa P nazywamy przestrzenią probabilistyczną i oznaczamy (Ω, ℱ, P ).
W dalszym ciągu zakładać będziemy, że wszystkie występujące w jakimś zagadnieniu zdarzenia związane są z tą samą przestrzenią probabilistyczną.
O funkcji P mówimy krótko, że jest określona na Ω .
Jednym z kluczowych pojęć rachunku prawdopodobieństwa jest prawdopodobieństwo warunkowe.
Definicja:
Jeśli P(B)>0, to prawdopodobieństwem warunkowym zdarzenia A pod warunkiem B nazywamy $P\left( A|B \right) = \frac{P\left( A \cap B \right)}{P\left( B \right)}$ .
Warunkowym rozkładem prawdopodobieństwa nazywamy funkcję P(•|B) określoną dla każdego A∈ℱ powyższym wzorem.
Zajmiemy się teraz pojęciem zdarzeń niezależnych, które jest specyficznym pojęciem teorii prawdopodobieństwa.
Definicja:
Zdarzenia A1, A2, … , An są niezależne, jeśli dla dowolnych wskaźników
k1, k2, …, ks , gdzie 1 ≤ k1 < k2 < … < ks ≤ n , zachodzi
$P\left( \bigcap_{i = 1}^{s}A_{k_{i}} \right) = \prod_{i = 1}^{s}{P\left( A_{k_{i}} \right)}$ .
Uwaga:
1) Warunek zapisany w definicji może być spełniony dla s = n , a nie być spełniony dla pewnych układów wskaźników k1, k2, …, ks , gdzie s < n oraz może zaistnieć sytuacja taka, że warunek ten jest spełniony dla każdego układu wskaźników k1, k2, …, ks , gdzie s < n, a nie jest spełniony dla s = n. W każdym z tych przypadków zdarzenia A1, A2, … , An nazywamy zależnymi .
2) O zdarzeniach A i B mówimy, że są niezależne, jeśli
P(A∩B) = P(A) • P(B) .
3) Pojęcia zdarzeń niezależnych i rozłącznych są to dwa różne pojęcia.
Niezależność zdarzeń zawsze jest związana z określonym rozkładem prawdopodobieństwa P .
4) Niezależność zdarzeń można uogólnić na nieskończony ciąg zdarzeń.
Definicja:
Zmienną losową określoną na przestrzeni probabilistycznej (Ω, ℱ, P ) nazywamy funkcję X : Ω→ℜ spełniającą warunek
∧x∈ℜ :{ω:X(ω)<x} ∈ ℱ .
Powyższy warunek nosi nazwę ℱ - mierzalności lub mierzalności funkcji X względem ciała zdarzeń ℱ.
Przykład 1. Rozważmy losowanie produktów z partii w celu zbadania ich jakości.
Zmienną losową możemy określić w następujący sposób:
$$X\left( \omega \right) = \left\{ \begin{matrix}
1,\ \ \ jesli\ \ \omega \equiv wylosowano\ wyrob\ I\ gatunku\ \ \ \\
\frac{1}{2},\ \ jesli\ \ \omega \equiv wylosowano\ wyrob\ II\ g\text{atunku\ \ } \\
0,\ \ jesli\ \ \omega \equiv wylosowano\ wyrob\ wybrakowany \\
\end{matrix} \right.\ $$
Ta zmienna losowa przyjmuje tylko trzy wartości.
Przykład 2. Pociągi metra przyjeżdżają na stację co 4 minuty. Określimy zmienną losową X – jako czas oczekiwania na pociąg po przyjściu na peron w losowej chwili czasu: X(ω) = x , gdzie x ∈ ( 0, 4⟩.
Ta zmienna losowa przyjmuje nieprzeliczalnie wiele wartości.
Definicja:
Dystrybuantą zmiennej losowej X nazywamy funkcję rzeczywistą
$F\mathcal{:\ R \longrightarrow}\left\langle 0,\ \left. \ 1 \right\rangle;\ \ \bigwedge_{x\mathcal{\in R}}^{}{F\left( x \right) = P\left( \left\{ \omega \in \Omega;X\left( \omega \right) < x \right\} \right) = P\left( X < x \right)} \right.\ $ .
Twierdzenie:
Jeżeli F jest dystrybuantą zmiennej losowej X , a x1 , x2∈ℛ , to
P(x1≤X≤x2) = F(x2) − F(x1) .
Dowód:
Zauważmy, że(−∞,x2) = (−∞, x1) ∪ ⟨x1,x2)
Zatem P(X<x2) = P(X<x1) + P(x1 ≤ X < x2) ,
a stąd otrzymujemy
P(x1≤X<x2) = P(X<x2) − P(X<x1) = F(x2) − F(x1) .
Dystrybuanta jako prawdopodobieństwo pewnych zdarzeń ma następujące własności :
1o dla dowolnych x∈ℛ : 0 ≤ F(x) ≤ 1,
2o F(x) = 0 , F(x) = 1 ,
3o dystrybuanta F jest funkcją niemalejącą, tzn.
x1 < x2 ⇒ F(x1) ≤ F(x2) ,
4o dystrybuanta F jest funkcją lewostronnie ciągłą, tzn.
$\bigwedge_{x_{0}\mathcal{\in R}}^{}{\operatorname{}{F\left( x \right) = F\left( x_{0} \right)}}$ .
Można udowodnić , że jeśli funkcja rzeczywista F ma własności 1o – 4o , to jest ona dystrybuantą pewnej zmiennej losowej.
W zależności od analitycznych własności dystrybuanty dzielimy zmienne losowe na :
- dyskretne (skokowe),
- ciągłe,
- osobliwe,
- mieszane.
Zmienne losowe dyskretne (skokowe)
Definicja:
Mówimy, że zmienna losowa X jest typu dyskretnego, jeżeli dla pewnego co najwyżej przeliczalnego zbioru W = {x1,x2, …} zachodzi
$P\left( \left\{ \omega \in \Omega:X\left( \omega \right) = x_{i} \right\} \right) = p_{i} > 0\ \ \ dla\ \ \ x_{i} \in W\ \ \ oraz\ \ \ \ \sum_{i}^{}{p_{i} = 1}$ .
Funkcję tę nazywamy funkcją prawdopodobieństwa, punkty xi – punktami skokowymi, a pi – skokami.
Dystrybuanta zmiennej losowe dyskretnej rośnie skokowo o pi w punktach skokowych xi , a pomiędzy nimi jest stała.
Przykład. Dana jest funkcja prawdopodobieństwa dyskretnej zmiennej losowej X :
xi | -2 | 0 | 1 | 2 | 3 |
---|---|---|---|---|---|
pi | 0,1 | 0,2 | 0,3 | c | 0,2 |
Wyznaczyć stałą c . Wykonać wykres funkcji prawdopodobieństwa. Wyznaczyć dystrybuantę i wykonać jej wykres. Obliczyć P(X<2), P(X≥0), P(−2≤X<3), P(X<4), P(X<−2) .
Zmienne losowe typu ciągłego
Definicja:
Mówimy, że zmienna losowa X jest typu ciągłego, jeżeli istnieje nieujemna funkcja f taka, że
$\bigwedge_{x\mathcal{\in R}}^{}{F\left( x \right) = \int_{- \infty}^{x}{f\left( t \right)\text{dt}}}$ .
Funkcję f nazywamy gęstością prawdopodobieństwa zmiennej losowej X, a jej wykres – krzywą gęstości.
Uwaga: Modyfikując daną gęstość f w skończonej liczbie punktów,
otrzymamy nową funkcję f1 , która również spełnia powyższy warunek. Zatem
gęstość nie jest określona jednoznacznie.
Własności zmiennej losowej ciągłej :
1o Dystrybuanta F zmiennej losowej ciągłej jest funkcją ciągłą.
2o Dla każdego x∈ℛ mamy P(X(ω)=x) = 0 .
3o Dla x1, x2∈ℛ i x1 < x2 , zachodzi
P(x1≤X<x2) = P(x1≤X≤x2) = P(x1<X<x2) = P(x1<X≤x2)=
F(x2) − F(x1) = ∫x1x2f(x)dx .
4o Dystrybuanta zmiennej losowej ciągłej jest w każdym punkcie
określoności gęstości prawdopodobieństwa f różniczkowalna i zachodzi
$\frac{d}{\text{dx}}F\left( x \right) = \frac{d}{\text{dx}}\left\lbrack \int_{- \infty}^{x}{f\left( t \right)\text{dt}} \right\rbrack = f\left( x \right)$.
5o ∫−∞+∞f(x)dx = 1.
Przykład.
Dobrać tak stałą c by funkcja $f\left( x \right) = \left\{ \begin{matrix} c\sin{x\ \ ,\ \ \ dla\ \ 0 \leq x \leq \pi} \\ 0\ \ ,\ \ \ \ poza\ \ tym\ \ \ \ \ \ \\ \end{matrix} \right.\ $
Była gęstością pewnej zmiennej losowe, a następnie wyznaczyć jej dystrybuantę. Obliczyć $P\left( \frac{\pi}{3} < X < \frac{\pi}{2} \right)$ i zinterpretować za pomocą wykresu gęstości i dystrybuanty.
Charakterystyki liczbowe zmiennych losowych
Dystrybuanta zmiennej losowej daje jej pełny probabilistyczny opis,
jednak z powodu zbytniej szczegółowości, jest on mało czytelny. W praktyce
wygodniej jest posługiwać się charakterystykami liczbowymi.
Do najważniejszych charakterystyk należą miary położenia i miary rozrzutu.
Definicja:
Wartością oczekiwaną (średnią, przeciętną) zmiennej losowej X typu
dyskretnego o zbiorze punktów skokowych W = {x1,x2, …} i skokach
pi = P(X=xi), nazywamy liczbę EX określoną wzorem
$EX = \sum_{x_{i} \in W}^{}{x_{i} \bullet p_{i}}$ ,
pod warunkiem, że szereg ten jest bezwzględnie zbieżny.
Wartością oczekiwaną zmiennej losowej X typu ciągłego o gęstości f
nazywamy liczbę EX określoną wzorem EX = ∫−∞+∞x f(x)dx ,
pod warunkiem, że całka ta jest bezwzględnie zbieżna .
Uwaga:
Jeżeli zmienna losowa Y = g(X ) jest dyskretna, to
$EY = \sum_{x_{i} \in W}^{}{g\left( x_{i} \right)p_{i}}$ ;
jeżeli zmienna losowa Y = g(X ) jest ciągła, to EY = ∫−∞+∞g(x) f(x)dx .
Własności wartości oczekiwanej :
1o E[a] = a dla każdego a∈ℛ .
2o Dla dowolnych zmiennych losowych X , Y , dla których istnieją EX i EY
oraz dla dowolnych stałych a i b zachodzi
E[aX+bY] = a EX + b EY .
Przykład 1.
Zmienna losowa ma rozkład dany funkcją prawdopodobieństwa
$P\left( X = k \right) = \frac{1}{2^{k}}\ \ \ \ dla\ \ \ \ \ k = 1,\ 2,\ \ldots$ . Znajdziemy jej wartośc oczekiwaną.
Przykład 2.
Zmienna losowa ma rozkład dany funkcją prawdopodobieństwa
$P\left( X = 2^{k} \right) = \frac{1}{2^{k}}\ \ \ \ dla\ \ \ \ \ k = 1,\ 2,\ \ldots$ . Zbadamy czy istnieje jej wartośc
oczekiwana.
Przykład 3.
Zmienna losowa X ma rozkład typu ciągłego o gęstości
$f\left( x \right) = \left\{ \begin{matrix} \frac{1}{2}\sin x,\ \ \ dla\ \ \ \ 0 \leq x \leq \pi \\ 0\ \ ,\ \ \ \ \ poza\ \ \ tym \\ \end{matrix} \right.\ $ .
Znajdziemy jej wartośc oczekiwaną.
Korzystając z operatora wartości oczekiwanej wprowadzimy inne
charakterystyki liczbowe zwane momentami .
Definicja:
Niech X będzie zmienną losową, a∈ℛ dowolną liczbą, k - dowolną liczbą naturalną.
Wyrażenie E(X−a)k nazywamy momentem k-tego rzędu
zmiennej losowej X względem punktu a.
Jeżeli a = 0 , to EXk = mk nosi nazwę momentu zwykłego rzędu k.
Jeżeli a = EX , to E(X−EX)k = μk nosi nazwę momentu centralnego
rzędu k .
Zauważmy, że wartośc oczekiwana jest momentem zwykłym rzędu k= 1 EX = m1 .
Momenty zwykłe i centralne są ze sobą związane . Mamy więc :
1o μ1 = E(X−EX) = EX − EX = 0,
2o μ2 = E(X−EX)2 = E[X2−2X•EX+(EX)2]=
=EX2 − 2EX • EX + (EX)2 = EX2 − (EX)2 = m2 − m12 ,
3o μ3 = E(X−EX)3 = E[X3−3X2•EX+3X•(EX)2−(EX)3]=
=EX3 − 3EX • EX2 + 3(EX)2 • EX − (EX)3=
=m3 − 3m1 • m2 + 2m13 , itd.
Twierdzenie:
Jeśli istnieje moment rzędu r zmiennej losowej X , to istnieją wszystkie
momenty rzędu s < r .
Szczególne znaczenie wśród momentów centralnych ma moment
centralny rzędu drugiego, który jest miarą zmienności (rozproszenia, rozrzutu)
wartości zmiennej losowej względem jej wartości oczekiwanej.
Moment centralny rzędu drugiego nazywamy wariancją i oznaczamy
Var X = D2X = σX2 = E(X−EX)2 = EX2 − (EX)2 = m2 − m12 .
Twierdzenie:
Warunkiem koniecznym i dostatecznym na to, by wariancja D2X zmiennej losowej X była równa zeru, jest to, aby zmienna losowa X miała
rozkład jednopunktowy, tzn. P(X=x0) = 1 .
Definicja:
Pierwiastek kwadratowy z wariancji nazywamy odchyleniem
standardowym $\sigma_{X} = \sqrt{D^{2}X}$ .
Przykład.1.
Wyznaczymy odchylenie standardowe zmiennej losowej dyskretnej o
rozkładzie danym w tablicy :
xk | 0 | 2 | 4 | 5 | 6 |
---|---|---|---|---|---|
pk | 0,2 | 0,1 | 0,4 | 0,2 | 0,1 |
Przykład .12.
Znajdziemy odchylenie standardowe dla ciągłej zmiennej losowej o
gęstości prawdopodobieństwa $f\left( x \right) = \left\{ \begin{matrix} 6x\left( 1 - x \right),\ \ \ dla\ \ \ \ 0 < x < 1 \\ 0\ \ ,\ \ \ \ \ poza\ \ \ tym \\ \end{matrix} \right.\ $ .
Definicja:
Zmienną losową X , dla której zachodzą następujące warunki
EX = 0 , D2X = 1 nazywamy zmienną losową standaryzowaną .
Uwaga: Zauważmy, że jeśli zmienna losowa X ma wartośc oczekiwaną
EX = m oraz wariancję D2X = σ2 , to zmienna losowa $\hat{X} = \frac{X - m}{\sigma}$ jest
zmienną losową standaryzowaną.
Określimy jeszcze jedną grupę charakterystyk liczbowych zmiennych losowych zwanych parametrami pozycyjnymi.
Definicja:
Liczbę xp nazywamy kwantylem p-tego rzędu ( 0 < p <1 ), gdy spełnia
następujące warunki :
P(X≤xp) ≥ p oraz P(X≥xp) ≥ 1 − p .
Uwaga: Jeśli zmienna losowa X jest typu ciągłego, to
p ≤ P(X≤xp) = F(xp)
oraz 1 − p ≤ P(X≥xp) = 1 − P(X<xp) = 1 − F(xp) stad F(xp) ≤ p.
Mamy więc p ≤ F(xp) ≤ p , a zatem F(xp) = p .
Kwantyl rzędu p = 0,5 nazywamy medianą,
kwanty rzędu p = 0,25 nazywamy kwartylem dolnym,
kwanty rzędu p = 0,75 nazywamy kwartylem górnym.
Definicja:
Wartością modalną ( modą ) zmiennej losowej dyskretnej X nazywamy taką wartośc x0∈ℛ , dla której odpowiadające jej prawdopodobieństwo P(X=x0) jest największe.
Wartością modalną zmiennej losowej ciągłej X nazywamy taką wartośc x0∈ℛ , dla której gęstość prawdopodobieństwa osiąga maksimum właściwe.
Uwaga: Z definicji wynika, że kwantyl rzędu p zawsze istnieje, chociaż nie
zawsze jest określony jednoznacznie.
Zmienna losowa może posiadać więcej niż jedną wartośc modalną,
wówczas mówimy o rozkładzie wielomodalnym, albo też wartośc modalna
może nie istnieć i wówczas mówimy o rozkładzie antymodalnym.
Przykład.1. Rozkład zmiennej losowej X dany jest w tablicy. Wyznaczymy
parametry pozycyjne tej zmiennej.
xk | -4 | -2 | 0 | 2 | 4 | 6 | 8 | 10 | 12 |
---|---|---|---|---|---|---|---|---|---|
pk | 0,20 | 0,04 | 0,02 | 0,20 | 0,02 | 0,15 | 0,05 | 0,20 | 0,12 |
Wartości modalne x’0 = 2, x”0 = 10 . Rozkład dwumodalny.
Mediana x0,5 = 6, kwartyl dolny x0,25 = 0 , kwartyl górny x0,75 = 10.
Przykład.2. Wyznaczyć medianę oraz modę zmiennej losowej o rozkładzie
xk | -2 | -1 | 0 | 1 | 2 |
---|---|---|---|---|---|
pk | 0,1 | 0,2 | 0,2 | 0,2 | 0,3 |
Moda nie istnieje - rozkład antymodalny. Mediana me = x0,5 Є [ 0, 1 ] .
Przykład.3. Wyznaczymy medianę , kwartyle oraz wartośc modalną
zmiennej losowej ciągłej o rozkładzie z dystrybuantą
$F\left( x \right) = \frac{1}{2} + \frac{1}{\pi}\text{\ arc\ tg\ x}$ .