rach prawdopodobienstwa cw puchala


METODY ANALIZY DANYCH NIEPEWNYCH
LITERATURA PODSTAWOWA
1. Z. Hellwig, Elementy Rachunku Prawdopodobieństwa i Statystyki
Matematycznej, PWN, Warszawa, 1995
2. W. Krysicki i inni, Rachunek Prawdopodobieństwa i Statystyka
Matematyczna w Zadaniach, PWN, Warszawa 1995 (Tom I i II)
3. M. Fisz, Rachunek Prawdopodobieństwa i Statystyka Matematyczna,
PWN, Warszawa 1979
4. W. Feller, Wstęp do Rachunku Prawdopodobieństwa, PWN, Warszawa
1978
5. S. Zubrzycki, Wykłady z Rachunku Prawdopodobieństwa i Statystyki
Matematycznej, PWN, Warszawa 1980
6. F. Sawicki, Elementy Statystyki dla Lekarzy, PZWL, Warszawa 1992
7. G.R. Rao, Statystyka i Prawda, PWN, Warszawa 1994
8. L. Garding, Spotkanie z Matematyką, PWN, Warszawa 1993
1
RYS HISTORYCZNY:
początek XVII w. - B. Pascal, P. Fermat - pierwsze prace inspirowane
grami hazardowymi
koniec XVII w. - J.Bernoulli - pierwsze formalizmy, aksjomaty rachunku
prawdop. (książka: Traktat o sztuce przewidywania) - ich rozwój: A. de
Moivre (XVIII w.).
XVIII w. W. Petty - początek statystyki (książka: Rozważania dotyczące
rozmiarów cen ziemi, ludności, zabudowań, gospodarki rolnej,
manufaktury, handlu, przemysłu rybnego, rzemieślników, marynarzy,
żołnierzy, oraz dochodów państwowych, procentów, podatków, sposobów
powiększania dochodów).
XIX w. - szybki rozwój rach. prawdop. i statystyki: K. Gauss (teoria
błędów obserwacji, metoda najmniejszych kwadratów), A. Cauchy, S.
Poisson (badanie rozkładów prawdopodobieństwa), L. Euler (badania
demograficzne i ubezpieczenia).
XX w. - A. Kołmogorow (teorio-mnogościowe podejście do rachunku
prawdopodob.).
Polscy matematycy: Hugo Steinhaus, K. Urbanik
2
RACHUNEK PRAWDOPODOBIECSTWA
Dział matematyki zajmujący się opisywaniem i badaniem zdarzeń
przypadkowych i niepewnych
Doświadczenie losowe:
doświadczenie (eksperyment), którego wyniku z góry nie można określić,
gdyż zależy on od przypadku (np. rzut monetą lub kostką, urodziny
dziecka, czas oczekiwania na tramwaj, długość gwozdzia 1 calowego)
Zdarzenie (zdarzenie losowe)
wynik doświadczenia losowego.
Zbiór możliwych wyników doświadczenia losowego (zbiór możliwych
zdarzeń) jest na ogół znany: np.
" {orzeł, reszka}, {1,2,3,4,5,6},
o {dziewczynka, chłopiec},
" [0-5(min)],
o [2-3(cm)].
3
ZDARZENIA LOSOWE
Zdarzenie elementarne
pojęcie pierwotne w aksjomatyce rach. prawd. - elementarny,
niepodzielny wynik doświadczenia losowego.
Oznaczenia: e - zdarzenie elementarne,
E - przestrzeń zdarzeń elementarnych (skończona,
nieskończona)
e "E
Przykłady:
1. Rzut monetą: E = {e1,e2}, e1 - orzeł, e2 - reszka (skończona)
2. Rzut kostką: E = {e1, e2, e3, e4, e5, e6} (skończona)
3. Czas oczekiwania na tramwaj: E = (0, 5) (nieskończona)
4
Zdarzenie (losowe)
każdy podzbiór przestrzeni E
(wliczając w to zbiór pusty i całą przestrzeń E )
Zdarzenia będziemy oznaczać dużymi literami: A, B, C,...
Np. E = {e1, e2, e3,e4, e5, e6,e7, e8, e9},
A = {e1, e2, e3},
B = {e5, e7}.
Zdarzenie A zachodzi
wtedy i tylko wtedy, gdy zachodzi którekolwiek ze zdarzeń elementarnych
wchodzących w jego skład.
Zdarzenia szczególne:
" - zdarzenie niemożliwe (zbiór pusty)
I = E - zdarzenie pewne
5
Przykłady zdarzeń losowych:
1. Rzut monetą:
E = {O, R}, A1 =", A2 = {O}, A3 = {R}, A4 = {O, R}
liczba wszystkich zdarzeń: 4
2. Rzut kostką:
E = {, 2, 3, 4, 5, 6}
1
Przykłady zdarzeń: A1 = {2, 4, 6}, A2 = {1, 2, 3}
liczba wszystkich zdarzeń: 64
3. Dwukrotny rzut monetą:
E = {OO, OR, RO, RR}
Przykłady zdarzeń: A1 = {OO, OR}, A2 = {OR, RO}, A3 = {OO, OR, RO}
liczba wszystkich zdarzeń: 16.
6
4. Czas oczekiwania na tramwaj:
E = (0, 5)
Przykłady zdarzeń: A1 = (0, 2), A2 = (3, 5)
ilość wszystkich zdarzeń: ".
5. Wiek małżonków:
Narysować zdarzenia:
Wiek żony
100 1. A1 - mąż ma więcej niż 50 lat
2. A2 -żona jest młodsza od
męża o 20 lat
3. A3 - mąż jest starszy od żony
E
4. A4 - suma lat małżonków jest
mniejsza niż 100
18
100 wiek
męża
7
Relacje pomiędzy zdarzeniami
zdarzenie A zawiera się w B
A " B - gdy każde zdarzenie elementarne należące do A należy do B
lub równoważnie:
zdarzenie A pociąga (implikuje) zdarzenie B
A B - (jeśli zachodzi A, to na pewno zachodzi także B)
Przykład:
doświadczenie losowe - wyciągnięcie karty z talii.
A - wyciągnięcie pika, B - wyciągnięcie karty czarnej A B.
czy B A?
zdarzenia równoważne
A = B (wtedy jednocześnie A " B i B " A)
8
zdarzenia wyłączające się (wykluczające się) 
gdy A i B nie mają wspólnych elementów
tzn: jeśli zachodzi A, to nie zachodzi B i odwrotnie.
Przykład:
Zdarzenie losowe- ilość osób z grupy 10-osobowej, która dożyje do 2010
roku
E = {e0, e1, e2, e3, e4, e5, e6, e7, e8, e9, e10}
Zdarzenia: A = {e2}, B = {e5}, C = {e5, e6, e7, e8, e9, e10} - które są
wyłączające?
Operacje na zdarzeniach
9
Zbiór Zdarzenie
zbiór pusty zdarzenie niemożliwe
zbiór pełny zdarzenie pewne
Suma zdarzeń (alternatywa)
A = Ai
"
zdarzenie A zachodzi wtedy, gdy zachodzi którekolwiek ze zdarzeń Ai
Różnica zdarzeń
A = A1 - A2
zdarzenie A zachodzi wtedy, gdy zachodzi A1 i nie zachodzi A2.
gdy A1 i A2 są wyłączające się (rozłączne), to A1 - A2 = A1.
Iloczyn zdarzeń (koniunkcja)
10
A = Ai
"
zdarzenie A zachodzi wtedy, gdy zachodzą wszystkie Ai .
gdy A1 i A2 wykluczają się, to
A1A2 = "
własności iloczynu zdarzeń:
1. A" A = A
2. A"" = "
3. A" I = A
Przykład - ilość samochodów i telewizorów w gospodarstwie domowym
(d" 2)
E = {e00, e10, e01, e11, e20, e21, e02, e12, e22}
A - w losowo wybranym gospodarstwie jest co najmniej 1 samochód
i nie mniej niż 1 telewizor
B - w losowo wybranym gospodarstwie jest dokładnie 1 samochód
i nie więcej niż 1 telewizor
A = { e11, e21, e12, e22} , B = {e10, e11} , A" B = { e11} .
Zdarzenie przeciwne (dopełniające) do zdarzenia A
11
A = I - A
Zdarzenie A zachodzi wtedy, gdy nie zachodzi zdarzenie A.
Własności zdarzeń przeciwnych
1. A + A = I ,
2. A" A = "
Przykład: A - wyciągamy kartę w kolorze pik lub trefl - co to jest A ?
DIAGRAM EULERA
12
A A
A1 + A2 A1" A2
A1 + A2 A1 " A2
A1" A2 A1 + A2
A1 - A2 A2 - A1
13
PRAWDOPODOBIECSTWO
Definicja klasyczna (Laplace)
Jeżeli przestrzeń E zawiera n jednakowo możliwych zdarzeń
elementarnych, z których m sprzyja zajściu zdarzenia A
(A zawiera m zdarzeń elementarnych),
to prawdopodobieństwem zdarzenia A nazywamy ułamek
m
P( A) =
.
n
Wnioski:
1. 0 d" P( A) d" 1,
2. P(I) = 1, P(") = 0
3. Jeśli A1 , A2 są zdarzeniami wykluczającymi się, to
P( A1 + A2 ) = P( A1) + P( A2 )
Wady definicji klasycznej:
Tautologia ( w definicji użyto słowa definiowanego;
jednakowo możliwe zdarzenie = jednakowo prawdopodobne)
skończona przestrzeń E,
wymaga znajomości zbioru zdarzeń sprzyjających
Definicja częstościowa (Mises)  zliczamy  zajścia zdarzeń
Jeżeli przy wielokrotnej realizacji doświadczenia losowego, częstość
wystąpienia zdarzenia losowego A oscyluje wokół pewnej nieznanej
14
liczby p, i jeżeli wahania częstości maleją wraz ze wzrostem liczby
doświadczeń, to liczba p będzie prawdopodobieństwem zdarzenia A.
m
lim
P(A) =
n "
n
Wada:
Liczba doświadceń jest wartością ograniczoną
Definicja aksjomatyczna (Kołmogorow):
Każdemu zdarzeniu A związanemu z określonym doświadczeniem
losowym przyporządkowujemy liczbę P(A) o następujących własnościach
1. 0 d" P( A) d" 1,
2. P(I) = 1,
3. Jeżeli A1 , A2, A3, .... są zdarzeniami parami się wykluczającymi, to:
P( A1 + A2 + A3 + ...) = P( A1) + P( A2 ) + P( A3) + ....
Wnioski:
1. P(") = 0,
bo:
15
I = I + ", P(I) = P(I) + P("), 1= 1+ P(")
2. P( A+ A) = 1
3. Jeżeli A " B, to P( A) d" P(B)
4. Jeżeli A = B, to P( A) = P(B)
Definicja geometryczna
Jeżeli Q i q  to dwa zbiory należące do przestrzeni n- wymiarowej , oraz
jeżeli q zawiera się w Q to prawdopodobieństwo, że dowolny punkt z Q
będzie należał do q, jest równe stosunkowi miary zbioru q do miary zbioru
Q.
Przykłady
1. Rzut kostką:
P(parzysta liczba oczek)=?,
P(liczba oczek podzielna przez 3)=?
2. Rzut dwoma kostkami:
16
Ile jest zdarzeń elementarnych ?
P(suma oczek podzielna przez 5) = ?
P(suma oczek = 12) = ?
P(suma oczek = 6) = ?
P(suma oczek = 7) = ? (paradoks de Merego)
3. Dwóch graczy gra aż do 6 zwycięstw.
Przy stanie 2:5 przerwali grę. Jak należy podzielić pulę?
17
Zdarzenia niezależne
Dwa zdarzenia A i B nazywamy
zdarzeniami niezależnymi,
jeżeli zajście jednego z nich nie ma wpływu na prawdopodobieństwo
zajścia drugiego zdarzenia.
Przykład
Zdarzenia niezależne
2 urny  w obu kule białe i czarne;
Wylosowanie jakiejkolwiek kuli z urny pierwszej nie ma wpływu na
prawdopodobieństwo
wylosowania jakiejkolwiek kuli z urny drugiej
18
Zdarzenia zależne
Losowanie kuli z urny - schemat bez zwracania i ze zwracaniem
W urnie jest 5 kul białych i 10 czarnych
A  zdarzenie polegające na wylosowaniu kuli białej w pierwszym
losowaniu
B - zdarzenie polegające na wylosowaniu kuli białej w drugim losowaniu
Schemat ze zwracaniem
5 1
P(A) = P(B) = =
15 3
więc
1
P(B) =
3
niezależnie od tego czy zaszło zdarzenie A czy nie.
Zdarzenia A i B są niezależne
19
Schemat bez zwracania
Gdy zdarzenie A zaszło tzn.:
wylosowano kulę białą w pierwszym losowaniu, to:
4
P(B) =
14
gdy zdarzenie A, (wylosowano kulę czarną w pierwszym losowaniu), to:
5
P(B) =
14
Zdarzania A i B są zależne
20
Prawdopodobieństwo warunkowe
Jeśli prawdopodobieństwo zdarzenia B zależy od dodatkowych
okoliczności (warunków), to takie prawdopodobieństwo będziemy
nazywać warunkowym.
Warunek (okoliczność) - najczęściej zajście innego zdarzenia (A).
Prawdopodobieństwo warunkowe zdarzenia B przy założeniu, że zaszło
zdarzenia A oznaczamy symbolem:
P(B / A)
Dwa zdarzenia A i B są niezależne, jeśli:
P( A / B) = P( A) oraz P(B / A) = P(B)
Przykłady
Rzut kostką
A - zdarzenie, że wyrzuciliśmy mniej niż 2 oczka
B - zdarzenie, że wyrzuciliśmy mniej niż 3 oczka
1
P(A) =
6
1
P(A/ B) =
2
więc
P(A) `" P(A/ B)
21
więc zdarzenia A i B są zależne
Talia kart
Losujemy z talii jedną kartę
A  wylosowanie figury
B  wylosowanie karty czarnej
16 4
P(A) = =
52 13
8 4
P(A/ B) = =
26 13
P(A) = P(A/ B)
Podobnie
26 1
P(B) = =
52 2
8 1
P(B / A) = =
16 2
P(B) = P(B / A)
więc zdarzenia A i B są zależne
22
Prawdopodobieństwo iloczynu zdarzeń
Pole =n
Pole prostokąta - n
Pole lewego koła - k
Pole prawego koła - r
B pole =r
A pole =k
Pole powierzchni wspólnej - s
A - zdarzenie, że trafimy w punkt lewego koła
B - zdarzenie, że trafimy w punkt prawego koła
AB (iloczyn) - trafimy w obszar wspólny
Stąd mamy:
k r s s s
P( A) = , P(B) = , P( AB) = , P( A / B) = , P(B / A) =
n n n r k
dalej:
23
s
s P( AB)
n
P( A / B) = = =
r
r P(B)
n
Otrzymujemy stąd
wzór na prawdopodobieństwo iloczynu dwóch zdarzeń:
P( AB) = P(B) P( A / B)
i w podobny sposób (jak?):
P( AB) = P( A) P(B / A)
Zdarzenia A i B są niezależne to
P( AB) = P( A) P(B)
Przykład
Z talii wyciągamy kolejno dwie karty (bez zwracania).
Policzyć prawdopodobieństwo, że będą to asy.
A - prawdopodobieństwo wylosowania asa w pierwszym losowaniu
B - prawdopodobieństwo wylosowania asa w drugim losowaniu
4 3 1
P(AB) = P(A)P(B / A) = " =
52 51 221
Uogólnienie na prawdopodobieństwo iloczynu 3 zdarzeń:
24
P(ABC) = P(A)P(B / A)P(C / BA)
dla n zdarzeń ?
Przykład
Z talii ciągniemy kolejno 3 karty (bez zwracania).
Policz prawdopodobieństwo, że będą to kolejno as, król i dama
A  prawdopodobieństwo wylosowania asa w pierwszym losowaniu
B  prawdopodobieństwo wylosowania króla w drugim losowaniu
C  prawdopodobieństwo wylosowania damy w trzecim losowaniu
4 4 4 8
P(ABC) = P(A)P(B / A)P(C / AB) = =
52 51 50 16575
Zdarzenia A, B i C są niezależne, jeśli
P( ABC) = P( A) P(B) P(C)
oraz
P( AB) = P( A) P(B), P( AC) = P( A) P(C), P(BC) = P(B) P(C)
25
Kiedy n zdarzeń jest niezależnych?
Przykład
Z urny, w której są 24 kartki ponumerowane liczbami 1, 2, 3, ..., 24
losujemy jedną kartkę.
Określamy następujące zdarzenia:
A - wyciągamy liczbę nie większą niż 12
B - wyciągamy jedną z liczb: 1, 2, 3, 4, 5, 7
C - wyciągamy liczbę podzielną przez 3
Sprawdz, czy zdarzenia A, B i C są niezależne.
1 6 1 8 1
P(A) = P(B) = = P(C) = =
2 24 4 24 3
1
P(ABC) =
24
więc
1
P(ABC) = P(A)P(B)P(C) =
24
Zdarzenia A, B, C nie są niezależne, gdyż:
1 1
P(A)P(B) = P(AB) =
8 4
1 1
P(B)P(C) = P(BC) =
12 24
26
Prawdopodobieństwo sumy zdarzeń
Pole prostokąta - n
Pole lewego koła - k
Pole prawego koła - r
A
B
Pole powierzchni wspólnej - s
Pole powierzchni obu kół - t
A - zdarzenie, że trafimy w punkt lewego koła
B - zdarzenie, że trafimy w punkt prawego koła
AB - zdarzenie, że trafimy w punkt wspólnego obszaru
A+B - zdarzenie, że trafimy w punkt lewego lub prawego koła
Ponieważ:
t k r s
t = k + r - s lub = + - ,
n n n n
stąd mamy wzór na prawdopodobieństwo sumy zdarzeń:
P( A + B) = P( A)+ P(B) - P( AB)
27
Jak będzie wyglądał wzór dla 3 zdarzeń?
Przykład:
Z talii wyciągamy jedną kartę.
Wyznacz prawdopodobieństwo, że będzie to figura lub karta czerwona.
A  wylosowanie figury
B  wylosowanie karty czerwonej
16 4 1 8 2
P(A) = = , P(B) = , P(AB) = =
52 13 2 52 13
4 1 2 17
P(A + B) = + - =
13 2 13 26
28
Prawdopodobieństwo całkowite
Przykład:
Mamy dwie urny.
W jednej urnie są 3 kule białe i 2 czarne, a w drugiej jest 1 kula biała i 4
czarne.
Schemat losowania jest następujący:
najpierw losujemy urnę, a potem losujemy z niej kulę. Należy wyznaczyć
prawdopodobieństwo wylosowania kuli białej.
A1 - wylosowanie urny 1
A2 - wylosowanie urny 2
B - wylosowanie białej kuli
P(B) = P( A1) P(B / A1)+ P( A2 ) P(B / A2 )
Jest to wzór na prawdopodobieństwo całkowite
Dane jest dowolne zdarzenie B i układ zdarzeń A1, A2,..., An , które są
wyłączające się (rozłączne) i dające w sumie zdarzenie pewne. Musi więc
zajść jedno i tylko jedno zdarzenie A, a zatem zdarzenie B - jeśli zajdzie -
to musi zajść wraz z jednym i tylko jednym zdarzeniem A. Stąd wynika,
że:
B = BA1 + BA2+...+BAn,
gdzie poszczególne składniki są zdarzeniami wyłączającymi się.
29
Mamy zatem:
P(B) = P(BA1) + P(BA2 )+...+P(BAn )
a dalej, korzystając ze wzoru na prawdopodobieństwo iloczynu
otrzymujemy
wzór na prawdopodobieństwo całkowite:
P(B) = P(B / A1) P( A1) + P(B / A2 ) P( A2 )+...+P(B / An ) P( An )
Przykład:
Mamy 4 urny. W pierwszej jest 1 kula biała i 999 czarnych, a w
pozostałych po jednej białej i czarnej. Wyznaczyć prawdopodobieństwo
wylosowania kuli białej. Jakie byłoby to prawdopodobieństwo, gdyby
wszystkie kule były w jednej urnie?
30
Wzór Bayesa
Wzór Bayesa (Thomas Bayes - 1702-1761) pozwala wyznaczyć
prawdopodobieństwo zajścia jednego ze zdarzeń Ai , jeśli zaszło
zdarzenie B.
Ze wzoru na prawdopodobieństwo iloczynu zdarzeń mamy:
P(AiB) = P(Ai)P(B / Ai) = P(B)P(Ai / B)
,
a stąd
P( Ai ) P(B / Ai )
P( Ai / B) = .
P(B)
Wykorzystując w mianowniku wzór na prawdopodobieństwo całkowite
otrzymujemy wzór Bayesa:
P( Ai ) P(B / Ai )
P( Ai / B) =
P( A1) P(B / A1) + P( A2 ) P(B / A2 ) + P( An ) P(B / An )
Przykład:
31
Dla danych jak w przykładzie poprzednim (z dwoma urnami) wyznaczyć
prawdopodobieństwo wylosowania każdej z obu urn, pod warunkiem, że
wyciągnięto kulę białą.
Bayesowska teoria podejmowania decyzji
ZMIENNE LOSOWE
Zmienna losowa - wielkość, która w wyniku doświadczenia losowego
przyjmuje określoną wartość liczbową (niemożliwą do przewidzenia
wcześniej).
Oznaczenia zmiennych losowych: X, Y, Z, ...,
ich wartości: x, y, z, ...
Realizacja zmiennej losowej - wartość, jaką przyjmuje zmienna losowa
Przykłady:
1. Rzut kostką: X - x "{1, 2, 3, 4, 5, 6}
2. Temperatura powietrza w dniu 20.12. o godz. 12.00 x "-30, 20]
[
3. Procentowa zmiana kursu akcji Banku Śląskiego x "-10, +10]
[
4. Czas oczekiwania na tramwaj x "[0, 5]
32
Zmienna losowa - funkcja odwzorowująca przestrzeń zdarzeń
elementarnych w zbiór liczb [ x = X(e) ]
Rodzaje zmiennych losowych:
1. Zmienne losowe dyskretne (skokowe) - zbiór wartości jest skończony
(przeliczalny)
2. Zmienne losowe ciągłe - zbiór wartości nieskończony (np. zbiór liczb
rzeczywistych)
Zmienna losowa przyjmuje swe wartości z określonymi
prawdopodobieństwami (jej wartość zależy od wyniku doświadczenia
losowego - zdarzenia).
Rozkład prawdopodobieństwa zmiennej losowej - przyporządkowanie
wartościom zmiennej losowej prawdopodobieństw.
Dystrybuanta zmiennej losowej X:
33
F(x) = P( X < x)
Własności dystrybuanty:
1. 0 d" F(x) d" 1
2. F(-") = 0, F(+") = 1
3. Jest funkcja niemalejącą:
jeśli x1 < x2 to (F(x1) d" F(x2)
Dyskretne zmienne losowe
Zmienna losowa X o wartościach ze zbioru {x1, x2, x3, ..., xn}
Rozkład prawdopodobieństwa:
n
P( X = xi ) = P(xi ) = pi, pi = 1
"
i=1
Dystrybuanta:
F(x) =
"P(x )
i
xi Narysować rozkład i dystrybuantę dyskretnej zmiennej losowej
34
Przykłady dyskretnych zmiennych losowych
1. Zero-jedynkowa (binarna) zmienna losowa
X przyjmuje dwie wartości:
x "{0,1}
rozkład prawdopodobieństwa:
P( X = 1) = p, P( X = 0) = 1- p = q
Interpretacja: X = 1 gdy zajdzie zdarzenie oznaczające sukces
X = 0 gdy zajdzie zdarzenie oznaczające porażkę
Przykład:
Rzut kostką:
sukces - wyrzucenie szóstki,
porażka - nie wyrzucenie szóstki
P( X = 1) = 1/ 6, P( X = 0) = 5 / 6
35
Narysować dystrybuantę.
2. Dwumianowa zmienna losowa
Przykład:
Rzucamy 3 razy monetą;
sukces, gdy wypadnie orzeł -
porażka, gdy wypadnie reszka
X - zmienna losowa oznaczająca ilość sukcesów
zbiór wartości: {0,1, 2, 3}
Wyznaczyć rozkład zmiennej losowej X oraz jej dystrybuantę.
Mamy n doświadczeń (niezależnych):
każde z nich może zakończyć się sukcesem (z prawdopodobieństwem p)
lub porażką (z prawdopodobieństwem q=1-p).
X - zmienna losowa oznaczająca ilość sukcesów
zbiór wartości: {1,2,3,..,n}
Rozkład prawdopodobieństwa X:
36
nś#
#
ś#
P( X = k) = pk qn-k (dlaczego?)
kź#
# #
nś# = n!
#
ś#
- ilość k-elementowych kombinacji ze zbioru n-
kź# k!(n - k)!
# #
elementowego
Przykład:
Mamy pakiet akcji 10 firm. Prawdopodobieństwo, że wzrośnie wartość
akcji 1 firmy wynosi 0.5.
Jakie jest prawdopodobieństwo, że wzrośnie wartość akcji 7 firm?
37
Ciągłe zmienne losowe
Dystrybuanta F(x) jest funkcją ciągłą.
Rozkład prawdopodobieństwa ciągłej zmiennej losowej wygodnie jest
przedstawić przy pomocy funkcji gęstości rozkładu prawdopodobieństwa
f(x), która związana jest z dystrybuantą:
x
d
f (x) = F(x), F(x) = f () d
+"
dx
-"
Z własności dystrybuanty wynika:
+"
F(+") = f (x) dx = 1 oraz f (x) e" 0 (dlaczego?)
+"
-"
Dla dowolnych a < b:
38
b
P(a d" X d" b) = F(b) - F(a) = f (x) dx
+"
a
W szczególności:
x0
P( X = x0 ) = f (x) dx = 0
+"
x0
nie znaczy to, że zdarzenie takie jest niemożliwe
Interpretacja f(x).
Przykłady ciągłych zmiennych losowych
1. Zmienna losowa o rozkładzie prostokątnym (równomiernym,
jednostajnym)
Zm. los. X ma rozkład równomierny na odcinku [a, b]:
1
ż#
dla x "[a, b],
#
f (x) =
b - a
#
#0 w przeciwnym razie.
#
39
Narysować funkcję gęstości i dystrybuantę.
2. Zmienna losowa o rozkładzie trójkątnym
Narysować funkcję gęstości i dystrybuantę.
DWUWYMIAROWE ZMIENNE LOSOWE
Dwuwymiarową zmienną losową (X,Y) nazywamy parę funkcji
X(e) i Y(e)
opisanych na przestrzeni zdarzeń elementarnych E i przyjmujących
wartości ze skończonego zbioru liczb (zmienna dyskretna) lub ciągłego
(zmienna ciągła).
Dystrybuanta dwuwymiarowej zmiennej losowej:
F(x, y) = P( X < x, Y < y)
F(-", y) = F(x, - ") = 0, F(+", + ") = 1
Dwuwymiarowa dyskretna zmienna losowa
X ma zbiór wartości {x1, x2, ..., xn}
40
Y ma zbiór wartości {y1, y2, ..., ym}
Rozkład zmiennej losowej (X,Y) określają prawdopodobieństwa:
P( X = xi , Y = y ) = pij, i = 12,...,n, j = 12,...,m.
, ,
j
Można go ująć w postaci tablicy n m.
Oczywiście:
n m
pij = 1
" "
i=1 j=1
Oznaczmy:
m n
pi = pij q = pij .
""
j
j=1 i=1
Oczywiście:
m n
pi = 1.
"q = "
j
j=1 i=1
Pokazać, że:
pi = P( X = xi ), q = P(Y = y ).
jj
pij - rozkład łączny zmiennych losowych (X,Y)
pi , q - rozkłady brzegowe zmiennych losowych (X,Y)
j
41
Mamy:
pij = P( X = xi ,Y = y ) = P( X = xi / Y = y ) P(Y = y ) = pi/ j p
j j j j
pij = P( X = xi ,Y = y ) = P(Y = y / X = xi ) P( X = xi ) = p pi
j j j/i
pi/ j , p - prawdopodobieństwa warunkowe
j/ i
Gdy:
zmienne losowe X i Y są niezależne to:
pi/ j = pi i p = q
j/i j
lub równoważnie:
pij = pi q
j
Dwuwymiarowa ciągła zmienna losowa
(X, Y) - nieskończony zbiór wartości (np. R)
Funkcja gęstości rozkładu prawdopodobieństwa:
y
x
2
d F(x, y)
f (x, y) = , F(x, y) = f (x, y) dx dy .
+" +"
dx dy
-" -"
Gęstość brzegowa:
+" +"
f (x) = f (x, y) dy, f ( y) = f (x, y) dx
+"+"
-" -"
Gęstości warunkowe:
42
f (x, y) f (x, y)
f (x / y) = , f ( y / x) = .
f ( y) f (x)
f (x, y) = f (x) f ( y) "! zmienne losowe X i Y są niezależne.
Przykłady
Są dwie spółki: A i B.
Z notowaniami akcji spółki A wiążemy zmienną losową X:
jeśli akcje spadają, to X=-1, gdy się nie zmieniają, to X=0, gdy rosną, to
X=+1.
W podobny sposób ze spółką B wiążemy zmienna losową Y.
Aączny rozkład (X,Y) jest następujący:
-1 0 +1
-1 0,05 0,05 0
0 0,05 0,1 0,15
+1 0,1 0,05 0,45
Sprawdz, czy zmienne losowe X i Y są niezależne.
43
2. Piotr jedzie na uczelnię dwoma autobusami.
Czas oczekiwania na każdy autobus jest zmienną losową o rozkładzie
równomiernym na odcinku [0, 10].
Wychodząc z domu Piotr przeznaczył na łączne czekanie na autobusy
17 minut.
Jakie jest prawdopodobieństwo, że nie spózni się na zajęcia?
PARAMETRY ZMIENNYCH LOSOWYCH
Wartość oczekiwana (przeciętna, średnia) zmiennej losowej
Oznaczenia: E(X ), X , m
Znaczenie:
obserwujemy realizacje zm. losowej X: x1, x2, ...,xn - gdy n jest duże, to
wartość średnia jest przybliżeniem średniej arytmetycznej realizacji:
E( X ) H" (x1 + x2+...+xn ) / n
Przykład: czas czekania na tramwaj
Wartość oczekiwana dyskretnej zmiennej losowej
44
Zmienna losowa X o wartościach x1, x2, ...,xn przyjmowanych z
prawdopodobieństwami p1, p2, ..., pn . Wartość oczekiwana X:
n
E( X ) =
"x pi
i
i=1
Przykłady:
1. Zmienna losowa binarna:
X przyjmuje dwie wartości: x "{0,1}
P( X = 1) = p, P( X = 0) = 1- p = q
E( X ) = 0 q +1 p = p
(wartość średnia nie musi należeć do zbioru wartości X).
2. Rzut kostką:
zm. losowa X przyjmuje wartości
1, 2, 3, 4, 5, 6 z prawdopodobieństwem1/6.
Policzyć E(X).
45
3. Zmienna losowa X ma rozkład dwumianowy o parametrach n i p:
nś#
#
ś#
P( X = k) = pk qn-k
kź#
# #
Pokazać, że:
E(X) = n p
Wartość oczekiwana ciągłej zmiennej losowej
Zmienna losowa X o funkcji gęstości rozkładu prawdopodobieństwa f(x):
+"
E( X ) = x f (x) dx
+"
-"
Przykłady:
1. X ma rozkład równomierny na odcinku [a, b].
Wyliczyć E(X).
2. X ma rozkład trójkątny (równoramienny) na odcinku [0, 2].
Wyliczyć E(X).
46
Interpretacja
Wartość średnia - środek ciężkości f(x).
Inne parametry I rzędu:
mediana - xm takie, że
F(xm) = 1/ 2
moda - xl takie, że
f (xl ) = max f (x)
rozkłady jedno-, wielomodalne
Własności E(X):
1. C - stała: E(C) = C (dlaczego?)
47
2. E( X1 + X2+...+ Xn ) = E( X1) + E( X2)+...+E( Xn )
2. E(C X)=C E(X)
4. X - zmienna losowa o funkcji gęstości prawdopodobieństwa f(x).
Y - zmienna losowa:
Y=g(X)
+"
E(Y) = g(x) f (x) dx
+"
-"
n
E( X ) = g(xi ) pi - dla przypadku dyskretnego).
"
i=1
Przykłady:
1. Z = X - E( X ). Policzyć E(Z).
2
2. X ma rozkład równomierny na odcinku [a, b]. Y = X . Policzyć E(Y).
Wariancja zmiennej losowej
2
Oznaczenia: V(X) ( )
48
Znaczenie:
parametr informujący o rozrzucie zmiennej losowej (miara rozproszenia)
V ( X ) = E( X - E( X ))2
Dla ciągłych zmiennych losowych
+"
V( X ) = - E( X ))2 f (x) dx -
+"(x
-"
Dla dyskretnych zmiennych losowych:
n
V ( X ) =
"(x - E( X ))2 pi
i
i=1
2 2
V ( X ) = E( X - E( X ))2 = E( X - 2 XE( X ) + E2( X )) = E( X ) - E2( X )
Przykłady:
1. Wyznaczyć wariancję zm. losowej o rozkładzie binarnym (V(X)=p q)
49
2. Wyznaczyć wariancję zm. losowej o rozkładzie równomiernym na [a,
b].
Dyspersja (odchylenie standardowe) - inna miara rozproszenia:
2
 = 
Własności wariancji
1. V (C) = 0,
bo V (C) = E(C2) - E2(C) = C2 - C2 = 0
2. V (CX ) = C2 V ( X )
2
bo:V (CX ) = E[CX - E(CX )]2 = C2E( X ) - C2E2( X ) = C2 V ( X )
3. Wariancja sumy niezależnych zmiennych losowych równa się sumie
wariancji tych zmiennych:
n n
V ( Xi ) = ( Xi )
""V
i=1 i=1
50
4. X, Y - niezależne zmienne losowe:
V ( X - Y ) = V ( X )+ V (Y)
Przykłady:
1. Wyliczyć (V ( X - E( X ))
2. Wyznaczyć wariancję zm. losowej o rozkładzie dwumianowym (suma n
niezależnych zm. losowych o rozkładzie binarnym)
Zmienna losowa o rozkładzie normalnym
1 11 (x - m)2
2
f (x) = N(m, ) = exp{-}
2
2
2Ą 2


Zmienna losowa standaryzowana (normalizowana)
Zmienna losowa X jest standaryzowana, jeśli E(X)=0 i V(X)=1.
Jeśli dla zm. losowej X:
51
2
E(X)=m i V ( X ) =  ,
to zmienna losowa
X - m
Y =
2

jest standaryzowana.
Parametry dwuwymiarowej zmiennej losowej (X, Y)
Kowariancja
cov( X, Y) = E( X - E( X ))(Y - E(Y))
Jeśli zmienne losowe X i Y są niezależne, to
cov( X,Y) = 0
(twierdzenie odwrotne nie jest prawdziwe)
Współczynnik korelacji
52
cov( X,Y)
 = , -1d"  d" 1
V ( X ) V (Y)
miara  siły zależności pomiędzy zmiennymi losowymi 
dla zmiennych losowych niezależnych:  = 0.
53


Wyszukiwarka

Podobne podstrony:
MPiS cw prawdopodobieństwo
MATLAB cw Skrypty
cad2 cw 5 6
cw formularz
Cw 2 zespol2 HIPS
Cw 9 Wzmacniacz mocy
Cw 1
metrologia cw 1 protokol
historia rach odp
Sprawozdanie Ćw 2
Rachunek prawdopodobieństwa teoria
Biofizyka kontrolka do cw nr
systemy operacyjne cw linux apache mysql
cw 7
ćw oswajające z piłką lekcja dla dzieci

więcej podobnych podstron