Prawdopodobieństwo warunkowe
Prawdopodobieństwo warunkowe
Niech Ω będzie przestrzenią zdarzeń elementarnych, S - zbiorem wszystkich
zdarzeń losowych , a P:S <0;1> - prawdopodobieństwem w tej przestrzeni.
Załóżmy, że
B € S jest zdarzeniem losowym o dodatnim prawdopodobieństwie, tzn. P(B)>0.
Prawdopodobieństwem warunkowym nazywamy funkcję P(•|B):S <0;1>
określoną
wzorem:
Definicja
Definicja
)
(
)
(
)
|
(
B
P
B
A
P
B
A
P
S
A
Wartość P(A|B) nazywamy wówczas prawdopodobieństwem zajścia
zdarzenia A pod warunkiem, że zaszło zdarzenie B
Z talii 52 kart wyciągnięto losowo kartę. Jakie jest prawdopodobieństwo, że jest
to
siódemka, jeżeli wiadomo, że wyciągnięta karta nie jest figurą ani asem.
Przykład
Przykład
)
(
)
(
)
|
(
B
P
B
A
P
B
A
P
S
A
Rozwiązanie: Przestrzeń zdarzeń elementarnych jest skończona i Ω={ω
1,…,
ω
52
},
gdzie ω
i
oznacza wyciągnięcie i-tej karty. Stosujemy prawdopodobieństwo
klasyczne. Niech A będzie zdarzeniem polegającym na wyciągnięciu siódemki.
Wówczas A’=4. Natomiast przez B oznaczymy zdarzenie polegające na wyborze
blotki (kart od dwójek do dziewiątek włącznie).
Wówczas B’=36 i A∩B=4
Teraz:
9
1
36
4
)
(
)
(
)
|
(
B
P
B
A
P
B
A
P
Prawdopodobieństwa a priori i a
Prawdopodobieństwa a priori i a
posteriori
posteriori
Prawdopodobieństwo a priori to prawdopodobieństwo obliczane przed
realizacją doświadczenia losowego, czyli klasyczne prawdopodobieństwo, w
odróżnieniu od prawdopodobieństwa a posteriori, obliczanego na podstawie
wyników doświadczenia, czyli częstości.
Aby obliczyć prawdopodobieństwo a priori należy posłużyć się poniższym wzorem
określającym prawdopodobieństwo całkowite.
P(B) = P(A
1
)*P(B|A
1
) + P(A
2
)*P(B|A
2
) + ... + P(A
n
)*P(B|A
n
)
Przy spełnionych założeniach:
1) Zdarzenie losowe B jest dowolnym zdarzeniem należącym do zbioru Z
2) Zdarzenia losowe A
1
, A
2
, ... , A
n
należą do zbioru Z oraz spełniają poniższe
warunki
• A
i
∩ A
j
Ø ,
• A
1
∪ A
2
∪ ... ∪ A
n
= Ω , i = 1, ... , n
• P(A
i
) > 0 , i = 1, ... , n
gdzie
Ω - zbiór zdarzeń elementarnych
Z - rodzina podzbiorów przestrzeni zdarzeń elementarnych Ω
P(A
i
) - prawdopodobieństwo zdarzenia A
i
P(B|A
i
) - prawdopodobieństwo zdarzenia B pod warunkiem zajścia zdarzenia
A
i
Prawdopodobieństwo a priori
Prawdopodobieństwo a priori
Częstość (inaczej prawdopodobieństwo a posteriori) to stosunek liczby
rezultatów sprzyjających danemu zdarzeniu do liczby przeprowadzonych prób w
doświadczeniu losowym.
Przykład: Rzucamy 100 razy monetą, otrzymujemy następujące wyniki: orzeł
wypadł 48 razy, reszka 52 razy. Częstość wypadnięcia orła wynosi 48/100 = 0,48,
natomiast częstość wypadnięcia reszki 52/100 = 0,52.
Częstość jest liczbą otrzymaną z doświadczenia (czyli a posteriori) w odróżnieniu
od prawdopodobieństwa, które obliczamy niezależnie od wyników doświadczenia
(czyli a priori).
Prawdopodobieńśtwo a
Prawdopodobieńśtwo a
posteriori
posteriori
Wnioskowanie Bayesowskie
Wnioskowanie Bayesowskie
Wnioskowanie bayesowskie
Wnioskowanie bayesowskie
Wnioskowanie probabilistyczne nazywamy też wnioskowanie
bayesowskim, ze względu na kluczową rolę, jaką w nim pełni wzór
Bayesa – jeden z klasycznych wyników rachunku prawdopodobieństwa.
Dla dowolnych zdarzeń A i B wzór opisuje następującą zależność
prawdopodobieństw warunkowych
)
(
)
|
(
...
)
(
)
|
(
)
(
)
|
(
)
|
(
1
1
}
,...,
1
{
k
k
j
j
j
k
j
B
P
B
A
P
B
P
B
A
P
B
P
B
A
P
A
B
P
Występujące we wzorze Bayesa prawdopodobieństwa: P(B
j
) dla j €K
nazywamy „prawdopodobieństwem a priori”
(prawdopodobieństwa wyznaczone na podstawie przyjętych z góry
założeń przed informacją o zajściu zdarzenia A), natomiast
prawdopodobieństwa warunkowe: P(B
j
|A) dla j €K nazywamy
„prawdopodobieństwami a posteriori” (prawdopodobieństwa
wyznaczone po doświadczeniu), w oparciu o informację, że zaszło
zdarzenie A)
Uprawdopodobnianie hipotez przez
Uprawdopodobnianie hipotez przez
fakty
fakty
Przyjmijmy, że wśród stwierdzeń, jakie są przetwarzane przy wnioskowaniu,
wyróżnimy dwie kategorie:
Fakty: stwierdzenia dotyczące dziedziny, których prawidłowość jest znana
Hipotezy: stwierdzenia o nieznanym prawdopodobieństwie prawdziwości
Interesuje nas wnioskowanie o prawdziwości możliwych hipotez przy założeniu
prawdziwości pewnego zestawu faktów. Zwróćcie szczególną uwagę na dwa
występujące w nim prawdopodobieństwa dotyczące hipotezy:
Pr(h): prawdopodobieństwo a priori hipotezy h (bez znajomości lub
uwzględniania znanych
faktów
Pr(h|F): prawdopodobieństwo a posteriori hipotezy h po uwzględnieniu faktów F
)
Pr(
)
|
Pr(
)
Pr(
)
|
Pr(
F
h
F
h
F
h
Można powiedzieć, że wzór Bayesa, podając przepis na wyznaczanie
prawdopodobieństwa a posteriori, określa wpływ faktów na prawdopodobieństwa (albo
uprawdopodobnienie) hipotezy.
Zauważcie, że prawdopodobieństwo występujące w mianowniku ułamka nie zależy od
rozważanej hipotezy. Wynika z tego, że gdyby interesowało nas wyłącznie wybranie
hipotezy najbardziej prawdopodobnej z pewnego zestawu, wystarczy ograniczać się do
obliczenia licznika ułamka. Aby poznać dokładnie, bezwzględne wartości
prawdopodobieństw a posteriori poszczególnych hipotez, należy wziąć pod uwagę
sytuację, w której mamy skończoną liczbę możliwych hipotez h
1
, h
2
, …, h
n
wykluczających się parami i wyczerpujących wszystkie możliwości (czyli takich, że
dokładnie jedna z nich jest prawdziwa). Wówczas:
Pr(F)= Pr(h
1
)Pr(F|h
1
)+…+(Pr(h
n
)Pr(F|h
n
)
Przykład 1
Przykład 1
Przykład 1
Przykład 1
Weźmiemy pod uwagę sytuację, w której diagnozując dolegliwości pacjenta ograniczono
zbiór możliwych diagnoz do następujących dwóch wykluczających się hipotez:
h: pacjent jest chory na grypę,
¬h: pacjent nie jest chory na grypę.
Podstawą do wnioskowania mogą być następujące pojedyncze fakty:
f
1
: pacjent ma katar,
f
2
: pacjent ma kaszel,
f
3
: pacjent ma gorączkę.
Przyjmijmy, że dostarczający wiedzę do systemu diagnostycznego ekspert ustalił
następujące wartości prawdopodobieństw:
Pr(h)=0,1
Pr(¬h)=0,9
Pr(f1|h)=0,5
Pr(f1|¬h)=0,3
Pr(f2|h)=0,3
Pr(f2|¬h)=0,3
Pr(f3|h)=0,8
Pr(f3|¬h)=0,4
Na tej podstawie możemy obliczyć prawdopodobieństwa faktów:
Pr(f1)=Pr(h)Pr(f1|h)+Pr(¬h)Pr(f1| ¬h)=0,1*0,5+0,9*0,3=0,32
Pr(f2)=Pr(h)Pr(f2|h)+Pr(¬h)Pr(f2| ¬h)=0,1*0,3+0,9*0,3=0,3
Pr(f3)=Pr(h)Pr(f3|h)+Pr(¬h)Pr(f3| ¬h)=0,1*0,8+0,9*0,4=0,44
Aby wyznaczyć prawdopodobieństwa a posteriori rozważanych hipotez na podstawie
każdego z pojedynczych objawów stosujemy bezpośrednio wzór Bayesa:
16
,
0
32
,
0
5
,
0
*
1
,
0
)
Pr(
)
|
Pr(
)
Pr(
)
|
Pr(
1
1
1
f
h
f
h
f
h
1
,
0
3
,
0
3
,
0
*
1
,
0
)
Pr(
)
|
Pr(
)
Pr(
)
|
Pr(
2
2
1
f
h
f
h
f
h
18
,
0
44
,
0
8
,
0
*
1
,
0
)
Pr(
)
|
Pr(
)
Pr(
)
|
Pr(
1
1
1
f
h
f
h
f
h
Przykład 2
Przykład 2
Twierdzenia Bayesa można użyć do interpretacji rezultatów badania przy użyciu testów
wykrywających narkotyki. Załóżmy, że przy badaniu narkomana test wypada pozytywnie w
99% przypadków, zaś przy
badaniu osoby nie zażywającej narkotyków wypada negatywnie w 99% przypadków.
Pewna firma postanowiła przebadać swoich pracowników takim testem wiedząc, że 0,5% z
nich to narkomani. Chcemy obliczyć prawdopodobieństwo, że osoba u której test wypadł
pozytywnie rzeczywiście zażywa narkotyki. Oznaczmy następujące zdarzenia:
• D - dana osoba jest narkomanem
• N - dana osoba nie jest narkomanem
• + - u danej osoby test dał wynik pozytywny
• − - u danej osoby test dał wynik negatywny
P(D) = 0,005, gdyż 0,5% pracowników to narkomani
P(N) = 1 − P(D) = 0,995
P( + | D) = 0,99, skuteczność testu przy badaniu narkomana
P( − | N) = 0,99, gdyż taką skuteczność ma test przy badaniu osoby nie będacej
narkomanem
P( + | N) = 1 − P( − | N) = 0,01
3322
,
0
995
,
0
*
01
,
0
005
,
0
*
99
,
0
005
,
0
*
99
,
0
)
(
)
|
(
)
(
)
|
(
)
(
)
|
(
)
Pr(
)
(
)
|
(
)
|
(
N
P
N
P
D
P
D
P
D
P
D
P
D
P
D
P
D
P
Przykład 3
Przykład 3
Prowadzący ćwiczenia ze statystyki wie z doświadczenia, że przeciętnie nie kapuje nic ale to
nic 20% studentów. Wie również, że 80% studentów którzy nie kapują nic ale to nic stara się
zająć ostatnie miejsca w sali, bądź jak najdalej od prowadzącego, czyli po jego prawej
stronie. Natomiast wśród studentów którzy kapują co nieco, bądź starają się zakminić, czyni
tak tylko 30% z nich. Onufry po wejściu do sali ewidentnie kieruje się do ostatniego rzędu
ławek. Jakie jest zatem prawdopodobieństwo, że nic nie kapuje?
A – student nic nie kapuje
B – student chce zająć miejsce w ostatnim rzędzie
P(A) =0,2
P(B|A)= 0,8
P(B|A’)=0,3
Zatem korzystając ze twierdzenia Bayesa:
4
,
0
40
,
0
16
,
0
8
,
0
*
3
,
0
2
,
0
*
8
,
0
2
,
0
*
8
,
0
)
'
(
)
'
|
(
)
(
)
|
(
)
(
)
|
(
)
|
(
A
P
A
B
P
A
P
A
B
P
A
P
A
B
P
B
A
P
Zadania
Zadania
Zadanie 1
Zadanie 1
Żarówki są produkowane w 3 fabrykach z fabryki pierwszej pochodzi 25%
produkcji, z fabryki drugiej 35% produkcji a z trzeciej 40%. Produkcja wadliwa
wynosi odpowiednio:
dla fabryki I -5%
dla fabryki II -4%
dla fabryki III -2%
Wybrana żarówka okazała się wadliwa - jakie jest prawdopodobieństwo, że
pochodzi ona z fabryki pierwszej.
)
|
(
)
(
)
|
(
)
(
)
|
(
1
1
1
1
i
i
i
A
B
P
A
P
A
B
P
A
P
B
A
P
Zadanie 2
Zadanie 2
Wśród 10 monet jedna ma orły po obu stronach. Wybieramy losowo jedną
monetę, rzucamy 5 razy wypada 5 orłów. Jakie jest prawdopodobieństwo, że jest
to moneta z orłami po obu stronach?
Zadanie 3
Zadanie 3
Pewne urządzenia są sprowadzane od 3 dostawców A,B,C, w następujących
ilościach: 50%, 20% i 30%. Wadliwość urządzeń: od dostawcy A - 1%, B - 2%, C -
3%. Wybrane urządzenie okazało się wadliwe. Jakie jest prawdopodobieństwo, że
pochodzi ono od dostawcy A?
Zadanie 4
Zadanie 4
Wśród studentów jest 60% mężczyzn i 40% kobiet. Połowa studentek chodzi w
spodniach, a połowa w spódniczkach. Wszyscy studenci noszą spodnie.
Obserwator widzi osobę w spodniach. Jakie jest prawdopodobieństwo, że jest to
studentka?