Przeglad Pojec z Prawdop 06 Kisielewicz p35 slides


Motywacja
Wiedza o świecie jaka posiada agent inteligentny jest z konieczności niepe lna
i niepewna. Nawet w przypadkach kiedy móg lby on zdobyć wiedze kompletna

i pewna, może to być niepraktyczne.

W sztucznej inteligencji od dawna próbowano budować mechanizmy
i formalizmy pozwalajace wnioskować i dzia lać w takich warunkach, poprzez

dodanie oszacowania wiarygodności posiadanych faktów do wnioskowania
logicznego. Przyk ladami moga być: logika modalna, logika trójwartościowa,
logiki niemonotoniczne, logika rozmyta, logika probabilistyczna, i inne.
Praktyczne zastosowania tych metod okazuja sie jednak ograniczone. Dopiero

stosunkowo niedawno wzros lo zainteresowanie wykorzystaniem
prawdopodobieństwem w sposób bezpośredni. To podejście przynios lo duży
sukces, i metody oparte na reprezentowaniu wiedzy agenta o świecie w postaci
prawdopodobieństw sa jednymi z najbardziej dynamicznie rozwijajacych sie

technik sztucznej inteligencji. W tym schemacie reprezentacji metoda
wnioskowania jest matematyczny rachunek prawdopodobieństwa.
Przeglad pojeć z prawdopodobieństwa  Motywacja 1

Prawdopodobieństwo bezwarunkowe
Prawdopodobieństwo bezwarunkowe (a priori) określa liczbowo szanse

wystapienia jakiegoś zjawiska, gdy nie sa znane żadne okoliczności zwiazane

z tym zjawiskiem (np. czy ono w rzeczywistości sie wydarzy lo).

Graficzna wizualizacja zdarzeń i ich prawdopodobieństw:
P (A) = powierzchnia kó lka
P (ŹA) = dope lnienie do prostokata
A

ŹA
powierzchnia prostokata = 1

Np.: prawdopodobieństwo, że zg laszajacy sie do lekarza pacjent jest chory na

nietypowe zapalenie p luc SARS może wynosić P (NZPSARS) = 0.01
Jednak gdyby lekarz wiedzia l, że pacjent w laśnie przyjecha l z Hong-Kongu i mia l
typowe objawy nietypowego zapalenia p luc, to prawdopodobieństwo posiadania
przez niego choroby wywo lanej tym wirusem należa loby określić zupe lnie
inaczej.1
1
Wyjaśnienie: ten przyk lad powsta l w roku 2003 kiedy w Chinach szala la epidemia SARS.
Przeglad pojeć z prawdopodobieństwa  Prawdopodobieństwo bezwarunkowe 2

Aksjomaty prawdopodobieństwa
" 0 d" P (A) d" 1
" P (True) = 1
" P (False) = 0
" P (A (" B) = P (A) + P (B) - P (A '" B)
P (A (" B)
P (A '" B)
P (B)
P (A)
P (T rue)
Przeglad pojeć z prawdopodobieństwa  Prawdopodobieństwo bezwarunkowe 3

Wiecej o aksjomatach prawdopodobieństwa

Z danych aksjomatów można wyprowadzić wiele użytecznych zależności:
P (ŹA) = 1 - P (A) (1)
P (A) = P (A '" B) + P (A '" ŹB) (2)
(i inne).
Aksjomaty prawdopodobieństwa maja g leboki sens  ścis le trzymanie sie ich

gwarantuje niepope lnienie b ledu w obstawianiu swoich szans. Inaczej mówiac,

gdyby w jakiejÅ› grze losowej agent zastosowa l w swoim rozumowaniu
prawdopodobieństwa naruszajace te aksjomaty, i gotów by l przyjmować zak lady

zgodne z tymi prawdopodobieństwami, to istnieje strategia obstawiania w tych
zak ladach, gwarantujaca wygrana jego przeciwnikowi.

Przeglad pojeć z prawdopodobieństwa  Prawdopodobieństwo bezwarunkowe 4

Zmienne losowe
Zmienna losowa reprezentuje jakieś zjawisko losowe, które może przyjmować
wartości z pewnego zbioru (dziedziny zmiennej losowej).
Np.: chcac określić jaka bedzie dziś pogoda i z jakim prawdopodobieństwem,

możemy potraktować dzisiejsza pogode (PogodaDZIŚ) jako zmienna losowa,

której wartości należa do zbioru: {S lońce,Chmury,Deszcz,Śnieg}
Zestaw wartości prawdopodobieństw wszystkich możliwych wartości zmiennej
losowej nazywamy rozk
ladem prawdopodobieństwa tej zmiennej losowej.
Rozk lad prawdopodobieństwa dla zmiennej losowej PogodaDZIŚ można zapisać:
P(PogodaDZIÅš) = {0.8, 0.1, 0.09, 0.01}
Przeglad pojeć z prawdopodobieństwa  Zmienne losowe 5

Laczny rozk
lad prawdopodobieństw

Możemy brać pod uwage kilka zmiennych losowych opisujacych różne zjawiska

losowe. Zdarzeniem atomowym nazywamy przypisanie wartości wszystkim
zmiennym losowym, czyli kombinacja tych wartości. Na przyk lad, dla dwóch
zmiennych losowych X i Y można skonstruować tabele zdarzeń atomowych:

X = x1 X = x2 . . . X = xn
Y = y1
Y = y2
. . .
Y = yk
Laczny rozk lad prawdopodobieństwa (JPD) dla zbioru zmiennych losowych jest


tabela prawdopodobieństw wszystkich zdarzeń atomowych. W polu tabeli
w rzedzie j i kolumnie i znajduje sie prawdopodobieństwo jednoczesnego

przyjecia przez zmienna X wartości xi i przez zmienna Y wartości yj, czyli

P (X = xi '" Y = yj). Sumujac w tej tabeli wzd luż rzedów lub kolumn możemy

otrzymać prawdopodobieństwa dla poszczególnych wartości pojedynczych
zmiennych. Suma wszystkich prawdopodobieństw ca lej tabeli daje 1.0.
Przeglad pojeć z prawdopodobieństwa  Zmienne losowe 6

Pos
lugiwanie sie tabela JPD

Majac wype lniona tabele JPD możemy obliczać prawdopodobieństwa dowolnych

zdarzeń. Na przyk lad:
" Prawdopodobieństwo zdarzenia polegajacego na przyjeciu przez zmienna X

wartości xi P (X = xi) możemy obliczyć przez zsumowanie wszystkich wartości
w kolumnie i tabeli JPD.
" Prawdopodobieństwo zdarzenia polegajacego na tym, że zmienna X przyjmie

wartość xi lub że zmienna Y przyjmie wartość yj możemy obliczyć przez
zsumowanie wszystkich wartości w kolumnie i i rzedzie j tabeli JPD, liczac

zawartość pola (i, j) tabeli tylko raz. Jak widać wynik bedzie dok ladnie ten

sam, jak gdyby obliczać z tabeli wartości wed lug wzoru:
P (A (" B) = P (A) + P (B) - P (A '" B)
Jednak aby w ten sposób pos lugiwać sie prawdopodobieństwami musimy

obliczyć prawdopodobieństwa wszystkich zdarzeń atomowych, i kompletnie
wype lnić tabele JPD, co może być kosztowne.

Przeglad pojeć z prawdopodobieństwa  Zmienne losowe 7

Obliczanie prawdopodobieństw atomowych
Skad pochodza dane o prawdopodobieństwach? Można je zgromadzić

statystycznie, można dokonać analizy i obliczyć jako inherentne cechy zjawiska
fizycznego, można również zwiazać te prawdopodobieństwa z agentem,

charakteryzujac jego punkt widzenia na świat.

Na przyk lad, jakie jest prawdopodobieństwo zdarzenia, że s lońce bedzie istnia lo

jutro? Można próbować to obliczyć na wiele sposobów, przyjmujac różne punkty

widzenia:
" nie da sie określić, bo nie sposób przeprowadzić niezbednych eksperymentów,

" poprzednie podobne eksperymenty dowodza, że s lońce zawsze istnieje,

 
wiec prawdopodobieństwo wynosi 1,

" prawdopodobieństwo wynosi 1 - gdzie jest prawdopodobieństwem
wybuchu gwiazdy danego dnia,
" prawdopodobieństwo wynosi (d + 1)/(d + 2) gdzie d jest liczba dni
dotychczasowego istnienia s lońca,
" prawdopodobieństwo można określić budujac model istnienia i rozpadu

s lońca na podstawie zachowania innych, podobnych gwiazd.
Przeglad pojeć z prawdopodobieństwa  Zmienne losowe 8

Prawdopodobieństwo warunkowe
Prawdopodobieństwo warunkowe (a posteriori) P (A|B) 
prawdopodobieństwo zdarzenia A obliczane tylko w sytuacjach, w których B
jest spe lnione. Jest zwiazane z bezwarunkowym wzorem:

P (A '" B)
P (A|B) = (3)
P (B)
Wzór ten można wyt lumaczyć nastepujaco: aby obliczyć prawdopodobieństwo

P (A|B) musimy wzia ć u lamek przypadków zdarzenia A '" B we wszystkich
przypadkach zdarzenia B.
P (A '" B)
P (B)
P (A)
Przeglad pojeć z prawdopodobieństwa  Prawdopodobieństwo warunkowe 9

Inne wyt lumaczenie można przedstawić na podstawie wzoru odwróconego:
P (A '" B) = P (A|B)P (B)
Aby obliczyć P (A '" B) musimy wiedzieć, że nastapi lo B, i wiedzac to, wtedy

obliczyć prawdopodobieństwo A. Albo na odwrót.
Zauważmy, że prawdopodobieństwo warunkowe dla danego warunku spe lnia
wszystkie aksjomaty prawdopodobieństwa, a zatem posiada wszystkie w lasności
prawdopodobieństwa bezwarunkowego, na przyk lad:
P (A|B) + P (ŹA|B) = 1
Przeglad pojeć z prawdopodobieństwa  Prawdopodobieństwo warunkowe 10

Dlaczego prawdopodobieństwo warunkowe?
Musimy pos lugiwać sie prawdopodobieństwem warunkowym, ilekroć chcemy

wyliczyć prawdopodobieństwo jakiegoś zdarzenia w sytuacji, gdy posiadamy
jaka ś wiedze o innych, być może zależnych zdarzeniach.

P (A) jest poprawnym prawdopodobieństwem zdarzenia A o ile nie posiadamy
żadnej wiedzy. Jeśli jednak wiemy, że B, to poprawnym prawdopodobieństwem
zdarzenia A jest P (A|B), a gdybyśmy dowiedzieli sie, że jeszcze C, to musimy

już pos lugiwać sie prawdopodobieństwem P (A|B '" C).

W ten sposób możemy uważać, że prawdopodobieństwo bezwarunkowe P (A)
jest prawdopodobieństwem warunkowym P (A|) w sytuacji, gdy nie posiadamy
żadnej wiedzy.
Prawdopodobieństwa warunkowe można obliczać z tablicy lacznego rozk ladu

prawdopodobieństwa JPD za pomoca wzoru 3.
Jednak nie tak sie zwykle robi.

Przeglad pojeć z prawdopodobieństwa  Prawdopodobieństwo warunkowe 11

Regu Bayes a
la
Z dwukrotnego zastosowania wzoru 3 możemy uzyskać nastepujaca prosta

zależność, zwana regu la Bayes a, bedaca podstawa wielu procesów

wnioskowania probabilistycznego:
P (A|B)P (B)
P (B|A) = (4)
P (A)
Dlaczego ta regu la ma znaczenie? Wróćmy do przyk ladu z pacjentem
z objawami SARS, niezwykle groznej choroby. Za lóżmy, że u pewnego pacjenta
przeprowadzono test na obecność tego wirusa, który wypad l negatywnie. Dobra
wiadomość dla pacjenta? Niekoniecznie!
Przeprowadzony test jest być może dobry, ale nie jest ca lkowicie niezawodny. Na
przyk lad, może dawać wynik pozytywny w 95% przypadków obecności wirusa.
Co wiecej, w przypadkach braku wirusa SARS, ten sam test może dawać wynik

negatywny (czyli prawid lowy) w 90% przypadków.
Jakie jest zatem prawdopodobieństwo, że pacjent ma (albo nie ma) SARS?
Konieczne jest obliczenie prawdopodobieństwa warunkowego.
Przeglad pojeć z prawdopodobieństwa  Prawdopodobieństwo warunkowe 12

Przyk
lad
Rozważmy przyk lad zapalenia opon mózgowych, w skrócie ZOM (ang.
meningitis), poważnej choroby uk ladu nerwowego powodowanej zarówno przez
bakterie jak i wirusy, i objawiajacej sie, miedzy innymi, sztywnościa szyi.2

Za lożmy, że do lekarza zg lasza sie pacjent uskarżajacy sie na sztywność szyi.

Lekarz wie, że zapalenie opon mózgowych powoduje sztywność szyi w 50%. Zna
również pewne fakty obiektywne: prawdopodobieństwo zachorowania na ZOM
1
wynosi , a prawdopodobieństwo obudzenia sie pacjenta rano ze
50000
1
sztywnościa szyi wynosi . Oznaczajac zjawisko sztywności szyi przez S,
20
a ZOM przez Z mamy:
P (S|Z) = 0.5
P (Z) = 1/50000
P (S) = 1/20
2
Ten przyk lad, jak również szereg dalszych przyk ladów i diagramów zamieszczonych w tym wyk ladzie, za-
czerpniete zosta ly z podrecznika Russella i Norviga Artificial Intelligence A Modern Approach i materia lów


udostepnionych przez autorów w Internecie.

Przeglad pojeć z prawdopodobieństwa  Prawdopodobieństwo warunkowe 13

To jest typowa sytuacja, i zarazem sytuacja, kiedy przydaje sie regu la Bayes a.

Możemy zatem obliczyć:
P (S|Z)P (Z) 0.5 × 1/50000
P (Z|S) = = = 0.0002
P (S) 1/20
Jak widać, pomimo iż ZOM bardzo typowo powoduje sztywność szyi, to
prawdopodobieństwo tej choroby jest niskie nawet w sytuacji pojawienia sie

sztywności szyi. Wynika to oczywiście z bardzo niskiego bezwzglednego

prawdopodobieństwa wystapienia ZOM.

Należa loby wyjaśnić, dlaczego preferujemy obliczanie prawdopodobieństwa
warunkowego P (Z|S) z P (S|Z) zamiast określać interesujaca nas wartość

bezpośrednio. Wynika to z latwiejszej dostepności danych przyczynowych niż

diagnostycznych, których określanie może być z lożone. Na przyk lad, gdyby
wystapi la nag la epidemia ZOM, to wartość P (Z) gwa ltownie by wzros la, a za

nia również P (Z|S). Jednak wartość P (S|Z) powinno pozostać bez zmian,
ponieważ odzwierciedla ono fizjologie tej choroby. Zatem powyższe obliczenie

pozostaje s luszne, po uwzglednieniu zwiekszonej wartości P (Z).3

3
Zmianie ulegnie wtedy również wartość P (S) obliczane jako P (S|E), jednak możemy je obliczyć:
P (S|E) = P (S|Z, E)P (Z|E) + P (S|ŹZ, E)(1 - P (Z|E))
Przeglad pojeć z prawdopodobieństwa  Prawdopodobieństwo warunkowe 14

Regu Bayes a  niezależność warunków
la
Powróćmy do naszego pacjenta, z negatywnym wynikiem testu SARS. Być może
otrzymana wartość prawdopodobieństwa nie jest wystarczajaca do tego, aby

wypuścić pacjenta do domu. Wyobrazmy sobie, że istnieje drugi test o innych
charakterystykach, i oczywiście o innym rozk ladzie prawdopodobieństw.
Jeśli potraktujemy ten drugi test jako trzecia zmienna losowa, to po uzyskaniu

jego wyniku musimy obliczać prawdopodobieństwo SARS jako uwarunkowane
wynikami obu testów. W ogólnym przypadku jednak otrzymany wzór na
P (NZPSARS|Test1 '" Test2 ) bedzie uwzglednia l zależności pomiedzy wynikami

obu testów. To oznacza konieczność obliczania, w przypadku wielu zmiennych
losowych, dużej liczby prawdopodobieństw, co teoretycznie niweczy zalety
użycia prawdopodobieństwa warunkowego zamiast JPD.
Ważnym elementem jest zatem zauważenie, że wyniki obu
SARS
testów zależa tylko od wystepowania wirusa, a nie od siebie

nawzajem. Po uwzglednieniu tej obserwacji upraszczaja sie

wzory, i potrzebne jest tylko wyliczenie prawdopodobieństw
T1 T2
warunkowych wyników poszczególnych testów.
Przeglad pojeć z prawdopodobieństwa  Prawdopodobieństwo warunkowe 15

Przeglad pojeć z prawdopodobieństwa  Prawdopodobieństwo warunkowe 16

Sieci przekonań
Laczne rozk lady prawdopodobieństwa pozwalaja znajdować odpowiedzi na


pytania dotyczace dziedziny problemowej, lecz trudno sie nimi pos lugiwać przy

dużej liczbie zmiennych. Ponadto, określanie prawdopodobieństw dla zdarzeń
atomowych może być trudne, jeśli nie mamy przeprowadzonych kompleksowych
badań statystycznych.
Jak wynika z przedstawionego przyk ladu z wirusem SARS, można zbudować
graf przedstawiajacy rzeczywiste zależności miedzy zmiennymi losowymi, i po

wyznaczeniu ich prawdopodobieństw warunkowych efektywnie obliczać
wszystkie wartości prawdopodobieństw. Ściślej, siecia przekonań (belief network,
Bayesian network, probabilistic network) nazywamy nastepujacy graf:

" wez lami sieci sa zmienne losowe,

" luki (skierowane) sieci maja intuicyjne znaczenie: zmienna X ma


bezpośredni wp lyw na Y  ,
" każdy weze l X ma stowarzyszona z nim tablice prawdopodobieństw

warunkowych określajacych wp lyw wywierany na X przez jego rodziców

(poprzedników w grafie),
" sieć nie może mieć cykli (skierowanych).
Probabilistyczne sieci przekonań  Koncepcja 17
Konstrukcja sieci polega na wyznaczeniu jej topologii, oraz na określeniu
prawdopodobieństw warunkowych dla wez lów, dla których istnieja bezpośrednie

zależności. Idea sieci przekonań zasadza sie na wzglednej latwości, z jaka

możemy wyznaczać prawdopodobieństwa tych bezpośrednich zależności.
Prawdopodobieństwa innych zdarzeń bedziemy wyznaczać już z gotowej sieci.

Probabilistyczne sieci przekonań  Koncepcja 18
Sieci przekonań  przyk
lad
Przyk lad: system alarmowy w mieszkaniu, reaguje na w lamania oraz, niestety,
również na drobne trzesienia (ziemi). Sasiedzi John i Mary sa umówieni, żeby

zadzwonić do w laściciela gdy us lysza alarm, lecz John jest nadgorliwy i bierze
różne zdarzenia (np. dzwonek telefonu) za sygna l alarmowy (i wtedy zawsze
dzwoni), a Mary rozpoznaje alarm poprawnie, lecz czesto s lucha g lośnej muzyki

i może go w ogóle nie dos lyszeć. Bedzie nas interesować określenie

prawdopodobieństwa tego, że w razie w lamania ktoś zadzwoni, żeby nas
zawiadomić, jak również tego, że zawiadomienie o w lamaniu może być fa lszywe.
Burglary
Earthquake
Alarm
JohnCalls
MaryCalls
Probabilistyczne sieci przekonań  Koncepcja 19
Ignorujemy tutaj wiele istotnych czynników, np. to czy Mary s lucha w danej
chwili muzyke czy nie, ponieważ to może być niemożliwe do ustalenia,

i reprezentujemy ca la niepewność i nieokreśloność sytuacji
w prawdopodobieństwach warunkowych danych zmiennych losowych.
Ogólnie, musimy określić prawdopodobieństwa warunkowe dla zmiennych
losowych w zależności od innych zmiennych, które sa reprezentowane w naszej
sieci. Konkretnie, musimy określić prawdopodobieństwa warunkowe dla każdej
wartości zmiennej losowej X dla wszystkich kombinacji wartości zmiennych
losowych, od których zmienna X zależy.
Burglary Earthquake P(Alarm|Burglary,Earthquake)
(w lamanie) (trz.ziemi) True False
True True 0.950 0.050
True False 0.950 0.050
False True 0.290 0.710
False False 0.001 0.999
Probabilistyczne sieci przekonań  Koncepcja 20
Zestaw takich prawdopodobieństw tworzy tablice prawdopodobieństw

warunkowych (CPT  conditional probability table). Dla zmiennych, które nie
zależa od niczego musimy określić prawdopodobieństwa a priori. W takim
przypadku tabela CPT ma tylko jeden rzad z wartościami prawdopodobieństw

(odpowiadajacymi możliwym wartościom zmiennej losowej) sumujacymi sie do

1.0.
Kompletna sieć przekonań dla przyk ladu:
P(E)
P(B)
Burglary
Earthquake
.002
.001
B E P(A|B,E)
T T .95
Alarm
T F .94
F T .29
F F .001
A P(J|A)
A P(M|A)
T
.90
.70
JohnCalls T
MaryCalls
F
.05
.01
F
Probabilistyczne sieci przekonań  Koncepcja 21
Probabilistyczne sieci przekonań  Koncepcja 22
Konstrukcja sieci przekonań
Można widzieć sieć przekonań jako pewna reprezentacje lacznego rozk ladu

prawdopodobieństw zmiennych losowych. Ten rozk lad jest tabela określajaca

pojedyncze prawdopodobieństwa zdarzeń typu P (X1 = x1, ..., Xn = xn).
W skrócie zapisujemy to prawdopodobieństwo jako: P (x1, ..., xn). Korzystajac

z faktu, że prawdopodobieństwo koniunkcji możemy wyrazić przez iloczyn
prawdopodobieństw warunkowych przez prawdopodobieństwa zależności (wzór 3
na ekranie 9), mamy:
n
P (x1, ..., xn) = P (xi|Poprzedniki(Xi)) (5)
i=1
Zatem każda pozycja w tablicy prawdopodobieństwa lacznego jest iloczynem

odpowiednich elementów w tablicy CPT, czyli CPT jest elementarna
reprezentacja lacznego rozk ladu prawdopodobieństwa JPD.

Probabilistyczne sieci przekonań  Konstrukcja 23
Dla poprzedniego przyk ladu, obliczmy prawdopodobieństwo, że rozleg l sie

alarm, przy czym nie wystapi lo ani trzesienie ziemi ani w lamanie, ale

oboje John i Mary zadzwonili.
P (J '" M '" A '" ŹB '" ŹE)
= P (J|A)P (M|A)P (A|ŹB '" ŹE)P (ŹB)P (ŹE)
= 0.90 × 0.70 × 0.001 × 0.999 × 0.998
= 0.00062
W ten sposób można odpowiadać na dowolne zapytania wyliczajac pozycje

lacznego rozk ladu prawdopodobieństwa, np. przez wyliczenie ca lej tabeli JPD

(joint probability distribution), z tabeli CPT. Jednak jeśli mamy wiele
zmiennych to ta metoda jest bardzo pracoch lonna i istnieja bardziej
bezpośrednie i efektywne metody.
Probabilistyczne sieci przekonań  Konstrukcja 24
Algorytm budowy sieci przekonań
Otrzymany wzór na prawdopodobieństwo laczne można w ogólności przedstawić

w nastepujacy sposób:

P (x1, ..., xn) = P (xn|xn-1, ..., x1)P (xn-1, ..., x1)
= ...
= P (xn|xn-1, ..., x1) · · · P (x2|x1)P (x1)
n
= P (xi|xi-1, ..., x1)
i=1
Z porównania powyższego równania z równaniem 5 na ekranie 23 możemy
wyciagna ć wniosek, że:

P(Xi|Xi-1, ..., X1) = P (Xi|Poprzedniki(Xi)) (6)
o ile tylko Poprzedniki(Xi) Ä…" {xi-1, ..., x1}
Ostatnia zależność latwo jest osiagna ć numerujac zmienne losowe zgodnie


z cześciowym porzadkiem określonym przez luki na sieci.


Probabilistyczne sieci przekonań  Konstrukcja 25
Te wyniki można zinterpretować w ten sposób, że sieć przekonań jest poprawna
reprezentacja dziedziny pod warunkiem, że każdy weze l jest warunkowo

niezależny od swoich (dalszych) przodków, prócz bezpośrednich rodziców.
(Inaczej: ca la zależność jednej zmiennej od drugiej wyrażona jest w jawnej
zależności od rodziców, inne zależności sa wtórne.)
Wskazuje nam to w jaki wiec sposób musimy konstruować sieci przekonań.

Intuicyjnie, bezpośrednimi rodzicami wez la Xi powinny być wszystkie te wez ly

X1, ..., Xi-1, które bezpośrednio wp lywaja na Xi, i żadne inne.
Dla zmiennych z przedstawionego wcześniej przyk ladu, można przypuszczać, że
B wp lywa na M, ale nie wp lywa bezpośrednio. Można to podsumować
nastepujaco:

P(M|J, A, B, E) = P(M|A)
Probabilistyczne sieci przekonań  Konstrukcja 26
Ogólny algorytm konstrukcji sieci:
1. Wybierz zbiór zmiennych losowych Xi opisujacych dziedzine.

2. Wybierz porzadek na tych zmiennych.

3. Dopóty, dopóki pozosta ly jeszcze zmienne:
(a) Wybierz zmienna Xi, która zależy bezpośrednio tylko do zmiennych już
wybranych, i dodaj do sieci weze l dla niej

(b) Ustal Poprzedniki(Xi) jako minimalny zbiór wez lów już umieszczonych

w sieci, tak by by la spe lniona w lasność niezależności 6 na ekranie 25
(c) Określ prawdopodobieństwa warunkowe dla Xi.
Algorytm ten gwarantuje, że sieć nie bedzie mia la cykli, jak również, że nie beda

określane żadne nadmiarowe wartości prawdopodobieństw, które mog lyby
naruszyć aksjomaty prawdopodobieństwa (z wyjatkiem jednej dope lniajacej

liczby w każdym rzedzie).

Probabilistyczne sieci przekonań  Konstrukcja 27
Probabilistyczne sieci przekonań  Konstrukcja 28
Zwartość sieci i nieoptymalne porzadki wezlów

Sieci przekonań sa zwykle w naturalny sposób zwarte, ponieważ zwykle tylko
niewielka liczba zmiennych losowych, spośród być może wielkiej ich liczby,
wp lywa na każda pojedyncza zmienna.

Na przyk lad, dla sieci o n = 20 wez lach, w której maksymalna liczba

zależności dla wez lów wynosi k = 5, dla zmiennych binarnych tablice

CPT dla wez low beda mia ly maksymalnie 2k = 32 wartości

prawdopodobieÅ„stwa do okreÅ›lenia, co daje dla ca lej sieci n × 2k = 640
wartości. Kompletna tablica JPD ma 2n H" 1, 000, 000 wartości.
Ta oszczedność jest możliwa tylko wtedy, gdy zmienne maja bezpośrednia

zależność tylko od pewnej (ma lej) liczby innych zmiennych, czyli warunkowa
niezależność od wiekszości zmiennych. Gdyby zmienne w sieci mia ly zależności

od wszystkich innych zmiennych to reprezentacja tych zależności w postaci sieci
przekonań mia laby niewielki sens. Jednak w wiekszości zagadnień praktycznych

istnieje silna struktura problemu, która można w efektywny sposób wykorzystać
w budowie sieci.
Probabilistyczne sieci przekonań  Konstrukcja 29
Czasami można to osiagna ć, ignorujac pewne zależności o niewielkim

prawdopodobieństwie (np. bezpośredni wp lyw trzesień ziemi na fakt czy sasiedzi

zadzwonia czy nie, który może być znaczacy lub nie). Wprowadza to pewna

niedok ladność w sieci, ale może znacznie uprościć jej konstrukcje.

Jednak znacznie bardziej na zwartość wp lywa poprawne określenie porzadku

zmiennych.
MaryCalls
MaryCalls
JohnCalls
JohnCalls
Earthquake
Alarm
Burglary
Burglary
Alarm
Earthquake
Powyższe przyk lady ilustruja wyniki otrzymane z konstrukcji sieci przy
niew laściwej kolejności rozpatrywania wez lów (np. M,J,A,B,E).

Probabilistyczne sieci przekonań  Konstrukcja 30
Wnioskowanie w sieciach przekonań
Przyk lad wnioskowanie diagnostycznego: mamy sieć opisujaca podstawowe

zjawiska towarzyszace uruchamianiu samochodu. Stan poczatkowy: auto nie

chce odpalić. Mamy zdarzenia obserwowalne (wez ly zielone), i zdarzenia

identyfikujace konkluzje wnioskowania diagnostycznego (przyczyny awarii 

wez ly pomarańczone). Wez ly szare sa wez lami wewnetrznymi, które, opisujac

pewne zjawiska wewnetrzne i zależności, pozwalaja zmniejszyć wielkość sieci.

fanbelt
alternator
battery age
broken
broken
battery
no charging
dead
battery
fuel line starter
battery
no oil no gas
flat
blocked broken
meter
car won t
gas gauge
lights oil light dipstick
start
Probabilistyczne sieci przekonań  Wnioskowanie 31
Wnioskowanie w sieciach przekonań (2)
Bardziej rozbudowany przyk lad, s lużacy do przewidywania kosztów

odszkodowania (medical, liability, property), na podstawie danych z formularza
ubezpieczeniowego (pozosta le niewyszarzone wez ly).

SocioEcon
Age
GoodStudent
ExtraCar
Mileage
RiskAversion
VehicleYear
SeniorTrain
MakeModel
DrivingSkill
DrivingHist
Antilock
DrivQuality
AntiTheft
HomeBase
CarValue
Airbag
Accident
Ruggedness
Theft
OwnDamage
Cushioning
OwnCost
OtherCost
MedicalCost
LiabilityCost PropertyCost
Probabilistyczne sieci przekonań  Wnioskowanie 32
Wnioskowanie w sieciach przekonań (3)
Majac skonstruowana sieć przekonań możemy prowadzić różne procesy

wnioskowania ogólnie podpadajace pod nastepujacy schemat. Cześć zmiennych

losowych uznajemy za zmienne faktowe, i mamy dla nich dok ladne (pewne)
wartości. Inny zbiór zmiennych uznajemy za zmienne zapytaniowe i chcemy
dla nich obliczyć prawdopodobieństwo warunkowe wzgledem zmiennych

faktowych P(Zapytaniowe|F aktowe).
Jest naturalne, że zmiennymi faktowymi beda zmienne zwiazane z obserwacjami

agenta, a zmiennymi zapytaniowymi zmienne istotne dla podejmowania przez
agenta decyzji o jego akcjach. Jest to przyk lad wnioskowania
diagnostycznego.
To wnioskowanie nie zawsze zgodne jest z intuicjami ludzi odnośnie
prawdopodobieństwa. Na przyk lad, wiedzac, że J, chcemy obliczyć

P (B|J). Mylny tok rozumowania: jeśli alarm dzwoni to John prawie na
pewno do nas zadzwoni, a system alarmowy jest prawie 100%-owo
dok ladny, zatem P (B|J) bedzie duże, prawie 90%. Jednak to

wnioskowanie nie bierze pod uwage faktu, że trzesienia ziemi też

powoduja w laczenie sie systemu alarmowego (i telefon Johna), a sa

o wiele bardziej (50×) prawdopodobne. W rzeczywistoÅ›ci, gdy policzymy
Probabilistyczne sieci przekonań  Wnioskowanie 33
dok ladnie P (B|J) to otrzymamy wartość 0.016.
Za lóżmy dalej, że zaraz po telefonie Johna zadzwoni la do nas Mary.
Chcemy teraz obliczyć P (B|J '" M), która to wartość wzrasta tylko do
0.29. Podobnie P (A|J '" M) = 0.76 i P (E|J '" M) = 0.18.
Wnioskowanie diagnostyczne nie jest jednak jedynym rodzajem wnioskowania.
Innym rodzajem jest wnioskowanie przyczynowo-skutkowe polegajace na

określaniu prawdopodobieństwa skutków, gdy znamy przyczyny. Na przyk lad
P (J|B) = 0.86, P (M|B) = 0.67.
Jeszcze innym rodzajem wnioskowania jest wnioskowanie
miedzyprzyczynowe, np. wiemy A, określamy najpierw P (B|A) = 0.376.

Jednak gdybyśmy wiedzieli równocześnie, że E, wtedy P (B|A '" E) idzie w dó l
i wynosi tylko 0.003. Pomimo, iż w lamania i trzesienia ziemi sa niezależne,

wiedza o wystapieniu jednego zmniejsza szanse wystapienia drugiego.

Jak również możliwe sa inne schematy wnioskowania, np.
P (A|J '" ŹE) = 0.03 albo P (B|J '" ŹE) = 0.017.
Probabilistyczne sieci przekonań  Wnioskowanie 34
Ponadto, poza wyliczaniem wartości przekonań o wystapieniu pewnych faktów,

sieci przekonań moga s lużyć do innych procesów:
" Podejmowanie decyzji lacznie na podstawie prawdopodobieństw na sieci


i innych możliwości agenta.
" Określanie jakie inne fakty należy poznać aby uzyskać użyteczna informacje.

" Przeprowadzenie analizy czu lości w celu określenia, które elementy modelu
maja najwiekszy (krytyczny) wp lyw na wyniki.

" Wyjaśnianie i prezentacja wyników wnioskowania probabilistycznego
użytkownikowi.
Probabilistyczne sieci przekonań  Wnioskowanie 35


Wyszukiwarka

Podobne podstrony:
2 06 Przegl±d programowania w MFC
Tech tech chem11[31] Z5 06 u
srodki ochrony 06[1]
06 (184)
06
p356
06 (35)
Plakat WEGLINIEC Odjazdy wazny od 14 04 27 do 14 06 14
Mechanika Techniczna I Opracowanie 06

więcej podobnych podstron