Motywacja
Wiedza o świecie jaka posiada agent inteligentny jest z konieczności niepe lna
i niepewna. Nawet w przypadkach kiedy móg lby on zdobyć wiedze kompletna
i pewna, może to być niepraktyczne.
W sztucznej inteligencji od dawna próbowano budować mechanizmy
i formalizmy pozwalajace wnioskować i dzia lać w takich warunkach, poprzez
dodanie oszacowania wiarygodności posiadanych faktów do wnioskowania
logicznego. Przyk ladami moga być: logika modalna, logika trójwartościowa,
logiki niemonotoniczne, logika rozmyta, logika probabilistyczna, i inne.
Praktyczne zastosowania tych metod okazuja sie jednak ograniczone. Dopiero
stosunkowo niedawno wzros lo zainteresowanie wykorzystaniem
prawdopodobieństwem w sposób bezpośredni. To podejście przynios lo duży
sukces, i metody oparte na reprezentowaniu wiedzy agenta o świecie w postaci
prawdopodobieństw sa jednymi z najbardziej dynamicznie rozwijajacych sie
technik sztucznej inteligencji. W tym schemacie reprezentacji metoda
wnioskowania jest matematyczny rachunek prawdopodobieństwa.
Przeglad pojeć z prawdopodobieństwa Motywacja 1
Prawdopodobieństwo bezwarunkowe
Prawdopodobieństwo bezwarunkowe (a priori) określa liczbowo szanse
wystapienia jakiegoś zjawiska, gdy nie sa znane żadne okoliczności zwiazane
z tym zjawiskiem (np. czy ono w rzeczywistości sie wydarzy lo).
Graficzna wizualizacja zdarzeń i ich prawdopodobieństw:
P (A) = powierzchnia kó lka
P (ŹA) = dope lnienie do prostokata
A
ŹA
powierzchnia prostokata = 1
Np.: prawdopodobieństwo, że zg laszajacy sie do lekarza pacjent jest chory na
nietypowe zapalenie p luc SARS może wynosić P (NZPSARS) = 0.01
Jednak gdyby lekarz wiedzia l, że pacjent w laśnie przyjecha l z Hong-Kongu i mia l
typowe objawy nietypowego zapalenia p luc, to prawdopodobieństwo posiadania
przez niego choroby wywo lanej tym wirusem należa loby określić zupe lnie
inaczej.1
1
Wyjaśnienie: ten przyk lad powsta l w roku 2003 kiedy w Chinach szala la epidemia SARS.
Przeglad pojeć z prawdopodobieństwa Prawdopodobieństwo bezwarunkowe 2
Aksjomaty prawdopodobieństwa
" 0 d" P (A) d" 1
" P (True) = 1
" P (False) = 0
" P (A (" B) = P (A) + P (B) - P (A '" B)
P (A (" B)
P (A '" B)
P (B)
P (A)
P (T rue)
Przeglad pojeć z prawdopodobieństwa Prawdopodobieństwo bezwarunkowe 3
Wiecej o aksjomatach prawdopodobieństwa
Z danych aksjomatów można wyprowadzić wiele użytecznych zależności:
P (ŹA) = 1 - P (A) (1)
P (A) = P (A '" B) + P (A '" ŹB) (2)
(i inne).
Aksjomaty prawdopodobieństwa maja g leboki sens ścis le trzymanie sie ich
gwarantuje niepope lnienie b ledu w obstawianiu swoich szans. Inaczej mówiac,
gdyby w jakiejÅ› grze losowej agent zastosowa l w swoim rozumowaniu
prawdopodobieństwa naruszajace te aksjomaty, i gotów by l przyjmować zak lady
zgodne z tymi prawdopodobieństwami, to istnieje strategia obstawiania w tych
zak ladach, gwarantujaca wygrana jego przeciwnikowi.
Przeglad pojeć z prawdopodobieństwa Prawdopodobieństwo bezwarunkowe 4
Zmienne losowe
Zmienna losowa reprezentuje jakieś zjawisko losowe, które może przyjmować
wartości z pewnego zbioru (dziedziny zmiennej losowej).
Np.: chcac określić jaka bedzie dziś pogoda i z jakim prawdopodobieństwem,
możemy potraktować dzisiejsza pogode (PogodaDZIŚ) jako zmienna losowa,
której wartości należa do zbioru: {S lońce,Chmury,Deszcz,Śnieg}
Zestaw wartości prawdopodobieństw wszystkich możliwych wartości zmiennej
losowej nazywamy rozk
ladem prawdopodobieństwa tej zmiennej losowej.
Rozk lad prawdopodobieństwa dla zmiennej losowej PogodaDZIŚ można zapisać:
P(PogodaDZIÅš) = {0.8, 0.1, 0.09, 0.01}
Przeglad pojeć z prawdopodobieństwa Zmienne losowe 5
Laczny rozk
lad prawdopodobieństw
Możemy brać pod uwage kilka zmiennych losowych opisujacych różne zjawiska
losowe. Zdarzeniem atomowym nazywamy przypisanie wartości wszystkim
zmiennym losowym, czyli kombinacja tych wartości. Na przyk lad, dla dwóch
zmiennych losowych X i Y można skonstruować tabele zdarzeń atomowych:
X = x1 X = x2 . . . X = xn
Y = y1
Y = y2
. . .
Y = yk
Laczny rozk lad prawdopodobieństwa (JPD) dla zbioru zmiennych losowych jest
tabela prawdopodobieństw wszystkich zdarzeń atomowych. W polu tabeli
w rzedzie j i kolumnie i znajduje sie prawdopodobieństwo jednoczesnego
przyjecia przez zmienna X wartości xi i przez zmienna Y wartości yj, czyli
P (X = xi '" Y = yj). Sumujac w tej tabeli wzd luż rzedów lub kolumn możemy
otrzymać prawdopodobieństwa dla poszczególnych wartości pojedynczych
zmiennych. Suma wszystkich prawdopodobieństw ca lej tabeli daje 1.0.
Przeglad pojeć z prawdopodobieństwa Zmienne losowe 6
Pos
lugiwanie sie tabela JPD
Majac wype lniona tabele JPD możemy obliczać prawdopodobieństwa dowolnych
zdarzeń. Na przyk lad:
" Prawdopodobieństwo zdarzenia polegajacego na przyjeciu przez zmienna X
wartości xi P (X = xi) możemy obliczyć przez zsumowanie wszystkich wartości
w kolumnie i tabeli JPD.
" Prawdopodobieństwo zdarzenia polegajacego na tym, że zmienna X przyjmie
wartość xi lub że zmienna Y przyjmie wartość yj możemy obliczyć przez
zsumowanie wszystkich wartości w kolumnie i i rzedzie j tabeli JPD, liczac
zawartość pola (i, j) tabeli tylko raz. Jak widać wynik bedzie dok ladnie ten
sam, jak gdyby obliczać z tabeli wartości wed lug wzoru:
P (A (" B) = P (A) + P (B) - P (A '" B)
Jednak aby w ten sposób pos lugiwać sie prawdopodobieństwami musimy
obliczyć prawdopodobieństwa wszystkich zdarzeń atomowych, i kompletnie
wype lnić tabele JPD, co może być kosztowne.
Przeglad pojeć z prawdopodobieństwa Zmienne losowe 7
Obliczanie prawdopodobieństw atomowych
Skad pochodza dane o prawdopodobieństwach? Można je zgromadzić
statystycznie, można dokonać analizy i obliczyć jako inherentne cechy zjawiska
fizycznego, można również zwiazać te prawdopodobieństwa z agentem,
charakteryzujac jego punkt widzenia na świat.
Na przyk lad, jakie jest prawdopodobieństwo zdarzenia, że s lońce bedzie istnia lo
jutro? Można próbować to obliczyć na wiele sposobów, przyjmujac różne punkty
widzenia:
" nie da sie określić, bo nie sposób przeprowadzić niezbednych eksperymentów,
" poprzednie podobne eksperymenty dowodza, że s lońce zawsze istnieje,
wiec prawdopodobieństwo wynosi 1,
" prawdopodobieństwo wynosi 1 - gdzie jest prawdopodobieństwem
wybuchu gwiazdy danego dnia,
" prawdopodobieństwo wynosi (d + 1)/(d + 2) gdzie d jest liczba dni
dotychczasowego istnienia s lońca,
" prawdopodobieństwo można określić budujac model istnienia i rozpadu
s lońca na podstawie zachowania innych, podobnych gwiazd.
Przeglad pojeć z prawdopodobieństwa Zmienne losowe 8
Prawdopodobieństwo warunkowe
Prawdopodobieństwo warunkowe (a posteriori) P (A|B)
prawdopodobieństwo zdarzenia A obliczane tylko w sytuacjach, w których B
jest spe lnione. Jest zwiazane z bezwarunkowym wzorem:
P (A '" B)
P (A|B) = (3)
P (B)
Wzór ten można wyt lumaczyć nastepujaco: aby obliczyć prawdopodobieństwo
P (A|B) musimy wzia ć u lamek przypadków zdarzenia A '" B we wszystkich
przypadkach zdarzenia B.
P (A '" B)
P (B)
P (A)
Przeglad pojeć z prawdopodobieństwa Prawdopodobieństwo warunkowe 9
Inne wyt lumaczenie można przedstawić na podstawie wzoru odwróconego:
P (A '" B) = P (A|B)P (B)
Aby obliczyć P (A '" B) musimy wiedzieć, że nastapi lo B, i wiedzac to, wtedy
obliczyć prawdopodobieństwo A. Albo na odwrót.
Zauważmy, że prawdopodobieństwo warunkowe dla danego warunku spe lnia
wszystkie aksjomaty prawdopodobieństwa, a zatem posiada wszystkie w lasności
prawdopodobieństwa bezwarunkowego, na przyk lad:
P (A|B) + P (ŹA|B) = 1
Przeglad pojeć z prawdopodobieństwa Prawdopodobieństwo warunkowe 10
Dlaczego prawdopodobieństwo warunkowe?
Musimy pos lugiwać sie prawdopodobieństwem warunkowym, ilekroć chcemy
wyliczyć prawdopodobieństwo jakiegoś zdarzenia w sytuacji, gdy posiadamy
jaka ś wiedze o innych, być może zależnych zdarzeniach.
P (A) jest poprawnym prawdopodobieństwem zdarzenia A o ile nie posiadamy
żadnej wiedzy. Jeśli jednak wiemy, że B, to poprawnym prawdopodobieństwem
zdarzenia A jest P (A|B), a gdybyśmy dowiedzieli sie, że jeszcze C, to musimy
już pos lugiwać sie prawdopodobieństwem P (A|B '" C).
W ten sposób możemy uważać, że prawdopodobieństwo bezwarunkowe P (A)
jest prawdopodobieństwem warunkowym P (A|) w sytuacji, gdy nie posiadamy
żadnej wiedzy.
Prawdopodobieństwa warunkowe można obliczać z tablicy lacznego rozk ladu
prawdopodobieństwa JPD za pomoca wzoru 3.
Jednak nie tak sie zwykle robi.
Przeglad pojeć z prawdopodobieństwa Prawdopodobieństwo warunkowe 11
Regu Bayes a
la
Z dwukrotnego zastosowania wzoru 3 możemy uzyskać nastepujaca prosta
zależność, zwana regu la Bayes a, bedaca podstawa wielu procesów
wnioskowania probabilistycznego:
P (A|B)P (B)
P (B|A) = (4)
P (A)
Dlaczego ta regu la ma znaczenie? Wróćmy do przyk ladu z pacjentem
z objawami SARS, niezwykle groznej choroby. Za lóżmy, że u pewnego pacjenta
przeprowadzono test na obecność tego wirusa, który wypad l negatywnie. Dobra
wiadomość dla pacjenta? Niekoniecznie!
Przeprowadzony test jest być może dobry, ale nie jest ca lkowicie niezawodny. Na
przyk lad, może dawać wynik pozytywny w 95% przypadków obecności wirusa.
Co wiecej, w przypadkach braku wirusa SARS, ten sam test może dawać wynik
negatywny (czyli prawid lowy) w 90% przypadków.
Jakie jest zatem prawdopodobieństwo, że pacjent ma (albo nie ma) SARS?
Konieczne jest obliczenie prawdopodobieństwa warunkowego.
Przeglad pojeć z prawdopodobieństwa Prawdopodobieństwo warunkowe 12
Przyk
lad
Rozważmy przyk lad zapalenia opon mózgowych, w skrócie ZOM (ang.
meningitis), poważnej choroby uk ladu nerwowego powodowanej zarówno przez
bakterie jak i wirusy, i objawiajacej sie, miedzy innymi, sztywnościa szyi.2
Za lożmy, że do lekarza zg lasza sie pacjent uskarżajacy sie na sztywność szyi.
Lekarz wie, że zapalenie opon mózgowych powoduje sztywność szyi w 50%. Zna
również pewne fakty obiektywne: prawdopodobieństwo zachorowania na ZOM
1
wynosi , a prawdopodobieństwo obudzenia sie pacjenta rano ze
50000
1
sztywnościa szyi wynosi . Oznaczajac zjawisko sztywności szyi przez S,
20
a ZOM przez Z mamy:
P (S|Z) = 0.5
P (Z) = 1/50000
P (S) = 1/20
2
Ten przyk lad, jak również szereg dalszych przyk ladów i diagramów zamieszczonych w tym wyk ladzie, za-
czerpniete zosta ly z podrecznika Russella i Norviga Artificial Intelligence A Modern Approach i materia lów
udostepnionych przez autorów w Internecie.
Przeglad pojeć z prawdopodobieństwa Prawdopodobieństwo warunkowe 13
To jest typowa sytuacja, i zarazem sytuacja, kiedy przydaje sie regu la Bayes a.
Możemy zatem obliczyć:
P (S|Z)P (Z) 0.5 × 1/50000
P (Z|S) = = = 0.0002
P (S) 1/20
Jak widać, pomimo iż ZOM bardzo typowo powoduje sztywność szyi, to
prawdopodobieństwo tej choroby jest niskie nawet w sytuacji pojawienia sie
sztywności szyi. Wynika to oczywiście z bardzo niskiego bezwzglednego
prawdopodobieństwa wystapienia ZOM.
Należa loby wyjaśnić, dlaczego preferujemy obliczanie prawdopodobieństwa
warunkowego P (Z|S) z P (S|Z) zamiast określać interesujaca nas wartość
bezpośrednio. Wynika to z latwiejszej dostepności danych przyczynowych niż
diagnostycznych, których określanie może być z lożone. Na przyk lad, gdyby
wystapi la nag la epidemia ZOM, to wartość P (Z) gwa ltownie by wzros la, a za
nia również P (Z|S). Jednak wartość P (S|Z) powinno pozostać bez zmian,
ponieważ odzwierciedla ono fizjologie tej choroby. Zatem powyższe obliczenie
pozostaje s luszne, po uwzglednieniu zwiekszonej wartości P (Z).3
3
Zmianie ulegnie wtedy również wartość P (S) obliczane jako P (S|E), jednak możemy je obliczyć:
P (S|E) = P (S|Z, E)P (Z|E) + P (S|ŹZ, E)(1 - P (Z|E))
Przeglad pojeć z prawdopodobieństwa Prawdopodobieństwo warunkowe 14
Regu Bayes a niezależność warunków
la
Powróćmy do naszego pacjenta, z negatywnym wynikiem testu SARS. Być może
otrzymana wartość prawdopodobieństwa nie jest wystarczajaca do tego, aby
wypuścić pacjenta do domu. Wyobrazmy sobie, że istnieje drugi test o innych
charakterystykach, i oczywiście o innym rozk ladzie prawdopodobieństw.
Jeśli potraktujemy ten drugi test jako trzecia zmienna losowa, to po uzyskaniu
jego wyniku musimy obliczać prawdopodobieństwo SARS jako uwarunkowane
wynikami obu testów. W ogólnym przypadku jednak otrzymany wzór na
P (NZPSARS|Test1 '" Test2 ) bedzie uwzglednia l zależności pomiedzy wynikami
obu testów. To oznacza konieczność obliczania, w przypadku wielu zmiennych
losowych, dużej liczby prawdopodobieństw, co teoretycznie niweczy zalety
użycia prawdopodobieństwa warunkowego zamiast JPD.
Ważnym elementem jest zatem zauważenie, że wyniki obu
SARS
testów zależa tylko od wystepowania wirusa, a nie od siebie
nawzajem. Po uwzglednieniu tej obserwacji upraszczaja sie
wzory, i potrzebne jest tylko wyliczenie prawdopodobieństw
T1 T2
warunkowych wyników poszczególnych testów.
Przeglad pojeć z prawdopodobieństwa Prawdopodobieństwo warunkowe 15
Przeglad pojeć z prawdopodobieństwa Prawdopodobieństwo warunkowe 16
Sieci przekonań
Laczne rozk lady prawdopodobieństwa pozwalaja znajdować odpowiedzi na
pytania dotyczace dziedziny problemowej, lecz trudno sie nimi pos lugiwać przy
dużej liczbie zmiennych. Ponadto, określanie prawdopodobieństw dla zdarzeń
atomowych może być trudne, jeśli nie mamy przeprowadzonych kompleksowych
badań statystycznych.
Jak wynika z przedstawionego przyk ladu z wirusem SARS, można zbudować
graf przedstawiajacy rzeczywiste zależności miedzy zmiennymi losowymi, i po
wyznaczeniu ich prawdopodobieństw warunkowych efektywnie obliczać
wszystkie wartości prawdopodobieństw. Ściślej, siecia przekonań (belief network,
Bayesian network, probabilistic network) nazywamy nastepujacy graf:
" wez lami sieci sa zmienne losowe,
" luki (skierowane) sieci maja intuicyjne znaczenie: zmienna X ma
bezpośredni wp lyw na Y ,
" każdy weze l X ma stowarzyszona z nim tablice prawdopodobieństw
warunkowych określajacych wp lyw wywierany na X przez jego rodziców
(poprzedników w grafie),
" sieć nie może mieć cykli (skierowanych).
Probabilistyczne sieci przekonań Koncepcja 17
Konstrukcja sieci polega na wyznaczeniu jej topologii, oraz na określeniu
prawdopodobieństw warunkowych dla wez lów, dla których istnieja bezpośrednie
zależności. Idea sieci przekonań zasadza sie na wzglednej latwości, z jaka
możemy wyznaczać prawdopodobieństwa tych bezpośrednich zależności.
Prawdopodobieństwa innych zdarzeń bedziemy wyznaczać już z gotowej sieci.
Probabilistyczne sieci przekonań Koncepcja 18
Sieci przekonań przyk
lad
Przyk lad: system alarmowy w mieszkaniu, reaguje na w lamania oraz, niestety,
również na drobne trzesienia (ziemi). Sasiedzi John i Mary sa umówieni, żeby
zadzwonić do w laściciela gdy us lysza alarm, lecz John jest nadgorliwy i bierze
różne zdarzenia (np. dzwonek telefonu) za sygna l alarmowy (i wtedy zawsze
dzwoni), a Mary rozpoznaje alarm poprawnie, lecz czesto s lucha g lośnej muzyki
i może go w ogóle nie dos lyszeć. Bedzie nas interesować określenie
prawdopodobieństwa tego, że w razie w lamania ktoś zadzwoni, żeby nas
zawiadomić, jak również tego, że zawiadomienie o w lamaniu może być fa lszywe.
Burglary
Earthquake
Alarm
JohnCalls
MaryCalls
Probabilistyczne sieci przekonań Koncepcja 19
Ignorujemy tutaj wiele istotnych czynników, np. to czy Mary s lucha w danej
chwili muzyke czy nie, ponieważ to może być niemożliwe do ustalenia,
i reprezentujemy ca la niepewność i nieokreśloność sytuacji
w prawdopodobieństwach warunkowych danych zmiennych losowych.
Ogólnie, musimy określić prawdopodobieństwa warunkowe dla zmiennych
losowych w zależności od innych zmiennych, które sa reprezentowane w naszej
sieci. Konkretnie, musimy określić prawdopodobieństwa warunkowe dla każdej
wartości zmiennej losowej X dla wszystkich kombinacji wartości zmiennych
losowych, od których zmienna X zależy.
Burglary Earthquake P(Alarm|Burglary,Earthquake)
(w lamanie) (trz.ziemi) True False
True True 0.950 0.050
True False 0.950 0.050
False True 0.290 0.710
False False 0.001 0.999
Probabilistyczne sieci przekonań Koncepcja 20
Zestaw takich prawdopodobieństw tworzy tablice prawdopodobieństw
warunkowych (CPT conditional probability table). Dla zmiennych, które nie
zależa od niczego musimy określić prawdopodobieństwa a priori. W takim
przypadku tabela CPT ma tylko jeden rzad z wartościami prawdopodobieństw
(odpowiadajacymi możliwym wartościom zmiennej losowej) sumujacymi sie do
1.0.
Kompletna sieć przekonań dla przyk ladu:
P(E)
P(B)
Burglary
Earthquake
.002
.001
B E P(A|B,E)
T T .95
Alarm
T F .94
F T .29
F F .001
A P(J|A)
A P(M|A)
T
.90
.70
JohnCalls T
MaryCalls
F
.05
.01
F
Probabilistyczne sieci przekonań Koncepcja 21
Probabilistyczne sieci przekonań Koncepcja 22
Konstrukcja sieci przekonań
Można widzieć sieć przekonań jako pewna reprezentacje lacznego rozk ladu
prawdopodobieństw zmiennych losowych. Ten rozk lad jest tabela określajaca
pojedyncze prawdopodobieństwa zdarzeń typu P (X1 = x1, ..., Xn = xn).
W skrócie zapisujemy to prawdopodobieństwo jako: P (x1, ..., xn). Korzystajac
z faktu, że prawdopodobieństwo koniunkcji możemy wyrazić przez iloczyn
prawdopodobieństw warunkowych przez prawdopodobieństwa zależności (wzór 3
na ekranie 9), mamy:
n
P (x1, ..., xn) = P (xi|Poprzedniki(Xi)) (5)
i=1
Zatem każda pozycja w tablicy prawdopodobieństwa lacznego jest iloczynem
odpowiednich elementów w tablicy CPT, czyli CPT jest elementarna
reprezentacja lacznego rozk ladu prawdopodobieństwa JPD.
Probabilistyczne sieci przekonań Konstrukcja 23
Dla poprzedniego przyk ladu, obliczmy prawdopodobieństwo, że rozleg l sie
alarm, przy czym nie wystapi lo ani trzesienie ziemi ani w lamanie, ale
oboje John i Mary zadzwonili.
P (J '" M '" A '" ŹB '" ŹE)
= P (J|A)P (M|A)P (A|ŹB '" ŹE)P (ŹB)P (ŹE)
= 0.90 × 0.70 × 0.001 × 0.999 × 0.998
= 0.00062
W ten sposób można odpowiadać na dowolne zapytania wyliczajac pozycje
lacznego rozk ladu prawdopodobieństwa, np. przez wyliczenie ca lej tabeli JPD
(joint probability distribution), z tabeli CPT. Jednak jeśli mamy wiele
zmiennych to ta metoda jest bardzo pracoch lonna i istnieja bardziej
bezpośrednie i efektywne metody.
Probabilistyczne sieci przekonań Konstrukcja 24
Algorytm budowy sieci przekonań
Otrzymany wzór na prawdopodobieństwo laczne można w ogólności przedstawić
w nastepujacy sposób:
P (x1, ..., xn) = P (xn|xn-1, ..., x1)P (xn-1, ..., x1)
= ...
= P (xn|xn-1, ..., x1) · · · P (x2|x1)P (x1)
n
= P (xi|xi-1, ..., x1)
i=1
Z porównania powyższego równania z równaniem 5 na ekranie 23 możemy
wyciagna ć wniosek, że:
P(Xi|Xi-1, ..., X1) = P (Xi|Poprzedniki(Xi)) (6)
o ile tylko Poprzedniki(Xi) Ä…" {xi-1, ..., x1}
Ostatnia zależność latwo jest osiagna ć numerujac zmienne losowe zgodnie
z cześciowym porzadkiem określonym przez luki na sieci.
Probabilistyczne sieci przekonań Konstrukcja 25
Te wyniki można zinterpretować w ten sposób, że sieć przekonań jest poprawna
reprezentacja dziedziny pod warunkiem, że każdy weze l jest warunkowo
niezależny od swoich (dalszych) przodków, prócz bezpośrednich rodziców.
(Inaczej: ca la zależność jednej zmiennej od drugiej wyrażona jest w jawnej
zależności od rodziców, inne zależności sa wtórne.)
Wskazuje nam to w jaki wiec sposób musimy konstruować sieci przekonań.
Intuicyjnie, bezpośrednimi rodzicami wez la Xi powinny być wszystkie te wez ly
X1, ..., Xi-1, które bezpośrednio wp lywaja na Xi, i żadne inne.
Dla zmiennych z przedstawionego wcześniej przyk ladu, można przypuszczać, że
B wp lywa na M, ale nie wp lywa bezpośrednio. Można to podsumować
nastepujaco:
P(M|J, A, B, E) = P(M|A)
Probabilistyczne sieci przekonań Konstrukcja 26
Ogólny algorytm konstrukcji sieci:
1. Wybierz zbiór zmiennych losowych Xi opisujacych dziedzine.
2. Wybierz porzadek na tych zmiennych.
3. Dopóty, dopóki pozosta ly jeszcze zmienne:
(a) Wybierz zmienna Xi, która zależy bezpośrednio tylko do zmiennych już
wybranych, i dodaj do sieci weze l dla niej
(b) Ustal Poprzedniki(Xi) jako minimalny zbiór wez lów już umieszczonych
w sieci, tak by by la spe lniona w lasność niezależności 6 na ekranie 25
(c) Określ prawdopodobieństwa warunkowe dla Xi.
Algorytm ten gwarantuje, że sieć nie bedzie mia la cykli, jak również, że nie beda
określane żadne nadmiarowe wartości prawdopodobieństw, które mog lyby
naruszyć aksjomaty prawdopodobieństwa (z wyjatkiem jednej dope lniajacej
liczby w każdym rzedzie).
Probabilistyczne sieci przekonań Konstrukcja 27
Probabilistyczne sieci przekonań Konstrukcja 28
Zwartość sieci i nieoptymalne porzadki wezlów
Sieci przekonań sa zwykle w naturalny sposób zwarte, ponieważ zwykle tylko
niewielka liczba zmiennych losowych, spośród być może wielkiej ich liczby,
wp lywa na każda pojedyncza zmienna.
Na przyk lad, dla sieci o n = 20 wez lach, w której maksymalna liczba
zależności dla wez lów wynosi k = 5, dla zmiennych binarnych tablice
CPT dla wez low beda mia ly maksymalnie 2k = 32 wartości
prawdopodobieÅ„stwa do okreÅ›lenia, co daje dla ca lej sieci n × 2k = 640
wartości. Kompletna tablica JPD ma 2n H" 1, 000, 000 wartości.
Ta oszczedność jest możliwa tylko wtedy, gdy zmienne maja bezpośrednia
zależność tylko od pewnej (ma lej) liczby innych zmiennych, czyli warunkowa
niezależność od wiekszości zmiennych. Gdyby zmienne w sieci mia ly zależności
od wszystkich innych zmiennych to reprezentacja tych zależności w postaci sieci
przekonań mia laby niewielki sens. Jednak w wiekszości zagadnień praktycznych
istnieje silna struktura problemu, która można w efektywny sposób wykorzystać
w budowie sieci.
Probabilistyczne sieci przekonań Konstrukcja 29
Czasami można to osiagna ć, ignorujac pewne zależności o niewielkim
prawdopodobieństwie (np. bezpośredni wp lyw trzesień ziemi na fakt czy sasiedzi
zadzwonia czy nie, który może być znaczacy lub nie). Wprowadza to pewna
niedok ladność w sieci, ale może znacznie uprościć jej konstrukcje.
Jednak znacznie bardziej na zwartość wp lywa poprawne określenie porzadku
zmiennych.
MaryCalls
MaryCalls
JohnCalls
JohnCalls
Earthquake
Alarm
Burglary
Burglary
Alarm
Earthquake
Powyższe przyk lady ilustruja wyniki otrzymane z konstrukcji sieci przy
niew laściwej kolejności rozpatrywania wez lów (np. M,J,A,B,E).
Probabilistyczne sieci przekonań Konstrukcja 30
Wnioskowanie w sieciach przekonań
Przyk lad wnioskowanie diagnostycznego: mamy sieć opisujaca podstawowe
zjawiska towarzyszace uruchamianiu samochodu. Stan poczatkowy: auto nie
chce odpalić. Mamy zdarzenia obserwowalne (wez ly zielone), i zdarzenia
identyfikujace konkluzje wnioskowania diagnostycznego (przyczyny awarii
wez ly pomarańczone). Wez ly szare sa wez lami wewnetrznymi, które, opisujac
pewne zjawiska wewnetrzne i zależności, pozwalaja zmniejszyć wielkość sieci.
fanbelt
alternator
battery age
broken
broken
battery
no charging
dead
battery
fuel line starter
battery
no oil no gas
flat
blocked broken
meter
car won t
gas gauge
lights oil light dipstick
start
Probabilistyczne sieci przekonań Wnioskowanie 31
Wnioskowanie w sieciach przekonań (2)
Bardziej rozbudowany przyk lad, s lużacy do przewidywania kosztów
odszkodowania (medical, liability, property), na podstawie danych z formularza
ubezpieczeniowego (pozosta le niewyszarzone wez ly).
SocioEcon
Age
GoodStudent
ExtraCar
Mileage
RiskAversion
VehicleYear
SeniorTrain
MakeModel
DrivingSkill
DrivingHist
Antilock
DrivQuality
AntiTheft
HomeBase
CarValue
Airbag
Accident
Ruggedness
Theft
OwnDamage
Cushioning
OwnCost
OtherCost
MedicalCost
LiabilityCost PropertyCost
Probabilistyczne sieci przekonań Wnioskowanie 32
Wnioskowanie w sieciach przekonań (3)
Majac skonstruowana sieć przekonań możemy prowadzić różne procesy
wnioskowania ogólnie podpadajace pod nastepujacy schemat. Cześć zmiennych
losowych uznajemy za zmienne faktowe, i mamy dla nich dok ladne (pewne)
wartości. Inny zbiór zmiennych uznajemy za zmienne zapytaniowe i chcemy
dla nich obliczyć prawdopodobieństwo warunkowe wzgledem zmiennych
faktowych P(Zapytaniowe|F aktowe).
Jest naturalne, że zmiennymi faktowymi beda zmienne zwiazane z obserwacjami
agenta, a zmiennymi zapytaniowymi zmienne istotne dla podejmowania przez
agenta decyzji o jego akcjach. Jest to przyk lad wnioskowania
diagnostycznego.
To wnioskowanie nie zawsze zgodne jest z intuicjami ludzi odnośnie
prawdopodobieństwa. Na przyk lad, wiedzac, że J, chcemy obliczyć
P (B|J). Mylny tok rozumowania: jeśli alarm dzwoni to John prawie na
pewno do nas zadzwoni, a system alarmowy jest prawie 100%-owo
dok ladny, zatem P (B|J) bedzie duże, prawie 90%. Jednak to
wnioskowanie nie bierze pod uwage faktu, że trzesienia ziemi też
powoduja w laczenie sie systemu alarmowego (i telefon Johna), a sa
o wiele bardziej (50×) prawdopodobne. W rzeczywistoÅ›ci, gdy policzymy
Probabilistyczne sieci przekonań Wnioskowanie 33
dok ladnie P (B|J) to otrzymamy wartość 0.016.
Za lóżmy dalej, że zaraz po telefonie Johna zadzwoni la do nas Mary.
Chcemy teraz obliczyć P (B|J '" M), która to wartość wzrasta tylko do
0.29. Podobnie P (A|J '" M) = 0.76 i P (E|J '" M) = 0.18.
Wnioskowanie diagnostyczne nie jest jednak jedynym rodzajem wnioskowania.
Innym rodzajem jest wnioskowanie przyczynowo-skutkowe polegajace na
określaniu prawdopodobieństwa skutków, gdy znamy przyczyny. Na przyk lad
P (J|B) = 0.86, P (M|B) = 0.67.
Jeszcze innym rodzajem wnioskowania jest wnioskowanie
miedzyprzyczynowe, np. wiemy A, określamy najpierw P (B|A) = 0.376.
Jednak gdybyśmy wiedzieli równocześnie, że E, wtedy P (B|A '" E) idzie w dó l
i wynosi tylko 0.003. Pomimo, iż w lamania i trzesienia ziemi sa niezależne,
wiedza o wystapieniu jednego zmniejsza szanse wystapienia drugiego.
Jak również możliwe sa inne schematy wnioskowania, np.
P (A|J '" ŹE) = 0.03 albo P (B|J '" ŹE) = 0.017.
Probabilistyczne sieci przekonań Wnioskowanie 34
Ponadto, poza wyliczaniem wartości przekonań o wystapieniu pewnych faktów,
sieci przekonań moga s lużyć do innych procesów:
" Podejmowanie decyzji lacznie na podstawie prawdopodobieństw na sieci
i innych możliwości agenta.
" Określanie jakie inne fakty należy poznać aby uzyskać użyteczna informacje.
" Przeprowadzenie analizy czu lości w celu określenia, które elementy modelu
maja najwiekszy (krytyczny) wp lyw na wyniki.
" Wyjaśnianie i prezentacja wyników wnioskowania probabilistycznego
użytkownikowi.
Probabilistyczne sieci przekonań Wnioskowanie 35
Wyszukiwarka
Podobne podstrony:
2 06 Przegl±d programowania w MFCTech tech chem11[31] Z5 06 usrodki ochrony 06[1]06 (184)06p35606 (35)Plakat WEGLINIEC Odjazdy wazny od 14 04 27 do 14 06 14Mechanika Techniczna I Opracowanie 06więcej podobnych podstron