te.
c. j.„ „„„.u „ w „,vw,w.j
I*'""** ' - -iw,,. kUvv
' “ " *W| “lUrurtu Im.,,- ,x.,i
Wwytlkl. jw/ykl.tly ,lm„„
£32" z*n.»yriv.>w,.r,.
IH /ony p«Kii|i|Hin
f. WuytrlilA p</yil.(ty i. /tMOtu UC44C.CO .1. pmykUUy łUcdoie kUłVI'Kow*rifl f„ Jc„mv
|h» tepoon ,tw.• ,./y w*<ik*/4 wji.,
U loiowy podship, pi/yil.dPw oc/.|cycli,
łonowa fi yc fi zwracaniem i|,o tyit,
pc/yModOw. klOr» <uj aktualnie błędnie klasyfikowano prtui uczony perceptron A<!torycfTi«n< modyfikacji w.-./: nouronu nlo Reguła Ojl
b. Reguł* Widrow.i Moffa Kp/;uI« Sancct.1 Reguł* Fttliera
Wykro* ROC na osiach {odpowiednio, po/iomoj i pionowej)
Proceflt niepoprawnie sklasyfikowanych przykładów / klasy pozytywnej o rot procent poprawnie zaklasyfikowanych przykładów / klasy negatywne/
Procent poprawnie zaklasyfikowanych przykładów z klasy pozytywnej oraz procent poprawnie zaklasyfikowanych przykładów z klasy negatywnej Procent niepoprawnie zaklasyfikowanych przykładów z klasy negatywnej oraz procent poprawnie zaklasyfikowanych przykładów z klasy
b.
c.
pozytywnej
Procent poprawnie zaklasyfikowanych przykładów z klasy negatywne; oraz procent poprawnie zaklasyfikowanych przykładów z klasy pozytywnej :tórej metodzie liczba kierunków, na które rzutuje się ęinalne dane zależy od liczby klas w rozważanym ile mi e?
U.
- < ••.1..CC ««*•.. wyi.Ht ?VH
>• W~KVIMZf->V .........
. '•« —■ Y<» ,~K< «»C* ,
' .....—-
7 * gf»*0ł®»ł'W -kry.,,. „
byc ułyt* Oo v “WW** ■***»» »rvM*
«io co najmniej jednego innego auypJtu ^'iT'*w*
Zapobiegania ».b*einbićl uczonych .
l**0 samego rozwiązania Szukania granicy decyzyjnej j»Vn kl»v*tftoto< „ liniowego prostopadłego do wyznaczonego kierunku
d J Stukania kierunku dobrze oddticUjącego«••.< •* probiernie klasy!ik^cyjnym z dwoma klasami 2S. Co nlę (psi prawd.-) w przypadku metody VCA
Szukane atrybuty maksymalizuj wariancje wszystkich danych le wszystkich klas Jednocześnie Szukane atrybuty maksymalizują wariancją wszystkich danych w każdej klasie osobno a końcowa wariancja mierzona Jest Jako Średnia z wariancji wewnątrzklasowych Kolejne kierunki wyznaczane przez metodę PCA. zawsze są ortogonalne do poprzednich Metoda PCA może służyć jako metoda redukcji wymiarowoic.i problemu Wymiar Vapnika-Chor\ionenklsa jest to
Minimalny rozmiar zbioru, na którego elementach można wykonać wszystkie możliwe dych oto miczne
z*.
b.
b.
d.
26.
a.
a. PCA £) LDA /CA I. LBP
nia wykorzystywane przy konstrukcji naiwnego katona Bayesa są często niespełnione w danym nie gdyż
Wartości atrybutów opisujących przykłady nie są odpowiednio znormalizowane Zbiór trenujący jest zbyt duży by klasyfikator ten był w praktyce użyteczny Atrybuty opisujące przykłady nie są od siebie warunkowo niezależne Problem posiada więcej niż dwie klasy tody przekształcenia atrybutów nie realizuje się )wiednią sieć neuronową
podziały
Maksymalny rozmiar zbioru, na którego elementach można wykonać wszystkie możliwe dychotomiczne podziały Maksymalny rozmiar zbioru. na którego elementach można trenować dany klasyfikator Minimalny rozmiar zbioru, na którego elemen można trenować dany klasyf ikator 27. Wymiar Vapnika-Chervonenkisa służy do określania Wielkości przestrzeni hipotez dla danej rod klasyfikatorów
Stopnia komplikacji problemu kiasyfikacy szacowanego na podstawie zbioru trenu Stopnia kompiikacji probiemu kiasyfikac szacowanego na podstawie zbioru test Stopnia komplikacji probiemu kiasyfik szacowanego na podstawie zbioru at
0
c.
d.
fmiar
b.
c.
d.
'A
A, LDA oraz ICA A orazICA i oraz PCA \ oraz LDA