MSI1011 6 k


K. Ciupke 2010
2
yródła wiedzy
specjaliści z danej dziedziny
5. Pozyskiwanie wiedzy
przykłady uczące
1
K. Ciupke 2010
4
Przykłady uczące
o aura temperatura wilgotność wiatr gra(o)
1 słoneczna ciepło duża słaby 0
2 słoneczna ciepło duża silny 0
Uczenie się maszyn 3 pochmurna ciepło duża słaby 1
4 deszczowa umiarkowanie duża słaby 1
5 deszczowa zimno normalna słaby 1
Czy maszyna może się uczyć?
6 deszczowa zimno normalna silny 0
7 pochmurna zimno normalna silny 1
8 słoneczna umiarkowanie duża słaby 0
9 słoneczna zimno normalna słaby 1
10 deszczowa umiarkowanie normalna słaby 1
11 słoneczna umiarkowanie normalna silny 1
12 pochmurna umiarkowanie duża silny 1
13 pochmurna ciepło normalna słaby 1
3
14 deszczowa umiarkowanie duża silny 0
K. Ciupke 2010 K. Ciupke 2010
5 6
Pozyskiwanie wiedzy Zastosowanie pozyskanej wiedzy
o aura temperatura wilgotność wiatr gra(o)
15 deszczowa ciepło duża słaby ?
1
{1,2,3,4,5,6,7,8,9,10,11,12,13,14}
aura aura
słon. deszcz. słon. deszcz.
pochm. pochm.
{1,2,8,9,11} {4,5,6,10,14}
{3,7,12,13}
wilgotność wiatr wilgotność wiatr
1 1
normalna duża słaby silny normalna duża słaby silny
{9,11} {1,2,8} {4,5,10} {6,14}
1 0 1 0 1 0 1 0
1
K. Ciupke 2010 K. Ciupke 2010
7 8
Tworzenie struktury drzewa Tworzenie struktury drzewa
y2 y2
2 2
1 1 2 1 1 2
Jeden zbiór danych wiele możliwych drzew
1 1
2 2 2 2
1 2 1 2
a1 a1
Czym należy się kierować wybierając
2 2 2 2
(tworząc) drzewo? 2 2
2 2
Główna zasada:
y1 y1
wybierz atrybut, który dzieli zbiór trenujący
a2 a3
na możliwie najbardziej  czyste podzbiory
y2 < a1 y1< a3
Kryteria wyboru atrybutu:
tak nie tak nie
" przyrost informacji
2 2
y1 < a2 y2 < a1
" wskaznik przyrostu informacji
" wskaznikiem zróżnicowania danych
tak nie tak nie
" ...
1 2 2 1
K. Ciupke 2010 K. Ciupke 2010
9 10
Przycinanie drzew Przycinanie drzew
Cel:
1
unikanie nadmiernego dopasowania
klasyfikatora do danych 0,8
0,6
zbiór trenujący
y2
zbiór testowy
1 0,4
1 11 2 2
1
2 2
0,2
1 2
1
2 2
0
2
2
5 20 40 60 80
2 1
liczba węzłów
y1
K. Ciupke 2010
12
Komórki nerwowe (neurony)
Dendryty
Sztuczne sieci neuronowe
Synapsy
Ciało komórki
Jądro
Akson
Dendryty innych
neuronów
11
2
poprawno
ść
klasyfikacji
K. Ciupke 2010 K. Ciupke 2010
13 14
Sztuczny neuron Funkcja progowa (aktywacji)
Dendryty Akson
K. Ciupke 2010 K. Ciupke 2010
15 16
Funkcja progowa Modyfikacja wag
K. Ciupke 2010 K. Ciupke 2010
17 18
Trenowanie sieci Trenowanie sieci
Dane trenujące (przykłady)
" t1 = {x1, z1}={x1,1, x1,2, & , x1,N, z1}
" t2 = {x2, z2}={x2,1, x2,2, & , x2,N, z2}
" &
x
w y
Kryterium
" R=Ł(zi  yi)2 min
" ri = (zi  yi)2
(z  y)2 z
3
K. Ciupke 2010 K. Ciupke 2010
19 20
Sieć wielowarstwowa Sieć wielowarstwowa
K. Ciupke 2010 K. Ciupke 2010
21 22
Wsteczna propagacja błędu Testowanie sieci
K. Ciupke 2010 K. Ciupke 2010
23 24
Zalety i wady SSN Zastosowania SSN
Zalety Wady Rozpoznawanie wzorców
zrozumiała koncepcja zawsze istnieje
Klasyfikowanie obiektów
rozwiązanie
prostota stosowania
Prognozowanie i ocena ryzyka
trudna ocena jakości
uniwersalne
ekonomicznego
rozwiązania
zastosowania
Prognozowanie (giełdy, waluty, energia
 czarna skrzynka -
dostępne skuteczne
elektryczna)
wagi nie mają
oprogramowanie
Ocena zdolności kredytowej podmiotów
interpretacji
Diagnostyka medyczna
Prognozowanie sprzedaży
&
[http://neuralnets.eu]
4


Wyszukiwarka

Podobne podstrony:
MSI1011 2 k
MSI1011 7 k
MSI1011 1 k

więcej podobnych podstron