D
Kt贸re z poni偶szych metod nale偶膮 do arsena艂u metod wst臋pnej obr贸bki danych:
Dyskretyzacja atrybut贸w ci膮g艂ych
Dyskretyzacja atrybut贸w ca艂kowitych
Dyskretyzacja atrybut贸w porz膮dkowych
Dyskretyzacja atrybut贸w o warto艣ciach rzeczywistych
Kt贸ry z poni偶szych wzor贸w umo偶liwia obliczanie entropii:
Atrybuty symboliczne to atrybuty
Kt贸re w przypadku u偶ycia sieci neuronowych zostaj膮 zast膮pione warto艣ciami rzeczywistymi
Podczas krzy偶owania wykorzystano metod臋 CX
R1: 4 7 2 1 6 9 11 8 3 10 5
R2: 4 2 11 8 10 7 3 6 1 5 9
W zwi膮zku z tym zachodz膮 nast臋puj膮ce relacje mi臋dzy potomkami:
R2 = D1, R1=D2
R2!=D2, R1!=D1
Budowa naiwnego klasyfikatora Bayesa wymaga
Znajomo艣ci arno艣ci wszystkich atrybut贸w
Obliczania entropii dla ka偶dego z atrybut贸w
Wykorzystania zbioru ucz膮cego podczas klasyfikacji element贸w ze zbioru tekstowego
Do klasyfikacji wiersza danych
Do jakiej klasy zosta艂 zakwalifikowany 贸w wiersz, je艣li wiadomo, 偶e klasyfikator nie zwr贸ci艂 warto艣ci „nie wiem”?
Do klasy ACC. Drzewo poka偶e wynik ACC, poniewa偶 w takim przypadku zasugeruj臋 si臋 wi臋ksz膮 liczb膮 udzielonych odpowiedzi. UNACC = 20 < ACC=23
Warto艣膰 A1 i A2 jest podana i jedyn膮 nie wiedza A3 zatem rozpatruj膮c poddrzewo o korzeniu w A3:
acc= 23/43 unacc= 20/43 unacc<acc korze艅 zosta艂 zakwalifikowany do acc
Poni偶sza macierz mog艂aby by膰 macierz膮 wag dw贸ch sieci neuronowych ze sprz臋偶eniem zwrotnym. Jakich? Jakie parametry tych sieci mo偶na okre艣li膰 z ca艂膮 pewno艣ci膮 na podstawi tej macierzy?
|0 1 3| Mo偶e przechowywa膰 do 7 obraz贸w, jest to si臋 Hopfilda, ma 3 neurony ………
|1 0 7| - jest symetryczna ma wyzerowan膮 przek膮tn膮
|3 7 0|
W celu skorygowania dowolnej wagi dowolnego neuronu warstwy ukrytej wielowarstwowej sieci neuronowej podczas stosowania metod propagacji wstecznej nale偶y zna膰
B艂臋dy neuron贸w warstwy nast臋pnej
Wagi neuron贸w warstwy nast臋pnej
Wagi neuron贸w warstwy poprzedniej
Wyj艣cia neuron贸w warstwy poprzedniej
Zaprojektuj klasyfikator poprawnie klasyfikuj膮cy poni偶sze punkty ze zbioru ucz膮cego. Dla jasnych kwadrat贸w na wyj艣ciu oczekiwana warto艣膰 1 a u偶yta funkcja ma by膰 funkcj膮 unipolarn膮.
y=x-1
x-y-1=0
[1,-1]
wagi 1, -1 oczekiwana 1
Funkcja aktywacji f(x) ={1 dla x<0 , 0 wpp
C
2 zad
Zostanie zaklasyfikowany do klasy UNACC bo przydzielenie w tym przypadku zale偶y od tego w jakiej klasie zosta艂o poprawnie zakwalifikowanych wi臋cej poprawnych element贸w.
5 zad
Do sporz膮dzenia wykresu pude艂kowego nale偶y oblicza膰:
Median臋
Zad 10 fuzzy -art.
Sie膰 ma 2 neurony, poniewa偶 s膮 dwa prostok膮ty, ka偶dy ma 4 wej艣cia
S
Propagacja wsteczna mo偶e by膰 u偶yta
Tylko do sieci wielowarstwowych
Do sieci jednowarstwowych
Do sieci dowolnej funkcji aktywacji
呕ADNA Z POWY呕SZYCH
1. Budowa naiwnego klasyfikatora Bayesa wymaga:
-znajomo艣ci arno艣ci wszystkich atrybut贸w
-wykorzystania zbioru ucz膮cego podczas klasyfikacji element贸w ze zbioru testowego
2. Atrybuty symboliczne to atrybuty:
-kt贸re w przypadku u偶ycia sieci neuronowych zostaj膮 zast膮pione warto艣ciami rzeczywistymi
3. Propagacja wsteczna mo偶e by膰 u偶yta:
-偶adna z powy偶szych odp
4. Anarnos膰 atrybutu to:
-liczba mo偶liwych warto艣ci atrybutu
5. Do grupowania danych wykorzystywane s膮:
-algorytm k centro id贸w
-sie膰 Kohonena
6. „Przeci臋cie” to termin wykorzystywany:
-w operacjach wykonywanych na zbiorach rozmytych
7. Podczas liczenia entropi w trakcie tworzenia binarnego drzewa decyzyjnego nale偶y okre艣li膰:
-cz臋sto艣膰 wyst臋powania wszystkich wartosci atrybutu
-arno艣膰 atrybutu
8. Macierz wag sieci BAM:
-Mo偶e mie膰 na przek膮tnej zera
-powstaje po jednej epoce uczenia
9. Metoda propagacji wstecznej mo偶e by膰 聽uzyta dla sieci o nast臋puj膮cej liczbie warst:
- o dowolnej liczbie warst
10. Zastosowanie perceptronowej metody uczenia jest mo偶liwe:
-gdy siec nie ma warstw ukrytych
11. Metoda propagacji wstecznej mo偶e by膰 uzyta dla sieci z neuronow maj膮cych:
- 偶adna z powy偶szych odpowiedzi
12. Funkcja tangensoidalna to przyk艂ad:
-bipolarnej, ci膮g艂ej funkcji aktywacji
13. Korekta wag w metodzie perceprtonowej zalezy od:
-wartosci sygna艂贸w wej艣ciowych
-od warto艣ci oczekiwanej
14. Metoda perceptronowa to:
-inna nazwa dla metody delty
-metoda umo偶liwiaj膮ca korekte wag w procesie uczenia sieci jednowarstwowej
15. Sieci Kohonene i Hopfielda roznia si臋 ze wzgl臋du na:
-rodzaj funkcji aktywacji
16. W sieciach Kohonene przeprowadzenie uczenia jest mo偶liwe:
-偶adna z powy偶szych
17. W sieci Hopfielda:
-偶adna z powyzszch
18. Sieci uczone metoda perceptronowi:
-mog膮 mie膰 funkcjie aktywacji stosowana w sieciach Kohonena
19. Przyk艂adami sieci ze sprz臋偶eniem zwrotnym s膮:
-sieci Kosko
20. Przykladem sieci umozliwjajacymi grupowanie danych s膮:
-siec Kohonena
-siec Fuzzy-ART
21.wst臋pna obr贸bka danych:
-wybielanie
- dyskretyzacja atrybut贸w ciaglych, calkowitych, porz膮dkowych, o warto艣ciach rzeczywistych
22.w celu skorygowania dowolnej wagi dowolnego neuronu warstwy ukrytej wielowarstwowej
sieci neuronowej podczas stosowania metody propagacji wstecznej nale偶y znac:
-b艂臋dy neuronow warstwy nastepnej
-wagi neuronow warstwy poprzedniej,nastepnej
-wyjscia neuronow warstwy poprzedniej
s