Nai Sciaga 09蝞drowska


D

  1. Kt贸re z poni偶szych metod nale偶膮 do arsena艂u metod wst臋pnej obr贸bki danych:

Dyskretyzacja atrybut贸w ci膮g艂ych

Dyskretyzacja atrybut贸w ca艂kowitych

Dyskretyzacja atrybut贸w porz膮dkowych

Dyskretyzacja atrybut贸w o warto艣ciach rzeczywistych

  1. Kt贸ry z poni偶szych wzor贸w umo偶liwia obliczanie entropii:

0x01 graphic

0x01 graphic

  1. Atrybuty symboliczne to atrybuty

Kt贸re w przypadku u偶ycia sieci neuronowych zostaj膮 zast膮pione warto艣ciami rzeczywistymi

  1. Podczas krzy偶owania wykorzystano metod臋 CX

R1: 4 7 2 1 6 9 11 8 3 10 5

R2: 4 2 11 8 10 7 3 6 1 5 9

W zwi膮zku z tym zachodz膮 nast臋puj膮ce relacje mi臋dzy potomkami:

R2 = D1, R1=D2

R2!=D2, R1!=D1

  1. Budowa naiwnego klasyfikatora Bayesa wymaga

Znajomo艣ci arno艣ci wszystkich atrybut贸w

Obliczania entropii dla ka偶dego z atrybut贸w

Wykorzystania zbioru ucz膮cego podczas klasyfikacji element贸w ze zbioru tekstowego

  1. Do klasyfikacji wiersza danych

0x01 graphic
Do jakiej klasy zosta艂 zakwalifikowany 贸w wiersz, je艣li wiadomo, 偶e klasyfikator nie zwr贸ci艂 warto艣ci „nie wiem”?

Do klasy ACC. Drzewo poka偶e wynik ACC, poniewa偶 w takim przypadku zasugeruj臋 si臋 wi臋ksz膮 liczb膮 udzielonych odpowiedzi. UNACC = 20 < ACC=23

Warto艣膰 A1 i A2 jest podana i jedyn膮 nie wiedza A3 zatem rozpatruj膮c poddrzewo o korzeniu w A3:

acc= 23/43 unacc= 20/43 unacc<acc korze艅 zosta艂 zakwalifikowany do acc

  1. Poni偶sza macierz mog艂aby by膰 macierz膮 wag dw贸ch sieci neuronowych ze sprz臋偶eniem zwrotnym. Jakich? Jakie parametry tych sieci mo偶na okre艣li膰 z ca艂膮 pewno艣ci膮 na podstawi tej macierzy?

|0 1 3| Mo偶e przechowywa膰 do 7 obraz贸w, jest to si臋 Hopfilda, ma 3 neurony ………
|1 0 7| - jest symetryczna ma wyzerowan膮 przek膮tn膮
|3 7 0|

  1. W celu skorygowania dowolnej wagi dowolnego neuronu warstwy ukrytej wielowarstwowej sieci neuronowej podczas stosowania metod propagacji wstecznej nale偶y zna膰

B艂臋dy neuron贸w warstwy nast臋pnej

Wagi neuron贸w warstwy nast臋pnej

Wagi neuron贸w warstwy poprzedniej

Wyj艣cia neuron贸w warstwy poprzedniej

  1. Zaprojektuj klasyfikator poprawnie klasyfikuj膮cy poni偶sze punkty ze zbioru ucz膮cego. Dla jasnych kwadrat贸w na wyj艣ciu oczekiwana warto艣膰 1 a u偶yta funkcja ma by膰 funkcj膮 unipolarn膮.

0x01 graphic

y=x-1

x-y-1=0

[1,-1]

0x01 graphic
wagi 1, -1 oczekiwana 1

Funkcja aktywacji f(x) ={1 dla x<0 , 0 wpp

C

2 zad

0x01 graphic

Zostanie zaklasyfikowany do klasy UNACC bo przydzielenie w tym przypadku zale偶y od tego w jakiej klasie zosta艂o poprawnie zakwalifikowanych wi臋cej poprawnych element贸w.

5 zad

Do sporz膮dzenia wykresu pude艂kowego nale偶y oblicza膰:

Median臋

Zad 10 fuzzy -art.

0x01 graphic

Sie膰 ma 2 neurony, poniewa偶 s膮 dwa prostok膮ty, ka偶dy ma 4 wej艣cia

0x01 graphic

S

Propagacja wsteczna mo偶e by膰 u偶yta

    1. Tylko do sieci wielowarstwowych

    2. Do sieci jednowarstwowych

    3. Do sieci dowolnej funkcji aktywacji

    4. 呕ADNA Z POWY呕SZYCH

1. Budowa naiwnego klasyfikatora Bayesa wymaga:
-znajomo艣ci arno艣ci wszystkich atrybut贸w
-wykorzystania zbioru ucz膮cego podczas klasyfikacji element贸w ze zbioru testowego

2. Atrybuty symboliczne to atrybuty:
-kt贸re w przypadku u偶ycia sieci neuronowych zostaj膮 zast膮pione warto艣ciami rzeczywistymi

3. Propagacja wsteczna mo偶e by膰 u偶yta:
-偶adna z powy偶szych odp

4. Anarnos膰 atrybutu to:
-liczba mo偶liwych warto艣ci atrybutu

5. Do grupowania danych wykorzystywane s膮:
-algorytm k centro id贸w
-sie膰 Kohonena

6. „Przeci臋cie” to termin wykorzystywany:
-w operacjach wykonywanych na zbiorach rozmytych

7. Podczas liczenia entropi w trakcie tworzenia binarnego drzewa decyzyjnego nale偶y okre艣li膰:
-cz臋sto艣膰 wyst臋powania wszystkich wartosci atrybutu
-arno艣膰 atrybutu

8. Macierz wag sieci BAM:
-Mo偶e mie膰 na przek膮tnej zera
-powstaje po jednej epoce uczenia

9. Metoda propagacji wstecznej mo偶e by膰 聽uzyta dla sieci o nast臋puj膮cej liczbie warst:
- o dowolnej liczbie warst

10. Zastosowanie perceptronowej metody uczenia jest mo偶liwe:
-gdy siec nie ma warstw ukrytych

11. Metoda propagacji wstecznej mo偶e by膰 uzyta dla sieci z neuronow maj膮cych:
- 偶adna z powy偶szych odpowiedzi

12. Funkcja tangensoidalna to przyk艂ad:
-bipolarnej, ci膮g艂ej funkcji aktywacji

13. Korekta wag w metodzie perceprtonowej zalezy od:
-wartosci sygna艂贸w wej艣ciowych
-od warto艣ci oczekiwanej

14. Metoda perceptronowa to:
-inna nazwa dla metody delty
-metoda umo偶liwiaj膮ca korekte wag w procesie uczenia sieci jednowarstwowej

15. Sieci Kohonene i Hopfielda roznia si臋 ze wzgl臋du na:
-rodzaj funkcji aktywacji

16. W sieciach Kohonene przeprowadzenie uczenia jest mo偶liwe:
-偶adna z powy偶szych

17. W sieci Hopfielda:
-偶adna z powyzszch

18. Sieci uczone metoda perceptronowi:
-mog膮 mie膰 funkcjie aktywacji stosowana w sieciach Kohonena

19. Przyk艂adami sieci ze sprz臋偶eniem zwrotnym s膮:
-sieci Kosko

20. Przykladem sieci umozliwjajacymi grupowanie danych s膮:
-siec Kohonena
-siec Fuzzy-ART

21.wst臋pna obr贸bka danych:

-wybielanie

- dyskretyzacja atrybut贸w ciaglych, calkowitych, porz膮dkowych, o warto艣ciach rzeczywistych

22.w celu skorygowania dowolnej wagi dowolnego neuronu warstwy ukrytej wielowarstwowej

sieci neuronowej podczas stosowania metody propagacji wstecznej nale偶y znac:

-b艂臋dy neuronow warstwy nastepnej

-wagi neuronow warstwy poprzedniej,nastepnej

-wyjscia neuronow warstwy poprzedniej

s



Wyszukiwarka

Podobne podstrony:
Nai Sciaga 09?ndrowska
Nai Sciaga 2009 cendrowska2, pjwstk PJLinka.pl, NAI
Nai Sciaga 2009 cendrowska, pjwstk PJLinka.pl, NAI
nai-sciaga, UCZENIE SIECI JEDNOWARSTWOWEJ
NAI pytania egzaminacyjne TAK NIE sciaga
1 sciaga ppt
metro sciaga id 296943 Nieznany
艢CI膭GA HYDROLOGIA
AM2(sciaga) kolos1 id 58845 Nieznany
Narodziny nowo偶ytnego 艣wiata 艣ci膮ga
finanse sciaga
NAI A2 pytaniaKontrolne
Jak 艣ci膮ga膰 na maturze
艢ciaga Jackowski
Aparatura sciaga mini
OKB SCIAGA id 334551 Nieznany
Przedstaw dylematy moralne w艂adcy i w艂adzy w literaturze wybranych epok Sciaga pl
fizyczna sci膮ga(1)

wi臋cej podobnych podstron