1. Budowa naiwnego klasyfikatora Bayesa wymaga:
-znajomości arności wszystkich atrybutów
-wykorzystania zbioru uczącego podczas klasyfikacji elementów ze zbioru testowego
2. Atrybuty symboliczne to atrybuty:
-które w przypadku użycia sieci neuronowych zostają zastąpione wartościami rzeczywistymi
3. Propagacja wsteczna może być użyta:
-żadna z powyższych odp
4. Anarnosć atrybutu to:
-liczba możliwych wartości atrybutu
5. Do grupowania danych wykorzystywane są:
-algorytm k centro idów
-sieć Kohonena
6. „Przecięcie” to termin wykorzystywany:
-w operacjach wykonywanych na zbiorach rozmytych
7. Podczas liczenia entropi w trakcie tworzenia binarnego drzewa decyzyjnego należy określić:
-częstość występowania wszystkich wartosci atrybutu
-arność atrybutu
8. Macierz wag sieci BAM:
-Może mieć na przekątnej zera
-powstaje po jednej epoce uczenia
9. Metoda propagacji wstecznej może być uzyta dla sieci o następującej liczbie warst:
- o dowolnej liczbie warst
10. Zastosowanie perceptronowej metody uczenia jest możliwe:
-gdy siec nie ma warstw ukrytych
11. Metoda propagacji wstecznej może być uzyta dla sieci z neuronow mających:
- żadna z powyższych odpowiedzi
12. Funkcja tangensoidalna to przykład:
-bipolarnej, ciągłej funkcji aktywacji
13. Korekta wag w metodzie perceprtonowej zalezy od:
-wartosci sygnałów wejściowych
-od wartości oczekiwanej
14. Metoda perceptronowa to:
-inna nazwa dla metody delty
-metoda umożliwiająca korekte wag w procesie uczenia sieci jednowarstwowej
15. Sieci Kohonene i Hopfielda roznia się ze względu na:
-rodzaj funkcji aktywacji
16. W sieciach Kohonene przeprowadzenie uczenia jest możliwe:
-żadna z powyższych
17. W sieci Hopfielda:
-żadna z powyzszch
18. Sieci uczone metoda perceptronowi:
-mogą mieć funkcjie aktywacji stosowana w sieciach Kohonena
19. Przykładami sieci ze sprzężeniem zwrotnym są:
-sieci Kosko
20. Przykladem sieci umozliwjajacymi grupowanie danych są:
-siec Kohonena
-siec Fuzzy-ART
21.wstępna obróbka danych:
-wybielanie
- dyskretyzacja atrybutów ciaglych, calkowitych, porządkowych, o wartościach rzeczywistych
22.w celu skorygowania dowolnej wagi dowolnego neuronu warstwy ukrytej wielowarstwowej
sieci neuronowej podczas stosowania metody propagacji wstecznej należy znac:
-błędy neuronow warstwy nastepnej
-wagi neuronow warstwy poprzedniej,nastepnej
-wyjscia neuronow warstwy poprzedniej