Nai Sciaga 2009 cendrowska2, pjwstk PJLinka.pl, NAI


1. Budowa naiwnego klasyfikatora Bayesa wymaga:
-znajomości arności wszystkich atrybutów
-wykorzystania zbioru uczącego podczas klasyfikacji elementów ze zbioru testowego
2. Atrybuty symboliczne to atrybuty:
-które w przypadku użycia sieci neuronowych zostają zastąpione wartościami rzeczywistymi
3. Propagacja wsteczna może być użyta:
-żadna z powyższych odp
4. Anarnosć atrybutu to:
-liczba możliwych wartości atrybutu
5. Do grupowania danych wykorzystywane są:
-algorytm k centro idów
-sieć Kohonena
6. „Przecięcie” to termin wykorzystywany:
-w operacjach wykonywanych na zbiorach rozmytych
7. Podczas liczenia entropi w trakcie tworzenia binarnego drzewa decyzyjnego należy określić:
-częstość występowania wszystkich wartosci atrybutu
-arność atrybutu
8. Macierz wag sieci BAM:
-Może mieć na przekątnej zera
-powstaje po jednej epoce uczenia
9. Metoda propagacji wstecznej może być  uzyta dla sieci o następującej liczbie warst:
- o dowolnej liczbie warst
10. Zastosowanie perceptronowej metody uczenia jest możliwe:
-gdy siec nie ma warstw ukrytych
11. Metoda propagacji wstecznej może być uzyta dla sieci z neuronow mających:
- żadna z powyższych odpowiedzi
12. Funkcja tangensoidalna to przykład:
-bipolarnej, ciągłej funkcji aktywacji
13. Korekta wag w metodzie perceprtonowej zalezy od:
-wartosci sygnałów wejściowych
-od wartości oczekiwanej
14. Metoda perceptronowa to:
-inna nazwa dla metody delty
-metoda umożliwiająca korekte wag w procesie uczenia sieci jednowarstwowej
15. Sieci Kohonene i Hopfielda roznia się ze względu na:
-rodzaj funkcji aktywacji
16. W sieciach Kohonene przeprowadzenie uczenia jest możliwe:
-żadna z powyższych
17. W sieci Hopfielda:
-żadna z powyzszch
18. Sieci uczone metoda perceptronowi:
-mogą mieć funkcjie aktywacji stosowana w sieciach Kohonena
19. Przykładami sieci ze sprzężeniem zwrotnym są:
-sieci Kosko
20. Przykladem sieci umozliwjajacymi grupowanie danych są:
-siec Kohonena
-siec Fuzzy-ART

21.wstępna obróbka danych:

-wybielanie

- dyskretyzacja atrybutów ciaglych, calkowitych, porządkowych, o wartościach rzeczywistych

22.w celu skorygowania dowolnej wagi dowolnego neuronu warstwy ukrytej wielowarstwowej

sieci neuronowej podczas stosowania metody propagacji wstecznej należy znac:

-błędy neuronow warstwy nastepnej

-wagi neuronow warstwy poprzedniej,nastepnej

-wyjscia neuronow warstwy poprzedniej



Wyszukiwarka

Podobne podstrony:
Nai Sciaga 2009 cendrowska, pjwstk PJLinka.pl, NAI
nai-zadania kolokwium, pjwstk PJLinka.pl, materialy pliki
Dokumentacja, pjwstk PJLinka.pl, NAI
mul-sciaga, pjwstk PJLinka.pl, materialy pliki
jap-formy-czasownikow, pjwstk PJLinka.pl, materialy pliki
jap-ta-form, pjwstk PJLinka.pl, materialy pliki
VBA2, pjwstk PJLinka.pl, RBD
szb-odp, pjwstk PJLinka.pl, materialy pliki
sko1-materialy-lekcje, pjwstk PJLinka.pl, materialy pliki
Warunki zaliczenia RBD, pjwstk PJLinka.pl, RBD
sko1-materialy-lekcje, pjwstk PJLinka.pl, materialy pliki
grk-kolokwia2, pjwstk PJLinka.pl, materialy pliki
PLSQL, pjwstk PJLinka.pl, SBD
Warunki zaliczenia SBD, pjwstk PJLinka.pl, SBD
Encje3, pjwstk PJLinka.pl, SBD
asd-algorytmy na poprawke, pjwstk PJLinka.pl, materialy pliki

więcej podobnych podstron