1.W metodzie ICA generowane atrybuty powstają z oryginalnych atrybutów przez:
a) Liniowe transformacje
b) Nieliniowe funkcje aktywacji sztucznych neuronów
c) Liniowe lubl nieliniowe transformacje, w zależności od ustawień algorytmu
d) Nie jest to pytanie zasadne w przypadku ICA
2. Co nie jest prawdą w przypadku metody PCA:
a) Szukane atrybuty maksymalizują wariancje wszystkich danych ze wszystkich klas jednocześnie
b) Szukane atrybuty maksymalizują wariancję wszystkich danych w każdej klasie osobno a końcowa wariancja mierzona jest jako średnia z wariancji wewnątrzklasowych
c) Kolejne kierunki wyznaczane przez metodę PCA zawsze są ortogonalne do poprzednich
d) Metoda PCA może służyć jako metoda redukcji wymiarowości problemu
3. Jaka jest różnica między metodami PCA oraz ICA
a) ICA można zrealizować przez odpowiednią sieć neuronową, podczas gdy dla PCA nie wykorzystuje sie sieci neuronowych
b) PCA można zrealizować przez odpowiednią sieć neuronową, podczas gdy dla ICA nie wykorzystuje sie sieci neuronowych
c) ICA stara się znaleźć atrybuty statystycznie niezależne od siebie, podczas gdy PCA szuka atrybutów jedynie nie-skorelowanych.
d) PCA stara się znaleźć atrybuty statystycznie niezależne od siebie, podczas gdy ICA szuka atrybutów jedynie nie-skorelowanych
4. Wymiar Vapnika-Chervonenkisa jest to
a) Minimalny rozmiar zbioru, na którym można wykonać wszystkie możliwe dychotomiczne podziały
b) Maksymalny rozmiar zbioru, na którego elementach można wykonać wszystkie dychotomiczne podziały
c) Maksymalny rozmiar zbioru, na którego elementach można trenować dany klasyfikator
d) Minimalny rozmiar zbioru, na którego elementach można trenować dany klasyfikator
5. Wymiar Vapnika-Chervonenkisa służy do określenia
a) Wielkości przestrzeni hipotez dla danej rodziny klasyfikatorów
b) stopnia komplikacji problemu klasyfikacyjnego szacowanego na podstawie zbioru trenującego
c) stopnia komplikacji problemu klasyfikacyjnego szacowanego na podstawie zbioru testowego
d) stopnia komplikacji problemu klasyfikacyjnego szacowanego na podstawie zbioru atrybutów
6. Naiwny klasyfikator Bayessa zakłada
a) Brak korelacji między przykładami ze zbioru trenującego
b) Brak normalizacji danych części atrybutów
c) Normalizację wszystkich atrybutów
d) Warunkową statystyczną niezależność atrybutów
7. Teoretyczna optymalność klasyfikatora oparta na regule Bayessa wynika z:
a) Minimalizacji błędu uczenia
b) Minimalizacji kroswalidacyjnego oszacowania błędu testowego
c) Minimalizacji ryzyka całkowitego
d) Maksymalizacji marginesu klasyfikatora
8. Ryzyko całkowite klasyfikatora to:
a) Średnia wartość błędu na zbiorze testowym po wielokrotnym uczeniu klasyfikatora
b) Wartość oczekiwana przyjętej funkcji straty
c) Procent nieudanych prób uczenia klasyfikatora na danym zbiorze testowym
d) Pojęcie przeciwne do pojęcia wiarygodności klasyfikatora
9. Metoda bootstrap polega na
a) Wielokrotnym uczeniu tego samego klasyfikatora na podstawie losowych
początkowych ustawień parametrów tego klasyfikatora
b) Wielokrotnym uczeniu tego samego klasyfikatora na podstawie losowych zbiorów uczących tworzonych przez losowanie z powtórzeniami z oryginalego zbioru uczącego
c) Wielokrotnym uczeniu tego samego klasyfikatora na podstawie losowych zbiorów uczących tworzonych przez losowanie bez powtórzeń z oryginalnego zbioru uczącego
d) Wielokrotnym uczeniu tego samego klasyfikatora na podstawie przykładów, których atrybuty poddane zostały pseudolosowej normalizacji
10. Punkty na wykresie ROC to
a) Odpowiedzi tego samego klasyfikatora dla kolejnych przykładów testowych
b) Odpowiedzi kolejnych klasyfikatorów dla tego samego przykładu testowego
c) Oceny jakości działania kolejnych klasyfikatorów
d) Stopnie korelacji kolejnych klasyfikatorów z danymi uczącymi
11. Testowi medycznemu poddano 160 osób. Test wykrył chorobę u 100 osób, jednak wśród tych wykryć 30 było błędnych. Oznacza to, że:2
a) TN (true h) wynosi 60
b) TP (true positives) wynosi 60
c) FP (false ) wynosi 30
d) FN (false negatives) wynosi 30
12. Na bardzo słaby klasyfikator wskazuje wartość AUC (Area Under Curve):
a) Powyżej 1
b) Mniejsza od zera
c) Mniejsza niż 0,5
d) Większa niż 0,5
13. Wspólną cechą metod PCA, ICA oraz LDA jest:
a) Wykorzystanie nieliniowych transformacji oryginalnych atrybutów
b) Wykorzystanie liniowych transformacji oryginalnych atrybutów
c) Nie uwzględnia przynależności klasowej przykłdów
d) Ta sama funkcja oceny jakości generowanych atrybutów
14. Reguła Widrowa-Hoffa to reguła
a) Wyboru atrybutów korzystnych w danym problemie klasyfikacyjnym
b) Modyfikacji wag sztucznego neuronu
c) Porównywania dwóch lub więcej klasyfikatorów
d) Porównania dokładnie dwóch klasyfikatorów
15. Local binary Pattern to:
a) klasyfikator wykorzystywany w problemach, w których wszystkie atrybuty są binarne
b) Klasyfikator wykorzystywany w problemach, w których występują dwie klasy
c) Lokalny deskryptor obrazu operujący na pikselach z sąsiedztwa danego piksela
d) Lokalny deskryptor wykorzystujący transformacje fouriera
16. Falki Gabora są zlokalizowane, gdyż występuje w nich
a) Sinusoida
b) Cosinusoida
c) Funkcja typu “kapelusz Gaussa”
d) Transformacja Fouriera
17. Przecięcie histogramów to
a) Miara podobieństwa dwóch histogramów
b) Miara niepodobieństwa dwóch histogramów
c) Sposób minimalizacji histogramów
d) Sposób wizualizacji dwóch histogramów na jednym wykresie