1 neurony cz 1 EGSYF7USN66AZBOHCP5NUY5GHYOFE6W7LBVHMBI


Laboratorium Przetwarzania Dźwięków I Obrazów

Ćwiczenie nr 1

Badanie struktur i algorytmów sieci neuronowych cz.I.

Wykonali: Adam Wiechnik SiST

Mariusz Szulc SiST

Celem ćwiczenia było zapoznanie nas ze strukturą sieci neuronowych oraz z procesem uczenia sieci neuronowych. W ćwiczeniu wykorzystywaliśmy następujące konfiguracje sieci: model dyskretnego dychotomizatora

model sieci jednowarstwowej z regułą delta

model sieci z propagacją wsteczną błędu.

1. Badanie dyskretnego dychotomizatora

Dla zbiorów uczących dych_1.pat oraz dych_2.pat określiliśmy równania linii separujących elementy należące do różnych klas:

Klasa 1: 0x01 graphic

Klasa 2: 0x01 graphic

zatem odpowiednie wektory wag są postaci :

0x01 graphic
0x01 graphic

Na dyskietce zawarliśmy przebieg naszych prac w pliku dyskr.pat.

2. Badanie sieci jednowarstwowej z regułą delta

Dla zbioru uczącego sl_1.pat zmienialiśmy wartość współczynnika szybkości nauki η Zaobserwowaliśmy następujący fakt, iż wraz ze wzrostem współczynnika η nauka sieci przebiega szybciej, co ilościowo przedstawiała liczba iteracji.

Poniżej przedstawiamy zależność ilości iteracji w zależności od współczynnika η dla funkcji bipolarnej oraz unipolarnej:

funkcja unipolarna funkcja bipolarna

η= 0,5 - 443 iteracje η= 0,5 - 196 iteracji

η=1 -- 222 iteracji η=1 - 133 iteracji

η=2 - 108 iteracji η=2 - 19 iteracje

Zauważyliśmy także że dla proces nauki sieci jest szybszy dla funkcji bipolarnej aktywacji neuronu. Liczba iteracji nieznacznie się różniła dla poszczególnych wartości współczynnika η. Dla zbioru uczącego sl_2.pat trening sieci nie był możliwy - nie można było dobrać odpowiedniego zestawu parametrów, nawet po zwiększaniu ilości iteracji trening sieci nie mógł dobiec do końca. Zapis jednej z sesji jest dołączony na dyskietce w pliku sie-jed.pat

3. Badanie sieci z propagacją wsteczną błędu

Wykorzystując zbiór bp.pat dla wybranych wartości współczynnika η oraz zmiennej ilości neuronów badaliśmy naukę sieci. Ponadto stosowaliśmy dwie funkcje aktywacji neuronu: bipolarną i unipolarną. Na podstawie obserwacji wysnuliśmy następujące wnioski:

Przykładowo dla parametrów η=1

α=0.15

funkcja bipolarna

50 neuronów w warstwie ukrytej

przeprowadziliśmy proces nauki sieci. Wynikiem było wartość 85 iteracji, lecz kosztem dość długiego oczekiwania na wynik finalny, spowodowany dużą ilością neuronów w warstwie ukrytej. Wynik naszych badań jest zawarty w pliku prowst1.pat

4. Wnioski

Podsumowywując, można było zauważyć fakt, iż sieć ze wsteczną propagacja błędu jest bardziej elastyczniejsza pod względem doboru parametrów nauki. Dla identycznych parametrów dla sieci z regułą delta w oparciu o plik sl_2.pat nauka nie była możliwa, wręcz dobór parametrów do nauki nie pozwalał nauczyć sieci

Nauka sieci przebiegała szybciej, pod względem ilości iteracji, wraz ze wzrostem ilości neuronów ukrytych w sieci, choć nie koniecznie szybciej pod względem czasowym, wzrost ilości neuronów powodował wydłużenia czasu nuauki.



Wyszukiwarka

Podobne podstrony:
Biol kom cz 1
Systemy Baz Danych (cz 1 2)
cukry cz 2 st
wykłady NA TRD (7) 2013 F cz`
JĘCZMIEŃ ZWYCZAJNY cz 4
Sortowanie cz 2 ppt
CYWILNE I HAND CZ 2
W5 sII PCR i sekwencjonowanie cz 2
motywacja cz 1
02Kredyty cz 2
Ćwiczenia 1, cz 1
Nauki o zarzadzaniu cz 8
Wzorniki cz 3 typy serii 2008 2009
bd cz 2 jezyki zapytan do baz danych
Reprodukcja ludności Polska wyklad 6 cz 1
Cz III Ubezpieczenia osobowe i majątkowe
Historia turystyki na Swiecie i w Polsce cz 4

więcej podobnych podstron