Sieci CP str070

Sieci CP str070



70


5.6. Uczenie drugiej warstwy sieci CP

Funkcja adaptująca fyik) dla małych k przyjmuje bardzo małe wartości, natomiast potem powoli rośnie do wartości 1 i tę wartość zachowuje przez resztę procesu uczenia. Sens takich zmian wektora X(*> jest oczywisty: na'początku poszczególne skorygowane wektory bardzo mało różnią się od siebie, ale za to prawie dokładnie pokrywają się z wektorami wag wj*\ Wśród „zwycięskich” neuronów (początkowo są to wszystkie neurony wyjściowej warstwy, potem stopniowo jest ich coraz mniej) przeprowadza się prosty zabieg porządkujący, polegający na tym, że uznaje się za „zwycięski” neuron o najniższym numerze i tylko jego wagi poddaje się procesowi uczenia — tez początkowo bardzo subtelnego, jak wynika ze wzoru opisującego sposób uczenia i przyjętej reguły modyfikacji wektorów X^. Dzięki opisanym zabiegom wektory wj** początkowo wspólliniowe, zaczynają się z wolna rozchodzić w kierunkach wynikających z naturalnych tendencji występujących w zbiorze wejściowych sygnałów Xł*\ dając początek sprawnej i efektywnie dalej przebiegającej kla-steryzacji. Warto podkreślić, że opisane zabiegi skutkują jedynie w krótkim początkowym okresie uczenia, gdyż wkrótce funkcja »/2(*) osiąga wartość 1 i modyfikacja wektorów X(ł) praktycznie przestaje działać.

5.6 Uczenie drugiej warstwy sieci CP

W porównaniu z kłopotami, jakich nastręcza uczenie pierwszej warstwy sieci CP, uczenie warstwy Grossberga to sama przyjemność. Reguła zmiany wag podporządkowana jest tu zasadzie Widrowa-Hofla:

4*+t) = t$:> + V3 (w - *i) kj

Reguła ta okazuje się jeszcze prostsza w stosowaniu, niż to może wynikać z podanego wzoru, gdyż tylko jedna wartość kj jest różna od zera i w każdym kroku procesu uczenia korygowane są tylko te wagi, które łączą poszczególne neurony wyjściowej warstwy z jednym tylko — mianowicie „zwycięskim” elementem poprzedniej warstwy. Ta zasada (zwana czasem regułą oulslar) znakomicie zmniejsza pracochłonność procesu uczenia.

Parametr ifo wybiera się zazwyczaj ostrożnie tak, by proces uczenia nie spowodował wpisania do „tablicy” (look-up labie) błędnych wartości. Zwykle zaczyna się uczenie od wartości tfc = 0,1 a potem się tę wartość jeszcze mocniej redukuje.

5.7 Przykład zadania rozwiązywanego przez sieć CP

Sieci CP okazują się zaskakująco przydatne przy rozwiązywaniu różnych praktycznych zadań. Przykładowo można tu wspomnieć o modelu sieci CP wbudowanym w symulator Neural-Works Professional II firmy NeuralWare. Model len ma doradzać, jak spędzać sobotni wieczór.

Sieć ma dwa wejścia:

-    x\ określające ilość pilnej pracy, jaka jest do wykonania,

-    z? podające „temperaturę” uczuć rodzinnych.

Sieć ma też pięć wyjść:


Wyszukiwarka

Podobne podstrony:
img070 70 5.6. Uczenie drugiej warstwy sieci CP Funkcja adaptująca t}2{k) dla małych k przyjmuje bar
img068 68 5.4. Zadania drugiej warstwy sieci5.4 Zadania drugiej warstwy sieci Sumarycznie pierwsza w
374 (14) Najczęściej stosuje się sieci /budowane z 3 warstw neuronów w ten sposób, że wejście dla pi
img093 93 7.4. Sieci neuronowe funkcji <p jest krzywa logistyczna: zk zk 1 X = <P 1«aJ = _1_ 1
Str070 (4) 70 70 w„, (mi t Vh dmi u ^ 2.6.    Jednostkowa obliczeniowa siła obwodowa,
motywacja - lawinowy przyrost sieci nowe funkcje w aplikacjach - dodawane w prosty sposób nowe
sieci. 3.    Przedstawione zostaną wskaźniki charakterystyczne dla działań
11 Jaki skrót odnosi się do obszaru sieci, który jest dostępny zarówno dla użytkowników wewnętrznych
3.3. ANALIZA SIECI ZALEŻNOŚCI 3.3.1.) Obliczenie terminów zdarzeń Dla zdarzenia początkowego zakłada
50 51 (34) 50 Akademia sieci Cisco SagTierr 1    Segment 2 Rysunek 3.3. Dla łączenia

więcej podobnych podstron