Sieci CP str039

Sieci CP str039



39


Rozdział 3. Liniowe siwi neuronowe

mu taką strategię uczenia, by zapamięta] i potrafi! potem rozpoznać aktualnie wprowadzany sygnał X. Inne neurony sieci są w tym czasie bezczynne. Omówiona zasada uczenia może być zapisana jako

wJmW+,) = tĄm){i) + »/'> (x\S) - w\m)U))

Wydaje się, że po wszystkim co do tej pory napisano — nie ma już potrzeby komentowania tego prostego wzoru. Można tylko dodać, że z praktyki stosowania metody wynikają pewne zalecenia odnośnie wyboru wartości r/-’), które powinny zmieniać się zgodnie z empiryczną regułą:

tjW)=0,l-A j

przy czym współczynnik A trzeba wybrać na tyle mały, by w ciągu całego uczenia zachodził warunek r/W > 0.

Na zasadzie analogii do instar można wprowadzić także drugą propozycję Grossberga — koncepcję outstar. W koncepcji tej rozważa się wagi wszystkich neuronów całej warstwy, jednak wybiera się wyłącznie wagi łączące te neurony z pewnym ustalonym wejściem. W sieciach wielowarstwowych wejście to pochodzi od pewnego ustalonego neuronu wcześniejszej warstwy i to właśnie ten neuron staje się „gwiazdą wyjść” outstar. Wzór opisujący uczenie sieci outstar jest następujący;

roS""w+l 1 =    + ,/> > Otf - ®{MX»)

Warto raz jeszcze podkreślić odmienność powyższego wzoru w stosunku do poprzednio rozważanych. Tutaj * jest ustalone (arbitralnie łub w jakiś inny sposób), natomiast m jest zmienne i przebiega wszystkie możliwe wartości (m = 1,2,Reguła zmieniania ijk) jest w tym wypadku nieco inna, niż przy instar i może być dana wzorem:

Jl(j) = 1 - A j

0    ile metoda instar stosowana jest w przypadku, kiedy trzeba sieć nauczyć rozpoznawania określonego sygnału X. o tyle metoda outstar znajduje zastosowanie przy uczeniu sieci wytwarzania określonego wzorca zachowań Y w odpowiedzi na określony sygnał inicjujący x<.

Reguły uczenia podane przez Hełiba i Grossberga były przez wielu badaczy wzbogacane

1    modyfikowane. Pierwsza interesująca modyfikacja polega na wprowadzeniu dyskryminacji

wejściowych i wyjściowych sygnałów. Dyskryminacja ta polega na dzieleniu sygnałów oraz y"m na ..aktywne” i „nie aktywne”. W tym celu używa się parametru    będącego

ustaloną lub zależną od j wartością progową i wprowadza się nowe zmienne    oraz

zdefiniowane w sposób następujący:

gdy x\j) > €

oraz


w przeciwnym przypadku gdy > £

w przeciwnym przypadku

Przy tych oznaczeniach nową technikę uczenia wg zmodyfikowanego algortmu llebba zapisać można w postaci:


Wyszukiwarka

Podobne podstrony:
img039 39 Rozdział 3. Liniowe sieci neuronowe mu taką strategię liczenia, by zapamięta] i potrafi! p
Sieci CP str051 51 Rozdział 4. Nieliniowe nieci neuronowe<p(e) -, 1e Taka postać ma sporo wad, od
Sieci CP str037 37 Rozdział 3. Liniowe sieci neuronowe pokazano jedynie oczy i usta). Takie zadanie
Sieci CP str029 29 Rozdział X. Liniowe sieci neuronowe że neuron rozpoznaje1 sygnały wejściowe, wyró
Sieci CP str035 35 Rozdział 3. Liniowe sieci neuronowe albo prościej „<>> = —_— v
Sieci CP str033 33 Rozdział 3- Liniowe sieci neuronowe który nie powinien się buntować przeciwko wni
Sieci CP str037 37 Rozdział 3. Liniowe sieci neuronowe pokazano jedynie oczy i usta). Takie zadanie
Sieci CP str045 45 łiuzdziHl . i. Liniowe .sjpc/ neuronowe ma na ogól niewielką wartość, poniowaz po

więcej podobnych podstron