39
Rozdział 3. Liniowe siwi neuronowe
mu taką strategię uczenia, by zapamięta] i potrafi! potem rozpoznać aktualnie wprowadzany sygnał X. Inne neurony sieci są w tym czasie bezczynne. Omówiona zasada uczenia może być zapisana jako
wJmW+,) = tĄm){i) + »/'> (x\S) - w\m)U))
Wydaje się, że po wszystkim co do tej pory napisano — nie ma już potrzeby komentowania tego prostego wzoru. Można tylko dodać, że z praktyki stosowania metody wynikają pewne zalecenia odnośnie wyboru wartości r/-’), które powinny zmieniać się zgodnie z empiryczną regułą:
przy czym współczynnik A trzeba wybrać na tyle mały, by w ciągu całego uczenia zachodził warunek r/W > 0.
Na zasadzie analogii do instar można wprowadzić także drugą propozycję Grossberga — koncepcję outstar. W koncepcji tej rozważa się wagi wszystkich neuronów całej warstwy, jednak wybiera się wyłącznie wagi łączące te neurony z pewnym ustalonym wejściem. W sieciach wielowarstwowych wejście to pochodzi od pewnego ustalonego neuronu wcześniejszej warstwy i to właśnie ten neuron staje się „gwiazdą wyjść” outstar. Wzór opisujący uczenie sieci outstar jest następujący;
roS""w+l 1 = + ,/> > Otf - ®{MX»)
Warto raz jeszcze podkreślić odmienność powyższego wzoru w stosunku do poprzednio rozważanych. Tutaj * jest ustalone (arbitralnie łub w jakiś inny sposób), natomiast m jest zmienne i przebiega wszystkie możliwe wartości (m = 1,2,Reguła zmieniania ijk) jest w tym wypadku nieco inna, niż przy instar i może być dana wzorem:
Jl(j) = 1 - A j
0 ile metoda instar stosowana jest w przypadku, kiedy trzeba sieć nauczyć rozpoznawania określonego sygnału X. o tyle metoda outstar znajduje zastosowanie przy uczeniu sieci wytwarzania określonego wzorca zachowań Y w odpowiedzi na określony sygnał inicjujący x<.
Reguły uczenia podane przez Hełiba i Grossberga były przez wielu badaczy wzbogacane
1 modyfikowane. Pierwsza interesująca modyfikacja polega na wprowadzeniu dyskryminacji
wejściowych i wyjściowych sygnałów. Dyskryminacja ta polega na dzieleniu sygnałów oraz y"m na ..aktywne” i „nie aktywne”. W tym celu używa się parametru będącego
ustaloną lub zależną od j wartością progową i wprowadza się nowe zmienne oraz
zdefiniowane w sposób następujący:
gdy x\j) > €
oraz
w przeciwnym przypadku gdy > £
w przeciwnym przypadku
Przy tych oznaczeniach nową technikę uczenia wg zmodyfikowanego algortmu llebba zapisać można w postaci: