39
Rozdział 3. Liniowe sieci neuronowe
mu taką strategię liczenia, by zapamięta] i potrafi! porem rozpoznać aktualnie wprowadzany sygnał X. Inne neurony sieci są w tym czasie bezczynne. Omówiona zasada uczenia może być zapisana jako
u-!m,0+,) = (*}» - w\m)U))
Wydaje się, że po wszystkim co do tej pory napisano — nie ma już potrzeby komentowania tego prostego wzoru. Można tylko dodać, że z praktyki stosowania metody wynikają pewne zalecenia odnośnie wyboru wartości które powinny zmieniać się zgodnie z empiryczną regułą:
-0,1-A j
przy czym współczynnik A trzeba wybrać na tyle mały, by w ciągu całego uczenia zachodził warunek > 0.
Na zasadzie analogii do insi ar można wprowadzić także drugą propozycję Grossberga — koncepcję outstar. W koncepcji tej rozważa się wagi wszystkich neuronów całej warstwy, jednak wybiera się wyłącznie wagi łączące te neurony z pewnym ustalonym wejściem. W sieciach wielowarstwowy cli wejście to pocłiodzi od pewnego ustalonego neuronu wcześniejszej warstwy i to właśnie ten neuron staje się „gwiazdą wyjść” — outstar. Wzór opisujący uczenie sieci outstar jest następujący:
+ ,,<■>'{£> -
Warto raz jeszcze podkreślić odmienność powyższego wzoru w stosunku do poprzednio rozważanych. Tutaj * jest ustalone (arbitralnie lub w jakiś inny sposób), natomiast m jest zmienne i przebiega wszystkie możliwe wartości (m = 1,2, Reguła zmieniania
Tjk* jest w tym wypadku nieco inna, niż przy instar i może być dana wzorem:
r/*> = 1 - A j
0 ile metoda instar stosowana jest. w przypadku, kiedy trzeba sieć nauczyć rozpoznawania określonego sygnału X, o tyle metoda outstar znajduje zastosowanie przy uczeniu sieci wytwarzania określonego wzorca zachowań Y w odpowiedzi na określony sygnał inicjujący
Xj.
Reguły uczenia podane przez Nebba i Grossbcrga były przez wielu badaczy wzbogacane
1 modyfikowane. Pierwsza interesująca modyfikacja polega na wprowadzeniu dyskryminacji wejściowych i wyjściowych sygnałów. Dyskryminacja ta polega na dzieleniu sygnałów oraz y\ł) na ..aktywne” i „nie aktywne”. W tym celu używa się parametru ftr) będącego ustaloną lub zależną od j wartością progową i wprowadza się nowe zmienne * oraz y™ zdefiniowane w sposób następujący:
‘N:
= { o
oraz
gdy > £
w przeciwnym przypadku gdy i&} > e
w przeciwnym przypadku
+ vx(i})y<,P
Przy tych oznaczeniach nową technikę uczenia wg zmodyfikowanego algortmu Ilebba zapisać można w postaci: