40
3.8. Uczenie z rywalizacją i sieci Kohonena
Warto zauważyć, że przy takim postawieniu sprawy współczynnik wagowy może być zmieniony wyłącznie o watość 7) (zawsze taką samą), przy czym o l.ym, czy zmiana jest dokonywana. decyduje w istocie pewien logiczny warunek, wyrażający się stwierdzeniem, aktywnemu sygalowi wejściowemu na danej synapsie *|jf) odpowiada aktywny sygnał wyjściowy yin •
Podany wyżej wzór pozwala wyłącznie na zwiększanie wartości wag, co może prowadzić do osiągania przez nie bardzo dużych wartości. Z tego względu proponuje się niekiedy uogólniony algorytm, w którym przy aktywnym wyjściu \j\n synapsy obsługujące aktywne wejścia uzyskują wzmocnienie, a synapsy obsługujące nieaktywne wyjścia są (w tym samym stopniu) osłabiane. Odpowiednia formula uczenia może być zapisana w formie:
Warto zauważyć, że funkcjonowanie tego wzoru w istotny sposób oparto na fakcie, że y\i.] € {0,1). Omawiany wzór nazywany bywa regułą ffchlt/Anh-Hcbb. Jeszcze dalsze poszerzenie rozważanej metody uczenia daje wzór llopfietda, w podobny sposób traktujący zarówno ) jak i j/m^
Intencja stosowania lego wzoru jest oczywista: wszystkie współczynniki wagowe podlegają przy nim bardzo intensywnemu treningowi, niezależnie od tego, czy dotyczą wejść aktywnych i niezależnie od tego, czy odpowiednie wyjścia są aktywne, natomiast oczywiście kierunek zmian wartości wag zależy od aktywności wejść i wyjść co łatwo można prześledzić w podanym wzorze zestawiając wszystkie cztery możliwe kombinacje wartości ' i y\!t].
Istnieje jeszcze jedno interesujące podejście do zagadnienia samouczonia sieci typu MADA-LINE — tak zwane uczenie z rywalizacją [compctUme le.arnig). Wprowadził je Kohoncn [Koho75] przy tworzeniu sieci neuronowych uczących się realizacji dowolnych odwzorowań X => Y. Z punktu widzenia tu prowadzonych rozważań można przyjąć, że zasada tego uczenia sieci Kohonena jest identyczna z regułą inslnr
= w(»m) + if(i) (i.O) _ w
z dwoma dość istotnymi tizupelnieniami. Po pierwsze wektor wejściowy X jest przed procesem uczenia normalizowany tak, aby jego długość ||X|| = I. Oznacza to, że
x\}) - ’
Po drtigie. numer poddawanego treningowi neronti neuronu mx nie jest już przypadkowy czy arbitralnie wybierany, jest to bowiem ten (i tylko ten) neuron, którego sygnał wyjściowy y^l jest. największy. Oznacza to, że przy każdorazowym podaniu sygnału wejściowego X'-T ) neurony rywalizują ze sobą i wygrywa ten, który uzyskał największy sygnał wyjściowy </^.}. Tylko leu „zwycięski" neuron podlega następnie uczeniu, którego efektem jest. jeszcze lepsze