40
•1.8. Uczenie z rywalizacją i .sieci Kohonena,
Warto zauważyć, że przy takim postawieniu sprawy współczynnik wagowy może być zmieniony wyłącznie o watość i) (zawsze taką sarną), przy czym o tym, czy zmiana jest dokonywana. decyduje w istocie pewien logiczny warunek, wyrażający się stwierdzeniem, aktywnemu sygalowi wejściowemu na danej synapsie odpowiada aktywny sygnał wyjściowy
Podany wyżej wzór pozwala wyłącznie na zwiększanie wartości wag, co może prowadzić do osiągania przez nie bardzo dużych wartości. Z tego względu proponuje się niekiedy uogólniony algorytm, w którym przy aktywnym wyjściu y\n synapsy obsługujące aktywne wejścia uzyskują wzmocnienie, a synapsy obsługujące nieaktywne wyjścia są (w tym samym stopniu) osłabiane. Odpowiednia formula uczenia może być zapisana w formie:
Warto zauważyć, że funkcjonowanie tego wzoru w istotny sposób oparto na fakcie, że ym € {0,1). Omawiany wzór nazywany bywa regułą Hchb/Anii-Hcbh. Jeszcze dalsze poszerzenie rozważanej metody uczenia daje wzór Hopfietda, w podobny sposób traktujący zarówno jak i y^:
Intencja stosowania tego wzoru jest oczywista: wszystkie współczynniki wagowe podlegają przy nim bardzo intensywnemu treningowi, niezależnie od tego, czy dotyczą wejść aktywnych i niezależnie od tego, czy odpowiednie wyjścia są aktywne, natomiast oczywiście kierunek zmian wartości wag zależy od aktywności wejść i wyjść — co łatwo można prześledzić w podanym wzorze zestawiając wszystkie cztery możliwe kombinacje wartości i
Istnieje jeszcze jedno interesujące podejście do zagadnienia samouczenia sieci typu MADA-LINE — tak zwane uczenie z rywalizacją (competiUne. lfarmy). Wprowadził je Kohonen [Koho75] przy tworzeniu sieci neuronowych liczących się realizacji dowolnych odwzorowań X => Y. Z punktu widzenia tu prowadzonych rozważań można przyjąć, że zasada tego uczenia sieci Kohonena jest identyczna z regułą insi ar
z dwoma dość istotnymi uzupełnieniami. Po pierwsze wektor wejściowy X jest przed procesem uczenia normalizowany tak, aby jego długość j|X|| = I. Oznacza to, że
Po drugie, numer poddawanego treningowi neronu neuronu mx nie jest już przypadkowy czy arbitralnie wybierany, jest to bowiem ten (i tylko ten) neuron, którego sygnał wyjściowy yjest największy. Oznacza to, że przy każdorazowym podaniu sygnału wejściowego X^> neurony rywalizują ze sobą i wygrywa ten, który uzyskał największy sygnał wyjściowy Tylko Len „zwycięski” neuron podlega następnie uczeniu, którego efektem jest. jeszcze lepsze