Sieci CP str040

Sieci CP str040



40


3.8. Uczenie z rywalizacją i sieci Kohonena

Warto zauważyć, że przy takim postawieniu sprawy współczynnik wagowy może być zmieniony wyłącznie o watość 7) (zawsze taką samą), przy czym o l.ym, czy zmiana jest dokonywana. decyduje w istocie pewien logiczny warunek, wyrażający się stwierdzeniem, aktywnemu sygalowi wejściowemu na danej synapsie *|jf) odpowiada aktywny sygnał wyjściowy yin •

Podany wyżej wzór pozwala wyłącznie na zwiększanie wartości wag, co może prowadzić do osiągania przez nie bardzo dużych wartości. Z tego względu proponuje się niekiedy uogólniony algorytm, w którym przy aktywnym wyjściu \j\n synapsy obsługujące aktywne wejścia uzyskują wzmocnienie, a synapsy obsługujące nieaktywne wyjścia są (w tym samym stopniu) osłabiane. Odpowiednia formula uczenia może być zapisana w formie:

Warto zauważyć, że funkcjonowanie tego wzoru w istotny sposób oparto na fakcie, że y\i.] € {0,1). Omawiany wzór nazywany bywa regułą ffchlt/Anh-Hcbb. Jeszcze dalsze poszerzenie rozważanej metody uczenia daje wzór llopfietda, w podobny sposób traktujący zarówno jak i j/m^

Intencja stosowania lego wzoru jest oczywista: wszystkie współczynniki wagowe podlegają przy nim bardzo intensywnemu treningowi, niezależnie od tego, czy dotyczą wejść aktywnych i niezależnie od tego, czy odpowiednie wyjścia są aktywne, natomiast oczywiście kierunek zmian wartości wag zależy od aktywności wejść i wyjść co łatwo można prześledzić w podanym wzorze zestawiając wszystkie cztery możliwe kombinacje wartości ' i y\!t].

3.8 Uczenie z rywalizacją i sieci Kohonena

Istnieje jeszcze jedno interesujące podejście do zagadnienia samouczonia sieci typu MADA-LINE — tak zwane uczenie z rywalizacją [compctUme le.arnig). Wprowadził je Kohoncn [Koho75] przy tworzeniu sieci neuronowych uczących się realizacji dowolnych odwzorowań X => Y. Z punktu widzenia tu prowadzonych rozważań można przyjąć, że zasada tego uczenia sieci Kohonena jest identyczna z regułą inslnr

= w(»m) + if(i) (i.O) _ w

z dwoma dość istotnymi tizupelnieniami. Po pierwsze wektor wejściowy X jest przed procesem uczenia normalizowany tak, aby jego długość ||X|| = I. Oznacza to, że

Ji >

x\}) -    

y/r..,

Po drtigie. numer poddawanego treningowi neronti neuronu mx nie jest już przypadkowy czy arbitralnie wybierany, jest to bowiem ten (i tylko ten) neuron, którego sygnał wyjściowy y^l jest. największy. Oznacza to, że przy każdorazowym podaniu sygnału wejściowego X'-T ) neurony rywalizują ze sobą i wygrywa ten, który uzyskał największy sygnał wyjściowy </^.}. Tylko leu „zwycięski" neuron podlega następnie uczeniu, którego efektem jest. jeszcze lepsze


Wyszukiwarka

Podobne podstrony:
img040 40 •1.8. Uczenie z rywalizacją i .sieci Kohonena, Warto zauważyć, że przy takim postawieniu s
img042 3.K. Uczenie z rywalizacją i sieci Kohonena20 000
Sieci CP str003 a 10.1.a Uczenie sieci .............................................................
Sieci CP str030 :jo 3.3. Uczenie pojedynczego neuronu ty* ,A.0) ...0) . w w (V w, ws . . Wn w
Sieci CP str032 32 3.3. Uczenie pojedynczego neuronu skorygowanie wektora wag W, by neuron lepiej re
Sieci CP str036 36 Uczenie sieci elementów liniowychty t*    ty* ...IV ...(V ...W
Sieci CP str044 AA Uczenie forsowaniem do postaci macierzowej:w^+,) = wjJ) + >/zfj] [x0)]T Efekt
Sieci CP str106 106 8.4. Uczenie sieci BAM i przykład jej działania8.4 Uczenie sieci BAM i przykład
Sieci CP str060 60 4.6. Uczenie sieci nieliniowej,(i) _ XU) Jako ciekawostkę warto odnotować fakt, ż
Sieci CP str070 70 5.6. Uczenie drugiej warstwy sieci CP Funkcja adaptująca fyik) dla małych k przyj

więcej podobnych podstron