img040

img040



40


•1.8. Uczenie z rywalizacją i .sieci Kohonena,

Warto zauważyć, że przy takim postawieniu sprawy współczynnik wagowy może być zmieniony wyłącznie o watość i) (zawsze taką sarną), przy czym o tym, czy zmiana jest dokonywana. decyduje w istocie pewien logiczny warunek, wyrażający się stwierdzeniem, aktywnemu sygalowi wejściowemu na danej synapsie odpowiada aktywny sygnał wyjściowy

Podany wyżej wzór pozwala wyłącznie na zwiększanie wartości wag, co może prowadzić do osiągania przez nie bardzo dużych wartości. Z tego względu proponuje się niekiedy uogólniony algorytm, w którym przy aktywnym wyjściu y\n synapsy obsługujące aktywne wejścia uzyskują wzmocnienie, a synapsy obsługujące nieaktywne wyjścia są (w tym samym stopniu) osłabiane. Odpowiednia formula uczenia może być zapisana w formie:

Warto zauważyć, że funkcjonowanie tego wzoru w istotny sposób oparto na fakcie, że ym € {0,1). Omawiany wzór nazywany bywa regułą Hchb/Anii-Hcbh. Jeszcze dalsze poszerzenie rozważanej metody uczenia daje wzór Hopfietda, w podobny sposób traktujący zarówno jak i y^:

Intencja stosowania tego wzoru jest oczywista: wszystkie współczynniki wagowe podlegają przy nim bardzo intensywnemu treningowi, niezależnie od tego, czy dotyczą wejść aktywnych i niezależnie od tego, czy odpowiednie wyjścia są aktywne, natomiast oczywiście kierunek zmian wartości wag zależy od aktywności wejść i wyjść — co łatwo można prześledzić w podanym wzorze zestawiając wszystkie cztery możliwe kombinacje wartości i

3.8 Uczenie z rywalizacją i sieci Kohonena

Istnieje jeszcze jedno interesujące podejście do zagadnienia samouczenia sieci typu MADA-LINE — tak zwane uczenie z rywalizacją (competiUne. lfarmy). Wprowadził je Kohonen [Koho75] przy tworzeniu sieci neuronowych liczących się realizacji dowolnych odwzorowań X => Y. Z punktu widzenia tu prowadzonych rozważań można przyjąć, że zasada tego uczenia sieci Kohonena jest identyczna z regułą insi ar

_ „,<»”*>(>) + ,;0) (£0) _ W)

z dwoma dość istotnymi uzupełnieniami. Po pierwsze wektor wejściowy X jest przed procesem uczenia normalizowany tak, aby jego długość j|X|| = I. Oznacza to, że

fo> =

Po drugie, numer poddawanego treningowi neronu neuronu mx nie jest już przypadkowy czy arbitralnie wybierany, jest to bowiem ten (i tylko ten) neuron, którego sygnał wyjściowy yjest największy. Oznacza to, że przy każdorazowym podaniu sygnału wejściowego X^> neurony rywalizują ze sobą i wygrywa ten, który uzyskał największy sygnał wyjściowy Tylko Len „zwycięski” neuron podlega następnie uczeniu, którego efektem jest. jeszcze lepsze


Wyszukiwarka

Podobne podstrony:
Sieci CP str040 40 3.8. Uczenie z rywalizacją i sieci Kohonena Warto zauważyć, że przy takim postawi
img042 3.K. Uczenie z rywalizacją i sieci Kohonena20 000
10466 skanuj0142 (12) Rozdział 5. ♦ Przetwarzanie danych z przeglądarki 153 Warto zauważyć, że przy
IMG173 173 Warto zauważyć, że tętnienia prądu wyprostowanego es. obecnie o wiele mniejeże niż w przy
IMG173 173 Warto zauważyć, że tętnienia prądu wyprostowanego es. obecnie o wiele mniejeże niż w przy
img173 173 Warto zauważyć, że tętnienia prądu wyprostowanego es. obecnie o wiele mniejeże niż w przy
Warto zauważyć, że mimo istnienia norm porządkujących zasady tworzenia bibliografii załącznikowej
Wykresy kolejnych kontraktów i wykresy kontynuacyjne 249 Warto zauważyć, że na rynkach, gdzie istnie
Podsumowanie: warto zauważyć, że granice skorupy ziemskiej i litosfery nie pokrywają się. Bowiem lit
ScannedImage 2 s. 376 Istnieją jednak obiektywy specjalne, dające perspektywę walcową albo kulistą.
Syst Finansowy122 nikiem działań banku centralnego i decyzji podejmowanych przez banki komercyjne. W
43294 ullman025 (2) i 14. Warto zauważyć, że typem adresu jest napis, a nie struktura, jak to jest w

więcej podobnych podstron