img041

img041



41


Rozdział 3. Liniowe sieci neuronowe

dopasowanie wektora wag    do rozpoznawania obiektów podobnych do Inne

neurony podlegać będą uczeniu przy pokazie — być może — innych obiektów    w tym

kroku uczenia ich wektory wag pozostają nie zmienione.

Reguła uczenia Kohonena bywa często wzbogacana o dodatkowy element związany z topologią uczącej się sieci. Neurony w sieci są uporządkowano (czego wyrazem są nadawane im numery m). Można więc wprowadzić pojęcie sąsiedztwa — na przykład uznając za sąsiednie te neurony, które mają numery m, różniące się o ustaloną małą wartość (np. o jeden). Uogólniona reguła samoorganizacji sieci Kohonena polega na tym, że uczeniu podlega nie tylko neuron ni* „wygrywający” w konkurencji z innymi neuronami sieci, ale także neurony, które z nim sąsiadują. Formalnie regillę t,ę można zapisać wzorem

=    + t)u: /,(,„,„,•)(*«) _ ,„<"»«>)

formula uczenia może być zapisana w formie:

»rw+l)=<<r!(ii+v^,(2.vK,-i)

Warto zauważyć, że funkcjonowanie tego wzoru w istotny sposób oparto na fakcie, że £ {0,1}. Omawiany wzór nazywany bywa regułą Hcbb/Anti-Hcbb. Jeszcze dalsze poszerzenie rozważanej metoformie dyskretnej, na przykład

(    I    dla    jn = m*

h{tn,m*) =■    ć    0.-fi    dla    |w — w*|    =    i

(    0    dla    jm- m*\    >    1

natomiast w bardziej skomplikowanych zadaniach funkcja ftfin,*#*) może być wyrażona za pomocą odległości />(»»,»>*), na przykład

A(m, m*)


I

/>( m, m“)


albo

Oczywiście możliwe są także znacznie bardziej wyrafinowane funkcje, obejmujące szerszy zakres numerów m, a także uwzględniające róxne możliwe formy pojęcia sąsiedztwa. Najciekawsze efekty uzyskuje się wprowadzając metody Kohonena dla sieci neuronowych dwuwymiarowych, to znaczy takich, w których neurony ułożone są w strukturę tablicy o pewnej liczbie wyróżnionych wierszy i kolumn. Dla tego typu sieci, zbudowanych według zasady kompotycyjnego uczenia z uwzględnieniem dwuwymiarowego sąsiedztwa, opisywane są w literaturze bardzo interesujące formy zachowania. Sieci tego typu są w stanie samorzutnie tak się organizować, by odwzorować, strukturę wejściowego dwuwymiarowego obiektu — na przykład samorzutnie utworzyć siatkę równomiernie pokrywającą określony kształt analizowanego obszaru. Podane niżej rysunki ilustrują ten proces dla jednego z przykładowych zadań.


Wyszukiwarka

Podobne podstrony:
Sieci CP str041 nozaztai o. urnowe sieci neuronowe dopasowanie wektora wag    do rozp
img031 31 Rozdział 3. Liniowe sieci neuronowe jest aprioryczne ustalenie wektora W lub macierzy W* o
img037 37 Rozdział 3. Liniowe sieci neuronowe pokazano jedynie oczy i usta). Takie zadanie nazywa si
img029 29 Rozdział 3. Liniowe sieci neuronowe że neuron rozpoznaje1 sygnały wejściowe, wyróżnając te
img035 35 Rozdział 3. Liniowe sieci neuronowe albo prościejv 3)=ww gdzie A jest pewną ustaloną stalą
img037 37 Rozdział 3. Liniowe sieci neuronowe pokazano jedynie oczy i usta). Takie zadanie nazywa si
img039 39 Rozdział 3. Liniowe sieci neuronowe mu taką strategię liczenia, by zapamięta] i potrafi! p
img043 43 Rozdział 3. Liniowe sieci neuronowe3.9 Uczenie z forsowaniem Opisane wyżej techniki samo u
img045 45 Rozdzinl :i. Liniowe sieci neuronowe ma na ogól niewielką wartość, ponieważ poszczególne s
img047 47 Rozdział 3. Liniowe sieci neuronowe nazywanej skumulowanym błędem. Wartości skumulowanego
Sieci CP str037 37 Rozdział 3. Liniowe sieci neuronowe pokazano jedynie oczy i usta). Takie zadanie

więcej podobnych podstron