Sieci CP str041

Sieci CP str041



nozaztai o. urnowe sieci neuronowe

dopasowanie wektora wag    do rozpoznawania obiektów podobnych do X^. Inne

neurony podlegać będą uczeniu przy pokazie — być może — innych obiektów X^\ w tym kroku uczenia ich wektory wag pozostają nie zmienione.

Reguła uczenia Kohonęna bywa często wzbogacana o dodatkowy element związany z topologią uczącej się sieci. Neurony w sieci są uporządkowane (czego wyrazem są nadawane im numery m). Można więc wprowadzić pojęcie sąsiedztwa — na przykład uznając za sąsiednie te neurony, które mają numery m, różniące się o ustaloną małą wartość (np. o jeden). Uogólniona reguła samoorganizacji sieci Kohonęna polega na tym, że uczeniu podlega nie tylko neuron m* „wygrywający” w konkurencji z innymi neuronami sieci, ale także neurony, które z nim sąsiadują. Formalnie regułę t.ę można zapisać wzorem

w(m)(j+l| _ ,„(»■«) + ,,<>> formula uczenia może być zapisana w formie:

Warto zauważyć, że funkcjonowanie tego wzoru w istotny sposób oparto na fakcie, że E {0,1}. Omawiany wzór nazywany bywa regułą ffct>b/Anti-Hcbb. Jeszcze dalsze poszerzenie rozważanej metoformie dyskretnej, na przykład

{I dla m = m*

0. -!i dla |m — w* \ = i 0 dla jm — m* j > 1

natomiast w bardziej skomplikowanych zadaniach funkcja A(m,m*) może być wyrażona za pomocą odległości />(«,»»*), na przykład

_l_

pl m, t»“)

albo

A(m,tw") = exp ( —(p(Tw,m“)]2)

Oczywiście możliwe są także znacznie bardziej wyrafinowane funkcje, obejmujące szerszy zakres numerów w, a także' uwzględniające róxne możliwe formy pojęcia sąsiedztwa. Najciekawsze efekty uzyskuje się wprowadzając metody Kohonęna dla sieci neuronowych dwuwymiarowych, to znaczy takich, w których neurony ułożone są w strukturę tablicy o pewnej liczbie wyróżnionych wierszy i kolumn. Dla tego typu sieci, zbudowanych według zasady kompetycyjnego uczenia z uwzględnieniem dwuwymiarowego sąsiedztwa, opisywane są w literaturze bardzo interesujące formy zachowania. Sieci tego typu są w stanie samorzutnie tak się organizować, by odwzorować strukturę wejściowego dwuwymiarowego obiektu — na przykład samorzutnie utworzyć siatkę równomiernie pokrywającą określony kształt analizowanego obszaru. Podane niżej rysunki ilustrują ten proces dla jednego z przykładowych zadań.


Wyszukiwarka

Podobne podstrony:
img041 41 Rozdział 3. Liniowe sieci neuronowe dopasowanie wektora wag    do rozpoznaw
Sieci CP str032 32 3.3. Uczenie pojedynczego neuronu skorygowanie wektora wag W, by neuron lepiej re
img077 (25) Elementarr lie do techniki sieci neuronowych !Czy chcesz przystąpić do eksperynento
img196 (8) Sieci neuronowe samouczące się nia realnie występujących obiektów, ale wyraźnie stawiając
img032 32 3.3. Uczenie pojedynczego neuronu skorygowanie wektora wag W, by neuron lepiej realizował

więcej podobnych podstron