img029

img029



29


Rozdział 3. Liniowe sieci neuronowe

że neuron rozpoznaje1 sygnały wejściowe, wyróżnając te, które są podoluie do jego wektora wag. Aby to jeszcze silniej zaakcentować załóżmy, że wektory X i W są znormalizowane, to znaczy

||X|| = XrX = l

oraz

|jW|| = wT W = I

W tym wypadku sygnał wyjściowy neuronu wyznaczyć można ze wzoru

y = cos <p

gdzie jest kątem pomiędzy wektorami W i X. Jeśli na wejście rozważanego neuronu podawać będziemy różne sygnały X, to wyjście neuronu y będzie miało tym większą wartość, im bardziej podany sygnał X będzie podobny do „wzorcowego” sygnału, który neuron pamięta w postaci swojego zestawu wag W.

3.2 Warstwa neuronów jako najprostsza sieć

Rozważmy teraz warstwf neuronów, z których każdy ma ten sam zestaw sygnałów wejściowych X =<    ....tu >T, natomiast każdy ma swój własny wektor wag. Ponumerujmy

neurony w warstwie i oznaczmy jako    =< te, ' \ w*1,..., >T wektor wag m-tego

neuronu (m = 1,2,----k). Wówczas oczywiście sygnał wyjściowy m-tego nauronu można

wyznaczyć ze wzoru

j/"*> = W<™>* X = £ m> Xi

i= I

Omawiana warstwa stanowi najprostszy przykład sieci neuronowej. Działanie tej sieci polega na tym, że pojawienie się określonego wektora wejściowego X powoduje powstanie sygnałów wyjściowych ym na wszystkich neuronach wchodzących w skład rozważanej warstwy. Oczekujemy przy tym maksymalnego sygnału wyjściowego ?/„, na tym neuronie, którego wektor wag W("‘J najbardziej przypomina X. Sieć tego typu może więc rozpoznawać k różnych klas obiektów, gdyż każdy neuron zapamiętuje jeden wzorcowy obiekt , na którego pojawienie się jest „uczulony”. O tym, do której klasy należy zaliczyć aktualnie pokazany obiekt, decyduje numer wyjścia, na którym pojawia się sygnał o maksymalnej wartości. Oczywiście „wzorce” poszczególnych klas zawarte są w poszczególnych neuronach w postaci ich wektorów wag Wlm). Neurony dokonujące omówionej tu klasyfikacji sygnałów nazywane są w literaturze Clrandmotlur Cc lis.

Stosując konsekwentnie notację wektorową można sygnały wyjściowe z rozważanej warstwy neuronów zebrać w formie wektora

Y =< 2/i, 2/2,----.V* >T

1

Składowe sygnału wejściowego .V można rozważać jako cechy pewnych obiektów, a sygnał wyjściowy y może Stanowić miarę podobieństwa ty cli obiektów Ho pewnej wyróżnionej klasy. Interpretacja lego typu nawiązuje Ho często stosowanego modelu rozpoznawania obrusów (patrz. (Twlefllr]).


Wyszukiwarka

Podobne podstrony:
Sieci CP str029 29 Rozdział X. Liniowe sieci neuronowe że neuron rozpoznaje1 sygnały wejściowe, wyró
img037 37 Rozdział 3. Liniowe sieci neuronowe pokazano jedynie oczy i usta). Takie zadanie nazywa si
img031 31 Rozdział 3. Liniowe sieci neuronowe jest aprioryczne ustalenie wektora W lub macierzy W* o
img035 35 Rozdział 3. Liniowe sieci neuronowe albo prościejv 3)=ww gdzie A jest pewną ustaloną stalą
img037 37 Rozdział 3. Liniowe sieci neuronowe pokazano jedynie oczy i usta). Takie zadanie nazywa si
img039 39 Rozdział 3. Liniowe sieci neuronowe mu taką strategię liczenia, by zapamięta] i potrafi! p
img041 41 Rozdział 3. Liniowe sieci neuronowe dopasowanie wektora wag    do rozpoznaw
img043 43 Rozdział 3. Liniowe sieci neuronowe3.9 Uczenie z forsowaniem Opisane wyżej techniki samo u
img045 45 Rozdzinl :i. Liniowe sieci neuronowe ma na ogól niewielką wartość, ponieważ poszczególne s
img047 47 Rozdział 3. Liniowe sieci neuronowe nazywanej skumulowanym błędem. Wartości skumulowanego
Sieci CP str037 37 Rozdział 3. Liniowe sieci neuronowe pokazano jedynie oczy i usta). Takie zadanie
Sieci CP str035 35 Rozdział 3. Liniowe sieci neuronowe albo prościej „<>> = —_— v

więcej podobnych podstron