Sieci CP str029

Sieci CP str029



29


Rozdział X. Liniowe sieci neuronowe

że neuron rozpoznaje1 sygnały wejściowe, wyróżnając te, które, są podobne do jego wektora wag. Aby to jeszcze silniej zaakcentować załóżmy, że wektory X i W są znormalizowane, to znaczy

||X|| = Xr X = 1

oraz

|JW|J = Wr W = |

W tym wypadku sygnał wyjściowy neuronu wyznaczyć można ze wzoru

V = cos <f

gdzie y? jest kątem pomiędzy wektorami W i X. Jeśli na wejście rozważanego neuronu podawać będziemy różne sygnały X. to wyjście neuronu y będzie miało tym większą wartość, im bardziej podany sygnał X będzie podobny do „wzorcowego” sygnału, który neuron pamięta w postaci swojego zestawu wag W.

3.2 Warstwa neuronów jako najprostsza sieć

Rozważmy teraz warstwę neuronów, z których każdy ma ten sam zestaw sygnałów wejściowych X =< x.\,    .,.. tu >T, natomiast każdy ma swój własny wektor wag. Ponumerujmy

neurony w warstwie i oznaczmy jaku W(* =<    i/:!”1....    >^* wektor wag m-tego

neuronu (m = 1,2,----k). Wówczas oczywiście sygnał wyjściowy m-tego nauronu można

wyznaczyć ze wzoru

v(m, = W<«)* X = £ ur|.W>

i= I

Omawiana warstwa stanowi najprostszy przykład sieci neuronowej. Działanie tej sieci polega na tym, że pojawienie się określonego wektora wejściowego A' powoduje powstanie sygnałów wyjściowych y,n na wszystkich neuronach wchodzących w skład rozważanej warstwy. Oczekujemy przy tym maksymalnego sygnału wyjściowego y,„ na tym neuronie, którego wektor wagW<m) najbardziej przypomina X. Sieć tego typu może więc rozpoznawać k różnych klas obiektów, gdyż każdy neuron zapamiętuje jeden wzorcowy obiekt, na którego pojawienie się jest „uczulony”. O tym. tło której klasy należy zaliczyć aktualnie pokazany obiekt., decyduje numer wyjścia, na którym pojawia się sygnał y„, o maksymalnej wartości. Oczywiście „wzorce” poszczególnych klas zawarte są w poszczególnych neuronach w postaci ich wektorów wag W,m). Neurony dokonujące omówionej tu klasyfikacji sygnałów nazywane są w literaturze Graudmotln r Celi*.

Stosując konsekwentnie notację wektorową można sygnały wyjściowe z rozważanej warstwy neuronów zebrać w formie wektora

Y =<y\.%■ >T

J Składowe sygnału wejściowego X można rozważać jako cechy pewnych obiektów, a sygnał wyjściowy y może stanowi.' miarę podobieństwa tycli obiektów do pewnej wyróżnionej klasy. Interpretacja t«ąo typu nawiązuje do często stosowanego modelu rorpornawania obrtirów (patrz. [TadoOlr]).


Wyszukiwarka

Podobne podstrony:
img029 29 Rozdział 3. Liniowe sieci neuronowe że neuron rozpoznaje1 sygnały wejściowe, wyróżnając te
Sieci CP str039 39 Rozdział 3. Liniowe siwi neuronowe mu taką strategię uczenia, by zapamięta] i pot
Sieci CP str037 37 Rozdział 3. Liniowe sieci neuronowe pokazano jedynie oczy i usta). Takie zadanie
Sieci CP str035 35 Rozdział 3. Liniowe sieci neuronowe albo prościej „<>> = —_— v
Sieci CP str033 33 Rozdział 3- Liniowe sieci neuronowe który nie powinien się buntować przeciwko wni
Sieci CP str037 37 Rozdział 3. Liniowe sieci neuronowe pokazano jedynie oczy i usta). Takie zadanie
Sieci CP str045 45 łiuzdziHl . i. Liniowe .sjpc/ neuronowe ma na ogól niewielką wartość, poniowaz po
Sieci CP str051 51 Rozdział 4. Nieliniowe nieci neuronowe<p(e) -, 1e Taka postać ma sporo wad, od
pn1 parametrypracy Parametry pracy neuronu-Moc sygnału wejściowego: Moc śladu pamięciowego: Łęczne
img037 37 Rozdział 3. Liniowe sieci neuronowe pokazano jedynie oczy i usta). Takie zadanie nazywa si

więcej podobnych podstron