93
7.4. Sieci neuronowe
funkcji <p jest krzywa logistyczna:
zk
zk 1
X\ = <P 1«aJ =
_1_
1 +exp[- £ V„(A)(ł"1)x‘ + V0(A)]
/Wl
Obok innych korzystnych właściwości krzywa ta ma także i tę zaletę, że jej pochodna ma bardzo prostą postać:
dx\
<9e*
Sieć neuronowa ma zwykle budowę warstwową. Wyróżnia się w niej warstwę wejściową, do której podawane są zewnętrzne sygnały (przy rozpoznawaniu obrazów są to wektory cech r) oraz warstwę wyjściową, której sygnały mogą wskazywać na rozpoznanie i. Niech składowa x„ wektora cech x będzie sygnałem wejściowym podawanym z zewnątrz do i/-tego wejścia każdego neuronu pierwszej warstwy, zaś x\ będzie sygnałem wyjściowym z A-tego (w rozumieniu przyjętej numeracji) neuronu sieci. Proces uczenia sieci polega na prezentowaniu sieci w kolejnych krokach k wzorców tworzących zbiór uczący U i na dokonywaniu oceny wypracowywanych przez sieć sygnałów wyjściowych:
W = {x*. Ic = 1,2,..., AT; A € Ar} porównywanych ze wzorcem, do którego sieć ma dążyć
Z = {xkx, * = 1,2,...,//; A€Af).
Współczynniki V„X^ o wielkość(6) AViX^k\
zmieniają się w trakcie prezentacji sygnałów xk przy czym reguła uczenia dana jest wzorem:
k
VI
(6) Wielkość ta zależy od arbitralnie przyjmowanego współczynnika Ci •