Dla funkcji logistycznej q>(e) (jest ona różniczkpwalna) wzór na zmianę wartości i-tej, wagi można ząpisać jako;, > ; ••• I ,!
A w? = T](zm^ yj.il- ym) ym%ś z\<- (Z;2.10)
gdzie: zm, ym e (0,1). , .
Dla każdej z par ciągu uczącego dokonuje się zmian wag według podanej zasady. Wykonanie jednego cyklu prezentacji ciągu uczącego nazywane jest; epoką uczenia. W praktyce uczenie sieci polega na kilkunasto- lub kilkudzie* sięciokrotnej prezentacji1, ciągu uczącego do momentu,v gdy błąd sieci nie zmniejsza się lub zmniejsza się o nieznaczną wartość.
Sieć uważa się za nauczoną określonego ciągu uczącego, jeżeli wszystkie elementy tego Ciągli rozpoznawane są przez sieć w 100%. Jednak sieci wykorzystuje się w zasadzie do rozpoznawania obiektów nie wchodzących w skład ciągu uczącego — sieć ma rozpoznawać obiekty, których jej nie prezentowano, Sposób zmiany wartości wag sieci (metoda uczenia) ma znaczący wpływ na jej funkcjonowanie. Jako dane wejściowedo algorytmu uczenia traktuje się ciąg uczący.
Uczenie pójedynckega neuronu ;k h i
; Do rozpoznawania dwuwymiarowych obiektów można wykorzystać neuron mający dwa wejścia (rysunek Z.2.5).
Dla vv} = -1 i w2 - 1 obiekty opisywane wektorem X = (Zj ,jc2) rozdzielone są prostą określoną równaniem:
' *i(-l) + *2(l) + © = 0 (Z.2.11)
W formie graficznej sytuację taką przedsta-Rys. Z.2.5. Prosty neuron analizujący wia rysunek Z.2.6.
obiekty w przestrzeni dwuwymiarowej p)]a pojedynczego neuronu ciąg uczący ma y = cp(e + ®) — wartość sygttału na . x
wyjściu neuronu; e = x,wj ix2 w2 „następującą postać;
sumaryczne pobudzenie neuronu;
© — przesunięcie funkcji aktywacji
gdzie: Xt = (x\, x2) — przykładowe obiekty,
Zi e i? — odpowiadające wektorom X, wartości na wyjściu neuronu.
Zmiany wartości wag mogą być dokonywane za pomocą metody gradientowej, wykorzystującej zależność:
= -n(z - y) (1 - y) yx* (Z.2.13)
gdzie: y = (p (wL jct h- yv2 jc2 + 0) — wartość sygnałuna wyjściu neuronu.
Zapis sposobu uczenia jednej warstwy neuronów2 jest podobny do przedstawionego dla pojedynczego neuronu. Ciąg uczący ma postać:
U = {<Xx, Zj> , <X2, Z2> ,... , <XN, ZN>) (Z.2.14)
gdzie: X; = , x2) — obiekt opisywany wektorem dwuwymiarowym,
Zj = (z'i, z2, ..., zk) — odpowiadające wektorom Xt wektory wartości na wyjściu sieci.
Zmiana wartości wag dla m- tego neuronu obliczana jest zgodnie ze wzorem: Awr = r\(zm - ym) (1 - yj yw xt (Z.2.15)
71
Okazuje się, że bardzo ważny jest sposób prezentacji elementów ciągu uczącego w kolejnych epokach. Jeżeli w trakcieuczenia elementy ciągu uczącego byłyby prezentowane w identycznej kolejności, to sieć nauczyłaby się go “naparmęć”, niebędąc w stanie uogólnić zasad klasyfikacji dla nieznanych obiektów.
Uczenie dotyczy tak jak dla pojedynczego neuronu, klasyfikacji obiektów w przestrzeni dwuwymiarowej.