106
8.4. Uczenie sieci BAM i przykład jej działania
Uczenie sieci BAM podlega prawu Hebba przy współczynniku t/ = 1, zatem po pokazaniu w ciągu uczącym pary sygnałów < > macierz wag W zostaje zmodyfikowana
o składnik będący macierzą korelacji X^ i
yy<*+‘) - yy(k) + AW(k^ - W{k) + X(Ar) Yityr
Po przeprowadzeniu procesu uczenia od początku do końca mamy więc następujący stan pamięci sieci
N
*r=i
(oczywiście przy założeniu = 0).
Rozważmy na prostym przykładzie działanie sieci, żeby rozumieć, co się w niej dzieje, gdy zaczniemy rozważać jej zachowanie w sposób ogólny dla bardziej złożonych przypadków. Wyobraźmy sobie ciąg uczący o następującej strukturze:
U = {< >,< X(3>,Y<3) >,< X<3\Y(3) >}
1 ■ |
' -1 ' | ||
xf,» = |
-1 |
Y(» = |
-1 |
-1 |
1 | ||
x<2> = |
' -1 1 |
Y<2) = |
' -1 ' 1 |
*■ |
-1 |
-1 | |
' -1 ' |
1 ' | ||
x(3> = |
-1 |
y(3) _ |
-I |
1 |
-1 |
Łatwo (choć nieco uciążliwie) można obliczyć, że odpowiednie macierze korelacji AłV**) mają w tym przypadku postać:
-1-1 1 ‘ |
1 -1 1 ' | ||
A WM = |
1 1 -1 |
; A\V(2) = |
-1 1 -1 |
i 1 -1 |
1 -! 1 | ||
‘ -1 1 1 | |||
AW/(3) = |
-I -1 1 | ||
1 -1 -1 _ |