101
Rozdział 8. Sieci pamięci skojarzeniowej
(gdzie i jest numerem neuronu), będący „wymuszeniem” powodującym określone zachowanie sieci podczas procesu uczenia. Sygnał wyjściowy z neuronu o numerze t, wyznaczyć można z równania
n
y, = *ij xi + fi ;'=i
zaś proces uczenia prowadzony według zmodyfikowanego algorytmu Hebba opisuje równanie różniczkowe ^
Oczywiście podane wyżej zależności dotyczą wszystkicli neuronów (t = 1,2,..., k) i mogą być zapisane w formie wektorowej
Y = W X + F
d -
Rozwiązanie powyższego równania wektorowego, przy założeniu że X i F pozostają niezmienne, ma postać
W(t) = r; /. F XT
Wyobraźmy sobie teraz proces uczenia polegający na prezentacji ciągu uczącego złożonego z par wektorów X^ i Ff*h
U = {< X(l), F<'> >, < F(*> X(N\ F(N) >}
przy czym zakładamy, że każda para < X(*\ > prezentowana jest sieci w ciągu odcinka
czasu r = \/ij. Wówczas po pełnym cyklu uczenia macierz wag W wyraża się wzorem
*=i
Po zakończeniu cyklu uczenia sygnały wymuszające nie występują (F = 0), natomiast sygnały wyjściowe z sieci są warunkowane wyłącznie przez jej sygnały wejściowe:
Y = W X
Oczekujemy, że sygnały te będą zbliżone do narzucanych w trakcie procesu uczenia, ale pewność, że tak będzie, mamy tylko dla ortonormalnych sygnałów co było wyżej
dyskutowane. Rozważmy jednak sytuacje o łagodniejszych wymaganiach odnośnie struktury sygnałów X^ w trakcie procesu uczenia. Przy X1** liniowo niezależnych możemy zapisać wynikową macierz wag po zakończeniu procesu uczenia jako
W = F’ (X<T X")~l XmT
gdzie przez F* i X* oznaczono-zagregowane do postaci macierzowej wektory występujące w ciągu uczącym. Ich budowa jest następująca: