100
8.2. Ogólne własności sieci Hintona
W takim wypadku po pojawieniu się na wejściu nauczonej sieci sygnałów odpowiadających dokładnie pewnemu wektorowi X, który pojawił się w trakcie procesu uczenia (oznaczmy ten wektor XW), wówczas sygnał wyjściowy uzyskany z sieci można precyzyjnie obliczyć jako równy
Y = wx<j) = jr x“> [y(‘)]T
fcssi
Ale zgodnie z zasadami rachunku macierzowego
k=i k=i
co można łatwo przekształcić do postaci
zaś to na podstawie przyjętych założeń można zapisać jako
Y = Y(j)
ponieważ
[x<^jT Y(i>= 0
oraz
Z
tiij
X<*>
Jak z tego wynika, sieć Hintona po nauczeniu metodą Hebba pobudzona sygalem JfS*' odtwarza na swoim wyjściu dokładnie skojarzony z tym sygnałem (podczas uczenia) sygnał wyjściowy Y^').
Opisany na końcu poprzedniego podrozdziału wynik polegający na idealnym odtwarzaniu przez sieć zapamiętanych informacji—jest interesujący, ale ma raczej akademickie znaczenie, ponieważ warunek ortonormalności wejść jest w praktyce bardzo trudny do zachowania. Na szczęście dalsze analizy zachowania sieci Hintona wykazały, że warunek ortonormalności wejść można znacznie osłabić bez utraty możliwości sensownego korzystania z pracy sieci.
Podstawowe znaczenie dla tych rozważań miały prace Kohonena [KohodlJ, który rozpatrywał własności sieci autoasocjacyjnych i uzyskał bardzo ogólne wyniki, pozwalające określić warunki zapamiętywania i poprawnego odtwarzania informacji rejestrowanych przez sieć asocjacyjną. Kohoncn stosował swój własny system oznaczeń, ale w tej książce jego osiągnięcia zastaną przedstawione z wykorzystaniem symboli ujednoliconych z innymi autorami. Rozważać, będziemy sieć jednowarstwową o n wejściach i k wyjściach (liczba wyjść jest oczywiście identyczna z liczbą neuronów w sieci). Do każdego neuronu doprowadzone są wszystkie sygnały wejściowe, tworzące wektor X =< x\, ..., xn > oraz sygnał /,•