114
czasie uczenia. Przy takim założeniu opisana metoda uczenia może być wygodna jako technika aproksymująca w uproszczeniu zachowanie systemów o znacznie większym stopniu złożoności, które charakteryzują się asymptotyczną stabilnością, ale są znacznie trudniejsze do analizy i kosztowniejsze przy symulacji. W szczególności przy zaniedbaniu efektu „zapominania” (tzn. przy założeniu = 0) rozwiązanie równania uczenia może być apro-ksymowane za pomocą wzoru:
114
co oznacza, że wartości wspólczyników Wagowych są w tym wypadku zależne tylko od wartości macierzy korelacji wejściowych sygnałów X(i)- Jest to ważny fakt, pozwalający często na wygodną intepretację niektórych aspektów działania większych i bardziej złożonych sieci, a ponadto mający duże znaczenie praktyczne — wystarczy uświadomić sobie jak często w różnych kontekstach wykorzystywane są macierze korelacji w przetwarzaniu sygnałów.
Oczywiście podane wyżej przybliżone rozwiązanie W(!) jest nadal rozbieżne
( lim ||W(/)|| => 00),
CVJ
jednak można wykazać, że W(0 dąży do wektora własnego macierzy korelacji sygnałów X(t) odpowiadającego największej wartości własnej, w związku z czym może być wykorzystany dla dowolnego konkretnego i < oo, dla określenia np. składowych kanonicznych sygnału. Szczególnie interesujący przypadek specjalny pojawia się, gdy założymy wartość o < 0 i przyjmiemy, że wektor X(/) przyjmuje wartości z pewnego ograniczonego zbioru, gdyż wtedy W(t) jest zbieżny do pewnego skończonego, niezerowego wektora mającego interpretację ortogonalnego rzutowania, co będzie dalej szerzej omówione.
Przypadek 2A. Opisany wyżej przypadek liniowej funkcji 4> i stałej funkcji y ma pewien szczególnie ważny podprzypadek, uzyskiwany przy założeniu, że « < 0 i (f = U. Dla silniejszego zaznaczenia specyfiki (ego zadania w podanych dalej wzorach przyjmować będziemy o > 0 i zaznaczać będziemy ujemną wartość odpowiedniego składnika poprzez jawnie wpisywany znak (minus). Tego rodzaju proces uczenia opisują więc rówanania:
dWT
dt
U
Zachowanie takiego neuronu łatwo można wydedukować na podstawie rozważenia rozwiązania W(/) otrzymanego dła X(/) = const dla t > Rozwiązanie to ma postać:
Wr(t) = Wt{K) \I - ud/) X XT]
gdzie
jak łatwo zauważyć, że 0 < u>(<) < ||X||—2 i przy niezmiennym sygnale wejściowym „ślad pamięciowy” wejściowych wrażeń w miarę upływu czasu systematycznie się zaciera. Takie