75
Rozdział 6. Sieci rezonansowe
alfabetu łacińskiego (których jest 26) trzeba mieć około czterdziestu neuronów w warstwie wyjściowej, gdyż prawdopodobnie różniące się warianty tej samej liłery zostaną zidentyfikowane przez kilka oddzielnych neuronów.
W górnej warstwie tylko jeden neuron ma sygnał wyjściowy, różny od zera
Jest to ten, którego suma ważonych sygnałów wejściowych osiągnęła największą wartość
Jego sygnał wyjściowy przyjmowany jest jako równy i, pozostałe neurony mają sygnały wyjściowe wyzerowane
Taki schemat działania jest znany z wielu opracowań i (z dokładnością do kilku mało ważnych szczegółów) odpowiada omówionym wyżej koncepcjom sieci typu Madaline czy Perceptron. Element rywalizacji neuronów warstwy wyjściowej także występuje w koncepcjach wielu autorów, na przykład Kohonena. Na czym więc polega oryginalność sieci ART?
Dostrzeżoną przez Grossberga wadą sieci typu Madaline czy Perceptron jest niestabilność icli zachowania w trakcie procesu uczenia. Neuron warstwy wyjściowej, który w wyniku procesu uczenia uzyskał zdolność rozpoznawania pewnego obrazu — na przykład litery B — może w wyniku dalszego procesu uczenia zostać „przestawiony" na rozpoznawanie innego obrazu — na przykład litery R, co dość istotnie utrudnia korzystanie w takiej sieci (trudno być pewnym, jak się ona w konkretnej sytuacji zachowa). Dlatego w sieci ART wprowadzono dodatkowe połączenia biegnące od warstwy wyjściowej z powrotem do warstwy wejściowej. „Zwycięski” neuron warstwy wyjściowej może dzięki temu „wzmacniać” sygnały w tych neuronach warstwy wejściowej, od których otrzymywał pobudzenie. Przebadajmy ten proces bliżej.
Zdefiniujmy współczynniki wagowo przy odpowiednich połączeniach w sposób następujący. Niech tvfj będzie współczynnikiem wagowyrn połączenia między neuronami o numerach oraz j, przy czym jeśli £ = g, to odpowiednia waga znajduje się przy połączeniu wiodącym do góry czyli na drodze pomiędzy pierwszą warstwą, a drugą (we wstępującym nurcie przepływu sygnałów), natomiast jeśli £ = d, to odpowiednia waga znajduje się przy polączniu wiodącym w dół czyli w torze sprzężenia zwrotnego — między drugą warstwą, a pierwszą. Warto podkreślić, że pierwszy indeks (*) oznacza zawsze numer neuronu w pierwszej warstwie, a drugi (j) w drugiej. Oczywiście : przebiega przedział od 1 do tuj — od 1 do k. Podkreślenie to jest o tyle potrzebne, że w sieci ART neurony są numerowane indywidualnie w każdej warstwie, zatem zapis — przykładowo — tnf. oznacza połączenie pomiędzy neuronami o tych samych numerach, a nie sprzężenie zwrotne zamykające się na tym samym neuronie.
Przytoczony poniżej na rysunku schemat sieci, jest jeszcze niekompletny. W toku dalszych rozważań wprowadzone zostaną dwa dalsze elementy, bardzo istotnie uzupełniające schemat tej sieci. Jednak dla wstępnych rozważań na temat działania i zachowania lej sieci celowe będzie rozpoczęcie dyskusji od tego uproszczonego modelu, który będziemy potem systemtycznie uzupełniali o kolejne dalsze elementy.