78
6.3. Zasada działania sieci AUT
lub z prostszych formuł wypraktykowanych m.in. prze* firmę NeuralWare
»/-l+p<*ł
Parametr tj występujący w powyższych wzorach musi być dobierany empirycznie; z teorii wynika, że rj > 1 i większe wartości tego współczynnika sprzyjają tworzeniu przez sieć nowych wzorców kategorii, mniejsze natomiast skłaniają ją cło uogólniania kategorii juz wcześniej wypracowanych.
Wartości początkowe przyjmowane dla wag tefj1* przyjmowane są losowo z przedziału [0,1/n] (tym mniejsze, im więcej elementów liczy warstwa wejściowa).
W wyniku takiej radykalnej i wręcz brutalnej adaptacji wag (patrz niżej) możliwe jest dopasowywanie działania sieci do wielu wzorców różniących się od siebie, a ponadto sieć wykazuje pewną (ograniczoną) zdolność do uśredniania sygnałów wejściowych i tworzenia uogólnionych wzorców rozpoznawanych obiektów. Ta właściwość sieci jest podobna (lo analogicznych cech wykazywnnyc.h przez sieć Madaline, Perceptron lub Backpropagation i nie wymaga tu szerszej dyskusji.
Opisana wyżej reguła uczenia sieci ART nie jest jedynym możliwym algorytmem jej adaptacji do zmiennych zadań. Jednak ta reguła jest na tyle prosta i czytelna w kontekście wcześniejszych rozważań, że możliwe jest jej wykorzystanie w celu przemyślenia zasad działania sieci ART, jej zalet i wad.
Rozważmy przykład działania sieci rozpoznającej litery. Niech wejściowy sygnał podawany do neuronów pierwszej warstwy ma postać:
BHHH5 | |
Zaciemnione elementy ■ podanego rastra pokazują elementy przesyłające sygnał wejściowy o wartości z, = 1, a puste elementy □ odpowiadają wartościom z,- = 0.
W wyniku tego pobudzenia pewni en neuron wyjściowej warstwy został pobudzony (y? = 1), co można uznać za sukces (poprawne rozpoznanie). Można założyć (ct post), *c był to neuron o numerze odpowiadającym rozpoznaniu litery B. Ponieważ sieć funkcjonuje bez nauczyciela, nie było możliwe wskazanie tego neuronu a priori, przed jego ujawnieniem w toku uczenia, ale po pierwszym skojarzeniu konkretnego neuronu wyjściowego z konkretnym wejściowym sygnałem sieć ART utrzymuje to powiązanie we wszystkich dalszych pokazach w sposób stabilny i zdeterminowany. Jednak rzutowanie wstecz Y8 do wejściowej warstwy obszaru, z którego pochodziły pobudzenia wyróżnionego neuronu wykazuje zwykle, że obszar len nie jest całkowicie poprawny. Przykładowo może on wyglądać lak: