67
Rozdział 5. Sieci CP
Jest to właśnie tytułowy counter — żeton zastępujący i symbolizujący wszystkie sygnały wejściowe podobnie jak żeton klienta w banku zastępuje i symbolizuje całą jego sprawę.
Zasada działania warstwy Kohonena zakłada, że sygnał ej każdego neuronu jest miarą stopnia podobieństwa pomiędzy aktualnym sygnałem wejściowym X, a abstrakcyjnym wzorcem sygnału, na którego wykrywanie wytrenowany jest ;-ty neuron. Ten wzorzec idealnego sygnału dla j-tego neuronu zawarty jest w jego wektorze wag Wj. Jeśli X = W;-, wówczas neuron odpowiada sygnałem o maksymalnej wartości, jeśli X jć WJ ? wówczas r.j jest ini^rą kosinusa kąta a pomiędzy wektorami X i Wj
ei=WjX = ||wT|| ||X||cos«
Miara ta jest wiarygodna, jeśli ||W;|| = 1 i ||X|| = 1, w przeciwnym razie możliwe są przykre pomyłki. Szczególnie groźny jest preypadek dopuszczenia dowolnych wartości ||Wj||. Rozważmy trywialny przykład.
Niech sieć składa się z dwóch neuronów o trzech wejściach każdy i niech wektory wag zarejestrowane w sieci będą następujące
W, = |
' 1 ' 2 |
, W2 = |
' 0 ' 1 |
3 |
0 |
Wyobraźmy sobie, że na wejściu sieci pojawia się sygnał
X =
Sumaryczne pobudzenia neuronów wynoszą wtedy
e i =14 , €■> = ‘2
i oczywiście neuron numer 1 jest „zwycięzcą”. Jest to absolutnie prawidłowe, ponieważ wektor wejściowy był tu zgodny z wzorcem zapamiętanym przez pierwszy neuron. Rozważmy jednak, co się stanie po podaniu na wejście sieci sygnału zgodnego ze wzorcem pamiętanym przez drugi neuron. Okazuje się, że dla 0
X =
ł
o sumaryczne pobudzenia neuronów wynoszą
ei = 2 , es = I
i znowu neuron numer 1 jest „zwycięzcą”. Jest to oczywisty błąd, a jego przyczyna związana jest z brakiem normalizacji sygnałów. Ody by wejścia X były normalizowane, wartości wektorów wag powstające w wyniku procesu uczenia (opisanego niżej) także spełniały by warunek ||W;-|| = I i do podobnych paradoksów nigdy by nie doszło.