67
Rozdział 5. Sieci CP
Jest to właśnie tytułowy coanter — żeton zastępujący i symbolizujący wszystkie sygnały wejściowe podobnie jak żeton klienta w banku zastępuje i symbolizuje całą jego sprawę.
Zasada działania warstwy Kohonena zakłada, że sygnał ej każdego neuronu jest miarą stopnia podobieństwa pomiędzy aktualnym sygnałem wejściowym X, a abstrakcyjnym wzorcem sygnału, na którego wykrywanie wytrenowany jest ;-ty neuron. Ten wzorzec idealnego sygnału dlaj-tego neuronu zawarty jest w jego wektorze wag W^. Jeśli X = W;-, wówczas neuron odpowiada sygnałem o maksymalnej wartości, jeśli X WJ ? wówczas c;- jest mi^rą kosinusa kąta a pomiędzy wektorami X i
ei=WjX = ||Wj|| ||X||cos<v
Miara ta jest wiarygodna, jeśli ||Wj|| = 1 i ||X|| = 1, w przeciwnym razie możliwe są przykre pomyłki. Szczególnie groźny jest przypadek dopuszczenia dowolnych wartości ||W,-||. Rozważmy trywialny przykład.
Niech sieć składa się z dwóch neuronów o trzecli wejściach każdy i niech wektory wag zarejestrowane w sieci będą następujące
W, = |
' 1 ' 2 |
, W2 = |
' 0 ' 1 |
3 |
0 |
Wyobraźmy sobie, że na wejściu sieci pojawia się sygnał
Sumaryczne pobudzenia neuronów wynoszą wtedy
Cj = 14 , €■> = 2
i oczywiście neuron numer 1 jest „zwycięzcą”. Jest to absolutnie prawidłowe, ponieważ wektor wejściowy byl tu zgodny z wzorcem zapamiętanym przez pierwszy neuron. Rozważmy jednak, co się stanie po podaniu na wejście sieci sygnału zgodnego ze wzorcem pamiętanym przez drugi neuron. Okazuje się, że dla 0
X =
I
o sumaryczne pobudzenia neuronów wynoszą
ci = 2 , C2 = I
i znowu neuron numer 1 jest „zwycięzcą”. Jest to oczywisty błąd, a jego przyczyna związana jest z brakiem normalizacji sygnałów. CJdyby wejścia X były normalizowane, wartości wektorów wag powstające w wyniku procesu uczenia (opisanego niżej) także spełniały by warunek ||W;-|| = 1 i do podobnych paradoksów nigdy by nie doszło.