70
5.6. Uczenie drugiej warstwy sieci CP
Funkcja adaptująca t}2{k) dla małych k przyjmuje bardzo małe wartości, natomiast potem powoli rośnie do wartości 1 i tę wartość zachowuje przez resztę procesu uczenia. Sens tar kich zmian wektora X(*> jest oczywisty: na'porzątku poszczególne skorygowane wektory bardzo mało różnią się od siebie, ale za to prawic dokładnie pokrywają się z wektorami wag wj*\ Wśród „zwycięskich” neuronów (początkowo są to wszystkie neurony wyjściowej warstwy, potem stopniowo jest ich coraz mniej) przeprowadza się prosty zabieg porządkujący, polegający na tym, że uznaje się za „zwycięski” neuron o najniższym numerze i tylko jego wagi poddaje się procesowi uczenia — też początkowo bardzo subtelnego, jak wynika ze wzoru opisującego sposób uczenia i przyjętej reguły modyfikacji wektorów X^. Dzięki opisanym zabiegom wektory początkowo wspólliniowe, zaczynają się z wolna
rozchodzić w kierunkach wynikających z naturalnych tendencji występujących w zbiorze wejściowych sygnałów X(*\ dając początek sprawnej i efektywnie dalej przebiegającej kla-steryzacji. Warto podkreślić, że opisane zabiegi skutkują jedynie w krótkim początkowym okresie uczenia, gdyż wkrótce funkcja *h(k) osiąga wartość 1 i modyfikacja wektorów X^J praktycznie przestaje działać.
W porównaniu z kłopotami, jakich nastręcza uczenie pierwszej warstwy sieci CP, uczenie warstwy Crossberga to sama przyjemność. Reguła zmiany wag V{j podporządkowana jest tu zasadzie Widrowa-Hoffa:
t#+1) = + r/3 (yi - Zi) kj
Reguła ta okazuje się jeszcze prostsza w stosowaniu, niż to może wynikać z podanego wzoru, gdyż tylko jedna wartość kj jest różna od zera i w każdym kroku procesu uczenia korygowane są tylko te wagi, które łączą poszczególne neurony wyjściowej warstwy z jednym tylko — mianowicie „zwycięskim” elementem poprzedniej warstwy. Ta zasada (zwana czasem regułą outstar) znakomicie zmniejsza pracochłonność procesu uczenia.
Parametr 1/3 wybiera się zazwyczaj ostrożnie tak, by proces uczenia nie spowodował wpisania do „tablicy” (łook-np table.) błędnych wartości. Zwykle zaczyna się uczenie od wartości 1/3 = 0,1 a potem się tę wartość jeszcze mocniej redukuje.
Sieci CP okazują się zaskakująco przydatne przy rozwiązywaniu różnych praktycznych zadań. Przykładowo można tu wspomnieć o modelu sieci CP wbudowanym w symulator Neural-Works Professional II firmy NeuralWare. Model len ma doradzać, jak spędzać sobotni wieczór.
Sieć ma dwa wejścia:
- z\ określające ilość pilnej pracy, jaka jest do wykonania,
- z-2 podające „temperaturę” uczuć rodzinnych.
Sieć ma też pięć wyjść: