Rozdział 5
Wada, jakąjcst powolny i uciążliwie pracochłonny proces uczenia w sieciach ze wsteczną propagacją błędów sprawiła, że w literaturze dotyczącej sieci neuronowych pojawiło się wiele propozycji sieci o podobnym przeznaczeniu, lecz sprawniejszych w działaniu. Jedną z najhardziej znanych jest propozycja Roberta llecht-Nielsena (!łech88j, określana jako sieć fjounter-Propagalion. Nazwa tajeni (rudna do przetłumaczenia na język polski, gdyż tytułowy co-ttntcr ma wiele znaczeń. Ponieważ najlepiej przystającym polskim terminem wydaje się być „żeton” (używany w banku do identyfikacji klienta w trakcie większych operacji kasowych), dlatego zaproponowano nazwę „sieć przesyłająca żetony” z pełną świadomością jej niedoskonałości i z nadzieją, że ktoś z Czytelników książki zaproponuje lepszą nazwę, W dalszych rozważaniach używać będziemy oznaczenia CP dla określenia tej sieci.
Sieć CP właściwie nie jest oryginalną propozycją, lecz stanowi kompilację sieci Kohonena i sieci Grossbcrga. Jednak zestawienie tych sieci w strukturze sieci CP wprowadziło istotnie nową jakość - sieć stosunkowo szybko się uczącą i mającą (potencjalnie) nieograniczony zakres możliwych odzworowań pomiędzy sygnałem wejściowym X i wyjściowym Y.
Ze względu na dość prostą zasadę działania, funkcjonowanie sieci CP porównywane jest do odczytu gotowego wyniku z tablicy (tzw. technika look-ttp labie, chętnie stosowana przy programowaniu sterowników przemysłowych). Oczywiście sieć CP nie ogranicza swojego działania do odczytu z tablicy, gdyż wejściowa jej warstwa dokonuje dodatkowo adaptacyjnej klasyfikacji wejściowych bodźców, co pozwala na pewne uogólnianie gromadzonego doświadczenia, a ponadto jak wszystkie sieci neuronowe CP dysponuje możliwością uczenia, co pozwała na jej wygodne używanie w szerokim zakresie ciekawych zastosowań.
Na podanym niżej rysunku połączenia między warstwą Kohonena, a warstwą wyjściową narysowano w uproszczeniu. W rzeczywistości mamy tu do czynienia z połączeniem według reguły „każdy z każdym”, co jest jednak trudne do narysowania (i do realizacji...), ponieważ z reguły liczba neuronów w warstwie Kohonena jest bardzo duża (im większa, tym bogatsze możliwości sieci!); jak zaznaczono na rysunku, jest to liczba znacznie większa, niż liczba składowych wektora wejść i wektora wyjść z sieci.