57
Rozdział 4. Nieliniowo sieci neuronowe
— funkję BSB (Rratn Siatę in a Box):
V =
1 gdy e > 1 e gdy I >0-1 -1 gdy e < -1
— funkcję SPR (Spaito-Temporal Patiem Recognition)
+ A oti/j) + fi e+J
gdzie „funkcja ataku” A[.] definiowana jest w sposób następujący:
a zapis e+ oznacza nieujemną wartość e:
e gdy e > 0 0 gdy p. < 0
Podane wyżej funkcje wywodzą się głównie z publikacji inżynierów stosujących sieci neuronowe jako wygodne nowoczesne narzędzia przetwarzania informacji i poszukujących takich form opisu elementarnego procesora (jakim jest dla nich neuron), które pozwalają na wygodną analizę matematyczną zachodzących zjawisk (sigmoida), łatwą realizację techniczną (perceptron) lub wygodne modelowanie w formie programu symulacyjnego (signum). Tymczasem odmienne formy nieliniowości rozważają neurofizjologowie zajmujący się opisem neuronu jako obiektu biologicznego będącego przedmiotem ich badań. Tutaj chętnie stosuje się w różnych kontekstach funkcję logarytmiczną (nawiązującą do znanego prawa Webera — Fechnera). Oczywiście t.ę listę można by dowolnie wydłużać.
Rozważmy problem uczenia nieliniowych sieci neuronowych. Dla uproszczenia przyjmijmy, że analizować będziemy wyłącznie regułę DELTA w jej podstawowej postaci. Wzór opisujący zmianę wartości składowych wektora wag podczas prezentacji próbek z ciągu uczącego
wygodnie będzie wyprowadzić początkowo dla jednego neuronu. Formuły uczenia szukać będziemy opierając się na wprowadzonej wyżej (przy rozważaniu sieci Adaline i Madaline) regule minimalizacji funkcjonału błędu średniokwadratowego:
gdzie oczywiście