30
3.3. Uczenie pojedynczego neuronu
...m ...m |
(1) |
(2) |
(2) |
00 |
00 |
00 | ||
w, w2 ... w„ |
W, W2 ... VY„ |
. . . |
w, |
Wa ... w„ | ||||
t t |
i |
t |
. J |
i 1 |
L |
i |
Xg
Xn
Wektor ten można wyznaczyć mnożąc wektor wejściowy X przez macierz W* o wymiarach [k x ?»], utworzoną w taki sposób, że jej kolejnymi wierszami są (transportowane) kolejne wektory W*™* (dla m = 1,2.....k). Macierz W/., ma więc następującą budowę:
>4" . |
.. -i" | |
,4” . |
.. t43) | |
■r |
Wykorzystując macierz W* można zapisać funkcje realizowane przez całą sieć w formie jednego zwartego wzoru:
Y = WkX
Wzór ten ujawnia jedną z podstawowych własności rozważanej tu sieci neuronowej: Otóż macierz W;, zadaje określone odwzorowanie liniowe sygnału X 6 Ti-'1 w sygnał Y C 7?.*. Odwzorowanie to może być w zasadzie dowolne; jeśli przypomnimy sobie, że znaczna część używanych w teorii przetwarzania sygnałów transformacji jest liniowa (na przykład transformacja Fouriera), wówczas łatwo zauważymy szeroką, praktyczną przydatność rozważanych tu sieci. Celowe jest tu także wprowadzenie jeszcze jednej interpretacji. Przekształcenie sygnału X w sygnał Y można traktować jako filtrację, w związku z czym o sieci neuronowej dokonującej takiego przekształcenia można mówić jako o filtrze. Taka interpretacja jest szczególnie wygodna przy omawianiu sieci MADALINE, o których będzie mowa dalej.
O zachowaniu pojedynczego neuronu decydował wektor wag W, a o działaniu sieci — macierz wag Wfc. Jak z tego widać wartości wag odgrywają w dziedzinie sieci neuronowych podobną rolę, jak programy w dziedzinie obliczeń numerycznych. Jak wiadomo programowanie systemów współ bieżny cli nastręcza wiele kłopotów, zatem zwykle bardzo trudne