95
7.4. Sieci neuronowe
a ostatnią pochodną obliczymy jako
dQk _ dQt de\ _ dQt dij dekx _ dQk dy de* dvw - dekx dvtX) ~ dix dV„(A) ~ 9xk de* gyW'
Przy okazji warto zauważyć, że strategia uczenia w czasie prezentacji wszystkich zestawów sygnałów treningowych z*, k = 1,2, ..., N może być określonajako prosta zasada sumowania poprawek A dla wszystkich
wartości k:
V„(A) = yO)(0) + £ AK„<a>(*>,
t=l
co jest naturalną konsekwencją wprowadzonej addytywnej postaci funkcji Q i wynikającej z niej oczywistej tożsamości:
WJ av„(A)'
Można udowodnić, że proces uczenia jest zbieżny, jeśli tylko stawiane zadanie przekształcenia sygnałów z„ w sygnały x\ jest wykonalne w klasie zadań realizowalnych przez sieci neuropodobne. Co więcej, można udowodnić, że właściwe wartości współczynników vJA* możliwe są do ustalenia po skończonej liczbie N pokazów (por. Dodatek 2). Opisany algorytm można jednak stosować jedynie w przypadku, kiedy i* jest sygnałem z wyjściowej warstwy sieci - gdyż tylko wówczas znany jest sygnał i*.
W przypadku rozważania sieci wielowarstwowych obecność warstw wewnętrznych (ukrytych) zmusza do modyfikacji algorytmu, ponieważ sygnały wejściowe większości neuronów są sygnałami wyjściowymi innych komórek, przeto w odpowiednich zapisach pojawią się sygnały i* zamiast z*, na przykład we wzorze określającym pobudzenie komórki:
i/=i
lub w stale aktualnym wzorze opisującym podstawową regułę uczenia komórek sieci (także wielowarstwowej):