Sieci CP str060

Sieci CP str060



60


4.6. Uczenie sieci nieliniowej

,(i) _ XU)

Jako ciekawostkę warto odnotować fakt, że takie neurony „buforujące" sygnały wejściowe występują także w rzeczywistym systemie nerwowym, w szczególności w narządach zmysłów i w systemach percepcyjnych, gdzie są znane pod nazwą „komórek dwubiegunowych” (jako że mają dwa bieguny: jedno wejście i jedno wyjście). Bardziej szczegółowa dyskusja tego zagadnienia zawarta jest w pracy {Tade91a].

Jak z tego wynika wszystkie sygnały w rozważanej sieci mają postać i/J? i jedynie na podstawie numeru neuronu m można będzie rozróżnić, z jakim sygnałem (wejściowym, wyjściowym lub może jednym z sygnałów warstwy ukrytej) mamy w tym wypadku do czynienia. Dla skrócenia zapisów i zwiększenia czytelności dalszych rozważań wprowadzimy jednak wygodną notację opartą na wyróżnieniu w zbiorze numerów neuronów 9J?(Vm m £ 9J?) następujących podzbiorów:

OJ?^    -    zbiór    numerów    neuronów wejściowych do sieci;

dJltJ    -    zbiór    numerów    neuronów wyjściowych z sieci;

W*    -    zbiór    numerów    neuronów warstwy ukrytej sieci;

OJ?,    -    zbiór    numerów    neuronów dostarczających sygnałów

wejściowych do konkretnego, rozważanego aktualnie neuronu;

OJ?0 - zbiór numerów neuronów do których dany, rozważany aktualnie neuron, wysyła swój sygnał wyjściowy.

Korzystając z tych oznaczeń możemy teraz wprowadzić zasadę uczenia wielowarstwowej sieci z użyciem algortmu backpropagation. Zaczniemy od stwierdzenia, że w j-ty.m kroku procesu uczenia sygnał na wyjściu każdego m-tego neuronu sieci może być wyznaczony z zestawu zależności o ogólnej postaci

he

.esm,

gdzie przez    * oznaczono wartość współczynnika Wagowego synapsy łączącej wejście lu

tego neuronu z wyjściem /-tego neuronu — oczywiście podczas j-tego kroku procesu uczenia. Podany wyżej wzór jest potencjalnie niejednoznaczny, ponieważ symbole typu #,• występują w nim po lewej i po prawej stronie rozważanej formuły, można więc wyobrazić sobie sytuację, że dla pewnych ń i to dla wyznaczenia y^ potrzebne będzie y\J^ i z kolei dla obliczenia wartości potrzebne będzie t/^\ Jest to jednak niejednoznaczność pozorna, gdyż przy sieciach heteroasocjacyjnyoh (feedforward) zawsze można wyznaczyć taką kolejność obliczania wartości ym . która gwarantuje, że w momencie wyliczania wartości t/,V,1 dla kolejnego neuronu wszystkie wartości t/'j5 dla i £ 9J?X- będą już znane. Sprawa nie jest specjalnie trudna, wystarczy tylko kolejność obliczeń związać z kolejnością przekazywania sygnałów z wejścia sieci do neuronów w kolejnych warstwach: najpierw oblicza się dla m £ 9J?r, potem dla m £ 9J?« (kolejno od wejścia w kierunku wyjścia), wreszcie na końcu obliczane są wartości dla m £ 9J?y. Sprawa się oczywiście komplikuje, jeśli w sieci występują sprzężenia zwrotne, jednak ten przypadek będzie rozważany osobno i chwilowo jest pominięty.

Określony porządek jest także wymagany przy znajdowaniu wartości poprawionych wag synaptycznych, z tym, że jest. on przy metodzie backpmyag&tion dokładnie przeciwny do tego, jaki jest wymagany przy obliczaniu wartości sygnałów tjm w kolejnych elementach sieci.


Wyszukiwarka

Podobne podstrony:
img060 60 4.6. Uczenie sieci nieliniowej y(m = *SJ)- Jako ciekawostkę warto odnotować fakt, że takie
Sieci CP str059 59 Rozdział 4, Nieliniowe sieci neuronowe4.6 Uczenie sieci nieliniowej Opinany wyżej
img059 59 Rozdział 4. Nieliniowe sieci neuronowe4.6 Uczenie sieci nieliniowej Opisany wyżej algorytm
Sieci CP str003 a 10.1.a Uczenie sieci .............................................................
Sieci CP str030 :jo 3.3. Uczenie pojedynczego neuronu ty* ,A.0) ...0) . w w (V w, ws . . Wn w
Sieci CP str032 32 3.3. Uczenie pojedynczego neuronu skorygowanie wektora wag W, by neuron lepiej re
Sieci CP str036 36 Uczenie sieci elementów liniowychty t*    ty* ...IV ...(V ...W
Sieci CP str044 AA Uczenie forsowaniem do postaci macierzowej:w^+,) = wjJ) + >/zfj] [x0)]T Efekt
Sieci CP str106 106 8.4. Uczenie sieci BAM i przykład jej działania8.4 Uczenie sieci BAM i przykład
Sieci CP str040 40 3.8. Uczenie z rywalizacją i sieci Kohonena Warto zauważyć, że przy takim postawi
Sieci CP str070 70 5.6. Uczenie drugiej warstwy sieci CP Funkcja adaptująca fyik) dla małych k przyj

więcej podobnych podstron