Sieci CP str044

Sieci CP str044



AA


Uczenie forsowaniem

do postaci macierzowej:

w^+,) = wjJ) + >/zfj] [x0)]T

Efekt uczenia można wówczas zapisać w postaci sumarycznego wzoru

,v    r

Wi = ]T [x,;l] +wj_.

i = i

Załóżmy, że W[.11 = 0 oraz przyjmijmy, że wszystkie wektory wejściowe w ciągu uczącym są ortoiiormalne, to znaczy

taH7 X<m) = ( 1    = m

3 l J    ( 0 gdy) ^ m

Wówczas sieć nauczy się wiernie odtwarzać wymagane sygnały wyjściowe dla wszystkich rozważanych sygnałów wejściowych. Łatwo się o tym przekonać: załóżmy, że macierz W*. jest już „nauczona” zgodnie z podanym wyżej wzorem i załóżmy, że w trakcie „egzaminu” pojawił się wektor sygnałów wejściowych X, identyczny z jednym z wcześniej przedstawionych wektorów uczących X<m'. Obliczając sygnał wyjściowy „nauczonej” sieci otrzymujemy:

Y = Wk X = £]V=, ii Z(}) [X'>»]T X = £'VyZW [*W]T X1”" =

= 7, Z(n,) [X|m>]T X<"‘I = 71

Jak widać, sieć jest w rym wypadku zdolna dokładnie odtworzyć zapamiętany sygnał, zatem może służyć jako pamięć. Mało tego, sieć jest także zdolna do uogólniania sygnałów wejściowych. Załóżmy, że zbiór uczący jest tak zbudowany, że wejściowe sygnały mogą być traktowane jako przypadkowo zakłócone realizacje pewnego idealnego wzorca X

Xw» = X + *ł'>

gdzie składnik reprezentuje „szum” zniekształcający wejściowe sygnały w każdym kolejnym prezentowanym przykładzie. Taki model jest. dość wiarygodny w wielu konkretnych zadaniach, na przykład przy rozpoznawaniu ręcznie pisanych liter, wektor X(J> reprezentujący kształt kolejnej prezentowanej litery A, może być rozważany jako suma wektora cech X idealnej (takiej z podręcznika kaligrafii) litery A oraz przypadkowych zniekształceń pochodzących od indywidualnych cecli pisma osoby piszącej J«śłi dla każdego z rozważanych wektorów wejściowych X(;) podawać będziemy ten sam wektor wyjściowy Z (ponieważ wszystkie te próbki prezentują w istocie przypadkowe odmiany tego samego obrazu), wówczas w wyniku procesu uczenia macierz wag zostanie zbudowana w następujący sposób:

m = e;v=, 'iZ [*ij)]t =    '/Z [X +<(»]T =

= „z (na^ + e", K,’>]7j

Jak widać w macierzy wag manifestować się będzie głównie idealny wzorzec X. ponieważ jego wartość mnożona jest przez N. którego wartość w ogólnym wypadku może być bardzo duża, podczas gdy suma


Wyszukiwarka

Podobne podstrony:
img044 AA 3.9. Uczenie z forsowaniem do postaci macierzowej: w£;+,, = w^ + f/Z -* [x0)]r Efekt ucze
skanuj0032 (47) Jeśli dodatkowo funkcję Aa i Bx przekształcić do postaci: A3 =X+Z+Y Bj = X+Y+Z to ok
Sieci CP str003 a 10.1.a Uczenie sieci .............................................................
Sieci CP str030 :jo 3.3. Uczenie pojedynczego neuronu ty* ,A.0) ...0) . w w (V w, ws . . Wn w
Sieci CP str032 32 3.3. Uczenie pojedynczego neuronu skorygowanie wektora wag W, by neuron lepiej re
Sieci CP str036 36 Uczenie sieci elementów liniowychty t*    ty* ...IV ...(V ...W
Sieci CP str106 106 8.4. Uczenie sieci BAM i przykład jej działania8.4 Uczenie sieci BAM i przykład
Sieci CP str040 40 3.8. Uczenie z rywalizacją i sieci Kohonena Warto zauważyć, że przy takim postawi
Sieci CP str060 60 4.6. Uczenie sieci nieliniowej,(i) _ XU) Jako ciekawostkę warto odnotować fakt, ż
Sieci CP str070 70 5.6. Uczenie drugiej warstwy sieci CP Funkcja adaptująca fyik) dla małych k przyj

więcej podobnych podstron