Sieci CP str032

Sieci CP str032



32


3.3. Uczenie pojedynczego neuronu

skorygowanie wektora wag W, by neuron lepiej realizował zadaną funkcję y = /(X). Nowy wektor wag W' obliczany jest ze wzoru

W'=W + ^X

gdzie 7/jest współczynnikiem liczbowym, decydującym o szybkości uczenia. Zasadom wyboru tego współczynnika poświęcimy nieco uwagi później.

Za chwilę dokonamy matematycznego uzasadnienia, że podana metoda uczenia działa poprawnie. Zanim to jednak nastąpi — warto zastanowić się nad sensem podanej metody uczenia i spróbować intuicyjnie uzmysłowić sobie, dlaczego możemy oczekiwać, że metoda ta da dobre wyniki. Zacznijmy od interpretacji geometrycznej. Załóżmy, że 8 > 0, to znaczy, że z > y. Oznacza to, że sygnał wyjściowy z neuronu był za wały. Ponieważ sygnał ton zależy od kąta między wektorami X i W domyślamy się, że kąt. ten był za duży. Żeby sygnał y był maksymalny — trzeba by było uzgodnić kierunki wektorów X i W. Dodając (wektorowo) do W wektor X, otrzymujemy nowy wektor W' = W -f X w każdym wypadku bliższy X niż poprzedni wektor W. W istocie reguła uczenia nakazuje dodawanie fragmentu wektora X (ponieważ zwykle »/ 8 < ł), co jest uzasadnione, gdyż zapobiega zbyt gwałtownym „obrotom” wektora W przy każdym napotkanym błędzie. Bardzo podobne rozumowanie pozwala się upewnić, że przy 8 < 0 następuje oddalanie wektora W od wektora X, który wywołał błąd polegający na zbyt silnej odpowiedzi neuronu («/ > c).

Inne rozumowanie, które uwiarygodnia opisaną regułę uczenia, opiera się na spostrzeżeniu, że korekta wektora W jest. tym silniejsza, im większy został odnotowany błąd (wielkość korekty jest proporcjonalna do 6). Jest to uzasadnione: trzeba silnie interweniować przy dużych błędach i dokonywać płynnego, subtelnego dostrajania w przypadku błędów małych. Przy okazji zapewniony jest automatycznie logicznie konieczny warunek, że w przypadku braku błędu (ó = OJ żadne korekty nie będą dokonywane. Kolejną zgodną ze zdrowym rozsądkiem zasadę, dostrzeżemy w opisanej regule uczenia skupiając uwagę na pojedynczych składowych wektorów W i X. Widać, że j-ta składowa wektora W będzie tym silniej zmieniona w wyniku procesu uczenia, im większa była odpowiadająca jej składowa wektora X. Jest to prawidłowe i logiczne: jeśli odpowiednia składowa ar, była mała, to korygowana wartość Wi w niewielkim tylko stopniu przyczyniła się do powstania usuwanego błędu 8. W szczególności, jeśli z, = 0, to odpowiadająca składowa wektora wcale nie będzie zmieniana — zupełnie słusznie, gdyż nie uczestniczyła w obliczaniu błędnej wartości y. Warto także zauważyć, że w przypadku ujemnych wartości x,• odpowiednie składowe W będą zmniejszane., a nie powiększane (oczywiście przy założeniu, że 8 > OJ. Oznacza to, że w odróżnieniu od wejść „pobudzających”, które dla uzyskania większego sygnału y trzeba wzmocnić, wejścia „hamujące” trzeba właśnie osłabić.

Tego rodzaju impresje oparte na strukturze wzoru opisującego uczenie neuronu można by snuć jeszcze długo. Nie będziemy tu tego robili ze względu na brak miejsca, zachęca się jednak Czytelnika, by poświęcił nieco czasu i sam przemyśla! różne kombinacje sygnałów wejściowych, wag i błędów, upewniając się. że w każdym przypadku efekty działania, opisanej wyżej reguły uczenia są możliwe do intuicyjnego uzasadnieńia. Takie rozważania nie są oczywiście dowodem, że metoda jest poprawnie zbudowana (dowód laki skonstruujemy za chwilę), jednak znaczenia intuicji nie można nie doceniać. Żadna metoda matematyczna, nawet bardzo wszechstronnie podbudowana dowodami, nie znajdzie uznania w technice, jeśli nic będzie zgodna z intuicją i zdrowym rozsądkiem. Cenimy bowiem bardzo matematykę, jako narzędzie i pomocniczy instrument inżyniera, jednak wyżej cenimy własny intelekt,


Wyszukiwarka

Podobne podstrony:
img032 32 3.3. Uczenie pojedynczego neuronu skorygowanie wektora wag W, by neuron lepiej realizował
Sieci CP str030 :jo 3.3. Uczenie pojedynczego neuronu ty* ,A.0) ...0) . w w (V w, ws . . Wn w
img091 (20) oprowadzenie do techniki sieci uczenia - pojedynczego neuronu, albo i całej sieci (rys.
Sieci CP str060 60 4.6. Uczenie sieci nieliniowej,(i) _ XU) Jako ciekawostkę warto odnotować fakt, ż
img030 30 3.3. Uczenie pojedynczego neuronu ...m ...m (1) (2) (2) 00 00 00 w, w2 ... w„ W, W2
Sieci CP str003 a 10.1.a Uczenie sieci .............................................................
Sieci CP str036 36 Uczenie sieci elementów liniowychty t*    ty* ...IV ...(V ...W
Sieci CP str044 AA Uczenie forsowaniem do postaci macierzowej:w^+,) = wjJ) + >/zfj] [x0)]T Efekt
Sieci CP str056 56 4.4. Formy nieliniowości neuronu który można rozpisać jako y = exp (ffe) - exp (-
Sieci CP str106 106 8.4. Uczenie sieci BAM i przykład jej działania8.4 Uczenie sieci BAM i przykład
Sieci CP str056 56 4.4. Formy nieliniowości neuronu który można rozpisać jako y = exp (ffe) - exp (-

więcej podobnych podstron