9965379433

9965379433



i— Wyjścia <— Warstwa wyjściowa

^— Pierwsza warstwa neuronów

- Rozwidlone wejścia

4— Warstwa wejściowa 4— Wejścia


Jednak, aby takie rozwiązanie uzyskać, należy przejść żmudną drogę uczenia sieci. Jedną z metod jest uczenie metodą wstecznej propagacji błędów - EBP (ang. Error Back Propagation). Jest to podstawowa (i jedna z najskuteczniejszych) metoda uczenia sieci wielowarstwowych. Została opracowana w 1974 roku przez P. J. Werbosa jako uczenie z nadzorem lub inaczej - z nauczycielem. Taką też metodę zastosowałem w programie.

Algorytm opiera się na sprowadzeniu wartości funkcji błędu sieci poniżej pewnego założonego minimum. Jako miarę błędu stosuje się błąd średniokwadratowy na neuronach wyjściowych (E).

Poprawianie wag odbywa się po prezentacji każdego wzorca, o ile błąd dla tego wzorca jest za duży (parametr epsilon).

Nie jest natomiast użyta tutaj inna metoda, tzw. reguła skumulowanej delty, czyli poprawianie wag po prezentacji wszystkich wzorców, (czyli po całej epoce) - tzw. BATCH propagation.

OD STRONY MATEMATYCZNEJ

Proces uczenia SSN to minimalizacja funkcji błędu, której dokonujemy za pomocą gradientu.

Gradient w analizie matematycznej - operator różniczkowy, który polu skalarnemu przyporządkowuje pole wektorowe. Owo pole wektorowe ma kierunek i zwrot wektora największego wzrostu funkcji w danym punkcie, a wartość jest proporcjonalna do szybkości wzrostu (wzrost na jednostkę długości) funkcji. Wektor przeciwny gradientowi nazywany jest antygradientem.

Gradient oznaczany jest przez grad lub symbolem nabla V, który jest odwróconą grecką literą delta.

Intuicyjnie gradient jest wektorem, którego zwrot wskazuje kierunek najszybszego wzrostu wartości funkcji, natomiast długość odpowiada wzrostowi tej funkcji na jednostkę długości.

W układzie współrzędnych kartezjańskich wektor gradientu jest określony jako:

ra/ a/ en

Iftc’ dy’ dz\


grad / = V/ =

Gradient F - wektor utworzony z pochodnych funkcji F po wszystkich jej zmiennych.

Kierunek największego spadku dowolnej funkcji wskazuje ujemny gradient tei funkcji.

Dlatego wektor wag neuronu jest przesuwany w kierunku ujemnego gradientu. Dodatkowo wektor ten jest przemnażany przez współczynnik eta, który nazywany jest współczynnikiem szybkości uczenia (współczynnik korekcji).



Wyszukiwarka

Podobne podstrony:
wejscie Wyjścia Warstwa wyjściowa Pierwsza warstwa neuronów Rozwidlone wejścia Warstwa
applet Wyjścia Warstwa wyjściowa <— Warstwa wejściowa 4— Wejścia
Mechanika5 Działanie pojedynczego neuronu Sygnały wejściowe Wartości wag Suma iloczynów Wyjście Kie
19 2 ZESTAW 2 - ŹRÓDŁA PRĄDOWE, WTÓRNIK Rezystancja wyjściowa W pierwszym przybliżeniu (patrz rysune
18 wyjścia pierwszego z wymienionych filmów był fantastyczny zgoła pomysł. Słynny myśliwy, Alan
Plan ewakuacji ludzi w budynku plan2 PLAN EWAKUACJI LUDZIPARTER KALA RUCHOWA 22 *—i WYJSCIC rMłUKłMT
5WW6 cy wyjście wzmacniacza do małej impedancji wejścia modulatora zrównoważonego. We wtórniku emite
Zdjęcie0329 FORMATY WEJŚCIAI WYJŚCIA Po dokonaniu wyboru urządzeń wejściowych naleZy określić format
DSC00183 (11) Zakstnolt pruciu wyjściowego tranzystora tc: od prądu wejściowego tranzystora /„
DSC00185 (11) Zależność prądu wyjściowego tranzystora fc od napięcia wejściowego tranzystora Ua
go. Nic trzeba chyba przekonywać. że źrenica wyjściowa jest łez obrazem źrenicy wejściowej. Łatwo za
IMG55 (2) odpowiedzi na skok jednostkowy (zmiana wyjścia w czasie po skokowej zmianie wejście o

więcej podobnych podstron