222 (9)

222 (9)



222

dwa sygnały z warstwy poprzedniej w dowolnej kombinacji. Przy N sygnałach

( AT\

wejściowych takich kombinacji może być 1^1 i la hczba określa liczbę neuronów

w warstwie pierwszej. Odpowiedzi neuronów warstwy pierwszej stanowią pobudzenie dla warstwy drugiej, przy czym dobór par odbywa się przez kombinację dwu dowolnych sygnałów wejściowych dla tej warstwy, podobnie jak to miało miejsce w warstwie pierwszej. W ogólności przy takim sposobie tworzenia kolejnych warstw liczba neuronów w warstwie może gwałtownie rosnąć. Jeśli w warstwie (fc-l)-szej liczba neuronów równa się Mk ,, to w warstwie następnej liczba ta rośnie do Mk równej

= C(Mk.v2)


(Mk_ j - 2)12!


(10.10)


Dla przykładu, jeśli Mk , - 10, to Mk - 45. Gdyby pozostawić wartość Mk bez zmiany, to w następnej warstwie liczba neuronów wzrosłaby do Mk ,, = 990. Algorytm uczenia sieci musi uwzględniać mechanizm ograniczania eksplodującej liczby neuronów w warstwie.

Uczenie sieci należy do kategorii uczenia z nauczycielem. Danemu zbiorowi wektorów wejściowych X odpowiada zbiór odpowiedzi zadanych d, przy czym zc względu na jeden neuron w warstwie wyjściowej d jest skalarem. Uczenie (dobór wag ar br ct, dt, er ft) odbywa się w sposób hierarchiczny, warstwa po warstwie. Po nauczeniu warstwy pierwszej następuje przejście do warstwy następnej. Proces jest powtarzany aż do osiągnięcia warstwy ostatniej, zredukowanej do jednego neuronu.

Każdy neuron warstwy trenowany jest indywidualnie w taki sposób, aby możliwie najlepiej aproksymował odpowiedź zadaną d dla danego wektora wejściowego X. Jeśli założymy istnienie p par uczących (\/l) statystycznie niezależnych, to funkcja energetyczna dla /-tego neuronu, będąca podstawą uczenia sieci, może być zdefiniowana w postaci


w której xir oznacza i-ty składnik wektora X dla r-tego wzorca uczącego (r = 1,2,...,/?), natomiast anbpCpdpepf{ wagi /-tego neuronu w warstwie. Zależność (10.11) jest w ogólności równoważna rozwiązaniu układu p równań z sześcioma niewiadomymi, przy czym zwykle />»6. Równanie to zapisać można również w postaci macierzowej


Wyszukiwarka

Podobne podstrony:
Mechanika4 Do wejść doprowadzane są sygnały dochodzące z neuronów warstwy poprzedniej. Każdy sygnał
Mechanika4 Do wejść doprowadzane są sygnały dochodzące z neuronów warstwy poprzedniej. Każdy sygnał
OMiUP t2 Gorski52 —    dowolną kombinację pracy jednego z dwu zespołów pompowych na d
64390 MATEMATYKA116 222 IV. Całka nieoznaczona 3. Omówić sposób postępowania przy całkowaniu dowolny
Mechanika4 Do wejść doprowadzane są sygnały dochodzące z neuronów warstwy poprzedniej. Każdy sygnał
00220 9a3deda68a2d2c688e0ccaa96ad4147 222 Baxley parameters for this algorithm. K is normally set a
Zdjęcie1049 (3) Do aktywacji limfocytów wymagane są dwa sygnały Sygnał ko-stymutujący (2) Antygeny
zadania 02 5) Mamy dwa sygnały zmodulowane uam(0 ~ £/(! + m • coscoj)-cosa>0t    m
4 Gazie Są Umarli? Tylko dwa miesiące czasu poprzedzało śmierć Jana, gdy pokój został zawarty i ugod
9 (1212) NEUROPSYCHOLOGIA Dwa badania cytowane w poprzednim podrozdziale (Butters, Barton, 1970; But
DSC05316 (2) ! tej warstwy poprzez rozdawnictwo dóbr i urzędów: wprowadza-: nie do senatu, rozdział
Pole "Tel." pozwala na wpisanie dowolnej kombinacji numeru (łącznie z adnotacją o nr wewnę
•    Minimalizacja kosztów produkcji następuje poprzez wybór kombinacji ilości zużyci

więcej podobnych podstron