2

2




II. Uczenie jednowarstwowej sieci neuronowej

Wejście: Ciąg treningowy {(X\, D\), (X2, D2),.., (Xp, Dp)} Wyjście: Macierz wag WKxN, wektor odchyleń Bka Oznaczenie: W : Wektor wag /-tego neuronu d : i-ta składowa żądanego wektora wyjściowego y : i-ta składowa wektora wyjściowego sieci

Algorytm uczenia

Krok 1: Wylosuj początkową macierz wag W i początkowy wektor odchyleń Krok 2: Dla każdego wektora uczącego X

2.1    Wyznacz Y: Y=flWX+B)

2.2    Uaktualizuj wagi (dla i =1

WL=WL,+rj<d‘-y')-X

bL=b‘oU+rJ.(di-yi)

(gdy neuron jest dyskretny)

WL=W^d+V.{d‘-yl).nnetl)X

b'm =b‘M +rj.(di -y‘).f'(net,)

(gdy neuron jest ciągły)

Krok 3: Jeśli wagi pozostały bez zmian lub E<Emin to stop, wpp. powrót do Krok 2

IIL Uczenie sieci wielowarstwowej: Algorytm wstecznej propagacji błędu

r

Wymaganie: Sieć składa się wyłącznie z neuronów ciągłych

i



Wyszukiwarka

Podobne podstrony:
PHOTO3 1 ) I W jednowarstwowej sieci neuronowej na wejście neuronu z rysunku 1 podano wzorzec ucząc
img092 (17) Uczenie prostych liniowych sieci jednowarstwowych5.3.    Czy neuron może
Mechanika3 Dwie fazy działania sieci neuronowych: >    faza treningowa (uczenia s
img117 117 Rozdział 9. Dynamika procesu uczenia sieci neuronowych Do tego samego wniosku można dojść
img143 (11) 8Formy uczenia sieci neuronowych8.1. Jak wykorzystać wielowarstwową sieć neuronową do
img146 (10) 140 Formy uczenia sieci neuronowych Możliwe też będą (w miarę komplikacji sieci - coraz

więcej podobnych podstron