Sieci CP str059

Sieci CP str059



59


Rozdział 4, Nieliniowe sieci neuronowe

4.6 Uczenie sieci nieliniowej

Opinany wyżej algorytm uczenia jest możliwy do bezpośredniego zastosowania jedynie w przypadku sieci jednowarstwowej. Dla sieci wielowarstwowych, o których wyżej stwierdzono, że mają istotnie szersze możliwości przetwarzania informacji, niż sieci jednowarstwowe, podany wyżej wzór nie daje się zastosować, ponieważ dla wewnętrznych warstw sieci nie ma możliwości bezpośredniego określenia oczekiwanych (wymaganych) wartości sygnałów wyjściowych a tym samym nie rna możliwości określenia błędu Istotnie, rozważając ciąg uczący w postaci

U = <<    >,< X(7\z<a)    >>

mamy do dyspozycji »-wy miarowe wektory wejściowe X oraz ^-wymiarowe wektory wyjściowe Z stanowiące zestawy wymaganych sygnałów wyjściowych z elementów terminalnych czyli domykających sieć. Jeśli wektor V' ^1 sygnałów wyjściowych z tych elementów nie będzie odpowiadał wymaganiom, to znaczy jeśli odnotujemy błąd wyrażający się różnicą wektorów 1 — Y'-D. to nie będziemy w stanie ustalić, w jakim stopniu za pojawienie się tego błędu odpowiadają neurony warstwy wyjściowej, na których ton błąd się ujawnił, a w jakim stopniu błąd powstał w elementach wcześniejszej warstwy, których sygnały podawane były jako wejściowe do neuronów ocenianej warstwy.

Przez wiele lat. nie znano metody skutecznego uczenia sieci wielowarstwowych, a warstwy, dla których nie można było wyznaczyć sygnału błędu znane były w literaturze pod nazwą ,.warstw ukrytych” (hideu layrrs). Dopiero w połowie lal KO tych zaproponowany został algorytm wstecznej propagacji błędów (backpropagahftn) [Ftume86], polegający na tym. że mając wyznaczony błąd    występujący podczas realizacji j-lego kroku procesu ucze

nia w neuronie o numerze m — możemy „rzutować” ten błąd wstecz do wszystkich tych neuronów, których sygnały stanowiły wejścia dla m-tego neuronu.

Opiszemy dokładniej ten ważny algorytm. Zacznijmy od sprawy oznaczeń. W sieci wielowarstwowej niemożliwe jest ścisłe rozgraniczenie sygnałów wejściowych i wyjściowych, ponieważ sygnały wyjściowe z neuronów wcześniejszej warstwy stają się zwykle sygnałami wejściowymi dla neuronów następnej warstwy. Z tego względu wprowadzimy jednolitą numerację wszystkich neuronów (bez dzielenia ich na wejściowe, wyjściowe i należące do warstw ukrytych) oraz zastosujemy stale oznaczenie y[?t1 dla sygnału pojawiającego się na wyjściu m-tego neuronu w j-tyrri kroku procesu uczenia. Oczywiście niektóre spośród tych t/m reprezentować będą sygnały wyjściowe z całej sieci, możliwe do skonfrontowania z odpowiednimi składowymi wektora Z(;l w celu stwierdzenia, czy sieć pracuje poprawnie, czy też ma miejsce błąd. Podobnie uznamy, że sygnały wejściowe, dotychczas oznaczane X, będą także rozpatrywane jako sygnały postaci y)l ’, czyli sygnały występujące na wyjściach wyróżnionej grupy neuronów. Uprzednio (przy omawianiu pojedynczych neuronów lub sieci typu MADALINE) grupa ta nie istniała, a sygnał zewnętrzny docierał bezpośrednio do synaps przetwarzających informacje komórek. Teraz, wprowadzając dla sygnałów wejściowych także notację postaci )/:;]’ zakładamy, jak gdyby nięjawanie, że każde wejście ..buforowane” jest przez neuron, którego zadaniem jest przetwarzanie wejściowego sygnału j/'/] £ X-; • na sygnał przy czym oczywiście neuron ten ma liniową charakterystykę i współczynnik wagi jedynego wejścia wynoszący I, w wyniku czego


Wyszukiwarka

Podobne podstrony:
img059 59 Rozdział 4. Nieliniowe sieci neuronowe4.6 Uczenie sieci nieliniowej Opisany wyżej algorytm
Sieci CP str057 57 Rozdzia.1 4. Nieliniowe sieci neuronowe — funkję BSB (Rrain State in a Uoz): 1 gd
Sieci CP str051 51 Rozdział 4. Nieliniowe nieci neuronowe<p(e) -, 1e Taka postać ma sporo wad, od
Sieci CP str057 57 Rozdzia.1 4. Nieliniowe sieci neuronowe — funkję BSB (Rrain State in a Uoz): 1 gd
Sieci CP str061 61 Rozdział 4. Nieliniowe sieci neuronowe Na samym początku wyznacza się zatem popra
Sieci CP str063 63 Rozdział 4. Nieliniowe sieci neuronowe klasycznej metody backpropagalion z wykorz
Sieci CP str039 39 Rozdział 3. Liniowe siwi neuronowe mu taką strategię uczenia, by zapamięta] i pot
img063 63 Rozdział A. Nieliniowe sieci neuronowe klasycznej metody backpropagalion z wykorzyslniem e

więcej podobnych podstron