Sieci CP str069

Sieci CP str069



69


Rozdział 5. Sieci CP

a zatem wraz z każdym wektorem wejściowym X podawany jest wektor wyjściowy* jaki użytkownik chce uzyskać z sieci. Jednak mimo tego założenia przy uczeniu nie wykorzystuje się pojęcia błędu (a więc nie jest to rodzaj algorytmu Delta), a ponadto mimo występowania dwóch warstw nie wykorzystuje się w żadnej formie informacji pochodzących od nauczyciela przy uczeniu pierwszej („ukrytej”) warstwy sieci. Pomysł jest bardzo prosty i skuteczny: przy uczeniu pierwszej warstwy stosuje się technikę Kohonena, która jest formą uczenia bez nauczyciela. Natomiast przy uczeniu drugiej warstwy wykorzystuje się algorytm Grossberga do bezpośredniego wymuszania pożądanych odpowiedzi sieci. Rozważmy to teraz dokładniej.

Zaczniemy od opisu sposobu uczenia pierwszej warstwy sieci. Zgodnie z regułą Kohonena uczenie przebiega następująco. Na Jb-tym kroku pokazuje się wektor wejściowy X^, a dysponując (z wcześniejszych kroków procesu uczenia) wartościami wszystkich wektorów W<*> można obliczyć wszystkie wartości

ejł> = \\Kt>T X(fc) , j= 1,2.....m

oraz wyznaczyć numer „zwycięskiego” neuronu (tzn. tego, dla którego zachodzi)

ei*J >

Korekcie podlegają wyłącznie wagi „zwycięskiego” neuronu według reguły W<k+>) = -f »>, (Xiki - w$k))

Współczynnik uczenia tji przyjmowany jest zwykle jako równy 0,7 na początku procesu uczenia i stopniowo zmniejszany dla większych fc.

Podobnie jak w wielu innych algorytmach samouczeiiia, przy realizacji metody Kohonena najważniejsze są pierwsze kroki, bo od nich w znacznym stopniu zależy powodzenie całej pracy. Najpierw trzeba nadać współczynnikom wagowym Wij wartości początkowe. Nie jest to tak proste, jak przy niektórych innych metodach, ponieważ powinno się zapewnić unormowanie wszystkich początkowych wektorów wag

l|W?”ll = l

a ponadto wysoce pożądane jest takie dobranie ich kierunków, by w sposób równomierny rozkładały się na powierzchni sfery jednostkowej w przestrzeni u-wymiarowej. Takie zainicjowanie jest jednak trudne i nie gwarantuje dobrych warunków do realizacji procesu samo-uczcnia, gdyż jest możliwe pojawianie się w trakcie uczenia kilku „zwycięskich” neuronów podczas prezentacji uczących sygnałów X***, co utrudnia realizację opisanego wyżej procesu uczenia. Jedna z technik zapobiegania tym niekorzystnym zjawiskom, nazywana w literaturze convex combmatwn mcłliori, polega na tym, że początkowo wszystkim składowym wszystkich wektorów wag nadaje się tę samą wartość początkową

»!■’= sAF>

Powoduje to, że wszystkie wektory Wjl) są prawidłowo unormowane, ale wszystkie pokrywają się. Po takim zainicjowaniu wektorów wag zaczyna się opisany wyżej proces uczenia, ale jako wektory wejściowe podaje się wektory o współrzędnych obliczanych według wzoru

*!**'= %(*>*'*'+ [i--«(*)] VU»


Wyszukiwarka

Podobne podstrony:
img069 69 Rozdział 5. Sieci CP & zatem wraz z każdym wektorem wejściowym X podawany jest wektor
Sieci CP str029 29 Rozdział X. Liniowe sieci neuronowe że neuron rozpoznaje1 sygnały wejściowe, wyró
Sieci CP str118 118 także wektory własne macierzy kowariancji Cxx. Istotnie, spróbujmy szukać punktu
img029 29 Rozdział 3. Liniowe sieci neuronowe że neuron rozpoznaje1 sygnały wejściowe, wyróżnając te
64117 Zdjęcie0144 (6) oby podmioty są bowiem często związane z innymi orgama^jgiłd l^yrni do sieci.
skanuj0052 (69) Rozdział 3.Instrukcje sterujące i funkcjeInstrukcje warunkoweInstrukcja if...else In
img108 108 8.5. Działanie sieci fi A M przy braku zgodności ze wzorcem osiągany jest stan równowagi,
Sieci komputerowe .15 Kategorie skrętki Przepustowość skrętki zależna jest od tzw.
skanuj0004 (414) 66 Rozdział J. Ciągi i szeregi zatem 8n —> O, czyli ś/a — 1 + ón —» 1. Jeśli O &

więcej podobnych podstron