img037

img037



37


Rozdział 3. Liniowe sieci neuronowe

pokazano jedynie oczy i usta). Takie zadanie nazywa się generalnie „pamięcią adresowaną kontekstowo* lub pamięcią asocjacyjną {w odróżnieniu od typowej pamięci komputera, w której dostęp do określonych informacji waunkowany jest znajomością przypisanego im adresu lub klucza. Pamięć asocjacyjna to jeden z najhardziej obiecujących kierunków rozwoju sieci neuronowych. Pamięć taka pozwala odtworzyć cały zestaw zapamiętanych informacji w przypadku przedstawienia informacji niekompletnej lub niedokładnej. Tego rodzaju urządzenie, działając w powiązaniu z systemem ekspertowym, może doskonale odpowiadać na pytania użytkowników. Zadaniem sieci jest w tym wypadku uzupełnienie wiadomości podanych przez użytkownika w taki sposób, by system ekspertowy mógł (w oparciu o bazę wiedzy) efektywnie szukać rozwiązania.

Innym zastosowaniem omawianych tu filtrów może być tak zwany ..filtr nowości* (na przykład do wyświetlania na ekranie jedynie tych fragmentów sceny, które uległy naglęj zmianie, co znajduje zastosowanie w nowoczesnej ochronie obiektów przed włamaniem). Filtr tego typu może inieć także szerokie zastosowanie w automatyce przemysłowej. Do zagadnienia tego powrócimy dalej.

3.6 Uczenie bez nauczyciela

Opisany wyżej schemat uczenia sieci MADALINE opierał się silnie ua założeniu, że istnieje zetvnętrzny arbiter (..nauczyciel"), który podaje poprawne odpwiedzi Z, w wyniku czego korekta macierzy wag W*, postępuje w sposób sterowany i zdeterminowany przez cel, jakim jest minimalizacja błędu Q. Taki schemat (nazywany w literaturze supewiscd tearning albo od struktury stosowanego algorytmu delta rnle) jest. czasem niewygodny, ponieważ wymaga udziału nauczyciela w procesie uczenia, a ponadto jest mało wiarygodny biologicznie, gdyż wielu czynności mózg uczy się bez świadomego i celowego instruktażu. Dlatego w literaturze przedmiotu, wiele uwagi poświęca się opracowanej przez Hebba [Hebl>49] i formalnie dopracowanej przez Suttona (Sutt81] technice uczenia bez nauczyciela, zwanej unsnpenri-$ed tearning lub bebbian tearning. Zasada lego uczenia polega ua tym, że waga u>jm\ i-tego wejścia m-tego neuronu wzrasta podczas prezentacji j-tego wektora wejściowego Xlj ł proporcjonalnie do iloczynu i-tej składowej sygnału wejściowego docierającego do rozważanej synapsy i sygnału wyjściowego t/„f* rozważanego neuronu. Zapisując to w formie wzoru, otrzymujemy:

.„i.....'+i' = „r,u’+>,«

przy czym oczywiście

i=i

Podwójne górne indeksy przy współczynnikach wagi    wynikają z faktu, że trzeba

uwzględnić numerację neuronów, do których wagi te należą (m) oraz numerację kroków, wynikających z kolejnych pokazów.

Podobnie jak w przypadku opisywanej wyżej reguły DELTA spróbujmy znaleźć intuicyjną interpretację dla opisywanej reguły. Wzmocnieniu ulegają w niej te wagi, kLore są aktywne (duże x|-*J) w sytuacji, gdy „ich” neuron jest. pobudzony (duże y\n )• Tego typu sieć jest zatem auioasocjacyjna: jeśli pewien wzór pobudzeń X sygnalizowany jest. przez pewne m-te wyjście sieci, to w miarę upływu czasu ta sygnalizacja staje się coraz bardziej wyraźna. Sieć


Wyszukiwarka

Podobne podstrony:
img037 37 Rozdział 3. Liniowe sieci neuronowe pokazano jedynie oczy i usta). Takie zadanie nazywa si
Sieci CP str037 37 Rozdział 3. Liniowe sieci neuronowe pokazano jedynie oczy i usta). Takie zadanie
Sieci CP str037 37 Rozdział 3. Liniowe sieci neuronowe pokazano jedynie oczy i usta). Takie zadanie
img029 29 Rozdział 3. Liniowe sieci neuronowe że neuron rozpoznaje1 sygnały wejściowe, wyróżnając te
img031 31 Rozdział 3. Liniowe sieci neuronowe jest aprioryczne ustalenie wektora W lub macierzy W* o
img035 35 Rozdział 3. Liniowe sieci neuronowe albo prościejv 3)=ww gdzie A jest pewną ustaloną stalą
img039 39 Rozdział 3. Liniowe sieci neuronowe mu taką strategię liczenia, by zapamięta] i potrafi! p
img041 41 Rozdział 3. Liniowe sieci neuronowe dopasowanie wektora wag    do rozpoznaw
img043 43 Rozdział 3. Liniowe sieci neuronowe3.9 Uczenie z forsowaniem Opisane wyżej techniki samo u
img045 45 Rozdzinl :i. Liniowe sieci neuronowe ma na ogól niewielką wartość, ponieważ poszczególne s
img047 47 Rozdział 3. Liniowe sieci neuronowe nazywanej skumulowanym błędem. Wartości skumulowanego
Sieci CP str029 29 Rozdział X. Liniowe sieci neuronowe że neuron rozpoznaje1 sygnały wejściowe, wyró
Sieci CP str035 35 Rozdział 3. Liniowe sieci neuronowe albo prościej „<>> = —_— v

więcej podobnych podstron