37
Rozdział 3. Liniowe sieci neuronowe
pokazano jedynie oczy i usta). Takie zadanie nazywa się generalnie „pamięcią adresowaną kontekstowo* lub pamięcią asocjacyjną {w odróżnieniu od typowej pamięci komputera, w której dostęp do określonych informacji waunkowany jest znajomością przypisanego im adresu lub klucza. Pamięć asocjacyjna to jeden z najhardziej obiecujących kierunków rozwoju sieci neuronowych. Pamięć taka pozwala odtworzyć cały zestaw zapamiętanych informacji w przypadku przedstawienia informacji niekompletnej lub niedokładnej. Tego rodzaju urządzenie, działając w powiązaniu z systemem ekspertowym, może doskonale odpowiadać na pytania użytkowników. Zadaniem sieci jest w tym wypadku uzupełnienie wiadomości podanych przez użytkownika w taki sposób, by system ekspertowy mógł (w oparciu o bazę wiedzy) efektywnie szukać rozwiązania.
Innym zastosowaniem omawianych tu filtrów może być tak zwany ..filtr nowości* (na przykład do wyświetlania na ekranie jedynie tych fragmentów sceny, które uległy naglęj zmianie, co znajduje zastosowanie w nowoczesnej ochronie obiektów przed włamaniem). Filtr tego typu może inieć także szerokie zastosowanie w automatyce przemysłowej. Do zagadnienia tego powrócimy dalej.
Opisany wyżej schemat uczenia sieci MADALINE opierał się silnie ua założeniu, że istnieje zetvnętrzny arbiter (..nauczyciel"), który podaje poprawne odpwiedzi Z, w wyniku czego korekta macierzy wag W*, postępuje w sposób sterowany i zdeterminowany przez cel, jakim jest minimalizacja błędu Q. Taki schemat (nazywany w literaturze supewiscd tearning albo od struktury stosowanego algorytmu delta rnle) jest. czasem niewygodny, ponieważ wymaga udziału nauczyciela w procesie uczenia, a ponadto jest mało wiarygodny biologicznie, gdyż wielu czynności mózg uczy się bez świadomego i celowego instruktażu. Dlatego w literaturze przedmiotu, wiele uwagi poświęca się opracowanej przez Hebba [Hebl>49] i formalnie dopracowanej przez Suttona (Sutt81] technice uczenia bez nauczyciela, zwanej unsnpenri-$ed tearning lub bebbian tearning. Zasada lego uczenia polega ua tym, że waga u>jm\ i-tego wejścia m-tego neuronu wzrasta podczas prezentacji j-tego wektora wejściowego Xlj ł proporcjonalnie do iloczynu i-tej składowej sygnału wejściowego docierającego do rozważanej synapsy i sygnału wyjściowego t/„f* rozważanego neuronu. Zapisując to w formie wzoru, otrzymujemy:
przy czym oczywiście
i=i
Podwójne górne indeksy przy współczynnikach wagi wynikają z faktu, że trzeba
uwzględnić numerację neuronów, do których wagi te należą (m) oraz numerację kroków, wynikających z kolejnych pokazów.
Podobnie jak w przypadku opisywanej wyżej reguły DELTA spróbujmy znaleźć intuicyjną interpretację dla opisywanej reguły. Wzmocnieniu ulegają w niej te wagi, kLore są aktywne (duże x|-*J) w sytuacji, gdy „ich” neuron jest. pobudzony (duże y\n )• Tego typu sieć jest zatem auioasocjacyjna: jeśli pewien wzór pobudzeń X sygnalizowany jest. przez pewne m-te wyjście sieci, to w miarę upływu czasu ta sygnalizacja staje się coraz bardziej wyraźna. Sieć