img073 (30)

img073 (30)



Elementa oprowadzenie do techniki sieci neuronowych 67

Nie przejmuj się, że program coś majaczy o jakichś mocach (może chodzi o moce piekielne?). Za chwilę dowiesz się, do czego to może Ci się przydać.

Podczas eksperymentów z tym programem możesz iatwo zauważyć, że mimo poruszania się pięciowymiarowej przestrzeni wag i sygnałów (taką przestrzenią nawet Albert Einstein się nie zajmował, poprzestając na czterowymiarowej czasoprzestrzeni!) - możesz stosunkowo łatwo przewidzieć, co neuron zrobi. Jeśli podając kolejne współrzędne wektora sygnałów wejściowych ustawisz je tak, że będą one podobne do odpowiadających im współrzędnych wektora wag (współrzędne te program usłużnie przypomina podczas wprowadzania sygnałów wejściowych) - uzyskasz dużą wartość sygnału wyjściowego z neuronu. Jest to uzasadnione i dość oczywiste: podobne wartości składowych wag i tych samych składowych sygnałów oznaczają, że wektor wag leży blisko wektora sygnałów, a to - jak już wiesz z wcześniejszych rozważań - jest warunkiem uzyskania dużej wartości sygnału wyjściowego. Z kolei jeśli wartości poszczególnych składowych wektora sygnałów wejściowych przyjmiesz jako bliskie odpowiednim składowym wektora wag ale z przeciwnym znakiem - spowodujesz w efekcie, że wektor sygnałów wejściowych będzie skierowany w przeciwną stronę, niż wektor wag. Efektem będzie oczywiście to, że neuron wyśle silny ujemny sygnał jako swoją odpowiedź na takie pobudzenie. Na koniec jeśli dobierając sygnały wejściowe nie będziesz starał się zachować jakiejkolwiek zgodności ze składowymi wektora wag - masz duże szanse, że Twój wielowymiarowy neuron zachowa wobec tycli sygnałów wyniosłą obojętność produkując na swoim wyjściu bardzo niewielki (co do wartości bezwzględnej) sygnał wyjściowy.

Przy okazji prowadzonych eksperymentów zauważysz zapewne jedną prawidłowość. Otóż duże wartości sygnału wyjściowego neuronu można uzyskać na dwa sposoby: albo poprzez podanie na jego wejścia sygnałów zgodnych z odpowiednimi wagami na tych wejściach (tego właśnie oczekiwaliśmy), albo po prostu poprzez podanie dużych sygnałów na wejścia o dodatnich wartościach wag. Pierwszy sposób uzyskania dużej wartości sygnału wyjściowego jest inteligentny, wytworny i elegancki - cóż, kiedy te same (a czasem nawet lepsze efekty) można uzyskać stosując brutalną silę, czyli wykorzystując sposób numer dwa. Dlatego wprowadzając sygnały wejściowe powinieneś starać się, by były one zawsze mniej więcej tej samej “mocy” (wykorzystując podawaną przez komputer “moc” sygnału). Tylko wtedy będziesz mógł poprawnie interpretować i porównywać wyniki. Podobnie porównując zachowanie różnych neuronów (o różnych wektorach wag) dla takich samych sygnałów wejściowycli - powinieneś dążyć do tego, by miały one podobną wartość “mocy śladu pamięciowego” - czyli po prostu długości wektora wag. W sieci zawierającej większą liczbę neuronów znaczę-


Wyszukiwarka

Podobne podstrony:
img061 (33) Elementa oprowadzenie do techniki sieci neuronowych 55 Po wpisaniu programu można g
img199 (8) Elementa oprowadzenie do techniki sieci neuronowych wo pokazywany sieci punkt lokowany by
img015 (68) Elementarne wprowadzenie do techniki sieci neuronowych totne jest tylko to, że neurony s
img255 (8) 249 Elementarne wprowadzenie do techniki sieci neuronowych Rys. 11.8. Zachowanie systemu
img215 (5) oprowadzenie do techniki sieci neuronowych Elementarne w 209 mouczenia. Z kolei w wy

więcej podobnych podstron