Rys. 9.1. Struktura jednowarstwowej sieci, która może podlegać samou-czeniu
rowe (wag musi być zawsze tyle samo, ile składowych sygnału) i też można je zaznaczać jako punkty na płaszczyźnie - najwygodniej na tej samej płaszczyźnie. W ten sposób na płaszczyźnie sygnałów wejściowych pojawią się punkty sygnalizujące lokalizacje poszczególnych neuronów, wynikające z ich wewnętrznej wiedzy, czyli z wartości przyjmowanych przez ich współczynniki wagowe. Przypominam Ci to na rysunku 9.2., który widziałeś już w jednym z wcześniejszych rozdziałów, ale teraz - bogatszy o tyle nowych doświadczeń - zapewne spojrzysz na niego zupełnie nowym
Rys. 9.2. Interpretacja wzajemnego położenia wektora wag i wektora sygnału wejściowego
Zasada samouczenia polega na tym, że na początku wszystkie neurony otrzymują przypadkowe wartości współczynników Wagowych, co na rysunku produkowanym przez program 10A.BAS zobaczysz jako “chmurkę” przypadkowo rozrzuconych punktów (każdy z tych punktów reprezentuje jeden