222
dwa sygnały z warstwy poprzedniej w dowolnej kombinacji. Przy N sygnałach
( AT\
wejściowych takich kombinacji może być 1^1 i la hczba określa liczbę neuronów
w warstwie pierwszej. Odpowiedzi neuronów warstwy pierwszej stanowią pobudzenie dla warstwy drugiej, przy czym dobór par odbywa się przez kombinację dwu dowolnych sygnałów wejściowych dla tej warstwy, podobnie jak to miało miejsce w warstwie pierwszej. W ogólności przy takim sposobie tworzenia kolejnych warstw liczba neuronów w warstwie może gwałtownie rosnąć. Jeśli w warstwie (fc-l)-szej liczba neuronów równa się Mk ,, to w warstwie następnej liczba ta rośnie do Mk równej
(Mk_ j - 2)12!
(10.10)
Dla przykładu, jeśli Mk , - 10, to Mk - 45. Gdyby pozostawić wartość Mk bez zmiany, to w następnej warstwie liczba neuronów wzrosłaby do Mk ,, = 990. Algorytm uczenia sieci musi uwzględniać mechanizm ograniczania eksplodującej liczby neuronów w warstwie.
Uczenie sieci należy do kategorii uczenia z nauczycielem. Danemu zbiorowi wektorów wejściowych X odpowiada zbiór odpowiedzi zadanych d, przy czym zc względu na jeden neuron w warstwie wyjściowej d jest skalarem. Uczenie (dobór wag ar br ct, dt, er ft) odbywa się w sposób hierarchiczny, warstwa po warstwie. Po nauczeniu warstwy pierwszej następuje przejście do warstwy następnej. Proces jest powtarzany aż do osiągnięcia warstwy ostatniej, zredukowanej do jednego neuronu.
Każdy neuron warstwy trenowany jest indywidualnie w taki sposób, aby możliwie najlepiej aproksymował odpowiedź zadaną d dla danego wektora wejściowego X. Jeśli założymy istnienie p par uczących (\/l) statystycznie niezależnych, to funkcja energetyczna dla /-tego neuronu, będąca podstawą uczenia sieci, może być zdefiniowana w postaci
w której xir oznacza i-ty składnik wektora X dla r-tego wzorca uczącego (r = 1,2,...,/?), natomiast anbpCpdpepf{ — wagi /-tego neuronu w warstwie. Zależność (10.11) jest w ogólności równoważna rozwiązaniu układu p równań z sześcioma niewiadomymi, przy czym zwykle />»6. Równanie to zapisać można również w postaci macierzowej