Sieci CP str110

Sieci CP str110



110


8.7. Otlminny sieci BA M

Jest jednak dziś oczywiste, ie ten wynik można osiągnąć jedynie przy bardzo specjalnym kodowaniu informacji w wektorach X i Y. McEliece, Posner, Rodewich i Vankatesh [McE187] wykazali, że realistyczne jest oszacowanie

L = n/ (4 log2 n)

gdzie przyjęto, że n jest liczbą neuronów w mniejszej warstwie. Warto zauważyć, jak bardzo różni się oszacowanie McEliece od optymizmu Kosko. Przy n = 1024 Kosko oczekuje możliwości zapamiętania ponad tysiąca informacji, a McEliece pozwala na zapamiętanie zaledwie 25!

Oczywiście są także i inne oszacowania. Heelit-Niclseu dowodził [Hecli88], że indywidualnie dobierając progi wszystkich neuronów w sieci BAM można uzyskać w niej 2n rozróżnialnych stanów, a co za tym idzie aż tyle jest potencjalnie możliwych do zapamiętania informacji. Oczywiście w praktyce nie można liczyć na taką wydajność, jednak dobierając wektory X i Y w taki sposób, by w każdym z nich było

/+ = 4 + log2 ii

składowych wynoszących +1, a pozostałe mające wartości -1, to wówczas można uzyskać pojemność pamięci

0.08 n3

~~ (log, u + 4)2

większą od ». Przykładowo dla n =1024 L wynosi aż 3637.

8.7 Odmiany sieci BAM

Obok omówionych wyżej sieci BAM w formie cyfrowej (tj. akceptujących jedynie wartości *,• i y; wynoszące +1 albo — 1) rozważane są sieci tego typu o elementach analogowych, z funkcją <p opisaną na przykład cytowaną wyżej sigmoidą logistyczną. Sieci takie okazują się także bardzo przydatne w adaptacyjnym przetwarzaniu sygnałów i budzą rosnące zainteresowanie badaczy zwłaszcza, że możliwa jest ich hardware’owa implementacja w układach VLSI oraz optoelektronicznych. Podobnie rozważane są sieci BAM o działaniu ciągłym (wyżej przytoczona dyskusja odnosiła się do dyskretnej skali czasu i angażowała pewne procesy iteracyjne w sieci). Sieci takie są możliwe do praktycznego zastosowania, ponieważ teoria Kosko zapewnia także ich stabilność.

Inną odmianą sieci BAM, dyskutowaną w literaturze [Wass89], jest sieć adaptacyjna. W sieci takiej dokonuje się permanentna powolna zmiana współczynników wngowyoh, zgodnie ze wzorem

V',j = Wij + i; Xi yj

Sieć taka może doskonalić swoje działanie w trakcie eksploatacji i nie wymaga oddzielnego procesu uczenia.

Jeszcze iuna odmiana sieci BAM związana jest z wprowadzeniem do niej elementu rywalizacji (tylko jeden element, w każdej warstwie neuronów ma sygnał wyjściowy wynoszący + 1, pozostałe mają wymuszony sygnał wynoszący —1, nawet, jeśli ważona suma icli wejść jest większa od założonego progu). Sieć tego typu może służyć do kojarzenia specjalnych typów wektorów binarnych — na przykład w diagnostyce medycznej.


Wyszukiwarka

Podobne podstrony:
img110 110 S.7. Odmiany sieci BAM Jest jednak dziś oczywiste, ie ten wynik można osiągnąć jedynie pr
IMG74 (2) KOWANY 1995), nie jest jednak jasne, czy efekt ten dotyczy także przypadku, w którym po p
Tak duża ilość odpowiedzi pozytywnych jest jednak pozytywnym sygnałem, na podstawie którego można
img034 (6) Jest jednak rzeczą oczywistą, że asymetria układu figura — tło uwidacznia się szczególnie
Sieci CP str082 82 6.5. Układ orientujący6.5 Układ orientujący Innym oryginalnym elementem sieci ART
img076 (26) 70 Działanie najprostszej sieci => czy jest pokryte piórami, oraz => czy rodzi się
img031 31 Rozdział 3. Liniowe sieci neuronowe jest aprioryczne ustalenie wektora W lub macierzy W* o
img082 82 6.5. Układ orientujący6.5 Układ orientujący Innym oryginalnym elementem sieci ART jest sys
img111 111 Rozdział 8. Sieci pamięci skojarzeniowej Różnych odmian sieci BAM jest wiele. Jest. ona s

więcej podobnych podstron