img110

img110



110


S.7. Odmiany sieci BAM

Jest jednak dziś oczywiste, ie ten wynik można osiągnąć jedynie przy bardzo specjalnym kodowaniu informacji w wektorach X i Y. McEIiece, Posner, Rodemicb i Vankatesh [McE187] wykazali, że realistyczne jest oszacowanie

L= n/(4 log2 n)

gdzie przyjęto, że n jest liczbą neuronów w mniejszej warstwie. Warto zauważyć, jak bardzo różni się oszacowanie McEIiece od optymizmu Kosko. Przy n = 1024 Kosko oczekuje możliwości zapamiętania ponad tysiąca informacji, a McEIiece pozwala na zapamiętanie zaledwie 25!

Oczywiście są także i inne oszacowania. Hecht-Niclscn dowodził [Hec!i88], że indywidualnie dobierając progi wszystkich neuronów w sieci BAM można uzyskać w niej 2n rozróżnialnych stanów, a co za tym idzie aż tyle jest potencjalnie możliwych do zapamiętania informacji. Oczywiście w praktyce nie można liczyć na taką wydajność, jednak dobierając wektory X i Y w taki sposób, by w każdym z nich było

/+ = 4 + log2 n

składowych wynoszących +1, a pozostałe mające wartości -1, to wówczas można uzyskać pojemność pamięci

0.68 n3

~ (log, n + 4)2

większą od ». Przykładowo dla » = 1024 L wynosi aż 3637.

8.7 Odmiany sieci BAM

Obok omówionych wyżej sieci BAM w formie cyfrowej (tj. akceptujących jedynie wartości Xi i y% wynoszące +1 albo —1) rozważane są sieci tego typu o elementach analogowych, z funkcją <p opisaną na przykład cytowaną wyżej sigmoidą logistyczną. Sieci takie okazują się także bardzo przydatne w adaptacyjnym przetwarzaniu sygnałów i budzą rosnące zainteresowanie badaczy zwłaszcza, że możliwa jest ich hardware’owa implementacja w układach VLSI oraz optoelektronicznych. Podobnie rozważane są sieci BAM o działaniu ciągłym (wyżej przytoczona dyskusja odnosiła się do dyskretnej skali czasu i angażowała pewne procesy iteracyjne w sieci). Sieci takie są możliwe do praktycznego zastosowania, ponieważ teoria Kosko zapewnia także ich stabilność.

Inną odmianą sieci BAM, dyskutowaną w literaturze [Wass89], jest sieć adaptacyjna. W sieci takiej dokonuje się permanentna powolna zmiana współczynników Wagowych, zgodnie ze wzorem

ti’»j = Wij + V Xi Vj

Sieć taka może doskonalić swoje działanie w trakcie eksploatacji i nie wymaga oddzielnego procesu uczenia.

Jeszcze inna odmiana sieci BAM związana jest z wprowadzeniem do niej elementu rywalizacji (tylko jeden element w każdej warstwie neuronów ma sygnał wyjściowy wynoszący + 1, pozostałe mają wymuszony sygnał wynoszący —1, nawet jeśli ważona suma ich wejść jest większa od założonego progu). Sieć tego typu może służyć do kojarzenia specjalnych typów wektorów binarnych — na przykład w diagnostyce medycznej.


Wyszukiwarka

Podobne podstrony:
Sieci CP str110 110 8.7. Otlminny sieci BA M Jest jednak dziś oczywiste, ie ten wynik można osiągnąć
img111 111 Rozdział 8. Sieci pamięci skojarzeniowej Różnych odmian sieci BAM jest wiele. Jest. ona s
img110 110 Zauważmy, że układ (9.8) Jest wynikiem rugowanie parametru 71 z układu równań
IMG74 (2) KOWANY 1995), nie jest jednak jasne, czy efekt ten dotyczy także przypadku, w którym po p
Tak duża ilość odpowiedzi pozytywnych jest jednak pozytywnym sygnałem, na podstawie którego można
img034 (6) Jest jednak rzeczą oczywistą, że asymetria układu figura — tło uwidacznia się szczególnie
img110 110 2.6.2. Metoda repetycyjna Ketoda repetycyjna pomiaru kątów poziomych jest stosowana w geo

więcej podobnych podstron