110
S.7. Odmiany sieci BAM
Jest jednak dziś oczywiste, ie ten wynik można osiągnąć jedynie przy bardzo specjalnym kodowaniu informacji w wektorach X i Y. McEIiece, Posner, Rodemicb i Vankatesh [McE187] wykazali, że realistyczne jest oszacowanie
L= n/(4 log2 n)
gdzie przyjęto, że n jest liczbą neuronów w mniejszej warstwie. Warto zauważyć, jak bardzo różni się oszacowanie McEIiece od optymizmu Kosko. Przy n = 1024 Kosko oczekuje możliwości zapamiętania ponad tysiąca informacji, a McEIiece pozwala na zapamiętanie zaledwie 25!
Oczywiście są także i inne oszacowania. Hecht-Niclscn dowodził [Hec!i88], że indywidualnie dobierając progi wszystkich neuronów w sieci BAM można uzyskać w niej 2n rozróżnialnych stanów, a co za tym idzie aż tyle jest potencjalnie możliwych do zapamiętania informacji. Oczywiście w praktyce nie można liczyć na taką wydajność, jednak dobierając wektory X i Y w taki sposób, by w każdym z nich było
/+ = 4 + log2 n
składowych wynoszących +1, a pozostałe mające wartości -1, to wówczas można uzyskać pojemność pamięci
~ (log, n + 4)2
większą od ». Przykładowo dla » = 1024 L wynosi aż 3637.
Obok omówionych wyżej sieci BAM w formie cyfrowej (tj. akceptujących jedynie wartości Xi i y% wynoszące +1 albo —1) rozważane są sieci tego typu o elementach analogowych, z funkcją <p opisaną na przykład cytowaną wyżej sigmoidą logistyczną. Sieci takie okazują się także bardzo przydatne w adaptacyjnym przetwarzaniu sygnałów i budzą rosnące zainteresowanie badaczy zwłaszcza, że możliwa jest ich hardware’owa implementacja w układach VLSI oraz optoelektronicznych. Podobnie rozważane są sieci BAM o działaniu ciągłym (wyżej przytoczona dyskusja odnosiła się do dyskretnej skali czasu i angażowała pewne procesy iteracyjne w sieci). Sieci takie są możliwe do praktycznego zastosowania, ponieważ teoria Kosko zapewnia także ich stabilność.
Inną odmianą sieci BAM, dyskutowaną w literaturze [Wass89], jest sieć adaptacyjna. W sieci takiej dokonuje się permanentna powolna zmiana współczynników Wagowych, zgodnie ze wzorem
ti’»j = Wij + V Xi Vj
Sieć taka może doskonalić swoje działanie w trakcie eksploatacji i nie wymaga oddzielnego procesu uczenia.
Jeszcze inna odmiana sieci BAM związana jest z wprowadzeniem do niej elementu rywalizacji (tylko jeden element w każdej warstwie neuronów ma sygnał wyjściowy wynoszący + 1, pozostałe mają wymuszony sygnał wynoszący —1, nawet jeśli ważona suma ich wejść jest większa od założonego progu). Sieć tego typu może służyć do kojarzenia specjalnych typów wektorów binarnych — na przykład w diagnostyce medycznej.