14 Sztuczne sieci neuronowe Sieci biologiczne System nerwowy istot żywych zbudowany jest z ogromnej iloÅ›ci komórek nerwowych, zwanych neuronami. Ich liczba w ludzkim mózgu dochodzi do 100 miliardów. synapsy dendryty ciaÅ‚o akson Rys. 3. Schemat biologicznego neuronu Dentryty sÄ… wypustkami sÅ‚użącymi do wprowadzania informacji do neuronu. Każdy neuron biologiczny ma jednÄ… wypustkÄ™, zwanÄ… aksonem, przez którÄ… może wysyÅ‚ać informacjÄ™ do wielu innych neuronów. Każdy neuron przekazuje pobudzenie innym neuronom przez zÅ‚Ä…cza nerwowe, zwane synapsami. Odbywa siÄ™ to na drodze skomplikowanych procesów chemiczno-elektrycznych. Pojedynczy neuron przyjmuje pobudzenie od ogromnej liczby innych neuronów, dochodzÄ…cej do tysiÄ…ca. Do każdego neuronu dochodzÄ… sygnaÅ‚y, z których część ma dziaÅ‚anie pobudzajÄ…ce, a część hamujÄ…ce. Neuron sumuje te impulsy. Jeżeli ich suma algebraiczna przekracza pewnÄ… wartość progowÄ…, neuron wysyÅ‚a poprzez akson sygnaÅ‚ do wszystkich, poÅ‚Ä…czonych z nim, neuronów. Mózg można utożsamiać z ogromnÄ… sieciÄ… realizujÄ…cÄ… równolegÅ‚e przetwarzanie sygnałów. Najbardziej istotnÄ… cechÄ… 15 mózgu jest jego zdolność do nauki. Uczy siÄ™ on głównie poprzez dopasowywanie struktury sieci neuronowej, bowiem w czasie nauki zmianie ulegajÄ… siÅ‚y poÅ‚Ä…czeÅ„ miÄ™dzy neuronami. Budowa i dziaÅ‚anie sztucznego neuronu x0=1 w0 x1 w1 x2 w2 s y åð f xn wn Rys. 4. Model sztucznego neuronu Wprowadzmy nastÄ™pujÄ…ce oznaczenia: x=[x1, x2, & , xn] wektor wartoÅ›ci wejÅ›ciowych, w=[w1, w2, & , wn] wektor wag synaptycznych, w0 wartość progowa pobudzenia, s wartość zsumowana, y wartość wyjÅ›ciowa, f funkcja aktywacji. 16 FormuÅ‚a opisujÄ…ca dziaÅ‚anie neuronu wyraża siÄ™ zależnoÅ›ciÄ… y =ð f (s) ( 1 ) w której n s =ð *ð wi åðxi ( 2 ) i=ð0 DziaÅ‚anie sztucznego neuronu można w skrócie opisać nastÄ™pujÄ…co: WartoÅ›ci wejÅ›ciowe pobudzenia zostajÄ… wymnożone przez odpowiadajÄ…ce im wagi, a nastÄ™pnie zsumowane do wartoÅ›ci s w czÅ‚onie sumujÄ…cym. NastÄ™pnie suma ta zostaje przeksztaÅ‚cona za pomocÄ… funkcji aktywacji f do wartoÅ›ci wyjÅ›ciowej neuronu y. SzczególnÄ… rolÄ™ peÅ‚ni staÅ‚e wejÅ›cie x0=1, które za pomocÄ… wagi w0, pozwala ustawiać wartość progu pobudzenia. Wiedza, którÄ… posiada pojedynczy neuron, zawarta jest w jego wagach. Uczenie neuronu polega na modyfikacji jego wektora wag. Cechy sztucznych sieci neuronowych ·ð Sieci neuronowe mogÄ… uczyć siÄ™ na przykÅ‚adach ·ð PotrafiÄ… poradzić sobie z zaszumionymi danymi ·ð PrzetwarzajÄ… dane w sposób równolegÅ‚y ·ð SÄ… zdolne do generalizowania wiedzy szczegółowej, zdobytej w oparciu o przykÅ‚ady 17 ·ð Jeden fragment oprogramowania implementujÄ…cego algorytmy sieci neuronowych może być wykorzystywany do rozwiÄ…zywania różnorakich problemów ·ð Nie potrafimy wyjaÅ›nić dziaÅ‚ania sztucznych sieci neuronowych - ekstrakcja jakichkolwiek reguÅ‚ decyzyjnych jest zwykle niemożliwa ·ð Proces treningu trwa zwykle bardzo dÅ‚ugo ·ð Nie istniejÄ… w 100% pewne zasady dotyczÄ…ce tego, jakie sieci stosować i jak je uczyć dla konkretnego zadania. Wiele elementów musi być dobieranych metodÄ… prób i bÅ‚Ä™dów ·ð Niekompletny zbiór uczÄ…cy może powodować, że sieć bÄ™dzie dawać bÅ‚Ä™dne wyniki podczas rzeczywistego użytkowania. Funkcje aktywacji Neurony możemy podzielić na trzy kategorie ze wzglÄ™du na użyte w nich funkcje aktywacji: f (s) =ð s ·ð Liniowe funkcje aktywacji ·ð Nieliniowe nieciÄ…gÅ‚e funkcje aktywacji ·ð Nieliniowe ciÄ…gÅ‚e funkcje aktywacji 18 PrzykÅ‚ady funkcji nieliniowych nieciÄ…gÅ‚ych: ·ð Funkcja signum (znak) 1 dla s >ð 0 ìð ïð f (s) =ð 0 dla s =ð 0 íð ïð -ð1 dla s <ð 0 îð ·ð Bipolarna funkcja skoku jednostkowego 1 dla s >ð 0 ìð f (s) =ð íð (3) -ð1 dla s <ð=ð 0 îð ·ð Unipolarna funkcja skoku jednostkowego 1 dla s >ð 0 ìð f (s) =ð íð 0 dla s <ð=ð 0 îð PrzykÅ‚ad funkcji nieliniowej ciÄ…gÅ‚ej: ·ð Funkcja sigmoidalna unipolarna 1 f (s) =ð 1+ð e-ðbð *ðs Jest to funkcja zależna od parametru ². 19 ²=5 1 ²=0,5 1,0 0,8 0,6 0,4 0,2 0,0 -10 -8 -6 -4 -2 0 2 4 6 8 10 Rys. 5. Przebieg unipolarnej funkcji sigmoidalnej dla różnych wartoÅ›ci parametru ² Perceptron DziaÅ‚anie sztucznego neuronu i sposób jego wykorzystania pokażemy na najprostszym sztucznym neuronie, zwanym perceptronem. Perceptron jest neuronem z bipolarnÄ… funkcjÄ… skoku jednostkowego (3). Perceptron ze wzglÄ™du na swojÄ… funkcjÄ™ aktywacji generuje tylko dwie różne wartoÅ›ci wyjÅ›ciowe y, może wiÄ™c klasyfikować wektory wejÅ›ciowe x=[x1, x2, & , xn] do jednej z dwóch klas. W przypadku dwóch wejść x1, x2 perceptron dzieli pÅ‚aszczyznÄ™ na dwie części. PodziaÅ‚ ten wyznacza prosta (granica decyzyjna) o równaniu w1* x1 + w2* x2 + w0 =0 20 x0=1 w0 x1 w1 x2 w2 s y 1 åð -1 xn wn Rys. 6. Schemat perceptronu Po przeksztaÅ‚ceniu równanie prostej bÄ™dÄ…cej granicÄ… decyzyjnÄ… przybierze postać w1 w0 x2 =ð *ð x1 -ð w2 w2 x2 w1 wektor wag w2 -w0/w2 x1 Rys. 7. Granica decyzyjna dla dwuelementowych wektorów danych. Jest ona prostopadÅ‚a do wektora wag w=[w1, w2] 21 W ogólnym przypadku, gdy perceptron ma n wejść, dzieli n-wymiarowÄ… przestrzeÅ„ wektorów wejÅ›ciowych x na dwie półprzestrzenie za pomocÄ… n-1-wymiarowej hiperpÅ‚aszczyzny. Granica ta dana jest równaniem n *ð wi +ð w0 =ð 0 åðxi i=ð1 Zgodnie z tym, co zostaÅ‚o już powiedziane, perceptron można uczyć. BÄ™dzie to tak zwane uczenie z nadzorem. Polega ono na podawaniu na wejÅ›cie neuronu ciÄ…gu uczÄ…cego w postaci ciÄ…gu wektorów x1=[x1, x2, & , xn] x2=[x1, x2, & , xn] & & & & & & & dla których znamy prawidÅ‚owe wartoÅ›ci odpowiedzi d1, d2, & Po podaniu każdego wektora wejÅ›ciowego xi oblicza siÄ™ wartość wyjÅ›ciowÄ… perceptronu yi. NastÄ™pnie dobiera siÄ™ wagi na wejÅ›ciu tak, aby zminimalizować bÅ‚Ä…d ri= |yi- di|. Proces ten można powtarzać wielokrotnie dla tych samych danych wejÅ›ciowych, aż do osiÄ…gniÄ™cia dla wszystkich wektorów wejÅ›ciowych bÅ‚Ä™dów mniejszych od zaÅ‚ożonych. Każde powtórne wykorzystanie tego samego ciÄ…gu uczÄ…cego nazywamy epokÄ…. Przed rozpoczÄ™ciem nauki wszystkim wagom nadaje siÄ™ losowe wartoÅ›ci poczÄ…tkowe. Dla przedstawionego na rys. 8 zbioru uczÄ…cego wektorem wartoÅ›ci wejÅ›ciowych bÄ™dzie zbiór wartoÅ›ci czterech atrybutów, opisujÄ…cych pogodÄ™. BÄ™dÄ… to liczby caÅ‚kowite, otrzymane w wyniku kodowania, np. dla wiatru: brak=0, b.sÅ‚aby=1, sÅ‚aby=2, silny=3, b. silny=4. Wartość wyjÅ›ciowÄ… (samopoczucie) można opisać za pomocÄ… wartoÅ›ci 1 i 1. 22 Aura Temp. Wilgot. Wiatr Samopocz. xi 1 sÅ‚oneczn. CiepÅ‚o maÅ‚a brak dobre 2 pada CiepÅ‚o b. duża sÅ‚aby dobre 3 mglisto chÅ‚odno b. duża sÅ‚aby zÅ‚e 4 sÅ‚oneczn. b.ciepÅ‚o b. maÅ‚a brak dobre 5 sÅ‚oneczn. Zimno b. maÅ‚a silny zÅ‚e 6 pochmur. CiepÅ‚o duża sÅ‚aby dobre 7 pada b. zimno duża b. silny zÅ‚e Rys. 8. PrzykÅ‚adowy zbiór wektorów uczÄ…cych Sieć, która nabyÅ‚a wiedzÄ™, może klasyfikować wektory nie należące do zbioru uczÄ…cego z wysokim stopniem pewnoÅ›ci. Model neuronu sigmoidalnego Jest to neuron z funkcjÄ… aktywacji w postaci unipolarnej, lub bipolarnej funkcji sigmoidalnej. Jak widać na rys. 5, funkcja ta zapewnia pÅ‚ynne przejÅ›cie od wartoÅ›ci 0 do 1 z progresjÄ… zależnÄ… od parametru ². Ze wzrostem parametru ² przebieg funkcji dąży do przebiegu unipolarnej funkcji skoku jednostkowego. Neuron sigmoidalny odgrywa dużą rolÄ™ w konstruowaniu sieci neuronalnych. Jego ogromna zaletÄ… jest różniczkowalność funkcji aktywacji, której pochodnÄ… można Å‚atwo obliczyć, co ma znaczenie przy szacowaniu bÅ‚Ä™du. Dlaczego sieci neuronowe ? Zakres możliwych problemów, które można rozwiÄ…zać, stosujÄ…c pojedyncze neurony, jest raczej wÄ…ski. PrzykÅ‚adowo, pojedynczy neuron, który dla dwuelementowego wektora 23 wejÅ›ciowego, klasyfikuje obiekty rozdzielajÄ…c je prostÄ…, nie potrafi rozdzielić punktów, bÄ™dÄ…cych wynikiem znanej funkcji logicznej, zwanej wyÅ‚Ä…czne nie czyli XOR. x1 x2 d=XOR(x1, x2) +1 +1 -1 +1 -1 1 -1 +1 1 -1 -1 -1 Rys. 9. CiÄ…g uczÄ…cy dla problemu XOR Z powyższej tabeli wynika, że nie istnieje prosta, która oddzielaÅ‚aby punkty o wartoÅ›ciach funkcji XOR równych 1 od punktów o wartoÅ›ciach +1. Neuron nie dobierze tak swoich wag, aby rozwiÄ…zać problem XOR. Problemy takie sÄ… w stanie rozwiÄ…zać sieci neuronowe, zÅ‚ożone z wiÄ™kszej iloÅ›ci neuronów. x2 1 -1 1 x1 -1 Rys. 10. Granica decyzyjna dla problemu XOR Podobnie jak w mózgu, sztuczne neurony Å‚Ä…czy siÄ™ ze sobÄ…, tworzÄ…c wielowarstowe sieci neuronowe. Mamy wtedy do czynienia z uczeniem sieci, w którym nabywanie wiedzy przez poszczególne neurony jest procesem zależnym od innych neuronów (zwykle sÄ…siednich) w sieci. 24 Główne sposoby Å‚Ä…czenia sztucznych neuronów w sieć, a także metody ich uczenia, zostanÄ… omówione w nastÄ™pnym rozdziale. Zbiór wszystkich wag w sieci jest reprezentacjÄ… informacji wykorzystywanej przez niÄ… do rozwiÄ…zywania zadaÅ„. W wiÄ™kszoÅ›ci przypadków jest jednak niemożliwe dokonanie interpretacji znaczenia poszczególnych wartoÅ›ci wag. Topologie sieci neuronowych Najważniejsze topologie (architektury poÅ‚Ä…czeÅ„) sztucznych sieci neuronowych, to: ·ð Sieci jednokierunkowe, charakteryzujÄ…ce siÄ™ jednym kierunkiem przepÅ‚ywu sygnałów i brakiem cykli w poÅ‚Ä…czeniach miÄ™dzy neuronami. Ilość neuronów w warstwach nie jest duża, warstwa ukryta nieraz nie wystÄ™puje. Warstwa wyjÅ›ciowa Warstwy ukryte Warstwa wejÅ›ciowa Rys. 11. Wielowarstwowa jednokierunkowa sieć neuronowa W uczeniu sieci wielowarstwowych ważnÄ… rolÄ™ peÅ‚ni metoda, zwana wstecznÄ… propagacjÄ… bÅ‚Ä™dów. Zostanie ona omówiona pózniej. 25 Dobór architektury dla sieci wielowarstwowych polega na doborze liczby warstw sieci oraz iloÅ›ci neuronów w każdej warstwie. IloÅ›ci te silnie zależą od problemu, który chcemy rozwiÄ…zać. Zgodnie z tym, co już zostaÅ‚o powiedziane, pojedynczy neuron dzieli pÅ‚aszczyznÄ™ na dwie części. Natomiast dwie warstwy mogÄ… odwzorowywać już tzw. simpleksy czyli wypukÅ‚e, ograniczone hiperpÅ‚aszczyznami wycinki przestrzeni. Trzy warstwy dajÄ… już możliwość wydzielania w zasadzie dowolnych obszarów. Trójwarstwowa sieć jest wiÄ™c w stanie rozwiÄ…zać szerokÄ… gamÄ™ problemów klasyfikacji i aproksymacji. ·ð Sieci rekurencyjne, czyli takie, w których wystÄ™pujÄ… sprzężenia zwrotne. Oznacza to, że na wejÅ›cie sieci podawane sÄ… w sposób bezpoÅ›redni lub poÅ›redni sygnaÅ‚y wyjÅ›ciowe sieci lub warstw. wk x1 x2 x1 Rys. 12. Sieć Hopfielda jako przykÅ‚ad sieci rekurencyjnej Jednorazowe pobudzenie struktury ze sprzężeniem zwrotnym powoduje, że sygnaÅ‚y z wyjÅ›cia ponownie trafiajÄ… na wejÅ›cia neuronów, generujÄ…c nowe sygnaÅ‚y. Proces ten trwa aż do ustabilizowania siÄ™ sygnałów wyjÅ›ciowych. Zanim to siÄ™ jednak stanie wystÄ…pić mogÄ… oscylacje, polegajÄ…ce na 26 gwaÅ‚townym narastaniu, bÄ…dz opadaniu sygnałów wyjÅ›ciowych. Najprostszym przykÅ‚adem sieci rekurencyjnej jest sieć Hopfielda. Jest to sieć jednowarstwowa o budowie przedstawionej na rys.12. Ciekawym wykorzystaniem sieci Hopfielda jest używanie jej jako pamiÄ™ci asocjacyjnej. Inne bardziej znane topologie sieci rekurencyjnych, to: żð sieć Hamminga - jest to sieć rekurencyjna trójwarstwowa używana do rozpoznawania obrazów, żð sieć Elmana i sieci RTRN (Real Time Reccurent Network), używane do modelowania przebiegów czasowych i identyfikacji obiektów dynamicznych, żð sieć BAM (Bidirectional Associative Memory) realizujÄ…ca pamięć typu heteroasocjacyjnego (to jest polegajÄ… na kojarzeniu dwóch wektorów zupeÅ‚nie dowolnego typu). Do wszystkich, dotychczas wymienionych rodzajów sieci stosuje siÄ™ metody nauki z nauczycielem (z nadzorem). ·ð Sieci komórkowe, w których wystÄ™pujÄ… sprzężenia wzajemne, ale dotyczÄ… one tylko najbliższego sÄ…siedztwa. Rys. 13. PrzykÅ‚ad sieci komórkowej 27 Algorytm wstecznej propagacji bÅ‚Ä™dów Jest stosowany do uczenia wielowarstwowej sieci neuronowej. Algorytm zaczyna siÄ™ od podania pierwszego wektora uczÄ…cego na wejÅ›cia neuronów pierwszej warstwy. Otrzymane z wyjÅ›cia każdego neuronu warstwy pierwszej sygnaÅ‚y sÄ… podawane na wejÅ›cia wszystkich neuronów nastÄ™pnej warstwy. Proces ten powtarza siÄ™ aż do warstwy ostatniej. ZnajÄ…c sygnaÅ‚ wyjÅ›ciowy warstwy ostatniej, oraz sygnaÅ‚ wzorcowy z ciÄ…gu uczÄ…cego, oblicza siÄ™ bÅ‚Ä…d dla wszystkich neuronów warstwy ostatniej. Pozwala to na modyfikacjÄ™ wag neuronów, ale tylko w warstwie ostatniej. Bowiem w ten sposób nie można modyfikować wag neuronów warstw poprzednich. Dlatego bÅ‚Ä…d wyjÅ›ciowy jest propagowany do tyÅ‚u, poprzez wszystkie warstwy poprzednie, zgodnie z poÅ‚Ä…czeniami neuronów miedzy warstwami i z uwzglÄ™dnieniem ich funkcji aktywacji. TakÄ… modyfikacjÄ™ sieci przeprowadza siÄ™ każdorazowo po podaniu na wejÅ›cie kolejnego wektora uczÄ…cego. Inicjalizacja wartoÅ›ci wag poczÄ…tkowych sieci Oczywistym jest, że im wartoÅ›ci startowe wag bÄ™dÄ… bliższe wartoÅ›ci optymalnej (minimalizujÄ…cej funkcjÄ™ bÅ‚Ä™du), tym uczenie bÄ™dzie trwaÅ‚o krócej. Funkcja bÅ‚Ä™du jest funkcjÄ… wielu zmiennych, którymi sÄ… wszystkie wagi. Ma ona zwykle wiele minimów lokalnych, w których może utknąć algorytm poszukujÄ…cy minimalnej wartoÅ›ci bÅ‚Ä™du. minimum globalne bÅ‚Ä…d wagi minimum lokalne 28 NajprostszÄ… metodÄ… usuniÄ™cia powyższej niedogodnoÅ›ci jest rozpoczynanie uczenia sieci od różnych wartoÅ›ci wag poczÄ…tkowych. Algorytm: żð Wybieramy wagi losowo, zakÅ‚adajÄ…c rozkÅ‚ad równomierny w okreÅ›lonym przedziale liczbowym, żð UżywajÄ…c algorytmu wstecznej propagacji bÅ‚Ä™du uczymy sieć, żð Gdy bÅ‚Ä…d uczenia przestaje maleć, lub zaczyna rosnąć, wybieramy ponownie losowo wagi, jednak z innego przedziaÅ‚u liczbowego żð Powtarzamy uczenie sieci i obserwujemy, czy bÅ‚Ä…d uczenia jest mniejszy niż poprzednio. JeÅ›li tak, to byliÅ›my w minimum lokalnym, wiÄ™c powtarzamy uczenie dla innych jeszcze losowych wartoÅ›ci poczÄ…tkowych wag. OczywiÅ›cie to wydÅ‚uża proces uczenia sieci. Sieci samoorganizujÄ…ce z konkurencjÄ… Omawiane dotychczas sieci byÅ‚y uczone z wykorzystaniem algorytmów z nauczycielem, znaliÅ›my bowiem wzorcowÄ… odpowiedz sieci na sygnaÅ‚ wejÅ›ciowy. Sieci samoorganizujÄ…ce to sieci, które uczÄ… siÄ™ bez nauczyciela (ten rodzaj uczenia nazywany jest czasem uczeniem bez nadzoru). CiÄ…g uczÄ…cy skÅ‚ada siÄ™ wiÄ™c jedynie z wartoÅ›ci wejÅ›ciowych. Sieci te majÄ… szerokie zastosowania, miÄ™dzy innymi w zadaniach grupowania danych (klastering). Sieci typu WTA Jest to sieć samoorganizujÄ…ca, a jej nazwa pochodzi od algorytmu uczenia Winner Takes All. 29 x1 0 Sð x2 . 0 Sð . 1 . Sð xn 0 Sð Blok rywalizacji Rys. 14. Sieć samoorganizujÄ…ca typu WTA SygnaÅ‚ wejÅ›ciowy x=[x1, x2,& , xn] trafia wejÅ›cia wszystkich neuronów. Tutaj nastÄ™puje wyznaczenie miary podobieÅ„stwa (odlegÅ‚oÅ›ci) sygnaÅ‚u wejÅ›ciowego x do wszystkich wektorów wag wi. Neuron charakteryzujÄ…cy siÄ™ najmniejszÄ… odlegÅ‚oÅ›ciÄ… wektora wag od sygnaÅ‚u wejÅ›ciowego, przyjmuje na swym wyjÅ›ciu wartość 1, pozostaÅ‚e neurony wartość 0. W dalszym procesie uczenia tylko wagi tego neuronu sÄ… modyfikowane. Tak wiÄ™c zwyciÄ™zca bierze wszystko a inni na niego pracujÄ… . DziaÅ‚anie sieci samoorganizujÄ…cej sprowadza siÄ™ do podzielenia M podanych na wejÅ›ciu wzorców na N rozÅ‚Ä…cznych klas, gdzie N jest liczbÄ… neuronów w sieci. Po nauczeniu sieci każdy neuron reprezentuje innÄ… klasÄ™. Zadaniem uczenia jest wiÄ™c taki dobór wartoÅ›ci wszystkich wag, aby dla wektora wejÅ›ciowego x, który należy do i-tej klasy, jego odlegÅ‚ość od i-tego wektora wag byÅ‚a jak najmniejsza. Sieć WTA byÅ‚a wykorzystana do rozwiÄ…zania problemu kwiatu irysa. Na podstawie czterech jego cech: dÅ‚ugoÅ›ci i szerokoÅ›ci pÅ‚atka, oraz dÅ‚ugoÅ›ci i szerokoÅ›ci liÅ›cia, należaÅ‚o okreÅ›lić do którego gatunku dany kwiat należy. 30 Każdy wejÅ›ciowy wektor uczÄ…cy skÅ‚adaÅ‚ siÄ™ wiÄ™c z czterech skÅ‚adowych, również liczba wejść każdego neuronu, a co za tym idzie liczba wag to cztery. Ponieważ liczba rozróżnialnych gatunków to 3, wiÄ™c użyto trzech neuronów w sieci. Zatem Å‚Ä…cznie w procesie uczenia dobierano 12 wag. Użyto 120 wektorów uczÄ…cych. OkazaÅ‚o siÄ™ po podaniu wektorów testujÄ…cych, że jeden z gatunków siec rozpoznaje bezbÅ‚Ä™dnie, natomiast w przypadku dwóch pozostaÅ‚ych popeÅ‚nia czasem bÅ‚Ä™dy. Sieci typu WTM SÄ… to sieci samoorganizujÄ…ce, w których oprócz zwyciÄ™zcy, korekty wag dokonujÄ… również jego sÄ…siedzi. StÄ…d nazwa sieci, pochodzÄ…ca od Winner Takes Most. Najbardziej znanymi algorytmami uczenia, wykorzystywanymi przez te sieci, sÄ…: tzw. algorytm gazu neuronowego, oraz algorytm Kohenena. W tej ostatniej metodzie wprowadza siÄ™ sÄ…siedztwo na staÅ‚e, Å‚Ä…czÄ…c neurony w siatkÄ™, w sposób pokazany na rys. 13. Bardzo ciekawÄ… propozycjÄ… sieci bez nauczyciela jest sieć typu ART (Adaptive Resonanse Theory). Celem dziaÅ‚ania tej sieci jest rozpoznawanie konkurencyjne nieznanych wczeÅ›niej obrazów binarnych. Uwaga koÅ„cowa Sieć neuronowa jest definiowana przez nastÄ™pujÄ…ce elementy: ·ð Funkcje aktywacji neuronów, ·ð ArchitekturÄ™ (topologiÄ™) sieci, czyli wzorzec poÅ‚Ä…czeÅ„ miÄ™dzy neuronami ·ð Algorytm uczenia lub treningu, czyli sposób dokonywania zmian wag poÅ‚Ä…czeÅ„.