SSN2


SSN: a) sieci jednokierunkowe:- jednowarstwowe - wielowarstwowe b) sieci rekurencyjne:- lokalnie rekurencyjne globalnie jednokierunkowe- globalnie rekurencyjne c) sieci radialne, d) sieci komórkowe e) sieci typu GMDH, f) rozmyte sieci neuronowe. ZASTOSOWANIE SSNa) autoasocjacja: faktyczny obraz jest rekonstruowany przez siec z obrazu niekompletnego i/lub obarczonego zakłóceniami, b) heteroasocjacja: siec realizuje odwzorowanie wejscie-wyjscie, c) klasyfikacja: siec klasyfikuje, czyli przypisuje do odpowiednich zbiorów (klas) różne

obrazy wejściowe, d) detekcja regularności: wykrywanie statystycznie istotnych cech w obrazie wejściowym.

UCZENIE a) uczenie bez nauczyciela - nie jest podawane rozwiązanie, siec stara sie sama uczyć rozróżniać nadchodzące do niej sygnały i grupować je w pewne kategorie b) uczenie z nauczycielem- rozwiązanie jest znane, bo nauczyciel podpowiada sieci wymaganą odpowiedz na zadany sygnał wejściowy. SPOSOBY KOREKCJI WAG A)przyrostowy- wagi aktualizowane sa bezpośrednio po podaniu każdego wzorca. Funkcja błędu jest zmniejszana w każdym kroku. b) sposób grupowy- korekcja wag następuje po podaniu całego zestawu danych uczących

Model matematyczny neuronu, ui - wejścia neuronu, wi - wagi neuronu b - próg zadziałania neuronu y - wyjście neuronu, F - funkcja wyjściowa, i 2- index wejść neuronu, N - liczba wejść neuronu.

0x01 graphic
0x01 graphic

H1 Wystarczy jedna warstwa ukryta z dostateczna liczba jednostek przetwarzających do aproksymacji dowolnej f. ciągłej. H2 Każda rozsądną funkcje y = f (x) można aproksymować z zadana dokładnością przy użyciu, co najmniej dwóch warstw ukrytych oraz dostatecznie dużej liczbie jednostek w warstwach. H3 Liczba wzorców uczących powinna być pięciokrotnie większa niż liczba parametrów swobodnych sieci. H4 Liczba wzorców uczących powinna być kilkakrotnie większa (min. 10) od miary Vapnika- Chervonenkisa V Cdim, H5 Liczbę neuronów w pierwszej warstwie ukrytej możemy wyznaczyć z zależności L=K/10(R+M)' H6 Możliwe jest zredukowanie struktury sieci w taki sposób, aby w kolejnym podejściu do budowy modelu użyć struktury z poprzedniego kroku, dla której liczba parametrów zostałaby pomniejszona o parametry o wartościach bliskich zeru. H7 Początkowo dobieramy strukturę stosując heurystyki 15. Następnie możliwe jest zmniejszenie liczby neuronów warstwy ukrytej o połowę w sytuacji, gdy błąd generalizacji jest zadawalający. W sytuacji odwrotnej należy zwiększyć ta liczbę o połowę (można przyjąć większą/mniejsza liczbę neuronów dodawanych/odejmowanych).

SSN: a) sieci jednokierunkowe:- jednowarstwowe - wielowarstwowe b) sieci rekurencyjne:- lokalnie rekurencyjne globalnie jednokierunkowe- globalnie rekurencyjne c) sieci radialne, d) sieci komórkowe e) sieci typu GMDH, f) rozmyte sieci neuronowe. ZASTOSOWANIE SSNa) autoasocjacja: faktyczny obraz jest rekonstruowany przez siec z obrazu niekompletnego i/lub obarczonego zakłóceniami, b) heteroasocjacja: siec realizuje odwzorowanie wejscie-wyjscie, c) klasyfikacja: siec klasyfikuje, czyli przypisuje do odpowiednich zbiorów (klas) różne

obrazy wejściowe, d) detekcja regularności: wykrywanie statystycznie istotnych cech w obrazie wejściowym.

UCZENIE a) uczenie bez nauczyciela - nie jest podawane rozwiązanie, siec stara sie sama uczyć rozróżniać nadchodzące do niej sygnały i grupować je w pewne kategorie b) uczenie z nauczycielem- rozwiązanie jest znane, bo nauczyciel podpowiada sieci wymaganą odpowiedz na zadany sygnał wejściowy. SPOSOBY KOREKCJI WAG A)przyrostowy- wagi aktualizowane sa bezpośrednio po podaniu każdego wzorca. Funkcja błędu jest zmniejszana w każdym kroku. b) sposób grupowy- korekcja wag następuje po podaniu całego zestawu danych uczących

Model matematyczny neuronu, ui - wejścia neuronu, wi - wagi neuronu b - próg zadziałania neuronu y - wyjście neuronu, F - funkcja wyjściowa, i 2- index wejść neuronu, N - liczba wejść neuronu.

0x01 graphic
0x01 graphic

H1 Wystarczy jedna warstwa ukryta z dostateczna liczba jednostek przetwarzających do aproksymacji dowolnej f. ciągłej. H2 Każda rozsądną funkcje y = f (x) można aproksymować z zadana dokładnością przy użyciu, co najmniej dwóch warstw ukrytych oraz dostatecznie dużej liczbie jednostek w warstwach. H3 Liczba wzorców uczących powinna być pięciokrotnie większa niż liczba parametrów swobodnych sieci. H4 Liczba wzorców uczących powinna być kilkakrotnie większa (min. 10) od miary Vapnika- Chervonenkisa V Cdim, H5 Liczbę neuronów w pierwszej warstwie ukrytej możemy wyznaczyć z zależności L=K/10(R+M)' H6 Możliwe jest zredukowanie struktury sieci w taki sposób, aby w kolejnym podejściu do budowy modelu użyć struktury z poprzedniego kroku, dla której liczba parametrów zostałaby pomniejszona o parametry o wartościach bliskich zeru. H7 Początkowo dobieramy strukturę stosując heurystyki 15. Następnie możliwe jest zmniejszenie liczby neuronów warstwy ukrytej o połowę w sytuacji, gdy błąd generalizacji jest zadawalający. W sytuacji odwrotnej należy zwiększyć ta liczbę o połowę (można przyjąć większą/mniejsza liczbę neuronów dodawanych/odejmowanych).

SSN: a) sieci jednokierunkowe:- jednowarstwowe - wielowarstwowe b) sieci rekurencyjne:- lokalnie rekurencyjne globalnie jednokierunkowe- globalnie rekurencyjne c) sieci radialne, d) sieci komórkowe e) sieci typu GMDH, f) rozmyte sieci neuronowe. ZASTOSOWANIE SSNa) autoasocjacja: faktyczny obraz jest rekonstruowany przez siec z obrazu niekompletnego i/lub obarczonego zakłóceniami, b) heteroasocjacja: siec realizuje odwzorowanie wejscie-wyjscie, c) klasyfikacja: siec klasyfikuje, czyli przypisuje do odpowiednich zbiorów (klas) różne

obrazy wejściowe, d) detekcja regularności: wykrywanie statystycznie istotnych cech w obrazie wejściowym.

UCZENIE a) uczenie bez nauczyciela - nie jest podawane rozwiązanie, siec stara sie sama uczyć rozróżniać nadchodzące do niej sygnały i grupować je w pewne kategorie b) uczenie z nauczycielem- rozwiązanie jest znane, bo nauczyciel podpowiada sieci wymaganą odpowiedz na zadany sygnał wejściowy. SPOSOBY KOREKCJI WAG A)przyrostowy- wagi aktualizowane sa bezpośrednio po podaniu każdego wzorca. Funkcja błędu jest zmniejszana w każdym kroku. b) sposób grupowy- korekcja wag następuje po podaniu całego zestawu danych uczących

Model matematyczny neuronu, ui - wejścia neuronu, wi - wagi neuronu b - próg zadziałania neuronu y - wyjście neuronu, F - funkcja wyjściowa, i 2- index wejść neuronu, N - liczba wejść neuronu.

0x01 graphic
0x01 graphic

H1 Wystarczy jedna warstwa ukryta z dostateczna liczba jednostek przetwarzających do aproksymacji dowolnej f. ciągłej. H2 Każda rozsądną funkcje y = f (x) można aproksymować z zadana dokładnością przy użyciu, co najmniej dwóch warstw ukrytych oraz dostatecznie dużej liczbie jednostek w warstwach. H3 Liczba wzorców uczących powinna być pięciokrotnie większa niż liczba parametrów swobodnych sieci. H4 Liczba wzorców uczących powinna być kilkakrotnie większa (min. 10) od miary Vapnika- Chervonenkisa V Cdim, H5 Liczbę neuronów w pierwszej warstwie ukrytej możemy wyznaczyć z zależności L=K/10(R+M)' H6 Możliwe jest zredukowanie struktury sieci w taki sposób, aby w kolejnym podejściu do budowy modelu użyć struktury z poprzedniego kroku, dla której liczba parametrów zostałaby pomniejszona o parametry o wartościach bliskich zeru. H7 Początkowo dobieramy strukturę stosując heurystyki 15. Następnie możliwe jest zmniejszenie liczby neuronów warstwy ukrytej o połowę w sytuacji, gdy błąd generalizacji jest zadawalający. W sytuacji odwrotnej należy zwiększyć ta liczbę o połowę (można przyjąć większą/mniejsza liczbę neuronów dodawanych/odejmowanych).

SSN: a) sieci jednokierunkowe:- jednowarstwowe - wielowarstwowe b) sieci rekurencyjne:- lokalnie rekurencyjne globalnie jednokierunkowe- globalnie rekurencyjne c) sieci radialne, d) sieci komórkowe e) sieci typu GMDH, f) rozmyte sieci neuronowe. ZASTOSOWANIE SSNa) autoasocjacja: faktyczny obraz jest rekonstruowany przez siec z obrazu niekompletnego i/lub obarczonego zakłóceniami, b) heteroasocjacja: siec realizuje odwzorowanie wejscie-wyjscie, c) klasyfikacja: siec klasyfikuje, czyli przypisuje do odpowiednich zbiorów (klas) różne

obrazy wejściowe, d) detekcja regularności: wykrywanie statystycznie istotnych cech w obrazie wejściowym.

UCZENIE a) uczenie bez nauczyciela - nie jest podawane rozwiązanie, siec stara sie sama uczyć rozróżniać nadchodzące do niej sygnały i grupować je w pewne kategorie b) uczenie z nauczycielem- rozwiązanie jest znane, bo nauczyciel podpowiada sieci wymaganą odpowiedz na zadany sygnał wejściowy. SPOSOBY KOREKCJI WAG A)przyrostowy- wagi aktualizowane sa bezpośrednio po podaniu każdego wzorca. Funkcja błędu jest zmniejszana w każdym kroku. b) sposób grupowy- korekcja wag następuje po podaniu całego zestawu danych uczących

Model matematyczny neuronu, ui - wejścia neuronu, wi - wagi neuronu b - próg zadziałania neuronu y - wyjście neuronu, F - funkcja wyjściowa, i 2- index wejść neuronu, N - liczba wejść neuronu.

0x01 graphic
0x01 graphic

H1 Wystarczy jedna warstwa ukryta z dostateczna liczba jednostek przetwarzających do aproksymacji dowolnej f. ciągłej. H2 Każda rozsądną funkcje y = f (x) można aproksymować z zadana dokładnością przy użyciu, co najmniej dwóch warstw ukrytych oraz dostatecznie dużej liczbie jednostek w warstwach. H3 Liczba wzorców uczących powinna być pięciokrotnie większa niż liczba parametrów swobodnych sieci. H4 Liczba wzorców uczących powinna być kilkakrotnie większa (min. 10) od miary Vapnika- Chervonenkisa V Cdim, H5 Liczbę neuronów w pierwszej warstwie ukrytej możemy wyznaczyć z zależności L=K/10(R+M)' H6 Możliwe jest zredukowanie struktury sieci w taki sposób, aby w kolejnym podejściu do budowy modelu użyć struktury z poprzedniego kroku, dla której liczba parametrów zostałaby pomniejszona o parametry o wartościach bliskich zeru. H7 Początkowo dobieramy strukturę stosując heurystyki 15. Następnie możliwe jest zmniejszenie liczby neuronów warstwy ukrytej o połowę w sytuacji, gdy błąd generalizacji jest zadawalający. W sytuacji odwrotnej należy zwiększyć ta liczbę o połowę (można przyjąć większą/mniejsza liczbę neuronów dodawanych/odejmowanych).

SSN: a) sieci jednokierunkowe:- jednowarstwowe - wielowarstwowe b) sieci rekurencyjne:- lokalnie rekurencyjne globalnie jednokierunkowe- globalnie rekurencyjne c) sieci radialne, d) sieci komórkowe e) sieci typu GMDH, f) rozmyte sieci neuronowe. ZASTOSOWANIE SSNa) autoasocjacja: faktyczny obraz jest rekonstruowany przez siec z obrazu niekompletnego i/lub obarczonego zakłóceniami, b) heteroasocjacja: siec realizuje odwzorowanie wejscie-wyjscie, c) klasyfikacja: siec klasyfikuje, czyli przypisuje do odpowiednich zbiorów (klas) różne

obrazy wejściowe, d) detekcja regularności: wykrywanie statystycznie istotnych cech w obrazie wejściowym.

UCZENIE a) uczenie bez nauczyciela - nie jest podawane rozwiązanie, siec stara sie sama uczyć rozróżniać nadchodzące do niej sygnały i grupować je w pewne kategorie b) uczenie z nauczycielem- rozwiązanie jest znane, bo nauczyciel podpowiada sieci wymaganą odpowiedz na zadany sygnał wejściowy. SPOSOBY KOREKCJI WAG A)przyrostowy- wagi aktualizowane sa bezpośrednio po podaniu każdego wzorca. Funkcja błędu jest zmniejszana w każdym kroku. b) sposób grupowy- korekcja wag następuje po podaniu całego zestawu danych uczących

Model matematyczny neuronu, ui - wejścia neuronu, wi - wagi neuronu b - próg zadziałania neuronu y - wyjście neuronu, F - funkcja wyjściowa, i 2- index wejść neuronu, N - liczba wejść neuronu.

0x01 graphic
0x01 graphic

H1 Wystarczy jedna warstwa ukryta z dostateczna liczba jednostek przetwarzających do aproksymacji dowolnej f. ciągłej. H2 Każda rozsądną funkcje y = f (x) można aproksymować z zadana dokładnością przy użyciu, co najmniej dwóch warstw ukrytych oraz dostatecznie dużej liczbie jednostek w warstwach. H3 Liczba wzorców uczących powinna być pięciokrotnie większa niż liczba parametrów swobodnych sieci. H4 Liczba wzorców uczących powinna być kilkakrotnie większa (min. 10) od miary Vapnika- Chervonenkisa V Cdim, H5 Liczbę neuronów w pierwszej warstwie ukrytej możemy wyznaczyć z zależności L=K/10(R+M)' H6 Możliwe jest zredukowanie struktury sieci w taki sposób, aby w kolejnym podejściu do budowy modelu użyć struktury z poprzedniego kroku, dla której liczba parametrów zostałaby pomniejszona o parametry o wartościach bliskich zeru. H7 Początkowo dobieramy strukturę stosując heurystyki 15. Następnie możliwe jest zmniejszenie liczby neuronów warstwy ukrytej o połowę w sytuacji, gdy błąd generalizacji jest zadawalający. W sytuacji odwrotnej należy zwiększyć ta liczbę o połowę (można przyjąć większą/mniejsza liczbę neuronów dodawanych/odejmowanych).

SSN: a) sieci jednokierunkowe:- jednowarstwowe - wielowarstwowe b) sieci rekurencyjne:- lokalnie rekurencyjne globalnie jednokierunkowe- globalnie rekurencyjne c) sieci radialne, d) sieci komórkowe e) sieci typu GMDH, f) rozmyte sieci neuronowe. ZASTOSOWANIE SSNa) autoasocjacja: faktyczny obraz jest rekonstruowany przez siec z obrazu niekompletnego i/lub obarczonego zakłóceniami, b) heteroasocjacja: siec realizuje odwzorowanie wejscie-wyjscie, c) klasyfikacja: siec klasyfikuje, czyli przypisuje do odpowiednich zbiorów (klas) różne

obrazy wejściowe, d) detekcja regularności: wykrywanie statystycznie istotnych cech w obrazie wejściowym.

UCZENIE a) uczenie bez nauczyciela - nie jest podawane rozwiązanie, siec stara sie sama uczyć rozróżniać nadchodzące do niej sygnały i grupować je w pewne kategorie b) uczenie z nauczycielem- rozwiązanie jest znane, bo nauczyciel podpowiada sieci wymaganą odpowiedz na zadany sygnał wejściowy. SPOSOBY KOREKCJI WAG A)przyrostowy- wagi aktualizowane sa bezpośrednio po podaniu każdego wzorca. Funkcja błędu jest zmniejszana w każdym kroku. b) sposób grupowy- korekcja wag następuje po podaniu całego zestawu danych uczących

Model matematyczny neuronu, ui - wejścia neuronu, wi - wagi neuronu b - próg zadziałania neuronu y - wyjście neuronu, F - funkcja wyjściowa, i 2- index wejść neuronu, N - liczba wejść neuronu.

0x01 graphic
0x01 graphic

H1 Wystarczy jedna warstwa ukryta z dostateczna liczba jednostek przetwarzających do aproksymacji dowolnej f. ciągłej. H2 Każda rozsądną funkcje y = f (x) można aproksymować z zadana dokładnością przy użyciu, co najmniej dwóch warstw ukrytych oraz dostatecznie dużej liczbie jednostek w warstwach. H3 Liczba wzorców uczących powinna być pięciokrotnie większa niż liczba parametrów swobodnych sieci. H4 Liczba wzorców uczących powinna być kilkakrotnie większa (min. 10) od miary Vapnika- Chervonenkisa V Cdim, H5 Liczbę neuronów w pierwszej warstwie ukrytej możemy wyznaczyć z zależności L=K/10(R+M)' H6 Możliwe jest zredukowanie struktury sieci w taki sposób, aby w kolejnym podejściu do budowy modelu użyć struktury z poprzedniego kroku, dla której liczba parametrów zostałaby pomniejszona o parametry o wartościach bliskich zeru. H7 Początkowo dobieramy strukturę stosując heurystyki 15. Następnie możliwe jest zmniejszenie liczby neuronów warstwy ukrytej o połowę w sytuacji, gdy błąd generalizacji jest zadawalający. W sytuacji odwrotnej należy zwiększyć ta liczbę o połowę (można przyjąć większą/mniejsza liczbę neuronów dodawanych/odejmowanych).

rekurencyjne c) sieci radialne, d) sieci komórkowe e) sieci typu GMDH, f) rozmyte sieci neuronowe. ZASTOSOWANIE SSNa) autoasocjacja: faktyczny obraz jest rekonstruowany przez siec z obrazu niekompletnego i/lub obarczonego zakłóceniami, b) heteroasocjacja: siec realizuje odwzorowanie wejscie-wyjscie, c) klasyfikacja: siec klasyfikuje, czyli przypisuje do odpowiednich zbiorów (klas) różne

obrazy wejściowe, d) detekcja regularności: wykrywanie statystycznie istotnych cech w obrazie wejściowym.

UCZENIE a) uczenie bez nauczyciela - nie jest podawane rozwiązanie, siec stara sie sama uczyć rozróżniać nadchodzące do niej sygnały i grupować je w pewne kategorie b) uczenie z nauczycielem- rozwiązanie jest znane, bo nauczyciel podpowiada sieci wymaganą odpowiedz na zadany sygnał wejściowy. SPOSOBY KOREKCJI WAG A)przyrostowy- wagi aktualizowane sa bezpośrednio po podaniu każdego wzorca. Funkcja błędu jest zmniejszana w każdym kroku. b) sposób grupowy- korekcja wag następuje po podaniu całego zestawu danych uczących

Model matematyczny neuronu, ui - wejścia neuronu, wi - wagi neuronu b - próg zadziałania neuronu y - wyjście neuronu, F - funkcja wyjściowa, i 2- index wejść neuronu, N - liczba wejść neuronu.

0x01 graphic
0x01 graphic

H1 Wystarczy jedna warstwa ukryta z dostateczna liczba jednostek przetwarzających do aproksymacji dowolnej f. ciągłej. H2 Każda rozsądną funkcje y = f (x) można aproksymować z zadana dokładnością przy użyciu, co najmniej dwóch warstw ukrytych oraz dostatecznie dużej liczbie jednostek w warstwach. H3 Liczba wzorców uczących powinna być pięciokrotnie większa niż liczba parametrów swobodnych sieci. H4 Liczba wzorców uczących powinna być kilkakrotnie większa (min. 10) od miary Vapnika- Chervonenkisa V Cdim, H5 Liczbę neuronów w pierwszej warstwie ukrytej możemy wyznaczyć z zależności L=K/10(R+M)' H6 Możliwe jest zredukowanie struktury sieci w taki sposób, aby w kolejnym podejściu do budowy modelu użyć struktury z poprzedniego kroku, dla której liczba parametrów zostałaby pomniejszona o parametry o wartościach bliskich zeru. H7 Początkowo dobieramy strukturę stosując heurystyki 15. Następnie możliwe jest zmniejszenie liczby neuronów warstwy ukrytej o połowę w sytuacji, gdy błąd generalizacji jest zadawalający. W sytuacji odwrotnej należy zwiększyć ta liczbę o połowę (można przyjąć większą/mniejsza liczbę neuronów dodawanych/odejmowanych).

rekurencyjne c) sieci radialne, d) sieci komórkowe e) sieci typu GMDH, f) rozmyte sieci neuronowe. ZASTOSOWANIE SSNa) autoasocjacja: faktyczny obraz jest rekonstruowany przez siec z obrazu niekompletnego i/lub obarczonego zakłóceniami, b) heteroasocjacja: siec realizuje odwzorowanie wejscie-wyjscie, c) klasyfikacja: siec klasyfikuje, czyli przypisuje do odpowiednich zbiorów (klas) różne

obrazy wejściowe, d) detekcja regularności: wykrywanie statystycznie istotnych cech w obrazie wejściowym.

UCZENIE a) uczenie bez nauczyciela - nie jest podawane rozwiązanie, siec stara sie sama uczyć rozróżniać nadchodzące do niej sygnały i grupować je w pewne kategorie b) uczenie z nauczycielem- rozwiązanie jest znane, bo nauczyciel podpowiada sieci wymaganą odpowiedz na zadany sygnał wejściowy. SPOSOBY KOREKCJI WAG A)przyrostowy- wagi aktualizowane sa bezpośrednio po podaniu każdego wzorca. Funkcja błędu jest zmniejszana w każdym kroku. b) sposób grupowy- korekcja wag następuje po podaniu całego zestawu danych uczących

Model matematyczny neuronu, ui - wejścia neuronu, wi - wagi neuronu b - próg zadziałania neuronu y - wyjście neuronu, F - funkcja wyjściowa, i 2- index wejść neuronu, N - liczba wejść neuronu.

0x01 graphic
0x01 graphic

H1 Wystarczy jedna warstwa ukryta z dostateczna liczba jednostek przetwarzających do aproksymacji dowolnej f. ciągłej. H2 Każda rozsądną funkcje y = f (x) można aproksymować z zadana dokładnością przy użyciu, co najmniej dwóch warstw ukrytych oraz dostatecznie dużej liczbie jednostek w warstwach. H3 Liczba wzorców uczących powinna być pięciokrotnie większa niż liczba parametrów swobodnych sieci. H4 Liczba wzorców uczących powinna być kilkakrotnie większa (min. 10) od miary Vapnika- Chervonenkisa V Cdim, H5 Liczbę neuronów w pierwszej warstwie ukrytej możemy wyznaczyć z zależności L=K/10(R+M)' H6 Możliwe jest zredukowanie struktury sieci w taki sposób, aby w kolejnym podejściu do budowy modelu użyć struktury z poprzedniego kroku, dla której liczba parametrów zostałaby pomniejszona o parametry o wartościach bliskich zeru. H7 Początkowo dobieramy strukturę stosując heurystyki 15. Następnie możliwe jest zmniejszenie liczby neuronów warstwy ukrytej o połowę w sytuacji, gdy błąd generalizacji jest zadawalający. W sytuacji odwrotnej należy zwiększyć ta liczbę o połowę (można przyjąć większą/mniejsza liczbę neuronów dodawanych/odejmowanych).

rekurencyjne c) sieci radialne, d) sieci komórkowe e) sieci typu GMDH, f) rozmyte sieci neuronowe. ZASTOSOWANIE SSNa) autoasocjacja: faktyczny obraz jest rekonstruowany przez siec z obrazu niekompletnego i/lub obarczonego zakłóceniami, b) heteroasocjacja: siec realizuje odwzorowanie wejscie-wyjscie, c) klasyfikacja: siec klasyfikuje, czyli przypisuje do odpowiednich zbiorów (klas) różne

obrazy wejściowe, d) detekcja regularności: wykrywanie statystycznie istotnych cech w obrazie wejściowym.

UCZENIE a) uczenie bez nauczyciela - nie jest podawane rozwiązanie, siec stara sie sama uczyć rozróżniać nadchodzące do niej sygnały i grupować je w pewne kategorie b) uczenie z nauczycielem- rozwiązanie jest znane, bo nauczyciel podpowiada sieci wymaganą odpowiedz na zadany sygnał wejściowy. SPOSOBY KOREKCJI WAG A)przyrostowy- wagi aktualizowane sa bezpośrednio po podaniu każdego wzorca. Funkcja błędu jest zmniejszana w każdym kroku. b) sposób grupowy- korekcja wag następuje po podaniu całego zestawu danych uczących

Model matematyczny neuronu, ui - wejścia neuronu, wi - wagi neuronu b - próg zadziałania neuronu y - wyjście neuronu, F - funkcja wyjściowa, i 2- index wejść neuronu, N - liczba wejść neuronu.

0x01 graphic
0x01 graphic

H1 Wystarczy jedna warstwa ukryta z dostateczna liczba jednostek przetwarzających do aproksymacji dowolnej f. ciągłej. H2 Każda rozsądną funkcje y = f (x) można aproksymować z zadana dokładnością przy użyciu, co najmniej dwóch warstw ukrytych oraz dostatecznie dużej liczbie jednostek w warstwach. H3 Liczba wzorców uczących powinna być pięciokrotnie większa niż liczba parametrów swobodnych sieci. H4 Liczba wzorców uczących powinna być kilkakrotnie większa (min. 10) od miary Vapnika- Chervonenkisa V Cdim, H5 Liczbę neuronów w pierwszej warstwie ukrytej możemy wyznaczyć z zależności L=K/10(R+M)' H6 Możliwe jest zredukowanie struktury sieci w taki sposób, aby w kolejnym podejściu do budowy modelu użyć struktury z poprzedniego kroku, dla której liczba parametrów zostałaby pomniejszona o parametry o wartościach bliskich zeru. H7 Początkowo dobieramy strukturę stosując heurystyki 15. Następnie możliwe jest zmniejszenie liczby neuronów warstwy ukrytej o połowę w sytuacji, gdy błąd generalizacji jest zadawalający. W sytuacji odwrotnej należy zwiększyć ta liczbę o połowę (można przyjąć większą/mniejsza liczbę neuronów dodawanych/odejmowanych).

rekurencyjne c) sieci radialne, d) sieci komórkowe e) sieci typu GMDH, f) rozmyte sieci neuronowe. ZASTOSOWANIE SSNa) autoasocjacja: faktyczny obraz jest rekonstruowany przez siec z obrazu niekompletnego i/lub obarczonego zakłóceniami, b) heteroasocjacja: siec realizuje odwzorowanie wejscie-wyjscie, c) klasyfikacja: siec klasyfikuje, czyli przypisuje do odpowiednich zbiorów (klas) różne

obrazy wejściowe, d) detekcja regularności: wykrywanie statystycznie istotnych cech w obrazie wejściowym.

UCZENIE a) uczenie bez nauczyciela - nie jest podawane rozwiązanie, siec stara sie sama uczyć rozróżniać nadchodzące do niej sygnały i grupować je w pewne kategorie b) uczenie z nauczycielem- rozwiązanie jest znane, bo nauczyciel podpowiada sieci wymaganą odpowiedz na zadany sygnał wejściowy. SPOSOBY KOREKCJI WAG A)przyrostowy- wagi aktualizowane sa bezpośrednio po podaniu każdego wzorca. Funkcja błędu jest zmniejszana w każdym kroku. b) sposób grupowy- korekcja wag następuje po podaniu całego zestawu danych uczących

Model matematyczny neuronu, ui - wejścia neuronu, wi - wagi neuronu b - próg zadziałania neuronu y - wyjście neuronu, F - funkcja wyjściowa, i 2- index wejść neuronu, N - liczba wejść neuronu.

0x01 graphic
0x01 graphic

H1 Wystarczy jedna warstwa ukryta z dostateczna liczba jednostek przetwarzających do aproksymacji dowolnej f. ciągłej. H2 Każda rozsądną funkcje y = f (x) można aproksymować z zadana dokładnością przy użyciu, co najmniej dwóch warstw ukrytych oraz dostatecznie dużej liczbie jednostek w warstwach. H3 Liczba wzorców uczących powinna być pięciokrotnie większa niż liczba parametrów swobodnych sieci. H4 Liczba wzorców uczących powinna być kilkakrotnie większa (min. 10) od miary Vapnika- Chervonenkisa V Cdim, H5 Liczbę neuronów w pierwszej warstwie ukrytej możemy wyznaczyć z zależności L=K/10(R+M)' H6 Możliwe jest zredukowanie struktury sieci w taki sposób, aby w kolejnym podejściu do budowy modelu użyć struktury z poprzedniego kroku, dla której liczba parametrów zostałaby pomniejszona o parametry o wartościach bliskich zeru. H7 Początkowo dobieramy strukturę stosując heurystyki 15. Następnie możliwe jest zmniejszenie liczby neuronów warstwy ukrytej o połowę w sytuacji, gdy błąd generalizacji jest zadawalający. W sytuacji odwrotnej należy zwiększyć ta liczbę o połowę (można przyjąć większą/mniejsza liczbę neuronów dodawanych/odejmowanych).

rekurencyjne c) sieci radialne, d) sieci komórkowe e) sieci typu GMDH, f) rozmyte sieci neuronowe. ZASTOSOWANIE SSNa) autoasocjacja: faktyczny obraz jest rekonstruowany przez siec z obrazu niekompletnego i/lub obarczonego zakłóceniami, b) heteroasocjacja: siec realizuje odwzorowanie wejscie-wyjscie, c) klasyfikacja: siec klasyfikuje, czyli przypisuje do odpowiednich zbiorów (klas) różne

obrazy wejściowe, d) detekcja regularności: wykrywanie statystycznie istotnych cech w obrazie wejściowym.

UCZENIE a) uczenie bez nauczyciela - nie jest podawane rozwiązanie, siec stara sie sama uczyć rozróżniać nadchodzące do niej sygnały i grupować je w pewne kategorie b) uczenie z nauczycielem- rozwiązanie jest znane, bo nauczyciel podpowiada sieci wymaganą odpowiedz na zadany sygnał wejściowy. SPOSOBY KOREKCJI WAG A)przyrostowy- wagi aktualizowane sa bezpośrednio po podaniu każdego wzorca. Funkcja błędu jest zmniejszana w każdym kroku. b) sposób grupowy- korekcja wag następuje po podaniu całego zestawu danych uczących

Model matematyczny neuronu, ui - wejścia neuronu, wi - wagi neuronu b - próg zadziałania neuronu y - wyjście neuronu, F - funkcja wyjściowa, i 2- index wejść neuronu, N - liczba wejść neuronu.

0x01 graphic
0x01 graphic

H1 Wystarczy jedna warstwa ukryta z dostateczna liczba jednostek przetwarzających do aproksymacji dowolnej f. ciągłej. H2 Każda rozsądną funkcje y = f (x) można aproksymować z zadana dokładnością przy użyciu, co najmniej dwóch warstw ukrytych oraz dostatecznie dużej liczbie jednostek w warstwach. H3 Liczba wzorców uczących powinna być pięciokrotnie większa niż liczba parametrów swobodnych sieci. H4 Liczba wzorców uczących powinna być kilkakrotnie większa (min. 10) od miary Vapnika- Chervonenkisa V Cdim, H5 Liczbę neuronów w pierwszej warstwie ukrytej możemy wyznaczyć z zależności L=K/10(R+M)' H6 Możliwe jest zredukowanie struktury sieci w taki sposób, aby w kolejnym podejściu do budowy modelu użyć struktury z poprzedniego kroku, dla której liczba parametrów zostałaby pomniejszona o parametry o wartościach bliskich zeru. H7 Początkowo dobieramy strukturę stosując heurystyki 15. Następnie możliwe jest zmniejszenie liczby neuronów warstwy ukrytej o połowę w sytuacji, gdy błąd generalizacji jest zadawalający. W sytuacji odwrotnej należy zwiększyć ta liczbę o połowę (można przyjąć większą/mniejsza liczbę neuronów dodawanych/odejmowanych).



Wyszukiwarka