trainbpx ocena ryzyka

Politechnika Rzeszowska

Wydział Elektrotechniki i Informatyki

Katedra Informatyki i Automatyki

Sztuczna inteligencja

Temat projektu:

Zrealizować sieć neuronową uczoną algorytmem wstecznej propagacji błędu z przyśpieszeniem metodą adaptacyjnego współczynnika uczenia i metodą momentum ucząca się oceny ryzyka kredytowego (trainbpx).

Wykonał:

Adrian Muszański

II EF-DI

Rzeszów 2011

  1. Opis problemu.

Banki od zawszę interesowały się opłacalnością przyznawanych kredytów. Współcześnie na podstawie danych o zawodzie, wieku, posiadanych oszczędności, spłacaniu poprzednich kredytów itp. określa się zdolność kredytową potencjalnych klientów. Istotą takiego podejścia jest przewidzenie czy dana osoba ma predyspozycje do spłacenia danego kredytu czy nie.

Celem projektu jest stworzenie sieci neuronowej, która na podstawie danych osoby ubiegającej się o kredyt będzie potrafiła poprawnie ocenić czy opłaca się przyznać kredyt tej osobie czy nie.

Dane do projektu zostały pobrane ze strony http://www.statistik.lmu.de/service/datenarchiv/kredit/kredit_e.html. dotyczą one banków niemieckich. Dla każdego klienta zostało określone czy opłaca się przyznać mu kredyt (wartość 1) czy nie (wartość 0). Na ryzyko kredytowe każdego klienta składa się 20 cech indywidualnie określanych dla każdej osoby.

  1. Przygotowanie danych.

    1. Atrybuty rekordów zawarte w repozytorium

Nazwa kolumny Opis Kategoria Waga Odpowiednia wartość % dla
Dobrego kredytu
kredit Zdolność kredytowa
1 : warty przyznania kredytu
0 : nie warty przyznania kredytu
laufkont Rachunek obrotów bieżących debet 2 35.00
0 <= ... < 200 DM 3 4.67
... >= 200 DM lub posiadanie konta ponad rok 4 15.33
Brak rachunku 1 45.00
laufzeit Tabela czasu pracy
laufzeit Czas pracy podany (kategorie) <=6 10 3.00
6 < ... <= 12 9 22.33
12 < ... <= 18 8 18.67
18 < ... <= 24 7 22.00
24 < ... <= 30 6 6.33
30 < ... <= 36 5 12.67
36 < ... <= 42 4 1.67
42 < ... <= 48 3 10.67
48 < ... <= 54 2 0.33
> 54 1 2.33
moral Spłacanie wcześniejszych kredytów Brak wcześniejszych kredytów / wcześniejsze kredyt są już spłacone 2 56.33
Spłacony kredyt w tym banku 4 16.67
Brak problemów z aktualnie spłacanym kredytem 3 9.33
Brak danych na temat wcześniej spłacanych kredytów 0 8.33
Problematyczne spłacanie wcześniejszych kredytów / kredyt spłacane aktualnie w inny bankach 1 9.33
verw Cel kredytu Nowy samochód 1 5.67
Używany samochód 2 19.33
meble 3 20.67
Radio / telewizor 4 1.33
Urządzenia AGD 5 2.67
naprawa 6 7.33
edukacja 7 0.00
wakacje 8 0.33
emerytura 9 11.33
firma 10 1.67
inne 0 29.67
hoehe Wysokość kredytu w Markach Niemieckich
hoehe Kategorie wysokości kredytu <=500 10 1.00
500 < ... <= 1000 9 11.33
1000 < ... <= 1500 8 17.00
1500 < ... <= 2500 7 19.67
2500 < ... <= 5000 6 25.00
5000 < ... <= 7500 5 11.33
7500 < ... <= 10000 4 6.67
10000 < ... <= 15000 3 7.00
15000 < ... <= 20000 2 1.00
> 20000 1 0.00
sparkont Pieniądze na koncie oszczędnościowym < 100,- DM 2 11.33
100,- <= ... < 500,- DM 3 3.67
500,- <= ... < 1000,- DM 4 2.00
>= 1000,- DM 5 10.67
Brak danych / brak oszczędności 1 72.33
beszeit Długość zatrudnienia w obecnej firmie niezatrudniony 1 7.67
<= 1 rok 2 23.33
1 <= ... < 4 lata 3 34.67
4 <= ... < 7 lat 4 13.00
>= 7 lat 5 21.33
rate Stosunek ( w procentach) raty kredytu do aktualnych zarobków >= 35 1 11.33
25 <= ... < 35 2 20.67
20 <= ... < 25 3 15.00
< 20 4 53.00
famges Stan cywilny Mężczyzna: rozwiedziony / separacja 1 6.67
Kobieta: rozwiedziona / separacja / zamężna 2 11.33
Mężczyzna: samotny 2 25.00
Mężczyzna: wdowiec / żonaty 3 48.67
Kobieta: samotna 4 8.33
buerge Współ wnioskodawca / Gwarant brak 1 90.67
Współ wnioskodawca 2 6.00
Gwarant 3 3.33
wohnzeit Zamieszkanie w aktualnym miejscu mieszkaniu / domu < 1 rok 1 12.00
1 <= ... < 4 lata 2 32.33
4 <= ... < 7 lat 3 14.33
>= 7 lat 4 41.33
verm Najbardziej wartościowe aktywa Właściciel domu lub ziemi 4 22.33
Kontrakt z towarzystwem budownictwa społecznego / ubezpieczenie na życie 3 34.00
Samochód / inne 2 23.67
brak 1 20.00
alter Wiek w latach
alter Kategorie wiekowe podane w latach 0 <= ... <= 25 1 26.67
26 <= ... <= 39 2 47.33
40 <= ... <= 59 3 21.67
60 <= ... <= 64 5 2.33
>= 65 4 2.00
weitkred Inne spłacane kredyty W innych bankach 1 19.00
W sklepach / centrach handlowych / sprzedaży wysyłkowej 2 6.33
brak 3 74.67
wohn Rodzaj budynku zamieszkania Wynajęte mieszkanie 2 62.00
Mieszkanie którego jesteśmy właścicielem 3 14.67
Darmowe mieszkanie 1 23.33
bishkred Ilość wcześniejszych kredytów ( wraz z aktualnym ) 1 1 66.67
2 lub 3 2 30.67
4 lub 3 2.00
6 lub więcej 4 0.67
beruf zawód niepracujący / niewykształcony bez stałego zamieszkania 1 2.33
Niewykształcony z stałym zamieszkaniem 2 18.67
Wykształcony pracownik lub pracodawca / drobny urzędnik 3 62.00
samo zatrudnienie / wyższy urzędnik 4 17.00
pers Ilość osób za które płacone są alimenty Od 0 do 2 2 84.67
3 I więcej 1 15.33
telef telefon nie 1 62.33
tak 2 37.67
gastarb Pracownik zagraniczny tak 1 1.33
nie 2 98.67
  1. Przygotowanie danych oraz normalizacja

Przed przygotowaniem danych, w pierwszej kolejności należy odpowiednio przygotować środowisko.

Pierwszym etapem było pobranie danych z wcześniej wymienionej strony. Następnie dane zostały otworzone programie Microsoft Office Excel. Usunąłem niepotrzebne nazwy kolumn a następnie zapisałem plik pod nazwą kredit.

Po wczytaniu danych otrzymujemy macierz posiadająca 21 kolumn oraz 1000 wierszy. Pierwsza kolumna zawiera dane wyjściowe ( określa czy ryzyko kredytowe jest wystarczająco niskie aby przyznać kredyt ) pozostałe kolumny są to dane cząstkowe składające się na określenie ryzyka kredytowego.

Należy oddzielić od siebie te 2 grupy. Dane wyjściowe zostaną przypisane do macierzy T zaś dane wejściowe do macierzy P.

Wczytane dane są posortowane można więc przystąpić do ich normalizacji, aby sieć mogła je odpowiednio przetworzyć i się nauczyć. Normalizacja będzie polegała na zwróceniu nam danych z przedziału <-1,1> które będą mogły zostać odpowiednio przetworzone. Proces ten realizowany jest przez powyższy skrypt.

Na końcu przetworzone dane zostają zapisane do pliku kredit.mat.

  1. Opis algorytmu.

    1. Sieć neuronowa

Sieci neuronowe są to bardzo uproszczone modele rzeczywistego układu nerwowego, które powstały na podstawie wiedzy o działaniu biologicznego systemu nerwowego (mózgu) istot żywych. Są one zdolne do przewidywania nowych zdarzeń (np. określonych zmiennych) na podstawie wcześniejszych bądź innych obserwacji (dokonanych na tych samych lub innych zmiennych) po przeprowadzeniu procesu - tzw. uczenia w oparciu o istniejące dane.

Sieć neuronowa jest to sieć składająca się z tzw. sztucznych neuronów, które są odpowiednikami czy modelami rzeczywistego neuronu. Najważniejszą cechą owych sieci jest możliwość uczenia się - czyli dostosowanie określonych zmiennych w taki sposób, by zwiększyć efektywność sieci przy rozwiązywaniu zadań określonego typu.

Struktura sieci neuronowych w znacznej części  składa się z dużej (od kilkuset od kilkudziesięciu tysięcy) liczby  elementów przetwarzających informacje. Elementy te to sztuczne neurony, które są bardzo uproszczonymi odpowiednikami rzeczywistych komórek nerwowych. Neurony te tworzą sieć za pomocą połączeń o parametrach (wagach) modyfikowanych w trakcie tzw. procesu uczenia. Najczęściej tworzą one sieci,  o budowie warstwowej.

Neuron sumuje za pomocą wag sygnały wejściowe pochodzące z innych neuronów, przetwarza je w jądrze i przekazuje tę wartość do innych neuronów powiązanych z nim. Model sztucznego neuronu składa się z dokładnie tych samych elementów z jakich zbudowana jest rzeczywista komórka, które wykonują również te same funkcje co biologiczny jego odpowiednik.

Wejścia są odpowiednikami dendrytów i tak jak w komórce nerwowej dostarczają one informacji (sygnałów) od innych neuronów. Wagi zachowały swoją nazwę, jak i funkcje. Ich rolą jest dostosowanie sygnałów wejściowych. Blok sumujący odpowiada za przetwarzanie sygnałów i jest odpowiednikiem jądra. Blok aktywujący odpowiada za kształtowanie informacji wyjściowej, która zostanie podana do wyjścia - aksonu. 
Matematyczny opis neuronu przedstawili jako pierwsi McColluch-Pits, w którym jako neuron przyjęto jednostkę binarną (sygnał wyjściowy 0 lub 1), gdzie wartość 1 odpowiada pobudzeniu neuronu większemu niż próg zadziałania, a wartość 0 - pobudzeniu mniejszemu niż ten próg. Jest to model, na którym wzorowały się późniejsze modele. Schematycznie możemy przedstawić ten model w poniższy sposób.

Sygnały wejściowe xi (i=1,2,...,N) sumowane są z odpowiednimi wagami wi w sumatorze, a następnie przetwarzane w jądrze i porównywane z progiem zadziałania wi0. Gdy obliczona wartość sumy przekroczy pewną wartość progową wi0, następuje jego zapłon, inaczej mówiąc neuron ten znajdzie się w stanie pobudzenia. Matematycznie stan pobudzenia neuronu wyraża się dwiema wartościami: 0, gdy pobudzenie neuronu nie przekroczyło jego specyficznej wartości progowej, i 1, gdy jest przeciwnie. Matematycznie prezentuje się to w następujący sposób. Sygnał wyjściowy y możemy wówczas wyrazić za pomocą następującej zależności 

Funkcje , gdzie  

nazywamy funkcja aktywacji (wio oznacza przesunięcie). W modelu tym jest to funkcja skokowa (funkcja Heaviside'a) 

Współczynniki wij reprezentują wagi połączeń synaptycznych. Możemy teraz zobaczyć  jak ważny jest ten parametr - jeśli przyjmie on  wartość dodatnią to synapsa przechodzi w stan pobudzenia, ujemna - hamującą, natomiast współczynnik wij = 0 świadczy o braku połączeń między i-tym a j-tym neuronem. Model ten określa przyszły stan (t+1) na podstawie stanu sygnałów wejściowych neuronów w chwili poprzedniej (t). Funkcja aktywacji to pojęcie używane w sztucznej inteligencji do określenia funkcji, według której obliczana jest wartość wyjścia neuronów sieci neuronowej.

Algorytm wstecznej propagacji błędów - algorytm uczenia nadzorowanego wielowarstwowych jednokierunkowych sieci neuronowych. Pozwala on na zmianę wag wij dowolnych połączeń elementów przetwarzających rozmieszczonych w sąsiednich warstwach sieci.

Ogólnie algorytm wstecznej propagacji wymaga dla każdego wzorca uczącego wykonania następujących działań:

  1. Podaj wektor uczący uµ na wejście sieci.

  2. Wyznacz wartości wyjść uj każdego elementu dla kolejnych warstw przetwarzania neuronowego, od pierwszej warstwy ukrytej do warstwy wyjściowej.


uj oczanacza aktywność j-tego elementu przetwarzającego m-tej warstwy

 ui oznacza wartość wyjścia i-tego elementu m-tej warstwy 

f(ϕj) oznacza funkcje aktywacji względem sumy przy prezentacji j-tego elementu m-tej warstwy .

  1. Oblicz wartości błędów δj dla warstwy wyjściowej.

yj oznacza oczekiwane wartości wyjścia j-tego elementu

yjµ oznacza aktualne wartości wyjścia j-tego elementu

ϕj oznacza ważoną sumę wejść w warstwie wyjściowej  przy prezentacji µ-tego wzorca

δju oznacza błąd powstały w j-tym elemencie 

  1. Oblicz wartość sumy kwadratów błędów ξµ.

gdzie:

n oznacza liczbę elementów w warstwie wyjściowej

ϕjµ ważoną sumę wejść wyznaczoną w sumatorze przy prezentacji µ-tego wzorca

ξµ oznacza sumę po wzorcach błędów powstałych przy prezentacji µ-tego wzorca

  1. Dokonaj propagacji wstecznej błędu wyjściowego  δjdo poszczególnych elementów warstw ukrytych wyznaczając  δj według wzoru:

ϕj oznacza ważoną sumę wejść w warstwie m-tej  przy prezentacji µ-tego wzorca

  1. Dokonaj aktualizacji wag kolejno pomiędzy warstwą wyjściową i ukrytą, a następnie pomiędzy warstwami ukrytymi przesuwając się w kierunku warstwy wejściowej.

Przyspieszanie uczenia – Z praktycznego punktu widzenia istotne znaczenie ma szybkość uczenia. Metoda wstecznej propagacji błędu jest bardzo czasochłonna. W literaturze poświęconej sieciom neuronowym spotyka się szereg metod pozwalających na znaczne przyśpieszenie procesu uczenia. Przedstawię tutaj 2 metody używane podczas moich eksperymentów.

Metoda adaptacyjnego zmiany adaptacyjnego współczynnika uczenia – polega na odpowiednim doborze współczynnika uczenia η.

Metodą zwiększającą szybkość uczenia jest metoda adaptacyjnej korekty współczynnika uczenia η. W metodzie tej na podstawie porównania sumarycznego błędu kwadratowego (SSE)

w chwili uczenia t z jej poprzednią wartością SSE (t −1 ).sposób zmiany współczynnika uczenia η definiuje się jako:

gdzie ξd, ξ i są odpowiednio współczynnikami zmniejszania i zwiększania wartości η , a er dopuszczalną krotnością przyrostu błędu.

Metoda momentum – polega na wprowadzeniudo wzoru na korektę wag

dodatkowego składnika będącego miarą „bezwładności” zmiany wag, zwanego „momentum”. W przypadku uczenia pod nadzorem pojedynczej warstwy sieci reguła uczenia z momentum może wyglądać następująco:

Gdzie momentum Mij (k) jest wyliczane z zależności

η ∈[0, 1] jest współczynnikiem uczenia momentum. Jeżeli η = 1 to nowa waga jest równa ostatniej zmianie wag. Jeżeli η=0, to zmiana wagi oparta jest tylko na składowej gradientowej. Najczęściej przyjmuje się η = 0.95. Wprowadzenie składnika momentum zdecydowanie wpływa na zwiększenie szybkości uczenia.

  1. Opis metody

Powyższy fragment skryptu odpowiada za właściwy trening sieci. Funkcja trainbpx przeprowadza trening nieliniowej sieci jednokierunkowej z zastosowaniem techniki adaptacyjnej zmiany współczynnika prędkości uczenia oraz członu techniki momentu. W efekcie uczenie sieci trwa znacznie krócej, a prawdopodobieństwo utknięcia w lokalnym minimum funkcji błędu sieci zostaje zmniejszone.

Działanie funkcji sprowadza się do wielokrotnego powtarzania sekwencji złożonej z wywołania odpowiedniej funkcji uczenia, modyfikacji współczynników wagowych oraz wywołania funkcji symulacji sieci w celu obliczenia osiąganego przez nią błędu średniokwadratowego. Sekwencja taka nosi nazwę cyklu treningowego.

Argumentami wejściowymi funkcji są: początkowe wartości współczynników wagowych i progowych, macierze wektorów wejściowych. Działanie funkcji kończy się w momencie osiągnięcia przez siec zadanego błędu średniokwadratowego bądź w przypadku przekroczenia zadanej liczby cykli treningowych.

Funkcje zwracają nowe (wyuczone) wartości współczynników wagowych oraz współczynników progowych, a także liczbę przebytych cykli treningowych i osiągnięty błąd średniokwadratowy sieci.

Initff - inicjalizacja współczynników wagowych sieci jednokierunkowej. W zależności od postaci funkcji aktywacji poszczególnych warstw inicjalizacja współczynników wagowych przeprowadzana jest w oparciu o różne przedziały liczbowe. Dla liniowych, progowych i radialnych funkcji aktywacji wstępne wartości współczynników wagowych losowane są z przedziału [-1,1]

Argumenty:
P - macierz wektorów wejściowych (wymiar R*Q, R - liczba wejść sieci, Q - ilość wektorów)
Si - ilość neuronów w i-tej warstwie
Fi - funkcja aktywacji i-tej warstwy (np. 'tansig')
T - macierz wektorów wyjściowych (wymiar Sn*Q, Sn - ilość wyjść sieci)
Wielkości zwracane:
Wi - macierz współczynników wagowych i-tej warstwy
Bi - kolumnowy wektor współczynników progowych i-tej warstwy.

Trainbpx ma postać [W, B, TE, TR]=trainbpx (W, B, 'F', P, T, TP)

Argumenty:
Wi - macierz współczynników wagowych i-tej warstwy (wymiar Si*R, Si - ilość neuronów w i-tej warstwie, R - ilość wejść warstwy)
Bi - wektor współczynników progowych i-tej warstw (wymiar Si*l)
Fi - funkcja aktywacji i-tej warstwy
P - macierz wektorów wejściowych (wymiar R*Q, R - liczba wejść sieci, Q - ilość wektorów)
T - macierz zadanych wektorów wyjściowych (wymiar S*Q, S - liczba wyjść sieci)
TP - wektor parametrów (opcjonalny):
TP(1) - częstotliwość aktualizacji wykresu błędu sieci (w cyklach, domyślnie =25)
TP(2) - maksymalna liczba cykli treningowych (domyślnie 100)
TP(3) - graniczny błąd średniokwadratowy) sieci (domyślnie = 0.02)
TP(4) - współczynnik prędkości uczenia (domyślnie = 0.01)
Wielkości zwracane:
Wi - macierz nowych współczynników wagowych i-tej warstwy (wymiar Si * R)
Bi - wektor nowych współczynników progowych warstwy (wymiar Si*l)
TE - liczba przebytych cykli treningowych
TR - średniokwadratowy błąd sieci

Simuff - symulacja sieci jednokierunkowej. Ma postać A=simuff( P ,W,B,'F')

Argumenty:
P - macierz wektorów wejściowych (wymiar R*Q, R - liczba wejść sieci, Q - ilość wektorów wejściowych)
Wi - macierz współczynników wagowych i-tej warstwy (wymiar Si*T, Si - ilość neuronów w i-tej warstwie, T - ilość wejść warstwy)
Bi - wektor współczynników progowych i-tej warstwy (wymiar Si*l)
Fi - funkcja aktywacji i-tej warstwy, np. 'logsig'
Wielkości zwracane:
A - wektor sygnałów wyjściowych i-tej warstwy (wymiar Si*l)

  1. Skrypt realizujący sieć neuronową

Komendy przygotowujące do obliczeń. Wyczyszczenie zmiennych istniejących w przestrzeni roboczej. Wyłączenie ostrzeżeń. Ustawienie formatu danych. Załadowanie wcześniej przygotowanych danych.

Tutaj następują właściwe eksperymenty. W pętli for zmieniana jest wartość S1, a warunek w pętli while odpowiada za właściwą wartość S2. Eksperymenty dla odpowiednich parametrów wykonywane są 5-krotnie, a średnia z nich zapisywana jest do odpowiedniej macierzy.

Zapisanie macierzy z wynikami do plików.

3.4 Opis przyjętych parametrów.

S1 – liczba neuronów w warstwie pierwszej

S2 – liczba neuronów w warstwie drugiej

lr – współczynnik prędkości uczenia

disp_freq – częstotliwość wyświetlania

epoch – cykl treningowy

max_epoch – maksymalna liczba cykli po których zakończy się liczenie ( o ile wcześniej błąd SSE nie zajdzie poniżej ustalonej wartości err_goal)

err_goal – wartość graniczna której osiągnięcie przez sieć uznajemy za 100% nauczenie się sieci.

4.Przeprowadzone eksperymenty.

4.1 Wyniki pomiarów:

Dla każdej wartości S1 i odpowiadającej jej wartości S2 wykonano 5 prób pomiarowych. Średnia wszystkich pomiarów prezentuje poniższa tabelka ( na czerwono zaznaczyłem 3 najlepsze wyniki):

S1/S2 Procentowa wartość SSE
nauczenia się sieci
49/25 93,66 62,03
99/25 94,78 55,38
149/25 95,70 46,32
149/75 95,50 50,60
199/25 96,38 42,69
199/75 96,08 46,92
199/125 95,26 51,36
249/25 96,44 32,38
249/75 96,04 46,00
249/125 95,64 47,18
349/25 97,24 34,99
349/75 96,44 41,74
349/125 95,80 46,75
349/175 95,40 50,44
349/225 95,78 48,53
449/25 97,72 32,23
449/75 96,78 39,75
449/125 95,82 45,17
449/175 96,12 46,09
449/225 95,24 50,46
449/275 95,64 48,77
549/25 98,02 29,31
549/75 96,94 38,05
549/125 96,16 43,91
549/175 96,26 43,66
549/225 96,04 45,95
549/275 95,48 48,62
549/325 95,54 48,37
649/25 97,76 30,72
649/75 96,96 37,71
649/125 96,92 40,92
649/175 96,20 43,36
649/225 96,32 44,14
649/275 95,92 45,15
649/325 95,76 45,69
659/375 95,44 45,85
749/25 97,91 28,22
749/75 97,3 36,30
749/125 96,9 39,11
749/175 96,7 40,49
749/225 96,4 44,69
749/275 95,8 45,36
749/325 95,7 45,74
759/375 95,6 45,80
749/425 95,5 45,89
749/475 95,3 45,95

Sieć nie nauczył się w pełni ani razu, więc nie podaje wartość liczby epoch po których zakończyła się nauka, gdyż wynosi ona dla każdego pomiaru max_epoch=20 000.

4.2 Rozkład wyników pomiarów.

Uwaga do wykresów:

dane oznaczone na wykresach na ciemno niebiesko oznaczają brak pomiaru wykonanego dla tej kombinacji S1 i S2.

SSE(Sum Square of Errors – suma kwadratów błędów):

Wartość procentowa nauczenia się sieci:

4.3 Eksperymenty dodatkowe

Dla sprawdzenie czy sieć zdoła się nauczyć na 100% przeprowadziłem 2 dodatkowe eksperymenty dla S1=249,549 oraz S2=25 oraz max_epoch=200 000. Parametry S1=549 został wybrany ze względu na najlepszą wartość procentową nauczenia się sieci, zaś parametr S1=249 ze względu na znacznie krótszy czas uczenia się. Oto otrzymane wyniki:

S1/S2 % nauczenia się sieci SSE
249/25 100 3,0577
549/25 100 1,4425

W obydwu przypadkach uczenie zakończyło się dopiero gdy liczba epoch osiągnęła 200 000, czyli nie została osiągnięta wartość err_goal =0.25.

Niestety w poprzednim eksperymencie nie udało się osiągnąć założonego błędu SSE mniejszego niż 0.25 przeprowadziłem jeszcze jedne eksperyment. Użyłem się sieci o następujących parametrach: S1 = 749, S2= 25 max_epoch=500 000, współczynnik prędkości uczenia pozostał bez zmian. Oto otrzymane wyniki:

S1/S2 SSE % wartość nauczenia się sieci liczba cykli
749/25 0.249998 100% 268023

5.Wnioski i podsumowanie

Nowoczesne technologie pozwalają coraz częściej wprowadzać sieci neuronowe w dziedzinach dotyczących codziennego życia. Odpowiednio zaprojektowana sieć mogłaby stanowić bardzo przydatną pomoc dla placówek przyznających kredyty. Co więcej w razie zbyt dużego ryzyka kredytowego potencjalny klient mógłby być informowany od razu o możliwości przyznania kredytu na zaostrzonych warunkach. Innym przydatnym zastosowaniem sieci byłaby możliwość wypełniania przez Internet specjalnych formularzy, które przysłane byłyby do sieci, a ta analizowałaby je oraz określałaby przybliżone warunki przyznania kredytu. Jedynym wymogiem jest dobranie odpowiedniej sieci neuronowej oraz nauczenie jej przy pomocy możliwie jak największego zbioru danych uczących.

6. Bibliografia:

  1. http://pl.wikipedia.org

  2. http://ssn.elektrotechnika.ip.pwsz.edu.pl

  3. http://materialy.prz-rzeszow.pl

  4. http://kik.pcz.pl/nn/modele.php?art=3

  5. http://www.rosczak.com

  6. http://www.neuron.kylos.pl


Wyszukiwarka

Podobne podstrony:
ocena ryzyka przy kredytowaniu przedsiębiorstw
Ocena ryzyka położniczego II
Prezentacja ocena ryzyka
Ocena ryzyka zawodowego dla spawacza w zakładzie remontowym
ocena ryzyka dla bibliotekarza
Or Wózek widłowy, Ocena-Ryzyka-DOC
Or Dekarz, Ocena-Ryzyka-DOC
ZB Analiza i Ocena Ryzyka Zawodowego punkt 4
Ocena ryzyka w SMTP
ocena ryzyka 3 id 329416 Nieznany
Ocena ryzyka zawodowego pracownik magazynowy (operator wózka jezdniowego) ebook demo
Or Operator pilarki, Ocena-Ryzyka-DOC
2 spawacz nowe, Ocena ryzyka zawodowego
Or Operator urządzeń w oczyszczalni, Ocena-Ryzyka-DOC
Podz.czynn.środ.pr, Ocena Ryzyka Zawodowego
Ocena ryzyka pilarz, Ryzyko zawodowe

więcej podobnych podstron