Sztuczne sieci
neuronowe
Wstęp
Sztuczne sieci
neuronowe
Historia
●
1943 - praca W.S. McCulloch, W. Pitts “A logical
calculus of the ideas immament in nervous activity”
Bulletin of Mathematical Biophysics, No 5.
●
1957 - Perceptron - Frank Rosenblatt, Charles
Wightman
●
1969 - M.Minsky, S.Papert “Perceptrons”, MIT
press, Cambridge 1969
●
Lata 70 - regres
●
1981 - sieć Hintona
●
1982 - sieć Hopfielda, maszyny Boltzmana
●
Sieci BAM
Sztuczne sieci
neuronowe
Cechy sieci neuronowych
●
Zdolność do adaptacji i
samoorganizacji
●
Zmniejszona wrażliwość na
uszkodzenia elementów
●
Współbieżność przetwarzania
●
Automatyczne uczenie
Sztuczne sieci
neuronowe
Zasady działania neuronu
Elementy z których buduje się sieć
charakteryzuja się istnieniem wielu wejść i
jednego wyjścia
x
1
x
2
x
n
w
n
w
2
w
1
.
.
.
.
.
.
Y
Założenia:
[ ]
x
1
11
Î - ,
[ ]
y Î - 11
,
y f x x
x
n
= ( , ,..., )
1
2
Sztuczne sieci
neuronowe
Zasady działania neuronu
W najprostszym przypadku fukcja f(x)
może być rozwazana jako liniowa
y
wx
i i
i
n
=
=
å
1
Sztuczne sieci
neuronowe
Zasady działania neuronu
Zestaw sygnałów wejściowych można
przedstawić jako wektor
y
x
x
x
n
=
é
ë
ê
ê
ê
ê
ê
ê
ù
û
ú
ú
ú
ú
ú
ú
1
2
.
.
I zapisać jako :
X
x x
x
n
T
=<
>
1
2
, ,...
W
w w
w
n
T
=<
>
1
2
, ,...,
Sztuczne sieci
neuronowe
Zasady działania neuronu
Wyjście neuronu y można policzyć
jako:
y W X
T
=
Sztuczne sieci
neuronowe
Warstwa neuronów jako najprostsza sieć
w
1
1
( )
w
2
1
( )
w
n
( )
1
...
w
1
2
( )
w
2
2
( )
w
n
( )
2
...
w
k
1
( )
w
k
2
( )
w
n
k
( )
...
x
1
x
2
x
k
.
.
.
y
2
y
1
y
k
...
.
Sztuczne sieci
neuronowe
Warstwa neuronów jako najprostsza sieć
Sygnał wyjściowy m-tego neuronu w
warstwie można obliczyć następująco:
y
W
X
w x
m
m
i
m
i
n
i
( )
( )
*
=
=
=
å
1
Gdzie:
X
x x
x
n
T
=<
>
1
2
, ,...,
W
w w
w
m
m
m
n
m
T
( )
( )
( )
( )
,
,...,
=<
>
1
2
m
k
=( , ,..., )
12
Sztuczne sieci
neuronowe
Uczenie się pojedynczego neuronu
w
1
w
2
w
n
å
å
d
y
-
x
1
x
2
x
n
z
d= -
z y
Sztuczne sieci
neuronowe
Uczenie się pojedynczego neuronu
Nowy wektor wag jest wyznaczany
według zależności:
W W
X
'= +hd
Gdzie:
W’ -nowy wektor wag
h
-współczynnik szybkości uczenia
d= -
z y