PSI 2011 12 w 2 SSN 1

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Budowa

sztucznego neuronu

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Model neuronu

McCullocha-Pittsa

(1943 rok)

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Sygnały wejściowe x

i

, i=1,...,n mają wartość 1

lub 0, zależnie od tego, czy w danej chwili
pojawił się impuls wejściowy, czy też nie.

Model neuronu McCullocha-Pittsa

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Gdzie:

k=1,2,... kolejne chwile czasu,
w

i

- waga synaptyczna

w

i

= +1 dla synaps pobudzających

w

i

= -1 dla synaps hamujących,

T - wartość progowa poniżej której neuron

nie zadziała

Funkcja aktywacji neuronu
McCullocha-Pittsa

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Bramka logiczna NOR

Przykład realizacji bramki NOR o trzech wejściach

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Bramka logiczna NOR

Przykład realizacji bramki NOR o trzech wejściach

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Przykład realizacji bramki NAND o trzech wejściach

Bramka logiczna NAND

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Przykład realizacji bramki NAND o trzech wejściach

Bramka logiczna NAND

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Budowa

sztucznego neuronu

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Sztuczny
neuron

Budowa sztucznego neuronu

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Sztuczny neuron
bez sygnału
progowego (bias)

Ogólny schemat sztucznego

neuronu

Sztuczny neuron
z sygnałem
progowym (bias)

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Funkcja aktywacji (przejścia)

Funkcja aktywacji f(n) wiąże sygnał wyjściowy a
neuronu z jego wejściem p.

Funkcja aktywacji implikuje typ neuronu.

•Neurony liniowe (liniowa funkcja aktywacji),

•Neurony nieliniowe (nieliniowe funkcje
aktywacji)

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Funkcje aktywacji

Liniowa funkcja aktywacji
f(n)

a = f(n) = purelin(n) = n

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Funkcje aktywacji (nieliniowe)

Funkcja unipolarna



af(n) 

1

gdyn0,

0 gdyn 0







Funkcje
binarne

Funkcja
bipolarna



af(n) 

1

gdyn0,

 1 gdyn 0







background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe

Funkcje aktywacji (nieliniowe),

c.d.

Funkcja unipolarna

a= f (n) =1/(1+exp(−βn))

Funkcje ciągłe

Funkcja logistyczna (sigmoidalna)

Funkcja
bipolarna

tangens hiperboliczny (tanh)

a= f (n) =2/(1+exp(−2βn))−1

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe

Funkcje aktywacji (nieliniowe),

c.d.

Funkcje sigmoidalna i tangens hiperboliczny
charakteryzują się ciągłością oraz prostą postacią
pochodnych.

Pochodne funkcji:

sigmoidalna (logsig):

tanh (tansig):



f'(n)  f (n)(1 f(n))



f '(n) (1 f(n))(1 f (n))

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Funkcje aktywacji (nieliniowe),

c.d.

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Funkcje aktywacji (nieliniowe),

c.d.

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Funkcje aktywacji (nieliniowe),

c.d.

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Często, w realizacji
praktycznej, na wejście
neuronu podawany jest
dodatkowy stały sygnał
θp

0

=1 nazywany

sygnałem progowym
(bazowym, bias).

Sygnał progowy neuronu



af(wpb)

Sygnał wyjściowy a ma
wtedy postać:

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Sygnał progowy neuronu

a= f (n) = f (wp+b)

n=wp+b

n

a

b= 0

p

a

b ≠ 0

p

a

-b/w

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Sygnał progowy neuronu

funkcja aktywacji f(n)

a= f (n) = f (wp+b)

n=wp+b

a=purelin

(n)

Sygnał wyjściowy a

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Sygnał progowy neuronu

a= f (n) = f (wp+b)

n=wp+b

a=logsig

(n)

funkcja aktywacji f(n)

Sygnał wyjściowy a

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Przykład

nnd2n
1

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Neuron o wielu wejściach



nw

1,i

i1

R

p

i

bWpb

R – liczba składowych
sygnału wejściowego

Wejście – wektor p złożony z R elementów



af( w

1,i

i1

R

p

i

b)  f(Wpb)

W = w

1,1

w

1,2

...w

1,R

[

]

Uwaga: numer wiersza (pierwszy wskaźnik) to
numer neuronu docelowego, a numer kolumny
(drugi wskaźnik) to numer źródła

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Neuron o wielu wejściach

dim (p) = R x 1



nw

1,i

i1

R

p

i

bWpb



af( w

1,i

i1

R

p

i

b)  f(Wpb)

dim (W) = 1 x R

dim (b) = 1 x 1

dim (n) = 1 x 1

dim (a) = 1 x 1

Funkcje aktywacji f

W = w

1,1

w

1,2

...w

1,R

[

]

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Przykład

nnd2n
2

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Ogólny schemat sztucznego
neuronu

Przepływ sygnałów w neuronie odbywa się w jednym
kierunku.

p

0

p

1

p

n

n= w

i

i=0

n

p

i

a



af(n)

w

1

w

2

w

n

Współczynniki w

i

przypisane poszczególnym

sygnałom wejściowym p

i

nazywane są wagami

synaptycznymi.

Wartości tych współczynników określane są w
trakcie procesu uczenia neuronu (sieci).

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Schemat działania sztucznego
neuronu

Sygnał wyjściowy jest funkcją nieliniową sygnału

wejściowego:

f - funkcja aktywacji neuronu.

n = w

T

p - sygnał pobudzający funkcję aktywacji (iloczyn

skalarny wektora sygnałów wejściowych i wektora wag)

Własności oraz działanie neuronu nieliniowego zależą
od postaci nieliniowej funkcji aktywacji f(n).

a= f (n) = f

w

i

p

i

i=0

n

⎟ = f w

T

p

(

)


Document Outline


Wyszukiwarka

Podobne podstrony:
PSI 2011 12 w 3 SSN 2
PSI 2011 12 w 6 SSN SOM
PSI 2011 12 w 5 SSN 4
PSI 2011 12 w 4 SSN 3
PSI 2011 12 w 3 bis SSN 2
PSI 2011 12 w 9 SE 1
PSI 2011 12 w 10 SE 2
PSI 2011 12 w 8 Model i Metamodel
PSI 2011 12 w 7 rekurencyjne 1
PSI 2011 12 w 1 wstep
K1 2011 12 zad 2
1 MSL temat 2011 12 zaoczneid 1 Nieznany

więcej podobnych podstron