background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Budowa 

sztucznego neuronu

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Model neuronu 

McCullocha-Pittsa 

(1943 rok)

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Sygnały wejściowe x

i

, i=1,...,n mają wartość 1 

lub 0, zależnie od tego, czy w danej chwili 
pojawił się impuls wejściowy, czy też nie. 

Model neuronu McCullocha-Pittsa

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Gdzie:

k=1,2,... kolejne chwile czasu, 
w

i

 - waga synaptyczna 

w

i

 = +1 dla synaps pobudzających 

w

= -1 dla synaps hamujących, 

- wartość progowa poniżej której neuron 

nie zadziała 

Funkcja aktywacji neuronu 
McCullocha-Pittsa 

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Bramka logiczna NOR 

Przykład realizacji bramki NOR o trzech wejściach

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Bramka logiczna NOR 

Przykład realizacji bramki NOR o trzech wejściach

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Przykład realizacji bramki NAND o trzech wejściach

Bramka logiczna NAND 

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Przykład realizacji bramki NAND o trzech wejściach

Bramka logiczna NAND 

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Budowa 

sztucznego neuronu

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Sztuczny 
neuron

Budowa sztucznego neuronu

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Sztuczny neuron 
bez sygnału 
progowego (bias)

Ogólny schemat sztucznego 

neuronu

Sztuczny neuron 
z sygnałem 
progowym (bias)

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Funkcja aktywacji (przejścia)

Funkcja aktywacji f(n) wiąże sygnał wyjściowy a 
neuronu z jego wejściem p. 

Funkcja aktywacji implikuje typ neuronu. 

•Neurony liniowe (liniowa funkcja aktywacji)

•Neurony nieliniowe (nieliniowe funkcje 
aktywacji)

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Funkcje aktywacji

Liniowa funkcja aktywacji 
f(n)

a = f(n) = purelin(n) = n

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Funkcje aktywacji (nieliniowe)

Funkcja unipolarna



a f(n) 

1

gdyn0,

gdyn 0







Funkcje 
binarne

Funkcja 
bipolarna



a f(n) 

1

gdyn0,

 1 gdyn 0







background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 

Funkcje aktywacji (nieliniowe), 

c.d.

Funkcja unipolarna

€ 

a(n) =1/(1+exp(−βn))

Funkcje ciągłe

Funkcja logistyczna (sigmoidalna)

Funkcja 
bipolarna

tangens hiperboliczny (tanh)

€ 

a(n) =2/(1+exp(−2βn))−1

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 

Funkcje aktywacji (nieliniowe), 

c.d.

Funkcje sigmoidalna i tangens hiperboliczny 
charakteryzują się ciągłością oraz prostą postacią 
pochodnych. 

Pochodne funkcji: 

sigmoidalna (logsig):

tanh (tansig):



f'(n)  (n)(1 f(n))



'(n) (1 f(n))(1 (n))

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Funkcje aktywacji (nieliniowe), 

c.d.

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Funkcje aktywacji (nieliniowe), 

c.d.

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Funkcje aktywacji (nieliniowe), 

c.d.

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Często, w realizacji 
praktycznej, na wejście 
neuronu podawany jest 
dodatkowy stały sygnał 
θp

0

=1 nazywany 

sygnałem progowym 
(bazowym, bias). 

Sygnał progowy neuronu



a f(wp b)

Sygnał wyjściowy a ma 
wtedy postać: 

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Sygnał progowy neuronu

€ 

a(n) = (wp+b)

€ 

n=wp+b

n

a

b= 0

p

a

b ≠ 0

p

a

-b/w

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Sygnał progowy neuronu

 funkcja aktywacji f(n)

€ 

a(n) = (wp+b)

€ 

n=wp+b

€ 

a=purelin

(n)

Sygnał wyjściowy a

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Sygnał progowy neuronu

€ 

a(n) = (wp+b)

€ 

n=wp+b

€ 

a=logsig

(n)

 funkcja aktywacji f(n)

Sygnał wyjściowy a

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Przykład

nnd2n
1

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Neuron o wielu wejściach



n w

1,i

i1

R

p

i

 bWp b

– liczba składowych 
sygnału wejściowego

Wejście – wektor złożony z R elementów



a fw

1,i

i1

R

p

i

 b)  f(Wp b)

€ 

w

1,1

w

1,2

...w

1,R

[

]

Uwaga: numer wiersza (pierwszy wskaźnik) to 
numer neuronu docelowego, a numer kolumny 
(drugi wskaźnik) to numer źródła

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Neuron o wielu wejściach

dim (p) = R x 1



n w

1,i

i1

R

p

i

 bWp b



a fw

1,i

i1

R

p

i

 b)  f(Wp b)

dim (W) = 1 x R

dim (b) = 1 x 1

dim (n) = 1 x 1

dim (a) = 1 x 1

Funkcje aktywacji f

€ 

w

1,1

w

1,2

...w

1,R

[

]

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Przykład

nnd2n
2

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Ogólny schemat sztucznego 
neuronu

Przepływ sygnałów w neuronie odbywa się w jednym 
kierunku. 

p

0

p

1

p

n

€ 

nw

i

i=0

n

p

i

a



a f(n)

w

1

w

2

w

n

Współczynniki w

i 

przypisane poszczególnym 

sygnałom wejściowym p

i

 nazywane są wagami 

synaptycznymi. 

Wartości tych współczynników określane są w 
trakcie procesu uczenia neuronu (sieci). 

background image

Podstawy Sztucznej Inteligencji

Jan Kusiak

Sztuczne Sieci Neuronowe 1

Schemat działania sztucznego 
neuronu

Sygnał wyjściowy jest funkcją nieliniową sygnału 

wejściowego: 

f - funkcja aktywacji neuronu. 

n = w

T

p - sygnał pobudzający funkcję aktywacji (iloczyn 

skalarny wektora sygnałów wejściowych i wektora wag)

Własności oraz działanie neuronu nieliniowego zależą 
od postaci nieliniowej funkcji aktywacji f(n).

€ 

a(n) = f

w

i

p

i

i=0

n

⎛ 

⎝ 

⎜ 

⎞ 

⎠ 

⎟ = f w

T

p

(

)


Document Outline