Identyfikacja Procesów Technologicznych, Identyfikacja charakterystyki statycznej obiektu dynamicznego z zastosowaniem sztucznych sieci neuronowych, Laboratorium


Laboratorium

Identyfikacji.

grupa:

temat w.:

Identyfikacja charakterystyki statycznej obiektu dynamicznego z zastosowaniem sztucznych sieci neuronowych.

D*** **********

D*** ********

Ocena:

Cel wiczenia:

Celem wiczenia byo poznanie wasnoci, budowy i zastosowania sztucznych sieci neuronowych do identyfikacji charakterystyki statycznej obiektu dynamicznego.

Wstp teoretyczny:

W ostatnich latach jako aproksymatory wielowymiarowych zalenoci nieliniowych czsto stosuje si sztuczne sieci neuronowe, które s zbudowane z pojedynczych neuronów. Kady neuron posiada jedno lub wicej wej, bias - dodatkowe wejcie decydujce o przesuniciu oraz jedno wyjcie. Poszczególne wyjcia maj odpowiednie wspóczynniki wagowe - tzw. „ wagi ”. Zaleno sygnau wyjciowego od sygnaów wejciowych, sygnau na wejciu bias i wspóczynników wagowych przedstawia si nastpujco:

y = b + 0x01 graphic

Dla najprostszego neuronu liniowego („SISO”), czyli takiego który ma jedno wejcie, jedno wyjcie i bias zaleno ta ma posta:

y = b + w*u

Model pojedynczego neuronu przedstawia rys.1.

u1 w1 b

u2 w2 y

:

: wn

u1,u2...un - wejcia

un w1,w2...wn - wspóczynniki wagowe

Rys.1 b - bias ; y - wyjcie

Faktyczna moc oblicze oraz moliwo aproksymacji wynika dopiero z poczenia wielu neuronów w sieci o rónych strukturach. Sieci te w zalenoci od potrzeb mog posiada jedno wejcie i jedno wyjcie (Rys.3), jedno wejcie i kilka wyj (Rys.4), kilka wej i jedno wyjcie (Rys.2) lub kilka wej i kilka wyj (Rys.5).

u1

y u y

u2

Rys.2 Rys.3

y1 u1 y1

u

y2 u2 y2

Rys.4 Rys.5

Warstwa Warstwa

ukryta wyjciowa

W sieciach neuronowych wyróniamy dwie warstwy (Rys.5):

Warstwy te mog by liniowe lub nieliniowe w zalenoci od tego z jakich zostay zbudowane neuronów. O liniowoci lub nieliniowoci neuronów decyduj wartoci wspóczynników wagowych i biasów.

Nauczanie sieci neuronowej - obróbka danych metod najmniejszych kwadratów (MNK).

Mamy liniowy obiekt (np.: typu SISO) i wybieramy liniow funkcj aproksymacji danych. Po wykonaniu eksperymentu otrzymujemy dane :

u = [u1,u2,u3,...un];

y = [y1,y2,y3,...yn];

Okrelamy parametry w i b optymalne w sensie minimum sumy kwadratów bdów:

F(w,b) = 0x01 graphic

3. Schemat ukadu.

0x01 graphic
4. Tabela pomiarowa.

X

Y

0.1

0.065

0.2

0.13

0.3

0.2

0.4

0.27

0.5

0.33

0.6

0.4

0.7

0.46

0.8

0.52

0.9

0.6

1

0.66

1.2

0.8

1.5

1

2

1.3

3

1.95

4

2.55

5

3.15

6

3.7

8

4.55

10

5

11

4.8

Uczenie pojedynczego neuronu liniowego.