Laboratorium Identyfikacji. |
grupa: |
|
|
|
temat w.: Identyfikacja charakterystyki statycznej obiektu dynamicznego z zastosowaniem sztucznych sieci neuronowych. |
||
D*** **********
|
D*** ******** |
Ocena: |
Cel wiczenia:
Celem wiczenia byo poznanie wasnoci, budowy i zastosowania sztucznych sieci neuronowych do identyfikacji charakterystyki statycznej obiektu dynamicznego.
Wstp teoretyczny:
W ostatnich latach jako aproksymatory wielowymiarowych zalenoci nieliniowych czsto stosuje si sztuczne sieci neuronowe, które s zbudowane z pojedynczych neuronów. Kady neuron posiada jedno lub wicej wej, bias - dodatkowe wejcie decydujce o przesuniciu oraz jedno wyjcie. Poszczególne wyjcia maj odpowiednie wspóczynniki wagowe - tzw. „ wagi ”. Zaleno sygnau wyjciowego od sygnaów wejciowych, sygnau na wejciu bias i wspóczynników wagowych przedstawia si nastpujco:
y = b +
Dla najprostszego neuronu liniowego („SISO”), czyli takiego który ma jedno wejcie, jedno wyjcie i bias zaleno ta ma posta:
y = b + w*u
Model pojedynczego neuronu przedstawia rys.1.
u1 w1 b
u2 w2 y
:
: wn
u1,u2...un - wejcia
un w1,w2...wn - wspóczynniki wagowe
Rys.1 b - bias ; y - wyjcie
Faktyczna moc oblicze oraz moliwo aproksymacji wynika dopiero z poczenia wielu neuronów w sieci o rónych strukturach. Sieci te w zalenoci od potrzeb mog posiada jedno wejcie i jedno wyjcie (Rys.3), jedno wejcie i kilka wyj (Rys.4), kilka wej i jedno wyjcie (Rys.2) lub kilka wej i kilka wyj (Rys.5).
u1
y u y
u2
Rys.2 Rys.3
y1 u1 y1
u
y2 u2 y2
Rys.4 Rys.5
Warstwa Warstwa
ukryta wyjciowa
W sieciach neuronowych wyróniamy dwie warstwy (Rys.5):
warstw ukryt
warstw wyjciow
Warstwy te mog by liniowe lub nieliniowe w zalenoci od tego z jakich zostay zbudowane neuronów. O liniowoci lub nieliniowoci neuronów decyduj wartoci wspóczynników wagowych i biasów.
Nauczanie sieci neuronowej - obróbka danych metod najmniejszych kwadratów (MNK).
Mamy liniowy obiekt (np.: typu SISO) i wybieramy liniow funkcj aproksymacji danych. Po wykonaniu eksperymentu otrzymujemy dane :
u = [u1,u2,u3,...un];
y = [y1,y2,y3,...yn];
Okrelamy parametry w i b optymalne w sensie minimum sumy kwadratów bdów:
F(w,b) =
3. Schemat ukadu.
4. Tabela pomiarowa.
X |
Y |
0.1 |
0.065 |
0.2 |
0.13 |
0.3 |
0.2 |
0.4 |
0.27 |
0.5 |
0.33 |
0.6 |
0.4 |
0.7 |
0.46 |
0.8 |
0.52 |
0.9 |
0.6 |
1 |
0.66 |
1.2 |
0.8 |
1.5 |
1 |
2 |
1.3 |
3 |
1.95 |
4 |
2.55 |
5 |
3.15 |
6 |
3.7 |
8 |
4.55 |
10 |
5 |
11 |
4.8 |
Uczenie pojedynczego neuronu liniowego.
w postaci wektorów X i Y podajemy wartoci pomiarowe;
za pomoc polecenia initlin inicjujemy wspóczynniki wagowe;
za pomoc polecenia trainwh rozpoczynamy nauk sieci na podstawie danych wejciowych;
definiujc wektor tp = [ t1 t2 t3 t4 ] okrelamy: t1 - co ile cykli ma oblicza,
t2 - ilo cykli treningowych, t3 -krok uczenia, t4 - min. bd jaki chcemy osign.
Charakterystyka bdu rednio-kwadratowego w funkcji iloci kroków .
Charakterystyka statyczna obiektu, aproksymacja ch-ki dla pierwszych 15 punktów, aproksymacja ch-ki dla wszystkich punktów.
Otrzymujemy nastpujce wyniki aproksymacji:
dla pierwszych 15 punktów pomiarowych
w = 0.5758
b = 0.1314
dla wszystkich punktów pomiarowych
w1 = 0.4947
b1 = 0.2021
Uczenie nieliniowej sieci dwuwarstwowej.
Postpujemy analogicznie jak w przypadku pojedynczego neuronu liniowego z tym e poleceniu initlin odpowiada polecenie initff a poleceniu trainwh - trainbp.
Charakterystyka statyczna obiektu i aproksymacja tej charakterystyki.
Wyniki aproksymacji:
w1 = 0.7483 b1 = -1.6773
-0.2807 3.3598
0.7385 -0.1364
0.5802 -2.641
0.5228 -4.0127
w2 = 0.5762 b2 = 1.5997
0.7573
0.7928
0.8848
0.8392
Uwagi i wnioski.
Na podstawie przeprowadzonego wiczenia moemy stwierdzi e pojedynczy neuron liniowy moe posuy do aproksymacji charakterystyk liniowych lub zblionych do liniowych. W przypadku charakterystyk nieliniowych aproksymacja jest zbyt mao dokadna. Znacznie lepsze rezultaty aproksymacji charakterystyk nieliniowych uzyskujemy stosujc sie neuronow z neuronami nieliniowymi. Jak widzimy na charakterystyce aproksymacja w tym przypadku jest bardzo zbliona do charakterystyki aproksymowanej.