SZAU 132 141

background image

132

4.3.

Modele rozmyte Takagi–Sugeno

Jedną z odmian modeli rozmytych, które okazały się bardzo skuteczne w modelowaniu

obiektów regulacji są modele typu Takagi–Sugeno [37] (czasami nazywane także modelami
Takagi–Sugeno–Kanga). Modele te są złożone z reguł, w następnikach których używa się
funkcji. Ich zaletą jest możliwość opisania zachowania obiektu za pomocą stosunkowo
niewielkiej liczby reguł. Ogólna postać modeli Takagi–Sugeno jest więc następująca:

Reguła i: jeśli

poprzednik

jest

i

i

jest

4

4

4

4

3

4

4

4

4

2

1

K

i

n

n

i

X

x

X

x

1

1

, to

4

4

4

3

4

4

4

2

1

K

następnik

)

,

,

(

1

n

i

i

x

x

f

y

=

,

( 4.34)

gdzie y

i

są wyjściami następników. Najczęściej w następnikach używa się funkcji liniowych.

Mają więc one postać:

i

n

j

j

i

j

i

a

x

a

y

0

1

+

=

=

,

( 4.35)

gdzie

i

j

a

(j = 0,…,n, i = 1,…,l) są parametrami modelu, l jest liczbą reguł z których złożony

jest model rozmyty. Zastosowanie następników liniowych upraszcza model. Co więcej, łatwo
jest dokonać identyfikacji ich parametrów korzystając z dobrze znanych metod. Następniki
reguł, ponieważ mogą być interpretowane jako modele opisujące zachowanie obiektu wokół
pewnych punktów pracy, są nazywane modelami lokalnymi.

W celu obliczenia wartości wyjściowej modelu rozmytego Takagi–Sugeno, należy

skorzystać z następującego wzoru:

=

=

=

l

i

i

l

i

i

i

w

y

w

y

1

1

,

( 4.36)

gdzie w

i

(i = 1,…,l) są siłami odpalenia poszczególnych reguł. Wyjście modelu jest więc

sumą ważoną wyjść poszczególnych modeli lokalnych. Obliczenie wartości wyjścia modelu
typu Takagi–Sugeno jest więc prostsze niż w przypadku modelu z rozmytymi następnikami.

Przykład 4.5

Rozpatrzmy

przykład

rozmytego

modelu

charakterystyki

statycznej

zaworu

przeznaczonego do regulacji przepływu cieczy. Charakterystyka ta jest opisana następującym
wzorem [1]:

2

9

,

0

1

,

0

3163

,

0

u

u

y

+

=

,

( 4.37)

gdzie wyjście y jest przepływem przez zawór, a wejście u jest pozycją trzpienia zaworu.
Charakterystyka ta jest przedstawiona na rys. 4.14 linią różową. Zauważmy, że kształt tej
charakterystyki przypomina funkcję sigmoidalną. Spróbujmy użyć modelu rozmytego do
zamodelowania tej charakterystyki. Można przy tym posłużyć się doborem parametrów
modelu wspomaganym komputerowo. Po takim zabiegu, otrzymano funkcje przynależności
pokazane na rys. 4.15. Model rozmyty jest złożony z następujących dwóch reguł [22]:

background image

133

Reguła 1: jeśli u jest R

1

, to

y

= –0,3289,

Reguła 2: jeśli u jest R

2

, to

y

= 0,3289.

Model ten choć prosty, zaskakująco dobrze oddaje modelowaną nieliniowość (linia niebieska
na rys. 4.14).

Rys. 4.14. Charakterystyka statyczna zaworu regulacyjnego;

oryginalna – linia różowa, z modelu rozmytego – linia niebieska

Rys. 4.15. Funkcje przynależności w modelu rozmytym

charakterystyki statycznej zaworu regulacyjnego

background image

134

Przykład 4.6

Rozpatrzmy teraz przypadek dynamicznego modelu typu Takagi–Sugeno. Załóżmy, że jest

to model dyskretny o jednym wejściu i jednym wyjściu, wykorzystujący wartości sygnałów
wejściowego i wyjściowego procesu w przeszłości oraz równania różnicowe w następnikach.
W takim razie model ten jest złożony z następujących reguł:

Reguła i: jeśli

i

m

m

k

i

k

i

n

n

k

i

k

C

u

C

u

B

y

B

y

jest

i

i

jest

i

jest

i

i

jest

1

1

1

1

+

+

K

K

to

1

1

1

1

1

+

+

+

+

+

+

+

+

=

m

k

i

m

k

i

n

k

i

n

k

i

i

k

u

c

u

c

y

b

y

b

y

K

K

,

( 4.38)

gdzie

i

m

i

i

n

i

c

c

b

b

,

,

,

,

,

1

1

K

K

(i = 1,…,l) są współczynnikami modeli lokalnych, y

k

jest wartością

wyjścia obiektu regulacji w chwili k, u

k

jest wartością wejścia w chwili k,

i

B

1

,…,

i

n

B

,

i

C

1

,…,

i

m

C

są zbiorami rozmytymi. Zauważmy, że modele lokalne są liniowe

(najczęściej takie są używane w praktyce) i mogą być zidentyfikowane na podstawie próbek
zarejestrowanych w okolicach kilku punktów pracy podczas eksperymentów prowadzonych
na realnym obiekcie (często stosowane podejście).

Powróćmy teraz do ogólnej postaci modeli typu Takagi–Sugeno. Zwróćmy uwagę na to, że

zastosowanie wzoru ( 4.36) jest równoważne obliczaniu następującej sumy:

0

1

~

~

a

x

a

y

n

j

j

j

+

=

=

,

( 4.39)

=

=

=

l

i

i

l

i

i

j

i

j

w

a

w

a

1

1

~

,

gdzie

j

a

~ jest sumą ważoną odpowiednich parametrów modeli lokalnych. W celu

uproszczenia zapisu zwykle wprowadza się wagi znormalizowane, tzn.:

=

=

l

i

i

i

i

w

w

w

1

~

.

( 4.40)

Przykład 4.7

Wróćmy do poprzedniego przykładu. Wyjście rozmytego modelu dynamicznego będzie w

takim razie opisane następującą zależnością:

1

1

1

1

1

~

~

~

~

+

+

+

+

+

+

+

+

=

m

k

m

k

n

k

n

k

k

u

c

u

c

y

b

y

b

y

K

K

,

( 4.41)

gdzie

=

=

l

i

i

j

i

j

b

w

b

1

~

~

,

=

=

l

i

i

j

i

j

c

w

c

1

~

~

.

Tego typu model można więc traktować jako model liniowy z parametrami zmiennymi w
czasie. Dlatego też modele Takagi–Sugeno nazywa się czasem modelami quasi–liniowymi.

background image

135

4.3.1.

Przedstawienie modelu Takagi–Sugeno w postaci sieci neuronowej

Modele rozmyte można przedstawić w postaci rozmytych sieci neuronowych (ang. Fuzzy

Neural Networks – FNN), zob. np. [29, 31, 38]. Można z nich skorzystać w celu identyfikacji
modeli rozmytych. Przypomnijmy, ogólną postać modeli rozmytych typu Takagi–Sugeno.
Model takiego typu jest złożony z zestawu następujących reguł (przy założeniu następników
opisanych funkcją liniową):

Reguła i: jeśli

jest

i

i

jest

i

n

n

i

X

x

X

x

K

1

1

, to

i

n

j

j

i

j

i

a

x

a

y

0

1

+

=

=

.

( 4.42)

Wyjście modelu rozmytego typu Takagi–Sugeno jest z kolei dane wzorem:

=

=

l

i

i

i

y

w

y

1

~

,

( 4.43)

gdzie

i

w

~ są znormalizowanymi wagami. W takim razie, ogólną strukturę rozmytej sieci

neuronowej odzwierciedlającej model rozmyty z wyjściem opisanym równaniem ( 4.43)
można przedstawić, jak na rys. 4.16.

x

1

Neuronowy

model

poprzedników

x

n

::::

::::

Neuronowy

model

następników

y

1

y

l

::::

::::

::::

::::

x

x

w

1

w

l

::::

::::

+

y

~

~

::::

::::

Rys. 4.16. Ogólna struktura rozmytej sieci neuronowej

Neuronowy model poprzedników

Przypomnijmy, że znormalizowane wagi są opisane wzorem:

=

=

l

i

i

i

i

w

w

w

1

~

,

( 4.44)

gdzie poszczególne wagi w

i

, przy założeniu, że jako operatora koniunkcji użyto mnożenia, są

iloczynem wartości funkcji przynależności:

=

=

n

j

j

X

i

x

w

i

j

1

)

(

µ

.

( 4.45)

W takim razie struktura neuronowego modelu poprzedników będzie miała postać taką, jak na
rys. 4.17.

background image

136

x

1

::::

::::

::::

::::

::::

::::

::::

::::

x

n

::::

::::

)

(x

1

X

1
1

µ

)

(x

1

X

i
1

µ

)

(x

1

X

l
1

µ

::::

::::

::::

::::

)

(x

n

X

1
n

µ

)

(x

n

X

i
n

µ

)

(x

n

X

l
n

µ

x

x

x

::::

::::

w

1

w

i

w

l

/

/

/

~

w

1

~

w

i

~

w

l

=

l

1

i

i

w

::::

::::

::::

::::

x

– mnożenie

/

– dzielenie

Rys. 4.17. Neuronowy model poprzedników rozmytego modelu Takagi–Sugeno

Zauważmy, że w powyższym modelu neuronowym poprzedników, uczeniu podlegają

parametry funkcji przynależności

)

(

j

X

x

i

j

µ

. Funkcje te zostały oznaczone elementami

prostokątnymi, ponieważ są to elementy bardziej złożone, które można byłoby przedstawić za
pomocą prostszych neuronów. Nie jest to jednak konieczne do przeprowadzenia dalszych
rozważań.

Neuronowy model następników

Przypomnijmy postać następników poszczególnych reguł w rozważanym modelu

rozmytym:

i

n

j

j

i

j

i

a

x

a

y

0

1

+

=

=

; i = 1,…, l.

Zauważmy, że jest to zależność liniowa. W takim razie struktura następników reguł
rozważanego modelu Takagi–Sugeno może być przedstawiona jako sztuczna sieć neuronowa
z rys. 4.18. W tym modelu neuronowym, uczeniu podlegają parametry

i

j

a

funkcji liniowych

występujących w następnikach reguł, z których jest złożony model rozmyty.

background image

137

1

x

1

y

1

::::

::::

1

0

a

::::

::::

::::

::::

2
0

a

l
0

a

::::

::::

::::

::::

1
1

a

2

1

a

l
1

a

::::

::::

x

n

::::

::::

1
n

a

2
n

a

l
n

a

::::

::::

::::

::::

y

2

y

l

– neuron liniowy

Rys. 4.18. Neuronowy model następników rozmytego modelu Takagi–Sugeno

Przykład 4.8 (rozmyta sieć neuronowa Wanga–Mendela)

W przypadku, gdy następniki w modelu Takagi–Sugeno są stałe, tzn.

i

i

a

y

0

=

,

( 4.46)

model ulega znacznemu uproszczeniu. W takim przypadku, wyjście modelu jest bowiem dane
wzorem:

background image

138

=

=

l

i

i

i

a

w

y

1

0

~

.

( 4.47)

Także struktura sztucznej sieci neuronowej opisującej taki model znaczenie się upraszcza.
Tego typu model neuronowy jest nazywany modelem Wanga–Mendela a jego postać została
pokazana na rys. 4.19. Parametry modelu, które mogą zostać dobrane dzięki zastosowaniu
mechanizmu uczenia sieci to parametry funkcji przynależności

)

(

j

X

x

i

j

µ

oraz stałe

i

a

0

występujące w następnikach reguł modelu rozmytego.

x

1

::::

::::

::::

::::

::::

::::

::::

::::

x

n

::::

::::

)

(x

1

X

1
1

µ

)

(x

1

X

i
1

µ

)

(x

1

X

l
1

µ

::::

::::

::::

::::

)

(x

n

X

1
n

µ

)

(x

n

X

i
n

µ

)

(x

n

X

l
n

µ

x

x

x

::::

::::

w

1

w

i

w

l

/

/

/

~

w

1

~

w

i

~

w

l

=

l

1

i

i

w

::::

::::

x

– mnożenie

/

– dzielenie

1

0

a

y

i
0

a

l
0

a

::::

::::

Rys. 4.19. Neuronowy model Wanga–Mendela

Przykład 4.9

Rozpatrzmy rozmyty model statyki zaworu z przykładu 4.5. Przypomnijmy, że model ten

jest złożony z następujących dwóch reguł:

Reguła 1: jeśli u jest R

1

, to

3289

,

0

1
0

1

=

= a

y

,

Reguła 2: jeśli u jest R

2

, to

3289

,

0

2

0

2

=

= a

y

.

background image

139

W takim razie sztuczna sieć neuronowa opisująca ten model będzie miała postać Wanga–
Mendela. Zauważmy, że założono sigmoidalne funkcje przynależności

)

(

1

u

R

µ

oraz

)

(

2

u

R

µ

.

Ponieważ w modelu użyte zostały poprzedniki proste, struktura sieci również jest szczególnie
prosta (nie jest potrzebne użycie mnożenia).

u

(u)

1

R

µ

(u)

2

R

µ

w

1

/

/

~

w

1

1

0

a

y

w

2

~

w

2

2
0

a

Rys. 4.20. Neuronowy model statyki zaworu z przykładu 4.5

4.3.2.

Hybrydowy algorytm uczenia rozmytych sieci neuronowych

Zauważmy, że szczegółowa zależność opisująca wyjście modelu Takagi–Sugeno (a tym

samym wyjście rozmytej sieci neuronowej, za pomocą której można taki model przedstawić)
jest dana następującym wzorem:

∑∏

=

=

=

=

=



+

=

l

i

n

j

j

X

l

i

i

n

j

j

i

j

n

j

j

X

n

x

a

x

a

x

x

x

y

i

j

i

j

1

1

1

0

1

1

1

)

(

)

(

)

,

,

(

µ

µ

K

.

( 4.48)

Parametry modelu rozmytego można więc dostroić metodą uczenia rozmytej sieci

neuronowej. W tym celu można wykorzystać dobrze znany mechanizm wstecznej propagacji
błędu. Ze względu na strukturę rozmytej sieci neuronowej (wynikającą ze struktury reguł
modelu rozmytego) możliwe jest zastosowanie dwóch zasadniczych podejść. Pierwsze
podejście polega na dostrajaniu zarówno parametrów poprzedników jak i następników reguł
(wszystkich parametrów podlegających procesowi identyfikacji) analogicznie, jak w
przypadku perceptronu wielowarstwowego. Drugie podejście to algorytm hybrydowy, w
którym parametry poprzedników są dostrajane z wykorzystaniem mechanizmu uczenia zaś
parametry następników – z wykorzystaniem metody najmniejszych kwadratów. Druga z
wymienionych metod daje lepsze rezultaty [29, 38] i na tej właśnie metodzie się teraz
skoncentrujemy.

Podczas uczenia sieci będziemy dążyć do minimalizowania następującej funkcji błędu:

(

)

=

=

p

m

d

m

m

y

y

E

1

2

2

1

,

( 4.49)

gdzie p jest liczbą próbek uczących,

)

,

,

(

1

m

n

m

m

m

x

x

y

y

K

=

jest wartością wyjścia uczonej sieci,

d

m

y

jest wartością wyjścia (zmierzoną) obiektu otrzymaną dla zestawu sygnałów wejściowych

background image

140

)

,

,

(

1

m

n

m

x

x

K

. Jak już wspomniano na wstępie, w podejściu hybrydowym, dostrajanie

parametrów poprzedników i następników odbywa się osobno. Dlatego też w algorytmie
można wyróżnić dwa etapy, powtarzane na zmianę podczas procesu uczenia [29].

Etap I

Dla ustalonych (bieżących) wartości parametrów funkcji przynależności, dostrajane są

wartości parametrów następników reguł rozmytych. Zauważmy, że w przypadku przyjęcia
stałych parametrów funkcji przynależności, wyjście modelu rozmytego jest dane wzorem:

=

=



+

=

=

l

i

i

n

j

j

i

j

i

n

a

x

a

w

x

x

y

y

1

0

1

1

~

)

,

,

(

K

.

( 4.50)

Powyższy wzór można zapisać w postaci wektorowej:

[

]

=

l

l

l

n

o

n

l

l

n

l

n

a

a

a

a

a

a

w

x

w

x

w

w

x

w

x

w

y

0

1

1

1

1

1

1

1

1

1

1

~

~

~

~

~

~

M

M

M

K

K

K

.

( 4.51)

Naszym zadaniem jest określenie na podstawie p próbek uczących, którymi dysponujemy,
wartości parametrów

i

j

a

(i = 1,…, l; j = 1,…, n). W idealnym przypadku chcemy otrzymać

następującą równość:

d

y

a

W

=

,

( 4.52)

gdzie

=

p

l

p

p

l

p

n

p

l

p

p

p

p

n

p

m

l

m

m

l

m

n

m

l

m

m

m

m

n

m

l

l

n

l

n

w

x

w

x

w

w

x

w

x

w

w

x

w

x

w

w

x

w

x

w

w

x

w

x

w

w

x

w

x

w

~

~

~

~

~

~

~

~

~

~

~

~

~

~

~

~

~

~

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

K

K

K

M

M

O

M

O

M

M

O

M

K

K

K

M

M

O

M

O

M

M

O

M

K

K

K

W

,

=

l

l

l

n

o

n

a

a

a

a

a

a

0

1

1

1

1

1

M

M

M

a

,

background image

141

=

d
p

d

m

d

y

y

y

M

M

1

d

y

.

Zwykle zbiór próbek uczących jest liczny i liczba tych próbek znacznie przekracza liczbę
parametrów zgrupowanych w wektorze a. W związku z tym wartości parametrów
następników reguł rozmytych wyznacza się korzystając z metody najmniejszych kwadratów,
co w programie Matlab sprowadza się do użycia operatora tzw. lewego dzielenia
macierzowego (ang. left matrix divide).

Etap II

Dla bieżących wartości parametrów następników reguł modelu rozmytego oraz funkcji

przynależności, dla poszczególnych próbek uczących wyznacza się wartości wyjściowe
uczonej sieci

)

,

,

(

1

m

n

m

m

m

x

x

y

y

K

=

. Na podstawie tych wartości oraz wartości pożądanych

d

m

y

otrzymuje się wektor błędu:

=

d
p

p

d

m

m

d

y

y

y

y

y

y

M

M

1

1

ε

.

Następnie korzysta się z mechanizmu wstecznej propagacji błędu. Dostrajanie wartości
parametrów funkcji przynależności wykonuje się, korzystając z wybranej metody
optymalizacji.

Przykład 4.10

Oznaczmy przez c

i

parametry danej funkcji przynależności. Załóżmy także, że funkcja ta

jest różniczkowalna. Wówczas, w przypadku użycia metody najszybszego spadku, otrzymuje
się następujący wzór opisujący iteracyjne dostrajanie tych parametrów:

i

i

i

i

c

E

n

c

n

c

=

+

η

)

(

)

1

(

,

( 4.53)

gdzie n jest numerem kolejnej iteracji uczenia,

i

η

jest współczynnikiem uczenia oraz

(

)

i

i

l

i

i

n

j

j

i

j

d

i

c

w

a

x

a

y

y

c

E



+

=

∑ ∑

=

=

~

1

0

1

,

( 4.54)

gdzie

i

i

c

w

∂~

zależy od postaci przyjętej funkcji przynależności.

Uwaga: Gradientowe metody optymalizacji można zastosować w przypadku

różniczkowalnych funkcji przynależności (np. sigmoidalna, dzwonowa, Gaussa). W
przypadku funkcji nieróżniczkowalnych można jednak użyć metod bezgradientowych.


Wyszukiwarka

Podobne podstrony:
132 141 Cięcie
141 Future Perfect Continuous
140 141
139 141
141 145
pytania 67-72 +132, Wykłady rachunkowość bankowość
132
GA P1 132 transkrypcja
Podstawy elektroniki str 101 141
plik (132)
PaVeiTekstB 132
141 Przykłady pozycji opisów katalogowych IIIid 15704
141 A moze by tak bardziej demokratycznie, Linux, płyty dvd, inne dvd, 1, Doradca Menedzera
141
131 132
131 132
132 Rozporzadzenie Rady Ministr w w sprawie poddania kobiet obowiazkowi stawienia sie do poboru

więcej podobnych podstron