Identyfikacja procesów
ROZDZIAŁ I - ogólne pojęcia, modele fizyczne i instrumentalne
Wyrażenie „identyfikacja procesów” możemy skojarzyć z problemem identyfikacji, zarówno sygnałów jak i obiektów. Zaczniemy od omówienia kilku podstawowych zagadnień.
Identyfikacja obiektów dynamicznych odbywa się w układzie pokazanym na rys.1. Na wejście obiektu, którego parametry będziemy identyfikować podawany jest sygnał wejściowy u(t), który jest sygnałem mierzalnym, oraz sygnał n(t), który jest niemierzalnym szumem. Sygnałem wyjściowym badanego obiektu jest sygnał y(t). Czasami może występować w sygnale wyjściowym addytywne zakłócenie.
Rys.1. Obiekt wraz z dotyczącymi go sygnałami.
W procesie identyfikacji szukamy wartości parametrów opisujących badany obiekt w oparciu o jego model, czyli przybliżony matematyczny opis działania obiektu. Każdy model opisany jest poprzez równania dynamiki s oraz wektor
parametrów występujących w tych równaniach. Możemy to symbolicznie zapisać w postaci
.
Omawiając pojęcie modelu należy również wspomnieć o pojęciu modelu prawdziwego. Jest to model w idealny sposób odzwierciedlający obiekt rzeczywisty. W procesie tworzenia modelu oraz jego identyfikacji dążymy właśnie do postaci modelu prawdziwego, której ze względu na jej idealność nigdy oczywiście nie osiągniemy. Symboliczny zapis modelu prawdziwego:
.
Modele możemy podzielić na modele fizyczne i instrumentalne. Modele fizyczne powstają w oparciu o równania czasu ciągłego, otrzymane z zapisania różnych praw fizyki rządzących modelowanym obiektem np: prawa zachowania masy i energii, równania równowagi sił i momentów itp. Otrzymane równania czasu ciągłego możemy następnie przedstawić w postaci równań stanu danego obiektu:
Modele fizyczne są, a przynajmniej staramy się by były, modelami „dokładnymi” czyli takimi, które jak najlepiej odzwierciedlają rzeczywistość.
Niestety modele fizyczne są często bardzo złożone, opisane skomplikowanymi zależnościami matematycznymi, co powoduje iż ciężko się je interpretuje i równie ciężko sterować obiektami opisanymi w taki sposób.
Na szczęście istnieje pewne rozwiązanie powyższego problemu. Jeśli dokonamy dyskretyzacji oraz linearyzacji modelu opisanego równaniami stanu wokół określonego punktu pracy to zazwyczaj będziemy mogli sprowadzić opis fizyczny do równania dyskretnego liniowego:
W tym opisie wyjście w danej chwili czasu jest sumą liniowej kombinacji poprzednich wyjść, liniowej kombinacji poprzednich wejść oraz szumu w tej chwili czasu. Występujący w tym równaniu niemierzalny szum mówi nam iż otrzymany przebieg y(t)jest tylko przybliżeniem przebiegu rzeczywistego. Czas t w tym równaniu przyjmuje wartości całkowite jako, że jest to czas dyskretny, bezwymiarowy. Parametrami takiego modelu są wartości a1,…,ar oraz b1,…,bp, natomiast wartości r i p określają strukturę modelu, inaczej mówiąc decydują o jego rzędzie. Należy pamiętać, że zerowe wartości współczynników ai oraz bi redukują rząd.
Na sygnał szumu n(t) składają się zakłócenia, zmiany punktu pracy oraz błędy modelowania. Złożenie tych trzech czynników powoduje iż sygnał n(t) jest niemierzalnym szumem białym czyli ciągiem nieskorelowanych zmiennych losowych.
W procesie identyfikacji wykorzystujemy szereg informacji. Między innymi dysponujemy pewnymi mierzalnymi danymi o badanym obiekcie:
obserwujemy obiekt przez N chwil czasu (od chwili 1 do N)
zbiór danych wyjściowych
zbiór danych wejściowych
zbiór wszystkich danych zmierzonych
Przed przystąpieniem do procesu identyfikacji dysponujemy również pewnymi informacjami wstępnymi (a priori):
możemy znać rząd obiektu, bądź konkretnie np.:
, bądź też mniej konkretnie np.:
. Wiedze taką możemy posiadać z własnych doświadczeń wyniesionych z badania wielu podobnych obiektów do analizowanego obecnie bądź też z wiedzy innych zespołów.
możemy znać wartość konkretnego parametru np.:
możemy znać zależność danego parametru od jakiejś innej wielkości np.:
(zależność od kwadratu prędkości, tu: dla modelu statku)
możemy znać zakres współczynnika np.:
możemy znać rozkład prawdopodobieństwa z jakim współczynnik przyjmuje dane wartości np.:
Kolejną kwestią w procesie identyfikacji jest uwarunkowanie eksperymentu (Rys.2). Na tym etapie musimy zastanowić się nad odpowiednim doborem sygnałów pobudzających, gdyż przy złym pobudzeniu możemy w ogóle nie uzyskać danych bądź też uzyskane wielkości będą zupełnie bezużyteczne. Należy również zadać sobie pytanie czy badamy obiekt w warunkach pętli sprzężenia zwrotnego i jeśli tak to należy się zastanowić nad wprowadzeniem w pętli sprzężenia addytywnego zakłócenia, gdyż niektóre sygnały mogą być bez jego wprowadzenia wręcz destruktywne dla naszego obiektu. Tak więc uwarunkowanie eksperymentu możemy zapisać w postaci sygnału
, gdzie v(t) jest sygnałem zewnętrznym.
Rys. 2. Uwarunkowanie eksperymentu.
Na podstawie dotychczasowej wiedzy jesteśmy w stanie określić pewien uproszczony schemat postępowania, mianowicie:
(informacja wstępna) + (dane o obiekcie)
(przybliżony model matematyczny)
Możemy również opisać procedurę/fazy identyfikacji:
Planowanie eksperymentu (wybór okresu próbkowania, filtracja sygnałów, dobór sygnałów wejściowych)
Wybór struktury modelu (identyfikacja strukturalna, wybór rzędu modelu, określenie ile współczynników będziemy estymować)
Estymacja parametrów (identyfikacja parametryczna)
Weryfikacja modelu (odpowiadamy na pytanie czy otrzymany model nas zadawala, jeśli nie to wracamy do pkt.1.)
Na koniec podamy podstawowe cele modelowania:
modele fizyczne:
a) symulacja (z reguły nie możemy eksperymentować na obiektach rzeczywistych bez przeprowadzenia wcześniejszych symulacji.
b) zastępowanie obiektów (np.: modele starych instrumentów muzycznych)
modele instrumentalne:
a) prognozowanie (predykcja)
b) predykcyjne kodowanie sygnałów
c) estymacja widma
d) korekcja kanałów telekomunikacyjnych
e) eliminacja zakłóceń impulsowych
f) aktywne tłumienie hałasu
g) sterowanie adaptacyjne
ROZDZIAŁ II - przypomnienie podstaw procesów losowych
Przy próbkowaniu sygnałów ciągłych, z którym w oczywisty sposób będziemy mieli do czynienia w procesie dyskretyzacji sygnału dla celów identyfikacji, należy pamiętać o zasadach próbkowaniem rządzących. Definiujemy częstotliwość próbkowania jako odwrotność okresu próbkowania
, aby móc odtworzyć sygnał analogowy z sygnału spróbkowanego musimy pamiętać o twierdzeniu o próbkowaniu, z którego wynika zależność:
gdzie
oznacza pasmo sygnału analogowego (tj. częstotliwość graniczną widma sygnału).
Istotne oznaczenia, które będą się przewijały w kontekście prezentowanych problemów to czas unormowany
gdzie t oznacza wielokrotność okresu próbkowania
; częstotliwość unormowana definiowana zależności:
oraz pulsacja unormowana
, obie te wielkości, zarówno częstotliwość unormowana jak i pulsacja są wielkościami bezwymiarowymi, natomiast f0 oznacza prawdziwą częstotliwość wyrażoną w Hertzach.
Kolejne pojęcie jakie należy sobie przypomnieć to pojęcie skalarnej zmiennej losowej, czyli pewnej funkcji X(e), gdzie e oznacza elementarne zdarzenie losowe oraz pojęcie rozkładu prawdopodobieństwa zmiennej losowej. Funkcję gęstości rozkładu prawdopodobieństwa określa Rys.3.
Rys.3. Funkcja gęstości rozkładu prawdopodobieństwa
p(X) zmiennej losowej X
Należy również pamiętać, że prawdopodobieństwo znalezienia się zmiennej losowej w przedziale [a,b] rozkładu prawdopodobieństwa równe jest całce z funkcji gęstości tego rozkładu w przedziale [a,b]:
Możliwa jest sytuacja, w której
. W tym celu wystarczy, aby przedział [a,b] był bardzo wąski. Nie należy bowiem utożsamiać gęstości rozkładu prawdopodobieństwa z samym prawdopodobieństwem. Kolejnym ważnym elementem jest wartość oczekiwana zmiennej losowej:
Możemy powiedzieć, że stanowi ona „środek ciężkości” rozkładu prawdopodobieństwa. Wartość oczekiwana posiada własność liniowości:
Inną wielkością związaną ze zmienną losową jest jej wariancja, określana również jako średni kwadrat rozrzutu. Określa ona rozrzut zmiennej losowej wokół jej wartości średniej:
Im mniej skupiony jest rozkład prawdopodobieństwa wokół swej wartości średniej tym wariancja jest mniejsza (Rys.4.).
Rys.4. Porównanie dwóch różnych wariancji zmiennych losowych.
Pierwsza zmienna ma mniejszą wariancję.
Pojęcie zmiennej losowej jednowymiarowej możemy rozszerzyć do przestrzeni wielowymiarowej, wprowadzając pojęcie wektorowej zmiennej losowej, dla którego również możemy zdefiniować pojęcie wartości oczekiwanej, jako wektora wartości oczekiwanych poszczególnych zmiennych losowych.
Miarą rozproszenia realizacji wektorowej zmiennej losowej wokół jej wartości średniej jest macierz kowariancji:
Na głównej przekątnej macierzy kowariancji znajdą się wariancję poszczególnych zmiennych, natomiast pozostałe elementy macierzy to współczynniki korelacji pomiędzy zmiennymi, dla nieskorelowanych zmiennych będą one zerowe. Macierz kowariancji jest macierzą nieujemnie określoną, czyli spełniony jest warunek:
Przy czym wyrażenie przed znakiem nierówności jest skalarem i gdy ten warunek nie jest spełniony dal danej macierzy to nie jest to macierz kowariancji.
Dowód na nieujemną określoność macierzy kowariancji:
Zastanówmy się teraz na problemem porównywania macierzy kowariancji. Otóż właściwie nie da się porównać dwóch macierzy tak aby otrzymać jednoznaczną odpowiedź, że np.: macierz pierwsza jest większa; aczkolwiek możliwa jest pewna ograniczona ocena dwóch macierzy. O tym jak wygląda skupienie rozkładów informują nas równania elipsoid koncentracji:
Równanie to pozwala na wykreślenie elipsoid, obrazujących koncentrację zmiennych wokół wartości średniej, na tej podstawie możliwe jest porównanie dwóch macierzy kowariancji, poprzez określenie, że np.: elementy macierzy pierwszej są bardziej skupione wokół wartości średniej itp.
Rys.5. Przykładowe elipsoidy koncentracji dla dwóch,
dwuwymiarowych macierzy kowariancji.
Dla macierzy kowariancji dwuwymiarowych (2x2) elipsoidy sprowadzają się do elips. Przykładowo, jeśli mamy prostą macierz kowariancji, w której elementy skośne równe są 0:
równanie elipsy będzie dla tego przykładu następujące:
W tym przypadku osie elipsy pokrywają się z osiami układu współrzędnych, przy czym
oraz
są długościami odpowiednich półosi elipsy. Jeżeli elementy poza główną przekątną byłyby niezerowe to elipsa byłaby obrócona.
Warto również przypomnieć sobie pojęcia i wielkości związane z procesami stochastycznymi. Zaczniemy od zapisania zdarzenia elementarnego:
oraz przypomnienia, że dyskretny proces stochastyczny to ciąg zmiennych losowych lub też zbiór realizacji zmiennej losowej. Warto pamiętać, iż pojedyncza realizacja nie ma w sobie nic losowego. Losowość ujawnia się gdy na jednym wykresie pokażemy wiele realizacji zmiennej losowej.
Rys.6. Przykładowy zbiór realizacji zmiennej losowej x(t)
Omówimy teraz własności zbioru realizacji zmiennej losowej. Wartość oczekiwana procesu stochastycznego jest ciągiem wartości oczekiwanych poszczególnych zmiennych. i możemy przedstawić ją zależnością:
Jeśli mielibyśmy przedstawić graficzną interpretację wartości oczekiwanej to byłaby to krzywa przechodząca mniej więcej przez środek naszego pęku realizacji (patrz Rys.6).
Kolejne własności procesu stochastycznego prezentują funkcje autokorelacji i autokowariancji. W uproszczeniu możemy powiedzieć, iż określają one w jakim stopniu wartość zmiennej losowej w danej chwili czasu t2 zależy od wartości tej zmiennej w chwili t1. Funkcje autokorelacji i autokowariancji (inaczej określaną również jako korekcje zmiennych scentralizowanych) możemy zapisać w poniższej notacji:
gdzie:
- zmienna scentralizowana, proces o zerowej wartości oczekiwanej
Procesy, dla których wartość oczekiwana jest stała, czyli nie zależy od czasu, natomiast wartości funkcji autokorelacji i autokowariancji zależą tylko od różnicy czasów t1 oraz t2 nazywamy procesami stacjonarnymi w szerokim sensie. Zapisując powyższe warunki symbolicznie:
gdzie:
Dla procesów stacjonarnych możemy określić widmową gęstość mocy. Dla takiego procesu w całym przedziale czasu średnia wartość wydzielanej energii (moc) jest stała. Dla sygnałów dyskretnych o skończonej gęstości mocy wyznaczamy transformatę Fouriera:
Znajomość charakterystyki widma pozwala nam na znalezienie funkcji autokorelacji i odwrotnie. Zależność odwrotną do powyższej możemy zapisać:
Przykład. Zadaniem jest znalezienie widma sygnału przedstawionego na Rys.7 bez dokonywania żmudnych obliczeń. Należy zauważyć, iż poniższy sygnał jest złożeniem dwóch sygnałów: sinusoidy oraz sygnału, będącego na kształt szumu, przy czym większy wpływ na sygnał wynikowy ma sinusoida. Przyjmijmy, że okres sygnału T równy jest 1s, natomiast liczba „górek” w jednym okresie wynosi 20. W ten sposób wiemy, iż widmo będzie miało 2 szczyty rezonansowe w częstotliwościach 1Hz oraz 20Hz. Teraz możemy odręcznie naszkicować widmo z dwoma szczytami.
Rys.7. Przebieg sygnału do przykładu.
Przeanalizujmy teraz jak zachowują się procesy stochastyczne przy przechodzeniu przez układy liniowe. Na początek przyjmiemy założenie, że proces
jest procesem stacjonarnym w szerokim sensie o wartości oczekiwanej
, funkcji autokorelacji
oraz widmie
. Naszym zadaniem będzie określenie własności procesu
, jaki pojawi się na wyjściu układu liniowego opisanego funkcją
pobudzonego sygnałem
(Rys.8.).
Rys.8. Przechodzenie sygnału stochastycznego przez układ liniowy
Jak łatwo stwierdzić sygnał
będzie dany zależnością:
Obliczmy wartość oczekiwaną procesu
:
Otrzymany wynik możemy zinterpretować następująco: jeżeli na wejście układu liniowego podamy proces o stałej wartości oczekiwanej to na wyjściu również otrzymamy proces o stałej wartości oczekiwanej.
Wyznaczmy teraz funkcję autokorelacji:
Jak widać funkcja autokorelacji sygnału
nie zależy od czasu a tylko od różnicy czasów
. Stąd wniosek: jeżeli sygnał podawany na wejście stabilnego układu liniowego niezmiennego w czasie jest stacjonarny w szerokim sensie to sygnał obserwowany na jego wyjściu (w stanie ustalonym) jest również stacjonarny w szerokim sensie.
Skoro sygnał wyjściowy jest stacjonarny w szerokim sensie to możemy wyznaczyć jego widmową gęstość mocy:
gdzie
oznacza transmitancję widmową układu liniowego.
ROZDZIAŁ III - modele szeregów czasowych - model autoregresyjny (AR)
Model autoregresyjny (AR, autoregressive) to model szeregu czasowego, w którym przebieg sygnału
na wyjściu układu liniowego tłumaczymy jego wcześniejszym przebiegiem. Model AR(r) - model rzędu r opisujemy równaniem autoregresyjnym:
gdzie
to współczynniki autregresji, natomiast
jest gaussowskim szumem białym, czyli ciągiem niezależnych zmiennych losowych o zerowej wartości oczekiwanej
oraz o stałej wariancji
. Szum biały ma płaskie widmo częstotliwościowe, jako że stanowi on złożenie wszystkich częstotliwości w paśmie (podobnie jak światło widzialne jest złożeniem wszystkich fal z zakresu - stąd nazwa „szum biały”). To właśnie szum
w równaniu autoregresyjnym odpowiada za losowy charakter przebiegu
.
Wprowadzając operator jednokrokowego opóźnienia
możemy przepisać równanie autoregresyjne w sposób następujący:
gdzie
czyli:
Rys.9. Schemat modelu autoregresyjnego
Stosowany w modelu AR układ to filtr formujący, wielobiegunowy o r biegunach. Im węższe jest widmo tego filtru tym sygnał na wyjściu będzie bardziej zbliżony do sinusoidalnego. Na uwagę zasługuje fakt iż w tym modelu, podając na wejście sygnał, będący kwintesencja losowości - szum biały na wyjściu otrzymujemy sygnał sinusoidalny. Ten model służy właśnie do modelowania przebiegów pseudookresowych.
Należy jednak pamiętać iż spełniony musi być bardzo ważny warunek. Filtr musi być asymptotycznie stabilny, czyli wszystkie pierwiastki wielomianu charakterystycznego
muszą mieć moduły mniejsze od 1, czyli muszą leżeć wewnątrz okręgu jednostkowego na płaszczyźnie zespolonej.
W celu określenia dopuszczalnego zakresu, w jakim muszą się znajdować współczynniki autoregresji można się pokusić o wykreślenie obszarów dopuszczalnych. Dla modeli rzędu pierwszego będzie to obszar na osi liczbowej w zakresie <-1;1>, dla modelu rzędu drugiego będzie to już dużo bardziej skomplikowany obszar trójkątny, natomiast okazuje się, że dla modeli wyższych rzędów wykreślenie obszarów dopuszczalnych wartości współczynników autoregresji staje się bardzo trudne, gdyż są to bardzo skomplikowane figury. Dlatego też właściwie nie istnieją testy na stabilność modelu AR.
u(t)
n(t)
y(t)
z(t)
?