Liniowa prognoza średniok waoratowa sygnałów stacjonarnych -FlEKUnENCy.IMi; METODY noZWIVA»IA PROBLEMU
Liniowa prognoza średniok waoratowa sygnałów stacjonarnych -FlEKUnENCy.IMi; METODY noZWIVA»IA PROBLEMU
(2.125)
(2.126)
(2.128)
(2.129)
(2.130)
Stad wniosek, że stochastyczny problem csiymacyjny w przestrzeni L2 {'U, 9?,//} jest równoważny zagadnieniom aproksymacji deterministycznej w przestrzeniach odpowiednioLilT) oraz f.2. Warunki optymalności wektora wspótczynni ków A„ (2.121) wynikają - analogicznie jak w poprzednio rozważanych przestrzeniach - z ortogonalno.<ci (2.123) błędu aproksymacji An względem przestrzeni V,”. implikując układ równań
a błąd aproksymacji wyraża się jako
Na mocy izomorfizmu układ równań (2.125) i (2.126) jest równoważny układom równań (2.89) i (2.90) oraz (2.60) i (2.62), a ostatecznie układowi równań normalnych (2.28).
W len sposób w niniejszym paragrafie pokazaliśmy równoważność podejścia algebraicznego i geometrycznego (w trzech przestrzeniach / ?{?/. W./i}. L2{T) i f2) do problemu optymalnej prognozy średniokwadrafowej Zauważmy, żc jednocześnie wykazaliśmy równoważność trzech zagadnień
• wyznaczenia optymalnego estymatora v„(r) = X"=l <*i.v(r i) zmiennej losowej y(r),
• wyznaczenia transmitancji A„(z) - a,z' optymalnego(średniokwadrato wo) filtru prognozującego,
• wyznaczenia odpowiedzi impulsowej A„ — f nr i o„) tego filtru.
Zatem, dzięki izomorfizmowi Kołmogorowa możemy rozwiązać geometrycznie jedno z tych zagadnień, rozwiązania zaś pozostałych dwóch wynikają automatycznie z tego izomorfizmu
W niniejszym podrozdziale przedstawiono rekurencyjne rozwiązania problemu optymalnej prognozy ś red n i ok wad rat owej stacjonarnych sygnałów losowych drugiego rzędu. Obejmują one zarówno podejście algebraiczne, w ramach którego pokazano wyprowadzenie algorytmu Levinsona oraz Schura. jak również, i geometryczne, gdzie pokazano rekurencyjne rozwiązania w trzech izomorfic/ nie izomctrycznych przestrzeniach Hilbcrta zmiennych losowych, wielomianów zmiennej zespolonej oraz. wektorów współczynników
40
Jak pokazaliśmy w poprzednia, podrozdziale, rozwiązanie problemu liniowei prognozy średmokwndratowej sprowadza się do rozwiązania układu równań p mowych (2.28) ze względu na współczynniki
J (2.I27)
lj odpowiedź impulsową nitru prognozującego, optymalnego średniokwadra-towo. Jeśli wprowadzić oznaczenia
c(0) . |
• c(-n) |
A A A n — |
l ‘ «l |
V — 1 n — |
0 | |
c(n) . |
• C(0) |
On |
n |
to układ równań (2.28) możemy przepisać jako Cr,An = rn
Zakładając, żc. macierz kowariancyjna C„ jest nieosobiiwa. poszukiwane rozwiązanie ma postać
An-=c;'rn
Stąd wniosek, że rozwiązanie pi obłemu optymalnej liniowej prognozy średnio-kwadratowej wymaga znajomości jedynie statystyk drugiego rzędu obserwowanego sygnału (tj.. jego macierzy, a ściślej funkcji kowariancyjnej) i sprowadza się do wyznaczenia macierzy odwrotnej względem macierzy kowariancyjnej lego sygnału
Jak wiadomo, istnieje wiele metod wyznaczania macierzy odwrotnej (np. metoda eliminacji Gaussa). Zauważmy jednak, że macierz kowariancyjna sygnału stacjonarnego (2.28) ma szczególną właściwość: elementy leżące na jej kolejnych przekątnych są sobie równe. Macierz o takiej właściwości nazywa się macierzą Toeplitza. Innymi słowy, całą macierz kowariancyjną sygnału stacjonarnego wyznacza jej pierwszy wiersz (oraz pierwsza kolumna, choć z uwagi na parzystość funkcji kowariancji c( n) = c(n). wystarcza znajomość pierwszego wiersza, czyli ..połowy” funkcji kowariancji). Dlatego też można przewidywać, że przy zastosowaniu odpowiedniego algorytmu, wykorzystującego opisane właściwości strukturalne macierzy kowariancyjnej sygnału stacjonarnego.
41
Rekurencyjne metody rozwiązania problemu prognozy
Liniowa prognoza śreoniokwadratowa sygnałów stacjonarna ' h
1 |
K+i’ | ||
a\ |
0 | ||
an |
0 | ||
«n+l |
0 |
(2.I3J)
(2.132)
(2.133)
(2.135)
można uzyskać istotne zmniejszenie liczby operacji wymaganych do wyznaczenia macierzy odwrotnej C~l w stosunku do liczby operacji np. w metodzie Gaussa (nie uwzględniającej właściwości strukturalnych odwracanej macierzy), wynoszącej c?(n3).
Ponadto, omawiając problem prognozy, stwierdziliśmy, żc weryfikacją dokładności estymacji jest wartość błędu średniokwadratowego R'n. Jeśli po n krokach wartość ta jest wciąż zbyt duża, każdorazowo możemy podwyższyć rząd filtru prognozującego: n n-ł-1 i stwierdzić, czy odpowiadający mu błąd średnio-kwadratowy /?*+, jest już wystarczająco mały. Jeśli nadal tak nic jest. możemy iterować to postępowanie, podwyższając rząd filtru n J-1 -> n h 2, « + 2 —> n -f 3 itd. Stąd wniosek, że interesować nas będzie rekurencyjna metoda rozwiązania problemu prognozy optymalnej - tj. rekurencyjna metoda rozwiązania układu równań liniowych (2.28). Rozwiązanie takie, umożliwiające:
• wykorzystanie właściwości Tocplitza macierzy kowariancyjnej
• rekurencyjne rozwiązanie problemu prognozy optymalnej.
oferuje tzw. algorytm f^evinsona, zaproponowany w 1947 i przez Normana Levinsona [37]. Wprawdzie algorytm ten w oryginalnej postaci jest obecnie rzadziej stasowany (są algorytmy numerycznie „lepsze” np tzw. algorytm Schura [17, 28], który zostanie szczegółowo omówiony w dalszej części), jednak ze względu na jego wartość „historyczną”, wpływ, jaki odniósł na współczesną teorię cyfrowego przetwarzania sygnałów, jak również prostotę, celowe jest jego rozważenie, jako wprowadzenia w teorię cyfrowej ortogonalnej filtracji optymalnej.
Uwaga na temat notacji: Chcemy wyznaczyć w sposób rckurencyjny rozwiązanie układu równań rzędu n -ł- 1
cl 0) |
c(— 1) |
.. c(~/i) c(~ n | |
c(l) |
c(0) |
.. c(-/i -f 1) c(-n) | |
c(n) |
c(n-l) |
•• c(0) |
c(-l) |
c(n -f 1 |
c(n) |
.. c(l) |
c(0) |
zakładając, że jest znane rozwiązanie rzędu n
>(0) C(-1) . |
• *(-«) |
‘ 1 ' | |||
cl 1) c(0) . |
. c(-n+ 1) |
o\ |
— |
0 | |
c(;r) c[n— 1) . |
■ c(0) |
.a" |
0 |
Przy powyższej notacji moglibyśmy sądzić, że pierwszen współczynników rozwiązania rzędu n |- I jest równych pierwszym n współczynnikom rozwiązania rzędu n. co jest oczywistą nieprawdą. Stąd wniosek, że niezbędne jest wprowadzenie podwójnego indeksowania współczynników filtru; tj.
'c(0) c( 1) . |
c(-n) |
1 |
K | ||
c(l) c(0) . |
.. c(-n+ 1) |
an,l |
0 | ||
c(n) c(n — 1) . |
■ c(0) . |
0 |
gdzie dla anj n oznacza rząd filtru, i zaś kolejny numer współczynnika. W taki sposób współczynniki filtru rzędu /?, to
K......*„,} (2.134)
a dla filtru rzędu n | I marny { rt/j ł-1,1« • • •»I ,ni &n f l.n-f I }
Idea rozwiązania problemu prognozy za pomocą algorytmu Levmsona jest następująca:
. załóżmy, że rozwiązaliśmy układ równań (2.28) i znamy wartości współczyn
. ^puśćmy.’że. znając te współczynniki, wyznaczyliśmy wartość błędu śred-„iokwadra,owego która nadal jest zbyt duża , - w celu poprawy doki d ności estymacji - decydujemy się podwyższyć rząd filtn. prognozującego
. wyznaczenie wartości współczynników (2.115)
„nowego" układu równań (wyrażonego przez (2.133) przy « zamremonyn
czenia w sposób rekurcncyjny rozwiązania rzędu + . J P nowe” rozwiązanie mogło być wyrażone w postaci
42