Liniowa prognoza ŚREDNIOKWADRAtowa sygnałów s ta ci on a on^ch REKIjngMCyjMF. METODY ROZWIĄZANIA PROBLEMU PROGNOZY
52
w kolejnych krokach algorytmu, dla /»= 0.....p. wyznaczaliśmy zbiory współ- j
czynników —
Utwórzmy (dolno-irójkątną) macierz A,,, zawierającą wszystkie kolejno wyliczane zbiory współczynników (2.164)
A „ =
0/..O |
0 |
... 0 |
0p,\ |
Op- 1.0 |
0 |
Cip,2 |
Op- 1.1 |
... 0 |
. ar.r |
7 |
... 00.0 |
Zatem mamy
CpAp —
0
(2.165) § ---
:(0) • • c(-p)
ap, 0 |
0 |
... 0 | |
cip, 1 |
Cip- 1.0 |
0 | |
aP, 2 |
Op-l.l |
... 0 | |
°P,P |
Op- \,/)- 1 |
• • 00.0 |
(2.166) v
0 y/Rę)
gdzie przez * oznaczyliśmy nie interesujące nas elementy macierzy. Wykorzystując (2.152). rozważmy iloczyn
A'pCr\r -
ap.O ap, i • • • aP.P 0 On-1,0 ap-\,p-\
0
0 ono
0 v^o-
(2.167)
Liniowa prognoza średniokwadratowa sygnałów stacjonarnych
Przypomnijmy, że warunkiem optymalności (w sensie średniokwadratowym) estymatora prognozy
9>i(0 = <*n.\y[t - l) + • • • + ani„y{t -n) (2.174)
było wymaganie (2.20)
Een(r)>(f — Ar) =0 dla k= 1(2.175)
to jest aby błąd prognozy był nieskorelowany z przeszłością sygnału obserwowanego. Stąd wniosek, że
(2.176)
tj. błąd prognozy jest nieskorelowany z estymatorem prognozy rzędu n. Roz ważmy obecnie sygnał o skończonym czasie skorelowania n i zdefiniujmy estymator
:M0 = «co,l)'(/ - 1} + •.. + a*,ny(t - n) -f a*>,n4 !>•(/ - n - 1) -f . . (2.177)
Wówczas mamy
w
+ Tj°^>,n+j^n(t)y(t-n-j) = Q J=\
(2.178)
gdyż zerowanie się pierwszego składnika prawej strony wynika z warunków optymalności estymatora prognozy (2.176). a zerowanie się drugiego składnika ze skończonego czasu skorelowania sygnału. Stąd wniosek, że
E£/i(/)en(f — k) = 0 dla A: = 1,2,... ^2179)
gdyż
e„(/-*) = >*(/ — A:) _=
= y(t-k) - a„'\y(t -k - I- k - n) (2.180)
1 meskorclowanie błędu prognozy wynika znowu z warunków optymalności estymatora (dla opóźnień do t - n) oraz. ze skończonego czasu skorelowania sygnału (dla opóźnień/ -n — k= 1,2,..,). Nieskorelowanic błędu prognozy
Ponieważ, prawa strona (2.167) jest macierzą gómotrójkątną. a lewa macierzą symetryczną, stąd wniosek, że prawa strona jest macierzą jednostkową. Mamy
A'CrA„ = /
(2.168)
Zauważmy, że Ar jest macierzą nieosobliwą. gdyż jej elementy diagonali a*,n, n = 0, . p są - jak wynika z (2.152) - dodatnie. W konsekwencji
Cp = A-'A/7' Podobnie mamy Cp ~ ^pAr
Zależności (2.169) i (2.170) stanowią tzw. faktoryzację Choleskiego macierzy kowanancyjncj Cp oraz jej macierzy odwrotnej C~l. Stąd wniosek, że algorytm Levinsona - niejako automatycznie - wyznacza implicite macierz odwrotną względem macierzy kowariancji, i to w postaci sfaktoryzowanej.
Uwaga: Przykład 7.2 w rozdziale 7 pokazuje implementację algorytmu faktory-zacji Choleskiego macierzy kowanancyjncj Toeplitza oraz macierzy względem niej odwrotnej, wraz z przykładowymi wynikami symulacji
Przypomnijmy, że dla scentrowanego.i mamy
c(£) — Ey(f)y(f - k) —► 0 gdy k —► oo
co oznacza, że każdy taki sygnał jc też
v*>o 3^,) {k > k0 => \c(k)\ < s)
a stąd wniosek, że każdy sygnał losowy można (z dokładnością do e) traktować jako sygnał o skończonym czasie skorelowania (wynoszącym ko). Załóżmy dla uproszczenia, że obserwowany przez nas sygnał jest sygnałem o skończonym czasie skorelowania, wynoszącym n; a więc
Przypomnijmy, że dla scentrowanego. czysto przypadkowego sygnału losowego mamy
(2.171)
co oznacza, że każdy taki sygnał jest asymptotycznie nieskorelowany Dlatego
też
(2172)
c(n -f j) - Ey(r)y(f - n - j) = 0 dla ; - 1.2,
(2.173)
53
Rekurencyjne metody rozwiązania problemu prognozy
>*(')
Filtr
innowacyjny
en[t) = szum biały
Rys. 2.8. Filtracja innowacyjna sygnału y
oznacza, że en(t) jest szumem białym (dla sygnału o skończonym czasie skorelowania). Zatem mamy sytuację przedstawioną na rys. 2.8.
Biorąc pod uwagę, że
MO = fln.0y(0 + On,\>•(/ —!) + ■• • +"*./.)>(' ~ «)
zdefiniu jmy transmitancję filtru innowacyjnego jako
4,1 (?) = 0„tOŻ° + 0n, | Z1 + . • + Qn,n^
Wówczas mamy
Wt=\= \A„\2Wy
czyli
(2.181)
(2.182)
(2.183)
Wv =
AnA,
= |4*|
-2
(2.184)
Stąd wniosek, że sygnał y(/) o widmowej gęstości mocy Wy, faktoryzowalnej w sensie (2 184). i o skończonym czasie skorelowania jest przekształcany przez lilii innowacyjny w szum biały Dlatego często w literaturze^'' innowacyjny jest nazywany również filtrem wybielającym. Dla sygnałów asymptotycznie me-skorclowanych sygnał innowacyjny en(t) dąży do szumu białego, gdy n > (czyli ze wzrostem rzędu filtru). Zatem pod postacią parametrów filtru innowacyjnego zostają „zakodowane” informacje o statystykach drugiego rzęt u ( wariancji lub - równoważnie - widmowej gęstości mocy) sygnału wejściowego filtru innowacyjnego. Wynika to z zależności (2 184) 1 implikuje 1 eę < \ n 7 5>7!/ezy sygnału, skoro filtr innowacyjny o transmitancj. Sy‘
gnał o widmowej gęstości mocy Wy w szum biały, to szum biały podany na wejście filtru odwrotnego o transmitancji An 1 będzie dawa na wyj.ciu syg . y(t). dla którego
(2.185)
W9=Wy
55
54