, ,N,OWA PH00N02Ą ftBEPNtOKWAPBArOWA SYGNAŁÓW STAC^^nN^.' REKUnEMCYJNĘ METODY ROZWIĄZANIA PROBLEMU PROGNOZY
48
c(0)
1 |
1 |
• 0 | ||
"2.1 "2.2 . |
"l.l 0 |
4-P2 |
"1,1 1 |
«2,l = fll,l ł‘P2«l.l —
cm -
c(0)
cm-^
"2.2 = ~
I -
i iak dalej Jak widać z przykładu
• współczynniki {"„.Jjż? (U odpowiedzi impulsowe filtrn prognozującego dla n _ | *jv) wyrażają się wyłącznie poprzez wartości funkcji kowariancji obserwowanego sygnału - w tym sensie należy rozumieć stwierdzenie, że filtr optymalny jest dopasowany do sygnału, gdyż każdorazowa zmiana statystyk sygnału powoduje zmianę odpowiedzi impulsowej (a tym samym transmitan-cji) optymalnego filtru prognozującego;
• analizując wyrażenia okre
prawa jakości estymacji zależy od przebiegu funkcji kowariancji sygnału, przykładowo:
-jeśli we wzorze określającym wartość <:( 1) spełnia warunek c{ 1 )< c(0). to poprawa jakości estymacji w pierwszym kroku jest mała; do podobnego wniosku można dojść również analizując analogiczną relację między c(2) a c(l) we wzorze określającym R\.
-jeśli natomiast jest spełniony warunek c{ I) ~ c(0) w pierwszym, a c(2) ~ c( 1) w drugim przypadku, to poprawa estymacji w każdym kroku jest duża.
Stąd wniosek, że poprawa jakości estymacji zależy od szybkości malenia war tości funkcji kowariancji: i tak. jeśli szybkość malenia jest duża - a więc sygnał ma charakter szerokopasmowy - jakość estymacji poprawia się powoli, co wymaga stosowania filtrów wysokiego rzędu; jeśli natomiast szybkość malenia jest mała a więc sygnał jest typu wąskopasmowego - jakość estymacji poprawia się szybko, co umożliwia stosowanie filtrów niskiego rzędu W granicznym przypadku szumu białego mamy c( I) = c(2) = ... = 0. co implikuje zerową poprawę jakości estymacji oraz - oczywisty skądinąd wniosek - że prognozowanie szumu białego nic ma sensu. Powyższe spostrzeżenia zostaną wykorzystane przy omawianiu zagadnienia filtracji innowacyjnej i parametryzacji sygnałów.
Unormowany algorytm Levinsona
W zastosowaniach - zamiast zależności (2.145)~<2.149) korzysta się zazwyczaj z tzw. unormowanej wersji algorytmu Levinsona. Zarówno z lego względu, jak i z uwagi na fakt, że ..unormowane" rozwiązanie problemu prognozy bę dzie wielokrotnie wykorzystywane w dalszych rozważaniach, przedstawimy tę wersję omawianego algorytmu W tym celu ..unormujmy" rozwiązania w przód i w tył (2.144), dokonując podstawień
"n.O "n, 1 |
1 |
A |
6n,o 6n.i |
I | |
"n.n |
6n = |
6/i,n |
"Tl6" |
(2.150) |
przy czym On. o = 6/1,0 =
(2.151)
VRn
(2 152)
Uwaga l: Sens terminu „unormowanie” w (2.150) sranie się jasny przy oma wianiu rozwiązania problemu prognozy metodą geometryczną.
Uwaga 2: W dalszym ciągu A„. Bn. a„., oraz bn>, będą oznaczać wielkości unor mowane:
49
Liniowa prognoza średniokwadratowa sygnałów stać jonarn -
Wprowadźmy oznaczenie
r= I
--Rekurencyjne metody rozwiązania problemu prognozy
Uwaga 3: W unormowanym algorytmie Levinsona (2.153), (2.155), (2.160) 1 2 16/). zależność (2.149) określająca błąd Średniokwadratowy prognozy jest zastąpiona równoważną zależnością rekurencyjną
(2-155) J
Zauważmy, że z (2.149) wynika zależność
a stąd wniosek, iż ,,
(2.157)
(2.162)
Wówczas z (2.150)-(2.152) wynika, że wielkość A„ (2.145) wyraża się jako
Podstawiając (2.154) do (2.146), otrzymujemy
_ a zior/n
Pn ~ -An On - 1.0
Zastępując rozwiązania nieunormowane wprzód i u- tył w zależnościach (2 147) ; i (2.148) wielkościami unormowanymi (2.150). otrzymujemy
A _ roli
(2.158)
(2.159)
Podstawiając (2.159) do (2.156) i (2.157) otrzymujemy unormowaną wersję algorytmu Levinsona:
(2.160)
która jest tożsama z zależnością (2.158).
Uwaga 4: Przykład 7.1 w rozdziale 7prezentuje implementację unormowanego algorytmu Levinsona w środowisku Mat lab wraz z przykładowymi wynikami symulacji komputerowych.
2 2.3. Faktoryzacja Choleskiego macierzy kowariancji
Omawiając sformułowanie zagadnienia prognozy optymalnej oraz algebraiczne metody jego rozwiązania, stwierdziliśmy, że w celu jego rozwiązania niezbędne jest wyznaczenie macierzy odwrotnej C~1 względem macierzy kowarian-cyjnej C„. zgodnie z (2.130). Z kolei przedstawiony wyżej algorytm Levin-sona umożliwia wyznaczenie (w sposób rekurencyjny) rozwiązań tego układu równań pozornie bez wyznaczania macierzy odwrotnej. Dlatego też w niniejszym punkcie pokażemy, że zastosowanie algorytmu Levinsona do rozwiązania układu równań (2.133), stanowi szybką tj. wymagającą jedynie o(n2) operacji. zamiast ć?(/?3) operacji jak w metodzie Gaussa, metodę wyznaczania macierzy odwrotnej (względem macierzy Toeplitza) i to w postaci sfaktoryzowanej (faktoryzacja Choleskiego) Aby to pokazać, przypomnijmy że algorytm Levin-sona stanowi rekurencyjną metodę wyznaczania współczynników (2.134) filtru prognozującego rzędu n — 1,2,..., stanowiących rozwiązanie układu równań (2.133). Zauważmy, że w przypadku unormowanego algorytmu Levinsona (2.153), (2.155)-(2.157) układ ten przyjmuje - na mocy (2.150) następującą postać:
(2.163)
'c(0) . |
■ c{-n)' |
"/i.O "/», 1 |
0 | ||
c(n) |
■ c(0) . |
an,n |
0 J |
(2.161)
Przypuśćmy, że zakończyliśmy działanie algorytmu Levinsona po p krokach; tj. rozwiązaliśmy układ równań (2.163) z n zamienionym na p. Zauważmy, że
50
51