UKŁADY ADAPTACYJNE - FILTR WIENERA o b ie k t
y ( n ) = d ( n )
u ( n )
m o d e l
e ( n )
ÿ ( n )
identyfikacja obiektu
załóżmy, że model obiektu jest filtrem FIR, wtedy d(n)
ÿ(n)
e(n)
h(0)
h(1)
h(2)
h(N-2) h(N-1)
u(n)
z -1
z -1
z -1
N −1
& y( )
n = ∑ (
h k) ⋅ (
u n − k)
k =0
lub w zapisie macierzowym:
& (
y )
n
h T
=
(
u )
n
błąd estymacji
ε ( n) = d( n) − & y( n) d(n)-sygnał wzorcowy ú(n)-estymata miara błędu estymacji - błąd średniokwadratowy estymacji Q( h) = E[ε 2 ( n)]
• Filtr którego współczynniki h przyjmują wartości minimalizujące Q(h) nazywamy filtrem Wienera.
POWIERZCHNIA
BŁĘDU ŚREDNIOKWADRATOWEGO
Q(h) = E[( d ( n T
) − h u( n))2] =
E[ d 2 ( n
T
)]− 2h E[ d( n)u( n T
)]+ h E[u( n T
)u ( n)]h =
E[ d 2 ( n
T
T
)]− 2h p + h Rh
gdzie: p − wektor korelacji wzajemnej d ( n) i u( n) R − macierz autokorelacji u( n) Błąd średniokwadratowy estymacji jest funkcją 2. rzędu wektora wag h - tworzy hiperboloidę posiadającą jedno minimum globalne.
• Równania normalne
Szukając minimum błedu należy obliczyć pochodną błędu względem wektora wag filtru i porównać ją do zera:
∂Q
∂ = 2Rh − p
2 = 0
h
więc jeśli R jest macierzą nieosobliwą: h
= R − p
1
opt
Zasada ortogonalności:
- błąd estymacji i sygnał wejściowy są nieskorelowane
- błąd estymacji i sygnał wyjściowy filtru są nieskorelowane
minimalny błąd estymacji
Q
= E[ d 2 ( n
T
)] − p h
opt
opt
METODY ROZWIĄZYWANIA RÓWNANIA
NORMALNEGO
• metody blokowe dwukrokowe
- obliczenie obciążonej lub nieobciążonej estymaty funkcji autokorelacji i macierzy R
- obliczenie macierzy odwrotnej
- eliminacja Gaussa (N3)
- algorytm Levinsona-Durbina (N2)- algorytm rekurencyjny, najpierw obliczny parametry filtru 1. rzędu, na tej podstawie 2. rzędu itd. W wyniku otrzymujemy
- parametry poszczególnych filtrów
- współczynniki odbicia
-
wartość błędu estymacji
zwiększanie rzędu modelu kończymy gdy:
-
błąd estymacji jest mniejszy od zadanej wartości
-
błąd estymacji przestaje maleć.
• metody blokowe jednokrokowe
- Bugra - rekurencyjne wyliczanie współczynników odbicia przy miminimalizacji kwadratów błędów predykcji (estymacji) w przód i wstecz:
ε
M
=
1
∑
2
2
p
f p n
bp n
p
N
2
12
( M −
+
=
p)
[ ( )
( )]
, ...
n= p+1
gdzie: N - liczba wpółczynników odbicia M -liczba próbek sygnału
- LS - najmniejszych kwadratów - wyliczanie współczynników filtru przy łącznej minimalizacja kwadratów błędów predykcji
ε = ∑ 2( )
p
fN n
n
metody sekwencyjne
- najszybszego spadku - gradientowy
- algorytm LMS
- RLS rekurencyjny algorytm najmniejszych kwadratów
- szybki RLS