uzyskaną przez algorytm w stanie ustalonym, a minimalną wartością tego błędu nazywana jest błędem ekscesu i oznaczana przez Jex = J00 — Jmin. Stosunek błędu ekscesu do minimalnego błędu średniokwadratowego, będący miarą stopnia odchylenia rozwiązań generowanych przez algorytm od optymalnego rozwiązania wienerowskiego, jest określany jako niedopasowanie JA (ang. misadjustment):
Niedopasowanie algorytmu LMS, przy założeniu stacjonarności sygnałów x(n) i d(ń), określa wzór:
Mlms = atr(Jl), (5)
gdzie tr(i2) jest śladem macierzy autokorelacji sygnału wejściowego.
Dla algorytmów adaptacyjnych określa się ponadto parametr zwany stałą zbieżności algorytmu r, który jest zdefiniowany jako czas, po którym błąd estymacji najwolniej zbieżnego współczynnika filtru adaptacyjnego maleje e-krotnie [4, 1]. Dla algorytmu LMS stałą zbieżności określa wzór:
gdzie Amin jest najmniejszą wartością własną macierzy autokorelacji R.
Wracając do kroku adaptacji a, możemy, po przyjrzeniu się wzorom (5) i (6), łatwo stwierdzić, że dobór tego parametru wiąże się z kompromisem między szybkością zbieżności algorytmu a jego niedopasowaniem. Wraz ze wzrostem wartości kroku adaptacji, rośnie szybkość zbieżności, ale towarzyszy temu również wzrost niedopasowania.
3.2 Algorytm RLS i jego właściwości
Drugim z badanych w niniejszym ćwiczeniu algorytmów adaptacyjnych jest algorytm RLS. Otrzymujemy go w wyniku minimalizacji funkcji kosztu określonej wzorem:
gdzie A jest stałą zapominania, przyjmującą wartości z przedziału (0,1]. Wprowadzenie tego parametru powoduje wykładnicze ”oknowanie” sygnału błędu e(n), tzn. działanie polegające na tym, że starsze próbki sygnału błędu estymacji są brane do sumarycznej miary błędu J(n) z odpowiednio mniejszą wagą. Za miarę "pamięci” algorytmu RLS można przyjąć odwrotność dopełnienia współczynnika A do jedności, tj. 1/(1 — A). W przypadku podstawowej wersji algorytmu RLS, stosowanej z reguły dla sygnałów stacjonarnych, przyjmuje się A = 1. Dostajemy wtedy rekursywne rozwiązanie klasycznego, dobrze znanego zagadnienia najmniejszych kwadratów, a "pamięć” algorytmu jest wtedy nieskończona. Przyjmując A / 1, otrzymujemy tzw. algorytm RLS z wykładniczą stałą zapominania. Algorytm ten zamieszczono w tablicy 2.
3