424
10. Optymalizacja
było najlepiej dopasowane do m punktów pomiarowych (tifyd 9
go
Nie można zastosować tu wprost metod z rozdziału 4, gdyż y (/, x) zależy niełiniow ^ parametrów x2, x5. Postawione zadanie można opisać jako rozwiązywanie nielwiJ^^ układu nadokreślonego
y(tf,x)asy{ (i~l .2,...»m).
Jeśli pomiary mają równe wagi, to aproksymacja średniokwadratowa wymaga minimali zacji funkcji
i- I
Przykład 10.5.2. Niech llf f2.....będą elementami próby pobranej z populacji
i niech/(r.«) będzie gęstością dla pewnej cechy tych elementów, gdzie a jest nieznanym wektorem parametrów. Zgodnie z zasadą największej wiarcgodności, a określa się znajdując maksimum funkcji
?(*)= FI/('!>«)•
Można to zrobić analitycznie tylko dla szczególnych rodzajów gęstości.
Rozważymy najpierw ogólne zadanie minimalizacji, jak w' drugim przykładzie, i założymy, żc pochodne cząstkowe można wyrazić w postaci analitycznej. (Specjalne techniki dla układów nadokreślonych będą podane w § 10.5.4). Zadanie redukuje się więc do rozwiązywania układu (zwykle nieliniowego)
(10.5.2) *(*)«<?,
gdzie g(x)={dęfćxl, c<p/tlx2,..., cyjdxjiT jest gradientem funkcji <p. Można tu stosować metody z § 6.9, np. metodę Newtona opisaną wzorem
(10.5.3) x¥+1*=xy-H(xy)g(x,),
gdzie H(x) jest macierzą odwrotną do jakobianu G(x) funkcji g:
Macierz (7(jc) nazywa się też hesjanem funkcji <p. Zauważmy, że macierze G i H są symetryczne. Warunkiem dostatecznym na to, żeby rozwiązanie x równania (10.5.2) dawało minimum funkcji ę, jest nieujemna określoność macierzy G(x). To wTaz z możliwo®^ obliczania wartości funkcji <p stwarza korzystniejszą sytuację w porównaniu z dewoto)’101 układami nieliniowymi. Zauważmy, że obliczanie funkcji g jest zazwyczaj znacznie koszto* wniejsze niż obliczanie ę i że obliczanie G wymaga jeszcze wrięccj pracy, szczególniesvłe • ’ gdy n jest duże.
Przypomnijmy sobie, że zaletą metody Newtona jest jej zbieżność kwadratowa, zaleta jest okupiona następującymi wadami (zob. też § 10.5.3):