wać hcsjan funkcji kryterium i rozpatrywać metodę Manjuardta jako wariant metody Newiona-Raphsona. Należy podkreślić, że metoda Marquardta pozwala wyznaczyć minimum funkcji kryterium w przypadkach, gdy wcześniej opisane metody zawodzą, np. przy niezbyt dobrze określonych wartościach początkowych.
Metody imiennej metryki
W algorytmie Newtona-Raphsoru do poszukiwania wartości wektora ocen współczynników b zapewniających minimum niekwadratowej funkcji krytcrialncj S(b) należy w każdej iteracji wyznaczyć macierz odwrotną jej besjanu ii Jest to dość trudne, zwłaszcza w przypadku dużej liczby zmiennych. Metody optymalizacji, w których macierz P jest przybliżeniem macierzy odwrotnej besjanu. zwane są metodami qaasi-oewtooowskimi lub metodami zmiennej metry ki Stosuje się następujące przybliżenie:
- >*■ (5.24)
przy czym:
zaś o> jest współczynnikiem liczbowym zwanym współczynnikiem skali. Poszczególne algorytmy oparte na metodach quasi-newtonowskich różnią się między sobą sposobem wyznaczenia macierzy AP< Ogólnie przyjmuje się. że macierz:
(5.26)
o i f Ag, *; Ag,
gdzie:
i) i zt - dowolne niezerowe wektory.
Na przykład w metodzie Davidona-Ficłchcra-Powclla w pierwszej iteracji stosuje się Po “I- W następnych iteracjach przyjmuje się:
»=1. r,-«„ «,-P,Ag;.
Wówczas zgodnie z wzorem (5.26) macierz korekcyjna:
(5.27)
AP . P> **>
ł"c,rAg, Agf P, Ag,
Ważnym elementem algorytmu jest odnowa rozumiana jako podstawienie P, ■ I. co prowadzi do wykorzystania kierunku największego spadku. Odnowę przeprowadza się wówczas, gdy wyznacza on w kolejnej iteracji kierunek nic jest kierunkiem poprawy oraz gdy od ostatniej odnowy wykonano 2m+l iteracji.
Metody gradientowe są efektywne, lecz często mogą zawodzić w przypadku nieregularnej funkcji kryterium. Wtedy lepiej skorzystać z którejś z metod bezgradientowej optymalizacji. W metodach hrz gradientowych do wyznaczenia wartości optymalnych wystarczy znajomość funkcji kryterium w poszczególnych punktach.
70