Definiując woktor d/ jako:
d,»-Pfg„ (5.13)
gdzie Pi jesl dowolną macierzą kwadratową dodatnio określoną, forma kwadratowa wektora g> o macierzy P, będzie spełniać relację g/ P, g, >0 dla każdego wektora g,.
Kolejne przybliżenie wektora ocen współczynników może być przedstawione w postaci:
bw«b#(5-14)
gdzie Xi jest długością kroku w /-tej iteracji, P/ dowolną macierzą dodatnio określoną g/ gradientem funkcji kryterium.
Poszczególne metody gradientowe poszukiwania ekstremum funkcji kryterium różnią się przede wszystkim postacią macierzy P/.
Metoda najszybszego spadku
Jest to najprostsza metoda gradientowa, w której za P; przyjmuje się macierz jednostkową I. Wówczas:
b„.=bf +A,g,. i (5.15)
Długość kroku X, można określić, aproksymując funkcję S(b) funkcją kwadratową i minimalizując ją na kierunku gr. Wadą metody jest niezmienniczość macierzy P w kolejnych iteracjach, co nie pozwala na bieżące korygowanie ocen współczynników w zależności od postaci funkcji kryterium.
Metoda Newtona-Raphsona
Przekształćmy wzór (5.3) w następujący sposób:
S(b)=eTe=(y - n)T(y - n) “ yry - yrn - nry - =yry - Vy+V n. (5.16)
Funkcja S(b) osiąga ekstremum, gdy jej pochodna jest równa wektorowi zerowemu:
5S(b) __2 zry + 2 ZTi\ = -2 Zr(y-iO=0, (5.17)
gdzie jest macierzą o wymiarach [n * m].
W metodzie Ncwtona-Rapsona przyjmuje się, że macierz P, =H , gdzie macierz H jest hesjanem funkcji kryterium:
(5.18)
68