3. Zadania i metody optymalizacji nieliniowej
Zadania optymalizacji nieliniowej
Zadania optymalizacji nieliniowej bez ograniczeń.
Zadania optymalizacji liniowej z ograniczeniami.
Metody optymalizacji nieliniowej:
Metody analityczne
Metody numeryczne
Funkcja celu :
gdzie
to wektor zmiennych decyzyjnych
to zbiór rozwiązań dopuszczalnych
Cel:
znalezienie dla którego , gdzie to punkt stacjonarny.
-dwukrotnie różniczkowalna
Warunki:
-warunek stacjonarności
-lokalna wypukłość, gdzie to wektor kierunku
ściśle wypukła optimum globalne
Algorytmy bezgradientowe:
Złotego podziału
Aproksymacji kwadratowej
Algorytmy gradientowe:
ekspansji i kontrakcji geometrycznej z testem jednoskośnym,
logarytmiczny złoty podział odcinka ze wstępną ekspansją i kontrakcją geometryczną
aproksymacja parabolicznej z testem jednoskośnym
bisekcji z testem dwuskośnym Goldstein’a
Algorytmy bezgradientowe
Hook’a – Jeeves’a
Gaussa –Seidla
Powella
Zangwilla
Algorytmy gradientowe:
największego spadku
zmodyfikowany algorytm Newtona
Fletchera-Reeves’a
Polaka-Ribiery
Fletchera-Powella-Davidona
Funkcja celu :
gdzie:
to wektor zmiennych decyzyjnych,
to zbiór rozwiązań dopuszczalnych, ,
i-te ograniczenie,
Cel:
Znalezienie dla którego , gdzie to punkt stacjonarny.
Funkcja Lagange’a:
gdzie to wektor mnożnika Lagrange’a
Warunki:
funkcje są różniczkowalne
Twierdzenie Karush’a-Kuhn’a-Tucker’a
Ograniczenia liniowe, wypukłe, liniowo niezależne.