3. Zadania i metody optymalizacji nieliniowej
Zadania optymalizacji nieliniowej
Zadania optymalizacji nieliniowej bez ograniczeń.
Zadania optymalizacji liniowej z ograniczeniami.
Metody optymalizacji nieliniowej:
Metody analityczne
Metody numeryczne
Funkcja
celu
:
gdzie
to wektor zmiennych decyzyjnych
to zbiór rozwiązań dopuszczalnych
Cel:
znalezienie
dla
którego
, gdzie
to
punkt stacjonarny.
-dwukrotnie
różniczkowalna
Warunki:
-warunek
stacjonarności
-lokalna
wypukłość, gdzie
to
wektor kierunku
ściśle wypukła
optimum
globalne
Algorytmy bezgradientowe:
Złotego podziału
Aproksymacji kwadratowej
Algorytmy gradientowe:
ekspansji i kontrakcji geometrycznej z testem jednoskośnym,
logarytmiczny złoty podział odcinka ze wstępną ekspansją i kontrakcją geometryczną
aproksymacja parabolicznej z testem jednoskośnym
bisekcji z testem dwuskośnym Goldstein’a
Algorytmy bezgradientowe
Hook’a – Jeeves’a
Gaussa –Seidla
Powella
Zangwilla
Algorytmy gradientowe:
największego spadku
zmodyfikowany algorytm Newtona
Fletchera-Reeves’a
Polaka-Ribiery
Fletchera-Powella-Davidona
Funkcja
celu
:
gdzie:
to
wektor zmiennych decyzyjnych,
to
zbiór rozwiązań dopuszczalnych,
,
i-te
ograniczenie,
Cel:
Znalezienie
dla
którego
, gdzie
to
punkt stacjonarny.
Funkcja Lagange’a:
gdzie
to
wektor mnożnika Lagrange’a
Warunki:
funkcje
są
różniczkowalne
Twierdzenie Karush’a-Kuhn’a-Tucker’a
Ograniczenia
liniowe, wypukłe, liniowo niezależne.