Miejsce systemów we współczesnej inżynierii
Systemy techniczne – definicja, rozwiązywanie problemów systemowych
Poznawcze aspekty mechatroniki jako działu inżynierii systemów
Cykl życia systemu, koszty cyklu życia
Projektowanie i konstruowanie jako elementy cyklu życia wyrobu technicznego
Podstawowe i szczegółowe zasady konstrukcji
Kryteria oceny konstrukcji
Lekcja natury w projektowaniu inżynierskim
Struktura problemów optymalizacji
Hierarchia optymalizacji konstrukcji.
Projektowanie systemowe, paradygmat projektowania systemowego
Wąskie i systemowe rozumienie optymalizacji
Struktura klasycznego i optymalnego procesu projektowania – porównanie
Definicja projektowania optymalnego, procesu wyboru oraz systemu wartości
Model matematyczny optymalizacji konstrukcji
Kryteria optymalizacyjne, zmienne decyzyjne, ograniczenia – definicje, klasyfikacje
Typy ograniczeń w optymalizacji konstrukcji
Typy modeli matematycznych optymalizacji
Model optymalizacji skalarnej
Klasyfikacje problemów optymalizacji
Podstawowe procedury optymalizacji statycznej – podział
Metody graficzne optymalizacji
Metody analityczne optymalizacji (zalety, wady, zastosowania)
Metoda mnożników Lagrange’a
Warunki Kuhna-Tuckera
Metody programowania matematycznego
Metody wariacyjne optymalizacji konstrukcji
Metody numeryczne optymalizacji konstrukcji
Metoda systematycznego przeszukiwania
Metoda Monte Carlo
Metody poszukiwania minimum funkcji w kierunku
Metoda Hooke’a Jeevesa
Metoda Neldera-Meada
Metoda Gaussa-Seidela
Metoda Rosenbrocka
Metoda Powella
Metoda gradientu prostego
Metoda najszybszego spadku
Metody zewnętrznej i wewnętrznej funkcji kary
Algorytmy genetyczne
Algorytmy mrówkowe
Symulowane wyżarzanie
Optymalizacja wielokryterialna w projektowaniu konstrukcji
Definicja OW = (X, F, R) – omówienie
Model optymalizacji wielokryterialnej
Optymalizacja wielokryterialna wg koncepcji Pareto
Normalizacja i skalaryzacja w optymalizacji inżynierskiej konstrukcji
Podstawowe elementy projektowania optymalnego
Porównać definicje S=(E,A,R) oraz OW=(X,F,R). Omówić elementy definicji, uzasadnić wniosk
MIEJSCE SYSTEMÓW WE WSPÓŁCZESNEJ INŻYNIERII
System - pojęcie systemu obejmuje zarówno zjawiska natury oraz dzieła człowieka. Pojęcie systemu często zaciera różnice między naturą i efektami ludzkiej działalności. Głównym paradygmatem teorii systemów jest holistyczne (całościowe) traktowanie rzeczywistości. Teoria systemów od samego początki istnienia wykorzystywała i włączała w swoje ramy koncepcje istniejące w innych naukach, w tym również humanistycznych. Teoria systemów jest zasobem wiedzy uzyskanej w wyniku badań systemowych w dającym się zaobserwować świecie.
Inżynieria systemów – interdyscyplinarna inżynieria ukierunkowana na rozwiązywaniu złożonych problemów projektowania i zarządzania.
SYSTEMY TECHNICZNE – DEFINICJA, ROZWIĄZYWANIE PROBLEMÓW SYSTEMOWYCH
System techniczny - składa się z podzespołów i części złożonych w taki sposób, aby mogła być realizowana określona funkcja danego wyrobu. System ten może on być opisywany i analizowany wieloma sposobami. Jednym z nich, jest sposób, w którym rozpatruje się przepływ informacji, energii i materiału, przetwarzanych przez układ.
Rozwiązywanie problemów systemowych – aby otrzymane rozwiązanie mogło być uznane za satysfakcjonujące, problem musi być dobrze zidentyfikowany i określony. Wymaga to precyzyjnego określenia danych początkowych oraz atrybutów celu działań, a także ścisłe określenie ciągu działań projektowych i ograniczeń.
POZNAWCZE ASPEKTY MECHATRONIKI JAKO DZIAŁU INŻYNIERII SYSTEMÓW
CYKL ŻYCIA SYSTEMU, KOSZTY CYKLU ŻYCIA
PROJEKTOWANIE I KONSTRUOWANIE JAKO ELEMENTY CYKLU ŻYCIA WYROBU TECHN.
Projektowanie – zorganizowane czynności zmierzające do osiągnięcia zamierzonego celu.
Konstruowanie – szczególny przypadek projektowania, prowadzący do nadania wytworom (technicznym) określonych właściwości.
Projektowanie, konstruowanie (planowanie) – działania koncepcyjne, uwzględniające I i II zasadę konstrukcji.
Konstrukcje i elementy konstrukcyjne powinny być odpowiednio trwałe, ekonomiczne i niezawodne. Szczególną uwagę należy przykład do bezpieczeństwa konstrukcji (zdrowia i życia ludzi).
PODSTAWOWE I SZCZEGÓŁOWE ZASADY KONSTRUKCJI
I ZASADA KONSTRUKCJI
konstrukcja powinna spełniać wszystkie podstawowe warunki konstrukcyjne w stopniu nie gorszym od założonego
II ZASADA KONSTRUKCJI
konstrukcja powinna być optymalna w danych warunkach ze względu na podstawowe kryterium optymalizacyjne
Szczegółowe zasady konstrukcji: bezpieczeństwo, funkcjonalność , niezawodność i trwałość, sprawność, prawidłowość doboru materiałów, dobór właściwej technologii, lekkość , ergonomiczność, łatwość eksploatacji i napraw, niskie koszty eksploatacji, zgodność z obowiązującymi normami i przepisami, łatwość likwidacji, inne zasady i wymagania.
KRYTERIA OCENY KONSTRUKCJI
Przy podejmowaniu decyzji o wyborze konkretnego rozwiązania inżynierskiego (konstrukcji) należy posługiwać się pewnymi kryteriami jego oceny:
Kryterium bezpieczeństwa
Kryterium niezawodności
Kryterium masy
Kryterium ekonomiki eksploatacji
Kryterium technologiczności
Kryterium ergonomii i estetyki
Kryterium ekologiczności
LEKCJA NATURY W PROJEKTOWANIU INŻYNIERSKIM
Obecnie cywilizacja osiągnęła już taki poziom, że szukanie nowych pomysłów i inspiracji stało się naturalnym dążeniem kreatywnego inżyniera. Okazuje się, że napotykane coraz częściej bariery konstrukcyjne, technologiczne czy numeryczne można rozwiązać przez odejście od utartych schematów i paradygmatów, stosując nowe, nieszablonowe podejście do problemu. Przykłady zaczerpnięte z natury stanowią tutaj niewyczerpane źródło inspiracji. Czynnikami twórczymi w naturze są: nieodwracalność czasu, nieliniowość, tendencja do samoorganizowania się i tworzenia złożonych układów, rywalizacja o ograniczone zasoby.
Inspiracja w poszukiwaniu nowych rozwiązań.
Nowe procedury optymalizacyjne:
Automaty komórkowe
Algorytmy genetyczne
Algorytmy mrówkowe
Symulowane wyżarzanie
Programowanie ewolucyjne
STRUKTURA PROBLEMÓW OPTYMALIZACJI
POW – problem optymalnego wyboru
PWOW – problem wielokryterialnego wyboru
OW – optymalizacja wielokryterialna
OS – optymalizacja skalarna
HIERARCHIA OPTYMALIZACJI KONSTRUKCJI.
Hierarchia ważności zmiennych decyzyjnych w optymalizacji konstrukcji - w procesie optymalizacji konstrukcji, inżynier, konstruktor wyznacza hierarchię ważności poszczególnych zmiennych decyzyjnych mających wpływ na całość procesu optymalizacji. Dla, np. zaworu przelewowego mogą to być k- stała sprężyny, m- masa grzybka oraz Q- przepływ.
PROJEKTOWANIE SYSTEMOWE, PARADYGMAT PROJEKTOWANIA SYSTEMOWEGO
Projektowanie systemowe umożliwia uwzględnianie w procesie projektowania wszystkich współczesnych i przyszłych aspektów cyklu życia wyrobu technicznego (znanych i nieznanych), a w szczególności wniosków wynikających z analizy potrzeb konsumenta, wiedzy i motywacji decydentów, możliwości projektantów i wytwórców, z uwzględnianiem wszystkich kosztów całego cyklu życia.
WĄSKIE I SYSTEMOWE ROZUMIENIE OPTYMALIZACJI
Optymalizacja w znaczeniu wąskim (matematyczna)
Optymalizacja w znaczeniu szerokim (inżynierska)
STRUKTURA KLASYCZNEGO I OPTYMALNEGO PROCESU PROJEKTOWANIA – PORÓWNANIE
DEFINICJA PROJEKTOWANIA OPT., PROCESU WYBORU ORAZ SYSTEMU WARTOŚCI
Projektowanie optymalne – to świadome i sformalizowane wykorzystanie procedur optymalizacyjnych w całym procesie projektowania
Proces wyboru – w procesie tym rozwiązania poddane zastają ocenie stopnia zgodności z oczekiwaniami klienta oraz są poddane procedurom optymalizacyjnym.
System wartości - pozwala na sformułowanie tzw. nadrzędnego kryterium optymalizacji i związanego z nim zbioru kryteriów zadaniowych (cząstkowych), odnoszących się do poszczególnych elementów i zadań procesu. System wartości to zbiór atrybutów i relacji pomiędzy nimi, służący do oceny stopnia zaspokojenia danej potrzeby.
MODEL MATEMATYCZNY OPTYMALIZACJI KONSTRUKCJI
Model matematyczny – zbiór reguł i zależności, na podstawie których można za pomocą obliczeń przewidzieć przebieg modelowanego procesu. W rozumieniu optymalizacji modelem matematycznym konstrukcji jest wektor $\overset{\overline{}}{x}$ w N wymiarowej przestrzeni euklidesowej.
$$\overset{\overline{}}{x} = \left( x_{1},\ x_{2},\ldots,x_{N} \right),\ \ \ \ \overset{\overline{}}{x} \in R^{N}$$
Model matematyczny konstrukcji składa się z:
funkcji celu (lub zbioru funkcji celów), będącej matematycznym zapisem kryterium optymalizacyjnego,
zbioru zmiennych decyzyjnych oraz pozostałych parametrów opisujących konstrukcję,
zbioru ograniczeń (warunków ograniczających).
KRYTERIA OPTYMALIZACYJNE, ZMIENNE DECYZYJNE, OGRANICZENIA – DEF., KLASYFIKACJE
Kryteria optymalizacyjne – jest podstawowym pojęciem optymalizacji, za pomocą którego dokonuje się porównania poszczególnych rozwiązań. Kryterium wyrażone w języku matematyki jest nazywane funkcją celu. Kryterium optymalizacyjne jest wybierane w początkowej fazie projektowania, musi spełniać wymogi projektowania optymalnego, może być wybrane spośród parametrów konstrukcji, może być kombinacją wielu parametrów.
Zmienne decyzyjne (zmienne projektowe) – są to parametry konstrukcji określane za pomocą procedur optymalizacyjnych. Parametry te opisują konstrukcję w sposób niewymierny np. estetyka, wygląd itp., lub wymiarowy charakteryzujące wszystkie atrybuty charakteryzujące kształt, wymiary, moc, obroty konstrukcji itp.
Ograniczenia (warunki ograniczające) – nazywa się zbiór wszystkich warunków oddziaływujących na projektowaną konstrukcję. Warunki te mogą wynikać z przyjętych założeń co do typu konstrukcji czy materiału, do niektórych cech fizycznych i geometrycznych, do warunków eksploatacji, technologii wykonania itp.
TYPY OGRANICZEŃ W OPTYMALIZACJI KONSTRUKCJI
Ograniczenia ekonomiczne – są związane z kosztami konstrukcji, amortyzacją, spłatą kredytów itd.
Ograniczenia wymiarowe – to ograniczenia wytrzymałościowe, technologiczne, gabarytowe, geometryczne itp. Do tej grupy należą też ograniczenia wynikające z konieczności stosowania norm i przepisów.
Ograniczenia jakościowe – są związane z osiągami konstrukcji, jej trwałością, parametrami technicznymi zapewniającymi właściwą pracę.
Ograniczenia eksploatacyjne – to niezawodność konstrukcji, zdolność do pracy w różnych warunkach,
Inny podział ograniczeń to brzegowe i zachowawcze:
Ograniczenia brzegowe – wyznaczają minimalne i maksymalne wartości pewnych parametrów konstrukcji. Mogą one być nałożone np. na wartości pól powierzchni, momentów bezwładności itp.,
Ograniczenia zachowawcze – mają postać nierówności, nałożonych na związki fizyczne, opisujące zachowanie się konstrukcji (np. naprężenia, przemieszczenia, drgania, obciążenia krytyczne przy wyboczeniu itp.). Występują w postaci uwikłanej, gdyż są nałożone na zależności matematyczne, a nie na zmienne decyzyjne.
TYPY MODELI MATEMATYCZNYCH OPTYMALIZACJI
Ze względu na parametry zadania:
Model deterministyczny, gdy wszystkie parametry są zdeterminowane (tzn. znane i stałe). Każdej możliwej decyzji odpowiada jedna i tylko jedna wartość funkcji celu.
Model probabilistyczny, gdy jeden lub kilka parametrów są zmiennymi losowymi o znanym rozkładzie prawdopodobieństwa.
Model statystyczny, gdy jeden lub kilka parametrów są zmiennymi losowymi o nieznanym rozkładzie prawdopodobieństwa lub gdy jest znany rozkład parametrów w funkcji czasu
Ze względu na charakter zbioru zmiennych decyzyjnych:
Model optymalizacji dyskretnej, gdy zbiór zmiennych decyzyjnych jest skończonym zbiorem wartości dyskretnych, np. zgodnych z normami.
Model optymalizacji ciągłej, bez ograniczenia zakresu zmiennych.
Ze względu na liczbę funkcji celów (kryteriów optymalizacyjnych):
Model optymalizacji skalarnej, gdy zadanie wykorzystuje tylko jedną funkcję celu.
MODEL OPTYMALIZACJI SKALARNEJ
KLASYFIKACJE PROBLEMÓW OPTYMALIZACJI
Problemy optymalizacyjne można dzielić z kilku punktów widzenia:
Problemy optymalizacji ciągłej lub dyskretnej - wynikają z charakteru zmiennych decyzyjnych – zmienne te mogą być ciągłe lub dyskretne,
Problemy optymalizacji deterministycznej lub losowej – określane są przez charakter relacji porządkującej zbiory rozwiązań. Relacja ta może być deterministyczna lub losowa,
Problemy optymalizacji wektorowej lub skalarnej - wiążą się z tym, czy relacja porządkująca jest relacją wektorową czy skalarną,
Problemy optymalizacji parametrycznej lub wariacyjnej
Problemy optymalizacji bez ograniczeń lub z ograniczeniami – ze względu na charakter zbioru rozwiązań dopuszczalnych. Problemy z ograniczeniami sprowadzają się do problemów optymalizacji bez ograniczeń przez zastosowanie tzw. funkcji kar.
Problemy optymalizacji liniowej lub nieliniowej
Problemy optymalizacji statycznej lub dynamicznej
PODSTAWOWE PROCEDURY OPTYMALIZACJI STATYCZNEJ – PODZIAŁ
Metody graficzne
Metody analityczne
Rachunek różniczkowy (minimum funkcji bez ograniczeń),
Metoda mnożników Lagrange’a (ograniczenia równościowe),
Warunki Kuhna-Tuckera (ograniczenia nierównościowe),
Metody programowania matematycznego
Metody wariacyjne (kształtowanie wytrzymałościowe)
Metody numeryczne
Przeglądu
Statystyczne
Deterministyczne
Algorytmy genetyczne, symulowane wyżarzanie.
METODY GRAFICZNE OPTYMALIZACJI
Metody graficzne – mają zastosowanie do zadań inżynierskich z dwiema zmiennymi decyzyjnymi, co umożliwia znalezienie rozwiązania na płaszczyźnie kartezjańskiej układu współrzędnych. Obszar dopuszczalny jest wyznaczony z warunków nierównościowych, po przyrównaniu wszystkich ograniczeń do zera. Funkcję celu przedstawia się za pomocą warstwic. Warstwica o najniższej (lub najwyższej) wartości, przechodząca, lub mająca punkt styku z obszarem dopuszczalnym, pozwala na określenie rozwiązania optymalnego.
METODY ANALITYCZNE OPTYMALIZACJI (ZALETY, WADY, ZASTOSOWANIA)
Metody analityczne - podstawą tych metod jest rachunek różniczkowy, który do uzyskania rozwiązania nakłada na funkcję celu oraz ograniczenia ostre warunki. Metoda analityczna jest skuteczna w przypadku oddziaływań słabych, liniowych i deterministycznych, opierając się na znajomości szczegółów przy słabo sprecyzowanych relacjach pomiędzy szczegółami.
Zalety: - mogą być stosowane do rozwiązywania zadań z dwiema lub więcej zmiennymi decyzyjnymi (bardziej złożone zadania niż w przypadku metody graficznej),
- szybkość uzyskiwania wyniku,
- duża precyzja metody (stosuje modele precyzyjne i szczegółowe, ale trudne do zastosowania w działaniu).
Wady: - ograniczony zakres zastosowania w rozwiązywaniu zadań optymalizacyjnych,
- w zadaniach inżynierskich często funkcja celu jest funkcją nieciągłą, co eliminuje te metody z zastosowania,
- trudności polegające na znalezieniu minimum funkcji celu i odp. temu optymalnej wartości zmiennej x,
METODA MNOŻNIKÓW LAGRANGE’A
Metoda mnożników Lagrange’a – znajduje zastosowanie do rozwiązywania zadań optymalizacyjnych , gdy warunki ograniczające są ograniczeniami równościowymi. Stosowania jest dla nieliniowej funkcji celu klasy C1, będącą funkcją n zmiennych:
$$Q\left( \overset{\overline{}}{x} \right) = Q(x_{1},\ldots,x_{n})$$
Ograniczenia równościowe:
$$X = \{\overset{\overline{}}{x}:h_{j}\left( \overset{\overline{}}{x} \right) = 0;j = 1,\ldots,k;k < n\}$$
Problem polega na znalezieniu optymalnego punktu:
$${\overset{\overline{}}{x}}^{*} = (x_{1}^{*},\ldots,x_{n}^{*})$$
Dla którego:
$$\forall Q(\overset{\overline{}}{x}) \geq Q({\overset{\overline{}}{x}}^{*})$$
Funkcja Lagrange’a:
$$L\left( \overset{\overline{}}{x},\ \overset{\overline{}}{\lambda} \right) = Q\left( \overset{\overline{}}{x} \right) + \sum_{j = 1}^{k}{\lambda_{j} \bullet h_{j}(\overset{\overline{}}{x})}$$
Gdzie: $\overset{\overline{}}{\lambda} = (\lambda_{1},\ldots,\lambda_{k})$ - są dodatkowymi zmiennymi nazywanymi mnożnikami Lagrange’a.
WARUNKI KUHNA-TUCKERA
Twierdzenia Kuhna-Tuckera stanowi uogólnienie metody mnożników Lagrange’a wtedy, gdy ograniczenia mają postać równości i nierówności. Twierdzenie formułuje warunki, jakie musi spełniać wektor ${\overset{\overline{}}{x}}^{*}$, aby mógł być rozwiązaniem (minimum funkcji klasy C1) przy danych warunkach ograniczających. Funkcja Lagrange’a ma postać:
$$L\left( \overset{\overline{}}{x},\ \lambda \right) = Q\left( \overset{\overline{}}{x} \right) + \sum_{i = 1}^{m}{\lambda_{i} \bullet \varphi_{i}(\overset{\overline{}}{x})}$$
Warunki Kuhna-Truckera:
METODY PROGRAMOWANIA MATEMATYCZNEGO
Programowanie liniowe - funkcja celu Q(x) oraz wszystkie warunki ograniczające są zależnościami liniowymi. Metody programowania liniowego znajdują szerokie zastosow. przede wszystkim w naukach ekonomicznych.
Programowanie nieliniowe - te zagadnienia, w których chociaż jedna z funkcji opisujących problem (funkcja celu, zbiór ograniczeń) jest funkcją nieliniową.
- programowanie kwadratowe- jest uproszczonym przypadkiem programowania wypukłego, w którym funkcja celu stanowi sumę formy liniowej i formy kwadratowej i wszystkie ograniczenia są liniowe,
- programowanie geometryczne- funkcja celu oraz ograniczenia są dodatnimi wielomianami
Programowanie dualne - polega na tym, że często rozwiązanie zadania optymalizacji (zadania pierwotnego) można zastąpić rozwiązaniem prostszego zadania dualnego.
METODY WARIACYJNE OPTYMALIZACJI KONSTRUKCJI
Za pomocą rachunku wariacyjnego można znajdować ekstrema funkcjonałów. Ze względu na charakter warunków ogranicz. rozróżnia się zagadnienia wariacyjne klasyczne i nieklasyczne.
- zagadnienia wariacyjne klasyczne- poszukiwanie ekstremów funkcjonałów z warunkami ograniczającymi w postaci równości. Mogą mieć one charakter warunków funkcyjnych
- zagadnienia wariacyjne nieklasyczne- poszukiwanie ekstremów funkcjonałów z warunkami ograniczającymi w postaci nierówności.
METODY NUMERYCZNE OPTYMALIZACJI KONSTRUKCJI
Metody numeryczne są dzisiaj podstawowym narzędziem w optymalizacji konstrukcji inżynierskich. Zastąpiły one znaczniej mniej dokładne i mniej doskonałe metody analityczne. Stało się to dzięki gwałtownemu rozwojowi techniki komputerowej w ostatnich 50 latach. Dzięki temu możliwe staje się rozwiązywanie skomplikowanych równań różniczkowych, układów równań.
Metody numeryczne podział:
- statystyczne (losowe przeszukiwanie obszaru rozwiązań dopuszczalnych X i oszacowanie wartości optymalnej)
- deterministyczne (dążenie do wartości optymalnej za pomocą odpowiednich algorytmów).
METODA SYSTEMATYCZNEGO PRZESZUKIWANIA
Metoda systematycznego przeszukiwania (metoda przeglądu zupełnego, metoda enumeracji) – polega na systematycznym przeglądzie całego obszaru rozwiązań dopuszczalnych. Niepusty obszar dopuszczalny składa się z nieskończonej liczby punktów odpowiadających rozwiązaniom dopuszczalnym. W celu przeszukania tego obszaru należy dokonać jego dyskretyzacji, dzięki czemu otrzymuje się do zadania skończoną liczbę punktów w nieciągłej, n – wymiarowej przestrzeni euklidesowej.
Zalety metody: niewrażliwość na postać funkcji celu i warunków ograniczających, funkcje te nie muszą być różniczkowalne ani ciągłe, prostota, brak problemu zaokrąglania wyników, możliwość tworzenia wykresów obrazujących wpływ zmiany jednej zmiennej decyzyjnej na wartość funkcji celu i pozostałe zmienne.
Wady metody: długi czas obliczeń, możliwość pominięcia rozwiązania optymalnego.
Algorytm: 1) ustalenie wartości, jakie może przyjmować każda ze zmiennych decyzyjnych, 2) tworzenie kolejno wszystkich kombinacji wartości zmiennych xi, 3)sprawdzenie w każdym punkcie ograniczeń gi(x), 4) dla punktów spełniających w/w warunki oblicza się wartość funkcji celu. Rozwiązaniem jest punkt, w którym wartość funkcji celu jest optymalna.
METODA MONTE CARLO
Metoda Monte Carlo jest najważniejszą, klasyczną metodą statystyczną. Jej podstawową zaletą jest prostota, szybkość działania i możliwość zastosowania do każdego problemu nieliniowego. Metoda dostarcza rozwiązań przybliżonych.
Zalety metody: nie stawia dużych wymagań funkcji celu i ograniczeniom. Funkcje te nie muszą być różniczkowalne ani nawet ciągłe. Metoda nie ma kumulacji błędów, gdyż wybór kolejnego punktu nie zależy od punktów poprzednich.
Wady metody: jest mało efektywna wtedy, gdy obszar dopuszczalny jest mały w stosunku do kostki zmienności KZ. Metoda wymaga przeprowadzenia stosunkowo dużej liczby losowań.
Algorytm: 1) Losowanie punktu x (przyporządkowanie poszczególnym jego współrzędnym liczb pseudolosowych), 2) sprawdzenie spełniania ograniczeń przez wylosowany punkt, 3) obliczenie wartości funkcji celu dla punktu spełniającego ograniczenia, 4) sprawdzenie, czy obliczona wartość funkcji celu w punkcie x jest lepsza od wartości poprzednich losowań (jeśli tak – zastąpienie starego punktu nowym, jeśli nie – odrzucenie wylosowanego punktu).
METODY POSZUKIWANIA MINIMUM FUNKCJI W KIERUNKU
a) Podział wg sposobu tworzenia kierunków poprawy:
- metody o zmodyfikowanej bazie (bezgradientowe), dokonujące przeszukiwań w n - niezależnych kierunkach, po czym następuje modyfikacja bazy realizowana na podstawie informacji o zmianach wartości funkcji celu.
- metody o modyfikowanym kierunku (gradientowe), oprócz znajomości funkcji celu wykorzystują dodatkowe informacje o wartości i zmianach grad. w punktach, będących rezultatem poszukiwania wzdłuż jednego kier.
b) Podział wg sposobu znajdowania kolejnego punktu wzdłuż danego kierunku poszukiwań:
- dyskretne (metody poszukiwań prostych), polegające na badaniu zachowania się funkcji tylko w jednym lub dwóch punktach, leżących na kierunku poszukiwań, przy czym sposób wyboru tych punktów przy danym punkcie początkowym jest ustalany na początku każdej iteracji.
- z minimalizacją (metody kierunków poprawy), polegające na określeniu wzdłuż danego kierunku poszukiwań minimum funkcji celu.
METODA HOOKE’A JEEVESA
Jest metodą bezgradientową poszukiwań prostych. W metodzie tej w każdej iteracji występują dwa rodzaje ruchów – próbny i roboczy. Ruch próbny bada lokalne zachowanie się funkcji celu w niewielkim wybranym obszarze, wykonując kroki próbne o długości e wzdłuż wszystkich kierunków ortogonalnej bazy. Ruch roboczy polega na przejściu do następnego obszaru poszukiwań w ściśle określony sposób. W nowym obszarze następuje powtórzenie pierwszego etapu, lecz tylko wtedy, gdy przynajmniej jeden z ruchów był pomyślny, gdyż spowodował zmniejszenie wartości funkcji celu. W przeciwnym przypadku następuje powrót do poprzedniego obszaru i cykl poszukiwań rozpoczyna się od nowa przy zmniejszonej długości kroku. Dane wejściowe: dowolnie wybrany punkt startowy, baza wyjściowa, liczba zmiennych decyzyjnych, początkowa długość kroku, wymagana dokładność obliczeń, współczynniki zmieniające długość skoku.
METODA NELDERA-MEADA
Metoda ta jest bezgradientową metodą poszukiwań prostych. Polega na utworzeniu w przestrzeni Rn+1-wymiarowej n - wymiarowej figury zwanej sympleksem o n+1 wierzchołkach. Sympleks musi być utworzony w taki sposób, aby na jego wierzchołkach była rozpięta powierzchnia określona przez funkcję celu. Procedura rozpoczyna się od obliczenia współrzędnych punktów wierzchołkowych przy założeniu pewnej odległości między wierzchołkami zwanej krokiem. W przestrzeni n - wymiarowej sympleks jest regularnym wielościanem. Idea sympleksu polega na porównaniu wartości funkcji celu obliczonej w n+1 wierzchołkach i przesuwaniu tego sympleksu w ramach procesu iteracyjnego stopniowo w kierunku optimum. Ruch sympleksu jest opisany za pomocą trzech operacji: odbicia, ekspansji oraz kontrakcji, określonych przez odpowiednie procedury.
METODA GAUSSA-SEIDELA
Metoda ta jest metodą bezgradientową kierunków poprawy. Jest też znana jako metoda relaksacyjna. Istotą metody jest minimalizacja funkcji celu Q(x) wzdłuż kolejnych kierunków ortogonalnej bazy ζi. Kierunki ζ1, ζ2 … są wersorami układu współrzędnych kartezjańskich i nie ulegają zmianie w trakcie obliczeń. Danymi wejściowymi są: dowolnie wybrany punkt startowy, baza wyjściowa utworzona z wzajemnie ortogonalnych wersorów, wymagana dokładność obliczeń minimum funkcji celu w j-tym kierunku, wymagana dokładność obliczeń minimum globalnego, liczba zmiennych decyzyjnych. Ponieważ szukanie ekstremum odbywa się wzdłuż kierunków osi współrzędnych, metoda nie nadaje się do zadań z funkcją celu mającą kształt długiej, wąskiej doliny, nierównoległej do żadnego z wektorów bazowych.
METODA ROSENBROCKA
Jest bezgradientową metodą poszukiwań prostych. Jest podobna do metody G-S, gdyż poszukuje ekstremum w n- ortogonalnych kierunkach. Różni się od niej tym, że kierunki nie pozostają stałe, a zmieniają się w określony sposób. Funkcja celu jest dowolną funkcją wypukłą, posiadającą minimum w punkcie x. Znajomość pierwszej pochodnej funkcji celu nie jest wymagana. Wektor ζ jest zbiorem wzajemnie ortogonalnych wersorów tworzących bazę rozpatrywanej przestrzeni. Danymi wejściowymi są: dowolnie wybrany punkt startowy, baza wyjściowa utworzona z wzajemnie ortogonalnych wersorów, n - wymiarowy wektor początkowej długości kroku, współczynnik korekcyjny zwiększający krok, współczynnik korekcyjny zmniejszający krok, założona liczba iteracji, liczba zmiennych decyzyjnych. Charakterystyczną cechą metody jest obrót układu współrzędnych, dokonywany po tym, jak w każdym ortogonalnym kierunku dokonano przynajmniej po jednym pomyślnym kroku.
METODA POWELLA
Jest to bezgradientowa metoda kierunków poprawy. Wykorzystuje ona tzw. kierunki sprzężone, znakomicie poprawiające szybkość zbieżności. Metoda jest stosowana w dwóch wariantach. Wariant pierwszy wykazuje bardzo dobrą zbieżność, jednak tylko w przypadku funkcji zależnych od niewielkiej liczby zmiennych decyzyjnych oraz gdy punkt startowy jest tak dobrany, że badaną funkcję można zastąpić formą kwadratową. Drugi wariant nie wymaga takich ograniczeń, ma więc charakter bardziej ogólny, kosztem szybkości zbieżności. W wariancie Powell I, podobnie jak w metodzie G-S, poszukiwania prowadzone są wzdłuż n - ortogonalnych kierunków ζ1, ζ2 … , zgodnych z kierunkami osi układu. Różnica w stosunku do metody G-S polega na tym, że po cyklu złożonym z n - kroków określony zostaje nowy kierunek sprzężony ζn+1 , który zostaje włączony do bazy w miejsce ζ1. Następny cykl poszukiwań odbywa się w kierunkach ζ2, ζ3 … . Metoda Powella jest jedną z najczęściej stosowanych metod optymalizacyjnych w zastosowaniach inżynierskich. Szczególnie chętnie jest ona stosowana wtedy, gdy pojawiają się kłopoty z obliczaniem gradientu funkcji celu.
METODA GRADIENTU PROSTEGO
Jest to metoda poszukiwań prostych. Ideą tej metody jest poruszanie się wzdłuż kierunku wyznaczonego przez zwrot przeciwny do zwrotu gradientu funkcji, ze stałym krokiem o długości e, tak długo, aż nie będzie spełnione kryterium stopu. Metoda ta ma bardzo małą efektywność i stosowana jest bardzo rzadko. Algorytm metody jest następujący: Obliczenie w dowolnym punkcie startowym wartości funkcji celu oraz jej gradientu, następnie na jego podstawie wyznaczenie kierunku poszukiwań. Wykonanie kroku o długości e wzdłuż kierunku spadku funkcji celu i określenie współrzędnych drugiego punktu. Ponowne obliczenie wartości funkcji celu oraz jej gradientu w drugim punkcie. Jeżeli wartość f. celu w drugim punkcie jest mniejsza bądź równa obliczenia są kontynuowane. W przeciwnym razie należy cofnąć się do punktu pierwszego i zmniejszyć długość kroku ponieważ minimum zostało przekroczone.
METODA NAJSZYBSZEGO SPADKU
Jest to metoda gradientowa kierunków poprawy, stanowiąca naturalne rozwinięcie metody gradientu prostego. Zgodnie z ideą kierunków poprawy, w tej metodzie w miejsce pojedynczego kroku dokonuje się minimalizacji funkcji celu Q(x) wzdłuż kierunku największego spadku wartości funkcji, odpowiadającemu kierunkowi „minus gradientu”. Pozostałe czynności są realizowane tak samo jak w metodzie gradientu prostego. Dane wejściowe: dowolny punkt startowy, wymagana dokładność obliczeń przy minimalizacji funkcji celu w kierunku „minus gradientu”, wymagana dokładność obliczeń. Ze względu na prostotę i dużą szybkość osiągania minimum metoda jest chętnie stosowana w obliczeniach inżynierskich. Dla funkcji celu mającej warstwice w kształcie zbliżonym do kołowego, metoda w zasadzie operuje dwoma prostopadłymi wektorami o kierunku silnie zależnym od wyboru punktu startowego – metoda najszybszego spadku jest równoważna metodzie G-S przy odwróconym układzie współrzędnych. Metoda ma też wady. Jest bardzo niedokładna dla funkcji celu, której warstwice mają kształt banana. Inna wada jest związana
z niedokładnością obliczania kierunków poszukiwań.
METODY ZEWNĘTRZNEJ I WEWNĘTRZNEJ FUNKCJI KARY
Metody zewnętrznej funkcji kary.
Idea metody zewnętrznej funkcji kary polega na zamianie zadania wyjściowego ciąg zadań bez ograniczeń. W wyniku rozwiązania tych zadań otrzymuje się ciąg rozwiązań optymalnych. Ciąg taki jest zbieżny do rozwiązania zadania wyjściowego, czyli jest ciągiem rozwiązań dopuszczalnych monotonicznie optymalizującym. Główną zaletą metody funkcji kary jest unikanie bezpośredniego rozpatrywania wartości ograniczeń i możliwość zastosowania prostych metod optymalizacji bez ograniczeń. W praktyce inżynierskiej często zdarza się, że rozwiązanie optymalne x leży na brzegu obszaru rozwiązań dopuszczalnych X. W metodach funkcji kary ciąg rozwiązań optymalnych otrzymywany za pomocą procedury zadania bez ograniczeń będzie znajdował się poza obszarem dopuszczalnym. Taka sytuacja może utrudnić rozwiązanie zadania. Aby ciąg rozwiązań zawsze znajdował się wewnątrz obszaru rozwiązań dopuszczalnych, należy stosować inne podejście do zagadnienia,
a mianowicie metodę wewnętrznej funkcji kary.
Metoda wewnętrznej funkcji kary. (metoda funkcji barierowych).
Idea metody jest taka sama jak w metodzie zewnętrznej funkcji kary, różnica polega na sposobie zbliżania się do idealnej funkcji kary. W metodach funkcji kary pozostaje się cały czas wewnątrz obszaru dopuszczalnego, budując funkcje barierowe tak, alby przy dążeniu do rozwiązania optymalnego nie pozwalały na opuszczenie obszaru rozwiązań dopuszczalnych. Podstawową zaletą metody funkcji barierowych jest to, że zbliżając się do rozwiązania optymalnego, poszukiwania są realizowane wewnątrz obszaru dopuszczalnego, czyli, że każde kolejne rozwiązanie jest w jakimś stopniu optymalne.
ALGORYTMY GENETYCZNE
Algorytmy genetyczne – są procedurami stochastycznymi, których sposób poszukiwania rozwiązań optymalnych symuluje rzeczywiste mechanizmy ewolucji biologicznej. Służą one do poszukiwania przybliżonego rozwiązania problemu, możliwie blisko rozwiązaniu optymalnemu. Algorytmy genetyczne można stosować do optymalizacji dowolnych problemów, dla których udało się skonstruować funkcję oceniającą rozwiązania. Algorytmy genetyczne są kombinacją losowej i determ. metody przeszukiwania przestrzeni rozwiązań.
Najczęściej działanie algorytmu przebiega następująco:
Losowana jest pewna populacja początkowa.
Populacja poddawana jest ocenie (selekcja). Najlepiej przystosowane osobniki biorą udział w procesie reprodukcji.
Genotypy wybranych osobników poddawane są operatorom ewolucyjnym:
są ze sobą kojarzone poprzez złączanie genotypów rodziców (krzyżowanie),
przeprowadzana jest mutacja, czyli wprowadzenie drobnych losowych zmian.
Rodzi się drugie (kolejne) pokolenie i algorytm powraca do kroku drugiego, jeżeli nie znaleziono dostatecznie dobrego rozwiązania. W przeciwnym wyp uzyskujemy wynik.
ALGORYTMY MRÓWKOWE
Obserwacje natury pokazują, że mrówki wyznaczają swoje drogi bezpośrednio pomiędzy swoim gniazdem a źródłem pokarmu. Fakt, że droga ta jest najczęściej najkrótsza wynika z tego, że na drogach częściej uczęszczanych znajduje się większa ilość feromonu i jest on dłużej zachowywany. W jednostce czasu może więc większa ilość mrówek przebiec odcinek krótszy niż ten, który jest dłuższy. Fakt, że mrówki wybierają zawsze krótszą drogę z większym prawdopodobieństwem powoduje, że po pewnym czasie droga między gniazdem
a pokarmem jest bardzo bliska drodze optymalnej.
SYMULOWANE WYŻARZANIE
W tym algorytmie zauważa się analogię do termodynamiki tworzenia kryształów. Idee algorytmu obrazuje stosowana od wielu wieków metoda wyżarzania metalu w procesie jego hartowania. Symulowane wyżarzanie jest probabilistyczną procedurą szukania rozwiązań optymalnych dla heurystycznych funkcji celu (tzn. funkcji które opisują bez formalnego dowodu założone obliczeniowo problemy w uproszczony sposób, tak że można w ogóle rozwiązać dany problem w rozsądnym czasie, ale nie mając gwarancji znalezienia rozwiązania optymalnego w sensie globalnym).W celu określenie kierunku poszukiwań stanów o minimalnej energii stosuje się procesy losowe.
OPTYMALIZACJA WIELOKRYTERIALNA W PROJEKTOWANIU KONSTRUKCJI
Optymalizacja wielokryterialna (wektorowa, wielowymiarowa, wielowskaźnikowa) – do oceny rozwiązania stosuje się kilka kryteriów. Wykorzystuje fakt, że do oceny konstrukcji formułuje się nadrzędne kryterium optymalizacyjne, będące zbiorem kryteriów cząstkowych. Zagadnienia takie często spotykane są w optymalnym projektowaniu konstrukcji, opartym na systemowej analizie problemu. Projektant bardzo często musi rozwiązać problem, w którym konstrukcja ma za zadanie spełnienie jednocześnie kilku, nierzadko konfliktowych kryteriów. Powstaje więc typowy problem decyzyjny, polegający na określeniu ważności poszczególnych kryteriów. Jedynym racjonalnym rozwiązaniem jest przyjęcie kompromisu.
DEFINICJA OW = (X, F, R) – OMÓWIENIE
OW = (X, F, R) - zadanie optymalizacji wielokryterialnej, po przyjęciu następujących określeń: X - zbiór rozwiązań dopuszczalnych, F - funkcja kryterium, R - relacja dominowana. Optymalizacja wielokryterialna to uporządkowana trójka OW = (X, F, R) . Opis dominowania stanowi podstawę podejmowania decyzji. Istnieją trzy podstawowe sposoby postępowania aby ustalić konkretne relacje dominowania:
1) relacja R jest określona jako podzbiór iloczynu kartezjańskiego,
2) określenie funkcji dominowania- możliwe są różne formy dominacji,
3) określenie struktury dominowania.
MODEL OPTYMALIZACJI WIELOKRYTERIALNEJ
OPTYMALIZACJA WIELOKRYTERIALNA WG KONCEPCJI PARETO
Normalizacja cząstkowych funkcji celów
Skalaryzacja znormalizowanej funkcji celu z wykorzystaniem współczynników wagi
Określenie zbioru rozwiązań kompromisowych (pareto-optymalnych)
Określenie zbioru funkcji preferowanych
Wyznaczenie ze zbioru rozwiązań kompromisowych podzbioru rozwiązań preferowanych
Podjęcie decyzji o wyborze ze zbioru rozwiązań preferowanych najlepszego rozwiązania optymalnego, opierając się na preferencjach decydenta (decydentów)
NORMALIZACJA I SKALARYZACJA W OPTYMALIZACJI INŻYNIERSKIEJ KONSTRUKCJI
Normalizacja cząstkowych funkcji celów – stanowi konieczny zabieg w przypadku, gdy kryteria oceny konstrukcji są wyrażone w różnych jednostkach miary lub w sposób wyraźny różnią się skalą wartości. Ponieważ w zadaniach optymalizacji wielokryterialnej konstrukcji inżynierskich kryteria cząstkowe są z reguły nieporównywalne, normalizacja jest procedurą wręcz niezbędną. Przyjmując, że $f_{i}(\overset{\overline{}}{x})$ jset cząstkową funkcją celu, normalizację należy przeprowadzić z wykorzystaniem zależności:
$${\tilde{f}}_{i}\left( \overset{\overline{}}{x} \right) = \frac{f_{i}\left( \overset{\overline{}}{x} \right)}{\text{NORMA}}\text{\ lub\ \ }{\tilde{f}}_{i}\left( \overset{\overline{}}{x} \right) = \frac{f_{i}\left( \overset{\overline{}}{x} \right) - f_{\text{i\ min}}\left( \overset{\overline{}}{x} \right)}{\text{NORMA}}$$
Gdzie: $\overset{\overline{}}{x}$ – wektor zmiennych decyzyjnych, $f_{i}\left( \overset{\overline{}}{x} \right)$ – aktualna wartość cząstkowej funkcji celu, $f_{\text{i\ min}}\left( \overset{\overline{}}{x} \right)$ - minimalna wartość aktualnej cząstkowej funkcji celu, ${\tilde{f}}_{i}\left( \overset{\overline{}}{x} \right)$ - znormalizowana funkcja celu, NORMA – parametr określający sposób normalizacji funkcji celu.
Skalaryzacja wektorowej funkcji celu – jest postępowaniem korzystnym, prowadzącym do otrzymywania praktycznych rozwiązań zadań optymalizacji wielokryterialnej. Dzięki skalaryzacji możliwe jest sprowadzenie zadania wielokryterialnego do jednokryterialnego, z możliwością wykorzystania bogatej biblioteki znanych i sprawdzonych procedur optymalizacji skalarnej. Wykorzystuje zależności:
$$\tilde{f}\left( \overset{\overline{}}{x} \right) = \sum_{i = 1}^{q}{w_{i} \bullet}{\tilde{f}}_{i}\left( \overset{\overline{}}{x} \right),\ \ \ \ \ w_{i} \geq 0,\ \ \ \sum_{i = 1}^{q}{w_{i} = 1}$$
Gdzie: wi - współczynnik wagi danego kryterium cząstkowego, q - liczba kryteriów optymalizacyjnych
PODSTAWOWE ELEMENTY PROJEKTOWANIA OPTYMALNEGO
Podstawowe elementy projektowania optymalnego – aby rozwiązać zadany problem projektowy w sposób optymalny należy wyróżnić następujące elementy procesu (oprócz elementów klasycznego projektowania tj. konfrontacja, informacja, analiza, definicja, kreacja, synteza, modelowanie, optymalizacja, kontrola, ocena i decyzja):
- system wartości – to zbiór atrybutów i relacji pomiędzy nimi, służący do oceny stopnia zaspokojenia potrzeby realizowanej w danym procesie projektowania. System wartości polega także na analizie i syntezie,
- nadrzędne kryterium optymalizacyjne – stanowi niezmiennik procesu projektowania, uwzględniający cele i preferencje klienta, a także podstawę oceny jakości całego rozwiązania,
- kryteria zadaniowe – stanowią zbiór kryteriów stosowanych na poszczególnych etapach projektowania.
PORÓWNAĆ DEFINICJE S=(E,A,R) ORAZ OW=(X,F,R). OMÓWIĆ ELEMENTY DEFINICJI, UZASADNIĆ WNIOSKI
S = (E, A, R) def. systemu wg Czesława Cempla- „system jest to zbiór synergicznie współdziałających ze sobą elementów, mających pewne atrybuty (własności) znajdujących się w określonych relacjach stanowiący celowo zorientowaną całość”. System może składać się z n > 1 elementów (E = E1, …, En) które mogą mieć m ≥ n atrybutów (A = A1, …, Am), uczestniczących w r ≥ n − 1 relacjach (R = R1, …, Rr), przy czym r ≥ m ≥ n.
OW = (X, F, R) - zadanie optymalizacji wielokryterialnej, po przyjęciu następujących określeń: X - zbiór rozwiązań dopuszczalnych, F - funkcja kryterium, R - relacja dominowana. Optymalizacja wielokryterialna to uporządkowana trójka OW = (X, F, R). Opis dominowania stanowi podstawę podejmowania decyzji. Istnieją trzy podstawowe sposoby postępowania aby ustalić konkretne relacje dominowania:
1) relacja R jest określona jako podzbiór iloczynu kartezjańskiego,
2) określenie funkcji dominowania- możliwe są różne formy dominacji,
3) określenie struktury dominowania.