1 Regulatory klasyczne i cyfrowe
Regulatorem nazywa się urządzenie które wytwarza sygnał sterujący procesem technologicznym (obiektem sterowania) zapewniając przebieg procesu zgodny z pożądanym. W regulatorze następuje porównanie aktualnej wartości wielkości regulowanej z wartością zadaną (określenie uchybu regulacji) oraz wytworzenie sygnału sterującego o wartości zależnej od wartości uchybu, czasu jego występowania i prędkości zmian. Regulatory analogowe można podzielić według kilku kryteriów, jednak jednym z ważniejszych są własności dynamiczne regulatora, zgodnie z tym podziałem rozróżniamy:
- regulator typu P – proporcjonalny – stosowany w układach regulacji statycznej, jego sygnał wyjściowy u(t) jest proporcjonalny do wejściowego e(t) – uchybu regulacji: u(t)=kpe(t) G(s)=$\frac{U(s)}{E(s)}$=kp
- regulator typu I – całkujący – oddziałuje na układ głównie w zakresie małych pulsacji. Jego równanie i transmitancja:
u(t)= $\frac{1}{T_{i}}\int_{0}^{t}{e\left( \tau \right)\text{dτ}}$ G(s)=$\ \frac{k_{p}}{s}$=$\frac{1}{\text{sT}_{i}}$ Ti=$\frac{1\ }{k_{p}}$
- regulator typu PI – proporcjonalno-całkujący – w regulatorze tym sygnał wyjściowy jest proporcjonalny do sumy sygnału wejściowego i jego całki: u(t)=kp(e(t)+$\ \frac{1}{T_{i}}\int_{0}^{t}{e\left( \tau \right)\text{dτ}}$) G(s)=kp($\ 1 + \frac{1}{\text{sT}_{i}})$
Ti - czas zdwojenia regulatora
- regulator typu PD – proporcjonalno-różniczkujący – w regulatorze tym sygnał wyjściowy jest proporcjonalny do sumy sygnału wejściowego i jego pochodnej:
u(t)=kp(e(t)+$\ T_{d}\frac{de(t)}{\text{dt}}$) G(s)=kp( 1 + Tds) Td-czas wyprzedzenia
- regulator typu PID proporcjonalno-całkujaco-różniczkujący - u(t)=kp(e(t)+$\ \frac{1}{T_{i}}\int_{0}^{t}{e\left( \tau \right)\text{dτ}} + T_{d}\frac{de(t)}{\text{dt}}$)
Transmitancja idealnego regulatora PID: G(s)=kp($\ 1 + \frac{1}{\text{sT}_{i}} + T_{d}s)$
Mimo zalet złożonych algorytmów sterowania dostępnych dzięki technice cyfrowej, wciąż znajdują zastosowanie w/w klasyczne typy regulatorów zrealizowane w wersji dyskretnej. Otrzymuje się je w aproksymując ich równania wyrażeniami, w których całkowanie zastąpiono sumowaniem, a różniczkowanie różnicą I rzędu.
2 Regulatory stanu
Regulator stanu jest regulatorem proporcjonalnym wyprowadzonym w celu korekcji układu dyskretnego, w sprzężeniu zwrotnym do wektora stanu. Schemat blokowy układu sterowania z regulatorem stanu:
Przebieg sygnału sterującego:
x(k+1)=Ax+Bu(k)
u(k)=w(k)-Kx(k)
y(k)=Cx(k)
3 Charakterystyki statyczne (nieliniowe)
4 Linearyzacja
Gdy zakres zmienności sygnałów układu nieliniowego jest odpowiednio mała, układ pracuje w otoczeniu punktu pracy, może nim być na przykład punkt równowagi. Równania liniowe opisujące ten układ otrzymuje się równając równania nieliniowe w szereg potęgowy, w otoczeniu punktu pracy układu. Jeśli jednowymiarowy układ nieliniowy opisany jest równaniem różniczkowym o ogólnej postaci:
F(y,$\ \dot{y}$,…, y(n), u, $\dot{u}$,…, u(m))=0
a współrzędne punktu pracy wynoszą y0 i u0, to:
y=y0, ($\dot{y})$0=0, ($\ddot{y})$0=0, (y(n))0=0
u=u0, ($\dot{u})$0=0, ($\ddot{u})$0=0, (u(m))0=0
Rozwijając równanie w szereg Taylora otrzymujmy:
F(y,$\ \dot{y}$,…, y(n), u, $\dot{u}$,…, u(m))= F(y0, u0)+($\frac{\text{δF}}{\text{δy}})$0 y+ ($\frac{\text{δF}}{\delta\dot{y}})$0 $\dot{y}$+($\frac{\text{δF}}{\delta\ddot{y}})$0 $\ddot{y}$+…+($\frac{\text{δF}}{\delta y^{(n)}})$0 y(n)+ ($\frac{\text{δF}}{\text{δu}})$0 u+ ($\frac{\text{δF}}{\delta\dot{u}})$0 $\dot{u}$+($\frac{\text{δF}}{\delta\ddot{u}})$0 $\ddot{u}$+…+($\frac{\text{δF}}{\delta u^{(m)}})$0 u(m)+R
($\frac{\text{δF}}{\text{δy}})$0 – pochodne cząstkowe w punkcie pracy
y, u,… - przyrosty sygnałów i ich pochodnych względem czasu
Interpretacja geometryczna linearyzacji funkcji jednej zmiennej:
Jeżeli odchylenia wartości sygnałów od punktu pracy są znaczne, lepsze wyniki daje linearyzacja metodą najmniejszych kwadratów. Linearyzacja tą metodą jest możliwa, gdy układ nieliniowy posiada wydzieloną część statyczną f(e) i liniową część dynamiczną G(s), jak na rysunku:
Idea tej metody jest podobna, oto jej interpretacja graficzna:
5 Płaszczyzna fazowa
Płaszczyzna fazowa jest płaszczyzną, której współrzędnymi są zmienne fazowe. Zmienne te są kolejnymi pochodnymi względem czasu pierwszej zmiennej, którą najczęściej jest zmienna wyjściowa układu. Z racji iż, graficzne zobrazowanie zmiany stanów jest możliwe tylko na płaszczyźnie, metoda ta naturalnie ma zastosowanie tylko do układów I i II rzędu. Zaletą metody płaszczyzny fazowej jest to, że pozwala w przejrzysty sposób analizować właściwości dynamiczne układu nieliniowego, w tym:
- wyznaczać przebiegi przejściowe
- badać stabilność
- stwierdzić występowanie i określić parametry cyklu ograniczonego
- wyodrębnić różne zakresy działania nieliniowości
Jako układ współrzędnych płaszczyzny fazowej najczęściej przyjmuje się układ ($\dot{e},\ e$) lub ($\dot{y},\ y$), gdzie e jest uchybem regulacji, a y wielkością wyjściową. Trajektoria fazowa wychodzi z punktu określonego przez warunki początkowe i zdąża do:
- punktu równowagi
- nieskończoności
- krzywej zamkniętej, zwanej cyklem zamkniętym
Przykładowy portret fazowej siodła:
6 Stabilność układów nieliniowych (zadanie I i II rzędu Lapunowa ocena czy układ jest stabilny)
Na stabilność układów nieliniowych wpływają nie tylko parametry układu, lecz także warunki początkowe i wymuszenia zewnętrzne. Uwzględniając tą ostatnią zależność wyprowadzono podział układów na autonomiczne i nieautonomiczne, czyli niepodlegające i podlegające zmiennym w czasie oddziaływaniom zewnętrznym. Jeżeli dla dowolnych wartości początkowych i czasu t ∞ odpowiedź układu zdąża do stanu równowagi to układ jest stabilny asymptotycznie, jeżeli w układzie pojawia się stabilny cykl graniczny, to jest stabilny nieasymptotycznie. Układ nieautonomiczny może być stabilny totalnie jeżeli dla każdego ograniczonego sygnału wejściowego sygnał wyjściowy również jest ograniczony. Pierwsza metoda Lapunowa polega na linearyzacji układu nieliniowego w otoczeniu punktu równowagi, poprzez rozwinięcie opisujących go równań różniczkowych w szereg Taylora:
Fi(x1, x2,…, xn)=fi(0,0,…,0)+ai1x1+ ai2x2+…+ ainxn+Ri(x1, x2,…, xn)
i doprowadzenie ich aproksymacji liniowej do postaci:
$\dot{x}$1=a11x1+ a12x2+…+ a1nxn
$\dot{x}$2=a21x1+ a22x2+…+ a2nxn
$\dot{x}$3=an1x1+ an2x2+…+ annxn
Wnioski płynące z tej metody sformułować można następująco:
- Układ nieliniowy, opisany równaniami różniczkowymi jest stabilny asymptotycznie w otoczeniu punktu równowagi, jeżeli układ zlinearyzowany też jest stabilny asymptotycznie
- Jeżeli układ zlinearyzowany jest niestabilny to układ nieliniowy jest również niestabilny
- Gdy układ zlinearyzowany jest na granicy stabilności to układ nieliniowy może być zarówno stabilny jak i niestabilny
Druga metoda Lapunowa pozwala badać stabilność układów nieliniowych bez znajomości ich rozwiązań. Stanowi ona uogólnienie idei, że gdy układ ma stabilny asymptotycznie punkt równowagi, wówczas zmagazynowana w układzie energia maleje ze wzrostem czasu, aż osiąga wartość minimalną w stanie równowagi. Funkcja Lapunowa: V(x)=x12 + x22 fikcyjna energia układu
7 Korekcja w układach przekaźnikowych
Korelacje można wprowadzać do układów regulacji szeregowo lub w pętli sprzężenia zwrotnego. Na przykład włączając człon proporcjonalno-różniczkujący PD szeregowo przed przekaźnik dwupołożeniowy można uzyskać wzrost częstotliwości przełączeń, a zatem zmniejszenie amplitudy oscylacji. W układach regulacji dwupołożeniowej korelacje przeprowadza się także za pośrednictwem ujemnego, tachometrycznego sprzężenia zwrotnego. Skutkiem jego zastosowania jest pochylenie linii przełączeń w lewo, co skutkuje przyspieszeniem przełączenia przekaźnika. Schemat ukłonu regulacji dwupołożeniowej z tachometrycznym sprzężeniem zwrotnym:
8 Procesy stochastyczne (opis)
Proces stochastyczny jest funkcją losową X(t) jednego argumentu, którym jest czas t. Dla każdej wybranej chwili czasowej t funkcja X(t) jest zmienną losową. Proces stochastyczny X(t) stanowi zbiór funkcji losowych zwanych realizacjami, każdą z nich oznacza się jako x(t) i nazywa sygnałem losowym. Procesy stochastyczne dzieli się na cztery klasy:
- procesy dyskretne z czasem dyskretnym
- procesy ciągłe z czasem dyskretnym
- procesy dyskretne z czasem ciągłym
- procesy ciągłe z czasem ciągłym
Pierwsze dwie klasy to tzw. ciągi losowe, natomiast ostatnie to procesy stochastyczne właściwe. W układach automatycznego sterowania najczęściej występują ciągłe procesy stochastyczne z czasem dyskretnym lub ciągłym. Do podstawowych problemów rozwiązywanych przez stochastyczną teorię sterowania należą:
- wyznaczanie probabilistycznych charakterystyk procesów w układach sterowania z wymuszeniem stochastycznym
- wyznaczenie wartości parametrów regulatora z warunku ekstremalizacji przyjętego wskaźnika jakości
- określenie struktury regulatora z warunku ekstremalizacji przyjętego wskaźnika jakości
9 Optymalizacja (opis)
Problem optymalizacji pojawia się wówczas, gdy dane zagadnienie można rozwiązać wieloma, a co najmniej dwoma różnymi sposobami. Konieczne było poszukiwanie metod matematycznych, które pozwoliły by na opracowanie najlepszych –optymalnych- strategii sterowania. Zadnia optymalizacji dzieli się na dwie klasy:
- optymalizację statyczną
- optymalizację dynamiczną
Optymalizacja statyczna sprowadza się do poszukiwania ekstremum funkcji, natomiast dynamiczna do poszukiwania ekstremum funkcjonału. Optymalizacja statyczna polega na wyznaczeniu optymalnych rozwiązań zadań których parametry są niezmienne w czasie, za pomocą metod analitycznych – dla prostych przypadków, oraz odpowiednich metod numerycznych – dla rzeczywistych zadań zawierających wiele zmiennych, ograniczeń i złożony wskaźnik jakości. Zwana jest również programowaniem matematycznym i w ogólnym przypadku sprowadza się do znalezienia zmiennych x1, x2,…, xn, które ekstremalizują zadany wskaźnik jakości, będący funkcją skalarną o postaci:
J=f(x1, x2,…, xn)
przy czym zmienne x1, x2,…, xn spełniają ograniczenia typu równościowego lub nierównościowego
gi(x1, x2,…, xn)$\left\{ \frac{\frac{\leq}{=}}{\geq} \right\}$b dla i=1, 2,…, m
Optymalizacja dynamiczna dotyczy rozwiązywania problemów sterowania układami dynamicznymi. Polega na znalezieniu takiego sterowania u€U (U jest zbiorem sterowań dopuszczalnych) które przeprowadza układ ze stanu początkowego x0 do zbioru docelowego S, minimalizując wskaźnik jedności J(x, u). Wskaźnik ten jest funkcjonałem, czyli takim przyporządkowaniem, którego argumentem jest funkcja, a wynikiem liczba. Najczęściej stosowane metody rozwiązywania zadań optymalizacji dynamicznej:
- metoda rachunku wariacyjnego
- zasada maksimum Pontiagina
- programowanie dynamiczne Bellmana