3) Eliminacja Gaussa Macierz A można przedstawić w postaci iloczynu macierzy dolnej i górnej: A = LU Metoda eliminacji Gaussa polega na wyzerowaniu elementów znajdujÄ…cych siÄ™ pod przekÄ…tnÄ…: a11 a12 ‹Ä… a1n îÅ‚ Å‚Å‚ ïÅ‚ a21 a22 ‹Ä… a2n śł ïÅ‚ śł A(0) = A = ïÅ‚ śł î" î" î" î" ïÅ‚ an1 an2 ‹Ä… ann śł ðÅ‚ ûÅ‚ Etapy metody: od wierszy 2, 3, ..., n odejmujemy wiersz przemnożony tak, by wyraz w pierwszej kolumnie byÅ‚ równy zero, przez: 1) ai(1 li1 = (1 a11) W efekcie otrzymujemy macierz: (1 (1 ( îÅ‚ Å‚Å‚ a11) a12) ‹Ä… a11) n ïÅ‚ (1 ( 0 a22) ‹Ä… an1) śł 2 ïÅ‚ śł A(1) = ïÅ‚ śł î" î" î" î" ïÅ‚ śł ( (1 0 an1) ‹Ä… ann) ûÅ‚ ïÅ‚ śł ðÅ‚ 2 postÄ™pujemy tak samo zerujÄ…c elementy pod przekÄ…tnÄ… w drugiej kolumnie macierzy A(1): 1 ai(2) li2 = (1 a22) aż do uzyskania macierzy A(n-1), która jest wyznaczanÄ… macierzÄ… trójkÄ…tnÄ… górnÄ… U: (n- (n- (n- îÅ‚ Å‚Å‚ a11 1) a12 1) ‹Ä… a1n 1) ïÅ‚ (n ( 0 a22- 1) ‹Ä… ann- 1) śł 2 ïÅ‚ śł U = A(n- 1) = ïÅ‚ śł î" î" î" î" ïÅ‚ śł (n 0 0 ‹Ä… ann- 1) ûÅ‚ ïÅ‚ śł ðÅ‚ MacierzÄ… dolnÄ… trójkÄ…tnÄ… L jest macierzÄ… współczynników lij, przez które mnożone byÅ‚y wiersze w czasie eliminacji (na przekÄ…tnej umieszczamy jedynki). Elementem podstawowym nazywamy ten element macierzy, za pomocÄ… którego eliminowane sÄ… dalsze elementy w danej kolumnie. Do tego celu wykorzystywaliÅ›my elementy leżące na przekÄ…tnej. Gdyby element podstawowy byÅ‚ równy zero, to przeprowadzenie eliminacji byÅ‚oby niemożliwe. Aby tego uniknąć stosuje siÄ™ wybór elementu podstawowego (pivoting). Przed wykonaniem kroku eliminacji majÄ…cego na celu eliminacjÄ™ elementów znajdujÄ…cych siÄ™ w j- tej kolumnie i wierszach i=j+1, ..., m zamieniamy wiersze tak, by j-tym elementem diagonalnym byÅ‚ element o najwiÄ™kszym module spoÅ›ród pozostaÅ‚ych (i=j+1 ...) elementów znajdujÄ…cych siÄ™ w j-tej kolumnie macierzy. 1 Wyznacznik obliczamy mnożąc przez siebie elementy na przekÄ…tnej diagonalnej. W przypadku pojawienia siÄ™ na przekÄ…tnej diagonalnej zera, zamieniamy wiersz gdzie wystÄ…piÅ‚o zero z wierszem, w którym jest najwiÄ™ksza wartość w tej kolumnie. Macierz P nazywamy macierzÄ… permutacji (nieosobliwa macierz zero-jedynkowa), dla której zachodzi zwiÄ…zek: P-1=P (zamiana wierszy jest symetryczna). RozkÅ‚ad LU można wykorzystać do rozwiÄ…zania ukÅ‚adu równaÅ„ liniowych postaci: Ax=b. Znamy rozkÅ‚ad macierzy A w postaci: A=PLU. Równanie przyjmuje wówczas postać: PLUx=b, która jest równoważna postaci: LUx=Pb (ponieważ P=P-1). W celu obliczenia x trzeba rozwiÄ…zać pomocniczy ukÅ‚ad równaÅ„: Ly=Pb, a wyznaczony wektor y wstawić do równania: Ux=y. RozwiÄ…zanie ukÅ‚adu Ly=c (c=Pb) równaÅ„ z macierzÄ… trójkÄ…tnÄ… dolnÄ… z jedynkami na przekÄ…tnej sprowadza siÄ™ do wyznaczenia kolejnych współrzÄ™dnych wektora y: RozkÅ‚ad i yi = ci - lik yk , i = 1, ..., n; " k = 1 Równania z macierzÄ… górnÄ… Ux=y: n ëÅ‚ öÅ‚ ìÅ‚ ci - uik xk ÷Å‚ " íÅ‚ k = i+ 1 Å‚Å‚ xi = , i = n, n - 1, ...,1 uii 4) RozkÅ‚ad Cholesky ego (zwany rozkÅ‚adem Banachiewicza) polega na zapisaniu macierzy A w postaci iloczynu RTR gdzie macierz R jest macierzÄ… trójkÄ…tnÄ… górnÄ…. ZakÅ‚adajÄ…c, że liczby na przekÄ…tnej macierzy R sÄ… dodatnie, (zaÅ› elementy pozadiagonalne niezbyt duże ) rozkÅ‚ad RTR można uzyskać dla dowolnej macierzy dodatnio okreÅ›lonej korzystajÄ…c z: i- 1 2 rii = aii - rik , dla i = 1, 2, ..., n; " k = 1 (a - rjk Å" rik ), dla j = i + 1, i + 2, ..., n ji rji = rii RozkÅ‚ad Cholesky ego realizuje w programie MATLAB funkcja chol. RozkÅ‚ad ten można stosować również w przypadku macierzy zespolonych. Każda macierz zespolona którÄ… podlega rozkÅ‚adowi Cholesky ego speÅ‚nia równanie A =A. 1) Aproksymacja jest to przybliżanie, zastÄ™powanie jednych wielkoÅ›ci drugimi. Aproksymacja może dotyczyć dowolnych wielkoÅ›ci matematycznych liczb, funkcji, krzywych, obszarów, wektorów, macierzy. ZastÄ™powanie danej wielkoÅ›ci innÄ… obarczone jest pewnym bÅ‚Ä™dem. Oszacowanie wielkoÅ›ci bÅ‚Ä™du pozwala na ocenÄ™, czy dane przybliżenie jest zadawalajÄ…ce, czy też nie. y = F(x) (xi, yi ) Niech poszukiwana jest krzywa dla zadanej liczby punktów: F(x) = c1 f1(x) + c2 f2(x) + ...+ cn fn(x) jest opisana równaniem: Aproksymacja stosowana jest wówczas, gdy ilość zadanych punktów m jest mniejsza od iloÅ›ci nieznanych współczynników n krzywej F(x). Zwykle nie można przeprowadzić krzywej przez wszystkie punkty. Poszukiwana jest wówczas najbliższa krzywa w sensie minimum kwadratu bÅ‚Ä™du. 2 Najbardziej podstawowÄ… i najprostszÄ… metodÄ… aproksymacji Å›redniokwadratowej jest f1(x) = x, f2(x) = 1 aproksymacja funkcjÄ… liniowÄ… czyli regresja liniowa. Wówczas: f (x) = 1 PozostaÅ‚e funkcje: j Dla kolejnych punktów otrzymujemy: Å„Å‚ x1 1 y1 îÅ‚ Å‚Å‚ îÅ‚ Å‚Å‚ ôÅ‚ c1x1 + c2 = y1 ïÅ‚ x2 1śł c1 ïÅ‚ y2 śł ôÅ‚ îÅ‚ Å‚Å‚ ïÅ‚ śł ïÅ‚ śł c1x2 + c2 = y2 lub = òÅ‚ ïÅ‚ ïÅ‚ śł ïÅ‚ śł î" c2 śł î" ðÅ‚ ûÅ‚ ôÅ‚ î" ïÅ‚ śł ïÅ‚ śł ôÅ‚ cnxm + c2 = ym ðÅ‚ xm 1ûÅ‚ ðÅ‚ ym ûÅ‚ ół co można zapisać w postaci macierzowej Ac=y. Równanie to dla m>n nie ma dokÅ‚adnego r = y rozwiÄ…zania, stÄ…d: - Ac , gdzie: r wektor pionowych odlegÅ‚oÅ›ci pomiÄ™dzy poszukiwanÄ… krzywÄ… a zadanymi punktami. Szukane jest takie rozwiÄ…zanie, dla którego: m ri2 lub macierzowo osiÄ…ga minimum. StÄ…d: " rTr i= 1 T rT r = ( y - Ac) ( y - Ac) = yT y - yT Ac - cT AT y + cT AT Ac = yT y - 2yT Ac + cT AT Ac d (rT r) = 0 - AT y + AT Ac = 0 Iloczyn ten osiÄ…gnie minimum jeÅ›li: dc stÄ…d: (AT A)c = AT y Powyższe równanie nazywane jest równaniem aproksymacji. Równanie aproksymacji (AT A)c = AT y jest prawdziwe dla dowolnej funkcji aproksymacji: f ( x) F(x) = c1 f1(x) + c2 f2(x) + ...+ cn fn (x) gdzie: cj - nieznane współczynniki, - funkcje j bazowe, zaÅ› macierze A, c i y: f1( x1) f2( x1) ‹Ä… fn(x1) c1 y1 îÅ‚ Å‚Å‚ îÅ‚ Å‚Å‚ îÅ‚ Å‚Å‚ ïÅ‚ ïÅ‚ śł f1( x2) f2( x2) ‹Ä… fn( x2)śł , c = ïÅ‚ c2 śł y2 ïÅ‚ śł ïÅ‚ śł ïÅ‚ śł A = , y = ïÅ‚ śł ïÅ‚ śł ïÅ‚ śł î" î" î" ïÅ‚ ïÅ‚ śł ïÅ‚ śł f1( xm) f2( xm) ‹Ä… fn(xm)śł cn ym ðÅ‚ ûÅ‚ ðÅ‚ ûÅ‚ ðÅ‚ ûÅ‚ Aproksymacja funkcjÄ… liniowÄ… może okazać siÄ™ nie wystarczajÄ…ca wówczas, gdy miÄ™dzy danymi wystÄ™puje bardziej zÅ‚ożona zależność. Stosuje siÄ™ wówczas zazwyczaj aproksymacjÄ™ W ( x) = ar xr + ar- 1xr- 1 + ...+ a1x + a0 wielomianem: 2) Interpolacja polega na poszukiwaniu funkcji pomiÄ™dzy znanymi punktami (podobnie jak aproksymacja). W odróżnieniu jednak od aproksymacji funkcja ta przechodzi przez te punkty. Jeżeli poszukiwana jest funkcja poza zakresem zadanych punktów mamy do czynienia z ekstrapolacjÄ…. Wybrane metody interpolacji: Pn- 1( x) = c1xn- 1 + c2xn- 2 + ‹Ä… + cn- 1x + cn a) interpolacja wielomianem: b) interpolacja wielomianem Lagrange a: n x - xk Pn- 1(x) = y1L1(x) + y2L2(x) + ‹Ä… + ynLn( x), gdzie Lj(x) = " xj - xk k = 1,k `" j 3 c) interpolacja wielomianem Newtona: Pn- 1(x) = c1 + c2( x - x1) + c3(x - x1)(c - x2) + ‹Ä… + cn( x - x1)( x - x2)ï"( x - xn) 4