Metody rozwiązań układów równań liniowych:
dokładne
eliminacyjne
met. Gaussa
met. Jordana
dekompozycyjne
met. Gaussa-Crouta
met. Gaussa- Dolittle'a
met. Cholewskiego
przybliżone
met. Iteracji prostej
met. Gaussa-Seidla
met. Nadrelaksacji
Met. Gaussa
I etap- eliminacji(Przekształcenie ukł. równań)
II etap - rekursja(krok wsteczny). Prowadzi do wyznaczenia niewiadomych.
Cechy:
Może się zdarzyć tak, że mimo iż det([A])≠0, że pewien dzielnik akk(k-1) będzie równy zero. Wtedy algorytm nie zadziała. Wówczas należy przestawić wiersze, aby na gł. Przekątnej….
jeżeli det A=0 to zamiana wierszy nie usunie dzielenia przez 0, jeżeli detA≠0 to zawsze istnieje taka kombinacja wierszy, że wyrazy na gł. Przekątnej będą różne od 0.
Jeżeli w miejsce elementów na gł. Przekątnej zapisać wielkość dzielników, któ®e stosowaliśmy akk(k-1) to można łatwo obliczyć wartość wyznacznika
Jeżeli macierz wsp. A jest dodatnia określona ……………..to wszystkie dzielniki dk są większe od zera i otrzymujemy algorytm bez przestawień wierszy
Łączna liczba oper. Potrzebna do rozw. układu równań stopnia n metodą Gaussa jest szacowna na n3
Odmianą met. Gaussa jest wariant z wyborem elementu głównego. Rozw. w tym wariancie polega na: przed przystąpieniem do eliminacji i-tego wiersza zamieniamy wiersze i kolumny dolnej podmacierzy tak, aby uzyskać maksymalny wyraz di na głównej przekątnej
Met. Dekompozycyjne polegają na takim przekształceniu ukł. równań, aby nabrał on postaci odpowiedniej do rozwiązania ukł. równań.
Tw.
Każdą nieosobliwą macierz kwadratową A o rozm. nxn można rozłożyć na iloczyn dwóch macierzy trójkątnych jeżeli wszystkie minory główne mac. A są różne od zera.
Rozkład można dokonać na n sposobów dobierając dowolnie n elementów na głównej przekątnej macierzy L lub mac. U
Met. Gaussa-Crouta
Jeżeli lkk=0 to stosujemy przestawianie wierszy. Jeżeli macierz jest dodatnio określona to mamy algorytm bez przestawiania wierszy.
Met. Gaussa-Dolittle'a
Jeżeli macierz wsp. jest dodatnio określona to można również tak: [A]=[L][D][L]T
Dla dodatnio określonych macierzy symetrycznych metoda Cholewskiego(Komputer długo oblicza bo pierwiastek liczy przez szeregi)
Met. Iteracyjne:
Met. Siedla
Met. Iteracji Gaussa
Met. Nadrelaksacji
Met. Iteracji Gaussa
Zakładamy dowolne wartości x1, x2, x3 i podstawiamy je po prawej stronie ukł. równ
Z tych równ. Wyznaczamy wart. x1, x2, x3 po lewej stronie
Te wartości ponownie podstawiamy do równań po prawej stronie
Proces ten kontynuujemy aż różnica między wartościami wyznaczonymi w iteracjach będzie mniejsza od założonego błędu ε
Uwagi:
Najważniejszą wadą jest to, że możliwość uzyskania rozwiązania, zależy od przyjętych na początku wartości x1, x2, x3, gdyż może się okazać, że proces iteracyjny jest słabo zbieżny lub w ogóle rozbieżny.
Zaletą jest prostota rozwiązania.
Met. Gaussa-Seidla:
zakł. Wartości x1, x2, x3
wstawiamy do pierwsz. Równania x2, x3 i wyznaczamy nową wartość x1
do drugiego równania wstawiamy nowe x1 i stare x3 i wyzna. Nową wart. x2
do 3 równania wstawiamy nowe wart. x1, x2 i wyznaczamy x3
Powtarzamy kroki 2, 3 i 4, aż do uzyskania rozwiązania.
Uwagi:
Proces jest zbieżny, gdy macierz współczynników jest symetryczna i dodatnio określona.
Met. Nadrelaksacji:
zakładamy dowolne wart x1, x2, x3
Z 1 równania obl. Poprawkę ∆x1, za nową wartość x1 przyjmujemy x1=x1+∆x1*w gdzie w- wsp. Nadrelaksacji
Z drugiego równ. wyzn. ∆x2 i przyjmujemy x2=x2+∆x2*w
Z 3 równania wyznaczamy x3 i przyjmujemy x3=x3+∆x3*w
Powtarzamy kroki 2, 3 i 4, aż max(│∆x1│, │∆x2│,│ ∆x3│)≤ ε
Uwaga:
Gdy macierz wsp. Jest symetryczna i dodatnio określona metoda nadrelaksacji jest zbieżna dla wsp. 0<w<2. Zazwyczaj stosuje się 1,2<w<1,5
Wadą metod iteracyjnych jest, że nie da się określić, która metoda jest lepsza i krótsza dla jakiego ukł.
Metody te są efektywne, gdy macierze są duże, ale wiele tych WSP. Jest równych lub też gdy macierz wsp. Jest rzadka tzn. występuje wiele wsp.=0
Ma niewątpliwie zalety w przypadku obliczeń ręcznych, bo jest nie wrażliwa na błędy w trakcie obliczeń. Popełnienie błędu rachunkowego przy obl. Wart. powoduje jedynie zwiększenie liczby iteracji a nie prowadzi do uzyskania błędnego rozw.
Unikamy zaokrągleń matematycznych związanych z przekształceniem układów równań.
Met. iteracyjne są szczególnie skuteczne w przypadku komputerów o małej pamięci.
Do innych met. iteracyjnych zaliczamy:
met. gradientów sprzężonych
met. Aitkina
Standaryzacja- przejście z jednej postaci do drugiej.
Tw1.
Dowolna macierz kwadratowa [A] stopnia n ma dokładnie n rzeczywistych bądź zespolonych wartości własnych.
Tw2.
Macierz [A] ma wtedy i tylko wtedy wartość własną λ=0, gdy jest macierzą osobliwą.
Def.
Niezerowy wektor {x}i spełniający związek [A]{x}i= λi{x}i, gdzie λi jest wartością własną macierzy [A] nazywamy wektorem własnym macierzy [A] odpowiadającym wart. wł. λi. Każdy wektor własny jest określony z dokładnością do stałej k, gdzie k jest dowolną liczbą różną od 0.
Zazwyczaj liczbę k dobiera się w sposób szczególny, a mianowicie tak, aby:
suma kwadratów składowych wektora {x}i była równa jedności
pierwsza składowa wektora {x}i była równa 1
największa składowa wektora {x}i była równa 1
suma modułów składowych wektora {x}i była równa 1
Wektor spełniający jeden z tych warunków nazywamy wektorem własnym znormalizowanym albo unormowanym.
Tw3.
Jeżeli wielomian charakteryst. mac. [A] ma n różnych pierwiastków (wart. własn.) to wektory własne mac. [A] odpowiadające parom różnych wart. własnych są liniowo niezależne.
Tw4.
Jeżeli wartościami własnymi nieosobliwej mac. [A] są liczby λi gdzie i=1,2,…,n to wartościami własnymi mac. odwrotnej są liczby λi-1 gdzie i-1,2,…,n.
Tw5.
Jeżeli wszystkie wartości własne mac. [A] są różne to istnieje przekształcenie przez podobieństwo [P]-1[A][P]=[Ω], gdzie [Ω]=diag{λ1,λ2,…,λn}.
Najczęściej stosowane metody:
met. Jacobiego
met. Givensa
met. wsp. do mac. trójdiagonalnej
met. Housenholdera(przekszt. ma. wsp. do mac. trójdiagonalnej, ale nie przy pomocy mac. obrotu)
metody LR i QR(znalezienie częstości oparte na kolejnych rozkładach mac. wsp. na mac. trójkątne)
met. potęgowa(służy do wyliczania tylko jednej wartości własnej, największej albo najmniejszej)
Interpolacja polega na znalezieniu takiego przepisu y=f(x), aby funkcja ta przechodziła przez wszystkie punkty (xi, yi) i aby można było obliczyć wszystkie wartości funkcji dla ximin≤x≤xjmax
Ekstrapolacja - jeżeli szukamy funkcji, która przechodzi przez wszystkie punkty (xi, yi) ale chcemy znać wartości funkcji poza przedziałem.
Def.
Aproksymacja jest to poszukiwanie jednej f-cji, która w przedziale (x1, xn) najlepiej przybliża wartości f-cji od y1 do yn.
Sposoby interpolacji:
interpolacja liniowa - poszukujemy interpolacji liniowe, która przechodzi przez p-kty (xi, yi)
interpolacja kwadratowa- Chcąc wyznaczyć wartość f-cji w dowolnym p-cie x wybieramy 3 najbliższe temu p-ktowi wartości xi-1,xi,xi+1, a następnie tak dobieramy wielomian II stopnia aby otrzymana f-cja przechodziła przez punkty yi-1, yi,yi+1.
Metoda kolokacji
Poszukujemy f-cji y=f(x) zadanej w nast. sposób. y=a1f1(x)+a2f2(x)+…+anfn(x)
gdzie f-cje: f1,f2,…,fn - są z góry założone tak, aby dobrze oddawały charakter opisywanej f-cji.
Kryteria aproksymacji:
Minimum sumy różnic: H=min∑∆yi
Minimum sum wartości bezwzględnych różnych H=min∑│∆yi │
Minimalizowanie maksymalnej różnicy H=min(max ∆yi)
Minimum sumy kwadratów(metoda najmniejszych kwadratów)
Analiza statystyczna błędu:
standardowy błąd przybliżenia
Błąd standardowy różnicy
Współczynnik korelacji
Dwa kryteria oceny:
Aby wynik aproksymacji można uznać za wiarygodny Sy/x<Sy