GEOMETRIA ANALITYCZNA – UKŁADY WSPÓŁRZĘDNYCH ORAZ KRZYWE STOŻKOWE
1. Układy kartezjańskie prosto- i ukośnokątny
Układem współrzędnych kartezjańskich nazywa się układ
współrzędnych, w którym zadane są:
• punkt zwany początkiem układu współrzędnych, którego
wszystkie współrzędne są równe zeru, często oznaczany literą O
lub cyfrą 0
• zestaw n parami prostopadłych osi liczbowych zwanych osiami układu współrzędnych. Dwie pierwsze osie
często oznaczane są jako:
• (pierwsza oś, zwana osią odciętych),
• (druga, zwana osią rzędnych),
Liczba osi układu współrzędnych wyznacza tzw. wymiar przestrzeni.
2. Układ biegunowy
Każdemu punktowi P płaszczyzny przypisujemy jego współrzędne
biegunowe jak następuje[1]:
• promień wodzący punktu P to jego odległość |OP| od bieguna
• amplituda punktu P to wartość kąta skierowanego pomiędzy półprostą
OS a wektorem
Dla jednoznaczności przyjmuje się, że 0 ≤ φ < 2 wspołrzędne bieguna O są równe
O amplitudzie możemy zakładać, że (niektórzy autorzy przyjmują −π < φ < 2 ).
3. Stożkowe: definicje (płaska i przestrzenna), równania w układach ortokartezjańskim Oxy (w tym także zapis macierzowy) i biegunowym Orθ
Krzywe stożkowe- krzywe wzdłuż których płaszczyzna przecina stożek kołowy płaski biegunowe
Gdzie: r(φ) – współrzędne, e - mimosrod krzywej decydujący o kształcie: e ∈ (0:1) − elipsa, e = 0 − okrag,
e = 1 − parabola, e > 1 − hiperbola
GEOMETRIA ANALITYCZNA – WEKTOR, PROSTA, PŁASZCZYZNA
4. Wektory zaczepione i swobodne (geometryczny, euklidesowy, kartezjański)
A)euklidesowy
- dowolne odcinki (kierunek i moduł) z
wyróżnioną kolejnością punktów końcowych (zwrot), takie wektory nazywa się wektorami zaczepionymi
- sam kierunek wraz ze zwrotem oraz modułem, przy czym punkt początkowy (zaczepienia) nie jest istotny,
wtedy mówi się o wektorach swobodnych
B)kartezjański
- Wektor zaczepiony określony jest przez
współrzędne jego punktu końcowego, gdyż jego punkt początkowy zawsze jest początkiem układu
-wektor swobodny to wektor, który ma określony punkt początku i końca
5. Iloczyn skalarny wektorów dwuwymiarowych (geometrycznie i algebraicznie)oraz
6. Iloczyn skalarny wektorów n-wymiarowych
Iloczyn skalarny - Geometrycznie iloczyn skalarny $\overrightarrow{\mathbf{a}}\mathbf{\circ}\overrightarrow{\mathbf{b}}$ wyraża się jako długość rzutu prostokątnego jednego wektora na drugi. Iloczyn skalarny wektorów $\overrightarrow{\mathbf{a}}$ i $\overrightarrow{\mathbf{b}}$ definiuje się jako:
$\overrightarrow{\mathbf{a}}\mathbf{\circ}\overrightarrow{\mathbf{b}}\mathbf{=}\left| \left| \mathbf{a} \right|\left| \mathbf{b} \right| \right|\mathbf{\cos}\mathbf{(}\mathbf{\gamma}\mathbf{)}$, podczas gdy algebraicznie iloczyn skalarny wyraża się jako suma iloczynów odpowiednich współrzędnych obu wektorów. Czyli:
$$\overrightarrow{\mathbf{a}}\mathbf{\circ}\overrightarrow{\mathbf{b}}\mathbf{=}\sum_{\mathbf{i}\mathbf{=}\mathbf{1}}^{\mathbf{n}}{\mathbf{a}_{\mathbf{i}}\mathbf{b}_{\mathbf{i}}}$$
n=2 dla płaszczyzny, n=3 dla przestrzeni
*** gdzie γ jest rozwartością kąta między $\overrightarrow{\mathbf{a}}$ oraz $\overrightarrow{\mathbf{b}}$.
Moduł z $\overrightarrow{v}$ wyznacza normę $\left| v \right| = \sqrt{v_{1}^{2} + \ldots + v_{n}^{2}}$,czyli długość wektora
7. Równania prostej na płaszczyźnie (kierunkowe, ogólne, odcinkowe, parametryczne)
równanie ogólne Ax+By+C=0 – równanie prostej prostopadłej do wektora o współrzędnych $\overrightarrow{v} = \lbrack A,B,C\rbrack$
równanie kierunkowe y=ax+b – równanie prostej o współczynniku kierunkowym a równym tangensowi kata nachylenia
równanie parametryczne $\left\{ \begin{matrix} \mathbf{x}\mathbf{=}\mathbf{x}_{\mathbf{a}}\mathbf{+}\mathbf{t}\mathbf{u}_{\mathbf{1}} \\ \mathbf{y}\mathbf{=}\mathbf{y}_{\mathbf{a}}\mathbf{+}\mathbf{t}\mathbf{u}_{\mathbf{2}} \\ \end{matrix} \right.\ $, względem parametru t – równanie prostej równoległej do wektora $\overrightarrow{s} = \lbrack u_{1},u_{2}\rbrack$ i przechodzi przez punkt A = (xa, ya)
równanie odcinkowe $\frac{\mathbf{x}}{\mathbf{a}}\mathbf{+}\frac{\mathbf{y}}{\mathbf{b}}\mathbf{=}\mathbf{1}$ – prosta ta odcina na osiach odcinki (od punktu (0,0) do punktu przecięcia się wykresu z osią) na osiach odpowiednio na osi OX – o długości a i na osi OY długości b, przy czym jeśli prosta przecina oś „na minusie” to umownie przyjmuje sie długość z minusem – bo długość nie może być ujemna.
8. Równania prostej i płaszczyzny w przestrzeni R 3 wyposażonej w układ Oxyz
Równania prostej w przestrzeni trójwymiarowej (dla przestrzeni trójwymiarowej, bierzemy n=3):
równanie parametryczne
równanie ogólne
Równania płaszczyzny w przestrzeni trójwymiarowej:
równanie ogólne: Ax + By + Cz + D = 0
ALGEBRA LINIOWA – MACIERZE
9. Określenie macierzy dowolnej oraz – przykładowo – macierzy kwadratowej, diagonalnej, górnotrójkątnej, permutacyjnej, elementarnej (w tym, np., przestawiającej wiersze)
Macierz: układ liczb, symboli lub wyrażeń zapisanych w postaci prostokątnej tablicy
Macierz kwadratowa to macierz w której liczba kolumn jest równa liczbie wierszy
Macierz diagonalna: macierz, zwykle kwadratowa, której wszystkie współczynniki leżące poza główną
przekątną (główną diagonalą) są zerowe. Inaczej mówiąc jest to macierz górno- i dolnotrojkątna jednocześnie.
Macierz górnotrójkątna: to macierz kwadratowa, której wszystkie współczynniki pod główną przekątną
są równe zero. Należy zauważyć, że kwadratowa macierz schodkowa jest zawsze
macierzą trójkątną.
Macierz permutacyjna: to macierz która zamienia kolumny lub wiersze macierzy przez która jest mnożona
Macierz elementarna: to macierz jednostkowa na której wykonano operacje elementarną (permutacyjna, sumująca, skalująca). Macierze elementarne działają albo tylko na wiersze, albo tylko na kolumny: W • A • K, co oznacza że jeśli macierz elementarna stoi w iloczynie po lewej stronie macierzy A, którą chcemy pomnożyć, to macierz elementarna będzie działać tylko na wiersze, w drugim przypadku – gdy macierz elementarna jest położona po prawej stronie macierzy mnożonej A, to macierz elementarna działa tylko na kolumny.
10. Algebra macierzy: transponowanie, skalowanie, dodawanie, odejmowanie, mnożenie w sensie Cauchy’ego
Transponowanie macierzy to zabieg przestawiania wierszy i kolumn w macierzy (wg. Marleya operacja przyporządkowująca macierzy macierz transponowaną LOL)
Skalowanie
Dodawanie: Suma macierzy jest wykonalna dla macierzy o tych samych wymiarach. Aby dodać dwie macierze, dodajemy do siebie elementy o tych samych współrzędnych.
Odejmowanie: Różnica macierzy jest wykonalna dla macierzy o tych samych wymiarach. Aby odjąć dwie macierze, odejmujemy od siebie elementy o tych samych współrzędnych.
Mnożenie: liczba kolumna macierzy a jest równa liczbie wierszy macierzy b.
$$c_{\text{ij}} = \sum_{r = 1}^{m}{a_{\text{ir}}b_{\text{rj}} = a_{i,1}b_{1,j} + \ldots + a_{i,m}b_{m,j}}$$
11. Wyznacznik macierzy – definicja kombinatoryczna, rozwinięcie Laplace’a, własności wyznacznika
Wyznacznikiem macierzy a nazywamy liczbę
$$\text{detM} = \sum_{\text{σϵ}S_{n}}^{}{{( - 1)}^{\text{Inv}(\sigma)}a_{1\sigma(1)} \cdot a_{2\sigma\left( 2 \right)} \cdot \ldots \cdot a_{\text{nσ}(n)}}$$
gdzie sumowanie obejmuje wszystkie n! permutacji zbioru {1, 2, …,n}, σ (sigma) (u Marleya p) oznacza permutacje zbioru {1, 2, …, n}, inv(σ) [u Marleya inv(p)] znak permutacji sigma (u Marleya p)
Własności wyznaczników:
a)det(aT)=det(a)
b)wyznacznik jest =0, jeśli jakakolwiek kolumna lub wiersz jest =0
c)wyznacznik macierzy górno- lub dolno- trójkątnej jest równy iloczynowy
jej elementów diagonalnych
d)pomnożenie kolumny lub wiersza przez R zmienia wyznacznik:
R • det(a)
e)zamiana kolejności kolumn/wiersza
nie zmienia wartości wyznacznika
f) dodatnie kolumny/wiersza, pomnożonej przez skalar, do innej
kolumny/wiersza nie wpływa na wyznacznik
Rozwinięcie Laplace'a
Istnieje jeszcze jeden (równoważny) sposób wprowadzenia pojęcia wyznacznika (zob. definicja permutacyjna
poniżej), jednak tak wprowadzona definicja (tzw. definicja rekurencyjna wyznacznika) ukazuje efektywną metodę
obliczania wyznaczników macierzy kwadratowych wyższych stopni. W szczególności, prawdziwe jest następujące
Twierdzenie Laplace'a:
Jeżeli M jest macierzą taką jak wyżej oraz jest liczbą naturalną nie większą niż, to zachodzą równości
(rozwinięcie wyznacznika względem i-tego wiersza)
oraz
(rozwinięcie wyznacznika względem i-tej kolumny).
12. Iloczyn wektorowy wektorów (geometryczny i algebraiczny)
Skalarne rozpisanie wektora
wynikiem jest wektor uzyskany przez a × b, który:
$$\overrightarrow{c} = \overrightarrow{a} \times \overrightarrow{b} = \left| \overrightarrow{a} \right| \bullet \left| \overrightarrow{b} \right| \bullet \sin\theta = a \bullet b \bullet \sin\theta$$
13. Iloczyn mieszany wektorów (geometryczny i algebraiczny)
Długość iloczynu wektorowego wektorów α i β , to z określenia pole powierzchni równoległoboku o bokach będących tymi wektorami. Z pomocą iloczynu wektorowego definiuje się iloczyn mieszany trojki wektorów α, β, γ wzorem
W szczególności zachodzi wzór:
Iloczyn mieszany trojki wektorów jest równy objętości równoległościanu o bokach będących danymi wektorami
14. Macierz odwrotne (definicja i obliczanie)
Niech A będzie macierzą kwadratową ustalonego stopnia. Macierz A jest odwracalna, jeśli istnieje taka macierz B, że zachodzi AB = BA = I, Gdzie I jest macierzą jednostkową.
Metody obliczania macierzy algrbraicznych:
Metoda eliminacji Gaussa
Wykonujemy operacje elementarne na wierszach doprowadzając macierz A do postać jednostkowej wówczas po drugiej stronie otrzymujemy macierz odwrotną
Mając macierz:
$$\begin{bmatrix}
0 & 1 & 1 \\
- 2 & 1 & 0 \\
3 & 1 & - 1 \\
\end{bmatrix}$$
na końcu po zamiany wiersza 1 z 2 otrzymujemy po drugiej stronie macierz odwrotną:
$$A^{- 1} = \frac{1}{7}\begin{bmatrix}
1 & - 2 & 1 \\
2 & 3 & 2 \\
5 & - 3 & - 2 \\
\end{bmatrix} = \begin{bmatrix}
\frac{1}{7} & - \frac{2}{7} & \frac{1}{7} \\
\frac{2}{7} & \frac{3}{7} & \frac{2}{7} \\
\frac{5}{7} & - \frac{3}{7} & - \frac{2}{7} \\
\end{bmatrix}\backslash n$$
Ural – a • x = b gdzie b- wektor wyrazów wolnych x-wektor niewiadomych a-macierz jedno rozwiązanie, gdy A≠0 nieskończenie wiele gdy a=b=0 sprzeczne a=0 b≠0
Wzór prosty A • x = B x = A−1 * B
Wzory Cramera – stosuje je się gdy układ ma tylko jedno (wyznacznik ogólny jest różny od zera) rozwiązanie i każda k-ta współrzędna tego rozwiązania wyraża się wzorem:
$$x_{k} = \frac{\text{de}\operatorname{t}\left( \text{Ak} \right)}{\text{de}\operatorname{t}\left( A \right)}$$
Metoda Eliminacji Gaussa wykonujemy n-1 pivotów dolnych tak żeby doprowadzić do powstania macierzy górnotrójkątnej potem od dołu rozwiązujemy równania (ostatnie powinno wyglądać ax = wynik) każdy uzyskany wynik z niższego równania podstawiamy do wyższego itp. Itd.
16. Kolokacje Stevina i Lagrange’a
Przede wszystkim aby poprowadzić przez dane n punktów na płaszczyźnie krzywą reprezentująca wielomian którego stopień (najwyższy stopień potęgi zmiennej) ma być jak mniejszy należy znaleźć tzw. wielomiany kolokacyjne, spełniające te warunki.
Wielomian kolokacyjnych Stevina
f : xf0 + f1x - funkcja liniowa
f0, f1 - ustalone liczby rzeczywiste
Dziedzina – cała prosta rzeczywista – D = {R}
x0, x1 – dowolne liczby rzeczywiste
f(x)=f0 + f1x = (f(x0)l0 + f(x1)l1)(x)
$l_{0}:\frac{x\left( x - x_{1} \right)}{\left( x_{0} - x_{1} \right)},$ l1 : x(x − x0)/(x1 − x0)
Jezeli f(x)=fjxj to f(x) - postać Stevina wielomianu f.
Zadanie wyznaczenia wielomianu stevinowskiego w, dla którego najmniejszą wartość przyjmuje odchylenie Q (tzn. najmniejszą wartość przyjmuje wyrażenie K), nazywa się zadaniem aproksymacji średniokwadratowej (rozkładu) punktów P wielomianem w.
Rozwiązanie tego zadania polega na wyznaczeniu wektora c współczynników poszukiwanego wielomianu.
Pokazuje się, że wektor c współczynników poszukiwanego wielomianu jest rozwiązaniem następującego układu rozwiązującego:
Mc = w,
gdzie M : = VTV jest macierzą układu rozwiązującego,
w : = VTr jest wektorem wyrazów wolnych tego układu,
V : = [ akj1 ] (k = 1, 2, ..., n; j = 1, 2, ..., m) oznacza (n×m)-macierz Vandermonde’a
(jej element w k-tym wierszu i j-tej kolumnie jest równy akj1).
Wielomian kolokacyjny Lagrange’a to wielomian kolokacyjny zapisany w bazie Lagrange’a, bazie lagranżanowskiej. k-tym element tej bazy, a więc k-tym wielomian bazowy Lagrange’a (mówi się także: k-ty mały wielomian Lagrange’a) jest zdefiniowany wzorem
bn,k(x) := = =
= ,
k ∈ {0, 1, 2, ..., n}.
17. Rząd macierzy
Rząd macierzy jest to największy możliwy wymiar niezerowego minora danej macierzy. Oznaczamy go jako:
Rank(A), rg(A), r(A)
Załóżmy, że macierz A jest macierzą m × n, wówczas rg(A)< = min(m,n)cn − 1λn − 1
18. Twierdzenie Kroneckera-Capelliego
Jeśli elementy macierzy A i wektora b należą do nieskończonego ciała liczbowego (np. do jednego z klasycznych ciał liczbowych: Q, R, C), to w tym ciele ural Ax=b jest zgodny wtedy i tylko wtedy, gdy rank(A)=rank([A|b])
Tzn. są sobie równe rzędy macierzy i macierzy rozszerzonej. Co więcej, układ ten ma dokładnie jedno rozwiązanie tylko wówczas, gdy rząd jest równy liczbie równań układu.
19. Liniowa niezależność wektorów i jej sprawdzanie
Wektory v1, …, vk ∈ A nazywamy liniowo niezależnymi wtedy i tylko wtedy z definicji, gdy dla α1, …, αk ∈ F, z tego, że α1 ⋅ v1 + … + αk ⋅ vk = 0 wynika, że α1 = α2 = …αk = 0
20. Elementarna równoważność macierzy (B = WAK)
macierze A i B są elem równoważne jeżeli istnieje taki iloczyn W K, że B=W*A*K
(czym są wielomiany W,K - odwołanie do pkt 9)
21. Podobieństwo macierzy (B = P–1AP) i podobieństwo ortogonalne (B = PTAP)
Macierz A jest podobna do macierzy B jeżeli istnieje tak macierz nieosobliwa (niezerowa) P, ze B = P−1 * a * P jeżeli P realizuje podobieństwo B do A to P_1 realizuje A do B w klasie macierzy tego samego stopnia podobieństwo jest relacją równoważności det(P−1 * A * P)=det(P) Macierze podobne mają takie same wielomiany
Charakterystyczne.
22. Wielomian charakterystyczny macierzy, jej wartości własne i wektory własne oraz Twierdzenie. o wielomianie charakterystycznym macierzy podobnych (z dowodem)
Wielomian charakterystyczny macierzy A to wyznacznik macierzy (A − λI), a więc musimy policzyć:
23. Diagonalizacja macierzy o pełnym widmie (z uzasadnieniem)
Diagonalizacja to rozkład macierzy polegający na rozbiciu macierzy kwadratowej A ∈ Mk(K)na iloczyn macierzy:P, ,P−1 ∈ Mk(K)
A = PP−1
Gdzie jest macierzą diagonalną, P, P−1są nazywane macierzami przejścia.
Współczynniki na głównej przekątnej macierzy diagonalnej Δ są równe kolejnym wartościom własnym macierzy A, z kolei kolumny macierzy P stanowią kolejne wektory własne macierzy A.
χa(λ)=det(A-λ)=( − 1)n(λn + cn − 1λn − 1 + … + c1λ + c0) gdzie $c_{0} - \text{de}\operatorname{t}\left( A \right)c_{1} - \text{tr}\left( A \right) = \sum_{j = 1}^{n}a_{\text{jj}}$
Macierze kwadratowe, które można przedstawić w postaci diagonalnej, nazywamy diagonalizowalnymi.
24. Twierdzenie Cayleya-Hamiltona i obliczanie potęgi Am
Dokładniej; jeżeli A jest macierzą n×n oraz In jest macierzą identycznościową n×n to wielomian charakterystyczny A jest zdefiniowany jako:
w(λ) = det(λIn − A)
gdzie "det" oznacza wyznacznik.
Twierdzenie Cayleya–Hamiltona mówi, że podstawienie A do wielomianu charakterystycznego daje w rezultacie macierz złożoną z samych zer:
w(A) = 0n
ANALIZA MATEMATYCZNA
25. Ciąg liczbowy, jego typy (monotoniczny, rosnący, ograniczony itp.)
Ciąg, którego elementami są liczby. Typy:
A)Ciągi spełniające przynajmniej jeden z tych warunków nazywamy ciągami monotonicznymi:
Ciąg nazywamy ciągiem rosnącym, jeżeli dla każdej liczby naturalnej n prawdziwa jest nierówność an + 1 > an
Ciąg nazywamy ciągiem malejącym, jeżeli dla każdej liczby naturalnej n prawdziwa jest nierówność an + 1 < an
Ciąg nazywamy ciągiem nierosnącym, jeżeli dla każdej liczby naturalnej n prawdziwa jest nierówność an + 1 ≤ an
Ciąg nazywamy ciągiem niemalejącym, jeżeli dla każdej liczby naturalnej n prawdziwa jest nierówność an + 1 ≥ an
Ciąg nazywamy ciągiem stałym, jeżeli wszystkie wyrazy tego ciągu są równe.
B) Ciąg ograniczony to ciąg, którego wszystkie wyrazy należą do pewnego przedziału skończonego.
Ciąg nazwiemy ograniczonym z góry jeżeli wszystkie jego wyrazy są mniejsze od pewnej ustalonej liczby. Analogicznie: ciąg jest ograniczony z dołu jeżeli wszystkie wyrazy są większe od pewnej ustalonej liczby. Zatem, ciąg jest ograniczony tylko wtedy, gdy jest jednocześnie ograniczony z góry i z dołu.
26. Granice ciągu właściwe i niewłaściwe (w tym rozbieżność do nieskończoności)
A)Niewłaściwe:
Dla niektórych rozbieżnych ciągów nieskończonych wprowadza się pojęcie granicy niewłaściwej. Są to te ciągi, których wyrazy rosną lub maleją nieograniczenie; można powiedzieć, że dążą one do punktu w nieskończoności.
Mówi się, że ciąg ma granicę niewłaściwą w ∞ lub jest rozbieżny do ∞ jeżeli
ROBIEŻ DO NIESKOŃCZONOŚCI Ciąg an jest rozb do +∞ jeżeli dla każdej liczby A można dobrać takie N że wszystkie wyrazy an o wskaźnikach większych od N przewyższają liczbę A tzn dla n > N spełniona jest nierówność an > A an = ∞ ↔ ∀A∃N∀n > N (an > A)
do -∞ an = −∞↔∀A∃N∀n > N (an < A)
27. Twierdzenia o granicach (suma, iloczyn itp., Twierdzenie o trzech ciągach, warunek konieczny zbieżności ciągu)
Suma ciągu aa + bn= an+bn= a + b różnica aa − bn= an-bn= a − b
iloczyn aa • bn= an*bn = a • b Iloraz $\operatorname{}\frac{a_{n}}{b_{n}}$= $\frac{\operatorname{}a_{n}}{\operatorname{}b_{n}}$=$\frac{a}{b}$
Twierdzenie o 3 ciągach Jeżeli an=bn=q a ponadrto istnieje taka N0, że dla każdego n>N0spełnione są nierówności an=<bn=<cn to bn = q
Warunek konieczny zbieżności szeregu Jeżeli szereg $\sum_{\mathbf{n}\mathbf{=}\mathbf{1}}^{\mathbf{\infty}}\mathbf{a}_{\mathbf{n}}$ jest zbieżny, to a = 0
28. Twierdzenie Bernoulliego (o ciągu rosnącym i ograniczonym)- [na przykładzie liczby e] oraz 29. Liczba Eulera e i dowód, że istnieje
Liczba e jest granicą ciągu an=(1+ $\frac{1}{n}$)n
Czyli e=$\operatorname{}{({(1 + \ \frac{1}{n})}^{n})}$
Dowód zbieżności: Można wykazać, że ciąg ((1+ $\frac{1}{n}$)n)nEN jest niemalejący i ograniczony z góry, a zatem jest zbieżny. Dla dodatnich liczb x1,x2,…,xnr1 zachodzi nierówność między ich średnią arytmetyczną a geometryczną. $\sqrt{\frac{a_{1}^{2} + a_{2}^{2} + \ldots + a_{n}^{2}}{n}} \geq \frac{a_{1} + a_{2} + \ldots + a_{n}}{n} \geq \sqrt[n]{a_{1}*a_{2}*\ldots a_{n}} \geq \frac{n}{\frac{1}{a1} + \frac{1}{a2} + \ldots + \frac{1}{\text{an}}}$
Więc:
$$\frac{x1 + \ldots + x_{n + 1}}{n + 1} \geq {(x_{1}*\ldots*x_{n + 1})}^{\frac{1}{n + 1}}$$
Rozwijając x1=..xn=1+1/n oraz xn+1 otrzymujemy
$$\frac{1 + \frac{1}{n} + \ldots + 1 + \frac{1}{n} + 1}{n + 1} \geq \left( \left( 1 + \frac{1}{n} \right)\ldots\left( 1 + \frac{1}{n} \right)*1 \right)^{\frac{1}{n} + 1}\backslash n$$
Czyli ciąg jest niemalejący
Połóżmy $b_{n} = \left( 1 + \frac{1}{n} \right)^{n + 1}\ i\ \text{zauwa}z\text{amy}\text{\ \ }ze\ a_{n} \leq b_{n} = \frac{1}{\left( \frac{n}{n + 1} \right)^{n + 1}} = \frac{1}{\left( 1 - \frac{1}{n + 1} \right)^{n + 1}}$
Z nierówności zastosowanej do $x_{1} = x_{n + 1} = 1 - \frac{1}{n + 1}$ oraz xn+2=2 otrzymujemy, że
$\frac{1 - \frac{1}{n + 1} + \ldots + 1 - \frac{1}{n + 1} + 1}{n + 2} \geq \left( \left( 1 - \frac{1}{n + 1} \right)\ldots\left( 1 - \frac{1}{n + 1} \right)*1 \right)^{\frac{1}{n + 2}}$ Stąd $\left( \frac{n + 1}{n + 2} \right)^{n + 2} \geq \left( 1 - \frac{1}{n + 1} \right)^{n + 1}$
A więc również $\left( 1 - \frac{1}{n + 2} \right)^{n + 2} \geq \left( 1 - \frac{1}{n + 1} \right)^{n + 1}$
Czyli ciąg $\left( \left( 1 = \frac{1}{n + 1} \right)^{n + 1} \right)n\ \text{nale}zy\ \text{do}\ N$ jest niemalejący
Ponieważ $b_{n} = \frac{1}{\left( 1 - \frac{1}{n + 1} \right)^{n + 1}}$ to możemy wywnioskować, że ciąg bn jest nierosnacy, a stad a1 ≤ a2 ≤ an ≤ bn < b2 < b1
Ciąg an jest więc niemalejący i ograniczony z góry np. przez b1 a więc jest zbieżny.
e ≈ 2, 72
30. Obliczyć lim sinc(x) przy x → 0
Przede wszystkim sinus cardinalis definiuje się jako $\text{sinc}\left( x \right) = \left\{ \begin{matrix} \frac{\text{sinx}}{x},\ \text{dla}\ x \neq 0 \\ 1\ \text{dla}\ x = 0 \\ \end{matrix} \right.\ $. Zadanie polega na tym aby policzyć jaką granicę ma ta funkcja przyjmując że dla x=0 funkcja sinus cardinalis także przyjmuje postać $\frac{si\text{nx}}{x}$ oraz porównać czy ta granica wynosi 1 dla x=0 – tylko wtedy ta funkcja ma granicę w danym punkcie.
Za pomocą reguły de l'Hospitala można obliczyć granice funkcji których nieoznaczoność ma postać $\frac{0}{0}$, lub $\frac{\infty}{\infty}$.
Tak więc $\operatorname{}{\text{sinc}\left( x \right) = \lim_{x \rightarrow 0}}\frac{\text{sinx}}{x}\operatorname{}\frac{\text{cosx}}{1} = \cos\left( 0 \right) = 1$ – funkcja sinc(x) ma granicę w punkcie x=0 – granica ta wynosi 1.
31. Szereg liczbowy i jego zbieżność (zwykła, bezwzględna)
Szereg $\sum_{n = 1}^{\infty}a_{n}$ nazywamy zbieżnym bezwzględnie, jeżeli zbieżny jest szereg $\sum_{n = 1}^{\infty}\left| a_{n} \right|$
Zwykła: Jeśli wyraz ogólny an szeregu $\sum_{n = 1}^{\infty}a_{n}$ nie zbiega do 0, symbolicznie an ≠ 0
32. Ciąg funkcyjny i jego zbieżność
Ciąg którego wyrazami są funkcje określone w tej samej dziedzinie tzn. w tym samym przedziale lub zbiorze Jeżeli fn(x) oznacza funkcję przyporządkowaną liczb naturalnej n to ciąg oznaczamy symbolem {fn(x)} ciąg nazywamy zbieżnym w zbiorze X do funkcji granicznej fn(x) i piszemy fn(x) = fn(x) dla x∈X jeżeli dla każdego E > 0 i dla każdego x∈X istnieje taka liczba N, że dla każdego n > N jest spełniona nierówność Ifn(x)-f(x)I < E (epsilon)
33. Szereg funkcyjny (w tym szereg naprzemienny), jego zbieżność (zwykła, jednostajna) i kryteria zbieżności (porównawcze, d’Alemberta, Cauchy’ego)
Szereg funkcyjny nazywamy szereg złożony z funkcji f1(x)+ f2(x)+… fn(x), którego wyrazami są funkcje określ. W tej samej dziedzinie X. Sumy: Sn(x)= $\sum_{k = 1}^{n}{f_{k}(x)}$ nazywamy sumamiczęściowymi szeregu $\sum_{n = 1}^{\infty}{f_{n}(x)}$ szereg $\sum_{n = 1}^{\infty}{f_{n}(x)}$ nazywamy zbieżnym w przedziale X jeżeli ciąg jego sum częściowych {S_n(x)} jest zbieżny w tym przedziale Sn(x)→XS(x), a rozbieżnym w przyp. Przeciwnym. Szereg jest jednostajnie zbieżny jeżeli ciąg S1(x),S2(x), S3(x)…Sn(x) jest jednostajnie zbieżny w przedziale X to szereg $\sum_{n = 1}^{\infty}{f\_ n(x)}$ nazywamy jednostajnie zbieżnym w tym przedziale
Szereg naprzemienny
Kryterium porównawcze jeżeli $\sum_{n = 1}^{\infty}a_{n}$ i $\sum_{n = 1}^{\infty}b_{n}$ oraz an ≤ bn dla każdego n to: 1) jeśli $\sum_{n = 1}^{\infty}b_{n}\ $ jest zbiezny to $\sum_{n = 1}^{\infty}a_{n}$ jest zbieżny., 2) jeśli $\sum_{n = 1}^{\infty}a_{n}$ rozbieżny to $\sum_{n = 1}^{\infty}b_{n}\ $ jest rozbieżny
Kryterium d’Alemberta Dla szeregu $\sum_{n = 1}^{\infty}a_{n}\ $o wyrazach dodatnich mamy : 1) Jeśli $\operatorname{}\frac{a_{n} + 1}{a_{n}}$<1 to szer. Jest zbieżny, 2) Jeśli $\operatorname{}\frac{a_{n} + 1}{a_{n}}$>1 to szereg jest rozbieżny
Kryterium Cauchy’ego dla szeregu $\sum_{n = 1}^{\infty}a_{n}$ o wyrazach nieujemnych jeżeli $\operatorname{}\sqrt[n]{a_{n}}$<1 to szereg jes zbieżny a jeśli $\operatorname{}\sqrt[n]{a_{n}}$>1 to rozbieżny
34. Obliczyć lim (ex – 1)/x przy x → 0
Za pomocą reguły de l'Hospitala można obliczyć granice funkcji których nieoznaczoność ma postać $\frac{0}{0}$, lub $\frac{\infty}{\infty}$. Czyli:
$$\operatorname{}\frac{e^{x} - 1}{x}\operatorname{}\frac{e^{x} - 0}{1} = e^{0} = 1$$
35. Iloraz różnicowy i jego granice lewo-, prawo- i obustronna (a więc pochodne), interpretacje pochodnej (geometryczna, fizyczne)
Wzór na iloraz różnicowy funkcji f(x):
$$\operatorname{'=}\frac{f\left( x + h \right) - f(x)}{h} = \operatorname{}\frac{f\left( x \right) - f(x_{0})}{x - x_{0}}$$
Granice lewo- i prawostronne są niczym innym jak wartością do jakiej dąży krzywa funkcji z lewej strony punktu x0 (granica lewostronna: $\operatorname{}\frac{f\left( x \right) - f(x_{0})}{x - x_{0}}$ – przy x0 dopisujemy minus) oraz z prawej strony x0 (granica prawostronna: $\operatorname{}\frac{f\left( x \right) - f(x_{0})}{x - x_{0}}$ – przy x0 dopisujemy plus). Gdy obie te granice w tym samym punkcie x0 są sobie równe to mówimy tu o granicy obustronnej w punkcie x0.
$$\operatorname{}\frac{f\left( x \right) - f(x_{0})}{x - x_{0}} = \operatorname{}{\frac{f\left( x \right) - f(x_{0})}{x - x_{0}} = \operatorname{}\frac{f\left( x \right) - f(x_{0})}{x - x_{0}}}$$
Pojęcie granicy lewo- lub prawostronnej dotyczy nie tylko ilorazu różnicowego ale także granic funkcji. Aby policzyć granice jednostronne należy jedynie zbadać znak wyrażenia dającego nieoznaczoność zarówno z lewej jak i prawej strony.
Interpretacja fizyczna - np. wzór na prędkość wyraża się jako:
$v = \operatorname{}\frac{s - s_{0}}{t - t_{0}} = \operatorname{}\frac{\text{ds}}{\text{dt}}$ i jest niczym innym jak granicą przyrostu przebytej drogi w bardzo krótkim czasie dt.
Iloraz różnicowy sam w sobie wyraża równanie siecznej wykresu funkcji – tj. prostej która przecina krzywą. W granicznie małym h wg pierwszego wzoru sieczna staje się styczna do wykresu i tym jest interpretacja geometryczna pochodnej w danym punkcie funkcji – jest to styczna przechodząca przez dany punkt.
36. Uzyskać – z definicji – pochodną dla x3, sin x, ex
Na początek wzór na pochodną funkcji f(x):
$$\operatorname{'=}\frac{f\left( x + h \right) - f(x)}{h}$$
Mamy tu do czynienia z nieoznaczonością typu $\frac{0}{0}$, więc jeśli inne sposoby zawiodą, to można skorzystać z reguły de l’Hospitala, różniczkując licznik i mianownik ułamka.
Jak widać pochodna to granica ilorazu różnicy wartości funkcji przez różnicę odpowiadających im argumentów. Głównym zadaniem jest tu pozbycie się tego „h” z mianownika które powoduje że w mianowniku mamy 0 – dzielenie przez zero jest niewykonywalne.
(1) $f\left( x \right) = x^{3},\ \operatorname{}\frac{f\left( x + h \right) - f\left( x \right)}{h} = \operatorname{}{\frac{\left( x + h \right)^{3} - \left( x \right)^{3}}{h}\operatorname{}{\frac{\left( x + h - x \right)\left( \left( x + h \right)^{2} + \left( x + h \right)x + x^{2} \right)}{h} = \operatorname{}\frac{h\left( \left( x + h \right)^{2} + \left( x + h \right)x + x^{2} \right)}{h}}} =$
((x+h)2 + (x+h)x + x2)=x2+x2 + x2 = 3x2 co jest rozwiązaniem zadania
(2) $f\left( x \right) = \sin x,\ \operatorname{}\frac{f\left( x + h \right) - f\left( x \right)}{h} = \operatorname{}\frac{\sin\left( x + h \right) - \sin(x)}{h} = \operatorname{}{\frac{2\sin{\frac{x + h - x}{2}\cos\frac{x + h + x}{2}}}{h} = \operatorname{}\frac{2\sin{\frac{h}{2}\cos\left( x + \frac{h}{2} \right)}}{h}} = \operatorname{}{\frac{\sin{\frac{h}{2}\cos\left( x + \frac{h}{2} \right)}}{\frac{h}{2}} =}\backslash n = \operatorname{}\frac{\sin\frac{h}{2}}{\frac{h}{2}}\operatorname{}{\cos\left( x + \frac{h}{2} \right) =}\operatorname{}\frac{\cos\frac{h}{2}}{1}\operatorname{}{\cos\left( x + \frac{h}{2} \right) =}1 \bullet \cos{x = \cos x}$ co jest rozwiązaniem zadania
(3) $f\left( x \right) = e^{x},\ \operatorname{}\frac{f\left( x + h \right) - f(x)}{h} = \operatorname{}\frac{e^{\left( x + h \right)} - e^{x}}{h} = \operatorname{}\frac{e^{x}\left( e^{h} - 1 \right)}{h} = \operatorname{}{e^{x} \bullet}\operatorname{}\frac{\left( e^{h} - 1 \right)}{h} = e^{x} \bullet \operatorname{}\frac{e^{h} - 0}{1} = e^{x} \bullet e^{0} = e^{x}$ co jest rozwiązaniem zadania
37. Twierdzenia Rolle’a, Lagrange’a o wartości średniej w rachunku różniczkowym
Twierdzenie Rolle’a o wartości średniej: Jeżeli funkcja jest ciągła w przedział <a, b > , różniczkowalna w przedział (a, b)i f(a)=f(b) to istnieje taki punkt c ∈ (a, b)ze f′(c)=0
Twierdzenie Lagrange’a o wartości średniej: Jeżeli funkcja f(x) jest ciągła w przedział <a, b > , różniczkowalna w przedział (a, b) to istnieje taki punkt c ∈ (a, b) że f(a)− f(b)=f′(c)(b − a)
38. Pochodne funkcji danej zależnością niejawną, określonej parametrycznie
Jeżeli funkcja y = f(x) jest określona parametrycznie równaniami x = x(t), y = y(t) t ∈ (a, b) istnieją povhodne $\frac{\text{dy}}{\text{dt}}$ i $\frac{\text{dx}}{\text{dt}}$ ≠0 to istnieje funkcja odwrotna do funkcji x(t)do istnieje pochodna $\frac{\text{dy}}{\text{dx}}$ wyrażona wzorem $\frac{\text{dy}}{\text{dx}} = \frac{\frac{\text{dy}}{\text{dt}}}{\frac{\text{dx}}{\text{dt}}}$
39. Równanie stycznej do krzywej
Jeżeli dana jest krzywa określona równaniem y = f(x) gdzie f(x) jest funkcją ciągłą to w pkt. P0 = (x0, y0) krzywej w którym istnieje skończona pochodna y′(x0) = y′0 istnieje styczna do tej krzywej mająca współczynnik kierunkowy m = y′0 . Równanie ma postać y − y0 = y′0(x − x0)
40. Pochodne wyższych rzędów
Jeżeli pochodna f′(x) funkcji f(x) jet różniczkowalna to jej pochodną nazywamy pochodną drugiego rzędu funkcji f(x) i oznaczmy symbolem f″(x). A więc f″(x)=[f′(x)] podobnie określamy pochodne wyższych rzędów fn(x)=[fn − 1(x)]
Wzór na różniczkę n-tego rzędu:
41. Monotoniczność funkcji i jej ekstrema, wyznaczanie przedziałów monotoniczności i ekstremów z zastosowaniem rachunku różniczkowego (w tym: Twierdzenie Fermata)
Twierdzenie Fermata Jeżeli funkcja
1)ma w pkt x0 ekstremum
2) jest w tym pkt różniczkowalna
wówczas wartość pochodnej w tym pkt. =0
Ekstremum jeżeli funkcja f(x) ma w punkcie x0 ekstremum i jeżeli istnieje pochodna f′(x0) to f′(x0) = 0
Maksimum lokalne: Jeżeli funkcja f(x) jest ciągła w punkcie x0 a ponadto ma pochodną f′(x) w pewnym sąsiedztwie S(x0, δ) przy czym $\left\{ \begin{matrix} f^{'}\left( x \right) > 0\ \text{dla}\ x_{0} - \delta < x < x_{0} \\ f^{'}\left( x \right) < 0\ \text{dla}\ x_{0} < x < x_{0} + \delta \\ \end{matrix} \right.\ $ to funkcj f(x) ma w pkt x0 maksimum minimum lokalne Jeżeli funkcja f(x) jest ciągła w punkcie x0 a ponadto ma pochodną f′(x) w pewnym sąsiedztwie S(x0, δ) przy czym $\left\{ \begin{matrix} f^{'}\left( x \right) < 0\ \text{dla}\ x0 - \delta < x < x_{0} \\ f^{'}\left( x \right) > 0\ \text{dla}\ x0 < x < x_{0} + \delta \\ \end{matrix} \right.\ $ to funkcj f(x) ma w pkt x0 minimum.
Sposób obliczania
1)obliczyć pochodną funkcji f(x) w dowolnym pkt x
2)znaleźć miejsca zerowe funkcji f′(x) tzn. punkty x0 w których f′(x)=0
3)zbadać znak pochodnej w otoczeniu pkt x0, w którym f′(x)=0. Jeżeli dla x0 − δ < x < x0 f′(x)>0 i dla x0 < x < x − +δ, f′(x)<0 to funkcja f(x) ma w pkt x0 maksimum a gdy x0 − δ < x < x0 f′(x)<0 i dla x0 < x < x − +δ, f′(x)>0 to funkcja f(x) ma w pkt x0 minimum
Monotoniczność (a < b, f(a)<f(b) rosnąca , ≤niemalejąca, ≥nierosnąca, >malejąca); Ekstrema (min, max lokalne) Wypukłość (wypukłą/wklęsła nad/pod styczną) Infleksja (pkt. Przegięcia)
4)znaleźć ekstremum funkcji tj. obliczyć wartość funkcji w pkt x0
Warunek konieczny ekstremum
Jeżeli funkcja jest różniczkowalna, i ma w punkcie x0 ekstremum to znika w tym pkt pochodna: f′(x0)=0 Uwaga: pochodna równa 0 w x0 nie oznacza, że w pkt x0 jest extremum, gdyż w punkcie x0 musi nastąpić zmiana znaku drugiej pochodnej.
42. Wypukłość funkcji i jej punkty przegięcia, wyznaczanie przedziałów wypukłości i punktów infleksji z zastosowaniem rachunku różniczkowego
43. Reguły de l’Hopitala
reguły de l’Hospitala
I jeżeli funkcje f(x) i g(x) są różniczkowalne w sąsiedztwie pkt. X0 i spełniają warunki f(x) = 0 g(x) = 0 istnieje granica $\operatorname{}{\frac{f'(x)}{g'(x)} = k}$ to: $\operatorname{}\frac{f(x)}{g(x)}$=$\operatorname{}{\frac{f'(x)}{g'(x)} = k}$
II jeżeli funkcje f(x) i g(x) są różniczkowalne w sąsiedztwie pkt. x0 i spełniają warunki f(x) = ∞ ∞ istnieje granica $\operatorname{}{\frac{f'(x)}{g'(x)} = k}$ to: $\operatorname{}\frac{f(x)}{g(x)}$=$\operatorname{}{\frac{f'(x)}{g'(x)} = k}$
44. Szeregi Taylora i Maclaurina
Każdą różniczkowalną funkcję można zapisać w postaci szeregu Taylora.
Szeregi Taylora $\ f\left( x \right) = f\left( x_{0} \right) + f^{'}\left( x_{0} \right)(x - x_{0}) + \ldots + \frac{f^{\left( n \right)}x_{0}}{n!}{(x - x_{0})}^{n} + R_{n + 1}f(x)$
Gdzie Rn+1 = $\frac{f^{n + 1}}{\left( n + 1 \right)!}{(x - x_{0})}^{n + 1}$ jest to reszta we wzorze Taylora
Szereg Taylora $\sum_{n = 0}^{\infty}{\frac{f^{\left( n \right)}\left( x_{0} \right)}{n!}{(x - x_{0})}^{n}}$
Gdy x0 = 0 to jest to wzór Maclaurena: $f\left( x \right) = f\left( 0 \right) + \frac{f'(0)}{1!}x + \frac{f''(0)}{2!}x^{2} + \ldots + \frac{f^{\left( n - 1 \right)}(0)}{(n - 1)!}{(x)}^{n - 1}$
RACHUNEK RÓŻNICZKOWY WIELU ZMIENNYCH ORAZ WIELKOŚCI WEKTOROWYCH, TEORIA POLA
45. Pochodne cząstkowe, hessjan i ekstrema funkcji wielu zmiennych
Pochodną cząstkową funkcji wielu zmiennych nazywamy pochodną względem jednej z jej zmiennych, podczas gdy pozostałe zmienne traktuje się jedynie jako współczynniki. Analogicznie postępuje się z każdą ze zmiennych. Pochodną cząstkową funkcji f względem x oznacza się jako $\frac{\partial f}{\partial x}$, f′x. Z definicji jeśli istnieje skończona granica $\operatorname{}\frac{f\left( x_{1},x_{2},\ldots,\ x_{k} + h,\ldots,x_{n} \right) - f(x_{1},x_{2},\ldots,\ x_{k},\ldots,x_{n})}{h}$, to nazywa się pochodną cząstkową funkcji f w punkcie x względem zmiennej xk. Innym oznaczeniem pochodnej cząstkowej funkcji f dla trójwymiarowego układu kartezjańskiego jest $\text{df}\left( x,y,z \right) = \frac{\partial f}{\partial x} + \frac{\partial f}{\partial y} + \frac{\partial f}{\partial z}$ i jeśli każdy wyraz sumy pomnożymy przez odpowiadającą im różniczkę zmiennej występującej w mianowniku, to otrzymamy wyrażenie $\text{df} = \frac{\partial f}{\partial x}\text{dx} + \frac{\partial f}{\partial y}\text{dy} + \frac{\partial f}{\partial z}\text{dz}$, które nazywa się różniczką zupełną funkcji f, która przydaje się przy obliczaniu błędu przybliżenia wartości pomiarów w próbach.
Przykład: f(x,y,z) = 9x3yz2 − 3xy2 + z, to pochodna cząstkowa wynosi
f(x,y,z) = (27x2yz2−3y2)x + (9x3z2)y + (18x3yz+1)z=18x3yz + 9x3z2 + 27x2yz2 − 3y2 + 1
Hessjanem bądź macierzą Hessego nazywamy wyznacznik macierzy kwadratowej drugich pochodnych cząstkowych funkcji w danym punkcie x0 w którym funkcja f jest podwójnie różniczkowalna (istnieje zarówno pierwsza jak i druga pochodna tej funkcji). Wyznacznik Hessego stosuje się do znajdowania ekstremów funkcji wielu zmiennych.
Ekstrema funkcji wielu zmiennych oblicza się stosując podany niżej algorytm:
1. Obliczamy pochodne cząstkowe funkcji f(x, y, z) (może to być funkcja dowolnej liczby zmiennych), przy czym każdą pochodną cząstkową liczymy osobno
2. Każdą z pochodnych cząstkowych przyrównujemy do zera, przez co otrzymujemy układ równań.
3. Warunkiem znalezienia ekstremów funkcji jest podwójna różniczkowalność – musi istnieć druga pochodna cząstkowa tej funkcji (to pociąga za sobą fakt że pierwsza pochodna też istnieje), więc liczymy pochodne cząstkowe drugiego rzędu funkcji przy czym znowu każdą pochodną cząstkową osobno.
4. Tworzymy macierz Hessa (ta macierz obok jest dla trzech wymiarów)$H(x_{0}) = \begin{bmatrix} \frac{\partial^{2}f}{\partial x^{2}}(x_{0}) & \frac{\partial^{2}f}{\partial x\partial y}(x_{0}) & \frac{\partial^{2}f}{\partial x\partial z}(x_{0}) \\ \frac{\partial^{2}f}{\partial y\partial x}(x_{0}) & \frac{\partial^{2}f}{\partial y^{2}}(x_{0}) & \frac{\partial^{2}f}{\partial y\partial z}(x_{0}) \\ \frac{\partial^{2}f}{\partial z\partial x}(x_{0}) & \frac{\partial^{2}f}{\partial z\partial y}(x_{0}) & \frac{\partial^{2}f}{\partial z^{2}}(x_{0}) \\ \end{bmatrix}$ i liczymy jej wyznacznik a także minor $C = \begin{bmatrix} \frac{\partial^{2}f}{\partial x^{2}}(x_{0}) & \frac{\partial^{2}f}{\partial x\partial y}(x_{0}) \\ \frac{\partial^{2}f}{\partial y\partial x}(x_{0}) & \frac{\partial^{2}f}{\partial y^{2}}(x_{0}) \\ \end{bmatrix}$ – tu też liczymy wyznacznik.
5. Szukamy znaku zarówno wyrazu znajdującego się w pierwszym wierszu i w pierwszej kolumnie czyli $\frac{\mathbf{\partial}^{\mathbf{2}}\mathbf{f}}{\mathbf{\partial}\mathbf{x}^{\mathbf{2}}}\mathbf{(}\mathbf{x}_{\mathbf{0}}\mathbf{)}$, jak i znaku wyznacznika macierzy Hessa. Jeśli det[H(x0)] oznaczymy jako A, a $\frac{\partial^{2}f}{\partial x^{2}}(x_{0})$ jako B, to:
Dla A,B,C > 0 funkcja ma w punkcie x0 minimum lokalne
Dla A < 0, B > 0, C < 0 funkcja ma w punkcie x0 maksimum lokalne
Dla pozostałych kombinacji znaków A,B,C przy A, B, C ≠ 0 funkcja nie ma ekstremum w punkcie x0.
Przykład: f(x,y) = x2 − xy + 2y2 − x + 4y − 19 (kroki wg punktów powyżej)
pkt. 1 i 2$\ \frac{\partial f\left( x,y \right)}{\partial x} = \mathbf{2}\mathbf{x} - y - 1 = 0$ oraz $\frac{\partial f\left( x,y \right)}{\partial y} = - x + \mathbf{4}\mathbf{y} + 4 = 0$, z czego dostajemy x = 0, y = −1
pkt. 3 $\frac{\partial^{2}f\left( x,y \right)}{\partial x^{2}} = \mathbf{2}$ i $\frac{\partial^{2}f\left( x,y \right)}{\partial y^{2}} = \mathbf{4}$ oraz mieszane pochodne cząstkowe $\frac{\partial^{2}f}{\partial y\partial x} = \frac{\partial}{\partial y}\left( \frac{\partial f}{\partial x} \right) = \frac{\partial}{\partial y}\left( 2x - \mathbf{y} - 1 \right) = \mathbf{-}\mathbf{1}$
oraz $\frac{\partial^{2}f}{\partial x\partial y} = \frac{\partial}{\partial x}\left( \frac{\partial f}{\partial y} \right) = \frac{\partial}{\partial x}\left( \mathbf{-}\mathbf{x} + 4y + 4 \right) = \mathbf{-}\mathbf{1}$. Zwykle pochodne mieszane które różnią się jedynie kolejnością zapisu różniczek w mianowniku są sobie równe.
pkt. 4 funkcja ma 2 zmienne więc macierz Hessa będzie mieć wymiary 2 × 2. I ma postać $H = \begin{bmatrix} 2 & - 1 \\ - 1 & 4 \\ \end{bmatrix}$, a tego wyznacznik wynosi 10 co jest większe od zera czyli A > 0, minorem tej macierzy jest tylko jeden wyraz – mianowicie $\frac{\partial^{2}f}{\partial y\partial x}$ który jest równy 2 i jest jednocześnie zarówno wyrazem B jak i C, czyli $B = \frac{\partial^{2}f}{\partial y\partial x} = 2\ i\ C = \frac{\partial^{2}f}{\partial y\partial x} = 2$,
więc mamy A > 0, B > 0, C > 0 więc w punkcie P(x, y)=(0, −1) funkcja f ma minimum lokalne, którego wartość wynosi f(0,−1) = x2 − xy + 2y2 − x + 4y − 19 = 0 − 0 + 2 • (−1)2 + 0 + 4 • (−1) − 19 = −21
46. Krzywizna i okrąg krzywiznowy
Krzywiznę krzywej płaskiej κ (grecka litera Kappa) definiuje się jako:
$\kappa = \operatorname{}\frac{\rho}{S} = \frac{\text{dρ}}{\text{dS}}$, gdzie S jest długością łuku (i dąży do zera) a ρ jest kątem pod jakim przecinają się styczne do tej krzywej na końcach łuku. Dla okręgu $\kappa = \text{const}\text{.\ \ }\text{oraz}\text{\ \ }\kappa = \frac{1}{R},\text{czyli}$, κ ≥ 0 gdzie R to promień tegoż okręgu. Każdą krzywą można określić jako sumę łuków okręgów, toteż promień krzywizny w danym punkcie wynosi: $\delta = \left| \frac{1}{\kappa} \right|$. Dla prostej przyjmuje się promień dążący do nieskończoności, co daje krzywiznę równą zero. Dla funkcji przedstawionej w postaci jawnej:
Koło krzywiznowe (okrąg krzywiznowy) nazywamy okrąg który przechodząc przez punkt P danej krzywej ma styczność z krzywą wyższego rzędu niż jakikolwiek inny okrąg przechodzący przez punkt P. Okrąg krzywiznowy istnieje wyłącznie w tych punktach, w których nie występuje wyprostowanie krzywej (κ ≠ 0). Dla krzywej o równaniu w postaci jawnej y = f(x), środek takiego okręgu S(ξ,η) ma takie współrzędne:
47. Obwiednia
Obwiednią rodziny krzywych nazywamy krzywą która w każdym punkcie, który ją Tworzy, jest styczna do co najmniej jednej krzywej z danej rodziny. Ogólnie jest to krzywa która jest styczna w każdym swoim punkcie do krzywych tego samego rodzaju – np. do okręgów, elips, paraboli, hiperboli. Dając jako przykład proste przechodzące przez pewien punkt to obwiednią czyli figurą która jest styczna do „prawie” wszystkich tych prostych będzie hiperbola, podczas gdy ten dany punkt będzie leżał na prostej łączącej ogniska paraboli, dokładnie w połowie odległości między nimi. Inne przykłady: Obwiednią rodziny prostych y − 2cx + c2 = 0 jest parabola y = x2(rys.47.1)
Obwiednią wszystkich położeń prostej ślizgającej się dwoma ustalonymi punktami, odległymi od siebie o a, po osiach układu współrzędnych jest asteroidą (rys. 47.2) (na wykładzie Marleya mieliśmy tylko prawą górną ćwiartkę tej figury). Równanie
Rys. 47.1 Rys. 47.2
Z formalnej definicji wynika, że jeśli jednoparametrowa rodzina linii dana jest równaniem F(x, y, t) = 0, to równanie jej obwiedni otrzymuje się eliminując parametr t z układu równań:
$\left\{ \begin{matrix} F(x,\ y,\ t)\ = \ 0 \\ F^{'}(x,\ y,\ t)\ = \ 0 \\ \end{matrix} \right.\ $ oczywiście do obliczenia pochodnej funkcji F, potrzebna jest nam pochodna cząstkowa względem parametru t.
Przykład: Mamy rodzinę prostych o wzorze W(x,y,t) = y + tx + pt2 = 0 (poza parametrem t którego chcemy się pozbyć mamy także współczynnik p, który jest zależny od położenia prostych względem siebie na płaszczyźnie)
Różniczkujemy funkcję otrzymując W′(x,y,t) = x + 2tp = 0, z czego dostajemy zależność $t = - \frac{x}{2p}$, co podstawiamy do W(x, y, z), co daje nam $W\left( x,y,t \right) = y + \left( - \frac{x}{2p} \right)x + p \bullet \left( - \frac{x}{2p} \right)^{2} = 0$, co po uproszczeniu przyjmuje postać: 4py − 2x2 + x2=0 czyli 4py = x2 i ostatecznie $y = \frac{x^{2}}{4p}$.
48. Elementy teorii pola: gradient, rotacja, dywergencja
Gradientem nazywamy pole wektorowe, które wskazuje kierunki najszybszych wzrostów wartości danego pola skalarnego w poszczególnych punktach. Gradient wyraża się przez tzw. operator Nabla (inaczej atled – ‘delta wspak’ bo jest odwróconą literą delta), inaczej wektorowy operator różniczkowy i wyraża się wzorem: $\mathbf{\nabla}\mathbf{=}\left( \frac{\mathbf{\partial}}{\mathbf{\partial x}}\mathbf{,}\frac{\mathbf{\partial}}{\mathbf{\partial y}}\mathbf{,}\frac{\mathbf{\partial}}{\mathbf{\partial z}} \right) = \frac{\partial}{\partial x} \bullet \overrightarrow{i} + \frac{\partial}{\partial y} \bullet \overrightarrow{j} + \frac{\partial}{\partial z} \bullet \overrightarrow{k}$ czyli poprzez pochodne cząstkowe pomnożone przez wektory jednostkowe. Oznaczeniem gradientu funkcji skalarnej f(x1, x2, …, xn) jest ∇f lub grad f. Postać gradientu zależy od przyjętego układu współrzędnych.
W układzie współrzędnych kartezjańskich: $\nabla f\left( x,y,z \right) = \left\lbrack \frac{\partial f}{\partial x},\frac{\partial f}{\partial y},\frac{\partial f}{\partial z} \right\rbrack$.
W układzie współrzędnych walcowych:$\ \nabla f\left( r,\theta,z \right) = \left\lbrack \frac{\partial f}{\partial r},\frac{1}{r} \bullet \frac{\partial f}{\partial\theta},\frac{\partial f}{\partial z} \right\rbrack$.
W układzie współrzędnych sferycznych: $\nabla f\left( r,\theta,\rho \right) = \left\lbrack \frac{\partial f}{\partial r},\frac{1}{r} \bullet \frac{\partial f}{\partial\theta},\frac{1}{r\sin\theta} \bullet \frac{\partial f}{\partial z} \right\rbrack$.
Rotacją lub wirowością nazywamy operator różniczkowy działający na pole wektorowe F tak, że Tworzy pole wektorowe wskazujące wirowość (gęstość cyrkulacji) pola wyjściowego. Na oznaczenie operatora rotacji przyjmuje się rot(F), curl(F) lub dF. Gdy rot(F)=0 to pole wektorowe jest bezwirowe. Ogólny wzór rotacji ma postać: rot(F)=∇×F (iloczyn wektorowy operatora Nabla i pola wektorowego F).Tak samo jak w przypadku gradientu i tu wzór zależy od przyjętego układu współrzędnych.
W układzie współrzędnych kartezjańskich F = [Fx, Fy, Fz] : $\begin{bmatrix} \frac{\partial}{\partial x} \\ \frac{\partial}{\partial y} \\ \frac{\partial}{\partial z} \\ \end{bmatrix} \times F = \left\lbrack \begin{matrix} \frac{\partial F_{z}}{\partial y} - \\ \frac{\partial F_{x}}{\partial z} - \\ \frac{\partial F_{y}}{\partial x} - \\ \end{matrix}\begin{matrix} \frac{\partial F_{y}}{\partial z} \\ \frac{\partial F_{z}}{\partial x} \\ \frac{\partial F_{x}}{\partial y} \\ \end{matrix} \right\rbrack = \left| \begin{matrix} \begin{matrix} i \\ \frac{\partial}{\partial x} \\ F_{x} \\ \end{matrix} & \begin{matrix} j \\ \frac{\partial}{\partial y} \\ F_{y} \\ \end{matrix} & \begin{matrix} k \\ \frac{\partial}{\partial z} \\ F_{z} \\ \end{matrix} \\ \end{matrix} \right|$
Pomijamy pozostałe układy współrzędnych gdyż wzory są zbyt skomplikowane.
Dywergencją lub rozbieżnością, źródłowością pola wektorowego nazywamy operator różniczkowy, który przyporządkowuje trójwymiarowemu polu wektorowemu pole skalarne będące iloczynem skalarnym operatora Nabla z polem. Dywergencję oznaczamy jako $\mathbf{\text{div}}\mathbf{\ }\mathbf{F}\mathbf{(}\mathbf{x}\mathbf{,}\mathbf{y}\mathbf{,}\mathbf{z}\mathbf{)} = \mathbf{\nabla}\mathbf{\bullet}\mathbf{F} = \frac{\partial F_{1}(x,y,z)}{\partial x} + \frac{\partial F_{2}(x,y,z)}{\partial y} + \frac{\partial F_{3}(x,y,z)}{\partial z}$, F = (F1, F2, F3).