Geometria i Algebra Liniowa
(dla I-go roku informatyki WMIM UW)
Leszek Plaskota
Instytut Matematyki Stosowanej i Mechaniki
Uniwersytet Warszawski
stycze´
n 2009
ii
Spis tre´
sci
1
Grupy i cia la, liczby zespolone
3
1.1
Podstawowe struktury algebraiczne . . . . . . . . . . . . . . .
3
1.1.1
Grupa . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
1.1.2
Cia lo . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
1.2
Cia lo liczb zespolonych . . . . . . . . . . . . . . . . . . . . . .
6
1.2.1
Definicja . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.2.2
Posta´
c trygonometryczna . . . . . . . . . . . . . . . . .
7
1.2.3
Wz´
or de Moivre’a . . . . . . . . . . . . . . . . . . . . .
8
1.2.4
Pierwiastki z jedynki . . . . . . . . . . . . . . . . . . .
9
1.2.5
Sprz
,
e˙zenie . . . . . . . . . . . . . . . . . . . . . . . . .
9
1.3
Wielomiany . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
1.3.1
Algorytm Hornera
. . . . . . . . . . . . . . . . . . . .
10
1.3.2
Zasadnicze twierdzenie algebry
. . . . . . . . . . . . .
10
2
Macierze liczbowe
13
2.1
Podstawowe definicje . . . . . . . . . . . . . . . . . . . . . . .
13
2.1.1
Macierze szczeg´
olnych format´
ow . . . . . . . . . . . . .
13
2.1.2
Podzia l blokowy . . . . . . . . . . . . . . . . . . . . . .
14
2.2
Dzia lania na macierzach . . . . . . . . . . . . . . . . . . . . .
14
2.2.1
Podstawowe dzia lania . . . . . . . . . . . . . . . . . . .
14
2.2.2
Mno˙zenie macierzy . . . . . . . . . . . . . . . . . . . .
15
2.2.3
Mno˙zenie macierzy w postaci blokowej . . . . . . . . .
17
2.3
Dalsze oznaczenia . . . . . . . . . . . . . . . . . . . . . . . . .
18
2.3.1
Macierze tr´
ojk
,
atne i jednostkowe
. . . . . . . . . . . .
18
2.3.2
Uk lad r´
owna´
n jako r´
ownanie macierzowe . . . . . . . .
19
2.4
Macierze nieosobliwe . . . . . . . . . . . . . . . . . . . . . . .
19
2.4.1
Grupa macierzy nieosobliwych . . . . . . . . . . . . . .
19
2.4.2
Warunek nieosobliwo´sci macierzy . . . . . . . . . . . .
21
iii
iv
SPIS TRE´
SCI
2.4.3
Permutacje
. . . . . . . . . . . . . . . . . . . . . . . .
21
3
Normy wektor´
ow i macierzy
25
3.1
Og´
olna definicja normy . . . . . . . . . . . . . . . . . . . . . .
25
3.2
Normy wektor´
ow . . . . . . . . . . . . . . . . . . . . . . . . .
26
3.2.1
Normy p-te . . . . . . . . . . . . . . . . . . . . . . . .
26
3.2.2
Po˙zyteczne (nie)r´
owno´sci . . . . . . . . . . . . . . . . .
27
3.3
Normy macierzy . . . . . . . . . . . . . . . . . . . . . . . . . .
28
3.3.1
Normy p-te . . . . . . . . . . . . . . . . . . . . . . . .
28
3.3.2
Po˙zyteczne (nie)r´
owno´sci . . . . . . . . . . . . . . . . .
29
3.3.3
Norma Frobeniusa
. . . . . . . . . . . . . . . . . . . .
31
4
Przestrzenie liniowe
35
4.1
Przestrzenie i podprzestrzenie . . . . . . . . . . . . . . . . . .
35
4.1.1
Definicja i podstawowe w lasno´sci
. . . . . . . . . . . .
35
4.1.2
Podprzestrzenie liniowe . . . . . . . . . . . . . . . . . .
36
4.2
Baza i wymiar przestrzeni . . . . . . . . . . . . . . . . . . . .
37
4.2.1
Liniowa (nie)zale˙zno´s´
c . . . . . . . . . . . . . . . . . .
37
4.2.2
Baza i wymiar, twierdzenie Steinitza . . . . . . . . . .
39
4.2.3
Przyk lady . . . . . . . . . . . . . . . . . . . . . . . . .
40
4.3
Sumy i sumy proste . . . . . . . . . . . . . . . . . . . . . . . .
41
4.3.1
Suma (prosta) dw´
och podprzestrzeni . . . . . . . . . .
41
4.3.2
Suma (prosta) w og´
olnym przypadku . . . . . . . . . .
43
4.4
Izomorfizm przestrzeni . . . . . . . . . . . . . . . . . . . . . .
44
4.5
Warstwy modulo Y . . . . . . . . . . . . . . . . . . . . . . . .
45
4.5.1
Definicja . . . . . . . . . . . . . . . . . . . . . . . . . .
45
4.5.2
Przestrze´
n warstw . . . . . . . . . . . . . . . . . . . . .
46
5
Obraz, rz
,
ad i j
,
adro macierzy
49
5.1
Obraz i rz
,
ad macierzy
. . . . . . . . . . . . . . . . . . . . . .
49
5.1.1
Rz
,
ad kolumnowy i rz
,
ad wierszowy . . . . . . . . . . . .
49
5.1.2
Rz
,
ad macierzy
. . . . . . . . . . . . . . . . . . . . . .
50
5.2
Przestrze´
n zerowa (j
,
adro) macierzy . . . . . . . . . . . . . . .
51
5.3
Rozk lad wzgl
,
edem obrazu i j
,
adra . . . . . . . . . . . . . . . .
52
6
Funkcjona ly liniowe
55
6.1
Funkcjona ly . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
6.1.1
Definicja i przyk lady . . . . . . . . . . . . . . . . . . .
55
SPIS TRE´
SCI
v
6.1.2
Przestrze´
n sprz
,
e˙zona . . . . . . . . . . . . . . . . . . .
56
6.2
Refleksywno´s´
c . . . . . . . . . . . . . . . . . . . . . . . . . . .
57
6.2.1
R´
owno´s´
c X i X
∗∗
. . . . . . . . . . . . . . . . . . . . .
57
6.2.2
Przyk lady . . . . . . . . . . . . . . . . . . . . . . . . .
58
6.3
Rozszerzenie rachunku macierzy . . . . . . . . . . . . . . . . .
59
6.3.1
Macierze wektor´
ow i funkcjona l´
ow . . . . . . . . . . . .
59
6.3.2
Posta´
c macierzowa izomorfizm´
ow . . . . . . . . . . . .
60
7
Uk lady r´
owna´
n liniowych
63
7.1
Zbi´
or rozwi
,
aza´
n . . . . . . . . . . . . . . . . . . . . . . . . . .
63
7.1.1
Twierdzenie Kroneckera-Capelliego . . . . . . . . . . .
63
7.1.2
Zbi´
or rozwi
,
aza´
n jako warstwa . . . . . . . . . . . . . .
64
7.1.3
Uk lady nieosobliwe . . . . . . . . . . . . . . . . . . . .
65
7.2
Efektywna metoda rozwi
,
azania
. . . . . . . . . . . . . . . . .
65
7.2.1
Og´
olny schemat . . . . . . . . . . . . . . . . . . . . . .
66
7.2.2
Eliminacja Gaussa
. . . . . . . . . . . . . . . . . . . .
66
7.2.3
Konstrukcja rozwi
,
azania og´
olnego . . . . . . . . . . . .
68
7.3
Interpretacja macierzowa eliminacji . . . . . . . . . . . . . . .
69
7.3.1
Analiza operacji elementarnych . . . . . . . . . . . . .
69
7.3.2
Rozk lad tr´
ojk
,
atno-tr´
ojk
,
atny macierzy . . . . . . . . . .
71
7.4
Eliminacja bez przestawie´
n . . . . . . . . . . . . . . . . . . . .
72
8
Przekszta lcenia liniowe
75
8.1
Podstawowe poj
,
ecia i w lasno´sci . . . . . . . . . . . . . . . . .
75
8.1.1
Obraz, j
,
adro i rz
,
ad przekszta lcenia . . . . . . . . . . .
75
8.1.2
Przyk lady . . . . . . . . . . . . . . . . . . . . . . . . .
77
8.1.3
R´
o˙znowarto´sciowo´s´
c
. . . . . . . . . . . . . . . . . . .
77
8.1.4
Przestrze´
n przekszta lce´
n liniowych
. . . . . . . . . . .
78
8.2
Macierz przekszta lcenia liniowego . . . . . . . . . . . . . . . .
78
8.2.1
Definicja . . . . . . . . . . . . . . . . . . . . . . . . . .
78
8.2.2
Izomorfizm Lin(X , Y) i K
m,n
. . . . . . . . . . . . . .
79
8.3
Dalsze w lasno´sci macierzy przekszta lce´
n
. . . . . . . . . . . .
80
8.3.1
Obraz i j
,
adro przekszta lcenia/macierzy . . . . . . . . .
80
8.3.2
Zmiana bazy
. . . . . . . . . . . . . . . . . . . . . . .
80
8.3.3
Z lo˙zenie przekszta lce´
n . . . . . . . . . . . . . . . . . .
81
vi
SPIS TRE´
SCI
9
Wyznacznik macierzy
83
9.1
Definicja i pierwsze w lasno´sci
. . . . . . . . . . . . . . . . . .
83
9.2
Wyznacznik a operacje elementarne . . . . . . . . . . . . . . .
84
9.2.1
Permutacja kolumn . . . . . . . . . . . . . . . . . . . .
84
9.2.2
Kombinacja liniowa kolumn . . . . . . . . . . . . . . .
86
9.3
Dalsze w lasno´sci wyznacznik´
ow . . . . . . . . . . . . . . . . .
87
9.3.1
Wyznacznik iloczynu macierzy . . . . . . . . . . . . . .
87
9.3.2
Wyznacznik macierzy nieosobliwej i transponowanej . .
88
9.4
Definicja kombinatoryczna wyznacznika . . . . . . . . . . . . .
89
9.5
Wzory Cramera . . . . . . . . . . . . . . . . . . . . . . . . . .
90
10 Formy dwuliniowe i kwadratowe
93
10.1 Formy dwuliniowe . . . . . . . . . . . . . . . . . . . . . . . . .
93
10.1.1 Definicja i przyk lady . . . . . . . . . . . . . . . . . . .
93
10.1.2 Macierz formy dwuliniowej . . . . . . . . . . . . . . . .
94
10.2 Twierdzenie Sylwester’a
. . . . . . . . . . . . . . . . . . . . .
96
10.3 Formy kwadratowe . . . . . . . . . . . . . . . . . . . . . . . .
97
10.3.1 Okre´slono´s´
c formy kwadratowej . . . . . . . . . . . . .
97
10.3.2 Kryterium Sylwester’a . . . . . . . . . . . . . . . . . .
98
11 Przestrzenie Euklidesowe
101
11.1 Definicja, iloczyn skalarny i norma
. . . . . . . . . . . . . . . 101
11.2 Rzut prostopad ly . . . . . . . . . . . . . . . . . . . . . . . . . 102
11.2.1 Zadanie aproksymacji . . . . . . . . . . . . . . . . . . . 102
11.2.2 Twierdzenie o rzucie prostopad lym . . . . . . . . . . . 103
11.3 Uk lady ortogonalne . . . . . . . . . . . . . . . . . . . . . . . . 104
11.3.1 Macierz Grama . . . . . . . . . . . . . . . . . . . . . . 104
11.3.2 Ortogonalizacja Grama-Schmidta . . . . . . . . . . . . 105
11.3.3 Rozk lad ortogonalno-tr´
ojk
,
atny macierzy . . . . . . . . 107
Nota autora
Niniejszy skrypt zosta l napisany z my´sl
,
a o studentach pierwszego roku in-
formatyki na Wydziale Matematyki, Informatyki i Mechaniki Uniwersytetu
Warszawskiego, ucz
,
eszczaj
,
acych na semestralny wyk lad pt. “Geometria z
algebr
,
a liniow
,
a”. Skrypt powstawa l r´
ownolegle z prowadzonym wyk ladem, a
st
,
ad zawiera tre´sci przekazywane na wyk ladzie i praktycznie tylko te tre´sci.
Powinien wi
,
ec, i takie by lo moje zamierzenie, stanowi´
c dla student´
ow pod-
stawowy przewodnik po w/w wyk ladzie.
Skrypt ma swoj
,
a histori
,
e.
W swoim czasie prof.
Andrzej Kie lbasi´
n-
ski prowadzi l na tym samym wydziale i tak˙ze dla student´
ow informatyki
wyk lad pt. “Algebra liniowa i jej metody obliczeniowe”. Pozosta lo´sci
,
a po
tym wyk ladzie s
,
a, m.in., obszerne odr
,
eczne notatki prowadz
,
acego. Notatki
te wyda ly mi si
,
e (i nie tylko mi) na tyle cenne, ˙ze sta ly si
,
e podstaw
,
a do przy-
gotowania bie˙z
,
acego wyk ladu. Poniewa˙z, w wyniku reformy studi´
ow, wyk lad
zosta l ograniczony do jednego semestru, materia l musia l by´
c z konieczno´sci
mocno skr´
ocony. Jednak duch wyk ladu i w szczeg´
olno´sci oryginalna notacja
wprowadzona przez prof. Kie lbasi´
nskiego pozosta ly, mam nadziej
,
e, niezmie-
nione.
Skrypt ma dynamiczny charakter i jest na bie˙z
,
aco poprawiany i modyfi-
kowany.
Leszek Plaskota
Warszawa, stycze´
n 2009
1
2
SPIS TRE´
SCI
Rozdzia l 1
Grupy i cia la, liczby zespolone
Dla ustalenia uwagi, b
,
edziemy u˙zywa´
c nast
,
epuj
,
acych oznacze´
n:
N = { 1, 2, 3, . . . } - liczby naturalne,
Z = { 0, ±1, ±2, . . . } - liczby ca lkowite,
W =
m
n
: m ∈ Z, n ∈ N
- liczby wymierne,
R = W - liczby rzeczywiste,
C = { (a, b) : a, b ∈ R } - liczby zespolone.
Dwuargumentowym dzia laniem wewn
,
etrznym ‘◦’ w zbiorze X nazywamy
dowoln
,
a funkcj
,
e z iloczynu kartezja´
nskiego X × X w X. Wynik takiego
dzia lania na parze (x, y) b
,
edziemy oznacza´
c przez x ◦ y.
1.1
Podstawowe struktury algebraiczne
Zaczniemy od przedstawienia abstrakcyjnych definicji grupy i cia la.
1.1.1
Grupa
Definicja 1.1 Zbi´
or (niepusty) G wraz z wewn
,
etrznym dzia laniem dwuargu-
mentowym ‘◦
0
jest grup
,
a je´
sli spe lnione s
,
a nast
,
epuj
,
ace warunki (aksjomaty
grupy):
3
4
ROZDZIA L 1. GRUPY I CIA LA, LICZBY ZESPOLONE
(i) ∀a, b, c ∈ G
(a ◦ b) ◦ c = a ◦ (b ◦ c)
( l
,
aczno´
s´
c dzia lania)
(ii) ∃e ∈ G ∀a ∈ G
a ◦ e = a = e ◦ a
(istnienie elementu neutralnego)
(iii) ∀a ∈ G ∃a
0
∈ G
a ◦ a
0
= e = a
0
◦ a
(istnienie element´
ow przeciwnych/odwrotnych)
Je´
sli ponadto
(iv) ∀a, b ∈ G
a ◦ b = b ◦ a
to grup
,
e nazywamy przemienn
,
a (lub abelow
,
a).
Grup
,
e b
,
edziemy oznacza´
c przez {G, ◦}.
Zauwa˙zmy, ˙ze ju˙z z aksjomat´
ow grupy wynika, i˙z element neutralny jest
wyznaczony jednoznacznie. Rzeczywi´scie, za l´
o˙zmy, ˙ze istniej
,
a dwa elementy
neutralne, e
1
i e
2
. Wtedy, z warunku (ii) wynika, ˙ze e
1
= e
1
◦ e
2
= e
2
.
Podobnie, istnieje tylko jeden element odwrotny dla ka˙zdego a ∈ G. Je´sli
bowiem istnia lyby dwa odwrotne, a
0
1
i a
0
2
, to mieliby´smy
a
0
1
= e ◦ a
0
1
= (a
0
2
◦ a) ◦ a
0
1
= a
0
2
◦ (a ◦ a
0
1
) = a
0
2
◦ e = a
0
2
,
przy czym skorzystali´smy kolejno z w lasno´sci (ii), (iii), (i) i ponownie (iii) i
(ii).
Latwo te˙z pokaza´
c, ˙ze w grupie {G, ◦} r´
ownania
a ◦ x = b
oraz
y ◦ c = d
dla a, b, c, d ∈ G maj
,
a jednoznaczne rozwi
,
azania. W uzasadnieniu, ograni-
czymy si
,
e tylko do pierwszego r´
ownania. Latwo sprawdzi´
c, ˙ze x = a
0
◦ b jest
rozwi
,
azaniem. Z drugiej strony, je´sli x jest rozwi
,
azaniem to a
0
◦(a◦x) = a
0
◦b,
czyli x = a
0
◦ b.
Przyk ladami grup s
,
a:
• {Z, +}, gdzie elementem neutralnym jest e = 0, a elementem przeciw-
nym do a
0
do a jest −a.
• {W \ {0}, ∗}, gdzie e = 1 a a
0
= a
−1
jest odwrotno´sci
,
a a.
1.1. PODSTAWOWE STRUKTURY ALGEBRAICZNE
5
• Grupa obrot´
ow p laszczyzny wok´
o l pocz
,
atku uk ladu wsp´
o lrz
,
ednych,
gdzie elementem neutralnym jest obr´
ot o k
,
at zerowy, a elementem od-
wrotnym do obrotu o k
,
at α jest obr´
ot o k
,
at −α.
Zwr´
o´
cmy uwag
,
e na istotno´s´
c wyj
,
ecia zera w drugim przyk ladzie. Poniewa˙z
0 nie ma elementu odwrotnego, {W, ∗} nie jest grup
,
a. Nie s
,
a te˙z grupami
np. {N, ∗} (nie ma element´
ow odwrotnych) oraz {R, −} (nie ma l
,
aczno´sci
oraz elementu neutralnego).
1.1.2
Cia lo
Definicja 1.2 Cia lem (a ´
sci´
slej, cia lem przemiennym) nazywamy (co naj-
mniej dwuelementowy) zbi´
or K z dwoma dwuargumentowymi dzia laniami we-
wn
,
etrznymi, dodawaniem ‘+’ i mno˙zeniem ‘∗’, spe lniaj
,
ace nast
,
epuj
,
ace wa-
runki (aksjomaty cia la):
(i) {K, +} jest grup
,
a przemienn
,
a (w kt´
orej element neutralny oznaczamy
przez 0, a element przeciwny do a przez −a),
(ii) {K \ {0}, ∗} jest grup
,
a przemienn
,
a (w kt´
orej element neutralny ozna-
czamy przez 1, a odwrotny do a przez a
−1
),
(iii) ∀a, b, c ∈ K
a ∗ (b + c) = a ∗ b + a ∗ c
(mno˙zenie jest rozdzielne wzgl
,
edem dodawania).
1
Bezpo´srednio z definicji cia la mo˙zna pokaza´
c nast
,
epuj
,
ace og´
olne w lasno´sci
(uzasadnienie pozostawiamy jako proste ´
cwiczenie):
1. 0 6= 1,
2. ∀a ∈ K
0 ∗ a = 0 = a ∗ 0,
3. ∀a ∈ K
(−1) ∗ a = −a,
4. je´sli a ∗ b = 0 to a = 0 lub b = 0,
5. je´sli a 6= 0 i b 6= 0 to (a ∗ b)
−1
= b
−1
∗ a
−1
,
1
Przyjmujemy konwencj
,
e, ˙ze w wyra˙zeniach w kt´
orych wyst
,
epuj
,
a i dodawania i
mno˙zenia najpierw wykonujemy mno˙zenia.
6
ROZDZIA L 1. GRUPY I CIA LA, LICZBY ZESPOLONE
dla dowolnych a, b ∈ K.
W ciele mo˙zemy formalnie zdefiniowa´
c odejmowanie i dzielenie, mianowi-
cie
a − b := a + (−b)
∀a, b ∈ K,
a/b := a ∗ b
−1
∀a ∈ K, b ∈ K \ {0}.
Przyk ladem cia la s
,
a liczby rzeczywiste R z naturalnymi dzia laniami do-
dawania i mno˙zenia. Cia lem jest te˙z zbi´
or liczb
{ a + b
√
2 : a, b ∈ W } ⊂ R
z tymi samymi dzia laniami.
1.2
Cia lo liczb zespolonych
Wa˙znym przyk ladem cia la jest cia lo liczb zespolonych, kt´
oremu po´swi
,
ecimy
t
,
a cz
,
e´s´
c wyk ladu.
1.2.1
Definicja
Definicja 1.3 Cia lo liczb zespolonych to zbi´
or par uporz
,
adkowanych
C := R × R = { (a, b) : a, b ∈ R }
z dzia laniami dodawania i mno˙zenia zdefiniowanymi jako:
(a, b) + (c, d) = (a + c, b + d),
(a, b) ∗ (c, d) = (a ∗ c − b ∗ d, a ∗ d + b ∗ c),
dla dowolnych a, b, c, d ∈ R.
2
Formalne sprawdzenie, ˙ze C ze zdefiniowanymi dzia laniami jest cia lem
pozostawiamy czytelnikowi. Tu zauwa˙zymy tylko, ˙ze elementem neutralnym
2
Zauwa˙zmy, ˙ze znaki dodawania i mno˙zenia wyst
,
epuj
,
a tu w dw´
och znaczeniach, jako
dzia lania na liczbach rzeczywistych oraz jako dzia lania na liczbach zespolonych. Z kon-
tekstu zawsze wiadomo w jakim znaczeniu te dzia lania s
,
a u˙zyte.
1.2. CIA LO LICZB ZESPOLONYCH
7
dodawania jest (0, 0), a mno˙zenia (1, 0). Elementem przeciwnym do (a, b)
jest −(a, b) = (−a, −b), a odwrotnym do (a, b) 6= (0, 0) jest
(a, b)
−1
=
a
a
2
+ b
2
,
−b
a
2
+ b
2
.
Zdefiniujemy mno˙zenie liczby zespolonej przez rzeczywist
,
a w nast
,
epuj
,
acy
(naturalny) spos´
ob. Niech z = (a, b) ∈ C i c ∈ R. Wtedy
c ∗ (a, b) = (a, b) ∗ c = (c ∗ a, c ∗ b).
Przyjmuj
,
ac t
,
a konwencj
,
e, mamy
(a, b) = a ∗ (1, 0) + b ∗ (0, 1).
W ko´
ncu, uto˙zsamiaj
,
ac liczb
,
e zespolon
,
a (a, 0) z liczb
,
a rzeczywist
,
a a, oraz
wprowadzaj
,
ac dodatkowo oznaczenie
ı := (0, 1)
otrzymujemy
(a, b) = a + ı ∗ b.
(1.1)
a = <z nazywa si
,
e cz
,
e´
sci
,
a rzeczywist
,
a, a b = =z cz
,
e´
sci
,
a urojon
,
a liczby ze-
spolonej. Sam
,
a liczb
,
e zespolon
,
a ı nazywamy jednostk
,
a urojon
,
a. Zauwa˙zmy,
˙ze
ı
2
= (−1, 0) = −1.
1.2.2
Posta´
c trygonometryczna
Posta´
c (1.1) jest najbardziej rozpowszechniona. Cz
,
esto wygodnie jest u˙zy´
c
r´
ownie˙z postaci trygonometrycznej, kt´
ora jest konsekwencj
,
a interpretacji
liczby zespolonej (a, b) jako punktu na p laszczy´
znie (tzw. p laszczy´
znie ze-
spolonej) o wsp´
o lrz
,
ednych a i b. Dok ladniej, przyjmuj
,
ac
|z| :=
√
a
2
+ b
2
oraz k
,
at φ tak, ˙ze
sin φ =
b
|z|
,
cos φ =
a
|z|
,
8
ROZDZIA L 1. GRUPY I CIA LA, LICZBY ZESPOLONE
otrzymujemy
z = |z|(cos φ + ı sin φ).
(1.2)
Jest to w la´snie posta´
c trygonometryczna. Liczb
,
e rzeczywist
,
a |z| nazywamy
modu lem liczby zespolonej z, a φ jej argumentem, φ = argz.
Je´sli z 6= 0 i za lo˙zymy, ˙ze φ ∈ [0, 2π) to posta´
c trygonometryczna jest
wyznaczona jednoznacznie. Piszemy wtedy φ = Argz.
1.2.3
Wz´
or de Moivre’a
Niech z = |z|(cos φ + ı sin φ), w = |w|(cos ψ + ı sin ψ) b
,
ed
,
a dwoma liczbami
zespolonymi. Wtedy
w ∗ z = |w||z| ((cos φ cos ψ − sin φ sin ψ) + ı(sin φ cos ψ + sin ψ cos φ))
= |w||z| (cos(φ + ψ) + ı sin(φ + ψ)) ,
a st
,
ad
|w ∗ z| = |w||z|
oraz
arg(w ∗ z) = argw + argz.
W la´snie w tych r´
owno´sciach przejawia si
,
e wygoda postaci trygonometrycznej.
W szczeg´
olno´sci mamy bowiem z
2
= |z|
2
(cos 2φ + ı sin 2φ) i post
,
epuj
,
ac dalej
indukcyjnie otrzymujemy wz´
or de Moivre’a. Mianowicie, dla dowolnej liczby
zespolonej z w postaci trygonometrycznej (1.2) mamy
z
n
= |z|
n
(cos(nφ) + ı sin(nφ)),
n = 0, 1, 2, . . .
(1.3)
Latwo zauwa˙zy´
c, ˙ze wz´
or (1.3) jest prawdziwy r´
ownie˙z dla n = −1, a st
,
ad
dla wszystkich ca lkowitych n. Przyjmuj
,
ac za z
1/n
szczeg´
olne rozwi
,
azanie
r´
ownania w
n
= z, mianowicie
z
1/n
= |z|
1/n
(cos(φ/n) + ı sin(φ/n)) ,
gdzie φ = Argz, uog´
olniamy (1.3) dla wszystkich wyk ladnik´
ow wymiernych.
Stosuj
,
ac dalej argument z przej´sciem granicznym (ka˙zda liczba rzeczywi-
sta jest granic
,
a ci
,
agu liczb wymiernych) otrzymujemy w ko´
ncu nast
,
epuj
,
acy
uog´
olniony wz´
or de Moivre’a:
∀a ∈ R
z
a
= |z|
a
(cos(aφ) + ı sin(aφ)) .
Prostym wnioskiem z ostatniego wzoru jest r´
ownanie
z = |z| ∗ ω
φ
,
1.2. CIA LO LICZB ZESPOLONYCH
9
gdzie ω = cos 1 + ı sin 1 = 0, 540302 . . . + ı ∗ 0, 84147 . . . ∈ C.
Jest to
uog´
olnienie na przypadek liczb zespolonych wzoru x = |x| ∗ sgn(x) znanego
z przypadku liczb rzeczywistych.
1.2.4
Pierwiastki z jedynki
Rozpatrzmy rozwi
,
azania r´
ownania
z
n
= 1
dla dowolnej naturalej n. W dziedzinie rzeczywistej pierwiastkiem jest 1
je´sli n jest nieparzyste, albo 1 i (−1) je´sli n jest parzyste.
W dziedzi-
nie zespolonej mamy zawsze n pierwiastk´
ow. Rzeczywi´scie, poniewa˙z 1 =
cos(2kπ) + ı sin(2kπ), ze wzoru de Moivre’a dostajemy, ˙ze wszyskie pier-
wiastki wyra˙zaj
,
a si
,
e wzorami
z
k
:= cos
2kπ
n
+ ı sin
2kπ
n
,
k = 0, 1, 2, . . . , n − 1.
Zauwa˙zmy, ˙ze z
j
le˙z
,
a na okr
,
egu jednostkowym p laszczyzny zespolonej. Zbi´
or
G = {z
k
: k = 0, 1, . . . , n − 1} ze zwyk lym mno˙zeniem liczb zespolonych
tworzy grup
,
e z elementem neutralnym z
0
= 1.
1.2.5
Sprz
,
e ˙zenie
Liczb
,
e sprz
,
e˙zon
,
a do z = a + ıb definiujemy jako
z := a − ıb.
Zauwa˙zmy, ˙ze z = z oraz z ∗ z = |z|
2
. Mamy te˙z
z + z
2
= <z
i
z − z
2ı
= =z.
I jeszcze jedna wa˙zna w lasno´s´
c sprz
,
e˙zenia. Je´sli ∈ {+, −, ∗, /} to
w z = w z.
Stosuj
,
ac indukcj
,
e, mo˙zna ten wz´
or uog´
olni´
c w nast
,
epuj
,
acy spos´
ob. Je´sli
f (u
1
, u
2
, . . . , u
s
) jest wyra˙zeniem arytmetycznym, gdzie u
j
s
,
a sta lymi lub
zmiennymi zespolonymi, to
f (u
1
, u
2
, . . . , u
s
) = f (u
1
, u
2
, . . . , u
s
).
10
ROZDZIA L 1. GRUPY I CIA LA, LICZBY ZESPOLONE
1.3
Wielomiany
Definicja 1.4 Wielomianem p nad cia lem K nazywamy funkcj
,
e zmiennej z
o warto´
sciach w ciele K dan
,
a wzorem
p(z) :=
n
X
j=0
a
j
z
j
= a
0
+ a
1
z + · · · + a
n
z
n
,
gdzie a
j
∈ K, 0 ≤ j ≤ n, a
n
6= 0, s
,
a wsp´
o lczynnikami wielomianu. Liczb
,
e n
nazywamy stopniem wielomianu i oznaczamy
n = deg p.
(Przyjmujemy przy tym, ˙ze deg 0 = −∞.)
1.3.1
Algorytm Hornera
Ka˙zdy wielomian p(z) =
P
n
k=0
a
k
z
k
stopnia n ≥ 1 o wsp´
o lczynnikach zespo-
lonych mo˙zna podzieli´
c przez dwumian z − ξ otrzymuj
,
ac
p(z) = q(z)(z − ξ) + η,
gdzie deg q = n − 1, a η ∈ C. Dodatkowo, je´sli p ma wsp´
o lczynniki rzeczy-
wiste i ξ ∈ R, to q ma r´
ownie˙z wsp´
o lczynniki rzeczywiste i η ∈ R.
Iloraz q oraz reszt
,
e η z dzielenia mo˙zna otrzyma´
c stosuj
,
ac algorytm Hor-
nera:
{ b
n
:= a
n
;
for k := n − 1 downto 0 do b
k
:= a
k
+ ξ ∗ b
k+1
;
}
Wtedy q(z) =
P
n
k=1
b
k
z
k−1
oraz reszta η = b
0
.
1.3.2
Zasadnicze twierdzenie algebry
Dla wielomian´
ow zespolonych prawdziwe jest nast
,
epuj
,
ace wa˙zne twierdzenie.
Twierdzenie 1.1
(Zasadnicze Twierdzenie Algebry)
Ka˙zdy wielomian zespolony p stopnia co najmniej pierwszego ma pierwiastek
zespolony, tzn. r´
ownanie p(z) = 0 ma rozwi
,
azanie.
1.3. WIELOMIANY
11
Twierdzenie 1.1 m´
owi, ˙ze liczby zespolone C s
,
a cia lem algebraicznie do-
mkni
,
etym. (Przypomnijmy, ˙ze liczby rzeczywiste R nie s
,
a algebraicznie do-
mkni
,
ete, bo np. r´
ownanie x
2
+ 1 = 0 nie ma rozwi
,
aza´
n w R.)
Konsekwencj
,
a algebraicznej domkni
,
eto´sci C jest faktoryzacja (rozk lad)
wielomianu zespolonego na czynniki pierwszego stopnia. Dok ladniej, sto-
suj
,
ac n-krotnie zasadnicze twierdzenie algebry oraz fakt, ˙ze je´sli ξ jest pier-
wiastkiem wielomianu p to reszta z dzielenia p przez ( · − ξ) jest zerowa,
otrzymujemy rozk lad
p(z) = a
n
(z − z
1
)(z − z
2
) · · · (z − z
n
),
(1.4)
gdzie z
j
, 1 ≤ j ≤ n, s
,
a pierwiastkami p. Zak ladaj
,
ac, ˙ze tylko m pierwiastk´
ow
jest parami r´
o˙znych (1 ≤ m ≤ n), mo˙zemy r´
ownowa˙znie napisa´
c, ˙ze
p(z) = a
n
(z − u
1
)
s
1
(z − u
2
)
s
2
· · · (z − u
m
)
s
m
,
gdzie u
i
6= u
j
o ile i 6= j, oraz
P
m
j=1
s
j
= n. Przy tym zapisie, s
j
nazywamy
krotno´
sci
,
a pierwiastka u
j
.
Za l´
o˙zmy teraz, ˙ze wsp´
o lczynniki wielomianu p s
,
a rzeczywiste, a
j
∈ R,
0 ≤ j ≤ n. Za l´
o˙zmy te˙z, ˙ze p(ξ) = 0 i ξ /
∈ R. Wtedy ξ 6= ξ i
p(ξ) =
n
X
j=0
a
j
ξ
j
=
n
X
j=0
a
j
ξ
j
=
n
X
j=0
a
j
ξ
j
= 0 = 0,
tzn. je´sli ξ jest pierwiastkiem to tak˙ze liczba sprz
,
e˙zona ξ jest pierwiastkiem;
obie wyst
,
epuj
,
a w rozwini
,
eciu (1.4). Ale
(z − ξ)(z − ξ) = z
2
− z(ξ + ξ) + ξξ = z
2
− 2z<ξ + |ξ|
2
jest tr´
ojmianem kwadratowym o wsp´
o lczynnikach rzeczywistych. St
,
ad wnio-
sek, ˙ze wielomian rzeczywisty daje si
,
e roz lo˙zy´
c na iloczyn czynnik´
ow stopnia
co najwy˙zej drugiego.
12
ROZDZIA L 1. GRUPY I CIA LA, LICZBY ZESPOLONE
Rozdzia l 2
Macierze liczbowe
2.1
Podstawowe definicje
Macierz
,
a (nad cia lem K) nazywamy tablic
,
e prostok
,
atn
,
a
A =
a
1,1
a
1,2
. . .
a
1,n
a
2,1
a
2,2
. . .
a
2,n
..
.
..
.
..
.
a
m,1
a
m,2
. . . a
m,n
,
gdzie a
i,j
∈ K, 1 ≤ i ≤ m, 1 ≤ j ≤ n. B
,
edziemy m´
owi´
c, ˙ze A jest macierz
,
a
formatu m×n, tzn. macierz
,
a o m wierszach i n kolumnach. Zbi´
or wszystkich
takich macierzy oznaczamy przez K
m,n
.
2.1.1
Macierze szczeg´
olnych format´
ow
• n × n
Macierze kwadratowe K
n,n
.
• m × 1
Macierze jednokolumnowe nazywane wektorami.
Zbi´
or wektor´
ow oznaczamy przez K
m,1
= K
m
,
K
m
3 A = (a
i,1
) = ~a = ˆ
a = (a
i
)
m
i=1
=
a
1
a
2
..
.
a
m
.
13
14
ROZDZIA L 2. MACIERZE LICZBOWE
• 1 × n
Macierze jednowierszowe nazywane funkcjona lami.
Zbi´
or funkcjona l´
ow oznaczamy przez K
1,n
= K
nT
(albo K
nH
),
K
nT
3 A = (a
1,j
) = ~a
T
= ˆ
a
T
= (a
j
)
n
j=1
= [a
1
, . . . , a
n
] .
• 1 × 1
Macierze jednoelementowe, uto˙zsamiane z K, tzn. K
1,1
= K.
2.1.2
Podzia l blokowy
Cz
,
esto wygodnie jest przedstawi´
c macierz w postaci blokowej, kt´
ora w og´
o-
lno´sci wygl
,
ada nast
,
epuj
,
aco:
A =
A
1,1
. . . A
1,t
..
.
..
.
A
s,1
. . . A
s,t
∈ K
m,n
,
(2.1)
gdzie A
p,q
∈ K
m
p
,n
q
, 1 ≤ p ≤ s, 1 ≤ q ≤ t,
P
s
p=1
m
p
= m,
P
t
q=1
n
q
= n.
Na posta´
c blokow
,
a mo˙zna patrzy´
c jak na macierz, kt´
orej elementami
s
,
a macierze. Z drugiej strony, macierz liczbow
,
a mo˙zna interpretowa´
c jako
macierz w postaci blokowej z blokami formatu 1 × 1.
Wa˙zne szczeg´
olne przypadki to podzia l kolumnowy macierzy,
A = [~a
1
, ~a
2
, . . . , ~a
n
] ,
gdzie
~a
j
=
a
1,j
a
2,j
..
.
a
m,j
,
1 ≤ j ≤ n,
oraz podzia l wierszowy macierzy,
A =
ˆ
a
T
1
ˆ
a
T
2
..
.
ˆ
a
T
m
,
gdzie
ˆ
a
T
i
= [a
i,1
, a
i,2
, . . . , a
i,n
] ,
1 ≤ i ≤ m.
2.2
Dzia lania na macierzach
2.2.1
Podstawowe dzia lania
Mo˙zemy na macierzach wykonywa´
c r´
o˙zne dzia lania. Podstawowe z nich to:
2.2. DZIA LANIA NA MACIERZACH
15
u ∈ K, A ∈ K
m,n
=⇒ B = u ∗ A ∈ K
m,n
, b
i,j
= u ∗ a
i,j
(mno˙zenie macierzy przez liczb
,
e)
A, B ∈ K
m,n
=⇒ C = A + B ∈ K
m,n
, c
i,j
= a
i,j
+ b
i,j
(dodawanie macierzy)
A ∈ K
m,n
=⇒ B = A
T
∈ K
n,m
, b
j,i
= a
i,j
(transpozycja macierzy)
A ∈ C
m,n
=⇒ B = A
H
∈ K
n,m
, b
j,i
= a
i,j
(sprz
,
e˙zenie hermitowskie)
A ∈ C
m,n
=⇒ B = |A| ∈ C
m,n
, b
i,j
= |a
i,j
| (modu l macierzy)
W szczeg´
olno´sci, mamy te˙z dla u, v ∈ K ⊂ C, A, B ∈ C
m,n
,
(u ∗ A ± v ∗ B)
H
= u ∗ A
H
± v ∗ B
H
,
A
T
T
= A = A
H
H
.
Zauwa˙zmy, ˙ze macierze formatu m × n z dzia laniem dodawania s
,
a grup
,
a
przemienn
,
a, przy czym elementem neutralnym jest macierz zerowa (gdzie
a
i,j
= 0 ∀i, j), a przeciwn
,
a do (a
i,j
) jest macierz (−a
i,j
).
Je´sli macierze dane s
,
a w postaci blokowej (2.1) to:
B = u ∗ A =⇒ B
p,q
= u ∗ A
p,q
C = A + B =⇒ C
p,q
= A
p,q
+ B
p,q
B = A
T
=⇒ B
p,q
= A
T
q,p
B = A
H
=⇒ B
p,q
= A
H
q,p
2.2.2
Mno ˙zenie macierzy
Je´sli A ∈ K
m,l
i B ∈ K
l,n
to
C = A ∗ B ∈ K
m,n
,
gdzie
c
i,j
=
l
X
k=1
a
i,k
∗ b
k,j
,
1 ≤ i ≤ m, 1 ≤ j ≤ n.
16
ROZDZIA L 2. MACIERZE LICZBOWE
Zauwa˙zmy, ˙ze mno˙zenie A ∗ B jest wykonalne wtedy i tylko wtedy gdy
liczba kolumn macierzy A jest r´
owna liczbie wierszy macierzy B. Je´sli A jest
w postaci wierszowej, a B kolumnowej,
A =
ˆ
a
T
1
..
.
ˆ
a
T
m
,
B =
h~b
1
, . . . ,~b
l
i
,
to c
i,j
= ˆ
a
T
i
∗ ~b
j
∀i, j.
Podstawowe w lasno´sci mno˙zenia macierzy s
,
a nast
,
epuj
,
ace. (Zak ladamy,
˙ze macierze s
,
a odpowiednich format´
ow tak, ˙ze dzia lania s
,
a wykonalne.)
(A + B) ∗ C = A ∗ C + B ∗ C
C ∗ (A + B) = C ∗ A + C ∗ B
(rozdzielno´s´
c mno˙zenia wzgl
,
edem dodawania)
u ∗ (A ∗ B) = (u ∗ A) ∗ B = A ∗ (u ∗ B) = (A ∗ B) ∗ u
(u ∈ K)
(A ∗ B) ∗ C = A ∗ (B ∗ C)
( l
,
aczno´s´
c mno˙zenia)
Dowody tych w lasno´sci polegaj
,
a na zwyk lym sprawdzeniu. Dlatego, dla
przyk ladu, poka˙zemy tu jedynie l
,
aczno´s´
c. Niech macierze A, B, C b
,
ed
,
a odpo-
wiednio format´
ow m×k, k ×l, l ×n. (Zauwa˙zmy, ˙ze tylko wtedy odpowiednie
mno˙zenia s
,
a wykonalne.) Mamy
((A ∗ B) ∗ C)
i,j
=
l
X
s=1
(A ∗ B)
i,s
c
s,j
=
l
X
s=1
k
X
t=1
a
i,t
b
t,s
!
c
s,j
=
k
X
t=1
a
i,t
l
X
s=1
b
t,s
c
s,j
=
k
X
t=1
a
i,t
(B ∗ C)
t,j
= (A ∗ (B ∗ C))
i,j
.
Mamy te˙z
(A ∗ B)
T
= B
T
∗ A
T
,
(A ∗ B)
H
= B
H
∗ A
H
.
Rzeczywi´scie,
(A ∗ B)
H
i,j
= (A ∗ B)
j,i
=
l
X
k=1
a
j,k
b
k,i
2.2. DZIA LANIA NA MACIERZACH
17
=
l
X
k=1
a
j,k
b
k,i
=
l
X
k=1
b
k,i
a
j,k
=
l
X
k=1
B
H
i,k
A
H
k,j
=
B
H
∗ A
H
i,j
.
2.2.3
Mno ˙zenie macierzy w postaci blokowej
Je´sli macierze s
,
a podane w postaci blokowej to mo˙zna je mno˙zy´
c ‘blok-po-
bloku’ (tak jak w przypadku blok´
ow 1×1) o ile formaty odpowiednich blok´
ow
s
,
a zgodne. Dok ladniej, je´sli A = (A
i,k
), B = (B
k,j
), 1 ≤ i ≤ m, 1 ≤ k ≤ l,
1 ≤ j ≤ n, oraz dla wszystkich i, j, k liczba kolumn bloku A
i,k
macierzy A
jest r´
owna liczbie wierszy bloku B
k,j
macierzy B to iloczyn
C = A ∗ B = (C
i,j
) ,
1 ≤ i ≤ m, 1 ≤ j ≤ n, gdzie
C
i,j
=
l
X
k=1
A
i,k
∗ B
k,n
.
Poka˙zemy to na przyk ladzie. Niech
A =
A
1,1
A
1,2
A
1,3
A
1,4
A
2,1
A
2,2
A
2,3
A
2,4
A
3,1
A
3,2
A
3,3
A
3,4
,
B =
B
1,1
B
1,2
B
2,1
B
2,2
B
3,1
B
3,2
B
4,1
B
4,2
.
Wtedy
C =
C
1,1
C
1,2
C
2,1
C
2,2
C
3,1
C
3,2
,
gdzie
C
1,1
= A
1,1
∗ B
1,1
+ A
1,2
∗ B
2,1
+ A
1,3
∗ B
3,1
+ A
1,4
∗ B
4,1
,
C
1,2
= A
1,1
∗ B
1,2
+ A
1,2
∗ B
2,2
+ A
1,3
∗ B
3,2
+ A
1,4
∗ B
4,2
,
C
2,1
= A
2,1
∗ B
1,1
+ A
2,2
∗ B
2,1
+ A
2,3
∗ B
3,1
+ A
2,4
∗ B
4,1
,
C
2,2
= A
2,1
∗ B
1,2
+ A
2,2
∗ B
2,2
+ A
2,3
∗ B
3,2
+ A
2,4
∗ B
4,2
,
C
3,1
= A
3,1
∗ B
1,1
+ A
3,2
∗ B
2,1
+ A
3,3
∗ B
3,1
+ A
3,4
∗ B
4,1
,
C
3,2
= A
3,1
∗ B
1,2
+ A
3,2
∗ B
2,2
+ A
3,3
∗ B
3,2
+ A
3,4
∗ B
4,2
,
18
ROZDZIA L 2. MACIERZE LICZBOWE
o ile formaty blok´
ow A
i,k
i B
k,j
s
,
a zgodnie.
Bardzo wa˙znym przypadkiem szczeg´
olnym mno˙zenia blokowego jest
A ∗ B = A ∗
h~b
1
,~b
2
, . . . ,~b
l
i
=
h
A ∗ ~b
1
, A ∗ ~b
2
, . . . , A ∗ ~b
l
i
.
Zwr´
o´
cmy jeszcze uwag
,
e na fakt, ˙ze je´sli ~a ∈ K
m
oraz ~b ∈ K
n
to
C = ~a ∗ ~b
T
∈ K
m,n
jest macierz
,
a formatu m × n, nazywan
,
a iloczynem wewn
,
etrznym wektor´
ow.
Je´sli natomiast wektory s
,
a tych samych format´
ow, ~a,~b ∈ K
n
, to
c = ~a
T
∗ ~b = ~b
T
∗ ~a ∈ K
jest liczb
,
a, nazywan
,
a iloczynem zewn
,
etrznym. W przypadku ~a,~b ∈ C
n
defi-
niujemy r´
ownie˙z iloczyn skalarny wektor´
ow jako liczb
,
e zespolon
,
a
g = ~b
H
∗ ~a ∈ C.
2.3
Dalsze oznaczenia
2.3.1
Macierze tr´
ojk
,
atne i jednostkowe
Wyr´
o˙znimy nast
,
epuj
,
ace podzbiory macierzy formatu m × n (niekoniecznie
kwadratowych):
TRIU
m,n
= { A ∈ K
m,n
: ∀i > j a
i,j
= 0 } ,
TRIL
m,n
= { A ∈ K
m,n
: ∀i < j a
i,j
= 0 } ,
DIAG
m,n
= { A ∈ K
m,n
: ∀i 6= j a
i,j
= 0 } .
S
,
a to odpowiednio macierze tr´
ojk
,
atne g´
orne, tr´
ojk
,
atne dolne i diagonalne.
Zauwa˙zmy, ˙ze ka˙zdy z tych podzbior´
ow macierzy stanowi grup
,
e ze wzgl
,
edu
na dzia lanie dodawania macierzy (s
,
a to podgrupy {K
m,n
, +}), oraz
DIAG
m,n
= TRIU
m,n
∩ TRIL
m,n
.
2.4. MACIERZE NIEOSOBLIWE
19
Poniewa˙z macierze diagonalne D ∈ DIAG
m,n
maj
,
a elementy niezerowe
jedynie na g l´
ownej diagonali, powiedzmy d
i
, 1 ≤ i ≤ min(m, n), b
,
edziemy
pisa´
c
D = diag d
1
, d
2
, . . . , d
min(m,n)
.
Szczeg´
olnie wa˙znymi macierzami diagonalnymi s
,
a (kwadratowe) macierze
jednostkowe
I
n
= diag
n
(1, 1, . . . , 1
|
{z
}
n
) ∈ K
n,n
.
Je´sli A ∈ K
m,n
to
I
m
∗ A = A = A ∗ I
n
,
co oznacza, ˙ze I
m
i I
n
s
,
a elementami neutralnymi mno˙zenia (odpowiednio
lewostronnym i prawostronnym).
2.3.2
Uk lad r´
owna´
n jako r´
ownanie macierzowe
Rozpatrzmy nast
,
epuj
,
acy uk lad r´
owna´
n:
a
1,1
x
1
+
a
1,2
x
2
+ · · · +
a
1,n
x
n
=
b
1
a
2,1
x
1
+
a
2,2
x
2
+ · · · +
a
2,n
x
n
=
b
2
..
.
..
.
..
.
..
.
a
m,1
x
1
+ a
m,2
x
2
+ · · · + a
m,n
x
n
= b
m
.
(2.2)
M´
owimy, ˙ze jest to uk lad m r´
owna´
n liniowych z n niewiadomymi. Liczby
a
i,j
∈ K nazywamy i wsp´
o lczynnikami uk ladu, b
i
wyrazami wolnymi, a x
j
to
niewiadome.
Oznaczmy
A = (a
i,j
) ∈ K
m,n
,
~b = (b
i
) ∈ K
m
,
~
x = (x
j
) ∈ K
n
.
Wtedy uk lad (2.2) mo˙zemy r´
ownowa˙znie zapisa´
c po prostu jako r´
ownanie
macierzowe
A ∗ ~
x = ~b.
2.4
Macierze nieosobliwe
2.4.1
Grupa macierzy nieosobliwych
W zbiorze K
n,n
mno˙zenie macierzy jest dzia laniem wewn
,
etrznym. Ponadto,
jak wcze´sniej zauwa˙zyli´smy, mno˙zenie jest l
,
aczne, a macierz jednostkowa
20
ROZDZIA L 2. MACIERZE LICZBOWE
I
n
= diag(1, . . . , 1) ∈ K
n,n
jest elementem neutralnym mno˙zenia,
∀A ∈ K
n,n
A ∗ I
n
= A = I
n
∗ A.
(Przypomnijmy, ˙ze element neutralny, je´sli istnieje, jest tylko jeden.) Natu-
ralnym staje si
,
e teraz pytanie, czy istniej
,
a elementy odwrotne. Niestety, nie
zawsze. Na przyk lad, latwo sprawdzi´
c, ˙ze (niezerowa) macierz
1 −2
−2
4
nie ma odwrotno´sci (zar´
owno lewostronnej jak i prawostronnej). Z drugiej
strony, wiele macierzy niezerowych maj
,
a odwrotno´sci. Na przyk lad, macierze
A =
1 0
−1 2
oraz
B =
1
0
1/2 1/2
stanowi
,
a par
,
e macierzy do siebie wzajemnie odwrotnych, A ∗ B = I
2
= B ∗ A,
tak, ˙ze mo˙zemy napisa´
c B = A
−1
i A = B
−1
. (Przypomnijmy, ˙ze element
odwrotny, je´sli istnieje, jest wyznaczony jednoznacznie.)
Definicja 2.1 Macierz kwadratow
,
a A ∈ K
n,n
dla kt´
orej istnieje macierz od-
wrotna A
−1
∈ K
n,n
nazywamy odwracaln
,
a albo nieosobliw
,
a. Macierz, kt´
ora
nie posiada macierzy odwrotnej nazywamy osobliw
,
a.
Zwr´
o´
cmy uwag
,
e na fakt, ˙ze poj
,
ecie macierzy (nie)osobliwej przys luguje
jedynie macierzy kwadratowej.
Iloczyn macierzy nieosobliwych jest macierz
,
a nieosobliw
,
a. Rzeczywi´scie,
je´sli A, B ∈ K
n,n
to sprawdzamy bezpo´srednio, ˙ze odwrotno´sci
,
a C = A ∗ B
jest macierz
C
−1
= B
−1
∗ A
−1
.
St
,
ad wniosek, ˙ze
zbi´
or macierzy nieosobliwych formatu n × n z dzia laniem
mno ˙zenia macierzy jest grup
,
a (nieprzemienn
,
a).
2.4. MACIERZE NIEOSOBLIWE
21
2.4.2
Warunek nieosobliwo´
sci macierzy
Twierdzenie 2.1 Aby macierz A ∈ K
n,n
by la nieosobliwa potrzeba i wy-
starcza, aby dla ka˙zdego ~b ∈ K
n
uk lad r´
owna´
n A ∗ ~
x = ~b mia l jednoznaczne
rozwi
,
azanie ~
x ∈ K
n
.
Dow´
od.
(Konieczno´s´
c.) Jes li A jest nieosobliwa to latwo sprawdzi´
c, ˙ze
~
x = A
−1
∗ ~b jest rozwi
,
azaniem. Z drugiej strony, je´sli ~
x jest rozwi
,
azaniem,
A ∗ ~
x = ~b, to A
−1
∗ (A ∗ ~
x) = A
−1
∗ ~b, czyli ~
x = A
−1
∗ ~b jest rozwi
,
azaniem
jednoznacznym.
(Dostateczno´s´
c.) Uk lady r´
owna´
n A∗~b
j
= ~
e
j
, gdzie ~
e
j
jest j-tym wersorem,
~
e
j
= [0, . . . , 0, 1, 0, . . . , 0]
T
,
(gdzie jedynka stoi na j-tym miejscu) maj
,
a jednoznaczne rozwi
,
azania ~b
j
,
1 ≤ j ≤ n. Bior
,
ac B = [~b
1
,~b
2
, . . . ,~b
n
] mamy
A ∗ B = [A ∗ ~b
1
, . . . , A ∗ ~b
n
] = [~
e
1
, . . . , ~
e
n
] = I
n
.
Pozostaje jeszcze pokaza´
c, ˙ze B∗A = I
n
. Rzeczywi´scie, mamy (A∗B)∗A = A,
czyli A ∗ (B ∗ A) = A. Rozwi
,
azaniem r´
ownania A ∗ Z = A jest Z = I
n
, a
poniewa˙z z za lo˙zenia rozwi
,
azanie to jest jednoznaczne to B ∗ A = I
n
. St
,
ad
B = A
−1
, co ko´
nczy dow´
od.
Jednym z wa˙znych wniosk´
ow z tego twierdzenie jest nast
,
epuj
,
acy.
Wniosek 2.1 Macierz tr´
ojk
,
atna (g´
orna lub dolna) T ∈ K
n,n
jest nieosobliwa
wtedy i tylko wtedy gdy wszystkie elementy na g l´
ownej diagonali s
,
a niezerowe.
Rzeczywi´scie, wystarczy sprawdzi´
c jednoznaczn
,
a rozwi
,
azywalno´s´
c odpo-
wiedniego uk ladu r´
owna´
n.
Dodajmy, ˙ze macierz odwrotna do tr´
ojk
,
atnej
dolnej (g´
ornej), je´sli istnieje, jest te˙z tr´
ojk
,
atna dolna (g´
orna).
2.4.3
Permutacje
Niech p = [p(1), p(2), . . . , p(n)] ∈ Perm(n) b
,
edzie permutacj
,
a n elementow
,
a.
Odpowiadaj
,
ac
,
a tej permutacji macierz P = (p
i,j
) ∈ K
n,n
zdefiniowan
,
a jako
p
i,j
=
1
gdy j = p(i),
0
gdy j 6= p(i),
22
ROZDZIA L 2. MACIERZE LICZBOWE
nazywamy macierz
,
a permutacji. Na przyk lad, je´sli p = [3, 1, 4, 2] ∈ Perm(4)
to
P =
0 0 1 0
1 0 0 0
0 0 0 1
0 1 0 0
.
R´
ownowa˙znie, macierz kwadratowa P jest macierz
,
a permutacji wtedy i tylko
wtedy gdy w ka˙zdym wierszu i w ka˙zdej kolumnie wyst
,
epuje dok ladnie jedna
jedynka, a pozosta le elementy s
,
a zerami.
Latwo sprawdzi´
c, ˙ze permutacje n-elementowe Perm(n) tworz
,
a grup
,
e ze
wzgl
,
edu na ich z lo˙zenie,
(q ◦ p)(i) = q(p(i))
1 ≤ i ≤ n.
Elementem neutralnym jest permutacja identyczno´sciowa id(i) = i ∀i, a ele-
mentem odwrotnym do p jest permutacja odwrotna p
0
zdefiniowana r´
owno´sci
,
a
p
0
(p(i)) = i ∀i.
Podobnie, macierze permutacji tworz
,
a grup
,
e ze wzgl
,
edu na mno˙zenie
macierzy, przy czym
P (q ◦ p) = P (p) ∗ P (q).
Rzeczywi´scie, (P (q ◦ p))
i,j
= 1 w.t.w. gdy q(p(i)) = j. Z drugiej strony,
(P (p) ∗ P (q))
i,j
= 1 w.t.w gdy (P (q))
p(i),j
= 1, czyli zn´
ow q(p(i)) = j.
Podobnie pokazujemy, ˙ze
P (p
0
) = (P (p))
−1
= (P (p))
T
.
Zauwa˙zmy jeszcze, ˙ze je´sli P = P (p), p ∈ Perm(n), to
P ∗
x
1
..
.
x
n
=
x
p(1)
..
.
x
p(n)
,
czyli mno˙zenie wektora z lewej strony przez macierz permutacji skutkuje
zamian
,
a kolejno´sci wsp´
o lrz
,
ednych. Podobnie,
P ∗
ˆ
a
T
1
..
.
ˆ
a
T
n
=
ˆ
a
T
p(1)
..
.
ˆ
a
T
p(n)
2.4. MACIERZE NIEOSOBLIWE
23
powoduje przestawienie wierszy macierzy zgodnie z p. Poniewa˙z
A ∗ P = (A ∗ P )
T
T
= P
T
∗ A
T
T
,
dochodzimy do wniosku, ˙ze
A ∗ P permutuje kolumny A zgodnie z p
0
,
A ∗ P
T
permutuje kolumny A zgodnie z p.
24
ROZDZIA L 2. MACIERZE LICZBOWE
Rozdzia l 3
Normy wektor´
ow i macierzy
W tym rozdziale zak ladamy, ˙ze
K ⊆ C.
3.1
Og´
olna definicja normy
Niech ψ : K
m,n
→ [0, +∞) b
,
edzie przekszta lceniem spe lniaj
,
acym warunki:
(i) ∀A ∈ K
m,n
ψ(A) = 0 ⇐⇒ A = 0,
(ii) ∀A ∈ K
m,n
∀u ∈ K
ψ(u ∗ A) = |u| · ψ(A),
(iii) ∀A, B ∈ K
m,n
ψ(A + B) ≤ ψ(A) + ψ(B)
(nier´
owno´
s´
c tr´
ojk
,
ata albo subaddytywno´
s´
c).
Ka˙zde takie przekszta lcenie ψ nazywamy norm
,
a w K
m,n
i oznaczamy
ψ(A) = kAk.
Norma jest miar
,
a “wielko´sci” macierzy. Dlatego
kA − Bk
uznajemy za miar
,
e odleg lo´sci mi
,
edzy macierzami A i B.
Powiemy, ˙ze norma jest monotoniczna gdy warunek |A| ≤ |B| (tzn. gdy
|a
i,j
| ≤ |b
i,j
| ∀i, j) implikuje kAk ≤ kBk. Je´sli norma w K
n,n
spe lnia
kA ∗ Bk ≤ kAk · kBk,
∀A, B ∈ K
n,n
,
to m´
owimy, ˙ze norma jest submultiplikatywna.
25
26
ROZDZIA L 3. NORMY WEKTOR ´
OW I MACIERZY
3.2
Normy wektor´
ow
3.2.1
Normy p-te
Wektory w K
n
s
,
a szczeg´
olnymi macierzami. W tym przypadku, wa˙znymi
przyk ladami norm s
,
a normy Schura, zdefiniowane dla danej p, 1 ≤ p ≤ ∞,
jako
k~
xk
p
=
n
X
i=1
|x
i
|
p
!
1/p
dla
1 ≤ p < ∞,
k~
xk
∞
=
max
1≤i≤n
|x
i
|.
Nietrudno zauwa˙zy´
c, ˙ze k~
xk
∞
= lim
p→∞
k~
xk
p
, ∀~
x ∈ K
n
.
Warunki (i) i (ii) normy s
,
a trywialnie spe lnione przez normy Schura.
Warunek (iii) latwo sprawdzi´
c dla p = 1, ∞. Dla p = 1 mamy bowiem
k~
x + ~
yk
1
=
n
X
i=1
|x
i
+ y
i
| ≤
n
X
i=1
|x
i
| +
n
X
i=1
|y
i
| = k~
xk
1
+ k~
yk
1
,
a dla p = ∞
k~
x + ~
yk
∞
= max
1≤i≤n
|x
i
+ y
i
| ≤ max
1≤i≤n
|x
i
| + max
1≤i≤n
|y
i
| = k~
xk
∞
+ k~
yk
∞
.
(W obu przypadkach zastosowali´smy nier´
owno´s´
c tr´
ojk
,
ata |u + v| ≤ |u| + |v|
dla liczb zespolonych u i v.) Dla innych warto´sci p warunek (iii) jest du˙zo
trudniej pokaza´
c. Dlatego ograniczymy si
,
e tu jedynie do przypadku p = 2.
Lemat 3.1 (Nier´
owno´
s´
c Schwarza)
Dla dowolnych ~
u, ~
v ∈ K
n
mamy
|~
u
H
∗ ~v| ≤ k~
uk
2
· k~vk
2
.
Dow´
od.
Dla t ∈ K mamy
0 ≤ k~
u + ~
v ∗ tk
2
2
= (~
u + ~
v ∗ t)
H
· (~
u + ~
v ∗ t)
= ~
u
H
∗ ~
u + ¯
t · t ∗ ~
v
H
∗ ~v + ~
u
H
∗ ~v ∗ t + ~v
H
∗ ~
u ∗ ¯
t
= k~
uk
2
2
+ |t|
2
· k~vk
2
2
+ |t| · |~
u
H
∗ ~v| · ω
(ϕ+ψ)
+ ω
−(ϕ+ψ)
,
gdzie t = |t| · ω
ψ
, ~
u
H
∗ ~v = |~
u
H
∗ ~v| · ω
ϕ
, ω = cos 1 + ı · sin 1.
3.2. NORMY WEKTOR ´
OW
27
Bior
,
ac teraz ψ = −ϕ mamy
0 ≤ k~
uk
2
2
+ 2|t| · |~
u
H
∗ ~v| + |t|
2
· k~vk
2
2
,
a bior
,
ac ψ = π − ϕ mamy
0 ≤ k~
uk
2
2
− 2|t| · |~
u
H
∗ ~v| + |t|
2
· k~vk
2
2
.
St
,
ad dla dowolnej τ ∈ R otrzymujemy
0 ≤ k~
uk
2
2
+ 2τ |~
u
H
∗ ~v| + τ
2
k~vk
2
2
.
Poniewa˙z prawa strona ostatniej nier´
owno´sci jest, jako funkcja τ , tr´
ojmianem
kwadratowym o warto´sciach nieujemnych, to
0 ≥ ∆ = 4 |~
u ∗ ~
v|
2
− k~
uk
2
2
· k~vk
2
2
,
co implikuje |~
u
H
∗ ~v| ≤ k~
uk
2
· k~vk
2
i ko´
nczy dow´
od.
Na podstawie nier´
owno´sci Schwarza mamy teraz
k~
u + ~
vk
2
2
= k~
uk
2
2
+ k~
vk
2
2
+ ~
u
H
∗ ~v + ~v
H
∗ ~
u
= k~
uk
2
2
+ k~
vk
2
2
+ 2<(~
u
H
∗ ~v)
≤ k~
uk
2
2
+ k~
vk
2
2
+ 2|~
u
H
∗ ~v|
≤ k~
uk
2
2
+ k~
vk
2
2
+ 2k~
uk
2
k~vk
2
= (k~
uk
2
+ k~
vk
2
)
2
,
czyli nier´
owno´s´
c tr´
ojk
,
ata dla k · k
2
.
3.2.2
Po ˙zyteczne (nie)r´
owno´
sci
Nietrudno pokaza´
c nast
,
epuj
,
ace nier´
owno´sci l
,
acz
,
ace normy p-te Schura dla
p = 1, 2, ∞. Mianowicie, dla ka˙zdego ~
u ∈ K
n
mamy
k~
uk
∞
≤ k~
uk
1
≤ n · k~
uk
∞
,
k~
uk
∞
≤ k~
uk
2
≤
√
n · k~
uk
∞
,
k~
uk
2
≤ k~
uk
1
≤
√
n · k~
uk
2
,
28
ROZDZIA L 3. NORMY WEKTOR ´
OW I MACIERZY
przy czym ostatnia z tych nier´
owno´sci jest konsekwencj
,
a nier´
owno´sci Schwa-
rza,
k~
uk
1
=
n
X
i=1
|u
i
| =
n
X
i=1
|u
i
| · |1| ≤
n
X
i=1
|u
i
|
2
!
1/2
n
X
i=1
1
2
!
1/2
=
√
n · k~
uk
2
.
Dodatkowo zauwa˙zamy, ˙ze nier´
owno´sci tych nie mo˙zna poprawi´
c. Na przy-
k lad, dla pierwszego wersora ~
e
1
mamy k~
e
1
k
p
= 1 ∀p, a dla ~1 = [1, 1, . . . , 1] ∈
K
n
mamy k~1k
1
=
√
nk~1k
2
= nk~1k
∞
.
Kul
,
a jednostkow
,
a w K
n
(ze wzgl
,
edu na norm
,
e k · k) nazywamy zbi´
or
wektor´
ow
K = { ~
u ∈ K
n
: k~
uk ≤ 1} .
Z podanych powy˙zej nier´
owno´sci wynika w szczeg´
olno´sci, ˙ze
K
1
⊂ K
2
⊂ K
∞
,
gdzie K
p
jest kul
,
a jednostkow
,
a w normie p-tej Schura.
Zauwa˙zmy jeszcze, ˙ze normy p-te s
,
a monotoniczne oraz, ˙ze dla dowolnej
macierzy permutacji P ∈ K
n,n
i wektora ~
x ∈ K
n
kP ∗ ~
xk
p
= k~
xk
p
,
tzn. norma p-ta wektora jest niezmiennicza ze wzgl
,
edu na przestawienia
kolejno´sci jego wsp´
o lrz
,
ednych.
3.3
Normy macierzy
3.3.1
Normy p-te
Normy p-te macierzy s
,
a definiowane (indukowane) przez normy p-te wek-
tor´
ow w nast
,
epuj
,
acy spos´
ob:
kAk
p
=
sup
~
06=~
x∈K
n
kA ∗ ~
xk
p
k~
xk
p
= sup { kA ∗ ~
xk
p
: ~
x ∈ K
n
, k~
xk
p
= 1} .
Zauwa˙zmy, ˙ze u˙zywamy tego samego oznaczenia dla norm wektora jak i ma-
cierzy. Jest to uzasadnione, gdy˙z norma p-ta macierzy jest uog´
olnieniem
3.3. NORMY MACIERZY
29
normy p-tej wektora. Dla A = [u
1
, . . . , u
m
]
T
∈ K
m,1
= K
m
mamy bowiem
kAk
p
= sup
|t|=1
kA ∗ tk
p
= (
P
m
i=1
|u
i
|
p
)
1/p
. (Tutaj t ∈ K!)
Wprost z definicji wynika, ˙ze normy indukowane macierzy spe lniaj
,
a wa-
runek zgodno´
sci (z norm
,
a wektorow
,
a), tzn.
∀A ∈ K
m,n
∀~
x ∈ K
n
kA ∗ ~
xk
p
≤ kAk
p
· k~
xk
p
.
Normy te s
,
a r´
ownie˙z submultiplikatywne,
∀A ∈ K
m,l
∀B ∈ K
l,n
kA ∗ Bk
p
≤ kAk
p
· kBk
p
.
Rzeczywi´scie, dla ~
x ∈ K
l
mamy
k(A ∗ B) ∗ ~
xk
p
= kA ∗ (B ∗ ~
x)k
p
≤ kAk
p
· kB ∗ ~
xk
p
≤ kAk
p
· kBk
p
· k~
xk
p
,
sk
,
ad
sup
~
x6=~
0
k(A ∗ B) ∗ ~
xk
p
k~
xk
p
≤ kAk
p
· kBk
p
.
Dla macierzy permutacji P ∈ K
m,m
i Q ∈ K
n,n
mamy
kP ∗ A ∗ Q
T
k
p
= kAk
p
,
co oznacza, ˙ze przestawienie kolumn i wierszy macierzy nie zmienia jej p-
tej normy. Rzeczywi´scie, poniewa˙z przestawienie wsp´
o lrz
,
ednych nie zmienia
normy p-tej wektora, mamy
sup
~
x6=~
0
kP ∗ A ∗ Q
T
∗ ~
xk
p
k~
xk
p
= sup
~
x6=~
0
kA ∗ Q
T
∗ ~
xk
p
kQ
T
∗ ~
xk
p
= sup
~
y6=~
0
kA ∗ ~
yk
p
k~
yk
p
.
3.3.2
Po ˙zyteczne (nie)r´
owno´
sci
Dla niekt´
orych p, norm
,
e mo˙zna wyrazi´
c w spos´
ob pozwalaj
,
acy j
,
a latwo ob-
liczy´
c.
Lemat 3.2 Dla dowolnej macierzy A = (a
i,j
) ∈ K
m,n
(a)
kAk
∞
= max
1≤i≤m
P
n
j=1
|a
i,j
|,
(b)
kAk
1
= max
1≤j≤n
P
m
i=1
|a
i,j
|.
30
ROZDZIA L 3. NORMY WEKTOR ´
OW I MACIERZY
Dow´
od.
(a) Dla ~
x = [x
1
, . . . , x
n
]
T
∈ K
n
mamy
kA ∗ ~
xk
∞
=
max
1≤i≤m
n
X
j=1
a
i,j
· x
j
≤ max
1≤i≤m
n
X
j=1
|a
i,j
| · |x
j
|
≤ k~
xk
∞
·
max
1≤i≤m
n
X
j=1
|a
i,j
|
!
.
Z drugiej strony, we´
zmy ~
x
∗
= (x
∗
j
) taki, ˙ze x
∗
j
= ω
−ϕ
j
, 1 ≤ j ≤ n, gdzie ϕ
j
jest argumentem liczby a
s,j
, tzn. a
s,j
= |a
s,j
|ω
ϕ
j
, a s jest tym indeksem i,
dla kt´
orego suma
P
n
j=1
|a
i,j
| jest najwi
,
eksza. Wtedy k~
x
∗
k
∞
= 1 oraz
kA ∗ ~
x
∗
k
∞
≥
n
X
j=1
a
s,j
· x
∗
j
=
n
X
j=1
|a
s,j
|ω
ϕ
j
ω
−ϕ
j
=
n
X
j=1
|a
s,j
|,
a st
,
ad kAk
∞
≥ max
1≤i≤m
P
n
j=1
|a
i,j
|.
(b) Dla dowolnego ~
x mamy
kA ∗ ~
xk
1
=
m
X
i=1
n
X
j=1
a
i,j
· x
j
≤
m
X
i=1
n
X
j=1
|a
i,j
| · |x
j
|
=
n
X
j=1
|x
j
| ·
m
X
i=1
|a
i,j
| ≤
max
1≤j≤n
m
X
i=1
|a
i,j
|
!
· k~
xk
1
.
Z drugiej strony, dla ~
x
∗
takiego, ˙ze x
∗
j
= 0 dla j 6= s, x
∗
j
= 1 dla j = s, gdzie
s jest tym indeksem j dla kt´
orego suma
P
m
i=1
|a
i,j
| jest najwi
,
eksza, mamy
k~
x
∗
k
1
= 1 oraz kA ∗ ~
xk
1
=
P
m
i=1
|a
i,s
|, a st
,
ad kAk
1
≥ max
1≤j≤n
P
m
i=1
|a
i,j
|.
Z powy˙zszego lematu latwo wida´
c, ˙ze
kA
T
k
∞
= kA
H
k
∞
= kAk
1
,
kA
T
k
1
= kA
H
k
1
= kAk
∞
.
Szczeg´
oln
,
a rol
,
e odgrywa norma druga k · k
2
, ze wzgl
,
ed´
ow, kt´
ore b
,
ed
,
a jasne
p´
o´
zniej. Niestety, nie wyra˙za si
,
e ona w tak prosty spos´
ob jak k · k
1
i k · k
∞
.
W odr´
o˙znieniu od tych ostatnich, norma druga ma jednak dodatkow
,
a wa˙zn
,
a
w lasno´s´
c; mianowicie, dla dowolnej A ∈ K
m,n
kA
T
k
2
= kA
H
k
2
= kAk
2
.
3.3. NORMY MACIERZY
31
R´
owno´s´
c ta wynika bezpo´srednio z faktu, ˙ze
kAk
2
= sup
~
z
sup
~
y
~
y
H
∗ A ∗ ~z
,
gdzie suprema wzi
,
ete s
,
a po ~
z ∈ K
n
i ~
y ∈ K
m
takich, ˙ze k~
zk
2
= 1 = k~
yk
2
.
Rzeczywi´scie, dla dowolnych ~
y i ~
z o jednostkowych normach mamy
|~
y
H
∗ A ∗ ~
z| ≤ k~
yk
2
· kA ∗ ~zk
2
= kA ∗ ~
zk
2
≤ kAk
2
,
przy czym w pierwszej nier´
owno´sci zastosowali´smy nier´
owno´s´
c Schwarza. Z
drugiej strony, dla ~
z o jednostkowej normie i takiego, ˙ze A ∗ ~
z 6= ~0 mamy
kA ∗ ~
zk
2
=
kA ∗ ~
zk
2
2
kA ∗ ~
zk
2
=
(A ∗ ~
z)
H
∗ A ∗ ~
z
kA ∗ ~
zk
2
≤ sup
k~
yk
2
=1
~
y
H
∗ A ∗ ~
z
,
gdzie podstawili´smy ~
y = A ∗ ~
z/kA ∗ ~
zk
2
.
3.3.3
Norma Frobeniusa
Norm
,
e Frobeniusa (albo Euklidesow
,
a) macierzy A ∈ K
m,n
definiujemy jako
kAk
F
=
m
X
i=1
n
X
j=1
|a
i,j
|
2
!
1/2
.
Zalet
,
a normy k · k
F
jest jej latwa “obliczalno´s´
c”, natomiast wad
,
a, ˙ze nie jest
to norma indukowana przez ˙zadn
,
a norm
,
e wektorow
,
a.
Zwi
,
azek mi
,
edzy norm
,
a Frobeniusa i norm
,
a drug
,
a pokazuje nast
,
epuj
,
acy
lemat.
Lemat 3.3 Dla dowolnej A ∈ K
m,n
mamy
kAk
2
≤ kAk
F
≤
p
min(m, n) · kAk
2
.
Dow´
od.
Wykorzystuj
,
ac nier´
owno´s´
c Schwarza, dla dowolnego ~
x ∈ K
n
o
jednostkowej normie drugiej mamy
kA ∗ ~
xk
2
2
=
m
X
i=1
n
X
j=1
a
i,j
· x
j
2
≤
m
X
i=1
n
X
j=1
|a
i,j
| · |x
j
|
!
2
≤
m
X
i=1
n
X
j=1
|a
i,j
|
2
!
n
X
j=1
|x
j
|
2
!
= kAk
2
F
,
32
ROZDZIA L 3. NORMY WEKTOR ´
OW I MACIERZY
a st
,
ad kAk
2
≤ kAk
F
.
Z drugiej strony, przedstawiaj
,
ac A jako
A = [~a
1
, ~a
2
, . . . , ~a
n
] ,
~a
j
∈ K
m
,
mamy kAk
2
≥ kA ∗ ~e
j
k
2
= k~a
j
k
2
, gdzie ~
e
j
jest j-tym wersorem. St
,
ad
kAk
2
2
≥
1
n
·
n
X
j=1
ka
j
k
2
2
=
1
n
· kAk
2
F
,
czyli kAk
F
≤
√
n · kAk
2
. Ale r´
ownie˙z
kAk
F
= kA
T
k
F
≤
√
m · kA
T
k
2
=
√
m · kAk
2
,
co ko´
nczy dow´
od.
Zauwa˙zymy jeszcze jedn
,
a w lasno´s´
c norm p-tych macierzy. Niech macierz
A b
,
edzie dana w postaci blokowej,
A = [A
1
, A
2
, . . . , A
s
] .
Wtedy
kA
k
k
p
=
sup
k~
x
k
k
p
=1
kA
k
∗ ~
x
k
k
p
=
sup
k~
x
k
k
p
=1,~
x
j
=~
0,j6=k
s
X
j=1
A
j
∗ ~
x
j
p
≤
sup
k~
xk
p
=1
kA ∗ ~
xk
p
= kAk
p
.
Podobnie, je´sli
A =
A
1
A
2
..
.
A
t
to
kA
k
k
p
p
=
sup
k~
xk
p
=1
kA
k
∗ ~
xk
p
p
≤ sup
k~
xk
p
=1
t
X
j=1
kA
j
∗ ~
xk
p
p
=
sup
k~
xk
p
=1
kA ∗ ~
xk
p
p
= kAk
p
p
.
3.3. NORMY MACIERZY
33
St
,
ad dostajemy wniosek, ˙ze je´sli A jest w postaci blokowej to dla ka˙zdego
bloku A
i,j
mamy
kA
i,j
k
p
≤ kAk
p
,
1 ≤ p ≤ ∞.
Oczywi´scie, ta w lasno´s´
c zachodzi r´
ownie˙z dla normy Frobeniusa.
34
ROZDZIA L 3. NORMY WEKTOR ´
OW I MACIERZY
Rozdzia l 4
Przestrzenie liniowe
4.1
Przestrzenie i podprzestrzenie
4.1.1
Definicja i podstawowe w lasno´
sci
Niech X z dzia laniem dodawania ‘+’ b
,
edzie grup
,
a przemienn
,
a (abelow
,
a).
Oznaczmy przez 0 element neutralny tej grupy, a przez (−a) element prze-
ciwny do a ∈ X . Za l´
o´
zmy ponadto, ˙ze w X zdefiniowane jest dzia lanie
‘∗’ mno˙zenia przez skalary, czyli elementy pewnego cia la K, kt´
ore spe lnia
nast
,
epuj
,
ace warunki:
1
(i) ∀a ∈ X
∀α ∈ K
α ∗ a = a ∗ α ∈ X
(ii) ∀a ∈ X
1 ∗ a = a
(gdzie 1 jest jedynk
,
a w K)
(iii) ∀a, b ∈ X
∀α, β ∈ K
(α + β) ∗ a = α ∗ a + β ∗ a
α ∗ (a + b) = α ∗ a + α ∗ b
(α ∗ β) ∗ a = α ∗ (β ∗ a).
Definicja 4.1 Zbi´
or X z dzia laniami o wy˙zej wymienionych w lasno´
sciach
nazywamy przestrzeni
,
a liniow
,
a nad cia lem K i oznaczamy X
|K
(albo po prostu
X ).
1
Zauwa˙zmy, ˙ze symbolu ‘∗’ u˙zywamy zar´
owno do oznaczenia mno˙zenia skalaru przez
element z grupy jak i mno˙zenia skalaru przez skalar.
Podobnie ‘+’ oznacza zar´
owno
dodawanie w ciele K jak i w grupie X . Nie prowadzi to jednak do niejednoznaczno´
sci, bo
z kontekstu zawsze wiadomo o jakie dzia lanie chodzi.
35
36
ROZDZIA L 4. PRZESTRZENIE LINIOWE
Podamy kilka elementarnych w lasno´sci przestrzeni liniowych:
• ∀a ∈ X
0 ∗ a = 0
• ∀a ∈ X
(−1) ∗ a = −a
• ∀α ∈ K ∀a ∈ X
[ α ∗ a = 0 ⇐⇒ (α = 0) lub (a = 0) ]
Pierwsza w lasno´s´
c wynika z r´
owno´sci 0 ∗ a = (0 + 0) ∗ a = 0 ∗ a + 0 ∗ a, a
druga z r´
owno´sci 0 = 0 ∗ a = (1 + (−1)) ∗ a = a + (−1) ∗ a. Implikacja w
lew
,
a stron
,
e w ostatniej w lasno´sci jest oczywista. Aby pokaza´
c implikacj
,
e w
praw
,
a stron
,
e za l´
o˙zmy, ˙ze α ∗ 0 = 0 i α 6= 0. Wtedy
a = 1 ∗ a = (α
−1
∗ α) ∗ a = α
−1
∗ (α ∗ a) = α
−1
∗ 0 = 0.
Elementy przestrzeni liniowej X
|K
nazywamy zwykle wektorami, odwo lu-
j
,
ac si
,
e do odpowiedniej interpretacji geometrycznej.
Przyk ladami przestrzeni liniowych s
,
a R
n
|R
, C
n
|R
, C
n
|C
, K
m,n
|K
. We wszyst-
kich tych przyk ladach mno˙zenie wektora przez skalar zdefiniowane jest w
naturalny spos´
ob “wyraz po wyrazie”. Przestrze´
n liniow
,
a nad R (albo nad
C) tworz
,
a te˙z wielomiany stopnia co najwy˙zej (n − 1) o wsp´
o lczynnikach
rzeczywistych (albo zespolonych). Oznaczamy j
,
a przez P
n
|R
(albo P
n
|C
).
4.1.2
Podprzestrzenie liniowe
Definicja 4.2 Niech X
|K
b
,
edzie przestrzeni
,
a liniow
,
a. Niepusty podzbi´
or Y ⊆
X nazywamy podprzestrzeni
,
a (liniow
,
a) przestrzeni X
|K
, gdy Y jest prze-
strzeni
,
a liniow
,
a nad K (z dzia laniami jak w X ). Piszemy przy tym
Y
|K
⊆ X
|K
.
Twierdzenie 4.1 Na to, aby Y
|K
⊆ X
|K
potrzeba i wystarcza, ˙ze:
(i) ∀a, b ∈ Y
a + b ∈ Y
(ii) ∀α ∈ K
∀a ∈ Y
α ∗ a ∈ Y.
Dow´
od.
(i) i (ii) oznaczaj
,
a, ˙ze dodawanie wektor´
ow i mno˙zenie ich przez
skalar nie wyprowadzaj
,
a poza zbi´
or Y. Pozosta le warunki bycia podprze-
strzeni
,
a s
,
a w spos´
ob oczywisty spe lnione, bo s
,
a one spe lnione w X .
Szczeg´
olnymi przyk ladami podprzestrzeni s
,
a Y = X (podprzestrze´
n nie-
w la´sciwa) oraz Y = {0} (podprzestrze´
n zerowa).
4.2. BAZA I WYMIAR PRZESTRZENI
37
Twierdzenie 4.2 Cz
,
e´
s´
c wsp´
olna dowolnej rodziny podprzestrzeni przestrze-
ni liniowej X
|K
jest te˙z podprzestrzeni
,
a X
|K
.
Dow´
od.
Niech {Y
j
}
j∈J
, gdzie J jest (by´
c mo˙ze niesko´
nczonym) zbiorem
indeks´
ow, b
,
edzie dowoln
,
a rodzin
,
a podprzestrzeni. Oznaczmy
Y =
\
j∈J
Y
j
.
Wobec twierdzenia 4.1 wystarczy pokaza´
c, ˙ze dzia lania dodawania i mno˙zenia
przez skalar nie wyprowadzaj
,
a poza zbi´
or Y. Rzeczywi´scie, warunek a, b ∈ Y
oznacza, ˙ze a, b ∈ Y
j
dla wszystkich j ∈ J , a st
,
ad r´
ownie˙z a + b ∈ Y
j
. W
konsekwencji a + b ∈ ∩
j∈J
Y
j
= Y. Podobne uzasadnienie dla mno˙zenia przez
skalar omijamy.
Wa˙znymi przyk ladami podprzestrzni liniowych przestrzeni macierzy K
m,n
|K
s
,
a TRIL
m,n
, TRIU
m,n
oraz DIAG
m,n
. Podprzestrzeniami liniowymi w P
n
|K
s
,
a
P
k
|K
z k ≤ n, albo wielomiany w kt´
orych zmienna wyst
,
epuje tylko w pot
,
egach
parzystych. (Przyjmujemy przy tym, ˙ze −∞, czyli stopie´
n wielomianu zero-
wego, jest liczb
,
a parzyst
,
a.)
4.2
Baza i wymiar przestrzeni
4.2.1
Liniowa (nie)zale ˙zno´
s´
c
Niech {b
j
}
n
j=1
⊂ X oraz i {α
j
}
n
j=1
⊂ K. Element
b =
n
X
j=1
α
j
∗ b
j
nazywamy kombinacj
,
a liniow
,
a element´
ow {b
j
}, przy czym liczby {α
j
} s
,
a
wsp´
o lczynnikami tej kombinacji.
Zauwa˙zmy, ˙ze
B = span(b
1
, b
2
, . . . , b
n
) :=
n
n
X
j=1
α
j
∗ b
j
: {α
j
}
n
j=1
⊂ K
o
,
czyli zbi´
or wszystkich kombinacji liniowych danych element´
ow {b
j
}, jest pod-
przestrzeni
,
a przestrzeni X
|K
.
M´
owimy, ˙ze B jest rozpi
,
eta na elementach
b
1
, . . . , b
n
.
38
ROZDZIA L 4. PRZESTRZENIE LINIOWE
Definicja 4.3 Uk lad {b
j
}
n
j=1
⊂ X jest liniowo zale˙zny je´sli istnieje uk lad
skalar´
ow {α
j
}
n
j=1
⊂ K zawieraj
,
acy liczby niezerowe, dla kt´
orego
n
X
j=1
α
j
∗ b
j
= 0.
Definicja 4.4 Uk lad {b
j
}
n
j=1
⊂ X jest liniowo niezale˙zny je´sli nie jest li-
niowo zale˙zny, tzn. gdy dla dowolnych skalar´
ow {α
j
}
n
j=1
z r´
owno´
sci
n
X
j=1
α
j
∗ b
j
= 0
wynika, ˙ze α
j
= 0, 1 ≤ j ≤ n.
Latwo zauwa˙zy´
c, ˙ze dowolny (niepusty) poduk lad uk ladu liniowo nie-
zale˙znego jest uk ladem liniowo niezale˙znym. Z drugiej strony, je´sli uk lad ma
poduk lad liniowo zale˙zny to uk lad wyj´sciowy jest liniowo zale˙zny.
Rozpatrzmy dowolny uk lad {b
j
}
n
j=1
. Je´sli jest on liniowo zale˙zny to ist-
niej
,
a {α
j
}
n
j=1
takie, ˙ze dla pewnego s mamy α
s
6= 0 oraz
P
n
j=1
α
j
∗ b
j
= 0.
Wtedy
b
s
=
n
X
s6=j=1
−
α
j
α
s
∗ b
j
,
czyli b
s
∈ span (b
1
, . . . , b
s−1
, b
s+1
, . . . , b
n
), a st
,
ad
span(b
1
, . . . , b
s
, . . . , b
n
) = span(b
1
, . . . , b
s−1
, b
s+1
, . . . , b
n
).
Mo˙zna tak post
,
epowa´
c dalej otrzymuj
,
ac w ko´
ncu uk lad liniowo niezale˙zny
rozpinaj
,
acy t
,
a sam
,
a przestrze´
n co {b
j
}
n
j=1
. (Poniewa˙z uk lad wyj´sciowy jest
sko´
nczony, proces “wyjmowania” kolejnych wektor´
ow musi si
,
e sko´
nczy´
c po
co najwy˙zej n krokach.)
Wniosek 4.1 Z ka˙zdego uk ladu wektor´
ow (b
1
, . . . , b
n
) mo˙zna wyj
,
a´
c poduk lad
(b
j(1)
, . . . , b
j(k)
), 1 ≤ j(1) < · · · < j(k) ≤ n (0 ≤ k ≤ n) taki, ˙ze jest on
liniowo niezale˙zny oraz
span(b
1
, . . . , b
n
) = span(b
j(1)
, . . . , b
j(k)
).
4.2. BAZA I WYMIAR PRZESTRZENI
39
4.2.2
Baza i wymiar, twierdzenie Steinitza
Definicja 4.5 Uk lad {b
j
}
n
j=1
nazywamy baz
,
a przestrzeni Y
|K
⊆ X
|K
gdy:
(i) jest on liniowo niezale˙zny,
(ii) Y = span(b
1
, b
2
, . . . , b
n
).
Mamy nast
,
epuj
,
ace wa˙zne twierdzenie.
Twierdzenie 4.3 Ka˙zda przestrze´
n liniowa Y
|K
ma baz
,
e. Ponadto, wszyst-
kie bazy s
,
a r´
ownoliczne.
Twierdzenie to prowadzi do nast
,
epuj
,
acej definicji.
Definicja 4.6 Liczb
,
e element´
ow bazy danej przestrzeni Y
|K
nazywamy jej
wymiarem i oznaczamy dim(Y
|K
).
Dow´
od twierdzenia 4.3 o istnieniu i r´
ownoliczno´sci baz udowodnimy te-
raz jedynie w przypadku przestrzeni rozpi
,
etych na uk ladach sko´
nczonych.
Zauwa˙zmy najpierw, ˙ze z Wniosku 4.1 natychmiast wynika, i˙z takie prze-
strzenie maj
,
a baz
,
e. Dow´
od r´
ownoliczno´sci baz opiera si
,
e na nast
,
epuj
,
acym
bardzo po˙zytecznym twierdzeniu.
Twierdzenie 4.4 (Steinitza o wymianie)
Niech
span(b
1
, . . . , b
n
) ⊆ span(c
1
, . . . , c
m
) = X ,
przy czym uk lad {b
j
}
n
j=1
jest liniowo niezale˙zny. Wtedy n ≤ m oraz n ele-
ment´
ow uk ladu {c
j
}
n
j=1
mo˙zna wymieni´
c na {b
j
}
n
j=1
otrzymuj
,
ac uk lad rozpi-
naj
,
acy X .
Dow´
od.
(Indukcja wzgl
,
edem n.)
Dla n = 0 teza jest oczywista. Za l´
o´
zmy, ˙ze teza zachodzi dla n−1. Wtedy
n − 1 ≤ m oraz
X = span(b
1
, . . . , b
n−1
, c
n
, c
n+1
, . . . , c
m
).
40
ROZDZIA L 4. PRZESTRZENIE LINIOWE
(Zak ladamy bez zmniejszenia og´
olno´sci, ˙ze wymienili´smy n−1 pocz
,
atkowych
element´
ow uk ladu {c
j
}
m
j=1
.) Poniewa˙z b
n
∈ X to mo˙zna go przedstawi´c w
postaci kombinacji liniowej
b
n
=
n−1
X
j=1
α
j
∗ b
j
+
m
X
j=n
β
j
∗ c
j
.
Zauwa˙zmy, ˙ze istnieje s, n ≤ s ≤ m, taka, ˙ze β
s
6= 0, bo w przeciwnym
przypadku b
n
by lby liniowo zale˙zny od b
1
, . . . , b
n−1
. St
,
ad n ≤ m oraz
c
s
=
b
n
β
s
−
n−1
X
j=1
α
j
β
s
∗ b
j
−
m
X
s6=j=n
β
j
β
s
∗ c
j
,
tzn. c
s
jest liniow
,
a kombinacj
,
a wektor´
ow b
1
, . . . , b
n
, c
n
, . . . , c
s−1
, c
s+1
, . . . , c
m
.
Wymieniaj
,
ac c
s
na b
n
dostajemy
X = span(c
1
, . . . , c
m
) = span(b
1
, . . . , b
n−1
, c
n
, . . . , c
m
)
= span(b
1
, . . . , b
n−1
, b
n
, c
n+1
, . . . , c
m
).
To ko´
nczy dow´
od.
Bior
,
ac teraz dwie bazy, (b
1
, . . . , b
n
) oraz (c
1
, . . . , c
m
), tej samej przestrzeni
Y
|K
i stosuj
,
ac twierdzenie Steinitza otrzymujemy z jednej strony n ≤ m, a z
drugiej m ≤ n. St
,
ad m = n, czyli bazy s
,
a r´
ownoliczne.
Z twierdzenia Steinitza mo˙zna latwo wywnioskowa´
c nast
,
epuj
,
ace w lasno-
´sci. (Poni˙zej zak ladamy, ˙ze dim(X
|K
) < ∞.)
1. Ka˙zdy uk lad liniowo niezale˙zny w X mo˙zna uzupe lni´
c do bazy w X .
2. Je´sli Y
|K
⊆ X
|K
to dim(Y
|K
) ≤ dim(X
|K
).
3. Niech Y
|K
⊆ X
|K
. Wtedy
Y = X ⇐⇒ dim(Y
|K
) = dim(X
|K
).
4.2.3
Przyk lady
Podamy teraz kilka przyk lad´
ow przestrzeni i ich baz.
4.3. SUMY I SUMY PROSTE
41
•
K
m
|K
= span(~
e
1
, ~
e
2
, . . . , ~
e
m
),
gdzie ~
e
j
= [0, . . . , 0, 1, 0, . . . , 0]
T
jest j-tym wersorem (jedynka na j-tej
wsp´
o lrz
,
ednej). St
,
ad dim(K
m
|K
) = m.
•
K
m,n
|K
= span(E
i,j
: 1 ≤ i ≤ m, 1 ≤ j ≤ n),
gdzie
(E
i,j
)
p,q
=
1 i = p, j = q,
0 wpp.
St
,
ad dim(K
m,n
|K
) = m · n.
•
C
m,n
|R
= span(E
i,j
, ı · E
i,j
: 1 ≤ i ≤ m, 1 ≤ j ≤ n)
(ı =
√
−1).
St
,
ad dim(C
m,n
|R
) = 2 · m · n.
•
P
n
|R
= span(1, t, t
2
, . . . , t
n−1
)
i dim(P
n
|R
) = n.
4.3
Sumy i sumy proste
4.3.1
Suma (prosta) dw´
och podprzestrzeni
Niech Y i Z b
,
ed
,
a podprzestrzeniami X . Definiujemy iloczyn tych podprze-
strzeni jako
S = Y ∩ Z := {x ∈ X : x ∈ Y i x ∈ Z},
oraz sum
,
e jako
T = Y + Z := {y + z : y ∈ Y, z ∈ Z}.
Zauwa˙zmy, ˙ze suma podprzestrzeni nie jest zwyk l
,
a sum
,
a teoriomnogo´sciow
,
a.
Oczywi´scie, zar´
owno iloczyn S jak i suma T s
,
a podprzestrzeniami X .
42
ROZDZIA L 4. PRZESTRZENIE LINIOWE
Definicja 4.7 Je´
sli iloczyn Y ∩ Z = {0} to sum
,
e Y + Z nazywamy sum
,
a
prost
,
a i oznaczamy
T = Y ⊕ Z.
Podamy teraz kilka w lasno´sci wymiar´
ow sum i sum prostych.
(W1)
0 ≤ dim(Y ∩ Z) ≤ min (dim(Y), dim(Z))
(W2)
max (dim(Y), dim(Z)) ≤ dim(Y + Z)
≤ min (dim(X ), dim(Y) + dim(Z))
(W3)
dim(Y + Z) = dim(Y) + dim(Z) − dim(Y ∩ Z)
(W4)
dim(Y ⊕ Z) = dim(Y) + dim(Z)
W lasno´s´
c (W1) jak i lewa strona (W2) wynikaj
,
a po prostu z zawierania si
,
e
odpowiednich podprzestrzeni, a prawa strona w (W2) z faktu, ˙ze Y + Z ⊆ X
oraz, ˙ze suma teoriomnogo´sciowa baz w Y i Z rozpina Y + Z.
Poniewa˙z (W4) wynika bezpo´srednio z (W3), dla pe lno´sci dowodu wy-
starczy pokaza´
c (W3). W tym celu bierzemy baz
,
e (b
1
, . . . , b
u
) w Y ∩ Z, a
nast
,
epnie uzupe lniamy j
,
a do bazy (b
1
, . . . , b
u
, y
u+1
, . . . , y
s
) w Y oraz do bazy
(b
1
, . . . , b
u
, z
u+1
, . . . , z
t
) w Z. Jasne jest, ˙ze
span(y
u+1
, . . . , y
s
) ∩ span(z
u+1
, . . . , z
t
) = {0},
bo inaczej wsp´
olny element niezerowy by lby w Y ∩ Z, a w´
owczas uk lad
(b
1
, . . . , b
u
, y
u+1
, . . . , y
s
) nie by lby liniowo niezale˙zny.
Uk lad (b
1
, . . . , b
u
, y
u+1
, . . . , y
s
, z
u+1
, . . . , z
t
) jest wi
,
ec liniowo niezale˙zny i
rozpina Y + Z, a wi
,
ec jest te˙z baz
,
a tej przestrzeni. Dlatego
dim(Y + Z) = u + (s − u) + (t − u) = s + t − u
= dim(Y) + dim(Z) − dim(Y ∩ Z).
4.3. SUMY I SUMY PROSTE
43
4.3.2
Suma (prosta) w og´
olnym przypadku
Uog´
olnimy poj
,
ecia sumy i sumy prostej na dowoln
,
a, ale sko´
nczon
,
a, liczb
,
e
podprzestrzeni. Niech Y
j
, 1 ≤ j ≤ s, b
,
ed
,
a podprzestrzeniami X . Sum
,
e tych
podprzestrzeni definujemy jako
Y
=
Y
1
+ Y
2
+ · · · + Y
s
=
s
X
j=1
Y
j
:= {y
1
+ · · · + y
s
: y
j
∈ Y
j
, 1 ≤ j ≤ s}.
Definicja 4.8 Je´
sli dla ka˙zdego t, 1 ≤ t ≤ s,
Y
t
∩
s
X
t6=j=1
Y
j
!
= {0}
to sum
,
e Y
1
+ · · · + Y
s
=
P
s
j=1
Y
j
nazywamy sum
,
a prost
,
a i oznaczamy
Y
1
⊕ · · · ⊕ Y
s
=
s
M
j=1
Y
j
.
Twierdzenie 4.5 Je´
sli Y = ⊕
s
j=1
Y
j
to ka˙zdy wektor y ∈ Y ma jednoznaczne
przedstawienie w postaci
y = y
1
+ y
2
+ · · · + y
s
,
y
j
∈ Y
j
, 1 ≤ j ≤ s.
Dow´
od.
(Indukcja wzgl
,
edem s.)
Dla s = 1 twierdzenie jest w oczywisty spos´
ob prawdziwe. Za l´
o˙zmy, ˙ze
jest ono prawdziwe dla s − 1. Niech
y = y
1
+ · · · + y
s
= y
0
1
+ · · · + y
0
s
.
Wtedy
Y
s
3 y
s
− y
0
s
=
s−1
X
j=1
(y
0
j
− y
j
) ∈ Y
1
+ · · · + Y
s−1
,
a poniewa˙z Y
1
⊕ · · · ⊕ Y
s−1
⊕ Y
s
to y
s
= y
0
s
i y
1
+ · · · + y
s−1
= y
0
1
+ · · · + y
0
s−1
.
Wobec tego, ˙ze Y
1
⊕ · · · ⊕ Y
s−1
, co wynika wprost z definicji sumy prostej,
mo˙zemy teraz skorzysta´
c z za lo˙zenia indukcyjnego, aby wywnioskowa´
c, ˙ze
y
j
= y
0
j
dla 1 ≤ j ≤ s − 1. To ko´
nczy dow´
od.
44
ROZDZIA L 4. PRZESTRZENIE LINIOWE
Zauwa˙zmy, ˙ze je´sli Y = Y
1
⊕ · · · ⊕ Y
s
to suma teoriomnogo´sciowa baz w
Y
j
, 1 ≤ j ≤ s, jest baz
,
a Y. W szczeg´
olnym przypadku, gdy (b
1
, . . . , b
n
) jest
baz
,
a X to
X = span(b
1
) ⊕ · · · ⊕ span(b
n
).
Ponadto, ka˙zdemu wektorowi x ∈ X mo˙zna jednoznacznie przyporz
,
adkowa´
c
wsp´
o lczynniki α
j
, 1 ≤ j ≤ n, takie, ˙ze
x =
n
X
j=1
α
j
∗ b
j
.
4.4
Izomorfizm przestrzeni
Definicja 4.9 Przestrze´
n X
|K
jest izomorficzna z Y
|K
(obie przestrzenie nad
tym samym cia lem) gdy istnieje wzajemnie jednoznaczne (r´
o˙znowarto´
sciowe
i “na”) odwzorowanie
f : X → Y
zachowuj
,
ace kombinacje liniowe, tzn. ∀x
1
, x
2
∈ X ∀α
1
, α
2
∈ K
f (α ∗ x
1
+ α
2
∗ x
2
) = α
1
∗ f (x
1
) + α
2
∗ f (x
2
).
Odwzorowanie f nazywamy izomorfizmem.
Zauwa˙zmy, ˙ze je´sli f : X → Y jest izomorfizmem to f (0) = 0 (bo f (0) =
f (0 + 0) = f (0) + f (0)). Izomorfizm zachowuje te˙z liniow
,
a (nie)zale˙zno´s´
c
wektor´
ow, co wynika z faktu, ˙ze warunek
P
s
j=1
α
j
∗f (b
j
) = 0 jest r´
ownowa˙zny
f (
P
s
j=1
α
j
∗ b
j
) = 0, czyli
P
s
j=1
α
j
∗ b
j
= 0.
St
,
ad mamy prosty wnio-
sek, ˙ze izomorfizm f przeprowadza baz
,
e (b
1
, . . . , b
n
) przestrzeni X na baz
,
e
(f (b
1
), . . . , f (b
n
)) przestrzeni Y.
Ponadto mamy:
(i) ka˙zda przestrze´
n jest izomorficzna ze sob
,
a,
(ii) je´sli X jest izomorficzna z Y to Y jest izomorficzna z X ,
(iii) je´sli X jest izomorficzna z Y oraz Y jest izomorficzna z Z to X jest
izomorficzna z Z.
4.5. WARSTWY MODULO Y
45
Aby pokaza´
c (i) wystarczy zauwa˙zy´
c, ˙ze przekszta lcenie identyczno´sciowe w
X ustala izomorfizm X z X . Dla (ii) wyka˙zemy, ˙ze odwzorowanie odwrotne
f
−1
: Y → X ustala izomorfizm Y z X . Rzeczywi´scie, je´sli y
1
, y
2
∈ Y to
istniej
,
a x
1
, x
2
∈ X takie, ˙ze y
1
= f (x
1
) i y
2
= f (x
2
). St
,
ad
f
−1
(α
1
∗ y
1
+ α
2
∗ y
2
)
= f
−1
(α
1
∗ f (x
1
) + α
2
∗ f (x
2
)) = f
−1
(f (α
1
∗ x
1
+ α
2
∗ x
2
))
= α
1
∗ x
1
+ α
2
∗ x
2
= α
1
∗ f
−1
(y
1
) + α
2
∗ f
−1
(y
2
).
W ko´
ncu, aby pokaza´
c (iii) zauwa˙zmy, ˙ze je´sli f i g s
,
a odpowiednio izomor-
fizmami X w Y oraz Y w Z to z lo˙zenie h(·) := g(f (·)) jest izomorfizmem X
w Z. Rzeczywi´scie,
h(α
1
∗ x
1
+ α
2
∗ x
2
)
= g(f (α
1
∗ x
1
+ α
2
∗ x
2
)) = g(α
1
∗ f (x
1
) + α
2
∗ f (x
2
))
= α
1
∗ g(f (x
1
)) + α
2
∗ g(f (x
2
)) = α
1
∗ h(x
1
) + α
2
∗ h(x
2
).
W lasno´sci (i)-(iii) pokazuj
,
a, ˙ze relacja “bycia przestrzeniami izomorficz-
nymi” jest zwrotna, symetryczna i przechodnia, a wi
,
ec jest relacj
,
a r´
ownowa-
˙zno´
sci. St
,
ad, zbi´
or wszystkich przestrzeni liniowych nad ustalonym cia lem
mo˙zna podzieli´
c na roz l
,
aczne podzbiory b
,
ed
,
ace klasami abstrakcji tej relacji.
Do tej samej klasy nale˙z
,
a przestrzenie wzajemnie izomorficzne.
Wniosek 4.2 Ka˙zda przestrze´
n liniowa X
|K
wymiaru n jest izomorficzna z
K
n
|K
.
Rzeczywi´scie, wybieraj
,
ac dowoln
,
a baz
,
e (b
1
, . . . , b
n
) w X
|K
i definiuj
,
ac
odwzorowanie f : X → Y jako
f
n
X
j=1
α
j
∗ b
j
:=
n
X
j=1
α
j
∗ ~e
j
(gdzie ~
e
j
jest j-tym wersorem) otrzymujemy izomorfizm przestrzeni X
|K
w
K
n
|K
.
4.5
Warstwy modulo Y
4.5.1
Definicja
Niech Y b
,
edzie podprzestrzeni
,
a przestrzeni X i niech x
0
∈ X .
46
ROZDZIA L 4. PRZESTRZENIE LINIOWE
Definicja 4.10 Zbi´
or wektor´
ow
W (x
0
, Y) := { x
0
+ y : y ∈ Y }
nazywamy warstw
,
a modulo Y przez x
0
(albo hiperp laszczyzn
,
a r´
ownoleg l
,
a do
Y przez punkt x
0
).
Zauwa˙zmy, ˙ze je´sli x
1
−x
2
∈ Y to warstwy W (x
1
, Y) i W (x
2
, Y) zawieraj
,
a
te same wektory. Rzeczywis´scie, je´sli x = x
1
+ y ∈ W (x
1
, Y) to x = x
2
+
((x
1
− x
2
) + y) ∈ W (x
2
, Y). Podobnie, je´sli x ∈ W (x
2
, Y) to x ∈ W (x
1
, Y).
Z drugiej strony, je´sli x ∈ W (x
1
, Y) ∩ W (x
2
, Y) to x = x
1
+ y
1
= x
2
+ y
2
dla pewnych y
1
, y
2
∈ Y. St
,
ad x
1
− x
2
= y
2
− y
1
∈ Y i w konsekwencji
W (x
1
, Y) = W (x
2
, Y).
Na podstawie powy˙zszej analizy mo˙zemy stwierdzi´
c, ˙ze dwie warstwy,
W (x
1
, Y) i W (x
2
, Y), s
,
a sobie r´
owne (gdy x
1
− x
2
∈ Y) albo roz l
,
aczne (gdy
x
1
− x
2
/
∈ Y). Dlatego warstwy W (x
1
, Y) i W (x
2
, Y) takie, ˙ze x
1
− x
2
∈ Y
b
,
edziemy uto˙zsamia´
c.
Trywialnymi przyk ladami warstw s
,
a W (x
0
, X ) = X oraz W (x
0
, {0}) =
{x
0
}.
4.5.2
Przestrze´
n warstw
W zbiorze wszystkich warstw modulo Y (Y ⊆ X ) wprowadzimy dzia lania
dodawania warstw i mno˙zenia przez skalar α ∈ K w nast
,
epuj
,
acy spos´
ob:
(i) W (x
1
, Y) + W (x
2
, Y) := W (x
1
+ x
2
, Y),
(ii) α ∗ W (x, Y) := W (α ∗ x, Y).
Dzia lania te s
,
a dobrze zdefiniowane, bo je´sli
W (x
1
, Y) = W (x
0
1
, Y)
i
W (x
2
, Y) = W (x
0
2
, Y)
to x
1
− x
0
1
∈ Y i x
2
− x
0
2
∈ Y, a st
,
ad (x
1
− x
0
1
) + (x
2
− x
0
2
) ∈ Y, czyli
W (x
1
+ x
2
, Y) = W (x
0
1
+ x
0
2
, Y). Podobnie, je´sli W (x, Y) = W (x
0
, Y) to
α ∗ x − α ∗ x
0
= α ∗ (x − x
0
) ∈ Y, czyli W (α ∗ x, Y) = W (α ∗ x
0
, Y).
Latwo sprawdzi´
c, ˙ze zbi´
or warstw modulo Y z powy˙zej zdefiniowanymi
dzia laniami jest przestrzeni
,
a liniow
,
a nad K. Aby znale´
z´
c baz
,
e tej przestrzeni,
zapiszemy X jako sum
,
e prost
,
a X = Y ⊕ Z (gdzie Z jest oczywi´scie wyzna-
czona niejednoznacznie) i we´
zmiemy dowoln
,
a baz
,
e (z
1
, z
2
, . . . , z
k
) w Z (gdzie
4.5. WARSTWY MODULO Y
47
k = dim(Z)). Okazuje si
,
e, ˙ze przestrze´
n warstw jest izomorficzna z Z, a
uk lad
(W (z
1
, Y), . . . , W (z
k
, Y))
jest jej baz
,
a. Aby si
,
e o tym przekona´
c, wystarczy pokaza´
c, ˙ze odwzorowanie
f (z) = W (z, Y),
z ∈ Z,
jest izomorfizmem. Rzeczywi´scie, z definicji dodawania warstw i mno˙zenia
przez skalar wynika, ˙ze f zachowuje kombinacje liniowe. Jest ono r´
ownie˙z
r´
o˙znowarto´sciowe, bo je´sli f (z
1
) = f (z
2
) to z
1
− z
2
∈ Y, a poniewa˙z Y i Z
tworz
,
a sum
,
e prost
,
a to z
1
−z
2
= 0 i z
1
= z
2
. W ko´
ncu, f jest przekszta lceniem
“na”, bo dla dowolnej warstwy W (x, Y), x ∈ X , mamy W (x, Y) = f (z), gdzie
z pochodzi z (jednoznacznego) rozk ladu x = y + z, y ∈ Y, z ∈ Z.
W szczeg´
olno´sci pokazali´smy r´
ownie˙z, ˙ze przestrze´
n warstw modulo Y ma
wymiar dim(X ) − dim(Y).
Na przyk lad, je´sli Y = X to przestrze´
n warstw jest izomorficza z prze-
strzeni
,
a zerow
,
a, a je´sli Y = {0} to jest ona izomorficzna z X .
48
ROZDZIA L 4. PRZESTRZENIE LINIOWE
Rozdzia l 5
Obraz, rz
,
ad i j
,
adro macierzy
5.1
Obraz i rz
,
ad macierzy
5.1.1
Rz
,
ad kolumnowy i rz
,
ad wierszowy
Niech A ∈ K
m,n
b
,
edzie dana w postaci blokowej,
A = [~a
1
, ~a
2
, . . . , ~a
n
],
~a
j
∈ K
m
, 1 ≤ j ≤ n.
Obraz macierzy A definiujemy jako
R(A) := { A ∗ ~
x : ~
x ∈ K
n
} = span(~a
1
, ~a
2
. . . , ~a
n
) ⊆ K
m
.
Dalej, rz
,
ad kolumnowy macierzy A definiujemy jako
rz
k
(A) := dim (R(A)) .
Oczywi´scie, 0 ≤ rz
k
(A) ≤ min(m, n). Przedstawiaj
,
ac z kolei A jako wektory-
wiersze (funkcjona ly),
A =
ˆ
a
T
1
..
.
ˆ
a
T
m
,
definiujemy rz
,
ad wierszowy macierzy A jako
rz
w
(A) = dim R(A
T
)
= dim (span(ˆ
a
1
, ˆ
a
2
, . . . , ˆ
a
n
)) .
Podobnie jak dla rz
,
edu kolumnowego, 0 ≤ rz
w
(A) ≤ min(m, n).
49
50
ROZDZIA L 5. OBRAZ, RZ
,
AD I J
,
ADRO MACIERZY
5.1.2
Rz
,
ad macierzy
Mamy nast
,
epuj
,
ace wa˙zne twierdzenie.
Twierdzenie 5.1 Dla dowolnej macierzy A ∈ K
m,n
rz
k
(A) = rz
w
(A).
Dow´
od.
Oznaczmy
k = rz
k
(A)
oraz
w = rz
w
(A).
Zauwa˙zmy najpierw, ˙ze permutacja kolumn macierzy nie zmienia ani jej
rz
,
edu kolumnowego (bo to tylko zmiana kolejno´sci wektor´
ow) ani jej rz
,
edu
wierszowego (bo to tylko przenumerowanie wsp´
o lrz
,
ednych, identyczne dla
ka˙zdego z wektor´
ow). Podobnie rz
,
ed´
ow nie zmienia permutacja wierszy.
Dokonajmy wi
,
ec, dla uproszczenia, takiej permutacji kolumn, a potem
wierszy, aby otrzymana macierz ˆ
A by la postaci
ˆ
A =
A
I
A
II
,
gdzie A
I
∈ K
m,k
, A
II
∈ K
m,n−k
, rz
k
(A
I
) = k, oraz
A
I
=
A
1
A
2
,
przy czym A
1
∈ K
w
1
,k
, A
2
∈ K
m−w
1
,k
, w
1
:= rz
w
(A
I
) = rz
w
(A
1
). Oczywi´scie
w
1
≤ w,
bo wiersze A
1
s
,
a “obci
,
etymi” wierszami ˆ
A.
Poniewa˙z wektory-wiersze macierzy A
2
s
,
a liniowo zale˙zne od wektor´
ow-
wierszy macierzy A
1
to istnieje macierz B ∈ K
w
1
,m−w
1
taka, ˙ze A
T
2
= A
T
1
∗
B (gdzie kolejne kolumny B s
,
a wsp´
o lczynnikami odpowiednich kombinacji
liniowych), czyli A
2
= B
T
∗ A
1
. Dla dowolnego ~
x ∈ K
k
mamy wi
,
ec
A
I
∗ ~
x =
A
1
∗ ~
x
A
2
∗ ~
x
=
A
1
∗ ~
x
B
T
∗ A
1
∗ ~
x
.
St
,
ad, A
1
∗ ~
x = ~0 wtedy i tylko wtedy gdy A
I
∗ ~
x = ~0, a poniewa˙z kolumny
macierzy A
I
s
,
a liniowo niezale˙zne, oznacza to tak˙ze liniow
,
a niezale˙zno´s´
c ko-
lumn macierzy A
1
. A je´sli tak to ich liczba k nie mo˙ze przekroczy´
c w
1
, czyli
wymiaru przestrzeni do kt´
orej nale˙z
,
a.
5.2. PRZESTRZE ´
N ZEROWA (J
,
ADRO) MACIERZY
51
Otrzymali´smy wi
,
ec, ˙ze
rz
k
(A) = rz
k
( ˆ
A) = k ≤ w
1
≤ w = rz
w
( ˆ
A) = rz
w
(A).
Przeprowadzaj
,
ac podobne rozumowanie dla macierzy A
T
otrzymujemy
rz
w
(A) ≤ rz
k
(A), a st
,
ad ostatecznie rz
w
(A) = rz
k
(A), co nale˙za lo pokaza´
c.
Na podstawie twierdzenia 5.1 poprawna jest nast
,
epuj
,
aca definicja rz
,
edu
macierzy.
Definicja 5.1 Rz
,
edem macierzy A nazywamy liczb
,
e
rz(A) := rz
k
(A) = rz
w
(A).
5.2
Przestrze´
n zerowa (j
,
adro) macierzy
Dla A ∈ K
m,n
zbi´
or
N (A) :=
n
~
x ∈ K
n
: A ∗ ~
x = ~0
o
nazywamy j
,
adrem macierzy A.
Niech k = rz(A). Za l´
o˙zmy, ˙ze kolumny macierzy A zosta ly tak przesta-
wione, ˙ze otrzymana macierz ˆ
A ma posta´
c
ˆ
A =
A
I
A
II
,
gdzie A
I
∈ K
m,k
, A
II
∈ K
m,n−k
, oraz rz(A
I
) = rz( ˆ
A) (= rz(A)).
Je´sli
tak to kolumny macierzy A
II
s
,
a liniowo zale˙zne od kolumn macierzy A
I
.
W konsekwencji A
II
= A
I
∗ B dla pewnej B ∈ K
k,n−k
. Za l´
o˙zmy teraz, ˙ze
~
x ∈ N ( ˆ
A). Przedstawiaj
,
ac ~
x w postaci
~
x =
~
x
I
~
x
II
,
~
x
I
∈ K
k
, ~
x
II
∈ K
n−k
, mamy
~0 = ˆ
A ∗ ~
x =
A
I
A
II
~
x
I
~
x
II
= A
I
∗ ~
x
I
+ A
II
∗ ~
x
II
= A
I
∗ ~
x
I
+ A
I
∗ B ∗ ~
x
II
= A
I
∗ (~
x
I
+ B ∗ ~
x
II
).
52
ROZDZIA L 5. OBRAZ, RZ
,
AD I J
,
ADRO MACIERZY
Ostatnie wyra˙zenie jest liniow
,
a kombinacj
,
a kolumn macierzy A
I
, a poniewa˙z
kolumny te s
,
a liniowo niezale˙zne to kombinacja ta daje wektor zerowy tylko
wtedy gdy ~
x
I
+ B ∗ ~
x
II
= ~0, czyli ~
x
I
= −B ∗ ~
x
II
. St
,
ad
N ( ˆ
A) =
−B ∗ ~x
II
~
x
II
: ~
x
II
∈ K
n−k
=
−B
I
n−k
∗ ~
x
II
: ~
x
II
∈ K
n−k
.
Przedstawiaj
,
ac B kolumnowo, B = [~b
1
, . . . ,~b
n−k
], otrzymujemy ostatecznie
N ( ˆ
A) = R
−B
I
n−k
= span
−~b
1
~
e
1
, . . . ,
−~b
n−k
~
e
n−k
,
gdzie jak zwykle ~
e
j
∈ K
n−k
jest j-tym wersorem. Poniewa˙z ~
e
1
, . . . , ~
e
n−k
s
,
a
liniowo niezale˙zne to liniowo niezale˙zne s
,
a te˙z wektory w powy˙zszym “span”.
St
,
ad dim(N ( ˆ
A)) = n − k = n − rz(A). Wobec r´
owno´sci dim(N ( ˆ
A)) =
dim(N (A)) (bo permutacja kolumn skutkuje jedynie przestawieniem wsp´
o l-
rz
,
ednych w j
,
adrze) dostajemy nast
,
epuj
,
acy wniosek.
Wniosek 5.1 Dla dowolnej macierzy A ∈ K
m,n
dim(N (A)) + dim(R(A)) = n.
5.3
Rozk lad wzgl
,
edem obrazu i j
,
adra
Zatrzymajmy si
,
e na chwil
,
e na przypadku gdy K ⊆ C. Poniewa˙z wtedy
n
X
j=1
~a
j
∗ x
j
!
=
n
X
j=1
~a
j
∗ x
j
(gdzie sprz
,
e˙zenie wektora oznacza sprz
,
e˙zenie “po wsp´
o lrz
,
ednych”) to wektory
(~a
1
, . . . , ~a
n
) oraz (~a
1
, . . . , ~a
n
) s
,
a jednocze´snie albo liniowo niezale˙zne, albo
liniowo zale˙zne. St
,
ad rz(A) = rz(A) (gdzie zn´
ow sprz
,
e˙zenie macierzy oznacza
sprz
,
e˙zenie “po wsp´
o lrz
,
ednych”). W konsekwencji,
rz(A
H
) = rz(A
T
) = rz(A
T
) = rz(A).
5.3. ROZK LAD WZGL
,
EDEM OBRAZU I J
,
ADRA
53
Latwo mo˙zna te˙z wywnioskowa´
c inn
,
a w lasno´s´
c; mianowicie, je´sli
A = B ∗ C,
A ∈ K
m,n
, B ∈ K
m,k
, C ∈ K
k,n
, to
rz(A) ≤ min(rz(B), rz(C)).
Rzeczywi´scie, r´
owno´s´
c A = B ∗ C oznacza, ˙ze kolumny macierzy A s
,
a liniow
,
a
kombinacj
,
a kolumn macierzy B, a st
,
ad R(A) ⊆ R(B) i w konsekwencji
rz(A) ≤ rz(B). Bior
,
ac z kolei transpozycj
,
e mamy A
T
= C
T
∗ B
T
i to samo
rozumowanie daje R(A
T
) ⊆ R(C
T
) oraz
rz(A) = rz(A
T
) ≤ rz(C
T
) = rz(C).
Na koniec jeszcze jedno istotne twierdzenie.
Twierdzenie 5.2 Niech K ⊆ C i A ∈ K
m,n
. Wtedy
K
m
= R(A) ⊕ N (A
H
)
K
n
= R(A
H
) ⊕ N (A).
Dow´
od.
Wystarczy pokaza´
c pierwsz
,
a z tych r´
owno´sci. W tym celu naj-
pierw uzasadnimy, ˙ze suma jest sum
,
a prost
,
a. Rzeczywi´scie, je´sli ~
y ∈ R(A) ∩
N (A
H
) to A
H
∗ ~
y = ~0 oraz istnieje ~
x ∈ K
n
taki, ˙ze A ∗ ~
x = ~
y. St
,
ad
k~
yk
2
2
= ~
y
H
∗ ~
y = (A ∗ ~
x)
H
∗ ~
y = ~
x
H
∗ (A
H
∗ ~
y) = 0,
czyli ~
y = ~0 i suma podprzestrzeni jest prosta.
Pozostaje pokaza´
c, ˙ze wymiar sumy prostej wynosi m. Korzystaj
,
ac z
wniosku 5.1 mamy bowiem
dim R(A) ⊕ N (A
H
)
= dim (R(A)) + dim N (A
H
)
= dim (R(A)) +
m − dim R(A
H
)
= dim (R(A)) + [m − dim (R(A))]
= m.
54
ROZDZIA L 5. OBRAZ, RZ
,
AD I J
,
ADRO MACIERZY
Rozdzia l 6
Funkcjona ly liniowe
6.1
Funkcjona ly
6.1.1
Definicja i przyk lady
Niech X
|K
b
,
edzie przestrzeni
,
a liniow
,
a, dim(X
|K
) < ∞.
Definicja 6.1 Odwzorowanie
s : X → K
nazywamy funkcjona lem (liniowym) na X
|K
gdy dla dowolnych a, b ∈ X i
α, β ∈ K
s(a ∗ α + b ∗ β) = s(a) ∗ α + s(b) ∗ β.
Zbi´
or wszystkich funkcjona l´
ow (liniowych) na X
|K
oznaczamy przez X
∗
.
Podamy teraz kilka przyk lad´
ow funkcjona l´
ow.
W przestrzeni wektor´
ow K
n
|K
funkcjona lami s
,
a przekszta lcenia postaci
s(~
x) = ˆ
a
T
∗ ~
x,
∀~
x ∈ K
n
,
gdzie ˆ
a ∈ K
n
jest ustalonym wektorem. (Tu wyja´snia si
,
e tajemnica nazwania
wcze´sniej funkcjona lem macierzy jednowierszowej.)
W przestrzeni macierzy K
m,n
|K
funkcjona lami s
,
a np. s
1
(A) = a
2,3
, s
2
(A) =
tr(A) :=
P
min(m,n)
j=1
a
j,j
(jest to ´
slad macierzy), przy czym A = (a
i,j
) ∈ K
m,n
.
55
56
ROZDZIA L 6. FUNKCJONA LY LINIOWE
W przestrzeni wielomian´
ow P
n
|R
funkcjona lami s
,
a np.
s
1
(p) = p(2),
s
2
(p) = 3 ∗ p(−1) − 7 ∗ p(3),
s
3
(p) =
d
2
p
dt
2
t=1
= p
00
(1),
s
4
(p) =
Z
1
0
p(t)dt,
przy czym p ∈ P
n
.
6.1.2
Przestrze´
n sprz
,
e ˙zona
Na zbiorze X
∗
mo˙zemy w naturalny spos´
ob zdefiniowa´
c dodawanie funk-
cjona l´
ow s
1
, s
2
∈ X
∗
,
(s
1
+ s
2
)(a) := s
1
(a) + s
2
(a),
∀a ∈ X ,
oraz mno˙zenie funkcjona lu s ∈ X
∗
przez skalar α ∈ K,
(α ∗ s)(a) := α ∗ s(a),
∀a ∈ X .
Twierdzenie 6.1 Zbi´
or X
∗
z powy˙zej zdefiniowanymi dzia laniami dodawa-
nia funkcjona l´
ow i mno˙zenia przez skalar jest przestrzeni
,
a liniow
,
a nad K.
Dow´
od tego twierdzenia polega na bezpo´srednim sprawdzeniu warunk´
ow
bycia przestrzeni
,
a liniow
,
a. Tutaj zauwa˙zymy tylko, ˙ze elementem zerowym
X
∗
|K
jest funkcjona l zerowy, 0
∗
(a) = 0 ∀a ∈ X , a elementem przeciwnym do
s ∈ X
∗
jest funkcjona l (−s) zdefiniowany jako (−s)(a) = −s(a) ∀a ∈ X .
Definicja 6.2 Przestrze´
n X
∗
|K
nazywamy przestrzeni
,
a sprz
,
e˙zon
,
a do X
|K
.
Skoro X
∗
|K
jest przestrzeni
,
a liniow
,
a to mo˙zemy spyta´
c o jej wymiar i baz
,
e.
Twierdzenie 6.2 Mamy
dim X
∗
|K
= dim X
|K
.
Ponadto, je´
sli uk lad wektor´
ow (a
1
, a
2
, . . . , a
n
) jest baz
,
a X
|K
to uk lad funk-
cjona l´
ow (s
1
, s
2
, . . . , s
n
) zdefiniowany warunkami
s
k
(a
j
) =
1,
j = k,
0,
j 6= k,
gdzie 1 ≤ j, k ≤ n, jest baz
,
a X
∗
|K
.
6.2. REFLEKSYWNO´
S ´
C
57
Dow´
od.
Zauwa˙zmy najpierw, ˙ze s
k
s
,
a formalnie dobrze zdefiniowanymi
funkcjona lami. Dla dowolnego a =
P
n
j=1
a
j
∗ α
j
∈ X mamy bowiem
s
k
(a) = s
k
n
X
j=1
a
j
∗ α
j
!
=
n
X
j=1
s
k
(a
j
) ∗ α
j
= α
k
.
St
,
ad s
k
“zwraca” k-t
,
a wsp´
o lrz
,
edn
,
a rozwini
,
ecia wektora a w bazie wektor´
ow
(a
1
, . . . , a
n
).
Poka˙zemy najpierw liniow
,
a niezale˙zno´s´
c funkcjona l´
ow s
k
, 1 ≤ k ≤ n. W
tym celu za l´
o˙zmy, ˙ze liniowa kombinacja s :=
P
n
k=1
s
k
∗ α
k
= 0
∗
. Wtedy, w
szczeg´
olno´sci, dla ka˙zdego j mamy s(a
j
) = 0, a poniewa˙z
s(a
j
) =
n
X
k=1
s
k
∗ α
k
!
(a
j
) =
n
X
k=1
s
k
(a
j
) ∗ α
k
= α
j
to α
j
= 0.
Pozostaje pokaza´
c, ˙ze funkcjona ly s
k
, 1 ≤ k ≤ n, rozpinaj
,
a X
∗
. Rze-
czywi´scie, dla dowolnego s ∈ X
∗
oraz a =
P
n
j=1
a
j
∗ α
j
∈ X mamy
s(a) = s
n
X
j=1
a
j
∗ α
j
!
=
n
X
j=1
s(a
j
) ∗ α
j
=
n
X
j=1
σ
j
∗ s
j
(a) =
n
X
j=1
σ
j
∗ s
j
!
(a),
gdzie σ
j
= s(a
j
). St
,
ad s =
P
n
j=1
σ
j
∗ s
j
jest kombinacj
,
a liniow
,
a funkcjona l´
ow
s
j
i w konsekwencji X
∗
= span(s
1
, . . . , s
n
).
6.2
Refleksywno´
s´
c
6.2.1
R´
owno´
s´
c X i X
∗∗
Dla wygody wprowadzimy oznaczenie
s · a := s(a),
∀s ∈ X
∗
∀a ∈ X .
Zauwa˙zmy, ˙ze zapis s · a mo˙zemy traktowa´
c jako dzia lanie funkcjona lu s
na wektor a, ale te˙z odwrotnie, jako dzia lanie wektora a na funkcjona l s.
Poniewa˙z dodatkowo dla dowolnych s
1
, s
2
∈ X
∗
i α
1
, α
2
∈ K mamy
(α
1
∗ s
1
+ α
2
∗ s
2
) · a = α
1
∗ (s
1
· a) + α
2
∗ (s
2
· a),
58
ROZDZIA L 6. FUNKCJONA LY LINIOWE
mo˙zemy traktowa´
c wektor a jako funkcjona l na X
∗
|K
, tzn. a ∈ X
∗∗
:= (X
∗
)
∗
.
Mamy wi
,
ec X ⊆ X
∗∗
, a poniewa˙z na podstawie twierdzenia 6.2
dim X
|K
= dim X
∗
|K
= dim X
∗∗
|K
to
X = X
∗∗
.
Ostatnia w lasno´s´
c nazywa si
,
e refleksywno´
sci
,
a.
1
Dodajmy, ˙ze je´sli (s
1
, . . . , s
n
) jest baz
,
a X
∗
sprz
,
e˙zon
,
a do bazy (a
1
, . . . , a
n
)
to te˙z odwrotnie, (a
1
, . . . , a
n
) jest baz
,
a X
∗∗
= X sprz
,
e˙zon
,
a do (s
1
, . . . , s
n
).
Wynika to bezpo´srednio z faktu, ˙ze s
j
· a
k
wynosi 1 dla j = k oraz zero dla
j 6= k.
6.2.2
Przyk lady
Podamy teraz przyk lady baz i baz sprz
,
e˙zonych.
Niech X
|K
= K
n
|K
. Baz
,
a sprz
,
e˙zon
,
a do bazy (~
e
1
, . . . , ~
e
n
) przestrzeni wek-
tor´
ow K
n
|K
jest (~
e
T
1
, . . . , ~
e
T
n
). St
,
ad w szczeg´
olno´sci wynika ˙ze
(K
n
)
∗
= (K
n
)
T
.
W og´
olnym przypadku, baz
,
a sprz
,
e˙zon
,
a do dowolnej bazy (~a
1
, . . . , ~a
n
) jest
(ˆ
a
T
1
, . . . , ˆ
a
T
n
), gdzie wektory ˆ
a
j
s
,
a tak dobrane, ˙ze transpozycja macierzy
ˆ
A := [ˆ
a
1
, . . . , ˆ
a
n
] jest lew
,
a odwrotno´sci
,
a macierzy A := [~a
1
, . . . , ~a
n
], tzn.
ˆ
A
T
∗ A = I
n
. (Macierz ˆ
A istnieje, bo istnieje baza sprz
,
e˙zona.)
Niech X
|K
= P
n
|R
. Wtedy baz
,
e sprz
,
e˙zon
,
a do bazy pot
,
egowej wielomian´
ow
(1, t, t
2
, . . . , t
n−1
) tworz
,
a funkcjona ly (s
1
, . . . , s
n
) zdefiniowane jako
s
k
(p) =
1
(k − 1)!
d
k−1
p
dt
k−1
t=0
=
p
(k−1)
(0)
(k − 1)!
,
∀p ∈ P
n
.
Je´sli za´s s
k
(p) = p(t
k
), 1 ≤ k ≤ n, gdzie t
1
< t
2
< · · · < t
n
s
,
a ustalo-
nymi punktami, to baz
,
e sprz
,
e˙zon
,
a do bazy funkcjona l´
ow (s
1
, . . . , s
n
) tworz
,
a
wielomiany Lagrange’a (l
1
, . . . , l
n
) zdefiniowane jako
l
j
(t) =
n
Y
j6=i=1
t − t
i
t
j
− t
i
.
(6.1)
1
Pokazali´
smy, ˙ze przestrzenie sko´
nczenie wymiarowe s
,
a refleksywne. Warto doda´
c, ˙ze
w lasno´
s´
c ta w og´
olno´
sci nie zachodzi dla przestrzeni niesko´
nczenie wymiarowych.
6.3. ROZSZERZENIE RACHUNKU MACIERZY
59
Rzeczywi´scie, latwo sprawdzi´
c, ˙ze
s
k
(l
j
) = l
j
(t
k
) =
1,
j = k,
0,
j 6= k.
6.3
Rozszerzenie rachunku macierzy
6.3.1
Macierze wektor´
ow i funkcjona l´
ow
W tym miejscu rozszerzymy nieco formalizm rachunku macierzy na macierze
nieliczbowe, kt´
orych elementami s
,
a wektory, a nawet funkcjona ly. Pomo˙ze
nam to upro´sci´
c pewne rachunki na macierzach.
Niech X
|K
b
,
edzie przestrzeni
,
a liniow
,
a i a
j
∈ X , 1 ≤ j ≤ k. Wtedy
mo˙zemy formalnie zdefiniowa´
c macierz jednowierszow
,
a wektor´
ow
A = [a
1
, . . . , a
k
] ∈ X
1,k
.
Dla ~
α =
α
1
..
.
α
k
∈ K
k
definiujemy w naturalny spos´
ob mno˙zenie
A ∗ ~
α :=
k
X
j=1
a
j
∗ α
j
,
b
,
ed
,
ace skr´
otowym zapisem kombinacji liniowej wektor´
ow a
j
.
Podobnie, maj
,
ac dane s
j
∈ X
∗
, 1 ≤ j ≤ l, mo˙zemy zdefiniowa´
c macierz
jednokolumnow
,
a funkcjona l´
ow
S =
s
1
..
.
s
l
∈ (X
∗
)
l,1
.
Dla x ∈ X definiujemy w naturalny spos´
ob mno˙zenie
S · x :=
s
1
· x
..
.
s
l
· x
∈ K
l,1
.
60
ROZDZIA L 6. FUNKCJONA LY LINIOWE
Co wi
,
ecej, iloczyn S · A mo˙zemy r´ownie˙z w naturalny spos´ob zdefiniowa´c
jako macierz
S · A := (s
i
· a
j
) ∈ K
l,k
.
Rzeczywi´scie, tak w la´snie mno˙zymy macierz jednowierszow
,
a przez macierz
jednokolumnow
,
a w przypadku macierzy liczbowych. Ponadto, dla dowolnego
~
α ∈ K
k
spe lnona jest r´
owno´s´
c
S · (A ∗ ~
α) = (S · A) ∗ ~α.
Id
,
ac dalej mo˙zemy zapyta´
c, czy ma sens mno˙zenie A przez S. W przy-
padku macierzy liczbowych, mno˙zenie wektora-wiersza przez wektor-kolumn
,
e
jest mo˙zliwe tylko wtedy gdy wektory te maj
,
a tyle samo wsp´
o lrz
,
ednych. Tak
jest te˙z teraz. Dok ladniej je´sli k = l to
A ∗ S :=
k
X
j=1
a
j
∗ s
j
i interpretujemy ten zapis jako przekszta lcenie X w X zdefiniowane wzorem
(A ∗ S)(x) := A ∗ (S · x) =
k
X
j=1
a
j
∗ s
j
· x.
W szczeg´
olno´sci, a·s dla a ∈ X i s ∈ X
∗
jest przekszta lceniem “zwracaj
,
acym”
wektor a pomno˙zony przez warto´s´
c funkcjona lu s.
6.3.2
Posta´
c macierzowa izomorfizm´
ow
Za l´
o˙zmy teraz, ˙ze dim X
|K
= n oraz (a
1
, . . . , a
n
) jest baz
,
a X .
Niech
A = [a
1
, . . . , a
n
] ∈ X
1,n
. Jasne jest, ˙ze wtedy odwzorowanie f : K
n
→ X
zdefiniowane wzorem
f (~
α) := A ∗ ~α,
∀~
α ∈ K
n
,
jest izomorfizmem K
n
w X . Ponadto, izomorfizm odwrotny f
−1
: X → K
n
dany jest wzorem
f
−1
(x) = S · x,
∀x ∈ X ,
6.3. ROZSZERZENIE RACHUNKU MACIERZY
61
gdzie S =
s
1
..
.
s
n
∈ (X
∗
)
n,1
oraz (s
1
, . . . , s
n
) jest baz
,
a sprz
,
e˙zon
,
a do bazy
(a
1
, . . . , a
n
).
Sprawdzamy, ˙ze w tym przypadku
S · A = (s
i
· a
j
)
n
i,j=1
= I
n
jest identyczno´sci
,
a w K
n
, oraz ˙ze dla dowolnego x = A ∗ ~α z ~α ∈ K
n
(A ∗ S)(x) = (A ∗ S)(A ∗ ~α) = A ∗ (S · A) ∗ ~α = A ∗ ~α = x,
czyli A ∗ S jest identyczno´sci
,
a w X .
Mo˙zemy wi
,
ec uzna´
c, ˙ze S jest odwrotno´sci
,
a A, jak r´ownie˙z, ˙ze A jest
odwrotno´sci
,
a S, tj.
S = A
−1
oraz
A = S
−1
.
62
ROZDZIA L 6. FUNKCJONA LY LINIOWE
Rozdzia l 7
Uk lady r´
owna´
n liniowych
W tym rozdziale zajmiemy si
,
e rozwi
,
azywaniem uk lad´
ow r´
owna´
n liniowych
(2.2).
Stosuj
,
ac zapis macierzowy zadanie formu lujemy nast
,
epuj
,
aco.
Dla
danej macierzy (wsp´
o lczynnik´
ow) A ∈ K
m,n
oraz wektora (wyraz´
ow wol-
nych) ~b ∈ K
m
nale˙zy znale´
z´
c wszystkie wektory (niewiadome) ~
x spe lniaj
,
ace
r´
owno´s´
c
A ∗ ~
x = ~b.
(7.1)
7.1
Zbi´
or rozwi
,
aza´
n
7.1.1
Twierdzenie Kroneckera-Capelliego
Mamy trzy mo˙zliwo´sci:
(i) ∀~
x ∈ K
n
A ∗ ~
x 6= ~b
=⇒
uk lad jest sprzeczny
(ii) ∃~
x ∈ K
n
A ∗ ~
x = ~b
=⇒
uk lad jest niesprzeczny
(iii) !∃~
x ∈ K
n
A ∗ ~
x = ~b
=⇒
uk lad jest oznaczony
1
Twierdzenie 7.1 (Kroneckera-Capelliego)
Uk lad A ∗ ~
x = ~b jest niesprzeczny wtedy i tylko wtedy gdy
rz(A) = rz([A,~b]),
tzn. rz
,
ad macierzy A jest r´
owny rz
,
edowi A rozszerzonej o wektor ~b.
1
Symbol “!∃” czytamy jako “istnieje dok ladnie jeden”.
63
64
ROZDZIA L 7. UK LADY R ´
OWNA ´
N LINIOWYCH
Dow´
od.
Je´sli rz([A,~b]) = rz(A) to wektor ~b nale˙zy do przestrzeni rozpi
,
etej
przez wektory-kolumny macierzy A. To za´s oznacza, ˙ze ~b jest liniow
,
a kom-
binacj
,
a tych wektor´
ow. Wsp´
o lczynniki tej kombinacji tworz
,
a rozwi
,
azanie ~
x
uk ladu.
Z drugiej strony, je´sli istnieje ~
x ∈ K
n
taki, ˙ze A∗~
x = ~b to ~b jest kombinacj
,
a
liniow
,
a wektor´
ow-kolumn macierzy A, czyli ~b nale˙zy do przestrzeni rozpi
,
etej
na tych wektorach. To za´s implikuje ˙ze rz([A,~b]) = rz(A) i ko´
nczy dow´
od.
Mo˙zemy r´
ownowa˙znie stwierdzi´
c, ˙ze uk lad A ∗ ~
x = ~b jest niesprzeczny
wtedy i tylko wtedy gdy ~b ∈ R(A), czyli wektor wyraz´
ow wolnych le˙zy w
obrazie macierzy wsp´
o lczynnik´
ow.
7.1.2
Zbi´
or rozwi
,
aza´
n jako warstwa
Niech
L(A,~b) = { ~
x ∈ K
n
: A ∗ ~
x = ~b }
b
,
edzie zbiorem wszystkich rozwi
,
aza´
n uk ladu A ∗ ~
x = ~b.
Definicja 7.1 Powiemy, ˙ze dwa uk lady, A
1
∗ ~
x = ~b
1
oraz A
2
∗ ~
x = ~b
2
, s
,
a
r´
ownowa˙zne gdy maj
,
a ten sam zbi´
or rozwi
,
aza´
n, tzn. gdy
L(A
1
,~b
1
) = L(A
2
,~b
2
).
Twierdzenie 7.2 Je´
sli uk lad A ∗ ~
x = ~b jest niesprzeczny to zbi´
or rozwi
,
aza´
n
L(A,~b) = { ~
x
0
+ ~
y : ~
y ∈ N (A) } = W (~
x
0
, N (A)) ,
gdzie ~
x
0
jest dowolnym rozwi
,
azaniem szczeg´
olnym uk ladu.
Dow´
od.
Je´sli ~
x
0
jest rozwi
,
azaniem szczeg´
olnym i ~
y ∈ N (A) to
A ∗ (~
x
0
+ ~
y) = A ∗ ~
x
0
+ A ∗ ~
y = ~b + ~0 = ~b,
czyli ~
x
0
+ ~
y jest te˙z rozwi
,
azaniem. To za´s implikuje ˙ze W (~
x
0
, N (A)) ⊆
L(A,~b).
Z drugiej strony, je´sli A ∗ ~
x = ~b to A ∗ (~
x − ~
x
0
) = ~b −~b = ~0, czyli (~
x − ~
x
0
) ∈
N (A). A wi
,
ec ~
x = ~
x
0
+ (~
x − ~
x
0
) jest z jednej strony rozwi
,
azaniem uk ladu, a
z drugiej elementem warstwy W (~
x
0
, N (A)). St
,
ad L(A,~b) ⊆ W (~
x
0
, N (A)).
7.2. EFEKTYWNA METODA ROZWI
,
AZANIA
65
7.1.3
Uk lady nieosobliwe
Rozpatrzmy przez chwil
,
e uk lady z macierzami kwadratowymi.
Twierdzenie 7.3 Macierz kwadratowa A ∈ K
n,n
jest nieosobliwa wtedy i
tylko wtedy gdy rz(A) = n.
Dow´
od.
Wobec nier´
owno´sci
n = rz(I
n
) = rz(A ∗ A
−1
) ≤ min rz(A), rz(A
−1
)
mamy, ˙ze je´sli A jest nieosobliwa to rz(A) = n = rz(A
−1
). Z drugiej strony,
je´sli rz(A) = n to kolumny A s
,
a wektorami liniowo niezale˙znymi.
St
,
ad
istnieje macierz X ∈ K
n,n
taka, ˙ze A ∗ X = I
n
. Podobnie, istnieje Y ∈ K
n,n
taka, ˙ze A
T
∗ Y = I
n
, czyli Y
T
∗ A = I
n
. Ponadto
Y
T
= Y
T
∗ I
n
= (Y
T
∗ A) ∗ X = I
n
∗ X = X,
tzn. odwrotno´sci lewostronna i prawostronna istniej
,
a i s
,
a sobie r´
owne, A
−1
=
X = Y
T
. To ko´
nczy dow´
od.
Wiemy, ˙ze je´sli macierz kwadratowa A jest nieosobliwa to rozwi
,
azaniem
uk ladu A∗~
x = ~b jest ~
x
∗
:= A
−1
∗~b i jest to jedyne rozwi
,
azanie, tzn. uk lad jest
oznaczony. Ale te˙z odwrotnie, je´sli uk lad A ∗ ~
x = ~b z macierz
,
a kwadratow
,
a
A jest oznaczony dla pewnego ~b to macierz A jest nieosobliwa. Rzeczywi´scie,
wtedy j
,
adro N (A) = {~0}. To znaczy, ˙ze wektory-kolumny macierzy tworz
,
a
uk lad liniowo niezale˙zny i rz(A) = n. Na podstawie twierdzenia 2.1 wnio-
skujemy ˙ze A jest nieosobliwa.
Wniosek 7.1 Niech A b
,
edzie macierz
,
a kwadratow
,
a. Uk lad A ∗ ~
x = ~b jest
oznaczony wtedy i tylko wtedy gdy A jest nieosobliwa.
7.2
Efektywna metoda rozwi
,
azania
Dla danej macierzy A ∈ K
m,n
i wektora ~b ∈ K
m
chcemy zbada´
c, czy uk lad
(7.1) jest niesprzeczny, a je´sli tak to znale´
z´
c zbi´
or jego rozwi
,
aza´
n (warstw
,
e)
L(A,~b) = ~
x
0
+ N (A),
gdzie N (A) = span(~
z
s+1
, ~
z
s+2
, . . . , ~
z
n
) i s = rz(A).
66
ROZDZIA L 7. UK LADY R ´
OWNA ´
N LINIOWYCH
7.2.1
Og´
olny schemat
Najpierw wyznaczymy s = rz(A) i t = rz([A,~b]), a nast
,
epnie w przypadku
s = t skonstruujemy rozwi
,
azanie szczeg´
olne ~
x
0
oraz baz
,
e ~
z
s+1
, . . . , ~
z
n
j
,
adra
N (A).
Og´
olny schemat post
,
epowania prowadz
,
acy do postaci r´
ownania, z kt´
orego
mo˙zna ju˙z stosunkowo latwo odczyta´
c rozwi
,
azanie jest nast
,
epuj
,
acy. Star-
tuj
,
ac z uk ladu wyj´sciowego (7.1), kt´
ory oznaczymy przez (U
0
), kolejno dla
k = 1, 2, . . . , s konstruujemy “prostsze” i (prawie) r´
ownowa˙zne (U
0
) uk lady
(U
k
) z macierzami A
(k)
tego samego formatu co A. Macierz A
(s)
uk ladu
docelowego (U
s
) oka˙ze si
,
e tr´
ojk
,
atn
,
a g´
orn
,
a.
Dopuszczamy przy tym nast
,
epuj
,
ace operacje na uk ladnie r´
owna´
n:
(i) zamiana kolejno´sci r´
owna´
n (wierszy macierzy),
(ii) zamiana kolejno´sci niewiadomych (kolumn macierzy),
(iii) dodanie do jednego z r´
owna´
n innego r´
ownania pomno˙zonego przez ska-
lar.
Zauwa˙zmy, ˙ze operacje (i) oraz (iii) prowadz
,
a do uk lad´
ow r´
ownowa˙znych,
za´s (ii) powoduje jedynie zmian
,
e kolejno´sci niewiadomych. W szczeg´
olno´sci,
rz
,
ad macierzy uk ladu nie ulega zmianie.
Schemat sprowadzania uk ladu wyj´sciowego do postaci z macierz
,
a tr´
oj-
k
,
atn
,
a g´
orn
,
a przy pomocy zdefiniowanych operacji, kt´
ory teraz dok ladniej
opiszemy, nazywamy Eliminacj
,
a Gaussa.
7.2.2
Eliminacja Gaussa
Za l´
o˙zmy, ˙ze wykonali´smy ju˙z k przekszta lce´
n uk ladu wyj´sciowego,
(U
0
) → (U
1
) → . . . → (U
k
),
gdzie 0 ≤ k ≤ s − 1, otrzymuj
,
ac uk lad
A
(k)
∗ ~
x
(k)
= ~b
(k)
z macierz
,
a
A
(k)
=
R
k
T
k
0
V
k
,
7.2. EFEKTYWNA METODA ROZWI
,
AZANIA
67
gdzie R
k
∈ TRIU
k,k
jest kwadratow
,
a i nieosobliw
,
a macierz
,
a tr´
ojk
,
atn
,
a g´
orn
,
a.
Oczywi´scie, za lo˙zenie to jest spe lnione dla k = 0, czyli dla uk ladu wyj´scio-
wego, bowiem wtedy A
(0)
= V
0
= A.
Krok (k + 1)-szy eliminacji
1. Wybieramy w V
k
element r´
o˙zny od zera, powiedzmy v
p,q
6= 0, k + 1 ≤
p ≤ m, k + 1 ≤ q ≤ n. (Taki element istnieje, bo inaczej mieliby´smy
rz(A) = rz(A
(k)
) = k < s = rz(A).)
2. Przestawiamy wiersze (k + 1)-szy z p-tym oraz kolumny (niewiadome)
(k + 1)-sz
,
a z q-t
,
a.
3. Dokonujemy eliminacji (k + 1)-szej niewiadomej z r´
owna´
n od (k + 1)-
szego do m-tego odejmuj
,
ac od r´
ownania i-tego r´
ownanie (k + 1)-sze
pomno˙zone przez
l
i,k+1
:= a
(k)
i,k+1
/a
(k)
k+1,k+1
,
dla i = k + 1, k + 2, . . . , m.
(Tutaj a
(k)
i,j
oznacza element aktualnie stoj
,
acy na przeci
,
eciu i-tego wier-
sza i j-tej kolumny macierzy uk ladu).
Po wykonaniu (k + 1)-szego kroku metody dostajemy uk lad z macierz
,
a
A
(k+1)
, kt´
ora ma wyzerowane wsp´
o lczynniki o indeksach (i, j) dla 1 ≤ j ≤
k + 1, j < i ≤ m.
Po wykonaniu s = rz(A) krok´
ow dostajemy uk lad (U
s
) postaci
A
(s)
∗ ~
x
(s)
= ~b
(s)
,
przy czym
A
(s)
=
R
s
T
s
0
0
,
a wektor ~
x
(s)
r´
o˙zni si
,
e od ~
x
(0)
jedynie przestawieniem (permutacj
,
a) wsp´
o l-
rz
,
ednych. Rzeczywi´scie, gdyby odpowiednia podmacierz V
s
macierzy A
(s)
by la niezerowa to mieliby´smy rz(A) = rz(A
(s)
) > s.
Dodajmy jeszcze, ˙ze w przypadkach s = 0 i s = min(m, n) niekt´
ore bloki
macierzy A
(s)
s
,
a puste.
68
ROZDZIA L 7. UK LADY R ´
OWNA ´
N LINIOWYCH
7.2.3
Konstrukcja rozwi
,
azania og´
olnego
Przyjmuj
,
ac
~
x
(s)
=
"
~
x
(s)
I
~
x
(s)
II
#
,
~b
(s)
=
" ~b
(s)
I
~b
(s)
II
#
,
gdzie ~
x
(s)
I
,~b
(s)
I
∈ K
s
, ~
x
(s)
II
∈ K
n−s
, ~b
(s)
II
∈ K
m−s
, uk lad (U
s
) mo˙zemy zapisa´
c
jako
(
R
s
∗ ~
x
(s)
I
+ T
s
∗ ~
x
(s)
II
= ~b
(s)
I
~0 = ~b
(s)
II
.
Je´sli teraz ~b
(s)
II
6= ~0 to uk lad jest sprzeczny i nie ma rozwi
,
aza´
n. Je´sli za´s
~b
(s)
II
= ~0 to uk lad (U
s
) redukuje si
,
e do
R
s
∗ ~
x
(s)
I
+ T
s
∗ ~
x
(s)
II
= ~b
(s)
I
.
Przyjmuj
,
ac ~
x
(s)
II
= ~0 otrzymujemy rozwi
,
azanie szczeg´
olne
~
x
(s)
0
=
~u
0
~0
,
gdzie ~
u
0
∈ K
s
jest rozwi
,
azaniem nieosobliwego uk ladu
R
s
∗ ~
u
0
= ~b
(s)
I
z macierz
,
a tr´
ojk
,
atn
,
a doln
,
a R
s
.
Baz
,
e j
,
adra macierzy A
(s)
,
N (A
(s)
) = N ([R
s
, T
s
]),
znajdujemy rozwi
,
azuj
,
ac (n − s) liniowo niezale˙znych rozwi
,
aza´
n uk lad´
ow jed-
norodnych
R
s
∗ ~
x
(s)
I
+ T
s
∗ ~
x
(s)
II
= ~0
k lad
,
ac kolejno za ~
x
(s)
II
wersory ~
e
1
, ~
e
2
, . . . , ~
e
n−s
∈ K
n−s
. Oznaczaj
,
ac
T
s
= [~t
s+1
, ~t
s+2
, . . . , ~t
n
]
otrzymujemy
~
z
(s)
j
=
~
u
j
~
e
j−s
,
gdzie
R
s
∗ ~
u
(s)
j
= −~t
j
,
7.3. INTERPRETACJA MACIERZOWA ELIMINACJI
69
s + 1 ≤ j ≤ n. Ostatecznie dostajemy
L(A
(s)
,~b
(s)
) = ~
x
0
+ span(~
z
(s)
s+1
, . . . , ~
z
(s)
n
).
S
,
a to r´
ownie˙z wszystkie rozwi
,
azania uk ladu wyj´sciowego, z dok ladno´sci
,
a do
odpowiedniej permutacji wsp´
o lrz
,
ednych.
7.3
Interpretacja macierzowa eliminacji
Zobaczymy teraz jak proces eliminacji Gaussa wygl
,
ada z punktu widzenia
rachunku macierzy.
7.3.1
Analiza operacji elementarnych
Za l´
o˙zmy najpierw, dla uproszczenia, ˙ze nie musimy wykonywa´
c przestawie´
n
ani wierszy ani kolumn uk ladu (tzn. w ka˙zdym kroku element k-ty na g l´
ownej
przek
,
atnej jest niezerowy). Wtedy eliminacja w k-tym kroku odpowiada
mno˙zeniu macierzy A
(k−1)
z lewej strony przez macierz kwadratow
,
a
L
k
:= I
m
− ~l
k
∗ ~e
T
k
=
1
1
. ..
1
−l
k+1,k
. ..
..
.
. ..
−l
m,k
1
∈ K
m,m
,
gdzie ~l
k
:= [0, . . . , 0, l
k+1,k
, . . . , l
m,k
]
T
oraz
l
i,k
:=
a
(k−1)
i,k
a
(k−1)
k,k
,
k + 1 ≤ i ≤ m.
(7.2)
Dlatego
A
(1)
=
L
1
∗ A,
A
(2)
=
L
2
∗ A
(1)
= L
2
∗ L
1
∗ A,
· · ·
A
(s)
=
L
s
∗ A
(s−1)
= · · · = L
s
∗ L
s−1
∗ · · · ∗ L
1
∗ A,
70
ROZDZIA L 7. UK LADY R ´
OWNA ´
N LINIOWYCH
a st
,
ad A = (L
−1
1
∗ · · · ∗ L
−1
s
) ∗ A
(s)
.
Zauwa˙zmy teraz, ˙ze
L
−1
i
= (I
m
− ~l
i
∗ ~e
T
i
)
−1
= (I
m
+ ~l
i
∗ ~e
T
i
).
Rzeczywi´scie, wobec tego, ˙ze ~
e
T
i
∗ ~l
i
= 0 mamy bowiem
(I
m
− ~l
i
∗ ~e
T
i
) ∗ (I
m
+ ~l
i
∗ ~e
T
i
) = I
m
− ~l
i
∗ (~e
T
i
∗ ~l
i
) ∗ ~
e
T
i
= I
m
.
St
,
ad
L
−1
1
∗ · · · ∗ L
−1
s
= (I
m
+ ~l
1
∗ ~e
T
1
) ∗ · · · ∗ (I
m
+ ~l
s
∗ ~e
T
s
)
= I
m
+ ~l
1
∗ ~e
T
1
+ · · · + ~l
s
∗ ~e
T
s
.
Oznaczaj
,
ac ˆ
L := L
−1
1
∗ · · · ∗ L
−1
s
oraz ˆ
R := A
(s)
otrzymujemy ostatecznie
rozk lad (faktoryzacj
,
e) macierzy,
A = ˆ
L ∗ ˆ
R,
gdzie
ˆ
L =
L
0
H
I
∈ K
m,m
,
ˆ
R =
R T
0
0
∈ K
m,n
,
L ∈ TRIL
s,s
jest kwadratow
,
a macierz
,
a tr´
ojk
,
atn
,
a doln
,
a z jedynkami na
g l´
ownej przek
,
atnej oraz R ∈ TRIU
s,s
jest macierz
,
a tr´
ojk
,
atn
,
a g´
orn
,
a.
Dodajmy jeszcze, ˙ze wsp´
o lczynniki l
i,k
macierzy ˆ
L s
,
a dla 1 ≤ k ≤ s,
k < i ≤ m, zdefiniowane przez (7.2).
Rozpatrzmy teraz og´
olny przypadek, gdy dokonujemy przestawie´
n wier-
szy i/lub kolumn macierzy. Przypomnijmy, ˙ze przestawienie wierszy i-tego z
j-tym jest r´
ownowa˙zne pomno˙zeniu macierzy przez elementarn
,
a macierz per-
mutacji (transpozycj
,
e) T
i,j
, natomiast pomno˙zenie macierzy z prawej strony
przez T
i,j
jest r´
ownowa˙zne przestawieniu kolumny i-tej z j-t
,
a. Dlatego w
obecno´sci przestawie´
n dostajemy
A
(1)
=
L
1
∗ T
1,p
1
∗ A ∗ T
1,q
1
,
A
(2)
=
L
2
∗ T
2,p
2
∗ A
(1)
∗ T
2,q
2
= L
2
∗ T
2,p
2
∗ L
1
∗ T
1,p
1
∗ A ∗ T
1,q
1
∗ T
2,q
2
· · ·
A
(s)
=
L
s
∗ T
s,p
s
∗ · · · ∗ T
2,p
2
∗ L
1
∗ T
1,p
1
∗ A ∗ T
1,q
1
∗ T
2,q
2
∗ · · · ∗ T
s,q
s
,
przy czym zawsze i ≤ p
i
, j ≤ q
j
, 1 ≤ i, j ≤ s.
7.3. INTERPRETACJA MACIERZOWA ELIMINACJI
71
Zauwa˙zmy, ˙ze
T
2,p
2
∗ L
1
∗ T
1,p
1
= (T
2,p
2
∗ L
1
∗ T
2,p
2
) ∗ T
2,p
2
∗ T
1,p
1
.
Dalej
T
2,p
2
∗ L
1
∗ T
2,p
2
=
T
2,p
2
∗ (I
m
− ~l
1
∗ ~e
T
1
) ∗ T
2,p
2
=
I
m
− (T
2,p
2
∗ ~l
1
) ∗ (~
e
T
1
∗ T
2,p
2
)
=
I
m
− ~l
0
1
∗ ~e
T
1
=: L
(1)
1
,
gdzie L
(1)
1
r´
o˙zni si
,
e od L
1
jedynie przestawieniem wyraz´
ow 2-go i p
2
-go w
pierwszej kolumnie. Uog´
olniaj
,
ac to rozumowanie dostajemy
L
s
∗ T
s,p
s
∗ · · · ∗ T
2,p
2
∗ L
1
∗ T
1,p
1
= L
s
∗ T
s,p
s
∗ · · · ∗ L
2
∗ L
(1)
1
∗ T
2,p
2
∗ T
1,p
1
= L
s
∗ T
s,p
s
∗ · · · ∗ (T
3,p
3
∗ L
2
∗ T
3,p
3
) ∗ (T
3,p
3
∗ L
(1)
1
∗ T
3,p
3
)
∗T
3,p
3
∗ T
2,p
2
∗ T
1,p
1
= L
s
∗ T
s,p
s
∗ · · · ∗ L
3
∗ L
(2)
2
∗ L
(2)
1
∗ T
3,p
3
∗ T
2,p
2
∗ T
1,p
1
· · ·
= (L
(s−1)
s
∗ L
(s−1)
s−1
∗ · · · ∗ L
(s−1)
3
∗ L
(s−1)
2
∗ L
(s−1)
1
) ∗ (T
s,p
s
∗ · · · ∗ T
1,p
1
).
Definiuj
,
ac macierze permutacji
Q
−1
= Q
T
:= T
1,q
1
∗ · · · ∗ T
s,q
s
,
P := T
s,p
s
∗ · · · ∗ T
1,p
1
,
otrzymujemy ostatecznie
A
(s)
= L
(s−1)
s
∗ · · · ∗ L
(s−1)
1
∗ P ∗ A ∗ Q
T
= ˆ
R,
czyli po˙z
,
adany rozk lad
P ∗ A ∗ Q
T
= ˆ
L ∗ ˆ
R,
ˆ
L = (L
(s−1)
1
)
−1
∗ · · · ∗ (L
(s−1)
s
)
−1
, ˆ
R = A
(s)
.
7.3.2
Rozk lad tr´
ojk
,
atno-tr´
ojk
,
atny macierzy
Wynikiem naszej analizy jest nast
,
epuj
,
ace twierdzenie.
72
ROZDZIA L 7. UK LADY R ´
OWNA ´
N LINIOWYCH
Twierdzenie 7.4 (o rozk ladzie tr´
ojk
,
atno-tr´
ojk
,
atnym macierzy)
Dla dowolnej macierzy A ∈ K
m,n
rz
,
edu s istniej
,
a (na og´
o l niejednoznaczne)
macierze permutacji P ∈ K
m,m
i Q ∈ K
n,n
takie, ˙ze macierz ˆ
A = P ∗ A ∗ Q
T
ma jednoznaczny rozk lad tr´
ojk
,
atno-tr´
ojk
,
atny
ˆ
A = ˆ
L ∗ ˆ
R,
gdzie ˆ
L ∈ K
m,m
, ˆ
R ∈ K
m,n
, ˆ
l
i,i
= 1 ∀i,
ˆ
L =
L
0
H
I
,
ˆ
R =
R T
0
0
,
L ∈ TRIL
s,s
, R ∈ TRIU
s,s
.
Dow´
od.
Istnienie rozk ladu udowodnili´smy przez konstrukcj
,
e macierzy ˆ
L i
ˆ
R (za pomoc
,
a eliminacji Gaussa). Aby pokaza´
c jednoznaczno´s´
c, przedsta-
wimy ˆ
A w postaci blokowej,
ˆ
A =
A
1,1
A
1,2
A
2,1
A
2,2
,
A
1,1
∈ K
s,s
.
Wtedy dla danego rozk ladu ˆ
A = ˆ
L ∗ ˆ
R mamy
A
1,1
= L ∗ R,
A
1,2
= L ∗ T,
A
2,1
= H ∗ R,
A
2,2
= H ∗ T.
Gdyby istnia l inny rozk lad z macierzami L i R to mieliby´smy L ∗ R = L ∗ R,
czyli
L
−1
∗ L = R ∗ R
−1
.
Po lewej stronie ostatniej r´
owno´sci mamy macierz tr´
ojk
,
atn
,
a doln
,
a z jedyn-
kami na przek
,
atnej, a z prawej tr´
ojk
,
atn
,
a g´
orn
,
a. To wymusza L
−1
∗ L =
I
s
= R ∗ R
−1
, czyli L = L i R = R. Jednoznaczno´s´
c pozosta lych blok´
ow w
rozk ladzie wynika z r´
owno´sci T = L
−1
∗ A
1,2
i H = A
2,1
∗ R
−1
.
7.4
Eliminacja bez przestawie´
n
Podamy teraz warunek konieczny i dostateczny na to, aby istnia l rozk lad
tr´
ojk
,
atno-tr´
ojk
,
atny oryginalnej macierzy A, a tym samym, aby eliminacja
Gaussa by la wykonalna bez przestawie´
n wierszy i/lub kolumn.
7.4. ELIMINACJA BEZ PRZESTAWIE ´
N
73
Twierdzenie 7.5 Aby macierz A = (a
i,j
) ∈ K
m,n
rz
,
edu s mia la rozk lad
tr´
ojk
,
atno-tr´
ojk
,
atny bez przestawie´
n wierszy i/lub kolumn potrzeba i wystar-
cza, ˙ze wszystkie macierze k
,
atowe A
k
= (a
i,j
)
k
i,j=1
∈ K
k,k
dla k = 1, 2, . . . , s
s
,
a nieosobliwe.
Dow´
od.
Je´sli macierz ma rozk lad A = ˆ
L∗ ˆ
R to A
k
= ˆ
L
k
∗ ˆ
R
k
jest nieosobliwa
dla 1 ≤ k ≤ s. Dow´
od w drug
,
a stron
,
e podamy przez indukcj
,
e po s. Dla
s = 1 twierdzenie jest oczywiste, bo wtedy a
1,1
6= 0 i eliminacja pierwszej
kolumny jest wykonalna. Za l´
o˙zmy, ˙ze twierdzenie jest prawdziwe dla s − 1.
Oznaczaj
,
ac
A
s
=
A
s−1
~a
~c
T
a
s,s
,
mamy z za lo˙zenia indukcyjnego, ˙ze istnieje rozk lad A
s−1
= L
(s−1)
∗ R
(s−1)
dla
pewnych nieosobliwych macierzy
L
(s−1)
∈ TRIL
s−1,s−1
oraz
R
(s−1)
∈ TRIU
s−1,s−1
.
Oznaczaj
,
ac
L
(s)
=
L
(s−1)
~0
~
g
T
1
,
R
(s)
=
R
(s−1)
~b
~0
T
r
s,s
,
i rozwi
,
azuj
,
ac r´
ownanie A
(s)
= L
(s)
∗ R
(s)
otrzymujemy
~a = L
(s−1)
∗ ~b,
~c
T
= ~
g
T
∗ R
(s−1)
(albo
(R
(s−1)
)
T
∗ ~g = ~c),
a
s,s
= ~
g
T
∗ ~b + r
s,s
,
sk
,
ad kolejno wyliczamy ~b, ~
g i r
s,s
. Rozk lad tr´
ojk
,
atno-tr´
ojk
,
atny macierzy
k
,
atowej A
(s)
w oczywisty spos´
ob implikuje ju˙z rozk lad ca lej macierzy A.
Na koniec podamy wa˙zne klasy macierzy, dla kt´
orych eliminacja Gaussa
jest mo˙zliwa bez przestawie´
n wierszy i/lub kolumn. S
,
a to macierze:
(a) diagonalnie dominuj
,
ace wierszami
WDD
n,n
=
n
A = (a
i,j
) ∈ K
n,n
: |a
i,i
| >
n
X
i6=j=1
|a
i,j
|, 1 ≤ i ≤ n
o
.
74
ROZDZIA L 7. UK LADY R ´
OWNA ´
N LINIOWYCH
(b) diagonalnie dominuj
,
ace kolumnami
KDD
n,n
= {A ∈ K
n,n
: A
T
∈ WDD
n,n
}.
(c) hermitowskie dodatnio okre´
slone
HPD
n,n
= {A ∈ K
n,n
: A
H
= A oraz ∀~
x 6= ~0 ~
x
H
∗ A ∗ ~
x > 0}.
(d) hermitowskie ujemnie okre´
slone
HND
n,n
= {A ∈ K
n,n
: (−A) ∈ HPD
n,n
}.
Aby pokaza´
c, ˙ze w tych przypadkach przestawienie wierszy/kulumn nie
jest konieczne, wyka˙zemy, ˙ze spe lnione s
,
a za lo˙zenia twierdzenia 7.5.
W przypadku (a) zauwa˙zamy, ˙ze je´sli A ∈ WDD
n,n
to A jest nieosobliwa,
N (A) = {~0}. Je´sli bowiem A ∗ ~
x = ~0 i ~
x 6= ~0 to dla p takiego, ˙ze |x
p
| = k~
xk
∞
mamy a
p,p
x
p
+
P
j6=p
a
p,j
x
j
= 0, a st
,
ad
|a
p,p
| ≤
X
j6=p
|a
p,j
|
x
j
x
p
≤
X
j6=p
|a
p,j
|,
co przeczy dominacji g l´
ownej diagonali macierzy. Uzasadnienie uzupe lnia
obserwacja, ˙ze je´sli A ∈ WDD
n,n
to r´
ownie˙z macierze k
,
atowe A
k
∈ WDD
k,k
,
1 ≤ k ≤ n.
Dla przypadku (b) wystarczy zauwa˙zy´
c, ˙ze jes li A ∈ KDD
n,n
to A
T
∈
WDD
n,n
, oraz wykorzysta´
c fakt, ˙ze nieosobliwo´s´
c A jest r´
ownowa˙zna nieoso-
bliwo´sci A
T
.
W przypadku (c) (i zupe lnie podobnie w (d)) zauwa˙zamy, ˙ze ka˙zda ma-
cierz A ∈ HPD
n,n
jest nieosobliwa. Je´sli bowiem ~
x 6= ~0 i A ∗ ~
x = ~0 to
~
x
H
∗ A ∗ ~
x = 0. Ponadto, wszystkie macierze k
,
atowe A
k
∈ HPD
k,k
, bo dla
dowolnego niezerowego ~
y ∈ K
k
mamy
~
y
H
∗ A
k
∗ ~
y =
~y
~0
H
∗ A ∗
~y
~0
> 0.
Rozdzia l 8
Przekszta lcenia liniowe
8.1
Podstawowe poj
,
ecia i w lasno´
sci
Niech X
|K
i Y
|K
b
,
ed
,
a dwiema przestrzeniami liniowymi nad tym samym
cia lem K.
Definicja 8.1 Przekszta lcenie f : X → Y nazywamy przekszta lceniem linio-
wym X w Y je´
sli ∀x, y ∈ X ∀α, β ∈ K zachodzi r´
owno´
s´
c
f (x ∗ α + y ∗ β) = f (x) ∗ α + f (y) ∗ β.
8.1.1
Obraz, j
,
adro i rz
,
ad przekszta lcenia
Dla X
1
⊆ X , zbi´
or
f (X
1
) := {f (x) : x ∈ X
1
}
nazywamy obrazem zbioru X
1
.
Je´sli X
1
jest podprzestrzeni
,
a X to f (X
1
) jest podprzestrzeni
,
a Y. Rze-
czywi´scie, je´sli y
1
, y
2
∈ f (X
1
) to dla pewnych x
1
, x
2
∈ X
1
mamy y
1
= f (x
1
) i
y
2
= f (x
2
). St
,
ad dla dowolnych α
1
, α
2
∈ K mamy
y
1
∗ α
1
+ y
2
∗ α
2
= f (x
1
) ∗ α
1
+ f (x
2
) ∗ α
2
= f (x
1
∗ α
1
+ x
2
∗ α
2
) ∈ f (X
1
).
W szczeg´
olno´sci, f (X ) oraz f ({0}) = {0} s
,
a podprzestrzeniami.
Latwo r´
ownie˙z sprawdzi´
c, ˙ze obrazem warstwy W (x
0
, X
1
) ⊆ X jest war-
stwa W (f (x
0
), f (X
1
)) ⊆ Y. A wi
,
ec bycie podprzestrzeni
,
a, elementem zero-
wym albo warstw
,
a s
,
a niezmiennikami przekszta lce´
n liniowych.
75
76
ROZDZIA L 8. PRZEKSZTA LCENIA LINIOWE
Podobnie jak dla macierzy definiujemy obraz przekszta lcenia liniowego f
im(f ) := f (X ) = {f (x) : x ∈ X } ⊆ Y,
jego j
,
adro
ker(f ) := {x ∈ X : f (x) = 0} ⊆ X ,
oraz rz
,
ad
rank(f ) := dim(im(f )).
Oczywi´scie, j
,
adro jest te˙z podprzestrzeni
,
a.
Twierdzenie 8.1 Dla dowolnego przekszta lcenia liniowego f mamy
dim (X ) = dim (im(f )) + dim (ker(f )) .
Dow´
od.
Niech X
1
b
,
edzie tak zdefiniowane, ˙ze
X = X
1
⊕ ker(f ).
Wtedy dim(X ) = dim(X
1
) + dim(ker(f )).
Poka˙zemy, ˙ze dim(im(f )) =
dim(X
1
). W tym celu zauwa˙zmy, ˙ze ka˙zdy x ∈ X mo˙zna jednoznacznie
przedstawi´
c jako x = x
1
+ x
0
, gdzie x
1
∈ X
1
i x
0
∈ ker(f ). St
,
ad
im(f ) = {f (x
1
+ x
0
) : x
1
∈ X
1
, x
0
∈ ker(f )} = {f (x
1
) : x
1
∈ X
1
}.
Teraz wystarczy pokaza´
c, ˙ze dim(X
1
) = dim(f (X
1
)). Rzeczywi´scie, niech
A = [x
1
, . . . , x
s
] ∈ X
1,s
b
,
edzie baz
,
a X
1
(s = dim(X
1
)) oraz
B = [f (x
1
), . . . , f (x
s
)] ∈ Y
1,s
.
Wtedy f (X
1
) = span(f (x
1
), . . . , f (x
s
)) oraz uk lad {f (x
j
)}
s
j=1
jest liniowo
niezale˙zny. Je´sli bowiem B ∗ ~α = 0 to r´ownie˙z f (A ∗ ~α) = 0. Poniewa˙z
A ∗ ~
α /
∈ ker(f ) \ {0} to A ∗ ~α = 0 i z liniowej niezale˙zno´sci {x
j
}
s
j=1
dostajemy
~
α = ~0. Otrzymali´smy, ˙ze B jest baz
,
a f (X
1
) i dim(f (X
1
)) = s = dim(X
1
).
8.1. PODSTAWOWE POJ
,
ECIA I W LASNO´
SCI
77
8.1.2
Przyk lady
• Ka˙zda macierz A ∈ K
m,n
mo˙ze by´
c identyfikowana z przekszta lceniem
liniowym f : K
n
→ K
m
danym wzorem
f (~
x) = A ∗ ~
x,
~
x ∈ K
n
.
Wtedy im(f ) = R(A), ker(f ) = N (A) oraz rank(f ) = rz(A). Twier-
dzenie 8.1 sprowadza si
,
e w tym przypadku do wniosku 5.1.
W szczeg´
olno´sci, funkcjona ly liniowe s
,
a przekszta lceniami liniowymi.
Wtedy A ∈ K
1,n
oraz Y = K.
• Niech f : P
10
|R
→ P
10
|R
, f (p) = p
00
(druga pochodna). Wtedy ker(f ) =
P
2
|R
i im(f ) = P
8
|R
.
• Je´sli za´s w poprzednim przyk ladzie f (p) = p
0
− p to im(f ) = P
10
|R
oraz
ker(f ) = P
0
|R
= {0}.
8.1.3
R´
o ˙znowarto´
sciowo´
s´
c
Twierdzenie 8.2 Na to, aby przekszta lcenie liniowe f : X → Y by lo r´
o˙zno-
warto´
sciowe potrzeba i wystarcza, ˙ze ker(f ) = {0}.
Dow´
od.
Je´sli f jest r´
o˙znowarto´sciowe to tylko dla x = 0 mamy f (x) = 0,
czyli ker(f ) = {0}. Z drugiej strony, je´sli ker(f ) = {0} i f (x
1
) = f (x
2
) = 0
to f (x
1
− x
2
) = 0, a st
,
ad x
1
− x
2
= 0 i x
1
= x
2
, co ko´
nczy dow´
od.
Z ostatniego twierdzenia wynika, ˙ze je´sli ker(f ) = {0} to istnieje prze-
kszta lcenie “odwrotne” f
−1
: im(f ) → X takie, ˙ze ∀x ∈ X f
−1
(f (x)) = x
oraz ∀y ∈ im(f ) f (f
−1
(y)) = y. Ponadto f
−1
jest liniowe, bo je´sli y
1
, y
2
∈
im(f ) to definiuj
,
ac x
1
= f
−1
(y
1
) i x
2
= f
−1
(y
2
) mamy
f
−1
(y
1
∗ α
1
+ y
2
∗ α
2
) = f
−1
(f (x
1
) ∗ α
1
+ f (x
2
) ∗ α
2
)
= f
−1
(f (x
1
∗ α
1
+ x
2
∗ α
2
))
= x
1
∗ α
1
+ x
2
∗ α
2
= f
−1
(y
1
) ∗ α
1
+ f
−1
(y
2
) ∗ α
2
.
M´
owi
,
ac inaczej, ka˙zde r´
o˙znowarto´sciowe przekszta lcenie liniowe f : X → Y
ustala izomorfizm pomi
,
edzy X i swoim obrazem im(f ) ⊆ Y.
78
ROZDZIA L 8. PRZEKSZTA LCENIA LINIOWE
8.1.4
Przestrze´
n przekszta lce´
n liniowych
Zbi´
or wszystkich przekszta lce´
n liniowych z X w Y tworzy przestrze´
n liniow
,
a
nad K, je´sli dzia lania dodawania przekszta lce´
n i mno˙zenia przez skalar zde-
finiowane s
,
a w naturalny spos´
ob jako:
(α ∗ f )(x) = α ∗ f (x),
(f + g)(x) = f (x) + g(x).
Przestrze´
n t
,
a oznaczamy (X → Y)
|K
albo Lin(X , Y). Oczywi´scie, elementem
neutralnym (zerowym) tej przestrzeni jest przekszta lcenie zerowe, a przeciw-
nym do f jest (−f ).
Podobnie jak dla funkcjona l´
ow, dla wygody b
,
edziemy cz
,
esto stosowa´
c
zapis
f · x := f (x),
∀f ∈ Lin(X , Y)
∀x ∈ X .
Uwaga.
Zauwa˙zmy, ˙ze wobec r´
owno´sci
(α ∗ f + β ∗ g) · x = α ∗ (f · x) + β ∗ (g · x)
ka˙zdy wektor x ∈ X mo˙ze by´
c traktowany jako element przestrzeni
Lin (Lin(X , Y), Y) .
Jednak w og´
olno´sci nie mamy r´
owno´sci pomi
,
edzy Lin (Lin(X , Y), Y) i X ,
tak jak jest w przypadku Y = K.
8.2
Macierz przekszta lcenia liniowego
8.2.1
Definicja
Niech dim(X ) = n, dim(Y) = m. Niech
A = [x
1
, . . . , x
n
] ∈ X
1,n
,
B = [y
1
, . . . , y
m
] ∈ Y
1,m
b
,
ed
,
a odpowiednio bazami X i Y. Wtedy
X = {A ∗ ~a : ~a ∈ K
n
},
Y = {B ∗~b : ~b ∈ K
m
}.
Przypomnijmy, ˙ze B
−1
jest wektorem funkcjona l´
ow,
B
−1
=
r
1
..
.
r
m
∈ (Y
∗
)
m,1
,
8.2. MACIERZ PRZEKSZTA LCENIA LINIOWEGO
79
gdzie r
j
∈ Y
∗
, 1 ≤ j ≤ m, tworz
,
a baz
,
e Y
∗
sprz
,
e˙zon
,
a do B.
Niech f : X → Y b
,
edzie przekszta lceniem liniowym i y = f · x. Przyj-
muj
,
ac x = A ∗ ~a i y = B ∗ ~b mamy
~b = B
−1
· y = B
−1
· (f · x)
= B
−1
· (f · (A ∗ ~a)) = B
−1
· f · A
∗ ~a
= F ∗ ~a,
gdzie F ∈ K
m,n
,
F = B
−1
· f · A,
jest macierz
,
a o wyrazach f
i,j
= r
i
(f (x
j
)), tzn. w j-tej kolumnie macierzy F
stoj
,
a wsp´
o lczynniki rozwini
,
ecia wektora f (x
j
) w bazie [y
1
, . . . , y
m
].
Definicja 8.2 Macierz liczbow
,
a F = B
−1
· f · A nazywamy macierz
,
a prze-
kszta lcenia f : X → Y w bazach A i B odpowiednio przestrzeni X i Y.
8.2.2
Izomorfizm Lin(X , Y) i K
m,n
Niech Φ : Lin(X , Y) → K
m,n
,
Φ(f ) = B
−1
· f · A,
∀f ∈ Lin(X , Y).
Odwzorowanie Φ przyporz
,
adkowuj
,
ace przekszta lceniu liniowemu jego ma-
cierz jest liniowe (zachowuje kombinacje liniowe). Je´sli bowiem Φ(f ) = F i
Φ(g) = G to
Φ(α ∗ f + β ∗ g) = B
−1
· (α ∗ f + β ∗ g) · A
= α ∗ (B
−1
· f · A) + β ∗ (B
−1
· g · A)
= α ∗ Φ(f ) + β ∗ Φ(g).
Ponadto, latwo sprawdzi´
c, ˙ze Φ jest wzajemnie jednoznaczne i odwzorowanie
odwrotne Φ : K
m,n
→ Lin(X , Y) wyra˙za si
,
e wzorem
Φ
−1
(F ) = B ∗ F ∗ A
−1
,
∀F ∈ K
m,n
.
St
,
ad Φ jest izomorfizmem a przestrzenie Lin(X , Y) i K
m,n
s
,
a izomorficzne.
Poniewa˙z dla przestrzeni macierzy mamy dim(K
m,n
) = m · n, otrzymu-
jemy w szczeg´
olno´sci wniosek, ˙ze
dim (Lin(X , Y)) = dim(X ) · dim(Y).
80
ROZDZIA L 8. PRZEKSZTA LCENIA LINIOWE
Przyk ladow
,
a baz
,
e Lin(X , Y) tworz
,
a przekszta lcenia ϕ
i,j
, 1 ≤ i ≤ m, 1 ≤
j ≤ n, dane wzorem ϕ
i,j
= Φ
−1
(E
i,j
) (gdzie E
i,j
ma jedynk
,
e na przeci
,
eciu
i-tego wiersza i j-tej kolumny, a poza tym zera). Dok ladniej, dla x = A ∗ ~a,
~a = [α
1
, . . . , α
n
]
T
, mamy
f
i,j
· x = (B ∗ E
i,j
∗ A
−1
) ∗ A ∗ ~a = B ∗ (E
i,j
∗ ~a) = (B ∗ ~e
i
) ∗ α
j
= ~
y
i
∗ α
j
.
8.3
Dalsze w lasno´
sci macierzy przekszta lce´
n
8.3.1
Obraz i j
,
adro przekszta lcenia/macierzy
Twierdzenie 8.3 Mamy
im(f ) = B ∗ R(F ) := {B ∗ ~b : ~b ∈ R(F )},
ker(f ) = A ∗ N (F ) := {A ∗ ~a : ~a ∈ N (F )}.
Dow´
od.
Bezpo´srednio sprawdzamy, ˙ze
im(f ) = {f · x : x ∈ X } = {f · A ∗ ~a : ~a ∈ K
n
}
= {B ∗ (B
−1
· f · A) ∗ ~a : ~a ∈ K
n
} = {B ∗ F ∗ ~a : ~a ∈ K
n
}
= {B ∗ ~b : ~b ∈ R(F )},
oraz
ker(f ) = {x ∈ X : f · x = 0} = {A ∗ ~a ∈ X : f · A ∗ ~a = 0}
= {A ∗ ~a : B ∗ (B
−1
· f · A) ∗ ~a = 0}
= {A ∗ ~a : B ∗ F ∗ ~a = 0} = {A ∗ ~a : F ∗ ~a = 0}
= {A ∗ ~a : ~a ∈ N (F )}.
Na podstawie twierdzenia 8.3 mo˙zemy powiedzie´
c, ˙ze B (B
−1
) jest izo-
morfizmem R(F ) w im(f ) (im(f ) w R(F )), a A (A
−1
) jest izomorfizmem
N (F ) w ker(f ) (ker(f ) w N (F )).
8.3.2
Zmiana bazy
Zastan´
owmy si
,
e jak wygl
,
ada zale˙zno´s´
c pomi
,
edzy wsp´
o lczynnikami rozwini
,
e-
cia danego wektora x ∈ X w dw´
och r´
o˙znych bazach A i B przestrzeni X .
8.3. DALSZE W LASNO´
SCI MACIERZY PRZEKSZTA LCE ´
N
81
Formalnie mo˙zemy rozpatrzy´
c macierz przekszta lcenia identyczno´sciowego
f = id
X
: X → X , id
X
(x) = x. Zapisuj
,
ac x z jednej strony jako x = A ∗ ~a, a
z drugiej jako x = B ∗ ~b otrzymujemy
~b = B
−1
· A
∗ ~a.
Macierz F = B
−1
· A ∈ K
n,n
o wsp´
o lczynnikach f
i,j
= r
i
· x
j
nazywa si
,
e
macierz
,
a zmiany bazy z A na B.
Oczywi´scie, macierz zmiany bazy jest nieosobliwa.
Podamy teraz charakterystyczny przyk lad zmiany bazy. Niech X
|K
= P
n
|R
b
,
edzie przestrzeni
,
a wielomian´
ow stopnia co najwy˙zej n − 1. Rozpatrzmy
baz
,
e pot
,
egow
,
a A = [1, t, t
2
, . . . , t
n−1
] oraz baz
,
e B = [l
1
, . . . , l
n
], gdzie l
i
s
,
a
wielomianami Lagrange’a zdefiniowanymi w (6.1) dla ustalonych w
,
ez l´
ow t
1
<
t
2
< · · · < t
n
. Wtedy funkcjona ly r
k
, 1 ≤ k ≤ n, tworz
,
ace macierz B
−1
, dane
s
,
a wzorem r
k
(p) = p(t
k
) ∀p ∈ P
n
|R
. St
,
ad wsp´
o lczynniki macierzy przej´scia
F = B
−1
· A ∈ K
n,n
wynosz
,
a f
i,j
= (t
i
)
j
, czyli
F =
1 t
1
t
2
1
· · · t
n−1
1
1 t
2
t
2
2
· · · t
n−1
2
..
.
..
.
..
.
..
.
1 t
n
t
2
n
· · · t
n−1
n
.
Jest to macierz Vandermonde’a. Zauwa˙zmy, ˙ze “przy okazji” pokazali´smy, i˙z
macierz Vandermonde’a, jako macierz zmiany bazy, jest nieosobliwa.
8.3.3
Z lo ˙zenie przekszta lce´
n
Niech f ∈ Lin(X , Y) i g ∈ Lin(Y, Z). Wtedy z lo˙zenie (superpozycja)
g ◦ f : X → Z,
(g ◦ f )(x) = g(f (x)) ∀x jest te˙z liniowe, tzn. (g ◦ f ) ∈ Lin(X , Y). Rze-
czywi´scie,
(g ◦ f )(x
1
∗ α
1
+ x
2
∗ α
2
) = g(f (x
1
) ∗ α
1
+ f (x
2
) ∗ α
2
)
= (g ◦ f )(x
1
) ∗ α
1
+ (g ◦ f )(x
2
)α
2
.
82
ROZDZIA L 8. PRZEKSZTA LCENIA LINIOWE
Twierdzenie 8.4 Niech A, B i C b
,
ed
,
a odpowiednio bazami przestrzeni X ,
Y i Z. Niech f ∈ Lin(X , Y), g ∈ Lin(Y, Z), a F , G b
,
ed
,
a odpowiednio
macierzami przekszta lce´
n f i g w podanych bazach. Wtedy macierz z lo˙zenia
h = g ◦ f ∈ Lin(X , Z) wynosi
H = G ∗ F.
Dow´
od.
Rzeczywi´scie, mamy bowiem
H
= C
−1
· h · A = C
−1
· g · f · A
=
C
−1
· g · B
∗ B
−1
· f · A
= G ∗ F.
Rozdzia l 9
Wyznacznik macierzy
9.1
Definicja i pierwsze w lasno´
sci
Niech A b
,
edzie macierz
,
a kwadratow
,
a nad cia lem K,
A = (a
i,j
)
n
i,j=1
∈ K
n,n
.
Definicja 9.1 (przez rozwini
,
ecie Laplace’a)
Wynacznikiem macierzy kwadratowej n × n nazywamy funkcj
,
e
det
n
: K
n,n
→ K,
zdefiniowan
,
a rekurencyjnie w nast
,
epuj
,
acy spos´
ob:
(n = 1)
det
1
(A) := det
1
([a
1,1
]) = a
1,1
,
(n ≥ 2)
det
n
(A) :=
P
n
i=1
(−1)
i+n
a
i,n
· det
n−1
(A
i,n
),
gdzie A
i,n
∈ K
n−1.n−1
jest macierz
,
a powsta l
,
a z A poprzez usuni
,
ecie z niej
i-tego wiersza i n-tej kolumny.
Zgodnie z definicj
,
a mamy
det
2
(A) = a
1,1
a
2,2
− a
1,2
a
2,1
,
det
3
(A) = a
1,1
a
2,2
a
3,3
+ a
1,2
a
2,3
a
3,1
+ a
1,3
a
2,1
a
3,2
−a
1,1
a
2,3
a
3,2
− a
1,2
a
2,1
a
3,3
− a
1,3
a
2,2
a
3,1
,
det
4
(A) = . . . .
83
84
ROZDZIA L 9. WYZNACZNIK MACIERZY
Wprost z definicji rekurencyjnej latwo r´
ownie˙z zauwa˙zy´
c, ˙ze dla macierzy
identyczno´sciowej mamy det
n
(I
n
) = 1. Og´
olniej, je´sli A jest macierz
,
a r´
ojk
,
at-
n
,
a doln
,
a lub tr´
ojk
,
atn
,
a g´
orn
,
a, A ∈ TRIL
n,n
∪ TRIU
n,n
, to
det
n
(A) =
n
Y
i=1
a
i,i
.
Je´sli format macierzy jest znany lub nieistotny to dalej b
,
edziemy dla
uproszczenia pisa´
c det(A) zamiast det
n
(A).
Twierdzenie 9.1 Wyznacznik jest funkcj
,
a liniow
,
a ze wzgl
,
edu na dowoln
,
a
kolumn
,
e macierzy, tzn.
det([~a
1
, . . . , ~a
p
∗ α + ~a
0
p
∗ α
0
, . . . , ~a
n
])
= det([~a
1
, . . . , ~a
p
, . . . , ~a
n
]) ∗ α + det([~a
1
, . . . , ~a
0
p
, . . . , ~a
n
]) ∗ α
0
,
1 ≤ p ≤ n.
Dow´
od.
Rzeczywi´scie, r´
owno´s´
c w oczywisty spos´
ob zachodzi dla n = 1, a
dla n ≥ 2 wystarczy osobno rozpatrzy´
c dwa przypadki, p = n i 1 ≤ p ≤ n−1,
oraz skorzysta´
c z definicji rekurencyjnej.
Z twierdzenia 9.1 mamy od razu, ˙ze det([. . . , ~0, . . .]) = 0. Natomiast
stosuj
,
ac twierdzenie 9.1 kolejno do ka˙zdej z kolumn macierzy otrzymujemy,
˙ze dla dowolnej macierzy diagonalnej D = diag(α
1
, α
2
, . . . , α
n
)
det(A ∗ D) = det([~a
1
∗ α
1
, . . . , ~a
n
∗ α
n
]) = det(A) ·
n
Y
i=1
α
i
.
(9.1)
W szczeg´
olno´sci,
det
n
(α ∗ A) = α
n
· det
n
(A)
oraz
det
n
(−A) = (−1)
n
· det
n
(A).
9.2
Wyznacznik a operacje elementarne
9.2.1
Permutacja kolumn
Twierdzenie 9.2 Przestawienie r´
o˙znych kolumn macierzy zmienia znak wy-
znacznika, tzn. dla dowolnej transpozycji T
p,q
, p 6= q,
det(A ∗ T
p,q
) = −det(A).
9.2. WYZNACZNIK A OPERACJE ELEMENTARNE
85
Dow´
od.
(Indukcja wzgl
,
edem n.)
Dla n = 1, 2 wz´
or sprawdzamy bezpo´srednio z definicji. Dla n ≥ 3 rozpatru-
jemy trzy przypadki.
(a) 1 ≤ p < q ≤ n − 1.
Korzystaj
,
ac z za lo˙zenia indukcyjnego mamy
det
n
(A ∗ T
p,q
) =
n
X
i=1
(−1)
i+n
a
i,n
det
n−1
((A ∗ T
p,q
)
i,n
)
= −
n
X
i=1
(−1)
i+n
a
i,n
det
n−1
(A
i,n
)
= −det
n
(A).
(b) p = n − 1, q = n.
Stosuj
,
ac dwukrotnie rozwini
,
ecie Laplace’a dostajemy
det
n
(A) =
n
X
i=1
(−1)
i+n
a
i,n
det
n−1
(A
i,n
)
=
n
X
i=1
(−1)
i+n
a
i,n
i−1
X
k=1
(−1)
k+(n−1)
a
k,n−1
det
n−2
(A
{i,k}{n−1,n}
)
+
n
X
k=i+1
(−1)
(k−1)+(n−1)
a
k,n−1
det
n−2
(A
{i,k}{n−1,n}
)
= −
X
k<i
(−1)
i+k
a
i,n
a
k,n−1
det
n−2
(A
{i,k}{n−1,n}
)
+
X
i<k
(−1)
i+k
a
i,n
a
k,n−1
det
n−2
(A
{i,k}{n−1,n}
),
gdzie A
{i,k}{n−1,n}
jest macierz
,
a powsta l
,
a z A poprzez usuni
,
ecie wierszy i-tego
i k-tego oraz kolumn (n−1)-szej i n-tej. Wykonuj
,
ac to samo dla macierzy A∗
T
p,q
otrzymujemy ten sam wz´
or, ale z odwr´
oconymi znakami przed symbolami
sumowania.
(c) 1 ≤ p ≤ n − 2, q = n.
W tym przypadku wystarczy zauwa˙zy´
c, ˙ze
A ∗ T
p,n
= A ∗ T
p,n−1
∗ T
n−1,n
∗ T
p,n−1
i skorzysta´
c dwukrotnie z (a) i raz z (b).
86
ROZDZIA L 9. WYZNACZNIK MACIERZY
Z twierdzenia 9.2 wynika w szczeg´
olno´sci, ˙ze wyznacznik macierzy trans-
pozycji T
p,q
z p 6= q wynosi −1.
Wyznacznik mo˙zna rozwija´
c nie tylko wzgl
,
edem ostatniej, ale r´
ownie˙z
wzgl
,
edem dowolnej kolumny.
Twierdzenie 9.3 Dla dowolnego n ≥ 2 i 1 ≤ j ≤ n mamy
det
n
(A) =
n
X
i=1
(−1)
i+j
a
i,j
· det
n−1
(A
i,j
).
Dow´
od.
Je´sli j = n − 1 to
det
n
(A) = −det
n
(A ∗ T
n−1,n
)
= −
n
X
i=1
(−1)
i+n
a
i,n−1
· det
n−1
(A
i,n−1
)
=
n
X
i=1
(−1)
i+n−1
a
i,n−1
· det
n−1
(A
i,n−1
).
Dalej, korzystaj
,
ac z prawdziwo´sci rozwini
,
ecia dla j = n − 1, pokazujemy
podobnie prawdziwo´s´
c rozwini
,
ecia dla j = n − 2, itd., a˙z do j = 1.
9.2.2
Kombinacja liniowa kolumn
Z twierdzenia 9.2 od razu otrzymujemy
det([. . . , ~a, . . . , ~a, . . .]) = 0.
St
,
ad i z liniowo´sci wyznacznika wzgl
,
edem dowolnej kolumny wynika, ˙ze wy-
znacznik nie ulegnie zmianie gdy do kolumny dodamy inn
,
a kolumn
,
e po-
mno˙zon
,
a przez skalar, tzn.
det([~a
1
, . . . , ~a
p−1
, ~a
p
+ ~a
q
∗ m, ~a
p+1
, . . . , ~a
n
])
= det([~a
1
, . . . , ~a
p−1
, ~a
p
, ~a
p+1
, . . . , ~a
n
]).
Uog´
olnieniem ostatniej w lasno´sci jest nast
,
epuj
,
aca.
Twierdzenie 9.4 Je´
sli do p-tej kolumny dodamy kombinacj
,
e liniow
,
a pozo-
sta lych kolumn to wyznacznik macierzy nie ulegnie zmianie, tzn.
det
h
~a
1
, . . . , ~a
p−1
, ~a
p
+
X
j6=p
~a
j
∗ m
j
, ~a
p+1
, . . . , ~a
n
i
= det([~a
1
, . . . , ~a
p−1
, ~a
p
, ~a
p+1
, . . . , ~a
n
]).
9.3. DALSZE W LASNO´
SCI WYZNACZNIK ´
OW
87
Zauwa˙zmy, ˙ze ostatni
,
a r´
owno´s´
c mo˙zna symbolicznie zapisa´
c jako
det(A ∗ (I + ~
m ∗ ~
e
T
p
)) = det(A),
o ile ~
e
T
p
∗ ~
m = 0.
Wniosek 9.1 Je´
sli macierz A jest osobliwa to det(A) = 0.
Dow´
od.
Je´sli A nie jest pe lnego rz
,
edu to jedna z kolumn, powiedzmy p,
jest kombinacj
,
a liniow
,
a pozosta lych kolumn. Odejmuj
,
ac od p-tej kolumny t
,
a
kombinacj
,
e liniow
,
a otrzymujemy macierz A
0
o tym samym wyznaczniku co
A i o zerowej p-tej kolumnie. St
,
ad det(A) = det(A
0
) = 0.
9.3
Dalsze w lasno´
sci wyznacznik´
ow
9.3.1
Wyznacznik iloczynu macierzy
Jak wiemy, ka˙zd
,
a macierz tr´
ojk
,
atn
,
a doln
,
a L ∈ TRIL
n,n
z jedynkami na
g l´
ownej przek
,
atnej mo˙zna przedstawi´
c jako iloczyn
L = I
n
+ ~l
1
∗ ~e
T
1
+ · · · + ~l
n−1
∗ ~e
T
n−1
= (I
n
+ ~l
1
∗ ~e
T
1
) ∗ · · · ∗ (I
n
+ ~l
n−1
~
e
T
n−1
),
gdzie ~l
j
= [0, . . . , 0
|
{z
}
j
, l
j+1,j
, . . . , l
n,j
]
T
, 1 ≤ j ≤ n − 1. Na podstawie twierdzenia
9.4 mamy wi
,
ec, ˙ze
det(A ∗ L) = det(A).
(9.2)
Podobnie, wyznacznik nie ulegnie zmianie gdy macierz pomno˙zymy z prawej
strony przez macierz tr´
ojk
,
atn
,
a g´
orn
,
a z jedynkami na g l´
ownej przek
,
atnej.
Niech teraz W ∈ TRIL
n,n
∪TRIU
n,n
. Je´sli wszystkie wyrazy na przek
,
atnej
s
,
a niezerowe, w
i,i
6= 0, 1 ≤ i ≤ n, to
W = W
1
∗ diag(w
1,1
, . . . , w
n,n
),
gdzie W
1
∈ TRIL
n,n
∪ TRIU
n,n
z jedynkami na g l´
ownej przek
,
atnej. Stosuj
,
ac
kolejno (9.1) i (9.2) (z macierz
,
a odpowiednio tr´
ojk
,
atn
,
a g´
orn
,
a albo tr´
ojk
,
atn
,
a
doln
,
a) dostajemy
det(A ∗ W ) = det(A ∗ W
1
) ·
n
Y
i=1
w
i,i
= det(A) ·
n
Y
i=1
w
i,i
.
(9.3)
Je´sli za´s w
k,k
= 0 dla pewnego k to W jest osobliwa, a st
,
ad osobliwa jest
r´
ownie˙z macierz A ∗ W i r´
ownanie det(A ∗ W ) = det(A) ·
Q
n
i=1
w
i,i
pozostaje
w mocy.
Mo˙zemy teraz pokaza´
c nast
,
epuj
,
ace twierdzenie
88
ROZDZIA L 9. WYZNACZNIK MACIERZY
Twierdzenie 9.5 Dla dowolnych macierzy A, B ∈ K
n,n
det(A ∗ B) = det(A) · det(B).
Dow´
od.
Skorzystamy z twierdzenia, ˙ze dla dowolnej macierzy B istnieje
rozk lad tr´
ojk
,
atno-tr´
ojk
,
atny P ∗ B ∗ Q
T
= L ∗ R, czyli
B = P
T
∗ L ∗ R ∗ Q,
gdzie P = T
1,p(1)
∗ · · · ∗ T
n−1,p(n−1)
i Q = T
1,q(1)
∗ . . . ∗ T
n−1,q(n−1)
s
,
a macierzami
permutacji, L jest tr´
ojk
,
atna dolna z jedynkami na przek
,
atnej, a R tr´
ojk
,
atna
g´
orna. Jasne, ˙ze det(P ) = (−1)
s
, gdzie s jest liczb
,
a w la´sciwych przestawie´
n
w p (tzn. liczb
,
a tych i dla kt´
orych i 6= p(i)), oraz podobnie det Q = (−1)
t
,
gdzie t jest liczb
,
a w la´sciwych przestawie´
n w q. Wykorzystuj
,
ac wielokrotnie
twierdzenie 9.2 oraz wz´
or (9.3) otrzymujemy
det(A ∗ B) = det(A ∗ P
T
∗ L ∗ R) · (−1)
t
= det(A ∗ P
T
∗ L)(−1)
t
·
n
Y
i=1
r
i,i
= det(A ∗ P
T
)(−1)
t
·
n
Y
i=1
r
i,i
= det(A)(−1)
s+t
·
n
Y
i=1
r
i,i
= det(A) ∗ det(B),
co nale˙za lo pokaza´
c.
9.3.2
Wyznacznik macierzy nieosobliwej i transpono-
wanej
Jak zauwa˙zyli´smy wcze´sniej w dowodzie twierdzenia 9.5, rozk lad macierzy
A = P
T
∗ L ∗ R ∗ Q implikuje r´
owno´s´
c
det(A) = (−1)
s+t
·
n
Y
i=1
r
i,i
,
kt´
ora z kolei daje dwa nast
,
epuj
,
ace wa˙zne wnioski.
9.4. DEFINICJA KOMBINATORYCZNA WYZNACZNIKA
89
Wniosek 9.2 Macierz A jest nieosobliwa, tzn. rz(A) = n, wtedy i tylko
wtedy gdy det(A) 6= 0.
Wniosek 9.3 Dla dowolnej macierzy kwadratowej A mamy
det(A
T
) = det(A).
Ostatni wniosek oznacza, ˙ze wszystkie w lasno´sci wyznacznika dotycz
,
ace
kolumn macierzy przys luguj
,
a r´
ownie˙z jej wierszom. W szczeg´
olno´sci, wy-
znacznik mo˙zna rozwija´
c wzgl
,
edem dowolnego wiersza,
det
n
(A) =
n
X
j=1
(−1)
i+j
a
i,j
· det
n−1
(A
i,j
).
9.4
Definicja kombinatoryczna wyznacznika
Ka˙zda macierz permutacji P ∈ K
n,n
mo˙ze by´
c roz lo˙zona na wiele sposob´
ow
na iloczyn transpozycji, np.
P = T
1,i
1
∗ T
2,i
2
∗ · · · ∗ T
n−1,i
n−1
.
(9.4)
Poniewa˙z
det(T
p,q
) =
1,
p = q (transpozycja niew la´sciwa),
−1,
p 6= q (transpozycja w la´sciwa),
to
det(P ) = (−1)
σ(p)
,
gdzie σ(p) = 0 gdy liczba transpozycji w la´sciwych w rozk ladzie (9.4) jest
parzysta, oraz σ(p) = 1 gdy liczba transpozycji w la´sciwych w (9.4) jest
nieparzysta. Pokazali´smy wi
,
ec nast
,
epuj
,
ace twierdzenie.
Twierdzenie 9.6 W rozk ladzie macierzy permutacji na iloczyn transpozycji
liczba transpozycji w la´
sciwych jest zawsze parzysta, albo zawsze nieparzysta.
Parzysto´s´
c lub nieparzysto´s´
c permutacji jest wi
,
ec w lasno´sci
,
a permutacji
(niezale˙zn
,
a od rozk ladu).
90
ROZDZIA L 9. WYZNACZNIK MACIERZY
Definicja Laplace’a wyznacznika jest r´
ownowa˙zna nast
,
epuj
,
acej definicji
kombinatorycznej:
det
n
(A) =
X
p=[p(1),...,p(n)]
(−1)
σ(p)
n
Y
j=1
a
p(j),j
,
albo
det
n
(A) =
X
q=[q(1),...,q(n)]
(−1)
σ(q)
n
Y
i=1
a
i,q(i)
.
Indukcyjny dow´
od r´
ownowa˙zno´sci tych definicji pomijamy. (Tutaj p i q s
,
a
permutacjami ci
,
agu [1, 2, . . . , n], przy czym p ◦ q = q ◦ p = Id = [1, 2, . . . , n].
Wtedy σ(p) = σ(q).)
9.5
Wzory Cramera
Poka˙zemy teraz, ˙ze uk lady r´
owna´
n liniowych mo˙zna, przynajmniej teoretycz-
nie, rozwi
,
azywa´
c za pomoc
,
a liczenia odpowiednich wyznacznik´
ow.
Definicja 9.2 Macierz C(A) := (γ
i,j
) ∈ K
n,n
, gdzie
γ
i,j
= (−1)
i+j
det
n−1
(A
i,j
),
nazywamy macierz
,
a komplementarn
,
a do danej macierzy A ∈ K
n,n
.
Zauwa˙zmy, ˙ze na podstawie rozwini
,
ecia Laplace’a mamy
p
j,k
:=
n
X
i=1
γ
i,j
a
i,k
=
det
n
(A),
k = j,
0,
k 6= j,
a st
,
ad
P = (p
j,k
)
n
j,k=1
= det
n
(A) ∗ I
n
= (C(A))
T
∗ A.
Zatem je´sli rz(A) = n to
A
−1
=
(C(A))
T
det
n
(A)
=
(−1)
i+j
det
n−1
(A
j,i
)
det
n
(A)
n
i,j=1
.
9.5. WZORY CRAMERA
91
Rozpatrzmy teraz uk lad r´
owna´
n A ∗ ~
x = ~b z kwadratow
,
a i nieosobliw
,
a
macierz
,
a A ∈ K
n,n
. Wtedy jego rozwi
,
azanie
~
x = (x
j
)
n
j=1
= A
−1
∗ ~b =
(C(A))
T
∗ ~b
det
n
(A)
,
czyli
x
j
=
P
n
i=1
γ
i,j
∗ b
i
det
n
(A)
=
P
n
i=1
(−1)
i+j
det
n−1
(A
i,j
) · b
i
det
n
(A)
,
albo r´
ownowa˙znie
x
j
=
det
n
([~a
1
, . . . , ~a
j−1
,~b, ~a
j+1
, . . . , ~a
n
])
det
n
([~a
1
, . . . , ~a
j−1
, ~a
j
, ~a
j+1
, . . . , ~a
n
])
,
dla 1 ≤ j ≤ n. Ostatnie formu ly zwane s
,
a wzorami Cramera.
Uwaga.
Wzory Cramera maj
,
a dla du˙zych n znaczenie jedynie teoretyczne,
gdy˙z, jak latwo si
,
e przekona´
c, koszt liczenia wyznacznika macierzy wprost
z definicji jest proporcjonalny do n! W takich przypadkach lepiej stosowa´
c
eliminacj
,
e Gaussa, kt´
orej koszt obliczeniowy jest proporcjonalny do n
3
.
92
ROZDZIA L 9. WYZNACZNIK MACIERZY
Rozdzia l 10
Formy dwuliniowe i
kwadratowe
10.1
Formy dwuliniowe
10.1.1
Definicja i przyk lady
Niech X
|K
b
,
edzie przestrzeni
,
a liniow
,
a nad cia lem K, dim(X
|K
) = n.
Definicja 10.1 Przekszta lcenie ϕ : X × X → K nazywamy form
,
a dwuli-
niow
,
a na przestrzeni X
|K
je´
sli
(i) ∀x, y
1
, y
2
∈ X , ∀α
1
, α
2
∈ K
ϕ(x, y
1
∗ α
1
+ y
2
∗ α
2
) = ϕ(x, y
1
) ∗ α
1
+ ϕ(x, y
2
) ∗ α
2
(liniowo´
s´
c ze wzgl
,
edu na drug
,
a zmienn
,
a),
(ii) ∀x, y ∈ X
ϕ(x, y) = ϕ(y, x)
(forma zwyk la)
albo
∀x, y ∈ X
ϕ(x, y) = ϕ(y, x)
(forma hermitowska).
Oczywi´scie, o formach hermitowskich mo˙zemy m´
owi´
c tylko wtedy gdy
K ⊆ C. Dalej, dla uproszczenia, b
,
edziemy rozpatrywa´
c jedynie formy her-
mitowskie.
93
94
ROZDZIA L 10. FORMY DWULINIOWE I KWADRATOWE
Zauwa˙zmy, ˙ze ∀x
1
, x
2
, y ∈ X , ∀β
1
, β
2
∈ K,
ϕ(x
1
∗ β
1
+ x
2
∗ β
2
, y) = ϕ(y, x
1
∗ β
1
+ x
2
∗ β
2
)
= ϕ(y, x
1
) ∗ β
1
+ ϕ(y, x
2
) ∗ β
2
= ϕ(x
1
, y) ∗ β
1
+ ϕ(x
2
, y) ∗ β
2
.
Do´s´
c oczywistym jest fakt, ˙ze zbi´
or wszystkich form dwuliniowych na X
|K
jest przestrzeni
,
a liniow
,
a nad R (ale nie nad C!) z naturalnymi dzia laniami:
(α ∗ ϕ)(x, y) := α ∗ ϕ(x, y),
(ϕ
1
+ ϕ
2
)(x, y) := ϕ
1
(x, y) + ϕ
2
(x, y).
Przyk ladami form dwuliniowych na X
|K
= K
n
|K
(K ⊆ C) s
,
a:
ϕ(~
x, ~
y) =
n
X
i=1
x
i
∗ y
i
∗ ρ
i
,
gdzie ρ
i
∈ R, 1 ≤ i ≤ n,
ϕ(~
x, ~
y) = ~
x
H
∗ A ∗ ~
y,
gdzie A ∈ K
n,n
, A = A
H
,
a na P
n
|R
:
ϕ(p, q) =
n
X
i=1
p
(i)
(t
i
) · q
(i)
(t
i
) · ρ
i
,
ρ
i
∈ R, 1 ≤ i ≤ n,
ϕ(p, q) =
Z
1
0
p(t) · q(t) · ρ(t) dt,
ρ : R → R.
10.1.2
Macierz formy dwuliniowej
Dalej wygodnie nam b
,
edzie rozszerzy´
c dzia lanie danej formy dwuliniowej
ϕ : X × X → K na ϕ : X
1,s
× X
1,t
→ K
s,t
w nast
,
epuj
,
acy spos´
ob. Niech
A = [x
1
, . . . , x
s
] i B = [y
1
, . . . , y
t
]. Wtedy
ϕ(A, B) := (ϕ(x
i
, y
j
))
i,j
∈ K
s,t
.
W szczeg´
olno´sci, macierz ϕ(A, A) = (ϕ(x
i
, x
j
))
i,j
jest kwadratowa i hermi-
towska, ϕ(A, A) ∈ Herm
n,n
. Mamy te˙z
∀ϕ ∀α ∈ R
(α ∗ ϕ)(A, B) = α ∗ ϕ(A, B),
∀ϕ, ψ
(ϕ + ψ)(A, B) = ϕ(A, B) + ψ(A, B).
10.1. FORMY DWULINIOWE
95
Po˙zyteczne b
,
ed
,
a te˙z nast
,
epuj
,
ace wzory rachunkowe:
∀~b ∈ K
t
ϕ(A, B ∗ ~b) = ϕ(A, B) ∗ ~b,
∀~a ∈ K
s
ϕ(A ∗ ~a, B) = ~a
H
∗ ϕ(A, B).
Rzeczywi´scie,
ϕ(A, B ∗ ~b) = ϕ
A,
t
X
j=1
y
j
∗ β
j
=
t
X
j=1
ϕ(A, y
j
) ∗ β
j
= ϕ(A, B) ∗ ~b,
gdzie ~b = [β
1
, . . . , β
t
]
T
, oraz
ϕ(A ∗ ~a, B) = (ϕ(B, A ∗ ~a))
H
= ~a
H
∗ (ϕ(B, A))
H
= ~a
H
∗ ϕ(A, B).
Uog´
olniaj
,
ac te wzory mamy
∀B ∈ K
t,r
ϕ(A, B ∗ B) = ϕ(A, B) ∗ B,
∀A ∈ K
s,r
ϕ(A ∗ A, B) = A
H
∗ ϕ(A, B).
Mamy bowiem
ϕ(A, B ∗ B) = ϕ(A, [B ∗ ~b
1
, . . . , B ∗ ~b
r
])
= [ϕ(A, B ∗ ~b
1
), . . . , ϕ(A, B ∗ ~b
r
)]
= [ϕ(A, B) ∗ ~b
1
, . . . , ϕ(A, B) ∗ ~b
r
]
= ϕ(A, B) ∗ B,
gdzie B = [~b
1
, . . . ,~b
r
], oraz
ϕ(A ∗ A, B) = (ϕ(B, A ∗ A))
H
= (ϕ(B, A) ∗ A)
H
= A
H
∗ (ϕ(B, A))
H
= A
H
∗ ϕ(A, B).
Definicja 10.2 Niech A = [x
1
, . . . , x
n
] b
,
edzie baz
,
a X , a ϕ : X × X → K
form
,
a dwuliniow
,
a na X . Macierz hermitowsk
,
a
Φ
A
:= ϕ(A, A) = (ϕ(x
i
, x
j
))
n
i,j=1
nazywamy macierz
,
a formy ϕ w bazie A.
96
ROZDZIA L 10. FORMY DWULINIOWE I KWADRATOWE
Znaczenie macierzy formy wynika z nast
,
epuj
,
acej r´
owno´sci. Niech x =
A ∗ ~
a i y = A ∗ ~b. Wtedy
ϕ(x, y) = ϕ(A ∗ ~a, A ∗ ~b) = ~a
H
∗ ϕ(A, A) ∗~b
= ~a
H
∗ Φ
A
∗ ~b = (A
−1
· x)
H
∗ Φ
A
∗ (A
−1
· y).
Przy ustalonej bazie A, ka˙zdej formie hermitowskiej ϕ : X × X → K
mo˙zna przyporz
,
adkowa´
c jej macierz Φ
A
= ϕ(A, A), kt´ora jest hermitowska.
Ale te˙z odwrotnie, ka˙zda macierz hermitowska Φ definiuje form
,
e hermitowsk
,
a
zgodnie ze wzorem ϕ(x, y) = (A
−1
· x)
H
∗ Φ ∗ (A
−1
· y). Mamy przy tym,
˙ze je´sli γ = ϕ + ψ to Γ
A
= Φ
A
+ Ψ
A
oraz je´sli γ = α ∗ ϕ, α ∈ R, to
Γ
A
= α ∗ Φ
A
. St
,
ad przestrze´
n wszystkich form hermitowskich nad R jest
izomorficzna z przestrzeni
,
a macierzy hermitowskich nad R. W przypadku
K = C jej wymiar wynosi n
2
.
10.2
Twierdzenie Sylwester’a
Definicja 10.3 Powiemy, ˙ze macierz A ∈ K
n,n
przystaje do macierzy B ∈
K
n,n
gdy istnieje macierz nieosobliwa C ∈ K
n,n
taka, ˙ze
B = C
H
∗ A ∗ C.
Niech A i B b
,
ed
,
a dwiema bazami X
|K
. Niech C = A
−1
· B ∈ K
n,n
b
,
edzie
macierz
,
a zmiany bazy z A na B tak, ˙ze
B = A ∗ C.
Je´sli Φ
A
jest macierz
,
a danej formy ϕ : X × X → K w bazie A to macierz ϕ
w bazie B mo˙zna wyrazi´c wzorem
Φ
B
= ϕ(B, B) = ϕ(A ∗ C, A ∗ C)
= C
H
∗ ϕ(A, A) ∗ C = C
H
∗ Φ
A
∗ C.
St
,
ad, w klasie macierzy hermitowskich Herm
n,n
macierz A przystaje do B
gdy obie s
,
a macierzami tej samej formy (ale by´
c mo˙ze w r´
o˙znych bazach).
Relacja przystawania macierzy jest zwrotna (bo A = I
H
∗ A ∗ I), syme-
tryczna (bo je´sli B = C
H
∗A∗C to A = (C
−1
)
H
∗B∗C
−1
) oraz przechodnia (bo
je´sli A
2
= C
H
1
∗A
1
∗C
1
i A
3
= C
H
2
∗A
2
∗C
2
to A
3
= (C
1
∗C
2
)
H
∗A
1
∗(C
1
∗C
2
)).
10.3. FORMY KWADRATOWE
97
Jest to wi
,
ec relacja r´
ownowa˙zno´sci. A je´sli tak, to zbi´
or wszystkich macierzy
hermitowskich mo˙zna przedstawi´
c jako roz l
,
aczn
,
a sum
,
e macierzy do siebie
wzajemnie przystaj
,
acych (klas abstrakcji relacji przystawania, albo jeszcze
inaczej, macierzy tej samej formy, ale w r´
o˙znych bazach).
Ile jest klas abstrakcji relacji przystawania w klasie macierzy hermitow-
skich? Odpowied´
z daje nat
,
epuj
,
ace twierdzenie, kt´
ore podajemy bez dowodu.
Twierdzenie 10.1 (Sylwester’a)
Dla dowolnej macierzy hermitowskiej A = A
H
∈ K
n,n
istnieje macierz nie-
osobliwa C ∈ K
n,n
taka, ˙ze
C
H
∗ A ∗ C = diag(I
π
, −I
ν
, 0
ξ
),
gdzie wymiary π, ν, ξ (π + ν + ξ = n) s
,
a wyznaczone jednoznacznie.
St
,
ad klas abstrakcji relacji przystawania jest tyle ile macierzy diagonal-
nych z elementami na diagonali kolejno 1, −1, 0, czyli
n
X
k=0
(k + 1) =
(n + 1)(n + 2)
2
.
Z twierdzenia Sylwester’a wynika r´
ownie˙z nast
,
epuj
,
acy wa˙zny wniosek.
Wniosek 10.1 Dla dowolnej formy dwuliniowej ϕ : X × X → K istnieje
baza A w X , w kt´orej forma ma posta´c
ϕ(x, y) =
π
X
k=1
a
k
∗ b
k
−
π+ν
X
k=π+1
a
k
∗ b
k
,
gdzie x = A ∗ ~a, y = A ∗ ~b.
10.3
Formy kwadratowe
10.3.1
Okre´
slono´
s´
c formy kwadratowej
Ka˙zdej formie dwuliniowej ϕ : X × X → K odpowiada forma kwadratowa
h : X → R zdefiniowana wzorem
h(x) = ϕ(x, x)
x ∈ X .
98
ROZDZIA L 10. FORMY DWULINIOWE I KWADRATOWE
Je´sli dla wszystkich x 6= 0 mamy h(x) = ϕ(x, x) > 0 to form
,
e kwadratow
,
a h
(i odpowiednio form
,
e dwuliniow
,
a ϕ) nazywamy dodatnio okre´
slon
,
a i piszemy
h > 0 (odpowiednio ϕ > 0). Podobnie, forma h jest okre´slona
• ujemnie, gdy h(x) < 0 ∀x 6= 0
(h < 0),
• niedodatnio, gdy h(x) ≤ 0 ∀x
(h ≤ 0),
• nieujemnie, gdy h(x) ≥ 0 ∀x
(h ≥ 0).
We wszystkich pozosta lych przypadkach forma jest nieokre´
slona.
Z r´
owno´sci
h(x) = ~a
H
∗ Φ
A
∗ ~a
(x = A ∗ ~a)
wynika, ˙ze okre´slono´s´
c formy jest taka sama jak okre´slono´s´
c jej macierzy (w
dowolnej bazie!). W szczeg´
olno´sci, stosuj
,
ac notacj
,
e z twierdzenia Sylwester’a
mamy:
h > 0 ⇐⇒ π = n,
h ≥ 0 ⇐⇒ ν = 0,
h < 0 ⇐⇒ ν = n,
h ≤ 0 ⇐⇒ π = 0.
10.3.2
Kryterium Sylwester’a
Twierdzenie 10.2 Niech A = A
H
= (a
i,j
)
n
i,j=1
∈ Herm
n,n
oraz A
(k)
=
(a
i,j
)
k
i,j=1
, 1 ≤ k ≤ n, b
,
ed
,
a odpowiednimi macierzami k
,
atowymi. Wtedy
(i) A jest dodatnio okre´
slona ⇐⇒ det(A
(k)
) > 0 dla 1 ≤ k ≤ n,
(ii) A jest ujemnie okre´
slona ⇐⇒ (−1)
k
· det(A
(k)
) > 0 dla 1 ≤ k ≤ n.
Dow´
od.
Przypomnijmy (twierdzenie 7.5), ˙ze dla macierzy o nieosobliwych
macierzach k
,
atowych (a takimi s
,
a macierze dodatnio/ujemnie okre´slone)
mo˙zna przeprowadzi´
c eliminacj
,
e Gaussa bez przestawie´
n wierszy/kolumn.
Dlatego A mo˙zna przedstawi´
c jako
A = L ∗ R = L ∗ D ∗ L
H
,
gdzie L ∈ TRIL
n,n
, l
i,i
= 1 ∀i, D = diag(r
1,1
, . . . , r
n,n
). Podstawiaj
,
ac ~
y :=
L
H
∗ ~
x, mamy
~
x
H
∗ A ∗ ~
x = ~
x
H
∗ L ∗ D ∗ L
H
∗ ~
x = (L
H
∗ ~
x)
H
∗ D ∗ (L
H
∗ ~
x)
= ~
y
H
∗ D ∗ ~
y =
n
X
i=1
|y
i
|
2
· r
i,i
.
10.3. FORMY KWADRATOWE
99
St
,
ad A > 0 wtedy i tylko wtedy gdy r
i,i
> 0 ∀i, oraz A < 0 wtedy i tylko
wtedy gdy r
i,i
< 0 ∀i.
Dow´
od uzupe lnia spostrze˙zenie, ˙ze
A
(k)
= L
(k)
∗ R
(k)
= L
(k)
∗ D
(k)
∗ (L
(k)
)
H
oraz
det(A
(k)
) = |det(L
(k)
)|
2
· det(D
(k)
) =
k
Y
i=1
r
i,i
.
100
ROZDZIA L 10. FORMY DWULINIOWE I KWADRATOWE
Rozdzia l 11
Przestrzenie Euklidesowe
11.1
Definicja, iloczyn skalarny i norma
Definicja 11.1 Przestrzeni
,
a Euklidesow
,
a nazywamy par
,
e
X
|K
, ϕ
,
gdzie X
|K
jest przestrzeni
,
a liniow
,
a nad K, a ϕ form
,
a dwuliniow
,
a (hermi-
towsk
,
a) dodatnio okre´
slon
,
a na X
|K
, zwan
,
a iloczynem skalarnym.
Dla uproszczenia, b
,
edziemy dalej pisa´
c (x, y) zamiast ϕ(x, y) oraz (A, B)
zamiast ϕ(A, B).
W lasno´sci formy implikuj
,
a nast
,
epuj
,
ace w lasno´sci iloczynu skalarnego:
(1) (x, y
1
∗ α
1
+ y
2
∗ α
2
) = (x, y
1
) ∗ α
1
+ (x, y
2
) ∗ α
2
∀x, y
1
, y
2
∈ X
∀α
1
, α
2
∈ K,
(2) (x, y) = (y, x),
∀x, y ∈ X
(3) (x, x) ≥ 0 ∀x ∈ X , oraz (x, a) = 0 ⇐⇒ x = 0.
Zdefiniujmy γ(x) = (x, x)
1/2
, x ∈ X . Wtedy funkcja γ ma nast
,
epuj
,
ace
w lasno´sci:
(i) γ(x) ≥ 0 ∀x ∈ X , oraz γ(x) = 0 ⇐⇒ x = 0.
(ii) γ(x ∗ α) = γ(x) ∗ |α|
∀x ∈ X ∀α ∈ K,
(iii) γ(x + y) ≤ γ(x) + γ(y)
∀x, y ∈ X .
101
102
ROZDZIA L 11. PRZESTRZENIE EUKLIDESOWE
W lasno´sci (i) oraz (ii) s
,
a oczywiste. Aby pokaza´
c (iii) zauwa˙zmy, ˙ze
γ(x + y)
2
= (x + y, x + y) = (x, x) + (y, x) + (x, y) + (y, y)
= (x, x) + 2 · <(x, y) + (y, y)
oraz
(γ(x) + γ(y))
2
= ((x, x)
1/2
+ (y, y)
1/2
)
2
= (x, x) + 2 · (x, x)
1/2
· (y, y)
1/2
+ (y, y).
W lasno´s´
c (iii) wynika teraz z nier´
owno´sci
<(x, y) ≤ |<(x, y)| ≤ |(x, y)| ≤ (x, x)
1/2
· (y, y)
1/2
,
przy czym ostatnia z nich to nier´
owno´s´
c Schwarza, kt´
or
,
a znamy ju˙z z lematu
3.1. (Co prawda, wtedy rozpatrywany by l szczeg´
olny przypadek X
|K
= K
n
K
i (~
x, ~
y) = ~
y
H
∗ ~
x, ale w og´
olnym przypadku dow´
od jest niemal identyczny.)
W lasno´sci (i)-(iii) s
,
a og´
olnymi warunkami normy w przestrzeni liniowej.
(Wcze´sniej, w rozdziale 3.1 podali´smy te warunki dla szczeg´
olnego przypadku
X = K
m,n
.) St
,
ad
kxk := (x, x)
1/2
definiuje norm
,
e w X
|K
(generowan
,
a przez iloczyn skalarny (·, ·)). Przypo-
mnijmy jeszcze raz nier´
owno´
s´
c Schwarza (w przestrzeni Euklidesowej):
|(x, y)| ≤ kxk · kyk
∀x, y ∈ X .
Dok ladniejsze prze´sledzenie dowodu tej nier´
owno´sci (patrz zn´
ow dow´
od le-
matu 3.1) pokazuje, ˙ze powy˙zej r´
owno´s´
c zachodzi wtedy i tylko wtedy gdy x
i y s
,
a liniowo zale˙zne.
11.2
Rzut prostopad ly
11.2.1
Zadanie aproksymacji
Nast
,
epuj
,
ace twierdzenie rozwi
,
azuje zadanie aproksymacji (przybli˙zania) ele-
ment´
ow przestrzeni X elementami jej podprzestrzeni.
Twierdzenie 11.1 Niech Y ⊆ X b
,
edzie podprzestrzeni
,
a. Wtedy dla ka˙zdego
x ∈ X istnieje dok ladnie jeden x
Y
∈ Y taki, ˙ze dla wszystkich y ∈ Y
y 6= x
Y
=⇒ kx − x
Y
k < kx − yk.
11.2. RZUT PROSTOPAD LY
103
Dow´
od.
Niech s = dim(Y) i Y ∈ X
1,s
b
,
edzie baz
,
a Y. Poka˙zemy, ˙ze x
Y
wyra˙za si
,
e wzorem
x
Y
= Y ∗ ~a
∗
,
gdzie
~a
∗
:= (Y, Y)
−1
∗ (Y, x) ∈ K
s
.
(11.1)
Rzeczywi´scie, je´sli y ∈ Y i y 6= x
Y
to y = Y ∗ ~a dla pewnego ~a 6= ~a
∗
. Wtedy
kx − yk
2
= (x − y, x − y) = ((x − x
Y
) + (x
Y
− y), (x − x
Y
) + (x
Y
− y))
= kx − x
Y
k
2
+ 2 · <(x
Y
− y, x − x
Y
) + kx
Y
− yk
2
.
Wobec tego, ˙ze
(Y, x
Y
) = (Y, Y ∗ ~a
∗
) = (Y, Y) ∗ ~a
∗
= (Y, x),
mamy
(x
Y
− y, x − x
Y
) = (Y ∗ (~a
∗
− ~a), x − x
Y
) = (~a
∗
− ~a)
H
∗ (Y, x − x
Y
) = 0.
St
,
ad
kx − yk
2
= kx − x
Y
k
2
+ kx
Y
− yk
2
> kx − x
Y
k
2
.
Uwaga.
Z jednoznaczno´sci najlepszej aproksymacji wynika, ˙ze x
Y
we wzo-
rze (11.1) nie zale˙zy od wyboru bazy Y. Mo˙zna to r´ownie˙z latwo sprawdzi´c
bezpo´srednio. Je´sli bowiem we´
zmiemy inn
,
a baz
,
e, powiedzmy Z, podprze-
strzeni Y to Y = Z ∗ C dla pewnej nieosobliwej macierzy C, a st
,
ad
Z ∗ (Z, Z)
−1
∗ (Z, x) = Y ∗ C ∗ (Y ∗ C, Y ∗ C)
−1
∗ (Y ∗ C, x)
= Y ∗ C ∗ (C
H
∗ (Y, Y) ∗ C)
−1
∗ C
H
∗ (Y, x)
= Y ∗ (Y, Y)
−1
∗ (Y, x).
11.2.2
Twierdzenie o rzucie prostopad lym
Definicja 11.2 Powiemy, ˙ze dwa elementy x i y danej przestrzeni Euklide-
sowej X
|K
z iloczynem skalarnym (·, ·) s
,
a prostopad le (albo ortogonalne), co
zapisujemy x ⊥ y, gdy ich iloczyn skalarny wynosi zero, tzn.
x ⊥ y ⇐⇒ (x, y) = 0.
104
ROZDZIA L 11. PRZESTRZENIE EUKLIDESOWE
Zauwa˙zmy, ˙ze je´sli wektory x, y ∈ X s
,
a prostopad le, x ⊥ y, to zachodzi
r´
owno´s´
c
kx + yk
2
= kxk
2
+ kyk
2
,
(11.2)
kt´
or
,
a odczytujemy jako (znane ze szko ly w szczeg´
olnym przypadku) twier-
dzenie Pitagorasa. Oczywi´
scie, zachodzi r´
ownie˙z twierdzenie odwrotne,
tzn. r´
owno´s´
c (11.2) implikuje protopad lo´s´
c wektor´
ow x i y.
Najlepsza aproksymacja w podprzestrzeni Y posiada dodatkow
,
a wa˙zn
,
a
w lasno´s´
c zwi
,
azan
,
a z poj
,
eciem prostopad lo´sci.
Twierdzenie 11.2 (o rzucie prostopad lym)
Niech x
Y
b
,
edzie najlepsz
,
a aproksymacj
,
a elementu x ∈ X w podprzestrzeni
Y ⊆ X . Wtedy
(y, x − x
Y
) = 0
∀y ∈ Y
(11.3)
tzn. x − x
Y
jest prostopad ly do podprzestrzeni Y.
Ponadto, x
Y
jest jedynym elementem w Y spe lniaj
,
acym (11.3).
Dow´
od.
Wykorzystuj
,
ac notacj
,
e z dowodu twierdzenia 11.1, dla dowolnego
y ∈ Y mamy
(y, x − x
Y
) = ~a
H
∗ (Y, x − x
Y
) = ~a
H
∗ ~0 = 0.
Je´sli za´s y
0
= Y ∗ ~a
0
i dla ka˙zdego ~a mamy (Y ∗ ~a, x − Y ∗ ~a
0
) = 0, to
(Y, x − Y ∗ ~a
0
) = 0, a st
,
ad
~a
0
= (Y, Y)
−1
∗ (Y, x) = ~a
∗
i y
0
= x
Y
.
Ze wzgl
,
edu na twierdzenie 11.2, element x
Y
najlepszej aproksymacji nazy-
wany jest r´
ownie˙z rzutem prostopad lym (ortogonalnym) elementu x na pod-
przestrze´
n Y.
11.3
Uk lady ortogonalne
11.3.1
Macierz Grama
Definicja 11.3 Niech A = [y
1
, y
2
, . . . , y
s
] ∈ X
1,s
. Macierz
(A, A) ∈ Herm
s,s
nazywamy macierz
,
a Grama uk ladu {y
i
}
s
i=1
.
11.3. UK LADY ORTOGONALNE
105
Wobec r´
owno´sci
~a
H
∗ (A, A) ∗ ~a = (A ∗ ~a, A ∗ ~a) = kA ∗ ~ak
2
≥ 0
mamy natychmiast, ˙ze macierz Grama jest zawsze nieujemnie okre´slona. Po-
nadto, jest ona dodatnio okre´slona wtedy i tylko wtedy gdy uk lad {y
i
}
s
i=1
jest liniowo niezale˙zny.
Je´sli (A, A) = diag(δ
1
, . . . , δ
s
), przy czym δ
i
= (y
i
, y
i
) > 0 ∀i to uk lad
{y
i
}
s
i=1
nazywamy ortogonalnym. Je´sli ponadto (y
i
, y
i
) = 1 ∀i, czyli gdy
(A, A) = I
s
, to uk lad ten nazywamy ortonormalnym.
Za l´
o˙zmy teraz, ˙ze uk lad Y = [y
1
, . . . , y
s
] jest liniowo niezale˙zny, oraz niech
Y = span(y
1
, y
2
, . . . , y
s
).
Wtedy, jak wiemy z twierdzenia 11.1, rzut prostopad ly x ∈ X na podprze-
strze´
n Y wyra˙za si
,
e wzorem
x
Y
= Y ∗ (Y, Y)
−1
∗ (Y, x).
Wz´
or ten ma szczeg´
olnie prost
,
a posta´
c gdy baza Y tworzy uk lad ortogonalny.
Wtedy
x
Y
=
s
X
i=1
y
i
∗
(y
i
, x)
(y
i
, y
i
)
.
Je´sli za´s baza tworzy uk lad ortonormalny to
x
Y
=
s
X
i=1
y
i
∗ (y
i
, x).
Z tych wzgl
,
ed´
ow po˙z
,
adane jest posiadanie baz ortogonalnych podprzestrzeni.
11.3.2
Ortogonalizacja Grama-Schmidta
Okazuje si
,
e, ˙ze dowoln
,
a baz
,
e podprzestrzeni mo˙zna stosunkowo latwo prze-
kszta lci´
c w baz
,
e ortogonaln
,
a.
S lu˙zy temu proces zwany ortogonalizacj
,
a
Grama-Schmidta.
Niech y
1
, y
2
, . . . , y
s
b
,
ed
,
a liniowo niezale˙zne oraz
Y
k
:= [y
1
, . . . , y
k
],
Y
k
= span(y
1
, . . . , y
k
),
1 ≤ k ≤ s.
Oczywi´scie dim(Y
k
) = k ∀k oraz
Y
1
⊂ Y
2
⊂ · · · ⊂ Y
s
⊆ X .
106
ROZDZIA L 11. PRZESTRZENIE EUKLIDESOWE
Twierdzenie 11.3 (Ortogonalizacja Grama-Schmidta)
Nast
,
epuj
,
acy proces:
{ z
1
:= y
1
;
for k := 2 to s do
z
k
:= y
k
− h rzut prostopad ly y
k
na Y
k−1
i
}
produkuje uk lady ortogonalne Z
k
= [z
1
, . . . , z
k
] takie, ˙ze
span(z
1
, z
2
, . . . , z
k
) = Y
k
,
1 ≤ k ≤ s.
Dow´
od.
(Indukcja wzgl
,
edem k.)
Dla k = 1 twierdzenie jest oczywiste. Niech k ≥ 2. Wtedy, wobec za lo˙zenia
indukcyjnego, mamy Y
k−1
= span(z
1
, . . . , z
k−1
) oraz uk lad {z
i
}
k−1
i=1
jest or-
togonalny. Je´sli teraz r
k
jest rzutem ortogonalnym y
k
na Y
k−1
to z twier-
dzenia o rzucie ortogonalnym mamy, ˙ze z
k
= y
k
− r
k
6= 0 jest prostopad ly
do Y
k−1
, a st
,
ad uk lad {z
i
}
k
i=1
jest te˙z ortogonalny. Oczywi´scie, przy tym
span(z
1
, . . . , z
k
) = Y
k
, co ko´
nczy dow´
od.
Ortogonalizacj
,
e Grama-Schmidta mo˙zemy zapisa´
c jako algorytm gene-
ruj
,
acy uk lad {z
i
}
s
i=1
z uk ladu {y
i
}
s
i=1
, w nast
,
epuj
,
acy spos´
ob:
{
z
1
:= y
1
;
δ
1
:= (z
1
, z
1
);
for k := 2 to s do
{ for j := 1 to k − 1 do c
j,k
:= (z
j
, y
k
)/δ
j
;
z
k
:= y
k
−
P
k−1
j=1
z
j
∗ c
j,k
;
δ
k
:= (z
k
, z
k
)
}
}
Algorytm ten produkuje “po drodze” wsp´
o lczynniki c
j,k
dla 2 ≤ k ≤ s,
1 ≤ j ≤ k − 1. Je´sli dodatkowo zdefiniujemy c
k,k
= 1 dla 1 ≤ k ≤ s, oraz
c
j,k
= 0 dla 1 ≤ k ≤ s − 1, k + 1 ≤ j ≤ s, to dostaniemy
y
k
=
k
X
j=1
c
j,k
∗ z
j
,
czyli
Y
k
= Z
k
∗ C
k
,
gdzie
C
k
= (c
i,j
)
k
i,j=1
,
11.3. UK LADY ORTOGONALNE
107
albo, po normalizacji bazy z
1
, . . . , z
s
,
Y
k
= ˆ
Z
k
∗ ˆ
C
k
,
gdzie ˆ
Z
k
= Z ∗ D
−1
k
, ˆ
C
k
= D
k
∗ C
k
, D
k
= diag(δ
1/2
1
, . . . , δ
1/2
k
).
Zauwa˙zmy, ˙ze macierze C
k
i ˆ
C
k
s
,
a tr´
ojk
,
atne g´
orne.
11.3.3
Rozk lad ortogonalno-tr´
ojk
,
atny macierzy
Wa˙znym przypadkiem szczeg´
olnym jest X
|K
= K
n
|K
, K ⊆ C, ze “zwyk lym”
iloczynem skalarnym (~
x, ~
y) = ~
y
H
∗ ~
x. Niech
A = [~a
1
, . . . , ~a
n
] ∈ K
m,n
,
gdzie
rank(A) = n ≤ m,
tzn. kolumny macierzy s
,
a liniowo niezale˙zne. Wtedy, przeprowadzaj
,
ac orto-
normalizacj
,
e (czyli ortogonalizacj
,
e, a nast
,
epnie normalizacj
,
e) kolumn macie-
rzy A otrzymujemy macierz Q ∈ K
m,n
, Q = [~
q
1
, . . . , ~
q
n
], kt´
orej kolumny ~
q
j
tworz
,
a uk lad ortonormalny,
Q
H
∗ Q = I
n
,
oraz macierz tr´
ojk
,
atn
,
a g´
orn
,
a R ∈ TRIU
n,n
takie, ˙ze
A = Q ∗ R.
Jest to rozk lad ortogonalno-tr´
ojk
,
atny macierzy.