Geometia i Algebra Liniowa

background image

Geometria i Algebra Liniowa

(dla I-go roku informatyki WMIM UW)

Leszek Plaskota

Instytut Matematyki Stosowanej i Mechaniki

Uniwersytet Warszawski

stycze´

n 2009

background image

ii

background image

Spis tre´

sci

1

Grupy i cia la, liczby zespolone

3

1.1

Podstawowe struktury algebraiczne . . . . . . . . . . . . . . .

3

1.1.1

Grupa . . . . . . . . . . . . . . . . . . . . . . . . . . .

3

1.1.2

Cia lo . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5

1.2

Cia lo liczb zespolonych . . . . . . . . . . . . . . . . . . . . . .

6

1.2.1

Definicja . . . . . . . . . . . . . . . . . . . . . . . . . .

6

1.2.2

Posta´

c trygonometryczna . . . . . . . . . . . . . . . . .

7

1.2.3

Wz´

or de Moivre’a . . . . . . . . . . . . . . . . . . . . .

8

1.2.4

Pierwiastki z jedynki . . . . . . . . . . . . . . . . . . .

9

1.2.5

Sprz

,

e˙zenie . . . . . . . . . . . . . . . . . . . . . . . . .

9

1.3

Wielomiany . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10

1.3.1

Algorytm Hornera

. . . . . . . . . . . . . . . . . . . .

10

1.3.2

Zasadnicze twierdzenie algebry

. . . . . . . . . . . . .

10

2

Macierze liczbowe

13

2.1

Podstawowe definicje . . . . . . . . . . . . . . . . . . . . . . .

13

2.1.1

Macierze szczeg´

olnych format´

ow . . . . . . . . . . . . .

13

2.1.2

Podzia l blokowy . . . . . . . . . . . . . . . . . . . . . .

14

2.2

Dzia lania na macierzach . . . . . . . . . . . . . . . . . . . . .

14

2.2.1

Podstawowe dzia lania . . . . . . . . . . . . . . . . . . .

14

2.2.2

Mno˙zenie macierzy . . . . . . . . . . . . . . . . . . . .

15

2.2.3

Mno˙zenie macierzy w postaci blokowej . . . . . . . . .

17

2.3

Dalsze oznaczenia . . . . . . . . . . . . . . . . . . . . . . . . .

18

2.3.1

Macierze tr´

ojk

,

atne i jednostkowe

. . . . . . . . . . . .

18

2.3.2

Uk lad r´

owna´

n jako r´

ownanie macierzowe . . . . . . . .

19

2.4

Macierze nieosobliwe . . . . . . . . . . . . . . . . . . . . . . .

19

2.4.1

Grupa macierzy nieosobliwych . . . . . . . . . . . . . .

19

2.4.2

Warunek nieosobliwo´sci macierzy . . . . . . . . . . . .

21

iii

background image

iv

SPIS TRE´

SCI

2.4.3

Permutacje

. . . . . . . . . . . . . . . . . . . . . . . .

21

3

Normy wektor´

ow i macierzy

25

3.1

Og´

olna definicja normy . . . . . . . . . . . . . . . . . . . . . .

25

3.2

Normy wektor´

ow . . . . . . . . . . . . . . . . . . . . . . . . .

26

3.2.1

Normy p-te . . . . . . . . . . . . . . . . . . . . . . . .

26

3.2.2

Po˙zyteczne (nie)r´

owno´sci . . . . . . . . . . . . . . . . .

27

3.3

Normy macierzy . . . . . . . . . . . . . . . . . . . . . . . . . .

28

3.3.1

Normy p-te . . . . . . . . . . . . . . . . . . . . . . . .

28

3.3.2

Po˙zyteczne (nie)r´

owno´sci . . . . . . . . . . . . . . . . .

29

3.3.3

Norma Frobeniusa

. . . . . . . . . . . . . . . . . . . .

31

4

Przestrzenie liniowe

35

4.1

Przestrzenie i podprzestrzenie . . . . . . . . . . . . . . . . . .

35

4.1.1

Definicja i podstawowe w lasno´sci

. . . . . . . . . . . .

35

4.1.2

Podprzestrzenie liniowe . . . . . . . . . . . . . . . . . .

36

4.2

Baza i wymiar przestrzeni . . . . . . . . . . . . . . . . . . . .

37

4.2.1

Liniowa (nie)zale˙zno´s´

c . . . . . . . . . . . . . . . . . .

37

4.2.2

Baza i wymiar, twierdzenie Steinitza . . . . . . . . . .

39

4.2.3

Przyk lady . . . . . . . . . . . . . . . . . . . . . . . . .

40

4.3

Sumy i sumy proste . . . . . . . . . . . . . . . . . . . . . . . .

41

4.3.1

Suma (prosta) dw´

och podprzestrzeni . . . . . . . . . .

41

4.3.2

Suma (prosta) w og´

olnym przypadku . . . . . . . . . .

43

4.4

Izomorfizm przestrzeni . . . . . . . . . . . . . . . . . . . . . .

44

4.5

Warstwy modulo Y . . . . . . . . . . . . . . . . . . . . . . . .

45

4.5.1

Definicja . . . . . . . . . . . . . . . . . . . . . . . . . .

45

4.5.2

Przestrze´

n warstw . . . . . . . . . . . . . . . . . . . . .

46

5

Obraz, rz

,

ad i j

,

adro macierzy

49

5.1

Obraz i rz

,

ad macierzy

. . . . . . . . . . . . . . . . . . . . . .

49

5.1.1

Rz

,

ad kolumnowy i rz

,

ad wierszowy . . . . . . . . . . . .

49

5.1.2

Rz

,

ad macierzy

. . . . . . . . . . . . . . . . . . . . . .

50

5.2

Przestrze´

n zerowa (j

,

adro) macierzy . . . . . . . . . . . . . . .

51

5.3

Rozk lad wzgl

,

edem obrazu i j

,

adra . . . . . . . . . . . . . . . .

52

6

Funkcjona ly liniowe

55

6.1

Funkcjona ly . . . . . . . . . . . . . . . . . . . . . . . . . . . .

55

6.1.1

Definicja i przyk lady . . . . . . . . . . . . . . . . . . .

55

background image

SPIS TRE´

SCI

v

6.1.2

Przestrze´

n sprz

,

e˙zona . . . . . . . . . . . . . . . . . . .

56

6.2

Refleksywno´s´

c . . . . . . . . . . . . . . . . . . . . . . . . . . .

57

6.2.1

owno´s´

c X i X

∗∗

. . . . . . . . . . . . . . . . . . . . .

57

6.2.2

Przyk lady . . . . . . . . . . . . . . . . . . . . . . . . .

58

6.3

Rozszerzenie rachunku macierzy . . . . . . . . . . . . . . . . .

59

6.3.1

Macierze wektor´

ow i funkcjona l´

ow . . . . . . . . . . . .

59

6.3.2

Posta´

c macierzowa izomorfizm´

ow . . . . . . . . . . . .

60

7

Uk lady r´

owna´

n liniowych

63

7.1

Zbi´

or rozwi

,

aza´

n . . . . . . . . . . . . . . . . . . . . . . . . . .

63

7.1.1

Twierdzenie Kroneckera-Capelliego . . . . . . . . . . .

63

7.1.2

Zbi´

or rozwi

,

aza´

n jako warstwa . . . . . . . . . . . . . .

64

7.1.3

Uk lady nieosobliwe . . . . . . . . . . . . . . . . . . . .

65

7.2

Efektywna metoda rozwi

,

azania

. . . . . . . . . . . . . . . . .

65

7.2.1

Og´

olny schemat . . . . . . . . . . . . . . . . . . . . . .

66

7.2.2

Eliminacja Gaussa

. . . . . . . . . . . . . . . . . . . .

66

7.2.3

Konstrukcja rozwi

,

azania og´

olnego . . . . . . . . . . . .

68

7.3

Interpretacja macierzowa eliminacji . . . . . . . . . . . . . . .

69

7.3.1

Analiza operacji elementarnych . . . . . . . . . . . . .

69

7.3.2

Rozk lad tr´

ojk

,

atno-tr´

ojk

,

atny macierzy . . . . . . . . . .

71

7.4

Eliminacja bez przestawie´

n . . . . . . . . . . . . . . . . . . . .

72

8

Przekszta lcenia liniowe

75

8.1

Podstawowe poj

,

ecia i w lasno´sci . . . . . . . . . . . . . . . . .

75

8.1.1

Obraz, j

,

adro i rz

,

ad przekszta lcenia . . . . . . . . . . .

75

8.1.2

Przyk lady . . . . . . . . . . . . . . . . . . . . . . . . .

77

8.1.3

o˙znowarto´sciowo´s´

c

. . . . . . . . . . . . . . . . . . .

77

8.1.4

Przestrze´

n przekszta lce´

n liniowych

. . . . . . . . . . .

78

8.2

Macierz przekszta lcenia liniowego . . . . . . . . . . . . . . . .

78

8.2.1

Definicja . . . . . . . . . . . . . . . . . . . . . . . . . .

78

8.2.2

Izomorfizm Lin(X , Y) i K

m,n

. . . . . . . . . . . . . .

79

8.3

Dalsze w lasno´sci macierzy przekszta lce´

n

. . . . . . . . . . . .

80

8.3.1

Obraz i j

,

adro przekszta lcenia/macierzy . . . . . . . . .

80

8.3.2

Zmiana bazy

. . . . . . . . . . . . . . . . . . . . . . .

80

8.3.3

Z lo˙zenie przekszta lce´

n . . . . . . . . . . . . . . . . . .

81

background image

vi

SPIS TRE´

SCI

9

Wyznacznik macierzy

83

9.1

Definicja i pierwsze w lasno´sci

. . . . . . . . . . . . . . . . . .

83

9.2

Wyznacznik a operacje elementarne . . . . . . . . . . . . . . .

84

9.2.1

Permutacja kolumn . . . . . . . . . . . . . . . . . . . .

84

9.2.2

Kombinacja liniowa kolumn . . . . . . . . . . . . . . .

86

9.3

Dalsze w lasno´sci wyznacznik´

ow . . . . . . . . . . . . . . . . .

87

9.3.1

Wyznacznik iloczynu macierzy . . . . . . . . . . . . . .

87

9.3.2

Wyznacznik macierzy nieosobliwej i transponowanej . .

88

9.4

Definicja kombinatoryczna wyznacznika . . . . . . . . . . . . .

89

9.5

Wzory Cramera . . . . . . . . . . . . . . . . . . . . . . . . . .

90

10 Formy dwuliniowe i kwadratowe

93

10.1 Formy dwuliniowe . . . . . . . . . . . . . . . . . . . . . . . . .

93

10.1.1 Definicja i przyk lady . . . . . . . . . . . . . . . . . . .

93

10.1.2 Macierz formy dwuliniowej . . . . . . . . . . . . . . . .

94

10.2 Twierdzenie Sylwester’a

. . . . . . . . . . . . . . . . . . . . .

96

10.3 Formy kwadratowe . . . . . . . . . . . . . . . . . . . . . . . .

97

10.3.1 Okre´slono´s´

c formy kwadratowej . . . . . . . . . . . . .

97

10.3.2 Kryterium Sylwester’a . . . . . . . . . . . . . . . . . .

98

11 Przestrzenie Euklidesowe

101

11.1 Definicja, iloczyn skalarny i norma

. . . . . . . . . . . . . . . 101

11.2 Rzut prostopad ly . . . . . . . . . . . . . . . . . . . . . . . . . 102

11.2.1 Zadanie aproksymacji . . . . . . . . . . . . . . . . . . . 102
11.2.2 Twierdzenie o rzucie prostopad lym . . . . . . . . . . . 103

11.3 Uk lady ortogonalne . . . . . . . . . . . . . . . . . . . . . . . . 104

11.3.1 Macierz Grama . . . . . . . . . . . . . . . . . . . . . . 104
11.3.2 Ortogonalizacja Grama-Schmidta . . . . . . . . . . . . 105
11.3.3 Rozk lad ortogonalno-tr´

ojk

,

atny macierzy . . . . . . . . 107

background image

Nota autora

Niniejszy skrypt zosta l napisany z my´sl

,

a o studentach pierwszego roku in-

formatyki na Wydziale Matematyki, Informatyki i Mechaniki Uniwersytetu
Warszawskiego, ucz

,

eszczaj

,

acych na semestralny wyk lad pt. “Geometria z

algebr

,

a liniow

,

a”. Skrypt powstawa l r´

ownolegle z prowadzonym wyk ladem, a

st

,

ad zawiera tre´sci przekazywane na wyk ladzie i praktycznie tylko te tre´sci.

Powinien wi

,

ec, i takie by lo moje zamierzenie, stanowi´

c dla student´

ow pod-

stawowy przewodnik po w/w wyk ladzie.

Skrypt ma swoj

,

a histori

,

e.

W swoim czasie prof.

Andrzej Kie lbasi´

n-

ski prowadzi l na tym samym wydziale i tak˙ze dla student´

ow informatyki

wyk lad pt. “Algebra liniowa i jej metody obliczeniowe”. Pozosta lo´sci

,

a po

tym wyk ladzie s

,

a, m.in., obszerne odr

,

eczne notatki prowadz

,

acego. Notatki

te wyda ly mi si

,

e (i nie tylko mi) na tyle cenne, ˙ze sta ly si

,

e podstaw

,

a do przy-

gotowania bie˙z

,

acego wyk ladu. Poniewa˙z, w wyniku reformy studi´

ow, wyk lad

zosta l ograniczony do jednego semestru, materia l musia l by´

c z konieczno´sci

mocno skr´

ocony. Jednak duch wyk ladu i w szczeg´

olno´sci oryginalna notacja

wprowadzona przez prof. Kie lbasi´

nskiego pozosta ly, mam nadziej

,

e, niezmie-

nione.

Skrypt ma dynamiczny charakter i jest na bie˙z

,

aco poprawiany i modyfi-

kowany.

Leszek Plaskota
Warszawa, stycze´

n 2009

1

background image

2

SPIS TRE´

SCI

background image

Rozdzia l 1

Grupy i cia la, liczby zespolone

Dla ustalenia uwagi, b

,

edziemy u˙zywa´

c nast

,

epuj

,

acych oznacze´

n:

N = { 1, 2, 3, . . . } - liczby naturalne,

Z = { 0, ±1, ±2, . . . } - liczby ca lkowite,

W =



m

n

: m ∈ Z, n ∈ N

- liczby wymierne,

R = W - liczby rzeczywiste,

C = { (a, b) : a, b ∈ R } - liczby zespolone.

Dwuargumentowym dzia laniem wewn

,

etrznym ‘◦’ w zbiorze X nazywamy

dowoln

,

a funkcj

,

e z iloczynu kartezja´

nskiego X × X w X. Wynik takiego

dzia lania na parze (x, y) b

,

edziemy oznacza´

c przez x ◦ y.

1.1

Podstawowe struktury algebraiczne

Zaczniemy od przedstawienia abstrakcyjnych definicji grupy i cia la.

1.1.1

Grupa

Definicja 1.1 Zbi´

or (niepusty) G wraz z wewn

,

etrznym dzia laniem dwuargu-

mentowym ‘◦

0

jest grup

,

a je´

sli spe lnione s

,

a nast

,

epuj

,

ace warunki (aksjomaty

grupy):

3

background image

4

ROZDZIA L 1. GRUPY I CIA LA, LICZBY ZESPOLONE

(i) ∀a, b, c ∈ G

(a ◦ b) ◦ c = a ◦ (b ◦ c)

( l

,

aczno´

c dzia lania)

(ii) ∃e ∈ G ∀a ∈ G

a ◦ e = a = e ◦ a

(istnienie elementu neutralnego)

(iii) ∀a ∈ G ∃a

0

∈ G

a ◦ a

0

= e = a

0

◦ a

(istnienie element´

ow przeciwnych/odwrotnych)

Je´

sli ponadto

(iv) ∀a, b ∈ G

a ◦ b = b ◦ a

to grup

,

e nazywamy przemienn

,

a (lub abelow

,

a).

Grup

,

e b

,

edziemy oznacza´

c przez {G, ◦}.

Zauwa˙zmy, ˙ze ju˙z z aksjomat´

ow grupy wynika, i˙z element neutralny jest

wyznaczony jednoznacznie. Rzeczywi´scie, za l´

o˙zmy, ˙ze istniej

,

a dwa elementy

neutralne, e

1

i e

2

. Wtedy, z warunku (ii) wynika, ˙ze e

1

= e

1

◦ e

2

= e

2

.

Podobnie, istnieje tylko jeden element odwrotny dla ka˙zdego a ∈ G. Je´sli
bowiem istnia lyby dwa odwrotne, a

0
1

i a

0
2

, to mieliby´smy

a

0
1

= e ◦ a

0
1

= (a

0
2

◦ a) ◦ a

0
1

= a

0
2

◦ (a ◦ a

0
1

) = a

0
2

◦ e = a

0
2

,

przy czym skorzystali´smy kolejno z w lasno´sci (ii), (iii), (i) i ponownie (iii) i
(ii).

Latwo te˙z pokaza´

c, ˙ze w grupie {G, ◦} r´

ownania

a ◦ x = b

oraz

y ◦ c = d

dla a, b, c, d ∈ G maj

,

a jednoznaczne rozwi

,

azania. W uzasadnieniu, ograni-

czymy si

,

e tylko do pierwszego r´

ownania. Latwo sprawdzi´

c, ˙ze x = a

0

◦ b jest

rozwi

,

azaniem. Z drugiej strony, je´sli x jest rozwi

,

azaniem to a

0

◦(a◦x) = a

0

◦b,

czyli x = a

0

◦ b.

Przyk ladami grup s

,

a:

• {Z, +}, gdzie elementem neutralnym jest e = 0, a elementem przeciw-

nym do a

0

do a jest −a.

• {W \ {0}, ∗}, gdzie e = 1 a a

0

= a

−1

jest odwrotno´sci

,

a a.

background image

1.1. PODSTAWOWE STRUKTURY ALGEBRAICZNE

5

• Grupa obrot´

ow p laszczyzny wok´

o l pocz

,

atku uk ladu wsp´

o lrz

,

ednych,

gdzie elementem neutralnym jest obr´

ot o k

,

at zerowy, a elementem od-

wrotnym do obrotu o k

,

at α jest obr´

ot o k

,

at −α.

Zwr´

cmy uwag

,

e na istotno´s´

c wyj

,

ecia zera w drugim przyk ladzie. Poniewa˙z

0 nie ma elementu odwrotnego, {W, ∗} nie jest grup

,

a. Nie s

,

a te˙z grupami

np. {N, ∗} (nie ma element´

ow odwrotnych) oraz {R, −} (nie ma l

,

aczno´sci

oraz elementu neutralnego).

1.1.2

Cia lo

Definicja 1.2 Cia lem (a ´

sci´

slej, cia lem przemiennym) nazywamy (co naj-

mniej dwuelementowy) zbi´

or K z dwoma dwuargumentowymi dzia laniami we-

wn

,

etrznymi, dodawaniem ‘+’ i mno˙zeniem ‘∗’, spe lniaj

,

ace nast

,

epuj

,

ace wa-

runki (aksjomaty cia la):

(i) {K, +} jest grup

,

a przemienn

,

a (w kt´

orej element neutralny oznaczamy

przez 0, a element przeciwny do a przez −a),

(ii) {K \ {0}, ∗} jest grup

,

a przemienn

,

a (w kt´

orej element neutralny ozna-

czamy przez 1, a odwrotny do a przez a

−1

),

(iii) ∀a, b, c ∈ K

a ∗ (b + c) = a ∗ b + a ∗ c

(mno˙zenie jest rozdzielne wzgl

,

edem dodawania).

1

Bezpo´srednio z definicji cia la mo˙zna pokaza´

c nast

,

epuj

,

ace og´

olne w lasno´sci

(uzasadnienie pozostawiamy jako proste ´

cwiczenie):

1. 0 6= 1,

2. ∀a ∈ K

0 ∗ a = 0 = a ∗ 0,

3. ∀a ∈ K

(−1) ∗ a = −a,

4. je´sli a ∗ b = 0 to a = 0 lub b = 0,

5. je´sli a 6= 0 i b 6= 0 to (a ∗ b)

−1

= b

−1

∗ a

−1

,

1

Przyjmujemy konwencj

,

e, ˙ze w wyra˙zeniach w kt´

orych wyst

,

epuj

,

a i dodawania i

mno˙zenia najpierw wykonujemy mno˙zenia.

background image

6

ROZDZIA L 1. GRUPY I CIA LA, LICZBY ZESPOLONE

dla dowolnych a, b ∈ K.

W ciele mo˙zemy formalnie zdefiniowa´

c odejmowanie i dzielenie, mianowi-

cie

a − b := a + (−b)

∀a, b ∈ K,

a/b := a ∗ b

−1

∀a ∈ K, b ∈ K \ {0}.

Przyk ladem cia la s

,

a liczby rzeczywiste R z naturalnymi dzia laniami do-

dawania i mno˙zenia. Cia lem jest te˙z zbi´

or liczb

{ a + b

2 : a, b ∈ W } ⊂ R

z tymi samymi dzia laniami.

1.2

Cia lo liczb zespolonych

Wa˙znym przyk ladem cia la jest cia lo liczb zespolonych, kt´

oremu po´swi

,

ecimy

t

,

a cz

,

e´s´

c wyk ladu.

1.2.1

Definicja

Definicja 1.3 Cia lo liczb zespolonych to zbi´

or par uporz

,

adkowanych

C := R × R = { (a, b) : a, b ∈ R }

z dzia laniami dodawania i mno˙zenia zdefiniowanymi jako:

(a, b) + (c, d) = (a + c, b + d),

(a, b) ∗ (c, d) = (a ∗ c − b ∗ d, a ∗ d + b ∗ c),

dla dowolnych a, b, c, d ∈ R.

2

Formalne sprawdzenie, ˙ze C ze zdefiniowanymi dzia laniami jest cia lem

pozostawiamy czytelnikowi. Tu zauwa˙zymy tylko, ˙ze elementem neutralnym

2

Zauwa˙zmy, ˙ze znaki dodawania i mno˙zenia wyst

,

epuj

,

a tu w dw´

och znaczeniach, jako

dzia lania na liczbach rzeczywistych oraz jako dzia lania na liczbach zespolonych. Z kon-
tekstu zawsze wiadomo w jakim znaczeniu te dzia lania s

,

a u˙zyte.

background image

1.2. CIA LO LICZB ZESPOLONYCH

7

dodawania jest (0, 0), a mno˙zenia (1, 0). Elementem przeciwnym do (a, b)
jest −(a, b) = (−a, −b), a odwrotnym do (a, b) 6= (0, 0) jest

(a, b)

−1

=



a

a

2

+ b

2

,

−b

a

2

+ b

2



.

Zdefiniujemy mno˙zenie liczby zespolonej przez rzeczywist

,

a w nast

,

epuj

,

acy

(naturalny) spos´

ob. Niech z = (a, b) ∈ C i c ∈ R. Wtedy

c ∗ (a, b) = (a, b) ∗ c = (c ∗ a, c ∗ b).

Przyjmuj

,

ac t

,

a konwencj

,

e, mamy

(a, b) = a ∗ (1, 0) + b ∗ (0, 1).

W ko´

ncu, uto˙zsamiaj

,

ac liczb

,

e zespolon

,

a (a, 0) z liczb

,

a rzeczywist

,

a a, oraz

wprowadzaj

,

ac dodatkowo oznaczenie

ı := (0, 1)

otrzymujemy

(a, b) = a + ı ∗ b.

(1.1)

a = <z nazywa si

,

e cz

,

sci

,

a rzeczywist

,

a, a b = =z cz

,

sci

,

a urojon

,

a liczby ze-

spolonej. Sam

,

a liczb

,

e zespolon

,

a ı nazywamy jednostk

,

a urojon

,

a. Zauwa˙zmy,

˙ze

ı

2

= (−1, 0) = −1.

1.2.2

Posta´

c trygonometryczna

Posta´

c (1.1) jest najbardziej rozpowszechniona. Cz

,

esto wygodnie jest u˙zy´

c

ownie˙z postaci trygonometrycznej, kt´

ora jest konsekwencj

,

a interpretacji

liczby zespolonej (a, b) jako punktu na p laszczy´

znie (tzw. p laszczy´

znie ze-

spolonej) o wsp´

o lrz

,

ednych a i b. Dok ladniej, przyjmuj

,

ac

|z| :=

a

2

+ b

2

oraz k

,

at φ tak, ˙ze

sin φ =

b

|z|

,

cos φ =

a

|z|

,

background image

8

ROZDZIA L 1. GRUPY I CIA LA, LICZBY ZESPOLONE

otrzymujemy

z = |z|(cos φ + ı sin φ).

(1.2)

Jest to w la´snie posta´

c trygonometryczna. Liczb

,

e rzeczywist

,

a |z| nazywamy

modu lem liczby zespolonej z, a φ jej argumentem, φ = argz.

Je´sli z 6= 0 i za lo˙zymy, ˙ze φ ∈ [0, 2π) to posta´

c trygonometryczna jest

wyznaczona jednoznacznie. Piszemy wtedy φ = Argz.

1.2.3

Wz´

or de Moivre’a

Niech z = |z|(cos φ + ı sin φ), w = |w|(cos ψ + ı sin ψ) b

,

ed

,

a dwoma liczbami

zespolonymi. Wtedy

w ∗ z = |w||z| ((cos φ cos ψ − sin φ sin ψ) + ı(sin φ cos ψ + sin ψ cos φ))

= |w||z| (cos(φ + ψ) + ı sin(φ + ψ)) ,

a st

,

ad

|w ∗ z| = |w||z|

oraz

arg(w ∗ z) = argw + argz.

W la´snie w tych r´

owno´sciach przejawia si

,

e wygoda postaci trygonometrycznej.

W szczeg´

olno´sci mamy bowiem z

2

= |z|

2

(cos 2φ + ı sin 2φ) i post

,

epuj

,

ac dalej

indukcyjnie otrzymujemy wz´

or de Moivre’a. Mianowicie, dla dowolnej liczby

zespolonej z w postaci trygonometrycznej (1.2) mamy

z

n

= |z|

n

(cos(nφ) + ı sin(nφ)),

n = 0, 1, 2, . . .

(1.3)

Latwo zauwa˙zy´

c, ˙ze wz´

or (1.3) jest prawdziwy r´

ownie˙z dla n = −1, a st

,

ad

dla wszystkich ca lkowitych n. Przyjmuj

,

ac za z

1/n

szczeg´

olne rozwi

,

azanie

ownania w

n

= z, mianowicie

z

1/n

= |z|

1/n

(cos(φ/n) + ı sin(φ/n)) ,

gdzie φ = Argz, uog´

olniamy (1.3) dla wszystkich wyk ladnik´

ow wymiernych.

Stosuj

,

ac dalej argument z przej´sciem granicznym (ka˙zda liczba rzeczywi-

sta jest granic

,

a ci

,

agu liczb wymiernych) otrzymujemy w ko´

ncu nast

,

epuj

,

acy

uog´

olniony wz´

or de Moivre’a:

∀a ∈ R

z

a

= |z|

a

(cos(aφ) + ı sin(aφ)) .

Prostym wnioskiem z ostatniego wzoru jest r´

ownanie

z = |z| ∗ ω

φ

,

background image

1.2. CIA LO LICZB ZESPOLONYCH

9

gdzie ω = cos 1 + ı sin 1 = 0, 540302 . . . + ı ∗ 0, 84147 . . . ∈ C.

Jest to

uog´

olnienie na przypadek liczb zespolonych wzoru x = |x| ∗ sgn(x) znanego

z przypadku liczb rzeczywistych.

1.2.4

Pierwiastki z jedynki

Rozpatrzmy rozwi

,

azania r´

ownania

z

n

= 1

dla dowolnej naturalej n. W dziedzinie rzeczywistej pierwiastkiem jest 1
je´sli n jest nieparzyste, albo 1 i (−1) je´sli n jest parzyste.

W dziedzi-

nie zespolonej mamy zawsze n pierwiastk´

ow. Rzeczywi´scie, poniewa˙z 1 =

cos(2kπ) + ı sin(2kπ), ze wzoru de Moivre’a dostajemy, ˙ze wszyskie pier-
wiastki wyra˙zaj

,

a si

,

e wzorami

z

k

:= cos

 2kπ

n



+ ı sin

 2kπ

n



,

k = 0, 1, 2, . . . , n − 1.

Zauwa˙zmy, ˙ze z

j

le˙z

,

a na okr

,

egu jednostkowym p laszczyzny zespolonej. Zbi´

or

G = {z

k

: k = 0, 1, . . . , n − 1} ze zwyk lym mno˙zeniem liczb zespolonych

tworzy grup

,

e z elementem neutralnym z

0

= 1.

1.2.5

Sprz

,

e ˙zenie

Liczb

,

e sprz

,

e˙zon

,

a do z = a + ıb definiujemy jako

z := a − ıb.

Zauwa˙zmy, ˙ze z = z oraz z ∗ z = |z|

2

. Mamy te˙z

z + z

2

= <z

i

z − z

= =z.

I jeszcze jedna wa˙zna w lasno´s´

c sprz

,

e˙zenia. Je´sli  ∈ {+, −, ∗, /} to

w  z = w  z.

Stosuj

,

ac indukcj

,

e, mo˙zna ten wz´

or uog´

olni´

c w nast

,

epuj

,

acy spos´

ob. Je´sli

f (u

1

, u

2

, . . . , u

s

) jest wyra˙zeniem arytmetycznym, gdzie u

j

s

,

a sta lymi lub

zmiennymi zespolonymi, to

f (u

1

, u

2

, . . . , u

s

) = f (u

1

, u

2

, . . . , u

s

).

background image

10

ROZDZIA L 1. GRUPY I CIA LA, LICZBY ZESPOLONE

1.3

Wielomiany

Definicja 1.4 Wielomianem p nad cia lem K nazywamy funkcj

,

e zmiennej z

o warto´

sciach w ciele K dan

,

a wzorem

p(z) :=

n

X

j=0

a

j

z

j

= a

0

+ a

1

z + · · · + a

n

z

n

,

gdzie a

j

∈ K, 0 ≤ j ≤ n, a

n

6= 0, s

,

a wsp´

o lczynnikami wielomianu. Liczb

,

e n

nazywamy stopniem wielomianu i oznaczamy

n = deg p.

(Przyjmujemy przy tym, ˙ze deg 0 = −∞.)

1.3.1

Algorytm Hornera

Ka˙zdy wielomian p(z) =

P

n
k=0

a

k

z

k

stopnia n ≥ 1 o wsp´

o lczynnikach zespo-

lonych mo˙zna podzieli´

c przez dwumian z − ξ otrzymuj

,

ac

p(z) = q(z)(z − ξ) + η,

gdzie deg q = n − 1, a η ∈ C. Dodatkowo, je´sli p ma wsp´

o lczynniki rzeczy-

wiste i ξ ∈ R, to q ma r´

ownie˙z wsp´

o lczynniki rzeczywiste i η ∈ R.

Iloraz q oraz reszt

,

e η z dzielenia mo˙zna otrzyma´

c stosuj

,

ac algorytm Hor-

nera:

{ b

n

:= a

n

;

for k := n − 1 downto 0 do b

k

:= a

k

+ ξ ∗ b

k+1

;

}

Wtedy q(z) =

P

n
k=1

b

k

z

k−1

oraz reszta η = b

0

.

1.3.2

Zasadnicze twierdzenie algebry

Dla wielomian´

ow zespolonych prawdziwe jest nast

,

epuj

,

ace wa˙zne twierdzenie.

Twierdzenie 1.1

(Zasadnicze Twierdzenie Algebry)

Ka˙zdy wielomian zespolony p stopnia co najmniej pierwszego ma pierwiastek
zespolony, tzn. r´

ownanie p(z) = 0 ma rozwi

,

azanie.

background image

1.3. WIELOMIANY

11

Twierdzenie 1.1 m´

owi, ˙ze liczby zespolone C s

,

a cia lem algebraicznie do-

mkni

,

etym. (Przypomnijmy, ˙ze liczby rzeczywiste R nie s

,

a algebraicznie do-

mkni

,

ete, bo np. r´

ownanie x

2

+ 1 = 0 nie ma rozwi

,

aza´

n w R.)

Konsekwencj

,

a algebraicznej domkni

,

eto´sci C jest faktoryzacja (rozk lad)

wielomianu zespolonego na czynniki pierwszego stopnia. Dok ladniej, sto-
suj

,

ac n-krotnie zasadnicze twierdzenie algebry oraz fakt, ˙ze je´sli ξ jest pier-

wiastkiem wielomianu p to reszta z dzielenia p przez ( · − ξ) jest zerowa,
otrzymujemy rozk lad

p(z) = a

n

(z − z

1

)(z − z

2

) · · · (z − z

n

),

(1.4)

gdzie z

j

, 1 ≤ j ≤ n, s

,

a pierwiastkami p. Zak ladaj

,

ac, ˙ze tylko m pierwiastk´

ow

jest parami r´

o˙znych (1 ≤ m ≤ n), mo˙zemy r´

ownowa˙znie napisa´

c, ˙ze

p(z) = a

n

(z − u

1

)

s

1

(z − u

2

)

s

2

· · · (z − u

m

)

s

m

,

gdzie u

i

6= u

j

o ile i 6= j, oraz

P

m
j=1

s

j

= n. Przy tym zapisie, s

j

nazywamy

krotno´

sci

,

a pierwiastka u

j

.

Za l´

o˙zmy teraz, ˙ze wsp´

o lczynniki wielomianu p s

,

a rzeczywiste, a

j

∈ R,

0 ≤ j ≤ n. Za l´

o˙zmy te˙z, ˙ze p(ξ) = 0 i ξ /

∈ R. Wtedy ξ 6= ξ i

p(ξ) =

n

X

j=0

a

j

ξ

j

=

n

X

j=0

a

j

ξ

j

=

n

X

j=0

a

j

ξ

j

= 0 = 0,

tzn. je´sli ξ jest pierwiastkiem to tak˙ze liczba sprz

,

e˙zona ξ jest pierwiastkiem;

obie wyst

,

epuj

,

a w rozwini

,

eciu (1.4). Ale

(z − ξ)(z − ξ) = z

2

− z(ξ + ξ) + ξξ = z

2

− 2z<ξ + |ξ|

2

jest tr´

ojmianem kwadratowym o wsp´

o lczynnikach rzeczywistych. St

,

ad wnio-

sek, ˙ze wielomian rzeczywisty daje si

,

e roz lo˙zy´

c na iloczyn czynnik´

ow stopnia

co najwy˙zej drugiego.

background image

12

ROZDZIA L 1. GRUPY I CIA LA, LICZBY ZESPOLONE

background image

Rozdzia l 2

Macierze liczbowe

2.1

Podstawowe definicje

Macierz

,

a (nad cia lem K) nazywamy tablic

,

e prostok

,

atn

,

a

A =




a

1,1

a

1,2

. . .

a

1,n

a

2,1

a

2,2

. . .

a

2,n

..

.

..

.

..

.

a

m,1

a

m,2

. . . a

m,n




,

gdzie a

i,j

∈ K, 1 ≤ i ≤ m, 1 ≤ j ≤ n. B

,

edziemy m´

owi´

c, ˙ze A jest macierz

,

a

formatu m×n, tzn. macierz

,

a o m wierszach i n kolumnach. Zbi´

or wszystkich

takich macierzy oznaczamy przez K

m,n

.

2.1.1

Macierze szczeg´

olnych format´

ow

• n × n

Macierze kwadratowe K

n,n

.

• m × 1

Macierze jednokolumnowe nazywane wektorami.

Zbi´

or wektor´

ow oznaczamy przez K

m,1

= K

m

,

K

m

3 A = (a

i,1

) = ~a = ˆ

a = (a

i

)

m
i=1

=




a

1

a

2

..

.

a

m




.

13

background image

14

ROZDZIA L 2. MACIERZE LICZBOWE

• 1 × n

Macierze jednowierszowe nazywane funkcjona lami.

Zbi´

or funkcjona l´

ow oznaczamy przez K

1,n

= K

nT

(albo K

nH

),

K

nT

3 A = (a

1,j

) = ~a

T

= ˆ

a

T

= (a

j

)

n
j=1

= [a

1

, . . . , a

n

] .

• 1 × 1

Macierze jednoelementowe, uto˙zsamiane z K, tzn. K

1,1

= K.

2.1.2

Podzia l blokowy

Cz

,

esto wygodnie jest przedstawi´

c macierz w postaci blokowej, kt´

ora w og´

o-

lno´sci wygl

,

ada nast

,

epuj

,

aco:

A =


A

1,1

. . . A

1,t

..

.

..

.

A

s,1

. . . A

s,t


∈ K

m,n

,

(2.1)

gdzie A

p,q

∈ K

m

p

,n

q

, 1 ≤ p ≤ s, 1 ≤ q ≤ t,

P

s
p=1

m

p

= m,

P

t
q=1

n

q

= n.

Na posta´

c blokow

,

a mo˙zna patrzy´

c jak na macierz, kt´

orej elementami

s

,

a macierze. Z drugiej strony, macierz liczbow

,

a mo˙zna interpretowa´

c jako

macierz w postaci blokowej z blokami formatu 1 × 1.

Wa˙zne szczeg´

olne przypadki to podzia l kolumnowy macierzy,

A = [~a

1

, ~a

2

, . . . , ~a

n

] ,

gdzie

~a

j

=




a

1,j

a

2,j

..

.

a

m,j




,

1 ≤ j ≤ n,

oraz podzia l wierszowy macierzy,

A =




ˆ

a

T
1

ˆ

a

T
2

..

.

ˆ

a

T
m




,

gdzie

ˆ

a

T
i

= [a

i,1

, a

i,2

, . . . , a

i,n

] ,

1 ≤ i ≤ m.

2.2

Dzia lania na macierzach

2.2.1

Podstawowe dzia lania

Mo˙zemy na macierzach wykonywa´

c r´

o˙zne dzia lania. Podstawowe z nich to:

background image

2.2. DZIA LANIA NA MACIERZACH

15

u ∈ K, A ∈ K

m,n

=⇒ B = u ∗ A ∈ K

m,n

, b

i,j

= u ∗ a

i,j

(mno˙zenie macierzy przez liczb

,

e)

A, B ∈ K

m,n

=⇒ C = A + B ∈ K

m,n

, c

i,j

= a

i,j

+ b

i,j

(dodawanie macierzy)

A ∈ K

m,n

=⇒ B = A

T

∈ K

n,m

, b

j,i

= a

i,j

(transpozycja macierzy)

A ∈ C

m,n

=⇒ B = A

H

∈ K

n,m

, b

j,i

= a

i,j

(sprz

,

e˙zenie hermitowskie)

A ∈ C

m,n

=⇒ B = |A| ∈ C

m,n

, b

i,j

= |a

i,j

| (modu l macierzy)

W szczeg´

olno´sci, mamy te˙z dla u, v ∈ K ⊂ C, A, B ∈ C

m,n

,

(u ∗ A ± v ∗ B)

H

= u ∗ A

H

± v ∗ B

H

,

A

T



T

= A = A

H



H

.

Zauwa˙zmy, ˙ze macierze formatu m × n z dzia laniem dodawania s

,

a grup

,

a

przemienn

,

a, przy czym elementem neutralnym jest macierz zerowa (gdzie

a

i,j

= 0 ∀i, j), a przeciwn

,

a do (a

i,j

) jest macierz (−a

i,j

).

Je´sli macierze dane s

,

a w postaci blokowej (2.1) to:

B = u ∗ A =⇒ B

p,q

= u ∗ A

p,q

C = A + B =⇒ C

p,q

= A

p,q

+ B

p,q

B = A

T

=⇒ B

p,q

= A

T
q,p

B = A

H

=⇒ B

p,q

= A

H
q,p

2.2.2

Mno ˙zenie macierzy

Je´sli A ∈ K

m,l

i B ∈ K

l,n

to

C = A ∗ B ∈ K

m,n

,

gdzie

c

i,j

=

l

X

k=1

a

i,k

∗ b

k,j

,

1 ≤ i ≤ m, 1 ≤ j ≤ n.

background image

16

ROZDZIA L 2. MACIERZE LICZBOWE

Zauwa˙zmy, ˙ze mno˙zenie A ∗ B jest wykonalne wtedy i tylko wtedy gdy

liczba kolumn macierzy A jest r´

owna liczbie wierszy macierzy B. Je´sli A jest

w postaci wierszowej, a B kolumnowej,

A =


ˆ

a

T
1

..

.

ˆ

a

T
m


,

B =

h~b

1

, . . . ,~b

l

i

,

to c

i,j

= ˆ

a

T
i

∗ ~b

j

∀i, j.

Podstawowe w lasno´sci mno˙zenia macierzy s

,

a nast

,

epuj

,

ace. (Zak ladamy,

˙ze macierze s

,

a odpowiednich format´

ow tak, ˙ze dzia lania s

,

a wykonalne.)

(A + B) ∗ C = A ∗ C + B ∗ C

C ∗ (A + B) = C ∗ A + C ∗ B
(rozdzielno´s´

c mno˙zenia wzgl

,

edem dodawania)

u ∗ (A ∗ B) = (u ∗ A) ∗ B = A ∗ (u ∗ B) = (A ∗ B) ∗ u

(u ∈ K)

(A ∗ B) ∗ C = A ∗ (B ∗ C)

( l

,

aczno´s´

c mno˙zenia)

Dowody tych w lasno´sci polegaj

,

a na zwyk lym sprawdzeniu. Dlatego, dla

przyk ladu, poka˙zemy tu jedynie l

,

aczno´s´

c. Niech macierze A, B, C b

,

ed

,

a odpo-

wiednio format´

ow m×k, k ×l, l ×n. (Zauwa˙zmy, ˙ze tylko wtedy odpowiednie

mno˙zenia s

,

a wykonalne.) Mamy

((A ∗ B) ∗ C)

i,j

=

l

X

s=1

(A ∗ B)

i,s

c

s,j

=

l

X

s=1

k

X

t=1

a

i,t

b

t,s

!

c

s,j

=

k

X

t=1

a

i,t

l

X

s=1

b

t,s

c

s,j

=

k

X

t=1

a

i,t

(B ∗ C)

t,j

= (A ∗ (B ∗ C))

i,j

.

Mamy te˙z

(A ∗ B)

T

= B

T

∗ A

T

,

(A ∗ B)

H

= B

H

∗ A

H

.

Rzeczywi´scie,

(A ∗ B)

H



i,j

= (A ∗ B)

j,i

=

l

X

k=1

a

j,k

b

k,i

background image

2.2. DZIA LANIA NA MACIERZACH

17

=

l

X

k=1

a

j,k

b

k,i

=

l

X

k=1

b

k,i

a

j,k

=

l

X

k=1

B

H



i,k

A

H



k,j

=

B

H

∗ A

H



i,j

.

2.2.3

Mno ˙zenie macierzy w postaci blokowej

Je´sli macierze s

,

a podane w postaci blokowej to mo˙zna je mno˙zy´

c ‘blok-po-

bloku’ (tak jak w przypadku blok´

ow 1×1) o ile formaty odpowiednich blok´

ow

s

,

a zgodne. Dok ladniej, je´sli A = (A

i,k

), B = (B

k,j

), 1 ≤ i ≤ m, 1 ≤ k ≤ l,

1 ≤ j ≤ n, oraz dla wszystkich i, j, k liczba kolumn bloku A

i,k

macierzy A

jest r´

owna liczbie wierszy bloku B

k,j

macierzy B to iloczyn

C = A ∗ B = (C

i,j

) ,

1 ≤ i ≤ m, 1 ≤ j ≤ n, gdzie

C

i,j

=

l

X

k=1

A

i,k

∗ B

k,n

.

Poka˙zemy to na przyk ladzie. Niech

A =

A

1,1

A

1,2

A

1,3

A

1,4

A

2,1

A

2,2

A

2,3

A

2,4

A

3,1

A

3,2

A

3,3

A

3,4

,

B =



B

1,1

B

1,2

B

2,1

B

2,2

B

3,1

B

3,2

B

4,1

B

4,2



.

Wtedy

C =

C

1,1

C

1,2

C

2,1

C

2,2

C

3,1

C

3,2

,

gdzie

C

1,1

= A

1,1

∗ B

1,1

+ A

1,2

∗ B

2,1

+ A

1,3

∗ B

3,1

+ A

1,4

∗ B

4,1

,

C

1,2

= A

1,1

∗ B

1,2

+ A

1,2

∗ B

2,2

+ A

1,3

∗ B

3,2

+ A

1,4

∗ B

4,2

,

C

2,1

= A

2,1

∗ B

1,1

+ A

2,2

∗ B

2,1

+ A

2,3

∗ B

3,1

+ A

2,4

∗ B

4,1

,

C

2,2

= A

2,1

∗ B

1,2

+ A

2,2

∗ B

2,2

+ A

2,3

∗ B

3,2

+ A

2,4

∗ B

4,2

,

C

3,1

= A

3,1

∗ B

1,1

+ A

3,2

∗ B

2,1

+ A

3,3

∗ B

3,1

+ A

3,4

∗ B

4,1

,

C

3,2

= A

3,1

∗ B

1,2

+ A

3,2

∗ B

2,2

+ A

3,3

∗ B

3,2

+ A

3,4

∗ B

4,2

,

background image

18

ROZDZIA L 2. MACIERZE LICZBOWE

o ile formaty blok´

ow A

i,k

i B

k,j

s

,

a zgodnie.

Bardzo wa˙znym przypadkiem szczeg´

olnym mno˙zenia blokowego jest

A ∗ B = A ∗

h~b

1

,~b

2

, . . . ,~b

l

i

=

h

A ∗ ~b

1

, A ∗ ~b

2

, . . . , A ∗ ~b

l

i

.

Zwr´

cmy jeszcze uwag

,

e na fakt, ˙ze je´sli ~a ∈ K

m

oraz ~b ∈ K

n

to

C = ~a ∗ ~b

T

∈ K

m,n

jest macierz

,

a formatu m × n, nazywan

,

a iloczynem wewn

,

etrznym wektor´

ow.

Je´sli natomiast wektory s

,

a tych samych format´

ow, ~a,~b ∈ K

n

, to

c = ~a

T

∗ ~b = ~b

T

∗ ~a ∈ K

jest liczb

,

a, nazywan

,

a iloczynem zewn

,

etrznym. W przypadku ~a,~b ∈ C

n

defi-

niujemy r´

ownie˙z iloczyn skalarny wektor´

ow jako liczb

,

e zespolon

,

a

g = ~b

H

∗ ~a ∈ C.

2.3

Dalsze oznaczenia

2.3.1

Macierze tr´

ojk

,

atne i jednostkowe

Wyr´

o˙znimy nast

,

epuj

,

ace podzbiory macierzy formatu m × n (niekoniecznie

kwadratowych):

TRIU

m,n

= { A ∈ K

m,n

: ∀i > j a

i,j

= 0 } ,

TRIL

m,n

= { A ∈ K

m,n

: ∀i < j a

i,j

= 0 } ,

DIAG

m,n

= { A ∈ K

m,n

: ∀i 6= j a

i,j

= 0 } .

S

,

a to odpowiednio macierze tr´

ojk

,

atne g´

orne, tr´

ojk

,

atne dolne i diagonalne.

Zauwa˙zmy, ˙ze ka˙zdy z tych podzbior´

ow macierzy stanowi grup

,

e ze wzgl

,

edu

na dzia lanie dodawania macierzy (s

,

a to podgrupy {K

m,n

, +}), oraz

DIAG

m,n

= TRIU

m,n

∩ TRIL

m,n

.

background image

2.4. MACIERZE NIEOSOBLIWE

19

Poniewa˙z macierze diagonalne D ∈ DIAG

m,n

maj

,

a elementy niezerowe

jedynie na g l´

ownej diagonali, powiedzmy d

i

, 1 ≤ i ≤ min(m, n), b

,

edziemy

pisa´

c

D = diag d

1

, d

2

, . . . , d

min(m,n)

 .

Szczeg´

olnie wa˙znymi macierzami diagonalnymi s

,

a (kwadratowe) macierze

jednostkowe

I

n

= diag

n

(1, 1, . . . , 1

|

{z

}

n

) ∈ K

n,n

.

Je´sli A ∈ K

m,n

to

I

m

∗ A = A = A ∗ I

n

,

co oznacza, ˙ze I

m

i I

n

s

,

a elementami neutralnymi mno˙zenia (odpowiednio

lewostronnym i prawostronnym).

2.3.2

Uk lad r´

owna´

n jako r´

ownanie macierzowe

Rozpatrzmy nast

,

epuj

,

acy uk lad r´

owna´

n:

a

1,1

x

1

+

a

1,2

x

2

+ · · · +

a

1,n

x

n

=

b

1

a

2,1

x

1

+

a

2,2

x

2

+ · · · +

a

2,n

x

n

=

b

2

..

.

..

.

..

.

..

.

a

m,1

x

1

+ a

m,2

x

2

+ · · · + a

m,n

x

n

= b

m

.

(2.2)

owimy, ˙ze jest to uk lad m r´

owna´

n liniowych z n niewiadomymi. Liczby

a

i,j

∈ K nazywamy i wsp´

o lczynnikami uk ladu, b

i

wyrazami wolnymi, a x

j

to

niewiadome.

Oznaczmy

A = (a

i,j

) ∈ K

m,n

,

~b = (b

i

) ∈ K

m

,

~

x = (x

j

) ∈ K

n

.

Wtedy uk lad (2.2) mo˙zemy r´

ownowa˙znie zapisa´

c po prostu jako r´

ownanie

macierzowe

A ∗ ~

x = ~b.

2.4

Macierze nieosobliwe

2.4.1

Grupa macierzy nieosobliwych

W zbiorze K

n,n

mno˙zenie macierzy jest dzia laniem wewn

,

etrznym. Ponadto,

jak wcze´sniej zauwa˙zyli´smy, mno˙zenie jest l

,

aczne, a macierz jednostkowa

background image

20

ROZDZIA L 2. MACIERZE LICZBOWE

I

n

= diag(1, . . . , 1) ∈ K

n,n

jest elementem neutralnym mno˙zenia,

∀A ∈ K

n,n

A ∗ I

n

= A = I

n

∗ A.

(Przypomnijmy, ˙ze element neutralny, je´sli istnieje, jest tylko jeden.) Natu-
ralnym staje si

,

e teraz pytanie, czy istniej

,

a elementy odwrotne. Niestety, nie

zawsze. Na przyk lad, latwo sprawdzi´

c, ˙ze (niezerowa) macierz



1 −2

−2

4



nie ma odwrotno´sci (zar´

owno lewostronnej jak i prawostronnej). Z drugiej

strony, wiele macierzy niezerowych maj

,

a odwrotno´sci. Na przyk lad, macierze

A =



1 0

−1 2



oraz

B =



1

0

1/2 1/2



stanowi

,

a par

,

e macierzy do siebie wzajemnie odwrotnych, A ∗ B = I

2

= B ∗ A,

tak, ˙ze mo˙zemy napisa´

c B = A

−1

i A = B

−1

. (Przypomnijmy, ˙ze element

odwrotny, je´sli istnieje, jest wyznaczony jednoznacznie.)

Definicja 2.1 Macierz kwadratow

,

a A ∈ K

n,n

dla kt´

orej istnieje macierz od-

wrotna A

−1

∈ K

n,n

nazywamy odwracaln

,

a albo nieosobliw

,

a. Macierz, kt´

ora

nie posiada macierzy odwrotnej nazywamy osobliw

,

a.

Zwr´

cmy uwag

,

e na fakt, ˙ze poj

,

ecie macierzy (nie)osobliwej przys luguje

jedynie macierzy kwadratowej.

Iloczyn macierzy nieosobliwych jest macierz

,

a nieosobliw

,

a. Rzeczywi´scie,

je´sli A, B ∈ K

n,n

to sprawdzamy bezpo´srednio, ˙ze odwrotno´sci

,

a C = A ∗ B

jest macierz

C

−1

= B

−1

∗ A

−1

.

St

,

ad wniosek, ˙ze

zbi´

or macierzy nieosobliwych formatu n × n z dzia laniem

mno ˙zenia macierzy jest grup

,

a (nieprzemienn

,

a).

background image

2.4. MACIERZE NIEOSOBLIWE

21

2.4.2

Warunek nieosobliwo´

sci macierzy

Twierdzenie 2.1 Aby macierz A ∈ K

n,n

by la nieosobliwa potrzeba i wy-

starcza, aby dla ka˙zdego ~b ∈ K

n

uk lad r´

owna´

n A ∗ ~

x = ~b mia l jednoznaczne

rozwi

,

azanie ~

x ∈ K

n

.

Dow´

od.

(Konieczno´s´

c.) Jes li A jest nieosobliwa to latwo sprawdzi´

c, ˙ze

~

x = A

−1

∗ ~b jest rozwi

,

azaniem. Z drugiej strony, je´sli ~

x jest rozwi

,

azaniem,

A ∗ ~

x = ~b, to A

−1

∗ (A ∗ ~

x) = A

−1

∗ ~b, czyli ~

x = A

−1

∗ ~b jest rozwi

,

azaniem

jednoznacznym.

(Dostateczno´s´

c.) Uk lady r´

owna´

n A∗~b

j

= ~

e

j

, gdzie ~

e

j

jest j-tym wersorem,

~

e

j

= [0, . . . , 0, 1, 0, . . . , 0]

T

,

(gdzie jedynka stoi na j-tym miejscu) maj

,

a jednoznaczne rozwi

,

azania ~b

j

,

1 ≤ j ≤ n. Bior

,

ac B = [~b

1

,~b

2

, . . . ,~b

n

] mamy

A ∗ B = [A ∗ ~b

1

, . . . , A ∗ ~b

n

] = [~

e

1

, . . . , ~

e

n

] = I

n

.

Pozostaje jeszcze pokaza´

c, ˙ze B∗A = I

n

. Rzeczywi´scie, mamy (A∗B)∗A = A,

czyli A ∗ (B ∗ A) = A. Rozwi

,

azaniem r´

ownania A ∗ Z = A jest Z = I

n

, a

poniewa˙z z za lo˙zenia rozwi

,

azanie to jest jednoznaczne to B ∗ A = I

n

. St

,

ad

B = A

−1

, co ko´

nczy dow´

od.

Jednym z wa˙znych wniosk´

ow z tego twierdzenie jest nast

,

epuj

,

acy.

Wniosek 2.1 Macierz tr´

ojk

,

atna (g´

orna lub dolna) T ∈ K

n,n

jest nieosobliwa

wtedy i tylko wtedy gdy wszystkie elementy na g l´

ownej diagonali s

,

a niezerowe.

Rzeczywi´scie, wystarczy sprawdzi´

c jednoznaczn

,

a rozwi

,

azywalno´s´

c odpo-

wiedniego uk ladu r´

owna´

n.

Dodajmy, ˙ze macierz odwrotna do tr´

ojk

,

atnej

dolnej (g´

ornej), je´sli istnieje, jest te˙z tr´

ojk

,

atna dolna (g´

orna).

2.4.3

Permutacje

Niech p = [p(1), p(2), . . . , p(n)] ∈ Perm(n) b

,

edzie permutacj

,

a n elementow

,

a.

Odpowiadaj

,

ac

,

a tej permutacji macierz P = (p

i,j

) ∈ K

n,n

zdefiniowan

,

a jako

p

i,j

=



1

gdy j = p(i),

0

gdy j 6= p(i),

background image

22

ROZDZIA L 2. MACIERZE LICZBOWE

nazywamy macierz

,

a permutacji. Na przyk lad, je´sli p = [3, 1, 4, 2] ∈ Perm(4)

to

P =



0 0 1 0
1 0 0 0
0 0 0 1
0 1 0 0



.

ownowa˙znie, macierz kwadratowa P jest macierz

,

a permutacji wtedy i tylko

wtedy gdy w ka˙zdym wierszu i w ka˙zdej kolumnie wyst

,

epuje dok ladnie jedna

jedynka, a pozosta le elementy s

,

a zerami.

Latwo sprawdzi´

c, ˙ze permutacje n-elementowe Perm(n) tworz

,

a grup

,

e ze

wzgl

,

edu na ich z lo˙zenie,

(q ◦ p)(i) = q(p(i))

1 ≤ i ≤ n.

Elementem neutralnym jest permutacja identyczno´sciowa id(i) = i ∀i, a ele-
mentem odwrotnym do p jest permutacja odwrotna p

0

zdefiniowana r´

owno´sci

,

a

p

0

(p(i)) = i ∀i.

Podobnie, macierze permutacji tworz

,

a grup

,

e ze wzgl

,

edu na mno˙zenie

macierzy, przy czym

P (q ◦ p) = P (p) ∗ P (q).

Rzeczywi´scie, (P (q ◦ p))

i,j

= 1 w.t.w. gdy q(p(i)) = j. Z drugiej strony,

(P (p) ∗ P (q))

i,j

= 1 w.t.w gdy (P (q))

p(i),j

= 1, czyli zn´

ow q(p(i)) = j.

Podobnie pokazujemy, ˙ze

P (p

0

) = (P (p))

−1

= (P (p))

T

.

Zauwa˙zmy jeszcze, ˙ze je´sli P = P (p), p ∈ Perm(n), to

P ∗


x

1

..

.

x

n


=


x

p(1)

..

.

x

p(n)


,

czyli mno˙zenie wektora z lewej strony przez macierz permutacji skutkuje
zamian

,

a kolejno´sci wsp´

o lrz

,

ednych. Podobnie,

P ∗


ˆ

a

T
1

..

.

ˆ

a

T
n


=


ˆ

a

T
p(1)

..

.

ˆ

a

T
p(n)


background image

2.4. MACIERZE NIEOSOBLIWE

23

powoduje przestawienie wierszy macierzy zgodnie z p. Poniewa˙z

A ∗ P = (A ∗ P )

T



T

= P

T

∗ A

T



T

,

dochodzimy do wniosku, ˙ze

A ∗ P permutuje kolumny A zgodnie z p

0

,

A ∗ P

T

permutuje kolumny A zgodnie z p.

background image

24

ROZDZIA L 2. MACIERZE LICZBOWE

background image

Rozdzia l 3

Normy wektor´

ow i macierzy

W tym rozdziale zak ladamy, ˙ze

K ⊆ C.

3.1

Og´

olna definicja normy

Niech ψ : K

m,n

→ [0, +∞) b

,

edzie przekszta lceniem spe lniaj

,

acym warunki:

(i) ∀A ∈ K

m,n

ψ(A) = 0 ⇐⇒ A = 0,

(ii) ∀A ∈ K

m,n

∀u ∈ K

ψ(u ∗ A) = |u| · ψ(A),

(iii) ∀A, B ∈ K

m,n

ψ(A + B) ≤ ψ(A) + ψ(B)

(nier´

owno´

c tr´

ojk

,

ata albo subaddytywno´

c).

Ka˙zde takie przekszta lcenie ψ nazywamy norm

,

a w K

m,n

i oznaczamy

ψ(A) = kAk.

Norma jest miar

,

a “wielko´sci” macierzy. Dlatego

kA − Bk

uznajemy za miar

,

e odleg lo´sci mi

,

edzy macierzami A i B.

Powiemy, ˙ze norma jest monotoniczna gdy warunek |A| ≤ |B| (tzn. gdy

|a

i,j

| ≤ |b

i,j

| ∀i, j) implikuje kAk ≤ kBk. Je´sli norma w K

n,n

spe lnia

kA ∗ Bk ≤ kAk · kBk,

∀A, B ∈ K

n,n

,

to m´

owimy, ˙ze norma jest submultiplikatywna.

25

background image

26

ROZDZIA L 3. NORMY WEKTOR ´

OW I MACIERZY

3.2

Normy wektor´

ow

3.2.1

Normy p-te

Wektory w K

n

s

,

a szczeg´

olnymi macierzami. W tym przypadku, wa˙znymi

przyk ladami norm s

,

a normy Schura, zdefiniowane dla danej p, 1 ≤ p ≤ ∞,

jako

k~

xk

p

=

n

X

i=1

|x

i

|

p

!

1/p

dla

1 ≤ p < ∞,

k~

xk

=

max

1≤i≤n

|x

i

|.

Nietrudno zauwa˙zy´

c, ˙ze k~

xk

= lim

p→∞

k~

xk

p

, ∀~

x ∈ K

n

.

Warunki (i) i (ii) normy s

,

a trywialnie spe lnione przez normy Schura.

Warunek (iii) latwo sprawdzi´

c dla p = 1, ∞. Dla p = 1 mamy bowiem

k~

x + ~

yk

1

=

n

X

i=1

|x

i

+ y

i

| ≤

n

X

i=1

|x

i

| +

n

X

i=1

|y

i

| = k~

xk

1

+ k~

yk

1

,

a dla p = ∞

k~

x + ~

yk

= max

1≤i≤n

|x

i

+ y

i

| ≤ max

1≤i≤n

|x

i

| + max

1≤i≤n

|y

i

| = k~

xk

+ k~

yk

.

(W obu przypadkach zastosowali´smy nier´

owno´s´

c tr´

ojk

,

ata |u + v| ≤ |u| + |v|

dla liczb zespolonych u i v.) Dla innych warto´sci p warunek (iii) jest du˙zo
trudniej pokaza´

c. Dlatego ograniczymy si

,

e tu jedynie do przypadku p = 2.

Lemat 3.1 (Nier´

owno´

c Schwarza)

Dla dowolnych ~

u, ~

v ∈ K

n

mamy

|~

u

H

∗ ~v| ≤ k~

uk

2

· k~vk

2

.

Dow´

od.

Dla t ∈ K mamy

0 ≤ k~

u + ~

v ∗ tk

2
2

= (~

u + ~

v ∗ t)

H

· (~

u + ~

v ∗ t)

= ~

u

H

∗ ~

u + ¯

t · t ∗ ~

v

H

∗ ~v + ~

u

H

∗ ~v ∗ t + ~v

H

∗ ~

u ∗ ¯

t

= k~

uk

2
2

+ |t|

2

· k~vk

2
2

+ |t| · |~

u

H

∗ ~v| · ω

(ϕ+ψ)

+ ω

−(ϕ+ψ)

 ,

gdzie t = |t| · ω

ψ

, ~

u

H

∗ ~v = |~

u

H

∗ ~v| · ω

ϕ

, ω = cos 1 + ı · sin 1.

background image

3.2. NORMY WEKTOR ´

OW

27

Bior

,

ac teraz ψ = −ϕ mamy

0 ≤ k~

uk

2
2

+ 2|t| · |~

u

H

∗ ~v| + |t|

2

· k~vk

2
2

,

a bior

,

ac ψ = π − ϕ mamy

0 ≤ k~

uk

2
2

− 2|t| · |~

u

H

∗ ~v| + |t|

2

· k~vk

2
2

.

St

,

ad dla dowolnej τ ∈ R otrzymujemy

0 ≤ k~

uk

2
2

+ 2τ |~

u

H

∗ ~v| + τ

2

k~vk

2
2

.

Poniewa˙z prawa strona ostatniej nier´

owno´sci jest, jako funkcja τ , tr´

ojmianem

kwadratowym o warto´sciach nieujemnych, to

0 ≥ ∆ = 4 |~

u ∗ ~

v|

2

− k~

uk

2
2

· k~vk

2
2

 ,

co implikuje |~

u

H

∗ ~v| ≤ k~

uk

2

· k~vk

2

i ko´

nczy dow´

od.

Na podstawie nier´

owno´sci Schwarza mamy teraz

k~

u + ~

vk

2
2

= k~

uk

2
2

+ k~

vk

2
2

+ ~

u

H

∗ ~v + ~v

H

∗ ~

u

= k~

uk

2
2

+ k~

vk

2
2

+ 2<(~

u

H

∗ ~v)

≤ k~

uk

2
2

+ k~

vk

2
2

+ 2|~

u

H

∗ ~v|

≤ k~

uk

2
2

+ k~

vk

2
2

+ 2k~

uk

2

k~vk

2

= (k~

uk

2

+ k~

vk

2

)

2

,

czyli nier´

owno´s´

c tr´

ojk

,

ata dla k · k

2

.

3.2.2

Po ˙zyteczne (nie)r´

owno´

sci

Nietrudno pokaza´

c nast

,

epuj

,

ace nier´

owno´sci l

,

acz

,

ace normy p-te Schura dla

p = 1, 2, ∞. Mianowicie, dla ka˙zdego ~

u ∈ K

n

mamy

k~

uk

≤ k~

uk

1

≤ n · k~

uk

,

k~

uk

≤ k~

uk

2

n · k~

uk

,

k~

uk

2

≤ k~

uk

1

n · k~

uk

2

,

background image

28

ROZDZIA L 3. NORMY WEKTOR ´

OW I MACIERZY

przy czym ostatnia z tych nier´

owno´sci jest konsekwencj

,

a nier´

owno´sci Schwa-

rza,

k~

uk

1

=

n

X

i=1

|u

i

| =

n

X

i=1

|u

i

| · |1| ≤

n

X

i=1

|u

i

|

2

!

1/2

n

X

i=1

1

2

!

1/2

=

n · k~

uk

2

.

Dodatkowo zauwa˙zamy, ˙ze nier´

owno´sci tych nie mo˙zna poprawi´

c. Na przy-

k lad, dla pierwszego wersora ~

e

1

mamy k~

e

1

k

p

= 1 ∀p, a dla ~1 = [1, 1, . . . , 1] ∈

K

n

mamy k~1k

1

=

nk~1k

2

= nk~1k

.

Kul

,

a jednostkow

,

a w K

n

(ze wzgl

,

edu na norm

,

e k · k) nazywamy zbi´

or

wektor´

ow

K = { ~

u ∈ K

n

: k~

uk ≤ 1} .

Z podanych powy˙zej nier´

owno´sci wynika w szczeg´

olno´sci, ˙ze

K

1

⊂ K

2

⊂ K

,

gdzie K

p

jest kul

,

a jednostkow

,

a w normie p-tej Schura.

Zauwa˙zmy jeszcze, ˙ze normy p-te s

,

a monotoniczne oraz, ˙ze dla dowolnej

macierzy permutacji P ∈ K

n,n

i wektora ~

x ∈ K

n

kP ∗ ~

xk

p

= k~

xk

p

,

tzn. norma p-ta wektora jest niezmiennicza ze wzgl

,

edu na przestawienia

kolejno´sci jego wsp´

o lrz

,

ednych.

3.3

Normy macierzy

3.3.1

Normy p-te

Normy p-te macierzy s

,

a definiowane (indukowane) przez normy p-te wek-

tor´

ow w nast

,

epuj

,

acy spos´

ob:

kAk

p

=

sup

~

06=~

x∈K

n

kA ∗ ~

xk

p

k~

xk

p

= sup { kA ∗ ~

xk

p

: ~

x ∈ K

n

, k~

xk

p

= 1} .

Zauwa˙zmy, ˙ze u˙zywamy tego samego oznaczenia dla norm wektora jak i ma-
cierzy. Jest to uzasadnione, gdy˙z norma p-ta macierzy jest uog´

olnieniem

background image

3.3. NORMY MACIERZY

29

normy p-tej wektora. Dla A = [u

1

, . . . , u

m

]

T

∈ K

m,1

= K

m

mamy bowiem

kAk

p

= sup

|t|=1

kA ∗ tk

p

= (

P

m
i=1

|u

i

|

p

)

1/p

. (Tutaj t ∈ K!)

Wprost z definicji wynika, ˙ze normy indukowane macierzy spe lniaj

,

a wa-

runek zgodno´

sci (z norm

,

a wektorow

,

a), tzn.

∀A ∈ K

m,n

∀~

x ∈ K

n

kA ∗ ~

xk

p

≤ kAk

p

· k~

xk

p

.

Normy te s

,

a r´

ownie˙z submultiplikatywne,

∀A ∈ K

m,l

∀B ∈ K

l,n

kA ∗ Bk

p

≤ kAk

p

· kBk

p

.

Rzeczywi´scie, dla ~

x ∈ K

l

mamy

k(A ∗ B) ∗ ~

xk

p

= kA ∗ (B ∗ ~

x)k

p

≤ kAk

p

· kB ∗ ~

xk

p

≤ kAk

p

· kBk

p

· k~

xk

p

,

sk

,

ad

sup

~

x6=~

0

k(A ∗ B) ∗ ~

xk

p

k~

xk

p

≤ kAk

p

· kBk

p

.

Dla macierzy permutacji P ∈ K

m,m

i Q ∈ K

n,n

mamy

kP ∗ A ∗ Q

T

k

p

= kAk

p

,

co oznacza, ˙ze przestawienie kolumn i wierszy macierzy nie zmienia jej p-
tej normy. Rzeczywi´scie, poniewa˙z przestawienie wsp´

o lrz

,

ednych nie zmienia

normy p-tej wektora, mamy

sup

~

x6=~

0

kP ∗ A ∗ Q

T

∗ ~

xk

p

k~

xk

p

= sup

~

x6=~

0

kA ∗ Q

T

∗ ~

xk

p

kQ

T

∗ ~

xk

p

= sup

~

y6=~

0

kA ∗ ~

yk

p

k~

yk

p

.

3.3.2

Po ˙zyteczne (nie)r´

owno´

sci

Dla niekt´

orych p, norm

,

e mo˙zna wyrazi´

c w spos´

ob pozwalaj

,

acy j

,

a latwo ob-

liczy´

c.

Lemat 3.2 Dla dowolnej macierzy A = (a

i,j

) ∈ K

m,n

(a)

kAk

= max

1≤i≤m

P

n
j=1

|a

i,j

|,

(b)

kAk

1

= max

1≤j≤n

P

m
i=1

|a

i,j

|.

background image

30

ROZDZIA L 3. NORMY WEKTOR ´

OW I MACIERZY

Dow´

od.

(a) Dla ~

x = [x

1

, . . . , x

n

]

T

∈ K

n

mamy

kA ∗ ~

xk

=

max

1≤i≤m





n

X

j=1

a

i,j

· x

j





≤ max

1≤i≤m

n

X

j=1

|a

i,j

| · |x

j

|

≤ k~

xk

·

max

1≤i≤m

n

X

j=1

|a

i,j

|

!

.

Z drugiej strony, we´

zmy ~

x

= (x


j

) taki, ˙ze x


j

= ω

−ϕ

j

, 1 ≤ j ≤ n, gdzie ϕ

j

jest argumentem liczby a

s,j

, tzn. a

s,j

= |a

s,j

ϕ

j

, a s jest tym indeksem i,

dla kt´

orego suma

P

n
j=1

|a

i,j

| jest najwi

,

eksza. Wtedy k~

x

k

= 1 oraz

kA ∗ ~

x

k





n

X

j=1

a

s,j

· x


j





=





n

X

j=1

|a

s,j

ϕ

j

ω

−ϕ

j





=

n

X

j=1

|a

s,j

|,

a st

,

ad kAk

≥ max

1≤i≤m

P

n
j=1

|a

i,j

|.

(b) Dla dowolnego ~

x mamy

kA ∗ ~

xk

1

=

m

X

i=1





n

X

j=1

a

i,j

· x

j





m

X

i=1

n

X

j=1

|a

i,j

| · |x

j

|

=

n

X

j=1

|x

j

| ·

m

X

i=1

|a

i,j

| ≤

max

1≤j≤n

m

X

i=1

|a

i,j

|

!

· k~

xk

1

.

Z drugiej strony, dla ~

x

takiego, ˙ze x


j

= 0 dla j 6= s, x


j

= 1 dla j = s, gdzie

s jest tym indeksem j dla kt´

orego suma

P

m
i=1

|a

i,j

| jest najwi

,

eksza, mamy

k~

x

k

1

= 1 oraz kA ∗ ~

xk

1

=

P

m
i=1

|a

i,s

|, a st

,

ad kAk

1

≥ max

1≤j≤n

P

m
i=1

|a

i,j

|.

Z powy˙zszego lematu latwo wida´

c, ˙ze

kA

T

k

= kA

H

k

= kAk

1

,

kA

T

k

1

= kA

H

k

1

= kAk

.

Szczeg´

oln

,

a rol

,

e odgrywa norma druga k · k

2

, ze wzgl

,

ed´

ow, kt´

ore b

,

ed

,

a jasne

zniej. Niestety, nie wyra˙za si

,

e ona w tak prosty spos´

ob jak k · k

1

i k · k

.

W odr´

o˙znieniu od tych ostatnich, norma druga ma jednak dodatkow

,

a wa˙zn

,

a

w lasno´s´

c; mianowicie, dla dowolnej A ∈ K

m,n

kA

T

k

2

= kA

H

k

2

= kAk

2

.

background image

3.3. NORMY MACIERZY

31

owno´s´

c ta wynika bezpo´srednio z faktu, ˙ze

kAk

2

= sup

~

z

sup

~

y


~

y

H

∗ A ∗ ~z


,

gdzie suprema wzi

,

ete s

,

a po ~

z ∈ K

n

i ~

y ∈ K

m

takich, ˙ze k~

zk

2

= 1 = k~

yk

2

.

Rzeczywi´scie, dla dowolnych ~

y i ~

z o jednostkowych normach mamy

|~

y

H

∗ A ∗ ~

z| ≤ k~

yk

2

· kA ∗ ~zk

2

= kA ∗ ~

zk

2

≤ kAk

2

,

przy czym w pierwszej nier´

owno´sci zastosowali´smy nier´

owno´s´

c Schwarza. Z

drugiej strony, dla ~

z o jednostkowej normie i takiego, ˙ze A ∗ ~

z 6= ~0 mamy

kA ∗ ~

zk

2

=

kA ∗ ~

zk

2
2

kA ∗ ~

zk

2

=

(A ∗ ~

z)

H

∗ A ∗ ~

z

kA ∗ ~

zk

2

≤ sup

k~

yk

2

=1


~

y

H

∗ A ∗ ~

z


,

gdzie podstawili´smy ~

y = A ∗ ~

z/kA ∗ ~

zk

2

.

3.3.3

Norma Frobeniusa

Norm

,

e Frobeniusa (albo Euklidesow

,

a) macierzy A ∈ K

m,n

definiujemy jako

kAk

F

=

m

X

i=1

n

X

j=1

|a

i,j

|

2

!

1/2

.

Zalet

,

a normy k · k

F

jest jej latwa “obliczalno´s´

c”, natomiast wad

,

a, ˙ze nie jest

to norma indukowana przez ˙zadn

,

a norm

,

e wektorow

,

a.

Zwi

,

azek mi

,

edzy norm

,

a Frobeniusa i norm

,

a drug

,

a pokazuje nast

,

epuj

,

acy

lemat.

Lemat 3.3 Dla dowolnej A ∈ K

m,n

mamy

kAk

2

≤ kAk

F

p

min(m, n) · kAk

2

.

Dow´

od.

Wykorzystuj

,

ac nier´

owno´s´

c Schwarza, dla dowolnego ~

x ∈ K

n

o

jednostkowej normie drugiej mamy

kA ∗ ~

xk

2
2

=

m

X

i=1





n

X

j=1

a

i,j

· x

j





2

m

X

i=1

n

X

j=1

|a

i,j

| · |x

j

|

!

2

m

X

i=1

n

X

j=1

|a

i,j

|

2

!

n

X

j=1

|x

j

|

2

!

= kAk

2
F

,

background image

32

ROZDZIA L 3. NORMY WEKTOR ´

OW I MACIERZY

a st

,

ad kAk

2

≤ kAk

F

.

Z drugiej strony, przedstawiaj

,

ac A jako

A = [~a

1

, ~a

2

, . . . , ~a

n

] ,

~a

j

∈ K

m

,

mamy kAk

2

≥ kA ∗ ~e

j

k

2

= k~a

j

k

2

, gdzie ~

e

j

jest j-tym wersorem. St

,

ad

kAk

2
2

1

n

·

n

X

j=1

ka

j

k

2
2

=

1

n

· kAk

2
F

,

czyli kAk

F

n · kAk

2

. Ale r´

ownie˙z

kAk

F

= kA

T

k

F

m · kA

T

k

2

=

m · kAk

2

,

co ko´

nczy dow´

od.

Zauwa˙zymy jeszcze jedn

,

a w lasno´s´

c norm p-tych macierzy. Niech macierz

A b

,

edzie dana w postaci blokowej,

A = [A

1

, A

2

, . . . , A

s

] .

Wtedy

kA

k

k

p

=

sup

k~

x

k

k

p

=1

kA

k

∗ ~

x

k

k

p

=

sup

k~

x

k

k

p

=1,~

x

j

=~

0,j6=k





s

X

j=1

A

j

∗ ~

x

j





p

sup

k~

xk

p

=1

kA ∗ ~

xk

p

= kAk

p

.

Podobnie, je´sli

A =




A

1

A

2

..

.

A

t




to

kA

k

k

p
p

=

sup

k~

xk

p

=1

kA

k

∗ ~

xk

p
p

≤ sup

k~

xk

p

=1

t

X

j=1

kA

j

∗ ~

xk

p
p

=

sup

k~

xk

p

=1

kA ∗ ~

xk

p
p

= kAk

p
p

.

background image

3.3. NORMY MACIERZY

33

St

,

ad dostajemy wniosek, ˙ze je´sli A jest w postaci blokowej to dla ka˙zdego

bloku A

i,j

mamy

kA

i,j

k

p

≤ kAk

p

,

1 ≤ p ≤ ∞.

Oczywi´scie, ta w lasno´s´

c zachodzi r´

ownie˙z dla normy Frobeniusa.

background image

34

ROZDZIA L 3. NORMY WEKTOR ´

OW I MACIERZY

background image

Rozdzia l 4

Przestrzenie liniowe

4.1

Przestrzenie i podprzestrzenie

4.1.1

Definicja i podstawowe w lasno´

sci

Niech X z dzia laniem dodawania ‘+’ b

,

edzie grup

,

a przemienn

,

a (abelow

,

a).

Oznaczmy przez 0 element neutralny tej grupy, a przez (−a) element prze-
ciwny do a ∈ X . Za l´

zmy ponadto, ˙ze w X zdefiniowane jest dzia lanie

‘∗’ mno˙zenia przez skalary, czyli elementy pewnego cia la K, kt´

ore spe lnia

nast

,

epuj

,

ace warunki:

1

(i) ∀a ∈ X

∀α ∈ K

α ∗ a = a ∗ α ∈ X

(ii) ∀a ∈ X

1 ∗ a = a

(gdzie 1 jest jedynk

,

a w K)

(iii) ∀a, b ∈ X

∀α, β ∈ K

(α + β) ∗ a = α ∗ a + β ∗ a

α ∗ (a + b) = α ∗ a + α ∗ b

(α ∗ β) ∗ a = α ∗ (β ∗ a).

Definicja 4.1 Zbi´

or X z dzia laniami o wy˙zej wymienionych w lasno´

sciach

nazywamy przestrzeni

,

a liniow

,

a nad cia lem K i oznaczamy X

|K

(albo po prostu

X ).

1

Zauwa˙zmy, ˙ze symbolu ‘∗’ u˙zywamy zar´

owno do oznaczenia mno˙zenia skalaru przez

element z grupy jak i mno˙zenia skalaru przez skalar.

Podobnie ‘+’ oznacza zar´

owno

dodawanie w ciele K jak i w grupie X . Nie prowadzi to jednak do niejednoznaczno´

sci, bo

z kontekstu zawsze wiadomo o jakie dzia lanie chodzi.

35

background image

36

ROZDZIA L 4. PRZESTRZENIE LINIOWE

Podamy kilka elementarnych w lasno´sci przestrzeni liniowych:

• ∀a ∈ X

0 ∗ a = 0

• ∀a ∈ X

(−1) ∗ a = −a

• ∀α ∈ K ∀a ∈ X

[ α ∗ a = 0 ⇐⇒ (α = 0) lub (a = 0) ]

Pierwsza w lasno´s´

c wynika z r´

owno´sci 0 ∗ a = (0 + 0) ∗ a = 0 ∗ a + 0 ∗ a, a

druga z r´

owno´sci 0 = 0 ∗ a = (1 + (−1)) ∗ a = a + (−1) ∗ a. Implikacja w

lew

,

a stron

,

e w ostatniej w lasno´sci jest oczywista. Aby pokaza´

c implikacj

,

e w

praw

,

a stron

,

e za l´

o˙zmy, ˙ze α ∗ 0 = 0 i α 6= 0. Wtedy

a = 1 ∗ a = (α

−1

∗ α) ∗ a = α

−1

∗ (α ∗ a) = α

−1

∗ 0 = 0.

Elementy przestrzeni liniowej X

|K

nazywamy zwykle wektorami, odwo lu-

j

,

ac si

,

e do odpowiedniej interpretacji geometrycznej.

Przyk ladami przestrzeni liniowych s

,

a R

n
|R

, C

n
|R

, C

n
|C

, K

m,n
|K

. We wszyst-

kich tych przyk ladach mno˙zenie wektora przez skalar zdefiniowane jest w
naturalny spos´

ob “wyraz po wyrazie”. Przestrze´

n liniow

,

a nad R (albo nad

C) tworz

,

a te˙z wielomiany stopnia co najwy˙zej (n − 1) o wsp´

o lczynnikach

rzeczywistych (albo zespolonych). Oznaczamy j

,

a przez P

n

|R

(albo P

n

|C

).

4.1.2

Podprzestrzenie liniowe

Definicja 4.2 Niech X

|K

b

,

edzie przestrzeni

,

a liniow

,

a. Niepusty podzbi´

or Y ⊆

X nazywamy podprzestrzeni

,

a (liniow

,

a) przestrzeni X

|K

, gdy Y jest prze-

strzeni

,

a liniow

,

a nad K (z dzia laniami jak w X ). Piszemy przy tym

Y

|K

⊆ X

|K

.

Twierdzenie 4.1 Na to, aby Y

|K

⊆ X

|K

potrzeba i wystarcza, ˙ze:

(i) ∀a, b ∈ Y

a + b ∈ Y

(ii) ∀α ∈ K

∀a ∈ Y

α ∗ a ∈ Y.

Dow´

od.

(i) i (ii) oznaczaj

,

a, ˙ze dodawanie wektor´

ow i mno˙zenie ich przez

skalar nie wyprowadzaj

,

a poza zbi´

or Y. Pozosta le warunki bycia podprze-

strzeni

,

a s

,

a w spos´

ob oczywisty spe lnione, bo s

,

a one spe lnione w X .

Szczeg´

olnymi przyk ladami podprzestrzeni s

,

a Y = X (podprzestrze´

n nie-

w la´sciwa) oraz Y = {0} (podprzestrze´

n zerowa).

background image

4.2. BAZA I WYMIAR PRZESTRZENI

37

Twierdzenie 4.2 Cz

,

c wsp´

olna dowolnej rodziny podprzestrzeni przestrze-

ni liniowej X

|K

jest te˙z podprzestrzeni

,

a X

|K

.

Dow´

od.

Niech {Y

j

}

j∈J

, gdzie J jest (by´

c mo˙ze niesko´

nczonym) zbiorem

indeks´

ow, b

,

edzie dowoln

,

a rodzin

,

a podprzestrzeni. Oznaczmy

Y =

\

j∈J

Y

j

.

Wobec twierdzenia 4.1 wystarczy pokaza´

c, ˙ze dzia lania dodawania i mno˙zenia

przez skalar nie wyprowadzaj

,

a poza zbi´

or Y. Rzeczywi´scie, warunek a, b ∈ Y

oznacza, ˙ze a, b ∈ Y

j

dla wszystkich j ∈ J , a st

,

ad r´

ownie˙z a + b ∈ Y

j

. W

konsekwencji a + b ∈ ∩

j∈J

Y

j

= Y. Podobne uzasadnienie dla mno˙zenia przez

skalar omijamy.

Wa˙znymi przyk ladami podprzestrzni liniowych przestrzeni macierzy K

m,n
|K

s

,

a TRIL

m,n

, TRIU

m,n

oraz DIAG

m,n

. Podprzestrzeniami liniowymi w P

n

|K

s

,

a

P

k

|K

z k ≤ n, albo wielomiany w kt´

orych zmienna wyst

,

epuje tylko w pot

,

egach

parzystych. (Przyjmujemy przy tym, ˙ze −∞, czyli stopie´

n wielomianu zero-

wego, jest liczb

,

a parzyst

,

a.)

4.2

Baza i wymiar przestrzeni

4.2.1

Liniowa (nie)zale ˙zno´

c

Niech {b

j

}

n
j=1

⊂ X oraz i {α

j

}

n
j=1

⊂ K. Element

b =

n

X

j=1

α

j

∗ b

j

nazywamy kombinacj

,

a liniow

,

a element´

ow {b

j

}, przy czym liczby {α

j

} s

,

a

wsp´

o lczynnikami tej kombinacji.

Zauwa˙zmy, ˙ze

B = span(b

1

, b

2

, . . . , b

n

) :=

n

n

X

j=1

α

j

∗ b

j

: {α

j

}

n
j=1

⊂ K

o

,

czyli zbi´

or wszystkich kombinacji liniowych danych element´

ow {b

j

}, jest pod-

przestrzeni

,

a przestrzeni X

|K

.

owimy, ˙ze B jest rozpi

,

eta na elementach

b

1

, . . . , b

n

.

background image

38

ROZDZIA L 4. PRZESTRZENIE LINIOWE

Definicja 4.3 Uk lad {b

j

}

n
j=1

⊂ X jest liniowo zale˙zny je´sli istnieje uk lad

skalar´

ow {α

j

}

n
j=1

⊂ K zawieraj

,

acy liczby niezerowe, dla kt´

orego

n

X

j=1

α

j

∗ b

j

= 0.

Definicja 4.4 Uk lad {b

j

}

n
j=1

⊂ X jest liniowo niezale˙zny je´sli nie jest li-

niowo zale˙zny, tzn. gdy dla dowolnych skalar´

ow {α

j

}

n
j=1

z r´

owno´

sci

n

X

j=1

α

j

∗ b

j

= 0

wynika, ˙ze α

j

= 0, 1 ≤ j ≤ n.

Latwo zauwa˙zy´

c, ˙ze dowolny (niepusty) poduk lad uk ladu liniowo nie-

zale˙znego jest uk ladem liniowo niezale˙znym. Z drugiej strony, je´sli uk lad ma
poduk lad liniowo zale˙zny to uk lad wyj´sciowy jest liniowo zale˙zny.

Rozpatrzmy dowolny uk lad {b

j

}

n
j=1

. Je´sli jest on liniowo zale˙zny to ist-

niej

,

a {α

j

}

n
j=1

takie, ˙ze dla pewnego s mamy α

s

6= 0 oraz

P

n
j=1

α

j

∗ b

j

= 0.

Wtedy

b

s

=

n

X

s6=j=1



α

j

α

s



∗ b

j

,

czyli b

s

∈ span (b

1

, . . . , b

s−1

, b

s+1

, . . . , b

n

), a st

,

ad

span(b

1

, . . . , b

s

, . . . , b

n

) = span(b

1

, . . . , b

s−1

, b

s+1

, . . . , b

n

).

Mo˙zna tak post

,

epowa´

c dalej otrzymuj

,

ac w ko´

ncu uk lad liniowo niezale˙zny

rozpinaj

,

acy t

,

a sam

,

a przestrze´

n co {b

j

}

n
j=1

. (Poniewa˙z uk lad wyj´sciowy jest

sko´

nczony, proces “wyjmowania” kolejnych wektor´

ow musi si

,

e sko´

nczy´

c po

co najwy˙zej n krokach.)

Wniosek 4.1 Z ka˙zdego uk ladu wektor´

ow (b

1

, . . . , b

n

) mo˙zna wyj

,

c poduk lad

(b

j(1)

, . . . , b

j(k)

), 1 ≤ j(1) < · · · < j(k) ≤ n (0 ≤ k ≤ n) taki, ˙ze jest on

liniowo niezale˙zny oraz

span(b

1

, . . . , b

n

) = span(b

j(1)

, . . . , b

j(k)

).

background image

4.2. BAZA I WYMIAR PRZESTRZENI

39

4.2.2

Baza i wymiar, twierdzenie Steinitza

Definicja 4.5 Uk lad {b

j

}

n
j=1

nazywamy baz

,

a przestrzeni Y

|K

⊆ X

|K

gdy:

(i) jest on liniowo niezale˙zny,

(ii) Y = span(b

1

, b

2

, . . . , b

n

).

Mamy nast

,

epuj

,

ace wa˙zne twierdzenie.

Twierdzenie 4.3 Ka˙zda przestrze´

n liniowa Y

|K

ma baz

,

e. Ponadto, wszyst-

kie bazy s

,

a r´

ownoliczne.

Twierdzenie to prowadzi do nast

,

epuj

,

acej definicji.

Definicja 4.6 Liczb

,

e element´

ow bazy danej przestrzeni Y

|K

nazywamy jej

wymiarem i oznaczamy dim(Y

|K

).

Dow´

od twierdzenia 4.3 o istnieniu i r´

ownoliczno´sci baz udowodnimy te-

raz jedynie w przypadku przestrzeni rozpi

,

etych na uk ladach sko´

nczonych.

Zauwa˙zmy najpierw, ˙ze z Wniosku 4.1 natychmiast wynika, i˙z takie prze-
strzenie maj

,

a baz

,

e. Dow´

od r´

ownoliczno´sci baz opiera si

,

e na nast

,

epuj

,

acym

bardzo po˙zytecznym twierdzeniu.

Twierdzenie 4.4 (Steinitza o wymianie)
Niech

span(b

1

, . . . , b

n

) ⊆ span(c

1

, . . . , c

m

) = X ,

przy czym uk lad {b

j

}

n
j=1

jest liniowo niezale˙zny. Wtedy n ≤ m oraz n ele-

ment´

ow uk ladu {c

j

}

n
j=1

mo˙zna wymieni´

c na {b

j

}

n
j=1

otrzymuj

,

ac uk lad rozpi-

naj

,

acy X .

Dow´

od.

(Indukcja wzgl

,

edem n.)

Dla n = 0 teza jest oczywista. Za l´

zmy, ˙ze teza zachodzi dla n−1. Wtedy

n − 1 ≤ m oraz

X = span(b

1

, . . . , b

n−1

, c

n

, c

n+1

, . . . , c

m

).

background image

40

ROZDZIA L 4. PRZESTRZENIE LINIOWE

(Zak ladamy bez zmniejszenia og´

olno´sci, ˙ze wymienili´smy n−1 pocz

,

atkowych

element´

ow uk ladu {c

j

}

m
j=1

.) Poniewa˙z b

n

∈ X to mo˙zna go przedstawi´c w

postaci kombinacji liniowej

b

n

=

n−1

X

j=1

α

j

∗ b

j

+

m

X

j=n

β

j

∗ c

j

.

Zauwa˙zmy, ˙ze istnieje s, n ≤ s ≤ m, taka, ˙ze β

s

6= 0, bo w przeciwnym

przypadku b

n

by lby liniowo zale˙zny od b

1

, . . . , b

n−1

. St

,

ad n ≤ m oraz

c

s

=

b

n

β

s

n−1

X

j=1

 α

j

β

s



∗ b

j

m

X

s6=j=n

 β

j

β

s



∗ c

j

,

tzn. c

s

jest liniow

,

a kombinacj

,

a wektor´

ow b

1

, . . . , b

n

, c

n

, . . . , c

s−1

, c

s+1

, . . . , c

m

.

Wymieniaj

,

ac c

s

na b

n

dostajemy

X = span(c

1

, . . . , c

m

) = span(b

1

, . . . , b

n−1

, c

n

, . . . , c

m

)

= span(b

1

, . . . , b

n−1

, b

n

, c

n+1

, . . . , c

m

).

To ko´

nczy dow´

od.

Bior

,

ac teraz dwie bazy, (b

1

, . . . , b

n

) oraz (c

1

, . . . , c

m

), tej samej przestrzeni

Y

|K

i stosuj

,

ac twierdzenie Steinitza otrzymujemy z jednej strony n ≤ m, a z

drugiej m ≤ n. St

,

ad m = n, czyli bazy s

,

a r´

ownoliczne.

Z twierdzenia Steinitza mo˙zna latwo wywnioskowa´

c nast

,

epuj

,

ace w lasno-

´sci. (Poni˙zej zak ladamy, ˙ze dim(X

|K

) < ∞.)

1. Ka˙zdy uk lad liniowo niezale˙zny w X mo˙zna uzupe lni´

c do bazy w X .

2. Je´sli Y

|K

⊆ X

|K

to dim(Y

|K

) ≤ dim(X

|K

).

3. Niech Y

|K

⊆ X

|K

. Wtedy

Y = X ⇐⇒ dim(Y

|K

) = dim(X

|K

).

4.2.3

Przyk lady

Podamy teraz kilka przyk lad´

ow przestrzeni i ich baz.

background image

4.3. SUMY I SUMY PROSTE

41

K

m
|K

= span(~

e

1

, ~

e

2

, . . . , ~

e

m

),

gdzie ~

e

j

= [0, . . . , 0, 1, 0, . . . , 0]

T

jest j-tym wersorem (jedynka na j-tej

wsp´

o lrz

,

ednej). St

,

ad dim(K

m
|K

) = m.

K

m,n
|K

= span(E

i,j

: 1 ≤ i ≤ m, 1 ≤ j ≤ n),

gdzie

(E

i,j

)

p,q

=

 1 i = p, j = q,

0 wpp.

St

,

ad dim(K

m,n
|K

) = m · n.

C

m,n
|R

= span(E

i,j

, ı · E

i,j

: 1 ≤ i ≤ m, 1 ≤ j ≤ n)

(ı =

−1).

St

,

ad dim(C

m,n
|R

) = 2 · m · n.

P

n

|R

= span(1, t, t

2

, . . . , t

n−1

)

i dim(P

n

|R

) = n.

4.3

Sumy i sumy proste

4.3.1

Suma (prosta) dw´

och podprzestrzeni

Niech Y i Z b

,

ed

,

a podprzestrzeniami X . Definiujemy iloczyn tych podprze-

strzeni jako

S = Y ∩ Z := {x ∈ X : x ∈ Y i x ∈ Z},

oraz sum

,

e jako

T = Y + Z := {y + z : y ∈ Y, z ∈ Z}.

Zauwa˙zmy, ˙ze suma podprzestrzeni nie jest zwyk l

,

a sum

,

a teoriomnogo´sciow

,

a.

Oczywi´scie, zar´

owno iloczyn S jak i suma T s

,

a podprzestrzeniami X .

background image

42

ROZDZIA L 4. PRZESTRZENIE LINIOWE

Definicja 4.7 Je´

sli iloczyn Y ∩ Z = {0} to sum

,

e Y + Z nazywamy sum

,

a

prost

,

a i oznaczamy

T = Y ⊕ Z.

Podamy teraz kilka w lasno´sci wymiar´

ow sum i sum prostych.

(W1)

0 ≤ dim(Y ∩ Z) ≤ min (dim(Y), dim(Z))

(W2)

max (dim(Y), dim(Z)) ≤ dim(Y + Z)

≤ min (dim(X ), dim(Y) + dim(Z))

(W3)

dim(Y + Z) = dim(Y) + dim(Z) − dim(Y ∩ Z)

(W4)

dim(Y ⊕ Z) = dim(Y) + dim(Z)

W lasno´s´

c (W1) jak i lewa strona (W2) wynikaj

,

a po prostu z zawierania si

,

e

odpowiednich podprzestrzeni, a prawa strona w (W2) z faktu, ˙ze Y + Z ⊆ X
oraz, ˙ze suma teoriomnogo´sciowa baz w Y i Z rozpina Y + Z.

Poniewa˙z (W4) wynika bezpo´srednio z (W3), dla pe lno´sci dowodu wy-

starczy pokaza´

c (W3). W tym celu bierzemy baz

,

e (b

1

, . . . , b

u

) w Y ∩ Z, a

nast

,

epnie uzupe lniamy j

,

a do bazy (b

1

, . . . , b

u

, y

u+1

, . . . , y

s

) w Y oraz do bazy

(b

1

, . . . , b

u

, z

u+1

, . . . , z

t

) w Z. Jasne jest, ˙ze

span(y

u+1

, . . . , y

s

) ∩ span(z

u+1

, . . . , z

t

) = {0},

bo inaczej wsp´

olny element niezerowy by lby w Y ∩ Z, a w´

owczas uk lad

(b

1

, . . . , b

u

, y

u+1

, . . . , y

s

) nie by lby liniowo niezale˙zny.

Uk lad (b

1

, . . . , b

u

, y

u+1

, . . . , y

s

, z

u+1

, . . . , z

t

) jest wi

,

ec liniowo niezale˙zny i

rozpina Y + Z, a wi

,

ec jest te˙z baz

,

a tej przestrzeni. Dlatego

dim(Y + Z) = u + (s − u) + (t − u) = s + t − u

= dim(Y) + dim(Z) − dim(Y ∩ Z).

background image

4.3. SUMY I SUMY PROSTE

43

4.3.2

Suma (prosta) w og´

olnym przypadku

Uog´

olnimy poj

,

ecia sumy i sumy prostej na dowoln

,

a, ale sko´

nczon

,

a, liczb

,

e

podprzestrzeni. Niech Y

j

, 1 ≤ j ≤ s, b

,

ed

,

a podprzestrzeniami X . Sum

,

e tych

podprzestrzeni definujemy jako

Y

=

Y

1

+ Y

2

+ · · · + Y

s

=

s

X

j=1

Y

j

:= {y

1

+ · · · + y

s

: y

j

∈ Y

j

, 1 ≤ j ≤ s}.

Definicja 4.8 Je´

sli dla ka˙zdego t, 1 ≤ t ≤ s,

Y

t

s

X

t6=j=1

Y

j

!

= {0}

to sum

,

e Y

1

+ · · · + Y

s

=

P

s
j=1

Y

j

nazywamy sum

,

a prost

,

a i oznaczamy

Y

1

⊕ · · · ⊕ Y

s

=

s

M

j=1

Y

j

.

Twierdzenie 4.5 Je´

sli Y = ⊕

s
j=1

Y

j

to ka˙zdy wektor y ∈ Y ma jednoznaczne

przedstawienie w postaci

y = y

1

+ y

2

+ · · · + y

s

,

y

j

∈ Y

j

, 1 ≤ j ≤ s.

Dow´

od.

(Indukcja wzgl

,

edem s.)

Dla s = 1 twierdzenie jest w oczywisty spos´

ob prawdziwe. Za l´

o˙zmy, ˙ze

jest ono prawdziwe dla s − 1. Niech

y = y

1

+ · · · + y

s

= y

0

1

+ · · · + y

0

s

.

Wtedy

Y

s

3 y

s

− y

0

s

=

s−1

X

j=1

(y

0

j

− y

j

) ∈ Y

1

+ · · · + Y

s−1

,

a poniewa˙z Y

1

⊕ · · · ⊕ Y

s−1

⊕ Y

s

to y

s

= y

0

s

i y

1

+ · · · + y

s−1

= y

0

1

+ · · · + y

0

s−1

.

Wobec tego, ˙ze Y

1

⊕ · · · ⊕ Y

s−1

, co wynika wprost z definicji sumy prostej,

mo˙zemy teraz skorzysta´

c z za lo˙zenia indukcyjnego, aby wywnioskowa´

c, ˙ze

y

j

= y

0

j

dla 1 ≤ j ≤ s − 1. To ko´

nczy dow´

od.

background image

44

ROZDZIA L 4. PRZESTRZENIE LINIOWE

Zauwa˙zmy, ˙ze je´sli Y = Y

1

⊕ · · · ⊕ Y

s

to suma teoriomnogo´sciowa baz w

Y

j

, 1 ≤ j ≤ s, jest baz

,

a Y. W szczeg´

olnym przypadku, gdy (b

1

, . . . , b

n

) jest

baz

,

a X to

X = span(b

1

) ⊕ · · · ⊕ span(b

n

).

Ponadto, ka˙zdemu wektorowi x ∈ X mo˙zna jednoznacznie przyporz

,

adkowa´

c

wsp´

o lczynniki α

j

, 1 ≤ j ≤ n, takie, ˙ze

x =

n

X

j=1

α

j

∗ b

j

.

4.4

Izomorfizm przestrzeni

Definicja 4.9 Przestrze´

n X

|K

jest izomorficzna z Y

|K

(obie przestrzenie nad

tym samym cia lem) gdy istnieje wzajemnie jednoznaczne (r´

o˙znowarto´

sciowe

i “na”) odwzorowanie

f : X → Y

zachowuj

,

ace kombinacje liniowe, tzn. ∀x

1

, x

2

∈ X ∀α

1

, α

2

∈ K

f (α ∗ x

1

+ α

2

∗ x

2

) = α

1

∗ f (x

1

) + α

2

∗ f (x

2

).

Odwzorowanie f nazywamy izomorfizmem.

Zauwa˙zmy, ˙ze je´sli f : X → Y jest izomorfizmem to f (0) = 0 (bo f (0) =

f (0 + 0) = f (0) + f (0)). Izomorfizm zachowuje te˙z liniow

,

a (nie)zale˙zno´s´

c

wektor´

ow, co wynika z faktu, ˙ze warunek

P

s
j=1

α

j

∗f (b

j

) = 0 jest r´

ownowa˙zny

f (

P

s
j=1

α

j

∗ b

j

) = 0, czyli

P

s
j=1

α

j

∗ b

j

= 0.

St

,

ad mamy prosty wnio-

sek, ˙ze izomorfizm f przeprowadza baz

,

e (b

1

, . . . , b

n

) przestrzeni X na baz

,

e

(f (b

1

), . . . , f (b

n

)) przestrzeni Y.

Ponadto mamy:

(i) ka˙zda przestrze´

n jest izomorficzna ze sob

,

a,

(ii) je´sli X jest izomorficzna z Y to Y jest izomorficzna z X ,

(iii) je´sli X jest izomorficzna z Y oraz Y jest izomorficzna z Z to X jest

izomorficzna z Z.

background image

4.5. WARSTWY MODULO Y

45

Aby pokaza´

c (i) wystarczy zauwa˙zy´

c, ˙ze przekszta lcenie identyczno´sciowe w

X ustala izomorfizm X z X . Dla (ii) wyka˙zemy, ˙ze odwzorowanie odwrotne
f

−1

: Y → X ustala izomorfizm Y z X . Rzeczywi´scie, je´sli y

1

, y

2

∈ Y to

istniej

,

a x

1

, x

2

∈ X takie, ˙ze y

1

= f (x

1

) i y

2

= f (x

2

). St

,

ad

f

−1

1

∗ y

1

+ α

2

∗ y

2

)

= f

−1

1

∗ f (x

1

) + α

2

∗ f (x

2

)) = f

−1

(f (α

1

∗ x

1

+ α

2

∗ x

2

))

= α

1

∗ x

1

+ α

2

∗ x

2

= α

1

∗ f

−1

(y

1

) + α

2

∗ f

−1

(y

2

).

W ko´

ncu, aby pokaza´

c (iii) zauwa˙zmy, ˙ze je´sli f i g s

,

a odpowiednio izomor-

fizmami X w Y oraz Y w Z to z lo˙zenie h(·) := g(f (·)) jest izomorfizmem X
w Z. Rzeczywi´scie,

h(α

1

∗ x

1

+ α

2

∗ x

2

)

= g(f (α

1

∗ x

1

+ α

2

∗ x

2

)) = g(α

1

∗ f (x

1

) + α

2

∗ f (x

2

))

= α

1

∗ g(f (x

1

)) + α

2

∗ g(f (x

2

)) = α

1

∗ h(x

1

) + α

2

∗ h(x

2

).

W lasno´sci (i)-(iii) pokazuj

,

a, ˙ze relacja “bycia przestrzeniami izomorficz-

nymi” jest zwrotna, symetryczna i przechodnia, a wi

,

ec jest relacj

,

a r´

ownowa-

˙zno´

sci. St

,

ad, zbi´

or wszystkich przestrzeni liniowych nad ustalonym cia lem

mo˙zna podzieli´

c na roz l

,

aczne podzbiory b

,

ed

,

ace klasami abstrakcji tej relacji.

Do tej samej klasy nale˙z

,

a przestrzenie wzajemnie izomorficzne.

Wniosek 4.2 Ka˙zda przestrze´

n liniowa X

|K

wymiaru n jest izomorficzna z

K

n
|K

.

Rzeczywi´scie, wybieraj

,

ac dowoln

,

a baz

,

e (b

1

, . . . , b

n

) w X

|K

i definiuj

,

ac

odwzorowanie f : X → Y jako

f



n

X

j=1

α

j

∗ b

j



:=

n

X

j=1

α

j

∗ ~e

j

(gdzie ~

e

j

jest j-tym wersorem) otrzymujemy izomorfizm przestrzeni X

|K

w

K

n
|K

.

4.5

Warstwy modulo Y

4.5.1

Definicja

Niech Y b

,

edzie podprzestrzeni

,

a przestrzeni X i niech x

0

∈ X .

background image

46

ROZDZIA L 4. PRZESTRZENIE LINIOWE

Definicja 4.10 Zbi´

or wektor´

ow

W (x

0

, Y) := { x

0

+ y : y ∈ Y }

nazywamy warstw

,

a modulo Y przez x

0

(albo hiperp laszczyzn

,

a r´

ownoleg l

,

a do

Y przez punkt x

0

).

Zauwa˙zmy, ˙ze je´sli x

1

−x

2

∈ Y to warstwy W (x

1

, Y) i W (x

2

, Y) zawieraj

,

a

te same wektory. Rzeczywis´scie, je´sli x = x

1

+ y ∈ W (x

1

, Y) to x = x

2

+

((x

1

− x

2

) + y) ∈ W (x

2

, Y). Podobnie, je´sli x ∈ W (x

2

, Y) to x ∈ W (x

1

, Y).

Z drugiej strony, je´sli x ∈ W (x

1

, Y) ∩ W (x

2

, Y) to x = x

1

+ y

1

= x

2

+ y

2

dla pewnych y

1

, y

2

∈ Y. St

,

ad x

1

− x

2

= y

2

− y

1

∈ Y i w konsekwencji

W (x

1

, Y) = W (x

2

, Y).

Na podstawie powy˙zszej analizy mo˙zemy stwierdzi´

c, ˙ze dwie warstwy,

W (x

1

, Y) i W (x

2

, Y), s

,

a sobie r´

owne (gdy x

1

− x

2

∈ Y) albo roz l

,

aczne (gdy

x

1

− x

2

/

∈ Y). Dlatego warstwy W (x

1

, Y) i W (x

2

, Y) takie, ˙ze x

1

− x

2

∈ Y

b

,

edziemy uto˙zsamia´

c.

Trywialnymi przyk ladami warstw s

,

a W (x

0

, X ) = X oraz W (x

0

, {0}) =

{x

0

}.

4.5.2

Przestrze´

n warstw

W zbiorze wszystkich warstw modulo Y (Y ⊆ X ) wprowadzimy dzia lania
dodawania warstw i mno˙zenia przez skalar α ∈ K w nast

,

epuj

,

acy spos´

ob:

(i) W (x

1

, Y) + W (x

2

, Y) := W (x

1

+ x

2

, Y),

(ii) α ∗ W (x, Y) := W (α ∗ x, Y).

Dzia lania te s

,

a dobrze zdefiniowane, bo je´sli

W (x

1

, Y) = W (x

0
1

, Y)

i

W (x

2

, Y) = W (x

0
2

, Y)

to x

1

− x

0
1

∈ Y i x

2

− x

0
2

∈ Y, a st

,

ad (x

1

− x

0
1

) + (x

2

− x

0
2

) ∈ Y, czyli

W (x

1

+ x

2

, Y) = W (x

0
1

+ x

0
2

, Y). Podobnie, je´sli W (x, Y) = W (x

0

, Y) to

α ∗ x − α ∗ x

0

= α ∗ (x − x

0

) ∈ Y, czyli W (α ∗ x, Y) = W (α ∗ x

0

, Y).

Latwo sprawdzi´

c, ˙ze zbi´

or warstw modulo Y z powy˙zej zdefiniowanymi

dzia laniami jest przestrzeni

,

a liniow

,

a nad K. Aby znale´

c baz

,

e tej przestrzeni,

zapiszemy X jako sum

,

e prost

,

a X = Y ⊕ Z (gdzie Z jest oczywi´scie wyzna-

czona niejednoznacznie) i we´

zmiemy dowoln

,

a baz

,

e (z

1

, z

2

, . . . , z

k

) w Z (gdzie

background image

4.5. WARSTWY MODULO Y

47

k = dim(Z)). Okazuje si

,

e, ˙ze przestrze´

n warstw jest izomorficzna z Z, a

uk lad

(W (z

1

, Y), . . . , W (z

k

, Y))

jest jej baz

,

a. Aby si

,

e o tym przekona´

c, wystarczy pokaza´

c, ˙ze odwzorowanie

f (z) = W (z, Y),

z ∈ Z,

jest izomorfizmem. Rzeczywi´scie, z definicji dodawania warstw i mno˙zenia
przez skalar wynika, ˙ze f zachowuje kombinacje liniowe. Jest ono r´

ownie˙z

o˙znowarto´sciowe, bo je´sli f (z

1

) = f (z

2

) to z

1

− z

2

∈ Y, a poniewa˙z Y i Z

tworz

,

a sum

,

e prost

,

a to z

1

−z

2

= 0 i z

1

= z

2

. W ko´

ncu, f jest przekszta lceniem

“na”, bo dla dowolnej warstwy W (x, Y), x ∈ X , mamy W (x, Y) = f (z), gdzie
z pochodzi z (jednoznacznego) rozk ladu x = y + z, y ∈ Y, z ∈ Z.

W szczeg´

olno´sci pokazali´smy r´

ownie˙z, ˙ze przestrze´

n warstw modulo Y ma

wymiar dim(X ) − dim(Y).

Na przyk lad, je´sli Y = X to przestrze´

n warstw jest izomorficza z prze-

strzeni

,

a zerow

,

a, a je´sli Y = {0} to jest ona izomorficzna z X .

background image

48

ROZDZIA L 4. PRZESTRZENIE LINIOWE

background image

Rozdzia l 5

Obraz, rz

,

ad i j

,

adro macierzy

5.1

Obraz i rz

,

ad macierzy

5.1.1

Rz

,

ad kolumnowy i rz

,

ad wierszowy

Niech A ∈ K

m,n

b

,

edzie dana w postaci blokowej,

A = [~a

1

, ~a

2

, . . . , ~a

n

],

~a

j

∈ K

m

, 1 ≤ j ≤ n.

Obraz macierzy A definiujemy jako

R(A) := { A ∗ ~

x : ~

x ∈ K

n

} = span(~a

1

, ~a

2

. . . , ~a

n

) ⊆ K

m

.

Dalej, rz

,

ad kolumnowy macierzy A definiujemy jako

rz

k

(A) := dim (R(A)) .

Oczywi´scie, 0 ≤ rz

k

(A) ≤ min(m, n). Przedstawiaj

,

ac z kolei A jako wektory-

wiersze (funkcjona ly),

A =


ˆ

a

T
1

..

.

ˆ

a

T
m


,

definiujemy rz

,

ad wierszowy macierzy A jako

rz

w

(A) = dim R(A

T

)



= dim (span(ˆ

a

1

, ˆ

a

2

, . . . , ˆ

a

n

)) .

Podobnie jak dla rz

,

edu kolumnowego, 0 ≤ rz

w

(A) ≤ min(m, n).

49

background image

50

ROZDZIA L 5. OBRAZ, RZ

,

AD I J

,

ADRO MACIERZY

5.1.2

Rz

,

ad macierzy

Mamy nast

,

epuj

,

ace wa˙zne twierdzenie.

Twierdzenie 5.1 Dla dowolnej macierzy A ∈ K

m,n

rz

k

(A) = rz

w

(A).

Dow´

od.

Oznaczmy

k = rz

k

(A)

oraz

w = rz

w

(A).

Zauwa˙zmy najpierw, ˙ze permutacja kolumn macierzy nie zmienia ani jej
rz

,

edu kolumnowego (bo to tylko zmiana kolejno´sci wektor´

ow) ani jej rz

,

edu

wierszowego (bo to tylko przenumerowanie wsp´

o lrz

,

ednych, identyczne dla

ka˙zdego z wektor´

ow). Podobnie rz

,

ed´

ow nie zmienia permutacja wierszy.

Dokonajmy wi

,

ec, dla uproszczenia, takiej permutacji kolumn, a potem

wierszy, aby otrzymana macierz ˆ

A by la postaci

ˆ

A =

 A

I

A

II

 ,

gdzie A

I

∈ K

m,k

, A

II

∈ K

m,n−k

, rz

k

(A

I

) = k, oraz

A

I

=

 A

1

A

2



,

przy czym A

1

∈ K

w

1

,k

, A

2

∈ K

m−w

1

,k

, w

1

:= rz

w

(A

I

) = rz

w

(A

1

). Oczywi´scie

w

1

≤ w,

bo wiersze A

1

s

,

a “obci

,

etymi” wierszami ˆ

A.

Poniewa˙z wektory-wiersze macierzy A

2

s

,

a liniowo zale˙zne od wektor´

ow-

wierszy macierzy A

1

to istnieje macierz B ∈ K

w

1

,m−w

1

taka, ˙ze A

T
2

= A

T
1

B (gdzie kolejne kolumny B s

,

a wsp´

o lczynnikami odpowiednich kombinacji

liniowych), czyli A

2

= B

T

∗ A

1

. Dla dowolnego ~

x ∈ K

k

mamy wi

,

ec

A

I

∗ ~

x =

 A

1

∗ ~

x

A

2

∗ ~

x



=



A

1

∗ ~

x

B

T

∗ A

1

∗ ~

x



.

St

,

ad, A

1

∗ ~

x = ~0 wtedy i tylko wtedy gdy A

I

∗ ~

x = ~0, a poniewa˙z kolumny

macierzy A

I

s

,

a liniowo niezale˙zne, oznacza to tak˙ze liniow

,

a niezale˙zno´s´

c ko-

lumn macierzy A

1

. A je´sli tak to ich liczba k nie mo˙ze przekroczy´

c w

1

, czyli

wymiaru przestrzeni do kt´

orej nale˙z

,

a.

background image

5.2. PRZESTRZE ´

N ZEROWA (J

,

ADRO) MACIERZY

51

Otrzymali´smy wi

,

ec, ˙ze

rz

k

(A) = rz

k

( ˆ

A) = k ≤ w

1

≤ w = rz

w

( ˆ

A) = rz

w

(A).

Przeprowadzaj

,

ac podobne rozumowanie dla macierzy A

T

otrzymujemy

rz

w

(A) ≤ rz

k

(A), a st

,

ad ostatecznie rz

w

(A) = rz

k

(A), co nale˙za lo pokaza´

c.

Na podstawie twierdzenia 5.1 poprawna jest nast

,

epuj

,

aca definicja rz

,

edu

macierzy.

Definicja 5.1 Rz

,

edem macierzy A nazywamy liczb

,

e

rz(A) := rz

k

(A) = rz

w

(A).

5.2

Przestrze´

n zerowa (j

,

adro) macierzy

Dla A ∈ K

m,n

zbi´

or

N (A) :=

n

~

x ∈ K

n

: A ∗ ~

x = ~0

o

nazywamy j

,

adrem macierzy A.

Niech k = rz(A). Za l´

o˙zmy, ˙ze kolumny macierzy A zosta ly tak przesta-

wione, ˙ze otrzymana macierz ˆ

A ma posta´

c

ˆ

A =

 A

I

A

II

 ,

gdzie A

I

∈ K

m,k

, A

II

∈ K

m,n−k

, oraz rz(A

I

) = rz( ˆ

A) (= rz(A)).

Je´sli

tak to kolumny macierzy A

II

s

,

a liniowo zale˙zne od kolumn macierzy A

I

.

W konsekwencji A

II

= A

I

∗ B dla pewnej B ∈ K

k,n−k

. Za l´

o˙zmy teraz, ˙ze

~

x ∈ N ( ˆ

A). Przedstawiaj

,

ac ~

x w postaci

~

x =



~

x

I

~

x

II



,

~

x

I

∈ K

k

, ~

x

II

∈ K

n−k

, mamy

~0 = ˆ

A ∗ ~

x =

 A

I

A

II





~

x

I

~

x

II



= A

I

∗ ~

x

I

+ A

II

∗ ~

x

II

= A

I

∗ ~

x

I

+ A

I

∗ B ∗ ~

x

II

= A

I

∗ (~

x

I

+ B ∗ ~

x

II

).

background image

52

ROZDZIA L 5. OBRAZ, RZ

,

AD I J

,

ADRO MACIERZY

Ostatnie wyra˙zenie jest liniow

,

a kombinacj

,

a kolumn macierzy A

I

, a poniewa˙z

kolumny te s

,

a liniowo niezale˙zne to kombinacja ta daje wektor zerowy tylko

wtedy gdy ~

x

I

+ B ∗ ~

x

II

= ~0, czyli ~

x

I

= −B ∗ ~

x

II

. St

,

ad

N ( ˆ

A) =

  −B ∗ ~x

II

~

x

II



: ~

x

II

∈ K

n−k



=

 

−B

I

n−k



∗ ~

x

II

: ~

x

II

∈ K

n−k



.

Przedstawiaj

,

ac B kolumnowo, B = [~b

1

, . . . ,~b

n−k

], otrzymujemy ostatecznie

N ( ˆ

A) = R



−B

I

n−k



= span

 −~b

1

~

e

1



, . . . ,

 −~b

n−k

~

e

n−k



,

gdzie jak zwykle ~

e

j

∈ K

n−k

jest j-tym wersorem. Poniewa˙z ~

e

1

, . . . , ~

e

n−k

s

,

a

liniowo niezale˙zne to liniowo niezale˙zne s

,

a te˙z wektory w powy˙zszym “span”.

St

,

ad dim(N ( ˆ

A)) = n − k = n − rz(A). Wobec r´

owno´sci dim(N ( ˆ

A)) =

dim(N (A)) (bo permutacja kolumn skutkuje jedynie przestawieniem wsp´

o l-

rz

,

ednych w j

,

adrze) dostajemy nast

,

epuj

,

acy wniosek.

Wniosek 5.1 Dla dowolnej macierzy A ∈ K

m,n

dim(N (A)) + dim(R(A)) = n.

5.3

Rozk lad wzgl

,

edem obrazu i j

,

adra

Zatrzymajmy si

,

e na chwil

,

e na przypadku gdy K ⊆ C. Poniewa˙z wtedy

n

X

j=1

~a

j

∗ x

j

!

=

n

X

j=1

~a

j

∗ x

j

(gdzie sprz

,

e˙zenie wektora oznacza sprz

,

e˙zenie “po wsp´

o lrz

,

ednych”) to wektory

(~a

1

, . . . , ~a

n

) oraz (~a

1

, . . . , ~a

n

) s

,

a jednocze´snie albo liniowo niezale˙zne, albo

liniowo zale˙zne. St

,

ad rz(A) = rz(A) (gdzie zn´

ow sprz

,

e˙zenie macierzy oznacza

sprz

,

e˙zenie “po wsp´

o lrz

,

ednych”). W konsekwencji,

rz(A

H

) = rz(A

T

) = rz(A

T

) = rz(A).

background image

5.3. ROZK LAD WZGL

,

EDEM OBRAZU I J

,

ADRA

53

Latwo mo˙zna te˙z wywnioskowa´

c inn

,

a w lasno´s´

c; mianowicie, je´sli

A = B ∗ C,

A ∈ K

m,n

, B ∈ K

m,k

, C ∈ K

k,n

, to

rz(A) ≤ min(rz(B), rz(C)).

Rzeczywi´scie, r´

owno´s´

c A = B ∗ C oznacza, ˙ze kolumny macierzy A s

,

a liniow

,

a

kombinacj

,

a kolumn macierzy B, a st

,

ad R(A) ⊆ R(B) i w konsekwencji

rz(A) ≤ rz(B). Bior

,

ac z kolei transpozycj

,

e mamy A

T

= C

T

∗ B

T

i to samo

rozumowanie daje R(A

T

) ⊆ R(C

T

) oraz

rz(A) = rz(A

T

) ≤ rz(C

T

) = rz(C).

Na koniec jeszcze jedno istotne twierdzenie.

Twierdzenie 5.2 Niech K ⊆ C i A ∈ K

m,n

. Wtedy

K

m

= R(A) ⊕ N (A

H

)

K

n

= R(A

H

) ⊕ N (A).

Dow´

od.

Wystarczy pokaza´

c pierwsz

,

a z tych r´

owno´sci. W tym celu naj-

pierw uzasadnimy, ˙ze suma jest sum

,

a prost

,

a. Rzeczywi´scie, je´sli ~

y ∈ R(A) ∩

N (A

H

) to A

H

∗ ~

y = ~0 oraz istnieje ~

x ∈ K

n

taki, ˙ze A ∗ ~

x = ~

y. St

,

ad

k~

yk

2
2

= ~

y

H

∗ ~

y = (A ∗ ~

x)

H

∗ ~

y = ~

x

H

∗ (A

H

∗ ~

y) = 0,

czyli ~

y = ~0 i suma podprzestrzeni jest prosta.

Pozostaje pokaza´

c, ˙ze wymiar sumy prostej wynosi m. Korzystaj

,

ac z

wniosku 5.1 mamy bowiem

dim R(A) ⊕ N (A

H

)



= dim (R(A)) + dim N (A

H

)



= dim (R(A)) +

m − dim R(A

H

)



= dim (R(A)) + [m − dim (R(A))]

= m.

background image

54

ROZDZIA L 5. OBRAZ, RZ

,

AD I J

,

ADRO MACIERZY

background image

Rozdzia l 6

Funkcjona ly liniowe

6.1

Funkcjona ly

6.1.1

Definicja i przyk lady

Niech X

|K

b

,

edzie przestrzeni

,

a liniow

,

a, dim(X

|K

) < ∞.

Definicja 6.1 Odwzorowanie

s : X → K

nazywamy funkcjona lem (liniowym) na X

|K

gdy dla dowolnych a, b ∈ X i

α, β ∈ K

s(a ∗ α + b ∗ β) = s(a) ∗ α + s(b) ∗ β.

Zbi´

or wszystkich funkcjona l´

ow (liniowych) na X

|K

oznaczamy przez X

.

Podamy teraz kilka przyk lad´

ow funkcjona l´

ow.

W przestrzeni wektor´

ow K

n
|K

funkcjona lami s

,

a przekszta lcenia postaci

s(~

x) = ˆ

a

T

∗ ~

x,

∀~

x ∈ K

n

,

gdzie ˆ

a ∈ K

n

jest ustalonym wektorem. (Tu wyja´snia si

,

e tajemnica nazwania

wcze´sniej funkcjona lem macierzy jednowierszowej.)

W przestrzeni macierzy K

m,n
|K

funkcjona lami s

,

a np. s

1

(A) = a

2,3

, s

2

(A) =

tr(A) :=

P

min(m,n)
j=1

a

j,j

(jest to ´

slad macierzy), przy czym A = (a

i,j

) ∈ K

m,n

.

55

background image

56

ROZDZIA L 6. FUNKCJONA LY LINIOWE

W przestrzeni wielomian´

ow P

n

|R

funkcjona lami s

,

a np.

s

1

(p) = p(2),

s

2

(p) = 3 ∗ p(−1) − 7 ∗ p(3),

s

3

(p) =

d

2

p

dt

2



t=1

= p

00

(1),

s

4

(p) =

Z

1

0

p(t)dt,

przy czym p ∈ P

n

.

6.1.2

Przestrze´

n sprz

,

e ˙zona

Na zbiorze X

mo˙zemy w naturalny spos´

ob zdefiniowa´

c dodawanie funk-

cjona l´

ow s

1

, s

2

∈ X

,

(s

1

+ s

2

)(a) := s

1

(a) + s

2

(a),

∀a ∈ X ,

oraz mno˙zenie funkcjona lu s ∈ X

przez skalar α ∈ K,

(α ∗ s)(a) := α ∗ s(a),

∀a ∈ X .

Twierdzenie 6.1 Zbi´

or X

z powy˙zej zdefiniowanymi dzia laniami dodawa-

nia funkcjona l´

ow i mno˙zenia przez skalar jest przestrzeni

,

a liniow

,

a nad K.

Dow´

od tego twierdzenia polega na bezpo´srednim sprawdzeniu warunk´

ow

bycia przestrzeni

,

a liniow

,

a. Tutaj zauwa˙zymy tylko, ˙ze elementem zerowym

X

|K

jest funkcjona l zerowy, 0

(a) = 0 ∀a ∈ X , a elementem przeciwnym do

s ∈ X

jest funkcjona l (−s) zdefiniowany jako (−s)(a) = −s(a) ∀a ∈ X .

Definicja 6.2 Przestrze´

n X

|K

nazywamy przestrzeni

,

a sprz

,

e˙zon

,

a do X

|K

.

Skoro X

|K

jest przestrzeni

,

a liniow

,

a to mo˙zemy spyta´

c o jej wymiar i baz

,

e.

Twierdzenie 6.2 Mamy

dim X

|K

 = dim X

|K

 .

Ponadto, je´

sli uk lad wektor´

ow (a

1

, a

2

, . . . , a

n

) jest baz

,

a X

|K

to uk lad funk-

cjona l´

ow (s

1

, s

2

, . . . , s

n

) zdefiniowany warunkami

s

k

(a

j

) =

 1,

j = k,

0,

j 6= k,

gdzie 1 ≤ j, k ≤ n, jest baz

,

a X

|K

.

background image

6.2. REFLEKSYWNO´

S ´

C

57

Dow´

od.

Zauwa˙zmy najpierw, ˙ze s

k

s

,

a formalnie dobrze zdefiniowanymi

funkcjona lami. Dla dowolnego a =

P

n
j=1

a

j

∗ α

j

∈ X mamy bowiem

s

k

(a) = s

k

n

X

j=1

a

j

∗ α

j

!

=

n

X

j=1

s

k

(a

j

) ∗ α

j

= α

k

.

St

,

ad s

k

“zwraca” k-t

,

a wsp´

o lrz

,

edn

,

a rozwini

,

ecia wektora a w bazie wektor´

ow

(a

1

, . . . , a

n

).

Poka˙zemy najpierw liniow

,

a niezale˙zno´s´

c funkcjona l´

ow s

k

, 1 ≤ k ≤ n. W

tym celu za l´

o˙zmy, ˙ze liniowa kombinacja s :=

P

n
k=1

s

k

∗ α

k

= 0

. Wtedy, w

szczeg´

olno´sci, dla ka˙zdego j mamy s(a

j

) = 0, a poniewa˙z

s(a

j

) =

n

X

k=1

s

k

∗ α

k

!

(a

j

) =

n

X

k=1

s

k

(a

j

) ∗ α

k

= α

j

to α

j

= 0.

Pozostaje pokaza´

c, ˙ze funkcjona ly s

k

, 1 ≤ k ≤ n, rozpinaj

,

a X

. Rze-

czywi´scie, dla dowolnego s ∈ X

oraz a =

P

n
j=1

a

j

∗ α

j

∈ X mamy

s(a) = s

n

X

j=1

a

j

∗ α

j

!

=

n

X

j=1

s(a

j

) ∗ α

j

=

n

X

j=1

σ

j

∗ s

j

(a) =

n

X

j=1

σ

j

∗ s

j

!

(a),

gdzie σ

j

= s(a

j

). St

,

ad s =

P

n
j=1

σ

j

∗ s

j

jest kombinacj

,

a liniow

,

a funkcjona l´

ow

s

j

i w konsekwencji X

= span(s

1

, . . . , s

n

).

6.2

Refleksywno´

c

6.2.1

owno´

c X i X

∗∗

Dla wygody wprowadzimy oznaczenie

s · a := s(a),

∀s ∈ X

∀a ∈ X .

Zauwa˙zmy, ˙ze zapis s · a mo˙zemy traktowa´

c jako dzia lanie funkcjona lu s

na wektor a, ale te˙z odwrotnie, jako dzia lanie wektora a na funkcjona l s.
Poniewa˙z dodatkowo dla dowolnych s

1

, s

2

∈ X

i α

1

, α

2

∈ K mamy

1

∗ s

1

+ α

2

∗ s

2

) · a = α

1

∗ (s

1

· a) + α

2

∗ (s

2

· a),

background image

58

ROZDZIA L 6. FUNKCJONA LY LINIOWE

mo˙zemy traktowa´

c wektor a jako funkcjona l na X

|K

, tzn. a ∈ X

∗∗

:= (X

)

.

Mamy wi

,

ec X ⊆ X

∗∗

, a poniewa˙z na podstawie twierdzenia 6.2

dim X

|K

 = dim X

|K

 = dim X

∗∗

|K



to

X = X

∗∗

.

Ostatnia w lasno´s´

c nazywa si

,

e refleksywno´

sci

,

a.

1

Dodajmy, ˙ze je´sli (s

1

, . . . , s

n

) jest baz

,

a X

sprz

,

e˙zon

,

a do bazy (a

1

, . . . , a

n

)

to te˙z odwrotnie, (a

1

, . . . , a

n

) jest baz

,

a X

∗∗

= X sprz

,

e˙zon

,

a do (s

1

, . . . , s

n

).

Wynika to bezpo´srednio z faktu, ˙ze s

j

· a

k

wynosi 1 dla j = k oraz zero dla

j 6= k.

6.2.2

Przyk lady

Podamy teraz przyk lady baz i baz sprz

,

e˙zonych.

Niech X

|K

= K

n
|K

. Baz

,

a sprz

,

e˙zon

,

a do bazy (~

e

1

, . . . , ~

e

n

) przestrzeni wek-

tor´

ow K

n
|K

jest (~

e

T

1

, . . . , ~

e

T

n

). St

,

ad w szczeg´

olno´sci wynika ˙ze

(K

n

)

= (K

n

)

T

.

W og´

olnym przypadku, baz

,

a sprz

,

e˙zon

,

a do dowolnej bazy (~a

1

, . . . , ~a

n

) jest

a

T

1

, . . . , ˆ

a

T

n

), gdzie wektory ˆ

a

j

s

,

a tak dobrane, ˙ze transpozycja macierzy

ˆ

A := [ˆ

a

1

, . . . , ˆ

a

n

] jest lew

,

a odwrotno´sci

,

a macierzy A := [~a

1

, . . . , ~a

n

], tzn.

ˆ

A

T

∗ A = I

n

. (Macierz ˆ

A istnieje, bo istnieje baza sprz

,

e˙zona.)

Niech X

|K

= P

n

|R

. Wtedy baz

,

e sprz

,

e˙zon

,

a do bazy pot

,

egowej wielomian´

ow

(1, t, t

2

, . . . , t

n−1

) tworz

,

a funkcjona ly (s

1

, . . . , s

n

) zdefiniowane jako

s

k

(p) =

1

(k − 1)!

d

k−1

p

dt

k−1



t=0

=

p

(k−1)

(0)

(k − 1)!

,

∀p ∈ P

n

.

Je´sli za´s s

k

(p) = p(t

k

), 1 ≤ k ≤ n, gdzie t

1

< t

2

< · · · < t

n

s

,

a ustalo-

nymi punktami, to baz

,

e sprz

,

e˙zon

,

a do bazy funkcjona l´

ow (s

1

, . . . , s

n

) tworz

,

a

wielomiany Lagrange’a (l

1

, . . . , l

n

) zdefiniowane jako

l

j

(t) =

n

Y

j6=i=1

t − t

i

t

j

− t

i

.

(6.1)

1

Pokazali´

smy, ˙ze przestrzenie sko´

nczenie wymiarowe s

,

a refleksywne. Warto doda´

c, ˙ze

w lasno´

c ta w og´

olno´

sci nie zachodzi dla przestrzeni niesko´

nczenie wymiarowych.

background image

6.3. ROZSZERZENIE RACHUNKU MACIERZY

59

Rzeczywi´scie, latwo sprawdzi´

c, ˙ze

s

k

(l

j

) = l

j

(t

k

) =

 1,

j = k,

0,

j 6= k.

6.3

Rozszerzenie rachunku macierzy

6.3.1

Macierze wektor´

ow i funkcjona l´

ow

W tym miejscu rozszerzymy nieco formalizm rachunku macierzy na macierze
nieliczbowe, kt´

orych elementami s

,

a wektory, a nawet funkcjona ly. Pomo˙ze

nam to upro´sci´

c pewne rachunki na macierzach.

Niech X

|K

b

,

edzie przestrzeni

,

a liniow

,

a i a

j

∈ X , 1 ≤ j ≤ k. Wtedy

mo˙zemy formalnie zdefiniowa´

c macierz jednowierszow

,

a wektor´

ow

A = [a

1

, . . . , a

k

] ∈ X

1,k

.

Dla ~

α =


α

1

..

.

α

k


∈ K

k

definiujemy w naturalny spos´

ob mno˙zenie

A ∗ ~

α :=

k

X

j=1

a

j

∗ α

j

,

b

,

ed

,

ace skr´

otowym zapisem kombinacji liniowej wektor´

ow a

j

.

Podobnie, maj

,

ac dane s

j

∈ X

, 1 ≤ j ≤ l, mo˙zemy zdefiniowa´

c macierz

jednokolumnow

,

a funkcjona l´

ow

S =


s

1

..

.

s

l


∈ (X

)

l,1

.

Dla x ∈ X definiujemy w naturalny spos´

ob mno˙zenie

S · x :=


s

1

· x

..

.

s

l

· x


∈ K

l,1

.

background image

60

ROZDZIA L 6. FUNKCJONA LY LINIOWE

Co wi

,

ecej, iloczyn S · A mo˙zemy r´ownie˙z w naturalny spos´ob zdefiniowa´c

jako macierz

S · A := (s

i

· a

j

) ∈ K

l,k

.

Rzeczywi´scie, tak w la´snie mno˙zymy macierz jednowierszow

,

a przez macierz

jednokolumnow

,

a w przypadku macierzy liczbowych. Ponadto, dla dowolnego

~

α ∈ K

k

spe lnona jest r´

owno´s´

c

S · (A ∗ ~

α) = (S · A) ∗ ~α.

Id

,

ac dalej mo˙zemy zapyta´

c, czy ma sens mno˙zenie A przez S. W przy-

padku macierzy liczbowych, mno˙zenie wektora-wiersza przez wektor-kolumn

,

e

jest mo˙zliwe tylko wtedy gdy wektory te maj

,

a tyle samo wsp´

o lrz

,

ednych. Tak

jest te˙z teraz. Dok ladniej je´sli k = l to

A ∗ S :=

k

X

j=1

a

j

∗ s

j

i interpretujemy ten zapis jako przekszta lcenie X w X zdefiniowane wzorem

(A ∗ S)(x) := A ∗ (S · x) =

k

X

j=1

a

j

∗ s

j

· x.

W szczeg´

olno´sci, a·s dla a ∈ X i s ∈ X

jest przekszta lceniem “zwracaj

,

acym”

wektor a pomno˙zony przez warto´s´

c funkcjona lu s.

6.3.2

Posta´

c macierzowa izomorfizm´

ow

Za l´

o˙zmy teraz, ˙ze dim X

|K



= n oraz (a

1

, . . . , a

n

) jest baz

,

a X .

Niech

A = [a

1

, . . . , a

n

] ∈ X

1,n

. Jasne jest, ˙ze wtedy odwzorowanie f : K

n

→ X

zdefiniowane wzorem

f (~

α) := A ∗ ~α,

∀~

α ∈ K

n

,

jest izomorfizmem K

n

w X . Ponadto, izomorfizm odwrotny f

−1

: X → K

n

dany jest wzorem

f

−1

(x) = S · x,

∀x ∈ X ,

background image

6.3. ROZSZERZENIE RACHUNKU MACIERZY

61

gdzie S =


s

1

..

.

s

n


∈ (X

)

n,1

oraz (s

1

, . . . , s

n

) jest baz

,

a sprz

,

e˙zon

,

a do bazy

(a

1

, . . . , a

n

).

Sprawdzamy, ˙ze w tym przypadku

S · A = (s

i

· a

j

)

n
i,j=1

= I

n

jest identyczno´sci

,

a w K

n

, oraz ˙ze dla dowolnego x = A ∗ ~α z ~α ∈ K

n

(A ∗ S)(x) = (A ∗ S)(A ∗ ~α) = A ∗ (S · A) ∗ ~α = A ∗ ~α = x,

czyli A ∗ S jest identyczno´sci

,

a w X .

Mo˙zemy wi

,

ec uzna´

c, ˙ze S jest odwrotno´sci

,

a A, jak r´ownie˙z, ˙ze A jest

odwrotno´sci

,

a S, tj.

S = A

−1

oraz

A = S

−1

.

background image

62

ROZDZIA L 6. FUNKCJONA LY LINIOWE

background image

Rozdzia l 7

Uk lady r´

owna´

n liniowych

W tym rozdziale zajmiemy si

,

e rozwi

,

azywaniem uk lad´

ow r´

owna´

n liniowych

(2.2).

Stosuj

,

ac zapis macierzowy zadanie formu lujemy nast

,

epuj

,

aco.

Dla

danej macierzy (wsp´

o lczynnik´

ow) A ∈ K

m,n

oraz wektora (wyraz´

ow wol-

nych) ~b ∈ K

m

nale˙zy znale´

c wszystkie wektory (niewiadome) ~

x spe lniaj

,

ace

owno´s´

c

A ∗ ~

x = ~b.

(7.1)

7.1

Zbi´

or rozwi

,

aza´

n

7.1.1

Twierdzenie Kroneckera-Capelliego

Mamy trzy mo˙zliwo´sci:

(i) ∀~

x ∈ K

n

A ∗ ~

x 6= ~b

=⇒

uk lad jest sprzeczny

(ii) ∃~

x ∈ K

n

A ∗ ~

x = ~b

=⇒

uk lad jest niesprzeczny

(iii) !∃~

x ∈ K

n

A ∗ ~

x = ~b

=⇒

uk lad jest oznaczony

1

Twierdzenie 7.1 (Kroneckera-Capelliego)
Uk lad A ∗ ~

x = ~b jest niesprzeczny wtedy i tylko wtedy gdy

rz(A) = rz([A,~b]),

tzn. rz

,

ad macierzy A jest r´

owny rz

,

edowi A rozszerzonej o wektor ~b.

1

Symbol “!∃” czytamy jako “istnieje dok ladnie jeden”.

63

background image

64

ROZDZIA L 7. UK LADY R ´

OWNA ´

N LINIOWYCH

Dow´

od.

Je´sli rz([A,~b]) = rz(A) to wektor ~b nale˙zy do przestrzeni rozpi

,

etej

przez wektory-kolumny macierzy A. To za´s oznacza, ˙ze ~b jest liniow

,

a kom-

binacj

,

a tych wektor´

ow. Wsp´

o lczynniki tej kombinacji tworz

,

a rozwi

,

azanie ~

x

uk ladu.

Z drugiej strony, je´sli istnieje ~

x ∈ K

n

taki, ˙ze A∗~

x = ~b to ~b jest kombinacj

,

a

liniow

,

a wektor´

ow-kolumn macierzy A, czyli ~b nale˙zy do przestrzeni rozpi

,

etej

na tych wektorach. To za´s implikuje ˙ze rz([A,~b]) = rz(A) i ko´

nczy dow´

od.

Mo˙zemy r´

ownowa˙znie stwierdzi´

c, ˙ze uk lad A ∗ ~

x = ~b jest niesprzeczny

wtedy i tylko wtedy gdy ~b ∈ R(A), czyli wektor wyraz´

ow wolnych le˙zy w

obrazie macierzy wsp´

o lczynnik´

ow.

7.1.2

Zbi´

or rozwi

,

aza´

n jako warstwa

Niech

L(A,~b) = { ~

x ∈ K

n

: A ∗ ~

x = ~b }

b

,

edzie zbiorem wszystkich rozwi

,

aza´

n uk ladu A ∗ ~

x = ~b.

Definicja 7.1 Powiemy, ˙ze dwa uk lady, A

1

∗ ~

x = ~b

1

oraz A

2

∗ ~

x = ~b

2

, s

,

a

ownowa˙zne gdy maj

,

a ten sam zbi´

or rozwi

,

aza´

n, tzn. gdy

L(A

1

,~b

1

) = L(A

2

,~b

2

).

Twierdzenie 7.2 Je´

sli uk lad A ∗ ~

x = ~b jest niesprzeczny to zbi´

or rozwi

,

aza´

n

L(A,~b) = { ~

x

0

+ ~

y : ~

y ∈ N (A) } = W (~

x

0

, N (A)) ,

gdzie ~

x

0

jest dowolnym rozwi

,

azaniem szczeg´

olnym uk ladu.

Dow´

od.

Je´sli ~

x

0

jest rozwi

,

azaniem szczeg´

olnym i ~

y ∈ N (A) to

A ∗ (~

x

0

+ ~

y) = A ∗ ~

x

0

+ A ∗ ~

y = ~b + ~0 = ~b,

czyli ~

x

0

+ ~

y jest te˙z rozwi

,

azaniem. To za´s implikuje ˙ze W (~

x

0

, N (A)) ⊆

L(A,~b).

Z drugiej strony, je´sli A ∗ ~

x = ~b to A ∗ (~

x − ~

x

0

) = ~b −~b = ~0, czyli (~

x − ~

x

0

) ∈

N (A). A wi

,

ec ~

x = ~

x

0

+ (~

x − ~

x

0

) jest z jednej strony rozwi

,

azaniem uk ladu, a

z drugiej elementem warstwy W (~

x

0

, N (A)). St

,

ad L(A,~b) ⊆ W (~

x

0

, N (A)).

background image

7.2. EFEKTYWNA METODA ROZWI

,

AZANIA

65

7.1.3

Uk lady nieosobliwe

Rozpatrzmy przez chwil

,

e uk lady z macierzami kwadratowymi.

Twierdzenie 7.3 Macierz kwadratowa A ∈ K

n,n

jest nieosobliwa wtedy i

tylko wtedy gdy rz(A) = n.

Dow´

od.

Wobec nier´

owno´sci

n = rz(I

n

) = rz(A ∗ A

−1

) ≤ min rz(A), rz(A

−1

)



mamy, ˙ze je´sli A jest nieosobliwa to rz(A) = n = rz(A

−1

). Z drugiej strony,

je´sli rz(A) = n to kolumny A s

,

a wektorami liniowo niezale˙znymi.

St

,

ad

istnieje macierz X ∈ K

n,n

taka, ˙ze A ∗ X = I

n

. Podobnie, istnieje Y ∈ K

n,n

taka, ˙ze A

T

∗ Y = I

n

, czyli Y

T

∗ A = I

n

. Ponadto

Y

T

= Y

T

∗ I

n

= (Y

T

∗ A) ∗ X = I

n

∗ X = X,

tzn. odwrotno´sci lewostronna i prawostronna istniej

,

a i s

,

a sobie r´

owne, A

−1

=

X = Y

T

. To ko´

nczy dow´

od.

Wiemy, ˙ze je´sli macierz kwadratowa A jest nieosobliwa to rozwi

,

azaniem

uk ladu A∗~

x = ~b jest ~

x

:= A

−1

∗~b i jest to jedyne rozwi

,

azanie, tzn. uk lad jest

oznaczony. Ale te˙z odwrotnie, je´sli uk lad A ∗ ~

x = ~b z macierz

,

a kwadratow

,

a

A jest oznaczony dla pewnego ~b to macierz A jest nieosobliwa. Rzeczywi´scie,
wtedy j

,

adro N (A) = {~0}. To znaczy, ˙ze wektory-kolumny macierzy tworz

,

a

uk lad liniowo niezale˙zny i rz(A) = n. Na podstawie twierdzenia 2.1 wnio-
skujemy ˙ze A jest nieosobliwa.

Wniosek 7.1 Niech A b

,

edzie macierz

,

a kwadratow

,

a. Uk lad A ∗ ~

x = ~b jest

oznaczony wtedy i tylko wtedy gdy A jest nieosobliwa.

7.2

Efektywna metoda rozwi

,

azania

Dla danej macierzy A ∈ K

m,n

i wektora ~b ∈ K

m

chcemy zbada´

c, czy uk lad

(7.1) jest niesprzeczny, a je´sli tak to znale´

c zbi´

or jego rozwi

,

aza´

n (warstw

,

e)

L(A,~b) = ~

x

0

+ N (A),

gdzie N (A) = span(~

z

s+1

, ~

z

s+2

, . . . , ~

z

n

) i s = rz(A).

background image

66

ROZDZIA L 7. UK LADY R ´

OWNA ´

N LINIOWYCH

7.2.1

Og´

olny schemat

Najpierw wyznaczymy s = rz(A) i t = rz([A,~b]), a nast

,

epnie w przypadku

s = t skonstruujemy rozwi

,

azanie szczeg´

olne ~

x

0

oraz baz

,

e ~

z

s+1

, . . . , ~

z

n

j

,

adra

N (A).

Og´

olny schemat post

,

epowania prowadz

,

acy do postaci r´

ownania, z kt´

orego

mo˙zna ju˙z stosunkowo latwo odczyta´

c rozwi

,

azanie jest nast

,

epuj

,

acy. Star-

tuj

,

ac z uk ladu wyj´sciowego (7.1), kt´

ory oznaczymy przez (U

0

), kolejno dla

k = 1, 2, . . . , s konstruujemy “prostsze” i (prawie) r´

ownowa˙zne (U

0

) uk lady

(U

k

) z macierzami A

(k)

tego samego formatu co A. Macierz A

(s)

uk ladu

docelowego (U

s

) oka˙ze si

,

e tr´

ojk

,

atn

,

a g´

orn

,

a.

Dopuszczamy przy tym nast

,

epuj

,

ace operacje na uk ladnie r´

owna´

n:

(i) zamiana kolejno´sci r´

owna´

n (wierszy macierzy),

(ii) zamiana kolejno´sci niewiadomych (kolumn macierzy),

(iii) dodanie do jednego z r´

owna´

n innego r´

ownania pomno˙zonego przez ska-

lar.

Zauwa˙zmy, ˙ze operacje (i) oraz (iii) prowadz

,

a do uk lad´

ow r´

ownowa˙znych,

za´s (ii) powoduje jedynie zmian

,

e kolejno´sci niewiadomych. W szczeg´

olno´sci,

rz

,

ad macierzy uk ladu nie ulega zmianie.

Schemat sprowadzania uk ladu wyj´sciowego do postaci z macierz

,

a tr´

oj-

k

,

atn

,

a g´

orn

,

a przy pomocy zdefiniowanych operacji, kt´

ory teraz dok ladniej

opiszemy, nazywamy Eliminacj

,

a Gaussa.

7.2.2

Eliminacja Gaussa

Za l´

o˙zmy, ˙ze wykonali´smy ju˙z k przekszta lce´

n uk ladu wyj´sciowego,

(U

0

) → (U

1

) → . . . → (U

k

),

gdzie 0 ≤ k ≤ s − 1, otrzymuj

,

ac uk lad

A

(k)

∗ ~

x

(k)

= ~b

(k)

z macierz

,

a

A

(k)

=

 R

k

T

k

0

V

k



,

background image

7.2. EFEKTYWNA METODA ROZWI

,

AZANIA

67

gdzie R

k

∈ TRIU

k,k

jest kwadratow

,

a i nieosobliw

,

a macierz

,

a tr´

ojk

,

atn

,

a g´

orn

,

a.

Oczywi´scie, za lo˙zenie to jest spe lnione dla k = 0, czyli dla uk ladu wyj´scio-
wego, bowiem wtedy A

(0)

= V

0

= A.

Krok (k + 1)-szy eliminacji

1. Wybieramy w V

k

element r´

o˙zny od zera, powiedzmy v

p,q

6= 0, k + 1 ≤

p ≤ m, k + 1 ≤ q ≤ n. (Taki element istnieje, bo inaczej mieliby´smy
rz(A) = rz(A

(k)

) = k < s = rz(A).)

2. Przestawiamy wiersze (k + 1)-szy z p-tym oraz kolumny (niewiadome)

(k + 1)-sz

,

a z q-t

,

a.

3. Dokonujemy eliminacji (k + 1)-szej niewiadomej z r´

owna´

n od (k + 1)-

szego do m-tego odejmuj

,

ac od r´

ownania i-tego r´

ownanie (k + 1)-sze

pomno˙zone przez

l

i,k+1

:= a

(k)
i,k+1

/a

(k)
k+1,k+1

,

dla i = k + 1, k + 2, . . . , m.

(Tutaj a

(k)
i,j

oznacza element aktualnie stoj

,

acy na przeci

,

eciu i-tego wier-

sza i j-tej kolumny macierzy uk ladu).

Po wykonaniu (k + 1)-szego kroku metody dostajemy uk lad z macierz

,

a

A

(k+1)

, kt´

ora ma wyzerowane wsp´

o lczynniki o indeksach (i, j) dla 1 ≤ j ≤

k + 1, j < i ≤ m.

Po wykonaniu s = rz(A) krok´

ow dostajemy uk lad (U

s

) postaci

A

(s)

∗ ~

x

(s)

= ~b

(s)

,

przy czym

A

(s)

=

 R

s

T

s

0

0



,

a wektor ~

x

(s)

o˙zni si

,

e od ~

x

(0)

jedynie przestawieniem (permutacj

,

a) wsp´

o l-

rz

,

ednych. Rzeczywi´scie, gdyby odpowiednia podmacierz V

s

macierzy A

(s)

by la niezerowa to mieliby´smy rz(A) = rz(A

(s)

) > s.

Dodajmy jeszcze, ˙ze w przypadkach s = 0 i s = min(m, n) niekt´

ore bloki

macierzy A

(s)

s

,

a puste.

background image

68

ROZDZIA L 7. UK LADY R ´

OWNA ´

N LINIOWYCH

7.2.3

Konstrukcja rozwi

,

azania og´

olnego

Przyjmuj

,

ac

~

x

(s)

=

"

~

x

(s)
I

~

x

(s)
II

#

,

~b

(s)

=

" ~b

(s)
I

~b

(s)
II

#

,

gdzie ~

x

(s)
I

,~b

(s)
I

∈ K

s

, ~

x

(s)
II

∈ K

n−s

, ~b

(s)
II

∈ K

m−s

, uk lad (U

s

) mo˙zemy zapisa´

c

jako

(

R

s

∗ ~

x

(s)
I

+ T

s

∗ ~

x

(s)
II

= ~b

(s)
I

~0 = ~b

(s)
II

.

Je´sli teraz ~b

(s)
II

6= ~0 to uk lad jest sprzeczny i nie ma rozwi

,

aza´

n. Je´sli za´s

~b

(s)
II

= ~0 to uk lad (U

s

) redukuje si

,

e do

R

s

∗ ~

x

(s)
I

+ T

s

∗ ~

x

(s)
II

= ~b

(s)
I

.

Przyjmuj

,

ac ~

x

(s)
II

= ~0 otrzymujemy rozwi

,

azanie szczeg´

olne

~

x

(s)
0

=

 ~u

0

~0



,

gdzie ~

u

0

∈ K

s

jest rozwi

,

azaniem nieosobliwego uk ladu

R

s

∗ ~

u

0

= ~b

(s)
I

z macierz

,

a tr´

ojk

,

atn

,

a doln

,

a R

s

.

Baz

,

e j

,

adra macierzy A

(s)

,

N (A

(s)

) = N ([R

s

, T

s

]),

znajdujemy rozwi

,

azuj

,

ac (n − s) liniowo niezale˙znych rozwi

,

aza´

n uk lad´

ow jed-

norodnych

R

s

∗ ~

x

(s)
I

+ T

s

∗ ~

x

(s)
II

= ~0

k lad

,

ac kolejno za ~

x

(s)
II

wersory ~

e

1

, ~

e

2

, . . . , ~

e

n−s

∈ K

n−s

. Oznaczaj

,

ac

T

s

= [~t

s+1

, ~t

s+2

, . . . , ~t

n

]

otrzymujemy

~

z

(s)

j

=



~

u

j

~

e

j−s



,

gdzie

R

s

∗ ~

u

(s)
j

= −~t

j

,

background image

7.3. INTERPRETACJA MACIERZOWA ELIMINACJI

69

s + 1 ≤ j ≤ n. Ostatecznie dostajemy

L(A

(s)

,~b

(s)

) = ~

x

0

+ span(~

z

(s)

s+1

, . . . , ~

z

(s)

n

).

S

,

a to r´

ownie˙z wszystkie rozwi

,

azania uk ladu wyj´sciowego, z dok ladno´sci

,

a do

odpowiedniej permutacji wsp´

o lrz

,

ednych.

7.3

Interpretacja macierzowa eliminacji

Zobaczymy teraz jak proces eliminacji Gaussa wygl

,

ada z punktu widzenia

rachunku macierzy.

7.3.1

Analiza operacji elementarnych

Za l´

o˙zmy najpierw, dla uproszczenia, ˙ze nie musimy wykonywa´

c przestawie´

n

ani wierszy ani kolumn uk ladu (tzn. w ka˙zdym kroku element k-ty na g l´

ownej

przek

,

atnej jest niezerowy). Wtedy eliminacja w k-tym kroku odpowiada

mno˙zeniu macierzy A

(k−1)

z lewej strony przez macierz kwadratow

,

a

L

k

:= I

m

− ~l

k

∗ ~e

T
k

=











1

1

. ..

1

−l

k+1,k

. ..

..

.

. ..

−l

m,k

1











∈ K

m,m

,

gdzie ~l

k

:= [0, . . . , 0, l

k+1,k

, . . . , l

m,k

]

T

oraz

l

i,k

:=

a

(k−1)
i,k

a

(k−1)
k,k

,

k + 1 ≤ i ≤ m.

(7.2)

Dlatego

A

(1)

=

L

1

∗ A,

A

(2)

=

L

2

∗ A

(1)

= L

2

∗ L

1

∗ A,

· · ·

A

(s)

=

L

s

∗ A

(s−1)

= · · · = L

s

∗ L

s−1

∗ · · · ∗ L

1

∗ A,

background image

70

ROZDZIA L 7. UK LADY R ´

OWNA ´

N LINIOWYCH

a st

,

ad A = (L

−1
1

∗ · · · ∗ L

−1
s

) ∗ A

(s)

.

Zauwa˙zmy teraz, ˙ze

L

−1
i

= (I

m

− ~l

i

∗ ~e

T
i

)

−1

= (I

m

+ ~l

i

∗ ~e

T
i

).

Rzeczywi´scie, wobec tego, ˙ze ~

e

T
i

∗ ~l

i

= 0 mamy bowiem

(I

m

− ~l

i

∗ ~e

T
i

) ∗ (I

m

+ ~l

i

∗ ~e

T
i

) = I

m

− ~l

i

∗ (~e

T
i

∗ ~l

i

) ∗ ~

e

T
i

= I

m

.

St

,

ad

L

−1
1

∗ · · · ∗ L

−1
s

= (I

m

+ ~l

1

∗ ~e

T
1

) ∗ · · · ∗ (I

m

+ ~l

s

∗ ~e

T
s

)

= I

m

+ ~l

1

∗ ~e

T
1

+ · · · + ~l

s

∗ ~e

T
s

.

Oznaczaj

,

ac ˆ

L := L

−1
1

∗ · · · ∗ L

−1
s

oraz ˆ

R := A

(s)

otrzymujemy ostatecznie

rozk lad (faktoryzacj

,

e) macierzy,

A = ˆ

L ∗ ˆ

R,

gdzie

ˆ

L =



L

0

H

I



∈ K

m,m

,

ˆ

R =

 R T

0

0



∈ K

m,n

,

L ∈ TRIL

s,s

jest kwadratow

,

a macierz

,

a tr´

ojk

,

atn

,

a doln

,

a z jedynkami na

g l´

ownej przek

,

atnej oraz R ∈ TRIU

s,s

jest macierz

,

a tr´

ojk

,

atn

,

a g´

orn

,

a.

Dodajmy jeszcze, ˙ze wsp´

o lczynniki l

i,k

macierzy ˆ

L s

,

a dla 1 ≤ k ≤ s,

k < i ≤ m, zdefiniowane przez (7.2).

Rozpatrzmy teraz og´

olny przypadek, gdy dokonujemy przestawie´

n wier-

szy i/lub kolumn macierzy. Przypomnijmy, ˙ze przestawienie wierszy i-tego z
j-tym jest r´

ownowa˙zne pomno˙zeniu macierzy przez elementarn

,

a macierz per-

mutacji (transpozycj

,

e) T

i,j

, natomiast pomno˙zenie macierzy z prawej strony

przez T

i,j

jest r´

ownowa˙zne przestawieniu kolumny i-tej z j-t

,

a. Dlatego w

obecno´sci przestawie´

n dostajemy

A

(1)

=

L

1

∗ T

1,p

1

∗ A ∗ T

1,q

1

,

A

(2)

=

L

2

∗ T

2,p

2

∗ A

(1)

∗ T

2,q

2

= L

2

∗ T

2,p

2

∗ L

1

∗ T

1,p

1

∗ A ∗ T

1,q

1

∗ T

2,q

2

· · ·

A

(s)

=

L

s

∗ T

s,p

s

∗ · · · ∗ T

2,p

2

∗ L

1

∗ T

1,p

1

∗ A ∗ T

1,q

1

∗ T

2,q

2

∗ · · · ∗ T

s,q

s

,

przy czym zawsze i ≤ p

i

, j ≤ q

j

, 1 ≤ i, j ≤ s.

background image

7.3. INTERPRETACJA MACIERZOWA ELIMINACJI

71

Zauwa˙zmy, ˙ze

T

2,p

2

∗ L

1

∗ T

1,p

1

= (T

2,p

2

∗ L

1

∗ T

2,p

2

) ∗ T

2,p

2

∗ T

1,p

1

.

Dalej

T

2,p

2

∗ L

1

∗ T

2,p

2

=

T

2,p

2

∗ (I

m

− ~l

1

∗ ~e

T
1

) ∗ T

2,p

2

=

I

m

− (T

2,p

2

∗ ~l

1

) ∗ (~

e

T
1

∗ T

2,p

2

)

=

I

m

− ~l

0
1

∗ ~e

T
1

=: L

(1)
1

,

gdzie L

(1)
1

o˙zni si

,

e od L

1

jedynie przestawieniem wyraz´

ow 2-go i p

2

-go w

pierwszej kolumnie. Uog´

olniaj

,

ac to rozumowanie dostajemy

L

s

∗ T

s,p

s

∗ · · · ∗ T

2,p

2

∗ L

1

∗ T

1,p

1

= L

s

∗ T

s,p

s

∗ · · · ∗ L

2

∗ L

(1)
1

∗ T

2,p

2

∗ T

1,p

1

= L

s

∗ T

s,p

s

∗ · · · ∗ (T

3,p

3

∗ L

2

∗ T

3,p

3

) ∗ (T

3,p

3

∗ L

(1)
1

∗ T

3,p

3

)

∗T

3,p

3

∗ T

2,p

2

∗ T

1,p

1

= L

s

∗ T

s,p

s

∗ · · · ∗ L

3

∗ L

(2)
2

∗ L

(2)
1

∗ T

3,p

3

∗ T

2,p

2

∗ T

1,p

1

· · ·

= (L

(s−1)
s

∗ L

(s−1)
s−1

∗ · · · ∗ L

(s−1)
3

∗ L

(s−1)
2

∗ L

(s−1)
1

) ∗ (T

s,p

s

∗ · · · ∗ T

1,p

1

).

Definiuj

,

ac macierze permutacji

Q

−1

= Q

T

:= T

1,q

1

∗ · · · ∗ T

s,q

s

,

P := T

s,p

s

∗ · · · ∗ T

1,p

1

,

otrzymujemy ostatecznie

A

(s)

= L

(s−1)
s

∗ · · · ∗ L

(s−1)
1

∗ P ∗ A ∗ Q

T

= ˆ

R,

czyli po˙z

,

adany rozk lad

P ∗ A ∗ Q

T

= ˆ

L ∗ ˆ

R,

ˆ

L = (L

(s−1)
1

)

−1

∗ · · · ∗ (L

(s−1)
s

)

−1

, ˆ

R = A

(s)

.

7.3.2

Rozk lad tr´

ojk

,

atno-tr´

ojk

,

atny macierzy

Wynikiem naszej analizy jest nast

,

epuj

,

ace twierdzenie.

background image

72

ROZDZIA L 7. UK LADY R ´

OWNA ´

N LINIOWYCH

Twierdzenie 7.4 (o rozk ladzie tr´

ojk

,

atno-tr´

ojk

,

atnym macierzy)

Dla dowolnej macierzy A ∈ K

m,n

rz

,

edu s istniej

,

a (na og´

o l niejednoznaczne)

macierze permutacji P ∈ K

m,m

i Q ∈ K

n,n

takie, ˙ze macierz ˆ

A = P ∗ A ∗ Q

T

ma jednoznaczny rozk lad tr´

ojk

,

atno-tr´

ojk

,

atny

ˆ

A = ˆ

L ∗ ˆ

R,

gdzie ˆ

L ∈ K

m,m

, ˆ

R ∈ K

m,n

, ˆ

l

i,i

= 1 ∀i,

ˆ

L =



L

0

H

I



,

ˆ

R =

 R T

0

0



,

L ∈ TRIL

s,s

, R ∈ TRIU

s,s

.

Dow´

od.

Istnienie rozk ladu udowodnili´smy przez konstrukcj

,

e macierzy ˆ

L i

ˆ

R (za pomoc

,

a eliminacji Gaussa). Aby pokaza´

c jednoznaczno´s´

c, przedsta-

wimy ˆ

A w postaci blokowej,

ˆ

A =

 A

1,1

A

1,2

A

2,1

A

2,2



,

A

1,1

∈ K

s,s

.

Wtedy dla danego rozk ladu ˆ

A = ˆ

L ∗ ˆ

R mamy

A

1,1

= L ∗ R,

A

1,2

= L ∗ T,

A

2,1

= H ∗ R,

A

2,2

= H ∗ T.

Gdyby istnia l inny rozk lad z macierzami L i R to mieliby´smy L ∗ R = L ∗ R,
czyli

L

−1

∗ L = R ∗ R

−1

.

Po lewej stronie ostatniej r´

owno´sci mamy macierz tr´

ojk

,

atn

,

a doln

,

a z jedyn-

kami na przek

,

atnej, a z prawej tr´

ojk

,

atn

,

a g´

orn

,

a. To wymusza L

−1

∗ L =

I

s

= R ∗ R

−1

, czyli L = L i R = R. Jednoznaczno´s´

c pozosta lych blok´

ow w

rozk ladzie wynika z r´

owno´sci T = L

−1

∗ A

1,2

i H = A

2,1

∗ R

−1

.

7.4

Eliminacja bez przestawie´

n

Podamy teraz warunek konieczny i dostateczny na to, aby istnia l rozk lad
tr´

ojk

,

atno-tr´

ojk

,

atny oryginalnej macierzy A, a tym samym, aby eliminacja

Gaussa by la wykonalna bez przestawie´

n wierszy i/lub kolumn.

background image

7.4. ELIMINACJA BEZ PRZESTAWIE ´

N

73

Twierdzenie 7.5 Aby macierz A = (a

i,j

) ∈ K

m,n

rz

,

edu s mia la rozk lad

tr´

ojk

,

atno-tr´

ojk

,

atny bez przestawie´

n wierszy i/lub kolumn potrzeba i wystar-

cza, ˙ze wszystkie macierze k

,

atowe A

k

= (a

i,j

)

k
i,j=1

∈ K

k,k

dla k = 1, 2, . . . , s

s

,

a nieosobliwe.

Dow´

od.

Je´sli macierz ma rozk lad A = ˆ

L∗ ˆ

R to A

k

= ˆ

L

k

∗ ˆ

R

k

jest nieosobliwa

dla 1 ≤ k ≤ s. Dow´

od w drug

,

a stron

,

e podamy przez indukcj

,

e po s. Dla

s = 1 twierdzenie jest oczywiste, bo wtedy a

1,1

6= 0 i eliminacja pierwszej

kolumny jest wykonalna. Za l´

o˙zmy, ˙ze twierdzenie jest prawdziwe dla s − 1.

Oznaczaj

,

ac

A

s

=

 A

s−1

~a

~c

T

a

s,s



,

mamy z za lo˙zenia indukcyjnego, ˙ze istnieje rozk lad A

s−1

= L

(s−1)

∗ R

(s−1)

dla

pewnych nieosobliwych macierzy

L

(s−1)

∈ TRIL

s−1,s−1

oraz

R

(s−1)

∈ TRIU

s−1,s−1

.

Oznaczaj

,

ac

L

(s)

=

 L

(s−1)

~0

~

g

T

1



,

R

(s)

=

 R

(s−1)

~b

~0

T

r

s,s



,

i rozwi

,

azuj

,

ac r´

ownanie A

(s)

= L

(s)

∗ R

(s)

otrzymujemy

~a = L

(s−1)

∗ ~b,

~c

T

= ~

g

T

∗ R

(s−1)

(albo

(R

(s−1)

)

T

∗ ~g = ~c),

a

s,s

= ~

g

T

∗ ~b + r

s,s

,

sk

,

ad kolejno wyliczamy ~b, ~

g i r

s,s

. Rozk lad tr´

ojk

,

atno-tr´

ojk

,

atny macierzy

k

,

atowej A

(s)

w oczywisty spos´

ob implikuje ju˙z rozk lad ca lej macierzy A.

Na koniec podamy wa˙zne klasy macierzy, dla kt´

orych eliminacja Gaussa

jest mo˙zliwa bez przestawie´

n wierszy i/lub kolumn. S

,

a to macierze:

(a) diagonalnie dominuj

,

ace wierszami

WDD

n,n

=

n

A = (a

i,j

) ∈ K

n,n

: |a

i,i

| >

n

X

i6=j=1

|a

i,j

|, 1 ≤ i ≤ n

o

.

background image

74

ROZDZIA L 7. UK LADY R ´

OWNA ´

N LINIOWYCH

(b) diagonalnie dominuj

,

ace kolumnami

KDD

n,n

= {A ∈ K

n,n

: A

T

∈ WDD

n,n

}.

(c) hermitowskie dodatnio okre´

slone

HPD

n,n

= {A ∈ K

n,n

: A

H

= A oraz ∀~

x 6= ~0 ~

x

H

∗ A ∗ ~

x > 0}.

(d) hermitowskie ujemnie okre´

slone

HND

n,n

= {A ∈ K

n,n

: (−A) ∈ HPD

n,n

}.

Aby pokaza´

c, ˙ze w tych przypadkach przestawienie wierszy/kulumn nie

jest konieczne, wyka˙zemy, ˙ze spe lnione s

,

a za lo˙zenia twierdzenia 7.5.

W przypadku (a) zauwa˙zamy, ˙ze je´sli A ∈ WDD

n,n

to A jest nieosobliwa,

N (A) = {~0}. Je´sli bowiem A ∗ ~

x = ~0 i ~

x 6= ~0 to dla p takiego, ˙ze |x

p

| = k~

xk

mamy a

p,p

x

p

+

P

j6=p

a

p,j

x

j

= 0, a st

,

ad

|a

p,p

| ≤

X

j6=p

|a

p,j

|




x

j

x

p




X

j6=p

|a

p,j

|,

co przeczy dominacji g l´

ownej diagonali macierzy. Uzasadnienie uzupe lnia

obserwacja, ˙ze je´sli A ∈ WDD

n,n

to r´

ownie˙z macierze k

,

atowe A

k

∈ WDD

k,k

,

1 ≤ k ≤ n.

Dla przypadku (b) wystarczy zauwa˙zy´

c, ˙ze jes li A ∈ KDD

n,n

to A

T

WDD

n,n

, oraz wykorzysta´

c fakt, ˙ze nieosobliwo´s´

c A jest r´

ownowa˙zna nieoso-

bliwo´sci A

T

.

W przypadku (c) (i zupe lnie podobnie w (d)) zauwa˙zamy, ˙ze ka˙zda ma-

cierz A ∈ HPD

n,n

jest nieosobliwa. Je´sli bowiem ~

x 6= ~0 i A ∗ ~

x = ~0 to

~

x

H

∗ A ∗ ~

x = 0. Ponadto, wszystkie macierze k

,

atowe A

k

∈ HPD

k,k

, bo dla

dowolnego niezerowego ~

y ∈ K

k

mamy

~

y

H

∗ A

k

∗ ~

y =

 ~y

~0



H

∗ A ∗

 ~y

~0



> 0.

background image

Rozdzia l 8

Przekszta lcenia liniowe

8.1

Podstawowe poj

,

ecia i w lasno´

sci

Niech X

|K

i Y

|K

b

,

ed

,

a dwiema przestrzeniami liniowymi nad tym samym

cia lem K.

Definicja 8.1 Przekszta lcenie f : X → Y nazywamy przekszta lceniem linio-
wym X w Y je´

sli ∀x, y ∈ X ∀α, β ∈ K zachodzi r´

owno´

c

f (x ∗ α + y ∗ β) = f (x) ∗ α + f (y) ∗ β.

8.1.1

Obraz, j

,

adro i rz

,

ad przekszta lcenia

Dla X

1

⊆ X , zbi´

or

f (X

1

) := {f (x) : x ∈ X

1

}

nazywamy obrazem zbioru X

1

.

Je´sli X

1

jest podprzestrzeni

,

a X to f (X

1

) jest podprzestrzeni

,

a Y. Rze-

czywi´scie, je´sli y

1

, y

2

∈ f (X

1

) to dla pewnych x

1

, x

2

∈ X

1

mamy y

1

= f (x

1

) i

y

2

= f (x

2

). St

,

ad dla dowolnych α

1

, α

2

∈ K mamy

y

1

∗ α

1

+ y

2

∗ α

2

= f (x

1

) ∗ α

1

+ f (x

2

) ∗ α

2

= f (x

1

∗ α

1

+ x

2

∗ α

2

) ∈ f (X

1

).

W szczeg´

olno´sci, f (X ) oraz f ({0}) = {0} s

,

a podprzestrzeniami.

Latwo r´

ownie˙z sprawdzi´

c, ˙ze obrazem warstwy W (x

0

, X

1

) ⊆ X jest war-

stwa W (f (x

0

), f (X

1

)) ⊆ Y. A wi

,

ec bycie podprzestrzeni

,

a, elementem zero-

wym albo warstw

,

a s

,

a niezmiennikami przekszta lce´

n liniowych.

75

background image

76

ROZDZIA L 8. PRZEKSZTA LCENIA LINIOWE

Podobnie jak dla macierzy definiujemy obraz przekszta lcenia liniowego f

im(f ) := f (X ) = {f (x) : x ∈ X } ⊆ Y,

jego j

,

adro

ker(f ) := {x ∈ X : f (x) = 0} ⊆ X ,

oraz rz

,

ad

rank(f ) := dim(im(f )).

Oczywi´scie, j

,

adro jest te˙z podprzestrzeni

,

a.

Twierdzenie 8.1 Dla dowolnego przekszta lcenia liniowego f mamy

dim (X ) = dim (im(f )) + dim (ker(f )) .

Dow´

od.

Niech X

1

b

,

edzie tak zdefiniowane, ˙ze

X = X

1

⊕ ker(f ).

Wtedy dim(X ) = dim(X

1

) + dim(ker(f )).

Poka˙zemy, ˙ze dim(im(f )) =

dim(X

1

). W tym celu zauwa˙zmy, ˙ze ka˙zdy x ∈ X mo˙zna jednoznacznie

przedstawi´

c jako x = x

1

+ x

0

, gdzie x

1

∈ X

1

i x

0

∈ ker(f ). St

,

ad

im(f ) = {f (x

1

+ x

0

) : x

1

∈ X

1

, x

0

∈ ker(f )} = {f (x

1

) : x

1

∈ X

1

}.

Teraz wystarczy pokaza´

c, ˙ze dim(X

1

) = dim(f (X

1

)). Rzeczywi´scie, niech

A = [x

1

, . . . , x

s

] ∈ X

1,s

b

,

edzie baz

,

a X

1

(s = dim(X

1

)) oraz

B = [f (x

1

), . . . , f (x

s

)] ∈ Y

1,s

.

Wtedy f (X

1

) = span(f (x

1

), . . . , f (x

s

)) oraz uk lad {f (x

j

)}

s
j=1

jest liniowo

niezale˙zny. Je´sli bowiem B ∗ ~α = 0 to r´ownie˙z f (A ∗ ~α) = 0. Poniewa˙z
A ∗ ~

α /

∈ ker(f ) \ {0} to A ∗ ~α = 0 i z liniowej niezale˙zno´sci {x

j

}

s
j=1

dostajemy

~

α = ~0. Otrzymali´smy, ˙ze B jest baz

,

a f (X

1

) i dim(f (X

1

)) = s = dim(X

1

).

background image

8.1. PODSTAWOWE POJ

,

ECIA I W LASNO´

SCI

77

8.1.2

Przyk lady

• Ka˙zda macierz A ∈ K

m,n

mo˙ze by´

c identyfikowana z przekszta lceniem

liniowym f : K

n

→ K

m

danym wzorem

f (~

x) = A ∗ ~

x,

~

x ∈ K

n

.

Wtedy im(f ) = R(A), ker(f ) = N (A) oraz rank(f ) = rz(A). Twier-
dzenie 8.1 sprowadza si

,

e w tym przypadku do wniosku 5.1.

W szczeg´

olno´sci, funkcjona ly liniowe s

,

a przekszta lceniami liniowymi.

Wtedy A ∈ K

1,n

oraz Y = K.

• Niech f : P

10

|R

→ P

10

|R

, f (p) = p

00

(druga pochodna). Wtedy ker(f ) =

P

2

|R

i im(f ) = P

8

|R

.

• Je´sli za´s w poprzednim przyk ladzie f (p) = p

0

− p to im(f ) = P

10

|R

oraz

ker(f ) = P

0

|R

= {0}.

8.1.3

o ˙znowarto´

sciowo´

c

Twierdzenie 8.2 Na to, aby przekszta lcenie liniowe f : X → Y by lo r´

o˙zno-

warto´

sciowe potrzeba i wystarcza, ˙ze ker(f ) = {0}.

Dow´

od.

Je´sli f jest r´

o˙znowarto´sciowe to tylko dla x = 0 mamy f (x) = 0,

czyli ker(f ) = {0}. Z drugiej strony, je´sli ker(f ) = {0} i f (x

1

) = f (x

2

) = 0

to f (x

1

− x

2

) = 0, a st

,

ad x

1

− x

2

= 0 i x

1

= x

2

, co ko´

nczy dow´

od.

Z ostatniego twierdzenia wynika, ˙ze je´sli ker(f ) = {0} to istnieje prze-

kszta lcenie “odwrotne” f

−1

: im(f ) → X takie, ˙ze ∀x ∈ X f

−1

(f (x)) = x

oraz ∀y ∈ im(f ) f (f

−1

(y)) = y. Ponadto f

−1

jest liniowe, bo je´sli y

1

, y

2

im(f ) to definiuj

,

ac x

1

= f

−1

(y

1

) i x

2

= f

−1

(y

2

) mamy

f

−1

(y

1

∗ α

1

+ y

2

∗ α

2

) = f

−1

(f (x

1

) ∗ α

1

+ f (x

2

) ∗ α

2

)

= f

−1

(f (x

1

∗ α

1

+ x

2

∗ α

2

))

= x

1

∗ α

1

+ x

2

∗ α

2

= f

−1

(y

1

) ∗ α

1

+ f

−1

(y

2

) ∗ α

2

.

owi

,

ac inaczej, ka˙zde r´

o˙znowarto´sciowe przekszta lcenie liniowe f : X → Y

ustala izomorfizm pomi

,

edzy X i swoim obrazem im(f ) ⊆ Y.

background image

78

ROZDZIA L 8. PRZEKSZTA LCENIA LINIOWE

8.1.4

Przestrze´

n przekszta lce´

n liniowych

Zbi´

or wszystkich przekszta lce´

n liniowych z X w Y tworzy przestrze´

n liniow

,

a

nad K, je´sli dzia lania dodawania przekszta lce´

n i mno˙zenia przez skalar zde-

finiowane s

,

a w naturalny spos´

ob jako:

(α ∗ f )(x) = α ∗ f (x),

(f + g)(x) = f (x) + g(x).

Przestrze´

n t

,

a oznaczamy (X → Y)

|K

albo Lin(X , Y). Oczywi´scie, elementem

neutralnym (zerowym) tej przestrzeni jest przekszta lcenie zerowe, a przeciw-
nym do f jest (−f ).

Podobnie jak dla funkcjona l´

ow, dla wygody b

,

edziemy cz

,

esto stosowa´

c

zapis

f · x := f (x),

∀f ∈ Lin(X , Y)

∀x ∈ X .

Uwaga.

Zauwa˙zmy, ˙ze wobec r´

owno´sci

(α ∗ f + β ∗ g) · x = α ∗ (f · x) + β ∗ (g · x)

ka˙zdy wektor x ∈ X mo˙ze by´

c traktowany jako element przestrzeni

Lin (Lin(X , Y), Y) .

Jednak w og´

olno´sci nie mamy r´

owno´sci pomi

,

edzy Lin (Lin(X , Y), Y) i X ,

tak jak jest w przypadku Y = K.

8.2

Macierz przekszta lcenia liniowego

8.2.1

Definicja

Niech dim(X ) = n, dim(Y) = m. Niech

A = [x

1

, . . . , x

n

] ∈ X

1,n

,

B = [y

1

, . . . , y

m

] ∈ Y

1,m

b

,

ed

,

a odpowiednio bazami X i Y. Wtedy

X = {A ∗ ~a : ~a ∈ K

n

},

Y = {B ∗~b : ~b ∈ K

m

}.

Przypomnijmy, ˙ze B

−1

jest wektorem funkcjona l´

ow,

B

−1

=


r

1

..

.

r

m


∈ (Y

)

m,1

,

background image

8.2. MACIERZ PRZEKSZTA LCENIA LINIOWEGO

79

gdzie r

j

∈ Y

, 1 ≤ j ≤ m, tworz

,

a baz

,

e Y

sprz

,

e˙zon

,

a do B.

Niech f : X → Y b

,

edzie przekszta lceniem liniowym i y = f · x. Przyj-

muj

,

ac x = A ∗ ~a i y = B ∗ ~b mamy

~b = B

−1

· y = B

−1

· (f · x)

= B

−1

· (f · (A ∗ ~a)) = B

−1

· f · A

 ∗ ~a

= F ∗ ~a,

gdzie F ∈ K

m,n

,

F = B

−1

· f · A,

jest macierz

,

a o wyrazach f

i,j

= r

i

(f (x

j

)), tzn. w j-tej kolumnie macierzy F

stoj

,

a wsp´

o lczynniki rozwini

,

ecia wektora f (x

j

) w bazie [y

1

, . . . , y

m

].

Definicja 8.2 Macierz liczbow

,

a F = B

−1

· f · A nazywamy macierz

,

a prze-

kszta lcenia f : X → Y w bazach A i B odpowiednio przestrzeni X i Y.

8.2.2

Izomorfizm Lin(X , Y) i K

m,n

Niech Φ : Lin(X , Y) → K

m,n

,

Φ(f ) = B

−1

· f · A,

∀f ∈ Lin(X , Y).

Odwzorowanie Φ przyporz

,

adkowuj

,

ace przekszta lceniu liniowemu jego ma-

cierz jest liniowe (zachowuje kombinacje liniowe). Je´sli bowiem Φ(f ) = F i
Φ(g) = G to

Φ(α ∗ f + β ∗ g) = B

−1

· (α ∗ f + β ∗ g) · A

= α ∗ (B

−1

· f · A) + β ∗ (B

−1

· g · A)

= α ∗ Φ(f ) + β ∗ Φ(g).

Ponadto, latwo sprawdzi´

c, ˙ze Φ jest wzajemnie jednoznaczne i odwzorowanie

odwrotne Φ : K

m,n

→ Lin(X , Y) wyra˙za si

,

e wzorem

Φ

−1

(F ) = B ∗ F ∗ A

−1

,

∀F ∈ K

m,n

.

St

,

ad Φ jest izomorfizmem a przestrzenie Lin(X , Y) i K

m,n

s

,

a izomorficzne.

Poniewa˙z dla przestrzeni macierzy mamy dim(K

m,n

) = m · n, otrzymu-

jemy w szczeg´

olno´sci wniosek, ˙ze

dim (Lin(X , Y)) = dim(X ) · dim(Y).

background image

80

ROZDZIA L 8. PRZEKSZTA LCENIA LINIOWE

Przyk ladow

,

a baz

,

e Lin(X , Y) tworz

,

a przekszta lcenia ϕ

i,j

, 1 ≤ i ≤ m, 1 ≤

j ≤ n, dane wzorem ϕ

i,j

= Φ

−1

(E

i,j

) (gdzie E

i,j

ma jedynk

,

e na przeci

,

eciu

i-tego wiersza i j-tej kolumny, a poza tym zera). Dok ladniej, dla x = A ∗ ~a,

~a = [α

1

, . . . , α

n

]

T

, mamy

f

i,j

· x = (B ∗ E

i,j

∗ A

−1

) ∗ A ∗ ~a = B ∗ (E

i,j

∗ ~a) = (B ∗ ~e

i

) ∗ α

j

= ~

y

i

∗ α

j

.

8.3

Dalsze w lasno´

sci macierzy przekszta lce´

n

8.3.1

Obraz i j

,

adro przekszta lcenia/macierzy

Twierdzenie 8.3 Mamy

im(f ) = B ∗ R(F ) := {B ∗ ~b : ~b ∈ R(F )},

ker(f ) = A ∗ N (F ) := {A ∗ ~a : ~a ∈ N (F )}.

Dow´

od.

Bezpo´srednio sprawdzamy, ˙ze

im(f ) = {f · x : x ∈ X } = {f · A ∗ ~a : ~a ∈ K

n

}

= {B ∗ (B

−1

· f · A) ∗ ~a : ~a ∈ K

n

} = {B ∗ F ∗ ~a : ~a ∈ K

n

}

= {B ∗ ~b : ~b ∈ R(F )},

oraz

ker(f ) = {x ∈ X : f · x = 0} = {A ∗ ~a ∈ X : f · A ∗ ~a = 0}

= {A ∗ ~a : B ∗ (B

−1

· f · A) ∗ ~a = 0}

= {A ∗ ~a : B ∗ F ∗ ~a = 0} = {A ∗ ~a : F ∗ ~a = 0}
= {A ∗ ~a : ~a ∈ N (F )}.

Na podstawie twierdzenia 8.3 mo˙zemy powiedzie´

c, ˙ze B (B

−1

) jest izo-

morfizmem R(F ) w im(f ) (im(f ) w R(F )), a A (A

−1

) jest izomorfizmem

N (F ) w ker(f ) (ker(f ) w N (F )).

8.3.2

Zmiana bazy

Zastan´

owmy si

,

e jak wygl

,

ada zale˙zno´s´

c pomi

,

edzy wsp´

o lczynnikami rozwini

,

e-

cia danego wektora x ∈ X w dw´

och r´

o˙znych bazach A i B przestrzeni X .

background image

8.3. DALSZE W LASNO´

SCI MACIERZY PRZEKSZTA LCE ´

N

81

Formalnie mo˙zemy rozpatrzy´

c macierz przekszta lcenia identyczno´sciowego

f = id

X

: X → X , id

X

(x) = x. Zapisuj

,

ac x z jednej strony jako x = A ∗ ~a, a

z drugiej jako x = B ∗ ~b otrzymujemy

~b = B

−1

· A

 ∗ ~a.

Macierz F = B

−1

· A ∈ K

n,n

o wsp´

o lczynnikach f

i,j

= r

i

· x

j

nazywa si

,

e

macierz

,

a zmiany bazy z A na B.

Oczywi´scie, macierz zmiany bazy jest nieosobliwa.

Podamy teraz charakterystyczny przyk lad zmiany bazy. Niech X

|K

= P

n

|R

b

,

edzie przestrzeni

,

a wielomian´

ow stopnia co najwy˙zej n − 1. Rozpatrzmy

baz

,

e pot

,

egow

,

a A = [1, t, t

2

, . . . , t

n−1

] oraz baz

,

e B = [l

1

, . . . , l

n

], gdzie l

i

s

,

a

wielomianami Lagrange’a zdefiniowanymi w (6.1) dla ustalonych w

,

ez l´

ow t

1

<

t

2

< · · · < t

n

. Wtedy funkcjona ly r

k

, 1 ≤ k ≤ n, tworz

,

ace macierz B

−1

, dane

s

,

a wzorem r

k

(p) = p(t

k

) ∀p ∈ P

n

|R

. St

,

ad wsp´

o lczynniki macierzy przej´scia

F = B

−1

· A ∈ K

n,n

wynosz

,

a f

i,j

= (t

i

)

j

, czyli

F =




1 t

1

t

2
1

· · · t

n−1
1

1 t

2

t

2
2

· · · t

n−1
2

..

.

..

.

..

.

..

.

1 t

n

t

2
n

· · · t

n−1
n




.

Jest to macierz Vandermonde’a. Zauwa˙zmy, ˙ze “przy okazji” pokazali´smy, i˙z
macierz Vandermonde’a, jako macierz zmiany bazy, jest nieosobliwa.

8.3.3

Z lo ˙zenie przekszta lce´

n

Niech f ∈ Lin(X , Y) i g ∈ Lin(Y, Z). Wtedy z lo˙zenie (superpozycja)

g ◦ f : X → Z,

(g ◦ f )(x) = g(f (x)) ∀x jest te˙z liniowe, tzn. (g ◦ f ) ∈ Lin(X , Y). Rze-
czywi´scie,

(g ◦ f )(x

1

∗ α

1

+ x

2

∗ α

2

) = g(f (x

1

) ∗ α

1

+ f (x

2

) ∗ α

2

)

= (g ◦ f )(x

1

) ∗ α

1

+ (g ◦ f )(x

2

2

.

background image

82

ROZDZIA L 8. PRZEKSZTA LCENIA LINIOWE

Twierdzenie 8.4 Niech A, B i C b

,

ed

,

a odpowiednio bazami przestrzeni X ,

Y i Z. Niech f ∈ Lin(X , Y), g ∈ Lin(Y, Z), a F , G b

,

ed

,

a odpowiednio

macierzami przekszta lce´

n f i g w podanych bazach. Wtedy macierz z lo˙zenia

h = g ◦ f ∈ Lin(X , Z) wynosi

H = G ∗ F.

Dow´

od.

Rzeczywi´scie, mamy bowiem

H

= C

−1

· h · A = C

−1

· g · f · A

=

C

−1

· g · B

 ∗ B

−1

· f · A



= G ∗ F.

background image

Rozdzia l 9

Wyznacznik macierzy

9.1

Definicja i pierwsze w lasno´

sci

Niech A b

,

edzie macierz

,

a kwadratow

,

a nad cia lem K,

A = (a

i,j

)

n
i,j=1

∈ K

n,n

.

Definicja 9.1 (przez rozwini

,

ecie Laplace’a)

Wynacznikiem macierzy kwadratowej n × n nazywamy funkcj

,

e

det

n

: K

n,n

→ K,

zdefiniowan

,

a rekurencyjnie w nast

,

epuj

,

acy spos´

ob:

(n = 1)

det

1

(A) := det

1

([a

1,1

]) = a

1,1

,

(n ≥ 2)

det

n

(A) :=

P

n
i=1

(−1)

i+n

a

i,n

· det

n−1

(A

i,n

),

gdzie A

i,n

∈ K

n−1.n−1

jest macierz

,

a powsta l

,

a z A poprzez usuni

,

ecie z niej

i-tego wiersza i n-tej kolumny.

Zgodnie z definicj

,

a mamy

det

2

(A) = a

1,1

a

2,2

− a

1,2

a

2,1

,

det

3

(A) = a

1,1

a

2,2

a

3,3

+ a

1,2

a

2,3

a

3,1

+ a

1,3

a

2,1

a

3,2

−a

1,1

a

2,3

a

3,2

− a

1,2

a

2,1

a

3,3

− a

1,3

a

2,2

a

3,1

,

det

4

(A) = . . . .

83

background image

84

ROZDZIA L 9. WYZNACZNIK MACIERZY

Wprost z definicji rekurencyjnej latwo r´

ownie˙z zauwa˙zy´

c, ˙ze dla macierzy

identyczno´sciowej mamy det

n

(I

n

) = 1. Og´

olniej, je´sli A jest macierz

,

a r´

ojk

,

at-

n

,

a doln

,

a lub tr´

ojk

,

atn

,

a g´

orn

,

a, A ∈ TRIL

n,n

∪ TRIU

n,n

, to

det

n

(A) =

n

Y

i=1

a

i,i

.

Je´sli format macierzy jest znany lub nieistotny to dalej b

,

edziemy dla

uproszczenia pisa´

c det(A) zamiast det

n

(A).

Twierdzenie 9.1 Wyznacznik jest funkcj

,

a liniow

,

a ze wzgl

,

edu na dowoln

,

a

kolumn

,

e macierzy, tzn.

det([~a

1

, . . . , ~a

p

∗ α + ~a

0
p

∗ α

0

, . . . , ~a

n

])

= det([~a

1

, . . . , ~a

p

, . . . , ~a

n

]) ∗ α + det([~a

1

, . . . , ~a

0
p

, . . . , ~a

n

]) ∗ α

0

,

1 ≤ p ≤ n.

Dow´

od.

Rzeczywi´scie, r´

owno´s´

c w oczywisty spos´

ob zachodzi dla n = 1, a

dla n ≥ 2 wystarczy osobno rozpatrzy´

c dwa przypadki, p = n i 1 ≤ p ≤ n−1,

oraz skorzysta´

c z definicji rekurencyjnej.

Z twierdzenia 9.1 mamy od razu, ˙ze det([. . . , ~0, . . .]) = 0. Natomiast

stosuj

,

ac twierdzenie 9.1 kolejno do ka˙zdej z kolumn macierzy otrzymujemy,

˙ze dla dowolnej macierzy diagonalnej D = diag(α

1

, α

2

, . . . , α

n

)

det(A ∗ D) = det([~a

1

∗ α

1

, . . . , ~a

n

∗ α

n

]) = det(A) ·

n

Y

i=1

α

i

.

(9.1)

W szczeg´

olno´sci,

det

n

(α ∗ A) = α

n

· det

n

(A)

oraz

det

n

(−A) = (−1)

n

· det

n

(A).

9.2

Wyznacznik a operacje elementarne

9.2.1

Permutacja kolumn

Twierdzenie 9.2 Przestawienie r´

o˙znych kolumn macierzy zmienia znak wy-

znacznika, tzn. dla dowolnej transpozycji T

p,q

, p 6= q,

det(A ∗ T

p,q

) = −det(A).

background image

9.2. WYZNACZNIK A OPERACJE ELEMENTARNE

85

Dow´

od.

(Indukcja wzgl

,

edem n.)

Dla n = 1, 2 wz´

or sprawdzamy bezpo´srednio z definicji. Dla n ≥ 3 rozpatru-

jemy trzy przypadki.

(a) 1 ≤ p < q ≤ n − 1.
Korzystaj

,

ac z za lo˙zenia indukcyjnego mamy

det

n

(A ∗ T

p,q

) =

n

X

i=1

(−1)

i+n

a

i,n

det

n−1

((A ∗ T

p,q

)

i,n

)

= −

n

X

i=1

(−1)

i+n

a

i,n

det

n−1

(A

i,n

)

= −det

n

(A).

(b) p = n − 1, q = n.
Stosuj

,

ac dwukrotnie rozwini

,

ecie Laplace’a dostajemy

det

n

(A) =

n

X

i=1

(−1)

i+n

a

i,n

det

n−1

(A

i,n

)

=

n

X

i=1

(−1)

i+n

a

i,n



i−1

X

k=1

(−1)

k+(n−1)

a

k,n−1

det

n−2

(A

{i,k}{n−1,n}

)

+

n

X

k=i+1

(−1)

(k−1)+(n−1)

a

k,n−1

det

n−2

(A

{i,k}{n−1,n}

)



= −

X

k<i

(−1)

i+k

a

i,n

a

k,n−1

det

n−2

(A

{i,k}{n−1,n}

)

+

X

i<k

(−1)

i+k

a

i,n

a

k,n−1

det

n−2

(A

{i,k}{n−1,n}

),

gdzie A

{i,k}{n−1,n}

jest macierz

,

a powsta l

,

a z A poprzez usuni

,

ecie wierszy i-tego

i k-tego oraz kolumn (n−1)-szej i n-tej. Wykonuj

,

ac to samo dla macierzy A∗

T

p,q

otrzymujemy ten sam wz´

or, ale z odwr´

oconymi znakami przed symbolami

sumowania.

(c) 1 ≤ p ≤ n − 2, q = n.
W tym przypadku wystarczy zauwa˙zy´

c, ˙ze

A ∗ T

p,n

= A ∗ T

p,n−1

∗ T

n−1,n

∗ T

p,n−1

i skorzysta´

c dwukrotnie z (a) i raz z (b).

background image

86

ROZDZIA L 9. WYZNACZNIK MACIERZY

Z twierdzenia 9.2 wynika w szczeg´

olno´sci, ˙ze wyznacznik macierzy trans-

pozycji T

p,q

z p 6= q wynosi −1.

Wyznacznik mo˙zna rozwija´

c nie tylko wzgl

,

edem ostatniej, ale r´

ownie˙z

wzgl

,

edem dowolnej kolumny.

Twierdzenie 9.3 Dla dowolnego n ≥ 2 i 1 ≤ j ≤ n mamy

det

n

(A) =

n

X

i=1

(−1)

i+j

a

i,j

· det

n−1

(A

i,j

).

Dow´

od.

Je´sli j = n − 1 to

det

n

(A) = −det

n

(A ∗ T

n−1,n

)

= −

n

X

i=1

(−1)

i+n

a

i,n−1

· det

n−1

(A

i,n−1

)

=

n

X

i=1

(−1)

i+n−1

a

i,n−1

· det

n−1

(A

i,n−1

).

Dalej, korzystaj

,

ac z prawdziwo´sci rozwini

,

ecia dla j = n − 1, pokazujemy

podobnie prawdziwo´s´

c rozwini

,

ecia dla j = n − 2, itd., a˙z do j = 1.

9.2.2

Kombinacja liniowa kolumn

Z twierdzenia 9.2 od razu otrzymujemy

det([. . . , ~a, . . . , ~a, . . .]) = 0.

St

,

ad i z liniowo´sci wyznacznika wzgl

,

edem dowolnej kolumny wynika, ˙ze wy-

znacznik nie ulegnie zmianie gdy do kolumny dodamy inn

,

a kolumn

,

e po-

mno˙zon

,

a przez skalar, tzn.

det([~a

1

, . . . , ~a

p−1

, ~a

p

+ ~a

q

∗ m, ~a

p+1

, . . . , ~a

n

])

= det([~a

1

, . . . , ~a

p−1

, ~a

p

, ~a

p+1

, . . . , ~a

n

]).

Uog´

olnieniem ostatniej w lasno´sci jest nast

,

epuj

,

aca.

Twierdzenie 9.4 Je´

sli do p-tej kolumny dodamy kombinacj

,

e liniow

,

a pozo-

sta lych kolumn to wyznacznik macierzy nie ulegnie zmianie, tzn.

det

h

~a

1

, . . . , ~a

p−1

, ~a

p

+

X

j6=p

~a

j

∗ m

j

, ~a

p+1

, . . . , ~a

n

i

= det([~a

1

, . . . , ~a

p−1

, ~a

p

, ~a

p+1

, . . . , ~a

n

]).

background image

9.3. DALSZE W LASNO´

SCI WYZNACZNIK ´

OW

87

Zauwa˙zmy, ˙ze ostatni

,

a r´

owno´s´

c mo˙zna symbolicznie zapisa´

c jako

det(A ∗ (I + ~

m ∗ ~

e

T
p

)) = det(A),

o ile ~

e

T
p

∗ ~

m = 0.

Wniosek 9.1 Je´

sli macierz A jest osobliwa to det(A) = 0.

Dow´

od.

Je´sli A nie jest pe lnego rz

,

edu to jedna z kolumn, powiedzmy p,

jest kombinacj

,

a liniow

,

a pozosta lych kolumn. Odejmuj

,

ac od p-tej kolumny t

,

a

kombinacj

,

e liniow

,

a otrzymujemy macierz A

0

o tym samym wyznaczniku co

A i o zerowej p-tej kolumnie. St

,

ad det(A) = det(A

0

) = 0.

9.3

Dalsze w lasno´

sci wyznacznik´

ow

9.3.1

Wyznacznik iloczynu macierzy

Jak wiemy, ka˙zd

,

a macierz tr´

ojk

,

atn

,

a doln

,

a L ∈ TRIL

n,n

z jedynkami na

g l´

ownej przek

,

atnej mo˙zna przedstawi´

c jako iloczyn

L = I

n

+ ~l

1

∗ ~e

T
1

+ · · · + ~l

n−1

∗ ~e

T
n−1

= (I

n

+ ~l

1

∗ ~e

T
1

) ∗ · · · ∗ (I

n

+ ~l

n−1

~

e

T
n−1

),

gdzie ~l

j

= [0, . . . , 0

|

{z

}

j

, l

j+1,j

, . . . , l

n,j

]

T

, 1 ≤ j ≤ n − 1. Na podstawie twierdzenia

9.4 mamy wi

,

ec, ˙ze

det(A ∗ L) = det(A).

(9.2)

Podobnie, wyznacznik nie ulegnie zmianie gdy macierz pomno˙zymy z prawej
strony przez macierz tr´

ojk

,

atn

,

a g´

orn

,

a z jedynkami na g l´

ownej przek

,

atnej.

Niech teraz W ∈ TRIL

n,n

∪TRIU

n,n

. Je´sli wszystkie wyrazy na przek

,

atnej

s

,

a niezerowe, w

i,i

6= 0, 1 ≤ i ≤ n, to

W = W

1

∗ diag(w

1,1

, . . . , w

n,n

),

gdzie W

1

∈ TRIL

n,n

∪ TRIU

n,n

z jedynkami na g l´

ownej przek

,

atnej. Stosuj

,

ac

kolejno (9.1) i (9.2) (z macierz

,

a odpowiednio tr´

ojk

,

atn

,

a g´

orn

,

a albo tr´

ojk

,

atn

,

a

doln

,

a) dostajemy

det(A ∗ W ) = det(A ∗ W

1

) ·

n

Y

i=1

w

i,i

= det(A) ·

n

Y

i=1

w

i,i

.

(9.3)

Je´sli za´s w

k,k

= 0 dla pewnego k to W jest osobliwa, a st

,

ad osobliwa jest

ownie˙z macierz A ∗ W i r´

ownanie det(A ∗ W ) = det(A) ·

Q

n
i=1

w

i,i

pozostaje

w mocy.

Mo˙zemy teraz pokaza´

c nast

,

epuj

,

ace twierdzenie

background image

88

ROZDZIA L 9. WYZNACZNIK MACIERZY

Twierdzenie 9.5 Dla dowolnych macierzy A, B ∈ K

n,n

det(A ∗ B) = det(A) · det(B).

Dow´

od.

Skorzystamy z twierdzenia, ˙ze dla dowolnej macierzy B istnieje

rozk lad tr´

ojk

,

atno-tr´

ojk

,

atny P ∗ B ∗ Q

T

= L ∗ R, czyli

B = P

T

∗ L ∗ R ∗ Q,

gdzie P = T

1,p(1)

∗ · · · ∗ T

n−1,p(n−1)

i Q = T

1,q(1)

∗ . . . ∗ T

n−1,q(n−1)

s

,

a macierzami

permutacji, L jest tr´

ojk

,

atna dolna z jedynkami na przek

,

atnej, a R tr´

ojk

,

atna

orna. Jasne, ˙ze det(P ) = (−1)

s

, gdzie s jest liczb

,

a w la´sciwych przestawie´

n

w p (tzn. liczb

,

a tych i dla kt´

orych i 6= p(i)), oraz podobnie det Q = (−1)

t

,

gdzie t jest liczb

,

a w la´sciwych przestawie´

n w q. Wykorzystuj

,

ac wielokrotnie

twierdzenie 9.2 oraz wz´

or (9.3) otrzymujemy

det(A ∗ B) = det(A ∗ P

T

∗ L ∗ R) · (−1)

t

= det(A ∗ P

T

∗ L)(−1)

t

·

n

Y

i=1

r

i,i

= det(A ∗ P

T

)(−1)

t

·

n

Y

i=1

r

i,i

= det(A)(−1)

s+t

·

n

Y

i=1

r

i,i

= det(A) ∗ det(B),

co nale˙za lo pokaza´

c.

9.3.2

Wyznacznik macierzy nieosobliwej i transpono-
wanej

Jak zauwa˙zyli´smy wcze´sniej w dowodzie twierdzenia 9.5, rozk lad macierzy
A = P

T

∗ L ∗ R ∗ Q implikuje r´

owno´s´

c

det(A) = (−1)

s+t

·

n

Y

i=1

r

i,i

,

kt´

ora z kolei daje dwa nast

,

epuj

,

ace wa˙zne wnioski.

background image

9.4. DEFINICJA KOMBINATORYCZNA WYZNACZNIKA

89

Wniosek 9.2 Macierz A jest nieosobliwa, tzn. rz(A) = n, wtedy i tylko
wtedy gdy det(A) 6= 0.

Wniosek 9.3 Dla dowolnej macierzy kwadratowej A mamy

det(A

T

) = det(A).

Ostatni wniosek oznacza, ˙ze wszystkie w lasno´sci wyznacznika dotycz

,

ace

kolumn macierzy przys luguj

,

a r´

ownie˙z jej wierszom. W szczeg´

olno´sci, wy-

znacznik mo˙zna rozwija´

c wzgl

,

edem dowolnego wiersza,

det

n

(A) =

n

X

j=1

(−1)

i+j

a

i,j

· det

n−1

(A

i,j

).

9.4

Definicja kombinatoryczna wyznacznika

Ka˙zda macierz permutacji P ∈ K

n,n

mo˙ze by´

c roz lo˙zona na wiele sposob´

ow

na iloczyn transpozycji, np.

P = T

1,i

1

∗ T

2,i

2

∗ · · · ∗ T

n−1,i

n−1

.

(9.4)

Poniewa˙z

det(T

p,q

) =



1,

p = q (transpozycja niew la´sciwa),

−1,

p 6= q (transpozycja w la´sciwa),

to

det(P ) = (−1)

σ(p)

,

gdzie σ(p) = 0 gdy liczba transpozycji w la´sciwych w rozk ladzie (9.4) jest
parzysta, oraz σ(p) = 1 gdy liczba transpozycji w la´sciwych w (9.4) jest
nieparzysta. Pokazali´smy wi

,

ec nast

,

epuj

,

ace twierdzenie.

Twierdzenie 9.6 W rozk ladzie macierzy permutacji na iloczyn transpozycji
liczba transpozycji w la´

sciwych jest zawsze parzysta, albo zawsze nieparzysta.

Parzysto´s´

c lub nieparzysto´s´

c permutacji jest wi

,

ec w lasno´sci

,

a permutacji

(niezale˙zn

,

a od rozk ladu).

background image

90

ROZDZIA L 9. WYZNACZNIK MACIERZY

Definicja Laplace’a wyznacznika jest r´

ownowa˙zna nast

,

epuj

,

acej definicji

kombinatorycznej:

det

n

(A) =

X

p=[p(1),...,p(n)]

(−1)

σ(p)

n

Y

j=1

a

p(j),j

,

albo

det

n

(A) =

X

q=[q(1),...,q(n)]

(−1)

σ(q)

n

Y

i=1

a

i,q(i)

.

Indukcyjny dow´

od r´

ownowa˙zno´sci tych definicji pomijamy. (Tutaj p i q s

,

a

permutacjami ci

,

agu [1, 2, . . . , n], przy czym p ◦ q = q ◦ p = Id = [1, 2, . . . , n].

Wtedy σ(p) = σ(q).)

9.5

Wzory Cramera

Poka˙zemy teraz, ˙ze uk lady r´

owna´

n liniowych mo˙zna, przynajmniej teoretycz-

nie, rozwi

,

azywa´

c za pomoc

,

a liczenia odpowiednich wyznacznik´

ow.

Definicja 9.2 Macierz C(A) := (γ

i,j

) ∈ K

n,n

, gdzie

γ

i,j

= (−1)

i+j

det

n−1

(A

i,j

),

nazywamy macierz

,

a komplementarn

,

a do danej macierzy A ∈ K

n,n

.

Zauwa˙zmy, ˙ze na podstawie rozwini

,

ecia Laplace’a mamy

p

j,k

:=

n

X

i=1

γ

i,j

a

i,k

=

 det

n

(A),

k = j,

0,

k 6= j,

a st

,

ad

P = (p

j,k

)

n
j,k=1

= det

n

(A) ∗ I

n

= (C(A))

T

∗ A.

Zatem je´sli rz(A) = n to

A

−1

=

(C(A))

T

det

n

(A)

=

 (−1)

i+j

det

n−1

(A

j,i

)

det

n

(A)



n

i,j=1

.

background image

9.5. WZORY CRAMERA

91

Rozpatrzmy teraz uk lad r´

owna´

n A ∗ ~

x = ~b z kwadratow

,

a i nieosobliw

,

a

macierz

,

a A ∈ K

n,n

. Wtedy jego rozwi

,

azanie

~

x = (x

j

)

n
j=1

= A

−1

∗ ~b =

(C(A))

T

∗ ~b

det

n

(A)

,

czyli

x

j

=

P

n
i=1

γ

i,j

∗ b

i

det

n

(A)

=

P

n
i=1

(−1)

i+j

det

n−1

(A

i,j

) · b

i

det

n

(A)

,

albo r´

ownowa˙znie

x

j

=

det

n

([~a

1

, . . . , ~a

j−1

,~b, ~a

j+1

, . . . , ~a

n

])

det

n

([~a

1

, . . . , ~a

j−1

, ~a

j

, ~a

j+1

, . . . , ~a

n

])

,

dla 1 ≤ j ≤ n. Ostatnie formu ly zwane s

,

a wzorami Cramera.

Uwaga.

Wzory Cramera maj

,

a dla du˙zych n znaczenie jedynie teoretyczne,

gdy˙z, jak latwo si

,

e przekona´

c, koszt liczenia wyznacznika macierzy wprost

z definicji jest proporcjonalny do n! W takich przypadkach lepiej stosowa´

c

eliminacj

,

e Gaussa, kt´

orej koszt obliczeniowy jest proporcjonalny do n

3

.

background image

92

ROZDZIA L 9. WYZNACZNIK MACIERZY

background image

Rozdzia l 10

Formy dwuliniowe i
kwadratowe

10.1

Formy dwuliniowe

10.1.1

Definicja i przyk lady

Niech X

|K

b

,

edzie przestrzeni

,

a liniow

,

a nad cia lem K, dim(X

|K

) = n.

Definicja 10.1 Przekszta lcenie ϕ : X × X → K nazywamy form

,

a dwuli-

niow

,

a na przestrzeni X

|K

je´

sli

(i) ∀x, y

1

, y

2

∈ X , ∀α

1

, α

2

∈ K

ϕ(x, y

1

∗ α

1

+ y

2

∗ α

2

) = ϕ(x, y

1

) ∗ α

1

+ ϕ(x, y

2

) ∗ α

2

(liniowo´

c ze wzgl

,

edu na drug

,

a zmienn

,

a),

(ii) ∀x, y ∈ X

ϕ(x, y) = ϕ(y, x)

(forma zwyk la)

albo
∀x, y ∈ X

ϕ(x, y) = ϕ(y, x)

(forma hermitowska).

Oczywi´scie, o formach hermitowskich mo˙zemy m´

owi´

c tylko wtedy gdy

K ⊆ C. Dalej, dla uproszczenia, b

,

edziemy rozpatrywa´

c jedynie formy her-

mitowskie.

93

background image

94

ROZDZIA L 10. FORMY DWULINIOWE I KWADRATOWE

Zauwa˙zmy, ˙ze ∀x

1

, x

2

, y ∈ X , ∀β

1

, β

2

∈ K,

ϕ(x

1

∗ β

1

+ x

2

∗ β

2

, y) = ϕ(y, x

1

∗ β

1

+ x

2

∗ β

2

)

= ϕ(y, x

1

) ∗ β

1

+ ϕ(y, x

2

) ∗ β

2

= ϕ(x

1

, y) ∗ β

1

+ ϕ(x

2

, y) ∗ β

2

.

Do´s´

c oczywistym jest fakt, ˙ze zbi´

or wszystkich form dwuliniowych na X

|K

jest przestrzeni

,

a liniow

,

a nad R (ale nie nad C!) z naturalnymi dzia laniami:

(α ∗ ϕ)(x, y) := α ∗ ϕ(x, y),

1

+ ϕ

2

)(x, y) := ϕ

1

(x, y) + ϕ

2

(x, y).

Przyk ladami form dwuliniowych na X

|K

= K

n
|K

(K ⊆ C) s

,

a:

ϕ(~

x, ~

y) =

n

X

i=1

x

i

∗ y

i

∗ ρ

i

,

gdzie ρ

i

∈ R, 1 ≤ i ≤ n,

ϕ(~

x, ~

y) = ~

x

H

∗ A ∗ ~

y,

gdzie A ∈ K

n,n

, A = A

H

,

a na P

n

|R

:

ϕ(p, q) =

n

X

i=1

p

(i)

(t

i

) · q

(i)

(t

i

) · ρ

i

,

ρ

i

∈ R, 1 ≤ i ≤ n,

ϕ(p, q) =

Z

1

0

p(t) · q(t) · ρ(t) dt,

ρ : R → R.

10.1.2

Macierz formy dwuliniowej

Dalej wygodnie nam b

,

edzie rozszerzy´

c dzia lanie danej formy dwuliniowej

ϕ : X × X → K na ϕ : X

1,s

× X

1,t

→ K

s,t

w nast

,

epuj

,

acy spos´

ob. Niech

A = [x

1

, . . . , x

s

] i B = [y

1

, . . . , y

t

]. Wtedy

ϕ(A, B) := (ϕ(x

i

, y

j

))

i,j

∈ K

s,t

.

W szczeg´

olno´sci, macierz ϕ(A, A) = (ϕ(x

i

, x

j

))

i,j

jest kwadratowa i hermi-

towska, ϕ(A, A) ∈ Herm

n,n

. Mamy te˙z

∀ϕ ∀α ∈ R

(α ∗ ϕ)(A, B) = α ∗ ϕ(A, B),

∀ϕ, ψ

(ϕ + ψ)(A, B) = ϕ(A, B) + ψ(A, B).

background image

10.1. FORMY DWULINIOWE

95

Po˙zyteczne b

,

ed

,

a te˙z nast

,

epuj

,

ace wzory rachunkowe:

∀~b ∈ K

t

ϕ(A, B ∗ ~b) = ϕ(A, B) ∗ ~b,

∀~a ∈ K

s

ϕ(A ∗ ~a, B) = ~a

H

∗ ϕ(A, B).

Rzeczywi´scie,

ϕ(A, B ∗ ~b) = ϕ



A,

t

X

j=1

y

j

∗ β

j



=

t

X

j=1

ϕ(A, y

j

) ∗ β

j

= ϕ(A, B) ∗ ~b,

gdzie ~b = [β

1

, . . . , β

t

]

T

, oraz

ϕ(A ∗ ~a, B) = (ϕ(B, A ∗ ~a))

H

= ~a

H

∗ (ϕ(B, A))

H

= ~a

H

∗ ϕ(A, B).

Uog´

olniaj

,

ac te wzory mamy

∀B ∈ K

t,r

ϕ(A, B ∗ B) = ϕ(A, B) ∗ B,

∀A ∈ K

s,r

ϕ(A ∗ A, B) = A

H

∗ ϕ(A, B).

Mamy bowiem

ϕ(A, B ∗ B) = ϕ(A, [B ∗ ~b

1

, . . . , B ∗ ~b

r

])

= [ϕ(A, B ∗ ~b

1

), . . . , ϕ(A, B ∗ ~b

r

)]

= [ϕ(A, B) ∗ ~b

1

, . . . , ϕ(A, B) ∗ ~b

r

]

= ϕ(A, B) ∗ B,

gdzie B = [~b

1

, . . . ,~b

r

], oraz

ϕ(A ∗ A, B) = (ϕ(B, A ∗ A))

H

= (ϕ(B, A) ∗ A)

H

= A

H

∗ (ϕ(B, A))

H

= A

H

∗ ϕ(A, B).

Definicja 10.2 Niech A = [x

1

, . . . , x

n

] b

,

edzie baz

,

a X , a ϕ : X × X → K

form

,

a dwuliniow

,

a na X . Macierz hermitowsk

,

a

Φ

A

:= ϕ(A, A) = (ϕ(x

i

, x

j

))

n
i,j=1

nazywamy macierz

,

a formy ϕ w bazie A.

background image

96

ROZDZIA L 10. FORMY DWULINIOWE I KWADRATOWE

Znaczenie macierzy formy wynika z nast

,

epuj

,

acej r´

owno´sci. Niech x =

A ∗ ~

a i y = A ∗ ~b. Wtedy

ϕ(x, y) = ϕ(A ∗ ~a, A ∗ ~b) = ~a

H

∗ ϕ(A, A) ∗~b

= ~a

H

∗ Φ

A

∗ ~b = (A

−1

· x)

H

∗ Φ

A

∗ (A

−1

· y).

Przy ustalonej bazie A, ka˙zdej formie hermitowskiej ϕ : X × X → K

mo˙zna przyporz

,

adkowa´

c jej macierz Φ

A

= ϕ(A, A), kt´ora jest hermitowska.

Ale te˙z odwrotnie, ka˙zda macierz hermitowska Φ definiuje form

,

e hermitowsk

,

a

zgodnie ze wzorem ϕ(x, y) = (A

−1

· x)

H

∗ Φ ∗ (A

−1

· y). Mamy przy tym,

˙ze je´sli γ = ϕ + ψ to Γ

A

= Φ

A

+ Ψ

A

oraz je´sli γ = α ∗ ϕ, α ∈ R, to

Γ

A

= α ∗ Φ

A

. St

,

ad przestrze´

n wszystkich form hermitowskich nad R jest

izomorficzna z przestrzeni

,

a macierzy hermitowskich nad R. W przypadku

K = C jej wymiar wynosi n

2

.

10.2

Twierdzenie Sylwester’a

Definicja 10.3 Powiemy, ˙ze macierz A ∈ K

n,n

przystaje do macierzy B ∈

K

n,n

gdy istnieje macierz nieosobliwa C ∈ K

n,n

taka, ˙ze

B = C

H

∗ A ∗ C.

Niech A i B b

,

ed

,

a dwiema bazami X

|K

. Niech C = A

−1

· B ∈ K

n,n

b

,

edzie

macierz

,

a zmiany bazy z A na B tak, ˙ze

B = A ∗ C.

Je´sli Φ

A

jest macierz

,

a danej formy ϕ : X × X → K w bazie A to macierz ϕ

w bazie B mo˙zna wyrazi´c wzorem

Φ

B

= ϕ(B, B) = ϕ(A ∗ C, A ∗ C)
= C

H

∗ ϕ(A, A) ∗ C = C

H

∗ Φ

A

∗ C.

St

,

ad, w klasie macierzy hermitowskich Herm

n,n

macierz A przystaje do B

gdy obie s

,

a macierzami tej samej formy (ale by´

c mo˙ze w r´

o˙znych bazach).

Relacja przystawania macierzy jest zwrotna (bo A = I

H

∗ A ∗ I), syme-

tryczna (bo je´sli B = C

H

∗A∗C to A = (C

−1

)

H

∗B∗C

−1

) oraz przechodnia (bo

je´sli A

2

= C

H

1

∗A

1

∗C

1

i A

3

= C

H

2

∗A

2

∗C

2

to A

3

= (C

1

∗C

2

)

H

∗A

1

∗(C

1

∗C

2

)).

background image

10.3. FORMY KWADRATOWE

97

Jest to wi

,

ec relacja r´

ownowa˙zno´sci. A je´sli tak, to zbi´

or wszystkich macierzy

hermitowskich mo˙zna przedstawi´

c jako roz l

,

aczn

,

a sum

,

e macierzy do siebie

wzajemnie przystaj

,

acych (klas abstrakcji relacji przystawania, albo jeszcze

inaczej, macierzy tej samej formy, ale w r´

o˙znych bazach).

Ile jest klas abstrakcji relacji przystawania w klasie macierzy hermitow-

skich? Odpowied´

z daje nat

,

epuj

,

ace twierdzenie, kt´

ore podajemy bez dowodu.

Twierdzenie 10.1 (Sylwester’a)
Dla dowolnej macierzy hermitowskiej A = A

H

∈ K

n,n

istnieje macierz nie-

osobliwa C ∈ K

n,n

taka, ˙ze

C

H

∗ A ∗ C = diag(I

π

, −I

ν

, 0

ξ

),

gdzie wymiary π, ν, ξ (π + ν + ξ = n) s

,

a wyznaczone jednoznacznie.

St

,

ad klas abstrakcji relacji przystawania jest tyle ile macierzy diagonal-

nych z elementami na diagonali kolejno 1, −1, 0, czyli

n

X

k=0

(k + 1) =

(n + 1)(n + 2)

2

.

Z twierdzenia Sylwester’a wynika r´

ownie˙z nast

,

epuj

,

acy wa˙zny wniosek.

Wniosek 10.1 Dla dowolnej formy dwuliniowej ϕ : X × X → K istnieje
baza A w X , w kt´orej forma ma posta´c

ϕ(x, y) =

π

X

k=1

a

k

∗ b

k

π+ν

X

k=π+1

a

k

∗ b

k

,

gdzie x = A ∗ ~a, y = A ∗ ~b.

10.3

Formy kwadratowe

10.3.1

Okre´

slono´

c formy kwadratowej

Ka˙zdej formie dwuliniowej ϕ : X × X → K odpowiada forma kwadratowa
h : X → R zdefiniowana wzorem

h(x) = ϕ(x, x)

x ∈ X .

background image

98

ROZDZIA L 10. FORMY DWULINIOWE I KWADRATOWE

Je´sli dla wszystkich x 6= 0 mamy h(x) = ϕ(x, x) > 0 to form

,

e kwadratow

,

a h

(i odpowiednio form

,

e dwuliniow

,

a ϕ) nazywamy dodatnio okre´

slon

,

a i piszemy

h > 0 (odpowiednio ϕ > 0). Podobnie, forma h jest okre´slona

• ujemnie, gdy h(x) < 0 ∀x 6= 0

(h < 0),

• niedodatnio, gdy h(x) ≤ 0 ∀x

(h ≤ 0),

• nieujemnie, gdy h(x) ≥ 0 ∀x

(h ≥ 0).

We wszystkich pozosta lych przypadkach forma jest nieokre´

slona.

Z r´

owno´sci

h(x) = ~a

H

∗ Φ

A

∗ ~a

(x = A ∗ ~a)

wynika, ˙ze okre´slono´s´

c formy jest taka sama jak okre´slono´s´

c jej macierzy (w

dowolnej bazie!). W szczeg´

olno´sci, stosuj

,

ac notacj

,

e z twierdzenia Sylwester’a

mamy:

h > 0 ⇐⇒ π = n,

h ≥ 0 ⇐⇒ ν = 0,

h < 0 ⇐⇒ ν = n,

h ≤ 0 ⇐⇒ π = 0.

10.3.2

Kryterium Sylwester’a

Twierdzenie 10.2 Niech A = A

H

= (a

i,j

)

n
i,j=1

∈ Herm

n,n

oraz A

(k)

=

(a

i,j

)

k
i,j=1

, 1 ≤ k ≤ n, b

,

ed

,

a odpowiednimi macierzami k

,

atowymi. Wtedy

(i) A jest dodatnio okre´

slona ⇐⇒ det(A

(k)

) > 0 dla 1 ≤ k ≤ n,

(ii) A jest ujemnie okre´

slona ⇐⇒ (−1)

k

· det(A

(k)

) > 0 dla 1 ≤ k ≤ n.

Dow´

od.

Przypomnijmy (twierdzenie 7.5), ˙ze dla macierzy o nieosobliwych

macierzach k

,

atowych (a takimi s

,

a macierze dodatnio/ujemnie okre´slone)

mo˙zna przeprowadzi´

c eliminacj

,

e Gaussa bez przestawie´

n wierszy/kolumn.

Dlatego A mo˙zna przedstawi´

c jako

A = L ∗ R = L ∗ D ∗ L

H

,

gdzie L ∈ TRIL

n,n

, l

i,i

= 1 ∀i, D = diag(r

1,1

, . . . , r

n,n

). Podstawiaj

,

ac ~

y :=

L

H

∗ ~

x, mamy

~

x

H

∗ A ∗ ~

x = ~

x

H

∗ L ∗ D ∗ L

H

∗ ~

x = (L

H

∗ ~

x)

H

∗ D ∗ (L

H

∗ ~

x)

= ~

y

H

∗ D ∗ ~

y =

n

X

i=1

|y

i

|

2

· r

i,i

.

background image

10.3. FORMY KWADRATOWE

99

St

,

ad A > 0 wtedy i tylko wtedy gdy r

i,i

> 0 ∀i, oraz A < 0 wtedy i tylko

wtedy gdy r

i,i

< 0 ∀i.

Dow´

od uzupe lnia spostrze˙zenie, ˙ze

A

(k)

= L

(k)

∗ R

(k)

= L

(k)

∗ D

(k)

∗ (L

(k)

)

H

oraz

det(A

(k)

) = |det(L

(k)

)|

2

· det(D

(k)

) =

k

Y

i=1

r

i,i

.

background image

100

ROZDZIA L 10. FORMY DWULINIOWE I KWADRATOWE

background image

Rozdzia l 11

Przestrzenie Euklidesowe

11.1

Definicja, iloczyn skalarny i norma

Definicja 11.1 Przestrzeni

,

a Euklidesow

,

a nazywamy par

,

e

X

|K

, ϕ

,

gdzie X

|K

jest przestrzeni

,

a liniow

,

a nad K, a ϕ form

,

a dwuliniow

,

a (hermi-

towsk

,

a) dodatnio okre´

slon

,

a na X

|K

, zwan

,

a iloczynem skalarnym.

Dla uproszczenia, b

,

edziemy dalej pisa´

c (x, y) zamiast ϕ(x, y) oraz (A, B)

zamiast ϕ(A, B).

W lasno´sci formy implikuj

,

a nast

,

epuj

,

ace w lasno´sci iloczynu skalarnego:

(1) (x, y

1

∗ α

1

+ y

2

∗ α

2

) = (x, y

1

) ∗ α

1

+ (x, y

2

) ∗ α

2

∀x, y

1

, y

2

∈ X

∀α

1

, α

2

∈ K,

(2) (x, y) = (y, x),

∀x, y ∈ X

(3) (x, x) ≥ 0 ∀x ∈ X , oraz (x, a) = 0 ⇐⇒ x = 0.

Zdefiniujmy γ(x) = (x, x)

1/2

, x ∈ X . Wtedy funkcja γ ma nast

,

epuj

,

ace

w lasno´sci:

(i) γ(x) ≥ 0 ∀x ∈ X , oraz γ(x) = 0 ⇐⇒ x = 0.

(ii) γ(x ∗ α) = γ(x) ∗ |α|

∀x ∈ X ∀α ∈ K,

(iii) γ(x + y) ≤ γ(x) + γ(y)

∀x, y ∈ X .

101

background image

102

ROZDZIA L 11. PRZESTRZENIE EUKLIDESOWE

W lasno´sci (i) oraz (ii) s

,

a oczywiste. Aby pokaza´

c (iii) zauwa˙zmy, ˙ze

γ(x + y)

2

= (x + y, x + y) = (x, x) + (y, x) + (x, y) + (y, y)

= (x, x) + 2 · <(x, y) + (y, y)

oraz

(γ(x) + γ(y))

2

= ((x, x)

1/2

+ (y, y)

1/2

)

2

= (x, x) + 2 · (x, x)

1/2

· (y, y)

1/2

+ (y, y).

W lasno´s´

c (iii) wynika teraz z nier´

owno´sci

<(x, y) ≤ |<(x, y)| ≤ |(x, y)| ≤ (x, x)

1/2

· (y, y)

1/2

,

przy czym ostatnia z nich to nier´

owno´s´

c Schwarza, kt´

or

,

a znamy ju˙z z lematu

3.1. (Co prawda, wtedy rozpatrywany by l szczeg´

olny przypadek X

|K

= K

n
K

i (~

x, ~

y) = ~

y

H

∗ ~

x, ale w og´

olnym przypadku dow´

od jest niemal identyczny.)

W lasno´sci (i)-(iii) s

,

a og´

olnymi warunkami normy w przestrzeni liniowej.

(Wcze´sniej, w rozdziale 3.1 podali´smy te warunki dla szczeg´

olnego przypadku

X = K

m,n

.) St

,

ad

kxk := (x, x)

1/2

definiuje norm

,

e w X

|K

(generowan

,

a przez iloczyn skalarny (·, ·)). Przypo-

mnijmy jeszcze raz nier´

owno´

c Schwarza (w przestrzeni Euklidesowej):

|(x, y)| ≤ kxk · kyk

∀x, y ∈ X .

Dok ladniejsze prze´sledzenie dowodu tej nier´

owno´sci (patrz zn´

ow dow´

od le-

matu 3.1) pokazuje, ˙ze powy˙zej r´

owno´s´

c zachodzi wtedy i tylko wtedy gdy x

i y s

,

a liniowo zale˙zne.

11.2

Rzut prostopad ly

11.2.1

Zadanie aproksymacji

Nast

,

epuj

,

ace twierdzenie rozwi

,

azuje zadanie aproksymacji (przybli˙zania) ele-

ment´

ow przestrzeni X elementami jej podprzestrzeni.

Twierdzenie 11.1 Niech Y ⊆ X b

,

edzie podprzestrzeni

,

a. Wtedy dla ka˙zdego

x ∈ X istnieje dok ladnie jeden x

Y

∈ Y taki, ˙ze dla wszystkich y ∈ Y

y 6= x

Y

=⇒ kx − x

Y

k < kx − yk.

background image

11.2. RZUT PROSTOPAD LY

103

Dow´

od.

Niech s = dim(Y) i Y ∈ X

1,s

b

,

edzie baz

,

a Y. Poka˙zemy, ˙ze x

Y

wyra˙za si

,

e wzorem

x

Y

= Y ∗ ~a

,

gdzie

~a

:= (Y, Y)

−1

∗ (Y, x) ∈ K

s

.

(11.1)

Rzeczywi´scie, je´sli y ∈ Y i y 6= x

Y

to y = Y ∗ ~a dla pewnego ~a 6= ~a

. Wtedy

kx − yk

2

= (x − y, x − y) = ((x − x

Y

) + (x

Y

− y), (x − x

Y

) + (x

Y

− y))

= kx − x

Y

k

2

+ 2 · <(x

Y

− y, x − x

Y

) + kx

Y

− yk

2

.

Wobec tego, ˙ze

(Y, x

Y

) = (Y, Y ∗ ~a

) = (Y, Y) ∗ ~a

= (Y, x),

mamy

(x

Y

− y, x − x

Y

) = (Y ∗ (~a

− ~a), x − x

Y

) = (~a

− ~a)

H

∗ (Y, x − x

Y

) = 0.

St

,

ad

kx − yk

2

= kx − x

Y

k

2

+ kx

Y

− yk

2

> kx − x

Y

k

2

.

Uwaga.

Z jednoznaczno´sci najlepszej aproksymacji wynika, ˙ze x

Y

we wzo-

rze (11.1) nie zale˙zy od wyboru bazy Y. Mo˙zna to r´ownie˙z latwo sprawdzi´c
bezpo´srednio. Je´sli bowiem we´

zmiemy inn

,

a baz

,

e, powiedzmy Z, podprze-

strzeni Y to Y = Z ∗ C dla pewnej nieosobliwej macierzy C, a st

,

ad

Z ∗ (Z, Z)

−1

∗ (Z, x) = Y ∗ C ∗ (Y ∗ C, Y ∗ C)

−1

∗ (Y ∗ C, x)

= Y ∗ C ∗ (C

H

∗ (Y, Y) ∗ C)

−1

∗ C

H

∗ (Y, x)

= Y ∗ (Y, Y)

−1

∗ (Y, x).

11.2.2

Twierdzenie o rzucie prostopad lym

Definicja 11.2 Powiemy, ˙ze dwa elementy x i y danej przestrzeni Euklide-
sowej X

|K

z iloczynem skalarnym (·, ·) s

,

a prostopad le (albo ortogonalne), co

zapisujemy x ⊥ y, gdy ich iloczyn skalarny wynosi zero, tzn.

x ⊥ y ⇐⇒ (x, y) = 0.

background image

104

ROZDZIA L 11. PRZESTRZENIE EUKLIDESOWE

Zauwa˙zmy, ˙ze je´sli wektory x, y ∈ X s

,

a prostopad le, x ⊥ y, to zachodzi

owno´s´

c

kx + yk

2

= kxk

2

+ kyk

2

,

(11.2)

kt´

or

,

a odczytujemy jako (znane ze szko ly w szczeg´

olnym przypadku) twier-

dzenie Pitagorasa. Oczywi´

scie, zachodzi r´

ownie˙z twierdzenie odwrotne,

tzn. r´

owno´s´

c (11.2) implikuje protopad lo´s´

c wektor´

ow x i y.

Najlepsza aproksymacja w podprzestrzeni Y posiada dodatkow

,

a wa˙zn

,

a

w lasno´s´

c zwi

,

azan

,

a z poj

,

eciem prostopad lo´sci.

Twierdzenie 11.2 (o rzucie prostopad lym)
Niech x

Y

b

,

edzie najlepsz

,

a aproksymacj

,

a elementu x ∈ X w podprzestrzeni

Y ⊆ X . Wtedy

(y, x − x

Y

) = 0

∀y ∈ Y

(11.3)

tzn. x − x

Y

jest prostopad ly do podprzestrzeni Y.

Ponadto, x

Y

jest jedynym elementem w Y spe lniaj

,

acym (11.3).

Dow´

od.

Wykorzystuj

,

ac notacj

,

e z dowodu twierdzenia 11.1, dla dowolnego

y ∈ Y mamy

(y, x − x

Y

) = ~a

H

∗ (Y, x − x

Y

) = ~a

H

∗ ~0 = 0.

Je´sli za´s y

0

= Y ∗ ~a

0

i dla ka˙zdego ~a mamy (Y ∗ ~a, x − Y ∗ ~a

0

) = 0, to

(Y, x − Y ∗ ~a

0

) = 0, a st

,

ad

~a

0

= (Y, Y)

−1

∗ (Y, x) = ~a

i y

0

= x

Y

.

Ze wzgl

,

edu na twierdzenie 11.2, element x

Y

najlepszej aproksymacji nazy-

wany jest r´

ownie˙z rzutem prostopad lym (ortogonalnym) elementu x na pod-

przestrze´

n Y.

11.3

Uk lady ortogonalne

11.3.1

Macierz Grama

Definicja 11.3 Niech A = [y

1

, y

2

, . . . , y

s

] ∈ X

1,s

. Macierz

(A, A) ∈ Herm

s,s

nazywamy macierz

,

a Grama uk ladu {y

i

}

s
i=1

.

background image

11.3. UK LADY ORTOGONALNE

105

Wobec r´

owno´sci

~a

H

∗ (A, A) ∗ ~a = (A ∗ ~a, A ∗ ~a) = kA ∗ ~ak

2

≥ 0

mamy natychmiast, ˙ze macierz Grama jest zawsze nieujemnie okre´slona. Po-
nadto, jest ona dodatnio okre´slona wtedy i tylko wtedy gdy uk lad {y

i

}

s
i=1

jest liniowo niezale˙zny.

Je´sli (A, A) = diag(δ

1

, . . . , δ

s

), przy czym δ

i

= (y

i

, y

i

) > 0 ∀i to uk lad

{y

i

}

s
i=1

nazywamy ortogonalnym. Je´sli ponadto (y

i

, y

i

) = 1 ∀i, czyli gdy

(A, A) = I

s

, to uk lad ten nazywamy ortonormalnym.

Za l´

o˙zmy teraz, ˙ze uk lad Y = [y

1

, . . . , y

s

] jest liniowo niezale˙zny, oraz niech

Y = span(y

1

, y

2

, . . . , y

s

).

Wtedy, jak wiemy z twierdzenia 11.1, rzut prostopad ly x ∈ X na podprze-
strze´

n Y wyra˙za si

,

e wzorem

x

Y

= Y ∗ (Y, Y)

−1

∗ (Y, x).

Wz´

or ten ma szczeg´

olnie prost

,

a posta´

c gdy baza Y tworzy uk lad ortogonalny.

Wtedy

x

Y

=

s

X

i=1

y

i

(y

i

, x)

(y

i

, y

i

)

.

Je´sli za´s baza tworzy uk lad ortonormalny to

x

Y

=

s

X

i=1

y

i

∗ (y

i

, x).

Z tych wzgl

,

ed´

ow po˙z

,

adane jest posiadanie baz ortogonalnych podprzestrzeni.

11.3.2

Ortogonalizacja Grama-Schmidta

Okazuje si

,

e, ˙ze dowoln

,

a baz

,

e podprzestrzeni mo˙zna stosunkowo latwo prze-

kszta lci´

c w baz

,

e ortogonaln

,

a.

S lu˙zy temu proces zwany ortogonalizacj

,

a

Grama-Schmidta.

Niech y

1

, y

2

, . . . , y

s

b

,

ed

,

a liniowo niezale˙zne oraz

Y

k

:= [y

1

, . . . , y

k

],

Y

k

= span(y

1

, . . . , y

k

),

1 ≤ k ≤ s.

Oczywi´scie dim(Y

k

) = k ∀k oraz

Y

1

⊂ Y

2

⊂ · · · ⊂ Y

s

⊆ X .

background image

106

ROZDZIA L 11. PRZESTRZENIE EUKLIDESOWE

Twierdzenie 11.3 (Ortogonalizacja Grama-Schmidta)
Nast

,

epuj

,

acy proces:

{ z

1

:= y

1

;

for k := 2 to s do

z

k

:= y

k

− h rzut prostopad ly y

k

na Y

k−1

i

}

produkuje uk lady ortogonalne Z

k

= [z

1

, . . . , z

k

] takie, ˙ze

span(z

1

, z

2

, . . . , z

k

) = Y

k

,

1 ≤ k ≤ s.

Dow´

od.

(Indukcja wzgl

,

edem k.)

Dla k = 1 twierdzenie jest oczywiste. Niech k ≥ 2. Wtedy, wobec za lo˙zenia
indukcyjnego, mamy Y

k−1

= span(z

1

, . . . , z

k−1

) oraz uk lad {z

i

}

k−1
i=1

jest or-

togonalny. Je´sli teraz r

k

jest rzutem ortogonalnym y

k

na Y

k−1

to z twier-

dzenia o rzucie ortogonalnym mamy, ˙ze z

k

= y

k

− r

k

6= 0 jest prostopad ly

do Y

k−1

, a st

,

ad uk lad {z

i

}

k
i=1

jest te˙z ortogonalny. Oczywi´scie, przy tym

span(z

1

, . . . , z

k

) = Y

k

, co ko´

nczy dow´

od.

Ortogonalizacj

,

e Grama-Schmidta mo˙zemy zapisa´

c jako algorytm gene-

ruj

,

acy uk lad {z

i

}

s
i=1

z uk ladu {y

i

}

s
i=1

, w nast

,

epuj

,

acy spos´

ob:

{

z

1

:= y

1

;

δ

1

:= (z

1

, z

1

);

for k := 2 to s do
{ for j := 1 to k − 1 do c

j,k

:= (z

j

, y

k

)/δ

j

;

z

k

:= y

k

P

k−1
j=1

z

j

∗ c

j,k

;

δ

k

:= (z

k

, z

k

)

}

}

Algorytm ten produkuje “po drodze” wsp´

o lczynniki c

j,k

dla 2 ≤ k ≤ s,

1 ≤ j ≤ k − 1. Je´sli dodatkowo zdefiniujemy c

k,k

= 1 dla 1 ≤ k ≤ s, oraz

c

j,k

= 0 dla 1 ≤ k ≤ s − 1, k + 1 ≤ j ≤ s, to dostaniemy

y

k

=

k

X

j=1

c

j,k

∗ z

j

,

czyli

Y

k

= Z

k

∗ C

k

,

gdzie

C

k

= (c

i,j

)

k
i,j=1

,

background image

11.3. UK LADY ORTOGONALNE

107

albo, po normalizacji bazy z

1

, . . . , z

s

,

Y

k

= ˆ

Z

k

∗ ˆ

C

k

,

gdzie ˆ

Z

k

= Z ∗ D

−1

k

, ˆ

C

k

= D

k

∗ C

k

, D

k

= diag(δ

1/2

1

, . . . , δ

1/2

k

).

Zauwa˙zmy, ˙ze macierze C

k

i ˆ

C

k

s

,

a tr´

ojk

,

atne g´

orne.

11.3.3

Rozk lad ortogonalno-tr´

ojk

,

atny macierzy

Wa˙znym przypadkiem szczeg´

olnym jest X

|K

= K

n
|K

, K ⊆ C, ze “zwyk lym”

iloczynem skalarnym (~

x, ~

y) = ~

y

H

∗ ~

x. Niech

A = [~a

1

, . . . , ~a

n

] ∈ K

m,n

,

gdzie

rank(A) = n ≤ m,

tzn. kolumny macierzy s

,

a liniowo niezale˙zne. Wtedy, przeprowadzaj

,

ac orto-

normalizacj

,

e (czyli ortogonalizacj

,

e, a nast

,

epnie normalizacj

,

e) kolumn macie-

rzy A otrzymujemy macierz Q ∈ K

m,n

, Q = [~

q

1

, . . . , ~

q

n

], kt´

orej kolumny ~

q

j

tworz

,

a uk lad ortonormalny,

Q

H

∗ Q = I

n

,

oraz macierz tr´

ojk

,

atn

,

a g´

orn

,

a R ∈ TRIU

n,n

takie, ˙ze

A = Q ∗ R.

Jest to rozk lad ortogonalno-tr´

ojk

,

atny macierzy.


Wyszukiwarka

Podobne podstrony:
Algebra liniowa i geometria kolokwia AGH 2012 13
ALGEBRA LINIOWA Z ELEMENTAMI GEOMETRII[ok]
,algebra liniowa z geometrią analityczną, PRZYKŁADY FUNKCJONAŁÓW DWULINIOWYCH zadania
ALGEBRA LINIOWA Z ELEMENTAMI GEOMETRII[ok]
Zadania na 2 kolokwium z algebry, Biotechnologia, SEMESTR 1, Algebra liniowa z geometrią analityczną
Opis1, Semestr 1, Algebra liniowa z elementami geometrii, Dokumenty na temat rozwiązywania równań li
,algebra liniowa z geometrią analityczną , GEOMETRIA PRZESTRZENI EUKLIDESOWYCH zadania
,algebra liniowa z geometrią analityczną, PRZESTRZENIE I PRZEKSZTAŁCENIA LINIOWE zadania
sciaga geometria, nauka, matematyka, algebra liniowa
,algebra liniowa z geometrią analityczną, PRZESTRZENIE I PRZEKSZTAŁCENIA LINIOWE zadania
Algebra liniowa z geometrią K Tartas, W Bołt
Algebra Roszkowska, ZAGADNIENIA NA EGZAMIN Z AL, Tematy przygotowawcze do egzaminu z Algebry Liniow
,algebra liniowa z geometrią analityczną, działania na macierzach
Elementy algebry liniowej z geometrią analityczną dla informatyków
M Szyjewski Algebra liniowa i geometria 1
Algebra liniowa i geometria kolokwia AGH 2012 13

więcej podobnych podstron