Lasy Skierowane i Algorytmy Zwiazane z Lancuchami Markowa 97 Pokarowski PhD p147

background image

Piotr Pokarowski

Lasy skierowane i algorytmy

zwi¸

azane z la´

ncuchami Markowa

Praca doktorska napisana pod kierunkiem

doc. dra hab. Les lawa Gajka

Instytut Matematyczny

Polskiej Akademii Nauk

Warszawa 1997

background image

Spis tre´sci

1. Wst¸ep . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2. Lasy skierowane i la´

ncuchy Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2.1. Podstawowe definicje i stwierdzenia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2. Rozwini¸ecia w lasy skierowane dla dope lnie´

n algebraicznych laplasjanu . . . . . . . . . 18

2.3. Rozwini¸ecia w lasy skierowane dla rozk ladu stacjonarnego i macierzy granicznej

la´

ncucha Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .23

2.4. Rozwini¸ecia w lasy skierowane dla innych charakterystyk la´

ncuch´

ow Markowa . 31

2.5. Rozwini¸ecia w lasy skierowane a warto´sci w lasne laplasjanu Markowa . . . . . . . . . . 35

3. Algorytmy dla uk lad´

ow r´

owna´

n liniowych zwi¸azanych z la´

ncuchami Markowa . . . . . . . 40

3.1. Wzgl¸ednie zaburzone la´

ncuchy Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

3.2. Algorytmy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.3. Analiza algorytm´

ow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

4. Algorytmy dla pot¸egowo zaburzonych la´

ncuch´

ow Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . 64

4.1. Pot¸egowo zaburzone la´

ncuchy Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .64

4.2. Algorytmy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3. Analiza algorytm´

ow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

5. Algorytmy Monte Carlo generuj¸ace la´

ncuchy Markowa dla ca lkowania . . . . . . . . . . . . . . . 99

5.1. Oszacowania b l¸edu estymacji ca lki wzgl¸edem rozk ladu stacjonarnego dla odwracal-

nych la´

ncuch´

ow Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .99

5.2. Oszacowania b l¸edu estymacji ca lki dla Θ-pot¸egowo zaburzonych, odwracalnych

la´

ncuch´

ow Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

5.3. Oszacowania b l¸edu dla algorytm´

ow Metropolisa–Hastingsa oraz pr´obnika Gibbsa

106

6. Algorytmy Monte Carlo generuj¸ace la´

ncuchy Markowa dla poszukiwania minimum glo-

balnego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

6.1. Niejednorodne la´

ncuchy Markowa. Podstawowe definicje i stwierdzenia . . . . . . . 112

6.2. Klasy powracaj¸ace niejednorodnych la´

ncuch´

ow Markowa z pot¸egowo znikaj¸acymi

przej´sciami . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

6.3. Osi¸agalno´s´c globalnego minimum z prawdopodobie´

nstwem 1 przez Simulated An-

nealing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

Literatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134

Dodatek . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

background image

3

1. Wst¸ep.

1.1. Praca jest po´swi¸econa problemom obliczeniowym zwi¸azanym z la´

ncuchami

Markowa ( LM) o sko´

nczonej przestrzeni stan´ow. W rozdziale 2., za pomoc¸a pew-

nych kombinatorycznych struktur — las´ow skierowanych, przedstawiam wzory i
oszacowania dla takich charakterystyk LM, jak rozk lad stacjonarny, macierz granicz-
na, ´sredni czas doj´scia do zbioru stan´ow R, czy warto´sci w lasne macierzy przej´scia
(generatora). Wzory te i oszacowania maj¸a posta´c funkcji wymiernych, kt´orych
argumentami s¸a elementy macierzy przej´scia lub generatora. Wykorzystuj¸e je do
analizy poprawno´sci, kosztu czasowego i dok ladno´sci czterech grup algorytm´ow:

(1) algorytm´ow numerycznych dla charakterystyk LM, kt´ore s¸a rozwi¸azaniami

uk lad´ow r´owna´

n liniowych (rozdzia l 3.);

(2) algorytm´ow numeryczno–kombinatorycznych dla pierwszego wyrazu rozwi-

ni¸ecia charakterystyk LM zaburzonych pot¸egowo (rozdzia l 4.);

(3) algorytm´ow Monte Carlo generuj¸acych LM dla ca lkowania funkcji na zbiorze

sko´

nczonym, takich jak np. algorytm Metropolisa czy pr´obnik Gibbsa (roz-

dzia l 5.);

(4) algorytm´ow Monte Carlo generuj¸acych niejednorodne LM dla poszukiwania

minimum funkcji na zbiorze sko´

nczonym, takich jak np. algorytm Simulated

Annealing (rozdzia l 6.).

Zwi¸azki la´

ncuch´ow Markowa i problem´ow obliczeniowych rozwa˙zanych w tej

pracy s¸a dw´och rodzaj´ow:

— albo punktem wyj´scia jest model matematyczny opisany przez LM o zadanej

macierzy przej´scia czy generatorze (tak jest w rozdzia lach 3. i 4.), natomiast
celem jest obliczenie pewnej charakterystyki tego modelu

— albo przeciwnie, punktem wyj´scia jest pewien problem obliczeniowy (w roz-

dziale 5. — ca lkowanie, w rozdziale 6. — optymalizacja), natomiast celem
jest analiza algorytm´ow rozwi¸azuj¸acych ten problem, modelowanych za po-
moc¸a LM .

1.2. Dla bardziej precyzyjnego opisu tre´sci pracy konieczne b¸ed¸a nast¸epuj¸ace
definicje.

background image

4

Niech S b¸edzie ustalonym, niepustym zbiorem sko´

nczonym oraz E

⊆ S × S.

Za l´o˙zmy dla wygody, ˙ze S =

{1, 2, . . . , s}. Par¸e g := (S, E) nazywa´c b¸edziemy

grafem skierowanym o zbiorze wierzcho lk´ow (stan´ow) S i zbiorze kraw¸edzi E.

Podgrafem g

1

grafu g nazywa´c b¸edziemy par¸e (S

1

, E

1

) tak¸a, ˙ze S

1

⊆ S oraz E

1

E

∩ (S

1

× S

1

). Je´sli S

1

= S to podgraf g

1

grafu g nazywa´c b¸edziemy rozpinaj¸acym.

B¸edziemy m´owi´c, ˙ze istnieje droga ze stanu i do j, je˙zeli i = j lub istnieje liczba

n

≥ 2 oraz ci¸ag stan´ow i = i

1

, i

2

, . . . , i

n

= j taki, ˙ze i

k

∈ S oraz (i

k

, i

k+1

)

∈ E dla

k = 1, . . . , n

− 1. Cyklem nazywa´c b¸edziemy drog¸e z danego stanu do tego samego

stanu.

Lasem skierowanym rozpinaj¸acym w g, lub po prostu lasem, nazywa´c b¸edziemy

podgraf skierowany bez cykli f := (S, E

f

) grafu g, w kt´orym z ka˙zdego wierzcho lka

wychodzi co najwy˙zej jedna kraw¸ed´z. Zbi´or wierzcho lk´ow R

⊆ S, z kt´orych nie

wychodzi ˙zadna kraw¸ed´z lasu f nazywa´c b¸edziemy korzeniem f . Rysunek 1.1.1
w Dodatku przedstawia pewien graf skierowany g. Stany s¸a reprezentowane jako
k´o lka, natomiast kraw¸edzie jako strza lki. Rysunek 1.1.2 przedstawia las skierowany
o korzeniu R w grafie g.

Niech A = (a

ij

)

i,j∈S

b¸edzie macierz¸a kwadratow¸a wymiaru s

× s (s ≥ 2) nad

cia lem liczb zespolonych C. Grafem skierowanym wa˙zonym, indukowanym przez A,
nazywa´c b¸edziemy macierz A wraz z grafem g(A) := (S, E), gdzie E =

{(i, j) ∈

S

× S : a

ij

6= 0}. Wag¸a multiplikatywn¸a lasu f = (S, E

f

), w grafie g(A), nazywa´c

b¸edziemy liczb¸e

w(f ) :=

Y

(i,j)∈E

f

(

−a

ij

) (przyjmiemy w((S,

∅)) := 1).

Wag¸a zbioru las´ow F , w grafie g(A), nazywa´c b¸edziemy liczb¸e

w(F ) :=

X

f ∈F

w(f ) (przyjmiemy w(

∅) := 0).

Laplasjanem nazywa´c b¸edziemy dowoln¸a macierz L := (l

ij

)

s
i,j=1

nad cia lem C

tak¸a, ˙ze l

ii

=

P

j: j6=i

l

ij

dla i = 1, . . . , s. Dla ustalonego R

⊆ S, L(R


R) oznacza´c

b¸edzie macierz powsta l¸a z L przez usuni¸ecie wierszy i kolumn o indeksach nale˙z¸acych
do R.

Niech dana b¸edzie przestrze´

n probabilistyczna (Ω,

F, Pr) oraz la´ncuch Markowa

( LM) X = (X

t

)

t∈T

okre´slony na (Ω,

F) o przestrzeni stan´ow S. W przypadku czasu

dyskretnego (T

⊆ N), la´ncuchy Markowa wprowadza si¸e najcz¸e´sciej za pomoc¸a

background image

5

macierzy przej´scia P = (p

ij

)

i,j∈S

, natomiast w przypadku czasu ci¸ag lego (T

⊆ R

+

)

— za pomoc¸a generatora Q = (q

ij

)

i,j∈S

. Niech I

s

oznacza macierz jednostkow¸a

rz¸edu s

× s. Latwo zauwa˙zy´c, ˙ze macierze L(P) = I

s

− P oraz L(Q) = −Q s¸a

laplasjanami. Wiele z podanych dalej fakt´ow nie zale˙zy od tego, czy czas jest ci¸ag ly
czy dyskretny, dlatego te˙z dla jednolito´sci rozwa˙za´

n la´

ncuch Markowa b¸edziemy

wprowadza´c za pomoc¸a laplasjanu Markowa, tzn. laplasjanu, kt´orego elementy
niediagonalne s¸a rzeczywiste i niedodatnie.

1.3. W rozdziale 2., w lematach 2.2 i 2.3 podaj¸e nast¸epuj¸ace rozwini¸ecia w lasy
skierowane dla wyznacznika oraz dla wyraz´ow macierzy odwrotnej do macierzy
L(R


R):

det L(R


R) = w(F (R)) oraz

L(R


R)

−1

=

 w(F

ij

(R, j))

w(F (R))



i,j∈S

,

gdzie F (R) jest zbiorem las´ow w grafie g(L) o korzeniu R oraz F

ij

(R, j) — zbiorem

las´ow w grafie g(L) o korzeniu R

∪ {j}, w kt´orych istnieje droga ze stanu i do stanu

j. W dowodzie wykorzystuj¸e og´oln¸a wersj¸e tzw. “Matrix–tree theorem” ([Cha],
[Che, problem 4.16]).

Za pomoc¸a lematu 2.2 dowodz¸e znane twierdzenia przedstawiaj¸ace charakterysty-

ki LM jako rozwi¸azania uk lad´ow r´owna´

n liniowych (twierdzenie 2.1 (1), twierdzenie

2.1 (2) (b) i (c), twierdzenie 2.2, twierdzenie 2.5, wniosek 2.4). Podane dowody
s¸a inne od dowod´ow znanych w literaturze, poniewa˙z nie korzysta lem w nich z
argument´ow analitycznych (twierdzenie Perrona–Frobeniusa, lemat von Neumanna,
redukcja do przypadku la´

ncucha poch laniaj¸acego lub teoria uog´olnionej odwrotno´sci

— patrz np. [KeSn 1–2], [Mey], [IsMa], [Se], [Io], [Pu]). Lemat 2.2 wykorzystuj¸e
ponadto do oszacowania warto´sci w lasnych laplasjanu Markowa (twierdzenia 2.6 i
2.7).

Z lematu 2.3 otrzymuj¸e w prosty spos´ob rozwini¸ecia w lasy skierowane dla charak-

terystyk LM, kt´ore s¸a rozwi¸azaniami uk lad´ow r´owna´

n liniowych zwi¸azanych z pod-

macierzami L(R


R) laplasjanu Markowa L.

Niekt´ore rozwini¸ecia w lasy skierowane by ly ju˙z znane — nowe s¸a tylko dowody.

Tak jest dla rozk ladu stacjonarnego (twierdzenie 2.1 (2) (a) — patrz np. [Al 3],
[FrWe 1–2]), ´sredniego czasu doj´scia do ustalonego zbioru stan´ow R (twierdzenie

background image

6

2.4 (3) — patrz [FrWe 1–2]), czy rozk ladu prawdopodobie´

nstwa w chwili doj´scia

do zbioru R (twierdzenie 2.4 (2) — patrz [FrWe 1–2]). Z kolei rozwini¸ecia w lasy
skierowane dla macierzy granicznej (twierdzenie 2.3) s¸a lepsze od rozwini¸e´c znanych
w literaturze (patrz np. [LeRi 1–2], [AnTs]). Natomiast pozosta le rozwini¸ecia
(twierdzenie 2.4 (1) i (3)) wydaj¸a si¸e by´c wcze´sniej nieznane.

W dalszej cz¸e´sci pracy wykorzystuj¸e rozwini¸ecia w lasy skierowane do konstrukcji

i analizy algorytm´ow obliczaj¸acych charakterystyki LM. Idea jest nast¸epuj¸aca.
Korzystaj¸ac ze wzor´ow Cramera mo˙zna przedstawi´c rozwi¸azanie uk ladu r´owna´

n

liniowych w postaci ilorazu wyznacznik´ow.

Mo˙zna by nast¸epnie rozwija´c wy-

znaczniki (z definicji) w sumy po permutacjach. W ten spos´ob otrzymaliby´smy
bezpo´srednie wzory na rozwi¸azanie uk ladu r´owna´

n liniowych, ale by lyby to wzory

z wieloma “plusami” i “minusami”. Rozwini¸ecia w lasy skierowane dla dowolnego
rozwi¸azania uk ladu r´owna´

n liniowych zwi¸azanego z podmacierzami g l´ownymi laplas-

janu Markowa nie maj¸a “minus´ow” wcale albo maj¸a ich niewiele. Dlatego lepiej
nadaj¸a si¸e do r´o˙znego rodzaju oblicze´

n i oszacowa´

n.

Rozwini¸ecia w lasy skierowane jako metoda oszacowa´

n by ly ju˙z wcze´sniej u˙zywane

(np. [BoMa], [Ta], [FrWe 1–2], [We], [Se], [Tw], [HwSh 1–2], [ChiCho 1–4], [Ca],
[DeKuKu]) — nowa jest og´olno´s´c rozwa˙za´

n i zakres zastosowa´

n metody.

1.4. W rozdziale 3., w twierdzeniu 3.1 wykorzystuj¸e lemat 2.3 do oszacowa-
nia wp lywu zaburzenia (wywo lanego reprezentacj¸a zmiennoprzecinkow¸a) laplasjanu
Markowa L i nieujemnego wektora b = (b

k

)

k∈S\R

na rozwi¸azanie uk ladu r´owna´

n

liniowych postaci

L(R


R)x = b

(1.1)

lub

L

T

(R


R)x = b

(1.2)

Dzi¸eki temu mog¸e oszacowa´c wp lyw zaburzenia laplasjanu Markowa na charaktery-
styki LM.

W dalszej kolejno´sci przedstawiam algorytmy 3.1 i 3.2 rozwi¸azuj¸ace uk lady (1.1)

i (1.2). S¸a to uog´olnienia wariant´ow metody eliminacji Gaussa, skonstruowanych
odpowiednio dla:

background image

7

— obliczania rozk ladu stacjonarnego LM o nieprzywiedlnej macierzy przej´scia

(Grassmann, Taksar i Heyman [GrTaHe]) oraz

— obliczania ´sredniego czasu doj´scia do ustalonego zbioru stan´ow R

⊆ S (Hey-

man i Reeves [HeRe]).

Algorytmy 3.1 i 3.2 nie wykonuj¸a odejmowania, dlatego te˙z s¸a dok ladniejsze od
metody eliminacji Gaussa. Na ko´

ncu rozdzia lu 3. (twierdzenie 3.5) podaj¸e osza-

cowania wzgl¸ednego b l¸edu rozwi¸azania (entrywise relative error) algorytm´ow 3.1 i
3.2.

Szczeg´olnym przypadkiem mojego wyniku jest oszacowanie wzgl¸ednego b l¸edu

rozwi¸azania dla algorytmu Grassmanna, Taksara i Heymana podane przez O’Cin-
neide’a [O’C 1].

Powodem zainteresowania algorytmami rozwa˙zanymi w tej cz¸e´sci pracy s¸a wyma-

gania du˙zej dok ladno´sci, stawiane programom komputerowym, kt´ore automatycznie
projektuj¸a i analizuj¸a modele kolejkowe wyst¸epuj¸ace w informatyce i telekomunikacji
(patrz np. [HeRe], [Gr], [O’C 1]).

1.5. W rozdziale 4. rozwa˙zam rodzin¸e pot¸egowo zaburzonych laplasjan´ow Mar-
kowa L(ε) i wektor´ow nieujemnych b(ε), ε

∈ (0, ε

1

), wyznaczon¸a przez macierz

∆ = (δ

ij

)

i,j∈S

, gdzie δ

ij

6= 0 dla i, j ∈ S, macierz D = (d

ij

)

i,j∈S

, zbi´or R

⊂ S oraz

wektory ζ = (ζ

k

)

k∈S\R

, z = (z

k

)

k∈S\R

spe lniaj¸ace nast¸epuj¸acy warunek:

dla dowolnych i, j

∈ S, i 6= j, k ∈ S \ R

− l

ij

(ε) = δ

ij

ε

d

ij

+ o(ε

d

ij

) oraz

(1.3)

b

k

(ε) = ζ

k

ε

z

k

+ o(ε

z

k

),

przy ε

→ 0.

1

)

Rodzina ta zawiera, wyst¸epuj¸ac¸a cz¸esto w literaturze, rodzin¸e liniowo zaburzonych

LM, tj. rodzin¸e, kt´orej elementy s¸a postaci

L(ε) = L

0

+ εL

1

oraz b(ε) = b

0

+ εb

1

,

gdzie L

0

i L

1

s¸a laplasjanami Markowa oraz b

0

i b

1

— nieujemnymi wektorami

s

− |R| wyrazowymi.

1

) Je˙zeli dla dostatecznie ma lych ε, l

ij

(ε) = 0 (odpowiednio b

k

(ε) = 0), to przyjmiemy dla

jednolito´sci rozwa˙za´

n δ

ij

:= 0, d

ij

:=

∞ (odpowiednio ζ

k

:= 0, z

k

:=

∞).

background image

8

Z lematu 2.3 wynika, ˙ze istniej¸a wektory α := (α

k

)

k∈S\R

oraz a := (a

k

)

k∈S\R

takie, ˙ze rozwi¸azanie x(ε) := (x

k

(ε))

k∈S\R

zaburzonego uk ladu r´owna´

n

L(R


R)(ε)x(ε) = b(ε) lub L

T

(R


R)(ε)x(ε) = b(ε)

jest postaci

x

k

(ε) = α

k

ε

a

k

+ o(ε

a

k

),

przy ε

→ 0, k ∈ S \ R.

G l´ownym rezultatem tego rozdzia lu jest podanie algorytm´ow obliczaj¸acych efek-

tywnie i dok ladnie wektory α oraz a za pomoc¸a parametr´ow ∆, D, ζ, z (algorytmy
4.1–4.7). Algorytmy 4.1 i 4.2 s¸a uog´olnieniami algorytm´ow 3.1 i 3.2. Algorytmy
4.3–4.6 grupuj¸a iteracyjnie stany LM nale˙z¸ace do tej samej klasy zamkni¸etej w
pewnych grafach zale˙znych od D, a nast¸epnie rozwi¸azuj¸a uk lady r´owna´

n liniowych

ograniczone do poszczeg´olnych klas. W dowodach poprawno´sci tych algorytm´ow
wykorzystuj¸e lemat 2.3. Najbardziej z lo˙zonym algorytmem w tej pracy jest algo-
rytm 4.7, kt´ory wykorzystuje jako procedury algorytmy rozwa˙zane poprzednio do
obliczania wsp´o lczynnik´ow pierwszego wyrazu rozwini¸ecia macierzy granicznej.

Wyniki tej cz¸e´sci pracy s¸a uog´olnieniem i rozwini¸eciem rezultat´ow:

— Schweitzera [Sch 1–3], gdzie podano algorytm dla kolejnych wyraz´ow rozwi-

ni¸ecia rozk ladu stacjonarnego liniowo zaburzonego nieprzywiedlnego LM,

— Hassima i Haviva [HasHav], gdzie podano algorytm dla rz¸ed´ow wielko´sci

´srednich czas´ow przej´scia mi¸edzy stanami w przypadku liniowo zaburzonej,

nieprzywiedlnej macierzy przej´scia,

— Desai i Kumar´ow [DeKuKu], gdzie podano algorytm dla rz¸ed´ow wielko´sci

rozk ladu stacjonarnego pewnych la´

ncuch´ow Markowa zaburzonych pot¸ego-

wo.

Motywacj¸a dla rozwa˙za´

n w tej cz¸e´sci pracy s¸a m.in.:

— potrzeby przybli˙zonego obliczania charakterystyk LM zadanych przez du˙ze,

rozrzedzone macierze przej´scia (generatory), kt´orych elementy maj¸a zr´o˙zni-
cowane rz¸edy wielko´sci, oraz

— potrzeby analizy modeli markowowskich w zale˙zno´sci od pewnego parametru

(patrz np. [Sch 1–3], [HasHav], [HavRi], [BiFi], [BiSt], [RoWi 1–2]).

background image

9

1.6. W dw´och ostatnich rozdzia lach analizuj¸e asymptotyczne zachowanie algo-
rytm´ow adaptacyjnych Monte Carlo dla ca lkowania i poszukiwania minimum funkcji
okre´slonej na zbiorze sko´

nczonym. Algorytmy takie generuj¸a LM, czyli b l¸adzenie

losowe po dziedzinie funkcji zale˙zne od jej warto´sci.

Na wst¸epie rozdzia lu 5. (wniosek 5.1, stwierdzenia 5.1–5.2) szacuj¸e b l¸ad estymacji

ca lki dowolnej funkcji f : S

→ R wzgl¸edem rozk ladu stacjonarnego π = (π

i

)

i∈S

odwracalnego la´

ncucha Markowa za pomoc¸a ´sredniej po trajektorii

¯

f

t

(ω) :=

1

t

t−1

X

j=0

f (X

j

(ω)), ω

∈ Ω.

Z kolei rozwa˙zam rodzin¸e odwracalnych laplasjan´ow Markowa z czasem dyskret-

nym

{L(ε), ε ∈ (0, ε

1

)

}, indukowan¸a przez tak¸a macierz D = (d

ij

)

i,j∈S

, ˙ze dla

i, j

∈ S, i 6= j,

− l

ij

(ε) = Θ(ε

d

ij

) przy ε

→ 0.

(1.4)

W twierdzeniu 5.2 dowodz¸e, ˙ze warto´sci w lasne laplasjan´ow z rodziny (1.4) spe lniaj¸a
asymptotyczne r´owno´sci

λ

k

(ε) = Θ(ε

v

k

(D)

) przy ε

→ 0,

gdzie k = 2, . . . , s oraz sta le v

k

(D) wyra˙zaj¸a si¸e za pomoc¸a rozwini¸e´c w lasy

skierowane. W dowodzie korzystam z oszacowa´

n warto´sci w lasnych podanych w

twierdzeniu 2.6.

Oba powy˙zsze wyniki wykorzystuj¸e do oszacowania b l¸edu estymacji ca lki wzgl¸e-

dem rozk ladu stacjonarnego laplasjan´ow z rodziny (1.4) za pomoc¸a ´sredniej po
trajektorii ¯

f

ε

t

(twierdzenie 5.3), np. b l¸ad L

p

jest rz¸edu

O(ε

−v

2

(D)/2

),

przy ε

→ 0,

oraz rz¸edu

O(t

−1/2

),

przy t

→ ∞.

W ostatniej cz¸e´sci rozdzia lu 5. wykorzystuj¸e twierdzenie 5.3 do analizy b l¸edu algo-

rytm´ow Monte Carlo dla ca lkowania funkcji. Ponadto pokazuj¸e, ˙ze w du˙zej rodzinie
odwracalnych LM, zawieraj¸acej m.in.

algorytm Metropolisa, algorytm Barkera

i pr´obnik Gibbsa, ka˙zdy parametr v

k

(D) jest sta ly. Algorytmy te s¸a u˙zywane

od ponad 40 lat do estymacji globalnych charakterystyk w modelach mechaniki

background image

10

statystycznej (patrz np. [Me et al.], [So], [Gi], [Wel]). Moje wyniki potwierdzaj¸a
do´swiadczenie numeryczne wskazuj¸ace na podobn¸a efektywno´s´c powy˙zszych algo-
rytm´ow w granicy niskich temperatur (ε

→ 0).

Rezultaty tego rozdzia lu s¸a uog´olnieniem wynik´ow Ingrassi [In], gdzie oszacowano

drug¸a warto´s´c w lasn¸a dla algorytmu Metropolisa i pr´obnika Gibbsa w przypadku
regularnej struktury grafu g(L) oraz wzmocnieniem wynik´ow Chianga i Chowa [Chi-
Cho 4], gdzie udowodniono logarytmiczn¸a r´ownowa˙zno´s´c warto´sci w lasnych algo-
rytmu Metropolisa i pr´obnika Gibbsa.

1.7. Rozdzia l 6. jest po´swi¸econy niejednorodnym LM z czasem dyskretnym (s¸a to
la´

ncuchy, kt´orych macierze przej´scia zmieniaj¸a si¸e w czasie). Na wst¸epie uog´olniam

poj¸ecia klasy zamkni¸etej, klasy powracaj¸acej, stanu powracaj¸acego oraz podaj¸e
podstawowe w lasno´sci wprowadzonych poj¸e´c. Nast¸epnie wprowadzam klas¸e niejed-
norodnych LM indukowanych przez macierz D = (d

ij

)

i,j∈s

oraz ci¸ag (ε

t

)

t≥0

takie, ˙ze

dla i, j

∈ S, i 6= j, d

ij

∈ R ∪ {∞}, ε

t

ց 0 przy t → ∞ oraz

Pr

{X

t+1

= j


X

t

= i

} = Θ(ε

d

ij

t

) przy t

→ ∞.

(1.5)

Rodzina ta zawiera m.in. la´

ncuchy jednorodne oraz la´

ncuchy generowane przez

Simulated Annealing — stochastyczny algorytm optymalizacyjny. Algorytm ten jest
u˙zywany od 1982 roku przez firmy p´o lprzewodnikowe do projektowania uk lad´ow
scalonych o wysokim stopniu integracji (VLSI) (patrz np.

[KiGeVe], [LaAa],

[RomSa], [Sor]).

G l´ownym rezultatem tego rozdzia lu jest twierdzenie 6.1, w kt´orym opisuj¸e klasy

powracaj¸ace i stany powracaj¸ace la´

ncuch´ow postaci (1.5) za pomoc¸a rozwini¸e´c w

lasy skierowane, kt´ore zale˙z¸a od macierzy D oraz pewnej liczby zale˙znej od ci¸agu

t

)

t≥0

. Powy˙zszy wynik wykorzystuj¸e do charakteryzacji warunk´ow osi¸agalno´sci,

z prawdopodobie´

nstwem 1, minimum globalnego przez Simulated Annealing (wnio-

sek 6.2). Jest to jedynie analiza asymptotycznej poprawno´sci algorytmu, poniewa˙z
Simulated Annealing generuje skomplikowany LM postaci (1.4), kt´orego zachowanie
“w czasie sko´

nczonym” nie jest znane.

Wyniki tego rozdzia lu s¸a uog´olnieniem rezultat´ow Connorsa i Kumara ([Con],

[ConKu 1–2]), gdzie scharakteryzowano osi¸agalno´s´c, z prawdopodobie´

nstwem 1,

background image

11

minimum globalnego przez “s labo odwracalny” Simulated Annealing oraz s¸a cz¸e´scio-
wo oparte na mojej pracy magisterskiej [Po] oraz na wsp´olnej pracy z W. Niemiro
[NiPo].

1.8. Wyniki rozdzia lu 3. i 4. dotycz¸a uk lad´ow r´owna´

n liniowych zwi¸azanych z

odwracalnymi macierzami postaci L(R


R), gdzie L jest laplasjanem Markowa. Ko-

rzystaj¸ac z definicji zawartych w monografii Horna i Johnsona [HoJo 2, rozdzia l 2],
lematu 2.2 oraz wniosku 2.3 mo˙zna pokaza´c, ˙ze macierz A jest odwracaln¸a pod-
macierz¸a g l´own¸a laplasjanu Markowa wtedy i tylko wtedy, gdy A jest diagonalnie
dominuj¸ac¸a M-macierz¸a.

background image

12

2. Lasy skierowane i la´

ncuchy Markowa.

2.1. Podstawowe definicje i stwierdzenia.

Niech S b¸edzie ustalonym, niepustym zbiorem sko´

nczonym oraz E

⊆ S × S.

Za l´o˙zmy dla wygody, ˙ze S =

{1, 2, . . . , s}. Par¸e g := (S, E) nazywa´c b¸edziemy

grafem skierowanym o zbiorze wierzcho lk´ow (stan´ow) S i zbiorze kraw¸edzi E. Graf
g, w kt´orym E = S

× S nazywa´c b¸edziemy zupe lnym.

Podgrafem g

1

grafu g nazywa´c b¸edziemy par¸e (S

1

, E

1

) tak¸a, ˙ze S

1

⊆ S oraz E

1

E

∩ (S

1

× S

1

). Je´sli S

1

= S to podgraf g

1

grafu g nazywa´c b¸edziemy rozpinaj¸acym.

B¸edziemy m´owi´c, ˙ze stan j

∈ S jest osi¸agalny ze stanu i ∈ S lub r´ownowa˙znie:

istnieje droga ze stanu i do j (oznaczenie i

→ j), je˙zeli i = j lub istnieje liczba

n

≥ 2 oraz ci¸ag stan´ow i = i

1

, i

2

, . . . , i

n

= j taki, ˙ze i

k

∈ S oraz (i

k

, i

k+1

)

∈ E dla

k = 1, . . . , n

− 1. Cyklem nazywa´c b¸edziemy drog¸e z danego stanu do tego samego

stanu.

Stan i

∈ S b¸edziemy nazywa´c istotnym, je´sli dla dowolnego j ∈ S z warunku

i

→ j wynika, ˙ze j → i. W przeciwnym przypadku stan i b¸edziemy nazywa´c

nieistotnym. Stan i

∈ S b¸edziemy nazywa´c poch laniaj¸acym, je´sli nie istnieje j ∈ S,

j

6= i taki, ˙ze i → j. Je´sli i → j oraz j → i, to powiemy, ˙ze stany i, j komunikuj¸a

si¸e ze sob¸a (i

↔ j).

Graf g nazywa´c b¸edziemy silnie sp´ojnym, je˙zeli dla dowolnych i, j

∈ S, i → j.

Graf g nazywa´c b¸edziemy s labo sp´ojnym, je˙zeli istnieje j

∈ S taki, ˙ze dla dowolnego

i

∈ S, i → j.

Niepusty podzbi´or M zbioru stan´ow S nazywa´c b¸edziemy zbiorem zamkni¸etym, w

grafie g = (S, E), je´sli nie istniej¸a stany i

∈ M, j ∈ S \ M takie, ˙ze (i, j) ∈ E. Klas¸a

zamkni¸et¸a w g nazywa´c b¸edziemy minimalny w sensie inkluzji zbi´or zamkni¸ety w g.

Lasem skierowanym rozpinaj¸acym w g, lub po prostu lasem, nazywa´c b¸edziemy

podgraf skierowany bez cykli f := (S, E

f

) grafu g, w kt´orym z ka˙zdego wierzcho lka

wychodzi co najwy˙zej jedna kraw¸ed´z. Zbi´or wierzcho lk´ow R

⊆ S, z kt´orych nie

wychodzi ˙zadna kraw¸ed´z lasu f nazywa´c b¸edziemy korzeniem f . Las o korzeniu jed-
noelementowym nazywa´c b¸edziemy drzewem skierowanym rozpinaj¸acym. Latwo za-
uwa˙zy´c, ˙ze korze´

n R lasu f jest zawsze niepusty oraz, ˙ze dla dowolnego i

6∈ R istnieje

dok ladnie jedna droga prowadz¸aca ze stanu i do pewnego stanu j

∈ R. Tam, gdzie

nie b¸edzie prowadzi lo to do nieporozumienia, las f b¸edziemy uto˙zsamia´c ze zbiorem

background image

13

jego kraw¸edzi E

f

. Rysunek 1.1.1 w Dodatku przedstawia pewien graf skierowany

g. Stany s¸a reprezentowane jako k´o lka, natomiast kraw¸edzie jako strza lki. Rysunek
1.1.2 przedstawia las skierowany o korzeniu R w grafie g.

Zbi´or wszystkich las´ow zawartych w g, o korzeniu R, oznacza´c b¸edziemy F (R),

przy czym pisa´c b¸edziemy F (i

1

, i

2

, . . . , i

m

) zamiast F (

{i

1

, i

2

, . . . , i

m

}). Dla i 6∈ R

oraz j

∈ R, F

ij

(R) oznacza´c b¸edzie podzbi´or F (R) sk ladaj¸acy si¸e z las´ow o korzeniu

R, w kt´orych istnieje droga prowadz¸aca z wierzcho lka i do j. Je˙zeli i

∈ R, to

przyjmiemy dla jednolito´sci rozwa˙za´

n, ˙ze F

ii

(R) := F (R).

Niech A = (a

ij

)

i,j∈S

b¸edzie macierz¸a kwadratow¸a wymiaru s

× s (s ≥ 2) nad

cia lem liczb zespolonych C. Grafem skierowanym wa˙zonym, indukowanym przez A,
nazywa´c b¸edziemy macierz A wraz z grafem g(A) := (S, E), gdzie E =

{(i, j) ∈

S

× S : a

ij

6= 0}. Wag¸a multiplikatywn¸a lasu f = (S, E

f

), w grafie g(A), nazywa´c

b¸edziemy liczb¸e

w(f ) :=

Y

(i,j)∈E

f

(

−a

ij

)

(przyjmiemy w((S,

∅)) := 1).

Wag¸a zbioru las´ow F , w grafie g(A), nazywa´c b¸edziemy liczb¸e

w(F ) :=

X

f ∈F

w(f )

(przyjmiemy w(

∅) := 0).

Je´sli F = F (R) dla pewnego R

⊆ S, to pisa´c b¸edziemy w(R) zamiast w(F (R)),

poniewa˙z ustalony zbi´or R

⊆ S wyznacza jednoznacznie zbi´or wszystkich las´ow o

korzeniu R. Przyjmijmy ponadto dla i

∈ S, j, k ∈ S \ R, l ∈ R, w(i) := w({i}),

w

jk

(R, k) := w[F

jk

(R

∪ {k})] oraz w

kl

(R) := w[F

kl

(R)].

Macierz A nazywa´c b¸edziemy nieprzywiedln¸a, je´sli nie istnieje macierz permutacji

B oraz macierze kwadratowe A

11

i A

22

takie, ˙ze

B

−1

AB =

"

A

11

0

A

21

A

22

#

.

Macierz A nazywa´c b¸edziemy jednoklasow¸a, je´sli nie istnieje macierz permutacji

B oraz macierze kwadratowe A

11

, A

22

i A

33

takie, ˙ze

B

−1

AB =


A

11

0

0

A

22

A

31

A

32

A

33


.

Latwo udowodni´c nast¸epuj¸ace stwierdzenia.

background image

14

Stwierdzenie 2.1.

(1) Ka˙zdy graf ma przynajmniej jedn¸a klas¸e zamkni¸et¸a.
(2) Ka˙zdy graf ma przynajmniej jeden stan istotny.

Stwierdzenie 2.2.

(1) Relacja “

↔” jest relacj¸a r´ownowa˙zno´sci.

(2) M

⊆ S jest klas¸a zamkni¸et¸a wtedy i tylko wtedy, gdy M jest klas¸a abstrakcji

relacji “

↔” z lo˙zon¸a ze stan´ow istotnych;

(3) Stan i

∈ S jest istotny wtedy i tylko wtedy, gdy i nale˙zy do pewnej klasy

zamkni¸etej M

⊆ S.

Stwierdzenie 2.3. Niech A b¸edzie macierz¸a s

× s. Wtedy nast¸epuj¸ace warunki s¸a

r´ownowa˙zne.

(1) A jest nieprzywiedlna.
(2) g(A) jest silnie sp´ojny.
(3) W grafie g(A) dla dowolnych stan´ow i, j

∈ S, i → j.

(4) W grafie g(A) dla dowolnego stanu j

∈ S, istnieje drzewo o korzeniu j.

(5) S jest klas¸a zamkni¸et¸a.

Stwierdzenie 2.4. Niech A b¸edzie macierz¸a s

× s. Wtedy nast¸epuj¸ace warunki s¸a

r´ownowa˙zne.

(1) A jest jednoklasowa.
(2) g(A) jest s labo sp´ojny.
(3) W grafie g(A) istnieje stan j

∈ S taki, ˙ze dla dowolnego i ∈ S, i → j.

(4) W grafie g(A) dla pewnego stanu j

∈ S, istnieje drzewo o korzeniu j.

(5) W grafie g(A) istnieje dok ladnie jedna klasa zamkni¸eta M

⊆ S.

Stwierdzenie 2.5. Niech A b¸edzie macierz¸a s

× s, kt´orej elementy niediagonal-

ne s¸a rzeczywiste i niedodatnie oraz niech R

⊆ S. Wtedy nast¸epuj¸ace warunki s¸a

r´ownowa˙zne.

(1) W grafie g(A) istnieje las o korzeniu R.
(2) w(R)

6= 0.

background image

15

(3) w(R) > 0.

Ze stwierdzenia 2.2 wynika, ˙ze zbi´or stan´ow grafu g(A) mo˙zna podzieli´c na m

≥ 1

klas zamkni¸etych C

k

(k = 1, . . . , m) oraz, by´c mo˙ze pusty, zbi´or stan´ow nieistotnych

T . Je´sli przyjmiemy C = C

1

.

∪ . . .

.

∪ C

m

2

), to C b¸edzie zbiorem stan´ow istotnych

oraz S = C

.

∪ T . Po przenumerowaniu wszystkich stan´ow w ten spos´ob, ˙ze stany

istotne nale˙z¸ace do tej samej klasy zamkni¸etej oznaczane s¸a kolejnymi numerami
oraz stany nieistotne maj¸a wi¸eksze numery od stan´ow istotnych, macierz A mo˙zna
przedstawi´c w postaci kanonicznej:

A =







A

1

0

A

2

. ..

0

A

m

B

1

B

2

. . .

B

m

B

m+1







,

(2.1)

gdzie A

k

(k = 1, . . . , m) jest nieprzywiedln¸a podmacierz¸a kwadratow¸a macierzy A,

odpowiadaj¸ac¸a kraw¸edziom mi¸edzy stanami nale˙z¸acymi do klasy C

k

, podmacierz

B

k

odpowiada kraw¸edziom mi¸edzy stanami nieistotnymi a stanami istotnymi z

klasy C

k

, natomiast podmacierz kwadratowa B

m+1

odpowiada kraw¸edziom mi¸edzy

stanami nieistotnymi. Na pozosta lych miejscach macierzy A znajduj¸a si¸e zera.

Poni˙zszy algorytm, napisany w notacji “pseudopascalowej”, znajduje podzia l

zbioru S na klasy zamkni¸ete i zbi´or stan´ow nieistotnych w grafie g = (S, E).
B¸edziemy go wykorzystywa´c do sprowadzania macierzy do postaci kanonicznej oraz
w algorytmach rozdzia lu 4. jako procedur¸e. Jest to uog´olnienie algorytmu Foxa i
Landiego [FoLa], [Pu, str. 590], kt´ory sprowadza macierz stochastyczn¸a do postaci
kanonicznej. Ze wzgl¸edu na latwo´s´c oblicze´

n na liczbach binarnych, graf g reprezen-

tujemy w postaci macierzy s¸asiedztwa A(g) := (a

ij

)

i,j∈S

takiej, ˙ze a

ij

= 1 je´sli

(i, j)

∈ E oraz a

ij

= 0 w przeciwnym przypadku.

2

) Symbol “

.

∪” oznacza´c b¸edzie sum¸e zbior´ow roz l¸acznych

background image

16

Algorytm 2.1.

input: Graf skierowany (S, E) w postaci macierzy s¸asiedztwa (a

ij

)

i,j∈S

bez elemen-

t´ow diagonalnych.
output: Klasy zamkni¸ete w grafie (S, E).
begin

U := S;

W := S;

for i

∈ S do S(i) := {i};

{

U oznacza zbi´or stan´ow, o kt´orych nie wiadomo, czy s¸a nieistotne, czy

te˙z s¸a istotne i nale˙z¸a do pewnej klasy zamkni¸etej. W oznacza robocz¸a

przestrze´

n stan´ow nie sklasyfikowanych. Zbiory S(i), gdzie i

∈ W , tworz¸a

podzia l zbioru S. Zapisywane do pliku “output” elementy tego podzia lu

s¸a klasami zamkni¸etymi w grafie (S, E)

}

while U

6= ∅ do begin

Wybierz i

∈ W ; k := 0; i

k

:= i;

while i

k

nie jest poch laniaj¸acy do begin

{

Konstruujemy drog¸e, kt´ora albo prowadzi do stanu poch laniaj¸acego w

roboczym grafie zwi¸azanym z W , albo jest cyklem

}

Wybierz j

∈ W takie, ˙ze j 6= i

k

oraz a

i

k

j

= 1;

k := k + 1; i

k

:= j;

if istnieje 0

≤ r < k takie, ˙ze i

k

= i

r

then begin

{

Scalamy cykl (i

r

, . . . , i

k

) w jeden stan i

r

}

for j

∈ W , j 6= i

r

do begin

a

i

r

j

:= a

i

r

j

or . . . or

a

i

k

j

;

a

ji

r

:= a

ji

r

or . . . or

a

ji

k

end;
S(i

r

) := S(i

r+1

)

∪ . . . ∪ S(i

k

);

W := W

\ {i

r+1

, . . . , i

k

}

end

end;

background image

17

write (S(i

k

));

U := U

\ S(i

k

); I :=

{i

k

};

while I

6= ∅ do begin

{

Usuwamy stany nieistotne osi¸agaj¸ace S(i

k

)

}

J :=

∅;

for i

∈ I, j ∈ W \ I takich, ˙ze a

ji

= 1 do begin

U := U

\ S(j);

J := J

∪ {j}

end;
I := J

end

end

end.

Latwo zauwa˙zy´c, ˙ze algorytm 2.1 znajduje wszystkie klasy zamkni¸ete w grafie

kosztem O(s

2

) dzia la´

n arytmetycznych.

Laplasjanem nazywa´c b¸edziemy dowoln¸a macierz L := (l

ij

)

s
i,j=1

nad cia lem C

tak¸a, ˙ze l

ii

=

P

j: j6=i

l

ij

dla i = 1, . . . , s.

Niech dana b¸edzie przestrze´

n probabilistyczna (Ω,

F, Pr) oraz la´ncuch Markowa

( LM) X = (X

t

)

t≥0

okre´slony na (Ω,

F) o przestrzeni stan´ow S. La´ncuchy Markowa

wprowadza si¸e najcz¸e´sciej za pomoc¸a macierzy przej´scia P = (p

ij

)

i,j∈S

(w przypadku

czasu dyskretnego) lub generatora Q = (q

ij

)

i,j∈S

(w przypadku czasu ci¸agego).

Niech I

k

(indeks k b¸edziemy czasami pomija´c dla wygody ) oznacza macierz jednos-

tkow¸a rz¸edu k

×k, natomiast. 0

k×k

— macierz zerow¸a rz¸edu k

×k. Latwo zauwa˙zy´c,

˙ze macierze L(P) = I

− P oraz L(Q) = −Q s¸a laplasjanami indukowanymi przez

P oraz Q. Wiele z podanych dalej fakt´ow nie zale˙zy od tego, czy czas jest ci¸ag ly
czy dyskretny, dlatego te˙z dla jednolito´sci rozwa˙za´

n la´

ncuch Markowa b¸edziemy

wprowadza´c za pomoc¸a laplasjanu Markowa tzn. laplasjanu, kt´orego elementy niedi-
agonalne s¸a rzeczywiste i niedodatnie.

Stan i nazywa´c b¸edziemy powracaj¸acym, je˙zeli Pr

{∃

t>0

X

t

= i


X

0

= i

} = 1. W

przeciwnym przypadku stan i nazywa´c b¸edziemy chwilowym.

Mo˙zna pokaza´c ([Io] rozdzia l 2 oraz punkt 8.4.2), ˙ze stan i jest powracaj¸acy wtedy

i tylko wtedy, gdy jest istotny w grafie indukowanym przez laplasjan Markowa,
dlatego klasy zamkni¸ete w grafie g(L) nazywa´c b¸edziemy r´ownie˙z klasami powraca-
j¸acymi, natomiast zbi´or stan´ow nieistotnych — zbiorem stan´ow chwilowych.

background image

18

Uwagi 2.1.

(1) W literaturze angielskiej (np. [BrRy], [Che], [Cha]) las skierowany nazywany

bywa r´o˙znie: “directed forest”, “arborescence” albo “branching”. Czasami
definiuje si¸e las skierowany tak, ˙ze kraw¸edzie skierowane s¸a nie “do” lecz
“od” korzenia.

(2) Podane przez nas definicje stanu istotnego, stanu poch laniaj¸acego, zbioru i

klasy zamkni¸etej s¸a uog´olnieniami definicji znanych dla la´

ncuch´ow Markowa

(np. [Io], [IsMa], [KeSn 1–2], [Se]). Og´olno´s´c tych poj¸e´c b¸edzie wykorzysty-
wana w rozdzia lach 4. i 6.

(3) Uzasadnieniem nazwy “laplasjan” jest fakt, ˙ze macierze o tej w lasno´sci po-

jawiaj¸a si¸e przy rozwi¸azywaniu r´owna´

n r´o˙zniczkowych cz¸astkowych z ope-

ratorem Laplace’a. Symetryczne laplasjany Markowa wyst¸epuj¸a w kombi-
natoryce (np. [CvDoSa], [Gr], [Mo]). Za pomoc¸a warto´sci w lasnych ta-
kich macierzy mo˙zna szacowa´c r´o˙zne kombinatoryczne wielko´sci zwi¸azane
z grafami obci¸a˙zonymi. Laplasjany wyst¸epuj¸a r´ownie˙z w teorii sieci elek-
trycznych pod nazwami “admittance matrix” lub “Kirchhoff matrix” (np.
[Che], [Mo]).

2.2. Rozwini¸ecia w lasy skierowane dla dope lnie´

n algebraicznych lapla-

sjanu.

Dla ustalonego korzenia R

⊆ S oraz lasu f ∈ F (R) zdefiniujemy funkcj¸e ρ

f

:

S

→ R tak¸a, ˙ze ρ

f

(i) = j wtedy i tylko wtedy, gdy istnieje droga zawarta w f o

pocz¸atku w wierzcho lku i oraz ko´

ncu w wierzcho lku j. Inaczej m´owi¸ac ρ

f

(i) jest

tym korzeniem lasu f , z kt´orego “wyr´os l s¸ek” i. Z definicji ρ

f


R

≡ id

R

.

Ustalmy podzbiory U, W zbioru S takie, ˙ze

|U| = |W |

3

). Niech F (W

→ U)

oznacza zbi´or z lo˙zony z tych las´ow f o korzeniu U, dla kt´orych funkcja ρ

f


W jest

wzajemnie jednoznaczna. Oczywi´scie F (W

→ U) ⊆ F (U) oraz je˙zeli U = W , to

F (W

→ U) = F (U).

Dla ustalonego lasu f

∈ F (W → U), symbolem inv(ρ

f


W ) oznacza´c b¸edziemy

liczb¸e przestawie´

n funkcji ρ

f

zawartych w W , a wi¸ec

inv(ρ

f


W ) :=


{{i, j} ∈ W : i < j, ρ

f

(i) > ρ

f

(j)

}


.

3

) Symbol

|U| oznacza liczno´s´c zbioru U

background image

19

Niech ponadto sgn(f


W ) := (

−1)

inv(ρ

f

|W )

.

Dla ustalonych U, W

⊆ S oraz macierzy kwadratowej A wymiaru s × s, sym-

bolem A(U


W ) oznacza´c b¸edziemy macierz powsta l¸a z macierzy A przez usuni¸ecie

wierszy o indeksach ze zbioru U i kolumn o indeksach ze zbioru W . B¸edziemy pisa´c
A

ij

zamiast A(

{i}


{j}). Dope lnieniem algebraicznym macierzy A(U


W ) nazywa´c

b¸edziemy liczb¸e

C

A

(U


W ) := (

−1)

P

i

∈U

i+

P

j

∈W

j

det A(U


W ).

Niech ponadto e

s

oznacza wektor z lo˙zony z s jedynek, natomiast 0

s

— wektor

z lo˙zony z s zer.

Poni˙zsze lematy pozwalaj¸a przedstawi´c wa˙zne charakterystyki la´

ncucha Markowa

w postaci funkcji wymiernych od wag pewnych zbior´ow las´ow.

Lemat 2.1. (All Cofactors Matrix–Tree Theorem) Dla dowolnego laplasjanu L
rz¸edu s

× s oraz zbior´ow U, W ⊆ S takich, ˙ze |U| = |W | zachodzi r´owno´s´c

C

L

(U


W ) =

X

f ∈F (W →U )

sgn(f


W )w(f ).

(2.2)

Dow´od. Dow´od r´ownowa˙znej postaci tego lematu mo˙zna znale´z´c w pracy Chaikena
[Cha].



Lemat 2.2. Niech L b¸edzie dowolnym laplasjanem rz¸edu s

×s, R ⊆ S oraz i, j 6∈ R.

Wtedy:

(1) (Fiedler i Sedl´acek — [FieSe])

det L(R


R) = w(R);

(2.3)

(2)

C

L

(R

.

∪ {j}


R

.

∪ {i}) = (−1)

u

w

ij

(R, j),

(2.4)

gdzie u :=


{k ∈ R : min(i, j) < k < max(i, j)}


.

background image

20

Dow´od. (1) Dla dowolnego f

∈ F (R → R) mamy ρ

R

≡ id

R

, st¸ad inv(ρ

f


R) = 0 oraz

sgn(f


R) = 1. Ponadto F (R

→ R) = F (R) i oczywi´scie det L(R


R) = C

L

(R


R).

St¸ad i z (2.2) wynika teza.
(2) Dla dowolnego f

∈ F (R

.

∪ {i} → R

.

∪ {j}) mamy ρ

f

(i) = j oraz ρ

f


R

≡ id

R

,

a zatem inv(ρ

f


R

∪ {i}) ≡


{k ∈ R : min(i, j) < k < max(i, j)}


. Ponadto

F (R

.

∪ {i} → R

.

∪ {j}) = F

ij

(R, j). St¸ad i z (2.2) wynika teza.



W dalszym ci¸agu zak lada´c b¸edziemy, ˙ze stany s¸a ponumerowane w ten spos´ob,

˙ze R =

{s − |R| + 1, . . . , s}. Za lo˙zenie to nie ogranicza og´olno´sci rozwa˙za´n znacznie

upraszczaj¸ac rozumowanie.

Lemat 2.3.

Niech L b¸edzie dowolnym laplasjanem rz¸edu s

× s oraz R ⊆ S.

Za l´o˙zmy, ˙ze w grafie g(L), w(R)

6= 0. Wtedy

L(R


R)

−1

=

 w

ij

(R, j)

w(R)



i,j∈S\R

.

Dow´od. Lemat wynika ze znanego wzoru

L(R


R)

−1

=

"

C

L

(R

.

∪ {j}


R

.

∪ {i})

det L(R


R)

#

i,j∈S\R

oraz lematu 2.2.



Wniosek 2.1. Niech A = (a

ij

)

s−1
i,j=1

b¸edzie dowoln¸a macierz¸a (s

− 1) × (s − 1) oraz

L :=

"

A

l

0

. . . 0

#

,

gdzie l =

s−1

X

j=1

a

1j

, . . . ,

s−1

X

j=1

a

s−1,j

!

T

.

Niech ponadto F (s), F

ij

(s, j) oraz F (S

\ R), dla i, j = 1, . . . , s − 1 oraz R ⊆ S,

b¸ed¸a rodzinami las´ow w grafie g(L). Wtedy:

(1) (Bott i Mayberry — [BoMa])

det A = w(F (s));

(2) rz¸ad A jest r´owny mocy maksymalnego R

⊆ S, dla kt´orego w(F (S \R)) 6= 0;

(3) je˙zeli w(F (s))

6= 0, to

A

−1

=

 w(F

ij

(s, j))

w(F (s))



s−1

i,j=1

.

background image

21

Dow´od. Wniosek wynika bezpo´srednio z cz¸e´sci (1) lematu 2.2 oraz lematu 2.3.



Wniosek 2.2. Niech A = (a

ij

)

s−1
i,j=1

, x = (x

1

, . . . , x

s−1

)

T

, b = (b

1

, . . . , b

s−1

)

T

,

x, b

∈ C

s−1

oraz

L :=

"

A

l

−b

T

b

#

,

gdzie

l :=

s−1

X

j=1

a

1j

, . . . ,

s−1

X

j=1

a

s−1,j

!

T

oraz b :=

s−1

X

j=1

b

j

.

Niech ponadto F (i), i

∈ S b¸ed¸a rodzinami drzew w grafie g(L). Wtedy:

(1) uk lad A

T

x = b ma dok ladnie jedno rozwi¸azanie wtedy i tylko wtedy, gdy

w(F (s))

6= 0;

(2) je˙zeli w(F (s))

6= 0, to x

i

= w(F (i))/w(F (s)).

Dow´od. Cz¸e´s´c (1) wynika z wniosku 2.1 (1). Cz¸e´s´c druga wynika ze wzor´ow Cra-
mera oraz wniosku 2.1 (3).

Wniosek ten mo˙zna r´ownie˙z udowodni´c w nast¸epuj¸acy spos´ob. Z wniosku 2.1 (3)

otrzymujemy dla i = 1, . . . , s

− 1

x

i

=

P

s−1
j=1

w

ji

(s, i)l

sj

w(s)

.

Przyjmijmy F (i


s

→ j) := {f ∈ F (i) : f ∋ (s, j)}. Wtedy dla i ∈ S \ {s}

F (i) =

·

[

1≤j<s

F (i


s

→ j).

S¸a dwa mo˙zliwe przypadki.

(i) Je˙zeli F (i


s

→ j) = ∅, to −l

sj

= 0. Zatem

w

ij

(s, i)(

−l

sj

) = w(F (i


s

→ j)) = 0.

(ii) Je˙zeli F (i


s

→ j) 6= ∅, to przekszta lcenie ϕ : F (i


s

→ j) → F

ij

(s, i) takie, ˙ze

ϕ(f ) = f

\ (s, j) jest wzajemnie jednoznaczne oraz w(f) = w(ϕ(f))(−l

sj

). Zatem

w

ji

(s, i)(

−l

sj

) = w(F (i


s

→ j)).

background image

22

St¸ad

w(i) =

s−1

X

j=1

w

ji

(s, i)l

sj

.

W rezultacie otrzymujemy dla i = 1, . . . , s

− 1

x

i

=

w(i)

w(s)

.



Ze stwierdzenia 2.5 oraz lematu 2.2 (1) otrzymujemy bezpo´srednio nast¸epuj¸acy

wniosek.

Wniosek 2.3.

Niech L b¸edzie laplasjanem Markowa oraz R

⊆ S.

Wtedy

nast¸epuj¸ace warunki s¸a r´ownowa˙zne:

(1) macierz L(R


R) jest odwracalna;

(2) w grafie g(L) istnieje las o korzeniu R.

Wniosek 2.4. (Drugi wz´or Cayleya) Za l´o˙zmy, ˙ze g jest grafem zupe lnym. Wtedy

|F (R)| = |R||S|

|S|−|R|−1

.

(2.5)

Dow´od. Zauwa˙zmy, ˙ze g jest grafem indukowanym przez laplasjan L, kt´orego ele-
menty niediagonalne s¸a r´owne

−1. Ponadto dla dowolnego R ⊆ S, w(R) = |F (R)|

oraz

L(R


R) = sI

s−r

− J

s−r

,

(2.6)

gdzie r =

|R| oraz J

s−r

oznacza macierz kwadratow¸a rz¸edu (s

− r) × (s − r), kt´orej

wszystkie elementy s¸a r´owne 1. St¸ad latwo zauwa˙zy´c, ˙ze je˙zeli dodamy do pierwszego
wiersza L(R


R) sum¸e pozosta lych wierszy, a nast¸epnie odejmiemy pierwsz¸a kolumn¸e

od pozosta lych kolumn, to otrzymamy macierz rz¸edu s

− r postaci:







r

0 0 . . . 0

−1 s 0 . . . 0
−1 0 s . . . 0
. . . . . . . . . . . . . . . . .
−1 0 0 . . . s







.

background image

23

Zatem det L(R


R) = rs

s−r−1

i w rezultacie z lematu 2.2 (1) wynika teza.



Uwagi 2.2.

(1) Lemat 2.1 jest podany w ksi¸a˙zce Chena jako zadanie do rozwi¸azania [Che,

problem 4.16]; jego historia jest opisana przez Chaikena w pracy [Cha].

(2) Wz´or podany we wniosku 2.1 (1) przypomina rozwini¸ecie wyznacznika ma-

cierzy A wymiaru s

× s w sum¸e iloczyn´ow permutacji

det A =

X

σ

sgn σ

·

s

Y

i=1

a

iσ(i)

gdzie σ jest permutacj¸a zbioru

{1, . . . , s}.

(3) Dow´od wniosku 2.4 jest uog´olnieniem dowodu “pierwszego wzoru Cayleya”

podanego przez Brualdiego i Rysera [BrRy, str. 39]. Wz´or ten podaje liczb¸e
drzew rozpinaj¸acych w grafie nieskierowanym zupe lnym.

(4) Latwo poda´c dok ladny algorytm, kt´ory dla ustalonego grafu g oraz zbioru

R

⊆ S sprawdza, kosztem O(s

2

) dzia la´

n arytmetycznych, czy g zawiera las o

korzeniu R. Stosuj¸ac taki algorytm do grafu g(L), gdzie L jest laplasjanem
Markowa, mo˙zemy na mocy wniosku 2.3 sprawdzi´c, czy macierz L(R


R) jest

odwracalna. Dla por´ownania, obliczenie wyznacznika za pomoc¸a metody
eliminacji Gaussa wymaga

1
3

s

3

+ O(s

2

) operacji i nie zawsze jest dok ladne.

2.3. Rozwini¸ecia w lasy skierowane dla rozk ladu stacjonarnego i macierzy
granicznej la´

ncucha Markowa.

Rozk ladem stacjonarnym LM o laplasjanie L nazywamy nieujemny, unormowany

wektor π = (π

1

, π

2

, . . . , π

s

)

T

spe lniaj¸acy warunek

π

T

L = 0

T

s

.

(2.7)

Twierdzenie 2.1.

(1) Laplasjan Markowa L jest jednoklasowy wtedy i tylko wt-

edy, gdy r´ownanie (2.7) ma dok ladnie jedno rozwi¸azanie unormowane.

(2) Rozk lad stacjonarny jednoklasowego LM wyra˙za si¸e wzorami:

(a) (Markov chain tree theorem)

background image

24

π

i

=

w(i)

P

j∈S

w(j)

dla i

∈ S;

(2.8)

(b) Mihoc [Io, wz´or (4.1)]

π

i

=

det L

ii

P

j∈S

det L

jj

dla i

∈ S;

(2.9)

(c) Kemeny i Snell [KeSn 1]

π

T

=

1

1

− l

T

i

L

−1
ii

e

s−1

(1,

−l

T

i

L

−1

ii

),

(2.10)

gdzie l

T

i

:= (l

i1

, . . . , ˆl

ii

, . . . , l

is

) oraz w(i) > 0.

4

)

Dow´od. I. (i) Udowodnimy najpierw, ˙ze wektor π zdefiniowany wzorem (2.8) spe lnia
warunek (2.7). Ze stwierdzenia 2.4 wynika, ˙ze w(i) > 0 dla pewnego i

∈ S, a zatem

π

jest poprawnie zdefiniowanym rozk ladem prawdopodobie´

nstwa na S. Wystarczy

teraz pokaza´c, ˙ze dla i = 1, . . . , s

s

X

j=1

w(j)l

ji

= 0,

czyli

X

j6=i

w(j)l

ji

=

X

k6=i

w(i)l

ik

.

(2.11)

Na mocy definicji w(j), (2.11) jest r´ownowa˙zne uk ladowi

X

j6=i

X

f ∈F (j)

w(f )l

ji

=

X

k6=i

X

f ∈F (i)

w(f )l

ik

.

(2.12)

Z definicji lasu wynika, ˙ze dla dowolnego f

∈ F (i) oraz k 6= i istnieje dok ladnie

jedno j takie, ˙ze k

→ j oraz (j, i) ∈ f. Zatem przekszta lcenie ϕ : F (i) → F (j)

takie, ˙ze ϕ(f ) = f

∪ (i, k) \ (j, i) jest wzajemnie jednoznaczne. Ponadto w(f)l

ik

=

w(ϕ(f ))l

ji

. W rezultacie ka˙zdy sk ladnik sumy po lewej stronie (2.12) nale˙zy do sumy

po prawej stronie (2.12) i odwrotnie. Rysunek 2.1.1 przedstawia pewne drzewo f o
korzeniu i w grafie g z rysunku 1.1.1. Rysunek 2.1.2 przedstawia drzewo ϕ(f ).
(ii) Udowodnimy teraz, ˙ze π jest jedynym wektorem unormowanym, spe lniaj¸acym
warunek (2.7).

4

) “kapelusz” oznacza´c b¸edzie pomini¸ecie wyra˙zenia, nad kt´

orym on wyst¸epuje

background image

25

Z za lo˙zenia wynika, ˙ze dla dowolnego A

⊂ S

5

) oraz i = 1, . . . , s mamy

X

j∈A

π

j

l

ji

+

X

j6∈A

π

j

l

ji

=

X

j∈A

π

i

l

ij

+

X

j6∈A

π

i

l

ij

.

Po zsumowaniu stronami r´owna´

n dla i

6∈ A otrzymujemy

X

i6∈A

X

j∈A

π

j

l

ji

+

X

j6∈A

π

j

l

ji

!

=

X

i6∈A

X

j∈A

π

i

l

ij

+

X

j6∈A

π

i

l

ij

!

,

st¸ad

X

i6∈A

X

j∈A

π

j

l

ji

=

X

i6∈A

X

j∈A

π

i

l

ij

.

(2.13)

A zatem warunek (2.7) jest r´ownowa˙zny uk ladowi r´owna´

n (2.13) dla dowolnego

A

⊆ S.
Za l´o˙zmy teraz dla sprzeczno´sci, ˙ze istniej¸a dwa r´o˙zne wektory unormowane π, π

spe lniaj¸ace (2.13). Z za lo˙zenia o unormowaniu wynika, ˙ze A

0

:=

{i : π

i

> π

i

} jest

w la´sciwym podzbiorem S. Z (2.13) wynika, ˙ze

X

i6∈A

0

X

j∈A

0

π

i

l

ij

=

X

i6∈A

0

X

j∈A

0

π

j

l

ji

<

X

i6∈A

0

X

j∈A

0

π

j

l

ji

=

X

i6∈A

0

X

j∈A

0

π

i

l

ij

X

i6∈A

0

X

j∈A

0

π

i

l

ij

.

Sprzeczno´s´c.

W ten spos´ob udowodnili´smy cz¸e´s´c (1) ”

⇒” oraz wz´or (2.8).

(iii) Ze wzoru (2.3) oraz (2.8) wynika (2.9).
(iv) R´ownanie (2.7) oznacza, ˙ze

l

11

π

1

+ l

21

π

2

+ . . . + l

s1

π

s

= 0

l

12

π

1

+ l

22

π

2

+ . . . + l

s2

π

s

= 0

. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

l

1s

π

1

+ l

2s

π

2

+ . . . + l

ss

π

s

= 0.

(2.14)

Udowodnili´smy, ˙ze (2.14) ma dok ladnie jedno rozwi¸azanie unormowane. Za l´o˙zmy

teraz dla prostoty, ˙ze stany s¸a ponumerowane w ten spos´ob, i˙z π

1

> 0. Wtedy

poprawne s¸a definicje

a

1

:=

π

1

π

1

,

a

2

:=

π

2

π

1

, . . . , a

s

:=

π

s

π

1

5

) Symbole “

⊂” oraz “⊃” oznacza´c b¸ed¸a inkluzje w la´sciwe

background image

26

Z definicji laplasjanu wynika, ˙ze pierwsza r´owno´s´c uk ladu (2.14) jest sum¸a po-
zosta lych r´owno´sci ze znakiem “

−”. Zatem (2.14) jest r´ownowa˙zny uk ladowi

l

22

a

2

+ l

32

a

3

+ . . . + l

s2

a

s

=

−l

12

l

23

a

2

+ l

33

a

3

+ . . . + l

s3

a

s

=

−l

13

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

l

2s

a

2

+ l

3s

a

3

+ . . . + l

ss

a

s

=

−l

1s

.

(2.15)

Ze wzoru (2.3) oraz stwierdzenia 2.4 wynika, ˙ze

det L

T

11

= det L

11

= w(1) > 0,

a wi¸ec (2.15) ma dok ladnie jedno rozwi¸azanie postaci



a

2

...

a

s



=

− L

T

11



−1



l

12

...

l

1s



(2.16)

co po unormowaniu daje (2.10).
(v) Cz¸e´sci (i) oraz (ii) dowodu mo˙zna zast¸api´c nast¸epuj¸acym argumentem. Ze wzoru
(2.16) oraz wniosku 2.2 otrzymujemy dla i = 2, . . . , s

a

i

=

w(i)

w(1)

,

co po unormowaniu daje (2.8).

II. Za l´o˙zmy teraz, ˙ze LM zadany przez laplasjan L nie jest jednoklasowy, a wi¸ec,

˙ze ma m

≥ 2 klas powracaj¸acych C

1

, . . . , C

m

. Przedstawmy macierz L w postaci

kanonicznej (2.1). Z udowodnionej cz¸e´sci twierdzenia wynika, ˙ze dla ka˙zdej macierzy
L

k

(k = 1, . . . , m) zwi¸azanej z kraw¸edziami mi¸edzy stanami nale˙z¸acymi do C

k

, ist-

nieje rozk lad stacjonarny π

k

= (π

k

i

)

i∈C

k

. Zatem ka˙zda wypuk la kombinacja liniowa

wektor´ow ¯

π

k

= (¯

π

k

i

)

i∈S

takich, ˙ze

¯

π

k

i

=

π

k

i

je´sli i

∈ C

k

0

je´sli i

6∈ C

k

jest rozk ladem stacjonarnym LM o laplasjanie L.



background image

27

Przyjmijmy dla t

≥ 0, P

t

= (p

t

ij

)

i,j∈S

, gdzie p

t

ij

:= Pr

{X

t

= j


X

0

= i

}. Macierz¸a

graniczn¸a LM z czasem dyskretnym nazywa´c b¸edziemy macierz P

= (p

ij

)

i,j∈S

,

kt´orej elementy s¸a granicami w sensie Cesaro ci¸agu (P

t

)

t∈N

, czyli

p

ij

= lim

t→∞

1

t

t−1

X

k=0

p

k

ij

.

Macierz¸a graniczn¸a LM z czasem ci¸ag lym nazywa´c b¸edziemy macierz P

=

(p

ij

)

i,j∈S

, tak¸a, ˙ze dla t

∈ [0, ∞)

p

ij

= lim

t→∞

p

t

ij

.

Mo˙zna udowodni´c (patrz [Io] wniosek po twierdzeniu 5.1 oraz twierdzenie 8.4 i
punkt 8.4.4), ˙ze dla dowolnego sko´

nczonego LM o laplasjanie L zar´owno z czasem

dyskretnym jak i ci¸ag lym, macierz P

istnieje, jest macierz¸a stochastyczn¸a oraz

spe lnia r´owno´sci:

LP

= P

L = 0

s×s

.

(2.17)

Twierdzenie 2.2. Niech dany b¸edzie LM o laplasjanie L w postaci kanonicznej

L =







L

1

0

L

2

. ..

0

L

m

Q

1

Q

2

. . . Q

m

Q

m+1







,

gdzie m

≥ 1 oraz L

k

s¸a nieprzywiedlnymi laplasjanami Markowa dla k = 1, . . . , m.

Niech C

k

b¸ed¸a klasami zamkni¸etymi oraz T — zbiorem stan´ow nieistotnych w grafie

g(L). Niech ponadto C := C

1

.

∪ . . .

.

∪ C

m

. Wtedy

P

=







P

1

0

P

2

. ..

0

P

m

Q

1

Q

2

. . . Q

m

0

|T |×|T |







.

(2.18)

Ponadto dla k = 1, . . . , m

P

k

= e

|C

k

|

π

T

k

(2.19)

background image

28

oraz

Q

k

=

−L(C


C)

−1

Q

k

P

k

= µ

k

π

T

k

,

(2.20)

gdzie π

k

jest rozk ladem stacjonarnym LM o laplasjanie L

k

oraz µ

k

jest rozwi¸aza-

niem uk ladu L(C


C)µ

k

=



P

j∈C

k

l

ij



i∈T

.

Dow´od. Wzory (2.18) oraz (2.19) maj¸a znane, algebraiczne dowody. Udowodnimy
(2.20). Zauwa˙zmy, ˙ze L(C


C) = Q

m+1

. St¸ad oraz z r´owno´sci (2.17) i (2.18) wynika,

˙ze

Q

k

P

k

+ L(C


C)Q

k

= 0 dla k = 1, . . . , m.

Ponadto z wniosku 2.3 wynika, ˙ze L(C


C)

−1

istnieje. Zachodzi zatem pierwsza

r´owno´s´c we wzorze (2.20).

Dla dowodu drugiej r´owno´sci w (2.20) oznaczmy

(c

ij

)

i,j∈T

:= L(C


C)

−1

.

Z udowodnionej cz¸e´sci wynika, ˙ze macierz P

k

ma identyczne wiersze, a zatem ele-

menty macierzy Q

k

s¸a postaci

q

∗k

ij

= µ

k

i

π

k

j

,

gdzie i

∈ T , j ∈ C

k

oraz

µ

k

i

:=

X

n∈C

k

X

l∈T

−c

il

l

ln

=

X

l∈T

c

il

X

n∈C

k

l

ln

.

W zapisie macierzowym mamy

−L(C


C)

−1

Q

k

P

k

= L(C


C)

−1

l

k

π

T

k

= µ

k

π

T

k

,

gdzie

l

k

:=

X

j∈C

k

l

ij

!

T

i∈T

oraz

µ

k

:= (µ

k

i

)

T

i∈T

.



Aby wyrazi´c elementy macierzy granicznej w postaci rozwini¸e´c w lasy skierowane

wygodnie b¸edzie zmodyfikowa´c definicje podane w cz¸e´sci 2.1.

Lasem skierowanym o dziedzinie D

⊆ S, D 6= ∅, nazywa´c b¸edziemy podgraf

f = (D, E

f

) grafu g(L) bez cykli taki, ˙ze z ka˙zdego wierzcho lka i

∈ D wychodzi

co najwy˙zej jedna kraw¸ed´z. Analogicznie do poj¸e´c wprowadzonych w cz¸e´sci 2.1,

background image

29

definiujemy F (R


D) — rodzin¸e las´ow o korzeniu R

⊆ D i o dziedzinie D, w(f


D)

— wag¸e lasu o dziedzinie D oraz w(R


D) := w(F (R


D)) — wag¸e rodziny F (R


D).

Je˙zeli R =

{i} dla i ∈ S, to pisa´c b¸edziemy F (i


D) zamiast F (

{i}


D) oraz w(i


D)

zamiast w(

{i}


D).

Twierdzenie 2.3. Niech przestrze´

n stan´ow LM o laplasjanie L sk lada si¸e z m

klas powracaj¸acych C

k

(k

≤ m) oraz zbioru stan´ow chwilowych T . Niech C =

C

1

.

∪ . . .

.

∪ C

m

. Wtedy:

p

ij

=

w(j


C

k

)

P

l∈C

k

w(l


C

k

)

,

(1)

je´sli i, j

∈ C

k

dla pewnego k

≤ m;

p

ij

=

P

l∈C

k

w

il

(C)

w(C)

w(j


C

k

)

P

l∈C

k

w(l


C

k

)

,

(2)

je´sli i

∈ T oraz j ∈ C

k

dla pewnego k

≤ m;

p

ij

= 0 w pozosta lych przypadkach.

(3)

Dow´od. Latwo teraz zauwa˙zy´c, ˙ze cz¸e´s´c (1) wynika z twierdzenia 2.1 oraz wzoru
(2.19); cz¸e´s´c (3) wynika ze wzoru (2.18); cz¸e´s´c (2) jest natomiast konsekwencj¸a
drugiej r´owno´sci we wzorze (2.20), lematu 2.3, udowodnionej cz¸e´sci (1) oraz r´owno-

´sci

p

ij

=

P

l∈C

k

P

n∈T

w

in

(C, n)p

nl

w(C)

w(j


C

k

)

P

l∈C

k

w(l


C

k

)

=

P

l∈C

k

w

il

(C)

w(C)

w(j


C

k

)

P

l∈C

k

w(l


C

k

)

.



Uwagi 2.3.

(1) Historia odkrycia twierdzenia 2.1 (a) pozostaje zagadkowa. Aldous [Al 3]

pisze, ˙ze jest to “najcz¸e´sciej reodkrywane twierdzenie w teorii prawdopo-
dobie´

nstwa”. Kohler i Vollmerhaus [KoVo] nazywaj¸a je metod¸a wykresu

(diagram method) i przypisuj¸a Hillowi [Hi].

background image

30

Twierdzenie 2.1 (a) odkryli niezale˙znie Freidlin i Wentzell [FreWe 1], ana-

lizuj¸ac miary stacjonarne zaburzonych proces´ow dyfuzji, oraz Shubert [Sh].

Podana przez nas cz¸e´s´c I (i) dowodu twierdzenia 2.1 pochodzi z pracy

[FreWe 2]. R´ownania (2.13) udowodni l wcze´sniej Korniejew [Kor].

(2) Przedstawione tutaj dowody wzor´ow Mihoca (2.9), wzoru (2.10) oraz twier-

dzenia 2.2 s¸a inne od dowod´ow znanych z literatury, poniewa˙z nie korzys-
tali´smy w nich z twierdzenia Perrona–Frobeniusa, lematu von Neumanna,
redukcji do przypadku la´

ncucha poch laniaj¸acego czy teorii uog´olnionej od-

wrotno´sci (patrz np. [KeSn 1–2], [Mey], [IsMa], [Se], [Io], [Pu]). Wykorzys-
tanie rozwini¸ecia w lasy skierowane dla laplasjanu (2.2) pozwoli lo unikn¸a´c
argument´ow analitycznych.

(3) Leighton i Rivest [LeRi 1–2] uog´olnili twierdzenie 2.1 (2) (a) na dowolne

sko´

nczone LM (twierdzenie 2.2) i nazwali je: “Markov chain tree theo-

rem”. Anantharam i Tsousac [AnTs] podali probabilistyczny dow´od tego
twierdzenia. Podane przez nas sformu lowanie twierdzenia 2.2 r´o˙zni si¸e od
poprzednich.

Dla dowolnego laplasjanu Markowa L i zwi¸azanego z nim grafu g(L), niech

F oznacza zbi´or las´ow o najwi¸ekszej liczbie kraw¸edzi, F

j

— podzbi´or F

z lo˙zony z las´ow o korzeniach zawieraj¸acych j, natomiast F

ij

— podzbi´or F

j

z lo˙zony z las´ow zawieraj¸acych drog¸e z i do j. Anantharam i Tsousac [AnTs]
udowodnili, ˙ze

p

ij

=

w(F

ij

)

w(F )

oraz dla macierzy nieprzywiedlnych

p

ij

=

w(F

j

)

w(F )

.

Podane przez nas w twierdzeniu 2.2 rozwini¸ecia w lasy skierowane obejmuj¸a
r´ownie˙z przypadek czasu ci¸ag lego, a ponadto s¸a bardziej podstawowe — daj¸a
rozwini¸ecia Anantharama i Tsousaca po pomno˙zeniu licznika i mianownika
przez sta l¸a. Istotnie:

w(F ) = w(C)

X

i

1

∈C

1

,... ,i

m

∈C

m

w(i

1


C

1

)

· · · w(i

m


C

m

),

background image

31

w(F

j

) = w(C)w(j


C

k

)

X

i

1

∈C

1

,... , \

i

k

∈C

k

,... ,i

m

∈C

m

w(i

1


C

1

)

· · · w

\

(i

k


C

k

)

· · · w(i

m


C

m

),

je´sli j

∈ C

k

,

w(F

ij

) =

=

X

l∈C

k

w

il

(C

k

)w(j


C

k

)

X

i

1

∈C

1

,... , \

i

k

∈C

k

,... ,i

m

∈C

m

w(i

1


C

1

)

· · · w

\

(i

k


C

k

)

· · · w(i

m


C

m

),

je´sli j

∈ C

k

.

2.4. Rozwini¸ecia w lasy skierowane dla innych charakterystyk la´

ncuch´

ow

Markowa.

Podamy teraz rozwini¸ecia w lasy skierowane dla innych charakterystyk la´

ncucha

Markowa. Przyjmijmy dla ustalonego R

⊆ S oraz dla dowolnych ω ∈ Ω, A ∈ F,

i, j

6∈ R, k ∈ R:

τ

R

(ω) := inf

{t ≥ 0 : X

t

(ω)

∈ R} — czas doj´scia do zbioru R,

Pr

i

(A) := Pr(A


X

0

= i),

E

i

Y :=

R

Y (ω)Pr

i

(dω) dla dowolnej funkcji mierzalnej Y : Ω

→ R,

µ

ij

(R) = E

i

P

0≤t<τ

R

1(X

t

= j)

 — ´srednia liczba pojawienia si¸e stanu j

przed poch loni¸eciem,

6

)

m

i

(R) := E

i

τ

R

— ´sredni czas doj´scia do zbioru R,

m

(2)
i

(R) := E

i

τ

2

R

— drugi moment czasu doj´scia do zbioru R,

σ

2

i

(R) := E

i

R

− m

i

(R))

2

— wariancja czasu doj´scia do zbioru R,

p

ik

(R) := Pr

i

{X

τ

R

(ω)

(ω) = k

} — rozk lad prawdopodobie´nstwa w chwili

doj´scia do zbioru R.

6

) Niech p b¸edzie zdaniem logicznym. Wtedy

1(p) :=

1 gdy p jest prawdziwe

0 gdy p jest fa lszywe.

background image

32

Twierdzenie 2.4. Niech dany b¸edzie taki laplasjan Markowa L, ˙ze w indukowanym
przez niego grafie g(L) istnieje las o korzeniu R. Wtedy dla i, j

∈ S \ R, k ∈ R:

µ

ij

(R) =

w

ij

(R, j)

w(R)

;

(1)

p

ik

(R) =

w

ik

(R)

w(R)

;

(2)

m

i

(R) =

P

j6∈R

w

ij

(R, j)

w(R)

;

(3)

(4) dla LM z czasem dyskretnym

σ

2

i

(R) =

P

j6∈R

w

ij

(R, j)

h

P

k6∈R

w

jk

(R, k)(2 + l

kR

)

P

l6∈R

w

il

(R, l)

i

w

2

(R)

,

gdzie l

kR

:=

X

l∈R

l

kl

;

(4

) dla LM z czasem ci¸ag lym

σ

2

i

(R) =

P

j6∈R

w

ij

(R, j)

h

2

P

k6∈R

w

jk

(R, k)

P

l6∈R

w

il

(R, l)

i

w

2

(R)

.

Dow´od. Z wniosku 2.3 wynika, ˙ze macierz L(R


R) jest odwracalna.

(1) R´owno´s´c wynika z lematu 2.3 oraz r´owno´sci w punkcie 3.1.1 [Io].

(2) Oznaczmy dla i, j

6∈ R oraz k ∈ R

F (R


i

→ . . . → j → k) :=

{f ∈ F

ik

(R) : i “wchodzi” do R w punkcie k przez j

} .

Zauwa˙zmy, ˙ze F

ik

(R) =

.

S

j6∈R

F (R


i

→ · · · → j → k) oraz w[F (R


i

→ . . . → j →

k)] =

−w

ij

(R, j)l

jk

. St¸ad dla i

6∈ R, k ∈ R

w

ik

(R) =

X

j6∈R

w

ij

(R, j)l

jk

.

(2.21)

Z dowodu twierdzenia 3.3 oraz punktu 8.5.6 [Io] wynika, ˙ze

L(R


R)(p

ik

(R))

i∈R, k∈R

=

−L(R


S

\ R).

background image

33

Zatem z za lo˙zenia, lematu 2.3 oraz (2.21) otrzymujemy kolejno r´owno´sci

p

ik

(R)



i6∈R, k∈R

=

−L(R


R)

−1

· L(R


S

\ R)

=



P

j6∈R

w

ij

(R, j)l

jk

w(R)



i6∈R, k∈R

=

 w

ik

(R)

w(R)



i6∈R, k∈R

.

(3) Oznaczmy r :=

|R|. Wektor m(R) := m

1

(R), . . . m

s−r

(R)



T

spe lnia, na mocy

twierdzenia 3.2 oraz stwierdzenia 8.6 [Io], r´ownanie

L(R


R)m(R) = e

s−r

.

(2.22)

Z lematu 2.3 otrzymujemy tez¸e.

(4) Oznaczmy dla j, k

6∈ R oraz l ∈ R

F (R


j

→ . . . → k → l) :=

{f ∈ F (R) : j “wchodzi” do R w punkcie l przez k} .

Zauwa˙zmy, ˙ze F (R) =

.

S

k6∈R, l∈R

F (R


j

→ · · · → k → l) oraz w[F (R


j

→ . . . → k

→ l)] = −w[F

jk

(R

∪ {k})]l

kl

. St¸ad

w[F (R)] =

X

k6∈R

w[F

jk

(R

∪ {k})]l

kR

gdzie l

kR

=

X

l∈R

l

kl

.

(2.23)

Z twierdzenia 3.2 [Io] wynika, ˙ze wektor m

(2)

(R) =



m

(2)
1

(R), . . . m

(2)
s−r

(R)



T

spe lnia

r´ownanie

L(R


R)m

(2)

(R) = 2m(R)

− e

s−r

.

St¸ad, lematu 2.3, udowodnionej cz¸e´sci twierdzenia dla m(R) oraz (2.23) otrzymu-
jemy kolejno

m

(2)
i

(R) =

2

P

j6∈R

w

ij

(R, j)m

j

(R)

w(R)

− m

i

(R)

=

P

j6∈R

w

ij

(R, j)[2

P

k6∈R

w

jk

(R, k)

− w(R)]

w

2

(R)

=

P

j6∈R

w

ij

(R, j)

h

P

k6∈R

w

jk

(R, k)(2 + l

kR

)

i

w

2

(R)

.

St¸ad wynika wz´or dla wariancji τ

R

, poniewa˙z

σ

2

i

(R) = m

(2)
i

(R)

− m

2

i

(R).

background image

34

(4’) Ze stwierdzenia 8.6 [Io] wynika, ˙ze dla procesu Markowa z czasem ci¸ag lym

m

(2)
i

(R) =

2

P

j6∈R, k6∈R

w

ij

(R, j)w

jk

(R, k)

w

2

(R)

.

St¸ad wynika teza.



Uwagi 2.4.

(1) Z twierdzenia 2.4 (2) wynika, ˙ze wz´or (2) w twierdzeniu 2.3 mo˙zna zapisa´c

w postaci

p

ij

= π

k

j

X

l∈C

k

p

il

(C),

gdzie π

k

j

jest elementem rozk ladu stacjonarnego π

k

zwi¸azanego z laplasjanem

L

k

, i

∈ T oraz j ∈ C

k

dla pewnego k

≤ m.

(2) Twierdzenie 2.4 (2) i (3) udowodnili dla la´

ncuch´ow Markowa z czasem dys-

kretnym Freidlin i Wentzell [FreWen 1–2].

(3) W dowodzie twierdzenia 2.4 (4) wykorzysta lem rozwini¸ecia dla m

(2)

, w kt´o-

rych wyst¸epuje odejmowanie. W podobny spos´ob mo˙zna otrzyma´c rozwi-
ni¸ecia bez odejmowania. Wystarczy skorzysta´c ze wzoru, podanego przez
Heymana i Reeves [HeRe]:

L(R


R)h = e

s−r

+ P(R


R)e

s−r

L(R


r)m

(2)

= h.

W rozwini¸eciach otrzymanych w ten spos´ob b¸ed¸a jednak wyst¸epowa ly ele-
menty diagonalne macierzy przej´scia.

(4) W twierdzeniach 2.1, 2.3 i 2.4 poda lem rozwini¸ecia w lasy skierowane tylko

dla najbardziej znanych charakterystyk LM. W podobny spos´ob mo˙zna
“rozwija´c” inne charakterystyki. Np. rozwini¸ecia dla wy˙zszych moment´ow

´sredniego czasu doj´scia do zbioru R,

m

(k)

(R) :=



m

(k)
i

(R)



i∈S\R

,

gdzie

m

(k)
i

(R) := E

i

τ

k

R

dla k = 3, 4, . . .

mo˙zna otrzyma´c z twierdzenia 3.2 i stwierdzenia 8.6 [Io].

Z kolei mo˙zliwo´s´c rozwini¸ecia w lasy skierowane element´ow macierzy fun-

damentalnej Z := (P

+L)

−1

nieprzywiedlnego LM o laplasjanie L i macierzy

background image

35

granicznej P

, wynika ze wzoru podanego przez Kemeny’ego i Snella [KeSn

1], [Io, punkt 4.3.4]:

Z = P

+ (I

− P

)

0

0

T

s−1

0

s−1

L

−1

11

!

(I

− P

).

2.5. Rozwini¸ecia w lasy skierowane a warto´

sci w lasne laplasjanu Marko-

wa.

Rozwini¸ecia w lasy skierowane umo˙zliwiaj¸a lokalizacj¸e warto´sci w lasnych lapla-

sjanu Markowa, a wi¸ec r´ownie˙z macierzy przej´scia lub generatora. Oszacowania
podane w twierdzeniu 2.6 wykorzystamy w rozdziale 5. do por´ownania szybko´sci
zbie˙zno´sci do rozk ladu stacjonarnego dla algorytmu Metropolisa i pr´obnika Gibbsa.

Niech ϕ

L

(x) := det(xI

−L) = a

s

x

s

+ a

s−1

x

s−1

+ . . .+ a

1

x + a

0

b¸edzie wielomianem

charakterystycznym lasplasjanu Markowa L. Latwo zauwa˙zy´c, ˙ze a

0

= 0 i a

s

= 1.

Niech 0 = λ

1

, λ

2

, . . . , λ

s

b¸ed¸a pierwiastkami ϕ

L

, czyli warto´sciami w lasnymi L.

Niech ponadto

F

k

:=

[

R⊆S

|R|=k

F (R) dla k = 0, . . . , s.

Zauwa˙zmy, ˙ze w(F

0

) = 0 oraz w(F

s

) = 1.

Nast¸epuj¸ace twierdzenie uzupe lnia stwierdzenie 2.5.

Twierdzenie 2.5. Sko´

nczony LM ma dok ladnie m klas powracaj¸acych wtedy i tylko

wtedy, gdy zero jest m-krotnym pierwiastkiem ϕ

L

.

Dow´od. Z lematu 2.2 (1), wzoru 1.2.11 [HoJo — dow´od indukcyjny przez rozwinie-
cie Laplace’a dla wyznacznika] oraz wzor´ow Viete’a otrzymujemy kolejno r´owno´sci
dla k = 0, 1, . . . , s

− 1

w(F

k

) =

X

R⊆S

|R|=k

det L(R


R) = (

−1)

s−k

a

k

=

X

1≤i

1

<...<i

s

−k

≤s

λ

i

1

. . . λ

i

s

−k

.

(2.24)

Zauwa˙zmy teraz, ˙ze na mocy stwierdzenia 2.5 prawa strona tezy jest r´ownowa˙zna
warunkowi

w(F

0

) = 0, . . . , w(F

m−1

) = 0 oraz w(F

m

) > 0.

(2.25)

background image

36

Je´sli λ

1

= . . . = λ

m

= 0, to z r´owno´sci (2.24) wynika, ˙ze warunek powy˙zszy jest

spe lniony.

W celu udowodnienia implikacji przeciwnej zauwa˙zmy, ˙ze je´sli 0 = w(F

0

) =

λ

1

. . . λ

s

, to istnieje i

1

∈ S takie, ˙ze λ

i

1

= 0. Wtedy z (2.24) otrzymujemy 0 =

w(F

1

) = λ

1

. . . ˆ

λ

i

1

. . . λ

s

. Zatem istnieje i

2

∈ S, i

2

6= i

1

takie, ˙ze λ

i

2

= 0. W

ten spos´ob dowodzimy indukcyjnie, ˙ze istniej¸a parami r´o˙zne indeksy i

1

, . . . , i

m

∈ S

takie, ˙ze λ

i

1

= . . . = λ

i

k

= 0 oraz dla k = 0, . . . , m

− 1

w(F

k

) =

Y

j6=i

l

l≤k

λ

j

.

Ponadto z (2.25) wynika, ˙ze

0 < w(F

m

) =

Y

j6=i

k

k≤m

λ

j

.

Zatem pozosta lych s

− m warto´sci w lasnych laplasjanu L jest r´o˙znych od zera. 

Wniosek 2.5. Je´sli sko´

nczony LM zadany przez laplasjan L jest jednoklasowy, to

dla dowolnego k > 1, re λ

k

(L) > 0, w przeciwnym przypadku istnieje k > 0, takie ˙ze

λ

k

(L) = 0.

Dow´od. Oczywi´scie mo˙zna za lo˙zy´c, ˙ze laplasjan L jest niezerowy, czyli d := max

i∈S



P

j6=i

l

ij



> 0. Warto´sci w lasne L (λ

i

, i

∈ S) oraz warto´sci w lasne macierzy

A := I

− d

−1

L, (α

i

, i

∈ S), s¸a zwi¸azane r´owno´sci¸a λ

i

= d(1

− α

i

), poniewa˙z

−d(αI − A) = d(1 − α)I − L dla dowolnego α ∈ C.

Latwo zauwa˙zy´c, ˙ze A jest macierz¸a substochastyczn¸a oraz

i

| ≤ 1 [Io p. 1.11.2].

Zatem



1

1
d

re λ

i



2

+

 1

d

im λ

i



2

≤ 1,

czyli

0

≤ |λ

i

|

2

≤ 2d re λ

i

.

W rezultacie z twierdzenia 2.5 wynika teza.



background image

37

Za l´o˙zmy teraz, ˙ze wszystkie warto´sci w lasne laplasjanu Markowa L s¸a rzeczywiste

(za lo˙zenie to jest spe lnione m.in. dla interesuj¸acych i omawianych w rozdziale 5.
la´

ncuch´ow odwracalnych) i uporz¸adkowane wed lug wzrostu warto´sci λ

1

= 0

≤ λ

2

. . .

≤ λ

s

. Przy pomocy rozwini¸e´c w lasy skierowane mo˙zna w tym przypadku

oszacowa´c warto´sci w lasne L.

Twierdzenie 2.6. Niech L b¸edzie jednoklasowym laplasjanem Markowa o rzeczy-
wistych warto´sciach w lasnych. Wtedy dla k = 2, . . . , s

max



s−1

k−2



−1

w(F

k−1

)

w(F

k

)

,

s−1

k−2



w(F

1

)

w(F

k

)w(F

s−k+2

)



≤ λ

k

oraz

λ

k

≤ min



s−1

k−1

 w(F

k−1

)

w(F

k

)

,

s−1

k−1



−1

w(F

s−k+1

)w(F

k−1

)

w(F

1

)



.

Dow´od. Dla k = s tez¸e otrzymujemy bezpo´srednio z r´owno´sci (2.24) oraz konwencji
w(F

s

) = 1. Z r´owno´sci (2.24) wynika ponadto, ˙ze dla k = 2, . . . , s

− 1

w(F

k

)

w(F

1

)

=

X

2≤i

1

<...<i

k

1

≤s

1

λ

i

1

. . . λ

i

k

1

.

Zatem dla k = 2, . . . , s

− 1

1

λ

2

. . . λ

k

w(F

k

)

w(F

1

)

s−1

k−1



1

λ

2

. . . λ

k

oraz dla k = 2, . . . , s

s−1

k−1

 λ

2

. . . λ

k

≤ w(F

s−k+1

).

W rezultacie dla k = 2, . . . , s

− 1

w(F

1

)

w(F

k

)

max



s−1

k−2



−1

w(F

k−1

)

w(F

1

)

,

s−1

k−2



1

w(F

s−k+2

)



w(F

1

)

w(F

k

)

1

λ

2

. . . λ

k−1

≤ λ

k

≤ min



s−1

k−1

 w(F

1

)

w(F

k

)

,

s−1

k−1



−1

w(F

s−k+1

)



1

λ

2

. . . λ

k−1

≤ min



s−1

k−1

 w(F

1

)

w(F

k

)

,

s−1

k−1



−1

w(F

s−k+1

)

 w(F

k−1

)

w(F

1

)

.



background image

38

Niech teraz ¯

L := saI

−aJ

s

−L, gdzie a := − min

i6=j

l

ij

. Latwo zauwa˙zy´c, ˙ze ¯

L jest

laplasjanem Markowa. Niech ponadto ¯

λ

1

, . . . , ¯

λ

s

b¸ed¸a warto´sciami w lasnymi ¯

L oraz

dla k = 0, . . . , s, niech ¯

F

k

oznaczaj¸a rodziny las´ow o korzeniach k elementowych w

grafie g(¯

L).

Okazuje si¸e, ˙ze oszacowania warto´sci w lasnych laplasjanu ¯

L uzupe lniaj¸a oszaco-

wania warto´sci w lasnych L podane w twierdzeniu 2.6.

Twierdzenie 2.7. Niech L b¸edzie jednoklasowym laplasjanem Markowa o rzeczy-
wistych warto´sciach w lasnych. Wtedy dla k = 2, . . . , s

sa

− min



s−1

k−2

 w(

¯

F

s−k+1

)

w( ¯

F

s−k+2

)

,

s−1

k−2



−1

w( ¯

F

k−1

)w( ¯

F

s−k+1

)

w( ¯

F

1

)



≤ λ

k

oraz

λ

k

≤ sa − max



s−1

k−1



−1

w( ¯

F

s−k+1

)

w( ¯

F

s−k+2

)

,

s−1

k−1



w( ¯

F

1

)

w( ¯

F

s−k+2

)w( ¯

F

k

)



.

Dow´od. Oszacowania powy˙zsze s¸a konsekwencj¸a twierdzenia 2.6 zastosowanego do
laplasjanu ¯

L oraz r´owno´sci ¯

λ

i+1

= sa

− λ

s−i+1

dla i = 1, . . . , s

− 1, kt´ore s¸a konsek-

wencj¸a lematu 2.4 poni˙zej.



Lemat 2.4.

(sa

− x)ϕ

¯

L

(x) = (

−1)

s+1

L

(sa

− x).

Dow´od. Oznaczmy przez I

, J

, L

macierze rz¸edu s

× (s − 1) powsta le z I, J, L

przez usuni¸ecie pierwszej kolumny. Wtedy

(sa

− x) det(xI − ¯L) = (sa − x) det(xI − saI + aJ + L)

= (

−1)

s

(sa

− x) det[(sa − x)I − aJ − L]

(

dodanie do pierwszej kolumny
sumy pozosta lych kolumn

)

= (

−1)

s

(sa

− x) det



−x (sa − x)I

1

... −aJ

1

− L

1

−x



(

pomno˙zenie pierwszej kolumny
przez

a
x

)

= (

−1)

s+1

x
a

(sa

− x) det



a (sa

− x)I

1

..

.

−aJ

1

− L

1

a



background image

39

(

dodanie pierwszej kolumny
do pozosta lych kolumn

)

= (

−1)

s+1

x
a

(sa

− x) det



a (sa

− x)I

1

...

−L

1

a



od prawej do lewej:
dodanie do pierwszej kolumny
sumy pozosta lych kolumn
i pomno˙zenie pierwszej kolumny
przez

a

sa−x

= (

−1)

s+1

x det[(sa

− x)I − L].



Uwagi 2.5.

(1) Twierdzenie 2.5 i wniosek 2.5 s¸a znane (patrz np. [Io], [Se]) — w podanych

dowodach nie wykorzysta lem jednak argument´ow analitycznych.

(2) Lemat 2.4 jest uog´olnieniem twierdzenia 3.6 z pracy [Mo], gdzie por´owny-

wano warto´sci w lasne symetrycznego laplasjanu Markowa L = (l

ij

)

i,j∈S

i

laplasjanu ¯

L = (¯l

ij

)

i,j∈S

, takiego ˙ze ¯l

ij

:= 1

− l

ij

. Warto zauwa˙zy´c, ˙ze sta la

a z twierdzenia 2.7 daje najlepsze oszacowania w´sr´od liczb b, dla kt´orych
laplasjan

L(b) := sbI

s

− bJ

s

− L

jest laplasjanem Markowa.

background image

40

3. Algorytmy dla uk lad´ow r´owna´

n liniowych zwi¸azanych z la´

ncuchami

Markowa.

3.1. Wzgl¸ednie zaburzone la´

ncuchy Markowa.

Podane w rozdziale 2. rozwini¸ecia w lasy skierowane dla r´o˙znych charakterystyk

LM mo˙zna wykorzysta´c do oszacowania b l¸edu algorytm´ow, kt´ore rozwi¸azuj¸a uk lady

r´owna´

n liniowych spe lnione przez te charakterystyki. Poni˙zsze twierdzenia i wnioski

okre´slaj¸a wp lyw zaburze´

n laplasjanu Markowa na zaburzenia charakterystyk LM.

Twierdzenie 3.1. Niech L b¸edzie laplasjanem Markowa, R

⊆ S, u := s −|R| oraz

niech b = (b

k

)

k∈S\R

nieujemnym wektorem u-wyrazowym. Niech ˜

L = (˜l

ij

)

i,j∈S

oraz

˜

b = (˜b)

i∈S\R

b¸ed¸a odpowiednio laplasjanem i wektorem, kt´orych elementy spe lniaj¸a

nast¸epuj¸ace nier´owno´sci:

C

L

l

ij

≥ ˜l

ij

≥ C

U

l

ij

,

c

L

b

i

≤ ˜b

i

≤ c

U

b

i

.

dla i

∈ S \ R, j ∈ S, i 6= j, oraz 0 < C

L

≤ 1 ≤ C

U

, 0 < c

L

≤ 1 ≤ c

U

. Za l´o˙zmy, ˙ze

w grafie g(L) istnieje las o korzeniu R. Wtedy:

(1) macierze L(R


R) oraz ˜

L(R


R) s¸a odwracalne;

(2) rozwi¸azania x = (x

i

)

i∈S\R

oraz ˜

x = (˜

x

i

)

i∈S\R

uk lad´ow r´owna´

n liniowych

L(R


R)x = b

oraz

˜

L(R


R)˜

x = ˜

b

spe lniaj¸a nier´owno´sci

 C

u−1

L

c

L

C

u

U



x

i

≤ ˜x

i

 C

u−1

U

c

U

C

u

L



x

i

dla i

∈ S \ R.

(3) rozwi¸azania x = (x

i

)

i∈S\R

oraz ˜

x = (˜

x

i

)

i∈S\R

uk lad´ow r´owna´

n liniowych

L

T

(R


R)x = b

oraz

˜

L

T

(R


R)˜

x = ˜

b

spe lniaj¸a nier´owno´sci

 C

u−1

L

c

L

C

u

U



x

i

≤ ˜x

i

 C

u−1

U

c

U

C

u

L



x

i

dla i

∈ S \ R.

background image

41

Dow´od. Zauwa˙zmy, ˙ze g(L) = g(˜

L). Zatem cz¸e´s´c (1) wynika z wniosku 2.3. Niech

w(f ) oraz ˜

w(f ) b¸ed¸a wagami lasu f w grafach obci¸a˙zonych (L, g(L)) oraz (˜

L, g(˜

L)).

Z za lo˙zenia wynika, ˙ze dla dowolnych i, j

∈ S \ R,

f

1

∈ F (R) oraz f

2

∈ F

ij

(R, j) w grafie g(L),

spe lnione s¸a nier´owno´sci:

0 < (C

L

)

u

w(f

1

)

≤ ˜

w(f

1

)

≤ (C

U

)

u

w(f

1

),

(3.1)

0 < (C

L

)

u−1

w(f

2

)

≤ ˜

w(f

2

)

≤ (C

U

)

u−1

w(f

2

).

(3.2)

St¸ad oraz z lematu 2.3 otrzymujemy dla i

∈ S \ R

˜

x

i

=

P

j∈S\R

˜

w

ij

(R, j)˜b

j

˜

w(R)

P

j∈S\R

C

u−1

U

w

ij

(R, j)c

U

b

j

C

u

L

w(R)

=

C

u−1

U

c

U

C

u

L

x

i

.

Podobnie dowodzimy, ˙ze

˜

x

i

C

u−1

L

c

L

C

u

U

x

i

.

W ten spos´ob otrzymujemy cz¸e´s´c (2) twierdzenia. Cz¸e´s´c (3) dowodzimy podobnie.



Twierdzenie 3.2.

Niech L = (l

ij

)

i,j∈S

b¸edzie nieprzywiedlnym laplasjanem

Markowa oraz ˜

L = (˜l

ij

)

i,j∈S

laplasjanem, kt´orego elementy spe lniaj¸a nast¸epuj¸ace

nier´owno´sci:

C

L

l

ij

≥ ˜l

ij

≥ C

U

l

ij

dla i

6= j

oraz

0 < C

L

≤ 1 ≤ C

U

.

Wtedy rozk lady stacjonarne dla L oraz ˜

L spe lniaj¸a nier´owno´sci

 C

L

C

U



s−1

π

i

≤ ˜π

i

 C

U

C

L



s−1

π

i

background image

42

oraz

 C

L

C

U



s−1

π

i

π

j

˜

π

i

˜

π

j

 C

U

C

L



s−1

π

i

π

j

dla i, j

∈ S.

Dow´od. Twierdzenie to dowodzimy podobnie do twierdzenia 3.1 wykorzystuj¸ac wz´or
(2.8). Mo˙zemy r´ownie˙z udowodni´c je jako wniosek z twierdzenia 3.1 wykorzystuj¸ac
wz´or (2.10).



Twierdzenie 3.3. Niech dany b¸edzie LM o laplasjanie L, kt´orego zbi´or stan´ow
sk lada si¸e z m klas powracaj¸acych C

k

(k

≤ m) oraz zbioru stan´ow chwilowych T .

Niech C := C

1

.

∪ . . .

.

∪ C

m

, c :=

|C|, t := |T | oraz c

k

:=

|C

k

| dla k = 1, . . . , m. Niech

ponadto ˜

L = (˜l

ij

)

i,j∈S

b¸edzie laplasjanem, kt´orego elementy spe lniaj¸a nast¸epuj¸ace

nier´owno´sci

C

L

l

ij

≥ ˜l

ij

≥ C

U

l

ij

dla i

6= j

oraz

0 < C

L

≤ 1 ≤ C

U

.

Wtedy:

 C

L

C

U



c

k

−1

p

ij

≤ ˜p

ij

 C

U

C

L



c

k

−1

p

ij

(1)

je´sli i, j

∈ C

k

dla pewnego k

≤ m;

C

c

k

+t−1

L

C

c+c

k

−1

U

p

ij

≤ ˜p

ij

C

c

k

+t−1

U

C

c+c

k

−1

L

p

ij

(2)

je´sli i

∈ T oraz j ∈ C

k

dla pewnego k

≤ m;

˜

p

ij

= p

ij

= 0

w pozosta lych przypadkach.

(3)

Dow´od. Cz¸e´s´c (1) wynika z twierdzenia 3.2 i twierdzenia 2.3 (1). Cz¸e´s´c (2) wynika z
twierdzenia 3.2, kolejnego twierdzenia 3.4 (1) oraz uwagi 2.4 (2). Cz¸e´s´c (3) wynika
z twierdzenia 2.3 (3).



background image

43

Twierdzenie 3.4. Niech L = (l

ij

)

i,j∈S

b¸edzie laplasjanem Markowa takim, ˙ze w

grafie g(L) dla ustalonego R

⊆ S istnieje las o korzeniu R. Niech ponadto ˜L =

(˜l

ij

)

i,j∈S

b¸edzie laplasjanem, kt´orego elementy spe lniaj¸a nast¸epuj¸ace nier´owno´sci

C

L

l

ij

≥ ˜l

ij

≥ C

U

l

ij

dla i

∈ S \ R, j ∈ S, i 6= j

oraz

0 < C

L

≤ 1 ≤ C

U

.

Oznaczmy u := s

− |R|. Wtedy dla i, j 6∈ R, k ∈ R:

C

u−1

L

C

u

U

µ

ij

(R)

≤ ˜µ

ij

(R)

C

u−1

U

C

u

L

µ

ij

(R);

(1)

 C

L

C

U



u

p

ik

(R)

≤ ˜p

ik

(R)

 C

U

C

L



u

p

ik

(R);

(2)

C

u−1

L

C

u

U

m

i

(R)

≤ ˜

m

i

(R)

C

u−1

U

C

u

L

m

i

(R);

(3)

(4) dla LM z czasem dyskretnym

˜

σ

2

i

(R)

C

2(u−1)

U

C

2u

L

(

σ

2

i

(R) + (1

− C

L

)m

i

(R) +

"

1

 C

L

C

U



u−1

m

2

i

(R)

#)

oraz

C

2(u−1)

L

C

2u

U

(

σ

2

i

(R)

− (1 − C

L

)m

i

(R) +

"

1

 C

U

C

L



u−1

m

2

i

(R)

#)

≤ ˜σ

2

i

(R);

(4

) dla LM z czasem ci¸ag lym

˜

σ

2

i

(R)

C

2(u−1)

U

C

2u

L

(

σ

2

i

(R) +

"

1

 C

L

C

U



u−1

m

2

i

(R)

#)

oraz

C

2(u−1)

L

C

2u

U

(

σ

2

i

(R) +

"

1

 C

U

C

L



u−1

m

2

i

(R)

#)

≤ ˜σ

2

i

(R).

Dow´od. Cz¸e´sci (1)–(3) otrzymujemy analogicznie do dowodu twierdzenia 3.2 wyko-
rzystuj¸ac twierdzenie 2.4 (1)–(3).

background image

44

(4) Zauwa˙zmy, ˙ze dla dowolnych i, j

6∈ R, wagi las´ow zawartych w g(˜L) takich, ˙ze

f

∈ F

ij

(R

∪ {j}) s¸a iloczynami u − 1 element´ow macierzy ˜L. St¸ad i z twierdzenia

2.4 (4) otrzymujemy dla i

∈ S

˜

σ

2

i

(R) :=

P

j6∈R

˜

w

ij

(R, j)

h

P

k6∈R

˜

w

jk

(R, k)(2 + ˜l

kR

)

P

l6∈R

˜

w

il

(R, l)

i

˜

w

2

(R)

C

u−1

U

P

j6∈R

w

ij

(R, j)

n

C

u−1

U

P

k6∈R

w

jk

(R, k)[2 + C

L

l

kR

]

− C

u−1

L

P

l6∈R

w

il

(R, l)

o

C

2u

L

w

2

(R)

=

C

2(u−1)

L

w

2

(R)C

2u

U

"

2

X

j6∈R, k6∈R

w

ij

(R, j)w

jk

(R, k)

+C

L

X

j6∈R, k6∈R

w

ij

(R, j)w

jk

(R, k)l

kR

 C

L

C

U



u−1

X

j6∈R, l6∈R

w

ij

(R, j)w

il

(R, l)

#

=

C

2(u−1)

U

C

2u

L

(

σ

2

i

(R) + εm

i

(R) +

"

1

 C

L

C

U



u−1

#

m

2

i

(R)

)

.

Podobnie dowodzimy, ˙ze

C

2(u−1)

L

C

2u

U

(

σ

2

i

(R)

− (1 − C

L

)m

i

(R) +

"

1

 C

U

C

L



u−1

#

m

2

i

(R)

)

≤ ˜σ

2

i

(R).

Cz¸e´s´c (4’) dowodzimy podobnie do cz¸e´sci (4), korzystaj¸ac z twierdzenia 2.4 (4’).



W dalszej cz¸e´sci rozdzialu rozwa˙za´c b¸edziemy zaburzenia laplasjanu Markowa L i

nieujemnego wektora b wywo lane reprezentacj¸a zmiennoprzecinkow¸a oraz wykony-
waniem dzia la´

n w arytmetyce zmiennoprzecinkowej o jednostce zaokr¸aglenia ε. Dla

analizy takich zaburze´

n wprowadzimy pewn¸a relacj¸e (por. [St], str. 407).

Powiemy, ˙ze dla ustalonego k

∈ N, ε

1

> 0, funkcje A, B :

(0, ε

1

)

→ R

s¸a k-r´ownowa˙zne (oznaczenie A(ε) =

hkiB(ε)), je´sli dla ε ∈ (0, ε

1

) spe lnione s¸a

nier´owno´sci

(1

− ε)

k

A(ε)

B(ε)

≤ (1 − ε)

−k

.

Latwo udowodni´c poni˙zsze lematy.

Lemat 3.1. Niech k, l

∈ N. Wtedy:

background image

45

(1) A(ε) =

hkiA(ε);

(2) Je˙zeli A(ε) =

hkiB(ε), to B(ε) = hkiA(ε).

(3) Je˙zeli A(ε) =

hkiB(ε) oraz B(ε) = hliC(ε), to A(ε) = hk + liC(ε).

Lemat 3.2. Za l´o˙zmy, ˙ze A(ε) =

hkia oraz B(ε) = hlib dla pewnych k, l ∈ N oraz

a, b

∈ R. Wtedy:

(1) A(ε)B(ε) =

hk + liab;

(2) je˙zeli B(ε), b

6= 0, to

A(ε)

B(ε)

=

hk + li

a

b

;

(3) je˙zeli A(ε), B(ε)

≥ 0 lub A(ε), B(ε) ≤ 0,to

A(ε) + B(ε) =

hk ∨ li(a + b).

7

)

W dalszej cz¸e´sci rozdzia lu rozwa˙za´c b¸edziemy funkcje A : (0, 1)

→ R

+

takie, ˙ze

A(ε) :=

(1 + a

1

ε) . . . (1 + a

l

ε)

(1 + a

l+1

ε) . . . (1 + a

k

ε)

a,

gdzie a

≥ 0, l ≤ k oraz |a

i

| ≤ 1 dla i = 1, . . . , k. Oczywi´scie

A(ε) =

hkia.

Funkcja A ma ponadto nast¸epuj¸ace w lasno´sci [St, str. 408].

Lemat 3.3.

(1) Istnieje µ

∈ [−k, k] takie, ˙ze

A(ε) = 1 + µε + O(ε

2

)

przy ε

→ 0.

(2) Je´sli kε

≤ 0.1, to |A(ε) − a| ≤ 1.06kεa.

Rodzin¸e

{L(ε), ε ∈ (0, ε

1

)

} laplasjan´ow Markowa rz¸edu s × s nazywa´c b¸edziemy

wzgl¸ednie zaburzonym la´

ncuchem Markowa (WZ LM) indukowanym przez laplasjan

Markowa L = (l

ij

)

i,j∈S

oraz k

1

∈ N, je˙zeli dla dowolnych i, j ∈ S, i 6= j

−l

ij

(ε) =

hk

1

il

ij

.

7

) a

∨ b := max(a, b); analogicznie a ∧ b := min(a, b)

background image

46

Rodzin¸e nieujemnych u-wymiarowych wektor´ow

{b(ε), ε ∈ (0, ε

1

)

}, nazywa´c b¸e-

dziemy wzgl¸ednie zaburzonym nieujemnym wektorem (WZNW) indukowanych przez
nieujemny wektor b = (b

i

)

u

i=1

oraz l

1

∈ N, je˙zeli dla dowolnego i = 1, . . . , u

b

i

(ε) =

hl

1

ib

i

.

Zauwa˙zmy, ˙ze dla ε

∈ (0, ε

1

), g(L(ε)) = g(L). St¸ad oraz z lemat´ow 3.1–3.2

otrzymujemy bezpo´srednio

Stwierdzenie 3.1. Niech dany b¸edzie WZ LM

{L(ε), ε ∈ (0, ε

1

)

} indukowany przez

laplasjan L oraz k

1

∈ N. Niech F (R) b¸edzie zbiorem las´ow w grafie g(L) o korzeniu

R

⊆ S. Przyjmijmy u := s − |R|. Wtedy:

(1) w(f )(ε) =

huk

1

iw(f) dla f ∈ F (R),

(2) w(R)(ε) =

huk

1

iw(R),

gdzie w(f )(ε) oraz w(R)(ε) oznaczaj¸a odpowiednio wagi lasu f oraz zbioru las´ow
F (R) w grafie g(L(ε)).

Kolejne wnioski okre´slaj¸a wp lyw zaburze´

n wywo lanych reprezentacj¸a zmienno-

przecinkow¸a laplasjanu L na charakterystyki LM.

Wniosek 3.1. Niech dany b¸edzie zbi´or R

⊆ S oraz WZ LM {L(ε), ε ∈ (0, ε

1

)

}

indukowany przez laplasjan L i k

1

∈ N. Niech ponadto dany b¸edzie WZNW

{b(ε), ε ∈ (0, ε

1

)

} indukowany przez l

1

oraz wektor b rz¸edu u := s

− |R|. Za l´o˙zmy,

˙ze w grafie g(L) istnieje las o korzeniu R. Wtedy:

(1) rozwi¸azania x = (x

i

)

i∈S\R

oraz x(ε) = (x

i

(ε))

i∈S\R

uk lad´ow r´owna´

n linio-

wych

L(R


R)x = b

oraz L(R


R)(ε)x(ε) = b(ε)

spe lniaj¸a dla i

∈ S \ R relacje

x

i

(ε) =

h(2u − 1)k

1

+ l

1

ix

i

;

(2) rozwi¸azania x = (x

i

)

i∈S\R

oraz x(ε) = (x

i

(ε))

i∈S\R

uk lad´ow r´owna´

n linio-

wych

L

T

(R


R)x = b

oraz L

T

(R


R)(ε)x(ε) = b(ε)

spe lniaj¸a dla i

∈ S \ R relacje

x

i

(ε) =

h(2u − 1)k

1

+ l

1

ix

i

;

background image

47

Dow´od. Wniosek wynika z lematu 3.2 oraz twierdzenia 3.1 po podstawieniu

C

U

:= (1

− ε)

−k

1

,

C

L

:= (1

− ε)

k

1

c

U

:= (1

− ε)

−l

1

,

c

L

:= (1

− ε)

l

1

.



Wniosek 3.2. Niech dany b¸edzie WZ LM

{L(ε), ε ∈ (0, ε

1

)

} indukowany przez

laplasjan L oraz k

1

∈ N. Wtedy dla i ∈ S

π

i

(ε) =

h2(s − 1)k

1

i

,

gdzie π

i

(ε) s¸a wyrazami rozk ladu stacjonarnego LM o laplasjanie L(ε).

Dow´od. Wniosek ten dowodzimy podobnie do wniosku 3.1 wykorzystuj¸ac wz´or (2.8).
Mo˙zemy r´ownie˙z udowodni´c go jako wniosek z twierdzenia 3.1 wykorzystuj¸ac wz´or
(2.10).



Podamy teraz analogiczny wynik dla macierzy granicznej P

(ε) = p

ij

(ε)



i,j∈S

LM o laplasjanie L(ε).

Wniosek 3.3.

Niech dany b¸edzie WZ LM

{L(ε), ε ∈ (0, ε

1

)

} indukowany przez k

1

∈ N oraz

laplasjan L sk ladaj¸acy si¸e z m

≥ 1 klas powracaj¸acych C

k

, k

≤ m oraz zbioru

stan´ow chwilowych T . Niech C := C

1

.

∪ . . .

.

∪ C

m

, c :=

|C|, t := |T | oraz c

k

:=

|C

k

|

dla k = 1, . . . , m. Wtedy:

p

ij

(ε) =

h2(c

k

− 1)k

1

ip

ij

(1)

je´sli i, j

∈ C

k

dla pewnego k

≤ m;

p

ij

(ε) =

h2(c

k

− 1 + t)k

1

ip

ij

(2)

je´sli i

∈ T oraz j ∈ C

k

dla pewnego k

≤ m;

p

ij

(ε) = p

ij

= 0

w pozosta lych przypadkach.

(3)

background image

48

Dow´od. Cz¸e´s´c (1) wynika z wniosku 3.2 i twierdzenia 2.3 (1). Cz¸e´s´c (2) wynika
z wniosku 3.2, kolejnego wniosku 3.4 (2) oraz uwagi 2.4 (1). Cz¸e´s´c (3) wynika z
twierdzenia 2.3 (3).



Poni˙zszy wniosek okre´sla wielko´s´c zaburzenia odpowiednik´ow charakterystyk

WZ LM zdefiniowanych na str. 32.

Wniosek 3.4. Niech dany b¸edzie WZ LM

{L(ε), ε ∈ (0, ε

1

)

} indukowany przez

k

1

∈ N oraz laplasjan L, dla kt´orego, przy ustalonym R ⊆ S, w grafie g(L) istnieje

las o korzeniu R. Przyjmijmy u := s

− |R|. Wtedy dla i, j ∈ S \ R, k ∈ R:

(1)

µ

ij

(R)(ε) =

h(2u − 1)k

1

ij

(R);

(2)

p

ik

(R)(ε) =

h2uk

1

ip

ik

(R);

(3)

m

i

(R)(ε) =

h(2u − 1)k

1

im

i

(R).

(4) dla LM z czasem dyskretnym

2

i

(R)(ε)

− σ

2

i

(R)

|

≤ (1 − ε)

−(4u−2)

2

i

(R) + εm

i

(R) +

1 − (1 − ε)

2(u−1)

 m

2

i

(R)

− σ

2

i

(R)

=

(4u − 2)σ

2

i

(R) + m

i

(R) + (2u

− 2)m

2

i

(R)

 ε + O(ε

2

);

(4’) dla LM z czasem ci¸ag lym

2

i

(R)(ε)

− σ

2

i

(R)

|

≤ (1 − ε)

−(4u−2)

2

i

(R) +

1 − (1 − ε)

2(u−1)

 m

2

i

(R)

− σ

2

i

(R)

=

(4u − 2)σ

2

i

(R) + (2u

− 2)m

2

i

(R)

 ε + O(ε

2

).

Dow´od. Cz¸e´sci (1)–(3) otrzymujemy analogicznie do dowodu wniosku 3.2 wykorzy-
stuj¸ac twierdzenie 3.4 (1)–(3).
(4) Je´sli w twierdzeniu 3.4 (4) podstawimy C

U

:= (1

− ε)

−1

, C

L

:= 1

− ε, to

otrzymamy

σ

2

i

(R)(ε)

− σ

2

i

(R)

(1

− ε)

−(4u−2)

2

i

(R) + εm

i

(R) +

1 − (1 − ε)

2(u−1)

 m

2

i

(R)

− σ

2

i

(R). (3.3)

oraz

σ

2

i

(R)

− σ

2

i

(R)(ε)

background image

49

σ

2

i

(R)

− (1 − ε)

4u−2

2

i

(R)

− εm

i

(R) +

1 − (1 − ε)

−2(u−1)

 m

2

i

(R)

. (3.4)

Oznaczmy prawe strony nier´owno´sci (3.3) i (3.4) odpowiednio przez p

1

(ε) oraz p

2

(ε).

Latwo zauwa˙zy´c, ˙ze dla u = 0, 1, 2, . . .

1

− (1 − ε)

4u−2

≤ (1 − ε)

−(4u−2)

− 1

oraz

(1

− ε)

2u

+ (1

− ε)

−2u

≤ (1 − ε)

4u−2

+ (1

− ε)

−(4u−2)

.

St¸ad wynika, ˙ze

1 − (1 − ε)

4u−2

 σ

2

i

(R) + (1

− ε)

4u−2

εm

i

(R)

+

(1 − ε)

2u

− (1 − ε)

4u−2

 m

2

i

(R)

(1 − ε)

−(4u−2)

− 1

 σ

2

i

(R) + (1

− ε)

−(4u−2)

εm

i

(R)

+

(1 − ε)

−(4u−2)

− (1 − ε)

−2u

 m

2

i

(R).

W rezultacie

p

2

(ε)

≤ p

1

(ε).

Po rozwini¸eciu w szereg Maclaurina p

1

(ε) otrzymujemy tez¸e.

Cz¸e´s´c (4’) dowodzimy podobnie do cz¸e´sci (4), korzystaj¸ac z twierdzenia 3.4 (4’).



Uwagi 3.1.

(1) Rozwini¸ecia w lasy skierowane mo˙zna traktowa´c jako algorytmy dla obli-

czenia charakterystyk LM. Nie s¸a to jednak algorytmy efektywne — takie
algorytmy podamy w cz¸e´sci 3.2. Istotnie, ze wzoru (2.5) wynika, ˙ze np.
obliczenie π

i

w przypadku, gdy g(L) jest grafem zupe lnym wymaga wyko-

nania (s

− 1)

s−1

operacji arytmetycznych.

(2) Oszacowanie podane we wniosku 3.2 mo˙zna poprawi´c — zachodzi bowiem

asymptotyczna nier´owno´s´c

i

(ε)

− π

i

| ≤ 2(s − 1)k

1

(1

− π

i

i

ε + O(ε

2

),

dla i

∈ S.

(3.5)

Dow´od. Zauwa˙zmy, ˙ze dla j

∈ S

w(j)(ε) =

X

f ∈F (j)

Y

(m,n)∈E

f

(1 + µ

mn

ε)(

−l

mn

),

background image

50

gdzie

mn

| ≤ k

1

dla m, n

∈ S.

Zatem z lematu 3.3 (1) wynika, ˙ze w(j)(ε) = [1 + µ

j

ε + ε

2

p

j

(ε)]w(j) dla

pewnego wielomianu p

j

oraz µ

j

∈ R takiego, ˙ze |µ

j

| ≤ (s − 1)k

1

. St¸ad i z

twierdzenia 2.1 (2) (a) otrzymujemy

π

i

(ε) =

"

(1 + µ

i

ε)w(i) + ε

2

p

j

(ε)

P

j∈S

(1 + µ

j

ε)w(j) + ε

2

p

j

(ε)

#

=

µ

i

w(i)

P

j∈S

(1 + µ

j

ε)w(j)

− (1 + µ

i

ε)w(i)

P

j∈S

µ

j

w(j) + O(ε)

h

P

j∈S

(1 + µ

j

ε)w(j) + O(ε

2

)

i

2

.

St¸ad

π

i

(0) = π

i

X

j6=i

i

− µ

j

j

≤ 2(s − 1)k

1

(1

− π

i

i

.

Podobnie otrzymujemy

−π

i

(0)

≤ 2(s − 1)k

1

(1

− π

i

i

.

W rezultacie z r´owno´sci

π

i

(ε) = π

i

+ π

i

(0)ε + O(ε

2

)

wynika (3.5).



(3) Wniosek 3.1 wydaje si¸e by´c najog´olniejszym oszacowaniem tego typu w

literaturze. Wnioski 3.2–3.4 s¸a wariantami rezultat´ow Takahashiego [Ta],
kt´ory wykorzysta l rozwini¸ecia w lasy skierowane dla wyznacznika dowolnej
macierzy, podane przez Botta i Mayberry’ego ([BoMa] — u mnie wniosek
2.1 (1)). Tweedie [Tw] i Seneta [Se] uog´olnili wyniki Takahashiego na la´

n-

cuchy Markowa o przeliczalnym zbiorze stan´ow.

O’Cinneide [O’C 1], nie znaj¸ac pracy Takahashiego i bez wykorzystania

rozwini¸e´c w lasy skierowane, oszacowa l zaburzenia dla rozk ladu stacjonar-
nego nieprzywiedlnego LM. Wynik ten jest nieco s labszy od wniosku 3.2.
Ten sam autor w pracy [O’C 2] poda l oszacowanie zaburzenia element´ow
macierzy L(R


R)

−1

, w przypadku, gdy L jest laplasjanem Markowa oraz

R

⊆ S. Rezultat ten jest nieco s labszy od wniosku 3.4 (1), i co wa˙zniejsze,

dow´od O’Cinneide’a jest niepoprawny.

Ostatnio Xue [Xu], r´ownie˙z bez wykorzystania rozwini¸e´c w lasy

skierowane, udowodni l oszacowanie r´ownowa˙zne wnioskowi 3.2.

background image

51

Poni˙zszy przyk lad pokazuje, ˙ze wsp´o lczynniki wyst¸epuj¸ace przy ε we wnioskach

3.2 i 3.4, a zatem i we wniosku 3.3 s¸a prawie optymalne. Cz¸e´s´c (1) jest modyfikacj¸a
przyk ladu podanego przez O’Cinneide’a w pracy [O’C 1].

Przyk lad 3.1. (1) Rozwa˙zmy laplasjan s

× s postaci

L(α, β) :=









β

−β

0

. . .

−α

α + β

−β

. . .

0

−α

0

α + β . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

−α

0

0

. . . α + β

−β

−α − β

0

0

. . .

0

α + β









,

(3.6)

gdzie α, β > 0. Uk lad (2.15) ma w tym przypadku posta´c:

(α + β)a

2

= β,

−βa

2

+ (α + β)a

3

= 0,

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
−βa

s−1

+ (α + β)a

s

= 0.

St¸ad i z warunku a

1

= 1 wynika, ˙ze

a

1

= 1,

a

j

= a

j−1

β(α + β)

−1

, dla j = 2, . . . , s.

(3.7)

Czyli po podstawieniu γ := β(α + β)

−1

, otrzymujemy

a

j

= γ

j−1

oraz

π

j

=

a

j

a

1

+ . . . + a

s

=

1

− γ

1

− γ

s

γ

j−1

dla j = 1, . . . , s.

(3.8)

Niech teraz 0 < δ, ε < 1. Przyjmijmy

α = (1

− δ) oraz β = δ



1 +

1

− δ

1 + δ

ε



.

Latwo zauwa˙zy´c, ˙ze ˜

L := L(α, β) = L(ε, δ) oraz L = L(0, δ) s¸a laplasjanami

Markowa spe lniaj¸acymi za lo˙zenia twierdze´

n 3.2—3.4. (Podstawienie to w odr´o˙z-

nieniu od podstawienia O’Cinneide’a obejmuje r´ownie˙z przypadek dyskretny).

background image

52

Niech ˜

π := π(ε, δ), π := π(0, δ) oznaczaj¸a rozk lady stacjonarne odpowiadaj¸ace

laplasjanom ˜

L, L. Po podstawieniu δ := ε

2

otrzymujemy z (3.8) dla j = 1, . . . , s

f

j

(ε) :=

π

j

(ε, ε

2

)

π

j

(0, ε

2

)

=

h

(s−j)

ε

g

j−1

ε

h

ε

− ε

2

g

j

ε

− ε

2s

g

ε

h

ε

+ ε

2(s+1)

g

2

ε



h

s

ε

− ε

2

h

s

ε

− ε

2

g

s

ε

+ ε

4

g

ε

,

gdzie g

ε

:= 1 + ε + ε

2

− ε

3

oraz h

ε

:= 1

− ε + ε

2

+ ε

3

. St¸ad f

j

(0) = 1 oraz

f

j

(0) = 2(j

− 1). W rezultacie

˜

π

s

− π

s

= 2(s

− 1)π

s

ε + O(ε

2

).

(2) Przyjmijmy R :=

{1, s} oraz a

ij

:= p

ij

(R) dla i

6∈ R, j ∈ R. Z twierdzenia 3.3

[Io] wynika, ˙ze macierz A = (a

ij

)

i6∈R, j∈R

spe lnia r´ownanie L(R


R)A =

−L(R


S

−R).

Zatem dla laplasjanu L(α, β) otrzymujemy uk lad







α + β

−β

0

0

α + β

−β

0

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

α + β

−β

0

0

α + β













a

21

a

2s

a

31

a

3s

. . . . . . . . . . . .

a

s−2,1

a

s−2,s

a

s−1,1

a

s−1,s







=







α 0
α 0
. . . . .
α 0
α β







(3.9)

Oczywi´scie a

i1

= 1

− a

is

dla i = 2, . . . , s

− 1, wi¸ec (3.9) jest r´ownowa˙zny uk ladowi

(α + β)a

2s

−βa

3s

= 0,

(α + β)a

3s

−βa

4s

= 0,

. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
(α + β)a

s−2s

−βa

s−1,s

= 0,

(α + β)a

s−1,s

= β.

(3.10)

St¸ad a

s−j,s

= γ

j

dla j = 1, . . . , s

− 2. Po podstawieniu jak w (1), otrzymujemy

f

j

(ε) :=

a

s−j,s

(ε, ε

2

)

a

s−j,s

(0, ε

2

)

=

 g

ε

h

ε



j

.

St¸ad f

j

(0) = 1 oraz f

j

(0) = 2j dla j = 1, . . . , s

− 2. W rezultacie

˜

p

2s

(R)

− p

2s

(R) = 2(s

− 2)p

2s

(R)ε + O(ε

2

).

Podobne rozumowanie mo˙zna przeprowadzi´c dla R =

{1, 2, . . . , r, s}, gdzie 1 ≤ r <

s

− 1.

background image

53

(3) Z twierdzenia 3.2 [Io] wynika, ˙ze wektor m(R) spe lnia r´ownanie

L(R


R)m(R) = e

s−r

.

Przyjmijmy R :=

{s − r + 1, . . . , s}. Wtedy dla laplasjanu L(α, β) otrzymujemy

uk lad







β

−β

−α α + β

−β

0

. . . . . . . . . . . . . . . . . . . . . . . . .
−α

α + β

−β

−α

0

α + β














m

1

...
..

.
...

m

s−r








=








1

...
..

.
...

1








,

(3.11)

gdzie m

i

= m

i

(R) dla i = 1, . . . , s

− r oraz r = |R|. Uk lad (3.11) jest r´ownowa˙zny

uk ladowi

(α + β)m

u

= 1 + αm

1

,

(α + β)m

u−j

= 1 + αm

1

+ βm

u−j+1

, dla j = 1, . . . , u

− 2,

βm

1

= 1 + βm

2

,

gdzie u := s

− r.

(3.12)

Zatem dla j = 0, . . . , u

− 2

m

u−j

=

1 + αm

1

α

"

1 +



β

α + β



j+1

#

.

(3.13)

W szczeg´olno´sci

m

2

=

1 + αm

1

α

"

1 +



β

α + β



u−1

#

.

St¸ad i z ostatniego r´ownania uk ladu (3.12) wynika, ˙ze

m

1

=

1

α

 α + β

β



u

− 1



.

W rezultacie z (3.13) otrzymujemy dla j = 1, . . . , u

m

j

=

(α + β)

j−1

[(α + β)

u−j+1

− β

u−j+1

]

αβ

u

= α

−1

γ

u

− γ

−j+1

 .

Po podstawieniu jak w (1), otrzymujemy dla j = 1, . . . , u

f

j

(ε) :=

m

j

(ε, ε

2

)

m

j

(0, ε

2

)

=

h

u

ε

− ε

2(u−j+1)

g

u−j+1

ε

h

j−1

ε

(1

− ε + ε

2(u−j+1)+1

− ε

2(u−j+1)

) g

u

ε

,

background image

54

st¸ad f

j

(0) = 1 oraz f

j

(0) =

−(2u − 1).

W rezultacie dla j = 1, . . . , u

m

j

− ˜

m

j

= (2u

− 1)m

j

ε + O(ε

2

).

(4) Z twierdzenia 3.2 [Io] wynika, ˙ze wektor m

(2)

(R) spe lnia w przypadku dyskret-

nym r´ownanie

L(R


R)m

(2)

(R) = 2P(R


R)m(R) + e

u

.

Niech R :=

{u + 1, . . . , s}. Dla laplasjanu L(α, β) powy˙zszy uk lad jest r´ownowa˙zny

uk ladowi

(α + β)



m

(2)

u

+ 2m

u



= α



m

(2)
1

+ 2m

1



+ 2m

u

+ 1,

(α + β)



m

(2)
u−j

+ 2m

u−j



= α



m

(2)
1

+ 2m

1



+ β



m

(2)
u−j+1

+ 2m

u−j+1



+2m

u−j

+ 1 dla j = 1, . . . , u

− 2,

β



m

(2)
1

+ 2m

1



= β



m

(2)
2

+ 2m

2



+ 2m

1

+ 1.

(3.14)

Zatem dla j = 0, . . . , u

− 2 otrzymujemy

m

(2)
u−j

+ 2m

u−j

=

nh

α



m

(2)
1

+ 2m

1



+1

i

(α + β)

j+1

− β

j+1

 α

−1

(3.15)

+ 2

j

m

u

+ β

j−1

(α + β)m

u−1

+ . . .

+ β(α + β)

j−1

m

u−j+1

+ (α + β)

j

m

u−j

 (α + β)

j+1

.

Z r´ownania (3.15) dla j = u

− 2 oraz ostatniego r´ownania uk ladu (3.14) wynika, ˙ze

m

(2)
1

+ 2m

1

=

2(α + β)

2u

− (2 − α)β

u

(α + β)

u

−2uαβ

u

(α + β)

u−1

− αβ

2u

 α

−2

β

−2u

.

St¸ad i z (3.15) otrzymujemy dla j = 1, . . . , u

m

(2)
j

=

2(α + β)

2u

− 2β

u−j+1

(α + β)

u+j−1

− αβ

u

(α + β)

u

− 2uαβ

u

(α + β)

u−1

+ 2(j

− 1)αβ

2u−j+1

(α + β)

j−2

+αβ

2u−j+1

(α + β)

j−1

 α

−2

β

−2u

.

W rezultacie

σ

2

j

=m

(2)
j

− m

2

j

=

(α + β)

2u

− 2β

2(u−j+1)

(α + β)

2(j−1)

− (α + β + 2u)αβ

u

(α + β)

u−1

background image

55

+ [α + β + 2(j

− 1)] αβ

2u−j+1

(α + β)

j−2

α

−2

β

−2u

−2

γ

−2u

− γ

−2(j−1)

 − α

−1

γ

−u

− γ

−j+1



− (α + β)

−1

α

−1

2uγ

−u

− 2(j − 1)γ

−j+1

 .

Po podstawieniu jak w (1) otrzymujemy dla j = 1, . . . , u

f

j

(ε) :=

σ

2

j

(ε, ε

2

)

σ

2

j

(0, ε

2

)

=

=

h

2u

ε

− (ε

2

g

ε

)

2(u−j+1)

h

2(j−1)

ε

h

ε

+ 2uε

2

(1

− ε

2

)

 (1 − ε

2

)(1

− ε)ε

u−2

g

u

ε

h

u−1

ε

+

h

ε

+ 2(j

− 1)ε

2

(1

− ε

2

)

 (1 − ε

2

)(1

− ε)ε

2u−j−1

g

2u−j+1

ε

h

j−2

ε

/

1 − ε

4(u−j+1)

+ (1 + 2uε

2

)(1

− ε

2

2u−2

+ 1 + 2(j

− 1)ε

2

 (1 − ε

2

4m−2j

 (1 − ε)

2

g

2u

ε

.

St¸ad f

j

(0) = 1 oraz f

j

(0) =

−(4u − 2).

W rezultacie dla j = 1, . . . , u

σ

2

j

− ˜σ

2

j

= [4(s

− r) − 2]σ

2

j

ε + O(ε

2

).

2

3.2. Algorytmy.

W tej cz¸e´sci rozdzia lu zaprezentujemy algorytmy dla analizowanych wcze´sniej

uk lad´ow r´owna´

n liniowych zwi¸azanych z podmacierzami g l´ownymi laplasjanu Mar-

kowa. Nast¸epnie oszacujemy wzgl¸edny b l¸ad rozwi¸azania (entrywise relative error)
tych algorytm´ow.

Rozwa˙zmy uk lad r´owna´

n

L

T

(R


R)x = b,

(3.16)

gdzie b jest nieujemnym wektorem u := s

− |R| wyrazowym oraz, dla prostoty,

R =

{u + 1, . . . , s}. Za l´o˙zmy, ˙ze w grafie indukowanym przez L istnieje las o

korzeniu R. Z lematu 2.2 (1) oraz stwierdzenia 2.5 wynika, ˙ze macierz L(R


R) jest

wtedy odwracalna oraz wszystkie jej elementy diagonalne s¸a dodatnie.

Najcz¸e´sciej spotykany w praktyce problem obliczeniowy zwi¸azany z LM polega

na wyznaczeniu rozk ladu stacjonarnego dla nieprzywiedlnego LM zadanego przez

background image

56

laplasjan L, czyli na rozwi¸azaniu uk ladu

L

T

π

= 0

s

, przy warunku

s

X

i=1

π

i

= 1.

(3.17)

Z twierdzenia 2.1 wynika, ˙ze dla rozwi¸azania tego uk ladu wystarczy rozwi¸aza´c uk lad

L

T

11

a

1

=

−(l

12

, . . . , l

1s

)

T

,

(3.18)

kt´ory jest przyk ladem uk ladu (3.16), a nast¸epnie unormowa´c wektor a

T

:= (1, a

T

1

).

W podanym ni˙zej algorytmie, podobnie jak w metodzie eliminacji Gaussa, prze-

kszta lcamy rozwi¸azywany uk lad r´owna´

n (3.16) do r´ownowa˙znego uk ladu o macie-

rzy g´ornej tr´ojk¸atnej, a nast¸epnie otrzymany uk lad tr´ojk¸atny rozwi¸azujemy przez
podstawienie wstecz. Inaczej jednak obliczane s¸a elementy g l´owne. Oznaczmy:

L

(1)
R

:=

"

L

T

(R


R)

−b

l

T

R

b

#

,

gdzie l

T

R

:= (l

1R

, . . . , l

uR

), l

iR

:=

P

j∈R

l

ij

dla i = 1, . . . , u oraz b :=

P

u
j=1

b

j

.

W kolejnym k-tym kroku metody (k = 1, . . . , u) definiujemy indukcyjnie macierz

L

(k+1)
R

w nast¸epuj¸acy spos´ob:

– zapisujemy dan¸a macierz L

(k)
R

w postaci

L

(k)
R

=

"

u

k

y

T

k

w

k

A

k

#

,

gdzie w

k

, y

k

s¸a wektorami (u

− k + 1) wyrazowymi;

– nast¸epnie przyjmujemy

L

(k+1)
R

:= A

k

w

k

y

T

k

u

k

.

(3.19)

Latwo zauwa˙zy´c przez indukcj¸e, ˙ze dla k = 1, . . . , u, macierz L

(k)
R

jest transpo-

nowanym laplasjanem Markowa rz¸edu (u

− k + 2) × (u − k + 2) oraz wszystkie

jej elementy diagonalne (z wyj¸atkiem ostatniego) s¸a dodatnie. St¸ad wynika, ˙ze
elementy g l´owne u

k

spe lniaj¸a r´owno´sci

u

k

=

u+1

X

j=k+1

w

jk

,

(3.20)

gdzie w

jk

s¸a wyrazami wektora w

k

.

background image

57

Do´swiadczenie numeryczne zwi¸azane z wykorzystaniem eliminacji Gaussa do

rozwi¸azywania modeli markowowskich wskazuje, ˙ze g l´ownym ´zr´od lem niedok lad-
no´sci algorytmu jest odejmowanie wyst¸epuj¸ace przy obliczaniu element´ow diagonal-
nych macierzy L

(k+1)
R

ze wzoru (3.19). Grassmam, Taksar i Heyman (1985) [Gr-

TaHe] zaproponowali modyfikacj¸e eliminacji Gaussa dla problemu (3.17), w kt´orej
elementy g l´owne s¸a obliczane bez odejmowania, korzystaj¸ac z r´owno´sci (3.20). Oto
uog´olnienie tego algorytmu dla problemu (3.16).

Algorytm 3.1.

input: Macierz nieosobliwa L(R


R) bez element´ow diagonalnych, wektory l

R

oraz

b.
output: Wektor x.
begin
1) for k = 1 to u do begin

l

k,u+1

:= l

kR

;

l

u+1,k

:= b

k

end;

2) {

Eliminacja

}

for k = 1 to u do begin

u

k

:=

P

u+1
j=k+1

l

kj

;

for i, j = k + 1, i

6= j to u + 1 do l

ij

:= l

ij

− l

ik

l

kj

/u

k

end;

3) {

Podstawienie wstecz

}

for k = u downto 1 do begin

x

k

:=



l

u+1,k

P

u
j=k+1

l

jk

x

j



/u

k

;

write (x

k

)

end

end.

Rozwa˙zmy teraz uk lad r´owna´

n

L(R


R)x = b,

(3.21)

gdzie b jest nieujemnym wektorem u wyrazowym. Uk lady postaci (3.21) rozwi¸azuje
si¸e np. w celu obliczenia wektora ´srednich czas´ow doj´scia do zbioru R — z uk ladu

background image

58

L(R


R)m = e, oraz macierzy rozk ladu w chwili doj´scia do zbioru R — z uk ladu

L(R


R)A =

−L(R


S

\ R).

Odpowiednikiem algorytmu 3.1 dla uk ladu (3.21) jest nast¸epuj¸acy algorytm.

Algorytm 3.2.

input: Macierz nieosobliwa L(R


R) bez element´ow diagonalnych, l

R

, b.

output: Wektor x.
begin
1) for k = 1 to u do begin

l

k,u+1

:= l

kR

;

l

k,u+2

:= b

k

end;

2) {

Eliminacja

}

for k = 1 to u do begin

u

k

:=

P

u+1
j=k+1

l

kj

;

for i, j = k + 1, i

6= j to i = u, j = u + 2 do l

ij

:= l

ij

− l

ik

l

kj

/u

k

end;

3) {

Podstawienie wstecz

}

for k = u downto 1 do begin

x

k

:=



l

k,u+2

P

u
j=k+1

l

kj

x

j



/u

k

;

write (x

k

)

end

end.

Algorytmy 2.1, 3.1 oraz 3.2 wraz z twierdzeniem 2.2 prowadz¸a do algorytmu obli-

czaj¸acego macierz graniczn¸a dowolnego LM.

Algorytm 3.3.

input: Laplasjan Markowa L = (l

ij

)

i,j∈S

bez element´ow diagonalnych.

output: Macierz graniczna P

.

begin
1) Znajd´z (np. za pomoc¸a algorytmu 2.1) podzia l zbioru S na klasy

zamkni¸ete C

1

, . . . , C

m

, m

≥ 1 oraz zbi´or stan´ow nieistotnych T w

grafie g(L);
C := C

1

∪ . . . ∪ C

m

;

background image

59

2)

for k := 1 to m do

Oblicz (np. za pomoc¸a algorytmu 3.1) rozk lad stacjonarny π

k

=

k

i

)

i∈C

k

laplasjanu nieprzywiedlnego L

k

:= (l

ij

)

i,j∈C

k

;

3)

L

0

:=



P

j∈C

k

l

ij



i∈T, k=1,... ,m

;

Rozwi¸a˙z (np. za pomoc¸a algorytmu 3.2) r´ownanie macierzowe

L(C


C)A =

−L

0

ze wzgl¸edu na macierz A = (a

ij

)

i∈T, k=1,... ,m

;

4)

for i, j

∈ S do begin

if i, j

∈ C

k

dla pewnego k then p

ij

:= π

k

j

;

else if i

∈ T , j ∈ C

k

dla pewnego k then p

ij

:= a

ik

π

k

j

else p

ij

:= 0;

write (p

ij

)

end

end.

Uwagi 3.2.

(1) Algorytm 3.1 jest uog´olnieniem algorytmu Grassmanna, Taksara i Heymana

[GrTaHe] dla obliczania rozk ladu stacjonarnego nieprzywiedlnej macierzy
przej´scia. Natomiast algorytm 3.2 jest uog´olnieniem algorytmu Heymana i
Reeves [HeRe] dla obliczania ´sredniego czasu doj´scia do ustalonego zbioru
stan´ow R

⊆ S.

(2) Koszt algorytm´ow 3.1 i 3.2 wyra˙zaj¸acy si¸e liczb¸a operacji arytmety-

cznych jest asymptotycznie r´ownowa˙zny kosztowi metody eliminacji Gaussa
tj.

s

3

/3, poniewa˙z dodatkowy koszt zwi¸azany z obliczeniem element´ow

g l´ownych z r´owno´sci (3.20) oraz z wykorzystaniem algorytmu Gilla–M¨ollera
jest rz¸edu s

2

.

background image

60

3.3. Analiza algorytm´

ow.

Oszacujemy teraz wzgl¸edny b l¸ad rozwi¸azania (entrywise relative error) dla algo-

rytm´ow 3.1 i 3.2.

Niech x, y b¸ed¸a dowolnymi liczbami rzeczywistymi w reprezentacji zmiennoprze-

cinkowej z b l¸edem zaokr¸aglenia ε. Niech ponadto dla 2

∈ {+, −, ∗, /}

fl(x2y)

≡ fl(x2y)(ε)

oznacza wynik operacji “2” w arytmetyce zmiennoprzecinkowej. Zak lada´c b¸edzie-
my, ˙ze

fl(x2y) =

h1i(x2y)

oraz, ˙ze wszystkie dzia lania wykonywane s¸a bez nadmiaru i niedomiaru.

Twierdzenie 3.5. Przy za lo˙zeniach wniosku 3.1 algorytm 3.2 oblicza wektor

¯

x(ε) = (¯

x

i

(ε))

i∈S\R

8

)

z dok ladno´sci¸a okre´slon¸a przez relacj¸e

¯

x

i

(ε) =

hψ(u)ix

i

,

gdzie ψ(u) = 5u

2

+ 13u

− 16.

Je˙zeli dodatkowo ψ(u)ε

≤ 0.1, to

|¯x

i

(ε)

− x

i

| ≤ 1.06ψ(u)x

i

ε dla i

∈ S \ R.

Dow´od. Za l´o˙zmy dla wygody, ˙ze R =

{u + 1, . . . , s}. Za l´o˙zmy ponadto dla dowodu,

˙ze macierz L(R


R) bez element´ow diagonalnych, oraz wektory l

R

i b s¸a reprezen-

towane dok ladnie w arytmetyce zmiennoprzecinkowej. Skonstruujemy indukcyjnie
dla n = 1, . . . , u funkcj¸e ψ

1

tak¸a, ˙ze dla macierzy L(R


R) rz¸edu n

× n oraz wek-

tor´ow l

R

oraz b rz¸edu n, algorytm 3.2 szacuje wektor x(ε) za pomoc¸a wektora ¯

x(ε)

z dok ladno´sci¸a okre´slon¸a przez relacj¸e

¯

x

i

(ε) =

1

(n)

ix

i

dla i = 1, . . . , n.

(3.22)

Dla macierzy L(R


R) rz¸edu 1 mo˙zna przyj¸a´c ψ

1

(1) = 0. Za l´o˙zmy zatem, ˙ze istnieje

funkcja ψ

1

spe lniaj¸aca r´owno´s´c (3.22) dla macierzy L(R


R) rz¸edu < n. Naszym

celem b¸edzie podanie warto´sci ψ

1

(n).

8

) “kreska” oznacza´c b¸edzie warto´sci obliczane przez algorytm 3.2

background image

61

Elementy g l´owne u

k

s¸a sumami nieujemnych sk ladnik´ow, zatem b l¸ad zaokr¸aglenia

powsta ly przy obliczeniu u

1

za pomoc¸a algorytmu Gilla–M¨ollera (patrz np. [Hig],

wz´or (4.8)) mo˙zna oszacowa´c z relacji

¯

u

1

(ε) =

h2iu

1

.

St¸ad oraz ze wzoru (3.19) wynika, ˙ze b l¸ad zaokr¸aglenia powsta ly przy obliczeniu
element´ow niediagonalnych macierzy ¯

L

(2)
R

(ε) okre´slaj¸a relacja

¯l

(2)
ij

(ε) =

h5il

ij

.

St¸ad oraz z wniosku 3.1 wynika, ˙ze rozwi¸azanie dok ladne ¯

x

(2)

(ε) uk ladu

¯

L

(2)
R

(ε)¯

x

(2)

(ε) = ¯

b

(2)

(ε)

spe lnia relacj¸e

¯

x

(2)
i

(ε) =

h10nix

(2)
i

dla i = 2, . . . , n.

Zatem z za lo˙zenia indukcyjnego wektor x

(2)

jest liczony przez algorytm 3.2 z do-

k ladno´sci¸a okre´slon¸a przez relacj¸e

¯¯x

(2)
i

(ε) =

1

(n

− 1) + 10nix

(2)
i

dla i = 2, . . . , n.

Ponadto x

T

=



x

1

, x

(2)T



oraz x

1

jest obliczany przez podstawienie wstecz i su-

mowanie za pomoc¸a algorytmu Gilla–M¨ollera. Zatem wektor x jest obliczany z
dok ladno´sci¸a okre´slon¸a przez relacj¸e

¯

x

i

(ε) =

1

(n

− 1) + 10n + 6ix

i

dla i = 1 . . . , n,

gdzie

ψ

1

(n) = ψ

1

(n

− 1) + 10n + 6.

(3.23)

Rozwi¸azanie r´ownania (3.23) z warunkien ψ

1

(1) = 0 daje

ψ

1

(n) = 5n

2

+ 11n

− 16.

Udowodnili´smy, ˙ze dla danych reprezentowanych dok ladnie, algorytm 3.2 oblicza
wektor x z dok ladno´sci¸a okre´slon¸a wzorem (3.22). Zatem dla danych reprezen-
towanych w arytmetyce zmiennoprzecinkowej z b l¸edem zaokr¸aglenia ε, otrzymujemy
z twierdzenia 3.1 relacj¸e

¯

x

i

(ε) =

hψ(n)ix

i

,

gdzie

ψ := ψ

1

(n) + 2n.

background image

62

Druga cz¸e´s´c tezy wynika z lematu 3.3 (2).



W podobny spos´ob udowodni´c mo˙zna nast¸epuj¸ace twierdzenia.

Twierdzenie 3.6. Niech L b¸edzie nieprzywiedlnym laplasjanem Markowa rz¸edu
s

×s. Wtedy algorytm 3.1 oblicza rozk lad stacjonarny π laplasjanu L z dok ladno´sci¸a

okre´slon¸a przez relacj¸e

¯

π

i

(ε) =

hφ(s)iπ

i

dla i = 1, . . . , s,

gdzie φ(s) = 10s

2

+ 6s

− 46. Je˙zeli dodatkowo φ(s)ε ≤ 0.1, to

|¯π

i

(ε)

− π

i

| ≤ 1.06φ(s)π

i

ε dla i = 1, . . . , s.

Twierdzenie 3.7. I. Za l´o˙zmy, ˙ze przestrze´

n stan´ow LM o laplasjanie L rz¸edu

s

× s, sk lada si¸e z m klas powracaj¸acych C

k

(k

≤ m) oraz zbioru stan´ow chwilowych

T . Niech t :=

|T | oraz c

k

:=

|C

k

| dla k = 1, . . . , m. Wtedy algorytm 3.3 oblicza

macierz graniczn¸a P

z dok ladno´sci¸a okre´slon¸a przez relacje:

¯

p

ij

(ε) =

hφ(c

k

)

ip

ij

(1)

je´sli i, j

∈ C

k

dla pewnego k

≤ m;

¯

p

ij

(ε) =

hφ(c

k

) + ψ(t)

ip

ij

(2)

je´sli i

∈ T oraz j ∈ C

k

dla pewnego k

≤ m;

¯

p

ij

(ε) = p

ij

= 0

w pozosta lych przypadkach.

(3)

II. Je˙zeli dodatkowo max

1≤k≤m

φ(c

k

)ψ(t)ε

≤ 0.1, to:

|¯p

ij

(ε)

− p

ij

| ≤ 1.06φ(c

k

)p

ij

(1)

je´sli i, j

∈ C

k

dla pewnego k

≤ m;

|¯p

ij

(ε)

− p

ij

| ≤ 1.06(φ(c

k

) + ψ(t))p

ij

ε

(2)

je´sli i

∈ T oraz j ∈ C

k

dla pewnego k

≤ m.

Dow´od. Cz¸e´sci I (1) i II (1) wynikaj¸a z twierdzenia 3.6 (1) oraz twierdzenia 2.2 (1).
Cz¸e´sci I (2) i II (2) wynikaj¸a z twierdzenia 3.6, kolejnego twierdzenia 3.8 oraz twier-
dzenia 2.2 (2). Cz¸e´s´c I (3) wynika z twierdzenia 2.2 (3).



background image

63

Twierdzenie 3.8. I. Niech L b¸edzie laplasjanem Markowa rz¸edu s

× s, w kt´orym

dla ustalonego R

⊆ S istnieje las o korzeniu R. Przyjmijmy u := s − |R|, ψ(u) :=

5u

2

+ 13u

− 16, χ(u) := 5u

2

+ 6u

− 11. Wtedy dla i, j ∈ S \ R, k ∈ R, algorytm 3.2

oblicza nast¸epuj¸ace charakterystyki LM z dok ladno´sci¸a okre´slon¸a przez relacje:

¯

µ

ik

(R)(ε) =

hχ(u)iµ

ik

(R);

(1)

¯

p

ik

(R)(ε) =

hψ(u)ip

ik

(R);

(2)

¯

m

i

(R)(ε) =

hχ(u)im

i

(R).

(3)

II. Je˙zeli dodatkowo χ(u)ε

≤ 0.1, to:

|¯µ

ik

(R)(ε)

− µ

ik

(R)

| ≤ 1.06χ(u)µ

ik

(R)ε;

(1)

je˙zeli dodatkowo ψ(u)ε

≤ 0.1, to:

|¯p

ij

(R)(ε)

− p

ij

(R)

| ≤ 1.06ψ(u)p

ij

(R)ε;

(2)

je˙zeli dodatkowo χ(u)ε

≤ 0.1, to:

| ¯

m

i

(R)(ε)

− m

i

(R)

| ≤ 1.06χ(u)m

i

(R)ε.

(3)

Uwagi 3.3.

(1) Twierdzenie 3.6 jest uog´olnieniem wyniku O’Cinneide’a [O’C 1, twierdze-

nie 3], poniewa˙z nie ma w nim za lo˙zenia, ˙ze elementy g l´owne s¸a obliczane w
podw´ojnej precyzji oraz, ˙ze laplasjan L jest w postaci zmiennoprzecinkowej.

(2) Twierdzenia 3.6–3.8 podaj¸a oszacowania b l¸edu dla najprostszych i najbar-

dziej znanych charakterystyk LM. W ostatnich latach zaprojektowano spe-
cjalne algorytmy dla obliczania mniej znanych charakterystyk nieprzywiedl-
nego LM — np. macierzy fundamentalnej [He] czy wariancji granicznej
[Gr]. Algorytmy te sprowadzaj¸a laplasjan Markowa do postaci tr´ojk¸atnej w
podobny spos´ob jak algorytmy 3.1 i 3.2, jednak podstawienie wstecz wymaga
odejmowania. B l¸ad zaokr¸aglenia zale˙zy zatem w tym przypadku nie tylko
od wielko´sci laplasjanu, ale r´ownie˙z od uwarunkowania problemu.

background image

64

4. Algorytmy dla pot¸egowo zaburzonych la´

ncuch´ow Markowa.

4.1. Pot¸egowo zaburzone la´

ncuchy Markowa.

Powiemy, ˙ze funkcje A, B : R

→ R s¸a asymptotycznie r´ownowa˙zne przy ε → 0

(oznaczenie A(ε)

∼ B(ε)), je´sli

lim

ε→0

A(ε)

B(ε)

= 1.

Je´sli natomiast istnieje ε

1

6= 0 takie, ˙ze dla dowolnego ε ∈ (−ε

1

, ε

1

), A(ε) = 0, to

przyjmiemy dla jednolito´sci rozwa˙za´

n A(ε)

∼ 0. Ponadto

0
0

:= 1. Latwo udowodni´c

nast¸epuj¸ace lematy.

Lemat 4.1.

(1) A(ε)

∼ A(ε).

(2) Je˙zeli A(ε)

∼ B(ε), to B(ε) ∼ A(ε).

(3) Je˙zeli A(ε)

∼ B(ε) oraz B(ε) ∼ C(ε), to A(ε) ∼ C(ε).

Lemat 4.2. Za l´o˙zmy, ˙ze A(ε)

∼ B(ε) oraz C(ε) ∼ D(ε). Wtedy

(1) A(ε)C(ε)

∼ B(ε)D(ε).

(2) Je˙zeli dodatkowo istnieje ε

1

6= 0 takie, ˙ze dla dowolnego ε ∈ (−ε

1

, ε

1

),

A(ε), B(ε), C(ε), D(ε) > 0 lub A(ε), B(ε), C(ε), D(ε) < 0, to A(ε) + C(ε)

B(ε) + D(ε).

Lemat 4.3. Za l´o˙zmy, ˙ze A(ε)

∼ αε

a

oraz B(ε)

∼ βε

b

dla A, B : (0, ε

1

)

→ R

+

,

α, β

∈ R, a, b ∈ R ∪ {∞}

9

). Wtedy:

(1) je´sli [α1(a

≤ b) ± β1(a ≥ b)] 6= 0 lub αβ = 0, to

A(ε)

± B(ε) ∼ [α1(a ≤ b) ± β1(a ≥ b)]ε

(a∧b)

;

(2) A(ε)B(ε)

∼ αβε

a+b

;

(3) je´sli β

6= 0, to

A(ε)

B(ε)

α
β

ε

a−b

.

9

) Przyjmiemy ε

:= 0; ponadto A(ε)

∼ 0 · ε

, je˙zeli A(ε)

∼ 0

background image

65

Rodzin¸e

{L(ε), ε ∈ (0, ε

1

)

} laplasjan´ow Markowa rz¸edu s × s nazywa´c b¸edziemy

pot¸egowo zaburzonym la´

ncuchem Markowa (PZ LM), je˙zeli istniej¸a macierze ∆ =

ij

)

i,j∈S

, D = (d

ij

)

i,j∈S

takie, ˙ze dla dowolnych i, j

∈ S, i 6= j, δ

ij

≥ 0, d

ij

∈ R∪{∞}

oraz

−l

ij

(ε)

∼ δ

ij

ε

d

ij

.

Rodzin¸e nieujemnych wektor´ow u-wymiarowych

{b(ε), ε ∈ (0, ε

1

)

} nazywa´c b¸e-

dziemy pot¸egowo zaburzonym nieujemnym wektorem (PZNW), je˙zeli istniej¸a wek-
tory ζ = (ζ

i

)

u

i=1

, z = (z

i

)

u

i=1

takie, ˙ze dla dowolnego i = 1, . . . , u, ζ

i

≥ 0,

z

i

∈ R ∪ {∞} oraz

b

i

(ε)

∼ ζ

i

ε

z

i

.

W dalszej cz¸e´sci uto˙zsamia´c b¸edziemy PZ LM

{L(ε), ε ∈ (0, ε

1

)

} z macierzami ∆

i D, natomiast PZNW

{b(ε), ε ∈ (0, ε

1

)

} — z wektorami ζ i z.

Przyk lad 4.1. Najcz¸e´sciej spotykanymi w literaturze przyk ladami rodziny PZ LM
s¸a:

(1) liniowo zaburzone LM (patrz np. [AbBiFi], [BiFi], [HasHav], [HavRi], [Sch

1–3])

L(ε) = L

0

+ εL

1

,

gdzie L

0

i L

1

s¸a laplasjanami Markowa;

(2) wielomianowo lub analitycznie zaburzone LM (patrz np. [HasHav], [RoWi

1–2])

L(ε) =

N

X

n=0

ε

n

L

n

,

gdzie ka˙zdy L

n

jest laplasjanem Markowa, N

≤ ∞.

Przyjmijmy

g(∆) := (S,

{(i, j) ∈ S × S : δ

ij

6= 0}) oraz

g

(D) := (S,

{(i, j) ∈ S × S : d

ij

<

∞}).

Latwo zauwa˙zy´c, ˙ze dla dostatecznie ma lych ε, g(L(ε)) = g(∆) = g

(D).

St¸ad i ze stwierdze´

n 2.3–2.5 otrzymujemy nast¸epuj¸ace stwierdzenia.

background image

66

Stwierdzenie 4.1. Niech dany b¸edzie PZ LM

{L(ε), ε ∈ (0, ε

1

)

} okre´slony przez

macierze ∆ i D. Wtedy nast¸epuj¸ace warunki s¸a r´ownowa˙zne.

(1) Istnieje ε

0

∈ (0, ε

1

) takie, ˙ze dla dowolnego ε

∈ (0, ε

0

), laplasjan L(ε) jest

nieprzywiedlny (jednoklasowy).

(2) Macierz ∆ jest nieprzywiedlna (jednoklasowa).
(3) Graf g

(D) jest silnie (s labo ) sp´ojny.

PZ LM

{L(ε), ε ∈ (0, ε

1

)

} spe lniaj¸acy jeden z warunk´ow stwierdzenia 4.1 nazywa´c

b¸edziemy nieprzywiedlnym (jednoklasowym) PZ LM.

Stwierdzenie 4.2. Niech dany b¸edzie zbi´or R

⊂ S oraz PZ LM {L(ε), ε ∈ (0, ε

1

)

}

okre´slony przez macierze ∆ i D. Wtedy nast¸epuj¸ace warunki s¸a r´ownowa˙zne.

(1) Istnieje ε

0

∈ (0, ε

1

) takie, ˙ze dla dowolnego ε

∈ (0, ε

0

), macierz L(R


R)(ε)

jest nieosobliwa.

(2) Istnieje ε

0

∈ (0, ε

1

) takie, ˙ze dla dowolnego ε

∈ (0, ε

0

), w grafie g(L(ε))

istnieje las o korzeniu R.

(3) W grafie g

(D) istnieje las o korzeniu R.

Stwierdzenie 4.3. Niech dany b¸edzie podzia l zbioru S = C

1

.

∪ . . .

.

∪ C

m

.

∪ T , m ≥ 1

oraz PZ LM

{L(ε), ε ∈ (0, ε

1

)

} okre´slony przez macierze ∆ i D. Wtedy nast¸epuj¸ace

warunki s¸a r´ownowa˙zne.

(1) Istnieje ε

0

∈ (0, ε

1

) takie, ˙ze dla dowolnego ε

∈ (0, ε

0

), zbiory C

1

, . . . , C

m

s¸a

wszystkimi klasami powracaj¸acymi, a zbi´or T jest zbiorem stan´ow chwilowych
w LM o laplasjanie L(ε).

(2) Zbiory C

1

, . . . , C

m

s¸a wszystkimi klasami zamkni¸etymi, a zbi´or T jest

zbiorem stan´ow nieistotnych w grafie g

(D).

Niech f b¸edzie lasem zawartym w g

(D) oraz F — rodzin¸a las´ow zawartych w

g

(D). Zdefiniujemy teraz podstawowe parametry PZ LM

d(f ) :=

X

(i,j)∈f

d

ij

,

δ(f ) :=

Y

(i,j)∈f

δ

ij

,

d(F ) := min

f ∈F

d(f ),

δ(F ) :=

X

f ∈F : d(f )=d(F )

δ(f ).

background image

67

Przyjmiemy dla wygody

d(R) := d(F (R)),

δ(R) := δ(F (R));

dla i

6∈ R, j ∈ R

d

ij

(R) := d(F

ij

(R)),

δ

ij

(R) := δ(F

ij

(R));

dla i, j

6∈ R

d

ij

(R, j) := d

ij

(R

∪ {j}),

δ

ij

(R, j) := δ

ij

(R

∪ {j});

dla i

∈ S

d(i) := d(

{i}),

δ(i) := δ(

{i}),

n := min

j∈S

d(j),

ν :=

X

j: d(j)=n

δ(j) oraz

h

i

:= d(i)

− n,

η

i

:= δ(i)/ν.

Niech ponadto w(f )(ε) oraz w(F )(ε) oznaczaj¸a wagi lasu oraz zbioru las´ow w grafie
g(L(ε)).

Bezpo´srednio z lematu 4.3 otrzymujemy nast¸epuj¸ace stwierdzenie.

Stwierdzenie 4.4. Niech dany b¸edzie PZ LM

{L(ε), ε ∈ (0, ε

1

)

} oke´slony przez

macierze ∆ i D. Niech f b¸edzie lasem oraz F — zbiorem las´ow w grafie g

(D).

Wtedy:

(1) w(f )(ε)

∼ δ(f)ε

d(f )

;

(2) w(F )(ε)

∼ δ(F )ε

d(F )

.

Twierdzenie 4.1. Niech dany b¸edzie zbi´or R

⊆ S oraz PZ LM {L(ε), ε ∈ (0, ε

1

)

}

okre´slony przez macierze ∆ i D. Niech ponadto dany b¸edzie PZNW

{b(ε), ε ∈

(0, ε

1

)

} okre´slony przez wektory ζ i z rz¸edu u := s − |R|. Za l´o˙zmy, ˙ze w grafie

g

(D) istnieje las o korzeniu R. Wtedy:

(1) macierze L(R


R)(ε) s¸a odwracalne dla dostatecznie ma lych ε;

(2) rozwi¸azanie x(ε) = (x

i

(ε))

i∈S\R

uk ladu r´owna´

n liniowych

L(R


R)(ε)x(ε) = b(ε)

background image

68

spe lnia dla i

∈ S \ R relacje

x

i

(ε)

∼ α

i

ε

a

i

,

gdzie wsp´o lczynniki α

i

oraz a

i

s¸a zdefiniowane w dowodzie;

(3) rozwi¸azanie x(ε) = (x

i

(ε))

i∈S\R

uk ladu r´owna´

n liniowych

L

T

(R


R)(ε)x(ε) = b(ε)

spe lnia dla i

∈ S \ R relacje

x

i

(ε)

∼ α

i

ε

a

i

,

gdzie wsp´o lczynniki α

i

oraz a

i

s¸a zdefiniowane w dowodzie.

Dow´od. Cz¸e´s´c (1) wynika ze stwierdzenia 4.2.

Dla dowodu cz¸e´sci (2) zauwa˙zmy, ˙ze ze stwierdzenia 4.4 oraz lemat´ow 4.1 (1) i

(2) wynikaj¸a relacje dla i

∈ S \ R

X

j∈S\R

w

ij

(R, j)(ε)b

j

(ε)

X

j∈S\R

δ

ij

(R, j)ε

d

ij

(R,j)

ζ

j

ε

z

j

∼ ¯

α

i

ε

¯

a

i

,

gdzie

¯a

i

:= min

j∈S\R

[d

ij

(R, j) + z

j

]

oraz

¯

α

i

:=

X

j∈S\R: d

ij

(R,j)+z

j

a

i

δ

ij

(R, j)ζ

j

.

St¸ad i z lematu 2.3 wynika, ˙ze dla i

∈ S \ R, x

i

(ε)

∼ α

i

ε

a

i

, gdzie

a

i

:= ¯a

i

− d(R) oraz α

i

:= ¯

α

i

/δ(R).

Dla dowodu cz¸e´sci (3) niech L

R

(ε) := (l

ij

(ε))

u+1
i,j=1

b¸edzie macierz¸a tak¸a, ˙ze

L

R

(ε) :=

"

L

T

(R


R)(ε)

−b(ε)

l

T

R

(ε)

b(ε)

#

,

(4.1)

gdzie l

iR

:=

P

j∈R

l

ij

(ε) dla i = 1, . . . , u oraz b(ε) :=

P

u
j=1

b

j

(ε).

Niech ponadto D

R

:= (d

ij

)

u+1
i,j=1

, ∆

R

:= (δ

ij

)

u+1
i,j=1

b¸ed¸a macierzami takimi, ˙ze

D

R

=

"

D

T

(R


R) z

d

T

R

z

#

,

R

=

"

T

(R


R) ζ

δ

T
R

ζ

#

,

background image

69

gdzie

d

T

R

:= (d

1R

, . . . , d

uR

),

d

iR

:= min

j∈R

d

ij

,

δ

T
R

:= (δ

1R

, . . . , δ

uR

),

δ

iR

:=

X

j∈R

δ

ij

1(d

ij

= d

iR

)

dla i = 1, . . . , u oraz

z := min

j≤u

z

j

,

ζ :=

u

X

j=1

ζ

j

1(z

j

= z).

Oczywi´scie

−l

ij

(ε)

∼ δ

ij

ε

d

ij

dla i, j = 1, . . . , u + 1, i

6= j.

Ze stwierdzenia 4.4 wynika, ˙ze w grafie g(L

R

(ε)) dla i = 1, . . . , u + 1

w(i)

∼ δ(i)ε

d(i)

.

St¸ad oraz z wniosku 2.2 (2) otrzymujemy dla i = 1, . . . , u + 1

x

i

(ε)

∼ α

i

ε

a

i

,

gdzie

a

i

:= d(i)

− d(u + 1), oraz

α

i

:= δ(i)/δ(u + 1).



Twierdzenie 4.2. Niech dany b¸edzie jednoklasowy PZ LM

{L(ε), ε ∈ (0, ε

1

)

}

okre´slony przez macierze ∆ i D. Wtedy

π

i

(ε)

∼ η

i

ε

h

i

.

Dow´od. Ze stwierdzenia 4.4 oraz lematu 4.3 (1) wynika, ˙ze

X

j∈S

w(j)(ε)

∼ νε

n

.

W rezultacie z twierdzenia 2.1 (2) (a) oraz lematu 4.3 (3) otrzymujemy

π

i

(ε) =

w(i)(ε)

P

j∈S

w(j)(ε)

∼ η

i

ε

h

i

.



background image

70

Twierdzenie 4.3. Niech dany b¸edzie PZ LM

{L(ε), ε ∈ (0, ε

1

)

} okre´slony przez

macierze ∆ i D sk ladaj¸acy si¸e z m

≥ 1 klas powracaj¸acych C

k

, k

≤ m oraz zbioru

stan´ow chwilowych T . Przyjmijmy C := C

1

.

∪ . . .

.

∪ C

m

. Wtedy:

(1)

p

ij

(ε)

∼ η

k

j

ε

h

k

j

, je´sli i, j

∈ C

k

dla pewnego k

≤ m;

(2)

p

ij

(ε)

∼ γ

k

i

η

k

j

ε

c

k

i

+h

k

j

, je´sli i

∈ T oraz j ∈ C

k

dla pewnego k

≤ m;

(3)

p

ij

(ε) = 0

w pozosta lych przypadkach,

gdzie wsp´o lczynniki η

k

j

, h

k

j

, γ

k

i

, c

k

i

zdefiniowane s¸a w dowodzie.

Dow´od. Cz¸e´s´c (3) wynika z twierdzenia 2.3 (3). Cz¸e´s´c (1) wynika z twierdzenia
2.3 (1) oraz twierdzenia 4.2. Wsp´o lczynniki η

k

j

, h

k

j

definiujemy jak w dowodzie

twierdzenia 4.2.

Dla dowodu cz¸e´sci (2) zauwa˙zmy, ˙ze dla i

∈ T

X

l∈C

k

w

il

(C)(ε)

∼ ¯γ

k

i

ε

¯

c

k

i

,

gdzie ¯

c

k

i

:= min

l∈C

k

d

il

(C) oraz

¯

γ

k

i

:=

X

l∈C

k

: d

il

(C)=¯

c

k

i

δ

il

(C).

St¸ad i z twierdzenia 2.4 (2) otrzymujemy

X

l∈C

k

p

il

(C) =

P

l∈C

k

w

il

(C)(ε)

w(C)

∼ γ

k

i

ε

c

k

i

,

gdzie c

k

i

:= ¯

c

k

i

− d(C) oraz γ

k

i

:= ¯

γ

k

i

/δ(C).

W rezultacie z uwagi 2.4 (1) oraz udowodnionej cz¸e´sci (1) wynika teza.



Twierdzenie 4.4. Niech dany b¸edzie PZ LM

{L(ε), ε ∈ (0, ε

1

)

} okre´slony przez

macierze ∆ i D, dla kt´orego przy ustalonym R

⊆ S, w grafie g

(D) istnieje las o

korzeniu R. Wtedy dla i, j

∈ S \ R, k ∈ R:

(1)

µ

ij

(R)(ε)

∼ α

ijR

ε

a

ijR

;

(2)

p

ik

(R)(ε)

∼ γ

ikR

ε

c

ikR

;

(3)

m

i

(R)(ε)

∼ β

iR

ε

b

iR

;

gdzie wsp´o lczynniki α

ijR

, a

ijR

, β

iR

, b

iR

, γ

ikR

, c

ikR

s¸a zdefiniowane w dowodzie.

background image

71

Dow´od. Z lematu 4.3 (1) wynika, ˙ze

P

j6∈R

w

ij

(R, j)(ε)

∼ ¯

β

iR

ε

¯b

iR

, gdzie

¯b

iR

:= min

j6∈R

d

ij

(R, j) oraz

¯

β

iR

:=

X

j6∈R: d

ij

(R,j)=¯b

iR

δ

ij

(R, j).

W rezultacie dla i, j

∈ S \ R, k ∈ R z twierdzenia 2.4 otrzymujemy

v

ij

(R)(ε) =

w

ij

(R, j)(ε)

w(R)(ε)

∼ α

ijR

ε

a

ijR

,

p

ik

(R)(ε) =

w

ik

(R)(ε)

w(R)(ε)

∼ γ

ikR

ε

c

ikR

,

m

i

(R)(ε) =

P

j6∈R

w

ij

(R, j)(ε)

w(R)(ε)

∼ β

iR

ε

b

iR

,

gdzie

a

ijR

:= d

ij

(R, j)

− d(R),

α

ijR

:=

δ

ij

(R, j)

δ(R)

,

c

ikR

:= d

ik

(R)

− d(R),

γ

ikR

:=

δ

ik

(R)

δ(R)

,

b

iR

:= ¯b

iR

− d(R),

β

iR

:=

¯

β

iR

δ(R)

.



Uwagi 4.1.

(1) Twierdzenia 4.2 i 4.4 s¸a podobne do wynik´ow Freidlina i Wentzlla [FreWe

1–2] oraz Hwanga i Sheu ([HwSh 1–2]) , gdzie rozwa˙zana jest wi¸eksza rodzi-
na zaburzonych la´

ncuch´ow Markowa ni˙z PZ LM. Jednak tezy s¸a tam mniej

dok ladne.

(2) W pracach [AbBiFi], [BiFi] i [BiSt] rozwa˙zano problem ergodycznego ste-

rowania liniowo zaburzonym LM. W dowodach wykorzystano rezultaty kla-
sycznej teorii zaburze´

n operator´ow liniowych [Kat].

background image

72

4.2. Algorytmy.

Niech dany b¸edzie PZ LM

{L(ε), ε ∈ (0, ε

1

)

} indukowany przez znane macierze ∆

i D. Za l´o˙zmy, ˙ze dla danego R

⊂ S, w grafie g

(D) istnieje las o korzeniu R. Niech

ponadto dany b¸edzie PZNW

{b(ε), ε ∈ (0, ε

1

)

} rz¸edu u := s − |R| indukowany

przez znane wektory ζ i z.

Zauwa˙zmy, ˙ze obliczenie wsp´o lczynnik´ow α i a rozwi¸azania uk lad´ow

L

T

(R


R)(ε)x(ε) = b(ε)

lub

(4.2)

L(R


R)(ε)x(ε) = b(ε)

(4.3)

z definicji podanej w dowodzie twierdzenia 4.1 nie s¸a efektywne.

Celem tego

rozdzia lu b¸edzie zatem konstrukcja i analiza algorytm´ow obliczaj¸acych wektory a, α
dla uk ladu (4.2) lub (4.3).

Oznaczmy

d

T

R

:= (d

1R

, . . . , d

uR

),

d

iR

:= min

j∈R

d

ij

,

δ

T
R

:= (δ

1R

, . . . , δ

uR

),

δ

iR

:=

X

j∈R

δ

ij

1(d

ij

= d

iR

)

dla i = 1, . . . , u.

Algorytmy 4.1 i 4.2 s¸a uog´olnieniem algorytm´ow 3.1 i 3.2 dla problem´ow (4.2) i

(4.3).

Algorytm 4.1.

input: Macierze ∆(R


R), D(R


R) bez element´ow diagonalnych, wektory δ

R

, d

R

,

ζ

, z.

output: Wektory α, a.
begin
1) for k = 1 to u do begin

d

k,u+1

:= d

kR

; δ

k,u+1

:= δ

kR

;

d

u+1,k

:= z

k

; δ

u+1,k

:= ζ

k

;

end;

2) {

Eliminacja

}

for k = 1 to u do begin

d

k

:= min

k<j≤u+1

d

jk

;

background image

73

δ

k

:=

P

u+1
j=k+1

δ

jk

1(d

jk

= d

k

);

for i, j = k + 1, i

6= j to u + 1 do begin

d := d

ij

∧ (d

ik

+ d

kj

− d

k

);

δ

ij

:= δ

ij

1(d

ij

= d) + (δ

ik

δ

kj

k

)1(d

ik

+ d

kj

− d

k

= d);

d

ij

:= d

end;

end;

3) {

Podstawienie wstecz

}

for k = u downto 1 do begin

a

k

:=



d

u+1,k

∧ min

k<j≤u

(d

kj

+ a

j

)



− d

k

;

α

k

:=

"

δ

u+1,k

1(d

u+1,k

= a

k

) +

u

X

j=k+1

δ

kj

α

j

1(d

kj

+ a

j

= a

k

)

#

k

end

end.

Algorytm 4.2.

input: Macierze ∆(R


R), D(R


R) bez element´ow diagonalnych, wektory δ

R

, d

R

,

ζ

, z.

output: Wektory α, a.
begin
1) for k = 1 to u do begin

d

k,u+1

:= d

kR

; δ

k,u+1

:= δ

kR

;

d

k,u+2

:= z

k

; δ

k,u+2

:= ζ

k

;

end;

2) {

Eliminacja

}

for k = 1 to u do begin

d

k

:= min

k<j≤u+1

d

jk

;

δ

k

:=

P

u+1
j=k+1

δ

jk

1(d

jk

= d

k

);

for i, j = k + 1, i

6= j to i = u, j = u + 2 do begin

d := d

ij

∧ (d

ik

+ d

kj

− d

k

);

δ

ij

:= δ

ij

1(d

ij

= d) + (δ

ik

δ

kj

k

)1(d

ik

+ d

kj

− d

k

= d);

d

ij

:= d

background image

74

end;

end;

3) {

Podstawienie wstecz

}

for k = u downto 1 do begin

a

k

:=



d

u+1,k

∧ min

k<j≤u

(d

jk

+ a

j

)



− d

k

;

α

k

:=

"

δ

k,u+2

1(d

k,u+2

= a

k

) +

u

X

j=k+1

δ

jk

α

j

1(d

jk

+ a

j

= a

k

)

#

k

end

end.

Kolejne cztery algorytmy grupuj¸a iteracyjnie stany LM nale˙z¸ace do tej samej

klasy zamkni¸etej w pewnych grafach zale˙znych od D, a nast¸epnie rozwi¸azuj¸a uk lady
r´owna´

n liniowych ograniczone do poszczeg´olnych klas. Algorytmy 4.3 i 4.4 rozwi¸a-

zuj¸a problem (4.2), natomiast algorytmy 4.5 i 4.6 — problem (4.3). Algorytmy 4.4 i
4.6 r´o˙zni¸a si¸e od algorytm´ow 4.3 i 4.5 sposobem normalizacji wyniku: zamiast jednej
normalizacji na ko´

ncu, wykonuj¸a one po´srednie normalizacje na ka˙zdym etapie agre-

gacji. Nie zwi¸eksza to kosztu oblicze´

n, natomiast zabezpiecza przed wyst¸epowaniem

niedomiaru.

Algorytm 4.3.

input: Macierze ∆(R


R), D(R


R) bez element´ow diagonalnych, wektory δ

R

, d

R

,

ζ

, z, liczba ε

0

∈ (0, ε

1

).

output: Wektory α, a.
begin
1) for k = 1 to u do begin

d

k,u+1

:= d

kR

; δ

k,u+1

:= δ

kR

;

d

u+1,k

:= z

k

; δ

u+1,k

:= ζ

k

;

end;

2) {

W tej cz¸e´sci algorytm hierarchicznie agreguje graf indukowany przez macierz

(d

ij

)

u+1

i,j=1

,

i

6= j. Zmienna k indeksuje etapy agregacji czyli kolejne iteracje w p¸etli “repeat”.

(S

k

, E

k

) jest grafem indukowanym przez zgrupowany LM na k-tym etapie agre-

gacji.

}

background image

75

k := 0; S

0

:=

{{i} : i = 1, . . . , u + 1}; E

0

:=

∅;

for

{i} ∈ S

0

do begin

for

{j} ∈ S

0

, j

6= i do begin

δ(

{i}, {j}) := δ

ij

; d(

{i}, {j}) := d

ij

;

end;

V (

{i}) := min

{l}∈S

0

l6=i

d

il

;

d

i

:= 0; δ

i

:= 1;

for j

∈ arg min

{l}∈S

0

l6=i

d

il

do E

0

∪ {({i}, {j})}

end;
repeat

Znajd´z (np. za pomoc¸a algorytmu 2.1) podzia l zbioru S

k

na klasy

zamkni¸ete i zbi´or stan´ow nieistotnych w grafie (S

k

, E

k

);

k := k + 1; E

k

:=

∅;

S

k

:=

{I

k

: I

k

jest sum¸a wszystkich stan´ow nale˙z¸acych do tej samej

klasy zamkni¸etej albo stanem nieistotnym w grafie (S

k−1

, E

k−1

)

};

for I

k

∈ S

k

do begin

for I

k−1

, J

k−1

⊆ I

k

, I

k−1

6= J

k−1

do

if (I

k−1

, J

k−1

)

∈ E

k−1

then

l

I

k

1

,J

k

1

:=

−δ(I

k−1

, J

k−1

d(I

k

1

,J

k

1

)

0

else l

I

k

1

,J

k

1

:= 0;

Rozwi¸a˙z (np. za pomoc¸a algorytmu 3.1) r´ownanie

L

T
I

k

1

1

,I

k

1

1

a

I

k

1

1

=

−l

I

k

1

1

) dla pewnego I

k−1

1

⊆ I

k

;

{ a

I

k

1

1

:= (a

I

k

1

)

I

k

1

⊆I

k

, I

k

1

6=I

k

1

1

oraz

l

I

k

1

1

:= (l

I

k

1

1

,I

k

1

)

I

k

1

⊆I

k

, I

k

1

6=I

k

1

1

}

Oblicz det L

T
I

k

1

1

,I

k

1

1

;

a

I

k

1

1

:= 1;

σ(I

k

) :=

X

I

k

1

⊆I

k

V (I

k−1

);

for I

k−1

⊆ I

k

do begin

d(I

k−1

) := σ(I

k

)

− V (I

k−1

);

δ(I

k−1

) := a

I

k

1

det L

T
I

k

1

1

,I

k

1

1

ε

−d(I

k

1

)

0

;

for i

∈ I

k−1

do begin

background image

76

d

i

:= d

i

+ d(I

k−1

);

δ

i

:= δ

i

δ(I

k−1

)

{

Wsp´

o lczynniki d

i

obliczone na k–tym etapie agregacji s¸a “d lugo´sciami”

najkr´otszych drzew o korzeniu i, w grafie wej´sciowym obci¸etym do I

k

. W

nast¸epnej p¸etli “for” obliczamy “d lugo´sci” d(I

k

, J

k

) najkr´otszych drzew

o korzeniu j

∈ J

k

oraz dziedzinie I

k

∪ {j}.

}

end

end;
for J

k

∈ S

k

, J

k

6= I

k

do

d(I

k

, J

k

) := min

I

k

1

⊆I

k

J

k

1

⊆J

k

[d(I

k−1

) + d(I

k−1

, J

k−1

)];

V (I

k

) := min

J

k

∈S

k

J

k

6=I

k

d(I

k

, J

k

);

for J

k

∈ arg min

J

k

0

∈S

k

J

k

0

6=I

k

d(I

k

, J

k

0

) do begin

E

k

:= E

k

∪ {(I

k

, J

k

)

};

δ(I

k

, J

k

) :=

X

(I

k

1

,J

k

1

)∈arg min

I

k

1

0

⊆I

k

J

k

1

0

⊆J

k

[d(I

k

1

0

)+d(I

k

1

0

,J

k

1

0

)]

δ(I

k−1

)δ(I

k−1

, J

k−1

)

end

end

until w grafie

|S

k

| = 1 istnieje tylko jedna klasa zamkni¸eta;

3)

{

Normalizacja

}

for i = 1 to u do begin

a

i

:= d

i

− d

u+1

;

α

i

:= δ

i

u+1

;

end

end.

Algorytm 4.4.

input: Macierze ∆(R


R), D(R


R) bez element´ow diagonalnych, wektory δ

R

, d

R

,

ζ

, z, liczba ε

0

∈ (0, ε

1

)

output: Wektory α, a.

background image

77

begin
1) for k = 1 to u do begin

d

k,u+1

:= d

kR

; δ

k,u+1

:= δ

kR

;

d

u+1,k

:= z

k

; δ

u+1,k

:= ζ

k

;

end;

2)

{

W tej cz¸e´sci algorytm hierarchicznie agreguje graf indukowany przez macierz

(d

ij

)

u+1

i,j=1

,

i

6= j. Zmienna k indeksuje etapy agregacji czyli kolejne iteracje w p¸etli “repeat”.

(S

k

, E

k

) jest grafem indukowanym przez zgrupowany LM na k-tym etapie agregacji.

}

k := 0; S

0

:=

{{i} : i = 1, . . . , u + 1}; E

0

:=

∅;

for

{i} ∈ S

0

do begin

for

{j} ∈ S

0

, j

6= i do begin

¯

δ(

{i}, {j}) := δ

ij

;

¯

d(

{i}, {j}) := d

ij

;

end;

¯

V (

{i}) := min

{l}∈S

0

l6=i

d

il

;

h

i

:= 0; η

i

:= 1;

for j

∈ arg min

{l}∈S

0

l6=i

d

il

do E

0

∪ {({i}, {j})}

end;
repeat

Znajd´z (np. za pomoc¸a algorytmu 2.1) podzia l zbioru S

k

na klasy

zamkni¸ete i zbi´or stan´ow nieistotnych w grafie (S

k

, E

k

);

k := k + 1; E

k

:=

∅;

S

k

:=

{I

k

: I

k

jest sum¸a wszystkich stan´ow nale˙z¸acych do tej samej

klasy zamkni¸etej albo stanem nieistotnym w grafie (S

k−1

, E

k−1

)

};

for I

k

∈ S

k

do begin

for I

k−1

, J

k−1

⊆ I

k

, I

k−1

6= J

k−1

do

if (I

k−1

, J

k−1

)

∈ E

k−1

then

¯l

I

k

1

,J

k

1

:=

−¯δ(I

k−1

, J

k−1

¯

d(I

k

1

,J

k

1

)

0

else ¯l

I

k

1

,J

k

1

:= 0;

Rozwi¸a˙z (np. za pomoc¸a algorytmu 3.1) r´ownanie

¯

L

T
I

k

1

1

,I

k

1

1

¯

a

I

k

1

1

=

−¯l

I

k

1

1

, gdzie I

k−1

1

⊆ I

k

,

background image

78

{

¯

a

I

k

1

1

:= (¯

a

I

k

1

)

I

k

1

⊆I

k

, I

k

1

6=I

k

1

1

oraz

¯l

I

k

1

1

:= (¯l

I

k

1

1

,I

k

1

)

I

k

1

⊆I

k

, I

k

1

6=I

k

1

1

}

¯a

I

k

1

1

:= 1;

v(I

k

) := max

I

k

1

⊆I

k

¯

V (I

k−1

);

¯

ν(I

k

)(ε

0

) :=

X

I

k

1

∈arg max

I

k

1

0

⊆Ik

¯

V (I

k

1

0

)

¯a

I

k

1

;

for I

k−1

⊆ I

k

do begin

h(I

k−1

) := v(I

k

)

− ¯

V (I

k−1

);

η(I

k−1

) := ¯

a

I

k

1

ε

−h(I

k

1

)

0

ν(I

k

);

for i

∈ I

k−1

do begin

h

i

:= h

i

+ h(I

k−1

);

η

i

:= η

i

η(I

k−1

)

{

Wsp´

o lczynniki

h

i

obliczone

na

k–tym

etapie

agregacji

s¸a

“wysoko´sciami” stan´ow w wej´sciowym grafie obci¸etym do I

k

.

W

nast¸epnej p¸etli “for” obliczamy “odleg lo´sci” ¯

d(I

k

, J

k

) mi¸edzy stanami

zgrupowanymi na k–tym etapie agregacji. ¯

V (I

k

) jest “obj¸eto´sci¸a” klasy

zamkni¸etej I

k

, czyli odleg lo´sci¸a mi¸edzy najni˙zszym (wzgl¸edem h

i

) stanem

w klasie a najbli˙zszym s¸asiadem poza klas¸a.

}

end

end;
for J

k

∈ S

k

, J

k

6= I

k

do

¯

d(I

k

, J

k

) := min

I

k

1

⊆I

k

J

k

1

⊆J

k

[h(I

k−1

) + ¯

d(I

k−1

, J

k−1

)];

¯

V (I

k

) := min

J

k

∈S

k

J

k

6=I

k

¯

d(I

k

, J

k

);

for J

k

∈ arg min

J

k

0

∈S

k

J

k

0

6=I

k

d(I

k

, J

k

0

) do begin

E

k

:= E

k

∪ {(I

k

, J

k

)

};

¯

δ(I

k

, J

k

) :=

X

(I

k

1

,J

k

1

)∈arg min

I

k

1

0

⊆I

k

J

k

1

0

⊆J

k

[h(I

k

1

0

)+ ¯

d(I

k

1

0

,J

k

1

0

)]

η(I

k−1

δ(I

k−1

, J

k−1

)

background image

79

end

end

until w grafie

|S

k

| = 1 istnieje tylko jedna klasa zamkni¸eta;

3) {

Normalizacja

}

for i = 1 to u do begin

a

i

:= h

i

− h

u+1

;

α

i

:= η

i

u+1

;

end

end.

Algorytm 4.5.

input: Macierze ∆(R


R), D(R


R) bez element´ow diagonalnych, wektory δ

R

, d

R

,

ζ

, z, liczba ε

0

∈ (0, ε

1

)

output: Wektory α, a.
begin
1) for k = 1 to u do begin

d

k,u+1

:= d

kR

; δ

k,u+1

:= δ

kR

;

d

k,u+2

:= z

k

; δ

k,u+2

:= ζ

k

;

end;

2) k := 0; S

0

:=

{{i} : i = 1, . . . , u + 1}; E

0

:=

∅;

{

Cz¸e´s´c 2) jest hierarchiczn¸a agregacj¸a grafu wyznaczonego przez macierz

(d

ij

)

u+1

i,j=1

, i

6= j, bez kraw¸edzi wychodz¸acych z u + 1. Grupujemy r´ownie˙z

kraw¸edzie prowadz¸ace do stanu u + 2. Zmienna k ma podobne znaczenie

jak w algorytmach 4.3 i 4.4.

}

for

{i} ∈ S

0

\ {{u + 1}} do begin

for

{j} ∈ S

0

∪ {{u + 2}}, j 6= i do begin

δ(

{i}, {j}) := δ

i,j

; d(

{i}, {j}) := d

ij

;

end;

V (

{i}) := min

{l}∈S

0

l6=i

d

il

;

for j

∈ arg min

{l}∈S

0

l6=i

d

il

do E

k

:= E

k

∪ {({i}, {j})}

end;

background image

80

Znajd´z (np. za pomoc¸a algorytmu 2.1) podzia l zbioru S

0

na klasy

zamkni¸ete i zbi´or stan´ow nieistotnych w grafie (S

0

, E

0

);

while W grafie (S

k

, E

k

) istniej¸a klasy zamkni¸ete o mocy wi¸ekszej ni˙z 1 do

begin

k := k + 1; E

k

:=

∅;

S

k

:=

{I

k

: I

k

jest sum¸a wszystkich stan´ow nale˙z¸acych do tej samej klasy

zamkni¸etej albo stanem nieistotnym w grafie (S

k−1

, E

k−1

)

};

for I

k

∈ S

k

\ {u + 1} do begin

for I

k−1

, J

k−1

⊆ I

k

, I

k−1

6= J

k−1

do

if (I

k−1

, J

k−1

)

∈ E

k−1

then

l

I

k

1

,J

k

1

:=

−δ(I

k−1

, J

k−1

d(I

k

1

,J

k

1

)

0

else l

I

k

1

,J

k

1

:= 0;

Rozwi¸a˙z (np. za pomoc¸a algorytmu 3.1) r´ownanie

L

T
I

k

1

1

,I

k

1

1

a

I

k

1

1

=

−l

I

k

1

1

dla pewnego I

k−1

1

⊆ I

k

;

{ a

I

k

1

1

:= (a

I

k

1

)

I

k

1

⊆I

k

, I

k

1

6=I

k

1

1

oraz

l

I

k

1

1

:= (l

I

k

1

1

,I

k

1

)

I

k

1

⊆I

k

, I

k

1

6=I

k

1

1

}

Oblicz det L

T
I

k

1

1

,I

k

1

1

;

a

I

k

1

1

:= 1;

σ(I

k

) :=

X

I

k

1

⊆I

k

V (I

k−1

);

for I

k−1

⊆ I

k

do begin

d(I

k−1

) := σ(I

k

)

− V (I

k−1

);

δ(I

k−1

) := a

I

k

1

det L

T
I

k

1

1

,I

k

1

1

ε

−d(I

k

1

)

0

;

end;
for J

k

∈ S

k

∪ {u + 2}, J

k

6= I

k

do

d(I

k

, J

k

) := min

I

k

1

⊆I

k

J

k

1

⊆J

k

[d(I

k−1

) + d(I

k−1

, J

k−1

)];

V (I

k

) := min

J

k

∈S

k

J

k

6=I

k

d(I

k

, J

k

);

for J

k

∈ arg min

J

k

0

∈S

k

J

k

0

6=I

k

d(I

k

, J

k

0

)

∪ {{u + 2}} do begin

background image

81

if J

k

6= {u + 2} then E

k

:= E

k

∪ {(I

k

, J

k

)

};

δ(I

k

, J

k

) :=

X

(I

k

1

,J

k

1

)∈arg min

I

k

1

0

⊆I

k

J

k

1

0

⊆J

k

[d(I

k

1

0

)+d(I

k

1

0

,J

k

1

0

)]

δ(I

k−1

)δ(I

k−1

, J

k−1

)

end

end

end;

3) {

W tej cz¸e´sci obliczam wsp´o lczynniki a

i

, i

∈ S \ R.

}

W := S

k

\ {{u + 1}};

for I

k

∈ W do a(I

k

) := d(I

k

,

{u + 2}) − V (I

k

);

repeat

M := arg min

I

k

0

∈W

a(I

k

0

); W := W

\ M;

for I

k

∈ M, i ∈ I

k

do a

i

:= a(I

k

);

for I

k

∈ W do

a(I

k

) := a(I

k

)

∧ min

J

k

∈M

d(I

k

, J

k

)

− V (I

k

) + a(I

k

)



until W =

∅;

4) {

W tej cz¸e´sci obliczam wsp´o lczynniki α

i

, i

∈ S \ R

}

for I

k

, J

k

∈ S

k

, I

k

6= J

k

do

if (I

k

, J

k

)

∈ E

k

then l

I

k

,J

k

:=

−δ(I

k

, J

k

d(I

k

,J

k

)

0

else l

I

k

,J

k

:= 0;

for I

k

∈ S

k

\ {{u + 1}} do b

I

k

:=

−δ(I

k

,

{u + 2})ε

d(I

k

,{u+2})

0

Rozwi¸a˙z (np. za pomoc¸a algorytmu 3.2) r´ownanie

L

{u+1},{u+1}

x = b;

for I

k

∈ S

k

\ {{u + 1}} do

for i

∈ I

k

do

α

i

:= x

I

k

ε

−a(I

k

)

0

end.

Algorytm 4.6.

input: Macierze ∆(R


R), D(R


R) bez element´ow diagonalnych, wektory δ

R

, d

R

,

ζ

, z, liczba ε

0

∈ (0, ε

1

)

output: Wektory α, a.
begin

background image

82

1) for k = 1 to u do begin

d

k,u+1

:= d

kR

; δ

k,u+1

:= δ

kR

;

d

k,u+2

:= z

k

; δ

k,u+2

:= ζ

k

;

end;

2) k := 0; S

0

:=

{{i} : i = 1, . . . , u + 1}; E

0

:=

∅;

{

Podobnie jak w algorytmie 4.5, cz¸e´s´c 2) jest hierarchiczn¸a agre-

gacj¸a grafu wyznaczonego przez macierz (d

ij

)

u+1

i,j=1

, i

6= j, bez kraw¸edzi

wychodz¸acych z u + 1.

}

for

{i} ∈ S

0

\ {{u + 1}} do begin

for

{j} ∈ S

0

∪ {{u + 2}}, j 6= i do begin

¯

δ(

{i}, {j}) := δ

i,j

;

¯

d(

{i}, {j}) := d

ij

;

end;

¯

V (

{i}) := min

{l}∈S

0

l6=i

d

il

;

for j

∈ arg min

{l}∈S

0

l6=i

d

il

do E

k

:= E

k

∪ {({i}, {j})}

end;

Znajd´z (np. za pomoc¸a algorytmu 2.1) podzia l zbioru S

0

na klasy

zamkni¸ete i zbi´or stan´ow nieistotnych w grafie (S

0

, E

0

);

while W grafie (S

k

, E

k

) istniej¸a klasy zamkni¸ete o mocy wi¸ekszej ni˙z 1 do

begin

k := k + 1; E

k

:=

∅;

S

k

:=

{I

k

: I

k

jest sum¸a wszystkich stan´ow nale˙z¸acych do tej samej klasy

zamkni¸etej albo stanem nieistotnym w grafie (S

k−1

, E

k−1

)

};

for I

k

∈ S

k

\ {u + 1} do begin

for I

k−1

, J

k−1

⊆ I

k

, I

k−1

6= J

k−1

do

if (I

k−1

, J

k−1

)

∈ E

k−1

then

¯l

I

k

1

,J

k

1

:=

−¯δ(I

k−1

, J

k−1

¯

d(I

k

1

,J

k

1

)

0

else ¯l

I

k

1

,J

k

1

:= 0;

Rozwi¸a˙z (np. za pomoc¸a algorytmu 3.1) r´ownanie

¯

L

T
I

k

1

1

,I

k

1

1

¯

a

I

k

1

1

=

−¯l

I

k

1

1

dla pewnego I

k−1

1

⊆ I

k

;

{

¯

a

I

k

1

1

:= (¯

a

I

k

1

)

I

k

1

⊆I

k

, I

k

1

6=I

k

1

1

oraz

¯l

I

k

1

1

:= (¯l

I

k

1

1

,I

k

1

)

I

k

1

⊆I

k

, I

k

1

6=I

k

1

1

}

¯

a

I

k

1

1

:= 1;

background image

83

v(I

k

) := max

I

k

1

⊆I

k

¯

V (I

k−1

);

¯

ν(I

k

) :=

X

I

k

1

∈arg max

I

k

1

0

⊆Ik

¯

V (I

k

1

0

)

¯a

I

k

1

;

for I

k−1

⊆ I

k

do begin

h(I

k−1

) := v(I

k

)

− ¯

V (I

k−1

);

η(I

k−1

) := ¯

a

I

k

1

ε

−h(I

k

1

)

0

ν(I

k

);

end;
for J

k

∈ S

k

∪ {u + 2}, J

k

6= I

k

do

¯

d(I

k

, J

k

) := min

I

k

1

⊆I

k

J

k

1

⊆J

k

[h(I

k−1

) + ¯

d(I

k−1

, J

k−1

)];

¯

V (I

k

) := min

J

k

∈S

k

J

k

6=I

k

¯

d(I

k

, J

k

);

for J

k

∈ arg min

J

k

0

∈S

k

J

k

0

6=I

k

¯

d(I

k

, J

k

0

)

∪ {{u + 2}} do begin

if J

k

6= {u + 2} then E

k

:= E

k

∪ {(I

k

, J

k

)

};

¯

δ(I

k

, J

k

) :=

X

(I

k

1

,J

k

1

)∈arg min

I

k

1

0

⊆I

k

J

k

1

0

⊆J

k

[h(I

k

1

0

)+ ¯

d(I

k

1

0

,J

k

1

0

)]

η(I

k−1

δ(I

k−1

, J

k−1

)

end

end

end;

3) {

W tej cz¸e´sci obliczam wsp´o lczynniki a

i

, i

∈ S \ R.

}

W := S

k

\ {{u + 1}};

for I

k

∈ W do a(I

k

) := ¯

d(I

k

,

{u + 2}) − ¯

V (I

k

);

repeat

M := arg min

I

k

0

∈W

a(I

k

0

); W := W

\ M;

for I

k

∈ M, i ∈ I

k

do a

i

:= a(I

k

);

for I

k

∈ W do

a(I

k

) := a(I

k

)

∧ min

J

k

∈M



¯

d(I

k

, J

k

)

− ¯

V (I

k

) + a(I

k

)



until W =

∅;

4) {

W tej cz¸e´sci obliczam wsp´o lczynniki α

i

, i

∈ S \ R

}

for I

k

, J

k

∈ S

k

, I

k

6= K

k

do

background image

84

if (I

k

, J

k

)

∈ E

k

then ¯l

I

k

,J

k

:=

−¯δ(I

k

, J

k

¯

d(I

k

,J

k

)

0

else ¯l

I

k

,J

k

:= 0;

for I

k

∈ S

k

\ {{u + 1}} do ¯b

I

k

:=

−¯δ(I

k

,

{u + 2})ε

¯

d(I

k

,{u+2})

0

Rozwi¸a˙z (np. za pomoc¸a algorytmu 3.2) r´ownanie

¯

L

{u+1},{u+1}

¯

x = ¯

b;

for I

k

∈ S

k

\ {{u + 1}} do

for i

∈ I

k

do

α

i

:= ¯

x

I

k

ε

−a(I

k

)

0

end.

W nast¸epnym algorytmie obliczymy wsp´o lczynniki asymptotyczne dla macierzy

granicznej PZ LM. Wykorzystamy w nim jako procedury algorytmy wprowadzone
poprzednio.

Algorytm 4.7.

input: Macierze ∆ = (δ

ij

)

i,j∈S

, D = (d

ij

)

i,j∈S

bez element´ow diagonalnych, odpo-

wiadaj¸ace PZ LM, ε

0

∈ (0, ε

1

).

output:

Macierze (η

k

j

)

j∈C

k

, k=1,... ,m

,

(h

k

j

)

j∈C

k

, k=1,... ,m

,

(c

k

i

)

i∈T, k=1,... ,m

oraz

k

i

)

i∈T, k=1,... ,m

.

begin
1)

Znajd´z (np. za pomoc¸a algorytmu 2.1) podzia l zbioru S na klasy zamkni¸ete

C

1

, . . . , C

m

oraz zbi´or stan´ow nieistotnych T w grafie (S,

{(i, j) : δ

ij

> 0

});

2) for k := 1 to m do

Znajd´z wektory (η

k

j

)

j∈C

k

, (h

k

j

)

j∈C

k

(np. za pomoc¸a algorytmu 4.1, al-

gorytmu 4.3 lub algorytmu 4.4 zastosowanego do macierzy (δ

ij

)

i,j∈C

k

oraz (d

ij

)

i,j∈C

k

bez element´ow diagonalnych);

3) for k = 1, . . . , m, i

∈ T do begin

d

ik

:= min

j∈C

k

d

ij

;

δ

ik

:=

P

j∈arg min

j0∈Ck

d

ij0

δ

ij

end;

Znajd´z macierze (c

k

i

)

i∈T, k=1,... ,m

oraz (γ

k

i

)

i∈T, k=1,... ,m

(np. za pomoc¸a

algorytmu 4.2, algorytmu 4.5 lub algorytmu 4.6 zastosowanego do

background image

85

zbior´ow R =

{1, . . . , m}, S

= T

.

∪ R oraz macierzy (δ

ij

)

i∈T, j∈S

,

(d

ij

)

i∈T, j∈S

bez element´ow δ

ii

, d

ii

dla i

∈ T ).

end.

Uwagi 4.2.

(1) W znanych przyk ladach PZ LM wyst¸epuj¸acych w zastosowaniach, elementy

macierzy D s¸a ca lkowite, zatem algorytmy 4.1–4.7 dok ladnie obliczaj¸a wek-
tor a. Natomiast b l¸ad w obliczeniu wektora α, zwi¸azany z reprezentacj¸a
zmiennoprzecinkow¸a oraz wykonywaniem dzia la´

n w arytmetyce zmienno-

przecinkowej, mo˙zna oszacowa´c za pomoc¸a twierdze´

n rozdzia lu 3.

(2) Latwo zauwa˙zy´c, ˙ze koszt algorytm´ow 4.1–4.2 jest asymptotycznie r´owno-

wa˙zny (2/3)s

3

. Koszt algorytm´ow 4.3–4.6 jest rz¸edu O(s

3

). Wydaje si¸e, ˙ze

dla du˙zych LM, w kt´orych jest wiele klas zamkni¸etych, algorytmy 4.3–4.6 s¸a
bardziej efektywne od algorytm´ow 4.1–4.2.

(3) Zauwa˙zmy, ˙ze z dowodu poprawno´sci algorytmu 4.1, podobnie jak z twier-

dzenia 4.1, wynika, ˙ze wektory a i α s¸a funkcjami parametr´ow ∆, D, ζ, z.

(4) Wsp´o lczynniki δ(i) oraz η(i), wyznaczane w algorytmach 4.3–4.6, mo˙zna

obliczy´c za pomoc¸a algorytm´ow 4.1–4.2.

4.3. Analiza algorytm´

ow.

Algorytmy 4.1 i 4.2 s¸a uog´olnieniem algorytm´ow 3.1 i 3.2 na problemy (4.2) i

(4.3). Ich poprawno´s´c jest konsekwencj¸a poprawno´sci algorytm´ow 3.1 i 3.2 oraz
w lasno´sci relacji “

∼” opisanych w lematach 4.1–4.3.

Dow´od poprawno´sci algorytmu 4.1.

Niech L

(k)
R

(ε) :=



l

(k)
ij

(ε)



u+1

i,j=k+1

, b

(k)

(ε), l

T

R

(ε), u

k

(ε) dla k = 1, . . . , u maj¸a

znaczenie podobne jak w rozdziale 3.2. Niech ponadto D

(1)
R

:=



d

(1)
ij



u+1

i,j=1

, ∆

(1)
R

:=



δ

(1)

ij



u+1

i,j=1

b¸ed¸a macierzami takimi, ˙ze

D

(1)
R

=

"

D

T

(R


R) z

d

T

R

z

#

,

(1)
R

:=

"

T

(R


R) ζ

δ

T
R

ζ

#

,

background image

86

gdzie

d

T

R

:= (d

1R

, . . . , d

uR

),

d

iR

:= min

j∈R

d

ij

,

δ

T
R

:= (δ

1R

, . . . , δ

uR

),

δ

iR

:=

X

j∈R

δ

ij

1(d

ij

= d

iR

)

dla i = 1, . . . , u oraz

z := min

j≤u

z

j

,

ζ :=

u

X

j=1

ζ

j

1(z

j

= z).

Oczywi´scie

−l

(1)
ij

(ε)

∼ δ

(1)

ij

ε

d

(1)
ij

dla i, j = 1, . . . , u + 1, i

6= j.

Dla dowodu poprawno´sci “eliminacji” zauwa˙zmy, ˙ze z lematu 4.3 wynikaj¸a relacje

l

iR

∼ δ

iR

ε

d

iR

dla i = 1, . . . , u oraz u

1

(ε)

∼ δ

1

ε

d

1

, gdzie

d

1

:= min

j>1

d

(1)
1j

,

δ

1

:=

X

j>1

δ

(1)

1j

1(d

(1)
1j

= d

1

).

W kolejnym k-tym kroku metody (k = 1, . . . , u) definiujemy indukcyjnie macierze

(k+1)
R

=



δ

(k+1)

ij



u+1

i,j=k+1

,

D

(k+1)
R

:=



δ

(k+1)

ij



u+1

i,j=k+1

bez element´ow diagonalnych oraz liczby d

k+1

, δ

k+1

w nast¸epuj¸acy spos´ob.

Dla i, j = k + 1, . . . , u + 1, i

6= j

d

(k+1)
ij

:=d

(k)
ij

∧ (d

(k)
ik

+ d

(k)
kj

− d

k

)

δ

(k+1)

ij

:=δ

(k)

ij

1(d

(k)
ij

= d

(k+1)
ij

)

+ (δ

(k)

ik

δ

(k)

kj

k

)1(d

(k)
ik

+ d

(k)
kj

− d

k

= d

(k+1)
ij

);

d

k+1

:= min

j>k+1

d

(k+1)
k+1,j

;

δ

k+1

:=

X

j>k+1

δ

(k+1)

k+1,j

1(d

(k+1)
k+1,j

= d

k+1

).

Z lemat´ow 4.1–4.3 oraz za lo˙zenia indukcyjnego wynika, ˙ze

l

(k+1)
ij

(ε) = l

(k)
ij

(ε)

l

(k)
ik

(ε)l

(k)
kj

(ε)

u

k

(ε)

∼ δ

(k)

ij

ε

d

(k)
ij

+

δ

(k)

ij

δ

(k)

kj

δ

k

ε

d

(k)
ij

+d

(k)
kj

−d

k

background image

87

∼ δ

(k+1)

ij

ε

d

(k+1)
ij

.

Ponadto ze wzoru (3.20) wynika, ˙ze

u

k+1

(ε)

∼ δ

k+1

ε

d

k

+1

.

Dla dowodu poprawno´sci “podstawienia wstecz” korzystamy z lemat´ow 4.1–4.3 i
otrzymujemy, przez indukcj¸e dla k = 1, . . . , u

x

k

(ε)

δ

(k)

1,u+1

ε

d

(k)
1,u+1

+

u

X

j=k+1

δ

(k)

jk

ε

d

(k)
jk

x

j

(ε)

!

δ

−1

k

ε

−d

k

.



Podobnie dowodzimy poprawno´sci algorytmu 4.2.
W dalszej cz¸e´sci rozdzia lu udowodnimy poprawno´s´c algorytm´ow 4.3 i 4.4.

Analogicznie do definicji parametr´ow las´ow skierowanych w grafie g

(D), po-

danych przed stwierdzeniem 4.4, mo˙zna wprowadzi´c nast¸epuj¸ace parametry las´ow
skierowanych o dziedzinie D: d(f


D), δ(f


D), d(F


D), δ(F


D), d(R


D), δ(R


D),

d

ij

(R


D), δ

ij

(R


D), d(i


D), δ(i


D).

Przyjmijmy ponadto:

n(D) := min

j∈D

d(j


D),

ν(D) :=

X

j∈D

d(j|D)=n(D)

δ(j


D),

h(i


D) := d(j


D)

− n(D),

η(i


D) := δ(j


D)/ν(D).

Dla I, J

⊆ S okre´slmy

d(I, J) := min

i∈I

j∈J

[d(i


I) + d

ij

],

δ(I, J) :=

X

i∈I, j∈J

d(i|I)+d

ij

=d(I,J)

δ(i

|I)δ

ij

,

¯

d(I, J) := min

i∈I

j∈J

[h(i


I) + d

ij

],

¯

V (I) := ¯

d(I, S

\ I),

background image

88

¯

δ(I, J) :=

X

i∈I, j∈J

h(i|I)+d

ij

= ¯

d(I,J)

η(i

|I)δ

ij

.

Niech g

min

(D) := S,

{(i, j) ∈ E

g

(D)

: d

ij

= min

a6=i

d

ia

}

.

Lemat 4.4. (W lasno´sci najkr´otszych las´ow)

Niech R

⊆ S oraz f ∈ F (R) w grafie g

(D). Za l´o˙zmy, ˙ze d(f ) = d(R). Wtedy f

ma nast¸epuj¸ace w lasno´sci.

(1) Dla dowolnej klasy zamkni¸etej I w grafie g

min

(D) takiej, ˙ze I

∩ R = ∅

spe lnione s¸a warunki:

∃! (i, j) ∈ E

f

taka, ˙ze i

∈ I, j ∈ S \ I;

(4.4)

je˙zeli (i, j)

∈ E

f

oraz i, j

∈ I, to (i, j) ∈ E

g

min

(D)

.

(4.5)

(2) Dla dowolnej klasy zamkni¸etej I w grafie g

min

(D) takiej, ˙ze R

⊆ I spe lnione

s¸a warunki:

E

f

= E

f

1

.

∪ E

f

2

,

gdzie f

1

∈ F (R


I) oraz f

2

∈ F (I);

(4.6)

je˙zeli (i, j)

∈ E

f

1

oraz i, j

∈ I, to (i, j) ∈ E

g

min

(D)

.

(4.7)

(3) Dla dowolnych I, J

⊆ S \ R, kt´ore s¸a r´o˙znymi klasami zamkni¸etymi lub

singletonami zawieraj¸acymi stan nieistotny w grafie g

min

(D), spe lniony jest

warunek:

je˙zeli (i, j)

∈ E

f

oraz i

∈ I, j ∈ J, to

(4.8)

d(i


I) + d

ij

=

min

i

0

∈I, j

0

∈J

[d(i

0


I) + d

i

0

j

0

].

Dow´od. Dla dowodu nie wprost cz¸e´sci (1) za l´o˙zmy, ˙ze f nie spe lnia warunku (4.4)
lub (4.5) dla pewnej klasy zamkni¸etej w grafie g

(D) roz l¸acznej z R. Latwo za-

uwa˙zy´c, ˙ze istnieje stan i

0

∈ I taki, ˙ze jego droga do R, zawarta w lesie f, prowadzi

przez stany nie nale˙z¸ace do I. Okre´slmy indukcyjnie: I

0

:=

{i

0

}, f

0

:= f oraz dla

k = 0, 1, . . .

I

k+1

:=

n

i

∈ I \ (I

0

.

∪ . . .

.

∪ I

k

) :

j∈I

k

(i, j)

∈ E

g

min(D)

o

,

f

k+1

:= (S, E

k+1

), gdzie

background image

89

E

k+1

:=

{(i, j) ∈ E

f

k

: i

6∈ I

k+1

}

.

∪ {(i, n(i)) : i ∈ I

k+1

} ,

n(i) — wybrany stan nale˙z¸acy do I

k

taki, ˙ze (i, n(i))

∈ E

g

min

(D)

.

Latwo zauwa˙zy´c, ˙ze f

k

jest lasem o korzeniu R oraz

d(R)

≤ d(f

k+1

)

≤ d(f

k

).

Ponadto ze sko´

nczono´sci I wynika, ˙ze istnieje K taki, ˙ze dla dowolnego k

≥ K

f

k

= f

K−1

,

I

k

= I

K

=

oraz f

K−1

jest lasem spe lniaj¸acym warunki (4.4) i (4.5) dla I. Z za lo˙zenia dowodu

wynika, ˙ze istniej¸a r´o˙zne pary (i

1

, j

1

), (i

2

, j

2

) zawarte w f takie, ˙ze i

1

, i

2

∈ I oraz

j

1

, j

2

∈ S \ I. St¸ad wynika, ˙ze

d(R)

≤ d(f

k−1

) < d(f ).

Sprzeczno´s´c.

W podobny spos´ob dowodzimy cz¸e´s´c (2).
Dla dowodu nie wprost cz¸e´sci (3) za l´o˙zmy, ˙ze istnieje taka para (a, b)

∈ E

f

, ˙ze

a

∈ I, b ∈ J, I, J ⊆ S \ R s¸a r´o˙znymi klasami zamkni¸etymi lub singletonami

zawieraj¸acymi stany nieistotne w grafie g

min

(D) oraz

d(a


I) + d

ab

> min

i

0

∈I

j

0

∈J

[d(i

0


I) + d

i

0

j

0

].

Z cz¸e´sci (1) wynika, ˙ze

d(f


I) = d(a


I).

Przyjmijmy

f

1

:= (S, E

1

),

gdzie

E

1

:= E

f

\ (a, b)

.

∪ (i, j) oraz (i, j) ∈ arg min

i

0

∈I, j

o

∈J

[d(i

0


I) + d

i

0

j

0

].

Latwo zauwa˙zy´c, ˙ze f

1

jest lasem o korzeniu R spe lniaj¸acym warunki (1)–(2) oraz

warunek (4.8) dla I, J. St¸ad wynika, ˙ze

d(R)

≤ d(f

1

) < d(f ).

Sprzeczno´s´c.



background image

90

Dla analizy algorytm´ow 4.3–4.6 wygodnie b¸edzie wprowadzi´c indukcyjnie nast¸e-

puj¸ace wielko´sci

S

0

:=

{{i} : i ∈ S};

d

0

(

{i}, {j}) = ¯

d

0

(

{i}, {j}) := d

ij

;

¯

V

0

(

{i}) := min

j6=i

d

ij

;

E

0

:=

{(I

0

, J

0

) : I

0

, J

0

∈ S

0

, I

0

6= J

0

, d

0

(I

0

, J

0

) = ¯

V

0

(I

0

) <

∞};

g

0

:= (S

0

, E

0

);

Dla k = 1, 2, . . .

S

k

:=

{I

k

: I

k

jest sum¸a wszystkich stan´ow nale˙z¸acych do tej samej

klasy zamkni¸etej albo stanem nieistotnym w g

k−1

};

dla dowolnych I

k

, J

k

∈ S

k

, I

k

6= J

k

v(I

k

) := max

I

k

1

⊆I

k

¯

V

k−1

(I

k−1

),

n(I

k

) :=

X

I

k

1

⊆I

k

¯

V

k−1

(I

k−1

)

− v(I

k

),

¯

d

k

(I

k

, J

k

) := v(I

k

) + min

I

k

1

⊆I

k

J

k

1

⊆J

k

[ ¯

d

k−1

(I

k−1

, J

k−1

)

− ¯

V

k−1

(I

k−1

)],

d

k

(I

k

, J

k

) := ¯

d

k

(I

k

, J

k

) + n(I

k

),

¯

V

k

(I

k

) := min

J

k

6=I

k

¯

d

k

(I

k

, J

k

),

E

k

:=

(I

k

, J

k

) : I

k

, J

k

∈ S

k

, I

k

6= J

k

, ¯

d(I

k

, J

k

) = ¯

V (I

k

) <

;

g

k

:= (S

k

, E

k

).

Bezpo´srednio z lematu 4.4 i przyj¸etych definicji wynikaj¸a nast¸epuj¸ace lematy.

Lemat 4.5. Niech i

∈ I

1

∈ S. Wtedy

d(i) = d(i


I

1

) + d

1

(I

1

);

(1)

δ(i) = δ(i


I

1

1

(I

1

).

(2)

background image

91

Lemat 4.6. Niech I

1

, J

1

∈ S

1

, I

1

6= J

1

, R

∩ (I

1

∪ J

1

) =

∅, i ∈ I

1

. Wtedy

min

j∈J

1

d

ij

(R, j) = d(j


J

1

) + d

1
I

1

,J

1

(R, J

1

);

(1)

X

j∈arg min d

ij0

(R,j

0

)

j

0

∈J

1

δ

ij

= δ(j


J

1

1

I

1

,J

1

(R, J

1

).

(2)

Nast¸epny lemat wyra˙za zwi¸azek mi¸edzy wsp´o lczynnikami δ

1

(

·, ·), d

1

(

·, ·) oraz

¯

δ

1

(

·, ·), ¯

d

1

(

·, ·).

Lemat 4.7. Niech I

1

∈ S

1

. Wtedy

d

1

(I

1

) + n(I

1

) = ¯

d

1

(I

1

) +

X

J

1

∈S

1

n(J

1

);

(1)

δ

1

(I

1

)ν(I

1

) = ¯

δ

1

(I

1

)

Y

J

1

∈S

1

ν(J

1

).

(2)

Dow´od . Zauwa˙zmy, ˙ze dla i

∈ I

1

∈ S

1

zachodz¸a r´owno´sci:

d(i


I

1

) = n(I

1

) + h(i


I

1

) oraz

δ(i


I

1

) = ν(I

1

)η(i


I

1

).

Cz¸e´s´c (1) jest konsekwencj¸a nast¸epuj¸acych r´owno´sci.

d

1

(I

1

) =

min

f

1

∈F

1

(I

1

)

d

1

(f

1

)

=

min

f

1

∈F

1

(I

1

)

X

(I

1

0

,J

1

0

)∈f

1

d

1

(I

1

0

, J

1

0

)

=

min

f

1

∈F

1

(I

1

)

X

(I

1

0

,J

1

0

)∈f

1

min

i∈I

1

0

j∈J

1

0

[d(i


I

1

0

) + d

ij

]

=

min

f

1

∈F

1

(I

1

)

X

(I

1

0

,J

1

0

)∈f

1


n(I

1

0

) + min

i∈I

1

0

j∈J

1

0

[h(i


I

1

0

) + d

ij

]


=

min

f

1

∈F

1

(I

1

)

X

(I

1

0

,J

1

0

)∈f

1

n(I

1

0

) + ¯

d

1

(I

1

0

, J

1

0

)



background image

92

=

X

I

1

0

∈S

1

I

1

0

6=I

1

n(I

1

0

) +

min

f

1

∈F

1

(I

1

)

¯

d

1

(f

1

)

=

X

I

1

0

∈S

1

I

1

0

6=I

1

n(I

1

0

) + ¯

d

1

(I

1

)

Cz¸e´s´c (2) jest konsekwencj¸a nast¸epuj¸acych r´owno´sci.

δ

1

(I

1

) =

X

f

1

∈F

1

(I

1

)

d

1

(f

1

)=d

1

(I

1

)

δ

1

(f

1

)

=

X

f

1

∈F

1

(I

1

)

d

1

(f

1

)=d

1

(I

1

)

Y

(I

1

0

,J

1

0

)∈f

1

δ

1

(I

1

0

, J

1

0

)

=

X

f

1

∈F

1

(I

1

)

d

1

(f

1

)=d

1

(I

1

)

Y

(I

1

0

,J

1

0

)∈f

1




X

i∈I

1

0

, j∈J

1

0

d(i|I

1

0

)+d

ij

=d

1

(I

1

0

,J

1

0

)

δ(i


I

1

0

ij




=

X

f

1

∈F

1

(I

1

)

¯

d

1

(f

1

)= ¯

d

1

(I

1

)

Y

(I

1

0

,J

1

0

)∈f

1

ν(I

1

0

)




X

i∈I

1

0

, j∈J

1

0

h(i|I

1

0

)+d

ij

= ¯

d(I

1

0

,J

1

0

)

η(i


I

1

0

ij




=

X

f

1

∈F

1

(I

1

)

¯

d

1

(f

1

)= ¯

d

1

(I

1

)

Y

I

1

0

∈S

1

I

1

0

6=I

1

ν(I

1

0

)

Y

(I

1

0

,J

1

0

)∈f

1

h(i|I

1

0

)+d

ij

= ¯

d

1

(I

1

0

,J

1

0

)

¯

δ

1

(I

1

0

, J

1

0

)

=

Y

I

1

0

∈S

1

I

1

0

6=I

1

ν(I

1

0

)

X

f

1

∈F

1

(I

1

)

¯

d

1

(f

1

)= ¯

d

1

(I

1

)

¯

δ

1

(f

1

)

=

Y

I

1

0

∈S

1

I

1

0

6=I

1

ν(I

1

0

δ

1

(I

1

)



Lemat 4.8.

Niech x(ε) = (x

i

(ε))

i∈S\R

b¸edzie rozwi¸azaniem uk ladu (4.2) oraz

π

(ε) = (π

i

(ε))

u+1
i=1

— rozk ladem stacjonarnym jednoklasowego laplasjanu Marko-

wa L

R

(ε), zdefiniowanego wzorem (4.1). Wtedy otrzymujemy dla i

∈ I

1

∈ S

1

,

background image

93

u + 1

∈ J

1

:

x

i

(ε)

δ(i


I

1

d(i|I

1

)

δ

1

(I

1

d

1

(I

1

)

δ(u + 1


J

1

d(u+1|J

1

)

δ

1

(J

1

d

1

(J

1

)

;

(1)

x

i

(ε)

π

i

(ε)

π

u+1

(ε)

oraz

(2) (a)

π

i

(ε)

∼ η(i


I

1

h(i|I

1

)

η

1

(I

1

h

1

(I

1

)

.

(b)

Dow´od . Ze stwierdzenia 4.4 i lematu 4.5 otrzymujemy relacje

w(i)(ε)

∼ δ(i)ε

d(i)

(4.9)

∼ δ(i


I

1

d(i|I

1

)

δ

1

(I

1

d

1

(I

1

)

.

St¸ad oraz z twierdzenia 4.1 (2) otrzymujemy cz¸e´s´c (1). Cz¸e´s´c (2) (a) wynika ze
wzoru (4.9), twierdzenia 4.2 oraz z cz¸e´sci (1).

Dla dowodu cz¸e´sci (2) (b) zauwa˙zmy, ˙ze

δ(i


I

1

d(i|I

1

)

δ

1

(I

1

d

1

(I

1

)

δ(i


I

1

)

ν(I

1

)

ε

d(i|I

1

)−n(I

1

)

δ

1

(I

1

)ν(I

1

d

1

(I

1

)+n(I

1

)

η(i


I

1

h(i|I

1

)

δ

1

(I

1

)ν(I

1

d

1

(I

1

)+n(I

1

)

.

Ponadto

h

1

(I

1

) = ¯

d

1

(I

1

)

− min

J

1

∈S

1

¯

d

1

(J

1

)

oraz

η

1

(I

1

) = ¯

δ

1

(I

1

)/

X

J

1

∈S

1

: h

1

(J

1

)=0

¯

δ

1

(J

1

)

.

W rezultacie ze wzoru (4.9), twierdzenia 4.2 oraz lematu 4.7 otrzymujemy tez¸e. 

Lemat 4.9. Niech x(ε) = (x

i

(ε))

i∈S\R

b¸edzie rozwi¸azaniem uk ladu (4.3). Za lo˙z-

my, ˙ze dla dostatecznie ma lych ε, w grafie g(L) istnieje las o korzeniu R. Wtedy
otrzymujemy dla i

∈ I

1

∈ S

1

, I

1

∩ R = ∅

x

i

(ε)

P

J

1

∈S

1

δ

1

I

1

,J

1

(R, J

1

d

1
I1,J 1

(R,J

1

)

δ

1

(J

1

,

{u + 1})ε

d

1

(J

1

,{u+1})

δ

1

(R)ε

d

1

(R)

;

(1)

background image

94

x

i

(ε)

P

J

1

∈S

1

¯

δ

1

I

1

,J

1

(R, J

1

¯

d

1
I1,J 1

(R,J

1

)

¯

δ

1

(J

1

,

{u + 1})ε

¯

d

1

(J

1

,{u+1})

¯

δ

1

(R)ε

¯

d

1

(R)

.

(2)

Dow´od . Ze stwierdzenia 4.4 i lematu 4.6 otrzymujemy relacje

w(R)(ε)

∼ δ(R)ε

d(R)

= δ

1

(R)ε

d

1

(R)

.

Podobnie

X

j∈S\R

w

ij

(R, j)(ε)(

−l

j,u+1

(ε))

X

j∈S\R

δ

ij

(R, j)ε

d

ij

(R)

δ

j,u+1

ε

d

j,u

+1

X

J

1

∈S

1

X

j∈J

1

δ

1

I

1

,J

1

(R, J

1

d

1
I1,J 1

(R,J

1

)

δ(j


J

1

j,u+1

ε

d(j|J

1

)+d

j,u

+1

=

X

J

1

∈S

1

δ

1

I

1

,J

1

(R, J

1

d

1
I1,J 1

(R,J

1

)

δ

1

(J

1

,

{u + 1})ε

d

1

(J

1

,{u+1})

.

W rezultacie z twierdzenia 4.1 (3) wynika cz¸e´s´c (1). Cz¸e´s´c (2) wynika z cz¸e´sci (1)
oraz lematu 4.7.



Dla ustalonej klasy zamkni¸etej I

1

∈ S

1

oraz ε

0

∈ (0, ε

1

) zdefiniujemy teraz

macierz bez element´ow diagonalnych

¯

L(I

1

)(ε

0

) := (l

ij

)

i,j∈I

1

, i6=j

,

gdzie

−l

ij

:=

δ

ij

ε

d

ij

je´sli (i, j)

∈ g

min

(D)

0

je´sli (i, j)

6∈ g

min

(D).

Niech wektor a

1

0

) b¸edzie rozwi¸azaniem uk ladu

¯

L

T

i

1

i

1

(I

1

)(ε

0

a

1

0

) =

−(l

i

1

i

)

T
i∈I

1

, i6=i

1

dla pewnego i

1

∈ I

1

; przyjmijmy ¯

a

i

1

0

) := 1.

Poni˙zszy lemat pozwala oblicza´c wektory δ(

·


I

1

) (odpowiednio η(

·


I

1

)) za pomoc¸a

wyznacznika macierzy L

i

1

i

1

(I

1

)(ε

0

) oraz wektora d(

·


I

1

) (odpowiednio ¯

a(ε

0

) :=

(¯a

i

0

))

i∈I

1

oraz h(

·


I

1

)).

background image

95

Lemat 4.10. Za l´o˙zmy, ˙ze I

1

∈ S

1

oraz i

∈ I

1

. Wtedy

δ(i


I

1

) = ¯

a

i

0

) det ¯

L

i

1

i

1

0

−d(i|I

1

)

0

;

(1)

η(i


I

1

) =

¯a

i

0

−h(i|I

1

)

0

P

j∈I

1

h(j|I

1

)=0

¯a

j

0

)

.

(2)

Dow´od . Dla dowodu cz¸e´sci (1) zauwa˙zmy, ˙ze z wniosku 2.2 oraz lematu 2.2 otrzy-
mujemy:

δ(i


I

1

d(i|I

1

)

0

= ¯

w(i


I

1

)(ε

0

)

=

¯

w(i


I

1

)(ε

0

)

¯

w(i

1


I

1

)(ε

0

)

¯

w(i

1


I

1

)(ε

0

)

= ¯a

i

0

) det ¯

L

i

1

i

1

(I

1

)(ε

0

),

gdzie i

1

∈ I

1

.

Cz¸e´s´c (2) wynika z cz¸e´sci (1) oraz nast¸epuj¸acych r´owno´sci:

η(i


I

1

) =

δ(i


I

1

)

P

j∈I

1

d(j|I

1

)=n(I

1

)

δ(j

|I

1

)

=

¯a

i

0

−d(i|I

1

)

0

P

j∈I

1

d(j|I

1

)=n(I

1

)

¯

a

j

0

−n(I

1

)

0

=

¯a

i

0

−h(i|I

1

)

0

P

j∈I

1

h(j|I

1

)=0

¯a

j

0

)

.



Dow´od poprawno´sci algorytmu 4.3.

Z lematu 4.4 wynika, ˙ze dla i

∈ S, I

1

∈ S

1

, I

2

∈ S

2

takich, ˙ze i

∈ I

1

⊆ I

2

spe lnione s¸a r´owno´sci:

d(i


I

2

) = d(i


I

1

) + d

2

(I

1


I

2

)

δ(i


I

2

) = δ(i


I

1

2

(I

1


I

2

).

(4.10)

Zatem z lematu 4.5 otrzymujemy z (4.10)

d(i) = d(i


I

2

) + d

2

(I

2

)

δ(i) = δ(i


I

2

2

(I

2

).

(4.11)

background image

96

St¸ad oraz z lematu 4.9 wynika, ˙ze

x

i

(ε)

δ(i


I

2

d(i|I

2

)

δ

2

(I

2

d

2

(I

2

)

δ(u + 1


J

2

d(u+1|J

2

)

δ

2

(J

2

d

2

(J

2

)

,

(4.12)

gdzie u + 1

∈ J

2

∈ S

2

.

Zauwa˙zmy, ˙ze wsp´o lczynniki d

2

(I

1


I

2

) oraz δ

2

(I

1


I

2

) wyst¸epuj¸ace we wzorach

(4.10) mo˙zemy obliczy´c podobnie jak wsp´o lczynniki d(i


I

1

) oraz δ(i


I

1

). Ponadto

przez indukcj¸e po k otrzymujemy z (4.11) r´owno´sci

d(i


I

k+1

) = d(i


I

k

) + d

k+1

(I

k


I

k+1

)

δ(i


I

k+1

) = δ(i


I

k

k+1

(I

k


I

k+1

),

(4.13)

gdzie i

∈ I

1

⊆ I

2

⊆ . . . ⊆ I

k

⊆ I

k+1

oraz I

m

∈ S

m

dla m

≤ k + 1.

Niech K + 1 b¸edzie najmniejszym k takim, ˙ze w grafie g

k

istnieje tylko jedna

klasa zamkni¸eta I. Z za lo˙zenia wynika, ˙ze u + 1

∈ I, wsp´o lczynniki d

K

(J

K


I) i

δ

K

(J

K


I), gdzie u + 1

∈ J

K

⊆ I, s¸a sko´nczone oraz mo˙zemy je wyznaczy´c podobnie

do wsp´o lczynnik´ow d

1

(u + 1


J

1

) i δ

1

(u + 1


J

1

). W rezultacie ze wzor´ow (4.12) i

(4.13) otrzymujemy

x

i

(ε)

δ(i


I

K

d(i|I

K

)

δ

K

(I

K


I)ε

d(I

K

|I)

δ(u + 1


J

K

d(u+1|J

K

)

δ

K

(J

K


I)ε

d(J

K

|I)

.



Dow´od poprawno´sci algorytmu 4.4.

Rozumuj¸ac podobnie jak w poprzednim dowodzie otrzymujemy z lematu 4.7 dla

k

≤ K + 1 oraz i ∈ S, I

k

∈ S

k

, I

k+1

∈ S

k+1

takich, ˙ze i

∈ I

k

⊆ I

k+1

r´owno´sci

h(i


I

k+1

) = h(i


I

k

) + h

k+1

(I

k


I

k+1

)

η(i


I

k+1

) = η(i


I

k

k+1

(I

k


I

k+1

).

(4.14)

Dalsza cz¸e´s´c dowodu pozostaje bez zmian.



Poprawno´sci algorytm´ow 4.5 i 4.6 dowodzimy podobnie jak w przypadku algo-

rytm´ow 4.3 i 4.4, wykorzystuj¸ac zamiast lematu 4.8 — lemat 4.9. Cz¸e´s´c (4) tych
algorytm´ow wymaga dodatkowo indukcji po iteracjach wyst¸epuj¸acej tam p¸etli “re-
peat”.

background image

97

Poprawno´s´c algorytmu 4.7 wynika z poprawno´sci algorytm´ow 4.1–4.6 oraz twier-

dzenia 4.3.

Uwagi 4.3.

(1) Rysunki 4.1.1–4.1.10 ilustruj¸a obliczanie, za pomoc¸a algorytmu 4.4., wsp´o l-

czynnik´ow asymptotycznych η, h dla rozk ladu stacjonarnego nieprzywiedl-
nego PZ LM indukowanego przez graf obci¸a˙zony przedstawiony na rys. 4.1.1
(liczby w k´o lkach oznaczaj¸a stany, kolory strza lek — sko´

nczone warto´sci

macierzy D, natomiast liczby przy strza lkach — niediagonalne warto´sci
macierzy ∆). Kolory w k´o lkach na rys. 4.1.2, 4.1.4, 4.1.7 oraz 4.1.10
oznaczaj¸a warto´sci wsp´o lczynnik´ow h

i

, natomiast liczby przy k´o lkach —

warto´sci wsp´o lczynnik´ow η

i

(i = 1, . . . , 4) obliczane na kolejnych etapach

agregacji. Na rysunkach 4.1.5 i 4.1.8 przedstawione s¸a odpowiednio macierze
D

2

, ∆

2

oraz D

3

, ∆

3

(prostok¸at i tr´ojk¸at oznaczaj¸a zgrupowane stany). Ry-

sunki 4.1.3, 4.1.6, 4.1.9 ilustruj¸a odpowiednio grafy g

1

, g

2

, g

3

oraz ich klasy

zamkni¸ete (ramki wok´o l stan´ow).

Rysunki 4.2.1–4.2.11 ilustruj¸a obliczanie wsp´o lczynnika h przez algorytm

4.4 dla bardziej skomplikowanego PZ LM indukowanego przez macierz D
przedstawion¸a na rys. 4.2.1.

Rysunek 4.2.12 przedstawia kraw¸edzie wyst¸epuj¸ace w grafie z rysunku

4.2.1, kt´ore mog¸a wyst¸epowa´c w najkr´otszych drzewach.

(2) Rysunki 4.3.1–4.3.8 ilustruj¸a hierarchiczn¸a agregacj¸e, wykonywan¸a w cz¸e´sci

2) algorytmu 4.6, grafu g

(D) przedstawionego na rys. 4.3.1. Rysunek 4.3.9

przedstawia strza lki, kt´ore mog¸a wyst¸epowa´c w najkr´otszych drzewach o
korzeniu

{(1, 1)}.

Rysunki 4.4.1–4.4.5 ilustruj¸a obliczanie wektora a w cz¸e´sci 3) algorytmu

4.6. Liniami przerywanymi oddzielone s¸a zbiory M

1

− M

4

powstaj¸ace w

kolejnych iteracjach p¸etli “repeat”.

(3) Rysunki 4.5.1–4.5.4 ilustruj¸a “skracanie”, opisane w dowodzie lematu 4.4,

drzewa o korzeniu

{(1, 2)} w grafie g

(D) z rys. 4.2.1. Na rys. 4.5.2 “skra-

cane” s¸a kraw¸edzie wychodz¸ace ze stan´ow nale˙z¸acych do klas zamkni¸etych
w grafie g

min

(D)— powsta ly graf ma w lasno´sci (4.4) i (4.5). Na rys. 4.5.3

przedstawiony jest graf maj¸acy w lasno´sci (4.4)–(4.7). Rysunek 4.5.4 przed-
stawia graf kr´otszy od grafu z rys. 4.5.3.

background image

98

(4) Wyniki tej cz¸e´sci pracy s¸a uog´olnieniem i rozwini¸eciem rezultat´ow:

— Schweitzera [Sch 1–3], gdzie podano algorytm dla kolejnych wyraz´ow

rozwini¸ecia rozk ladu stacjonarnego liniowo zaburzonego nieprzywiedl-
nego LM,

— Hassima i Haviva [HasHav], gdzie podano algorytm dla rz¸ed´ow wielko´sci

´srednich czas´ow przej´scia mi¸edzy stanami w przypadku liniowo zabu-

rzonej, nieprzywiedlnej macierzy przej´scia,

— Desai i Kumar´ow [DeKuKu], gdzie podano algorytm dla rz¸ed´ow wielko-

´sci rozk ladu stacjonarnego pewnych la´

ncuch´ow Markowa zaburzonych

pot¸egowo.

(5) Rochlicek i Willsky [RoWi 1–2] podali algorytmy dla wsp´o lczynnik´ow roz-

wini¸ecia rozk ladu prawdopodobie´

nstwa w t-krokach dla analitycznie zabu-

rzonych LM.

background image

99

5.

Algorytmy Monte Carlo generuj¸ace la´

ncuchy Markowa dla

ca lkowania.

5.1. Oszacowania b l¸edu estymacji ca lki wzgl¸edem rozk ladu stacjonarnego
dla odwracalnych la´

ncuch´

ow Markowa.

La´

ncuch Markowa o laplasjanie L nazywa´c b¸edziemy odwracalnym, je´sli istnieje

rozk lad stacjonarny π = (π

i

)

i∈S

taki, ˙ze dla dowolnych i, j

∈ S

π

i

l

ij

= π

j

l

ji

.

Latwo udowodni´c, ˙ze warto´sci w lasne odwracalnego LM s¸a rzeczywiste. Uporz¸ad-

kujmy je wed lug wzrostu warto´sci λ

1

= 0

≤ λ

2

≤ . . . ≤ λ

s

≤ 2.

Dla dowolnej funkcji rzeczywistej na S, f : S

→ R, przyjmijmy oznaczenia

r(f) := max

i∈S

f

i

− min

i∈S

f

i

oraz π

T

f :=

X

i∈S

f

i

π

i

,

gdzie π = (π

i

)

i∈S

jest rozk ladem prawdopodobie´

nstwa na S.

W tym rozdziale rozwa˙za´c b¸edziemy odwracalne i nieprzywiedlne LM X = (X

t

)

t≥0

z czasem dyskretnym t

∈ N. Podamy oszacowania b l¸edu | ¯

f

t

− π

T

f

| estymacji ca lki

π

T

f wzgl¸edem rozk ladu stacjonarnego π za pomoc¸a ´sredniej po czasie

¯

f

t

(ω) :=

1

t

t−1

X

j=0

f (X

j

(ω)),

ω

∈ Ω.

W dalszym ci¸agu skorzystamy z nast¸epuj¸acej nier´owno´sci, udowodnionej ostatnio

przez Dinwoodiego.

Twierdzenie 5.1. (Dinwoodie [Din 1]) Za l´o˙zmy, ˙ze funkcja f : S

→ R spe lnia

nier´owno´sci 0

≤ f ≤ 1. Wtedy dla ka˙zdego δ ∈ [0, (8λ

2

+ 16)

−3

] oraz i

∈ S,

Pr

i



¯

f

t

− π

T

f

≥ δ



1 +

9δ(λ

2

+ 2)

π

i



exp(

−tλ

2

δ

2

/2).

Poni˙zszy wniosek i nast¸epuj¸ace po nim dwa stwierdzenia podaj¸a kolejno:

– oszacowanie na prawdopodobie´

nstwo b l¸edu wi¸ekszego lub r´ownego δ;

– oszacowanie b l¸edu dla prawie wszystkich trajektorii przy dostatecznie du˙zym

t;

– oszacowanie b l¸edu w normie L

p

.

background image

100

Wniosek 5.1. Dla dowolnej funkcji f, δ

∈ [0, r(f)(8λ

2

+ 16)

−3

], i

∈ S oraz t =

1, 2, . . .

Pr

i



¯

f

t

− π

T

f


≥ δ

≤ C(π

i

) exp[

−tλ

2

δ

2

/(2r

2

(f))],

gdzie C(π

i

) := 2 1 + 36/√π

i

.

Dow´od. Oczywi´scie

1 +

9δ(λ

2

+ 2)

π

i

C(π

i

)

2

.

Z twierdzenia 5.1 wynika, ˙ze dla δ

∈ [0, r(f)(8λ

2

+ 16)

−3

] mamy

Pr

i



¯

f

t

− π

T

f

≥ δ

= Pr

i



¯

f

t

r(f)

π

T

f

r(f)

δ

r(f)



C(π

i

)

2

exp[

−tλ

2

δ

2

/(2r

2

(f))].

Podobnie

Pr

i



¯

f

t

− π

T

f

≤ −δ

= Pr

i



¯

f

t

r(f)

π

T

f

r(f)

≥ −

δ

r(f)



= Pr

i



1

¯

f

t

r(f)





1

π

T

f

r(f)



δ

r(f)



C(π

i

)

2

exp[

−tλ

2

δ

2

/(2r

2

(f))].

W rezultacie z addytywno´sci prawdopodobie´

nstwa wynika teza.



Stwierdzenie 5.1.

Pr

lim sup

t

r

t

log t


¯

f

t

− π

T

f


s

2r

2

(f)

λ

2

= 1.

Dow´od. Latwo zauwa˙zy´c, ˙ze dla ustalonego a > 1 oraz dla dostatecznie du˙zych
t

∈ N

r log t

t

<

r λ

2

2a

(8λ

2

+ 16)

−3

.

(5.1)

background image

101

Niech t

0

b¸edzie najmniejsz¸a liczb¸a naturaln¸a, dla kt´orej spe lniona jest ta nier´ow-

no´s´c. Niech ponadto dla t

≥ t

0

δ(t) :=

s

2ar

2

(f) log t

2

.

Wtedy ze wzoru (5.1) wynika, ˙ze

δ(t) < r(f)(8λ

2

+ 16)

−3

exp[

−tλ

2

δ

2

(t)/(2r

2

(f))] = t

−a

.

(5.2)

Przyjmijmy

A(t, a) :=

ω

∈ Ω :


¯

f

t

(ω)

− π

T

f


s

2ar

2

(f) log t

2

Wtedy z wniosku 5.1 oraz z (5.2) wynika, ˙ze dla dowolnego i

∈ S oraz t ≥ t

0

Pr

i

{A(t, a)} ≤ C(π

i

)t

−a

.

Zatem

P

t≥t

0

Pr

i

{A(t, a)} < ∞. W rezultacie z lematu Borela–Cantelli’ego otrzy-

mujemy

Pr

i

{∃

T ≥0

t≥T

A

C

(t, a)

} = 1,

gdzie A

C

(t, a) = Ω

\ A(t, a). Poniewa˙z ka˙zdy rozk lad prawdopodobie´nstwa Pr jest

kombinacj¸a wypuk l¸a rozk lad´ow warunkowych (Pr

i

)

i∈S

, wi¸ec r´ownie˙z

Pr

{∃

T ≥0

t≥T

A

C

(t, a)

} = 1.

Wobec dowolno´sci a > 1 otrzymujemy tez¸e.



Stwierdzenie 5.2. Dla dowolnych i

∈ S, p > 0, t = 1, 2, . . .

E

i


¯

f

t

− π

T

f


p



1/p

≤ C(p, π

i

, r(f))/

2

t,

gdzie sta la C(p, π

i

, r(f)) jest zdefiniowana w dowodzie.

background image

102

Dow´od. Niech Y b¸edzie dowoln¸a zmienn¸a losow¸a na przestrzeni (Ω,

F, Pr). Za l´o˙z-

my, ˙ze E

|Y |

p

<

∞. Wtedy dla p > 0 zachodzi nast¸epuj¸aca to˙zsamo´s´c (patrz np.

[Pe] wz´or 2.34)

E

|Y |

p

= p

Z

0

δ

p−1

Pr

{|Y | ≥ δ}dδ.

(5.3)

Przyjmijmy

b := tλ

2

/(2r

2

(f)),

δ

0

:=

pln C(π

i

)/b,

δ

1

:= r(f)/32

3

.

Poniewa˙z δ

1

< r(f)(8λ

2

+ 16)

−3

, wi¸ec z wniosku 5.1 otrzymujemy

Pr



¯

f

t

− π

T

f


≥ δ

1

dla 0

≤ δ ≤ δ

0

C(π

i

)e

−bδ

2

dla δ

0

≤ δ ≤ δ

1

C(π

i

)e

−bδ

2

1

dla δ

1

≤ δ ≤ r(f)

0

dla r(f)

≤ δ.

(5.4)

Zatem ze wzor´ow (5.3) i (5.4) wynika, ˙ze

E

i


¯

f

t

− π

T

f


p

= p

Z

0

δ

p−1

Pr



¯

f

t

− π

T

f


≥ δ

 ln C(π

i

)

b



p/2

+ p

Z

δ

1

δ

0

δ

p−1

C(π

i

)e

−bδ

2

dδ + C(π

i

)(r

p

(f)

− δ

p

1

)e

−bδ

2

1

.

Oszacujemy teraz ca lk¸e wyst¸epuj¸ac¸a po prawej stronie ostatniej nier´owno´sci.

p

Z

δ

1

δ

0

δ

p−1

C(π

i

)e

−bδ

2

dδ =

C(π

i

)p

2b

p/2

Z

2

1

2

0

u

p/2−1

e

−u

du

C(π

i

)p

2b

p/2



Γ

p
2

 − Γ

p
2

, bδ

2

0





,

gdzie Γ(r, x) oznacza uci¸et¸a funkcj¸e gamma, czyli

Γ(r, x) =

Z

x

0

u

r−1

e

−u

du,

r > 0,

x > 0.

Przyjmijmy oznaczenia

C

1

(p, π

i

) :=

C(π

i

)p

2

h

Γ

p
2

 − Γ

p
2

,

pln C(π

i

)



i

+ (ln C(π

i

))

p/2

,

C

2

(p, π

i

, r(f)) := C(π

i

)r

p

(f)(1

− 32

−3p

).

background image

103

Wtedy

E

i


¯

f

t

− π

T

f


p

≤ C

1

(p, π

i

)b

−p/2

+ C

2

(p, π

i

, r(f))e

−bδ

2

1

= b

−p/2

h

C

1

(p, π

i

) + C

2

(p, π

i

, r(f))b

p/2

e

−bδ

2

1

i

≤ b

−p/2



C

1

(p, π

i

) + C

2

(p, π

i

, r(f))



p
2

e

−δ

2

1



p/2



.

W rezultacie, po podstawieniu

C(p, π

i

, r(f)) :=

2r(f)



C

1

(p, π

i

) + C

2

(p, π

i

, r(f))

h

p
2

exp(

−r

2

(f)32

−6

)

i

p/2



1/p

,

otrzymujemy tez¸e.



Uwaga 5.1.

Nier´owno´sci wyk ladnicze dla specjalnych odwracalnych LM podane s¸a w
pracach [Gil], [Ka]. Ostatnio Dinwoodie udowodni l jeszcze jedn¸a nier´owno´s´c
podobn¸a do twierdzenia 5.1 [Din 2].

5.2. Oszacowania b l¸edu estymacji ca lki dla Θ-pot¸egowo zaburzonych, od-
wracalnych la´

ncuch´

ow Markowa.

W tej cz¸e´sci zdefiniujemy rodzin¸e LM zawieraj¸ac¸a rodzin¸e PZ LM rozwa˙zan¸a w

rozdziale 4., a nast¸epnie udowodnimy dla niej oszacowania b l¸edu estymacji ca lki
wzgl¸edem rozk ladu stacjonarnego za pomoc¸a ´sredniej po czasie.

Rodzin¸e laplasjan´ow Markowa

{L(ε), ε ∈ (0, ε

1

)

} rz¸edu s × s nazywa´c

b¸edziemy Θ-pot¸egowo zaburzonym la´

ncuchem Markowa (ΘPZ LM), je˙zeli istniej¸a

liczby c

0

, c

1

> 0 oraz macierz D = (d

ij

)

i,j∈S

takie, ˙ze dla dowolnych i, j

∈ S, i 6= j,

d

ij

∈ R ∪ {∞} oraz

c

0

ε

d

ij

≤ −l

ij

(ε)

≤ c

1

ε

d

ij

:= 0).

Latwo udowodni´c dla rodziny ΘPZ LM stwierdzenia podobne do stwierdze´

n 4.1–

4.3. Ponadto charakterystyki ΘPZ LM mo˙zna oszacowa´c korzystaj¸ac z twierdze´

n

background image

104

3.1–3.4. Na przyk lad dla rozk ladu stacjonarnego nieprzywiedlnego ΘPZ LM praw-
dziwe s¸a nier´owno´sci:

 c

0

c

1



s−1

ε

h

i

≤ π

i

(ε)

 c

1

c

0



s−1

ε

h

i

.

(5.5)

Przypomnijmy, ˙ze dla dowolnego lasu f oraz rodziny las´ow F w grafie g

(D)

d(f ) :=

X

(i,j)∈f

d

ij

,

d(F ) = min

f ∈F

d(f )

oraz dla k = 1, . . . , s

F

k

:=

[

R⊆S

|R|=k

F (R).

Przyjmijmy ponadto

v

k

:= d(F

k−1

)

− d(F

k

).

Twierdzenie 5.2. Niech

{L(ε), ε ∈ (0, ε

1

)

} b¸edzie rodzin¸a ΘPZ LM zadan¸a przez

macierz D o rzeczywistych warto´sciach w lasnych. Wtedy dla k = 2, . . . , s

 s − 1

k

− 2



−1

s

k



−1

ks

s−k−1

c

s−k+1

0

c

k−s

1

ε

v

k

≤ λ

k

(ε)

oraz

λ

k

(ε)

 s − 1

k

− 1



s

k

− 1



(k

− 1)s

s−k

c

k−s

0

c

s−k+1

1

ε

v

k

.

Dow´od. Z za lo˙zenia i wniosku 2.4 wynika, ˙ze dla k = 2, . . . , s oraz ε

∈ (0, ε

1

)

c

s−k

0

ε

d(F

k

)

≤ w(F

k

)(ε)

 s

k



ks

s−k−1

c

s−k

1

ε

d(F

k

)

,

St¸ad i z twierdzenia 2.6 wynika teza.



G l´ownym rezultatem tego rozdzia lu jest nast¸epuj¸ace twierdzenie.

Twierdzenie 5.3. Niech

{L(ε), ε ∈ (0, ε

1

)

} b¸edzie rodzin¸a nieprzywiedlnych i

odwracalnych ΘPZ LM wyznaczon¸a przez macierz D i sta le c

0

, c

1

. Niech π(ε) b¸edzie

rozk ladem stacjonarnym LM o laplasjanie L(ε). Niech ponadto f : S

→ R. Wtedy:

(1) dla δ

0, r(f)(8C

1

(c

0

, c

1

v

2

(D)

+ 16)

−3



Pr

ε
i

{| ¯

f

ε

t

− π

T

(ε)f

| ≥ δ} ≤ C (c

0

/c

1

)

s−1

ε

h

i

(D)

 exp −tC

0

(c

0

, c

1

−v

2

(D)

δ

2

/(2r

2

(f))

 ;

background image

105

Pr

ε
i

(

lim sup

t→∞

r

t

log t

| ¯

f

ε

t

− π

T

(ε)f

| ≤

s

2r

2

(f)

C

0

(c

0

, c

1

v

2

(D)

)

= 1;

(2)

E

ε

i

| ¯

f

ε

t

− π

T

(ε)f

|

p



1/p

≤ C p, (c

0

/c

1

)

s−1

ε

h

i

(D)

, r(f)

 /

q

tC

0

(c

0

, c

1

v

2

(D)

,

(3)

gdzie wszystkie sta le s¸a zdefiniowane w dowodzie.

Dow´od. Niech λ

2

(ε) b¸edzie drug¸a warto´sci¸a w lasn¸a laplasjanu L(ε). Wtedy z

twierdzenia 5.2 otrzymujemy

λ

2

(ε)

≥ C

0

(c

0

, c

1

v

2

(D)

,

(5.6)

gdzie

C

0

(c

0

, c

1

) := 4(s

− 1)

−1

s

s−4

c

s−1

0

c

2−s

1

oraz

λ

2

(ε)

≤ C

1

(c

0

, c

1

v

2

(D)

,

(5.7)

gdzie

C

1

(c

0

, c

1

) := (s

− 1)s

s−1

c

2−s

0

c

s−1

1

.

Cz¸e´s´c (1) twierdzenia wynika z (5.5), (5.6), (5.7) oraz wniosku 5.1. Cz¸e´s´c (2) wynika
z (5.6) oraz stwierdzenia 5.1. Cz¸e´s´c (3) wynika z (5.5), (5.6) oraz stwierdzenia
5.2.



Uwagi 5.2.

(1) Twierdzenie 5.2 jest podobne do wyniku Wentzlla [We], gdzie rozwa˙zana jest

wi¸eksza rodzina zaburzonych la´

ncuch´ow Markowa ni˙z ΘPZ LM. Jednak teza

jest tam mniej dok ladna. Wentzell poda l bez dowodu lemat r´ownowa˙zny
lematowi 2.2 (1).

(2) G l´owne twierdzenie tego rozdzia lu (twierdzenie 5.3) podaje oszacowanie b l¸e-

d´ow estymacji ca lki za pomoc¸a ´sredniej po trajektorii dla ΘPZ LM. G l´owny-
mi zaletami tych oszacowa´

n s¸a:

(a) du˙za og´olno´s´c (wydaje si¸e, ˙ze jest to pierwsze twierdzenie tego rodzaju);

(b) jawna zale˙zno´s´c oszacowania od parametr´ow ΘPZ LM oraz od ε i t.

background image

106

5.3. Oszacowania b l¸edu dla algorytm´

ow Metropolisa–Hastingsa oraz

pr´

obnika Gibbsa.

W tej cz¸e´sci rozdzia lu rozwa˙za´c b¸edziemy algorytmy dla oszacowania ca lki funkcji

f : S

→ R wzgl¸edem rozk ladu prawdopodobie´nstwa π = (π

i

)

i∈S

, w przypadku, gdy

π

i

> 0 dla dowolnego i

∈ S. Algorytmy te generuj¸a nieprzywiedlne i odwracalne

LM o rozk ladzie stacjonarnym π. ´

Srednia po czasie ¯

f

t

takich LM jest naturalnym

oszacowaniem π

T

f. Z twierdzenia ergodycznego wynika bowiem, ˙ze

Pr

n

lim

t→∞

¯

f

t

= π

T

f

o

= 1.

Zanim przejdziemy do omawiania dalszych w lasno´sci ¯

f

t

, podamy kilka definicji.

Dla danej funkcji G : [0, 1]

→ [0, 1] zdefiniujemy jej rozszerzenie G

: R

+

→ [0, 1]

w nast¸epuj¸acy spos´ob:

G

(x) :=

G(x)

dla 0

≤ x ≤ 1

xG(x

−1

) dla x > 1.

Macierz A = (a

ij

)

i,j∈S

nazywa´c b¸edziemy strukturalnie symetryczn¸a, je˙zeli dla

dowolnych i, j

∈ S spe lniony jest nast¸epuj¸acy warunek

a

ij

6= 0 ⇐⇒ a

ji

6= 0.

Dla dowolnych i, j

∈ S przyjmiemy N

i

(A) :=

{i} ∪ {j ∈ S : a

ij

6= 0} oraz

N

ij

(A) := N

i

(A)

∩ N

j

(A).

Laplasjan Markowa L(π) = (l

ij

)

i,j∈S

o rozk ladzie stacjonarnym π nazywa´c

b¸edziemy laplasjanem Metropolisa–Hastingsa, je˙zeli istniej¸a:

nieprzywiedlna i

strukturalnie symetryczna macierz przej´scia Q = (q

ij

)

i,j∈S

oraz funkcja G : [0, 1]

[0, 1] o nast¸epuj¸acych w lasno´sciach:

G(x) = 0

⇐⇒ x = 0,

(5.8)

G(x)

≤ x,

(5.9)

m(G) := inf

x>0

G(x)

x

> 0,

(5.10)

takie, ˙ze dla i, j

∈ S, i 6= j

− l

ij

= q

ij

G

 π

j

q

ji

π

i

q

ij



.

(5.11)

background image

107

Je˙zeli w powy˙zszej definicji warunek (5.11) mo˙zna zast¸api´c warunkiem

− l

ij

= q

ij

G

 q

ji

q

ij



π

j

P

N

ij

(Q)

π

k

dla i, j

∈ S, i 6= j,

(5.12)

to laplasjan L(π) nazywa´c b¸edziemy laplasjanem Gibbsa.

La´

ncuchem Metropolisa– Hastingsa ( LMH) nazywa´c b¸edziemy LM, kt´orego

laplasjan jest laplasjanem Metropolisa–Hastingsa.

Podobnie la´

ncuchem Gibbsa

( LG) nazywa´c b¸edziemy LM, kt´orego laplasjan jest laplasjanem Gibbsa.

W dalszym ci¸agu uto˙zsamia´c b¸edziemy LM z algorytmem, kt´ory go generuje.
Poni˙zszy przyk lad podaje najbardziej znane LMH.

Przyk lad 5.1.

(1) Algorytm Metropolisa [Me et al.], [So], [Wel]:

G

M

(x) := x

∧ 1;

(2) Algorytm Barkera [Wel]:

G

B

(x) := x/(1 + x);

(3) Algorytm Hastingsa: [So], [Wel] dla a, b

≥ 1

G

ab

(x) :=

1 + a[a

−1

(x

−1

∧ x)]

b

1 + x

−1

.

Latwo zauwa˙zy´c, ˙ze G

a1

≡ G

M

oraz G

a∞

≡ G

B

.

Bezpo´srednio z definicji wynikaj¸a nast¸epuj¸ace stwierdzenia.

Stwierdzenie 5.3. Je˙zeli funkcja G : [0, 1]

→ [0, 1] spe lnia warunek (5.8) i (5.9),

to

G

(x)

≤ G

M

(x)

dla x

∈ R

+

.

Je˙zeli dodatkowo funkcja G spe lnia warunek (5.10), to

m(G)G

M

(x)

≤ G

(x)

dla x

∈ R

+

.

Kolejne stwierdzenie charakteryzuje dopuszczalne funkcje G w´sr´od funkcji ci¸a-

g lych.

background image

108

Stwierdzenie 5.4. Za l´o˙zmy, ˙ze funkcja G : [0, 1]

→ [0, 1] spe lnia warunek (5.8),

(5.9) oraz jest ci¸ag la. Wtedy nast¸epuj¸ace warunki s¸a r´ownowa˙zne:

m(G) > 0,

(1)

lim inf

x→0

G(x)

x

> 0.

(2)

Stwierdzenie 5.5. Je˙zeli LM o laplasjanie L(π) jest LMH lub LG, to jest nieprzy-
wiedlnym i odwracalnym LM o rozk ladzie stacjonarnym π.

Dla dowolnej funkcji u : S

→ R oraz liczby τ > 0 przyjmijmy

π

(τ, u) := (π

i

(τ, u))

i∈S

,

gdzie dla i

∈ S

π

i

(τ, u) :=

exp(

−u

i

/τ )

P

j∈S

exp(

−u

j

/τ )

.

Rozk lad prawdopodobie´

nstwa π(τ, u) nazywa´c b¸edziemy rozk ladem Gibbsa o po-

tencjale u i temperaturze τ .

Przyjmijmy dla danej macierzy Q = (q

ij

)

i,j∈S

oraz funkcji G : [0, 1]

→ [0, 1]

q

0

:= min

i6=j

q

ij

>0

q

ij

,

q

1

:= max

i6=j

q

ij

,

N(Q) := max

i6=j

|N

ij

(Q)

|, u

ij

(Q) :=

min

k∈N

ij

(Q)

u

k

.

Stwierdzenie 5.6. Niech

L(u) := {L(π(τ, u)), τ > 0} b¸edzie rodzin¸a laplasjan´ow

LMH okre´slon¸a przez macierz Q i funkcj¸e G. Wtedy

c

0

exp(

−d

ij

/τ )

≤ −l

ij

(τ, u)

≤ c

1

exp(

−d

ij

/τ ),

gdzie

c

0

:= m(G)q

0

;

c

1

:= q

1

; oraz dla i

6= j d

ij

:=

(u

j

− u

i

)

∨ 0 je´sli q

ij

> 0

je´sli q

ij

= 0.

W szczeg´olno´sci

L(u) jest ΘPZ LM przy konwencji ε := exp(−1/τ).

background image

109

Dow´od. Przyjmijmy dla prostoty π

i

:= π

i

(τ, u) oraz za l´o˙zmy, ˙ze q

ij

> 0. Wtedy ze

stwierdzenia 5.3 otrzymujemy:

q

ij

G

 π

j

q

ji

π

i

q

ij



≥ q

ij

m(G)G

M

 π

j

q

ji

π

i

q

ij



= m(G)

 π

j

q

ji

π

i

∧ q

ij



≥ m(G)q

0

 π

j

π

i

∧ 1



.

Ponadto

q

ij

G

 π

j

q

ji

π

i

q

ij



≤ q

ij

G

M

 π

j

q

ji

π

i

q

ij



≤ q

1

 π

j

π

i

∧ 1



.

St¸ad wynika teza.



Stwierdzenie 5.7. Niech

L(u) := {L(π(τ, u)), τ > 0} b¸edzie rodzin¸a laplasjan´ow

LG okre´slon¸a przez macierz Q i funkcj¸e G. Wtedy

c

0

exp(

−d

ij

/τ )

≤ l

ij

(τ, u)

≤ c

1

ε exp(

−d

ij

/τ ),

gdzie

c

0

:=

m(G)q

0

N(Q)

;

c

1

:= q

1

; oraz dla i

6= j d

ij

:=

(u

j

− u

ij

(Q))

je´sli q

ij

> 0

je´sli q

ij

= 0.

W szczeg´olno´sci

L(u) jest ΘPZ LM przy konwencji ε := exp(−1/τ).

Dow´od. Przyjmijmy dla wygody π

i

:= π

i

(τ, u) oraz za l´o˙zmy, ˙ze q

ij

> 0. Wtedy ze

stwierdzenia 5.3 otrzymujemy:

q

ij

G

 q

ji

q

ij



≥ q

ij

m(G)G

M

 q

ji

q

ij



= m(G) (q

ji

∧ q

ij

)

m(G)q

0

N(Q)

.

Ponadto

q

ij

G

 q

ji

q

ij



≤ q

ji

∧ q

ij

≤ q

1

.

St¸ad wynika teza.



Z dowodu twierdzenia 5.7 [ChiCho 4] wynika nast¸epuj¸ace twierdzenie.

background image

110

Twierdzenie 5.4. (Chiang–Chow [ChiCho 4]) Niech dane b¸ed¸a u : S

→ R oraz

τ > 0. Niech L

1

(π(τ, u)), L

2

(π(τ, u)) b¸ed¸a laplasjanami LMH lub LG o macierzach

Q

1

i Q

2

takich, ˙ze g(Q

1

) = g(Q

2

). Wtedy dla k = 1, . . . , s

v

1

k

= v

2

k

.

Z twierdzenia 5.4 wynika, ˙ze dla LMH lub LG o tym samym grafie g = g(Q) oraz

rozk ladzie prawdopodbie´

nstwa π(τ, u), wsp´o lczynniki v

k

L(π(τ, u)), Q, G

 s¸a sta le

i zale˙z¸a tylko od u, k oraz g.

Uwagi 5.3.

(1) Chiang i Chow [ChiCho 4] udowodnili r´owno´s´c wsp´o lczynnik´ow v

k

dla al-

gorytmu Metropolisa i pr´obnika Gibbsa w przypadku szczeg´olnej struktury
g

(D). Ingrassia [In] oszacowa l λ

2

(ε) dla algorytmu Metropolisa i pr´obnika

Gibbsa przy podobnych za lo˙zeniach o g

(D) za pomoc¸a nier´owno´sci Poin-

care’go [Dist], [Fi], DiS–C], [Si], [Al 3]. W por´ownaniu z nier´owno´sciami
Ingrassi, twierdzenie 5.2 daje s labsze sta le dla λ

2

, jednak pozwala oszacowa´c

wszystkie warto´sci w lasne. Ponadto stwierdzenia 5.6 i 5.7 pozwalaj¸a uog´olni´c
rezultaty Ingrassi oraz Chianga i Chowa na du˙z¸a, nieparametryczn¸a rodzin¸e
algorytm´ow, zawieraj¸ac¸a rodzin¸e wprowadzon¸a przez Hastingsa [Gi], [So],
[Wel].

(2) Twierdzenie 5.3 razem ze stwierdzeniami 5.6 i 5.7 potwierdzaj¸a do´swiadcze-

nie numeryczne wskazuj¸ace na podobn¸a efektywno´s´c algorytmu Metropolisa
i pr´obnika Gibbsa dla niskich temperatur.

(3) Algorytm Metropolisa i pr´obnik Gibbsa s¸a u˙zywane od ponad 40 lat w mo-

delach mechaniki statystycznej (np. model Isinga, model Pottsa, Random
Cluster Model) do estymacji globalnych charakterystyk z lo˙zonych uk lad´ow
fizycznych (patrz np. [Me et al.], [So], [Gi], [Wel]). Pomimo du˙zego do´swiad-
czenia praktycznego, niewiele wiadomo o zachowaniu tych algorytm´ow “w
czasie sko´

nczonym”.

Jerrum i Sinclair w pracy [JeSi] skonstruowali modyfikacj¸e algorytmu Me-

tropolisa dla pewnych modeli Isinga oraz udowodnili, ˙ze koszt tego algorytmu
jest ograniczony przez logarytmiczn¸a funkcj¸e liczno´sci zbioru stan´ow — s,
dok ladno´sci — δ, poziomu ufno´sci — α (por. [Je], [Wel]).

background image

111

Dyer, Frieze i Kannan [DyFriKa] skonstruowali modyfikacj¸e algorytmu

Metropolisa dla szacowania obj¸eto´sci zbior´ow zwartych i wypuk lych w R

d

oraz udowodnili, ˙ze koszt tego algorytmu jest ograniczony przez wielomi-
anow¸a funkcj¸e d, δ, α (por. [Al 1–2], [ApKa], [DyFri], [FriKaPo], [Ka], [Je],
[Wel]). Praca Tierneya [Ti] jest przegl¸adem wynik´ow teoretycznych oraz za-
stosowa´

n pr´obnika Gibbsa do oszacowania ca lek w statystyce bayesowskiej.

background image

112

6. Algorytmy Monte Carlo generuj¸ace la´

ncuchy Markowa dla poszu-

kiwania minimum globalnego.

6.1. Niejednorodne la´

ncuchy Markowa. Podstawowe definicje i stwier-

dzenia.

Niech (X

t

)

t≥0

b¸edzie niejednorodnym la´

ncuchem Markowa z czasem dyskretnym,

okre´slonym na przestrzeni (Ω,

F, Pr) o warto´sciach w zbiorze S = {1, 2, . . . , s}.

Zak lada´c b¸edziemy, ˙ze dla dowolnego stanu i

∈ S, Pr{X

0

= i

} > 0. Nie jest to

warunek istotnie ograniczaj¸acy rezultaty podane w tym rozdziale a ponadto znacznie
u latwia rozumowanie.

Dla dowolnych A

⊆ S, j ∈ A przyjmijmy oznaczenia:

{A ult.} := {ω ∈ Ω : ∃

N ≥0

t≥N

X

t

(ω)

∈ A},

{A i. o.} := {ω ∈ Ω : ∀

N ≥0

t≥N

X

t

(ω)

∈ A},

{j i. o.} := {{j} i. o.}.

Oczywi´scie

{A ult.}, {A i. o.} ∈ F.

Stan j

∈ S nazywa´c b¸edziemy powracaj¸acym, je˙zeli Pr{j i. o.} > 0. W prze-

ciwnym przypadku stan j nazywa´c b¸edziemy chwilowym.

Latwo zauwa˙zy´c, ˙ze

powy˙zsza definicja jest r´ownowa˙zna definicji podanej w rozdziale 2., je˙zeli la´

ncuch

Markowa jest jednorodny. W´owczas prawdziwe jest tak˙ze twierdzenie, ˙ze stan jest
powracaj¸acy wtedy i tylko wtedy, gdy jest istotny.

W przypadku niejednorodnych la´

ncuch´ow Markowa macierz przej´scia zmienia si¸e

w czasie — zatem mo˙ze zmienia´c si¸e r´ownie˙z graf indukowany przez t¸e macierz.
Podamy teraz przyk lad, kt´ory pokazuje, ˙ze stan mo˙ze by´c powracaj¸acy i nie by´c
istotny nawet wtedy, kiedy graf indukowany przez macierz przej´scia nie zmienia si¸e
w czasie.

Przyk lad 6.1. Niech S =

{1, 2} oraz, dla dowolnego t ≥ 1, Pr{X

t+1

= 1


X

t

=

1

} = 1 i Pr{X

t+1

= 2


X

t

= 2

} = 1−(1/t)

2

. Jest oczywiste, ˙ze je´sli Pr

{X

0

= 2

} > 0,

to 2 b¸edzie stanem powracaj¸acym, chocia˙z nie jest stanem istotnym w ˙zadnym z
graf´ow generowanych przez macierz przej´scia.

background image

113

Klas¸a asymptotycznie zamkni¸et¸a niejednorodnego la´

ncucha Markowa nazywa´c

b¸edziemy podzbi´or R przestrzeni stan´ow S o nast¸epuj¸acych w lasno´sciach:

(1)

{R i. o.} 6= ∅ p. n. (istotno´s´c);

(2)

{R i. o.} = {R ult.} p. n. (rozdzielanie trajektorii);

(3) R jest minimalnym w sensie inkluzji podzbiorem S spe lniaj¸acym warunki (1)

i (2).

Poni˙zsze stwierdzenie pokazuje, ˙ze tak zdefiniowane klasy asymptotycznie zam-

kni¸ete niejednorodnych LM maj¸a zasadnicz¸a w lasno´s´c klas zamkni¸etych jednorod-
nych LM: ka˙zda trajektoria ω

∈ Ω “wpadnie”, prawie na pewno, do jednej z klas

asymptotycznie zamkni¸etych i ju˙z jej nie “opu´sci”.

Stwierdzenie 6.1.

Niech R

1

, . . . , R

m

b¸ed¸a wszystkimi klasami asymptotycznie

zamkni¸etymi niejednorodnego la´

ncucha Markowa na S. Niech ponadto T := S

\

S

i≤m

R

i

. Wtedy:

(1) m

≥ 1;

(2) Zbiory R

1

, . . . , R

m

, T tworz¸a podzia l przestrzeni stan´ow S;

(3)

{T i. o.} = ∅ p. n.;

(4)

{R

1

ult.

} ∪ . . . ∪ {R

m

ult.

} = Ω p. n..

Dow´od. (1) Wynika z tego, ˙ze S spe lnia warunki (1) i (2) definicji klasy asympto-
tycznie zamkni¸etej.
(2) Za l´o˙zmy dla sprzeczno´sci, ˙ze istniej¸a dwie klasy asymptotycznie zamkni¸ete R

1

,

R

2

takie, ˙ze R := R

1

∩ R

2

6= ∅. S¸a teraz dwie mo˙zliwo´sci:

(a) Je´sli

{R i. o.} = ∅ p. n., to

{R

1

\ R i. o.} ⊆ {R

1

i. o.

} = {R

1

ult.

}

=

{R

1

ult., R

1

\ R ult.} ∪ {R

1

ult., R i. o.

} = {R

1

\ R ult.} ⊆ {R

1

\ R i. o.} p. n.

Ale

{R

1

i. o.

} 6= ∅ p. n.. St¸ad R

1

\R jest zbiorem istotnym oraz rozdziela trajektorie,

co jest sprzeczne z za lo˙zeniem o R

1

.

(b) Je´sli

{R i. o.} 6= ∅ p. n., to

{R ult.} ⊆ {R i. o.} ⊆ {R

1

i. o., R

2

i. o.

} = {R

1

ult., R

2

ult.

} = {R ult.} p. n.

background image

114

Zatem R jest zbiorem istotnym oraz rozdziela trajektorie, co jest sprzeczne z za lo-

˙zeniem o R

1

.

(3) Oczywi´scie

{T i. o.} = {T ult.} p. n.. Gdyby wi¸ec {T i. o.} 6= ∅ p. n., to ist-

nia laby klasa asymptotycznie zamkni¸eta zawarta w T , co przeczy za lo˙zeniu o m.
(4) Wynika z (3) oraz z definicji klasy asymptotycznie zamkni¸etej.



Latwo zauwa˙zy´c, ˙ze T z powy˙zszego stwierdzenia jest zbiorem wszystkich stan´ow

chwilowych.

Wydaje si¸e, ˙ze odpowiednikiem grafu g(L) mo˙ze by´c w przypadku niejednorod-

nym nast¸epuj¸acy graf:

g

:= (S,

{(i, j) : Pr{X

t

= i, X

t+1

= j i. o.

} > 0}) .

Uzasadnieniem tej definicji jest nast¸epuj¸ace stwierdzenie.

Stwierdzenie 6.2. R jest klas¸a asymptotycznie zamkni¸et¸a wtedy i tylko wtedy, gdy
R jest klas¸a zamkni¸et¸a w grafie g

zawieraj¸ac¸a stan powracaj¸acy.

Dow´od. Stwierdzenie wynika bezpo´srednio ze stwierdzenie 6.1.



Dla danego R

⊆ S oznaczmy

{R uni. ult.} :=

\

j∈R

{j i. o.}.

Zbiorem powracaj¸acym niejednorodnego la´

ncucha Markowa nazywa´c b¸edziemy

maksymalny w sensie inkluzji podzbi´or R przestrzeni stan´ow S, dla kt´orego

{R uni. ult.} 6= ∅ p. n.

Poj¸ecie zbioru powracaj¸acego oddaje nast¸epuj¸ac¸a intuicj¸e: jest to maksymalny

w sensie inkluzji zbi´or stan´ow, kt´ore s¸a odwiedzane niesko´

nczenie wiele razy przez

wszystkie trajektorie ze zbioru o dodatnim prawdopodobie´

nstwie.

Latwo zauwa˙zy´c, ˙ze ka˙zdy zbi´or powracaj¸acy R jest zawarty w pewnej klasie

asymptotycznie zamkni¸etej R

1

oraz zachodz¸a inkluzje

{R uni. ult.} ⊆ {R ult.} ⊆ {R

1

ult.

} p. n.

Je˙zeli dodatkowo

{R uni. ult.} = {R

1

ult.

} p. n., to zbi´or powracaj¸acy nazywa´c

b¸edziemy klas¸a powracaj¸ac¸a.

background image

115

Nie zawsze klasy asymptotycznie zamkni¸ete s¸a zbiorami powracaj¸acymi, istniej¸a

r´ownie˙z klasy asymptotycznie zamkni¸ete, b¸ed¸ace zbiorami powracaj¸acymi, kt´ore nie
s¸a klasami powracaj¸acymi. Latwo mo˙zna znale´z´c odpowiednie kontrprzyk lady.

Bezpo´srednio z definicji wynika nast¸epuj¸ace stwierdzenie.

Stwierdzenie 6.3. R

⊆ S jest klas¸a powracaj¸ac¸a niejednorodnego la´ncucha Mar-

kowa wtedy i tylko wtedy, gdy R ma nast¸epuj¸ace w lasno´sci:

(1) istotno´s´c;
(2) rozdzielanie trajektorii;
(3)

{R i. o.} = {j i. o.} p. n. dla dowolnego j ∈ R.

W szczeg´olno´sci ka˙zda klasa powracaj¸aca jest klas¸a asymptotycznie zamkni¸et¸a.

Z twierdze´

n zawartych w paragrafie 2.5 monografii Iosifescu [Io] wynika, ˙ze je´sli

la´

ncuch Markowa jest jednorodny, to poj¸ecia klasy zamkni¸etej, klasy asymptotycznie

zamkni¸etej, zbioru powracaj¸acego oraz klasy powracaj¸acej s¸a r´ownowa˙zne.

6.2. Klasy powracaj¸

ace niejednorodnych la´

ncuch´

ow Markowa z pot¸egowo

znikaj¸

acymi przej´

sciami.

La´

ncuchami Markowa z pot¸egowo znikaj¸acymi przej´sciami (PZP) o warto´sciach w

przestrzeni stan´ow S, nazywa´c b¸edziemy niejednorodne la´

ncuchy Markowa (X

t

)

t≥0

,

spe lniaj¸ace nast¸epuj¸acy warunek: dla dowolnych i, j

∈ S, i 6= j

d

ij

t

≤ Pr{X

t+1

= j


X

t

= i

} ≤ Cε

d

ij

t

,

gdzie C, c > 0, 0 < ε

t+1

≤ ε

t

< 1 dla t

≥ 0, lim

t→0

ε

t

= 0, 0

≤ d

ij

≤ ∞, ε

t

:= 0.

Latwo zauwa˙zy´c, ˙ze klasa PZP zawiera la´

ncuchy jednorodne a nawet szersz¸a od

nich klas¸e (A) Doeblina, sama za´s jest zawarta w klasie (B) Doeblina [Io], [Co 1–2].

Inny interesuj¸acy przyk lad la´

ncuch´ow PZP pojawia si¸e w optymalizacji. Niech

dana b¸edzie funkcja kosztu u : S

→ [0, ∞) i zwi¸azany z ni¸a kombinatoryczny prob-

lem minimalizacyjny. Niech ponadto ∆ = (δ

ij

)

i,j∈S

b¸edzie macierz¸a stochastyczn¸a.

Simulated Annealing (SA) jest to rekurencyjny algorytm “szukaj¸acy” w nast¸epuj¸acy
spos´ob stanu i

∈ S, w kt´orym u przyjmuje globalne minimum:

1) Za l´o˙zmy, ˙ze w chwili t, aktualnym stanem jest X

t

= i. Zaczynamy od

wylosowania s¸asiada Y

t

stanu i, wed lug danego rozk ladu δ

.

background image

116

2) Nast¸epnie je´sli Y

t

= j, to rozwa˙zamy dwa przypadki: — je´sli u

j

≤ u

i

, to

przyjmujemy X

t+1

:= j; — w przeciwnym przypadku przyjmujemy X

t+1

:=

j z prawdopodobie´

nstwem ε

(u

j

−u

i

)

t

lub X

t+1

:= i z prawdopodobie´

nstwem

1

− ε

(u

j

−u

i

)

t

.

Dla podkre´slenia zwi¸azk´ow z mechanik¸a statystyczn¸a, sk¸ad pochodzi idea algo-

rytmu SA, ε

t

zapisuje si¸e cz¸esto w postaci e

−(1/T

t

)

. Przy tej interpretacji T

t

jest

temperatur¸a rozwa˙zanego uk ladu fizycznego w chwili t.

Algorytm SA tworzy la´

ncuch Markowa o nast¸epuj¸acych prawdopodobie´

nstwach

przej´scia:

Pr

{X

t+1

= j


X

t

= i

} = δ

ij

ε

(u

j

−u

i

)∨0

t

dla j

6= i.

Klasa PZP zawiera la´

ncuchy generowane przez SA, je´sli przyjmiemy dla i

6= j:

d

ij

:=

(u

j

− u

i

)

∨ 0 je´sli δ

ij

> 0

w przeciwnym przypadku.

Dla dowolnych A, B

⊆ S, i, j ∈ S oraz c ≥ 0 wprowadzimy teraz wygodne

oznaczenia:

(A


c) :=

{ω ∈ Ω :

X

t≥0

ε

c

t

1(X

t

(ω)

∈ A) = ∞}

(A, B


c) :=

{ω ∈ Ω :

X

t≥0

ε

c

t

1(X

t

(ω)

∈ A, X

t+1

(ω)

∈ B) = ∞}

(i


c) := (

{i}


c),

(i, j


c) := (

{i}, {j}


c).

Zauwa˙zmy, ˙ze (A


0) =

{A i. o.}.

Wsp´o lczynnikiem powracalno´sci

α dla stanu i oraz kraw¸edzi (i, j) nazywa´c

b¸edziemy odpowiednio liczby:

α

i

:= sup

{c ≥ 0 : Pr{(i


c)

} > 0},

α

i,j

:= sup

{c ≥ 0 : Pr{(i, j


c)

} > 0}, (sup ∅ := −∞).

Zauwa˙zmy, ˙ze stan i

∈ S la´ncucha PZP jest powracaj¸acy wtedy i tylko wtedy, gdy

α

i

≥ 0. Ponadto α

i

≤ ρ, gdzie ρ := sup{c ≥ 0 :

P

t≥0

ε

c

t

=

∞}.

Poj¸ecie wsp´o lczynnika α r´o˙zni si¸e istotnie od poj¸ecia wsp´o lczynnika powracalno-

´sci β dla stanu i oraz kraw¸edzi (i, j) zdefiniowanego przez Connorsa i Kumara w

background image

117

pracach odpowiednio [Con], [ConKu 1–2]:

β

i

:= sup

{c ≥ 0 :

X

t≥0

ε

c

t

Pr(X

t

= i) =

∞},

β

ij

:= sup

{c ≥ 0 :

X

t≥0

ε

c

t

Pr(X

t

= i, X

t+1

= j) =

∞}

oraz od poj¸ecia wsp´o lczynnika powracalno´sci na trajektorii γ dla stanu i oraz
kraw¸edzi (i, j) zdefiniowanego odpowiednio przez Borkara w pracy [Bo]:

γ

i

(ω) := sup

{c ≥ 0 :

X

t≥0

ε

c

t

1(X

t

(ω) = i) =

∞},

γ

ij

(ω) := sup

{c ≥ 0 :

X

t≥0

ε

c

t

1(X

t

(ω) = i, X

i+1

(ω) = j) =

∞}, gdzie ω ∈ Ω.

W dalszej cz¸e´sci tego rozdzia lu poka˙zemy, ˙ze wsp´o lczynniki α daj¸a lepszy (od

wsp´o lczynnik´ow β i γ) opis asymptotycznych w lasno´sci trajektorii LM. Ponadto
mo˙zna je zawsze efektywnie obliczy´c (tzn. kosztem O(s

3

)).

W dalszej cz¸e´sci pracy rozwa˙za´c b¸edziemy la´

ncuchy Markowa z pot¸egowo znika-

j¸acymi przej´sciami. Zak lada´c b¸edziemy, dla wygody, ˙ze spe lniony jest nast¸epuj¸acy
warunek:

X

t≥0

ε

ρ
t

=

∞.

(6.1)

Przypomnijmy, ˙ze dla

∅ 6= R ⊂ S

¯

V (R) := min

i∈R

j∈S\R

[h(i


R) + d

ij

],

v(R) := max

∅6=A⊂R

min

i∈A

j∈R\A

[h(i


R) + d

ij

].

Niech ponadto dla jednolito´sci rozwa˙za´

n min

∅ := ∞, ¯

V (S) :=

∞, v({i}) := −∞

dla i

∈ S oraz ∞ − ∞ = ∞.

Do lkiem w grafie g

(D) nazywa´c b¸edziemy minimalny w sensie inkluzji zbi´or

stan´ow R

⊂ S taki, ˙ze ¯

V (R)

≥ ρ.

Stwierdzenie 6.4. Niech dany b¸edzie zbi´or R

⊆ S oraz funkcja h

: R

→ R.

Wtedy r´ownowa˙zne s¸a warunki:

(1)

h

≡ h(·


R);

background image

118

(2)

r´ownania r´ownowagi

∅6=A⊂R

min

i∈A

j∈R\A

(h

i

+ d

ij

) = min

i∈A

j∈R\A

(h

j

+ d

ji

)

oraz

min

i∈R

h

i

= 0.

Dow´od. “(1)

⇒ (2)”. Ustalmy ∅ 6= A ⊂ R. Ze wzgl¸edu na symetri¸e za lo˙ze´n,

wystarczy pokaza´c, ˙ze je´sli dla pewnych a, j

∈ A, b, i ∈ R \ A mamy

h

a

+ d

ab

= min

k∈A

l∈R\A

(h

k

+ d

kl

)

h

i

+ d

ij

= min

k∈A

l∈R\A

(h

l

+ d

lk

),

to

(6.2)

h

a

+ d

ab

≥ h

i

+ d

ij

.

Mo˙zna za lo˙zy´c, ˙ze h

a

+ d

ab

<

∞. Wtedy istnieje

f

∈ arg min

f

0

∈F (a|R)

d(f

0


R).

Zatem istnieje droga z wierzcho lka b do a zawarta w f . Niech (t, u) b¸edzie kraw¸edzi¸a
tej drogi, przecinaj¸ac¸a zbi´or A. Wtedy z za lo˙zenia (1) otrzymujemy

h

a

+ d

ab

− d

tu

= h

(f

∪ (a, b) \ (t, u)) ≥ h

t

,

poniewa˙z

f

∪ (a, b) \ (t, u) ∈ F (t).

St¸ad i z (6.2) otrzymujemy

h

a

+ d

ab

≥ h

t

+ d

tu

≥ h

i

+ d

ij

.

Rysunek 6.1.1 przedstawia kraw¸edzie (i, j) oraz (a, b) w grafie g

(D) z rysunku 2.2.1

spe lniaj¸ace r´owno´sci (6.2). Rysunek 6.1.2 przedstawia najkr´otsze drzewo o korzeniu
u w grafie g

(D).

“(1)

⇐ (2)”. Z udowodnionej cz¸e´sci wynika, ˙ze wektor h spe lnia r´ownania r´ow-

nowagi. Za l´o˙zmy dla sprzeczno´sci, ˙ze h

6≡ h. Z drugiej r´owno´sci (2) wynika, ˙ze

przynajmniej jeden ze zbior´ow

A :=

{i ∈ R : h

i

> h

i

} lub A

:=

{i ∈ R : h

i

< h

i

}

jest w la´sciwym podzbiorem R. Ze wzgl¸edu na symetri¸e za lo˙ze´

n mo˙zna za lo˙zy´c, ˙ze

jest to A. Wtedy

min

i∈A

j∈R\A

(h

i

+ d

ij

) < min

i∈A

j∈R\A

(h

i

+ d

ij

)

background image

119

= min

i∈A

j∈R\A

(h

j

+ d

ji

)

≤ min

i∈A

j∈R\A

(h

j

+ d

ji

)

= min

i∈A

j∈R\A

(h

i

+ d

ij

),

co jest sprzeczne z za lo˙zeniem o h

.



Latwo udowodni´c nast¸epuj¸ace stwierdzenia.

Stwierdzenie 6.5.

(1) Ka˙zdy graf g

(D) ma przynajmniej jeden do lek.

(2) Dwa r´o˙zne do lki w grafie g

(D) s¸a wzajemnie roz l¸aczne.

Stwierdzenie 6.6. Niech dany b¸edzie zbi´or R

⊆ S. Wtedy nast¸epuj¸ace warunki

s¸a r´ownowa˙zne.

(1) R jest do lkiem.
(2) v(R) < ρ

≤ ¯

V (R).

Obliczanie h(i


R), “wysoko´sci” stan´ow w zbiorze R, oraz znajdowanie do lk´ow

bezpo´srednio z definicji mo˙ze by´c nieefektywne (por. z uwag¸a 3.1 (1)). Okazuje si¸e,

˙ze niewielka modyfikacja algorytmu 4.3 lub 4.4 pozwala liczy´c h(i


R) oraz znajdowa´c

do lki kosztem O(s

3

). Wynika to z faktu, ˙ze ka˙zdy do lek jest elementem pewnego

zbioru S

k

, gdzie k

≤ K oraz nast¸epuj¸acego stwierdzenia.

Stwierdzenie 6.7. Za l´o˙zmy, ˙ze I

k

∈ S

k

dla k

≤ K. Wtedy

¯

V (I

k

) = min

J

k

6=I

k

¯

d

k

(I

k

, J

k

)

Dow´od . Udowodnimy najpierw, ˙ze je˙zeli I

k

, J

k

∈ S

k

, I

k

6= J

k

oraz k

≤ K, to

¯

d

k

(I

k

, J

k

) = min

i∈I

k

j∈J

k

[h(i


I

k

) + d

ij

].

(6.3)

Dla k = 1 otrzymujemy

¯

d

1

(I

1

, J

1

) = v(I

1

) + min

I

0

⊆I

1

J

0

⊆J

1

[ ¯

d

0

(I

0

, J

0

)

− ¯

V (I

0

)]

background image

120

= min

i∈I

1

j∈J

1

[h(i


I

1

) + d

ij

].

Za l´o˙zmy teraz, ˙ze wz´or (6.3) jest prawdziwy dla k = m

− 1. Wtedy z lematu 4.2

otrzymujemy:

¯

d

m

(I

m

, J

m

) = v(I

m

) +

min

I

m

1

⊆I

m

J

m

1

⊆J

m

[ ¯

d

m−1

(I

m−1

, J

m−1

)

− ¯

V (I

m−1

)]

=

min

I

m

1

⊆I

m

J

m

1

⊆J

m

min

i∈I

m

1

j∈J

m

1



h(i


I

m−1

) + d

ij

 + h(I

m−1


I

m

)



= min

i∈I

m

j∈J

m

[h(i


I

m

) + d

ij

].

Ze wzoru (6.3) otrzymujemy teraz

¯

V (I

k

) = min

i∈I

k

j6∈I

k

[h(i, I

k

) + d

ij

] = min

J

k

6=I

k

min

i∈I

k

j∈J

k

[h(i, I

k

) + d

ij

]

= min

J

k

6=I

k

¯

d

k

(I

k

, J

k

),

poniewa˙z

S

J

k

6=I

k

= S

\ I

k

.



G l´ownym rezultatem tego rozdzia lu jest nast¸epuj¸ace twierdzenie.

Twierdzenie 6.1.

(1) Dla dowolnego zbioru R

⊆ S, R jest klas¸a powracaj¸ac¸a wtedy i tylko wtedy,

gdy R jest do lkiem.

(2) Dla dowolnego stanu i

∈ S, je´sli i nale˙zy do pewnego do lka R, to α

i

=

ρ

− h(i


R); w przeciwnym przypadku α

i

=

−∞.

Dow´od twierdzenia 6.1 poprzedzimy kilkoma lematami.

Lemat 6.1. Niech Y

t

, Z

t

, dla t = 1, 2, . . . , b¸ed¸a zmiennymi losowymi okre´slonymi

na przestrzeni probabilistycznej (Ω,

F, Pr). Za l´o˙zmy, ˙ze

(i) Y

t

≥ 0 p. n., t = 1, 2, . . . ;

(ii) istnieje M > 0 takie, ˙ze dla t = 1, 2, . . . ,

|Y

t

− Z

t

| < M p. n.;

(iii) ci¸ag S

t

=

P

t
k=1

(Y

k

− Z

k

) jest podmartynga lem wzgl¸edem ci¸agu σ(S

1

, . . . ,

S

t

), t = 1, 2, . . . .

background image

121

Wtedy

(

X

t>0

Z

t

=

)

(

X

t>0

Y

t

=

)

p. n.

Dow´od. Z twierdzenia 1 [Shi, str. 550] wynika, ˙ze



sup

t

S

t

<



=

n

istnieje sko´

nczona granica lim

t

S

t

o

n

inf

t

S

t

>

−∞

o

p. n.

St¸ad i z za lo˙zenia otrzymujemy:

(

X

t>0

Z

t

=

∞,

X

t>0

Y

t

<

)

n

inf

t

S

t

=

−∞

o



sup

t

S

t

=



(

X

t>0

Y

t

=

)

p. n.

W rezultacie

(

X

t>0

Z

t

=

)

=

(

X

t>0

Z

t

=

∞,

X

t>0

Y

t

<

)

(

X

t>0

Z

t

=

∞,

X

t>0

Y

t

=

)

(

X

t>0

Y

t

=

)

p. n.



Lemat 6.2. Dla dowolnego d

≥ 0 oraz i, j ∈ S,

(i


d + d

ij

) = (i, j


d) p. n.;

(1)

α

ij

=

α

i

− d

ij

je´sli α

i

≥ d

ij

−∞

je´sli α

i

< d

ij

.

(2)

Dow´od. (1) Udowodnimy najpierw inkluzj¸e “

⊆”. Z uwagi na lemat 6.1 wystarczy

pokaza´c, ˙ze

t

X

k=0

h

ε

d

k

1(X

k

= i, X

k+1

= j)

− cε

d+d

ij

k

1(X

k

= i)

i

jest podmartynga lem wzgl¸edem σ(X

0

, . . . , X

t

), czyli ˙ze

E

h

ε

d

t

1(X

t

= i, X

t+1

= j)

− cε

d+d

ij

t

1(X

t

= i)


X

0

, . . . , X

t

i

≥ 0 p. n. dla t ≥ 0.

background image

122

Poniewa˙z (X

t

)

t≥0

jest la´

ncuchem Markowa, zatem wystarczy pokaza´c, ˙ze

Pr

{X

t+1

= j


X

t

}1(X

t

= i)

≥ cε

d

ij

t

1(X

t

= i) p. n. dla t

≥ 0.

Na zbiorze

{X

t

6= i} powy˙zsza nier´owno´s´c jest oczywista, natomiast na zbiorze

{X

t

= i

} jest spe lniona z definicji la´ncucha PZP.

Dla dowodu “

⊇” pokazujemy w podobny spos´ob, ˙ze

t

X

k=0

h

d+d

ij

k

1(X

k

= i)

− ε

d

k

1(X

k

= i, X

k+1

= j)

i

jest podmartynga lem wzgl¸edem σ(X

0

, . . . , X

t

).

(2) Je´sli α

i

≥ d

ij

, to (2) wynika z (1) po podstawieniu d := α

i

− d

ij

. Dla dowodu

r´owno´sci w przypadku, gdy α

i

< d

ij

przypu´s´cmy, ˙ze α

ij

≥ 0. Wtedy istnia loby

d

≥ 0 takie, ˙ze Pr{(i, j


d)

} > 0. St¸ad i z (1) otrzymaliby´smy Pr{(i


d

ij

)

} ≥

Pr

{(i


d + d

ij

)

} > 0, co jest sprzeczne z za lo˙zeniem, ˙ze α

i

< d

ij

.



Zauwa˙zmy tutaj, ˙ze r´owno´s´c (2) z lematu 6.2 dla wsp´o lczynnik´ow β by laby na-

tychmiastow¸a konsekwencj¸a r´owna´

n Chapmana–Ko lmogorowa.

Lemat 6.3.

(1) Dla dowolnych

∅ 6= A ⊂ S oraz d ≥ 0

[

i∈A, j6∈A

(i, j


d) =

[

i∈A, j6∈A

(j, i


d) p. n.

(2) (R´ownania r´ownowagi dla wsp´o lczynnik´ow powracalno´sci)

Dla dowolnego

∅ 6= A ⊂ S

max

i∈A, j6∈A

α

ij

= max

i∈A, j6∈A

α

ji

.

Dow´od. Niech σ

1

:= min

{k ≥ 0 : X

k

∈ A}, τ

t

:= min

{k > σ

t

:

X

k

6∈ A},

σ

t+1

:= min

{k > τ

t

: X

k

∈ A}, t ≥ 1. Oczywi´scie σ

t

< τ

t

< σ

t+1

. Ponadto z

monotoniczno´sci ci¸agu (ε

t

)

t≥0

wynika, ˙ze dla ka˙zdego d

≥ 0:

[

i∈A, j6∈A

(

X

t≥0

ε

d

t

1(X

t

= i, X

t+1

= j) =

)

=

(

X

i∈A, j6∈A

X

t≥0

ε

d

t

1(X

t

= i, X

t+1

= j) =

)

background image

123

=

(

X

t≥0

ε

d

t

1(X

t

6∈ A, X

t+1

∈ A) = ∞

)

=

(

X

t≥0

ε

d

σ

t

=

)

(

X

t≥0

ε

d

τ

t

=

)

=

(

X

t≥0

ε

d

t

1(X

t

∈ A, X

t+1

6∈ A) = ∞

)

=

(

X

i∈A, j6∈A

X

t≥0

ε

d

t

1(X

t

= j, X

t+1

= i) =

)

=

[

i∈A, j6∈A

(

X

t≥0

ε

d

t

1(X

t

= j, X

t+1

= i) =

)

p. n.

Podobnie dowodzimy inkluzji przeciwnej, co l¸acznie daje (1).

Latwo teraz zauwa˙zy´c, ˙ze dla ka˙zdego d

≥ 0, istniej¸a takie stany i ∈ A, j ∈ S \ A,

˙ze (i, j


d)

6= ∅ p. n. wtedy i tylko, gdy istniej¸a takie stany k ∈ A, l ∈ S \ A, ˙ze

(l, k


d)

6= ∅ p. n. St¸ad wynika (2).



Lemat 6.4. Niech R b¸edzie klas¸a asymptotycznie zamkni¸et¸a. Wtedy:

(1) istnieje p

≥ 1 oraz istniej¸a i

1

, . . . , i

p

∈ R takie, ˙ze

α

i

1

= . . . = α

i

p

= ρ oraz (R


0) = (i

1


ρ)

∪ . . . ∪ (i

p


ρ) p. n.;

(2) max

i∈R, j6∈R

i

− d

ij

) < 0;

(3) dla ka˙zdego

∅ 6= A ⊂ R,

α(A) :=

max

i∈A, j∈R\A

i

− d

ij

)

≥ 0;

(4) dla ka˙zdego

∅ 6= A ⊂ R,

α(A) =

max

i∈A, j∈R\A

j

− d

ji

).

Dow´od. Cz¸e´s´c (1) jest konsekwencj¸a za lo˙zenia (6.1), definicji klasy asymptotycznie
zamkni¸etej, wsp´o lczynnik´ow powracalno´sci oraz r´owno´sci

Ω = (Ω


ρ) =

[

i∈S

(i


ρ) p. n. .

Cz¸e´sci (2) i (3) wynikaj¸a z definicji, stwierdzenia 6.2 oraz lematu 6.2. Cz¸e´s´c (4)
wynika z definicji oraz lemat´ow 6.2 i 6.3.



background image

124

Lemat 6.5. Niech R b¸edzie klas¸a asymptotycznie zamkni¸et¸a. Wtedy dla dowolnego
i

∈ R,

{R i. o.} = (i


α

i

) p. n. .

W szczeg´olno´sci R jest klas¸a powracaj¸ac¸a.

Dow´od. Z lematu 6.4 (1) wynika, ˙ze w rodzinie

{(i


α

i

) : i

∈ R oraz (i


α

i

)

6= ∅ p. n.}

istnieje zbi´or (i

0


α

i

0

) minimalny w sensie “

⊆ p. n.”. Niech ponadto

A :=

{i ∈ R : (i


α

i

) = (i

0


α

i

0

) p. n.

}.

Poka˙zemy najpierw, ˙ze A = R. Przypu´s´cmy, ˙ze A

⊂ R. Z lematu 6.4 (3) wynika,

˙ze α(A)

≥ 0. Zatem za lo˙zenia lemat´ow 6.2 i 6.3 s¸a spe lnione dla d = α(A) i

otrzymujemy r´owno´sci

(i

0


α

i

0

) =

[

i∈A

max

j

6∈A

α

ij

=α(A)

(i


α

i

) =

[

i∈A

j6∈A

(i, j


α(A))

=

[

i∈A

j6∈A

(j, i


α(A)) =

[

j6∈A

max

i

∈A

α

ij

=α(A)

(j


α

j

) p. n.

Poniewa˙z R rozdziela trajektorie, wi¸ec istnieje j

∈ R \ A taki, ˙ze ∅ 6= (j


α

j

)

(i

0


α

i

0

) p. n.. Je´sli teraz (j


α

j

)

⊂ (i

0


α

i

0

) p. n., to mamy sprzeczno´s´c z minimalno-

´sci¸a (i

0


α

i

0

). Je´sli natomiast (j


α

j

) = (i

0


α

i

0

) p. n. — mamy sprzeczno´s´c z definicj¸a

A. W rezultacie dla dowolnego i

∈ R

(i


α

i

) = (i

0


α

i

0

) p. n.

Z lematu 6.4 (1) wynika teza.



Dow´od twierdzenia 6.1. (1) “

⇒”. Latwo zauwa˙zy´c, ˙ze dla dowolnych A, B ⊆ S

warunek

max

i∈A, j∈B

i

− d

ij

)

≥ 0

jest r´ownowa˙zny warunkowi

min

i∈A, j∈B

− α

i

− d

ij

)

≥ ρ.

background image

125

Zatem z lematu 6.4 (2)–(4) wynika, ˙ze wsp´o lczynniki h

i

:= ρ

−α

i

spe lniaj¸a r´ownania

r´ownowagi w stwierdzeniu 6.4 dla D(S

\ R


S

\ R) = (d

ij

)

i,j∈R

. St¸ad h

i

= h(i


R).

W rezultacie ze stwierdzenia 6.6 wynika teza.



Lemat 6.6. Je´sli A

⊆ S jest do lkiem, to Pr{X

t

∈ A, t ≥ 0} > 0.

Dow´od. Rozwa˙zmy proces X

t

, kt´ory powstaje przez ograniczenie X

t

do

S

:= A

∪ {i 6∈ A : ∃j ∈ A taki, ˙ze d

ij

<

∞}.

Niech dla dowolnych i, j

∈ S

,

Pr

{X

t+1

= j


X

t

= i

} :=

Pr

{X

t+1

= j


X

t

= i

} je´sli i ∈ A

1/

|A|

je´sli i

∈ S

\ A, j ∈ A

0

w przeciwnym przypadku.

Niech ponadto dla ka˙zdego i

∈ S

, Pr

{X

0

= i

} := Pr{X

0

= i

}/c, gdzie c :=

P

j∈S

Pr

{X

0

= j

} > 0.

Poniewa˙z fakt, ˙ze A jest do lkiem dla (X

t

)

t≥0

, zale˙zy tylko od ρ oraz d

ij

takich, ˙ze

i

∈ A, j ∈ S

, wi¸ec A jest r´ownie˙z do lkiem dla (X

t

)

t≥0

. Z r´owno´sci

Ω =

[

i∈S

(

X

t≥0

ε

ρ
t

1(X

t

= i) =

)

p. n.

wynika, ˙ze istnieje i

∈ S

takie, ˙ze α

i

= ρ. Je˙zeli i

∈ S

\ A, to z lemat´ow 6.2 (2)

i 6.3 (2) wynika, ˙ze dla dowolnego j

∈ A, α

i

= α

j

− d

ji

≤ α

j

. Zatem istnieje

a

∈ A takie, ˙ze α

a

= ρ. W konsekwencji istnieje klasa asymptotycznie zamkni¸eta R

zawieraj¸aca a. Z udowodnionej cz¸e´sci twierdzenia wynika, ˙ze R jest do lkiem. St¸ad
oraz z tego, ˙ze do lki s¸a wzajemnie roz l¸aczne (stwierdzenie 6.5 (2))wnioskujemy, ˙ze
A jest klas¸a asymptotycznie zamkni¸et¸a dla (X

t

)

t≥0

.

Poniewa˙z dla ka˙zdego k

≥ 0, cPr{X

t

∈ A, k ≥ t ≥ 0} = Pr{X

t

∈ A, k ≥ t ≥ 0},

wi¸ec z ci¸ag lo´sci prawdopodobie´

nstwa: cPr

{X

t

∈ A, t ≥ 0} = Pr{X

t

∈ A, t ≥ 0}.

Przypu´s´cmy teraz, ˙ze dla ka˙zdego k

≥ 0,

0 = cPr

{X

t

∈ A, t ≥ 0} = Pr{X

t

∈ A, t ≥ 0}

= Pr

{X

t

∈ A, t ≥ k


X

t

∈ A, k ≥ t ≥ 0}Pr{X

t

∈ A, k ≥ t ≥ 0}.

background image

126

Wtedy dla ka˙zdego k

≥ 0, Pr{X

t

∈ A, t ≥ k


X

k

∈ A} = 0 oraz oczywi´scie Pr{X

t

A, t

≥ k


X

k

6∈ A} = 0. W rezultacie dla ka˙zdego k ≥ 0, Pr{X

t

∈ A, t ≥ k} = 0,

wi¸ec z ci¸ag lo´sci prawdopodobie´

nstwa Pr

{X

t

∈ A ult.} = 0, co jest sprzeczne z tym,

˙ze A jest klas¸a asymptotycznie zamkni¸et¸a dla (X

t

)

t≥0

.



Dow´od twierdzenia 6.1. (1) “

⇐” Niech R

1

, . . . , R

m

b¸ed¸a wszystkimi klasami

asymptotycznie zamkni¸etymi danego la´

ncucha Markowa PZP. Ze stwierdzenia 6.1

oraz lematu 6.6 wynika, ˙ze istnieje 1

≤ j ≤ m takie, ˙ze

{X

t

∈ R, t ≥ 0} ∩ {R

j

ult.

} 6= ∅ p. n.

St¸ad R

j

∩ R 6= ∅.

Z udowodnionej cz¸e´sci (1) “

⇒” otrzymujemy, ˙ze R

j

jest do lkiem. Zatem ze

stwierdzenie 6.5 (2) wynika, ˙ze R jest klas¸a asymptotycznie zamkni¸et¸a. St¸ad i z
lematu 6.5 otrzymujemy tez¸e.

(2) Je´sli stan i

∈ S nale˙zy do pewnego do lka R, to z udowodnionej cz¸e´sci (1) “⇐”

wynika, ˙ze i nale˙zy do klasy powracaj¸acej R, wi¸ec z dowodu cz¸e´sci (1) “

⇒” wynika

teza. W przeciwnym przypadku stan i jest stanem chwilowym, wi¸ec α

i

=

−∞. 

Ilustracj¸a r´o˙znicy pomi¸edzy wsp´o lczynnikami α i β mo˙ze by´c nast¸epuj¸acy przy-

k lad, rozwa˙zany przez Connorsa i Kumara w pracach [Con] i [ConKu 1–2].

Przyk lad 6.2. Niech (X

t

)

t≥0

b¸edzie la´

ncuchem Markowa generowanym przez SA

o przestrzeni stan´ow S :=

{1, 2, 3} oraz funkcji kosztu u

i

:= i. Niech ponadto

δ

13

= δ

23

= 1, δ

32

= a = 1

− δ

31

, gdzie a

∈ (0, 1) oraz δ

ij

= 0 w pozosta lych

przypadkach.

Connors i Kumar obliczyli za pomoc¸a algorytmu o wyk ladniczej z lo˙zono´sci obli-

czeniowej, wszystkie rozwi¸azania r´owna´

n r´ownowagi dla β, co daje w rezultacie:

β

1

= 1, β

2

∈ {−∞} ∪ [0, 1), β

3

=

−∞. Latwo zauwa˙zy´c, ˙ze α

1

= 1, α

2

= α

3

=

−∞. Metoda Connorsa i Kumara nie pozwala zatem, w odr´o˙znieniu od naszej, na
jednoznaczne i efektywne obliczenie wsp´o lczynnik´ow powracalno´sci.

Connors w swojej pracy doktorskiej [Con] za pomoc¸a bezpo´srednich lecz pra-

coch lonnych oblicze´

n udowodni l, ˙ze β

2

= a.

Wskazuje to na nieadekwatno´s´c

wsp´o lczynnik´ow β: stan odwiedzany prawie na pewno sko´

nczenie wiele razy ma

background image

127

wsp´o lczynnik powracalno´sci β wi¸ekszy od 0. W Dodatku zamieszczamy odpowiedni
rysunek.

Uwagi 6.1.

(1) Klasy Doeblina s¸a omawiane w pracach Cohna [Co 1–2] oraz monografii

Iosifescu [Io].

(2) Pewne warianty la´

ncuch´ow Markowa z pot¸ego znikaj¸acymi przej´sciami roz-

wa˙zane by ly wcze´sniej w pracach [Ts 1–2], [ChiCho 2–3], [HwSh 1–2], [Con],
[ConKu 1–2], [DeKuKu], [NiPo], [Po].

(3) Literatura dotycz¸aca SA liczy kilkaset pozycji, w tym kilka monografii.

Reprezentatywny jej wyb´or znale´z´c mo˙zna w pracy Romea i Sangiovanniego–
Vincentellego [RomSa]. G l´owne kierunki bada´

n i zastosowa´

n zwi¸azanych z

algorytmem Simulated Annealing s¸a nast¸epuj¸ace.

— W lasno´sci asymptotyczne niejednorodnego la´

ncucha Markowa genero-

wanego przez SA — w tym osi¸agalno´s´c globalnego minimum z prawdo-
podobie´

nstwem 1 i zachowanie Pr

{X

t

= i

} przy t → ∞ (patrz np. [Bo],

[Ca], [ChiCho 1–3], [Con], [ConKu 1–2], [DeKuKu], [Ge], [GeGe], [Ha],
[HwSh 1–2], [NiPo], [Ts 1–2]).

— Komputerowa symulacja procesu maj¸acego na celu wprowadzenie dane-

go uk ladu fizycznego o wielu stopniach swobody do stanu o najmniej-
szej energii przez gwa ltowne podgrzanie, a nast¸epnie powolne studze-
nie (st¸ad w la´snie pochodzi nazwa “Simulated Annealing”). Proces an-
nealingu jest wykorzystywany do tworzenia kryszta l´ow.

— SA jako metoda relaksacji i rekonstrukcji obrazu. Prze lomem sta la si¸e

w tej dziedzinie praca Geman´ow [GeGe].

— SA w optymalizacji kombinatorycznej. Ten kierunek jest najliczniej

reprezentowany w literaturze (patrz np. [LaAa], [JeSo], [So], [KiGeVe]).
Dalsz¸a klasyfikacj¸e bada´

n w tym zakresie mo˙zna przeprowadza´c ze

wzgl¸edu na rodzaj problemu (np.

problem komiwoja˙zera, problem

podzia lu grafu, projektowanie element´ow VLSI i inne) oraz model
obliczalno´sci u˙zywany w algorytmie — sekwencyjny albo r´ownoleg ly
(w tym “sieci neuronowe” i “Maszyny Boltzmanna”).

background image

128

(4) Je´sli za lo˙zenie (6.1) nie jest spe lnione, to dla dowodu twierdzenia w tym

przypadku nale˙zy zmieni´c definicj¸e do lka przez zast¸apienie warunku ¯

V (R) >

ρ na warunek ¯

V (R)

≥ ρ. Ponadto w lemacie 6.4 (1)–(2) nale˙zy podstawi´c

ρ := (ρ

− min{d

ij

: 0 < d

ij

<

∞}) ∨ 0.

Reszta rozumowania pozostaje bez zmian.

(5) Latwo zauwa˙zy´c, ˙ze wszystkie podane tutaj fakty pozostaj¸a prawdziwe, je´sli

monotoniczno´s´c ci¸agu (ε

t

)

t

zast¸api´c warunkiem:

∃M < ∞ ∀ m, n je´sli n ≥ m ≥ 1, to ε

n

≤ Mε

m

.

6.3. Osi¸

agalno´

c globalnego minimum z prawdopodobie´

nstwem 1 przez

algorytm Simulated Annealing.

Podane w poprzedniej cz¸e´sci twierdzenie prowadzi do konstruktywnego kryterium

osi¸agalno´sci z prawdopodobie´

nstwem 1 dowolnego podzbioru A przestrzeni stan´ow

S przez la´

ncuchy Markowa z regularnie znikaj¸acymi przej´sciami.

Wniosek 6.1.

Dla la´

ncucha Markowa z klasy PZP oraz dowolnego A

⊆ S,

nast¸epuj¸ace warunki s¸a r´ownowa˙zne:

(1) Pr

{A i. o.} = 1.

(2) Pr

{∃

t≥0

X

t

∈ A} = 1.

(3) Ka˙zdy do lek zawiera punkt nale˙z¸acy do A.

Dow´od. Implikacja (1)

⇒(2) jest oczywista, (2)⇒(3) wynika bezpo´srednio przez

transpozycj¸e z lematu 6.6, natomiast (3)

⇒(1) wynika bezpo´srednio z twierdzenia

6.1.



W dalszej cz¸e´sci b¸edziemy rozwa˙za´c la´

ncuchy Markowa generowane przez SA.

Poka˙zemy, ˙ze wniosek 6.1 jest uog´olnieniem twierdzenia udowodnionego przez Con-
norsa i Kumara w pracach [Con] i [ConKu 1–2]. Wcze´sniej jednak podamy kilka
definicji.

Przyjmijmy dla h

≤ 0

g(∆, u, h) := (s,

{(i, j) : δ

ij

> 0 oraz u

i

∨ u

j

≤ h}).

background image

129

B¸edziemy m´owi´c ˙ze stan j jest osi¸agalny na wysoko´sci h ze stanu i (oznaczenie

i[h]

→ j), je´sli i → j w grafie g(∆, u, h).

Zak lada´c b¸edziemy, ˙ze macierz ∆ jest nieprzywiedlna oraz, ˙ze la´

ncuch generowa-

ny przez SA jest s labo odwracalny (weak reversible), to znaczy, ˙ze dla ka˙zdego h

≥ 0

relacja [h]

→ jest symetryczna. Oczywi´scie [h] → jest przechodnia.

Niech S

:=

{i ∈ S : ∀

j∈S

u

i

≤ u

j

} b¸edzie zbiorem globalnych minim´ow oraz

d

:= min

{d ≥ 0 : ∀

i∈S

j∈S

i[u

i

+ d]

→ j}.

Latwo zauwa˙zy´c, ˙ze relacja [h]

→ jest symetryczna wtedy i tylko wtedy, gdy w grafie

g(∆, u, h) nie ma stan´ow nieistotnych.

Kolejny lemat jest odpowiednikiem twierdzenia 5 o potencjale z pracy [ConKu 2].

Lemat 6.7. Je´sli R jest do lkiem, to dla wszystkich i

∈ R

h(i


R) = u

i

− min

j∈R

u

j

.

Dow´od. Poniewa˙z min

j∈R

h(j


R) = 0, wi¸ec wystarczy pokaza´c, ˙ze dla dowolnego

i

∈ R, u

i

− h(i


R) = const. Niech A := arg min

a∈R

u

a

− h(a


R)

. Poka˙zemy, ˙ze

A = R. Przypu´s´cmy, ˙ze A

⊂ R. Niech i, l ∈ A, j, k ∈ R \ A oraz

(i, j)

∈ arg min

a∈A

b∈R\A

(h(a


R) + d

ab

),

(k, l)

∈ arg min

a∈A

b∈R\A

(h(b


R) + d

ba

).

Poniewa˙z i[u

j

∨ u

i

]

→ j, wi¸ec ze s labej odwracalno´sci wynika, ˙ze

u

l

∨ u

k

≤ u

j

∨ u

i

.

St¸ad po odj¸eciu stronami (u

i

+ u

k

) otrzymujemy

(u

l

− u

k

)

∨ 0 − u

i

≤ (u

j

− u

i

)

∨ 0 − u

k

,

czyli

(u

l

− u

k

)

∨ 0 + u

k

≤ (u

j

− u

i

)

∨ 0 + u

i

.

(6.4)

Ponadto z r´owna´

n r´ownowagi dla h(

·


R) wynika, ˙ze

− h(k


R)

− (u

l

− u

k

)

∨ 0 = −h(i


R)

− (u

j

− u

i

)

∨ 0.

(6.5)

background image

130

W rezultacie po dodaniu (6.4) i (6.5) otrzymujemy

u

k

− h(k


R)

≤ u

i

− h(i


R),

co jest sprzeczne z definicj¸a A.



Wniosek 6.2. Dla la´

ncucha Markowa nieprzywiedlnego i s labo odwracalnego, gen-

erowanego przez algorytm Simulated Annealing nast¸epuj¸ace warunki s¸a r´ownowa˙zne:

(1) Pr

{S

i. o.

} = 1.

(2) Pr

{∃

t≥0

X

t

∈ S

} = 1.

(3)

P

t≥0

ε

d

t

=

∞.

Dow´od. Wystarczy udowodni´c r´ownowa˙zno´s´c warunku (3) i warunku (3) z wnios-
ku 6.1. Zauwa˙zmy, ˙ze warunek (3) jest r´ownowa˙zny nier´owno´sci d

≤ ρ. Nier´owno´s´c

ta z kolei jest r´ownowa˙zna warunkowi

i∈S\S

j∈S

i[u

i

+ ρ]

→ j.

(6.6)

Ze stwierdzenia 6.6 (2) oraz lematu 6.7 wynika, ˙ze zbi´or stan´ow R

⊆ S jest

do lkiem wtedy i tylko wtedy, gdy

min

i∈R, j∈S\R

δ

ij

>0

[u

i

+ (u

j

− u

i

)

∨ 0] =

min

i∈R, j∈S\R

δ

ij

>0

[u

j

∨ u

i

]

≥ ρ + min

k∈R

u

k

(6.7)

oraz

∅6=A⊂R

min

i∈A, j∈R\A

δ

ij

>0

[u

j

∨ u

i

] < ρ + min

k∈R

u

k

.

(6.8)

St¸ad wynika, ˙ze R

⊆ S jest do lkiem wtedy i tylko wtedy, gdy spe lnione s¸a warunki

i,j∈R

i[min

k∈R

u

k

+ ρ]

→ j

(6.9)

oraz

i∈R, j6∈R

nieprawda, ˙ze i[min

k∈R

u

k

+ ρ]

→ j.

(6.10)

Przypu´s´cmy teraz, ˙ze warunek (6.6) nie jest spe lniony, czyli

A :=

{i

0

∈ S \ S

:

j∈S

nieprawda, ˙ze i[u

i

+ ρ]

→ j} 6= ∅.

background image

131

Niech

i

0

∈ arg min

j∈A

u

j

.

Latwo zauwa˙zy´c, ˙ze zbi´or

{i ∈ S : i

0

[u

i

0

+ ρ]

→ j}

spe lnia warunki (6.9) i (6.10) oraz jest roz l¸aczny z S

.

Odwrotnie: je˙zeli istnieje do lek R rozl¸aczny z S

, to z warunku (6.10) wynika, ˙ze

i∈arg min

k

∈R

u

k

j∈S

nieprawda, ˙ze i[u

i

+ ρ]

→ j.



Uwagi 6.2.

(1) Na rysunkach 6.2.1–6.2.5 przedstawiony jest przyk lad grafu indukowanego

przez s labo odwracalny LM generowany przez algorytm SA. Rysunki te ilus-
truj¸a wp lyw “wyk ladnika rozbie˙zno´sci” ρ na klasyfikacj¸e stan´ow. Stany
powracaj¸ace s¸a zaczernione.

(2) Rozwa˙zany tutaj problem osi¸agalno´sci globalnego minimum z prawdopodo-

bie´

nstwem 1 przez SA rozwi¸azali cz¸e´sciowo Connors i Kumar w pracach

[Con] i [ConKu 1–2]. Udowodnili oni, ˙ze przy za lo˙zeniach nieprzywiedlno´sci
i s labej odwracalno´sci nast¸epuj¸ace warunki s¸a r´ownowa˙zne:

(a) SA osi¸aga globalne minimum z prawdopodobie´

nstwem 1.

(b) SA jest zbie˙zny wed lug prawdopodobie´

nstwa do globalnego minimum.

(c)

P

t≥0

ε

d

t

=

∞, gdzie d jest, odpowiednio zdefiniowan¸a, g l¸eboko´sci¸a naj-

mniejszego lokalnego minimum, kt´ore nie jest globalnym minimum.

Zieli´

nski w pracy [Zie] przy pomocy lematu Borela–Cantelli’ego dla mar-

tynga l´ow poda l warunek dostateczny na to, aby Simulated Annealing okre-

´slony na dowolnej przestrzeni stan´ow S nie opu´sci l z prawdopodobie´

nstwem

1 obszaru przyci¸agania lokalnego minimum. Niemiro w pracy [Ni 1] opisa l
klasy powracaj¸ace dla SA przy za lo˙zeniu prostej, jednowymiarowej struk-
tury s¸asiedztw. Podstawowym narz¸edziem jest tam lemat 1 uog´olniaj¸acy
lemat Borela–Cantelli’ego dla martynga l´ow. Borkar w pracy [Bo], u˙zywaj¸ac
podobnego faktu, udowodni l “r´ownania r´ownowagi” dla γ.

background image

132

Rezultaty Connorsa i Kumara, jak r´ownie˙z zastosowana tam metoda

rozwi¸azywania “r´owna´

n r´ownowagi” dla β by ly punktem wyj´scia dla mo-

jej pracy magisterskiej [Po] oraz wsp´olnej pracy z W. Niemiro [NiPo],
gdzie scharakteryzowali´smy σ-cia lo ogonowe la´

ncuch´ow PZP za pomoc¸a

wsp´o lczynnik´ow powracalno´sci γ. Nie znaj¸ac rozwini¸e´c w lasy skierowane,
wsp´o lczynniki γ i do lki opisali´smy za pomoc¸a rozwi¸aza´

n r´owna´

n r´ownowagi

ze stwierdzenia 6.4 (2). Udowodnili´smy ponadto, ˙ze rozwi¸azania r´owna´

n

r´ownowagi s¸a okre´slone jednoznacznie z dok ladno´sci¸a do przesuni¸ecia oraz
wprowadzili´smy algorytm, kt´ory je oblicza.

Niemiro w pracy [Ni 2]

wykorzysta l opis σ-cia la ogonowego do analizy zbie˙zno´sci wed lug praw-
dopodobie´

nstwa dla la´

ncuch´ow PZP generowanych przez algorytm SA.

(3) Osi¸agalno´s´c globalnego minimum z prawdopodobie´

nstwem 1, czyli asymp-

totyczna poprawno´s´c algorytmu jest, naszym zdaniem, wa˙zniejsza dla za-
stosowa´

n w optymalizacji kombinatorycznej ni˙z zbie˙zno´s´c algorytmu wed lug

prawdopodobie´

nstwa, kt´orej po´swi¸econo w literaturze znacznie wi¸ecej miej-

sca: [Ca], [ChiCho 1–4], [Ge], [GeGe], [Ha], [HwSh 1–2], [Ts 1–2] i in.
Ko´

ncz¸ac procedur¸e poszukiwania minimum w kroku t wybieramy bowiem

x

∈ arg min

k≤t

u(X

k

), a nie X

t

. Latwo zauwa˙zy´c, ˙ze metoda Monte Carlo w

swojej najprostszej postaci, uwa˙zana powszechnie za “ostatni¸a desk¸e ratun-
ku” przy rozwi¸azywaniu trudnych problem´ow kombinatorycznych, gwaran-
tuje osi¸agalno´s´c globalnego minimum z prawdopodobie´

nstwem 1. Podane

w tym rozdziale fakty ´swiadcz¸a o tym, ˙ze algorytm SA r´ownie˙z posiada
t¸e w lasno´s´c. Istotnie, w problemach kombinatorycznych warunek s labej
odwracalno´sci jest spe lniony oraz mo˙zemy oszacowa´c z g´ory warto´s´c r(u) :=
max

i∈S

u

i

− min

i∈S

u

i

, co w rezultacie pozwala dobra´c w la´sciwy ci¸ag (ε

t

)

t≥0

— np. 1/(t

1/r(u)

), aby zapewni´c sobie, korzystaj¸ac z wniosku 6.2, osi¸agalno´s´c

globalnego minimum z prawdopodobie´

nstwem 1. Oczywi´scie systematyczne

przeszukiwanie przestrzeni stan´ow tak˙ze jest “asymptotycznie poprawne”.
Dotychczasowa analiza nie wyja´snia zatem dlaczego algorytm SA jest najbar-
dziej efektywnym spo´sr´od znanych algorytm´ow, w zadaniach projektowania
uk lad´ow scalonych o wysokim stopniu integracji (VLSI). W la´sciwe por´owna-
nie stochastycznych algorytm´ow optymalizacyjnych by loby mo˙zliwe dopiero
w´owczas, gdy potrafiliby´smy wystarczaj¸aco dok ladnie oszacowa´c, jak szybko

background image

133

te algorytmy osi¸agaj¸a z ustalonym prawdopodobie´

nstwem globalne minimum

oraz w jaki spos´ob taka szybko´s´c zale˙zy od istotnych dla nas parametr´ow.
M´owi¸ac dok ladniej: chcieliby´smy wiedzie´c, czy i jak

Pr

{min

k≤t

u(X

k

)

− min

i∈S

u

i

> ε

}

zale˙zy od:

(a) parametr´ow problemu — np. s, u;

(b) parametr´ow metody rozwi¸azania — np. ∆ = (δ

ij

)

i6=j

, (ε

t

)

t≥0

, rozk ladu

X

0

;

(c) t;

(d) ε.

Wydaje si¸e, ˙ze wyniki tego rodzaju s¸a trudne do udowodnienia i brak ich w
literaturze.

background image

134

Bibliografia

[AbBiFi]

M. Abbad, T. Bielecki and J. Filar. Algorithms for singularly perturbed limiting av-
erage control problems. IEEE Transactions on Automatic Control, AC 37:1421–1425,

1992.

[Al 1]

D. Aldous. Some inequalities for reversible Markov chains. Journal of the London

Mathematical Society

, 25(2):564–576, 1982.

[Al 2]

D. Aldous. On the Markov chain simulation method for uniform combinatorial dis-

tributions and simulated annealing. Probability in the Engineering and Informational

Sciences

, 1:33–46, 1987.

[Al 3]

D. Aldous. Reversible Markov chain and random walks on graphs. 1994. Preprint.

[AnTs]

V. Anantharam and P. Tsoucas. A proof of the Markov chain tree theorem. Statistics

& Probability Letters

, 8: 189–192, 1989.

[ApKa]

D. Applegate and R. Kannan. Sampling and integration of near log–concave functions.

Proceedings of the 23rd ACM Symposium on Theory of Computing

, ACM Press, 156–

163, 1991.

[BiFi]

T. Bielecki and J. Filar. Singularly perturbed Markov control problem: limiting aver-

age cost. Annals of OR, 28: 153–168, 1991.

[BiSt]

T. Bielecki and L. Stettner. Ergodic control of singularly perturbed Markov process

in discrete time with general state and compact action spaces. 1996. Preprint.

[Bo]

V. S. Borkar. Pathwise recurrence orders and simulated annealing. J. Appl. Prob.,

29:472–476, 1992.

[BoMa]

R. Bott and J.P. Mayberry. Matrices and trees, in Economic Activity Analysis. Edited

by O. Morgenstern, John Wiley & Sons, Inc., New York; Chapman & Hall, Ltd.,
London, 1954.

[BrRy]

R. A. Brualdi and H. J. Ryser. Combinatorial Matrix Theory. Cambrigde University

Press, 1991.

[Ca]

O. Catoni. Rough large deviation estimates for simulated annealing: application to

exponential schedules. Ann. Probab., 20:1109–1146, 1992.

[Cha]

S. Chaiken. A combinatorial proof of the all minors matrix tree theorem. SIAM J. Alg.

Disc. Meth.

, 3:319–329, 1982.

[Che]

W.-K. Chen. Applied Graph Theory, Graphs and Electrical Networks. North–Holland,

New York, 2nd edition, 1976.

[ChiCho 1] T.-S. Chiang and Y. Chow. On eigenvalues and annealing rates. Math. Operat. Res.,

13:508–511, 1988.

[ChiCho 2] T. S. Chiang and Y. Chow. On the asymptotic behavior of some inhomogeneous

Markov processes. Ann. Prob., 17:1483–1502, 1989.

[ChiCho 3] T.-S. Chiang and Y. Chow. A comparison of Simulated Annealing of Gibbs sampler

and Metropolis algorithms. Lecture Notes in Statistic, 74:117–124, 1991.

background image

135

[ChiCho 4] T.-S. Chiang and Y. Chow. Asymptotic bahavior of eigenvalues and random updating

schemes. Appl. Math. Optim., 28:259–275, 1993.

[Co 1]

H. Cohn. On a paper by Doeblin on non–homogeneous Markov chain. Adv. Appl. Prob.,

13:388–401, 1981.

[Co 2]

H. Cohn. On a class of non–homogeneous Markov chains. Math. Proc. Camb. Phil.

Soc.

, 92:527–534, 1982.

[Con]

D. P. Connors. Balance of Recurrence Order in Time–Inhomogenous Markov Chains

with Application to Simulated Annealing

. PhD thesis, University of Illinois, Urbana,

IL, 1988.

[ConKu 1] D. P. Connors and P. R. Kumar. Balance of recurrence order in time–inhomogenous

Markov chains with application to simulated annealing. Probab. Engrg. Inform. Sci.,

2:157–184, 1988.

[ConKu 2] D. P. Connors and P. R. Kumar. Simulated annealing type Markov chains and their

balance equations. SIAM J. Control & Optim., 27(6):1440–1461, 1989.

[CvDoSa]

D.M. Cvetkovi´c, M. Doob and H. Sachs. Spectra of Graphs — Theory and Applications.
VEB Deutscher Verlag d. Wiss., Berlin, 1979; Acad. Press, New York, 1979.

[DeKuKu] M. Desai, S. Kumar and P. R. Kumar. Quasi–statically cooled Markov chains. Probab.

Engrg. Inform. Sci.

, 8:1–19, 1994.

[DiSt]

P. Diaconis and D. Stroock. Geometric bounds for eigenvalues of Markov chains. Ann.

Appl. Probab.

, 1:36–61, 1991.

[DiHa]

P. Diaconis and P. Hanlon. Eigen analysis for some examples of the Metropolis Algo-
rithm. Contemporary Mathemetics, 138:99–117, 1992.

[DiS–C]

P. Diaconis and L. Saloff–Coste. Comparison theorems for reversible Markov chains.

Ann. Appl. Probab.

, 3:696–730, 1993.

[Din 1]

I. H. Dinwoodie. A probability inequality for the occupation measure of a reversible
Markov chain. Ann. Appl. Probab., 5:37–43, 1995.

[Din 2]

I. H. Dinwoodie. Expectations for nonreversible Markov chains. 1995. Preprint.

[DyFri]

M. E. Dyer, A. Frieze. On the complexity of computing the volume of a polyhedron.

SIAM J. Comput.

, 17:967–974, 1988.

[DyFriKa] M. E. Dyer, A. M. Frieze and R. Kannan. A random polynomial time algorithm for

approximating the volume of convexbodies. J. Assoc. Comput. Mach., 38:1–17, 1991.

[FieSe]

M. Fiedler and J. Sedl´

acek. O w–basich orientovan´

ych grafu. Cas. Pest. Mat., 83:214–

225, 1958. (Chech.).

[Fi]

J. Fill. Eigenvalue bounds on convergence to stationary for nonreversible Markov
chains with an application to the exclusion processes. Ann. Appl. Probab., 1:62–87,

1991.

[FoLa]

B.L. Fox and D.M. Landi. An algorithm for identifying the ergodic subchains and

transient states of a stochastic matrix. Comm. ACM, 2:619–621, 1968.

background image

136

[FreWe 1]

M. I. Freidlin and A. D. Wentzell. On small random perturbations of dynamical sys-

tems. Russian Math. Surveys, 25(1):1–55, 1970.

[FreWe 2]

M. I. Freidlin and A. D. Wentzell. Random Perturbations of Dynamical Systems.

Springer, New York, 1984.

[FriKaPo] A. Frieze, R. Kannan and N. Polson. Sampling from log–concave distributions. Ann.

Appl. Probab.

, 3:812–837, 1994.

[Ge]

D. Geman. Random fields and inverse problems in imaging. Lecture Notes in Mathe-

matics

, 1427, 1990.

[GeGe]

D. Geman and S. Geman. Stochastic relaxation, Gibbs distributions, and the Bayesian

restoration of images. IEEE Trans. Pattern Anal. Machine Intelligence, 6:721–741,
1984.

[Gi]

B. Gidas. Metropolis–type Monte Carlo simulation algorithms and Simulated Anneal-
ing. In Topics in Contemporary Probability and Its Applications. J. L. Snell ed, CRC

Press, New York, 1995.

[Gil]

D. Gillman. A Chernoff bound for random walks on expander graphs. In Proceedings

of the 34th Symposium on Foundations of Computer Science

, IEEE Computer Society

Press, Los Alamitos, Califormia, 1993.

[Gr]

W.K. Grassmann. Means and variances in Markov reward systems, in Linear Algebra,

Markov Chains and Queuing Models

. C.D. Meyer and R.J. Plemmons, eds., Springer–

Verlag, New York, 193–204, 1993.

[GrTaHe]

W.K. Grassmann, M.I. Taksar and D.P. Heyman. Regenerative analysis and steady–
state distributions for Markov chains. Oper. Res., 33:1107–1116, 1985.

[Gro]

R. Grone. On the geometry and Laplacian of a graph. Linear Algebra and Its Appli-

cations

, 150:167–178, 1991.

[Ha]

B. Hajek. Cooling schedules for optimal annealing. Math. Operat. Res., 13(2):311–329,
1988.

[HasHav]

R. Hassin and M. Haviv. Mean passage times and nearly uncoupled Markov chains.

SIAM J. Disc. Math.

, 5:386–397, 1992.

[HavRi]

M. Haviv and Y. Ritov. On series expansions and stochastic matrices. SIAM J. Matrix

Anal. Appl.

, 14(3):670–676, 1993.

[Hig]

N. J. Higham. Accuracy and Stability of Numerical Algorithms. SIAM, Philadelphia,

PA, 1995.

[Hi]

T. L. Hill. Studies in irreversible thermodynamics IV. Diagrammatic representation of

steady state fluxes for unimolecular systems. J. Theoret. Biol., 10:442–459, 1966.

[He]

D.P. Heyman. Accurate computation of the fundamental matrix of a Markov chain.

SIAM J. Matrix Anal. Appl.

, 16(3):954–963, 1995.

[HeRe]

D.P. Heyman and A. Reeves. Numerical solution of linear equations arising in Markov

chain model. ORSA J. Comput., 1:52–60, 1989.

[HoJo 1]

R.A. Horn and Ch.R. Johnson. Matrix Analysis. Cambridge Univ. Press, 1985.

background image

137

[HoJo 2]

R.A. Horn and Ch.R. Johnson. Topics in Matrix Analysis. Cambridge Univ. Press,

1991.

[HwSh 1]

C.-R. Hwang and S.-J. Sheu. Large–time behavior of perturbed diffusion Markov pro-

cesses with applications to the second eigenvalue problem for Fokker–Planck operators
and simulated annealing. Acta Appl. Math., 19:253–295, 1990.

[HwSh 2]

C.-R. Hwang and S.-J. Sheu. Singular perturbed Markov chains and exact behaviors
of simulated annealing processes. J. Theor. Probab., 5:223–249, 1992.

[In]

S. Ingrassia. On the rate of convergence of the Metropolis algorithm and Gibbs sampler
by geometric bounds. Ann. Appl. Probab., 4(2):347–, 1994.

[Io]

M. Iosifescu. Finite Markov Processes and Their Applications. Wiley and Sons, 1980.

[IsMa]

D. L. Issacson and R. W. Madsen. Markov Chains, Theory and Applications. Wiley,

New York, 1976.

[Je]

M. Jerrum. The computational complexity of counting. Proceedings of the Interna-

tional Congress of Mathematicians

. Z¨

urich, Switzerland 1994, 1407–1416, 1995.

[JeSi]

M. R. Jerrum and A. Sinclair. Polynomial–time approximation algorithms for the Ising
model. SIAM J. Comput., 22:1087–1116, 1993.

[JeSo]

M. Jerrum and G. Sorkin. Simulated annealing for graph bisection. In Proceedings

of 34th Annual IEEE Symposium on Foundations of Computer Science

, pages 1–21,

1993.

[Ka]

N. Kahale. Large Deviation Bounds on Markov Chains. Technical Report 94–39, DI-

MACS, 1994.

[Kan]

R. Kannan. Markov chains and polynomial time algorithms. Proceedings of the 35th

Annual Symposium on Foundations of Computer Science

, 656–671, 1994.

[Kat]

T. Kato. A Short Introduction to Perturbation Theory for Linear Operators. Springer–

Verlag, New York, 1982.

[KeSn 1]

J.G. Kemeny and J.L. Snell. Finite Markov Chains. Van Nostrand, Princeton, 1960.

[KeSn 2]

J.G. Kemeny and J.L. Snell. Finite continuous Markov chains. Teor. Verojatnost. i

Primenem.

, 6:110–115, 1961.

[KiGeVe]

S. Kirkpatrick, C. D. Gelatt and M. P. Vecchi. Optimization by simulated annealing.

Science

, 220:671–680, 1983.

[KoVo]

H. H. Kohler, E. Vollmerhaus. The frequency of cyclic processes in biological multistate

systems. J. Math. Biol., 9:275–290, 1980.

[Kor]

C. A. Korneev. On mean recurrence time and mean sojourn time of an irreducible

finite Markov chain in a given set of states. Avtomat i Vyˇcisl. Tehn., 5:14–17, 1970
(Russian).

[LaAa]

P. J. M. van Laarhoven and E. H. L. Aarts. Simulated Annealing. Theory and Appli-

cations

. D. Riedel, 1987.

[LeRi 1]

F. T. Leighton and R. L. Rivest. The Markov chain tree theorem. M.I.T. Laboratory
for Computer Science, Technical Report, MIT/LCS/TM–249, 1983.

background image

138

[LeRi 2]

F. T. Leighton and R. L. Rivest. Estimating a probability using Finite Memory. IEEE

Trans. Information Theory

, 32(6):733–742, 1986.

[Me et al.] W. Metropolis, A. Rosenbluth, M. Rosenbluth, A. Teller and E. Teller. Equations of

state calculations by fast computing machines. J. Chem. Phys., 21:1087–1092, 1953.

[Mey]

C. D. Meyer. The role of the group generalized inverse in the theory of finite Markov

chains. SIAM Rev., 17:443–464, 1975.

[Mo]

B. Mohar. The Laplacian spectrum of graphs. In Y. Alavi et al., editor, Graph Theory,

Combinatories and Applications

, pages 871–898, J. Wiley, New York, 1991.

[Ni 1]

W. Niemiro Tail events of a “Simulated Annealing” Markov chain. Preprint, 1993.

[Ni 2]

W. Niemiro Limit distributions of Simulated Annealing Markov chains. Discussiones

Mathematicae

, 15:241–269, 1993.

[NiPo]

W. Niemiro and P. Pokarowski. Tail events of some nonhomogeneous Markov chains.

Ann. Appl. Probab.

, 5(1):261–293, 1995.

[O’C 1]

C. A. O’Cinneide. Entrywise perturbation theory and error analysis for Markov chains.

Numer. Math.

, 65:109–120, 1993.

[O’C 2]

C. A. O’Cinneide. Relative–error bounds for the LU decomposition via the GTH al-

gorithm. Numer. Math., 73:507–519, 1996.

[Pe]

V.V. Petrov Limit Theorems of Probability Theory. Sequences of Independent Random

Variables

. Oxford University Press, 1995.

[Po]

P. Pokarowski. Klasy powracaj¸ace niejednorodnych la´

ncuch´

ow Markowa z zas-

tosowaniem do analizy algorytmu Simulated Annealing. Praca magisterska, Instytut
Matematyki Stosowanej i Mechaniki Uniwersytetu Warszawskiego, Warszawa, 1993.

[Pu]

M. L. Puterman. Markov Decision Processes. Discrete stochastic dinamic program-

ming

. Wiley, New York, 1994.

[RoWi 1]

J. R. Rohlicek and A. S. Willsky. The reduction of Markov generators: An algorithm
exposing the role of transient states. J. Assoc. Comput. Mach., 35:675–696, 1988.

[RoWi 2]

J. R. Rohlicek and A. S. Willsky. Multiple time scale decomposition of discrete time
Markov chains. Systems & Control Letters, 11:309–314, 1988.

[RomSa]

F. Romeo and A. Sangiovanni–Vincentelli. A theoretical framework for simulated an-

nealing. Algorithmica, 6:367–418, 1991.

[Sch 1]

P. J. Schweitzer. Perturbation theory and finite Markov chains. J. Appl. Probab., 5:401–

413, 1968.

[Sch 2]

P. J. Schweitzer. Perturbation series expansions of nearly completely decomposable

Markov chains. Working Papers Series No. 8122, The Graduate School of Management,
University of Rochester, Rochester, NY, 1981.

[Sch 3]

P. J. Schweitzer. Perturbation series expansions of nearly completely decomposable
Markov chains. In J. W. Cohen O. J. Boxma and H. C. Tijm, editors, Telegrafic

Analysis and Computer Perfomance Evaluation

, Elsevier, North–Holland, Amsterdam,

1986.

background image

139

[Se]

E. Seneta. Nonnegative Matrices and Markov Chains. Springer, New York, second

edition, 1981.

[Shi]

A.N. Shiryayev. Probability. Nauka, Moscow, 1989 (in Russian).

[Sh]

B. O. Shubert. A flow-graph formula for the stationary distribution of a Markov chain.

IEEE Trans. Systems Man. Cybernet.

, 5:565–566, 1975.

[Si]

A. Sinclair. Improved bounds for mixing rates of Markov chains and multicommodity
flow. Combinatorics, Probability and Computing, 1:351–370, 1992.

[SiJe]

A. J. Sinclair and M. R. Jerrum. Approximate counting, uniform generation and
rapidly mixing Markov chains. Inform. Comput., 82:93–133, 1989.

[So]

A. D. Sokal. Monte Carlo Methods in Statistical Mechanics: Foudations and New

Algorithms.

Cours de Troisi´eme Cycle de la Physique en Suisse Romande, Lausanne,

June 1989 (unpublished).

[Sor]

G. B. Sorkin. Theory and Practice of Simulated Annealing on Special Energy Land-

scapes. PhD thesis, University of California at Berkeley, July 1991.

[Ste]

G. W. Stewart. Introduction to Matrix Computations. Academic Press, New York,
1973.

[Ta]

Y. Takahashi. On the effects of small deviations in the transition matrix of a finite
Markov chain. J. Operat. Res. Soc. Japan, 16:104–129, 1973.

[Ti]

L. Tierney. Markov chains for exploring posterior distribution. Ann. Statist.,
22(4):1701–1762, 1994.

[Ts 1]

J. N. Tsitsiklis. A survey of large time asymptotics of simulated annealing algorithms.
In W. Fleming and P. L. Lions, editors, Stochastic Differential Systems. Stochastic

Control Theory and Applications

, pages 583–599, Springer–Verlag, New York, 1988.

[Ts 2]

J. N. Tsitsiklis. Markov chains with rare transitions and simulated annealing. Math.

Operat. Res.

, 14(1):70–90, 1989.

[Tw]

R. L. Tweedie. Perturbations of countable Markov chains and processes. Ann. Inst.

Statistical Math.

, 32:283–290, 1980.

[Wel]

D. J. A. Welsh. Complexity: Knots, Colourings and Counting. Volume 186, London

Mathematical Society Lecture Note Series, Cambridge University Press, 1993.

[We]

A. D. Wentzell. On the asymptotics of eigenvalues of matrices with elements of order
exp(V

ij

/2ε

2

). Dokl. Akad. SSSR, 202:263–265, 1972. (In Russian; translation Soviet.

Math. Dokl.

, 13: 65–68).

[Xu]

J. Xue. A note on entrywise perturbation theory for Markov chains. Linear Algebra

and Its Applications

, 260:209–213, 1997.

[Zie]

R. Zieli´

nski. Records of simulated annealing, Stochastic optimization and design.

Preprint, 1992.

background image

140

background image

141

background image

142

background image

143

background image

144

background image

145

background image

146

background image

147


Wyszukiwarka

Podobne podstrony:
5 lancuchy markowa (2)
Graniczne własciwosci łańcuchów Markowa
lancuchy markowa
Lancuchy Markowa 06 Naskrecki p4
lancuchy markowa
lancuchy markowa
5 lancuchy markowa2 (2)
Łancuchy Markowa p17
Prognozowanie na Podstawie Łancuchów Markowa p10x2 scan!!
5 lancuchy markowa
Prognozowanie na Podstawie Łancuchów Markowa p10x2 scan!!
PODSTAWOWE OBJAWY I ALGORYTMY DIAGNOSTYCZNE 97 2003
Dariusz Mazur Algorytm grupowania oparty o łancuch reguł dyskryminacyjnych

więcej podobnych podstron