Piotr Pokarowski
Lasy skierowane i algorytmy
zwi¸
azane z la´
ncuchami Markowa
Praca doktorska napisana pod kierunkiem
doc. dra hab. Les lawa Gajka
Instytut Matematyczny
Polskiej Akademii Nauk
Warszawa 1997
Spis tre´sci
1. Wst¸ep . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2. Lasy skierowane i la´
ncuchy Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1. Podstawowe definicje i stwierdzenia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2. Rozwini¸ecia w lasy skierowane dla dope lnie´
n algebraicznych laplasjanu . . . . . . . . . 18
2.3. Rozwini¸ecia w lasy skierowane dla rozk ladu stacjonarnego i macierzy granicznej
la´
ncucha Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .23
2.4. Rozwini¸ecia w lasy skierowane dla innych charakterystyk la´
ncuch´
ow Markowa . 31
2.5. Rozwini¸ecia w lasy skierowane a warto´sci w lasne laplasjanu Markowa . . . . . . . . . . 35
3. Algorytmy dla uk lad´
ow r´
owna´
n liniowych zwi¸azanych z la´
ncuchami Markowa . . . . . . . 40
3.1. Wzgl¸ednie zaburzone la´
ncuchy Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2. Algorytmy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.3. Analiza algorytm´
ow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4. Algorytmy dla pot¸egowo zaburzonych la´
ncuch´
ow Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.1. Pot¸egowo zaburzone la´
ncuchy Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .64
4.2. Algorytmy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3. Analiza algorytm´
ow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5. Algorytmy Monte Carlo generuj¸ace la´
ncuchy Markowa dla ca lkowania . . . . . . . . . . . . . . . 99
5.1. Oszacowania b l¸edu estymacji ca lki wzgl¸edem rozk ladu stacjonarnego dla odwracal-
nych la´
ncuch´
ow Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .99
5.2. Oszacowania b l¸edu estymacji ca lki dla Θ-pot¸egowo zaburzonych, odwracalnych
la´
ncuch´
ow Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.3. Oszacowania b l¸edu dla algorytm´
ow Metropolisa–Hastingsa oraz pr´obnika Gibbsa
106
6. Algorytmy Monte Carlo generuj¸ace la´
ncuchy Markowa dla poszukiwania minimum glo-
balnego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.1. Niejednorodne la´
ncuchy Markowa. Podstawowe definicje i stwierdzenia . . . . . . . 112
6.2. Klasy powracaj¸ace niejednorodnych la´
ncuch´
ow Markowa z pot¸egowo znikaj¸acymi
przej´sciami . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.3. Osi¸agalno´s´c globalnego minimum z prawdopodobie´
nstwem 1 przez Simulated An-
nealing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
Literatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
Dodatek . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
3
1. Wst¸ep.
1.1. Praca jest po´swi¸econa problemom obliczeniowym zwi¸azanym z la´
ncuchami
Markowa ( LM) o sko´
nczonej przestrzeni stan´ow. W rozdziale 2., za pomoc¸a pew-
nych kombinatorycznych struktur — las´ow skierowanych, przedstawiam wzory i
oszacowania dla takich charakterystyk LM, jak rozk lad stacjonarny, macierz granicz-
na, ´sredni czas doj´scia do zbioru stan´ow R, czy warto´sci w lasne macierzy przej´scia
(generatora). Wzory te i oszacowania maj¸a posta´c funkcji wymiernych, kt´orych
argumentami s¸a elementy macierzy przej´scia lub generatora. Wykorzystuj¸e je do
analizy poprawno´sci, kosztu czasowego i dok ladno´sci czterech grup algorytm´ow:
(1) algorytm´ow numerycznych dla charakterystyk LM, kt´ore s¸a rozwi¸azaniami
uk lad´ow r´owna´
n liniowych (rozdzia l 3.);
(2) algorytm´ow numeryczno–kombinatorycznych dla pierwszego wyrazu rozwi-
ni¸ecia charakterystyk LM zaburzonych pot¸egowo (rozdzia l 4.);
(3) algorytm´ow Monte Carlo generuj¸acych LM dla ca lkowania funkcji na zbiorze
sko´
nczonym, takich jak np. algorytm Metropolisa czy pr´obnik Gibbsa (roz-
dzia l 5.);
(4) algorytm´ow Monte Carlo generuj¸acych niejednorodne LM dla poszukiwania
minimum funkcji na zbiorze sko´
nczonym, takich jak np. algorytm Simulated
Annealing (rozdzia l 6.).
Zwi¸azki la´
ncuch´ow Markowa i problem´ow obliczeniowych rozwa˙zanych w tej
pracy s¸a dw´och rodzaj´ow:
— albo punktem wyj´scia jest model matematyczny opisany przez LM o zadanej
macierzy przej´scia czy generatorze (tak jest w rozdzia lach 3. i 4.), natomiast
celem jest obliczenie pewnej charakterystyki tego modelu
— albo przeciwnie, punktem wyj´scia jest pewien problem obliczeniowy (w roz-
dziale 5. — ca lkowanie, w rozdziale 6. — optymalizacja), natomiast celem
jest analiza algorytm´ow rozwi¸azuj¸acych ten problem, modelowanych za po-
moc¸a LM .
1.2. Dla bardziej precyzyjnego opisu tre´sci pracy konieczne b¸ed¸a nast¸epuj¸ace
definicje.
4
Niech S b¸edzie ustalonym, niepustym zbiorem sko´
nczonym oraz E
⊆ S × S.
Za l´o˙zmy dla wygody, ˙ze S =
{1, 2, . . . , s}. Par¸e g := (S, E) nazywa´c b¸edziemy
grafem skierowanym o zbiorze wierzcho lk´ow (stan´ow) S i zbiorze kraw¸edzi E.
Podgrafem g
1
grafu g nazywa´c b¸edziemy par¸e (S
1
, E
1
) tak¸a, ˙ze S
1
⊆ S oraz E
1
⊆
E
∩ (S
1
× S
1
). Je´sli S
1
= S to podgraf g
1
grafu g nazywa´c b¸edziemy rozpinaj¸acym.
B¸edziemy m´owi´c, ˙ze istnieje droga ze stanu i do j, je˙zeli i = j lub istnieje liczba
n
≥ 2 oraz ci¸ag stan´ow i = i
1
, i
2
, . . . , i
n
= j taki, ˙ze i
k
∈ S oraz (i
k
, i
k+1
)
∈ E dla
k = 1, . . . , n
− 1. Cyklem nazywa´c b¸edziemy drog¸e z danego stanu do tego samego
stanu.
Lasem skierowanym rozpinaj¸acym w g, lub po prostu lasem, nazywa´c b¸edziemy
podgraf skierowany bez cykli f := (S, E
f
) grafu g, w kt´orym z ka˙zdego wierzcho lka
wychodzi co najwy˙zej jedna kraw¸ed´z. Zbi´or wierzcho lk´ow R
⊆ S, z kt´orych nie
wychodzi ˙zadna kraw¸ed´z lasu f nazywa´c b¸edziemy korzeniem f . Rysunek 1.1.1
w Dodatku przedstawia pewien graf skierowany g. Stany s¸a reprezentowane jako
k´o lka, natomiast kraw¸edzie jako strza lki. Rysunek 1.1.2 przedstawia las skierowany
o korzeniu R w grafie g.
Niech A = (a
ij
)
i,j∈S
b¸edzie macierz¸a kwadratow¸a wymiaru s
× s (s ≥ 2) nad
cia lem liczb zespolonych C. Grafem skierowanym wa˙zonym, indukowanym przez A,
nazywa´c b¸edziemy macierz A wraz z grafem g(A) := (S, E), gdzie E =
{(i, j) ∈
S
× S : a
ij
6= 0}. Wag¸a multiplikatywn¸a lasu f = (S, E
f
), w grafie g(A), nazywa´c
b¸edziemy liczb¸e
w(f ) :=
Y
(i,j)∈E
f
(
−a
ij
) (przyjmiemy w((S,
∅)) := 1).
Wag¸a zbioru las´ow F , w grafie g(A), nazywa´c b¸edziemy liczb¸e
w(F ) :=
X
f ∈F
w(f ) (przyjmiemy w(
∅) := 0).
Laplasjanem nazywa´c b¸edziemy dowoln¸a macierz L := (l
ij
)
s
i,j=1
nad cia lem C
tak¸a, ˙ze l
ii
=
−
P
j: j6=i
l
ij
dla i = 1, . . . , s. Dla ustalonego R
⊆ S, L(R
R) oznacza´c
b¸edzie macierz powsta l¸a z L przez usuni¸ecie wierszy i kolumn o indeksach nale˙z¸acych
do R.
Niech dana b¸edzie przestrze´
n probabilistyczna (Ω,
F, Pr) oraz la´ncuch Markowa
( LM) X = (X
t
)
t∈T
okre´slony na (Ω,
F) o przestrzeni stan´ow S. W przypadku czasu
dyskretnego (T
⊆ N), la´ncuchy Markowa wprowadza si¸e najcz¸e´sciej za pomoc¸a
5
macierzy przej´scia P = (p
ij
)
i,j∈S
, natomiast w przypadku czasu ci¸ag lego (T
⊆ R
+
)
— za pomoc¸a generatora Q = (q
ij
)
i,j∈S
. Niech I
s
oznacza macierz jednostkow¸a
rz¸edu s
× s. Latwo zauwa˙zy´c, ˙ze macierze L(P) = I
s
− P oraz L(Q) = −Q s¸a
laplasjanami. Wiele z podanych dalej fakt´ow nie zale˙zy od tego, czy czas jest ci¸ag ly
czy dyskretny, dlatego te˙z dla jednolito´sci rozwa˙za´
n la´
ncuch Markowa b¸edziemy
wprowadza´c za pomoc¸a laplasjanu Markowa, tzn. laplasjanu, kt´orego elementy
niediagonalne s¸a rzeczywiste i niedodatnie.
1.3. W rozdziale 2., w lematach 2.2 i 2.3 podaj¸e nast¸epuj¸ace rozwini¸ecia w lasy
skierowane dla wyznacznika oraz dla wyraz´ow macierzy odwrotnej do macierzy
L(R
R):
det L(R
R) = w(F (R)) oraz
L(R
R)
−1
=
w(F
ij
(R, j))
w(F (R))
i,j∈S
,
gdzie F (R) jest zbiorem las´ow w grafie g(L) o korzeniu R oraz F
ij
(R, j) — zbiorem
las´ow w grafie g(L) o korzeniu R
∪ {j}, w kt´orych istnieje droga ze stanu i do stanu
j. W dowodzie wykorzystuj¸e og´oln¸a wersj¸e tzw. “Matrix–tree theorem” ([Cha],
[Che, problem 4.16]).
Za pomoc¸a lematu 2.2 dowodz¸e znane twierdzenia przedstawiaj¸ace charakterysty-
ki LM jako rozwi¸azania uk lad´ow r´owna´
n liniowych (twierdzenie 2.1 (1), twierdzenie
2.1 (2) (b) i (c), twierdzenie 2.2, twierdzenie 2.5, wniosek 2.4). Podane dowody
s¸a inne od dowod´ow znanych w literaturze, poniewa˙z nie korzysta lem w nich z
argument´ow analitycznych (twierdzenie Perrona–Frobeniusa, lemat von Neumanna,
redukcja do przypadku la´
ncucha poch laniaj¸acego lub teoria uog´olnionej odwrotno´sci
— patrz np. [KeSn 1–2], [Mey], [IsMa], [Se], [Io], [Pu]). Lemat 2.2 wykorzystuj¸e
ponadto do oszacowania warto´sci w lasnych laplasjanu Markowa (twierdzenia 2.6 i
2.7).
Z lematu 2.3 otrzymuj¸e w prosty spos´ob rozwini¸ecia w lasy skierowane dla charak-
terystyk LM, kt´ore s¸a rozwi¸azaniami uk lad´ow r´owna´
n liniowych zwi¸azanych z pod-
macierzami L(R
R) laplasjanu Markowa L.
Niekt´ore rozwini¸ecia w lasy skierowane by ly ju˙z znane — nowe s¸a tylko dowody.
Tak jest dla rozk ladu stacjonarnego (twierdzenie 2.1 (2) (a) — patrz np. [Al 3],
[FrWe 1–2]), ´sredniego czasu doj´scia do ustalonego zbioru stan´ow R (twierdzenie
6
2.4 (3) — patrz [FrWe 1–2]), czy rozk ladu prawdopodobie´
nstwa w chwili doj´scia
do zbioru R (twierdzenie 2.4 (2) — patrz [FrWe 1–2]). Z kolei rozwini¸ecia w lasy
skierowane dla macierzy granicznej (twierdzenie 2.3) s¸a lepsze od rozwini¸e´c znanych
w literaturze (patrz np. [LeRi 1–2], [AnTs]). Natomiast pozosta le rozwini¸ecia
(twierdzenie 2.4 (1) i (3)) wydaj¸a si¸e by´c wcze´sniej nieznane.
W dalszej cz¸e´sci pracy wykorzystuj¸e rozwini¸ecia w lasy skierowane do konstrukcji
i analizy algorytm´ow obliczaj¸acych charakterystyki LM. Idea jest nast¸epuj¸aca.
Korzystaj¸ac ze wzor´ow Cramera mo˙zna przedstawi´c rozwi¸azanie uk ladu r´owna´
n
liniowych w postaci ilorazu wyznacznik´ow.
Mo˙zna by nast¸epnie rozwija´c wy-
znaczniki (z definicji) w sumy po permutacjach. W ten spos´ob otrzymaliby´smy
bezpo´srednie wzory na rozwi¸azanie uk ladu r´owna´
n liniowych, ale by lyby to wzory
z wieloma “plusami” i “minusami”. Rozwini¸ecia w lasy skierowane dla dowolnego
rozwi¸azania uk ladu r´owna´
n liniowych zwi¸azanego z podmacierzami g l´ownymi laplas-
janu Markowa nie maj¸a “minus´ow” wcale albo maj¸a ich niewiele. Dlatego lepiej
nadaj¸a si¸e do r´o˙znego rodzaju oblicze´
n i oszacowa´
n.
Rozwini¸ecia w lasy skierowane jako metoda oszacowa´
n by ly ju˙z wcze´sniej u˙zywane
(np. [BoMa], [Ta], [FrWe 1–2], [We], [Se], [Tw], [HwSh 1–2], [ChiCho 1–4], [Ca],
[DeKuKu]) — nowa jest og´olno´s´c rozwa˙za´
n i zakres zastosowa´
n metody.
1.4. W rozdziale 3., w twierdzeniu 3.1 wykorzystuj¸e lemat 2.3 do oszacowa-
nia wp lywu zaburzenia (wywo lanego reprezentacj¸a zmiennoprzecinkow¸a) laplasjanu
Markowa L i nieujemnego wektora b = (b
k
)
k∈S\R
na rozwi¸azanie uk ladu r´owna´
n
liniowych postaci
L(R
R)x = b
(1.1)
lub
L
T
(R
R)x = b
(1.2)
Dzi¸eki temu mog¸e oszacowa´c wp lyw zaburzenia laplasjanu Markowa na charaktery-
styki LM.
W dalszej kolejno´sci przedstawiam algorytmy 3.1 i 3.2 rozwi¸azuj¸ace uk lady (1.1)
i (1.2). S¸a to uog´olnienia wariant´ow metody eliminacji Gaussa, skonstruowanych
odpowiednio dla:
7
— obliczania rozk ladu stacjonarnego LM o nieprzywiedlnej macierzy przej´scia
(Grassmann, Taksar i Heyman [GrTaHe]) oraz
— obliczania ´sredniego czasu doj´scia do ustalonego zbioru stan´ow R
⊆ S (Hey-
man i Reeves [HeRe]).
Algorytmy 3.1 i 3.2 nie wykonuj¸a odejmowania, dlatego te˙z s¸a dok ladniejsze od
metody eliminacji Gaussa. Na ko´
ncu rozdzia lu 3. (twierdzenie 3.5) podaj¸e osza-
cowania wzgl¸ednego b l¸edu rozwi¸azania (entrywise relative error) algorytm´ow 3.1 i
3.2.
Szczeg´olnym przypadkiem mojego wyniku jest oszacowanie wzgl¸ednego b l¸edu
rozwi¸azania dla algorytmu Grassmanna, Taksara i Heymana podane przez O’Cin-
neide’a [O’C 1].
Powodem zainteresowania algorytmami rozwa˙zanymi w tej cz¸e´sci pracy s¸a wyma-
gania du˙zej dok ladno´sci, stawiane programom komputerowym, kt´ore automatycznie
projektuj¸a i analizuj¸a modele kolejkowe wyst¸epuj¸ace w informatyce i telekomunikacji
(patrz np. [HeRe], [Gr], [O’C 1]).
1.5. W rozdziale 4. rozwa˙zam rodzin¸e pot¸egowo zaburzonych laplasjan´ow Mar-
kowa L(ε) i wektor´ow nieujemnych b(ε), ε
∈ (0, ε
1
), wyznaczon¸a przez macierz
∆ = (δ
ij
)
i,j∈S
, gdzie δ
ij
6= 0 dla i, j ∈ S, macierz D = (d
ij
)
i,j∈S
, zbi´or R
⊂ S oraz
wektory ζ = (ζ
k
)
k∈S\R
, z = (z
k
)
k∈S\R
spe lniaj¸ace nast¸epuj¸acy warunek:
dla dowolnych i, j
∈ S, i 6= j, k ∈ S \ R
− l
ij
(ε) = δ
ij
ε
d
ij
+ o(ε
d
ij
) oraz
(1.3)
b
k
(ε) = ζ
k
ε
z
k
+ o(ε
z
k
),
przy ε
→ 0.
1
)
Rodzina ta zawiera, wyst¸epuj¸ac¸a cz¸esto w literaturze, rodzin¸e liniowo zaburzonych
LM, tj. rodzin¸e, kt´orej elementy s¸a postaci
L(ε) = L
0
+ εL
1
oraz b(ε) = b
0
+ εb
1
,
gdzie L
0
i L
1
s¸a laplasjanami Markowa oraz b
0
i b
1
— nieujemnymi wektorami
s
− |R| wyrazowymi.
1
) Je˙zeli dla dostatecznie ma lych ε, l
ij
(ε) = 0 (odpowiednio b
k
(ε) = 0), to przyjmiemy dla
jednolito´sci rozwa˙za´
n δ
ij
:= 0, d
ij
:=
∞ (odpowiednio ζ
k
:= 0, z
k
:=
∞).
8
Z lematu 2.3 wynika, ˙ze istniej¸a wektory α := (α
k
)
k∈S\R
oraz a := (a
k
)
k∈S\R
takie, ˙ze rozwi¸azanie x(ε) := (x
k
(ε))
k∈S\R
zaburzonego uk ladu r´owna´
n
L(R
R)(ε)x(ε) = b(ε) lub L
T
(R
R)(ε)x(ε) = b(ε)
jest postaci
x
k
(ε) = α
k
ε
a
k
+ o(ε
a
k
),
przy ε
→ 0, k ∈ S \ R.
G l´ownym rezultatem tego rozdzia lu jest podanie algorytm´ow obliczaj¸acych efek-
tywnie i dok ladnie wektory α oraz a za pomoc¸a parametr´ow ∆, D, ζ, z (algorytmy
4.1–4.7). Algorytmy 4.1 i 4.2 s¸a uog´olnieniami algorytm´ow 3.1 i 3.2. Algorytmy
4.3–4.6 grupuj¸a iteracyjnie stany LM nale˙z¸ace do tej samej klasy zamkni¸etej w
pewnych grafach zale˙znych od D, a nast¸epnie rozwi¸azuj¸a uk lady r´owna´
n liniowych
ograniczone do poszczeg´olnych klas. W dowodach poprawno´sci tych algorytm´ow
wykorzystuj¸e lemat 2.3. Najbardziej z lo˙zonym algorytmem w tej pracy jest algo-
rytm 4.7, kt´ory wykorzystuje jako procedury algorytmy rozwa˙zane poprzednio do
obliczania wsp´o lczynnik´ow pierwszego wyrazu rozwini¸ecia macierzy granicznej.
Wyniki tej cz¸e´sci pracy s¸a uog´olnieniem i rozwini¸eciem rezultat´ow:
— Schweitzera [Sch 1–3], gdzie podano algorytm dla kolejnych wyraz´ow rozwi-
ni¸ecia rozk ladu stacjonarnego liniowo zaburzonego nieprzywiedlnego LM,
— Hassima i Haviva [HasHav], gdzie podano algorytm dla rz¸ed´ow wielko´sci
´srednich czas´ow przej´scia mi¸edzy stanami w przypadku liniowo zaburzonej,
nieprzywiedlnej macierzy przej´scia,
— Desai i Kumar´ow [DeKuKu], gdzie podano algorytm dla rz¸ed´ow wielko´sci
rozk ladu stacjonarnego pewnych la´
ncuch´ow Markowa zaburzonych pot¸ego-
wo.
Motywacj¸a dla rozwa˙za´
n w tej cz¸e´sci pracy s¸a m.in.:
— potrzeby przybli˙zonego obliczania charakterystyk LM zadanych przez du˙ze,
rozrzedzone macierze przej´scia (generatory), kt´orych elementy maj¸a zr´o˙zni-
cowane rz¸edy wielko´sci, oraz
— potrzeby analizy modeli markowowskich w zale˙zno´sci od pewnego parametru
(patrz np. [Sch 1–3], [HasHav], [HavRi], [BiFi], [BiSt], [RoWi 1–2]).
9
1.6. W dw´och ostatnich rozdzia lach analizuj¸e asymptotyczne zachowanie algo-
rytm´ow adaptacyjnych Monte Carlo dla ca lkowania i poszukiwania minimum funkcji
okre´slonej na zbiorze sko´
nczonym. Algorytmy takie generuj¸a LM, czyli b l¸adzenie
losowe po dziedzinie funkcji zale˙zne od jej warto´sci.
Na wst¸epie rozdzia lu 5. (wniosek 5.1, stwierdzenia 5.1–5.2) szacuj¸e b l¸ad estymacji
ca lki dowolnej funkcji f : S
→ R wzgl¸edem rozk ladu stacjonarnego π = (π
i
)
i∈S
odwracalnego la´
ncucha Markowa za pomoc¸a ´sredniej po trajektorii
¯
f
t
(ω) :=
1
t
t−1
X
j=0
f (X
j
(ω)), ω
∈ Ω.
Z kolei rozwa˙zam rodzin¸e odwracalnych laplasjan´ow Markowa z czasem dyskret-
nym
{L(ε), ε ∈ (0, ε
1
)
}, indukowan¸a przez tak¸a macierz D = (d
ij
)
i,j∈S
, ˙ze dla
i, j
∈ S, i 6= j,
− l
ij
(ε) = Θ(ε
d
ij
) przy ε
→ 0.
(1.4)
W twierdzeniu 5.2 dowodz¸e, ˙ze warto´sci w lasne laplasjan´ow z rodziny (1.4) spe lniaj¸a
asymptotyczne r´owno´sci
λ
k
(ε) = Θ(ε
v
k
(D)
) przy ε
→ 0,
gdzie k = 2, . . . , s oraz sta le v
k
(D) wyra˙zaj¸a si¸e za pomoc¸a rozwini¸e´c w lasy
skierowane. W dowodzie korzystam z oszacowa´
n warto´sci w lasnych podanych w
twierdzeniu 2.6.
Oba powy˙zsze wyniki wykorzystuj¸e do oszacowania b l¸edu estymacji ca lki wzgl¸e-
dem rozk ladu stacjonarnego laplasjan´ow z rodziny (1.4) za pomoc¸a ´sredniej po
trajektorii ¯
f
ε
t
(twierdzenie 5.3), np. b l¸ad L
p
jest rz¸edu
O(ε
−v
2
(D)/2
),
przy ε
→ 0,
oraz rz¸edu
O(t
−1/2
),
przy t
→ ∞.
W ostatniej cz¸e´sci rozdzia lu 5. wykorzystuj¸e twierdzenie 5.3 do analizy b l¸edu algo-
rytm´ow Monte Carlo dla ca lkowania funkcji. Ponadto pokazuj¸e, ˙ze w du˙zej rodzinie
odwracalnych LM, zawieraj¸acej m.in.
algorytm Metropolisa, algorytm Barkera
i pr´obnik Gibbsa, ka˙zdy parametr v
k
(D) jest sta ly. Algorytmy te s¸a u˙zywane
od ponad 40 lat do estymacji globalnych charakterystyk w modelach mechaniki
10
statystycznej (patrz np. [Me et al.], [So], [Gi], [Wel]). Moje wyniki potwierdzaj¸a
do´swiadczenie numeryczne wskazuj¸ace na podobn¸a efektywno´s´c powy˙zszych algo-
rytm´ow w granicy niskich temperatur (ε
→ 0).
Rezultaty tego rozdzia lu s¸a uog´olnieniem wynik´ow Ingrassi [In], gdzie oszacowano
drug¸a warto´s´c w lasn¸a dla algorytmu Metropolisa i pr´obnika Gibbsa w przypadku
regularnej struktury grafu g(L) oraz wzmocnieniem wynik´ow Chianga i Chowa [Chi-
Cho 4], gdzie udowodniono logarytmiczn¸a r´ownowa˙zno´s´c warto´sci w lasnych algo-
rytmu Metropolisa i pr´obnika Gibbsa.
1.7. Rozdzia l 6. jest po´swi¸econy niejednorodnym LM z czasem dyskretnym (s¸a to
la´
ncuchy, kt´orych macierze przej´scia zmieniaj¸a si¸e w czasie). Na wst¸epie uog´olniam
poj¸ecia klasy zamkni¸etej, klasy powracaj¸acej, stanu powracaj¸acego oraz podaj¸e
podstawowe w lasno´sci wprowadzonych poj¸e´c. Nast¸epnie wprowadzam klas¸e niejed-
norodnych LM indukowanych przez macierz D = (d
ij
)
i,j∈s
oraz ci¸ag (ε
t
)
t≥0
takie, ˙ze
dla i, j
∈ S, i 6= j, d
ij
∈ R ∪ {∞}, ε
t
ց 0 przy t → ∞ oraz
Pr
{X
t+1
= j
X
t
= i
} = Θ(ε
d
ij
t
) przy t
→ ∞.
(1.5)
Rodzina ta zawiera m.in. la´
ncuchy jednorodne oraz la´
ncuchy generowane przez
Simulated Annealing — stochastyczny algorytm optymalizacyjny. Algorytm ten jest
u˙zywany od 1982 roku przez firmy p´o lprzewodnikowe do projektowania uk lad´ow
scalonych o wysokim stopniu integracji (VLSI) (patrz np.
[KiGeVe], [LaAa],
[RomSa], [Sor]).
G l´ownym rezultatem tego rozdzia lu jest twierdzenie 6.1, w kt´orym opisuj¸e klasy
powracaj¸ace i stany powracaj¸ace la´
ncuch´ow postaci (1.5) za pomoc¸a rozwini¸e´c w
lasy skierowane, kt´ore zale˙z¸a od macierzy D oraz pewnej liczby zale˙znej od ci¸agu
(ε
t
)
t≥0
. Powy˙zszy wynik wykorzystuj¸e do charakteryzacji warunk´ow osi¸agalno´sci,
z prawdopodobie´
nstwem 1, minimum globalnego przez Simulated Annealing (wnio-
sek 6.2). Jest to jedynie analiza asymptotycznej poprawno´sci algorytmu, poniewa˙z
Simulated Annealing generuje skomplikowany LM postaci (1.4), kt´orego zachowanie
“w czasie sko´
nczonym” nie jest znane.
Wyniki tego rozdzia lu s¸a uog´olnieniem rezultat´ow Connorsa i Kumara ([Con],
[ConKu 1–2]), gdzie scharakteryzowano osi¸agalno´s´c, z prawdopodobie´
nstwem 1,
11
minimum globalnego przez “s labo odwracalny” Simulated Annealing oraz s¸a cz¸e´scio-
wo oparte na mojej pracy magisterskiej [Po] oraz na wsp´olnej pracy z W. Niemiro
[NiPo].
1.8. Wyniki rozdzia lu 3. i 4. dotycz¸a uk lad´ow r´owna´
n liniowych zwi¸azanych z
odwracalnymi macierzami postaci L(R
R), gdzie L jest laplasjanem Markowa. Ko-
rzystaj¸ac z definicji zawartych w monografii Horna i Johnsona [HoJo 2, rozdzia l 2],
lematu 2.2 oraz wniosku 2.3 mo˙zna pokaza´c, ˙ze macierz A jest odwracaln¸a pod-
macierz¸a g l´own¸a laplasjanu Markowa wtedy i tylko wtedy, gdy A jest diagonalnie
dominuj¸ac¸a M-macierz¸a.
12
2. Lasy skierowane i la´
ncuchy Markowa.
2.1. Podstawowe definicje i stwierdzenia.
Niech S b¸edzie ustalonym, niepustym zbiorem sko´
nczonym oraz E
⊆ S × S.
Za l´o˙zmy dla wygody, ˙ze S =
{1, 2, . . . , s}. Par¸e g := (S, E) nazywa´c b¸edziemy
grafem skierowanym o zbiorze wierzcho lk´ow (stan´ow) S i zbiorze kraw¸edzi E. Graf
g, w kt´orym E = S
× S nazywa´c b¸edziemy zupe lnym.
Podgrafem g
1
grafu g nazywa´c b¸edziemy par¸e (S
1
, E
1
) tak¸a, ˙ze S
1
⊆ S oraz E
1
⊆
E
∩ (S
1
× S
1
). Je´sli S
1
= S to podgraf g
1
grafu g nazywa´c b¸edziemy rozpinaj¸acym.
B¸edziemy m´owi´c, ˙ze stan j
∈ S jest osi¸agalny ze stanu i ∈ S lub r´ownowa˙znie:
istnieje droga ze stanu i do j (oznaczenie i
→ j), je˙zeli i = j lub istnieje liczba
n
≥ 2 oraz ci¸ag stan´ow i = i
1
, i
2
, . . . , i
n
= j taki, ˙ze i
k
∈ S oraz (i
k
, i
k+1
)
∈ E dla
k = 1, . . . , n
− 1. Cyklem nazywa´c b¸edziemy drog¸e z danego stanu do tego samego
stanu.
Stan i
∈ S b¸edziemy nazywa´c istotnym, je´sli dla dowolnego j ∈ S z warunku
i
→ j wynika, ˙ze j → i. W przeciwnym przypadku stan i b¸edziemy nazywa´c
nieistotnym. Stan i
∈ S b¸edziemy nazywa´c poch laniaj¸acym, je´sli nie istnieje j ∈ S,
j
6= i taki, ˙ze i → j. Je´sli i → j oraz j → i, to powiemy, ˙ze stany i, j komunikuj¸a
si¸e ze sob¸a (i
↔ j).
Graf g nazywa´c b¸edziemy silnie sp´ojnym, je˙zeli dla dowolnych i, j
∈ S, i → j.
Graf g nazywa´c b¸edziemy s labo sp´ojnym, je˙zeli istnieje j
∈ S taki, ˙ze dla dowolnego
i
∈ S, i → j.
Niepusty podzbi´or M zbioru stan´ow S nazywa´c b¸edziemy zbiorem zamkni¸etym, w
grafie g = (S, E), je´sli nie istniej¸a stany i
∈ M, j ∈ S \ M takie, ˙ze (i, j) ∈ E. Klas¸a
zamkni¸et¸a w g nazywa´c b¸edziemy minimalny w sensie inkluzji zbi´or zamkni¸ety w g.
Lasem skierowanym rozpinaj¸acym w g, lub po prostu lasem, nazywa´c b¸edziemy
podgraf skierowany bez cykli f := (S, E
f
) grafu g, w kt´orym z ka˙zdego wierzcho lka
wychodzi co najwy˙zej jedna kraw¸ed´z. Zbi´or wierzcho lk´ow R
⊆ S, z kt´orych nie
wychodzi ˙zadna kraw¸ed´z lasu f nazywa´c b¸edziemy korzeniem f . Las o korzeniu jed-
noelementowym nazywa´c b¸edziemy drzewem skierowanym rozpinaj¸acym. Latwo za-
uwa˙zy´c, ˙ze korze´
n R lasu f jest zawsze niepusty oraz, ˙ze dla dowolnego i
6∈ R istnieje
dok ladnie jedna droga prowadz¸aca ze stanu i do pewnego stanu j
∈ R. Tam, gdzie
nie b¸edzie prowadzi lo to do nieporozumienia, las f b¸edziemy uto˙zsamia´c ze zbiorem
13
jego kraw¸edzi E
f
. Rysunek 1.1.1 w Dodatku przedstawia pewien graf skierowany
g. Stany s¸a reprezentowane jako k´o lka, natomiast kraw¸edzie jako strza lki. Rysunek
1.1.2 przedstawia las skierowany o korzeniu R w grafie g.
Zbi´or wszystkich las´ow zawartych w g, o korzeniu R, oznacza´c b¸edziemy F (R),
przy czym pisa´c b¸edziemy F (i
1
, i
2
, . . . , i
m
) zamiast F (
{i
1
, i
2
, . . . , i
m
}). Dla i 6∈ R
oraz j
∈ R, F
ij
(R) oznacza´c b¸edzie podzbi´or F (R) sk ladaj¸acy si¸e z las´ow o korzeniu
R, w kt´orych istnieje droga prowadz¸aca z wierzcho lka i do j. Je˙zeli i
∈ R, to
przyjmiemy dla jednolito´sci rozwa˙za´
n, ˙ze F
ii
(R) := F (R).
Niech A = (a
ij
)
i,j∈S
b¸edzie macierz¸a kwadratow¸a wymiaru s
× s (s ≥ 2) nad
cia lem liczb zespolonych C. Grafem skierowanym wa˙zonym, indukowanym przez A,
nazywa´c b¸edziemy macierz A wraz z grafem g(A) := (S, E), gdzie E =
{(i, j) ∈
S
× S : a
ij
6= 0}. Wag¸a multiplikatywn¸a lasu f = (S, E
f
), w grafie g(A), nazywa´c
b¸edziemy liczb¸e
w(f ) :=
Y
(i,j)∈E
f
(
−a
ij
)
(przyjmiemy w((S,
∅)) := 1).
Wag¸a zbioru las´ow F , w grafie g(A), nazywa´c b¸edziemy liczb¸e
w(F ) :=
X
f ∈F
w(f )
(przyjmiemy w(
∅) := 0).
Je´sli F = F (R) dla pewnego R
⊆ S, to pisa´c b¸edziemy w(R) zamiast w(F (R)),
poniewa˙z ustalony zbi´or R
⊆ S wyznacza jednoznacznie zbi´or wszystkich las´ow o
korzeniu R. Przyjmijmy ponadto dla i
∈ S, j, k ∈ S \ R, l ∈ R, w(i) := w({i}),
w
jk
(R, k) := w[F
jk
(R
∪ {k})] oraz w
kl
(R) := w[F
kl
(R)].
Macierz A nazywa´c b¸edziemy nieprzywiedln¸a, je´sli nie istnieje macierz permutacji
B oraz macierze kwadratowe A
11
i A
22
takie, ˙ze
B
−1
AB =
"
A
11
0
A
21
A
22
#
.
Macierz A nazywa´c b¸edziemy jednoklasow¸a, je´sli nie istnieje macierz permutacji
B oraz macierze kwadratowe A
11
, A
22
i A
33
takie, ˙ze
B
−1
AB =
A
11
0
0
A
22
A
31
A
32
A
33
.
Latwo udowodni´c nast¸epuj¸ace stwierdzenia.
14
Stwierdzenie 2.1.
(1) Ka˙zdy graf ma przynajmniej jedn¸a klas¸e zamkni¸et¸a.
(2) Ka˙zdy graf ma przynajmniej jeden stan istotny.
Stwierdzenie 2.2.
(1) Relacja “
↔” jest relacj¸a r´ownowa˙zno´sci.
(2) M
⊆ S jest klas¸a zamkni¸et¸a wtedy i tylko wtedy, gdy M jest klas¸a abstrakcji
relacji “
↔” z lo˙zon¸a ze stan´ow istotnych;
(3) Stan i
∈ S jest istotny wtedy i tylko wtedy, gdy i nale˙zy do pewnej klasy
zamkni¸etej M
⊆ S.
Stwierdzenie 2.3. Niech A b¸edzie macierz¸a s
× s. Wtedy nast¸epuj¸ace warunki s¸a
r´ownowa˙zne.
(1) A jest nieprzywiedlna.
(2) g(A) jest silnie sp´ojny.
(3) W grafie g(A) dla dowolnych stan´ow i, j
∈ S, i → j.
(4) W grafie g(A) dla dowolnego stanu j
∈ S, istnieje drzewo o korzeniu j.
(5) S jest klas¸a zamkni¸et¸a.
Stwierdzenie 2.4. Niech A b¸edzie macierz¸a s
× s. Wtedy nast¸epuj¸ace warunki s¸a
r´ownowa˙zne.
(1) A jest jednoklasowa.
(2) g(A) jest s labo sp´ojny.
(3) W grafie g(A) istnieje stan j
∈ S taki, ˙ze dla dowolnego i ∈ S, i → j.
(4) W grafie g(A) dla pewnego stanu j
∈ S, istnieje drzewo o korzeniu j.
(5) W grafie g(A) istnieje dok ladnie jedna klasa zamkni¸eta M
⊆ S.
Stwierdzenie 2.5. Niech A b¸edzie macierz¸a s
× s, kt´orej elementy niediagonal-
ne s¸a rzeczywiste i niedodatnie oraz niech R
⊆ S. Wtedy nast¸epuj¸ace warunki s¸a
r´ownowa˙zne.
(1) W grafie g(A) istnieje las o korzeniu R.
(2) w(R)
6= 0.
15
(3) w(R) > 0.
Ze stwierdzenia 2.2 wynika, ˙ze zbi´or stan´ow grafu g(A) mo˙zna podzieli´c na m
≥ 1
klas zamkni¸etych C
k
(k = 1, . . . , m) oraz, by´c mo˙ze pusty, zbi´or stan´ow nieistotnych
T . Je´sli przyjmiemy C = C
1
.
∪ . . .
.
∪ C
m
2
), to C b¸edzie zbiorem stan´ow istotnych
oraz S = C
.
∪ T . Po przenumerowaniu wszystkich stan´ow w ten spos´ob, ˙ze stany
istotne nale˙z¸ace do tej samej klasy zamkni¸etej oznaczane s¸a kolejnymi numerami
oraz stany nieistotne maj¸a wi¸eksze numery od stan´ow istotnych, macierz A mo˙zna
przedstawi´c w postaci kanonicznej:
A =
A
1
0
A
2
. ..
0
A
m
B
1
B
2
. . .
B
m
B
m+1
,
(2.1)
gdzie A
k
(k = 1, . . . , m) jest nieprzywiedln¸a podmacierz¸a kwadratow¸a macierzy A,
odpowiadaj¸ac¸a kraw¸edziom mi¸edzy stanami nale˙z¸acymi do klasy C
k
, podmacierz
B
k
odpowiada kraw¸edziom mi¸edzy stanami nieistotnymi a stanami istotnymi z
klasy C
k
, natomiast podmacierz kwadratowa B
m+1
odpowiada kraw¸edziom mi¸edzy
stanami nieistotnymi. Na pozosta lych miejscach macierzy A znajduj¸a si¸e zera.
Poni˙zszy algorytm, napisany w notacji “pseudopascalowej”, znajduje podzia l
zbioru S na klasy zamkni¸ete i zbi´or stan´ow nieistotnych w grafie g = (S, E).
B¸edziemy go wykorzystywa´c do sprowadzania macierzy do postaci kanonicznej oraz
w algorytmach rozdzia lu 4. jako procedur¸e. Jest to uog´olnienie algorytmu Foxa i
Landiego [FoLa], [Pu, str. 590], kt´ory sprowadza macierz stochastyczn¸a do postaci
kanonicznej. Ze wzgl¸edu na latwo´s´c oblicze´
n na liczbach binarnych, graf g reprezen-
tujemy w postaci macierzy s¸asiedztwa A(g) := (a
ij
)
i,j∈S
takiej, ˙ze a
ij
= 1 je´sli
(i, j)
∈ E oraz a
ij
= 0 w przeciwnym przypadku.
2
) Symbol “
.
∪” oznacza´c b¸edzie sum¸e zbior´ow roz l¸acznych
16
Algorytm 2.1.
input: Graf skierowany (S, E) w postaci macierzy s¸asiedztwa (a
ij
)
i,j∈S
bez elemen-
t´ow diagonalnych.
output: Klasy zamkni¸ete w grafie (S, E).
begin
U := S;
W := S;
for i
∈ S do S(i) := {i};
{
U oznacza zbi´or stan´ow, o kt´orych nie wiadomo, czy s¸a nieistotne, czy
te˙z s¸a istotne i nale˙z¸a do pewnej klasy zamkni¸etej. W oznacza robocz¸a
przestrze´
n stan´ow nie sklasyfikowanych. Zbiory S(i), gdzie i
∈ W , tworz¸a
podzia l zbioru S. Zapisywane do pliku “output” elementy tego podzia lu
s¸a klasami zamkni¸etymi w grafie (S, E)
}
while U
6= ∅ do begin
Wybierz i
∈ W ; k := 0; i
k
:= i;
while i
k
nie jest poch laniaj¸acy do begin
{
Konstruujemy drog¸e, kt´ora albo prowadzi do stanu poch laniaj¸acego w
roboczym grafie zwi¸azanym z W , albo jest cyklem
}
Wybierz j
∈ W takie, ˙ze j 6= i
k
oraz a
i
k
j
= 1;
k := k + 1; i
k
:= j;
if istnieje 0
≤ r < k takie, ˙ze i
k
= i
r
then begin
{
Scalamy cykl (i
r
, . . . , i
k
) w jeden stan i
r
}
for j
∈ W , j 6= i
r
do begin
a
i
r
j
:= a
i
r
j
or . . . or
a
i
k
j
;
a
ji
r
:= a
ji
r
or . . . or
a
ji
k
end;
S(i
r
) := S(i
r+1
)
∪ . . . ∪ S(i
k
);
W := W
\ {i
r+1
, . . . , i
k
}
end
end;
17
write (S(i
k
));
U := U
\ S(i
k
); I :=
{i
k
};
while I
6= ∅ do begin
{
Usuwamy stany nieistotne osi¸agaj¸ace S(i
k
)
}
J :=
∅;
for i
∈ I, j ∈ W \ I takich, ˙ze a
ji
= 1 do begin
U := U
\ S(j);
J := J
∪ {j}
end;
I := J
end
end
end.
Latwo zauwa˙zy´c, ˙ze algorytm 2.1 znajduje wszystkie klasy zamkni¸ete w grafie
kosztem O(s
2
) dzia la´
n arytmetycznych.
Laplasjanem nazywa´c b¸edziemy dowoln¸a macierz L := (l
ij
)
s
i,j=1
nad cia lem C
tak¸a, ˙ze l
ii
=
−
P
j: j6=i
l
ij
dla i = 1, . . . , s.
Niech dana b¸edzie przestrze´
n probabilistyczna (Ω,
F, Pr) oraz la´ncuch Markowa
( LM) X = (X
t
)
t≥0
okre´slony na (Ω,
F) o przestrzeni stan´ow S. La´ncuchy Markowa
wprowadza si¸e najcz¸e´sciej za pomoc¸a macierzy przej´scia P = (p
ij
)
i,j∈S
(w przypadku
czasu dyskretnego) lub generatora Q = (q
ij
)
i,j∈S
(w przypadku czasu ci¸agego).
Niech I
k
(indeks k b¸edziemy czasami pomija´c dla wygody ) oznacza macierz jednos-
tkow¸a rz¸edu k
×k, natomiast. 0
k×k
— macierz zerow¸a rz¸edu k
×k. Latwo zauwa˙zy´c,
˙ze macierze L(P) = I
− P oraz L(Q) = −Q s¸a laplasjanami indukowanymi przez
P oraz Q. Wiele z podanych dalej fakt´ow nie zale˙zy od tego, czy czas jest ci¸ag ly
czy dyskretny, dlatego te˙z dla jednolito´sci rozwa˙za´
n la´
ncuch Markowa b¸edziemy
wprowadza´c za pomoc¸a laplasjanu Markowa tzn. laplasjanu, kt´orego elementy niedi-
agonalne s¸a rzeczywiste i niedodatnie.
Stan i nazywa´c b¸edziemy powracaj¸acym, je˙zeli Pr
{∃
t>0
X
t
= i
X
0
= i
} = 1. W
przeciwnym przypadku stan i nazywa´c b¸edziemy chwilowym.
Mo˙zna pokaza´c ([Io] rozdzia l 2 oraz punkt 8.4.2), ˙ze stan i jest powracaj¸acy wtedy
i tylko wtedy, gdy jest istotny w grafie indukowanym przez laplasjan Markowa,
dlatego klasy zamkni¸ete w grafie g(L) nazywa´c b¸edziemy r´ownie˙z klasami powraca-
j¸acymi, natomiast zbi´or stan´ow nieistotnych — zbiorem stan´ow chwilowych.
18
Uwagi 2.1.
(1) W literaturze angielskiej (np. [BrRy], [Che], [Cha]) las skierowany nazywany
bywa r´o˙znie: “directed forest”, “arborescence” albo “branching”. Czasami
definiuje si¸e las skierowany tak, ˙ze kraw¸edzie skierowane s¸a nie “do” lecz
“od” korzenia.
(2) Podane przez nas definicje stanu istotnego, stanu poch laniaj¸acego, zbioru i
klasy zamkni¸etej s¸a uog´olnieniami definicji znanych dla la´
ncuch´ow Markowa
(np. [Io], [IsMa], [KeSn 1–2], [Se]). Og´olno´s´c tych poj¸e´c b¸edzie wykorzysty-
wana w rozdzia lach 4. i 6.
(3) Uzasadnieniem nazwy “laplasjan” jest fakt, ˙ze macierze o tej w lasno´sci po-
jawiaj¸a si¸e przy rozwi¸azywaniu r´owna´
n r´o˙zniczkowych cz¸astkowych z ope-
ratorem Laplace’a. Symetryczne laplasjany Markowa wyst¸epuj¸a w kombi-
natoryce (np. [CvDoSa], [Gr], [Mo]). Za pomoc¸a warto´sci w lasnych ta-
kich macierzy mo˙zna szacowa´c r´o˙zne kombinatoryczne wielko´sci zwi¸azane
z grafami obci¸a˙zonymi. Laplasjany wyst¸epuj¸a r´ownie˙z w teorii sieci elek-
trycznych pod nazwami “admittance matrix” lub “Kirchhoff matrix” (np.
[Che], [Mo]).
2.2. Rozwini¸ecia w lasy skierowane dla dope lnie´
n algebraicznych lapla-
sjanu.
Dla ustalonego korzenia R
⊆ S oraz lasu f ∈ F (R) zdefiniujemy funkcj¸e ρ
f
:
S
→ R tak¸a, ˙ze ρ
f
(i) = j wtedy i tylko wtedy, gdy istnieje droga zawarta w f o
pocz¸atku w wierzcho lku i oraz ko´
ncu w wierzcho lku j. Inaczej m´owi¸ac ρ
f
(i) jest
tym korzeniem lasu f , z kt´orego “wyr´os l s¸ek” i. Z definicji ρ
f
R
≡ id
R
.
Ustalmy podzbiory U, W zbioru S takie, ˙ze
|U| = |W |
3
). Niech F (W
→ U)
oznacza zbi´or z lo˙zony z tych las´ow f o korzeniu U, dla kt´orych funkcja ρ
f
W jest
wzajemnie jednoznaczna. Oczywi´scie F (W
→ U) ⊆ F (U) oraz je˙zeli U = W , to
F (W
→ U) = F (U).
Dla ustalonego lasu f
∈ F (W → U), symbolem inv(ρ
f
W ) oznacza´c b¸edziemy
liczb¸e przestawie´
n funkcji ρ
f
zawartych w W , a wi¸ec
inv(ρ
f
W ) :=
{{i, j} ∈ W : i < j, ρ
f
(i) > ρ
f
(j)
}
.
3
) Symbol
|U| oznacza liczno´s´c zbioru U
19
Niech ponadto sgn(f
W ) := (
−1)
inv(ρ
f
|W )
.
Dla ustalonych U, W
⊆ S oraz macierzy kwadratowej A wymiaru s × s, sym-
bolem A(U
W ) oznacza´c b¸edziemy macierz powsta l¸a z macierzy A przez usuni¸ecie
wierszy o indeksach ze zbioru U i kolumn o indeksach ze zbioru W . B¸edziemy pisa´c
A
ij
zamiast A(
{i}
{j}). Dope lnieniem algebraicznym macierzy A(U
W ) nazywa´c
b¸edziemy liczb¸e
C
A
(U
W ) := (
−1)
P
i
∈U
i+
P
j
∈W
j
det A(U
W ).
Niech ponadto e
s
oznacza wektor z lo˙zony z s jedynek, natomiast 0
s
— wektor
z lo˙zony z s zer.
Poni˙zsze lematy pozwalaj¸a przedstawi´c wa˙zne charakterystyki la´
ncucha Markowa
w postaci funkcji wymiernych od wag pewnych zbior´ow las´ow.
Lemat 2.1. (All Cofactors Matrix–Tree Theorem) Dla dowolnego laplasjanu L
rz¸edu s
× s oraz zbior´ow U, W ⊆ S takich, ˙ze |U| = |W | zachodzi r´owno´s´c
C
L
(U
W ) =
X
f ∈F (W →U )
sgn(f
W )w(f ).
(2.2)
Dow´od. Dow´od r´ownowa˙znej postaci tego lematu mo˙zna znale´z´c w pracy Chaikena
[Cha].
Lemat 2.2. Niech L b¸edzie dowolnym laplasjanem rz¸edu s
×s, R ⊆ S oraz i, j 6∈ R.
Wtedy:
(1) (Fiedler i Sedl´acek — [FieSe])
det L(R
R) = w(R);
(2.3)
(2)
C
L
(R
.
∪ {j}
R
.
∪ {i}) = (−1)
u
w
ij
(R, j),
(2.4)
gdzie u :=
{k ∈ R : min(i, j) < k < max(i, j)}
.
20
Dow´od. (1) Dla dowolnego f
∈ F (R → R) mamy ρ
R
≡ id
R
, st¸ad inv(ρ
f
R) = 0 oraz
sgn(f
R) = 1. Ponadto F (R
→ R) = F (R) i oczywi´scie det L(R
R) = C
L
(R
R).
St¸ad i z (2.2) wynika teza.
(2) Dla dowolnego f
∈ F (R
.
∪ {i} → R
.
∪ {j}) mamy ρ
f
(i) = j oraz ρ
f
R
≡ id
R
,
a zatem inv(ρ
f
R
∪ {i}) ≡
{k ∈ R : min(i, j) < k < max(i, j)}
. Ponadto
F (R
.
∪ {i} → R
.
∪ {j}) = F
ij
(R, j). St¸ad i z (2.2) wynika teza.
W dalszym ci¸agu zak lada´c b¸edziemy, ˙ze stany s¸a ponumerowane w ten spos´ob,
˙ze R =
{s − |R| + 1, . . . , s}. Za lo˙zenie to nie ogranicza og´olno´sci rozwa˙za´n znacznie
upraszczaj¸ac rozumowanie.
Lemat 2.3.
Niech L b¸edzie dowolnym laplasjanem rz¸edu s
× s oraz R ⊆ S.
Za l´o˙zmy, ˙ze w grafie g(L), w(R)
6= 0. Wtedy
L(R
R)
−1
=
w
ij
(R, j)
w(R)
i,j∈S\R
.
Dow´od. Lemat wynika ze znanego wzoru
L(R
R)
−1
=
"
C
L
(R
.
∪ {j}
R
.
∪ {i})
det L(R
R)
#
i,j∈S\R
oraz lematu 2.2.
Wniosek 2.1. Niech A = (a
ij
)
s−1
i,j=1
b¸edzie dowoln¸a macierz¸a (s
− 1) × (s − 1) oraz
L :=
"
A
l
0
. . . 0
#
,
gdzie l =
−
s−1
X
j=1
a
1j
, . . . ,
−
s−1
X
j=1
a
s−1,j
!
T
.
Niech ponadto F (s), F
ij
(s, j) oraz F (S
\ R), dla i, j = 1, . . . , s − 1 oraz R ⊆ S,
b¸ed¸a rodzinami las´ow w grafie g(L). Wtedy:
(1) (Bott i Mayberry — [BoMa])
det A = w(F (s));
(2) rz¸ad A jest r´owny mocy maksymalnego R
⊆ S, dla kt´orego w(F (S \R)) 6= 0;
(3) je˙zeli w(F (s))
6= 0, to
A
−1
=
w(F
ij
(s, j))
w(F (s))
s−1
i,j=1
.
21
Dow´od. Wniosek wynika bezpo´srednio z cz¸e´sci (1) lematu 2.2 oraz lematu 2.3.
Wniosek 2.2. Niech A = (a
ij
)
s−1
i,j=1
, x = (x
1
, . . . , x
s−1
)
T
, b = (b
1
, . . . , b
s−1
)
T
,
x, b
∈ C
s−1
oraz
L :=
"
A
l
−b
T
b
#
,
gdzie
l :=
−
s−1
X
j=1
a
1j
, . . . ,
−
s−1
X
j=1
a
s−1,j
!
T
oraz b :=
s−1
X
j=1
b
j
.
Niech ponadto F (i), i
∈ S b¸ed¸a rodzinami drzew w grafie g(L). Wtedy:
(1) uk lad A
T
x = b ma dok ladnie jedno rozwi¸azanie wtedy i tylko wtedy, gdy
w(F (s))
6= 0;
(2) je˙zeli w(F (s))
6= 0, to x
i
= w(F (i))/w(F (s)).
Dow´od. Cz¸e´s´c (1) wynika z wniosku 2.1 (1). Cz¸e´s´c druga wynika ze wzor´ow Cra-
mera oraz wniosku 2.1 (3).
Wniosek ten mo˙zna r´ownie˙z udowodni´c w nast¸epuj¸acy spos´ob. Z wniosku 2.1 (3)
otrzymujemy dla i = 1, . . . , s
− 1
x
i
=
−
P
s−1
j=1
w
ji
(s, i)l
sj
w(s)
.
Przyjmijmy F (i
s
→ j) := {f ∈ F (i) : f ∋ (s, j)}. Wtedy dla i ∈ S \ {s}
F (i) =
·
[
1≤j<s
F (i
s
→ j).
S¸a dwa mo˙zliwe przypadki.
(i) Je˙zeli F (i
s
→ j) = ∅, to −l
sj
= 0. Zatem
w
ij
(s, i)(
−l
sj
) = w(F (i
s
→ j)) = 0.
(ii) Je˙zeli F (i
s
→ j) 6= ∅, to przekszta lcenie ϕ : F (i
s
→ j) → F
ij
(s, i) takie, ˙ze
ϕ(f ) = f
\ (s, j) jest wzajemnie jednoznaczne oraz w(f) = w(ϕ(f))(−l
sj
). Zatem
w
ji
(s, i)(
−l
sj
) = w(F (i
s
→ j)).
22
St¸ad
w(i) =
−
s−1
X
j=1
w
ji
(s, i)l
sj
.
W rezultacie otrzymujemy dla i = 1, . . . , s
− 1
x
i
=
w(i)
w(s)
.
Ze stwierdzenia 2.5 oraz lematu 2.2 (1) otrzymujemy bezpo´srednio nast¸epuj¸acy
wniosek.
Wniosek 2.3.
Niech L b¸edzie laplasjanem Markowa oraz R
⊆ S.
Wtedy
nast¸epuj¸ace warunki s¸a r´ownowa˙zne:
(1) macierz L(R
R) jest odwracalna;
(2) w grafie g(L) istnieje las o korzeniu R.
Wniosek 2.4. (Drugi wz´or Cayleya) Za l´o˙zmy, ˙ze g jest grafem zupe lnym. Wtedy
|F (R)| = |R||S|
|S|−|R|−1
.
(2.5)
Dow´od. Zauwa˙zmy, ˙ze g jest grafem indukowanym przez laplasjan L, kt´orego ele-
menty niediagonalne s¸a r´owne
−1. Ponadto dla dowolnego R ⊆ S, w(R) = |F (R)|
oraz
L(R
R) = sI
s−r
− J
s−r
,
(2.6)
gdzie r =
|R| oraz J
s−r
oznacza macierz kwadratow¸a rz¸edu (s
− r) × (s − r), kt´orej
wszystkie elementy s¸a r´owne 1. St¸ad latwo zauwa˙zy´c, ˙ze je˙zeli dodamy do pierwszego
wiersza L(R
R) sum¸e pozosta lych wierszy, a nast¸epnie odejmiemy pierwsz¸a kolumn¸e
od pozosta lych kolumn, to otrzymamy macierz rz¸edu s
− r postaci:
r
0 0 . . . 0
−1 s 0 . . . 0
−1 0 s . . . 0
. . . . . . . . . . . . . . . . .
−1 0 0 . . . s
.
23
Zatem det L(R
R) = rs
s−r−1
i w rezultacie z lematu 2.2 (1) wynika teza.
Uwagi 2.2.
(1) Lemat 2.1 jest podany w ksi¸a˙zce Chena jako zadanie do rozwi¸azania [Che,
problem 4.16]; jego historia jest opisana przez Chaikena w pracy [Cha].
(2) Wz´or podany we wniosku 2.1 (1) przypomina rozwini¸ecie wyznacznika ma-
cierzy A wymiaru s
× s w sum¸e iloczyn´ow permutacji
det A =
X
σ
sgn σ
·
s
Y
i=1
a
iσ(i)
gdzie σ jest permutacj¸a zbioru
{1, . . . , s}.
(3) Dow´od wniosku 2.4 jest uog´olnieniem dowodu “pierwszego wzoru Cayleya”
podanego przez Brualdiego i Rysera [BrRy, str. 39]. Wz´or ten podaje liczb¸e
drzew rozpinaj¸acych w grafie nieskierowanym zupe lnym.
(4) Latwo poda´c dok ladny algorytm, kt´ory dla ustalonego grafu g oraz zbioru
R
⊆ S sprawdza, kosztem O(s
2
) dzia la´
n arytmetycznych, czy g zawiera las o
korzeniu R. Stosuj¸ac taki algorytm do grafu g(L), gdzie L jest laplasjanem
Markowa, mo˙zemy na mocy wniosku 2.3 sprawdzi´c, czy macierz L(R
R) jest
odwracalna. Dla por´ownania, obliczenie wyznacznika za pomoc¸a metody
eliminacji Gaussa wymaga
1
3
s
3
+ O(s
2
) operacji i nie zawsze jest dok ladne.
2.3. Rozwini¸ecia w lasy skierowane dla rozk ladu stacjonarnego i macierzy
granicznej la´
ncucha Markowa.
Rozk ladem stacjonarnym LM o laplasjanie L nazywamy nieujemny, unormowany
wektor π = (π
1
, π
2
, . . . , π
s
)
T
spe lniaj¸acy warunek
π
T
L = 0
T
s
.
(2.7)
Twierdzenie 2.1.
(1) Laplasjan Markowa L jest jednoklasowy wtedy i tylko wt-
edy, gdy r´ownanie (2.7) ma dok ladnie jedno rozwi¸azanie unormowane.
(2) Rozk lad stacjonarny jednoklasowego LM wyra˙za si¸e wzorami:
(a) (Markov chain tree theorem)
24
π
i
=
w(i)
P
j∈S
w(j)
dla i
∈ S;
(2.8)
(b) Mihoc [Io, wz´or (4.1)]
π
i
=
det L
ii
P
j∈S
det L
jj
dla i
∈ S;
(2.9)
(c) Kemeny i Snell [KeSn 1]
π
T
=
1
1
− l
T
i
L
−1
ii
e
s−1
(1,
−l
T
i
L
−1
ii
),
(2.10)
gdzie l
T
i
:= (l
i1
, . . . , ˆl
ii
, . . . , l
is
) oraz w(i) > 0.
4
)
Dow´od. I. (i) Udowodnimy najpierw, ˙ze wektor π zdefiniowany wzorem (2.8) spe lnia
warunek (2.7). Ze stwierdzenia 2.4 wynika, ˙ze w(i) > 0 dla pewnego i
∈ S, a zatem
π
jest poprawnie zdefiniowanym rozk ladem prawdopodobie´
nstwa na S. Wystarczy
teraz pokaza´c, ˙ze dla i = 1, . . . , s
s
X
j=1
w(j)l
ji
= 0,
czyli
X
j6=i
w(j)l
ji
=
X
k6=i
w(i)l
ik
.
(2.11)
Na mocy definicji w(j), (2.11) jest r´ownowa˙zne uk ladowi
X
j6=i
X
f ∈F (j)
w(f )l
ji
=
X
k6=i
X
f ∈F (i)
w(f )l
ik
.
(2.12)
Z definicji lasu wynika, ˙ze dla dowolnego f
∈ F (i) oraz k 6= i istnieje dok ladnie
jedno j takie, ˙ze k
→ j oraz (j, i) ∈ f. Zatem przekszta lcenie ϕ : F (i) → F (j)
takie, ˙ze ϕ(f ) = f
∪ (i, k) \ (j, i) jest wzajemnie jednoznaczne. Ponadto w(f)l
ik
=
w(ϕ(f ))l
ji
. W rezultacie ka˙zdy sk ladnik sumy po lewej stronie (2.12) nale˙zy do sumy
po prawej stronie (2.12) i odwrotnie. Rysunek 2.1.1 przedstawia pewne drzewo f o
korzeniu i w grafie g z rysunku 1.1.1. Rysunek 2.1.2 przedstawia drzewo ϕ(f ).
(ii) Udowodnimy teraz, ˙ze π jest jedynym wektorem unormowanym, spe lniaj¸acym
warunek (2.7).
4
) “kapelusz” oznacza´c b¸edzie pomini¸ecie wyra˙zenia, nad kt´
orym on wyst¸epuje
25
Z za lo˙zenia wynika, ˙ze dla dowolnego A
⊂ S
5
) oraz i = 1, . . . , s mamy
X
j∈A
π
j
l
ji
+
X
j6∈A
π
j
l
ji
=
X
j∈A
π
i
l
ij
+
X
j6∈A
π
i
l
ij
.
Po zsumowaniu stronami r´owna´
n dla i
6∈ A otrzymujemy
X
i6∈A
X
j∈A
π
j
l
ji
+
X
j6∈A
π
j
l
ji
!
=
X
i6∈A
X
j∈A
π
i
l
ij
+
X
j6∈A
π
i
l
ij
!
,
st¸ad
X
i6∈A
X
j∈A
π
j
l
ji
=
X
i6∈A
X
j∈A
π
i
l
ij
.
(2.13)
A zatem warunek (2.7) jest r´ownowa˙zny uk ladowi r´owna´
n (2.13) dla dowolnego
A
⊆ S.
Za l´o˙zmy teraz dla sprzeczno´sci, ˙ze istniej¸a dwa r´o˙zne wektory unormowane π, π
′
spe lniaj¸ace (2.13). Z za lo˙zenia o unormowaniu wynika, ˙ze A
0
:=
{i : π
i
> π
′
i
} jest
w la´sciwym podzbiorem S. Z (2.13) wynika, ˙ze
X
i6∈A
0
X
j∈A
0
π
i
l
ij
=
X
i6∈A
0
X
j∈A
0
π
j
l
ji
<
X
i6∈A
0
X
j∈A
0
π
′
j
l
ji
=
X
i6∈A
0
X
j∈A
0
π
′
i
l
ij
≤
X
i6∈A
0
X
j∈A
0
π
i
l
ij
.
Sprzeczno´s´c.
W ten spos´ob udowodnili´smy cz¸e´s´c (1) ”
⇒” oraz wz´or (2.8).
(iii) Ze wzoru (2.3) oraz (2.8) wynika (2.9).
(iv) R´ownanie (2.7) oznacza, ˙ze
l
11
π
1
+ l
21
π
2
+ . . . + l
s1
π
s
= 0
l
12
π
1
+ l
22
π
2
+ . . . + l
s2
π
s
= 0
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
l
1s
π
1
+ l
2s
π
2
+ . . . + l
ss
π
s
= 0.
(2.14)
Udowodnili´smy, ˙ze (2.14) ma dok ladnie jedno rozwi¸azanie unormowane. Za l´o˙zmy
teraz dla prostoty, ˙ze stany s¸a ponumerowane w ten spos´ob, i˙z π
1
> 0. Wtedy
poprawne s¸a definicje
a
1
:=
π
1
π
1
,
a
2
:=
π
2
π
1
, . . . , a
s
:=
π
s
π
1
5
) Symbole “
⊂” oraz “⊃” oznacza´c b¸ed¸a inkluzje w la´sciwe
26
Z definicji laplasjanu wynika, ˙ze pierwsza r´owno´s´c uk ladu (2.14) jest sum¸a po-
zosta lych r´owno´sci ze znakiem “
−”. Zatem (2.14) jest r´ownowa˙zny uk ladowi
l
22
a
2
+ l
32
a
3
+ . . . + l
s2
a
s
=
−l
12
l
23
a
2
+ l
33
a
3
+ . . . + l
s3
a
s
=
−l
13
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
l
2s
a
2
+ l
3s
a
3
+ . . . + l
ss
a
s
=
−l
1s
.
(2.15)
Ze wzoru (2.3) oraz stwierdzenia 2.4 wynika, ˙ze
det L
T
11
= det L
11
= w(1) > 0,
a wi¸ec (2.15) ma dok ladnie jedno rozwi¸azanie postaci
a
2
...
a
s
=
− L
T
11
−1
l
12
...
l
1s
(2.16)
co po unormowaniu daje (2.10).
(v) Cz¸e´sci (i) oraz (ii) dowodu mo˙zna zast¸api´c nast¸epuj¸acym argumentem. Ze wzoru
(2.16) oraz wniosku 2.2 otrzymujemy dla i = 2, . . . , s
a
i
=
w(i)
w(1)
,
co po unormowaniu daje (2.8).
II. Za l´o˙zmy teraz, ˙ze LM zadany przez laplasjan L nie jest jednoklasowy, a wi¸ec,
˙ze ma m
≥ 2 klas powracaj¸acych C
1
, . . . , C
m
. Przedstawmy macierz L w postaci
kanonicznej (2.1). Z udowodnionej cz¸e´sci twierdzenia wynika, ˙ze dla ka˙zdej macierzy
L
k
(k = 1, . . . , m) zwi¸azanej z kraw¸edziami mi¸edzy stanami nale˙z¸acymi do C
k
, ist-
nieje rozk lad stacjonarny π
k
= (π
k
i
)
i∈C
k
. Zatem ka˙zda wypuk la kombinacja liniowa
wektor´ow ¯
π
k
= (¯
π
k
i
)
i∈S
takich, ˙ze
¯
π
k
i
=
π
k
i
je´sli i
∈ C
k
0
je´sli i
6∈ C
k
jest rozk ladem stacjonarnym LM o laplasjanie L.
27
Przyjmijmy dla t
≥ 0, P
t
= (p
t
ij
)
i,j∈S
, gdzie p
t
ij
:= Pr
{X
t
= j
X
0
= i
}. Macierz¸a
graniczn¸a LM z czasem dyskretnym nazywa´c b¸edziemy macierz P
∗
= (p
∗
ij
)
i,j∈S
,
kt´orej elementy s¸a granicami w sensie Cesaro ci¸agu (P
t
)
t∈N
, czyli
p
∗
ij
= lim
t→∞
1
t
t−1
X
k=0
p
k
ij
.
Macierz¸a graniczn¸a LM z czasem ci¸ag lym nazywa´c b¸edziemy macierz P
∗
=
(p
∗
ij
)
i,j∈S
, tak¸a, ˙ze dla t
∈ [0, ∞)
p
∗
ij
= lim
t→∞
p
t
ij
.
Mo˙zna udowodni´c (patrz [Io] wniosek po twierdzeniu 5.1 oraz twierdzenie 8.4 i
punkt 8.4.4), ˙ze dla dowolnego sko´
nczonego LM o laplasjanie L zar´owno z czasem
dyskretnym jak i ci¸ag lym, macierz P
∗
istnieje, jest macierz¸a stochastyczn¸a oraz
spe lnia r´owno´sci:
LP
∗
= P
∗
L = 0
s×s
.
(2.17)
Twierdzenie 2.2. Niech dany b¸edzie LM o laplasjanie L w postaci kanonicznej
L =
L
1
0
L
2
. ..
0
L
m
Q
1
Q
2
. . . Q
m
Q
m+1
,
gdzie m
≥ 1 oraz L
k
s¸a nieprzywiedlnymi laplasjanami Markowa dla k = 1, . . . , m.
Niech C
k
b¸ed¸a klasami zamkni¸etymi oraz T — zbiorem stan´ow nieistotnych w grafie
g(L). Niech ponadto C := C
1
.
∪ . . .
.
∪ C
m
. Wtedy
P
∗
=
P
∗
1
0
P
∗
2
. ..
0
P
∗
m
Q
∗
1
Q
∗
2
. . . Q
∗
m
0
|T |×|T |
.
(2.18)
Ponadto dla k = 1, . . . , m
P
∗
k
= e
|C
k
|
π
T
k
(2.19)
28
oraz
Q
∗
k
=
−L(C
C)
−1
Q
k
P
∗
k
= µ
k
π
T
k
,
(2.20)
gdzie π
k
jest rozk ladem stacjonarnym LM o laplasjanie L
k
oraz µ
k
jest rozwi¸aza-
niem uk ladu L(C
C)µ
k
=
−
P
j∈C
k
l
ij
i∈T
.
Dow´od. Wzory (2.18) oraz (2.19) maj¸a znane, algebraiczne dowody. Udowodnimy
(2.20). Zauwa˙zmy, ˙ze L(C
C) = Q
m+1
. St¸ad oraz z r´owno´sci (2.17) i (2.18) wynika,
˙ze
Q
k
P
∗
k
+ L(C
C)Q
∗
k
= 0 dla k = 1, . . . , m.
Ponadto z wniosku 2.3 wynika, ˙ze L(C
C)
−1
istnieje. Zachodzi zatem pierwsza
r´owno´s´c we wzorze (2.20).
Dla dowodu drugiej r´owno´sci w (2.20) oznaczmy
(c
ij
)
i,j∈T
:= L(C
C)
−1
.
Z udowodnionej cz¸e´sci wynika, ˙ze macierz P
∗
k
ma identyczne wiersze, a zatem ele-
menty macierzy Q
∗
k
s¸a postaci
q
∗k
ij
= µ
k
i
π
k
j
,
gdzie i
∈ T , j ∈ C
k
oraz
µ
k
i
:=
X
n∈C
k
X
l∈T
−c
il
l
ln
=
−
X
l∈T
c
il
X
n∈C
k
l
ln
.
W zapisie macierzowym mamy
−L(C
C)
−1
Q
k
P
∗
k
= L(C
C)
−1
l
k
π
T
k
= µ
k
π
T
k
,
gdzie
l
k
:=
−
X
j∈C
k
l
ij
!
T
i∈T
oraz
µ
k
:= (µ
k
i
)
T
i∈T
.
Aby wyrazi´c elementy macierzy granicznej w postaci rozwini¸e´c w lasy skierowane
wygodnie b¸edzie zmodyfikowa´c definicje podane w cz¸e´sci 2.1.
Lasem skierowanym o dziedzinie D
⊆ S, D 6= ∅, nazywa´c b¸edziemy podgraf
f = (D, E
f
) grafu g(L) bez cykli taki, ˙ze z ka˙zdego wierzcho lka i
∈ D wychodzi
co najwy˙zej jedna kraw¸ed´z. Analogicznie do poj¸e´c wprowadzonych w cz¸e´sci 2.1,
29
definiujemy F (R
D) — rodzin¸e las´ow o korzeniu R
⊆ D i o dziedzinie D, w(f
D)
— wag¸e lasu o dziedzinie D oraz w(R
D) := w(F (R
D)) — wag¸e rodziny F (R
D).
Je˙zeli R =
{i} dla i ∈ S, to pisa´c b¸edziemy F (i
D) zamiast F (
{i}
D) oraz w(i
D)
zamiast w(
{i}
D).
Twierdzenie 2.3. Niech przestrze´
n stan´ow LM o laplasjanie L sk lada si¸e z m
klas powracaj¸acych C
k
(k
≤ m) oraz zbioru stan´ow chwilowych T . Niech C =
C
1
.
∪ . . .
.
∪ C
m
. Wtedy:
p
∗
ij
=
w(j
C
k
)
P
l∈C
k
w(l
C
k
)
,
(1)
je´sli i, j
∈ C
k
dla pewnego k
≤ m;
p
∗
ij
=
P
l∈C
k
w
il
(C)
w(C)
w(j
C
k
)
P
l∈C
k
w(l
C
k
)
,
(2)
je´sli i
∈ T oraz j ∈ C
k
dla pewnego k
≤ m;
p
∗
ij
= 0 w pozosta lych przypadkach.
(3)
Dow´od. Latwo teraz zauwa˙zy´c, ˙ze cz¸e´s´c (1) wynika z twierdzenia 2.1 oraz wzoru
(2.19); cz¸e´s´c (3) wynika ze wzoru (2.18); cz¸e´s´c (2) jest natomiast konsekwencj¸a
drugiej r´owno´sci we wzorze (2.20), lematu 2.3, udowodnionej cz¸e´sci (1) oraz r´owno-
´sci
p
∗
ij
=
P
l∈C
k
P
n∈T
w
in
(C, n)p
nl
w(C)
w(j
C
k
)
P
l∈C
k
w(l
C
k
)
=
P
l∈C
k
w
il
(C)
w(C)
w(j
C
k
)
P
l∈C
k
w(l
C
k
)
.
Uwagi 2.3.
(1) Historia odkrycia twierdzenia 2.1 (a) pozostaje zagadkowa. Aldous [Al 3]
pisze, ˙ze jest to “najcz¸e´sciej reodkrywane twierdzenie w teorii prawdopo-
dobie´
nstwa”. Kohler i Vollmerhaus [KoVo] nazywaj¸a je metod¸a wykresu
(diagram method) i przypisuj¸a Hillowi [Hi].
30
Twierdzenie 2.1 (a) odkryli niezale˙znie Freidlin i Wentzell [FreWe 1], ana-
lizuj¸ac miary stacjonarne zaburzonych proces´ow dyfuzji, oraz Shubert [Sh].
Podana przez nas cz¸e´s´c I (i) dowodu twierdzenia 2.1 pochodzi z pracy
[FreWe 2]. R´ownania (2.13) udowodni l wcze´sniej Korniejew [Kor].
(2) Przedstawione tutaj dowody wzor´ow Mihoca (2.9), wzoru (2.10) oraz twier-
dzenia 2.2 s¸a inne od dowod´ow znanych z literatury, poniewa˙z nie korzys-
tali´smy w nich z twierdzenia Perrona–Frobeniusa, lematu von Neumanna,
redukcji do przypadku la´
ncucha poch laniaj¸acego czy teorii uog´olnionej od-
wrotno´sci (patrz np. [KeSn 1–2], [Mey], [IsMa], [Se], [Io], [Pu]). Wykorzys-
tanie rozwini¸ecia w lasy skierowane dla laplasjanu (2.2) pozwoli lo unikn¸a´c
argument´ow analitycznych.
(3) Leighton i Rivest [LeRi 1–2] uog´olnili twierdzenie 2.1 (2) (a) na dowolne
sko´
nczone LM (twierdzenie 2.2) i nazwali je: “Markov chain tree theo-
rem”. Anantharam i Tsousac [AnTs] podali probabilistyczny dow´od tego
twierdzenia. Podane przez nas sformu lowanie twierdzenia 2.2 r´o˙zni si¸e od
poprzednich.
Dla dowolnego laplasjanu Markowa L i zwi¸azanego z nim grafu g(L), niech
F oznacza zbi´or las´ow o najwi¸ekszej liczbie kraw¸edzi, F
j
— podzbi´or F
z lo˙zony z las´ow o korzeniach zawieraj¸acych j, natomiast F
ij
— podzbi´or F
j
z lo˙zony z las´ow zawieraj¸acych drog¸e z i do j. Anantharam i Tsousac [AnTs]
udowodnili, ˙ze
p
∗
ij
=
w(F
ij
)
w(F )
oraz dla macierzy nieprzywiedlnych
p
∗
ij
=
w(F
j
)
w(F )
.
Podane przez nas w twierdzeniu 2.2 rozwini¸ecia w lasy skierowane obejmuj¸a
r´ownie˙z przypadek czasu ci¸ag lego, a ponadto s¸a bardziej podstawowe — daj¸a
rozwini¸ecia Anantharama i Tsousaca po pomno˙zeniu licznika i mianownika
przez sta l¸a. Istotnie:
w(F ) = w(C)
X
i
1
∈C
1
,... ,i
m
∈C
m
w(i
1
C
1
)
· · · w(i
m
C
m
),
31
w(F
j
) = w(C)w(j
C
k
)
X
i
1
∈C
1
,... , \
i
k
∈C
k
,... ,i
m
∈C
m
w(i
1
C
1
)
· · · w
\
(i
k
C
k
)
· · · w(i
m
C
m
),
je´sli j
∈ C
k
,
w(F
ij
) =
=
X
l∈C
k
w
il
(C
k
)w(j
C
k
)
X
i
1
∈C
1
,... , \
i
k
∈C
k
,... ,i
m
∈C
m
w(i
1
C
1
)
· · · w
\
(i
k
C
k
)
· · · w(i
m
C
m
),
je´sli j
∈ C
k
.
2.4. Rozwini¸ecia w lasy skierowane dla innych charakterystyk la´
ncuch´
ow
Markowa.
Podamy teraz rozwini¸ecia w lasy skierowane dla innych charakterystyk la´
ncucha
Markowa. Przyjmijmy dla ustalonego R
⊆ S oraz dla dowolnych ω ∈ Ω, A ∈ F,
i, j
6∈ R, k ∈ R:
τ
R
(ω) := inf
{t ≥ 0 : X
t
(ω)
∈ R} — czas doj´scia do zbioru R,
Pr
i
(A) := Pr(A
X
0
= i),
E
i
Y :=
R
Ω
Y (ω)Pr
i
(dω) dla dowolnej funkcji mierzalnej Y : Ω
→ R,
µ
ij
(R) = E
i
P
0≤t<τ
R
1(X
t
= j)
— ´srednia liczba pojawienia si¸e stanu j
przed poch loni¸eciem,
6
)
m
i
(R) := E
i
τ
R
— ´sredni czas doj´scia do zbioru R,
m
(2)
i
(R) := E
i
τ
2
R
— drugi moment czasu doj´scia do zbioru R,
σ
2
i
(R) := E
i
(τ
R
− m
i
(R))
2
— wariancja czasu doj´scia do zbioru R,
p
ik
(R) := Pr
i
{X
τ
R
(ω)
(ω) = k
} — rozk lad prawdopodobie´nstwa w chwili
doj´scia do zbioru R.
6
) Niech p b¸edzie zdaniem logicznym. Wtedy
1(p) :=
1 gdy p jest prawdziwe
0 gdy p jest fa lszywe.
32
Twierdzenie 2.4. Niech dany b¸edzie taki laplasjan Markowa L, ˙ze w indukowanym
przez niego grafie g(L) istnieje las o korzeniu R. Wtedy dla i, j
∈ S \ R, k ∈ R:
µ
ij
(R) =
w
ij
(R, j)
w(R)
;
(1)
p
ik
(R) =
w
ik
(R)
w(R)
;
(2)
m
i
(R) =
P
j6∈R
w
ij
(R, j)
w(R)
;
(3)
(4) dla LM z czasem dyskretnym
σ
2
i
(R) =
P
j6∈R
w
ij
(R, j)
h
P
k6∈R
w
jk
(R, k)(2 + l
kR
)
−
P
l6∈R
w
il
(R, l)
i
w
2
(R)
,
gdzie l
kR
:=
X
l∈R
l
kl
;
(4
′
) dla LM z czasem ci¸ag lym
σ
2
i
(R) =
P
j6∈R
w
ij
(R, j)
h
2
P
k6∈R
w
jk
(R, k)
−
P
l6∈R
w
il
(R, l)
i
w
2
(R)
.
Dow´od. Z wniosku 2.3 wynika, ˙ze macierz L(R
R) jest odwracalna.
(1) R´owno´s´c wynika z lematu 2.3 oraz r´owno´sci w punkcie 3.1.1 [Io].
(2) Oznaczmy dla i, j
6∈ R oraz k ∈ R
F (R
i
→ . . . → j → k) :=
{f ∈ F
ik
(R) : i “wchodzi” do R w punkcie k przez j
} .
Zauwa˙zmy, ˙ze F
ik
(R) =
.
S
j6∈R
F (R
i
→ · · · → j → k) oraz w[F (R
i
→ . . . → j →
k)] =
−w
ij
(R, j)l
jk
. St¸ad dla i
6∈ R, k ∈ R
w
ik
(R) =
−
X
j6∈R
w
ij
(R, j)l
jk
.
(2.21)
Z dowodu twierdzenia 3.3 oraz punktu 8.5.6 [Io] wynika, ˙ze
L(R
R)(p
ik
(R))
i∈R, k∈R
=
−L(R
S
\ R).
33
Zatem z za lo˙zenia, lematu 2.3 oraz (2.21) otrzymujemy kolejno r´owno´sci
p
ik
(R)
i6∈R, k∈R
=
−L(R
R)
−1
· L(R
S
\ R)
=
−
P
j6∈R
w
ij
(R, j)l
jk
w(R)
i6∈R, k∈R
=
w
ik
(R)
w(R)
i6∈R, k∈R
.
(3) Oznaczmy r :=
|R|. Wektor m(R) := m
1
(R), . . . m
s−r
(R)
T
spe lnia, na mocy
twierdzenia 3.2 oraz stwierdzenia 8.6 [Io], r´ownanie
L(R
R)m(R) = e
s−r
.
(2.22)
Z lematu 2.3 otrzymujemy tez¸e.
(4) Oznaczmy dla j, k
6∈ R oraz l ∈ R
F (R
j
→ . . . → k → l) :=
{f ∈ F (R) : j “wchodzi” do R w punkcie l przez k} .
Zauwa˙zmy, ˙ze F (R) =
.
S
k6∈R, l∈R
F (R
j
→ · · · → k → l) oraz w[F (R
j
→ . . . → k
→ l)] = −w[F
jk
(R
∪ {k})]l
kl
. St¸ad
w[F (R)] =
−
X
k6∈R
w[F
jk
(R
∪ {k})]l
kR
gdzie l
kR
=
X
l∈R
l
kl
.
(2.23)
Z twierdzenia 3.2 [Io] wynika, ˙ze wektor m
(2)
(R) =
m
(2)
1
(R), . . . m
(2)
s−r
(R)
T
spe lnia
r´ownanie
L(R
R)m
(2)
(R) = 2m(R)
− e
s−r
.
St¸ad, lematu 2.3, udowodnionej cz¸e´sci twierdzenia dla m(R) oraz (2.23) otrzymu-
jemy kolejno
m
(2)
i
(R) =
2
P
j6∈R
w
ij
(R, j)m
j
(R)
w(R)
− m
i
(R)
=
P
j6∈R
w
ij
(R, j)[2
P
k6∈R
w
jk
(R, k)
− w(R)]
w
2
(R)
=
P
j6∈R
w
ij
(R, j)
h
P
k6∈R
w
jk
(R, k)(2 + l
kR
)
i
w
2
(R)
.
St¸ad wynika wz´or dla wariancji τ
R
, poniewa˙z
σ
2
i
(R) = m
(2)
i
(R)
− m
2
i
(R).
34
(4’) Ze stwierdzenia 8.6 [Io] wynika, ˙ze dla procesu Markowa z czasem ci¸ag lym
m
(2)
i
(R) =
2
P
j6∈R, k6∈R
w
ij
(R, j)w
jk
(R, k)
w
2
(R)
.
St¸ad wynika teza.
Uwagi 2.4.
(1) Z twierdzenia 2.4 (2) wynika, ˙ze wz´or (2) w twierdzeniu 2.3 mo˙zna zapisa´c
w postaci
p
∗
ij
= π
k
j
X
l∈C
k
p
il
(C),
gdzie π
k
j
jest elementem rozk ladu stacjonarnego π
k
zwi¸azanego z laplasjanem
L
k
, i
∈ T oraz j ∈ C
k
dla pewnego k
≤ m.
(2) Twierdzenie 2.4 (2) i (3) udowodnili dla la´
ncuch´ow Markowa z czasem dys-
kretnym Freidlin i Wentzell [FreWen 1–2].
(3) W dowodzie twierdzenia 2.4 (4) wykorzysta lem rozwini¸ecia dla m
(2)
, w kt´o-
rych wyst¸epuje odejmowanie. W podobny spos´ob mo˙zna otrzyma´c rozwi-
ni¸ecia bez odejmowania. Wystarczy skorzysta´c ze wzoru, podanego przez
Heymana i Reeves [HeRe]:
L(R
R)h = e
s−r
+ P(R
R)e
s−r
L(R
r)m
(2)
= h.
W rozwini¸eciach otrzymanych w ten spos´ob b¸ed¸a jednak wyst¸epowa ly ele-
menty diagonalne macierzy przej´scia.
(4) W twierdzeniach 2.1, 2.3 i 2.4 poda lem rozwini¸ecia w lasy skierowane tylko
dla najbardziej znanych charakterystyk LM. W podobny spos´ob mo˙zna
“rozwija´c” inne charakterystyki. Np. rozwini¸ecia dla wy˙zszych moment´ow
´sredniego czasu doj´scia do zbioru R,
m
(k)
(R) :=
m
(k)
i
(R)
i∈S\R
,
gdzie
m
(k)
i
(R) := E
i
τ
k
R
dla k = 3, 4, . . .
mo˙zna otrzyma´c z twierdzenia 3.2 i stwierdzenia 8.6 [Io].
Z kolei mo˙zliwo´s´c rozwini¸ecia w lasy skierowane element´ow macierzy fun-
damentalnej Z := (P
∗
+L)
−1
nieprzywiedlnego LM o laplasjanie L i macierzy
35
granicznej P
∗
, wynika ze wzoru podanego przez Kemeny’ego i Snella [KeSn
1], [Io, punkt 4.3.4]:
Z = P
∗
+ (I
− P
∗
)
0
0
T
s−1
0
s−1
L
−1
11
!
(I
− P
∗
).
2.5. Rozwini¸ecia w lasy skierowane a warto´
sci w lasne laplasjanu Marko-
wa.
Rozwini¸ecia w lasy skierowane umo˙zliwiaj¸a lokalizacj¸e warto´sci w lasnych lapla-
sjanu Markowa, a wi¸ec r´ownie˙z macierzy przej´scia lub generatora. Oszacowania
podane w twierdzeniu 2.6 wykorzystamy w rozdziale 5. do por´ownania szybko´sci
zbie˙zno´sci do rozk ladu stacjonarnego dla algorytmu Metropolisa i pr´obnika Gibbsa.
Niech ϕ
L
(x) := det(xI
−L) = a
s
x
s
+ a
s−1
x
s−1
+ . . .+ a
1
x + a
0
b¸edzie wielomianem
charakterystycznym lasplasjanu Markowa L. Latwo zauwa˙zy´c, ˙ze a
0
= 0 i a
s
= 1.
Niech 0 = λ
1
, λ
2
, . . . , λ
s
b¸ed¸a pierwiastkami ϕ
L
, czyli warto´sciami w lasnymi L.
Niech ponadto
F
k
:=
[
R⊆S
|R|=k
F (R) dla k = 0, . . . , s.
Zauwa˙zmy, ˙ze w(F
0
) = 0 oraz w(F
s
) = 1.
Nast¸epuj¸ace twierdzenie uzupe lnia stwierdzenie 2.5.
Twierdzenie 2.5. Sko´
nczony LM ma dok ladnie m klas powracaj¸acych wtedy i tylko
wtedy, gdy zero jest m-krotnym pierwiastkiem ϕ
L
.
Dow´od. Z lematu 2.2 (1), wzoru 1.2.11 [HoJo — dow´od indukcyjny przez rozwinie-
cie Laplace’a dla wyznacznika] oraz wzor´ow Viete’a otrzymujemy kolejno r´owno´sci
dla k = 0, 1, . . . , s
− 1
w(F
k
) =
X
R⊆S
|R|=k
det L(R
R) = (
−1)
s−k
a
k
=
X
1≤i
1
<...<i
s
−k
≤s
λ
i
1
. . . λ
i
s
−k
.
(2.24)
Zauwa˙zmy teraz, ˙ze na mocy stwierdzenia 2.5 prawa strona tezy jest r´ownowa˙zna
warunkowi
w(F
0
) = 0, . . . , w(F
m−1
) = 0 oraz w(F
m
) > 0.
(2.25)
36
Je´sli λ
1
= . . . = λ
m
= 0, to z r´owno´sci (2.24) wynika, ˙ze warunek powy˙zszy jest
spe lniony.
W celu udowodnienia implikacji przeciwnej zauwa˙zmy, ˙ze je´sli 0 = w(F
0
) =
λ
1
. . . λ
s
, to istnieje i
1
∈ S takie, ˙ze λ
i
1
= 0. Wtedy z (2.24) otrzymujemy 0 =
w(F
1
) = λ
1
. . . ˆ
λ
i
1
. . . λ
s
. Zatem istnieje i
2
∈ S, i
2
6= i
1
takie, ˙ze λ
i
2
= 0. W
ten spos´ob dowodzimy indukcyjnie, ˙ze istniej¸a parami r´o˙zne indeksy i
1
, . . . , i
m
∈ S
takie, ˙ze λ
i
1
= . . . = λ
i
k
= 0 oraz dla k = 0, . . . , m
− 1
w(F
k
) =
Y
j6=i
l
l≤k
λ
j
.
Ponadto z (2.25) wynika, ˙ze
0 < w(F
m
) =
Y
j6=i
k
k≤m
λ
j
.
Zatem pozosta lych s
− m warto´sci w lasnych laplasjanu L jest r´o˙znych od zera.
Wniosek 2.5. Je´sli sko´
nczony LM zadany przez laplasjan L jest jednoklasowy, to
dla dowolnego k > 1, re λ
k
(L) > 0, w przeciwnym przypadku istnieje k > 0, takie ˙ze
λ
k
(L) = 0.
Dow´od. Oczywi´scie mo˙zna za lo˙zy´c, ˙ze laplasjan L jest niezerowy, czyli d := max
i∈S
−
P
j6=i
l
ij
> 0. Warto´sci w lasne L (λ
i
, i
∈ S) oraz warto´sci w lasne macierzy
A := I
− d
−1
L, (α
i
, i
∈ S), s¸a zwi¸azane r´owno´sci¸a λ
i
= d(1
− α
i
), poniewa˙z
−d(αI − A) = d(1 − α)I − L dla dowolnego α ∈ C.
Latwo zauwa˙zy´c, ˙ze A jest macierz¸a substochastyczn¸a oraz
|α
i
| ≤ 1 [Io p. 1.11.2].
Zatem
1
−
1
d
re λ
i
2
+
1
d
im λ
i
2
≤ 1,
czyli
0
≤ |λ
i
|
2
≤ 2d re λ
i
.
W rezultacie z twierdzenia 2.5 wynika teza.
37
Za l´o˙zmy teraz, ˙ze wszystkie warto´sci w lasne laplasjanu Markowa L s¸a rzeczywiste
(za lo˙zenie to jest spe lnione m.in. dla interesuj¸acych i omawianych w rozdziale 5.
la´
ncuch´ow odwracalnych) i uporz¸adkowane wed lug wzrostu warto´sci λ
1
= 0
≤ λ
2
≤
. . .
≤ λ
s
. Przy pomocy rozwini¸e´c w lasy skierowane mo˙zna w tym przypadku
oszacowa´c warto´sci w lasne L.
Twierdzenie 2.6. Niech L b¸edzie jednoklasowym laplasjanem Markowa o rzeczy-
wistych warto´sciach w lasnych. Wtedy dla k = 2, . . . , s
max
s−1
k−2
−1
w(F
k−1
)
w(F
k
)
,
s−1
k−2
w(F
1
)
w(F
k
)w(F
s−k+2
)
≤ λ
k
oraz
λ
k
≤ min
s−1
k−1
w(F
k−1
)
w(F
k
)
,
s−1
k−1
−1
w(F
s−k+1
)w(F
k−1
)
w(F
1
)
.
Dow´od. Dla k = s tez¸e otrzymujemy bezpo´srednio z r´owno´sci (2.24) oraz konwencji
w(F
s
) = 1. Z r´owno´sci (2.24) wynika ponadto, ˙ze dla k = 2, . . . , s
− 1
w(F
k
)
w(F
1
)
=
X
2≤i
1
<...<i
k
−
1
≤s
1
λ
i
1
. . . λ
i
k
−
1
.
Zatem dla k = 2, . . . , s
− 1
1
λ
2
. . . λ
k
≤
w(F
k
)
w(F
1
)
≤
s−1
k−1
1
λ
2
. . . λ
k
oraz dla k = 2, . . . , s
s−1
k−1
λ
2
. . . λ
k
≤ w(F
s−k+1
).
W rezultacie dla k = 2, . . . , s
− 1
w(F
1
)
w(F
k
)
max
s−1
k−2
−1
w(F
k−1
)
w(F
1
)
,
s−1
k−2
1
w(F
s−k+2
)
≤
w(F
1
)
w(F
k
)
1
λ
2
. . . λ
k−1
≤ λ
k
≤ min
s−1
k−1
w(F
1
)
w(F
k
)
,
s−1
k−1
−1
w(F
s−k+1
)
1
λ
2
. . . λ
k−1
≤ min
s−1
k−1
w(F
1
)
w(F
k
)
,
s−1
k−1
−1
w(F
s−k+1
)
w(F
k−1
)
w(F
1
)
.
38
Niech teraz ¯
L := saI
−aJ
s
−L, gdzie a := − min
i6=j
l
ij
. Latwo zauwa˙zy´c, ˙ze ¯
L jest
laplasjanem Markowa. Niech ponadto ¯
λ
1
, . . . , ¯
λ
s
b¸ed¸a warto´sciami w lasnymi ¯
L oraz
dla k = 0, . . . , s, niech ¯
F
k
oznaczaj¸a rodziny las´ow o korzeniach k elementowych w
grafie g(¯
L).
Okazuje si¸e, ˙ze oszacowania warto´sci w lasnych laplasjanu ¯
L uzupe lniaj¸a oszaco-
wania warto´sci w lasnych L podane w twierdzeniu 2.6.
Twierdzenie 2.7. Niech L b¸edzie jednoklasowym laplasjanem Markowa o rzeczy-
wistych warto´sciach w lasnych. Wtedy dla k = 2, . . . , s
sa
− min
s−1
k−2
w(
¯
F
s−k+1
)
w( ¯
F
s−k+2
)
,
s−1
k−2
−1
w( ¯
F
k−1
)w( ¯
F
s−k+1
)
w( ¯
F
1
)
≤ λ
k
oraz
λ
k
≤ sa − max
s−1
k−1
−1
w( ¯
F
s−k+1
)
w( ¯
F
s−k+2
)
,
s−1
k−1
w( ¯
F
1
)
w( ¯
F
s−k+2
)w( ¯
F
k
)
.
Dow´od. Oszacowania powy˙zsze s¸a konsekwencj¸a twierdzenia 2.6 zastosowanego do
laplasjanu ¯
L oraz r´owno´sci ¯
λ
i+1
= sa
− λ
s−i+1
dla i = 1, . . . , s
− 1, kt´ore s¸a konsek-
wencj¸a lematu 2.4 poni˙zej.
Lemat 2.4.
(sa
− x)ϕ
¯
L
(x) = (
−1)
s+1
xϕ
L
(sa
− x).
Dow´od. Oznaczmy przez I
′
, J
′
, L
′
macierze rz¸edu s
× (s − 1) powsta le z I, J, L
przez usuni¸ecie pierwszej kolumny. Wtedy
(sa
− x) det(xI − ¯L) = (sa − x) det(xI − saI + aJ + L)
= (
−1)
s
(sa
− x) det[(sa − x)I − aJ − L]
(
dodanie do pierwszej kolumny
sumy pozosta lych kolumn
)
= (
−1)
s
(sa
− x) det
−x (sa − x)I
1
... −aJ
1
− L
1
−x
(
pomno˙zenie pierwszej kolumny
przez
−
a
x
)
= (
−1)
s+1
x
a
(sa
− x) det
a (sa
− x)I
1
..
.
−aJ
1
− L
1
a
39
(
dodanie pierwszej kolumny
do pozosta lych kolumn
)
= (
−1)
s+1
x
a
(sa
− x) det
a (sa
− x)I
1
...
−L
1
a
od prawej do lewej:
dodanie do pierwszej kolumny
sumy pozosta lych kolumn
i pomno˙zenie pierwszej kolumny
przez
a
sa−x
= (
−1)
s+1
x det[(sa
− x)I − L].
Uwagi 2.5.
(1) Twierdzenie 2.5 i wniosek 2.5 s¸a znane (patrz np. [Io], [Se]) — w podanych
dowodach nie wykorzysta lem jednak argument´ow analitycznych.
(2) Lemat 2.4 jest uog´olnieniem twierdzenia 3.6 z pracy [Mo], gdzie por´owny-
wano warto´sci w lasne symetrycznego laplasjanu Markowa L = (l
ij
)
i,j∈S
i
laplasjanu ¯
L = (¯l
ij
)
i,j∈S
, takiego ˙ze ¯l
ij
:= 1
− l
ij
. Warto zauwa˙zy´c, ˙ze sta la
a z twierdzenia 2.7 daje najlepsze oszacowania w´sr´od liczb b, dla kt´orych
laplasjan
L(b) := sbI
s
− bJ
s
− L
jest laplasjanem Markowa.
40
3. Algorytmy dla uk lad´ow r´owna´
n liniowych zwi¸azanych z la´
ncuchami
Markowa.
3.1. Wzgl¸ednie zaburzone la´
ncuchy Markowa.
Podane w rozdziale 2. rozwini¸ecia w lasy skierowane dla r´o˙znych charakterystyk
LM mo˙zna wykorzysta´c do oszacowania b l¸edu algorytm´ow, kt´ore rozwi¸azuj¸a uk lady
r´owna´
n liniowych spe lnione przez te charakterystyki. Poni˙zsze twierdzenia i wnioski
okre´slaj¸a wp lyw zaburze´
n laplasjanu Markowa na zaburzenia charakterystyk LM.
Twierdzenie 3.1. Niech L b¸edzie laplasjanem Markowa, R
⊆ S, u := s −|R| oraz
niech b = (b
k
)
k∈S\R
nieujemnym wektorem u-wyrazowym. Niech ˜
L = (˜l
ij
)
i,j∈S
oraz
˜
b = (˜b)
i∈S\R
b¸ed¸a odpowiednio laplasjanem i wektorem, kt´orych elementy spe lniaj¸a
nast¸epuj¸ace nier´owno´sci:
C
L
l
ij
≥ ˜l
ij
≥ C
U
l
ij
,
c
L
b
i
≤ ˜b
i
≤ c
U
b
i
.
dla i
∈ S \ R, j ∈ S, i 6= j, oraz 0 < C
L
≤ 1 ≤ C
U
, 0 < c
L
≤ 1 ≤ c
U
. Za l´o˙zmy, ˙ze
w grafie g(L) istnieje las o korzeniu R. Wtedy:
(1) macierze L(R
R) oraz ˜
L(R
R) s¸a odwracalne;
(2) rozwi¸azania x = (x
i
)
i∈S\R
oraz ˜
x = (˜
x
i
)
i∈S\R
uk lad´ow r´owna´
n liniowych
L(R
R)x = b
oraz
˜
L(R
R)˜
x = ˜
b
spe lniaj¸a nier´owno´sci
C
u−1
L
c
L
C
u
U
x
i
≤ ˜x
i
≤
C
u−1
U
c
U
C
u
L
x
i
dla i
∈ S \ R.
(3) rozwi¸azania x = (x
i
)
i∈S\R
oraz ˜
x = (˜
x
i
)
i∈S\R
uk lad´ow r´owna´
n liniowych
L
T
(R
R)x = b
oraz
˜
L
T
(R
R)˜
x = ˜
b
spe lniaj¸a nier´owno´sci
C
u−1
L
c
L
C
u
U
x
i
≤ ˜x
i
≤
C
u−1
U
c
U
C
u
L
x
i
dla i
∈ S \ R.
41
Dow´od. Zauwa˙zmy, ˙ze g(L) = g(˜
L). Zatem cz¸e´s´c (1) wynika z wniosku 2.3. Niech
w(f ) oraz ˜
w(f ) b¸ed¸a wagami lasu f w grafach obci¸a˙zonych (L, g(L)) oraz (˜
L, g(˜
L)).
Z za lo˙zenia wynika, ˙ze dla dowolnych i, j
∈ S \ R,
f
1
∈ F (R) oraz f
2
∈ F
ij
(R, j) w grafie g(L),
spe lnione s¸a nier´owno´sci:
0 < (C
L
)
u
w(f
1
)
≤ ˜
w(f
1
)
≤ (C
U
)
u
w(f
1
),
(3.1)
0 < (C
L
)
u−1
w(f
2
)
≤ ˜
w(f
2
)
≤ (C
U
)
u−1
w(f
2
).
(3.2)
St¸ad oraz z lematu 2.3 otrzymujemy dla i
∈ S \ R
˜
x
i
=
P
j∈S\R
˜
w
ij
(R, j)˜b
j
˜
w(R)
≤
P
j∈S\R
C
u−1
U
w
ij
(R, j)c
U
b
j
C
u
L
w(R)
=
C
u−1
U
c
U
C
u
L
x
i
.
Podobnie dowodzimy, ˙ze
˜
x
i
≥
C
u−1
L
c
L
C
u
U
x
i
.
W ten spos´ob otrzymujemy cz¸e´s´c (2) twierdzenia. Cz¸e´s´c (3) dowodzimy podobnie.
Twierdzenie 3.2.
Niech L = (l
ij
)
i,j∈S
b¸edzie nieprzywiedlnym laplasjanem
Markowa oraz ˜
L = (˜l
ij
)
i,j∈S
laplasjanem, kt´orego elementy spe lniaj¸a nast¸epuj¸ace
nier´owno´sci:
C
L
l
ij
≥ ˜l
ij
≥ C
U
l
ij
dla i
6= j
oraz
0 < C
L
≤ 1 ≤ C
U
.
Wtedy rozk lady stacjonarne dla L oraz ˜
L spe lniaj¸a nier´owno´sci
C
L
C
U
s−1
π
i
≤ ˜π
i
≤
C
U
C
L
s−1
π
i
42
oraz
C
L
C
U
s−1
π
i
π
j
≤
˜
π
i
˜
π
j
≤
C
U
C
L
s−1
π
i
π
j
dla i, j
∈ S.
Dow´od. Twierdzenie to dowodzimy podobnie do twierdzenia 3.1 wykorzystuj¸ac wz´or
(2.8). Mo˙zemy r´ownie˙z udowodni´c je jako wniosek z twierdzenia 3.1 wykorzystuj¸ac
wz´or (2.10).
Twierdzenie 3.3. Niech dany b¸edzie LM o laplasjanie L, kt´orego zbi´or stan´ow
sk lada si¸e z m klas powracaj¸acych C
k
(k
≤ m) oraz zbioru stan´ow chwilowych T .
Niech C := C
1
.
∪ . . .
.
∪ C
m
, c :=
|C|, t := |T | oraz c
k
:=
|C
k
| dla k = 1, . . . , m. Niech
ponadto ˜
L = (˜l
ij
)
i,j∈S
b¸edzie laplasjanem, kt´orego elementy spe lniaj¸a nast¸epuj¸ace
nier´owno´sci
C
L
l
ij
≥ ˜l
ij
≥ C
U
l
ij
dla i
6= j
oraz
0 < C
L
≤ 1 ≤ C
U
.
Wtedy:
C
L
C
U
c
k
−1
p
∗
ij
≤ ˜p
∗
ij
≤
C
U
C
L
c
k
−1
p
∗
ij
(1)
je´sli i, j
∈ C
k
dla pewnego k
≤ m;
C
c
k
+t−1
L
C
c+c
k
−1
U
p
∗
ij
≤ ˜p
∗
ij
≤
C
c
k
+t−1
U
C
c+c
k
−1
L
p
∗
ij
(2)
je´sli i
∈ T oraz j ∈ C
k
dla pewnego k
≤ m;
˜
p
∗
ij
= p
∗
ij
= 0
w pozosta lych przypadkach.
(3)
Dow´od. Cz¸e´s´c (1) wynika z twierdzenia 3.2 i twierdzenia 2.3 (1). Cz¸e´s´c (2) wynika z
twierdzenia 3.2, kolejnego twierdzenia 3.4 (1) oraz uwagi 2.4 (2). Cz¸e´s´c (3) wynika
z twierdzenia 2.3 (3).
43
Twierdzenie 3.4. Niech L = (l
ij
)
i,j∈S
b¸edzie laplasjanem Markowa takim, ˙ze w
grafie g(L) dla ustalonego R
⊆ S istnieje las o korzeniu R. Niech ponadto ˜L =
(˜l
ij
)
i,j∈S
b¸edzie laplasjanem, kt´orego elementy spe lniaj¸a nast¸epuj¸ace nier´owno´sci
C
L
l
ij
≥ ˜l
ij
≥ C
U
l
ij
dla i
∈ S \ R, j ∈ S, i 6= j
oraz
0 < C
L
≤ 1 ≤ C
U
.
Oznaczmy u := s
− |R|. Wtedy dla i, j 6∈ R, k ∈ R:
C
u−1
L
C
u
U
µ
ij
(R)
≤ ˜µ
ij
(R)
≤
C
u−1
U
C
u
L
µ
ij
(R);
(1)
C
L
C
U
u
p
ik
(R)
≤ ˜p
ik
(R)
≤
C
U
C
L
u
p
ik
(R);
(2)
C
u−1
L
C
u
U
m
i
(R)
≤ ˜
m
i
(R)
≤
C
u−1
U
C
u
L
m
i
(R);
(3)
(4) dla LM z czasem dyskretnym
˜
σ
2
i
(R)
≤
C
2(u−1)
U
C
2u
L
(
σ
2
i
(R) + (1
− C
L
)m
i
(R) +
"
1
−
C
L
C
U
u−1
m
2
i
(R)
#)
oraz
C
2(u−1)
L
C
2u
U
(
σ
2
i
(R)
− (1 − C
L
)m
i
(R) +
"
1
−
C
U
C
L
u−1
m
2
i
(R)
#)
≤ ˜σ
2
i
(R);
(4
′
) dla LM z czasem ci¸ag lym
˜
σ
2
i
(R)
≤
C
2(u−1)
U
C
2u
L
(
σ
2
i
(R) +
"
1
−
C
L
C
U
u−1
m
2
i
(R)
#)
oraz
C
2(u−1)
L
C
2u
U
(
σ
2
i
(R) +
"
1
−
C
U
C
L
u−1
m
2
i
(R)
#)
≤ ˜σ
2
i
(R).
Dow´od. Cz¸e´sci (1)–(3) otrzymujemy analogicznie do dowodu twierdzenia 3.2 wyko-
rzystuj¸ac twierdzenie 2.4 (1)–(3).
44
(4) Zauwa˙zmy, ˙ze dla dowolnych i, j
6∈ R, wagi las´ow zawartych w g(˜L) takich, ˙ze
f
∈ F
ij
(R
∪ {j}) s¸a iloczynami u − 1 element´ow macierzy ˜L. St¸ad i z twierdzenia
2.4 (4) otrzymujemy dla i
∈ S
˜
σ
2
i
(R) :=
P
j6∈R
˜
w
ij
(R, j)
h
P
k6∈R
˜
w
jk
(R, k)(2 + ˜l
kR
)
−
P
l6∈R
˜
w
il
(R, l)
i
˜
w
2
(R)
≤
C
u−1
U
P
j6∈R
w
ij
(R, j)
n
C
u−1
U
P
k6∈R
w
jk
(R, k)[2 + C
L
l
kR
]
− C
u−1
L
P
l6∈R
w
il
(R, l)
o
C
2u
L
w
2
(R)
=
C
2(u−1)
L
w
2
(R)C
2u
U
"
2
X
j6∈R, k6∈R
w
ij
(R, j)w
jk
(R, k)
+C
L
X
j6∈R, k6∈R
w
ij
(R, j)w
jk
(R, k)l
kR
−
C
L
C
U
u−1
X
j6∈R, l6∈R
w
ij
(R, j)w
il
(R, l)
#
=
C
2(u−1)
U
C
2u
L
(
σ
2
i
(R) + εm
i
(R) +
"
1
−
C
L
C
U
u−1
#
m
2
i
(R)
)
.
Podobnie dowodzimy, ˙ze
C
2(u−1)
L
C
2u
U
(
σ
2
i
(R)
− (1 − C
L
)m
i
(R) +
"
1
−
C
U
C
L
u−1
#
m
2
i
(R)
)
≤ ˜σ
2
i
(R).
Cz¸e´s´c (4’) dowodzimy podobnie do cz¸e´sci (4), korzystaj¸ac z twierdzenia 2.4 (4’).
W dalszej cz¸e´sci rozdzialu rozwa˙za´c b¸edziemy zaburzenia laplasjanu Markowa L i
nieujemnego wektora b wywo lane reprezentacj¸a zmiennoprzecinkow¸a oraz wykony-
waniem dzia la´
n w arytmetyce zmiennoprzecinkowej o jednostce zaokr¸aglenia ε. Dla
analizy takich zaburze´
n wprowadzimy pewn¸a relacj¸e (por. [St], str. 407).
Powiemy, ˙ze dla ustalonego k
∈ N, ε
1
> 0, funkcje A, B :
(0, ε
1
)
→ R
s¸a k-r´ownowa˙zne (oznaczenie A(ε) =
hkiB(ε)), je´sli dla ε ∈ (0, ε
1
) spe lnione s¸a
nier´owno´sci
(1
− ε)
k
≤
A(ε)
B(ε)
≤ (1 − ε)
−k
.
Latwo udowodni´c poni˙zsze lematy.
Lemat 3.1. Niech k, l
∈ N. Wtedy:
45
(1) A(ε) =
hkiA(ε);
(2) Je˙zeli A(ε) =
hkiB(ε), to B(ε) = hkiA(ε).
(3) Je˙zeli A(ε) =
hkiB(ε) oraz B(ε) = hliC(ε), to A(ε) = hk + liC(ε).
Lemat 3.2. Za l´o˙zmy, ˙ze A(ε) =
hkia oraz B(ε) = hlib dla pewnych k, l ∈ N oraz
a, b
∈ R. Wtedy:
(1) A(ε)B(ε) =
hk + liab;
(2) je˙zeli B(ε), b
6= 0, to
A(ε)
B(ε)
=
hk + li
a
b
;
(3) je˙zeli A(ε), B(ε)
≥ 0 lub A(ε), B(ε) ≤ 0,to
A(ε) + B(ε) =
hk ∨ li(a + b).
7
)
W dalszej cz¸e´sci rozdzia lu rozwa˙za´c b¸edziemy funkcje A : (0, 1)
→ R
+
takie, ˙ze
A(ε) :=
(1 + a
1
ε) . . . (1 + a
l
ε)
(1 + a
l+1
ε) . . . (1 + a
k
ε)
a,
gdzie a
≥ 0, l ≤ k oraz |a
i
| ≤ 1 dla i = 1, . . . , k. Oczywi´scie
A(ε) =
hkia.
Funkcja A ma ponadto nast¸epuj¸ace w lasno´sci [St, str. 408].
Lemat 3.3.
(1) Istnieje µ
∈ [−k, k] takie, ˙ze
A(ε) = 1 + µε + O(ε
2
)
przy ε
→ 0.
(2) Je´sli kε
≤ 0.1, to |A(ε) − a| ≤ 1.06kεa.
Rodzin¸e
{L(ε), ε ∈ (0, ε
1
)
} laplasjan´ow Markowa rz¸edu s × s nazywa´c b¸edziemy
wzgl¸ednie zaburzonym la´
ncuchem Markowa (WZ LM) indukowanym przez laplasjan
Markowa L = (l
ij
)
i,j∈S
oraz k
1
∈ N, je˙zeli dla dowolnych i, j ∈ S, i 6= j
−l
ij
(ε) =
hk
1
il
ij
.
7
) a
∨ b := max(a, b); analogicznie a ∧ b := min(a, b)
46
Rodzin¸e nieujemnych u-wymiarowych wektor´ow
{b(ε), ε ∈ (0, ε
1
)
}, nazywa´c b¸e-
dziemy wzgl¸ednie zaburzonym nieujemnym wektorem (WZNW) indukowanych przez
nieujemny wektor b = (b
i
)
u
i=1
oraz l
1
∈ N, je˙zeli dla dowolnego i = 1, . . . , u
b
i
(ε) =
hl
1
ib
i
.
Zauwa˙zmy, ˙ze dla ε
∈ (0, ε
1
), g(L(ε)) = g(L). St¸ad oraz z lemat´ow 3.1–3.2
otrzymujemy bezpo´srednio
Stwierdzenie 3.1. Niech dany b¸edzie WZ LM
{L(ε), ε ∈ (0, ε
1
)
} indukowany przez
laplasjan L oraz k
1
∈ N. Niech F (R) b¸edzie zbiorem las´ow w grafie g(L) o korzeniu
R
⊆ S. Przyjmijmy u := s − |R|. Wtedy:
(1) w(f )(ε) =
huk
1
iw(f) dla f ∈ F (R),
(2) w(R)(ε) =
huk
1
iw(R),
gdzie w(f )(ε) oraz w(R)(ε) oznaczaj¸a odpowiednio wagi lasu f oraz zbioru las´ow
F (R) w grafie g(L(ε)).
Kolejne wnioski okre´slaj¸a wp lyw zaburze´
n wywo lanych reprezentacj¸a zmienno-
przecinkow¸a laplasjanu L na charakterystyki LM.
Wniosek 3.1. Niech dany b¸edzie zbi´or R
⊆ S oraz WZ LM {L(ε), ε ∈ (0, ε
1
)
}
indukowany przez laplasjan L i k
1
∈ N. Niech ponadto dany b¸edzie WZNW
{b(ε), ε ∈ (0, ε
1
)
} indukowany przez l
1
oraz wektor b rz¸edu u := s
− |R|. Za l´o˙zmy,
˙ze w grafie g(L) istnieje las o korzeniu R. Wtedy:
(1) rozwi¸azania x = (x
i
)
i∈S\R
oraz x(ε) = (x
i
(ε))
i∈S\R
uk lad´ow r´owna´
n linio-
wych
L(R
R)x = b
oraz L(R
R)(ε)x(ε) = b(ε)
spe lniaj¸a dla i
∈ S \ R relacje
x
i
(ε) =
h(2u − 1)k
1
+ l
1
ix
i
;
(2) rozwi¸azania x = (x
i
)
i∈S\R
oraz x(ε) = (x
i
(ε))
i∈S\R
uk lad´ow r´owna´
n linio-
wych
L
T
(R
R)x = b
oraz L
T
(R
R)(ε)x(ε) = b(ε)
spe lniaj¸a dla i
∈ S \ R relacje
x
i
(ε) =
h(2u − 1)k
1
+ l
1
ix
i
;
47
Dow´od. Wniosek wynika z lematu 3.2 oraz twierdzenia 3.1 po podstawieniu
C
U
:= (1
− ε)
−k
1
,
C
L
:= (1
− ε)
k
1
c
U
:= (1
− ε)
−l
1
,
c
L
:= (1
− ε)
l
1
.
Wniosek 3.2. Niech dany b¸edzie WZ LM
{L(ε), ε ∈ (0, ε
1
)
} indukowany przez
laplasjan L oraz k
1
∈ N. Wtedy dla i ∈ S
π
i
(ε) =
h2(s − 1)k
1
iπ
i
,
gdzie π
i
(ε) s¸a wyrazami rozk ladu stacjonarnego LM o laplasjanie L(ε).
Dow´od. Wniosek ten dowodzimy podobnie do wniosku 3.1 wykorzystuj¸ac wz´or (2.8).
Mo˙zemy r´ownie˙z udowodni´c go jako wniosek z twierdzenia 3.1 wykorzystuj¸ac wz´or
(2.10).
Podamy teraz analogiczny wynik dla macierzy granicznej P
∗
(ε) = p
∗
ij
(ε)
i,j∈S
LM o laplasjanie L(ε).
Wniosek 3.3.
Niech dany b¸edzie WZ LM
{L(ε), ε ∈ (0, ε
1
)
} indukowany przez k
1
∈ N oraz
laplasjan L sk ladaj¸acy si¸e z m
≥ 1 klas powracaj¸acych C
k
, k
≤ m oraz zbioru
stan´ow chwilowych T . Niech C := C
1
.
∪ . . .
.
∪ C
m
, c :=
|C|, t := |T | oraz c
k
:=
|C
k
|
dla k = 1, . . . , m. Wtedy:
p
∗
ij
(ε) =
h2(c
k
− 1)k
1
ip
∗
ij
(1)
je´sli i, j
∈ C
k
dla pewnego k
≤ m;
p
∗
ij
(ε) =
h2(c
k
− 1 + t)k
1
ip
∗
ij
(2)
je´sli i
∈ T oraz j ∈ C
k
dla pewnego k
≤ m;
p
∗
ij
(ε) = p
∗
ij
= 0
w pozosta lych przypadkach.
(3)
48
Dow´od. Cz¸e´s´c (1) wynika z wniosku 3.2 i twierdzenia 2.3 (1). Cz¸e´s´c (2) wynika
z wniosku 3.2, kolejnego wniosku 3.4 (2) oraz uwagi 2.4 (1). Cz¸e´s´c (3) wynika z
twierdzenia 2.3 (3).
Poni˙zszy wniosek okre´sla wielko´s´c zaburzenia odpowiednik´ow charakterystyk
WZ LM zdefiniowanych na str. 32.
Wniosek 3.4. Niech dany b¸edzie WZ LM
{L(ε), ε ∈ (0, ε
1
)
} indukowany przez
k
1
∈ N oraz laplasjan L, dla kt´orego, przy ustalonym R ⊆ S, w grafie g(L) istnieje
las o korzeniu R. Przyjmijmy u := s
− |R|. Wtedy dla i, j ∈ S \ R, k ∈ R:
(1)
µ
ij
(R)(ε) =
h(2u − 1)k
1
iµ
ij
(R);
(2)
p
ik
(R)(ε) =
h2uk
1
ip
ik
(R);
(3)
m
i
(R)(ε) =
h(2u − 1)k
1
im
i
(R).
(4) dla LM z czasem dyskretnym
|σ
2
i
(R)(ε)
− σ
2
i
(R)
|
≤ (1 − ε)
−(4u−2)
σ
2
i
(R) + εm
i
(R) +
1 − (1 − ε)
2(u−1)
m
2
i
(R)
− σ
2
i
(R)
=
(4u − 2)σ
2
i
(R) + m
i
(R) + (2u
− 2)m
2
i
(R)
ε + O(ε
2
);
(4’) dla LM z czasem ci¸ag lym
|σ
2
i
(R)(ε)
− σ
2
i
(R)
|
≤ (1 − ε)
−(4u−2)
σ
2
i
(R) +
1 − (1 − ε)
2(u−1)
m
2
i
(R)
− σ
2
i
(R)
=
(4u − 2)σ
2
i
(R) + (2u
− 2)m
2
i
(R)
ε + O(ε
2
).
Dow´od. Cz¸e´sci (1)–(3) otrzymujemy analogicznie do dowodu wniosku 3.2 wykorzy-
stuj¸ac twierdzenie 3.4 (1)–(3).
(4) Je´sli w twierdzeniu 3.4 (4) podstawimy C
U
:= (1
− ε)
−1
, C
L
:= 1
− ε, to
otrzymamy
σ
2
i
(R)(ε)
− σ
2
i
(R)
≤
(1
− ε)
−(4u−2)
σ
2
i
(R) + εm
i
(R) +
1 − (1 − ε)
2(u−1)
m
2
i
(R)
− σ
2
i
(R). (3.3)
oraz
σ
2
i
(R)
− σ
2
i
(R)(ε)
≤
49
σ
2
i
(R)
− (1 − ε)
4u−2
σ
2
i
(R)
− εm
i
(R) +
1 − (1 − ε)
−2(u−1)
m
2
i
(R)
. (3.4)
Oznaczmy prawe strony nier´owno´sci (3.3) i (3.4) odpowiednio przez p
1
(ε) oraz p
2
(ε).
Latwo zauwa˙zy´c, ˙ze dla u = 0, 1, 2, . . .
1
− (1 − ε)
4u−2
≤ (1 − ε)
−(4u−2)
− 1
oraz
(1
− ε)
2u
+ (1
− ε)
−2u
≤ (1 − ε)
4u−2
+ (1
− ε)
−(4u−2)
.
St¸ad wynika, ˙ze
1 − (1 − ε)
4u−2
σ
2
i
(R) + (1
− ε)
4u−2
εm
i
(R)
+
(1 − ε)
2u
− (1 − ε)
4u−2
m
2
i
(R)
≤
(1 − ε)
−(4u−2)
− 1
σ
2
i
(R) + (1
− ε)
−(4u−2)
εm
i
(R)
+
(1 − ε)
−(4u−2)
− (1 − ε)
−2u
m
2
i
(R).
W rezultacie
p
2
(ε)
≤ p
1
(ε).
Po rozwini¸eciu w szereg Maclaurina p
1
(ε) otrzymujemy tez¸e.
Cz¸e´s´c (4’) dowodzimy podobnie do cz¸e´sci (4), korzystaj¸ac z twierdzenia 3.4 (4’).
Uwagi 3.1.
(1) Rozwini¸ecia w lasy skierowane mo˙zna traktowa´c jako algorytmy dla obli-
czenia charakterystyk LM. Nie s¸a to jednak algorytmy efektywne — takie
algorytmy podamy w cz¸e´sci 3.2. Istotnie, ze wzoru (2.5) wynika, ˙ze np.
obliczenie π
i
w przypadku, gdy g(L) jest grafem zupe lnym wymaga wyko-
nania (s
− 1)
s−1
operacji arytmetycznych.
(2) Oszacowanie podane we wniosku 3.2 mo˙zna poprawi´c — zachodzi bowiem
asymptotyczna nier´owno´s´c
|π
i
(ε)
− π
i
| ≤ 2(s − 1)k
1
(1
− π
i
)π
i
ε + O(ε
2
),
dla i
∈ S.
(3.5)
Dow´od. Zauwa˙zmy, ˙ze dla j
∈ S
w(j)(ε) =
X
f ∈F (j)
Y
(m,n)∈E
f
(1 + µ
mn
ε)(
−l
mn
),
50
gdzie
|µ
mn
| ≤ k
1
dla m, n
∈ S.
Zatem z lematu 3.3 (1) wynika, ˙ze w(j)(ε) = [1 + µ
j
ε + ε
2
p
j
(ε)]w(j) dla
pewnego wielomianu p
j
oraz µ
j
∈ R takiego, ˙ze |µ
j
| ≤ (s − 1)k
1
. St¸ad i z
twierdzenia 2.1 (2) (a) otrzymujemy
π
′
i
(ε) =
"
(1 + µ
i
ε)w(i) + ε
2
p
j
(ε)
P
j∈S
(1 + µ
j
ε)w(j) + ε
2
p
j
(ε)
#
′
=
µ
i
w(i)
P
j∈S
(1 + µ
j
ε)w(j)
− (1 + µ
i
ε)w(i)
P
j∈S
µ
j
w(j) + O(ε)
h
P
j∈S
(1 + µ
j
ε)w(j) + O(ε
2
)
i
2
.
St¸ad
π
′
i
(0) = π
i
X
j6=i
(µ
i
− µ
j
)π
j
≤ 2(s − 1)k
1
(1
− π
i
)π
i
.
Podobnie otrzymujemy
−π
′
i
(0)
≤ 2(s − 1)k
1
(1
− π
i
)π
i
.
W rezultacie z r´owno´sci
π
i
(ε) = π
i
+ π
′
i
(0)ε + O(ε
2
)
wynika (3.5).
(3) Wniosek 3.1 wydaje si¸e by´c najog´olniejszym oszacowaniem tego typu w
literaturze. Wnioski 3.2–3.4 s¸a wariantami rezultat´ow Takahashiego [Ta],
kt´ory wykorzysta l rozwini¸ecia w lasy skierowane dla wyznacznika dowolnej
macierzy, podane przez Botta i Mayberry’ego ([BoMa] — u mnie wniosek
2.1 (1)). Tweedie [Tw] i Seneta [Se] uog´olnili wyniki Takahashiego na la´
n-
cuchy Markowa o przeliczalnym zbiorze stan´ow.
O’Cinneide [O’C 1], nie znaj¸ac pracy Takahashiego i bez wykorzystania
rozwini¸e´c w lasy skierowane, oszacowa l zaburzenia dla rozk ladu stacjonar-
nego nieprzywiedlnego LM. Wynik ten jest nieco s labszy od wniosku 3.2.
Ten sam autor w pracy [O’C 2] poda l oszacowanie zaburzenia element´ow
macierzy L(R
R)
−1
, w przypadku, gdy L jest laplasjanem Markowa oraz
R
⊆ S. Rezultat ten jest nieco s labszy od wniosku 3.4 (1), i co wa˙zniejsze,
dow´od O’Cinneide’a jest niepoprawny.
Ostatnio Xue [Xu], r´ownie˙z bez wykorzystania rozwini¸e´c w lasy
skierowane, udowodni l oszacowanie r´ownowa˙zne wnioskowi 3.2.
51
Poni˙zszy przyk lad pokazuje, ˙ze wsp´o lczynniki wyst¸epuj¸ace przy ε we wnioskach
3.2 i 3.4, a zatem i we wniosku 3.3 s¸a prawie optymalne. Cz¸e´s´c (1) jest modyfikacj¸a
przyk ladu podanego przez O’Cinneide’a w pracy [O’C 1].
Przyk lad 3.1. (1) Rozwa˙zmy laplasjan s
× s postaci
L(α, β) :=
β
−β
0
. . .
−α
α + β
−β
. . .
0
−α
0
α + β . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
−α
0
0
. . . α + β
−β
−α − β
0
0
. . .
0
α + β
,
(3.6)
gdzie α, β > 0. Uk lad (2.15) ma w tym przypadku posta´c:
(α + β)a
2
= β,
−βa
2
+ (α + β)a
3
= 0,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
−βa
s−1
+ (α + β)a
s
= 0.
St¸ad i z warunku a
1
= 1 wynika, ˙ze
a
1
= 1,
a
j
= a
j−1
β(α + β)
−1
, dla j = 2, . . . , s.
(3.7)
Czyli po podstawieniu γ := β(α + β)
−1
, otrzymujemy
a
j
= γ
j−1
oraz
π
j
=
a
j
a
1
+ . . . + a
s
=
1
− γ
1
− γ
s
γ
j−1
dla j = 1, . . . , s.
(3.8)
Niech teraz 0 < δ, ε < 1. Przyjmijmy
α = (1
− δ) oraz β = δ
1 +
1
− δ
1 + δ
ε
.
Latwo zauwa˙zy´c, ˙ze ˜
L := L(α, β) = L(ε, δ) oraz L = L(0, δ) s¸a laplasjanami
Markowa spe lniaj¸acymi za lo˙zenia twierdze´
n 3.2—3.4. (Podstawienie to w odr´o˙z-
nieniu od podstawienia O’Cinneide’a obejmuje r´ownie˙z przypadek dyskretny).
52
Niech ˜
π := π(ε, δ), π := π(0, δ) oznaczaj¸a rozk lady stacjonarne odpowiadaj¸ace
laplasjanom ˜
L, L. Po podstawieniu δ := ε
2
otrzymujemy z (3.8) dla j = 1, . . . , s
f
j
(ε) :=
π
j
(ε, ε
2
)
π
j
(0, ε
2
)
=
h
(s−j)
ε
g
j−1
ε
h
ε
− ε
2
g
j
ε
− ε
2s
g
ε
h
ε
+ ε
2(s+1)
g
2
ε
h
s
ε
− ε
2
h
s
ε
− ε
2
g
s
ε
+ ε
4
g
ε
,
gdzie g
ε
:= 1 + ε + ε
2
− ε
3
oraz h
ε
:= 1
− ε + ε
2
+ ε
3
. St¸ad f
j
(0) = 1 oraz
f
′
j
(0) = 2(j
− 1). W rezultacie
˜
π
s
− π
s
= 2(s
− 1)π
s
ε + O(ε
2
).
(2) Przyjmijmy R :=
{1, s} oraz a
ij
:= p
ij
(R) dla i
6∈ R, j ∈ R. Z twierdzenia 3.3
[Io] wynika, ˙ze macierz A = (a
ij
)
i6∈R, j∈R
spe lnia r´ownanie L(R
R)A =
−L(R
S
−R).
Zatem dla laplasjanu L(α, β) otrzymujemy uk lad
α + β
−β
0
0
α + β
−β
0
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
α + β
−β
0
0
α + β
a
21
a
2s
a
31
a
3s
. . . . . . . . . . . .
a
s−2,1
a
s−2,s
a
s−1,1
a
s−1,s
=
α 0
α 0
. . . . .
α 0
α β
(3.9)
Oczywi´scie a
i1
= 1
− a
is
dla i = 2, . . . , s
− 1, wi¸ec (3.9) jest r´ownowa˙zny uk ladowi
(α + β)a
2s
−βa
3s
= 0,
(α + β)a
3s
−βa
4s
= 0,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
(α + β)a
s−2s
−βa
s−1,s
= 0,
(α + β)a
s−1,s
= β.
(3.10)
St¸ad a
s−j,s
= γ
j
dla j = 1, . . . , s
− 2. Po podstawieniu jak w (1), otrzymujemy
f
j
(ε) :=
a
s−j,s
(ε, ε
2
)
a
s−j,s
(0, ε
2
)
=
g
ε
h
ε
j
.
St¸ad f
j
(0) = 1 oraz f
′
j
(0) = 2j dla j = 1, . . . , s
− 2. W rezultacie
˜
p
2s
(R)
− p
2s
(R) = 2(s
− 2)p
2s
(R)ε + O(ε
2
).
Podobne rozumowanie mo˙zna przeprowadzi´c dla R =
{1, 2, . . . , r, s}, gdzie 1 ≤ r <
s
− 1.
53
(3) Z twierdzenia 3.2 [Io] wynika, ˙ze wektor m(R) spe lnia r´ownanie
L(R
R)m(R) = e
s−r
.
Przyjmijmy R :=
{s − r + 1, . . . , s}. Wtedy dla laplasjanu L(α, β) otrzymujemy
uk lad
β
−β
−α α + β
−β
0
. . . . . . . . . . . . . . . . . . . . . . . . .
−α
α + β
−β
−α
0
α + β
m
1
...
..
.
...
m
s−r
=
1
...
..
.
...
1
,
(3.11)
gdzie m
i
= m
i
(R) dla i = 1, . . . , s
− r oraz r = |R|. Uk lad (3.11) jest r´ownowa˙zny
uk ladowi
(α + β)m
u
= 1 + αm
1
,
(α + β)m
u−j
= 1 + αm
1
+ βm
u−j+1
, dla j = 1, . . . , u
− 2,
βm
1
= 1 + βm
2
,
gdzie u := s
− r.
(3.12)
Zatem dla j = 0, . . . , u
− 2
m
u−j
=
1 + αm
1
α
"
1 +
β
α + β
j+1
#
.
(3.13)
W szczeg´olno´sci
m
2
=
1 + αm
1
α
"
1 +
β
α + β
u−1
#
.
St¸ad i z ostatniego r´ownania uk ladu (3.12) wynika, ˙ze
m
1
=
1
α
α + β
β
u
− 1
.
W rezultacie z (3.13) otrzymujemy dla j = 1, . . . , u
m
j
=
(α + β)
j−1
[(α + β)
u−j+1
− β
u−j+1
]
αβ
u
= α
−1
γ
u
− γ
−j+1
.
Po podstawieniu jak w (1), otrzymujemy dla j = 1, . . . , u
f
j
(ε) :=
m
j
(ε, ε
2
)
m
j
(0, ε
2
)
=
h
u
ε
− ε
2(u−j+1)
g
u−j+1
ε
h
j−1
ε
(1
− ε + ε
2(u−j+1)+1
− ε
2(u−j+1)
) g
u
ε
,
54
st¸ad f
j
(0) = 1 oraz f
′
j
(0) =
−(2u − 1).
W rezultacie dla j = 1, . . . , u
m
j
− ˜
m
j
= (2u
− 1)m
j
ε + O(ε
2
).
(4) Z twierdzenia 3.2 [Io] wynika, ˙ze wektor m
(2)
(R) spe lnia w przypadku dyskret-
nym r´ownanie
L(R
R)m
(2)
(R) = 2P(R
R)m(R) + e
u
.
Niech R :=
{u + 1, . . . , s}. Dla laplasjanu L(α, β) powy˙zszy uk lad jest r´ownowa˙zny
uk ladowi
(α + β)
m
(2)
u
+ 2m
u
= α
m
(2)
1
+ 2m
1
+ 2m
u
+ 1,
(α + β)
m
(2)
u−j
+ 2m
u−j
= α
m
(2)
1
+ 2m
1
+ β
m
(2)
u−j+1
+ 2m
u−j+1
+2m
u−j
+ 1 dla j = 1, . . . , u
− 2,
β
m
(2)
1
+ 2m
1
= β
m
(2)
2
+ 2m
2
+ 2m
1
+ 1.
(3.14)
Zatem dla j = 0, . . . , u
− 2 otrzymujemy
m
(2)
u−j
+ 2m
u−j
=
nh
α
m
(2)
1
+ 2m
1
+1
i
(α + β)
j+1
− β
j+1
α
−1
(3.15)
+ 2
β
j
m
u
+ β
j−1
(α + β)m
u−1
+ . . .
+ β(α + β)
j−1
m
u−j+1
+ (α + β)
j
m
u−j
(α + β)
j+1
.
Z r´ownania (3.15) dla j = u
− 2 oraz ostatniego r´ownania uk ladu (3.14) wynika, ˙ze
m
(2)
1
+ 2m
1
=
2(α + β)
2u
− (2 − α)β
u
(α + β)
u
−2uαβ
u
(α + β)
u−1
− αβ
2u
α
−2
β
−2u
.
St¸ad i z (3.15) otrzymujemy dla j = 1, . . . , u
m
(2)
j
=
2(α + β)
2u
− 2β
u−j+1
(α + β)
u+j−1
− αβ
u
(α + β)
u
− 2uαβ
u
(α + β)
u−1
+ 2(j
− 1)αβ
2u−j+1
(α + β)
j−2
+αβ
2u−j+1
(α + β)
j−1
α
−2
β
−2u
.
W rezultacie
σ
2
j
=m
(2)
j
− m
2
j
=
(α + β)
2u
− 2β
2(u−j+1)
(α + β)
2(j−1)
− (α + β + 2u)αβ
u
(α + β)
u−1
55
+ [α + β + 2(j
− 1)] αβ
2u−j+1
(α + β)
j−2
α
−2
β
−2u
=α
−2
γ
−2u
− γ
−2(j−1)
− α
−1
γ
−u
− γ
−j+1
− (α + β)
−1
α
−1
2uγ
−u
− 2(j − 1)γ
−j+1
.
Po podstawieniu jak w (1) otrzymujemy dla j = 1, . . . , u
f
j
(ε) :=
σ
2
j
(ε, ε
2
)
σ
2
j
(0, ε
2
)
=
=
h
2u
ε
− (ε
2
g
ε
)
2(u−j+1)
h
2(j−1)
ε
−
h
ε
+ 2uε
2
(1
− ε
2
)
(1 − ε
2
)(1
− ε)ε
u−2
g
u
ε
h
u−1
ε
+
h
ε
+ 2(j
− 1)ε
2
(1
− ε
2
)
(1 − ε
2
)(1
− ε)ε
2u−j−1
g
2u−j+1
ε
h
j−2
ε
/
1 − ε
4(u−j+1)
+ (1 + 2uε
2
)(1
− ε
2
)ε
2u−2
+ 1 + 2(j
− 1)ε
2
(1 − ε
2
)ε
4m−2j
(1 − ε)
2
g
2u
ε
.
St¸ad f
j
(0) = 1 oraz f
′
j
(0) =
−(4u − 2).
W rezultacie dla j = 1, . . . , u
σ
2
j
− ˜σ
2
j
= [4(s
− r) − 2]σ
2
j
ε + O(ε
2
).
2
3.2. Algorytmy.
W tej cz¸e´sci rozdzia lu zaprezentujemy algorytmy dla analizowanych wcze´sniej
uk lad´ow r´owna´
n liniowych zwi¸azanych z podmacierzami g l´ownymi laplasjanu Mar-
kowa. Nast¸epnie oszacujemy wzgl¸edny b l¸ad rozwi¸azania (entrywise relative error)
tych algorytm´ow.
Rozwa˙zmy uk lad r´owna´
n
L
T
(R
R)x = b,
(3.16)
gdzie b jest nieujemnym wektorem u := s
− |R| wyrazowym oraz, dla prostoty,
R =
{u + 1, . . . , s}. Za l´o˙zmy, ˙ze w grafie indukowanym przez L istnieje las o
korzeniu R. Z lematu 2.2 (1) oraz stwierdzenia 2.5 wynika, ˙ze macierz L(R
R) jest
wtedy odwracalna oraz wszystkie jej elementy diagonalne s¸a dodatnie.
Najcz¸e´sciej spotykany w praktyce problem obliczeniowy zwi¸azany z LM polega
na wyznaczeniu rozk ladu stacjonarnego dla nieprzywiedlnego LM zadanego przez
56
laplasjan L, czyli na rozwi¸azaniu uk ladu
L
T
π
= 0
s
, przy warunku
s
X
i=1
π
i
= 1.
(3.17)
Z twierdzenia 2.1 wynika, ˙ze dla rozwi¸azania tego uk ladu wystarczy rozwi¸aza´c uk lad
L
T
11
a
1
=
−(l
12
, . . . , l
1s
)
T
,
(3.18)
kt´ory jest przyk ladem uk ladu (3.16), a nast¸epnie unormowa´c wektor a
T
:= (1, a
T
1
).
W podanym ni˙zej algorytmie, podobnie jak w metodzie eliminacji Gaussa, prze-
kszta lcamy rozwi¸azywany uk lad r´owna´
n (3.16) do r´ownowa˙znego uk ladu o macie-
rzy g´ornej tr´ojk¸atnej, a nast¸epnie otrzymany uk lad tr´ojk¸atny rozwi¸azujemy przez
podstawienie wstecz. Inaczej jednak obliczane s¸a elementy g l´owne. Oznaczmy:
L
(1)
R
:=
"
L
T
(R
R)
−b
l
T
R
b
#
,
gdzie l
T
R
:= (l
1R
, . . . , l
uR
), l
iR
:=
P
j∈R
l
ij
dla i = 1, . . . , u oraz b :=
P
u
j=1
b
j
.
W kolejnym k-tym kroku metody (k = 1, . . . , u) definiujemy indukcyjnie macierz
L
(k+1)
R
w nast¸epuj¸acy spos´ob:
– zapisujemy dan¸a macierz L
(k)
R
w postaci
L
(k)
R
=
"
u
k
y
T
k
w
k
A
k
#
,
gdzie w
k
, y
k
s¸a wektorami (u
− k + 1) wyrazowymi;
– nast¸epnie przyjmujemy
L
(k+1)
R
:= A
k
−
w
k
y
T
k
u
k
.
(3.19)
Latwo zauwa˙zy´c przez indukcj¸e, ˙ze dla k = 1, . . . , u, macierz L
(k)
R
jest transpo-
nowanym laplasjanem Markowa rz¸edu (u
− k + 2) × (u − k + 2) oraz wszystkie
jej elementy diagonalne (z wyj¸atkiem ostatniego) s¸a dodatnie. St¸ad wynika, ˙ze
elementy g l´owne u
k
spe lniaj¸a r´owno´sci
u
k
=
u+1
X
j=k+1
w
jk
,
(3.20)
gdzie w
jk
s¸a wyrazami wektora w
k
.
57
Do´swiadczenie numeryczne zwi¸azane z wykorzystaniem eliminacji Gaussa do
rozwi¸azywania modeli markowowskich wskazuje, ˙ze g l´ownym ´zr´od lem niedok lad-
no´sci algorytmu jest odejmowanie wyst¸epuj¸ace przy obliczaniu element´ow diagonal-
nych macierzy L
(k+1)
R
ze wzoru (3.19). Grassmam, Taksar i Heyman (1985) [Gr-
TaHe] zaproponowali modyfikacj¸e eliminacji Gaussa dla problemu (3.17), w kt´orej
elementy g l´owne s¸a obliczane bez odejmowania, korzystaj¸ac z r´owno´sci (3.20). Oto
uog´olnienie tego algorytmu dla problemu (3.16).
Algorytm 3.1.
input: Macierz nieosobliwa L(R
R) bez element´ow diagonalnych, wektory l
R
oraz
b.
output: Wektor x.
begin
1) for k = 1 to u do begin
l
k,u+1
:= l
kR
;
l
u+1,k
:= b
k
end;
2) {
Eliminacja
}
for k = 1 to u do begin
u
k
:=
−
P
u+1
j=k+1
l
kj
;
for i, j = k + 1, i
6= j to u + 1 do l
ij
:= l
ij
− l
ik
l
kj
/u
k
end;
3) {
Podstawienie wstecz
}
for k = u downto 1 do begin
x
k
:=
l
u+1,k
−
P
u
j=k+1
l
jk
x
j
/u
k
;
write (x
k
)
end
end.
Rozwa˙zmy teraz uk lad r´owna´
n
L(R
R)x = b,
(3.21)
gdzie b jest nieujemnym wektorem u wyrazowym. Uk lady postaci (3.21) rozwi¸azuje
si¸e np. w celu obliczenia wektora ´srednich czas´ow doj´scia do zbioru R — z uk ladu
58
L(R
R)m = e, oraz macierzy rozk ladu w chwili doj´scia do zbioru R — z uk ladu
L(R
R)A =
−L(R
S
\ R).
Odpowiednikiem algorytmu 3.1 dla uk ladu (3.21) jest nast¸epuj¸acy algorytm.
Algorytm 3.2.
input: Macierz nieosobliwa L(R
R) bez element´ow diagonalnych, l
R
, b.
output: Wektor x.
begin
1) for k = 1 to u do begin
l
k,u+1
:= l
kR
;
l
k,u+2
:= b
k
end;
2) {
Eliminacja
}
for k = 1 to u do begin
u
k
:=
−
P
u+1
j=k+1
l
kj
;
for i, j = k + 1, i
6= j to i = u, j = u + 2 do l
ij
:= l
ij
− l
ik
l
kj
/u
k
end;
3) {
Podstawienie wstecz
}
for k = u downto 1 do begin
x
k
:=
l
k,u+2
−
P
u
j=k+1
l
kj
x
j
/u
k
;
write (x
k
)
end
end.
Algorytmy 2.1, 3.1 oraz 3.2 wraz z twierdzeniem 2.2 prowadz¸a do algorytmu obli-
czaj¸acego macierz graniczn¸a dowolnego LM.
Algorytm 3.3.
input: Laplasjan Markowa L = (l
ij
)
i,j∈S
bez element´ow diagonalnych.
output: Macierz graniczna P
∗
.
begin
1) Znajd´z (np. za pomoc¸a algorytmu 2.1) podzia l zbioru S na klasy
zamkni¸ete C
1
, . . . , C
m
, m
≥ 1 oraz zbi´or stan´ow nieistotnych T w
grafie g(L);
C := C
1
∪ . . . ∪ C
m
;
59
2)
for k := 1 to m do
Oblicz (np. za pomoc¸a algorytmu 3.1) rozk lad stacjonarny π
k
=
(π
k
i
)
i∈C
k
laplasjanu nieprzywiedlnego L
k
:= (l
ij
)
i,j∈C
k
;
3)
L
0
:=
P
j∈C
k
l
ij
i∈T, k=1,... ,m
;
Rozwi¸a˙z (np. za pomoc¸a algorytmu 3.2) r´ownanie macierzowe
L(C
C)A =
−L
0
ze wzgl¸edu na macierz A = (a
ij
)
i∈T, k=1,... ,m
;
4)
for i, j
∈ S do begin
if i, j
∈ C
k
dla pewnego k then p
∗
ij
:= π
k
j
;
else if i
∈ T , j ∈ C
k
dla pewnego k then p
∗
ij
:= a
ik
π
k
j
else p
∗
ij
:= 0;
write (p
∗
ij
)
end
end.
Uwagi 3.2.
(1) Algorytm 3.1 jest uog´olnieniem algorytmu Grassmanna, Taksara i Heymana
[GrTaHe] dla obliczania rozk ladu stacjonarnego nieprzywiedlnej macierzy
przej´scia. Natomiast algorytm 3.2 jest uog´olnieniem algorytmu Heymana i
Reeves [HeRe] dla obliczania ´sredniego czasu doj´scia do ustalonego zbioru
stan´ow R
⊆ S.
(2) Koszt algorytm´ow 3.1 i 3.2 wyra˙zaj¸acy si¸e liczb¸a operacji arytmety-
cznych jest asymptotycznie r´ownowa˙zny kosztowi metody eliminacji Gaussa
tj.
s
3
/3, poniewa˙z dodatkowy koszt zwi¸azany z obliczeniem element´ow
g l´ownych z r´owno´sci (3.20) oraz z wykorzystaniem algorytmu Gilla–M¨ollera
jest rz¸edu s
2
.
60
3.3. Analiza algorytm´
ow.
Oszacujemy teraz wzgl¸edny b l¸ad rozwi¸azania (entrywise relative error) dla algo-
rytm´ow 3.1 i 3.2.
Niech x, y b¸ed¸a dowolnymi liczbami rzeczywistymi w reprezentacji zmiennoprze-
cinkowej z b l¸edem zaokr¸aglenia ε. Niech ponadto dla 2
∈ {+, −, ∗, /}
fl(x2y)
≡ fl(x2y)(ε)
oznacza wynik operacji “2” w arytmetyce zmiennoprzecinkowej. Zak lada´c b¸edzie-
my, ˙ze
fl(x2y) =
h1i(x2y)
oraz, ˙ze wszystkie dzia lania wykonywane s¸a bez nadmiaru i niedomiaru.
Twierdzenie 3.5. Przy za lo˙zeniach wniosku 3.1 algorytm 3.2 oblicza wektor
¯
x(ε) = (¯
x
i
(ε))
i∈S\R
8
)
z dok ladno´sci¸a okre´slon¸a przez relacj¸e
¯
x
i
(ε) =
hψ(u)ix
i
,
gdzie ψ(u) = 5u
2
+ 13u
− 16.
Je˙zeli dodatkowo ψ(u)ε
≤ 0.1, to
|¯x
i
(ε)
− x
i
| ≤ 1.06ψ(u)x
i
ε dla i
∈ S \ R.
Dow´od. Za l´o˙zmy dla wygody, ˙ze R =
{u + 1, . . . , s}. Za l´o˙zmy ponadto dla dowodu,
˙ze macierz L(R
R) bez element´ow diagonalnych, oraz wektory l
R
i b s¸a reprezen-
towane dok ladnie w arytmetyce zmiennoprzecinkowej. Skonstruujemy indukcyjnie
dla n = 1, . . . , u funkcj¸e ψ
1
tak¸a, ˙ze dla macierzy L(R
R) rz¸edu n
× n oraz wek-
tor´ow l
R
oraz b rz¸edu n, algorytm 3.2 szacuje wektor x(ε) za pomoc¸a wektora ¯
x(ε)
z dok ladno´sci¸a okre´slon¸a przez relacj¸e
¯
x
i
(ε) =
hψ
1
(n)
ix
i
dla i = 1, . . . , n.
(3.22)
Dla macierzy L(R
R) rz¸edu 1 mo˙zna przyj¸a´c ψ
1
(1) = 0. Za l´o˙zmy zatem, ˙ze istnieje
funkcja ψ
1
spe lniaj¸aca r´owno´s´c (3.22) dla macierzy L(R
R) rz¸edu < n. Naszym
celem b¸edzie podanie warto´sci ψ
1
(n).
8
) “kreska” oznacza´c b¸edzie warto´sci obliczane przez algorytm 3.2
61
Elementy g l´owne u
k
s¸a sumami nieujemnych sk ladnik´ow, zatem b l¸ad zaokr¸aglenia
powsta ly przy obliczeniu u
1
za pomoc¸a algorytmu Gilla–M¨ollera (patrz np. [Hig],
wz´or (4.8)) mo˙zna oszacowa´c z relacji
¯
u
1
(ε) =
h2iu
1
.
St¸ad oraz ze wzoru (3.19) wynika, ˙ze b l¸ad zaokr¸aglenia powsta ly przy obliczeniu
element´ow niediagonalnych macierzy ¯
L
(2)
R
(ε) okre´slaj¸a relacja
¯l
(2)
ij
(ε) =
h5il
ij
.
St¸ad oraz z wniosku 3.1 wynika, ˙ze rozwi¸azanie dok ladne ¯
x
(2)
(ε) uk ladu
¯
L
(2)
R
(ε)¯
x
(2)
(ε) = ¯
b
(2)
(ε)
spe lnia relacj¸e
¯
x
(2)
i
(ε) =
h10nix
(2)
i
dla i = 2, . . . , n.
Zatem z za lo˙zenia indukcyjnego wektor x
(2)
jest liczony przez algorytm 3.2 z do-
k ladno´sci¸a okre´slon¸a przez relacj¸e
¯¯x
(2)
i
(ε) =
hψ
1
(n
− 1) + 10nix
(2)
i
dla i = 2, . . . , n.
Ponadto x
T
=
x
1
, x
(2)T
oraz x
1
jest obliczany przez podstawienie wstecz i su-
mowanie za pomoc¸a algorytmu Gilla–M¨ollera. Zatem wektor x jest obliczany z
dok ladno´sci¸a okre´slon¸a przez relacj¸e
¯
x
i
(ε) =
hψ
1
(n
− 1) + 10n + 6ix
i
dla i = 1 . . . , n,
gdzie
ψ
1
(n) = ψ
1
(n
− 1) + 10n + 6.
(3.23)
Rozwi¸azanie r´ownania (3.23) z warunkien ψ
1
(1) = 0 daje
ψ
1
(n) = 5n
2
+ 11n
− 16.
Udowodnili´smy, ˙ze dla danych reprezentowanych dok ladnie, algorytm 3.2 oblicza
wektor x z dok ladno´sci¸a okre´slon¸a wzorem (3.22). Zatem dla danych reprezen-
towanych w arytmetyce zmiennoprzecinkowej z b l¸edem zaokr¸aglenia ε, otrzymujemy
z twierdzenia 3.1 relacj¸e
¯
x
i
(ε) =
hψ(n)ix
i
,
gdzie
ψ := ψ
1
(n) + 2n.
62
Druga cz¸e´s´c tezy wynika z lematu 3.3 (2).
W podobny spos´ob udowodni´c mo˙zna nast¸epuj¸ace twierdzenia.
Twierdzenie 3.6. Niech L b¸edzie nieprzywiedlnym laplasjanem Markowa rz¸edu
s
×s. Wtedy algorytm 3.1 oblicza rozk lad stacjonarny π laplasjanu L z dok ladno´sci¸a
okre´slon¸a przez relacj¸e
¯
π
i
(ε) =
hφ(s)iπ
i
dla i = 1, . . . , s,
gdzie φ(s) = 10s
2
+ 6s
− 46. Je˙zeli dodatkowo φ(s)ε ≤ 0.1, to
|¯π
i
(ε)
− π
i
| ≤ 1.06φ(s)π
i
ε dla i = 1, . . . , s.
Twierdzenie 3.7. I. Za l´o˙zmy, ˙ze przestrze´
n stan´ow LM o laplasjanie L rz¸edu
s
× s, sk lada si¸e z m klas powracaj¸acych C
k
(k
≤ m) oraz zbioru stan´ow chwilowych
T . Niech t :=
|T | oraz c
k
:=
|C
k
| dla k = 1, . . . , m. Wtedy algorytm 3.3 oblicza
macierz graniczn¸a P
∗
z dok ladno´sci¸a okre´slon¸a przez relacje:
¯
p
∗
ij
(ε) =
hφ(c
k
)
ip
∗
ij
(1)
je´sli i, j
∈ C
k
dla pewnego k
≤ m;
¯
p
∗
ij
(ε) =
hφ(c
k
) + ψ(t)
ip
∗
ij
(2)
je´sli i
∈ T oraz j ∈ C
k
dla pewnego k
≤ m;
¯
p
∗
ij
(ε) = p
∗
ij
= 0
w pozosta lych przypadkach.
(3)
II. Je˙zeli dodatkowo max
1≤k≤m
φ(c
k
)ψ(t)ε
≤ 0.1, to:
|¯p
∗
ij
(ε)
− p
∗
ij
| ≤ 1.06φ(c
k
)p
∗
ij
(1)
je´sli i, j
∈ C
k
dla pewnego k
≤ m;
|¯p
∗
ij
(ε)
− p
∗
ij
| ≤ 1.06(φ(c
k
) + ψ(t))p
∗
ij
ε
(2)
je´sli i
∈ T oraz j ∈ C
k
dla pewnego k
≤ m.
Dow´od. Cz¸e´sci I (1) i II (1) wynikaj¸a z twierdzenia 3.6 (1) oraz twierdzenia 2.2 (1).
Cz¸e´sci I (2) i II (2) wynikaj¸a z twierdzenia 3.6, kolejnego twierdzenia 3.8 oraz twier-
dzenia 2.2 (2). Cz¸e´s´c I (3) wynika z twierdzenia 2.2 (3).
63
Twierdzenie 3.8. I. Niech L b¸edzie laplasjanem Markowa rz¸edu s
× s, w kt´orym
dla ustalonego R
⊆ S istnieje las o korzeniu R. Przyjmijmy u := s − |R|, ψ(u) :=
5u
2
+ 13u
− 16, χ(u) := 5u
2
+ 6u
− 11. Wtedy dla i, j ∈ S \ R, k ∈ R, algorytm 3.2
oblicza nast¸epuj¸ace charakterystyki LM z dok ladno´sci¸a okre´slon¸a przez relacje:
¯
µ
ik
(R)(ε) =
hχ(u)iµ
ik
(R);
(1)
¯
p
ik
(R)(ε) =
hψ(u)ip
ik
(R);
(2)
¯
m
i
(R)(ε) =
hχ(u)im
i
(R).
(3)
II. Je˙zeli dodatkowo χ(u)ε
≤ 0.1, to:
|¯µ
ik
(R)(ε)
− µ
ik
(R)
| ≤ 1.06χ(u)µ
ik
(R)ε;
(1)
je˙zeli dodatkowo ψ(u)ε
≤ 0.1, to:
|¯p
ij
(R)(ε)
− p
ij
(R)
| ≤ 1.06ψ(u)p
ij
(R)ε;
(2)
je˙zeli dodatkowo χ(u)ε
≤ 0.1, to:
| ¯
m
i
(R)(ε)
− m
i
(R)
| ≤ 1.06χ(u)m
i
(R)ε.
(3)
Uwagi 3.3.
(1) Twierdzenie 3.6 jest uog´olnieniem wyniku O’Cinneide’a [O’C 1, twierdze-
nie 3], poniewa˙z nie ma w nim za lo˙zenia, ˙ze elementy g l´owne s¸a obliczane w
podw´ojnej precyzji oraz, ˙ze laplasjan L jest w postaci zmiennoprzecinkowej.
(2) Twierdzenia 3.6–3.8 podaj¸a oszacowania b l¸edu dla najprostszych i najbar-
dziej znanych charakterystyk LM. W ostatnich latach zaprojektowano spe-
cjalne algorytmy dla obliczania mniej znanych charakterystyk nieprzywiedl-
nego LM — np. macierzy fundamentalnej [He] czy wariancji granicznej
[Gr]. Algorytmy te sprowadzaj¸a laplasjan Markowa do postaci tr´ojk¸atnej w
podobny spos´ob jak algorytmy 3.1 i 3.2, jednak podstawienie wstecz wymaga
odejmowania. B l¸ad zaokr¸aglenia zale˙zy zatem w tym przypadku nie tylko
od wielko´sci laplasjanu, ale r´ownie˙z od uwarunkowania problemu.
64
4. Algorytmy dla pot¸egowo zaburzonych la´
ncuch´ow Markowa.
4.1. Pot¸egowo zaburzone la´
ncuchy Markowa.
Powiemy, ˙ze funkcje A, B : R
→ R s¸a asymptotycznie r´ownowa˙zne przy ε → 0
(oznaczenie A(ε)
∼ B(ε)), je´sli
lim
ε→0
A(ε)
B(ε)
= 1.
Je´sli natomiast istnieje ε
1
6= 0 takie, ˙ze dla dowolnego ε ∈ (−ε
1
, ε
1
), A(ε) = 0, to
przyjmiemy dla jednolito´sci rozwa˙za´
n A(ε)
∼ 0. Ponadto
0
0
:= 1. Latwo udowodni´c
nast¸epuj¸ace lematy.
Lemat 4.1.
(1) A(ε)
∼ A(ε).
(2) Je˙zeli A(ε)
∼ B(ε), to B(ε) ∼ A(ε).
(3) Je˙zeli A(ε)
∼ B(ε) oraz B(ε) ∼ C(ε), to A(ε) ∼ C(ε).
Lemat 4.2. Za l´o˙zmy, ˙ze A(ε)
∼ B(ε) oraz C(ε) ∼ D(ε). Wtedy
(1) A(ε)C(ε)
∼ B(ε)D(ε).
(2) Je˙zeli dodatkowo istnieje ε
1
6= 0 takie, ˙ze dla dowolnego ε ∈ (−ε
1
, ε
1
),
A(ε), B(ε), C(ε), D(ε) > 0 lub A(ε), B(ε), C(ε), D(ε) < 0, to A(ε) + C(ε)
∼
B(ε) + D(ε).
Lemat 4.3. Za l´o˙zmy, ˙ze A(ε)
∼ αε
a
oraz B(ε)
∼ βε
b
dla A, B : (0, ε
1
)
→ R
+
,
α, β
∈ R, a, b ∈ R ∪ {∞}
9
). Wtedy:
(1) je´sli [α1(a
≤ b) ± β1(a ≥ b)] 6= 0 lub αβ = 0, to
A(ε)
± B(ε) ∼ [α1(a ≤ b) ± β1(a ≥ b)]ε
(a∧b)
;
(2) A(ε)B(ε)
∼ αβε
a+b
;
(3) je´sli β
6= 0, to
A(ε)
B(ε)
∼
α
β
ε
a−b
.
9
) Przyjmiemy ε
∞
:= 0; ponadto A(ε)
∼ 0 · ε
∞
, je˙zeli A(ε)
∼ 0
65
Rodzin¸e
{L(ε), ε ∈ (0, ε
1
)
} laplasjan´ow Markowa rz¸edu s × s nazywa´c b¸edziemy
pot¸egowo zaburzonym la´
ncuchem Markowa (PZ LM), je˙zeli istniej¸a macierze ∆ =
(δ
ij
)
i,j∈S
, D = (d
ij
)
i,j∈S
takie, ˙ze dla dowolnych i, j
∈ S, i 6= j, δ
ij
≥ 0, d
ij
∈ R∪{∞}
oraz
−l
ij
(ε)
∼ δ
ij
ε
d
ij
.
Rodzin¸e nieujemnych wektor´ow u-wymiarowych
{b(ε), ε ∈ (0, ε
1
)
} nazywa´c b¸e-
dziemy pot¸egowo zaburzonym nieujemnym wektorem (PZNW), je˙zeli istniej¸a wek-
tory ζ = (ζ
i
)
u
i=1
, z = (z
i
)
u
i=1
takie, ˙ze dla dowolnego i = 1, . . . , u, ζ
i
≥ 0,
z
i
∈ R ∪ {∞} oraz
b
i
(ε)
∼ ζ
i
ε
z
i
.
W dalszej cz¸e´sci uto˙zsamia´c b¸edziemy PZ LM
{L(ε), ε ∈ (0, ε
1
)
} z macierzami ∆
i D, natomiast PZNW
{b(ε), ε ∈ (0, ε
1
)
} — z wektorami ζ i z.
Przyk lad 4.1. Najcz¸e´sciej spotykanymi w literaturze przyk ladami rodziny PZ LM
s¸a:
(1) liniowo zaburzone LM (patrz np. [AbBiFi], [BiFi], [HasHav], [HavRi], [Sch
1–3])
L(ε) = L
0
+ εL
1
,
gdzie L
0
i L
1
s¸a laplasjanami Markowa;
(2) wielomianowo lub analitycznie zaburzone LM (patrz np. [HasHav], [RoWi
1–2])
L(ε) =
N
X
n=0
ε
n
L
n
,
gdzie ka˙zdy L
n
jest laplasjanem Markowa, N
≤ ∞.
Przyjmijmy
g(∆) := (S,
{(i, j) ∈ S × S : δ
ij
6= 0}) oraz
g
∗
(D) := (S,
{(i, j) ∈ S × S : d
ij
<
∞}).
Latwo zauwa˙zy´c, ˙ze dla dostatecznie ma lych ε, g(L(ε)) = g(∆) = g
∗
(D).
St¸ad i ze stwierdze´
n 2.3–2.5 otrzymujemy nast¸epuj¸ace stwierdzenia.
66
Stwierdzenie 4.1. Niech dany b¸edzie PZ LM
{L(ε), ε ∈ (0, ε
1
)
} okre´slony przez
macierze ∆ i D. Wtedy nast¸epuj¸ace warunki s¸a r´ownowa˙zne.
(1) Istnieje ε
0
∈ (0, ε
1
) takie, ˙ze dla dowolnego ε
∈ (0, ε
0
), laplasjan L(ε) jest
nieprzywiedlny (jednoklasowy).
(2) Macierz ∆ jest nieprzywiedlna (jednoklasowa).
(3) Graf g
∗
(D) jest silnie (s labo ) sp´ojny.
PZ LM
{L(ε), ε ∈ (0, ε
1
)
} spe lniaj¸acy jeden z warunk´ow stwierdzenia 4.1 nazywa´c
b¸edziemy nieprzywiedlnym (jednoklasowym) PZ LM.
Stwierdzenie 4.2. Niech dany b¸edzie zbi´or R
⊂ S oraz PZ LM {L(ε), ε ∈ (0, ε
1
)
}
okre´slony przez macierze ∆ i D. Wtedy nast¸epuj¸ace warunki s¸a r´ownowa˙zne.
(1) Istnieje ε
0
∈ (0, ε
1
) takie, ˙ze dla dowolnego ε
∈ (0, ε
0
), macierz L(R
R)(ε)
jest nieosobliwa.
(2) Istnieje ε
0
∈ (0, ε
1
) takie, ˙ze dla dowolnego ε
∈ (0, ε
0
), w grafie g(L(ε))
istnieje las o korzeniu R.
(3) W grafie g
∗
(D) istnieje las o korzeniu R.
Stwierdzenie 4.3. Niech dany b¸edzie podzia l zbioru S = C
1
.
∪ . . .
.
∪ C
m
.
∪ T , m ≥ 1
oraz PZ LM
{L(ε), ε ∈ (0, ε
1
)
} okre´slony przez macierze ∆ i D. Wtedy nast¸epuj¸ace
warunki s¸a r´ownowa˙zne.
(1) Istnieje ε
0
∈ (0, ε
1
) takie, ˙ze dla dowolnego ε
∈ (0, ε
0
), zbiory C
1
, . . . , C
m
s¸a
wszystkimi klasami powracaj¸acymi, a zbi´or T jest zbiorem stan´ow chwilowych
w LM o laplasjanie L(ε).
(2) Zbiory C
1
, . . . , C
m
s¸a wszystkimi klasami zamkni¸etymi, a zbi´or T jest
zbiorem stan´ow nieistotnych w grafie g
∗
(D).
Niech f b¸edzie lasem zawartym w g
∗
(D) oraz F — rodzin¸a las´ow zawartych w
g
∗
(D). Zdefiniujemy teraz podstawowe parametry PZ LM
d(f ) :=
X
(i,j)∈f
d
ij
,
δ(f ) :=
Y
(i,j)∈f
δ
ij
,
d(F ) := min
f ∈F
d(f ),
δ(F ) :=
X
f ∈F : d(f )=d(F )
δ(f ).
67
Przyjmiemy dla wygody
d(R) := d(F (R)),
δ(R) := δ(F (R));
dla i
6∈ R, j ∈ R
d
ij
(R) := d(F
ij
(R)),
δ
ij
(R) := δ(F
ij
(R));
dla i, j
6∈ R
d
ij
(R, j) := d
ij
(R
∪ {j}),
δ
ij
(R, j) := δ
ij
(R
∪ {j});
dla i
∈ S
d(i) := d(
{i}),
δ(i) := δ(
{i}),
n := min
j∈S
d(j),
ν :=
X
j: d(j)=n
δ(j) oraz
h
i
:= d(i)
− n,
η
i
:= δ(i)/ν.
Niech ponadto w(f )(ε) oraz w(F )(ε) oznaczaj¸a wagi lasu oraz zbioru las´ow w grafie
g(L(ε)).
Bezpo´srednio z lematu 4.3 otrzymujemy nast¸epuj¸ace stwierdzenie.
Stwierdzenie 4.4. Niech dany b¸edzie PZ LM
{L(ε), ε ∈ (0, ε
1
)
} oke´slony przez
macierze ∆ i D. Niech f b¸edzie lasem oraz F — zbiorem las´ow w grafie g
∗
(D).
Wtedy:
(1) w(f )(ε)
∼ δ(f)ε
d(f )
;
(2) w(F )(ε)
∼ δ(F )ε
d(F )
.
Twierdzenie 4.1. Niech dany b¸edzie zbi´or R
⊆ S oraz PZ LM {L(ε), ε ∈ (0, ε
1
)
}
okre´slony przez macierze ∆ i D. Niech ponadto dany b¸edzie PZNW
{b(ε), ε ∈
(0, ε
1
)
} okre´slony przez wektory ζ i z rz¸edu u := s − |R|. Za l´o˙zmy, ˙ze w grafie
g
∗
(D) istnieje las o korzeniu R. Wtedy:
(1) macierze L(R
R)(ε) s¸a odwracalne dla dostatecznie ma lych ε;
(2) rozwi¸azanie x(ε) = (x
i
(ε))
i∈S\R
uk ladu r´owna´
n liniowych
L(R
R)(ε)x(ε) = b(ε)
68
spe lnia dla i
∈ S \ R relacje
x
i
(ε)
∼ α
i
ε
a
i
,
gdzie wsp´o lczynniki α
i
oraz a
i
s¸a zdefiniowane w dowodzie;
(3) rozwi¸azanie x(ε) = (x
i
(ε))
i∈S\R
uk ladu r´owna´
n liniowych
L
T
(R
R)(ε)x(ε) = b(ε)
spe lnia dla i
∈ S \ R relacje
x
i
(ε)
∼ α
i
ε
a
i
,
gdzie wsp´o lczynniki α
i
oraz a
i
s¸a zdefiniowane w dowodzie.
Dow´od. Cz¸e´s´c (1) wynika ze stwierdzenia 4.2.
Dla dowodu cz¸e´sci (2) zauwa˙zmy, ˙ze ze stwierdzenia 4.4 oraz lemat´ow 4.1 (1) i
(2) wynikaj¸a relacje dla i
∈ S \ R
X
j∈S\R
w
ij
(R, j)(ε)b
j
(ε)
∼
X
j∈S\R
δ
ij
(R, j)ε
d
ij
(R,j)
ζ
j
ε
z
j
∼ ¯
α
i
ε
¯
a
i
,
gdzie
¯a
i
:= min
j∈S\R
[d
ij
(R, j) + z
j
]
oraz
¯
α
i
:=
X
j∈S\R: d
ij
(R,j)+z
j
=¯
a
i
δ
ij
(R, j)ζ
j
.
St¸ad i z lematu 2.3 wynika, ˙ze dla i
∈ S \ R, x
i
(ε)
∼ α
i
ε
a
i
, gdzie
a
i
:= ¯a
i
− d(R) oraz α
i
:= ¯
α
i
/δ(R).
Dla dowodu cz¸e´sci (3) niech L
R
(ε) := (l
ij
(ε))
u+1
i,j=1
b¸edzie macierz¸a tak¸a, ˙ze
L
R
(ε) :=
"
L
T
(R
R)(ε)
−b(ε)
l
T
R
(ε)
b(ε)
#
,
(4.1)
gdzie l
iR
:=
P
j∈R
l
ij
(ε) dla i = 1, . . . , u oraz b(ε) :=
P
u
j=1
b
j
(ε).
Niech ponadto D
R
:= (d
ij
)
u+1
i,j=1
, ∆
R
:= (δ
ij
)
u+1
i,j=1
b¸ed¸a macierzami takimi, ˙ze
D
R
=
"
D
T
(R
R) z
d
T
R
z
#
,
∆
R
=
"
∆
T
(R
R) ζ
δ
T
R
ζ
#
,
69
gdzie
d
T
R
:= (d
1R
, . . . , d
uR
),
d
iR
:= min
j∈R
d
ij
,
δ
T
R
:= (δ
1R
, . . . , δ
uR
),
δ
iR
:=
X
j∈R
δ
ij
1(d
ij
= d
iR
)
dla i = 1, . . . , u oraz
z := min
j≤u
z
j
,
ζ :=
−
u
X
j=1
ζ
j
1(z
j
= z).
Oczywi´scie
−l
ij
(ε)
∼ δ
ij
ε
d
ij
dla i, j = 1, . . . , u + 1, i
6= j.
Ze stwierdzenia 4.4 wynika, ˙ze w grafie g(L
R
(ε)) dla i = 1, . . . , u + 1
w(i)
∼ δ(i)ε
d(i)
.
St¸ad oraz z wniosku 2.2 (2) otrzymujemy dla i = 1, . . . , u + 1
x
i
(ε)
∼ α
i
ε
a
i
,
gdzie
a
i
:= d(i)
− d(u + 1), oraz
α
i
:= δ(i)/δ(u + 1).
Twierdzenie 4.2. Niech dany b¸edzie jednoklasowy PZ LM
{L(ε), ε ∈ (0, ε
1
)
}
okre´slony przez macierze ∆ i D. Wtedy
π
i
(ε)
∼ η
i
ε
h
i
.
Dow´od. Ze stwierdzenia 4.4 oraz lematu 4.3 (1) wynika, ˙ze
X
j∈S
w(j)(ε)
∼ νε
n
.
W rezultacie z twierdzenia 2.1 (2) (a) oraz lematu 4.3 (3) otrzymujemy
π
i
(ε) =
w(i)(ε)
P
j∈S
w(j)(ε)
∼ η
i
ε
h
i
.
70
Twierdzenie 4.3. Niech dany b¸edzie PZ LM
{L(ε), ε ∈ (0, ε
1
)
} okre´slony przez
macierze ∆ i D sk ladaj¸acy si¸e z m
≥ 1 klas powracaj¸acych C
k
, k
≤ m oraz zbioru
stan´ow chwilowych T . Przyjmijmy C := C
1
.
∪ . . .
.
∪ C
m
. Wtedy:
(1)
p
∗
ij
(ε)
∼ η
k
j
ε
h
k
j
, je´sli i, j
∈ C
k
dla pewnego k
≤ m;
(2)
p
∗
ij
(ε)
∼ γ
k
i
η
k
j
ε
c
k
i
+h
k
j
, je´sli i
∈ T oraz j ∈ C
k
dla pewnego k
≤ m;
(3)
p
∗
ij
(ε) = 0
w pozosta lych przypadkach,
gdzie wsp´o lczynniki η
k
j
, h
k
j
, γ
k
i
, c
k
i
zdefiniowane s¸a w dowodzie.
Dow´od. Cz¸e´s´c (3) wynika z twierdzenia 2.3 (3). Cz¸e´s´c (1) wynika z twierdzenia
2.3 (1) oraz twierdzenia 4.2. Wsp´o lczynniki η
k
j
, h
k
j
definiujemy jak w dowodzie
twierdzenia 4.2.
Dla dowodu cz¸e´sci (2) zauwa˙zmy, ˙ze dla i
∈ T
X
l∈C
k
w
il
(C)(ε)
∼ ¯γ
k
i
ε
¯
c
k
i
,
gdzie ¯
c
k
i
:= min
l∈C
k
d
il
(C) oraz
¯
γ
k
i
:=
X
l∈C
k
: d
il
(C)=¯
c
k
i
δ
il
(C).
St¸ad i z twierdzenia 2.4 (2) otrzymujemy
X
l∈C
k
p
il
(C) =
P
l∈C
k
w
il
(C)(ε)
w(C)
∼ γ
k
i
ε
c
k
i
,
gdzie c
k
i
:= ¯
c
k
i
− d(C) oraz γ
k
i
:= ¯
γ
k
i
/δ(C).
W rezultacie z uwagi 2.4 (1) oraz udowodnionej cz¸e´sci (1) wynika teza.
Twierdzenie 4.4. Niech dany b¸edzie PZ LM
{L(ε), ε ∈ (0, ε
1
)
} okre´slony przez
macierze ∆ i D, dla kt´orego przy ustalonym R
⊆ S, w grafie g
∗
(D) istnieje las o
korzeniu R. Wtedy dla i, j
∈ S \ R, k ∈ R:
(1)
µ
ij
(R)(ε)
∼ α
ijR
ε
a
ijR
;
(2)
p
ik
(R)(ε)
∼ γ
ikR
ε
c
ikR
;
(3)
m
i
(R)(ε)
∼ β
iR
ε
b
iR
;
gdzie wsp´o lczynniki α
ijR
, a
ijR
, β
iR
, b
iR
, γ
ikR
, c
ikR
s¸a zdefiniowane w dowodzie.
71
Dow´od. Z lematu 4.3 (1) wynika, ˙ze
P
j6∈R
w
ij
(R, j)(ε)
∼ ¯
β
iR
ε
¯b
iR
, gdzie
¯b
iR
:= min
j6∈R
d
ij
(R, j) oraz
¯
β
iR
:=
X
j6∈R: d
ij
(R,j)=¯b
iR
δ
ij
(R, j).
W rezultacie dla i, j
∈ S \ R, k ∈ R z twierdzenia 2.4 otrzymujemy
v
ij
(R)(ε) =
w
ij
(R, j)(ε)
w(R)(ε)
∼ α
ijR
ε
a
ijR
,
p
ik
(R)(ε) =
w
ik
(R)(ε)
w(R)(ε)
∼ γ
ikR
ε
c
ikR
,
m
i
(R)(ε) =
P
j6∈R
w
ij
(R, j)(ε)
w(R)(ε)
∼ β
iR
ε
b
iR
,
gdzie
a
ijR
:= d
ij
(R, j)
− d(R),
α
ijR
:=
δ
ij
(R, j)
δ(R)
,
c
ikR
:= d
ik
(R)
− d(R),
γ
ikR
:=
δ
ik
(R)
δ(R)
,
b
iR
:= ¯b
iR
− d(R),
β
iR
:=
¯
β
iR
δ(R)
.
Uwagi 4.1.
(1) Twierdzenia 4.2 i 4.4 s¸a podobne do wynik´ow Freidlina i Wentzlla [FreWe
1–2] oraz Hwanga i Sheu ([HwSh 1–2]) , gdzie rozwa˙zana jest wi¸eksza rodzi-
na zaburzonych la´
ncuch´ow Markowa ni˙z PZ LM. Jednak tezy s¸a tam mniej
dok ladne.
(2) W pracach [AbBiFi], [BiFi] i [BiSt] rozwa˙zano problem ergodycznego ste-
rowania liniowo zaburzonym LM. W dowodach wykorzystano rezultaty kla-
sycznej teorii zaburze´
n operator´ow liniowych [Kat].
72
4.2. Algorytmy.
Niech dany b¸edzie PZ LM
{L(ε), ε ∈ (0, ε
1
)
} indukowany przez znane macierze ∆
i D. Za l´o˙zmy, ˙ze dla danego R
⊂ S, w grafie g
∗
(D) istnieje las o korzeniu R. Niech
ponadto dany b¸edzie PZNW
{b(ε), ε ∈ (0, ε
1
)
} rz¸edu u := s − |R| indukowany
przez znane wektory ζ i z.
Zauwa˙zmy, ˙ze obliczenie wsp´o lczynnik´ow α i a rozwi¸azania uk lad´ow
L
T
(R
R)(ε)x(ε) = b(ε)
lub
(4.2)
L(R
R)(ε)x(ε) = b(ε)
(4.3)
z definicji podanej w dowodzie twierdzenia 4.1 nie s¸a efektywne.
Celem tego
rozdzia lu b¸edzie zatem konstrukcja i analiza algorytm´ow obliczaj¸acych wektory a, α
dla uk ladu (4.2) lub (4.3).
Oznaczmy
d
T
R
:= (d
1R
, . . . , d
uR
),
d
iR
:= min
j∈R
d
ij
,
δ
T
R
:= (δ
1R
, . . . , δ
uR
),
δ
iR
:=
X
j∈R
δ
ij
1(d
ij
= d
iR
)
dla i = 1, . . . , u.
Algorytmy 4.1 i 4.2 s¸a uog´olnieniem algorytm´ow 3.1 i 3.2 dla problem´ow (4.2) i
(4.3).
Algorytm 4.1.
input: Macierze ∆(R
R), D(R
R) bez element´ow diagonalnych, wektory δ
R
, d
R
,
ζ
, z.
output: Wektory α, a.
begin
1) for k = 1 to u do begin
d
k,u+1
:= d
kR
; δ
k,u+1
:= δ
kR
;
d
u+1,k
:= z
k
; δ
u+1,k
:= ζ
k
;
end;
2) {
Eliminacja
}
for k = 1 to u do begin
d
k
:= min
k<j≤u+1
d
jk
;
73
δ
k
:=
P
u+1
j=k+1
δ
jk
1(d
jk
= d
k
);
for i, j = k + 1, i
6= j to u + 1 do begin
d := d
ij
∧ (d
ik
+ d
kj
− d
k
);
δ
ij
:= δ
ij
1(d
ij
= d) + (δ
ik
δ
kj
/δ
k
)1(d
ik
+ d
kj
− d
k
= d);
d
ij
:= d
end;
end;
3) {
Podstawienie wstecz
}
for k = u downto 1 do begin
a
k
:=
d
u+1,k
∧ min
k<j≤u
(d
kj
+ a
j
)
− d
k
;
α
k
:=
"
δ
u+1,k
1(d
u+1,k
= a
k
) +
u
X
j=k+1
δ
kj
α
j
1(d
kj
+ a
j
= a
k
)
#
/δ
k
end
end.
Algorytm 4.2.
input: Macierze ∆(R
R), D(R
R) bez element´ow diagonalnych, wektory δ
R
, d
R
,
ζ
, z.
output: Wektory α, a.
begin
1) for k = 1 to u do begin
d
k,u+1
:= d
kR
; δ
k,u+1
:= δ
kR
;
d
k,u+2
:= z
k
; δ
k,u+2
:= ζ
k
;
end;
2) {
Eliminacja
}
for k = 1 to u do begin
d
k
:= min
k<j≤u+1
d
jk
;
δ
k
:=
P
u+1
j=k+1
δ
jk
1(d
jk
= d
k
);
for i, j = k + 1, i
6= j to i = u, j = u + 2 do begin
d := d
ij
∧ (d
ik
+ d
kj
− d
k
);
δ
ij
:= δ
ij
1(d
ij
= d) + (δ
ik
δ
kj
/δ
k
)1(d
ik
+ d
kj
− d
k
= d);
d
ij
:= d
74
end;
end;
3) {
Podstawienie wstecz
}
for k = u downto 1 do begin
a
k
:=
d
u+1,k
∧ min
k<j≤u
(d
jk
+ a
j
)
− d
k
;
α
k
:=
"
δ
k,u+2
1(d
k,u+2
= a
k
) +
u
X
j=k+1
δ
jk
α
j
1(d
jk
+ a
j
= a
k
)
#
/δ
k
end
end.
Kolejne cztery algorytmy grupuj¸a iteracyjnie stany LM nale˙z¸ace do tej samej
klasy zamkni¸etej w pewnych grafach zale˙znych od D, a nast¸epnie rozwi¸azuj¸a uk lady
r´owna´
n liniowych ograniczone do poszczeg´olnych klas. Algorytmy 4.3 i 4.4 rozwi¸a-
zuj¸a problem (4.2), natomiast algorytmy 4.5 i 4.6 — problem (4.3). Algorytmy 4.4 i
4.6 r´o˙zni¸a si¸e od algorytm´ow 4.3 i 4.5 sposobem normalizacji wyniku: zamiast jednej
normalizacji na ko´
ncu, wykonuj¸a one po´srednie normalizacje na ka˙zdym etapie agre-
gacji. Nie zwi¸eksza to kosztu oblicze´
n, natomiast zabezpiecza przed wyst¸epowaniem
niedomiaru.
Algorytm 4.3.
input: Macierze ∆(R
R), D(R
R) bez element´ow diagonalnych, wektory δ
R
, d
R
,
ζ
, z, liczba ε
0
∈ (0, ε
1
).
output: Wektory α, a.
begin
1) for k = 1 to u do begin
d
k,u+1
:= d
kR
; δ
k,u+1
:= δ
kR
;
d
u+1,k
:= z
k
; δ
u+1,k
:= ζ
k
;
end;
2) {
W tej cz¸e´sci algorytm hierarchicznie agreguje graf indukowany przez macierz
(d
ij
)
u+1
i,j=1
,
i
6= j. Zmienna k indeksuje etapy agregacji czyli kolejne iteracje w p¸etli “repeat”.
(S
k
, E
k
) jest grafem indukowanym przez zgrupowany LM na k-tym etapie agre-
gacji.
}
75
k := 0; S
0
:=
{{i} : i = 1, . . . , u + 1}; E
0
:=
∅;
for
{i} ∈ S
0
do begin
for
{j} ∈ S
0
, j
6= i do begin
δ(
{i}, {j}) := δ
ij
; d(
{i}, {j}) := d
ij
;
end;
V (
{i}) := min
{l}∈S
0
l6=i
d
il
;
d
i
:= 0; δ
i
:= 1;
for j
∈ arg min
{l}∈S
0
l6=i
d
il
do E
0
∪ {({i}, {j})}
end;
repeat
Znajd´z (np. za pomoc¸a algorytmu 2.1) podzia l zbioru S
k
na klasy
zamkni¸ete i zbi´or stan´ow nieistotnych w grafie (S
k
, E
k
);
k := k + 1; E
k
:=
∅;
S
k
:=
{I
k
: I
k
jest sum¸a wszystkich stan´ow nale˙z¸acych do tej samej
klasy zamkni¸etej albo stanem nieistotnym w grafie (S
k−1
, E
k−1
)
};
for I
k
∈ S
k
do begin
for I
k−1
, J
k−1
⊆ I
k
, I
k−1
6= J
k−1
do
if (I
k−1
, J
k−1
)
∈ E
k−1
then
l
I
k
−
1
,J
k
−
1
:=
−δ(I
k−1
, J
k−1
)ε
d(I
k
−
1
,J
k
−
1
)
0
else l
I
k
−
1
,J
k
−
1
:= 0;
Rozwi¸a˙z (np. za pomoc¸a algorytmu 3.1) r´ownanie
L
T
I
k
−
1
1
,I
k
−
1
1
a
I
k
−
1
1
=
−l
I
k
−
1
1
) dla pewnego I
k−1
1
⊆ I
k
;
{ a
I
k
−
1
1
:= (a
I
k
−
1
)
I
k
−
1
⊆I
k
, I
k
−
1
6=I
k
−
1
1
oraz
l
I
k
−
1
1
:= (l
I
k
−
1
1
,I
k
−
1
)
I
k
−
1
⊆I
k
, I
k
−
1
6=I
k
−
1
1
}
Oblicz det L
T
I
k
−
1
1
,I
k
−
1
1
;
a
I
k
−
1
1
:= 1;
σ(I
k
) :=
X
I
k
−
1
⊆I
k
V (I
k−1
);
for I
k−1
⊆ I
k
do begin
d(I
k−1
) := σ(I
k
)
− V (I
k−1
);
δ(I
k−1
) := a
I
k
−
1
det L
T
I
k
−
1
1
,I
k
−
1
1
ε
−d(I
k
−
1
)
0
;
for i
∈ I
k−1
do begin
76
d
i
:= d
i
+ d(I
k−1
);
δ
i
:= δ
i
δ(I
k−1
)
{
Wsp´
o lczynniki d
i
obliczone na k–tym etapie agregacji s¸a “d lugo´sciami”
najkr´otszych drzew o korzeniu i, w grafie wej´sciowym obci¸etym do I
k
. W
nast¸epnej p¸etli “for” obliczamy “d lugo´sci” d(I
k
, J
k
) najkr´otszych drzew
o korzeniu j
∈ J
k
oraz dziedzinie I
k
∪ {j}.
}
end
end;
for J
k
∈ S
k
, J
k
6= I
k
do
d(I
k
, J
k
) := min
I
k
−
1
⊆I
k
J
k
−
1
⊆J
k
[d(I
k−1
) + d(I
k−1
, J
k−1
)];
V (I
k
) := min
J
k
∈S
k
J
k
6=I
k
d(I
k
, J
k
);
for J
k
∈ arg min
J
k
0
∈S
k
J
k
0
6=I
k
d(I
k
, J
k
0
) do begin
E
k
:= E
k
∪ {(I
k
, J
k
)
};
δ(I
k
, J
k
) :=
X
(I
k
−
1
,J
k
−
1
)∈arg min
I
k
−
1
0
⊆I
k
J
k
−
1
0
⊆J
k
[d(I
k
−
1
0
)+d(I
k
−
1
0
,J
k
−
1
0
)]
δ(I
k−1
)δ(I
k−1
, J
k−1
)
end
end
until w grafie
|S
k
| = 1 istnieje tylko jedna klasa zamkni¸eta;
3)
{
Normalizacja
}
for i = 1 to u do begin
a
i
:= d
i
− d
u+1
;
α
i
:= δ
i
/δ
u+1
;
end
end.
Algorytm 4.4.
input: Macierze ∆(R
R), D(R
R) bez element´ow diagonalnych, wektory δ
R
, d
R
,
ζ
, z, liczba ε
0
∈ (0, ε
1
)
output: Wektory α, a.
77
begin
1) for k = 1 to u do begin
d
k,u+1
:= d
kR
; δ
k,u+1
:= δ
kR
;
d
u+1,k
:= z
k
; δ
u+1,k
:= ζ
k
;
end;
2)
{
W tej cz¸e´sci algorytm hierarchicznie agreguje graf indukowany przez macierz
(d
ij
)
u+1
i,j=1
,
i
6= j. Zmienna k indeksuje etapy agregacji czyli kolejne iteracje w p¸etli “repeat”.
(S
k
, E
k
) jest grafem indukowanym przez zgrupowany LM na k-tym etapie agregacji.
}
k := 0; S
0
:=
{{i} : i = 1, . . . , u + 1}; E
0
:=
∅;
for
{i} ∈ S
0
do begin
for
{j} ∈ S
0
, j
6= i do begin
¯
δ(
{i}, {j}) := δ
ij
;
¯
d(
{i}, {j}) := d
ij
;
end;
¯
V (
{i}) := min
{l}∈S
0
l6=i
d
il
;
h
i
:= 0; η
i
:= 1;
for j
∈ arg min
{l}∈S
0
l6=i
d
il
do E
0
∪ {({i}, {j})}
end;
repeat
Znajd´z (np. za pomoc¸a algorytmu 2.1) podzia l zbioru S
k
na klasy
zamkni¸ete i zbi´or stan´ow nieistotnych w grafie (S
k
, E
k
);
k := k + 1; E
k
:=
∅;
S
k
:=
{I
k
: I
k
jest sum¸a wszystkich stan´ow nale˙z¸acych do tej samej
klasy zamkni¸etej albo stanem nieistotnym w grafie (S
k−1
, E
k−1
)
};
for I
k
∈ S
k
do begin
for I
k−1
, J
k−1
⊆ I
k
, I
k−1
6= J
k−1
do
if (I
k−1
, J
k−1
)
∈ E
k−1
then
¯l
I
k
−
1
,J
k
−
1
:=
−¯δ(I
k−1
, J
k−1
)ε
¯
d(I
k
−
1
,J
k
−
1
)
0
else ¯l
I
k
−
1
,J
k
−
1
:= 0;
Rozwi¸a˙z (np. za pomoc¸a algorytmu 3.1) r´ownanie
¯
L
T
I
k
−
1
1
,I
k
−
1
1
¯
a
I
k
−
1
1
=
−¯l
I
k
−
1
1
, gdzie I
k−1
1
⊆ I
k
,
78
{
¯
a
I
k
−
1
1
:= (¯
a
I
k
−
1
)
I
k
−
1
⊆I
k
, I
k
−
1
6=I
k
−
1
1
oraz
¯l
I
k
−
1
1
:= (¯l
I
k
−
1
1
,I
k
−
1
)
I
k
−
1
⊆I
k
, I
k
−
1
6=I
k
−
1
1
}
¯a
I
k
−
1
1
:= 1;
v(I
k
) := max
I
k
−
1
⊆I
k
¯
V (I
k−1
);
¯
ν(I
k
)(ε
0
) :=
X
I
k
−
1
∈arg max
I
k
−
1
0
⊆Ik
¯
V (I
k
−
1
0
)
¯a
I
k
−
1
;
for I
k−1
⊆ I
k
do begin
h(I
k−1
) := v(I
k
)
− ¯
V (I
k−1
);
η(I
k−1
) := ¯
a
I
k
−
1
ε
−h(I
k
−
1
)
0
/¯
ν(I
k
);
for i
∈ I
k−1
do begin
h
i
:= h
i
+ h(I
k−1
);
η
i
:= η
i
η(I
k−1
)
{
Wsp´
o lczynniki
h
i
obliczone
na
k–tym
etapie
agregacji
s¸a
“wysoko´sciami” stan´ow w wej´sciowym grafie obci¸etym do I
k
.
W
nast¸epnej p¸etli “for” obliczamy “odleg lo´sci” ¯
d(I
k
, J
k
) mi¸edzy stanami
zgrupowanymi na k–tym etapie agregacji. ¯
V (I
k
) jest “obj¸eto´sci¸a” klasy
zamkni¸etej I
k
, czyli odleg lo´sci¸a mi¸edzy najni˙zszym (wzgl¸edem h
i
) stanem
w klasie a najbli˙zszym s¸asiadem poza klas¸a.
}
end
end;
for J
k
∈ S
k
, J
k
6= I
k
do
¯
d(I
k
, J
k
) := min
I
k
−
1
⊆I
k
J
k
−
1
⊆J
k
[h(I
k−1
) + ¯
d(I
k−1
, J
k−1
)];
¯
V (I
k
) := min
J
k
∈S
k
J
k
6=I
k
¯
d(I
k
, J
k
);
for J
k
∈ arg min
J
k
0
∈S
k
J
k
0
6=I
k
d(I
k
, J
k
0
) do begin
E
k
:= E
k
∪ {(I
k
, J
k
)
};
¯
δ(I
k
, J
k
) :=
X
(I
k
−
1
,J
k
−
1
)∈arg min
I
k
−
1
0
⊆I
k
J
k
−
1
0
⊆J
k
[h(I
k
−
1
0
)+ ¯
d(I
k
−
1
0
,J
k
−
1
0
)]
η(I
k−1
)¯
δ(I
k−1
, J
k−1
)
79
end
end
until w grafie
|S
k
| = 1 istnieje tylko jedna klasa zamkni¸eta;
3) {
Normalizacja
}
for i = 1 to u do begin
a
i
:= h
i
− h
u+1
;
α
i
:= η
i
/η
u+1
;
end
end.
Algorytm 4.5.
input: Macierze ∆(R
R), D(R
R) bez element´ow diagonalnych, wektory δ
R
, d
R
,
ζ
, z, liczba ε
0
∈ (0, ε
1
)
output: Wektory α, a.
begin
1) for k = 1 to u do begin
d
k,u+1
:= d
kR
; δ
k,u+1
:= δ
kR
;
d
k,u+2
:= z
k
; δ
k,u+2
:= ζ
k
;
end;
2) k := 0; S
0
:=
{{i} : i = 1, . . . , u + 1}; E
0
:=
∅;
{
Cz¸e´s´c 2) jest hierarchiczn¸a agregacj¸a grafu wyznaczonego przez macierz
(d
ij
)
u+1
i,j=1
, i
6= j, bez kraw¸edzi wychodz¸acych z u + 1. Grupujemy r´ownie˙z
kraw¸edzie prowadz¸ace do stanu u + 2. Zmienna k ma podobne znaczenie
jak w algorytmach 4.3 i 4.4.
}
for
{i} ∈ S
0
\ {{u + 1}} do begin
for
{j} ∈ S
0
∪ {{u + 2}}, j 6= i do begin
δ(
{i}, {j}) := δ
i,j
; d(
{i}, {j}) := d
ij
;
end;
V (
{i}) := min
{l}∈S
0
l6=i
d
il
;
for j
∈ arg min
{l}∈S
0
l6=i
d
il
do E
k
:= E
k
∪ {({i}, {j})}
end;
80
Znajd´z (np. za pomoc¸a algorytmu 2.1) podzia l zbioru S
0
na klasy
zamkni¸ete i zbi´or stan´ow nieistotnych w grafie (S
0
, E
0
);
while W grafie (S
k
, E
k
) istniej¸a klasy zamkni¸ete o mocy wi¸ekszej ni˙z 1 do
begin
k := k + 1; E
k
:=
∅;
S
k
:=
{I
k
: I
k
jest sum¸a wszystkich stan´ow nale˙z¸acych do tej samej klasy
zamkni¸etej albo stanem nieistotnym w grafie (S
k−1
, E
k−1
)
};
for I
k
∈ S
k
\ {u + 1} do begin
for I
k−1
, J
k−1
⊆ I
k
, I
k−1
6= J
k−1
do
if (I
k−1
, J
k−1
)
∈ E
k−1
then
l
I
k
−
1
,J
k
−
1
:=
−δ(I
k−1
, J
k−1
)ε
d(I
k
−
1
,J
k
−
1
)
0
else l
I
k
−
1
,J
k
−
1
:= 0;
Rozwi¸a˙z (np. za pomoc¸a algorytmu 3.1) r´ownanie
L
T
I
k
−
1
1
,I
k
−
1
1
a
I
k
−
1
1
=
−l
I
k
−
1
1
dla pewnego I
k−1
1
⊆ I
k
;
{ a
I
k
−
1
1
:= (a
I
k
−
1
)
I
k
−
1
⊆I
k
, I
k
−
1
6=I
k
−
1
1
oraz
l
I
k
−
1
1
:= (l
I
k
−
1
1
,I
k
−
1
)
I
k
−
1
⊆I
k
, I
k
−
1
6=I
k
−
1
1
}
Oblicz det L
T
I
k
−
1
1
,I
k
−
1
1
;
a
I
k
−
1
1
:= 1;
σ(I
k
) :=
X
I
k
−
1
⊆I
k
V (I
k−1
);
for I
k−1
⊆ I
k
do begin
d(I
k−1
) := σ(I
k
)
− V (I
k−1
);
δ(I
k−1
) := a
I
k
−
1
det L
T
I
k
−
1
1
,I
k
−
1
1
ε
−d(I
k
−
1
)
0
;
end;
for J
k
∈ S
k
∪ {u + 2}, J
k
6= I
k
do
d(I
k
, J
k
) := min
I
k
−
1
⊆I
k
J
k
−
1
⊆J
k
[d(I
k−1
) + d(I
k−1
, J
k−1
)];
V (I
k
) := min
J
k
∈S
k
J
k
6=I
k
d(I
k
, J
k
);
for J
k
∈ arg min
J
k
0
∈S
k
J
k
0
6=I
k
d(I
k
, J
k
0
)
∪ {{u + 2}} do begin
81
if J
k
6= {u + 2} then E
k
:= E
k
∪ {(I
k
, J
k
)
};
δ(I
k
, J
k
) :=
X
(I
k
−
1
,J
k
−
1
)∈arg min
I
k
−
1
0
⊆I
k
J
k
−
1
0
⊆J
k
[d(I
k
−
1
0
)+d(I
k
−
1
0
,J
k
−
1
0
)]
δ(I
k−1
)δ(I
k−1
, J
k−1
)
end
end
end;
3) {
W tej cz¸e´sci obliczam wsp´o lczynniki a
i
, i
∈ S \ R.
}
W := S
k
\ {{u + 1}};
for I
k
∈ W do a(I
k
) := d(I
k
,
{u + 2}) − V (I
k
);
repeat
M := arg min
I
k
0
∈W
a(I
k
0
); W := W
\ M;
for I
k
∈ M, i ∈ I
k
do a
i
:= a(I
k
);
for I
k
∈ W do
a(I
k
) := a(I
k
)
∧ min
J
k
∈M
d(I
k
, J
k
)
− V (I
k
) + a(I
k
)
until W =
∅;
4) {
W tej cz¸e´sci obliczam wsp´o lczynniki α
i
, i
∈ S \ R
}
for I
k
, J
k
∈ S
k
, I
k
6= J
k
do
if (I
k
, J
k
)
∈ E
k
then l
I
k
,J
k
:=
−δ(I
k
, J
k
)ε
d(I
k
,J
k
)
0
else l
I
k
,J
k
:= 0;
for I
k
∈ S
k
\ {{u + 1}} do b
I
k
:=
−δ(I
k
,
{u + 2})ε
d(I
k
,{u+2})
0
Rozwi¸a˙z (np. za pomoc¸a algorytmu 3.2) r´ownanie
L
{u+1},{u+1}
x = b;
for I
k
∈ S
k
\ {{u + 1}} do
for i
∈ I
k
do
α
i
:= x
I
k
ε
−a(I
k
)
0
end.
Algorytm 4.6.
input: Macierze ∆(R
R), D(R
R) bez element´ow diagonalnych, wektory δ
R
, d
R
,
ζ
, z, liczba ε
0
∈ (0, ε
1
)
output: Wektory α, a.
begin
82
1) for k = 1 to u do begin
d
k,u+1
:= d
kR
; δ
k,u+1
:= δ
kR
;
d
k,u+2
:= z
k
; δ
k,u+2
:= ζ
k
;
end;
2) k := 0; S
0
:=
{{i} : i = 1, . . . , u + 1}; E
0
:=
∅;
{
Podobnie jak w algorytmie 4.5, cz¸e´s´c 2) jest hierarchiczn¸a agre-
gacj¸a grafu wyznaczonego przez macierz (d
ij
)
u+1
i,j=1
, i
6= j, bez kraw¸edzi
wychodz¸acych z u + 1.
}
for
{i} ∈ S
0
\ {{u + 1}} do begin
for
{j} ∈ S
0
∪ {{u + 2}}, j 6= i do begin
¯
δ(
{i}, {j}) := δ
i,j
;
¯
d(
{i}, {j}) := d
ij
;
end;
¯
V (
{i}) := min
{l}∈S
0
l6=i
d
il
;
for j
∈ arg min
{l}∈S
0
l6=i
d
il
do E
k
:= E
k
∪ {({i}, {j})}
end;
Znajd´z (np. za pomoc¸a algorytmu 2.1) podzia l zbioru S
0
na klasy
zamkni¸ete i zbi´or stan´ow nieistotnych w grafie (S
0
, E
0
);
while W grafie (S
k
, E
k
) istniej¸a klasy zamkni¸ete o mocy wi¸ekszej ni˙z 1 do
begin
k := k + 1; E
k
:=
∅;
S
k
:=
{I
k
: I
k
jest sum¸a wszystkich stan´ow nale˙z¸acych do tej samej klasy
zamkni¸etej albo stanem nieistotnym w grafie (S
k−1
, E
k−1
)
};
for I
k
∈ S
k
\ {u + 1} do begin
for I
k−1
, J
k−1
⊆ I
k
, I
k−1
6= J
k−1
do
if (I
k−1
, J
k−1
)
∈ E
k−1
then
¯l
I
k
−
1
,J
k
−
1
:=
−¯δ(I
k−1
, J
k−1
)ε
¯
d(I
k
−
1
,J
k
−
1
)
0
else ¯l
I
k
−
1
,J
k
−
1
:= 0;
Rozwi¸a˙z (np. za pomoc¸a algorytmu 3.1) r´ownanie
¯
L
T
I
k
−
1
1
,I
k
−
1
1
¯
a
I
k
−
1
1
=
−¯l
I
k
−
1
1
dla pewnego I
k−1
1
⊆ I
k
;
{
¯
a
I
k
−
1
1
:= (¯
a
I
k
−
1
)
I
k
−
1
⊆I
k
, I
k
−
1
6=I
k
−
1
1
oraz
¯l
I
k
−
1
1
:= (¯l
I
k
−
1
1
,I
k
−
1
)
I
k
−
1
⊆I
k
, I
k
−
1
6=I
k
−
1
1
}
¯
a
I
k
−
1
1
:= 1;
83
v(I
k
) := max
I
k
−
1
⊆I
k
¯
V (I
k−1
);
¯
ν(I
k
) :=
X
I
k
−
1
∈arg max
I
k
−
1
0
⊆Ik
¯
V (I
k
−
1
0
)
¯a
I
k
−
1
;
for I
k−1
⊆ I
k
do begin
h(I
k−1
) := v(I
k
)
− ¯
V (I
k−1
);
η(I
k−1
) := ¯
a
I
k
−
1
ε
−h(I
k
−
1
)
0
/¯
ν(I
k
);
end;
for J
k
∈ S
k
∪ {u + 2}, J
k
6= I
k
do
¯
d(I
k
, J
k
) := min
I
k
−
1
⊆I
k
J
k
−
1
⊆J
k
[h(I
k−1
) + ¯
d(I
k−1
, J
k−1
)];
¯
V (I
k
) := min
J
k
∈S
k
J
k
6=I
k
¯
d(I
k
, J
k
);
for J
k
∈ arg min
J
k
0
∈S
k
J
k
0
6=I
k
¯
d(I
k
, J
k
0
)
∪ {{u + 2}} do begin
if J
k
6= {u + 2} then E
k
:= E
k
∪ {(I
k
, J
k
)
};
¯
δ(I
k
, J
k
) :=
X
(I
k
−
1
,J
k
−
1
)∈arg min
I
k
−
1
0
⊆I
k
J
k
−
1
0
⊆J
k
[h(I
k
−
1
0
)+ ¯
d(I
k
−
1
0
,J
k
−
1
0
)]
η(I
k−1
)¯
δ(I
k−1
, J
k−1
)
end
end
end;
3) {
W tej cz¸e´sci obliczam wsp´o lczynniki a
i
, i
∈ S \ R.
}
W := S
k
\ {{u + 1}};
for I
k
∈ W do a(I
k
) := ¯
d(I
k
,
{u + 2}) − ¯
V (I
k
);
repeat
M := arg min
I
k
0
∈W
a(I
k
0
); W := W
\ M;
for I
k
∈ M, i ∈ I
k
do a
i
:= a(I
k
);
for I
k
∈ W do
a(I
k
) := a(I
k
)
∧ min
J
k
∈M
¯
d(I
k
, J
k
)
− ¯
V (I
k
) + a(I
k
)
until W =
∅;
4) {
W tej cz¸e´sci obliczam wsp´o lczynniki α
i
, i
∈ S \ R
}
for I
k
, J
k
∈ S
k
, I
k
6= K
k
do
84
if (I
k
, J
k
)
∈ E
k
then ¯l
I
k
,J
k
:=
−¯δ(I
k
, J
k
)ε
¯
d(I
k
,J
k
)
0
else ¯l
I
k
,J
k
:= 0;
for I
k
∈ S
k
\ {{u + 1}} do ¯b
I
k
:=
−¯δ(I
k
,
{u + 2})ε
¯
d(I
k
,{u+2})
0
Rozwi¸a˙z (np. za pomoc¸a algorytmu 3.2) r´ownanie
¯
L
{u+1},{u+1}
¯
x = ¯
b;
for I
k
∈ S
k
\ {{u + 1}} do
for i
∈ I
k
do
α
i
:= ¯
x
I
k
ε
−a(I
k
)
0
end.
W nast¸epnym algorytmie obliczymy wsp´o lczynniki asymptotyczne dla macierzy
granicznej PZ LM. Wykorzystamy w nim jako procedury algorytmy wprowadzone
poprzednio.
Algorytm 4.7.
input: Macierze ∆ = (δ
ij
)
i,j∈S
, D = (d
ij
)
i,j∈S
bez element´ow diagonalnych, odpo-
wiadaj¸ace PZ LM, ε
0
∈ (0, ε
1
).
output:
Macierze (η
k
j
)
j∈C
k
, k=1,... ,m
,
(h
k
j
)
j∈C
k
, k=1,... ,m
,
(c
k
i
)
i∈T, k=1,... ,m
oraz
(γ
k
i
)
i∈T, k=1,... ,m
.
begin
1)
Znajd´z (np. za pomoc¸a algorytmu 2.1) podzia l zbioru S na klasy zamkni¸ete
C
1
, . . . , C
m
oraz zbi´or stan´ow nieistotnych T w grafie (S,
{(i, j) : δ
ij
> 0
});
2) for k := 1 to m do
Znajd´z wektory (η
k
j
)
j∈C
k
, (h
k
j
)
j∈C
k
(np. za pomoc¸a algorytmu 4.1, al-
gorytmu 4.3 lub algorytmu 4.4 zastosowanego do macierzy (δ
ij
)
i,j∈C
k
oraz (d
ij
)
i,j∈C
k
bez element´ow diagonalnych);
3) for k = 1, . . . , m, i
∈ T do begin
d
ik
:= min
j∈C
k
d
ij
;
δ
ik
:=
P
j∈arg min
j0∈Ck
d
ij0
δ
ij
end;
Znajd´z macierze (c
k
i
)
i∈T, k=1,... ,m
oraz (γ
k
i
)
i∈T, k=1,... ,m
(np. za pomoc¸a
algorytmu 4.2, algorytmu 4.5 lub algorytmu 4.6 zastosowanego do
85
zbior´ow R =
{1, . . . , m}, S
′
= T
.
∪ R oraz macierzy (δ
ij
)
i∈T, j∈S
′
,
(d
ij
)
i∈T, j∈S
′
bez element´ow δ
ii
, d
ii
dla i
∈ T ).
end.
Uwagi 4.2.
(1) W znanych przyk ladach PZ LM wyst¸epuj¸acych w zastosowaniach, elementy
macierzy D s¸a ca lkowite, zatem algorytmy 4.1–4.7 dok ladnie obliczaj¸a wek-
tor a. Natomiast b l¸ad w obliczeniu wektora α, zwi¸azany z reprezentacj¸a
zmiennoprzecinkow¸a oraz wykonywaniem dzia la´
n w arytmetyce zmienno-
przecinkowej, mo˙zna oszacowa´c za pomoc¸a twierdze´
n rozdzia lu 3.
(2) Latwo zauwa˙zy´c, ˙ze koszt algorytm´ow 4.1–4.2 jest asymptotycznie r´owno-
wa˙zny (2/3)s
3
. Koszt algorytm´ow 4.3–4.6 jest rz¸edu O(s
3
). Wydaje si¸e, ˙ze
dla du˙zych LM, w kt´orych jest wiele klas zamkni¸etych, algorytmy 4.3–4.6 s¸a
bardziej efektywne od algorytm´ow 4.1–4.2.
(3) Zauwa˙zmy, ˙ze z dowodu poprawno´sci algorytmu 4.1, podobnie jak z twier-
dzenia 4.1, wynika, ˙ze wektory a i α s¸a funkcjami parametr´ow ∆, D, ζ, z.
(4) Wsp´o lczynniki δ(i) oraz η(i), wyznaczane w algorytmach 4.3–4.6, mo˙zna
obliczy´c za pomoc¸a algorytm´ow 4.1–4.2.
4.3. Analiza algorytm´
ow.
Algorytmy 4.1 i 4.2 s¸a uog´olnieniem algorytm´ow 3.1 i 3.2 na problemy (4.2) i
(4.3). Ich poprawno´s´c jest konsekwencj¸a poprawno´sci algorytm´ow 3.1 i 3.2 oraz
w lasno´sci relacji “
∼” opisanych w lematach 4.1–4.3.
Dow´od poprawno´sci algorytmu 4.1.
Niech L
(k)
R
(ε) :=
l
(k)
ij
(ε)
u+1
i,j=k+1
, b
(k)
(ε), l
T
R
(ε), u
k
(ε) dla k = 1, . . . , u maj¸a
znaczenie podobne jak w rozdziale 3.2. Niech ponadto D
(1)
R
:=
d
(1)
ij
u+1
i,j=1
, ∆
(1)
R
:=
δ
(1)
ij
u+1
i,j=1
b¸ed¸a macierzami takimi, ˙ze
D
(1)
R
=
"
D
T
(R
R) z
d
T
R
z
#
,
∆
(1)
R
:=
"
∆
T
(R
R) ζ
δ
T
R
ζ
#
,
86
gdzie
d
T
R
:= (d
1R
, . . . , d
uR
),
d
iR
:= min
j∈R
d
ij
,
δ
T
R
:= (δ
1R
, . . . , δ
uR
),
δ
iR
:=
X
j∈R
δ
ij
1(d
ij
= d
iR
)
dla i = 1, . . . , u oraz
z := min
j≤u
z
j
,
ζ :=
−
u
X
j=1
ζ
j
1(z
j
= z).
Oczywi´scie
−l
(1)
ij
(ε)
∼ δ
(1)
ij
ε
d
(1)
ij
dla i, j = 1, . . . , u + 1, i
6= j.
Dla dowodu poprawno´sci “eliminacji” zauwa˙zmy, ˙ze z lematu 4.3 wynikaj¸a relacje
l
iR
∼ δ
iR
ε
d
iR
dla i = 1, . . . , u oraz u
1
(ε)
∼ δ
1
ε
d
1
, gdzie
d
1
:= min
j>1
d
(1)
1j
,
δ
1
:=
X
j>1
δ
(1)
1j
1(d
(1)
1j
= d
1
).
W kolejnym k-tym kroku metody (k = 1, . . . , u) definiujemy indukcyjnie macierze
∆
(k+1)
R
=
δ
(k+1)
ij
u+1
i,j=k+1
,
D
(k+1)
R
:=
δ
(k+1)
ij
u+1
i,j=k+1
bez element´ow diagonalnych oraz liczby d
k+1
, δ
k+1
w nast¸epuj¸acy spos´ob.
Dla i, j = k + 1, . . . , u + 1, i
6= j
d
(k+1)
ij
:=d
(k)
ij
∧ (d
(k)
ik
+ d
(k)
kj
− d
k
)
δ
(k+1)
ij
:=δ
(k)
ij
1(d
(k)
ij
= d
(k+1)
ij
)
+ (δ
(k)
ik
δ
(k)
kj
/δ
k
)1(d
(k)
ik
+ d
(k)
kj
− d
k
= d
(k+1)
ij
);
d
k+1
:= min
j>k+1
d
(k+1)
k+1,j
;
δ
k+1
:=
X
j>k+1
δ
(k+1)
k+1,j
1(d
(k+1)
k+1,j
= d
k+1
).
Z lemat´ow 4.1–4.3 oraz za lo˙zenia indukcyjnego wynika, ˙ze
l
(k+1)
ij
(ε) = l
(k)
ij
(ε)
−
l
(k)
ik
(ε)l
(k)
kj
(ε)
u
k
(ε)
∼ δ
(k)
ij
ε
d
(k)
ij
+
δ
(k)
ij
δ
(k)
kj
δ
k
ε
d
(k)
ij
+d
(k)
kj
−d
k
87
∼ δ
(k+1)
ij
ε
d
(k+1)
ij
.
Ponadto ze wzoru (3.20) wynika, ˙ze
u
k+1
(ε)
∼ δ
k+1
ε
d
k
+1
.
Dla dowodu poprawno´sci “podstawienia wstecz” korzystamy z lemat´ow 4.1–4.3 i
otrzymujemy, przez indukcj¸e dla k = 1, . . . , u
x
k
(ε)
∼
δ
(k)
1,u+1
ε
d
(k)
1,u+1
+
u
X
j=k+1
δ
(k)
jk
ε
d
(k)
jk
x
j
(ε)
!
δ
−1
k
ε
−d
k
.
Podobnie dowodzimy poprawno´sci algorytmu 4.2.
W dalszej cz¸e´sci rozdzia lu udowodnimy poprawno´s´c algorytm´ow 4.3 i 4.4.
Analogicznie do definicji parametr´ow las´ow skierowanych w grafie g
∗
(D), po-
danych przed stwierdzeniem 4.4, mo˙zna wprowadzi´c nast¸epuj¸ace parametry las´ow
skierowanych o dziedzinie D: d(f
D), δ(f
D), d(F
D), δ(F
D), d(R
D), δ(R
D),
d
ij
(R
D), δ
ij
(R
D), d(i
D), δ(i
D).
Przyjmijmy ponadto:
n(D) := min
j∈D
d(j
D),
ν(D) :=
X
j∈D
d(j|D)=n(D)
δ(j
D),
h(i
D) := d(j
D)
− n(D),
η(i
D) := δ(j
D)/ν(D).
Dla I, J
⊆ S okre´slmy
d(I, J) := min
i∈I
j∈J
[d(i
I) + d
ij
],
δ(I, J) :=
X
i∈I, j∈J
d(i|I)+d
ij
=d(I,J)
δ(i
|I)δ
ij
,
¯
d(I, J) := min
i∈I
j∈J
[h(i
I) + d
ij
],
¯
V (I) := ¯
d(I, S
\ I),
88
¯
δ(I, J) :=
X
i∈I, j∈J
h(i|I)+d
ij
= ¯
d(I,J)
η(i
|I)δ
ij
.
Niech g
min
(D) := S,
{(i, j) ∈ E
g
∗
(D)
: d
ij
= min
a6=i
d
ia
}
.
Lemat 4.4. (W lasno´sci najkr´otszych las´ow)
Niech R
⊆ S oraz f ∈ F (R) w grafie g
∗
(D). Za l´o˙zmy, ˙ze d(f ) = d(R). Wtedy f
ma nast¸epuj¸ace w lasno´sci.
(1) Dla dowolnej klasy zamkni¸etej I w grafie g
min
(D) takiej, ˙ze I
∩ R = ∅
spe lnione s¸a warunki:
∃! (i, j) ∈ E
f
taka, ˙ze i
∈ I, j ∈ S \ I;
(4.4)
je˙zeli (i, j)
∈ E
f
oraz i, j
∈ I, to (i, j) ∈ E
g
min
(D)
.
(4.5)
(2) Dla dowolnej klasy zamkni¸etej I w grafie g
min
(D) takiej, ˙ze R
⊆ I spe lnione
s¸a warunki:
E
f
= E
f
1
.
∪ E
f
2
,
gdzie f
1
∈ F (R
I) oraz f
2
∈ F (I);
(4.6)
je˙zeli (i, j)
∈ E
f
1
oraz i, j
∈ I, to (i, j) ∈ E
g
min
(D)
.
(4.7)
(3) Dla dowolnych I, J
⊆ S \ R, kt´ore s¸a r´o˙znymi klasami zamkni¸etymi lub
singletonami zawieraj¸acymi stan nieistotny w grafie g
min
(D), spe lniony jest
warunek:
je˙zeli (i, j)
∈ E
f
oraz i
∈ I, j ∈ J, to
(4.8)
d(i
I) + d
ij
=
min
i
0
∈I, j
0
∈J
[d(i
0
I) + d
i
0
j
0
].
Dow´od. Dla dowodu nie wprost cz¸e´sci (1) za l´o˙zmy, ˙ze f nie spe lnia warunku (4.4)
lub (4.5) dla pewnej klasy zamkni¸etej w grafie g
∗
(D) roz l¸acznej z R. Latwo za-
uwa˙zy´c, ˙ze istnieje stan i
0
∈ I taki, ˙ze jego droga do R, zawarta w lesie f, prowadzi
przez stany nie nale˙z¸ace do I. Okre´slmy indukcyjnie: I
0
:=
{i
0
}, f
0
:= f oraz dla
k = 0, 1, . . .
I
k+1
:=
n
i
∈ I \ (I
0
.
∪ . . .
.
∪ I
k
) :
∃
j∈I
k
(i, j)
∈ E
g
min(D)
o
,
f
k+1
:= (S, E
k+1
), gdzie
89
E
k+1
:=
{(i, j) ∈ E
f
k
: i
6∈ I
k+1
}
.
∪ {(i, n(i)) : i ∈ I
k+1
} ,
n(i) — wybrany stan nale˙z¸acy do I
k
taki, ˙ze (i, n(i))
∈ E
g
min
(D)
.
Latwo zauwa˙zy´c, ˙ze f
k
jest lasem o korzeniu R oraz
d(R)
≤ d(f
k+1
)
≤ d(f
k
).
Ponadto ze sko´
nczono´sci I wynika, ˙ze istnieje K taki, ˙ze dla dowolnego k
≥ K
f
k
= f
K−1
,
I
k
= I
K
=
∅
oraz f
K−1
jest lasem spe lniaj¸acym warunki (4.4) i (4.5) dla I. Z za lo˙zenia dowodu
wynika, ˙ze istniej¸a r´o˙zne pary (i
1
, j
1
), (i
2
, j
2
) zawarte w f takie, ˙ze i
1
, i
2
∈ I oraz
j
1
, j
2
∈ S \ I. St¸ad wynika, ˙ze
d(R)
≤ d(f
k−1
) < d(f ).
Sprzeczno´s´c.
W podobny spos´ob dowodzimy cz¸e´s´c (2).
Dla dowodu nie wprost cz¸e´sci (3) za l´o˙zmy, ˙ze istnieje taka para (a, b)
∈ E
f
, ˙ze
a
∈ I, b ∈ J, I, J ⊆ S \ R s¸a r´o˙znymi klasami zamkni¸etymi lub singletonami
zawieraj¸acymi stany nieistotne w grafie g
min
(D) oraz
d(a
I) + d
ab
> min
i
0
∈I
j
0
∈J
[d(i
0
I) + d
i
0
j
0
].
Z cz¸e´sci (1) wynika, ˙ze
d(f
I) = d(a
I).
Przyjmijmy
f
1
:= (S, E
1
),
gdzie
E
1
:= E
f
\ (a, b)
.
∪ (i, j) oraz (i, j) ∈ arg min
i
0
∈I, j
o
∈J
[d(i
0
I) + d
i
0
j
0
].
Latwo zauwa˙zy´c, ˙ze f
1
jest lasem o korzeniu R spe lniaj¸acym warunki (1)–(2) oraz
warunek (4.8) dla I, J. St¸ad wynika, ˙ze
d(R)
≤ d(f
1
) < d(f ).
Sprzeczno´s´c.
90
Dla analizy algorytm´ow 4.3–4.6 wygodnie b¸edzie wprowadzi´c indukcyjnie nast¸e-
puj¸ace wielko´sci
S
0
:=
{{i} : i ∈ S};
d
0
(
{i}, {j}) = ¯
d
0
(
{i}, {j}) := d
ij
;
¯
V
0
(
{i}) := min
j6=i
d
ij
;
E
0
:=
{(I
0
, J
0
) : I
0
, J
0
∈ S
0
, I
0
6= J
0
, d
0
(I
0
, J
0
) = ¯
V
0
(I
0
) <
∞};
g
0
:= (S
0
, E
0
);
Dla k = 1, 2, . . .
S
k
:=
{I
k
: I
k
jest sum¸a wszystkich stan´ow nale˙z¸acych do tej samej
klasy zamkni¸etej albo stanem nieistotnym w g
k−1
};
dla dowolnych I
k
, J
k
∈ S
k
, I
k
6= J
k
v(I
k
) := max
I
k
−
1
⊆I
k
¯
V
k−1
(I
k−1
),
n(I
k
) :=
X
I
k
−
1
⊆I
k
¯
V
k−1
(I
k−1
)
− v(I
k
),
¯
d
k
(I
k
, J
k
) := v(I
k
) + min
I
k
−
1
⊆I
k
J
k
−
1
⊆J
k
[ ¯
d
k−1
(I
k−1
, J
k−1
)
− ¯
V
k−1
(I
k−1
)],
d
k
(I
k
, J
k
) := ¯
d
k
(I
k
, J
k
) + n(I
k
),
¯
V
k
(I
k
) := min
J
k
6=I
k
¯
d
k
(I
k
, J
k
),
E
k
:=
(I
k
, J
k
) : I
k
, J
k
∈ S
k
, I
k
6= J
k
, ¯
d(I
k
, J
k
) = ¯
V (I
k
) <
∞
;
g
k
:= (S
k
, E
k
).
Bezpo´srednio z lematu 4.4 i przyj¸etych definicji wynikaj¸a nast¸epuj¸ace lematy.
Lemat 4.5. Niech i
∈ I
1
∈ S. Wtedy
d(i) = d(i
I
1
) + d
1
(I
1
);
(1)
δ(i) = δ(i
I
1
)δ
1
(I
1
).
(2)
91
Lemat 4.6. Niech I
1
, J
1
∈ S
1
, I
1
6= J
1
, R
∩ (I
1
∪ J
1
) =
∅, i ∈ I
1
. Wtedy
min
j∈J
1
d
ij
(R, j) = d(j
J
1
) + d
1
I
1
,J
1
(R, J
1
);
(1)
X
j∈arg min d
ij0
(R,j
0
)
j
0
∈J
1
δ
ij
= δ(j
J
1
)δ
1
I
1
,J
1
(R, J
1
).
(2)
Nast¸epny lemat wyra˙za zwi¸azek mi¸edzy wsp´o lczynnikami δ
1
(
·, ·), d
1
(
·, ·) oraz
¯
δ
1
(
·, ·), ¯
d
1
(
·, ·).
Lemat 4.7. Niech I
1
∈ S
1
. Wtedy
d
1
(I
1
) + n(I
1
) = ¯
d
1
(I
1
) +
X
J
1
∈S
1
n(J
1
);
(1)
δ
1
(I
1
)ν(I
1
) = ¯
δ
1
(I
1
)
Y
J
1
∈S
1
ν(J
1
).
(2)
Dow´od . Zauwa˙zmy, ˙ze dla i
∈ I
1
∈ S
1
zachodz¸a r´owno´sci:
d(i
I
1
) = n(I
1
) + h(i
I
1
) oraz
δ(i
I
1
) = ν(I
1
)η(i
I
1
).
Cz¸e´s´c (1) jest konsekwencj¸a nast¸epuj¸acych r´owno´sci.
d
1
(I
1
) =
min
f
1
∈F
1
(I
1
)
d
1
(f
1
)
=
min
f
1
∈F
1
(I
1
)
X
(I
1
0
,J
1
0
)∈f
1
d
1
(I
1
0
, J
1
0
)
=
min
f
1
∈F
1
(I
1
)
X
(I
1
0
,J
1
0
)∈f
1
min
i∈I
1
0
j∈J
1
0
[d(i
I
1
0
) + d
ij
]
=
min
f
1
∈F
1
(I
1
)
X
(I
1
0
,J
1
0
)∈f
1
n(I
1
0
) + min
i∈I
1
0
j∈J
1
0
[h(i
I
1
0
) + d
ij
]
=
min
f
1
∈F
1
(I
1
)
X
(I
1
0
,J
1
0
)∈f
1
n(I
1
0
) + ¯
d
1
(I
1
0
, J
1
0
)
92
=
X
I
1
0
∈S
1
I
1
0
6=I
1
n(I
1
0
) +
min
f
1
∈F
1
(I
1
)
¯
d
1
(f
1
)
=
X
I
1
0
∈S
1
I
1
0
6=I
1
n(I
1
0
) + ¯
d
1
(I
1
)
Cz¸e´s´c (2) jest konsekwencj¸a nast¸epuj¸acych r´owno´sci.
δ
1
(I
1
) =
X
f
1
∈F
1
(I
1
)
d
1
(f
1
)=d
1
(I
1
)
δ
1
(f
1
)
=
X
f
1
∈F
1
(I
1
)
d
1
(f
1
)=d
1
(I
1
)
Y
(I
1
0
,J
1
0
)∈f
1
δ
1
(I
1
0
, J
1
0
)
=
X
f
1
∈F
1
(I
1
)
d
1
(f
1
)=d
1
(I
1
)
Y
(I
1
0
,J
1
0
)∈f
1
X
i∈I
1
0
, j∈J
1
0
d(i|I
1
0
)+d
ij
=d
1
(I
1
0
,J
1
0
)
δ(i
I
1
0
)δ
ij
=
X
f
1
∈F
1
(I
1
)
¯
d
1
(f
1
)= ¯
d
1
(I
1
)
Y
(I
1
0
,J
1
0
)∈f
1
ν(I
1
0
)
X
i∈I
1
0
, j∈J
1
0
h(i|I
1
0
)+d
ij
= ¯
d(I
1
0
,J
1
0
)
η(i
I
1
0
)δ
ij
=
X
f
1
∈F
1
(I
1
)
¯
d
1
(f
1
)= ¯
d
1
(I
1
)
Y
I
1
0
∈S
1
I
1
0
6=I
1
ν(I
1
0
)
Y
(I
1
0
,J
1
0
)∈f
1
h(i|I
1
0
)+d
ij
= ¯
d
1
(I
1
0
,J
1
0
)
¯
δ
1
(I
1
0
, J
1
0
)
=
Y
I
1
0
∈S
1
I
1
0
6=I
1
ν(I
1
0
)
X
f
1
∈F
1
(I
1
)
¯
d
1
(f
1
)= ¯
d
1
(I
1
)
¯
δ
1
(f
1
)
=
Y
I
1
0
∈S
1
I
1
0
6=I
1
ν(I
1
0
)¯
δ
1
(I
1
)
Lemat 4.8.
Niech x(ε) = (x
i
(ε))
i∈S\R
b¸edzie rozwi¸azaniem uk ladu (4.2) oraz
π
(ε) = (π
i
(ε))
u+1
i=1
— rozk ladem stacjonarnym jednoklasowego laplasjanu Marko-
wa L
R
(ε), zdefiniowanego wzorem (4.1). Wtedy otrzymujemy dla i
∈ I
1
∈ S
1
,
93
u + 1
∈ J
1
:
x
i
(ε)
∼
δ(i
I
1
)ε
d(i|I
1
)
δ
1
(I
1
)ε
d
1
(I
1
)
δ(u + 1
J
1
)ε
d(u+1|J
1
)
δ
1
(J
1
)ε
d
1
(J
1
)
;
(1)
x
i
(ε)
∼
π
i
(ε)
π
u+1
(ε)
oraz
(2) (a)
π
i
(ε)
∼ η(i
I
1
)ε
h(i|I
1
)
η
1
(I
1
)ε
h
1
(I
1
)
.
(b)
Dow´od . Ze stwierdzenia 4.4 i lematu 4.5 otrzymujemy relacje
w(i)(ε)
∼ δ(i)ε
d(i)
(4.9)
∼ δ(i
I
1
)ε
d(i|I
1
)
δ
1
(I
1
)ε
d
1
(I
1
)
.
St¸ad oraz z twierdzenia 4.1 (2) otrzymujemy cz¸e´s´c (1). Cz¸e´s´c (2) (a) wynika ze
wzoru (4.9), twierdzenia 4.2 oraz z cz¸e´sci (1).
Dla dowodu cz¸e´sci (2) (b) zauwa˙zmy, ˙ze
δ(i
I
1
)ε
d(i|I
1
)
δ
1
(I
1
)ε
d
1
(I
1
)
∼
δ(i
I
1
)
ν(I
1
)
ε
d(i|I
1
)−n(I
1
)
δ
1
(I
1
)ν(I
1
)ε
d
1
(I
1
)+n(I
1
)
η(i
I
1
)ε
h(i|I
1
)
δ
1
(I
1
)ν(I
1
)ε
d
1
(I
1
)+n(I
1
)
.
Ponadto
h
1
(I
1
) = ¯
d
1
(I
1
)
− min
J
1
∈S
1
¯
d
1
(J
1
)
oraz
η
1
(I
1
) = ¯
δ
1
(I
1
)/
X
J
1
∈S
1
: h
1
(J
1
)=0
¯
δ
1
(J
1
)
.
W rezultacie ze wzoru (4.9), twierdzenia 4.2 oraz lematu 4.7 otrzymujemy tez¸e.
Lemat 4.9. Niech x(ε) = (x
i
(ε))
i∈S\R
b¸edzie rozwi¸azaniem uk ladu (4.3). Za lo˙z-
my, ˙ze dla dostatecznie ma lych ε, w grafie g(L) istnieje las o korzeniu R. Wtedy
otrzymujemy dla i
∈ I
1
∈ S
1
, I
1
∩ R = ∅
x
i
(ε)
∼
P
J
1
∈S
1
δ
1
I
1
,J
1
(R, J
1
)ε
d
1
I1,J 1
(R,J
1
)
δ
1
(J
1
,
{u + 1})ε
d
1
(J
1
,{u+1})
δ
1
(R)ε
d
1
(R)
;
(1)
94
x
i
(ε)
∼
P
J
1
∈S
1
¯
δ
1
I
1
,J
1
(R, J
1
)ε
¯
d
1
I1,J 1
(R,J
1
)
¯
δ
1
(J
1
,
{u + 1})ε
¯
d
1
(J
1
,{u+1})
¯
δ
1
(R)ε
¯
d
1
(R)
.
(2)
Dow´od . Ze stwierdzenia 4.4 i lematu 4.6 otrzymujemy relacje
w(R)(ε)
∼ δ(R)ε
d(R)
= δ
1
(R)ε
d
1
(R)
.
Podobnie
X
j∈S\R
w
ij
(R, j)(ε)(
−l
j,u+1
(ε))
∼
X
j∈S\R
δ
ij
(R, j)ε
d
ij
(R)
δ
j,u+1
ε
d
j,u
+1
∼
X
J
1
∈S
1
X
j∈J
1
δ
1
I
1
,J
1
(R, J
1
)ε
d
1
I1,J 1
(R,J
1
)
δ(j
J
1
)δ
j,u+1
ε
d(j|J
1
)+d
j,u
+1
=
X
J
1
∈S
1
δ
1
I
1
,J
1
(R, J
1
)ε
d
1
I1,J 1
(R,J
1
)
δ
1
(J
1
,
{u + 1})ε
d
1
(J
1
,{u+1})
.
W rezultacie z twierdzenia 4.1 (3) wynika cz¸e´s´c (1). Cz¸e´s´c (2) wynika z cz¸e´sci (1)
oraz lematu 4.7.
Dla ustalonej klasy zamkni¸etej I
1
∈ S
1
oraz ε
0
∈ (0, ε
1
) zdefiniujemy teraz
macierz bez element´ow diagonalnych
¯
L(I
1
)(ε
0
) := (l
ij
)
i,j∈I
1
, i6=j
,
gdzie
−l
ij
:=
δ
ij
ε
d
ij
je´sli (i, j)
∈ g
min
(D)
0
je´sli (i, j)
6∈ g
min
(D).
Niech wektor a
1
(ε
0
) b¸edzie rozwi¸azaniem uk ladu
¯
L
T
i
1
i
1
(I
1
)(ε
0
)¯
a
1
(ε
0
) =
−(l
i
1
i
)
T
i∈I
1
, i6=i
1
dla pewnego i
1
∈ I
1
; przyjmijmy ¯
a
i
1
(ε
0
) := 1.
Poni˙zszy lemat pozwala oblicza´c wektory δ(
·
I
1
) (odpowiednio η(
·
I
1
)) za pomoc¸a
wyznacznika macierzy L
i
1
i
1
(I
1
)(ε
0
) oraz wektora d(
·
I
1
) (odpowiednio ¯
a(ε
0
) :=
(¯a
i
(ε
0
))
i∈I
1
oraz h(
·
I
1
)).
95
Lemat 4.10. Za l´o˙zmy, ˙ze I
1
∈ S
1
oraz i
∈ I
1
. Wtedy
δ(i
I
1
) = ¯
a
i
(ε
0
) det ¯
L
i
1
i
1
(ε
0
)ε
−d(i|I
1
)
0
;
(1)
η(i
I
1
) =
¯a
i
(ε
0
)ε
−h(i|I
1
)
0
P
j∈I
1
h(j|I
1
)=0
¯a
j
(ε
0
)
.
(2)
Dow´od . Dla dowodu cz¸e´sci (1) zauwa˙zmy, ˙ze z wniosku 2.2 oraz lematu 2.2 otrzy-
mujemy:
δ(i
I
1
)ε
d(i|I
1
)
0
= ¯
w(i
I
1
)(ε
0
)
=
¯
w(i
I
1
)(ε
0
)
¯
w(i
1
I
1
)(ε
0
)
¯
w(i
1
I
1
)(ε
0
)
= ¯a
i
(ε
0
) det ¯
L
i
1
i
1
(I
1
)(ε
0
),
gdzie i
1
∈ I
1
.
Cz¸e´s´c (2) wynika z cz¸e´sci (1) oraz nast¸epuj¸acych r´owno´sci:
η(i
I
1
) =
δ(i
I
1
)
P
j∈I
1
d(j|I
1
)=n(I
1
)
δ(j
|I
1
)
=
¯a
i
(ε
0
)ε
−d(i|I
1
)
0
P
j∈I
1
d(j|I
1
)=n(I
1
)
¯
a
j
(ε
0
)ε
−n(I
1
)
0
=
¯a
i
(ε
0
)ε
−h(i|I
1
)
0
P
j∈I
1
h(j|I
1
)=0
¯a
j
(ε
0
)
.
Dow´od poprawno´sci algorytmu 4.3.
Z lematu 4.4 wynika, ˙ze dla i
∈ S, I
1
∈ S
1
, I
2
∈ S
2
takich, ˙ze i
∈ I
1
⊆ I
2
spe lnione s¸a r´owno´sci:
d(i
I
2
) = d(i
I
1
) + d
2
(I
1
I
2
)
δ(i
I
2
) = δ(i
I
1
)δ
2
(I
1
I
2
).
(4.10)
Zatem z lematu 4.5 otrzymujemy z (4.10)
d(i) = d(i
I
2
) + d
2
(I
2
)
δ(i) = δ(i
I
2
)δ
2
(I
2
).
(4.11)
96
St¸ad oraz z lematu 4.9 wynika, ˙ze
x
i
(ε)
∼
δ(i
I
2
)ε
d(i|I
2
)
δ
2
(I
2
)ε
d
2
(I
2
)
δ(u + 1
J
2
)ε
d(u+1|J
2
)
δ
2
(J
2
)ε
d
2
(J
2
)
,
(4.12)
gdzie u + 1
∈ J
2
∈ S
2
.
Zauwa˙zmy, ˙ze wsp´o lczynniki d
2
(I
1
I
2
) oraz δ
2
(I
1
I
2
) wyst¸epuj¸ace we wzorach
(4.10) mo˙zemy obliczy´c podobnie jak wsp´o lczynniki d(i
I
1
) oraz δ(i
I
1
). Ponadto
przez indukcj¸e po k otrzymujemy z (4.11) r´owno´sci
d(i
I
k+1
) = d(i
I
k
) + d
k+1
(I
k
I
k+1
)
δ(i
I
k+1
) = δ(i
I
k
)δ
k+1
(I
k
I
k+1
),
(4.13)
gdzie i
∈ I
1
⊆ I
2
⊆ . . . ⊆ I
k
⊆ I
k+1
oraz I
m
∈ S
m
dla m
≤ k + 1.
Niech K + 1 b¸edzie najmniejszym k takim, ˙ze w grafie g
k
istnieje tylko jedna
klasa zamkni¸eta I. Z za lo˙zenia wynika, ˙ze u + 1
∈ I, wsp´o lczynniki d
K
(J
K
I) i
δ
K
(J
K
I), gdzie u + 1
∈ J
K
⊆ I, s¸a sko´nczone oraz mo˙zemy je wyznaczy´c podobnie
do wsp´o lczynnik´ow d
1
(u + 1
J
1
) i δ
1
(u + 1
J
1
). W rezultacie ze wzor´ow (4.12) i
(4.13) otrzymujemy
x
i
(ε)
∼
δ(i
I
K
)ε
d(i|I
K
)
δ
K
(I
K
I)ε
d(I
K
|I)
δ(u + 1
J
K
)ε
d(u+1|J
K
)
δ
K
(J
K
I)ε
d(J
K
|I)
.
Dow´od poprawno´sci algorytmu 4.4.
Rozumuj¸ac podobnie jak w poprzednim dowodzie otrzymujemy z lematu 4.7 dla
k
≤ K + 1 oraz i ∈ S, I
k
∈ S
k
, I
k+1
∈ S
k+1
takich, ˙ze i
∈ I
k
⊆ I
k+1
r´owno´sci
h(i
I
k+1
) = h(i
I
k
) + h
k+1
(I
k
I
k+1
)
η(i
I
k+1
) = η(i
I
k
)η
k+1
(I
k
I
k+1
).
(4.14)
Dalsza cz¸e´s´c dowodu pozostaje bez zmian.
Poprawno´sci algorytm´ow 4.5 i 4.6 dowodzimy podobnie jak w przypadku algo-
rytm´ow 4.3 i 4.4, wykorzystuj¸ac zamiast lematu 4.8 — lemat 4.9. Cz¸e´s´c (4) tych
algorytm´ow wymaga dodatkowo indukcji po iteracjach wyst¸epuj¸acej tam p¸etli “re-
peat”.
97
Poprawno´s´c algorytmu 4.7 wynika z poprawno´sci algorytm´ow 4.1–4.6 oraz twier-
dzenia 4.3.
Uwagi 4.3.
(1) Rysunki 4.1.1–4.1.10 ilustruj¸a obliczanie, za pomoc¸a algorytmu 4.4., wsp´o l-
czynnik´ow asymptotycznych η, h dla rozk ladu stacjonarnego nieprzywiedl-
nego PZ LM indukowanego przez graf obci¸a˙zony przedstawiony na rys. 4.1.1
(liczby w k´o lkach oznaczaj¸a stany, kolory strza lek — sko´
nczone warto´sci
macierzy D, natomiast liczby przy strza lkach — niediagonalne warto´sci
macierzy ∆). Kolory w k´o lkach na rys. 4.1.2, 4.1.4, 4.1.7 oraz 4.1.10
oznaczaj¸a warto´sci wsp´o lczynnik´ow h
i
, natomiast liczby przy k´o lkach —
warto´sci wsp´o lczynnik´ow η
i
(i = 1, . . . , 4) obliczane na kolejnych etapach
agregacji. Na rysunkach 4.1.5 i 4.1.8 przedstawione s¸a odpowiednio macierze
D
2
, ∆
2
oraz D
3
, ∆
3
(prostok¸at i tr´ojk¸at oznaczaj¸a zgrupowane stany). Ry-
sunki 4.1.3, 4.1.6, 4.1.9 ilustruj¸a odpowiednio grafy g
1
, g
2
, g
3
oraz ich klasy
zamkni¸ete (ramki wok´o l stan´ow).
Rysunki 4.2.1–4.2.11 ilustruj¸a obliczanie wsp´o lczynnika h przez algorytm
4.4 dla bardziej skomplikowanego PZ LM indukowanego przez macierz D
przedstawion¸a na rys. 4.2.1.
Rysunek 4.2.12 przedstawia kraw¸edzie wyst¸epuj¸ace w grafie z rysunku
4.2.1, kt´ore mog¸a wyst¸epowa´c w najkr´otszych drzewach.
(2) Rysunki 4.3.1–4.3.8 ilustruj¸a hierarchiczn¸a agregacj¸e, wykonywan¸a w cz¸e´sci
2) algorytmu 4.6, grafu g
∗
(D) przedstawionego na rys. 4.3.1. Rysunek 4.3.9
przedstawia strza lki, kt´ore mog¸a wyst¸epowa´c w najkr´otszych drzewach o
korzeniu
{(1, 1)}.
Rysunki 4.4.1–4.4.5 ilustruj¸a obliczanie wektora a w cz¸e´sci 3) algorytmu
4.6. Liniami przerywanymi oddzielone s¸a zbiory M
1
− M
4
powstaj¸ace w
kolejnych iteracjach p¸etli “repeat”.
(3) Rysunki 4.5.1–4.5.4 ilustruj¸a “skracanie”, opisane w dowodzie lematu 4.4,
drzewa o korzeniu
{(1, 2)} w grafie g
∗
(D) z rys. 4.2.1. Na rys. 4.5.2 “skra-
cane” s¸a kraw¸edzie wychodz¸ace ze stan´ow nale˙z¸acych do klas zamkni¸etych
w grafie g
∗
min
(D)— powsta ly graf ma w lasno´sci (4.4) i (4.5). Na rys. 4.5.3
przedstawiony jest graf maj¸acy w lasno´sci (4.4)–(4.7). Rysunek 4.5.4 przed-
stawia graf kr´otszy od grafu z rys. 4.5.3.
98
(4) Wyniki tej cz¸e´sci pracy s¸a uog´olnieniem i rozwini¸eciem rezultat´ow:
— Schweitzera [Sch 1–3], gdzie podano algorytm dla kolejnych wyraz´ow
rozwini¸ecia rozk ladu stacjonarnego liniowo zaburzonego nieprzywiedl-
nego LM,
— Hassima i Haviva [HasHav], gdzie podano algorytm dla rz¸ed´ow wielko´sci
´srednich czas´ow przej´scia mi¸edzy stanami w przypadku liniowo zabu-
rzonej, nieprzywiedlnej macierzy przej´scia,
— Desai i Kumar´ow [DeKuKu], gdzie podano algorytm dla rz¸ed´ow wielko-
´sci rozk ladu stacjonarnego pewnych la´
ncuch´ow Markowa zaburzonych
pot¸egowo.
(5) Rochlicek i Willsky [RoWi 1–2] podali algorytmy dla wsp´o lczynnik´ow roz-
wini¸ecia rozk ladu prawdopodobie´
nstwa w t-krokach dla analitycznie zabu-
rzonych LM.
99
5.
Algorytmy Monte Carlo generuj¸ace la´
ncuchy Markowa dla
ca lkowania.
5.1. Oszacowania b l¸edu estymacji ca lki wzgl¸edem rozk ladu stacjonarnego
dla odwracalnych la´
ncuch´
ow Markowa.
La´
ncuch Markowa o laplasjanie L nazywa´c b¸edziemy odwracalnym, je´sli istnieje
rozk lad stacjonarny π = (π
i
)
i∈S
taki, ˙ze dla dowolnych i, j
∈ S
π
i
l
ij
= π
j
l
ji
.
Latwo udowodni´c, ˙ze warto´sci w lasne odwracalnego LM s¸a rzeczywiste. Uporz¸ad-
kujmy je wed lug wzrostu warto´sci λ
1
= 0
≤ λ
2
≤ . . . ≤ λ
s
≤ 2.
Dla dowolnej funkcji rzeczywistej na S, f : S
→ R, przyjmijmy oznaczenia
r(f) := max
i∈S
f
i
− min
i∈S
f
i
oraz π
T
f :=
X
i∈S
f
i
π
i
,
gdzie π = (π
i
)
i∈S
jest rozk ladem prawdopodobie´
nstwa na S.
W tym rozdziale rozwa˙za´c b¸edziemy odwracalne i nieprzywiedlne LM X = (X
t
)
t≥0
z czasem dyskretnym t
∈ N. Podamy oszacowania b l¸edu | ¯
f
t
− π
T
f
| estymacji ca lki
π
T
f wzgl¸edem rozk ladu stacjonarnego π za pomoc¸a ´sredniej po czasie
¯
f
t
(ω) :=
1
t
t−1
X
j=0
f (X
j
(ω)),
ω
∈ Ω.
W dalszym ci¸agu skorzystamy z nast¸epuj¸acej nier´owno´sci, udowodnionej ostatnio
przez Dinwoodiego.
Twierdzenie 5.1. (Dinwoodie [Din 1]) Za l´o˙zmy, ˙ze funkcja f : S
→ R spe lnia
nier´owno´sci 0
≤ f ≤ 1. Wtedy dla ka˙zdego δ ∈ [0, (8λ
2
+ 16)
−3
] oraz i
∈ S,
Pr
i
¯
f
t
− π
T
f
≥ δ
≤
1 +
9δ(λ
2
+ 2)
√
π
i
exp(
−tλ
2
δ
2
/2).
Poni˙zszy wniosek i nast¸epuj¸ace po nim dwa stwierdzenia podaj¸a kolejno:
– oszacowanie na prawdopodobie´
nstwo b l¸edu wi¸ekszego lub r´ownego δ;
– oszacowanie b l¸edu dla prawie wszystkich trajektorii przy dostatecznie du˙zym
t;
– oszacowanie b l¸edu w normie L
p
.
100
Wniosek 5.1. Dla dowolnej funkcji f, δ
∈ [0, r(f)(8λ
2
+ 16)
−3
], i
∈ S oraz t =
1, 2, . . .
Pr
i
¯
f
t
− π
T
f
≥ δ
≤ C(π
i
) exp[
−tλ
2
δ
2
/(2r
2
(f))],
gdzie C(π
i
) := 2 1 + 36/√π
i
.
Dow´od. Oczywi´scie
1 +
9δ(λ
2
+ 2)
√
π
i
≤
C(π
i
)
2
.
Z twierdzenia 5.1 wynika, ˙ze dla δ
∈ [0, r(f)(8λ
2
+ 16)
−3
] mamy
Pr
i
¯
f
t
− π
T
f
≥ δ
= Pr
i
¯
f
t
r(f)
−
π
T
f
r(f)
≥
δ
r(f)
≤
C(π
i
)
2
exp[
−tλ
2
δ
2
/(2r
2
(f))].
Podobnie
Pr
i
¯
f
t
− π
T
f
≤ −δ
= Pr
i
¯
f
t
r(f)
−
π
T
f
r(f)
≥ −
δ
r(f)
= Pr
i
1
−
¯
f
t
r(f)
−
1
−
π
T
f
r(f)
≥
δ
r(f)
≤
C(π
i
)
2
exp[
−tλ
2
δ
2
/(2r
2
(f))].
W rezultacie z addytywno´sci prawdopodobie´
nstwa wynika teza.
Stwierdzenie 5.1.
Pr
lim sup
t
r
t
log t
¯
f
t
− π
T
f
≤
s
2r
2
(f)
λ
2
= 1.
Dow´od. Latwo zauwa˙zy´c, ˙ze dla ustalonego a > 1 oraz dla dostatecznie du˙zych
t
∈ N
r log t
t
<
r λ
2
2a
(8λ
2
+ 16)
−3
.
(5.1)
101
Niech t
0
b¸edzie najmniejsz¸a liczb¸a naturaln¸a, dla kt´orej spe lniona jest ta nier´ow-
no´s´c. Niech ponadto dla t
≥ t
0
δ(t) :=
s
2ar
2
(f) log t
tλ
2
.
Wtedy ze wzoru (5.1) wynika, ˙ze
δ(t) < r(f)(8λ
2
+ 16)
−3
exp[
−tλ
2
δ
2
(t)/(2r
2
(f))] = t
−a
.
(5.2)
Przyjmijmy
A(t, a) :=
ω
∈ Ω :
¯
f
t
(ω)
− π
T
f
≥
s
2ar
2
(f) log t
tλ
2
Wtedy z wniosku 5.1 oraz z (5.2) wynika, ˙ze dla dowolnego i
∈ S oraz t ≥ t
0
Pr
i
{A(t, a)} ≤ C(π
i
)t
−a
.
Zatem
P
t≥t
0
Pr
i
{A(t, a)} < ∞. W rezultacie z lematu Borela–Cantelli’ego otrzy-
mujemy
Pr
i
{∃
T ≥0
∀
t≥T
A
C
(t, a)
} = 1,
gdzie A
C
(t, a) = Ω
\ A(t, a). Poniewa˙z ka˙zdy rozk lad prawdopodobie´nstwa Pr jest
kombinacj¸a wypuk l¸a rozk lad´ow warunkowych (Pr
i
)
i∈S
, wi¸ec r´ownie˙z
Pr
{∃
T ≥0
∀
t≥T
A
C
(t, a)
} = 1.
Wobec dowolno´sci a > 1 otrzymujemy tez¸e.
Stwierdzenie 5.2. Dla dowolnych i
∈ S, p > 0, t = 1, 2, . . .
E
i
¯
f
t
− π
T
f
p
1/p
≤ C(p, π
i
, r(f))/
pλ
2
t,
gdzie sta la C(p, π
i
, r(f)) jest zdefiniowana w dowodzie.
102
Dow´od. Niech Y b¸edzie dowoln¸a zmienn¸a losow¸a na przestrzeni (Ω,
F, Pr). Za l´o˙z-
my, ˙ze E
|Y |
p
<
∞. Wtedy dla p > 0 zachodzi nast¸epuj¸aca to˙zsamo´s´c (patrz np.
[Pe] wz´or 2.34)
E
|Y |
p
= p
Z
∞
0
δ
p−1
Pr
{|Y | ≥ δ}dδ.
(5.3)
Przyjmijmy
b := tλ
2
/(2r
2
(f)),
δ
0
:=
pln C(π
i
)/b,
δ
1
:= r(f)/32
3
.
Poniewa˙z δ
1
< r(f)(8λ
2
+ 16)
−3
, wi¸ec z wniosku 5.1 otrzymujemy
Pr
¯
f
t
− π
T
f
≥ δ
≤
1
dla 0
≤ δ ≤ δ
0
C(π
i
)e
−bδ
2
dla δ
0
≤ δ ≤ δ
1
C(π
i
)e
−bδ
2
1
dla δ
1
≤ δ ≤ r(f)
0
dla r(f)
≤ δ.
(5.4)
Zatem ze wzor´ow (5.3) i (5.4) wynika, ˙ze
E
i
¯
f
t
− π
T
f
p
= p
Z
∞
0
δ
p−1
Pr
¯
f
t
− π
T
f
≥ δ
dδ
≤
ln C(π
i
)
b
p/2
+ p
Z
δ
1
δ
0
δ
p−1
C(π
i
)e
−bδ
2
dδ + C(π
i
)(r
p
(f)
− δ
p
1
)e
−bδ
2
1
.
Oszacujemy teraz ca lk¸e wyst¸epuj¸ac¸a po prawej stronie ostatniej nier´owno´sci.
p
Z
δ
1
δ
0
δ
p−1
C(π
i
)e
−bδ
2
dδ =
C(π
i
)p
2b
p/2
Z
bδ
2
1
bδ
2
0
u
p/2−1
e
−u
du
≤
C(π
i
)p
2b
p/2
Γ
p
2
− Γ
p
2
, bδ
2
0
,
gdzie Γ(r, x) oznacza uci¸et¸a funkcj¸e gamma, czyli
Γ(r, x) =
Z
x
0
u
r−1
e
−u
du,
r > 0,
x > 0.
Przyjmijmy oznaczenia
C
1
(p, π
i
) :=
C(π
i
)p
2
h
Γ
p
2
− Γ
p
2
,
pln C(π
i
)
i
+ (ln C(π
i
))
p/2
,
C
2
(p, π
i
, r(f)) := C(π
i
)r
p
(f)(1
− 32
−3p
).
103
Wtedy
E
i
¯
f
t
− π
T
f
p
≤ C
1
(p, π
i
)b
−p/2
+ C
2
(p, π
i
, r(f))e
−bδ
2
1
= b
−p/2
h
C
1
(p, π
i
) + C
2
(p, π
i
, r(f))b
p/2
e
−bδ
2
1
i
≤ b
−p/2
C
1
(p, π
i
) + C
2
(p, π
i
, r(f))
p
2
e
−δ
2
1
p/2
.
W rezultacie, po podstawieniu
C(p, π
i
, r(f)) :=
√
2r(f)
C
1
(p, π
i
) + C
2
(p, π
i
, r(f))
h
p
2
exp(
−r
2
(f)32
−6
)
i
p/2
1/p
,
otrzymujemy tez¸e.
Uwaga 5.1.
Nier´owno´sci wyk ladnicze dla specjalnych odwracalnych LM podane s¸a w
pracach [Gil], [Ka]. Ostatnio Dinwoodie udowodni l jeszcze jedn¸a nier´owno´s´c
podobn¸a do twierdzenia 5.1 [Din 2].
5.2. Oszacowania b l¸edu estymacji ca lki dla Θ-pot¸egowo zaburzonych, od-
wracalnych la´
ncuch´
ow Markowa.
W tej cz¸e´sci zdefiniujemy rodzin¸e LM zawieraj¸ac¸a rodzin¸e PZ LM rozwa˙zan¸a w
rozdziale 4., a nast¸epnie udowodnimy dla niej oszacowania b l¸edu estymacji ca lki
wzgl¸edem rozk ladu stacjonarnego za pomoc¸a ´sredniej po czasie.
Rodzin¸e laplasjan´ow Markowa
{L(ε), ε ∈ (0, ε
1
)
} rz¸edu s × s nazywa´c
b¸edziemy Θ-pot¸egowo zaburzonym la´
ncuchem Markowa (ΘPZ LM), je˙zeli istniej¸a
liczby c
0
, c
1
> 0 oraz macierz D = (d
ij
)
i,j∈S
takie, ˙ze dla dowolnych i, j
∈ S, i 6= j,
d
ij
∈ R ∪ {∞} oraz
c
0
ε
d
ij
≤ −l
ij
(ε)
≤ c
1
ε
d
ij
(ε
∞
:= 0).
Latwo udowodni´c dla rodziny ΘPZ LM stwierdzenia podobne do stwierdze´
n 4.1–
4.3. Ponadto charakterystyki ΘPZ LM mo˙zna oszacowa´c korzystaj¸ac z twierdze´
n
104
3.1–3.4. Na przyk lad dla rozk ladu stacjonarnego nieprzywiedlnego ΘPZ LM praw-
dziwe s¸a nier´owno´sci:
c
0
c
1
s−1
ε
h
i
≤ π
i
(ε)
≤
c
1
c
0
s−1
ε
h
i
.
(5.5)
Przypomnijmy, ˙ze dla dowolnego lasu f oraz rodziny las´ow F w grafie g
∗
(D)
d(f ) :=
X
(i,j)∈f
d
ij
,
d(F ) = min
f ∈F
d(f )
oraz dla k = 1, . . . , s
F
k
:=
[
R⊆S
|R|=k
F (R).
Przyjmijmy ponadto
v
k
:= d(F
k−1
)
− d(F
k
).
Twierdzenie 5.2. Niech
{L(ε), ε ∈ (0, ε
1
)
} b¸edzie rodzin¸a ΘPZ LM zadan¸a przez
macierz D o rzeczywistych warto´sciach w lasnych. Wtedy dla k = 2, . . . , s
s − 1
k
− 2
−1
s
k
−1
ks
s−k−1
c
s−k+1
0
c
k−s
1
ε
v
k
≤ λ
k
(ε)
oraz
λ
k
(ε)
≤
s − 1
k
− 1
s
k
− 1
(k
− 1)s
s−k
c
k−s
0
c
s−k+1
1
ε
v
k
.
Dow´od. Z za lo˙zenia i wniosku 2.4 wynika, ˙ze dla k = 2, . . . , s oraz ε
∈ (0, ε
1
)
c
s−k
0
ε
d(F
k
)
≤ w(F
k
)(ε)
≤
s
k
ks
s−k−1
c
s−k
1
ε
d(F
k
)
,
St¸ad i z twierdzenia 2.6 wynika teza.
G l´ownym rezultatem tego rozdzia lu jest nast¸epuj¸ace twierdzenie.
Twierdzenie 5.3. Niech
{L(ε), ε ∈ (0, ε
1
)
} b¸edzie rodzin¸a nieprzywiedlnych i
odwracalnych ΘPZ LM wyznaczon¸a przez macierz D i sta le c
0
, c
1
. Niech π(ε) b¸edzie
rozk ladem stacjonarnym LM o laplasjanie L(ε). Niech ponadto f : S
→ R. Wtedy:
(1) dla δ
∈
0, r(f)(8C
1
(c
0
, c
1
)ε
v
2
(D)
+ 16)
−3
Pr
ε
i
{| ¯
f
ε
t
− π
T
(ε)f
| ≥ δ} ≤ C (c
0
/c
1
)
s−1
ε
h
i
(D)
exp −tC
0
(c
0
, c
1
)ε
−v
2
(D)
δ
2
/(2r
2
(f))
;
105
Pr
ε
i
(
lim sup
t→∞
r
t
log t
| ¯
f
ε
t
− π
T
(ε)f
| ≤
s
2r
2
(f)
C
0
(c
0
, c
1
)ε
v
2
(D)
)
= 1;
(2)
E
ε
i
| ¯
f
ε
t
− π
T
(ε)f
|
p
1/p
≤ C p, (c
0
/c
1
)
s−1
ε
h
i
(D)
, r(f)
/
q
tC
0
(c
0
, c
1
)ε
v
2
(D)
,
(3)
gdzie wszystkie sta le s¸a zdefiniowane w dowodzie.
Dow´od. Niech λ
2
(ε) b¸edzie drug¸a warto´sci¸a w lasn¸a laplasjanu L(ε). Wtedy z
twierdzenia 5.2 otrzymujemy
λ
2
(ε)
≥ C
0
(c
0
, c
1
)ε
v
2
(D)
,
(5.6)
gdzie
C
0
(c
0
, c
1
) := 4(s
− 1)
−1
s
s−4
c
s−1
0
c
2−s
1
oraz
λ
2
(ε)
≤ C
1
(c
0
, c
1
)ε
v
2
(D)
,
(5.7)
gdzie
C
1
(c
0
, c
1
) := (s
− 1)s
s−1
c
2−s
0
c
s−1
1
.
Cz¸e´s´c (1) twierdzenia wynika z (5.5), (5.6), (5.7) oraz wniosku 5.1. Cz¸e´s´c (2) wynika
z (5.6) oraz stwierdzenia 5.1. Cz¸e´s´c (3) wynika z (5.5), (5.6) oraz stwierdzenia
5.2.
Uwagi 5.2.
(1) Twierdzenie 5.2 jest podobne do wyniku Wentzlla [We], gdzie rozwa˙zana jest
wi¸eksza rodzina zaburzonych la´
ncuch´ow Markowa ni˙z ΘPZ LM. Jednak teza
jest tam mniej dok ladna. Wentzell poda l bez dowodu lemat r´ownowa˙zny
lematowi 2.2 (1).
(2) G l´owne twierdzenie tego rozdzia lu (twierdzenie 5.3) podaje oszacowanie b l¸e-
d´ow estymacji ca lki za pomoc¸a ´sredniej po trajektorii dla ΘPZ LM. G l´owny-
mi zaletami tych oszacowa´
n s¸a:
(a) du˙za og´olno´s´c (wydaje si¸e, ˙ze jest to pierwsze twierdzenie tego rodzaju);
(b) jawna zale˙zno´s´c oszacowania od parametr´ow ΘPZ LM oraz od ε i t.
106
5.3. Oszacowania b l¸edu dla algorytm´
ow Metropolisa–Hastingsa oraz
pr´
obnika Gibbsa.
W tej cz¸e´sci rozdzia lu rozwa˙za´c b¸edziemy algorytmy dla oszacowania ca lki funkcji
f : S
→ R wzgl¸edem rozk ladu prawdopodobie´nstwa π = (π
i
)
i∈S
, w przypadku, gdy
π
i
> 0 dla dowolnego i
∈ S. Algorytmy te generuj¸a nieprzywiedlne i odwracalne
LM o rozk ladzie stacjonarnym π. ´
Srednia po czasie ¯
f
t
takich LM jest naturalnym
oszacowaniem π
T
f. Z twierdzenia ergodycznego wynika bowiem, ˙ze
Pr
n
lim
t→∞
¯
f
t
= π
T
f
o
= 1.
Zanim przejdziemy do omawiania dalszych w lasno´sci ¯
f
t
, podamy kilka definicji.
Dla danej funkcji G : [0, 1]
→ [0, 1] zdefiniujemy jej rozszerzenie G
∗
: R
+
→ [0, 1]
w nast¸epuj¸acy spos´ob:
G
∗
(x) :=
G(x)
dla 0
≤ x ≤ 1
xG(x
−1
) dla x > 1.
Macierz A = (a
ij
)
i,j∈S
nazywa´c b¸edziemy strukturalnie symetryczn¸a, je˙zeli dla
dowolnych i, j
∈ S spe lniony jest nast¸epuj¸acy warunek
a
ij
6= 0 ⇐⇒ a
ji
6= 0.
Dla dowolnych i, j
∈ S przyjmiemy N
i
(A) :=
{i} ∪ {j ∈ S : a
ij
6= 0} oraz
N
ij
(A) := N
i
(A)
∩ N
j
(A).
Laplasjan Markowa L(π) = (l
ij
)
i,j∈S
o rozk ladzie stacjonarnym π nazywa´c
b¸edziemy laplasjanem Metropolisa–Hastingsa, je˙zeli istniej¸a:
nieprzywiedlna i
strukturalnie symetryczna macierz przej´scia Q = (q
ij
)
i,j∈S
oraz funkcja G : [0, 1]
→
[0, 1] o nast¸epuj¸acych w lasno´sciach:
G(x) = 0
⇐⇒ x = 0,
(5.8)
G(x)
≤ x,
(5.9)
m(G) := inf
x>0
G(x)
x
> 0,
(5.10)
takie, ˙ze dla i, j
∈ S, i 6= j
− l
ij
= q
ij
G
∗
π
j
q
ji
π
i
q
ij
.
(5.11)
107
Je˙zeli w powy˙zszej definicji warunek (5.11) mo˙zna zast¸api´c warunkiem
− l
ij
= q
ij
G
∗
q
ji
q
ij
π
j
P
N
ij
(Q)
π
k
dla i, j
∈ S, i 6= j,
(5.12)
to laplasjan L(π) nazywa´c b¸edziemy laplasjanem Gibbsa.
La´
ncuchem Metropolisa– Hastingsa ( LMH) nazywa´c b¸edziemy LM, kt´orego
laplasjan jest laplasjanem Metropolisa–Hastingsa.
Podobnie la´
ncuchem Gibbsa
( LG) nazywa´c b¸edziemy LM, kt´orego laplasjan jest laplasjanem Gibbsa.
W dalszym ci¸agu uto˙zsamia´c b¸edziemy LM z algorytmem, kt´ory go generuje.
Poni˙zszy przyk lad podaje najbardziej znane LMH.
Przyk lad 5.1.
(1) Algorytm Metropolisa [Me et al.], [So], [Wel]:
G
∗
M
(x) := x
∧ 1;
(2) Algorytm Barkera [Wel]:
G
∗
B
(x) := x/(1 + x);
(3) Algorytm Hastingsa: [So], [Wel] dla a, b
≥ 1
G
∗
ab
(x) :=
1 + a[a
−1
(x
−1
∧ x)]
b
1 + x
−1
.
Latwo zauwa˙zy´c, ˙ze G
∗
a1
≡ G
∗
M
oraz G
∗
a∞
≡ G
∗
B
.
Bezpo´srednio z definicji wynikaj¸a nast¸epuj¸ace stwierdzenia.
Stwierdzenie 5.3. Je˙zeli funkcja G : [0, 1]
→ [0, 1] spe lnia warunek (5.8) i (5.9),
to
G
∗
(x)
≤ G
∗
M
(x)
dla x
∈ R
+
.
Je˙zeli dodatkowo funkcja G spe lnia warunek (5.10), to
m(G)G
∗
M
(x)
≤ G
∗
(x)
dla x
∈ R
+
.
Kolejne stwierdzenie charakteryzuje dopuszczalne funkcje G w´sr´od funkcji ci¸a-
g lych.
108
Stwierdzenie 5.4. Za l´o˙zmy, ˙ze funkcja G : [0, 1]
→ [0, 1] spe lnia warunek (5.8),
(5.9) oraz jest ci¸ag la. Wtedy nast¸epuj¸ace warunki s¸a r´ownowa˙zne:
m(G) > 0,
(1)
lim inf
x→0
G(x)
x
> 0.
(2)
Stwierdzenie 5.5. Je˙zeli LM o laplasjanie L(π) jest LMH lub LG, to jest nieprzy-
wiedlnym i odwracalnym LM o rozk ladzie stacjonarnym π.
Dla dowolnej funkcji u : S
→ R oraz liczby τ > 0 przyjmijmy
π
(τ, u) := (π
i
(τ, u))
i∈S
,
gdzie dla i
∈ S
π
i
(τ, u) :=
exp(
−u
i
/τ )
P
j∈S
exp(
−u
j
/τ )
.
Rozk lad prawdopodobie´
nstwa π(τ, u) nazywa´c b¸edziemy rozk ladem Gibbsa o po-
tencjale u i temperaturze τ .
Przyjmijmy dla danej macierzy Q = (q
ij
)
i,j∈S
oraz funkcji G : [0, 1]
→ [0, 1]
q
0
:= min
i6=j
q
ij
>0
q
ij
,
q
1
:= max
i6=j
q
ij
,
N(Q) := max
i6=j
|N
ij
(Q)
|, u
ij
(Q) :=
min
k∈N
ij
(Q)
u
k
.
Stwierdzenie 5.6. Niech
L(u) := {L(π(τ, u)), τ > 0} b¸edzie rodzin¸a laplasjan´ow
LMH okre´slon¸a przez macierz Q i funkcj¸e G. Wtedy
c
0
exp(
−d
ij
/τ )
≤ −l
ij
(τ, u)
≤ c
1
exp(
−d
ij
/τ ),
gdzie
c
0
:= m(G)q
0
;
c
1
:= q
1
; oraz dla i
6= j d
ij
:=
(u
j
− u
i
)
∨ 0 je´sli q
ij
> 0
∞
je´sli q
ij
= 0.
W szczeg´olno´sci
L(u) jest ΘPZ LM przy konwencji ε := exp(−1/τ).
109
Dow´od. Przyjmijmy dla prostoty π
i
:= π
i
(τ, u) oraz za l´o˙zmy, ˙ze q
ij
> 0. Wtedy ze
stwierdzenia 5.3 otrzymujemy:
q
ij
G
∗
π
j
q
ji
π
i
q
ij
≥ q
ij
m(G)G
∗
M
π
j
q
ji
π
i
q
ij
= m(G)
π
j
q
ji
π
i
∧ q
ij
≥ m(G)q
0
π
j
π
i
∧ 1
.
Ponadto
q
ij
G
∗
π
j
q
ji
π
i
q
ij
≤ q
ij
G
∗
M
π
j
q
ji
π
i
q
ij
≤ q
1
π
j
π
i
∧ 1
.
St¸ad wynika teza.
Stwierdzenie 5.7. Niech
L(u) := {L(π(τ, u)), τ > 0} b¸edzie rodzin¸a laplasjan´ow
LG okre´slon¸a przez macierz Q i funkcj¸e G. Wtedy
c
0
exp(
−d
ij
/τ )
≤ l
ij
(τ, u)
≤ c
1
ε exp(
−d
ij
/τ ),
gdzie
c
0
:=
m(G)q
0
N(Q)
;
c
1
:= q
1
; oraz dla i
6= j d
ij
:=
(u
j
− u
ij
(Q))
je´sli q
ij
> 0
∞
je´sli q
ij
= 0.
W szczeg´olno´sci
L(u) jest ΘPZ LM przy konwencji ε := exp(−1/τ).
Dow´od. Przyjmijmy dla wygody π
i
:= π
i
(τ, u) oraz za l´o˙zmy, ˙ze q
ij
> 0. Wtedy ze
stwierdzenia 5.3 otrzymujemy:
q
ij
G
∗
q
ji
q
ij
≥ q
ij
m(G)G
∗
M
q
ji
q
ij
= m(G) (q
ji
∧ q
ij
)
≥
m(G)q
0
N(Q)
.
Ponadto
q
ij
G
∗
q
ji
q
ij
≤ q
ji
∧ q
ij
≤ q
1
.
St¸ad wynika teza.
Z dowodu twierdzenia 5.7 [ChiCho 4] wynika nast¸epuj¸ace twierdzenie.
110
Twierdzenie 5.4. (Chiang–Chow [ChiCho 4]) Niech dane b¸ed¸a u : S
→ R oraz
τ > 0. Niech L
1
(π(τ, u)), L
2
(π(τ, u)) b¸ed¸a laplasjanami LMH lub LG o macierzach
Q
1
i Q
2
takich, ˙ze g(Q
1
) = g(Q
2
). Wtedy dla k = 1, . . . , s
v
1
k
= v
2
k
.
Z twierdzenia 5.4 wynika, ˙ze dla LMH lub LG o tym samym grafie g = g(Q) oraz
rozk ladzie prawdopodbie´
nstwa π(τ, u), wsp´o lczynniki v
k
L(π(τ, u)), Q, G
s¸a sta le
i zale˙z¸a tylko od u, k oraz g.
Uwagi 5.3.
(1) Chiang i Chow [ChiCho 4] udowodnili r´owno´s´c wsp´o lczynnik´ow v
k
dla al-
gorytmu Metropolisa i pr´obnika Gibbsa w przypadku szczeg´olnej struktury
g
∗
(D). Ingrassia [In] oszacowa l λ
2
(ε) dla algorytmu Metropolisa i pr´obnika
Gibbsa przy podobnych za lo˙zeniach o g
∗
(D) za pomoc¸a nier´owno´sci Poin-
care’go [Dist], [Fi], DiS–C], [Si], [Al 3]. W por´ownaniu z nier´owno´sciami
Ingrassi, twierdzenie 5.2 daje s labsze sta le dla λ
2
, jednak pozwala oszacowa´c
wszystkie warto´sci w lasne. Ponadto stwierdzenia 5.6 i 5.7 pozwalaj¸a uog´olni´c
rezultaty Ingrassi oraz Chianga i Chowa na du˙z¸a, nieparametryczn¸a rodzin¸e
algorytm´ow, zawieraj¸ac¸a rodzin¸e wprowadzon¸a przez Hastingsa [Gi], [So],
[Wel].
(2) Twierdzenie 5.3 razem ze stwierdzeniami 5.6 i 5.7 potwierdzaj¸a do´swiadcze-
nie numeryczne wskazuj¸ace na podobn¸a efektywno´s´c algorytmu Metropolisa
i pr´obnika Gibbsa dla niskich temperatur.
(3) Algorytm Metropolisa i pr´obnik Gibbsa s¸a u˙zywane od ponad 40 lat w mo-
delach mechaniki statystycznej (np. model Isinga, model Pottsa, Random
Cluster Model) do estymacji globalnych charakterystyk z lo˙zonych uk lad´ow
fizycznych (patrz np. [Me et al.], [So], [Gi], [Wel]). Pomimo du˙zego do´swiad-
czenia praktycznego, niewiele wiadomo o zachowaniu tych algorytm´ow “w
czasie sko´
nczonym”.
Jerrum i Sinclair w pracy [JeSi] skonstruowali modyfikacj¸e algorytmu Me-
tropolisa dla pewnych modeli Isinga oraz udowodnili, ˙ze koszt tego algorytmu
jest ograniczony przez logarytmiczn¸a funkcj¸e liczno´sci zbioru stan´ow — s,
dok ladno´sci — δ, poziomu ufno´sci — α (por. [Je], [Wel]).
111
Dyer, Frieze i Kannan [DyFriKa] skonstruowali modyfikacj¸e algorytmu
Metropolisa dla szacowania obj¸eto´sci zbior´ow zwartych i wypuk lych w R
d
oraz udowodnili, ˙ze koszt tego algorytmu jest ograniczony przez wielomi-
anow¸a funkcj¸e d, δ, α (por. [Al 1–2], [ApKa], [DyFri], [FriKaPo], [Ka], [Je],
[Wel]). Praca Tierneya [Ti] jest przegl¸adem wynik´ow teoretycznych oraz za-
stosowa´
n pr´obnika Gibbsa do oszacowania ca lek w statystyce bayesowskiej.
112
6. Algorytmy Monte Carlo generuj¸ace la´
ncuchy Markowa dla poszu-
kiwania minimum globalnego.
6.1. Niejednorodne la´
ncuchy Markowa. Podstawowe definicje i stwier-
dzenia.
Niech (X
t
)
t≥0
b¸edzie niejednorodnym la´
ncuchem Markowa z czasem dyskretnym,
okre´slonym na przestrzeni (Ω,
F, Pr) o warto´sciach w zbiorze S = {1, 2, . . . , s}.
Zak lada´c b¸edziemy, ˙ze dla dowolnego stanu i
∈ S, Pr{X
0
= i
} > 0. Nie jest to
warunek istotnie ograniczaj¸acy rezultaty podane w tym rozdziale a ponadto znacznie
u latwia rozumowanie.
Dla dowolnych A
⊆ S, j ∈ A przyjmijmy oznaczenia:
{A ult.} := {ω ∈ Ω : ∃
N ≥0
∀
t≥N
X
t
(ω)
∈ A},
{A i. o.} := {ω ∈ Ω : ∀
N ≥0
∃
t≥N
X
t
(ω)
∈ A},
{j i. o.} := {{j} i. o.}.
Oczywi´scie
{A ult.}, {A i. o.} ∈ F.
Stan j
∈ S nazywa´c b¸edziemy powracaj¸acym, je˙zeli Pr{j i. o.} > 0. W prze-
ciwnym przypadku stan j nazywa´c b¸edziemy chwilowym.
Latwo zauwa˙zy´c, ˙ze
powy˙zsza definicja jest r´ownowa˙zna definicji podanej w rozdziale 2., je˙zeli la´
ncuch
Markowa jest jednorodny. W´owczas prawdziwe jest tak˙ze twierdzenie, ˙ze stan jest
powracaj¸acy wtedy i tylko wtedy, gdy jest istotny.
W przypadku niejednorodnych la´
ncuch´ow Markowa macierz przej´scia zmienia si¸e
w czasie — zatem mo˙ze zmienia´c si¸e r´ownie˙z graf indukowany przez t¸e macierz.
Podamy teraz przyk lad, kt´ory pokazuje, ˙ze stan mo˙ze by´c powracaj¸acy i nie by´c
istotny nawet wtedy, kiedy graf indukowany przez macierz przej´scia nie zmienia si¸e
w czasie.
Przyk lad 6.1. Niech S =
{1, 2} oraz, dla dowolnego t ≥ 1, Pr{X
t+1
= 1
X
t
=
1
} = 1 i Pr{X
t+1
= 2
X
t
= 2
} = 1−(1/t)
2
. Jest oczywiste, ˙ze je´sli Pr
{X
0
= 2
} > 0,
to 2 b¸edzie stanem powracaj¸acym, chocia˙z nie jest stanem istotnym w ˙zadnym z
graf´ow generowanych przez macierz przej´scia.
113
Klas¸a asymptotycznie zamkni¸et¸a niejednorodnego la´
ncucha Markowa nazywa´c
b¸edziemy podzbi´or R przestrzeni stan´ow S o nast¸epuj¸acych w lasno´sciach:
(1)
{R i. o.} 6= ∅ p. n. (istotno´s´c);
(2)
{R i. o.} = {R ult.} p. n. (rozdzielanie trajektorii);
(3) R jest minimalnym w sensie inkluzji podzbiorem S spe lniaj¸acym warunki (1)
i (2).
Poni˙zsze stwierdzenie pokazuje, ˙ze tak zdefiniowane klasy asymptotycznie zam-
kni¸ete niejednorodnych LM maj¸a zasadnicz¸a w lasno´s´c klas zamkni¸etych jednorod-
nych LM: ka˙zda trajektoria ω
∈ Ω “wpadnie”, prawie na pewno, do jednej z klas
asymptotycznie zamkni¸etych i ju˙z jej nie “opu´sci”.
Stwierdzenie 6.1.
Niech R
1
, . . . , R
m
b¸ed¸a wszystkimi klasami asymptotycznie
zamkni¸etymi niejednorodnego la´
ncucha Markowa na S. Niech ponadto T := S
\
S
i≤m
R
i
. Wtedy:
(1) m
≥ 1;
(2) Zbiory R
1
, . . . , R
m
, T tworz¸a podzia l przestrzeni stan´ow S;
(3)
{T i. o.} = ∅ p. n.;
(4)
{R
1
ult.
} ∪ . . . ∪ {R
m
ult.
} = Ω p. n..
Dow´od. (1) Wynika z tego, ˙ze S spe lnia warunki (1) i (2) definicji klasy asympto-
tycznie zamkni¸etej.
(2) Za l´o˙zmy dla sprzeczno´sci, ˙ze istniej¸a dwie klasy asymptotycznie zamkni¸ete R
1
,
R
2
takie, ˙ze R := R
1
∩ R
2
6= ∅. S¸a teraz dwie mo˙zliwo´sci:
(a) Je´sli
{R i. o.} = ∅ p. n., to
{R
1
\ R i. o.} ⊆ {R
1
i. o.
} = {R
1
ult.
}
=
{R
1
ult., R
1
\ R ult.} ∪ {R
1
ult., R i. o.
} = {R
1
\ R ult.} ⊆ {R
1
\ R i. o.} p. n.
Ale
{R
1
i. o.
} 6= ∅ p. n.. St¸ad R
1
\R jest zbiorem istotnym oraz rozdziela trajektorie,
co jest sprzeczne z za lo˙zeniem o R
1
.
(b) Je´sli
{R i. o.} 6= ∅ p. n., to
{R ult.} ⊆ {R i. o.} ⊆ {R
1
i. o., R
2
i. o.
} = {R
1
ult., R
2
ult.
} = {R ult.} p. n.
114
Zatem R jest zbiorem istotnym oraz rozdziela trajektorie, co jest sprzeczne z za lo-
˙zeniem o R
1
.
(3) Oczywi´scie
{T i. o.} = {T ult.} p. n.. Gdyby wi¸ec {T i. o.} 6= ∅ p. n., to ist-
nia laby klasa asymptotycznie zamkni¸eta zawarta w T , co przeczy za lo˙zeniu o m.
(4) Wynika z (3) oraz z definicji klasy asymptotycznie zamkni¸etej.
Latwo zauwa˙zy´c, ˙ze T z powy˙zszego stwierdzenia jest zbiorem wszystkich stan´ow
chwilowych.
Wydaje si¸e, ˙ze odpowiednikiem grafu g(L) mo˙ze by´c w przypadku niejednorod-
nym nast¸epuj¸acy graf:
g
∞
:= (S,
{(i, j) : Pr{X
t
= i, X
t+1
= j i. o.
} > 0}) .
Uzasadnieniem tej definicji jest nast¸epuj¸ace stwierdzenie.
Stwierdzenie 6.2. R jest klas¸a asymptotycznie zamkni¸et¸a wtedy i tylko wtedy, gdy
R jest klas¸a zamkni¸et¸a w grafie g
∞
zawieraj¸ac¸a stan powracaj¸acy.
Dow´od. Stwierdzenie wynika bezpo´srednio ze stwierdzenie 6.1.
Dla danego R
⊆ S oznaczmy
{R uni. ult.} :=
\
j∈R
{j i. o.}.
Zbiorem powracaj¸acym niejednorodnego la´
ncucha Markowa nazywa´c b¸edziemy
maksymalny w sensie inkluzji podzbi´or R przestrzeni stan´ow S, dla kt´orego
{R uni. ult.} 6= ∅ p. n.
Poj¸ecie zbioru powracaj¸acego oddaje nast¸epuj¸ac¸a intuicj¸e: jest to maksymalny
w sensie inkluzji zbi´or stan´ow, kt´ore s¸a odwiedzane niesko´
nczenie wiele razy przez
wszystkie trajektorie ze zbioru o dodatnim prawdopodobie´
nstwie.
Latwo zauwa˙zy´c, ˙ze ka˙zdy zbi´or powracaj¸acy R jest zawarty w pewnej klasie
asymptotycznie zamkni¸etej R
1
oraz zachodz¸a inkluzje
{R uni. ult.} ⊆ {R ult.} ⊆ {R
1
ult.
} p. n.
Je˙zeli dodatkowo
{R uni. ult.} = {R
1
ult.
} p. n., to zbi´or powracaj¸acy nazywa´c
b¸edziemy klas¸a powracaj¸ac¸a.
115
Nie zawsze klasy asymptotycznie zamkni¸ete s¸a zbiorami powracaj¸acymi, istniej¸a
r´ownie˙z klasy asymptotycznie zamkni¸ete, b¸ed¸ace zbiorami powracaj¸acymi, kt´ore nie
s¸a klasami powracaj¸acymi. Latwo mo˙zna znale´z´c odpowiednie kontrprzyk lady.
Bezpo´srednio z definicji wynika nast¸epuj¸ace stwierdzenie.
Stwierdzenie 6.3. R
⊆ S jest klas¸a powracaj¸ac¸a niejednorodnego la´ncucha Mar-
kowa wtedy i tylko wtedy, gdy R ma nast¸epuj¸ace w lasno´sci:
(1) istotno´s´c;
(2) rozdzielanie trajektorii;
(3)
{R i. o.} = {j i. o.} p. n. dla dowolnego j ∈ R.
W szczeg´olno´sci ka˙zda klasa powracaj¸aca jest klas¸a asymptotycznie zamkni¸et¸a.
Z twierdze´
n zawartych w paragrafie 2.5 monografii Iosifescu [Io] wynika, ˙ze je´sli
la´
ncuch Markowa jest jednorodny, to poj¸ecia klasy zamkni¸etej, klasy asymptotycznie
zamkni¸etej, zbioru powracaj¸acego oraz klasy powracaj¸acej s¸a r´ownowa˙zne.
6.2. Klasy powracaj¸
ace niejednorodnych la´
ncuch´
ow Markowa z pot¸egowo
znikaj¸
acymi przej´
sciami.
La´
ncuchami Markowa z pot¸egowo znikaj¸acymi przej´sciami (PZP) o warto´sciach w
przestrzeni stan´ow S, nazywa´c b¸edziemy niejednorodne la´
ncuchy Markowa (X
t
)
t≥0
,
spe lniaj¸ace nast¸epuj¸acy warunek: dla dowolnych i, j
∈ S, i 6= j
cε
d
ij
t
≤ Pr{X
t+1
= j
X
t
= i
} ≤ Cε
d
ij
t
,
gdzie C, c > 0, 0 < ε
t+1
≤ ε
t
< 1 dla t
≥ 0, lim
t→0
ε
t
= 0, 0
≤ d
ij
≤ ∞, ε
∞
t
:= 0.
Latwo zauwa˙zy´c, ˙ze klasa PZP zawiera la´
ncuchy jednorodne a nawet szersz¸a od
nich klas¸e (A) Doeblina, sama za´s jest zawarta w klasie (B) Doeblina [Io], [Co 1–2].
Inny interesuj¸acy przyk lad la´
ncuch´ow PZP pojawia si¸e w optymalizacji. Niech
dana b¸edzie funkcja kosztu u : S
→ [0, ∞) i zwi¸azany z ni¸a kombinatoryczny prob-
lem minimalizacyjny. Niech ponadto ∆ = (δ
ij
)
i,j∈S
b¸edzie macierz¸a stochastyczn¸a.
Simulated Annealing (SA) jest to rekurencyjny algorytm “szukaj¸acy” w nast¸epuj¸acy
spos´ob stanu i
∈ S, w kt´orym u przyjmuje globalne minimum:
1) Za l´o˙zmy, ˙ze w chwili t, aktualnym stanem jest X
t
= i. Zaczynamy od
wylosowania s¸asiada Y
t
stanu i, wed lug danego rozk ladu δ
i·
.
116
2) Nast¸epnie je´sli Y
t
= j, to rozwa˙zamy dwa przypadki: — je´sli u
j
≤ u
i
, to
przyjmujemy X
t+1
:= j; — w przeciwnym przypadku przyjmujemy X
t+1
:=
j z prawdopodobie´
nstwem ε
(u
j
−u
i
)
t
lub X
t+1
:= i z prawdopodobie´
nstwem
1
− ε
(u
j
−u
i
)
t
.
Dla podkre´slenia zwi¸azk´ow z mechanik¸a statystyczn¸a, sk¸ad pochodzi idea algo-
rytmu SA, ε
t
zapisuje si¸e cz¸esto w postaci e
−(1/T
t
)
. Przy tej interpretacji T
t
jest
temperatur¸a rozwa˙zanego uk ladu fizycznego w chwili t.
Algorytm SA tworzy la´
ncuch Markowa o nast¸epuj¸acych prawdopodobie´
nstwach
przej´scia:
Pr
{X
t+1
= j
X
t
= i
} = δ
ij
ε
(u
j
−u
i
)∨0
t
dla j
6= i.
Klasa PZP zawiera la´
ncuchy generowane przez SA, je´sli przyjmiemy dla i
6= j:
d
ij
:=
(u
j
− u
i
)
∨ 0 je´sli δ
ij
> 0
∞
w przeciwnym przypadku.
Dla dowolnych A, B
⊆ S, i, j ∈ S oraz c ≥ 0 wprowadzimy teraz wygodne
oznaczenia:
(A
c) :=
{ω ∈ Ω :
X
t≥0
ε
c
t
1(X
t
(ω)
∈ A) = ∞}
(A, B
c) :=
{ω ∈ Ω :
X
t≥0
ε
c
t
1(X
t
(ω)
∈ A, X
t+1
(ω)
∈ B) = ∞}
(i
c) := (
{i}
c),
(i, j
c) := (
{i}, {j}
c).
Zauwa˙zmy, ˙ze (A
0) =
{A i. o.}.
Wsp´o lczynnikiem powracalno´sci
α dla stanu i oraz kraw¸edzi (i, j) nazywa´c
b¸edziemy odpowiednio liczby:
α
i
:= sup
{c ≥ 0 : Pr{(i
c)
} > 0},
α
i,j
:= sup
{c ≥ 0 : Pr{(i, j
c)
} > 0}, (sup ∅ := −∞).
Zauwa˙zmy, ˙ze stan i
∈ S la´ncucha PZP jest powracaj¸acy wtedy i tylko wtedy, gdy
α
i
≥ 0. Ponadto α
i
≤ ρ, gdzie ρ := sup{c ≥ 0 :
P
t≥0
ε
c
t
=
∞}.
Poj¸ecie wsp´o lczynnika α r´o˙zni si¸e istotnie od poj¸ecia wsp´o lczynnika powracalno-
´sci β dla stanu i oraz kraw¸edzi (i, j) zdefiniowanego przez Connorsa i Kumara w
117
pracach odpowiednio [Con], [ConKu 1–2]:
β
i
:= sup
{c ≥ 0 :
X
t≥0
ε
c
t
Pr(X
t
= i) =
∞},
β
ij
:= sup
{c ≥ 0 :
X
t≥0
ε
c
t
Pr(X
t
= i, X
t+1
= j) =
∞}
oraz od poj¸ecia wsp´o lczynnika powracalno´sci na trajektorii γ dla stanu i oraz
kraw¸edzi (i, j) zdefiniowanego odpowiednio przez Borkara w pracy [Bo]:
γ
i
(ω) := sup
{c ≥ 0 :
X
t≥0
ε
c
t
1(X
t
(ω) = i) =
∞},
γ
ij
(ω) := sup
{c ≥ 0 :
X
t≥0
ε
c
t
1(X
t
(ω) = i, X
i+1
(ω) = j) =
∞}, gdzie ω ∈ Ω.
W dalszej cz¸e´sci tego rozdzia lu poka˙zemy, ˙ze wsp´o lczynniki α daj¸a lepszy (od
wsp´o lczynnik´ow β i γ) opis asymptotycznych w lasno´sci trajektorii LM. Ponadto
mo˙zna je zawsze efektywnie obliczy´c (tzn. kosztem O(s
3
)).
W dalszej cz¸e´sci pracy rozwa˙za´c b¸edziemy la´
ncuchy Markowa z pot¸egowo znika-
j¸acymi przej´sciami. Zak lada´c b¸edziemy, dla wygody, ˙ze spe lniony jest nast¸epuj¸acy
warunek:
X
t≥0
ε
ρ
t
=
∞.
(6.1)
Przypomnijmy, ˙ze dla
∅ 6= R ⊂ S
¯
V (R) := min
i∈R
j∈S\R
[h(i
R) + d
ij
],
v(R) := max
∅6=A⊂R
min
i∈A
j∈R\A
[h(i
R) + d
ij
].
Niech ponadto dla jednolito´sci rozwa˙za´
n min
∅ := ∞, ¯
V (S) :=
∞, v({i}) := −∞
dla i
∈ S oraz ∞ − ∞ = ∞.
Do lkiem w grafie g
∗
(D) nazywa´c b¸edziemy minimalny w sensie inkluzji zbi´or
stan´ow R
⊂ S taki, ˙ze ¯
V (R)
≥ ρ.
Stwierdzenie 6.4. Niech dany b¸edzie zbi´or R
⊆ S oraz funkcja h
′
: R
→ R.
Wtedy r´ownowa˙zne s¸a warunki:
(1)
h
′
≡ h(·
R);
118
(2)
r´ownania r´ownowagi
∀
∅6=A⊂R
min
i∈A
j∈R\A
(h
′
i
+ d
ij
) = min
i∈A
j∈R\A
(h
′
j
+ d
ji
)
oraz
min
i∈R
h
′
i
= 0.
Dow´od. “(1)
⇒ (2)”. Ustalmy ∅ 6= A ⊂ R. Ze wzgl¸edu na symetri¸e za lo˙ze´n,
wystarczy pokaza´c, ˙ze je´sli dla pewnych a, j
∈ A, b, i ∈ R \ A mamy
h
′
a
+ d
ab
= min
k∈A
l∈R\A
(h
′
k
+ d
kl
)
h
′
i
+ d
ij
= min
k∈A
l∈R\A
(h
′
l
+ d
lk
),
to
(6.2)
h
′
a
+ d
ab
≥ h
′
i
+ d
ij
.
Mo˙zna za lo˙zy´c, ˙ze h
′
a
+ d
ab
<
∞. Wtedy istnieje
f
∈ arg min
f
0
∈F (a|R)
d(f
0
R).
Zatem istnieje droga z wierzcho lka b do a zawarta w f . Niech (t, u) b¸edzie kraw¸edzi¸a
tej drogi, przecinaj¸ac¸a zbi´or A. Wtedy z za lo˙zenia (1) otrzymujemy
h
′
a
+ d
ab
− d
tu
= h
′
(f
∪ (a, b) \ (t, u)) ≥ h
′
t
,
poniewa˙z
f
∪ (a, b) \ (t, u) ∈ F (t).
St¸ad i z (6.2) otrzymujemy
h
′
a
+ d
ab
≥ h
′
t
+ d
tu
≥ h
′
i
+ d
ij
.
Rysunek 6.1.1 przedstawia kraw¸edzie (i, j) oraz (a, b) w grafie g
∗
(D) z rysunku 2.2.1
spe lniaj¸ace r´owno´sci (6.2). Rysunek 6.1.2 przedstawia najkr´otsze drzewo o korzeniu
u w grafie g
∗
(D).
“(1)
⇐ (2)”. Z udowodnionej cz¸e´sci wynika, ˙ze wektor h spe lnia r´ownania r´ow-
nowagi. Za l´o˙zmy dla sprzeczno´sci, ˙ze h
′
6≡ h. Z drugiej r´owno´sci (2) wynika, ˙ze
przynajmniej jeden ze zbior´ow
A :=
{i ∈ R : h
i
> h
′
i
} lub A
′
:=
{i ∈ R : h
i
< h
′
i
}
jest w la´sciwym podzbiorem R. Ze wzgl¸edu na symetri¸e za lo˙ze´
n mo˙zna za lo˙zy´c, ˙ze
jest to A. Wtedy
min
i∈A
j∈R\A
(h
′
i
+ d
ij
) < min
i∈A
j∈R\A
(h
i
+ d
ij
)
119
= min
i∈A
j∈R\A
(h
j
+ d
ji
)
≤ min
i∈A
j∈R\A
(h
′
j
+ d
ji
)
= min
i∈A
j∈R\A
(h
′
i
+ d
ij
),
co jest sprzeczne z za lo˙zeniem o h
′
.
Latwo udowodni´c nast¸epuj¸ace stwierdzenia.
Stwierdzenie 6.5.
(1) Ka˙zdy graf g
∗
(D) ma przynajmniej jeden do lek.
(2) Dwa r´o˙zne do lki w grafie g
∗
(D) s¸a wzajemnie roz l¸aczne.
Stwierdzenie 6.6. Niech dany b¸edzie zbi´or R
⊆ S. Wtedy nast¸epuj¸ace warunki
s¸a r´ownowa˙zne.
(1) R jest do lkiem.
(2) v(R) < ρ
≤ ¯
V (R).
Obliczanie h(i
R), “wysoko´sci” stan´ow w zbiorze R, oraz znajdowanie do lk´ow
bezpo´srednio z definicji mo˙ze by´c nieefektywne (por. z uwag¸a 3.1 (1)). Okazuje si¸e,
˙ze niewielka modyfikacja algorytmu 4.3 lub 4.4 pozwala liczy´c h(i
R) oraz znajdowa´c
do lki kosztem O(s
3
). Wynika to z faktu, ˙ze ka˙zdy do lek jest elementem pewnego
zbioru S
k
, gdzie k
≤ K oraz nast¸epuj¸acego stwierdzenia.
Stwierdzenie 6.7. Za l´o˙zmy, ˙ze I
k
∈ S
k
dla k
≤ K. Wtedy
¯
V (I
k
) = min
J
k
6=I
k
¯
d
k
(I
k
, J
k
)
Dow´od . Udowodnimy najpierw, ˙ze je˙zeli I
k
, J
k
∈ S
k
, I
k
6= J
k
oraz k
≤ K, to
¯
d
k
(I
k
, J
k
) = min
i∈I
k
j∈J
k
[h(i
I
k
) + d
ij
].
(6.3)
Dla k = 1 otrzymujemy
¯
d
1
(I
1
, J
1
) = v(I
1
) + min
I
0
⊆I
1
J
0
⊆J
1
[ ¯
d
0
(I
0
, J
0
)
− ¯
V (I
0
)]
120
= min
i∈I
1
j∈J
1
[h(i
I
1
) + d
ij
].
Za l´o˙zmy teraz, ˙ze wz´or (6.3) jest prawdziwy dla k = m
− 1. Wtedy z lematu 4.2
otrzymujemy:
¯
d
m
(I
m
, J
m
) = v(I
m
) +
min
I
m
−
1
⊆I
m
J
m
−
1
⊆J
m
[ ¯
d
m−1
(I
m−1
, J
m−1
)
− ¯
V (I
m−1
)]
=
min
I
m
−
1
⊆I
m
J
m
−
1
⊆J
m
min
i∈I
m
−
1
j∈J
m
−
1
h(i
I
m−1
) + d
ij
+ h(I
m−1
I
m
)
= min
i∈I
m
j∈J
m
[h(i
I
m
) + d
ij
].
Ze wzoru (6.3) otrzymujemy teraz
¯
V (I
k
) = min
i∈I
k
j6∈I
k
[h(i, I
k
) + d
ij
] = min
J
k
6=I
k
min
i∈I
k
j∈J
k
[h(i, I
k
) + d
ij
]
= min
J
k
6=I
k
¯
d
k
(I
k
, J
k
),
poniewa˙z
S
J
k
6=I
k
= S
\ I
k
.
G l´ownym rezultatem tego rozdzia lu jest nast¸epuj¸ace twierdzenie.
Twierdzenie 6.1.
(1) Dla dowolnego zbioru R
⊆ S, R jest klas¸a powracaj¸ac¸a wtedy i tylko wtedy,
gdy R jest do lkiem.
(2) Dla dowolnego stanu i
∈ S, je´sli i nale˙zy do pewnego do lka R, to α
i
=
ρ
− h(i
R); w przeciwnym przypadku α
i
=
−∞.
Dow´od twierdzenia 6.1 poprzedzimy kilkoma lematami.
Lemat 6.1. Niech Y
t
, Z
t
, dla t = 1, 2, . . . , b¸ed¸a zmiennymi losowymi okre´slonymi
na przestrzeni probabilistycznej (Ω,
F, Pr). Za l´o˙zmy, ˙ze
(i) Y
t
≥ 0 p. n., t = 1, 2, . . . ;
(ii) istnieje M > 0 takie, ˙ze dla t = 1, 2, . . . ,
|Y
t
− Z
t
| < M p. n.;
(iii) ci¸ag S
t
=
P
t
k=1
(Y
k
− Z
k
) jest podmartynga lem wzgl¸edem ci¸agu σ(S
1
, . . . ,
S
t
), t = 1, 2, . . . .
121
Wtedy
(
X
t>0
Z
t
=
∞
)
⊆
(
X
t>0
Y
t
=
∞
)
p. n.
Dow´od. Z twierdzenia 1 [Shi, str. 550] wynika, ˙ze
sup
t
S
t
<
∞
=
n
istnieje sko´
nczona granica lim
t
S
t
o
⊆
n
inf
t
S
t
>
−∞
o
p. n.
St¸ad i z za lo˙zenia otrzymujemy:
(
X
t>0
Z
t
=
∞,
X
t>0
Y
t
<
∞
)
⊆
n
inf
t
S
t
=
−∞
o
⊆
sup
t
S
t
=
∞
⊆
(
X
t>0
Y
t
=
∞
)
p. n.
W rezultacie
(
X
t>0
Z
t
=
∞
)
=
(
X
t>0
Z
t
=
∞,
X
t>0
Y
t
<
∞
)
∪
(
X
t>0
Z
t
=
∞,
X
t>0
Y
t
=
∞
)
⊆
(
X
t>0
Y
t
=
∞
)
p. n.
Lemat 6.2. Dla dowolnego d
≥ 0 oraz i, j ∈ S,
(i
d + d
ij
) = (i, j
d) p. n.;
(1)
α
ij
=
α
i
− d
ij
je´sli α
i
≥ d
ij
−∞
je´sli α
i
< d
ij
.
(2)
Dow´od. (1) Udowodnimy najpierw inkluzj¸e “
⊆”. Z uwagi na lemat 6.1 wystarczy
pokaza´c, ˙ze
t
X
k=0
h
ε
d
k
1(X
k
= i, X
k+1
= j)
− cε
d+d
ij
k
1(X
k
= i)
i
jest podmartynga lem wzgl¸edem σ(X
0
, . . . , X
t
), czyli ˙ze
E
h
ε
d
t
1(X
t
= i, X
t+1
= j)
− cε
d+d
ij
t
1(X
t
= i)
X
0
, . . . , X
t
i
≥ 0 p. n. dla t ≥ 0.
122
Poniewa˙z (X
t
)
t≥0
jest la´
ncuchem Markowa, zatem wystarczy pokaza´c, ˙ze
Pr
{X
t+1
= j
X
t
}1(X
t
= i)
≥ cε
d
ij
t
1(X
t
= i) p. n. dla t
≥ 0.
Na zbiorze
{X
t
6= i} powy˙zsza nier´owno´s´c jest oczywista, natomiast na zbiorze
{X
t
= i
} jest spe lniona z definicji la´ncucha PZP.
Dla dowodu “
⊇” pokazujemy w podobny spos´ob, ˙ze
t
X
k=0
h
Cε
d+d
ij
k
1(X
k
= i)
− ε
d
k
1(X
k
= i, X
k+1
= j)
i
jest podmartynga lem wzgl¸edem σ(X
0
, . . . , X
t
).
(2) Je´sli α
i
≥ d
ij
, to (2) wynika z (1) po podstawieniu d := α
i
− d
ij
. Dla dowodu
r´owno´sci w przypadku, gdy α
i
< d
ij
przypu´s´cmy, ˙ze α
ij
≥ 0. Wtedy istnia loby
d
≥ 0 takie, ˙ze Pr{(i, j
d)
} > 0. St¸ad i z (1) otrzymaliby´smy Pr{(i
d
ij
)
} ≥
Pr
{(i
d + d
ij
)
} > 0, co jest sprzeczne z za lo˙zeniem, ˙ze α
i
< d
ij
.
Zauwa˙zmy tutaj, ˙ze r´owno´s´c (2) z lematu 6.2 dla wsp´o lczynnik´ow β by laby na-
tychmiastow¸a konsekwencj¸a r´owna´
n Chapmana–Ko lmogorowa.
Lemat 6.3.
(1) Dla dowolnych
∅ 6= A ⊂ S oraz d ≥ 0
[
i∈A, j6∈A
(i, j
d) =
[
i∈A, j6∈A
(j, i
d) p. n.
(2) (R´ownania r´ownowagi dla wsp´o lczynnik´ow powracalno´sci)
Dla dowolnego
∅ 6= A ⊂ S
max
i∈A, j6∈A
α
ij
= max
i∈A, j6∈A
α
ji
.
Dow´od. Niech σ
1
:= min
{k ≥ 0 : X
k
∈ A}, τ
t
:= min
{k > σ
t
:
X
k
6∈ A},
σ
t+1
:= min
{k > τ
t
: X
k
∈ A}, t ≥ 1. Oczywi´scie σ
t
< τ
t
< σ
t+1
. Ponadto z
monotoniczno´sci ci¸agu (ε
t
)
t≥0
wynika, ˙ze dla ka˙zdego d
≥ 0:
[
i∈A, j6∈A
(
X
t≥0
ε
d
t
1(X
t
= i, X
t+1
= j) =
∞
)
=
(
X
i∈A, j6∈A
X
t≥0
ε
d
t
1(X
t
= i, X
t+1
= j) =
∞
)
123
=
(
X
t≥0
ε
d
t
1(X
t
6∈ A, X
t+1
∈ A) = ∞
)
=
(
X
t≥0
ε
d
σ
t
=
∞
)
⊆
(
X
t≥0
ε
d
τ
t
=
∞
)
=
(
X
t≥0
ε
d
t
1(X
t
∈ A, X
t+1
6∈ A) = ∞
)
=
(
X
i∈A, j6∈A
X
t≥0
ε
d
t
1(X
t
= j, X
t+1
= i) =
∞
)
=
[
i∈A, j6∈A
(
X
t≥0
ε
d
t
1(X
t
= j, X
t+1
= i) =
∞
)
p. n.
Podobnie dowodzimy inkluzji przeciwnej, co l¸acznie daje (1).
Latwo teraz zauwa˙zy´c, ˙ze dla ka˙zdego d
≥ 0, istniej¸a takie stany i ∈ A, j ∈ S \ A,
˙ze (i, j
d)
6= ∅ p. n. wtedy i tylko, gdy istniej¸a takie stany k ∈ A, l ∈ S \ A, ˙ze
(l, k
d)
6= ∅ p. n. St¸ad wynika (2).
Lemat 6.4. Niech R b¸edzie klas¸a asymptotycznie zamkni¸et¸a. Wtedy:
(1) istnieje p
≥ 1 oraz istniej¸a i
1
, . . . , i
p
∈ R takie, ˙ze
α
i
1
= . . . = α
i
p
= ρ oraz (R
0) = (i
1
ρ)
∪ . . . ∪ (i
p
ρ) p. n.;
(2) max
i∈R, j6∈R
(α
i
− d
ij
) < 0;
(3) dla ka˙zdego
∅ 6= A ⊂ R,
α(A) :=
max
i∈A, j∈R\A
(α
i
− d
ij
)
≥ 0;
(4) dla ka˙zdego
∅ 6= A ⊂ R,
α(A) =
max
i∈A, j∈R\A
(α
j
− d
ji
).
Dow´od. Cz¸e´s´c (1) jest konsekwencj¸a za lo˙zenia (6.1), definicji klasy asymptotycznie
zamkni¸etej, wsp´o lczynnik´ow powracalno´sci oraz r´owno´sci
Ω = (Ω
ρ) =
[
i∈S
(i
ρ) p. n. .
Cz¸e´sci (2) i (3) wynikaj¸a z definicji, stwierdzenia 6.2 oraz lematu 6.2. Cz¸e´s´c (4)
wynika z definicji oraz lemat´ow 6.2 i 6.3.
124
Lemat 6.5. Niech R b¸edzie klas¸a asymptotycznie zamkni¸et¸a. Wtedy dla dowolnego
i
∈ R,
{R i. o.} = (i
α
i
) p. n. .
W szczeg´olno´sci R jest klas¸a powracaj¸ac¸a.
Dow´od. Z lematu 6.4 (1) wynika, ˙ze w rodzinie
{(i
α
i
) : i
∈ R oraz (i
α
i
)
6= ∅ p. n.}
istnieje zbi´or (i
0
α
i
0
) minimalny w sensie “
⊆ p. n.”. Niech ponadto
A :=
{i ∈ R : (i
α
i
) = (i
0
α
i
0
) p. n.
}.
Poka˙zemy najpierw, ˙ze A = R. Przypu´s´cmy, ˙ze A
⊂ R. Z lematu 6.4 (3) wynika,
˙ze α(A)
≥ 0. Zatem za lo˙zenia lemat´ow 6.2 i 6.3 s¸a spe lnione dla d = α(A) i
otrzymujemy r´owno´sci
(i
0
α
i
0
) =
[
i∈A
max
j
6∈A
α
ij
=α(A)
(i
α
i
) =
[
i∈A
j6∈A
(i, j
α(A))
=
[
i∈A
j6∈A
(j, i
α(A)) =
[
j6∈A
max
i
∈A
α
ij
=α(A)
(j
α
j
) p. n.
Poniewa˙z R rozdziela trajektorie, wi¸ec istnieje j
∈ R \ A taki, ˙ze ∅ 6= (j
α
j
)
⊆
(i
0
α
i
0
) p. n.. Je´sli teraz (j
α
j
)
⊂ (i
0
α
i
0
) p. n., to mamy sprzeczno´s´c z minimalno-
´sci¸a (i
0
α
i
0
). Je´sli natomiast (j
α
j
) = (i
0
α
i
0
) p. n. — mamy sprzeczno´s´c z definicj¸a
A. W rezultacie dla dowolnego i
∈ R
(i
α
i
) = (i
0
α
i
0
) p. n.
Z lematu 6.4 (1) wynika teza.
Dow´od twierdzenia 6.1. (1) “
⇒”. Latwo zauwa˙zy´c, ˙ze dla dowolnych A, B ⊆ S
warunek
max
i∈A, j∈B
(α
i
− d
ij
)
≥ 0
jest r´ownowa˙zny warunkowi
min
i∈A, j∈B
(ρ
− α
i
− d
ij
)
≥ ρ.
125
Zatem z lematu 6.4 (2)–(4) wynika, ˙ze wsp´o lczynniki h
′
i
:= ρ
−α
i
spe lniaj¸a r´ownania
r´ownowagi w stwierdzeniu 6.4 dla D(S
\ R
S
\ R) = (d
ij
)
i,j∈R
. St¸ad h
′
i
= h(i
R).
W rezultacie ze stwierdzenia 6.6 wynika teza.
Lemat 6.6. Je´sli A
⊆ S jest do lkiem, to Pr{X
t
∈ A, t ≥ 0} > 0.
Dow´od. Rozwa˙zmy proces X
′
t
, kt´ory powstaje przez ograniczenie X
t
do
S
′
:= A
∪ {i 6∈ A : ∃j ∈ A taki, ˙ze d
ij
<
∞}.
Niech dla dowolnych i, j
∈ S
′
,
Pr
{X
′
t+1
= j
X
′
t
= i
} :=
Pr
{X
t+1
= j
X
t
= i
} je´sli i ∈ A
1/
|A|
je´sli i
∈ S
′
\ A, j ∈ A
0
w przeciwnym przypadku.
Niech ponadto dla ka˙zdego i
∈ S
′
, Pr
{X
′
0
= i
} := Pr{X
0
= i
}/c, gdzie c :=
P
j∈S
Pr
{X
0
= j
} > 0.
Poniewa˙z fakt, ˙ze A jest do lkiem dla (X
t
)
t≥0
, zale˙zy tylko od ρ oraz d
ij
takich, ˙ze
i
∈ A, j ∈ S
′
, wi¸ec A jest r´ownie˙z do lkiem dla (X
′
t
)
t≥0
. Z r´owno´sci
Ω =
[
i∈S
′
(
X
t≥0
ε
ρ
t
1(X
′
t
= i) =
∞
)
p. n.
wynika, ˙ze istnieje i
∈ S
′
takie, ˙ze α
′
i
= ρ. Je˙zeli i
∈ S
′
\ A, to z lemat´ow 6.2 (2)
i 6.3 (2) wynika, ˙ze dla dowolnego j
∈ A, α
′
i
= α
′
j
− d
ji
≤ α
′
j
. Zatem istnieje
a
∈ A takie, ˙ze α
a
= ρ. W konsekwencji istnieje klasa asymptotycznie zamkni¸eta R
zawieraj¸aca a. Z udowodnionej cz¸e´sci twierdzenia wynika, ˙ze R jest do lkiem. St¸ad
oraz z tego, ˙ze do lki s¸a wzajemnie roz l¸aczne (stwierdzenie 6.5 (2))wnioskujemy, ˙ze
A jest klas¸a asymptotycznie zamkni¸et¸a dla (X
′
t
)
t≥0
.
Poniewa˙z dla ka˙zdego k
≥ 0, cPr{X
t
∈ A, k ≥ t ≥ 0} = Pr{X
′
t
∈ A, k ≥ t ≥ 0},
wi¸ec z ci¸ag lo´sci prawdopodobie´
nstwa: cPr
{X
t
∈ A, t ≥ 0} = Pr{X
′
t
∈ A, t ≥ 0}.
Przypu´s´cmy teraz, ˙ze dla ka˙zdego k
≥ 0,
0 = cPr
{X
t
∈ A, t ≥ 0} = Pr{X
′
t
∈ A, t ≥ 0}
= Pr
{X
′
t
∈ A, t ≥ k
X
′
t
∈ A, k ≥ t ≥ 0}Pr{X
′
t
∈ A, k ≥ t ≥ 0}.
126
Wtedy dla ka˙zdego k
≥ 0, Pr{X
′
t
∈ A, t ≥ k
X
′
k
∈ A} = 0 oraz oczywi´scie Pr{X
′
t
∈
A, t
≥ k
X
′
k
6∈ A} = 0. W rezultacie dla ka˙zdego k ≥ 0, Pr{X
′
t
∈ A, t ≥ k} = 0,
wi¸ec z ci¸ag lo´sci prawdopodobie´
nstwa Pr
{X
′
t
∈ A ult.} = 0, co jest sprzeczne z tym,
˙ze A jest klas¸a asymptotycznie zamkni¸et¸a dla (X
′
t
)
t≥0
.
Dow´od twierdzenia 6.1. (1) “
⇐” Niech R
1
, . . . , R
m
b¸ed¸a wszystkimi klasami
asymptotycznie zamkni¸etymi danego la´
ncucha Markowa PZP. Ze stwierdzenia 6.1
oraz lematu 6.6 wynika, ˙ze istnieje 1
≤ j ≤ m takie, ˙ze
{X
t
∈ R, t ≥ 0} ∩ {R
j
ult.
} 6= ∅ p. n.
St¸ad R
j
∩ R 6= ∅.
Z udowodnionej cz¸e´sci (1) “
⇒” otrzymujemy, ˙ze R
j
jest do lkiem. Zatem ze
stwierdzenie 6.5 (2) wynika, ˙ze R jest klas¸a asymptotycznie zamkni¸et¸a. St¸ad i z
lematu 6.5 otrzymujemy tez¸e.
(2) Je´sli stan i
∈ S nale˙zy do pewnego do lka R, to z udowodnionej cz¸e´sci (1) “⇐”
wynika, ˙ze i nale˙zy do klasy powracaj¸acej R, wi¸ec z dowodu cz¸e´sci (1) “
⇒” wynika
teza. W przeciwnym przypadku stan i jest stanem chwilowym, wi¸ec α
i
=
−∞.
Ilustracj¸a r´o˙znicy pomi¸edzy wsp´o lczynnikami α i β mo˙ze by´c nast¸epuj¸acy przy-
k lad, rozwa˙zany przez Connorsa i Kumara w pracach [Con] i [ConKu 1–2].
Przyk lad 6.2. Niech (X
t
)
t≥0
b¸edzie la´
ncuchem Markowa generowanym przez SA
o przestrzeni stan´ow S :=
{1, 2, 3} oraz funkcji kosztu u
i
:= i. Niech ponadto
δ
13
= δ
23
= 1, δ
32
= a = 1
− δ
31
, gdzie a
∈ (0, 1) oraz δ
ij
= 0 w pozosta lych
przypadkach.
Connors i Kumar obliczyli za pomoc¸a algorytmu o wyk ladniczej z lo˙zono´sci obli-
czeniowej, wszystkie rozwi¸azania r´owna´
n r´ownowagi dla β, co daje w rezultacie:
β
1
= 1, β
2
∈ {−∞} ∪ [0, 1), β
3
=
−∞. Latwo zauwa˙zy´c, ˙ze α
1
= 1, α
2
= α
3
=
−∞. Metoda Connorsa i Kumara nie pozwala zatem, w odr´o˙znieniu od naszej, na
jednoznaczne i efektywne obliczenie wsp´o lczynnik´ow powracalno´sci.
Connors w swojej pracy doktorskiej [Con] za pomoc¸a bezpo´srednich lecz pra-
coch lonnych oblicze´
n udowodni l, ˙ze β
2
= a.
Wskazuje to na nieadekwatno´s´c
wsp´o lczynnik´ow β: stan odwiedzany prawie na pewno sko´
nczenie wiele razy ma
127
wsp´o lczynnik powracalno´sci β wi¸ekszy od 0. W Dodatku zamieszczamy odpowiedni
rysunek.
Uwagi 6.1.
(1) Klasy Doeblina s¸a omawiane w pracach Cohna [Co 1–2] oraz monografii
Iosifescu [Io].
(2) Pewne warianty la´
ncuch´ow Markowa z pot¸ego znikaj¸acymi przej´sciami roz-
wa˙zane by ly wcze´sniej w pracach [Ts 1–2], [ChiCho 2–3], [HwSh 1–2], [Con],
[ConKu 1–2], [DeKuKu], [NiPo], [Po].
(3) Literatura dotycz¸aca SA liczy kilkaset pozycji, w tym kilka monografii.
Reprezentatywny jej wyb´or znale´z´c mo˙zna w pracy Romea i Sangiovanniego–
Vincentellego [RomSa]. G l´owne kierunki bada´
n i zastosowa´
n zwi¸azanych z
algorytmem Simulated Annealing s¸a nast¸epuj¸ace.
— W lasno´sci asymptotyczne niejednorodnego la´
ncucha Markowa genero-
wanego przez SA — w tym osi¸agalno´s´c globalnego minimum z prawdo-
podobie´
nstwem 1 i zachowanie Pr
{X
t
= i
} przy t → ∞ (patrz np. [Bo],
[Ca], [ChiCho 1–3], [Con], [ConKu 1–2], [DeKuKu], [Ge], [GeGe], [Ha],
[HwSh 1–2], [NiPo], [Ts 1–2]).
— Komputerowa symulacja procesu maj¸acego na celu wprowadzenie dane-
go uk ladu fizycznego o wielu stopniach swobody do stanu o najmniej-
szej energii przez gwa ltowne podgrzanie, a nast¸epnie powolne studze-
nie (st¸ad w la´snie pochodzi nazwa “Simulated Annealing”). Proces an-
nealingu jest wykorzystywany do tworzenia kryszta l´ow.
— SA jako metoda relaksacji i rekonstrukcji obrazu. Prze lomem sta la si¸e
w tej dziedzinie praca Geman´ow [GeGe].
— SA w optymalizacji kombinatorycznej. Ten kierunek jest najliczniej
reprezentowany w literaturze (patrz np. [LaAa], [JeSo], [So], [KiGeVe]).
Dalsz¸a klasyfikacj¸e bada´
n w tym zakresie mo˙zna przeprowadza´c ze
wzgl¸edu na rodzaj problemu (np.
problem komiwoja˙zera, problem
podzia lu grafu, projektowanie element´ow VLSI i inne) oraz model
obliczalno´sci u˙zywany w algorytmie — sekwencyjny albo r´ownoleg ly
(w tym “sieci neuronowe” i “Maszyny Boltzmanna”).
128
(4) Je´sli za lo˙zenie (6.1) nie jest spe lnione, to dla dowodu twierdzenia w tym
przypadku nale˙zy zmieni´c definicj¸e do lka przez zast¸apienie warunku ¯
V (R) >
ρ na warunek ¯
V (R)
≥ ρ. Ponadto w lemacie 6.4 (1)–(2) nale˙zy podstawi´c
ρ := (ρ
− min{d
ij
: 0 < d
ij
<
∞}) ∨ 0.
Reszta rozumowania pozostaje bez zmian.
(5) Latwo zauwa˙zy´c, ˙ze wszystkie podane tutaj fakty pozostaj¸a prawdziwe, je´sli
monotoniczno´s´c ci¸agu (ε
t
)
t
zast¸api´c warunkiem:
∃M < ∞ ∀ m, n je´sli n ≥ m ≥ 1, to ε
n
≤ Mε
m
.
6.3. Osi¸
agalno´
s´
c globalnego minimum z prawdopodobie´
nstwem 1 przez
algorytm Simulated Annealing.
Podane w poprzedniej cz¸e´sci twierdzenie prowadzi do konstruktywnego kryterium
osi¸agalno´sci z prawdopodobie´
nstwem 1 dowolnego podzbioru A przestrzeni stan´ow
S przez la´
ncuchy Markowa z regularnie znikaj¸acymi przej´sciami.
Wniosek 6.1.
Dla la´
ncucha Markowa z klasy PZP oraz dowolnego A
⊆ S,
nast¸epuj¸ace warunki s¸a r´ownowa˙zne:
(1) Pr
{A i. o.} = 1.
(2) Pr
{∃
t≥0
X
t
∈ A} = 1.
(3) Ka˙zdy do lek zawiera punkt nale˙z¸acy do A.
Dow´od. Implikacja (1)
⇒(2) jest oczywista, (2)⇒(3) wynika bezpo´srednio przez
transpozycj¸e z lematu 6.6, natomiast (3)
⇒(1) wynika bezpo´srednio z twierdzenia
6.1.
W dalszej cz¸e´sci b¸edziemy rozwa˙za´c la´
ncuchy Markowa generowane przez SA.
Poka˙zemy, ˙ze wniosek 6.1 jest uog´olnieniem twierdzenia udowodnionego przez Con-
norsa i Kumara w pracach [Con] i [ConKu 1–2]. Wcze´sniej jednak podamy kilka
definicji.
Przyjmijmy dla h
≤ 0
g(∆, u, h) := (s,
{(i, j) : δ
ij
> 0 oraz u
i
∨ u
j
≤ h}).
129
B¸edziemy m´owi´c ˙ze stan j jest osi¸agalny na wysoko´sci h ze stanu i (oznaczenie
i[h]
→ j), je´sli i → j w grafie g(∆, u, h).
Zak lada´c b¸edziemy, ˙ze macierz ∆ jest nieprzywiedlna oraz, ˙ze la´
ncuch generowa-
ny przez SA jest s labo odwracalny (weak reversible), to znaczy, ˙ze dla ka˙zdego h
≥ 0
relacja [h]
→ jest symetryczna. Oczywi´scie [h] → jest przechodnia.
Niech S
∗
:=
{i ∈ S : ∀
j∈S
u
i
≤ u
j
} b¸edzie zbiorem globalnych minim´ow oraz
d
∗
:= min
{d ≥ 0 : ∀
i∈S
∃
j∈S
∗
i[u
i
+ d]
→ j}.
Latwo zauwa˙zy´c, ˙ze relacja [h]
→ jest symetryczna wtedy i tylko wtedy, gdy w grafie
g(∆, u, h) nie ma stan´ow nieistotnych.
Kolejny lemat jest odpowiednikiem twierdzenia 5 o potencjale z pracy [ConKu 2].
Lemat 6.7. Je´sli R jest do lkiem, to dla wszystkich i
∈ R
h(i
R) = u
i
− min
j∈R
u
j
.
Dow´od. Poniewa˙z min
j∈R
h(j
R) = 0, wi¸ec wystarczy pokaza´c, ˙ze dla dowolnego
i
∈ R, u
i
− h(i
R) = const. Niech A := arg min
a∈R
u
a
− h(a
R)
. Poka˙zemy, ˙ze
A = R. Przypu´s´cmy, ˙ze A
⊂ R. Niech i, l ∈ A, j, k ∈ R \ A oraz
(i, j)
∈ arg min
a∈A
b∈R\A
(h(a
R) + d
ab
),
(k, l)
∈ arg min
a∈A
b∈R\A
(h(b
R) + d
ba
).
Poniewa˙z i[u
j
∨ u
i
]
→ j, wi¸ec ze s labej odwracalno´sci wynika, ˙ze
u
l
∨ u
k
≤ u
j
∨ u
i
.
St¸ad po odj¸eciu stronami (u
i
+ u
k
) otrzymujemy
(u
l
− u
k
)
∨ 0 − u
i
≤ (u
j
− u
i
)
∨ 0 − u
k
,
czyli
(u
l
− u
k
)
∨ 0 + u
k
≤ (u
j
− u
i
)
∨ 0 + u
i
.
(6.4)
Ponadto z r´owna´
n r´ownowagi dla h(
·
R) wynika, ˙ze
− h(k
R)
− (u
l
− u
k
)
∨ 0 = −h(i
R)
− (u
j
− u
i
)
∨ 0.
(6.5)
130
W rezultacie po dodaniu (6.4) i (6.5) otrzymujemy
u
k
− h(k
R)
≤ u
i
− h(i
R),
co jest sprzeczne z definicj¸a A.
Wniosek 6.2. Dla la´
ncucha Markowa nieprzywiedlnego i s labo odwracalnego, gen-
erowanego przez algorytm Simulated Annealing nast¸epuj¸ace warunki s¸a r´ownowa˙zne:
(1) Pr
{S
∗
i. o.
} = 1.
(2) Pr
{∃
t≥0
X
t
∈ S
∗
} = 1.
(3)
P
t≥0
ε
d
∗
t
=
∞.
Dow´od. Wystarczy udowodni´c r´ownowa˙zno´s´c warunku (3) i warunku (3) z wnios-
ku 6.1. Zauwa˙zmy, ˙ze warunek (3) jest r´ownowa˙zny nier´owno´sci d
∗
≤ ρ. Nier´owno´s´c
ta z kolei jest r´ownowa˙zna warunkowi
∀
i∈S\S
∗
∃
j∈S
∗
i[u
i
+ ρ]
→ j.
(6.6)
Ze stwierdzenia 6.6 (2) oraz lematu 6.7 wynika, ˙ze zbi´or stan´ow R
⊆ S jest
do lkiem wtedy i tylko wtedy, gdy
min
i∈R, j∈S\R
δ
ij
>0
[u
i
+ (u
j
− u
i
)
∨ 0] =
min
i∈R, j∈S\R
δ
ij
>0
[u
j
∨ u
i
]
≥ ρ + min
k∈R
u
k
(6.7)
oraz
∀
∅6=A⊂R
min
i∈A, j∈R\A
δ
ij
>0
[u
j
∨ u
i
] < ρ + min
k∈R
u
k
.
(6.8)
St¸ad wynika, ˙ze R
⊆ S jest do lkiem wtedy i tylko wtedy, gdy spe lnione s¸a warunki
∀
i,j∈R
i[min
k∈R
u
k
+ ρ]
→ j
(6.9)
oraz
∀
i∈R, j6∈R
nieprawda, ˙ze i[min
k∈R
u
k
+ ρ]
→ j.
(6.10)
Przypu´s´cmy teraz, ˙ze warunek (6.6) nie jest spe lniony, czyli
A :=
{i
0
∈ S \ S
∗
:
∀
j∈S
∗
nieprawda, ˙ze i[u
i
+ ρ]
→ j} 6= ∅.
131
Niech
i
0
∈ arg min
j∈A
u
j
.
Latwo zauwa˙zy´c, ˙ze zbi´or
{i ∈ S : i
0
[u
i
0
+ ρ]
→ j}
spe lnia warunki (6.9) i (6.10) oraz jest roz l¸aczny z S
∗
.
Odwrotnie: je˙zeli istnieje do lek R rozl¸aczny z S
∗
, to z warunku (6.10) wynika, ˙ze
∀
i∈arg min
k
∈R
u
k
∀
j∈S
∗
nieprawda, ˙ze i[u
i
+ ρ]
→ j.
Uwagi 6.2.
(1) Na rysunkach 6.2.1–6.2.5 przedstawiony jest przyk lad grafu indukowanego
przez s labo odwracalny LM generowany przez algorytm SA. Rysunki te ilus-
truj¸a wp lyw “wyk ladnika rozbie˙zno´sci” ρ na klasyfikacj¸e stan´ow. Stany
powracaj¸ace s¸a zaczernione.
(2) Rozwa˙zany tutaj problem osi¸agalno´sci globalnego minimum z prawdopodo-
bie´
nstwem 1 przez SA rozwi¸azali cz¸e´sciowo Connors i Kumar w pracach
[Con] i [ConKu 1–2]. Udowodnili oni, ˙ze przy za lo˙zeniach nieprzywiedlno´sci
i s labej odwracalno´sci nast¸epuj¸ace warunki s¸a r´ownowa˙zne:
(a) SA osi¸aga globalne minimum z prawdopodobie´
nstwem 1.
(b) SA jest zbie˙zny wed lug prawdopodobie´
nstwa do globalnego minimum.
(c)
P
t≥0
ε
d
t
=
∞, gdzie d jest, odpowiednio zdefiniowan¸a, g l¸eboko´sci¸a naj-
mniejszego lokalnego minimum, kt´ore nie jest globalnym minimum.
Zieli´
nski w pracy [Zie] przy pomocy lematu Borela–Cantelli’ego dla mar-
tynga l´ow poda l warunek dostateczny na to, aby Simulated Annealing okre-
´slony na dowolnej przestrzeni stan´ow S nie opu´sci l z prawdopodobie´
nstwem
1 obszaru przyci¸agania lokalnego minimum. Niemiro w pracy [Ni 1] opisa l
klasy powracaj¸ace dla SA przy za lo˙zeniu prostej, jednowymiarowej struk-
tury s¸asiedztw. Podstawowym narz¸edziem jest tam lemat 1 uog´olniaj¸acy
lemat Borela–Cantelli’ego dla martynga l´ow. Borkar w pracy [Bo], u˙zywaj¸ac
podobnego faktu, udowodni l “r´ownania r´ownowagi” dla γ.
132
Rezultaty Connorsa i Kumara, jak r´ownie˙z zastosowana tam metoda
rozwi¸azywania “r´owna´
n r´ownowagi” dla β by ly punktem wyj´scia dla mo-
jej pracy magisterskiej [Po] oraz wsp´olnej pracy z W. Niemiro [NiPo],
gdzie scharakteryzowali´smy σ-cia lo ogonowe la´
ncuch´ow PZP za pomoc¸a
wsp´o lczynnik´ow powracalno´sci γ. Nie znaj¸ac rozwini¸e´c w lasy skierowane,
wsp´o lczynniki γ i do lki opisali´smy za pomoc¸a rozwi¸aza´
n r´owna´
n r´ownowagi
ze stwierdzenia 6.4 (2). Udowodnili´smy ponadto, ˙ze rozwi¸azania r´owna´
n
r´ownowagi s¸a okre´slone jednoznacznie z dok ladno´sci¸a do przesuni¸ecia oraz
wprowadzili´smy algorytm, kt´ory je oblicza.
Niemiro w pracy [Ni 2]
wykorzysta l opis σ-cia la ogonowego do analizy zbie˙zno´sci wed lug praw-
dopodobie´
nstwa dla la´
ncuch´ow PZP generowanych przez algorytm SA.
(3) Osi¸agalno´s´c globalnego minimum z prawdopodobie´
nstwem 1, czyli asymp-
totyczna poprawno´s´c algorytmu jest, naszym zdaniem, wa˙zniejsza dla za-
stosowa´
n w optymalizacji kombinatorycznej ni˙z zbie˙zno´s´c algorytmu wed lug
prawdopodobie´
nstwa, kt´orej po´swi¸econo w literaturze znacznie wi¸ecej miej-
sca: [Ca], [ChiCho 1–4], [Ge], [GeGe], [Ha], [HwSh 1–2], [Ts 1–2] i in.
Ko´
ncz¸ac procedur¸e poszukiwania minimum w kroku t wybieramy bowiem
x
∈ arg min
k≤t
u(X
k
), a nie X
t
. Latwo zauwa˙zy´c, ˙ze metoda Monte Carlo w
swojej najprostszej postaci, uwa˙zana powszechnie za “ostatni¸a desk¸e ratun-
ku” przy rozwi¸azywaniu trudnych problem´ow kombinatorycznych, gwaran-
tuje osi¸agalno´s´c globalnego minimum z prawdopodobie´
nstwem 1. Podane
w tym rozdziale fakty ´swiadcz¸a o tym, ˙ze algorytm SA r´ownie˙z posiada
t¸e w lasno´s´c. Istotnie, w problemach kombinatorycznych warunek s labej
odwracalno´sci jest spe lniony oraz mo˙zemy oszacowa´c z g´ory warto´s´c r(u) :=
max
i∈S
u
i
− min
i∈S
u
i
, co w rezultacie pozwala dobra´c w la´sciwy ci¸ag (ε
t
)
t≥0
— np. 1/(t
1/r(u)
), aby zapewni´c sobie, korzystaj¸ac z wniosku 6.2, osi¸agalno´s´c
globalnego minimum z prawdopodobie´
nstwem 1. Oczywi´scie systematyczne
przeszukiwanie przestrzeni stan´ow tak˙ze jest “asymptotycznie poprawne”.
Dotychczasowa analiza nie wyja´snia zatem dlaczego algorytm SA jest najbar-
dziej efektywnym spo´sr´od znanych algorytm´ow, w zadaniach projektowania
uk lad´ow scalonych o wysokim stopniu integracji (VLSI). W la´sciwe por´owna-
nie stochastycznych algorytm´ow optymalizacyjnych by loby mo˙zliwe dopiero
w´owczas, gdy potrafiliby´smy wystarczaj¸aco dok ladnie oszacowa´c, jak szybko
133
te algorytmy osi¸agaj¸a z ustalonym prawdopodobie´
nstwem globalne minimum
oraz w jaki spos´ob taka szybko´s´c zale˙zy od istotnych dla nas parametr´ow.
M´owi¸ac dok ladniej: chcieliby´smy wiedzie´c, czy i jak
Pr
{min
k≤t
u(X
k
)
− min
i∈S
u
i
> ε
}
zale˙zy od:
(a) parametr´ow problemu — np. s, u;
(b) parametr´ow metody rozwi¸azania — np. ∆ = (δ
ij
)
i6=j
, (ε
t
)
t≥0
, rozk ladu
X
0
;
(c) t;
(d) ε.
Wydaje si¸e, ˙ze wyniki tego rodzaju s¸a trudne do udowodnienia i brak ich w
literaturze.
134
Bibliografia
[AbBiFi]
M. Abbad, T. Bielecki and J. Filar. Algorithms for singularly perturbed limiting av-
erage control problems. IEEE Transactions on Automatic Control, AC 37:1421–1425,
1992.
[Al 1]
D. Aldous. Some inequalities for reversible Markov chains. Journal of the London
Mathematical Society
, 25(2):564–576, 1982.
[Al 2]
D. Aldous. On the Markov chain simulation method for uniform combinatorial dis-
tributions and simulated annealing. Probability in the Engineering and Informational
Sciences
, 1:33–46, 1987.
[Al 3]
D. Aldous. Reversible Markov chain and random walks on graphs. 1994. Preprint.
[AnTs]
V. Anantharam and P. Tsoucas. A proof of the Markov chain tree theorem. Statistics
& Probability Letters
, 8: 189–192, 1989.
[ApKa]
D. Applegate and R. Kannan. Sampling and integration of near log–concave functions.
Proceedings of the 23rd ACM Symposium on Theory of Computing
, ACM Press, 156–
163, 1991.
[BiFi]
T. Bielecki and J. Filar. Singularly perturbed Markov control problem: limiting aver-
age cost. Annals of OR, 28: 153–168, 1991.
[BiSt]
T. Bielecki and L. Stettner. Ergodic control of singularly perturbed Markov process
in discrete time with general state and compact action spaces. 1996. Preprint.
[Bo]
V. S. Borkar. Pathwise recurrence orders and simulated annealing. J. Appl. Prob.,
29:472–476, 1992.
[BoMa]
R. Bott and J.P. Mayberry. Matrices and trees, in Economic Activity Analysis. Edited
by O. Morgenstern, John Wiley & Sons, Inc., New York; Chapman & Hall, Ltd.,
London, 1954.
[BrRy]
R. A. Brualdi and H. J. Ryser. Combinatorial Matrix Theory. Cambrigde University
Press, 1991.
[Ca]
O. Catoni. Rough large deviation estimates for simulated annealing: application to
exponential schedules. Ann. Probab., 20:1109–1146, 1992.
[Cha]
S. Chaiken. A combinatorial proof of the all minors matrix tree theorem. SIAM J. Alg.
Disc. Meth.
, 3:319–329, 1982.
[Che]
W.-K. Chen. Applied Graph Theory, Graphs and Electrical Networks. North–Holland,
New York, 2nd edition, 1976.
[ChiCho 1] T.-S. Chiang and Y. Chow. On eigenvalues and annealing rates. Math. Operat. Res.,
13:508–511, 1988.
[ChiCho 2] T. S. Chiang and Y. Chow. On the asymptotic behavior of some inhomogeneous
Markov processes. Ann. Prob., 17:1483–1502, 1989.
[ChiCho 3] T.-S. Chiang and Y. Chow. A comparison of Simulated Annealing of Gibbs sampler
and Metropolis algorithms. Lecture Notes in Statistic, 74:117–124, 1991.
135
[ChiCho 4] T.-S. Chiang and Y. Chow. Asymptotic bahavior of eigenvalues and random updating
schemes. Appl. Math. Optim., 28:259–275, 1993.
[Co 1]
H. Cohn. On a paper by Doeblin on non–homogeneous Markov chain. Adv. Appl. Prob.,
13:388–401, 1981.
[Co 2]
H. Cohn. On a class of non–homogeneous Markov chains. Math. Proc. Camb. Phil.
Soc.
, 92:527–534, 1982.
[Con]
D. P. Connors. Balance of Recurrence Order in Time–Inhomogenous Markov Chains
with Application to Simulated Annealing
. PhD thesis, University of Illinois, Urbana,
IL, 1988.
[ConKu 1] D. P. Connors and P. R. Kumar. Balance of recurrence order in time–inhomogenous
Markov chains with application to simulated annealing. Probab. Engrg. Inform. Sci.,
2:157–184, 1988.
[ConKu 2] D. P. Connors and P. R. Kumar. Simulated annealing type Markov chains and their
balance equations. SIAM J. Control & Optim., 27(6):1440–1461, 1989.
[CvDoSa]
D.M. Cvetkovi´c, M. Doob and H. Sachs. Spectra of Graphs — Theory and Applications.
VEB Deutscher Verlag d. Wiss., Berlin, 1979; Acad. Press, New York, 1979.
[DeKuKu] M. Desai, S. Kumar and P. R. Kumar. Quasi–statically cooled Markov chains. Probab.
Engrg. Inform. Sci.
, 8:1–19, 1994.
[DiSt]
P. Diaconis and D. Stroock. Geometric bounds for eigenvalues of Markov chains. Ann.
Appl. Probab.
, 1:36–61, 1991.
[DiHa]
P. Diaconis and P. Hanlon. Eigen analysis for some examples of the Metropolis Algo-
rithm. Contemporary Mathemetics, 138:99–117, 1992.
[DiS–C]
P. Diaconis and L. Saloff–Coste. Comparison theorems for reversible Markov chains.
Ann. Appl. Probab.
, 3:696–730, 1993.
[Din 1]
I. H. Dinwoodie. A probability inequality for the occupation measure of a reversible
Markov chain. Ann. Appl. Probab., 5:37–43, 1995.
[Din 2]
I. H. Dinwoodie. Expectations for nonreversible Markov chains. 1995. Preprint.
[DyFri]
M. E. Dyer, A. Frieze. On the complexity of computing the volume of a polyhedron.
SIAM J. Comput.
, 17:967–974, 1988.
[DyFriKa] M. E. Dyer, A. M. Frieze and R. Kannan. A random polynomial time algorithm for
approximating the volume of convexbodies. J. Assoc. Comput. Mach., 38:1–17, 1991.
[FieSe]
M. Fiedler and J. Sedl´
acek. O w–basich orientovan´
ych grafu. Cas. Pest. Mat., 83:214–
225, 1958. (Chech.).
[Fi]
J. Fill. Eigenvalue bounds on convergence to stationary for nonreversible Markov
chains with an application to the exclusion processes. Ann. Appl. Probab., 1:62–87,
1991.
[FoLa]
B.L. Fox and D.M. Landi. An algorithm for identifying the ergodic subchains and
transient states of a stochastic matrix. Comm. ACM, 2:619–621, 1968.
136
[FreWe 1]
M. I. Freidlin and A. D. Wentzell. On small random perturbations of dynamical sys-
tems. Russian Math. Surveys, 25(1):1–55, 1970.
[FreWe 2]
M. I. Freidlin and A. D. Wentzell. Random Perturbations of Dynamical Systems.
Springer, New York, 1984.
[FriKaPo] A. Frieze, R. Kannan and N. Polson. Sampling from log–concave distributions. Ann.
Appl. Probab.
, 3:812–837, 1994.
[Ge]
D. Geman. Random fields and inverse problems in imaging. Lecture Notes in Mathe-
matics
, 1427, 1990.
[GeGe]
D. Geman and S. Geman. Stochastic relaxation, Gibbs distributions, and the Bayesian
restoration of images. IEEE Trans. Pattern Anal. Machine Intelligence, 6:721–741,
1984.
[Gi]
B. Gidas. Metropolis–type Monte Carlo simulation algorithms and Simulated Anneal-
ing. In Topics in Contemporary Probability and Its Applications. J. L. Snell ed, CRC
Press, New York, 1995.
[Gil]
D. Gillman. A Chernoff bound for random walks on expander graphs. In Proceedings
of the 34th Symposium on Foundations of Computer Science
, IEEE Computer Society
Press, Los Alamitos, Califormia, 1993.
[Gr]
W.K. Grassmann. Means and variances in Markov reward systems, in Linear Algebra,
Markov Chains and Queuing Models
. C.D. Meyer and R.J. Plemmons, eds., Springer–
Verlag, New York, 193–204, 1993.
[GrTaHe]
W.K. Grassmann, M.I. Taksar and D.P. Heyman. Regenerative analysis and steady–
state distributions for Markov chains. Oper. Res., 33:1107–1116, 1985.
[Gro]
R. Grone. On the geometry and Laplacian of a graph. Linear Algebra and Its Appli-
cations
, 150:167–178, 1991.
[Ha]
B. Hajek. Cooling schedules for optimal annealing. Math. Operat. Res., 13(2):311–329,
1988.
[HasHav]
R. Hassin and M. Haviv. Mean passage times and nearly uncoupled Markov chains.
SIAM J. Disc. Math.
, 5:386–397, 1992.
[HavRi]
M. Haviv and Y. Ritov. On series expansions and stochastic matrices. SIAM J. Matrix
Anal. Appl.
, 14(3):670–676, 1993.
[Hig]
N. J. Higham. Accuracy and Stability of Numerical Algorithms. SIAM, Philadelphia,
PA, 1995.
[Hi]
T. L. Hill. Studies in irreversible thermodynamics IV. Diagrammatic representation of
steady state fluxes for unimolecular systems. J. Theoret. Biol., 10:442–459, 1966.
[He]
D.P. Heyman. Accurate computation of the fundamental matrix of a Markov chain.
SIAM J. Matrix Anal. Appl.
, 16(3):954–963, 1995.
[HeRe]
D.P. Heyman and A. Reeves. Numerical solution of linear equations arising in Markov
chain model. ORSA J. Comput., 1:52–60, 1989.
[HoJo 1]
R.A. Horn and Ch.R. Johnson. Matrix Analysis. Cambridge Univ. Press, 1985.
137
[HoJo 2]
R.A. Horn and Ch.R. Johnson. Topics in Matrix Analysis. Cambridge Univ. Press,
1991.
[HwSh 1]
C.-R. Hwang and S.-J. Sheu. Large–time behavior of perturbed diffusion Markov pro-
cesses with applications to the second eigenvalue problem for Fokker–Planck operators
and simulated annealing. Acta Appl. Math., 19:253–295, 1990.
[HwSh 2]
C.-R. Hwang and S.-J. Sheu. Singular perturbed Markov chains and exact behaviors
of simulated annealing processes. J. Theor. Probab., 5:223–249, 1992.
[In]
S. Ingrassia. On the rate of convergence of the Metropolis algorithm and Gibbs sampler
by geometric bounds. Ann. Appl. Probab., 4(2):347–, 1994.
[Io]
M. Iosifescu. Finite Markov Processes and Their Applications. Wiley and Sons, 1980.
[IsMa]
D. L. Issacson and R. W. Madsen. Markov Chains, Theory and Applications. Wiley,
New York, 1976.
[Je]
M. Jerrum. The computational complexity of counting. Proceedings of the Interna-
tional Congress of Mathematicians
. Z¨
urich, Switzerland 1994, 1407–1416, 1995.
[JeSi]
M. R. Jerrum and A. Sinclair. Polynomial–time approximation algorithms for the Ising
model. SIAM J. Comput., 22:1087–1116, 1993.
[JeSo]
M. Jerrum and G. Sorkin. Simulated annealing for graph bisection. In Proceedings
of 34th Annual IEEE Symposium on Foundations of Computer Science
, pages 1–21,
1993.
[Ka]
N. Kahale. Large Deviation Bounds on Markov Chains. Technical Report 94–39, DI-
MACS, 1994.
[Kan]
R. Kannan. Markov chains and polynomial time algorithms. Proceedings of the 35th
Annual Symposium on Foundations of Computer Science
, 656–671, 1994.
[Kat]
T. Kato. A Short Introduction to Perturbation Theory for Linear Operators. Springer–
Verlag, New York, 1982.
[KeSn 1]
J.G. Kemeny and J.L. Snell. Finite Markov Chains. Van Nostrand, Princeton, 1960.
[KeSn 2]
J.G. Kemeny and J.L. Snell. Finite continuous Markov chains. Teor. Verojatnost. i
Primenem.
, 6:110–115, 1961.
[KiGeVe]
S. Kirkpatrick, C. D. Gelatt and M. P. Vecchi. Optimization by simulated annealing.
Science
, 220:671–680, 1983.
[KoVo]
H. H. Kohler, E. Vollmerhaus. The frequency of cyclic processes in biological multistate
systems. J. Math. Biol., 9:275–290, 1980.
[Kor]
C. A. Korneev. On mean recurrence time and mean sojourn time of an irreducible
finite Markov chain in a given set of states. Avtomat i Vyˇcisl. Tehn., 5:14–17, 1970
(Russian).
[LaAa]
P. J. M. van Laarhoven and E. H. L. Aarts. Simulated Annealing. Theory and Appli-
cations
. D. Riedel, 1987.
[LeRi 1]
F. T. Leighton and R. L. Rivest. The Markov chain tree theorem. M.I.T. Laboratory
for Computer Science, Technical Report, MIT/LCS/TM–249, 1983.
138
[LeRi 2]
F. T. Leighton and R. L. Rivest. Estimating a probability using Finite Memory. IEEE
Trans. Information Theory
, 32(6):733–742, 1986.
[Me et al.] W. Metropolis, A. Rosenbluth, M. Rosenbluth, A. Teller and E. Teller. Equations of
state calculations by fast computing machines. J. Chem. Phys., 21:1087–1092, 1953.
[Mey]
C. D. Meyer. The role of the group generalized inverse in the theory of finite Markov
chains. SIAM Rev., 17:443–464, 1975.
[Mo]
B. Mohar. The Laplacian spectrum of graphs. In Y. Alavi et al., editor, Graph Theory,
Combinatories and Applications
, pages 871–898, J. Wiley, New York, 1991.
[Ni 1]
W. Niemiro Tail events of a “Simulated Annealing” Markov chain. Preprint, 1993.
[Ni 2]
W. Niemiro Limit distributions of Simulated Annealing Markov chains. Discussiones
Mathematicae
, 15:241–269, 1993.
[NiPo]
W. Niemiro and P. Pokarowski. Tail events of some nonhomogeneous Markov chains.
Ann. Appl. Probab.
, 5(1):261–293, 1995.
[O’C 1]
C. A. O’Cinneide. Entrywise perturbation theory and error analysis for Markov chains.
Numer. Math.
, 65:109–120, 1993.
[O’C 2]
C. A. O’Cinneide. Relative–error bounds for the LU decomposition via the GTH al-
gorithm. Numer. Math., 73:507–519, 1996.
[Pe]
V.V. Petrov Limit Theorems of Probability Theory. Sequences of Independent Random
Variables
. Oxford University Press, 1995.
[Po]
P. Pokarowski. Klasy powracaj¸ace niejednorodnych la´
ncuch´
ow Markowa z zas-
tosowaniem do analizy algorytmu Simulated Annealing. Praca magisterska, Instytut
Matematyki Stosowanej i Mechaniki Uniwersytetu Warszawskiego, Warszawa, 1993.
[Pu]
M. L. Puterman. Markov Decision Processes. Discrete stochastic dinamic program-
ming
. Wiley, New York, 1994.
[RoWi 1]
J. R. Rohlicek and A. S. Willsky. The reduction of Markov generators: An algorithm
exposing the role of transient states. J. Assoc. Comput. Mach., 35:675–696, 1988.
[RoWi 2]
J. R. Rohlicek and A. S. Willsky. Multiple time scale decomposition of discrete time
Markov chains. Systems & Control Letters, 11:309–314, 1988.
[RomSa]
F. Romeo and A. Sangiovanni–Vincentelli. A theoretical framework for simulated an-
nealing. Algorithmica, 6:367–418, 1991.
[Sch 1]
P. J. Schweitzer. Perturbation theory and finite Markov chains. J. Appl. Probab., 5:401–
413, 1968.
[Sch 2]
P. J. Schweitzer. Perturbation series expansions of nearly completely decomposable
Markov chains. Working Papers Series No. 8122, The Graduate School of Management,
University of Rochester, Rochester, NY, 1981.
[Sch 3]
P. J. Schweitzer. Perturbation series expansions of nearly completely decomposable
Markov chains. In J. W. Cohen O. J. Boxma and H. C. Tijm, editors, Telegrafic
Analysis and Computer Perfomance Evaluation
, Elsevier, North–Holland, Amsterdam,
1986.
139
[Se]
E. Seneta. Nonnegative Matrices and Markov Chains. Springer, New York, second
edition, 1981.
[Shi]
A.N. Shiryayev. Probability. Nauka, Moscow, 1989 (in Russian).
[Sh]
B. O. Shubert. A flow-graph formula for the stationary distribution of a Markov chain.
IEEE Trans. Systems Man. Cybernet.
, 5:565–566, 1975.
[Si]
A. Sinclair. Improved bounds for mixing rates of Markov chains and multicommodity
flow. Combinatorics, Probability and Computing, 1:351–370, 1992.
[SiJe]
A. J. Sinclair and M. R. Jerrum. Approximate counting, uniform generation and
rapidly mixing Markov chains. Inform. Comput., 82:93–133, 1989.
[So]
A. D. Sokal. Monte Carlo Methods in Statistical Mechanics: Foudations and New
Algorithms.
Cours de Troisi´eme Cycle de la Physique en Suisse Romande, Lausanne,
June 1989 (unpublished).
[Sor]
G. B. Sorkin. Theory and Practice of Simulated Annealing on Special Energy Land-
scapes. PhD thesis, University of California at Berkeley, July 1991.
[Ste]
G. W. Stewart. Introduction to Matrix Computations. Academic Press, New York,
1973.
[Ta]
Y. Takahashi. On the effects of small deviations in the transition matrix of a finite
Markov chain. J. Operat. Res. Soc. Japan, 16:104–129, 1973.
[Ti]
L. Tierney. Markov chains for exploring posterior distribution. Ann. Statist.,
22(4):1701–1762, 1994.
[Ts 1]
J. N. Tsitsiklis. A survey of large time asymptotics of simulated annealing algorithms.
In W. Fleming and P. L. Lions, editors, Stochastic Differential Systems. Stochastic
Control Theory and Applications
, pages 583–599, Springer–Verlag, New York, 1988.
[Ts 2]
J. N. Tsitsiklis. Markov chains with rare transitions and simulated annealing. Math.
Operat. Res.
, 14(1):70–90, 1989.
[Tw]
R. L. Tweedie. Perturbations of countable Markov chains and processes. Ann. Inst.
Statistical Math.
, 32:283–290, 1980.
[Wel]
D. J. A. Welsh. Complexity: Knots, Colourings and Counting. Volume 186, London
Mathematical Society Lecture Note Series, Cambridge University Press, 1993.
[We]
A. D. Wentzell. On the asymptotics of eigenvalues of matrices with elements of order
exp(V
ij
/2ε
2
). Dokl. Akad. SSSR, 202:263–265, 1972. (In Russian; translation Soviet.
Math. Dokl.
, 13: 65–68).
[Xu]
J. Xue. A note on entrywise perturbation theory for Markov chains. Linear Algebra
and Its Applications
, 260:209–213, 1997.
[Zie]
R. Zieli´
nski. Records of simulated annealing, Stochastic optimization and design.
Preprint, 1992.
140
141
142
143
144
145
146
147