Wstęp do Analizy Stochastycznej
Rafał Latała
6 września 2010
Poniższy tekst zawiera notatki do wykładów ze Wstępu do Analizy Sto-
chastycznej, prowadzonego w semestrze wiosennym 2010 roku. Gwiazdkami
oznaczono paragrafy dla których zabrakło czasu w trakcie wykładów (być
może niektóre z nich były omówione podczas ćwiczeń) i których znajomość
nie będzie wymagana podczas egzaminu, choć mile widziana.
U Czytelnika zakłada się znajomość podstawowych faktów z zakresu kur-
sowego wykładu z rachunku prawdopodobieństwa. Wszystkie potrzebne wia-
domości można znaleźć w podręcznikach [1] i [3].
Autor przeprasza za wszystkie nieścisłości i omyłki mogące się pojawić w
tekście i jednocześnie zwraca się z prośbą do Czytelników, którzy zauważyli
błędy lub mają jakieś inne uwagi na temat notatek o ich zakomunikowanie
osobiste lub wysłanie na adres emailowy rlatala@mimuw.edu.pl z poda-
niem wersji notatek (daty), której dotyczą.
Dziękuje panom Krzesimirowi Arodziowi, Tomaszowi Badowskiemu, Ma-
rianowi Kędzierskiemu i Radomirowi Mastelorzowi za zauważenie literówek
w notatkach.
1
1
Podstawowe Definicje. Proces Wienera.
Zaczniemy od podania ważnych definicji używanych podczas całego wykła-
du.
Definicja 1. Niech (Ω, F , P) będzie przestrzenią probabilistyczną, (E, E)
przestrzenią mierzalną, zaś T dowolnym zbiorem. Procesem stochastycznym
o wartościach w E, określonym na zbiorze T , nazywamy rodzinę zmiennych
losowych X = (X
t
)
t∈T
, przyjmujących wartości w zbiorze E.
Uwaga 2. W zasadzie w czasie całego wykładu T będzie podzbiorem R
(najczęściej przedziałem, niekoniecznie ograniczonym), zaś E = R lub R
d
.
Parametr t można wówczas interpretować jako czas.
Definicja 3.
Trajektorią procesu X nazywamy funkcję (losową!) t →
X
t
(ω), określoną na zbiorze T o wartościach w E.
Definicja 4. Powiemy, że proces X = (X
t
)
t∈T
, T ⊂ R ma przyrosty
niezależne jeśli dla dowolnych indeksów t
0
¬ t
1
¬ . . . ¬ t
n
ze zbioru T ,
zmienne losowe X
t
0
, X
t
1
− X
t
0
, X
t
2
− X
t
1
, . . . , X
t
n
− X
t
n−1
są niezależne.
Definicja 5. Mówimy, że proces stochastyczny (X
t
)
t0
ma przyrosty sta-
cjonarne, jeśli rozkład X
t
− X
s
zależy tylko od t − s, czyli
∀
t>s0
X
t
− X
s
∼ X
t−s
− X
0
.
1.1
Proces Wienera (Ruch Browna)
Definicja 6. Procesem Wienera (Ruchem Browna) nazywamy proces sto-
chastyczny W = (W
t
)
t0
taki, że
W
0
= 0 p.n.;
(W0)
W ma przyrosty niezależne;
(W1)
Dla 0 ¬ s < t zmienna W
t
− W
s
ma rozkład normalny N (0, t − s); (W2)
Trajektorie W są ciągłe z prawdopodobieństwem 1.
(W3)
Uwaga 7. Warunek (W3) oznacza, że istnieje zbiór A taki, że P(A) = 1
oraz dla wszystkich ω ∈ A, t → W
t
(ω) jest funkcją ciągłą na [0, ∞). Czasami
w definicji procesu Wienera zakłada się, że wszystkie trajektorie są ciągłe
oraz W
0
≡ 0.
2
1.2
*Konstrukcja Procesu Wienera*
Podczas następnych wykładów podamy dość abstrakcyjną konstrukcję pro-
cesu Wienera opartą o ogólniejsze twierdzenia dotyczące istnienia i ciągłości
trajektorii procesów stochastycznych. W tym paragrafie jedynie naszkicuje-
my alternatywną, bardziej bezpośrednią konstrukcję.
Najpierw zdefiniujemy pewne dwa ważne układy funkcji.
Definicja 8. Niech I(0) = {1}, I(n) = {1, . . . , 2
n−1
}, n = 1, 2, . . .. Układem
Haara nazywamy rodzinę funkcji (h
n,k
)
k∈I(n),n=0,1,...
określonych na [0, 1]
wzorami h
0,1
(t) ≡ 1 oraz dla k ∈ I(n), n 1,
h
n,k
(t) =
2
n−1
2
dla (2k − 2)2
−n
¬ t < (2k − 1)2
−n
−2
n−1
2
dla (2k − 1)2
−n
¬ t < 2k · 2
−n
0
w pozostałych przypadkach.
Definicja 9. Przy oznaczeniach poprzedniej definicji układem Schaudera
nazywamy rodzinę funkcji (S
n,k
)
n=0,1,...,k∈I(n)
określonych na [0, 1] wzorem
S
n,k
(t) =
R
t
0
h
n,k
(s)ds.
Fakt 10. a) Układ Haara jest bazą ortonormalną przestrzeni L
2
[0, 1].
b) Dla ustalonego n 1, funkcje (S
n,k
)
k∈I(n)
mają nośniki o rozłącznych
wnętrzach oraz kS
n,k
k
∞
= 2
−(n+1)/2
.
Uwaga 11. Układ Haara jest bazą Schaudera w przestrzeniach L
p
[0, 1],
1 ¬ p < ∞. Po dodaniu funkcji stale równej 1, układ Schaudera staje się
bazą Schaudera przestrzeni C[0, 1].
Fakt 12. Dla dowolnych t, s ∈ [0, 1] mamy
∞
X
n=0
X
k∈I(n)
S
n,k
(t)S
n,k
(s) = min{t, s}.
Niech (g
n,k
)
k∈I(n),n=0,1,...
będzie rodziną niezależnych zmiennych loso-
wych o rozkładzie N (0, 1) i
W
(n)
t
(ω) =
n
X
m=0
X
k∈I(m)
g
m,k
(ω)S
m,k
(t).
Twierdzenie 13. Dla prawie wszystkich ω ∈ Ω ciąg funkcji (W
(n)
t
(ω)) zbie-
ga jednostajnie na [0, 1] do pewnej funkcji ciągłej W
t
(ω). Jeśli określimy np.
W
t
(ω) = 0 dla pozostałych ω, to tak zdefiniowany proces stochastyczny jest
procesem Wienera na [0, 1].
3
Uwaga 14. Mając dany proces Wienera (W
t
)
t∈[0,1]
nietrudno skonstruować
proces Wienera na całej prostej. Można np. sprawdzić, że ((1 + t)W
1
1+t
−
W
1
)
t0
jest takim procesem.
1.3
Charakteryzacje procesu Wienera
Najpierw podamy twierdzenie, które znacznie ułatwia sprawdzanie, że dany
proces jest procesem Wienera. Musimy wpierw podać ważną definicję.
Definicja 15. Proces X = (X
t
)
t∈T
nazywamy gaussowskim, jeśli wszystkie
skończenie wymiarowe rozkłady X są gaussowskie, tzn. wektor (X
t
1
, . . . , X
t
n
)
ma rozkład gaussowski dla dowolnych t
1
, . . . , t
n
∈ T .
Przykłady
1. X
t
= f (t)g, gdzie f : T → R dowolne oraz g ∼ N (0, 1).
2. Proces Wienera (W
t
)
t0
.
3. Most Browna X
t
= W
t
− tW
1
, 0 ¬ t ¬ 1.
Twierdzenie 16. Proces (X
t
)
t0
jest procesem Wienera wtedy i tylko wte-
dy, gdy jest procesem gaussowskim, o ciągłych trajektoriach p.n. takim, że
EX
t
= 0 oraz Cov(X
t
, X
s
) = min{t, s}.
Dowód. ⇒: Mamy EX
t
= E(X
t
− X
0
) = 0 oraz Var(X
t
) = Var(X
t
− X
0
) =
t na mocy (W0) i (W2). Ponadto z niezależności przyrostów, dla t > s,
Cov(X
t
, X
s
) = Cov(X
t
− X
s
, X
s
) + Var(X
s
) = 0 + s = min{t, s}.
⇐: Zauważmy, że Var(X
0
) = 0 = EX
0
, więc spełniony jest warunek
(W0). Dla t > s, zmienna W
t
− W
s
ma rozkład normalny ze średnią 0 i
wariancją Var(X
t
− X
s
) = Var(X
t
) + Var(X
s
) − 2Cov(X
t
, X
s
) = t − s, więc
zachodzi (W2). By sprawdzić niezależność przyrostów ustalmy 0 ¬ t
0
¬ t
1
¬
. . . ¬ t
n
. Zauważmy, że wektor (X
t
0
, X
t
1
− X
t
0
, X
t
2
− X
t
1
, . . . , X
t
n
− X
t
n−1
)
ma rozkład gaussowski, więc jego współrzędne są niezależne wtedy i tylko
wtedy, gdy są nieskorelowane. Mamy jednak dla s
1
¬ s
2
¬ s
3
¬ s
4
,
Cov(X
s
1
, X
s
3
− X
s
2
) = Cov(X
s
1
, X
s
3
) − Cov(X
s
1
, X
s
2
) = s
1
− s
1
= 0
oraz
Cov(X
s
2
−X
s
1
, X
s
4
−X
s
3
) = Cov(X
s
2
, X
s
4
−X
s
3
)−Cov(X
s
1
, X
s
4
−X
s
3
) = 0.
4
Kolejne twierdzenie pokazuje, że (z dokładnością do drobnych technicz-
nych założeń oraz normalizacji) proces Wienera jest jedynym procesem o
ciągłych trajektoriach oraz niezależnych i stacjonarnych przyrostach.
Twierdzenie 17. Załóżmy, że proces (X
t
)
t0
spełnia warunki (W0), (W1),
(W3) (z W zastąpionym przez X) oraz
X ma przyrosty stacjonarne;
(W2a)
EX
1
= 0, Var(X
1
) = 1;
(W2b)
EX
4
t
< ∞ dla wszystkich t > 0.
(W2c)
Wówczas X
t
jest procesem Wienera.
Dowód. Określmy dla t 0, a(t) = EX
t
oraz b(t) = Var(X
t
). Zauważmy, że
na mocy niezależności i stacjonarności przyrostów,
b(t + s) = Var(X
t+s
− X
t
+ X
t
) = Var(X
t+s
− X
t
) + Var(X
t
)
= Var(X
s
) + Var(X
t
) = b(t) + b(s).
Ponadto oczywiście b(t) 0, zatem funkcja b(t) jest addytywna i niema-
lejąca na [0, ∞), więc b(t) = ct dla pewnego c 0, co wobec (W2b) daje
Var(X
t
) = b(t) = t. Analogicznie sprawdzamy, że a(t + s) = a(t) + a(s),
wiemy też, że a(0) = 0, stąd dowodzimy, że EX
t
= a(t) = 0 dla t wy-
miernych. Weźmy t > 0 i wybierzmy dążący do t ciąg liczb wymiernych
(t
n
). Na mocy (W2c), EX
2
t
< ∞, wiemy też, że EX
2
t
n
= Var(X
t
n
) = t
n
,
zatem (E|X
t
n
− X
t
|
2
)
1/2
¬ M dla pewnej stałej M . Z ciągłości trajekto-
rii X
t
n
→ X
t
prawie na pewno, czyli również według prawdopodobieństwa.
Zatem dla ε > 0,
|EX
t
| = |EX
t
− EX
t
n
| ¬ E|X
t
− X
t
n
| ¬ ε + E|X
t
− X
t
n
|
1
{|X
t
−X
tn
|ε}
¬ ε + (E|X
t
− X
t
n
|
2
)
1/2
P(|X
t
− X
t
n
| ε)
1/2
¬ ε + M P(|X
t
− X
t
n
| ε)
1/2
¬ 2ε
dla dostatecznie dużych n. Stąd EX
t
= 0. Wykazaliśmy zatem, że X
t
ma
średnią zero i wariancję t.
Ustalmy t > s 0, chcemy pokazać, że X
t
− X
s
ma rozkład normalny
N (0, t − s). Zauważmy, że
X
t
− X
s
=
n
X
k=1
Y
n,k
, gdzie
Y
n,k
= X
s+k(t−s)/n
− X
s+(k−1)(t−s)/n
.
5
Zmienne (Y
n,k
)
1¬k¬n
tworzą układ trójkątny, możemy więc skorzystać z
Centralnego Twierdzenia Granicznego i wykazać, że
P
n
k=1
Y
n,k
zbiega do
N (0, t − s) według rozkładu. Mamy
n
X
k=1
EY
n,k
= 0,
n
X
k=1
Var(Y
n,k
) = t − s,
wystarczy więc sprawdzić warunek Lindeberga. Dla ε > 0,
L
n
(ε) =
n
X
k=1
E|Y
n,k
|
2
1
{|Y
n,k
|ε}
¬ E
h
n
X
k=1
|Y
n,k
|
2
1
{max
k¬n
|Y
n,k
|ε}
i
¬
E
n
X
k=1
|Y
n,k
|
2
2
1/2
P
max
k¬n
|Y
n,k
| ε
1/2
.
Zauważmy, że zmienne (Y
n,k
) dla ustalonego n są niezależne i mają średnią
zero, zatem
E(X
t
− X
s
)
4
= E
n
X
k=1
Y
n,k
4
=
X
1¬k
1
,k
2
,k
3
,k
4
¬n
EY
n,k
1
Y
n,k
2
Y
n,k
3
Y
n,k
4
=
n
X
k=1
EY
4
n,k
+ 6
X
1¬k<l¬n
EY
2
n,k
EY
2
n,l
n
X
k=1
EY
4
n,k
+ 2
X
1¬k<l¬n
EY
2
n,k
EY
2
n,l
= E
n
X
k=1
|Y
n,k
|
2
2
.
Z ciągłości trajektorii X wynika, że P(max
k¬n
|Y
n,k
| ε) → 0 przy n → ∞,
zatem lim
n→∞
L
n
(ε) = 0.
Uwaga 18.
Warunek (W2c) nie jest konieczny - zob. Twierdzenie 5 z
paragrafu 13.1 książki [3].
Okazuje się, że również nie trzeba zakładać skończoności wariancji ani
nawet istnienia wartości średniej W
1
- warunek (W2b) ma charakter czysto
normalizacyjny. Dokładniej zachodzi następujące twierdzenie.
Twierdzenie 19. Załóżmy, że proces stochastyczny X = (X
t
)
t0
spełnia
warunki (W0),(W1),(W2a) i (W3). Wówczas istnieją stałe a, b ∈ R i proces
Wienera W takie, że X
t
= aW
t
+ bt dla wszystkich t 0.
6
1.4
Nieróżniczkowalność trajektorii
Trajektorie procesu Wienera mają wiele ciekawych własności, część z nich
poznamy później. W tym paragrafie pokażemy, że mimo iż są ciągłe, to z
prawdopodobieństwem 1 nie są różniczkowalne w żadnym punkcie.
Twierdzenie 20. Prawie wszystkie trajektorie procesu Wienera (W
t
)
t0
są
funkcjami nieróżniczkowalnymi w żadnym punkcie, tzn.
P
∃
t
0
0
t → W
t
(ω) jest różniczkowalne w t
0
= 0.
Dowód. Najpierw pokażemy nieróżniczkowalność trajektorii na [0, 1), tzn.
P
∃
t
0
∈[0,1)
t → W
t
(ω) jest różniczkowalne w t
0
= 0.
Zauważmy, że jeśli funkcja f : [0, 1] → R jest różniczkowalna w t
0
∈ [0, 1)
oraz |f
0
(t
0
)| < M , to |f (t) − f (t
0
)| ¬ M |t − t
0
| dla t dostatecznie bliskich
t
0
. Zatem, jeśli j/n ¬ t
0
< (j + 1)/n, to dla dostatecznie dużych n,
f
j + 1
n
− f
j
n
¬
f
j + 1
n
− f (t
0
)
+
f (t
0
) − f
j
n
¬ M
1
n
+
1
n
,
f
j + 2
n
−f
j + 1
n
¬
f
j + 2
n
−f (t
0
)
+
f (t
0
)−f
j + 1
n
¬ M
2
n
+
1
n
oraz
f
j + 3
n
−f
j + 2
n
¬
f
j + 3
n
−f (t
0
)
+
f (t
0
)−f
j + 2
n
¬ M
3
n
+
2
n
.
Stąd, jeśli funkcja f jest różniczkowalna w jakimś punkcie przedziału [0, 1),
to
∃
M <∞
∃
m<∞
∀
nm
∃
0¬j¬n−3
∀
k=0,1,2
f
j + k + 1
n
− f
j + k
n
¬
5M
n
.
Czyli
P
∃
t
0
∈[0,1)
t →W
t
(ω) jest różniczkowalne w t
0
¬ P
∞
[
M =1
∞
[
m=1
∞
\
n=m
n−3
[
j=0
2
\
k=0
n
W
j+k+1
n
− W
j+k
n
¬
5M
n
o
¬
∞
X
M =1
∞
X
m=1
P
∞
\
n=m
n−3
[
j=0
2
\
k=0
n
W
j+k+1
n
− W
j+k
n
¬
5M
n
o
.
7
Z niezależności przyrostów dostajemy
P
2
\
k=0
n
W
j+k+1
n
− W
j+k
n
¬
5M
n
o
=
2
Y
k=0
P
W
j+k+1
n
− W
j+k
n
¬
5M
n
=
P
W
1
n
¬
5M
n
3
=
P
1
√
n
|W
1
| ¬
5M
n
3
=
1
√
2π
Z
5M/
√
n
−5M/
√
n
e
−x
2
/2
dx
3
¬
1
√
2π
10M
√
n
3
.
Zatem
P
n−3
[
j=0
2
\
k=0
n
W
j+k+1
n
− W
j+k
n
¬
5M
n
o
¬
n−3
X
j=0
1000M
3
n
3/2
¬
1000M
3
√
n
,
czyli
P
∞
\
n=m
n−3
[
j=0
2
\
k=0
n
W
j+k+1
n
− W
j+k
n
¬
5M
n
o
= 0
i
P
∃
t
0
∈[0,1)
t → W
t
(ω) jest różniczkowalne w t
0
= 0.
Nieznacznie modyfikując poprzedni dowód (albo używając faktu, że
f
W
t
=
T
−1/2
W
tT
też jest procesem Wienera oraz w oczywisty sposób nieróżnicz-
kowalność W na [0, 1) jest równoważna nieróżniczkowalności
f
W na [0, T ))
dostajemy, że dla T < ∞,
P
∃
t
0
∈[0,T )
t → W
t
(ω) jest różniczkowalne w t
0
= 0.
By zakończyć dowód wystarczy zauważyć, że
P
∃
t
0
>0
t → W
t
(ω) jest różniczkowalne w t
0
= lim
N →∞
P
∃
t
0
∈[0,N )
t → W
t
(ω) jest różniczkowalne w t
0
= 0.
Uwaga 21. Dokładna analiza przedstawionego dowodu pokazuje, że nie wy-
kazaliśmy mierzalności zdarzenia {∃
t
0
t → W
t
(ω) jest różniczkowalne w t
0
},
a jedynie to, że jest ono podzbiorem pewnego zdarzenia miary zero. By
uniknąć kłopotów technicznych podobnego rodzaju, wygodnie jest przyjąć,
że przestrzeń probabilistyczna (Ω, F , P) jest zupełna, tzn. dowolny podzbiór
zbioru miary zero jest mierzalny (każdą przestrzeń probabilistyczną można
rozszerzyć do przestrzeni zupełnej).
8
2
Rozkłady Procesów Stochastycznych
Podczas tego wykładu zdefiniujemy rozkład procesu stochastycznego, w
szczególności powiemy jakie zdarzenia określone przez proces są mierzalne.
Udowodnimy, że rozkład procesu jest wyznaczony przez rozkłady skończenie
wymiarowe. Sformułujemy też warunki, które muszą być spełnione, by ist-
niał proces stochastyczny o zadanych rozkładach skończenie wymiarowych.
Przypomnijmy, że jeśli X jest zmienną losową o wartościach w przestrze-
ni (E, E ), to
rozkładem X jest miara probabilistyczna na (E, E ) zadana
wzorem
µ
X
(A) = P(X ∈ A), A ∈ E.
2.1
σ-ciało zbiorów cylindrycznych
Proces X = (X
t
)
t∈T
możemy traktować jako zmienną losową o wartościach
w R
T
. Jakie podzbiory R
T
są wówczas na pewno mierzalne?
Definicja 1. Zbiory postaci
x ∈ R
T
: (x
t
1
, . . . , x
t
n
) ∈ A
, t
1
, . . . , t
n
∈ T, A ∈ B(R
n
)
nazywamy zbiorami cylindrycznymi. Przez B(R
T
) będziemy oznaczać naj-
mniejsze σ-ciało zawierające zbiory cylindryczne i będziemy je nazywać σ-
ciałem zbiorów cylindrycznych.
Uwaga 2. Zauważmy, że
B(R
T
) = σ({x ∈ R
T
: x
t
∈ A}, t ∈ T, A ∈ B(R)).
Przykłady
1. Zbiory {x : x
t
> x
s
}, {x : x
t
1
> 0, x
t
2
− x
t
1
> 0, . . . , x
t
n
− x
t
n−1
> 0}
oraz {x : ∀
t<s,t,s∈Q
+
x
t
> x
s
} należą do B(R
[0,∞)
).
2. Zbiór {x : sup
t∈T
|x
t
| ¬ 1} nie należy do B(R
T
), gdy T jest nieprzeli-
czalny, podobnie {x : t → x
t
ciągłe} nie należy do B(R
T
), gdy T jest
niezdegenerowanym przedziałem.
Definicja 3. Rozkładem procesu X = (X
t
)
t∈T
nazywamy miarę probabili-
styczną µ
X
na B(R
T
) daną wzorem
µ
X
(C) = P((X
t
)
t∈T
∈ C), C ∈ B(R
T
).
9
Uwaga 4. Załóżmy, że T jest przedziałem (skończonym lub nie). Na prze-
strzeni funkcji ciagłych C(T ) rozważmy topologię zbieżności niemal jedno-
stajnej. Wówczas B(R
T
) ∩ C(T ) = B(C(T )), co oznacza, że jeśli proces
X = (X
t
)
t∈T
ma ciągłe trajektorie, to X wyznacza rozkład probabilistycz-
ny na przestrzeni funkcji ciągłych (C(T ), B(C(T ))). W szczególności proces
Wienera wyznacza pewien rozkład probabilistyczny na C[0, ∞).
2.2
Warunki zgodności. Twierdzenie Kołmogorowa o istnie-
niu procesu
Najprostsze zbiory z B(R
T
), to zbiory cylindryczne. Miary takich zbiorów
to rozkłady skończenie wymiarowe procesu.
Definicja 5. Dla procesu (X
t
)
t∈T
o wartościach w R i t
1
, . . . , t
n
∈ T okre-
ślamy miarę µ
t
1
,...,t
n
na R
n
wzorem
µ
t
1
,...,t
n
(A) = P((X
t
1
, . . . , X
t
n
) ∈ A), A ∈ B(R
n
).
Rodzinę miar {µ
t
1
,...,t
n
: t
1
, . . . , t
n
∈ T parami różne} nazywamy rodziną skoń-
czenie wymiarowych rozkładów procesu X.
Fakt 6. Załóżmy, że X = (X
t
)
t∈T
i Y = (Y
t
)
t∈T
są procesami o tych samych
skończenie wymiarowych rozkładach, czyli
P((X
t
1
, . . . , X
t
n
) ∈ A) = P((Y
t
1
, . . . , Y
t
n
) ∈ A)
dla wszystkich t
1
, . . . , t
n
∈ T, A ∈ B(R
n
). Wówczas X i Y mają ten sam
rozkład, tzn.
P(X ∈ C) = P(Y ∈ C) dla wszystkich C ∈ B(R
T
).
Dowód. Rodzina zbiorów cylindrycznych A tworzy π-układ, a rodzina C
zbiorów C takich, że P(X ∈ C) = P(Y ∈ C), jest λ-układem zawierają-
cym A. Zatem z twierdzenia o π- i λ- układach, C zawiera również σ-ciało
generowane przez A, czyli B(R
T
).
Definicja 7. Powiemy, że rodzina skończenie wymiarowych rozkładów
{µ
t
1
,...,t
n
: t
1
, . . . , t
n
∈ T parami różne}
spełnia warunki zgodności, jeśli zachodzą następujące warunki:
10
i) Dla dowolnych t
1
, t
2
, . . . , t
n
∈ T , dowolnej permutacji (i
1
, . . . , i
n
) liczb
(1, . . . , n) oraz zbiorów A
1
, A
2
, . . . , A
n
∈ B(R),
µ
t
i1
,...,t
in
(A
i
1
× A
i
2
× . . . × A
i
n
) = µ
t
1
,...,t
n
(A
1
× A
2
× . . . × A
n
).
ii) Dla dowolnych t
1
, t
2
, . . . , t
n+1
∈ T oraz A
1
, A
2
, . . . , A
n
∈ B(R),
µ
t
1
,...,t
n
,t
n+1
(A
1
× A
2
× . . . × A
n
× R) = µ
t
1
,...,t
n
(A
1
× A
2
× . . . × A
n
).
Oczywiście rodzina rozkładów skończenie wymiarowych dowolnego pro-
cesu stochastycznego spełnia warunki zgodności. Okazuje się, że są to jedyne
warunki jakie należy nałożyć na taką rodzinę.
Twierdzenie 8. Załóżmy, że dana jest rodzina skończenie wymiarowych
rozkładów (µ
t
1
,...,t
n
) spełniająca warunki zgodności. Wówczas istnieje proces
(X
t
)
t∈T
mający skończenie wymiarowe rozkłady równe (µ
t
1
,...,t
n
).
Nie będziemy przedstawiać technicznego dowodu powyższego twierdze-
nia - wszystkich zainteresowanych odsyłamy do Dodatku B. W zamian sfor-
mułujemy użyteczny wniosek.
Wniosek 9. Załóżmy, że T ⊂ R oraz dana jest rodzina rozkładów skończe-
nie wymiarowych {µ
t
1
,...,t
n
: t
1
< t
2
< . . . < t
n
, t
1
, . . . , t
n
∈ T } spełniająca
warunek
µ
t
1
,...,t
n
(A
1
× . . . × A
k−1
× R × A
k+1
. . . × A
n
)
= µ
t
1
,...t
k−1
,t
k+1
,...,t
n
(A
1
× . . . × A
k−1
× A
k+1
× . . . × A
n
).
dla wszystkich t
1
< t
2
< . . . < t
n
, n 2, 1 ¬ k ¬ n oraz zbiorów borelow-
skich A
1
, . . . , A
n
. Wówczas istnieje proces (X
t
)
t∈T
taki, że (X
t
1
, . . . , X
t
n
)
ma rozkład µ
t
1
,...,t
n
dla t
1
< t
2
< . . . < t
n
.
Dowód. Dla t
1
, . . . , t
n
∈ T parami różnych istnieje permutacja (i
1
, . . . , i
n
)
liczb (1, . . . , n) taka, że t
i
1
< t
i
2
< . . . < t
i
n
. Możemy więc określić µ
t
1
,...,t
n
ja-
ko rozkład wektora (Y
1
, . . . , Y
n
) takiego, że (Y
i
1
, . . . , Y
i
n
) ma rozkład µ
t
i1
,...,t
in
.
Można sprawdzić, że tak określona rodzina miar (µ
t
1
,...,t
n
) spełnia warunki
zgodności.
Przykłady
1. Jeśli (µ
t
)
t∈T
jest dowolną rodziną rozkładów na R, to istnieje rodzina
niezależnych zmiennych losowych (X
t
)
t∈T
taka, że X
t
ma rozkład µ
t
.
Używamy tu twierdzenia o istnieniu dla µ
t
1
,...,t
n
= µ
t
1
⊗ . . . ⊗ µ
t
n
.
11
2. Istnieje proces spełniający warunki (W0)-(W2) definicji procesu Wie-
nera. Istotnie dla 0 = t
0
¬ t
1
< t
2
< . . . < t
n
kładziemy
µ
t
1
,...,t
n
∼
X
1
, X
1
+ X
2
, . . . ,
n
X
k=1
X
k
,
gdzie X
1
, . . . , X
n
są niezależnymi zmiennymi losowymi X
k
∼ N (0, t
k
−
t
k−1
). Warunki zgodności wynikają wówczas stąd, iż jeśli Y
1
, Y
2
są
niezależne i Y
i
∼ N (0, σ
2
i
) dla i = 1, 2, to Y
1
+ Y
2
∼ N (0, σ
2
1
+ σ
2
2
).
Uwaga 10. Dla uproszczenia zakładaliśmy podczas tego wykładu, że pro-
ces X
t
ma wartości rzeczywiste. Nic się zmieni (poza oczywistymi drobnymi
zmianami definicji) dla procesów o wartościach w R
d
. Czasem jednak za-
chodzi potrzeba rozpatrywania procesów o wartościach w ogólniejszej prze-
strzeni E. warto więc zauważyć, że
• w Fakcie 6 nie wykorzystywaliśmy żadnych własności przestrzeni E,
• w dowodzie Twierdzenia 8 wykorzystuje się regularność miar na E
n
-tu wystarczy założyć, że E jest σ-zwartą przestrzenią metryczną, tzn.
E jest przeliczalną sumą zbiorów zwartych lub dodać warunek regu-
larności rozpatrywanych miar.
3
Ciągłość trajektorii
Wiemy już kiedy istnieje proces o zadanych skończenie wymiarowych rozkła-
dach. Nasuwa się pytanie – kiedy taki proces ma ciągłe trajektorie? Zanim
jednak zastanowimy się nad odpowiedzią wprowadzimy dwa ważne sposoby
porównywania procesów.
3.1
Procesy stochastycznie równoważne i nierozróżnialne
Definicja 11. Niech X = (X
t
)
t∈T
oraz Y = (Y
t
)
t∈T
będą dwoma procesa-
mi stochastycznymi, określonymi na tej samej przestrzeni probabilistycznej.
Powiemy, że:
a) X jest modyfikacją Y (lub X jest stochastycznie równoważny Y ), jeśli
∀
t∈T
P(X
t
= Y
t
) = 1.
b) X i Y są nierozróżnialne, jeśli
P(∀
t∈T
X
t
= Y
t
) = 1.
12
Zauważmy, że procesy nierozróżnialne są oczywiście stochastycznie rów-
noważne. Ponadto dwa procesy stochastycznie równoważne mają ten sam
rozkład. Poniższy przykład pokazuje, że z rozkładu procesu nie można wnio-
skować o własnościach trajektorii.
Przykład
Niech Z 0 będzie dowolną zmienną losową o rozkładzie bezatomowym
tzn. P(Z = z) = 0 dla wszystkich z ∈ R. Zdefiniujmy dwa procesy na
T = [0, ∞):
X
t
≡ 0
oraz
Y
t
(ω) =
(
0
dla t 6= Z(ω)
1
dla t = Z(ω).
Wówczas Y jest modyfikacją X, bo P(X
t
6= Y
t
) = P(Z = t) = 0. Zauważ-
my jednak, że wszystkie trajektorie Y są nieciągłe, czyli w szczególności
P(∀
t6=0
X
t
= Y
t
) = 0, a zatem procesy X i Y nie są nierozróżnialne.
Fakt 12. Załóżmy, że T jest przedziałem oraz procesy X = (X
t
)
t∈T
i
Y = (Y
t
)
t∈T
mają prawostronnie ciągłe trajektorie. Wówczas, jeśli X jest
modyfikacją Y , to Xi Y są nierozróżnialne.
Dowód. Wybierzmy przeliczalny podzbiór T
0
⊂ T , gęsty w T , zawierający
dodatkowo sup T , jeśli T jest przedziałem prawostronnie domkniętym. Niech
A = {∀
t∈T
0
X
t
= Y
t
},
wówczas P(A) = 1, jako przeliczalne przecięcie zbiorów pełnej miary. Po-
nadto, jeśli ω ∈ A, to dla dowolnego t ∈ T ,
X
t
(ω) =
lim
s→t+,s∈T
0
X
s
(ω) =
lim
s→t+,s∈T
0
Y
s
(ω) = Y
t
(ω),
czyli
P(∀
t∈T
X
t
= Y
t
) P(A) = 1.
3.2
Twierdzenie o ciągłej modyfikacji
Najważniejsze twierdzenie tego wykładu podaje kryterium istnienia mody-
fikacji procesu, która ma ciągłe trajektorie. Zanim sformułujemy dokładny
wynik przypomnijmy definicję h¨
olderowskości.
13
Definicja 13. Funkcja f : [a, b] → R jest h¨olderowsko ciągła z wykładnikiem
γ, jeśli dla pewnej stałej C < ∞,
|f (s) − f (t)| ¬ C|t − s|
γ
dla wszystkich s, t ∈ [a, b].
Twierdzenie 14. Załóżmy, że X = (X
t
)
t∈[a,b]
jest procesem takim, że
∀
t,s∈[a,b]
E|X
t
− X
s
|
α
¬ C|t − s|
1+β
(1)
dla pewnych stałych dodatnich α, β, C. Wówczas istnieje proces
e
X = (
e
X
t
)
t∈[a,b]
,
będący modyfikacją procesu X, którego wszystkie trajektorie są ciągłe. Co
więcej trajektorie każdej modyfikacji X o ciągłych trajektoriach są, z praw-
dopodobieństwem 1, h¨
olderowsko ciągłe z dowolnym wykładnikiem γ <
β
α
.
Zainteresownych dowodem odsyłamy do Dodatku B.
Wniosek 15. Twierdzenie 14 jest prawdziwe, gdy przedział [a, b] zastąpi-
my nieskończonym przedziałem, o ile h¨
olderowskość trajektorii zastąpimy
lokalną h¨
olderowskością (tzn. h¨
olderowskością na każdym przedziale skoń-
czonym). Co więcej, wystarczy, by warunek (1) zachodził dla |s − t| ¬ δ,
gdzie δ jest ustaloną liczbą dodatnią.
Dowód. Przedział nieskończony T można zapisać jako przeliczalną sumę
przedziałów [a
n
, a
n+1
], długości nie większej od δ. Z Twierdzenia 14 wynika
istnienie modyfikacji
e
X
(n)
t
procesu X na przedziale [a
n
, a
n+1
], o ciągłych tra-
jektoriach. Niech A
n
= { ˜
X
(n)
a
n+1
6= ˜
X
(n+1)
a
n+1
}, wówczas A =
S
n
A
n
ma miarę
zero. Możemy więc położyć:
e
X
t
(ω) =
(
e
X
(n)
t
(ω)
dla t ∈ [a
n
, a
n+1
], ω /
∈ A
0
dla ω ∈ A.
Wniosek 16. Istnieje proces Wienera, tzn. proces spełniający warunki (W0)-
(W3).
Dowód. Mamy E|W
s
− W
t
|
4
= E|
√
t − sW
1
|
4
= (s − t)
2
EW
4
1
= 3(s − t)
2
i
możemy zastosować Wniosek 15 z β = 1, α = 4 i C = 3.
Wniosek 17. Prawie wszystkie trajektorie procesu Wienera są lokalnie H¨
olderowsko
ciągłe z dowolnym parametrem γ < 1/2.
14
Dowód. Mamy E|W
s
− W
t
|
p
= (s − t)
p/2
EW
p
1
= C
p
(s − t)
p/2
dla dowolnego
p < ∞. Stosując twierdzenie 14 z β = p/2−1, α = p dostajemy H¨
olderowską
ciągłość trajektorii z dowolnym γ <
1
2
−
1
p
. Biorąc p → ∞ dostajemy tezę.
Uwaga 18. Prawie wszystkie trajektorie procesu Wienera nie są jednostaj-
nie ciągłe na [0, ∞), nie mogą więc być globalnie H¨
olderowskie z żadnym
wykładnikiem.
Uwaga 19.
Założenia β > 0 nie można opuścić – wystarczy rozważyć
proces Poissona (tzn. proces (N
t
)
t0
o prawostronnie ciaglych trajektoriach,
startujący z zera, o przyrostach niezależnych taki, że N
t
− N
s
ma rozkład
Poissona z parametrem λ(t − s) – zob. np. Rozdział 23 w [1]) dla którego
E|N
t
− N
s
| = λ|t − s|, a oczywiście proces Poissona przyjmuje wartości
całkowite, więc nie ma modyfikacji o ciągłych trajektoriach.
3.3
Inne rodzaje ciągłości procesów
W tym wykładzie koncentrowaliśmy uwagę nad procesami o trajektoriach
ciągłych. Warto jednak wspomnieć o innych formach ciągłości procesów sto-
chastycznych.
Definicja 20. Niech X = (X
t
)
t∈T
będzie procesem stochastycznym. Mówi-
my, że
a) proces X jest stochastycznie ciągły, jeśli
t
n
→ t ⇒ X
t
n
P
→ X
t
.
b) proces X jest ciągły wg p-tego momentu (ciągły w L
p
), jeśli
t
n
→ t ⇒ E|X
t
n
− X
t
|
p
→ 0.
Uwaga 21. Nietrudno wykazać, że zarówno ciągłość trajektorii jaki i cią-
głość wg p-tego momentu implikują ciągłość stochastyczną procesu. Z pozo-
stałych czterech implikacji między powyższymi pojęciami ciągłości procesu
żadna nie jest prawdziwa bez dodatkowych założeń.
4
Filtracje, Momenty Zatrzymania
Celem tego wykładu jest pokazanie jak zmodyfikować definicje omawiane
podczas kursowego wykładu z rachunku prawdopodobieństwa z przypadku
czasu dyskretnego na czas ciągły.
Będziemy zakładać, że T jest lewostronnie domkniętym przedziałem (ty-
powo T = [0, ∞)), choć większość definicji i wyników można uogólnić na
szerszą klasę zbiorów.
15
4.1
Filtracje
Definicja 1. Filtracją (F
t
)
t∈T
przestrzeni probabilistycznej (Ω, F , P) nazy-
wamy rosnący rodzinę σ-ciał zawartych w F , tzn. F
t
⊂ F
s
dla t ¬ s, t, s ∈
T .
Zdarzenia z σ-ciała F
t
możemy interpretować jako zdarzenia obserwo-
walne do chwili t.
Definicja 2. Niech X = (X
t
)
t∈T
będzie procesem stochastycznym. Filtra-
cją generowaną przez X nazywamy rodzinę (F
X
t
)
t∈T
daną wzorem F
X
t
=
σ(X
s
: s ¬ t).
Fakt 3. Proces X
t
ma przyrosty niezależne wtedy i tylko wtedy, gdy dla
dowolnych t < s, t, s ∈ T przyrost X
s
− X
t
jest niezależny od σ-ciała F
X
t
.
Dowód. ⇒: Rodzina zdarzeń A niezależnych od X
s
− X
t
tworzy λ-układ,
ponadto, z niezależności przyrostów X, zawiera π-układ zdarzeń postaci
{X
t
1
∈ A
1
, . . . , X
t
n
∈ A
n
} dla t
1
< . . . < t
n
¬ t.
⇐: Ustalmy t
1
< . . . < t
n
oraz zbiory borelowskie A
1
, . . . , A
n
. Zdarzenie
{X
t
1
∈ A
1
, X
t
2
− X
t
1
∈ A
2
, . . . , X
t
n−1
− X
t
n−2
∈ A
n−1
} należy do σ-ciała
F
X
t
n−1
, więc jest niezależne od zmiennej X
t
n
− X
t
n−1
. Stąd
P(X
t
1
∈ A
1
, X
t
2
− X
t
1
∈ A
2
, . . . , X
t
n
− X
t
n−1
∈ A
n
)
= P(X
t
1
∈ A
1
, . . . , X
t
n−1
− X
t
n−2
∈ A
n−1
)P(X
t
n
− X
t
n−1
∈ A
n
).
Iterując to rozumowanie pokazujemy, że
P(X
t
1
∈A
1
, X
t
2
− X
t
1
∈ A
2
, . . . , X
t
n
− X
t
n−1
∈ A
n
)
= P(X
t
1
∈ A
1
)P(X
t
2
− X
t
1
∈ A
2
, ) · · · P(X
t
n
− X
t
n−1
∈ A
n
).
Definicja 4. Proces X = (X
t
) nazywamy zgodnym z filtracją (F
t
)
t∈T
lub
F
t
-adaptowalnym, jeśli dla wszystkich t ∈ T , X
t
jest F
t
mierzalne.
Uwaga 5. Oczywiście proces X jest zgodny z filtracją (F
t
)
t∈T
wtedy i tylko
wtedy, gdy F
X
t
⊂ F
t
dla t ∈ T . W szczególności każdy proces X jest zgodny
z filtracją przez siebie generowaną.
16
4.2
Momenty Zatrzymania
Definicja 6.
Momentem zatrzymania (momentem Markowa, czasem za-
trzymania) względem filtracji (F
t
)
t∈T
nazywamy zmienną losową o warto-
ściach w T ∪ {∞} taką, że {τ ¬ t} ∈ F
t
dla wszystkich t ∈ T .
Moment zatrzymania to strategia przerwania eksperymentu losowego
(np. zakończenia udziału w pewnej grze losowej) taka, że decyzję o prze-
rwaniu do chwili t podejmujemy tylko na podstawie obserwacji dostępnych
w tym czasie.
Przykład. Dla zbioru A ⊂ R i procesu stochastycznego (X
t
)
t∈T
określmy
τ
A
= inf{t ∈ T : X
t
∈ A}.
Jeśli (X
t
)
t∈T
jest F
t
-adaptowalnym procesem o ciągłych trajektoriach, zaś A
zbiorem domkniętym, to τ
A
jest momentem zatrzymania względem filtracji
(F
t
).
Dowód. Niech T
0
⊂ T będzie gęstym podzbiorem T zawierającym lewy ko-
niec. Z domkniętości zbioru A i ciągłości X dostajemy dla t ∈ T
{τ
A
¬ t} = {∃
s¬t
X
s
∈ A} =
∞
\
n=1
[
s¬t,s∈T
0
{X
s
∈ A
1/n
} ∈ F
t
,
gdzie
A
ε
:= {x ∈ R
n
: d(x, A) < ε}
(ε-otoczka zbioru A).
Uwaga 7. Jeśli w powyższym przykładzie A będzie zbiorem otwartym, to
τ
A
nie musi być momentem zatrzymania względem filtracji (F
t
)
t∈T
, ale musi
być momentem zatrzymania względem filtracji (F
t+
)
t∈T
, gdzie dla t < sup T
F
t+
:=
\
s>t
F
s
,
a jeśli t jest największym elementem T , to kładziemy F
t+
= F
t
.
Powyższa uwaga motywuje poniższą definicję, która ma nieco techniczny
charakter, ale jest powszechnie używana w teorii procesów.
Definicja 8. Filtrację (F
t
)
t∈T
nazywamy prawostronnie ciągłą, jeśli F
t+
=
F
t
dla wszystkich t ∈ T . Mówimy, że filtracja (F
t
)
t∈T
spełnia zwykłe wa-
runki, jeśli
a) jest prawostronnie ciągła,
b) dla wszystkich t, F
t
zawiera wszystkie zbiory miary zero, tzn. jeśli A ∈ F ,
P(A) = 0, to A ∈ F
t
.
17
Definicja 9. Niech τ będzie momentem zatrzymania względem filtracji (F
t
)
t∈T
.
Definiujemy σ-ciało zdarzeń obserwowalnych do chwili τ wzorem
F
τ
:=
n
A ∈ F
∞
:= σ
[
t∈T
F
t
: ∀
t∈T
A ∩ {τ ¬ t} ∈ F
t
o
.
Fakt 10. a) Zbiór F
τ
jest σ-ciałem.
b) Jeśli τ ¬ σ, to F
τ
⊂ F
σ
.
c) Zmienna losowa τ jest F
τ
mierzalna.
Dowód. a) Zbiór Ω ∈ F
τ
, bo Ω ∩ {τ ¬ t} = {τ ¬ t} ∈ F
t
. Jeśli A ∈ F
τ
, to
A
0
∩ {τ ¬ t} = {τ ¬ t} \ (A ∩ {τ ¬ t}) ∈ F
t
, czyli A
0
∈ F
τ
. Jeśli A
n
∈ F
τ
,
to (
S
n
A
n
) ∩ {τ ¬ t} =
S
n
(A
n
∩ {τ ¬ t}) ∈ F
t
, czyli
S
n
A
n
∈ F
τ
.
b) Weźmy A ∈ F
τ
, wówczas dla t ∈ T , A ∩ {σ ¬ t} = A ∩ {τ ¬ t} ∩ {σ ¬
t} ∈ F
t
, czyli A ∈ F
σ
.
c) Wystarczy pokazać, że {τ ¬ s} ∈ F
τ
, ale {τ ¬ s} ∩ {τ ¬ t} = {τ ¬
s ∧ t} ∈ F
s∧t
⊂ F
t
.
Fakt 11. Załóżmy, że τ i σ są momentami zatrzymania. Wówczas F
τ ∧σ
=
F
τ
∩ F
σ
oraz zdarzenia {τ < σ}, {σ < τ }, {τ ¬ σ}, {σ ¬ τ }, {τ = σ} należą
do F
τ ∧σ
.
Dowód. Zauważmy, że τ ∧ σ jest momentem zatrzymania oraz τ ∧ σ ¬ τ i
τ ∧ σ ¬ σ, zatem na mocy Faktu 10 dostajemy F
τ ∧σ
⊂ F
τ
∩ F
σ
. Na odwrót,
jeśli A ∈ F
τ
∩ F
σ
, to A ∩ {τ ∧ σ ¬ t} = A ∩ ({τ ¬ t} ∪ {σ ¬ t}) = (A ∩ {τ ¬
t}) ∪ (A ∩ {σ ¬ t}) ∈ F
t
, czyli A ∈ F
τ ∧σ
. Dalszą część faktu pozostawiamy
do udowodnienia na ćwiczeniach.
Okazuje się, że adaptowalność procesu nie gwarantuje np. mierzalności
zmiennych X
τ
dla wszystkich momentów zatrzymania τ . Dlatego wprowa-
dzimy jeszcze jedną techniczną definicję.
Definicja 12. Proces X = (X
t
)
t∈T
nazywamy
progresywnie mierzalnym
względem filtracji (F
t
)
t∈T
, jeśli dla każdego t ∈ T , funkcja (s, ω) → X
s
(ω)
traktowana jako funkcja ze zbioru T ∩ (−∞, t] × Ω w R jest mierzalna wzglę-
dem σ-algebry B(T ∩ (−∞, t]) ⊗ F
t
. Równoważnie
∀
t∈T
∀
A∈B(R)
{(s, ω) ∈ T × Ω : s ¬ t, X
s
(ω) ∈ A} ∈ B(T ∩ (−∞, t]) ⊗ F
t
.
Fakt 13. Załóżmy, że T jest przedziałem oraz dany jest proces X = (X
t
)
t∈T
oraz filtracja (F
t
)
t∈T
.
a) Jeśli proces X jest progresywnie mierzalny względem (F
t
), to jest F
t
-
adaptowalny.
b) Jeśli proces X jest F
t
-adaptowalny oraz ma prawostronnie ciągłe trajek-
torie, to jest progresywnie mierzalny względem (F
t
).
18
Dowód. a) Zbiór {ω : X
t
(ω) ∈ A} jest przekrojem zbioru {(s, ω) ∈ T ×
Ω : s ¬ t, X
s
(ω) ∈ A}, a zatem należy do F
t
.
b) Ustalmy t ∈ T i połóżmy dla s ∈ T , s ¬ t, X
(n)
s
:= X
t−2
−n
k
, gdzie k
jest liczbą całkowitą taką, że t − 2
−n
(k + 1) < s ¬ t − 2
−n
k. Wówczas
{(s, ω) ∈T × Ω : s ¬ t, X
(n)
s
(ω) ∈ A}
=
∞
[
k=0
T ∩
t −
k + 1
2
n
, t −
k
2
n
i
× {ω : X
t−
k
2n
(ω) ∈ A}
∈ B(T ∩ (−∞, t]) ⊗ F
t
.
Zatem funkcja X
(n)
s
(ω), s ∈ T ∩ (−∞, t], ω ∈ Ω jest B(T ∩ (−∞, t]) ⊗ F
t
mie-
rzalna. Wobec prawostronnej ciągłości X mamy X
s
(ω) = lim
n→∞
X
(n)
s
(ω),
zatem funkcja X
s
(ω), s ∈ T ∩ (−∞, t], ω ∈ Ω jest B(T ∩ (−∞, t]) ⊗ F
t
mie-
rzalna jako granica funkcji mierzalnych.
Jeśli τ jest momentem zatrzymania, a X = (X
t
)
t∈T
procesem, to zmien-
na X
τ
jest dobrze zdefiniowana tylko na zbiorze {τ < ∞}. Musimy zatem
określić co mamy na myśli mówiąc, że zmienna X
τ
jest mierzalna.
Definicja 14. Mówimy, że zmienna losowa X określona na zbiorze A jest
mierzalna względem σ-ciała G zawierającego A, jeśli {ω ∈ A : X(w) ∈ B} ∈
G dla dowolnego zbioru borelowskiego B.
Fakt 15. Załóżmy, że X = (X
t
)
t∈T
jest procesem progresywnie mierzal-
nym względem filtracji (F
t
)
t∈T
, a τ jest momentem zatrzymania. Wówczas
zmienna losowa X
τ
określona na zbiorze {τ < ∞} ∈ F
τ
jest F
τ
mierzalna.
Ponadto proces zatrzymany w chwili τ , X
τ
:= (X
t∧τ
)
t∈T
jest progresywnie
mierzalny.
Dowód. Odwzorowanie
(s, ω) → (τ (ω) ∧ s, ω) : T ∩ (−∞, t] × Ω → T ∩ (−∞, t] × Ω
jest mierzalne względem σ-ciała B(T ∩ (−∞, t]) ⊗ F
t
). Jeśli złożymy je z
odwzorowaniem
(s, ω) → X
s
(ω) mierzalnym z (T ∩ (−∞, t] × Ω, B(T ∩ (−∞, t]) ⊗ F
t
) w R,
to otrzymamy odwzorowanie
(s, ω) → X
τ (ω)∧s
(ω) mierzalne z (T ∩ (−∞, t] × Ω, B(T ∩ (−∞, t]) ⊗ F
t
) w R.
19
Stąd wynika progresywna mierzalność procesu X
τ
. By zakończyć dowód
zauważmy, że
{X
τ
∈ A} ∩ {τ ¬ t} = {X
τ ∧t
∈ A} ∩ {τ ¬ t} ∈ F
t
na mocy progresywnej mierzalności (a właściwie adaptowalności) X
τ
.
5
Martyngały z czasem ciągłym
Jak podczas poprzedniego wykładu, jeśli nie powiemy inaczej, zakładamy,
że T jest lewostronnie domkniętym przedziałem.
5.1
Definicje i przykłady
Definicja 1. Mówimy, że (X
t
)
t∈T
jest
martyngałem (odp.
podmartyn-
gałem, nadmartyngałem) względem filtracji (F
t
)
t∈T
lub, że (X
t
, F
t
)
t∈T
jest
martyngałem (odp. podmartyngałem, nadmartyngałem), jeśli
a) dla wszystkich t ∈ T , X
t
jest F
t
adaptowalny i E|X
t
| < ∞,
b) dla dowolnych s, t ∈ T, s < t, E(X
t
|F
s
) = X
s
p.n. (odp. dla podmar-
tyngału i ¬ dla nadmartyngału).
Przykład 1. Jeśli X jest całkowalną zmienną losową, a F
t
dowolną filtracją
to X
t
:= E(X|F
t
) jest martyngałem.
Sprawdzamy dla t > s
E(X
t
|F
s
) = E(E(X|F
t
)|F
s
) = E(X|F
s
) = X p.n..
Przykład 2. (W
t
)
t0
jest martyngałem względem naturalnej filtracji F
W
t
=
σ(W
s
: s ¬ t).
Istotnie dla t > s mamy z niezależności przyrostów
E(W
t
|F
s
) = E(W
s
|F
s
) + E(W
t
− W
s
|F
s
) = W
s
+ E(W
t
− W
s
) = W
s
p.n..
Przykład 3. (W
2
t
)
t0
jest podmartyngałem, a (W
2
t
− t)
t0
martyngałem
względem naturalnej filtracji F
W
t
= σ(W
s
: s ¬ t).
Liczymy dla t > s
E(W
2
t
|F
s
) = E(W
2
s
|F
s
) + E(2W
s
(W
t
− W
s
)|F
s
) + E((W
t
− W
s
)
2
|F
s
)
= W
2
s
+ 2W
s
E(W
t
− W
s
) + E(W
t
− W
s
)
2
= W
2
s
+ t − s p.n..
Uwaga 2. W ostatnich dwu przykładach filtrację (F
W
t
) można zastąpić
filtracją (F
W
t+
).
20
Fakt 3. Załóżmy, że (X
t
, F
t
) jest martyngałem (odp. podmartyngałem), zaś
f : R → R funkcją wypukłą (odp. wypukłą i niemalejącą) taką, że E|f (X
t
)| <
∞ dla wszystkich t. Wówczas (f (X
t
), F
t
) jest podmartyngałem.
Dowód. Z nierówności Jensena mamy E(f (X
t
)|F
s
) f (E(X
t
|F
s
)) p.n., a
ostatnia zmienna jest równa f (X
s
) w przypadku martyngału i nie mniejsza
niż f (X
s
) dla podmartyngału.
Przypomnijmy definicję funkcji harmonicznych.
Definicja 4. Funkcję f : R
n
→ R nazywamy podharmoniczną (odp. harmo-
niczną, nadharmoniczną) jeśli
∀
x∈R
n
∀
r0
f (x) ¬
1
|S
n−1
|
Z
S
n−1
f (x + ry)dσ(y) (odp. =, ),
gdzie σ(y) jest miarą powierzchniową na sferze, a |S
n−1
| =
R
S
n−1
dσ(y) =
2π
n/2
(Γ(n/2))
−1
.
Uwaga 5. Funkcja gładka jest harmoniczna (odp. pod-,nad-) wtedy i tylko
wtedy, gdy ∆f = 0 (odp. , ¬). Dla n = 1 warunek podharmoniczności jest
równoważny wypukłości. Funkcja f (x) = − ln |x − x
0
| jest nadharmoniczna
na R
2
, a funkcja f (x) = |x − x
0
|
2−d
nadharmoniczna na R
d
dla d > 2.
Fakt 6. Niech W
t
= (W
(1)
t
, . . . , W
(d)
t
) będzie d-wymiarowym procesem Wie-
nera, F
W
t
= σ(W
s
: s ¬ t), zaś f : R
d
→ R funkcją harmoniczną (odp. nad-,
pod-) taką, że E|f (W
t
)| < ∞ dla t 0. Wówczas (f (W
t
), F
W
t
) jest martyn-
gałem (odp. nad-, pod-).
Dowód. Liczymy dla t > s,
E(f (W
t
)|F
s
) = E(f (W
s
+ (W
t
− W
s
))|F
s
)
= (2π(t − s))
−d/2
Z
R
d
f (W
s
+ x)e
−
|x|2
2(t−s)
dx
= (2π(t − s))
−d/2
Z
∞
0
r
d−1
e
−
r2
2(t−s)
Z
S
d−1
f (W
s
+ y)dσ(y)
dr
= (2π(t − s))
−d/2
|S
d−1
|f (W
s
)
Z
∞
0
r
d−1
e
−
r2
2(t−s)
dr
= (2π)
−d/2
|S
d−1
|
Z
∞
0
r
d−1
e
−
r2
2
drf (W
s
) = c
d
f (W
s
) p.n..
By zauważyć, że c
d
= 1 przeprowadzamy albo bezpośredni rachunek, albo
podstawiamy powyżej f ≡ 1.
21
5.2
Nierówności maksymalne
Zacznijmy od przypomnienia podstawowego lematu dla martyngałów z cza-
sem dyskretnym, pochodzącego od Dooba.
Lemat 7. Załóżmy, że (X
n
, F
n
)
0¬1¬N
jest martyngałem (odp. nad-, pod-),
zaś 0 ¬ τ ¬ σ ¬ N dwoma momentami zatrzymania. Wówczas
E(X
σ
|F
τ
) = X
τ
p.n. (odp. ¬, ).
Dowód. Musimy pokazać, że dla A ∈ F
τ
, EX
τ
1
A
= EX
σ
1
A
. Połóżmy A
k
:=
A ∩ {τ = k} dla k = 0, 1, . . . , N . Mamy
(X
σ
−X
τ
)
1
A
k
= (X
σ
−X
k
)
1
A
k
=
σ−1
X
i=k
(X
i+1
−X
i
)
1
A
k
=
N
X
i=k
(X
i+1
−X
i
)
1
A
k
∩{σ>i}
,
zatem
E[(X
σ
− X
τ
)
1
A
k
] =
N
X
i=k
E[(X
i+1
− X
i
)
1
A
k
∩{σ>i}
] = 0,
gdyż A
k
∩ {σ > i} ∈ F
i
. Stąd
E[(X
σ
− X
τ
)
1
A
] =
N
X
k=0
E[(X
σ
− X
τ
)
1
A
k
] = 0.
Uwaga 8.
Lemat 7 nie jest prawdziwy, jeśli nie założymy ograniczono-
ści momentów zatrzymania, np. biorąc X
n
=
P
n
k=1
ε
n
, gdzie ε
n
niezależne
zmienne losowe takie, że P(ε
n
= ±1) = 1/2, F
n
= σ(ε
1
, . . . , ε
n
), τ = 0,
σ = inf{n : X
n
= 1} widzimy, że EX
τ
= 0 6= 1 = EX
σ
.
Lemat 9. Niech (X
n
, F
n
)
0¬n¬N
będzie podmartyngałem, wówczas dla wszyst-
kich λ 0 mamy
a) λP
max
0¬n¬N
X
n
λ
¬ EX
N
1
{max
0¬n¬N
X
n
λ}
¬ EX
+
N
,
b) λP
min
0¬n¬N
X
n
¬ −λ
¬ EX
N
1
{min
0¬n¬N
X
n
>−λ}
− EX
0
¬ EX
+
N
− EX
0
.
22
Dowód. a) Niech τ := inf{n : X
n
λ}, z lematu 7 dostajemy (wobec τ ∧N ¬
N )
EX
N
EX
τ ∧N
= EX
τ
1
{max
0¬n¬N
X
n
λ}
+ EX
N
1
{max
0¬n¬N
X
n
<λ}
λP( max
0¬n¬N
X
n
λ) + EX
N
1
{max
0¬n¬N
X
n
<λ}
i po przeniesieniu wartości oczekiwanych na jedną stronę dostajemy postu-
lowaną nierówność.
b) Definiujemy τ := inf{n : X
n
¬ −λ}, z lematu 7 dostajemy (wobec
τ ∧ N 0)
EX
0
¬ EX
τ ∧N
= EX
τ
1
{min
0¬n¬N
X
n
¬−λ}
+ EX
N
1
{min
0¬n¬N
X
n
>−λ}
¬ −λP( min
0¬n¬N
X
n
¬ −λ) + EX
N
1
{min
0¬n¬N
X
n
>−λ}
i znów wystarczy pogrupować wartości oczekiwane.
Wniosek 10. Jeśli (X
n
, F
n
)
0¬n¬N
jest martyngałem, bądź nieujemnym
podmartyngałem, to
a) ∀
p1
∀
λ0
λ
p
P
max
0¬n¬N
|X
n
| λ
¬ E|X
N
|
p
,
b) ∀
p>1
E|X
N
|
p
¬ E max
0¬n¬N
|X
n
|
p
¬
p
p − 1
p
E|X
N
|
p
.
Dowód. a) Funkcja f (t) = |t|
p
jest wypukła, niemalejąca na R
+
, stąd na
mocy Faktu 3 |X
n
|
p
jest nieujemnym podmartyngałem, zatem z Lematu 9
mamy
λ
p
P
max
0¬n¬N
|X
n
| λ
¬ E|X
N
|
p
1
{max
0¬n¬N
|X
n
|
p
λ
p
}
¬ E|X
N
|
p
.
b) Niech X
∗
:= max
0¬n¬N
|X
n
|, z rachunku przeprowadzonego powyżej
λP(X
∗
λ) ¬ E|X
N
|
1
{X
∗
λ}
.
Stosując kolejno wzór na całkowanie przez części, twierdzenie Fubiniego i
nierówność H¨
oldera dostajemy
E max
0¬n¬N
|X
n
|
p
= p
Z
∞
0
λ
p−1
P(X
∗
λ)dλ ¬ p
Z
∞
0
λ
p−2
E|X
N
|
1
{X
∗
λ}
dλ
= pE|X
N
|
Z
X
∗
0
λ
p−2
dλ ¬
p
p − 1
E|X
N
|(X
∗
)
p−1
¬
p
p − 1
(E|X
N
|
p
)
1/p
(E(X
∗
)
p
)
(p−1)/p
.
23
Jeśli E|X
N
|
p
< ∞, to E|X
n
|
p
¬ E|X
N
|
p
< ∞ dla 0 ¬ n ¬ N oraz E(X
∗
)
p
¬
E
P
N
n=0
|X
n
|
p
< ∞. Dzieląc więc otrzymaną poprzednio nierówność stronami
przez (E(X
∗
)
p
)
(p−1)/p
dostajemy
(E(X
∗
)
p
)
1/p
¬
p
p − 1
(E|X
N
|
p
)
1/p
.
Udowodnimy teraz
nierówność maksymalną Dooba w przypadku cią-
głym.
Twierdzenie 11. Załóżmy, że (X
t
, F
t
)
t∈T
martyngałem lub nieujemnym
podmartyngałem, o prawostronnie ciągłych trajektoriach. Wówczas
a) ∀
p1
∀
λ0
λ
p
P
sup
t∈T
|X
t
| λ
¬ sup
t∈T
E|X
t
|
p
,
b) ∀
p>1
sup
t∈T
E|X
t
|
p
¬ E sup
t∈T
|X
t
|
p
¬
p
p − 1
p
sup
t∈T
E|X
t
|
p
.
Uwaga 12. Oczywiście jeśli T zawiera element maksymalny t
max
, to przy
założeniach twierdzenia sup
t∈T
E|X
t
|
p
= E|X
t
max
|
p
.
Dowód. Jeśli D jest skończonym podzbiorem T , to na podstawie Wniosku
10 dostajemy
λ
p
P
sup
t∈D
|X
t
| λ
¬ sup
t∈D
E|X
t
|
p
¬ sup
t∈T
E|X
t
|
p
.
Niech T
0
będzie gęstym podzbiorem T zawierającym prawy koniec T (o
ile taki istnieje), zaś D
n
wstępującym ciągiem skończonych podzbiorów T
0
takim, że
S
n
D
n
= T
0
. Wówczas dla dowolnego ˜
λ > 0 dostajemy na mocy
prawostronnej ciągłości
˜
λ
p
P
sup
t∈T
|X
t
| > ˜
λ
= ˜
λ
p
P
sup
t∈T
0
|X
t
| > ˜
λ
= lim
n→∞
˜
λ
p
P
sup
t∈D
n
|X
t
| > ˜
λ
¬ sup
t∈T
E|X
t
|
p
.
Biorąc ciąg ˜
λ
n
% λ dostajemy postulowaną w a) nierówność. Nierówność z
punktu b) wynika z Wniosku 10 w podobny sposób.
24
Uwaga 13.
Punkt b) twierdzenia 11 nie zachodzi dla p = 1 – można
skonstruować martyngał dla którego sup
t
E|X
t
| < ∞, ale E sup
t
|X
t
| = ∞.
Zachodzi jednak (przy założeniach Twierdzenia 11) nierówność
E sup
t∈T
|X
t
| ¬
e
e − 1
1 + sup
t∈T
E|X
t
| ln
+
|X
t
|
.
Wniosek 14. Dla dowolnych u, s > 0 zachodzi
P
sup
0¬t¬s
W
t
u
¬ e
−
u2
2s
.
Dowód. Ustalmy λ > 0, wówczas M
t
:= exp(λW
t
−
λ
2
t
2
) jest martyngałem
względem filtracji F
W
t
generowanej przez proces Wienera. Stąd na mocy
Twierdzenia 11 a) i nieujemności M
t
dostajemy
P
sup
0¬t¬s
W
t
u
¬ P
sup
0¬t¬s
M
t
e
λu−
λ2s
2
¬ e
−λu+
λ2s
2
sup
0¬t¬s
E|M
t
| = e
−λu+
λ2s
2
EM
0
= e
−λu+
λ2s
2
.
Zatem
P
sup
0¬t¬s
W
t
u
¬ inf
λ>0
e
−λu+
λ2s
2
= e
−
u2
2s
.
6
Twierdzenia o zbieżności martyngałów
6.1
Przejścia w dół przez przedział
Definicja 1. Załóżmy, że I ⊂ R, f : I → R oraz α < β. Jeśli I jest skoń-
czone, to określamy
τ
1
:= inf{t ∈ I : f (t) β} oraz σ
1
:= inf{t ∈ I : t > τ
1
, f (t) ¬ α}
i dalej indukcyjnie dla i = 1, 2, . . .
τ
i+1
:= inf{t ∈ I : t > σ
i
, f (t) β} oraz σ
i+1
:= inf{t ∈ I : t > τ
i+1
, f (t) ¬ α}.
oraz definiujemy
D
I
(f, [α, β]) := sup{j : σ
j
< ∞} ∨ 0
25
W przypadku, gdy I jest nieskończone kładziemy
D
I
(f, [α, β]) := sup{D
F
(f, [α, β]) : F ⊂ T skończone}.
Wielkość D
I
(f, [α, β]) nazywamy liczbą przejść w dół funkcji f przez prze-
dział [α, β].
Przypomnijmy fakt z rachunku prawdopodobieństwa wiążący skończo-
ność liczby przejść ciągu przez przedział z istnieniem granicy
Lemat 2. Ciąg liczbowy x
n
jest zbieżny do pewnej, niekoniecznie skończonej
granicy wtedy i tylko wtedy, gdy D
N
((x
n
), [α, β]) < ∞ dla dowolnych liczb
wymiernych α < β.
Następny lemat jest niewielką modyfikacją poprzedniego.
Lemat 3. Jeśli f : [a, b) → R, b ¬ ∞ jest prawostronnie ciągłą funkcją taką,
że D
[a,b)∩Q
(f, [α, β]) < ∞ dla dowolnych liczb wymiernych α < β, to istnieje
(niekoniecznie skończona) granica lim
t→b
f (t).
Dowód. Załóżmy, że postulowana granica nie istnieje, wtedy można znaleźć
liczby wymierne α, β takie, że
lim inf
t→b
f (t) < α < β < lim inf
t→b
f (t).
Stąd wynika, że istnieje rosnący ciąg liczb wymiernych t
n
z przedziału [a, b)
taki, że f (t
2k−1
) β oraz f (t
2k
) ¬ α. Przyjmując I = {t
1
, t
2
, . . .} widzimy,
że D
[a,b)∩Q
(f, [α, β]) D
I
(f, [α, β]) = ∞.
Lemat 4. Załóżmy, że X = (X
t
)
t∈T
jest podmartyngałem względem pewnej
filtracji, a F jest przeliczalnym podzbiorem T , wówczas
ED
F
(X, [α, β]) ¬ sup
t∈F
E(X
t
− β)
+
β − α
.
Dowód. Stosując twierdzenie Lebesgue’a o zbieżności monotonicznej widzi-
my, że wystarczy udowodnić lemat dla skończonych zbiorów F , dla uprosz-
czenia notacji możemy oczywiście przyjąć, że F = {1, 2, . . . , N }. Zauważmy,
że (przy oznaczeniach jak w Definicji 1)
X
τ
i
∧N
−X
σ
i
∧N
=
X
τ
i
− X
σ
i
β − α
gdy σ
i
< ∞,
X
τ
i
− X
N
β − X
N
−(X
N
− β)
+
gdy τ
i
< σ
i
= ∞,
X
N
− X
N
= 0
gdy τ
i
= ∞.
26
Zatem
N
X
i=1
(X
τ
i
∧N
− X
σ
i
∧N
) (β − α)D
F
(X, [α, β]) − (X
N
− β)
+
.
Na mocy Lematu 7, EX
τ
i∧N
¬ EX
σ
i∧N
, więc
0 E
N
X
i=1
(X
τ
i
∧N
− X
σ
i
∧N
) E(β − α)D
F
(X, [α, β]) − E(X
N
− β)
+
.
6.2
Zbieżność prawie na pewno
Przypomnijmy twierdzenie dotyczące zbieżności podmartyngałów z czasem
dyskretnym:
Twierdzenie 5. Załóżmy, że (X
n
)
n∈N
jest podmartyngałem względem pew-
nej filtracji takim, że sup
n∈N
EX
+
n
< ∞ (lub nadmartyngałem takim, że
sup
n∈N
EX
−
n
< ∞), wówczas X = lim
n→∞
X
n
istnieje i jest skończona p.n.,
ponadto E|X| < ∞.
Sformułujemy teraz odpowiednik powyższego twierdzenia dla czasu cią-
głego.
Twierdzenie 6. Załóżmy, że (X
t
)
t∈[a,b)
, b ¬ ∞ jest podmartyngałem o pra-
wostronnie ciągłych trajektoriach takim, że sup
t∈[a,b)
EX
+
t
< ∞. Wówczas
X = lim
t→b
X
t
istnieje i jest skończony p.n., ponadto E|X| < ∞.
Dowód. Dla ustalonego α < β na podstawie Lematu 4 mamy
ED
[a,b)∩Q
(X
t
, [α, β]) ¬
1
β − α
sup
t∈[a,b)
E(X
t
− β)
+
< ∞,
zatem P(D
[a,b)∩Q
(X
t
, [α, β]) = ∞) = 0. Niech
A :=
\
α,β∈Q,α<β
{D
[a,b)∩Q
(X
t
, [α, β]) < ∞},
wówczas P(A) = 1, bo A jest przecięciem przeliczalnej liczby zbiorów pełnej
miary. Jeśli ω ∈ A, to D
[a,b)∩Q
(X
t
(ω), [α, β]) < ∞ dla dowolnych liczb wy-
miernych α < β, czyli na podstawie Lematu 3 granica X(ω) := lim
t→b
X
t
(ω)
27
istnieje (choć apriori może być nieskończona). Zauważmy, że E|X
t
| = 2EX
+
t
−
EX
t
¬ 2EX
+
t
− EX
0
, zatem sup
t∈[a,b)
E|X
t
| < ∞. Z Lematu Fatou
E|X| = E lim
t→b
|X
t
| ¬ lim inf
t→∞
E|X
t
| ¬ sup
t
E|X
t
| < ∞,
czyli zmienna X jest całkowalna, a więc w szczególności skończona p.n..
Wniosek 7. Załóżmy, że (X
t
)
t0
jest niedodatnim podmartyngałem (lub
nieujemnym nadmartyngałem) o prawostronnie ciągłych trajektoriach, wów-
czas X = lim
t→∞
X
t
istnieje i jest skończony p.n., ponadto E|X| < ∞.
6.3
Jednostajna całkowalność
Definicja 8. Rodzinę zmiennych losowych (X
i
)
i∈I
nazywamy jednostajnie
całkowalną, jeśli
lim
C→∞
sup
i∈I
E|X
i
|
1
{|X
i
|>C}
= 0.
Fakt 9. Rodzina zmiennych losowych (X
i
)
i∈I
jest jednostajnie całkowalna
wtedy i tylko wtedy, gdy spełnione są następujące dwa warunki
a) sup
i∈I
E|X
i
| < ∞,
b) ∀
ε>0
∃
δ>0
P(A) ¬ δ ⇒ sup
i∈I
E|X
i
|
1
A
¬ ε.
Dowód. ⇒: Ustalmy ε > 0 i dobierzmy C takie, że sup
i∈I
E|X
i
|
1
{|X
i
|>C}
¬
ε/2. Wówczas
∀
i∈I
E|X
i
| ¬ C + E|X
i
|
1
{|X
i
|>C}
¬ C + ε/2 < ∞
oraz, jeśli P(A) < δ :=
ε
2C
, to
E|X
i
|
1
A
¬ CP(A) + E|X
i
|
1
{|X
i
|>C}
¬ Cδ +
ε
2
= ε.
⇐: Niech α := sup
i∈I
E|X
i
| oraz δ > 0 będzie takie, że sup
i∈I
E|X
i
|
1
A
¬
ε dla P(A) ¬ δ. Wówczas, jeśli C = α/δ, to P(|X
i
| > C) < α/C = δ dla
dowolnego i ∈ I, czyli sup
i∈I
E|X
i
|
1
{|X
i
|>C}
¬ ε.
Przykłady rodzin jednostajnie całkowalnych
1. Rodzina jednoelementowa {Y } taka, że E|Y | < ∞.
Istotnie lim
C→∞
E|Y |1
{|Y |>C}
= 0.
2. Rodzina wspólnie ograniczona przez zmienną całkowalną tzn. rodzina
(X
i
)
i∈I
taka, że ∀
i∈I
|X
i
| ¬ Y oraz EY < ∞.
28
Wynika to z Faktu 9, poprzedniego przykładu i oczywistej obserwację
E|X
i
|
1
A
¬ E|Y |1
A
.
3. Rodzina uśrednień ustalonej całkowalnej zmiennej losowej, tzn. rodzi-
na postaci (E(X|F
i
))
i∈I
, gdzie E|X| < ∞, zaś (F
i
)
i∈I
dowolna rodzina σ-
podciał F .
Na podstawie nierówności Jensena E|X
i
| = E|E(X|F
i
)| ¬ E|X|, a zatem
P(|X
i
| C) ¬
E|X
i
|
C
¬
E|X|
C
¬ δ dla C
E|X|
δ
.
Zbiór {|X
i
| > C} ∈ F
i
, więc z nierówności Jensena
E|X
i
|
1
{|X
i
|>C}
= E|E(X1
{|X
i
|>C}
|F
i
)| ¬ EE(|X|1
{|X
i
|>C}
|F
i
)
¬ E(|X|1
{|X
i
|>C}
) ¬ ε,
jeśli tylko dobierzemy odpowiednio małe δ korzystając z jednostajnej całko-
walności {|X|}.
Fakt 10. Załóżmy, że 1 ¬ p < ∞, a X
n
są zmiennymi losowymi takimi,
że rodzina (|X
n
|
p
)
∞
n=1
jest jednostajnie całkowalna. Wówczas X
n
zbiega do
zmiennej X w L
p
wtedy i tylko wtedy, gdy X
n
zbiega do X według prawdo-
podobieństwa.
Dowód. Wystarczy udowodnić, że zbieżność X
n
według prawdopodobień-
stwa implikuje zbieżność w L
p
, bo przeciwna implikacja jest zawsze praw-
dziwa. Załóżmy więc, że X
n
P
→ X, wówczas dla pewnego podciągu n
k
, X
n
k
zbiega do X p.n., stąd na mocy Lematu Fatou
E|X|
p
= E lim |X
n
k
|
p
¬ lim inf E|X
n
k
|
p
¬ sup
n
E|X
n
|
p
< ∞.
Zatem rodzina {|X
n
|
p
: n = 1, 2, . . .} ∪ {|X|
p
} jest jednostajnie całkowalna.
Ustalmy ε > 0 i dobierzmy δ > 0 tak by dla P(A) < δ zachodziło E|X
n
|
p
1
A
¬
ε oraz E|X|
p
1
A
¬ ε. Mamy
E|X
n
− X|
p
¬ ε
p
+ E|X
n
− X|
p
1
{|X
n
−X|>ε}
¬ ε
p
+ 2
p
E|X
n
|
p
1
{|X
n
−X|>ε}
+ 2
p
E|X|
p
1
{|X
n
−X|>ε}
,
a ponieważ X
n
P
→ X, więc P(|X
n
− X| > ε) < δ dla dużych n, czyli
E|X
n
− X|
p
¬ ε
p
+ 2
p+1
ε dla dostatecznie dużych n.
29
Wniosek 11. Jeśli rodzina (X
n
)
∞
n=1
jest jednostajnie całkowalna oraz X
n
zbiega prawie na pewno do zmiennej X, to lim
n→∞
EX
n
1
A
= EX1
A
dla
wszystkich zdarzeń A.
Dowód. Stosujemy Fakt 10 i oczywiste szacowanie |EX
n
1
A
− EX1
A
| ¬
E|X
n
− X|.
Jesteśmy teraz gotowi do dowodu ciągłej wersji Lematu 7.
Twierdzenie 12. a) Załóżmy, że T jest przedziałem, a (X
t
)
t∈T
martyn-
gałem prawostronnie ciągłym, zaś σ i τ czasami zatrzymania takimi, że
σ ¬ τ ¬ t
max
oraz t
max
∈ T . Wówczas E(X
τ
|F
σ
) = X
σ
p.n..
b) Jeśli (X
t
)
0¬t¬∞
jest prawostronnie ciągłym martyngałem z ostatnim ele-
mentem X
∞
to dla dowolnych dwu czasów zatrzymania σ ¬ τ , E(X
τ
|F
σ
) =
X
σ
p.n.
Dowód. Udowodnimy część a) (część b) można za pomocą zmiany czasu
sprowadzić do a)). Zdefiniujmy
τ
n
(ω) :=
(
t
max
−
k
n
dla τ (ω) ∈ (t
max
−
k+1
n
, t
max
−
k
n
], k = 0, 1, . . . , n
2
t
max
− n
dla τ (ω) ¬ t
max
− n
oraz
σ
n
(ω) :=
(
t
max
−
k
n
dla σ(ω) ∈ (t
max
−
k+1
n
, t
max
−
k
n
], k = 0, 1, . . . , n
2
t
max
− n
dla σ(ω) ¬ t
max
− n
.
Wówczas σ
n
¬ τ
n
¬ t
max
są ograniczonymi czasami zatrzymania przyjmu-
jącymi jedynie skończenie wiele wartości. Zatem na mocy Lematu 7 mamy
E(X
τ
n
|F
σ
n
) = X
σ
n
p.n., E(X
t
max
|F
σ
n
) = X
σ
n
p.n. oraz E(X
t
max
|F
τ
n
) = X
τ
n
p.n., w szczególności więc rodziny (X
τ
n
)
∞
n=1
oraz (X
σ
n
)
∞
n=1
są jednostaj-
nie całkowalne. Ponieważ τ
n
→ τ + oraz σ
n
→ σ+, więc z prawostronnej
ciągłości X oraz Faktu 10 X
τ
n
→ X
τ
, X
σ
n
→ X
σ
p.n. i w L
1
. Weźmy
A ∈ F
σ
⊂ F
σ
n
, wówczas
EX
τ
1
A
= lim
n→∞
EX
τ
n
1
A
= lim
n→∞
EX
σ
n
1
A
= EX
σ
1
A
,
co oznacza, że E(X
τ
|F
σ
) = X
σ
p.n..
Wniosek 13. Załóżmy, że T jest przedziałem, a (M
t
)
t∈T
jest prawostronnie
ciągłym martyngałem względem (F
t
)
t∈T
. Wówczas dla dowolnego momentu
zatrzymania τ proces M
τ
= (M
τ ∧t
)
t∈T
jest martyngałem zarówno względem
(F
τ ∧t
)
t∈T
, jak i (F
t
)
t∈T
.
30
Dowód. Niech s < t oraz s, t ∈ T , wówczas τ ∧ s ¬ τ ∧ t ¬ t, więc z
Twierdzenia 12 mamy E(M
τ ∧t
|F
τ ∧s
) = M
τ ∧s
p.n., czyli (M
τ ∧t
, F
τ ∧t
)
t∈T
jest martyngałem.
By udowodnić drugą część ustalmy s < t oraz A ∈ F
s
. Nietrudno spraw-
dzić, że A∩{τ > s} ∈ F
τ ∧s
, zatem z poprzednio udowodnionej części wniosku
mamy
EM
τ ∧t
1
A∩{τ >s}
= EM
τ ∧s
1
A∩{τ >s}
.
Ponadto
EM
τ ∧t
1
A∩{τ ¬s}
= EM
τ
1
A∩{τ ¬s}
= EM
τ ∧s
1
A∩{τ ¬s}
.
Dodając powyższe tożsamości stronami otrzymujemy EM
τ ∧t
1
A
= EM
τ ∧s
1
A
dla A ∈ F
s
, zatem (M
τ ∧t
, F
t
)
t∈T
jest martyngałem.
6.4
Zbieżność martyngałów w L
p
Zacznijmy od warunków zbieżności martyngałów z czasem ciągłym w L
1
.
Twierdzenie 14. Załóżmy, że (X
t
)
t∈[a,b)
, b ¬ ∞ jest prawostronnie ciągłym
martyngałem. Wówczas następujące warunki są równoważne:
a) Rodzina (X
t
)
t∈[a,b)
jest jednostajnie całkowalna.
b) Istnieje całkowalna zmienna losowa X
b
taka, że X
t
zbiega do X
b
w L
1
tzn. lim
t→b
E|X
t
− X
b
| = 0.
c) Istnieje całkowalna zmienna losowa X
b
mierzalna względem σ-ciała F
b
:=
σ(
S
t∈[a,b)
F
t
) taka, że X
t
= E(X
b
|F
t
) dla t ∈ [a, b).
W przypadku, gdy zachodzą warunki (a)-(c), to X
b
= lim
t→b
X
t
p.n..
Dowód. a)⇒b): X
t
jest jednostajnie całkowalny, więc sup
t
E|X
t
| < ∞, czyli
wobec Twierdzenia 6 istnieje zmienna całkowalna X
b
taka, że X
t
→ X
b
p.n.
przy t → b. Z jednostajnej całkowalności i Lematu 10 wynika zbieżność w
L
1
.
b)⇒c): Dla pewnego podciągu t
k
→ b, X
t
k
→ X
b
p.n., stąd możemy
zakładać, że zmienna X
b
jest F
b
mierzalna. Ustalmy t i A ∈ F
t
, wówczas dla
s t
EX
t
1
A
= EX
s
1
A
→ EX
b
1
A
, s → ∞.
Zatem X
t
= E(X
b
|F
t
) p.n..
c)⇒a) wiemy, że rodzina uśrednień ustalonej zmiennej jest jednostajnie
całkowalna.
Ostatnia część twiedzenia wynika z dowodu implikacji a)⇒b).
31
Twierdzenie 15. Załóżmy, że (X
t
)
t∈[a,b)
jest prawostronnie ciągłym mar-
tyngałem. Wówczas następujące warunki są równoważne:
a) sup
t∈[a,b)
E|X
t
|
p
< ∞.
b) Rodzina (|X
t
|
p
)
t∈[a,b)
jest jednostajnie całkowalna.
c) Istnieje zmienna losowa X
b
∈ L
p
taka, że X
t
zbiega do X
b
w L
p
tzn.
lim
t→b
E|X
t
− X
b
|
p
= 0.
d) Istnieje losowa X
b
∈ L
p
mierzalna względem F
b
:= σ(
S
t∈[a,b)
F
t
) taka, że
X
t
= E(X
b
|F
t
) dla t ∈ [a, b).
W przypadku, gdy zachodzą warunki (a)-(d), to X
b
= lim
t→b
X
t
p.n..
Dowód. a)⇒b): Na podstawie Twierdzenia 11 wiemy, że E sup
t∈[a,b)
|X
t
|
p
¬
(
p
p−1
)
p
sup
t∈[a,b)
E|X
t
|
p
< ∞. Pozostałe implikacje dowodzimy jak w dowo-
dzie Twierdzenia 14.
6.5
*Regularność trajektorii
W wielu twierdzeniach zakłada się, iż (X
t
) jest prawostronnie ciągłym pod-
martyngałem. Oczywiście modyfikacja podmartyngału jest podmartyngałem
– problem jest tylko z mierzalnością, ale znika on, gdy filtracja spełnia zwy-
kłe warunki. Naturalnie jest więc zapytać kiedy dany podmartyngał możemy
zmodyfikować tak, by stał się prawostronnie ciągły.
Następny lemat jest prostą modyfikacją Lematu 2, więc przytoczymy go
bez dowodu.
Lemat 16. Jeśli f : [a, b] ∩ Q → R jest funkcją ograniczoną taką, że dla
dowolnych liczb wymiernych α < β , D
[a,b]∩Q
(f, [α, β]) < ∞, to granice
∀
t∈[a,b)
f (t+) :=
lim
s→t+,s∈Q
f (s) i ∀
t∈(a,b]
f (t−) :=
lim
s→t−,s∈Q
f (s)
istnieją i są skończone.
Będziemy też wykorzystywać prosty fakt.
Fakt 17. Załóżmy, że (X
n
)
n¬0
jest podmartyngałem z czasem odwróconym o
wartościach średnich ograniczonych z dołu, tzn. a := lim
n→−∞
EX
n
> −∞.
Wówczas rodzina (X
n
)
n¬0
jest jednostajnie całkowalna.
Dowód. Ustalmy ε > 0 i dobierzmy k takie, że EX
k
¬ a + ε/2, wówczas
EX
k
− ε/2 ¬ EX
n
¬ EX
k
dla n ¬ k. Zatem dla takich n, z własności
32
podmartyngału
E|X
n
|
1
{|X
n
|>C}
= EX
n
1
{X
n
>C}
− EX
n
1
{X
n
<−C}
= EX
n
1
{X
n
>C}
+ EX
n
1
{X
n
−C}
− EX
n
¬ EX
k
1
{X
n
>C}
+ EX
k
1
{X
n
−C}
− EX
k
+
ε
2
= EX
k
1
{X
n
>C}
− EX
k
1
{X
n
<−C}
+
ε
2
¬ E|X
k
|
1
{|X
n
|>C}
+
ε
2
.
Mamy E|X
n
| = 2EX
+
n
− EX
n
¬ 2EX
+
0
− a, więc α := sup
n
E|X
n
| < ∞.
Zatem
P(|X
n
| > C) ¬
E|X
n
|
C
¬
α
C
dla C :=
α
δ
,
czyli, wobec jednostajnej całkowalności rodziny jednoelementowej, dla odpo-
wiednio małego δ > 0, E|X
k
|
1
{|X
n
|>C}
¬ ε/2, a więc E|X
n
|
1
{|X
n
|>C}
¬ ε dla
n ¬ k i odpowiednio dużego C. Ponieważ rodzina {X
k+1
, X
k+2
, . . . , X
0
} jest
skończona, a zatem i jednostajnie całkowalna, więc dla dużych C i wszyst-
kich n ¬ 0, E|X
n
|
1
{|X
n
|>C}
¬ ε.
Twierdzenie 18. Załóżmy, że T jest przedziałem, a (X
t
)
t∈T
podmartynga-
łem (lub nadmartyngałem). Wówczas istnieje zbiór A taki, że P(A) = 1 oraz
dla wszystkich ω ∈ A i t ∈ T poza odpowiednio lewym i prawym końcami T
granice
X
t+
(ω) =
lim
s→t+,s∈Q
X
s
(ω) oraz X
t−
(ω) =
lim
s→t−,s∈Q
X
s
(ω)
istnieją i są skończone.
Dowód. Bez straty ogólności możemy zakładać, że X
t
jest podmartyngałem.
Ponieważ możemy znaleźć niemalejący ciąg przedziałów [a
n
, b
n
] taki, że T =
S
n
[a
n
, b
n
], więc dowód wystarczy przeprowadzić w przypadku T = [a, b].
Zauważmy, że
sup
t∈[a,b]
]Ex(X
t
− β)
+
= E(X
b
− β)
+
< ∞,
zatem z Lematu 4 dostajemy
∀
α<β
P(D
[a,b]∩Q
(X
t
, [α, β]) = ∞) = 0.
Ponadto, na mocy Lematu 9, dla dowolnego λ > 0
λP( sup
t∈[a,b]∩Q
X
t
λ) ¬
sup
t∈[a,b]∩Q
EX
+
t
= EX
+
b
< ∞
33
oraz
λP( inf
t∈[a,b]∩Q
X
t
¬ −λ) ¬
sup
t∈[a,b]∩Q
EX
+
t
− EX
a
= EX
+
b
− EX
a
< ∞.
Stąd
P(−∞ <
inf
t∈[a,b]∩Q
X
t
¬
sup
t∈[a,b]∩Q
X
t
< ∞) = 1.
Niech
A :=
\
α,beta∈Q,α<β
{D
[a,b]∩Q
(X
n
, [α, β]) < ∞} ∩ { sup
t∈[a,b]∩Q
|X
t
| < ∞},
wtedy P(A) = 1. By wykazać, że zbiór A ma postulowane własności wystar-
czy skorzystać z Lematu 16.
Definicja 19. Funkcję f : T → R określoną na przedziale T nazywamy
PCLG (często również używa się pochodzącej z francuskiego nazwy cadlag)
jeśli jest prawostronnie ciągła i w każdym punkcie T (poza ewentualnie le-
wym końcem) ma skończone lewostronne granice.
Twierdzenie 20. Załóżmy, że T jest przedziałem, a X = (X
t
)
t∈T
jest pod-
martyngałem (odp. nadmartyngałem) względem filtracji (F
t
)
t∈T
spełniają-
cej zwykłe warunki. Wówczas X ma prawostronnie ciągłą modyfikację wte-
dy i tylko wtedy gdy funkcja t → EX
t
jest prawostronnie ciągła. Co wię-
cej, jeśli taka modyfikacja istnieje, to istnieje również modyfikacja PCLG
i F
t
-adaptowalna będąca podmartyngałem (odp. nadmartyngałem) względem
(F
t
)
t∈T
.
Dowód. ⇐ Wystarczy rozpatrzeć przypadek podmartyngału oraz T = [a, b].
Na mocy Twierdzenia 18 istnieje A takie, że P(A) = 1 oraz dla wszystkich
ω ∈ A granice lim
s→t+,s∈Q
X
s
, t ∈ [a, b) oraz lim
s→t−,s∈Q
X
s
, t ∈ (a, b]
istnieją i są skończone. Połóżmy
X
t+
(ω) :=
(
lim
s→t+,s∈Q
X
s
(ω)
ω ∈ A
0
ω /
∈ A
Niech t
n
& t+, ponieważ EX
t
n
EX
a
, więc (X
t
n
)
n
jest jednostajnie całko-
walny jako podmartyngał z czasem odwróconym (Fakt 17). Weźmy A ∈ F
t
,
wówczas
EX
t
1
A
¬ EX
t
n
1
A
→ EX
t+
1
A
przy n → ∞,
stąd X
t+
= E(X
t+
|F
t
) X
t
p.n.. Co więcej
E(X
t+
− X
t
) = lim
n→∞
EX
t
n
− EX
t
= 0
34
na mocy prawostronnej ciągłości t → EX
t
, czyli X
t+
= X
t
p.n., a zatem
X
t+
jest szukaną modyfikacją X.
⇒: Zauważmy, że jeśli X
t
prawostronnie ciągły, to X
t+
= X
t
, biorąc t
n
&
t+ i wykorzystując jednostajną całkowalność (X
t
n
)
n
(Fakt 17) dostajemy
EX
t
= EX
t+
= lim
n→∞
EX
t
n
.
7
Całka Stieltjesa
Podstawowy problem jakim się zajmiemy podczas najbliższych wykładów
polega na ścisłym zdefiniowaniu całek
R
t
0
f (s)dW
s
,
R
t
0
X
s
dW
s
lub ogólniej
R
t
0
X
s
dY
s
, gdzie f (s) jest „porządną” funkcją, a X
s
, Y
s
są „porządnymi”
procesami stochastycznymi.
Najprostsze podejście polega na zdefiniowaniu osobno całki dla każdej
trajektorii, tzn. określeniu dla ustalonego ω ∈ Ω,
R
s
0
Y
s
(ω)dX
s
(ω). Sposób
takiej konstrukcji daje całka Stieltjesa, uogólniająca całkę Riemanna.
7.1
Całka Riemanna-Stieltjesa
W tej części podamy tylko podstawowe fakty i definicje, bez dowodów. Wię-
cej informacji oraz kompletne dowody można znaleźć w [4, 5] i [2].
Definicja 1. Podziałem przedziału [a, b] nazywamy niemalejący ciąg liczb
Π = (t
0
, t
1
, . . . , t
k
) taki, że a = t
0
¬ t
1
¬ . . . ¬ t
k
= b. Średnicę podziału Π
definiujemy wzorem diam(Π) : = max
i
|t
i+1
− t
i
|.
Mówimy, że podział Π
0
jest podpodziałem Π (ozn. Π
0
≺ Π) jeśli wszystkie
punkty Π są punktami Π
0
.
Ciąg Π
n
= (t
n
0
, . . . , t
n
k
n
) nazywamy
normalnym ciągiem podziałów, jeśli
diam(Π
n
)
n→∞
−→ 0 oraz Π
n+1
≺ Π
n
.
Definicja 2. Niech f, g : [a, b] → R. Powiemy że
R
b
a
g df istnieje oraz, że g
jest całkowalna względem f , jeśli dla dowolnego normalnego ciągu podzia-
łów Π
n
= (t
n
0
, . . . , t
n
k
n
) oraz punktów s
n
0
, . . . , s
n
k
n
−1
takich, że t
k
j
¬ s
k
j
¬ t
k
j+1
istnieje skończona granica
lim
n→∞
k
n
X
j=1
g(s
k
j−1
)[f (t
k
j
) − f (t
k
j−1
)],
która nie zależy od wybranego ciągu punktów i podziałów. Granicę tą ozna-
czamy
R
b
a
g(t) df (t) i nazywamy całką Riemanna-Stjeltjesa.
35
Uwaga 3. Można udowodnić, że całka
R
b
a
g df istnieje oraz jest równa S,
jeśli dla dowolnego ε > 0 istnieje δ > 0 taka, że dla dowolnego podziału
Π
n
= (t
n
0
, . . . , t
n
k
n
) o średnicy nie większej niż δ oraz punktów s
n
0
, . . . , s
n
k
n
−1
takich, że t
k
j
¬ s
k
j
¬ t
k
j+1
,
S −
k
n
X
j=1
g(s
k
j−1
)[f (t
k
j
) − f (t
k
j−1
)]
¬ ε.
Uwaga 4. i) W przypadku f (t) = t całka Riemanna-Stieltjesa jest całką
Riemanna.
ii) Jeśli f ∈ C
1
[a, b], to f (t
n
j+1
) − f (t
n
j
) = f
0
(Θ
n
j
) dla pewnego t
n+1
j
¬
Θ
n
j
¬ t
n
j
, stąd można prosto udowodnić, że w tym przypadku
R
b
a
g(t) df (t) =
R
b
a
g(t)f
0
(t) dt.
Wprost z definicji natychmiast wynika.
Fakt 5. i) Jeśli g
1
i g
2
są całkowalne względem f , to dla dowolnych liczb c
1
i c
2
funkcja c
1
g
1
+ c
2
g
2
jest całkowalna względem f oraz
Z
b
a
(c
1
g
1
+ c
2
g
2
)df = c
1
Z
b
a
g
1
df + c
2
Z
b
a
g
2
df.
ii) Jeśli g jest całkowalna względem f
1
i f
2
, to dla dowolnych liczb c
1
i c
2
, g
jest całkowalna względem c
1
f
1
+ c
2
f
2
oraz
Z
b
a
gd(c
1
f
1
+ c
2
f
2
) = c
1
Z
b
a
gdf
1
+ c
2
Z
b
a
gdf
2
.
Uwaga 6. Może się zdarzyć, że dla a < b < c całki
R
b
a
gdf i
R
c
b
gdf istnieją, a
całka
R
c
a
gdf nie istnieje. Jeśli jednak wszystkie trzy całki istnieją, to
R
c
a
gdf =
R
b
a
gdf +
R
c
b
gdf .
Oczywiście naturalnie jest zapytać dla jakich funkcji f i g istnieje całka
R
gdf . By odpowiedzieć na to pytanie musimy zdefiniować funkcje o wahaniu
skończonym.
Definicja 7. Jeśli f : [a, b] → R, to liczbę
Wah
[a,b]
(f ) : = sup
n∈N
sup
a=t
0
<...<t
n
=b
n
X
i=1
|f (t
i
) − f (t
i−1
)|
nazywamy wahaniem funkcji f w przedziale [a, b]. Mówimy, że f ma wa-
hanie skończone na [a, b], jeśli Wah
[a,b]
(f ) < ∞.
36
Oczywiście 0 ¬ Wah
[a,b]
(f ) ¬ ∞ Wahanie jest addytywną funkcją prze-
działu, tzn. Wah
[a,c]
(f ) = Wah
[a,b]
(f ) + Wah
[b,c]
(f ) dla a < b < c.
Przykłady.
Funkcje lipschitzowskie, funkcje monotoniczne mają wahanie skończone na
ograniczonych przedziałach.
Kombinacja liniowa funkcji o wahaniu skończonym ma wahanie skończone.
Funkcja f (x) = x sin(
1
x
) oraz f (0) = 0 jest ciągła, ale nie ma wahania
skończonego na [0, 1].
Twierdzenie 8. Jeżeli f, g : [a, b] → R, przy czym g jest ciągła, a f ma
wahanie skończone, to
R
b
a
g df istnieje.
Twierdzenie to można odwrócić.
Twierdzenie 9. Jeśli całka Riemanna-Stieltjesa
R
b
a
gdf istnieje dla dowol-
nej funkcji ciągłej g, to funkcja f ma wahanie skończone na [a, b].
7.2
Całka Lebesgue’a-Stieltjesa
Fakt 10. Jeśli f ma wahanie skończone na [a, b], to istnieją funkcje nie-
malejące f
1
, f
2
takie, że f
1
(a) = f
2
(a) = 0 oraz f (t) = f (a) + f
1
(t) − f
2
(t).
Co więcej f ma w każdym punkcie granice jednostrone. Ponadto jeśli f jest
ciągła (odp. prawostronnie ciągła), to f
1
i f
2
można wybrać ciągłe (odp.
prawostronnie ciągłe).
Szkic dowodu. Określamy f
1
(t) =
1
2
(Wah
[a,t]
(f ) + f (t) − f (a)) oraz f
2
(t) =
1
2
(Wah
[a,t]
(f ) − f (t) + f (a)).
Definicja 11. Załóżmy, że f jest prawostronnie ciągłą funkcją na [a, b] o
wahaniu skończonym. Niech f
1
i f
2
będą prawostronnie ciągłymi funkcjami
niemalejącymi takimi, że f
1
(a) = f
2
(a) = 0 oraz f (t) = f (a) + f
1
(t) −
f
2
(t). Istnieją wtedy skończone miary borelowskie µ
1
i µ
2
na [a, b] takie, że
µ
i
[a, t] = f
i
(t) dla i = 1, 2. Dla ograniczonych funkcji mierzalnych g na [a, b]
określamy całkę Lebesgue’a-Stieltjesa g względem f wzorem
Z
[a,b]
gdf =
Z
gdµ
1
−
Z
gdµ
2
.
Uwaga 12.
Można wykazać, że dla funkcji ciągłych g całki Riemanna-
Stieltjesa i Lebesgue’a-Stieltjesa g względem f są sobie równe.
37
7.3
Nieskończone wahanie ciągłych martyngałów
Niestety proces Wienera ma z prawdopodobieństwem jeden nieskończone
wahanie na każdym przedziale. Prawdziwy jest znacznie ogólniejszy fakt.
Twierdzenie 13. Załóżmy, że (M
t
)
t∈[a,b]
jest ciągłym martyngałem oraz
A = {ω : M
t
(ω) ma wahanie skończone na [a,b]}. Wówczas M
t
ma z praw-
dopodobieństwem 1 trajektorie stałe na A, tzn.
P(∀
t∈[a,b]
M
t
1
A
= M
a
1
A
) = 1.
Dowód. Załóżmy najpierw, że istnieje stała C < ∞ taka, że Wah
[a,b]
(M
t
) ¬
C oraz sup
t∈[a,b]
|M
t
| ¬ C. Ustalmy 0 ¬ u ¬ b − a i rozpatrzmy zmienne
losowe
X
n
=
n−1
X
k=0
(M
a+(k+1)u/n
− M
a+ku/n
)
2
.
Zauważmy, że dla s < t,
EM
s
M
t
= EE(M
s
M
t
|F
s
) = E(M
s
E(M
t
|F
s
)) = EM
2
s
,
stąd
EX
n
=
n−1
X
k=0
E(M
2
a+(k+1)u/n
− M
2
a+ku/n
) = EM
2
a+u
− EM
2
a
.
Zauważmy, że
|X
n
| ¬
sup
0¬k¬n−1
|M
a+(k+1)u/n
− M
a+ku/n
|
n−1
X
k=0
|M
a+(k+1)u/n
− M
a+ku/n
|
¬
sup
|s−t|¬u/n
|M
t
− M
s
|Wah
[a,b]
(M
t
),
stąd |X
n
| ¬ 2C
2
oraz, z ciągłości M , lim
n→∞
X
n
= 0. Zatem z twierdzenia
Lebesgue’a o zbieżności zmajoryzowanej lim
n→∞
EX
n
= 0, czyli EM
2
a+u
=
EM
2
a
. Zauważmy jednak, że
EM
2
a+u
= EE((M
a
+ (M
a+u
− M
a
))
2
|F
a
)
= EM
2
a
+ E(M
a+u
− M
a
)
2
+ 2E[M
a
E((M
a+u
− M
a
)F
a
)
= EM
2
a
+ E(M
a+u
− M
a
)
2
.
Stąd M
a+u
= M
a
p.n., czyli M
t
= M
a
p.n dla dowolnego t ∈ [a, b]. Z ciągłości
M wynika, że P(∀
t
M
t
= M
a
) = 1.
38
W przypadku ogólnym zdefiniujmy ciąg czasów zatrzymania
τ
n
= inf{t a : sup
a¬s¬t
|M
s
| n} ∧ inf{t a : Wah
[0,t]
n},
wówczas martyngał M
τ
n
spełnia założenia pierwszej części dowodu (z C =
n), więc M
τ
n
ma stałe trajektorie p.n.. Wystarczy zauważyć, że dla ω ∈ A,
τ
n
(ω) = ∞ dla dostatecznie dużych n.
8
Całka izometryczna względem procesu Wienera
Podczas kolejnych wykładów zdefiniujemy całkę względem procesu Wienera
- zaczniemy od całkowania funkcji deterministycznych, by później przejść do
konstrukcji izometrycznej całki stochastycznej Ito.
Konstrukcja całki stochastycznej ma pewne podobieństwa do konstruk-
cji całki Lebesgue’a. Najpierw określa się, w naturalny sposób, całki naj-
prostszych funkcji/procesów (funkcje schodkowe, procesy elementarne), póź-
niej pokazuje się własności tak określonej całki (oparte na liczeniu drugich
momentów), które pozwalają uogólnić definicję na bardziej złożone funk-
cje/procesy.
Należy zwrócić uwagę, że całkę stochastyczną definiujemy globalnie na
całej przestrzeni probabilistycznej, a nie dla każdej trajektorii z osobna.
Dla uproszczenia notacji będziemy definiowali całki
R
t
0
X
s
dW
s
. Całkę
R
t
u
X
s
dW
s
dla 0 < u < t można wówczas określić na kilka sposobów - albo
w naturalny sposób uogólniając odpowiednie definicje albo np. jako całkę
R
t
0
X
s
1
[u,∞)
(s)dW
s
.
Będziemy zakładać, że 0 < T ¬ ∞ oraz F
t
jest filtracją spełniającą
zwykłe warunki taką, że W
t
jest F
t
mierzalne oraz W
s
− W
t
jest niezależne
od F
t
dla s t (za F
t
można przyjąć uzupełnienie F
W
t+
).
8.1
Całka Paleya-Wienera
Definiowanie całki stochastycznej względem procesu Wienera zaczniemy od
najprostszego przypadku funkcji deterministycznych.
Dla funkcji schodkowej postaci
h =
k
X
i=1
α
i
1
(t
i−1
,t
i
]
,
0 = t
0
< t
1
< . . . < t
k
= t, α
i
∈ R,
określamy
I(h) =
Z
t
0
h(s) dW
s
:=
k
X
i=1
α
i
(W (t
i
) − W (t
i−1
)).
39
Z podstawowych własności procesu Wienera natychmiast otrzymujemy
następujące własności przekształcenia I:
Fakt 1. Przy powyżej wprowadzonych oznaczeniach mamy
i) EI(h) = 0,
ii) EI(h)
2
=
R
t
0
h
2
(s) ds,
iii) I(h) ma rozkład normalny N (0,
R
t
0
h
2
(s) ds),
iii) I(c
1
h
1
+ c
2
h
2
) = c
1
I(h
1
) + c
2
I(h
2
) dla c
1
, c
2
∈ R.
Oznaczając przez E
1
zbiór funkcji schodkowych na [a, b] widzimy, że
przekształcenie I definiuje liniową izometrię L
2
([0, t]) ⊃ E
1
→ L
2
(Ω). Po-
nieważ funkcje schodkowe są gęste w L
2
izometrię w jednoznaczny sposób
możemy rozszerzyć na całe L
2
([0, t]).
Definicja 2. Rozszerzenie powyższej izometrii do izometrii na L
2
([0, t]) na-
zywamy całką Paleya-Wienera z funkcji h i oznaczamy
R
t
0
h(s) dW
s
.
Fakt 3. Dla dowolnej funkcji h ∈ L
2
([0, t]),
i) E(
R
t
0
h(s) dW
s
) = 0,
ii) Var(
R
t
0
h(s) dW
s
) = E(
R
t
0
h(s) dW
s
)
2
=
R
t
0
h
2
(s) ds,
iii)
R
t
0
h(s) dW
s
ma rozkład normalny N (0,
R
t
0
h
2
(s) ds).
Można też udowodnić następujące proste własności całki Paleya-Wienera
Fakt 4. i) Jeżeli h ∈ C
1
([0, t]), to
Z
t
0
h(s) dW
s
= h(t)W
t
−
Z
t
0
h
0
(s)W
s
ds.
Ponadto dla dowolnego h ∈ L
2
[0, t]
ii) E|
R
t
0
h(s) dW
s
|
p
= E|W
1
|
p
(
R
t
0
h
2
(s) ds)
p/2
oraz
iii)
R
u
0
h(s)dW
s
=
R
t
0
h(s)
1
[0,u]
(s)ds p.n. dla dowolnych 0 < u < t.
8.2
Procesy elementarne
Starając się przenieść konstrukcję Paleya-Wienera na przypadek całki z pro-
cesów, musimy określić stochastyczny odpowiednik funkcji schodkowych - są
to tak zwane procesy elementarne.
Definicja 5. Powiemy, że proces X = (X
t
)
t∈[0,T )
należy do E - rodziny
procesów elementarnych ( elementarnych procesów prognozowalnych), jeśli
X jest postaci
X
t
= ξ
0
1
{0}
+
n
X
k=1
ξ
k−1
1
(t
k−1
,t
k
]
(t),
(2)
40
gdzie 0 = t
0
< t
1
< . . . < t
m
< T , zaś ξ
k
są ograniczonymi zmiennymi
losowymi, F
t
k
-mierzalnymi.
Oczywiście E jest przestrzenią liniową.
Definicja 6. Dla X ∈ E definiujemy proces
I(X) = (I(X)
t
)
t¬T
=
Z
t
0
X
s
dW
s
t¬T
wzorem
I(X)
t
:=
m
X
k=1
ξ
k−1
(W
t
k
∧t
− W
t
k−1
∧t
).
Uwaga 7. Definicja jest poprawna, tzn. nie zależy od reprezentacji X ∈ E .
Fakt 8. Jeśli X jest procesem elementarnym, to I(X) = (
R
t
0
X
s
dW
s
)
t¬T
jest martyngałem względem (F
t
)
0¬t¬T
, o ciągłych trajektoriach takim, że
I(X)
0
= 0 oraz
E
Z
T
0
X
s
dW
s
2
= E
Z
T
0
X
2
s
ds.
Dowód. Przyjmijmy, że X
t
jest postaci (2). Ciągłość trajektorii i I(X)
0
= 0
wynika natychmiast z określenia I(X). Jeżeli t
j
¬ t ¬ t
j+1
, to zmienna
I(X)
t
= ξ
0
(W
t
1
− W
t
0
) + ξ
1
(W
t
2
− W
t
1
) + . . . + ξ
j
(W
t
− W
t
j
)
jest F
t
mierzalna. Ponadto I(X)
t
= I(X)
t
m
dla t
m
¬ t ¬ T .
Sprawdzimy teraz, że I(X) jest martyngałem, czyli dla s < t ¬ T mamy
E(I(X)
t
|F
s
) = I(X)
s
. Wystarczy pokazać to dla t
j
¬ s < t ¬ t
j+1
, ale
wtedy
E(I(X)
t
− I(X)
s
|F
s
) = E(ξ
j
(W
t
− W
s
)|F
s
) = ξ
j
E(W
t
− W
s
|F
s
) = 0,
wykorzystujemy tu założenie, że ξ
j
jest F
t
j
⊂ F
s
mierzalne. By zakończyć
dowód liczymy
EI(X)
2
T
=
m
X
k=1
E[ξ
2
k−1
(W
t
k
− W
t
k−1
)
2
] + 2
X
j<k
E[ξ
k−1
ξ
j−1
(W
t
k
− W
t
k−1
)(W
t
j
− W
t
j−1
)]
= I
1
+ I
2
.
41
Wykorzystując mierzalność ξ
j
oraz niezależność przyrostów procesu Wienera
mamy
I
1
=
X
k
E[ξ
2
k−1
E((W
t
k
−W
t
k−1
)
2
|F
t
k−1
)] =
X
k
Eξ
2
k−1
(t
k
−t
k−1
) = E
Z
T
0
X
2
s
ds
oraz
I
2
= 2
X
j<k
E[(ξ
k−1
ξ
j−1
E((W
t
k
− W
t
k−1
)(W
t
j
− W
t
j−1
)|F
t
k−1
)]
= 2
X
j<k
E[ξ
k−1
ξ
j−1
(W
t
j
− W
t
j−1
)E(W
t
k
− W
t
k−1
|F
t
k−1
)] = 0,
bo E(W
t
k
− W
t
k−1
) = 0.
Uwaga 9.
Jedyne własności procesu Wienera jakie wykorzystywaliśmy
w dowodzie, to E(W
t
− W
s
|F
s
) = 0 oraz E((W
t
− W
s
)
2
|F
s
) = t − s dla
0 ¬ s < t. Własności te można formalnie wyprowadzić z faktu, że procesy
(W
t
) i (W
2
t
− t) są martyngałami względem (F
t
).
8.3
Martyngały ciągłe, całkowalne z kwadratem
Definicja 10. Przez M
2,c
T
oznaczamy przestrzeń martyngałów M = (M
t
)
0¬t¬T
względem filtracji (F
t
)
t∈[0,T ]
o trajektoriach ciągłych takich, że EM
2
T
< ∞.
Uwaga 11. i) Jeśli M ∈ M
2,c
T
, to z nierówności Jensena wynika, że EM
2
t
¬
EM
2
T
< ∞, więc (M
2
t
)
0¬t¬T
jest podmartyngałem.
ii) Przestrzeń M
2,c
T
można utożsamić z przestrzenią martyngałów ciągłych
(M
t
)
0¬t<T
takich, że sup
t<T
EM
2
t
< ∞. Możemy bowiem określić M
T
jako
granicę p.n. M
t
przy t → T (zob. Twierdzenie 6.15 dla p = 2).
iii) Z nierówności Dooba wynika, że dla M = (M
t
) ∈ M
2,c
T
,
E sup
t¬T
M
2
t
¬ 4EM
2
T
.
Fakt 12. Przestrzeń M
2,c
T
jest przestrzenią Hilberta (tzn. zupełną przestrze-
nią euklidesową) z iloczynem skalarnym
(M, N ) = (M, N )
T
= EM
T
N
T
,
M, N ∈ M
2,c
T
oraz normą
kM k
T
=
q
(M, M )
T
=
q
EM
2
T
= kM
T
k
L
2
(Ω)
.
42
Uwaga 13. i) Przy rozważaniach dotyczących całki stochastycznej utoż-
samiamy procesy nieodróżnialne. Formalnie rzecz biorąc elementy M
2,c
T
to
klasy abstrakcji martyngałów ciągłych względem relacji nieodróżnialności.
ii) Przekształcenie M → M
T
jest izometrycznym włożeniem przestrzeni
M
2,c
T
w L
2
(Ω, F , P).
Dowód Faktu. Oczywiście M
2,c
T
jest przestrzenią liniową, zaś (M, N ) jest
iloczynem skalarnym, bo jeśli (M, M ) = 0, to EM
2
T
= 0, czyli M
T
= 0 p.n.,
co z własności martygału implikuje, że M
t
= 0 p.n., więc z ciągłości M ,
P(∀
t¬T
M
t
= 0) = 1.
Musimy jeszcze udowodnić zupełność. Niech M
(n)
= (M
(n)
t
) ∈ M
2,c
T
będzie ciągiem Cauchy’ego, czyli
kM
(n)
− M
(m)
k
2
T
= E(M
(n)
T
− M
(m)
T
)
2
→ 0
dla m, n → ∞.
Wówczas M
(n)
T
jest ciągiem Cauchy’ego w L
2
(Ω, F
T
, P), zatem z zupełności
L
2
istnieje całkowalna z kwadratem zmienna M
T
taka, że E|M
(n)
T
−M
T
|
2
→ 0
przy n → ∞.
Możemy położyć ˜
M
t
:= E(M
T
|F
t
), ale taka definicja nie gwarantuje
ciągłości ˜
M . Udowodnimy, że można znaleźć martyngał M , który jest ciągłą
modyfikację ˜
M .
Zauważmy, że na mocy nierówności Dooba,
E sup
t¬T
(M
(n)
t
− M
(m)
t
)
2
¬ 4E|M
(n)
T
− M
(m)
T
|
2
,
więc możemy wybrać podciąg n
k
taki, że
∀
l>k
E sup
t¬T
(M
(n
k
)
t
− M
(n
l
)
t
)
2
¬ 8
−k
.
Wówczas
P
sup
t¬T
|M
(n
k
)
t
− M
(n
k+1
)
t
| 2
−k
¬ 2
−k
.
Zatem, jeśli określimy
A
k
:= {sup
t¬T
|M
(n
k
)
t
− M
(n
k+1
)
t
| 2
−k
},
to
P
k
P(A
k
) < ∞, czyli na mocy lematu Borela-Cantelli, P(lim sup A
k
) = 0.
Jeśli ω /
∈ lim sup A
k
, to ω /
∈ A
k
dla k k
0
= k
0
(ω), czyli sup
t¬T
|M
(n
k
)
t
−
M
(n
k+1
)
t
| ¬ 2
−k
dla k k
0
. Ciąg (M
n
k
t
(ω))
0¬t¬T
jest zatem zbieżny jedno-
stajnie na [0, T ] do pewnej funkcji M
t
(ω). Kładziemy dodatkowo M (ω) = 0
dla ω ∈ lim sup A
k
.
43
Z ciągłości M
(n
k
)
wynika ciągłość M . Ponieważ M
(n
k
)
T
→ M
T
w L
2
więc również w L
1
, czyli M
(n
k
)
t
= E(M
(n
k
)
T
|F
t
) → E(M
T
|F
t
) w L
1
, a że
M
(n
k
)
t
→ M
t
p.n., więc M
t
= E(M
T
|F
t
) = ˜
M
t
p.n., czyli (M
t
)
0¬t¬T
jest
martyngałem ciągłym.
8.4
Całka izometryczna Ito. Procesy prognozowalne
Każdemu procesowi elementarnemu X przyporządkowaliśmy martyngał cią-
gły I(X), co więcej przekształcenie I
L
2
([0, T ] × Ω, B([0, T ]) ⊗ F , λ ⊗ P) ←- E
I
−→ M
2,c
T
jest liniową izometrią. Przekształcenie I możemy więc rozszerzyć do liniowej
izometrii (którą też będziemy oznaczać literą I) z E w M
2,c
T
, gdzie E oznacza
domknięcie przestrzeni procesów elementarnych w L
2
([0, T ] × Ω, B([0, T ]) ⊗
F , λ ⊗ P).
Definicja 14. Tak zdefiniowane przekształcenie I przyporządkowujące każ-
demu procesowi X = (X
t
)
0¬t¬T
z przestrzeni
E ciągły, całkowalny z kwa-
dratem martyngał I(X) nazywamy izometryczną całką stochastyczną Ito z
procesu X i oznaczamy
I(X)
t
=:
Z
t
0
X
s
dW
s
,
0 ¬ t ¬ T.
Oczywiście natychmiast powstaje pytanie jak wygląda przestrzeń E , czyli
jakie procesy stochastyczne umiemy całkować.
Definicja 15. σ-ciało zbiorów prognozowalnych P, to σ-ciało podzbiorów
[0, T ) × Ω generowane przez zbiory postaci {0} × A, (s, t] × A, s < t < T ,
A ∈ F
s
.
Proces X = (X
t
)
0¬t<T
jest prognozowalny, jeśli traktowany jako funkcja
X : [0, T ) × Ω → R jest mierzalny względem P.
Z definicji natychmiast wynika, że X
t
(ω) =
1
A
(ω)
1
(u,v]
(t) jest progno-
zowalny, jeśli A ∈ F
u
oraz u ¬ v < T
Ponieważ każdą ograniczoną zmienną ξ, F
u
–mierzalną można aproksy-
mować jednostajnie przez zmienne postaci
P
a
i
1
A
i
, A
i
∈ F
u
, więc proces
ξ(ω)
1
(u,v]
(t) jest prognozowalny dla dowolnej ograniczonej zmiennej ξ, F
u
–
mierzalnej. Stąd jest on także prognozowalny dla dowolnej zmiennej ξ nie-
ujemnej F
u
– mierzalnej, a zatem dla dowolnej F
u
–mierzalnej zmiennej ξ.
44
Zatem dowolny proces Y ∈ E jest prognozowalny, czyli E ⊂ L
2
([0, T ) ×
Ω, P, λ ⊗ P), stąd
E ⊂ L
2
([0, T ) × Ω, P, λ ⊗ P).
W szczególności każdy proces z
E jest nieodróznialny od procesu prognozo-
walnego. Okazuje się, że zachodzi również odwrotne zawieranie.
Fakt 16. Mamy E = L
2
([0, T ) × Ω, P, λ ⊗ P).
Dowód. Wobec poprzednich rozważań musimy tylko pokazać, że E ⊃ L
2
([0, T )×
Ω, P, λ ⊗ P). Rozważymy dwa przypadki.
Przypadek I: T < ∞.
Najpierw pokażemy, że jeśli Γ ∈ P, to
1
Γ
∈ E. W tym celu określmy
A := {Γ ∈ P :
1
Γ
∈ E} oraz
B := {{0} × A : A ∈ F
0
} ∪ {(u, v] × A : 0 ¬ u < v < T, A ∈ F
u
}.
Łatwo sprawdzić, że B jest π-układem, ponadto jeśli Γ ∈ B, to
1
Γ
∈ E ⊂ E,
a zatem B ⊂ A. Co więcej A jest λ-układem dla T < ∞, bo
i) Γ = [0, T ) × Ω ∈ A, czyli
1
Γ
= 1 ∈
E, gdyż biorąc ciąg T
n
% T ,
otrzymujemy E 3
1
{0}×Ω
+
1
(0,T
n
]×Ω
=
1
[0,T
n
]×Ω
L
2
−→
1
[0,T )×Ω
∈ E.
ii) Γ
1
, Γ
2
∈ A, Γ
1
⊂ Γ
2
,
1
Γ
2
\Γ
1
=
1
Γ
2
−
1
Γ
1
∈ E z liniowości E, czyli
Γ
2
\ Γ
1
∈ A.
iii) Γ
n
∈ A wstępujący, wówczas
1
Γ
n
L
2
−→
1
S
Γ
n
∈ E, czyli
S
Γ
n
∈ A.
Zatem dla T < ∞, z twierdzenia o π, λ− ukladach A ⊃ σ(B) = P.
Dalej, jeśli Γ
i
∈ P, a
i
∈ R, to
P
n
i=1
a
i
1
Γ
i
∈ E (z liniowości). Ponadto
funkcje proste
P
i¬n
a
i
1
Γ
i
są gęste w L
2
([0, T ) × Ω, P, λ ⊗ P), czyli E =
L
2
([0, T ) × Ω, P, λ ⊗ P).
Przypadek II: T = ∞.
Niech X ∈ L
2
([0, ∞) × Ω, P, λ ⊗ P) oraz X
(n)
t
(ω) := X
t
(ω)
1
[0,n)×Ω
(t, ω).
Wówczas X
(n)
prognozowalne, należace do L
2
([0, n) × Ω, P, λ ⊗ P), zatem
X
(n)
∈ E na mocy przypadku I.
Ponadto X
(n)
→ X w L
2
([0, ∞) × Ω, λ ⊗ P) (tw. Lebesgue’a o zbieżności
zmajoryzowanej), czyli X ∈
E.
Określiliśmy zatem
R
t
0
X
s
dW
s
dla procesów prognozowalnych całkowal-
nych z kwadratem względem miary λ ⊗ P na [0, T ) × Ω. Od tej pory przyj-
mujemy następujące oznaczenie
L
T
2
= L
2
([0, T ) × Ω, P, λ ⊗ P)
=
n
X = (X
t
)
0¬t<T
prognozowalny : E
Z
T
0
X
2
s
ds < ∞
o
.
45
Dobrze by było jeszcze wiedzieć, że klasa procesów prognozowalnych jest
dostatecznie duża, wynika to z następującego faktu:
Fakt 17. Jeśli X = (X
t
)
t∈[0,T )
jest procesem adaptowalnym i lewostronnie
ciągłym, to X jest prognozowalny.
Dowód. Dla T < ∞ określmy
X
(n)
t
:= X
0
1
{0}
+
2
n
−1
X
k=1
X
k−1
2n
T
1
(
k−1
2n
T,
k
2n
T ]
,
zaś w przypadku T = ∞ niech
X
(n)
t
:= X
0
1
{0}
+
n2
n
X
k=1
X
k−1
2n
1
(
k−1
2n
,
k
2n
]
.
Łatwo zauważyć, że procesy X
(n)
są prognozowalne oraz z lewostronnej cią-
głości X wynika, że X
(n)
t
→ X
t
punktowo. Prognozowalność X wynika z
faktu, że granica punktowa ciągu funkcji mierzalnych jest mierzalna.
Uwaga 18. Można udowodnić, że dla (F
t
)-adaptowalnego procesu X =
(X
t
)
t∈[0,T )
takiego, że E
R
T
0
X
2
s
ds < ∞ istnieje proces prognozowalny Y taki,
że X
t
(ω) = Y
t
(ω) dla λ ⊗ P prawie wszystkich (t, ω) ∈ [0, T ) × Ω. Pozwala
to określić
R
XdW dla procesów adaptowalnych z L
2
([0, T ) × Ω).
9
Własności całki izometrycznej. Uogólnienie de-
finicji całki stochastycznej
9.1
Twierdzenie o zatrzymaniu całki stochastycznej
Zacznijmy od prostej obserwacji.
Fakt 1. Jeśli X ∈ L
2
T
, to dla dowolnego u < T ,
1
[0,u]
X ∈ L
2
T
i
Z
t
0
1
[0,u]
(s)X
s
dW
s
=
Z
t∧u
0
X
s
dW
s
dla 0 ¬ t ¬ T.
Dowód. Funkcja (t, ω) →
1
[0,u]
(t) jest deterministyczna, więc prognozowal-
na, zatem proces
1
[0,u]
X jest prognozowalny jako iloczyn procesów progno-
zowalnych, więc
1
[0,u]
X ∈ L
2
T
.
46
Jeśli X jest procesem elementarnym postaci X = ξ
0
1
{0}
+
P
k
ξ
k
1
(t
k−1
,t
k
]
,
to X
1
[0,u]
= ξ
0
1
{0}
+
P
k
ξ
k
1
(t
k−1
∧u,t
k
∧u]
∈ E oraz
Z
t
0
1
[0,u]
(s)X
s
dW
s
=
X
ξ
k
(W
t
k
∧u∧t
− W
t
k−1
∧u∧t
) =
Z
t∧u
0
X
s
dW
s
.
Dla X ∈ L
2
T
weźmy X
(n)
∈ E takie, że X
(n)
→ X w L
2
T
. Wówczas
oczywiście również X
(n)
1
[0,u]
→ X
1
[0,u]
w L
2
T
. Stąd
Z
t
0
X
s
1
[0,u]
(s)dW
s
←
Z
t
0
X
(n)
s
1
[0,u]
(s)dW
s
=
Z
t∧u
0
X
(n)
s
dW
s
→
Z
t
0
X
s
dW
s
.
Uogólnieniem faktu jest ważne twierdzenie o zatrzymaniu całki stocha-
stycznej.
Twierdzenie 2. Niech X ∈ L
2
T
oraz τ będzie momentem zatrzymania.
Wówczas
1
[0,τ ]
X ∈ L
2
T
oraz
Z
t
0
1
[0,τ ]
(s)X
s
dW
s
=
Z
t∧τ
0
X
s
dW
s
dla 0 ¬ t ¬ T.
(3)
Dowód. Biorąc τ ∧ T zamiast T możemy zakładać, że τ ¬ T p.n..
Proces
1
[0,τ ]
(t) jest lewostronnie ciągły i adaptowalny, a zatem jest pro-
gnozowalny, czyli
1
[0,τ ]
X jest prognozowalny (iloczyn funkcji mierzalnych
jest funkcją mierzalną). Stąd
1
[0,τ ]
X ∈ L
2
T
.
Wzór (3) udowodnimy w trzech krokach.
Krok 1. X ∈ E , τ przyjmuje skończenie wiele wartości.
Ewentualnie powiększając ciąg t
i
możemy zakładać, że τ przyjmuje war-
tości 0 = t
0
¬ t
1
¬ . . . ¬ t
m
¬ T oraz X = ξ
0
1
{0}
+
P
m−1
k=0
ξ
k
1
(t
k
,t
k+1
]
.
Mamy
1
[0,τ ]
(t) =
m
X
k=0
1
{τ =t
k
}
1
[0,t
k
]
(t) =
m
X
k=0
k−1
X
j=0
1
{τ =t
k
}
1
(t
j
,t
j+1
]
(t)
+
1
{τ =t
k
}
1
{0}
=
1
Ω
1
{0}
(t) +
m−1
X
j=0
m
X
k=j+1
1
{τ =t
k
}
1
(t
j
,t
j+1
]
(t)
=
1
Ω
1
{0}
(t) +
m−1
X
j=0
1
{τ >t
j
}
1
(t
j
,t
j+1
]
(t),
47
zatem
1
[0,τ ]
(t)X = ξ
0
1
{0}
(t) +
m−1
X
j=0
ξ
j
1
{τ >t
j
}
1
(t
j
,t
j+1
]
(t),
czyli
1
[0,τ ]
(t)X ∈ E . Liczymy
Z
t
0
1
[0,τ ]
(s)X
s
dW
s
=
m−1
X
j=0
ξ
j
1
{τ >t
j
}
(W
t
j+1
∧t
− W
t
j
∧t
)
=
m−1
X
j=0
k−1
X
k=j+1
ξ
j
1
{τ =t
k
}
(W
t
j+1
∧t
− W
t
j
∧t
)
=
m
X
k=1
1
{τ =t
k
}
k−1
X
j=0
ξ
j
(W
t
j+1
∧t
− W
t
j
∧t
)
=
m
X
k=1
1
{τ =t
k
}
Z
t∧t
k
0
X
s
dW
s
=
Z
t∧τ
0
X
s
dW
s
.
Krok 2. τ dowolne oraz X ∈ E .
Weźmy ciąg momentów zatrzymania τ
n
przyjmujących skończenie wiele
wartości taki, że τ
n
& τ . Na mocy kroku 1, para (τ
n
, X) spełnia (3). Z
ciągłości trajektorii całki stochastycznej,
R
t∧τ
n
0
X
s
dW
s
→
R
t∧τ
0
X
s
dW
s
p.n..
Mamy
E
Z
t
0
1
[0,τ
n
]
(s)X
s
dW
s
−
Z
t
0
1
[0,τ ]
(s)X
s
dW
s
2
= E
Z
t
0
1
(τ,τ
n
]
(s)X
s
dW
s
2
= E
Z
t
0
1
(τ,τ
n
]
(s)X
2
s
ds → 0.
Zbieżność wynika z twierdzenia Lebesgue’a, gdyż proces
1
(τ,τ
n
]
(s)X
2
s
dąży
punktowo do zera i jest majoryzowany przez X
2
s
. Stąd
Z
t∧τ
0
X dW
p.n.
←−
Z
t∧τ
n
0
X dW =
Z
t
0
1
[0,τ
n
]
X dW
L
2
(Ω)
−→
Z
t
0
1
[0,τ ]
X dW,
czyli spełnione jest (3).
Krok 3. τ oraz X ∈ L
2
T
dowolne.
Weźmy X
(n)
∈ E takie, że X
(n)
→ X w L
2
T
. Z kroku 2, para (τ, X
(n)
)
spełnia (3). Mamy
E
Z
t∧τ
0
(X
s
− X
(n)
s
) dW
s
2
¬ E
Z
T
0
(X − X
(n)
) dW
2
= E
Z
T
0
(X − X
(n)
s
)
2
ds → 0,
48
gdzie pierwsza nierówność wynika z nierówności Jensena oraz Twierdzenia
Dooba 6.12 dla martyngału (
R
(X − X
(n)
) dW ). Ponadto
E
Z
t
0
1
[0,τ ]
(s)(X
s
− X
(n)
s
) dW
s
2
= E
Z
t
0
1
[0,τ ]
(s)(X
s
− X
(n)
s
)
2
ds
¬ E
Z
T
0
(X
s
− X
(n)
s
)
2
ds → 0.
Stąd
Z
t∧τ
0
X
s
dW
s
L
2
(Ω)
←−
Z
t∧τ
0
X
(n)
s
dW
s
=
Z
t
0
1
[0,τ ]
X
(n)
s
dW
s
L
2
(Ω)
−→
Z
t
0
1
[0,τ ]
X
s
dW
s
,
czyli (3) spełnione jest i w tym przypadku.
Wniosek 3. Dla X ∈ L
2
T
, proces M := ((
R
t
0
X dW )
2
−
R
t
0
X
2
ds)
t¬T
jest
martyngałem.
Dla X ≡ 1 otrzymujemy znany fakt, że W
2
t
− t jest martyngałem.
Dowód wniosku oparty jest na następującej prostej obserwacji.
Fakt 4. Załóżmy, że M jest adaptowalnym, prawostronnie ciągłym proce-
sem takim, że M
0
= 0 i dla wszystkich t, E|M
t
| < ∞. Wówczas M jest
martyngałem wtedy i tylko wtedy gdy EM
τ
= 0 dla wszystkich ograniczonych
momentów zatrzymania τ .
Dowód. ⇒: Z Twierdzenia Dooba 6.12, EM
τ
= EM
0
= 0.
⇐: Musimy pokazać, że dla s < t, E(M
t
|F
s
) = M
s
p.n., czyli EM
t
1
A
=
EM
s
1
A
dla wszystkich A ∈ F
s
. Określmy
τ :=
(
s dla ω ∈ A
t dla ω 6∈ A.
Jak łatwo sprawdzić τ jest momentem zatrzymania, stąd
0 = EM
τ
= EM
s
1
A
+ EM
t
1
A
c
= EM
s
1
A
− EM
t
1
A
,
gdzie ostatnia równość wynika z faktu, że
EM
t
1
A
c
= EM
t
− EM
t
1
A
= 0 − EM
t
1
A
.
49
Dowód Wniosku. Jak wiemy
R
X dW ∈ M
2,c
T
, czyli M jest ciągły, adapto-
walny i całkowalny oraz M
0
= 0. Dla ograniczonego momentu zatrzymania
τ ¬ T otrzymujemy na mocy twierdzenia o zatrzymaniu całki stochastycznej
E
Z
τ
0
X dW
2
= E
Z
T
0
1
[0,τ ]
X dW
2
= E
Z
T
0
1
[0,τ ]
(s)X
2
s
ds = E
Z
τ
0
X
2
s
ds.
Zatem
EM
τ
= E
h
Z
τ
0
X dW
2
−
Z
τ
0
X
2
s
ds
i
= 0.
9.2
Uogólnienie definicji całki stochastycznej
Definicja 5. Dla T ¬ ∞ określamy przestrzeń procesów prognozowalnych,
lokalnie całkowalnych z kwadratem
Λ
2
T
=
n
(X
t
)
t<T
− prognozowalny :
Z
t
0
X
2
s
ds < ∞ p.n. dla 0 < t < T
o
.
Zatem proces prognozowalny X należy do przestrzeni Λ
2
T
wtedy i tylko
wtedy, gdy
P
∀
t<T
Z
t
0
X
2
s
ds < ∞
= 1.
Przestrzeń Λ
2
T
jest liniowa, ale nie jest przestrzenią Hilberta. Na Λ
2
T
moż-
na wprowadzić metrykę przestrzeni Frecheta generowaną przez ciąg metryk
euklidesowych.
Definicja 6. Jeśli X = (X
t
)
t∈I
jest procesem stochastycznym, a τ mo-
mentem zatrzymania, to X
τ
= (X
τ
t
)
t∈I
- proces X zatrzymany w chwili τ
definiujemy wzorem
X
τ
t
:= X
t∧τ
.
Lemat 7. Dla X ∈ Λ
2
T
określmy
τ
n
:= inf
n
t 0 :
Z
t
0
X
2
s
ds n
o
∧ T ∧ n, n = 1, 2, . . . .
Wówczas (τ
n
) jest rosnącym ciagiem momentów zatrzymania, τ
n
% T p.n.
Ponadto dla wszystkich n,
1
[0,τ
n
]
X ∈ L
2
T
.
50
Dowód. τ
n
jest momentem zatrzymania jako moment dojścia przez adapto-
walny proces ciągły
R
t
0
X
2
s
ds do zbioru domkniętego [n, ∞). Z założenia o
skończoności
R
X
2
s
ds wynika, że τ
n
% T p.n..
Proces
1
[0,τ
n
]
X jest prognozowalny jako iloczyn procesów prognozowal-
nych, ponadto na mocy nierówności Schwarza i definicji τ
n
,
E
Z
T
0
1
[0,τ
n
]
(s)X
s
ds
2
= E
Z
τ
n
0
X
s
ds
2
¬ E
h
τ
n
Z
τ
n
0
X
2
s
ds
i
¬ n
2
< ∞.
Załóżmy, że mamy dany rosnący ciąg momentów zatrzymania τ
n
% T
p.n. taki, że
1
[0,τ
n
]
X ∈ L
2
T
dla wszystkich n. Niech M
n
(t) :=
R
t
0
1
[0,τ
n
]
X dW .
Lemat 8. Dla m n, procesy M
τ
n
m
i M
n
są nierozróżnialne, czyli
P(∀
t¬T
, M
m
(t ∧ τ
n
) = M
n
(t)) = 1.
Dowód. Na mocy twierdzenia o zatrzymaniu całki stochastycznej dla usta-
lonego t ¬ T ,
M
m
(τ
n
∧ t) =
Z
τ
n
∧t
0
1
[0,τ
m
]
X dW =
Z
t
0
1
[0,τ
n
]
1
[0,τ
m
]
X dW
=
Z
t
0
1
[0,τ
n
]
X dW = M
n
(t).
Zatem M
τ
m
jest modyfikacją M
n
. Teza lematu wynika z ciągłości obu proce-
sów.
Definicja 9. Niech X ∈ Λ
2
T
oraz τ
n
będzie rosnącym do T ciągiem momen-
tów zatrzymania takich, że
1
[0,τ
n
]
X ∈ L
2
T
dla wszystkich n. Całką stocha-
styczną
R
X dW dla X ∈ Λ
2
T
oznaczamy taki proces (M
t
)
t<T
= (
R
t
0
X dW )
t<T
,
że M
τ
n
t
=
R
t∧τ
n
0
X dW =
R
t
0
1
[0,τ
n
]
X dW dla n = 1, 2, . . ..
Fakt 10. Proces M zdefiniowany powyżej jest jest ciągły i jednoznacznie
określony w klasie procesów nieodróżnialnych.
Dowód. Na mocy Lematu 8 dla każdego m > n istnieje zbiór N
n,m
taki,
że P(N
n,m
) = 0 oraz dla ω 6∈ N
n,m
zachodzi M
n
(t, ω) = M
m
(t ∧ τ
n
(ω), ω)
dla wszystkich t < T . Niech N :=
S
m>n
N
n,m
, wówczas P(N ) = 0 oraz dla
ω /
∈ N , t ¬ τ
n
(ω) ciąg (M
m
(t, ω))
mn
jest stały. Zatem możemy (i musimy)
położyć M (t, ω) := M
n
(t, ω) dla t ¬ τ
n
(ω).
51
Fakt 11. Definicja
R
X dW nie zależy od wyboru ciągu τ
n
dla X ∈ Λ
2
T
.
Dokładniej, jeśli τ
n
,
τ
n
- momenty zatrzymania, τ
n
% T , τ
n
% T ,
1
[0,τ
n
]
X ∈
L
2
T
i
1
[0,τ
n
]
X ∈ L
2
T
oraz M,
M zdefiniowane za pomocą τ
n
, τ
n
odpowiednio,
to procesy M i M są nierozróżnialne.
Dowód. Mamy
M
t∧τ
n
=
Z
t
0
1
[0,τ
n
]
X dW,
M
t∧τ
n
=
Z
t
0
1
[0,
τ ]
X dW.
Na mocy twierdzenia o zatrzymaniu całki stochastycznej,
M
t∧τ
n
∧τ
n
=
Z
t
0
1
[0,τ
n
]
1
[0,
τ
n
]
X dW = M
t∧τ
n
∧τ
n
.
Ponadto τ
n
∧ τ
n
% T , więc t ∧ τ
n
∧ τ
n
= t dla n n(ω) i stąd M
t
= M
t
p.n., a że są to procesy ciągłe, to są nierozróżnialne.
Definicja 12. Jeżeli dla procesu adaptowalnego M = (M
t
)
t<T
, istnieje ciąg
momentów zatrzymania τ
n
% T taki, że M
τ
n
jest martyngałem, to M na-
zywamy martyngałem lokalnym. Jeśli dodatkowo M
τ
n
∈ M
2,c
T
, to mówimy,
że M jest ciągłym martyngałem lokalnym całkowalnym z kwadratem. Kla-
sę takich procesów oznaczamy M
2,c
T ,loc
(M
2,c
loc
jeśli wartość T jest jasna z
kontekstu).
Uwaga 13. M ∈ M
c
T ,loc
wtedy i tylko wtedy, gdy M − M
0
∈ M
2,c
T ,loc
, gdzie
M
c
T ,loc
oznacza rodzinę ciągłych martyngałów lokalnych.
Fakt 14. Załóżmy, że M =
R
XdW dla X ∈ Λ
T
2
. Wówczas
i) M jest procesem ciągłym, M
0
= 0,
ii) M ∈ M
2,c
T ,loc
,
iii) Przekształcenie X →
R
XdW jest liniowe.
Dowód. Punkty i), ii) wynikają z definicji. By udowodnić iii) weźmy X, Y ∈
Λ
2
T
Istnieją wówczas momenty zatrzymania τ
n
% T i τ
n
% T takie, że
1
[0,τ
n
]
X ∈ L
2
T
oraz
1
[0,τ
n
]
Y ∈ L
2
T
. Przyjmując σ
n
:= τ
n
∧ τ
n
% T otrzymu-
jemy
1
[0,σ
n
]
X,
1
[0,σ
n
]
Y ∈ L
2
T
, a zatem
1
[0,σ
n
]
(aX + bY ) ∈ L
2
T
dla dowolnych
a, b ∈ R. Stąd na mocy definicji otrzymujemy, że
R
t∧σ
n
0
(aX + bY ) dW =
a
R
t∧σ
n
0
X dW + b
R
t∧σ
n
0
Y dW i biorąc granicę n → ∞,
R
(aX + bY ) dW =
a
R
XdW + b
R
Y dW.
Sformułujemy teraz uogólnienie twierdzenia o zatrzymaniu całki stocha-
stycznej.
52
Fakt 15. Jeśli X ∈ Λ
2
T
, to dla dowolnego momentu zatrzymania τ ,
1
[0,τ ]
X ∈
Λ
2
T
oraz
Z
t∧τ
0
X dW =
Z
t
0
1
[0,τ ]
X dW.
Dowód. Proces
1
[0,τ ]
X jest prognozowalny jako iloczyn procesów prognozo-
walnych i majoryzowany przez X, stąd
1
[0,τ ]
X ∈ Λ
2
T
. Proces X ∈ Λ
2
T
, więc
istnieje ciąg τ
n
% T taki, że
1
[0,τ
n
]
X ∈ L
2
T
. Wtedy też
1
[0,τ
n
]
1
[0,τ ]
X ∈ L
2
T
.
Niech
M :=
Z
X dW,
N :=
Z
1
[0,τ ]
X dW.
Na mocy definicji,
M
t∧τ
n
=
Z
t
0
1
[0,τ
n
]
X, dW,
N
t∧τ
n
=
Z
t
0
1
[0,τ
n
]
1
[0,τ ]
X dW.
Z udowodnionego wcześniej twierdzenia 2 o zatrzymaniu całki izometrycznej,
M
t∧τ ∧τ
n
=
Z
t
0
1
[0,τ ]
1
[0,τ
n
]
X dW = N
t∧τ
n
.
Biorąc n → ∞ dostajemy M
τ
t
= M
t∧τ
= N
t
, czyli M
τ
= N .
Uwaga 16. Martyngał lokalny M =
R
X dW dla X ∈ Λ
2
T
nie musi być
martyngałem, M
t
nie musi być nawet całkowalne. Ale, jeśli E
R
t
0
X
2
s
ds < ∞
dla wszystkich t < T , to M jest martyngałem, bo możemy przyjąć τ
n
= t
n
,
gdzie t
n
jest ciągiem rosnącym zbieżnym do T i wtedy M
t∧τ
n
= M
t∧t
n
∈
M
2,c
T
.
Mimo, że w przypadku ogólnym
R
X dW nie musi być martyngałem, to
zachodzi dla tego procesu nierówność Dooba.
Twierdzenie 17 (Nierówność Dooba). Dla dowolnego procesu X ∈ Λ
T
2
oraz
momentu zatrzymania τ ¬ T ,
E sup
t<τ
Z
t
0
X dW
2
¬ 4E
Z
τ
0
X
2
s
ds.
Dowód. Weźmy τ
n
% T takie, że
1
[0,τ
n
]
X ∈ L
2
T
. Mamy
E sup
t<τ
Z
t∧τ
n
0
X dW
2
= E sup
t<τ
Z
t
0
1
[0,τ
n
]
X dW
2
= E sup
t<T
Z
t∧τ
0
1
[0,τ
n
]
X dW
2
= E sup
t¬T
Z
t
0
1
[0,τ ]
1
[0,τ
n
]
X dW
2
53
(
1
[0,τ ]
1
[0,τ
n
]
X ∈ M
2,c
T
, więc t < T można zamienić na t ¬ T ). Na mocy
nierówności Dooba dla martyngałów,
E sup
t¬T
Z
t
0
1
[0,T ]
1
[0,τ
n
]
X dW
2
¬ 4E
Z
T
0
1
[0,τ ]
1
[0,τ
n
]
X dW
2
= 4E
Z
T
0
(
1
[0,τ ]
1
[0,τ
n
]
X
s
)
2
ds = 4E
Z
τ ∧τ
n
0
X
2
s
ds ¬ 4E
Z
τ
0
X
2
s
ds.
Wykazaliśmy zatem, że
E sup
t<τ
Z
t∧τ
n
0
X dW
2
¬ 4E
Z
τ
0
X
2
s
ds.
Ponieważ
sup
t<τ
Z
t∧τ
n
0
X dW
2
= sup
t<τ ∧τ
n
Z
t
0
X dW
2
% sup
t<τ
Z
t
0
X dW
2
,
więc teza wynika z twierdzenia Lebesgue’a o zbieżności monotonicznej.
10
Całka względem ciągłych martyngałów
Podczas wcześniejszych wykładów zdefiniowaliśmy całkę
R
XdW . Okazuje
się, że bez większych trudności definicję tę daje się uogólnić na
R
XdM , gdzie
M jest ciągłym martyngałem (a nawet ciągłym martyngałem lokalnym).
Podczas tego i kolejnych wykładów zakładamy, że T ¬ ∞ oraz (F
t
)
t∈[0,T ]
jest filtracją spełniającą zwykłe warunki.
10.1
Rozkład Dooba-Meyera
Podstawą konstrukcji całki stochastycznej względem procesu Wienera jest
to, że W
t
i W
2
t
− t są martyngałami. Okazuje się, że dla dowolnego całkowal-
nego z kwadratem ciągłego martyngału M znajdzie się proces niemalejący
X taki, że M
2
− X jest martyngałem.
Twierdzenie 1 (rozkład Dooba-Meyera). Dla M ∈ M
2,c
T
istnieje pro-
ces hM i = (hM i
t
)
0¬t¬T
o trajektoriach ciągłych, niemalejących taki, że
hM i
0
= 0 oraz (M
2
t
− hM i
t
)
0¬t¬T
jest martyngałem. Co więcej proces hM i
jest wyznaczony jednoznacznie.
Udowodnimy jednoznaczność rozkładu, dowód istnienia znajduje się w
Dodatku B.
54
Dowód Jednoznaczności. Załóżmy, że M
2
t
− Y
t
i M
2
t
− Z
t
dwa martyngały
o ciągłych trajektoriach oraz Y
t
, Z
t
niemalejące, ciągłe. Trajektorie procesu
Y
t
−Z
t
mają wahanie skończone, ponadto Y
t
−Z
t
= (M
2
t
−Z
t
)−(M
2
t
−Y
t
) jest
martyngałem ciągłym. Stąd, na podstawie twierdzenia 7.13 Y − Z ≡ 0.
Przykłady.
Dla procesu Wienera hW i
t
= t.
Ogólniej, Wniosek 3 implikuje, że h
R
X
s
dW
s
i
t
=
R
t
0
X
2
s
ds dla X ∈ L
2
T
.
10.2
Całka izometryczna
Ponieważ dla wszystkich ω, t → hM i
t
(ω) jest niemalejące, zatem ma wa-
hanie skończone, czyli można określić skończoną miarę dhM i
t
(ω) na [0, T ].
Z uwagi na ciągłość hM i miara ta jest bezatomowa. Następna definicja jest
naturalnym uogólnieniem definicji dla procesu Wienera.
Definicja 2. Dla procesu elementarnego X postaci
X = ξ
0
1
{0}
+
m−1
X
k=0
ξ
k
1
(t
k
,t
k+1
]
,
gdzie 0 = t
0
¬ t
1
¬ t
2
¬ . . . ¬ t
m
< T , ξ
k
ograniczone, F
t
k
- mierzalne oraz
M ∈ M
2,c
T
określamy
Z
t
0
X dM :=
m−1
X
k=0
ξ
k
(M
t
k+1
∧t
− M
t
k
∧t
) dla 0 ¬ t ¬ T.
Definiujemy też dla M ∈ M
2,c
T
L
2
T
(M ) =
n
X = (X
t
)
t<T
prognozowalne takie, że E
Z
T
0
X
2
s
dhM i
s
< ∞
o
.
Fakt 3. Niech M ∈ M
2,c
oraz X ∈ E . Wówczas I(X) :=
R
X dM ∈ M
2,c
T
,
I(X)
0
= 0 oraz
kI(X)k
2
T
= E
Z
T
0
X
s
dM
s
2
= E
Z
T
0
X
2
s
dhM i
s
= kXk
2
L
2
T
(M )
.
Dowód. Ciągłość I(X), warunek I(X)
0
= 0 oraz to, że I(X)
t
∈ L
2
dla
wszystkich t są oczywiste. Dla t
j
¬ t ¬ t
j+1
mamy
I(X)
t
= ξ
0
(M
t
1
− M
t
0
) + ξ
1
(M
t
2
− M
t
1
) + . . . + ξ
j
(M
t
− M
t
j
).
55
Dla t
j
¬ t ¬ s ¬ t
j+1
otrzymujemy zatem
E(I(X)
s
|F
t
) − I(X)
t
= E(ξ
j
(M
s
− M
t
)|F
t
) = ξ
j
(E(M
s
|F
t
) − M
t
) = 0,
czyli I(X) jest martyngałem. Ponadto
EI(X)
2
T
=
m−1
X
k=0
E[ξ
2
k
(M
t
k+1
− M
t
k
)
2
]
+ 2
X
j<k
E[ξ
k−1
ξ
j−1
(M
t
k
− M
t
k−1
)(M
t
j
− M
t
j−1
)] = I + II.
Zauważmy, że dla s < t,
E((M
t
− M
s
)
2
|F
s
) = E(M
2
t
− hM i
t
|F
s
) + E(hM i
t
|F
s
) − 2M
s
E(M
t
|F
s
) + M
2
s
= M
2
s
− hM i
s
+ E(hM i
t
|F
s
) − M
2
s
= E(hM i
t
− hM i
s
|F
s
).
Stąd
I =
X
k
E[ξ
2
k
E((M
t
k+1
− M
t
k
)
2
|F
t
k
)] =
X
k
E[ξ
2
k
E(hM i
t
k+1
− hM i
t
k
|F
t
k
)]
= E
X
k
ξ
2
k
(hM i
t
k+1
− hM i
t
k
) = E
X
k
Z
t
k+1
t
k
ξ
2
k
dhM i
s
= E
Z
T
0
X
2
s
dhM i
s
.
Ponadto
II = 2
X
j<k
E[ξ
k−1
ξ
j−1
(M
t
j
− M
t
j−1
)E(M
t
k
− M
t
k−1
|F
t
k−1
)] = 0.
Tak jak dla procesu Wienera dowodzimy, że domknięcie E w przestrzeni
L
2
([0, T ) × Ω, dhM i ⊗ P) jest równe E = L
2
T
(M ). Izometrię I(X) możemy
przedłużyć do E , w ten sposób otrzymujemy izometryczną definicję całki
I(X) =
R
X dM dla X ∈ L
2
T
(M ). Mamy zatem następujący fakt.
Fakt 4. Niech M ∈ M
2,c
T
. Wówczas
a) Dla X ∈ L
2
T
(M ) proces
R
XdM ∈ M
2,c
T
oraz
Z
XdM
2
M
2,c
T
= E
Z
T
0
X
s
dM
s
2
= E
Z
T
0
X
2
s
dhM i
s
= kXk
L
2
T
(M )
.
b) Jeśli X, Y ∈ L
2
T
(M ), to aX + bY ∈ L
2
T
(M ) dla a, b ∈ R oraz
R
(aX +
bY )dM = a
R
XdM + b
R
Y dM .
56
10.3
Uogólnienie definicji całki
Zacznijmy od prostego faktu.
Fakt 5. Załóżmy, że M ∈ M
2,c
T
, wówczas dla dowolnego momentu zatrzy-
mania τ , M
τ
∈ M
2,c
T
oraz hM
τ
i = hM i
τ
.
Dowód. Wiemy, że M
τ
jest ciągłym martyngałem. Na mocy nierówności
Jensena
E|M
τ
T
|
2
= EM
2
τ ∧T
= E[E(M
T
|F
τ ∧T
)]
2
¬ EM
2
T
,
zatem M
τ
∈ M
2,c
T
. Proces hM i
τ
startuje z zera, ma trajektorie ciągłe, po-
nadto (M
τ
)
2
− hM i
τ
= (M
2
− hM i)
τ
jest martyngałem, więc hM i
τ
spełnia
wszystkie warunki definicji hM
τ
i.
Możemy uogólnić rozkład Dooba-Meyera na przypadek ciągłych martyn-
gałów lokalnych.
Wniosek 6. Załóżmy, że M ∈ M
c
loc
, wówczas istnieje dokładnie jeden
proces hM i = (hM i
t
)
0¬t<T
o trajektoriach ciągłych, niemalejących taki, że
hM i
0
= 0 oraz M
2
− hM i ∈ M
c
loc
.
Dowód.
Istnienie. Niech τ
n
będzie rosnącym do T ciągiem momentów
zatrzymania takim, że M
τ
n
∈ M
2,c
T
. Określmy Y
n
:= hM
τ
n
i, wówczas dla
n ¬ m
Y
τ
n
m
= hM
τ
m
i
τ
n
= h(M
τ
m
)
τ
n
i = hM
τ
n
∧τ
m
i = hM
τ
n
i = Y
n
.
Stąd istnieje proces ciągły Y = (Y
t
)
0¬t<T
taki, że Y
τ
n
= Y
n
, oczywiście
Y
0
= Y
n,0
= 0, ponadto Y ma trajektorie niemalejące oraz
(M
2
− Y )
τ
n
= (M
τ
n
)
2
− Y
τ
n
= (M
τ
n
)
2
− hM
τ
n
i ∈ M
c
,
zatem M
2
− Y jest ciągłym martyngałem lokalnym na [0, T ).
Jednoznaczność. Niech Y i ¯
Y procesy ciągłe o niemalejących trajek-
toriach takie, że Y
0
= ¯
Y
0
= 0 oraz M
2
− Y i M
2
− ¯
Y są martyngałami
lokalnymi. Wówczas istnieją momenty zatrzymania τ
n
% T i ¯
τ
n
% T takie,
że (M
2
− Y )
τ
n
oraz (M
2
− ¯
Y )
¯
τ
n
są martyngałami. Biorąc σ
n
= τ
n
∧ ¯
τ
n
% T
dostajemy martyngały (M
2
− Y )
σ
n
= ((M
2
− Y )
τ
n
)
¯
τ
n
oraz (M
2
− ¯
Y )
σ
n
=
((M
2
− ¯
Y )
¯
τ
n
)
τ
n
, proces (Y − ¯
Y )
σ
n
jest więc martyngałem o ograniczonym
wahaniu, czyli jest stały, zatem Y
σ
n
= ¯
Y
σ
n
. Przechodząc z n → ∞ otrzy-
mujemy Y = ¯
Y .
Podbnie jak dla procesu Wienera dowodzimy twierdzenie o zatrzymaniu
całki stochastycznej względem martyngałów całkowalnych z kwadratem.
57
Twierdzenie 7. Załóżmy, że M ∈ M
2,c
T
, X ∈ L
2
T
(M ) oraz τ będzie mo-
mentem zatrzymania. Wówczas
1
[0,τ ]
X ∈ L
2
T
(M ), X ∈ L
2
T
(M
τ
) oraz
Z
t
0
1
[0,τ ]
(s)X
s
dM
s
=
Z
t∧τ
0
X
s
dM
s
=
Z
t
0
X
s
dM
τ
s
dla 0 ¬ t ¬ T.
Definicja 8. Dla T ¬ ∞, M ∈ M
c
loc
określamy przestrzeń procesów pro-
gnozowalnych, lokalnie całkowalnych z kwadratem względem hM i
Λ
2
T
(M ) =
n
(X
t
)
t<T
− prognozowalny :
Z
t
0
X
2
s
dhM i
s
< ∞ p.n. dla t < T
o
.
Ponieważ
R
XdM =
R
Xd(M − M
0
) oraz hM − M
0
i = hM i, więc bez
straty ogólności przy uogólnianiu definicji całki będziemy zakładać, że M
0
=
0.
Definicja 9. Niech M = (M
t
)
t<T
∈ M
c
loc
, M
0
= 0, X = (X
t
)
t<T
∈
Λ
2
T
(M ) oraz τ
n
będzie rosnącym do T ciągiem momentów zatrzymania ta-
kich, że M
τ
n
∈ M
2,c
T
i
1
[0,τ
n
]
X ∈ L
2
T
(M
τ
n
) dla wszystkich n. Całką stocha-
styczną
R
X dM nazywamy taki proces (N
t
)
t<T
= (
R
t
0
X dM )
t<T
, że N
τ
n
t
=
R
t
0
1
[0,τ
n
]
X dM
τ
n
dla n = 1, 2, . . ..
Nietrudno udowodnić (naśladując dowód dla całki względem procesu
Wienera), że całka
R
X dM dla M ∈ M
c
loc
i X ∈ Λ
2
T
(M ) jest zdefiniowana
poprawnie i jednoznacznie (z dokładnością do nieodróżnialności procesów)
oraz nie zależy od wyboru ciągu momentów zatrzymania τ
n
.
Następujący fakt przedstawia podstawowe własności
R
XdM .
Fakt 10. Niech M, N ∈ M
c
loc
. Wówczas
a) Dla X ∈ Λ
2
T
(M ) proces
R
XdM ∈ M
c
loc
.
b) Jeśli X, Y ∈ Λ
2
T
(M ), to aX + bY ∈ Λ
2
T
(M ) dla a, b ∈ R oraz
R
(aX +
bY )dM = a
R
XdM + b
R
Y dM .
c) Jeśli X ∈ Λ
2
T
(M ) ∩ Λ
2
T
(N ) oraz a, b ∈ R, to X ∈ Λ
2
T
(aM + bN ) oraz
R
Xd(aM + bN ) = a
R
XdM + b
R
XdN .
Można również sformułować twierdzenie o zatrzymaniu całki stocha-
stycznej w ogólnym przypadku.
Twierdzenie 11. Załóżmy, że M ∈ M
c
loc
, X ∈ Λ
2
T
(M ) oraz τ będzie mo-
mentem zatrzymania. Wówczas
1
[0,τ ]
X ∈ Λ
2
T
(M ), X ∈ Λ
2
T
(M
τ
) oraz
Z
t
0
1
[0,τ ]
(s) dM
s
=
Z
t∧τ
0
X
s
dM
s
=
Z
t
0
X
s
dM
τ
s
dla 0 ¬ t < T.
58
11
Własności nawiasu skośnego
Podczas tego wykładu zajmiemy się interpretacją procesu hM i.
Niech Π = (t
0
, t
1
, . . . , t
k
) będzie podziałem [0, t] takim, że 0 = t
0
¬ t
1
¬
. . . ¬ t
k
= t. Definiujemy wówczas
V
M
Π,t
:=
k
X
i=1
(M
t
i
− M
t
i−1
)
2
.
Będziemy też czasem pisać V
Π,t
(M ) zamiast V
M
Π,t
. Pokażemy, że hM i
t
jest
granicą V
M
Π,t
przy diam(Π) → 0, dlatego też hM i nazywa się często wariacją
kwadratową M .
Zacznijmy od najprostszej sytuacji martyngałów ograniczonych, tzn. ta-
kich, że sup
t
kM
t
k
∞
< ∞.
Twierdzenie 1. Załóżmy, że M jest ograniczonym martyngałem ciągłym
Wówczas V
M
Π,t
→ hM i
t
w L
2
(Ω) dla t ¬ T , gdy diam(Π) → 0.
Dowód. Możemy założyć, rozpatrując zamiast M proces M −M
0
, że M
0
= 0,
bo V
Π,t
(M − M
0
) = V
Π,t
(M ) oraz hM − M
0
i = hM i ((M − M
0
)
2
− hM i =
(M
2
− hM i) − 2M M
0
+ M
2
0
jest martyngałem, czyli, z jednoznaczności h·i,
mamy hM − M
0
i = hM i).
Niech Π
n
= (0 = t
(n)
0
¬ t
(n)
1
¬ . . . ¬ t
(n)
k
n
= t) będzie ciągiem podziałów
[0, t] takim, że diam(Π
n
) → 0.
Połóżmy C = sup
s¬T
kM
s
k
∞
. Liczymy
M
2
t
=
k
n
X
k=1
(M
t
(n)
k
− M
t
(n)
k−1
)
2
=
X
k
(M
t
(n)
k
− M
t
(n)
k−1
)
2
+ 2
X
k<j
(M
t
(n)
k
− M
t
(n)
k−1
)(M
t
(n)
j
− M
t
(n)
j−1
)
= V
M
Π
n
,t
+ 2
X
j
(M
t
(n)
j
− M
t
(n)
j−1
)M
t
(n)
j−1
= V
M
Π
n
,t
+ 2N
n
(t).
Niech
X
n
(s) :=
k
n
X
j=1
M
t
(n)
j−1
1
(t
(n)
j−1
,t
(n)
j
]
∈ E,
wówczas N
n
(t) =
R
t
0
X
n
(s) dM
s
. Z ciągłości M dostajemy X
n
(s) → M
s
dla
wszystkich s ¬ t. Ponadto |X
n
| ¬ C, stąd |X
n
− M |
2
¬ 4C
2
i na mocy
twierdzenia Lebesgue’a o zbieżności zmajoryzowanej,
E
Z
t
0
|X
n
− M |
2
dhM i
s
→ 0.
59
Zatem X
n
→ M w L
2
t
(M ), czyli N
n
→
R
M dM w M
2,c
t
, to znaczy N
n
(t) →
R
t
0
M
s
dM
s
w L
2
(Ω). Wykazaliśmy zatem, iż
V
M
Π
n
,t
= M
2
t
− 2N
n
(t) → M
2
t
− 2
Z
M dM w L
2
(Ω).
Proces Y := M
2
−2
R
M dM jest ciągły, Y
0
= 0 oraz M
2
−Y = 2
R
M dM jest
martyngałem. By zakończyć dowód, że Y = hM i musimy wykazać monoto-
niczność trajektorii Y . Wybierzmy s < t i rozpatrzmy taki ciąg podziałów
Π
n
odcinka [0, t], że s jest jednym z punktów każdego z podziałów. Wówczas
Π
n
można też traktować jako ciąg podziałów [0, s] i określić V
M
Π
n
,s
. Mamy
Y
s
L
2
←− V
M
Π
n
,s
¬ V
M
Π
n
,t
L
2
−→ Y
t
,
czyli proces Y ma trajektorie monotoniczne.
Uwaga 2. W szczególności przedstawiony dowód pokazuje, że dla martyn-
gału jednostajnie ograniczonego M , takiego, że M
0
= 0, zachodzi M
2
=
2
R
M dM + hM i.
By uogólnić Twierdzenie 1 na przypadek martyngałów całkowalnych z
kwadratem będziemy potrzebowali dwóch faktów.
Lemat 3. Niech (ξ
n
) będzie ciągiem zmiennych losowych, a (A
k
) wstępu-
jącym ciągiem zdarzeń takim, że P(
S
A
k
) = 1. Załóżmy, że dla wszystkich
k, zmienne ξ
n
1
A
k
zbiegają według prawdopodobieństwa (przy n → ∞) do
zmiennej η
k
. Wówczas ξ
n
zbiega według prawdopodobieństwa do zmiennej η
takiej, że η
1
A
k
= η
k
p.n. dla k = 1, 2, . . ..
Dowód. Dla k ¬ l mamy η
l
1
A
k
= η
k
p.n., gdyż pewien podciąg ξ
n
s
1
A
l
→ η
l
p.n., a zatem ξ
n
s
1
A
l
= ξ
n
s
1
A
l
1
A
k
→ η
l
1
A
k
p.n. (czyli również wg P). Stąd
istnieje zmienna losowa η taka, że η
1
A
k
= η
k
p.n..
Zauważmy, że P(A
c
k
) ¬ ε/2 dla dużego k oraz przy ustalonym k, P(|ξ
n
1
A
k
−
η
k
| ε) ¬ ε/2 dla dużych n, stąd
P(|ξ
n
− η| ε) ¬ P(A
c
k
) + P(|ξ
n
1
A
k
− η
1
A
k
| ε) ¬ ε
dla dostatecznie dużych n.
Kolejny lemat pokazuje, że przy pewnych prostych założeniach można
ze zbieżności według prawdopodobieństwa wyprowadzić zbieżność w L
1
.
Lemat 4. Załóżmy, że ξ
n
0, ξ
n
→ ξ według P oraz dla wszystkich n,
Eξ
n
= Eξ < ∞. Wówczas ξ
n
→ ξ w L
1
.
60
Dowód. Mamy
E|ξ − ξ
n
| = E(|ξ − ξ
n
| − (ξ − ξ
n
)) = 2E(ξ − ξ
n
)
1
{ξξ
n
}
¬
ε
2
+ 2E(ξ − ξ
n
)
1
{ξξ
n
+
ε
4
}
¬
ε
2
+ 2Eξ1
{ξξ
n
+
ε
4
}
.
Na mocy zbieżności według prawdopodobieństwa, lim
n→∞
P(ξ ξ
n
+ε/4) =
0. Ponadto E|ξ| = Eξ < ∞, zatem {ξ} jest jednostajnie całkowalna , czyli
|Eξ1
A
| ¬ ε/2 dla odpowiednio małego P(A). Stąd Eξ1
{ξξ
n
+ε/4}
¬ ε/2 dla
dużych n, a więc E|ξ − ξ
n
| ¬ ε.
Twierdzenie 5. Załóżmy, że M ∈ M
2,c
T
, wówczas dla t < T , V
M
Π,t
→ hM i
t
w L
1
(Ω), gdy diam(Π) → 0.
Dowód. Jak poprzednio możemy zakładać, że M
0
= 0. Ustalmy ciąg podzia-
łów Π
n
taki, że diam(Π
n
) → 0.
Istnieje ciąg momentów zatrzymania τ
k
% T taki, że M
τ
k
jest jednostaj-
nie ograniczony (np. τ
k
= inf{t : |M
t
| ¬ k}). Na mocy Twierdzenia 1, dla
ustalonego k, mamy przy n → ∞
V
Π
n
,t
(M
τ
k
)
L
2
−→ hM
τ
k
i
t
= hM i
τ
k
t
.
Stąd
1
{t¬τ
k
}
V
Π
n
,t
(M ) =
1
{t¬τ
k
}
V
Π
n
,t
(M
τ
k
)
L
2
−→
1
{t¬τ
k
}
hM i
τ
k
t
=
1
{t¬τ
k
}
hM i
t
.
Zbieżność w L
2
implikuje zbieżność według prawdopodobieństwa, zatem mo-
żemy stosować Lemat 3 do ξ
n
= V
Π
n
,t
(M ) i A
k
= {t ¬ τ
k
}, by otrzymać
V
Π
n
,t
(M ) → hM i
t
według P. Mamy jednak
EhM i
t
= EM
2
t
= E[V
Π
n
,t
(M ) + 2
X
j
M
t
(n)
j−1
(M
t
(n)
j
− M
t
(n)
j−1
)] = EV
Π
n
,t
(M ),
a zatem na mocy Lematu 4, V
Π
n
,t
(M ) → hM i
t
w L
1
.
Dla martyngałów lokalnych zachodzi zbliżone twierdzenie, tylko zbież-
ność w L
1
musimy zastąpić zbieżnością według prawdopodobieństwa.
Wniosek 6. Załóżmy, że M ∈ M
c
loc
, wówczas dla t < T , V
M
Π,t
→ hM i
t
według prawdopodobieństwa, gdy diam(Π) → 0.
61
Dowód. Bez straty ogólności możemy założyć, że M
0
= 0, wówczas M ∈
M
2,c
loc
. Niech Π
n
będą podziałami [0, t] o średnicy zbieżnej do zera oraz τ
k
%
T takie, że M
τ
k
∈ M
2,c
. Na podstawie Twierdzenia 5 otrzymujemy, że dla
ustalonego k,
V
Π
n
,t
(M
τ
k
)
L
1
−→ hM
τ
k
i = hM i
τ
k
.
Stąd
V
Π
n
,t
(M )
1
{τ
k
t}
= V
Π
n
,t
(M
τ
k
)
1
{τ
k
t}
L
1
−→ hM i
τ
k
1
{τ
k
t}
= hM i
1
{τ
k
t}
.
Teza wynika z Lematu 3.
Nawias skośny określa się nie tylko dla pojedynczego martyngału, ale też
i dla pary martyngałów.
Definicja 7. Nawiasem skośnym dwóch ciągłych martyngałów lokalnych M
i N nazywamy proces hM, N i zdefiniowany wzorem
hM, N i =
1
4
[hM + N i − hM − N i].
Fakt 8. a) Załóżmy, że M, N ∈ M
2,c
T
, wówczas hM, N i to jedyny pro-
ces o trajektoriach ciągłych mających wahanie skończone na [0, T ] taki, że
hM, N i
0
= 0 oraz M N − hM, N i jest martyngałem na [0, T ].
b) Załóżmy, że M, N ∈ M
c
loc
, wówczas hM, N i to jedyny proces o trajek-
toriach ciągłych mających wahanie skończone na [0, t] dla t < T taki, że
hM, N i
0
= 0 oraz M N − hM, N i jest martyngałem lokalnym na [0, T ).
Dowód. Jednoznaczność dowodzimy jak dla hM i, zaś wymienione własności
wynikają z tożsamości
M N − hM, N i =
1
4
h
(M + N )
2
− hM + N i
−
(M − N )
2
− hM − N i
i
.
Fakt 9. Niech Π
n
= (t
(n)
0
, t
(n)
1
, . . . , t
(n)
k
n
) będzie ciągiem podziałów [0, t] takim,
że 0 = t
(n)
0
¬ t
(n)
1
¬ . . . ¬ t
(n)
k
n
= t oraz diam(Π
n
) → 0.
a) Jeśli M, N ∈ M
2,c
T
, to dla t < T ,
k
n
X
k=0
(M
t
(n)
k+1
− M
t
(n)
k
)(N
t
(n)
k+1
− N
t
(n)
k
)
L
1
−→ hM, N i
t
.
62
b) Jeśli M, N ∈ M
2,c
loc
, to dla t < T ,
k
n
X
k=0
(M
t
(n)
k+1
− M
t
(n)
k
)(N
t
(n)
k+1
− N
t
(n)
k
)
P
−→ hM, N i
t
.
Dowód. Wystarczy zauważyć, że
(M
t
−M
s
)(N
t
−N
s
) =
1
4
[((M
t
+N
t
)−(M
s
+N
s
))
2
−((M
t
−N
t
)−(M
s
−N
s
))
2
]
i skorzystać z Twierdzenia 1 i Wniosku 6.
Fakt 10. a) hM, M i = hM i = h−M i,
b) hM, N i = hN, M i,
c) hM − M
0
, N i = hM, N − N
0
i = hM − M
0
, N − N
0
i = hM, N i,
d) (N, M ) → hM, N i jest przekształceniem dwuliniowym,
e) hM
τ
, N
τ
i = hM
τ
, N i = hM, N
τ
i = hM, N i
τ
,
f ) Jeśli M ∈ M
2,c
loc
, X, Y ∈ Λ
2
T
(M ) oraz N
1
=
R
X dM , N
2
=
R
Y dM , to
hN
1
, N
2
i =
R
XY dhM i.
Dowód. Punkty a), b) i c) wynikają natychmiast z definicji, punkt d) z
Wniosku 6. To, że hM
τ
, N
τ
i = hM, N i
τ
dowodzimy jak w Fakcie 5 (wy-
korzystując Fakt 8). Pozostałe równości w e) wynikają z Faktu 9. By wy-
kazać f) wystarczy wykazać, że h
R
XdM i =
R
X
2
dhM i. Poprzez własność
e) i lokalizacje można sprowadzić to do przypadku gdy M ∈ M
2,c
T
oraz
X ∈ L
2
T
(M ). Z twierdzenia o zatrzymaniu całki można wtedy wykazać, że
h
R
XdM i −
R
X
2
dhM i jest martyngałem (zob. dowód Wniosku 3).
12
Dalsze własności całki stochastycznej
Zacznijmy od wersji stochastycznej twierdzenia Lebesgue’a o zbieżności zma-
joryzowanej.
Twierdzenie 1. Załóżmy, że M ∈ M
2,c
loc
oraz X
n
są procesami prognozo-
walnymi takimi, że lim
n→∞
X
n,t
(ω) = X
t
(ω) dla wszystkich t < T, ω ∈ Ω.
Jeśli dla wszystkich t < T i ω ∈ Ω, |X
n,t
(ω)| ¬ Y
t
(ω) dla pewnego procesu
Y ∈ Λ
2
T
(M ), to X
n
, X ∈ Λ
2
T
(M ) oraz
Z
t
0
X
n
dM
P
−→
Z
t
0
XdM przy n → ∞.
63
Dowód. Proces X jest prognozowalny jako granica procesów prognozowal-
nych. Ponadto dla t < T ,
Z
t
0
X
2
s
dhM i
s
,
Z
t
0
X
2
n,s
dhM i
s
¬
Z
t
0
Y
2
s
dhM i
s
< ∞ p.n.,
więc X
n
, X ∈ Λ
2
T
(M ). Bez straty ogólności możemy też założyć, że M
0
= 0.
Niech τ
k
% T takie, że M
τ
k
∈ M
2,c
T
oraz
1
[0,τ
k
]
Y ∈ L
2
T
(M
τ
k
). Ponie-
waż
1
[0,τ
k
]
X
n
¬
1
[0,τ
k
]
Y , więc
1
[0,τ
k
]
X
n
∈ L
2
T
(M
τ
k
). Z twierdzenia Lebes-
gue’a o zbieżności zmajoryzowanej łatwo wykazać, że
1
[0,τ
k
]
X
n
→
1
[0,τ
k
]
X
w L
2
T
(M
τ
k
). Stąd dla ustalonego k,
Z
t∧τ
k
0
X
n
dM =
Z
t
0
1
[0,τ
k
]
X
n
dM
τ
k
L
2
(Ω)
−→
Z
t
0
1
[0,τ
k
]
XdM
τ
k
=
Z
t∧τ
k
0
XdM,
czyli
1
{τ
k
t}
Z
t
0
X
n
dM
L
2
−→
1
{τ
k
t}
Z
t
0
XdM przy n → ∞.
Zbieżność w L
2
implikuje zbieżność według prawdopodobieństwa, by zakoń-
czyć dowód wystarczy skorzystać z Lematu 11.3.
Definicja 2. Mówimy, że proces X jest lokalnie ograniczony, jeśli istnieją
momenty zatrzymania τ
n
% T takie, że procesy X
τ
n
− X
0
są ograniczone.
Uwaga 3. Każdy proces ciągły, adaptowalny jest lokalnie ograniczony.
Kolejne twierdzenie podaje wzór na całkowanie przez podstawienie.
Twierdzenie 4. a) Niech N ∈ M
2,c
T
, X ∈ L
2
T
(N ), Y - proces prognozo-
walny ograniczony oraz M =
R
XdN . Wówczas Y ∈ L
2
T
(M ), XY ∈ L
2
T
(N )
oraz
R
Y dM =
R
XY dN .
b) Niech N ∈ M
c
loc
, X ∈ Λ
2
T
(N ), Y - proces prognozowalny lokalnie ogra-
niczony oraz M =
R
XdN . Wówczas Y ∈ Λ
2
T
(M ), XY ∈ Λ
2
T
(N ) oraz
R
Y dM =
R
XY dN .
Dowód. a) Załóżmy wpierw, że Y jest procesem elementarnym postaci
Y = ξ
0
1
{0}
+
n−1
X
j=0
ξ
j
1
(t
j
,t
j+1
]
,
64
gdzie 0 = t
0
< t
1
< . . . < t
k
< T , zaś ξ
k
są ograniczonymi zmiennymi
F
t
k
-mierzalnymi. Wówczas
Z
t
0
Y dM =
X
j
ξ
j
(M
t
j+1
∧t
− M
t
j
∧t
) =
X
j
ξ
j
(
Z
t
0
1
[0,t
j+1
]
XdN −
Z
t
0
1
[0,t
j
]
XdN )
=
X
j
ξ
j
Z
t
0
1
(t
j
,t
j+1
]
XdN =
X
j
Z
t
0
ξ
j
1
(t
j
,t
j+1
]
XdN
=
Z
t
0
X
j
ξ
j
1
(t
j
,t
j+1
]
XdN =
Z
t
0
Y XdN.
Jeśli Y jest dowolnym ograniczonym procesem prognozowalnym, to
E
Z
T
0
Y
2
s
dhM i
s
¬ kY k
2
∞
E
Z
T
0
dhM i
s
= kY k
2
∞
EhM i
T
= kY k
2
∞
EM
2
T
< ∞,
więc Y ∈ L
2
T
(M ). Nietrudno też sprawdzić, że XY ∈ L
2
T
(N ). Możemy
znaleźć procesy elementarne Y
n
zbieżne do Y w L
2
T
(M ), co więcej możemy
założyć, że kY
n
k
∞
¬ kY k
∞
. Zauważmy, że
kXY − XY
n
k
2
L
2
T
(N )
= E
Z
T
0
(XY − XY
n
)
2
s
dhN i
s
= E
Z
T
0
(Y − Y
n
)
2
s
X
2
s
dhN i
s
= E
Z
T
0
(Y − Y
n
)
2
s
dhM i
s
→ 0 = kY − Y
n
k
2
L
2
T
(M )
,
więc Y
n
X → Y X w L
2
T
(N ). Stąd dla t ¬ T ,
Z
t
0
XY dN
L
2
←−
Z
t
0
XY
n
dN =
Z
Y
n
dM
L
2
−→
Z
t
0
Y dM.
b) Mamy
R
t
0
Y
0
dM = Y
0
M
t
= Y
0
R
t
0
XdN =
R
t
0
Y
0
XdN , zatem rozpatru-
jąc Y − Y
0
zamiast Y możemy zakładać,że Y
0
= 0. Niech τ
n
% T takie, że
Y
τ
n
jest ograniczone, N
τ
n
∈ M
2,c
T
oraz X
1
[0,τ
n
]
∈ L
2
T
(N
τ
n
). Zauważmy, że
M
τ
n
= (
Z
XdN )
τ
n
=
Z
X
1
[0,τ
n
]
dN
τ
n
,
zatem na mocy części a),
(
Z
Y dM )
τ
n
=
Z
Y
1
[0,τ
n
]
dM
τ
n
=
Z
Y
1
[0,τ
n
]
X
1
[0,τ
n
]
dN
τ
n
=
Z
XY
1
[0,τ
n
]
dN
τ
n
= (
Z
XY dN )
τ
n
.
Biorąc n → ∞ dostajemy tezę.
65
Sformułujemy teraz pierwsze twierdzenie o całkowaniu przez części.
Twierdzenie 5. Niech M, N ∈ M
c
loc
, wówczas
M
t
N
t
= M
0
N
0
+
Z
t
0
M
s
dN
s
+
Z
t
0
N
s
dM
s
+ hM, N i
t
.
(4)
Stosując twierdzenie do M = N dostajemy natychmiast.
Wniosek 6. Jeśli M ∈ M
c
loc
, to
Z
t
0
M
s
dM
s
=
1
2
(M
2
t
− M
2
0
) −
1
2
hM i
t
.
Wniosek 7. Niech X, Y ∈ Λ
2
T
, M =
R
XdW oraz N =
R
Y dW , wówczas
M
t
N
t
=
Z
t
0
M
s
dN
s
+
Z
t
0
N
s
dM
s
+ hM, N i
t
=
Z
t
0
M
s
Y
s
dW
s
+
Z
t
0
N
s
X
s
dW
s
+
Z
t
0
X
s
Y
s
ds.
Dowód. Pierwsza równość wynika z Twierdzenia 5, druga z Twierdzenia 4
oraz tego, że hM, N i =
R
XY ds.
Dowód Twierdzenia 5. Całki
R
M dN i
R
N dM są dobrze określone, gdyż
procesy M i N są ciągłe, zatem lokalnie ograniczone.
Możemy założyć, iż M
0
= N
0
= 0, gdyż hM, N i = hM − N
0
, N − N
0
i,
Z
M dN =
Z
M d(N − N
0
) =
Z
(M − M
0
)d(N − N
0
) +
Z
M
0
d(N − N
0
)
=
Z
(M − M
0
)d(N − N
0
) + M
0
(N − N
0
),
zatem
Z
t
0
M dN +
Z
t
0
N dM =
Z
t
0
(M − M
0
)d(N − N
0
) +
Z
t
0
(N − M
0
)d(M − M
0
)
+ M
0
N
t
+ N
0
M
t
− 2N
0
M
0
.
Wystarczy udowodnić, że teza zachodzi dla M = N , tzn.
M
2
t
= 2
Z
t
0
M
s
dM
s
+ hM i
t
dla M ∈ M
c
loc
, M
0
= 0.
(5)
Jeśli bowiem zastosujemy (5) dla M + N i M − N , odejmiemy stronami i
podzielimy przez 4, to dostaniemy (4).
66
Wiemy (zob Uwaga 11.11), że (5) zachodzi przy dodatkowym założeniu
ograniczoności M . W ogólnym przypadku określamy
τ
n
:= inf{t > 0 : |M
t
| n} ∧ T,
wtedy τ
n
% T . Ponadto M
τ
n
jest ograniczonym martyngałem lokalnym,
zatem ograniczonym martyngałem, więc
(M
2
)
τ
n
= (M
τ
n
)
2
= 2
Z
M
τ
n
dM
τ
n
+ hM
τ
n
i
= 2
Z
M
τ
n
1
[0,τ
n
]
dM + hM i
τ
n
= 2
Z
M
1
[0,τ
n
]
dM + hM i
τ
n
= (2
Z
M dM + hM i)
τ
n
.
Przechodząc z n → ∞ dostajemy (5).
Definicja 8. Przez V
c
oznaczamy procesy ciągłe, adaptowalne, których tra-
jektorie mają wahanie skończone na każdym przedziale [0, t] dla t < T .
Udowodnimy teraz kolejne twierdzenie o całkowaniu przez części.
Fakt 9. Załóżmy, że M ∈ M
c
loc
, A ∈ V
c
, wówczas
M
t
A
t
= M
0
A
0
+
Z
t
0
A
s
dM
s
+
Z
t
0
M
s
dA
s
.
Dowód. Jak w dowodzie Twierdzenia 5 możemy założyć, że M
0
= A
0
= 0.
Załóżmy wpierw, że M i N są ograniczone. Zauważmy, że
M
t
A
t
=
n
X
j=1
(M
tj/n
− M
t(j−1)/n
)
n
X
k=1
(A
tk/n
− A
t(k−1)/n
=
n
X
j=1
(M
tj/n
− M
t(j−1)/n
)(A
tj/n
− A
t(j−1)/n
)
+
n
X
j=1
M
t(j−1)/n
(A
tj/n
− A
t(j−1)/n
) +
n
X
j=1
(M
tj/n
− M
t(j−1)/n
)A
t(j−1)/n
= I
n
+ II
n
+ III
n
.
Składnik II
n
dąży prawie na pewno do
R
t
0
M dA (definicja całki Riemanna-
Stieltjesa). Nietrudno sprawdzić, że procesy elementarne
A
n
=
n
X
j=1
A
t(j−1)/n
1
(t(j−1)/n,tj/n]
67
zbiegają w L
2
t
(M ) do A, stąd III
n
=
R
t
0
A
n
dM zbiega w L
2
do
R
t
0
AdM .
Zauważmy też, że
|I
n
|
2
¬
n
X
j=1
(M
tj/n
− M
t(j−1)/n
)
2
n
X
j=1
(A
tj/n
− A
t(j−1)/n
)
2
pierwszy składnik powyżej dąży do hM i
t
w L
2
(w szczególności jest więc
ograniczony w L
2
), drugi dąży do zera p.n. (proces A jest ciągły i ma ogra-
niczone wahanie na [0, t]), stąd I
n
dąży do 0 według prawdopodobieństwa.
Zatem
M
t
A
t
= I
n
+ II
n
+ III
n
P
−→
Z
t
0
M dA +
Z
t
0
AdM.
Jeśli M i A nie są ograniczone, to określamy
τ
n
= inf{t > 0 : |M
t
| n} ∧ inf{t > 0 : |A
t
| n} ∧ T.
Mamy |A
τ
n
| ¬ n, |M
τ
n
| ¬ n, więc z poprzednio rozważonego przypadku
(M A)
τ
n
=
Z
A
τ
n
dM
τ
n
+
Z
M
τ
n
dA
τ
n
= (
Z
AdM +
Z
M dA)
τ
n
,
przechodząc z n → ∞ dostajemy tezę.
Ostatnie twierdzenie o całkowaniu przez części jest nietrudną konsekwen-
cją definicji całki Riemanna-Stieltjesa.
Fakt 10. Załóżmy, że A, B ∈ V
c
, wówczas
A
t
B
t
= A
0
B
0
+
Z
t
0
A
s
dB
s
+
Z
t
0
B
s
dA
s
.
Definicja 11. Proces Z = (Z
t
)
t<T
nazywamy ciągłym semimartyngałem,
jeśli da się przedstawić w postaci Z = Z
0
+ M + A, gdzie Z
0
jest zmienną
F
0
-mierzalna, M ∈ M
2
loc
, A ∈ V
c
oraz A
0
= M
0
= 0.
Uwaga 12. Rozkład semimartyngału jest jednoznaczny (modulo procesy
nieodróżnialne).
Dowód. Jeśli Z = Z
0
+ M + A = Z
0
+ M
0
+ A
0
, to M − M
0
= A
0
− A jest
ciągłym martyngałem lokalnym, startującym z zera o ograniczonym wahaniu
na [0, t] dla t < T , zatem jest stale równy 0.
68
Przykłady.
Proces Itˆ
o, tzn. proces postaci Z = Z
0
+
R
XdW +
R
Y ds, gdzie X ∈ Λ
2
T
, Y
prognozowalny taki, że
R
t
0
|Y
s
|ds < ∞ p.n. dla t < T jest semimartyngałem.
Z twierdzenia Dooba-Meyera wynika, że kwadrat martyngału jest semimar-
tyngałem.
Definicja 13. Jeśli Z = Z
0
+ M + A jest ciągłym semimartyngałem, to
określamy
R
XdZ :=
R
XdM +
R
XdA, gdzie pierwsza całka to całka stocha-
styczna, a druga całka Stieltjesa.
Twierdzenie 14. Jeśli Z = Z
0
+ M + A oraz Z
0
= Z
0
0
+ M
0
+ A
0
są ciągłymi
semimartyngałami, to ZZ
0
też jest semimartyngałem oraz
ZZ
0
= Z
0
Z
0
0
+
Z
ZdZ
0
+
Z
Z
0
dZ + hM, M
0
i.
Dowód. Mamy ZZ
0
= Z
0
Z
0
0
+ M M
0
+ M A
0
+ AM
0
+ AA
0
i stosujemy twier-
dzenia o całkowaniu przez części (Twierdzenie 12.5, Fakty 12.9 i 12.10).
13
Wzór Itˆ
o
Podczas tego wykładu udowodnimy fundamentalne twierdzenie dla anali-
zy stochastycznej. Pokazuje ono, że klasa semimartyngałów ciągłych jest
zamknięta ze względu na funkcje gładkie oraz podaje wzór na różniczkę
stochastyczną df (X).
Twierdzenie 1 (Wzór Itˆ
o). Załóżmy, że Z = Z
0
+ M + A jest ciągłym
semimartyngałem, f funkcją klasy C
2
na R. Wówczas f (Z) też jest semi-
martyngałem oraz
f (Z
t
) = f (Z
0
) +
Z
t
0
f
0
(Z
s
)dZ
s
+
1
2
Z
t
0
f
00
(Z
s
)dhM i
s
.
(6)
Dowód. Wszystkie całki w (6) są dobrze zdefiniowane, bo procesy f
0
(Z
s
) i
f
00
(Z
s
) są ciągłe, zatem f
0
(Z
s
) ∈ Λ
2
T
(M ) oraz f
00
(Z
s
) jest całkowalne wzglę-
dem hM i.
Dowód wzóru Itˆ
o będzie polegał na redukcji (6) do coraz prostszych
przypadków.
i) Możemy założyć, że zmienna Z
0
jest ograniczona.
Istotnie połóżmy Z
(n)
0
:= (Z
0
∧ n) ∨ −n oraz Z
(n)
:= Z
(n)
0
+ M + A.
Zauważmy, że
R
XdZ =
R
XdZ
(n)
, więc, jeśli wiemy, iż (6) zachodzi, gdy Z
0
69
ograniczone, to
f (Z
(n)
t
) = f (Z
(n)
0
) +
Z
t
0
f
0
(Z
(n)
s
)dZ
s
+
1
2
Z
t
0
f
00
(Z
(n)
s
)dhM i
s
.
(7)
Mamy
|f
0
(Z
(n)
s
)| ¬ sup
n
|f
0
(Z
(n)
s
)| := Y
s
,
proces Y jest prognozowalny jako supremum procesów prognozowalnych,
ponadto
sup
n
sup
s¬t
|Z
(n)
s
| ¬ |Z
0
| + sup
s¬t
|M
s
| + sup
s¬t
|A
s
| < ∞ p.n..
Zatem z ciągłości f
0
, sup
s¬t
|Y
s
| < ∞ p.n., skąd Y ∈ Λ
2
T
(M ). Z twierdzenia
Lebesgue’a o zbieżności zmajoryzowanej dla całek stochastycznych,
Z
t
0
f
0
(Z
(n)
s
)dM
s
P
−→
Z
t
0
f
0
(Z
s
)dM
s
ponadto z twierdzenia Lebesgue’a dla zwykłej całki,
Z
t
0
f
0
(Z
(n)
s
)dA
s
p.n.
−→
Z
t
0
f
0
(Z
s
)dA
s
.
Podobnie sup
n
sup
s¬t
|f
00
(Z
(n)
s
)| < ∞ p.n. i ponownie stosując twierdzenie
Lebesgue’a dostajemy
Z
t
0
f
00
(Z
(n)
s
)dhM i
s
p.n.
−→
Z
t
0
f
00
(Z
s
)dhM i
s
.
Oczywiście f (Z
(n)
t
) → f (Z
t
) p.n., więc możemy przejść w (7) z n do ∞, by
dostać (6).
ii) Możemy założyć że Z ograniczony.
Istotnie niech Z semimartyngał taki, że Z
0
ograniczony, połóżmy
τ
n
:= inf{t > 0 : |Z
t
| n} ∧ T,
wówczas Z
(n)
:= Z
0
+ M
τ
n
+ A
τ
n
jest ciągłym ograniczonym semimartyn-
gałem oraz Z
(n)
t
→ Z
t
p.n.. Jeśli (6) zachodzi w przypadku ograniczonym,
70
to
f (Z
(n)
t
) = f (Z
0
) +
Z
t
0
f
0
(Z
(n)
s
)dZ
(n)
s
+
1
2
Z
t
0
f
00
(Z
(n)
s
)dhM
τ
n
i
s
= f (Z
0
) +
Z
t∧τ
n
0
f
0
(Z
(n)
s
)
1
[0,τ
n
]
dZ
s
+
1
2
Z
t∧τ
n
0
f
00
(Z
(n)
s
)
1
[0,τ
n
]
dhM i
τ
n
s
= f (Z
0
) +
Z
t∧τ
n
0
f
0
(Z
s
)
1
[0,τ
n
]
dZ
s
+
1
2
Z
t∧τ
n
0
f
00
(Z
s
)
1
[0,τ
n
]
dhM i
s
= f (Z
0
) +
Z
t∧τ
n
0
f
0
(Z
s
)dZ
s
+
1
2
Z
t∧τ
n
0
f
00
(Z
s
)dhM i
s
.
Biorąc n → ∞ dostajemu (6).
iii) Możemy założyć że Z ograniczony, a f jest wielomianem.
Możemy zakładać, że kZk
∞
¬ C < ∞. Jeśli f ∈ C
2
, to istnieje ciąg
wielomianów f
n
taki, że
|f
n
(x) − f (x)|, |f
0
n
(x) − f
0
(x)|, |f
00
n
(x) − f
00
(x)| ¬
1
n
dla x ∈ [−C, C].
Wtedy f
n
(Z
s
) → f (Z
s
), f
0
n
(Z
s
) → f
0
(Z
s
), f
00
n
(Z
s
) → f
00
(Z
s
) jednostajnie
oraz |f
0
n
(Z
s
)| ¬ sup
n
sup
|x|¬C
|f
0
n
(x)| ¬ sup
|x|¬C
|f
0
(x)| + 1 < ∞, więc z
twierdzenia Lebesgue’a o zbieżności zmajoryzowanej,
f (Z
s
) ← f
n
(Z
s
) = f
n
(Z
0
) +
Z
t
0
f
0
n
(Z
s
)dZ
s
+
1
2
Z
t
0
f
00
n
(Z
s
)dhM i
s
→ f (Z
0
) +
Z
t
0
f
0
(Z
s
)dZ
s
+
1
2
Z
t
0
f
00
(Z
s
)dhM i
s
.
iv) Z liniowości obu stron (6) wystarczy zatem rozpatrywać przypadek Z
ograniczonych oraz f (x) = x
n
. Pokażemy ten wzór przez indukcję po n.
Dla n = 0 teza jest oczywista. Załóżmy więc, że (6) zachodzi dla f (x) =
x
n
pokażemy go dla g(x) = xf (x). Zauważmy, że g
0
(x) = f (x) + xf
0
(x) oraz
g
00
(x) = 2f
0
(x) + xf
00
(x). Ze wzoru na całkowanie przez części,
g(Z
t
) = Z
t
f (Z
t
) = Z
0
f (Z
0
) +
Z
t
0
Z
s
df (Z)
s
+
Z
t
0
f (Z)dZ
s
+
D
Z
f
0
(Z)dM, M
E
t
= g(Z
t
) +
Z
t
0
(Z
s
f
0
(Z
s
)dZ
s
+
1
2
Z
s
f
00
(Z
s
)dhM i
s
) +
Z
t
0
f (Z)dZ
s
+
Z
t
0
f
0
(Z
s
)dhM i
s
= g(Z
t
) +
Z
t
0
g
0
(Z
t
)dZ
t
+
1
2
Z
t
0
g
00
(Z
t
)dhM i
s
.
71
Wniosek 2. Dla f ∈ C
2
(R),
f (W
t
) = f (0) +
Z
t
0
f
0
(W
s
)dW
s
+
1
2
Z
t
0
f
00
(W
s
)ds.
W podobny sposób jak w przypadku jednowymiarowym możemy udo-
wodnić wielowymiarową wersję twierdzenia Itˆ
o.
Twierdzenie 3. Załóżmy, że f : R
d
→ R jest funkcją klasy C
2
oraz Z =
(Z
(1)
, . . . , Z
(d)
), gdzie Z
(i)
= Z
(i)
0
+M
(i)
+A
(i)
są ciągłymi semimartyngałami
dla i = 1, . . . , d. Wówczas f (Z) jest semimartyngałem oraz
f (Z
t
) = f (Z
0
) +
d
X
i=1
Z
t
0
∂f
∂x
i
(Z
s
)dZ
(i)
s
+
1
2
d
X
i,j=1
Z
t
0
∂f
∂x
i
∂x
j
(Z
s
)dhM
(i)
, M
(j)
i
s
.
Twierdzenie 4. Załóżmy, że M jest ciągłym martyngałem lokalnym ta-
kim, że M
0
= 0 oraz M
2
t
− t jest martyngałem lokalnym. Wówczas M jest
procesem Wienera.
Dowód. Musimy wykazać, że dla s < t, M
t
− M
s
jest niezależne od F
s
oraz
ma rozkład N (0, t − s). W tym celu wystarczy wykazać, że
E(e
ih(M
t
−M
s
)
|F
s
) = e
−
1
2
(t−s)h
2
dla t > s 0, h ∈ R.
(8)
Itotnie (8) implikuje, że Ee
ih(M
t
−M
s
)
= exp(−
1
2
(t − s)h
2
) dla h ∈ R, czyli
M
t
− M
s
∼ N (0, t − s). Ponadto dla dowolnej F
s
-mierzalnej zmiennej η oraz
h
1
, h
2
∈ R,
Ee
ih
1
(M
t
−M
s
)+ih
2
η
= E[e
ih
2
η
E(e
ih
1
(M
t
−M
s
)
|F
s
)]
= E[e
ih
2
η
e
−
1
2
(t−s)h
2
1
] = Ee
ih
2
η
Ee
ih
1
(M
t
−M
s
)
.
Zatem M
t
− M
s
jest niezależne od zmiennych F
s
-mierzalnych, czyli jest
niezależne od F
s
.
Zastosujmy wzór Itˆ
o dla f (x) = e
ihx
(wzór Itˆ
o zachodzi też dla funkcji
zespolonych, wystarczy dodać odpowiednie równości dla części rzeczywistej
i urojonej),
e
ihM
t
= f (M
t
) = f (M
0
) +
Z
t
0
f
0
(M
u
)dM
u
+
1
2
Z
t
0
f
00
(M
u
)dhM i
u
= 1 + ih
Z
t
0
e
ihM
u
dM
u
−
h
2
2
Z
t
0
e
ihM
u
du
= e
ihM
s
+ ih
Z
t
s
e
ihM
u
dM
u
−
h
2
2
Z
t
s
e
ihM
u
du.
72
Niech N :=
R
t
0
e
ihM
dM , wówczas N jest martyngałem lokalnym oraz z nie-
równości Dooba,
E sup
0¬s¬t
N
2
s
¬ 4E
Z
t
0
|e
ihM
u
|
2
du = 4t,
czyli N jest na każdym przedziale skończonym majoryzowany przez zmienną
całkowalną, zatem jest martyngałem. Ustalmy A ∈ F
s
, wtedy
E[e
ihM
t
1
A
] = E[e
ihM
s
1
A
] + E[(N
t
− N
s
)
1
A
] −
h
2
2
E[
Z
t
s
e
ihM
u
du
1
A
]
= E[e
ihM
s
1
A
] −
h
2
2
Z
t
s
E[e
ihM
u
1
A
]du.
Zdefiniujmy g(u) = E[e
ihM
s+u
1
A
], wtedy
g(t − s) = g(0) −
h
2
2
Z
t
s
g(u − s)du,
czyli
g(r) = g(0) −
h
2
2
Z
r
0
g(u)du.
Funkcja g jest ciągła, a zatem z powyższego wzoru jest różniczkowalna i
spełnia równanie różniczkowe
g
0
(r) = −
h
2
2
g(r)
Zatem g(r) = g(0) exp(−
1
2
h
2
r) dla r 0, czyli
E[e
ihM
t
1
A
] = E[e
ihM
s
1
A
]e
−
1
2
h
2
(t−s)
= E[e
ihM
s
−
1
2
h
2
(t−s)
1
A
],
stąd E(e
ihM
t
|F
s
) = exp(ihM
s
−
1
2
h
2
(t − s)) p.n. i
E(e
ih(M
t
−M
s
)
|F
s
) = e
−ihM
s
E(e
ihM
t
|F
s
) = e
−
1
2
h
2
(t−s)
.
Uwaga 5. Równoważnie Twierdzenie Levy’go można sformułować w na-
stępujący sposób:
Jeśli M ∈ M
c
loc
oraz hM i = t, to M − M
0
jest procesem Wienera.
Uwaga 6. Założenie ciągłości M jest fundamentalne. Jeśli położymy M
t
=
N
t
− t, gdzie N jest procesem Poissona z parametrem 1, to M
2
t
− t jest
martyngałem, a oczywiście M nie jest procesem Wienera.
Można też udowodnić wielowymiarową wersję twierdzenia Levy’ego.
73
Twierdzenie 7. Załóżmy, że M
(1)
, . . . , M
(d)
są ciągłymi martyngałami lo-
kalnymi takim, że M
(i)
0
= 0 oraz M
(i)
t
M
(j)
t
−δ
i,j
t są martyngałami lokalnymi
dla 1 ¬ i, j ¬ d. Wówczas M = (M
(1)
, . . . , M
(d)
) jest d-wymiarowym proce-
sem Wienera.
13.1
*Charakteryzacja procesu Wienera za pomocą martyn-
gałów wykładniczych
Twierdzenie 8. Załóżmy, że M jest ciągły, adaptowalny oraz M
0
= 0.
Wówczas M jest procesem Wienera wtedy i tylko wtedy gdy dla wszystkich
λ ∈ R, exp(λM
t
− λ
2
t/2) jest martyngałem lokalnym.
Dowód. To, że exp(λW
t
− λ
2
t/2) jest martyngałem jest prostym i dobrze
znanym faktem. Wystarczy więc udowodnić implikację ”⇐”.
Określmy τ
n
:= inf{t > 0 : |M
t
| n} ∧ n, wówczas τ
n
% ∞ oraz dla
wszystkich λ proces X
t
(λ) = exp(λM
t∧τ
n
− λ
2
t ∧ τ
n
/2) jest ograniczonym
martyngałem lokalnym (z dołu przez 0, z góry przez e
|λ|n
), a więc martyn-
gałem. Stąd
E[X
t
(λ)
1
A
] = E[X
s
(λ)
1
A
],
dla s < t, A ∈ F
s
.
Zauważmy, że X
t
(0) = 1 oraz
|
dX
t
(λ)
dλ
| = |X
t
(λ)(M
t∧τ
n
− λt ∧ τ
n
)| ¬ e
λ
0
n
(n + λ
0
n),
dla |λ| ¬ λ
0
.
Stąd z Twierdzenia Lebesque’a o zbieżności zmajoryzowanej dla t < s, A ∈
F
s
,
E[X
t
(λ)(M
t∧τ
n
− λt ∧ τ
n
)
1
A
] = lim
h→0
E[
1
h
(X
t
(λ + h) − X
t
(λ))
1
A
]
= lim
h→0
E[
1
h
(X
s
(λ + h) − X
s
(λ))
1
A
] = E[X
s
(λ)(M
s∧τ
n
− λs ∧ τ
n
)
1
A
].
Biorąc λ = 0 dostajemy E[M
t∧τ
n
1
A
] = E[M
s∧τ
n
1
A
], czyli M
τ
n
jest martyn-
gałem, a więc M ∈ M
2,c
loc
.
By skorzystać z twierdzenia Levy’ego i zakończyć dowód musimy jeszcze
wykazać, że M
2
t
− t ∈ M
2,c
loc
. Szacujemy dla |λ| ¬ λ
0
,
|
d
2
X
t
(λ)
dλ
2
| = |X
t
(λ)[(M
t∧τ
n
− t ∧ τ
n
)
2
− t ∧ τ
n
]| ¬ e
λ
0
n
[(n + λ
0
n)
2
+ n],
skąd w podobny sposób jak dla pierwszych pochodnych dowodzimy, że dla
t < s, A ∈ F
s
,
E[X
t
(λ)((M
t∧τ
n
−λt∧τ
n
)
2
−t∧τ
n
)
1
A
] = E[X
s
(λ)((M
s∧τ
n
−λs∧τ
n
)
2
−s∧τ
n
)
1
A
].
74
Podstawiając λ = 0 dostajemy
E[(M
2
t∧τ
n
− t ∧ τ
n
)
1
A
] = E[(M
2
s∧τ
n
− s ∧ τ
n
)
1
A
],
czyli (M
2
t
− t)
τ
n
jest martyngałem, więc M
2
t
− t ∈ M
2,c
loc
.
14
Stochastyczne Równania Różniczkowe
14.1
Jednorodne równania stochastyczne
Definicja 1. Załóżmy, że b, σ : R → R są funkcjami ciągłymi, a ξ zmienną
losową F
s
-mierzalną. Mówimy, że proces X = (X
t
)
t∈[s,T )
rozwiązuje jedno-
rodne równanie stochastyczne
dX
t
= b(X
t
)dt + σ(X
t
)dW
t
,
X
s
= ξ,
(9)
jeśli
X
t
= ξ +
Z
t
s
b(X
r
)dr +
Z
t
s
σ(X
r
)dW
r
,
t ∈ [s, T ).
Uwaga 2. Przyjeliśmy, że b i σ są funkcjami ciągłymi, by uniknąć proble-
mów związanych z mierzalnością i lokalną ograniczonością procesów b(X
r
)
i σ(X
r
). Rozważa się jednak również stochastyczne równania różniczkowe z
nieciągłymi współczynnikami.
Uwaga 3. Wprowadzając nowy proces ˜
X
t
:= X
t+s
, t ∈ [0, T −s) oraz filtra-
cję ˜
F
t
:= F
t+s
zamieniamy równanie różniczkowe (9) na podobne równanie
dla ˜
X z warunkiem początkowym ˜
X
0
= ξ.
Definicja 4. Proces X rozwiązujący równanie (9) nazywamy dyfuzją star-
tująca z ξ. Funkcję σ nazywamy
współczynnikiem dyfuzji, a funkcję b
współczynnikiem dryfu.
Przypomnijmy, że funkcja f : R → R jest lipschitzowska ze stałą L, jeśli
|f (x) − f (y)| ¬ L|x − y| dla wszystkich x, y. Lipschitzowskość implikuje też,
że
|f (x)| ¬ |f (0)| + L|x| ¬ ˜
L
p
1 + x
2
gdzie można przyjąć np. ˜
L = 2 max{|f (0)|, L}.
Twierdzenie 5. Załóżmy, że funkcje b i σ są lipschitzowskie na R, wówczas
równanie stochastyczne (9) ma co najwyżej jedno rozwiązanie (z dokładno-
ścią do nierozróżnialności).
75
Dowód. Bez straty ogólności możemy zakładać, że s = 0 oraz σ, b są lip-
schitzowskie z tą samą stałą L.
Załóżmy, że X
t
i Y
t
są rozwiązaniami, wówczas
X
t
− Y
t
=
Z
t
0
(b(X
r
) − b(Y
r
))dr +
Z
t
0
(σ(X
r
) − σ(Y
r
))dW
r
.
Krok I. Załóżmy dodatkowo, że funkcja u 7→ E|X
u
−Y
u
|
2
jest skończona
i ograniczona na przedziałach [0, t], t < T .
Mamy
E(X
t
− Y
t
)
2
¬ 2E
Z
t
0
(b(X
r
) − b(Y
r
))dr
2
+ 2E
Z
t
0
(σ(X
r
) − σ(Y
r
)dW
r
2
= I + II.
Z warunku Lipschitza i nierówności Schwarza
I ¬ 2L
2
E
Z
t
0
|X
r
− Y
r
|dr
2
¬ 2L
2
t
Z
t
0
E(X
r
− Y
r
)
2
dr.
By oszacować II zauważmy, że |σ(X
r
) − σ(Y
r
)| ¬ L|X
r
− Y
r
|, więc σ(X
r
) −
σ(Y
r
) ∈ L
2
t
. Stąd
II = 2E
Z
t
0
(σ(X
r
) − σ(Y
r
))
2
¬ 2L
2
Z
t
0
E(X
r
− Y
r
)
2
dr.
Ustalmy t
0
< T , wówczas z powyższych oszacowań wynika, że
E(X
t
− Y
t
)
2
¬ C
Z
t
0
E(X
r
− Y
r
)
2
dr
dla t ¬ t
0
,
gdzie C = C(t
0
) = 2L
2
(t
0
+ 1). Iterując powyższą nierówność dostajemy dla
t ¬ t
0
,
E(X
t
− Y
t
)
2
¬ C
Z
t
0
E(X
r
1
− Y
r
1
)
2
dr
1
¬ C
2
Z
t
0
Z
r
1
0
E(X
r
2
− Y
r
2
)
2
dr
2
¬ . . . ¬ C
k
Z
t
0
Z
r
1
0
· · ·
Z
r
k−1
0
E(X
r
k
− Y
r
k
)
2
dr
k
. . . dr
1
¬ C
k
sup
r¬t
E(X
r
− Y
r
)
2
Z
t
0
Z
r
1
0
· · ·
Z
r
k−1
0
dr
k
. . . dr
1
= C
k
sup
r¬t
E(X
r
− Y
r
)
2
t
k
k!
k7→∞
−→ 0.
76
Stąd dla wszystkich t < T , E(X
t
− Y
t
)
2
= 0, czyli X
t
= Y
t
p.n., a więc z
ciągłości obu procesów, X i Y są nieodróżnialne.
Krok II. X i Y dowolne. Określmy
τ
n
:= inf{t s : |X
t
| + |Y
t
| n}
i zauważmy, że |X
t
|
1
(0,τ
n
]
, |X
0
t
|
1
(0,τ
n
]
¬ n. Ponieważ w zerze oba procesy
się pokrywają, więc |X
τ
n
t
− Y
τ
n
t
| ¬ 2n, stąd |σ(X
τ
n
t
) − σ(Y
τ
n
t
)| ¬ 2Ln i
σ(X
τ
n
) − σ(Y
τ
n
) ∈ L
2
t
dla t < T . Mamy
X
t∧τ
n
− Y
t∧τ
n
=
Z
t∧τ
n
0
(b(X
r
) − b(Y
r
))dr +
Z
t∧τ
n
0
(σ(X
r
) − σ(Y
r
))dW
r
=
Z
t∧τ
n
0
(b(X
τ
n
r
) − b(Y
τ
n
r
))dr +
Z
t∧τ
n
0
(σ(X
τ
n
r
) − σ(Y
τ
n
r
))dW
r
.
Naśladując rozumowanie z kroku I dostajemy X
t∧τ
n
= Y
t∧τ
n
p.n., przecho-
dząc z n → ∞ mamy X
t
= Y
t
p.n..
Twierdzenie 6. Załóżmy, że funkcje b i σ są lipschitzowskie na R oraz
Eξ
2
< ∞, wówczas równanie stochastyczne (9) ma dokładnie jedno roz-
wiązanie X = (X
t
)
ts
. Co więcej EX
2
t
< ∞ oraz funkcja t → EX
2
t
jest
ograniczona na przedziałach ograniczonych.
Dowód. Jak w poprzednim twierdzeniu zakładamy, że s = 0. Jednoznacz-
ność rozwiązania już znamy. By wykazać jego istnienie posłużymy się kon-
strukcją z użyciem metody kolejnych przybliżeń. Określamy X
(0)
t
(ω) := ξ(ω)
oraz indukcyjnie
X
(n)
t
:= ξ +
Z
t
0
b(X
(n−1)
r
)dr +
Z
t
0
σ(X
(n−1)
r
)dW
r
.
(10)
Definicja jest poprawna (tzn. całki są dobrze określone), gdyż X
(n)
t
są proce-
sami ciągłymi, adaptowalnymi. Ponadto indukcyjnie pokazujemy, że funkcja
r → E|X
(n)
r
|
2
jest ograniczona na przedziałach skończonych:
E|X
(n)
t
|
2
¬ 3
h
Eξ
2
+ E
Z
t
0
|b(X
(n−1)
r
)|dr
2
+ E
Z
t
0
σ(X
(n−1)
r
)dW
r
2
i
¬ 3
h
Eξ
2
+ tE
Z
t
0
|b(X
(n−1)
r
)|
2
dr + E
Z
t
0
|σ(X
(n−1)
r
)|
2
dr
i
¬ 3
h
Eξ
2
+ ˜
L
2
(1 + t) sup
0¬r¬t
E|X
(n−1)
r
|
2
i
.
Zatem X
(n)
∈ L
2
t
, a więc również σ(X
(n)
) ∈ L
2
t
.
77
Zauważmy, że wobec nierówności (a + b)
2
¬ 2a
2
+ 2b
2
i niezależności ξ i
W
t
, dla t ¬ t
0
zachodzi
E|X
(1)
t
− X
(0)
t
|
2
= E
Z
t
0
b(ξ)dr +
Z
t
0
σ(ξ)dW
r
2
= E(b(ξ)t + σ(ξ)W
t
)
2
¬ 2t
2
Eb(ξ)
2
+ 2Eσ(ξ)
2
EW
2
t
) ¬ 2 ˜
L
2
(1 + Eξ
2
)(t + t
2
) ¬ C,
gdzie C = C(t
0
) = 2 ˜
L
2
(1 + Eξ
2
)(t
0
+ t
2
0
). Podobnie szacujemy dla t ¬ t
0
,
E|X
(n+1)
t
− X
(n)
t
|
2
= E
h
Z
t
0
(b(X
(n)
r
) − b(X
(n−1)
r
))dr +
Z
t
0
(σ(X
(n)
r
) − σ(X
(n−1)
r
))dW
r
i
2
¬ 2E
h
Z
t
0
|b(X
(n)
r
) − b(X
(n−1)
r
)|dr
i
2
+ 2E
h
Z
t
0
(σ(X
(n)
r
) − σ(X
(n−1)
r
))dW
r
i
2
¬ 2E
h
Z
t
0
L|X
(n)
r
− X
(n−1)
r
|dr
i
2
+ 2E
Z
t
0
|σ(X
(n)
r
) − σ(X
(n−1)
r
)|
2
dr
¬ 2L
2
(t + 1)E
Z
t
0
|X
(n)
r
− X
(n−1)
r
|
2
dr ¬ C
1
Z
t
0
E|X
(n)
r
− X
(n−1)
r
|
2
dr,
gdzie C
1
= C
1
(t
0
) = 2L
2
(t
0
+ 1). Iterując to szacowanie dostajemy
E|X
(n+1)
t
− X
(n)
t
|
2
¬ C
2
1
Z
t
0
Z
r
1
0
E|X
(n−1)
r
2
− X
(n−2)
r
2
|
2
dr
2
dr
1
¬ · · · ¬ C
n
1
Z
t
0
Z
r
1
0
· · ·
Z
r
n−1
0
E|X
(1)
r
n
− X
(0)
r
n
|
2
dr
n
. . . dr
1
¬ C
n
1
C
Z
t
0
Z
r
1
0
· · ·
Z
r
n−1
0
dr
n
. . . dr
1
= CC
n
1
t
n
n!
,
Pokazaliśmy zatem, że kX
(n+1)
t
− X
(n)
t
k
2
L
2
¬ CC
n
1
t
n
n!
dla t ¬ t
0
. Ponieważ
szereg
P
n
(CC
n
1
t
n
n!
)
1/2
jest zbieżny, więc (X
(n)
t
)
n0
jest ciągiem Cauchy’ego
w L
2
, czyli jest zbieżny. Z uwagi na jednostajność szacowań wykazaliśmy
istnienie X
t
takiego, że
X
(n)
t
→ X
t
w L
2
jednostajnie na przedziałach ograniczonych.
Stąd też wynika, że t 7→ EX
2
t
jest ograniczona na przedziałach ograniczo-
nych.
Wykażemy teraz, że X
(n)
t
z prawdopodobieństwem 1 zbiega do X
t
niemal
jednostajnie. Zauważmy, że dla t
0
< ∞
P
sup
t¬t
0
|X
(n+1)
t
− X
(n)
t
|
1
2
n
¬ P
sup
t¬t
0
Z
t
0
|b(X
(n)
r
) − b(X
(n−1)
r
)|dr
1
2
n+1
+ P
sup
t¬t
0
|
Z
t
0
(σ(X
(n)
r
) − σ(X
(n−1)
r
))dW
r
|
1
2
n+1
= I + II.
78
Mamy
I ¬ P
Z
t
0
0
|b(X
(n)
r
) − b(X
(n−1)
r
)|dr
1
2
n+1
¬ 4
n+1
E
Z
t
0
0
|b(X
(n)
r
) − b(X
(n−1)
r
)|dr
2
¬ 4
n+1
L
2
E
Z
t
0
0
|X
(n)
r
− X
(n−1)
r
|dr
2
¬ 4
n+1
L
2
t
0
E
Z
t
0
0
|X
(n)
r
− X
(n−1)
r
|
2
dr
¬ 4
n+1
L
2
t
0
Z
t
0
0
CC
n−1
1
r
n−1
(n − 1)!
dr = 4
n+1
L
2
CC
n−1
1
t
n+1
0
1
n!
.
Z nierównośći Dooba dla martyngału
R
(σ(X
(n)
) − σ(X
(n−1)
))dW dostajemy
II ¬ 4
n+1
E sup
t¬t
0
Z
t
0
(σ(X
(n)
r
) − σ(X
(n−1)
r
))dW
r
2
¬ 4
n+2
E
Z
t
0
0
(σ(X
(n)
r
) − σ(X
(n−1)
r
))dW
r
2
= 4
n+2
E
Z
t
0
0
(σ(X
(n)
r
) − σ(X
(n−1)
r
))
2
dr ¬ 4
n+2
L
2
E
Z
t
0
0
|X
(n)
r
− X
(n−1)
r
|
2
dr
¬ 4
n+2
L
2
CC
n−1
1
t
n
0
1
n!
.
Przyjmując
A
n
:=
n
sup
t¬t
0
|X
(n+1)
t
− X
(n)
t
|
1
2
n
o
dostajemy
X
n
P(A
n
) ¬
X
n
4
n+1
(4 + t
0
)L
2
CC
n−1
1
t
n
0
1
n!
< ∞,
więc P(lim sup A
n
) = 0. Zatem dla t
0
< ∞ X
(n)
zbiega jednostajnie na [0, t
0
]
z prawdopodobieństwem 1, czyli z prawdopodobieństwem 1 zbiega niemal
jednostajnie. Ewentualnie modyfikując X i X
(n)
na zbiorze miary zero wi-
dzimy, że X jest granicą niemal jednostajną X
(n)
, czyli X ma trajektorie
ciągłe.
Ze zbieżności X
(n)
r
do X
r
w L
2
jednostajnej na [0, t] oraz lipschitzow-
skości b i σ łatwo wynika zbieżność w L
2
,
R
t
0
b(X
(n)
r
)dr i
R
t
0
σ(X
(n)
r
)dr do
odpowiednio
R
t
0
b(X
r
)dr i
R
t
0
σ(X
r
)dW
r
, zatem możemy przejść w (10) do
granicy by otrzymać dla ustalonego t < T
X
t
:= ξ +
Z
t
0
b(X
r
)dr +
Z
t
0
σ(X
r
)dW
r
p.n.
79
Oba procesy X i ξ +
R
b(X)dr +
R
σ(X)dW są ciągłe, zatem są nierozróż-
nialne.
Przykład 1. Stosując wzór Itˆ
o łatwo sprawdzić, że proces X
t
= ξ exp(λW
t
−
λ
2
2
t) jest rozwiązaniem równania
dX
t
= λX
t
dW
t
,
X
0
= ξ.
Jest to jedyne rozwiązanie tego równania, gdyż b = 0 oraz σ(x) = λx są
funkcjami lipschitzowskimi.
Przykład 2. Proces
X
t
= e
bt
xi + s
Z
t
0
e
b(t−s)
dW
s
jest rozwiązaniem równania
dX
t
= bX
t
dt + s
2
dW
t
,
X
0
= ξ.
Jest to jedyne rozwiązanie, gdyż funkcje b(x) = bx oraz σ(x) = s
2
są lip-
schitzowskie. Jeśli b < 0 oraz ξ ma rozkład N (0, −
1
2b
s
2
), to proces X jest
stacjonarny (proces Ornsteina-Uhlenbecka).
14.2
Równania niejednorodne
Często współczynniki równania zależą nie tylko od x, ale i od czasu.
Definicja 7. Załóżmy, że b, σ : R
2
→ R są funkcjami ciągłymi, a ξ zmienną
losową F
s
-mierzalną. Mówimy, że proces X = (X
t
)
t∈[s,T )
rozwiązuje rów-
nanie stochastyczne
dX
t
= b(t, X
t
)dt + σ(t, X
t
)dW
t
,
X
s
= ξ,
(11)
jeśli
X
t
= ξ +
Z
t
s
b(r, X
r
)dr +
Z
t
s
σ(r, X
r
)dW
r
,
t ∈ [s, T ).
Dla równania niejednorodnego naturalne są następujące warunki Lip-
schitza
|b(t, x) − b(t, y)| ¬ L|x − y|,
|b(t, x)| ¬ ˜
L
p
1 + x
2
,
|σ(t, x) − σ(t, y)| ¬ L|x − y|,
|σ(t, x)| ¬ ˜
L
p
1 + x
2
.
80
Twierdzenie 8. Załóżmy, że funkcje b i σ spełniają warunki lipschitza.
Wówczas dla dowolnej zmiennej ξ, F
s
-mierzalnej takiej, że Eξ
2
< ∞ istnieje
dokładnie jedno rozwiązanie (11). Co więcej rozwiązanie to daje się otrzymać
metodą kolejnych przybliżeń jak w przypadku jednorodnym.
Przykład 3. Równanie
dX
t
= σ(t)X
t
dW
t
,
X
0
= ξ.
(12)
spełnia założenia twierdzenia, jeśli sup
t
|σ(t)| < ∞. By znaleźć jego rozwią-
zanie sformułujmy ogólniejszy fakt.
Fakt 9. Załóżmy, że M jest ciągłym martyngałem lokalnym, zaś Z
0
zmienną
F
0
-mierzalną. Wówczas proces Z
t
= exp(M
t
−
1
2
hM i
t
) jest martyngałem
lokalnym takim, że dZ
t
= Z
t
dM
t
, tzn. Z
t
= Z
0
+
R
t
0
Z
s
dM
s
.
Dowód. Z wzoru Itˆ
o dla semimartyngału X
t
= M
t
−
1
2
hM i
t
dostajemy
dZ
t
= d(Z
0
e
X
t
) = Z
0
e
X
t
dX
t
+
1
2
Z
0
e
X
t
dhM i
t
= Z
0
e
X
t
dM
t
= Z
t
dM
t
.
Proces Z jest martyngałem lokalnym na mocy konstrukcji całki stochastycz-
nej.
Wracając do Przykładu 3 zauważamy, że M
t
=
R
t
0
σ(s)dW
s
jest martyn-
gałem lokalnym, więc rozwiązanie równania (12) ma postać
X
t
= ξ exp(M
t
−
1
2
hM i
t
) = ξ exp(
Z
t
0
σ(s)dW
s
−
1
2
Z
t
0
σ(s)
2
ds).
Przykład 4. Rozpatrzmy niejednorodne równanie liniowe postaci
dY
t
= b(t)Y
t
dt + σ(t)Y
t
dW
t
,
X
0
= ξ.
Współczynniki b(t, y) = b(t)y i σ(t, y) = σ(t)y spełniają warunki lipschit-
za, jeśli sup
t
|b(t)|, sup
t
|σ(t)| < ∞. By znaleźć rozwiązanie załóżmy, że jest
postaci X
t
= g(t)Y
t
, gdzie dY
t
= σ(t)Y
t
dW
t
, Y
0
= ξ, postać Y znamy z
Przykładu 3. Wówczas, z dwuwymiarowego wzoru Itˆ
o
dX
t
= g
0
(t)Y
t
dt + g(t)dY
t
= g
0
(t)Y
t
dt + σ(t)X
t
dW
t
.
Wystarczy więc rozwiązać równanie
g
0
(t) = σ(t)g(t),
g(0) = 1
by dostać
X
t
= Y
t
g(t) = ξ exp(
Z
t
0
σ(s)dW
s
−
1
2
Z
t
0
σ(s)
2
ds +
Z
t
0
σ(s)ds).
81
14.3
Przypadek wielowymiarowy
Zanim sformułujemy odpowiednik wcześniejszych wyników dla przypadku
wielowymiarowego wprowadzimy wygodne ustalenia notacyjne.
Definicja 10. Niech W = (W
(1)
, . . . , W
(d)
) będzie d-wymiarowym procesem
Wienera. Dla X = [X
(i,j)
]
1¬i¬m,1¬j¬d
macierzy m × d złożonej z procesów
z Λ
2
T
określamy m-wymiarowy proces
M
t
= (M
(1)
t
, . . . , M
(m)
t
) =
Z
t
0
X
s
dW
s
,
0 ¬ t < T
wzorem
M
(i)
t
=
d
X
j=1
Z
t
0
X
(i,j)
s
dW
(j)
s
,
1 ¬ i ¬ m.
Przy powyżej wprowadzonej notacji możemy zdefiniować wielowymiaro-
we równania stochastyczne.
Definicja 11. Załóżmy, że b : R
m
→ R
m
, σ : R
m
→ R
m×d
są funkcjami
ciągłymi, W = (W
(1)
, . . . , W
(d)
) jest d-wymiarowym procesem Wienera, a
ξ = (ξ
1
, . . . , ξ
m
), m-wymiarowym, F
s
-mierzalnym wektorem losowym. Mó-
wimy, że m-wymiarowy proces X = (X
(1)
t
, . . . , X
(m)
t
)
t∈[s,T )
rozwiązuje jed-
norodne wielowymiarowe równanie stochastyczne
dX
t
= b(X
t
)dt + σ(X
t
)dW
t
,
X
s
= ξ,
jeśli
X
t
= ξ +
Z
t
s
b(X
r
)dr +
Z
t
s
σ(X
r
)dW
r
,
t ∈ [s, T ).
Tak jak w przypadku jednowymiarowym dowodzimy:
Twierdzenie 12. Załóżmy, że ξ = (ξ
1
, . . . , ξ
m
) jest m-wymiarowym, F
s
-
mierzalnym wektorem losowym takim, że Eξ
2
j
< ∞ dla 1 ¬ j ¬ m, b : R
m
→
R
m
, σ : R
m
→ R
d×m
są funkcjami lipschitzowskimi oraz W jest d-wymiarowym
procesem Wienera. Wówczas równanie
dX
t
= b(X
t
)dt + σ(X
t
)dW
t
,
X
s
= ξ
ma dokładnie jedno rozwiązanie X = (X
(1)
t
, . . . , X
(m)
t
)
ts
. Ponadto
E sup
s¬t¬u
E|X
(i)
t
|
2
< ∞
dla u < ∞.
82
14.4
Generator procesu dyfuzji.
W tej części zakładamy, że b = (b
i
)
i¬m
: R
m
→ R
m
, σ = (σ
i,j
)
i¬m,j¬d
: R
m
→
R
m×d
są funkcjami ciągłymi, zaś W = (W
(1)
, . . . , W
(d)
) jest d-wymiarowym
procesem Wienera
Definicja 13. Generatorem m-wymiarowego procesu dyfuzji spełniającego
stochastyczne równanie różniczkowe
dX
t
= b(X
t
)dt + σ(X
t
)dW
t
nazywamy operator różniczkowy drugiego rzędu dany wzorem
Lf (x) =
n
X
i=1
b
i
(x)
∂f
∂x
i
(x) +
1
2
n
X
i=1
d
X
j=1
σ
i,j
(x)
∂
2
f
∂x
i
∂x
j
(x),
f ∈ C
2
(R
m
).
Definicja ta jest motywowana przez poniższy prosty, ale bardzo ważny
fakt.
Fakt 14. Załóżmy, że L jest generatorem procesu dyfuzji spełniającego rów-
nanie dX
t
= b(X
t
)dt+σ(X
t
)dW
t
. Wówczas dla dowolnej funkcji f ∈ C
2
(R
m
)
takiej, że f (X
0
) jest całkowalne, proces M
f
t
:= f (X
t
) −
R
t
0
Lf (X
s
)ds jest cią-
głym martyngałem lokalnym. Ponadto, jeśli f ma dodatkowo nośnik zwarty,
to M
f
t
jest martyngałem.
Dowód. Ze wzoru Itˆ
o łatwo sprawdzić, że
M
f
t
= f (X
0
) +
n
X
i=1
d
X
j=1
Z
t
0
σ
i,j
(X
t
)
∂f
∂x
i
(X
t
)dW
(j)
t
∈ M
c
loc
.
Jeśli f ∈ C
2
zw
(R
m
), to funkcje σ
i,j
(x)
∂f
∂x
i
(x) są ciągłe i mają nośnik zwarty
w R
m
, więc są ograniczone, zatem procesy σ
i,j
(X
t
)
∂f
∂x
i
(X
t
) należą do L
2
T
dla dowolnego T < ∞, więc M
f
t
jest martyngałem (a nawet martyngałem
całkowalnym z kwadratem).
Uwaga 15. Założenie o zwartym nośniku f można w wielu przykładach
istotnie osłabić. Załóżmy, że współczynniki b i σ są lipschitzowskie oraz
X
0
∈ L
2
. Wówczas jak wiemy X
t
jest w L
2
oraz sup
t¬T
EX
2
t
< ∞ dla
T < ∞. Stąd nietrudno sprawdzić (używając lipschitzowskości σ
i,j
, że jeśli
pochodne f są ograniczone, to σ
i,j
(X
t
)
∂f
∂x
i
(X
t
) ∈ L
2
T
dla T < inf ty, zatem
M
f
t
jest martyngałem.
83
Przykłady
Generatorem d-wymiarowego procesu Wienera jest operator Lf =
1
2
4f .
Jeśli X = (X
1
, . . . , X
d
) spełnia
dX
(
t
i) = bX
(i)
t
dt + σdW
(i)
t
,
i = 1, . . . , m
(m-wymiarowy proces Ornsteina-Uhlenbecka), to Lf (x) = bhx, ∇f (x)i +
1
2
σ
2
4f .
Wykład zakończymy przykładem pokazującym związek między stocha-
stycznymi równaniami różniczkowymi a równaniami cząstkowymi. Dokładna
analiza takich związków jest ważną dziedziną łączącą rozumowania anali-
tyczne i probabilistyczne. Nieco więcej na ten temat można się będzie do-
wiedzieć na przedmiocie Procesy Stochastyczne.
Przykład
Dla x ∈ R
m
niech X
x
t
będzie rozwiązaniem równania stochastycznego
dX
x
t
= b(X
x
t
)dt + σ(X
x
t
)dW
t
,
X
0
t
= x,
zaś L odpowiadającym mu generatorem. Załóżmy, że D jest obszarem ogra-
niczonym oraz f spełnia równanie cząstkowe
Lf (x) = 0, x ∈ D,
f (x) = h(x)x ∈ ∂D.
Załóżmy dodatkowo, że f daje się rozszerzyć do funkcji klasy C
2
na pew-
nym otoczeniu D. Wówczas f się rozszerza też do funkcji klasy C
2
zw
(R
m
).
Wybierzmy x ∈ D i określmy
τ = inf{t > 0 : X
x
t
/
∈ D}.
Wiemy, że proces M
t
= f (X
x
t
) −
R
t
0
Lf (X
x
s
)ds jest martyngałem, zatem
martyngałem jest również M
t∧τ
, ale
M
t∧τ
= f (X
x
t∧τ
) −
Z
∧τ
0
tLf (X
x
s
)ds = f (X
x
t∧τ
),
w szczegóności
Ef (X
x
t∧τ
) = EM
t∧τ
= EM
0
= f (x).
Jeśli dodatkowo τ < ∞ p.n. (to założenie jest spełnione np. dla procesu
Wienera), to z twierdzenia Lebesgue’a o zbieżności zmajoryzowanej
f (x) = Ef (X
x
t∧τ
) → Ef (X
x
τ
) = Eh(X
x
τ
).
84
Otrzynaliśmy więc stochastyczną reprezentację rozwiązania eliptycznego rów-
nania cząstkowego.
Podobne rozumowanie pokazuje, że (przy pewnych dodatkowych założe-
niach) rozwiązanie równania
Lf (x) = g(x), x ∈ D,
f (x) = h(x)x ∈ ∂D
ma postać
f (x) = Eh(X
x
τ
) = E
Z
τ
0
g(X
x
s
)ds,
x ∈ D.
15
Twierdzenie Girsanowa
W czasie tego wykładu przyjmujemy jak zwykle, że (Ω, F , P) jest ustaloną
przestrzenią probabilistyczną. Będziemy konstruowali inne miary probabili-
styczne na przestrzeni (Ω, F ) względem których proces Wienera z dryfem
ma taki rozkład jak zwykły proces Wienera. Przez EX będziemy rozumieli
zawsze wartość oczekiwaną względem P, wartość oczekiwaną X względem
innej miary Q będziemy oznaczać E
Q
X. Zauważmy, że jeśli dQ = ZdP, tzn.
Q(A) =
R
A
ZdP, to
E
Q
X =
Z
XdQ =
Z
XZdP = E(XZ).
15.1
Przypadek Dyskretny
Załóżmy, że zmienne Z
1
, Z
2
, . . . , Z
n
są niezależne i mają standardowy roz-
kład normalny N (0, 1). Wprowadźmy nową miarę Q na ((Ω, F) wzorem
dQ = exp(
P
n
i=1
µ
i
Z
i
−
1
2
P
n
i=1
µ
2
i
)dP, tzn.
Q(A) =
Z
A
exp(
n
X
i=1
µ
i
Z
i
(ω) −
1
2
n
X
i=1
µ
2
i
)dP(ω)
dla A ∈ F .
Zauważmy, że
Q(Ω) = E exp(
n
X
i=1
µ
i
Z
i
−
1
2
n
X
i=1
µ
2
i
) =
n
Y
i=1
E exp(µ
i
Z
i
−
1
2
µ
2
i
) = 1,
85
więc Q jest miarą probabilistyczną na (Ω, F). Ponadto dla dowolnego zbioru
Γ ∈ B(R
n
),
Q((Z
1
, . . . , Z
n
) ∈ Γ) = E exp(
n
X
i=1
µ
i
Z
i
−
1
2
n
X
i=1
µ
2
i
)
1
{(Z
1
,...,Z
n
)∈Γ}
=
1
(2π)
n/2
Z
Γ
e
P
n
i=1
µ
i
z
i
−
1
2
P
n
i=1
µ
2
i
e
−
1
2
P
n
i=1
z
2
i
dz
1
. . . dz
n
=
1
(2π)
n/2
Z
Γ
e
−
1
2
P
n
i=1
(z
i
−µ
i
)
2
dz
1
. . . dz
n
.
Zatem względem miary Q zmienne Z
i
− µ
i
są niezależne oraz mają rozkład
N (0, 1).
Definiując S
k
= X
1
+ . . . + X
k
widzimy, że względem Q zmienne (S
k
−
P
k
i=1
µ
i
)
k¬n
są sumami niezależnych standardowych zmiennych normalnych
(czyli mają ten sam rozkład co (S
k
)
k
względem P). Podczas dalszej części
wykładu pokażemy, że można podobny fakt sformułować w przypadku cią-
głym, gdy S
k
zastąpimy procesem Wienera, a sumy
P
k
i=1
µ
i
całką
R
t
0
Y
s
ds.
15.2
Twierdzenie Girsanowa dla procesu Wienera
Załóżmy, że T < ∞, proces Y = (Y
t
)
t<T
jest prognozowalny oraz
R
T
0
Y
2
t
< ∞
p.n., wówczas Y ∈ Λ
2
T
, proces M
t
=
R
Y dW jest martyngałem lokalnym na
[0, T ) oraz hM i =
R
Y
2
dt. Co więcej można też określić wartość M i Z w
punkcie T . Zatem jak wiemy (zob. Fakt 9) proces
Z
t
:= exp(M
t
−
1
2
hM i
t
) = exp(
Z
t
0
Y
s
dW
s
−
1
2
Z
t
0
Y
2
s
ds)
jest martyngałem lokalnym na [0, T ]
Lemat 1. Jeśli M jest ciągłym martyngałem lokalnym na [0, T ], to proces
Z
t
= exp(M
t
−
1
2
hM i
t
) jest martyngałem na przedziale skończonym [0, T ]
wtedy i tylko wtedy, gdy EZ
T
= 1.
Dowód. Implikacja ”⇒” jest oczywista, bo EZ
T
= EZ
0
= 1. Wystarczy więc
udowodnić ”⇐”.
Wiemy, że Z jest nieujemnym martyngałem lokalnym, zatem jest nad-
martyngałem. Ustalmy t ∈ [0, T ], wówczas Z
t
E(Z
T
|F
t
) p.n.. Ponadto
1 = EZ
0
EZ
t
EZ
T
, czyli, jeśli EZ
T
= 1, to EZ
t
= 1 i
E(Z
t
− E(Z
T
|F
t
)) = EZ
t
− EZ
T
= 0,
a więc Z
t
= E(Z
T
|F
t
) p.n..
86
Twierdzenie 2. Załóżmy, że T < ∞, proces Y jest prognozowalny oraz
R
T
0
Y
2
s
ds < ∞¿. Niech Z
t
= exp(
R
t
0
Y
s
dW
s
−
1
2
R
t
0
Y
2
s
ds), wówczas, jeśli
EZ
T
= 1 (czyli Z jest martyngałem na [0, T ]), to proces
V
t
= W
t
−
Z
t
0
Y
s
ds,
t ∈ [0, T ]
jest procesem Wienera względem wyjściowej filtracji na zmodyfikowanej prze-
strzeni propabilistycznej (Ω, F , Q
T
), gdzie dQ
T
= Z
T
dP, tzn.
Q
T
(A) =
Z
A
Z
T
dP,
A ∈ F .
Dowód. Zmienna Z
T
jest nieujemna i EZ
T
= 1, więc Q
T
jest miarą proba-
bilistyczną. Zauważmy też, że jeśli P(A) = 0, to Q
T
(A) = 0, czyli zdarzenia,
które zachodzą P prawie na pewno, zachodzą też Q
T
prawie na pewno. Pro-
ces V jest ciągły, adaptowalny względem F
t
oraz V
0
= 0. Wystarczy zatem
wykazać, że dla λ ∈ R, proces U
t
= U
t
(λ) =:= exp(λV
t
−
1
2
λ
2
t) jest martyn-
gałem lokalnym względem Q
T
. Zauważmy, że
U
t
Z
t
= exp(λV
t
−
1
2
λ
2
t) exp(
Z
t
0
Y
s
dW
s
−
Z
t
0
Y
2
s
ds)
= exp(λW
t
+
Z
t
0
Y
s
dW
s
−
1
2
Z
t
0
(2λY
s
+ λ
2
+ Y
2
s
)ds)
= exp(
Z
t
0
(λ + Y
s
)dW
s
−
1
2
Z
t
0
(λ + Y
s
)
2
ds) = exp(N
t
−
1
2
hN i
t
),
gdzie N =
R
(λ + Y )dW ∈ M
c
loc
. Zatem proces U Z jest martyngałem lokal-
nym względem P, czyli istnieją τ
n
% T takie, że U
τ
n
Z
τ
n
jest martyngałem.
Ustalmy n, wtedy dla dowolnego ograniczonego momentu zatrzymania τ ,
E
Q
T
U
0
= E(U
0
Z
T
) = E(U
0
E(Z
T
|F
0
)) = E(U
0
Z
0
) = E(U
τ
n
∧τ
Z
τ
n
∧τ
)
= E(U
τ
n
∧τ
E(Z
T
|F
τ
n
∧τ
) = E(U
τ
n
∧τ
Z
T
) = E
Q
T
U
τ
n
∧τ
,
zatem z twierdzenia odwrotnego do twierdzenia Dooba wynika, że U
τ
n
jest
martyngałem względem Q
T
, czyli U jest Q
T
-martyngałem lokalnym.
W pewnych zastosowaniach wygodnie jest mieć miarę względem której
proces W −
R
Y ds jest procesem Wienera na całej półprostej [0, ∞).
Twierdzenie 3. Załóżmy, że Y ∈ Λ
2
∞
, zaś proces Z
t
i miary Q
T
dla T < ∞
są jak poprzednio. Wówczas, jeśli EZ
t
= 1 dla wszystkich t (czyli Z jest
martyngałem na [0, ∞)), to istnieje dokładnie jedna miara probabilistyczna
Q na (Ω, F
W
∞
) taka, że Q(A) = Q
T
(A) dla A ∈ F
W
T
i T < ∞. Proces
V = W −
R
Y ds jest względem Q procesem Wienera na [0, ∞).
87
Szkic Dowodu.. Na zbiorach postaci A = {(W
t
1
, W
t
2
, . . . , W
t
k
) ∈ Γ}, 0 ¬
t
1
¬ t
2
¬ . . . ¬ t
k
¬ T , Γ ∈ B(R
k
) kładziemy Q(A); = Q
T
(A). Otrzymujemy
w ten sposób zgodną rodzinę miar probabilistycznych i na mocy twierdzenia
Kołmogorowa Q przedłuża się w spośób jednoznaczny do miary na F
W
∞
.
Uwaga 4. O ile miara Q
T
jest absolutnie ciągła względem P (tzn. Q
T
(A) =
0, jeśli P(A) = 0), to miara Q zadana przez ostatnie twierdzenie taka być
nie musi. Istotnie określmy Y
t
≡ µ 6= 0, czyli V
t
= W
t
− µt. Niech
A := {ω : lim sup
1
t
W
t
(ω) = 0},
B := {ω : lim sup
1
t
V
t
(ω) = 0} = {ω : lim sup
1
t
W
t
(ω) = µ}.
Wówczas z mocnego prawa wielkich liczb dla proceseu Wienera P(A) = 1
oraz P(B) = 0, z drugiej strony Q(B) = 1, zatem miary P i Q są wzajemnie
singularne na F
W
∞
, mimo, że po odbcięciu do F
W
T
dla T < ∞ są względem
siebie absolutnie ciągłe. Można pokazać, że albsolutna ciągłość Q względem
P wiąże się z jednostajną całkowalnością martyngału Z.
Naturalne jest pytanie kiedy spełnione są założenia twierdzenia Girsano-
wa, czyli kiedy Z jest martyngałem. Użyteczne jest następujące kryterium.
Twierdzenie 5 (Kryterium Nowikowa). Jeśli Y jest procesem prognozo-
walnym spełniającym warunek E exp(
1
2
R
T
0
Y
2
s
ds) < ∞, to spełnione są zało-
żenia twierdzenia Girsanowa, tzn. proces Z = exp(
R
Y dW −
1
2
R
Y
2
dt) jest
martyngałem na [0, T ].
Kryterium Nowikowa jest konsekwencją silniejszego twierdzenia.
Twierdzenie 6. Załóżmy, że M jest ciągłym martyngałem lokalnym ta-
kim, że dla wszystkich t, E exp(
1
2
hM i
t
) < ∞. Niech Z
t
= exp(M
t
−
1
2
hM i),
wówczas EZ
t
= 1 dla wszystkich t, czyli Z jest martyngałem.
Twierdzenie Girsanowa można sformułować też w przypadku wielowy-
miarowym.
Twierdzenie 7. Załóżmy, że Y = (Y
(1)
, . . . , Y
(d)
) proces d-wymiarowy
taki, że Y
(j)
∈ Λ
2
T
oraz T < ∞. Niech W = (W
(1)
, . . . , W
(d)
) będzie d-
wymiarowym procesem Wienera oraz
Z
t
= exp(
d
X
i=1
Z
Y
(i)
s
dW
(i)
t
−
1
2
Z
t
0
|Y
s
|
2
ds).
88
Wówczas, jeśli EZ
T
= 1 (czyli Z
t
jest martyngałem na [0, T ]), to proces
V
t
= W
t
−
Z
t
0
Y
s
ds = (W
(1)
t
−
Z
t
0
Y
(1)
ds, . . . , W
(d)
t
−
Z
t
0
Y
(d)
s
ds)
jest procesem Wienera na [0, T ] względem miary probabilistycznej Q
t
takiej,
że dQ
T
= Z
T
dP.
Kryterium Nowikowa w przypadku d-wymiarowym ma postać
Twierdzenie 8. Jeśli Y jest d-wymiarowym procesem prognozowalnym speł-
niającym warunek E exp(
1
2
R
T
0
|Y
s
|
2
ds) < ∞, to spełnione są założenia twier-
dzenia Girsanowa.
A
Wybrane Fakty z z Rachunku Prawdopodobień-
stwa i Analizy Matematycznej
W części tej zebraliśmy kilka stwierdzeń, na które się wcześniej powoływali-
śmy. Fakty te, choć nieco mniej standardowe, są zwykle dowodzone w czasie
kursowych wykładów z analizy matematycznej i rachunku prawdopodobień-
stwa.
Definicja 1. Rodzinę S podzbiorów zbioru X nazywamy π-układem, jeśli
dla dowolnych A, B ∈ S, zbiór A ∩ B ∈ S.
Definicja 2. Rodzinę A podzbiorów zbioru X nazywamy λ-układem, jeśli
spełnione są następujące waruki
(i) X ∈ A.
(ii) Jeśli A, B ∈ A i A ⊂ B, to B \ A ∈ A.
(iii) Jeśli A
i
∈ A dla i = 1, 2, . . . oraz A
1
⊂ A
2
⊂ . . ., to
S
∞
i=1
A
i
∈ A.
Uwaga 3. Rodzina podzbiorów X jest σ-ciałem wtedy i tylko wtedy, gdy
jest π- i λ-układem.
Twierdzenie 4 (O π- i λ- układach). Jeśli A jest λ-układem zawierającym
π-układ S, to A zawiera również σ-ciało σ(S) generowane przez S.
Twierdzenie 5 (Caratheodory’ego o przedłużaniu miary). Załóżmy, że A
jest ciałem podzbiorów X, a µ
0
skończenie addytywną funkcją z A w R
+
.
Wówczas µ
0
przedłuża się do miary µ na σ-ciele σ(A) wtedy i tylko wtedy,
gdy µ
0
jest ciągła w ∅, tzn
jeśli (A
n
)
∞
n=1
⊂ A, A
1
⊃ A
2
⊃ . . . oraz
∞
\
n=1
A
n
= ∅, to lim
n→∞
µ
0
(A
n
) = 0.
(C)
89
B
Dowody wybranych twierdzeń
B.1
Twierdzenie Kołmogorowa o istnieniu procesu
Dowód Twierdzenia 2.8. W dowodzie wykorzystamy twierdzenie Carathe-
odory’ego o przedłużaniu miary (zob. Twierdzenie A.5). Niech A oznacza al-
gebrę zbiorów cylindrycznych. Dla C = {x : (x
t
1
, . . . , x
t
n
) ∈ A}, A ∈ B(R
n
)
połóżmy µ
0
(C) = µ
t
1
,...,t
n
(A). Zauważmy, że
• z warunków zgodności wynika, że µ
0
jest dobrze zdefiniowane, tzn.
µ
0
(C) nie zależy od wyboru t
1
, . . . , t
n
i A reprezentujących C.
• µ
0
jest skończenie addytywna. Istotnie jeśli C
1
, . . . , C
k
∈ A, to można
dobrać odpowiednio duży zbiór indeksów t
1
, . . . , t
n
∈ T taki, że zbiory
C
1
, . . . , C
k
zależą tylko od t
1
, . . . , t
n
, tzn.
C
i
= {x : (x
t
1
, . . . , x
t
n
) ∈ A
i
}, A
i
∈ B(R
n
).
Załóżmy, że zbiory zbiory C
1
, . . . , C
k
są rozłączne. Wówczas zbiory
A
1
, . . . , A
k
są również rozłączne, a zatem
µ
0
k
[
i=0
C
i
= µ
t
1
,...,t
n
k
[
i=0
A
i
=
k
X
i=0
µ
t
1
,...,t
n
(A
i
) =
k
X
i=0
µ
0
(C
i
).
By zakończyć dowód musimy wykazać warunek (C) z twierdzenia Cara-
theodory’ego, czyli
jeśli C
n
∈ A, C
1
⊃ C
2
⊃ . . . , µ
0
(C
n
) ε > 0, to
∞
\
n=1
C
n
6= ∅.
Każda miara µ na (R
n
, B(R
n
)) jest regularna (zob. Twierdzenie A.?), tzn.
dla dowolnego A ∈ B(R
n
),
µ(A) = sup{µ(K) : K ⊂ A, K zwarte}.
Zbiory C
n
są cylindryczne, czyli zależą tylko od skończonego zbioru in-
deksów. Możemy założyć, że te zbiory indeksów rosną, co więcej (ewentualnie
powtarzając zbiory C
i
lub dodając indeksy) możemy zakładać, że istnieje
ciąg t
1
, t
2
, . . . taki, że
C
n
= {x : (x
t
1
, . . . , x
t
n
) ∈ A
n
} dla pewnego A
n
∈ B(R
n
).
90
Na mocy regularności miary µ
t
1
,...,t
n
, istnieją zbiory zwarte K
n
⊂ A
n
takie,
że
µ
t
1
,...,t
n
(A
n
\ K
n
) ¬
ε
2
n+1
, n = 1, 2, . . . .
Oznaczając D
n
= {x : (x
t
1
, . . . , x
t
n
) ∈ K
n
}, mamy µ
0
(C
n
\ D
n
) ¬ 2
−n−1
ε.
Niech
e
D
n
= D
1
∩ . . . ∩ D
n
= {x : (x
t
1
, . . . , x
t
n
) ∈
f
K
n
}, gdzie
f
K
n
= (K
1
× R
n−1
) ∩ (K
2
× R
n−2
) ∩ . . . ∩ (K
n−1
× R) ∩ K
n
.
Ponieważ C
n
\
e
D
n
=
S
n
k=1
(C
n
\ D
k
) ⊂
S
n
k=1
(C
k
\ D
k
), więc
µ
0
(C
n
\
e
D
n
) ¬
n
X
k=0
µ
0
(C
k
\ D
k
) ¬
∞
X
k=1
2
−k−1
ε ¬
ε
2
.
Zatem µ
0
(
e
D
n
) µ
0
(C
n
)−µ
0
(C
n
\
e
D
n
) ε−
ε
2
> 0 i w szczególności
e
D
n
6= ∅.
Niech x
(n)
∈
e
D
n
, wówczas
(x
(n)
t
1
, . . . , x
(n)
t
k
) ∈ K
k
, k = 1, . . . , n.
Zbiory K
k
są zwarte, co implikuje, że dla dowolnego k, ciąg (x
(n)
t
k
)
∞
n=1
jest
ograniczony. Za pomocą metody przekątniowej możemy wybrać podciąg (n
i
)
taki, że lim
i→∞
x
(n
i
)
t
k
= x
∞
t
k
dla k = 1, 2, . . .. Ale wówczas, z domkniętości
K
k
,
(x
∞
t
1
, . . . , x
∞
t
k
) = lim
n
i
→∞
(x
(n
i
)
t
1
, . . . , x
(n
i
)
t
k
) ∈ K
k
.
Określmy y ∈ R
T
wzorem
y
t
=
(
x
∞
t
dla t ∈ {t
1
, t
2
, . . .},
0
dla t /
∈ {t
1
, t
2
, . . .}.
Wówczas y ∈
T
∞
n=1
C
n
, czyli
T
∞
n=1
C
n
6= ∅, co chcieliśmy dowieść.
Wiemy zatem, że na Ω = R
T
istnieje miara probabilistyczna µ rozsze-
rzająca µ
0
. Wtedy dla t
1
, . . . , t
n
∈ T oraz A ∈ B(R
n
) mamy
µ({x : (x
t
1
, . . . , x
t
n
) ∈ A}) = µ
t
1
,...,t
n
(A).
Zatem na przestrzeni probabilistycznej (R
T
, B(R
T
), µ) wystarczy zdefinio-
wać proces X wzorem X
t
(x) = x
t
.
91
B.2
Twierdzenie o ciągłej modyfikacji
Dowód Twierdzenia 3.14. Ustalmy γ ∈ (0, β/α) i niech
D = {t ∈ [a, b] : t = 2
−n
k, n = 1, 2, . . . , k ∈ Z}
oznacza zbiór liczb dwójkowo wymiernych z [a, b]. Wówczas
D =
∞
[
n=0
D
n
, gdzie D
n
= {t ∈ [a, b] : t = 2
−n
k, k ∈ Z}.
Na mocy nierówności Czebyszewa,
P(|X
t
− X
s
| ε) ¬ ε
−α
E|X
t
− X
s
|
α
¬ Cε
−α
|t − s|
1+β
,
w szczególności
P
X
k+1
2n
− X
k
2n
2
−γn
¬ C2
−n(1+β−αγ)
.
Zatem, dla ustalonego n,
P
max
a¬
k
2n
<
k+1
2n
¬b
X
k+1
2n
− X
k
2n
2
−γn
¬
X
a¬
k
2n
<
k+1
2n
¬b
P
X
k+1
2n
− X
k
2n
2
−γn
¬ 2
n
(b − a)C2
−n(1+β−αγ)
= C(b − a)2
−n(β−αγ)
.
Zdefiniujmy A = lim sup A
n
, gdzie
A
n
=
n
max
a¬2
−n
k<2
−n
(k+1)¬b
X
k+1
2n
− X
k
2n
2
−γn
o
.
Nierówność γα < β implikuje, że
∞
X
n=1
P(A
n
) ¬
∞
X
n=1
C(b − a)2
−n(β−αγ)
< ∞.
zatem, na mocy lematu Borela-Cantelliego, P(A) = 0, czyli P(B) = 1, gdzie
B = Ω\A =
n
ω : ∃
n
0
(ω)
∀
nn
0
(ω)
∀
a¬2
−n
k<2
−n
(k+1)¬b
X
k+1
2n
−X
k
2n
< 2
−γn
)
o
.
Załóżmy, że ω ∈ B, pokażemy wpierw, indukcyjnie po m, że
∀
nn
0
(ω)
∀
mn
∀
s,t∈D
m
|s − t| ¬ 2
−n
⇒ |X
s
(ω) − X
t
(ω)| ¬ 2
m
X
j=n
2
−γj
. (13)
92
Dla m = n, jeśli |s − t| ¬ 2
−n
, to możemy przyjąć, że s =
k
2
n
, t =
k+1
2
n
i
|X
s
− X
t
| = |X
k+1
2n
− X
k
2n
| < 2
−γn
na mocy definicji B.
Załóżmy zatem, że (13) jest udowodnione dla m = n, n + 1, . . . , M − 1,
pokażemy, że zachodzi również dla m = M . Niech s, t ∈ D
M
, s < t, możemy
założyć, że |s − t| > 2
−M
, bo inaczej działa argument przedstawiony w
pierwszym kroku indukcji. Połóżmy
˜
s = min{u ∈ D
M −1
, u > s}, ˜
t = max{u ∈ D
M −1
, u < t},
wówczas s ¬ ˜
s ¬ ˜
t ¬ t, czyli |˜
s − ˜
t| ¬ |s − t| ¬ 2
−n
. Stąd, wobec założenia
indukcyjnego, |X
˜
s
(ω) − X
˜
t
(ω)| ¬ 2
P
M −1
j=n
2
−γj
. Ponadto, |s − ˜
s| ¬ 2
−M
,
|t − ˜
t| ¬ 2
−M
, czyli
|X
s
(ω) − X
t
(ω)| ¬ |X
˜
s
(ω) − X
˜
t
(ω)| + |X
˜
s
(ω) − X
s
(ω)| + |X
t
(ω) − X
˜
t
(ω)|
¬ 2
M −1
X
j=n
2
−γj
+ 2
−γM
+ 2
−γM
= 2
M
X
j=n
2
−γj
,
co kończy dowód (13).
Wiemy zatem, że dla ω ∈ B,
s, t ∈ D, |s − t| ¬ 2
−n
, n n
0
(ω) ⇒ |X
s
(ω) − X
t
(ω)| ¬ 2
∞
X
j=n
2
−γj
= C
γ
2
−γn
,
gdzie C
γ
jest stałą zależną tylko od γ. Weźmy teraz dowolne s, t ∈ D takie,
że |s − t| ¬ 2
−n
0
(ω)
, wówczas istnieje n n
0
(ω) spełniające 2
−n−1
< |s − t| ¬
2
−n
i
|X
s
(ω) − X
t
(ω)| ¬ C
γ
2
−γn
¬ 2
γ
C
γ
|s − t|
γ
.
W końcu, dla dowolnych s, t ∈ D, możemy dobrać ciąg s = s
0
< s
1
< . . . <
s
k
= t, k ¬ 2
n
0
(ω)
(b − a) taki, że s
i
∈ D, |s
i+1
− s
i
| ¬ 2
−n
0
(ω)
i otrzymamy
|X
s
(ω) − X
t
(ω)| ¬
k
X
i=1
|X
s
i
(ω) − X
s
i+1
(ω)| ¬
k
X
i=1
2
γ
˜
C
γ
|s
i
− s
i−1
|
γ
¬ (b − a)2
n
0
(ω)
2
γ
˜
C
γ
|t − s|
γ
.
Udowodniliśmy zatem, że dla ω ∈ B, funkcja t → X
t
(ω) jest h¨
olderowsko
ciągła na D, w szczególności jest jednostajnie ciągła i w każdym punkcie z
[a, b] ma granicę. Połóżmy
e
X
t
(ω) =
(
lim
s→t,s∈D
X
s
(ω)
dla ω ∈ B
0
dla ω /
∈ B.
93
Wówczas wszystkie trajektorie
e
X są ciągłe (a nawet h¨
olderowsko ciągłe z wy-
kładnikiem γ). Z nierówności Czebyszewa łatwo wynika, że dla dowolnego
ciągu (t
n
) ⊂ D, zbieżnego do t ∈ [a, b], X
t
n
→ X
t
według prawdopodobień-
stwa. Z drugiej strony X
t
n
→
e
X
t
p.n., a więc również według prawdopodo-
bieństwa. Z jednoznaczności granicy wynika, że
e
X
t
= X
t
p.n., czyli proces
e
X jest modyfikacją X.
Na koniec zauważmy, że trajektorie
e
X są h¨
olderowsko ciągłe z wykład-
nikiem γ, a skoro wiemy, ze wszystkie ciągłe modyfikacje X są nierozróż-
nialne, to wszystkie ciągłe modyfikacje X mają, z prawdopodobieństwem 1,
h¨
olderowsko ciągłe trajektorie z dowolnym wykładnikiem γ <
α
β
.
B.3
Rozkład Dooba-Meyera
Proces (M
t
, F
t
) jest ciągłym martyngałem wtedy i tylko wtedy, gdy proces
(M
arctgt
, F
arctgt
) jest ciągłym martyngałem, zatem bez straty ogólności bę-
dziemy zakładać, że T < ∞. Przypomnijmy też, że (F
t
)
0¬t¬T
jest ustaloną
filtracją spełniającą zwykłe warunki.
Dla procesu X = (X
t
)
t∈[0,T ]
i podziału Π = (0 = t
0
< t
1
< . . . < t
n
= T )
odcinka [0, T ] określamy proces V
X
Π
= (V
X
Π,t
)
t∈[0,T ]
wzorem
V
X
Π,t
=
n−1
X
i=0
(X
t∧t
i+1
− X
t∧t
i
)
2
.
Będziemy też czasem dla wygody pisać V
Π,t
(X) zamiast V
X
Π,t
.
Idea dowodu twierdzenia Dooba-Meyera polega na wykazaniu, że hM, M i
można określić jako granicę V
X
Π,t
przy diam(Π) → 0. Dowód rozbijemy na
kilka lematów.
Lemat 1. Dla M ∈ M
2,c
T
proces (M
2
t
− V
M
Π,t
)
t∈[0,T ]
jest ciągłym martynga-
łem.
Dowód. Niech t
i
¬ s < t ¬ t
i+1
dla pewnego i ¬ n − 1. Wówczas
V
M
Π,t
−V
M
Π,s
= (M
t
−M
t
i
)
2
−(M
s
−M
t
i
)
2
= (M
t
−M
s
)
2
+2(M
t
−M
s
)(M
s
−M
t
i
),
stąd
E(V
M
Π,t
− V
M
Π,s
|F
s
) = E((M
t
− M
s
)
2
|F
s
) − 2(M
s
− M
t
i
)E((M
t
− M
s
)|F
s
)
= E(M
2
t
|F
s
) − 2M
s
E(M
t
|F
s
) + M
2
s
= E(M
2
t
|F
s
) − M
2
s
= E(M
2
t
− M
2
s
|F
s
).
94
Lemat 2. Załóżmy, że M = (M
t
)
0¬t¬T
jest ciągłym, jednostajnie ograni-
czonym martyngałem. Wówczas dla dowolnego podziału Π,
E(V
M
Π,t
)
2
¬ 48 sup
t
kM
t
k
4
∞
< ∞.
Dowód. Mamy
(V
M
Π,t
)
2
= (
n
X
k=1
(M
t
k
− M
t
k−1
)
2
)
2
=
n
X
k=1
(M
t
k
− M
t
k−1
)
4
+ 2
n−1
X
k=1
(M
t
k
− M
t
k−1
)
2
n
X
j=k+1
(M
t
j
− M
t
j−1
)
2
=
n
X
k=1
(M
t
k
− M
t
k−1
)
4
+ 2
n−1
X
k=1
(V
M
Π,t
k
− V
M
Π,t
k−1
)(V
M
Π,T
− V
M
Π,t
k
).
Z poprzedniego lematu mamy E(V
M
Π,T
− V
M
Π,t
k
|F
t
k
) = E((M
T
− M
t
k
)
2
|F
t
k
),
zatem
E(V
M
Π,t
)
2
=
n
X
k=1
E(M
t
k
− M
t
k−1
)
4
+ 2
n−1
X
k=1
E[(V
M
Π,t
k
− V
M
Π,t
k−1
)(V
M
Π,T
− V
M
Π,t
k
)]
=
n
X
k=1
E(M
t
k
− M
t
k−1
)
4
+ 2
n−1
X
k=1
E[(V
M
Π,t
k
− V
M
Π,t
k−1
)(M
T
− M
t
k
)
2
]
¬ E(max
k
(M
t
k
− M
t
k−1
)
2
+ 2 max
k
(M
T
− M
t
k
)
2
)V
M
Π,T
¬ 12C
2
EV
2
Π,T
= 12C
2
E(M
T
− M
0
)
2
¬ 48C
4
,
gdzie C = sup
t
kM
t
k
∞
.
Lemat 3. Załóżmy, że M = (M
t
)
0¬t¬T
jest ciągłym, jednostajnie ograni-
czonym martyngałem. Wówczas istnieje N ∈ M
2,c
T
taki, że M
2
− V
M
Π
zbiega
do N w M
2,c
T
, gdy diam(Π) → 0.
Dowód. Wystarczy udowodnić zbieżność (przy diam(Π) → 0) M
2
T
− V
M
Π,T
w
L
2
(Ω), czyli zbieżność V
M
Π,T
w L
2
(Ω).
Niech Π i Π
0
będą podziałami [0, T ], zaś ΠΠ
0
podziałem wyznaczonym
przez wszystkie punkty z Π i Π
0
. Na mocy Lematu 1 proces X = V
M
Π
− V
M
Π
0
jest martyngałem, więc
E|V
M
Π,T
− V
M
Π
0
,T
|
2
= E(X
2
T
− X
2
0
) = EV
ΠΠ
0
,T
(X),
95
gdzie ostatnia równość wynika stąd, że X
2
− V
ΠΠ
0
(X) jest martyngałem
(znów stosujemy Lemat 1). Ponieważ (x + y)
2
¬ 2(x
2
+ y
2
), więc
V
ΠΠ
0
,T
(X) ¬ 2(V
ΠΠ
0
,T
(V
M
Π
) + V
ΠΠ
0
,T
(V
M
Π
0
).
Wystarczy więc udowodnić, że
EV
ΠΠ
0
,T
(V
M
Π
) → 0, jeśli diam(Π) + diam(Π
0
) → 0.
(14)
Załóżmy, że s
k
i s
k+1
są kolejnymi punktami podziału ΠΠ
0
, a t
l
, t
l+1
kolejnymi punktami z Π takimi, że t
l
¬ s
k
< s
k+1
¬ t
l+1
, wówczas
V
M
Π
0
,s
k+1
− V
M
Π
0
,s
k
= (M
s
k+1
− M
t
l
)
2
− (M
s
k
− M
t
l
)
2
= (M
s
k+1
− M
s
k
)(M
s
k+1
− M
s
k
+ 2M
t
l
).
Stąd
V
ΠΠ
0
,T
(V
M
Π
0
) ¬ max
k
|M
s
k+1
− M
s
k
+ 2M
t
l
|
2
V
M
ΠΠ
0
,T
i z nierówności Schwarza
EV
ΠΠ
0
,T
(V
M
Π
0
) ¬ (E max
k
|M
s
k+1
− M
s
k
+ 2M
t
l
|
4
)
1/2
(E(V
M
ΠΠ
0
,T
)
2
)
1/2
.
Pierwszy składnik dąży do zera, gdy diam(Π) + diam(Π
0
) → 0 na mocy
ciągłości i ograniczoności M (stosujemy twierdzenie Lebesgue’a o zbieżno-
ści zmiajoryzowanej), drugi na mocy poprzedniego lematu jest ograniczony
przez wielkość zależną tylko od M . Zatem spełnione jest (14).
Dowód Twierdzenia 8.1. Przypomnijmy, że zakładamy iż T < ∞.
Przypadek I Martyngał M jest jednostajnie ograniczony.
Niech Y = M
2
− N , gdzie N jest procesem zadanym przez Lemat 3.
Wówczas M
2
− Y jest ciągłym martyngałem oraz dla t ¬ T , Y
t
jest granicą
w L
2
(Ω) zmiennych V
M
Π,t
przy diam(Π) → 0, stąd Y
0
= 0 p.n.. Ustalmy
s < t ¬ T i niech Π
n
będzie ciągiem podziałów [0, T ] zawierających punkty t
i s o średnicy dążącej do zera. Przechodząc do podciągów możemy zakładać,
że V
M
Π
n
,t
→ Y
t
i V
M
Π
n
,s
→ Y
s
p.n., ale V
Π
n
,s
¬ Π
n
, t, więc Y
t
¬ Y
s
p.n.. Z
ciągłości Y ma z prawdopodobieństwem 1 trajektorie niemalejące, czyli Y
jest szukanym procesem hM i.
Przypadek II M ∈ M
2,c
T
i M
0
= 0.
Wybierzmy ciąg momentów zatrzymania τ
n
% T taki, że M
τ
n
jest
jednostajnie ograniczonym martyngałem (np. τ
n
:= inf{t 0 : |M
t
|
n} ∧ T ). Niech Y
n
= hM
τ
n
i oraz N
n
= |M
τ
n
|
2
− Y
n
. Ponieważ dla m n,
96
Y
τ
n
m
= hM
τ
m
i
τ
n
= h(M
τ
m
)
τ
n
i = Y
n
, więc da się określić taki proces ciągły
(Y
t
)
0¬t<T
, że Y
τ
n
= Y
n
p.n.. Wówczas Y
t
= Y
n,t
dla t ¬ τ
n
, więc Y jest
niemalejący i Y
0
= 0. Zauważmy, że EY
2
t
= E(M
τ
n
t
)
2
¬ EM
2
T
, więc z twier-
dzenia Lebesgue’a o zbieżności monotonicznej Y
T
:= lim
t→T
Y
t
istnieje i jest
całkowalne. Widzimy, że N
n,t
→ M
2
t
− Y
2
t
p.n. dla t ¬ T . Ponadto na mocy
nierówności Dooba
E sup
n
N
n,t
¬ E sup
n
(M
τ
n
t
)
2
+ EY
n,t
¬ 4EM
2
T
+ EM
2
T
< ∞,
zatem (N
n,t
)
n
jest jednostajnie całkowalny, czyli N
n,t
zbiega w L
1
, więc
X
2
− Y
2
jest martyngałem, czyli Y = hM i.
Przypadek III M ∈ M
2,c
T
dowolne.
Wówczas M − M
0
∈ M
2,c
T
, na mocy przypadku II istnieje hM − M
0
i. Ale
M
2
− hM − M
0
i = (M − M
0
)
2
− hM − M
0
i + 2M
0
M − M
2
0
jest martyngałem,
zatem hM i = hM − M
0
i.
Literatura
[1] P. Billingsley, Prawdopodobieństwo i miara, PWN, Warszawa 1987.
[2] G.M. Fichtenholz, Rachunek różniczkowy i całkowy, tom III, PWN, War-
szawa 1985.
[3] J. Jakubowski, R. Sztencel, Wstęp do teorii prawdopodobieństwa, wyd
II, Script, Warszawa 2001
[4] S. Łojasiewicz, Wstęp do teorii funkcji rzeczywistych, PWN, Warszawa
1973.
[5] W. Rudin, Podstawy analizy matematycznej, PWN, Warszawa 1976.
97