Procesy Stochastyczne
dr hab. inż. Joachim Domsta
Spis treści
1
Rozkłady wielowymiarowe
2
2
Rodziny rozkładów prawdopodobieństwa układów elementów
losowych
4
3
Układy nieskończone
5
4
Rozkłady Gaussowskie wielowymiarowe
5
5
Przykłady procesów
10
5.1
Najprostsze przykłady/funkcji losowych . . . . . . . . . . . . . .
10
5.2
Procesy punktowe na prostej
. . . . . . . . . . . . . . . . . . . .
10
5.3
Procesy gaussowskie [z dziedziną R
+
lub R
−
] . . . . . . . . . . .
11
5.4
Ruch Browna [Przykład procesu gaussowskiego] . . . . . . . . . .
11
6
Prawdopodobieństwa i wartości oczekiwane warunkowe
12
6.1
Warunkowy rozkład pr. przy warunku B . . . . . . . . . . . . . .
13
6.2
Dystrybuanta warunkowa zm. los. X przy warunku B . . . . . .
13
6.3
Własności wartości oczekiwanej warunkowej . . . . . . . . . . . .
16
7
Łańcuch markowski (Markowa) o wartościach przeliczalnych:
18
8
Proces Poissona
24
9
Zdarzenia niezależne
26
10 Szkic dowodu istnienia procesu Poissona
27
11 Przykłady jednorodnych procesów o przyrostach niezależnych 30
12 Graniczny rozkład skończenie wymiarowy przyrostów procesu
liczącego
33
13 Proces dwumianowy ujemny B
−
36
14 Proces Cauchy’ego
37
1
15 Przykład rozkładu sk. wym. dla ruchu Browna
44
16 Niezawodność układu równoległego (ilość sprawnych elemen-
tów)
44
17 Proces markowski z czasem ciągłym, z przestrzenią przeliczal-
ną
45
18 Różnice dzielone
51
19 Jądro stochastyczne i ich składanie
52
19.1 Składanie jąder powyższego typu . . . . . . . . . . . . . . . . . .
54
19.2 Jednoparametrowa grupa jąder stochastycznych . . . . . . . . . .
54
19.3 Proces stochastyczny markowski ze wskazaną rodziną markowską
jąder stochastycznych o wartościach w X . . . . . . . . . . . . . .
55
20 Kontynuacja tematu procesów gaussowskich [ze str.12]
59
21 Biały szum dyskretny
62
22 Procesy stacjonarne
62
22.1 Przykład (całka prymitywna) . . . . . . . . . . . . . . . . . . . .
63
22.2 Przykład (całka mniej prymitywna)
. . . . . . . . . . . . . . . .
64
2
1
Rozkłady wielowymiarowe
Q-miara probabilistyczna na (R
d
, B
(d)
)-rozkład d-wymiarowy
Definicja 1 (dystrybuanty)
F
Q
=
F
Q
(x
1
, . . . , x
d
) := Q (−∞, x
1
) × . . . × (−∞, x
d
)
dla (x
1
, . . . , x
d
) ∈ R
d
Twierdzenie 1 F
Q
wyznacza Q jednoznacznie
Twierdzenie 2 F jest dystrybuantą pewnej (a więc jedynej) miary probabili-
stycznej wtedy i tylko wtedy, gdy:
1. F 0, F niemalejąca w każdej zmiennej
2. F lewostronnie ciągła w każdej zmiennej
3. (a) ∀
x
1
,...,x
i−1
,x
i+1
,...,x
d
∀
i
lim
x
i
→−∞
F (x
1
, . . . , x
i
, . . . , x
d
) = 0
(b) lim
x
i
→−∞,i=1,...,d
F (x
1
, . . . , x
d
) −→ 1
4. ∆
(1,...,1)
h
1
,...,h
d
F (x
1
, . . . , x
d
) 0 dla x
1
, . . . , x
d
∈ R
h
1
, . . . , h
d
0
gdzie
∆
(0,...,0)
F (x
1
, . . . , x
d
) = F (x
1
, . . . , x
d
)
∆
(l
1
,...,l
i
+1,...,l
d
)
h
1
,...,h
d
F (x
1
, . . . , x
d
) := ∆
(l
1
,...,l
i
,...,l
d
)
h
1
,...,h
d
F (x
1
, . . . , x
i
+ h
i
, . . . , x
d
)+
−∆
(l
1
,...,l
i
,...,l
d
)
h
1
,...,h
d
F (x
1
, . . . , x
i
, . . . , x
d
)
∆
l
h
f (x) = f (x + h) − f (x) l
1
, . . . , l
d
∈ N h
1
, . . . , h
d
∈ R
Twierdzenie 3
∆
(1,...,1)
h
1
,...,h
d
=
X
(ε
1
,...,ε
d
)∈{0,1}
d
(−1)
d−
P
d
i=1
ε
i
F (x
1
+ ε
1
h
1
, . . . , x
d
+ ε
d
h
d
)
W szczgólnym przypadku dla d = 2 mamy:
∆
(1,1)
h
1
,h
2
F (x
1
, x
2
) = (−1)
2−(1+1)
F (x
1
+ h
1
, x
2
+ h
2
) + (−1)
2−(0+1)
F (x
1
, x
2
+ h
2
)+
+(−1)
2−(1+0)
F (x
1
+ h
1
, x
2
) + (−1)
2−(0+0)
F (x
1
, x
2
) = F (x
1
+ h
1
, x
2
+ h
2
)+
−F (x
1
, x
2
+ h
2
) − F (x
1
+ h
1
, x
2
) + F (x
1
, x
2
)
Szkic dowodu (Twierdzenia 2):
Warunki 1) - 2) wynikają z ciągłości i monotoniczności Q, to znaczy z tego, że:
A
n
↑ A ⇒ Q(A
n
) ↑ Q(A)
3
mamy
x
1,n
↑ x
1
⇒ (−∞, x
1,n
) × . . . × (−∞, x
d
) ↑ (−∞, x
1
) × . . . × (−∞, x
d
)
Q (−∞, x
1,n
) × . . . × (−∞, x
d
)
↑ Q (−∞, x
1
) × . . . × (−∞, x
d
)
Warunek 3) wynika również z ciągłości Q:
K
n
↓ φ −→ Q(K
n
) ↓ Q(φ) = 0
Warunek 4) dla d = 2
L = Q(+, +) − Q(0, +)
|
{z
}
∗∗
− Q(+, 0)−Q(0, 0)
, ∗∗ − [x
1
, x
1
+h)×(−∞, x
2
+h
2
)
L = Q [x
1
, x
1
+ h) × [x
2
, x
2
+ h)
0
4
Twierdzenie 4
lim
x
i
→∞
F
Q
(x
1
, . . . , x
i
, . . . , x
d
) = F
Q
i
(x
1
, . . . , x
i−1
, x
i+1
, . . . , x
d
)
gdzie Q
i
= Q◦π
−1
i
(gdzie indeks i oznacza rzut na wszystkie poza i−tą współrzędną)
π
i
(x
1
, . . . , x
d
) = (x
1
, . . . , x
i−1
, x
i+1
, . . . , x
d
)
Wniosek 1
d = 2,
F
Q
(x
1
, x
2
) −→ F
Q
2
(x
1
) ≡ F
Q
1
(x
1
) przy x
2
→ ∞
Q
2
≡ Q
1
(A) = Q(A × R)
Dowód:
Rzeczywiście
Q
2
(A) = Q π
−1
2
(A)
= Q(x
1
, x
2
) : π
2
(x
1
, x
2
) ∈ A
= Q(x
1
, x
2
) : x
1
∈ A
= Q(A×R)
x
2
% ∞ ⇒ (−∞, x
1
) × (−∞, x
2
) % (−∞, x
1
) × R
Q (−∞, x
1
) × (−∞, x
2
)
% Q (−∞, x
1
) × R
F
Q
(x
1
, x
2
) % F
Q
1
≡ F
Q
2
(x
1
)
4
4
Wniosek 2
N iech Q = P
X
1
,...,X
d
, tzn. Q(A) = P r{X ∈ A}, A ∈ B
(d)
, X = (X
1
, . . . , X
d
)
Y = (x
j
1
, . . . , x
j
l
)
1 ¬ j
1
< . . . < j
l
¬ d
oznaczenia:
P
Y
− rozkład pr. Y, czyli P
Y
(B) = P r{Y ∈ B}, B ∈ B
l
Wtedy:
F
Y
(y
1
, . . . , y
l
) =
lim
x
i
→∞, i /
∈{j
1
,...,j
l
}
F
Q
(x
1
, . . . , x
d
), gdy x
j
1
= y
1
, . . . , x
j
l
= y
l
2
Rodziny rozkładów prawdopodobieństwa ukła-
dów elementów losowych
X
1
: (Ω, F ) −→ (X
1
, B
1
)
X
2
: (Ω, F ) −→ (X
2
, B
2
)
..
.
X
d
: (Ω, F ) −→ (X
d
, B
d
)
układ d-elementów losowych z X
1
, . . . , X
d
odpowiednio
P r : F −→ [0, 1] miara probabilistyczna
Jeśli X
1
= R ⇒ X
1
- zm. los.
X
2
= R
k
⇒ X
2
- wektor losowy k-wymiarowy
X
3
= przestrz. f unkcyjna ⇒ X
3
- funkcja losowa
Komentarz:
X - prz. metryczna, to przez B na ogół oznacza się σ-ciało zb. borelowskich
Twierdzenie 5 Niech X
1
= X
2
= . . . = X
d
= R
B
1
= B
2
= . . . = B
d
= B, (X
1
, . . . , X
d
) - wektor d-wymiarowy
wtedy
(X
1
, . . . , X
d
) : (Ω, F ) −→ (R
(d)
, B
(d)
)
Uwaga o dowodzie:
krok 1: (X
1
, . . . , X
d
) : (Ω, F ) −→ (R × . . . × R, B
(1)
⊗ . . . ⊗ B
(1)
)
krok 2: B
(d)
= B
(1)
⊗ . . . ⊗ B
(1)
:= σ(B
(1)
× . . . × B
(1)
)
Komentarz:
To co powiedzieliśmy o dystrybuantach rozkładów wielowymiarowych dotyczy
tego szczególnego przypadku, gdy X
j
= R, B
j
= B
(1)
j = 1, . . . , d
5
Twierdzenie 6 (Uogólnienie tw. o układach zm. los.) Zał. X
1
, . . . , X
d
-
układ elementów losowych z X
1
, . . . , X
d
(j.w.)
Teza 1:
(X
1
, . . . , X
d
) : (Ω, F ) −→ (X
1
× . . . × X
d
, B
1
⊗ . . . ⊗ B
d
)
gdzie B
1
⊗ . . . ⊗ B
d
= σ(B
1
× . . . × B
d
), B
j
× . . . × B
d
= {A
1
× . . . × A
d
: A
j
∈ B
j
}
Teza 2:
Y = (X
j
1
= Y
1
, X
j
2
= Y
2
, . . . , X
j
l
= Y
l
) : (Ω, F ) −→ (X
j
1
×. . .×X
j
l
, B
j
1
⊗. . .⊗B
j
l
)
Teza 3:
Y − (j.w.)
P
Y
(B
1
× . . . × B
l
) = P
X
(A
1
× . . . × A
d
)
A
j
k
= B
k
∈ B
j
k
, k ∈ {1, 2, . . . , l}
A
i
= X
i
, i /
∈ {1, 2, . . . , j
l
}, i ∈ {1, 2, . . . , d}
czyli
P
Y
= P
X
◦ π
−1
, gdzie π(x
1
, x
2
, . . . , x
d
) := (x
j
1
, x
j
2
, . . . , x
j
l
)
3
Układy nieskończone
Definicja 2 Niech (X
i
, i ∈ T ) będzie układem elementów lodowych X
i
, i ∈ T ,
gdzie T - dowolny zbiór, P r - miara probab. na (Ω, F )
Rodzina rozkładów skończenie wymiarowych tego układu elementów losowych
(X
i
, i ∈ T ) to rodzina miar probab. Q
I
na (×
i∈I
X
i
, ⊗
i∈I
B
i
), I ⊂ T określonych
równością:
Q
I
(×
i∈I
B
i
) = P r{∀
i∈I
X
i
∈ B
i
} dla B
i
∈ B
i
dla i ∈ I
To określa Q
I
na całym σ-ciele produktowym ⊗
i∈I
B
i
dla pewnych σ-ciał
Definicja 3 (cd.) Układ: (X
i
, i ∈ T ), T - dowolny zbiór, P r - miara probab.
na (Ω, F ) elelmentów losowych nazywamy również funkcją losową z parametrem
(argumentem) ze zbioru T o wartości w X
i
, gdy parametr równa się i, i ∈ T [z
dziedziną T, o wartościach w X ,gdy X
i
= X , B
i
= B dla i ∈ T ]
4
Rozkłady Gaussowskie wielowymiarowe
(0) Powtórko-uzupełnienie - funkcja charakterystyczna
Q - miara probab. na R
d
Funkcję
R
d
3 t = (t
1
, . . . , t
d
) −→
Z
R
d
e
itx
T
dQ(x) ∈ C
6
nazywamy funkcją charakterystyczną miary probab. Q.
Własności:
• f. ch. jest jednostajnie ciągła
• | | ¬ 1
• w t = (0. . . . , 0),
R
R
d
= 1, czyli ϕ(0, . . . , 0) = 1
• każda funkcja chrakterystyczna wyznacza rozkład jednoznacznie
N (0, 1) ∼ ϕ(t) = e
−
t2
2
N (m, v) ∼ ϕ(t) = e
itm
e
−v
t2
2
(v 0)
N (m
1
, m
2
, . . . , m
d
), c
∼ ϕ(t) = e
itm
e
−
1
2
tct
T
, dla t ∈ R
d
gdzie c - macierz kowariancji, m = (m
1
, . . . , m
d
)
Twierdzenie 7
P
X
= N (m, c) ⇒ Cov(X
i
, X
j
) = c
ij
, EX
i
= m
i
Twierdzenie 8 (o funkcjach charakterystycznych) Zał. X = (X
1
, . . . , X
d
)
- wektor losowy d-wymiarowy (Y
1
, . . . , Y
l
) = (X
j
1
, . . . , X
j
l
) - podukład
Teza
ϕ
P
Y
(s
1
, . . . , s
l
) = ϕ
P
X
(t
1
, . . . , t
d
), gdy t
j
1
= s
1
, . . . , t
j
l
= s
l
, t
j
= 0 poza tym
Np.
ϕ
X
2
,X
3
(s
1
, s
2
) = ϕ
X
1
,...,X
n
(0, s
1
, s
2
, 0)
Kombinacje liniowe zmiennych losowych gaussowskich są gaussowskie.
Zadanie 1 Na podstawie definicji dystrybuantywielowymiarowej podać wzór na
dystrybuantę rozkładu prawdop. wektora losowego X = (X
1
, . . . , X
d
), d 1
F
X
(x
1
, . . . , x
d
) = P r{X
1
< x
1
∧ . . . ∧ X
d
< x
d
}, (x
1
, . . . , x
d
) ∈ R
d
F
X
:= F
P
X
(−∞, x
1
)×. . .×(−∞, x
d
)
= P rω : X(ω) ∈ (−∞, x
1
)×. . .×(−∞, x
d
)
=
= P r
ω : X
1
(ω) ∈ (−∞, x
1
)∧. . .∧X
d
(ω) ∈ (−∞, x
d
)
= P r{X
1
< x
1
∧. . .∧X
d
< x
d
}
Zadanie 2 f : R
d
−→ R ma własności:
• nieujemna
•
R
R
d
f = 1
• f - borelowska
7
Wiemy, że wtedy
Q(A) :=
Z
A
f dλ
(d)
≡
Z
A
f (x
1
, . . . , x
d
)dx
1
. . . dx
d
≡
Z
A
f (x)dx
Q(A) jest miarą probab. na (R
d
, B
(d)
).
Podać wzór na dystrybuantę F
Q
.
F
Q
(x
1
. . . , x
d
) =
Z
(−∞,x
1
)×...×(−∞,x
d
)
f dλ
(d)
≡
Z
x
1
−∞
. . .
Z
x
d
−∞
f (u
1
, . . . , u
d
)du
d
. . . du
1
f nazywamy gęstością rozkładu Q
Zadanie 3 Załóżmy, że X ma rozkład o gęstości f , gdzie f (j.w.).
Znaleść: F
X
1
, F
X
1
,X
2
, d = 3
F
X
1
,X
2
,X
3
(x
1
, x
2
, x
3
) = P r{X
1
< x
1
, X
2
< x
2
, X
3
< x
3
} =
Z
x
1
−∞
Z
x
2
−∞
Z
x
3
−∞
f (u
1
, u
2
, u
3
)du
1
du
2
du
3
F
X
1
(x
1
) =
lim
x
2
,x
3
→∞
F
X
1
,X
2
,X
3
(x
1
, x
2
, x
3
) =
Z
x
1
−∞
Z
+∞
−∞
Z
+∞
−∞
f (u
1
, u
2
, u
3
)du
1
du
2
du
3
F
X
1
,X
2
(x
1
, x
2
) =
Z
x
1
−∞
Z
x
2
−∞
Z
+∞
−∞
f (u
1
, u
2
, u
3
)
du
1
du
2
du
3
|
{z
}
dλ
(3)
=d(λ
(1)
×λ
(2)
)
F
X
1
(x
1
) =
Z
(−∞,x
1
)×(R×R)
f (u
1
, u
2
, u
3
)d λ
(1)
(u
1
) × λ
(2)
(u
2
, u
3
)
=
=
Z
(−∞,x
1
)
Z
(R×R)
f u
1
, (u
2
, u
3
)
dλ
(2)
(u
2
, u
3
)
dλ
(1)
(u
1
) =
=
Z
(−∞,x
1
)
Z Z
R
2
f (u
1
, u
2
, u
3
)du
2
du
3
|
{z
}
g(u
1
)
du
1
Twierdzenie 9 (o rozszerzaniu miary)
P
X
1
(A) =
Z
A
ge(u
1
)du
1
(≡ ge to gęstość miary probab. P
X
1
)
Zadanie 4 Znaleźć gęstość rozkładu zmiennej losowej X
1
oraz X
1
, X
2
8
Gęstością P
X
1
jest:
Z
Z
R
2
f (u
1
, u
2
, u
3
)du
2
du
3
, dla u
1
∈ R, λ
(1)
− prawie wszędzie
Gęstością P
X
1
,X
2
jest;
Z
R
f (u
1
, u
2
, u
3
)du
3
, (u
1
, u
2
) ∈ R
2
, prawie wszędzie
Definicja 4 (Funkcji charakterystycznej) Q - miara probab.
ϕ
Q
(t) =
Z
R
d
e
itx
dQ(x), t ∈ R
d
gdzie dla:
t = (t
1
, . . . , t
d
), x = (x
1
, . . . , x
d
)
T
t ◦ x
T
:= t
1
x
1
+ . . . + t
d
x
d
=
P
d
i=1
t
i
x
i
Zadanie 5 Pokazać, że jeżeli Q(Z
d
) = 1, to
ϕ(t) = 1 dla t ∈ 2πZ
d
= {2πk : k ∈ Z
d
}
lub mocniej:
ϕ(t + k2π) = ϕ(t) dla k ∈ Z
d
Q(Z
d
) = 1
RHS = ϕ
Q
(t) =
X
l∈Z
d
e
itl
T
Q(l)
L = ϕ
Q
(t+k2π) =
X
l∈Z
d
e
i(t+k2π)◦l
T
Q(l) =
X
l∈Z
d
e
it◦l
T
e
i2πk◦l
T
Q(l) =
X
l∈Z
d
e
it◦l
T
Q(l) = RHS
Niech t ∈ R
d
, c - macierz symetryczna, nieujemnie określona
ϕ(t) = e
it◦m
T
e
−
1
2
t◦c◦t
T
Twierdzenie 10 Funkcja ϕ jest f. ch. pewnego (a więc dokładnie jednego) roz-
kładu na R
d
Definicja 5 Rozkład ten nazywamy rozkładem gaussowskim z parametrami m, c
Twierdzenie 11 Można pokazać, że momenty
m
(0,...,i,...,0)
(Q) =
Z
R
d
x
i
dQ(x
1
, . . . , x
d
) = m
i
i = 1, . . . , d
Dlatego m nazywamy wektorem wartości średnich dla N (m, c)
9
Twierdzenie 12
µ
(0,...,0,
i
1,...,
j
1,...,0)
=
Z
R
d
(x
i
− m
i
)(x
j
− m
j
)dQ(x
1
, . . . , x
d
) = c
ij
dla i 6= j
µ
(0,...,0,
i
1,0,...,0)
=
Z
R
d
(x
i
− m
i
)
2
dQ(x
1
, . . . , x
d
) = c
ii
Dlatego c nazywamy macierzą kowariancji rozkładu N (m, c)
Zadanie 6 Znaleść f. ch. N (m
1
, m
2
, v
1
, v
2
, ρ) = e
Q, ρ ∈ (−1, 1)
m
(1,0)
( e
Q) = m
1
∈ R
m
(0,1)
( e
Q) = m
2
∈ R
µ
(2,0)
(0, 1)( e
Q) = v
1
> 0
µ
(0,2)
(0, 1)( e
Q) = v
2
> 0
µ
(1,1)
= ρ
√
v
1
, v
2
Jeśli e
Q jest szczególnym przypadkiem Q, to:
m = (m
1
, m
2
)
c =
v
1
ρ
√
v
1
v
2
ρ
√
v
1
v
2
v
2
A więc spodziewamy się, że:
Z
R
d
e
i(t
1
x
1
+t
2
x
2
)
1
2π
pv
1
v
2
(1 − ρ
2
)
exp
−
1
2(1 − ρ
2
)
(x
1
− m
1
)
2
v
1
− 2ρ
(x
1
− m
1
)(x
2
− m
2
)
√
v
1
v
2
+
+
(x
2
− m
2
)
2
v
2
dx
1
dx
2
?
= e
i(t
1
m
1
+t
2
m
2
)
e
−
1
2
(t
2
1
v
1
+2t
1
t
2
ρ
√
v
1
v
2
+t
2
2
v
2
)
Zadanie 7 Znaleźć gęstość f
N (m,c)
(x)
Odp.:
1
√
2π
d
√
det c
exp
−
1
2
(x − m) ◦ c
−1
◦ (x − m)
T
, gdy det c 6= 0 (a więc > 0)
Definicja 6 (Funkcji losowej) (Ω, F , P r) - przestrzeń probab.
X
i
: (Ω, F ) −→ (X
i
, B
i
), i ∈ T
Taką rodzinę nazywamy funkcją losową o wartościach w X
i
dla i ∈ T
Zadanie 8 Znajdowanie rozkładu podukładu.
Zadanie 9 Zmienne losowe X
1
, X
2
, X
3
∼ N (m
1
, m
2
, m
3
,
c
11
c
12
c
13
c
21
c
22
c
23
c
31
c
32
c
33
)
Jaki jest rozkład zmiennej losowej X
2
, X
3
?
10
5
Przykłady procesów
5.1
Najprostsze przykłady/funkcji losowych
Nazwa proces jest synonimem funkcji losowej z tym, że proces ”chętniej stosu-
jemy, gdy dziedzinę procesu T możemy interpretować jako czas.
Gdy T jest dziedziną wielowymiarową, którą interpretujemy jako przestrzeń po-
łożeń, to wtedy funkcję losową z dziedziną T nazywamy polem losowym.
Funkcję losową nazywamy miarą losową, jeśli T algebrą podzbiorów pewnego
ustalonego zbioru, a sama funkcja losowa spełnia warunek addytywności:
X
A
+ X
B
= X
A∪B
dla A, B ⊂ T A ∩ B = ∅
Przykłady
1. Ciągi zmiennych losowych
X
1
, X
2
, . . .
T = N
. . . , X
−1
, X
0
, X
1
, X
2
, . . .
T = Z
2. B ⊂ T, B - skończone lub Z \ B - skończone, X
i
- zm. los. takie, że
X
i∈Z
|X
i
| < ∞, z pr. 1
wtedy
M
B
:=
X
i∈B
X
i
, dla wszystkich B
jest σ-addytywną funkcją zbioru
3. X - n.j.r. o rozkładzie Q (szum dystkretny o rozkładzie Q)
W szczególnym przypadku, gdy Q = N (0, v), wtedy mamy szum dyskretny
Gaussowski
4. Każdy skończony podukład X (też jest przykładem funkcji losowej z cza-
sem dyskretnym)
5.2
Procesy punktowe na prostej
Są to procesy, które mozna uznać jako szczególny przypadek 1) (dla T = Z)
T = (0 = τ
0
¬ τ
1
¬ τ
2
¬ . . .) z pr. 1
Niekiedy zmienne τ buduje się przy pomocy n.j.r X = (X
1
, X
2
, . . .) zgodnie z
równościami:
τ
1
= X
1
, τ
2
= X
1
+ X
2
, . . . , τ
n
=
P
n
i=1
X
i
z pr. 1
przy zał. X
1
, X
2
, . . . są nieujemne z pr. 1
Wtedy X - proces (ciąg) odstępów procesu chwil odnów T.
T - prosty strumień odnów o rozkł. odstępów P
X
1
= Q
Chwile τ interpretuje się jako punkty na prostej. Z tego można skonstruować
11
miarę losową [czyt. w zbiorach, które są skończonymi sumami przedziałów za-
wartych w ustalonym przedziale]
N
[0,a)∪[b,c)
= ]
n
i 1 : τ
i
∈ [0, a) ∪ [b, c)
o
N
t
:= N
[0,t)
, t 0, − proces liczący z czasem ciągłym
ω 7−→ τ
1
(ω), τ
2
(ω), . . .
7−→ N
t
(ω)
Funkcją odnowy jest H
t
:= E{N
t
}
t0
, o ile istnieje.
5.3
Procesy gaussowskie [z dziedziną R
+
lub R
−
]
T - dowolny zbiór indeksów - przestrzeń parametrów procesu
X
t
: (Ω, F ) −→ (R, B), t ∈ T - proces rzeczywisty z dzidziną T
P r - miara probab. na (Ω, F )
X := (X
t
, t ∈ T ), m : T −→ R, c : T × T −→ R
(∗)
c
t
i
,t
j
: {t
1
× . . . × t
d
} × {t
1
× . . . × t
d
}
0 dla każdego zb.{t
1
, . . . , t
d
} ⊂ T
c
t,s
= c
s,t
, t, s ∈ T
Mówimy, że X jest procesem gaussowskim, o ile dla każdego {t
1
, . . . , t
d
} ⊂ T
podukład (X
t
1
, . . . , X
t
d
) ma rozkład:
N m
t
1
, . . . , m
t
d
; [c
t
i
,t
j
: i, j ∈ {1, 2, . . . , d}]
Założenia o m i c gwarantują, że takie procesy istnieją.
m - funkcja wartości średnich
c - funkcja kowariancji
c
t,s
= cov(X
t
, X
s
) = E
(X
t
− EX
t
)(X
s
− EX
s
)
= . . . = c
s,t
Istnienie gwarantuje tzw. twierdzenie Kołmogorowa oraz własności rozkładu
gaussowskiego.
5.4
Ruch Browna [Przykład procesu gaussowskiego]
1. (X
t
, t 0); T = R
+
= [0, ∞)
2. X
0
= 0 z pr. 1
3. X jest proc. gaussowskim o m = (m
t
= 0, t 0); c
t,s
= min{t, s}, t, s 0
Dla sprawdzenia warunków dostatecznych istnienia takiego procesu wystarczy
sprawdzić (*).
Tak jest, bo:
c
t,s
=
Z
∞
0
X
[0,t)
X
[0,s)
dλ
(1)
≡
Z
∞
0
X
[0,t)
(x)X
[0,s)
(x)dx = hX
[0,t)
; X
[0,s)
i
12
Zaś dla f
1
, . . . , f
d
∈ L
2
(R
+
) :
h
d
ij
=
R
∞
0
f
i
f
j
, i, j = 1, 2, . . . , d
i
jest nieujemnie
określona.
Rzeczywiście:
∀
a
1
,...,a
d
∈ R
n
X
i,j=1
a
i
d
ij
a
j
=
Z
R
+
n
X
i,j=1
a
i
f
i
f
j
a
j
=
Z
R
+
n
X
i=1
a
i
f
i
n
X
j=1
a
j
f
j
=
=
Z
R
+
n
X
i=1
a
i
f
i
2
0
Zadanie 10 Proces gaussowski X jest procesem ruchu Browna, jeśli:
1. X
0
= 0 z pr. 1;
EX
t
= 0
2. ∀
0
< t
1
< . . . < t
n
X
t
1
− X
0
, X
t
2
− X
t
1
, . . . , X
t
n
− X
t
n−1
są niezależne
V ar(X
t
− X
s
) = |t − s|, t, s 0
6
Prawdopodobieństwa i wartości oczekiwane wa-
runkowe
A, B, P r(B) 0
P r(A|B) =
P r(A ∩ B)
P r(B)
Uzasadnienie nazwy:
x
1
, . . . , x
N
A - wpadnięcie wyniku do zbioru Z
1
B - wpadnięcie wyniku do zbioru Z
2
e
P
N
(A) =
]{i : x
i
∈ Z
1
}
N
e
P
N
(B) =
]{i : x
i
∈ Z
2
}
N
e
P
N
(A|B) =
]{i : x
i
∈ Z
1
∩ Z
2
}
]{i : x
i
∈ Z
2
}
=
]{i : x
i
∈ Z
1
∩ Z
2
}
N
/
]{i : x
i
∈ Z
2
}
N
=
e
P
N
(A ∩ B)
e
P
N
(B)
4
Przypomnienie:
P r(A ∩ B) = P r(A)P r(B) - niezależne, bo wtedy:
P r(A|B) = P r(A), o ile P r(B) > 0
Definicja 7 A
1
, A
2
, . . . , A
n
są niezależne wtedy i tylko wtedy, gdy
P (A
i
1
∩ . . . ∩ A
i
k
) =
k
Y
j=1
P r(A
i
j
) dla {i
1
, . . . , i
k
} ⊂ {1, 2, . . . , n}
13
6.1
Warunkowy rozkład pr. przy warunku B
P r(A|B), A ∈ F
= P r
B
(A) ∈ F
≡ P r( . |B)
6.2
Dystrybuanta warunkowa zm. los. X przy warunku B
F
X|B
(x) = P r{X < x|B}, gdy P r(B) > 0
Np. X, Y - zm. los.; Y ∈ {y
1
, . . . , y
l
} z pr. 1
F
X|Y =y
j
(x) = P r{X < x|Y = y
j
}, gdy P {Y |y
j
} > 0
W przypadku P r
y
j
: P r{Y = y
j
} > 0
= 1
P r A|Y
(ω) =
P r(A|Y = y
j
)
gdy Y (ω) = y
j
, P {Y = y
j
} > 0
0
w przeciwnym wypadku
Tak określone pr. warunkowe jest zmienną losową Y -mierzalną
ω 7−→ Y (ω) 7−→ P r A|Y
(ω)
X - zm. losowa, EX ∈ R [EX
+
< ∞ ∧ EX
−
< ∞
G ⊂ F
np. G =
Y
−1
(B), B ∈ B
(1)
G 3 C
ϕ
7−→
Z
C
XdP r ≡ E{χ
C
X}
σ − addytywne sk. na G
ϕ(C) = 0, gdy P r(C) = 0
Z tw. Radona-Nikodyma: Istnieje taka G-mierzalna ψ
X
, że
Z
C
XdP r ≡ ϕ(C) =
Z
C
ψ
X
(ω)dP r(ω), gdzie ψ
X
: (Ω, G) −→ (R, B)
ψ
X
- nazywamy wartością oczekiwaną zm. los. X względem σ-ciała G
ψ
X
=: E{X|G}
Przykład
Ω = [0, 1] z miarą Legesque’a na σ-ciele B
(1)
[0, 1]
X : [0, 1], F
−→ (R, B) - dowolna funkcja borelowska
Zmienna losowa w tym przypadku jest dowolną funkcją borelowską.
h
X jest taka ⇔ X
−1
(−∞, a) ∈ F
i
np.
1.
X(x) =
1
√
x
dla x ∈ (0, 1]
0
dla x = 0
2. G np. σ
(0,
k
n
], k = 1, 2, . . . , n
(2
n
)
=
∅, [0,
1
n
], (
1
n
,
2
n
], . . . , (
k−1
n
,
k
n
], . . . , [0,
1
n
] ∪ (
n−1
n
, 1], . . .
14
Z
C
XdP r =
Z
C
ψ
X
(ω)dP r(ω)
0
◦
Dla C = ∅ - automatycznie
1
◦
Dla C = (
i−1
n
,
i
n
], gdzie i = 1, 2, . . . , n
Z
(
i−1
n
,
i
n
]
1
x
dx =
Z
i
n
i−1
n
ψ
X
(x)dx = 2
√
x|
i
n
i−1
n
= ψ
(i)
X
1
n
, gdzie ψ
(i)
X
= ψ
X
(ω) dla ω ∈ (
i − 1
n
,
i
n
]
Wniosek 3 Jeżeli X ma wartość oczekiwaną skończoną, a G jest skończenie
generowane przez atomy, tzn. EX < ∞, G = σ(A
1
, . . . , A
n
), A
i
∩ A
j
= ∅,
S
i
A
i
= Ω, to
E{X|G} =
n
X
i=1
Z
A
i
XdP r
P r(A
i
)
X
A
i
E{X|G} niesie informacje o zmiennej losowej X z dokładnością do G.
Wniosek 4 T = {∅, Ω} - σ-ciało trywialne, to E{X|T } = EX na Ω.
Jeśli A ∈ F , G ⊂ F , to prawdopodobieństwo warunkowe A względem σ-ciała
G wynosi z def:
P (A|G) := E{X
A
|G}
Zadanie 11 (Ω, F , P r) jak w Przykładzie. Dla dowolnego n ∈ N, X(x) = x
znaleźć wartość oczekiwaną warunkową względem danego σ-ciała.
Zadanie 12 Dana jest gęstość pary (X, Y ):
f
X,Y
(x, y) =
x + y
x ∈ (0, 1), y ∈ (0, 1)
0
poza tym
a)
E(X|Y = y) =
Z
R
xf
X|Y
(x|y)dx =
Z
R
x
f
X,Y
(x, y)
R
R
f
X,Y
(x, y)dx
dx =
Z
1
0
(x + y)dx =
1
2
x
2
+ xy|
x=1
x=0
=
1
2
+ y
y ∈ (0, 1)
!
=
Z
1
0
x
x + y
y +
1
2
dx =
1
y +
1
2
Z
1
0
(x
2
+xy)dx =
1
y +
1
2
1
3
x
3
+
1
2
x
2
y
x=1
x=0
=
1
y +
1
2
1
3
+
1
2
y
=
=
1
3
+
1
2
y
1
2
+ y
=
2 + 3y
3 + 6y
b)
E
X exp
n
Y +
1
Y
o
|Y = y
y ∈ (0, 1)
E
n
e
Y +
1
Y
X|Y = y
o
= e
y+
1
y
E{X|Y = y} = e
y+
1
y
2 + 3y
3 + 6y
15
Zadanie 13 X + Z
1
, Y = Z
1
+ Z
2
, E(X|Y ) = ?
Y = E(Y |Y ) = E(Z
1
+ Z
2
|Y ) = E(Z
1
|Y ) + E(Z
2
|Y )
Jeżeli Z
1
i Z
2
są symetryczne, to
E(Z
1
|Y ) = E(Z
2
|Y )
E(X|Y ) = E(Z
1
|Y ) =
Y
2
Zadanie 14 N
1
, N
2
są niezależne o rozkładzie Poissona z parametrem λ
1
=
20, λ
2
= 30. Obliczyć var(N
1
|N
1
+ N
2
= 50).
P r(A|B) =
P r(A ∩ B)
P r(B)
P r{N
1
= n|N
1
+N
2
= 50} =
P r{N
1
= n ∧ N
1
+ N
2
= 50}
P r{N
1
+ N
2
= 50}
=
P r{N
1
= n, N
2
= 50 − n}
P r{N
1
+ N
2
= 50}
=
=
P r{N
1
= n}{N
2
= 50 − n}
P r{N
1
+ N
2
= 50}
=
50
n
λ
1
λ
1
+ λ
2
n
λ
2
λ
1
+ λ
2
∼ B
50,
λ
1
λ
1
+ λ
2
To ma związek z rozrzedzaniem procesów.
var(N
1
|N
1
+ N
2
= 50) = 50
2
5
3
5
= 12
Zadanie 15 Pokazać, że z warunków:
0) (X
t
, t 0) - gaussowski
1) X
0
= 0
2) EX
t
= 0
3) X
t
1
− X
t
0
, X
t
2
− X
t
1
, . . . , X
t
n
− X
t
n−1
są niezależne
3’) var(X
t
, X
s
) = |t − s|,
t, s 0
wynika, że:
Cov(X
t
− X
s
) = min {t, s}
1
◦
t = s
L = Cov(X
t
, X
t
) = var(X
t
) = var(X
t
− X
0
) = |t − 0| = t = min {t, s}
2
◦
t > s
L = Cov X
s
+ (X
t
− X
s
), X
s
= Cov(X
s
, X
s
) + Cov(X
t
− X
s
, X
s
) =
= var(X
s
) + Cov(X
t
− X
s
, X
s
)
|
{z
}
0
= var(X
s
) = s = min {t, s}
3
◦
t < s
analogicznie (bo obie strony równości są symetryczne ze względu na zamianę
zmiennych)
16
Definicja 8 (prawdopodobieństwa warunkowego)
P r(A|G) = E(X
A
|G) = ϕ
ϕ : (Ω, G) −→ (R, B)
Z
C
ϕ dP r = P r(C ∩ A) C ∈ G
6.3
Własności wartości oczekiwanej warunkowej
1.
W {X|G} ¬ E{Y |G}, o ile X ¬ Y
2.
E{X + Y |G} = E{X|G} + E{Y |G}
3.
E{ϕ|G} = ϕ gdy ϕ jest G − mierzalna
4.
E{ϕX|G} = ϕE{X|G}, gdy ϕ jest G − mierzalna
5.
E
E{X|G
1
}|G
= E{X|G}, G
1
⊃ G
Wniosek 5
E
E{X|G}|G = E{X|G}
Uwaga
Wszystkie powyższe związki obowiązują P r pr. wszędzie, względem σ-ciała G.
Dowód: (wł. 2)
Niech
ϕ
1
= E{X|G}, tzn.
Z
C
ϕ
1
dP r =
Z
C
XdP r, ϕ
1
∈ (G)
ϕ
2
= E{Y |G}, tzn.
Z
C
ϕ
2
dP r =
Z
C
Y dP r, ϕ
2
∈ (G)
wtedy: ϕ
1
+ ϕ
2
∈ (G)
Z
C
(ϕ
1
+ϕ
2
)dP r =
Z
C
ϕ
1
dP r+
Z
C
ϕ
2
dP r =
Z
C
XdP r+
Z
C
Y dP r =
Z
C
X+Y dP r
zatem:
Z
C
(ϕ
1
+ ϕ
2
)dP r =
Z
C
X + Y dP r dla C ∈ G
ϕ
1
+ ϕ
2
= E{X + Y |G}
17
4
Dowód: (wł. 3)
E{X|G} = X, gdy X ∈ (G)
1. X - jest G-mierzalny z założenia
2.
Z
C
XdP r =
Z
C
XdP r
więc: (X spełnia warunki wartości oczekiwanej)
X = E{X|G}
4
Dowód: (wł 5)
ϕ
1
= E{X|G
1
},
ϕ = E{X|G}
Czy E(ϕ
1
|G) = ϕ ?
- Czy ϕ G-mierzalne ?
- Czy
R
C
ϕdP r =
R
C
ϕ
1
dP r (dla c ∈ G) ?
ϕ - G-miarzalna
L =
Z
C
ϕdP r =
Z
C
XdP r
RHS =
Z
C
ϕ
1
dP r =
Z
C
XdP r, bo C ∈ G ⊂ G
1
L = RHS
4
Względem σ-ciał generowanych przez zm. losowe mamy:
Fakty wstępne:
E{X|Y } := E{X|σ
Y
}, gdzie σ
Y
= {Y
−1
(B), B ∈ B}
Z = ϕ ◦ X [≡ ϕ(X)]
σ
Z
⊂ σ
Y
Rzeczywiście:
Z
−1
(B) = (ϕ ◦ Y )
−1
(B) = Y
−1
ϕ
−1
(B)
∈ σ
Y
, bo ϕ
−1
(B) ∈ B, bo ϕ - borel.
Przykład: (że nie ma = tylko jest ⊂)
Z = 1 (≡ ϕ = 1)
σ
Z
= {Z
−1
(B), B ∈ B} = {Ω, ∅}
Wniosek 6
E{ϕ(Y )|Y } = ϕ(Y )
18
Jest to szczególny przypadek własności 6):
X jest G
1
-mierzalny, G
1
⊂ G to
E{X|G} = X
Rzeczywiście, wystarczy wauważyć, że X jest również G-mierzalne, bo X
−1
(B) ∈
G
1
⊂ G i skorzystać z własności 3).
Definicja 9 (Rozkład warunkowy X względem σ-ciała G)
P
X|G
(B) = P r{X ∈ B|G}, B ∈ B
(1)
Definicja 10 (Rozkład warunkowy Pr
|G
1
względem σ-ciała G)
P
G
1
|G
(A) = P r{A|G}, A ∈ G
1
o ile uzyskane funkcje są σ-addytywne względem B z pr. 1
Przykłady: (rozkładów warunkowych)
Niech X
1
, . . . , X
n
∈ N
0
z pr. 1
p
(0)
, p
(1|0)
, . . . , p
(n|n−1)
p
(i|i−1)
= p
(i|i−1)
j,k
, (j, k) ∈ N
2
0
p
(0)
0
P
i
p
(0)
i
= 1, ∀
k
P
j
p
(i|i−1)
j,k
= 1, p
(i|i−1)
j,k
0
Budujemy ciąg markowski o wartościach przeliczalnych
P r{X
0
= j
0
, X
1
= j
1
, . . . , X
n
= j
n
} = p
(n|n−1)
j
n
,j
n−1
p
(n−1|n−2)
j
n−i
,j
n−2
. . . p
(2|1)
j
2
,j
1
p
(1|0)
j
1
,j
0
p
(0)
j
0
dla (j
0
, . . . , j
n
) ∈ N
n+1
0
Fakt
Jeśli X , B, Q, Q - miara probab. na B, to
∃
(Ω,F ,P r)
X : (Ω, F ) −→ (X , B), taka, że P
X
= Q
Dowód:
Ω = X , F = B, P r = Q, X = id
4
7
Łańcuch markowski (Markowa) o wartościach
przeliczalnych:
P r{X
n
= j
n
|X
0
= j
0
, . . . , X
n−1
= j
n−1
} = p
(n|n−1)
j
n
,j
n−1
o ile warunek ma prawdopodobieństwo dodatnie
Własności:
19
1. (X
0
, . . . , X
k
) jest także łańcuchem Markowa dla 0 ¬ k ¬ n
2. (X
t
0
, X
t
1
, . . . , X
t
l
) też jest łańcuchem Markowa, gdy 0 ¬ t
0
¬ t
1
¬ . . . ¬
t
l
¬ n
3. P {X
k
= j
k
|X
m
= j
m
} = p
(k|k−1)
◦ . . . ◦ p
(m+1|m)
|
{z
}
(k−m czynników)
j
k
j
m
Twierdzenie 13 Jesli (X
0
, . . . , X
n
) - łańcuch Markowa zdefiniowany jek wy-
żej, to:
P r{X
t
l
|X
0
, . . . , X
t
l−1
} = p
(t
l
|t
0
)
k|X
tl−1
z pr. 1
o ile 0 ¬ t
0
¬ . . . ¬ t
l
¬ n dla k = 0, 1, . . .
Twierdzenie 14
∃
ϕ − borel.
E{X|Y } = ϕ(Y ) z pr. 1
Dowód: (jednego przypadku)
Y - zm. losowa prosta
P r{Y = y
j
} = q
j
0,
m
X
j=0
q
j
= 1, y
j
6= y
k
dla j 6= k
E{X|Y }(ω) =
1
q
j
R
Y =q
j
XdP r
gdy Y (ω) = y
j
, q
j
> 0
(∗) (np. 0)
gdy Y (ω) = y
j
, q
j
= 0
= ϕ Y (ω)
,
gdzie
ϕ(y
j
) =
1
q
j
R
Y =y
j
XdP r
gdy q
j
> 0
(∗)
w przeciwnym przypadku
4
Dlatego stosuje się oznaczenie:
E{X|Y = y} := ϕ(y)
nawet jeśli P {Y = y} = 0, gdzie ϕ - funkcja z powyższego twierdzenia
Zadanie 16 Pokazać, że (X
0
, . . . , X
k
) jest również ciągiem markowskim. wsk.
znaleźć rozkład pr. podukładu
(X
0
, . . . , X
n
) ∈ N
n+1
0
(X
0
, . . . , X
k
) ∈ N
k+1
0
P r(X
0
= j
0
, . . . , X
k
= j
k
) = P r(X
0
= j
0
, . . . , X
k
= j
k
, X
k+1
∈ N
0
, . . . , X
n
∈ N
0
) =
=
X
j
k+1
X
j
k+2
. . .
X
j
n
P r{X
0
= j
0
, . . . , X
k
= j
k
, X
k+1
= j
k+1
, . . . , X
n
= j
n
} =
20
X
j
k+1
. . .
X
j
n
p
(n|n−1)
j
n
,j
n−1
|
{z
}
0
. . . p
(0)
j
0
= p
(k|k−1)
j
k
,j
k−1
. . . p
(0)
j
0
Zadanie 17 Pokazać ,że P r{X
n
= j
n
|X
n−1
= j
n−1
, . . . , X
0
= j
0
} = p
(n|n−1)
j
n
,j
n−1
P r(A|B) =
P r(A ∩ B)
P r(B)
P r{X
n
= j
n
|X
0
= j
0
, . . . , X
n−1
= j
n−1
} =
P r{X
n
= j
n
, . . . , X
n−1
= j
n−1
}
P r{X
0
= j
0
, . . . , X
n−1
= j
n−1
}
=
=
p
(n|n−1)
j
n
,j
n−1
p
(n−1|n−2)
j
n−1
,j
n−2
. . . p
(0)
j
0
p
(n−1|n−2)
j
n−1
,j
n−1
. . . p
(0)
j
0
= p
(n|n−1)
j
n
,j
n−1
Zadanie 18 Zał. (X
0
, . . . , X
n
) - ciąg markowski, 0 ¬ t
0
< t
1
< . . . < t
l
¬ n.
Czy (X
t
0
, . . . , X
t
l
) - markowski ?
P r{X
t
l
= k
l
, . . . , X
t
0
= k
0
} = P r
X
t
l
= k
l
, . . . , X
t
0
= k
0
, X
j
∈ N
0
, dla j /
∈ {t
0
, . . . , t
l
}
=
=
t
l
<n
P r{X
n
∈ N
0
, X
n−1
∈ N
0
, . . . , X
t
l
+1
∈ N
0
, X
t
l
= k
l
, :::} =
=
X
j
n
X
j
n−1
. . .
X
j
tl+1
. . . p
(n|n−1)
j
n
,j
n−1
p
(n−1|n−2)
j
n−1
,j
n−2
. . . p
(t
l
+1|t
l
)
j
tl+1
,k
l
p
(t
l
|t
l
−1)
k
l
,j
tl−1
::: =
=
X
j
tl−1
. . .
X
j
tl−1+1
. . . p
(t
l
|t
l
−1)
k
l
,j
tl−1
p
(t
l
−1,t
l
−2)
j
tl−1
,j
tl−2
. . . p
(tl−1+1|t
l−1
)
j
tl−1+1
,k
l−1
::: =
= p
(t
l
|t
l
−1)
◦ . . . ◦ p
(t
l−1
+1|t
l−1
)
k
l
,k
l−1
::: = p
(t
l
|t
l
−1)
◦ . . . ◦ p
(t
l−1
+1|t
l−1
)
k
l
,k
l−1
|
{z
}
p
(tl|tl−1)
kl,kl−1
p
(t
l−1
|t
l−2
)
k
l−1
,k
l−2
. . . p
(t
1
|t
0
)
k
1
,k
0
X
j
t0
−1
. . .
X
j
0
p
(t
0
|t
0
−1)
k
0
,j
t0
−1
. . . p
(2|1)
j
2
,j
1
p
(1|0)
j
1
,j
0
p
(0)
j
0
|
{z
}
(∗)
————————
p
(t|s)
k,l
=
X
j
t−1
...j
s+1
p
(t|t−1)
k,j
t−1
. . . p
(s+2|s+1)
j
s+2
,j
s+1
p
(s+1|s)
j
s+1
,l
= p
(t|t−1)
◦p
(t−1|t−2)
◦. . .◦p
(s+2|s+1)
p
(s+1|s)
kl
czyli
p
(t|s)
= p
(t|t−1)
◦ . . . ◦ p
(s+1|s)
p
(s)
= p
(s|0)
◦ p
(0)
————————
(∗) = p
(t
0
)
k
0
21
Zatem (X
t
0
, . . . , X
t
l
) też jest ciągiem markowa o macierzach:
p
(t
l
|t
l−1
)
, . . . , p
(t
1
|t
0
)
, p
(t
0
)
a więc
P r{X
t
l
= k
l
, . . . , X
t
0
= k
0
} = p
(t
l
|t
l−1
)
k
l
,k
l−1
. . . p
(t
1
|t
0
)
k
1
,k
0
p
(t
0
)
k
0
Twierdzenie 15
P r{A|B}(ω) = P r(A|E
i
) z pr. 1, ω ∈ E
i
gdy B = σ(E
1
, E
2
, . . .), E
1
∪ E
2
∪ . . . = Ω, E
i
∩ E
j
= ∅ dla i 6= j
|
{z
}
E
1
,E
2
,... tworzą przeliczalne rozbicie Ω
tzn. każdy podzbiór E
i
jest już zbiorem pustym.
Prawdopodobieństwo przejścia miedzy chwilą n a n − 1 ze stanu X
n−1
do
stanu j
n
ma postać:
P {X
n
6= j
n
|X
1
, . . . , X
n−1
} = p
(n|n−1)
j
n
,X
n−1
Wniosek 7
P r{X
t
l
= k
l
|X
0
, X
1
, . . . , X
t
l−1
} = p
(t
l
|t
l−1
)
k
l
,X
tl−1
p
(t
l
|t
l−1
)
= p
(t
l
|t
l
−1)
. . . p
(t
l−1
+1|t
l−1
)
p
(s)
= p
(s|s−1)
. . . p
(1|0)
p
(0)
Własność
p
(t|s)
= p
(t|u)
◦ p
(u|s)
, o ile s ¬ u ¬ t
p
(t|t)
= 1
Jeśli S-zb. przeliczalny, t ∈ T = [0, ∞), p
(0)
− m. p. na S, p
(t|s)
, t
s, takie, że :
1. p
(t|s)
- stochastyczna, tzn
P
j
p
(t|s)
j,i
= 1
2. równanie Chapmana-Kołmogorowa-Einsteina-Smoluchowskiego
∀
0¬s¬u¬t
p
(t|s)
= p
(t|u)
◦ p
(u|s)
wówczas (X
t
, t ∈ T ) - proces markowski z tymiż parametrami, jeśli
∀
l∈N
0
∀
0=t
0
<...<t
l
P {X
t
0
= k
0
, X
t
1
= k
1
, . . . , X
t
l
= k
l
} = p
(t
l
|t
l−1
)
k
l
,k
l−1
. . . p
(t
0
)
k
0
gdzie p
(t
0
)
= p
(t
0
|0)
p
(0)
22
Szeroką klasą takich macierzy ”kwadratowych” o wyrazach p
(t|s)
j,i
spełniają-
cych 1 i 2 są macierze postaci p
(t−s)
j,i
, gdzie p
(u)
j,i
są rozwiązaniami następującego
układu równań różniczkowych I-rzędu:
(1)
d
du
p
(u)
= Λ ◦ p
(u)
Λ = λ
j,i
, gdzie λ
j,i
0 j 6= i,
P
j
λ
j,i
= 0, i, j ∈ S
(2) p
(0)
= 1
tzn.
p
(u)
= e
Λu
=
∞
X
m=0
Λ
m
u
m
1
m!
Przykład dla S = {0, 1}
Λ =
−µ
λ
µ
−λ
λ, µ > 0
p
0
00
p
0
01
p
0
10
p
0
11
=
−µ
λ
µ
−λ
p
00
p
01
p
10
p
11
,
0
=
d
du
p
0
00
p
0
10
=
−µ
λ
µ
−λ
p
00
p
10
p
0
00
= −µp
00
+ λp
10
p
0
10
= µp
00
− λp
10
p
00
00
= −µp
0
00
+ λp
0
10
= −µp
0
00
+ λ(µp
00
− λp
10
) = −µp
0
00
+ λµp
00
− λ
2
p
10
=
= −µp
0
00
+ λµp
00
− λ(µp
00
+ p
0
00
) = −µp
0
00
+ λµp
00
− λµp
00
− λp
0
00
=
= (−µ − λ)p
0
00
p
00
00
+ (µ + λ)p
0
00
= 0
p
0
00
= ce
−(µ+λ)u
p
00
= c
1
e
−(µ+λ)u
+ c
2
p
00
00
= c
1
(−µ − λ)e
−(µ+λ)u
= −µ(c
1
e
−(µ+λ)u
+ c
2
) + λp
10
c
1
e
−u(µ+λ)
(−µ − λ + µ) + µc
2
= λp
10
p
10
= −c
1
e
−(µ+λ)u
+
µ
λ
c
2
warunki początkowe: p
00
= 0, p
01
= 1 dla u = 0
zatem:
c
1
+ c
2
= 1
−c
1
+
µ
λ
c
2
= 0
c
1
=
µ
λ + µ
c
2
=
λ
λ + µ
23
p
00
=
µ
λ+µ
e
−(µ+λ)u
+
λ
λ+µ
p
10
= −
µ
λ+µ
e
−(µ+λ)u
+
µ
λ
λ
λ+µ
=
µ
λ+µ
(1 − e
−(λ+µ)u
)
"
µ
λ+µ
e
−(µ+λ)u
+
λ
λ+µ
λ
λ+µ
(1 − e
−(λ+µ)u
)
µ
λ+µ
(1 − e
−(λ+µ)u
)
λ
λ+µ
e
−(µ+λ)u
+
µ
λ+µ
#
= p
(u)
Jest to macierz stochastyczna, bo wyrazy są dodatnie i kolumny sumują sie do
jedynki. Ponadto na mocy równości:
p
(u)
◦ p
(v)
= p
(u+v)
możemy powiedzieć, że (p
(u)
)
u0
, to półgrupa jednoparametrowa macierzy sto-
chastycznych ze względu na złożenie
Zatem rzeczywiście, gdy p
(t|s)
= p
(t−s)
mamy:
p
(t|u)
◦ p
(u|s)
= p
(t|s)
L = p
(t−u)
◦ p
(u−s)
= p
(t−u+u−s)
= p
(t−s)
= RHS
Zadanie 19
Gdy Λ :
wartości poza przekątną 0
P
j
λ
j
= 0 w kolumnach
⇒ e
Λu
, u ∈ [0, ∞) − półgr. mac. stoch.
Uzupełnienie:
e
Λu
e
Λv
=
∞
X
n=0
(Λu)
n
n!
∞
X
m=0
(Λv)
m
m!
=
∞
X
k=0
k
X
n=0
(Λu)
k
n!
(Λv)
k−n
(k − n)!
=
=
∞
X
k=0
1
k!
k
X
n=0
k
n
u
n
v
k−n
|
{z
}
(u+v)
k
Λ
k
= e
Λ(u+v)
, o ile kΛk < ∞
Fakt
(e
Λu
)
0
u
= Λe
Λu
, u 0 (o ile kΛk < ∞)
Dowód:
L
ji
=
∞
X
n=0
Λ
n
u
n
n!
0
=
∞
X
n=1
Λ
n−1
u
n−1
(n − 1)!
Λ = Λ ◦ e
Λu
4
24
Wniosek 8 e
Λu
jest jedynym rozwiązaniem równania różniczkowego:
M
(u)
0
= ΛM
(u)
M
(0)
= 1
8
Proces Poissona
Niech p
(t|s)
= p
(u)
= e
Λu
macierz prawdop. przejść procesu Markowa z czasem
ciągłym
Λ - macierz intensywności prawdop. przejść
Definicja 11 Proces Poissona to proces Markowa o wartościach N
0
, t ∈ [0, ∞)
dla którego macierz intensywności prawdop. przejść jest postaci:
−λ
0
0
0
0
. . .
λ
−λ
0
0
0
. . .
0
λ
−λ
0
0
. . .
0
0
λ
−λ
0
. . .
0
0
0
λ
−λ
. . .
..
.
..
.
..
.
..
.
..
.
. .
.
P r{X
0
= 0} = 1, p
(u)
ji
=
(
(λu)
j−i
(j−i)!
e
−λu
j i 0
0
0 ¬ j ¬ i
Lemat
Λ - ma nad przekątną same zera ⇒ e
Λu
też.
Zadanie 20 Sprawdzamy, czy prawdziwe jest:
p
(u)
0
= Λ ◦ p
(u)
p
(0)
= 1
Druga równość jest oczywista.
L = p
(u)
0
=
(λu)
j−i
(j − i)!
e
−λu
0
=
(j − i)(λu)
j−i−1
λ
(j − i)!
e
−λu
+
+
(λu)
j−i
(j − i)!
e
−λu
(−λ) = −λp
(u)
ji
+ λ
0
j = i
p
(u)
j−1,i
j > i
25
RHS = Λ◦p
(u)
=
−λ
0
0
0
. . .
λ
−λ
0
0
. . .
0
λ
−λ
0
. . .
0
0
λ
−λ
. . .
..
.
..
.
..
.
..
.
. .
.
◦
e
−λu
0
0
. . .
λue
−λu
e
−λu
0
. . .
(λu)
2
2
e
−λu
λue
−λu
e
−λu
. . .
..
.
..
.
..
.
. .
.
=
=
−λe
−λu
0
0
. . .
(∗)
−λe
−λu
0
. . .
(∗∗)
(∗)
−λe
−λu
. . .
..
.
..
.
..
.
. .
.
w
10
= (∗) = λe
−λu
− λ
2
ue
−λu
= λp
00
− λp
10
w
20
= (∗∗) = λp
10
− λp
20
w
jj
= −λe
−λu
j = i
w
ji
= λ(p
j−1,i
− p
j,i
)
j > i
Zatem
RHS = L
Zadanie 21 Obliczyć rozkład prawdop. przyrostu procesu Poissona.
P r{X
t+k
− X
t
= k} =
∞
X
j=0
P r{X
t+k
− X
t
= k | X
t
= j}P r{X
t
= j} = (∗∗)
P r{X
t
= j} = P r{X
t
= j | X
0
= 0}P r{X
0
= 0} =
p
(t−0)
j,0
=
(λt)
j
j!
e
−λt
P r{X
t+u
− X
t
= k | X
t
= j} =
P r{X
t+u
− X
t
= k ∧ X
t
= j, X
0
= 0}
P r{X
t
= j}
=
=
P r{X
t+u
− X
t
= k, X
t
= j, X
0
= 0}
P r{X
t
= j}
= (∗)
licznik = p
(t+u|t)
k+j,j
◦ p
(t|0)
j,0
◦ p
(0)
0
= p
(u)
k+j,j
◦ p
(t)
j,0
=
(λu)
k
k!
e
−λu
(λt)
j
j!
e
−λt
mianownik = p
(t)
j,0
=
(λt)
j
j!
e
−λt
Zatem (∗) =
(λu)
k
k!
e
−λu
(∗∗) =
∞
X
j=0
(λu)
k
k!
e
−λu
(λt)
j
j!
e
−λt
=
(λu)
k
k!
e
−λu
∞
X
j=0
(λt)
j
j!
e
−λt
|
{z
}
1
=
(λu)
k
k!
e
−λu
4
26
9
Zdarzenia niezależne
P r{X
t
= j, X
t+k
− X
t
= k} =
(λu)
k
k!
e
−λu
(λt)
j
j!
e
−λt
P r{X
t
= j} =
(λt)
j
j!
e
−λt
P r{X
t
0
= j
0
, X
t
1
−X
t
0
= j
1
, . . . , X
t
l
−X
t
l−1
= j
l
} =
l
Y
i=0
λ(t
i
− t
i−1
)
j
i
(j
i
)!
e
−λ(t
i
−t
i−1
)
Zadanie 22 Niech N
t
będzie procesem Poissona z intensywnością λ = 2. Obli-
czyć E{N
t
N
t+s
}, gdzie t, s > 0.
Rozwiązanie:
N
t
N
t+s
= N
t
(N
t
+ N
t+s
− N
t
|
{z
}
przyrost
) = N
2
t
+ N
t
(N
t+s
− N
t
)
E{N
t
N
t+s
} = E{N
2
t
}+E{N
t
}E{N
t+s
−N
t
} = E{N
t
}
2
+V ar{N
t
}+E{N
t
}E{N
t+s
−N
t
} =
= (λt)
2
+ λt + λtλs = 4t
2
+ 2t + 4ts
Zadanie 23 Udowodnić, że iloczyn macierzy stochastycznych jest macierzą sto-
chastyczną.
Nich p, q - macierze stochastyczne
X
j
p
jk
= 1, p
jk
0,
X
j
q
jk
= 1, q
jk
0
Trzeba pokazać, że
X
j
X
k
p
jk
q
kl
|
{z
}
(p◦q)
jl
= 1 ∧ (p ◦ q)
jl
0
L =
X
k
X
j
p
jk
q
kl
=
X
k
q
kl
X
j
p
jk
|
{z
}
1
=
X
k
q
kl
|
{z
}
1
= 1 = RHS
(p ◦ q)
jl
0 oczywiste
4
27
10
Szkic dowodu istnienia procesu Poissona
Proces Poissona zdefiniowaliśmy przez podanie rozkładów skończenie wymiaro-
wych.
Istnieją procesy dla dowolnej rodziny rozkładów zgodnych. Podane rozkłady dla
procesu Poissona tworzą taką rodzinę, a więc takie procesy istnieją.
Prosty strumień odnów o odstępach wykładniczych
0 ¬ τ
0
¬ τ
1
¬ . . . prosty strumień odnów z odstepami n.j.r P
Θ
P
Θ
= Γ(1, λ) = E (λ)
Niech N
t
:= {i : i 1, τ
i
¬ t},
P
N
t
= P(λt), N
t
- proces o przyrostach niezal.,
oraz P
N
t+s
−N
t
= P(λs), czyli jest poissonowski.
Dowody
Czy {N
t
¬ n} ∈ F ?
Dowód:
{N
t
¬ n} = {τ
n+1
> t}
τ
n+1
= Θ
1
+ Θ
2
+ . . . + Θ
n+1
, gdzie Θ
1
, Θ
2
, . . . , Θ
n+1
− zm.losowe
⊕ : R
n+1
−→ R jest borelowska
czyli τ
n+1
- zm. losowa,
czyli {τ
n+1
> t} ∈ F (jest zdarzeniem)
Zatem:
{N
t
¬ n} ∈ F
4
P {N
t
= n} =
P {τ
n+1
> t} − P {τ
n
> t}
n = 1, 2, . . .
P {τ
1
> t} = P (Θ > t) = e
−λt
n = 0
=
n>0
= −
F
Θ
∗(n+1)
(t) +
F
Θ
∗n
(t) = −F
Γ(n+1,λ)
(t) + F
Γ(n,λ)
(t)
t>0
=
= −
Z
t
0
u
n
λ
n+1
Γ(n + 1)
e
−λu
du +
Z
t
0
u
n−1
λ
n
Γ(n)
e
−λu
du =
s = λu
=
= −
Z
λt
0
s
n
e
−s
n!
ds+
Z
λt
0
s
n−1
e
−s
(n − 1)!
ds =
−
s
n
n!
(−e)
−s
s=λt
s=0
−
Z
λt
0
s
n−1
(n − 1)!
e
−s
ds+
+
Z
λt
0
s
n−1
(n − 1)!
e
−s
ds =
(λt)
n
n
e
−λt
dla n 0
Fakt
P r{τ
n+1
> t + u | τ
n
¬ t} = e
−λn
28
Dowód:
P r{τ
n+1
> α + β | τ
n+1
> α} = P r{Θ > α + β | Θ > α} =
=
P r{Θ > α + β}
P r{Θ > α}
=
e
−λ(α+β)
e
−λα
= e
−λβ
(α może być losowe)
4
P r{N
t+s
− N
t
= 0 | N
t
= n} = P r{Θ
n+1
> t + s − τ
n
| Θ
n+1
> t − τ
n
} = e
−λs
..
.
itd.
P r{N
t
= j
n
∧ N
t+s
− N
t
= k} =
(λk)
j
j!
e
−λt
(λs)
k
k!
e
−λs
i dla większej ilości odstępów również.
Przykład [model piorunów]
N
M
= [λM ] - liczba cząstek wrzuconych n.j.r do [0, M ] z rozkładem J
[0,M ]
(∗) =
P r
M
{N
M
[0,t
1
)
= j
1
, N
M
[t
1
,t
2
)
= j
2
, . . . , N
M
[t
n−1
,t
n
)
= j
l
: j
1
, . . . , j
n
∈ N
0
=
l=1
=
t
1
M
j
1
1 −
t
1
M
N −j
1
N
j
1
dla (l + 1) rodzajów „przeznaczeń”
(∗) =
t
1
M
j
1
t
2
− t
1
M
j
2
. . .
t
l
− t
l−1
M
j
l
1−
t
l
M
N −
P
l
i=1
j
i
N !
j
1
!j
2
!, . . . j
l
! N −
P
l
i=1
j
i
!
−→
−→
N
P
j
∆
j
j
1
!j
2
!, . . . , j
l
!M
P
j
e
−λt
[przy M → ∞] −→
−→
λt
1
j
1
λ(t
2
− t
1
)
j
2
. . . λ(t
l
− t
l−1
)
j
l
j
1
!j
2
! . . . j
l
!
e
−λt
1
e
−λ(t
2
−t
1
)
. . . e
−λ(t
l
−t
l−1
)
[przy M → ∞]
(∗) −→ P λt
1
(j
1
)P λ(t
2
− t
1
)
(j
2
) . . . P λ(t
l
− t
l−1
)
(j
l
) [przy M → ∞]
4
W procesie Poissona mamy:
P {N
t
1
− N
0
= k
1
, N
t
2
− N
t
1
= k
2
, . . . , N
t
l
− N
t
l−1
= k
l
} =
= P {N
t
1
− N
0
= k
1
} . . . P {N
t
l
− N
l−1
= k
l
}, N
0
= 0 z pr. 1
Stąd wywnioskowaliśmy:
P {N
t
1
= k
1
, N
t
2
= k
1
+ k
2
, . . . , N
t
l
= k
1
+ . . . + k
l
} = j.w.
29
P {N
t
− N
s
= k} =
λ(t − s)
k
k!
e
−λ(t−s)
, k = 0, 1, . . .
P {N
t
= j | N
s
= i} =
λ(t − s)
j−i
(j − i)!
e
−λ(t−s)
Powtórka:
Definicja 12 Proces Poissona, to proces markowski (X
t
, t 0) o macierzy
intensywności prawdop. przejść:
Λ =
−λ
0
0
0
0
. . .
λ
−λ
0
0
0
. . .
0
λ
−λ
0
0
. . .
0
0
λ
−λ
0
. . .
0
0
0
λ
−λ
. . .
..
.
..
.
..
.
..
.
..
.
. .
.
, X
0
= 0
Wniosek 9
p
(t|s)
j,i
∼ P λ(t − s)
dla X
t
− X
s
"
P r{X
t
= j | X
s
= i} =
λ(t − s)
j−i
(j − i)!
e
−λ(t−s)
#
(spełnia równanie : P
(u)
0
= ΛP
(u)
, P
(0)
= [δ
ij
])
Wniosek 10
P {N
t
1
= k
1
, N
t
2
= k
1
+ k
2
, . . . , N
t
l
= l
1
+ . . . + k
l
} =
=
≡ P {N
t
1
− N
0
= k
1
, N
t
2
− N
t
1
= k
2
, . . . , N
t
l
− N
t
l−1
= k
l
=
=
(λt
1
)
k
1
k
1
!
e
−λt
1
. . .
λ(t
l
− t
l−1
)
k
l
k
l
!
e
−λ(t
l
−t
l−1
)
≡ P {N
t
1
= k
1
}P {N
t
2
− N
t
1
= k
2
} . . . P {N
t
l
− N
l−1
= k
l
}
Przykład
Poprzez proces piorunów, sposób na znajdowanie rozkładu z ostatniego wniosku
na przejście graniczne [0, M ] z [λM ] cząstkami.
Przykład
Prosty strumień odnów o wykładniczym rozkładzie odstępów Γ(1, λ)
N
t
= ]{i : τ
i
¬ t}
N
t
∼ P {λt}
wskutek braku pamięci dla rozkładu wykładniczego,
(N
t
, t 0) spełnia ostatni wniosek.
30
Definicja 13 Niech (N
t
, t 0) - proces o wartościach rzeczywistych (określony
na (Ω, F , P r)). Mówimy, że jest to proces o przyrostach niezależnych, jeżeli dla
dowolnego skończonego rosnącego ciągu
0 = t
0
< t
1
< . . . < t
l
zmienne losowe
X
0
, X
t
1
− X
t
0
, X
t
2
− X
t
1
, . . . , X
t
l
− X
t
l−1
są niezależne.
Mówimy, że procesy o przyrostach niezależnych są jednorodne, jeżeli P
X
t
−X
s
zależy jedynie od t − s dla t < s.
11
Przykłady jednorodnych procesów o przyro-
stach niezależnych
1. proces Poissona ≡ proces Markowa o wart. N
o
z czasem ciągłym, Λ-
macierz intensywności prawdop. przejść
2. X
(1)
t
, X
(2)
t
, . . . - procesy Poissona, niezależne o intensywnościach λ
(1)
, λ
(2)
, . . .
(a) X
(1)
t
+ X
(2)
t
- proces Poissona o intensywności λ
(1)
+ λ
(2)
(b) h
(1)
X
(1)
t
+ h
(2)
X
(2)
t
+ . . . + h
(m)
X
(m)
t
, gdzie h
(1)
, h
(2)
, . . . , h
(m)
∈ R
- złożony proces Poissona:
PP (h
(1)
, λ
(1)
), . . . , (h
(m)
, λ
(m)
)
EX
t
=
P
n
j=1
h
(j)
λ
(j)
t
P
X
t
= P (h
(1)
, λ
(1)
t), (h
(2)
, λ
(2)
t), . . . , (h
(m)
, λ
(m)
t)
- złożony roz-
kład Poissona
3. (X
t
, t 0) - proces ruchów Browna (ruch Browna)
• proces o przyrostach niezależnych, jednorodnych
• X
0
= 0
• X
t
− X
s
∼ N (0, t − s), (0 ¬ s < t)
Czy taki proces istnieje?
Odwołując się do twierdzenia Kołmogorowa-Daniella o istnieniu procesu
wystarczy sprawdzić, że tzw. rozkłady skończenie wymiarowe spełniają
warunki zgodności. Tutaj (ze względu na niezależność przyrostów) wy-
starczy sprawdzić, czy:
s < u < t ⇒ N (0, u − s) ∗ N (0, t − u) = N (0, t − s)
(X
u
− X
s
) + (X
t
− X
u
) = (X
t
− X
s
)
31
Twierdzenie 16 (Wiener’a) Wśród procesów ruchu Browna istnieją ta-
kie, że funkcja ω 7→ t 7→ X
t
(ω)
= X
.
ω jest ciągła z pr.1
”typowa realizacja jest ciągła”
Przykłady ciągu procesów, którego rozkłady graniczne są rozkładami ru-
chu Browna:
Niech h, δ > 0, T = hN
0
. Rozważmy proces o wartościach w δZ
X
(h,δ)
nh
=
n
X
j=1
S
j
δ − błądzenie, S
1
, S
2
, . . . − zm. los. n.j.r na {−1, 1} z pr. kl.
Nachylenie odcinka minimalnego łamanej
tg ”α” ∈
δ
h
, −
δ
h
łam X
(h,δ)
n−h
, n ∈ N
0
= X
(h,δ)
t
, t > 0
− proces łamanych gener. przez błądzenie
Stawiamy pytania:
P
(h,δ)
X
t
−→ ?, przy h, δ → 0, (h, δ) ∈ R
+
Wiemy, że jeśli V ar(Sh) = h,
δ
2
= h,
δ =
√
h, to przy h ↓ 0:
P
X
(h,δ)
t1
,X
(h,δ)
t2
−X
(h,δ)
t1
,...,X
(h,δ)
tl
−X
(h,δ)
tl−1
sł.
−→ N (0, t
1
)∗N (0, t
2
−t
1
)∗. . .∗N (0, t
l
−t
l−1
) ≡
≡ P
X
t1
,X
t2
−X
t1
,...,X
tl
−X
tl−1
Uwaga
Przykład, że nie spełniają warunku zgodności, gdyby miały dotyczyć proc.
o przyr. niezal.
X
u
− X
s
∼ P(λ
1
)
X
t
− X
u
∼ P(λ
2
)
⇒ X
t
− X
s
∼ Γ(b, p)
4. Proces Gamma - (X
t
, t 0)
• o przyrostach niezależnych, jednorodnych
• X
0
= 0
• X
t
− X
s
∼ Γ(t − s, 1), 0 ¬ s < t
Dla dowodu istnienia takiego procesu wystarczy sprawdzić warunki zgod-
ności, które w naszym przypadku redukują się do:
s < u < t ⇒ Γ(u − s, 1) ∗ Γ(t − u, 1) = Γ(t − s, 1)
Co odpowiada temu, że proces ma przyrosty niezależne i ponadto
(X
u
− X
s
) + (X
t
− X
u
) = (X
t
− X
s
)
32
Mamy proces gamma. Przyjmijmy więc, że:
P r{X
t
n
> h
1
, X
2t
n
−X
t
n
> h
2
, . . . , X
t
−X
n−1
n
t
> h
n
} = 1−F
t
n
(h
1
)
1−F
t
n
(h
2
)
. . . 1−F
t
n
(h
n
)
1 − F
t
n
(h)
|
{z
}
ozn. p
(n)
(h)
=
Z
∞
h
x
t
n
−1
e
−x
dx
1
Γ(
t
n
)
Γ(p) =
Z
∞
0
x
p−1
e
−x
dx
Wiemy, że:
Γ(p + 1) = pΓ(p) −→ Γ(1) = 1, przy p → 0
Zadanie 24 Obliczyć
P
N
(n)
t>h
= ?, gdzie N
(n)
(t>h)
= ]{X
j
: X
j
t
n
− X
(j−1)
t
n
> h}, h > 0
oraz granicę tego rozkładu, przy n −→ ∞
Ze schematu Bernoulliego mamy P
N
(n)
(t>h)
= B(n, p
n
(h)
); z własności rozkładu
dwumianowego
B(n, p
(n)
(h)
) −→ P( lim
n→∞
np
(n)
)
Zatem
P
N
(n)
(t>h)
sł.
−→ P λ(h)
, gdzie λ(h) = lim
n→∞
np
(n)
Dokładniej:
B(n, p
(n)
)
sł.
−→ P (λ) ⇔ λ = lim
n→∞
np
(n)
p
(n)
≡ p
(n)
(h) =
Z
∞
h
x
t
n
−1
e
−x
1
Γ(
t
n
)
dx
lim
n→∞
Z
∞
n
nx
t
n
−1
e
−x
1
Γ(
t
n
)
dx =
lim
n→∞
n
Γ(
t
n
)
Z
∞
h
x
−1
e
−x
dx = lim
n→∞
n
t
n
t
n
Γ(
t
n
)
Z
∞
h
e
−x
x
−1
dx =
= t
Z
∞
h
e
−x
x
−1
dx
czyli
λ(h) = t
Z
∞
h
e
−x
x
−1
dx
Czyli proces liczący ma rozkład poissonowski.
33
12
Graniczny rozkład skończenie wymiarowy przy-
rostów procesu liczącego
N
(h
1
)
[0,t
1
]>h
, N
(h
2
)
[t
1
,t
2
]>h
, . . . , N
(h
l
)
[t
l−1
,t
l
]>h
∼ B n
1
, p
(h
1
)
(h)
×. . .×B n
l
, p
(h
l
)
(h)
−→
sł.
−→ P t
1
, λ(h)
× P (t
2
− t
1
), λ(h)
× . . . × P (t
l
− t
l−1
), λ(h)
przy h −→ 0
Zatem mamy hipotezę:
N
(n)
t,>h
t0
sł.
−→ PP λ(h)
Zadanie 25 Obiczyć EX
t
oraz V ar(X
t
) złożonego procesu Poissona.
Dla P(λ) mamy:
m
1
(P) =
∞
X
k=0
ke
−λ
λ
k
k!
=
∞
X
k=1
e
−λ
λ
k
(k − 1)!
= λ
∞
X
k=1
e
−λ
λ
k−1
(k − 1)!
= λ
∞
X
k=0
e
−λ
λ
k
k!
|
{z
}
1
= λ
µ
(2)
(P) = λ
Dla
PP (h
(1)
, λ
(1)
), . . . , (h
(m)
, λ
(m)
)
− X
t
EX
t
= E(h
(1)
1
X
(1)
t
+ . . . + h
(m)
m
X
(m)
t
) =
m
X
j=1
E(h
(j)
X
(j)
t
) =
m
X
j=1
h
(j)
E(X
(j)
t
) =
=
m
X
j=1
h
(j)
λ
(j)
t = t
m
X
j=1
h
(j)
λ
(j)
V ar(X
t
) = V ar (h
(1)
1
X
(1)
t
+. . .+h
(m)
m
X
(m)
t
)
= V ar
∞
X
j=1
(h
(j)
X
(j)
t
)
=
∞
X
j=1
V ar(h
(j)
X
(j)
t
) =
=
∞
X
j=1
(h
(j)
)
2
V ar(X
(j)
t
) =
∞
X
j=1
(h
(j)
)
2
λ
(j)
t = t
∞
X
j=1
(h
(j)
)
2
λ
(j)
4
Twierdzenie 17
N
(n)
t,>h
−→ N
t,>h
przy n → ∞,
o ile realizacja procesu jest prawostronnie ciągła, tzn.:
P r{X(ω) ∈ C
T
t
[0, ∞)} = 1
34
Zadanie 26 X
1
, X
2
- niezależne o rozkładach odpowiednio P(λ
1
), P(λ
2
)
1. znaleźć rozkład X
1
+ X
2
2. znaleźć rozkład warunkowy X
1
| X
1
+ X
2
1.
P r{X
1
+X
2
= k} = P r
(X
1
= 0, X
2
= k)∨(X
1
= 1, X
2
= k−1)∨. . .∨(X
1
= k, X
2
= 0)
=
=
k
X
i=0
P r{X
1
= i, X
2
= k − i} =
k
X
i=0
P r{X
1
= i}P r{X
2
= k − i} =
=
k
X
i=0
e
−λ
1
λ
i
1
i!
e
−λ
2
λ
k−i
2
(k − i)!
=
e
−(λ
1
+λ
2
)
k!
k
X
i=1
k!
i!(k − i)!
λ
i
1
λ
k−i
2
=
=
e
−(λ
1
+λ
2
)
k!
k
X
i=1
k
i
λ
i
1
λ
k−i
2
=
(λ
1
+ λ
2
)
k
k!
e
−(λ
1
+λ
2
)
∼ P(λ
1
+ λ
2
)
2. (n k)
P r{X
1
= k | X
1
+ X
2
= n} =
P r{X
1
= k ∧ X
1
+ X
2
= n}
P r{X
1
+ X
2
= n}
=
=
P r{X
1
= k ∧ X
2
= n − k}
P r{X
1
+ X
2
= n}
=
P r{X
1
= k}P r{X
2
= n − k}
P r{X
1
+ X
2
= n}
=
=
e
−λ λ
k
1
k!
e
−λ
2
λ
n−k
2
(n−k)!
e
−(λ
1
+λ
2
) (λ
1
+λ
2
)
n
n!
=
n!
k!(n − k)!
λ
1
λ
1
+ λ
2
k
λ
2
λ
1
+ λ
2
n−k
=
=
n
k
λ
1
λ
1
+ λ
2
k
1 −
λ
1
λ
1
+ λ
2
n−k
∼ B
n,
λ
1
λ
1
+ λ
2
4
Zadanie 27 N
t
- proces Gamma o rozkładzie Γ(t, 1)
Obliczyć: E{N
t
N
t+s
}
N
t
- proces gamma o mierzalnych przyrostach:
E{N
t
N
t+s
} = E
N
t
(N
t
+ N
t+s
− N
t
)
= E{N
2
t
} + E{N
t
(N
t+s
− N
t
)} =
= E{N
2
t
} + E{N
t
}E{N
t+s
− N
t
} =
EN
2
t
=
(t + 1)t
1
= t(t + 1), EN
t
=
t
1
= t, E{N
t+s
− N
t
} = s
= t(t + 1) + ts = t
2
+ t + ts
4
35
Zadanie 28 ξ
n
= X
1
+ . . . + X
n
, X
i
− n.j.r., P {X
1
= 1} = p, P {X
1
= −1} =
1 − p. Wyprowadzić wzór na α
i
= P {∃
n
ξ
n
= i}, i = 0, ±1, ±2, . . .
Zadanie 29 N
t
- proces Poissona z intensywnością λ. Wyprowadzić wzory:
• s < t ⇒ P {N
t
= n | N
s
= k} = ?
• P {N
s
= k | N
t
= n} = ? dla s < t
Zadanie 30 X, Y - niezależne, X ∼ Γ(1, α), Y ∼ Γ(1, β) Dla dowolnego t
znaleźć:
P {min (X, Y ) t | min (X, Y ) = X}
(analogicznie dla max)
Zadanie 31 N
1
∼ P(λ
1
), N
2
∼ P(λ
2
) Udowodnić, że ich suma jest procesem
Poissona o intensywności λ
1
+ λ
2
.
N
t
= N
1,t
+ N
2,t
P {N
t
1
= k
1
, N
t
2
− N
t
1
= k
2
, . . . , N
t
l
− N
t
l−1
= k
l
} =
= P
N
1,t
1
+N
2,t
1
= k
1
, N
1,t
2
+N
2,t
2
−(N
1,t
1
+N
2,t
1
) = k
2
, . . . , (N
1,t
l
+N
2,t
l
)−(N
1,t
l−1
+
+N
2,t
l−1
) = k
l
= P N
1,t
1
+N
2,t
1
= k
1
, . . . , (N
1,t
l
−N
,t
l−1
)+(N
2,t
l
−N
2,t
l−1
) = k
l
=
=
l
Y
j=1
P
(N
1,t
j
− N
1,t
j−1
) + (N
2,t
j
− N
2,t
j−1
) = k
j
=
=
l
Y
j=1
(λ
1
+ λ
2
)(t
j
− t
j−1
)
k
j
k
j
!
e
−(λ
1
+λ
2
)(t
j
−t
j−1
)
∼ PP(λ
1
+ λ
2
)
4
Zadanie 32 (rozrzedzanie procesu) Niech N
t
- proces Poissona z parame-
trem λ. Niech τ
1
< τ
2
< τ
3
< . . . - chwile skoku nr 1, 2, 3, . . . tego procesu.
1. P
τ
n
= ?
2. Niech
˜
N
t
=
X
0¬j:τ
j
¬t
(N
τ
j
− N
τ
j−1
)B
j
gdzie B
1
, B
2
, . . . − n.j.r. B(1, p)
niezależne z N
t
N
t
- proces rozrzedzony z pr. p
Teza:
˜
N
t
∼ PP(λp)
Komentarz:
P (h
1
, λ
1
), (h
2
, λ
2
), (h
3
, λ
3
)
= P
h
1
, (λ
1
+ λ
2
)
, (h
3
, λ
3
)
jeśli h
1
= h
2
36
Zadanie 33 τ
0
= 0 < τ
1
< τ
2
< . . . - prosty strumień odnów
P
Θ
- rozkład odnów
N
t
:= ]{i : i ∈ 1, 2, . . . , τ
i
¬ t}
1. N
t
jest prawostronnie, czy lewostronnie ciągły?
2. Co jet prawdą?
(a) N
t
< n ⇔ τ
n
> t
(b) N
t
¬ n ⇔ τ
n
t
(c) N
t
> n ⇔ τ
n
< t
Zadanie 34 Zbudować dystrybuantę o gęstym zbiorze punktów skoków.
13
Proces dwumianowy ujemny B
−
B
−
(λ, p) ∼
k,
λ(λ + 1) . . . (λ + k − 1)
k!
(1 − p)
λ
p
k
, k = 0, 1, 2, . . .
λ > 0, 0 < p < 1
B
−
(λ, p) ∗ B
−
(µ, p) = B
−
(λ + µ, p)
Niech (X
t
, t 0)
• niezależne przyrosty
• X
0
= 0
• P
X
t
−X
s
= B
−
(t − s, p)
Zadanie 35 Zapisać X
t
jako
X
t
=
∞
X
l=1
lX
(l)
t
gdzie X
(l)
t
∼ PP(λ
(l)
), λ
(l)
= ? (l = 1, 2, . . .)
(B
t
)
t=0
o przyrostach niezależnych jednorodnych, B
0
= 0
P
B
t
−B
s
= B
−
(t − s, p) dla 0 ¬ s ¬ t, p ∈ (0, 1)
Fakt
B
−
(u − s, p) ∗ B
−
(t − u, p) = B
−
(t − s, p)
Dowód:
ϕ
tw. B
−
(λ,p)
(z) =
1 − p
1 − p
2
λ
4
Zadanie 36 Znaleźć rozkład B
t
jako złożonego procesu Poissona (por. proces
gamma).
37
14
Proces Cauchy’ego
C(a, b) 7−→ ϕ
ch.
(w) − e
−|w|a
e
iwb
, w ∈ R
Definicja 14 Q jest nieskończenie podzielny, gdy
∀
n∈N
1
∃
Q
n
−miara probab.
Q
∗n
n
= Q
Q = P
X
, to ∀
n
∃
X
N1,...Nn−n.j.r.
X
N
1
+ . . . + X
N
n
= X
Twierdzenie 18 Q - nieskończenie podzielny wtedy i tylko wtedy, gdy
∀
n
∃
ϕ
n,Q
−f. ch.
ϕ
n,Q
(w)
n
= ϕ
Q
(w), w ∈ R
Fakt
C(a, b) - nieskończenie podzielny.
Dowód:
e
−|w|a
e
iwb
= e
−|w|
a
n
e
iw
b
n
n
= ϕ
ch.ϕ(
a
n
,
b
n
)
(w),
a
n
> 0, bo a > 0
4
Zadanie 37 Niech Q(t) - rodzina rozkładów prawd. zamknięta ze względu na
sploty:
Q(t) ∗ Q(s) = Q(t + s), t, s 0, Q(0) = δ
0
Jest to jednoelementowa półgrupa ze względu na splot. Tę rodzinę oznaczamy
przez Q.
Niech (X
t
)
t0
proces o przyrostach niezależnych jednorodnych
(X
t
)
t0
: X
0
= 0, P
X
t
−X
s
= Q(t − s)
Czy taki proces istnieje?
Wystarczy sprawdzić, że
Q(u − s) ∗ Q(t − u) = Q(t − s) 0 ¬ s ¬ t, co jest spełnione z założenia
Uwaga
∀
t0
Q(t) ∈ Q Q(t) − niesk. podzielne
Rzeczywiście
Q(
t
n
)
∗n
= Q(t)
Inne przykłady półgrup
• N (m
1
, v
1
) ∗ N (m
2
, v
2
) = N (m
1
+ m
2
, v
1
+ v
2
)
N (mt, tv) ∗ N (ms, sv) = N m(t + s), v(t + s)
38
• P(λt) ∗ P(λs) = P λ(t + s)
• Q(t) = Γ(λt, b) t 0, λ > 0, b > 0
• Q(t) = δ
0
• Q(t) = B
−
(λt, p)
• B(n
1
, p) ∗ B(n
2
, p) = B(n
1
+ n
2
, p), n
1
, n
2
∈ N
• Q(t) = C(λt, bt) λ > 0
• Q(t) = P (λ
1
t, h
1
), (λ
2
t, h
2
), . . . , (λ
m
t, h
m
)
Zadanie 38 W złożonym procesie Poissona obliczyć rozkład czasu pierwszego
osiągnięcia poziomu. Np.:
Dane
(N
t
)
t0
∼ PP (λ
1
, 1), (λ
2
, 2)
, λ
1
, λ
2
> 0
Znaleźć rozkład prawdop.
τ
(2)
= inf {t : N
t
2}, czyli prawdop. {τ
(2)
¬ t} ≡ {N
t
2}, dla t 0
Rozważmy N
t
= 2N
1t
+ N
2t
, gdzie
S 0 ≡ (s
1
2)∨(s
1
= 1∧s
2
1)∨(s
1
= 0∧s
2
2) ≡ (s
2
2)∨(s
2
= 0∧s
1
2)
czyli
P r{N
t
2} = P r{2N
t1
2} + P r{2N
t2
= 0 ∧ N
t1
2} =
= 1 − P r{N
t2
= 0}
+ P r{N
t2
= 0} 1 − P r{N
t1
= 0} − P r{N
t2
= 1}
=
= 1 − e
−λ
2
t
+ e
−λ
2
t
(1 − e
−λ
1
t
−
(λ
1
t)
1
1!
e
−λ
1
t
) = 1 − e
−(λ
1
+λ
2
)t
− (λ
1
t)e
−(λ
1
+λ
2
)t
Odp.:
F
τ
(2)
(t) = P {τ
(2)
¬ t} = 1 − e
−(λ
1
+λ
2
)t
(1 + λ
1
t)
f
τ
(2)
(t) = F
0
τ
(2)
(t) = e
−(λ
1
+λ
2
)t
(1 + λ
1
t)(λ
1
+ λ
2
) + (e
−(λ
1
+λ
2
)t
)λ
1
=
= e
−(λ
1
+λ
2
)t
[λ
1
+ λ
2
+ λ
2
1
t + λ
1
λ
2
t − λ
1
] = e
−(λ
1
+λ
2
)t
λ
2
1
t + λ
2
(1 + λ
1
t)
=
= −λe
−(λ
1
+λ
2
)t
+ (λ
1
+ λ
2
)(1 + λ
1
t)e
−(λ
1
+λ
2
)t
=
=
λ
1
λ
1
+ λ
2
(λ
1
+ λ
2
)e
−(λ
1
+λ
2
)t
|
{z
}
f
Γ(1,λ1+λ2)
(t)
+
λ
1
λ
1
+ λ
2
(λ
1
+ λ
2
)
2
Γ(2)
e
−(λ
1
+λ
2
)t
|
{z
}
f
Γ(2,λ1+λ2)
(t)
P
τ
(2)
=
λ
1
λ
1
+ λ
2
Γ (1, (λ
1
+ λ
2
)
+
λ
1
λ
1
+ λ
2
Γ 2, (λ
1
+ λ
2
)
39
Jest to kombinacja wypukła rozkładów, więc jest to nowy rozkład.
τ
(2)
=
?
min {”Γ(2, λ
1
)” ∧ ”Γ(1, λ
2
)”}
F (t) = 1 − F (t) − f unkcja niezawodności
P (X ∧ Y t) = P (X > t ∧ Y > t) = P (X > t)P (Y > t)
F
X∧Y
(t) = F
X
(t)F
Y
(t) = e
−λ
1
t
(1 + λ
1
t)e
−λ
2
t
= (1 + λ
1
t)e
−(λ
1
+λ
2
)t
F
Γ(1,λ)
(t) = e
−λt
F
Γ(2,1)
(t) =
Z
∞
t
ue
−u
du =
u(−e
u
)
t
∞
+
Z
∞
t
e
−u
du = e
−t
+te
−t
−→ 0, przy t → ∞
F
Γ(2,λ)
(t) = e
−λt
(1 + λt)
Zadanie 39 Mamy:
X =
N
X
j=1
X
j
Zmienne losowe N, X
1
, X
2
, . . . są niezależne, X
1
, X
2
, . . . j.r., N ∈ N
0
Udowodnić, że X ma rozkład nieskończenie podzielny, jeśli N ma rozkład nie-
skończenie podzielny.
Uwaga
Każdy złożony rozkład Poissona jest nieskończenie podzielny.
ϕ
X
(t) = E{e
itX
} = E
E{e
itX
|N }
= E[ϕ
ch.X
1
(t)]
N
=
∞
X
k=0
ϕ
k
ch.X
1
(t)P r{N = k} =
= ϕ
tw.
ϕ
ch.X
1
(t)
= (∗)
Pokażemy, że ϕ
X
jest ∞-podzielna.
Wystarczy skorzystać z nieskończonej podzielności rozkładu ϕ
tw.,N
∀
n
∃
ϕ
tw.,n
ϕ
tw.,N
(z) =
ϕ
tw.,n
(z)
n
, co daje:
(∗) =
h
ϕ
tw.,n
ϕ
ch.X
1
(t)
i
n
=
E
e
it
P
Nn
j=1
X
j
n
, gdzie N
n
∼ ϕ
tw.,n
, n ∈ N
0
Wniosek 11 Q - rozkład nieskończenie podzielny na R, to
ϕ
Q
(w) = exp − ψ(w)
ψ(w) ma tę własność, że:
ϕ
t
Q
(w) = exp
− tψ(w)
jest również funkcją charakterystyczną, dla każdego t 0
40
Wniosek 12 Q - nieskończenie podzielne i jeśli
ϕ
Q(t)
(w) =
ϕ
Q
(w)
t
to
Q(t) ∗ Q(s) = Q(t, s), t, s 0
Zadanie 40 Niech Q = PP
N
j=1
X
j
, gdzie N - rozkład Poissona
1. Udowodnić, że Q(t) = PP
Nt
j=1
X
j
, gdzie N
t
∼ PP(λ), gdy N ∼ P(λ) jest
półgrupą ze względu na sploty.
2. S
t
=
P
N
t
j=1
X
j
- jest procesem o przyrostach niezależnych, wyznaczonym
przez Q
1
3. Znaleźć rozkład N
t,h
dla tego procesu
będzie to PP(λ
>h
)
Ad.1)
Q(t) ∗ Q(s) = PP
Nt
j=1
X
j
PP
Ns
j=1
X
0
j
− P
P
Nt
j=1
X
j
+
P
N 0
s
j=1
X
0
j
= (∗)
Jako N
0
s
można przyjąć N
t+s
− N
t
(bo ma taki sam rozkład jak N
s
i jest od N
t
niezależny)
Zamiast X
0
j
weźniemy X
N
t
+j
Zatem:
(∗) = PP
Nt
j=1
X
j
+
P
Nt+s−Nt
k=1
X
k
= PP
Nt
j=1
X
j
+
P
Nt+s
k=Nt+1
X
k
= PP
Nt+s
j=1
X
j
= Q(t+s)
czyli
ϕ
Q(t)
(w) = ϕ
tw.,N
t
ϕ
ch.,X
1
(w)
ϕ
Q(t)∗Q(s)
(w) = ϕ
Q(t)
(w) ϕ
Q(s)
(w) = ϕ
tw.,N
t
ϕ
ch.,X
1
(w)
ϕ
tw.,N
s
ϕ
ch.,X
1
(w)
=
= ϕ
tw.,N
t+s
= ϕ
Q(t+s)
(w)
bo P
N
t+s
= P
N
t
∗ P
N
s
, i P
N
t
,N
t+s
−N
t
= P
N
t
× P
N
s
(własność procesu o przyro-
stach niezależnych, jednorodnych)
Ad.3)
Przypomnijmy metody z procesu gamma
N
t,>h
∼ P(tλ
>h
)
λ
>h
= lim
n→∞
P {S
t
n
> h}n
n
Q
t
n
(h, ∞)
= nP r
N
t
n
X
j=1
X
j
> h
= n
P r{X
1
> h}{N
t
n
= 1}+
41
+P r{N
1
+ N
2
> h}{N
t
n
= 2} + . . .
−→ tP r{X
1
> h}, przy n −→ ∞
Rozkład X
1
jest rozkładem skoków (w miejscu skoku).
Umowa
• (N
t
)
t0
PP(λ) ≡ (N
t
)
t0
- proces o przyrostach niezal., jednorodnych o
rozkł. Q(1) = P(λ)
• N
t
0
∼ P(λ) ≡ Q(t
0
) = P(λ) wtedy
Q(t) = P(λ
t
t
0
)
• (X
t
)
t0
proces B
−
(λ, p)
≡ Q(1) = B(λ, p) ⇒ X
t
∼ B
−
(λt, p), t 0
Bierzemy proces (X
t
) o przyrostach jednorodnych, X
0
= 0
• X
1
∼ C(0, λ)
• X
1
∼ N (0, v)
• X
1
∼ Γ(λ, b)
• X
1
∼ P (λ
1
, h
1
), . . . , (λ
n
, h
n
)
• X
1
∼ B
−
(λ, p)
Rozpatrzmy proces związany z P
J
:
X
t
=
N
t
X
j=1
J
j
(N
t
) - o przyrostach niezależnych, jednorodnych naturalnych N
0
= 0
J
j
- n.j.r.
X
(X)
t,h
∼ PP(tλ
(X)
>h
), gdzie
λ
(X)
>h
= lim
n→∞
nP {X
1
n
> h} = lim
n→∞
P {N
1
n
= 1∧J
1
> h}+P {N
1
n
= 2∧J
1
+J
2
> h}+...
=
=
∞
X
k=1
lim
n→∞
nP {N
1
n
= k}
|
{z
}
λ
(N )
=k
P
∗k
J
(h, ∞) =
∞
X
k=1
λ
(N )
=k
|
{z
}
λ
(N )
1
λ
(N )
=k
λ
(N )
1
| {z }
P
(N )
=k
P
∗k
J
(h, ∞)
Miara skoków ze zbioru A
λ
(X)
A
= λ
(X)
1
=
∞
X
k=1
p
(N )
k
P
∗k
J
(A), A ∈ B
miara skończona na R
42
Budujemy funkcję charakterystyczną dla λ
A
Z
R
e
iwy
dλ
(X)
y
= λ
(N )
1
∞
X
k=1
p
(N )
k
ϕ
∗k
P
J
(w) = λ
(N )
1
∞
X
k=1
p
(N )
k
ϕ
J
(w)
k
ϕ
µ,λ
(X)
(w) = λ
(N )
1
ϕ
tw.,K
ϕ
ch.,J
(w)
|
{z
}
∼
P
K
k=1
J
k
gdzie K ma rozkład (p
(N )
k
, k 1)
Niech (W
t
)
t0
- proces ruchu Browna standardowy, tzn. W
0
= 0, o przyro-
stach niezależnych, jednorodnych W
1
∼ N (0, 1)
Y
t
= e
W
t
−
t
2
, t 0
− proces wysoce niesymetryczny
Zadanie 41 Pokazać,że
1. E(Y
t
) = 1
2. E{Y
t
|Y
u
, u < s < t}
2.1
= E{Y
t
|Y
s
}
2.2
= Y
s
3. Znaleźć rozkłady skończenie wymiarowe procesu (Y
t
)
t0
≡ Y .
4. Znaleźć macierz prawdopodobieństw przejść.
Ad.1)
E{e
W
t
−
t
2
} = E{e
W
t
}e
−
t
2
= e
−
t
2
e
t
2
= 1
Ad.2.2)
Dla ruchu Browna (W
t
)
t0
Y
t
= e
W
t
−
t
2
, t 0
W
t
∼ N (0, t)
Chcemy pokazać, że: E{Y
t
|Y
s
} = Y
s
.
Mamy
W
t
−
t
2
= (W
s
−
s
2
)
|
{z
}
1.
+ (W
t
− W
s
) −
t − s
2
|
{z
}
2.
1. i 2. są niezależne, bo przesunięcie nie psuje niezależności
Dowód:
E
e
i
(W
s
−
s
2
)w
1
+ (W
t
−W
s
)−
t−s
2
w
2
= e
−i
s
2
w
1
+
t−s
2
w
2
E
n
e
i W
s
w
1
+(W
t
−W
s
)w
2
o
=
= e
−i
s
2
w
1
+
t−s
2
w
2
ϕ
ch.,W
s
(w
1
) ϕ
ch.,W
t
−W
s
(w
2
) = ϕ
ch.,W
s
−
s
2
(w
1
) ϕ
ch.,W
t
−W
s
−
t−s
2
(w
2
)
43
Czyli są niezależne.
Pokażemy więcej:
ξ = g(W
s
−
s
2
), η = h (W
t
−W
s
)−
t − s
2
− niezal., dla g, h ∈ B gdy W
s
i (W
t
−W
s
) niezal.
Dowód:
P {ξ ∈ A, η ∈ B} = P W
s
−
s
2
∈ g
−1
(A), (W
t
− W
s
) −
t − s
2
∈ h
−1
(B)
=
= P
W
s
−
s
2
∈ g
−1
(A)
P (W
t
− W
s
) −
t − s
2
∈ h
−1
(B)
=
= P
g(W
s
) −
s
2
∈ A
P h (W
t
− W
s
) −
t − s
2
∈ B
Zatem mamy
Y
t
= Y
s
e
(W
t
−W
s
)−
t−s
2
E{Y
t
−Y
s
} = Y
s
E{e
(W
t
−W
s
)−
t−s
2
|Y
s
} = Y
s
E{e
(W
t
−W
s
)−
t−s
2
} = Y
s
E{e
W
t−s
−
t−s
2
}
|
{z
}
1
= Y
s
Dla procesu Poissona N
t
, opiszemy proces
Y
t
= e
N
t
−λt(e−1)
gdzie
(N
t
)
t0
∼ PP(λ),
N
t
∼ P(λt)
Sprawdzimy czy Y
t
= e
N
t
−λt(e−1)
jest martyngałem.
Y
t
= Y
s
e
(N
t
−N
s
)−λ(t−s)(e−1)
E{Y
t
|Y
s
} = Y
s
E{e
(N
t
−N
s
)−λ(t−s)(e−1)
|Y
s
} = Y
s
E{e
(N
t
−N
s
)−λ(t−s)(e−1)
} =
= Y
s
E{e
N
t−s
−λ(t−s)(e−1)
}
|
{z
}
1
= Y
s
Komantarz
Jeżeli mamy proces o przyrostach niezależnych jednorodnych o skończonej war-
tości oczekiwanej E{e
N
t
}, to jeżeli e
N
t
podzielimy przez tę wartość to dostanie-
my martyngał .
Zadanie 42 Udowodnić, że dla każdego procesu o przyrostach niezależnych ist-
nieje stała L taka, że
E(e
N
t
) = L
t
= e
at
E(e
N
t
−at
) = 1
44
15
Przykład rozkładu sk. wym. dla ruchu Brow-
na
f
X
t1
,X
t2
−X
t1
,...,X
tl
−X
tl−1
(n
1
, . . . , n
l
) =
=
1
√
2πt
exp {−
1
2t
1
u
2
1
}
1
p2π(t
2
− t
1
)
exp {−
1
2(t
2
− t
1
)
u
2
2
} . . .
1
p2π(t
l
− t
l−1
)
exp {−
1
2(t
l
− t
l−1
)
u
2
l
}
gdzie X
1
∼ N (0, 1),
X
t
∼ N (0, t)
X
t
1
, X
t
2
= X
t
1
+ (X
t
2
− X
t
1
), . . . , X
t
l
= X
t
1
+ . . . + (X
t
l
− X
t
l−1
)
X
t
1
= Y
1
, X
t
2
= Y
1
+ Y
2
, . . . , X
t
l
= Y
1
+ . . . + Y
l
gdzie P
X
tl
= N (0, t
l
)
f
X
t1
,X
t2
,...,X
tl
(x
1
, x
1
, . . . , x
l
) = f
Y
1
,Y
2
,...,Y
l
(x
1
, x
2
− x
1
, . . . , x
l
− x
l−1
)|1| =
=
1
√
2π
n
pt
1
(t
2
− t
1
) . . . (t
l
− t
l−1
)
exp
−
1
2
Q(x
1
, . . . , x
l
)
Zadanie 43 Dla procesu Poissona obliczyć:
P
X
t1
,...,X
tl
(k
1
, . . . , k
l
) = ?
Zadanie 44 Obliczyć funkcję charakterystyczną ϕ
X
t1
,...,X
tl
dla procesów: PP, B
−
, C, Browna.
16
Niezawodność układu równoległego (ilość spraw-
nych elementów)
Mamy n zmiennych losowych T
1
, . . . , T
n
n.j.r. Γ(1, λ)
X
t
:= ]{j : T
j
> t} − proces liczący elementy zdatne w chwili t
X
t
∈ {0, 1, 2, . . . , n − 1, n}
P r{T
szer.
> t} = P r{T
1
> t∧T
2
> r ∧. . .∧T
n
> t} = 1−F
t
1
(t)
n
= (e
−λt
)
n
⇒
⇒ T
szer.
∼ Γ(1, nλ)
P {T
1
> a + b|T
1
> b} =
e
−λ(a+b)
e
−λb
= e
−λa
Czas życia równoległego:
T
równ.
∼ Γ(1, λ) ∗ Γ(1, 2λ) ∗ . . . ∗ Γ(1, nλ)
ET
równ.
=
1
λ
1 +
1
2
+ . . . +
1
n
n→∞
−→ ∞
45
X
t
jest markowski o macierzy prawdopodobieństw przejść:
p
(t|s)
j,i
= p
(t−s)
j,i
i przy tym
p
(u)
j,i
0
= Λ p
(u)
, gdzie Λ =
0
λ
0
0
0
0
−λ
2λ
0
0
0
0
−2λ
3λ
0
0
0
0
−3λ
4λ
0
0
0
0
−4λ
Mogą istnieć prawdop. przejścia spełniające równania różniczkowe ale nie gene-
rujące procesu markowskiego.
p
(t)
j,i
=
e
−λit
j = i = 0, 1, 2, 3, 4
P {γ
λi
< t ¬ γ
λi
+ γ
λ(i−1)
}
j = i − 1
..
.
p
(t)
j,i
=
e
−λit
j = i = 0, 1, 2, 3, 4
P {
γ
(1)
λi
< t ¬
γ
(1)
λi
+
γ
(2)
λ(i−1)
}
j = i − 1
..
.
P {
γ
(1)
λi
+
γ
(2)
λ(i−1)
+ . . . +
γ
(i)
λ1
< t}
j = 0
17
Proces markowski z czasem ciągłym, z prze-
strzenią przeliczalną
P
X
0
,X
t1
,...,X
tl
= p
(t
l
|t
l−1
)
X
l
,X
l−1
◦ . . . ◦ p
(t
1
|0)
X
1
,X
0
◦ p
(0)
X
0
musi być: p
(t|u)
◦ p
(u|s)
= p
(t|s)
, s u t
ale jeśli jest jednorodny czasie, to: p
(t|s)
= p
(t−s)
⇒ p
(u)
◦ p
(v)
= p
(u+v)
T
1
, . . . , T
n
- n.j.r Γ(1, λ), X
t
= ]{j : T
j
> t} ∈ {0, 1, . . . , n}
Λ =
0
λ
0
. . .
0
0
−λ
2λ
. . .
0
0
0
−2λ
. . .
0
..
.
..
.
..
.
. .
.
..
.
0
0
0
. . .
nλ
0
0
0
. . .
−nλ
Czas przejścia ze stanu n do stanu 0 ma rozkład:
P
T
= Γ(1, λ) ∗ . . . ∗ Γ(1, nλ)
46
T =
d
1
λ
γ
(1)
1
+
1
2λ
γ
(1)
2
+ . . . +
1
nλ
γ
(1)
n
min {T
1
, . . . , T
n
} ∼ Γ(1, nλ) − Odstęp!
Komentarz 1:
F
ξ
∧
η
(t) = 1 − ¯
F
ξ
∧
η
(t) = 1 − P r{ξ
∧
η t} = 1 − P r{ξ t}P r{η t} =
= 1 − e
−λt
e
−µt
= 1 − e
−(λ+µ)t
= F
Γ(1,λ+µ)
(t), o ile (ξ, η) ∼ Γ(1, λ) × Γ(1, µ)
Komentarz 2:
T ∼ Γ(1, λ)
P r{T > t + h | T > h} = e
−λh
bo, L =
e
−λ(t+h)
e
−λt
= e
−λh
P
T −t|T >t
= P
T
= Γ(1, λ)
Komentarz 3:
X ∼ Γ(1, λ) ≡ X =
d
1
λ
γ
(1)
, gdzie γ
(1)
∼
Γ(1, 1)
|
{z
}
wykł. stand.
P r{RHS > t} = P r{
1
λ
γ
(1)
> t} = P r{γ
(1)
> λt} = e
−λt
=
Z
∞
t
λe
−λt
| {z }
f
X
(t)
dt = P r{X > t}
Generowanie γ
(1)
Dany jest generator u o rozkładzie J [0, 1] ≡ Dany jest algorytm:
u
1
, u
2
, . . .
1. u
1
, u
2
, . . . ∈ [0, 1)
2. uznajemy je za wyniki losowań niezależnych
3. uznajemy je za wyniki losowania z rozkładem jednostajnym J [0, 1]
Testy nam pomagają.
D
n
- zmienna losowa
D
n
= max
u
{| ˆ
F
n
(u) − u|}, gdzie ˆ
F
n
- dystrybuanta empiryczna
d
∞
( ˆ
F
n
, id) − metryka czebyszewa
Twierdzenie 19 (Gliwenki)
D
n
−→ 0 z pr. 1
Jest to mocne prawo wielkich liczb funkcjonalne.
47
Twierdzenie 20 (Kołmogorowa)
D
n
√
n −→ Q(λ), gdzie Q(λ) − dystr. Kołmogorowa
Zatem:
D
n
√
n > λ
kryt.
(odrzuca 3.)
Chcemy mieć:
(X
t
)
t0
markowski taki, że przejście ze stanu l + 1 do stanu l trwa czas wykład-
niczy o rozkładzie Γ(1, λ
l+1
), l = n − 1, . . . 0
Czy taki proces jest markowski ?
Czy
P {X
t
m
= j
m
|X
t
m−1
= j
m−1
, . . . , X
t
1
= j
1
} = P {X
t
m
= j
m
|X
t
m−1
= j
m−1
}
|
{z
}
Q
(tm−tm−1)
jm,jm−1
albo, czy spełnia warunki definicji:
P {X
0
= n, X
t
1
= j
1
, . . . , X
t
m−1
= j
m−1
, X
t
m
= j
m
} =
= Q
(t
m
−t
m−1
)
j
m
,j
m−1
Q
(t
m−1
−t
m−2
)
j
m−1
,j
m−1
. . . Q
(t
2
−t
1
)
j
2
,j
1
Q
(t
1
)
j
1
,n
Zaczniemy od uzyskania takich macierzy
X
j
Q
(n)
k,j
Q
(v)
j,i
= Q
(u+v)
k,i
Q
(u)
k,j
= P r{X
u
= k|X
0
= j}
Kandydatem jest macierz uzyskana następująco:
Q
(u)
k,j
= 0 k > j
Q
(u)
j,j
P r{T
j
> n} = e
−λ
j
u
Q
(u)
k,j
= P r{
1.
z
}|
{
T
j
+ T
j−1
+ . . . + T
k+1
¬ u <
2.1.
z
}|
{
T
j
+ . . . + T
k+1
+ T
k
} =
= P r{1. ¬ u ∧ (∼ 2. ¬ u)} = P r{1. ¬ u} − P r{2. ¬ u} =
= F
1.
(u)−F
2.
(u) = F
Γ(1,λ
j
)∗Γ(1,λ
j−1
)∗Γ(1,λ
k+1
)
(u)−F
Γ(1,λ
j
)∗...∗Γ(1,λ
k+1
)∗Γ(1,λ
k
)
(u)
Dla sprawdzenia warunku Q
(u)
◦ Q
(v)
= Q
(u+v)
d
du
Q
(u)
= Λ ◦ Q
(u)
,
Λ =
0
λ
0
. . .
0
0
−λ
λ
2
. . .
0
0
0
−λ
2
. . .
0
..
.
..
.
..
.
. .
.
..
.
0
0
0
. . .
λ
n
0
0
0
. . .
−λ
n
48
Uwaga
Γ(1, λ) ∗ Γ(1, µ) 6= Γ(1, λ + µ)
Γ(1, λ) ∗
∧
Γ(µ) 6= Γ(1, λ + µ)
(X
t
)
t0
- proces markowski, 0 < t
1
< . . . < t
k
P
(0,t
1
,t
2
,...,t
k
)
i
0
,i
1
,...,i
k
:= P {X
0
= i
0
, X
t
1
= i
1
, . . . , X
t
k
= i
k
} = P
(t
k
−t
k−1
)
i
k
,i
k−1
. . . P
(t
1
)
i
1
,i
0
p
(0)
i
0
Twierdzenie 21 Zał., że P
(u)
k,j
taka, że:
(
d
du
P
(u)
k,j
=
P
l
Λ
k,l
P
(u)
l,j
P
(0)
k,j
= δ
k,j
przy czym p
(0)
i
0,
P
i
p
(0)
i
= 1 oraz Λ
k,l
=
λ
k,l
> 0
k 6= l
−
P
i
λ
i,k
k = l
stąd mamy:
P
(u)
◦ P
(v)
= P
(u+v)
gdzie P
(u)
− macierz stochastyczna
Fakt
Podana rodzina rozkładów skończenie wymiarowych jest zgodna, tzn.
P
o,t
1
,t
2
,...,
j
∨
,...,t
k
i
0
,i
1
,...,
∧
j
,...,i
k
=
X
i
j
P
(0,t
1
,...,t
j
,...,t
k
)
i
0
,...,i
j
,...,i
k
Dowód:
RHS =
X
i
j
. . . P
(t
j+1
−t
j
)
i
j+1
,i
j
P
(t
j
−t
j−1
)
i
j
,i
j−1
. . . = . . .
P
(t
j+1
−t
j
)
◦P
(t
j
−t
j−1
)
i
j+1
,i
j−1
. . . =
= . . . P
(t
j+1
−t
j−1
)
i
j+1
,i
j−1
. . . = L
4
Dowód Twierdzenia (szkic):
Należy sprawdzić, czy
P
(u)
=
∞
X
n=0
Λ
n
u
n!
, Λ
0
= I
spełnia dane równania i warunek początkowy.
Następnie czy spełnione są założenia twierdzenia Picarda.
Oraz czy P
(u)
◦ P
(v)
= P
(u+v)
?
Uwaga
Na zbiorze przeliczalnym stanów należy dodatkowo zakładać pewne ogranicze-
nia na macierz Λ.
np.
P
l6=i
λ
l,i
< ∞
49
Definicja 15 (splotu rozkładów)
Q
1
∗ Q
2
(A) = Q
1
× Q
2
{(x, y) : x + y ∈ A}
Definicja 16 (splotu dystrybuantowego)
F
Q
1
∗Q
2
(x) =
Z
∞
−∞
F
Q
1
(x − y)dF
Q
2
(y), Ozn. F
Q
1
∗ F
Q
2
(x)
Jeżeli Q
1
ma gęstość, to wtedy
f
Q
1
∗Q
2
(x) =
Z
∞
−∞
f
Q
1
(x − y)dF
Q
2
(y)
a jeśli dodatkowo f
Q
2
istnieje, to mamy
Definicja 17 (splotu gęstościowego)
f
Q
1
∗Q
2
(x) =
Z
∞
−∞
f
Q
1
(x − y)f
Q
2
(y)dy
Komentarz
P {X+Y < x} =
Z
R
P {X+Y < x | Y = y}dP
Y
(y) =
Z
R
P {X < x−y}dP
Y
(y) =
=
Z
∞
−∞
F
X
(x − y)dF
Y
(y)
Zadanie 45
P
(u)
k,j
= F
Γ(1,λ
j
)∗Γ(1,λ
j−1
)∗...∗Γ(1,λ
k+1
)
(u) − F
Γ(1,λ
j
)∗Γ(1,λ
j−1
)∗...∗Γ(1,λ
k
)
(u)
d
du
P
(u)
k,j
=?
Dla k = j
P
(u)
j,j
= e
−λ
j
u
, λ
0
= 0
Zatem
d
du
P
(u)
j,j
= −λ
j
e
−λ
j
u
Dla k < j
d
du
P
(u)
k,j
= f
Γ(1,λ
j
)∗...∗Γ(1,λ
k+1
)
(u) −
Z
u
0
f
Γ(1,λ
j
)∗...∗Γ(1,λ
k+1
)
(u)
|
{z
}
0 dla u−v<0
(u − v) dF
Γ(1,λ
k
)
|
{z
}
(0,∞)
F
Γ(1,λ)∗Γ(1,µ)
(u)
0
=
Z
u
0
λe
−λ(u−v)
µe
−v
dv
50
P {
k+1
X
l=j
T
l
u
k
X
l=j
T
l
} = P {X
u
= k | X
0
= j} = F
j+(j−1)+...+(k+1)
−F
j+(j−1)+...+k
RHS = Λ ◦ P
(u)
=
=
0
λ
1
0
0
0
0
−λ
1
λ
2
0
0
0
0
−λ
2
λ
3
0
0
0
0
−λ
3
λ
4
0
0
0
0
−λ
4
1
F
1
F
1+2
F
1+2+3
F
1+2+3+4
0
1 − F
1
F
2
− F
1+2
F
2+3
− F
1+2+3
F
2+3+4
− F
1+2+3+4
0
0
1 − F
2
F
3
− F
2+3
F
3+4
− F
2+3+4
0
0
0
1 − F
3
F
4
− F
3+4
0
0
0
0
1 − F
4
gdzie np.:
F
1+2+3
= F
Γ(1,λ
3
)∗Γ(1,λ
2
)∗Γ(1,λ
1
)
(u)
W szczególnym przypadku mamy:
0
λ
1
0
0
−λ
1
λ
2
0
0
−λ
2
1
F
1
F
1+2
0
1 − F
1
F
2
− F
1+2
0
0
1 − F
2
=
1
λ
1
e
−λ
1
u
0
−λ
1
e
−λ
1
u
−λ
1
(F
2
− F
1+2
) + λ
2
e
−λ
2
u
0
0
λ
2
e
−λ
2
u
porównujemy z:
1
λ
1
e
−λ
1
u
0
−λ
1
e
−λ
1
u
F
0
2
− F
0
1+2
0
0
λ
2
e
−λ
2
u
F
1+2
= 1 −
1
λ
1
− λ
2
[λ
1
e
−λ
2
u
− λ
2
e
−λ
1
u
]
F
0
1+2
= −
1
λ
1
− λ
2
[−λ
1
λ
2
e
−λ
2
u
+ λ
1
λ
2
e
−λ
1
u
] = −
λ
1
λ
2
λ
1
− λ
2
[e
−λ
1
u
− e
−λ
2
u
]
−λ
1
1 − e
−λ
2
u
− 1 +
1
λ
1
− λ
2
[λ
1
e
−λ
2
u
− λ
2
e
−λ
2
u
]
+ F
0
2
=
= −
λ
1
λ
2
λ
1
− λ
2
[e
−λ
2
u
− e
−λ
1
u
] = −F
0
1+2
(u)
Transformata Laplace’a
L
Γ(1,λ
1
)∗Γ(1,λ
2
)∗Γ(1,λ
3
)
(s) = L
Γ(1,λ
1
)
(s)L
Γ(1,λ
2
)
(s) ∗ L
Γ(1,λ
3
)
(s) =
W zór ogólny : L
Γ(1,λ)
(s) =
Z
∞
0
e
−sx
λe
−λx
dx =
λ
λ + s
!
=
λ
1
λ
1
+ s
λ
2
λ
2
+ s
λ
3
λ
3
+ s
=
λ
1
λ
1
+ s
|
{z
}
(∗)
λ
2
λ
1
− λ
2
λ
3
λ
3
− λ
1
+
λ
1
λ
1
−λ
2
λ
2
λ
3
λ
3
−λ
2
λ
2
+ s
+
λ
1
λ
1
−λ
3
λ
2
λ
2
−λ
3
λ
3
λ
2
+ s
=
(∗) =
λ
2
λ
2
− λ
1
λ
3
λ
3
− λ
1
L
Γ(1,λ
1
)
(s)
!
51
=
λ
2
λ
2
− λ
1
λ
3
λ
3
− λ
1
L
Γ(1,λ
1
)
(s)+
λ
1
λ
1
− λ
2
λ
3
λ
3
− λ
2
L
Γ(1,λ
2
)
(s)+
λ
1
λ
1
− λ
3
λ
2
λ
2
− λ
3
L
Γ(1,λ
3
)
(s)
Stąd gęstość:
f
Γ(1,λ
1
)∗Γ(1,λ
2
)∗Γ(1,λ
3
)
(x) =
λ
2
λ
2
− λ
1
λ
3
λ
3
− λ
1
λ
1
e
−λ
1
x
+
λ
1
λ
1
− λ
2
λ
3
λ
3
− λ
2
λ
2
e
−λ
2
x
+
+
λ
1
λ
1
− λ
3
λ
2
λ
2
− λ
3
λ
3
e
−λ
3
x
F
Γ(1,λ
1
)∗Γ(1,λ
2
)∗Γ(1,λ
3
)
=
λ
2
λ
2
− λ
1
λ
3
λ
3
− λ
1
(1 − e
−λ
1
x
)
|
{z
}
1)
+
λ
1
λ
1
− λ
2
λ
3
λ
3
− λ
2
(1 − e
−λ
2
x
)
|
{z
}
2)
+
+
λ
1
λ
1
− λ
3
λ
2
λ
2
− λ
3
(1 − e
−λ
3
x
)
|
{z
}
3)
1) + 2) + 3) = 1
18
Różnice dzielone
Twierdzenie 22
[x
0
, . . . , x
n
; f ] =
n
X
j=0
f (x
j
)
DW
x
0
,...,x
n
(x
j
)
W
x
0
,...,x
n
(x) =
n
Y
j=0
(x − x
j
)
DW
x
0
,...,x
n
(x
j
) =
n
Y
1=k6=j
(x − x
k
)
Zadanie 46
(x − x
0
)(x − x
1
)(x − x
2
)
0
= (x − x
1
)(x − x
2
) + (x − x
0
)(x − x
2
) + (x − x
0
)(x − x
1
)
dla x = x
2
mamy:
(x − x
0
)(x − x
1
)(x − x
2
)
0
= (x − x
0
)(x − x
1
)
Twierdzenie 23
x
0
, . . . , x
n
;
1
a − x
=
1
a − x
0
1
a − x
1
. . .
1
a − x
n
Splot rozkładów wykładniczych o różnych współczynnikach skali jest kombi-
nacją kwazi-wypukłą rozkładów wykładniczych, tzn. współczynniki dają w sumie
jeden ale nie muszą być wszystkie nieujemne.
52
Zadanie 47 Sprawdzić, że:
(∗) =
d
du
P
(u)
= Λ ◦ P
(u)
, u 0
P
(0)
= I
wsk.
Lemat
(∗) ⇒ P
(u)
= exp (uΛ) :=
∞
X
n=0
u
n
Λ
n
n!
Dowód:
⇐
1)
∞
X
n=0
u
n
Λ
n
n!
0
=
∞
X
n=0
u
n
Λ
n
n!
0
=
∞
X
n=0
nu
n−1
Λ
n
n!
=
∞
X
n=1
nu
n−1
Λ
n
n!
= Λ
∞
X
n=1
u
n−1
Λ
n−1
(n − 1)!
=
= Λ
∞
X
n=0
u
n
Λ
n
n!
= Λ exp (uΛ)
2)
∞
X
n=0
u
n
Λ
n
n!
u=0
= 1
Λ
0
0!
= I
przy czym:
u
n
=
u
n
n 6= 0
1
n = 0
⇒
z tw. P ic´
arda
Ponieważ exp (uΛ) spełnia (∗) z twierdzenia o jednoznaczności
P
(u)
= e
uΛ
4
19
Jądro stochastyczne i ich składanie
Definicja 18 A ∈ B, x ∈ X, B − σ − ciało w X
Q(A, x) - jądro stochastyczne, gdy
1. Q( . , x) - miara probabilistyczna
2. Q(A, . ) - funkcja borelowska
53
Fakt
Q
1
, Q
2
− na X
Q
1
◦ Q
2
(A, x) :=
Z
X
Q
1
(A, y)Q
2
(dy, x)
Przykład
X = {1, 2, 3, 4, 5}
Q
1
(B, y) =
X
z∈B
q(z, y)
q(z, y) : y, z ∈ {1, . . . , 5} 0,
X
z
p(z, y) = 1
Q
2
(A, x) =
X
y∈A
p(y, x)
p(y, x) : x, y ∈ {1, . . . , 5} 0,
X
y
p(y, x) = 1
Wtedy
Q
1
◦ Q
2
(B, x) =
5
X
y=1
X
z∈B
q(z, y)
p(y, x) =
5
X
y=1
X
z∈B
q(z, y)p(y, x)
=
=
X
z∈B
(q ◦ p)(z, x)
Komentarz
Q
1
, Q
2
- generowane przez macierze stachastyczne q, p ⇒ Q
1
◦ Q
2
jest genero-
wane przez macierz stochastyczną q ◦ p.
Komentarz
Nie wszystkie takie jądra są generowne przez macierz.
np.
X = R, Q(A, x) =
Z
A
f (y, x)dy
gdzie
f ( . , x) - gęstość miary probab. na R
f (y, . ) - mierzalna
Zadanie 48 Sprawdzić, czy Q jest jądrem stochastycznym.
Z
A
f (y, x)dy − f unkcja mierzalna wzgl. X
A 7−→
Z
A
f (y, x)dy − miara probab. na X
Komentarz
X, Y - zmienne losowe typu ciągłego, f
Y |X
(y|x) = f (y, x) - gęstość, to
Q(A, x) = P (Y ∈ A | X = x)
54
Zadanie 49
f
Y |X
(y|x) = exp
−
1
2v
2
(1 − ρ
2
)
y −
r v
2
v
1
ρ(x − m
1
) − m
2
o ile
(X, Y ) ∼ N (m
1
, m
2
; v
1
, v
2
, ρ)
wsk.
f
Y |X
(x|y) =
f
X,Y
(x, y)
f
X
(x)
19.1
Składanie jąder powyższego typu
Q
1
◦Q
2
(A, x) =
Z
R
Z
A
f
1
(z, y)dz
|
{z
}
Q
1
(A,y)
Q
2
(dy, x) =
Z
R
Z
A
f
1
(z, y)dz
f
2
(y, x)dy =
=
Z
A
Z
R
f
1
(z, y)f
2
(y, x)dy
dz
|
{z
}
f
1
◦f
2
(z,x)dz
=
Z
A
f
1
◦ f
2
(z, x)dz
19.2
Jednoparametrowa grupa jąder stochastycznych
Definicja 19 (Q
(u)
), u 0 - rodzina jąder stochastycznych na X, tworzą pół-
grupę względem złożenia, gdy
Q
(u)
◦ Q
(v)
= Q
(u+v)
, Q
(0)
= I, I − jądro jednostkowe
Definicja 20 (markowskiej rodziny jąder stochast.) (Q
(u,v)
, u v 0)
- markowska rodzina jąder stochastycznych, jeśli
Q
(t,u)
◦ Q
(u,s)
= Q
(t,s)
, t u s
Q
(u,u)
= I
Definicja 21
I(A, x) =
1
x ∈ A
2
x 6= A
= X
A
(x) = δ
x
(A)
Przykład
Q
(t,s)
= Q
(t−s)
, gdzie (Q
(n)
)
n0
− półgrupa jąder
55
19.3
Proces stochastyczny markowski ze wskazaną rodzi-
ną markowską jąder stochastycznych o wartościach
w X
T = [0, ∞) (można rozszerzyć: T ⊂ [0.∞), 0 ∈ T )
Definicja 22 (ξ
t
)
t∈T
elementów losowych w X nazywamy procesem markow-
skim ze wskazaną rodziną jąder stochastycznych, jeśli
P
xi
0
,ξ
1
,...,ξ
m
(A
0
× A
1
× . . . × A
m
) = P {ξ
0
∈ A
0
, ξ
t
1
∈ A
1
, . . . , ξ
t
m
∈ A
m
} =
=
Z
A
m
. . .
Z
A
1
Z
A
0
Q
(t
m
,t
m−1
)
(dx
m
|x
m−1
) . . . Q
(t
2
,t
1
)
(dx
2
|x
1
)Q
(t
1
,0)
(dx
1
|x
0
)Q
(0)
(dx
0
) =
=
Z
A
0
Q
(t
m
,t
m−1
)
◦
A
m−1
Q
(t
m−1
,t
m−2
)
◦
A
m−2
. . . ◦
A
1
Q
(t
1
,0)
(A
m
, x
0
)dQ
(0)
(x
0
)
ozn. przez P
0,t
1
,...,t
m
(A
0
× A
1
× . . . × A
m
)
gdzie Q
(0)
- pewna miara probab. na (X, B) oraz dla m = 0 mamy: P
X
0
= Q
(0)
Definicja 23
Q
1
◦
B
Q
2
(A, x) =
Z
B
Q
1
(A, y)Q
2
(dy, x), B ∈ B, A ∈ B, x ∈ X
Przykład (dla przestrzeni przeliczalnej)
X = {1, 2, . . . , S (B = 2
X
)
Q
1
∼ p
1
= [p
1;k,j
; k, j ∈ X]
Q
2
∼ p
2
= [p
2;k,j
; k, j ∈ X]
p
1
, p
2
- macierze stochastyczne
Wtedy
Q
1
◦ Q
2
∼ (p
1
◦ p
2
)
k,j
=
X
l∈X
p
1;k,l
p
2;k,j
Q
1
◦
B
Q
2
∼ (p
1
◦
B
p
2
)
k,j
=
X
l∈X
p
1;k,l
p
2;l,j
Twierdzenie 24 (Kołmogorowa - Daniella) [o istnieniu procesu] T - do-
wolny zbiór, X - przestrzeń polska (≡ metryczna, ośrodkowa i zupełna), B -
zbiory borelowskie σ(O) = B
założenie:
P
t
1
,...,t
m
− miara probab. na
X
m
, B ⊗ B ⊗ . . . ⊗ B
|
{z
}
m−czynników
56
przyporządkowane każdemu podzbiorowi {t
1
, . . . , t
m
} ⊂ T tak, że:
P
t
1
,...,t
m
,t
m+1
(A
1
× . . . × A
m
× X) = P
t
1
,...,t
m
,
(A
1
× . . . × A
m
)
T 3 t
m+1
/
∈ {t
1
, . . . , t
m
}
(warunek zgodności)
P
t
σ(1)
,...,t
σ(m)
(A
σ(1)
× . . . × A
σ(m)
) = P
t
1
,...,t
m
,
(A
1
× . . . × A
m
)
dla dowolnej permutacji σ
(drugi warunek zgodności)
Teza:
Istnieje (Ω, F , P ), (ξ
t
)
t∈T
, ξ
t
: (Ω, F ) −→ (X, B), t ∈ T
takie, że:
P
t
1
,...,t
m
= P
ξ
t1
,ξ
t2
,...,ξ
tm
dla dowolnego ciągu różnowartościowego (t
1
, . . . , t
m
) ⊂ T .
Wniosek 13 Na mocy powyższego twierdzenia istnienie procesu Markowa dla
przestrzeni polskiej X sprowadza się do sprawdzenia, że P
0,t
1
,...,t
m
(A
0
× A
1
×
. . . × A
m
) jest zgodną rodziną prawdopodobnieństw.
W dowodzie zgodności istotną rolę odgrywa warunek markowskości użytych jąder
stochastycznych.
Dowód:
Dla sprawdzenia warunku zgodności trzeba sprawdzić:
0) (wstępy krok - ”likwidowanie zera”)
Skoro musi być spełniony warunek zgodności, to:
P
t
1
,...,t
m
(A
1
× A
2
× . . . × A
m
) := P
0,t
1
,...,t
m
(X × A
1
× . . . × A
m
)
Ponieważ definicja nie obejmuje takich rozkładów (”bez zera”), więc może-
my przyjąć powyższy warunek jako definiujący P
t
1
,t
2
,...,t
m
(A
1
× A
2
× . . . ×
A
m
), gdy 0 < t
1
< . . . < t
m
.
Zbadajmy warunki zgodności w następujacym przypadku
P
t
0
,t
1
,...,t
m
(X ×A
1
×. . .×A
m
) = P
t
1
,...,t
m
(A
1
×. . .×A
m
) 0 ¬ t
0
< t
1
< . . . < t
m
Dla t
0
= 0 nie ma co sprawdzać, bo to jest definicja prawej strony.
Dla t
0
> 0 mamy sprawdzić, czy:
P
t
0
,t
1
,...,t
m
(X × X × A
1
× . . . × A
m
) = P
0,t
1
,...,t
m
(X × A
1
× . . . × A
m
)
Pokażemy więcej:
1)
P
0,t
1
,...t
i
,t
ν
,t
i+1
,...,t
m
(A
0
×A
1
×. . . A
i
×X×A
i+1
×. . .×A
m
) =
?
P
0,t
1
,...,t
m
(A
0
×A
1
×. . .×A
m
)
57
Sprawdźmy:
L = ... Q
(t
i+1
,t
ν
)
◦
X
Q
(t
ν
,t
i
)
... = ... Q
(t
i+1
,t
i
)
... = RHS
2)
P
0,t
1
,...,t
m
,t
ν
(A
0
× . . . × A
m
× X) =
?
P
0,t
1
,...,t
m
(A
0
× . . . × A
m
)
L =
Z
A
0
Q
(t
ν
,t
m
)
◦
A
m
Q
(t
m
,t
m−1
)
◦
A
m−1
. . . ◦
A
1
Q
(t
1
,0)
(X, u)dQ
(0)
(u) =
L =
Z
A
0
Z
A
m
Q
(t
ν
,t
m
)
(X, v)
|
{z
}
1
Q
(t
m
,t
m−1
)
◦
A
m−1
. . . ◦
A
1
Q
(t
1
,0)
(dν|u)
dQ
(0)
(u) =
=
Z
A
0
Q
(t
m
,t
m−1
)
◦
A
m−1
. . . ◦
A
1
Q
(t
1
,0)
(A
m
|u)dQ
(0)
(u) = RHS
Zadanie 50 Sprawdzić, czy przestrzeń rzeczywista, skończenie wymiarowa jest
polska, tzn. czy jest metryczna, zupełna i ośrodkowa.
metryczność - oczywista
zupełność: wiemy, że:
• Każdy ciąg podstawowy jest zbieżny.
• Zbiór liczb rzeczywistych jest przestrzenią zupełną.
Niech X
(n)
∈ X
d
, X - przestrzeń zupełna
ρ
X
d
(x
1
, . . . , x
d
), (y
1
, . . . , y
d
)
= max
j
ρ
X
(x
j
, y
j
)
ρ (x
(n)
1
, . . . , x
(n)
d
), (x
(m)
1
, . . . , x
(m)
d
)
−→
n,m→∞
0 ⇒ ∃!(x
1
, . . . , x
d
) = lim
n→∞
(x
(n)
1
, . . . , x
(n)
d
)
Wynika stąd, że
∀
j
ρ
X
(x
(n)
j
, x
(m)
j
) −→ 0 ⇒ ∀
j
∃
x
j
ρ
X
(x
(n)
j
, x
j
) = 0
Zatem
∃
(x
1
,...,x
d
)
ρ
X
d
(x, x
(n)
) −→ 0
tzn. (R
d
, ρ
(d)
eukl.
) - przestrzeń zupełna.
ośrodkowość:
Q
d
− przeliczalna
Q
d
⊂ R
d
Q
d
= R
d
⇒ R
d
jest ośrodkowa
Zatem R
d
jest przestrzenią polską.
Komentarz
ρ
(d)
eukl.
¬
√
dρ
(d)
max
58
Dowód:
(ρ
(d)
eukl.
)
2
=
X
j
ρ
(d)
(j)
2
¬
X
j
max ρ
(d)
(j)
2
¬ d max ρ
(d)
(j)
4
C[0, 1], | . |
∞
- polska przestrzeń Banacha
Komentarz [norma a metryka]
x ∈ X 7−→k x k − norma
ρ(x, y) (x, y) ∈ X − metryka
Twierdzenie 25 Zał. X - liniowa
k . k − norma ⇒
k x − y k; x, y ∈ X
jest metryką
Fakt
Procesy o przyrostach niezależnych na R
d
są markowskie.
Dowód:
µ
(t,s)
- miara na R
d
, t, s 0, t s, t, s ∈ T ⊂ R
dodatkowy warunek:
µ
(t,s)
∗ µ
(u,s)
= µ
(t,s)
, t u s 0, u, t, s ∈ T
Komentarz
Pragniemy, aby
µ
(t,s)
= P
X
t
−X
s
, (X
t
)
t0
− proces stochast.
Znajdźmy (Q
(t,s)
)
ts0
- rodzinę markowską jąder stochastycznych takiego wła-
śnie procesu.
Q
(t,s)
(A, x) = P {X
t
∈ A|X
s
= x} ≡ P {X
t
−X
s
∈ A−x|X
s
= x} = µ
(t,s)
(A−x)
Więc weźmy
Q
(t,s)
(A, x) = µ
(t,s)
(A − x)
Sprawdzimy:
1. (Q
(t,s)
)
t,s0, t,s∈T
jest rodziną markowską jąder stochastycznych
2. Jeśli (X
t
)
t∈T , t0
jest procesem markowskim z powyższymi jądrami, to
jest to proces o przyrostach niezależnych i przy tym
P
X
t
−X
s
= µ
(t,s)
59
Ad.1)
Mamy:
Q
(t,u)
◦Q
(u,s)
=
Z
R
d
Q
(t,u)
(B, x)Q
(u,s)
(dx, z) =
Z
R
d
µ
(t,u)
(A−x)µ
(t,u)
(dx−z) =
=
Z
R
d
µ
(t,u)
A − (x + z)
dµ
(u,s)
(x) =
Z
R
d
µ
(t,u)
(A − z) − x
dµ
(u,s)
(x) =
= µ
(t,u)
∗ µ
(u,s)
(A − z) = µ
(t,s)
(A − z) = Q
(t,s)
(A, z)
gdyż
µ
(t,s)
-miara na R
d
, t, s 0, t s, t, s ∈ T ⊂ R
dodatkowy warunek:
µ
(t,s)
∗ µ
(u,s)
= µ
(t,s)
, t u s 0, u, t, s ∈ T
Mamy pokazać, że x 7−→ (A + x) mierzalna względem x.
Pokażemy dla przypadku, gdy A - przedział:
A = [a, b), x ∈ R
d
µ(A + x) = µ[a + x, b + x) =
X
ε∈{0,1}
d
F
µ
(ab
ε
)(−1)
P
d
i=1
ε
i
−d
gdzie
ab
ε
= a
i
+ x
i
+ ε(b
i
− a
i
); i = 1, . . . , d
F
µ
- dystrybuanta miary µ
F
µ
- funkcja mierzalna (borelowska)
x 7−→ ab
ε
jest ciągłe
20
Kontynuacja tematu procesów gaussowskich
[ze str.12]
Twierdzenie 26 Zał. (X
t
, t ∈ T ), T - dowolny zbiór
c : T × T −→ R,
m : T −→ R
c
t,s
= c
s,t
, ∀
{t
1
,...,t
m
}⊂T
[c
t
i
,t
j
: i, j = 1, . . . , m] 0
Teza:
Istnieje proces gaussowski (X
t
, t ∈ T ) taki, że
Cov{X
t
, X
s
} = c
t,s
EX
t
= m
t
60
Dowód:
(R, ρ
eukl.
) − prz. polska,
B
(1)
= σ(O
(1)
), B
(m)
= B
(1)
⊗ . . . ⊗ B
(1)
Mamy sprawdzić zgodność. Przyjmijmy oznaczenia:
N m
t
1
, . . . , m
t
m
, m
t
m+1
; [c
t
i
,t
j
: i, j = 1, . . . , m + 1]
=:
e
Q
N m
t
1
, . . . , m
t
m
; [c
t
i
,t
j
: i, j = 1, . . . , m]
=: Q
Zatem
Q − miara probab. na (R
m
, B
(m)
) = (R, B
(1)
)
m
e
Q − miara probab. na (R, B
(1)
)
m+1
Sprawdzimy, czy
Q
1
= (A
1
, A
m
) := e
Q(A
1
×. . .×A
m
×R) =
?
Q(A
1
×. . .×A
m
), A
1
, . . . , A
m
∈ B
(1)
Zauważmy, że Q
1
- miara probab. na R
m
, bo
ϕ
Q
1
=
Z
R
m
e
it◦x
T
dQ
1
(x) =
Ponieważ
Q
1
(A
1
× . . . × A
m
) = e
Q(A
1
× . . . × A
m
× R) = e
Q π
−1
(A
1
× . . . × A
m
)
gdzie π
−1
- rzut na n pierwszych współrzędnych. Skorzystamy z
Twierdzenie 27
Z
R
m
ψ(x)dQ
1
(x) =
Z
R
m+1
ψ π(y)
d
e
Q(y),
Q
1
= e
Q ◦ π
−1
Zatem:
ϕ
Q
1
(t) =
Z
R
m+1
e
it◦(y
1
,...,y
m
)
T
d e
Q(y
1
, . . . , y
m+1
) =
Z
R
m+1
e
i(t,0)y
T
d e
Q(y
1
, . . . , y
m+1
) =
= ϕ
e
Q
(t, 0) = e
i(t,0)◦m
T
e
−
1
2
(t,0)◦c◦(t,0)
T
=
gdzie m = (m
t
1
, . . . , m
t
m
, m
t
m+1
), c = [c
t
i
,t
j
; i, j = 1, . . . , m + 1]
= e
it◦(m
t1
,...,m
tm
,m
tm
)
T
e
−
1
2
t◦[c
ti,tj
;i,j=1,...,m]t
T
= ϕ
Q
(t)
4
P
X
t
= N (m
t
, c
tt
)
P
X
t
,X
s
= N (m
t
, m
s
;
c
tt
c
ts
c
st
c
ss
)
EX
t
= m
t
,
Cov(X
t
, X
s
) = c
ts
61
Zadanie 51 Pokazać, że:
µ
(1,1)
N (m
1
, m
2
;
c
11
c
12
c
21
c
22
)
= c
12
, o ile c
12
= c
21
Uwaga
Zał. x
1
, . . . x
m
∈ L, L - prz. Hilberta, rzeczywista, liniowa z iloczynem skalar-
nym hx, yi, zupełna
hx, xi 0,
hx, xi = 0 ⇒ x = 0
Teza:
[hx
j
, x
k
i : j, k = 1 . . . , m]
|
{z
}
c
0
Dowód:
a
1
, . . . , a
m
∈ R
a ◦ c ◦ a
T
=
X
j,k
a
j
hx
j
, x
k
ia
k
=
D X
j
a
j
x
j
,
X
k
a
k
x
k
E
0
4
Uwaga
Jeśli c symetryczna, to
c
m×m
0 ⇒ ∃
L,x
1
,...x
m
∈L
c
j,k
= hx
j
, x
k
i
Dowód:
Jeżeli c - symetryczna, to istnieje d - diagonalna i u - ortogonalna taka, że
c = u ◦ u
T
różnym d odpowiadają ortogonalne wektory własne
u = [v
T
1
, . . . , v
T
m
, ] - tworzą układ ortonormalny
u
−1
= u
T
,
h
bo u
T
u = I
i
c 0 ⇒ d 0
c = u ◦
√
d ◦
√
d ◦ u
T
= (u ◦
√
d)(u ◦
√
d)
T
= [hw
j
, w
k
i; j, k = 1, . . . , m]
gdzie w
j
oznacza j-ty wierz macierzy u ◦
√
d
Wynikanie odwrotne bez dowodu.
4
Komentarz
Macierz kowariancji c jest macierzą Grama.
Komentarz
Podobne konstrukcje można uzyskać dla funkcji nieujemnie określonych. Jest to
jednak bardziej złożone.
62
21
Biały szum dyskretny
Ciąg zmiennych losowych (X
n
; n = 0, 1, . . .)
h
(X
n
; n ∈ Z)
i
, X
n
n.j.r. o skoń-
czonym drugim momencie
EX
n
= 0,
V arX
n
= v
ρ
2
W szczególności to może być gaussowski.
Definicja 24 (Proces Ornstein-Uhlenbeck) (X
t
, t 0) - gaussowski
h
(X
t
; t ∈
R)
i
EX
t
= 0, K(t, s) = Cov(X
t
, X
s
) ≡ c
t,s
= ρ
2
exp(−α|t − s|), t, s 0
22
Procesy stacjonarne
Definicja 25 (proces stacjonarny w węższym sensie) (X
t
)
t∈T
,
T ⊂ R
jest stacjonarny w węższym sensie, gdy
∀
{t
1
,...,t
m
}⊂T
τ : (t
j
+ τ ∈ T ) ⇒ (X
t
1
, . . . , X
t
m
) =
d
(X
t
1
+τ
, . . . , X
t
m
+τ
)
Przykład
1) Proces Ornstein-Uhlenbeck, gdyż mamy:
P
X
t1
,...,X
tm
= N
0,
K(t
i
− t
j
); i, j = 1, . . . , m
K(n) = ρ
2
exp(−α|u|)
P
X
t1+τ
,...,X
tm+τ
= N
0,
h
K t
i
+ τ − (t
j
+ τ )
= K(t
i
− t
j
); i, j = 1, . . . , m
gdzie K(t − s) = Cov(X
t
− X
s
) 6= 0
Zatem jest stacjonarny.
2) Biały szum dyskretny
(X
t
1
, . . . , X
t
m
) ∼ P
X
× . . . × P
X
|
{z
}
m−czynników
, t
i
6= t
j
dla i 6= j
X
t
1
+τ,...,t
m
+τ
nadal n.j.r.
Więc
(X
t
1
+τ
, . . . , X
t
m
+τ
) ∼ P
X
× . . . × P
X
|
{z
}
m−czynników
Wniosek 14 Ciąg zmiennych losowych n.j.r jest przykładem procesu stacjonar-
nego w węższym sensie.
Definicja 26 (proces stacjonarny w szerszym sensie) (X
t
)
t∈T
, T ⊂ R
jest stacjonarny w szerszym sensie, gdy
63
1. EX
2
t
< ∞ t ∈ T
2. EX
t
= m (const.)
3. ∃
K:R→R
Cov(X
t
, X
s
) = K(t − s)
Zadanie 52 Pokazać, że jeżeli proces jest stacjonarny w węższym sensie oraz
EX
2
t
< ∞, to jest on stacjonarny w szerszym sensie.
Przykład
1) X
0
, X
1
, . . . - nieskorelowane, nie są niezależne, o skończonym drugim momen-
cie takie, że
V arX
n
= v, n = 0, 1, 2, . . .
2) niezależne o m = 0, v > 0 ale o różnych rozkładach
Proces jest stacjonarny:
1. w węższym sensie: rozkłady niezmiennicze ze względu na przesunięcia (do-
wolne, skończenie wymiarowe)
2. w szerszym sensie: EX
2
t
< ∞, EX
t
= const., Cov(X
t
, X
s
) = K(t − s)
Uwaga 1
EX
2
t
< ∞
⇒ istnieje
Cov(X
t
, X
s
)
Uwaga 1
D
2
X
t
< ∞, D
2
X
s
< ∞ ⇒ |Cov(X
t
, X
s
)| ¬
p
V arX
t
, V arX
s
Dowód:
f, g ∈ L
2
⇒
|
Z
X
f gdµ |¬
Z
X
f
2
dµ
1
2
Z
X
g
2
dµ
1
2
bigg)
22.1
Przykład (całka prymitywna)
(X
t
)
t0
0 = t
0
< t
1
< . . . < t
m
S =
m
X
j=1
(X
t
j
− X
t
j−1
)W
j
Obliczyć ES = ?, D
2
S = ?
ES =
m
X
j=1
W
j
E(X
t
j
− X
t
j−1
) =
m
X
j=1
W
j
(m
t
j
− m
t
j−1
)
64
h
D
2
{S|W }
i
= D
2
S =
m
X
j,k=1
Cov (X
t
j
− X
t
j−1
)W
j
, (X
t
k
− X
t
k−1
)W
k
=
=
m
X
j,k=1
W
j
W
k
Cov(X
t
j
−X
t
k
)−Cov(X
t
j
−X
t
k−1
)−Cov(X
t
j−1
−X
t
k
)+Cov(X
t
j−1
−X
t
k−1
)
=
=
m
X
j,k=1
W
j
W
k
K(t
j
, t
k
) − K(t
j−1
, t
k
) − K(t
j
, t
k−1
) + K(t
j−1
, t
k−1
)
K(t, s) = Cov(X
t
, X
s
)
Komentarz
Dla losowych W , niezależnych od X mamy:
E{S|W } =
m
X
j−1
W
j
(m
t
j
− m
t
j−1
)
22.2
Przykład (całka mniej prymitywna)
S(t) =
Z
t
0
X
u
du
np.
= R −
Z
t
0
X
u
du, gdy X
.
(ω) całkowalna
ES(t) =
Z
Ω
Z
t
0
X
u
(ω)du
dP r(ω)
(∗)
=
Z
t
0
( X
u
|{z}
m
u
)du
(*) - o ile mamy mierzalność względem dwóch zmiennych.
D
2
S(t) =
Z
Ω
Z
t
0
X
u
du
Z
t
0
X
v
dv
dP r −
Z
t
0
EX
u
du
2
= . . . =
=
Z
Ω
Z
t
0
(X
u
−m
u
)du
Z
t
0
(X
v
−m
v
)dv
dP r =
Z
Ω
Z
[0,t]
2
(X
u
−m
u
)(X
v
−m
v
)
dudv
(∗∗)
=
=
Z
[0,t]
2
E(X
u
− m
u
)(X
v
− m
v
)
|
{z
}
Cov(X
u
,X
v
)
dudv =
Z
[0,t]
2
K(u, v)
|
{z
}
f.kowar.
dudv
(**) - o ile mamy mierzalność względem trzech zmiennych.
Przykład
S
3
(t) =
Z
t
0
X
2
u
du
ES
3
(t) =
Z
t
0
(EX
2
u
)du =
Z
t
0
m
2
u
+ K(u, u)
du
ES
2
3
(t) =
Z
[0,t]
2
Cov(X
2
u
, X
2
v
)dudv (pojawią się momenty rzędu 4)
65
Komentarz
Jeżeli ograniczymy się do funkcji wartości średniej oraz funkcji kowariancji, to
nie uzyskujemy pełnego opisu procesów.
Jednakże dla procesów gaussowskich starcza to do pełnej charakterystyki roz-
kładów skończenie wymiarowych.
Przykład
Dla procesu Ornsteina-Uhlenbecka mamy:
(X
t
)
t0
gaussowski, (m
t
= 0)
t0
, K(t, s) = σ
2
exp(−α|t − s|) dla t, s 0
S(t) =
Z
t
0
X
u
du
ES(t) =
Z
t
0
m
u
du =
Z
t
0
0du = 0
V arS(t) =
Z
t
0
Z
t
0
K(u, v)dudv = 2σ
2
Z
t
0
Z
u
0
e
−α(u−v)
dv
du =
=
h
2σ
2
Z
t
0
e
−αu
1
α
e
αu
i
u
v=0
du = 2σ
2
1
α
Z
t
0
e
−αu
(e
αu
−1)du =
2σ
2
α
t−
1
α
(1−e
−αt
)
=
=
2σ
2
α
e
−αt
− (1 − αt)
=
2σ
2
α
2
(αt − 1 + e
−αt
) ≈
2σ
2
α
t −
1
α
+ o(1)
Komentarz
f (t) jest o g(t)
, t → t
0
⇔
f (t)
g(t)
→ 0 przy t → t
0
Przykład
S
3
(t) =
Z
t
0
X
2
u
du
D
2
S
3
(t) = ?
Cov(X
2
s
, X
2
t
) = ?
EX
2
t
= m
2
t
+ K(t, t) = 0
2
+ σ
2
e
−α0
= σ
2
Cov(X
2
s
, X
2
t
) = E(X
2
s
− σ
2
)(X
2
t
− σ
2
) = EX
2
s
X
2
t
− σ
2
EX
2
t
− σ
2
EX
2
s
+ σ
4
EX
2
s
X
2
t
= ?
P
X
s
X
t
= N (0, 0),
σ
2
σ
2
e
−α|t−s|
σ
2
e
−α|t−s|
σ
2
P
X
0
X
u
= N (0, 0), σ
2
1
e
−αu
e
−αu
1
E(X
0
, X
u
) = (0, 0)
m
(2,2)
≡
EX
2
0
X
2
u
= µ
(2,2)
(P
X
0
,X
u
)
1)
m
(2,2) def
=
Z
∞
−∞
Z
∞
−∞
x
2
y
2
f
P
X0,Xu
(x, y)dxdy
66
2)
m
(2,2)
=
∂
4
∂w
2
1
∂w
2
2
ϕ
P
X0,Xu
(0, 0) =
=
∂
4
∂w
2
1
∂w
2
2
exp −
σ
2
2
[w
1
, w
2
]
1
e
−αu
e
−αu
1
w
1
w
2
w
1
=w
2
=0
=
=
∂
4
∂w
2
1
∂w
2
2
1 −
σ
2
2
Q(w
1
, w
2
) +
σ
4
4 · 2
Q(w
1
, w
2
)
2
+ wyr. st. 6 i wyższego
=
=
∂
4
∂w
2
1
∂w
2
2
σ
4
8
(w
2
1
+ w
2
2
+ 2e
−αu
w
1
w
2
)
2
w
1
=w
2
=0
=
= 4
σ
4
8
∂
4
∂w
1
∂w
2
2w
2
1
w
2
2
+ 4e
−2αu
w
2
1
w
2
2
w
1
=w
2
=0
=
=
σ
4
2
(2 + 4e
−2αu
) = σ
4
(1 + 2e
−2αu
)
Przykład
(X
t
)
t0
,
(m
t
= 0)
t0
K(t, s) = σ
2
exp(−α|t − s|) nie gaussowski, przyjmuje
tylko wartości ±1
Λ =
−µ
λ
µ
λ
µ, λ > 0 e
Λu
= P
(u)
EX
t
= 0, t 0
Cov(X
t
, X
s
) = ?
P
X
t
,X
s
(i, j) = P
X
t
|X
s
(i|j)P
X
s
(j) t > s
Cov(X
t
, X
s
) = 1 · 1P
1,1
+ (−1) · 1P
−1,1
+ 1(−1)P
1,−1
+ (−1)(−1)P
−1,−1
=
=
1
2
e
−α(t−s)
+
1
2
1
2
· 2 −
1
2
−
1
2
e
−α(t−s)
1
2
· 2 = e
−α(t−s)
, t > s
67