Procesy Stochastyczne Proc Sto Nieznany

background image

Procesy Stochastyczne

dr hab. inż. Joachim Domsta

Spis treści

1

Rozkłady wielowymiarowe

2

2

Rodziny rozkładów prawdopodobieństwa układów elementów
losowych

4

3

Układy nieskończone

5

4

Rozkłady Gaussowskie wielowymiarowe

5

5

Przykłady procesów

10

5.1

Najprostsze przykłady/funkcji losowych . . . . . . . . . . . . . .

10

5.2

Procesy punktowe na prostej

. . . . . . . . . . . . . . . . . . . .

10

5.3

Procesy gaussowskie [z dziedziną R

+

lub R

] . . . . . . . . . . .

11

5.4

Ruch Browna [Przykład procesu gaussowskiego] . . . . . . . . . .

11

6

Prawdopodobieństwa i wartości oczekiwane warunkowe

12

6.1

Warunkowy rozkład pr. przy warunku B . . . . . . . . . . . . . .

13

6.2

Dystrybuanta warunkowa zm. los. X przy warunku B . . . . . .

13

6.3

Własności wartości oczekiwanej warunkowej . . . . . . . . . . . .

16

7

Łańcuch markowski (Markowa) o wartościach przeliczalnych:

18

8

Proces Poissona

24

9

Zdarzenia niezależne

26

10 Szkic dowodu istnienia procesu Poissona

27

11 Przykłady jednorodnych procesów o przyrostach niezależnych 30

12 Graniczny rozkład skończenie wymiarowy przyrostów procesu

liczącego

33

13 Proces dwumianowy ujemny B

36

14 Proces Cauchy’ego

37

1

background image

15 Przykład rozkładu sk. wym. dla ruchu Browna

44

16 Niezawodność układu równoległego (ilość sprawnych elemen-

tów)

44

17 Proces markowski z czasem ciągłym, z przestrzenią przeliczal-

45

18 Różnice dzielone

51

19 Jądro stochastyczne i ich składanie

52

19.1 Składanie jąder powyższego typu . . . . . . . . . . . . . . . . . .

54

19.2 Jednoparametrowa grupa jąder stochastycznych . . . . . . . . . .

54

19.3 Proces stochastyczny markowski ze wskazaną rodziną markowską

jąder stochastycznych o wartościach w X . . . . . . . . . . . . . .

55

20 Kontynuacja tematu procesów gaussowskich [ze str.12]

59

21 Biały szum dyskretny

62

22 Procesy stacjonarne

62

22.1 Przykład (całka prymitywna) . . . . . . . . . . . . . . . . . . . .

63

22.2 Przykład (całka mniej prymitywna)

. . . . . . . . . . . . . . . .

64

2

background image

1

Rozkłady wielowymiarowe

Q-miara probabilistyczna na (R

d

, B

(d)

)-rozkład d-wymiarowy

Definicja 1 (dystrybuanty)

F

Q

=



F

Q

(x

1

, . . . , x

d

) := Q (−∞, x

1

) × . . . × (−∞, x

d

)

 dla (x

1

, . . . , x

d

) R

d



Twierdzenie 1 F

Q

wyznacza Q jednoznacznie

Twierdzenie 2 F jest dystrybuantą pewnej (a więc jedynej) miary probabili-
stycznej wtedy i tylko wtedy, gdy:

1. F ­ 0, F niemalejąca w każdej zmiennej

2. F lewostronnie ciągła w każdej zmiennej

3. (a) ∀

x

1

,...,x

i−1

,x

i+1

,...,x

d

i

lim

x

i

→−∞

F (x

1

, . . . , x

i

, . . . , x

d

) = 0

(b) lim

x

i

→−∞,i=1,...,d

F (x

1

, . . . , x

d

) −→ 1

4.

(1,...,1)
h

1

,...,h

d

F (x

1

, . . . , x

d

) ­ 0 dla x

1

, . . . , x

d

R

h

1

, . . . , h

d

­ 0

gdzie

(0,...,0)

F (x

1

, . . . , x

d

) = F (x

1

, . . . , x

d

)

(l

1

,...,l

i

+1,...,l

d

)

h

1

,...,h

d

F (x

1

, . . . , x

d

) := ∆

(l

1

,...,l

i

,...,l

d

)

h

1

,...,h

d

F (x

1

, . . . , x

i

+ h

i

, . . . , x

d

)+

(l

1

,...,l

i

,...,l

d

)

h

1

,...,h

d

F (x

1

, . . . , x

i

, . . . , x

d

)

l
h

f (x) = f (x + h) − f (x) l

1

, . . . , l

d

N h

1

, . . . , h

d

R

Twierdzenie 3

(1,...,1)
h

1

,...,h

d

=

X

(ε

1

,...,ε

d

)∈{0,1}

d

(1)

d−

P

d

i=1

ε

i

F (x

1

+ ε

1

h

1

, . . . , x

d

+ ε

d

h

d

)

W szczgólnym przypadku dla d = 2 mamy:

(1,1)
h

1

,h

2

F (x

1

, x

2

) = (1)

2(1+1)

F (x

1

+ h

1

, x

2

+ h

2

) + (1)

2(0+1)

F (x

1

, x

2

+ h

2

)+

+(1)

2(1+0)

F (x

1

+ h

1

, x

2

) + (1)

2(0+0)

F (x

1

, x

2

) = F (x

1

+ h

1

, x

2

+ h

2

)+

−F (x

1

, x

2

+ h

2

) − F (x

1

+ h

1

, x

2

) + F (x

1

, x

2

)

Szkic dowodu (Twierdzenia 2):

Warunki 1) - 2) wynikają z ciągłości i monotoniczności Q, to znaczy z tego, że:

A

n

↑ A ⇒ Q(A

n

) ↑ Q(A)

3

background image

mamy

x

1,n

↑ x

1

(−∞, x

1,n

) × . . . × (−∞, x

d

) (−∞, x

1

) × . . . × (−∞, x

d

)

Q (−∞, x

1,n

) × . . . × (−∞, x

d

)

 ↑ Q (−∞, x

1

) × . . . × (−∞, x

d

)



Warunek 3) wynika również z ciągłości Q:

K

n

↓ φ −→ Q(K

n

) ↓ Q(φ) = 0

Warunek 4) dla d = 2

L = Q(+, +) − Q(0, +)

|

{z

}

∗∗

− Q(+, 0)−Q(0, 0)

, ∗∗ − [x

1

, x

1

+h)×(−∞, x

2

+h

2

)

L = Q [x

1

, x

1

+ h) × [x

2

, x

2

+ h)

 ­ 0

4

Twierdzenie 4

lim

x

i

→∞

F

Q

(x

1

, . . . , x

i

, . . . , x

d

) = F

Q

i

(x

1

, . . . , x

i−1

, x

i+1

, . . . , x

d

)

gdzie Q

i

= Q◦π

1

i

(gdzie indeks i oznacza rzut na wszystkie poza i−tą współrzędną)

π

i

(x

1

, . . . , x

d

) = (x

1

, . . . , x

i−1

, x

i+1

, . . . , x

d

)

Wniosek 1

d = 2,

F

Q

(x

1

, x

2

) −→ F

Q

2

(x

1

) ≡ F

Q

1

(x

1

) przy x

2

→ ∞

Q

2

≡ Q

1

(A) = Q(A × R)

Dowód:
Rzeczywiście

Q

2

(A) = Q π

1

2

(A)

 = Q(x

1

, x

2

) : π

2

(x

1

, x

2

) ∈ A

= Q(x

1

, x

2

) : x

1

∈ A

= Q(R)

x

2

% ∞ ⇒ (−∞, x

1

) × (−∞, x

2

) % (−∞, x

1

) × R

Q (−∞, x

1

) × (−∞, x

2

)

 % Q (−∞, x

1

) × R



F

Q

(x

1

, x

2

) % F

Q

1

≡ F

Q

2

(x

1

)

4

4

background image

Wniosek 2

N iech Q = P

X

1

,...,X

d

, tzn. Q(A) = P r{X ∈ A}, A ∈ B

(d)

, X = (X

1

, . . . , X

d

)

Y = (x

j

1

, . . . , x

j

l

)

1 ¬ j

1

< . . . < j

l

¬ d

oznaczenia:

P

Y

− rozkład pr. Y, czyli P

Y

(B) = P r{Y ∈ B}, B ∈ B

l

Wtedy:

F

Y

(y

1

, . . . , y

l

) =

lim

x

i

→∞, i /

∈{j

1

,...,j

l

}

F

Q

(x

1

, . . . , x

d

), gdy x

j

1

= y

1

, . . . , x

j

l

= y

l

2

Rodziny rozkładów prawdopodobieństwa ukła-
dów elementów losowych

X

1

: (Ω, F ) −→ (X

1

, B

1

)

X

2

: (Ω, F ) −→ (X

2

, B

2

)

..

.
X

d

: (Ω, F ) −→ (X

d

, B

d

)

układ d-elementów losowych z X

1

, . . . , X

d

odpowiednio

P r : F −→ [0, 1] miara probabilistyczna
Jeśli X

1

= R ⇒ X

1

- zm. los.

X

2

= R

k

⇒ X

2

- wektor losowy k-wymiarowy

X

3

= przestrz. f unkcyjna ⇒ X

3

- funkcja losowa

Komentarz:

X - prz. metryczna, to przez B na ogół oznacza się σ-ciało zb. borelowskich

Twierdzenie 5 Niech X

1

= X

2

= . . . = X

d

= R

B

1

= B

2

= . . . = B

d

= B, (X

1

, . . . , X

d

) - wektor d-wymiarowy

wtedy

(X

1

, . . . , X

d

) : (Ω, F ) −→ (R

(d)

, B

(d)

)

Uwaga o dowodzie:
krok 1: (X

1

, . . . , X

d

) : (Ω, F ) −→ (R × . . . × R, B

(1)

⊗ . . . ⊗ B

(1)

)

krok 2: B

(d)

= B

(1)

⊗ . . . ⊗ B

(1)

:= σ(B

(1)

× . . . × B

(1)

)

Komentarz:

To co powiedzieliśmy o dystrybuantach rozkładów wielowymiarowych dotyczy
tego szczególnego przypadku, gdy X

j

= R, B

j

= B

(1)

j = 1, . . . , d

5

background image

Twierdzenie 6 (Uogólnienie tw. o układach zm. los.) Zał. X

1

, . . . , X

d

-

układ elementów losowych z X

1

, . . . , X

d

(j.w.)

Teza 1:

(X

1

, . . . , X

d

) : (Ω, F ) −→ (X

1

× . . . × X

d

, B

1

⊗ . . . ⊗ B

d

)

gdzie B

1

⊗ . . . ⊗ B

d

= σ(B

1

× . . . × B

d

), B

j

× . . . × B

d

= {A

1

× . . . × A

d

: A

j

∈ B

j

}

Teza 2:

Y = (X

j

1

= Y

1

, X

j

2

= Y

2

, . . . , X

j

l

= Y

l

) : (Ω, F ) −→ (X

j

1

×. . .×X

j

l

, B

j

1

⊗. . .⊗B

j

l

)

Teza 3:
Y (j.w.)

P

Y

(B

1

× . . . × B

l

) = P

X

(A

1

× . . . × A

d

)

A

j

k

= B

k

∈ B

j

k

, k ∈ {1, 2, . . . , l}

A

i

= X

i

, i /

∈ {1, 2, . . . , j

l

}, i ∈ {1, 2, . . . , d}

czyli

P

Y

= P

X

◦ π

1

, gdzie π(x

1

, x

2

, . . . , x

d

) := (x

j

1

, x

j

2

, . . . , x

j

l

)

3

Układy nieskończone

Definicja 2 Niech (X

i

, i ∈ T ) będzie układem elementów lodowych X

i

, i ∈ T ,

gdzie T - dowolny zbiór, P r - miara probab. na (Ω, F )
Rodzina rozkładów skończenie wymiarowych tego układu elementów losowych
(X

i

, i ∈ T ) to rodzina miar probab. Q

I

na (×

i∈I

X

i

, ⊗

i∈I

B

i

), I ⊂ T określonych

równością:

Q

I

(×

i∈I

B

i

) = P r{∀

i∈I

X

i

∈ B

i

} dla B

i

∈ B

i

dla i ∈ I

To określa Q

I

na całym σ-ciele produktowym ⊗

i∈I

B

i

dla pewnych σ-ciał



Definicja 3 (cd.) Układ: (X

i

, i ∈ T ), T - dowolny zbiór, P r - miara probab.

na (Ω, F ) elelmentów losowych nazywamy również funkcją losową z parametrem
(argumentem) ze zbioru T o wartości w X

i

, gdy parametr równa się i, i ∈ T [z

dziedziną T, o wartościach w X ,gdy X

i

= X , B

i

= B dla i ∈ T ]

4

Rozkłady Gaussowskie wielowymiarowe

(0) Powtórko-uzupełnienie - funkcja charakterystyczna
Q - miara probab. na R

d

Funkcję

R

d

3 t = (t

1

, . . . , t

d

) −→

Z

R

d

e

itx

T

dQ(x) C

6

background image

nazywamy funkcją charakterystyczną miary probab. Q.
Własności:

• f. ch. jest jednostajnie ciągła

| | ¬ 1

• w t = (0. . . . , 0),

R

R

d

= 1, czyli ϕ(0, . . . , 0) = 1

• każda funkcja chrakterystyczna wyznacza rozkład jednoznacznie

N (0, 1) ∼ ϕ(t) = e

t2

2

N (m, v) ∼ ϕ(t) = e

itm

e

−v

t2

2

(v ­ 0)

N (m

1

, m

2

, . . . , m

d

), c

 ∼ ϕ(t) = e

itm

e

1
2

tct

T

, dla t R

d

gdzie c - macierz kowariancji, m = (m

1

, . . . , m

d

)

Twierdzenie 7

P

X

= N (m, c) ⇒ Cov(X

i

, X

j

) = c

ij

, EX

i

= m

i

Twierdzenie 8 (o funkcjach charakterystycznych) Zał. X = (X

1

, . . . , X

d

)

- wektor losowy d-wymiarowy (Y

1

, . . . , Y

l

) = (X

j

1

, . . . , X

j

l

) - podukład

Teza

ϕ

P

Y

(s

1

, . . . , s

l

) = ϕ

P

X

(t

1

, . . . , t

d

), gdy t

j

1

= s

1

, . . . , t

j

l

= s

l

, t

j

= 0 poza tym

Np.

ϕ

X

2

,X

3

(s

1

, s

2

) = ϕ

X

1

,...,X

n

(0, s

1

, s

2

, 0)

Kombinacje liniowe zmiennych losowych gaussowskich są gaussowskie.

Zadanie 1 Na podstawie definicji dystrybuantywielowymiarowej podać wzór na
dystrybuantę rozkładu prawdop. wektora losowego
X = (X

1

, . . . , X

d

), d ­ 1

F

X

(x

1

, . . . , x

d

) = P r{X

1

< x

1

∧ . . . ∧ X

d

< x

d

}, (x

1

, . . . , x

d

) R

d

F

X

:= F

P

X

(−∞, x

1

)×. . .×(−∞, x

d

)

 = P rω : X(ω) (−∞, x

1

)×. . .×(−∞, x

d

)

=

= P r

ω : X

1

(ω) (−∞, x

1

)∧. . .∧X

d

(ω) (−∞, x

d

)

= P r{X

1

< x

1

∧. . .∧X

d

< x

d

}

Zadanie 2 f : R

d

−→ R ma własności:

nieujemna

R

R

d

f = 1

f - borelowska

7

background image

Wiemy, że wtedy

Q(A) :=

Z

A

f dλ

(d)

Z

A

f (x

1

, . . . , x

d

)dx

1

. . . dx

d

Z

A

f (x)dx

Q(A) jest miarą probab. na (R

d

, B

(d)

).

Podać wzór na dystrybuantę F

Q

.

F

Q

(x

1

. . . , x

d

) =

Z

(−∞,x

1

)×...×(−∞,x

d

)

f dλ

(d)

Z

x

1

−∞

. . .

Z

x

d

−∞

f (u

1

, . . . , u

d

)du

d

. . . du

1

f nazywamy gęstością rozkładu Q

Zadanie 3 Załóżmy, że X ma rozkład o gęstości f , gdzie f (j.w.).
Znaleść: F

X

1

, F

X

1

,X

2

, d = 3

F

X

1

,X

2

,X

3

(x

1

, x

2

, x

3

) = P r{X

1

< x

1

, X

2

< x

2

, X

3

< x

3

} =

Z

x

1

−∞

Z

x

2

−∞

Z

x

3

−∞

f (u

1

, u

2

, u

3

)du

1

du

2

du

3

F

X

1

(x

1

) =

lim

x

2

,x

3

→∞

F

X

1

,X

2

,X

3

(x

1

, x

2

, x

3

) =

Z

x

1

−∞

Z

+

−∞

Z

+

−∞

f (u

1

, u

2

, u

3

)du

1

du

2

du

3

F

X

1

,X

2

(x

1

, x

2

) =

Z

x

1

−∞

Z

x

2

−∞

Z

+

−∞

f (u

1

, u

2

, u

3

)

du

1

du

2

du

3

|

{z

}

(3)

=d(λ

(1)

×λ

(2)

)

F

X

1

(x

1

) =

Z

(−∞,x

1

)×(R×R)

f (u

1

, u

2

, u

3

)d λ

(1)

(u

1

) × λ

(2)

(u

2

, u

3

)

 =

=

Z

(−∞,x

1

)

 Z

(R×R)

f u

1

, (u

2

, u

3

)



(2)

(u

2

, u

3

)



(1)

(u

1

) =

=

Z

(−∞,x

1

)

 Z Z

R

2

f (u

1

, u

2

, u

3

)du

2

du

3



|

{z

}

g(u

1

)

du

1

Twierdzenie 9 (o rozszerzaniu miary)

P

X

1

(A) =

Z

A

ge(u

1

)du

1

(≡ ge to gęstość miary probab. P

X

1

)

Zadanie 4 Znaleźć gęstość rozkładu zmiennej losowej X

1

oraz X

1

, X

2

8

background image

Gęstością P

X

1

jest:

Z

Z

R

2

f (u

1

, u

2

, u

3

)du

2

du

3

, dla u

1

R, λ

(1)

− prawie wszędzie

Gęstością P

X

1

,X

2

jest;

Z

R

f (u

1

, u

2

, u

3

)du

3

, (u

1

, u

2

) R

2

, prawie wszędzie

Definicja 4 (Funkcji charakterystycznej) Q - miara probab.

ϕ

Q

(t) =

Z

R

d

e

itx

dQ(x), t R

d

gdzie dla:
t = (t

1

, . . . , t

d

), x = (x

1

, . . . , x

d

)

T

t x

T

:= t

1

x

1

+ . . . + t

d

x

d

=

P

d
i
=1

t

i

x

i

Zadanie 5 Pokazać, że jeżeli Q(Z

d

) = 1, to

ϕ(t) = 1 dla t 2πZ

d

= {2πk : k Z

d

}

lub mocniej:
ϕ
(t + k2π) = ϕ(t) dla k Z

d

Q(Z

d

) = 1

RHS = ϕ

Q

(t) =

X

lZ

d

e

itl

T

Q(l)

L = ϕ

Q

(t+k2π) =

X

lZ

d

e

i(t+k2π)l

T

Q(l) =

X

lZ

d

e

itl

T

e

i2πkl

T

Q(l) =

X

lZ

d

e

itl

T

Q(l) = RHS

Niech t R

d

, c - macierz symetryczna, nieujemnie określona

ϕ(t) = e

itm

T

e

1
2

tct

T

Twierdzenie 10 Funkcja ϕ jest f. ch. pewnego (a więc dokładnie jednego) roz-
kładu na
R

d

Definicja 5 Rozkład ten nazywamy rozkładem gaussowskim z parametrami m, c

Twierdzenie 11 Można pokazać, że momenty

m

(0,...,i,...,0)

(Q) =

Z

R

d

x

i

dQ(x

1

, . . . , x

d

) = m

i

i = 1, . . . , d

Dlatego m nazywamy wektorem wartości średnich dla N (m, c)

9

background image

Twierdzenie 12

µ

(0,...,0,

i

1,...,

j

1,...,0)

=

Z

R

d

(x

i

− m

i

)(x

j

− m

j

)dQ(x

1

, . . . , x

d

) = c

ij

dla i 6= j

µ

(0,...,0,

i

1,0,...,0)

=

Z

R

d

(x

i

− m

i

)

2

dQ(x

1

, . . . , x

d

) = c

ii

Dlatego c nazywamy macierzą kowariancji rozkładu N (m, c)

Zadanie 6 Znaleść f. ch. N (m

1

, m

2

, v

1

, v

2

, ρ) = e

Q, ρ ∈ (1, 1)

m

(1,0)

( e

Q) = m

1

R

m

(0,1)

( e

Q) = m

2

R

µ

(2,0)

(0, 1)( e

Q) = v

1

> 0

µ

(0,2)

(0, 1)( e

Q) = v

2

> 0

µ

(1,1)

= ρ

v

1

, v

2

Jeśli e

Q jest szczególnym przypadkiem Q, to:

m = (m

1

, m

2

)

c =



v

1

ρ

v

1

v

2

ρ

v

1

v

2

v

2



A więc spodziewamy się, że:

Z

R

d

e

i(t

1

x

1

+t

2

x

2

)

1

2π

pv

1

v

2

(1 − ρ

2

)

exp



1

2(1 − ρ

2

)

 (x

1

− m

1

)

2

v

1

2ρ

(x

1

− m

1

)(x

2

− m

2

)

v

1

v

2

+

+

(x

2

− m

2

)

2

v

2



dx

1

dx

2

?

= e

i(t

1

m

1

+t

2

m

2

)

e

1
2

(t

2
1

v

1

+2t

1

t

2

ρ

v

1

v

2

+t

2
2

v

2

)

Zadanie 7 Znaleźć gęstość f

N (m,c)

(x)

Odp.:

1

2π



d

det c

exp



1

2

(x m) c

1

(x m)

T





, gdy det c 6= 0 (a więc > 0)

Definicja 6 (Funkcji losowej) (Ω, F , P r) - przestrzeń probab.
X

i

: (Ω, F ) −→ (X

i

, B

i

), i ∈ T

Taką rodzinę nazywamy funkcją losową o wartościach w X

i

dla i ∈ T

Zadanie 8 Znajdowanie rozkładu podukładu.

Zadanie 9 Zmienne losowe X

1

, X

2

, X

3

∼ N (m

1

, m

2

, m

3

,

c

11

c

12

c

13

c

21

c

22

c

23

c

31

c

32

c

33

)

Jaki jest rozkład zmiennej losowej X

2

, X

3

?

10

background image

5

Przykłady procesów

5.1

Najprostsze przykłady/funkcji losowych

Nazwa proces jest synonimem funkcji losowej z tym, że proces ”chętniej stosu-
jemy, gdy dziedzinę procesu T możemy interpretować jako czas.
Gdy T jest dziedziną wielowymiarową, którą interpretujemy jako przestrzeń po-
łożeń, to wtedy funkcję losową z dziedziną T nazywamy polem losowym.
Funkcję losową nazywamy miarą losową, jeśli T algebrą podzbiorów pewnego
ustalonego zbioru, a sama funkcja losowa spełnia warunek addytywności:

X

A

+ X

B

= X

A∪B

dla A, B ⊂ T A ∩ B =

Przykłady

1. Ciągi zmiennych losowych

X

1

, X

2

, . . .

T = N

. . . , X

1

, X

0

, X

1

, X

2

, . . .

T = Z

2. B ⊂ T, B - skończone lub Z \ B - skończone, X

i

- zm. los. takie, że

X

i∈Z

|X

i

| < ∞, z pr. 1

wtedy

M

B

:=

X

i∈B

X

i

, dla wszystkich B

jest σ-addytywną funkcją zbioru

3. X - n.j.r. o rozkładzie Q (szum dystkretny o rozkładzie Q)

W szczególnym przypadku, gdy Q = N (0, v), wtedy mamy szum dyskretny
Gaussowski

4. Każdy skończony podukład X (też jest przykładem funkcji losowej z cza-

sem dyskretnym)

5.2

Procesy punktowe na prostej

Są to procesy, które mozna uznać jako szczególny przypadek 1) (dla T = Z)
T = (0 = τ

0

¬ τ

1

¬ τ

2

¬ . . .) z pr. 1

Niekiedy zmienne τ buduje się przy pomocy n.j.r X = (X

1

, X

2

, . . .) zgodnie z

równościami:
τ

1

= X

1

, τ

2

= X

1

+ X

2

, . . . , τ

n

=

P

n
i
=1

X

i

z pr. 1

przy zał. X

1

, X

2

, . . . są nieujemne z pr. 1

Wtedy X - proces (ciąg) odstępów procesu chwil odnów T.
T - prosty strumień odnów o rozkł. odstępów P

X

1

= Q

Chwile τ interpretuje się jako punkty na prostej. Z tego można skonstruować

11

background image

miarę losową [czyt. w zbiorach, które są skończonymi sumami przedziałów za-
wartych w ustalonym przedziale]

N

[0,a)[b,c)

= ]

n

i ­ 1 : τ

i

[0, a) [b, c)

o

N

t

:= N

[0,t)

, t ­ 0, − proces liczący z czasem ciągłym

ω 7−→ τ

1

(ω), τ

2

(ω), . . .

 7−→ N

t

(ω)

Funkcją odnowy jest H

t

:= E{N

t

}

0

, o ile istnieje.

5.3

Procesy gaussowskie [z dziedziną R

+

lub R

]

T - dowolny zbiór indeksów - przestrzeń parametrów procesu
X

t

: (Ω, F ) −→ (R, B), t ∈ T - proces rzeczywisty z dzidziną T

P r - miara probab. na (Ω, F )
X := (X

t

, t ∈ T ), m : T −→ R, c : T × T −→ R

()

c

t

i

,t

j

: {t

1

× . . . × t

d

} × {t

1

× . . . × t

d

}

 ­ 0 dla każdego zb.{t

1

, . . . , t

d

} ⊂ T

c

t,s

= c

s,t

, t, s ∈ T

Mówimy, że X jest procesem gaussowskim, o ile dla każdego {t

1

, . . . , t

d

} ⊂ T

podukład (X

t

1

, . . . , X

t

d

) ma rozkład:

N m

t

1

, . . . , m

t

d

; [c

t

i

,t

j

: i, j ∈ {1, 2, . . . , d}]



Założenia o m i c gwarantują, że takie procesy istnieją.
m - funkcja wartości średnich
c - funkcja kowariancji

c

t,s

= cov(X

t

, X

s

) = E

(X

t

− EX

t

)(X

s

− EX

s

)

 = . . . = c

s,t

Istnienie gwarantuje tzw. twierdzenie Kołmogorowa oraz własności rozkładu
gaussowskiego.

5.4

Ruch Browna [Przykład procesu gaussowskiego]

1. (X

t

, t ­ 0); T = R

+

= [0, ∞)

2. X

0

= 0 z pr. 1

3. X jest proc. gaussowskim o m = (m

t

= 0, t ­ 0); c

t,s

= min{t, s}, t, s ­ 0

Dla sprawdzenia warunków dostatecznych istnienia takiego procesu wystarczy
sprawdzić (*).
Tak jest, bo:

c

t,s

=

Z

0

X

[0,t)

X

[0,s)

(1)

Z

0

X

[0,t)

(x)X

[0,s)

(x)dx = hX

[0,t)

; X

[0,s)

i

12

background image

Zaś dla f

1

, . . . , f

d

∈ L

2

(R

+

) :

h

d

ij

=

R

0

f

i

f

j

, i, j = 1, 2, . . . , d

i

jest nieujemnie

określona.
Rzeczywiście:

a

1

,...,a

d

R

n

X

i,j=1

a

i

d

ij

a

j

=

Z

R

+

n

X

i,j=1

a

i

f

i

f

j

a

j

=

Z

R

+



n

X

i=1

a

i

f

i



n

X

j=1

a

j

f

j



=

=

Z

R

+



n

X

i=1

a

i

f

i



2

­ 0

Zadanie 10 Proces gaussowski X jest procesem ruchu Browna, jeśli:

1. X

0

= 0 z pr. 1;

EX

t

= 0

2. ∀

0

< t

1

< . . . < t

n



X

t

1

− X

0

, X

t

2

− X

t

1

, . . . , X

t

n

− X

t

n−1

są niezależne

V ar(X

t

− X

s

) = |t − s|, t, s ­ 0

6

Prawdopodobieństwa i wartości oczekiwane wa-
runkowe

A, B, P r(B) ­ 0

P r(A|B) =

P r(A ∩ B)

P r(B)

Uzasadnienie nazwy:
x

1

, . . . , x

N

A - wpadnięcie wyniku do zbioru Z

1

B - wpadnięcie wyniku do zbioru Z

2

e

P

N

(A) =

]{i : x

i

∈ Z

1

}

N

e

P

N

(B) =

]{i : x

i

∈ Z

2

}

N

e

P

N

(A|B) =

]{i : x

i

∈ Z

1

∩ Z

2

}

]{i : x

i

∈ Z

2

}

=

]{i : x

i

∈ Z

1

∩ Z

2

}

N

/

]{i : x

i

∈ Z

2

}

N

=

e

P

N

(A ∩ B)

e

P

N

(B)

4

Przypomnienie:

P r(A ∩ B) = P r(A)P r(B) - niezależne, bo wtedy:
P r(A|B) = P r(A), o ile P r(B) > 0

Definicja 7 A

1

, A

2

, . . . , A

n

są niezależne wtedy i tylko wtedy, gdy

P (A

i

1

∩ . . . ∩ A

i

k

) =

k

Y

j=1

P r(A

i

j

) dla {i

1

, . . . , i

k

} ⊂ {1, 2, . . . , n}

13

background image

6.1

Warunkowy rozkład pr. przy warunku B

P r(A|B), A ∈ F

 = P r

B

(A) ∈ F

 ≡ P r( . |B)

6.2

Dystrybuanta warunkowa zm. los. X przy warunku B

F

X|B

(x) = P r{X < x|B}, gdy P r(B) > 0

Np. X, Y - zm. los.; Y ∈ {y

1

, . . . , y

l

} z pr. 1

F

X|Y =y

j

(x) = P r{X < x|Y = y

j

}, gdy P {Y |y

j

} > 0

W przypadku P r

y

j

: P r{Y = y

j

} > 0

= 1

P r A|Y

(ω) =



P r(A|Y = y

j

)

gdy Y (ω) = y

j

, P {Y = y

j

} > 0

0

w przeciwnym wypadku

Tak określone pr. warunkowe jest zmienną losową Y -mierzalną

ω 7−→ Y (ω) 7−→ P r A|Y

(ω)

X - zm. losowa, EX ∈ R [EX

+

< ∞ ∧ EX

< ∞

G ⊂ F



np. G =

Y

1

(B), B ∈ B

(1)



G 3 C

ϕ

7−→

Z

C

XdP r ≡ E{χ

C

X}

σ − addytywne sk. na G

ϕ(C) = 0, gdy P r(C) = 0
Z tw. Radona-Nikodyma: Istnieje taka G-mierzalna ψ

X

, że

Z

C

XdP r ≡ ϕ(C) =

Z

C

ψ

X

(ω)dP r(ω), gdzie ψ

X

: (Ω, G) −→ (R, B)

ψ

X

- nazywamy wartością oczekiwaną zm. los. X względem σ-ciała G

ψ

X

=: E{X|G}

Przykład

Ω = [0, 1] z miarą Legesque’a na σ-ciele B

(1)

[0, 1]



X : [0, 1], F

 −→ (R, B) - dowolna funkcja borelowska

Zmienna losowa w tym przypadku jest dowolną funkcją borelowską.

h

X jest taka ⇔ X

1

(−∞, a) ∈ F

i

np.

1.

X(x) =



1

x

dla x ∈ (0, 1]

0

dla x = 0

2. G np. σ

(0,

k
n

], k = 1, 2, . . . , n

(2

n

)

=

∅, [0,

1

n

], (

1

n

,

2

n

], . . . , (

k−1

n

,

k
n

], . . . , [0,

1

n

] (

n−1

n

, 1], . . .

14

background image

Z

C

XdP r =

Z

C

ψ

X

(ω)dP r(ω)

0

Dla C = - automatycznie

1

Dla C = (

i−1

n

,

i

n

], gdzie i = 1, 2, . . . , n

Z

(

i−1

n

,

i

n

]

1

x

dx =

Z

i

n

i−1

n

ψ

X

(x)dx = 2

x|

i

n
i−
1

n

= ψ

(i)

X

1

n

, gdzie ψ

(i)

X

= ψ

X

(ω) dla ω ∈ (

i − 1

n

,

i

n

]

Wniosek 3 Jeżeli X ma wartość oczekiwaną skończoną, a G jest skończenie
generowane przez atomy, tzn. EX < ∞, G
= σ(A

1

, . . . , A

n

), A

i

∩ A

j

= ∅,

S

i

A

i

= Ω, to

E{X|G} =

n

X

i=1

 Z

A

i

XdP r

P r(A

i

)



X

A

i

E{X|G} niesie informacje o zmiennej losowej X z dokładnością do G.

Wniosek 4 T = {∅, } - σ-ciało trywialne, to E{X|T } = EX na .

Jeśli A ∈ F , G ⊂ F , to prawdopodobieństwo warunkowe A względem σ-ciała

G wynosi z def:

P (A|G) := E{X

A

|G}

Zadanie 11 (Ω, F , P r) jak w Przykładzie. Dla dowolnego n ∈ N, X(x) = x
znaleźć wartość oczekiwaną warunkową względem danego σ-ciała.

Zadanie 12 Dana jest gęstość pary (X, Y ):

f

X,Y

(x, y) =



x + y

x ∈ (0, 1), y ∈ (0, 1)

0

poza tym

a)

E(X|Y = y) =

Z

R

xf

X|Y

(x|y)dx =

Z

R

x

f

X,Y

(x, y)

R

R

f

X,Y

(x, y)dx

dx =

Z

1

0

(x + y)dx =

1

2

x

2

+ xy|

x=1
x=0

=

1

2

+ y

y ∈ (0, 1)

!

=

Z

1

0

x

x + y

y +

1
2

dx =

1

y +

1
2

Z

1

0

(x

2

+xy)dx =

1

y +

1
2



1

3

x

3

+

1

2

x

2

y



x=1

x=0

=

1

y +

1
2



1

3

+

1

2

y



=

=

1
3

+

1
2

y

1
2

+ y

=

2 + 3y

3 + 6y

b)

E



X exp

n

Y +

1

Y

o

|Y = y



y ∈ (0, 1)

E

n

e

Y +

1

Y

X|Y = y

o

= e

y+

1
y

E{X|Y = y} = e

y+

1
y

2 + 3y

3 + 6y

15

background image

Zadanie 13 X + Z

1

, Y = Z

1

+ Z

2

, E(X|Y ) = ?

Y = E(Y |Y ) = E(Z

1

+ Z

2

|Y ) = E(Z

1

|Y ) + E(Z

2

|Y )

Jeżeli Z

1

i Z

2

są symetryczne, to

E(Z

1

|Y ) = E(Z

2

|Y )

E(X|Y ) = E(Z

1

|Y ) =

Y

2

Zadanie 14 N

1

, N

2

są niezależne o rozkładzie Poissona z parametrem λ

1

=

20, λ

2

= 30. Obliczyć var(N

1

|N

1

+ N

2

= 50).

P r(A|B) =

P r(A ∩ B)

P r(B)

P r{N

1

= n|N

1

+N

2

= 50} =

P r{N

1

= n ∧ N

1

+ N

2

= 50}

P r{N

1

+ N

2

= 50}

=

P r{N

1

= n, N

2

= 50 − n}

P r{N

1

+ N

2

= 50}

=

=

P r{N

1

= n}{N

2

= 50 − n}

P r{N

1

+ N

2

= 50}

=

50

n





λ

1

λ

1

+ λ

2



n



λ

2

λ

1

+ λ

2



∼ B



50,

λ

1

λ

1

+ λ

2



To ma związek z rozrzedzaniem procesów.

var(N

1

|N

1

+ N

2

= 50) = 50

2

5

3

5

= 12

Zadanie 15 Pokazać, że z warunków:
0)
(X

t

, t ­ 0) - gaussowski

1) X

0

= 0

2) EX

t

= 0

3) X

t

1

− X

t

0

, X

t

2

− X

t

1

, . . . , X

t

n

− X

t

n−1

są niezależne

3’) var(X

t

, X

s

) = |t − s|,

t, s ­ 0

wynika, że:
Cov
(X

t

− X

s

) = min {t, s}

1

t = s

L = Cov(X

t

, X

t

) = var(X

t

) = var(X

t

− X

0

) = |t − 0| = t = min {t, s}

2

t > s

L = Cov X

s

+ (X

t

− X

s

), X

s

 = Cov(X

s

, X

s

) + Cov(X

t

− X

s

, X

s

) =

= var(X

s

) + Cov(X

t

− X

s

, X

s

)

|

{z

}

0

= var(X

s

) = s = min {t, s}

3

t < s

analogicznie (bo obie strony równości są symetryczne ze względu na zamianę
zmiennych)

16

background image

Definicja 8 (prawdopodobieństwa warunkowego)

P r(A|G) = E(X

A

|G) = ϕ

ϕ : (Ω, G) −→ (R, B)

Z

C

ϕ dP r = P r(C ∩ A) C ∈ G

6.3

Własności wartości oczekiwanej warunkowej

1.

W {X|G} ¬ E{Y |G}, o ile X ¬ Y

2.

E{X + Y |G} = E{X|G} + E{Y |G}

3.

E{ϕ|G} = ϕ gdy ϕ jest G − mierzalna

4.

E{ϕX|G} = ϕE{X|G}, gdy ϕ jest G − mierzalna

5.

E

E{X|G

1

}|G

= E{X|G}, G

1

⊃ G

Wniosek 5

E

E{X|G}|G = E{X|G}

Uwaga

Wszystkie powyższe związki obowiązują P r pr. wszędzie, względem σ-ciała G.

Dowód: (wł. 2)

Niech

ϕ

1

= E{X|G}, tzn.

Z

C

ϕ

1

dP r =

Z

C

XdP r, ϕ

1

(G)

ϕ

2

= E{Y |G}, tzn.

Z

C

ϕ

2

dP r =

Z

C

Y dP r, ϕ

2

(G)

wtedy: ϕ

1

+ ϕ

2

(G)

Z

C

(ϕ

1

+ϕ

2

)dP r =

Z

C

ϕ

1

dP r+

Z

C

ϕ

2

dP r =

Z

C

XdP r+

Z

C

Y dP r =

Z

C

X+Y dP r

zatem:

Z

C

(ϕ

1

+ ϕ

2

)dP r =

Z

C

X + Y dP r dla C ∈ G

ϕ

1

+ ϕ

2

= E{X + Y |G}

17

background image

4

Dowód: (wł. 3)

E{X|G} = X, gdy X ∈ (G)
1. X - jest G-mierzalny z założenia
2.

Z

C

XdP r =

Z

C

XdP r

więc: (X spełnia warunki wartości oczekiwanej)

X = E{X|G}

4

Dowód: (wł 5)

ϕ

1

= E{X|G

1

},

ϕ = E{X|G}

Czy E(ϕ

1

|G) = ϕ ?

- Czy ϕ G-mierzalne ?
- Czy

R

C

ϕdP r =

R

C

ϕ

1

dP r (dla c ∈ G) ?

ϕ - G-miarzalna

L =

Z

C

ϕdP r =

Z

C

XdP r

RHS =

Z

C

ϕ

1

dP r =

Z

C

XdP r, bo C ∈ G ⊂ G

1

L = RHS

4

Względem σ-ciał generowanych przez zm. losowe mamy:

Fakty wstępne:

E{X|Y } := E{X|σ

Y

}, gdzie σ

Y

= {Y

1

(B), B ∈ B}

Z = ϕ ◦ X [≡ ϕ(X)]

σ

Z

⊂ σ

Y

Rzeczywiście:
Z

1

(B) = (ϕ ◦ Y )

1

(B) = Y

1

ϕ

1

(B)

 ∈ σ

Y

, bo ϕ

1

(B) ∈ B, bo ϕ - borel.

Przykład: (że nie ma = tylko jest )

Z = 1 (≡ ϕ = 1)
σ

Z

= {Z

1

(B), B ∈ B} = {, ∅}

Wniosek 6

E{ϕ(Y )|Y } = ϕ(Y )

18

background image

Jest to szczególny przypadek własności 6):

X jest G

1

-mierzalny, G

1

⊂ G to

E{X|G} = X

Rzeczywiście, wystarczy wauważyć, że X jest również G-mierzalne, bo X

1

(B)

G

1

⊂ G i skorzystać z własności 3).

Definicja 9 (Rozkład warunkowy X względem σ-ciała G)

P

X|G

(B) = P r{X ∈ B|G}, B ∈ B

(1)

Definicja 10 (Rozkład warunkowy Pr

|G

1

względem σ-ciała G)

P

G

1

|G

(A) = P r{A|G}, A ∈ G

1

o ile uzyskane funkcje są σ-addytywne względem B z pr. 1

Przykłady: (rozkładów warunkowych)

Niech X

1

, . . . , X

n

N

0

z pr. 1

p

(0)

, p

(1|0)

, . . . , p

(n|n−1)

p

(i|i−1)

= p

(i|i−1)
j,k

, (j, k) N

2

0



p

(0)

­ 0

P

i

p

(0)
i

= 1, ∀

k

P

j

p

(i|i−1)
j,k

= 1, p

(i|i−1)
j,k

­ 0

Budujemy ciąg markowski o wartościach przeliczalnych

P r{X

0

= j

0

, X

1

= j

1

, . . . , X

n

= j

n

} = p

(n|n−1)
j

n

,j

n−1

p

(n−1|n−2)
j

n−i

,j

n−2

. . . p

(2|1)
j

2

,j

1

p

(1|0)
j

1

,j

0

p

(0)
j

0

dla (j

0

, . . . , j

n

) N

n+1
0

Fakt

Jeśli X , B, Q, Q - miara probab. na B, to

(Ω,F ,P r)

X : (Ω, F ) −→ (X , B), taka, że P

X

= Q

Dowód:

Ω = X , F = B, P r = Q, X = id

4

7

Łańcuch markowski (Markowa) o wartościach
przeliczalnych:

P r{X

n

= j

n

|X

0

= j

0

, . . . , X

n−1

= j

n−1

} = p

(n|n−1)
j

n

,j

n−1

o ile warunek ma prawdopodobieństwo dodatnie

Własności:

19

background image

1. (X

0

, . . . , X

k

) jest także łańcuchem Markowa dla 0 ¬ k ¬ n

2. (X

t

0

, X

t

1

, . . . , X

t

l

) też jest łańcuchem Markowa, gdy 0 ¬ t

0

¬ t

1

¬ . . . ¬

t

l

¬ n

3. P {X

k

= j

k

|X

m

= j

m

} = p

(k|k−1)

◦ . . . ◦ p

(m+1|m)

|

{z

}

(k−m czynników)



j

k

j

m

Twierdzenie 13 Jesli (X

0

, . . . , X

n

) - łańcuch Markowa zdefiniowany jek wy-

żej, to:

P r{X

t

l

|X

0

, . . . , X

t

l−1

} = p

(t

l

|t

0

)

k|X

tl−1

z pr. 1

o ile 0 ¬ t

0

¬ . . . ¬ t

l

¬ n dla k = 0, 1, . . .

Twierdzenie 14

ϕ − borel.

E{X|Y } = ϕ(Y ) z pr. 1

Dowód: (jednego przypadku)
Y - zm. losowa prosta

P r{Y = y

j

} = q

j

­ 0,

m

X

j=0

q

j

= 1, y

j

6= y

k

dla j 6= k

E{X|Y }(ω) =



1

q

j

R

Y =q

j

XdP r

gdy Y (ω) = y

j

, q

j

> 0

() (np. 0)

gdy Y (ω) = y

j

, q

j

= 0

= ϕ Y (ω)

,

gdzie

ϕ(y

j

) =



1

q

j

R

Y =y

j

XdP r

gdy q

j

> 0

()

w przeciwnym przypadku

4

Dlatego stosuje się oznaczenie:

E{X|Y = y} := ϕ(y)

nawet jeśli P {Y = y} = 0, gdzie ϕ - funkcja z powyższego twierdzenia

Zadanie 16 Pokazać, że (X

0

, . . . , X

k

) jest również ciągiem markowskim. wsk.

znaleźć rozkład pr. podukładu

(X

0

, . . . , X

n

) N

n+1
0

(X

0

, . . . , X

k

) N

k+1
0

P r(X

0

= j

0

, . . . , X

k

= j

k

) = P r(X

0

= j

0

, . . . , X

k

= j

k

, X

k+1

N

0

, . . . , X

n

N

0

) =

=

X

j

k+1

X

j

k+2

. . .

X

j

n

P r{X

0

= j

0

, . . . , X

k

= j

k

, X

k+1

= j

k+1

, . . . , X

n

= j

n

} =

20

background image

X

j

k+1

. . .

X

j

n

p

(n|n−1)
j

n

,j

n−1

|

{z

}

0

. . . p

(0)
j

0

= p

(k|k−1)
j

k

,j

k−1

. . . p

(0)
j

0

Zadanie 17 Pokazać ,że P r{X

n

= j

n

|X

n−1

= j

n−1

, . . . , X

0

= j

0

} = p

(n|n−1)
j

n

,j

n−1

P r(A|B) =

P r(A ∩ B)

P r(B)

P r{X

n

= j

n

|X

0

= j

0

, . . . , X

n−1

= j

n−1

} =

P r{X

n

= j

n

, . . . , X

n−1

= j

n−1

}

P r{X

0

= j

0

, . . . , X

n−1

= j

n−1

}

=

=

p

(n|n−1)
j

n

,j

n−1

p

(n−1|n−2)
j

n−1

,j

n−2

. . . p

(0)
j

0

p

(n−1|n−2)
j

n−1

,j

n−1

. . . p

(0)
j

0

= p

(n|n−1)
j

n

,j

n−1

Zadanie 18 Zał. (X

0

, . . . , X

n

) - ciąg markowski, 0 ¬ t

0

< t

1

< . . . < t

l

¬ n.

Czy (X

t

0

, . . . , X

t

l

) - markowski ?

P r{X

t

l

= k

l

, . . . , X

t

0

= k

0

} = P r

X

t

l

= k

l

, . . . , X

t

0

= k

0

, X

j

N

0

, dla j /

∈ {t

0

, . . . , t

l

}

=

=

t

l

<n

P r{X

n

N

0

, X

n−1

N

0

, . . . , X

t

l

+1

N

0

, X

t

l

= k

l

, :::} =

=

X

j

n

X

j

n−1

. . .

X

j

tl+1

. . . p

(n|n−1)
j

n

,j

n−1

p

(n−1|n−2)
j

n−1

,j

n−2

. . . p

(t

l

+1|t

l

)

j

tl+1

,k

l

p

(t

l

|t

l

1)

k

l

,j

tl−1

::: =

=

X

j

tl−1

. . .

X

j

tl−1+1

. . . p

(t

l

|t

l

1)

k

l

,j

tl−1

p

(t

l

1,t

l

2)

j

tl−1

,j

tl−2

. . . p

(tl−1+1|t

l−1

)

j

tl−1+1

,k

l−1

::: =

= p

(t

l

|t

l

1)

◦ . . . ◦ p

(t

l−1

+1|t

l−1

)



k

l

,k

l−1

::: = p

(t

l

|t

l

1)

◦ . . . ◦ p

(t

l−1

+1|t

l−1

)



k

l

,k

l−1

|

{z

}

p

(tl|tl−1)
kl,kl−1

p

(t

l−1

|t

l−2

)

k

l−1

,k

l−2

. . . p

(t

1

|t

0

)

k

1

,k

0

X

j

t0

1

. . .

X

j

0

p

(t

0

|t

0

1)

k

0

,j

t0

1

. . . p

(2|1)
j

2

,j

1

p

(1|0)
j

1

,j

0

p

(0)
j

0

|

{z

}

()

————————

p

(t|s)
k,l

=

X

j

t−1

...j

s+1

p

(t|t−1)
k,j

t−1

. . . p

(s+2|s+1)
j

s+2

,j

s+1

p

(s+1|s)
j

s+1

,l

= p

(t|t−1)

◦p

(t−1|t−2)

◦. . .◦p

(s+2|s+1)

p

(s+1|s)



kl

czyli

p

(t|s)

= p

(t|t−1)

◦ . . . ◦ p

(s+1|s)

p

(s)

= p

(s|0)

p

(0)

————————

() = p

(t

0

)

k

0

21

background image

Zatem (X

t

0

, . . . , X

t

l

) też jest ciągiem markowa o macierzach:

p

(t

l

|t

l−1

)

, . . . , p

(t

1

|t

0

)

, p

(t

0

)

a więc

P r{X

t

l

= k

l

, . . . , X

t

0

= k

0

} = p

(t

l

|t

l−1

)

k

l

,k

l−1

. . . p

(t

1

|t

0

)

k

1

,k

0

p

(t

0

)

k

0

Twierdzenie 15

P r{A|B}(ω) = P r(A|E

i

) z pr. 1, ω ∈ E

i

gdy B = σ(E

1

, E

2

, . . .), E

1

∪ E

2

∪ . . . = Ω, E

i

∩ E

j

= ∅ dla i 6= j

|

{z

}

E

1

,E

2

,... tworzą przeliczalne rozbicie

tzn. każdy podzbiór E

i

jest już zbiorem pustym.

Prawdopodobieństwo przejścia miedzy chwilą n a n − 1 ze stanu X

n−1

do

stanu j

n

ma postać:

P {X

n

6= j

n

|X

1

, . . . , X

n−1

} = p

(n|n−1)
j

n

,X

n−1

Wniosek 7

P r{X

t

l

= k

l

|X

0

, X

1

, . . . , X

t

l−1

} = p

(t

l

|t

l−1

)

k

l

,X

tl−1

p

(t

l

|t

l−1

)

= p

(t

l

|t

l

1)

. . . p

(t

l−1

+1|t

l−1

)

p

(s)

= p

(s|s−1)

. . . p

(1|0)

p

(0)

Własność

p

(t|s)

= p

(t|u)

p

(u|s)

, o ile s ¬ u ¬ t

p

(t|t)

= 1

Jeśli S-zb. przeliczalny, t ∈ T = [0, ∞), p

(0)

− m. p. na S, p

(t|s)

, t ­

s, takie, że :

1. p

(t|s)

- stochastyczna, tzn

P

j

p

(t|s)
j,i

= 1

2. równanie Chapmana-Kołmogorowa-Einsteina-Smoluchowskiego

0¬s¬u¬t

p

(t|s)

= p

(t|u)

p

(u|s)

wówczas (X

t

, t ∈ T ) - proces markowski z tymiż parametrami, jeśli

l∈N

0

0=t

0

<...<t

l

P {X

t

0

= k

0

, X

t

1

= k

1

, . . . , X

t

l

= k

l

} = p

(t

l

|t

l−1

)

k

l

,k

l−1

. . . p

(t

0

)

k

0

gdzie p

(t

0

)

= p

(t

0

|0)

p

(0)

22

background image

Szeroką klasą takich macierzy ”kwadratowych” o wyrazach p

(t|s)
j,i

spełniają-

cych 1 i 2 są macierze postaci p

(t−s)
j,i

, gdzie p

(u)
j,i

są rozwiązaniami następującego

układu równań różniczkowych I-rzędu:

(1)



d

du

p

(u)

= Λ p

(u)

Λ = λ

j,i

, gdzie λ

j,i

­ 0 j 6= i,

P

j

λ

j,i

= 0, i, j ∈ S

(2) p

(0)

= 1

tzn.

p

(u)

= e

Λu

=

X

m=0

Λ

m

u

m

1

m!

Przykład dla S = {0, 1}

Λ =



−µ

λ

µ

−λ



λ, µ > 0



p

0

00

p

0

01

p

0

10

p

0

11



=



−µ

λ

µ

−λ

 

p

00

p

01

p

10

p

11



,

0

=

d

du



p

0

00

p

0

10



=



−µ

λ

µ

−λ

 

p

00

p

10



p

0

00

= −µp

00

+ λp

10

p

0

10

= µp

00

− λp

10

p

00

00

= −µp

0

00

+ λp

0

10

= −µp

0

00

+ λ(µp

00

− λp

10

) = −µp

0

00

+ λµp

00

− λ

2

p

10

=

= −µp

0

00

+ λµp

00

− λ(µp

00

+ p

0

00

) = −µp

0

00

+ λµp

00

− λµp

00

− λp

0

00

=

= (−µ − λ)p

0

00

p

00

00

+ (µ + λ)p

0

00

= 0

p

0

00

= ce

(µ+λ)u

p

00

= c

1

e

(µ+λ)u

+ c

2

p

00

00

= c

1

(−µ − λ)e

(µ+λ)u

= −µ(c

1

e

(µ+λ)u

+ c

2

) + λp

10

c

1

e

−u(µ+λ)

(−µ − λ + µ) + µc

2

= λp

10

p

10

= −c

1

e

(µ+λ)u

+

µ
λ

c

2

warunki początkowe: p

00

= 0, p

01

= 1 dla u = 0

zatem:



c

1

+ c

2

= 1

−c

1

+

µ
λ

c

2

= 0

c

1

=

µ

λ + µ

c

2

=

λ

λ + µ

23

background image

p

00

=

µ

λ+µ

e

(µ+λ)u

+

λ

λ+µ

p

10

=

µ

λ+µ

e

(µ+λ)u

+

µ
λ

λ

λ+µ

=

µ

λ+µ

(1 − e

(λ+µ)u

)

"

µ

λ+µ

e

(µ+λ)u

+

λ

λ+µ

λ

λ+µ

(1 − e

(λ+µ)u

)

µ

λ+µ

(1 − e

(λ+µ)u

)

λ

λ+µ

e

(µ+λ)u

+

µ

λ+µ

#

= p

(u)

Jest to macierz stochastyczna, bo wyrazy są dodatnie i kolumny sumują sie do
jedynki. Ponadto na mocy równości:

p

(u)

p

(v)

= p

(u+v)

możemy powiedzieć, że (p

(u)

)

0

, to półgrupa jednoparametrowa macierzy sto-

chastycznych ze względu na złożenie

Zatem rzeczywiście, gdy p

(t|s)

= p

(t−s)

mamy:

p

(t|u)

p

(u|s)

= p

(t|s)

L = p

(t−u)

p

(u−s)

= p

(t−u+u−s)

= p

(t−s)

= RHS

Zadanie 19

Gdy Λ :

wartości poza przekątną ­ 0
P

j

λ

j

= 0 w kolumnach



⇒ e

Λu

, u ∈ [0, ∞) − półgr. mac. stoch.

Uzupełnienie:

e

Λu

e

Λv

=

X

n=0

u)

n

n!

X

m=0

v)

m

m!

=

X

k=0

k

X

n=0

u)

k

n!

v)

k−n

(k − n)!

=

=

X

k=0

1

k!



k

X

n=0

k

n



u

n

v

k−n

|

{z

}

(u+v)

k



Λ

k

= e

Λ(u+v)

, o ile kΛk < ∞

Fakt

(e

Λu

)

0
u

= Λe

Λu

, u ­ 0 (o ile kΛk < ∞)

Dowód:

L

ji

=



X

n=0

Λ

n

u

n

n!



0

=

X

n=1

Λ

n−1

u

n−1

(n − 1)!

Λ = Λ ◦ e

Λu

4

24

background image

Wniosek 8 e

Λu

jest jedynym rozwiązaniem równania różniczkowego:



M

(u)



0

= ΛM

(u)

M

(0)

= 1

8

Proces Poissona

Niech p

(t|s)

= p

(u)

= e

Λu

macierz prawdop. przejść procesu Markowa z czasem

ciągłym
Λ - macierz intensywności prawdop. przejść

Definicja 11 Proces Poissona to proces Markowa o wartościach N

0

, t ∈ [0, ∞)

dla którego macierz intensywności prawdop. przejść jest postaci:








−λ

0

0

0

0

. . .

λ

−λ

0

0

0

. . .

0

λ

−λ

0

0

. . .

0

0

λ

−λ

0

. . .

0

0

0

λ

−λ

. . .

..

.

..

.

..

.

..

.

..

.

. .

.








P r{X

0

= 0} = 1, p

(u)
ji

=

(

(λu)

j−i

(j−i)!

e

−λu

j ­ i ­ 0

0

0 ¬ j ¬ i

Lemat
Λ - ma nad przekątną same zera ⇒ e

Λu

też.

Zadanie 20 Sprawdzamy, czy prawdziwe jest:



p

(u)



0

= Λ p

(u)

p

(0)

= 1

Druga równość jest oczywista.

L = p

(u)



0

=

 (λu)

j−i

(j − i)!

e

−λu



0

=

(j − i)(λu)

j−i−1

λ

(j − i)!

e

−λu

+

+

(λu)

j−i

(j − i)!

e

−λu

(−λ) = −λp

(u)
ji

+ λ



0

j = i

p

(u)
j−1,i

j > i

25

background image

RHS = Λp

(u)

=






−λ

0

0

0

. . .

λ

−λ

0

0

. . .

0

λ

−λ

0

. . .

0

0

λ

−λ

. . .

..

.

..

.

..

.

..

.

. .

.









e

−λu

0

0

. . .

λue

−λu

e

−λu

0

. . .

(λu)

2

2

e

−λu

λue

−λu

e

−λu

. . .

..

.

..

.

..

.

. .

.




=

=




−λe

−λu

0

0

. . .

()

−λe

−λu

0

. . .

(∗∗)

()

−λe

−λu

. . .

..

.

..

.

..

.

. .

.




w

10

= () = λe

−λu

− λ

2

ue

−λu

= λp

00

− λp

10

w

20

= (∗∗) = λp

10

− λp

20



w

jj

= −λe

−λu

j = i

w

ji

= λ(p

j−1,i

− p

j,i

)

j > i

Zatem

RHS = L

Zadanie 21 Obliczyć rozkład prawdop. przyrostu procesu Poissona.

P r{X

t+k

− X

t

= k} =

X

j=0

P r{X

t+k

− X

t

= k | X

t

= j}P r{X

t

= j} = (∗∗)

P r{X

t

= j} = P r{X

t

= j | X

0

= 0}P r{X

0

= 0} =

p

(t−0)



j,0

=

(λt)

j

j!

e

−λt

P r{X

t+u

− X

t

= k | X

t

= j} =

P r{X

t+u

− X

t

= k ∧ X

t

= j, X

0

= 0}

P r{X

t

= j}

=

=

P r{X

t+u

− X

t

= k, X

t

= j, X

0

= 0}

P r{X

t

= j}

= ()

licznik = p

(t+u|t)
k+j,j

p

(t|0)
j,0

p

(0)
0

= p

(u)
k+j,j

p

(t)
j,0

=

(λu)

k

k!

e

−λu

(λt)

j

j!

e

−λt

mianownik = p

(t)
j,0

=

(λt)

j

j!

e

−λt

Zatem () =

(λu)

k

k!

e

−λu

(∗∗) =

X

j=0

(λu)

k

k!

e

−λu

(λt)

j

j!

e

−λt

=

(λu)

k

k!

e

−λu

X

j=0

(λt)

j

j!

e

−λt

|

{z

}

1

=

(λu)

k

k!

e

−λu

4

26

background image

9

Zdarzenia niezależne

P r{X

t

= j, X

t+k

− X

t

= k} =

(λu)

k

k!

e

−λu

(λt)

j

j!

e

−λt

P r{X

t

= j} =

(λt)

j

j!

e

−λt

P r{X

t

0

= j

0

, X

t

1

−X

t

0

= j

1

, . . . , X

t

l

−X

t

l−1

= j

l

} =

l

Y

i=0

λ(t

i

− t

i−1

)



j

i

(j

i

)!

e

−λ(t

i

−t

i−1

)

Zadanie 22 Niech N

t

będzie procesem Poissona z intensywnością λ = 2. Obli-

czyć E{N

t

N

t+s

}, gdzie t, s > 0.

Rozwiązanie:

N

t

N

t+s

= N

t

(N

t

+ N

t+s

− N

t

|

{z

}

przyrost

) = N

2

t

+ N

t

(N

t+s

− N

t

)

E{N

t

N

t+s

} = E{N

2

t

}+E{N

t

}E{N

t+s

−N

t

} = E{N

t

}

2

+V ar{N

t

}+E{N

t

}E{N

t+s

−N

t

} =

= (λt)

2

+ λt + λtλs = 4t

2

+ 2t + 4ts

Zadanie 23 Udowodnić, że iloczyn macierzy stochastycznych jest macierzą sto-
chastyczną.

Nich p, q - macierze stochastyczne

X

j

p

jk

= 1, p

jk

­ 0,

X

j

q

jk

= 1, q

jk

­ 0

Trzeba pokazać, że

X

j



X

k

p

jk

q

kl



|

{z

}

(p◦q)

jl

= 1 (p ◦ q)

jl

­ 0

L =

X

k



X

j

p

jk

q

kl



=

X

k

q

kl



X

j

p

jk



|

{z

}

1

=



X

k

q

kl



|

{z

}

1

= 1 = RHS

(p ◦ q)

jl

­ 0 oczywiste

4

27

background image

10

Szkic dowodu istnienia procesu Poissona

Proces Poissona zdefiniowaliśmy przez podanie rozkładów skończenie wymiaro-
wych.
Istnieją procesy dla dowolnej rodziny rozkładów zgodnych. Podane rozkłady dla
procesu Poissona tworzą taką rodzinę, a więc takie procesy istnieją.

Prosty strumień odnów o odstępach wykładniczych
0 ¬ τ

0

¬ τ

1

¬ . . . prosty strumień odnów z odstepami n.j.r P

Θ

P

Θ

= Γ(1, λ) = E (λ)

Niech N

t

:= {i : i ­ 1, τ

i

¬ t},

P

N

t

= P(λt), N

t

- proces o przyrostach niezal.,

oraz P

N

t+s

−N

t

= P(λs), czyli jest poissonowski.

Dowody

Czy {N

t

¬ n} ∈ F ?

Dowód:

{N

t

¬ n} =

n+1

> t}

τ

n+1

= Θ

1

+ Θ

2

+ . . . + Θ

n+1

, gdzie Θ

1

, Θ

2

, . . . , Θ

n+1

− zm.losowe

: R

n+1

−→ R jest borelowska

czyli τ

n+1

- zm. losowa,

czyli

n+1

> t} ∈ F (jest zdarzeniem)

Zatem:

{N

t

¬ n} ∈ F

4

P {N

t

= n} =



P {τ

n+1

> t} − P {τ

n

> t}

n = 1, 2, . . .

P {τ

1

> t} = P > t) = e

−λt

n = 0

=

n>0

=



F

Θ



(n+1)

(t) +



F

Θ



∗n

(t) = −F

Γ(n+1)

(t) + F

Γ(n,λ)

(t)

t>0

=

=

Z

t

0

u

n

λ

n+1

Γ(n + 1)

e

−λu

du +

Z

t

0

u

n−1

λ

n

Γ(n)

e

−λu

du =



s = λu



=

=

Z

λt

0

s

n

e

−s

n!

ds+

Z

λt

0

s

n−1

e

−s

(n − 1)!

ds =



s

n

n!

(−e)

−s



s=λt

s=0

Z

λt

0

s

n−1

(n − 1)!

e

−s

ds+

+

Z

λt

0

s

n−1

(n − 1)!

e

−s

ds =

(λt)

n

n

e

−λt

dla n ­ 0

Fakt

P r{τ

n+1

> t + u | τ

n

¬ t} = e

−λn

28

background image

Dowód:

P r{τ

n+1

> α + β | τ

n+1

> α} = P r{Θ > α + β | Θ > α} =

=

P r{Θ > α + β}

P r{Θ > α}

=

e

−λ(α+β)

e

−λα

= e

−λβ

(α może być losowe)

4

P r{N

t+s

− N

t

= 0 | N

t

= n} = P r{Θ

n+1

> t + s − τ

n

| Θ

n+1

> t − τ

n

} = e

−λs

..

.

itd.

P r{N

t

= j

n

∧ N

t+s

− N

t

= k} =

(λk)

j

j!

e

−λt

(λs)

k

k!

e

−λs

i dla większej ilości odstępów również.

Przykład [model piorunów]
N

M

= [λM ] - liczba cząstek wrzuconych n.j.r do [0, M ] z rozkładem J

[0,M ]

() =

P r

M

{N

M

[0,t

1

)

= j

1

, N

M

[t

1

,t

2

)

= j

2

, . . . , N

M

[t

n−1

,t

n

)

= j

l

: j

1

, . . . , j

n

N

0

=

l=1

=

 t

1

M



j

1



1

t

1

M



N −j

1

N

j

1



dla (l + 1) rodzajów „przeznaczeń”

() =

 t

1

M



j

1

 t

2

− t

1

M



j

2

. . .

 t

l

− t

l−1

M



j

l



1

t

l

M



N −

P

l

i=1

j

i

N !

j

1

!j

2

!, . . . j

l

! N −

P

l
i
=1

j

i

!

−→

−→

N

P

j

j

j

1

!j

2

!, . . . , j

l

!M

P

j

e

−λt

[przy M → ∞] −→

−→

λt

1



j

1

λ(t

2

− t

1

)



j

2

. . . λ(t

l

− t

l−1

)



j

l

j

1

!j

2

! . . . j

l

!

e

−λt

1

e

−λ(t

2

−t

1

)

. . . e

−λ(t

l

−t

l−1

)

[przy M → ∞]

() −→ P λt

1

(j

1

)P λ(t

2

− t

1

)

(j

2

) . . . P λ(t

l

− t

l−1

)

(j

l

) [przy M → ∞]

4

W procesie Poissona mamy:

P {N

t

1

− N

0

= k

1

, N

t

2

− N

t

1

= k

2

, . . . , N

t

l

− N

t

l−1

= k

l

} =

= P {N

t

1

− N

0

= k

1

} . . . P {N

t

l

− N

l−1

= k

l

}, N

0

= 0 z pr. 1

Stąd wywnioskowaliśmy:

P {N

t

1

= k

1

, N

t

2

= k

1

+ k

2

, . . . , N

t

l

= k

1

+ . . . + k

l

} = j.w.

29

background image

P {N

t

− N

s

= k} =

λ(t − s)

k

k!

e

−λ(t−s)

, k = 0, 1, . . .

P {N

t

= j | N

s

= i} =

λ(t − s)

j−i

(j − i)!

e

−λ(t−s)

Powtórka:

Definicja 12 Proces Poissona, to proces markowski (X

t

, t ­ 0) o macierzy

intensywności prawdop. przejść:

Λ =








−λ

0

0

0

0

. . .

λ

−λ

0

0

0

. . .

0

λ

−λ

0

0

. . .

0

0

λ

−λ

0

. . .

0

0

0

λ

−λ

. . .

..

.

..

.

..

.

..

.

..

.

. .

.








, X

0

= 0

Wniosek 9

p

(t|s)
j,i

∼ P λ(t − s)

 dla X

t

− X

s

"

P r{X

t

= j | X

s

= i} =

λ(t − s)

j−i

(j − i)!

e

−λ(t−s)

#

(spełnia równanie : P

(u)

0

= ΛP

(u)

, P

(0)

= [δ

ij

])

Wniosek 10

P {N

t

1

= k

1

, N

t

2

= k

1

+ k

2

, . . . , N

t

l

= l

1

+ . . . + k

l

} =

=

 ≡ P {N

t

1

− N

0

= k

1

, N

t

2

− N

t

1

= k

2

, . . . , N

t

l

− N

t

l−1

= k

l

 =

=

(λt

1

)

k

1

k

1

!

e

−λt

1

. . .

λ(t

l

− t

l−1

)



k

l

k

l

!

e

−λ(t

l

−t

l−1

)

 ≡ P {N

t

1

= k

1

}P {N

t

2

− N

t

1

= k

2

} . . . P {N

t

l

− N

l−1

= k

l

}



Przykład
Poprzez proces piorunów, sposób na znajdowanie rozkładu z ostatniego wniosku
na przejście graniczne [0, M ] z [λM ] cząstkami.

Przykład
Prosty strumień odnów o wykładniczym rozkładzie odstępów Γ(1, λ)

N

t

= ]{i : τ

i

¬ t}

N

t

∼ P {λt}

wskutek braku pamięci dla rozkładu wykładniczego,
(N

t

, t ­ 0) spełnia ostatni wniosek.

30

background image

Definicja 13 Niech (N

t

, t ­ 0) - proces o wartościach rzeczywistych (określony

na (Ω, F , P r)). Mówimy, że jest to proces o przyrostach niezależnych, jeżeli dla
dowolnego skończonego rosnącego ciągu

0 = t

0

< t

1

< . . . < t

l

zmienne losowe

X

0

, X

t

1

− X

t

0

, X

t

2

− X

t

1

, . . . , X

t

l

− X

t

l−1

są niezależne.

Mówimy, że procesy o przyrostach niezależnych są jednorodne, jeżeli P

X

t

−X

s

zależy jedynie od t − s dla t < s.

11

Przykłady jednorodnych procesów o przyro-
stach niezależnych

1. proces Poissona proces Markowa o wart. N

o

z czasem ciągłym, Λ-

macierz intensywności prawdop. przejść

2. X

(1)

t

, X

(2)

t

, . . . - procesy Poissona, niezależne o intensywnościach λ

(1)

, λ

(2)

, . . .

(a) X

(1)

t

+ X

(2)

t

- proces Poissona o intensywności λ

(1)

+ λ

(2)

(b) h

(1)

X

(1)

t

+ h

(2)

X

(2)

t

+ . . . + h

(m)

X

(m)

t

, gdzie h

(1)

, h

(2)

, . . . , h

(m)

R

- złożony proces Poissona:
PP (h

(1)

, λ

(1)

), . . . , (h

(m)

, λ

(m)

)



EX

t

=

P

n
j
=1

h

(j)

λ

(j)

t

P

X

t

= P (h

(1)

, λ

(1)

t), (h

(2)

, λ

(2)

t), . . . , (h

(m)

, λ

(m)

t)

 - złożony roz-

kład Poissona

3. (X

t

, t ­ 0) - proces ruchów Browna (ruch Browna)

• proces o przyrostach niezależnych, jednorodnych

X

0

= 0

X

t

− X

s

∼ N (0, t − s), (0 ¬ s < t)

Czy taki proces istnieje?
Odwołując się do twierdzenia Kołmogorowa-Daniella o istnieniu procesu
wystarczy sprawdzić, że tzw. rozkłady skończenie wymiarowe spełniają
warunki zgodności. Tutaj (ze względu na niezależność przyrostów) wy-
starczy sprawdzić, czy:

s < u < t ⇒ N (0, u − s) ∗ N (0, t − u) = N (0, t − s)

(X

u

− X

s

) + (X

t

− X

u

) = (X

t

− X

s

)

31

background image

Twierdzenie 16 (Wiener’a) Wśród procesów ruchu Browna istnieją ta-
kie, że funkcja ω 7→ t 7→ X

t

(ω)

 = X

.

ω jest ciągła z pr.1

”typowa realizacja jest ciągła”

Przykłady ciągu procesów, którego rozkłady graniczne są rozkładami ru-
chu Browna:
Niech h, δ > 0, T = hN

0

. Rozważmy proces o wartościach w δZ

X

(h,δ)

nh

=



n

X

j=1

S

j



δ − błądzenie, S

1

, S

2

, . . . − zm. los. n.j.r na {−1, 1} z pr. kl.

Nachylenie odcinka minimalnego łamanej

tg ”α

 δ

h

, −

δ

h



łam X

(h,δ)

n−h

, n ∈ N

0

 = X

(h,δ)

t

, t > 0

 − proces łamanych gener. przez błądzenie

Stawiamy pytania:

P

(h,δ)

X

t

−→ ?, przy h, δ → 0, (h, δ) R

+

Wiemy, że jeśli V ar(Sh) = h,

δ

2

= h,

δ =

h, to przy h ↓ 0:

P

X

(h,δ)

t1

,X

(h,δ)

t2

−X

(h,δ)

t1

,...,X

(h,δ)

tl

−X

(h,δ)

tl−1

sł.

−→ N (0, t

1

)∗N (0, t

2

−t

1

)∗. . .∗N (0, t

l

−t

l−1

)

≡ P

X

t1

,X

t2

−X

t1

,...,X

tl

−X

tl−1

Uwaga
Przykład, że nie spełniają warunku zgodności, gdyby miały dotyczyć proc.
o przyr. niezal.

X

u

− X

s

∼ P(λ

1

)

X

t

− X

u

∼ P(λ

2

)



⇒ X

t

− X

s

Γ(b, p)

4. Proces Gamma - (X

t

, t ­ 0)

• o przyrostach niezależnych, jednorodnych

X

0

= 0

X

t

− X

s

Γ(t − s, 1), 0 ¬ s < t

Dla dowodu istnienia takiego procesu wystarczy sprawdzić warunki zgod-
ności, które w naszym przypadku redukują się do:

s < u < t ⇒ Γ(u − s, 1) Γ(t − u, 1) = Γ(t − s, 1)

Co odpowiada temu, że proces ma przyrosty niezależne i ponadto

(X

u

− X

s

) + (X

t

− X

u

) = (X

t

− X

s

)

32

background image

Mamy proces gamma. Przyjmijmy więc, że:

P r{X

t

n

> h

1

, X

2t

n

−X

t

n

> h

2

, . . . , X

t

−X

n−1

n

t

> h

n

} = 1−F

t

n

(h

1

)



1−F

t

n

(h

2

)

 . . . 1−F

t

n

(h

n

)



1 − F

t

n

(h)

|

{z

}

ozn. p

(n)

(h)

=

Z

h

x

t

n

1

e

−x

dx

1

Γ(

t

n

)

Γ(p) =

Z

0

x

p−1

e

−x

dx

Wiemy, że:

Γ(p + 1) = pΓ(p) −→ Γ(1) = 1, przy p → 0

Zadanie 24 Obliczyć

P

N

(n)

t>h

= ?, gdzie N

(n)

(t>h)

= ]{X

j

: X

j

t

n

− X

(j−1)

t

n

> h}, h > 0

oraz granicę tego rozkładu, przy n −→ ∞

Ze schematu Bernoulliego mamy P

N

(n)

(t>h)

= B(n, p

n
(h)

); z własności rozkładu

dwumianowego

B(n, p

(n)
(h)

) −→ P( lim

n→∞

np

(n)

)

Zatem

P

N

(n)

(t>h)

sł.

−→ P λ(h)

, gdzie λ(h) = lim

n→∞

np

(n)

Dokładniej:

B(n, p

(n)

)

sł.

−→ P (λ) ⇔ λ = lim

n→∞

np

(n)

p

(n)

≡ p

(n)

(h) =

Z

h

x

t

n

1

e

−x

1

Γ(

t

n

)

dx

lim

n→∞

Z

n

nx

t

n

1

e

−x

1

Γ(

t

n

)

dx =



lim

n→∞

n

Γ(

t

n

)

 Z

h

x

1

e

−x

dx = lim

n→∞

n

t

n

t

n

Γ(

t

n

)

Z

h

e

−x

x

1

dx =

= t

Z

h

e

−x

x

1

dx

czyli

λ(h) = t

Z

h

e

−x

x

1

dx

Czyli proces liczący ma rozkład poissonowski.

33

background image

12

Graniczny rozkład skończenie wymiarowy przy-
rostów procesu liczącego



N

(h

1

)

[0,t

1

]>h

, N

(h

2

)

[t

1

,t

2

]>h

, . . . , N

(h

l

)

[t

l−1

,t

l

]>h



∼ B n

1

, p

(h

1

)

(h)

×. . .×B n

l

, p

(h

l

)

(h)

 −→

sł.

−→ P t

1

, λ(h)

 × P (t

2

− t

1

), λ(h)

 × . . . × P (t

l

− t

l−1

), λ(h)

 przy h −→ 0

Zatem mamy hipotezę:

N

(n)

t,>h



0

sł.

−→ PP λ(h)



Zadanie 25 Obiczyć EX

t

oraz V ar(X

t

) złożonego procesu Poissona.

Dla P(λ) mamy:

m

1

(P) =

X

k=0

ke

−λ

λ

k

k!

=

X

k=1

e

−λ

λ

k

(k − 1)!

= λ

X

k=1

e

−λ

λ

k−1

(k − 1)!

= λ

X

k=0

e

−λ

λ

k

k!

|

{z

}

1

= λ

µ

(2)

(P) = λ

Dla

PP (h

(1)

, λ

(1)

), . . . , (h

(m)

, λ

(m)

)



− X

t

EX

t

= E(h

(1)
1

X

(1)

t

+ . . . + h

(m)
m

X

(m)

t

) =

m

X

j=1

E(h

(j)

X

(j)

t

) =

m

X

j=1

h

(j)

E(X

(j)

t

) =

=

m

X

j=1

h

(j)

λ

(j)

t = t

m

X

j=1

h

(j)

λ

(j)

V ar(X

t

) = V ar (h

(1)
1

X

(1)

t

+. . .+h

(m)
m

X

(m)

t

)

 = V ar



X

j=1

(h

(j)

X

(j)

t

)



=

X

j=1

V ar(h

(j)

X

(j)

t

) =

=

X

j=1

(h

(j)

)

2

V ar(X

(j)

t

) =

X

j=1

(h

(j)

)

2

λ

(j)

t = t

X

j=1

(h

(j)

)

2

λ

(j)

4

Twierdzenie 17

N

(n)

t,>h

−→ N

t,>h

przy n → ∞,

o ile realizacja procesu jest prawostronnie ciągła, tzn.:

P r{X(ω) ∈ C

T

t

[0, ∞)} = 1

34

background image

Zadanie 26 X

1

, X

2

- niezależne o rozkładach odpowiednio P(λ

1

), P(λ

2

)

1. znaleźć rozkład X

1

+ X

2

2. znaleźć rozkład warunkowy X

1

| X

1

+ X

2

1.

P r{X

1

+X

2

= k} = P r

(X

1

= 0, X

2

= k)(X

1

= 1, X

2

= k−1)∨. . .∨(X

1

= k, X

2

= 0)

=

=

k

X

i=0

P r{X

1

= i, X

2

= k − i} =

k

X

i=0

P r{X

1

= i}P r{X

2

= k − i} =

=

k

X

i=0

e

−λ

1

λ

i

1

i!

e

−λ

2

λ

k−i
2

(k − i)!

=

e

(λ

1

+λ

2

)

k!

k

X

i=1

k!

i!(k − i)!

λ

i
1

λ

k−i
2

=

=

e

(λ

1

+λ

2

)

k!

k

X

i=1

k

i



λ

i
1

λ

k−i
2

=

(λ

1

+ λ

2

)

k

k!

e

(λ

1

+λ

2

)

∼ P(λ

1

+ λ

2

)

2. (n ­ k)

P r{X

1

= k | X

1

+ X

2

= n} =

P r{X

1

= k ∧ X

1

+ X

2

= n}

P r{X

1

+ X

2

= n}

=

=

P r{X

1

= k ∧ X

2

= n − k}

P r{X

1

+ X

2

= n}

=

P r{X

1

= k}P r{X

2

= n − k}

P r{X

1

+ X

2

= n}

=

=

e

−λ λ

k
1

k!

e

−λ

2

λ

n−k
2

(n−k)!

e

(λ

1

+λ

2

) (λ

1

+λ

2

)

n

n!

=

n!

k!(n − k)!



λ

1

λ

1

+ λ

2



k



λ

2

λ

1

+ λ

2



n−k

=

=

n

k



λ

1

λ

1

+ λ

2



k



1

λ

1

λ

1

+ λ

2



n−k

∼ B



n,

λ

1

λ

1

+ λ

2



4

Zadanie 27 N

t

- proces Gamma o rozkładzie Γ(t, 1)

Obliczyć: E{N

t

N

t+s

}

N

t

- proces gamma o mierzalnych przyrostach:

E{N

t

N

t+s

} = E

N

t

(N

t

+ N

t+s

− N

t

)

= E{N

2

t

} + E{N

t

(N

t+s

− N

t

)} =

= E{N

2

t

} + E{N

t

}E{N

t+s

− N

t

} =



EN

2

t

=

(t + 1)t

1

= t(t + 1), EN

t

=

t

1

= t, E{N

t+s

− N

t

} = s



= t(t + 1) + ts = t

2

+ t + ts

4

35

background image

Zadanie 28 ξ

n

= X

1

+ . . . + X

n

, X

i

− n.j.r., P {X

1

= 1} = p, P {X

1

= 1} =

1 − p. Wyprowadzić wzór na α

i

= P {∃

n

ξ

n

= i}, i = 0, ±1, ±2, . . .

Zadanie 29 N

t

- proces Poissona z intensywnością λ. Wyprowadzić wzory:

s < t ⇒ P {N

t

= n | N

s

= k} = ?

P {N

s

= k | N

t

= n} = ? dla s < t

Zadanie 30 X, Y - niezależne, X ∼ Γ(1, α), Y ∼ Γ(1, β) Dla dowolnego t
znaleźć:

P {min (X, Y ) ­ t | min (X, Y ) = X}

(analogicznie dla max)

Zadanie 31 N

1

∼ P(λ

1

), N

2

∼ P(λ

2

) Udowodnić, że ich suma jest procesem

Poissona o intensywności λ

1

+ λ

2

.

N

t

= N

1,t

+ N

2,t

P {N

t

1

= k

1

, N

t

2

− N

t

1

= k

2

, . . . , N

t

l

− N

t

l−1

= k

l

} =

= P

N

1,t

1

+N

2,t

1

= k

1

, N

1,t

2

+N

2,t

2

(N

1,t

1

+N

2,t

1

) = k

2

, . . . , (N

1,t

l

+N

2,t

l

)(N

1,t

l−1

+

+N

2,t

l−1

) = k

l

= P N

1,t

1

+N

2,t

1

= k

1

, . . . , (N

1,t

l

−N

,t

l−1

)+(N

2,t

l

−N

2,t

l−1

) = k

l

=

=

l

Y

j=1

P

(N

1,t

j

− N

1,t

j−1

) + (N

2,t

j

− N

2,t

j−1

) = k

j

=

=

l

Y

j=1

(λ

1

+ λ

2

)(t

j

− t

j−1

)



k

j

k

j

!

e

(λ

1

+λ

2

)(t

j

−t

j−1

)

∼ PP(λ

1

+ λ

2

)

4

Zadanie 32 (rozrzedzanie procesu) Niech N

t

- proces Poissona z parame-

trem λ. Niech τ

1

< τ

2

< τ

3

< . . . - chwile skoku nr 1, 2, 3, . . . tego procesu.

1. P

τ

n

= ?

2. Niech

˜

N

t

=

X

0¬j:τ

j

¬t

(N

τ

j

− N

τ

j−1

)B

j

gdzie B

1

, B

2

, . . . − n.j.r. B(1, p)

 niezależne z N

t

N

t

- proces rozrzedzony z pr. p

Teza:

˜

N

t

∼ PP(λp)

Komentarz:

P (h

1

, λ

1

), (h

2

, λ

2

), (h

3

, λ

3

)

 = P



h

1

, (λ

1

+ λ

2

)

, (h

3

, λ

3

)



jeśli h

1

= h

2

36

background image

Zadanie 33 τ

0

= 0 < τ

1

< τ

2

< . . . - prosty strumień odnów

P

Θ

- rozkład odnów

N

t

:= ]{i : i ∈ 1, 2, . . . , τ

i

¬ t}

1. N

t

jest prawostronnie, czy lewostronnie ciągły?

2. Co jet prawdą?

(a) N

t

< n ⇔ τ

n

> t

(b) N

t

¬ n ⇔ τ

n

­ t

(c) N

t

> n ⇔ τ

n

< t

Zadanie 34 Zbudować dystrybuantę o gęstym zbiorze punktów skoków.

13

Proces dwumianowy ujemny B

B

(λ, p)





k,

λ(λ + 1) . . . (λ + k − 1)

k!

(1 − p)

λ

p

k

, k = 0, 1, 2, . . .





λ > 0, 0 < p < 1

B

(λ, p) ∗ B

(µ, p) = B

(λ + µ, p)

Niech (X

t

, t ­ 0)

• niezależne przyrosty

X

0

= 0

P

X

t

−X

s

= B

(t − s, p)

Zadanie 35 Zapisać X

t

jako

X

t

=

X

l=1

lX

(l)

t

gdzie X

(l)

t

∼ PP(λ

(l)

), λ

(l)

= ? (l = 1, 2, . . .)

(B

t

)

t=0

o przyrostach niezależnych jednorodnych, B

0

= 0

P

B

t

−B

s

= B

(t − s, p) dla 0 ¬ s ¬ t, p ∈ (0, 1)

Fakt

B

(u − s, p) ∗ B

(t − u, p) = B

(t − s, p)

Dowód:

ϕ

tw. B

(λ,p)

(z) =

 1 − p

1 − p

2



λ

4

Zadanie 36 Znaleźć rozkład B

t

jako złożonego procesu Poissona (por. proces

gamma).

37

background image

14

Proces Cauchy’ego

C(a, b) 7−→ ϕ

ch.

(w) − e

−|w|a

e

iwb

, w ∈ R

Definicja 14 Q jest nieskończenie podzielny, gdy

n∈N

1

Q

n

−miara probab.

Q

∗n
n

= Q



Q = P

X

, to ∀

n

X

N1,...Nn−n.j.r.

X

N

1

+ . . . + X

N

n

= X



Twierdzenie 18 Q - nieskończenie podzielny wtedy i tylko wtedy, gdy

n

ϕ

n,Q

−f. ch.

ϕ

n,Q

(w)



n

= ϕ

Q

(w), w ∈ R

Fakt
C(a, b) - nieskończenie podzielny.
Dowód:

e

−|w|a

e

iwb

= e

−|w|

a
n

e

iw

b

n



n

= ϕ

ch.ϕ(

a
n

,

b

n

)

(w),

a

n

> 0, bo a > 0

4

Zadanie 37 Niech Q(t) - rodzina rozkładów prawd. zamknięta ze względu na
sploty:

Q(t) ∗ Q(s) = Q(t + s), t, s ­ 0, Q(0) = δ

0

Jest to jednoelementowa półgrupa ze względu na splot. Tę rodzinę oznaczamy
przez Q.
Niech
(X

t

)

0

proces o przyrostach niezależnych jednorodnych

(X

t

)

0

: X

0

= 0, P

X

t

−X

s

= Q(t − s)

Czy taki proces istnieje?

Wystarczy sprawdzić, że

Q(u − s) ∗ Q(t − u) = Q(t − s) 0 ¬ s ¬ t, co jest spełnione z założenia

Uwaga

0

Q(t) ∈ Q Q(t) − niesk. podzielne

Rzeczywiście

Q(

t

n

)



∗n

= Q(t)

Inne przykłady półgrup

N (m

1

, v

1

) ∗ N (m

2

, v

2

) = N (m

1

+ m

2

, v

1

+ v

2

)

N (mt, tv) ∗ N (ms, sv) = N m(t + s), v(t + s)



38

background image

P(λt) ∗ P(λs) = P λ(t + s)



Q(t) = Γ(λt, b) t ­ 0, λ > 0, b > 0

Q(t) = δ

0

Q(t) = B

(λt, p)

B(n

1

, p) ∗ B(n

2

, p) = B(n

1

+ n

2

, p), n

1

, n

2

N

Q(t) = C(λt, bt) λ > 0

Q(t) = P (λ

1

t, h

1

), (λ

2

t, h

2

), . . . , (λ

m

t, h

m

)



Zadanie 38 W złożonym procesie Poissona obliczyć rozkład czasu pierwszego
osiągnięcia poziomu. Np.:

Dane

(N

t

)

0

∼ PP (λ

1

, 1), (λ

2

, 2)

, λ

1

, λ

2

> 0

Znaleźć rozkład prawdop.

τ

(2)

= inf {t : N

t

­ 2}, czyli prawdop. {τ

(2)

¬ t} ≡ {N

t

­ 2}, dla t ­ 0

Rozważmy N

t

= 2N

1t

+ N

2t

, gdzie

S ­ 0 (s

1

­ 2)(s

1

= 1∧s

2

­ 1)(s

1

= 0∧s

2

­ 2) (s

2

­ 2)(s

2

= 0∧s

1

­ 2)

czyli

P r{N

t

­ 2} = P r{2N

t1

­ 2} + P r{2N

t2

= 0 ∧ N

t1

­ 2} =

= 1 − P r{N

t2

= 0}

 + P r{N

t2

= 0} 1 − P r{N

t1

= 0} − P r{N

t2

= 1}

 =

= 1 − e

−λ

2

t

+ e

−λ

2

t

(1 − e

−λ

1

t

(λ

1

t)

1

1!

e

−λ

1

t

) = 1 − e

(λ

1

+λ

2

)t

(λ

1

t)e

(λ

1

+λ

2

)t

Odp.:

F

τ

(2)

(t) = P {τ

(2)

¬ t} = 1 − e

(λ

1

+λ

2

)t

(1 + λ

1

t)

f

τ

(2)

(t) = F

0

τ

(2)

(t) = e

(λ

1

+λ

2

)t

(1 + λ

1

t)(λ

1

+ λ

2

) + (e

(λ

1

+λ

2

)t

)λ

1

=

= e

(λ

1

+λ

2

)t

[λ

1

+ λ

2

+ λ

2
1

t + λ

1

λ

2

t − λ

1

] = e

(λ

1

+λ

2

)t

λ

2
1

t + λ

2

(1 + λ

1

t)

 =

= −λe

(λ

1

+λ

2

)t

+ (λ

1

+ λ

2

)(1 + λ

1

t)e

(λ

1

+λ

2

)t

=

=

λ

1

λ

1

+ λ

2

(λ

1

+ λ

2

)e

(λ

1

+λ

2

)t

|

{z

}

f

Γ(11+λ2)

(t)

+

λ

1

λ

1

+ λ

2

(λ

1

+ λ

2

)

2

Γ(2)

e

(λ

1

+λ

2

)t

|

{z

}

f

Γ(21+λ2)

(t)

P

τ

(2)

=

λ

1

λ

1

+ λ

2

Γ (1, (λ

1

+ λ

2

)

 +

λ

1

λ

1

+ λ

2

Γ 2, (λ

1

+ λ

2

)



39

background image

Jest to kombinacja wypukła rozkładów, więc jest to nowy rozkład.

τ

(2)

=

?

min {”Γ(2, λ

1

)” ”Γ(1, λ

2

)”}

F (t) = 1 − F (t) − f unkcja niezawodności

P (X ∧ Y ­ t) = P (X > t ∧ Y > t) = P (X > t)P (Y > t)

F

X∧Y

(t) = F

X

(t)F

Y

(t) = e

−λ

1

t

(1 + λ

1

t)e

−λ

2

t

= (1 + λ

1

t)e

(λ

1

+λ

2

)t

F

Γ(1)

(t) = e

−λt

F

Γ(2,1)

(t) =

Z

t

ue

−u

du =

u(−e

u

)



t

+

Z

t

e

−u

du = e

−t

+te

−t

−→ 0, przy t → ∞

F

Γ(2)

(t) = e

−λt

(1 + λt)

Zadanie 39 Mamy:

X =

N

X

j=1

X

j

Zmienne losowe N, X

1

, X

2

, . . . są niezależne, X

1

, X

2

, . . . j.r., N ∈ N

0

Udowodnić, że X ma rozkład nieskończenie podzielny, jeśli N ma rozkład nie-
skończenie podzielny.

Uwaga
Każdy złożony rozkład Poissona jest nieskończenie podzielny.

ϕ

X

(t) = E{e

itX

} = E

E{e

itX

|N }

= E[ϕ

ch.X

1

(t)]

N

=

X

k=0

ϕ

k
ch.X

1

(t)P r{N = k} =

= ϕ

tw.

ϕ

ch.X

1

(t)

 = ()

Pokażemy, że ϕ

X

jest -podzielna.

Wystarczy skorzystać z nieskończonej podzielności rozkładu ϕ

tw.,N

n

ϕ

tw.,n

ϕ

tw.,N

(z) =

ϕ

tw.,n

(z)



n

, co daje:

() =

h

ϕ

tw.,n

ϕ

ch.X

1

(t)



i

n

=



E

e

it

P

Nn
j
=1

X

j



n

, gdzie N

n

∼ ϕ

tw.,n

, n ∈ N

0

Wniosek 11 Q - rozkład nieskończenie podzielny na R, to

ϕ

Q

(w) = exp − ψ(w)



ψ(w) ma tę własność, że:

ϕ

t
Q

(w) = exp

 − tψ(w)

jest również funkcją charakterystyczną, dla każdego t ­ 0

40

background image

Wniosek 12 Q - nieskończenie podzielne i jeśli

ϕ

Q(t)

(w) =

ϕ

Q

(w)



t

to

Q(t) ∗ Q(s) = Q(t, s), t, s ­ 0

Zadanie 40 Niech Q = PP

N

j=1

X

j

, gdzie N - rozkład Poissona

1. Udowodnić, że Q(t) = PP

Nt
j
=1

X

j

, gdzie N

t

∼ PP(λ), gdy N ∼ P(λ) jest

półgrupą ze względu na sploty.

2. S

t

=

P

N

t

j=1

X

j

- jest procesem o przyrostach niezależnych, wyznaczonym

przez Q

1

3. Znaleźć rozkład N

t,­h

dla tego procesu



będzie to PP(λ

>h

)



Ad.1)

Q(t) ∗ Q(s) = PP

Nt
j
=1

X

j

PP

Ns
j
=1

X

0

j

− P

P

Nt
j
=1

X

j

+

P

N 0

s

j=1

X

0

j

= ()

Jako N

0

s

można przyjąć N

t+s

− N

t

(bo ma taki sam rozkład jak N

s

i jest od N

t

niezależny)
Zamiast X

0

j

weźniemy X

N

t

+j

Zatem:

() = PP

Nt
j
=1

X

j

+

P

Nt+s−Nt
k
=1

X

k

= PP

Nt
j
=1

X

j

+

P

Nt+s
k
=Nt+1

X

k

= PP

Nt+s
j
=1

X

j

= Q(t+s)

czyli

ϕ

Q(t)

(w) = ϕ

tw.,N

t

ϕ

ch.,X

1

(w)



ϕ

Q(t)∗Q(s)

(w) = ϕ

Q(t)

(w) ϕ

Q(s)

(w) = ϕ

tw.,N

t

ϕ

ch.,X

1

(w)

 ϕ

tw.,N

s

ϕ

ch.,X

1

(w)

 =

= ϕ

tw.,N

t+s

= ϕ

Q(t+s)

(w)

bo P

N

t+s

= P

N

t

∗ P

N

s

, i P

N

t

,N

t+s

−N

t

= P

N

t

× P

N

s

(własność procesu o przyro-

stach niezależnych, jednorodnych)

Ad.3)
Przypomnijmy metody z procesu gamma

N

t,>h

∼ P(

>h

)

λ

>h

= lim

n→∞

P {S

t

n

> h}n

n



Q



t

n



(h, ∞)



= nP r



N

t

n

X

j=1

X

j

> h



= n



P r{X

1

> h}{N

t

n

= 1}+

41

background image

+P r{N

1

+ N

2

> h}{N

t

n

= 2} + . . .



−→ tP r{X

1

> h}, przy n −→ ∞

Rozkład X

1

jest rozkładem skoków (w miejscu skoku).

Umowa

• (N

t

)

0

PP(λ) (N

t

)

0

- proces o przyrostach niezal., jednorodnych o

rozkł. Q(1) = P(λ)

N

t

0

∼ P(λ) ≡ Q(t

0

) = P(λ) wtedy

Q(t) = P(λ

t

t

0

)

• (X

t

)

0

proces B

(λ, p)

 ≡ Q(1) = B(λ, p) ⇒ X

t

∼ B

(λt, p), t ­ 0

Bierzemy proces (X

t

) o przyrostach jednorodnych, X

0

= 0

X

1

∼ C(0, λ)

X

1

∼ N (0, v)

X

1

Γ(λ, b)

X

1

∼ P (λ

1

, h

1

), . . . , (λ

n

, h

n

)



X

1

∼ B

(λ, p)

Rozpatrzmy proces związany z P

J

:

X

t

=

N

t

X

j=1

J

j

(N

t

) - o przyrostach niezależnych, jednorodnych naturalnych N

0

= 0

J

j

- n.j.r.

X

(X)

t,­h

∼ PP(

(X)
>h

), gdzie

λ

(X)
>h

= lim

n→∞

nP {X

1

n

> h} = lim

n→∞

P {N

1

n

= 1∧J

1

> h}+P {N

1

n

= 2∧J

1

+J

2

> h}+...

 =

=

X

k=1

lim

n→∞

nP {N

1

n

= k}

|

{z

}

λ

(N )
=k

P

∗k

J

(h, ∞) =

X

k=1

λ

(N )
=k

|

{z

}

λ

(N )
­1

λ

(N )
=k

λ

(N )
­1

| {z }

P

(N )

=k

P

∗k

J

(h, ∞)

Miara skoków ze zbioru A



λ

(X)
A

= λ

(X)
­1

=

X

k=1

p

(N )
k

P

∗k

J

(A), A ∈ B



miara skończona na R

42

background image

Budujemy funkcję charakterystyczną dla λ

A

Z

R

e

iwy

(X)
y

= λ

(N )
­1

X

k=1

p

(N )
k

ϕ

∗k
P

J

(w) = λ

(N )
­1

X

k=1

p

(N )
k

ϕ

J

(w)



k

ϕ

µ,λ

(X)

(w) = λ

(N )
­1

ϕ

tw.,K

ϕ

ch.,J

(w)



|

{z

}

P

K

k=1

J

k

gdzie K ma rozkład (p

(N )
k

, k ­ 1)

Niech (W

t

)

0

- proces ruchu Browna standardowy, tzn. W

0

= 0, o przyro-

stach niezależnych, jednorodnych W

1

∼ N (0, 1)



Y

t

= e

W

t

t

2

, t ­ 0



− proces wysoce niesymetryczny

Zadanie 41 Pokazać,że

1. E(Y

t

) = 1

2. E{Y

t

|Y

u

, u < s < t}

2.1

= E{Y

t

|Y

s

}

2.2

= Y

s

3. Znaleźć rozkłady skończenie wymiarowe procesu (Y

t

)

0

≡ Y .

4. Znaleźć macierz prawdopodobieństw przejść.

Ad.1)

E{e

W

t

t

2

} = E{e

W

t

}e

t

2

= e

t

2

e

t

2

= 1

Ad.2.2)
Dla ruchu Browna (W

t

)

0

Y

t

= e

W

t

t

2

, t ­ 0

W

t

∼ N (0, t)

Chcemy pokazać, że: E{Y

t

|Y

s

} = Y

s

.

Mamy

W

t

t

2

= (W

s

s

2

)

|

{z

}

1.

+ (W

t

− W

s

)

t − s

2



|

{z

}

2.

1. i 2. są niezależne, bo przesunięcie nie psuje niezależności
Dowód:

E



e

i



(W

s

s
2

)w

1

+ (W

t

−W

s

)

t−s

2



w

2





= e

−i

s
2

w

1

+

t−s

2

w

2



E

n

e

i W

s

w

1

+(W

t

−W

s

)w

2

 o

=

= e

−i

s
2

w

1

+

t−s

2

w

2



ϕ

ch.,W

s

(w

1

) ϕ

ch.,W

t

−W

s

(w

2

) = ϕ

ch.,W

s

s
2

(w

1

) ϕ

ch.,W

t

−W

s

t−s

2

(w

2

)

43

background image

Czyli są niezależne.
Pokażemy więcej:

ξ = g(W

s

s

2

), η = h (W

t

−W

s

)

t − s

2

 − niezal., dla g, h ∈ B gdy W

s

i (W

t

−W

s

) niezal.

Dowód:

P {ξ ∈ A, η ∈ B} = P W

s

s

2

∈ g

1

(A), (W

t

− W

s

)

t − s

2

∈ h

1

(B)

 =

= P

W

s

s

2

∈ g

1

(A)

P (W

t

− W

s

)

t − s

2

∈ h

1

(B)

=

= P

g(W

s

)

s

2

∈ A

P h (W

t

− W

s

)

t − s

2

 ∈ B

Zatem mamy

Y

t

= Y

s

e

(W

t

−W

s

)

t−s

2

E{Y

t

−Y

s

} = Y

s

E{e

(W

t

−W

s

)

t−s

2

|Y

s

} = Y

s

E{e

(W

t

−W

s

)

t−s

2

} = Y

s

E{e

W

t−s

t−s

2

}

|

{z

}

1

= Y

s

Dla procesu Poissona N

t

, opiszemy proces

Y

t

= e

N

t

−λt(e−1)

gdzie

(N

t

)

0

∼ PP(λ),

N

t

∼ P(λt)



Sprawdzimy czy Y

t

= e

N

t

−λt(e−1)

jest martyngałem.

Y

t

= Y

s

e

(N

t

−N

s

)−λ(t−s)(e−1)

E{Y

t

|Y

s

} = Y

s

E{e

(N

t

−N

s

)−λ(t−s)(e−1)

|Y

s

} = Y

s

E{e

(N

t

−N

s

)−λ(t−s)(e−1)

} =

= Y

s

E{e

N

t−s

−λ(t−s)(e−1)

}

|

{z

}

1

= Y

s

Komantarz
Jeżeli mamy proces o przyrostach niezależnych jednorodnych o skończonej war-
tości oczekiwanej E{e

N

t

}, to jeżeli e

N

t

podzielimy przez tę wartość to dostanie-

my martyngał .

Zadanie 42 Udowodnić, że dla każdego procesu o przyrostach niezależnych ist-
nieje stała L taka, że

E(e

N

t

) = L

t

= e

at

E(e

N

t

−at

) = 1

44

background image

15

Przykład rozkładu sk. wym. dla ruchu Brow-
na

f

X

t1

,X

t2

−X

t1

,...,X

tl

−X

tl−1

(n

1

, . . . , n

l

) =

=

1

2πt

exp {−

1

2t

1

u

2
1

}

1

p2π(t

2

− t

1

)

exp {−

1

2(t

2

− t

1

)

u

2
2

} . . .

1

p2π(t

l

− t

l−1

)

exp {−

1

2(t

l

− t

l−1

)

u

2
l

}

gdzie X

1

∼ N (0, 1),

X

t

∼ N (0, t)

X

t

1

, X

t

2

= X

t

1

+ (X

t

2

− X

t

1

), . . . , X

t

l

= X

t

1

+ . . . + (X

t

l

− X

t

l−1

)

X

t

1

= Y

1

, X

t

2

= Y

1

+ Y

2

, . . . , X

t

l

= Y

1

+ . . . + Y

l

gdzie P

X

tl

= N (0, t

l

)

f

X

t1

,X

t2

,...,X

tl

(x

1

, x

1

, . . . , x

l

) = f

Y

1

,Y

2

,...,Y

l

(x

1

, x

2

− x

1

, . . . , x

l

− x

l−1

)|1| =

=

1

2π

n

pt

1

(t

2

− t

1

) . . . (t

l

− t

l−1

)

exp



1

2

Q(x

1

, . . . , x

l

)

Zadanie 43 Dla procesu Poissona obliczyć:

P

X

t1

,...,X

tl

(k

1

, . . . , k

l

) = ?

Zadanie 44 Obliczyć funkcję charakterystyczną ϕ

X

t1

,...,X

tl

dla procesów: PP, B

, C, Browna.

16

Niezawodność układu równoległego (ilość spraw-
nych elementów)

Mamy n zmiennych losowych T

1

, . . . , T

n

n.j.r. Γ(1, λ)

X

t

:= ]{j : T

j

> t} − proces liczący elementy zdatne w chwili t

X

t

∈ {0, 1, 2, . . . , n − 1, n}

P r{T

szer.

> t} = P r{T

1

> t∧T

2

> r ∧. . .∧T

n

> t} = 1−F

t

1

(t)



n

= (e

−λt

)

n

⇒ T

szer.

Γ(1, nλ)

P {T

1

> a + b|T

1

> b} =

e

−λ(a+b)

e

−λb

= e

−λa

Czas życia równoległego:

T

równ.

Γ(1, λ) Γ(1, 2λ) ∗ . . . ∗ Γ(1, nλ)

ET

równ.

=

1

λ



1 +

1

2

+ . . . +

1

n



n→∞

−→ ∞

45

background image

X

t

jest markowski o macierzy prawdopodobieństw przejść:

p

(t|s)
j,i

= p

(t−s)
j,i

i przy tym

p

(u)
j,i



0

= Λ p

(u)

, gdzie Λ =





0

λ

0

0

0

0

−λ

2λ

0

0

0

0

2λ

3λ

0

0

0

0

3λ

4λ

0

0

0

0

4λ





Mogą istnieć prawdop. przejścia spełniające równania różniczkowe ale nie gene-
rujące procesu markowskiego.

p

(t)
j,i

=

e

−λit

j = i = 0, 1, 2, 3, 4

P {γ

λi

< t ¬ γ

λi

+ γ

λ(i−1)

}

j = i − 1

..

.

p

(t)
j,i

=

e

−λit

j = i = 0, 1, 2, 3, 4

P {

γ

(1)

λi

< t ¬

γ

(1)

λi

+

γ

(2)

λ(i−1)

}

j = i − 1

..

.

P {

γ

(1)

λi

+

γ

(2)

λ(i−1)

+ . . . +

γ

(i)

λ1

< t}

j = 0

17

Proces markowski z czasem ciągłym, z prze-
strzenią przeliczalną

P

X

0

,X

t1

,...,X

tl

= p

(t

l

|t

l−1

)

X

l

,X

l−1

◦ . . . ◦ p

(t

1

|0)

X

1

,X

0

p

(0)
X

0

musi być: p

(t|u)

p

(u|s)

= p

(t|s)

, s ­ u ­ t

ale jeśli jest jednorodny czasie, to: p

(t|s)

= p

(t−s)

p

(u)

p

(v)

= p

(u+v)

T

1

, . . . , T

n

- n.j.r Γ(1, λ), X

t

= ]{j : T

j

> t} ∈ {0, 1, . . . , n}

Λ =








0

λ

0

. . .

0

0

−λ

2λ

. . .

0

0

0

2λ

. . .

0

..

.

..

.

..

.

. .

.

..

.

0

0

0

. . .

0

0

0

. . .

−nλ








Czas przejścia ze stanu n do stanu 0 ma rozkład:

P

T

= Γ(1, λ) ∗ . . . ∗ Γ(1, nλ)

46

background image

T =

d

1

λ

γ

(1)

1

+

1

2λ

γ

(1)

2

+ . . . +

1

γ

(1)

n

min {T

1

, . . . , T

n

} ∼ Γ(1, nλ) − Odstęp!

Komentarz 1:

F

ξ

η

(t) = 1 ¯

F

ξ

η

(t) = 1 − P r{ξ

η ­ t} = 1 − P r{ξ ­ t}P r{η ­ t} =

= 1 − e

−λt

e

−µt

= 1 − e

(λ+µ)t

= F

Γ(1+µ)

(t), o ile (ξ, η) Γ(1, λ) × Γ(1, µ)

Komentarz 2:

T ∼ Γ(1, λ)

P r{T > t + h | T > h} = e

−λh



bo, L =

e

−λ(t+h)

e

−λt

= e

−λh



P

T −t|T >t

= P

T

= Γ(1, λ)

Komentarz 3:

X ∼ Γ(1, λ) ≡ X =

d

1

λ

γ

(1)

, gdzie γ

(1)

Γ(1, 1)
|

{z

}

wykł. stand.

P r{RHS > t} = P r{

1

λ

γ

(1)

> t} = P r{γ

(1)

> λt} = e

−λt

=

Z

t

λe

−λt

| {z }

f

X

(t)

dt = P r{X > t}

Generowanie γ

(1)

Dany jest generator u o rozkładzie J [0, 1] Dany jest algorytm:

u

1

, u

2

, . . .

1. u

1

, u

2

, . . . ∈ [0, 1)

2. uznajemy je za wyniki losowań niezależnych

3. uznajemy je za wyniki losowania z rozkładem jednostajnym J [0, 1]

Testy nam pomagają.

D

n

- zmienna losowa

D

n

= max

u

{| ˆ

F

n

(u) − u|}, gdzie ˆ

F

n

- dystrybuanta empiryczna

d

( ˆ

F

n

, id) − metryka czebyszewa

Twierdzenie 19 (Gliwenki)

D

n

−→ 0 z pr. 1

Jest to mocne prawo wielkich liczb funkcjonalne.

47

background image

Twierdzenie 20 (Kołmogorowa)

D

n

n −→ Q(λ), gdzie Q(λ) − dystr. Kołmogorowa

Zatem:

D

n

n > λ

kryt.

(odrzuca 3.)

Chcemy mieć:

(X

t

)

0

markowski taki, że przejście ze stanu l + 1 do stanu l trwa czas wykład-

niczy o rozkładzie Γ(1, λ

l+1

), l = n − 1, . . . 0

Czy taki proces jest markowski ?
Czy

P {X

t

m

= j

m

|X

t

m−1

= j

m−1

, . . . , X

t

1

= j

1

} = P {X

t

m

= j

m

|X

t

m−1

= j

m−1

}

|

{z

}

Q

(tm−tm−1)
jm,jm−1

albo, czy spełnia warunki definicji:

P {X

0

= n, X

t

1

= j

1

, . . . , X

t

m−1

= j

m−1

, X

t

m

= j

m

} =

= Q

(t

m

−t

m−1

)

j

m

,j

m−1

Q

(t

m−1

−t

m−2

)

j

m−1

,j

m−1

. . . Q

(t

2

−t

1

)

j

2

,j

1

Q

(t

1

)

j

1

,n

Zaczniemy od uzyskania takich macierzy

X

j

Q

(n)
k,j

Q

(v)
j,i

= Q

(u+v)
k,i

Q

(u)
k,j

= P r{X

u

= k|X

0

= j}

Kandydatem jest macierz uzyskana następująco:

Q

(u)
k,j

= 0 k > j

Q

(u)
j,j

P r{T

j

> n} = e

−λ

j

u

Q

(u)
k,j

= P r{

1.

z

}|

{

T

j

+ T

j−1

+ . . . + T

k+1

¬ u <

21.

z

}|

{

T

j

+ . . . + T

k+1

+ T

k

} =

= P r{1. ¬ u ∧ (2. ¬ u)} = P r{1. ¬ u} − P r{2. ¬ u} =

= F

1.

(u)−F

2.

(u) = F

Γ(1

j

)Γ(1

j−1

)Γ(1

k+1

)

(u)−F

Γ(1

j

)∗...∗Γ(1

k+1

)Γ(1

k

)

(u)

Dla sprawdzenia warunku Q

(u)

Q

(v)

= Q

(u+v)

d

du

Q

(u)

= Λ Q

(u)

,

Λ =








0

λ

0

. . .

0

0

−λ

λ

2

. . .

0

0

0

−λ

2

. . .

0

..

.

..

.

..

.

. .

.

..

.

0

0

0

. . .

λ

n

0

0

0

. . .

−λ

n








48

background image

Uwaga

Γ(1, λ) Γ(1, µ) 6= Γ(1, λ + µ)

Γ(1, λ)

Γ(µ) 6= Γ(1, λ + µ)

(X

t

)

0

- proces markowski, 0 < t

1

< . . . < t

k

P

(0,t

1

,t

2

,...,t

k

)

i

0

,i

1

,...,i

k

:= P {X

0

= i

0

, X

t

1

= i

1

, . . . , X

t

k

= i

k

} = P

(t

k

−t

k−1

)

i

k

,i

k−1

. . . P

(t

1

)

i

1

,i

0

p

(0)
i

0

Twierdzenie 21 Zał., że P

(u)

k,j

taka, że:

(

d

du

P

(u)

k,j

=

P

l

Λ

k,l

P

(u)

l,j

P

(0)

k,j

= δ

k,j

przy czym p

(0)
i

­ 0,

P

i

p

(0)
i

= 1 oraz Λ

k,l

=



λ

k,l

> 0

k 6= l

P

i

λ

i,k

k = l

stąd mamy:

P

(u)

P

(v)

= P

(u+v)

gdzie P

(u)

− macierz stochastyczna

Fakt
Podana rodzina rozkładów skończenie wymiarowych jest zgodna, tzn.

P

o,t

1

,t

2

,...,

j

,...,t

k

i

0

,i

1

,...,

j

,...,i

k

=

X

i

j

P

(0,t

1

,...,t

j

,...,t

k

)

i

0

,...,i

j

,...,i

k

Dowód:

RHS =

X

i

j

. . . P

(t

j+1

−t

j

)

i

j+1

,i

j

P

(t

j

−t

j−1

)

i

j

,i

j−1

. . . = . . .



P

(t

j+1

−t

j

)

P

(t

j

−t

j−1

)



i

j+1

,i

j−1

. . . =

= . . . P

(t

j+1

−t

j−1

)

i

j+1

,i

j−1

. . . = L

4

Dowód Twierdzenia (szkic):
Należy sprawdzić, czy

P

(u)

=

X

n=0

Λ

n

u

n!

, Λ

0

= I

spełnia dane równania i warunek początkowy.
Następnie czy spełnione są założenia twierdzenia Picarda.
Oraz czy P

(u)

P

(v)

= P

(u+v)

?

Uwaga
Na zbiorze przeliczalnym stanów należy dodatkowo zakładać pewne ogranicze-
nia na macierz Λ.
np.

P

l6=i

λ

l,i

< ∞

49

background image

Definicja 15 (splotu rozkładów)

Q

1

∗ Q

2

(A) = Q

1

× Q

2

{(x, y) : x + y ∈ A}

Definicja 16 (splotu dystrybuantowego)

F

Q

1

∗Q

2

(x) =

Z

−∞

F

Q

1

(x − y)dF

Q

2

(y), Ozn. F

Q

1

∗ F

Q

2

(x)

Jeżeli Q

1

ma gęstość, to wtedy

f

Q

1

∗Q

2

(x) =

Z

−∞

f

Q

1

(x − y)dF

Q

2

(y)

a jeśli dodatkowo f

Q

2

istnieje, to mamy

Definicja 17 (splotu gęstościowego)

f

Q

1

∗Q

2

(x) =

Z

−∞

f

Q

1

(x − y)f

Q

2

(y)dy

Komentarz

P {X+Y < x} =

Z

R

P {X+Y < x | Y = y}dP

Y

(y) =

Z

R

P {X < x−y}dP

Y

(y) =

=

Z

−∞

F

X

(x − y)dF

Y

(y)

Zadanie 45

P

(u)

k,j

= F

Γ(1

j

)Γ(1

j−1

)∗...∗Γ(1

k+1

)

(u) − F

Γ(1

j

)Γ(1

j−1

)∗...∗Γ(1

k

)

(u)

d

du

P

(u)

k,j

=?

Dla k = j

P

(u)

j,j

= e

−λ

j

u

, λ

0

= 0

Zatem

d

du

P

(u)

j,j

= −λ

j

e

−λ

j

u

Dla k < j

d

du

P

(u)

k,j

= f

Γ(1

j

)∗...∗Γ(1

k+1

)

(u)

Z

u

0

f

Γ(1

j

)∗...∗Γ(1

k+1

)

(u)

|

{z

}

0 dla u−v<0

(u − v) dF

Γ(1

k

)

|

{z

}

(0,∞)



F

Γ(1)Γ(1)

(u)



0

=

Z

u

0

λe

−λ(u−v)

µe

−v

dv

50

background image

P {

k+1

X

l=j

T

l

­ u ­

k

X

l=j

T

l

} = P {X

u

= k | X

0

= j} = F

j+(j−1)+...+(k+1)

−F

j+(j−1)+...+k

RHS = Λ P

(u)

=

=





0

λ

1

0

0

0

0

−λ

1

λ

2

0

0

0

0

−λ

2

λ

3

0

0

0

0

−λ

3

λ

4

0

0

0

0

−λ

4









1

F

1

F

1+2

F

1+2+3

F

1+2+3+4

0

1 − F

1

F

2

− F

1+2

F

2+3

− F

1+2+3

F

2+3+4

− F

1+2+3+4

0

0

1 − F

2

F

3

− F

2+3

F

3+4

− F

2+3+4

0

0

0

1 − F

3

F

4

− F

3+4

0

0

0

0

1 − F

4





gdzie np.:

F

1+2+3

= F

Γ(1

3

)Γ(1

2

)Γ(1

1

)

(u)

W szczególnym przypadku mamy:

0

λ

1

0

0

−λ

1

λ

2

0

0

−λ

2

1

F

1

F

1+2

0

1 − F

1

F

2

− F

1+2

0

0

1 − F

2

=

1

λ

1

e

−λ

1

u

0

−λ

1

e

−λ

1

u

−λ

1

(F

2

− F

1+2

) + λ

2

e

−λ

2

u

0

0

λ

2

e

−λ

2

u

porównujemy z:

1

λ

1

e

−λ

1

u

0

−λ

1

e

−λ

1

u

F

0

2

− F

0

1+2

0

0

λ

2

e

−λ

2

u

F

1+2

= 1

1

λ

1

− λ

2

[λ

1

e

−λ

2

u

− λ

2

e

−λ

1

u

]

F

0

1+2

=

1

λ

1

− λ

2

[−λ

1

λ

2

e

−λ

2

u

+ λ

1

λ

2

e

−λ

1

u

] =

λ

1

λ

2

λ

1

− λ

2

[e

−λ

1

u

− e

−λ

2

u

]

−λ

1

1 − e

−λ

2

u

1 +

1

λ

1

− λ

2

[λ

1

e

−λ

2

u

− λ

2

e

−λ

2

u

]

 + F

0

2

=

=

λ

1

λ

2

λ

1

− λ

2

[e

−λ

2

u

− e

−λ

1

u

] = −F

0

1+2

(u)

Transformata Laplace’a

L

Γ(1

1

)Γ(1

2

)Γ(1

3

)

(s) = L

Γ(1

1

)

(s)L

Γ(1

2

)

(s) ∗ L

Γ(1

3

)

(s) =

W zór ogólny : L

Γ(1)

(s) =

Z

0

e

−sx

λe

−λx

dx =

λ

λ + s

!

=

λ

1

λ

1

+ s

λ

2

λ

2

+ s

λ

3

λ

3

+ s

=

λ

1

λ

1

+ s

|

{z

}

()

λ

2

λ

1

− λ

2

λ

3

λ

3

− λ

1

+

λ

1

λ

1

−λ

2

λ

2

λ

3

λ

3

−λ

2

λ

2

+ s

+

λ

1

λ

1

−λ

3

λ

2

λ

2

−λ

3

λ

3

λ

2

+ s

=

() =

λ

2

λ

2

− λ

1

λ

3

λ

3

− λ

1

L

Γ(1

1

)

(s)

!

51

background image

=

λ

2

λ

2

− λ

1

λ

3

λ

3

− λ

1

L

Γ(1

1

)

(s)+

λ

1

λ

1

− λ

2

λ

3

λ

3

− λ

2

L

Γ(1

2

)

(s)+

λ

1

λ

1

− λ

3

λ

2

λ

2

− λ

3

L

Γ(1

3

)

(s)

Stąd gęstość:

f

Γ(1

1

)Γ(1

2

)Γ(1

3

)

(x) =

λ

2

λ

2

− λ

1

λ

3

λ

3

− λ

1

λ

1

e

−λ

1

x

+

λ

1

λ

1

− λ

2

λ

3

λ

3

− λ

2

λ

2

e

−λ

2

x

+

+

λ

1

λ

1

− λ

3

λ

2

λ

2

− λ

3

λ

3

e

−λ

3

x

F

Γ(1

1

)Γ(1

2

)Γ(1

3

)

=

λ

2

λ

2

− λ

1

λ

3

λ

3

− λ

1

(1 − e

−λ

1

x

)

|

{z

}

1)

+

λ

1

λ

1

− λ

2

λ

3

λ

3

− λ

2

(1 − e

−λ

2

x

)

|

{z

}

2)

+

+

λ

1

λ

1

− λ

3

λ

2

λ

2

− λ

3

(1 − e

−λ

3

x

)

|

{z

}

3)

1) + 2) + 3) = 1

18

Różnice dzielone

Twierdzenie 22

[x

0

, . . . , x

n

; f ] =

n

X

j=0

f (x

j

)

DW

x

0

,...,x

n

(x

j

)

W

x

0

,...,x

n

(x) =

n

Y

j=0

(x − x

j

)

DW

x

0

,...,x

n

(x

j

) =

n

Y

1=k6=j

(x − x

k

)

Zadanie 46

(x − x

0

)(x − x

1

)(x − x

2

)



0

= (x − x

1

)(x − x

2

) + (x − x

0

)(x − x

2

) + (x − x

0

)(x − x

1

)

dla x = x

2

mamy:

(x − x

0

)(x − x

1

)(x − x

2

)



0

= (x − x

0

)(x − x

1

)

Twierdzenie 23



x

0

, . . . , x

n

;

1

a − x



=

1

a − x

0

1

a − x

1

. . .

1

a − x

n

Splot rozkładów wykładniczych o różnych współczynnikach skali jest kombi-

nacją kwazi-wypukłą rozkładów wykładniczych, tzn. współczynniki dają w sumie
jeden ale nie muszą być wszystkie nieujemne.

52

background image

Zadanie 47 Sprawdzić, że:

() =



d

du

P

(u)

= Λ ◦ P

(u)

, u ­ 0

P

(0)

= I

wsk.
Lemat

() ⇒ P

(u)

= exp (uΛ) :=

X

n=0

u

n

Λ

n

n!

Dowód:

1)



X

n=0

u

n

Λ

n

n!



0

=

X

n=0

 u

n

Λ

n

n!



0

=

X

n=0

nu

n−1

Λ

n

n!

=

X

n=1

nu

n−1

Λ

n

n!

= Λ

X

n=1

u

n−1

Λ

n−1

(n − 1)!

=

= Λ

X

n=0

u

n

Λ

n

n!

= Λ exp (uΛ)

2)



X

n=0

u

n

Λ

n

n!



u=0

= 1

Λ

0

0!

= I

przy czym:

u

n

=



u

n

n 6= 0

1

n = 0


z tw. P ic´

arda

Ponieważ exp (uΛ) spełnia () z twierdzenia o jednoznaczności

P

(u)

= e

uΛ

4

19

Jądro stochastyczne i ich składanie

Definicja 18 A ∈ B, x ∈ X, B − σ − ciało w X
Q
(A, x) - jądro stochastyczne, gdy

1. Q( . , x) - miara probabilistyczna

2. Q(A, . ) - funkcja borelowska

53

background image

Fakt
Q

1

, Q

2

− na X

Q

1

◦ Q

2

(A, x) :=

Z

X

Q

1

(A, y)Q

2

(dy, x)

Przykład
X = {1, 2, 3, 4, 5}

Q

1

(B, y) =

X

z∈B

q(z, y)

q(z, y) : y, z ∈ {1, . . . , 5} ­ 0,

X

z

p(z, y) = 1

Q

2

(A, x) =

X

y∈A

p(y, x)

p(y, x) : x, y ∈ {1, . . . , 5} ­ 0,

X

y

p(y, x) = 1

Wtedy

Q

1

◦ Q

2

(B, x) =

5

X

y=1



X

z∈B

q(z, y)



p(y, x) =

5

X

y=1



X

z∈B

q(z, y)p(y, x)



=

=

X

z∈B

(q p)(z, x)

Komentarz
Q

1

, Q

2

- generowane przez macierze stachastyczne q, p ⇒ Q

1

◦ Q

2

jest genero-

wane przez macierz stochastyczną q p.

Komentarz
Nie wszystkie takie jądra są generowne przez macierz.
np.

X = R, Q(A, x) =

Z

A

f (y, x)dy

gdzie
f ( . , x) - gęstość miary probab. na R
f (y, . ) - mierzalna

Zadanie 48 Sprawdzić, czy Q jest jądrem stochastycznym.

Z

A

f (y, x)dy − f unkcja mierzalna wzgl. X

A 7−→

Z

A

f (y, x)dy − miara probab. na X

Komentarz
X, Y - zmienne losowe typu ciągłego, f

Y |X

(y|x) = f (y, x) - gęstość, to

Q(A, x) = P (Y ∈ A | X = x)

54

background image

Zadanie 49

f

Y |X

(y|x) = exp



1

2v

2

(1 − ρ

2

)



y −

r v

2

v

1

ρ(x − m

1

) − m

2





o ile

(X, Y ) ∼ N (m

1

, m

2

; v

1

, v

2

, ρ)

wsk.

f

Y |X

(x|y) =

f

X,Y

(x, y)

f

X

(x)

19.1

Składanie jąder powyższego typu

Q

1

◦Q

2

(A, x) =

Z

R

 Z

A

f

1

(z, y)dz



|

{z

}

Q

1

(A,y)

Q

2

(dy, x) =

Z

R

 Z

A

f

1

(z, y)dz



f

2

(y, x)dy =

=

Z

A

 Z

R

f

1

(z, y)f

2

(y, x)dy



dz

|

{z

}

f

1

◦f

2

(z,x)dz

=

Z

A

f

1

◦ f

2

(z, x)dz

19.2

Jednoparametrowa grupa jąder stochastycznych

Definicja 19 (Q

(u)

), u ­ 0 - rodzina jąder stochastycznych na X, tworzą pół-

grupę względem złożenia, gdy

Q

(u)

◦ Q

(v)

= Q

(u+v)

, Q

(0)

= I, I − jądro jednostkowe

Definicja 20 (markowskiej rodziny jąder stochast.) (Q

(u,v)

, u ­ v ­ 0)

- markowska rodzina jąder stochastycznych, jeśli



Q

(t,u)

◦ Q

(u,s)

= Q

(t,s)

, t ­ u ­ s

Q

(u,u)

= I

Definicja 21

I(A, x) =



1

x ∈ A

2

x 6= A



= X

A

(x) = δ

x

(A)



Przykład

Q

(t,s)

= Q

(t−s)

, gdzie (Q

(n)

)

0

− półgrupa jąder

55

background image

19.3

Proces stochastyczny markowski ze wskazaną rodzi-
ną markowską jąder stochastycznych o wartościach
w X

T = [0, ∞) (można rozszerzyć: T ⊂ [0.∞), 0 ∈ T )

Definicja 22 (ξ

t

)

t∈T

elementów losowych w X nazywamy procesem markow-

skim ze wskazaną rodziną jąder stochastycznych, jeśli

P

xi

0

1

,...,ξ

m

(A

0

× A

1

× . . . × A

m

) = P {ξ

0

∈ A

0

, ξ

t

1

∈ A

1

, . . . , ξ

t

m

∈ A

m

} =

=

Z

A

m

. . .

Z

A

1

Z

A

0

Q

(t

m

,t

m−1

)

(dx

m

|x

m−1

) . . . Q

(t

2

,t

1

)

(dx

2

|x

1

)Q

(t

1

,0)

(dx

1

|x

0

)Q

(0)

(dx

0

) =

=

Z

A

0

Q

(t

m

,t

m−1

)

A

m−1

Q

(t

m−1

,t

m−2

)

A

m−2

. . . ◦

A

1

Q

(t

1

,0)

(A

m

, x

0

)dQ

(0)

(x

0

)



ozn. przez P

0,t

1

,...,t

m

(A

0

× A

1

× . . . × A

m

)



gdzie Q

(0)

- pewna miara probab. na (X, B) oraz dla m = 0 mamy: P

X

0

= Q

(0)

Definicja 23

Q

1

B

Q

2

(A, x) =

Z

B

Q

1

(A, y)Q

2

(dy, x), B ∈ B, A ∈ B, x ∈ X

Przykład (dla przestrzeni przeliczalnej)
X = {1, 2, . . . , S (B = 2

X

)

Q

1

p

1

= [p

1;k,j

; k, j ∈ X]

Q

2

p

2

= [p

2;k,j

; k, j ∈ X]

p

1

, p

2

- macierze stochastyczne

Wtedy

Q

1

◦ Q

2

(p

1

p

2

)

k,j

=

X

l∈X

p

1;k,l

p

2;k,j

Q

1

B

Q

2

(p

1

B

p

2

)

k,j

=

X

l∈X

p

1;k,l

p

2;l,j

Twierdzenie 24 (Kołmogorowa - Daniella) [o istnieniu procesu] T - do-
wolny zbiór, X - przestrzeń polska (≡ metryczna, ośrodkowa i zupełna), B -
zbiory borelowskie σ
(O) = B

 założenie:

P

t

1

,...,t

m

− miara probab. na



X

m

, B ⊗ B ⊗ . . . ⊗ B

|

{z

}

m−czynników



56

background image

przyporządkowane każdemu podzbiorowi {t

1

, . . . , t

m

} ⊂ T tak, że:

P

t

1

,...,t

m

,t

m+1

(A

1

× . . . × A

m

× X) = P

t

1

,...,t

m

,

(A

1

× . . . × A

m

)

T 3 t

m+1

/

∈ {t

1

, . . . , t

m

}

(warunek zgodności)

P

t

σ(1)

,...,t

σ(m)

(A

σ(1)

× . . . × A

σ(m)

) = P

t

1

,...,t

m

,

(A

1

× . . . × A

m

)

dla dowolnej permutacji σ
(drugi warunek zgodności)

Teza:
Istnieje
(Ω, F , P ), (ξ

t

)

t∈T

, ξ

t

: (Ω, F ) −→ (X, B), t ∈ T

takie, że:

P

t

1

,...,t

m

= P

ξ

t1

t2

,...,ξ

tm

dla dowolnego ciągu różnowartościowego (t

1

, . . . , t

m

) ⊂ T .

Wniosek 13 Na mocy powyższego twierdzenia istnienie procesu Markowa dla
przestrzeni polskiej X sprowadza się do sprawdzenia, że P

0,t

1

,...,t

m

(A

0

× A

1

×

. . . × A

m

) jest zgodną rodziną prawdopodobnieństw.

W dowodzie zgodności istotną rolę odgrywa warunek markowskości użytych jąder
stochastycznych.

Dowód:
Dla sprawdzenia warunku zgodności trzeba sprawdzić:

0) (wstępy krok - ”likwidowanie zera”)

Skoro musi być spełniony warunek zgodności, to:

P

t

1

,...,t

m

(A

1

× A

2

× . . . × A

m

) := P

0,t

1

,...,t

m

(X × A

1

× . . . × A

m

)

Ponieważ definicja nie obejmuje takich rozkładów (”bez zera”), więc może-
my przyjąć powyższy warunek jako definiujący P

t

1

,t

2

,...,t

m

(A

1

× A

2

× . . . ×

A

m

), gdy 0 < t

1

< . . . < t

m

.

Zbadajmy warunki zgodności w następujacym przypadku

P

t

0

,t

1

,...,t

m

(X ×A

1

×. . .×A

m

) = P

t

1

,...,t

m

(A

1

×. . .×A

m

) 0 ¬ t

0

< t

1

< . . . < t

m

Dla t

0

= 0 nie ma co sprawdzać, bo to jest definicja prawej strony.

Dla t

0

> 0 mamy sprawdzić, czy:

P

t

0

,t

1

,...,t

m

(X × X × A

1

× . . . × A

m

) = P

0,t

1

,...,t

m

(X × A

1

× . . . × A

m

)

Pokażemy więcej:
1)

P

0,t

1

,...t

i

,t

ν

,t

i+1

,...,t

m

(A

0

×A

1

×. . . A

i

×X×A

i+1

×. . .×A

m

) =

?

P

0,t

1

,...,t

m

(A

0

×A

1

×. . .×A

m

)

57

background image

Sprawdźmy:

L = ... Q

(t

i+1

,t

ν

)

X

Q

(t

ν

,t

i

)

... = ... Q

(t

i+1

,t

i

)

... = RHS

2)

P

0,t

1

,...,t

m

,t

ν

(A

0

× . . . × A

m

× X) =

?

P

0,t

1

,...,t

m

(A

0

× . . . × A

m

)

L =

Z

A

0

Q

(t

ν

,t

m

)

A

m

Q

(t

m

,t

m−1

)

A

m−1

. . . ◦

A

1

Q

(t

1

,0)

(X, u)dQ

(0)

(u) =

L =

Z

A

0

Z

A

m

Q

(t

ν

,t

m

)

(X, v)

|

{z

}

1



Q

(t

m

,t

m−1

)

A

m−1

. . . ◦

A

1

Q

(t

1

,0)

(dν|u)



dQ

(0)

(u) =

=

Z

A

0

Q

(t

m

,t

m−1

)

A

m−1

. . . ◦

A

1

Q

(t

1

,0)

(A

m

|u)dQ

(0)

(u) = RHS

Zadanie 50 Sprawdzić, czy przestrzeń rzeczywista, skończenie wymiarowa jest
polska, tzn. czy jest metryczna, zupełna i ośrodkowa.

metryczność - oczywista
zupełność: wiemy, że:

• Każdy ciąg podstawowy jest zbieżny.

• Zbiór liczb rzeczywistych jest przestrzenią zupełną.

Niech X

(n)

∈ X

d

, X - przestrzeń zupełna

ρ

X

d

(x

1

, . . . , x

d

), (y

1

, . . . , y

d

)

 = max

j

ρ

X

(x

j

, y

j

)

ρ (x

(n)
1

, . . . , x

(n)
d

), (x

(m)
1

, . . . , x

(m)
d

)



−→

n,m→∞

0 ⇒ ∃!(x

1

, . . . , x

d

) = lim

n→∞

(x

(n)
1

, . . . , x

(n)
d

)

Wynika stąd, że

j

ρ

X

(x

(n)
j

, x

(m)
j

) −→ 0 ⇒ ∀

j

x

j

ρ

X

(x

(n)
j

, x

j

) = 0

Zatem

(x

1

,...,x

d

)

ρ

X

d

(x, x

(n)

) −→ 0

tzn. (R

d

, ρ

(d)
eukl.

) - przestrzeń zupełna.

ośrodkowość:

Q

d

− przeliczalna

Q

d

R

d

Q

d

= R

d

R

d

jest ośrodkowa

Zatem R

d

jest przestrzenią polską.

Komentarz

ρ

(d)
eukl.

¬

(d)
max

58

background image

Dowód:

(ρ

(d)
eukl.

)

2

=

X

j

ρ

(d)

(j)



2

¬

X

j

max ρ

(d)

(j)



2

¬ d max ρ

(d)

(j)



4

C[0, 1], | . |

 - polska przestrzeń Banacha

Komentarz [norma a metryka]

x ∈ X 7−→k x k − norma

ρ(x, y) (x, y) ∈ X − metryka

Twierdzenie 25 Zał. X - liniowa

k . k − norma ⇒

k x − y k; x, y ∈ X

 jest metryką

Fakt
Procesy o przyrostach niezależnych na R

d

są markowskie.

Dowód:
µ

(t,s)

- miara na R

d

, t, s ­ 0, t ­ s, t, s ∈ T ⊂ R

dodatkowy warunek:

µ

(t,s)

∗ µ

(u,s)

= µ

(t,s)

, t ­ u ­ s ­ 0, u, t, s ∈ T

Komentarz
Pragniemy, aby

µ

(t,s)

= P

X

t

−X

s

, (X

t

)

0

− proces stochast.

Znajdźmy (Q

(t,s)

)

t­s­0

- rodzinę markowską jąder stochastycznych takiego wła-

śnie procesu.

Q

(t,s)

(A, x) = P {X

t

∈ A|X

s

= x} ≡ P {X

t

−X

s

∈ A−x|X

s

= x} = µ

(t,s)

(A−x)

Więc weźmy

Q

(t,s)

(A, x) = µ

(t,s)

(A − x)

Sprawdzimy:

1. (Q

(t,s)

)

t,s­0, t,s∈T

jest rodziną markowską jąder stochastycznych

2. Jeśli (X

t

)

t∈T , t­0

jest procesem markowskim z powyższymi jądrami, to

jest to proces o przyrostach niezależnych i przy tym

P

X

t

−X

s

= µ

(t,s)

59

background image

Ad.1)
Mamy:

Q

(t,u)

◦Q

(u,s)

=

Z

R

d

Q

(t,u)

(B, x)Q

(u,s)

(dx, z) =

Z

R

d

µ

(t,u)

(A−x)µ

(t,u)

(dx−z) =

=

Z

R

d

µ

(t,u)

A − (x + z)



(u,s)

(x) =

Z

R

d

µ

(t,u)

(A − z) − x



(u,s)

(x) =

= µ

(t,u)

∗ µ

(u,s)

(A − z) = µ

(t,s)

(A − z) = Q

(t,s)

(A, z)

gdyż
µ

(t,s)

-miara na R

d

, t, s ­ 0, t ­ s, t, s ∈ T ⊂ R

dodatkowy warunek:

µ

(t,s)

∗ µ

(u,s)

= µ

(t,s)

, t ­ u ­ s ­ 0, u, t, s ∈ T

Mamy pokazać, że x 7−→ (A + x) mierzalna względem x.
Pokażemy dla przypadku, gdy A - przedział:

A = [a, b), x ∈ R

d

µ(A + x) = µ[a + x, b + x) =

X

ε∈{0,1}

d

F

µ

(ab

ε

)(1)

P

d

i=1

ε

i

−d

gdzie

ab

ε

= a

i

+ x

i

+ ε(b

i

− a

i

); i = 1, . . . , d



F

µ

- dystrybuanta miary µ

F

µ

- funkcja mierzalna (borelowska)

x 7−→ ab

ε

jest ciągłe

20

Kontynuacja tematu procesów gaussowskich
[ze str.12]

Twierdzenie 26 Zał. (X

t

, t ∈ T ), T - dowolny zbiór

c : T × T −→ R,

m : T −→ R

c

t,s

= c

s,t

, ∀

{t

1

,...,t

m

}⊂T

[c

t

i

,t

j

: i, j = 1, . . . , m] ­ 0

Teza:
Istnieje proces gaussowski
(X

t

, t ∈ T ) taki, że



Cov{X

t

, X

s

} = c

t,s

EX

t

= m

t

60

background image

Dowód:

(R, ρ

eukl.

) − prz. polska,

B

(1)

= σ(O

(1)

), B

(m)

= B

(1)

⊗ . . . ⊗ B

(1)

Mamy sprawdzić zgodność. Przyjmijmy oznaczenia:

N m

t

1

, . . . , m

t

m

, m

t

m+1

; [c

t

i

,t

j

: i, j = 1, . . . , m + 1]

 =:

e

Q

N m

t

1

, . . . , m

t

m

; [c

t

i

,t

j

: i, j = 1, . . . , m]

 =: Q

Zatem

Q − miara probab. na (R

m

, B

(m)

) = (R, B

(1)

)

m

e

Q − miara probab. na (R, B

(1)

)

m+1

Sprawdzimy, czy

Q

1

= (A

1

, A

m

) := e

Q(A

1

×. . .×A

m

×R) =

?

Q(A

1

×. . .×A

m

), A

1

, . . . , A

m

∈ B

(1)

Zauważmy, że Q

1

- miara probab. na R

m

, bo

ϕ

Q

1

=

Z

R

m

e

itx

T

dQ

1

(x) =

Ponieważ

Q

1

(A

1

× . . . × A

m

) = e

Q(A

1

× . . . × A

m

× R) = e

Q π

1

(A

1

× . . . × A

m

)



gdzie π

1

- rzut na n pierwszych współrzędnych. Skorzystamy z

Twierdzenie 27

Z

R

m

ψ(x)dQ

1

(x) =

Z

R

m+1

ψ π(y)

d

e

Q(y),

Q

1

= e

Q ◦ π

1

Zatem:

ϕ

Q

1

(t) =

Z

R

m+1

e

it(y

1

,...,y

m

)

T

d e

Q(y

1

, . . . , y

m+1

) =

Z

R

m+1

e

i(t,0)y

T

d e

Q(y

1

, . . . , y

m+1

) =

= ϕ

e

Q

(t, 0) = e

i(t,0)m

T

e

1
2

(t,0)c(t,0)

T

=



gdzie m = (m

t

1

, . . . , m

t

m

, m

t

m+1

), c = [c

t

i

,t

j

; i, j = 1, . . . , m + 1]



= e

it(m

t1

,...,m

tm

,m

tm

)

T

e

1
2

t[c

ti,tj

;i,j=1,...,m]t

T

= ϕ

Q

(t)

4

P

X

t

= N (m

t

, c

tt

)

P

X

t

,X

s

= N (m

t

, m

s

;



c

tt

c

ts

c

st

c

ss



)

EX

t

= m

t

,

Cov(X

t

, X

s

) = c

ts

61

background image

Zadanie 51 Pokazać, że:

µ

(1,1)

N (m

1

, m

2

;



c

11

c

12

c

21

c

22



)

 = c

12

, o ile c

12

= c

21

Uwaga
Zał. x

1

, . . . x

m

∈ L, L - prz. Hilberta, rzeczywista, liniowa z iloczynem skalar-

nym hx, yi, zupełna

hx, xi ­ 0,

hx, xi = 0 x = 0

Teza:

[hx

j

, x

k

i : j, k = 1 . . . , m]

|

{z

}

c

­ 0

Dowód:
a

1

, . . . , a

m

R

a c a

T

=

X

j,k

a

j

hx

j

, x

k

ia

k

=

D X

j

a

j

x

j

,

X

k

a

k

x

k

E

­ 0

4

Uwaga
Jeśli c symetryczna, to

c

m×m

­ 0 ⇒ ∃

L,x

1

,...x

m

∈L

c

j,k

= hx

j

, x

k

i

Dowód:
Jeżeli c - symetryczna, to istnieje d - diagonalna i u - ortogonalna taka, że

c = u u

T

różnym d odpowiadają ortogonalne wektory własne
u = [v

T

1

, . . . , v

T

m

, ] - tworzą układ ortonormalny

u

1

= u

T

,

h

bo u

T

u = I

i

c ­ 0 d ­ 0

c = u

d

d u

T

= (u

d)(u

d)

T

= [hw

j

, w

k

i; j, k = 1, . . . , m]

gdzie w

j

oznacza j-ty wierz macierzy u

d

Wynikanie odwrotne bez dowodu.

4

Komentarz
Macierz kowariancji c jest macierzą Grama.

Komentarz
Podobne konstrukcje można uzyskać dla funkcji nieujemnie określonych. Jest to
jednak bardziej złożone.

62

background image

21

Biały szum dyskretny

Ciąg zmiennych losowych (X

n

; n = 0, 1, . . .)

h

(X

n

; n ∈ Z)

i

, X

n

n.j.r. o skoń-

czonym drugim momencie

EX

n

= 0,

V arX

n

= v

ρ

2



W szczególności to może być gaussowski.

Definicja 24 (Proces Ornstein-Uhlenbeck) (X

t

, t ­ 0) - gaussowski

h

(X

t

; t ∈

R)

i

EX

t

= 0, K(t, s) = Cov(X

t

, X

s

) ≡ c

t,s

= ρ

2

exp(−α|t − s|), t, s ­ 0

22

Procesy stacjonarne

Definicja 25 (proces stacjonarny w węższym sensie) (X

t

)

t∈T

,

T ⊂ R

jest stacjonarny w węższym sensie, gdy

{t

1

,...,t

m

}⊂T

τ : (t

j

+ τ ∈ T ) (X

t

1

, . . . , X

t

m

) =

d

(X

t

1

+τ

, . . . , X

t

m

+τ

)

Przykład
1) Proces Ornstein-Uhlenbeck, gdyż mamy:

P

X

t1

,...,X

tm

= N



0,

K(t

i

− t

j

); i, j = 1, . . . , m





K(n) = ρ

2

exp(−α|u|)

P

X

t1+τ

,...,X

tm+τ

= N



0,

h

K t

i

+ τ − (t

j

+ τ )

 = K(t

i

− t

j

); i, j = 1, . . . , m





gdzie K(t − s) = Cov(X

t

− X

s

) 6= 0

Zatem jest stacjonarny.

2) Biały szum dyskretny

(X

t

1

, . . . , X

t

m

) ∼ P

X

× . . . × P

X

|

{z

}

m−czynników

, t

i

6= t

j

dla i 6= j

X

t

1

+τ,...,t

m

+τ

nadal n.j.r.

Więc

(X

t

1

+τ

, . . . , X

t

m

+τ

) ∼ P

X

× . . . × P

X

|

{z

}

m−czynników

Wniosek 14 Ciąg zmiennych losowych n.j.r jest przykładem procesu stacjonar-
nego w węższym sensie.

Definicja 26 (proces stacjonarny w szerszym sensie) (X

t

)

t∈T

, T ⊂ R

jest stacjonarny w szerszym sensie, gdy

63

background image

1. EX

2

t

< ∞ t ∈ T

2. EX

t

= m (const.)

3. ∃

K:RR

Cov(X

t

, X

s

) = K(t − s)

Zadanie 52 Pokazać, że jeżeli proces jest stacjonarny w węższym sensie oraz
EX

2

t

< ∞, to jest on stacjonarny w szerszym sensie.

Przykład
1) X

0

, X

1

, . . . - nieskorelowane, nie są niezależne, o skończonym drugim momen-

cie takie, że

V arX

n

= v, n = 0, 1, 2, . . .

2) niezależne o m = 0, v > 0 ale o różnych rozkładach

Proces jest stacjonarny:

1. w węższym sensie: rozkłady niezmiennicze ze względu na przesunięcia (do-

wolne, skończenie wymiarowe)

2. w szerszym sensie: EX

2

t

< ∞, EX

t

= const., Cov(X

t

, X

s

) = K(t − s)

Uwaga 1



EX

2

t

< ∞



⇒ istnieje



Cov(X

t

, X

s

)



Uwaga 1

D

2

X

t

< ∞, D

2

X

s

< ∞ ⇒ |Cov(X

t

, X

s

)| ¬

p

V arX

t

, V arX

s

Dowód:

f, g ∈ L

2



|

Z

X

f gdµ |¬



Z

X

f

2



1
2



Z

X

g

2



1
2

bigg)

22.1

Przykład (całka prymitywna)

(X

t

)

0

0 = t

0

< t

1

< . . . < t

m

S =

m

X

j=1

(X

t

j

− X

t

j−1

)W

j

Obliczyć ES = ?, D

2

S = ?

ES =

m

X

j=1

W

j

E(X

t

j

− X

t

j−1

) =

m

X

j=1

W

j

(m

t

j

− m

t

j−1

)

64

background image

h

D

2

{S|W }

i

= D

2

S =

m

X

j,k=1

Cov (X

t

j

− X

t

j−1

)W

j

, (X

t

k

− X

t

k−1

)W

k

 =

=

m

X

j,k=1

W

j

W

k

Cov(X

t

j

−X

t

k

)−Cov(X

t

j

−X

t

k−1

)−Cov(X

t

j−1

−X

t

k

)+Cov(X

t

j−1

−X

t

k−1

)

 =

=

m

X

j,k=1

W

j

W

k

K(t

j

, t

k

) − K(t

j−1

, t

k

) − K(t

j

, t

k−1

) + K(t

j−1

, t

k−1

)

K(t, s) = Cov(X

t

, X

s

)

Komentarz
Dla losowych W , niezależnych od X mamy:

E{S|W } =

m

X

j−1

W

j

(m

t

j

− m

t

j−1

)

22.2

Przykład (całka mniej prymitywna)

S(t) =

Z

t

0

X

u

du



np.

= R −

Z

t

0

X

u

du, gdy X

.

(ω) całkowalna



ES(t) =

Z



Z

t

0

X

u

(ω)du



dP r(ω)

()

=

Z

t

0

( X

u

|{z}

m

u

)du

(*) - o ile mamy mierzalność względem dwóch zmiennych.

D

2

S(t) =

Z



Z

t

0

X

u

du



Z

t

0

X

v

dv



dP r −



Z

t

0

EX

u

du



2

= . . . =

=

Z



Z

t

0

(X

u

−m

u

)du



Z

t

0

(X

v

−m

v

)dv



dP r =

Z

Z

[0,t]

2

(X

u

−m

u

)(X

v

−m

v

)

dudv

(∗∗)

=

=

Z

[0,t]

2

E(X

u

− m

u

)(X

v

− m

v

)

|

{z

}

Cov(X

u

,X

v

)

dudv =

Z

[0,t]

2

K(u, v)
|

{z

}

f.kowar.

dudv

(**) - o ile mamy mierzalność względem trzech zmiennych.

Przykład

S

3

(t) =

Z

t

0

X

2

u

du

ES

3

(t) =

Z

t

0

(EX

2

u

)du =

Z

t

0

m

2
u

+ K(u, u)

du

ES

2

3

(t) =

Z

[0,t]

2

Cov(X

2

u

, X

2

v

)dudv (pojawią się momenty rzędu 4)

65

background image

Komentarz
Jeżeli ograniczymy się do funkcji wartości średniej oraz funkcji kowariancji, to
nie uzyskujemy pełnego opisu procesów.
Jednakże dla procesów gaussowskich starcza to do pełnej charakterystyki roz-
kładów skończenie wymiarowych.

Przykład
Dla procesu Ornsteina-Uhlenbecka mamy:
(X

t

)

0

gaussowski, (m

t

= 0)

0

, K(t, s) = σ

2

exp(−α|t − s|) dla t, s ­ 0

S(t) =

Z

t

0

X

u

du

ES(t) =

Z

t

0

m

u

du =

Z

t

0

0du = 0

V arS(t) =

Z

t

0

Z

t

0

K(u, v)dudv = 2σ

2

Z

t

0



Z

u

0

e

−α(u−v)

dv



du =

=

h

2σ

2

Z

t

0

e

−αu

1

α

e

αu

i

u

v=0

du = 2σ

2

1

α

Z

t

0

e

−αu

(e

αu

1)du =

2σ

2

α

t−

1

α

(1−e

−αt

)

 =

=

2σ

2

α

e

−αt

(1 − αt)

 =

2σ

2

α

2

(αt − 1 + e

−αt

)

2σ

2

α

t −

1

α

+ o(1)



Komentarz

f (t) jest o g(t)

, t → t

0

f (t)

g(t)

0 przy t → t

0

Przykład

S

3

(t) =

Z

t

0

X

2

u

du

D

2

S

3

(t) = ?

Cov(X

2

s

, X

2

t

) = ?

EX

2

t

= m

2
t

+ K(t, t) = 0

2

+ σ

2

e

−α0

= σ

2

Cov(X

2

s

, X

2

t

) = E(X

2

s

− σ

2

)(X

2

t

− σ

2

) = EX

2

s

X

2

t

− σ

2

EX

2

t

− σ

2

EX

2

s

+ σ

4

EX

2

s

X

2

t

= ?

P

X

s

X

t

= N (0, 0),



σ

2

σ

2

e

−α|t−s|

σ

2

e

−α|t−s|

σ

2





P

X

0

X

u

= N (0, 0), σ

2



1

e

−αu

e

−αu

1





E(X

0

, X

u

) = (0, 0)

m

(2,2)

EX

2

0

X

2

u

= µ

(2,2)

(P

X

0

,X

u

)

1)

m

(2,2) def

=

Z

−∞

Z

−∞

x

2

y

2

f

P

X0,Xu

(x, y)dxdy

66

background image

2)

m

(2,2)

=

4

∂w

2

1

∂w

2

2

ϕ

P

X0,Xu

(0, 0) =

=

4

∂w

2

1

∂w

2

2

exp

σ

2

2

[w

1

, w

2

]



1

e

−αu

e

−αu

1

 

w

1

w

2





w

1

=w

2

=0

=

=

4

∂w

2

1

∂w

2

2



1

σ

2

2

Q(w

1

, w

2

) +

σ

4

4 · 2

Q(w

1

, w

2

)



2

+ wyr. st. 6 i wyższego



=

=

4

∂w

2

1

∂w

2

2



σ

4

8

(w

2

1

+ w

2

2

+ 2e

−αu

w

1

w

2

)

2



w

1

=w

2

=0

=

= 4

σ

4

8

4

∂w

1

∂w

2

2w

2

1

w

2

2

+ 4e

2αu

w

2

1

w

2

2



w

1

=w

2

=0

=

=

σ

4

2

(2 + 4e

2αu

) = σ

4

(1 + 2e

2αu

)

Przykład
(X

t

)

0

,

(m

t

= 0)

0

K(t, s) = σ

2

exp(−α|t − s|) nie gaussowski, przyjmuje

tylko wartości ±1

Λ =



−µ

λ

µ

λ



µ, λ > 0 e

Λu

= P

(u)

EX

t

= 0, t ­ 0

Cov(X

t

, X

s

) = ?

P

X

t

,X

s

(i, j) = P

X

t

|X

s

(i|j)P

X

s

(j) t > s

Cov(X

t

, X

s

) = 1 · 1P

1,1

+ (1) · 1P

1,1

+ 1(1)P

1,−1

+ (1)(1)P

1,−1

=

=

1

2

e

−α(t−s)

+

1

2

 1

2

· 2

1

2

1

2

e

−α(t−s)

 1

2

· 2 = e

−α(t−s)

, t > s

67


Wyszukiwarka

Podobne podstrony:
Procesy stochast id 393917 Nieznany
5 VC Proces inwestycyjny JP FOP Nieznany
proces trojfazowego osadu czynn Nieznany
PROCES INWESTYCYJNY Osrodek id Nieznany
proces produkcji hustawki drewn Nieznany
Procesy poznawcze - ćwiczenia (mgr Kossakowska Petrycka) - skrypt, SŁOWO PISANE, NA RÓŻNE SPOSOBY, P
Procesy Stochastyczne, zaliczenie, 1
Proces Uruchamiamia Systemu id Nieznany
Procesy cieplne inzynieria Zajr Nieznany
PROCESY ZMECZENIA id 393943 Nieznany
Proces patogenezy id 393540 Nieznany
Procesy organizowania id 393848 Nieznany
Procesy poznawcze wyklady Wykla Nieznany
IO wyk2 procesIO v1 id 556045 Nieznany
PROCESORY wprowadzenie id 39370 Nieznany
Proces decyzyjny id 393467 Nieznany
PROCES PIELEGNOWANIA id 393554 Nieznany
proces stochastyczny
proces legislacyjny id 393524 Nieznany

więcej podobnych podstron