WYKŁAD 1
Literatura
• A. Plucińska, E. Pluciński, Probabilistyka (WNT),
2000
• D. Bobrowski, Probabilistyka w zastosowaniach
technicznych (WNT)
A. Wentzell, Wykłady z teorii procesów
stochastycznych, 1980
M. Chudy, Procesy stochastyczne: zbiór zadań,
skrypt WAT, 1971
O. Tikhonenko, Metody probabilistyczne analizy
systemów informacyjnych, 2006
L. Kowalski, Statystyka, skrypt WAT, 2005
1
( ,
Ω S, P) - ustalona przestrzeń probabilistyczna.
T ⊂ R , przedział (skończony lub nieskończony),
lub podzbiór dyskretny.
2
Def.
Funkcję
X : T × Ω → R
nazywamy procesem
stochastycznym jeśli
∧ ∧{ω: X t(,ω)< } x∈ S
t T
∈
x∈ R
czyli dla każdego ustalonego t funkcja X rozważana jako funkcja argumentu ω jest zmienną losową.
Najczęściej w zastosowaniach interpretujemy t jako czas.
Stosujemy zapis
X ( t,ω) = X (ω) = X ( t) t
3
Przykład.
Amplituda napięcia generowanego przez prądnicę
prądu zmiennego zależy od czynników losowych
i może być zapisana jako proces
X ( t) = A sin wt
w - stała określająca częstotliwość,
A - zmienna losowa o rozkładzie np. N(230, 5),
t - czas, t ∈ R.
4
Realizacje procesu
Dla ustalonego ω ∈ Ω i dowolnego t ∈ T
przyjmujemy
x( t) = X ( t,ω)
Funkcja x określona na T nie ma charakteru
losowego, nazywamy ją realizacją procesu
stochastycznego (wyraża ewolucję w czasie
wybranego zdarzenia losowego).
W powyższym przykładzie proces ma nieskończenie
wiele realizacji.
5
Wartości procesu nazywamy stanami.
Zbiór wszystkich stanów nazywamy przestrzenią
stanów.
6
Rodzaje procesów
Czas Stany
Przykład
nazwa procesu
C
C
jak wyżej, lub proces Gaussa,
CC
C
D
proces Poissona,
CD
D
C
n - wymiarowy rozkład normalny,
DC
D
D
łańcuchy Markowa.
DD
7
Niech t1 < t2 < ... < tn . Rozpatrzmy n wymiarową zmienna losową ( X , X ,..., X
t
t
t
1
2
n )
Rozkład
prawdopodobieństwa
tej
zmiennej
losowej nazywamy n-wymiarowym rozkładem
procesu stochastycznego a dystrybuantę tej
zmiennej
losowej
nazywamy
n-wymiarową
dystrybuantą procesu stochastycznego.
8
Uwaga.
1) Nie każda funkcja która dla ustalonego t jest dystrybuantą n-wymiarowej zmiennej losowej
może być dystrybuantą procesu stochastycznego.
Muszą być dodatkowo spełnione tzw. warunki
zgodności.
2) Znajomość dystrybuanty n-wymiarowej dla
dowolnego n, tzn. znajomość wszystkich
rozkładów skończenie wymiarowych procesu
stochastycznego nie określa w sposób
jednoznaczny procesu stochastycznego. Niektóre
procesy mają taką własność, są to np. procesy
ośrodkowe.
9
Parametry procesu stochastycznego.
Wartość oczekiwana procesu.
m t
( ) = E( X t )
10
Wariancja procesu.
2
V ( t) = D ( t) = E (
( X − m( t)
t
)2)
11
Autokowariancja
K ( t , t ) = E X − m t X
− m t
1
2
(
( )
t
1
1
)(
( )
t
2
2
)
12
Autokowariancja unormowana
K ( t , t )
ρ( t , t )
1
2
=
1
2
V ( t ) V ( t )
1
2
13
Autokorelacja
R( t , t ) = E X X
1
2
( t t
1
2 )
14
Własności:
2
1)
V ( t) = D ( t) = K ( t, t) K ( t , t ) = R( t , t ) − m t m t 1
2
1
2
( 1) ( 2)
2)
K ( t , t ) ≤ V t V t
1
2
( 1) ( 2)
3)
15
1.
Z powyższych własności wynika, że
praktycznie wystarczy wyliczyć m( t) i R( t , t ) a 1
2
pozostałe parametry uzyskamy na ich podstawie.
2.
Przy obliczaniu parametrów przydatne
bywają następujące zależności znane z rachunku
prawdopodobieństwa
2
2
EX
= D X + ( EX )2 , bo
2
2
D X = EX − ( EX )2
EXY = Cov( X , Y ) + EXEY bo Cov( X , Y ) = EXY − EXEY
Cov( X , Y )
Cov ( X , Y ) = ρ DXDY
ρ =
bo
DXDY
16
Przykład.
Obliczymy parametry procesu
X t
( ) = At + B , t ∈ R
A, B - zmienne losowe o parametrach
EA = 0; EB = 1,
i D 2 A = 1, D 2 B = 2; cov(A, B) = -1.
17
Wartość oczekiwana:
m( t) = E( Xt ) = E( At + B) = tEA + EB = 1
Autokorelacja:
R( t , t ) = E X X
t
t
= E At + B At + B =
1
2
( 1 2) ( 1 )( 2 )
= E( 2
A t t + AB t + t + B =
1 2
(1 ) 2
2
)
= t t E A + t + t E AB + E B =
1
( 2
2
) (1 ) ( ) ( 2
2
)
=
t t D A + EA
+ t + t
A B + EAEB + D B + EB =
1
( 2
2
( )2) (1 )(cov( , )
) 2
2
( )2
= t t + + t + t − + ⋅ + + = t t − t − t +
1 2 (1
0) ( 1
2 )( 1
0 )
1
2 1
3
1 2
1
2
Autokowariancja:
K ( t , t ) = R( t , t ) − m t m t
= t t − t − t +
1
2
1
2
( 1) ( 2)
2
1 2
1
2
Wariancja:
V ( t )
2
= t − 2 t + 2 = ( t − 1)2 + 1
Zauważmy, że wariancja tego procesu jest nie
mniejsza niż 1 dla dowolnego t.
Współczynnik autokorelacji:
K ( t , t )
t t − t − t + 2
ρ( t , t )
1
2
1 2
1
2
=
=
1
2
V ( t ) V ( t )
1
2
( t − + t − +
1
)2
2
1
1 ( 2
)1 1
18
Proces stochastyczny X nazywamy procesem o
przyrostach niezależnych, jeśli dla dowolnego naturalnego n, dowolnych Niech t0 < t1 < ... < tn zmienne losowe
X , X
X
X
X
t
t −
,......,
t
t
−
0
1
0
n
tn 1
−
są niezależne.
Przykład: proces Poissona, proces Wienera.
19
Proces
stochastyczny
X
o
przyrostach
niezależnych nazywamy jednorodnym, jeśli dla dowolnego nieujemnego t, X(0, ω) = 0 i dla
dowolnych t1 < t2 rozkład różnicy zmiennych losowych
X
− X
t
2
1
t
zależy tylko od różnicy t2 - t1 ( nie zależy od t1 ).
Przykład: proces Poissona.
20
Proces
stochastyczny
nazywamy
procesem
normalnym (procesem Gaussa) jeśli wszystkie n-wymiarowe rozkłady tego procesu są normalne.
21
Jednorodny proces normalny o przyrostach
niezależnych dla którego
m(t) = 0
V ( t) = ct
c = const, c > 0
nazywamy procesem Wienera (procesem ruchu
Browna).
22
Procesy stacjonarne to procesy, których realizacje mają postać losowych odchyleń od pewnej wartości i charakter tych odchyleń nie ulega zmianie w czasie np. napięcie w sieci energetycznej, szumy losowe w radiotechnice. Dla procesów stacjonarnych
łatwo
eksperymentalnie
wyznaczyć
charakterystyki.
23
Proces jest stacjonarny w węższym sensie (ściśle stacjonarny) gdy wszystkie jego charakterystyki
nie zależą od czasu.
24
Proces jest stacjonarny w szerszym sensie (słabo stacjonarny) gdy ma stałą wartość oczekiwaną a
jego funkcja autokowariancyjna zależy wyłącznie
od różnicy argumentów tzn.
m(t) = m = const
K ( s, t) = k ( t − s) = k τ
( )
τ = t − s
Jeśli charakterystyki istnieją to każdy proces ściśle
stacjonarny jest słabo stacjonarny, odwrotna
własność nie musi zachodzić (wyjątek - procesy
gaussowskie).
25