O warunkowej bliskosci sigma ciał i zbieznosci warunkowych wartosci oczekiwanych P Sielski


Piotr Sielski
O warunkowej bliskości sigma-ciał
i zbieżności warunkowych wartości oczekiwanych
1
Spis treści
1 Wstęp 2
2 Podstawowe fakty i definicje 3
2.1 Ã-ciaÅ‚a, uzupeÅ‚nienia, funkcje Á, Á . . . . . . . . . . . . . . . . 3
2.2 Warunkowa wartość oczekiwana . . . . . . . . . . . . . . . . . 6
3 Twierdzenia o otulaniu i przybliżaniu Ã-ciaÅ‚ 9
3.1 Twierdzenie o otulaniu Ã-ciaÅ‚ . . . . . . . . . . . . . . . . . . 9
3.2 Przykłady . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.3 Twierdzenie o warunkowym otulaniu Ã-ciaÅ‚ . . . . . . . . . . . 11
3.4 Przykłady . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.5 Twierdzenie o przybliżaniu Ã-ciaÅ‚ . . . . . . . . . . . . . . . . 17
3.6 Przykłady . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4 Twierdzenie o odległości operatorów w.w.o. 19
4.1 Twierdzenie o odległości operatorów w.w.o. . . . . . . . . . . . 19
4.2 Przykłady . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.3 Wnioski z twierdzenia o odległości operatorów . . . . . . . . . 24
5 Zbieżność warunkowych wartości oczekiwanych, a zbieżność
Ü
Ã-ciaÅ‚ w metryce d 26
Ü
5.1 Metryka d . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5.2 Zbieżność warunkowych wartości oczekiwanych, a zbieżność
Ü
Ã-ciaÅ‚ w metryce d . . . . . . . . . . . . . . . . . . . . . . . . 27
5.3 Przykłady . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6 Literatura 33
1
1 Wstęp
Celem pracy jest przedstawienie oraz rozwinięcie rezultatów dotyczą-
cych przybliżania i otulania Ã-ciaÅ‚. PojÄ™cia te zostaÅ‚y wprowadzone w pracy
R. Jajtego i A. Paszkiewicza (patrz [3]). Zdefiniowane sÄ… one przy pomocy
następujących wielkości:
Á(B, A) = sup inf P (A B)
A"A
B"B
Á(B, A) = sup inf P (A\B)
A"AAƒ"B
B"B
Powyższe definicje, jak również fakty z nimi związane zawarte są w rozdziale
drugim. Dalsza część pracy opiera się w znacznej mierze na twierdzeniach
udowodnionych w pracach [3] i [4]. Udowodniono w nich, że jeÅ›li Á(B, A) <
(F,P)
to istnieje zbiór Z " Ã(A, B) taki, że P (Z) < 22 , oraz B\Z ‚" A \Z,
gdzie A, B ‚" F. Podobne twierdzenie udowodniono również dla funkcji Á.
Rozdział trzeci zawiera te twierdzenia oraz przykłady ilustrujące istotność
poczynionych założeń. Ponadto znajduje się w nim uogólnienie twierdzenia
dotyczÄ…cego otulania Ã-ciaÅ‚. Podobnymi metodami do użytych w pracach [3]
i [4] dowodzimy wersji warunkowej twierdzenia o otulanu Ã-ciaÅ‚. Rezultaty
te posłużyły w dalszej części pracy do zbadania odległości operatorów wa-
runkowej wartoÅ›ci oczekiwanej, w zależnoÅ›ci od wielkoÅ›ci Á i Á. W rozdziale
czwartym dowodzimy, że jeśli EA, EB : L" L1, to:
||EA - EB||",1 264 max(Á(A, B), Á(B, A)).
Powyższe twierdzenie, ze zmienionÄ… staÅ‚Ä…, zachodzi również dla funkcji Á. W
tym samym paragrafie zawarte są również oszacowania dla norm L",p.
W rozdziale piÄ…tym w rodzinie pod- Ã-ciaÅ‚ F wprowadzona zostaÅ‚a, wedle
pomysłu dr Krzysztofa Kaniowskiego, następująca metryka:
Ü
d(A, B) = max(Á(A, B), Á(B, A)).
Dowodzimy, że dla X " L"(&!, F, P ) zbieżność ciÄ…gu Ã-ciaÅ‚ An ‚" F w tej
metryce implikuje zbieżność warunkowych wartości oczekiwanych E(X|An)
w przestrzeni Lp. Okazuje się, że pewne wzmocnienie założeń daje nam znacz-
nie więcej, zbieżność prawie pewną ciągu E(X|An). W tym samym rozdziale
dowodzimy również twierdzenia o zbieżności ciągu E(X|An) w przestrzeni L1
dla X " L1(&!, F, P ). Na zakończenie podajemy kilka przykładów ilustrują-
cych niezbędność poczynionych założeń.
2 Podstawowe fakty i definicje
W rozdziale tym zamieścimy definicje oraz twierdzenia wykorzystywane
w dalszej części pracy.
2.1 Ã-ciaÅ‚a, uzupeÅ‚nienia, funkcje Á, Á
Definicja 2.1.1 (Ã-ciaÅ‚o) RodzinÄ™ A podzbiorów &! nazywamy Ã-ciaÅ‚em je-
żeli spełnia następujące trzy warunki:
1. " " A;
2. Jeśli A " A to Ac " A;
"
3. Jeśli Ai " A dla i = 1, 2, . . . , to Ai " A
i=1
Definicja 2.1.2 (Miara probabilistyczna) Miarą probabilistyczną będziemy
nazywać dowolnÄ… funkcjÄ™ P , okreÅ›lonÄ… na Ã-ciele zdarzeÅ„ A ‚" 2&!, speÅ‚nia-
jÄ…cÄ… warunki:
1. P : A R+ *" {0};
2. P (&!) = 1;
3. Jeśli Ai " A, i = 1, 2, . . . oraz Ai )" Aj = " dla i = j, to

" "

P ( Ai) = P (Ai).
i=1 i=1
W dalszej części pracy P będzie zawsze oznaczało miarę probabilistyczną.
Definicja 2.1.3 (Przestrzeń probabilistyczna) Przestrzenią probabilistyczną
nazywamy trójkÄ™ (&!, A, P ), gdzie A jest Ã-ciaÅ‚em podzbiorów zbioru &!, zaÅ›
P dowolnÄ… miarÄ… probabilistycznÄ… na A.
Definicja 2.1.4 UzupeÅ‚nieniem Ã-ciaÅ‚a A wzglÄ™dem miary P nazywamy ro-
dzinÄ™ podzbiorów &!, dla których istniejÄ… zbiory A1, A2 " A takie, że A1 ‚"
P
A ‚" A2 oraz P (A2\A1) = 0. RodzinÄ™ tÄ™ bÄ™dziemy oznaczać A lub, gdy nie
ma wątpliwości o jaką miarę chodzi, po prostu A.
Fakt 2.1.5 Rodzina A jest Ã-ciaÅ‚em.
Dowód :
Oczywiście " " A.
JeÅ›li A " A to istniejÄ… zbiory A1, A2 " A takie, że A1 ‚" A ‚" A2 oraz
P (A2\A1) = 0. Zatem Ac ‚" Ac ‚" Ac oraz P (Ac\Ac) = 0, czyli Ac " A.
2 1 1 2
Jeśli A1, A2, . . . " A to dla dowolnego k " N istnieją zbiory Ak, Ak " A takie,
1 2

że Ak ‚" Ak ‚" Ak oraz P (Ak\Ak) = 0. StÄ…d Ak ‚" Ak ‚" Ak
1 2 2 1 k"N 1 k"N k"N 2

oraz P ( Ak\ Ak) = 0, czyli Ak " A.
k"N k"N 1 k"N
2

Niech (&!, F, P ) będzie przestrzenią probabilistyczną. Zauważmy, że miarę
P można w naturalny sposób rozszerzyć na Ã-ciaÅ‚o F. Zgodnie z definicjÄ…
2.1.4 jeÅ›li F " F, to istniejÄ… zbiory F1 ‚" F ‚" F2 takie, że P (F2\F1) = 0.
KÅ‚adÄ…c P (F ) = P (F1) = P (F2) otrzymujemy rozszerzenie miary P na F.
Definicja 2.1.6 UzupeÅ‚nieniem Ã-ciaÅ‚a A ‚" F wzglÄ™dem miary P i Ã-ciaÅ‚a
F nazywamy następującą rodzinę zbiorów:

(F,P )
A = A " F : "A "A P (A A1) = 0 .
1
Zdefiniowana powyżej rodzina jest Ã-ciaÅ‚em.
Dowód :
(F,P )
Oczywiście " " A .
(F,P )
Jeśli A " A to istnieje zbiór A1 " A taki, że P (A A1) = 0. Oczywiście
(F,P )
Ac " A oraz P (Ac Ac) = 0, czyli Ac " A .
1 1
Korzystając z definicji różnicy symetrycznej, oraz z faktu, że
" " "
( An\ Bn) ‚" (An\Bn) otrzymujemy, że przeliczalna suma zbio-
n=1 n=1 n=1
(F,P ) (F,P )
rów należących do A również należy do A .

Niech A, B bÄ™dÄ… Ã-ciaÅ‚ami. Wprowadzmy dwie niesymetryczne funkcje Á(B, A)
oraz Á(B, A) w nastÄ™pujÄ…cy sposób:
Å»
Definicja 2.1.7
1. Á(B, A) = supB"B infA"A P (A B)
2. Á(B, A) = supB"B infA"A P (A\B)
Aƒ"B
JeÅ›li zachodzi Á(B, A) = to mówimy, że Ã-ciaÅ‚o A -przybliża Ã-ciaÅ‚o B.
JeÅ›li zachodzi Á(B, A) = to mówimy, że Ã-ciaÅ‚o A -otula Ã-ciaÅ‚o B.
Wprost z definicji kresu oraz okreÅ›lenia funkcji Á otrzymujemy:
Fakt 2.1.8
Następujące warunki są równoważne:
1. Á(B, A) d
2. " >0,B"B"A"A P (B A) < d +
Wykorzystując fakt 2.1.8 udowodnimy następujące twierdzenie:
4
Twierdzenie 2.1.9 Niech A, B ‚" F bÄ™dÄ… Ã-ciaÅ‚ami. Zachodzi równość:
(F,P ) (F,P )
Á(A, B) = Á(A , B ).
Dowód :
Wystarczy udowodnić, że dla każdego d 0 następujące dwa warunki są
równoważne:
1. Á(A, B) d
(F,P ) (F,P )
2. Á(A , B ) d.
(F,P )
Załóżmy, że zachodzi 2. Niech A " A. Oczywiście A " A , więc zgod-
(F,P )
nie z faktem 2.1.8 dla dowolnego > 0 istnieje zbiór B1 " B taki, że
P (A B1) < d + . Jednocześnie według definicji 2.1.6 istnieje zbiór B " B
taki, że P (B B1) = 0. Zatem:
P (B A) P (B B1) + P (B1 A) < d + .
StÄ…d i z faktu 2.1.8 otrzymujemy Á(A, B) d.
W analogiczny sposób dowodzimy implikacji w drugą stronę.

W dalszej części pracy będziemy rozpatrywali również wersję warunkową de-
finicji 2.1.7 p. 2:
Definicja 2.1.10

Á ((B, A)|C) = sup inf esssup(P ((A\B)|C))(É))
A"A,Aƒ"B
B"B É"&!
Niech A bÄ™dzie Ã-ciaÅ‚em, zaÅ› Z pewnym zbiorem. Przez A\Z bÄ™dziemy ozna-
czać następującą rodzinę zbiorów:
A\Z = {A\Z : A " A}.
5
2.2 Warunkowa wartość oczekiwana
Na poczÄ…tku tego paragrafu podamy twierdzenie Radona-Nikodyma,
którego dowód można znalezć w pozycjach [1] [2]. Twierdzenie to w znacznym
stopniu upraszcza dowód istnienia warunkowej wartości oczekiwanej.
Definicja 2.2.1 Niech µ i ½ bÄ™dÄ… miarami na (&!, A). Mówimy, że miara ½
jest absolutnie ciÄ…gÅ‚a wzglÄ™dem miary µ (w skrócie ½ µ), jeÅ›li dla każdego
A " A z warunku µ(A) = 0 wynika równość ½(A) = 0.
Twierdzenie 2.2.2 (Twierdzenie Radona-Nikodyma)
Jeżeli µ i ½ sÄ… takimi miarami skoÅ„czonymi na (&!, F), że ½ jest absolutnie
ciÄ…gÅ‚a wzglÄ™dem µ (½ µ), to istnieje taka nieujemna funkcja f, nazywana

gÄ™stoÅ›ciÄ…, że ½(A) = fdµ dla każdego A " F. Dla dwóch takich gÄ™stoÅ›ci f
A
i g mamy µ({f = g}) = 0.

Przejdzmy do zdefiniowania warunkowej wartości oczekiwanej.
Definicja 2.2.3 Niech X " L1(&!, F, P ). Warunkową wartością oczekiwaną
(w skrócie w.w.o.), zmiennej losowej X pod warunkiem Ã-ciaÅ‚a A, nazywamy
dowolną funkcję E(X|A) spełniającą następujące warunki:

"A"A XdP = E(X|A)dP (1)
A A
E(X|A) jest A mierzalna. (2)
Funkcja ta jest wyznaczona jednoznacznie, z dokładnością do zbioru miary 0.
Należy przeprowadzić dowód istnienia i jednoznaczności w.w.o.
Dowód :
Najpierw udowodnimy jednoznaczność.
Przypuśćmy, że funkcje E1(X|A) i E2(X|A) spełniają warunki (1) i (2) de-
finicji 2.2.3. Z warunku (2) wynika, że obie funkcje są A - mierzalne, zatem
zbiory A1 = {E2(X|A) > E1(X|A)} oraz A2 = {E2(X|A) < E1(X|A)} na-
leżą do Ã-ciaÅ‚a A. StÄ…d i z pierwszego warunku definicji w.w.o. otrzymujemy:

E2(X|A)dP = XdP = E1(X|A)dP.
A1 A1 A1
Zatem:
(E2(X|A) - E1(X|A))dP = 0,
A1
czyli P (A1) = 0. W analogiczny sposób dowodzimy, że P (A2) = 0. Reasumu-
jąc P (E1(X|A) = E2(X|A)) = P (A1 *" A2) = 0, co dowodzi jednoznaczności.

6
Przedstawimy teraz dowód istnienia w.w.o.
Przypuśćmy na poczÄ…tku, że X 0 p.p. Rozważmy skoÅ„czonÄ… miarÄ™ ½, na
à -ciele A, określoną następującym wzorem:

½(A) = XdP.
A
JeÅ›li P (A) = 0 to również ½(A) = 0, zatem ½ jest absolutnie ciÄ…gÅ‚a wzglÄ™dem P .
Stąd z twierdzenia Radona-Nikodyma istnieje A -mierzalna gęstość g taka,
że dla A " A:

gdP = ½(A) = XdP.
A A
Wystarczy przyjąć E(X|A) = g. Przejdzmy do przypadku ogólnego, gdy
X " L1(&!, F, P ). Rozkładając X na części nieujemną i niedodatnią X =
X+ - X- mamy 0 X+, X-. Warunkową wartość oczekiwaną definujemy w
następujący sposób: E(X|A) = E(X+|A) - E(X-|A). Nietrudno sprawdzić,
że jest to wersja warunkowej wartości oczekiwanej.

Podamy teraz podstawowe własności w.w.o., wykorzystywane w dalszej części
pracy.
WÅ‚asność 2.2.4 Niech X, Y " L1(&!, F, P ) oraz A ‚" F bÄ™dzie Ã-ciaÅ‚em.
Zachodzą następujące własności:
Jeli X 0 p.p., to E(X|A) 0 p.p. (3)
E(Ä…X + ²Y |A) = Ä…E(X|A) + ²E(Y |A) p.p. dla Ä…, ² " R, (4)
Jeli X Y p.p. to E(X|A) E(Y |A) p.p. (5)
|E(X|A)| E(|X||A) p.p. (6)
Dowód :
(3) Niech X 0 p.p. Mamy:

0 XdP = E(X|A)dP 0.
E(X|A)<0 E(X|A)<0
7
Zatem E(X|A) 0 p.p.
(4) OczywiÅ›cie funkcja Ä…E(X|A) + ²E(Y |A) jest A -mierzalna. Dla A " A
mamy:

(Ä…X + ²Y )dP = Ä… XdP + ² Y dP =
A A A

= Ä… E(X|A)dP + ² E(Y |A)dP = (Ä…E(X|A) + ²E(Y |A)).
A A A
Zatem funkcja Ä…E(X|A)+²E(Y |A) jest wersjÄ… w.w.o. zmiennej losowej Ä…X+
²Y .
(5) Niech X Y p.p. Korzystając z punktów (3) i (4) otrzymujemy:
0 E(Y -X|A) = E(Y |A)-E(X|A) p.p., czyli E(X|A) E(Y |A) p.p.
(6) Oczywiście X |X| oraz -X |X|. Wykorzystując własności (4) i (5)
otrzymujemy:
E(X|A) E(|X||A) i - E(X|A) = E(-X|A) E(|X||A).
Zatem reasumujÄ…c:
|E(X|A)| E(|X||A)

Na zakończenie tego paragrafu zdefiniujemy pojęcie prawdopodobieństwa wa-
runkowego wzglÄ™dem Ã-ciaÅ‚a.
Definicja 2.2.5 Prawdopodobieństwem warunkowym zbioru B pod warun-
kiem Ã-ciaÅ‚a A nazywamy wersjÄ™ warunkowej wartoÅ›ci oczekiwanej
P (B|A) = E(1B|A).
8
3 Twierdzenia o otulaniu i przybliżaniu Ã-ciaÅ‚
3.1 Twierdzenie o otulaniu Ã-ciaÅ‚
Przypomnijmy zamieszczonÄ… w rozdziale drugim definicjÄ™ -otulania (2.1.7).
Jeśli:
Á(B, A) = sup inf P (A\B) = ,
A"AAƒ"B
B"B
to powiemy, że Ã-ciaÅ‚o A -otula Ã-ciaÅ‚o B.
Twierdzenie 3.1.1 Niech (&!, F, P ) będzie przestrzenią probabilistyczną oraz
niech A, B ‚" F bÄ™dÄ… Ã-ciaÅ‚ami. Istnieje zbiór Z " A taki, że
P (Z) 4Á(B, A) oraz B\Z ‚" A\Z.
Twierdzenie to wynika z lematu o macierzach oraz serii lematów, które przy-
bliżają nas do ostatecznego dowodu. Tutaj podamy jedynie treść oraz dowód
lematu o macierzach (wedle pozycji [4]). W następnym paragrafie w podobny
sposób, wykorzystując analogiczne lematy i metody dowodowe udowodnimy
ogólniejsze twierdzenie o Ã-otulaniu warunkowym.
Lemat 3.1.2 (Lemat o macierzach) Niech [ai,j]n będzie macierzą o wy-
i,j=1
razach rzeczywistych takÄ…, że ai,i = 0 dla i = 1, . . . , n. Istnieje zbiór J ‚"
{1, 2, . . . , n} taki, że
n

1
ai,j + ai,j ai,j.
2
i"J,j "J i "J,j"J i,j=1
Dowód :
Niech F : 2{1,...,n} R będzie funkcją zdefiniowaną w następujący sposób:

F (I) = ai,j + ai,j, dla I ‚" {1, . . . , n}
i"I,j "I i "I,j"I
Wybierzmy zbiór J ‚" {1, 2, . . . , n}, który realizuje maksimum funkcji F,
to znaczy taki, że F (J) = max{F (I) : I ‚" {1, 2, . . . n}}. Należy pokazać, że
n
1
F (J) ai,j.
i,j=1
2
Dla k " J mamy:

ak,j + ai,k ak,j + ai,k. (7)
j "J i "J j"J i"J
W przeciwnym razie, wykorzystując fakt, że ak,k = 0 mielibyśmy:

F (J) = ai,j+ ai,j = ai,j+ ai,j+ ak,j+ ai,k
i"J,j "J i "J,j"J i"J\{k},j "J i "J,j"J\{k} j "J i "J

< ai,j+ ai,j+ ak,j+ ai,k = ai,j+ ai,k+
i"J\{k},j "J i "J,j"J\{k} j"J i"J i"J\{k},j "J i"J\{k}

ai,j + ak,j = ai,j + ai,j = F (J\{k})
i "J,j"J\{k} j"J\{k} i"J\{k},j "J\{k} i "J\{k}j "J\{k}
Czyli F (J) < F (J\{k}), co jest sprzeczne z wyborem zbioru J.
SumujÄ…c teraz (7) po k " J otrzymujemy:

F (J) 2 ai,j. (8)
i,j"J
Analogicznie dla k " J mamy:

ak,j + ai,k ak,j + ai,k (9)
j"J i"J j "J i "J
Podobnie, sumujÄ…c (9) po k " J otrzymujemy:

F (J) 2 ai,j (10)
i,j "J
Korzystając z nierówności (8) i (10) dostajemy:
n

1 1 1 1 1
ai,j = ( ai,j+ ai,j)+F (J)) ( F (J)+ F (J)+F (J)) = F (J),
2 2 2 2 2
i,j=1 i,j "J i,j"J
co kończy dowód.

3.2 Przykłady
PrzykÅ‚ad 3.2.1 W twierdzeniu 3.1.1 uzupeÅ‚nienie Ã-ciaÅ‚a A wzglÄ™dem miary
P jest konieczne. Istnieje przestrzeÅ„ (&!, F, P ) oraz Ã-ciaÅ‚a A, B ‚" F takie,
że:
Á(B, A) = 0,
zaś jedynym zbiorem Z " A, dla którego zachodzi:
B\Z ‚" A\Z,
10
jest cała przestrzeń &!.
Rzeczywiście, niech:
&! = [0, 1] × [0, 1], F = Borel([0, 1] × [0, 1]), P = 2.
Wystarczy przyjąć:
A = {C × [0, 1]; C lub ([0, 1]\C) przeliczalny},
B = {C ‚" [0, 1] × [0, 1]; C lub ([0, 1] × [0, 1]\C) przeliczalny}.
Wtedy Á(B, A) = 0. RzeczywiÅ›cie, jeÅ›li zbiór B " B jest przeliczalny, to
ma miarÄ™ 0, zatem za A wystarczy wziąć sumÄ™ odcinków {xk} × [0, 1], gdzie
xk, k " N są rzutami punktów zbioru B na oś OX. Suma taka również ma
miarę 0 i zawiera zbiór A. Jeśli B " B jest nieprzeliczalny to za A wystarczy
wziąć caÅ‚Ä… przestrzeÅ„ &!. Jedynym zbiorem Z " A takim, że B\Z ‚" A\Z,
jest Z = [0, 1] × [0, 1]. OczywiÅ›cie B ‚" A.

3.3 Twierdzenie o warunkowym otulaniu Ã-ciaÅ‚
W paragrafie tym, wykorzystujÄ…c podobne metody jak w dowodzie twier-
dzenia 3.1.1, w pracy [4] udowodnimy ogólniejsze twierdzenie 3.3.3. Zgodnie
z definicjÄ… 2.1.10 mamy:

Á ((B, A)|C) = sup inf esssup(P ((A\B)|C))(É))
A"AAƒ"B É"&!
B"B
Lemat 3.3.1 Niech (&!, F, P ) będzie przestrzenią probabilistyczną oraz
A, B, C ‚" F bÄ™dÄ… Ã-ciaÅ‚ami. Dla dowolnych parami rozÅ‚Ä…cznych zbiorów
n
B1, B2, . . . , Bn " B takich, że Bi = &! istnieją takie zbiory A1, A2, . . . , An "
i=1
A, że Bi ‚" Ai, dla i = 1, . . . , n oraz
n


P (( (Ai\Bi))|C) 4Á ((B, A)|C) p.p.
i=1
Dowód :
Dla dowolnego zbioru B " B niech B " A oznacza dowolny ustalony element

Ã-ciaÅ‚a A taki, że B ‚" B oraz P ((B\B)|C) Á ((B, A)|C) p.p.
Połóżmy:

Ai = Bj.
j"I
I‚"{1,2,...,n},i"I
OczywiÅ›cie Ai " A oraz Bi ‚" Ai dla i = 1, 2, . . . , n. Zachodzi również

Bi ‚" Ai ‚" Bi dla dowolnego I ‚" {1, 2, . . . , n}. StÄ…d wynika,
i"I i"I i"I
11


że P (( Ai\ Bi)|C) P (( Bi\ Bi)|C) Á ((B, A)|C) p.p. dla
i"I i"I i"I i"I
I ‚" {1, 2, . . . , n}.
n

Należy pokazać, że P (( (Ai\Bi))|C) 4Á ((B, A)|C) p.p.
n i=1
Z założenia, że Bi = &! oraz Bi )" Bj = " dla j = i wynika, że:

i=1
n n n

(Ai\Bi) = (Ai )" Bi) = (Ai )" Bj).
i=1 i=1 j=i i=1 j=i

Połóżmy:

" dla i=j,
i

Cj =
Bj )" (Ai\ Ak) dla i = j.

k n i
i i
Zbiory Cj sÄ… parami rozÅ‚Ä…czne, Cj ‚" Bj )" Ai oraz Cj = Bj )" Ai.
i=1 i =j
PrzyjmujÄ…c takÄ… wersjÄ™ prawdopodobieÅ„stwa warunkowego, dla której P ("|C)(É) =
i
0 dla É " &! oraz stosujÄ…c lemat 3.1.2 do macierzy [P (Cj|C)(É)]n dla do-
i,j=1
wolnego É " &! uzyskujemy zbiór JÉ ‚" {1, 2, . . . , n} taki, że:
n

i i i
2 P (Cj|C)(É) + 2 P (Cj|C)(É) P (Cj|C)(É) (11)
i"JÉ,j "JÉ i "JÉ,j"JÉ i,j=1
Dla dowolnego zbioru I ‚" {1, 2, . . . , n} przyjmijmy:
n


i i i
FI = É : 2 P (Cj|C)(É) + 2 P (Cj|C)(É) P (Cj|C)(É)
i"I,j "I i "I,j"I i,j=1

Z (11) wnioskujemy, że FI = &!. Dla ustalonego zbioru J ‚"
I‚"{1,2,...,n}
{1, 2, . . . , n} oraz dla prawie każdego É " FJ mamy:
n n n

i i
P (( (Ai\Bi))|C)(É) = P (( Cj)|C)(É) 2P (( Cj)|C)(É)+
i=1 i,j=1 i"J,j "J
n n

i
+2P (( Cj)|C)(É) 2P (( (Ai )" Bj))|C)(É)+
i "J,j"J i"J,j "J
n

2P (( (Ai )" Bj))|C)(É) = 2P (( Ai\ Bj)|C)(É)+
i "J,j"J i"J j"J


+2P (( Ai\ Bj)|C)(É) 2Á ((B, A)|C) + 2Á ((B, A)|C) =
i "J j "J

= 4Á ((B, A)|C)
12

Ponieważ FJ = &! oraz istnieje jedynie skończona ilość podzbio-
J‚"{1,2,...,n}
rów J, więc:
n


P (( (Ai\Bi))|C)(É) 4Á ((B, A)|C) p.p.
i=1
Co było do okazania.

Lemat 3.3.2 Niech (&!, F, P ) będzie przestrzenią probabilistyczną, oraz
A, B, C ‚" F bÄ™dÄ… Ã-ciaÅ‚ami. Dla dowolnych zbiorów B1, B2, . . . " B istnieje

zbiór Z " A taki, że P (Z|C) 4Á ((B, A)|C) p.p. oraz Bi *" Z " A dla
dowolnego i " N.
Dowód :
k k k
Niech k " N oraz B1 , B2 , . . . , Bn bÄ™dÄ… wszystkimi atomami Ã-ciaÅ‚a Ã(B1, B2, . . . , Bk).
k
Zgodnie z lematem 3.3.1 istnieją zbiory Ak, Ak, . . . , Ak " A takie, że
1 2 nk
k
Bi ‚" Ak dla k " N, 1 i nk
i
oraz
nk

k
P (( (Ak\Bi ))|C) 4Á ((B, A)|C) p.p. dla k " N. (12)
i
i=1
Mamy:

k k k k
(Ak )" Ak) = (((Ak\Bi ) *" Bi ) )" ((Ak\Bj ) *" Bj ))) =
i j i j
i =j, 1 i,j nk i =j, 1 i,j nk

k k k k k k k k
(((Ak\Bi ))"(Ak\Bj ))*"((Ak\Bi ))"Bj )*"((Ak\Bj ))"Bi )*"(Bj )"Bi )) ‚"
i j i j
i =j, 1 i,j nk
nk

k k k k
((Ak\Bi ) *" (Ak )" Bj ) *" (Ak )" Bi )) = (Ak\Bi )
i i j i
i =j, 1 i,j nk i=1
Oczywiście zawieranie w drugą stronę również zachodzi, zatem reasumując:
nk

k
(Ak\Bi ) = (Ak )" Ak). (13)
i i j
i=1 i =j, 1 i,j nk
Niech

k
Dn = Ak )" Ak, dla n k.
i j
k k
i:Bi ‚"Bn j:Bj )"Bn="
13
k
Oczywiście Dn " A. Z (13) wynika, że
nk

k k
Dn ‚" (Ak\Bi ). (14)
i
i=1
Mamy:

k
Bn = Bi ‚" Ak (15)
i
k k
i:Bi ‚"Bn i:Bi ‚"Bn
oraz

k c
Bn *" Ak ƒ" Bn *" Bj = Bn *" Bn = &!. (16)
j
k k
j:Bj )"Bn=" j:Bj )"Bn="
WykorzystujÄ…c (15) i (16) otrzymujemy:

k
Bn *" Dn = Bn *" ( Ak )" Ak) =
i j
k k
i:Bi ‚"Bn j:Bj )"Bn="

= (Bn *" Ak) )" (Bn *" Ak) =
i j
k k
i:Bi ‚"Bn j:Bj )"Bn="

= Ak )" &! = Ak " A (17)
i i
k k
i:Bi ‚"Bn i:Bi ‚"Bn
Połóżmy:

k
Z = Dn " A.
n"N k n

k
Z faktu, że Z = Z *" Dn oraz z (17) otrzymujemy:
k n

k
Bn *" Z = Z *" (Bn *" Dn) " A, dla n " N.
k n

PozostaÅ‚o pokazać, że P (Z|C) 4Á ((B, A)|C).
Istotnie, wykorzystujÄ…c (12) i (14) otrzymujemy:
N N

k k N
P (Z|C) = P (( Dn)|C) = lim P (( Dn)|C) lim inf P (( Dn )|C)
N" N"
n"N k n n=1 k n n=1
nN

N
lim inf P (( (AN\Bn ))|C) 4Á ((B, A)|C) p.p.
n
N"
n=1

14
Przejdzmy teraz do dowodu następującego twierdzenia będącego uogólnie-
niem twierdzenia 3.1.1:
Twierdzenie 3.3.3 Niech A, B, C ‚" F bÄ™dÄ… Ã-ciaÅ‚ami. Istnieje zbiór Z " A
taki, że:

P (Z|C) 4Á ((B, A)|C) p.p. oraz B\Z ‚" A\Z
Dowód :
Niech B = {Bą : ą " I}, dla pewnego zbioru indeksów I.
Niech Ä… =inf{P (D) : D " A, BÄ… *" D " A}. Dla dowolnego Ä… " I i k " N
1
rozważmy zbiory Dą,k takie, że Dą,k, Bą *" Dą,k " A oraz P (Dą,k) < ą + .
k

Przyjmijmy teraz Dą = Dą,k. Ponieważ Bą *" Dą " A, więc:
k 1
P (DÄ…) = Ä…, DÄ…, BÄ… *" DÄ… " A.
Niech relacja z" ustanawia dobry porzÄ…dek w zbiorze I. Za pomocÄ… zasady
indukcji pozaskoÅ„czonej zdefiniujemy rodzinÄ™ (Gj, j " I) ‚" A speÅ‚niajÄ…cÄ…
następujące warunki:
P (Gj) = j, Gj " A, Bj *" Gj " A, (18)

Gk " A, (19)
kz"j

Gj\ Gk = " lub P (Gj\ Gk) > 0. (20)
kz"j kz"j
Niech ą0 będzie piewszym elementem dobrze uporządkowanego zbioru I.
Przyjmijmy Gą = Dą , jeśli P (Dą ) > 0 oraz Gą = ", jeśli P (Dą ) = 0. Nie-
0 0 0 0 0
trudno zauważyć, zbiór Gą spełnia warunki (18)-(20). Załóżmy, że warunki
0
(18)-(20) są spełnione dla zbiorów Gj przy j z" i dla pewnego i " I. Istnieje

co najwyżej przeliczalna liczba indeksów i takich, że P (Gi\ Gk) > 0.
kz"i
Połóżmy:

Gi = Di, jeśli P (Di\ Gk) > 0, (21)
kz"i

Gi = Di )" Gk, jeśli P (Di\ Gk) = 0. (22)
kz"i kz"i
15
Powyższa definicja jest poprawna, gdyż:

Gj = (Gj\ Gk) = (Gj\ Gk) " A. (23)
j
jz"i jz"i kz"j kz"j
z"i
P (Gj \ Gk)>0
kz"j
Oczywiście:

Bi *" Di " A oraz Bi *" (Di )" Gk) = (Bi *" Di)\((Di\ Gk)\Bi) " A
kz"i kz"i
Zatem z powyższego oraz z definicji zbioru Gi wynika, że warunek (18) jest
spełniony również dla liczby porządkowej i. Warunek (19) wynika wprost z
(23), zaś (20) z definicji zbioru Gi. Zbiór Z definujemy w następujący sposób:

Z = Gj = Gj. (24)
j"I
j"I
Gj \ Gk="

kz"j
Z określenia rodziny (Gj, j " I) wnioskujemy, że istnieje co najwyżej przeli-

czalna ilość indeksów j " I spełniających warunek Gj\ Gk = ", zatem

kz"j
Z " A.
Wprost z okreÅ›lenia zbioru Z i rodziny (Gj, j " I) otrzymujemy, że B\Z ‚"

A\Z. Pozostaje pokazać, że P (Z|C) 4Á ((B, A)|C).
Zgodnie z lematem 3.3.2 istnieje zbiór Z0 " A taki, że Bj *" Z0 " A,


P (Z0|C) 4Á ((B, A)|C), dla j takich, że Gj\ Gk = ".

kz"j

Niech j " {j : Gj\ Gk = "}. Z określenia Dj, jako zbiorów o minimal-

kz"j
nym prawdopodobieństwie spełniających warunek Dj, Bj *" Dj " A, mamy
P (Dj) = P (Dj )" Z0). Z (21) i (22) wnioskujemy, że P (Gj) = P (Gj )" Z0).
Ostatecznie otrzymujemy:

P (Z|C) = P ( Gj|C) = E(1 |C) =
Gj
j"I,Gj \ Gk="

kz"j
j"I
Gj \ Gk="

kz"j

= E(1 |C) = P ( Gj )" Z0|C)
Gj)"Z0
j"I,Gj \ Gk="

kz"j
j"I
Gj \ Gk="

kz"j

4Á ((B, A)|C) p.p.

Zauważmy, że twierdzenie 3.1.1 otrzymujemy z 3.3.3 podstawiając C = {", &!}.
16
3.4 Przykłady
PrzykÅ‚ad 3.4.1 W tezie twierdzenia 3.3.3 uzupeÅ‚nienie Ã-ciaÅ‚a A wzglÄ™dem
miary P jest konieczne. Rzeczywiście, przyjmując &!, A, B, F oraz miarę P
tak jak w przykÅ‚adzie 3.2.1, oraz Ã-ciaÅ‚o C = {", &!} otrzymujemy:

Á ((B, A)|C) = 0 p.p.,
zaś jedynym zbiorem Z " A takim, że:
B\Z ‚" A\Z,
jest cała przestrzeń &!.

3.5 Twierdzenie o przybliżaniu Ã-ciaÅ‚
W paragrafie tym ograniczymy siÄ™ do przedstawienia twierdzenia udo-
wodnionego w pracy [4]. Będzie nam ono potrzebne w następnych paragrafach
do udowodnienia pewnych zależnoÅ›ci pomiÄ™dzy à -przybliżaniem, a odlegÅ‚o-
ścią operatorów w Lp. Zgodnie z definicją 2.1.7 mamy:
Á(B, A) = sup inf P (A B)
A"A
B"B
Twierdzenie 3.5.1 Niech (&!, F, P ) będzie przestrzenią probabilistyczną,
A, B ‚" F Ã-ciaÅ‚ami. Jeżeli Á(B, A) < , to istnieje zbiór Z " Ã(A, B) taki,
(F,P)
że P (Z) < 22 , oraz B\Z ‚" A \Z.
3.6 Przykłady
PrzykÅ‚ad 3.6.1 W twierdzeniu 3.5.1 nie wystarczy uzupeÅ‚nić Ã-ciaÅ‚a A wzglÄ™-
dem miary P . Istnieje przestrzeÅ„ (&!, F, P ) oraz takie Ã-ciaÅ‚a A, B, że:
Á(B, A) = 0,
zaÅ› dla każdego zbioru Z " Ã(A, B) takim, że:
B\Z ‚" A\Z, (25)
zachodzi P (Z) = 1.
Rzeczywiście, niech:
&! = [0, 1], F = Borel([0, 1]).
17
Wystarczy przyjąć:
A = {", &!}, B = {B : B przeliczalny lub Bc przeliczalny}.
(F,P )
OczywiÅ›cie Á(B, A) = 0, A = A, B ‚" A . Jednak B\Z ‚" A\Z jedynie
dla Z = &! lub Z = &!\{É} dla pewnego É " &!.

18
4 Twierdzenie o odległości operatorów w.w.o.
4.1 Twierdzenie o odległości operatorów w.w.o.
W paragrafie tym podamy wnioski dla odległości operatorów w.w.o. wy-
nikajÄ…ce z twierdzeÅ„ o otulaniu i przybliżaniu Ã-ciaÅ‚. Dowody głównych twier-
dzeń poprzedzimy serią lematów.
Lemat 4.1.1 Jeśli X " L"(&!, F, P ), |X| 1 p.p. dla pewnych A, B " F,

to | XdP - XdP | P (A B).
A B
Dowód :

| XdP - XdP | = | XdP - XdP | |X|dP P (A B).
A B A\B B\A A B

Lemat 4.1.2 Niech A, B ‚" F bÄ™dÄ… Ã-ciaÅ‚ami, Z ‚" &!. JeÅ›li A\Z = B\Z,
to Ã(A, B)\Z = A\Z = B\Z.
Dowód :
Oznaczmy:
M = {(A\Z) *" C : A " A, C ‚" Z}.
M jest Ã-ciaÅ‚em. RzeczywiÅ›cie:
1. " " M (Za A i C wystarczy wziąć ")
2. Niech D " M, czyli D = (A\Z) *" C, dla pewnych A " A, C ‚" Z.
Wtedy Dc = (Ac *" Z) )" Cc = (Ac\C) *" (Z\C) = (Ac\Z) *" (Z\C) " M
3. Niech D1, D2, . . . " M, czyli Di = (Ai\Z) *" Ci, Ci ‚" Z i " N.

Mamy Di = ( Ai\Z) *" Ci " M.
i"N i"N i"N
OczywiÅ›cie A ‚" M. (Dla dowolnego zbioru D " A przyjmujemy A = D, C =
Z )" A).
Niech B " B, wtedy istnieje D " A takie, że D\Z = B\Z.
StÄ…d przyjmujÄ…c A = D, C = B )" Z otrzymujemy, że B ‚" M. Reasumu-
jÄ…c A, B ‚" M, a ponieważ M jest Ã-ciaÅ‚em, wiÄ™c Ã(A, B) ‚" M. Zatem
Ã(A, B)\Z ‚" M\Z = A\Z = B\Z. Z faktu, że A, B ‚" Ã(A, B) wynika, że
A\Z, B\Z ‚" Ã(A, B)\Z. Ostatecznie Ã(A, B)\Z = A\Z = B\Z.

Lemat 4.1.3 Niech X, Y, V " L"(&!, F, P ), oraz |X|, |Y |, |V | 1 p.p. Jeśli
A, B ‚" F, oraz speÅ‚nione sÄ… warunki:
1. A\Z = B\Z, dla pewnego Z " F

2. Dla dowolnych zbiorów B " B, A " A zachodzą równości XdP =
B

V dP i Y dP = V dP , to:
B A A

| XdP - Y dP | 3P (Z), dla dowolnego D " Ã(A, B).
D D
Dowód :
Niech D " Ã(A, B). Zgodnie z lematem 4.1.2 istniejÄ… zbiory B " B oraz
A " A takie, że D\Z = B\Z = A\Z. Korzystając z lematu 4.1.1 otrzymu-
jemy:

| XdP - Y dP | = | XdP - Y dP + XdP - Y dP | =
D D B\Z A\Z D)"Z D)"Z

= | XdP - XdP - Y dP + Y dP + XdP - Y dP |
B B)"Z A A)"Z D)"Z D)"Z

| V dP - V dP | + | XdP - XdP |+
B A B)"Z D)"Z

+| Y dP - Y dP | 3P (Z)
A)"Z D)"Z

Lemat 4.1.4 Niech A, B ‚" F bÄ™dÄ… Ã-ciaÅ‚ami. JeÅ›li istniejÄ… zbiory
Z1 " Ã(A, B), Z2 " Ã(B, A) takie, że P (Z1), P (Z2) oraz
(F,P ) (F,P ) (F,P ) (F,P )
B\Z1 ‚" A \Z1, A\Z2 ‚" B \Z2, to istnieje zbiór Z " Ã(B , A )
(F,P ) (F,P )
taki, że P (Z) 2 oraz B \Z = A \Z.
Dowód :
(F,P ) (F,P )
Niech Z = Z1 *" Z2. OczywiÅ›cie Z " Ã(B , A ) oraz P (Z) 2 .
Pozostaje pokazać, że:
(F,P ) (F,P )
B \Z = A \Z.
(F,P )
Ponieważ B\Z1 ‚" A \Z1 oraz Z1 ‚" Z, wiÄ™c:
(F,P )
B\Z ‚" A \Z. (26)
(F,P )
Niech C " B , czyli istnieje taki zbiór C1 " B, że:
P (C1 C) = 0.
20
(F,P )
Z (26) wynika, że C1\Z " A \Z. Zatem istnieje taki zbiór A " F, że
C1\Z = A\Z oraz A1 " A taki, że P (A A1) = 0. Ponieważ dla dowolnego
zbioru D " F mamy:
P (A1 A) + P (A D) P (A1 D),
więc wystarczy teraz znalezć D " F taki, że P (D A) = 0 oraz D\Z = C\Z.
Połóżmy:
D = ((C )" A) *" (C\C1))\Z *" (A )" Z) " F.
Korzystając z faktu, że C1\Z = A\Z, mamy:
D\Z = ((C )" A) *" (C\C1))\Z = (C )" A)\Z *" (C\C1)\Z =
= C )" (A\Z) *" (C\C1)\Z = C )" (C1\Z) *" (C\C1)\Z =
= (C )" C1 *" C\C1)\Z = C\Z. (27)
Dalej:
D A = (((C )" A) *" (C\C1))\Z *" (A )" Z)) A =
= (((C )" A) *" (C\C1))\Z *" (A )" Z)) (A\Z *" A )" Z) =
= ((C )" A) *" (C\C1))\Z (A\Z) =
= (((C )" A) *" (C\C1)) A)\Z =
= (((C )" A) *" (C\C1) *" A)\(((C )" A) *" (C\C1)) )" A))\Z =
= ((A*"(C\C1))\((A)"C)*"(A)"(C\C1))))\Z = ((A*"(C\C1))\(A)"C))\Z =
= ((A\C) *" (Ac )" (C\C1)))\Z =
= (Ac )" (C\C1))\Z *" (A\C)\Z =
= (Ac )" (C\C1))\Z *" (C1\C)\Z.
Oczywiście ze względu na P (C1 C) = 0 mamy P (C1\C) = 0
oraz P (C\C1) = 0, stÄ…d:
P (A D) P ((Ac )" (C\C1))\Z) + P ((C1\C)\Z)
2P (C\C1) + P (C\C1) = 0.
(F,P )
Reasumując P (A1 D) = 0. Stąd wynika, że D " A , co wobec (27)
daje:
(F,P )
C\Z " A \Z.
21
Pokazaliśmy więc, że
(F,P ) (F,P )
B \Z ‚" A \Z.
Analogicznie pokazujemy zawieranie w drugÄ… stronÄ™, otrzymujÄ…c ostatecznie
tezÄ™ lematu:
(F,P ) (F,P )
B \Z = A \Z.

Twierdzenie 4.1.5 JeÅ›li Á(A, B) < , Á(B, A) < oraz EA, EB : L" L1,
to:
||EA - EB||",1 264 .
Dowód :
Zgodnie z twierdzeniem 3.5.1 istniejÄ… zbiory Z1 " Ã(A, B), Z2 " Ã(B, A)
takie, że:
(F,P ) (F,P )
P (Z1), P (Z2) 22 , B\Z1 ‚" A \Z1, A\Z2 ‚" B \Z2.
(F,P ) (F,P )
KorzystajÄ…c teraz z lematu 4.1.3 otrzymujemy zbiór Z " Ã(B , A )
taki, że:
(F,P ) (F,P )
P (Z) 44 , B \Z = A \Z.
Wezmy teraz dowolne X " L"(&!, F, P ) takie, że |X| 1 p.p. Zgodnie z
własnością 2.2.4
|E(X|A)| 1 p.p., |E(X|B)| 1 p.p.

Oczywiście E(X|B)dP = XdP , E(X|A)dP = XdP , dla dowol-
B B A A
nych B " B, A " A. Z definicji uzupełnienia wynika, że jest to również
(F,P ) (F,P )
prawda dla zbiorów B " B i A " A .
Zauważmy jeszcze, że zbiory:
D1 = {É " &! : E(X|A)(É) E(X|B)(É)}
D2 = {É " &! : E(X|A)(É) > E(X|B)(É)}
należą do sigma ciaÅ‚a Ã(A, B).
Mamy:

|E(X|B)-E(X|A)|dP = (E(X|B)-E(X|A))dP + (E(X|A)-E(X|B))dP.
&! D1 D2
22
Stosując teraz lemat 4.1.3 dla zbiorów D1, D2, zmiennych losowych E(X|A),
(F,P ) (F,P )
E(X|B), X oraz Ã-ciaÅ‚ B i A otrzymujemy:

(E(X|B) - E(X|A))dP 3P (Z) 132
D1
oraz
(E(X|A) - E(X|B))dP 3P (Z) 132 .
D2
Sumując nierówności stronami, z dowolności X dostajemy tezę twierdzenia,
czyli:
||EA - EB||",1 264

Z poprzedniego twierdzenia łatwo wynika następujący wniosek:
Wniosek 4.1.6 Jeśli EA, EB : L" L1, to:
||EA - EB||",1 264 max(Á(B, A), Á(A, B)).
4.2 Przykłady
Przykład 4.2.1 Twierdzenie 4.1.5 nie jest prawdziwe, jeśli będziemy rozpa-
1
trywać normÄ™ || · ||1,1. WiÄ™cej, dla dowolnego 0 < < istnieje przestrzeÅ„
2
(&!, F, P ) oraz Ã-ciaÅ‚a A, B " F takie, że Á(A, B) oraz Á(B, A) , a
jednocześnie:
||EA - EB||1,1 > 1.
Przyjmijmy:
&! = [0, 1], P = 1, F = B([0, 1])
oraz
1 1 1 1
A = {", [0, ], ( , 1], &!} B = {", [0, + ], ( + , 1], &!}.
2 2 2 2
1
OczywiÅ›cie Á(A, B) = oraz Á(B, A) = . Niech Z = [1, + ], A = [1, 1],
2 2 2
1
B = [0, + ]. Określmy X " L1(&!, F, P ) następującym wzorem:
2
1
X = 1Z.


Wprost z określenia E|X| = XdP = 1. Jednocześnie:
Z

1 1
|EAX - EBX|dP = |1A XdP - 1B XdP |dP =
&! &! P (A) A P (B) B
23
1 4 4 2 + 1
= 1 - 2 + + = 1 - 2 + > 1.
1 + 2 1 + 2 2 + 1
Przykład 4.2.2 Przyjmijmy &! = [0, 1], P = 1, F = B([0, 1]). Niech
1
0 < n < oraz n < ´ bÄ™dÄ… liczbami rzeczywistymi.
2
1 1 1 1
A = {", [0, ], ( , 1], &!} An = {", [0, + n], ( + n, 1], &!}.
2 2 2 2
1
OczywiÅ›cie Á(A, An) n oraz Á(An, A) n. Niech Z = [1, + ´], A =
2 2
1
[1, 1], An = [0, + n]. Określmy X " L1(&!, F, P ) następującym wzorem:
2 2
X = M1Z, M " R+.
Zauważmy, że założenia są podobne do założeń w przykładzie 4.2.1, jednak
zamiast Ã-ciaÅ‚a B mamy Ã-ciaÅ‚o An. Nietrudno obliczyć, że
EAX = 2´M1A,
2 n 2(´ - n)
n
c
EA X = M 1A + M 1A .
n
n
1 + 2 n 1 - 2 n
n
Jeśli teraz n 0 to EA X EAX p.p. W paragrafie 4 udowodnimy ogólną
zależność pomiÄ™dzy zbieżnoÅ›ciÄ… Ã-ciaÅ‚, a prawie pewnÄ… zbieżnoÅ›ciÄ… w.w.o.

4.3 Wnioski z twierdzenia o odległości operatorów
Wniosek 4.3.1 JeÅ›li Á(A, B) < , Á(B, A) < , oraz EA, EB : L" Lp, dla
p 1, to:
1 1
p p
||EA - EB||",p 21- (264 )
Dowód :
Wezmy dowolne X " L"(&!, F, P ) takie, że |X| 1 p.p. Zgodnie z własnością
2.2.4
|E(X|A)| 1 p.p., |E(X|B)| 1 p.p.
StÄ…d i z twierdzenia 4.1.5 otrzymujemy:
1
1 p
p
|EAX - EBX|
p
|EAX - EBX|p dP = 2 dP
&! &! 2
24
1
p
1 1
|EAX - EBX|
p p
2 dP 21- (264 )
&! 2

Wniosek 4.3.2 JeÅ›li Á(A, B) , Á(B, A) oraz EA, EB : L" Lp, to:
1 1
p p
||EA - EB||",p 21- (48 )
W szczególności, gdy p = 1:
||EA - EB||",1 48
Dowód :
Zgodnie z twierdzeniem 3.1.1 istnieją zbiory Z1 " A, Z2 " B takie, że:
P (Z1), P (Z2) 4 , B\Z1 ‚" A\Z1, A\Z2 ‚" B\Z2.
Postępując analogicznie jak w dowodzie twierdzenia 4.1.5 otrzymujemy tezę.

25
5 Zbieżność warunkowych wartości oczekiwa-
Ü
nych, a zbieżność Ã-ciaÅ‚ w metryce d
Ü
5.1 Metryka d
Niech (&!, F, P ) będzie przestrzenią probabilistyczną, zaś F rodziną wszyst-
kich pod-Ã-ciaÅ‚ F. W rodzinie F wprowadzamy nastÄ™pujÄ…cÄ… relacjÄ™ r:
(F,P ) (F,P )
ArB Ô! A = B , A, B " F.
Relacja r jest relacją równoważności w zbiorze F, dzieli go zatem na klasy
abstrakcji. W dalszym ciÄ…gu piszÄ…c "Ã-ciaÅ‚o" bÄ™dziemy mieli na myÅ›li dowol-
nego reprezentanta klasy abstrakcji wyznaczonej przez to Ã-ciaÅ‚o oraz relacjÄ™
r. Niech F = {[F] : F " F}. Zgodnie z przyjętą konwencją elementy F będę
Ü
nazywaÅ‚ Ã-ciaÅ‚ami. Rozważmy nastÄ™pujÄ…cÄ… funkcjÄ™ d : F × F R+ *" {0}:
Ü
d(A, B) = max(Á(A, B), Á(B, A)).
(F,P ) (F,P )
OczywiÅ›cie Á(A, B) = Á(A , B ), zatem funkcja Á jest poprawnie zde-
finiowana.
Ü
Funkcja d jest metryką w F. Oczywiście:
Ü

"A,B"F d(A, B) 0.
Ü
Równość zachodzi wtedy i tylko wtedy, gdy A = B. Rzeczywiście, jeśli d(A, B) =
0 to z lematu 4.1.4 oraz twierdzenia 3.5.1 wynika, że A = B. Oczywiście im-
plikacja w drugą stronę również zachodzi. Wprost z definicji wynika, że:
Ü Ü

"A,B"F d(A, B) = d(B, A).
Ü
Pozostaje pokazać, że d spełnia warunek trójkąta. Wezmy dowolne sigma
ciała A, B, C " F , oraz > 0. Mamy:

Ü
" >0,A"A"C"C P (A C) < d(A, C) + (28)
2
Teraz dla dobranego uprzednio oraz znalezionego zbioru C istnieje zbiór
B " B taki, że:

Ü
P (B C) < d(B, C) + (29)
2
Dodając nierówności (28) i (29) stronami otrzymujemy:
Ü Ü
P (A C) + P (C B) < d(A, C) + d(C, B) + . (30)
Dla dowolnych zbiorów A, B, C mamy:
(A C) *" (C B) = (A *" B)\C *" C\(A )" B) ƒ"
ƒ" (A *" B)\(A )" B) = A B
StÄ…d i z (30) otrzymujemy:
Ü Ü
" >0,A"A"B"B P (A B) < d(A, C) + d(C, B) + (31)
Postępując analogicznie otrzymujemy:
Ü Ü
" >0,B"B"A"A P (A B) < d(B, C) + d(C, A) + (32)
Warunki (31) i (32) mówią nam odpowiednio, że:
Ü Ü
Á(A, B) d(A, C) + d(C, B)
oraz
Ü Ü
Á(B, A) d(B, C) + d(C, A)
ReasumujÄ…c:
Ü Ü Ü
d(A, B) d(A, C) + d(C, B)
Ü
Zatem d jest metrykÄ….
Zbadamy teraz zbieżność warunkowych wartoÅ›ci oczekiwanych wzglÄ™dem Ã-
Ü
ciał zbieżnych w metryce d.
5.2 Zbieżność warunkowych wartości oczekiwanych, a
Ü
zbieżność Ã-ciaÅ‚ w metryce d
Twierdzenie 5.2.1 Niech X " L"(&!, F, P ), A, An " F , dla n " N. Jeśli
Ü
limn" d(A, An) = 0 to:
n"
E(X|An) - E(X|A) w Lp,
dla dowolnego p 1.
Dowód :
Ü
Bez zmniejszania ogólności możemy założyć, że |X| 1 p.p. Jeśli limn" d(A, An) =
0 to istnieje ciąg n zbieżny do zera taki, że:
Á(An, A) < n Á(A, An) < n
Korzystając z wniosku (4.3.1) otrzymujemy nierówność:
1 1
n
p p
||EA - EA||",p 21- (264 n)
27
Zatem z założenia |X| 1 p.p. wynika, że
1 1
p p
||E(X|An) - E(X|A)||p 21- (264 n)
Stąd i ze zbieżności n do zera otrzymujemy tezę.

Z podanego twierdzenia wynika zbieżność w.w.o. według prawdopodobień-
stwa. Powstaje pytanie, czy ciąg jest również zbieżny prawie pewnie? Okazuje
się, że pewne wzmocnienie założeń daje zbieżność prawie pewną.
Ü
Twierdzenie 5.2.2 Niech X " L"(&!, F, P ), A, An " F , dn = d(A, An),
"
dla n " N. Jeśli dn < ", to:
n=1
n"
E(X|An) - E(X|A) p.p.
Dowód :
Bez zmniejszania ogólności możemy założyć, że |X| 1 p.p. Wezmy dowolny
> 0. Mamy:

P (|E(X|An) - E(X|A)| ) = dP
{|E(X|An)-E(X|A)| )}

n
|E(X|An) - E(X|A)|dP ||EA - EA ||",1.
{|E(X|An)-E(X|A)| )}
KorzystajÄ…c teraz z twierdzenia 4.1.5 otrzymujemy:

264dn
P |E(X|An) - E(X|A)| . (33)

"
Ponieważ z założenia mamy dn < ", więc korzystając z (33) i z lematu
n=1
Borela-Cantelliego mamy dla dowolnego > 0:

P lim sup{|E(X|An) - E(X|A)| } = 0,
n"N
co jest równoważne:

P lim inf{|E(X|An) - E(X|A)| < } = 1.
n"N
Czyli:

P lim sup |E(X|An) - E(X|A)| = 1.
n"N
Zatem z dowolności :
n"
E(X|An) - E(X|A) p.p.

Na koniec podamy uogólnienie twierdzenia 5.2.1.
28
Twierdzenie 5.2.3 Niech X " L1(&!, F, P ), A, An " F , dla n " N. Jeśli
Ü
limn" d(A, An) = 0 to:
n"
E(X|An) - E(X|A) w L1.
Dowód :
Niech X " L1(&!, F, P ). Rozważmy następujące ciągi zmiennych losowych:

Xk = X1X k oraz Xk = X1X>k

Dla dowolnego k " N zachodzi: Xk + Xk = X, Xk " L1(&!, F, P ) oraz

Xk " L"(&!, F, P ). Stąd i z określenia Xk mamy:

" >0"k 1"k k |Xk|dP . (34)
0 0
&!

KorzystajÄ…c z twierdzenia 5.2.1 dla p=1 i zmiennej losowej Xk otrzymujemy:


" >0,k"N"n 1"n n |E(Xk|An) - E(Xk|A)|dP . (35)
0 0
&!
1
Wezmy dowolny > 0. Zgodnie z (34) dla istnieje takie k0, że:
4

1
|Xk |dP , (36)
0
&! 4
1
zaś zgodnie z (35) dla istnieje takie n0, że dla n n0:
2

1

|E(Xk |An) - E(Xk |A)|dP . (37)
0 0
&! 2
WykorzystujÄ…c (36) i (37) otrzymujemy, dla n n0:


|E(X|An) - E(X|A)|dP |E(Xk |An) - E(Xk |A)|dP +
0 0
&! &!

1
+ |E(Xk |An) - E(Xk |A)|dP + 2 |Xk |dP .
0 0 0
&! 2 &!
Czyli reasumujÄ…c:

" >0"n 1"n n |E(X|An) - E(X|A)|dP .
0 0
&!

Wykorzystując podobą metodę dowodową można udowodnić następujące twier-
dzenie:
29
Twierdzenie 5.2.4 Niech X " L1(&!, F, P ), A, An " F , dla n " N. Jeśli
Ü
limn" d(A, An) = 0 to:
n"
E(X|An) - E(X|A) w Lp, dla p 1.
Dowód :
Analogiczny do dowodu twierdzenia 5.2.3, należy jedynie w końcowych sza-
cowaniach, skorzystać z nierówności Minkowskiego.
5.3 Przykłady
Przykład 5.3.1 Rozpatrzmy przykład analogiczny do 4.2.2.
Niech &! = [0, 1], P = 1 oraz
1 1 1 1
A = {", [0, ], ( , 1], &!} An = {", [0, + dn], ( + dn, 1], &!}.
2 2 2 2
1
OczywiÅ›cie Á(A, An) dn oraz Á(An, A) dn. Niech Z = [1, + ´], A =
2 2
1
[1, 1], An = [0, + dn]. Określmy X " L1(&!, F, P ) następującym wzorem:
2 2
X = M1Z, M " R+.
Jak udowodniliśmy w przykładzie 4.2.2
n"
E(X|An) - E(X|A) p.p.
Nie muszą być jednak spełnione założenia twierdzenia 5.2.2. Wystarczy przy-
1
jąć dn = .
n

Przykład 5.3.2
" "
Ü
W twierdzeniu 5.2.2 założenie d(A, An) = dn < " jest istotne,
n=1 n=1
nie wystarczy by limn" dn = 0.
Rozpatrzmy następujący ciąg przedziałów:
n n+1

1 1 1 1
Bn = [ + , + ), dla n = 3, . . . , N1 - 1,
2 k 2 k
k=1 k=1
gdzie N1 jest indeksem takim, że:
N1 N1+1

1 1 1 1
+ < 1 oraz + > 1
2 k 2 k
k=1 k=1
30
Zbiór BN definiujemy następująco:
1
N1

1 1
BN = [ + , 1).
1
2 k
k=1
Konstrukcję zbiorów Bn kontynuujemy następująco:
n n+1

1 1 1 1
Bn = [ + , + ), dla N1 + 1, . . . , N2 - 1,
2 k 2 k
k=N1+1 k=N1+1
gdzie N2 jest indeksem takim, że:
N2 N2+1

1 1 1 1
+ < 1 oraz + > 1
2 k 2 k
k=N1+1 k=N1+1
Tak jak poprzednio określamy zbiór BN :
2
N2

1 1
BN = [ + , 1).
2
2 k
k=N1+1
W analogiczny sposób określamy zbiory Bn dla Nk n Nk+1. Ponieważ
" 1
szereg jest rozbieżny, więc istnieje nieskończony ciąg indeksów Nk.
n=3
n
Niech teraz (&!, F, P ) będzie przestrzenią probabilistyczną, gdzie:
&! = [0, 1], F = Borel([0, 1]), P = 1.
1
Niech A = [0, ) oraz A = {", &!, A, Ac}. OkreÅ›lmy nastÄ™pujÄ…cy ciÄ…g Ã-ciaÅ‚:
2
An = {", &!, A *" Bn, Ac\Bn}
Wprost z określenia mamy:
1
Ü
0 lim d(A, An) lim = 0.
n" n"
n + 1
Czyli limn" dn = 0.
Określimy teraz zmienną losową X w następujący sposób:
1 3
X(É) = 1( , )(É).
2 4
Nietrudno zauważyć, że:
1 1
c
E(X|A) = 1A = 1[ 1 . (38)
,1]
2
2 2
31
"
Z rozbieżności szeregu dn wnioskujemy, że dla dowolnego N > 3, N " N
n=3
istnieją indeksy k0, n0 " N, k0, n0 > N takie, że:
n0

9 10 3
( , ) ‚" Bn ‚" ( , 1). (39)
12 12 4
n=k0
Teraz dla n " [k0, n0] mamy:
n + 1
c
E(X|An) = 1A \Bn.
2n - 2
Czyli:
E(X|An)(É) = 0 dla É " Bn.
StÄ…d wykorzystujÄ…c (38) i (39) mamy:

11
P E(X|An) E(X|A) ,
12
Czyli nie zachodzi prawie pewna zbieżność w.w.o.

32
6 Literatura
[1] P. Billingsley, "Prawdopodobieństwo i miara", PWN, Warszawa 1987
[2] J. Jakubowski, R. Sztencel, "Wstęp do teorii prawdopodobieństwa", SCRIPT,
Warszawa 2001
[3] R. Jajte, A. Paszkiewicz, "Pseudo-martingales", Probability and Mathe-
matical Statistics Vol. 19, Fasc. 1(1999), pp. 181-201
[4] A. Komisarski, A. Paszkiewicz, "On aproximation of Ã-fields", W przy-
gotowaniu do druku
[5] D. Revuz, M. Yor, "Continuous martingales and Brownian motion", 3ed.,
Springer, 1999


Wyszukiwarka

Podobne podstrony:
Wyklad Warunkowanie czy oczekiwania
Wyklad Warunkowanie czy oczekiwania cz 2
wartosc oczekiwana zmiennej losowej
Wyklad Warunkowanie a oczekiwania
Wyklad Lek oczekiwania warunkowanie
42 30 Marzec 2000 Dialog na warunkach
23 ROZ warunki i tryb postępowania w spr rozbiórek obiek
zatrudnienia w szczególnych warunkach
warunki dodatkowe mikro lub kwasy
Prawo budowlane Warunki techniczne i inne akty prawne(1)
Warunki spełniania się afirmacji i cudów(1)
Ocena warunków geologicznych na Podstawie Szczegółowej Mapy geologicznej Polski(1)
warunki zaliczenia TZ ZSZ
7 ROZ warunki techniczne baz i stacji paliw [M G ][21 11
96 ROZ warunki przy wprowadzaniu ścieków do wód lub do zi
Ocena spełnienia warunku pouczenia o braku prawa do pobierania świadczenia rodzinnego

więcej podobnych podstron