WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II ADAM OSEKOWSKI 1. Zbieżność wedlug rozkladu zbieżność miar probabilistycznych w przestrzeniach metrycznych Celem tego rozdzialu jest wprowadzenie pewnego nowego typu zbieżności zmi- ennych losowych, tzw. zbieżności wedlug rozkladu. Zacznijmy od pewnych intuicji zwiazanych z tym pojeciem. Jak sama nazwa wskazuje, zbieżność ta odnosi sie do rozkladów zmiennych losowych. Zatem, aby ja zdefiniować (na poczatek, dla rzeczywistych zmiennych losowych), potrzebujemy metody pozwalajacej stwierdzić czy dwa rozklady prawdopodobieństwa na R sa ,,bliskie . Pierwszy pomysl który sie narzuca jest nastepujacy: ciag (Pn) zbiega do P jeśli dla dowolnego zbioru borelowskiego A zachodzi Pn(A) P (A). To podejście jest jednak zbyt restryk- cyjne i nie daje ciekawego typu zbieżności (por. uwaga nad Twierdzeniem 1.1). Wobec tego, zbieżność wedlug rozkladu wprowadzimy w inny sposób. W calym niniejszym rozdziale, (E, ) jest przestrzenia metryczna, B(E) oznacza klase pod- zbiorów borelowskich E oraz C(E) = {f : E R ciagle i ograniczone}. Definicja 1.1. Niech (Pn)n bedzie ciagiem miar probabilistycznych na B(E) (roz- kladów prawdopodobieństwa na E). Mówimy, że ciag (Pn) jest slabo zbieżny do P , jeżeli dla każdej funkcji f " C(E) mamy fdPn fdP . Oznaczenie: Pn ! P . E E Dowód poprawności definicji: Musimy udowodnić, że jeśli Pn ! P oraz Pn ! P , to P = P . Innymi slowy, musimy wykazać nastepujacy fakt. Stwierdzenie 1.1. Zalóżmy, że P , P sa takimi rozkladami w E, że dla każdej funkcji f " C(E), fdP = fdP . Wówczas P = P . E E Przytoczmy pomocniczy fakt z Topologii I. Lemat 1.1. Niech F bedzie domknietym podzbiorem E. Wówczas dla każdego > 0 istnieje f " C(E) jednostajnie ciagla spelniajaca 0 d" f d" 1 oraz 1 jeśli x " F, f(x) = 0 jeśli (x, F ) e" . Dowód Stwierdzenia 1.1: Wystarczy udowodnić, że dla każdego domknietego F " E zachodzi P (F ) = P (F ) (teza wynika wówczas prosto z lematu o Ą - ukladach). Dla każdego n i = 1/n, Lemat 1.1 daje funkcje fn o odpowiednich wlasnościach. Widzimy, iż dla każdego x " E, fn(x) 1F (x), zatem P (F ) = 1F dP ! fndP = fndP P (F ). E E E 1 2 ADAM OSEKOWSKI Przyklady: (1) Zalóżmy, że (an) jest ciagiem punktów z Rd oraz a " Rd. Wówczas an a wtedy i tylko wtedy, gdy a ! a. Istotnie, an a wtedy i tylko wtedy, n gdy dla każdej funkcji f " C(Rd) mamy f(an) f(a), czyli fda Rd n fda. Rd (2) Zalóżmy, że (Pn) jest ciagiem miar probabilistycznych na R, zadanym przez Pn({k/n}) = 1/n, k = 1, 2, . . . , n. Wówczas Pn ! P , gdzie P jest rozkladem jednostajnym na [0, 1]. Istotnie, dla dowolnej funkcji f " C(R), n 1 1 fdPn = f(k/n) f(x)dx = fdP. n R 0 R k=1 Ważna uwaga: Z tego, że Pn ! P nie wynika, że dla dowolnego B " B(E) mamy Pn(B) P (B). Np. wezmy a " R oraz ciag (an) liczb rzeczywistych taki, że an > a oraz an a. Jak już wiemy, a a, ale n a ((-", a]) = 0 1 = a((-", a]). n Twierdzenie 1.1. Niech Pn, P (n = 1, 2, . . .) beda miarami probabilistycznymi na B(E). Nastepujace warunki sa równoważne. a) Pn ! P . b) Dla każdej funkcji f " C(E) jednostajnie ciaglej, fdPn fdP . E E c) Dla każdego domknietego F " E, lim supn" Pn(F ) d" P (F ). d) Dla każdego otwartego G " E, lim infn" Pn(G) e" P (G). e) Dla każdego A " B(E) takiego, że P ("A) = 0, mamy limn" Pn(A) = P (A). Dowód: a) ! b) oczywiste. b) ! c) Ustalmy > 0 i niech F = {x " E : (x, F ) d" }. Na mocy Lematu 1.1 istnieje f " C(E) jednostajnie ciagla, przyjmujaca wartości w [0, 1], równa 1 c na F oraz 0 na F . Mamy Pn(F ) = fdPn d" fdPn fdP = fdP d" P (F). F E E F Zatem lim supn Pn(F ) d" P (F), i z dowolności wynika, co trzeba. c) ! a) Wystarczy udowodnić, że dla każdej funkcji f " C(E), (1) lim sup fdPn d" fdP, n E E gdyż po zastapieniu f przez -f dostaniemy lim infn E fdPn e" fdP , a wiec w E rzeczywistości mamy równość, gdyż lim inf d" lim sup. Zauważmy, że jeśli f " C(E), to istnieja a > 0 oraz b " R takie, że af + b przyjmuje wartości w przedziale (0, 1). Co wiecej, jeśli wykażemy (1) dla af + b, to nierówność bedzie także zachodzić dla f. Innymi slowy, możemy bez straty ogólności zalożyć, że 0 < f(x) < 1 dla każdego x " E. Ustalmy taka funkcje f i wezmy dodatnia liczbe calkowita k. Rozważmy zbiory i - 1 i Ai = x " E : d" f(x) < , i = 1, 2, . . . , k. k k WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 3 k Oczywiście Ai = E oraz zbiory A1, A2, . . . , Ak sa parami rozlaczne. Ponadto, i=1 k k k i - 1 i L := P (Ai) d" fdP = fdP d" P (Ai) =: R. k k E Ai i=1 i=1 i=1 Zauważmy, że i - 1 i Ai = x : d" f(x) \ x : d" f(x) =: Fi-1 \ Fi, k k i " = Fk " Fk-1 " . . . F1 " F0 = E jest zstepujacym ciagiem zbiorów domknietych. Zatem P (Ai) = P (Fi-1) - P (Fi), i = 1, 2, . . . , k, i podstawiajac dostajemy k k-1 k i - 1 i i - 1 L = (P (Fi-1) - P (Fi)) = P (Fi) - P (Fi) k k k i=1 i=0 i=1 k-1 k-1 k - 1 1 1 = - P (Fk) + P (Fi) = P (Fi) k k k i=1 i=1 oraz k k-1 k i i + 1 i R = (P (Fi-1) - P (Fi)) = P (Fi) - P (Fi) k k k i=1 i=0 i=1 k-1 k-1 1 1 1 = -P (Fk) + P (Fi) = + P (Fi). k k k i=0 i=1 Przeprowadzamy analogiczne oszacowania dla fdPn: w szczególności mamy E k-1 1 1 fdPn d" + Pn(Fi), k k E i=1 skad wynika, na mocy c), k-1 k-1 1 1 1 1 1 lim sup fdPn d" + lim sup Pn(Fi) d" + P (Fi) d" + fdP. k k k k k n n E E i=1 i=1 Wystarczy tylko zbiec z k do nieskończoności. c) ! d): oczywiste po przejściu do dopelnień zbiorów. c) ! e) Zalóżmy, że A " B(E) spelnia warunek P ("A) = 0. Ponieważ "A = A \ intA oraz intA ą" A, mamy P (A) = P (intA) = P (A). Z drugiej strony, korzystajac z c) oraz d), mamy P (A) e" lim sup Pn(A) e" lim sup Pn(A) n n e" lim inf Pn(A) e" lim inf Pn(intA) e" P (intA), n n a zatem wszedzie mamy równości: to oznacza teze podpunktu e). e) ! c) Wezmy dowolny domkniety zbiór F ą" E. Dla każdego > 0 zbiór F = {x : (x, F ) d" } jest domkniety. Ponadto, zbiór { > 0 : P ({x : (x, F ) = }) > 0} jest co najwyżej przeliczalny; zatem istnieje ciag (n) liczb dodatnich malejacy do 0 taki, że P ({x : (x, F ) = n}) = 0 dla każdego n. Ponieważ "F ą" 4 ADAM OSEKOWSKI {x : (x, F ) = }, mamy wiec P ("F ) = 0 dla każdego n, a zatem, korzystajac z n e), przy ustalonym k, lim sup Pn(F ) d" lim sup Pn(F ) = P (F ). k k n n Zbiegajac z k ", mamy k 0 oraz P (F ) P (F ), na mocy tego, iż F jest k domkniety. Stwierdzenie 1.2. Zalóżmy, że Pn, P sa rozkladami prawdopodobieństwa w Rd (n = 1, 2, . . .), o dystrybuantach Fn, F , odpowiednio. Wówczas Pn ! P wtedy i tylko wtedy, gdy Fn(x) F (x) dla każdego punktu x, w którym F jest ciagla. Dowód: ! Wezmy punkt x = (x1, x2, . . . , xd) ciaglości dystrybuanty F i niech A = {y " Rd : yi d" xi, i = 1, 2, . . . , d}. Zauważmy, iż P ("A) = 0; w przeciwnym razie F mialaby nieciaglość w punkcie x (istotnie, mielibyśmy 1 1 1 1 lim F (x1 - , x2 - , . . . , xd - ) = lim P ({y " Rd : yi d" xi - }) k" k k k k" k < P (A) = F (x) ). Zatem na mocy podpunktu e) Twierdzenia 1.1, Fn(x) = Pn(A) P (A) = F (x). ! Najpierw udowodnimy Lemat 1.2. Zalóżmy, że E jest przestrzenia metryczna, K ą" B(E) jest Ą-ukladem takim, że każdy zbiór otwarty jest suma skończona lub przeliczalna zbiorów z K. Jeśli Pn, P (n = 1, 2, . . .) sa miarami probabilistycznymi na B(E) takimi, że dla każdego A " K mamy Pn(A) P (A), to Pn ! P . Dowód. Udowodnimy, że dla każdego zbioru otwartego G ą" E, lim inf Pn(G) e" P (G). Ustalmy wiec zbiór otwarty G oraz > 0. Z zalożeń lematu istnieje skończony ciag A1, A2, . . . , Ak elementów K taki, że A1 *" A2 *" . . . *" Ak ą" G, oraz P (G \ (A1 *" A2 *" . . . *" Ak)) < . Mamy P (G \ (A1 *" A2 *" . . . *" Ak)) = P (G) - P (A1 *" A2 *" . . . *" Ak), skad, na mocy wzoru wlaczeń i wylaczeń, k k P (G) < + P ( Ai) = + P (Ai) - P (Ai )" Aj) + . . . i=1 i=1 1d"ik = + lim Pn(Ai) - lim Pn(Ai )" Aj) + . . . n" n" i=1 1d"ik = + lim Pn( Ai) d" + lim inf Pn(G). n n i=1 Wystarczy skorzystać z tego, że > 0 bylo dowolne. Wracamy do dowodu stwierdzenia. Dla każdego i = 1, 2, . . . istnieje co najwyżej przeliczalnie wiele hiperplaszczyzn H " Rd prostopadlych do osi OXi, o dodatniej mierze P ; niech S oznacza dopelnienie sumy wszystkich takich hiperplaszczyzn (sumujemy także po i). Jak latwo zauważyć, S jest gestym podzbiorem Rd oraz każdy punkt z S jest punktem ciaglości F . Zbiór K = {(a, b] = (a1, b1] (a2, b2] . . . (ad, bd] : a, b " S, ai < bi dla każdego i} WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 5 jest Ą-ukladem i każdy zbiór otwarty jest suma skończona lub przeliczalna zbiorów z K. Mamy Pn((a, b]) 1 = (-1)d-( +2+...+d)Fn(b1 + 1(a1 - b1), . . . , bd + d(ad - bd)) i"{0,1} 1 (-1)d-( +2+...+d)F (b1 + 1(a1 - b1), . . . , bd + d(ad - bd)) i"{0,1} = P ((a, b]). Wystarczy skorzystać z poprzedniego lematu. Definicja 1.2. Zalóżmy, że Xn, X (n = 1, 2, . . .) sa zmiennymi losowymi o wartościach w E oraz jest miara probabilistyczna na B(E). (i) Mówimy, że ciag (Xn) jest zbieżny wedlug rozkladu do X, jeśli PX ! PX. n D Oznaczenie: Xn ! X lub Xn - X.
(ii) Mówimy, że ciag (Xn) jest zbieżny wedlug rozkladu do , jeśli PX ! . n D Oznaczenie Xn ! lub Xn - .
Uwagi: (1) W definicji zbieżności wedlug rozkladu, zmienne Xn moga być określone na różnych przestrzeniach probabilistycznych. (2) Równoważnie, (Xn) zbiega do X wedlug rozkladu wtedy i tylko wtedy, gdy dla każdej funkcji f " C(E), (2) lim Ef(Xn) = Ef(X). n" Ponadto, na mocy podpunktu b) Twierdzenia 1.1, można sie ograniczyć w (2) do funkcji jednostajnie ciaglych. (3) Slaba zbieżność odnosi sie wylacznie do rozkladów zmiennych losowych. Na przyklad, rozważmy ciag (Xn), zadany na przestrzeni probabilistycznej ([0, 1], B([0, 1]), | |) wzorem X2n-1 = 1[0,1/2], X2n = 1[1/2,1], n = 1, 2, . . . . Jak latwo zauważyć, (Xn) nie jest ani zbieżny prawie na pewno, ani wedlug prawdopodobieństwa. Natomiast z punktu widzenia slabej zbieżności, jest 1 1 to ciag staly: PX = 0 + 1. Ciag ten zbiega slabo do X1 oraz do X2. n 2 2 Stwierdzenie 1.3. Zalóżmy, że X, Xn, Yn (n = 1, 2, . . .) sa zmiennymi losowymi o wartościach w E, przy czym dla każdego n, zmienne Xn oraz Yn sa określone P na tej samej przestrzeni probabilistycznej. Jeśli Xn ! X oraz (Xn, Yn) - 0, to
Yn ! X. Biorac Xn = X, dostajemy stad natychmiast nastepujacy fakt. Wniosek 1.1. Jeśli (Xn) zbiega do X wedlug prawdopodobieństwa, to zbiega także wedlug rozkladu. Dowód Stwierdzenia 1.3. Niech F bedzie dowolnym domknietym podzbiorem przest- rzeni E i ustalmy > 0. Zbiór F = {x : (x, F ) d" } jest domkniety i mamy PY (F ) = P(Yn " F, (Xn, Yn) d" ) + P(Yn " F, (Xn, Yn) > ) n d" P(Xn " F) + P((Xn, Yn) > ). 6 ADAM OSEKOWSKI Zatem lim sup PY (F ) d" lim sup PX (F) + 0 d" PX(F) n n n n i przechodzac z do 0 dostajemy lim supn PY (F ) d" PX(F ). Z dowolności F oraz n podpunktu c) Twierdzenia 1.1 wynika teza. Definicja 1.3. Niech P bedzie pewnym zbiorem miar probabilistycznych na B(E). Mówimy, że ten zbiór jest ciasny (jedrny) jeśli dla każdego > 0 istnieje zwarty podzbiór K przestrzeni E taki, że P (K) e" 1 - dla każdego P " P. Przyklad: Zalóżmy, że (Xi)i"I jest rodzina zmiennych losowych o wartościach rzeczy- wistych, takich, że dla pewnego ą > 0, a := supi"I E|Xi|ą < ". Wówczas rodz- ina rozkladów (PX )i"I jest ciasna. Istotnie, ustalmy > 0 i L > 0. Na mocy i nierówności Czebyszewa, dla każdego i " I, E|Xi|ą a PX ([-L, L]) = P(|Xi| d" L) = 1 - P(|Xi| > L) e" 1 - e" 1 - = 1 - , i Lą Lą o ile a/Lą = ; wystarczy wiec wzia ć K = [-(a/)1/ą, (a/)1/ą]. Twierdzenie 1.2 (Prochorow). (i) (Twierdzenie odwrotne) Jeśli P jest zbiorem ciasnym, to z każdego ciagu elementów P można wybrać podciag zbieżny. (ii) (Twierdzenie proste) Jeśli E jest przestrzenia polska (tzn. ośrodkowa i zupelna) i P ma te wlasność, że z każdego ciagu można wybrać podciag zbieżny, to P jest zbiorem ciasnym. Dowód w przypadku E = R. (i) Zalóżmy, że (Pn)ne"1 jest ciagiem elementów z cias- nej klasy P, o odpowiadajacych dystrybuantach (Fn)ne"1, i niech {wn}ne"1 bedzie ciagiem wszystkich liczb wymiernych. Ciag (Fn(w1))ne"1 jest ograniczony (jego wyrazy należa do przedzialu [0, 1]), a wiec istnieje jego podciag (Fn (w1))ke"1 zbieżny k do pewnej granicy F (w1). Podobnie, ciag (Fn (w2))ke"1 jest ograniczony, a wiec k możemy wybrać podciag (Fn (w2)) e"1 zbieżny do pewnej granicy F (w2). Kon- k tynuujemy to rozumowanie i stosujemy metode przekatniowa by otrzymać istnienie ciagu (nk)ke"1 takiego, że limk" Fn (w ) = F (w ) dla wszystkich . Funkcja k F : Q R jest niemalejaca i zbiega do 0 w -"; kladac F (t) = inf{F (s) : s e" t, s " Q}, rozszerzamy ja do funkcji prawostronnie ciaglej na R, posiadajacej granice lewost- ronne w każdym punkcie, niemalejacej i spelniajacej lim F (t) = 0, lim F (t) " [0, 1]. t-" t" Ponadto, jak latwo sprawdzić, zachodzi limt" Fn (t) = F (t) w każdym punkcie k ciaglości F (korzystamy tu z gestości zbioru liczb wymiernych). Wystarczy wiec udowodnić, że limt" F (t) = 1 - bedzie to gwarantować, że F jest dystrybuanta pewnego rozkladu i dostaniemy teze na mocy Stwierdzenia 1.2. Skorzystamy z ciasności: dla dowolnego > 0 istnieje liczba M taka, że dla wszystkich k, Fn (M) - Fn (-M) = Pn ((-M, M]) e" 1 - . k k k Co wiecej, możemy zalożyć, że zarówno M jak i -M sa punktami ciaglości F . Wobec tego, przechodzac z k do nieskończoności, otrzymujemy F (M) e" F (M) - F (-M) e" 1 - WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 7 i z dowolności wnioskujemy, że F istotnie jest dystrybuanta. (ii) Przypuśćmy, że rodzina P nie jest ciasna. Wówczas istnieje takie > 0, że dla dowolnego przedzialu [-n, n] mamy Pn([-n, n]) < 1 - dla pewnej miary Pn " P. Z zalożenia, ciag (Pn)ne"1 zawiera podciag slabo zbieżny do pewnej granicy, powiedzmy P . Istnieje liczba N taka, że P ((-N, N)) > 1 - ; z drugiej strony, na mocy Twierdzenia 1.1, P ((-N, N)) d" lim inf Pn((-N, N)) d" lim inf Pn([-n, n]) d" 1 - . n" n" Sprzeczność kończy dowód. Na zakończenie, zaprezentujemy nastepujace dwa fakty (bez dowodu). Twierdzenie 1.3 (Skorochod). Zalóżmy, że E jest przestrzenia ośrodkowa oraz Pn, P (n = 1, 2, . . .) sa miarami probabilistycznymi na B(E). Jeśli Pn ! P , to istnieja zmienne losowe Xn, X (n = 1, 2, . . .), określone na tej samej przestrzeni probabilistycznej (&!, F, P) takie, że PX = Pn, PX = P (n = 1, 2 . . .) oraz Xn X n prawie na pewno. Twierdzenie 1.4. Zalóżmy, że E jest przestrzenia ośrodkowa i niech M oznacza klase wszystkich miar probabilistycznych na E. Dla P, Q " M definiujemy Ą(P, Q) = inf{ > 0 : "A"B(E) Q(A) d" P (A) + , P (A) d" Q(A) + }. Wówczas Ą jest metryka w M (jest to tzw. metryka Levy-Prochorowa) oraz zbież- ność w sensie tej metryki pokrywa sie ze zwykla zbieżnościa miar probabilistycznych. 1A. Dowód twierdzenia Prochorowa w przypadku ogólnym Potrzebne nam beda nastepujace trzy fakty: z Topologii, Analizy Funkcjonalnej oraz Teorii Miary. Stwierdzenie 1.4. Zalóżmy, że K jest przestrzenia metryczna zwarta. Wówczas C(K) jest ośrodkowa. Twierdzenie 1.5 (Riesz). Zalóżmy, że : C(K) R jest dodatnim funkcjonalem liniowym ciaglym, tzn. (i) (af + bg) = a(f) + b(g) dla dowolnych a, b " R, f, g " C(K). (ii) Istnieje stala L taka, że |(f)| d" L supx"K |f(x)| dla wszystkich f " C(K). (iii) Dla dowolnej nieujemnej funkcji f " C(K) mamy (f) e" 0. Wówczas istnieje dokladnie jedna miara skończona na B(K) taka, że (f) = f(x)(dx) dla dowolnej funkcji f " C(K). K Stwierdzenie 1.5 (Regularność). Zalóżmy, że jest miara skończona na B(E). Wówczas dla każdego A " B(E) istnieje ciag (Fn) zbiorów domknietych zawartych n" w A oraz ciag (Gn) zbiorów otwartych zawierajacych A, takie, że (Fn) --- (A) - n" oraz (Gn) --- (A). - Dowód twierdzenia odwrotnego. Zalóżmy, że P jest ciasny. Wobec tego, dla każdego 1 m = 1, 2, . . . istnieje zwarty podzbiór Km przestrzeni E taki, że P (Km) e" 1 - m dla wszystkich P " P. Bez straty ogólności możemy zalożyć, że ciag (Km) jest wstepujacy (zastepujac ten ciag, w razie potrzeby, przez ciag K1, K1 *" K2, K1 *" K2 *" K3, . . .). Niech (Pm) bedzie ciagiem miar z P. Dla wiekszej przejrzystości dowodu, podzie- limy go na kilka cześci. 8 ADAM OSEKOWSKI 1. Na mocy Stwierdzenia 1.4, dla każdego m = 1, 2, . . ., C(Km) jest przestrzenia ośrodkowa. Niech {fm }r=1, 2, ... bedzie jej przeliczalnym gestym podzbiorem. Dla r każdego m, r, ciag ( fm dPn)n jest ograniczonym ciagiem liczbowym; można z Km r niego wybrać podciag zbieżny. Stosujac metode przekatniowa widzimy, iż istnieje podciag (n1, n2, . . .) taki, że dla wszystkich m, r, ciag ( fm dPn )i jest zbieżny. Km r i 2. Pokażemy, że dla każdego m = 1, 2, . . . i każdej funkcji f " C(Km), ciag ( fdPn )i jest zbieżny. Ustalmy > 0 oraz r takie, że supx"K |f(x)-fm (x)| d" r Km i m /3. Mamy fdPn - fdPn d" fdPn - fm dPn i j i r i Km Km Km Km + fm dPn - fm dPn r i r j Km Km + fm dPn - fdPn . r j j Km Km Dwa skrajne skladniki po prawej stronie szacuja sie przez /3; na przyklad, mamy fdPn - fm dPn d" |f - fm |dPn i r i r i Km Km Km d" sup |f - fm |Pn (Km) d" /3. r i K Środkowy skladnik nie przekracza /3 o ile i, j sa dostatecznie duże; wynika to z definicji podciagu (ni). 3. Oznaczmy m(f) = limi" Km fdPn , dla f " C(Km). Jest oczywiste, że i spelnia zalożenia Twierdzenia Riesza. Zatem istnieje miara m na B(Km) taka, że m(f) = fdm dla wszystkich f " C(Km), m = 1, 2, . . .. Rozszerzmy te Km miare na B(E), kladac m(A) = m(A )" Km). 4. Udowodnimy, że dla każdego A " B(E) ciag (m(A)) spelnia warunek Cauchy ego. ściślej, wykażemy, że 1 (3) 0 d" m (A) - m (A) d" dla m1 > m2 e" 1. 1 2 m2 Najpierw zalóżmy, że F jest zbiorem domknietym i niech > 0. Niech f bedzie nieujemna funkcja jednostajnie ciagla pochodzaca z Lematu 1.1. Mamy 0 d" fdPn = fdPn - fdPn i i i Km1 \Km2 Km1 Km2 1 d" sup |f|(Pn (Km ) - Pn (Km )) d" 1 - Pn (Km ) d" . i 1 i 2 i 2 m2 E Zbiegajac teraz z i do nieskończoności dostajemy 1 0 d" fdm - fdm = fdm - fdm d" . 1 2 1 2 m2 Km1 Km2 E E Wezmy teraz 0; ponieważ f 1A, otrzymujemy (3) dla zbiorów domknietych, na mocy twierdzenia Lebesgue a. Aby otrzymać te nierówność w przypadku ogól- nym, poslużymy sie regularnościa. Dla dowolnego A " B(E) istnieja ciagi (Fk) oraz (Fk ) zbiorów domknietych zawartych w A, takie, że m (Fk) m (A) oraz 1 1 m (Fk ) m (A). Korzystajac z (3) dla zbioru domknietego Fk = Fk *" Fk i 2 2 zbiegajac z k " otrzymujemy żadana nierówność. WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 9 5. Wiemy, na mocy poprzedniej cześci, że ciag (m(A))m jest zbieżny dla każdego A " B(E). Oznaczmy jego granice przez (A). Wykażemy, że jest miara prob- abilistyczna oraz Pn ! . Pierwsza wlasność wyniknie z nastepujacych trzech i faktów. a) (E) = 1. b) (A1 *" A2) = (A1) + (A2) dla A1, A2 " B(E) takich, że A1 )" A2 = ". " c) Jeśli A1 " A2 " . . . oraz Ak = ", to (Ak) 0. k=1 1 Dowód a) Mamy 1 e" Pn (Km) = 1dPn e" 1 - . Zbiegajac z i do i Km i m 1 nieskończoności dostajemy 1 e" m(E) e" 1- , i teraz da żac z m do nieskończoności m otrzymujemy (E) = 1. Dowód b) Jasne na mocy definicji i tego, że m jest miara dla każdego m. 1 Dowód c) Na mocy (3), mamy 0 d" (A) - m(A) d" dla wszystkich A " B(E) m oraz m = 1, 2, . . .. Zatem, dla dowolnego k, 1 (Ak) = (Ak) - m(Ak) + m(Ak) d" + m(Ak). m Zbiegajac z k " widzimy, że lim supk" (Ak) d" 1/m, co na mocy dowolności m daje lim supk (Ak) = 0, czyli limk" (Ak) = 0. Pozostalo już tylko sprawdzić, że Pn ! . Dla usalonej f " C(E), mamy i fdPn - fd d" fdPn + fdPn - fdm i i i c E E Km Km Km + fdm - fd = I + II + III. E E 1 Na mocy ciasności, I d" supE |f| . Ponadto, z definicji m, II 0 gdy m ". m Wreszcie, 1 III = fd( - m) d" sup |f|((E) - m(E)) d" sup |f| . m E E E Zatem I + II + III 0 gdy m ". Dowód jest zakończony. Dowód prostego twierdzenia Prochorowa jest znacznie latwiejszy i pozostawiamy go jako ćwiczenie (patrz zadanie 13). 10 ADAM OSEKOWSKI 2. Zadania 1. Udowodnić, że ciag (Exp(n/(n+ 1))) jest zbieżny wedlug rozkladu do Exp(1). 2. Dany jest ciag (Xn) zmiennych losowych zbieżny wedlug rozkladu do zmiennej losowej X. Udowodnić, że ciag (sin Xn) jest zbieżny wedlug rozkladu do zmiennej sin X. 3. Czy zmienne losowe posiadajace gestość moga zbiegać wedlug rozkladu do zmiennej o rozkladzie dyskretnym? Czy zmienne losowe o rozkladach dyskretnych moga zbiegać do zmiennej o rozkladzie ciaglym? 4. Niech X1, X2, . . . beda zmiennymi losowymi, przy czym dla n e" 1 rozklad zmiennej Xn określony jest nastepujaco: j 2j P Xn = = , j = 1, 2, . . . , n. n n(n + 1) Dowieść, że ciag (Xn) jest zbieżny wedlug rozkladu. Wyznaczyć rozklad graniczny. 5. Niech B(n, p) oznacza rozklad Bernoulliego o n próbach z prawdopodobieńst- wem sukcesu p, a Pois() - rozklad Poissona z parametrem . Wykazać, że jeśli npn , to B(n, pn) ! Pois(). 6. Zmienne losowe X1, X2, . . . zbiegaja wedlug rozkladu do zmiennej X stalej p.n. Wykazać, że ciag (Xn) zbiega do X wedlug prawdopodobieństwa. 7. Niech gn, g oznaczaja odpowiednio gestości rozkladów prawdopodobieństwa n, na RN . Udowodnić, że jeśli gn g p.w., to n ! . 8. Niech S bedzie przeliczalnym podzbiorem RN , zaś n, - miarami prob- abilistycznymi skupionymi na S. Wykazać, że jeśli dla każdego x " S mamy n({x}) ({x}), to n ! . 9. Ciag dystrybuant (Fn) zbiega punktowo do dystrybuanty ciaglej F . Wykazać, że zbieżność jest jednostajna. 10. Dane sa ciagi (Xn), (Yn) zmiennych losowych, określonych na tej samej przestrzeni probabilistycznej, przy czym (Xn) zbiega wedlug rozkladu do X, a (Yn) zbiega wedlug rozkladu do zmiennej Y stalej p.n.. Udowodnić, że (Xn + Yn) zbiega wedlug rozkladu do X + Y . Czy teza pozostaje prawdziwa bez zalożenia o jedno- punktowym rozkladzie Y ? 11. Dany jest ciag (Xn) zmiennych losowych przyjmujacych wartości w przedziale n" k 1 [0, 1]. Udowodnić, że jeśli dla każdego k = 0, 1, 2, . . . mamy EXn --- , to - k+1 (Xn) jest zbieżny wedlug rozkladu. 12. Zalóżmy, że (Xn) jest ciagiem niezależnych zmiennych losowych o rozkladzie Cauchy ego z parametrem a > 0, tzn. z gestościa a g(x) = . Ą(a2 + x2) 1 1 Udowodnić, że maxkd"n Xk ! , gdzie T ma rozklad wykladniczy. Wyznaczyć n T parametr tego rozkladu. 13. Zalóżmy, że E jest przestrzenia polska oraz P jest rodzina miar probabilisty- cznych na B(E), taka, że z każdego ciagu jej elementów można wybrać podciag zbieżny. WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 11 (i) Udowodnić, że n ">0 ">0 "x , x2, ..., xn"E "P "P P ( B(xk, )) e" 1 - , 1 k=1 gdzie B(x, ) = {y " E : (x, y) < }. (ii) Wywnioskować z (i) proste twierdzenie Prochorowa (wskazówka: w przest- rzeni metrycznej zupelnej zbiór domkniety i calkowicie ograniczony - tzn. dla każdego > 0 posiadajacy skończona -sieć - jest zwarty). 14. Zalóżmy, że ciag (Xn) zbiega wedlug rozkladu do X. Niech h : R R bedzie taka funkcja borelowska, że P(X " {punkty nieciaglości h}) = 0. (i) Udowodnić, że h(Xn) ! h(X). n" (ii) Udowodnić, że jeśli h jest dodatkowo ograniczona, to Eh(Xn) --- Eh(X). - 15. Zalóżmy, że ciag (Xn) zbiega wedlug rozkladu do X. Udowodnić, że (i) E|X| d" lim infn E|Xn|. (ii) jeśli X1, X2, sa dodatkowo jednostajnie calkowalne, to EXn EX. n" (iii) jeśli X, X1, X2, . . . sa calkowalne, nieujemne i EXn --- EX, to X1, X2, . . . - sa jednostajnie calkowalne. 16. Dane sa dwa ciagi (Xn) oraz (Yn) zmiennych losowych, zbieżnych wedlug rozkladu do X oraz Y , odpowiednio. (i) Czy (Xn, Yn) zbiega wedlug rozkladu do (X, Y )? (ii) Jaka jest odpowiedz w (i) jeśli dodatkowo przy każdym n zmienne Xn oraz Yn sa niezależne? 17. Jaki warunek musi spelniać zbiór " R+, aby rodzina (Exp())" byla ciasna? 12 ADAM OSEKOWSKI 3. Funkcje charakterystyczne rozkladów prawdopodobieństwa w Rd Do tej pory zajmowaliśmy sie zmiennymi losowymi o wartościach w Rd badz, ogólniej, w przestrzeniach metrycznych (bez żadnej dodatkowej struktury). W tym rozdziale ważna role beda pelnily zmienne losowe o wartościach w C. 3.1. Zmienne losowe o wartościach zespolonych. Zalóżmy, że (&!, F, P) jest przestrzenia probabilistyczna. Funkcja X : &! C jest zmienna losowa, jeśli jest zmienna losowa przy utożsamieniu C = R2 - innymi slowy, jeśli (X1, X2) = (ReX, ImX) jest zmienna losowa w R2. Jeśli X1 oraz X2 sa calkowalne (co jest 2 2 równoważne temu, że E|X| = E X1 + X2 < "), to definiujemy EX = EX1 + iEX2. Bez trudu dowodzimy, iż maja miejsce nastepujace fakty. (i) Mamy |EX| d" E|X|. (ii) Zachodzi twierdzenie Lebesgue a o zmajoryzowanym przejściu do granicy pod znakiem wartości oczekiwanej. (iii) Dla dowolnych z1, z2 " C i dowolnych zespolonych zmiennych losowych X, Y takich, że EX, EY istnieja, mamy E(z1X + z2Y ) = z1EX + z2EY. 3.2. Funkcje charakterystyczne. Przechodzimy do definicji glównego pojecia tego rozdzialu. Definicja 3.1. (i) Zalóżmy, że P jest rozkladem prawdopodobieństwa w Rd. Funkcje P (t) = ei(t,x)P (dx), t " Rd, Rd nazywamy funkcja charakterystyczna P . (ii) Zalóżmy, że X jest zmienna losowa o wartościach w Rd, określona na (&!, F, P). Wówczas X := P nazywamy funkcja charakterystyczna (rozkladu) zmiennej X losowej X. Uwaga: Z twierdzenia o zamianie zmiennych wynika, iż X(t) = Eei(t,X). Bezpośrednio z definicji widzimy, że funkcja charakterystyczna zmiennej losowej zależy tylko od rozkladu tej zmiennej. Wlasności funkcji charakterystycznych. 1) Zalóżmy, że X jest d-wymiarowa zmienna losowa. Wówczas X jest dobrze określona na calym Rd, ponadto X(0) = 1 oraz |X(t)| d" E|ei(t,X)| = 1 dla wszystkich t " Rd. 2) Zalóżmy, że X jest d-wymiarowa zmienna losowa. Wówczas X jest jednos- tajnie ciagla na Rd; istotnie, dla h " Rd, sup |X(t + h) - X(t)| = sup |Eei(t+h,X) - Eei(t,X)| t"Rd t"Rd d" sup E|ei(t+h,X) - ei(t,X)| = E|ei(h,X) - 1| 0, t"Rd gdy h 0. WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 13 3) Zalóżmy, że X jest d-wymiarowa zmienna losowa. Wówczas X jest dodatnio określona, tzn. dla wszystkich a1, a2, . . . , an " C oraz t1, t2, . . . , tn " Rd, X(tj - tk)ajak e" 0. j,k Istotnie, mamy 2 n j j k 0 d" ajei(t ,x) PX(dx) = ajei(t ,x)akei(t ,x)PX(dx) Rd j=1 Rd j,k j k = ajak ei(t ,x)e-i(t ,x)PX(dx) = X(tj - tk)ajak. Rd j,k j,k Powstaje naturalne pytanie: kiedy funkcja : Rd C jest funkcja charakterysty- czna pewnego rozkladu? Odpowiedz jest zawarta w nastepujacym twierdzeniu. Twierdzenie 3.1 (Bochner). Funkcja : Rd C jest funkcja charakterystyczna pewnego rozkladu prawdopodobieństwa w Rd wtedy i tylko wtedy, gdy jest ciagla, dodatnio określona oraz (0) = 1. 4) Zalóżmy, że X jest d-wymiarowa zmienna losowa, A jest macierza n d oraz b " Rn. Wówczas T AX+b(t) = Eei(t,AX+b) = ei(t,b)Eei(t,AX) = ei(t,b)Eei(A t,X) = ei(t,b)X(AT t). W szczególności, -X(t) = X(-t) = X(t). Oznacza to, iż jeśli PX = P-X (rozklad zmiennej jest symetryczny), to X jest rzeczywista. 5) Zalóżmy, że X jest rzeczywista zmienna losowa taka, że E|X|k < " dla pewnej liczby calkowitej dodatniej k. Wówczas X ma k-ta pochodna ciagla i (k)(t) = ikE(eitXXk). X W szczególności, (k)(0) = ikEXk. X Wezmy najpierw k = 1. Mamy X(t + h) - X(t) ei(t+h)X - eitX eihX - 1 = E = EeitX . h h h Zauważmy, że limh0 h-1(eihX - 1) = iX oraz eihX - 1 | cos(hX) - 1| sin(hX) eitX d" + h |h| |h| sin(hX/2) | sin(hX)| = |X| sin(hX/2) + d" 2|X| " L1, hX/2 |hX| zatem z twierdzenia Lebesgue a wynika teza. Dla k > 1 dowód jest analogiczny, opierajacy sie na indukcji. Zachodzi nastepujacy ogólniejszy fakt: jeśli X = (X1, X2, . . . , Xd) jest d-wymiarowa zmienna losowa taka, że E|X|k < ", to X ma ciagle pochodne czastkowe k-tego rzedu i "k j1 j2 jd X(t1, t2, . . . , td) = ikE(ei(t,X)X1 X2 . . . Xd ). 1 2 d "tj "tj . . . "tj 1 2 d 14 ADAM OSEKOWSKI 6) Jeśli zmienne X1, X2, . . ., Xn sa niezależne, to X +X2+...+Xn(t) = X (t)X (t) . . . X (t). 1 1 2 n 1 2 d Istotnie, mamy, iż ei(t,X ), ei(t,X ), . . . , ei(t,X ) sa niezależne, skad n n n j j X +X2+...+Xn(t) = E ei(t,X ) = Eei(t,X ) = X (t). 1 j j=1 j=1 j=1 3.3. Przyklady. (I) Zalóżmy najpierw, że X jest d-wymiarowa zmienna losowa o rozkladzie skokowym i niech SX oznacza zbiór atomów. Bezpośrednio z definicji mamy, iż X(t) = ei(t,x)PX({x}). x"SX W szczególności: 1) Jeśli PX = a, a " Rd, to X(t) = ei(t,a). Co wiecej, jeśli a = 0, to X a" 1. 2) Zalóżmy, że PX =Pois(), > 0. Mamy " " k (eit)k it it X(t) = eitk e- = e- = e-ee = e(e -1). k! k! k=0 k=0 3) PX =B(n, p). Niech X1, X2, . . . , Xn beda niezależnymi zmiennymi losowymi o tym samym rozkladzie P(Xi = 1) = p = 1 - P(Xi = 0). Ponieważ X1 + X2 + . . . + Xn ma ten sam rozklad co X, to X(t) = X +X2+...+Xn(t) = X (t)X (t) . . . X (t) 1 1 2 n = (X (t))n = (1 + p(eit - 1))n. 1 (II) Zalóżmy teraz, że X jest d-wymiarowa zmienna losowa o rozkladzie ciaglym z gestościa g. Z definicji mamy, iż X(t) = ei(t,x)g(x)dx. Rd W szczególności: 4) Jeśli PX jest rozkladem jednostajnym na przedziale [a, b], to b 1 1 X(t) = eitxdx = (eitb - eita). b - a it(b - a) a sin(tb) Jeśli b = -a, to X jest funkcja rzeczywista i X(t) = . tb 5) Jeśli PX = N (m, 2), m " R, > 0, to 1 (x - m)2 g(x) = " exp - 22 2Ą oraz 2 (") X(t) = eitme- t2/2 2 (w szczególności, dla standardowego rozkladu normalnego, dostajemy (t) = e-t /2). Istotnie, wezmy X jak wyżej. Zmienna (X - m)/ ma standardowy rozklad normalny i X(t) = X-m (t) = (X-m)/(t)eitm. +m
WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 15 Zatem wystarczy udowodnić wzór (*) dla rozkladu N (0, 1). Zalóżmy wiec, że X ma ten rozklad i zauważmy najpierw, że X jest funkcja rzeczywista, gdyż rozklad X jest symetryczny. Zatem 1 2 " X(t) = cos(tx) e-x /2dx 2Ą R oraz 1 2 " X(t) = sin(tx) (-x)e-x /2dx 2Ą R " 1 2 1 2 " = sin(tx)e-x /2 - " t cos(tx)e-x /2dx = -tX(t). -" 2Ą 2Ą R 2 Dodatkowo, jak wiemy, X(0) = 1: stad X(t) = e-t /2. Ogólniej, jeśli X ma d-wymiarowy rozklad normalny z gestościa " detA 1 g(x) = exp - (A(x - m), x - m) (2Ą)d/2 2 (gdzie A to pewna macierz dd symetryczna i dodatnio określona, a m jest pewnym wektorem z Rd), to -1 X(t) = ei(m,t)e-(A t,t)/2. Dowód tego faktu przeprowadzimy nieco pózniej. Przejdziemy teraz do twierdzenia o jednoznaczności: okazuje sie, że funkcja charakterystyczna wyznacza rozklad jednoznacznie. Twierdzenie 3.2 (O jednoznaczności). Jeśli P , P sa rozkladami prawdopodobieństwa w Rd takimi, że P (t) = P (t) dla wszystkich t " Rd, to P = P . Zanim podamy dowód, najpierw sformulujmy wniosek. Stwierdzenie 3.1. Zmienne losowe X1, X2, . . . , Xn sa niezależne wtedy i tylko wtedy, gdy (") (X , X2, ..., Xn)(t1, t2, . . . , tn) = X (t1)X (t2) . . . X (tn) 1 1 2 n dla wszystkich (t1, t2, . . . , tn) " Rn. Dowód: ! Mamy (X , X2, ..., Xn)(t1, t2, . . . , tn) = P (t1, t2, . . . , tn) 1 (X1, X2, ..., Xn) = P "PX2 "..."PXn (t1, t2, . . . , tn) X1 ł ł n łi = exp tjxjłł PX (dx1) . . . PX (dxn) 1 n Rn j=1 n n j = eit xj PX (dxj) = X (tj), j j R j=1 j=1 gdzie w przedostatnim przejściu korzystaliśmy z twierdzenia Fubiniego. ! Korzystajac z przed chwila udowodnionej implikacji, możemy zapisać (*) w postaci P (t1, t2, . . . , tn) = P "PX2 "..."PXn (t1, t2, . . . , tn), (X1, X2, ..., Xn) X1 16 ADAM OSEKOWSKI a wiec twierdzenie o jednoznaczności daje P(X , X2, ..., Xn) = PX " PX " . . . " PX , 1 1 2 n czyli niezależność zmiennych X1, X2, . . . , Xn. W dowodzie twierdzenia o jednoznaczności bedziemy potrzebować nastepujacego pomocniczego faktu. Twierdzenie 3.3 (Weierstrass). Zalóżmy, że f : R R jest ciagla funkcja okre- sowa. Wówczas istnieje ciag (wn) wielomianów trygonometrycznych o tym samym okresie co f, zbieżny jednostajnie do f. (wielomian trygonometryczny o okresie T n to funkcja w : R R postaci w(x) = [ąk sin(kx 2Ą/T ) + k cos(kx 2Ą/T )].) k=0 Dowód twierdzenia o jednoznaczności (tylko dla d = 1): Wystarczy udowodnić, że dla dowolnej funkcji f " C(R) mamy (") fdP = fdP . R R Z zalożenia, (*) zachodzi dla funkcji x eitx, x " R, przy każdym ustalonym t " R. Zatem, z liniowości, powyższa równość ma miejsce dla dowolnego wielo- mianu trygonometrycznego; mamy bowiem sin(tx) = (eitx - e-itx)/(2i), cos(tx) = (eitx+e-itx)/2. Na mocy twierdzenia Weierstrassa, (*) jest prawdziwa dla dowolnej funkcji ciaglej okresowej. Niech teraz f bedzie dowolna funkcja ciagla i ograniczona. Istnieje ciag (fn) funkcji ciaglych i okresowych o nastepujacej wlasności: f(x) = fn(x) dla x " [-n, n] oraz sup |fn(x)| d" sup |f(x)|. x"R x"R Mamy, na mocy nierówności trójkata, fdP - fdP d" |f - fn|dP + fndP - fndP + |f - fn|dP R R R R R R = |f - fn|dP + 0 + |f - fn|dP [-n,n]c [-n,n]c d" 2 sup |f(x)| P ([-n, n]c) + P ([-n, n]c) 0 x"R gdy n ". Stad otrzymujemy teze. W przypadku ogólnym (tzn. dla d > 1) dowód jest bardzo podobny; role twierdzenia Weierstrassa pelni ogólniejsze twierdzenie Stone a-Weierstrassa. Rozklady Gaussa (rozklady normalne) w Rd. Zalóżmy, że X ma rozklad normalny w Rd, o wartości oczekiwanej m i macierzy kowariancji . Udowodnimy, że X(t) = ei(t,m)-(t,t)/2. Istotnie, niech Y1, Y2, . . ., Yd beda niezależnymi zmiennymi losowymi o stan- darowym rozkladzie normalnym na R i niech Z = BY + m, gdzie B jest macierza d d i m " Rd. Mamy 2 Y (t) = e-|t| /2, T T Z(t) = ei(t,m)Y (BT t) = ei(t,m)-(B t,BT t)/2 = ei(t,m)-(BB t,t)/2. Zauważmy, że BBT jest macierza symetryczna, nieujemnie określona. Co wiecej, każda macierz symetryczna d d nieujemnie określona da sie tak zapisać; stad, WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 17 dla dowolnej nieujemnie określonej symetrycznej macierzy o wymiarach d d i dowolnego wektora m " Rd, funkcja (t) = ei(t,m)-(t,t)/2 jest funkcja charakterystyczna dokladnie jednego rozkladu prawdopodobieństwa w Rd. Rozklady tej postaci nazywamy rozkladami Gaussa w Rd. Zauważmy, że niektóre rozklady Gaussa nie maja gestości. Bezpośrednio z definicji dostajemy nastepujace wnioski. Stwierdzenie 3.2. Zalóżmy, że X ma rozklad Gaussa w Rd, a A jest macierza n d i m " Rn. Wówczas AX + m ma rozklad Gaussa w Rn. Stwierdzenie 3.3. Jeśli X, Y sa niezależnymi zmiennymi losowymi o rozkladach Gaussa w Rd o wartościach oczekiwanych mX, mY oraz macierzach kowariancji 1, 2, odpowiednio, to X + Y ma rozklad Gaussa w Rd o wartości średniej mX + mY oraz macierzy kowariancji 1 + 2. Przechodzimy do kolejnego bardzo ważnego faktu, laczacego zbieżność wedlug rozkladu ze zbieżnościa funkcji charakterystycznych. Twierdzenie 3.4 (Lvy - Cramera). Zalóżmy, że Pn (n = 1, 2, . . .) sa rozkladami prawdopodobieństwa w Rd. (i) Jeśli Pn ! P , to dla każdego t " Rd, P (t) P (t). n (ii) Jeśli dla każdego t " Rd mamy P (t) (t), gdzie -pewna funkcja ciagla n w 0, to = P dla pewnego rozkladu P i Pn ! P . Dowód: (i) Z definicji zbieżności wedlug rozkladu mamy, dla dowolnego t " Rd, P (t) = cos(x, t)Pn(dx) + i sin(t, x)Pn(dx) n Rd Rd cos(x, t)P (dx) + i sin(t, x)P (dx) = ei(t,x)(dx) = P (t). Rd Rd Rd (ii) Zacznijmy od pomocniczego faktu. Lemat 3.1. Jeśli P (t) (t) dla t należacych do pewnego otoczenia 0 i jest n ciagla w 0, to rodzina {Pn}n jest ciasna. Dowód lematu: Wprowadzmy oznaczenie Qa = [-a, a] [-a, a] . . . [-a, a] " Rd. Przypuśćmy, wbrew tezie, że rodzina {Pn} nie jest ciasna. Wówczas istnieje > 0 o tej wlasności, iż przy każdym k " N mamy Pn (Qk) < 1 - dla pewnego nk. k Zauważmy, iż nk "; istotnie, w przeciwnym razie pewna liczba m znalazlaby sie w ciagu (nk)k nieskończenie wiele razy, co prowadziloby do nierówności Pm(Rd) d" 1 - ; sprzeczność. Ponieważ jest ciagla w 0, to Re także ma te wlasność; ponadto, na mocy zbieżności punktowej, Re(0) = (0) = 1. Wobec tego istnieje takie a > 0, że dla każdego t " Qa mamy P (t) (t) oraz Re(t) > 1 - /2. Dalej, n (t)dt e" Re(t)dt e" (1 - /2)(2a)d, Qa Qa 18 ADAM OSEKOWSKI P (t)dt = ei(t,x)Pn (dx)dt = ei(t,x)dtPn (dx) nk k k Qa Qa Rd Rd Qa d" ei(t,x)dt Pn (dx) + ei(t,x)dt Pn (dx) k k Qk Qa Qc Qa k d" (2a)dPn (Qk) + T, k gdzie d a j T = ei(t,x)dt Pn (dx) = eit xj dtj Pn (dx). k k Qc Qa Qc j=1 -a k k Ustalmy teraz x " Qc . Istnieje wspólrzedna xl punktu x wieksza co do modulu niż k k, zatem d a l l eia xl - e-ia xl j eit xj dtj d" (2a)d-1 d" 2(2a)a-1/k. ixl -a j=1 Stad (2a)dPn (Qk) + T d" (2a)dPn (Qk) + 2(2a)d-1Pn (Qc )/k k k k k k" d" (2a)d(1 - ) + 2(2a)d-1/k --- (2a)d(1 - ). - Ale na mocy twierdzenia Lebesgue a, P (t)dt (t)dt; stad sprzeczność: Qa nk Qa (2a)d(1 - /2) < (2a)a(1 - ). Przechodzimy do dowodu cześci (ii) twierdzenia Levy-Cramera. Powyższy lemat oraz twierdzenie Prochorowa daja istnienie miary probabilistycznej P na Rd oraz podciagu (Pn )k zbieżnego slabo do P . Na mocy cześci (i) twierdzenia Levy- k k" Cramera, mamy P (t) --- P (t), skad (t) = P (t). Pozostaje jeszcze tylko - nk udowodnić, że Pn ! P . Przypuśćmy przeciwnie, iż dla pewnej funkcji f " C(Rd) mamy fdPn fdP ; stad, dla pewnego podciagu (mk), Rd Rd (") fdPm ą = fdP.
k Rd Rd Ale na mocy lematu, rodzina (Pm ) także jest ciasna, stad z twierdzenia Prochorowa k istnieje podciag (mk ) oraz miara probabilistyczna P taka, że Pm ! P . Zatem, j kj korzystajac z (i), P (t) P (t), czyli P = P . Sprzeczność z (*) kończy mk j dowód. Na zakończenie zaprezentujemy twierdzenie o odwróceniu, pozwalajace odczytać gestość rozkladu za pomoca jego funkcji charakterystycznej. Analogiczny fakt dla zmiennych dyskretnych jest treścia zadania 10 poniżej. Twierdzenie 3.5. Zalóżmy, że P jest rozkladem prawdopodobieństwa w Rd o funkcji charakterystycznej P . Wówczas jeśli |P (t)|dt < ", to P ma ciagla Rd ograniczona gestość g dana wzorem 1 g(x) = e-i(t,x)P (t)dt. (2Ą)d Rd WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 19 Dowód: Rozważmy funkcje 1 2 g(x) = e-i(t,x)P (t)e-|t| 2/2dt (2Ą)d Rd 1 2 = e-i(t,x) ei(t,y)P (dy)e-|t| 2/2dt (2Ą)d Rd Rd 1 d 2 = ei(t,y-x)e-|t| 2/2dtP (dy) (2Ą)d/2d (2Ą)d/2 Rd Rd 1 2 = e-|y-x| /(22)P (dy), (2Ą)d/2d Rd gdzie w trzecim przejściu skorzystaliśmy z twierdzenia Fubiniego (dzieki czynnikowi 2 e-|t| 2/2 wyrażenie podcalkowe jest calkowalne), a w czwartym użyliśmy faktu, iż wewnetrzna calka to funkcja charakterystyczna rozkladu N(0, -2I) w punkcie y-x. Jak widać, ostatnie wyrażenie to splot rozkladu P z rozkladem N(0, 2I), w punkcie x; innymi slowy, jeśli X, Y sa niezależnymi zmiennymi o rozkladach P i N(0, I), odpowiednio, to X + Y ma rozklad z gestościa g. Na mocy calkowalności funkcji charakterystycznej i twierdzenia Lebesgue a, mamy g(x) g(x) dla każdego x " R. Wykażemy teraz, że g = 1. Oczywiście, na mocy lematu Fatou, g d" 1. Rd Rd By udowodnić nierówność przeciwna, wezmy > 0 oraz taka liczbe M > 0, by P ((-M, M)) > 1 - . Ponieważ X + Y ! X <" P , to M M 1 - d" lim inf P(X + Y " (-M, M)) = lim inf g(x)dx = g(x)dx, 0+ 0+ -M -M i z dowolności dostajemy, iż g jest gestościa. Wystarczy teraz skorzystać z zadania 7 z pierwszego rozdzialu: punktowa zbieżność g g pociaga za soba, iż (X + Y ) zbiega, przy 0+, do rozkladu o gestości g; stad teza. Przyklad: Funkcja f : R [0, 1] dana jest wzorem f(x) = (1 - |x|)+. Czy f jest funkcja charakterystyczna pewnego rozkladu? Jeśli odpowiedz jest twierdzaca, to na mocy poprzedniego twierdzenia rozklad ten posiada ograniczona gestość zadana wzorem 1 g(x) = e-itxf(t)dt. 2Ą R Powyższa calke można obliczyć w sposób elementarny; zaprezentujemy jednak inne, ciekawsze podejście. Zwróćmy uwage, iż f jest gestościa zmiennej X1 + X2, gdzie 1 1 X1, X2 sa niezależnymi zmiennymi o rozkladzie U(- , ). Wobec tego, 2 2 2 1 1 1 sin(x/2) g(x) = X +X2(-x) = (X (-x))2 = . 1 1 2Ą 2Ą 2Ą x/2 Pozostaje wiec rozstrzygna ć, czy g jest gestościa, czyli czy g(x)dx = 1. W tym R celu, ponownie korzystamy z Twierdzenia 3.5. Funkcja X +X2 jest calkowalna, 1 wiec dla każdego t, 1 f(x) = e-itxX +X2(t)dt = e-itxg(-t)dt = e-itxg(t)dt. 1 2Ą R R R W szczególności, biorac x = 0, dostajemy 1 = g(t)dt. Wobec tego funkcja f jest R funkcja charakterystyczna rozkladu o powyższej gestości g. 20 ADAM OSEKOWSKI 4. Zadania 1. Rozstrzygna ć, czy podane niżej funkcje sa funkcjami charakterystycznymi i jeśli tak, podać odpowiedni rozklad. 1 1 + cos t a) cos t, b) cos2 t, c) (1 + eit)2, d) , e) (2 - eit)-1. 4 2 2. Niech Ć1, Ć2, . . ., Ćn beda funkcjami charakterystycznymi pewnych rozkladów. Udowodnić, iż dowolna kombinacja wypukla tych funkcji jest funkcja charakterysty- czna pewnego rozkladu. 3. Dany jest ciag (Xn) niezależnych zmiennych losowych o tym samym rozkladzie. Zmienna losowa N jest od nich niezależna i ma rozklad Poissona z parametrem . Wyznaczyć funkcje charakterystyczna zmiennej X1 + X2 + . . . + XN . 4. Niech Ć bedzie funkcja charakterystyczna pewnego rozkladu. Rostrzygna ć, czy a) Ć2, b) ReĆ, c) |Ć|2, d) |Ć| sa funkcjami charakterystycznymi. 5. Zmienne X, Y sa niezależne, przy czym X oraz X + Y maja rozklady nor- malne. Udowodnić, że Y ma rozklad normalny lub jest stala p.n.. 6. Zmienne losowe X, Y sa niezależne, przy czym X ma rozklad jednostajny U(0, 1), a Y ma rozklad zadany przez 1 P(Y = k) = , k = 0, 1, 2, . . . , n - 1. n Wyznaczyć rozklad zmiennej X + Y . 7. Zmienne losowe X1, X2, . . . , Xn sa niezależne i maja ten sam rozklad, przy czym zmienna X1+X2+. . .+Xn ma rozklad normalny N (0, 1). Wyznaczyć rozklad zmiennych Xi. 8. Zmienna losowa X ma rozklad jednostajny U(-1, 1). Czy istnieje niezależna 1 od niej zmienna Y taka, że rozklady zmiennych X + Y oraz Y sa takie same? 2 9. Funkcja charakterystyczna zmiennej losowej X ma druga pochodna w zerze. Udowodnić, że EX2 < ". 10. Zmienna losowa X przyjmuje wartości calkowite. Udowodnić, że Ą 1 P(X = k) = e-iktĆX(t)dt, k " Z. 2Ą -Ą p 11. Udowodnić, że dla p > 2 funkcja Ć(t) = e-|t| nie jest funkcja charakterysty- czna żadnego rozkladu. 12. Udowodnić, że Ć(t) = e-|t| jest funkcja charakterystyczna rozkladu Cauchy ego w R, tzn. rozkladu o gestości 1 1 g(x) = . Ą 1 + x2 13. Niech X1, X2, . . . beda niezależnymi zmiennymi losowymi o rozkladzie jednostajnym na przedziale [-1, 1]. Zdefiniujmy sgn Xn Yn = , n = 1, 2, . . . , |Xn|1/ą WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 21 gdzie ą " (0, 2) jest ustalone. Udowodnić, że ciag Y1 + Y2 + . . . + Yn n1/ą jest zbieżny wedlug rozkladu i wyznaczyć funkcje charakterystyczna rozkladu granicz- nego. 14. Udowodnić, że jeśli Pn (n = 1, 2, . . .) sa rozkladami Gaussa w Rd i Pn ! P , to P jest rozkladem Gaussa. 15. Rzucamy moneta, dla której prawdopodobieństwo wypadniecia orla wynosi p, aż do momentu, gdy uzyskamy n orlów (lacznie, niekoniecznie pod rzad). Niech Xp oznacza liczbe rzutów. Udowodnić, że (2pXp) jest zbieżny wedlug rozkladu gdy p 0. 16. Niech X bedzie zmienna losowa o funkcji charakterystycznej X. Udowodnić, że nastepujace warunki sa równoważne. (i) Istnieje a = 0 takie, że |X(a)| = 1.
(ii) Istnieja b, c " R takie, że zmienna X jest skoncentrowana na zbiorze {ck +b : k " Z}. 17. Dany jest ciag (Xn) niezależnych zmiennych losowych o tym samym rozkladzie, " zadanym przez P(Xn = 0) = P(Xn = 1) = 1/2. Wykazać, że szereg 2-nXn n=1 jest zbieżny p.n. i wyznaczyć rozklad sumy tego szeregu. 18. Dla a " R, niech 1 + a|x| jeśli |x| d" 1, a(t) = 1 + a jeśli |x| > 1. Dla jakich wartości parametru a funkcja a jest funkcja charakterystyczna rozkladu pewnej zmiennej losowej? 19. Zalóżmy, że jest rozkladem prawdopodobieństwa o funkcji charakterysty- cznej . Udowodnić, że dla dowolnego r > 0 zachodzi nierówność 2/r r ([-r, r]) e" 1 - (1 - (s))ds 2 -2/r oraz Ą/2r ([0, r]) d" r |(s)|ds. -Ą/2r 22 ADAM OSEKOWSKI 5. Centralne twierdzenie graniczne Centralne twierdzenie graniczne dotyczy zachowania sie rozkladu sum niezależ- nych zmiennych losowych, przy odpowiedniej normalizacji i pewnych dodatkowych zalożeniach. Intuicyjnie, suma dużej liczby ,,malych , niezależnych zmiennych losowych ma rozklad normalny. Glówny wynik tego rozdzialu jest nastepujacy. Twierdzenie 5.1 (Lindeberg). Zalóżmy, że dla każdego n, zmienne X1n, X2n, . . ., Xr n sa niezależnymi zmiennymi losowymi o średniej 0, takimi, że n rn n" 2 EXkn --- 1. - k=1 Dodatkowo, zalóżmy, że jest spelniony warunek Lindeberga rn n" 2 (L) EXkn1{|X |>} --- 0 dla każdego > 0. - kn k=1 Wówczas X1n + X2n + . . . + Xr n ! N (0, 1). n Powstaje tu naturalne pytanie, co tak naprawde mówi warunek Lindeberga. Intuicyjnie rzecz biorac, oznacza on, iż przy n zbiegajacym do nieskończoności, zmienne X1n, X2n, . . ., Xr n sa ,,równie male . Innymi slowy, w n-tym wierszu n nie ma zmiennych losowych, które bylyby dominujace w stosunku do pozostalych. Ściślej, mamy nastepujace dwie wlasności. Wnioski z warunku Lindeberga. P 1. Mamy maxkd"r |Xkn| - 0. Istotnie, dla każdego > 0,
n rn rn P(max |Xkn| > ) = P {|Xkn| > } d" P(|Xkn| > ) kd"rn k=1 k=1 rn n" 2 d" -2 EXkn1{|X |>} --- 0. - kn k=1 2 2. Mamy maxkd"r EXkn 0. Rzeczywiście, dla dowolnego > 0, n rn 2 2 2 2 EXkn = EXkn1{|X |>} + EXkn1{|X |d"} d" EXln1{|X |>} + 2 d" 22, kn kn ln l=1 o ile n jest dostatecznie duże. Sformulujmy teraz nieco inna wersje CTG. Twierdzenie 5.2. Zalóżmy, że X1, X2, . . . , sa niezależnymi zmiennymi losowymi n 2 2 calkowalnymi z kwadratem, mn := EXn, n =VarXn, b2 = k. Jeśli jest n k=1 spelniony warunek Lindeberga n n" (L) b-2 E|Xk - mk|21{|X --- 0, - n k-mk|>bn} k=1 to X1 + X2 + . . . + Xn - m1 - m2 - . . . - mn ! N (0, 1). bn Dowód. Wynika to bezpośrednio z twierdzenia Lindeberga, przy rn = n, Xkn = (Xk - mk)/bn. WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 23 Powstaje naturalne pytanie: kiedy warunek Lindeberga jest spelniony? Podamy tu kilka wlasności wymuszajacych ten warunek. Stwierdzenie 5.1. Zalóżmy, że X1, X2, . . . sa niezależne i maja ten sam rozklad o dodatniej wariancji. Oznaczmy m = EX1, 2 =VarX1. Wówczas warunek Lin- deberga jest spelniony i X1 + X2 + . . . + Xn - nm " ! N (0, 1). n Dowód: Wystarczy sprawdzić warunek Lindeberga. Mamy n 1 1 E|Xn - m|21{|X "n} = E|X1 - m|21{|X "n} 0, n-m|> 1-m|> n2 2 k=1 na mocy twierdzenia Lebesgue a. Sprawdzenie dwóch poniższych warunków pozostawiamy jako ćwiczenie. Stwierdzenie 5.2. Zalóżmy, że X1, X2, . . . sa wspólnie ograniczonymi niezależnymi n zmiennymi losowymi spelniajacymi warunek VarXk ". Wówczas spelniony k=1 jest warunek Lindeberga. Stwierdzenie 5.3 (Lapunow). Zalóżmy, że dla każdego n, X1n, X2n, . . ., Xr n sa n niezależnymi, scentrowanymi zmiennymi losowymi spelniajacymi warunki rn n" 2 EXkn --- 1 - k=1 oraz rn n" E|Xkn|2+ --- 0 dla pewnego > 0. - k=1 Wówczas jest spelniony warunek Lindeberga. Przechodzimy do dowodu twierdzenia Lindeberga. Lemat 5.1. Zalóżmy, że a1, a2, . . . , an, b1, b2, . . . , bn sa liczbami zespolonymi, z których każda ma modul niewiekszy niż 1. Wówczas n |a1a2 . . . an - b1b2 . . . bn| d" |ak - bk|. k=1 Dowód: Stosujemy indukcje. Dla n = 1 nierówność jest oczywista. Dalej, zalóżmy, że jest ona prawdziwa dla pewnego n spróbujmy ja udowodnić dla n+1. Oznaczajac a = a1a2 . . . an, b = b1b2 . . . bn, mamy |a1a2 . . . an+1 - b1b2 . . . bn+1| = |aan+1 - bbn+1| d" |aan+1 - abn+1| + |abn+1 - bbn+1| = |a||an+1 - bn+1| + |bn+1||a - b| n+1 d" |ak - bk|, k=1 co kończy dowód. 24 ADAM OSEKOWSKI Lemat 5.2. Dla dowolnego y " R oraz k = 0, 1, 2, . . . mamy (iy)2 (iy)k |y|k+1 eiy - 1 + iy + + . . . + d" . 2! k! (k + 1)! Dowód: Stosujemy indukcje. Dla k = 0 mamy y |eiy - 1| = i eixdx d" |y|. 0 Dalej, zalóżmy, że nierówność zachodzi dla pewnego k. Wówczas (iy)2 (iy)k+1 eiy - 1 + iy + + . . . + 2! (k + 1)! y (ix)2 (ix)k = i eix - 1 + ix + + . . . + dx 2! k! 0 |y| (ix)2 (ix)k d" eix - 1 + ix + + . . . + dx 2! k! 0 |y| xk+1 |y|k+2 d" dx = . (k + 1)! (k + 2)! 0 Dowód jest zakończony. 2 Dowód twierdzenia Lindeberga: Oznaczmy kn = (EXkn)1/2, k = 1, 2, . . . , rn, n = 1, 2, . . .. Na mocy twierdzenia Levy-Cramera wystarczy udowodnić, że dla każdego 2 t " R, X +X2n+...+Xrnn(t) e-t /2. Ustalmy wiec t " R. Mamy 1n rn rn 2 2 kn An :=|X +X2n+...+Xrnn(t) - e-t /2| = X (t) - e- t2/2 1n kn k=1 k=1 rn 2 2 2 k=1 + e-t kn/2 - e-t /2 . Dn Stosujemy teraz pierwszy z powyższych lematów oraz fakt, iż e-x = 1 - x + r(x), x0 gdzie r(x)/x - 0. W konsekwencji, -- rn rn 2 knt2 2 An d" X - 1 + + |r(t2kn/2)| +Dn. kn 2 k=1 k=1 Bn Cn Wystarczy wykazać, że (Bn), (Cn), (Dn) da ża do 0. Zbieżność ciagu (Dn) do 0 rn 2 jest oczywista na mocy warunku kn 1. Zajmijmy sie teraz ciagiem k=1 (Cn). Ustalmy > 0. Istnieje > 0 taka,że jeśli |x| < , to |r(x)/x| < . Jak już wiemy, warunek Lindeberga pociaga za soba, iż dla dostatecznie dużych n, 2 maxkd"r t2kn/2 < , a co za tym idzie, n rn 2 rn r(t2kn/2) 2 t2 t2 2 Cn = t2kn/2 < kn , 2 t2kn/2 2 2 k=1 k=1 WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 25 a wiec ciag (Cn) zbiega do 0. Wreszcie, dla ustalonego > 0, korzystajac z drugiego z powyższych lematów (z k = 2 oraz z k = 3), 2 knt2 2 kn X - 1 + = E(eitX - 1 - itXkn + t2Xkn/2) kn 2 2 kn d" E eitX - 1 - itXkn + t2Xkn/2 1{|X |d"} kn 2 kn + E eitX - 1 - itXkn + t2Xkn/2 1{|X |>} kn 2 |Xknt|3 t2Xkn kn d" E 1{|X |d"} + E eitX - 1 - itXkn 1{|X |>} + E 1{|X |>} kn kn kn 6 2 2 |t|3 t2Xkn 2 d" kn + 2E 1{|X |>}. kn 6 2 Zatem rn rn |t|3 2|t|3 2 2 Bn d" kn + t2 EXkn1{|X |>} d" + kn 6 6 k=1 k=1 dla dostatecznie dużych n. Stad teza. Jako wniosek, otrzymujemy Twierdzenie 5.3 (de Moivre a-Laplace a). Zalóżmy, że n ma rozklad Bernoulliego z parametrami n, p. Wówczas n - np ! N (0, 1). np(1 - p) Dowód: Niech X1, X2, . . . beda niezależnymi zmiennymi losowymi o tym samym rozkladzie dwupunktowym P(Xn = 0) = 1 - p, P(Xn = 1) = p. Mamy n - np X1 + X2 + . . . + Xn - np <" np(1 - p) np(1 - p) i wystarczy skorzystać z odpowiedniej wersji CTG. Sformulujmy teraz uogólnienie twierdzenia Lindeberga. Dowodzi sie je w sposób analogiczny. Twierdzenie 5.4. Zalóżmy, że dla każdego n zmienne X1n, X2n, . . ., Xr n sa n niezależne i calkowalne z kwadratem. Oznaczmy mkn := EXkn i przypuśćmy, że rn rn n" n" EXkn --- m, VarXkn --- 2 - - k=1 k=1 oraz rn (L) E(Xkn - mkn)21{|X 0. kn-mkn|>} k=1 Wówczas X1n + X2n + . . . + Xr n ! N (m, 2). n Centralne twierdzenie graniczne pozwala badać zachowanie dystrybuant sum niezależnych zmiennych losowych. Istotnie, zbieżność X1 + X2 + . . . + Xn - (m1 + m2 + . . . + mn) ! N (0, 1) bn 26 ADAM OSEKOWSKI jest równoważna zbieżności punktowej dystrybuant: X1 + X2 + . . . + Xn - (m1 + m2 + . . . + mn) P d" x Ś(x) bn x 1 2 = " e-y /2dy. 2Ą -" Co wiecej, zbieżność jest jednostajna wzgledem x " R (por. zadanie 9 z rozdzialu o slabej zbieżności). Zatem dla każdego > 0 istnieje numer n0 taki, że dla n e" n0, sup |P(X1 + X2 + . . . + Xn d" xbn + (m1 + m2 + . . . + mn)) - Ś(x)| < , x"R czyli y - m1 - m2 - . . . - mn sup P(X1 + X2 + . . . + Xn d" y) - Ś < . bn y"R Powstaje naturalne pytanie w jaki sposób wyznaczać n0 w zależności od ; innymi slowy, w jaki sposób szacować blad zwiazany z przybliżeniem dystrybuanty sumy przez dystrybuante standardowego rozkladu normalnego. Twierdzenie 5.5 (Nierówność Berry-Essena). Zalóżmy, że X1, X2, . . ., sa nieza- leżnymi scentrowanymi zmiennymi losowymi o tym samym rozkladzie, takimi, że 2 =VarXn > 0, := E|Xn|3 < ". Wówczas X1 + X2 + . . . + Xn c " sup P " d" x - Ś(x) d" , n 3 n x"R gdzie jako c można wzia ć 0, 7655 (optymalna - czyli najmniejsza możliwa - wartość c nie jest znana). W szczególności, przy zalożeniach twierdzenia de Moivre a-Laplace a, n - np p2 + (1 - p)2 sup P d" x - Ś(x) d" c . x"R np(1 - p) np(1 - p) Jest to niezwykle użyteczny rezultat z punktu widzenia konkretnych zastosowań: w sposób jawny określa on tempo zbieżności. WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 27 6. Zadania 1. Sumujemy 10 000 liczb, każda zaokraglona z dokladnościa do 10-m. Przypuś- ćmy, że bledy spowodowane przez zaokraglenia sa niezależnymi zmiennymi losowymi o rozkladzie jednostajnym na przedziale (-10m/2, 10m/2). Znalezć przedzial (moż- liwie krótki), do którego z prawdopodobieństwem e" 0, 95 bedzie należal blad calko- wity (tzn. po zsumowaniu). 2. Obliczyć n nk lim e-n . n" k! k=0 3. Udowodnić Stwierdzenie 5.2 oraz Stwierdzenie 5.3. 4. Dany jest ciag (Xn) niezależnych zmiennych losowych, przy czym dla n e" 1, 1 1 1 P(Xn = -1) = P(Xn = 1) = 1 - , P(Xn = -n) = P(Xn = n) = . 2 n2 2n2 Udowodnić, że X1 + X2 + . . . + Xn " ! N (0, 1), n mimo iż nie jest spelniony warunek Lindeberga. 5. Zmienne losowe X1, X2, . . . sa niezależne, przy czym dla n e" 1, P(Xn = n) = n P(Xn = -n) = 1/2. Niech s2 = VarXk. Czy ciag zmiennych losowych n k=1 X1 + X2 + . . . + Xn sn jest zbieżny wedlug rozkladu, a jeśli tak, to do jakiej granicy? 6. Zalóżmy, że X jest zmienna losowa spelniajaca warunki (i) EX2 < ", " (ii) Jeśli Y , Z sa niezależne i maja ten sam rozklad co X, to X <" (Y + Z)/ 2. Wykazać, że X ma rozklad Gaussa o średniej 0. 7. Rzucono 900 razy kostka. Sumujemy oddzielnie parzyste liczby oczek i nieparzyste liczby oczek. Jakie jest przybliżone prawdopodobieństwo tego, że suma parzystych liczb oczek bedzie o co najmniej 500 wieksza od sumy nieparzystych liczb oczek? 8. Dany jest ciag (Xn)ne"1 niezależnych zmiennych losowych, przy czym dla n e" 1 zmienna Xn ma rozklad z gestościa 1 |x| gn(x) = 1 - . n n + Wyznaczyć X1 + X2 + . . . + Xn lim P > t n" ną w zależności od wartości parametrów ą > 0 i t " R. 9. Dane sa dwa ciagi (Xn), (Yn) niezależnych zmiennych losowych, przy czym zmienne (Xn) maja standardowy rozklad normalny, a (Yn) maja rozklad Poissona z parametrem 1. Zbadać zbieżność wedlug rozkladu ciagu 2 2 2 (X1 + X2 + . . . + Xn)2 - (Y1 + Y2 + . . . + Yn)2 " . n n 28 ADAM OSEKOWSKI 10. Zmienne X1, X2, . . . sa niezależne, przy czym dla n e" 1 zmienna Xn ma " dwustronny rozklad wykladniczy z parametrem 1/ n, tzn. o gestości " 1 " gn(x) = e-|x|/ n. 2 n Rozstrzygna ć czy ciag X1 + X2 + . . . + Xn , n = 1, 2, . . . , n2 jest zbieżny wedlug rozkladu. W przypadku odpowiedzi pozytywnej, wyznaczyć rozklad graniczny. 11. W urnie znajduje sie jedna czarna kula. Wykonujemy nastepujacy ciag losowań: w każdym losowaniu ciagniemy kule z urny, ogladamy ja, wrzucamy z powrotem oraz dorzucamy biala kule. Dla n e" 1, niech Xn oznacza liczbe losowań, w których wyciagneliśmy czarna kule. Zbadać zbieżność wedlug rozkladu ciagu Xn - ln n " , n = 2, 3, . . . . ln n WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 29 7. Warunkowa wartość oczekiwana Warunkowa wartość oczekiwana jest jednym z kluczowych pojeć w teorii praw- dopodobieństwa. Zacznijmy od sytuacji gdy warunkujemy wzgledem zdarzenia. Definicja 7.1. Zalóżmy, że (&!, F, P) jest przestrzenia probabilistyczna oraz B jest zdarzeniem o dodatnim prawdopodobieństwie. Niech X bedzie calkowalna zmienna losowa. Warunkowa wartościa oczekiwana X pod warunkiem B nazywamy liczbe E(X|B) = X()P(d|B). &! Stwierdzenie 7.1. Przy zalożeniach jak wyżej, 1 (") E(X|B) = XdP. P(B) B Dowód: Stosujemy standardowa metode komplikacji zmiennej X. 1. Zalóżmy najpierw, że X = 1A, gdzie A " F. Wówczas P(A )" B) 1 E(X|B) = P(A|B) = = 1AdP. P(B) P(B) B 2. Z liniowości, dowodzona równość zachodzi także dla zmiennych prostych (kom- binacji liniowych indykatorów zdarzeń). 3. Teraz jeśli X jest nieujemna zmienna losowa, to bierzemy niemalejacy ciag (Xn) zmiennych prostych zbieżny prawie na pewno do X. Piszac (*) dla Xn i zbiegajac z n " dostajemy (*) dla X, na mocy twierdzenia Lebesgue a o mono- tonicznym przejściu do granicy pod znakiem calki. 4. Jeśli X jest dowolna zmienna losowa, to rozważamy rozbicie X = X+ - X- i stosujemy (*) dla X+ oraz X-; po odjeciu stronami dostajemy (*) dla X. Przechodzimy do definicji warunkowej wartości oczekiwanej wzgledem -ciala. Definicja 7.2. Zalóżmy, że (&!, F, P) jest przestrzenia probabilistyczna, M jest pod--cialem F, a X jest calkowalna zmienna losowa. Warunkowa wartościa oczeki- wana X pod warunkiem M nazywamy taka zmienna losowa , że sa spelnione nastepujace dwa warunki. 1) jest mierzalna wzgledem M. 2) Dla każdego B " M, dP = XdP. B B Oznaczenie: E(X|M). W szczególności gdy X = 1A, A " F, to definiujemy prawdopodobieństwo warunkowe zdarzenia A pod warunkiem M poprzez P(A|M) = E(1A|M). Twierdzenie 7.1. Zalóżmy, że X jest calkowalna zmienna losowa, a M jest pod- -cialem F. Wówczas warunkowa wartość oczekiwana istnieje i jest wyznaczona jednoznacznie z dokladnościa do równości p.n. Dowód: Dla dowolnego B " M definiujemy (B) = XdP. Funkcja : M R B jest przeliczalnie addytywna funkcja zbioru. Ponadto jeśli P(B) = 0, to (B) = 0 (jest to tzw. absolutna ciaglość wzgledem P). Na mocy twierdzenia Radona- Nikodyma istnieje M-mierzalna zmienna losowa bedaca gestościa wzgledem P, 30 ADAM OSEKOWSKI tzn. taka, że dla wszystkich B " M, XP = (B) = dP. B B Jednoznaczność jest oczywista: jeśli 1, 2 sa zmiennymi losowymi spelniajacymi 1) oraz 2), to w szczególności, dla każdego B " M, 1dP = 2dP, skad 1 = 2 B B p.n. Uwaga: Warto tu przyjrzeć sie warunkowej wartości oczekiwanej zmiennej X wzgledem -ciala M generowanego przez co najwyżej przeliczalne rozbicie (Bn) zbiorów o dodatnim prawdopodobieństwie. Bardzo latwo wyznaczyć te zmienna w oparciu o powyższa definicje. Mianowicie, jak widać z warunku 1), E(X|M) musi być stala na każdym zbiorze Bn, n = 1, 2, . . .; wlasność 2) natychmiast implikuje, iż E(X|M) = E(X|Bn) na zbiorze Bn. To w jednoznaczny sposób opisuje warunkowa wartość oczekiwana. Przechodzimy do pojecia warunkowej wartości oczekiwanej wzgledem zmiennej losowej. Bedziemy potrzebować nastepujacego pomocniczego faktu. Lemat 7.1. Zalóżmy, że Y jest zmienna losowa. Wówczas każda zmienna losowa X mierzalna wzgledem (Y ) ma postać f(Y ) dla pewnej funkcji borelowskiej f. Dowód: Ponownie stosujemy metode komplikacji zmiennej. 1. Zalóżmy, że X = 1A, gdzie A " (Y ). Wówczas A = {Y " B} dla pewnego B, skad X = 1B(Y ), czyli jako f możemy wzia ć indykator 1B. 2. Jeśli X jest zmienna prosta, to jako f bierzemy kombinacje liniowa odpowied- nich indykatorów (patrz poprzedni punkt). 3. Zalóżmy, że X jest nieujemna zmienna losowa. Istnieje niemalejacy ciag (Xn) prostych, (Y )-mierzalnych zmiennych losowych zbieżny do X. Na mocy 2), mamy Xn = fn(Y ) dla pewnego ciagu funkcyjnego (fn). Jak latwo sprawdzić, wystarczy wzia ć limn" fn(x) jeśli granica istnieje, f(x) = 0 jeśli granica nie istnieje. 4. Jeśli teraz X jest dowolna zmienna losowa, to mamy X = X+ - X- = f+(Y ) - f-(Y ) = f(Y ), gdzie f+, f- to funkcje borelowskie odpowiadajace (Y )- mierzalnym X+ oraz X-. Definicja 7.3. Zalóżmy, że X, Y sa zmiennymi losowymi, przy czym X jest calko- walna. Definiujemy warunkowa wartość oczekiwana X pod warunkiem Y jako E(X|Y ) = E(X|(Y )). Uwaga: Na mocy lematu mamy E(X|Y ) = f(Y ) dla pewnej funkcji borelowskiej f. Liczbe f(y) możemy interpretować jako E(X|Y = y). Przyklady: 1. Zalóżmy, że X, Y posiadaja rozklady skokowe. Oznaczmy PY (y) = P(Y = y) oraz P(X,Y )(x, y) = P(X = x, Y = y). Jeśli h jest dowolna funkcja borelowska taka, że h(X) " L1, to P(X,Y )(x, Y ) E(h(X)|Y ) = h(x) . PY (Y ) x"SX WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 31 Aby to wykazać, należy sprawdzić, iż prawa strona (oznaczana dalej przez ) spelnia wlasności 1) i 2) z definicji E(h(X)|(Y )). Pierwszy warunek jest jasny - , jako funkcja Y , jest (Y )-mierzalna. Zajmijmy sie zatem drugim warunkiem. Niech B " (Y ). Ponieważ Y ma rozklad dyskretny, B jest co najwyżej przeliczalna suma zdarzeń postaci {Y = y} oraz zdarzenia o prawdopodobieństwie 0. Wystarczy wiec sprawdzić 2) dla zbiorów B postaci {Y = y}. Mamy PX,Y (x, y) dP = h(x) dP = h(x)PX,Y (x, y) PY (y) {Y =y} {Y =y} x"SX x"SX oraz h(X)dP = h(x) 1{X=x}dP = h(x)PX,Y (x, y). {Y =y} x"SX {Y =y} x"SX 2. Konkretny przyklad. Zalóżmy, że X, Y sa niezależnymi zmiennymi losowymi o rozkladzie Poissona z parametrami , , odpowiednio. Wyznaczymy E(X|X +Y ). Wiadomo, że X + Y ma rozklad Poissona z parametrem + . Stad ( + )k PX+Y (k) = e-(+), k = 0, 1, 2, . . . . k! Ponadto, jeśli k e" e" 0, to PX,X+Y ( , k) = P(X = , X + Y = k) = P(X = )P(Y = k - ) k- = e- e- ! (k - )! i k- PX,X+Y ( , k) k! k- k = = 1 - . PX+Y (k) !(k - )!( + )k + + Stad
E(X|X + Y ) = (X + Y ). + 3. Zalóżmy, że (X, Y ) ma rozklad z gestościa g i niech gY (y) = g(x, y)dx R bedzie gestościa zmiennej Y . Zdefiniujmy gestość warunkowa wzorem g(x,y) jeśli gY (y) = 0,
gY (y) gX|Y (x|y) = 0 jeśli gY (y) = 0. Wówczas dla dowolnej funkcji borelowskiej h : R R mamy (") E(h(X)|Y ) = h(x)gX|Y (x|Y )dx. R Istotnie, sprawdzimy, że prawa strona spelnia warunki 1) i 2) z definicji E(h(X)|Y ). Oczywiście warunek 1) jest spelniony - prawa strona jest funkcja od Y . Przejdzmy do 2). Dla dowolnego B " (Y ) mamy, iż B = {Y " A} dla pewnego A " R oraz h(X)dP = 1{Y "A}h(X)dP = 1{y"A}h(x)g(x, y)dxdy B &! R2 = 1{y"A}gY (y) h(x)gX|Y (x|y)dxdy R R = h(x)gX|Y (x|Y )dxdP. B R 32 ADAM OSEKOWSKI 4. Konkretny przyklad. Zalóżmy, że (X, Y ) ma rozklad jednostajny na trójkacie o wierzcholkach (0, 0), (1, 0), (1, 1), czyli rozklad o gestości g(x, y) = 21{0d"yd"xd"1}. 1 Obliczymy P(X > |Y ). Stosujemy poprzedni przyklad i bezpośrednio wyznaczamy 2 gestość warunkowa X wzgledem Y . Calkujac g wzgledem zmiennej x, widzimy, iż gestość Y dana jest wzorem gY (y) = 2(1 - y)1[0,1](y); wobec tego, dla y " [0, 1), 21{0d"yd"xd"1} 1[y,1](x) gX|Y (x|y) = = . 2(1 - y)1{y"[0,1]} 1 - y Dla y " [0, 1) kladziemy gX|Y = 0. Zatem / " 1 1 jeśli Y > 1/2, P X > |Y = gX|Y (x|Y )dx = 1 2 jeśli Y d" 1/2. 1/2 2(1-Y ) Wlasności warunkowej wartości oczekiwanej Zalóżmy, że (&!, F, P) jest ustalona przestrzenia probabilistyczna i niech M bedzie pewnym pod--cialem F. Ponadto, o wszystkich zmiennych losowych zakladamy, że sa calkowalne. 0. Mamy E(E(X|M)) = EX. Wynika to natychmiast z 2), jeśli wezmiemy B = &!. Jako zastosowanie, rozważmy nastepujace zadanie. Rzucamy kostka, a nastepnie tyle razy moneta, ile oczek wypadlo na kostce. Wyznaczyć wartość oczekiwana liczby wyrzuconych orlów. Oznaczmy przez X liczbe wyrzuconych orlów, a przez Y - liczbe oczek na kostce. Bezpośrednio z warunków zadania wynika, iż E(X|Y ) = Y/2; istotnie, średnio w polowie rzutów moneta beda orly. Zatem, korzystajac z powyższej wlasności warunkowej wartości oczekiwanej, EX = E(E(X|Y )) = E(Y/2) = 7/4. 1. Niech ą, " R. Wówczas E(ąX1 + X2|M) = ąE(X1|M) + E(X2|M). Istotnie: sprawdzimy, że prawa strona (oznaczana dalej przez R) spelnia warunki 1) i 2) z definicji E(ąX1 + X2|M). Pierwszy warunek jest oczywisty. Aby sprawdzić drugi zauważmy, że dla dowolnego B " M, RdP = ą E(X1|M)dP + E(X2|M)dP = ą X1dP + X2dP B B B B B = ąX1 + X2dP. B 2. Jeśli X jest nieujemna zmienna losowa, to E(X|M) e" 0 p.n. Istotnie, niech B = {E(X|M) < 0}. Wówczas B " M i E(X|M)dP = XdP. B B Widzimy, że gdyby zdarzenie B mialo dodatnie prawdopodobieństwo, to lewa strona bylaby ujemna, a prawa - nieujemna. 3. Mamy (") |E(X|M)| d" E(|X||M) p.n. WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 33 Istotnie, na mocy 1. oraz 2. mamy, iż nierówność X d" Y p.n. pociaga za soba E(X|M) d" E(Y |M). Stad, z prawdopodobieństwem 1, E(X1|M) d" E(|X1||M) i - E(X1|M) d" E(|X1||M). Biorac wartość oczekiwana obu stron w (*) dostajemy, na mocy 0., E(|E(X|M)|) d" E|X|. Innymi slowy, operator liniowy E(|M) : L1(&!, F, P) L1(&!, F, P) jest kontrakcja. 4. Warunkowa wersja twierdzenia Lebesgue a o monotonicznym przejściu do granicy. Zalóżmy, że 0 d" Xn ę! X. Wówczas E(Xn|M) ę! E(X|M) p.n. Aby to wykazać, zacznijmy od obserwacji iż na mocy 1. i 2., ciag (E(Xn|M)) jest z prawdopodobieństwem 1 niemalejacy, a wiec w szczególności zbieżny. Oznaczmy jego granice przez , E(X1|M) d" d" ". Niech teraz B " M. Mamy, na mocy 2) oraz bezwarunkowego twierdzenia Lebesgue a, X = lim Xn = lim E(Xn|M) = . n" n" B B B B Ponieważ jest M-mierzalna, to z powyższej równości wynika, iż = E(X|M). 5. Analogicznie dowodzimy warunkowe wersje twierdzenia Lebesgue a o zmajo- ryzowanym przejściu do granicy pod znakiem calki oraz lematu Fatou. 6. Zalóżmy, że X1 jest mierzalna wzgledem M oraz X1X2 jest calkowalna. Wówczas (+) E(X1X2|M) = X1E(X2|M) p.n. W szczególności, biorac X2 a" 1, dostajemy, iż E(X1|M) = X1. Sprawdzamy, że prawa strona spelnia warunki 1) oraz 2) z definicji E(X1X2|M). Warunek 1) jest oczywisty, pozostaje wiec sprawdzić drugi. Zastosujemy metode komplikacji zmiennej X1. a) Jeśli X1 = 1A, gdzie A " M, to dla dowolnego B " M, X1E(X2|M)dP = E(X2|M)dP = X2dP = X1X2dP. B A)"B A)"B B b) Jeśli X1 jest zmienna prosta, to wzór (+) dostajemy na mocy a) oraz liniowości warunkowych wartości oczekiwanych. c) Jeśli X1 jest nieujemna zmienna losowa, to istnieje niemalejacy ciag (Yn) M- + - mierzalnych zmiennych prostych, zbieżny p.n. do X1. Rozbijmy X2 = X2 - X2 i + zastosujmy b) do zmiennych Yn oraz X2 : + + E(YnX2 |M) = YnE(X2 |M). Zbiegajac z n " i korzystajac z warunkowej wersji twierdzenia Lebesgue a (wlasność 4.), dostajemy + + E(X1X2 |M) = X1E(X2 |M). + - Zastepujac X2 przez X2 i powtarzajac rozumowanie, dostajemy - - E(X1X2 |M) = X1E(X2 |M) i po odjeciu stronami dostajemy (+). + - d) Jeśli X1 jest dowolna zmienna losowa, to rozbijamy ja na różnice X1 - X1 , + - stoujemy c) do zmiennych X1 , X2, oraz X1 , X2, i odejmujemy stronami uzyskane równości. 34 ADAM OSEKOWSKI 7. Jeśli M1 " M2 sa pod--cialami F, to (=) E(X|M1) = E(E(X|M2)|M1) = E(E(X|M1)|M2). Zacznijmy od obserwacji, iż wyrażenia stojace po skrajnych stronach sa równe. Wynika to natychmiast z poprzedniej wlasności: zmienna losowa E(X|M1) jest mierzalna wzgledem M2. Wystarczy wiec udowodnić, że pierwsze dwa wyrazy w (=) sa równe. Wezmy B " M1. Mamy B " M2, a wiec E(X|M1) = X = E(X|M2) = E(E(X|M2)|M1), B B B B skad teza. 8. Zalóżmy, że X jest niezależna od M. Wówczas E(X|M) = EX. Istotnie, sprawdzimy, że EX spelnia warunki 1) i 2) w definicji E(X|M). Warunek 1) jest oczywisty: EX jest zmienna losowa stala, a wiec mierzalna wzgledem każdego - ciala. Niech teraz B " M. Mamy na mocy niezależności 1B oraz X, EXdP = E1BEX = E(1BX) = XdP. B B 9. Nierówność Jensena. Zalóżmy, że f : R R jest funkcja wypukla taka, że f(X) jest zmienna calkowalna. Wówczas E(f(X)|M) e" f(E(X|M)). Bedzie nam potrzebny nastepujacy prosty fakt. Dowód pozostawiamy jako proste ćwiczenie. Lemat 7.2. Zalóżmy, że f : R R jest funkcja wypukla. Wówczas istnieja ciagi (an), (bn) takie, że dla dowolnego x " R, f(x) = sup(anx + bn). n Powróćmy do dowodu 9. Dla ciagów (an), (bn), gwarantowanych przez powyższy lemat, mamy f(X) e" anX + bn dla każdego n. Stad, na mocy 1. oraz 2., z prawdopodobieństwem 1, E(f(X)|M) e" anE(X|M) + bn. Poniweaż ciagi (an), (bn) sa przeliczalne, to możemy wzia ć supremum po n po prawej stronie i dalej nierówność bedzie zachodzila z prawdopodobieństwem 1: E(f(X)|M) e" sup(anE(X||M) + bn) = f(E(X|M)). n Jako wniosek, dostajemy, iż dla p e" 1 i X " Lp(&!, F, P), E(|X|p|M) e" [E(|X||M)]p. Stad po wzieciu wartości oczekiwanej obu stron, E(|E(X|M)|p) d" E|X|p, czyli ||E(X|M)||p d" ||X||p. Zatem warunkowa wartość oczekiwana E(|M) jest kontrakcja w Lp. WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 35 8. Zadania 1. Zalóżmy, że X, Y sa zmiennymi losowymi a G jest -cialem takim, że X jest mierzalne wzgledem G, a Y jest niezależne od G. Niech Ć : R2 R bedzie funkcja borelowska taka, że Ć(X, Y ) jest calkowalna zmienna losowa. Udowodnić, że E[Ć(X, Y )|G] = Ś(X), gdzie Ś(x) = EĆ(x, Y ). 2. Zalóżmy, że X jest calkowalna zmienna losowa, a -cialo G jest niezależne od X oraz od -ciala M. Udowodnić, że E(X|(G, M)) = E(X|M). 3. Zmienna losowa (X, Y ) ma gestość x3 g(x, y) = e-x(y+1)1{x>0, y>0}. 2 Wyznaczyć E(Y |X) oraz P(Y > 5|X). 4. Zmienna losowa (X, Y ) ma rozklad Gaussa o wartości oczekiwanej 0, VarX = 2 2 1, VarY = 2, Cov(X, Y ) = c. Obliczyć P(Y " B|X) (dla B " B(R)) oraz E(Y |X). 5. Zmienne X, Y sa niezależne i maja rozklad wykladniczy z parametrem 1. Obliczyć P(X " B|(X + Y )2) (dla B " B(R)), E(sin X|X + Y ) i E(X| min(X, Y )). 6. Zmienne losowe 1, 2, 3 sa niezależne i maja ten sam rozklad P(i = -1) = P(i = 1) = 1/2, i = 1, 2, 3. Obliczyć E(1|1 + 2 + 3) oraz E(12|1 + 23). 7. Wiadomo, że p procent monet stanowia monety falszywe, z orlem po obu stronach. Losujemy ze zwracaniem n monet i każda z nich wykonujemy rzut. Niech F oznacza liczbe losowań, w wyniku których wyciagnieto monete falszywa, O - 2p liczba wyrzuconych orlów. Udowodnić, że E(F |O) = O. 100+p 8. Losujemy ze zwracaniem po jednej karcie z talii 52 kart tak dlugo aż wyciag- niemy pika. Niech Y oznacza zmienna losowa równa liczbie wyciagnietych kart, a X zmienna losowa równa liczbie wyciagnietych kierów. Wyznaczyć E(Y |X = 4) oraz E(X|Y = 4). 9. Zmienna X ma rozklad wykladniczy z parametrem 1, zaś Y jest zmienna losowa taka, że jeśli X = x, to Y ma rozklad wykladniczy z parametrem x. a) Wyznaczyć rozklad Y . b) Obliczyć P(X > r|Y ). 10. Zmienne X1, X2, . . ., Xn " L1 sa niezależne i maja ten sam rozklad. Obliczyć E(X1|X1 + X2 + . . . + Xn). 11. Liczba wypadków danego dnia w pewnym mieście ma w przybliżeniu rozklad Poissona z parametrem 10. Wysokość szkody powstalej wskutek ustalonego wypadku jest zmienna losowa o rozkladzie jednostajnym na przedziale [1, 20]. Wyznaczyć wartość oczekiwana lacznej szkody powstalej w określonym dniu. 36 ADAM OSEKOWSKI 9. Martyngaly z czasem dyskretnym Do tej pory, dysponujac ciagiem zmiennych losowych, nie wiazaliśmy z ich indek- sami żadnej interpretacji. W wielu naturalnych sytuacjach można je interpretować jako wspólrzedna czasowa: czesto Xn opisuje zachowanie ukladu w chwili n i w zwiazku z tym indeks możemy utożsamiać z czasem. W poniższych rozważaniach, T jest ,,zbiorem czasów : to znaczy, jest równy {0, 1, 2, . . .}, {1, 2, . . . , }, {. . . , -2, -1, 0} lub {m, m + 1, . . . , n}, gdzie m, n to ustalone liczby calkowite. Definicja 9.1. Zalóżmy, że (&!, F, P) jest przestrzenia probabilistyczna, T - jak wyżej. Filtracja nazywamy rodzine (Ft)t"T , gdzie dla każdego t, Ft jest -cialem zawartym w F oraz Fs ą" Ft jeśli s d" t. Intuicja: -cialo Ft opisuje wszystko co sie może zdarzyć do chwili t. Definicja 9.2. Zalóżmy, że (&!, F, P) jest przestrzenia probabilistyczna wyposażona w filtracje (Ft)t"T . Funkcje : &! T *" {+"} nazywamy momentem zatrzymania (momentem stopu, momentem Markowa), jeśli dla każdego t " T zachodzi warunek { = t} " Fn. Intuicyjnie, moment zatrzymania jest ,,sensowna regula stopowania: taka, iż decyzje, czy sie zatrzymywać, podejmujemy na podstawie zdarzeń z przeszlości i terazniejszości. Rozważmy nastepujace konkretne zagadnienie. Przyklad: Rzucamy 10 razy moneta. Niech Xn = 1, jeśli w n-tym rzucie wypadl orzel, i Xn = 0 w przeciwnym przypadku. Wprowadzmy -ciala Fn = (X1, X2, . . . , Xn), n = 1, 2, . . . , 10 (jest to tzw. naturalna filtracja wzgledem ciagu (Xn)) Rozważmy dwie strategie: - wycofujemy sie, gdy wypadnie orzel po raz pierwszy, - wycofujemy sie, gdy orzel wypada po raz ostatni (jeśli wypadaja same reszki, przyjmujemy = = 10). Intuicja podpowiada, iż jest sensowna regula zatrzymania - decyzje o tym, czy sie wycofać, czy nie, podejmujemy na podstawie informacji, które doplynely do nas do danej chwili. Strategia nie jest sensowna: skad mamy wiedzieć - nie znajac przyszlości - czy orzel, który wlaśnie wypadl, jest ostatni? Formalny dowód tego, że nie jest momentem zatrzymania, pozostawiamy jako ćwiczenie. Uwaga: Warunek definiujacy moment stopu można zapisać równoważnie w nastepujacy sposób. Funkcja : &! T *" {+"} jest momentem zatrzymania wtedy i tylko wtedy, gdy dla każdego t " T , { d" t} " Ft. Dowód. ! Mamy t { d" t} = { = k} " Ft, k=1 gdyż dla każdego k d" t, { = k} " Fk ą" Ft. ! Mamy { = t} = { d" t} \ { d" t - 1} i oba zdarzenia należa do Ft. Przyklady: 1) a" n jest momentem zatrzymania wzgledem każdej filtracji: " jeśli n = k,
{ = k} = &! jeśli n = k. WYKLAD Z RACHUNKU PRAWDOPODOBIECSTWA II 37 2) Zalóżmy, że (&!, F, P) jest przestrzenia probabilistyczna wyposażona w fil- tracje (Fn)n"T . Zalóżmy, że (Xn)n"T jest rodzina zmiennych losowych (proce- sem stochastycznym) o tej wlasności, że dla każdego n, zmienna Xn jest mierzalna wzgledem Fn (mówimy, że proces stochastyczny (Xn) jest adaptowany do filtracji (Fn)). Dalej, niech B " B(R) oraz B() = inf{n " T : Xn() " B}, przy czym przyjmijmy konwencje inf " = +". Funkcja B to moment pierwszego dojścia procesu (Xn) do zbioru B. Wówczas B jest momentem zatrzymania: dla każdego n, {B = n} = {Xn " B oraz Xk " B dla k < n} / = {Xn " B} )" {Xk " Bc} " Fn. kAnalogiczny fakt zachodzi, gdy zmienne Xn przyjmuja wartości w Rd, albo ogólniej, w przestrzeni metrycznej E. Definicja 9.3. Zalóżmy, że (&!, F, P) jest przestrzenia probabilistyczna wyposażona w filtracje (Ft)t"T i niech bedzie momentem zatrzymania. Definiujemy F = {A " F : A )" { = n} " Fn dla wszystkich n} = {A " F : A )" { d" n} " Fn dla wszystkich n}. Intuicyjnie, F opisuje wszystkie zdarzenia, które moga zajść do momentu . Uwagi: 1) F jest -cialem, 2) jeśli a" n, to F = Fn. Wlasności: 1) Jeśli 1, 2 sa momentami zatrzymania, to 1 '" 2 = min{1, 2} oraz 1 (" 2 = max{1, 2} też sa momentami zatrzymania. Istotnie, {1 '" 2 d" n} = {1 d" n} *" {2 d" n} " Fn, { (" 2 d" n} = {1 d" n} )" {2 d" n} " Fn. 2) Jeśli 1, 2 sa takimi momentami zatrzymania, że 1 d" 2, to F ą" F . 1 2 Istotnie, jeśli A " F , to dla każdego n, 1 A )" {2 d" n} = (A )" {1 d" n}) )" {2 d" n}, i dwa ostatnie przecinane zbiory należa do Fn. 3) Moment zatrzymania jest mierzalny wzgledem F . Istotnie, " jeśli a < n, { d" a} )" { = n} = " Fn. { = n} jeśli a e" n 4) Zalóżmy, że (Xt)t"T jest adaptowany do danej filtracji, a jest momentem zatrzymania wzgledem tej filtracji spelniajacym warunek < " (jest to tzw. skończony moment stopu. Wówczas zmienna X jest mierzalna wzgledem F . Is- totnie, {X d" a} )" { = n} = {Xn d" a} )" { = n} " Fn, jako że oba przecinane zdarzenia należa do Fn.