R Pr MAP1151 wyklad7 wektory losowe


Rachunek prawdopodobieństwa MAP1151
Wydział Elektroniki, rok akad. 2011/12, sem. letni
Wykładowca: dr hab. A. Jurlewicz
Wykład 7: Zmienne losowe dwuwymiarowe. Rozkła-
dy łączne, brzegowe. Niezależność zmiennych loso-
wych. Momenty. Współczynnik korelacji. Sumowa-
nie niezależnych zmiennych losowych. Prawo wiel-
kich liczb.
Zmienne losowe dwuwymiarowe, rozkład łączny, rozkłady
brzegowe.
Definicja.
Zmienna losowa dwuwymiarowa to wektor (X, Y ), którego składowe X, Y są
zmiennymi losowymi.
Rozkład wektora losowego (X, Y ) to funkcja P ((X, Y ) " C), gdzie C to bo-
relowski podzbiór płaszczyzny R2. Nazywamy go rozkładem łącznym zmiennych
losowych X, Y .
Rozkład zmiennej losowej X i rozkład zmiennej losowej Y nazywamy rozkładami
brzegowymi wektora losowego (X, Y ).
Pełna informacja o rozkładzie łącznym zmiennych losowych X, Y zawarta jest:
(a) w dystrybuancie tego rozkładu, czyli funkcji
FX,Y (x, y) = P (X < x, Y < y)
(b) w przypadku dyskretnego wektora losowego (X, Y ) zawarta jest także w ciągu
trójek {(xn, yk, pnk), n " T1 ‚" N, k " T2 ‚" N}, gdzie {xn, n " T1} oraz {yk, k " T2}
to ciągi wszystkich wartości przyjmowanych odpowiednio przez X i Y z dodatnimi
prawdopodobieństwami, natomiast pnk = P (X = xn, Y = yk), n " T1, k " T2.
(Ciągi {xn, n " T1} oraz {yk, k " T2} muszą być różnowartościowe, natomiast

pnk 0 dla wszystkich n, k oraz pnk = 1, aby rozkład był dobrze określony.)
n"T1 k"T2
(c) w przypadku ciągłego rozkładu wektora losowego (X, Y ) zawarta jest także w
gęstości łącznej f(x, y), czyli takiej funkcji f(x, y) 0 dla każdego (x, y), że
x y
FX,Y (x, y) = ds f(s, t)dt
-" -"
(Aby funkcja f(x, y) była gęstością pewnego rozkładu prawdopodobieństwa musi
" "

spełniać warunki: f(x, y) 0 dla każdego (x, y) oraz dx f(x, y)dy = 1.)
-" -"
1
Fakt: Jeśli znamy rozkład łączny, to znamy też rozkłady brzegowe, gdyż:
FX(x) = P (X < x) = P (X < x, Y < ") = lim FX,Y (x, y),
y"
FY (y) = P (Y < y) = P (X < ", Y < y) = lim FX,Y (x, y)
x"
W przypadku dyskretnego wektora losowego (X, Y ) zadanego ciagiem
{(xn, yk, pnk), n " T1, k " T2}:
rozkÅ‚ad zmiennej losowej X zadany jest ciÄ…giem {(xn, pn·), n " T1}, gdzie

pn· = P (X = xn) = P (X = xn, Y = yk) = pnk
k"T2 k"T2
Podobnie, rozkÅ‚ad zmiennej losowej Y zadany jest ciÄ…giem {(yk, p·k), k " T2},

gdzie p·k = P (Y = yk) = P (X = xn, Y = yk) = pnk
n"T1 n"T1
W przypadku wektora o rozkładzie ciągłym o gęstości łącznej f(x, y)
można pokazać, że:
"

rozkład zmiennej losowej X jest ciągły o gęstości fX(x) = f(x, y)dy,
-"
"

rozkład zmiennej losowej Y jest ciągły o gęstości fY (y) = f(x, y)dx.
-"
Niezależność zmiennych losowych
Definicja.
Zmienne losowe X i Y są niezależne, gdy dla dowolnych borelowskich zbiorów B1 i B2
zdarzenia {X " B1} i {Y " B2} są niezależne,
tzn. P (X " B1, Y " B2) = P (X " B1)P (Y " B2).
Zmienne losowe X1, X2, . . . , Xn są niezależne, gdy dla dowolnych borelowskich zbiorów
B1, B2, . . . , Bn rodzina {{Xi " Bi}, i = 1, 2, . . . , n} jest rodziną zdarzeń niezależnych.
Fakt.
Zmienne losowe X i Y są niezależne wtedy i tylko wtedy, gdy dla każdego (x, y)
FX,Y (x, y) = FX(x)FY (y).
W przypadku rozkładu dyskretnego warunek ten jest równoważny warunkowi
pnk = pn·p·k
dla każdego (n, k) z odpowiedniego zakresu.
W przypadku rozkładu ciągłego warunkiem równoważnym jest
f(x, y) = fX(x)fY (y)
dla prawie wszystkich (x, y) (tzn. równość może nie zachodzić na zbiorze o polu 0).
Przykłady do zad. 5.1, 5.2
2
Wartość oczekiwana i macierz kowariancji zmiennej loso-
wej dwuwymiarowej. Współczynnik korelacji.
Definicja.
(EX, EY ) to wektor wartości oczekiwanych zmiennej losowej dwuwymiarowej (X, Y ).
Cov(X, Y ) = EXY - EXEY - współczynnik kowariancji zmiennych X i Y

D2X Cov(X, Y )
to macierz kowariancji zmiennej losowej dwuwymiarowej (X, Y )
Cov(X, Y ) D2Y
Parametry te są dobrze określone, o ile istnieją wartości oczekiwane i wariancje zmiennych
losowych X i Y
Fakt.
Dla dowolnej funkcji borelowskiej
" "

EZ = Eg(X, Y ) = g(x, y)dFX,Y (x, y) =
-" -"
Å„Å‚

ôÅ‚ g(xn, yk)pnk, gdy X ma rozkÅ‚ad dyskretny
ôÅ‚
ôÅ‚
ôÅ‚ n"T1 k"T2
òÅ‚
zadany ciÄ…giem {(xn, yk, pnk), n " T1, k " T2};
=
ôÅ‚ " "
ôÅ‚
ôÅ‚
ôÅ‚
g(x, y)f(x, y)dxdy, gdy X ma rozkład ciągły o gęstości f(x, y).
ół
-" -"
o ile całka (szereg) zbieżne.
Stąd jeśli istnieją EX i EY , to
E(X + Y ) = EX + EY
oraz jeśli istnieją D2X i D2Y , to
D2(X + Y ) = D2X + D2Y + 2Cov(X, Y ).
Definicja.
Przy założeniu, że istnieją D2X > 0 i D2Y > 0, określamy współczynnik korelacji
zmiennych losowych X i Y jako:
Cov(X, Y )
"
ÁXY = .
D2X · D2Y
Własności współczynnika korelacji:
" |ÁXY | 1.
" |ÁXY | = 1 wtedy i tylko wtedy, gdy Y = aX + b dla pewnych staÅ‚ych a = 0, b, przy

czym ÁXY = 1 odpowiada a > 0, a ÁXY = -1 odpowiada a < 0 (peÅ‚na liniowa
zależność Y od X).
" Gdy ÁXY = 0, mówimy, że X i Y sÄ… nieskorelowane.
Przykłady do zad. 5.3
3
Fakt.
Jeżeli zmienne losowe X i Y są niezależne oraz ich wartości oczekiwane i wariancje istnieją,
przy czym wariancje sÄ… niezerowe, to
EXY = EXEY
a stÄ…d
D2(X + Y ) = D2X + D2Y
oraz ÁXY = 0.
Zatem jeśli zmienne losowe o skończonych i niezerowych wariancjach są niezależne, to są
też nieskorelowane. Implikacja odwrotna nie jest prawdziwa.
Przykłady do zad. 5.4
Suma niezależnych zmiennych losowych.
X i Y to niezależne zmienne losowe odpowiednio o dystrybuantach FX(x) i FY (y).
Wówczas Z = X + Y ma rozkład o dystrybuancie
"

FX+Y (z) = FX(z - y)dFY (y).
-"
Jest to tzw. splot dystrybuant (miar).
Jeśli X i Y mają rozkłady ciągłe o gęstościach odpowiednio fX(x) i fY (y),
to Z = X + Y też ma rozkład ciągły o gęstości
"

fX+Y (z) = fX(z - y)fY (y)dy = (fX " fY )(z).
-"
Jest to znany nam splot gęstości.
4
Zbieżności ciągu zmiennych losowych z prawdopodobień-
stwem 1 i stochastyczna.
Definicja.
Ciąg zmiennych losowych X1, X2, . . . jest zbieżny z prawdopodobieństwem 1
(in. prawie na pewno) do zmiennej losowej X, jeżeli
P (É : lim Xn(É) = X(É)) = 1.
n"
z pr.1 p.n.
Oznaczenie: Xn - X, Xn - X, lim Xn = X z prawd. 1.
n" n"
n"
Uwaga:
Ciąg zbieżny punktowo jest zbieżny z prawdopodobieństwem 1.
(Ciąg X1, X2, . . . jest zbieżny punktowo do X, jeżeli
lim Xn(É) = X(É) dla każdego É " &!.)
n"
Zbieżność stochastyczna:
Definicja.
Ciąg zmiennych losowych X1, X2, . . . jest zbieżny stochastycznie
(in. według prawdopodobieństwa) do zmiennej losowej X, jeżeli

-
P (|Xn - X| ) 0.
n"
>0

Oznaczenie: Xn -P X, P - lim Xn = X.
n"
n"
Fakt.
z pr.1

(a) Jeżeli Xn - X, to Xn -P X.
n" n"
z pr.1

(b) Jeżeli Xn -P X, to istnieje podciąg (Xk ) ciagu (Xn), taki że Xk - X.
n" n n n"
5
Prawa wielkich liczb (PWL)
Definicja.
Niech X1, X2, . . . będzie ciągiem zmiennych losowych o skończonych wartościach oczeki-
wanych EXn = mn. Niech Sn = X1 + X2 + . . . + Xn, an = m1 + m2 + . . . + mn.
Mówimy, że ciąg (Xn) spełnia słabe prawo wielkich liczb (SPWL), gdy
n

Sn - an 1
-P

= (Xk - mk) 0.
n"
n n
k=1
Mówimy, że ciąg ten spełnia mocne prawo wielkich liczb (MPWL), gdy
z pr.1
Sn - an
-
0.
n"
n
OczywiÅ›cie MPWL =Ò! SPWL.
PWL dla ciągów zmiennych losowych o jednakowym
rozkładzie
Twierdzenie Chinczyna.
Niech (Xn) będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie,
przy czym E|Xn| < ". Wtedy ciąg ten spełnia SPWL, które w tym przypadku można
zapisać w postaci
n

Sn 1

= Xk -P m = EX1.
n"
n n
k=1
MPWL Kołmogorowa.
Niech (Xn) będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie.
Ciąg ten spełnia MPWL, które w tym przypadku można zapisać w postaci
n

z pr.1
Sn 1
= Xk - m = EX1.
n"
n n
k=1
wtedy i tylko wtedy, gdy E|Xn| < ".
6
Szczególny przypadek:
Jeżeli (Xn) to ciąg niezależnych zmiennych losowych o jednakowym rozkładzie zerojedyn-
kowym B(1, p), tzn. P (Xn = 1) = p = 1 - P (Xn = 0), to Sn ma rozkład Bernoulliego
B(n, p), taki jak rozkład ilości sukcesów w n próbach Bernoulliego z prawdopodobień-
stwem sukcesu p, a m = EX1 = p.
Prawo wielkich liczb Bernoulliego, twierdzenie Borela:
Niech Sn będzie liczbą sukcesów w n próbach Bernoulliego z prawdopodobieństwem suk-
cesu p. Wtedy zachodzi
" PWL Bernoulliego (XVII/XVIII w.) (SPWL)
Sn
-P
p.
n"
n
" twierdzenie Borela (pocz. XX w.) (MPWL)
z pr.1
Sn
-
p.
n"
n
Interpretacja:
Częstość występowania sukcesu w n próbach Bernoulliego przybliża przy dużym n praw-
dopodobieństwo p sukcesu w pojedynczej próbie. Odpowiada to obserwacjom z natury, że
częstość zdarzenia losowego stabilizuje się na pewnym poziomie.
Przykłady do zad. 5.5
7
Przykłady zastosowań PWL
Metoda Monte Carlo obliczania całek oznaczonych:
Niech X1, X2, . . . Xn będzie ciągiem niezależnych zmiennych losowych o jednakowym roz-
kładzie jednostajnym na przedziale [a, b] oraz niech f będzie funkcją rzeczywistą taką, że
Ef(X1) istnieje i jest skończona.
Przy powyższych założeniach f(X1), f(X2), . . . f(Xn) jest także ciągiem niezależnych zmien-
nych losowych o jednakowym rozkładzie, przy czym istnieje wartość oczekiwana Ef(X1).
b
1
Ponadto Ef(X1) = f(x)dx. Z MPWL Kołmogorowa mamy
b - a
a
b
n

z pr.1
1 1
-
f(Xk) Ef(X1) = f(x)dx.
n"
n b - a
k=1
a
b
Możemy zatem do obliczania przybliżonej wartości całki oznaczonej f(x)dx zastosować
a
następujący algorytm:
(i) losujemy niezależnie liczby u1, u2, . . . , un z rozkładu jednostajnego U[0, 1];
(ii) przekształcamy xk = a + (b - a)uk dla k = 1, 2, . . . , n otrzymując w ten sposób
próbkę z rozkładu U(a, b);
n

b b - a
(iii) jako przybliżoną wartość całki przyjmujemy f(x)dx H" f(xk).
a n
k=1
Przykładowy program w Matlabie
function calkowanieMonteCarlo
N=10000; %N - ilość prób Monte Carlo
%(im wieksze N, tym wynik przyblizony blizszy rzeczywistej wartosci calki)
a=-1; %a - poczatek przedzialu calkowania
b=1; %b - koniec przedzialu calkowania
%generujemy x1, x2, ..., xN z rozkładu jednostajnego na przedziale (a, b)
x=a+(b-a)*rand(1,N);
"
%liczymy wartości funkcji podcałkowej f(x1), f(x2), . . . , f(xN), gdzie f(x) = 1 - x2
f=sqrt(1-x.Ć2);
n
b-a
%obliczamy przybliżoną wartość całki ze wzoru f(xk)
k=1
n
calka=(b-a)/N*sum(f)
1
"
b
Ä„
Uwaga: f(x)dx = 1 - x2dx = H" 1, 5707963267
2
a
-1
Kilka otrzymanych wyników przybliżonych: 1,5725; 1,5680; 1,5736; 1,5729.
8
Dystrybuanta empiryczna:
Rozważmy ciąg X1, X2, . . . Xn niezależnych zmiennych losowych o jednakowym rozkładzie
opisanym dystrybuantą F (x). Ciąg ten interpretujemy jako opis wyników n niezależnych
pomiarów pewnej wielkości fizycznej X, dokonywanych w tych samych warunkach fizycz-
nych. Wartości x1, x2, . . . xn zmiennych losowych w tym ciągu to wyniki konkretnych ta-
kich pomiarów. Ciąg X1, X2, . . . Xn nazywamy próbą prostą.
Niech Sn(x; X1, X2, . . . Xn) oznacza ilość elementów próby prostej, których wartość jest
mniejsza niż x.
Sn(x; X1, X2, . . . Xn)
Fn(x; X1, X2, . . . Xn) = (albo Fn(x; x1, x2, . . . xn)) nazywamy dys-
n
trybuantÄ… empirycznÄ….
Zauważmy, że Sn(x; X1, X2, . . . Xn) oznacza ilość tych Xi, których wartość jest mniejsza
niż x. Jest to zatem ilość sukcesów w n próbach Bernoulliego, gdzie sukces w itej próbie
to zdarzenie {Xi < x} i p = P (Xi < x) = F (x) niezależnie od i.
Zatem Sn(x; X1, X2, . . . Xn) ma rozkład Bernoulliego B(n, p = F (x)).
Z tw. Borela otrzymujemy, że
z pr.1
Sn(x; X1, X2, . . . Xn)
-
Fn(x; X1, X2, . . . Xn) = p = F (x).
n"
n
Inaczej mówiąc, dla dużych n, dla prawie każdej wartości (x1, x2, . . . xn) wektora losowego
(X1, X2, . . . Xn) mamy Fn(x; x1, x2, . . . xn) H" F (x), czyli dystrybuanta empiryczna jest w
przybliżeniu równa dystrybuancie teoretycznej F .
1
n=10
0
0 2 4 6 8
1
Przykład:
n=100
Niebieski wykres:
0
F (x) = 1 - e-x dla x > 0,
0 2 4 6 8
czerwony wykres:
realizacja dystrybuanty empirycznej.
1
n=1000
0
0 2 4 6 8
9


Wyszukiwarka

Podobne podstrony:
R Pr MAP1151 przyklady wektory losowe PWL lista5(1)
R Pr MAEW104 wyklad11 wektory losowe
R Pr MAP1151 przyklady wektory losowe PWL lista5
R Pr MAP1151 wyklad8 CTG(1)
R Pr MAP1151 wyklad4 rozklady dyskretne
R Pr MAP1151 wyklad8 CTG
R Pr MAP1151 wyklad1 przestrzen probab
R Pr MAP1151 wyklad4 rozklady dyskretne
R Pr MAP1151 wyklad5 rozklady ciagle
R Pr MAP1151 wyklad1 przestrzen probab
R Pr MAP1151 wyklad6 srednia
R Pr MAP1151 wyklad3 zmienna los dystrybuanta
R Pr MAP1151 wyklad1 przestrzen probab(1)
R Pr MAP1151 wyklad6 srednia(1)
R Pr MAP1151 wyklad6 srednia
R Pr MAP1151 wyklad2 prawdop warunkowe(1)
R Pr MAP1151 wyklad4 rozklady dyskretne(1)
R Pr MAP1151 wyklad2 prawdop warunkowe

więcej podobnych podstron