Rachunek prawdopodobieństwa MAP1151
Wydział Elektroniki, rok akad. 2011/12, sem. letni
Wykładowca: dr hab. A. Jurlewicz
Wykład 7: Zmienne losowe dwuwymiarowe. Rozkła-
dy łączne, brzegowe. Niezależność zmiennych loso-
wych. Momenty. Współczynnik korelacji. Sumowa-
nie niezależnych zmiennych losowych. Prawo wiel-
kich liczb.
Zmienne losowe dwuwymiarowe, rozkład łączny, rozkłady
brzegowe.
Definicja.
Zmienna losowa dwuwymiarowa to wektor (X, Y ), którego składowe X, Y są
zmiennymi losowymi.
Rozkład wektora losowego (X, Y ) to funkcja P ((X, Y ) " C), gdzie C to bo-
relowski podzbiór płaszczyzny R2. Nazywamy go rozkładem łącznym zmiennych
losowych X, Y .
Rozkład zmiennej losowej X i rozkład zmiennej losowej Y nazywamy rozkładami
brzegowymi wektora losowego (X, Y ).
Pełna informacja o rozkładzie łącznym zmiennych losowych X, Y zawarta jest:
(a) w dystrybuancie tego rozkładu, czyli funkcji
FX,Y (x, y) = P (X < x, Y < y)
(b) w przypadku dyskretnego wektora losowego (X, Y ) zawarta jest także w ciągu
trójek {(xn, yk, pnk), n " T1 ‚" N, k " T2 ‚" N}, gdzie {xn, n " T1} oraz {yk, k " T2}
to ciągi wszystkich wartości przyjmowanych odpowiednio przez X i Y z dodatnimi
prawdopodobieństwami, natomiast pnk = P (X = xn, Y = yk), n " T1, k " T2.
(Ciągi {xn, n " T1} oraz {yk, k " T2} muszą być różnowartościowe, natomiast
pnk 0 dla wszystkich n, k oraz pnk = 1, aby rozkład był dobrze określony.)
n"T1 k"T2
(c) w przypadku ciągłego rozkładu wektora losowego (X, Y ) zawarta jest także w
gęstości łącznej f(x, y), czyli takiej funkcji f(x, y) 0 dla każdego (x, y), że
x y
FX,Y (x, y) = ds f(s, t)dt
-" -"
(Aby funkcja f(x, y) była gęstością pewnego rozkładu prawdopodobieństwa musi
" "
spełniać warunki: f(x, y) 0 dla każdego (x, y) oraz dx f(x, y)dy = 1.)
-" -"
1
Fakt: Jeśli znamy rozkład łączny, to znamy też rozkłady brzegowe, gdyż:
FX(x) = P (X < x) = P (X < x, Y < ") = lim FX,Y (x, y),
y"
FY (y) = P (Y < y) = P (X < ", Y < y) = lim FX,Y (x, y)
x"
W przypadku dyskretnego wektora losowego (X, Y ) zadanego ciagiem
{(xn, yk, pnk), n " T1, k " T2}:
rozkÅ‚ad zmiennej losowej X zadany jest ciÄ…giem {(xn, pn·), n " T1}, gdzie
pn· = P (X = xn) = P (X = xn, Y = yk) = pnk
k"T2 k"T2
Podobnie, rozkÅ‚ad zmiennej losowej Y zadany jest ciÄ…giem {(yk, p·k), k " T2},
gdzie p·k = P (Y = yk) = P (X = xn, Y = yk) = pnk
n"T1 n"T1
W przypadku wektora o rozkładzie ciągłym o gęstości łącznej f(x, y)
można pokazać, że:
"
rozkład zmiennej losowej X jest ciągły o gęstości fX(x) = f(x, y)dy,
-"
"
rozkład zmiennej losowej Y jest ciągły o gęstości fY (y) = f(x, y)dx.
-"
Niezależność zmiennych losowych
Definicja.
Zmienne losowe X i Y są niezależne, gdy dla dowolnych borelowskich zbiorów B1 i B2
zdarzenia {X " B1} i {Y " B2} są niezależne,
tzn. P (X " B1, Y " B2) = P (X " B1)P (Y " B2).
Zmienne losowe X1, X2, . . . , Xn są niezależne, gdy dla dowolnych borelowskich zbiorów
B1, B2, . . . , Bn rodzina {{Xi " Bi}, i = 1, 2, . . . , n} jest rodziną zdarzeń niezależnych.
Fakt.
Zmienne losowe X i Y są niezależne wtedy i tylko wtedy, gdy dla każdego (x, y)
FX,Y (x, y) = FX(x)FY (y).
W przypadku rozkładu dyskretnego warunek ten jest równoważny warunkowi
pnk = pn·p·k
dla każdego (n, k) z odpowiedniego zakresu.
W przypadku rozkładu ciągłego warunkiem równoważnym jest
f(x, y) = fX(x)fY (y)
dla prawie wszystkich (x, y) (tzn. równość może nie zachodzić na zbiorze o polu 0).
Przykłady do zad. 5.1, 5.2
2
Wartość oczekiwana i macierz kowariancji zmiennej loso-
wej dwuwymiarowej. Współczynnik korelacji.
Definicja.
(EX, EY ) to wektor wartości oczekiwanych zmiennej losowej dwuwymiarowej (X, Y ).
Cov(X, Y ) = EXY - EXEY - współczynnik kowariancji zmiennych X i Y
D2X Cov(X, Y )
to macierz kowariancji zmiennej losowej dwuwymiarowej (X, Y )
Cov(X, Y ) D2Y
Parametry te są dobrze określone, o ile istnieją wartości oczekiwane i wariancje zmiennych
losowych X i Y
Fakt.
Dla dowolnej funkcji borelowskiej
" "
EZ = Eg(X, Y ) = g(x, y)dFX,Y (x, y) =
-" -"
Å„Å‚
ôÅ‚ g(xn, yk)pnk, gdy X ma rozkÅ‚ad dyskretny
ôÅ‚
ôÅ‚
ôÅ‚ n"T1 k"T2
òÅ‚
zadany ciÄ…giem {(xn, yk, pnk), n " T1, k " T2};
=
ôÅ‚ " "
ôÅ‚
ôÅ‚
ôÅ‚
g(x, y)f(x, y)dxdy, gdy X ma rozkład ciągły o gęstości f(x, y).
ół
-" -"
o ile całka (szereg) zbieżne.
Stąd jeśli istnieją EX i EY , to
E(X + Y ) = EX + EY
oraz jeśli istnieją D2X i D2Y , to
D2(X + Y ) = D2X + D2Y + 2Cov(X, Y ).
Definicja.
Przy założeniu, że istnieją D2X > 0 i D2Y > 0, określamy współczynnik korelacji
zmiennych losowych X i Y jako:
Cov(X, Y )
"
ÁXY = .
D2X · D2Y
Własności współczynnika korelacji:
" |ÁXY | 1.
" |ÁXY | = 1 wtedy i tylko wtedy, gdy Y = aX + b dla pewnych staÅ‚ych a = 0, b, przy
czym ÁXY = 1 odpowiada a > 0, a ÁXY = -1 odpowiada a < 0 (peÅ‚na liniowa
zależność Y od X).
" Gdy ÁXY = 0, mówimy, że X i Y sÄ… nieskorelowane.
Przykłady do zad. 5.3
3
Fakt.
Jeżeli zmienne losowe X i Y są niezależne oraz ich wartości oczekiwane i wariancje istnieją,
przy czym wariancje sÄ… niezerowe, to
EXY = EXEY
a stÄ…d
D2(X + Y ) = D2X + D2Y
oraz ÁXY = 0.
Zatem jeśli zmienne losowe o skończonych i niezerowych wariancjach są niezależne, to są
też nieskorelowane. Implikacja odwrotna nie jest prawdziwa.
Przykłady do zad. 5.4
Suma niezależnych zmiennych losowych.
X i Y to niezależne zmienne losowe odpowiednio o dystrybuantach FX(x) i FY (y).
Wówczas Z = X + Y ma rozkład o dystrybuancie
"
FX+Y (z) = FX(z - y)dFY (y).
-"
Jest to tzw. splot dystrybuant (miar).
Jeśli X i Y mają rozkłady ciągłe o gęstościach odpowiednio fX(x) i fY (y),
to Z = X + Y też ma rozkład ciągły o gęstości
"
fX+Y (z) = fX(z - y)fY (y)dy = (fX " fY )(z).
-"
Jest to znany nam splot gęstości.
4
Zbieżności ciągu zmiennych losowych z prawdopodobień-
stwem 1 i stochastyczna.
Definicja.
Ciąg zmiennych losowych X1, X2, . . . jest zbieżny z prawdopodobieństwem 1
(in. prawie na pewno) do zmiennej losowej X, jeżeli
P (É : lim Xn(É) = X(É)) = 1.
n"
z pr.1 p.n.
Oznaczenie: Xn - X, Xn - X, lim Xn = X z prawd. 1.
n" n"
n"
Uwaga:
Ciąg zbieżny punktowo jest zbieżny z prawdopodobieństwem 1.
(Ciąg X1, X2, . . . jest zbieżny punktowo do X, jeżeli
lim Xn(É) = X(É) dla każdego É " &!.)
n"
Zbieżność stochastyczna:
Definicja.
Ciąg zmiennych losowych X1, X2, . . . jest zbieżny stochastycznie
(in. według prawdopodobieństwa) do zmiennej losowej X, jeżeli
-
P (|Xn - X| ) 0.
n"
>0
Oznaczenie: Xn -P X, P - lim Xn = X.
n"
n"
Fakt.
z pr.1
(a) Jeżeli Xn - X, to Xn -P X.
n" n"
z pr.1
(b) Jeżeli Xn -P X, to istnieje podciąg (Xk ) ciagu (Xn), taki że Xk - X.
n" n n n"
5
Prawa wielkich liczb (PWL)
Definicja.
Niech X1, X2, . . . będzie ciągiem zmiennych losowych o skończonych wartościach oczeki-
wanych EXn = mn. Niech Sn = X1 + X2 + . . . + Xn, an = m1 + m2 + . . . + mn.
Mówimy, że ciąg (Xn) spełnia słabe prawo wielkich liczb (SPWL), gdy
n
Sn - an 1
-P
= (Xk - mk) 0.
n"
n n
k=1
Mówimy, że ciąg ten spełnia mocne prawo wielkich liczb (MPWL), gdy
z pr.1
Sn - an
-
0.
n"
n
OczywiÅ›cie MPWL =Ò! SPWL.
PWL dla ciągów zmiennych losowych o jednakowym
rozkładzie
Twierdzenie Chinczyna.
Niech (Xn) będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie,
przy czym E|Xn| < ". Wtedy ciąg ten spełnia SPWL, które w tym przypadku można
zapisać w postaci
n
Sn 1
= Xk -P m = EX1.
n"
n n
k=1
MPWL Kołmogorowa.
Niech (Xn) będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie.
Ciąg ten spełnia MPWL, które w tym przypadku można zapisać w postaci
n
z pr.1
Sn 1
= Xk - m = EX1.
n"
n n
k=1
wtedy i tylko wtedy, gdy E|Xn| < ".
6
Szczególny przypadek:
Jeżeli (Xn) to ciąg niezależnych zmiennych losowych o jednakowym rozkładzie zerojedyn-
kowym B(1, p), tzn. P (Xn = 1) = p = 1 - P (Xn = 0), to Sn ma rozkład Bernoulliego
B(n, p), taki jak rozkład ilości sukcesów w n próbach Bernoulliego z prawdopodobień-
stwem sukcesu p, a m = EX1 = p.
Prawo wielkich liczb Bernoulliego, twierdzenie Borela:
Niech Sn będzie liczbą sukcesów w n próbach Bernoulliego z prawdopodobieństwem suk-
cesu p. Wtedy zachodzi
" PWL Bernoulliego (XVII/XVIII w.) (SPWL)
Sn
-P
p.
n"
n
" twierdzenie Borela (pocz. XX w.) (MPWL)
z pr.1
Sn
-
p.
n"
n
Interpretacja:
Częstość występowania sukcesu w n próbach Bernoulliego przybliża przy dużym n praw-
dopodobieństwo p sukcesu w pojedynczej próbie. Odpowiada to obserwacjom z natury, że
częstość zdarzenia losowego stabilizuje się na pewnym poziomie.
Przykłady do zad. 5.5
7
Przykłady zastosowań PWL
Metoda Monte Carlo obliczania całek oznaczonych:
Niech X1, X2, . . . Xn będzie ciągiem niezależnych zmiennych losowych o jednakowym roz-
kładzie jednostajnym na przedziale [a, b] oraz niech f będzie funkcją rzeczywistą taką, że
Ef(X1) istnieje i jest skończona.
Przy powyższych założeniach f(X1), f(X2), . . . f(Xn) jest także ciągiem niezależnych zmien-
nych losowych o jednakowym rozkładzie, przy czym istnieje wartość oczekiwana Ef(X1).
b
1
Ponadto Ef(X1) = f(x)dx. Z MPWL Kołmogorowa mamy
b - a
a
b
n
z pr.1
1 1
-
f(Xk) Ef(X1) = f(x)dx.
n"
n b - a
k=1
a
b
Możemy zatem do obliczania przybliżonej wartości całki oznaczonej f(x)dx zastosować
a
następujący algorytm:
(i) losujemy niezależnie liczby u1, u2, . . . , un z rozkładu jednostajnego U[0, 1];
(ii) przekształcamy xk = a + (b - a)uk dla k = 1, 2, . . . , n otrzymując w ten sposób
próbkę z rozkładu U(a, b);
n
b b - a
(iii) jako przybliżoną wartość całki przyjmujemy f(x)dx H" f(xk).
a n
k=1
Przykładowy program w Matlabie
function calkowanieMonteCarlo
N=10000; %N - ilość prób Monte Carlo
%(im wieksze N, tym wynik przyblizony blizszy rzeczywistej wartosci calki)
a=-1; %a - poczatek przedzialu calkowania
b=1; %b - koniec przedzialu calkowania
%generujemy x1, x2, ..., xN z rozkładu jednostajnego na przedziale (a, b)
x=a+(b-a)*rand(1,N);
"
%liczymy wartości funkcji podcałkowej f(x1), f(x2), . . . , f(xN), gdzie f(x) = 1 - x2
f=sqrt(1-x.Ć2);
n
b-a
%obliczamy przybliżoną wartość całki ze wzoru f(xk)
k=1
n
calka=(b-a)/N*sum(f)
1
"
b
Ä„
Uwaga: f(x)dx = 1 - x2dx = H" 1, 5707963267
2
a
-1
Kilka otrzymanych wyników przybliżonych: 1,5725; 1,5680; 1,5736; 1,5729.
8
Dystrybuanta empiryczna:
Rozważmy ciąg X1, X2, . . . Xn niezależnych zmiennych losowych o jednakowym rozkładzie
opisanym dystrybuantą F (x). Ciąg ten interpretujemy jako opis wyników n niezależnych
pomiarów pewnej wielkości fizycznej X, dokonywanych w tych samych warunkach fizycz-
nych. Wartości x1, x2, . . . xn zmiennych losowych w tym ciągu to wyniki konkretnych ta-
kich pomiarów. Ciąg X1, X2, . . . Xn nazywamy próbą prostą.
Niech Sn(x; X1, X2, . . . Xn) oznacza ilość elementów próby prostej, których wartość jest
mniejsza niż x.
Sn(x; X1, X2, . . . Xn)
Fn(x; X1, X2, . . . Xn) = (albo Fn(x; x1, x2, . . . xn)) nazywamy dys-
n
trybuantÄ… empirycznÄ….
Zauważmy, że Sn(x; X1, X2, . . . Xn) oznacza ilość tych Xi, których wartość jest mniejsza
niż x. Jest to zatem ilość sukcesów w n próbach Bernoulliego, gdzie sukces w itej próbie
to zdarzenie {Xi < x} i p = P (Xi < x) = F (x) niezależnie od i.
Zatem Sn(x; X1, X2, . . . Xn) ma rozkład Bernoulliego B(n, p = F (x)).
Z tw. Borela otrzymujemy, że
z pr.1
Sn(x; X1, X2, . . . Xn)
-
Fn(x; X1, X2, . . . Xn) = p = F (x).
n"
n
Inaczej mówiąc, dla dużych n, dla prawie każdej wartości (x1, x2, . . . xn) wektora losowego
(X1, X2, . . . Xn) mamy Fn(x; x1, x2, . . . xn) H" F (x), czyli dystrybuanta empiryczna jest w
przybliżeniu równa dystrybuancie teoretycznej F .
1
n=10
0
0 2 4 6 8
1
Przykład:
n=100
Niebieski wykres:
0
F (x) = 1 - e-x dla x > 0,
0 2 4 6 8
czerwony wykres:
realizacja dystrybuanty empirycznej.
1
n=1000
0
0 2 4 6 8
9
Wyszukiwarka
Podobne podstrony:
R Pr MAP1151 przyklady wektory losowe PWL lista5(1)R Pr MAEW104 wyklad11 wektory losoweR Pr MAP1151 przyklady wektory losowe PWL lista5R Pr MAP1151 wyklad8 CTG(1)R Pr MAP1151 wyklad4 rozklady dyskretneR Pr MAP1151 wyklad8 CTGR Pr MAP1151 wyklad1 przestrzen probabR Pr MAP1151 wyklad4 rozklady dyskretneR Pr MAP1151 wyklad5 rozklady ciagleR Pr MAP1151 wyklad1 przestrzen probabR Pr MAP1151 wyklad6 sredniaR Pr MAP1151 wyklad3 zmienna los dystrybuantaR Pr MAP1151 wyklad1 przestrzen probab(1)R Pr MAP1151 wyklad6 srednia(1)R Pr MAP1151 wyklad6 sredniaR Pr MAP1151 wyklad2 prawdop warunkowe(1)R Pr MAP1151 wyklad4 rozklady dyskretne(1)R Pr MAP1151 wyklad2 prawdop warunkowewięcej podobnych podstron