background image

Rachunek prawdopodobieństwa MAP1151

Wydział Elektroniki, rok akad. 2009/10, sem. letni

Wykładowca: dr hab. A. Jurlewicz

Wykład 7: Zmienne losowe dwuwymiarowe. Rozkła-

dy łączne, brzegowe. Niezależność zmiennych loso-
wych. Momenty. Współczynnik korelacji. Sumowa-
nie niezależnych zmiennych losowych. Prawo wiel-
kich liczb.

Zmienne losowe dwuwymiarowe, rozkład łączny, rozkłady
brzegowe.

Definicja.

Zmienna losowa dwuwymiarowa

to wektor (X, Y ), którego składowe X

zmiennymi losowymi.

Rozkład wektora losowego

(X, Y ) to funkcja ((X, Y ∈ C), gdzie to bo-

relowski podzbiór płaszczyzny

R

2

. Nazywamy go

rozkładem łącznym

zmiennych

losowych X.

Rozkład zmiennej losowej i rozkład zmiennej losowej nazywamy

rozkładami

brzegowymi

wektora losowego (X, Y ).

Pełna informacja o rozkładzie łącznym zmiennych losowych Xzawarta jest:

(a) w dystrybuancie tego rozkładu, czyli funkcji

F

X,Y

(x, y) = (X < x, Y < y)

(b) w przypadku dyskretnego wektora losowego (X, Y ) zawarta jest także w ciągu

trójek {(x

n

, y

k

, p

nk

), n ∈

T

1

N

, k ∈

T

2

N

}, gdzie {x

n

, n ∈

T

1

oraz {y

k

, k ∈

T

2

}

to ciągi wszystkich wartości przyjmowanych odpowiednio przez z dodatnimi
prawdopodobieństwami, natomiast p

nk

(x

n

, Y y

k

), n ∈

T

1

, k ∈

T

2

.

(Ciągi {x

n

, n ∈

T

1

oraz {y

k

, k ∈

T

2

muszą być różnowartościowe, natomiast

p

nk

­ 0 dla wszystkich noraz

P

n∈T

1

P

k∈T

2

p

nk

= 1, aby rozkład był dobrze określony.)

(c) w przypadku ciągłego rozkładu wektora losowego (X, Y ) zawarta jest także w

gęstości łącznej (x, y), czyli takiej funkcji (x, y­ 0 dla każdego (x, y), że

F

X,Y

(x, y) =

x

Z

−∞

ds

y

Z

−∞

(s, t)dt

(Aby funkcja (x, y) była gęstością pewnego rozkładu prawdopodobieństwa musi

spełniać warunki: (x, y­ 0 dla każdego (x, y) oraz

Z

−∞

dx

Z

−∞

(x, y)dy = 1.)

1

background image

Fakt: Jeśli znamy rozkład łączny, to znamy też rozkłady brzegowe, gdyż:

F

X

(x) = (X < x) = (X < x, Y < ∞) =

lim

y→∞

F

X,Y

(x, y),

F

Y

(y) = (Y < y) = (X < ∞, Y < y) =

lim

x→∞

F

X,Y

(x, y)

W przypadku dyskretnego wektora losowego (X, Y ) zadanego ciagiem
{(x

n

, y

k

, p

nk

), n ∈

T

1

, k ∈

T

2

}:

rozkład zmiennej losowej zadany jest ciągiem {(x

n

, p

), n ∈

T

1

}, gdzie

p

(x

n

) =

P

k∈T

2

(x

n

, Y y

k

) =

P

k∈T

2

p

nk

Podobnie, rozkład zmiennej losowej zadany jest ciągiem {(y

k

, p

·k

), k ∈

T

2

},

gdzie p

·k

(y

k

) =

P

n∈T

1

(x

n

, Y y

k

) =

P

n∈T

1

p

nk

W przypadku wektora o rozkładzie ciągłym o gęstości łącznej (x, y)
można pokazać, że:

rozkład zmiennej losowej jest ciągły o gęstości f

X

(x) =

Z

−∞

(x, y)dy,

rozkład zmiennej losowej jest ciągły o gęstości f

Y

(y) =

Z

−∞

(x, y)dx.

Niezależność zmiennych losowych

Definicja.

Zmienne losowe 

niezależne

, gdy dla dowolnych borelowskich zbiorów B

1

B

2

zdarzenia {X ∈ B

1

{Y ∈ B

2

są niezależne,

tzn. (X ∈ B

1

, Y ∈ B

2

) = (X ∈ B

1

)(Y ∈ B

2

).

Zmienne losowe X

1

, X

2

, . . . , X

n

są niezależne, gdy dla dowolnych borelowskich zbiorów

B

1

B

2

, . . . , B

n

rodzina {{X

i

∈ B

i

}, i = 12, . . . , n} jest rodziną zdarzeń niezależnych.

Fakt.

Zmienne losowe są niezależne wtedy i tylko wtedy, gdy dla każdego (x, y)

F

X,Y

(x, y) = F

X

(x)F

Y

(y).

W przypadku rozkładu dyskretnego warunek ten jest równoważny warunkowi

p

nk

p

p

·k

dla każdego (n, k) z odpowiedniego zakresu.
W przypadku rozkładu ciągłego warunkiem równoważnym jest

(x, y) = f

X

(x)f

Y

(y)

dla prawie wszystkich (x, y) (tzn. równość może nie zachodzić na zbiorze o polu 0).

Przykłady do zad. 5.1, 5.2

2

background image

Wartość oczekiwana i macierz kowariancji zmiennej loso-
wej dwuwymiarowej. Współczynnik korelacji.

Definicja.

(EX, E) to wektor wartości oczekiwanych zmiennej losowej dwuwymiarowej (X, Y ).

Cov(X, Y ) = EXY − EXE- współczynnik kowariancji zmiennych Y

"

D

2

X

Cov(X, Y )

Cov(X, Y )

D

2

Y

#

to macierz kowariancji zmiennej losowej dwuwymiarowej (X, Y )

Parametry te są dobrze określone, o ile istnieją wartości oczekiwane i wariancje zmiennych
losowych Y

Fakt.

Dla dowolnej funkcji borelowskiej

E= Eg(X, Y ) =

Z

−∞

Z

−∞

g(x, y)dF

X,Y

(x, y) =

=

P

n∈T

1

P

k∈T

2

g(x

n

, y

k

)p

nk

,

gdy ma rozkład dyskretny

zadany ciągiem {(x

n

, y

k

, p

nk

), n ∈

T

1

, k ∈

T

2

};

R

−∞

R

−∞

g(x, y)(x, y)dxdy, gdy ma rozkład ciągły o gęstości (x, y).

o ile całka (szereg) zbieżne.

Stąd jeśli istnieją Ei E, to

E() = E+ EY

oraz jeśli istnieją D

2

i D

2

, to

D

2

() = D

2

+ D

2

+ 2Cov(X, Y ).

Definicja.

Przy założeniu, że istnieją D

2

X > 0 i D

2

Y > 0, określamy

współczynnik korelacji

zmiennych losowych jako:

ρ

XY

=

Cov(X, Y )

D

2

X · D

2

Y

.

Własności współczynnika korelacji:

• 

XY

| ¬ 1.

• 

XY

= 1 wtedy i tylko wtedy, gdy aX dla pewnych stałych a 6= 0, b, przy

czym ρ

XY

= 1 odpowiada a > 0, a ρ

XY

1 odpowiada a < 0 (pełna liniowa

zależność od X).

• Gdy ρ

XY

= 0, mówimy, że są nieskorelowane.

Przykłady do zad. 5.3

3

background image

Fakt.

Jeżeli zmienne losowe są niezależne oraz ich wartości oczekiwane i wariancje istnieją,
przy czym wariancje są niezerowe, to

EXY = EXEY

a stąd

D

2

() = D

2

+ D

2

Y

oraz ρ

XY

= 0.

Zatem jeśli zmienne losowe o skończonych i niezerowych wariancjach są niezależne, to są
też nieskorelowane. Implikacja odwrotna nie jest prawdziwa.

Przykłady do zad. 5.4

Suma niezależnych zmiennych losowych.

to niezależne zmienne losowe odpowiednio o dystrybuantach F

X

(x) i F

Y

(y).

Wówczas ma rozkład o dystrybuancie

F

X+Y

(z) =

Z

−∞

F

X

(z − y)dF

Y

(y).

Jest to tzw. splot dystrybuant (miar).

Jeśli mają rozkłady ciągłe o gęstościach odpowiednio f

X

(x) i f

Y

(y),

to też ma rozkład ciągły o gęstości

f

X+Y

(z) =

Z

−∞

f

X

(z − y)f

Y

(y)dy = (f

X

∗ f

Y

)(z).

Jest to znany nam splot gęstości.

4

background image

Zbieżności ciągu zmiennych losowych z prawdopodobień-
stwem 1 i stochastyczna.

Definicja.

Ciąg zmiennych losowych X

1

X

2

, . . . jest

zbieżny z prawdopodobieństwem 1

(in.

prawie na pewno

) do zmiennej losowej X, jeżeli

(ω : lim

n→∞

X

n

(ω) = X(ω)) = 1.

Oznaczenie: X

n

z pr.1

−→

n→∞

XX

n

p.n.

−→

n→∞

X, lim

n→∞

X

n

z prawd. 1.

Uwaga:
Ciąg zbieżny punktowo jest zbieżny z prawdopodobieństwem 1.

(Ciąg X

1

X

2

, . . . jest zbieżny punktowo do X, jeżeli

lim

n→∞

X

n

(ω) = X(ω) dla każdego ω ∈ Ω.)

Zbieżność stochastyczna:

Definicja.

Ciąg zmiennych losowych X

1

X

2

, . . . jest

zbieżny stochastycznie

(in.

według prawdopodobieństwa

) do zmiennej losowej X, jeżeli

^

(|X

n

− X| ­ −→

n→∞

0.

>0

Oznaczenie: X

n

P

−→

n→∞

XP − lim

n→∞

X

n

X.

Fakt.

(a) Jeżeli X

n

z pr.1

−→

n→∞

X, to X

n

P

−→

n→∞

X.

(b) Jeżeli X

n

P

−→

n→∞

X, to istnieje podciąg (X

k

n

) ciagu (X

n

), taki że X

k

n

z pr.1

−→

n→∞

X.

5

background image

Prawa wielkich liczb (PWL)

Definicja.

Niech X

1

X

2

, . . . będzie ciągiem zmiennych losowych o skończonych wartościach oczeki-

wanych EX

n

m

n

. Niech S

n

X

1

X

2

. . . X

n

a

n

m

1

m

2

. . . m

n

.

Mówimy, że ciąg (X

n

) spełnia

słabe prawo wielkich liczb (SPWL)

, gdy

S

n

− a

n

n

=

1

n

n

X

k=1

(X

k

− m

k

)

P

−→

n→∞

0.

Mówimy, że ciąg ten spełnia

mocne prawo wielkich liczb (MPWL)

, gdy

S

n

− a

n

n

z pr.1

−→

n→∞

0.

Oczywiście MPWL =⇒ SPWL.

PWL dla ciągów zmiennych losowych o jednakowym
rozkładzie

Twierdzenie Chinczyna.

Niech (X

n

) będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie,

przy czym E|X

n

| < ∞. Wtedy ciąg ten spełnia SPWL, które w tym przypadku można

zapisać w postaci

S

n

n

=

1

n

n

X

k=1

X

k

P

−→

n→∞

= EX

1

.

MPWL Kołmogorowa.

Niech (X

n

) będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie.

Ciąg ten spełnia MPWL, które w tym przypadku można zapisać w postaci

S

n

n

=

1

n

n

X

k=1

X

k

z pr.1

−→

n→∞

= EX

1

.

wtedy i tylko wtedy, gdy E|X

n

| < ∞.

6

background image

Szczególny przypadek:

Jeżeli (X

n

) to ciąg niezależnych zmiennych losowych o jednakowym rozkładzie zerojedyn-

kowym B(1, p), tzn. (X

n

= 1) = = 1 − P (X

n

= 0), to S

n

ma rozkład Bernoulliego

B(n, p), taki jak rozkład ilości sukcesów w próbach Bernoulliego z prawdopodobień-
stwem sukcesu p, a = EX

1

p.

Prawo wielkich liczb Bernoulliego, twierdzenie Borela:

Niech S

n

będzie liczbą sukcesów w próbach Bernoulliego z prawdopodobieństwem suk-

cesu p. Wtedy zachodzi

• PWL Bernoulliego (XVII/XVIII w.) (SPWL)

S

n

n

P

−→

n→∞

p.

• twierdzenie Borela (pocz. XX w.) (MPWL)

S

n

n

z pr.1

−→

n→∞

p.

Interpretacja:
Częstość występowania sukcesu w próbach Bernoulliego przybliża przy dużym praw-
dopodobieństwo sukcesu w pojedynczej próbie. Odpowiada to obserwacjom z natury, że
częstość zdarzenia losowego stabilizuje się na pewnym poziomie.

Przykłady do zad. 5.5

7

background image

Przykłady zastosowań PWL

Metoda Monte Carlo obliczania całek oznaczonych:

Niech X

1

, X

2

, . . . X

n

będzie ciągiem niezależnych zmiennych losowych o jednakowym roz-

kładzie jednostajnym na przedziale [a, b] oraz niech będzie funkcją rzeczywistą taką, że
E(X

1

) istnieje i jest skończona.

Przy powyższych założeniach (X

1

), f (X

2

), . . . f (X

n

) jest także ciągiem niezależnych zmien-

nych losowych o jednakowym rozkładzie, przy czym istnieje wartość oczekiwana E(X

1

).

Ponadto E(X

1

) =

1

b − a

b

Z

a

(x)dx. Z MPWL Kołmogorowa mamy

1

n

n

X

k=1

(X

k

)

z pr.1

−→

n→∞

E(X

1

) =

1

b − a

b

Z

a

(x)dx.

Możemy zatem do obliczania przybliżonej wartości całki oznaczonej

b

R

a

(x)dx zastosować

następujący algorytm:

(i) losujemy niezależnie liczby u

1

, u

2

, . . . , u

n

z rozkładu jednostajnego [01];

(ii) przekształcamy x

k

+ (b − a)u

k

dla = 12, . . . , n otrzymując w ten sposób

próbkę z rozkładu (a, b);

(iii) jako przybliżoną wartość całki przyjmujemy

b

R

a

(x)dx ≈

b − a

n

n

X

k=1

(x

k

).

Przykładowy program w Matlabie
function calkowanieMonteCarlo
N=10000;

%N - ilość prób Monte Carlo

%(im wieksze N, tym wynik przyblizony blizszy rzeczywistej wartosci calki)

a=-1;

%a - poczatek przedzialu calkowania

b=1;

%b - koniec przedzialu calkowania

%generujemy x

1

, x

2

, ..., x

N

z rozkładu jednostajnego na przedziale (a, b)

x=a+(b-a)*rand(1,N);

%liczymy wartości funkcji podcałkowej (x

1

), f (x

2

), . . . , f (x

N

), gdzie (x) =

− x

2

f=sqrt(1-x.ˆ2);

%obliczamy przybliżoną wartość całki ze wzoru

b−a

n

P

n
k
=1

(x

k

)

calka=(b-a)/N*sum(f)

Uwaga:

b

R

a

(x)dx =

1

R

1

− x

2

dx =

π

2

≈ 15707963267

Kilka otrzymanych wyników przybliżonych: 1,5725; 1,5680; 1,5736; 1,5729.

8

background image

Dystrybuanta empiryczna:

Rozważmy ciąg X

1

, X

2

, . . . X

n

niezależnych zmiennych losowych o jednakowym rozkładzie

opisanym dystrybuantą (x). Ciąg ten interpretujemy jako opis wyników niezależnych
pomiarów pewnej wielkości fizycznej X, dokonywanych w tych samych warunkach fizycz-
nych. Wartości x

1

, x

2

, . . . x

n

zmiennych losowych w tym ciągu to wyniki konkretnych ta-

kich pomiarów. Ciąg X

1

, X

2

, . . . X

n

nazywamy próbą prostą.

Niech S

n

(xX

1

, X

2

, . . . X

n

) oznacza ilość elementów próby prostej, których wartość jest

mniejsza niż x.

F

n

(xX

1

, X

2

, . . . X

n

) =

S

n

(xX

1

, X

2

, . . . X

n

)

n

(albo F

n

(xx

1

, x

2

, . . . x

n

)) nazywamy dys-

trybuantą empiryczną.

Zauważmy, że S

n

(xX

1

, X

2

, . . . X

n

) oznacza ilość tych X

i

, których wartość jest mniejsza

niż x. Jest to zatem ilość sukcesów w próbach Bernoulliego, gdzie sukces w itej próbie
to zdarzenie {X

i

< x} (X

i

< x) = (x) niezależnie od i.

Zatem S

n

(xX

1

, X

2

, . . . X

n

) ma rozkład Bernoulliego B(n, p (x)).

Z tw. Borela otrzymujemy, że

F

n

(xX

1

, X

2

, . . . X

n

) =

S

n

(xX

1

, X

2

, . . . X

n

)

n

z pr.1

−→

n→∞

(x).

Inaczej mówiąc, dla dużych n, dla prawie każdej wartości (x

1

, x

2

, . . . x

n

) wektora losowego

(X

1

, X

2

, . . . X

n

) mamy F

n

(xx

1

, x

2

, . . . x

n

≈ F (x), czyli dystrybuanta empiryczna jest w

przybliżeniu równa dystrybuancie teoretycznej .

0

2

4

6

8

0

1

0

2

4

6

8

0

1

0

2

4

6

8

0

1

n=10

n=100

n=1000

Przykład:
Niebieski wykres:
(x) = 1 − e

−x

dla x > 0,

czerwony wykres:
realizacja dystrybuanty empirycznej.

9