R Pr MAP1151 wyklad7 wektory losowe

background image

Rachunek prawdopodobieństwa MAP1151

Wydział Elektroniki, rok akad. 2009/10, sem. letni

Wykładowca: dr hab. A. Jurlewicz

Wykład 7: Zmienne losowe dwuwymiarowe. Rozkła-

dy łączne, brzegowe. Niezależność zmiennych loso-
wych. Momenty. Współczynnik korelacji. Sumowa-
nie niezależnych zmiennych losowych. Prawo wiel-
kich liczb.

Zmienne losowe dwuwymiarowe, rozkład łączny, rozkłady
brzegowe.

Definicja.

Zmienna losowa dwuwymiarowa

to wektor (X, Y ), którego składowe X, Y

zmiennymi losowymi.

Rozkład wektora losowego

(X, Y ) to funkcja P ((X, Y ) ∈ C), gdzie C to bo-

relowski podzbiór płaszczyzny

R

2

. Nazywamy go

rozkładem łącznym

zmiennych

losowych X, Y .

Rozkład zmiennej losowej X i rozkład zmiennej losowej Y nazywamy

rozkładami

brzegowymi

wektora losowego (X, Y ).

Pełna informacja o rozkładzie łącznym zmiennych losowych X, Y zawarta jest:

(a) w dystrybuancie tego rozkładu, czyli funkcji

F

X,Y

(x, y) = P (X < x, Y < y)

(b) w przypadku dyskretnego wektora losowego (X, Y ) zawarta jest także w ciągu

trójek {(x

n

, y

k

, p

nk

), n ∈

T

1

N

, k ∈

T

2

N

}, gdzie {x

n

, n ∈

T

1

} oraz {y

k

, k ∈

T

2

}

to ciągi wszystkich wartości przyjmowanych odpowiednio przez X i Y z dodatnimi
prawdopodobieństwami, natomiast p

nk

= P (X = x

n

, Y = y

k

), n ∈

T

1

, k ∈

T

2

.

(Ciągi {x

n

, n ∈

T

1

} oraz {y

k

, k ∈

T

2

} muszą być różnowartościowe, natomiast

p

nk

­ 0 dla wszystkich n, k oraz

P

n∈T

1

P

k∈T

2

p

nk

= 1, aby rozkład był dobrze określony.)

(c) w przypadku ciągłego rozkładu wektora losowego (X, Y ) zawarta jest także w

gęstości łącznej f (x, y), czyli takiej funkcji f (x, y) ­ 0 dla każdego (x, y), że

F

X,Y

(x, y) =

x

Z

−∞

ds

y

Z

−∞

f (s, t)dt

(Aby funkcja f (x, y) była gęstością pewnego rozkładu prawdopodobieństwa musi

spełniać warunki: f (x, y) ­ 0 dla każdego (x, y) oraz

Z

−∞

dx

Z

−∞

f (x, y)dy = 1.)

1

background image

Fakt: Jeśli znamy rozkład łączny, to znamy też rozkłady brzegowe, gdyż:

F

X

(x) = P (X < x) = P (X < x, Y < ∞) =

lim

y→∞

F

X,Y

(x, y),

F

Y

(y) = P (Y < y) = P (X < ∞, Y < y) =

lim

x→∞

F

X,Y

(x, y)

W przypadku dyskretnego wektora losowego (X, Y ) zadanego ciagiem
{(x

n

, y

k

, p

nk

), n ∈

T

1

, k ∈

T

2

}:

rozkład zmiennej losowej X zadany jest ciągiem {(x

n

, p

), n ∈

T

1

}, gdzie

p

= P (X = x

n

) =

P

k∈T

2

P (X = x

n

, Y = y

k

) =

P

k∈T

2

p

nk

Podobnie, rozkład zmiennej losowej Y zadany jest ciągiem {(y

k

, p

·k

), k ∈

T

2

},

gdzie p

·k

= P (Y = y

k

) =

P

n∈T

1

P (X = x

n

, Y = y

k

) =

P

n∈T

1

p

nk

W przypadku wektora o rozkładzie ciągłym o gęstości łącznej f (x, y)
można pokazać, że:

rozkład zmiennej losowej X jest ciągły o gęstości f

X

(x) =

Z

−∞

f (x, y)dy,

rozkład zmiennej losowej Y jest ciągły o gęstości f

Y

(y) =

Z

−∞

f (x, y)dx.

Niezależność zmiennych losowych

Definicja.

Zmienne losowe X i Y

niezależne

, gdy dla dowolnych borelowskich zbiorów B

1

i B

2

zdarzenia {X ∈ B

1

} i {Y ∈ B

2

} są niezależne,

tzn. P (X ∈ B

1

, Y ∈ B

2

) = P (X ∈ B

1

)P (Y ∈ B

2

).

Zmienne losowe X

1

, X

2

, . . . , X

n

są niezależne, gdy dla dowolnych borelowskich zbiorów

B

1

, B

2

, . . . , B

n

rodzina {{X

i

∈ B

i

}, i = 1, 2, . . . , n} jest rodziną zdarzeń niezależnych.

Fakt.

Zmienne losowe X i Y są niezależne wtedy i tylko wtedy, gdy dla każdego (x, y)

F

X,Y

(x, y) = F

X

(x)F

Y

(y).

W przypadku rozkładu dyskretnego warunek ten jest równoważny warunkowi

p

nk

= p

p

·k

dla każdego (n, k) z odpowiedniego zakresu.
W przypadku rozkładu ciągłego warunkiem równoważnym jest

f (x, y) = f

X

(x)f

Y

(y)

dla prawie wszystkich (x, y) (tzn. równość może nie zachodzić na zbiorze o polu 0).

Przykłady do zad. 5.1, 5.2

2

background image

Wartość oczekiwana i macierz kowariancji zmiennej loso-
wej dwuwymiarowej. Współczynnik korelacji.

Definicja.

(EX, EY ) to wektor wartości oczekiwanych zmiennej losowej dwuwymiarowej (X, Y ).

Cov(X, Y ) = EXY − EXEY - współczynnik kowariancji zmiennych X i Y

"

D

2

X

Cov(X, Y )

Cov(X, Y )

D

2

Y

#

to macierz kowariancji zmiennej losowej dwuwymiarowej (X, Y )

Parametry te są dobrze określone, o ile istnieją wartości oczekiwane i wariancje zmiennych
losowych X i Y

Fakt.

Dla dowolnej funkcji borelowskiej

EZ = Eg(X, Y ) =

Z

−∞

Z

−∞

g(x, y)dF

X,Y

(x, y) =

=

P

n∈T

1

P

k∈T

2

g(x

n

, y

k

)p

nk

,

gdy X ma rozkład dyskretny

zadany ciągiem {(x

n

, y

k

, p

nk

), n ∈

T

1

, k ∈

T

2

};

R

−∞

R

−∞

g(x, y)f (x, y)dxdy, gdy X ma rozkład ciągły o gęstości f (x, y).

o ile całka (szereg) zbieżne.

Stąd jeśli istnieją EX i EY , to

E(X + Y ) = EX + EY

oraz jeśli istnieją D

2

X i D

2

Y , to

D

2

(X + Y ) = D

2

X + D

2

Y + 2Cov(X, Y ).

Definicja.

Przy założeniu, że istnieją D

2

X > 0 i D

2

Y > 0, określamy

współczynnik korelacji

zmiennych losowych X i Y jako:

ρ

XY

=

Cov(X, Y )

D

2

X · D

2

Y

.

Własności współczynnika korelacji:

XY

| ¬ 1.

XY

| = 1 wtedy i tylko wtedy, gdy Y = aX + b dla pewnych stałych a 6= 0, b, przy

czym ρ

XY

= 1 odpowiada a > 0, a ρ

XY

= 1 odpowiada a < 0 (pełna liniowa

zależność Y od X).

• Gdy ρ

XY

= 0, mówimy, że X i Y są nieskorelowane.

Przykłady do zad. 5.3

3

background image

Fakt.

Jeżeli zmienne losowe X i Y są niezależne oraz ich wartości oczekiwane i wariancje istnieją,
przy czym wariancje są niezerowe, to

EXY = EXEY

a stąd

D

2

(X + Y ) = D

2

X + D

2

Y

oraz ρ

XY

= 0.

Zatem jeśli zmienne losowe o skończonych i niezerowych wariancjach są niezależne, to są
też nieskorelowane. Implikacja odwrotna nie jest prawdziwa.

Przykłady do zad. 5.4

Suma niezależnych zmiennych losowych.

X i Y to niezależne zmienne losowe odpowiednio o dystrybuantach F

X

(x) i F

Y

(y).

Wówczas Z = X + Y ma rozkład o dystrybuancie

F

X+Y

(z) =

Z

−∞

F

X

(z − y)dF

Y

(y).

Jest to tzw. splot dystrybuant (miar).

Jeśli X i Y mają rozkłady ciągłe o gęstościach odpowiednio f

X

(x) i f

Y

(y),

to Z = X + Y też ma rozkład ciągły o gęstości

f

X+Y

(z) =

Z

−∞

f

X

(z − y)f

Y

(y)dy = (f

X

∗ f

Y

)(z).

Jest to znany nam splot gęstości.

4

background image

Zbieżności ciągu zmiennych losowych z prawdopodobień-
stwem 1 i stochastyczna.

Definicja.

Ciąg zmiennych losowych X

1

, X

2

, . . . jest

zbieżny z prawdopodobieństwem 1

(in.

prawie na pewno

) do zmiennej losowej X, jeżeli

P (ω : lim

n→∞

X

n

(ω) = X(ω)) = 1.

Oznaczenie: X

n

z pr.1

−→

n→∞

X, X

n

p.n.

−→

n→∞

X, lim

n→∞

X

n

= X z prawd. 1.

Uwaga:
Ciąg zbieżny punktowo jest zbieżny z prawdopodobieństwem 1.

(Ciąg X

1

, X

2

, . . . jest zbieżny punktowo do X, jeżeli

lim

n→∞

X

n

(ω) = X(ω) dla każdego ω ∈ Ω.)

Zbieżność stochastyczna:

Definicja.

Ciąg zmiennych losowych X

1

, X

2

, . . . jest

zbieżny stochastycznie

(in.

według prawdopodobieństwa

) do zmiennej losowej X, jeżeli

^

P (|X

n

− X| ­ ) −→

n→∞

0.

>0

Oznaczenie: X

n

P

−→

n→∞

X, P − lim

n→∞

X

n

= X.

Fakt.

(a) Jeżeli X

n

z pr.1

−→

n→∞

X, to X

n

P

−→

n→∞

X.

(b) Jeżeli X

n

P

−→

n→∞

X, to istnieje podciąg (X

k

n

) ciagu (X

n

), taki że X

k

n

z pr.1

−→

n→∞

X.

5

background image

Prawa wielkich liczb (PWL)

Definicja.

Niech X

1

, X

2

, . . . będzie ciągiem zmiennych losowych o skończonych wartościach oczeki-

wanych EX

n

= m

n

. Niech S

n

= X

1

+ X

2

+ . . . + X

n

, a

n

= m

1

+ m

2

+ . . . + m

n

.

Mówimy, że ciąg (X

n

) spełnia

słabe prawo wielkich liczb (SPWL)

, gdy

S

n

− a

n

n

=

1

n

n

X

k=1

(X

k

− m

k

)

P

−→

n→∞

0.

Mówimy, że ciąg ten spełnia

mocne prawo wielkich liczb (MPWL)

, gdy

S

n

− a

n

n

z pr.1

−→

n→∞

0.

Oczywiście MPWL =SPWL.

PWL dla ciągów zmiennych losowych o jednakowym
rozkładzie

Twierdzenie Chinczyna.

Niech (X

n

) będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie,

przy czym E|X

n

| < ∞. Wtedy ciąg ten spełnia SPWL, które w tym przypadku można

zapisać w postaci

S

n

n

=

1

n

n

X

k=1

X

k

P

−→

n→∞

m = EX

1

.

MPWL Kołmogorowa.

Niech (X

n

) będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie.

Ciąg ten spełnia MPWL, które w tym przypadku można zapisać w postaci

S

n

n

=

1

n

n

X

k=1

X

k

z pr.1

−→

n→∞

m = EX

1

.

wtedy i tylko wtedy, gdy E|X

n

| < ∞.

6

background image

Szczególny przypadek:

Jeżeli (X

n

) to ciąg niezależnych zmiennych losowych o jednakowym rozkładzie zerojedyn-

kowym B(1, p), tzn. P (X

n

= 1) = p = 1 − P (X

n

= 0), to S

n

ma rozkład Bernoulliego

B(n, p), taki jak rozkład ilości sukcesów w n próbach Bernoulliego z prawdopodobień-
stwem sukcesu p, a m = EX

1

= p.

Prawo wielkich liczb Bernoulliego, twierdzenie Borela:

Niech S

n

będzie liczbą sukcesów w n próbach Bernoulliego z prawdopodobieństwem suk-

cesu p. Wtedy zachodzi

• PWL Bernoulliego (XVII/XVIII w.) (SPWL)

S

n

n

P

−→

n→∞

p.

• twierdzenie Borela (pocz. XX w.) (MPWL)

S

n

n

z pr.1

−→

n→∞

p.

Interpretacja:
Częstość występowania sukcesu w n próbach Bernoulliego przybliża przy dużym n praw-
dopodobieństwo p sukcesu w pojedynczej próbie. Odpowiada to obserwacjom z natury, że
częstość zdarzenia losowego stabilizuje się na pewnym poziomie.

Przykłady do zad. 5.5

7

background image

Przykłady zastosowań PWL

Metoda Monte Carlo obliczania całek oznaczonych:

Niech X

1

, X

2

, . . . X

n

będzie ciągiem niezależnych zmiennych losowych o jednakowym roz-

kładzie jednostajnym na przedziale [a, b] oraz niech f będzie funkcją rzeczywistą taką, że
Ef (X

1

) istnieje i jest skończona.

Przy powyższych założeniach f (X

1

), f (X

2

), . . . f (X

n

) jest także ciągiem niezależnych zmien-

nych losowych o jednakowym rozkładzie, przy czym istnieje wartość oczekiwana Ef (X

1

).

Ponadto Ef (X

1

) =

1

b − a

b

Z

a

f (x)dx. Z MPWL Kołmogorowa mamy

1

n

n

X

k=1

f (X

k

)

z pr.1

−→

n→∞

Ef (X

1

) =

1

b − a

b

Z

a

f (x)dx.

Możemy zatem do obliczania przybliżonej wartości całki oznaczonej

b

R

a

f (x)dx zastosować

następujący algorytm:

(i) losujemy niezależnie liczby u

1

, u

2

, . . . , u

n

z rozkładu jednostajnego U [0, 1];

(ii) przekształcamy x

k

= a + (b − a)u

k

dla k = 1, 2, . . . , n otrzymując w ten sposób

próbkę z rozkładu U (a, b);

(iii) jako przybliżoną wartość całki przyjmujemy

b

R

a

f (x)dx ≈

b − a

n

n

X

k=1

f (x

k

).

Przykładowy program w Matlabie
function calkowanieMonteCarlo
N=10000;

%N - ilość prób Monte Carlo

%(im wieksze N, tym wynik przyblizony blizszy rzeczywistej wartosci calki)

a=-1;

%a - poczatek przedzialu calkowania

b=1;

%b - koniec przedzialu calkowania

%generujemy x

1

, x

2

, ..., x

N

z rozkładu jednostajnego na przedziale (a, b)

x=a+(b-a)*rand(1,N);

%liczymy wartości funkcji podcałkowej f (x

1

), f (x

2

), . . . , f (x

N

), gdzie f (x) =

1 − x

2

f=sqrt(1-x.ˆ2);

%obliczamy przybliżoną wartość całki ze wzoru

b−a

n

P

n
k
=1

f (x

k

)

calka=(b-a)/N*sum(f)

Uwaga:

b

R

a

f (x)dx =

1

R

1

1 − x

2

dx =

π

2

1, 5707963267

Kilka otrzymanych wyników przybliżonych: 1,5725; 1,5680; 1,5736; 1,5729.

8

background image

Dystrybuanta empiryczna:

Rozważmy ciąg X

1

, X

2

, . . . X

n

niezależnych zmiennych losowych o jednakowym rozkładzie

opisanym dystrybuantą F (x). Ciąg ten interpretujemy jako opis wyników n niezależnych
pomiarów pewnej wielkości fizycznej X, dokonywanych w tych samych warunkach fizycz-
nych. Wartości x

1

, x

2

, . . . x

n

zmiennych losowych w tym ciągu to wyniki konkretnych ta-

kich pomiarów. Ciąg X

1

, X

2

, . . . X

n

nazywamy próbą prostą.

Niech S

n

(x; X

1

, X

2

, . . . X

n

) oznacza ilość elementów próby prostej, których wartość jest

mniejsza niż x.

F

n

(x; X

1

, X

2

, . . . X

n

) =

S

n

(x; X

1

, X

2

, . . . X

n

)

n

(albo F

n

(x; x

1

, x

2

, . . . x

n

)) nazywamy dys-

trybuantą empiryczną.

Zauważmy, że S

n

(x; X

1

, X

2

, . . . X

n

) oznacza ilość tych X

i

, których wartość jest mniejsza

niż x. Jest to zatem ilość sukcesów w n próbach Bernoulliego, gdzie sukces w itej próbie
to zdarzenie {X

i

< x} i p = P (X

i

< x) = F (x) niezależnie od i.

Zatem S

n

(x; X

1

, X

2

, . . . X

n

) ma rozkład Bernoulliego B(n, p = F (x)).

Z tw. Borela otrzymujemy, że

F

n

(x; X

1

, X

2

, . . . X

n

) =

S

n

(x; X

1

, X

2

, . . . X

n

)

n

z pr.1

−→

n→∞

p = F (x).

Inaczej mówiąc, dla dużych n, dla prawie każdej wartości (x

1

, x

2

, . . . x

n

) wektora losowego

(X

1

, X

2

, . . . X

n

) mamy F

n

(x; x

1

, x

2

, . . . x

n

) ≈ F (x), czyli dystrybuanta empiryczna jest w

przybliżeniu równa dystrybuancie teoretycznej F .

0

2

4

6

8

0

1

0

2

4

6

8

0

1

0

2

4

6

8

0

1

n=10

n=100

n=1000

Przykład:
Niebieski wykres:
F (x) = 1 − e

−x

dla x > 0,

czerwony wykres:
realizacja dystrybuanty empirycznej.

9


Wyszukiwarka

Podobne podstrony:
R Pr MAP1151 wyklad3 zmienna los dystrybuanta
R Pr MAP1151 wyklad5 rozklady ciagle
PR CYW PR ROP WYKLAD 26
PR CYW PR ROP WYKLAD 28
PR CYW PR ROP WYKLAD 6
Wstęp do pr europ wykłady
pr miedzynar wykład V, prawo międzynarodowe
pr miedzynar wykład IV, prawo międzynarodowe
PR CYW PR ROP WYKLAD 11
PR CYW PR ROP WYKLAD 20
PR CYW PR ROP WYKLAD 1
PR CYW PR ROP WYKLAD 18
PR CYW PR ROP WYKLAD 19
PR CYW PR ROP WYKLAD 4
PR CYW PR ROP WYKLAD 8
PR CYW PR ROP WYKLAD 21
fizyka I wykład wektory

więcej podobnych podstron