Dwuwymiarowe Zmienne Losowe p29


DWUWYMIAROWE ZMIENNE LOSOWE
Rozkład łączny pary zmiennych losowych (X ,Y )
określonych na tej samej przestrzeni zdarzeń
elementarnych:
P((X ,Y ) A), A - dowolny podzbiór zbioru par
wartości zmiennych X, Y.
Definicja. Dystrybuantą zmiennej losowej (X ,Y )
nazywamy funkcję
F(x, y) = P(X Ł x,Y Ł y),
gdzie - Ą < x < Ą, - Ą < y < Ą.
Twierdzenie. Aączny rozkład prawdopodobieństwa
zmiennej losowej (X ,Y ) określony jest jednoznacznie
przez jej dystrybuantę.
Zmienne dyskretne
Funkcja prawdopodobieństwa ( łącznego )
dwuwymiarowej zmiennej losowej dyskretnej:
f (x, y) = P(X = x,Y = y).
Własności:
(i) f (x, y) ł 0, dla dowolnej pary wartości (x, y),
(ii) f (x, y) = 1,

x y
(iii) P((X ,Y ) A) = f (x, y),

(x, y)A
(iv) F(x, y) = f (s,t).

sŁ x t Ł y
Przykład. W każdym z dwóch etapów teleturnieju
można otrzymać 0, 1, lub 2 punkty. Niech zmienne
losowe X, Y oznaczają liczby punktów uzyskane w
etapie I i II, odpowiednio, przez losowo wybranego
uczestnika. Funkcję prawdopodobieństwa łącznego
określa tabela:
Y 0 1 2
X
0,5 0,05 0,01
0
0,2 0,1 0,06
1
0,02 0,03 A
2
Znalezć:
(a) f (2,2) = P(X = 2,Y = 2)
(b) P(Y = 2)
(c) F(1,1).
2 2
(a) f (x, y) = 1. Stąd

x=0 y=0
f (2,2) = A = 1  ( 0,5 + 0,05 + 0,01 + 0,2 + 0,1 +
+ 0,06 + 0,02 + 0,03 ) = 1  0,97 = 0,03.
2
(b) P(Y = 2) = P(X = x,Y = 2) =

x=0
f (0,2) + f (1,2) + f (2,2) = 0,01 + 0,06 + 0,03 = 0,1.
(c) F(1,1) = P(X Ł 1,Y Ł 1) =
= f (0,0) + f (0,1) + f (1,0) + f (1,1) =
= 0,5 + 0,05 + 0,2 + 0,1 = 0,85.
Zmienne ciągłe
Zmienna losowa ( X ,Y ) jest dwuwymiarową ciągłą
zmienną losową, jeśli jej łączny rozkład prawdopodo-
bieństwa określony jest przez funkcję gęstości łącznej
( łączną gęstość prawdopodobieństwa ), taką że
(i) f (x, y) ł 0
Ą Ą
(ii) f (x, y)dxdy = 1

-Ą -Ą
(iii) P((X ,Y ) A) = f (x, y)dxdy

A
W szczególności dla A = (-Ą, x] (-Ą, y]:
y
x
F(x, y) = P(X Ł x,Y Ł y) = f (s,t)dtds .

-Ą -Ą
ś2
f (x, y) = F(x, y), - Ą < x < Ą, - Ą < y < Ą.
śxśy
Przykład. Zmienna losowa (X ,Y ) ma gęstość
prawdopodobieństwa
x + y 0 Ł x Ł 1,0 Ł y Ł 1

f (x, y) = gdy .

0 przeciwnie

Obliczyć
0,5
1
P(X Ł 0,5,Y > 0,25) = (x + y)dydx =

0 0,25
0,5
1
(xy + y2 / 2) dx =

0,25
0
0,5
(x + 0,5 - 0,25x - 0,625 / 2)dx = ?

0
Rozkłady brzegowe
Niech (X ,Y ) będzie dwuwymiarową zmienną losową o
rozkładzie prawdopodobieństwa określonym przez
funkcję f (x, y) ( funkcja prawdopodobieństwa lub
gęstość ).
Rozkład brzegowy = rozkład prawdopodobieństwa
zmiennej losowej X lub zmiennej losowej Y.
(a) dla dyskretnych zmiennych X, Y , brzegowe
funkcje prawdopodobieństwa są postaci
fX (x) = P(X = x) = f (x, y)

y
fY (y) = P(Y = y) = f (x, y)

x
(b) dla ciągłych zmiennych X, Y , brzegowe gęstości
są postaci
Ą
fX (x) = f (x, y)dy


Ą
fY (y) = f (x, y)dx.


D. (a) fX (x) = P(X = x) = P( {X = x,Y = y}) =
U
y
P(X = x,Y = y) = f (x, y).

yy
(b) FX (x) = P(X Ł x) = P(X Ł x,-Ą < Y < Ą) =
x Ą
f (s,t)dtds . Stąd

-Ą -Ą
Ą
d
fX (x) = FX (x) = f (x,t)dt .

dx

Przykład. Dwuwymiarowa zmienna losowa (X ,Y )
ma gęstość
3(x - y)2 / 8 -1 Ł x Ł 1,-1 Ł y Ł 1
f (x, y) = gdy

przeciwnie
0

Znalezć gęstość zmiennej losowej X.
Niech -1 Ł x Ł 1.
Ą 1
3
fX (x) = f (x, y)dy = (x - y)2 dy =

8
-Ą -1
1
3
(x2 - 2xy + y2)dy =

8
-1
1
3 3 1
[x2 y - xy2 + y3 / 3] = x2 + .
8 -1 4 4
(3x2 +1) / 4 -1 Ł x Ł 1
fX (x) = gdy .

przeciwnie
0

Gęstość zmiennej losowej Y ma identyczną postać.
Rozkłady warunkowe
(a) Niech (X ,Y ) będzie dyskretną zmienną losową
mającą funkcję prawdopodobieństwa f (x, y).
Niech y  ustalone oraz fY (y) > 0.
Rozkład warunkowy zmiennej losowej X pod
warunkiem, że Y = y określa warunkowa funkcja
prawdopodobieństwa:
f (x, y)
f (x y) = , x  dowolna wartość zmiennej X.
fY ( y)
P(X = x,Y = y)
f (x y) = = P(X = xY = y) =
P(Y = y)
funkcja prawdopodobieństwa zmiennej X pod
warunkiem, że zmienna Y przyjęła wartość y.
Analogicznie:
f (x, y)
f (y x) = = P(Y = y X = x), gdzie fX (x) > 0.
fX (x)
Notacja: f (x y) = fX Y (x y)
f ( y x) = fY X ( y x)
(b) Niech (X ,Y ) będzie ciągłą zmienną losową o
łącznej gęstości f (x, y).
Niech y  ustalone oraz fY (y) > 0.
Warunkową gęstością prawdopodobieństwa zmiennej
losowej X pod warunkiem, że Y = y nazywamy funkcję
f (x, y)
f (x y) = , - Ą < x < Ą.
fY ( y)
Przykład. (kontynuacja)
3(x - y)2 / 8 -1 Ł x Ł 1,-1 Ł y Ł 1
f (x, y) = gdy

przeciwnie
0

(3y2 +1) / 4 -1 Ł y Ł 1
fY ( y) = gdy

przeciwnie
0

Niech -1 Ł y Ł 1 - ustalone.
3(x - y)2 / 8 3(x - y)2
f (x y) = = dla x [-1,1]
(3y2 +1) / 4 6y2 + 2
f (x y) = 0 dla x [-1,1].
Uwaga. Analogicznie określamy rozkład warunkowy
zmiennej losowej Y pod warunkiem X = x. Zatem
f (x, y)
f (y x) = , gdzie y  dowolna wartość Y,
fX (x)
x - ustalone, takie że fX (x) > 0.
Notacja: f (y x) = fY X ( y x), f (x y) = f (x y)
X Y
Przykład. (kontynuacja)
(a) Znalezć rozkład brzegowy zmiennej Y, liczby
punktów uzyskanych w II etapie teleturnieju przez
losowo wybranego uczestnika.
(b) Wyznaczyć rozkład warunkowy Y pod warunkiem,
że w I etapie uzyskano 2 punkty, tzn. X = 2.
Y 0 1 2
X
0,5 0,05 0,01
0
0,2 0,1 0,06
1
0,02 0,03 0,03
2
Y 0 1 2
X
0,5 0,05 0,01
0
0,2 0,1 0,06
1
0,02 0,03 0,03
2
(a) fY (y) = f (0, y) + f (1, y) + f (2, y). Stąd
Y 0 1 2
fY (y)
0,72 0,18 0,1
f (2, y)
(b) f (y 2) = = ?
f (2)
X
f (0 2) = fY X (0 2) = f (2,0) / f (2) =
X
= 0,02/(0,02 + 0,03 + 0,03) =1/4,
f (12) = fY X (12) = f (2,1) / fX (2) =
= 0,03/0,08 = 3/8,
f (2 2) = fY X (2 2) = f (2,2) / fX (2)=
= 0,03/0,08 = 3/8.
Niezależne zmienne losowe
Definicja. Niech (X ,Y ) będzie dwuwymiarową
zmienna losową o dystrybuancie F(x, y) oraz
dystrybuantach brzegowych FX (x), FY ( y),
x, y (-Ą, Ą). Zmienne losowe X, Y są niezależne,
jeśli
F(x, y) = FX (x)FY (y),
dla wszystkich wartości x, y.
Twierdzenie. Zmienne losowe X, Y są niezależne
wtedy i tylko wtedy gdy
f (x, y) = f (x) fY (y),
X
dla wszystkich wartości x, y.
Wniosek. Poniższe warunki są równoważne:
(i) Zmienne losowe X, Y są niezależne.
(ii) f (x y) = f (x), - Ą < x < Ą, dla wszystkich y,
X
takich że fY (y) > 0.
(iii) f (y x) = fY (y), - Ą < y < Ą, dla wszystkich x,
takich że fX (x) > 0.
Przykład. ( kontynuacja )
Czy liczby punktów uzyskane w I i II etapie teleturnieju
przez losowo wybranego uczestnika są niezależnymi
zmiennymi losowymi ?
Y 0 1 2
X
0,5 0,05 0,01
0
0,2 0,1 0,06
1
0,02 0,03 0,03
2
f (0) = f (0,0) + f (0,1) + f (0,2) = 0,5 + 0,05 +
X
+ 0,01 = 0,56.
fY (0) = f (0,0) + f (1,0) + f (2,0) = 0,5 + 0,2
+ 0,02 = 0,72.
Stąd f (0,0) = 0,5 ą 0,56 0,72 = fX (0) fY (0),
Zmienne losowe X ,Y są zależne.
Przykład. ( kontynuacja ). Czy X, Y są niezależnymi
zmiennymi losowymi, jeśli ich łączna gęstość ma
postać:
3(x - y)2 / 8 -1 Ł x Ł 1,-1 Ł y Ł 1
f (x, y) = gdy

przeciwnie
0

Dla x, y [-1,1] :
fX (x) = (3x2 +1) / 4 oraz fY (y) = (3y2 +1) / 4.
f (x, y) ą f (x) fY ( y).
X
Przykład. Czasy poprawnej pracy dwu podzespołów są
niezależnymi zmiennymi losowymi X, Y o rozkładach
wykładniczych z parametrami l1,l2, odpowiednio.
Średnie czasy pracy podzespołów wynoszą 1000
(godzin ) i 1200 ( godzin ). Obliczyć
prawdopodobieństwo zdarzenia takiego, że każdy
podzespół nie ulegnie awarii przed upływem 1500
godzin.
E(X ) = 1/ l1 = 1000 (godz.),
E(Y ) = 1/ l2 = 1200 (godz.)
Stąd l1 = 1/1000 (1/godz.) l2 = 1/1200 (1/godz.).
P(X ł 1500,Y ł 1500) = P(X ł 1500) P(Y ł 1500) =
e-l11500 e-l21500 = e-1500 /1000 e-1500 /1200 =
= 0,22310,2865 = 0,0639.
Wartość oczekiwana. Kowariancja.
E[g(X ,Y )] = g(x, y) f (x, y),

x y
gdy X, Y są dyskretne,
Ą Ą
E[g(X ,Y )] = g(x, y) f (x, y)dxdy,

-Ą -Ą
gdy X, Y są ciągłe.
Uwaga. Dla g(X ,Y ) = X lub g(X ,Y ) = Y
otrzymujemy wartości oczekiwane brzegowych
zmiennych losowych X lub Y.
Np.
E[X ] = xf (x, y) = x f (x, y) =

x y x y
= xfX (x) = mX .

x
Stwierdzenie. Niech c będzie dowolną stałą, a
g(X ,Y ), g1(X ,Y ), g2(X ,Y ) zmiennymi losowymi
jednowymiarowymi. Wówczas
E[cg(X ,Y ) = cE[g(X ,Y )],
E[g1(X ,Y ) + g2(X ,Y )] = E[g1(X ,Y )] + E[g2(X ,Y )].
D. Dowód jest bezpośrednią konsekwencją definicji
wartości oczekiwanej oraz własności całki i sumowania.
Stwierdzenie. Jeśli zmienne losowe X, Y są niezależne,
to
E(XY ) = E(X )E(Y ).
D. Niezależność zmiennych jest równoważna
f (x, y) = f (x) fY ( y). Stąd i z definicji wartości
X
oczekiwanej mamy
(a) (zmienne dyskretne )
E[g(X ,Y )] = g(x, y) f (x, y).

x y
E(XY ) = xyf (x, y) = xyfX (x) fY ( y)=

x y x y
xfX (x) yfY (y) = yfY ( y) xfX (x) =

xy y x
E(Y )E(X ) = E(X )E(Y ).
(b) (zmienne ciągłe) Dowód analogiczny - Sumowanie
należy zastąpić całkowaniem.
Definicja. Niech X i Y będą zmiennymi losowymi o
łącznej funkcji prawdopodobieństwa ( gęstości )
f (x, y). Kowariancją zmiennych X i Y nazywamy
liczbę:
s = E[(X - mX )(Y - mY )].
XY
Uwaga.
Z definicji s oraz E[g(X ,Y )], przyjmując
XY
g(x, y) = (x - mX )(y - mY ), otrzymujemy wzory:
s = (x - mX )(y - mY ) f (x, y),

XY
x y
gdy X, Y są dyskretne
Ą Ą
s = (x - mX )(y - mY ) f (x, y)dxdy ,

XY
-Ą -Ą
gdy X, Y są ciągłe.
Notacja: Zamiast s często piszemy Cov (X,Y).
XY
Interpretacja. Kowariancja określa pewną
współzależność między zmiennymi losowymi:
(a) Jeśli  dużym wartościom zmiennej X
przewyższającym mX towarzyszą zwykle  duże
wartości zmiennej Y przewyższające mY , a wartościom
X mniejszym od mX towarzyszą zwykle wartości Y
mniejsze od mY , to s > 0.
XY
(b) Jeśli wartościom zmiennej X większym od mX
towarzyszą zwykle wartości Y mniejsze od mY
wartościom X mniejszym od mX towarzyszą zwykle
wartości Y większe od od mY , to s < 0.
XY
Stwierdzenie. Cov(X,Y) = E(XY ) - mX mY .
D. Cov(X,Y) = E[(X - mX )(Y - mY )] =
= E(XY - XmY - YmX + m mY ) =
X
= E(XY ) - E(XmY ) - E(YmX ) + mX mY =
= E(XY ) - mX mY .
Twierdzenie. Jeśli zmienne losowe X i Y są
niezależne, to
Cov(X,Y) = 0.
D. Dla niezależnych zmiennych losowych
E(XY ) = E(X )E(Y ). Stąd oraz wzoru na
kowariancję mamy:
Cov(X,Y) = E(XY ) - mX mY =
= E(X )E(Y ) - mX mY = 0.
Uwaga. Twierdzenie odwrotne nie jest na ogół
prawdziwe.
Twierdzenie. Dla dowolnych stałych a, b
Var(aX + bY ) =
a2Var(X) + b2Var(Y) + 2abCov(X,Y).
D. E{ [(aX + bY ) - (amX + bmY )]2 } =
E{ [a(X - mX ) + b(Y - mY )]2 } = E{ [a(X - mX ))]2 }
+ E [2ab(X - mX )(Y - mY )] + E{ [b(Y - mY )]2 } =
= a2Var(X) + 2abCov(X,Y) + b2Var(Y). c.k.d.
Wniosek. Jeśli zmienne losowe X i Y są niezależne,
to
Var(aX + bY ) = a2Var(X) + b2Var(Y).
Definicja. Współczynnikiem korelacji między
zmiennymi losowymi X i Y nazywamy liczbę:
Cov(X ,Y )
r = .
Var(X ) Var(Y )
Przykład. r = ?
Y 0 1 2
X
0,5 0,05 0,01
0
0,2 0,1 0,06
1
0,02 0,03 0,03
2
E(X ) = x f (x, y) = 0(0,5 + 0,05 + 0,01) +

x y
+ 1(0,2 + 0,1 + 0,06) + 2(0,02+0,03+0,03) = 0,52.
E(Y ) = y f (x, y) = 0 (0,5 + 0,2 + 0,02) +

x y
+ 1(0,05 + 0,1 + 0,03) + 2(0,01+0,06+0,03) = 0,38.
Y 0 1 2
X
0,5 0,05 0,01
0
0,2 0,1 0,06
1
0,02 0,03 0,03
2
E(XY ) = xyf (x, y) = 0 + 0 + 0 + 0 + 110,1 +

x y
+ 1 2 0,06 + 21 0,03 + 2 2 0,03 = 0,31.
Cov(X,Y) = 0,31  0,52 0,38 = 0,1124.
2
E(X ) = 12 (0,2 + 0,1 + 0,06) +
+ 22 (0,02 + 0,03 + 0,03) = 0,68
2
E(Y ) = 12 (0,05 + 0,1 + 0,03) +
+ 22 (0,01+ 0,06 + 0,03) = 0,58.
2
Var(X) = E(X ) - [E(X )]2 = 0,68 - 0,522 = 0,4096
2
Var(Y) = E(Y ) - [E(Y )]2 = 0,58 - 0,382 = 0,4356
0,1124
r = = 0,2661.
0,4096 0,4356
Własności współczynnika korelacji
(i) -1 Ł r Ł 1
(ii) Jeśli a i b są stałymi, oraz jeśli
Y = a + bX,
to
1 b > 0

r = gdy

b < 0
-1
(iii) Jeśli zmienne losowe X i Y są niezależne, to
r = 0.
(iv) Jeśli r = 1, to między zmiennymi losowymi X, Y
istnieje liniowa zależność funkcyjna.
Interpretacja. Współczynnik korelacji jest miarą
zależności liniowej między zmiennymi losowymi.
Dwuwymiarowy rozkład normalny
Zmienna losowa (X ,Y ) ma dwuwymiarowy rozkład
normalny, jeśli ma gęstość postaci:
ł
1 1
f (x, y) = expę- q(x, y)ś ,
2
2ps sY
2(1- r )
X

gdzie
(x - mX )2 (x - mX )(y - mY ) (y - mY )2
q(x, y) = - 2r + ,
2 2
s sY
s s
X
X y
- Ą < x < Ą, - Ą < y < Ą, stałe s ,sY , r spełniają
X
warunki s > 0, sY > 0, -1 < r < 1.
X
Notacja: (X ,Y ) ~ N(mX , mY ,s ,sY , r)
X
Twierdzenie. Jeśli (X ,Y ) ~ N(mX , mY ,s ,sY , r), to
X
(i) X ~ N(mX ,s ), Y ~ N(mY ,sY ).
X
(ii) Cov(X,Y) = r .
(iii) X, Y są niezależne wtedy i tylko wtedy gdy r = 0.
Twierdzenie. Zmienna losowa (X,Y) ma
dwuwymiarowy rozkład normalny wtedy i tylko wtedy
gdy zmienna losowa aX + bY ma rozkład normalny, a, b
są dowolnymi stałymi.
CIGI ZMIENNYCH LOSOWYCH
Niech X1, X ,..., X będą zmiennymi losowymi
2 n
określonymi na tej samej przestrzeni zdarzeń
elementarnych S .
F(x1, x2,..., xn ) = P(X1 Ł x1, X Ł x2,..., X Ł xn ) =
2 n
dystrybuanta wektora losowego ( X1, X ,..., X ).
2 n
f (x1, x2,..., xn ) = funkcja prawdopodobieństwa
łącznego lub funkcja gęstości łącznej wektora losowego
( X1, X ,..., X ).
2 n
Definicja. Zmienne losowe X1, X ,..., X są niezależne,
2 n
jeśli
F(x1, x2,..., xn ) = FX1 (x1)FX 2 (x2) ... FX n (xn ),
gdzie FX i (xi ) = P(Xi Ł xi ), i = 1,2,...,n.
Definicja.
E[g(X1, X ,,,, X )] =
2 n
... g(x1, x2,..., xn ) f (x1, x2,..., xn ),

x1 x2 xn
lub
Ą Ą Ą
... g(x1, x2,..., xn ) f (x1, x2,..., xn )dx1dx2...dxn .

-Ą -Ą -Ą
Stwierdzenie.
E(a1X1 + a2 X + ... + an X ) =
2 n
a1E(X1) + a2E(X ) + ... + anE(X ).
2 n
n
1
Wniosek. Niech X = Xi , E(Xi ) = m, i = 1,2,..,n.

n
i=1
E(X ) = m .
1
D. W stwierdzeniu trzeba przyjąć ai = , i = 1,2,..,n.
n
Stwierdzenie. Jeśli X1, X ,..., X są niezależnymi
2 n
zmiennymi losowymi, to
Var(a1X1 + a2 X + ... + an X ) =
2 n
a12Var( X1) + a22Var( X ) + ... +an2Var( X ).
2 n
1
2
W szczególności, jeśli Var( Xi ) = s oraz ai = ,
n
i = 1,2,..,n, to
2
s
Var( X ) = .
n
Przykład. Dokonujemy n jednakowych, niezależnych
doświadczeń Bernoulli ego o prawdopodobieństwie
sukcesu p, 0 < p < 1. Znalezć wartość oczekiwaną i
wariancję zmiennej losowej Y będącej liczbą sukcesów.
Niech Xi = 1, gdy sukces w i-tym doświadczeniu,
Xi = 0, gdy porażka w i-tym doświadczeniu. Wówczas
X1, X ,..., X są niezależnymi zmiennymi losowymi o
2 n
funkcjach prawdopodobieństwa:
f (1) = p, fX i (0) = 1- p.
X
i
Stąd:
E(Xi ) = p, Var( Xi ) = p(1- p).
Liczba sukcesów =
Y = X1 + X + ... + X .
2 n
E(Y ) = E(X1 + X + ... + X ) =
2 n
E(X1) + E(X ) + ... + E(X ) = np.
2 n
Var(Y) =
Var( X1) + Var( X ) + ... + Var( X ) = np(1- p)
2 n
Definicja. Prostą próbą losową o liczności n
nazywamy ciąg niezależnych zmiennych losowych
X1, X ,..., X określonych na przestrzeni zdarzeń
2 n
elementarnych S i takich, że każda ze zmiennych ma
taki sam rozkład.
Twierdzenie. ( CENTRALNE TWIERDZENIE
GRANICZNE)
Niech X1, X ,..., X będzie prostą próbą losową z
2 n
2
rozkładu o średniej m i wariancji s . Wówczas dla
dużych liczności próby n rozkład prawdopodobieństwa
standaryzowanej średniej ( = standaryzowanej sumy
X1 + X + ... + X ) jest bliski standardowemu
2 n
rozkładowi normalnemu N(0,1), dokładniej dla
dowolnych liczb a, b, - Ą Ł a < b Ł Ą
X - m
P(a < Ł b) P(a Ł Z Ł b) = F(b) - F(a),
s / n
przy n Ą. Równoważnie rozkład średniej X jest
bliski rozkładowi normalnemu N(m,s / n).
Przykład. Załóżmy, że rozkład codziennego dojazdu do
pracy jest w przybliżeniu rozkładem jednostajnym na
przedziale [0,5 godz., 1 godz. ] i że czasy dojazdów w
różne dni są niezależne. Obliczyć przybliżone
prawdopodobieństwo zdarzenia, że średni dzienny
dojazd w ciągu 30 dni przekroczy 0,8 godz.
Niech Xi oznacza czas dojazdu w i-tym dniu ,
i = 1,2,...,30.
0,5 +1 3
m = E(Xi ) = = ,
2 4
(1- 0,5)2 1
2
s = Var(Xi ) = = .
12 48
3 1
E(X ) = , Var(X ) =
4 30 48
X - 3/ 4 0,8 - 3/ 4
P(X > 0,8) = P( > )
1/(30 48) 1/(30 48)
P(Z > 1,89) = 1- F(1,89) = 0,03.


Wyszukiwarka

Podobne podstrony:
Przekształcenia ciągłe zmiennej losowej
MPiS30 W05d Zmienne losowe II
PiS15 W03 Zmienne losowe II 12
MPiS cw zmienne losowe
zmienne losowe22 09 A
MPiS cw dwie zmienne losowe
3 Zmienne losowe i ich rozkłady
rozklad zmiennej losowe metodologia wyk2
Rozklad zmiennej losowej zadania
PiS15 W02k Zmienne losowe I
SM15 W02k Zmienne losowe I
Parametry zmiennej losowej
PiS15 W02d Zmienne losowe I
zmienne losowe
PiS15 W03k Zmienne losowe II
jurlewicz,probabilistyka, parametry zmiennej losowej
2rozklady zmiennej losowej

więcej podobnych podstron