02 WykĹ‚ad - Rach prawdop WZ, Rachunek prawdopodobie˙stwa - podstawowe definicje


Rachunek prawdopodobiestwa - podstawowe definicje.

Niech E"" bdzie pewnym niepustym zbiorem - w dalszym cigu bdziemy go nazywa przestrzeni zdarze elementarnych. Elementy e"E bdziemy nazywa zdarzeniami elementarnymi.

W E wyróniamy pewn rodzin S jego podzbiorów, speniajc pewne warunki (omówione poniej), które stwierdzaj e S jest tak zwanym -ciaem (lub inaczej: -algebr) podzbiorów przestrzeni E. Elementy A nalece do S (A"S) nazywamy zdarzeniami losowymi lub po prostu - zdarzeniami. (Tak wic, w szczególnoci, zdarzenia losowe s podzbiorami zbioru E, za elementami zdarze losowych s zdarzenia elementarne.) Warunki definicji -ciaa moemy nieco niecile wyrazi stwierdzeniem, e na zdarzeniach moemy dokonywa operacji sumy, iloczynu, rónicy, dopenienia, a take sumy i iloczynu przeliczalnej iloci zdarze i w wyniku nadal otrzymujemy zdarzenia. Dokadnie, S nazywamy -ciaem podzbiorów przestrzeni E, jeeli

(i) S"2E, tzn. A"E gdy A"S;

(ii) ""S;

(iii) Jeeli Ai"S dla i=1,2,3,... oraz A=A1"A2"A3"... (suma przeliczalnej iloci zdarze), to A"S.

(iv) Jeeli A"S, to A' =E\A"S

Jeeli zbiór E jest skoczony lub przeliczalny, to za S przyjmujemy na ogó rodzin wszystkich podzbiorów przestrzeni E (S=2E). Jeeli E jest zbiorem nieprzeliczalnym, to okazuje si, e aby w ogóle mona byo okreli pewn funkcj prawdopodobiestwa (czyli tzw. miar unormowan) P na S, S nie moe si skada ze wszystkich - lecz jedynie z niektórych podzbiorów przestrzeni E (zwanych niekiedy podzbiorami mierzalnymi). Wanym, lecz nietrywialnym przykadem jest -ciao zbiorów Borelowskich na prostej - jest to najmniejsze -ciao zbiorów, do którego nale wszystkie przedziay otwarte (a w konsekwencji, wszystkie zbiory otwarte, a wic i wszystkie zbiory domknite, dalej - przeliczalne przecicia zbiorów otwartych, przeliczalne sumy zbiorów domknitych itd.).

P - funkcja prawdopodobiestwa (miara unormowana) jest funkcj P:S!<0,1>, speniajc nastpujce warunki (stwierdzajce w istocie, e P jest miar unormowan):

(i) P:S!<0,1>, czyli P jest okrelone na zdarzeniach (czyli zbiorach A nalecych do S) i 0"P(A)"1 dla kadego A"S;

(ii) P(")=0

(iii) Jeeli Ai"S dla i=1,2,3,... przy czym Ai"Aj=" dla i"j (zbiory Ai s parami rozczne), to P(A1"A2"A3"...)= P(A1)+P(A2)+P(A3)+... (przeliczalna addytywno prawdopodobiestwa dla zbiorów parami rozcznych)

(iv) P(E)=1.

Wasnoci -ciaa (-algebry) S oraz funkcji prawdopodobiestwa P.

S - rodzina zdarze losowych (-ciao)

P - prawdopodobiestwo (miara unormowana) na S

1. S"2E, tzn. A"E gdy A"S

1. P:S!<0,1>, tzn. dla A"S, 0"P(A)"1

2. ""S (" - zdarzenie niemoliwe)

2. P(")=0

3. E"S (E - zdarzenie pewne)

3. P(E)=1

4. Jeeli Ai"S (i=1,2,3,...), to

A1"A2"A3"... "S

4'. Jeeli Ai"S (i=1,2,3,...), to

A1"A2"A3"... "S

W szczególnoci, wasnoci 4 i 4' zachodz dla skoczonego cigu zbiorów.

4. Jeeli Ai"S (i=1,2,3,...), to

P(A1"A2"A3"...)" P(A1)+P(A2)+P(A3)+...

Uwaga. P(A1"A2)=P(A1)+P(A2)-P(A1"A2);

P(A1"A2"A3)= P(A1)+P(A2)+P(A3)+

-P(A1"A2)-P(A2"A3)-P(A3"A1)+P(A1"A2"A3)

5. Oczywicie, wasno 4 zachodzi w szczególnoci dla zbiorów parami rozcznych. “Na odwrót”, sum dowolnego cigu Ai mona przedstawi w postaci sumy cigu zbiorów parami rozcznych Bi , gdzie B1=A1, B2=A2\A1 , B3=A3\(A1"A2) itd.

5. Gdy Ai"S (i=1,2,3,...) s parami rozczne, tzn. Ai"Aj=" dla i"j, to

P(A1"A2"A3"...) = P(A1)+P(A2)+P(A3)+...

(w istocie po prawej stronie wystpuje suma szeregu nieskoczonego)

6. Gdy Ai"S (i=1,2,3,...) oraz A1"A2"A3"... (cig wstpujcy), to P(A1"A2"A3"...)=lim P(An) ;

6' Gdy Ai"S (i=1,2,3,...) oraz A1"A2"A3"... (cig zstpujcy), to P(A1"A2"A3"...)=lim P(An) .

7. Jeeli A"S, to A' = E \ A"S

7. P(A') = 1-P(A)

8. A,B"S, to A \ B"S

8. P(A) - P(B) " P(A \ B)

9. A, B"S, A"B, to P(A) " P(B).

Definicja prawdopodobiestwa warunkowego: niech P(B)>0, B"S

P(A|B)=P(A"B)/P(B) (A"S).

Tak wic P(A"B)=P(A|B)P(B) (take P(A"B)=P(B|A)P(A), jeeli P(A)>0)

Wzór na prawdopodobiestwo cakowite, wzór Bayesa:

Jeeli Aj "S (i=1,2,...,n) s parami rozczne, P(Ai)>0 i A1"A2"... "An=E oraz B"S, to

P(B)=P(B|A1)P(A1)+ P(B|A2)P(A2)+...+ P(B|An)P(An).

Ponadto wtedy

P(Ak|B)=P(B|Ak)P(Ak)/P(B),

gdzie P(B) jest dane poprzednim wzorem.

Zmienne losowe.

Niech X:E!R lub X:E!R"{-",+"} (tzw. rozszerzona funkcja rzeczywista, tzn. mogca przyjmowa take wartoci -" oraz +"). Mówimy, e funkcja X jest zmienn losow, jeeli

(i) Dla kadego przedziau , zbiór {e"E:X(e)"} jest zdarzeniem losowym, czyli naley do rodziny S; w szczególnoci, jest okrelone prawdopodobiestwo tego zbioru, tzn. prawdopodobiestwo, e zmienna losowa przyjmie warto z przedziau  : P({e"E:X(e)"}), oznaczane w skrócie przez P(X").

(ii) P({X = -"})=P({X = +"})=0

Bdziemy zajmowa si tylko zmiennymi losowymi dwóch nastpujcych typów (cho istniej zmienne, które nie s adnego z tych typów):

a) typu skokowego: zmienna, przyjmujca skoczon lub przeliczaln ilo wartoci, powiedzmy xi z prawdopodobiestwami odpowiednio pi (suma wszystkich pi jest równa 1);

b) typu cigego: zmienna, dla której istnieje tzw. funkcja gstoci (krótko: gsto) f, tzn. funkcja taka, e 1) f"0; 2) dla dowolnych a, b, P(a"X"b)=0x01 graphic
. Na to, aby funkcja f bya gstoci pewnej zmiennej losowej X potrzeba i wystarcza, aby f bya nieujemna i 0x01 graphic
.

Dystrybuanta zmiennej losowej jest to funkcja F:(-",+")!R, okreœlona przez warunek F(x)=P(X<x)=P({e"E:X(e)<x}). (Każda zmienna losowa ma dystrybuantę; nie każda zmienna losowa ma gęstoœć - tylko zmienna losowa typu ciągłego ma gęstoœć.)

Dla zmiennej X typu skokowego, F(x) jest równe sumie tych prawdopodobieństw pi, dla których odpowiednie xi spełniają warunek xi<x. Jeżeli zmienna losowa przyjmuje skończoną iloœć wartoœci (lub nieskończoną iloœć, ale odizolowanych od siebie wartoœci), to jej dystrybuanta jest funkcją schodkową.

Dla zmiennej losowej X typu ciągłego o gęstoœci f mamy F(x)= 0x01 graphic
. Wtedy F jest ciga, ponadto F'(x)=f(x) w punktach cigoci funkcji f (wicej, nawet “prawie wszdzie”, tzn. wszdzie z wyjtkiem by moe pewnego zbioru miary zero). Ponadto, wtedy P(X=x)=0 dla kadego x, tak e wszystkie prawdopodobiestwa

P(a"X<b), P(a"X"b), P(a<X<b), P(a<X"b)

s sobie równe (i równe cace 0x01 graphic
).

Wasnoci dystrybuanty dowolnej zmiennej losowej X:

1) 0"F(x)"1 (jako prawdopodobiestwo);

2) F - niemalejca (oczywiste - zob. wasno 9 prawdopodobiestwa);

3) jeeli x dy do minus nieskoczonoci, to F(x) dy do 0;

jeeli x dy do plus nieskoczonoci, to F(x) dy do 1;

4) F jest lewostronnie ciga (wynika z wasnoci 6) prawdopodobiestwa).

Wyraenie prawdopodobiestw przyjmowania wartoci z pewnego przedziau przez zmienn losow za pomoc dystrybuanty:

P(a"X<b)=F(b)-F(a) P(a"X"b)=F(b+)-F(a)

P(a<X<b)=F(b)-F(a+) P(a<X"b)=F(b+)-F(a+)

W szczególnoci

P(X<a)=F(a), zgodnie z definicj dystrybuanty; P(X"a)=F(a+);

P(X"a)=1-F(a); P(X"a)=1-F(a+).

Najwaniejsze rozkady prawdopodobiestwa zmiennych losowych.

1) Rozkad dwupunktowy: P(X=1)=p (0<p<1); P(X=0)=q=1-p

2) Rozkad dwumianowy, czyli rozkad Bernoulli'ego:

0x01 graphic

[ta definicja jest poprawna, gdy 0x01 graphic
].

Rozkad dwupunktowy jest oczywicie szczególnym przypadkiem rozkadu Bernoulliego, z n=2. Ilo sukcesów w n niezalenych eksperymentach, jeeli prawdopodobiestwo sukcesu w pojedynczym eksperymencie jest równe p , ma rozkad Bernoulliego. Zmienn losow o rozkadzie Bernoulliego mona traktowa jako sum n niezalenych zmiennych losowych o rozkadzie dwupunktowym: X=X1+X2+... +Xn (wynika to z prostego faktu, e suma wyrazów cigu, skadajcego si z samych zer i jedynek, jest równa wanie iloci jedynek w tym cigu.

3) Rozkad Poissona: 0x01 graphic
.

Rozkad Poissona jest granicznym przypadkiem rozkadu dwumianowego: gdy Xn maj rozkad dwumianowy o parametrach n, pn odpowiednio, n dy do nieskoczonoci, a prawdopodobiestwa pn d do zera w ten sposób, e npn dy do , to prawdopodobiestwa P(Xn=k) przy dowolnym k d do odpowiednich prawdopodobiestw w rozkadzie Poissona. Rozkad Poissona jest stablicowany.

4) Rozkad normalny (Gaussa). Jest to rozkad typu cigego o gstoci

0x01 graphic

gdzie m (dowolne) i >0 s ustalonymi parametrami (ich sens zostanie wyjaniony póniej - okae si wtedy, e m jest wartoci oczekiwan, za  - odchyleniem standardowym tej zmiennej). To, e podana funkcja jest rzeczywicie gstoci, wynika z podstawowej caki

0x01 graphic
.

Jeeli zmienna losowa X ma rozkad normalny o parametrach (m,), to piszemy X~N(m,). Jeeli X~N(m,), to zmienna 0x01 graphic
ma rozkad N(0,1), który jest stablicowany. Istniej tablice gstoci (których uywa bdziemy rzadziej) oraz najwaniejsze - które wystpuj w dwóch wariantach: albo s to bezporednio tablice dystrybuanty F rozkadu normalnego N(0,1) - charakteryzuj si tym, e F(0)=0,5 (np. tablice w skrypcie Eugenii Ciborowskiej - Wojdygi), albo te tablice pomocniczej funkcji

0x01 graphic

(te tablice charakteryzuj si tym, e (0)=0; mamy (-x) = -(x), F(x)=0,5+(x); dla x<0 stosujemy F(x)=0,5-(|x|)).

Funkcje zmiennych losowych.

Jeeli X jest zmienn losow i jeeli g:R!R jest funkcj tak, e g(X) jest równie zmienn losow (jest tak na przykad, gdy g jest funkcj monotoniczn lub cig, lub - jeszcze ogólniej, tzw. funkcj Baire'a, tj. tak, e dla dowolnego przedziau postaci (-",a) jego przeciwobraz przy odwzorowaniu g jest równie zbiorem borelowskim). Wtedy rozkad zmiennej Y=g(X) moemy znale w sposób nastpujcy:

1) Jeeli X jest zmienn typu skokowego, przyjmujc wartoci xi z praw­dopodobiestwami odpowiednio pi , to Y jest równie zmienn typu skokowego, przyjmujc wartoci yi =g(xi) z prawdopodobiestwami qi , gdzie qi jest równe sumie tych wszystkich pj , e g(xj)=yi. (moe si bowiem zdarzy, e dla rónych xj ich obrazy przy g s takie same.)

2) Dystrybuant FY zmiennej losowej Y=g(X) moemy zawsze wyznaczy poprzez dystrybuant FX zmiennej losowej X: mamy FY(y)=P(Y<y)=P(g(X)<y), a dalszy proces obliczania FY zaley od tego, jak posta ma rozwizanie nierównoci g(X)<y wzgldem X - musimy P(g(X)<y) wyrazi w postaci P(X"Ay), gdzie Ay jest pewnym zbiorem zalenym od y; jeeli jest to suma przedziaów, moemy to prawdopodobiestwo wyrazi za pomoc dystrybuanty FX zmiennej X.

3) Jeeli X jest typu cigego o gstoci fX, to zwizek pomidzy gstociami fY i fX otrzymujemy poprzez róniczkowanie odpowiedniego zwizku pomidzy dystrybuantami. Istnieje pewien wzór na zaleno pomidzy gstociami, ale niestety wany tylko w przypadku, gdy g jest monotoniczna. Ogólnie rzecz biorc, musimy rozpatrywa róne przypadki w zalenoci od postaci rozwizania wspomnianych wyej nierównoci.

Zmienne losowe wielowymiarowe.

Niech (X,Y) bdzie dwuwymiarow zmienn losow. Dla zmiennych typu skokowego, rozkad jest wyznaczony przez podanie liczb pij=P(X=xi,Y=yj). Dla zmiennych typu cigego istnieje gsto, tzn. funkcja nieujemna f taka, e dla dowolnych a<b, c<d

P(a"X"b, c"Y"d)=0x01 graphic
. Oczywicie, 0x01 graphic
.

Dla dwuwymiarowej zmiennej losowej moemy zawsze wprowadzi dystrybuant F(x,y)=P(X<x,Y<y). Tak wic np.

P(a"X<b, c"Y<d)=F(b,d)-F(b,c)-F(a,d)+F(a,c).

Podanie rozkadu dwuwymiarowego zmiennej (X,Y) okrela, w szczególnoci, rozkady samych zmiennych X i Y - czyli tzw. rozkady brzegowe. Dla zmiennych typu skokowego rozkad X jest wyznaczony przez liczby pi=j pij , za rozkad zmiennej Y jest wyznaczony przez liczby pj=i pij .

Mamy wtedy równie FX(x)=F(X,Y)(x,+"), FY(y)==F(X,Y)(+",y).

Dla zmiennych typu cigego, rozkad (brzegowy) zmiennej X jest wyznaczony przez gsto 0x01 graphic
i analogicznie, rozkad (brzegowy) zmiennej Y przez jej gsto 0x01 graphic
.

Mówimy, e zmienne losowe X i Y s niezalene, jeeli dla dowolnych przedziaów 1,2 zachodzi P(X"1,Y"2)=P(X"1) P(Y"2). Jest to równowane temu, e

F(X,Y)(x,y)=FX(x)FY(y) dla dowolnych x, y.

Dla zmiennych typu cigego mamy nastpny równowany warunek: f(X,Y)(x,y)=fX(x)fY(y) dla dowolnych x, y.

Warto oczekiwana i inne parametry zmiennej losowej

Wartoci oczekiwan (lub wartoci redni) zmiennej losowej X nazywamy:

1) w przypadku zmiennej losowej typu skokowego, przyjmujcej wartoci xi z prawdopodobiestwami odpowiednio pi - liczb

0x01 graphic

2) w przypadku zmiennej losowej typu cigego o gstoci f - liczb

0x01 graphic

Definicje te moemy uogólni na przypadek, gdy dana jest pewna funkcja g zmiennej losowej X, i w konsekwencji mamy do czynienia z now zmienn losow Y=g(X). Jeeli chcemy obliczy jej warto oczekiwan E(Y)=E(g(X)), to z definicji musielibymy policzy najpierw rozkad (tzn. odpowiednie wartoci yi oraz ich prawdopodobiestwa qi dla zmiennej Y=g(X) albo te odpowiedni gsto fY zmiennej losowej Y) a nastpnie zastosowa odpowiedni z powyszych wzorów. Okazuje si jednak, e warto oczekiwan zmiennej g(X) moemy te obliczy bezporednio, a mianowicie:

1) w przypadku zmiennej losowej typu skokowego, przyjmujcej wartoci xi z prawdopodobiestwami odpowiednio pi -mamy

0x01 graphic

2) w przypadku zmiennej losowej typu cigego o gstoci f - mamy

0x01 graphic

W szczególnoci, moemy okreli tzw. momenty (zwyke) wyszych rzdów (rzdu k):

1) w przypadku zmiennej losowej typu skokowego, przyjmujcej wartoci xi z prawdopodobiestwami odpowiednio pi - mamy

0x01 graphic

2) w przypadku zmiennej losowej typu cigego o gstoci f - mamy

0x01 graphic

Co wicej, wzory na E(g(X)) uogólniaj si nawet na przypadek funkcji dwóch lub wicej zmiennych losowych, np.

1) gdy (X,Y) jest dwuwymiarow zmienn losow typu skokowego, pij=P(X=xi,Y=yj), to

0x01 graphic

2) gdy (X,Y) jest dwuwymiarow zmienn losow typu cigego o gstoci f(x,y), to

0x01 graphic

Wasnoci wartoci oczekiwanej zmiennej losowej:

E(X+Y)=E(X)+E(Y);

E(aX)=aE(X).

Jeeli zmienne losowe X i Y s niezalene, to E(XY)=EX EY.

Wariancja i odchylenie standardowe zmiennej losowej

Niech X bdzie zmienn losow, przy czym zakadamy, e istnieje jej warto oczekiwana m=EX. Przez wariancj zmiennej losowej X rozumiemy liczb, oznaczan przez D2X, WX lub VX, mianowicie

D2X=WX=VX=E[(X-m)2].

Tak wic, mamy

0x01 graphic
wzgldnie 0x01 graphic

odpowiednio dla zmiennej losowej typu skokowego oraz cigego. Proste przeliczenie daje wzór WX = E(X2)-(EX)2 . Odchyleniem standardowym zmiennej losowej X, oznaczanym przez (X), nazywamy pierwiastek kwadratowy z wariancji zmiennej X.

Wasnoci wariancji:

W(aX)=|a|2WX;

W(X+Y)=WX+WY+2(E(XY)-(EX)(EY));

w szczególnoci, jeeli X i Y s niezalene, to W(X+Y)=WX+WY.

Analogicznie do wariancji, moemy okreli tzw. moment centralny rzdu k jako

k(X) = E[(X-m)k], gdzie m=EX jak poprzednio.

Parametry podstawowych rozkadów.

Rozkad X

EX

E(X2)

WX

dwupunktowy

p

p

pq

Bernoulliego o parametrach (n,p,q=1-p) (czyli dwumianowy)

np.

n(n-1)p2+np

npq

Poissona z parametrem 



2 + 



normalny (Gaussa) tzn. N(m,)

m

2

Centralne twierdzenie graniczne (Lindenberga-Levy'ego).

Niech X1,X2,... - bdzie cigiem niezalenych zmiennych losowych o jednakowym rozkadzie, posiadajcym warto oczekiwan m i odchylenie standardowe . Niech

Niech

0x01 graphic
;

Yn jest wic normalizacj sumy X1+X2+...+Xn, przez odjcie od niej jej wartoci oczekiwanej (tzn. nm) i podzielenie jej przez jej odchylenie standardowe (tzn. 0x01 graphic
), co zapewnia, e E(Yn)=0, (Yn)=1; ostatni posta otrzymujemy z kolei, dzielc licznik i mianownik przez n.

Wtedy rozkad zmiennej Yn dy przy n!" do rozkadu normalnego N(0,1) w tym sensie, e jego dystrybuanta dy (punktowo) do dystrybuanty FN(0,1) rozkadu normalnego N(0,1), tzn.

0x01 graphic

(“+” gdy y"0; “-” gdy y<0). Oznacza to, e dla duych n zmienna losowa Yn ma w przyblieniu rozkad normalny N(0,1). W praktyce przyjmujemy, e przyblienie to jest wystarczajco dobre dla n"30.

Uwaga: w szczególnym przypadku, gdy wszystkie zmienne Xi maj rozkad dwupunktowy (a wic ich suma ma rozkad Bernoulliego, czyli dwumianowy), twierdzenie Lindenberga-Levy'ego redukuje si do twierdzenia Moivre'a-Laplace'a. (m=p, 2=pq).

Lokalne twierdzenie Moivre'a-Laplace'a: Jeeli p jest ustalone, za n dy do nieskoczonoci, przy czym k równie dy do nieskoczonoci w ten sposób, e stosunek (k-np)3/n2 dy do zera, to dla zmiennej Yn o rozkadzie Bernoulliego (dwumianowym) z parametrami n, p, granica stosunku 0x01 graphic
dy do jedynki. Inaczej mówic, dla duych n (i dla k niezbyt rónicego si od np) zachodzi przybliona równo 0x01 graphic
, gdzie 0x01 graphic
jest funkcj gstoci standaryzowanego rozkadu normalnego (N(0;1)).



Wyszukiwarka