Prawdopodobieństwo zupełne. Jeżeli B jest dowolnym zdarzeniem, zaś
A1,A2,....,An. spełniają warunki: 1. Są parami rozłączne Ai∩Bj=∅ i=j; 2. Alternatywa tych zdarzeń jest zdarzeniem pewnym; 3. Mają dodatnie prawdopodobieństwa. To prawdopodobieństwo zdarzenia B wyraża się wzorem P(B)=(i=1 ∑ n) P(Ai)P(B|Ai).
Twierdzenie Beyesa. Jeżeli B jest dowolnym zdarzeniem o prawdopodobieństwie dodatnim zaś A1,A2,....,An Spełniają warunki 1,2,3, ⇑ ⇑ ⇑ to prawdopodobieństwo warunkowe P(Ak|B)=P(Ak)P(B|Ak)/( (i=1 ∑ n) P(Ai)P(B|Ai)).
Niezależność Zmiennych losowych. Mówimy, że zmienne losowe X,Y określone na tej samej przestrzeni Ω są niezależne gdy: dla dowolnego x,y zdarzenia {w;X(w)<x}{w;Y(w)<y} są niezależne P({X<x}∩{Y<y})=P(X<x)P(Y<y).
Wartość średnia (oczekiwana). Jeżeli X zm losowa typu skokowego wówczas EX=(i=1 ∑ +∞)xipi pod warunkiem, że szereg jest bezwzględnie zbieżny, nazywamy wartością oczekiwaną zmiennej X. Jeżeli zm losowa typu ciągłego wówczas EX=(− ∞∫+ ∞)xf(x)dx pod warunkiem, że funkcja podcałkowa jest bezwzględnie całkowalna, nazywamy wartością oczekiwaną zmiennej X. Właściwości: E( c)=c; E(aX)=aEX; E(X+b)=EX+b; E(X+Y)=E(X)+E(Y); E(XY)=E(X)E(Y) X,Y -niezależne
Wariancję zmiennej losowej określa następująca formuła: D2X=E(X-EX)2 dla skokowej D2X=(i=1 ∑ +∞)(x+αi)2pi; dla ciągłej D2X=(-∞∑+∞)(x+αi)2f(x)dx. Właściwości: D2( c)=c; D2(aX)=a2E2X; D2(X+b)=D2X; D2(X ±Y)=D2(X)±D2(Y) X,Y –niezależne. D2X=EX2-(EX)2; D2X=E(X-c)2-(c+αi)2.
Moment zwykły rzędu r zmiennej losowej X nazywamy wartość oczekiwaną αr=EXr r=1,2,3...
Momentem centralnym rzędu r zmiennej losowej X nazywamy µr=E(X-EX)r. Współczynnik skośności: γ=µ3/σ3. Współczynnik skupienia (kurtoza) K=µ4/σ4.
Moda (wartość modalna, dominanta). mo- odcięta maksimum absolutnego gęstości zmiennej losowej typu skokowego. Punkt skokowy xk dla którego P(xk) osiąga max absolutne i xk≠maxxi i xk≠minxi.
Nierówność Czybyszewa. Jeżeli zmienna losowa X ma skończoną wartość przeciętną, wariancję σ2 to dla dowolnego dodatniego k prawdziwa jest nierówność Czybyszewa: P(|X-EX| ≥tσx) ≤1/t2.
Estymatorem efektywnym nazywamy estymator nieobciążony θn parametru θ, który ma najmniejszą wariancję spośród wszystkich nieobciążonych estymatorów danego parametru θ wyznaczonych z prób n-elementowych.
Wariancja nieobciążonego estymatora spełnia nierówność Rao-Cramera D2X=1/(nE[dlnf(X,θ)/dθ]2).
Metoda największej wiarygodnosci- polega na tym, że jako estymatory parametrów θ1.. przyjmuje takie θ1..θk, dla których funkcja wiarygodności przyjmuje wartość największe. Ponieważ funkcja ln L osiąga wartość największą dla tych samych wartości parametru co funkcja L, więc zadanie sprowadza się do wyznaczenia maksimum funkcji ln L. Wartośći te maksymalizujące L muszą spełniać równanie dlnL/dθi=0 i (i∑)(j∑)(d2lnL/dθidθj)hihj.
Metoda momentów- polega na przyrównaniu pewnej liczby- najczęściej kolejnych- momentów z próby do odpowiednich momentów rozkładu. Wykorzystujemy tyle momentów ile jest oszacowanych parametrów i rozwiązując otrzymany układ równań, uzyskujemy oceny tych parametrów.
Przedziałem ufności dla parametru θ na poziomie ufności 1-a (0<a<1) nazywamy przedział (θ1,θ2) spełniający warunki: 1) jego końce θ1=θ1(X1..Xn) θ2=θ2(X1..Xn) są funkcjami próby losowej i nie zależą od szacowanego parametru θ; 2) prawdopodobieństwo pokrycia przez ten przedział nieznanego parametru θ jest równy 1-a; 3) liczbę (1-a) nazywamy współczynnikiem ufności.
Niektóre rozkłady skokowe: #1. Rozkład równomierny. P(X=xi)=1/n=pi EX=1/n(i=1 ∑ n)xi D2X=1/n(i=1 ∑ n)(xi-EX)2;
#2. Rozkład jednopunktowy. EX=x1 D2X=0;
#3 rozkład zero-jedynkowy. EX=p D2x=pq µ3=pq(1-2p);
#4 Rozkład dwumianowy (Bernouliego). Zmienna losowa X ma rozkład dwumianowy o parametrach n, p oraz k jeśli jej funkcja prawdopodobieństwa jest dana wzorem: pk=P(k,n,p)=(n//k)pk(1-p)n-k gdzie k=0,1,2...; 0<p<1 i 1-p=q EX=np. D2X=npq=np(1-p) µ3=npq(1-2p);
#5 rozkład hipergeometryczny. Zmienna losowa K ma rozkład hg. o parametrach (N,M,n) jeżeli jej funkcja prawdopodobieństwa jest w postaci pk=P(k;N,M,n)={(M//k)(N-M//n-k)}/(N//n) gdzie k=0,1,2...,n; n≤N; k≤M; k≤n; n-k≤N-M. EK=np; D2K=npq(N-n)/(N-1); µ3=npq(1-2p){(N-n)(N-2n)}/{(N-1)(N-2)}; Rozkład hg. przechodzi w granicy w rozkład dwumianowy jeżeli N→+∞, M→+∞, M/N→p, 0<p<1 wtedy {(M//k)(N-M//n-k)}/(N//n)≈(n//k)pk(1-p)n-k
#6 Rozkład Poissona. Zmienna skokowa K ma rozkład Poissona jeśli funkcja prawdopodobieństwa dana jest równością: pk=P(k;λ)=e-λλk/k! k∈N\{0} EK=λ D2K=λ µ3=λ. Twierdzenie: Niech K1,K2,K3,...Kn jest ciągiem zmiennych losowych o rozkładzie dwumianowym odpowiednio z parametrami (1,p1)(2,p2)....(n,pn) oraz npn→λ, λ>0 gdy n→∞, to lim(n→∞)(n//k)pk(1-p)n-k≈e-λλk/k! k∈N\{0} czyli ciąg rozkładów dwumianowych jest zbieżny do rozkładu Poissona z parametrem λ. Rozkład Poissona jest rozkładem granicznym również dla rozkładu hipergeometrycznego, gdy N,M.,n→∞, M/N→0, nM/N→λ, λ>0: )={(M//k)(N-M//n-k)}/(N//n)≈e-λλk/k!.
#7 Ujemny rozkład dwumianowy. Zmienna skokowa K ma ujemny rozkład dwumianowy z parametrami (v,p), 0<p<1 v∈N jeśli jej funkcja prawdopodobieństwa ma postać P(k;v,p)=(k-1//v-1)pvqk-v, k=v,v+1,v+2... q=1-p, EK=v/p, D2K=vq/p2, µ3=vq(2-p)/p3;
Niektóre rozkłady typu ciągłego:
#1 rozkład równomierny. X ma rozkład równomierny skoncentrowany na przedziale <a,b> jeżeli gęstość zmiennej losowej f(x)={1/(a+b) dla a≤x≤b; 0 dla pozostałych;} Dystrybuanta F(x)={0 dla x≤a; (x-a)/(b-a) dla a<x≤b; 1 dla x>b;}, EX=(a+b)/2, moment centralny parzystego rzędu µ2r=(b-a)2r/(2r+1)22r, D2X=(b-a)2/12.
#2 Rozkład wykładniczy. X ma rozkład wykładniczy o parametrze λ>0 jeśli gęstość jest postaci: f(x)={1/λexp(-x/λ) dla x≥0, 0 dla pozostałych x.}, EX=λ, D2X=λ2, dystrybuanta: F(x)={1-exp(-x/λ) dla x>0, 0 dla pozostałych x.}, Brak pamięci rozkładu wykładniczego. P(X≥a+b|X≥a)=
P(X≥a+b∧X≥a)/P(X≥a)= P(X≥a+b)/P(X≥a)=exp(-(a+b)/λ)/ exp(-a/λ)= exp(-b)/λ)=P(X≥b).
#3 Rozkład Gamma. X ma rozkład gamma o parametrach p,λ>0 jeśli jej gęstość prawdopodobieństwa jest określona wzorem: f(x)={1/(λpΓ(p))xp-1exp(-x/λ) dla x>0; 0 dla pozostałych x;}, gdzie funkcja Γ-Eulera Γ (p)=(0∫∞)yp-1e-ydy i Re p>0, EX=pλ, D2X=pλ2.
#4 Rozkład beta. X ma rozkład beta o parametrach p,q>0 jeśli jej gęstość prawdopodobieństwa jest określona wzorem: f(x)={1/(B(p,q))xp-1(1-x)q-1 dla 0<x<1; 0 dla pozostałych x}, gdzie B(p,q) jest funkcją beta Eulera i ma postać B(p,q)=(0∫1)xp-1(1-x)q-1dx, EX=p/(p+q), D2X=pq/(p+q)2(p+q+1). Zależność między funkcjami beta i gamma: B(p,q)=Γ(p)Γ(q)/Γ(p+q).
#5 rozkład normalny. Zmienna losowa X ma rozkład normalny o parametrach µ,σ przy czym µ∈R, σ∈R+, jeżeli gęstość rozkładu ma postać f(x)=1/(σ(√2π))exp[-(x-µ)2/2σ2] -∞<x<∞+, EX=µ, momenty centralne nieparzystego rzędu: µ2r-1=0; parzystego µ2r=(2r-1)!!σ2r, kurtoza K=µ4/σ4=3, eksces (współczynnik spłaszczenia) γ2=K-3=0, dystrybuanta standaryzowanego rozkładu normalnego Φ(x)= 1/(√2π))(-∞∫+∞)exp[-t2/2]dt, własność dystrybuanty rozkładu normalnego: Φ(-x)=1-Φ(x).
#6Uogólniony rozkład gamma. X ma uogólniony (trójparametrowy) rozkład gamma jeśli jej gęstość prawdopodobieństwa jest określona wzorem: f(x)={1/(λp/αΓ(p/α))xp-1exp(-xα/λ) dla x>0; 0 dla pozostałych x;}, p,λ,α>0. Jeżeli: 1) α=1 dwuparametrowy rozkład gamma; 2) p=2, α=2 rozkład Rayleigha; 3) p=3, α=2 rozkład Maxwella; 4) p=α rozkład Weibulla. Moment zwykły rzędu r: αr=λr/αΓ((r+p)/α)/ Γ(p/α)=EXr.
Funkcją charakterystyczną zmiennej losowej X nazywamy wartość przeciętną funkcji eitX, gdzie t jest zmienną rzeczywistą a i tzw. jednostką urojoną. Oznaczenie: ϕ(t)=E(exp[itX]). eitX=cost+isint. Dla zm losowej typu ciągłego: ϕ(t)=(-∞∫+∞)eitxf(x)dx, dla skokowego ϕ(t)=(k∑)exp[itxk]pk. Własności: 1) ϕ(0)=1; 2) |ϕ(t)|≤1; 3) ϕ(t) jest ciągła na całej prostej rzeczywistej. Twierdzenie: Jeżeli istnieje k-ty moment zmiennej losowej X o funkcji charakterystycznej ϕ, to ϕ jest k-krotnie różniczkowalna (w sposób ciągły) i zachodzi związek: k=EXk=1/ikϕ(k)(0), oraz jeśli można rozwinąć ϕ(t) w szereg Maclaurina, to ϕ(t)=(k=0 ∑ ∞)aktk, gdzie ak=ϕ(k)(0)/k!. Twierdzenie: Funkcja charakterystyczna sumy dowolnej skończonej liczby niezależnych zmiennych losowych równa się iloczynowi funkcji charakterystycznych tych zmiennych.
Zmienne losowe wielowymiarowe. Dystrybuantą zmiennej losowej (X,Y) nazywamy funkcję F zmiennych x,y, która dla każdej pary liczb rzeczywistych (x,y)∈R2 przyjmuje wartości równe prawdopodobieństwu zdarzenia polegającego na tym, że zmienna X przyjmie wartość mniejszą od x i zmienna Y przyjmie wartość mniejszą od y: F(x,y)=P(X<x,Y<y). Własności: 1) /x∈R\ lim(y→-∞)F(x,y)=0, /y∈R\ lim(x→-∞)F(x,y)=0; 2) lim(y→-∞, x→-∞)F(x,y)=1; 3)dla dowolnych punktów: (x1,y1),(x2,y2) takich że x1≤x2 i y1≤y2 zachodzi nierówność: F(x2,y2)-F(x2,y1)-F(x1,y2)+F(x1,y1)≥0. 4)F jest niemalejąca i co najmniej lewostronnie ciągłą względem każdego z argumentów x bądź y.
Dwuwymiarowa zmienna losowa typu skokowego. 2 wymiarową zmienną losową (X,Y) która przyjmuje skończoną, bądź przeliczalną liczbę wartości (xi,yk), każdą odpowiednio z prawdopodobieństwem: P(X=xi, Y=yk)=pik dla i,k∈N, przy czym (i∑k∑)pik=1, nazywamy dwuwymiarową zmienną losową typu skokowego. Rozkłady brzegowe: pi•=(k∑)pik, p•κ=(i∑)pik; Rozkłady warunkowe: P(X=xi|Y=yk)=pik/p•κ, P(Y=yk|X=xi)=pik/pi•.
Dwuwymiarową zmienną losową nazywamy typu ciągłego jeśli istnieje nieujemna funkcja f taka, że dystrybuanta tej zmiennej losowej da się przedstawić jako całka: F(x,y)= (-∞∫x)[ (-∞∫y)f(x’,y’)dy’]dx’ (x,y)∈R2, funkcję f nazywamy gęstością rozkładu prawdopodobieństwa. Własności: 1) (-∞∫+∞)(-∞∫+∞)f(x,y)dydx=1; 2) w punktach (x,y) ciągłości mamy: ∂2F(x,y)/ ∂x∂y=f(x,y); 3) P(x1≤X<x2,y1≤Y<y2)= (x1∫x2)(y1∫y2)f(x,y)dxdy. Rozkłady brzegowe: f1(x)=(-∞∫+∞)f(x,y)dy, f2(y)=(-∞∫+∞)f(x,y)dx. Rozkłady warunkowe: f(x|y)=f(x,y)/f2(y), f(y|x)=f(x,y)/f1
(x). Niezależność zm losowych: P({w:X(w)∈A,Y(w)∈B}]=P[{w:X(w)∈A}]P[{w:Y(w)∈B}].-
Dwuwymiarowy rozkład normalny. X i Y są niezależnymi zmiennymi losowymi o rozkładach normalnych. N(µ1,σ1) i N(µ2,σ2). Gęstość: f(x,y)=1/(2πσ1σ2√(1-ρ2))exp{-1/(2(1-ρ2)[(x-µ1)2/σ12-2ρ(x-µ1)2(y-µ2)2/σ12σ22+(y-µ2)2/σ22]}, dla (x,y)∈R gdzie µ1=EX µ2=EY σ12=D2X σ22=D2Y, ρ- współczynnik korelacji, |ρ|<1. Własności: 1) Rozkłady brzegowe i warunkowe w dwuwymiarowym rozkładzie normalnym są jednowymiarowymi rozkładami normalnymi. 2) Linie regresji I-rodzaju. (X,Y); f(x,y); f1(x)>0; f(y|x)=f(x,y)/f1(x); oczekiwania warunkowe: E(Y|X=x)= (-∞∫+∞)yf(y|x)dy=1/f1(x)(-∞∫+∞)yf(y|x)dy=m2(x). Zbiór punktów spełniający równanie: y=m2(x) nazywamy linią regresji I-rodzaju zmiennej losowej Y wzglądem X. E(X|Y=y)= m1(y), Zbiór punktów spełniający równanie: y=m1(y) nazywamy linią regresji I-rodzaju zmiennej losowej X wzglądem Y. Linie regresji I-rodzaju dla rozkładu normalnego są liniami prostymi.
Charakterystyki liczbowe zmiennych losowych dwuwymiarowych: Wartość oczekiwana E[g(X,Y)]=(-∞∫+∞)(-∞∫+∞)g(x,y)f(x,y)dxdy dla zmiennej (X,Y) typu ciągłego E[g(X,Y)]=(i∑k∑)g(xi,yk)pik dla skokowego. Momentem zwykłym mieszanym rzędu r+s dwuwymiarowej zmiennej losowej (X,Y) nazywamy
wartość przeciętną iloczynu zmiennych losowych XrYs i oznaczamy: αrs=E[XrYs]=(-∞∫+∞)(-∞∫+∞)xrysf(x,y)dxdy.
Momentem centralnym mieszanym rzędu r+s dwuwymiarowej zmiennej losowej (X,Y) nazywamy wartość przeciętną iloczynu
zmiennych losowych XrYs i oznaczamy: µrs=E[(X-EX)r(Y-EY)s]=(-∞∫+∞)(-∞∫+∞)(x-α10)r(y-α01)sf(x,y)dxdy. Współczynnik korelacji: ρ=cov(X,Y)/ √(D2XD2Y)
Prostą regresji II-rodzaju zmiennej losowej nazywamy prostą o równaniu aX+b o współczynnikach a,b tak dobranych aby E[Y-(aX+b)]2 było najmniejsze.
Centralne twierdzenie Graniczne Lindberga-Levy’ego Jeśli (Xn) jest losowym ciągiem niezależnych zmiennych o jednakowym rozkładzie, o wartości przeciętnej α1 i skończonej wariancji σ2>0, to ciąg (Fn) dystrybuant standaryzowanych średnich arytmetycznych Yn=n1/2((Xn-α1)/σ=1/(σn1/2)(i=1∑n)Xi-nα1 jest zbieżny do dystrybuanty rozkładu normalnego N(0,1): lim(n→∞)Fn(y)=1/(2π)1/2(-∞∫y)exp[-t2/2]dt=Φ(y).
// wyjaśnienie
∑ Ω ∩ ∞ α µ γ σ ≠ ≥ ≤ ≈ → λ ∈ ∧ Γ ∫ √ ∏ Φ π ϕ • ∂ ρ