1.Definicje prawdopodobieństwa:
Matematyczna definicja prawdopodobieństwa
Prawdopodobieństwo P(A) zdarzenia A wyznacza się a priori bez przeprowadzania doświadczenia, biorąc pod uwagę ogólną liczbę n jednakowo możliwych wyników (zdarzeń elementarnych) oraz liczbę nA wyników sprzyjających zdarzeniu A, z zależności:
P(A)= ; Zdarzenie pewne = 1, zdarzenie niemożliwe =0, dowolne zdarzenie losowe 0< <1
Aksjomatyczna definicja prawdopodobieństwa
Prawdopodobieństwo zdarzenia A jest liczbą P(A)przyporządkowaną temu zdarzeniu. Liczba spełnia trzy następujące aksjomaty, lecz po za tym nie jest bliżej scharakteryzowana
I 0≤P(A)≤1
Prawdopodobieństwo dowolnego zdarzenia jest liczbą nie ujemną i nie większą od jedności.
II P(Ω)=1
Prawdopodobieństwo zdarzenia pewnego Ω jest równe 1.
III. Jeżeli A B = o tzn. jeżeli A i B są zdarzeniami rozłącznymi, to P(A B)=P(A)+P(B) Prawdopodobieństwo sumy zdarzeń rozłącznych jest równe sumie prawdopodobieństw poszczególnych zdarzeń.
Statyczna definicja prawdopodobieństwa
Jeżeli rozpatrywane doświadczenie jest powtarzane n razy i zdarzenia A pojawia się nA razy, to prawdopodobieństwo P(A) zdarzenia A definiuje się jako granicę gęstości względnej nA/n, gdy n→ tj.
P(A)=
Geometryczna definicja prawdopodobieństwa
Prawdopodobieństwo zdarzenia A polegającego na tym, że wybrany losowo punkt obszaru G jest jednoczenie punktem obszaru g, jest określone stosunkiem obszaru g do miary obszaru G:
P(A)=
Klasyczna definicja prawdopodobieństwa - Jeżeli Ω jest skończonym zbiorem zdarzeń elementarnych ω, jednakowo prawdopodobnych i A c Ω, to liczbę:
nazywamy prawdopodobieństwem zdarzenia A.
Gdzie:
- moc zbioru A
- moc zbioru Ω
2.Podstawowe działania:
Twierdzenia o dodawaniu prawdopodobieństw:
I Prawdopodobieństwo wystąpienia jednego (dowolnego) z dwóch lub pewnej liczby wykluczających się zdarzeń jest równe sumie prawdopodobieństw tych zdarzeń:
P(A lub B lub C lub…)=P(A B C…)=P(A)+P(B)+P(C)+…
II Suma prawdopodobieństw układu zupełnego zdarzeń wykluczających się jest równa jedności:
P(A)+P(B)+P(C)+...+P(N)=1
III Suma prawdopodobieństw zdarzeń przeciwnych A i Ā jest równa jedności:
P(A)+P(Ā)=1
Twierdzenia o mnożeniu prawdopodobieństw:
I Prawdopodobieństwo iloczynu dwóch zdarzeń zależnych A i B jest równe iloczynowi prawdopodobieństwa jednego z nich i prawdopodobieństwa warunkowego drugiego, przy założeniu że pierwsze wystąpiło:
P(A B)=P(A)∙P(B|A)=P(B)∙P(A|B)
II Jeżeli A jest zdarzeniem niezależnym od B, to prawdopodobieństwo iloczynu zdarzeń A I B jest równe iloczynowi prawdopodobieństw:
P(A B)=P(A)∙P(B)
III Jeżeli zdarzenie A jest niezależne od B, wówczas B jest także niezależne od A:
P(B|A)=P(B), jeżeli P(A|B)=P(A) oraz P(A)≠0
IV Prawdopodobieństwo wystąpienia co najmniej jednego ze zdarzeń A1,A2,…,An niezależnych i nie wykluczających się jest równe różnicy między jednością i iloczynem prawdopodobieństw zdarzeń przeciwnych Ā1, Ā2,…, Ān:
P(A1,A2,…,An)=1-P(Ā1)∙P(Ā2)…P(Ān)
Zasady dodawania I mnożenia prawdopodobieństw:
I Prawdopodobieństwo sumy dwóch zdarzeń niewykluczających się A i B wyraża się wzorem;
P(A B)=P(A)+P(B)-P(A B)
II Jeżeli zdarzenia A1,A2,…,An(hipotezy) tworzą układ zupełny zdarzeń, to dla każdego zdarzenia B prawdopodobieństwo pełne(średnie) zdarzenia B jest następujące:
P(B)= )∙P(Ai)
III Jeżeli zdarzenia B z prawdopodobieństwem P(B)>0 zaobserwowane w pewnym doświadczeniu jest następstwem jednego z n zdarzeń A1,A2,…,An wzajemnie się wykluczających i jedynie możliwych, to prawdopodobieństwo a posteriori P(Ai|B) hipotezy, że Ai jest przyczyną zdarzenia B, jest określone wzorem Bayesa:
P(Ai|B)= =
3. Wzór i twierdzenie Bernoulliego - W „n” niezależnych doświadczeniach „k” wyników mających jednakowe prawdopodobieństwo może być tyle, ile można uzyskać różnych ustawień „k” zdarzeń A na „n” miejscach, czyli liczba ich jest równa liczbie kombinacji .
n- ilość wykonywanych doświadczeń
k- liczba sukcesów w n próbach
p-prawdopodobieństwo sukcesu w pojedynczej próbie
(1-p)<=>q – prawdopodobieństwo porażki w pojedynczej próbie
4. Lokalne twierdzenie Laplace’a: - Używane jest do obliczania prawdopodobieństwa wystąpienia zdarzenia „k” razy w „n” niezależnych próbach. Stosuje się zamiennie z Tw. Bernoulliego gdy występuje duże „n” i „k”
Przybliżona wartość:
Gdzie:
- funkcja gausa (do odczytania z tabeli)
Integralne twierdzenie Laplace’a – jeżeli stałe prawdopodobieństwo wystąpienia zdarzenia A w każdym z n niezależnych doświadczeń jest równe p i 0<p<1, to prawdopodobieństwo tego, że liczka k wystąpień zdarzenia A w ciągu n niezależnych doświadczeń należy do przedziału ( ≤k≤β), spełnia warunek:
a = b =
P(α≤k≤β) = 𝜱(b) – 𝜱(a)
5. Twierdzenia Graniczne
Nierówność Markowa
Jeżeli zmienna losowa X przyjmuje tylko wartości nieujemne i ma skończoną wartość oczekiwaną E[X], to dla dowolnego >0 jest spełniona równość:
Pr{X }≤
Nierówność Czybyszewa
Jeżeli zmienna losowa X spełnia założenia podane w nierówności Markowa oraz posiada skończoną wariancję , to dla każdego k>0 zachodzi zależność:
Pr{|X-E(X)| }
Prawa
wielkich liczb
Twierdzenia
Bernoulliego:
Dla dumy Sn=X1+…+Xn, będącej liczbą wystąpienia zdarzenia A w n doświadczeniach oraz dla dowolnej liczby dodatniej jest spełniona relacja:
1
Twierdzenie Czybyszewa:
Jeżeli X1,X2,…Xn tworzą ciąg parami niezależnych zmiennych losowych spełniających warunki:
1.E(Xi)=µ dla i=1,2,…n (zmienne losowe Xi mają jednakową wartość oczekiwaną),
2. <C dla i=1,2,..,n(wariancje zmiennych losowych są skończone i wspólnie ograniczone stałą C), wtedy dla każdego >0 jest spełniona relacja:
, gdzie Sn=X1+…+Xi
Twierdzenia Markowa:
Niech{Xn} będzie ciągiem niezależnych zmiennych losowych opisywanych charakterystykami liczbowymi E(Xi)=µi oraz = Odpowiednie parametry dla zmiennej = ] wynoszą:
E( = V( =
Jeżeli V(
Twierdzenia graniczne integralne:
Twierdzenie Moivre’a-Laplace’a:
Suma Sn=X1+…+Xn n jednakowych zdarzeń niezależnych zmiennych losowych X1,X2,…,Xn o rozkładach zero-jedynkowych ma rozkład dwumianowy o wartości oczekiwanej E(Sn)=np. i wariancji =npq
Dla zmiennej losowej standardowej:
Yn=
Można określić prawdopodobieństwo:
Pr( Pr(Yn= ) = dla k=0,1,2,…,n
Wtedy dla każdej wartości y jest spełniona relacja:
, gdzie jest dystrybuantą rozkładu N(y;0,1)
Standaryzowana zmienna losowa Sn o rozkładzie dwumianowym ma rozkład asymptotycznie normalny: N(np, )
Twierdzenie Lindeberga-Levy’ego
Niech Xi (i=1,2,..,n) będą niezależnymi zmiennymi losowymi o jednakowym rozkładzie, skończonej wartości oczekiwanej µ i skończonym odchyleniu standardowym Sn=X1+…+Xn jest sumą zmiennych losowych.
Wtedy dla każdej wartości y zmiennej standardowej Yn:
,
Jeżeli suma Sn zmiennych losowych ma rozkład asymptotycznie normalny, oznacza to, że zachodzi dla niej centralne twierdzenie graniczne.
Centralne twierdzenie graniczne(twierdzenia Lapunowa)
Rozkład prawdopodobieństwa sumy niezależnie działających zmiennych losowych przy dużej liczbie składników (n ), bez względu na to, jakim rozkładom prawdopodobieństwa podlegają, dąży do rozkładu normalnego, wyrażonego gęstością prawdopodobieństwa:
p(x)= , gdzie - wartość oczekiwana(średnia) sumy zmiennych losowych, równa sumie ważonej wartości oczekiwanych składników:
=
a =
6.Charakterystyki funkcyjne i liczbowe zmiennej losowej
Charakterystyki funkcyjne zmiennej losowej dyskretnej:
-Funkcja rozkładu prawdopodobieństwa zmiennej losowej dyskretnej opisuje prawdopodobieństwa przyjęcia przez zmienną losową poszczególnych możliwych wartości i może być przedstawiona w postaci tablicy, zależności analitycznej(wzoru) lub wykresu.
-Funkcja rzeczywista zmiennej rzeczywistej P(x)=Pr(X x), rowna przy każdym x prawdopodobieństwu, że zmienna losowa X przyjmuje wartość mniejszą lub równą x, nazywa się dystrybuantą(funkcją rozkładu) zmiennej losowej X.
Charakterystyki funkcyjne zmiennej losowej ciągłej:
-Funkcją gęstości prawdopodobieństwa p(x) zmiennej losowej ciągłej X nazywa się granicę stosunku elementu prawdopodobieństwa związanego z przedziałem od x do x+Δx do szerokości Δx tego przedziału przy warunku Δx
P(x)=
Gęstość rozkładu ma wymiar odwrotny do wymiaru zmiennej X, a jej możliwe wartości są rozmieszczone w przedziale od 0 do+
Charakterystyki liczbowe zmiennych losowych dyskretnych jednowymiarowych:
-Wartość oczekiwana(średnia generalna, wartość przeciętna) dyskretnej zmiennej losowej X, przyjmującej wartości x1,x2,x3,…xi,…xn odpowiednio z prawdopodobieństwami P(x1),P(x2),P(x3),…P(xi),…P(xn) przedstawia sumę iloczynów każdej wartości tej zmiennej i odpowiedniego jej prawdopodobieństwa:
E(X)=µx=
Wartość oczekiwana ma wymiar zmiennej losowej. Różnica - jest nazywana oschyleniem od wartości oczekiwanej i może być zarówno dodatnia jak i ujemna. Prawdopodobieństwo odchylenia P( - ) pokrywa się z prawdopodobieństwem P( ), ponieważ przedstawia liczbę nie losową.
-Wariancja(dyspersja)zmiennej losowej dyskretnej X przedstawia sumę iloczynów kwadratów możliwych odchyleń zmiennej losowej od jej wartości oczekiwanej i prawdopodobieństw odpowiednich odchyleń:
V(X)=
Wariancja charakteryzuje rozrzut wartości zmiennej losowej w obie strony od wartości oczekiwanej. Wariancja ma wymiar kwadratu wymiaru zmiennej losowej i jest zawsze dodatnią liczbą nielosową.
-Odchylenie standardowe zmiennej losowej(średnie odchylenie kwadratowe)-pierwiastek kwadratowy z wariancji dla zmiennej losowej dyskretnej równy:
= =
-Średnia wartość kwadratów (wartość średniokwadratowa) zmiennej losowej dyskretnej opisana jest wzorem:
=
Charakterystyki liczbowe zmiennych losowych ciągłych jednowymiarowych(definicje jw.)
-Wartość oczekiwana E(X)=µx=
-Wariancja(dyspersja) V(X)=
-Odchylenie standardowe =
- Średnia wartość kwadratów: =
- µx2
7.Rozkłady prawdopodobieństwa:
Rozkład zero-jedynkowy – dyskretny rozkład prawdopodobieństwa, szczególny przypadek rozkładu dwupunktowego, dla którego zmienna losowa przyjmuje tylko wartości: 0 i 1. Jest rezultatem doświadczenia zwanego próbą Bernoullego.
Forma analityczna:
P(X=x)= (bez 2 nawiasu)
Forma graficzna
Charakterystyki liczbowe:
µx=p, =pq
Rozkład dwumianowy:
Forma analityczna:
P(X=x)= px(1-p)n-x, x=0,1,2,…,n
Forma graficzna:
Charakterystyki liczbowe:
µx=np, =np(1-p)
Rozkład Poissona:
Forma analityczna
P(X=x)=
Forma graficzna:
Charakterystyki liczbowe:
µx=λ =λ
Rozkład hipergeometryczny
Forma analityczna
P(X=x)=
Forma graficzna:
Charakterystyki liczbowe:
µx= =
Rozkład normalny- jeden z najważniejszych rozkładów prawdopodobieństwa. Odgrywa ważną rolę w statystycznym opisie zagadnień przyrodniczych, przemysłowych, medycznych, społecznych
Forma
analityczna
p(x)=N(x;µx,
)=
Forma graficzna:
Charakterystyki liczbowe:
µx=m, = 2, A=0,S=0
Rozkład jednostajny
Forma analityczna
p(x)= (bez 2 nawiasu)
Forma graficzna:
Charakterystyki liczbowe:
µx= , =
Rozkład wykładniczy:
Forma analityczna:
p(x)=
Forma graficzna:
Charakterystyki liczbowe:
µx=β, =β2
8. Estymacja punktowa – ma za zadanie, na podstawie wyników badań próby, ustalenie najbardziej prawdopodobnej wartości poszukiwanego parametru w postaci jednej liczby.
Estymacja przedziałowa- Charakteryzuje dokładność estymacji punktowej, umożliwia oszacowanie zakresu wartości(granic przedziału), który z określonym prawdopodobieństwem zawiera rzeczywistą wartość ocenianego parametru.
Przedziałem ufności jest przedział , którego granice i długość są wielkościami losowymi i który z określonym (bliskim 1) prawdopodobieństwem 1- , zwanym poziomem ufności, zawiera (obejmuje) rzeczywistą wartość nieznanego parametru populacji.
Przykłady estymacji przedziału ufności dla wartości oczekiwanej:
Model 1: Próba liczna (n wzięta z populacji o dowolnym rozkładzie oraz o nieznanej i znanym . Statystyka zgodnie z centralnym twierdzeniem granicznym ma rozkład normalny N( ). Zmienna standaryzowana: ma rozkład N(z;0;1). Poziom ufności określony jest wzorem: Model 2: Próba mało liczna (n<30), wzięta z populacji o rozkładzie normalnym oraz nieznanych . Korzystamy z rozkładu Studenta: . Model 3: (n wzięta z populacji o dowolonym rozkładzie oraz o nieznanych . Nieznane odchylenie standardowe niech będzie ocenione za pomocą nieobciążonego estymatora odchylenia standardowego Dla odpowiednio dużych wartości n rozkład statystyki z wystarczającą dokładnością może być opisany rozkładem N a zmienna standaryzowana Z rozkładem N(z;0,1). W tedy przedział ufności
9.Współczynnik korelacji między dwiema zmiennymi losowymi(kowariancją unormowaną) nazywa się stosunek kowariancji CXY do iloczynu odchyleń standardowych i zmiennych losowych X i Y:
10 Rozkład warunkowy
Warunkowe gęstości
p(y|x)=
p(x|y)=
Warunkowe wartości oczekiwane:
= + (x- )
= + (y- )
Warunkowe odchylenie standardowe:
=
=
Rozkład łączny zmiennych losowych X, Y - rozkład wektora losowego (X, Y ) to funkcja P((X, Y ) ∈ C), gdzie C to borelowski podzbiór płaszczyzny R2
11. 2 zmienne losowe
Warunkowe gęstości prawdopodobieństwa dwóch zmiennych losowych ciągłych X i Y:
Funkcja warunkowej wartości oczekiwanej i warunkowej wariancji zmiennej losowej X przy warunku Y=y. E(X|y)=fx(y)- równanie regresji X względem Y.
E(Y|x)=fy(x)- równanie regresji Y względem X i odpowiednia warunkowa wariancja:
Równanie regresji zmiennej Y względem X można także opisać:
Teoretyczna funkcja regresji Y względem x minimalizuje średni kwadrat odchylenia:
Warunek statycznej niezależności układu zmiennych:
Przedział ufności – wyznaczony na podstawie próby losowej przedział, który z określonym prawdopodobieństwem pokrywa nieznaną wartość szacowanego parametru.
Poziom ufności – prawdopodobieństwo z jakim chcemy znaleźć granicę przedziału obejmującego wartość szacowanego parametru. P=1-α
Poziom istotności – α – prawdopodobieństwo znalezienia się wartości szacowanego parametru poza przedziałem ufności.