1.Definicje prawdopodobieństwa:
Matematyczna definicja prawdopodobieństwa
Prawdopodobieństwo P(A) zdarzenia A wyznacza się a priori bez przeprowadzania doświadczenia, biorąc pod uwagę ogólną liczbę n jednakowo możliwych wyników (zdarzeń elementarnych) oraz liczbę nA wyników sprzyjających zdarzeniu A, z zależności:
P(A)= ;
	Zdarzenie pewne = 1, zdarzenie niemożliwe =0, dowolne zdarzenie
	losowe 0<
;
	Zdarzenie pewne = 1, zdarzenie niemożliwe =0, dowolne zdarzenie
	losowe 0< <1
<1
Aksjomatyczna definicja prawdopodobieństwa
Prawdopodobieństwo zdarzenia A jest liczbą P(A)przyporządkowaną temu zdarzeniu. Liczba spełnia trzy następujące aksjomaty, lecz po za tym nie jest bliżej scharakteryzowana
I 0≤P(A)≤1
Prawdopodobieństwo dowolnego zdarzenia jest liczbą nie ujemną i nie większą od jedności.
II P(Ω)=1
Prawdopodobieństwo zdarzenia pewnego Ω jest równe 1.
III.
	Jeżeli A B
	= o  tzn. jeżeli A i B są zdarzeniami rozłącznymi, to
	P(A
B
	= o  tzn. jeżeli A i B są zdarzeniami rozłącznymi, to
	P(A B)=P(A)+P(B)
	Prawdopodobieństwo sumy zdarzeń rozłącznych jest równe sumie
	prawdopodobieństw poszczególnych zdarzeń.
B)=P(A)+P(B)
	Prawdopodobieństwo sumy zdarzeń rozłącznych jest równe sumie
	prawdopodobieństw poszczególnych zdarzeń.
Statyczna definicja prawdopodobieństwa
Jeżeli
	rozpatrywane doświadczenie jest powtarzane n razy i zdarzenia A
	pojawia się nA
	razy, to prawdopodobieństwo P(A) zdarzenia A definiuje się jako
	granicę gęstości względnej nA/n,
	gdy n→ tj.
	tj.
P(A)= 
Geometryczna definicja prawdopodobieństwa
Prawdopodobieństwo zdarzenia A polegającego na tym, że wybrany losowo punkt obszaru G jest jednoczenie punktem obszaru g, jest określone stosunkiem obszaru g do miary obszaru G:
P(A)= 
Klasyczna definicja prawdopodobieństwa - Jeżeli Ω jest skończonym zbiorem zdarzeń elementarnych ω, jednakowo prawdopodobnych i A c Ω, to liczbę:
 
nazywamy prawdopodobieństwem zdarzenia A.
Gdzie:
 -
	moc zbioru A
	-
	moc zbioru A
 -
	moc zbioru Ω
	-
	moc zbioru Ω
2.Podstawowe działania:
Twierdzenia o dodawaniu prawdopodobieństw:
I Prawdopodobieństwo wystąpienia jednego (dowolnego) z dwóch lub pewnej liczby wykluczających się zdarzeń jest równe sumie prawdopodobieństw tych zdarzeń:
P(A
	lub B lub C lub…)=P(A B
B C…)=P(A)+P(B)+P(C)+…
C…)=P(A)+P(B)+P(C)+…
II Suma prawdopodobieństw układu zupełnego zdarzeń wykluczających się jest równa jedności:
P(A)+P(B)+P(C)+...+P(N)=1
III Suma prawdopodobieństw zdarzeń przeciwnych A i Ā jest równa jedności:
P(A)+P(Ā)=1
Twierdzenia o mnożeniu prawdopodobieństw:
I Prawdopodobieństwo iloczynu dwóch zdarzeń zależnych A i B jest równe iloczynowi prawdopodobieństwa jednego z nich i prawdopodobieństwa warunkowego drugiego, przy założeniu że pierwsze wystąpiło:
P(A B)=P(A)∙P(B|A)=P(B)∙P(A|B)
B)=P(A)∙P(B|A)=P(B)∙P(A|B)
II Jeżeli A jest zdarzeniem niezależnym od B, to prawdopodobieństwo iloczynu zdarzeń A I B jest równe iloczynowi prawdopodobieństw:
P(A B)=P(A)∙P(B)
B)=P(A)∙P(B)
III Jeżeli zdarzenie A jest niezależne od B, wówczas B jest także niezależne od A:
P(B|A)=P(B), jeżeli P(A|B)=P(A) oraz P(A)≠0
IV Prawdopodobieństwo wystąpienia co najmniej jednego ze zdarzeń A1,A2,…,An niezależnych i nie wykluczających się jest równe różnicy między jednością i iloczynem prawdopodobieństw zdarzeń przeciwnych Ā1, Ā2,…, Ān:
P(A1,A2,…,An)=1-P(Ā1)∙P(Ā2)…P(Ān)
Zasady dodawania I mnożenia prawdopodobieństw:
I Prawdopodobieństwo sumy dwóch zdarzeń niewykluczających się A i B wyraża się wzorem;
P(A B)=P(A)+P(B)-P(A
B)=P(A)+P(B)-P(A B)
B)
II Jeżeli zdarzenia A1,A2,…,An(hipotezy) tworzą układ zupełny zdarzeń, to dla każdego zdarzenia B prawdopodobieństwo pełne(średnie) zdarzenia B jest następujące:
P(B)= )∙P(Ai)
)∙P(Ai)
III Jeżeli zdarzenia B z prawdopodobieństwem P(B)>0 zaobserwowane w pewnym doświadczeniu jest następstwem jednego z n zdarzeń A1,A2,…,An wzajemnie się wykluczających i jedynie możliwych, to prawdopodobieństwo a posteriori P(Ai|B) hipotezy, że Ai jest przyczyną zdarzenia B, jest określone wzorem Bayesa:
P(Ai|B)= =
= 
3.
	Wzór i twierdzenie Bernoulliego - W
	„n” niezależnych doświadczeniach „k”  wyników mających
	jednakowe prawdopodobieństwo może być tyle, ile można uzyskać
	różnych ustawień „k” zdarzeń A na „n” miejscach, czyli
	liczba ich jest równa liczbie kombinacji 
	 .
.
 
n- ilość wykonywanych doświadczeń
k- liczba sukcesów w n próbach
p-prawdopodobieństwo sukcesu w pojedynczej próbie
(1-p)<=>q – prawdopodobieństwo porażki w pojedynczej próbie
4. Lokalne twierdzenie Laplace’a: - Używane jest do obliczania prawdopodobieństwa wystąpienia zdarzenia „k” razy w „n” niezależnych próbach. Stosuje się zamiennie z Tw. Bernoulliego gdy występuje duże „n” i „k”
 
Gdzie:
 -
	funkcja gausa (do odczytania z tabeli)
-
	funkcja gausa (do odczytania z tabeli)
 
Integralne
	twierdzenie Laplace’a – jeżeli
	stałe prawdopodobieństwo wystąpienia zdarzenia A w każdym z n
	niezależnych doświadczeń jest równe p
	i 0<p<1,
	to prawdopodobieństwo tego, że liczka k wystąpień zdarzenia A w
	ciągu n niezależnych doświadczeń należy do przedziału ( ≤k≤β),
	spełnia warunek:
≤k≤β),
	spełnia warunek:
 
 
a
	= 
	 b =
			b =
	
	 
P(α≤k≤β) = 𝜱(b) – 𝜱(a)
5. Twierdzenia Graniczne
Nierówność Markowa
Jeżeli
	zmienna losowa X przyjmuje tylko wartości nieujemne i ma skończoną
	wartość oczekiwaną E[X], to dla dowolnego 
	 >0
	jest spełniona równość:
>0
	jest spełniona równość:
Pr{X }≤
}≤ 
Nierówność Czybyszewa
Jeżeli
	zmienna losowa X spełnia założenia podane w nierówności Markowa
	oraz posiada skończoną wariancję 
	 ,
	to dla każdego k>0 zachodzi zależność:
,
	to dla każdego k>0 zachodzi zależność:
Pr{|X-E(X)| }
} 
Prawa
		wielkich liczb
Twierdzenia
		Bernoulliego:
Dla
	dumy Sn=X1+…+Xn,
	będącej liczbą wystąpienia zdarzenia A w n doświadczeniach oraz
	dla dowolnej liczby dodatniej 
	 jest spełniona relacja:
	jest spełniona relacja:
 1
1
Twierdzenie Czybyszewa:
Jeżeli X1,X2,…Xn tworzą ciąg parami niezależnych zmiennych losowych spełniających warunki:
1.E(Xi)=µ dla i=1,2,…n (zmienne losowe Xi mają jednakową wartość oczekiwaną),
2. <C
	dla i=1,2,..,n(wariancje zmiennych losowych są skończone i
	wspólnie ograniczone stałą C), wtedy dla każdego
<C
	dla i=1,2,..,n(wariancje zmiennych losowych są skończone i
	wspólnie ograniczone stałą C), wtedy dla każdego 
	 >0
	jest spełniona relacja:
>0
	jest spełniona relacja:
 ,
	gdzie Sn=X1+…+Xi
,
	gdzie Sn=X1+…+Xi
Twierdzenia Markowa:
Niech{Xn}
	będzie ciągiem niezależnych zmiennych losowych opisywanych
	charakterystykami liczbowymi E(Xi)=µi
	oraz =
= Odpowiednie parametry dla zmiennej
	Odpowiednie parametry dla zmiennej 
	 =
= ]
	wynoszą:
]
	wynoszą:
E( =
= V(
	  V( =
= 
Jeżeli
	V( 
 
Twierdzenia graniczne integralne:
Twierdzenie Moivre’a-Laplace’a:
Suma
	Sn=X1+…+Xn
	n jednakowych zdarzeń niezależnych zmiennych losowych X1,X2,…,Xn
	o rozkładach zero-jedynkowych ma rozkład dwumianowy o wartości
	oczekiwanej E(Sn)=np.
	i wariancji 
	 =npq
=npq
Dla zmiennej losowej standardowej:
Yn= 
Można określić prawdopodobieństwo:
Pr( Pr(Yn=
Pr(Yn= )
	=
)
	= 
	 dla k=0,1,2,…,n
	dla k=0,1,2,…,n
Wtedy dla każdej wartości y jest spełniona relacja:
 ,
	gdzie
,
	gdzie 
	 jest
	dystrybuantą rozkładu N(y;0,1)
jest
	dystrybuantą rozkładu N(y;0,1)
Standaryzowana
	zmienna losowa Sn
	o rozkładzie dwumianowym ma rozkład asymptotycznie normalny:
	N(np, )
)
Twierdzenie Lindeberga-Levy’ego
Niech
	Xi
	(i=1,2,..,n) będą niezależnymi zmiennymi losowymi o jednakowym
	rozkładzie, skończonej wartości oczekiwanej µ i skończonym
	odchyleniu standardowym 
	 Sn=X1+…+Xn
	jest sumą zmiennych losowych.
	Sn=X1+…+Xn
	jest sumą zmiennych losowych.
Wtedy dla każdej wartości y zmiennej standardowej Yn:
	 ,
,
Jeżeli suma Sn zmiennych losowych ma rozkład asymptotycznie normalny, oznacza to, że zachodzi dla niej centralne twierdzenie graniczne.
Centralne twierdzenie graniczne(twierdzenia Lapunowa)
Rozkład
	prawdopodobieństwa sumy niezależnie działających zmiennych
	losowych przy dużej liczbie składników (n ),
	bez względu na to, jakim rozkładom prawdopodobieństwa podlegają,
	dąży do rozkładu normalnego, wyrażonego gęstością
	prawdopodobieństwa:
),
	bez względu na to, jakim rozkładom prawdopodobieństwa podlegają,
	dąży do rozkładu normalnego, wyrażonego gęstością
	prawdopodobieństwa:
p(x)= ,
	gdzie
,
	gdzie 
	 -
	wartość oczekiwana(średnia) sumy zmiennych losowych, równa sumie
	ważonej wartości oczekiwanych składników:
-
	wartość oczekiwana(średnia) sumy zmiennych losowych, równa sumie
	ważonej wartości oczekiwanych składników:
 =
= 
a
	
	 =
= 
6.Charakterystyki funkcyjne i liczbowe zmiennej losowej
Charakterystyki funkcyjne zmiennej losowej dyskretnej:
-Funkcja rozkładu prawdopodobieństwa zmiennej losowej dyskretnej opisuje prawdopodobieństwa przyjęcia przez zmienną losową poszczególnych możliwych wartości i może być przedstawiona w postaci tablicy, zależności analitycznej(wzoru) lub wykresu.
-Funkcja
	rzeczywista zmiennej rzeczywistej
	P(x)=Pr(X x),
	rowna przy każdym x prawdopodobieństwu, że zmienna losowa X
	przyjmuje wartość mniejszą lub równą x, nazywa się
	dystrybuantą(funkcją
	rozkładu) zmiennej
	losowej X.
x),
	rowna przy każdym x prawdopodobieństwu, że zmienna losowa X
	przyjmuje wartość mniejszą lub równą x, nazywa się
	dystrybuantą(funkcją
	rozkładu) zmiennej
	losowej X.
Charakterystyki funkcyjne zmiennej losowej ciągłej:
-Funkcją
	gęstości prawdopodobieństwa p(x) zmiennej
	losowej ciągłej X nazywa się granicę stosunku elementu
	prawdopodobieństwa związanego z przedziałem od x do x+Δx do
	szerokości Δx tego przedziału przy warunku Δx 
P(x)= 
Gęstość
	rozkładu ma wymiar odwrotny do wymiaru zmiennej X, a jej możliwe
	wartości są rozmieszczone w przedziale od 0 do+ 
Charakterystyki liczbowe zmiennych losowych dyskretnych jednowymiarowych:
-Wartość oczekiwana(średnia generalna, wartość przeciętna) dyskretnej zmiennej losowej X, przyjmującej wartości x1,x2,x3,…xi,…xn odpowiednio z prawdopodobieństwami P(x1),P(x2),P(x3),…P(xi),…P(xn) przedstawia sumę iloczynów każdej wartości tej zmiennej i odpowiedniego jej prawdopodobieństwa:
E(X)=µx= 
Wartość
	oczekiwana ma wymiar zmiennej losowej. Różnica 
	 -
- jest nazywana oschyleniem od wartości oczekiwanej i może być
	zarówno dodatnia jak i ujemna. Prawdopodobieństwo odchylenia
	P(
	jest nazywana oschyleniem od wartości oczekiwanej i może być
	zarówno dodatnia jak i ujemna. Prawdopodobieństwo odchylenia
	P( -
- )
	pokrywa się z prawdopodobieństwem P(
)
	pokrywa się z prawdopodobieństwem P( ),
	ponieważ
),
	ponieważ 
	 przedstawia liczbę nie losową.
	przedstawia liczbę nie losową.
-Wariancja(dyspersja)zmiennej losowej dyskretnej X przedstawia sumę iloczynów kwadratów możliwych odchyleń zmiennej losowej od jej wartości oczekiwanej i prawdopodobieństw odpowiednich odchyleń:
V(X)= 
Wariancja charakteryzuje rozrzut wartości zmiennej losowej w obie strony od wartości oczekiwanej. Wariancja ma wymiar kwadratu wymiaru zmiennej losowej i jest zawsze dodatnią liczbą nielosową.
-Odchylenie standardowe zmiennej losowej(średnie odchylenie kwadratowe)-pierwiastek kwadratowy z wariancji dla zmiennej losowej dyskretnej równy:
 =
= =
= 
-Średnia wartość kwadratów (wartość średniokwadratowa) zmiennej losowej dyskretnej opisana jest wzorem:
 =
= 
Charakterystyki liczbowe zmiennych losowych ciągłych jednowymiarowych(definicje jw.)
-Wartość
	oczekiwana E(X)=µx= 
-Wariancja(dyspersja)
	V(X)= 
-Odchylenie
	standardowe 
	 =
= 
-
	Średnia wartość kwadratów: =
= 
7.Rozkłady prawdopodobieństwa:
Rozkład zero-jedynkowy – dyskretny rozkład prawdopodobieństwa, szczególny przypadek rozkładu dwupunktowego, dla którego zmienna losowa przyjmuje tylko wartości: 0 i 1. Jest rezultatem doświadczenia zwanego próbą Bernoullego.
Forma analityczna:
P(X=x)= (bez
	2 nawiasu)
(bez
	2 nawiasu)
Forma graficzna
 
Charakterystyki liczbowe:
µx=p, =pq
=pq
Rozkład dwumianowy:
Forma analityczna:
P(X=x)= px(1-p)n-x,
	x=0,1,2,…,n
px(1-p)n-x,
	x=0,1,2,…,n
Forma graficzna:
 
Charakterystyki liczbowe:
µx=np, =np(1-p)
=np(1-p)
Rozkład Poissona:
Forma analityczna
P(X=x)= 
Forma graficzna:
 
Charakterystyki liczbowe:
µx=λ
	
	 =λ
=λ
Rozkład hipergeometryczny
Forma analityczna
 
	
P(X=x)=
	
	
Forma graficzna:
 
Charakterystyki liczbowe:
µx= =
= 
Rozkład normalny- jeden z najważniejszych rozkładów prawdopodobieństwa. Odgrywa ważną rolę w statystycznym opisie zagadnień przyrodniczych, przemysłowych, medycznych, społecznych
Forma
		analityczna
p(x)=N(x;µx, )=
)= 
Forma graficzna:
 
 
Charakterystyki liczbowe:
µx=m,
	
	 =
= 2,
	A=0,S=0
2,
	A=0,S=0
Rozkład jednostajny
Forma analityczna
p(x)= (bez
	2 nawiasu)
(bez
	2 nawiasu)
Forma graficzna:
 
Charakterystyki liczbowe:
µx= ,
,
	
	 =
= 
Rozkład wykładniczy:
Forma analityczna:
p(x)= 
Forma graficzna:
 
Charakterystyki liczbowe:
	µx=β,
	
	 =β2
=β2
8. Estymacja punktowa – ma za zadanie, na podstawie wyników badań próby, ustalenie najbardziej prawdopodobnej wartości poszukiwanego parametru w postaci jednej liczby.
Estymacja przedziałowa- Charakteryzuje dokładność estymacji punktowej, umożliwia oszacowanie zakresu wartości(granic przedziału), który z określonym prawdopodobieństwem zawiera rzeczywistą wartość ocenianego parametru.
9.Współczynnik
	korelacji między
	dwiema zmiennymi losowymi(kowariancją unormowaną) nazywa się
	stosunek kowariancji CXY
	do iloczynu odchyleń standardowych 
	 i
	i 
	 zmiennych losowych X i Y:
	zmiennych losowych X i Y:
 
10 Rozkład warunkowy
Warunkowe gęstości
p(y|x)= 
p(x|y)= 
	
Warunkowe wartości oczekiwane:
 =
= +
+ (x-
(x- )
)
 =
= +
+ (y-
(y- )
)
	
Warunkowe odchylenie standardowe:
 =
= 
 =
= 
	
Rozkład łączny zmiennych losowych X, Y - rozkład wektora losowego (X, Y ) to funkcja P((X, Y ) ∈ C), gdzie C to borelowski podzbiór płaszczyzny R2
Warunkowe gęstości prawdopodobieństwa dwóch zmiennych losowych ciągłych X i Y:
	 
	 
	 
	 
Funkcja warunkowej wartości oczekiwanej i warunkowej wariancji zmiennej losowej X przy warunku Y=y. E(X|y)=fx(y)- równanie regresji X względem Y.
	 
	 
E(Y|x)=fy(x)- równanie regresji Y względem X i odpowiednia warunkowa wariancja:
	 
	 
Równanie regresji zmiennej Y względem X można także opisać:
	 
	 
Teoretyczna funkcja regresji Y względem x minimalizuje średni kwadrat odchylenia:
	 
Warunek statycznej niezależności układu zmiennych:
	 
	