DyskretnaPigulka

Kombinatoryka zajmuje się zbiorami skończonymi wraz z pełną relacją. Zestawienie zbioru i relacji nazywamy obiektami (strukturami) kombinatorycznymi. Są to np. permutacje, kombinacje, wariacje, grafy, funkcje opisujące.

Kombinatoryka jest częścią matematyki dyskretnej i ma wspólne obszary z algebrą, geometrią, teorią liczb, analizą, rachunkiem prawdopodobieństwa. W kombinatoryce wyróżnić można 3 grupy:

- czy istnieje obiekt o zadanych właściwościach?

- ile jest obiektów o zadanych właściwościach?

- czy można znaleźć obiekt wg zadanych kryteriów?

Współcześnie najważniejsze zastosowanie kombinatoryki to obliczanie prawdopodobieństwa zdarzeń, gdy wszystkie wyniki pewnego eksperymentu są jednakowo prawdopodobne.

Ω - zbiór zdarzeń elementarnych, zbiór skończony.

|Ω| - ilość zdarzeń

A≤Ω - podzbiór zd. element.

P(A)=|A|/|Ω| - prawdopodobieństwo

Permutacja bez powtórzeń – niech dany będzie zbiór Zn złożony z różnych elementów. Permutacją bez powtórzeń na zbiorze Zn nazywamy każdy ciąg utworzony ze wszystkich elementów zbioru Zn (elementy ciągu się nie powtarzają). |Pn|=n!

Wariacja bez powtórzeń - niech dany będzie zbiór Zn złożony z różnych elementów. Wariacją k-elementową bez powtórzeń na zbiorze Zn (k<n) nazywamy każdy ciąg k-elementowy utworzony z części elementów zbioru Zn (tak, że w tym ciągu elementy nie powtarzają się) $\left| V_{n}^{k} \right| = \frac{n!}{(n - k)!}$

Kombinacje bez powtórzeń - niech dany będzie zbiór Zn złożony z różnych elementów. K-elementową kombinacją bez powtórzeń na zbiorze Zn nazywamy każdy k-elementowy podzbiór (k<n) zbioru Zn. $\left| C_{n}^{k} \right| = (_{k}^{n}) = \frac{n!}{k!\left( n - k \right)!}$

Wariacja z powtórzeniami - niech dany będzie zbiór Zn złożony z różnych elementów. K-elementową wariację z powtórzeniami na zbiorze Zn nazywamy każdy ciąg złożony z k-elementów zbioru Zn, tak, że elementy te mogą się powtarzać. |Wnk| = nk

Kombinacja z powtórzeniami - niech dany będzie zbiór Zn złożony z różnych elementów. K-elementową kombinacją z powtórzeniami na zbiorze Zn nazywamy każdy pseudozbiór k-elementowy (k<n, k=n, k>n) złożony z elementów zbioru Zn, tak, że elementy te mogą się powtarzać.

$\left| K_{n}^{k} \right| = \frac{\left( n + k - 1 \right)!}{\left( n - 1 \right)!k!} = (_{n - 1}^{n + k - 1}){= (}_{k}^{n + k - 1})$

Prawo mnożenia – niech A1,A2,…An są skończonymi zbiorami. Liczba ciągów (a1,a2,…,an), gdzie aiAi i liczba tych ciągów dana jest zbiorem |Ai|=|A1||A2|…|An|

Ciągi binarne złożone są z elementów zbioru Z2={0,1} albo Z2={∙,-}

Prawo dodawania – niech zbiory A1, A2,…,An są skończone i są parami rozłączne. Moc sumy tych zbiorów, gdzie sumarycznie zaczyna się od A1, a konczy na An.

Ogólne prawo mnożenia – jeżeli pewna procedura kombinatoryczna może być rozbita na n kolejnych kroków z wynikami r1 – I krok, r2 – II krok,…, rn – N krok, to w całej procedurze mamy r1r2…rn wyników.

Bijekcją nazywamy funkcję różnowartościową f:A->B dla której B=f(A)

Zasada bijekcji - Niech A i B będą skończonymi zbiorami. Jeżeli istnieje bijekcja f (przepis) przekształcająca A w B to |A|=|B| (liczność A = liczność B)

Różny sposób wybierania (losowania) k elementów ze zbioru n-elementowego Zn. Nazywamy to schematami wyboru. Przed przystąpieniem do losowania trzeba odp na 2 pytania:

1. Czy istotna jest kolejność wylosowanych elementów?

2. Czy wylosowane elementy mogą się powtarzać?

1|T|N|T|N|

2|T|N|N|T|

|W|C|V|K|

Podziały zbiorów – uogólnieniem kombinacji są podziały zbioru na rozłączne podzbiory o zadanych mocach. Na ile sposobów można podzielić zbiór Y na rozłączne podzbiory A1, A2,…Ar o mocach odpowiednio…

Dwumian Newtona(a + b)n = (on)anb0 + (1n)an − 1b1 + (2n)an − 2b2 + … + (n − 1n)a1bn − 1 + (nn)a0bn

INDUKCJA MATEMATYCZNA

1. Tw. o indukcji – jeżeli pewna teza T(n) (równanie, nierówność, zdanie) jest prawdziwa dla n=1 oraz założenia jej prawdziwości dla dowolnego n wynika jej prawdziwość dla n+1 to mówimy, że teza T(n) jest prawdziwa dla każdego nЄN+.

2. Dowód indukcyjny jest postępowaniem wykonywany wg schematu:

a) wykazanie tezy (równania, nierówności, zdania) dla n=1 (najmniejszej wartości)

b) Z – założenie prawdziwości tezy dla dowolnego n

T – twierdzę, że ta teza jest prawdziwa dla n+1

c) wykazanie prawdziwości tezy indukcyjnej z b) T w oparciu o założenie indukcyjne w punkcie b) z przekształcenia tożsamościowe i inne znane twierdzenia

d) formuła zamykania – w oparciu o tw. o indukcji udowadniana teza jest prawdziwa dla każdej liczby naturalnej.

Nieporządkiem nazywamy permutację bez punktów stałych.

Liczby Bella – Niech Bn będzie liczbą wszystkich podziałów zbioru n-elementowego na rozłączne i niepuste zbiory, których kolejność nie jest ważna.

Serie ciągów binarnych – max ilość ciągów kolejnych jednakowych elementów. 1110011101 Serie 0 i 1 przeplatają się i jest ich tyle samo albo różnią się o 1.

Funkcja d(n,m) (n-1,m-0) to liczba ciągów binarnych, w których dla każdego kroku i=1,2,3,m,n+m na pierwszych pozycjach znajduje się co najmniej tyle 0 co 1. Taki ciąg nazywamy zdominowanym przez 0.

Liczby Catalana$c_{n} = \frac{1}{n + 1}(_{n}^{2n}) = \frac{\left( 2n \right)!}{\left( n + 1 \right)!n!}$, rekurencyjnie: c0=1; cn=c0cn-1+c1cn-2+…+cn-2c1+cn-1c0

Zdarzeniem elementarnym ω będziemy nazywać każdy możliwy wynik przeprowadzonego doświadczenia losowego. Ω={ ω1, ω2,…, ωn} – zdarzenia elementarne

Przestrzenią zdarzeń pewnego doświadczenia losowego będziemy nazywać zbiór wszystkich możliwych wyników tego doświadczenia. Ω

Zdarzeniem będziemy nazywać dowolny podzbiór przestrzeni zdarzeń.

Prawdopodobieństwem lub funkcją prawdopodobieństwa nazwiemy funkcję P: Ω->[0,1] spełniającą następujące warunki: 1) P(Ω)=1, 2)$\bigwedge_{E,F\ E \land F \neq 0}^{}{P\left( E \cup F \right) = P\left( E \right) + P(F)}$

P(Ω)=P(ω1υω2υω3υ…υ ωn)=P(ω1)υP(ω2)υ…υP(ωn)

iЄ{1,2,…,n)

P(ωi)=1/n, n=|Ω|

Jeżeli w Ω={ ω1, ω2,…, ωn} mamy zdarzenia jednakowo prawdopodobne to $\bigwedge_{i \in \{ 1,2,..n\}}^{}{P\left( \omega_{i} \right) = \frac{1}{\overset{}{\Omega}}}$

Def. klasyczna prawdopodobieństwa: $\bigwedge_{A \subset \Omega}^{}{P\left( A \right) = \frac{|A|}{|\Omega|}}$. Przy założeniu skończoności Ω i z tego, że Ω składa się z zdarzeń jednakowo prawdopodobnych.

Twierdzenia: Niech P będzie prawdopodobieństwem na skończonej Ω.

a) P(ø)=0

b) P(A’)=1-P(A)

c) P(A\B)=P(A)-P(A∩B)

d) P(AυB)=P(A)+P(B)-P(A∩B)

e) P(A1υA2υ…υAn)=$\sum_{i = 1}^{n}{P(A_{i})}$

Def. Niech X będzie niepustym zbiorem. Powiedzmy, że rodzina F podzbioru X stanowi σ – ciało zbioru jeżeli:

1) ø=F

2) AЄF=>A’ЄF

3) $\bigwedge_{A1,A2\text{ϵF}}^{}{A_{1} \cup A_{2}\ldots\text{ϵF}}$

Prawdopodobieństwo na nieskończonym Ω. Niech M będzie σ – ciałem na zbiorze Ω. Wtedy p nazwiemy funkcję P:M→[0,1] spełniającą następujące warunki.

1) P(A)≥0

2) P(Ω)=1

3) $\bigwedge_{\text{Ai},\text{Aj}\ldots\text{ϵM}}^{}{P(\bigcup_{i = 1}^{\infty}{\text{Ai}) = \sum_{i = 1}^{\infty}{P(\text{Ai})}}}$

Prawdopodobieństwem warunkowym P(A|B) (praw. zajścia A pod war. B), przy założeniu P(B)>0, nazwiemy: $P\left( A \middle| B \right) = \frac{P(A \cap B)}{P(B)}$

Zdarzenia A i B nazwiemy niezależnymi gdy P(A|B)=P(A) => $P\left( A \middle| B \right) = \frac{P(A \cap B)}{P(B)} = P(A)$

//-------------

Niech A1,A2,…,An są pewnymi schematami z Ω. Jeżeli $P(\bigcap_{\text{iϵj}}^{}\text{Ai} = \prod_{I \notin J}^{}{P(\text{Ai})}$ gdzie J to pewien dowolny podzbiór indeksu ze zbioru {1,2,...,n} to zdarzenia A1,...,Azniezależne. Zatem zdarzenia A1, A2, A3 będą niezależne.

P(A1∩A2)=P(A1)∙P(A2)

P(A2∩A3)=P(A2)∙P(A3)

P(A1∩A3)=P(A1)∙P(A3)

P(A1∩A2∩A3)=P(A1) ∙P(A2) ∙P(A3)

Prawdopodobieństwo całkowite. Niech {Ai}i = 1n będzie układem zupełnym zdarzeń (tzn. $\bigcup_{i = 1}^{n}\text{Ai} = \Omega \land \bigwedge_{i \neq j}^{}{\text{Ai} \cap \text{Aj} = \varnothing}$) Dla dowolnego zdarzenia B ⊂ Ω. $P\left( B \right) = \sum_{i = 1}^{n}{P\left( \text{Ai} \right) \bullet P(B|\text{Ai})}$

Wzór Bayesa. Niech {Ai}i = 1ntworzą układ zupełny zdarzeń, wtedy dla dowolnego B ⊂ Ω: $\bigwedge_{i \in n}^{}{P\left( \text{Ai} \middle| B \right) = \frac{P(B|\text{Ai}) \bullet P(\text{Ai})}{P(B)} = \frac{P(B|\text{Ai}) \bullet P(\text{Ai})}{\sum_{i = 1}^{n}{P(B|\text{Ai}) \bullet P(\text{Ai})}}}$

Zmienną losową na przestrzeni Ω nazywamy dowolną funkcję rzeczywistą określoną na Ω. X:Ω→R.

Funkcję fx, zdefiniowaną na zbiorze R wzorem fx(x)=P(X=x) dla xЄR nazywamy rozkładem prawdopodobieństwa zmiennej losowej X.

Niezależność dwóch zmiennych. Zmienne losowe X i Y określone na Ω są niezależne P(XЄI i YЄJ)= P(XЄI)∙(YЄJ) dla wszystkich przedziałów I i J z R. Jeśli Ω jest skończona to warunek ten jest równoważny: P(X=x ^ Y=y)=P(X=x)∙P(Y=y) dla dowolnych x,yЄR.

Zmienne losowe X1,X2,…,Xn określone na Ω są niezależne P(XiЄJ dla i=1,2,…,n)=$\prod_{i = 1}^{n}{P(Xi \in Ji)}$ dla wszystkich przedziałów J1,J2…JnЄR.

//-------------

Def. Zbiór A nazwiemy przeliczalnym jeśli jest on skończony lub równoliczny ze zbiorem liczb naturalnych.

Def. Zmienna losowa X jest dyskretna (skokowa) X(Ω) jest zbiorem przeliczalnym.

Def. Dystrybuanta zmiennej losowej X nazwiemy funkcję określoną na zbiorze liczb R, taką że Fx(k)=P(X≤k). Można powiedzieć ze dystrybuanta akumuluje wartości rozkładu prawdopodobieństwa. Fx(k)=∑xЄkfx(x)

Własności dystrybuanty

- funkcja rosnąca

- przyjmuje wartości z przedziału [0,1]

- prawostronnie ciągła

Def. Wartością oczekiwaną (wartością średnią) zmiennej losowej X nazwiemy liczbę μ=E(X)=∑ωЄΩX(ω)*P({ω})

Własności wartości oczekiwanej

  1. E(X+Y) = E(X)+E(Y)

  2. E(X1+X2+…+Xn)=∑ni=1E(Xi)

  3. E(a*X)=a*E(X)

  4. E(a)=a

  5. E(X-μ)=0

Dowody:

Ad 1) E(X+Y)=∑ωЄΩ(X+Y)(ω)*P({ω})=∑ωЄΩ(X(ω)+Y(ω))P({ω})=∑ωЄΩ(X(ω)* P({ω})+Y(ω)* P({ω}))=∑ωЄΩ X(ω)* P({ω})+∑ωЄΩ Y(ω)* P({ω})=E(X)+E(Y)

Ad 2) E(X1+X2+…+Xn)=E(X1)+E(X2+…+Xn)=E(X1)+E(X2)+E(X3+…+Xn)=∑ni=1E(Xi)

Ad 3) E(a*X)= ∑ωЄΩ(a*X)(ω)*P({ω})=∑ωЄΩa*X(ω)*P({ω})=a*∑ωЄΩX(ω)*P({w})=a*E(X)

Ad 4) E(a)= ∑ωЄΩa*P({ω})=a*∑ωЄΩ*P({ω})=a*1=a

Ad 5) E(X-μ)=E(X+(-μ))=E(X)+E(-μ)=μ-μ=0

Def. Wartość oczekiwana wyznaczona za pomocą rozkładu prawdopodobieństwa ma postać μ=E(X)=∑kЄX(Ω)k*P(X=k)=∑kЄX(Ω)k*fx(k)

Dowód:

Ωx=(ωЄΩ:X(ω)=x}

E(X)= ∑ωЄΩX(ω)*P({ω})=∑xЄX(Ω)ωЄΩX(ω)*P({ω})=∑xЄX(Ω)ωЄΩx*P({ω})=∑xЄX(Ω)*x* ∑ωЄΩ*P({ω})= ∑xЄX(Ω)x*P(X=x)

Twierdzenie. Niech φ:R->R. Dla zmiennej losowej X mamy:

E(φ○X)=∑kЄX(Ω)φ(k)*P(X=k)

φ○X=φ(X)

X=|k| 3 0 1 2
k -3 0 1 2
1/6 1/3 1/3 1/6

E(X)=-3*1/6+0*1/3+1*1/3+2*1/6=-1/2+1/3+1/3=1/6

E(|X|)=3*1/6+0*1/3+1*1/3+2*1/6=1/2+1/3+1/3=7/6

//-------------

Def. Niech φ:RxR→R będzie funkcją określoną dla dwóch zmiennych losowych X i Y wtedy $\bigwedge_{\omega \in \Omega}^{}{\varphi\left( X,Y \right)\left( \omega \right) = \varphi(X\left( \omega \right),Y\left( \omega \right))}$.

Def. Dla zmiennych losowych x,y i funkcji φ określonej jak powyżej zachodzi: $E\left( \varphi\left( X,Y \right) \right) = \sum_{k \in X(\omega)}^{}{\sum_{l \in Y(\omega)}^{}{\varphi\left( k,l \right) \bullet P(X = k\ i\ Y - l)}}$

Tw. Dla niezależnych zmiennych losowych X i Y zachodzi E(X∙Y)=E(X)∙E(Y).

Def. Wariancją zmiennej losowej X nazwiemy liczbę $\sigma^{2} = V\left( x \right) = \sum_{k}^{}{{(k - n)}^{2} \bullet P\left( X = x \right) = \sum_{k \in X(\Omega)}^{}{{(k - n)}^{2} \bullet f_{x}\left( k \right) = E(\left( x - n \right)^{2})}}$
Odchyleniem standardowym nazywamy liczbę: $\sigma = \sqrt{V(x)}$

Wariancja zmiennej losowej x jest równa σ2 = E(x2) − (E(x))2

Odchylenie standardowe zmiennej losowej x: $\sigma = \sqrt{E\left( x^{2} \right) - {(E\left( x \right))}^{2}}$

Własności wariancji

1) V(aX)=a2V(x)

2) V(X+a)=V(x)

3) Dla niezależnych zmiennych losowych x1,x2,…xn: $V(x1,x2,\ldots xn) = \sum_{i = 1}^{n}{V(xi)}$

Rozkład zero-jedynkowy

x - ma rozkład zero-jedynkowy; x(Ω)={0,1}; p – prawdopodobieństwo sukcesu; q – prawdopodobieństwo porażki; q=1-p

Rozkład dwumianowy (Bernouliego)

Próby Bernouliego; n – prób; każda z prób kończy się dwoma możliwymi wynikami; p – prawdopodobieństwo sukcesu; q – prawdopodobieństwo porażki; próby są niezależne.

Zmienna losowa X, która jest równa liczbie sukcesów (k) w n próbach Bernouliego ma rozkład dwumianowy X~B(n,p,k). Dla n prób mamy X(Ω)={0,1,…,n}.fx(k) = (kn)pkqn − k

Dystrybuanta $F_{x}\left( k \right) = \sum_{i \leq k}^{}{(_{l}^{n})p^{l}k^{n - l}}$. X=X1+X2+…+Xn.

i – wynik w pojedynczej próbie ma rozkład zero-jedynkowy.

{Xi}i = 1n - są niezależne. $E\left( X \right) = E(\sum_{i = 1}^{n}{Xi) =}\sum_{i = 1}^{n}{E\left( x \right) = \sum_{i = 1}^{n}{= p = n \bullet p}}$ $V\left( X \right) = V(\sum_{i = 1}^{n}{Xi) =}\sum_{i = 1}^{n}{V\left( x \right) = \sum_{i = 1}^{n}{= p \bullet q = n \bullet p \bullet q}}$


$$\sigma = \sqrt{n \bullet p \bullet q}$$

P(X=2) + P(X=3) = $C_{3}^{2} \bullet {(\frac{9}{10})}^{2} \bullet \left( \frac{1}{10} \right) + C_{3}^{2} \bullet {(\frac{9}{10})}^{3} \bullet {(\frac{1}{10})}^{0}$

P(X=0)=$\ C_{3}^{0} \bullet {(\frac{9}{10})}^{0} \bullet {(\frac{1}{10})}^{3} = 0,001$

P(X=1)=$\ C_{3}^{1} \bullet {(\frac{9}{10})}^{1} \bullet {(\frac{1}{10})}^{2} = 0,027$
P(X=2)=0,243 P(X=3)=0,729

$F_{x}(X)\left\{ \begin{matrix} 0\ dla\ k < 0 \\ 0,001\ dla\ 0 \leq k < 1 \\ 0,028\ dla\ 1 \leq k < 2 \\ 0,217\ dla\ 2 \leq k \leq 3 \\ 1\ dla\ k > 3 \\ \end{matrix} \right.\ $ P(X≥2)=1-P(X≤1)=1-0,028=0.972

E(X)=n·p=3·0,9=2,7 V(X)=n·p·q=3·0,9·0,1=0,7 σ=$\sqrt{\frac{27}{100}} = 0.52$

Rozkład geometryczny

Pojedyncza próba kończy się sukcesem lub porażką doświadczenie losowe polega na powielaniu prób dopóki nie otrzymamy pierwszego sukcesu.

X – ilość przeprowadzonych prób ma rozkład geometryczny.

X(Ω)={1,2,…}=N; $\bigwedge_{k \in N}^{}{f_{x}\left( k \right) = q^{n - 1}p}$; $F_{x}\left( k \right) = \sum_{l \leq k}^{}{q^{l - 1}p}$; $E\left( x \right) = \frac{1}{p}$; $V\left( x \right) = \frac{q}{p^{2}}$; $\sigma = \sqrt{\frac{q}{p^{2}}}$

Zadanie:
Prawdopodobieństwo połączenia się klienta z serwerem wynosi $\frac{2}{10}$, klient próbuje się połaczyć w 6 sekund. Jakie jest prawdopodobieństwo, że połączy się w ciągu 20s?
X-ilość połączenia z serwerem X-ma rozkład geometryczny o p=0,2
P(X=1)=0,2 P(X=2)=0,80,2=0,16 P(X=3)=(0, 8)20,2=0,128 P(X=4)=(0, 8)30,2=0,1024

P(X=5)=(0, 8)40,2=0.08192
Dystrybuanta :

$F_{x}(k)\left\{ \begin{matrix} 0\ dla\ k < 1 \\ 0,2\ dla\ 1 \leq k < 2 \\ 0,36\ dla\ 2 \leq k < 3 \\ 0,488\ dla\ 3 \leq k < 4 \\ 0,5094\ dla\ 4 \leq k < 5 \\ \end{matrix} \right.\ $ P(X≤4)= Fx(4) = 0, 5904 E(X)=$\ \frac{1}{0,2}$=5 V(X)=$\ \frac{0,8}{{(0,2)}^{2}}$=20 σ=$\sqrt{20} = 2\sqrt{5}$

Rozkład Poissona

Zmienna losowa X na rozkład Poissona

X ~ Poissona(k,λ)

X(Ω)={0,1,2,3…}
P(X=k)=$\frac{\lambda}{k!}^{k}e^{- \lambda}$

Dystrybuanta F­­x(x)=$\sum_{k \leq x}^{}{\frac{\lambda}{k!}^{k}e^{- \lambda}}$
Twierdzenie Poissona

Niech granica n  • pn = λ .

Wtedy dla każdego k≥0 zachodzi B(n,pn,k) = Poissona(k, λ)

Wniosek:

Twierdzenie Poissona daje dobre przybliżenie rozkładu dwumianowego rozkładem Poissona gdy n jest duże, p jest małe a λ średnie tzn. :

$\left\{ \begin{matrix} p \leq 0.1 \\ n \geq 100 \\ \lambda = n\ \bullet p_{n}\ \lbrack 0,1,10\rbrack \\ \end{matrix} \right.\ $ Wtedy rozkład Bernoulliego można przybliżać rozkładem Poissona.

B(n,pn,k)~ Poissona(k, λ)

  1. E(x)= λ

  2. V(x) λ

  1. Dowód: E(x) = E(xn) =n  • pn = λ gdzie Xn ∼ B(n,pn,k)

  2. Dowód: V(x) = V(xn) =$\operatorname{}{n\ \bullet p_{n} \bullet q_{n}} = \operatorname{}{n\ \bullet p_{n} \bullet (1 -}p_{n}) = \operatorname{}{n\ \bullet p_{n} \bullet (1 -}\frac{\lambda}{n}) = \lambda$

Zadanie:

Każdego roku 1% ubezpieczonych mężczyzn traci życie w określonym rodzaju wypadku. Jakie jest prawdopodobieństwo, że w danym roku ubezpieczyciel będzie musiał wypłacić odszkodowanie więcej niż 3 mężczyznom jeśli ubezpieczono 100 mężczyzn?

Sukces –śmierć mężczyzny

Ilość prób – 100

X-ilość śmierci w grupie 100 mężczyzn K- liczba sukcesów.

X~B(100,$\frac{1}{100}$, k) λ = n  • p = 1 Można przybliżyć rozkładem Poissona

P(X>3)=1-P(X≤3)=$\ \sum_{i = 0}^{3}{\frac{\lambda^{i}}{i!}e^{- \lambda}}$

X~Poisson(k,1)= )=$\ \sum_{i = 0}^{3}{\frac{1^{i}}{i!}e^{- 1} = 1 - \left( 0,981 \right) = 0,019 = 1,9\%}$

Standaryzacja zmiennej losowej

Standaryzacja klasyczne zmiennej losowej X polega na przekształceniu zmiennej losowej według wzoru T=$\frac{x - \mu}{\sigma}$
Otrzymane zmienne losowe T( standaryzacja zmienna losowe X) ma rozkład o wartości oczekiwanej równej 0 i odchyleniu standardowemu równym 1.

E(x)= μ $\sqrt{V\left( x \right)} = \ \sigma$
E(T) =E$\left( \frac{x - \mu}{\sigma} \right)$=$\frac{1}{\sigma}E\left( x - \mu \right) = \frac{1}{\sigma}\left( E\left( x \right) - \mu \right) = 0$


$$\sqrt{V\left( T \right)} = \sqrt{V\left( \frac{x - \mu}{\sigma} \right)} = \sqrt{\frac{1}{\sigma^{2}} \bullet V(x - \mu)} = \sqrt{\frac{1}{\sigma^{2}} \bullet V(x)} = \sqrt{\frac{\sigma^{2}}{\sigma^{2}}} = 1$$

Jeśli ustandaryzujemy zmienną losową X o rozkładzie normalnym to otrzymamy tzw. Zmienną losową unormowaną . U~N(0,1)

Dystrybuantę tej zmiennej losowej oblicza się się literą Ф

Centralne twierdzenie graniczne (tw. Lindberga Levy’ego)

Załóżmy, że mamy dany ciąg niewiadomych zmiennych losowych x­­­­­­­­­­­­­1 + x2 aż do xn wtedy Zn ~ N(n$\ \mu,\sigma\sqrt{n})$ przy n → ∞ gdzie σ i μ to charakterystyki zmiennych losowych {Xi}=1
Wniosek: Dla rozkładu dwumianowego załóżmy, że x ~ B( n,p,k) wtedy X~N(np, $\sqrt{\text{npq}}$) dla n → ∞ ($\mu = p,\ \ \sigma = \sqrt{\text{pq}}$)

Zadanie:

Prawdopodobieństwo uzyskania wygranej w pewnej grze losowej wynosi 0,1. Jakie jest P, że spośród 500 osób:

a) wygra mniej niż 60 osób; b) wygra mniej niż 20 osób;

a) n=500; p=0,1; q=0,9; X – ilość wygranych; X~B(500;0,1;k); przybliżenie X rozkładem normalnym $X\sim N(500 \bullet 0,1;\sqrt{500 \bullet 0,1 \bullet 0,9})$; X~N(50;6,7); $P\left( X \geq 61 \right) = 1 - P\left( X \leq 60 \right) = 1 - P\left( \frac{x - 50}{6,7} \leq \frac{60 - 50}{6,7} \right) = 1 - P\left( U \leq 1,49 \right) = 1 - \left( 1,49 \right) = 1 - 0,93 = 0,07$

GRAFY

Grafem nieskierowanym G nazywamy uporządkowaną trójkę G=(V(G), E(G),γ(G)) gdzie V(G) jest niepustym zbiorem wierzchołków grafu G, E(G) – niepustym zbiorem krawędzi grafu G, zaś γ(G) funkcje γ(G) : E(G) p p={ {p,q} , p,q V(G)} jest funkcją incydencji grafu.

Grafem skierowanym (digrafem G) nazywamy uporządkowaną trójkę G=(V(G), E(G),γ(G)) gdzie V(G)=zbiór wierzchołków E(G)- zbiór krawędzi.
γ(G)=E(G) V(G) x V(G)
W grafie G o krawędzi e γ€ { p,q} mówimy, że łączy wierzchołki p i q. Krawędź e incydentą do wierzchołków p i q.

W grafie G o krawędzi e takiej że γ(e)={p,q} mówimy, że jest krawędzią od wierzchołka p do q.

Drogą grafu G nazywamy dowolny ciąg e1, e2, …, en spełniający zależność γ(ai)={x1, xi+1} Mówiący, że droga ta ma długość n, jeżeli x1=xn+1 nazywamy ją zamkniętą.

Drogę nazywamy drogą prostą jeżeli wszystkie gałęzie je tworzące są różne.

Drogą zamkniętą o ciągu ?wierzchołków? x1,x2,…,xn o długości co najmniej 1 nazywamy cyklem, jeżeli wszystkie wierzchołki są różne. Grafem acyklicznym nazywamy graf nie posiadający cykli.
Macierz sąsiedztwa digrafu G o n-wierzchołkach v1,v2,…,vn nazwiemy macierz ??? n x n której każdy wyraz n i j jest liczbą krawędzi od wierzchołka vi do […urwane…]
W grafie G mówimy że wierzchołki p i q są sąsiednie jeśli dla pewnej krawędzi e γ(e)={p,q}
Graf spójny w którym każdy wierzchołek ma stopień parzysty ma cykl Eulera
Graf spójny o dokładnie 2 wierzchołkach stopnia nieparzystego lub bez wierzchołków. Stopnie nieparzystego ma drogę Eulera
Drogą Eulera w grafie G nazywamy każdą drogę prostą (bez zamknięcia).
Cyklem Eulera nazywamy każdą drogę prostą i zamkniętą zawierającą wszystkie krawędzie grafu G.
WARUNEK KONIECZNY istnienia cyklu Eulera
Jeżeli graf G ma cykl Eulera to wszystkie jego wierzchołki są stopnia parzystego.
WARUNEK WYSTARCZAJĄCY istnienia cyklu Eulera (TWIERDZENIE EULERA)
Graf spójny, w którym każdy wierzchołek ma stopień parzysty nazywamy cyklem Eulera.
WARUNEK KONIECZNY istnienia drogi Eulera
Jeżeli graf G ma drogę Eulera to ma on albo dokładnie 2 wierzchołki stopnia nieparzystego, albo nie ma w ogóle wierzchołków stopnia parzystego.
Graf G nazwiemy spójnym jeśli każda para różnych wierzchołków jest połączona drogą w tym grafie.
Spójny podgraf, który nie jest zawarty w większym, spójnym podgrafie grafu G nazywamy składową grafu G


Wyszukiwarka

Podobne podstrony:
5 Algorytmy wyznaczania dyskretnej transformaty Fouriera (CPS)
01Zmienne losowe dyskretneid 3335 ppt
w 5 ciagle a dyskretne
dyskretna lista5
Dyskretne przeksztaĹ'cenie Fouriera
matematyka dyskretna w 2 id 283 Nieznany
Denisjuk A Matematyka Dyskretna
Zadania 2, Studia, II sem, Dyskretna - cz. I
C2, Matematyka studia, Matematyka dyskretna
rozwiazania zerowka mat dyskretna
DYSKRETYZACJA Jasiek
Matematyka Dyskretna Test#1
Matematyka dyskretna Zadania(1)
matma dyskretna 05 id 287941 Nieznany
mata dyskretna, C3
zmienne losowe dyskretne id 591 Nieznany
matma dyskretna 04 id 287940 Nieznany
matma dyskretna 02
generowanie dyskretnych sygnałów
Analiza uchybowa układów dyskretnych

więcej podobnych podstron