Stat mat w1

STATYSTYKA MATEMATYCZNA

Podręczniki:

[1] Bobrowski D., Probabilistyka w zastosowaniach technicznych, WNT,

[2] Krysicki W. i inni, Rachunek prawdopodobieństwa i statystyka

Matematyczna w zadaniach, PWN, cz.I i II,

[3] Bobrowski D., Łybacka K., Wybrane metody wnioskowania statystycznego,

Wyd. PP.

Teoria prawdopodobieństwa – jak każda nauka dedukcyjna opiera się na pojęciu pierwotnym i układzie aksjomatów.

Pojęciem pierwotnym w teorii prawdopodobieństwa jest przystrzeń zdarzeń elementarnych Ω, a jej elementy nazywamy zdarzeniami elementarnymi   ω ∈ Ω .

W zagadnieniach praktycznych przez przestrzeń zdarzeń elementarnych rozumie się, na ogół, zbiór wszystkich możliwych, niepodzielnych wyników doświadczenia czy obserwacji.

Przestrzeń zdarzeń elementarnych dla danego doświadczenia można określić w różny sposób, w zależności od celu jaki chcemy osiągnąć .

Przykład.

Niech doświadczenie polega na trzykrotnym rzucie symetryczną monetą. Przestrzeń zdarzeń elementarnych dla tego doświadczenia możemy określić w następujący sposób :

Ω1 = {(O,O,O), (R,O,O), (O,R,O), (O,O,R), (R,R,O), (R,O,R), (O,R,R), (R,R,R)},

ale także w ten sposób : Ω2 = {ω0, ω1, ω2, ω3},

gdzie ωi – oznacza zdarzenie, że orzeł wypadł i razy (i =0, 1, 2, 3).

Przestrzeń zdarzeń elementarnych może być :

- skończona (np. rzut kostką do gry),

-przeliczalna (np. rzuty monetą do chwili wypadnięcia orła),

-nieprzeliczalna (np. pomiar temperatury w stacji meteo).

Zdarzenia losowe są to podzbiory przestrzeni zdarzeń elementarnych Ω należące do pewnej klasy podzbiorów zwanej σ-ciałem lub σ-algebrą zdarzeń (zbiorów).

Definicja:

σ-ciałem zdarzeń nazywamy klasę podzbiorów niepustej przestrzeni zdarzeń elementarnych Ω spełniających następujące postulaty:

1) Ω ∈ ,

2) A  ∈  ℱ ⇒A∈ ℱ ,

3) $A_{1},\ A_{2},\ \ldots\ \in \mathcal{F\ \Longrightarrow \ }\bigcup_{n = 1}^{\infty}{A_{n}\mathcal{\ \in \ F}}$ .

Dowolny zbiór należący do ciała zdarzeń nazywamy zdarzeniem losowym .

Uwaga:

Gdy Ω jest zbiorem co najwyżej przeliczalnym i jest klasą wszystkich podzbiorów Ω, to postulaty 1)- 3) są spełnione.

Wszystkie prawa rachunku zbiorów dotyczą także zdarzeń.

Własności σ-ciała zdarzeń :

1) ⌀ ∈ ℱ ,

2) $A_{1},\ A_{2},\ \ldots\ \in \mathcal{F\ \Longrightarrow \ }\bigcap_{n = 1}^{\infty}{A_{n}\mathcal{\ \in \ F}}$ ,

3) A,  B  ∈  ℱ ⇒A − B  ∈ ℱ .

Definicja:

Niech dana będzie przestrzeń zdarzeń elementarnych Ω i określone na niej ciało zdarzeń . Na σ-ciele zdarzeń określimy funkcję rzeczywistą P, o

której zakładamy, że spełnia następujący układ aksjomatów :

A1) dla każdego A∈ ℱ funkcja P jest nieujemna P(A) ≥ 0 ,

A2) P(Ω) = 1,

A3) dla każdego ciągu A1,  A2,  …  zdarzeń parami rozłącznych, tzn.

Ai ∩ Aj = ⌀ ,   i ≠ j ,

funkcja P jest przeliczalnie addytywną funkcją zbioru, co oznacza że

$P\left( \bigcup_{n = 1}^{\infty}A_{n} \right) = \sum_{n = 1}^{\infty}{{P(A}_{n})}$ .

Funkcję P spełniającą układ tych aksjomatów nazywamy rozkładem prawdopodobieństwem zdarzenia A . Wartośc funkcji P na zdarzeniu A nazywać będziemy prawdopodobieństwem zdarzenia A.

Własności rozkładu prawdopodobieństwa P :

1) P(⌀) = 0 .

2) Jezeli  A ⊂ B,   to  P(A) ≤ P(B) .

3) Dla dowolnych zdarzeń A, B  ∈ ℱ zachodzi

P(AB) = P(A) + P(B) − P(AB) .

4) P(A) + P(A′) = 1   lub inaczej    P(A′) = 1 − P(A) .

Definicja:

Przestrzeń zdarzeń elementarnych Ω z określonym na niej σ-ciałem zdarzeń i rozkładem prawdopodobieństwa P nazywamy przestrzenią probabilistyczną i oznaczamy (Ω, , P ).

W dalszym ciągu zakładać będziemy, że wszystkie występujące w jakimś zagadnieniu zdarzenia związane są z tą samą przestrzenią probabilistyczną.

O funkcji P mówimy krótko, że jest określona na Ω .

Przykłady określenia rozkładu prawdopodobieństwa :

1. Niech Ω będzie zbiorem przeliczalnym Ω = {ω1,ω2, ⋯} .

Dla zdarzeń jednoelementowych funkcję P określimy następująco

$P\left( \left\{ \omega_{i} \right\} \right) = p_{i}\ \ \ ,\ \ \ gdzie\ \ \ p_{i} \geq 0\ \ \ i\ \ \ \sum_{i}^{}{p_{i} = 1}$ .

Z aksjomatów rozkładu prawdopodobieństwa wynika, że jeśli

A = {ωi1,ωi2,⋯} ⊂ Ω , to


P(A) = P({ωi1}∪{ωi2}∪⋯) = (P{ωi1}+P{ωi2}+⋯) = pi1 + pi2 + ⋯

W szczególności, gdy przestrzeń zdarzeń elementarnych jest skończona

Ω = {ω1,ω2, ⋯,ωn} oraz $P\left( \left\{ \omega_{1} \right\} \right) = P\left( \left\{ \omega_{2} \right\} \right) = \cdots = P\left( \left\{ \omega_{n} \right\} \right) = \frac{1}{n}$ ,

to dla A = {ωi1,ωi2,⋯,ωis} ⊂ Ω mamy

$P\left( A \right) = P\left( \left\{ \omega_{i_{1}} \right\} \cup \left\{ \omega_{i_{2}} \right\} \cup \cdots \cup \left\{ \omega_{i_{s}} \right\} \right) = P\left\{ \omega_{i_{1}} \right\} + \left\{ \omega_{i_{2}} \right\} + \cdots + P\left\{ \omega_{i_{s}} \right\} = s \bullet \frac{1}{n}$

Otrzymaliśmy klasyczną definicję prawdopodobieństwa. Wzór ten można więc stosować jako metodę obliczania prawdopodobieństwa, o ile spełnione są warunki

1) Ω jest zbiorem skończonym n-elementowym,

2) $P\left( \left\{ \omega_{i} \right\} \right) = \frac{1}{n}\ \ \ dla\ \ \ i = 1,2,\cdots,n$ .

Przykład.1.Paradoks kawalera de Mere

Obserwując grę w „trzy kości” kawaler de Mere zauważył, że częściej wygrywa gracz stawiający na sumę oczek 11 niż stawiający na sumę oczek 12, a przecież sumę oczek 11 i 12 można otrzymać na 6 różnych sposobów :

11= 6+4+1=6+3+2=5+5+1=5+4+2=5+3+3=4+4+3,

12=6+5+1=6+4+2=6+3+3=5+5+2=5+4+3=4+4+4.

Sprzeczność tę wyjaśnił Pascal, który wykazał, że rozważając możliwości wyrzucenia odpowiedniej sumy oczek trzeba uwzględnić kolejność kostek i wówczas

11 można otrzymać na 3!+3!+3+3!+3+3=27 sposobów,

a 12 można otrzymać na 3!+3!+3+3+3!+1=25 sposobów.

W interpretacji kawalera de Mere zdarzenia elementarne nie były równoprawdopodobne.

2. Rozkład prawdopodobieństwa można także określić za pomocą miary geometrycznej. Niech μ będzie miarą geometryczną. Wówczas rozkład prawdopodobieństwa określamy następująco

$P\left( A \right) = \frac{\mu\left( A \right)}{\mu\left( \Omega \right)}$ .

Przykład 2. Paradoks Bertranda

Znaleźć prawdopodobieństwo tego, że długość losowo narysowanej cięciwy okręgu o jednostkowym promieniu przewyższa długość boku trójkąta równobocznego wpisanego w ten okrąg.

Tak postawione zadanie jest niejednoznaczne i można je rozwiązać trzema metodami :

Paradoks wynika z faktu, że w każdej z tych metod inaczej została określona przestrzeń probabilistyczna ( Ω, , P ) .

3. Prawdopodobieństwo można także interpretować jako częstość występowania pewnego zdarzenia.

Niech sn oznacza liczbę wystąpień zdarzenia A w wykonanej serii n doświadczeń. Częstość $\frac{s_{n}}{n}$ występowania zdarzenia A jest dla różnych kolejnych serii na ogół różna. Ale gdy n rośnie, to częstość $\frac{s_{n}}{n}$ oscyluje wokół pewnej stałej liczby p i im wieksze jest n, tym odchylenia częstości $\frac{s_{n}}{n}$ od p są mniejsze. Zatem jeśli $n \rightarrow \infty,\ \ \ to\ \ \ P\left( A \right) = \operatorname{}\frac{s_{n}}{n}$ .

Rozwiązując zadania dotyczące prawdopodobieństwa zdarzeń trzeba korzystać z pojęć kombinatoryki.

Przykład 3. W skrzynce znajduje się 50 żarówek w tym 3 wadliwe. Ze skrzynki wyciągnięto bez zwracania 7 żarówek.

a) Jakie jest prawdopodobieństwo wyciągnięcia 2 żarówek wadliwych?

b) Jakie jest prawdopodobieństwo wyciągnięcia co najmniej2 żarówek wadliwych?

Przykład 4. Obliczyć prawdopodobieństwo, że losowo wzięta liczba jest podzielna przez 2 lub 3.

Przykład 5. Winda rusza z 7 pasażerami i zatrzymuje się na 10 piętrach. Jakie jest prawdopodobieństwo, że każdy z pasażerów wysiądzie na innym piętrze?

Przykład 6. Z talii 36 kart wylosowano bez zwracania 3 karty. Obliczyć prawdopodobieństwo, że wśród nich jest co najmniej jeden as.

Jednym z kluczowych pojęć rachunku prawdopodobieństwa jest prawdopodobieństwo warunkowe.

Definicja:

Jeśli P(B)>0, to prawdopodobieństwem warunkowym zdarzenia A pod warunkiem B nazywamy $P\left( A|B \right) = \frac{P\left( A \cap B \right)}{P\left( B \right)}$ .

Warunkowym rozkładem prawdopodobieństwa nazywamy funkcję P(•|B) określoną dla każdego A∈ℱ powyższym wzorem.

Przykład 7. Obliczyć prawdopodobieństwo warunkowe zdarzenia

A – wyrzucenia na kości parzystej liczby oczek, pod warunkiem, że zaszło zdarzenie B – wyrzucenie na kości co najwyżej 5 oczek.

Przykład 8. Prawdopodobieństwo, że dany strzelec trafi w pierwszą tarczę równe jest $\frac{2}{3}\ $. Jeśli trafi on w tarczę przy pierwszym strzale, to uzyskuje prawo oddania drugiego strzału – tym razem do drugiej tarczy. Prawdopodobieństwo, że trafi on w obie tarcze przy przy dwóch strzałach równe jest 0,5. Obliczyć prawdopodobieństwo trafienia w drugą tarczę , jeśli strzelec otrzymał prawo do oddania drugiego strzału.

Zajmiemy się teraz pojęciem zdarzeń niezależnych, które jest specyficznym pojęciem teorii prawdopodobieństwa.

Definicja:

Zdarzenia A1, A2, … , Anniezależne, jeśli dla dowolnych wskaźników

k1, k2, …, ks , gdzie 1 ≤ k1 < k2 < … < ks ≤ n , zachodzi

$P\left( \bigcap_{i = 1}^{s}A_{k_{i}} \right) = \prod_{i = 1}^{s}{P\left( A_{k_{i}} \right)}$ .

Uwaga:

1) Warunek zapisany w definicji może być spełniony dla s = n , a nie być spełniony dla pewnych układów wskaźników k1, k2, …, ks , gdzie s < n oraz może zaistnieć sytuacja taka, że warunek ten jest spełniony dla każdego układu wskaźników k1, k2, …, ks , gdzie s < n, a nie jest spełniony dla s = n. W każdym z tych przypadków zdarzenia A1, A2, … , An nazywamy zależnymi .

2) O zdarzeniach A i B mówimy, że są niezależne, jeśli

P(AB) = P(A) • P(B) .

3) Pojęcia zdarzeń niezależnych i rozłącznych są to dwa różne pojęcia.

Niezależność zdarzeń zawsze jest związana z określonym rozkładem prawdopodobieństwa P .

4) Niezależność zdarzeń można uogólnić na nieskończony ciąg zdarzeń.

Przykład 9. W wyniku kontroli międzyoperacyjnej stwierdzono, że cztery części mają wady. Na jednej z nich zauważono wgniecenie, na drugiej pęknięcie, na trzeciej-rysy, a na czwartej wszystkie trzy wymienione wady.

Niech A- oznacza zdarzenie, że wzięta losowo cześć ma wgniecenie,

B - oznacza zdarzenie, że wzięta losowo cześć ma pęknięcie,

C - oznacza zdarzenie, że wzięta losowo cześć ma rysy.

Mamy $P\left( A \right) = P\left( B \right) = P\left( C \right) = \frac{2}{4} = \frac{1}{2}$ ,

$P\left( A \cap B \right) = \frac{1}{4} = P\left( A \right) \bullet P\left( B \right)\text{\ \ \ }$, $P\left( A \cap C \right) = \frac{1}{4} = P\left( A \right) \bullet P\left( C \right)$,

$P\left( B \cap C \right) = \frac{1}{4} = P\left( B \right) \bullet P\left( C \right)$ .

Tak więc zdarzenia te są niezależne parami, ale nie są niezależne wzajemnie, bo

$P\left( A \cap B \cap C \right) = \frac{1}{4}\ \neq P\left( A \right) \bullet P\left( B \right) \bullet P\left( C \right) = \frac{1}{8}$ .

Twierdzenia o zdarzeniach niezależnych :

TW.1 Na to by zdarzenia A i B były niezależne potrzeba i wystarcza, by zachodził warunek P(A|B) = P(A) .

TW.2 Jeżeli zdarzenia A i B są niezależne, to niezależne są także zdarzenia A i B’.

TW.3 Niech {Ai}i = 1n będzie klasą zdarzeń wzajemnie niezależnych. Jeśli w tej klasie zdarzeń dowolne zdarzenie Ai zastąpimy zdarzeniem do niego przeciwnym Ai’, to powstała w ten sposób nowa klasa zdarzeń będzie klasą zdarzeń wzajemnie niezależnych.

Przykład.10. Udowodnić, że jeśli zdarzenia A, B i C są wzajemnie niezależne, to niezależne są zdarzenia A ∪ B i C.

Przykład.11. Zdarzenia A1 , A2 ,A3, A4 są wzajemnie niezależne i P(Ak) = pk.

Obliczyć prawdopodobieństwo zajścia co najmniej jednego z tych zdarzeń.

Definicja:

Mówimy, że zdarzenia {Ai}i = 1N (gdzie N jest dowolną liczbą naturalną lub ∞ ) tworzą układ zupełny zdarzeń, gdy spełniają następujące warunki

$1^{o}\text{\ \ \ \ \ }\bigcup_{i = 1}^{N}{A_{i} = \Omega}\ \ \ \ ,\ \ \ \ \ \ \ \ \ \ \ \ \ 2^{o}\text{\ \ \ \ \ }A_{i} \cap A_{j} = \varnothing\ \ dla\ kazdego\ \ i \neq j$ .

Twierdzenie o prawdopodobieństwie zupełnym (całkowitym)

Jeśli zdarzenia {Ai}i = 1N tworzą układ zupełny zdarzeń oraz P(Ai) > 0 dla każdego i , to dla dowolnego zdarzenia B zachodzi równość

$P\left( B \right) = \sum_{i = 1}^{N}{P\left( B|A_{i} \right) \bullet P\left( A_{i} \right)}$ .

Twierdzenie Bayesa

Jeśli zdarzenia {Ai}i = 1N tworzą układ zupełny zdarzeń , P(Ai) > 0 dla każdego i oraz P(B) > 0, to dla każdego Aj z rozważanego zbioru zdarzeń zachodzi $P\left( A_{j}|B \right) = \frac{P\left( B|A_{j} \right) \bullet P\left( A_{j} \right)}{P\left( B \right)} = \frac{P\left( B|A_{j} \right) \bullet P\left( A_{j} \right)}{\sum_{i = 1}^{N}{P\left( B|A_{i} \right) \bullet P\left( A_{i} \right)}}$ .

Przykład.12. Wszystkie przypuszczenia co do liczby wybrakowanych wyrobów w pewnej partii złożonej z 3 wyrobów są równoprawdopodobne. Wylosowany z tej partii wyrób okazał się wybrakowany. Która hipoteza co do liczby wyrobów wybrakowanych w partii ma największe prawdopodobieństwo a posteriori ?

Przykład.13. Aparatura może składać się z dwóch rodzajów elementów : wysokiej i średniej jakości. 30% aparatów składa się z elementów wysokiej jakości. Niezawodność w czasie t dla aparatów składających się z elementów wysokiej jakości wynosi 0,9, a ze średniej jakości – 0,6. Wylosowano jeden aparat.

a) Jakie jest prawdopodobieństwo, że przepracuje on bezawaryjnie czas t ?

b) Jakie jest prawdopodobieństwo, że jeśli przepracował czas t , to składał się z elementów wysokiej jakości ?

Przykład.14. Na przenośnik taśmowy trafiają jednakowe wyroby wytwarzane przez 3 automaty. Stosunek ilościowy produkcji automatów kształtuje się tak jak 2:2:1. Poza tym wiadomo, że automat pierwszy produkuje 85% wyrobów I gatunku, drugi – 80% I gatunku, trzeci – 90% I gatunku. Obliczyć prawdopodobieństwo tego, że losowo wzięty z przenośnika wyrób, który okazał się I gatunku, jest wyprodukowany przez drugi automat.

Zmienne losowe jednowymiarowe

Definicja:

Zmienną losową określoną na przestrzeni probabilistycznej (Ω, , P ) nazywamy funkcję X : Ω→ℜ spełniającą warunek

x∈ℜ :{ω:X(ω)<x} ∈ ℱ .

Powyższy warunek nosi nazwę - mierzalności lub mierzalności funkcji X względem ciała zdarzeń .

Przykład 1. Rozważmy losowanie produktów z partii w celu zbadania ich jakości.

Zmienną losową możemy określić w następujący sposób:


$$X\left( \omega \right) = \left\{ \begin{matrix} 1,\ \ \ jesli\ \ \omega \equiv wylosowano\ wyrob\ I\ gatunku\ \ \ \\ \frac{1}{2},\ \ jesli\ \ \omega \equiv wylosowano\ wyrob\ II\ gatunku\ \ \\ 0,\ \ jesli\ \ \omega \equiv wylosowano\ wyrob\ wybrakowany \\ \end{matrix} \right.\ $$

Ta zmienna losowa przyjmuje tylko trzy wartości.

Przykład 2. Pociągi metra przyjeżdżają na stację co 4 minuty. Określimy zmienną losową X – jako czas oczekiwania na pociąg po przyjściu na peron w losowej chwili czasu: X(ω) = x , gdzie x ∈ ( 0, 4⟩.

Ta zmienna losowa przyjmuje nieprzeliczalnie wiele wartości.

Definicja:

Dystrybuantą zmiennej losowej X nazywamy funkcję rzeczywistą

$F\mathcal{:\ R \longrightarrow}\left\langle 0,\ \left. \ 1 \right\rangle;\ \ \bigwedge_{x\mathcal{\in R}}^{}{F\left( x \right) = P\left( \left\{ \omega \in \Omega;X\left( \omega \right) < x \right\} \right) = P\left( X < x \right)} \right.\ $ .

Twierdzenie:

Jeżeli F jest dystrybuantą zmiennej losowej X , a x1 ,  x2∈ℛ , to

P(x1Xx2) = F(x2) − F(x1) .

Dowód:

Zauważmy, że(−∞,x2) = (−∞, x1) ∪ ⟨x1,x2

Zatem P(X<x2) = P(X<x1) + P(x1 ≤ X < x2) ,

a stąd otrzymujemy

P(x1X<x2) = P(X<x2) − P(X<x1) = F(x2) − F(x1) .

Dystrybuanta jako prawdopodobieństwo pewnych zdarzeń ma następujące własności :

1o dla dowolnych x∈ℛ : 0 ≤ F(x) ≤ 1,

2o F(x) = 0     ,         F(x) = 1 ,

3o dystrybuanta F jest funkcją niemalejącą, tzn.

x1 < x2   ⇒   F(x1) ≤ F(x2) ,

4o dystrybuanta F jest funkcją lewostronnie ciągłą, tzn.

$\bigwedge_{x_{0}\mathcal{\in R}}^{}{\operatorname{}{F\left( x \right) = F\left( x_{0} \right)}}$ .

Można udowodnić , że jeśli funkcja rzeczywista F ma własności 1o – 4o , to jest ona dystrybuantą pewnej zmiennej losowej.

W zależności od analitycznych własności dystrybuanty dzielimy zmienne losowe na :

- dyskretne (skokowe),

- ciągłe,

- osobliwe,

- mieszane.

Zmienne losowe dyskretne (skokowe)

Definicja:

Mówimy, że zmienna losowa X jest typu dyskretnego, jeżeli dla pewnego co najwyżej przeliczalnego zbioru W = {x1,x2, …} zachodzi

$P\left( \left\{ \omega \in \Omega:X\left( \omega \right) = x_{i} \right\} \right) = p_{i} > 0\ \ \ dla\ \ \ x_{i} \in W\ \ \ oraz\ \ \ \ \sum_{i}^{}{p_{i} = 1}$ .

Funkcję tę nazywamy funkcją prawdopodobieństwa, punkty xipunktami skokowymi, a piskokami.

Dystrybuanta zmiennej losowe dyskretnej rośnie skokowo o pi w punktach skokowych xi , a pomiędzy nimi jest stała.

Przykład. Dana jest funkcja prawdopodobieństwa dyskretnej zmiennej losowej X :

xi -2 0 1 2 3
pi 0,1 0,2 0,3 c 0,2

Wyznaczyć stałą c . Wykonać wykres funkcji prawdopodobieństwa. Wyznaczyć dystrybuantę i wykonać jej wykres. Obliczyć P(X<2),   P(X≥0),   P(−2≤X<3),   P(X<4),   P(X<−2) .

Zmienne losowe typu ciągłego

Definicja:

Mówimy, że zmienna losowa X jest typu ciągłego, jeżeli istnieje nieujemna funkcja f taka, że

$\bigwedge_{x\mathcal{\in R}}^{}{F\left( x \right) = \int_{- \infty}^{x}{f\left( t \right)\text{dt}}}$ .

Funkcję f nazywamy gęstością prawdopodobieństwa zmiennej losowej X, a jej wykres – krzywą gęstości.

Uwaga: Modyfikując daną gęstość f w skończonej liczbie punktów,

otrzymamy nową funkcję f1 , która również spełnia powyższy warunek. Zatem

gęstość nie jest określona jednoznacznie.

Własności zmiennej losowej ciągłej :

1o Dystrybuanta F zmiennej losowej ciągłej jest funkcją ciągłą.

2o Dla każdego x∈ℛ mamy P(X(ω)=x) = 0 .

3o Dla x1,   x2∈ℛ  i x1 < x2 , zachodzi

P(x1X<x2) = P(x1Xx2) = P(x1<X<x2) = P(x1<Xx2)=

F(x2) − F(x1) = ∫x1x2f(x)dx .

4o Dystrybuanta zmiennej losowej ciągłej jest w każdym punkcie

określoności gęstości prawdopodobieństwa f różniczkowalna i zachodzi

$\frac{d}{\text{dx}}F\left( x \right) = \frac{d}{\text{dx}}\left\lbrack \int_{- \infty}^{x}{f\left( t \right)\text{dt}} \right\rbrack = f\left( x \right)$.

5o −∞+∞f(x)dx = 1.

Przykład.

Dobrać tak stałą c by funkcja $f\left( x \right) = \left\{ \begin{matrix} c\sin{x\ \ ,\ \ \ dla\ \ 0 \leq x \leq \pi} \\ 0\ \ ,\ \ \ \ poza\ \ tym\ \ \ \ \ \ \\ \end{matrix} \right.\ $

Była gęstością pewnej zmiennej losowe, a następnie wyznaczyć jej dystrybuantę. Obliczyć $P\left( \frac{\pi}{3} < X < \frac{\pi}{2} \right)$ i zinterpretować za pomocą wykresu gęstości i dystrybuanty.


Wyszukiwarka

Podobne podstrony:
(2462) stat mat 02, zootechnika, statystykka
zad ze zbioru stat mat
STAT 2012 W1
Stat mat w2
(2461) stat mat 01, Płyta farmacja Bydgoszcz, statystyka, pozostałe
Mat-w1, szkola, szkola, sem 3, MARCIN STUDIA, Materiały budowlane
(2469) stat mat
Stat Mat Estym
(2462) stat mat 02, zootechnika, statystykka
stat mat lab4 1
stat mat lab2
stat mat lab4
stat mat lab8
stat mat lab5

więcej podobnych podstron