Podręczniki:
[1] Bobrowski D., Probabilistyka w zastosowaniach technicznych, WNT,
[2] Krysicki W. i inni, Rachunek prawdopodobieństwa i statystyka
Matematyczna w zadaniach, PWN, cz.I i II,
[3] Bobrowski D., Łybacka K., Wybrane metody wnioskowania statystycznego,
Wyd. PP.
Teoria prawdopodobieństwa – jak każda nauka dedukcyjna opiera się na pojęciu pierwotnym i układzie aksjomatów.
Pojęciem pierwotnym w teorii prawdopodobieństwa jest przystrzeń zdarzeń elementarnych Ω, a jej elementy nazywamy zdarzeniami elementarnymi ω ∈ Ω .
W zagadnieniach praktycznych przez przestrzeń zdarzeń elementarnych rozumie się, na ogół, zbiór wszystkich możliwych, niepodzielnych wyników doświadczenia czy obserwacji.
Przestrzeń zdarzeń elementarnych dla danego doświadczenia można określić w różny sposób, w zależności od celu jaki chcemy osiągnąć .
Przykład.
Niech doświadczenie polega na trzykrotnym rzucie symetryczną monetą. Przestrzeń zdarzeń elementarnych dla tego doświadczenia możemy określić w następujący sposób :
Ω1 = {(O,O,O), (R,O,O), (O,R,O), (O,O,R), (R,R,O), (R,O,R), (O,R,R), (R,R,R)},
ale także w ten sposób : Ω2 = {ω0, ω1, ω2, ω3},
gdzie ωi – oznacza zdarzenie, że orzeł wypadł i razy (i =0, 1, 2, 3).
Przestrzeń zdarzeń elementarnych może być :
- skończona (np. rzut kostką do gry),
-przeliczalna (np. rzuty monetą do chwili wypadnięcia orła),
-nieprzeliczalna (np. pomiar temperatury w stacji meteo).
Zdarzenia losowe są to podzbiory przestrzeni zdarzeń elementarnych Ω należące do pewnej klasy podzbiorów zwanej σ-ciałem lub σ-algebrą zdarzeń (zbiorów).
Definicja:
σ-ciałem zdarzeń ℱ nazywamy klasę podzbiorów niepustej przestrzeni zdarzeń elementarnych Ω spełniających następujące postulaty:
1) Ω ∈ ℱ,
2) A ∈ ℱ ⇒A′∈ ℱ ,
3) $A_{1},\ A_{2},\ \ldots\ \in \mathcal{F\ \Longrightarrow \ }\bigcup_{n = 1}^{\infty}{A_{n}\mathcal{\ \in \ F}}$ .
Dowolny zbiór należący do ciała zdarzeń ℱ nazywamy zdarzeniem losowym .
Uwaga:
Gdy Ω jest zbiorem co najwyżej przeliczalnym i ℱ jest klasą wszystkich podzbiorów Ω, to postulaty 1)- 3) są spełnione.
Wszystkie prawa rachunku zbiorów dotyczą także zdarzeń.
Własności σ-ciała zdarzeń ℱ :
1) ⌀ ∈ ℱ ,
2) $A_{1},\ A_{2},\ \ldots\ \in \mathcal{F\ \Longrightarrow \ }\bigcap_{n = 1}^{\infty}{A_{n}\mathcal{\ \in \ F}}$ ,
3) A, B ∈ ℱ ⇒A − B ∈ ℱ .
Definicja:
Niech dana będzie przestrzeń zdarzeń elementarnych Ω i określone na niej ciało zdarzeń ℱ. Na σ-ciele zdarzeń ℱ określimy funkcję rzeczywistą P, o
której zakładamy, że spełnia następujący układ aksjomatów :
A1) dla każdego A∈ ℱ funkcja P jest nieujemna P(A) ≥ 0 ,
A2) P(Ω) = 1,
A3) dla każdego ciągu A1, A2, … zdarzeń parami rozłącznych, tzn.
Ai ∩ Aj = ⌀ , i ≠ j ,
funkcja P jest przeliczalnie addytywną funkcją zbioru, co oznacza że
$P\left( \bigcup_{n = 1}^{\infty}A_{n} \right) = \sum_{n = 1}^{\infty}{{P(A}_{n})}$ .
Funkcję P spełniającą układ tych aksjomatów nazywamy rozkładem prawdopodobieństwem zdarzenia A . Wartośc funkcji P na zdarzeniu A nazywać będziemy prawdopodobieństwem zdarzenia A.
Własności rozkładu prawdopodobieństwa P :
1) P(⌀) = 0 .
2) Jezeli A ⊂ B, to P(A) ≤ P(B) .
3) Dla dowolnych zdarzeń A, B ∈ ℱ zachodzi
P(A∪B) = P(A) + P(B) − P(A∩B) .
4) P(A) + P(A′) = 1 lub inaczej P(A′) = 1 − P(A) .
Definicja:
Przestrzeń zdarzeń elementarnych Ω z określonym na niej σ-ciałem zdarzeń ℱ i rozkładem prawdopodobieństwa P nazywamy przestrzenią probabilistyczną i oznaczamy (Ω, ℱ, P ).
W dalszym ciągu zakładać będziemy, że wszystkie występujące w jakimś zagadnieniu zdarzenia związane są z tą samą przestrzenią probabilistyczną.
O funkcji P mówimy krótko, że jest określona na Ω .
Przykłady określenia rozkładu prawdopodobieństwa :
1. Niech Ω będzie zbiorem przeliczalnym Ω = {ω1,ω2, ⋯} .
Dla zdarzeń jednoelementowych funkcję P określimy następująco
$P\left( \left\{ \omega_{i} \right\} \right) = p_{i}\ \ \ ,\ \ \ gdzie\ \ \ p_{i} \geq 0\ \ \ i\ \ \ \sum_{i}^{}{p_{i} = 1}$ .
Z aksjomatów rozkładu prawdopodobieństwa wynika, że jeśli
A = {ωi1,ωi2,⋯} ⊂ Ω , to
P(A) = P({ωi1}∪{ωi2}∪⋯) = (P{ωi1}+P{ωi2}+⋯) = pi1 + pi2 + ⋯
W szczególności, gdy przestrzeń zdarzeń elementarnych jest skończona
Ω = {ω1,ω2, ⋯,ωn} oraz $P\left( \left\{ \omega_{1} \right\} \right) = P\left( \left\{ \omega_{2} \right\} \right) = \cdots = P\left( \left\{ \omega_{n} \right\} \right) = \frac{1}{n}$ ,
to dla A = {ωi1,ωi2,⋯,ωis} ⊂ Ω mamy
$P\left( A \right) = P\left( \left\{ \omega_{i_{1}} \right\} \cup \left\{ \omega_{i_{2}} \right\} \cup \cdots \cup \left\{ \omega_{i_{s}} \right\} \right) = P\left\{ \omega_{i_{1}} \right\} + \left\{ \omega_{i_{2}} \right\} + \cdots + P\left\{ \omega_{i_{s}} \right\} = s \bullet \frac{1}{n}$
Otrzymaliśmy klasyczną definicję prawdopodobieństwa. Wzór ten można więc stosować jako metodę obliczania prawdopodobieństwa, o ile spełnione są warunki
1) Ω jest zbiorem skończonym n-elementowym,
2) $P\left( \left\{ \omega_{i} \right\} \right) = \frac{1}{n}\ \ \ dla\ \ \ i = 1,2,\cdots,n$ .
Przykład.1.Paradoks kawalera de Mere
Obserwując grę w „trzy kości” kawaler de Mere zauważył, że częściej wygrywa gracz stawiający na sumę oczek 11 niż stawiający na sumę oczek 12, a przecież sumę oczek 11 i 12 można otrzymać na 6 różnych sposobów :
11= 6+4+1=6+3+2=5+5+1=5+4+2=5+3+3=4+4+3,
12=6+5+1=6+4+2=6+3+3=5+5+2=5+4+3=4+4+4.
Sprzeczność tę wyjaśnił Pascal, który wykazał, że rozważając możliwości wyrzucenia odpowiedniej sumy oczek trzeba uwzględnić kolejność kostek i wówczas
11 można otrzymać na 3!+3!+3+3!+3+3=27 sposobów,
a 12 można otrzymać na 3!+3!+3+3+3!+1=25 sposobów.
W interpretacji kawalera de Mere zdarzenia elementarne nie były równoprawdopodobne.
2. Rozkład prawdopodobieństwa można także określić za pomocą miary geometrycznej. Niech μ będzie miarą geometryczną. Wówczas rozkład prawdopodobieństwa określamy następująco
$P\left( A \right) = \frac{\mu\left( A \right)}{\mu\left( \Omega \right)}$ .
Przykład 2. Paradoks Bertranda
Znaleźć prawdopodobieństwo tego, że długość losowo narysowanej cięciwy okręgu o jednostkowym promieniu przewyższa długość boku trójkąta równobocznego wpisanego w ten okrąg.
Tak postawione zadanie jest niejednoznaczne i można je rozwiązać trzema metodami :
Paradoks wynika z faktu, że w każdej z tych metod inaczej została określona przestrzeń probabilistyczna ( Ω, ℱ, P ) .
3. Prawdopodobieństwo można także interpretować jako częstość występowania pewnego zdarzenia.
Niech sn oznacza liczbę wystąpień zdarzenia A w wykonanej serii n doświadczeń. Częstość $\frac{s_{n}}{n}$ występowania zdarzenia A jest dla różnych kolejnych serii na ogół różna. Ale gdy n rośnie, to częstość $\frac{s_{n}}{n}$ oscyluje wokół pewnej stałej liczby p i im wieksze jest n, tym odchylenia częstości $\frac{s_{n}}{n}$ od p są mniejsze. Zatem jeśli $n \rightarrow \infty,\ \ \ to\ \ \ P\left( A \right) = \operatorname{}\frac{s_{n}}{n}$ .
Rozwiązując zadania dotyczące prawdopodobieństwa zdarzeń trzeba korzystać z pojęć kombinatoryki.
Przykład 3. W skrzynce znajduje się 50 żarówek w tym 3 wadliwe. Ze skrzynki wyciągnięto bez zwracania 7 żarówek.
a) Jakie jest prawdopodobieństwo wyciągnięcia 2 żarówek wadliwych?
b) Jakie jest prawdopodobieństwo wyciągnięcia co najmniej2 żarówek wadliwych?
Przykład 4. Obliczyć prawdopodobieństwo, że losowo wzięta liczba jest podzielna przez 2 lub 3.
Przykład 5. Winda rusza z 7 pasażerami i zatrzymuje się na 10 piętrach. Jakie jest prawdopodobieństwo, że każdy z pasażerów wysiądzie na innym piętrze?
Przykład 6. Z talii 36 kart wylosowano bez zwracania 3 karty. Obliczyć prawdopodobieństwo, że wśród nich jest co najmniej jeden as.
Jednym z kluczowych pojęć rachunku prawdopodobieństwa jest prawdopodobieństwo warunkowe.
Definicja:
Jeśli P(B)>0, to prawdopodobieństwem warunkowym zdarzenia A pod warunkiem B nazywamy $P\left( A|B \right) = \frac{P\left( A \cap B \right)}{P\left( B \right)}$ .
Warunkowym rozkładem prawdopodobieństwa nazywamy funkcję P(•|B) określoną dla każdego A∈ℱ powyższym wzorem.
Przykład 7. Obliczyć prawdopodobieństwo warunkowe zdarzenia
A – wyrzucenia na kości parzystej liczby oczek, pod warunkiem, że zaszło zdarzenie B – wyrzucenie na kości co najwyżej 5 oczek.
Przykład 8. Prawdopodobieństwo, że dany strzelec trafi w pierwszą tarczę równe jest $\frac{2}{3}\ $. Jeśli trafi on w tarczę przy pierwszym strzale, to uzyskuje prawo oddania drugiego strzału – tym razem do drugiej tarczy. Prawdopodobieństwo, że trafi on w obie tarcze przy przy dwóch strzałach równe jest 0,5. Obliczyć prawdopodobieństwo trafienia w drugą tarczę , jeśli strzelec otrzymał prawo do oddania drugiego strzału.
Zajmiemy się teraz pojęciem zdarzeń niezależnych, które jest specyficznym pojęciem teorii prawdopodobieństwa.
Definicja:
Zdarzenia A1, A2, … , An są niezależne, jeśli dla dowolnych wskaźników
k1, k2, …, ks , gdzie 1 ≤ k1 < k2 < … < ks ≤ n , zachodzi
$P\left( \bigcap_{i = 1}^{s}A_{k_{i}} \right) = \prod_{i = 1}^{s}{P\left( A_{k_{i}} \right)}$ .
Uwaga:
1) Warunek zapisany w definicji może być spełniony dla s = n , a nie być spełniony dla pewnych układów wskaźników k1, k2, …, ks , gdzie s < n oraz może zaistnieć sytuacja taka, że warunek ten jest spełniony dla każdego układu wskaźników k1, k2, …, ks , gdzie s < n, a nie jest spełniony dla s = n. W każdym z tych przypadków zdarzenia A1, A2, … , An nazywamy zależnymi .
2) O zdarzeniach A i B mówimy, że są niezależne, jeśli
P(A∩B) = P(A) • P(B) .
3) Pojęcia zdarzeń niezależnych i rozłącznych są to dwa różne pojęcia.
Niezależność zdarzeń zawsze jest związana z określonym rozkładem prawdopodobieństwa P .
4) Niezależność zdarzeń można uogólnić na nieskończony ciąg zdarzeń.
Przykład 9. W wyniku kontroli międzyoperacyjnej stwierdzono, że cztery części mają wady. Na jednej z nich zauważono wgniecenie, na drugiej pęknięcie, na trzeciej-rysy, a na czwartej wszystkie trzy wymienione wady.
Niech A- oznacza zdarzenie, że wzięta losowo cześć ma wgniecenie,
B - oznacza zdarzenie, że wzięta losowo cześć ma pęknięcie,
C - oznacza zdarzenie, że wzięta losowo cześć ma rysy.
Mamy $P\left( A \right) = P\left( B \right) = P\left( C \right) = \frac{2}{4} = \frac{1}{2}$ ,
$P\left( A \cap B \right) = \frac{1}{4} = P\left( A \right) \bullet P\left( B \right)\text{\ \ \ }$, $P\left( A \cap C \right) = \frac{1}{4} = P\left( A \right) \bullet P\left( C \right)$,
$P\left( B \cap C \right) = \frac{1}{4} = P\left( B \right) \bullet P\left( C \right)$ .
Tak więc zdarzenia te są niezależne parami, ale nie są niezależne wzajemnie, bo
$P\left( A \cap B \cap C \right) = \frac{1}{4}\ \neq P\left( A \right) \bullet P\left( B \right) \bullet P\left( C \right) = \frac{1}{8}$ .
Twierdzenia o zdarzeniach niezależnych :
TW.1 Na to by zdarzenia A i B były niezależne potrzeba i wystarcza, by zachodził warunek P(A|B) = P(A) .
TW.2 Jeżeli zdarzenia A i B są niezależne, to niezależne są także zdarzenia A i B’.
TW.3 Niech {Ai}i = 1n będzie klasą zdarzeń wzajemnie niezależnych. Jeśli w tej klasie zdarzeń dowolne zdarzenie Ai zastąpimy zdarzeniem do niego przeciwnym Ai’, to powstała w ten sposób nowa klasa zdarzeń będzie klasą zdarzeń wzajemnie niezależnych.
Przykład.10. Udowodnić, że jeśli zdarzenia A, B i C są wzajemnie niezależne, to niezależne są zdarzenia A ∪ B i C.
Przykład.11. Zdarzenia A1 , A2 ,A3, A4 są wzajemnie niezależne i P(Ak) = pk.
Obliczyć prawdopodobieństwo zajścia co najmniej jednego z tych zdarzeń.
Definicja:
Mówimy, że zdarzenia {Ai}i = 1N (gdzie N jest dowolną liczbą naturalną lub ∞ ) tworzą układ zupełny zdarzeń, gdy spełniają następujące warunki
$1^{o}\text{\ \ \ \ \ }\bigcup_{i = 1}^{N}{A_{i} = \Omega}\ \ \ \ ,\ \ \ \ \ \ \ \ \ \ \ \ \ 2^{o}\text{\ \ \ \ \ }A_{i} \cap A_{j} = \varnothing\ \ dla\ kazdego\ \ i \neq j$ .
Twierdzenie o prawdopodobieństwie zupełnym (całkowitym)
Jeśli zdarzenia {Ai}i = 1N tworzą układ zupełny zdarzeń oraz P(Ai) > 0 dla każdego i , to dla dowolnego zdarzenia B zachodzi równość
$P\left( B \right) = \sum_{i = 1}^{N}{P\left( B|A_{i} \right) \bullet P\left( A_{i} \right)}$ .
Twierdzenie Bayesa
Jeśli zdarzenia {Ai}i = 1N tworzą układ zupełny zdarzeń , P(Ai) > 0 dla każdego i oraz P(B) > 0, to dla każdego Aj z rozważanego zbioru zdarzeń zachodzi $P\left( A_{j}|B \right) = \frac{P\left( B|A_{j} \right) \bullet P\left( A_{j} \right)}{P\left( B \right)} = \frac{P\left( B|A_{j} \right) \bullet P\left( A_{j} \right)}{\sum_{i = 1}^{N}{P\left( B|A_{i} \right) \bullet P\left( A_{i} \right)}}$ .
Przykład.12. Wszystkie przypuszczenia co do liczby wybrakowanych wyrobów w pewnej partii złożonej z 3 wyrobów są równoprawdopodobne. Wylosowany z tej partii wyrób okazał się wybrakowany. Która hipoteza co do liczby wyrobów wybrakowanych w partii ma największe prawdopodobieństwo a posteriori ?
Przykład.13. Aparatura może składać się z dwóch rodzajów elementów : wysokiej i średniej jakości. 30% aparatów składa się z elementów wysokiej jakości. Niezawodność w czasie t dla aparatów składających się z elementów wysokiej jakości wynosi 0,9, a ze średniej jakości – 0,6. Wylosowano jeden aparat.
a) Jakie jest prawdopodobieństwo, że przepracuje on bezawaryjnie czas t ?
b) Jakie jest prawdopodobieństwo, że jeśli przepracował czas t , to składał się z elementów wysokiej jakości ?
Definicja:
Zmienną losową określoną na przestrzeni probabilistycznej (Ω, ℱ, P ) nazywamy funkcję X : Ω→ℜ spełniającą warunek
∧x∈ℜ :{ω:X(ω)<x} ∈ ℱ .
Powyższy warunek nosi nazwę ℱ - mierzalności lub mierzalności funkcji X względem ciała zdarzeń ℱ.
Przykład 1. Rozważmy losowanie produktów z partii w celu zbadania ich jakości.
Zmienną losową możemy określić w następujący sposób:
$$X\left( \omega \right) = \left\{ \begin{matrix}
1,\ \ \ jesli\ \ \omega \equiv wylosowano\ wyrob\ I\ gatunku\ \ \ \\
\frac{1}{2},\ \ jesli\ \ \omega \equiv wylosowano\ wyrob\ II\ gatunku\ \ \\
0,\ \ jesli\ \ \omega \equiv wylosowano\ wyrob\ wybrakowany \\
\end{matrix} \right.\ $$
Ta zmienna losowa przyjmuje tylko trzy wartości.
Przykład 2. Pociągi metra przyjeżdżają na stację co 4 minuty. Określimy zmienną losową X – jako czas oczekiwania na pociąg po przyjściu na peron w losowej chwili czasu: X(ω) = x , gdzie x ∈ ( 0, 4⟩.
Ta zmienna losowa przyjmuje nieprzeliczalnie wiele wartości.
Definicja:
Dystrybuantą zmiennej losowej X nazywamy funkcję rzeczywistą
$F\mathcal{:\ R \longrightarrow}\left\langle 0,\ \left. \ 1 \right\rangle;\ \ \bigwedge_{x\mathcal{\in R}}^{}{F\left( x \right) = P\left( \left\{ \omega \in \Omega;X\left( \omega \right) < x \right\} \right) = P\left( X < x \right)} \right.\ $ .
Twierdzenie:
Jeżeli F jest dystrybuantą zmiennej losowej X , a x1 , x2∈ℛ , to
P(x1≤X≤x2) = F(x2) − F(x1) .
Dowód:
Zauważmy, że(−∞,x2) = (−∞, x1) ∪ ⟨x1,x2)
Zatem P(X<x2) = P(X<x1) + P(x1 ≤ X < x2) ,
a stąd otrzymujemy
P(x1≤X<x2) = P(X<x2) − P(X<x1) = F(x2) − F(x1) .
Dystrybuanta jako prawdopodobieństwo pewnych zdarzeń ma następujące własności :
1o dla dowolnych x∈ℛ : 0 ≤ F(x) ≤ 1,
2o F(x) = 0 , F(x) = 1 ,
3o dystrybuanta F jest funkcją niemalejącą, tzn.
x1 < x2 ⇒ F(x1) ≤ F(x2) ,
4o dystrybuanta F jest funkcją lewostronnie ciągłą, tzn.
$\bigwedge_{x_{0}\mathcal{\in R}}^{}{\operatorname{}{F\left( x \right) = F\left( x_{0} \right)}}$ .
Można udowodnić , że jeśli funkcja rzeczywista F ma własności 1o – 4o , to jest ona dystrybuantą pewnej zmiennej losowej.
W zależności od analitycznych własności dystrybuanty dzielimy zmienne losowe na :
- dyskretne (skokowe),
- ciągłe,
- osobliwe,
- mieszane.
Zmienne losowe dyskretne (skokowe)
Definicja:
Mówimy, że zmienna losowa X jest typu dyskretnego, jeżeli dla pewnego co najwyżej przeliczalnego zbioru W = {x1,x2, …} zachodzi
$P\left( \left\{ \omega \in \Omega:X\left( \omega \right) = x_{i} \right\} \right) = p_{i} > 0\ \ \ dla\ \ \ x_{i} \in W\ \ \ oraz\ \ \ \ \sum_{i}^{}{p_{i} = 1}$ .
Funkcję tę nazywamy funkcją prawdopodobieństwa, punkty xi – punktami skokowymi, a pi – skokami.
Dystrybuanta zmiennej losowe dyskretnej rośnie skokowo o pi w punktach skokowych xi , a pomiędzy nimi jest stała.
Przykład. Dana jest funkcja prawdopodobieństwa dyskretnej zmiennej losowej X :
xi | -2 | 0 | 1 | 2 | 3 |
---|---|---|---|---|---|
pi | 0,1 | 0,2 | 0,3 | c | 0,2 |
Wyznaczyć stałą c . Wykonać wykres funkcji prawdopodobieństwa. Wyznaczyć dystrybuantę i wykonać jej wykres. Obliczyć P(X<2), P(X≥0), P(−2≤X<3), P(X<4), P(X<−2) .
Zmienne losowe typu ciągłego
Definicja:
Mówimy, że zmienna losowa X jest typu ciągłego, jeżeli istnieje nieujemna funkcja f taka, że
$\bigwedge_{x\mathcal{\in R}}^{}{F\left( x \right) = \int_{- \infty}^{x}{f\left( t \right)\text{dt}}}$ .
Funkcję f nazywamy gęstością prawdopodobieństwa zmiennej losowej X, a jej wykres – krzywą gęstości.
Uwaga: Modyfikując daną gęstość f w skończonej liczbie punktów,
otrzymamy nową funkcję f1 , która również spełnia powyższy warunek. Zatem
gęstość nie jest określona jednoznacznie.
Własności zmiennej losowej ciągłej :
1o Dystrybuanta F zmiennej losowej ciągłej jest funkcją ciągłą.
2o Dla każdego x∈ℛ mamy P(X(ω)=x) = 0 .
3o Dla x1, x2∈ℛ i x1 < x2 , zachodzi
P(x1≤X<x2) = P(x1≤X≤x2) = P(x1<X<x2) = P(x1<X≤x2)=
F(x2) − F(x1) = ∫x1x2f(x)dx .
4o Dystrybuanta zmiennej losowej ciągłej jest w każdym punkcie
określoności gęstości prawdopodobieństwa f różniczkowalna i zachodzi
$\frac{d}{\text{dx}}F\left( x \right) = \frac{d}{\text{dx}}\left\lbrack \int_{- \infty}^{x}{f\left( t \right)\text{dt}} \right\rbrack = f\left( x \right)$.
5o ∫−∞+∞f(x)dx = 1.
Przykład.
Dobrać tak stałą c by funkcja $f\left( x \right) = \left\{ \begin{matrix} c\sin{x\ \ ,\ \ \ dla\ \ 0 \leq x \leq \pi} \\ 0\ \ ,\ \ \ \ poza\ \ tym\ \ \ \ \ \ \\ \end{matrix} \right.\ $
Była gęstością pewnej zmiennej losowe, a następnie wyznaczyć jej dystrybuantę. Obliczyć $P\left( \frac{\pi}{3} < X < \frac{\pi}{2} \right)$ i zinterpretować za pomocą wykresu gęstości i dystrybuanty.