kombinatoryka Szkice do wykladu Nieznany

background image

Szkice do wykładu z Rachunku prawdopodobieństwa

1

II rok matematyki finansowej

III roku matematyki ogólnej

III roku matematyki z metodami informatycznymi

dr Jarosław Kotowicz

24 lutego 2003 roku

1

c

Copyright J.Kotowicz

background image

Spis treści

1

2002.10.01 / 2h

6

1.1

Aksjomatyka rachunku prawdopodobieństwa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6

1.2

Prawdopodobieństwo warunkowe i całkowite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

1.3

Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

2

2002.10.08 / 2h

8

2.1

Wzór Beyasa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

8

2.2

Zdarzenia niezależne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

8

2.3

Zdarzenie zależne. Współczynnik korelacji zdarzeń . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9

2.4

Prawdopodobieństwo geometryczne. Paradoks Bertranda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9

2.5

Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10

3

2002.10.15 / 2h

11

3.1

Schemat Bernoulliego i jego uogólnienia. Schematy urnowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11

3.2

Jednowymiarowe zmienne losowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11

3.3

Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

12

4

2002.10.22 / 2h

14

4.1

Uzupełnienia poprzedniego wykładu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

14

4.2

Jednowymiarowe zmienne losowe c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

14

4.3

Wartość oczekiwana zmiennej losowej

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

15

4.4

Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

16

5

2002.10.29 / 2h

17

5.1

Parametry liczbowe rozkładów c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

17

5.2

Parametry pozycyjne rozkładów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

19

5.3

Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

19

6

2002.11.05 / 2h

20

6.1

Przykłady jednowymiarowych rozkładów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

20

6.2

Nierówność dla zmiennych losowych

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

22

6.3

Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

22

7

2002.11.12 / 2h

23

7.1

Nierówność dla zmiennych losowych c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

7.2

Niezależne zmienne losowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

7.3

Funkcje tworzące prawdopodobieństwa i reszt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

7.4

Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

2

background image

8

2002.11.19 / 2h

26

8.1

Własności funkcji tworzących prawdopodobieństwa i reszt . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

26

8.2

Zbieżności zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

26

8.3

Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27

9

2002.11.26 / 2h

28

9.1

Zbieżności zmiennych losowych c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

28

9.2

Prawo 0 – 1 Kołmogorowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29

9.3

Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29

10 2002.12.03 / 2h

30

10.1 Nierówności typu Czebyszewa dla sum zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . .

30

10.2 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

30

11 2002.12.10 / 2h

31

11.1 Zbieżności szeregów zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

31

11.2 Prawa wielkich liczb . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

31

11.3 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

32

12 2002.12.17 / 2h

33

12.1 Prawa wielkich liczb – c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

33

12.2 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

34

13 2003.01.14 / 2h

35

13.1 Zasady egzaminu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

35

13.2 Prawa wielkich liczb – c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

35

13.3 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

35

14 2003.01.21 / 2h

36

14.1 Twierdzenie Moivre’a - Laplace’a – lokalne i globalne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

36

14.2 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

37

15 Egzamin

38

15.1 Zagadnienia na egzamin – część teoretyczna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

38

15.2 Zadania z egzaminu

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

40

15.3 Zadania z egzaminu poprawkowego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

40

3

background image

Program wykładu

Plan wykładu z przedmiotu Rachunek prawdopodobieństwa

w roku akademickim 2002/2003

II rok matematyki finansowej - studia dzienne

III roku matematyki ogólnej - studia dzienne

III roku matematyki z metodami informatycznymi - studia dzienne

30 godzin wykładów prowadzący dr J. Kotowicz

Zagadnienia wykładu.

1

1. Częstotliwościowe pojęcie prawdopodobieństwa. Przestrzeń probabilistyczna. Własności prawdopodobieństwa. 1 godz.

2. Prawdopodobieństwo warunkowe, prawdopodobieństwo całkowite, wzór Bayesa.

1 godz.

3. Zdarzenie niezależne. Niezależność zespołowa i parami.

1 godz.

4. Zdarzenie zależne. Współczynnik korelacji zdarzeń.

1 godz.

5. Miara geometryczne i prawdopodobieństwo geometryczne. Paradoks Bertranda. Przestrzenie produktowe jako prze-

strzenie dla serii doświadczeń niezależnych. Schemat Bernoulliego i jego uogólnienia (zagadnienia Poissona, Pascala,

uogólniony schemat Bernoulliego, Pólya).

1 godz.

6. Jednowymiarowa zmienna losowa.

(a) Dystrybuanta i jej własności.

2 godz.

(b) Przekształcenia zmiennej losowej - związek między dystrybuantami.

1 godz.

(c) Parametry liczbowe i pozycyjne zmiennej losowej: momenty zwykłe, centralne, bezwzględne; wartość oczekiwana

i wariancja; odchylenie standardowe, przeciętne, współczynnik zmienności, współczynnik asymetrii, kwantyle,

mediana i moda - dominanta.

2 godz.

(d) Przykłady rozkładów ciągłych i dyskretnych.

1 godz.

7. Nierówność związane z momentami dla zmiennych losowych.

2 godz.

8. Niezależność zmiennych losowych.

1 godz.

9. Funkcja tworząca rozkładu zmiennej losowej i jej własności.

1 godz.

10. Ciągi zmiennych losowych. Różne rodzaje zbieżności zmiennych losowych (z prawdopodobieństwem 1, według prawdo-

podobieństwa, według k - tego momentu bezwzględnego) i związek między nimi.

3 godz.

11. Prawo 0-1 Kołmogorowa.

1 godz.

12. Sumy niezależnych zmiennych losowych. Nierówności L´

evy’ego - Ottavianiego oraz Kołmogorowa. Twierdzenie o dwóch

szeregach. Twierdzenie Kołmogorowa o trzech szeregach.

2 godz.

13. Prawa wielkich liczb.

1

Mogą byc jeszcze modyfikowane

4

background image

(a) Słabe prawo wielkich liczb (Bernoulliego, Czebyszewa, Chinczyna i in.).

2 godz.

(b) Mocne prawo wielkich liczb i warunki dostateczne na jego zachodzenie. Twierdzenia Kołmogorowa

2 godz.

14. Twierdzenia Moivre’a - Laplace’a.

2 godz.

Literatura podstawowa:

1. P. Billingsley, Prawdopodobieństwo i miara, PWN, Warszawa 1987

2. W. Feller, Wstęp do rachunku prawdopodobieństwa, PWN, Warszawa 1981

3. M. Fisz, Rachunek prawdopodobieństwa i statystyka matematyczna, PWN, Warszawa 1967

4. J. Jakubowski, R. Sztencel, Wstęp do rachunku prawdopodobieństwa, Script, Warszawa 2001

5. L. T. Kubik, Rachunek prawdopodobieństwa, PWN, Warszawa 1981

6. A. Płocki, Rachunek prawdopodobieństwa dla nauczycieli, PWN, Warszawa 1981

Literatura uzupełniająca:

1. I.J. Dinner i in., Rachunek prawdopodobieństwa w zadaniach i problemach, PWN, Warszawa 1979

2. T. Gersternkorn, T. Śródka, Kombinatoryka i rachunek prawdopodobieństwa, PWN, Warszawa 1983

3. W. Krysicki i in., Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach, PWN, Warszawa 1986

4. J. Stojanow i in., Zbiór zadań z rachunku prawdopodobieństwa, PWN, Warszaw 1991

5. Statystyka zbiór zadań, PWE, Warszawa 1995

5

background image

Wykład 1

2002.10.01 / 2h

1.1

Aksjomatyka rachunku prawdopodobieństwa

Definicja 1.1 Przestrzenia probabilistyczną nazywamy przestrzeń mierzalną z miarą unormowaną. Oznaczamy ją (Ω, Σ, P ).

Miarę probabilistyczną nazywamy prawdopodobieństwem.

Twierdzenie 1.1 Własności prawdopodobieństwa

P (∅) = 0

(1.1)

A,B∈Σ

A ⊂ B ⇒ P (A) ¬ P (B)

(1.2)

A,B∈Σ

A ⊂ B ⇒ P (B \ A) ¬ P (B) − P (A)

(1.3)

A∈Σ

P (A

0

) = 1 − P (A)

(1.4)

A,B∈Σ

P (A ∩ B) = P (A) + P (B) − P (A ∩ B)

(1.5)

n∈N

{A

1

,...,A

n

}⊂Σ

P (

n

[

k=1

A

k

) =

n

X

i=1

(−1)

i−1

X

1¬k

1

<...<k

i

¬n

P

i

\

l=1

A

k

l

!

(1.6)

{A

n

:n­1}⊂Σ

P

[

n=1

A

n

!

¬

X

n=1

P (A

n

)

(1.7)

{A

n

:n­1}⊂Σ

{A

n

: n ­ 1}- wstępujący ⇒ P

[

n=1

A

n

!

= lim

n→∞

P (A

n

)

(1.8)

{A

n

:n­1}⊂Σ

{A

n

: n ­ 1}- zstępujący ⇒ P

\

n=1

A

n

!

= lim

n→∞

P (A

n

)

(1.9)

Przyklad 1.1 Niech Ω = {ω

O

, ω

R

} , Σ = 2

oraz P będzie określone następująco: P (∅) = 0, P ({ω

O

}) = P ({ω

R

}) =

1
2

.

Wówczas ({ω

O

, ω

R

} , Σ, P ) jest przestrzenią probabilistyczną

Przyklad 1.2 Niech Ω = [0, 1], Σ = B([0, 1]) oraz P będzie miarą generowaną przez długość odcinka.

Wówczas ([0, 1], B([0, 1]), P ) jest przestrzenią probabilistyczną

Uwaga 1.1 Nie są prawdziwe następujące implikacje

P (A) = 0 ⇒ A = ∅

(1.10)

P (A) = 1 ⇒ A = Ω

(1.11)

Przyklad 1.3 Dla przestrzeni z przykładu (1.2) określamy zbiory A =



1
2

, B = Q ∩ [0, 1] C = C - zbiór Cantora. Wówczas

P (A) = P (B) = P (C) = 0.

6

background image

1.2

Prawdopodobieństwo warunkowe i całkowite

Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną.

Definicja 1.2 Niech A, B ∈ Σ. Załóżmy, że P (B) 6= 0. Prawdopodobieństwem warunkowym zajścia zdarzenia A pod warun-

kiem, że zaszło zdarzenie B (piszemy P (A/B)) nazywamy liczbę

P (A/B)

def

=

P (A ∩ B)

P (B)

(1.12)

Niech card I ¬ ℵ

0

.

Definicja 1.3 Przeliczalną rodzinę zbiorów {A

i

: i ∈ I} ⊂ Σ nazywamy układem zupełnym (zdarzeń) wtedy i tylko wtedy,

gdy

[

i∈I

A

i

=

(1.13)

i,j∈I

i 6= j

A

i

∩ A

J

= ∅

(1.14)

i∈I

P (A

i

)

6=

0

(1.15)

Twierdzenie 1.2 (Prawdopodobieństwo całkowite) Niech {A

i

: i ∈ I} ⊂ Σ będzie układem zupełnym. Wówczas dla

dowolnego zdarzenia A

P (A) =

X

i∈I

P (A/A

i

)P (A

i

)

(1.16)

1.3

Zadania

Zadanie 1.1 Udowodnić (1.8) oraz (1.9).

Zadanie 1.2 Niech

1¬k¬n−1

, P (

k

\

l=1

A

l

) > 0.

(1.17)

Udowodnić, że

P (

n

\

l=1

A

l

) = P (A

n

/

n−1

\

l=1

A

l

) · P (A

n−1

/

n−2

\

l=1

A

l

) · . . . · P (A

2

/A

1

) · P (A

1

).

(1.18)

Zadanie 1.3 Jeżeli wiadomo, że

P (A/B) = P (B/A) ∧ P (A ∪ B) = 1 ∧ P (A ∩ B) > 0,

(1.19)

to dla jakich rzeczywistych a mamy P (A) > a ?

7

background image

Wykład 2

2002.10.08 / 2h

2.1

Wzór Beyasa

Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną. Niech card I ¬ ℵ

0

.

Twierdzenie 2.1 (Wzór Bayesa) Niech {A

i

: i ∈ I} ⊂ Σ będzie układem zupełnym. Wówczas dla dowolnego zdarzenia A

o niezerowym prawdopodobieństwie i dowolnego i

0

∈ I

P (A

i

0

/A) =

P (A/A

i

0

)P (A

i

0

)

P

i∈I

P (A/A

i

)P (A

i

)

(2.1)

2.2

Zdarzenia niezależne

Niech (Ω, Σ, P ) będzie ustaloną przestrzenią probabilistyczną.

Definicja 2.1 Mówimy, że zdarzenia A, B z tej przestrzeni są niezależne wtedy i tylko wtedy, gdy

P (A ∩ B) = P (A) · P (B)

(2.2)

Stwierdzenie 2.1 Niech A, B ∈ Σ oraz P (B) 6= 0. Zdarzenia A, B są niezależne wtedy i tylko wtedy, gdy

P (A/B) = P (A)

(2.3)

Dany jest układ zdarzeń {A

1

, . . . , A

n

} ⊂ Σ.

Definicja 2.2 Mówimy, że zdarzenia A

1

, . . . , A

n

są niezależne zespołowo wtedy i tylko wtedy, gdy

1¬k¬n

1¬i

1

<...<i

k

¬n

P

k

\

l=1

A

i

l

!

=

k

Y

l=1

P (A

i

l

)

(2.4)

Definicja 2.3 Mówimy, że zdarzenia A

1

, . . . , A

n

są parami niezależne wtedy i tylko wtedy, gdy

1¬i<j¬n

P (A

i

∩ A

j

) = P (A

i

) · P (A

j

)

(2.5)

Przyklad 2.1 Niech Ω = [0, 1]

2

oraz Σ = B([0, 1]

2

). Określamy zdarzenia następująco:

A ≡ B

def

= {(x, y) : x > y} ∩ [0, 1]

2

∧ C

def

=



(x, y) : x <

1

2



∩ [0, 1]

2

(2.6)

Wówczas P (A ∩ B ∩ C) = P (A)P (B)P (C), ale układ nie jest układem zdarzeń niezależnych i parami niezaleznych.

Twierdzenie 2.2 Każdy układ zdarzeń niezależnych jest układem zdarzeń parami niezależnych.

Przyklad 2.2 Na czworościennej kostce (czworościan foremny) napisano na trzech ścianach dokładnie jeden raz jedną z

liczb 1, 2 i 3, zaś na czwartej ścianie je wszystkie. Określamy zdarzenia A

i

- wyrzucono liczbę i. Zdarzenia A

1

, A

2

, A

3

parami niezależne, ale nie są niezależne zespołowo.

8

background image

Twierdzenie 2.3 Istnieje układ zdarzeń parami niezależnych, który nie jest układem zdarzeń niezależnych.

Definicja 2.4 Dany jest układ zdarzeń {A

n

: n ­ 1} ⊂ Σ. Mówimy, że układ zdarzeń jest niezależny (inaczej układ zdarzeń

{A

n

: n ­ 1} jest układem zdarzeń niezależnych) wtedy i tylko wtedy, gdy dowolny skończony jego podukład jest układem

zdarzeń niezależnych

Twierdzenie 2.4 Zdarzenia rozłączne A i B są niezależne wtedy i tylko wtedy, gdy P (A) = 0 lub P (B) = 0.

Twierdzenie 2.5 Niech card I ¬ ℵ

0

. Niech A ∈ Σ oraz {A

i

: i ∈ I} ⊂ Σ i zdarzenia {A

i

: i ∈ I} są parami rozłączne.

Wtedy, o ile dla dowolnego i ∈ I niezależne są zdarzenia A i A

i

, to niezależne są zdarzenia A,

S

i∈I

A

i

.

Twierdzenie 2.6 Oznaczymy A

0

≡ A oraz A

1

≡ A

0

. Następujące warunki są równoważne

A

1

, . . . , A

n

niezależne

(2.7)

1

,...,ε

n

}∈{1,...,n}

{0,1}

B

1

= A

ε

1

1

, . . . , B

n

= A

ε

n

n

niezależne

(2.8)

1

,...,ε

n

}∈{1,...,n}

{0,1}

P

n

\

k=1

A

ε

k

k

!

=

n

Y

k=1

P (A

ε

k

k

)

(2.9)

Twierdzenie 2.7 Niech {A

1

, . . . , A

n

} ⊂ Σ będzie układem zdarzeń niezależnych. Wówczas

P

n

[

k=1

A

k

!

= 1 − P

n

\

k=1

A

0
k

!

= 1 −

n

Y

k=1

(1 − P (A

k

))

(2.10)

2.3

Zdarzenie zależne. Współczynnik korelacji zdarzeń

Niech (Ω, Σ, P ) będzie ustaloną przestrzenią probabilistyczną.

Definicja 2.5 Mówimy, że zdarzenia A, B są zależne wtedy i tylko wtedy, gdy

P (A ∩ B) 6= P (A) · P (B)

(2.11)

Inaczej mówimy, że nie są niezależne.

Definicja 2.6 Niech A, B ∈ Σ oraz P (A), P (B) ∈]0, 1[. Współczynnikiem korelacji zdarzeń A i B nazywamy liczbę wyrażoną

wzorem

ρ(A, B)

def

=

P (A ∩ B) − P (A)P (B)

pP (A)P (A

0

)P (B)P (B

0

)

(2.12)

Twierdzenie 2.8 Niech A, B ∈ Σ oraz P (A), P (B) ∈]0, 1[. Wtedy

ρ(A, B) = ρ(B, A)

(2.13)

ρ(A

0

, B) = ρ(A, B

0

) = −ρ(A, B)

(2.14)

ρ(A

0

, B

0

) = ρ(A, B)

(2.15)

ρ(A, B) = 0 ⇔ A, B niezależne

(2.16)

ρ(A, A) = 1 ∧ ρ(A, A

0

) = −1

(2.17)

ρ(A, B) = 1 ⇒ P (A) = P (A ∩ B) = P (B) (≡ P (A ÷ B) = 0)

(2.18)

ρ(A, B) = −1 ⇒ P (A ∩ B) = 0

(2.19)

|ρ(A, B)| ¬ 1

(2.20)

2.4

Prawdopodobieństwo geometryczne. Paradoks Bertranda

Definicja 2.7 Niech Ω będzie takie, że card Ω = ℵ

0

oraz miech Σ = 2

X

. Przyporządkujmy dowolnemu elementowi ω ∈ Ω

nieujemną liczbę p

ω

następująco P ({ω}) = p

ω

, gdzie

P

ω∈Ω

p

ω

= 1. Wówczas (Ω, Σ, P ) jest przestrzenią probabilistyczną

przeliczalną.

9

background image

Uwaga 2.1 Takie przyporządkowanie jest możliwe wyłącznie dla zbioru przeliczalnego. Jest to uogólnienie prawdopodobień-

stwa ze zbioru skończonego.

W przypadku zbiorów nieprzeliczalnych dochodzi trudność z określeniem przestrzeni, jak i miary probabilistycznej na tej

przestrzeni.

Przyklad 2.3 (Paradoks Bertranda) Dane jest koło o promieniu r > 0, Na kole wybieramy losowo cięciwę. Jakie jest

prawdopodobieństwo, że będzie miała ona długość większą od długości boku trójkąta równobocznego wpisanego w brzeg tego

koła (okrąg) ?

Rozważyć następujące wybory:

(i) położenie środka cięciwy na kole;

(ii) ustalony kierunek cięciwy;

(iii) ustalony jeden z końców cięciwy.

2.5

Zadania

Zadanie 2.1 Udowodnić, że dla dowolnych niezależnych zdarzeń A, B niezależne są zdarzenia B i A.

Zadanie 2.2 Udowodnić, że dla dowolnych niezależnych zdarzeń A, B niezależne są zdarzenia A, B

0

.

Zadanie 2.3 Udowodnić, że dla dowolnych niezależnych zdarzeń A, B niezależne są zdarzenia A

0

, B

0

.

Zadanie 2.4 Udowodnić, że dla dowolnego zdarzenia A niezależne są zdarzenia A, ∅ oraz A, Ω.

Zadanie 2.5 Udowodnić, że dowolne zdarzenia A, B takie, że P (A) = 0 lub P (A) = 1 są niezależne.

Zadanie 2.6 Udowodnić twierdzenie 2.6.

Zadanie 2.7 Udowodnić warunki (2.13 – 2.17) twierdzenia 2.8.

Zadanie 2.8 Niech P (A/B) = P (A/B

0

) oraz P (B) > 0, P (B

0

) > 0. Udowodnić, że zdarzenia A, B są niezależne.

Zadanie 2.9 Niech A ⊆ B, A i C oraz B i C są zdarzeniami niezależnymi. Udowodnić, że zdarzenia B \ A i C są również

niezależne.

Zadanie 2.10 W czterech następnych zadaniach mamy Ω =]0, 1], a P jest miarą na ]0,1] generowaną przez długość (tzn.

mamy doczynienia z przestrzenią probabilistyczną (]0, 1], B(]0, 1]), P

L

)).

Podać przykład zdarzeń niezależnych A

1

, A

2

takich, że P (A

1

) = P (A

2

) =

2
3

.

Zadanie 2.11 Podać przykład zdarzeń niezależnych A

1

, A

2

, A

3

takich, że P (A

1

) = P (A

2

) = P (A

3

) =

1
2

.

Zadanie 2.12 Podać przykład zdarzeń niezależnych A

1

, A

2

, . . . , A

n

takich, że P (A

1

) = P (A

2

) = . . . = P (A

3

) =

1
2

.

Zadanie 2.13 Podać przykład nieskończonego przeliczalnego układu zdarzeń niezależnych.

Zadanie 2.14 Czy prawdziwe jest zdanie: Jeśli dwa zdarzenia wykluczają się, to są one zależne ?. Odpowiedź uzasadnij tzn. w

przypadku pozytywnej, przeprowadź dowód zaś w przypadku negatywnej podaj kontrprzykład, ponadto podaj w tym przypadku,

o ile istnieją, warunki wystarczające, aby zdanie było prawdzie.

10

background image

Wykład 3

2002.10.15 / 2h

3.1

Schemat Bernoulliego i jego uogólnienia. Schematy urnowe

Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną. Istniej miara probabilistyczna – prawdopodobieństwo w przestrzeni

produktowej (Ω

n

, σa(Σ

n

), P

n

), gdzie X

n

jest n krotnym produktem kartezjańskim X, zaś σa(Σ

n

) jest najmniejszym σ -

ciałem podzbiorów Ω

n

zawierającym Σ

n

.

Twierdzenie 3.1 (Schemat Bernoulliego.) Jeżeli przeprowadzono n jednakowych i niezależnych prób, gdzie zdarzenie A

mogło pojawić się w pojedynczej próbie z prawdopodobieństwem p, to prawdopodobieństwo że zaszło ono dokładnie w k próbach

(0 ¬ k ¬ n) wynosi

n

k



p

k

(1 − p)

n−k

(3.1)

Uwaga 3.1 n identycznych prób będziemy nazywać serią (długości n).

Twierdzenie 3.2 (Uogólniony schemat Bernoulliego.) Jeżeli przeprowadzono n jednakowych i niezależnych prób, gdzie

w pojedynczej próbie mogły pojawić się dokładnie jedno ze zdarzeń A

1

, . . . , A

r

z prawdopodobieństwem równym odpowiednio

p

1

, . . . p

r

, gdzie

r

P

i=1

p

i

= 1, to prawdopodobieństwo że każde zdarzenie A

i

zaszło dokładnie n

i

- razy (0 ¬ n

i

¬ n), gdzie

i = 1, . . . , r i

P

i=r

n

i

= n wynosi

n!

n

1

! · · · n

r

!

r

Y

i=1

p

n

i

i

(3.2)

Twierdzenie 3.3 (Zagadnienie Poissona.) Przeprowadzamy ciąg serii doświadczeń według schematu Bernoulliego tak,

aby w poszczególnych seriach liczb doświadczeń wzrastała do nieskończoności, a jednocześnie prawdopodobieństwo sukcesu p

n

dążyło do zera, przy czym np

n

= λ było stałe. Jeżeli oznaczymy przez A

n,k

zdarzenie, że w n - tej serii otrzymano dokładnie

k sukcesów, to

lim

n→∞

P (A

n,k

) = e

−λ

λ

k

k!

(3.3)

Twierdzenie 3.4 (Zagadnienie Pascala.) Jeżeli przeprowadzono n prób według schematu Bernoulliego, to prawdopodo-

bieństwo że do uzyskania k sukcesów będzie potrzebnych dokładnie n prób wynosi

n − 1

k − 1



p

k

(1 − p)

n−k

(3.4)

3.2

Jednowymiarowe zmienne losowe

Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną. Rozważmy (R, B(R)), gdzie B(R) jest rodzina zbiorów borelowskich.

Definicja 3.1 Jednowymiarową zmienną losową nazywamy każde odwzorowanie X: Ω → R takie, że

B∈B(R)

X

−1

(B) ∈ Σ.

(3.5)

11

background image

Twierdzenie 3.5 Jeżeli odwzorowanie X : Ω → R jest zmienną losową wtedy i tylko wtedy, gdy

t∈R

X

−1

((−∞, t]) ∈ Σ.

(3.6)

Uwaga 3.2 Warunek (3.6) można zapisać w postaci

t∈R

{ω : X(ω) ¬ t} ∈ Σ.

Definicja 3.2 Rozkładem prawdopodobieństwa zmiennej losowej X nazywamy indukowane odwzorowanie µ

X

: R → R takie,

że

B∈B(R)

µ

X

(B) = P (X

−1

(B)),

(3.7)

które jest nieujemny, przeliczalnie addytywne oraz spełnia warunek µ

X

(R) = 1.

Uwaga 3.3 Będziemy pomijać indeks X, jeżli będzie wiadomo o jakiej zmiennej mówimy.

Definicja 3.3 Dystrybuantą jednowymiarowej zmienne losowej nazywamy funkcję F

X

: R → R określoną wzorem

F

X

(t)

def

= P (X ¬ t)

(3.8)

Twierdzenie 3.6 (Własności dystrybuanty) Niech F będzie dystrybuantą jednowymiarowej zmiennej losowej X. Wów-

czas

(i) F jest funkcją niemalejącą.

(ii) F jest funkcją prawostronnie ciągłą.

(iii)

lim

x→+∞

F (x) = 1.

(iv)

lim

x→−∞

F (x) = 0.

Wniosek 3.1 Dystrybuanta ma co najwyżej przeliczalną ilość punktów nieciągłości.

Twierdzenie 3.7 Jeżeli funkcja F spełnia warunki (i)– (iv) twierdzenia (3.6), to jest dystrybuantą pewnego rozkładu.

Definicja 3.4 Mówimy, że zmienna losowa X ma rozkład ciągły wtedy i tylko wtedy, gdy istnieje funkcja borelowska

1

f : R →

R taka, że

t∈R

F (t) =

Z

t

−∞

f (r)dr.

(3.9)

Definicja 3.5 Jeżeli dla rozkładu prawdopodobieństwa na R

n

µ istnieje gęstość, to taki rozkład nazywamy ciągłym.

3.3

Zadania

Zadanie 3.1 (Schemat urnowy Pólya.) Z urny o b białych i c czarnych kulach losujemy jedną kulę, którą zwracamy do

urny wykonując jeszcze dokładnie jedną z czynności

(i) dodajemy do urny s kul tego samego koloru, co wylosowana kula;

(ii) wyjmujemy z urny s kul tego samego koloru, co wylosowana kula;

(iii) nic nie robimy.

Obliczyć prawdopodobieństwo, że postępując tak n razy wylosujemy dokładnie k razy kulę białą. Kiedy rozwiązanie ma

niezerowe prawdopodobieństwo (dla jakich liczb b, c, s, n i k) ?

Zadanie 3.2 Udowodnić warunki (iii) – (iv) twierdzenia 3.6.

Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną oraz niech {A

n

: n ­ 1} ⊂ Σ.

1

Dodano w dniu 2002.10.22

12

background image

Zadanie 3.3 Udowodnić, że

ω∈Ω

ω ∈

\

n=1

[

m=n

A

m

⇔ ∃

(n

k

)∈R

N

(n

k

)-rosnący ∧ ∀

k∈N

ω ∈ A

n

k

!

ω∈Ω

ω ∈

[

n=1

\

m=n

A

m

⇔ ∃

k∈N

N3n­k

ω ∈ A

n

!

\

n=1

[

m=n

A

m

!

0

=

[

n=1

\

m=n

A

0
m

[

n=1

\

m=n

A

m

!

0

=

\

n=1

[

m=n

A

0
m

Zadanie 3.4 Udowodnić następujący lemat Borela - Cantelliego

X

n=1

P (A

n

) < +∞ ⇒ P (

\

n=1

[

m=n

A

m

) = 0

(3.10)

{A

n

: n ­ 1}-układ niezależny ∧

X

n=1

P (A

n

) = +∞ ⇒ P (

\

n=1

[

m=n

A

m

) = 1

(3.11)

Zadanie 3.5 W urnie znajduje się n jednakowych kul z numerami od 1 do n. Kule losujemy po jednej bez zwracania. Obliczyć

prawdopodobieństwo, że przynajmniej raz numer kuli będzie się zgadzał z numerem losowania.

Zadanie 3.6 W m różnych komórkach rozmieszczono n czerwonych i r zielonych kul, przy czym w każdej komórce może być

co najwyżej jedna kula n + r ¬ m. Ile jest takich rozmieszczeń, jeśli

• kule są nierozróżnialne;

• kule są rozróżnialne.

Zadanie 3.7 W sposób losowy ustawiono w ciąg m zer i n jedynek. Obliczyć prawdopodobieństwo zdarzenia, że ciąg rozpo-

czyna się dokładnie od k zer i kończy się dokładnie l jedynkami, jeśli k ¬ m i l ¬ n.

Zadanie 3.8 Dany jest odcinek [0, L] i punkt r należący do tego odcinka. Z odcinka losujemy dwa punkty x

1

, x

2

. Zmienna

losowa X przyjmuje wartość 1, gdy punkt r znajduje się miedzy wylosowanymi punktami oraz 0 w przeciwnym wypadku. Podać

rozkład zmiennej losowej X.

13

background image

Wykład 4

2002.10.22 / 2h

4.1

Uzupełnienia poprzedniego wykładu

Definicja 4.1 Funkcję ϕ : R → R nazywamy borelowską wtedy i tylko wtedy, gdy

A∈B(R)

ϕ

−1

(A) ∈ B(R)

(4.1)

W definicji podanej na wykładzie (definicja 3.4) o funkcji f powinno być założone, że jest borelowska.

Uwaga 4.1 Często zamiast mówić o konkretnej zmiennej losowej bedziemy mówili o rozkładach prawdopodobieństwa.

Definicja 4.2 Mówimy, że µ: R → R jest rozkładem prawdopodobieństwa na R wtedy i tylko wtedy, gdy

µ(R) = 1

µ ­ 0

{A

n

:n­1}⊂B(R)

(∀

n,k∈N

n 6= k ⇒ A

n

∩ A

k

= ∅) ⇒ µ

+∞

[

n=1

A

n

!

=

+∞

X

n=1

µ(A

n

).

Definicja 4.3 Dystrybuantą rozkładu prawdopodobieństwa µ na R nazywamy funkcję F

µ

: R → R, określoną zależnością

F

µ

(t)

def

= µ((−∞, t]).

(4.2)

4.2

Jednowymiarowe zmienne losowe c.d.

Definicja 4.4 σ - ciałem generowanym przez jednowymiarową zmienną losową X, oznaczam przez σ(X), nazywamy naj-

mniejsze σ - ciało podzbiorów Ω zawarte w Σ, dla którego zachodzi warunek

A∈B(R)

X

−1

(A) ∈ σ(X).

(4.3)

Definicja 4.5 Rozkład prawdopodobieństwa µ na R nazywamy dyskretnym wtedy i tylko wtedy, gdy istnieje zbiór co najwyżej
przeliczalny

1

S ⊂ R dla którego µ(S) = 1.

Definicja 4.6 Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną, zaś X będzie jednowymiarową zmienną losową. Mówimy,

że zbiór W

X

jest zbiorem wartości zmiennej losowej X wtedy i tylko wtedy, gdy

A⊂R

A ∩ W

X

= ∅ ⇒ P ({ω : X(ω) ∈ A}) = 0.

(4.4)

Definicja 4.7 Zmienną losową nazywamy dyskretną wtedy i tylko wtedy, gdy jej zbiór wartości jest co najwyżej przeliczalny.

Definicja 4.8 Mówimy, że jednowymiarowa zmienna losowa ma rozkład osobliwy (względem miary Lebesgue’a) wtedy i tylko

wtedy, gdy nie jest dyskretna, a pochodna dystrybuanty prawie wszędzie równa jest zero.

1

Czyli skończony lub równoliczny ze zbiorem liczb naturalnych.

14

background image

Przyklad 4.1 Niech C będzie zbiorem Cantora. Niech

F (r) =

 0

dla r ¬ 0

1

dla r > 1

.

Jeżeli wyrzucaliśmy z odcinka jego środek to określamy na nim wartość F(r) jako średnią arytmetyczną wartości ”na pra-

wo i lewo na nim” (np. na odcinku ]

1
3

,

2
3

[ wynosi ona

1
2

. Otrzymana funkcja jest ciągła, niemalejąca oraz granica w plus

nieskończoności wynosi 1, zaś w minus nieskończoności 0. Jest ona dytrybuanta rozkładu Cantora.

Twierdzenie 4.1 (Lebesgue’a. Bez dowodu.) Każdą dystrybuanta jednowymiarowej zmiennej losowej X można jedno-

znacznie przedstawić jako kombinację wypukłą dystrybuant rozkładu dyskretnego, ciągłego i osobliwego tzn.

a,b,c­0

F

o

,F

c

,F

d

a + b + c = 1 ⇒ F = a · F

o

+ b · F

c

+ c · F

d

,

(4.5)

gdzie F

o

- dystrybuanta rozkładu osobliwego, F

c

- dystrybuanta rozkładu ciągłego, zaś F

d

- dystrybuanta rozkładu dyskretnego.

Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną.

Lemat 4.1 Niech X będzie jednowymiarową zmienną losową o dystrybuancie F. Niech Y=aX+b, gdzie a ∈ R \ {0} oraz
b ∈ R, ma dystrybuantę G. Wówczas

G(r) =

(

F

r−b

a



dla a > 0

1 − F

r−b

a

 − P {ω : X(ω) =

r−b

a

}



dla a < 0

(4.6)

Wniosek 4.1 Jeżeli spełnione są założenia lematu (4.1) oraz zmienna losowa X ma rozkład ciągły, to wówczas

G(r) =

(

F

r−b

a



dla a > 0

1 − F

r−b

a



dla a < 0

(4.7)

Wniosek 4.2 Jeżeli spełnione są założenia lematu (4.1) oraz f jest gęstością zmiennej losowej X, zaś g zmiennej losowej Y,

to

g(r) =

1

|a|

f (

r − b

a

)

(4.8)

Twierdzenie 4.2 Jeżeli zmienna losowa X ma rozkład ciągły o gęstości f i X(Ω) ⊂]a, b[, funkcja ϕ :]a, b[→ R jest funkcją
klasy C

1

(]a, b[) oraz ϕ

0

(x) 6= 0 dla dowolnego x ∈]a, b[, to zmienna losowa Y = ϕ(X) ma rozkład ciągły o gęstości

g(y) = f (ϕ

−1

(y))|(ϕ

−1

(y))

0

ϕ(]a,b[)

(y)

(4.9)

Twierdzenie 4.3 Niech zmienna losowa X ma rozkład ciągły o gęstości f. Niech X(Ω) ⊂ I =

n

S

k=1

[a

k

, b

k

], gdzie dla dowolnych

1 ¬ k < l ¬ n zachodzi ]a

k

, b

k

[∩]a

l

, b

l

[= ∅. Niech funkcja ϕ : I → R będzie funkcją klasy C

1

(]a

k

, b

k

[) oraz ϕ

0

(x) 6= 0 dla

dowolnego x ∈]a

k

, b

k

[ i dowolnego 1 ¬ k ¬ n, to zmienna losowa Y = ϕ(X) ma rozkład ciągły o gęstości

g(y) =

n

X

k=1

f (ϕ

−1

(y))|(ϕ

−1

(y))

0

ϕ(]a

k

,b

k

[)

(y)

(4.10)

Przyklad 4.2 Niech f

def

=

1
2

I

[−1,1]

, Funkcja ta jest gęstością. Niech φ(r) = r

2

. Oznaczmy przez g gęstość zmiennej losowej

Y = φ(X). Wtedy

g(y) = (f (−

y) + f (

y)) ·

1

2

y

I

[0,1]

(y).

4.3

Wartość oczekiwana zmiennej losowej

Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną.

Uwaga 4.2 Niech r ∈ R

+

. Wprowadzimy następujące oznaczenia

Z

|X|

r

dP < +∞ ⇔ X ∈ L

r

(Ω, Σ, P ) ≡ L

r

(Ω).

(4.11)

15

background image

Całkę występującą we wzorze (4.11) będziemy rozumieli w sposób następujący

Z

|X|

r

dP =

R

R

|x|

r

f (x)dx

X ma rozkład ciągły o gęstości f

P

n=1

|x

n

|

r

p

k

X ma rozkład dyskretny o zbiorze wartości W

X

,

(4.12)

gdzie p

k

= P ({ω : X(ω) = x

k

}).

Definicja 4.9 Niech dla jednowymiarowej zmiennej losowej X zachodzi X ∈ L

1

(Ω, Σ, P ). Wówczas wartością oczekiwaną

zmiennej losowej X nazywamy liczbę

E(X)

def

=

Z

XdP

(4.13)

4.4

Zadania

Zadanie 4.1 Udowodnić twierdzenie 4.3.

Zadanie 4.2 Wyznaczyć gęstość prawdopodobieństwa zmiennej losowej Y =

1
2

X

2

, gdzie zmienna losowa X ∈ N (0, 1).

Zadanie 4.3 Zmienna losowa X ma rozkład jednostajny na (−1, 1). Wyznaczyć gęstość zmiennej losowej Y = |X|.

Zadanie 4.4 Podać przykład dystrybuanty takiej, że zbiór punktów nieciągłości jest gęsty w R.

Zadanie 4.5 Mówimy, że zmienna losowa X ma rozkład symetryczny, jeśli zmienna −X posiada ten sam rozkład. Wyrazić

własność symetryczności ciągłej zmiennej losowej za pomocą jej dystrybuanty oraz gęstości.

Zadanie 4.6 Niech zmienna losowa X ma rozkład wykładniczy z parametrem 1, zaś [·] oznacza część całkowitą. Wyznaczyć

prawdopodobieństwo zdarzenia A = {ω : [X(ω)] ∈ N ∪ {0}}.

Zadanie 4.7 Niech zmienna losowa X ma rozkład wykładniczy z parametrem λ. Wyznaczyć rozkład zmiennej losowej

• Y = 2X − 1;

• Y =

X;

• Y = X

α

, α > 0;

• Y = αX, α > 0;

16

background image

Wykład 5

2002.10.29 / 2h

5.1

Parametry liczbowe rozkładów c.d.

Twierdzenie 5.1 (Własności wartości oczekiwanej)

1

Niech X i Y będą jednowymiarowymi zmiennymi losowymi. Załóżmy, że istnieją wartości oczekiwane X i Y. Wtedy

(i) Jeżeli X ­ 0, to E(X) ­ 0

(ii) |E(X)| ¬ E(|X|)

(iii) Dla dowolnych a, b ∈ R istnieje wartość oczekiwana zmiennej losowej aX + bY i wyraża się ona wzorem

E(aX + bY ) = aE(X) + bE(Y )

(5.1)

(iv) (Lemat Fatou) Dla dowolnego ciągu nieujemnych zmiennych losowych {X

n

: n ­ 1}

E(lim inf

n→∞

X

n

) ¬ lim inf

n→∞

E(X

n

)

(5.2)

(v) (Twierdzenie Lebesgue’a - Beppo Leviego) Dla dowolnego niemalejącego ciągu nieujemnych zmiennych losowych

{X

n

: n ­ 1} zachodzi

E( lim

n→∞

X

n

) = lim

n→∞

E(X

n

)

(5.3)

(vi) (Twierdzenie Lebesgue’a o zbieżności zmajoryzowanej) Jeżeli dla ciągu zmiennych losowych {X

n

: n ­ 1} istnieje

całkowalna zmienna losowa Z taka ,że

n∈N

|X

n

| ¬ Z,

to spełniona jest równość (5.3)

Wniosek 5.1 Jeżeli dla zmiennych losowych X

i

(i = 1, . . . , n) istnieją ich wartości oczekiwane, to

E(X

1

+ . . . + X

n

) = E(X

1

) + . . . + E(X

n

)

(5.4)

Wniosek 5.2 Jeśli zmienna losowa X ma rozkład dyskretny o zbiorze wartości W

X

, to wartość oczekiwana zmiennej losowej

ϕ(X) istnieje wtedy i tylko wtedy, gdy szereg

P

x∈W

X

|ϕ(x)|P ({x}) jest zbieżny. Ponadto wartość oczekiwana wyraża się wzorem

E(ϕ(X)) =

X

x∈W

X

ϕ(x)P ({x})

(5.5)

Przyklad 5.1 Zmienna losowa o gęstości

2

f (r) =

1

π

1

1 + r

2

(5.6)

nie posiada wartości oczekiwanej.

Przed podaniem uogólnienia wartośc oczekiwanej sformułujmy następujący lemat

1

Dowody własności (iv)–(vi) pomijamy. Można je znaleźć w książce J. Jakubowskiego i R. Sztencela

2

Jest to rozkład Cauchy’ego

17

background image

Lemat 5.1 (Dowód póżniej po nierówności H¨

oldera) Niech R 3 r ­ 1 oraz q ∈ [1, r]. Wtedy jeżeli jest skończona całka

R

|X|

r

dP , to jest skończona całka

R

|X|

q

dP .

Uwaga 5.1 Pojęcie wartości oczekiwanej można uogólnić zastępując warunek całkowalności innym.

Definicja 5.1 Niech R 3 r ­ 1, zaś a liczbą rzeczywistą, X jednowymiarową zmienną losową. Niech zmienna losowa X będzie
całkowalna z r - tą potęgą.

3

(i) Momentem zwykłym rzędu r względem liczby a zmiennej losowej X nazywamy liczbę równą

E((X − a)

r

)

def

=

Z

(X − a)

r

dP,

(5.7)

o ile wyrażenie występujące pod całką jest określone.

4

(ii) Momentem absolutnym rzędu r względem liczby a zmiennej losowej X nazywamy liczbę równą

E(|X − a|

r

)

def

=

Z

|X − a|

r

dP

(5.8)

(iii) Jeżeli a = 0, to są to momenty zwykłe lub absolutne rzędu r.

(iv) Jeżeli a = E(X) otrzymujemy momenty centralne rzędu r zwykłe i absolutne.

Definicja 5.2 Niech X ∈ L

2

(Ω). Liczbę D

2

(X) równą

D

2

(X)

def

= E((X − E(X))

2

)

(5.9)

nazywamy wariancją zmiennej losowej X.

Wniosek 5.3 Niech X ∈ L

2

(Ω). Wtedy D

2

(X) = E(X

2

) − (E(X))

2

.

Twierdzenie 5.2 Niech X ∈ L

2

(Ω). Wówczas

5

D

2

(X) ­ 0

(5.10)

a∈R

D

2

(aX) = a

2

D

2

(X)

(5.11)

a∈R

D

2

(X + a) = D

2

(X)

(5.12)

D

2

(X) = 0 ⇔ ∃

a∈R

P ({ω : X(ω) = a}) = 1

(5.13)

Wniosek 5.4 Niech X ∈ L

2

(Ω). Wtedy

|E(X)| ¬

p

E(X

2

)

(5.14)

Wniosek 5.5 Niech X ∈ L

2

(Ω). Wtedy

D

2

(X) = inf

a∈R

E((X − a)

2

)

(5.15)

Definicja 5.3 Niech X ∈ L

2

(Ω). Odchyleniem standardowym zmiennej losowej X nazywamy liczbę równą

σ(X) ≡ D(X) =

p

D

2

(X)

(5.16)

Definicja 5.4 Niech X ∈ L

1

(Ω). Odchyleniem przeciętnym zmiennej losowej X nazywamy liczbę równą

d(X)

def

=

Z

|X − E(X)|dP

(5.17)

Definicja 5.5 Niech X ∈ L

2

(Ω) oraz E(X) 6= 0. Współczynnikiem zmienności zmiennej losowej X nazywamy liczbę równą

ν

X

def

=

D(X)

E(X)

(5.18)

3

Nie trzeba zakładać, że całkowalna z r - tą potęgą jest zmienna X − a na podstawie lematu 5.1 i z faktu, że funkcja stała jest całkowalna

względem miary probabilistycznej.

4

Jest ono zawsze określone, gdy r ∈ N.

5

Równoważność warunku 5.13 zostanie pokazana później.

18

background image

Definicja 5.6 Niech EX ∈ L

3

(Ω) oraz D

2

(X) 6= 0. Współczynnikiem asymetrii (skośności) zmiennej losowej X nazywamy

liczbę równą

γ(X)

def

=

E((X − E(X))

3

)

(σ(X))

3

(5.19)

Definicja 5.7 Niech X ∈ L

1

(Ω) oraz 0 6= E(X). Wskaźnikiem nierównomierności zmiennej losowej X nazywamy liczbę

równą

H(X)

def

=

d(X)

E(X)

(5.20)

5.2

Parametry pozycyjne rozkładów

Definicja 5.8 Niech p ∈]0, 1[. Kwantylem rzędu p nazywamy liczbę x

p

taką, że

P ({ω : X(ω) ¬ x

p

}) ­ p ∧ P ({ω : X(ω) ­ x

p

}) ­ 1 − p

(5.21)

Definicja 5.9 Medianą nazywamy kwantyl rzędu

1
2

i oznaczamy ją Me.

Definicja 5.10 Modą (dominantą) nazywamy w przypadku rozkładu dyskretnego wartość zmiennej losowej o największym

prawdopodobieństwie, zaś w przypadku rozkładu ciągłego każde maksimum lokalne gęstości.

Oznaczamy ją Mo.

Definicja 5.11 Odchyleniem ćwiartkowym

6

nazywamy liczbę

Q

def

=

x

3
4

− x

1
4

2

(5.22)

5.3

Zadania

Zadanie 5.1 Udowodnić, że jeśli X jest zmienną losową nieujemną, to

E(X) =

Z

+∞

0

(1 − F

X

(t))dt =

Z

+∞

0

P ({ω : X(ω) > t}) dt,

(5.23)

przy czym istnienie jednej ze stron implikuje istnienie drugiej i równość całek.

Zadanie 5.2 Podać przykład dystrybuanty takiej, że zbiór punktów nieciągłości jest gęsty w R.

Zadanie 5.3 Mówimy, że zmienna losowa X ma rozkład symetryczny, jeśli zmienna −X posiada ten sam rozkład. Wyrazić

własność symetryczności ciągłej zmiennej losowej za pomocą jej dystrybuanty oraz gęstości.

Zadanie 5.4 Niech zmienna losowa X ma rozkład wykładniczy z parametrem 1, zaś [·] oznacza część całkowitą. Wyznaczyć

prawdopodobieństwo zdarzenia A = {ω : [X(ω)] ∈ N ∪ {0}}.

6

Jest to parametr liczbowy

19

background image

Wykład 6

2002.11.05 / 2h

6.1

Przykłady jednowymiarowych rozkładów

Rozkłady dyskretne.

Przyklad 6.1 (Rozkład jednopunktowy.)

W

X

= {x

1

} i P ({x

1

}) = 1.

(6.1)

E(X) = x

1

D

2

(X) = 0

Przyklad 6.2 (Rozkład dwupunktowy.) Niech p ∈]0, 1[.

W

X

= {x

1

, x

2

} , x

1

6= x

2

, P ({x

1

}) = p, P ({x

2

}) = 1 − p.

(6.2)

W szczególnym przypadku, gdy x

1

= 0, zaś x

2

= 1 taki rozkład nazywamy rozkładem zero - jedynkowym.

E(X) = px

1

+ (1 − p)x

2

D

2

(X) = p(1 − p)(x

1

− x

2

)

2

Uwaga 6.1 Jeżeli zbiór wartości dyskretnego rozkładu X jest podzbiorem zbioru liczb naturalnych, to przyjmujemy następu-

jące oznaczenie

p

k

ozn

=

 P ({k})

dla k ∈ W

X

0

dla k /

∈ W

X

(6.3)

Przyklad 6.3 (Rozkład dwumianowy (Bernoulliego) z parametrami n i p.) Niech p ∈ [0, 1] oraz n ∈ N.

W

X

= {0, 1, . . . , n} , p

k

=

n

k



p

k

(1 − p)

n−k

(6.4)

E(X) = np

D

2

(X) = np(1 − p)

Przyklad 6.4 (Rozkład Poissona z parametrem λ.) Niech λ ∈ R

+

.

W

X

= {0} ∪ N, p

k

= e

−λ

λ

k

k!

(6.5)

E(X) = λ

D

2

(X) = λ

Przyklad 6.5 (Rozkład geometryczny z parametrem p.) Niech p ∈]0, 1[.

W

X

= N, p

k

= p(1 − p)

k−1

.

(6.6)

E(X) =

1
p

D

2

(X) =

1−p

p

2

Przyklad 6.6 (Rozkład ujemny dwumianowy z parametrami p,α.) Niech p ∈]0, 1[ oraz α > 0.

W

X

= {0} ∪ N, p

k

=

α + k − 1

k



p

α

(1 − p)

k

.

(6.7)

E(X) =

α(1−p)

p

D

2

(X) =

α(1−p)

p

2

20

background image

Przyklad 6.7 (Rozkład Pascala z parametrem p.)

1

W

X

= {k, k + 1, . . .} , p

l

=

 l − 1

k − 1



p

k

(1 − p)

l−k

.

(6.8)

Lub inaczej

W

X

= {0} ∪ N, p

l

=

l + k − 1

k − 1



p

k

(1 − p)

l

.

(6.9)

E(X) =

k(1−p)

p

D

2

(X) =

k(1−p)

p

2

Przyklad 6.8 (Rozkład hipergeometryczny z parametrami a, b, n.) Niech a + b > n oraz a ­ n i b ­ n.

W

X

= {0, 1, . . . , n} , p

k

=

a
k



b

n−k



a+b

n



.

(6.10)

E(X) =

an

a+b

D

2

(X) =

abn(a+b−n)

(a+b)

2

(a+b−1)

Rozkłady ciągłe.

Przyklad 6.9 (Rozkład ciągły na odcinku ]a, b[.) Niech a, b ∈ R oraz a < b

f (r)

def

=



1

b−1

dla r ∈]a, b[

0

dla r /

∈]a, b[

(6.11)

E(X) =

a+b

2

D

2

(X) =

(b−a)

2

12

Przyklad 6.10 (Rozkład wykładniczy z parametrem λ.) Niech λ ∈ R

+

f (r)

def

= λe

−λr

χ

]0,∞[

(r) ≡

 λe

−λr

dla r > 0

0

dla r ¬ 0

(6.12)

E(X) =

1

λ

D

2

(X) =

1

λ

2

Przyklad 6.11 (Rozkład Laplace’a z parametrem λ.) Niech λ ∈ R

+

f (r)

def

=

1

2

λe

−λ|r|

(6.13)

E(X) = 0

D

2

(X) =

2

λ

2

Przyklad 6.12 (Rozkład Cauchy’ego z parametrami a, b.) Niech a ∈ R oraz b ∈ R

+

f (r)

def

=

1

π

b

b

2

+ (r − a)

2

(6.14)

Nie posiada wartości oczekiwanej, a więc i wariancji.

Przyklad 6.13 (Rozkład normalny (Gaussa) z parametrami m, σ.) Niech m ∈ R oraz σ ∈ R

+

f (r)

def

=

1

2πσ

exp



(r − m)

2

2



(6.15)

E(X) = m

D

2

(X) = σ

2

Definicja 6.1 Funkcję dla p > 0

Γ(p)

def

=

+∞

Z

0

x

p−1

e

−x

dx

(6.16)

nazywamy funkcją gamma (całką Eulera II rodzaju)

1

Jest to szczegónly przypadek rozkładu ujemnego dwumianowego.

21

background image

Definicja 6.2 Funkcję dla p, q > 0

β(p, q)

def

=

1

Z

0

x

p−1

(1 − x)

q−1

dx

(6.17)

nazywamy funkcją beta (całką Eulera I rodzaju)

Przyklad 6.14 (Rozkład gamma z parametrami b, p.) Niech b, p ∈ R

+

f (r)

def

=

b

p

Γ(p)

x

p−1

e

−br

χ

]0,+∞[

(r)

(6.18)

E(X) =

p

b

D

2

(X) =

p

b

2

Przyklad 6.15 (Rozkład beta z parametrami p, q.) Niech p, q ∈ R

+

f (r)

def

=

1

β(p, q)

x

p−1

(1 − x)

q−1

χ

[0,1]

(r)

(6.19)

E(X) =

p

p+q

D

2

(X) =

pq

(p+q)

2

(p+q+1)

Lemat 6.1 (Obowiązuje znajomość powyższych faktów.) Niech p > 0. Wówczas

Γ(p + 1) = pΓ(p)

(6.20)

Γ(1) = 1

(6.21)

Γ(n + 1) = n!

(6.22)

Lemat 6.2 (Obowiązuje znajomość powyższych faktów.) Niech p, q > 0. Wówczas

β(p, q) = β(q, p)

(6.23)

β(p, q) =

q − 1

p + q − 1

β(p, q − 1)

(6.24)

β(p, 1) =

1

p

(6.25)

β(p, n) =

n − 1

p + n − 1

β(p, n − 1) =

(n − 1)!

(p + n − 1) · . . . · (p + 1)

β(p, 1)

(6.26)

β(m, n) =

(n − 1)!(m − 1)!

(m + n − 1)!

=

Γ(n)Γ(m)

Γ(m + n)

(6.27)

6.2

Nierówność dla zmiennych losowych

Twierdzenie 6.1 (Nierówność Schwarza) Niech X, Y ∈ L

2

(Ω). Wówczas zmienna losowa XY ∈ L

1

(Ω) oraz

E(|XY |) ¬

p

E(X

2

)E(Y

2

)

(6.28)

Wniosek 6.1 Niech X, Y ∈ L

2

(Ω). Wówczas

|E(XY )| ¬

p

E(X

2

)E(Y

2

)

(6.29)

Twierdzenie 6.2 (Nierówność Jensena) Niech X ∈ L

1

(Ω). Wówczas dla dowolnej funkcji wypukłej φ: R → R takiej, że

φ(X) ∈ L

1

(Ω) zachodzi

φ(E(X)) ¬ E(φ(X))

(6.30)

6.3

Zadania

Zadanie 6.1 Policzyć wszystkie wartośc oczekiwane oraz wariancje rozkładów podanych na wykładzie.

22

background image

Wykład 7

2002.11.12 / 2h

7.1

Nierówność dla zmiennych losowych c.d.

Twierdzenie 7.1 (Nierówność H¨

oldera) Niech R 3 p > 1 oraz R 3 q > 1 oraz p

−1

+ q

−1

= 1. Niech X ∈ L

p

(Ω) oraz

Y ∈ L

q

(Ω). Wówczas zmienna losowa XY ∈ L

1

(Ω) oraz

E(|XY |) ¬ (E(|X|

p

))

1
p

(E(|Y |

q

))

1
q

(7.1)

Twierdzenie 7.2 (Nierówność Czebyszewa) Niech zmienna losowa X będzie nieujemna.

1

Wówczas

ε>0

P ({ω : X(ω) ­ ε}) ¬

E(X)

ε

(7.2)

Definicja 7.1 Dana jest zmienna losowa X. Supremum istotnym zmiennej losowej nazywamy

esssup X

def

=

inf

E∈Σ:P (E)=0

sup

ω∈Ω\E

{|X(ω)}

(7.3)

Uwaga 7.1 Warunek definicji 7.3 może być zapisany następująco

esssup X

def

= inf

t∈R

{F

X

(t) = 1}

(7.4)

Twierdzenie 7.3 (Uogólniona nierówność Czebyszewa) Niech φ: R → R będzie dodatnią funkcją borelowską. Jeżeli
φ(X) ∈ L

1

(Ω) to wówczas:

(i) Jeżeli φ jest niemalejąca, to

ε>0

E(φ(X)) − φ(ε)

esssup φ(X)

¬ P ({ω : X(ω) ­ ε}) ¬

E(φ(X))

φ(ε)

(7.5)

(ii) Jeżeli φ jest parzysta i niemalejąca na [0, +∞[, to

ε>0

E(φ(X)) − φ(ε)

esssup φ(X)

¬ P ({ω : |X(ω)| ­ ε}) ¬

E(φ(X))

φ(ε)

(7.6)

Uwaga 7.2 Można osłabić założenia o funkcji φ w twierdzeniu 7.3(ii) następująco

Jeżeli φ: R → R jest funkcją nieujemną, parzystą, φ 6≡ 0 oraz niemalejącą na ]0, +∞[, to

ε>0

φ(ε) > 0 ⇒

E(g(X)) − g(ε)

esssup φ(X)

¬ P ({ω : |X(ω)| ­ ε}) ¬

E(φ(X))

φ(ε)

(7.7)

Wniosek 7.1 (Nierówność Markowa) Niech R 3 p > 0. Wówczas o ile X ∈ L

p

(Ω), to

ε>0

P ({ω : |X(ω)| ­ ε}) ¬

E(|X|

p

)

ε

p

(7.8)

Wniosek 7.2 (Nierówność Czebyszewa - Bienaym´

e) O ile X ∈ L

2

(Ω), to

ε>0

P ({ω : |X(ω) − E(X)| ­ ε}) ¬

D

2

(X)

ε

2

(7.9)

Wniosek 7.3 (Nierówność wykładnicza Czebyszewa) O ile dla pewnego p > 0 jest e

pX

∈ L

1

(Ω), to

λ∈[0,p]

ε>0

P ({ω : X(ω) ­ ε}) ¬

e

λX

)

e

λε

(7.10)

1

Obejmuje też przypadek ”trywialny”, gdy jest nieskończona wartość oczekiwana

23

background image

7.2

Niezależne zmienne losowe

Dana jest przestrzeń probabilistyczna (Ω, Σ, P ) oraz jednowymiarowe zmienne losowe X

1

, . . . , X

n

określone na niej.

Definicja 7.2 Mówimy, że zmienne losowe X

1

, . . . , X

n

są niezależne wtedy i tylko wtedy, gdy

{A

1

,...,A

n

}⊂B(R)

P ({ω : X

i

(ω) ∈ A

i

∧ i = 1, . . . , n}) =

n

Y

i=1

P ({ω : X

i

(ω) ∈ A

i

})

(7.11)

Twierdzenie 7.4 Dyskretne zmienne losowe X

1

, . . . , X

n

są niezależne wtedy i tylko wtedy, gdy

(a

1

,...,a

n

)⊂(W

X1

×...×W

Xn

)

{1,...,n}

P ({ω : X

i

(ω) = x

i

∧ i = 1, . . . , n}) =

n

Y

i=1

P ({ω : X

i

(ω) = x

i

})

(7.12)

7.3

Funkcje tworzące prawdopodobieństwa i reszt

Definicja 7.3 Niech dany będzie ciąg liczbowy (a

n

). Funkcja tworzącą ciągu (a

n

) nazywamy szereg potęgowy

T (s)

def

=

X

n=1

a

n

s

n

,

o ile ma on niezerowy promień zbieżności.

Uwaga 7.3 Promień zbieżności szeregu potęgowego jest niezerowy wtedy i tylko wtedy, gdy lim sup

n→∞

n

p|a

n

| < +∞.

Niech dana będzie przestrzeń probabilistyczna (Ω, Σ, P ). Niech dyskretna zmienna losowa X, dla której W

X

⊆ {0} ∪ N,

będzie określona na tej przestrzeni. Przyjmijmy oznaczenia

p

k

ozn

= P ({ω : X(ω) = k})

oraz

q

k

ozn

= P ({ω : X(ω) > k}) =

X

n=k+1

p

n

.

Definicja 7.4 Funkcję tworzącą ciągu (p

n

) nazywamy funkcją tworzącą prawdopodobieństwa i oznaczamy ją P (s).

Funkcję tworzącą ciągu (q

n

) nazywamy funkcją tworzącą reszt (ogonów) i oznaczamy ją Q(s).

Uwaga 7.4 Zauważmy, że P (s) = E(s

X

).

Lemat 7.1 P (1) = 1

Twierdzenie 7.5 Niech X ∈ L

1

(Ω). Wówczas

(i) Q(s) jest bezwzględnie zbieżny dla |s| ¬ 1

(ii) P

0

(s) jest bezwzględnie zbieżny dla |s| ¬ 1

(iii) E(X) = Q(1)

(iv) E(X) = P

0

(1)

7.4

Zadania

Zadanie 7.1 Udowodnić twierdzenie 7.5.

Zadanie 7.2 Przeprowadzono n niezależnych doświadczeń o prawdopodobieństwie sukcesu w k - tym doświadczeniu równym

p

k

, k = 0, 1, . . . , n. Rozpatrujemy funkcję g(s) =



1 −

n

Q

k=1

(p

k

s + q

k

)



(1 − s)

−1

. Dowieść, że współczynnik przy s

m

w funkcji

g jest równy prawdopodobieństwu uzyskania więcej niż m sukcesów, m = 0, 1, . . . , n − 1.

Zadanie 7.3 Rozpatrujemy schemat Bernoulliego z ilością doświadczeń n i prawdopodobieństwem sukcesu w pojedynczym

doświadczeniu p. Dowieść, że współczynnik przy s

k

w funkcji g(s) = (1 − (ps + q)

n

) (1 − s)

−1

jest równy prawdopodobieństwu

uzyskania więcej niż k sukcesów, k = 0, 1, . . . , n − 1.

24

background image

Zadanie 7.4 Wyznaczyć rozkład zmiennej losowej X o wartościach całkowitych nieujemnych, jeśli jej funkcja tworząca

prawdopodobieństwa zadana jest wzorem

• g(s) =

1−4α

2

(1−4α

2

)s

2

−4s+4

, |α| <

1
2

;

• g(s) =

2s

18−27s+13s

2

−2s

3

;

• g(s) =

cosh λ

s

cosh λ

;

Wskazówka: Rozłożyć na ułamki proste.

Zadanie 7.5 Niech p

k

= 0 dla k ¬ 0 i p

k

=

ba

k

k

dla k ∈ N, gdzie 0 < a < 1. Dla jakiej wartości b ciąg {p

k

} jest rozkładem

prawdopodobieństwa. Wyznaczyć dla niej funkcje tworzącą, wartość oczekiwaną i wariancję.

Zadanie 7.6 Niech zmienna losowa X ma rozkład Poissona z parametrem λ. Wyznaczyć funkcję tworzącą prawdopodobień-

stwa.

25

background image

Wykład 8

2002.11.19 / 2h

8.1

Własności funkcji tworzących prawdopodobieństwa i reszt

Twierdzenie 8.1 (i) Jeżeli |s| < 1, to Q(s) =

1−P (s)

1−s

(ii) Jeżeli X ∈ L

1

(Ω), to dla |s| ¬ 1 mamy (1 − s)Q(s) = 1 − P (s).

Twierdzenie 8.2 Jeżeli X ∈ L

1

(Ω), to P

0

(s) = Q(s) − (1 − s)Q

0

(s).

Twierdzenie 8.3 Jeżeli X ∈ L

2

(Ω), to P

(2)

(s) = 2Q

0

(s) + (1 − s)Q

(2)

(s).

Wniosek 8.1 Jeżeli X ∈ L

2

(Ω), to

D

2

(X) = P

(2)

(1) + P

0

(1) − (P

0

(1))

2

= 2Q

0

(1) + Q(1) − (Q(1))

2

.

8.2

Zbieżności zmiennych losowych

Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną oraz {X

n

: n ­ 1} ciągiem zmiennych losowych określonych na tej

przestrzeni.

Definicja 8.1 Mówimy, że ciąg {X

n

: n ­ 1} zmiennych losowych jest zbieżny do zmiennej losowej X

(i) prawie na pewna wtedy i tylko wtedy, gdy

P



{ω : lim

n→∞

X

n

(ω) = X(ω)}



= 1

(8.1)

oznaczamy X

n

p.n.

−→ X;

(ii) według prawdopodobieństwa wtedy i tylko wtedy, gdy

ε>0

lim

n→∞

P ({ω : |X

n

(ω) − X(ω)| > ε}) = 0

(8.2)

oznaczamy X

n

P

−→ X;

(iii) według p - tego momentu dla 0 < p < +∞ wtedy i tylko wtedy, gdy

X ∈ L

p

(Ω) ∧ ∀

n∈N

X

n

∈ L

p

(Ω) ∧ lim

n→∞

E(|X

n

− X|

p

) = 0

(8.3)

oznaczamy X

n

L

p

−→ X.

Twierdzenie 8.4 Niech X

n

p.n.

−→ X oraz Y

n

p.n.

−→ Y . Wówczas

(i) dla dowolnych a, b ∈ R zachodzi aX

n

+ bY

n

p.n

−→ aX + bY

(ii) X

n

Y

n

p.n

−→ XY

(iii) jeśli P ({ω : X(ω) 6= 0}) = 1, to χ

{ω:X(ω)6=0}

1

X

n

p.n

−→

1

X

26

background image

Twierdzenie 8.5 Następujące warunki są równoważne

X

n

p.n.

−→ X

(8.4)

ε>0

lim

n→∞

P

\

k=n

{ω : |X

k

(ω) − X(ω)| ¬ ε}

!

= 1

(8.5)

ε>0

lim

n→∞

P

[

k=n

{ω : |X

k

(ω) − X(ω)| > ε}

!

= 0

(8.6)

ε>0

lim

n→∞

P

\

k,l­n

{ω : |X

k

(ω) − X

l

(ω)| ¬ ε}

= 1

(8.7)

Wniosek 8.2 Jeśli

ε>0

X

n=1

P ({ω : |X

n

(ω) − X(ω)| > ε}) < ∞,

to X

n

p.n.

−→ X.

Wniosek 8.3 Jeśli X

n

p.n.

−→ X, to X

n

P

−→ X.

Twierdzenie 8.6 Jeśli X

n

L

p

−→ X, to X

n

P

−→ X. Gdy dodatkowo ∃

K

n­1

|X

n

| ¬ K, to jeśli X

n

P

−→ X, to X

n

L

p

−→ X.

8.3

Zadania

Zadanie 8.1 Udowodnić, że równoważność warunku (8.7) twierdzenia 8.5.

27

background image

Wykład 9

2002.11.26 / 2h

9.1

Zbieżności zmiennych losowych c.d.

Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną oraz {X

n

: n ­ 1} ciągiem zmiennych losowych określonych na tej

przestrzeni.

Twierdzenie 9.1 Niech X

n

p.n.

−→ X i niech istnieje R 3 p > 0 oraz zmienna losowa Z taka, że

(i) ∀

n∈N

|X

n

|

p

¬ Z

p

(ii) E(Z

p

) < +∞.

Wtedy X

n

L

p

−→ X.

Twierdzenie 9.2 Niech p ­ 1 oraz X

n

L

p

−→ X. Wtedy dla dowolnego q ∈ [1, p] zachodzi X

n

L

q

−→ X.

Przyklad 9.1 Niech dany będzie ciąg {A

n

: n ­ 1} zdarzeń niezależnych takich, że

(i)

P

n=1

P (A

n

) = +∞,

(ii) lim

n→∞

P (A

n

) = 0.

Wtedy dla ciągu zmiennych losowych (X

n

= χ

A

n

) zachodzi

(1) X

n

L

p

−→ 0;

(2) X

n

P

−→ 0

oraz nie zachodzi X

n

p.n.

−→ 0.

Przyklad 9.2 Niech Ω =]0, 1] i A

n

def

= ]0,

1

n

] dla n ∈ N. Wtedy dla ciągu zmiennych losowych (X

n

= 2

n

χ

A

n

) zachodzi

(1) X

n

p.n.

−→ 0;

(2) X

n

P

−→ 0

oraz nie zachodzi X

n

L

p

−→ 0.

Twierdzenie 9.3 (Twierdzenie Riesza) Jeśli X

n

P

−→ X, to, to istnieje podciąg (X

n

k

) taki, że X

n

k

p.n.

−→ X.

Twierdzenie 9.4 Ciąg zmiennych losowych jest zbieżny według prawdopodobieństwa wtedy i tylko wtedy, gdy każdy jego

podciąg zawiera podciąg zbieżny prawie na pewno.

Wniosek 9.1 Niech X

n

P

−→ X, f będzie funkcją ciągłą na zbiorze A oraz P ({ω : X(ω) ∈ A}) = 1, to f (X

n

)

P

−→ f (X)

Twierdzenie 9.5 Niech X

n

P

−→ X oraz Y

n

P

−→ Y . Wówczas

(i) dla dowolnych a, b ∈ R zachodzi aX

n

+ bY

n

P

−→ aX + bY

(ii) X

n

Y

n

P

−→ XY

(iii) jeśli P ({ω : X(ω) 6= 0}) = 1, to χ

{ω:X(ω)6=0}

1

X

n

P

−→

1

X

28

background image

Twierdzenie 9.6 Następujące warunki są równoważne

X

n

P

−→ X

(9.1)

p>0

lim

n→∞

E



|X

n

− X|

p

1 + |X

n

− X|

p



= 0

(9.2)

p>0

lim

n→∞

E



|X

n

− X|

p

1 + |X

n

− X|

p



= 0

(9.3)

9.2

Prawo 0 – 1 Kołmogorowa

Niech X 6= ∅, ∅ 6= H ⊂ 2

X

.

Definicja 9.1 σ - ciałem generowanym przez rodzinę H nazywamy najmniejsze σ - ciało zawierające rodzinę H. Oznaczamy

je przez σa(H).

Niech dana będzie przestrzeń probabilistyczna (Ω, Σ, P ). Rozpatrzmy ciąg σ - ciał {Σ

n

: n ­ 1}

Definicja 9.2

Σ

n,∞

def

= σa

[

k=n

Σ

n

!

(9.4)

σ - ciałem ogonowym lub resztowym nazywamy σ - ciało Σ

równe

Σ

def

=

\

n=1

Σ

n,∞

(9.5)

Wniosek 9.2

Σ

n,∞

⊇ Σ

n+1,∞

(9.6)

Twierdzenie 9.7 (Prawo 0 – 1 Kołmogorowa) Jeżeli σ - ciała Σ

n

n ∈ N są niezależne oraz A ∈ Σ

, to wówczas

P (A) = 0 albo P (A) = 1.

9.3

Zadania

Zadanie 9.1 Udowodnic twierdzenie 9.6 korzystając z uogólnionej nierówności Czebyszewa dla funkcji parzystej g(x) =

|x|

p

1+|x|

p

.

29

background image

Wykład 10

2002.12.03 / 2h

10.1

Nierówności typu Czebyszewa dla sum zmiennych losowych

Definicja 10.1 Niech {Ξ

i

: i ∈ I} będzie rodziną zbiorów zdarzeń. Ξ

i

są niezależne wtedy i tylko wtedy, gdy

J ⊂I

j∈J

A

j

∈Ξ

j

card J < ℵ

0

⇒ P (

\

j∈J

A

j

) =

Y

j∈J

P (A

j

)

(10.1)

Wniosek 10.1 Dany jest ciąg {X

n

: n ­ 1} niezależnych zmiennych losowych. Wówczas szereg

P

n=1

X

n

jest zbieżny bądź

rozbieżny prawie na pewno (z prawdopodobieństwem 1).

Niech (Ω, Σ, P ) będzie ustalona przestrzenią probabilistyczną, a {X

n

: n ­ 1} będzie niezależnym ciągiem zmiennych

losowych określonych na tej przestrzeni.

S

n

ozn

=

n

X

k=1

X

k

.

Twierdzenie 10.1 (Nierówność L´

evy’ego - Ottavianiego)

Niech X

1

, . . . , X

n

będą niezależnymi zmiennymi losowymi. Wówczas

ε>0

P



{ω : max

1¬i¬n

|S

i

(ω)| > ε}



¬ 3 max

1¬i¬n

P



{ω : |S

i

(ω)| >

ε

3

}



(10.2)

Jeżeli ponadto zmienne losowe mają rozkład symetryczny

1

, to

ε>0

P



{ω : max

1¬i¬n

|S

i

(ω)| > ε}



¬ 2P ({ω : |S

n

(ω)| > ε})

(10.3)

Twierdzenie 10.2 (Nierówność Kołmogorowa)

Niech X

1

, . . . , X

n

będą niezależnymi zmiennymi losowymi o zerowej wartości oczekiwanej i skończonym drugim momencie.

Wówczas

ε>0

P



{ω : max

1¬i¬n

|S

i

(ω)| ­ ε}



¬

E(S

2

n

)

ε

2

(10.4)

10.2

Zadania

1

Zmienna losowa X ma rozkład symetryczny wtedy i tylko wtedy, gdy X i −X mają ten sam rozkład

30

background image

Wykład 11

2002.12.10 / 2h

11.1

Zbieżności szeregów zmiennych losowych

Niech dany będzie ciąg {X

n

: n ­ 1} niezależnych zmiennych losowych określonych na tej samej przestrzeni probabilistycznej

(Ω, Σ, P ).

Twierdzenie 11.1 (O dwóch szeregach) Niech każda ze zmiennych losowych X

n

posiada skończony moment rzędu dwa.

Jeżeli szeregi

P

n=1

E(X

n

) i

P

n=1

D

2

(X

n

) są zbieżne, to szereg

P

n=1

X

n

jest zbieżny prawie na pewno.

Niech c > 0. Wprowadźmy oznaczenie

X

c ozn

=

 X

dla |X| ¬ c

0

dla |X| > c

Twierdzenie 11.2 (O trzech szeregach) Warunkiem koniecznym zbieżności prawie na pewna szeregu

P

n=1

X

n

niezależ-

nych zmiennych losowych jest zbieżność dla każdego c > 0 szeregów

X

n=1

E(X

c

n

)

X

n=1

D

2

(X

c

n

)

X

n=1

P ({ω : |X

n

(ω)| > c}) .

(11.1)

Warunkiem dostatecznym jest zbieżność tych szeregów przy pewnym c > 0.

Twierdzenie 11.3 (L´

evy’ego) Szereg

P

n=1

X

n

niezależnych zmiennych losowych jest zbieżny prawie na pewna wtedy i tylko

wtedy, gdy jest on zbieżny według prawdopodobieństwa.

11.2

Prawa wielkich liczb

Niech {X

n

: n ­ 1} będzie ciągiem zmiennych losowych posiadających wartość oczekiwaną. Wprowadźmy oznaczenie

S

n

=

n

X

k=1

X

k

.

Definicja 11.1 Mówimy, że ciąg zmiennych losowych {X

n

: n ­ 1} spełnia mocne prawo wielkich liczb (MPWL) wtedy i

tylko wtedy, gdy

S

n

− E(S

n

)

n

p.n.

−→ 0.

(11.2)

Mówimy, że ciąg zmiennych losowych {X

n

: n ­ 1} spełnia słabe prawo wielkich liczb (SPWL) wtedy i tylko wtedy, gdy

S

n

− E(S

n

)

n

P

−→ 0.

(11.3)

31

background image

Definicja 11.2 Niech dane będą zmienne losowe X, Y okreslone na tej samej przestrzeni probabilistycznej (Ω, Σ, P ) spełnia-

jące warunek X, Y, XY ∈ L

1

(Ω). Mówimy, że zmienne losowe X i Y sa nieskorelowane wtedy i tylko wtedy, gdy

E(XY ) − E(X)E(Y ) = 0.

(11.4)

Powyższy warunek można zapisać w postaci

E((X − E(X))(Y − E(Y ))) = 0.

(11.5)

Wniosek 11.1 Jeżeli zmienne losowe sa niezależne, to sa nieskorelowane.

Twierdzenie 11.4 Niech ciąg zmiennych losowych {X

n

: n ­ 1} posiadających drugi moment spełnia jeden z warunków

(i) lim

n→∞

D

2

(S

n

)

n

2

= 0

(ii) zmienne losowe X

n

są parami nieskorelowane i mają wspólnie ograniczoną wariancję.

Wówczas ciąg {X

n

: n ­ 1} spełnia SPWL.

11.3

Zadania

32

background image

Wykład 12

2002.12.17 / 2h

12.1

Prawa wielkich liczb – c.d.

Uwaga 12.1 Założenie (ii) w twierdzeniu 11.4 można osłabić wymagając aby

D

2

(X

n

) ¬ Cn

α

, α ∈]0, 1[.

(12.1)

Twierdzenie 12.1 (Słabe prawo wielkich liczb Bernoulliego) Jeżeli przez S

n

oznaczymy liczbę sukcesów w schemacie

Bernoulliego n prób z prawdopodobieństwem sukcesu w pojedynczej próbie równym p, to

ε>0

lim

n→∞

P



ω :




S

n

(ω)

n

− p




> ε



= 0

(12.2)

Lemat 12.1 (Twierdzenie Toeplitza) Niech {a

n

: n ­ 1} będzie ciągiem licz nieujemnych i niech ciąg {b

n

: n ­ 1} będzie

ciągiem rosnącym liczb dodatnich określonych następująco b

n

def

=

n

P

k=1

a

k

. Wówczas jeżeli ciąg (x

n

) jest ciągiem zbieżnym o

granicy równej x, to

lim

n→∞

1

b

n

n

X

k=1

a

k

x

k

= x.

(12.3)

Lemat 12.2 (Twierdzenie Kroneckera) Niech {b

n

: n ­ 1} będzie rosnącym ciągiem liczb dodatnich rozbieżnym do

nieskończoności, a {x

n

: n ­ 1} ciągiem liczb rzeczywistych takim, że szereg

P

n=1

x

n

jest zbieżnym. Wtedy

lim

n→∞

1

b

n

n

X

k=1

b

k

x

k

= 0.

(12.4)

W szczególności jeśli b

n

= n oraz x

n

=

y

n

n

zachodzi Jeżeli szereg

P

n=1

y

n

n

jest zbieżny, to lim

n→∞

y

1

+...+y

n

n

= 0.

Twierdzenie 12.2 (Kołmogorowa) Niech {X

n

: n ­ 1} będzie ciągiem niezależnych zmiennych losowych dla których

istnieje moment rzędu dwa. Niech {b

n

: n ­ 1} będzie rosnącym ciągiem liczb dodatnich takich, że lim

n→∞

b

n

= +∞ i

P

n=1

D

2

(X

n

)

b

2

n

< +∞. Wtedy

lim

n→∞

S

n

− E(S

n

)

b

n

= 0 p.n.

(12.5)

W szczególności, jeżeli

P

n=1

D

2

(X

n

)

n

2

< +∞, to ciąg {X

n

: n ­ 1} spełnia MPWL.

Niech {X

n

: n ­ 1} będzie ciągiem zmiennych losowych posiadających wartość oczekiwaną. Wprowadźmy oznaczenie

S

n

=

n

P

k=1

X

k

.

Lemat 12.3 Niech X będzie nieujemną zmienna losową. Wtedy

X

n=1

P ({ω : X(ω) ­ k}) ¬ E(X) ¬ 1 +

X

n=1

P ({ω : X(ω) ­ k})

(12.6)

33

background image

Wniosek 12.1 Jeżeli nieujemna zmienna losowa X posiada skończona wartość oczekiwaną, to

X

n=1

P ({ω : X(ω) ­ k}) < +∞.

Wniosek 12.2 Jeżeli dla nieujemnej zmiennej losowej X zachodzi

X

n=1

P ({ω : X(ω) ­ k}) < +∞,

to posiada ona skończoną wartość oczekiwaną.

Twierdzenie 12.3 (MPWL Kołmogorowa) Niech {X

n

: n ­ 1} będzie ciągiem niezależnych zmiennych losowych o

jednakowych rozkładach i posiadających wartość oczekiwaną. Wtedy ciąg {X

n

: n ­ 1} spełnia MPWL.

12.2

Zadania

Zadanie 12.1 Udowodnić lemat 12.3.

34

background image

Wykład 13

2003.01.14 / 2h

13.1

Zasady egzaminu

13.2

Prawa wielkich liczb – c.d.

Twierdzenie 13.1 (Chinczyna) Ciąg {X

n

: n ­ 1} zmiennych losowych parami niezależnych o jednakowym rozkładzie i

skończonej wartości spełnia SPWL.

13.3

Zadania

Zadanie 13.1 Udowodnić, że jeżeli ciąg {X

n

: n ­ 1} zmiennych losowych posiadających drugi moment spełnia warunki

(i) D

2

(X

n

) ¬ C < +∞ dla dowolnego n ­ 1

(ii) zmienna losowa X

n

zależy jedynie od X

n−1

i X

n+1

,

to ciąg {X

n

: n ­ 1} spełnia SPWL.

35

background image

Wykład 14

2003.01.21 / 2h

14.1

Twierdzenie Moivre’a - Laplace’a – lokalne i globalne

Będziemy rozważać schemat n prób Bernoulliego z prawdopodobieństwem sukcesu w pojedynczej próbie równym p (praw-

dopodobieństwo porażki oznaczymy q) oraz ilością sukcesów równą k.

Przyjmijmy następujące oznaczenia

B(k, n, p) =

n

k



p

k

q

n−1

(14.1)

h

ozn

=

1

npq

(14.2)

δ

k

ozn

= k − np

(14.3)

x

k

ozn

=

δ

k

npq

≡ δ

k

h.

(14.4)

Mamy wtedy

n − k = nq − δ

k

(14.5)

k

np

= 1 + x

k

qh

(14.6)

n − k

nq

= 1 − x

k

ph.

(14.7)

Twierdzenie 14.1 (Moivre’a - Laplace’a lokalne) Jeżeli h|x

k

| max {p, q} ¬

1
2

, to

B(k, n, p) =

1

2πnpq

e

x2

k

2

e

R(n,k)

,

(14.8)

przy czym

|R(n, k)| ¬

3

4

|x

k

|h +

1

3

|x

k

|

3

h +

1

3n

.

(14.9)

W szczególności jeżeli n i k zbiegają do nieskończoności w taki sposób, że hx

3
k

zbiega do zera, to R(n, k) również zbiega do

zera.

Przyjmijmy oznaczenie

x

h

2

ozn

= x

a

±

h

2

.

Przez Φ będziemy oznaczać dystrybuantę rozkładu normalnego N (0, 1).

Twierdzenie 14.2 (Moivre’a - Laplace’a globalne) Jeżeli h max {|x

a

|, |x

b

|} |x

k

| max {p, q} ¬

1
2

, to

P ({ω : a ¬ S

n

(ω) ¬ b}) =

h

Φ(x

b+

1
2

) − Φ(x

a−

1
2

)

i

e

D(n,a,b)

,

(14.10)

gdzie

|D(n, a, b)| ¬ max

k∈{a,b}

 5

4

|x

k

|h +

1

3

|x

k

|

3

h



+

1

3n

+

h

2

8

.

(14.11)

36

background image

W szczególności jeżeli n zbiega do nieskończoności, zaś a i b zmieniają się tak, że max

x

3

a

h, x

3
b

h

zbiega do zera, to D(n, a, b)

również zbiega do zera oraz

P ({ω : a ¬ S

n

(ω) ¬ b}) ∼ Φ(x

b+

1
2

) − Φ(x

a−

1
2

)

(14.12)

P ({ω : a ¬ S

n

(ω) ¬ b}) ∼ Φ(x

b

) − Φ(x

a

)

(14.13)

14.2

Zadania

Zadanie 14.1 Udowodnić, że jeżeli X

a

i x

b

są stałe, to

P



{ω : x

a

¬

S

n

(ω) − np

npq

¬ x

b

}



∼ Φ(x

b+

1
2

) − Φ(x

a−

1
2

)

(14.14)

37

background image

Wykład 15

Egzamin

15.1

Zagadnienia na egzamin – część teoretyczna

1. Prawdopodobieństwo.

(a) Przestrzeń probabilistyczna. Własności prawdopodobieństwa.

(b) Prawdopodobieństwo warunkowe, całkowite. Wzór Bayesa.

(c) Zdarzenie niezależne. Niezależność zespołowa i parami – ich związek.

(d) Własności zdarzeń niezależnych.

(e) Zdarzenie zależne. Współczynnik korelacji zdarzeń.

(f) Prawdopodobieństwo geometryczne. Paradoks Bertranda.

(g) Schemat Bernoulliego i jego uogólnienia (zagadnienia Poissona, Pascala, uogólniony schemat Bernoulliego, Pólya).

(h) Lemat Borela - Cantelliego.

2. Jednowymiarowe zmienne losowe.

(a) Zmienne losowe. Zmienne losowe, a funkcje borelowskie. Rozkład prawdopodobieństwa.

(b) Rozkład ciągły, dyskretny i osobliwy.

(c) Dystrybuanta zmiennej losowej. Własności dystrybuanty.

(d) Twierdzenie, kiedy funkcja jest dystrybuantą (ocena 5.0).

(e) Rozkład prawdopodobieństwa i jego dystrybuanata.

(f) Liniowe przekształcenia jednowymiarowej zmiennej losowej – związek między dystrybuantami.

(g) Dystrybuanta, a gęstość. Gęstość, a odwzorowania gładkie.

(h) Wartość oczekiwana zmiennej losowej i jej własności.

(i) Wariancja zmiennej losowej i jej własności.

(j) Inne parametry liczbowe zmiennych losowych.

(k) Parametry pozycyjne.

(l) Przykładowe rozkłady i ich parametry.

(m) Nierówności dla zmiennych losowych (Schwarza, Jensena, H¨

oldera, Czebyszewa).

(n) Nierówności dla zmiennych losowych (uogólniona Czebyszewa, Markowa, Czebyszewa - Bienaym´

e, wykładnicza

Czebyszewa).

(o) Niezależne zmienne losowe.

(p) Kowariacja zmiennych losowych. Zmienne losowe nieskoreowane. Niezależne zmienne losowe, a nieskorelowane.

38

background image

3. Funkcja tworząca prawdopodobieństwa i reszt. Własności.

4. Zbieżność zmiennych losowych.

(a) Typy zbieżności zmiennych losowych.

(b) Zbieżność prawie na pewno i jej własności.

(c) Zbieżność prawie na pewno, a według prawdopodobieństwa.

(d) Zależności między różnego rodzaju zbieżnościami.

(e) Zbieżność według prawdopodobieństwa i jej własności.

(f) Zbieżność według k - tego momentu bezwzględnego i jej związek z innymi zbieżnościami.

5. Prawo zero - jedynkowe Kołmogorowa.

6. Zbieżność szeregów zmiennych losowych.

(a) Nierówność L´

evy’ego - Ottavianiego.

(b) Nierówność Kołmogorowa.

(c) Twierdzenie o dwóch szeregach.

(d) Twierdzenie o trzech szeregach (warunek dostateczny).

(e) Twierdzenie L´

evy’ego (o równoważność zbieżności prawie na pewno i według prawdopodobieństwa szeregów zmien-

nych losowych).

7. Prawa wielkich liczb.

(a) Pojęcie SPWL i MPWL.

(b) Twierdzenia o warunkach dostatecznych na zachodzenie SPWL.

(c) SPWL Bernoulliego.

(d) Twierdzenie Kołmogorowa dla dowolnych niezależnych zmiennych losowych (wraz z lematami).

(e) Twierdzenie Kołmogorowa dla niezależnych zmiennych losowych o jednakowych rozkładach.

(f) Twierdzenie Chinczyna

8. Twierdzenie Moivre’a - Laplace’a

(a) Twierdzenie lokalne.

(b) Twierdzenie globalne.

39

background image

15.2

Zadania z egzaminu

1. (4pt/32pkt) Niech P

1

, . . . , P

m

prawdopodobieństwami określonymi na tym samym σ - ciele Σ podzbiorów Ω (tzn. każde

P

i

spełnia aksjomaty prawdopodobieństwa). Niech dane będą liczby nieujemne a

1

, . . . , a

m

o własności a

1

+. . .+a

m

= 1.

Udowodnić, że funkcja P

def

= a

1

· P

1

+ . . . + a

m

· P

m

jest prawdopodobieństwem na Σ.

2. (4pt/32pkt) Dokonujemy n doświadczeń rzucając w r - tym doświadczeniu 2

r−1

monetami, gdzie 1 ¬ r ¬ n. Obliczyć

prawdopodobieństwo, że chociaż w jednym doświadczeniu otrzymamy same orły.

3. (4pt/32pkt) Wybieramy losowo punkt z odcinak [0, 1]. Wyznaczyć dystrybuantę i gęstość zmiennej losowej, której

wartości są ilorazem długości odcinka krótszego przez dłuższy. Obliczyć prawdopodobieństwo, że wartość tego iloraz

ten nie przekroczy

1
4

.

4. (4pt/32pkt) Niech λ > 0 oraz zmienna losowa X ma rozkład jednostajny na odcinku ]0, 1[. Udowodnić, że zmienna

losowa Y = −

1

λ

ln X ma rozkład wykładniczy z parametrem λ.

5. (4pt/32pkt) Niech zmienna losowa X ma rozkład Poissona z parametrem λ. Wyznaczyć funkcję tworzącą prawdopo-

dobieństwa.

6. (4pt/32pkt) Udowodnić, że

X

n

p.n.

−→ X ⇔ ∀

ε>0

lim

n→∞

P

\

k,l­n

{ω : |X

k

(ω) − X

l

(ω)| ¬ ε}

= 1.

7. (4pt/32pkt) Niech {X

n

: n ­ 2} będzie ciągiem niezależnych zmiennych losowych takich, że P ({X

n

(ω) = ±

n}) =

1

n

i P ({X

n

(ω) = 0}) = 1 −

2

n

. Udowodnić, że spełnia on MPWL ?

8. (4pt/32pkt) Rzucamy n razy prawidłową monetą. Jak duże musi być n, aby z prawdopodobieństwem 0,9 liczba

wyrzuconych orłów była zawarta pomiędzy 0, 47n a 0, 53n ?

15.3

Zadania z egzaminu poprawkowego

1. (4pkt/36pkt) Niech dana będzie przestrzeń probabilistyczna (Ω, Σ, P ). Niech B ∈ Σ będzie takie, że P (B) > 0.

Udowodnić, że funkcja P

B

: Σ 3 A 7→ P

B

(A)

def

= P (A|B) jest prawdopodobieństwem.

2. (4pkt/36pkt) Bateria z trzech dział oddała salwę i dwa pociski trafiły w cel. Obliczyć prawdopodobieństwo zdarzenia,

że pocisk wystrzelony z pierwszego działa trafił w cel, jeśli prawdopodobieństwo trafienia w cel z pierwszego, drugiego

i trzeciego działa wynoszą odpowiednio p

1

= 0, 4, p

2

= 0, 3 i p

3

= 0, 5.

3. (4pkt/36pkt) Na odcinku o długości jednostkowej wybrano losowo dwa punkty. Jakie jest prawdopodobieństwo, że

odległości pomiędzy nimi jest nie mniejsza od r, gdzie 0 ¬ r ¬ 1 ?

4. (4pkt/36pkt) Czy prawdziwe jest zdanie: Jeśli dwa zdarzenia wykluczają się, to są one zależne ?. Odpowiedź uzasadnij

tzn. w przypadku pozytywnej, przeprowadź dowód zaś w przypadku negatywnej podaj kontrprzykład, ponadto podaj

w tym przypadku, o ile istnieją, warunki wystarczające, aby zdanie było prawdzie.

5. (4pkt/36pkt) Niech λ > 0 oraz zmienna losowa X ma rozkład jednostajny na odcinku ]0, 1[. Udowodnić, że zmienna

losowa Y = −

1

λ

ln(1 − X) ma rozkład wykładniczy z parametrem λ

6. (4pkt/36pkt) Wzynaczyć rozkład zmiennej losowej jeżeli jej funkcja tworząca prawdopodobieństwa wyraża się wzorem

f (s) =

8

9−s

2

.

7. (8pkt(4+4)/36pkt) Prawdopodobieństwo sukcesu w każdej próbie równe jest

1
4

. Karzystają raz z nierówności Czeby-

szewa, a drugi z twierdzenia Moivre’a - Laplace’a oszacować prawdopodobieństwo tego, że w 800 niezależnych próbach

ilość sukcesów bedzie większa niż 150 , a mniejsza niz 250.

8. (4pkt/36pkt) Niech dany będzie ciąg {X

n

|n ­ 1} niezależnych zmiennych losowych o rozkładzie zadanymi równościa-

mi P ({X

n

(ω) = ±n

β

}) =

1

2n

α

, P ({X

n

(ω) = 0}) = 1 −

1

n

α

, gdzie α, β > 0. Przy jakiej zależności miedzy parametrami

α, β spełnia on MPWL?

40


Wyszukiwarka

Podobne podstrony:
[J Kotowicz] Szkice do wykładu z AM
MATERIALY DO WYKLADU CZ IV id Nieznany
MATERIALY DO WYKLADU CZ VIII i Nieznany
MATERIALY DO WYKLADU CZ V id 2 Nieznany
Materialy do wykladu nr 5 id 28 Nieznany
MATERIALY DO WYKLADU CZ III id Nieznany
Materialy do wykladu (cz 1) id Nieznany
materialy do wykladow 1 i 2 id Nieznany
Materialy do Wykladu 22 11 13 i Nieznany
Materialy do wykladu (cz 2) id Nieznany
Materialy do wykladu (cz 3) id Nieznany
1A Przedmiot do wyboru wyklad o Nieznany
Materialy do wykladu 5 (02 11 2 Nieznany
Wyklad w Ryni korekta do druku Nieznany
materialy do wykladu 1 i 2 id 2 Nieznany
Materialy do wykladu 1 (06 10 2 Nieznany
2011 notatki do wykladu sem Iid Nieznany (2)
JPPO Wstep do wykladu id 228827 Nieznany

więcej podobnych podstron