Teoria1


KOMBINATORYKA

Wariacja bez powtórzeń - uporządkowany zbiór składający się z k różnych elementów spośród n różnych elementów:

0x01 graphic

Wariacja z powtórzeniami - uporządkowany zbiór składający się z k elementów spośród n różnych elementów

0x01 graphic

Permutacje bez powtórzeń - uporządkowany zbiór składający się z n różnych elementów

0x01 graphic

Permutacje z powtórzeniami - uporządkowany zbiór składający się z n elementów wśród których niektóre powtarzają się n1,n2,...,nk razy

0x01 graphic

Kombinacje bez powtórzeń - zbiór składający się z k różnych elementów wybranych spośród n różnych elementów

0x01 graphic

Kombinacje z powtórzeniami - zbiór składający się z k elementów wybranych spośród n różnych elementów

0x01 graphic

DEFINICJE PRAWDOPODOBIEŃSTWA

Def (aksj.) :Prawdopodobieństwo jest pewną funkcją określoną na zbiorze zdarzeń i przyjmującą wartości liczbowe rzeczywiste. Prawdopodobieństwo zdarzenia A będziemy oznaczać przez P(A). Poniżej podajemy trzy podstawowe właściwości prawdopodobieństwa :

1) O ≤ P(A) ≤ 1

2) P(Ω) = 1

3) P(A∪B) = P(A) + P(B) jeżeli A ∩ B = ∅

Tw : P(A∪B) = P(A) + P(B) - P(A ∩ B)

Tw : P( A) + P(A) = 1

Tw : P(∅) = 0

Def (klas.) : Prawdopodobieństwem zdarzenia A nazywamy stosunek liczby zdarzeń elementarnych sprzyjających zajściu zdarzenia A, do liczby wszystkich zdarzeń elementarnych. (Zdarzenia elementarne muszą być jednakowo prawdopodobne).

Def (stat.) : Jeżeli przy wielokrotnym powtarzaniu jakiegoś doświadczenia, w wyniku którego może zajść zdarzenie A, częstość tego zdarzenia zaczyna oscylować dookoła pewnej liczby P, to liczbę P można przyjąć za prawdopodobieństwo zdarzenia A.

Def :Jeśli P(B) > 0, to prawdopodobieństwem warunkowym zdarzenia A przy warunku, że zaszło zdarzenie B, będziemy nazywać iloraz prawdopodobieństwa zdarzeń A i B, przez prawdopodobieństwo zdarzenia B :

0x01 graphic

Def : Zbiór zdarzeń A1,A2, ... An nazywamy układem zupełnym jeżeli zdarzenia te są parami rozłączne, a ich suma jest zdarzeniem pewnym.

Tw : Jeżeli zdarzenia A1,A2, ... An tworzą układ zupełny zdarzeń to dla każdego zdarzenia A

P(A) = P(A|A1) P(A1) + P(A|A2)P(A2) + ... + P(A|An)P(An)

P(A) występujące w tym wzorze często jest nazywane prawdopodobieństwem zupełnym.

Tw (Bayes) : Niech zdarzenia A1,A­2 ... An tworzą układ zupełny zdarzeń. Podobnie niech zdarzenia B1,B­2 ... Bm tworzą inny układ zupełny zdarzeń. Załóżmy dodatkowo że każde P(Ai) > 0 i P(Bj) > 0. Wówczas dla każdego i oraz j mamy :

0x01 graphic

W podanym twierdzeniu zdarzenia B1, ... ,Bm nazywa się zwykle przyczynami, zdarzenia A1, ... ,An zaś skutkami. Prawdopodobieństwa P(B1), ... ,P(Bm) noszą nazwę prawdopodobieństw a priori przyczyn, prawdopodobieństwa warunkowe P(Bj|Ai) są nazywane prawdopodobieństwami a posteriori przyczyn. Prawdopodobieństwa a posteriori odpowiadają sytuacjom, gdy jest znany skutek, nie znana zaś jest przyczyna, która go spowodowała.

Def : Zdarzenia A i B nazywamy niezależnymi, jeżeli P(A∩B) = P(A) P(B)

Def : Zdarzenia A1,A2, ... An nazywamy niezależnymi en bloc, jeżeli dla dowolnego zespołu różnych wskaźników r1, r2, ... ,rm (m ≤ n) wybranego spośród liczb 1,2, ... n jest spełniona relacja :

P(Ar1∩ Ar2∩...∩Arn) = P(Ar1) ⋅ P(Ar1) ⋅... ⋅ P(Ar1)

JEDNOWYMIAROWE ZMIENNE LOSOWE

Zmienną losową nazywamy dowolną funkcję X określoną na zbiorze zdarzeń elementarnych Ω, o wartościach ze zbioru liczb rzeczywistych mająca następujące właściwości:

Dla dowolnej, ustalonej liczby rzeczywistej x zbiór zdarzeń elementarnych ω, dla których spełniona jest nierówność X(ω)<x; jest zdarzeniem, czyli:

{ω:X(ω)<x}∈ζ dal każdego x∈R

Dystrybuantą zmiennej losowej X nazywamy funkcję FX określoną na całym zbiorze R liczb rzeczywistych równaniem:

FX(x)=P(X<x), x∈R

Zależności związane z dystrybuantą:

0x01 graphic

Własności dystrybuanty:

F1. 0x01 graphic

F2. 0x01 graphic

F3. jest funkcją niemalejącą

F4. jest funkcją (co najmniej) lewostronnie ciągłą

F5. prawdopodobieństwo P(a≤X≤b) przyjęcia przez zmienną losową X wartości z przedziału <a,b> wyraża się za pomocą dystrybuanty nastęująco:

P(a≤X≤b)=F(b)-F(a)0x01 graphic

F6. prawdopodobieństwo P(X=x0)przyjęcia przez zmienną losową X dowolnej, ustalonej wartości x0 wyraża się za pomocą dystrybuanty równością:

P(X=x0)=F(x0+0)-F(x0)

F7. jeżeli G jest dowolną funkcją o wartościach rzeczywistych mającą własność F2,F3,F4, to funkcja G jest dystrybuantą zmiennej losowej.

Rozkład prawdopodobieństwa

Wartość xj może odpowiadać kilku punktom próbkowym i zbiór tych punktów tworzy zdarzenie, że X=xj którego prawdopodobieństwo N 0x01 graphic
. Układ relacji:

0x01 graphic

określa rozkład prawdopodobieństwa zmiennej losowej X. Jasne jest, że:

0x01 graphic

Wartością średnią (oczekiwaną)

zmiennej losowej skokowej X jest

0x01 graphic

wartość średnią funkcji zmiennej losowej skokowej X obliczmy ze wzoru:

0x01 graphic

Wartością średnią (oczekiwaną) zmiennej losowej ciągłej X jest

0x01 graphic

przy założeniu zbieżności całki

wartość średnią funkcji zmiennej losowej ciągłej X obliczamy ze wzoru

0x01 graphic

W szczególności 0x01 graphic
. Jeżeli szereg 0x01 graphic
jest rozbieżny, to mówimy, że X nie ma skończonej wartości średniej (rozkład Cauchy).

0x01 graphic

0x01 graphic

Moment rzędu k

Niech X będzie zmienną losową o rozkładzie f(xj) i niech 0x01 graphic
będzie liczbą całkowitą. Jeżeli wartość oczekiwana zmiennej losowej Xr, to znaczy:

0x01 graphic

istnieje, to nazywamy ją r-tym momentem zmiennej losowej X. Jeżeli szereg nie jest bezwzględnie zbieżny, to mówimy, że r-ty moment nie istnieje.

Wariancją V(X) (lub D2(X))

zmiennej losowej X jest:

0x01 graphic

Wariancja jest z grubsza licząc miarą rozrzutu.

Własności wariancji (a, b, c - stałe względem zdarzenia elementarnego ):

0x01 graphic

Odchylenie standardowe

jest to pierwiastek z wariancji, czyli

0x01 graphic

Nierówność Czebyszewa

Mała wariancja wskazuje na to, że wszelkie odchylenia od wartości średniej są mało prawdopodobne. Niech X będzie zmienną losową z wartością średnią μ=E(X) i wariancją V(X). Wówczas dla każdego t>0

0x01 graphic

Nierówność Kołmogorowa

Niech X1, …, Xn będą wzajemnie niezależnymi zmiennymi o wartościach oczekiwanych k=E(Xk) i wariancjach V(XK)=σk2. Oznaczmy:

Sk=X1+…+Xk

oraz

k=E(Sk)=1+…+k, σk2=V(Sk)=σ12+…+σk2

Dla każdego t>0 prawdopodobieństwo jednoczesnej realizacji n nierówności

0x01 graphic

jest co najmniej 1-t-2. Dla n=1 twierdzenie to sprowadza się do nierówności Czebyszewa.

Kwantyl rzędu p

Jeżeli

P(X≥a)=ε

to mówimy, że a jest kwantylem rzędu 1-ε, co zapisujemy jako:

κ1-ε=a

Mediana

Kwantyl rzędu 0,5.

FUNKCJA CHARAKTERYSTYCZNA

przedstawia się wzorem:

0x01 graphic

Własności funkcji charakterystycznych

  1. dodawanie wielkości niezależnych odpowiada mnożeniu funkcji charakterystycznych i splatania gęstości prawdopodobieństwa

  2. Z podobnego rozumowania:

0x01 graphic

0x01 graphic

Jeżeli istnieje k-ty moment zmiennej losowej X o funkcji charakterystycznej X(v), to  jest k-krotnie różniczkowalna (w sposób ciągły), oraz zachodzi równość:

0x01 graphic

oraz jeśli można rozwinąć X(v) w szereg Maclaurina, to:

0x01 graphic

Jeżeli funkcja charakterystyczna jest okresowa, to mamy do czynienia z wielkością dyskretną

Funkcja charakterystyczna sumy zmiennych losowych Z=X+Y gdzie zmienne losowe X i Ysą niezależne o funkcjach charakterystycznych X(v) i Y(v) ma postać:

0x01 graphic

Funkcja charakterystyczna sumy zmiennych losowych Y=X1+X2+…+Xk gdzie zmienne losowe Xi są niezależne o funkcji charakterystycznej X(v) ma postać:

0x01 graphic

Funkcja charakterystyczna sumy nieznanej liczby składników Y=X1+X2+…+XN gdzie zmienne losowe Xi są niezależne o funkcji charakterystycznej X(v) natomiast rozkład prawdopodobieństwa liczby składników jest P(N=k) ma postać:

0x01 graphic

Czyli funkcja charakterystyczna sumy jest złożeniem funkcji tworzącej liczby składników oraz funkcji tworzącej:

0x01 graphic

Pochodna funkcji charakterystycznej jest postaci:

0x01 graphic

Funkcja tworząca

Niech a0, a1, a2, … będzie ciągiem liczb rzeczywistych. Jeżeli szereg:

0x01 graphic

jest zbieżny w pewnym przedziale -s0<s<s0, to funkcję A(s) nazywamy funkcją tworzącą ciągu {aj}.

Funkcja tworząca jest modyfikacją funkcji charakterystycznej, przy czym 0x01 graphic
. U Konorsa z=s i funkcja tworząca to GX(z).

WIELOWYMIAROWE ZMIENNE LOSOWE

Łączny rozkład prawdopodobieństwa, gdy zmienna losowa (X,Y):

dyskretna

0x01 graphic

ciągła

0x01 graphic

Dystrybuanta

F(x1,…, xn), n-wymiarowej zmiennej losowej (X1,…,Xn) nazywamy funkcję

0x01 graphic

Dla zmiennej losowej typu ciągłego mamy

0x01 graphic

gdzie f jest gęstością prawdopodobieństwa zmiennej losowej n-wymiarowej

Dla n=2 mamy dystrybuantę postaci:

Własności dystrybuanty:

0x01 graphic

Dystrybuanty brzegowe X, Y

0x01 graphic

0x01 graphic

Gęstościami prawdopodobieństwa rozkładów brzegowych odpowiednio zmiennych losowych X oraz Y są:

dla X, Y ciągłych

0x01 graphic

dla X, Y dyskretnych

0x01 graphic

Zmienne losowe X, Y typu ciągłego są niezależne, jeśli dla wszystkich x, y:

0x01 graphic

Zmienne losowe X, Y typu skokowego są niezależne, jeśli dla wszystkich i, k:

0x01 graphic

gdzie

0x01 graphic
,

0x01 graphic
,

0x01 graphic

Wartość przeciętną

funkcji g(X, Y) zmiennej losowej (X, Y)

Rozkład warunkowy zmiennej losowej X pod warunkiem zajścia y ma postać:

0x01 graphic

0x01 graphic
tj.

0x01 graphic

Współczynnik kowariancji

Kowariancja zmiennych losowych X i Y jest zdefiniowana równaniem

0x01 graphic

Definicja ta ma sens, o ile X i Y mają skończone wariancje.

Jeżeli X1, …, Xn są zmiennymi losowymi o skończonych wariancjach V1, …, Vn, oraz Sn=X1+…+Xn, to

0x01 graphic

gdzie ostatnia suma zawiera każdą z 0x01 graphic
par (Xj,Xk) dla których j<k, dokładnie raz.

Współczynnik korelacji

zmiennych losowych określamy wzorem:

0x01 graphic

gdzie E(XY) - wartość przeciętna zmiennej losowej (X,Y), 0x01 graphic
- wariancja zmiennej losowej Y

Współczynnik korelacji jest to kowariancja zmiennych X i Y unormowanych, czyli:

0x01 graphic

Jeżeli współczynnik korelacji jest

czyli najchętniej obie zmienne losowe są powyżej swoich średnich to korelacja jest dodatnia, jeśli obie są po różnych to korelacja jest dodatnia, jeśli obie są po różnych stronach średnich to korelacja jest ujemna.

Własności współczynnika korelacji:

0x01 graphic

0x01 graphic
- czyli jedna zmienna losowa jest liniową funkcją drugiej

Niezależność implikuje brak korelacji, ale zazwyczaj nie jest odwrotnie

Wariancja sumy wielkości losowych 0x01 graphic
dla zmiennych niezależnych = 0x01 graphic

dla dowolnych zmiennych 0x01 graphic

gdzie R - macierz współczynników korelacji.

Wartość średnia momentu rozkładu

0x01 graphic

Prosta regresji liniowej

informuje jak jest związana zmienna losowa X ze zmienną Y. Im związek ten jest większy, tym odchyłka od prostej regresji mniejsza.

Mamy daną zmienną losową (X,Y), gdzie X i Y są skorelowane. Chcemy przedstawić jedną zmienną jako liniową funkcję drugiej tzn Y=aX+b z minimalnym błędem. Jest to tzw. przybliżenie modelem liniowym. Szukamy więc takich współczynników a* i b*, aby średniokwadratowa odchyłka prostej od wartości rzeczywistych była minimalna czyli:

0x01 graphic

Najlepsze przybliżenie daje prosta regresji Y względem X, która ma postać:

0x01 graphic

PRAWO WIELKICH LICZB

Niech {Xk} będzie ciągiem wzajemnie niezależnych zmiennych losowych o wspólnym rozkładzie. Jeżeli wartość oczekiwana 0x01 graphic
istnieje, oraz dla każdego >0 przy 0x01 graphic

0x01 graphic

to mówimy, że dla ciągu tego zachodzi słabe prawo wielkich liczb.

W przypadku, gdy przy tym samym założeniu zachodzi:

0x01 graphic

to mówimy, że dla ciągu tego zachodzi mocne prawo wielkich liczb.

ESTYMATORY

Estymacja - ocena nieznanych parametrów bądź ich funkcji, które charakteryzują rozkład badanej cechy populacji

Statystyka - dowolna funkcja g(X1,…,Xn) będąca funkcją próby losowej X1,…,Xn. Statystyka jako funkcja borelowska jest także zmienną losową, mającą pewien własny rozkład zależny od postaci funkcji g i rozkładów zmiennych X1,…,Xn.

Estymatorem parametru 0x01 graphic
jest każda statystyka 0x01 graphic
, której wartości przyjmujemy jako oceny nieznanego parametru 0x01 graphic
. Dla uzyskania estymatora o możliwie „optymalnych” własnościach jest pożądane aby miał on pewne narzucone własności:

0x01 graphic

Estymator 0x01 graphic
nazywamy estymatorem zgodnym parametru 0x01 graphic
.

0x01 graphic

Jeśli natomiast istnieje wartość średnia estymatora lecz 0x01 graphic
, wtedy 0x01 graphic
nazywamy estymatorem obciążonym parametru 0x01 graphic
, a różnicę

0x01 graphic
- obciążeniem estymatora

W przypadku gdy

0x01 graphic

wtedy estymator 0x01 graphic
nazywamy estymatorem asymptotycznie nieobciążonym parametru 0x01 graphic
.

Jeżeli zatem 0x01 graphic
i 0x01 graphic
są dwoma estymatorami nieobciążonymi parametru 0x01 graphic
mającymi wariancje 0x01 graphic
i 0x01 graphic
spełniające warunek

0x01 graphic
- co oznacza, że skupienie wartości estymatora 0x01 graphic
wokół 0x01 graphic
jest większe niż skupienie wartości 0x01 graphic

to mówimy, że 0x01 graphic
jest estymatorem efektywniejszym parametru 0x01 graphic
niż estymator 0x01 graphic
. Estymator nieobciążony n parametru , który ma najmniejszą wariancję spośród wszystkich nieobciążonych estymatorów danego parametru  nazywamy estymatorem efektywnym.

STATYSTYKA MATEMATYCZNA

Hipoteza statystyczna

Jest to każde przypuszczenie dotyczące nieznanego rozkładu badanej cechy populacji, o prawdziwości lub fałszywości, które wnioskuje się w oparciu o pobraną próbkę. Przypuszczenia te najczęściej dotyczą postaci rozkładu lub wartości jego parametrów. Hipotezy które dotyczą wyłącznie wartości parametru określonej klasy rozkładów nazywamy parametrycznymi.

Test statystyczny

Metoda postępowania, która każdej możliwej realizacji próbki x1,…,xn przyporządkowuje - z ustalonym prawdopodobieństwem - decyzję przyjęcia albo odrzucenia sprawdzanej hipotezy.

Statystyka testowa

W celu zbudowania testu do weryfikacji postawionej hipotezy H, spośród funkcji zmiennych losowych X1,…,Xn należy wybrać najbardziej odpowiednią δ(X1,…,Xn).

Błędna decyzja odnośnie hipotezy:

Decyzja

Hipoteza H

jest prawdziwa

jest fałszywa

przyjąć weryfikowaną hipotezę H

decyzja poprawna

decyzja błędna (błąd I rodzaju)

Odrzucić hipotezę H

decyzja błędna (błąd II rodzaju)

decyzja poprawna

Poziom istotności testu prawdopodobieństwo  błędu pierwszego rodzaju

Weryfikacja hipotezy o wartości przeciętnej w populacji generalnej

Hipotezę orzekającą, że wartość przeciętna m jest równa liczbie m0, zapisujemy H(m=m0). Niech hipotezą alternatywną będzie H1(m=m1), gdzie 0x01 graphic
.

Jeśli cecha X ma rozkład normalny N(m, σ), przy czym σ jest znane, i przyjmujemy poziom istotności , to wyznaczamy  takie, aby:

0x01 graphic

Jeśli zaobserwowana w n-elementowej próbce wartość 0x01 graphic
jest taka, że 0x01 graphic
, to odrzucamy hipotezę H(m=m0). W przypadku 0x01 graphic
nie ma podstaw do odrzucenia hipotezy.

Weryfikacja hipotezy o wariancji

Niech cecha X ma rozkład normalny N(m,σ), przy czym s jest nieznane. Hipotezę H(σ202), tzn. że wariancja równa jest liczbie σ02, weryfikujemy korzystając z faktu, że zmienna losowa

0x01 graphic

ma rozkład 2 o n-1 stopniach swobody. Niech hipotezą alternatywną będzie H1202). Przyjmujemy poziom istotności . W tablicach znajdujemy 2 takie, że

0x01 graphic

czyli

0x01 graphic

Hipotezę odrzucamy, jeśli

0x01 graphic

Weryfikacja hipotezy dotyczącej postaci rozkładu. Test zgodności 2

Wysuwamy hipotezę, że dystrybuantą zmiennej losowej X jest F(x). Niech całkowity zakres zmienności zmiennej losowej X będzie rozbity na skończoną liczbę l zbiorów:

0x01 graphic

Niech pk oznacza prawdopodobieństwo:

0x01 graphic

obliczane przy założeniu, że dystrybuantą jest F(x), nk zaś niech będzie liczbą wartości w n-elementowej próbce, które znalazły się w k. Jeśli weryfikowana hipoteza jest prawdziwa, to zmienna losowa

0x01 graphic

ma przy 0x01 graphic
rozkład 2 o l-1-r stopniach swobody, gdzie r jest liczbą parametrów wyznaczanych na podstawie próbki.

Metoda postępowania przy weryfikacji jest następująca. Przyjmujemy poziom istotności . Wyznaczamy 2 takie, że:

0x01 graphic

Jeśli zaobserwowana w próbce wartość zaobs2 zmiennej losowej 2 jest taka, że zaobs2>=2, to odrzucamy hipotezę, że dystrybuantą zmiennej losowej X jest F(x). Jeśli zaobs2<2, to nie mamy podstaw do odrzucenia hipotezy

Test zgodności - test do weryfikacji hipotezy prostej albo złożonej dotyczącej zgodności pomiędzy rozkładem zbioru wartości w próbie i rozkładem teoretycznym tj. hipotezy postaci:

0x01 graphic
H:{dystrybuantą badanej cechy jest F0(x)}

Test c2 Pearsona

Weryfikacja hipotezy H:F0(x), gdy F0 jest całkowicie określona (hipoteza prosta). Rozważania dotyczą zmiennej losowej (cechy) X ciągłej albo skokowej.

Tworzymy szereg rozdzielczy z próbki x1,…,xn w rezultacie czego otrzymujemy następujący podział próbki na k klas:

Nr klasy

Granice klas

Liczności ni doświadczalne

1

g0…g1

n1

1

g1…g2

n2

K

gk-1…gk

nk

Jeżeli hipoteza H jest prawdziwa, to prawdopodobieństwo pi „sukcesu”, że X przyjmie wartość należącą do i-tej klasy (i=1,…,k) można obliczyć z zależności:

0x01 graphic

Tak więc wartość przeciętna liczby sukcesów spośród n niezależnych doświadczeń, które wpadną do i-tej klasy jest równa np1; wartości te dla i=1…k nazywamy licznościami hipotetycznymi w odróżnieniu od liczności doświadczalnych ni.

Za miarę rozbieżności pomiędzy grupami liczności, tzn. pomiędzy wynikami z doświadczenia i z hipotezy przyjął Pearson wartość cd2

0x01 graphic

statystyki

0x01 graphic

zależnej od zmiennych losowych Ni, których wartości ni w innej próbce mogą być inne, spełniających warunek 0x01 graphic

Zasadnicze znaczenie tej statystyki polega na tym, że jej rozkład - przy ustalonym k i założeniu prawdziwości hipotezy - gdy 0x01 graphic
ma rozkład 0x01 graphic
tzn. o k-1 stopniach swobody

ROZKŁADY ZMIENNYCH LOSOWYCH

Nazwa rozkładu

Gęstość rozkładu pX(x)

Funkcja ϕ(t) charakterystyczna

Uwagi

Bernoulliego (dwumianowy)

0x01 graphic

0x01 graphic

Dyskretny

EX = np.

VX = np.(1-p)

hipergeometryczny

Prawd. że k spośród n wylosowanych z N-elementowej populacji posiada jakąś cechę, jeśli M z N ją posiada na pewno

0x01 graphic

Dyskretny.

EX = np.

VX = 0x01 graphic

Pascala (ujemny dwumianowy)

Ilość dośw. Potrzebna do uzyskania k sukcesów

0x01 graphic

0x01 graphic

Dyskretny

EX=v/p

VX=v(1-p)/p2

Poissona

Rozkład graniczny dla (1) i (2)

0x01 graphic

0x01 graphic

Dyskretny

EX = λ

VX = λ

Wykładniczy

Czas bezawaryjnej pracy elementu

0x01 graphic

0x01 graphic

Ciągły

EX = λ

VX = λ2

BEZPAMIĘCIOWOŚĆ

Erlanga

Suma n niezależnych losowych o rozkładzie wykładniczym

0x01 graphic

Ciągły

Szczególny przypadek rozkładu Γ

Gamma

0x01 graphic

0x01 graphic

0x01 graphic

Ciągły

EX=α1=λp

VX = λ2p

Gdy p∈R Γ(p+1)=pΓ(p)

Beta

0x01 graphic

0x01 graphic

Ciągły

EX = p/(p+q)

VX = pq/((p+q)2+(p+q+1))

Normalny

(gaussowski)

standaryzowany: 0x01 graphic

0x01 graphic

0x01 graphic

Ciągły

EX = μ

VX = σ2

Laplace'a

0x01 graphic

0x01 graphic

Ciągły

EX = μ

VX = 2λ2  

Cauchy

0x01 graphic
;λ>0

0x01 graphic

Ciągły

Nie ma wartości średniej



Wyszukiwarka

Podobne podstrony:
teoria bledow 2
sroda teoria organizacji i zarzadzania
W10b Teoria Ja tozsamosc
Teoria organizacji i kierowania w adm publ prezentacja czesc o konflikcie i zespolach dw1
wZ 2 Budowa wiedzy społecznej teoria schematów
TEORIA NUEROHORMONALNA EW
zarzadcza teoria 3
Ruciński A Teoria Grafów 1, wyklad6
Społeczno pragmatyczna teoria uczenia sie słów
rozwojowka slajdy, Wyklad 5 Srednia doroslosc teoria czasowa
TEORIA KOLEJEK1
Ruciński A Teoria Grafów 1, wyklad1
Ruciński A Teoria Grafów 1, wyklad10
6 zbiorniki teoria bezmomentowa

więcej podobnych podstron