3.4 Estymacja
Przykład 3.22. Jeśli zmienna losowa X pochodzi z rozkładu gamma (co zapisujemy X ~ T(a,/?)), to jej gęstość fx{-) jest równa
fx(t) = , (3.39)
dla t > O, gdzie T(.) jest tzw. funkcją specjalną, a a, fi > O są parametrami tego rozkładu. W takim przypadku przestrzeń Q opisana jest tym razem parą parametrów, które musimy zidentyfikować. Ponieważ dla rozkładu gamma mamy
EX = | , VarX = |j , (3.40)
zatem otrzymujemy układ równań
i ” i ” («,-*)*-.*-4, (3.41)
"bi P n i=i P
którego rozwiązaniem, jest
& = ę J = | * (3-42)
Czasami zdarza się, że momenty rozkładu teoretycznego są bardzo trudne do analitycznego policzenia. W tego typu przypadku momenty możemy zastąpić kwantylami i spróbować postąpić podobnie jak w metodzie momentów -porównać kwantyle rozkładu teoretycznego (zależne od nieznanego parametru lub parametrów) z kwantylami empirycznymi (zależnymi od obserwacji). Odpowiednich równań powinniśmy ułożyć tyle, ile jest nieznanych parametrów dla naszego rozkładu. Mają one wtedy postać
> (3-43)
gdzie z lewej strony mamy odpowiedni kwantyl teoretycznego rozkładu rzędu a\, G'2,..., a z prawej - kwantyl empiryczny. Wybór samych kwantyli, których jest przecież wiele, jest zupełnie arbitralny i decydują o tym względy obliczeniowe, mogą to być np. kwantyle rzędu 0,5 (czyli mediana), czy rzędu 0,25 i 0,75 (kwartyl dolny i górny - patrz rozdział 1.3.1).
Metoda największej wiarygodności polega na wybraniu takiej wartości parametru 0, który w danym przypadku jest dla nas „najbardziej wiarygodny”, tzn. dla ustalonych wartości obserwacji jest „najbardziej prawdopodobny”.
Przykład 3.23. Rzucamy 100 razy monetą. Orzeł został wyrzucony .{2 razy. Jakie jest (intuicyjnie rzecz biorąc) najbardziej „wiarygodne prawdopodobieństwo” wyrzucenia orla przy takich rzutach? Oczywiście ^.
Niech f$(x\,X2,... ,xn) oznacza łączną gęstość obserwacji. Jeśli zmienne X\) X2,..., Xn mają rozkłady dyskretne, to przez ten symbol będziemy oznaczać łączną „funkcję prawdopodobieństwa”. Wtedy funkcję L : © —► R
(3-44)