Zasada maksimum wiarygodności mówi o wyborze najefektywniejszego estymatora, może być zatem traktowana jako szczególny przypadek twierdzenia Bayesa czyli jakie jest prawdopodobieństwo zdarzenia A pod warunkiem ze wybraliśmy estymator jakiś tam.
Z drugiej strony wybór estymatora nie ma charakteru losowego, wiec to byłby argument na nie dla naszego zadania z egzaminu.
P(A|wybralismy estymator taki a taki)
-analogia jest taka, ze zdarzenie A już zaszło, a my chcemy się dowiedzieć jaki estymator został wybrany
-wada jest to ze nie obliczymy prawdopodobieństwa wybrania danego estymatora bo to nie jest zmienna losowa
zasadę maksimum wiarygodności właśnie wykorzystuje się do obliczeń najlepszego estymatora, dlatego konstaikcja przedziału ufności wykorzystuje zasadę maksimum wiarygodności, bo gdy konstmujesz średnia z próby to właśnie korzystasz z najlepszego estymatora obliczonego z zasady maksimum wiarygodności
P(A|wybra3ismy estymator taki i taki)
już wybraliśmy ten estymator i już zaszło dane zdarzenie, a my chcemy obliczyć prawdopodobieństwo warunkowe
wiec jest to niejako prawdopodobieństwo a posteriori
gdy P(Hi) jednakowe -> tw. Bayesa staje się zasada maksimum wiarygodności a ja na początku myślałem ze wybór estymatora me jest jednakowo prawdopodobny
Słabe prawo wielkich liczb mówi, ze gdy mamy n zmiennych losowych, z których każda opisuje ten sam rodzaj eksperymentu, to odchyłka wartości średniej tych prób. od teoretycznej wartości średniej może być większa od epsilona z prawdopodobieństwem zera, czyli ze odchyłki od średniej są bardzo mało prawdopodobne i zmierzają do zera gdy n zmierza do nieskończoności (czyli im więcej prób tym mniejsze prawdopodobieństwo odchyłki).
tylko ze prawdopodobieństwo nawet 0 nie wyklucza zaistnienia takiej odchyłki
Mocne prawo mówi nam, ze prawdopodobieństwo, ze odchyłka średniej wartości od średniej z tych zmiennych losowych zmierza do 0 z prawdopodobieństwem 1, czyli ze prawie na pewno odchyłka będzie 0 blisko nieskończonej ilości doświadczeń,
Oczywiście empiryczne wyliczenia prawdopodobieństwa można zrobić na podstawie mocnego i słabego prawa liczb, to brzmi głupio a w praktyce to jest to, że rzucasz dużo razy moneta, sprawdzasz jaki jest stosunek reszek do liczby rzutów i wysuwasz wniosek ze taki samo jest prawdopodobieństwo wyrzucenia reszki w pojedynczym rzucie (prawdopodobieństwo w definicji czestosciowej)