50. Bootstrap (z ang. pull oneself up by one's bootstraps - wydobyć się z opresji własnymi siłami) - w statystyce opracowana przez Bradleya Efrona metoda szacowania rozkładu błędów estymacji, za pomocą wielokrotnego losowania ze zwracaniem z próby. Jest przydatna szczególnie, gdy nie jest znana postać rozkładu zmiennej w populacji. Ponieważ bootstrap w podstawowej wersji nie czyni założeń co do rozkładu w populacji, może być zaliczony do metod nieparametrycznych.
Próbą bootstrap (lub próbą typu bootstrap) nazywamy n-elementową próbę losową X z rozkładu pewnej ustalonej n-elementowej próby X = (x1,x2,...,xn) z populacji Ω
Innymi słowy jest to próba powstała przez losowanie ze zwracaniem n elementów z X.
ZASADA BOOTSTRAP
Niech T będzie pewną statystyką, dającą się przedstawić jako funkcja dystrybuanty:
i w przypadku zastosowania do rozkładu empirycznego jej wynikiem jest estymator θ:
Warunki te spełnia szeroka klasa statystyk.
Zasada bootstrap mówi, że rozkład statystyki
przy ustalonej realizacji X jest bliski rozkładowi statystyki
czyli rozkładowi błędów estymacji parametru θ w populacji.
METODA BOOTSTRAP
Zgodnie z zasadą bootstrap w celu oszacowania rozkładu błędów estymacji, należy:
1. wielokrotnie (k razy) wylosować niezależne próby losowe bootstrap X1, X2, ..., Xn na postawie jednej realizacji X.
obliczyć dla nich wartości:
...
Otrzymany rozkład
jest przybliżeniem rozkładu błędów estymacji za pomocą statystyki T zastosowanej do próby n-elementowej parametru θ w populacji.
Liczba k powinna być możliwie duża (im większa tym dokładniejsze oszacowanie). W literaturze podawane są coraz większe liczby, w miarę jak rosną możliwości obliczeniowe komputerów.
Z tego co podawala prof. Doman na wykładzie i co zdążyłam zanotowac :
Idea bootstrapu: udaję, że losuje z całej populacji, ale mam takie szczęście że trafiam w jedną konkretna próbę
populacja
próba
-jest to poradzenie sobie w sytuacji z której wydaje się ze nie ma wyjścia
[to takie na chłopski rozum, wątpie że samo to by wystarczyło…]
49. Wnioskowanie Bayesowskie - nieznany parametr jest zmienną losową; nie ma czegoś takiego jak „prawdziwa” wartość parametru, jest tylko jego rozklad; wnioskowanie Bayesowskie jest subiektywne
Wnioskowanie klasyczne - istnieje jedna prawdziwa wartość nieznanego parametru; wnioskowanie klasyczne jest obiektywne