ESTYMATOR statystyka z pró. (funkc. Element. Pró.) sluzaca do wyzn. Nieznanej wartości parametru rozkładu Populacji. Estymator jest zmienną losową - posiada rozkład.
1- estymator nieobciążony - gdy jego wartość oczekiw. Jest równa wartości szacowanego parametru E(Qn)=Q (dla n=1,2...)
2- estymator Q^n zgodny jeśli lim P(|Qn-Q|<e)=1
3- estymator najefektywniejszy jest jeśli ma najmniejszą wariancje spośród wszystkich estymatorow Q Przykł: x jest nieobciąż. Estymatorem u tzn. E(X)-u. Jeśli warunek E(Q^n)=Q nie jest spełniony dla każdego n-N oraz zachodzi związek E(Q^n)Q to Q^n nazyw. Się asymptotycznie nieobciążonym estymatorem.
metody wyznaczania estymatorów - metody: 1 momentów, 2 najmniejszych kwadratów i 3 największej wiarygodności.
TEST STATYSTYCZNY - formuła matematyczna pozwalająca oszacować prawdopodobieństwo spełnienia pewnej hipotezy statystycznej w populacji na podstawie próby losowej z tej populacji.
Testy parametryczne służą do weryfikacji hipotez parametrycznych, odnoszących się do parametrów rozkładu badanej cechy w populacji generalnej. Najczęściej weryfikują sądy o takich parametrach populacji jak średnia arytmetyczna, wskaźnik struktury i wariancja. Testy te konstruowane są przy założeniu znajomości postaci dystrybuanty w populacji generalnej.
Dzielimy je na: 1 testy param. Do weryf. Włas. Populacji jednowymiarowych: test dla średniej, proporcji i wariancji
I 2 esty parametryczne służące do porównania własności dwóch populacji: test dla 2 śr, dla 2 prop i 2 wariancji.
Testy nieparametryczne Służą do weryfikacji różnorodnych hipotez, dotyczących m.in. zgodności rozkładu cechy w populacji z określonym rozkładem teoretycznym, zgodności rozkładów w dwóch populacjach, a także losowości doboru próby. Biorąc pod uwagę zakres ich zastosowań, testy te można podzielić na dwie grupy: Testy nieparam. służące do weryfikacji własności populacji jednowymiarowych: np. test serii, test zgodności chi kwadr.
RÓWNANIE PR. REGRESJI y=bx+a=_ws. Regr._+__
WZÓR regresji liniowej
Regresja liniowa metoda estymowania wartości oczekiwanej zmiennej
przy znanych wartościach innej zmiennej lub zmiennych
. Szukana zmienna
jest tradycyjnie nazywana zmienną objaśnianą lub zależną. Inne zmienne
nazywa się zmiennymi objaśniającymi lub niezależnymi. Zarówno zmienne objaśniane i objaśniające mogą być wielkościami skalarnymi lub wektorami. Regresja w ogólności to problem estymacji warunkowej wartości oczekiwanej. Regresja liniowa jest nazywana liniową, gdyż zakładanym modelem zależności między zmiennymi zależnymi, a niezależnymi, jest funkcja liniowa
DEFINICJA PRAWDOPODOB.
Niech Ω będzie skończonym zbiorem zdarzen elementarnych. Prawdopodobieństwem nazywamy funkcje, która każdemu zdarzeniu A(A< Ω) przyporzadkuje liczbe P(A), spelniajaca następujące warunki (aksjomaty):
A1 - prawdopodobieństwo jest liczba nieujemna - P(A)≥0
A2 - prawdopodobieństwo zdarzenia jest rowne 1 P(Ω)=1
A3 - prawdopodobieństwo sumy wykluczających się zdarzen jest rowne sumie prawdopodobieństw tych zdarzen AคB=f to P(AUB)= P(A)+P(B)
DYSTRYBUANTA funkcja rzeczywista jednoznacznie wyznaczającarozkład prawdopodobieństwa (tj. miarę probabilistyczną określoną na σ-ciele borelowskich podzbiorów prostej[1]), a więc zawierająca wszystkie informacje o tym rozkładzie. Dystrybuanty są efektywnym narzędziem badania prawdopodobieństwa, ponieważ są obiektami prostszymi niż rozkłady prawdopodobieństwa. W statystyce dystrybuanta rozkładu próby zwana jest dystrybuantą empiryczną i jest blisko związana z pojęciem rangi.
WŁASNOŚCI DYSTRYBUANTY
Jeżeli
jest gęstością pewnej dystrybuanty, to całka z
po całej prostej wynosi
Jeżeli
i
są gęstościami pewnej dystrybuanty, to są one równe prawie wszędzie.
Jeżeli dystrybuanta ma gęstość, to jest funkcją ciągłą.
Każda dystrybuanta, jako funkcja monotoniczna jest prawie wszędzie różniczkowalna.
Jeśli dystrybuanta
ma gęstość, to dla
: