18
Co oznacza rozkład „nieosobliwy”? (ograniczamy się do rozkładów mających momenty 2-go rzędu). Rozkład normalny osobliwy ma osobliwą macierz X, czyli nie da się zapisać powyższej funkcji gęstości, bo nie da się odwrócić macierzy L W rozkładzie nieosobliwym da się odwrócić tą macierz, czyli można zapisać funkcję gęstości {trywializując, jak mawia Profesor}.
W rozkładzie nieosobliwym każda badana zmienna wnosi swoistą zmienność do układu, w rozkładzie osobliwym pewne zmienne są funkcyjnie zależne od innych, nie wnoszą zmienności. Z rozkładami osobliwymi mamy do czynienia przy modelowaniu właśnie związków funkcyjnych między zmiennymi tworzącymi wektor.
{Wzór w powyższej ramce (funkcja gęstości wielowymiarowego rozkładu normalnego) jest jednym z najważniejszych wzorów tego kursu, trzeba go znać na pamięć bez cienia błędu. Co oznacza zapis p(z ; p, L) = ... ? a konkretnie co w tym nawiasie robi średnik? Ogólnie w nawiasie są argumenty, ale po średniku są parametry które chcemy traktować jako ustalone - (wektor wartości oczekiwanej i macierz kowariancji) a przed średnikiem jest wektor wartości zmiennej losowej z, który jest podstawowym argumentem funkcji gęstości. Zapisujemy w ten sposób, bo interesuje nas wartość funkcji p dla dowolnego wektora z przy ustalonych wartościach p. Z, co jeszcze bardziej widać w zapisie z f, tam pionowa kreska oznacza: warunkowo względem ustalonej wartości tego, co po kresce. Przy tym zapisie jest też ewidentne, że interesuje nas wielowymiarowa zmienna losowa z dowolną (niekoniecznie diagonalną) macierzą kowariancji, czyli mamy wektor zmiennych które mogą być zależne. Gdyby macierz kowariancji była diagonalna to mielibyśmy iloczyn T jednowymiarowych funkcji gęstości, a gdyby jeszcze wszystkie jej przekątniowe elementy były równe np. a2, to byłaby T-ta potęga jednowymiarowej funkcji. Ponieważ na statystyce matematycznej był chyba tylko przypadek jednowymiarowy a tu jest cały wzór macierzowy to warto do niego podstawić różne (np. powyższe) postacie macierzy £ i spróbować dojść do odpowiedniej modyfikacji przypadku jednowymiarowego. }
Teraz wreszcie te obiecane a wielkie korzyści przyjęcia 6-go założenia. Są one dwojakiego rodzaju: estymator MNK nabiera dodatkowych (w porównaniu z KMRL) własności teoretycznych, oraz dostępne się stają dodatkowe możliwości wnioskowania statystycznego: estymacja przedziałowa i testowanie hipotez.
W KMNRL (przy założeniach l°-6°) estymator MNK p jest najlepszy w klasie wszystkich estymatorów nieobciążonych.
Przy czym jest to teoretyczna własność stosowanej procedury (estymatora MNK) która nie ma zazwyczaj zbyt wielkiego wpływu na nasz sposób postępowania. {Miałoby ono być może techniczne znaczenie, gdybyśmy mieli „na widoku” jakiś inny estymator.}
Kosztem jest tu przyjęcie mocnego założenia o normalności £, a rezultat powyższy jest warunkowany prawdziwością tego założenia.
Z praktycznego punktu widzenia dużo ważniejsza jest kolejna własność:
W KMNRL zachodzą twierdzenia o rozkładach związanych z normalnym, które pozwalają nam na budowanie przedziałów ufności i testowanie hipotez o współczynnikach regresji, czyli mamy do dyspozycji nowe możliwości wnioskowania statystycznego.