Odróżnij cechy mierzalne i niemierzalne – podaj przykłady. Czym różnią się cechy porównywalne od tylko odróżnialnych?
Cechy mierzalne:
bezwzględnie (skala pomiarowa ma wartość zero) np. piwny kolor oczu w grupie 20 osób
względnie (na skali pomiarowej brak wartości zerowej) np. wzrost dzieci w wieku 10 – 15 lat
Cechy niemierzalne:
porównywalne
odróżnialne
Cechom porównywalnym można przyporządkować stopień („rangę”), np. stopień twardości (w przypadku minerałów) albo ocenę szkolną (w odniesieniu do wiedzy posiadanej przez ucznia). Cechom nieporównywalnym można co najwyżej przyporządkować liczbę wyrażającą ich wystąpienie (zwykle liczbę 1) lub niewystąpienie (zwykle liczbę 0).
Na czym polega próba reprezentatywna? Jak ją uzyskać?
Struktura próby powinna odzwierciedlać strukturę populacji, z której próba pochodzi. Każdy podzbiór populacji powinien odpowiednio odzwierciedlać się w próbie.
Aby osiągnąć reprezentatywność, badanie niepełne powinno być: dostatecznie liczne i losowe. Zalecana liczebność próby zależy od wielkości badanej populacji i zmierzonej dokładności wyników. Można ją ustalić na podstawie rachunku prawdopodobieństwa.
Dlaczego tak trudno przeprowadzić badania pełne? Odpowiedź zilustruj przykładem.
Badanie pełne powinno objąć wszystkie elementy zbiorowości. Zazwyczaj 90 do 95% populacji stanowią obiekty typowe. Łatwo do nich dotrzeć i łatwo je pomierzyć. Pozostałe elementy to obiekty nietypowe.
np. Upodobania klientów odnośnie ustawienia produktów na półkach sklepowych, wszystkich klientów: tych którzy robią zakupy codziennie w danym sklepie i tych, którzy są w nim raz do roku.
Odróżnij losowanie proste (bezpośrednie) od warstwowego. Podaj ich przykłady. Po co (w statystyce) losujemy?
Losowanie proste (bezpośrednie) polega na tym, że każdy element populacji powinien mieć taką samą szansę trafienia do próby, co pozostałe, np. przeprowadzanie ankiety na temat danego produktu wśród różnych klientów. W losowaniu warstwowym najpierw losujemy ”warstwę” (fragment populacji generalnej), a następnie z warstwy wybieramy element, np. przeprowadzanie ankiety na temat danego produktu wśród klientów, którzy regularnie kupują dany produkt.
Losowy dobór elementów w praktyce okazuje się bardziej reprezentatywny niż wybór celowy (ukierunkowany wedle jakiejś zasady).
W jaki sposób porządkuje się dane przed obróbką statystyczną?
Statystycy porządkują otrzymane informacje (nieuporządkowane wyniki pomiarów) w postaci szeregów:
empirycznego – wyniki ustawiają monotonicznie, zwykle od najmniejszej do największej.
punktowego – przyporządkowują poszczególnym wartościom liczność ich wystąpienia w badanej populacji.
rozdzielczego – liczność przyporządkowują wartościom grupowanym w przedziały liczbowe.
Dlaczego tworzenie szeregu rozdzielczego sprawia tak wiele trudności?
Łączenie danych w przedziały nie jest operacją neutralną. Grupowania zmieniają wyniki obliczeń statystycznych. Aby cokolwiek obliczyć, każdy przedział musi mieć swojego reprezentanta – określoną wartość cechy, którą przyporządkujemy wszystkim elementom należącym do przedziału (reprezentantem przedziału jest jego środek). W konsekwencji, dane z całego przedziału „trafiają do jednego worka” i tracą swój indywidualny charakter.
Najczęściej rozkład danych nie jest rozkładem równomiernym. Konieczne są kompromisy: przedziały równej długości – kosztem nierównej liczności, przedziały tak samo liczne – kosztem nierównej długości, większa liczność przedziałów – kosztem dokładności wyników. Budując przedziały klasowe, należy kierować się wyczuciem i działać tak, aby uniknąć nadmiaru obliczeń i deformacji wyników końcowych.
Czy liczba przedziałów szeregu rozdzielczego powinna być duża, czy mała? Odpowiedź uzasadnij.
Przedziałów nie może być za dużo i za mało. Nie mniej niż 4-5 i nie więcej niż 25-30. Ze spadkiem liczby przedziałów maleje pracochłonność obliczeń i wzrasta przejrzystość danych, ale rośnie groźba zniekształcenia wyników.
Czy określenie „miara statystyczna” należy traktować dosłownie?
Nie. W statystyce nie dokonuje się pomiarów i nie istnieje jednostka. Tutaj każdą „miarę” się oblicza.
Co się „mierzy” w statystyce? W jaki sposób? Odpowiedź zilustruj przykładami.
miary wartości przeciętnej (średnie informują o typowej wartości cechy w badanej populacji) np. wiek populacji
miary zmienności (informują o zróżnicowaniu danej populacji) np. kolor oczu populacji
miary asymetrii ( informują o stopniu odchylenia od symetrii) np. rozkład wzrostu od minimalnego do maksymalnego
miary koncentracji (informują o stopniu skupienia wartości badanej cechy lub ich sumy) np. w jakim wieku występuje najwięcej zachorowań na raka piersi
Czym różnią się miary klasyczne od miar pozycyjnych? Które łatwiej ustalić?
Ustalając miary klasyczne uwzględniamy wszystkie badane obiekty. Poszczególne wartości cechy występujące w populacji: dodajemy do siebie, podnosimy do określonej potęgi, czasem dzielimy przez liczbę elementów. Wynik tych wielu operacji rachunkowych stanowi miarę badanej wielkości.
Ustalając miarę pozycyjną, wybieramy określony element i odczytujemy jego wartość lub określoną wartość. Kłopot polega na wskazaniu, który element (wartość) przyjąć jako miarę.
Odróżnij miary bezwzględne oraz miary względne (współczynniki)
Miary bezwzględne to odchylenie przeciętne, wariancja i odchylenie standardowe (miary klasyczne) oraz rozstęp i odchylenie ćwiartkowe (miary pozycyjne). Pozwalają porównać zróżnicowanie populacji o tym samym stopniu wielkości.
Miary względne to współczynniki zmienności: klasyczny oraz pozycyjny. Współczynniki zmienności umożliwiają porównanie zmienności populacji o różnym stopniu wielkości.
Przedstaw klasyfikację rozkładów. Wskaż kryteria podziału.
(Rozkłady – opisy jakościowe), podział ze względu na rodzaj zmiennej, ciągła lub skoncentrowana
A) Modalne
Symetryczne
Leptokurtyczny
platykurtyczny
Asymetryczne
Lewostronnie
Prawostronnie
B) Równomierne (skokowa)
C) Antypodalne
Symetryczne
Asymetryczne
Przedstaw miary wartości przeciętnej. Po co ich aż tyle ?
Klasyczne:
Średnie
arytmetyczna / harmoniczna
geometrycna
Pozycyjne:
Dominanta
Kwartyle
mediana
kwartyle
inne kwartyle
W jakich przypadkach sięgamy po średnią, a w jakich po dominantę lub medianę ? Odpowiedź zilustruj przykładem.
Średnia informuję o typowej wartości badanej cechy w danej populacji. Po średnią sięgamy gdy chcemy obliczyć np. średni rozmiar stopy wśród klientek danego sklepu obuwniczego
Dominanta jest wartością która występuję najczęściej. Po dominantę sięgamy gdy np. najczęściej kupowany rozmiar butów
Mediana jest wartością jaką przyjmuję element środkowy w uporządkowanej próbie. Mediany używamy gdy mamy podany szereg liczb i chcemy znaleźć środkowy element, np. środkowa wartość rozmiaru stopy klientek
Ile jest średnich ?
arytmetyczna
harmoniczna
geometryczna
Dodatkowo możemy każdą z nich podzielić na zwykłą, gdy wszystkie elementy są tak samo istotne oraz ważoną, gdy „waga” poszczególnych elementów jest różna.
Zinterpretuj średnią, medianę, dominantę oraz kwartyle (zinterpretuj, tzn. wskaż ich empiryczne odpowiedniki).
Średnia arytmetyczna: np. średnia ilość godziny na dobę snu studenta IŚ w czasie sesji
Średnia harmoniczna: np. samochód jadąc z miejscowości A do miejscowości B jechał z prędkością 40km/h, a wracał z prędkością 60k/h. Średnia prędkość jednak nie wyniesie 50km/h, lecz 48km/h, ponieważ czas jazdy do miejscowości B był dłuższy niż w drodze powrotnej.
Średnia geometryczna: np. średnia wysokość odsetek na lokacie z kapitalizowaniem środków co miesiąc
Mediana - wartość , jaką przyjmuje element środkowy w uporządkowanej próbie
Kwartyle - szereg empiryczny dzielimy na 4 podciągi równej długości i odczytujemy wartości badanej wartości w 3punktach : np.1,2,3,4,5
Dominanta - wartość, która występuje najczęściej, np. najpowszechniejszy wzrost mężczyzn w Ugandzie
Kwantyle będące miarą pozycyjną, są wartościami cechy, które dzielą zbiorowość na równe lub proporcjonalne części pod względem liczby jednostek. Kwantyle mogą być wyznaczane tylko z uprzednio uporządkowanych (rosnąco lub malejąco) wartości cech w szeregu. Ze wzdledu na sposób dzielenia zbiorowości możemy wyróżnić wśród kwantyli: medianę, kwartyle, kwintyle, decyle, percyle.
Kwartale to inaczej kwantyle rzędu 1/4, 2/4, 3/4
Kwintyle to inaczej kwantyle rzędu 1/5, 2/5, 3/5, 4/5
Odróżnij miary zmienności.
Miary zmienności (miary: zróżnicowania, rozproszenia i dyspersji) klasyczne i pozycyjne oraz miary bezwzględne (rozstęp, odchylenie przeciętne i odchylenie standardowe) i miary względne (współczynnik zmienności).
Zinterpretuj (o ile to możliwe) poszczególne miary zmienności.
Empiryczny obszar zmienności (rozstęp, amplituda wahań) – jest różnicą między największą i najmniejszą wartością zmiennej w badanej zbiorowości
Odchylenie standardowe–jest pierwiastkiem kwadratowym z wariancji. Określa i ile wszystkie jednostki danej zbiorowości różnią się średnio od średniej arytmetycznej badanej zmiennej. Z zależności między wariancją a odchyleniem standardowym wynika, że zawsze, gdy chcemy obliczyć odchylenie standardowe, etapem pośrednim jest obliczenie wariancji.
Wariancja– to średnia arytmetyczna z kwadratów odchyleń poszczególnych wartości cechy od średniej arytmetycznej całej zbiorowości.
Odchylenie przeciętne –określa, o ile wszystkie jednostki danej zbiorowości różnią się średnio ze względu na wartość zmiennej od średniej arytmetycznej tej zmiennej. Odchylenie przeciętne jest średnią arytmetyczną bezwzględnych wartości (modułów) odchyleń wartości cechy od jej średniej arytmetycznej.
Odchylenie ćwiartkowe (Q) – opiera się na wartościach kwartyla pierwszego (Q1) i trzeciego (Q3). Mierz poziom zróżnicowania tylko części jednostek badanej zbiorowości (pozostałej po odrzuceniu 25% jednostek o wartościach najniższych oraz 25% jednostek o wartościach najwyższych). Odchylenie ćwiartkowe mierzy więc średnią rozpiętość w połowie obszaru zmienności.
Współczynnik zmienności–jest ilorazem bezwzględnej miary dyspersji i odpowiednich wartości średnich. Jest on wyrażony w procentach.
Czemu służą współczynniki zmienności?
Wartości średnie nie dają wyczerpującej charakterystyki struktury zbiorowości. W szczególności nie informują one o stopniu zmienności (dyspersji) badanej cechy. Dyspersją (rozproszenie) nazywamy zróżnicowanie jednostek zbiorowości statystycznej ze względu na wartość badanej cechy. Siłę dyspersji oceniamy za pomocą pozycyjnych i klasycznych miar zmienności
Które momenty (centralne lub absolutne) statystyka wykorzystuje w opisie rozkładów statystycznych?
W statystyce wykorzystuje się w opisie rozkładów oba momenty, ponieważ momenty absolutne dzielą się na momenty zwykłe i centralne, w których sumuje się wartości bezwzględne.
Opisz zjawisko asymetrii. Odróżnij asymetrię prawo- i lewostronną. Wypowiedź potwierdź przykładami graficznymi.
Celem miar asymetrii jest ocena, czy w badanej zbiorowości liczebnie przeważają realizacje niższe od średniej asymetrycznej czy też wyższe od niej. Im ta przewaga jest wyraźniejsza tym asymetria jest silniejsza.
Asymetria prawostronna (dodatnia) wystąpi wtedy, gdy liczebnie przeważają niższe od średniej wartości analizowanej cechy statystycznej.
Asymetria lewostronna występuje gdy częstsze są realizacje wyższe niż wartość przeciętna.
Miary asymetrii i koncentracji uzyskujemy przez podzielenie właściwego momentu centralnego przez liczbę elementów oraz odpowiednią potęgę odchylenia standardowego. Co w ten sposób uzyskujemy?
Uzyskujemy zagęszczenie, rodzaj i stopień odstępstwa od symetrii rozkładu badanej cechy.
Opisz zjawisko koncentracji. Odróżnij koncentrację wokół średniej oraz koncentrację ogólnej sumy wartości. Odpowiedź zilustruj przykładami.
Statystycznego opisu struktury zjawisk masowych można dokonać pod względem koncentracji. Rozróżnia się dwa rodzaje koncentracji: koncentrację rozumianą jako nierównomierny podział zjawiska w zbiorowości oraz koncentrację zbiorowości wokół średniej (tzw. Kurtoza).
Ze zjawiskiem koncentracji pierwszego rodzaju mamy do czynienia wówczas, gdy występuje nierównomierny rozdział łącznego funduszu cechy (np. dochodu, produkcji) pomiędzy poszczególne jednostki zbiorowości (np. indywidualne osoby czy zakłady produkcyjne). Koncentracja w tym znaczeniu jest bezpośrednio związana z asymetrią i dyspersją. Im silniejsza asymetria i większe zróżnicowanie jednostek, tym koncentracja jest większa. np. wiek mężczyzn grających w gry komputerowe więcej ni 3 h/d
Czym różnią się związki przyczynowo-skutkowe od jedynie korelacyjnych? Odpowiedź zilustruj przykładem.
Związek przyczynowo-skutkowy oznacza, że między danymi zjawiskami czy zdarzeniami zostało wykazane powiązanie. Innymi słowy, że A jest przyczyną B, przykład : podczas awarii oczyszczalni ścieków zawsze następuje zrzut nieoczyszczonych ścieków do rzeki.
Badania przyrody, odkrycia fizyki sprawiły, że znamy wiele powiązań między zdarzeniami, możemy dokonywać więc uzasadnionych przewidywań. Jeżeli znamy przyczynę, wiemy, jaki nastąpi skutek.
Korelacja -wzajemny związek, oznaczające wzajemne powiązanie, współwystępowanie jakichś zjawisk lub obiektów. Korelacja nie ujawnia żadnego związku przyczynowo-skutkowego. Częstym błędem jest przyjmowanie, że zmienne silnie nawet skorelowane są związane jakimś związkiem przyczynowo-skutkowym, tym mocniejszym, im korelacja większa. Przykład: po złamaniu nogi i włożeniu jej w gips trzeba chodzić o kulach, ale ich używanie nie wpływ na szybkość zrostu kości. W tym wypadku mamy jedynie do czynienia ze współwystępowaniem zjawisk, a nie związkiem przyczynowo-skutkowym.
Czy wariacja i kowariancja mają ze sobą coś wspólnego?
Kowariancja – liczba określająca zależność liniową między zmiennymi losowymi X i Y.
Wariancja – klasyczna miara zmienności. Intuicyjnie utożsamiana ze zróżnicowaniem zbiorowości; jest średnią arytmetyczną kwadratów odchyleń (różnic) poszczególnych wartości cechy od wartości oczekiwanej.
Macierz kowariancji jest uogólnieniem pojęcia wariancji na przypadek wielowymiarowy.
W jakim celu obliczamy współczynnik korelacji? Czy w ten sposób można wykryć związki przyczynowo-skutokowe?
O badaniu związku korelacyjnego można mówić tylko wtedy, gdy przynajmniej jedna zmienna jest mierzalna. W celu określenia stopnia zależności między badanymi zmiennymi można posłużyć się współczynnikiem korelacji lub funkcją regresji. Współczynnik korelacji nie ujawnia żadnego związku przyczynowo-skutkowego.
O czym informuje współczynnik korelacji?
Współczynnik korelacji jest miernikiem siły zależności między badanymi zmiennymi. Jeśli współczynnik korelacji wynosi:
rxy=1 pełna korelacja (obie cechy maleją lub rosną)
rxy=0 brak jakiejkolwiek współzależności
rxy=-1 występuje antykorelacja (wraz ze wzrostem 1 cechy druga maleje)
Dlaczego współczynnik korelacji tak rzadko jest równy 1 lub -1?
Ponieważ w rzeczywistości bardzo rzadko występuje dokładna dodatnia, liniowa zależność, jaki i dokładna, ujemna zależność liniowa pomiędzy dwiema zmiennymi losowymi.
Przedstaw przykłady sytuacji, w której |r xy|=0.
Przykład: Zmienna losowa X - ilość strzelonych goli przez Real w meczu ligowym
Zmienna losowa Y – rodzaj posiłku jaki będę spożywał na obiad
Czemu służy liczenie prostych regresji? Podaj korzyści płynące z tej operacji.
Aby znaleźć zależność pomiędzy dwiema zmiennymi, dzięki czemu łatwiej interpretuje się uzyskane wyniki. Pozwala prognozować nam w jaki sposób zmieni się wartość jednej cechy na zmianę wartości drugiej cechy.
Dlaczego proste regresji należy „obliczać” - zamiast wykreślić je bezpośrednio na podstawie danych źródłowych?
W celu wyliczenia współczynników regresji. Prosta regresji, poprzez wyliczony dokładnie współczynnik, musi jak najlepiej przewidywać wartość zmiennej zależnej, aby błąd oszacowania był jak najmniejszy, tzn. aby suma kwadratów odchyleń między punktami reprezentującymi wyniki pomiaru a odpowiadającymi im punktami na krzywej była jak najmniejsza.
O czym informują krzywe regresji? Objaśnij kwestię na konkretnym przykładzie.
O tym jak jest współzależność liniowa pomiędzy dwiema zmiennymi, tzn. za pomocą krzywej regresji zmiennej X względem Y można pokazać, jak zmieniają się średnie warunkowych rozkładów zmiennej X wraz ze zmianą wartości zmiennej Y.
Przykładem może być związek pomiędzy inteligencją a oceną ze statystyki. Im wyższa inteligencja tym wyższa ocena.
Kiedy proste regresji są wzajemnie prostopadłe? Odpowiedź zilustruj przykładem.
Jeśli zmienne są nieskorelowane. W tym przypadku prosta regresji Y względem X jest równoległa do osi odciętych, a prosta regresji X względem Y jest równoległa do osi rzędnych. Proste te przecinają się w punkcie o współrzędnych (x=E(x), y=E(Y))
W opisie rozkładu cechy oraz w opisie rozkładu zmiennej losowej występują analizowane pojęcia. Jakie to pojęcia? Na czym polega ich podobieństwo?
Chodzi o pojęcie przypisywania wartościom cech bądź zmiennej losowej swego rodzaju prawdopodobieństwa ich wystąpienia. W rozkładzie cechy wartością przypisywana jest częstotliwości ich wystąpienia, a więc można określić prawdopodobieństwo jej wystąpienia, tak jak w przypadku prawdopodobieństwa realizacji zmiennej losowej.
Co to jest zmienna losowa? Podaj przykład.
Zmienna losowa jest funkcją rzeczywistą określoną na przestrzeni zdarzeń elementarnych, która przypisuje tym zdarzeniom elementarnym wartość liczbową.
Przykład: wylosowanie kart z talii (wybrana karta jest zmienną losową, wysokość tej karty wartością tej zmiennej); wylosowanie numerku w lotto, wylosowanie osoby w Sekretnym Mikołaju.
Jak powstaje funkcja rozkładu prawdopodobieństwa? Co w niej jest obiektywne, a co arbitralne (subiektywne)?
Z dystrybuanty wyznaczyć punkty skokowe, a następnie wartości rozkładu prawdopodobieństwa.
Odróżnij zmienną losową dyskretną oraz zmienną lodową ciągłą. Podaj przykłady.
Zmienna losowa dyskretna (skokowa) może przyjmować skończoną lub nie skończoną, ale przeliczalną liczbę wartości, a zmienna losowa ciągła przyjmuje wartości ze zbioru liczb rzeczywistych.
Przykład zmiennej losowej ciągłej: zmiana wzrostu człowieka
Przykład zmiennej losowej dyskretnej: liczba rzutów kostką do wypadnięcia jedynki
Jakie znasz rozkłady naturalne zmiennej losowej? Co w nich "naturalnego"
Rozkład Gausa- Laplace'a i jego transformacje ( rozkład Chi -kwadrat, rozkład t- Studenta, rozkład Fischera-Snedecora).
Rozkład normalny jest najpopularniejszym rozkładem w przyrodzie. Jeśli jakaś wielkość jest sumą lub średnią bardzo wielu drobnych losowych czynników, to niezależnie od rozkładu każdego z tych czynników, jej rozkład będzie zbliżony do normalnego. Gęstość rozkładu normalnego rośnie wraz z przybliżaniem się do „środka skali”. Tu sytuują się obiekty typowe. Na krańcach sytuowane są odmienności i jest to kolejna tez potwierdzająca „normalność” tego rozkładu, ponieważ np. więcej jest osób, które maja przeciętny wzrost niż tych którzy są bardzo wysocy lub niscy.
Co to są tzw. rozkłady teoretyczne?
Realizacje zmiennych losowych mogą być skończonymi lub nieskończonymi zbiorami informacji liczbowych, występujących z określonymi prawdopodobieństwami. Informacje te tworzą rozkłady teoretyczne. W statystyce opisowej ich odpowiednikiem są rozkłady empiryczne, będące zbiorem informacji o wariantach cech i ich częstościach. W statystyce matematycznej, najczęściej wykorzystywane są rozkłady :
- dla zmiennych losowych skokowych: rozkład dwumianowy, oraz rozkład Poissona
- dla zmiennych losowych ciągłych: rozkład normalny Gausa- Laplace'a i jego transformacje (rozkład Chi -kwadrat, rozkład t- Studenta, rozkład Fischera-Snedecora).
Otóż „teoretyczne” jest w nim wnioskowanie z rozkładu empirycznego, który jest przeprowadzany na podstawie częściowych badań, które nie zawsze są precyzyjne i tylko sposób teoretyczny przedstawiają nam rzeczywistość.
Dlaczego w przypadku zmiennej losowej ciągłej miejsce tradycyjnego " prawdopodobieństwa" zajmuje funkcja gęstości?
D
la
zmiennej losowej ciągłej niemożliwe jest przypisanie wszystkim jej
wartościom prawdopodobieństw sumujących się do jedności. Możliwe
jest natomiast przyporządkowanie takich prawdopodobieństw
przedziałom liczbowym typu : P(x<X<x+∆x), gdzie ∆x jest
długością przedziału o początku w punkcie x. Jeśli przy ∆x
0 istnieje granica f(x) o postaci:
to granicę tę nazywamy funkcja gęstości prawdopodobieństwa zmiennej losowej ciągłej X.
Jak rozumieć termin "wartość najbardziej prawdopodobna"? Odróżnij przypadek zmiennej skokowej oraz zmiennej ciągłej.
To wartość, która będzie miała największe prawdopodobieństwo w losowaniu. Czyli ta, która najprawdopodobniej się trafi. W zmiennej skokowej będzie to konkretne zdarzenie (no bo są określone) np. wynik rzutu kostką - to, które ma największe prawdopodobieństwo zajścia.
W zmiennej ciągłej będzie to przedział , ale z naciskiem na EX (czyli m), np. wiek człowieka.
Dlaczego znajomość rozkładu normalnego ma tak wielkie znaczenie dla opisu statystycznego?
Rozkład normalny, zwany też rozkładem Gaussa odgrywa ważną rolę w statystycznym opisie zagadnień przyrodniczych, przemysłowych, medycznych, społecznych itp. Przyczyną jego znaczenia jest częstość występowania w naturze. Jeśli jakaś wielkość jest sumą lub średnią bardzo wielu drobnych losowych czynników, to niezależnie od rozkładu każdego z tych czynników, jej rozkład będzie zbliżony do normalnego, stąd można go bardzo często zaobserwować w danych. Ponadto rozkład normalny ma interesujące właściwości matematyczne, dzięki którym oparte na nim metody statystyczne są proste obliczeniowo.
Dlaczego stosunkowo łatwo naszkicować wykres rozkładu normalnego?
Stosunkowo łatwo jest naszkicować wykres rozkładu normalnego, ponieważ jest możliwość sprowadzenia dowolnego rozkładu normalnego do postaci standardowego rozkładu normalnego, którego funkcja gęstości i dystrybuanta zostały stablicowane. Inne rozkłady normalne są prostymi transformacjami rozkładu standardowego.
Dlaczego standaryzujemy zmienną losową?
Dystrybuanta rozkładu normalnego określona jest wzorem, wykorzystywanie wzoru do obliczania prawdopodobieństw natrafia na trudności rachunkowe. Dla uniknięcia tego mankamentu stosuje się przekształcenie zwane standaryzacją.
Narysuj wykres rozkładu normalnego N(10,2) oraz jego dystrybuanty.
Czy dystrybuanta rozkładu normalnego jest funkcją rosnącą? A inne dystrybuanty zmiennej ciągłej?
Na czym polega wnioskowanie statystyczne? Odróżnij jego odmiany.
We wnioskowaniu statystycznym badamy rozkład w zbiorze i na tej podstawie orzekamy o rozkładzie cech w innym zbiorze, do tego podobnym.
Odmiany:
wnioskowanie z całości o części (wnioskowanie z populacji z próbie)
wnioskowanie z części o całości (wnioskowanie z próby o populacji)
We wnioskowaniu "z populacji o próbie" określamy rozkład średniej z próby. Dlaczego jedynie "rozkład", a nie wartość średniej?
Średnia
w hipotetycznej próbie pobranej z populacji G jest
określona probabilistycznie i dlatego wyznaczamy nie jej wartość
(z uwagi na losowy charakter wyboru w każdym konkretnym losowaniu
konkretna średnia
będzie inna), ale jej rozkład. Średnia z próby jest w tym
wypadku zmienną losową i jako taka ma własny rozkład.
W jakim przypadku rozkład średniej z próby jest identyczny z rozkładem parametru w populacji ? Uzasadnij odpowiedź opisowo oraz rachunkowo.
Uzasadnienie rachunkowe:
Zgodnie z definicją średniej arytmetycznej:
Ponieważ dla zmiennych losowych niezależnych:
(wartość oczekiwana sumy zmiennych losowych niezależnych jest równa sumie ich wartości oczekiwanych), to:
z
uwagi na to, iż wartość oczekiwana dla każdej zmiennej losowej
(dla każdego konkretnego losowania) jest równa wartości
oczekiwanej
w populacji G.
Ponieważ:
(wariancja
sumy zmiennych losowych niezależnych jest równa sumie ich
wariancji), rozproszenie średniej z próby (wariancja
)
będzie
(z
uwagi na to, iż odchylenie standardowe dla każdej zmiennej losowej
jest równe odchyleniu standardowemu
w populacji G.
Uzyskane wyniki:
„Najbardziej prawdopodobną” wartością średniej z próby jest wartość średnia w populacji, z której losujemy próbę. Inaczej mówiąc, najbardziej prawdopodobne jest wylosowanie elementu z przedziału, w którym funkcja gęstości przyjmuje wartość maksymalną.
Rozrzut
średniej z próby zależy od liczby n (liczebności próby). Gdy n=1
(gdy losujemy jeden element),
.
Rozkład wartości oczekiwanej (średniej w próbie) jest wtedy
identyczny z rozkładem cechy w populacji G.
W jakich przypadkach losowanie jednoznacznie wyznaczy średnią z próby? Uzasadnij odpowiedź opisowo lub rachunkowo.
Im
więcej elementów losujemy, tym rozproszenie średniej z próby
maleje. Gdyby próba była nieskończenie liczna,
byłoby równe zeru; wtedy uzyskalibyśmy 100% pewności, że
,
czyli jednoznacznie wyznaczylibyśmy średnią z próby.
Jak rozumieć słowo "estymacja"? Co to znaczy "estymować"?
Estymacja (szacowanie) to operacja wnioskowania z parametrów próby o parametrach charakteryzujących populację. Estymować to znaczy szacować.
Na czym polega estymacja punktowa? Podaj jej przykład.
W estymacji punktowej ustalamy rozkład prawdopodobieństwa badanego parametru w próbie (wnioskowanie z populacji) lub w populacji generalnej (wnioskowanie z próby). Np. na podstawie parametrów populacji generalnej G określamy rozkład średniej w hipotetycznej próbie: wartość oczekiwaną i odchylenie standardowe.
Na tej podstawie możemy określić prawdopodobieństwo trafienia rzutką w 10.
Na czym polega estymacja przedziałowa? Podaj jej przykład.
W estymacji przedziałowej rzecz przedstawia się odwrotnie do estymacji punktowej: na podstawie parametrów populacji lub próby ustalamy przedział (tzw. "przedział ufności"), w którym z zadanym prawdopodobieństwem (tzw. "współczynnikiem ufności") zawiera sie badany/estymowany parametr.
Możemy określić prawdopodobieństwo trafienia rzutką w dane miejsca na tarczy (przedziały), znając wcześniej wyniki n rzutów.
Czy estymacja punktowa różni się od przedziałowej?
Tak, ponieważ w estymacji punktowej ustalamy rozkład prawdopodobieństwa badanego parametru w próbie ( wnioskowanie z populacji) lub w populacji generalnej (wnioskowanie z próby), a w estymacji przedziałowej odwrotnie: na podstawie parametrów populacji lub próby ustalamy przedział, w którym z zadanym prawdopodobieństwem zawiera się badany parametr.
Jaka jest rola współczynnika ufności?
Współczynnik ufności odgrywa rolę w estymacji przedziałowej, a więc gdy chcemy na podstawie parametrów populacji lub próby ustalić przedział, w którym z zadanym prawdopodobieństwem (czyli współczynnikiem ufności) zawiera się badany parametr.
Czy istnieje "najlepszy" współczynnik ufności?
Im większa wartość współczynnika ufności, tym szerszy przedział ufności, a więc mniejsza dokładność estymacji parametru. Im mniejsza wartość 1 − α, tym większa dokładność estymacji (bo węższy przedział ufności), ale jednocześnie tym większe prawdopodobieństwo popełnienia błędu (α). Wybór odpowiedniego współczynnika jest więc kompromisem pomiędzy dokładnością estymacji a ryzykiem błędu. W praktyce przyjmuje się zazwyczaj wartości: 0,99; 0,95 lub 0,90, zależnie od parametru.
Im współczynnik ufności większy, tym przedział ufności szerszy. Czy to logiczne? Wyjaśnij to zjawisko.
Współczynnik ufności 1 − α jest to prawdopodobieństwo, że estymowany parametr znajdzie się w konkretnym przedziale (przedziale ufności) . Im większa wartość tego współczynnika, czyli prawdopodobieństwa, że w danym przedziale zawiera się estymowany parametr, tym przedział, w którym ma się zawrzeć estymowany parametr (a więc przedział ufności) musi być szerszy.
Jeśli przedział ufności jest większy, to lepiej czy gorzej?
Im większą wartość przyjmuje współczynnik ufności, tym szerszy jest przedział ufności, a więc dokładność estymacji jest mniejsza. Im większy tym gorzej.
Jak interpretować 90% pewność oraz 90% prawdopodobieństwo?
90% pewności oznacza, że w 90% zbadaliśmy jakąś populację, natomiast 90% prawdopodobieństwo oznacza, że na 90% wylosujemy daną rzecz.
Czy rozkład t-Studenta jest odmianą rozkładu normalnego? Kiedy z niego korzystamy?
Rozkład t-Studenta jest inny dla każdego n. Im n jest większe tym bardziej rozkład t-Studenta zbliża się do normalnego rozkładu, dla n > 120 właściwie się z nim równa.
Dlaczego testowanie hipotez tak wiele znaczy w nauce, medycynie i technice?
Pozwala sprawdzić, czy nowe rozwiązania (nowe leki, nowe technologie) mają szansę zadziałać. Jeżeli odrzucimy hipotezę zerową, która mówi o tym, że nowa technologia się nie sprwadzi, mamy szansę wprowadzić przełomowe rozwiązania (np.: lek na HIV/AIDS)
Na czy polega testowanie hipotez: przedstaw rachunkowy aspekt sprawy.
Służą do weryfikacji hipotez.
Test weryfikujący hipotezę o wskaźniku struktury w populacji generalnej
H0: p=p0,
sprawdzian
testu
O hipotezie zerowej mówi się, że jest „negatywna”. Na czym polega jej „negatywność”?
Negatywność hipotezy zerowej polega na tym, że tworzymy ją tak, aby była odwrotnością hipotezy, której słuszność chcemy udowodnić (hipotezy alternatywnej).
Dlaczego hipoteza zerowa jest „negatywna”?
Hipotezę zerową tworzymy tak, aby była odwrotnością hipotezy, której słuszność chcemy udowodnić. Przy czym hipoteza zerowa jest hipotezą sprawdzalną, weryfikowalną (z minimalną możliwością popełnienia błędu) i życzeniem badacza jest ją obalić.
Czym różnią się hipotezy parametryczne od nieparametrycznych? Podaj ich przykłady.
Hipotezy parametryczne – hipotezy statystyczne precyzujące wartość parametru w rozkładzie populacji danego typu, np.: liczba zgłoszeń do centrali telefonicznej w ciągu godziny
Hipotezy nieparametryczne - hipotezy statystyczne precyzujące typ rozkładu populacji generalnej, np.: wartość siły zrywającej włókna danego rodzaju
69. Na jakie ograniczenia napotyka testowanie hipotez parametrycznych?
Prawidłowe określenie przedziału ufności.
Gdy znamy odchylenie standardowe σ statystyka ma rozkład normalny.
Gdy nie znamy odchylenia standardowego a liczebność jest ponad 120 elementów możemy przyjąć, że σ=S. Przy tak licznej próbie
Jeżeli mamy poniżej 120 elementów σ=S i należy się posłużyć wzorem na określenie przedziału ufności w rozkładzie normalnym
Jeżeli
otrzymana na podstawie konkretnej próby wartość zn
statystyki Zn
przyjmuje wartość z obszaru Ʌ,
sprawdzaną hipotezę H0
odrzucamy, ponieważ z założenie prawdziwości H0
wynika, że prawdopodobieństwo realizacji zdarzenia Zn
Ʌ
jest małe i równe α.
Gdy wartość zn statystyki Zn znajdzie się poza obszarem Ʌ, stwierdzamy jedynie, że nie ma podstaw do odrzucenia sprawdzanej hipotezy H0.
70. Czym różnią się testy zgodności od testów istotności? Podaj ich przykłady.
Testy istotności to taki rodzaj testów, w których ma podstawie wyników próby losowej podejmuje się jedynie decyzję odrzucenia hipotezy sprawdzanej lub stwierdza się, że brak jest podstaw do jej odrzucenia. Nie podejmuje się decyzji o przyjęciu sprawdzonej hipotezy, np. sprawdzenie prawdopodbieństwa działania nowego leku
Test zgodności pozwala na sprawdzenie hipotezy, że dana populacja ma określony typ rozkładu. np. prawdopodobieństwo zdarzenia wypadku spowodowanego przez pijanego kierowce (różne dla rónych dni tygodnia)
71. Czym różnią się współczynniki ufności od poziomów istotności? Dlaczego jedne są takie duże, a drugie takie małe?
Poziom istotności jest to górne ograniczenie prawdopodobieństwa popełnienia błędu I rodzaju (oznaczane symbolem α i określane poziomem istotności) przyjmowane arbitralnie. Ze względu na konsekwencje popełnienia tego błędu, które mogą być ogromne, chcemy, żeby prawdopodobieństwo jego popełnienia było jak najmniejsze, bliskie zeru
Przedział ufności jest to losowy przedział, który z dużym prawdopodobieństwem pokrywa się z parametrem θ (charakteryzujący populację). Współczynnik ufności jest to natomiast ustalone prawdopodobienstwo 1 – α, oznaczające prawdopodobieństwo z jakim parametr θ jest pokryty przedziałem ufności. W praktyce wybiera się go jako dowolnie duże prawdopodobieństwo, najczęściej przyjmowane są wartości 1 – α (czyli 0,95). Im współczynnik ufności bliższy jest 1, tym szerszy, a więc bardziej użyteczny jest przedział ufności.
Różnica ich wielkości wynika z definicji: poziom istotności α przyjmuje się jak najmniejszy, bliski zeru, natomiast współczynnik ufności wynosi 1- α.
72. Im poziom istotności jest mniejszy, tym trudniej odrzucić hipotezę zerową.
Czy to logiczne?
Tak, ponieważ poziom istotności to prawdopodobieństwo popełnienia błędu I rodzaju. Dlatego im mniejszy poziom istotności, tym mniejsze prawdopodobieństwo popełnienia błędu I rodzaju, czyli odrzucenia hipotezy, która w rzeczywistości jest prawdziwa.
73. Dlaczego dopuszczalny metodologicznie poziom istotności nie przekracza 0,05? Jak rozumieć owe „0,05”?
Prawdopodobieństwo popełnienia błędu I rodzaju (oznaczane symbolem α i określane poziomem istotności) przyjmowane jest arbitralnie. Ze względu na konsekwencje popełnienia tego błędu, które mogą być ogromne, chcemy, żeby prawdopodobieństwo jego popełnienia było jak najmniejsze, bliskie zeru. Im mniejszy przyjmie się poziom istotności w teście (im mniejsze dopuszcza się ryzyko popełnienia błędu I rodzaju), tym trudniej jest odrzucić hipotezę zerową.
Najczęściej wystarczające jest przyjęcie jako ryzyka popełniania błędu I rodzaju 0,05. Mniejsze np.: 0,01 przyjmuje się dla wyjątkowo ważnych badań – technicznych, medycznych.
74. Na czym polega błąd I rodzaju? Na czym polega błąd II rodzaju? Objaśnij na konkretnym przykładzie.
Błąd I rodzaju polega na odrzuceniu hipotezy (w tym przypadku hipotezy zerowej), gdy w rzeczywistości jest ona prawdziwa (tym samym fałszywa jest hipoteza alternatywna).
Błąd II rodzaju polega na przyjęciu hipotezy (w tym przypadku hipotezy zerowej), gdy w rzeczywistości jest ona fałszywa (tym samym prawdziwa jest hipoteza alternatywna)
Przykład:
75. Dlaczego testy statystyczne nastawiane są na eliminację błędu I rodzaju?
Najlepszym testem byłby test, który minimalizuje prawdopodobieństwa popełnienia obu błędów jednocześnie (I i II rodzaju). Taki test nie istnieje, ponieważ przy ustalonej liczebności próby losowej zmniejszanie prawdopodobieństwa błędu I rodzaju powoduje wzrost prawdopodobieństwa błędu II rodzaju i na odwrót.
Błąd I rodzaju kontroluje się przez zadanie małej wartości dla poziomu istotności. Poziom istotności jest to górne ograniczenie prawdopodobieństwa popełnienia błędu I rodzaju. Błędu II rodzaju nie można kontrolować w taki sposób, jak błąd I rodzaju. W praktyce nie wiadomo, ile dokładnie wynosi prawdopodobieństwo popełnienia tego błędu.
Po za tym popełnienie błędu I rodzaju (przyjęcie za prawdziwą błędnej hipotezy) może spowodować podjęcie decyzji mających wręcz katastrofalne negatywne skutki.
76. Czy różnią się hipotezy jednostronne od hipotez dwustronnych? Podaj przykłady.
Hipoteza jednostronna typu µ < µ0 lub µ > µ0 zakłada kierunek różnicy.
np. sprawdzenie czy więcej czy mniej niż 50 na 100 kobiet po 60 roku życia farbuje włosy
Hipoteza dwustronna typu µ ≠ µ0 nie zakłada kierunku różnicy.
np. sprawdzenie czy 50 na 100 kobiet po 60 roku życia farbuje włosy
Przypuśćmy, że interesuje nas populacja krów i na podstawie jakichś informacji spodziewamy się, że średnia wydajność mleka w tej populacji jest równa µ0 = 200 litrów mleka. Gdybyśmy chcieli na podstawie jakieś próby sprawdzić czy rzeczywiście wartość średnia populacji jest równa 200, przyjęlibyśmy hipotezę zerową H0: µ = 200. Moglibyśmy sformułować wiele hipotez alternatywnych np. HA : µ = 384 litrów mleka, jednak sens mają tylko trzy: H1 : µ < hipoteza jednostronna µ200 < µ0 stosujemy test jednostronny H2 : µ hipoteza jednostronna µ> 200 > µ0 stosujemy test jednostronny H3 hipoteza dwustronna µ ≠µ0: µ ≠ 200 stosujemy test dwustronny
77. Czy różnią się (a jeśli tak to czym) tablice statystyczne od tablic rozkładu prawdopodobieństwa?
Jest to to samo.
Tablica statystyczna jest formą uporządkowania danych liczbowych jednej lub więcej zbiorowości według przyjętych kryteriów.
Tablice najczęściej wykorzystywanych rozkładów:
Rozkład normalny
Rozkład t-Studenta
Rozkład chi-kwadrat cz.1 i cz.2
78. Do czego służą testy istotności? Do czego służą testy zgodności?
Test istotności stosowany dla hipotez parametrycznych. Jest najczęściej używanym w praktyce statystycznej typem testu, który pozwala na odrzucenie hipotezy z małym ryzykiem popełnienia błędu. Uwzględnia on jedynie bład I rodzaju, umożliwia więc decyzję o odrzuceniu hipotezy zerowej lub stwierdzenia, ze nie ma podstaw do jej odrzucenie (co nie oznacza jej przyjęcia).
Test zgodności stosowany dla hipotez nieparametrycznych dotyczące ustalenia typu rozkładu jednej populacji (określonej postaci funkcyjnej dystrybuanty). Stosuje się go tylko dla prób o dużej liczebności w porównaniu z liczebnością populacji generalnej, przy czym próba powinna być próbą prostą losową (losowanie niezależne), a poziom istotności powinien być jak najmniejszy (0,05). Test ten nie precyzuje wartości parametrów tego rozkładu.
79. Dlaczego konkluzja testu statystycznego brzmi „brak podstaw” (do odrzucenia hipotezy zerowej) zamiast po prostu „odrzucamy” (hipotezę zerową)?
Przyjęcie i odrzucenie hipotezy w teście statystycznym nie jest równoznaczne z logicznych udowodnieniem jej prawdziwości lub fałszywości. Jest tak, ponieważ w teście statystycznym kierujemy się tylko danymi liczbowymi.
Na podstawie wyników testu statystycznego podejmuje się jedynie decyzję odrzucenia hipotezy sprawdzanej lub stwierdza się, że jest bark podstaw do jej odrzucenia. Nie podejmuje się decyzji o przyjęciu sprawdzanej hipotezy, ponieważ bierze się pod uwagę jedynie błąd I rodzaju, nie uwzględniając konsekwencji popełniania błędu II stopnia.
80. Objaśnij terminy „obszar krytyczny” oraz „wartość krytyczna”.
Obszar krytyczny – zbiór wszystkich wartości statystyki testowej, przy których można odrzucić hipotezę zerową i przyjąć hipotezę alternatywną. Ilekroć wartość statystyki testowej z próby znajdzie się w tym obszarze, podejmuje się decyzję o odrzuceniu hipotezy zerowej.
Przykład: badanie działania leku: hipoteza zerowa – lek nie zadziała, obszar krytyczny: wszystkie przypadki w których wystąpiła działanie pożądane leku
Wartość krytyczna – wartość minimalna lub maksymalna (zależnie od testu), która pozwala odrzucić hipotezę zerową i przyjąć alternatywną. Wartości krytyczne odczytuje się z tablic rozkładu statystyki, przy zadanym poziomie istotności α, stosownie so sposobu sformułowania hipotezy alternatywnej.
Przykład: w przypadku leku, minimalna ilość osób „śmiertelnie chorych”, które przeżyły po zastosowaniu leku, która pozwala na stwierdzenie, ze lek działa (odrzucenie hipotezy zerowej)
81. W czym wyraża się podobieństwo między konstrukcją przedziałów ufności a testowaniem hipotez statystycznych?
Podobieństwo polega na tym, że w obu przypadkach wykorzystywane są przedziały przestrzeni próby, w których z bardzo dużym prawdopodobieństwem ma znajdować się wartość szacowanego parametru.