III. systematyka w badaniach ekologicznych
badanie rozk艂adu cechy w populacji - rozk艂ad normalny
Rozk艂ad normalny聽
聽聽 zwany te偶 rozk艂adem Gaussa wygl膮da mniej wi臋cej jak s艂o艅, kt贸rego po艂kn膮艂 w膮偶 w Ma艂ym Ksi臋ciu. Noo... odrobin臋 inaczej. A konkretnie to jako艣 tak:
聽
聽聽 Rozk艂ad normalny jest wykresem zmiennej ci膮g艂ej. Rozk艂ad normalny obrazuje, jak rozk艂ada si臋 dana cecha w populacji. We藕my klasyczny przyk艂ad i uznajmy, 偶e powy偶szy wykres dotyczy wzrostu. Najwi臋cej jest os贸b ze wzrostem 艣rednim. To szczyt naszej g贸rki (ilo艣膰 os贸b z wzrostem 艣rednim odczytujemy na osi f(x)). Im dalej w obie strony (ku osobom ni偶szym i wy偶szym) od naszego 艣redniaka, tym takich os贸b jest mniej. Kra艅ce wykresu obejmuj膮 kar艂贸w (z jednej strony) i olbrzym贸w (z drugiej). Jak wida膰 nie s膮 oni jako艣 specjalnie reprezentowani w populacji.
Rozk艂ad normalny 鈥 zwany te偶 krzyw膮 Gaussa. Obrazuje rozk艂ad danej ci膮g艂ej cechy w populacji przy za艂o偶eniu losowo艣ci pr贸by
testowanie hipotez badawczych
Testowanie hipotez sk艂ada si臋 z nast臋puj膮cych etap贸w.
I. Przyj臋cie za艂o偶e艅, czyli wyb贸r modelu i postawienie hipotez badawczych. Wyr贸偶niona hipoteza, kt贸ra ma podlega膰 weryfikacji, nazywana jest hipotez膮 zerow膮. Opr贸cz niej mo偶na formu艂owa膰 hipotezy dopuszczalne, tzn. hipotezy, kt贸re uznajemy za mo偶liwe. Ka偶d膮 hipotez膮 dopuszczaln膮, nie b臋d膮c膮 hipotez膮 zerow膮, nazywa si臋 hipotez膮 alternatywn膮.
II. Otrzymanie rozk艂adu z pr贸by, czyli wyb贸r rozk艂adu przy za艂o偶onym modelu i postawionej
hipotezie badawczej. W odniesieniu do wielu cech badanych przez biolog贸w, cz臋sto rozk艂adem
tym jest rozk艂ad normalny.
III. Wyznaczenie poziomu istotno艣ci i obszaru krytycznego, czyli wyb贸r maksymalnej warto艣ci b艂臋du, jaki pozwalamy sobie pope艂ni膰 w przeprowadzanym wnioskowaniu oraz okre艣lenie warto艣ci statystyki testowej, dla kt贸rych hipoteza zerowa zostanie odrzucona.
IV. Wyliczenie warto艣ci statystyki testowej.
V. Podj臋cie decyzji.
W trakcie testowania hipotezy istnieje zagro偶enie pope艂nienia dw贸ch podstawowych b艂臋d贸w 鈥 pierwszego i drugiego rodzaju. B艂膮d pierwszego rodzaju pope艂niamy odrzucaj膮c hipotez臋
zerow膮, je偶eli w rzeczywisto艣ci jest ona prawdziwa. Prawdopodobie艅stwo pope艂nienia tego b艂臋du r贸wne jest 伪, wi臋c mo偶na go kontrolowa膰. B艂膮d drugiego rodzaju pope艂niamy nie odrzucaj膮c hipotezy zerowej, kt贸ra w rzeczywisto艣ci jest fa艂szywa. B艂膮d ten nie mo偶e by膰 kontrolowany, ale jest mniej 鈥瀏ro藕ny鈥 od b艂臋du pierwszego rodzaju.
test t- studenta
Aby u偶y膰 testu t-Studenta, trzeba za艂o偶y膰, 偶e badany parametr ma rozk艂ad normalny i oszacowa膰 na podstawie pr贸by parametry tego rozk艂adu 鈥 warto艣膰 oczekiwan膮 m i odchylenie standardowe s.
dane parametryczne i nieparametryczne
Statystyka nieparametryczna 鈥 ga艂膮藕 statystyki, zajmuj膮ca si臋 modelami i metodami, nie wymagaj膮cymi za艂o偶e艅 odno艣nie rozk艂adu populacji z kt贸rej losowana jest pr贸ba.
Przymiotnik "nieparametryczna" podkre艣la, 偶e w odr贸偶nieniu od wielu klasycznych metod statystycznych algorytmy te nie polegaj膮 na estymacji 偶adnych parametr贸w z g贸ry za艂o偶onego rozk艂adu[1] zmiennej losowej w populacji.
warto艣膰 p
stopnie swobody
Liczba stopni swobody 鈥 liczba niezale偶nych wynik贸w obserwacji pomniejszona o liczb臋 zwi膮zk贸w, kt贸re 艂膮cz膮 te wyniki ze sob膮.
Liczb臋 stopni swobody mo偶na uto偶samia膰 z liczb膮 niezale偶nych zmiennych losowych, kt贸re wp艂ywaj膮 na wynik. Inn膮 interpretacj膮 liczby stopni swobody mo偶e by膰: liczba obserwacji minus liczba parametr贸w estymowanych przy pomocy tych obserwacji.
Liczba stopni swobody ogranicza liczb臋 parametr贸w kt贸re mog膮 by膰 estymowane przy u偶yciu danej pr贸by.
Je艣li mamy do czynienia z jedn膮 pr贸bk膮 losow膮 zawieraj膮c膮 n obserwacji, z kt贸rej estymujemy jeden parametr (powiedzmy, warto艣膰 oczekiwan膮) to w rezultacie pozostaje nam n 鈭 1 stopni swobody do dalszej estymacji (na przyk艂ad wariancji).
W przypadku dw贸ch pr贸bek o n1,n2 obserwacjach, zwykle musimy estymowa膰 dwie warto艣ci oczekiwane, a zatem pozostaje nam n1 + n2 鈭 2 stopni swobody.
analiza wariancji
Jest zespo艂em metod statystycznych wykorzystywanych do por贸wnywania kilku populacji (wariancja). Jest to technika badania wynik贸w (do艣wiadcze艅, obserwacji), kt贸re zale偶膮 od jednego lub kilku czynnik贸w dzia艂aj膮cych r贸wnocze艣nie.
Wariancja
Wariancja to w statystyce klasyczna miara zmienno艣ci. Intuicyjnie uto偶samiana ze zr贸偶nicowaniem zbiorowo艣ci; jest 艣redni膮 arytmetyczn膮 kwadrat贸w odchyle艅 (r贸偶nic) poszczeg贸lnych warto艣ci cechy od warto艣ci oczekiwanej.
odchylenie standardowe
Odchylenie standardowe 鈥 klasyczna miara zmienno艣ci, obok 艣redniej arytmetycznej najcz臋艣ciej stosowane poj臋cie statystyczne.
Intuicyjnie rzecz ujmuj膮c, odchylenie standardowe m贸wi, jak szeroko warto艣ci jakiej艣 wielko艣ci (takiej jak np. wiek, inflacja, kurs akcji itp.) s膮 rozrzucone wok贸艂 jej 艣redniej[1]. Im mniejsza warto艣膰 odchylenia tym obserwacje s膮 bardziej skupione wok贸艂 艣redniej.
Wyr贸偶nia si臋:
odchylenie standardowe zmiennej losowej, b臋d膮ce w艂a艣ciwo艣ci膮 badanego zjawiska. Daje si臋 ono obliczy膰 na podstawie 艣cis艂ych informacji o rozk艂adzie zmiennej losowej[2]. Rozk艂ad ten w praktycznych badaniach nie jest zwykle znany.
odchylenie standardowe w populacji, kt贸re jest liczb膮 daj膮c膮 si臋 obliczy膰 dok艂adnie, je艣li znane by艂yby warto艣ci zmiennej dla wszystkich obiekt贸w populacji; odpowiada odchyleniu zmiennej losowej, kt贸rej rozk艂ad jest identyczny z rozk艂adem w populacji.
odchylenie standardowe z pr贸by, kt贸re jest oszacowaniem odchylenia standardowego w populacji na podstawie znajomo艣ci wy艂膮cznie cz臋艣ci jej obiekt贸w, czyli w艂a艣nie tzw. pr贸by losowej. Stosowane do tego celu wzory nazywane s膮 estymatorami odchylenia standardowego.
mediana
Mediana (zwana te偶 warto艣ci膮 艣rodkow膮 lub drugim kwartylem) to w statystyce warto艣膰 cechy w szeregu uporz膮dkowanym, powy偶ej i poni偶ej kt贸rej znajduje si臋 jednakowa liczba obserwacji. Mediana jest kwantylem rz臋du 1/2, czyli drugim kwartylem.
Aby obliczy膰 median臋 ze zbioru n obserwacji, sortujemy je w kolejno艣ci od najmniejszej do najwi臋kszej i numerujemy od 1 do n. Nast臋pnie, je艣li n jest nieparzyste, median膮 jest warto艣膰 obserwacji w 艣rodku (czyli obserwacji numer ). Je艣li natomiast n jest parzyste, wynikiem jest 艣rednia arytmetyczna mi臋dzy dwiema 艣rodkowymi obserwacjami, czyli obserwacj膮 numer i obserwacj膮 numer .
test F
Statystyk臋 F stosuje si臋 do okre艣lania, czy obserwowana zale偶no艣膰 pomi臋dzy zmienn膮 zale偶n膮 a zmienn膮 niezale偶n膮 wyst臋puje przypadkowo.
wsp贸艂czynnik korelacji
Si艂臋 wsp贸艂zale偶no艣ci dw贸ch zmiennych mo偶na wyrazi膰 liczbowo za pomoc膮 wielu miernik贸w. Najbardziej popularny jest wsp贸艂czynnik korelacji liniowej Pearsona, oznaczony symbolem rXY i przyjmuj膮cy warto艣ci z przedzia艂u [-1, 1]. Nale偶y zwr贸ci膰 uwag臋, 偶e wsp贸艂czynnik korelacji Pearsona wyliczamy w贸wczas, gdy obie zmienne s膮 mierzalne i maj膮 rozk艂ad zbli偶ony do normalnego, a zale偶no艣膰 jest prostoliniowa (st膮d nazwa). Przy interpretacji wsp贸艂czynnika korelacji liniowej Pearsona nale偶y wi臋c pami臋ta膰, 偶e warto艣膰 wsp贸艂czynnika bliska zeru nie zawsze oznacza brak zale偶no艣ci, a jedynie brak zale偶no艣ci liniowej.
test chi-kwadrat
Test niezale偶no艣ci chi-kwadrat stosowany jest w przypadku badania niezale偶no艣ci cech niemierzalnych (jako艣ciowych) lub w przypadku badania niezale偶no艣ci cechy jako艣ciowej z ilo艣ciow膮.
b艂膮d statystyczny
B艂膮d standardowy 鈥 uzale偶niony od przedzia艂u ufno艣ci b艂膮d, kt贸rym obarczona jest ka偶da statystyka. Przy 1000 os贸b b艂膮d standardowy wynosi przeci臋tnie 3,15%