właściwości |
miary klasyczne |
miary pozycyjne |
Tendencja centralna |
Średnia arytmetyczna |
Dominanta Mediana Kwartyle Decyle |
Dyspersja |
Wariancja Odchy. standard. Współ. zmienności |
Rozstęp Roz. międzykwart. Roz. międzydecyl. Odchy. ćwiartkow. Współ. zmienności |
Asymetria |
Mom. 3 centralny Mom. 3 względny Współ. asymetrii oparty o miary średnie |
Współ. asymetrii oparty o kwartyle Współ. asymetrii oparty o decyle |
Spłaszczenie (kurtoza) |
Mom. 4 centralny Mom. 4 względny |
Wskaźnik spłaszczenia |
Nierównomierny podział globalnej wartości cechy (koncentracja) |
Współczynnik koncentracji Pearsona |
- - - |
Dominanta - Jest to wartość cechy najliczniej reprezentowana w zbiorowości; służy do wyznaczenia dokładniejszej wartości dominanty w danym przedziale; nie liczymy jej z szeregu szczegółowego przy małych liczebnościach; nie możemy jej policzyć, gdy przedział najliczniejszy i dwa sąsiednie przedziały mają różną rozpiętość
Mediana - Wartość środkowa szeregu uporządkowanego od wartości najmniejszych do największych; kwartyl drugi
Rozstęp międzykwartylowy - Rozstęp 50% środkowych wartości po odznaczeniu 25% największych i 25% najmniejszych
Rozstęp międzydecylowy - Odznaczamy 10% najwyższych wartości I 10% najniższych
Wariancja - Nie ma interpretacji, ale jest miarą
Odchylenie standardowe - Miara zróżnicowania wyników (wartości cechy), określa o ile średnio różnią się wartości cechy od średniej arytmetycznej
Współczynnik zmienności - Dobre do porównań, gdy mamy różne zmienne np. odchylenie pracowników według wieku i płac
Momenty - Momentem rzędu r - średnia arytmetyczna z podniesionych do potęgi r odchyleń wartości cechy od pewnej stałej
Moment względny 3 - miara skośności; zawiera się między -2 i 2;
jeśli =0 rozkład symetryczny; >0 skośność prawostronna; <0 skośność lewostronna
Moment względny 4 - mierzy koncentrację wokół średniej; α4 < 3 koncentracja większa od normalnej; α4 > 3 koncentracja mniejsza od normalnej; jeśli α4 = 3 nazywamy krzywą Gaussa
Wskaźnik skośności - A∈<-1, 1>, znak mówi o skośności, jeśli 0 to rozkład symetryczny
Miary skośności na wykresie -
dominanta znajduje się pod najwyższym punktem wykresu
średnia arytmetyczna jest pod punktem ciężkości wykresu. W stosunku do dominanty średnia będzie w kierunku dłuższego ogona
mediana jest w miejscu przecięcia osi x przez prostopadłą dzielącą powierzchnię pod krzywą na dwie równe części. Znajduje się między średnią i dominantą
Koncentracja - jako nierównomierny podział wartości globalnej cechy; Koncentrację stosuje się, gdy mamy wartości cechy (xi), liczby jednostek (ni), wartości cechy * liczebność (xi * ni)
Współczynnik koncentracji Pearsona K∈ <0,1>, jeśli jest 0 to podział jest równomierny
Zdarzenie losowe - Jest to takie zdarzenie, które może wystąpić w próbie; każdy pomiar podzbioru zbioru zdarzeń elementarnych
Doświadczenie losowe - Jest to każde dowolne doświadczenie, w wyniku którego mogą wystąpić pewne zdarzenia np. rzut monetą, każdy pomiar
Zbiór zdarzeń elementarnych - Jest to zbiór zdarzeń podstawowych związanych z danym doświadczeniem np. liczba oczek w rzucie kostką
Zdarzenie złożone - Jest to zdarzenie, które da się rozłożyć na zdarzenia elementarne np. w rzucie monetą parzyste
Prawdopodobieństwo - Jest to funkcja, której argumentami są zdarzenia losowe zaś wartościami liczby z przedziału 0 - 1
Własności prawdopodobieństwa - A - zdarzenie losowe 0 <= P(A) <= 1; zdarzenie pewne P(E) = 1; dla każdego ciągu zdarzeń rozłącznych (nie mogą zajść równocześnie)
Zmienna losowa - Jest to wielkość (funkcja), która poszczególnym zdarzeniom elementarnym przyporządkowuje określone liczby rzeczywiste: skokowe, ciągłe
Wnioskowanie statystyczne - Jest to proces uogólniania zaobserwowanych wyników w próbie losowej na całą zbiorowość statystyczną. Budową reguł wnioskowania zajmuje się statystyka matematyczna. Reguły te umożliwiają wyprowadzenie wniosków o populacji na podstawie próby oraz ocenę ich dokładności i wiarygodności. Podstawowym założeniem dla wszystkich reguł wnioskowania jest to, że próba losowa jest pobrana w sposób niezależny z populacji nieskończonej.
Losowanie zależne - bezzwrotne
Losowanie niezależne - zwrotne
Podział wnioskowania statystycznego -
estymacja statystyczna - szacowanie, ocenianie - jest procesem wnioskowania o numerycznych wartościach nieznanych wielkości charakteryzujących populację generalną na podstawie danych próbkowych. Najczęściej estymacja dotyczy parametrów populacji Θ
weryfikacja hipotez statystycznych
PARAMETR |
ESTYMATOR |
Średnia wartość cechy μ |
|
Wariancja σ2 |
s2 |
Proporcja p - jednostek wyróżnionych np. proporcja kobiet w danej populacji |
|
Estymator Tn (gdzie n oznacza n-elementową próbę, n-obserwacji) służy do oszacowania parametrów. Jest to statystyka będąca funkcją wartości w próbie
Tn = f(X1, X2, …., Xn)
Która może posłużyć do oszacowania nieznanego parametru Θ w populacji. Statystyka w próbie jest zmienna losową bo możliwe wyniki w próbie też są zmiennymi losowymi.
Weryfikacja hipotez statystycznych - Jest to każde przypuszczenie dotyczące własności badanej populacji. Są to parametry rozkładu, relacje między parametrami, przypuszczenia co do rozkładu badanej cechy populacji. Hipotezy stawiamy dlatego, że nie znamy populacji. Rozstrzygać o prawdziwości lub fałszywości należy na podstawie próby pobranej z danej populacji.
Podział hipotez na kategorie -
Parametryczne - jeżeli dotyczą parametru lub parametrów jednej lub wielu populacji
Nieparametryczne - nie dotyczy parametrów np. rozkład cechy jest normalny, dwie badane cechy są nie zależne, zbiór obiektów stanowi próbę losową itp.
Zbiór hipotez dopuszczalnych - jest to zbiór sensownych hipotez dotyczących interesującej nas własności populacji generalnej, składa się z hipotez prostych.
Hipoteza prosta - można ją wyrazić tylko w jeden sposób, jako hipotezę nierozkładalną.
Weryfikacja - ze zbioru hipotez dopuszczalnych wybieramy jedną i ją sprawdzamy.
Hipoteza zerowa - jest to jedna prosta hipoteza, wyróżniona w zbiorze hipotez dopuszczalnych, którą chcemy sprawdzić (zweryfikować). Oznaczamy ją np.: H0 : μ = 26
Hipoteza alternatywna - jest to hipoteza przeciwna do hipotezy zerowej, powstaje przez usunięcie ze zbioru hipotez dopuszczalnych hipotezy zerowej. Oznaczamy ją H1 : μ ≠ 26
Test hipotezy statystycznej (test statystyczny) - należy zbudować specjalną regułę postępowania, która określi nam przy jakich ewentualnych wynikach z próby hipotezę testowaną należy przyjąć, a przy jakich odrzucić.
Decyzja |
hipoteza prawdziwa |
|
|
H0 |
H1 |
Przyjąć h0 |
decyzja słuszna P(Tn∉Rα(H0)=1-α |
błąd II rodzaju P(Tn∉Rα(H1)=β |
Odrzucić h0 |
błąd I rodzaju P(Tn∈Rα(H0)=α |
decyzja słuszna P(Tn∈Rα(H1)=1-β |
Błąd I rodzaju - odrzucenie hipotezy zerowej gdy jest ona prawdziwa (jego konsekwencje są poważniejsze)
Błąd II rodzaju - przyjęcie hipotezy zerowej gdy jest ona fałszywa.
Poziom istotności - prawdopodobieństwo błędu I rodzaju α
α ≤ 0,10 np. 0,05 - badanie mniej ważne; 0,01 - badanie ważniejsze istota testowania hipotezy H0 polega na tym, że przestrzeń punktów próbkowych (zbiór możliwych wartości z próby) jest dzielona na dwie części: jedna część Rα oraz pozostała Ω-Rα . Odrzucać będziemy hipotezę H0 jeżeli zaobserwowany punkt próbkowy należy do zbioru Rα. W przeciwnym wypadku przyjmować będziemy hipotezę H0 , jeśli punkt próbkowy należeć będzie do Ω-Rα
Obszar krytyczny tez (obszar odrzucenia) - nazywamy zbiór Rα przestrzeni punktów próbkowych Ω, który związany jest z odrzucaniem hipotezy zerowej.
Współzależność - związki między cechami ilościowymi i jakościowymi.
Analiza jest to poznawanie związków między cechami. W rzeczywistości rzadko jest tak, aby jakaś cecha u obiektów lub zjawisko kształtowało się zupełnie niezależnie od innych cech lub zjawisk. Już pobieżne obserwacje różnych wielkości pozwalają stwierdzić istnienie pewnych związków lub zgodności między nimi.
Zależność stochastyczna - Polega na tym, że jedna ze zmiennych reaguje na zmiany drugiej w ten sposób, że zmienia swój rozkład.
Analiza zależności ma na celu ustalenie siły i kierunku występujących związków między cechami, oraz skwantyfikowania wpływu czynników na badanie zmiennej.
Szereg korelacyjny jest prostym zestawieniem dwóch szeregów wyliczających (szczegółowych).Zazwyczaj jest w jakiś sposób uporządkowany (np. alfabetycznie). Dobrze jest, gdy jedna z cech jest uporządkowana rosnąco lub malejąco.
Tablica korelacyjna - stosujemy, gdy liczba obserwacji jest duża i trzeba je pogrupować.
Wykres korelacyjny - jest wykresem punktowym. Ocena diagramu korelacyjnego jest ważna dla dalszego toku postępowania. Analiza diagramu ma za zadanie odpowiedzieć na następujące pytania: czy między zmiennymi występuje zależność; jaki jest charakter i siła tej zależności ?
Zależność statystyczna - (Jest to uproszczenie koncepcji zależności stochastycznej. Powiadamy, że zmienne są niezależne statystycznie lub są nieskorelowane, jeśli poszczególnym odmianom jednej zmiennej odpowiadają takie same wartości średnich (warunkowych). W przeciwnym wypadku mówimy, że zmienne są skorelowane. Ponieważ koncepcja zależności stochastycznej jest znana, to z niezależności stochastycznej wynika niezależność statystyczna (korelacyjna), ale nie odwrotnie, czyli jeżeli stwierdzimy, że zmienne są nieskorelowane, to nie wynika z tego, że są niezależne stochastycznie.)
współczynnik korelacji Pearsona - Do badania siły liniowej zależności korelacyjnej (współczynnik korelacji liniowej, parami, według momentu iloczynowego). Musi być testowany
Istota badania dokładności funkcji regresji - Parametry funkcji regresji szacujemy metodą najmniejszych kwadratów (MNK), polegającą na takim doborze parametrów α i β funkcji regresji, które minimalizują sumę kwadratów odchyleń wartości empirycznych zmiennej zależnej y od wartości teoretycznych (regresywnych).
Regresja nieliniowa - Jeżeli układ punktów na diagramie korelacyjnym nie imituje linii prostej, to znaczy to, że regresja zmiennej y względem zmiennej x nie ma charakteru liniowego. Mówimy wówczas o regresji nieliniowej lub krzywoliniowej.
Dokładny charakter nieliniowej zależności można określić na podstawie wykresu korelacyjnego. Należy jednak pamiętać, że do danego rozkładu punktów mogą pasować różne funkcje nieliniowe, albowiem mogą one mieć zbliżony przebieg. Szacowanie parametrów nieliniowych funkcji regresji odbywa się również metodą najmniejszych kwadratów (MNK). Niejednokrotnie jednak nie daje się ona stosować. W związku z tym, warto jest sięgnąć do takich funkcji, które można sprowadzić do postaci liniowej ze względu na parametry. Do takich funkcji należy np. funkcja potęgowa
Korelacja cech jakościowych (niemierzalnych) - Dla cech jakościowych niemierzalnych będziemy wyróżniali dwie kategorie:
Cechy dwudzielcze (dychotomiczne) - tylko dwie wykluczające się kategorie np. płeć (mężczyzna, kobieta); wykształcenie (wyższe, inne); zamieszkanie (wieś, miasto).
Cechy wielodzielne - wiele kategorii wzajemnie się wykluczających np. poziom wykształcenia (podstawowe, średnie, wyższe); typ gospodarstwa domowego.
Szereg czasowy - Jest to ciąg wartości zmiennej uporządkowany zgodnie z następstwem momentów lub okresów czasu, których te wartości dotyczą. Jest to zatem zbiór obserwacji statystycznych charakteryzujących zmiany poziomu zjawiska w czasie. Poszczególne obserwacje nazywamy wyrazami tego szeregu. Szereg czasowy zapisujemy za pomocą symbolu yt lub y(t) , gdzie t reprezentuje kolejne momenty lub okresy czasu. Kolejne momenty lub okresy są oznaczone kolejnymi liczbami całkowitymi np. 1992, 1993 itd. W ogólności mogą to być dowolne liczby, z których każda następna jest o 1 większa od poprzedniej. Zapis szeregu czasowego w postaci yt ma podkreślać, że zmienne traktowane są jako funkcja czasu.
Wyrazy szeregów czasowych powinny być wielkościami jednolitymi w czasie tzn. jednorodnymi i porównywalnymi. W całym analizowanym okresie szereg powinien dotyczyć jednego i tego samego zjawiska lub zbiorowości definiowanego i mierzonego w ten sam sposób.
Powodem, dla którego można utracić jednolitość w czasie jest np. fuzja dwóch przedsiębiorstw, zmiana profilu działalności przedsiębiorstwa, różna długość kalendarzowych jednostek czasowych np. różna długość stycznia i lutego, względy atmosferyczne i klimatyczne.
Zmienna czasowa jako pewna wielkość niezależna jest zmienną ciągłą (czas jest zmienną ciągłą).
Rodzaje szeregów czasowych:
Szereg czasowy momentów - ich wyrazy odpowiadają jednakowo odległym momentom czasu. Podają stan liczebny zbiorowości w ściśle określonych momentach lub sumą wartości pewnej zmiennej posiadanej przez jednostki populacji np. liczba ludności Polski w dniu 31 grudnia każdego kolejnego roku; liczba zarejestrowanych samochodów osobowych w dniu 31 grudnia; liczba statków polskiej floty handlowej (pojemność statków polskiej floty handlowej); moc zainstalowana elektrowni. Dodawanie wyrazów szeregu czasowego momentów jest pozbawione sensu.
Szeregi czasowe okresów - ich wartości odpowiadają okresom czasu o jednakowej długości. Wyrażają one poziom zjawiska lub liczbę faktów, które zaszły w kolejnych okresach np. produkcja TV w Polsce; eksport owoców i warzyw; liczba zgonów. Dodawanie wyrazów szeregu czasowego okresów jest sensowne.
Szeregi czasowe ilustrujemy za pomocą wykresów w układzie współrzędnych, ograniczonych do pierwszej ćwiartki.
Na osi odciętej X - okresy lub momenty czasu, na osi rzędnej Y - wielkości zjawiska.
Badanie dynamiki zjawiska w czasie - Zadaniem tego badania jest określenie zmian zachodzących w poziomie danego zjawiska oraz kierunku, tempa i intensywności tych zmian. Jednym z narzędzi badania dynamiki są wskaźniki dynamiki. Jeżeli zjawisko jest jednorodne lub właściwie agregowane to obliczanie wskaźników sprowadza się do dzielenia lub/i odejmowania dwóch wyrazów szeregu czasowego. Wskaźniki dynamiki mogą być wyznaczane dla dwóch wybranych okresów lub momentów, bądź też dla całej ich sekwencji. Jeżeli wielkość zjawiska w kolejno po sobie następujących okresach lub momentach odnosimy stale do jednego wybranego wyrazu szeregu to wskaźniki nazywamy jednopodstawowymi. Jeżeli natomiast wielkość zjawiska w kolejno po sobie następujących okresach lub momentach odnosimy do wielkości zjawiska w okresie lub momencie poprzedzającym to wskaźnik nazywamy łańcuchowym.
Przyrost absolutny - Przyrosty absolutne informują o ile jednostek zmieniło się (wzrosło lub zmalało) zjawisko w okresie lub momencie badanym względem okresu lub momentu podstawowego lub poprzedniego. Jeżeli więc coś wyrażamy w określonych jednostkach to różnica też wyrażana jest w tych jednostkach (przyrost absolutny to liczby mianowane).
Przyrost względny - Uzyskujemy przez dzielenie przyrostu absolutnego przez wielkość zjawiska w okresie lub momencie odniesienia. Przyrosty względne informują o ile w wyrażeniu względnym (%) zmieniło się (wzrosło lub zmalało) zjawisko w danym okresie lub momencie w stosunku do okresu lub momentu podstawowego lub poprzedniego. Jeżeli zjawisko rośnie to przyrost absolutny jest dodatni i przyrost względny też jest dodatni. Czyli znak wskazuje czy zjawisko ma charakter rosnący czy malejący.
Indeksy dynamiki - Uzyskujemy je dzieląc wielkość zjawiska w danym okresie lub momencie przez wiek zjawiska w okresie lub momencie podstawowym lub poprzednim. Indeksy dynamiki informują ile razy w ujęciu względnym zjawisko w danym okresie lub momencie jest większe lub mniejsze w stosunku do okresu lub momentu podstawowego lub poprzedniego. Odjęcie od indeksu dynamiki liczby 1 lub 100% da odpowiedni przyrost względny.
Jeżeli zjawisko rośnie to indeks dynamiki jest > 1. Jeżeli natomiast zjawisko maleje to indeks dynamiki będzie < 1. Najczęściej stosowanymi są indeksy dynamiki wyrażone w %. W rocznikach statystycznych szeregi czasowe są często uzupełniane indeksami dynamiki:
indeksami jednopodstawowymi - 1995=100%
indeksami łańcuchowymi - rok poprzedni=100%
Wyodrębnienie tendencji rozwojowych - Tendencja rozwojowa albo trend jest to długookresowa zmiana w szeregu czasowym, o której zakłada się, że wraz z oscylacjami i składnikami losowymi generuje obserwacje (zachodzi pod wpływem przyczyn głównych).
Zadaniem analizy tendencji rozwojowych jest wyodrębnić przyczyny główne poprzez określenie ogólnej tendencji rozwoju zjawiska. Są różne sposoby wyodrębniania tendencji rozwojowych. Chodzi o wygładzenie przebiegu zjawiska, żeby linia nie była „poszarpana”, trzeba przefiltrować zjawisko i odrzucić wszystko to co przypadkowe i może zakłócić przebieg zjawiska.
Grupy metod wyodrębniania trendu
metody mechaniczne
średnich podokresów - cały okres dzielimy na podokresy, wyznaczamy średnią i prowadzimy przez nie prostą
średnie ruchome (np. na giełdzie)
metody analityczne - sprowadzają się do dopasowania funkcji matematycznej do zbioru obserwacji na podstawie wykresu szeregu czasowego
metoda najmniejszych kwadratów (MNK).
Na podstawie wykresu szeregu czasowego dokonuje się wyboru funkcji matematycznej, która naszym zdaniem najlepiej oddaje przebieg zjawiska w czasie.
Cel wyodrębniania trendu - Wyodrębnianie trendu służy: opisaniu rozwoju zjawiska w okresach przeszłych; do przewidywania przebiegu zjawiska w przyszłości
Prognozowanie trendu - Trend będzie taki sam tak długo, jak długo nie zmienią się czynniki główne. Prognozować więc można w niezbyt odległą przyszłość. Prognozowanie jest też ograniczone przez stopień dopasowania do danych empirycznych.
Wahania sezonowe - Są trzecim składnikiem szeregu czasowego obok tendencji rozwojowej i wahań przypadkowych. Polegają one na tym, że przyczyny działające periodycznie powodują, że badane zjawisko powtarza się z jednakowym w przybliżeniu natężeniem w kolejnych jednakowo odległych podokresach jakiegoś dłuższego okresu czasu. Takie podokresy nazywamy jednoimiennymi.
Wahania sezonowe charakteryzują się tym, że pełny ich cykl zamyka się w okresie rocznym. Wobec tego okresami jednoimiennymi są miesiące, kwartały, ewentualnie półrocza.
Przyczyny, które wywołują wahania sezonowe wynikają z klimatu, z kalendarza, z organizacji życia społecznego i zwyczajów z tym związanych np. rok szkolny, sezon urlopowy. Żeby móc wykryć wahania sezonowe musimy dysponować odpowiednim szeregiem czasowym np. miesięcznym lub kwartalnym. Żeby móc uśrednić wahania sezonowe - minimalna liczba okresów 5 lat.
PODZIAŁ CECH STATYSTYCZNYCH
stałe:
rzeczowe (kto, co?)
przestrzennej (gdzie?)
czasowej (kiedy?)
zmienne
mierzalne (ilościowe)
skokowe (niektóre wartości np. oceny)
ciągłe (wyrażane w jednostkach miary np. waga)
niemierzalne (jakościowe)
geograficzne (np. rozmieszczenie terytorialne)
inne (np. płeć)
SZEREGI STATYSTYCZNE
szczegółowe (dla małej liczby obserwacji)
rozdzielcze(duża iczba. obserwacji)
z cechą mierzalną(ilościowe)
wykres:punktowy, słupkowy; szereg rozdzielczy, przedziałowy
- punktowe (cecha skokowa) proste, skumulowane
- przedziałowe (cecha ciągła) proste, skumulowane
z cechą niemierzalną (jakościowe)
wykres:kołowy; szereg strukruralny
- geograficzne
- inne
3. czasowe
momentów (np. stan zapasów na 31-12-2001)
okresów (np. PKB wlatach) - dodawanie ma sens
PRZEDZIAŁ UFNOŚCI ≤ μ ≤
czynniki wpływające na długość przedziału to:
s - odchylenie standardowe
n - liczebność próby
Zα - prawdopodobieństwo
im większa próba, tym przedział ufności jest mniejszy
ASYMETRIA ROZKŁADU
x<Me<D - asymetria ujemna (lewostronna)
D<Me<x - asymetria dodatnia (prawostronna)
FORMUŁOWANIE HIPOTEZ
OBSZAR KRYTYCZNY
obustronny gdy H1 : μ ≠ 26
lewostronny gdy H1 : μ < 26
prawostronny gdy H1 : μ > 26
TYPY REGRESJI
wykładnicza y = ax interpretacja: parametr a i b
potęgowa y = xa interpretacja: parametr a
GRUPOWANIE MATERIAŁU STATYSTYCZ.
typologiczne - np. wg cech terytorialnych rzeczowych, czasowych w celu wyodrębnienia grup różnych jakościowo
wariancyjne - łączenie w klasy jednostek statystycznych w celu uporządkowania i poznania strukrury zbiorowości
INDEKSY DYNAMIKI - PRZYROSTY
absolutne (yt - y0) - informują o ile zmienił się poziom zjawiska w badanym okresie w odniesieniu do okresu bazowego. Są to wielkości mianowane, wyrażane w jednostkach miary takich jak badane zjawisko.
względne zwane wskaźnikiem tempa wzrostu (yt -yo / yo *100) - stosunek przyrostu absolutnego zjawiska do jego poziomu w okresie bazowym.
Jeśli pomnożymy przez 100, to otrzymamy % przyrosty względne zwane tempem zmian
indywidualne ( yt / yo * 100) - mierniki określające stosunek wielkości zjawiska w 2 różnych okresach (np. w I i IV kwartale)
WSPÓŁCZYNNIKI KORELACJI
Pearsona - jest miarą siły związku liniowego między cechami
Spearmana - (rangowanie) służy do opisu siły korelacji 2 cech w przypadku gdy:
cechy są mierzalne i badana zbiorowość jest nieliczna
gdy cechy mają charakter jakościowy i istnieje możliwość ich uporządkowania
f. liniowa y = a + bx (a i b) Jeśli X ↑ o 1 to Y ↑ średnio o b
f. potęgowa y = a * xb (a i b) b - wsp. elastyczności.
Jeśli zmienna X ↑ o 1% to Y zmieni się średnio o b%
f. wykładnicza y = a * bx (a i b) b - wsp. regresji
Jeśli X ↑ o 1 jednostkę to Y zmieni się średnio o (b - 1)* 100
f. hiperboliczna y = a + b * 1/x (a) a - wsp. nasycenia
Jeśli X ↑ to Y utrzyma się przeciętnie na poziomie a
trend - wsp. zmian, kierunek rozwoju, funkcja, szereg czasowy, tendencja rozwojowa. skośność - wsp. asymetrii, asymetria. rozproszenie - dyspersja, wsp. zmienności, odchylenie ćwiartkowe, odch standardowe, wariancja. korelacja - wsp. korelacji, wsp. Spearmana, wsp. Pearsona, współzależność. grupowanie - szeregi punktowy, klasowy, rozdzielczy. parametr - populacja, estymator, jednostka statystyczna. indeks - łańcuchowy, agragatowy, dynamiki. sezonowość - multiplikatywna, addytywna. położenie - wartość środkowa, średnia arytmetyczna. koncentracja - krzywa Lorenza. proporcja - wskaźnik struktóry.
Przedział ufności - bliskie 1 (wartość krytyczna standaryzow). Poziom istotności - bliskie 0
Dekompozycja szeregu czasowego - wyodrębnienie f trędu, wachań sezonowych i przypadkowych.
grupowanie - typologiczne dla cech jakościowych i wariancyjne dla cech ilościowych, dychotomiczne jeśli zbiorowość dzielona na 2 klasy np. czynna i bierna zawodowo.
wsp. zbieżności (indeterminacji) Hi-kwadrat ϕ2 = 1 - R2
wsp. zmienności (zróżnicowanie, natężenie) V = s / x ( * 100)
V = Q / Me ( * 100) wykres korelacyjny: oś OX - cecha niezależna (objaśniająca), oś OY - zmienna zależna (objaśniana). Dominantę stosujemy przy równych rozpiętościach przedziałów i nie może to być przedział skrajny, musi to być szereg z trendem centralnym.
wsp. Pearsona - ilościowe; Kendala i Spearmana - rangi; Czuprowa - jakościowe.
W testach ze stat. T-studenta stosujemy:
Ho : μ1 = μ2; Ho : μ = liczba; Ho : δ2 1 = δ2 2