II SEMESTR
Przedział ufności dla parametrów jednej populacji1.Przedział ufności dla średniejStatystyka->statystyki podstawowe->statystyki opisowe-> zmienna->więcej->zaznaczamy: przedział ufności dla średniej i podajemy wartość 1-α
...<µ<... jednostki Średni...ogółu...waha się od...do....jednostka
2.Przedział ufności dla wariancji Statystyka->statystyki podstawowe->statystyki opisowe-> zmienna->zaznaczamy: PU dla odch stand i podajemy wartość 1-α
..........σ.......... bez jednostek w odp podnieść do kwadratu! Wariancja...waha się od...do... .
3.Przedzial ufności dla procentu (odsetka, frakcji)
n=....Sn=...1- α=...=>α=....
Sn liczba sukcesów
Obliczam B(Sn;n- Sn+1;α/2) B(s;t;β)
B(Sn+1;n- Sn;(2-α)/2) B(s;t;β)
wartość kwantyla B Statystyka->kalkulator prawdopodobieństwa->rozkłady->zaznaczam: Beta i „Oblicz X z p”-> w okienko p wpisuje β, w okienko Kształt 1 wpisuje s, w okienko Kształt 2 wpisuje t->oblicz
W odp zamienić na procenty! Procent osób chcących głosować waha się od...do...%.
Przedział ufności dla parametrów dwóch populacji1.Przedział ufności dla różnicy dwóch średnich W STATISTICE wyznaczam średnie, wariancje i wyznaczam kwantyle
1 populacja=...n1=...X1=...S12=...1-α=...
2 populacja=...n2=...X2=...S22=...α=...
$\sqrt{\frac{\left( n_{1} - 1 \right)*S_{1}^{2} + \left( n_{2} - 1 \right)*S_{2}^{2}}{n_{1} + n_{2} - 2}*\frac{n_{1} + n_{2}}{n_{1}*n_{2}}}$=
t(n1 + n2-2;1-α/2)=
$X_{1} - X_{2} - t\left( n_{1} + n_{2} - 2;1 - \frac{\alpha}{2} \right)$*$\ \sqrt{\frac{\left( n_{1} - 1 \right)*S_{1}^{2} + \left( n_{2} - 1 \right)*S_{2}^{2}}{n_{1} + n_{2} - 2}*\frac{n_{1} + n_{2}}{n_{1}*n_{2}}}$ < u1 − u2 < X1 − X2 +t(...)*$\sqrt{}$
...< u1−u2<...jednostka zaokrąglić do 2 miejsc po przecinku! Różnica średniego...waha się od...do...jednostka.
2.Przedział ufności dla ilorazu dwóch wariancji (S2 zawsze dodatnia)
W STATISTICE wyznaczam wartość kwanty la F (Fishera)
1 populacja=...n1=...X1=...S12=...1-α=...
2 populacja=...n2=...X2=...S22=...α=...
Obliczam F(n1-1;n2-1;α/2) B(n1; n2;α)
F (n1-1;n2-1;1-α/2)B(n1; n2;α)
wartość kwantyla F Statystyka->kalkulator prawdopodobieństwa->rozkłady->zaznaczam: F(Fishera)„Oblicz X z p”-> w okienko p wpisuje α, w okienko dt1 wpisuje n1, w okienko dt2 wpisuje n2>oblicz
$$\frac{S_{2}^{2}}{S_{1}^{2}}*F\left( n_{1} - 1;n_{2} - 1;\frac{\alpha}{2} \right) < \frac{\sigma_{2}^{2}}{\sigma_{1}^{2}} < \frac{S_{2}^{2}}{S_{1}^{2}}*F\left( n_{1} - 1;n_{2} - 1;1 - \frac{\alpha}{2} \right)$$
...<$\frac{\mathbf{\ldots}}{\mathbf{\ldots}}$<...bez jednostek Iloraz wariancji...waha się od...do... .
3.Przedzial ufności dla różnicy dwóch procentów
1 populacja=...n1=...Sn1=...X1=...1-α=...=>α=...
2 populacja=...n2=...Sn2=...X2=...α=...p=$\frac{S_{n_{1} +}S_{n_{2}}}{n_{1 +}n_{2}}\ $=
$\sqrt{\mathbf{p*}\left( \mathbf{1 - p} \right)\mathbf{*}\frac{\mathbf{n}_{\mathbf{1 +}}\mathbf{n}_{\mathbf{2}}}{\mathbf{n}_{\mathbf{1*}}\mathbf{n}_{\mathbf{2}}}}$ =
u(1-α/2)=...
wartośc kwantyla Z(normalny) Statystyka->kalkulator prawdopodobieństwa->rozkłady->zaznaczam: Z(normalny)„Oblicz X z p”-> w okienko p wpisuje u ->oblicz
X1 − X2 − u(1-α/2)*$\sqrt{p*\left( 1 - p \right)*\frac{n_{1 +}n_{2}}{n_{1*}n_{2}}}$ < p1 < p2 < X1 − X2 + u(1-α/2)*$\sqrt{p*\left( 1 - p \right)*\frac{n_{1 +}n_{2}}{n_{1*}n_{2}}}$
... <p1-p2<... Zaokrąglić do 4 miejsc po przecinku i w odpowiedzi zamienić na procenty! Różnica odsetka...waha się od...do... %.
Test dla parametrów dwóch populacji
1.Test dla różnicy dwóch średnich
W STATISTICE wyznaczam średnie i odchylenia standardowe
1 populacja=...n1=...X1=...S1=...H0: µ1=µ2 Zawsze znak =
2 populacja=...n2=...X2=...S2=...H1: µ1>≠ <µ2Statystyka->statystyki podstawowe->inne testy istotności->różnica między dwiema średnimi -> wpisujemy średnie, odchylenia standardowe i liczebności prób -> zaznaczamy: jednostronny lub dwustronny i obliczamy wartość p jednostronny ><dwustronny =
α>p, odrzuc H0
α≤p, nie ma podstaw
α=... znak >=< p=...decyzja:
2.Test dla ilorazu dwóch wariancjiWyznaczamy p: Statystyka->statystyki podstawowe->testy t dla prób niezależnych (wzgl. grup)-> zmienna->podsumowanie
H0: σ12=σ22 Zawsze znak =
H1: σ12 > ≠ < σ22
α=... znak >=< p=...decyzja:
3.Test dla różnicy dwóch procentów (odsetków, wskaźników struktury)W STATISTICE wyznaczam średnie
1 populacja=...n1=...Sn1=...X1=...H0: p1=p2 Zawsze znak =
2 populacja=...n2=...Sn1=...X2=...H1: p1>≠ <p2Statystyka->statystyki podstawowe->inne testy istotności-> różnica między dwoma wskaźnikami struktury->wpisujemy średnie i liczebności-> jednostronny lub dwustronny i obliczamy wartość p
α=...znak >=<p=...decyzja
Analiza wariancji (wiele średnich) ANOVATest dla równości wielu średnichWyznaczamy p: Statystyka-> ANOVA-> jednoczynnikowa ANOVA-> OK-> zmienne-> OK-> wszystkie efektyDruga kolumna-nazwa grupy !!!α-poziom istotności p-przepisujemy cale, bez zaokrąglenia!
H0: µ1=µ2
H1: co najmniej dwie średnie różnią się od siebie
α=...<p=...decyzja
Badanie normalności rozkladuTest normalności rozkładu Szapiro-WilkaWpisujemy dane w arkusz Statystyka-> statystyki podstawowe-> tabele liczebności->normalność->zaznaczamy: „test W Shapiro-Wilka”-> wprowadzamy zmienną-> testy normalności Nie podsumowania tylko „testy normalności”!
H0: rozkład (badana cecha) jest rozkładem normalnym
H1: rozkład (cecha)nie jest rozkładem normalnym
α=...<p=...decyzja
III SEMESTR
Charakterystyka rozkładu empirycznego – miary klasyczneStatystyka->statystyki podstawowe->statystki opisowe-> zmienne-> więcej-> zaznaczamy : średnia moda wariancja odchylenie standardowe współczynnik zmiennośći, skośnoś kurtoza
1.średnia X jednostki Przeciętny..wynosi…jednostka
2. S2 Wariancja...wynosi…… .
3.S- odchylenie standardowe Wzrost większości...różni się od średniej o +/- ...jednostka
4.Norma( typowy przedział zmienności)( X-S; X+S)
Normą jest...od… dojednostka.
5. Vx –współczynnik zmienności Vx= $\frac{\mathbf{S}}{\mathbf{X}}$ * 100 %
Odchylenie standardowe stanowi… % poziomu średniej arytmetycznej.
6. Dominanta D (moda)Najczęściej...wynosiła….. jednostka.
7. Ax- współczynnik asymetrii (skośność)Rozkład...ma asymetrię lewostr/prawostr, czyli większość ...ma CECHAwiększą/mniejszą niż wynosi średnia arytmetyczna
8. Cx kurtoza (kurtoza)Wykres rozkładu...leży powyżej/powyżej wykresu rozkładu normalnego.
Charakterystyka rozkładu empirycznego – miary pozycyjneStatystyki- podstawowe statystki-> statystki opisowe-> zmienne-> okienka mediana i kwartyl górny i dolny
1.Me- mediana Co drugi
2.Q1Co czwarty NIŻSZĄ niż
3.Co czwarty WYŻSZĄ niż
4.Odchylenie ćwiartkowe (jednostki)Q= (Q3-Q1)/2
Typowy pozycyjny obszar zmienności Me-Q<xtyp<Me+Q
Zazwyczaj ...od …. Do…… (jednostki)
5. Współczynnik zmienności %
Vme= $\frac{\mathbf{X}}{\mathbf{\text{Me}}}$*100%Odchylenie ćwiartkowe stanowi…… % poziomu mediany.
6. As współczynnik asymetriiAs= $\frac{\mathbf{Q}_{\mathbf{1}}\mathbf{+}\mathbf{Q}_{\mathbf{3}}\mathbf{- 2*Me}}{\mathbf{2*Q}}$
Dodatni Rozkład...ma asymetrię prawostr. Większość...nizszy od mediany.
Ujemny Rozkład...ma asymetrię lewostr.Większość...większy...od mediany.
0 Rozkład ...jest symetryczny względem mediany.
Korelacja cech jakościowychStatystyka -> podstawowe statystyki -> tabele wielodzielcze-> zbiorcza-> określ tabele-> wprowadzamy zmienne->ok->ok-> opcje-> zaznaczamy liczebności oczekiwane i chi-kwadrat pearsona – podsumowanie
1.Współczynnik Yulea Φ=$\frac{\mathbf{\chi}^{\mathbf{2}}}{\mathbf{N}}$
2. Współczynnik kontyngencji Pearsona C=$\sqrt{\frac{\mathbf{\chi}^{\mathbf{2}}}{\mathbf{\chi}^{\mathbf{2}}\mathbf{+ 2}}}$
3. Współczynnik Czuprowa Txy=$\sqrt{\frac{\mathbf{\chi}^{\mathbf{2}}}{\mathbf{N*}\sqrt{\left( \mathbf{w - 1} \right)\mathbf{(k - 1)}}}}$
Chi- liczy statystyka
4. Współczynnik V Cramera V=$\sqrt{\frac{\mathbf{\chi}^{\mathbf{2}}}{\mathbf{N*min(w - 1;k - 1)}}}$
Pomiędzy ...a ... istnieje zależność w stopniu …. %
Korelacja cech ilościowych niezależna X zależna Y NAJPIERW X PÓŻNIEJ Y
Rxy PEARSONStatystyki-> podstawowe statystyki-> macierze korelacji-> dwie listy-> wprowadzanie zmiennych -> podsumowanie (jedna liczba powinna wyjść)
To co wyszło mnożymy przez 100 %Odp. Np. Pomiędzy (x) a (y) występuje zależność o kierunku dodatnim/ ujemnym w stopniu……. %
Rs –SPEARMAN statystki -> statystyki niemarametryczne -> korelacja spearmana -> ok-> oblicz szczegółowy raport -> wprowadzamy zmienne -> r. Spearmana to co wyszło mnożymy przez 100 %
Między (y) a (x) występuje zależność o kierunku dodatnim/ ujemnym w stopniu …. %
Regresja liniowaStatystyka -> podstawowe statystyki-> macierze korelacji->
Dwie listy zmiennych ->opcje->wyświetl dokładną tabelę wyników-> podsumowanie spisac też średnią Y !!
Wzór:Ay – stała zależna Y By- nachylenie zależnej Y
1.Współczynnik determinacji R2- program wynik x 100
2. współczynnik zgodności O2 – liczyc samemu100 %- R2=O2
Regresja liniowa opisuje w ( R2 %) zmienności (kosztów całkowitych) (y) a w (O2 %) nie opisuje zmiennośći tej zmiennej.
3. Su – błąd standardowy estymacji Statystyki-> Regresja wieloraka-> wprowadzamy zmienne -> ok
Błąd standardowy estymacji to Sn
Rzeczywisty (koszt całkowity Y) różni się od kosztów teoretycznych wyznaczonych w oparciu o funkcję regresji przeciętnie o +/- (Su) jednostka.
4. Vu współczynnik zmiennośći losowej- liczyc samemu
su/średnia y x100%
Vu< 15% dopuszczalne
Poziom błędu losowego jest dopuszczalny.