STATYSTYKA TREŚCI WYKŁADOWE grupa 3 (1)

WYKŁAD 1 – 7.05.2015

Podstawowe pojęcia statystyczne

  1. Statystyka to dyscyplina naukowa, poświęcona metodom badania (analizowania) zjawisk masowych. Statystyka opisowa polega na systematyzowaniu obserwowanych cech ilościowych i jakościowych oraz przedstawianiu wyników w postaci zestawień tabelarycznych, wykresów itp.

  2. Zbiorowość statystyczna – zbiór dowolnych (nieidentycznych) elementów (jednostek statystycznych: przedmiotów, osób, zdarzeń) objętych nadaniem statystycznym posiadającym co najmniej jedną cechę wspólną (istotną ze względu na cel badania).

  3. Zbiorowość generalna (populacja) – zbiór wszystkich jednostek statystycznych, których dotyczy interesujący problem.

  4. Zbiorowość pełna (próba) – część populacji poddawana badaniu statystycznemu. Próba może być mała (do 30 elementów) lub duża (powyżej 30 elementów).

  5. Jednostka statystyczna – każdy element badanej zbiorowości.

  6. Cecha statystyczna – właściwości jednostki statystycznej (np. wiek kobiety). Wyróżniamy cechy stałe i zmienne.

  1. Cechy stałe – są właściwością wspólną dla wszystkich jednostek.

  2. Cechy zmienne – to właściwości różniące poszczególne jednostki. Dzielą się na jakościowe i ilościowe.

- cecha jakościowa – cecha niemierzalna ( opisowa) wyrażona kategorią słowną (np. płeć, zawód, stan cywilny)

-cecha ilościowa – cecha mierzalna, wyrażona liczbowo różnymi jednostkami (np. wzrost, waga)

Cechy (zmienne) ilościowe
Zmienna
Liczba nauczycieli w szkole
Wiek uczniów w latach
Temeratura
Cechy (zmienne) jakościowe
Zmienne
Płeć
Stopień zadowolenia z lekcji
Kierunek studiów
  1. Pomiar statystyczny – polega na przyporządkowaniu cechom statystycznym ustalonych symboli, którymi mogą być liczby, litery alfabetu, kolory, opis słowny itp.

  2. Skala pomiarowa to system pozwalający usystematyzować wyniki pomiarów statystycznych.

  3. Skala nominalna – skala stosująca wyłącznie opis słowny dla potrzeb identyfikacji jednostki, a dokładnie dla ustalenia czy dana jednostka należy lub nie należy do określonej kategorii,
    np. płeć, poziom wykształcenia

  4. Skala porządkowa (rangowa) – służąca do porządkowania danych. Interesuje nas tutaj
    w jakim nasileniu występuje cecha będąca podstawą zakwalifikowania danej jednostki do pewnej kategorii (porównujemy ze sobą jednostki i oceniamy ze względu na daną cechę przy pomocy operacji większy, równy, czy mniejszy)
    np. wielostopniowe odpowiedzi w kwestionariuszu, skala ocen, ranking szkół wyższych
    z punktu widzenia ich atrakcyjności, stopień zaangażowania w trening sportowy

  5. Skala przedziałowa (interwałowa) - polega na przyporządkowaniu przedmiotom liczb, które odzwierciedlają natężenie badanej cechy. Interesuje nas wielkość różnicy pomiędzy badanymi jednostkami.
    np. skale temperatur, standaryzowane skale testowe, iloraz inteligencji

  6. Skala ilorazowa (stosunkowa) - pozwala na uzyskanie dokładnych wartościowo różnic między badanymi cechami statystycznymi, dzięki posiadaniu stałego naturalnego punktu zerowego (tzw. Zero bezwzględne ograniczające jednostronnie zakres skali), w którym brak mierzonej cechy. Dane opisane w tej skali przyjmują zawsze wartości liczbowe, które są proporcjonalne do stopnia, w jakim poszczególnym elementom tych kategorii przysługuje mierzona własność.
    np. zysk przedsiębiorstwa, liczba zatrudnionych pracowników, odległość w skokach narciarskich.

  7. CECHY JAKOŚCIOWE MIERZONE SĄ W SKALACH NOMINALNEJ I PORZĄDKOWEJ

  8. CECHY ILOŚCIOWE MIERZONE SĄ W SKALACH PRZEDZIAŁOWEJ I ILORAZOWEJ



  1. Badanie statystyczne – ogół czynności mających na celu poznanie rozkładu zbiorowości statystycznej pod względem wybranej lub wybranych cech (analiza struktury) lub ocena rodzajów związków występujących między cechami (analiza współzależności).

  2. Procedura badań statystycznych:

  1. Projektowanie (przygotowanie) badania

Jest to bardzo ważny etap. Polega on na jasnym, szczegółowym i jednoznacznym sprecyzowaniu celu (co i kogo badamy, na jakim terenie i w jakim okresie przeprowadzamy badania). Pozwala to na dokładne uświadomienie sobie, do czego mają służyć wnioski wyprowadzone w toku badania statystycznego.

  1. Obserwacja statystyczna (proces zbierania informacji)


Etap ten polega na zliczaniu jednostek w poszczególnych grupach posiadających określoną wartość cechy.

  1. Opracowanie zebranego materiału i jego prezentacja

  2. Analiza wyników (opis lub wnioskowanie statystyczne) i ich interpretacja.

  1. Grupowanie statystyczne to usystematyzowanie zebranego materiału statystycznego (np. kwestionariuszy, ankiet) według pewnych (ustalonych) kategorii/kryteriów (np. płci, klas) w szeregi rozdzielcze przedstawione w formie tabel lub wykresów.

  2. Szereg rozdzielczy – to zbiór wartości liczbowych uporządkowanych według wariantów badanej cechy mierzalnej lub niemierzalnej, przy czym poszczególnym wariantom zmiennej przyporządkowane są odpowiadające im liczebności.
    Określa on strukturę badanej zbiorowości

Rozróżniamy szeregi rozdzielcze:

- jednostopniowe (punktowe)

Lp Xi Fi ( częśtość występowania)
1
2
- - -
- - -

-wielostopniowe (przedziałowe)

Lp Xi Fi ( liczebność)
  1. Etapy budowania szeregu rozdzielczego

  1. Określamy obszar zmienności badanej cechy tzn. obliczamy różnicę pomiędzy najwyższą i najniższą wartością badanej cechy

    R = X max – X min

  2. Ustalamy ilość przedziałów klasowych (k)

5 ≤ k ≤ 20

K = √N

W przypadku bardzo liczebnych grup k√n/2

  1. Ustalamy długość przedziałów klasowych (I)

I ≅ R/k

  1. Możemy (opcjonalnie) wyznaczyć nasilenie danej cechy w stosunku do całej zbiorowości (wyrażony w procentach)

    f1/N * 100%

  1. Graficzne metody prezentowania danych statystycznych

Metoda 1 – tabele statystyczne

Tabela zawiera dane statystyczne w postaci szeregów oraz parametr opisowych. Umieszczenie
w tabeli danych pozwala na uchwycenie ilościowych zależności między nimi

Metoda 2 – wykresy statystyczne

Najczęsciej stosuje się takie wykresy statystyczne jak:

Krzywa liczebności - obrazuje rozkład badanej zmiennej w próbie

Histogram – wykres „słupkowy

Krzywa liczebności skumulowanych (ogniwa)

  1. Opis zbiorowości statystycznej – uporządkowanie wyników badań oraz ich analiza w oparciu o szereg parametrów opisowych w szczególności takich jak : miary położenia, miary rozproszenia, miary.

  2. Miary położenia (tendencji centralnej, miary srednie, miary przeciętne.)
    Wskazują miejsce, w którym lezy wartość najlepiej charakteryzująca wszystkie jednostki danej zbiorowości. Mówią o przeciętnym poziomie analizowanej cechy. Są najczęściej używane w badaniach pedagogicznych do charakterystyki szeregów rozdzielczych.

    Miarami tendencji centralnej są :

- w grupie klasycznych średnia arytmetyczna

-w grupie pozycyjnych – dominanta (medialna), mediana

  1. Średnia arytmetyczna
    Przeciętny poziom obserwowanej cechy. Ma zastosowanie TYLKO do skal ilościowych (interwałowych i ilorazowych).

Obliczamy, gdy:

-wymagana jest największa rzetelność,

-mają być wykonane inne obliczenia,

-rozkład jest symetryczny względem środka, szczególnie, gdy w przybliżeniu jest normalny

Nie należy jej obliczać, gdy:

-rozkład jest asymetryczny,

-próba losowa jest bardzo mała,

-klasy są otwarte na końcach.

  1. Średnia asymetryczna - wzory na stronie

Średnia wyliczania szeregów szczegółowych prostych (dla danych niepogrupowanych) tzw. Średnia asymetryczna prosta. Powyższy wzór stosujemy, gdy mamy do czynienia z małą liczbą spostrzeżeń, lub gdy każda wartość zmiennej powtarza się tylko raz.

Średnia wyliczana z szeregów rozdzielczych punktowych (dla danych pogrupowanych). Powyższy wzór stosujemy przy dużej liczbie spostrzeżeń.

Średnia wyliczana z szeregów rozdzielczych przedziałowych dla danych pogrupowanych
w tzw. Przedziały klasowe.

  1. Mediana – wartość środkowa szeregu statystycznego uporządkowanego rosnąco lub malejąco, Jest to punkt na skali pomiarowej powyżej i poniżej którego znajduje się dokładnie połowa obserwacji.

Obliczamy, gdy:

-ilość pomiarów jest bardzo mała,

-w rozkładach występują klasy otwarte,

-dane są pogrupowane,

-rozkład jest asymetryczny,

-interesuje nas, czy obserwacje przypadają w dolnej czy w górnej połowie rozkładu, a nie interesuje nas ich oddalenie od punktu środkowego

  1. Mediana –wzory na stronie

Mediana wyliczana z szeregów szczegółowych prostych (dla danych niepogrupowanych)

Mediana wyliczana z szeregów rozdzielczych przedziałowych (dla danych pogrupowanych)

  1. Modalna (dominanta, moda) - cecha dominująca, czyli wartość, która jest najliczniej reprezentowana (występuje najczęściej, powtarza się największą liczbę razy) w danej zbiorowości statystycznej. Nadaje się ona najbardziej do charakteryzowania cech jakościowych.

Obliczamy gdy:

-wymagana jest najszybsza ocena wartości centralnej,

-wystarcza przybliżona ocena wartości centralnej,

-chcemy wiedzieć jaka obserwacja jest najbardziej typowa,

-wartości grupują się wyraźnie wokół jednego punktu,

-dla charakterystyki rozkładów wyraźnie asymetrycznych.

  1. Modalna – wzory na stronie

Modalna wyliczana z szeregów rozdzielczych

  1. Miary rozproszenia (dyspersji)

Miary dyspersji są wskaźnikami jakościowymi. Informują o poziomi jednorodności badanych zbiorowości (lub o stopniu rozproszenia wyników w odrębnie badanego zjawiska). Można przyjąć, że im mniejsza wartość tych miar, tym większa jednorodność w zakresie badanej cechy.

Np. różnice w zmianach wyników osiągalnych przez badanych uczniów różnice w sytuacji materialnej badanych osób.

Miarami dyspersji są:

- w grupie miar bezwzględnych - odchylenie standardowe, wariancja, obszar zmienności,

-w grupie miar względnych – współczynnik zmienności.


  1. Wariancja i odchylenie standardowe

Przeciętne zróżnicowanie (odchylenie) badanej cechy od średniej arytmetycznej.

Obliczamy, gdy:

-potrzebna jest wartość, na której można w jak największym stopniu polegać,

-mogą być potrzebne dalsze obliczenia z zastosowaniem tych miar.

Nie wolno obliczać, gdy:

-badane zjawisko mierzone jest w różnych jednostkach miary (np. waga, wzrost)

  1. Wariancja jest to średnia arytmetyczna z kwadratów odchyleń poszczególnych wartości zmiennej od średniej arytmetycznej całej zbiorowości.

Odchylenie standardowe to pierwiastek kwadratowy z wariancji.

Najważniejsze cechy:

-jest wielkością obliczana na podstawie wszystkich obserwacji,

-można ją poddawać przekształceniom algebraicznym,

-im zbiorowość jest bardziej zróżnicowana, tym większe jest odchylenie standardowe.

  1. Wariancja i odchylenie standardowe – wzory na stronie

Dla szeregu szczegółowego prostego (dane niepogrupowane)

Dla szeregu rozdzielczego punktowego (dane pogrupowane)

Dla szeregu rozdzielczego, przedziałowego (dane pogrupowane)

  1. Obszar zmienności

Obszar zmienności (rozstęp) pozwala „uchwycić” omawiane różnice.

Obliczamy, gdy:

-potrzebna jest możliwie szybka do obliczenia dyspersji

-potrzebna jest miara dotycząca zapisow skrajnych

Xtyp € (M – s, M+s)

  1. Współczynnik zmienności Vs

Współczynnik zmienności – jest względna miarą rozproszenia służącą do porównywania zróżnicowania dwóch różnych cech (np. porównanie wysokości ciała i obwodu ramienia) lub jednej cechu w dwóch różnych grupach (np. porównanie miesięcznych płac nauczycieli o różnych stażach pracy)

Vs = s/M * 100% M>0

s- odchylenie standardowe

M- średnia arytmetyczna

Nie wolno stosować, gdy:

M= 0 lub M<0

-dane empiryczne wyrażone są w procentach

  1. Współczynnik zmienności

Informuje jaki procent średniej arytmetycznej stanowi odchylenie standardowe. Wyższa wartość oznacza większe zróżnicowanie wielkości w obrębie danej cechy.

Jeśli współczynnik zmienności przyjmuje wartości liczbowe z przedziału o 0% do 100 % to fakt ten świadczy o niejednorodności zbiorowości. Jeśli Vs>20% to zbiorowość jest znacznie zróżnicowana pod względem badanej cechy.

  1. Miary asymetrii (skośności)

Miary asymetrii stosujemy, gdy interesuje nas czy odchylenie od wartości jest większe
w jedną lub w drugą stronę, np. badając poziom wiadomości określonej grupy interesuje nas, czy liczba uczniów z wynikami wyższymi od przeciętnej jest większa lub mniejsza od liczby tych uczniów, które wyniki są niższe od przeciętnych.

  1. Wskaźnik asymetrii (skośności) wyrażamy różnicą między średnią arytmetyczną a modalną. Dla stwierdzenia faktu występowania zjawiska asymetrii bądź jej braku i jej kierunku można wykorzystać relację między średnią arytmetyczną i dominantą – określa on kierunek.

Mamy zatem:

M- M0 = 0 – zjawisko skośności nie występuje, rozkład jest symetryczny, tzn. występuje jednakowa liczba jednostek statystycznych poniżej i powyżej średniej arytmetycznej

M- M0 > 0 –rozkład jest asymetryczny, występuje skośność prawostronna, tzn. w zbiorowości dominują jednostki o wartościach cechy niższych od średniej

M- M0 < 0 – rozkład jest asymetryczny, występuje skośność lewostronna, tzn. w zbiorowości dominują jednostki o wartościach cechy wyższych od średniej

M- średnia arytmetyczna

M0 – dominanta

  1. Współczynnik asymetrii, wyrażamy ilorazem wskaźnika asymetrii przez odchylenie standardowe. Jest to miara zależna tylko opd struktury zbiorowości statystycznej


$$\text{As} = \frac{M - \ M0\ }{s}$$

Interpretacja współczynnika asymetrii

As=O – współczynnik jest równy zero (brak skośności)

As>0 – współczynnik jest dodatni (skośnośś dodatnia)

As<0 – współczynnik jest ujemny (skośność ujemna)

WYKŁAD 2 – 14.05.2015

KORELACJE W BADANIACH PEDAGOGICZNYCH

  1. Korelacja (współzależność cech) to związek pomiędzy zmiennymi, sytuacja gdy zmianom średnich wartości jednej zmiennej towarzysz zmiana wartości drugiej - skorelowanej z nią zmiennej.

Np. związane między liczba opuszczonych godzin w szkole, a wynikami testu z jakiegoś przedmiotu

Stwierdzenie czy istnieje związek między dwoma badanymi cechami umożliwia analiza korelacyjna.

Charakteryzując korelację dwóch cech podajemy dwa czynniki: kierunek oraz siłę.

  1. Rodzaje korelacji

Ze względu na sposób analizy oraz charakter analizowanych zmiennych wyróżniamy:

-korelację prostą – bada związane zachodzący pomiędzy dwoma cechami lub zjawiskami (rxy)

-korelację cząstkową – informuje o związku dwóch cech z wyłączeniem trzeciej zmiennej (rxy.z)

- korelację wieloraką – informuje o związku jednej cechy z kilkoma ujętymi włącznie (rx.yz).

  1. Rozróżniamy związki korelacyjne między: cechami mierzalnymi i niemierzalnymi.

Zatem:

Analiza korelacji:

- jakościowa - umożliwia stwierdzenie związku przyczynowo- skutkowego na podstawie merytorycznej analizy logicznej

-ilościowa – określa siłę i kierunek związku

  1. Miarą siły i kierunku oraz kształtu związku jest:

-dla zmiennych porządkowych i ilościowych - współczynnik korelacji

-dla zmiennych nominalnych (jakościowych) – współczynnik kontyngencji

Współczynnik to liczba określająca w jakim stopniu zmienne są współzależne.

  1. Związek cech ilościowych:

-Korelacja Pearsona

-Korelacja rangowa Spearmana

Aby ustalić związek korelacyjny między zmiennymi ilościowym należy przedstawić obie zmienne w tablicy korelacyjnej uwzględniającej ich współwystępowania

  1. Interpretacja zależności między cechami ilościowymi

Współczynnik korelacji oznaczamy literka r

Wartość współczynnika należy do przedziału <-1,1>

r=0 brak korelacji (zalezności)

r= -1 zależność liniowa ujemna, bardzo silny związek ujemny,

r=1 zależność liniowa dodatnia, bardzo silny związek dodatni

  1. Kierunek korelacji:

Korelacja ujemna (wartość współczynnika korelacji od -1 do 0, czyli r<0 ) to zależność odwrotnie proporcjonalna. Informuje, że wzrostowi (spadkowi) wartości jednej zmiennej odpowiada spadek (wzrost) średnich wartości drugiej zmiennej.

Korelacja dodatnia (wartość współczynnika korelacji od 0 do 1, czyli r>0) to zależność proporcjonalna. Informuje, że wzrostowi (spadkowi) wartości jednej zmiennej towarzyszy wzrost (spadek) średnich wartości drugiej zmiennej.

  1. Siłę współczynnika, dokładnie jego wartość bezwzględną odczytujemy z tabelki – im jest ona większa tym związek pomiędzy zmiennymi jest silniejszy. (tabelka na stronie).

Na podstawie obliczonego współczynnika korelacji obliczyć można tzw. wskaźnik (współczynnik) determinacji liniowej (r2) informujący o procencie zmienności wyjaśnionej liniowo w zmiennej zależnej (skutek) przez zmienną niezależną (przyczyna).

r2 * 100% - procent zmienności

Przykład:

Dla r=0,8, współczynnik determinacji liniowej wynosi 0,64

Oznacza to, że w 64 % zmianę wartości jednej zmiennej wyjaśnia zmiana wartości drugiej.

Lub inaczej:

Zmienność wyników jednej zmiennej da się wyjaśnić zmienności ą drugiej zmiennej

  1. Współczynnik korelacji liniowej Pearsona - rxy

Najbardziej popularny współczynnik (wskaźnik) określający poziom zależności liniowej pomiędzy zmiennymi mierzalnymi (ilościowymi). Wykorzystywany jest zatem do badania związków prostoliniowych badanych zmiennych, w których zwiększenie wartości jednej
z cech powoduje proporcjonalne zmiany średnich wartości drugiej cechy (wzrost lub spadek),

Umożliwia ocenę kierunku i siły związku między zmiennymi

Np. korelacja pomiędzy wynikami z testu cichego czytania a testu słownikowego

Współczynnik ten możemy stosować, jeśli spełnione są następujące warunki:

  1. Obie zmienne są zmiennymi ilościowymi,

  2. Związek pomiędzy zmiennymi jest liniowy,

  3. Obie zmienne mają rozkład normalny (lub zbliżony do normalnego)

Do jego obliczenia istnieje kilka równoważnych wzorów.

W badaniach pedagogicznych często wykorzystywany jest wzór na obliczanie współczynnika korelacji z danych pierwotnych.

UWAGA

Współczynnik korelacji Pearsona jest symetryczny, tzn.:

rxy = ryx

  1. Kowariancja – to iloczyn odchyleń wariantów pomiaru dwu zmiennych od ich średnich arytmetycznych.

UWAGA

Współczynnik korelacji Pearsona może być również obliczony z pogrupowanej wartości zmiennej przedstawionej w szeregach rozdzielczych

  1. Współczynnik korelacji rangowej Spearmana (rs)

Współczynnik stosowany jest do badania zgodności dwóch grup (np. opinii dziewcząt i chłopców na wybrany temat) oraz współzależności pomiędzy zmiennymi (np., pomiędzy wynikami nauczani z chemii i fizyki lub pomiędzy średnią ocen a odczuwaną satysfakcją ze studiów)

Współczynnik jest stosowany, gdy:

- obie zmienne (cechy) mają charakter jakościowy, pozwalający na uporządkowanie ze względu na siłę tej cechy,

-obie zmienne (cechy) mają charakter ilościowy, ale ich liczebność jest niewielka (do 30 przypadków)

Uporządkowanie określone jest za pomocą rang – współczynnik oparty jest na różnicach rang pomiarów.

  1. Ranga to liczba odpowiadająca miejscu w uporządkowaniu każdej z cech

Rangowanie (inaczej nadawanie rang) - to procedura, która polega na ustawieniu obiektów rangowanych w porządku od najmniejszego do największego (lub odwrotnym), a następnie przyporządkowanie zajmowanym pozycjom kolejnych liczb naturalnych.

  1. Obiekty rangowane to osoby, przedmioty, zjawiska podlegająca ocenie według wskazanego kryterium (np. oceny z testu, zdobytych punktów) .

  2. Jak rangować:

Sortujemy elementy obu zmiennych w jednej z dwóch kolejności do wyboru, np. w kolejności malejącej (od największej do najmniejszej wartości).

Obiektom przypisujemy pozycję – ten, który zajął najwyższa wartość otrzymuje pozycję numer 1, kolejny nr 2, itd.

Obiektom nadajemy rangi według zasady: numer rangi równy jest numerowi pozycji (czyli ten który zajął najwyższą pozycje ma rangę 1)

Jeśli w badanej zbiorowości jest więcej jednostek z identycznym natężeniem badanej cechy (np. te same oceny), to jednostkom tym przypisuje się identyczne rangi, tzw. rangi mieszane.

Rangi mieszane równe są średniej arytmetycznej z pozycji przypisanych tym samym jednostkom.

  1. Wnioskowanie statystyczne – dział statystyki zajmujący się problemami uogólniania wyników badania próby losowej na całą populację oraz szacowania błędów wynikających z dokonywania takich uogólnień. Wnioskowanie statystyczne zawsze jest obciążone ryzykiem popełnienia błędu.

Wyróżniamy dwa działy wnioskowania statystycznego:

-estymacja (in. Estymacja parametryczna)

-weryfikacja hipotez statystycznych

  1. Próba to wybrana specjalnie do badań część populacji za pomocą odpowiedniej metody.

W pedagogice przyjmuje się, że mała próba to ok. 30 jednostek, duża to ponad 100 jednostek statystycznych.

Metody dobierania prób:

Dobór losowy - polega na przypadkowym doborze jednostek do próby według pewnego klucza.

Dobór celowy - opiera się na wiedzy i przeświadczeniach badacza dotyczących jednostek całej populacji, Przykładem jest dobór jednostek nietypowych, (np. najlepszych i najgorszych uczniów – uczestników konkursów szkolnych i uczniów mających trudności w nauce).

  1. Estymacja to szacowanie nieznanych wartości populacji generalnej w oparciu o odpowiadające im wartości wyznaczone z próby. Wielkości szacowane to parametry, zaś wielkości szacunkowe to estymatory. Mogą nimi być średnia arytmetyczna z próby, frakcja (częstość względna), odchylenie standardowe.

Wyróżniamy estymację punktową i przedziałową.

Dla obu wielkości rozróżniamy odmienną symbolikę – tabelka na stronie.

  1. Estymacja punktowa polega na szacowaniu parametru na podstawie realizacji w próbie, czyli poszukiwaniu takiej liczby, która jest najlepszą oceną nieznanej wartości parametru.

  2. Estymacja przedziałowa polega na wyznaczeniu (na podstawie wyników uzyskanych w próbie) takiego przedziału liczbowego, aby z zadanym z góry prawdopodobieństwem można było oczekiwać, że nieznana wartość parametru należy do tego przedziału.


Przedział taki nazywamy przedziałem ufności, zaś prawdopodobieństwo współczynnikiem ufności.

  1. α (wielkość ta zależy od poziomu istotności, czyli od wartości α)

  1. Hipoteza statystyczna to każde przypuszczenie dotyczące nieznanego rozkładu zmiennej losowej. Wyróżniamy:

- hipotezy parametryczne – sądy dotyczące parametrów populacji generalnej

-hipotezy nieparametryczne – sądy dotyczące rozkładów populacji generalnej

  1. Weryfikacja hipotez to pdejmowanie określonych decyzji statystycznych w celu sprawdzania hipotez statystycznych. Sposoby weryfikacji hipotez nazywamy testami statystycznymi. Rozróżnia się testy parametryczne i nieparametryczne.

  2. Hipoteza zerowa H0 – hipoteza sprawdzana (testowana, weryfikowana). Jest to przypuszczenie, że pomiędzy wartością estymatora, parametrem lub dwoma parametrami nie ma żadnej różnicy.

  3. Hipoteza alternatywna H1 -hipoteza odwrotna, czyli taka którą można przyjąć, gdy zostanie odrzucona hipoteza zerowa.

  4. Rodzaje błędów:

Błąd pierwszego rodzaju (inaczej błąd alfa (α)) polega na odrzuceniu hipotezy zerowej w przypadku, gdy jest ona prawdziwa.

Błąd drugiego rodzaju (inaczej błąd beta (β)) polega na przyjęciu hipotezy zerowej, gdy jest ona fałszywa

H0 jest prawdziwa H1 jest prawdziwa
Odrzucenie H0 Błąd pierwszego rodzaju OK
Nie odrzucenie H0 OK Błąd drugiego rodzaju

( ZWRÓĆCIE UWAGĘ NA TO GDZIE - W KTÓREJ KOLUMNIE I KTÓRYM WIERSZU - JEST H0 A GDZIE H1, BO PANI POWIEDZIAŁA, ŻE MOŻE ZAMIENIĆ KOLEJNOŚĆ WIERSZY, A MY MAMY TO BRAĆ NA LOGIKĘ )

  1. Poziom istotności (zwany w skrócie poziomem α) to prawdopodobieństwo popełnienia błędu pierwszego rodzaju.

α= 0,05 oznacza, że podejmujemy ryzyko popełnienia błędu średnio w 5 przypadkach na 100 (5%).
Poziom ufności wynosi 1- α czyli 0,95. Wnioski są istotne w 95%

α = 0,01 oznacza, że podejmujemy ryzyko popełnienia błędu średnio w 1 przypadku na 100 (1%) Poziom ufności wynosi 1- α czyli 0,99, Wnioski są istotne w 99 %

Poziom β to prawdopodobieństwo błędu drugiego rodzaju.

  1. Kryteria wyboru określonego poziomu istotności:

- praktyczne konsekwencje wyboru (dla problemów mniej ważnych można przyjąć niższy poziom, np. α = 0,05)

-

- wielkość próby – dla dużych prób należy przyjmować bardziej rygorystyczny poziom istotności (np. alfa =0.01)

- stopień kontroli zmiennych pośredniczących - w badaniach o wysokim stopniu kontroli zmiennych możemy przyjąć niższy pozom wymagań i odwrotnie.

27. Obszarem krytycznym nazywamy zbiór wartości sprawdzanej hipotezy, który przemawia za odrzuceniem hipotezy zerowej.

  1. Etapy wnioskowania statystycznego:
    Sformułowanie hipotezy zerowej i hipotezy alternatywnej;
    Wybór testu do weryfikacji hipotezy zerowej. Kryteria wyboru:
    -skala pomiarowa,
    -liczebność grup (małe – do 30 osób, duże – powyżej 30 osób)
    -liczba grup (dwie lub więcej)
    -grupy zależne lub niezależne;

    Przyjęcie poziomu istotności testu α oraz wyznaczenie obszaru krytycznego;
    Wyznaczenie (obliczenie) funkcji testu;
    Podjęcie z określonym prawdopodobieństwem, decyzji o przyjęciu lub odrzuceniu hipotezy zerowej oraz sformułowanie wniosków.

Podstawą do podjęcia decyzji o przyjęciu lub odrzuceniu hipotezy zerowej jest porównanie wartości funkcji testu z wartością krytyczną.

Decyzja o przyjęciu lub odrzuceniu hipotezy zerowej:

Z tablicy rozkładu t-Studenta odczytujemy ( na podstawie α i df) wartość krytyczną tα;df i porównujemy ją z obliczoną wartością (t) testu:

Jeżeli |t|≥tα;df to odrzucamy H0 co wskazuje na istotność różnic

Jeżeli |t|≤tα;df to nie ma podstaw do odrzucenia H0, co oznacza brak istotności różnic

  1. Testy parametryczne stosowane są w celu sprawdzenia hipotez dotyczących parametrów populacji generalnej. Do najczęściej stawianych należą hipotezy dotyczące wartości średnich arytmetycznych, wariancji oraz wskaźników struktury.

Testy parametryczne najczęściej stosuje się jako testy istotności.

Ograniczenia w przypadku stosowania testów parametrycznych:
-niezależność pomiaru,
-rozkład normalny,
-jedność zbioru statystycznego.

  1. Test istotności – test polegający na odrzuceniu H0 lub stwierdzeniu braku podstaw do jej odrzucenia. W teście tym pod uwagę brany jest tylko błąd pierwszego rodzaju (poziom istotności) nie uwzględnia się konsekwencji popełniania błędu drugiego rodzaju. (stąd nazwa testy istotności)

  1. T-STUDENT : Istotność różnicy między średnimi (test t- Studenta)

Testy te służą do porównania średnich obliczonych dla dwóch rozkładów zmiennej ilościowej
w dwóch próbach (dokładnie czy różnice są istotne czy przypadkowe).
Oczywiście nie porównuje się tutaj wszystkich wyników, lecz wielkości charakterystyczne dla badanych populacji – średnie arytmetyczne.

SFORMUŁOWANIE HIPOTEZY ALTERNATYWNEJ DCYDUJE O TYM CZY MAMY O CZYNIENIA Z TESTM JEDNOSTRONYM LUB TESTEM DWUSTRONNYM.

Grupę tych testów stosujemy m.in. w takich sytuacjach jak porównanie wyników uzyskanych:
-w nowej i starej metodzie,
-przed i po działaniu jakiegoś czynnika,
-w różnych warunkach.

Jak rozpoznać test jednostronny od dwustronnego ?! PRZYKŁADY :

  1. Przykład testu dwustronnego (bezkierunkowego):

H1 – Średnie wynagrodzenie nauczycieli szkół podstawowych na wsi nie jest równe średniemu wynagrodzeniu nauczycieli szkół podstawowych w mieście

  1. Przykład testu jednostronnego (kierunkowego)

H1 Średnie wynagrodzenie nauczycieli szkół podstawowych na wsi jest niższa (lub wyższa) od średniego wynagrodzenia nauczycieli szkół podstawowych w mieście.

W obu przykładach hipoteza zerowa jest taka sama:

H0 Średnie wynagrodzenie nauczycieli szkół podstawowych na wsi jest równe średniemu wynagrodzeniu nauczycieli szkół podstawowych w mieście.

Rozkład testu t-Studenta zależy od wielkości odchylenia standardowego z próby i wielkości samej próby, według której ustala się stopnie swobody.

  1. Stopnie swobody (df) :

określają liczbę niezależnych obserwacji (pomiarów) w próbie, tzn. takich, które mogą mieć dowolną wartość. Dokładnie liczba stopni swobody informuje nas ile zmiennych w próbie możemy mienić, nie zmieniając przy tym ich sumy oraz wartości obliczanych parametrów.

  1. T-STUDENT : dla prób niezależnych (nieskorelowanych, niepowiązanych)

Porównanie średnich arytmetycznych dwóch wylosowanych niezależnie od siebie (tzn. wyniki pomiaru jednej grupy są niezależne od wyników pomiaru drugiej grupy) prób np. z populacji dziewcząt i chłopców, dzieci wiejskich i miejskich, lub studentów stacjonarnych i niestacjonarnych.

Wymagana jest homogeniczność wariancji (wariancje obu prób muszą być jednakowe).

Homogeniczność wariancji sprawdzana jest testem F-Fishera

  1. T–STUDENT ; dla prób zależnych (skorelowanych, powiązanych)

Porównanie średnich arytmetycznych w dwóch próbach zależnych.

Próby skorelowane (zależne) to dwie próby pochodzące od tych samych badanych, badane
w różnych warunkach, różnymi metodami lub w rożnych odstępach czasu. Interesuje nas wielkość zmiany.

Np. wyniki testu przed rozpoczęciem zajęć z terapii pedagogicznej i po jej zakończeniu. LUB
grupa uczniów zbadana dwoma różnymi testami.

WYKŁAD 3 –21.05.2015

  1. TEST F-FISHERA

Istotność różnicy między wariancjami test t- Fishera (próby niezależne, skorelowane).

Test Fishera służy ocenie, czy wariancje dwóch prób są równe (homogeniczne), a zatem czy można zastosować test t-Studenta dla prób niezależnych.
Badamy hipotezę o równości wariancji (o braku istotnych różnic pomiędzy nimi) tzn:

H0: δ21 = δ22 H1: δ21 ≠ δ22

Statystyka „F” przy założeniu prawdziwości H0 ma rozkład F-Snedecora ze stopniami swobody odpowiednio df1=N1-1 oraz df2=N2-1

Decyzja o przyjęciu lub odrzuceniu hipotezy zerowej:

Odczytana z tablicy rozkładu F (in. Z tablicy rozkładu Snedecora) wartość krytyczna Fα:df1:df2 porównywana jest z obliczoną wartością F.

Jeżeli F≥ Fα:df1:df2 to odrzucamy H0

Jeżeli F< Fα:df1:df2 to nie ma podstaw do odrzucenia H0 co wskazuje na homogeniczność wariancji.

Obliczamy wariancje dla obu prób. Następnie obliczamy estymatory wariancji stosując wzór.

Następnie obliczone estymatory wariancji z obu prób podstawiamy do wzoru F tak, aby
w liczniku znajdowała się większa wartość estymatora!

Estymatory wariancji pierwszym estymatorem jest ten o większej wartości.

  1. T- STUDENT : Istotność różnic miar współzależności

Istotność współczynnika korelacji : istotność współczynnika korelacji, głównie dla małej próby, można sprawdzić testem t-Studenta.

Test stosowany jest dla zależnych współczynników korelacji (Pearsona i Spearmana) w celu dokonania oceny ich istotności. Pozwala on ustalić, czy otrzymana wartość jest istotna, czy też powstała w sposób przypadkowy.

Hipoteza zerowa ma postać:
H0 r=0 współczynnik korelacji jest nieistotny (związek między zmiennymi jest przypadkowy)

Hipoteza alternatywna:

H1 r≠0 korelacja między zmiennymi jest istotna


  1. TESTY NIEPARAMETRYCZNE :
    test nieparametryczny
    -test dotyczący całej badanej zbiorowości, a nie tylko określonych jej parametrów.
    Testy te nie wymagają żadnych założeń co do rozkładu. Można je stosować wobec zmiennych wyrażonych na wszystkich skalach pomiarowych.

  2. TEST NIEPARAMETCZNY : Test CHI-KWADRAT

Najczęściej stosowany test nieparametryczny w badaniach statystycznych w pedagogice. Nie wymaga żadnych założeń o normalności rozkładu, ale liczebność badanej próby powinna być stosunkowo duża (nie może być mniejsza niż 5 jednostek).

Test chi-kwadrat jest testem jednostronnym.

Stosuje się go często dla obserwacji ujętych na skalach nominalnych lub silniejszych – porządkowych bądź przedziałowych.

Stosowany jest do:
Badania zgodności rozkładu empirycznego z teoretycznym (normalnych), czyli zgodności cech zaobserwowanych i oczekiwanych.
Jest to TEST ZGODNOŚCI

Sprawdzania niezależności dwóch cech (zmiennych).
Jest to TEST NIEZALEŻNOŚCI

Test niezależności jest szczególnym przypadkiem testu zgodności!

Test niezależności Chi-kwadrat służy do sprawdzenia niezależności cech dla:
dwóch zmiennych dychotomicznych, inaczej dwudzielnych (tablice czteropolowe). Zmienne te są zazwyczaj normalne.
dwóch zmiennych wielodzielnych (tablice wielopolowe). Zmienne te są najczęściej zmiennymi jakościowymi (niemierzalnymi).

Ocena niezależności między badanymi cechami jakościowymi jest niezbędna do badania współzależności pomiędzy nimi.

Aby wyznaczyć wartość χ2 wymagane jest sporządzenie tablicy kombinowanej (in. Tablicy zależnościowej lub tablicy niezależności) czteropolowej lub wielopolowej.


  1. Algorytm testu niezależności chi-kwadrat
    (CZYLI JAK TO LICZYĆ )

  1. Materiał empiryczny ujmujemy w tablice czteropolowe lub wielopolowe

  2. Stawiamy hipotezy

  3. Ustalamy poziom istotności oraz obliczamy liczbę stopni swobody

  4. Obliczamy wartości empiryczną testu – χ2emp

  5. Z tablicy rozkładu chi-kwadrat odczytujemy (przy uwzględnieniu odpowiedniego poziomu istotności i liczby stopni swobody) wartość krytyczną (teoretyczną testu) – χ2teoret.= χ2α:df

  6. W celu odrzucenia lub przyjęcia hipotezy zerowej stosujemy następujące wzory

Jeżeli χ2emp≥ χ2teoret. to H0 odrzucamy

Jeżeli χ2emp< χ2teoret. to H0 nie odrzucamy


Wartość statystyki χ2 zależy od trzech czynników:

  1. POPRAWKA YATESA NA CIĄGŁOŚĆ :

Polega na zmniejszeniu o 0,5 każdej zaobserwowanej liczebności (fe) większej od spodziewanej (f0) i na zwiększeniu o 0,5 każdej zaobserwowanej liczebności mniejszej od spodziewanej.

Powoduje to zmniejszenie wartości χ2, co ma istotne znaczenie przy podejmowaniu decyzji o przyjęciu lub odrzuceniu hipotezy zerowej.

Stosujemy gdy:
oczekiwane liczebności są mniejsze niż 10 (w dowolnym polu);
próba losowa zawiera mniej niż 40 obserwacji.

Stosujemy do:
tablic typu 2x2 oraz 2x1 (gdy liczba stopni swobody df wynosi 1);
tablic z niskimi liczebnościami zaobserwowanymi (nie oczekiwanymi);
wszystkich klas w tablicy, nawet gdy tylko jedna liczebność jest mała.

  1. ANALIZA WSPÓŁZALEŻNOŚCI MIĘDZY CECHAMI JAKOŚCIOWYMI

Stwierdzenie występowania związku (odrzucenie hipotezy zerowej) daje podstawę do obliczenia siły tego związku.

Siła związku pomiędzy zależnymi zmiennymi jakościowymi badamy za pomocą współczynników kontyngencji.


Współczynniki:

TABLICA CZTEROPOLOWA JEST SZCZEGÓLNYM PRZYPADKIEM TABLICY WIELOPOLOWEJ (najmniejsza tablica wielopolowa to tablica 2x2)
ZATEM WSPÓŁCZYNNIK C-PEARSONA MOŻE BYĆ RÓWNIEŻ STOSOWANY DO TABLIC 4-POLOWYCH!!!

Maksymalna wartość współczynnika C Pearsona zależy od liczby wierszy i kolumn w tabeli.
Im większa jest liczba tych pól, tym bardziej osiągalna jest maksymalna waty ość tego współczynnika (współczynnik C max zbliża się do +1).
im mniejsza jest liczba tych pół, tym niższa jest maksymalnie osiągana wartość C.

Wartość współczynnika C należy rozpatrywać w zależności od wartości maksymalnej możliwej dla danej tabeli.

Dla tablicy kwadratowej (k=w tzn. liczba kolumn i wierszy jest taka sama):

Cmax= $\sqrt{\frac{K - 1}{k}}$

Dla tablicy prostokątnej (k≠w różna liczba kolumn i wierszy)

Cmax = $\frac{Cmax(k)\ + \ Cmax(w)}{2}$

  1. Dysponując wartością współczynnika C obliczona dla konkretnego przykładu oraz Cmax należy obliczyć wartość skorygowaną współczynnika kontyngencji Ckor

Ckor = $\frac{C}{C\max}$

W każdym przypadku Ckor prowadzi do podwyższenia wartości współczynnika C

Współczynniki kontyngencji mogą przyjmować tylko wartości dodatnie (od 0 do 1), zatem pokazują (określają) one tylko siłę zależności, nie ukazują (opisują) natomiast kierunku tej zależności (tendencji).


Wyszukiwarka

Podobne podstrony:
Statystyka opisowa wykład interpretacje
Test ze statystyki z zima 2007 grupa A[1], 1)
Statystyka opisowa, Wykład 9, 4
Statystyka matematyczna, Wykład 9
Test ze statystyki 2007 (z wykładu), 1)
Statystyka dzienne wyklad1, Rachunek prawdopodobie˙stwa
statystyka odpowiedzi wyklad, Statystyka(1)
Statystyka dzienne wyklad4, Rachunek prawdopodobie˙stwa
Geologia wyklady grupa 9 id 189249
Statystyka matematyczna - wyklad 1, Studia materiały
Statystyka opisowa, Wykład 10, 4
STATYSTYKA OPISOWA 4 WYKŁAD 29.03.2009 doc, STATYSTYKA OPISOWA 4 WYKŁAD 29
Statystyka dzienne wyklad13, STATYSTYKA
STATYSTYKA EGZAMIN (WYKŁAD)
Test ze statystyki 2007 zima grupa b, Test ze statystyki 2006 (z ćwiczeń)
treści wykłądów
Wykład 4 Grupa społeczna, Studia licencjackie- Resocjalizacja, Wprowadzenie do socjologii

więcej podobnych podstron