background image

R O Z D Z I A Ł 8 

TESTY T-STUDENTA 

I. Wprowadzenie 

Każde badanie naukowe rozpoczyna się od sformułowania problemu badawczego oraz 
najbardziej prawdopodobnego (na gruncie wiedzy badającego) ogólnego rozwiązania, czyli 
hipotezy badawczej. Poprawne sformułowanie hipotezy w dużej mierze przesądza 
o sukcesie badawczym. Hipoteza powinna być tak sformułowana, by łatwo  m o ż n a ją było 
przyjąć lub odrzucić. Ogólnie mówiąc, hipotezy  m o g ą dotyczyć: 
• wartości badanych zmiennych 

np. Średni wiek osób chorych na  p e w n ą chorobę wynosi 45 lat. 

• różnicy między cechami opisującymi badaną grupę (populację) 

np. Lek A skuteczniej obniża ciśnienie od leku B. 

Istnieje różnica między czterema metodami czasu krzepnięcia osocza. 

• zależności między badanymi zmiennymi 

np. Istnieje silna korelacja dodatnia między ilością wypalanych papierosów 

a prawdopodobieństwem wystąpienia nowotworu płuc. 

• „kształtu" zależności badanych zmiennych 

np. Istnieje zależność logarytmiczna między wzrostem a wiekiem pacjentów 

chorych chronicznie na schorzenie X. 

• porównania rozkładów zmiennych 

np. Rozkład zmiennej „glukoza" jest rozkładem normalnym. 

Weryfikacja hipotez statystycznych to zasadnicza  d o m e n a statystyki. W dalszych 
rozważaniach przez hipotezę statystyczną rozumieć będziemy każde przypuszczenie 
dotyczące zbiorowości generalnej bez przeprowadzenia badania całkowitego. Prawdziwość 
hipotezy będziemy weryfikować na podstawie wyników próby losowej. 

Tradycyjnie dzielimy hipotezy statystyczne na dwie grupy: 

=> parametryczne, gdy dotyczą wartości parametrów statystycznych populacji (np. 

średnia, wariancja), 

=> nieparametryczne, gdy dotyczą postaci rozkładu cech lub losowości próby. 

Proces weryfikacji hipotezy przebiega według  p e w n e g o schematu postępowania 
nazywanego testem statystycznym.  G d y weryfikujemy hipotezę parametryczną,  m ó w i m y 
o testach parametrycznych. W przeciwnym przypadku o testach nazywanych 
nieparametrycznymi. Testy te pozwalają na podstawie wyników z próby losowej podjąć 
decyzję o odrzuceniu lub nie postawionej przez nas hipotezy. 

145 

background image

Przystępny kurs statystyki 

Weryfikacja hipotez rozpoczyna się zwykle od postawienia tej hipotezy, która 

będzie podlegała sprawdzeniu. Taką hipotezę  n a z y w a m y hipotezą zerową i  o z n a c z a m y 

H

0

Następnie formułujemy (konkurencyjną) hipotezę, którą jesteśmy skłonni przyjąć, gdy 
odrzucamy hipotezę zerową. Taką hipotezę  n a z y w a m y hipotezą alternatywną 

i oznaczamy H

1

A  j a k postępujemy w praktyce? Przykładowo  c h c e m y stwierdzić, że paciorkowce 

odpowiedzialne są za cięższe przypadki choroby niż gronkowce.  C h o ć wyniki z próby 
mogą częściowo wskazywać, że tak jest,  m u s i m y być ostrożni.  M o g ł o to być dziełem 
przypadku - np. nietypowego doboru próby. Dlatego  j a k o hipotezę zerową przyjmujemy 
zazwyczaj brak różnic. Natomiast to, co nas interesuje, to hipoteza alternatywna  m ó w i ą c a 
o zachodzeniu różnic np. między działaniem różnych bakterii. Odrzucając  b o w i e m hipotezę 
zerową przyjmujemy alternatywną, a jej nieodrzucenie stawia nas w trudnej sytuacji.  N i e 
m o ż n a oczywiście przyjąć hipotezy alternatywnej ani zerowej, bo jej nieodrzucenie 
wynikać może np. z niewłaściwego doboru grupy próbnej lub jej zbyt małej liczebności. 

Oczywiście sposób konkretnego postępowania przy testowaniu zależy od istoty 

badanego problemu statystycznego,  j e d n a k ż e zawsze weryfikacja  p o w i n n a przebiegać tak, 
aby zapewnić jak najmniejsze prawdopodobieństwo pomyłki. W trakcie weryfikacji  m o g ę 
popełnić dwa błędy: 

=> błąd pierwszego rodzaju, polegający na odrzuceniu hipotezy zerowej,  m i m o że jest ona 

prawdziwa. Prawdopodobieństwo popełnienia błędu pierwszego rodzaju  n a z y w a m y 
poziomem istotności i oznaczamy przez a. Najczęściej przyjmowane są wartości 0,05 
oraz 0,01 i 0,001; 

=> błąd drugiego rodzaju, polegający na przyjęciu hipotezy zerowej, gdy ona 

w rzeczywistości jest fałszywa. Prawdopodobieństwo popełnienia błędu drugiego 
rodzaju oznaczać będziemy przez β. 

Zestawienie  o m a w i a n y c h

 błędów przedstawione jest w poniższej tabeli: 

Hipoteza 

DECYZJE 

zerowa 

Przyjąć H

Odrzucić H

Hipoteza zerowa 

decyzja 

błąd I rodzaju 

prawdziwa 

prawidłowa 

Hipoteza zerowa 

błąd II rodzaju 

decyzja 

fałszywa 

prawidłowa 

Wartości α i β są ze sobą powiązane. Zmniejszenie prawdopodobieństwa a powoduje 
wzrost prawdopodobieństwa (3 (rysunek 1). 

146 

background image

Testy t-studenta 

Rys. 8.1 Powiązanie błędów I rodzaju i II rodzaju 

P e w n y m kompromisem w tej sytuacji są tzw. testy istotności, które dla wybranego przez 
nas z góry poziomu istotności α zapewniają możliwie najmniejszą wartość 
prawdopodobieństwa β. W tym i pozostałych rozdziałach tej książki będziemy  m ó w i ć tylko 
o takich testach. 

Proces weryfikacji hipotez statystycznych przebiega w następujących czterech 

etapach: 

1. Formułowanie hipotezy zerowej H

0

 oraz odpowiadającej jej hipotezie 

alternatywnej H

Przypuśćmy, że chcemy zadecydować o wprowadzeniu  n o w e g o leku do użycia. Jaką 
przyjąć hipotezę zerową ? Opierając się o zasadę Hipokratesa - „Po pierwsze nie  s z k o d z i ć " 
- przyjmujemy hipotezę zerową i alternatywną w postaci: 

H

0

: Lek nie jest efektywny 

H

1

: Lek jest efektywny 

2. Dobieranie - odpowiednio do postawionej hipotezy zerowej - testu i obliczenie jego 

wartości w oparciu o dane pochodzące z próby 

Jest to najważniejsza decyzja podejmowana w trakcie weryfikacji hipotez. Wybór  b o w i e m 
niewłaściwego testu przekreśli wartość całego późniejszego rozumowania.  M u s i m y 
wiedzieć, jakie jest odpowiednie „narzędzie" dla naszego problemu i naszych badanych 
zmiennych. Musimy również zawsze sprawdzić, czy założenia o możliwości zastosowania 
wybranego przez nas testu są w pełni spełnione. Pozostałe strony tej książki postarają się 
wyjaśnić i przybliżyć odpowiednie reguły postępowania. 

147 

background image

Przystępny kurs statystyki 

3. Przyjmujemy odpowiedni  p o z i o m istotności 

W naukach biologicznych jest to wartość α = 0,05 lub mniejsza. Jaki jest sens tej liczby? 
P o z i o m

 istotności wskazuje, na jaki  m a ł y błąd  „ w y r a ż a m y " zgodę, np.  p o z i o m 0,01 

świadczy, że jesteśmy skłonni popełnić jeden błąd na 100 badań. Pamiętajmy także, że 
wybierając niższy poziom istotności uzyskujemy wyższy  p o z i o m wiarygodność hipotezy 
alternatywnej (jej przyjęcie jest jakby mocniej uzasadnione), ale będzie  n a m trudniej 
odrzucić hipotezę zerową. Często  m a m y konflikt między chęcią, aby  j a k najszybciej 
odrzucić hipotezę zerową, a chęcią przyjęcia hipotezy alternatywnej z dużą 

wiarygodnością. Każdy kto miał do czynienia z testami wie, że taki „graniczny" poziom 
istotności to  „ m a g i c z n a " liczba α = 0,05. 

4.  P r z y  u s t a l o n y m  p o z i o m i e

 istotności znajdujemy obszary krytyczne i w oparciu 

o nie podejmujemy decyzję o odrzuceniu lub nie hipotezy zerowej 

Jaka jest zasadnicza idea tworzenia obszarów krytycznych? Otóż robiąc bardzo ważne 
założenie, że hipoteza H

0

 jest prawdziwa, oraz posługując się matematyczną teorią 

(opisującą naszą zmienną) tworzy się pewną zmienną losową (statystykę) Z. Następnie 
określa się wartości jakie musiałaby przyjąć ta zmienna losowa, aby było to  „ m a ł o 
prawdopodobne", to znaczy prawdopodobieństwo zaistnienia tych wartości byłoby równe 
poziomowi istotności. Te  „ m a ł o  p r a w d o p o d o b n e " wartości tworzą tzw. obszar krytyczny. 

Następnie, jeśli wartość testu obliczona dla grupy próbnej znalazła się w obszarze 
krytycznym, to wystąpiło zdarzenie bardzo  m a ł o prawdopodobne. Zdarzenie takie 
praktycznie nie powinno zaistnieć. Skoro  j e d n a k zaszło (a  m a m y zaufanie do obliczeń 
w grupie próbnej), coś jest nie tak z prawdziwością hipotezy zerowej.  N i e jest więc 

spełnione założenie o prawdziwości hipotezy zerowej (wykorzystane do tworzenia obszaru 
krytycznego). Ostatecznie hipotezę zerową odrzucamy i przyjmujemy hipotezę 
alternatywną. 

W rozważanym przykładzie nie zaakceptujemy  n o w e g o leku tak długo,  j a k długo 

badania eksperymentalne nie potwierdzą dostatecznie jasno, że lek jest efektywny 
i pomocny, czyli ich wyniki znajdą się w obszarze krytycznym odrzucając  t y m  s a m y m 
hipotezę zerową. Jest to droga trudna, ale bezpieczna. 

Lokalizacja obszaru krytycznego zależy od postaci hipotezy alternatywnej. 

Przypuśćmy, że efektywność leku mierzymy czasem  j e g o działania. Hipoteza H

0

 teraz 

148 

brzmi - średni czas działania nowego leku 

równy jest pewnej wartości A (czas 

działania stosowanych do tej pory specyfików). Formalizując  m a m y -
M o ż e m y sformułować trzy hipotezy alternatywne: 

W pierwszym przypadku obszar krytyczny obejmowałby wszystkie wartości testu  „ d u ż o " 
większe od A i  „ d u ż o " mniejsze od A. Taki obszar nazywany jest obszarem dwustronnym 
(rysunek poniżej). 

background image

Testy t-studenta 

Rys. 8.2 Obszar krytyczny dwustronny 

W drugim przypadku obszar krytyczny obejmowałby wszystkie wartości testu  „ d u ż o

mniejsze od A. Taki obszar nazywany jest obszarem lewostronnym (rysunek poniżej). 

Rys. 8.3 Obszar krytyczny lewostronny 

W trzecim przypadku obszar krytyczny obejmowałby wszystkie wartości testu  „ d u ż o " 
większe od A. Taki obszar nazywany jest obszarem  p r a w o s t r o n n y m (rysunek poniżej). 

Rys. 4 Obszar krytyczny prawostronny 

II. Testy t-Studenta 

W medycynie najczęściej prowadzimy badania, aby wykryć różnice między średnimi. I od 
testów różnic między średnimi z  d w ó c h prób rozpoczniemy podróż w krainę hipotez 
i testów statystycznych. Zacznijmy od  d w ó c h przykładów. 

149 

background image

Przystępny kurs statystyki 

Szukamy odpowiedź na pytanie, który z tych leków jest skuteczniejszy. Do takich 

problemów wykorzystujemy testy dla różnic między średnimi z  d w ó c h prób dla zmiennych 
nieskorelowanych (powiązanych). Testy t-Studenta dla zmiennych niepowiązanych to 
najbardziej powszechne narzędzie oceny różnic między średnimi w  d w ó c h grupach.  M o ż n a 
go też wykorzystać dla oceny różnicy w teście  p r z e p r o w a d z o n y m na grupie pacjentów 
zażywających jakiś lek w stosunku do grupy otrzymujących placebo. Rozpatrujemy więc 
dwie grupy: kontrolną i eksperymentalną. 

Przypuśćmy z kolei, że dla pewnej grupy osób  b a d a m y ciśnienie tętnicze krwi 

przed i po podaniu odpowiedniego leku. Pytamy z kolei, czy lek ten powoduje spadek 
ciśnienia u pacjentów.  T y m razem  m a m y dwie serie  w y n i k ó w  p o m i a r ó w dotyczących tej 

samej próby i chcemy zweryfikować hipotezę o średniej wielkości różnić między tymi 
wynikami. Pierwsza seria danych to pomiary badanej cechy w  j e d n y m  m o m e n c i e czasu, 
druga seria - pomiary tej samej cechy, u tych samych jednostek w drugim  m o m e n c i e czasu. 

Do problemów tego typu stosujemy testy t-Studenta dla zmiennych powiązanych. 

Na początku podamy podstawowe założenia t-testów: 

I. Przestrzeganie zasad randomizacji 

Jeśli chcemy uogólnić wnioski wynikające z tego badania na cały zbiór osób, to 
musimy zagwarantować reprezentatywność próby dla populacji (Brzeziński [7]). 
Jedynie dobór losowy próby (pierwsza zasada randomizacji) gwarantuje jej 
reprezentatywność. Jej nierespektowanie sprawia, że wyciągnięte wnioski są 
prawomocne jedynie dla pacjentów z danego szpitala czy osób z pewnej grupy 
wiekowej lub danej płci itd. 

Przy ocenie skuteczności leku, nowej metody terapeutycznej badania  p o w i n n y być 

przeprowadzone na co najmniej  d w ó c h równoważnych grupach osób badanych - w celu 

sprawdzenia nowej metody (nowego leku) w stosunku do tradycyjnej 
(dotychczasowego leku). Decyzja o tym, jaka metoda (jaki lek) oddziałuje na daną 
osobę, ma być podjęta przez nas w sposób losowy (druga zasada randomizacji). 

Nierespektowanie drugiej zasady randomizacji powoduje, że na różnice między 

średnimi wartościami zmiennej duży  w p ł y w  m o ż e mieć czynnik selekcji. Badanie 
zakłócone jest czynnikiem związanym z podziałem i  m o ż e prowadzić do błędnych 

wniosków. 

II. Respektowanie rodzaju  p o r ó w n a ń 

Cały zbiór testów istotności różnic dzielimy na dwa podzbiory: 

• testy przeznaczone do testowania różnic między grupami niezależnymi, 
• testy dla grup zależnych. 

150 

Przykład 1 
Przypuśćmy, że podajemy dwa leki (A - 10  o s o b o m i B - 12 osobom) obniżające ciśnienie 
d w ó m różnym grupom. Poniżej w tabelce  m a m y  p o d a n e wielkości mówiące o ile obniżyło 
się ciśnienie po podaniu specyfiku. 

background image

Testy t-studenta 

W zależności od rozpatrywanego problemu należy wybrać odpowiedni test. 

III. Założenie o normalności rozkładu zmiennej 

Istnieją specjalne testy statystyczne pozwalające na ocenę normalności danego rozkładu 
empirycznego. Najczęściej stosowane testy Shapiro-Wilka i  K o ł m o g o r o w a - S m i r n o w a 
znajdziemy w oknie Statystyki opisowe w  m o d u l e  P o d s t a w o w e statystyki i tabele. 

IV. Założenie jednorodności wariancji 

Dla sprawdzenia tego założenia służy test F i test Levenea lub test Bartletta. 
W przypadku gdy testy nie wykazały jednorodności wariancji, należy posłużyć się 
alternatywnym testem Cochrana-Coxa. 

Wszystkie rodzaje t-testów zostaną dalej szczegółowo  o m ó w i o n e wraz z przykładami. 

Test T-Studenta dla zmiennych niepowiązanych 

Istnieją różne wersje tego testu zależne od liczebności grupy i wariancji w poszczególnych 
grupach. Ich przegląd znajdziemy na poniższym rysunku: 

Obserwowane zmienne losowe 

mają w dwóch zbiorowościach rozkłady normalne 

I

 Tak Nie

 I 

151 

background image

Przystępny kurs statystyki 

152 

Dla przykładu rozwiążemy problem postawiony w przykładzie 1 powyżej. 
Po obliczeniach otrzymujemy następujące średnie i odchylenia standardowe: 
Lek A -  m

t

 = 8,2 i

 S1

 = 3,16 

Lek B -  m

2

 = 5,33 i s

2

 = 2,57 

Po sprawdzeniu, że zmienna ma rozkład normalny (test Shapiro-Wilka, str. 70) oraz braku 
istotnych różnic między wariancjami zastosować  m o ż e m y test C (zgodnie z  d i a g r a m e m 
powyżej). Wartość testu wyliczona w oparciu o dane z grupy próbnej wynosi T= 2,351. 
Przyjmijmy poziom istotności 0,05 i hipotezę alternatywnej 

(średni  p o z i o m 

obniżania ciśnienia przez lek A jest większy od średniego  p o z i o m u obniżania ciśnienia 
przez lek B). Po odczytaniu z tablic (tak, tak!) wartości wyznaczającej obszar krytyczny 
otrzymujemy t

0 , 0 5

 = 1,7247. Obszar krytyczny tworzą więc liczby większe od odczytanej 

z tablic wartości 1,7247. Wyliczona wartość testu T= 2,351 należy do tego obszaru. 
Wynika z tego, że średni  p o z i o m obniżonego ciśnienia przez lek A jest istotnie 

background image

Testy t-studenta 

statystycznie wyższy od średniego poziomu obniżonego ciśnienia przez lek B.  M o ż e m y 
wnioskować, że lek A jest skuteczniejszy od leku B (przy poziomie istotności 0,05). 

Gdybyśmy chcieli sprawdzić naszą hipotezę na poziomie istotności a = 0,01 

jeszcze raz musielibyśmy odczytywać  n o w ą wartość krytyczną. Jak widać, 

przeprowadzanie „na  p i e c h o t ę " weryfikacji hipotez  w y m a g a dużo wprawy, cierpliwości 

i znajomości tablic statystycznych. Jak pokazuje poniższe zestawienie, program 

STA TISTICA

 uwalnia nas od najbardziej pracochłonnego etapu obliczeń. Pozostawia  n a m 

interpretację otrzymanych wyników (co jest sprawą  w a ż n ą i  t r u d n ą ) 

Etapy wnioskowania statystycznego 

„na piechotę" 

1. wprowadzanie danych 

2. formułowanie hipotezy zerowej 
3. sprawdzenie założeń wybranego 
testu 

4. obliczamy wartość testu 

sprawdzającego na podstawie 
wyników z próby 

5. znajdowanie wartości 

krytycznej z tablic 
statystycznych przy ustalonym 
poziomie istotności 

6. podjęcie decyzji o odrzuceniu 

lub nie hipotezy zerowej na 
danym poziomie istotności 

7. interpretacja otrzymanych 

wyników 

z użyciem programu STATISTICA 

1. wprowadzenie danych 

2. formułowanie hipotezy zerowej 
3. sprawdzenie założeń wybranego 
testu 

4. Umożliwia podjęcie decyzji 

przy możliwie „najlepszym" 
poziomie wiarygodności 
hipotezy alternatywnej 

5. interpretacja otrzymanych 

wyników 

Rys. 8.6 Etapy wnioskowania statystycznego 

Test T-Studenta dla zmiennych powiązanych (zależnych) 

Test ten stosuje się wówczas, gdy  m a m y dwie serie  w y n i k ó w dla tych samych elementów 
(próby powiązane) w różnym czasie (np. przed i po podaniu leku). Dla każdego elementu 
próby losowej  m a m y parę liczb x

i

 i y

i

 oraz ich różnicę d

i

 =

 X

i

 - y

i

.  Z a k ł a d a m y , że populacja 

różnic ma rozkład normalny. 

153 

background image

Przystępny kurs statystyki 

Przykład 2 
Pewnej grupie 10 pacjentów leczonych na nadciśnienie  p o d a w a n o odpowiedni lek. Wyniki 
pomiarów ciśnienia tętniczego krwi przed leczeniem (A) i po leczeniu (B)  m a m y zebrane 
w poniższej tabeli: 

35,1228. Podstawiając dane do testu  „ t " otrzymujemy t= 3,118. Obliczoną wartość testu 
porównujemy  z w a r t o ś c i ą krytyczną odczytaną z tablic rozkładu t-Studenta, przy 
założonym poziomie istotności 9 (n-1) stopniach swobody. Ponieważ t = 3,118 jest większe 
od t

α

 = 2,262, a

 więc hipotezę zerową należy odrzucić na rzecz hipotezy alternatywnej. 

Oznacza to, że lek powoduje istotny spadek ciśnienia. 

W dalszej części tego rozdziału  d o w i e m y się jak takie zagadnienia rozwiązać 
i zinterpretować graficznie przy  p o m o c y programu STATISTICA 

III. A jak to się liczy w programie STATISTICA 

W programie STATISTICA do testowania różnic między średnimi służą opcje testy t dla 
prób niezależnych
 i testy t dla prób zależnych w  m o d u l e  P o d s t a w o w e statystyki 
i tabele.
 Pierwsza opcja stosowana jest dla testowania różnic między średnimi z dwóch 
prób nie powiązanych, a druga w przypadku grup powiązanych.  O m ó w i m y kolejno każdą 
z nich. 

Testy t dla prób niezależnych. 

Po wybraniu opcji testy t dla prób niezależnych i naciśnięciu OK (lub po  d w u k r o t n y m 
kliknięciu na nazwie opcji) otwiera się okno Testy dla prób niezależnych przedstawione 
poniżej. 

154 

Średnia i odchylenie standardowe z różnic wynoszą kolejno 

oznacza średnią różnicę między pierwszy a drugim wynikiem w całej populacji. 

Jak na poziomie istotności α = 0,05 zweryfikować hipotezę, że lek ten powoduje istotny 
spadek ciśnienia u leczonych pacjentów? 

Wystarczy zweryfikować hipotezę 

background image

Testy t-studenta 

Rys. 8.7  O k n o Testy dla prób niezależnych 

Na górze okna  m a m y pole Plik wejściowy do ustawienia sposobu organizacji danych. 
Okno dopuszcza dwie możliwości: 

• Jeden rekord/przypadek (Użyj zmiennej grupującej) 

Jest to sposób organizacji danych tu domyślny i dominujący dla większości  m o d u ł ó w . 
Polega on na wpisywaniu przypadku za przypadkiem.  W ó w c z a s każdy wiersz w zbiorze 
danych przedstawia jedną obserwację (osobę), a każda  k o l u m n a reprezentuje  j e d n ą 
badaną zmienną. W takiej sytuacji, aby przeprowadzić test-t  m u s i m y wyróżnić zmienną 
tzw. grupującą (np. rodzaj leku, płeć). Określa ona, do jakiej grupy zaliczyć dany 
przypadek. 

• Każda zmienna zawiera dane dla jednej grupy 

Jest to alternatywny sposób ustawienia danych.  T y m razem każda  k o l u m n a (zmienna) 
reprezentuje  j e d n ą grupę danych. Po wyborze tej opcji okno Testy dla prób 

niezależnych częściowo zmienia swoją postać. 

W przypadku wyboru pierwszej możliwości należy określić kody (wartości zmiennej 
grupującej) określające grupy, które chcemy porównać.  K o d y wpisujemy w polach „kod 
grupy"
 poniżej. Jeżeli nie pamiętamy  k o d ó w grupujących należy dwukrotnie kliknąć te 
pola. Otworzy się okno zawierające wszystkie kody liczbowe oraz ich alfanumeryczne 
odpowiedniki. Dwukrotne kliknięcie na kodzie przenosi go automatycznie do pola „kod 
grupy". 

O tym co i w jaki sposób zostanie wyświetlone w arkuszu  w y n i k o w y m decydują 
ustawienia opcji w polu Opcje widocznym na poniższym rysunku. 

155 

background image

Przystępny kurs statystyki 

156 

Rys. 8.8  O k n o Opcje dla testów dla prób niezależnych 

Umożliwiają one kolejno: 
•  U s u w a n i e  b r a k ó w danych przypadkami 

Jeżeli ta opcja została wybrana STATISTICA eliminuje z analizy wszystkie przypadki, 
dla których brakuje danych w jakiejkolwiek zmiennej wybranej do analizy. 
W przeciwnym przypadku braki danych eliminowane są z analizy parami (obliczenia 

wykonywane są dla przypadków, które posiadają poprawne dane dla  d w ó c h aktualnie 
analizowanych zmiennych).  Z w r a c a m y na tą opcję uwagę, gdy  p r z e p r o w a d z a m y t-testy 
dla bardzo długich list zmiennych. 

• Pokaż długie nazwy zmiennych 

Jeżeli ta opcja została wybrana  w ó w c z a s w pierwszej kolumnie arkusza  w y n i k ó w obok 
nazw zmiennych pojawią się (o ile były określone) długie nazwy zmiennych (etykiety). 

• Test t z oddzielną oceną wariancji 

Jeżeli ta opcja została wybrana, obliczana jest wartość testu-t dla różnych wariancji (test 
Cohrana-Coxa) w oparciu o oddzielne oceny wariancji w  o b y d w u grupach.  W ł ą c z a m y 
opcję, jeśli wariancje w grupach znacznie się różnią (test F lub test  L e v e n e ' a odrzuca 
hipotezę o równości wariancji) oraz jeśli znacznie różnią się także liczebności grup. 

• Test wielowymiarowy (T Hotellinga) 

Test T

2

 Hotelinga jest uogólnieniem zmiennej losowej t-Studenta na większą ilość 

zmiennych. Stosujemy go, gdy wybraliśmy więcej niż  j e d n a zmienną niezależną. 

• Test Levene'a jednorodności wariancji 

Założeniem t-testu jest równość (jednorodność wariancji). Test Levena jest drugim 
obok testu F  m o c n y m testem statystycznym do sprawdzenia takiej hipotezy. Jeżeli test 
Levena pokaże statystyczną istotność, to hipotezę o jednorodności wariancji należy 
odrzucić. 

Wyboru zmiennych do analizy dokonujemy w oknie, które pojawia się po naciśnięciu 

przycisku 

Sposób wyboru zmiennych został dokładnie opisany w rozdziale 

3. Po wyborze zmiennych i ustawieniu odpowiednich opcji obliczanie testów-t 

rozpoczynamy albo przez naciśnięcie przycisku 

albo przez naciśnięcie 

przycisku OK. 

Program wyświetli prawie natychmiastowo okno arkusza wyników. Postać tego 

okna zależna jest od opcji omawianych powyżej. Poniższy rysunek pokazuje przykładowe 
okno wyników wraz z objaśnieniami poszczególnych pól (ze względy na długość okno 
przedstawione jest w  d w ó c h częściach). 

background image

Testy t-studenta 

[11] [12] [13] [14] [15] [16] [17] [18] [15] 

Rys. 8.9  O k n o arkusza wyników testu istotności różnic 

Poszczególne pola w arkuszu wyników oznaczają odpowiednio: 

[1] - nazwy zmiennych lub długie nazwy (o ile taka opcja została wybrana) 
[2] - średnia grupy pierwszej 
[3] - średnia grupy drugiej 
[4] - wartość testu-t 
[5] - ilość stopni swobody testu-t 
[6] - komputerowy poziom prawdopodobieństwa  z w a n y też prawdopodobieństwem 

testowym (significance level) 
U W A G A ! Przy weryfikacjach hipotez za  p o m o c ą pakietów  k o m p u t e r o w y c h ważne 

staje się wprowadzenie drugiego (ex post)  p o z i o m u istotności, oprócz  j u ż 
omawianego poziomu istotności α (ex ante). Ten drugi  p o z i o m istotności zwany 
„ k o m p u t e r o w y m  p o z i o m e m istotności" lub  „ p o z i o m e m  p r a w d o p o d o b i e ń s t w a " jest 
w pakiecie STATISTICA oznaczany przez p. 
Jeżeli α > p, to na  d a n y m poziomie istotności α odrzucamy hipotezę zerową, 
natomiast gdy α < p, to na  d a n y m poziomie istotności α nie ma podstaw do 
odrzucenia  h i p o t e z y zerowej.

 Porównanie tych dwóch  p o z i o m ó w istotności jest 

bardzo użyteczną metodą przy podejmowaniu decyzji weryfikacyjnych 

[7] - wartość testu-t dla niejednorodnych wariancji (tzw. test Cochrana-Coxa) 
[8] - stopnie swobody testu-t dla niejednorodnych wariancji 
[9] - komputerowy poziom prawdopodobieństwa testu-t dla niejednorodnych wariancji 

U W A G A - pola [7], [8] oraz [9] pojawiają się gdy w polu opcje wybraliśmy test-t 
dla niejednorodnych wariancji 

[10] - liczebność grupy pierwszej 

157 

background image

Przystępny kurs statystyki 

[ 1 1 ] - liczebność grupy drugiej 
[12] - odchylenie standardowe w grupie pierwszej 
[13] - odchylenie standardowe w grupie drugiej 
[14] - wartość testu F sprawdzającego jednorodność wariancji 
[15] - komputerowy poziom prawdopodobieństwa testu F dla jednorodności wariancji 
[16] - wartość testu Levenea sprawdzającego jednorodność wariancji 
[17] - stopnie swobody testu Levenea sprawdzającego jednorodność wariancji 
[18] - komputerowy poziom prawdopodobieństwa testu Levenea dla jednorodności 

wariancji 

U W A G A - pola [16], [17] oraz [18] pojawiają się gdy w polu opcje wybraliśmy test 
Levene'a dla jednorodności wariancji 

W arkuszu wyników kolorem czerwonym zaznaczone są wyniki istotnie 

statystycznie - te dla których poziom p jest mniejszy od wartości 0,05 (domyślne 
ustawienie poziomu istotności). Jeśli potrzeba, wartość tę  m o ż e m y zmienić wykorzystując 

zostały omówiono szczegółowo wcześniej. 

Graficzna interpretacja 

Porównania wartości średnich w dwóch grupach  m o ż e m y przedstawić graficznie. Opisane 
poniżej wykresy ułatwiają szybką ocenę i intuicyjną wizualizację siły relacji między 
zmienną grupującą i zmienną zależną. Przyciski - związane z graficzną interpretacją -
umieszczone w prawej dolnej części okna Testy dla prób niezależnych umożliwiają: 

158 

przycisk 

na pasku narzędzi w arkuszu  w y n i k ó w i podać kryterium (np. wartość 

0,001), według którego wyróżniane są komórki z wynikami. Dokonujemy tego w oknie 
(pojawi się ono po wybraniu przycisku Opcje): 

Przyciski 

otwierają okna do ustawiania wag i selekcji przypadków.  O k n a te 

- wywołanie okna do rysowania wykresu  r a m k o w e g o 

(skrzynki z wąsami - box and whisker) dla wybranych zmiennych -  j e d e n wykres na  j e d n ą 
zmienną. Przy ich  p o m o c y  m o ż e m y otrzymać graficzną ocenę mediany, odchylenia 
standardowego, rozstępu oraz skośności (szczegółowy opis znajdziemy w rozdziale 14). 

- tworzenie skategoryzowanych histogramów dla 

wybranych zmiennych. Wykresy mogą pokazywać histogramy rozbite do dwóch grup 

background image

Testy t-studenta 

maksymalnie. Po naciśnięciu tego przycisku pojawia się okno, w którym wybieramy 
kategoryzujące zmienne. 

3. 

Elementy i format arkusza  w y n i k ó w zależy od ustawień dokonanych w  d w u polach -
Opcje i Wyniki znajdujących się na dole okna Testy t dla prób zależnych. Przybliżmy ich 
możliwości. 

159 

- tworzenie skategoryzowanych  N o r m a l n y c h wykresów 

prawdopodobieństwa dla wybranych zmiennych zależnych.  M o ż e m y wybrać do  d w ó c h 
zmiennych dla określenia kategorii. 

- tworzenie skategoryzowanych  N o r m a l n y c h wykresów 

prawdopodobieństwa z eliminacją trendu dla wybranych zmiennych zależnych.  M o ż e m y 
wybrać do dwóch zmiennych dla określenia kategorii. 

- tworzenie skategoryzowanych wykresów rozrzutu wraz 

z linią regresji dla wybranych par zmiennych -  j e d e n wykres dla każdej pary. Po 
uaktywnieniu tej opcji w pierwszym  w y w o ł a n y m oknie podajemy pary zmiennych dla 
utworzenia wykresów rozrzutu, a w drugim - zmienne definiujące kategorie. Na wykresach 
m a m y też wykreślone linie regresji i ich 95 % przedziały ufności. 

Testy t dla prób zależnych 

Po wybraniu opcji testy t dla prób zależnych i naciśnięciu OK (lub po  d w u k r o t n y m 
kliknięciu na nazwie opcji) otwiera się okno Testy dla prób zależnych przedstawione 
poniżej. 

Wyboru zmiennych do analizy dokonujemy w oknie, które pojawia się po naciśnięciu 

przycisku 

Sposób wyboru zmiennych został dokładnie opisany w rozdziale 

background image

Przystępny kurs statystyki 

I tak, pola wyboru w oknie Opcje umożliwiają 
• Usuwanie BD przypadkami 

Jeżeli ta opcja została wybrana, STATISTICA eliminuje z analizy wszystkie przypadki, 
dla których brakuje danych w jakiejkolwiek zmiennej wybranej do analizy. 
W przeciwnym przypadku braki danych eliminowane są z analizy parami (obliczenia 
wykonywane są dla przypadków, które posiadają  p o p r a w n e dane dla  d w ó c h aktualnie 
analizowanych zmiennych).  Z w r a c a m y na tę opcję uwagę, gdy przeprowadzamy t-testy 
dla bardzo długich list zmiennych. 

• Pokaż długie nazwy zmiennych 

Jeżeli ta opcja została wybrana, wówczas w pierwszej kolumnie arkusza  w y n i k ó w obok 
nazw zmiennych pojawią się (o ile były określone) długie nazwy zmiennych (etykiety). 

Z kolei przyciski opcji w oknie Wyniki umożliwiają: 
• Macierz testów t (średnie, różnice) 

160 

Jeżeli ta opcja została wybrana, wówczas naciśnięcie przycisku 

tworzy 

ciąg (kaskadę) arkuszy wyników. W kolejnych arkuszach  w y n i k ó w dla każdej pary 
wybranych zmiennych podane są: różnice średnich, wartości testu t dla danej różnicy 
oraz poziomy p dla danej wartości t. 

• Szczegółowa tabela  w y n i k ó w 

Opcja wybrana domyślnie. W pojedynczym arkuszu  w y n i k ó w pokazana jest 
szczegółowa tabela wyników (rysunek 12), poza powyżej  w s p o m n i a n y m i wynikami 

pojawi się odchylenie standardowe oraz liczebność grup 

Po wyborze zmiennych i ustawieniu odpowiednich opcji obliczanie testów-t rozpoczynamy 

albo przez naciśnięcie przycisku 

albo przez naciśnięcie przycisku OK. 

Program wyświetli prawie natychmiast okno arkusza wyników. Postać tego okna 

zależna jest od opcji omawianych powyżej. Poniższy rysunek pokazuje przykładowe okno 
wyników wraz z objaśnieniami poszczególnych pól. 

Poszczególne pola w arkuszu wyników oznaczają odpowiednio: 

[1] - nazwy (lub długie nazwy) zmiennych 
[2] - średnie arytmetyczne dla obu grup 
[3] - odchylenie standardowe dla obu grup 
[4] - liczba przypadków 
[5] - różnica średnich 
[6] - odchylenie standardowe różnic 
[7] - wartość testu-t dla zmiennych zależnych 
[8] - ilość stopni swobody testu-t 
[9] - komputerowy  p o z i o m prawdopodobieństwa (zwany też prawdopodobieństwem 

testowym) testu-t dla zmiennych zależnych (significance level).  O z n a c z m y przez 
a przyjęty na początku analizy poziom istotności. Jeżeli α > p, to na  d a n y m 

background image

Testy t-studenta 

poziomie istotności a odrzucamy hipotezę zerową, natomiast gdy α < p, to na 
d a n y m  p o z i o m i e

 istotności a nie ma podstaw do odrzucenia hipotezy zerowej. 

otwierają okna do ustawiania  w a g i selekcji przypadków.  O k n a te 

zostały omówiono szczegółowo wcześniej. 

161 

W arkuszu wyników kolorem czerwonym zaznaczone są wyniki istotnie statystycznie - te 
dla których poziom p jest mniejszy od wartości 0,05 (domyślne ustawienie  p o z i o m u 
istotności). Jeśli potrzeba wartość tę  m o ż e m y zmienić wykorzystując przycisk 

n a 

pasku narzędzi w arkuszu  w y n i k ó w i podać kryterium (np. wartość 0,001), według którego 
wyróżniane są komórki z wynikami. 

Dokonujemy tego w oknie (pojawi się ono po wybraniu przycisku Opcje): 

Przyciski 

background image

Przystępny kurs statystyki 

Rys. 8.14  O k n o z wynikami obliczeń dla przykładu 1 

Z obliczeń testu F (ostatnie dwa pola) wynika, że nie  m o ż e m y odrzucić hipotezy 
o równości wariancji (p=0,514). 

Liczony jest więc t-test dla  j e d n o r o d n y c h wariancji, a  j e g o wyniki potwierdzają 

nasze obliczenia „na piechotę". Wynika z tego, że średni  p o z i o m obniżonego ciśnienia 
przez lek A jest istotnie statystycznie różny od średniego  p o z i o m u obniżonego ciśnienia 
przez lek B.  M o ż e m y wnioskować, że lek A jest skuteczniejszy od leku B przy poziomie 
istotności 0,05, a nawet i mniejszym p = 0,029. Równocześnie nie jest to prawdą dla 

jakiegokolwiek niższego poziomu (np. 0,01). Oznacza to, że  j u ż od  p o z i o m ó w mniejszych 

od 0,029 decyzja weryfikacyjna zmienia się na odwrotną. 

Graficzna interpretacja otrzymanych rezultatów widoczna jest w poniższy oknie: 

162 

Graficzna interpretacja 

Porównania wartości średnich w  d w ó c h grupach  m o ż e m y przedstawić graficznie. Przycisk 
- związany z graficzną interpretacją - umieszczony jest w dolnej części okna Testy dla 
prób zależnych: 

- umożliwia wywołanie okna do rysowania skrzynek 

z wąsami (box and whisker) dla wybranych zmiennych -  j e d e n wykres na  j e d n ą zmienną. 
Przy ich  p o m o c y  m o ż e m y otrzymać graficzną ocenę mediany, odchylenia standardowego, 
rozstępu oraz skośności (szczegółowy opis znajdziemy w rozdziale 14). 

IV. Przykłady 

Przykład 1 cd. 
Przeanalizujmy przy  p o m o c y programu STATISTICA dane z przykładu 1. 
Wprowadzamy dane w postaci dwu kolumn. Po wyborze zmiennych do analizy 

i naciśnięciu przycisku 
wyników: 

otrzymujemy następujące okno z arkuszen 

background image

Testy t-studenta 

Rys. 8.16 Arkusza wyników dla danych z przykładu 2 

Wynika z tego, że średni poziom ciśnienia przed  p o d a n i e m leku jest istotnie statystycznie 
różny od średniego poziomu ciśnienia po podaniu leku (odrzucamy hipotezę zerową przy 
poziomie istotności 0,05, a nawet i mniejszym p = 0,0094).  M o ż e m y wnioskować, że lek 
skutecznie obniża ciśnienie. Równocześnie nie jest to prawdą dla jakiegokolwiek niższego 
poziomu (np. 0,001). Oznacza to, że  j u ż od  p o z i o m ó w mniejszych od 0,0094 decyzja 
weryfikacyjna zmienia się na odwrotną. Graficzna interpretacja wyników widoczna jest 
w poniższy oknie: 

163 

Przykład 2 (ciąg dalszy) 
Przeprowadzimy analizę statystyczną na danych przedstawionych w przykładzie 
pierwszym. Po wprowadzeniu danych (w dwóch kolumnach) wybieramy opcję testy t dla 
prób zależnych module Podstawowe statystyki i tabele. Po wyborze zmiennych do 

analizy i naciśnięciu przycisku 
wyników: 

otrzymujemy następujące okno z arkuszem 

background image

Przystępny kurs statystyki 

Rys. 8.16 Interpretacja graficzna testu t dla danych z przykładu 2 

Oczywiście  m o ż e m y próbować to zagadnienie analizować testem t dla zmiennych 
niezależnych, ale tak nie wolno. Oto jaki błędny wynik dostajemy!: 

Według tego arkusza wyników nie  m a m podstaw do odrzucenia hipotezy zerowej o braku 
istotnego oddziaływania danego leku 

Przykład 3 
Przypuśćmy, że chcemy porównać średnie  p e w n e g o parametru biochemicznego w  d w ó c h 
grupach pacjentów. Zebrane dane przedstawiono w poniższej tabeli. 

Parametr 

biochemiczny 
N u m e r grupy 

Parametr 

biochemiczny 
N u m e r grupy 

Po wykonaniu analizy (testy dla zmiennych niezależnych) w programie STATISTICA 
otrzymujemy następujące okno arkusza wyników: 

164 

background image

Testy t-studenta 

Nie  m a m y więc podstaw do odrzucenia hipotezy zerowej (p = 0,056177). Jest to jakby 
w sprzeczności z poniższym rysunkiem sugerującym istotnie statystyczną różnicę średnich. 

Rys. 8.20 Interpretacja graficzna danych z przykładu 3 

Gdzie tkwi błąd? Otóż nie sprawdziliśmy założeń.  B a d a n a zmienna nie ma rozkładu 
normalnego. Musimy posłużyć się testami nieparametrycznymi. W poniższych oknach 
mamy wyniki analizy statystycznej wykorzystującej test  K o ł m o g o r o w a - S m i r n o w a oraz test 
Walda-Wolfowitza. Potwierdzają one to, co sugerował powyższy rysunek, że dwie grupy 
pacjentów nie pochodzą z tej samej populacji.  O d r z u c a m y (na poziomie 0,37) hipotezę 
o identyczności rozkładu parametru biochemicznego w obu grupach pacjentów. 

165 

background image

Przystępny kurs statystyki 

Przykład 4 
Badano tętno 22 pacjentom przed i po niewielkim wysiłku fizycznym. Zebrane dane 
z uwzględnieniem zmiennej płeć (k - kobieta, m- mężczyzna) przedstawia poniższa tabela: 

21 

156 

20 

132 

38 

122 

20 

136 

33 

148 

25 

148 

37 

136 

22 

158 

32 

116 

22 

120 

22 

126 

19 

144 

21 

144 

26 

126 

32 

136 

24 

142 

28 

138 

34 

132 

35 

116 

21 

138 

21 

142 

30 

132 

Porównajmy pary zmiennych (tętno przed i po wysiłku) pomiędzy grupą kobiet i grupą 
mężczyzn. Po wprowadzeniu konkretnych wartości do arkusza danych przystępujemy do 
analizy statystycznej. W module Podstawowe statystyki i tabele wybieram porównanie 
średnich zależnych. Ponieważ rozważamy więcej niż  j e d n ą zmienną, należy włączyć 
w polu Opcje Test wielowymiarowy (T" Hotelinga). 

Wartość testu T

2

 Hotelinga oraz jego  p o z i o m istotności znajdujemy na górze okna 

wyników. Odrzucamy więc hipotezę zerową, że grupa kobiet i grupa mężczyzn mają 

166 

Po wyborze zmiennych do analizy i naciśnięciu przycisku 

otrzymujemy następujące okno z arkuszem wyników: 

background image

Testy t-studenta 

jednakowe średnie wektory tętna przed i po wysiłku. Podobne wnioski wynikną, gdy 

będziemy rozpatrywać tętno przed i po wysiłku osobno. 

Dla prezentowanych danych  m o ż e m y też przeprowadzić porównanie wartości 

tętna przed i po wysiłku testem dla zmiennych zależnych.  O t r z y m a m y następujące okno 
arkusza wyników: 

Wynika z tego, że wielkości tętna przed i po wysiłku różnią się istotnie statystycznie przy 
dowolnie  m a ł y m poziomie istotności.  O b y wszystkie wyniki analiz były takie. Na 
poniższym rysunku  m a m y graficzną interpretację otrzymanych wyników: 

Na zakończenie dla ułatwienia znalezienia właściwego testu podajemy algorytm doboru 
testu istotności różnic. 

U W A G A ! 
Test z, test t występują w programie STA TISTICA  p o d wspólną nazwą testy-t. Program sam 
dobiera odpowiedni dla danej liczebności test. Test Cochrana-Coxa to w programie 
STATISTICA

 test t z oddzielną oceną wariancji. 

167 

background image
background image

Testy t-studenta 

V. Interpretacja wyników 

Interpretacja wyników otrzymanych po weryfikacji hipotez jest  j e d n y m z najtrudniejszych 
i najważniejszych kroków w przeprowadzanej analizie statystycznej. Poprawna 
interpretacja analizy statystycznej nie  m o ż e być niezależna od wiedzy na temat charakteru 
i sposobu otrzymywania danych. Suche liczby to za  m a ł o . Najlepiej, gdy interpretacji 

wyników dokonuje lekarz łącznie ze statystykiem. Pamiętajmy też, że test statystyczny nie 

jest dowodem prawdziwości czy fałszywości hipotezy. Wynik testu statystycznego  m ó w i 
jedynie o prawdopodobieństwie prawdziwości hipotezy i to tylko w powiązaniu 

z odpowiednio sformułowaną hipotezą alternatywną. Za  p o m o c ą testu  m o ż n a albo odrzucić 
hipotezę zerową, albo też orzec, że wyniki doświadczenia nie przeczą tej hipotezie. 
Mówiąc nieprecyzyjnie decydujemy, czy jeden zbiór wyników  „ n a p r a w d ę " różni się od 
drugiego. Jeżeli tak, to wyciągamy wniosek, że dwa zbiory wyników pochodzą z różnych 
populacji. Na przykład: jeżeli dwa zbiory wyników to  p e w n e dane przed i po podaniu 
testowanego leku,  m o ż e m y powiedzieć, że lek istotnie wpływa na mierzone zjawisko. 
Ocena testu statystycznego ma na ogół postać zdania: 

„Na ustalonym poziomie istotności α = .... hipotezę zerową H

0

 odrzucamy lub 

nie  m a m y podstaw do jej odrzucenia". 

Nieodrzucenie hipotezy zerowej nie jest równoważne z jej przyjęciem. Natomiast przyjęcie 
hipotezy alternatywnej ma charakter wniosku pozytywnego.  O r z e k a m y  b o w i e m 
zachodzenie pewnych różnic, a nie tylko brak podstaw do założenia różnicy lub 

identyczności populacji. Z kolei wynik „nieistotny" nie oznacza nieważny lub nie 
istniejący. Wyniki te niosą też pewną informację o efektach mających znaczenie kliniczne. 
Najlepiej traktować te wyniki  j a k o „nie  u d o w o d n i o n e " . Być  m o ż e np. zwiększenie 
liczebności grupy próbnej zmieni tę sytuację. Podając więc wynik  „ n e g a t y w n y " 
powinniśmy podawać wartość przedziału ufności dla obserwowanego zjawiska czy też 
efektu. Niestety przedziały ufności nie cieszą się popularnością wśród lekarzy. 

Ostrożnie należy też traktować wyniki z  p o z i o m e m istotności bliskim 0,05, 

zwłaszcza jeżeli  m o ż e m y podejrzewać, że testowanie istotności jest niewłaściwie 
powtarzalne. 

W przypadku bardzo ważnych decyzji klinicznych, np. wdrożenia nowej terapii 

lub metody leczenia, należy oprócz tradycyjnej analizy weryfikującej hipotezy skorzystać 
z meta-analizy, czyli zwrócić uwagę na takie fakty jak: 

• dowody epidemiologiczne 
• zależność reakcji od dawki 
• ile doświadczeń klinicznych potwierdza te fakty 
• w jakich podgrupach występuje efekt leczenia 
• czy wynik leczenia wynika z rozsądnego wyboru 
• czy nowa metoda leczenia związana jest ze skutecznością w innych  p o d o b n y c h 

przypadłościach 

• liczbę zbadanych podgrup itd. 

Interpretacja wyników rozbudowanych testów jest rzeczą trudną, starajmy się więc 
wówczas zasięgnąć opinii statystyka. 

1 6 9