48 3.7 Analiza regresji
względem losowym dla wszystkich obserwacji. Sytuacja taka odpowiada wielokrotnym pomiarom zbioru k obiektów, z których każdy mierzony jest n, razy (i odpowiednio i = 1,2,..., fc).
W przypadku tego testu również sprawdzamy, czy odpowiednie grupy prób pochodzą, z rozkładu normalnego oraz czy mają takie same wariancje.
Jeśli hipoteza (3.121) zostanie zanegowana, niezbędne jest ustalenie, które ze średnich w poszczególnych grupach są do siebie podobne, a które różnią się między sobą. Celowi temu służy tzw. analiza post-hoc, której elementami są porówania wielokrotne (porównania we wszystkich możliwych parach) i znajdowanie grup jednorodnych pod względem średniej.
Testy wariancji
W tych testach sprawdzane jest założenie dotyczące wielkości lub równości wariancji. W przypadku jednej grupy obserwacji testujemy, czy wariancja danych jest równa pewnej ustalonej przez nas wartości <7q, tzn.
H0 : a2 =4. (3.123)
Dla dwóch grup hipotezą zerową jest równość wariancji w tych dwóch grupach obserwacji, czyli
H0 : a\ = o\ . (3.124)
Jak widzieliśmy wcześniej, tego typu testy przydatne są przy sprawdzaniu założeń dla testów porównywania średnich. Wykorzystywane są ponadto np. w statystycznej kontroli jakości. W zagadnieniu tym zakłada się bowiem, że o jakości wyrobów świadczy również wielkość wariancji dla charakterystyki jakościowej. Im wariancja ta jest bowiem większa, tym większe zróżnicowanie badanego produktu, czyli „mniej stabilna” produkcja.
Przykładem testów w tej grupie jest test F-Snedecora.
W wielu zastosowaniach niezbędne jest sprawdzenie, czy istnieje zależność pomiędzy dwoma zmiennymi X i Y. W zależności od przyjętych założeń dotyczących losowości (lub deterministyczności) obu tych zmiennych mamy różne modele, z których część nosi nazwę analizy regresji. Z problemem zależności pomiędzy danymi spotkaliśmy się też już w rozdziale 3.6.3. Teraz będziemy jednak rozważać sytuację, gdy zmienne posiadają wartości ciągłe i mierzone są względem skali ilościowej. Test \2 niezależności, opisany wcześniej, przeznaczony był przede wszystkim dla danych o wartościach dyskretnych lub dla zmiennych mierzonych na skalach porządkowych i nominalnych.
W rachunku prawdopodobieństwa miarą zależności pomiędzy zmiennymi X i Y jest kowariancja, obliczana ze wzoru
(3.125)
Cov(X, Y) = Cov(Y,X) = E (X - EX) (Y - EY) .