Ćwiczenia nr 3
METODY ANALIZY WSPÓŁZALEŻNOŚCI ZJAWISK MASOWYCH
CZĘŚĆ 1
UWAGI WSTĘPNE
Analiza struktury zbiorowości opiera się na obserwacji jednej zmiennej (cechy). Tymczasem jednostki tworzące zbiorowość charakteryzowane są za pomocą więcej niż jednej cechy. Cechy te wzajemnie się warunkują. Powoduje to konieczność ich badania jako całości. Celem takiego badania jest stwierdzenie:
Czy między badanymi zmiennymi zachodzą jakieś zależności?
Jaka jest ich siła, kształt i kierunek?
Dział Statystyki zajmujący się kilkoma zmiennymi nosi nazwę teorii współzależności.
Współzależność między zmiennymi możne być dwojakiego rodzaju: funkcyjna i stochastyczna (probabilistyczna).
Istota zależności funkcyjnej polega na tym, że zmiana wartości jednej zmiennej powoduje ściśle określoną zmianę wartości drugiej zmiennej.
X = Y
Co powoduje, że:
X1 = Y1
X - zmienna niezależna (objaśniająca)
Y - zmienna zależna (objaśniana)
Np.: Pole kwadratu o to funkcja długości jego boku (P = a²) z czego wynika, że wszystkie kwadraty o boku a mają identyczną powierzchnię.
Zależność stochastyczna występuje gdy wraz ze zmianą jednej zmiennej zmieni się rozkład prawdopodobieństwa drugiej zmiennej.
Szczególnym przypadkiem zależności stochastycznej jest zależność korelacyjna (statystyczna). Polega ona na tym, że określonym wartościom jednej zmiennej odpowiadają ściśle określone średnie wartości drugiej zmiennej. Można więc ustalić wartość zmiennej zależnej Y w zależności od wartości zmiennej niezależnej X.
Np. Średnie oceny studentów którzy poświęcili więcej czasu na naukę, są wyższe od ocen, które uzyskali studenci uczący się krócej.
Jeżeli między badanymi zmiennymi nie ma związku stochastycznego, to nie ma również związku korelacyjnego. Wynika to z tego, że określonej liczbie identycznych wariantów zmiennej odpowiada zawsze ta sama średnia, ale można ją uzyskać z różnej kombinacji wariantów zmiennej. Np. wariantom cechy „waga” 62 i 68 kg odpowiada średnia = 65 kg, ale średnią tą można otrzymać z kombinacji takich wariantów tej cechy: 60 i 70; 63 i 67; 61 i 69 (dane w kg).
Badanie związków korelacyjnych ma sens jedynie wtedy, gdy między zmiennymi istnieje więź przyczynowo - skutkowa, dająca się logicznie wytłumaczyć.
Analiza związków między zjawiskami powinna być zawsze dwukierunkowa: jakościowa i ilościowa. Najpierw na podstawie analizy merytorycznej należy uzasadnić logicznie występowanie związku, a dopiero potem można przystąpić do określenia siły i kierunku zależności.
Wśród związków przyczynowo - skutkowych można wyróżnić związki dwustronne i jednostronne (proste). Związku dwustronne cechuje wzajemne oddziaływanie na siebie badanych zjawisk. W takim przypadku przyczyny i skutki zamieniają się miejscami. Związki typu prostego charakteryzuje jednostronne oddziaływanie przyczyny na skutek.
O badaniu związku korelacyjnego można mówić tylko wtedy, gdy przynajmniej jedna zmienna jest mierzalna. W celu określenia stopnia zależności między badanymi zmiennymi można posłużyć się współczynnikiem korelacji lub funkcją regresji.
Współczynnik korelacji jest miernikiem siły zależności między badanymi zmiennymi.
W wyniku analizy regresji można odpowiedzieć na pytanie, jakie zmiany średniej wartości zmiennej zależnej należy oczekiwać przy zmianie wartości zmiennej niezależnej o jednostkę.
CZĘŚĆ 2
WEDŁUG NIEKTÓRYCH
PROSTE SPOSOBY STWIERDZENIA ZALEŻNOŚCI KORELACYJNEJ.
Podstawą do badania korelacji między zmiennymi mogą być szeregi statystyczno - przekrojowe (niech żyją neologizmy pana Sobczyka!) lub dynamiczne.
Równoległe zestawienie kilku szeregów, między którymi szukamy wzajemnych związków i porównanie wartości liczbowych cechy w tych szeregach pozwala na wykrycie określonych prawidłowości.
Jeżeli wartości zmiennych w obydwu szeregach wykazują zmiany jednokierunkowe (tzn. wartości obydwu zmiennych na ogół rosną lub maleją), to mamy do czynienia z korelacją dodatnią.
Jeżeli wzrostom wartości jednego szeregu statystycznego odpowiadają spadki wartości danych drugiego szeregu (zmiany różnokierunkowe), to między zmiennymi zachodzi korelacja ujemna.
Jeżeli szeregi czasowe badanych zjawisk obejmujące stosunkowo długi okres czasu mają pewne charakterystyczne, wspólne lub przeciwstawne tendencje rozwojowe, to na tej podstawie można stwierdzić, czy zjawiska te są skorelowane, czy nie. Należy jednak pamiętać, że niekiedy zjawiska ujęte w formie szeregów czasowych mogą być nierównoczesne - mogą występować z pewnym opóźnieniem.
Np. Badając wpływ spadku koniunktury rynkowej na ilość reklam prasowych w tygodnikach należy wziąć po uwagę, że w prasie tego typu dominują umowy długookresowe co powoduje znaczące opóźnienie w wystąpieniu skutków wahań koniunktury na ilość reklam.
Kolejnym sposobem stwierdzenia, czy istnieje korelacja między dwiema zmiennymi, jest diagram punktowy zwany też diagramem korelacyjnym.
Sporządza się go w prostokątnym układzie współrzędnych, odkładając na osiach wartości badanych zmiennych. Na osi odciętych zaznaczamy wartości tej zmiennej, którą przyjmujemy za niezależną, wyrażającą ilościowo zjawisko traktowane jako przyczyna. Natomiast na osi rzędnych wartości tej zmiennej, którą przyjmujemy za zależną (objaśnianą), wyrażającą ilościowo zjawisko uznawane za skutek. Punkty umieszczone w takim układzie współrzędnych dotyczą wartości poszczególnych jednostek szeregu dwuwymiarowego. Tworzą one mniej lub bardziej wyraźną „smugę”, co daje możliwość wstępnej oceny siły i kierunku zależności oraz może być podstawą wyboru określonej funkcji matematycznej opisującej zależności między badanymi zmiennymi
W przypadku obserwacji statystycznej dotyczącej dużej ilości zmiennych, operowanie wartościami szczegółowymi jest uciążliwe. W celu stwierdzenia istnienia lub braku związku korelacyjnego konstruuje się tablicę korelacyjną. Na skrzyżowaniu kolumn z wierszami wpisuje się liczebności jednostek zbiorowości statystycznej, u których zaobserwowano jednoczesne występowanie określonej wartości xi i yi.
Praca pochodzi z serwisu www.e-sciagi.pl