Nieparametryczne testy istotności, testy rozkładów:
NIEPARAMETRYCZNE TESTY ISTOTNOŚCI:
Ogólne informacje odnośnie testów nieparametrycznych:
Nie wymagają założeń
Analiza danych jakościowych i danych uporządkowanych
Analiza danych pochodzących z małych prób
Nie zależą od pewnych parametrów rozkładu populacji
Nieznane są rozkłady zmiennych losowych
Mają mniejszą moc od testów parametrycznych, ale przewyższają je w prostocie budowy i mało uciążliwych rachunkach
BADANIE RÓŻNIC MIĘDZY PRÓBAMI NIEZALEŻNYMI:
Test U Manna - Whitney'a:
Zastosowanie:
Dla zmiennych mierzalnych, których rozkład nie jest zgodny z rozkładem normalnym (rangi) - w takim przypadku możemy hipotezę zerową formułować jako brak istotnej różnicy średnich arytmetycznych; oczywiście test Manna i Whitney'a możemy też zastosować do danych spełniających założenia testu t-Studenta; jego moc wynosi wówczas około 95% mocy testu t-Studenta
Dla zmiennych mierzalnych typu porządkowego (miarą tendencji centralnej jest mediana) - w tym przypadku hipoteza zerowa zakłada, że badane grupy pochodzą z tych samych populacji, tzn. rozkłady danych w analizowanych grupach nie różnią się istotnie; dla danych porządkowych nie można bowiem obliczać wartości średniej
Jest najmocniejszą nieparametryczną alternatywą dla testu t dla prób niezależnych
Przygotowanie do przeprowadzenia testu:
Punktem wyjścia w teście Manna i Whitney'a jest nadanie wynikom obserwacji rang.
Rangowanie przeprowadzamy następująco:
1. Porządkowanie rosnąco wartości obu prób.
2. Zaczynając od wartości najmniejszej (lub największej), przyporządkowuje się poszczególnym obserwacjom kolejne liczby naturalne.
3. W przypadku wystąpienia wartości jednakowych przyporządkowywanie im tzw. rangi wiązane (średnia arytmetyczna z rang, jakie powinno im się przypisać).
Procedura:
Formułowanie hipotezy zerowej H0 oraz alternatywnej H1
H0: nie ma różnic pomiędzy medianami
H1: jest istotna różnica pomiędzy medianami
Poziom istotności α=0,05 lub α=0,01
Sprawdzenie założeń modelu:
rozważana zmienna jest mierzalna lub w skali porządkowej (rangowej)
Z dwóch prób tworzy się jedną próbę uporządkowaną i ranguje obserwacje.
Wyliczenie wartości sprawdzianu
U1 = n1*n2 + ½ * n1 (n1 + 1) - R1 R1 - suma rang określonych dla pierwszej próby
U2 = n1*n2 + ½ * n2 (n2 + 1) - R2
Bierzemy mniejszą z otrzymanych wartości (oznaczoną jako Ud) i porównuje się ją z wartością krytyczną odczytaną z tablic.
Decyzja o odrzuceniu lub przyjęciu hipotezy zerowej:
p<α - odrzucamy H0 i przyjmujemy H1
p>α - nie ma podstaw do odrzucenia H0
Ud < Uk - odrzucamy H0 i przyjmujemy H1
Interpretacja wyników.
Test serii Walda Wolfowitza
Test Kołomogorowa-Smirnowa
BADANIE RÓŻNIC MIĘDZY PRÓBAMI ZALEŻNYMI:
Test znaków
Test Wilcoxona dla par obserwacji (rangowanych znaków) - test kolejności par Wilcoxona:
Zastosowanie:
Dla zmiennych mierzalnych, których rozkład nie jest zgodny z rozkładem normalnym.
Dla danych typu porządkowego i nie można obliczyć wartości średniej (miara tendencji centralnej - mediana)
Uwzględnia znak różnic pomiędzy rozkładami, ich wielkość oraz kolejność.
Ma moc zbliżoną do mocy testu t
Procedura:
Formułowanie hipotezy zerowej H0 oraz alternatywnej H1
H0: wyniki obu prób są jednakowe
badane próby pochodzą z tej samej populacji
nie ma istotnej różnicy między rozkładami danych w dwóch grupach
H1: wyniki obu prób są różne
badane próby pochodzą z różnych populacji
jest istotna różnica między rozkładami danych w dwóch grupach
Poziom istotności α=0,05 lub α=0,01
Sprawdzenie założeń modelu:
zmienna mierzalna lub typu porządkowego
Obliczenie wartości statystyki testu na podstawie danych z badanej próby:
obliczenie różnicy między wartości uzyskaną w pierwszym badaniu i wartością uzyskaną w drugim badaniu
uporządkowanie różnic w szereg rosnący i przypisanie im rang
osobne sumowanie rang różnic dodatnich i rang różnic ujemnych
mniejsza z otrzymanych sum to wartość testu Wilcoxona
Decyzja o odrzuceniu lub przyjęciu hipotezy zerowej
Interpretacja wyników.
Test McNemary: - zagadnienie 8
i test Q Cochrana:
Zastosowanie:
jest uogólnieniem testu McNemary na więcej niż dwie próby.
zmienną zależna dychotomiczna - jak w McNemary (np. zdarzenie zaszło lub nie, odpowiedź jest poprawna lub zła)
dokonuje się całej serii pomiarów. Ocenia się, czy kolejne liczebności lub proporcje różnią się istotnie między sobą.
Wyniki pomiarów zapisujemy w tabeli, w której liczba rubryk poziomych odpowiada liczbie przebadanych osób, a liczba rubryk pionowych - liczbie dokonanych pomiarów zmiennej niezależnej.
BADANIE n PRÓB - NIEPARAMETRYCZNE ODPOWIEDNIKI ANALIZY WARIANCJI:
Test Friedmana
Test Q Cochrana
Test Kruskala - Wallisa:
Zastosowanie:
Nieparametryczny odpowiednik jednoczynnikowej analizy wariancji
służy do dokonania porównań wielu grup (maksymalnie można porównywać 10 grup)
sprawdzenie czy n niezależnych próbek pochodzi z tej samej populacji, czy z populacji z taką samą medianą.
poszczególne próbki nie muszą mieć takie same liczebności.
Dla danych mierzalnych, ale ich rozkłady nie jest zgodny z rozkładem normalnym lub wariancje są niejednorodne
Dla danych typu porządkowego i nie można obliczyć wartości średniej (miarą tendencji centralnej jest mediana)
Przygotowanie do przeprowadzenia testu:
Rangi nadane wynikom obserwacji są punktem wyjścia do wyliczenia wartości opisywanych testów.
Proces rangowania przebiega następująco:
Porządkujemy rosnąco wartości obu prób.
Zaczynając od wartości najmniejszej (lub największej), przyporządkowujemy poszczególnym obserwacjom kolejne liczby naturalne.
W przypadku wystąpienia wartości jednakowych przyporządkowujemy im tzw. rangi wiązane (średnia arytmetyczna z rang, jakie powinno się im przypisać).
Procedura:
Formułowanie hipotezy zerowej H0 oraz alternatywnej H1
H0: nie ma istotnej różnicy między medianami zmiennej w badanych populacjach
pomiary we wszystkich porównanych próbach pochodzą z tej samej populacji
H1: jest istotna różnica między medianami zmiennej w badanych populacjach
pomiary nie we wszystkich porównanych próbach pochodzą z tej samej populacji
Poziom istotności α=0,05
Sprawdzenie założeń modelu:
zmienna mierzalna lub typu porządkowego
Obliczenie wartości statystyki testu na podstawie danych z badanej próby:
wyznaczenie rang dla każdej wartości w badanych grupach
sumowanie rang w poszczególnych grupach
jeżeli wszystkie próby pochodzą z tej samej populacji, to średnia z rang będzie we wszystkich grupach równa
Test sumy rang Kruskala-Wallisa - rozkład χ2, df=k-1
n=n1+n2+nk Ti - suma rang w każdej próbie oddzielnie, k-ilość elementów w próbie
Decyzja o odrzuceniu lub przyjęciu hipotezy zerowej
p<α - odrzucamy H0 i przyjmujemy H1
p>α - nie ma podstaw do odrzucenia H0
Interpretacja wyników.
KORELACJE NIEPARAMETRYCZNE:
R Spearmana
Tau Kendalla
Test chi-kwadrat
TESTY ROZKŁADÓW: - testy zgodności rozkładów, zagadnienie 9
Test zgodności chi-kwadrat:
Test zgodności Kołmogorowa-Smirnowa (Lillieforsa):
Test W Shapiro-Wilka:
Zależność stochastyczna i funkcyjna pary cech, siła zależności, analiza regresji liniowej:
Przy analizie zjawisk i procesów stanowiących przedmiot badania zazwyczaj charakteryzujemy jednostki badane za pomocą więcej niż jednej cechy.
Bardzo często interesują nas powiązania jakie zachodzą pomiędzy analizowanymi cechami i w związku z tym zachodzi potrzeba ich łącznego badania
Celem analizy jest stwierdzenie, czy między badanymi zmiennymi zachodzą jakieś zależności, oraz jaka jest ich
siła (współczynnik determinacji , współczynnik korelacji)
kształt (funkcje stosowane do aproksymacji związków)
kierunek ( rosnące, malejące)
Teoria współzależności zajmuje się badaniem związków między kilkoma zmiennymi.
Zmienna niezależna - objaśniająca - X - predyktor
Zmienna zależna - objaśniana - Y - zmienna, której kształtowanie się chcemy wyjaśnić lub przewidzieć
ZALEŻNOŚĆ STOCHASTYCZNA I FUNKCYJNA PARY CECH:
Współzależność między zmiennymi może być dwojakiego rodzaju:
Zależność funkcyjna:
Zmiana wartości jednej zmiennej powoduje ściśle określoną zmianę drugiej zmiennej.
Określonej wartości jednej zmiennej (X) odpowiada tylko jedna wartość drugiej zmiennej Y.
Najczęściej występuje w naukach fizycznych i przyrodniczych, np. zależność drogi od czasu i prędkości.
Zależność stochastyczna:
Wraz ze zmianą jednej zmiennej zmienia się rozkład prawdopodobieństwa drugiej zmiennej.
→Przykład: wydatki na żywność w rodzinach o takiej samej liczbie osób nie są jednakowe. Wynika to z faktu, że te rodziny różnią się zazwyczaj innymi cechami determinującymi poziom wydatków na żywność (dochodem rodziny, płcią i wiekiem rodziny, wykształceniem członków rodziny, charakterem wykonywanej pracy). Przy ustalonej liczbie osób w rodzinie istnieje więc określony - warunkowy - rozkład wydatków na żywność. Należy oczekiwać, iż rozkłady te będą przy odmiennej liczbie osób w rodzinie, różnić się między sobą. Średnie wydatków będą jednak również wzrastać w miarę wzrostu liczby osób w rodzinie.
Zależność korelacyjna - jest szczególnym przypadkiem zależności stochastycznej. Określonym wartościom jednej zmiennej odpowiadają ściśle określone średnie wartości drugiej zmiennej. Możemy zatem ustalić jak średnio zmieni się wartość zmiennej zależnej Y w zależności od zmiennej niezależnej X.
Jeżeli między badanymi zmiennymi nie ma związku stochastycznego, to nie ma również zależności korelacyjnej. Twierdzenie odwrotne nie jest prawdziwe.
→Przykład: może się zdarzyć, że nie wszyscy studenci, którzy przedłużyli czas nauki do egzaminu o 2 godziny uzyskali w równym stopniu wyższe oceny od tych, uczących się krócej. Aczkolwiek średnie oceny uzyskane przez studentów, którzy poświęcili na naukę więcej czasu są wyższe od ocen studentów uczących się krócej.
Badanie związków korelacyjnych ma sens wtedy, gdy między zmiennymi istnieje zależność przyczynowo-skutkowa, którą da się logicznie wytłumaczyć. W innym wypadku mamy do czynienia z zależnością iluzoryczną (pozorną), np. liczba zajętych gniazd bocianich a liczba urodzeń na danym terenie, liczba zarejestrowanym odbiorników radiowych a liczba chorych umysłowo.
Dlatego związki między zjawiskami należy zawsze analizować dwukierunkowo: jakościowo i ilościowo. Na postawie analizy merytorycznej należy uzasadnić logiczne występowanie związku a następnie można przystąpić do określenia siły i kierunku zależności.
Związki korelacyjne badamy wtedy, gdy przynajmniej jedna zmienna jest mierzalna.
Ilościowa analiza współzależności obejmuje:
Analizę korelacji - pomiar siły i kierunku zależności (stopnia zależności) między dwiema losowymi zmiennymi X, Y.
Analizę regresji - badanie mechanizmu powiązań między cechami, którego wyrazem są funkcje regresji. Zmienne nie są losowe.
Umożliwia odpowiedź na pytanie, jakiej zmiany średniej wartości zmiennej zależnej należy oczekiwać przy zmianie wartości zmiennej niezależnej o jednostkę (daje możliwość oszacowania (estymacji) wartości zmiennej zależnej na podstawie wartości przyjmowanych przez zmienną niezależną)
Obie te metody odpowiadają na różne, lecz wzajemnie uzupełniające się pytania. Analiza korelacji jest niezależna od analizy regresji, aczkolwiek jeśli chcemy przeprowadzić analizę regresji, to najpierw musimy wykonać analizę korelacji.
SIŁA ZALEŻNOŚCI: - zadadnienie 8 i 3
Korelacja między dwiema losowymi zmiennymi X i Y jest miarą siły (stopnia) liniowego związku między tymi zmiennymi.
Formy prezentacji materiału statystycznego:
W analizie współzależności zjawisk materiał statystyczny możemy ujmować w postaci:
Szeregów korelacyjnych - tworzą je dwa wiersze (lub kolumny) zawierające warianty odpowiadających sobie cech statystycznych.
xi: x1 x2 … xn
yi: y1 y2 … yn
Korelacja dodatnia - warianty obydwu zmiennych wykazują zmiany jednokierunkowe (tzn. wartości obu zmiennych na ogół rosną lub maleją)
Korelacja ujemna - - warianty obydwu zmiennych wykazują zmiany różnokierunkowe (tzn.wzrostom wartości jednej zmiennej towarzyszą spadki wartości drugiej zmiennej)
Tablicy korelacyjnej
Diagramu korelacyjnego
Jeśli między dwiema zmiennymi jest związek o charakterze prostoliniowym , to na wykresie XY jest to smuga punktów zbliżona kształtem do linii prostej.
Analizę związku korelacyjnego zaczynamy od sporządzenia takiego wykresu XY.
W prostokątnym układzie współrzędnych na osi odciętych zaznaczamy wartości jednaj zmiennej, a na osi rzędnych - drugiej zmiennej. Punkty odpowiadające poszczególnym wartościom cech tworzą korelacyjny wykres rozrzutu. Rzadko się zdarza, że zaznaczone punkty leżą dokładnie na linii prostej. Częściej zaznaczone punkty na wykresie są rozrzucone, ale układają się mniej więcej wzdłuż linii prostej.
Interpretacja:
związek liniowy między zmiennymi słabszy - punkty rozpraszają się i tworzą bezkształtną chmurę punktów (brak lub słaba korelacja)
związek liniowy między zmiennymi mocniejszy - punkty układają się bliżej linii prostej (silna korelacja, gdy leżą na prostej)
Silna korelacja
Brak korelacji
ANALIZA REGRESJI LINIOWEJ:
Definicja:
Analiza regresji to aparat matematyczny służący do badania wpływu zmiennych niezależnych na zmienne zależne.
Cel:
sprowadzenie zależności stochastycznej do postaci funkcyjnej (opisie zależności korelacyjnej za pomocą funkcji), co pozwoli na przewidywanie (prognozowanie), określenie kierunku zmian jednej cechy na podstawie innych i pozwoli na poznanie rzeczywistych zależności między zmiennymi
badanie mechanizmu powiązań między zmiennymi
ocena nieznanych parametrów modelu regresji
Funkcja regresji I i II rodzaju:
Funkcja regresji to analityczny wyraz przyporządkowania średnich wartości zmiennej zależnej konkretnym wartościom zmiennych niezależnych. Wskazuje, jak zmieniają się średnie wartości zmiennej zależnej przy zmianie wartości zmiennej niezależnej.
Wyróżnia się:
Funkcję regresji I rodzaju - dotyczy populacji generalnej i można ją wyznaczyć tylko wówczas, gdy dysponujemy wynikami badania pełnego. Realizacjom zmiennych niezależnych przyporządkowuje średnie warunkowe zmiennej zależnej.
E(YX=x) = f(x)
Warunkowa wartość oczekiwana zmiennej Y względem zmiennej X jest funkcją zmiennej X.
E(XY=y) = f(y)
Warunkowa wartość oczekiwana zmiennej X względem zmiennej Y jest funkcją zmiennej Y.
Funkcję regresji II rodzaju - dotyczy próby i jest aproksymantą (przybliżeniem) funkcji regresji I rodzaju, opisującą zależność korelacyjną zmiennych w próbie losowej.
Funkcje regresji II rodzaju są dobrymi aproksymantami funkcji regresji I rodzaju, jeżeli spełnione są jednocześnie dwa warunki:
odchylenia wartości empirycznych od wartości teoretycznych są pochodzenia losowego (są statystycznie nieistotne);
suma kwadratów odchyleń wartości empirycznych od teoretycznych stanowi minimum. (warunek ten jest zawsze spełniony, jeżeli do estymacji wykorzystano MNK).
Model regresji:
Model regresji jest to postać formalnego opisu zależności między zmiennymi X i Y, którego narzędziem jest funkcja regresji. Model regresji można wykorzystać do przewidywania wartości które przyjmie zmienna Y przy ustalonych wartościach zmiennej niezależnej X.
Model regresji liniowej dla populacji opisujący prawdziwą zależność zmiennej Y od zmiennej X ma postać:
Y = β0 + β1X + ε
Y- zmienna zależna
X - zmienna niezależna
ε - błąd losowy, jedyne w modelu źródło losowości Y, reprezentuje losowe zakłócenia funkcyjnego powiązania między wartościami zmiennej zależnej a wartościami zmiennej niezależnej. Składnik ten wyraża wpływ wszystkich czynników, które obok X mogą wpływać na zmienną objaśnianą Y. Jest on związany z brakiem pełnego dopasowania analitycznej postaci funkcji regresji do rzeczywistego powiązania między analizowanymi zmiennymi. Składnik losowy pozwala obliczyć dokładność szacunku parametrów liniowej funkcji regresji.
Przyczyny występowania składnika losowego w równaniu regresji:
w równaniu regresji nie uwzględniamy wszystkich przyczyn powodujących kształtowanie się zmiennej objaśnianej,
przyjęta analityczna postać funkcji regresji (najczęściej funkcja liniowa) nie odpowiada dokładnie rzeczywistej formie zależności między badanymi zmiennymi,
losowa natura badanych zjawisk i procesów,
niedokładność w obserwacji i pomiarze zjawisk,
zaokrąglenia w obliczeniach.
Parametry modelu:
β0 - wyraz wolny - punkt przecięcia linii prostej Y = β0 + β1X z osią rzędnych
β1 - współczynnik kierunkowy - miara nachylenia linii Y = β0 + β1X względem osi odciętych
Założenia, które musi spełniać przedstawiony model liniowy:
związek między X i Y jest związkiem liniowym
wartości zmiennej niezależnej są ustalone (nie są losowe). Losowość wartości Y pochodzi wyłącznie ze składnika (błędu) losowego.
składniki (błędy) losowe mają rozkład normalny o średniej 0 i stałej wariancji σ2. Składniki (błędy) losowe związane z kolejnymi obserwacjami nie są ze sobą skorelowane (są od siebie niezależne)
Etapy wyznaczania modelu regresji:
Cel: Chcemy oszacować związek w populacji na podstawie informacji zawartych w próbie; znaleźć prostą regresji najlepiej pasującą do danych empirycznych Y = β0 + β1X
Pobranie n-elementowej, losowej próby obserwacji obu zmiennych X i Y.
Obliczenie wartości współczynnika korelacji (liniowej r) - sprawdzamy, czy występuje związek liniowy pomiędzy dwoma zmiennymi
Ocenienie istotności współczynnika korelacji liniowej:
Współczynnik korelacji r (z próby) stanowi ocenę współczynnika korelacji ρ w zbiorowości generalnej. W związku z tym pojawia się potrzeba testowania jego istotności statystycznej.
H0: ρ = 0
H1: ρ ≠ 0
Obliczenie statystyki:
porównujemy jej wartość z odpowiednią wartością krytyczną tၡ,n-2 i podejmujemy odpowiednią decyzję co do prawdziwości H0
Sporządzenie wykresu rozrzutu - sprawdzamy, czy zachodzi zależność liniowa lub zbliżona do liniowej.
Może się bowiem okazać, że wyliczona wartość współczynnika korelacji jest zbliżona do zera, a mimo to pomiędzy korelowanymi zmiennymi występuje współzależność, tyle że nieliniowa.
Oszacowanie parametrów modelu β0, β1 - wykorzystanie metody najmniejszych kwadratów
Wyznaczenie prostej o równaniu Y = b0 + b1X + e, która jest oszacowanym równaniem regresji, jest to tzw. estymata rzeczywistej prostej.
b0 - ocena (oszacowanie) β0
b1 - ocena (oszacowanie) β1
e - zaobserwowane błędy, czyli reszty z dopasowania linii prostej b0+b1X do zbioru n wyników obserwacji obu zmiennych. Zmienna resztowa zawiera w sobie efekty łącznego oddziaływania (bez X), nieuwzględnionych w modelu zmiennych niezależnych:
- efekty źle wybranej funkcji
- błędy pomiarowe
- efekty błędów czysto losowych.
Parametry prostej mają być tak dobrane, aby reszty miały rozkład normalny o średniej równej zeru i odchyleniu standardowym stałym i większym od zera.
Równaniem linii regresji jest równanie w postaci (bez uwzględnienia reszty):
^
Y = b0 + b1X
^
Y - reprezentuje wartość Y leżącą na dopasowanej linii regresji przy danym X.
Interpretacja merytoryczna:
b1>0 jeśli x wzrośnie o 1 jednostkę, to y wzrośnie średnio o b1 jednostek.
b1<0 jeśli x wzrośnie o 1 jednostkę, to y spadnie średnio o b1 jednostek.
Ocena jakości dopasowania:
Współczynnik determinacji (określoności) r2 - informuje, jaka część zmian wartości zmiennej zależnej została wyjaśniona przez oszacowaną funkcję regresji.
Im jest on bliższy 1, tym lepsze jest dopasowanie modelu regresji do danych empirycznych.
Współczynnik indeterminacji φ2 - φ2=1-r2 - informuje, jaka część zmian wartości zmiennej zależnej nie została wyjaśniona zmianami zmiennych niezależnych przyjętych w funkcji regresji.
Im jest on bliższy 0, tym oszacowana funkcja regresji jest lepiej dopasowana do wartości empirycznych zmiennej zależnej.
Weryfikacja istotności modelu i jego parametrów - test F i t
Estymacja przedziałów ufności dla parametrów:
Oszacowanie parametrów prostej regresji należy do analizy opisowej populacji próby. Za pomocą przedziałów ufności dla parametrów regresji, można dowiedzieć się, gdzie, z dowolnie dobranym prawdopodobieństwem, leży prawdziwa prosta regresji, ta z populacji generalnej.
Szerokość przedziału ufności podobnie jak wariancja rośnie wraz z odchyleniem od punktu środkowego prostej regresji.
Obszar zawarty między krzywymi ufności nazywamy realizacją obszaru ufności dla prostej regresji na poziomie ufności 1-α.
Metoda najmniejszych kwadratów:
Cel:
Pozwala wyznaczyć najlepsze, nieobciążone estymatory parametrów regresji:
b0 - estymator β0
b1 - estymator β1
Technika szacowania:
MNK polega na takim dobraniu ocen parametrów prostej, by spełniony był warunek:
tzn. aby suma kwadratów odległości punktów pomiarowych od wyznaczonej prostej była najmniejsza. Jest to zagadnienie wyznaczania minimum funkcji dwóch zmiennych. Do wyznaczania tego minimum stosuje się rachunek różniczkowy, który pozwala na wyznaczenie wzorów na obliczenie estymatorów b0 i b1:
Współczynnik regresji:
Współczynnikiem regresji jest parametr b1 po przekształceniach b1=r(Sy/Sx), gdzie:
r - współczynnik korelacji
Sy i Sx - odchylenia standardowe zmiennej Y i X
Jego wartość pozwala na stwierdzenie, o ile średnio zmieni się zmienna zależna Y, jeżeli zmienna niezależna X zmieni się o jednostkę (wzrośnie). Na podstawie samej wartości r nie mogliśmy tego dokonać.
→Przykład:
Współczynnik regresji równy: b1=0,522 oznacza, że np. zmiana zawartości tłuszczu w mleku o 1% będzie szła w parze ze zmianą zawartości białka o 0,522%.
1