Statystyka Ćwiczenia (Teoria)

Statystyka – jkpiechota.pl

Statystyka

Statystyka dzieli się na statystykę opisową oraz statystykę matematyczną (wnioskowanie statystyczne).

Statystyka opisowa – umożliwia opis, uporządkowanie, zestawienie danych liczbowych i ich reprezentację w postaci szeregów, tabel, wykresów.

Statystyka matematyczna – zbiór recept do opracowania danych doświadczalnych. Również pewien sposób myślenia w którym oceniamy wpływ czynników losowych. Statystyka matematyczna dostarcza narzędzi do odpowiedniego zaplanowania, analizy i interpretacji wszelkiego rodzaju eksperymentów empirycznych.

Populacja

Przedmiotem badań statystycznych jest zbiorowość statystyczna określana mianem populacji.

Populacja może być:

Badania obejmujące całą populację (wszystkie jej jednostki) są badaniami kompletnymi.

Badania, które obejmują tylko część populacji zwanej próbą są badaniami częściowymi. Aby badania częściowe były wiarygodne próba musi być losowa (tzn. każdy element populacji będzie miał takie samo prawdopodobieństwo dostania się do próby) i reprezentatywna (tzn. jej struktura musi być jak najbardziej zbliżona do struktury całej zbiorowości statystycznej).

Statystyka matematyczna

Dyscyplina dostarczająca informacji niezbędnych do:

Wnioskowanie statystyczne

Zadaniem wnioskowania statystycznego jest:

Cechy

Skala

Skalę interwałową można zamienić na skalę porządkową, zaś skalę porządkową na skalę nominalną. Nie można tego uczynić w drugą stronę.

Szeregi

Szereg prosty (statystyczny): rosnący lub malejący – uzyskuje się porządkując uzyskane wyniki rosnąco lub malejąco.

Przy dużej liczbie pomiarów dane grupuje się w klasy (przedziały) tworząc szereg rozdzielczy (zgrupowany). Liczba klas nie powinna być mniejsza od 6 ani większa od 30.

Z szeregu rozdzielczego łatwo tworzy się szereg skumulowany, który wskazuje ogólną liczbę pomiarów wartości cechy, poniżej określonej wartości górnej granicy danej klasy.

Szereg rozdzielczy zgrupowany wielostopniowy

Szereg taki otrzymujemy przez podział wartości cechy ciągłej na klasy oraz przyporządkowanie poszczególnym klasom odpowiednich liczebności wartości zmiennej.

Postępowanie:

Ustalenie liczby klas (k), gdzie N to liczba pomiarów. $k = \text{od}\ \frac{\sqrt{N\ }}{2}\text{\ \ }\text{do}\ \sqrt{N\ }\ $

Ustalenie szerokości klas (h), gdzie R to rozstęp. $h = \frac{R}{k}$

Określenie granic przedziałów. Xmin. - najmniejsza wartość pomiaru, α - niedokładność pomiaru.

Dolna granica pierwszej klasy to wartość: $X_{\min} - \frac{\alpha}{2}$

Górna granica pierwszej klasy to wartość:$\text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }\ X_{\min} - \frac{\alpha}{2}$ + h

Górna granica jednej klasy jest jednocześnie dolną granicą klasy następnej.

Rozkład dwumianowy Bernouliego


$$\text{P\ }\left( r,\ n,\ p \right) = \begin{pmatrix} n \\ r \\ \end{pmatrix}p^{r}q^{n - r}$$

p – prawdopodobieństwo sukcesu

q – prawdopodobieństwo porażki (q = 1 - p)

n – liczba powtórzeń (wielkość próby)

r – liczba sukcesów

Dwumian Newtona:


$$\begin{pmatrix} n \\ r \\ \end{pmatrix} = \ \frac{n!}{\left( n - r \right)!r!}$$

Błędy

Rodzaje błędów, które można popełnić przy testowaniu hipotez.

Błąd I-go rodzaju (α) – odrzucenie prawdziwej hipotezy H0.

Błąd II-go rodzaju (1-β) – przyjęcie fałszywej hipotezy H0.

Hipoteza H0
Prawdziwa
Odrzucamy α
Przyjmujemy

Błąd III-go rodzaju (γ) – przyjęcie złego kierunku HA.

Kiedy do testowania hipotezy stosujemy rozkład dwumianowy?

Gdy:

Kodowanie danych

Transformowanie danych

Np. powierzchnia liścia rośne z kwadratem długości

Kiedy do testowania hipotezy stosujemy rozkład normalny?

Gdy:

Przybliżenie rozkładu dwumianowego rozkładem normalnym.

Dla prób o dużej liczebności (najlepiej n>100) rozkład dwumianowy można przybliżyć rozkładem normalnym o parametrach:


$$P \rightarrow N\ (p,\ \sqrt{\frac{\text{pq}}{n}})$$

gdzie:

n- liczebność próby

p- prawdopodobieństwo sukcesu

q=(1−p) - prawdopodobieństwo porażki

Zatem:

μ = p


$$\sigma = \sqrt{\frac{\text{pq}}{n}}$$

Kiedy do testowania hipotezy stosujemy przybliżenie rozkładu dwumianowego do rozkładu normalnego?

Gdy:

Test istotności różnicy frakcji

Przy założeniu, że hipoteza, tzn. H0: p1-p2=0 , jest prawdziwa wówczas zmienna losowa Z:


$$Z = \ \frac{p_{1} - p_{2}}{\sqrt{\frac{p(1 - p)}{n_{1}} + \ \frac{p(1 - p)}{n_{2}}}}$$

gdzie:

n1, n2 – liczebność prób

a ,b – liczba sukcesów

p1, p2 – prawdopodobieństwo sukcesów


$$p_{1} = \frac{a}{n_{1}}\text{\ \ \ \ }p_{2} = \frac{b}{n_{2}}\ \ \ \ p = \frac{n_{1}p_{1} + n_{2}p_{2}}{n_{1} + n_{2}} = \ \frac{a + b}{n_{1} + n_{2}}$$

ma rozkład asymptotycznie normalny N(0,1).

Kiedy do testowania hipotezy stosujemy test istotności różnicy frakcji?

Gdy:

● badana cecha jest niemierzalna i może przyjąć dwie możliwe wartości (np. kurczak żywy lub martwy);

● Badana cecha jest mierzalna lub policzalna i uzyskane wyniki można podzielić na dwie kategorie;

● dysponujemy dwiema próbami, w których określono proporcje obydwu wartości, jakie może przyjmować cecha;

● próby są duże (przynajmniej 30). W przypadku prawdopodobieństwa sukcesu p w pojedynczym zdarzeniu znacznie odbiegającego od 0,5 próba powinna wynosić przynajmniej 100.

● w przypadku małolicznych prób (mniej niż 30 przypadków) powinno się stosować test dokładny Fishera lub test niezależności χ2 z poprawką Jatesa.

Test Chi-kwadrat

Test ten służy do weryfikacji hipotezy, że obserwowana cecha w próbie (populacji) ma założony przez eksperymentatora rozkład. Statystyką testu jest wyrażenie:


$$\chi^{2} = \sum_{i = 1}^{k}\frac{(n_{i} - \text{np}_{i})^{2}}{\text{np}_{i}}$$

gdzie:

ni - wartość doświadczalna (obserwowana) w klasie i,

npi - wartość teoretyczna (oczekiwana) w klasie i,

n - liczba klas.

k - liczność próby

Statystyka χ2 zawiera się w przedziale (0, +∞). Test chi-kwadrat jest testem jednostronnym.

UWAGA: Liczność oczekiwana w każdej klasie nie może być mniejsza od 5. Jeżeli zaistnieje taki przypadek, że liczność pewnej klasy jest mniejsza od 5, to klasy sąsiednie należy połączyć tak, aby łączna częstość oczekiwana wynosiła co najmniej 5.

Kiedy do testowania hipotezy stosujemy test zgodności χ2?

Gdy:

Ograniczenia:

Gdy ten warunek nie jest spełniony należy połączyć część kategorii ze sobą.

Centralne miary położenia

Moda (Mo, D) – wartość cechy występującej najczęściej (najliczniej).

Mediana (Me, M) – dzieli uporządkowany szereg liczbowy na połowę. Jest wartością środkową szeregu.

Kwantyle – dzielą szereg uporządkowany na części o jednakowej liczności.

Mediana (Me)

Dla szeregu statystycznego nieparzystego = środkowemu członowi szeregu.

Dla szeregu statystycznego parzystego = średniej arytmetycznej dwóch środkowych liczb.

Mediana jest nieczuła na wartości skrajne.

Stosuje się ją czasem do charakterystyki krótkich serii wyników (N<10), gdy pojedyncze pomiary odbiegają od pozostałych.

Moda (Mo) – Wartość modalna

Miejsce na osi o największej liczebności.

Moda jest nieczuła na wartości skrajne.

Jeśli pomiary są ciągłe to wyznaczamy przedział modalny.

Stosowane średnie:

Średnia arytmetyczna:

Średnia ważona:

Średnia geometryczna:

Średnia harmoniczna:

Średnia w szeregu rozdzielczym:

Odchylenie standardowe w szeregu rozdzielczym:

Wskaźniki rozproszenia

Parametry charakteryzujące populację: μ, σ.

Statystyki charakteryzujące próbę: s.

Średnia (arytmetyczna) próby:

Wariancja i odchylenie standardowe próby:

Oszacowanie nieznanej wariancji populacji na podstawie wariancji z próby.

Oszacowanie nieznanej wariancji populacji na podstawie wariancji z próby.

Ss jest nieobciążonym estymatorem odchylenia standardowego w populacji. Tak naprawdę zawsze chodzi nam o oszacowanie odchylenia standardowego w populacji (czyli ss) na podstawie próby, którą dysponujemy. Wiele podręczników dokonuje tu pewnego skrótu (myślowego) równoważąc odchylenie standardowe próby z jego estymatorem nieobciążonym i używa wzoru a) dla małej próby lub wzoru b) dla dużej próby. MY TEŻ TAK BĘDZIEMY ROBIĆ!

Oszacowanie nieznanej średniej w populacji na podstawie średniej z próby:

Ale obliczona średnia jest obarczona błędem.

Oszacowanie błędu średniej z próby.

Jeżeli pewna cecha posiada rozkład normalny o parametrach μ i σ

to średnia z n elementów posiada rozkład:

Zatem odchylenie standardowe średniej z n elementów wynosi:

Momenty centralne

Moment II-rzędu to wariancja.

Moment III-rzędu służy do analizy asymetrii rozkładu.

Moment IV-rzędu służy do analizy kurtozy rozkładu.

Skośność

Skośność jest miarą asymetrii rozkładu cechy.

Ze względu na wartość współczynników rozkłady prawdopodobieństwa możemy podzielić na:

Przekształcenia pozwalające zmniejszyć skośność rozkładu

Liczenie średniej ruchomej

Śr.ruch. = (2 · śrn-tej.kat. + śrn-tej.kat.poprzedniej + śrn-tej.kat. Następnej)/4

Rozkład prawoskośny:

● logarytmowanie pomiarów

● jeżeli skośność nie jest zbyt duża to pierwiastkowanie

Rozkład lewoskośny:

● antylogarytmowanie pomiarów (eX, 10X)

● jeżeli skośność nie jest zbyt duża to podnoszenie do potęgi (X2, X3)

Kurtoza

Kurtoza jest miarą koncentracji („wypiętrzenia”) rozkładu wartości cechy.

Ze względu na wartość kurtozy rozkłady prawdopodobieństwa możemy podzielić na:

Kurtozę z próby liczymy ze wzoru:

Test t-Studenta – test o średniej arytmetycznej

Średnia n elementów pobranych z populacji o parametrach N(μ,σ) posiada rozkład:

W praktyce σ najczęściej nie jest znane. Znamy jedynie s uzyskane z wybranej próby. Po zamianie otrzymujemy parametr, którego rozkład ma charakter rozkładu t-studenta.

Dla n→∞ rozkład t-studenta zbliża się do rozkładu normalnego (coraz mniejszy błąd

związany z oszacowaniem odchylenia standardowego s).

Kiedy do testowania hipotezy stosujemy test t-Studenta dla jednej próby?

Gdy:

Ograniczenia:

Test t-Studenta dla dwóch grup niezależnych

Statystyką testu jest wyrażenie:

gdzie:

Liczba stopni swobody:

Kiedy do testowania hipotezy stosujemy test t-Studenta dla dwóch prób niezależnych

Gdy:

Ograniczenia:

Gdy dwa ostatnie warunki nie są spełnione należy stosować tzw. testy nieparametryczne.

Test na równość wariancji – test F (Fishera-Snedecora)

Kiedy do testowania hipotezy stosujemy test F (Fishera-Snedecora)?

Gdy:

Ograniczenia:

Test Cochrana-Coxa

Statystyka C Cochrana-Coxa jest dana wzorem:

Wartość krytyczna jest dana wzorem:

Kiedy do testowania hipotezy stosujemy test Cochrana-Coxa?

Gdy:

Ograniczenia:

Test t-studenta dla danych sparowanych

Liczymy różnicę dla każdej pary:

Następnie obliczamy statystykę:

Kiedy do testowania hipotezy stosujemy test t-Studenta dla danych sparowanych?

Gdy:

Ograniczenia:

Przedział ufności

Przedział ufności (PU) dla nieznanej średniej populacji wyznacza wzór:

czyli:

Współczynnik zmienności Pearsona

Współczynnik zmienności nie wyrażony w procentach nosi nazwę względnego odchylenia standardowego.

Można również obliczyć współczynnik zmienności odchylenia średniej:

Teoria błędów

Wskutek niedoskonałości przyrządów, jak również niedoskonałości organów zmysłów – wszystkie pomiary są dokonywane z określonym stopniem dokładności. Nie otrzymujemy prawidłowych wartości mierzonej wielkości, lecz wartości do niej zbliżone.

Wszystkie wartości wielkości fizycznych obarczone są pewnym błędem.

Pomiarem nazywamy czynności związane z ustaleniem wartości liczbowej miary danej wielkości fizycznej. Istotą pomiaru fizycznego jest porównanie wielkości z ustalonym wzorcem czyli jednostką.

Narzędzia pomiarowe: wzorce, przyrządy pomiarowe.

Sposób pomiaru: wielkości proste – pomiar bezpośredni; wielkości złożone – pomiar pośredni.

W pracowni spotykamy się z dwoma następującymi po sobie procesami:

  1. Pomiar ustawienie przyrządu, obserwacja zjawiska, odczyt mierzonej wielkości

  2. Obliczenia, również krytyczna analiza prawidłowości i stopnia ich pewności.

Błędy popełniane podczas pomiarów

Błędy przypadkowe – są to błędy nie powtarzające się. Mogą przyjmować wartość dodatnią lub ujemną. Spowodowane są przez różne niekontrolowane przez eksperymentatora czynniki, działające w chwili pomiaru (np. zmiany napięcia w sieci elektrycznej, do której podłączone są urządzenia pomiarowe, ograniczona dokładność obserwacji eksperymentatora).

Błędy grube – są to duże błędy przypadkowe spowodowane nieuwagą lub niestarannością eksperymentatora.

Błędy systematyczne – są to błędy powtarzające się, w większości tego samego znaku. Powodują je czynniki działające w jednakowy sposób w czasie wielokrotnego powtarzania tego samego pomiaru. Przyczyną tych błędów może być: niedokładność przyrządów, niedokładność metod pomiarowych oraz wzorów stosowanych do ostatecznych obliczeń.

Błędy systematyczne

błąd systematyczny określa się najczęściej w postaci błędu bezwzględnego

zwykle za błąd pojedynczego oznaczenia lub analizy przyjmuje się dokładność przyrządu

Metoda analityczna może być obarczona

1. systematycznym błędem stałym (powodowanym addytywnymi zakłóceniami)

2. systematycznym błędem zmiennym (powodowanym względnymi zakłóceniami)

Aby wykryć zmienny lub stały błąd systematyczny metody należy:

Występowanie błędów systematycznych zostaje stwierdzone jeśli:

Błędy pomiarowe

Błędy przypadkowe (losowe):

w pomiarach bezpośrednich opisuje je odchylenie standardowe, odchylenie standardowe średniej i wariancja.

Tak opisane błędy stosujemy tylko do takich samych warunków pomiarowych, czyli do analizy w danym laboratorium, gdy spełnione są te same założenia pomiarowe (tu odchylenie s można określać jako odchylenie standardowe dokładności).

w pomiarach pośrednich (gdy nie możemy zmierzyć bezpośrednio wielkości fizycznej A, lecz jest ona związana z K innymi wielkościami fizycznymi X1, X2, ......XK błąd całkowity określa nam różniczka zupełna:

Jeśli rozpatrzymy związek między dwiema zmiennymi X1 i X2 to przenoszenie (propagacja) błędu zachodzi według prostych zależności:

Dokładność, precyzja i powtarzalność metody

Dokładność– stopień zgodności z wartością prawdziwą; przeciętne odchylenie otrzymanych wyników od wartości rzeczywistej (wzorca).

Precyzja – zgodność między indywidualnymi wynikami powtarzanymi wielokrotnie na tym samym materiale, określa się za pomocą np. odchylenia standardowego.

Powtarzalność – uzyskiwanie tych samych wyników na tym samym materiale w różnym czasie, przez różnych analityków, różnymi odczynnikami.

Inne kryteria metody analitycznej

Czułość m. a. - najmniejsza różnica zawartości składnika, jaką można oznaczyć daną metodą.

Wykrywalność m. a. - najmniejsza wartość stężenia lub ilości składnika, jaką można wykryć tą metodą,

Oznaczalność m. a. - najmniejsze stężenie składnika, jakie można oznaczyć ilościowo daną metodą,

Selektywność m. a. - możliwe jest wykrycie np. niewielkiej liczby różnego rodzaju cząsteczek,

Specyficzność m. a. - możliwe jest wykrycie np. cząsteczek jednego rodzaju.

Dokładność i precyzję metody analitycznej można sprawdzić kilkoma metodami:

1. Statystyczna ocena oznaczeń wzorców;

2. Ustalenie współzależności korelacyjnej dla mieszaniny wzorców;

3. Porównanie dwóch metod;

4. Użycie odzysku.

Metoda odzysku

Polega na równoległym oznaczeniu nieznanego stężenia w badanej próbce oraz w tej samej próbce z dodatkiem określonej ilości wzorca.

Jest to miara dokładności metody.

Ustalenie współzależności korelacyjnej dla mieszaniny wzorców

Roztwór wzorcowy rozcieńczamy w celu otrzymania serii różnych stężeń wzorca (stężenie oczekiwane oś X).

Dokonujemy pomiarów (stężenia znalezione oś Y).

Liczymy współczynniki prostej regresji.

Metoda jest dokładna jeśli:

r≥0,98 0,98≤a≤1,02 oraz b=0

Porównanie dwóch metod

Serię wzorców oznacza się dotychczas używaną metodą o znanej dokładności (wartości oczekiwane X0 i s0) i nową metodą (wartości znalezione X1 i s1).

Różnica pomiędzy dwoma metodami stanowi ocenę dokładności i precyzji
- ocena dokładności – sprawdzanie istotności różnic pomiędzy średnimi

- ocena precyzji – sprawdzenie istotności różnic pomiędzy wariancjami.

Dokładność pojedynczego wyniku określa błąd pomiaru:

ΔXi dla pojedynczego pomiaru szacujemy na podstawie dużej próby N>>30 jeśli cecha ma rozkład normalny

Maksymalne granica błędu przypadkowego pojedynczego pomiaru:

Często za błąd pojedynczego pomiaru przyjmuje się dokładność przyrządu

pomiarowego.

Dokładność wyniku końcowego analizy:

Na ten błąd ma wpływ błąd przypadkowy średniej i błąd systematyczny metody.

Jeśli cecha ma rozkład normalny to:

Maksymalne granice błędu przypadkowego dla dużej próby

Maksymalne granice błędu przypadkowego dla małej próby

Błąd względny metody w %

Błąd systematyczny duży w porównaniu z błędem przypadkowym

1. Wielkości proste, szacujemy błąd na podstawie dokładności lub klasy przyrządu (= najmniejsza działka skali)

2. Wielkości złożone, obliczmy błąd maksymalny, tzn. określamy jaki maksymalny wpływ na wynik końcowy posiadają błędy systematyczne poszczególnych wielkości prostych

- matematycznie, różniczka zupełna

Błędy pomiarowe

Błąd gruby – kryterium eliminacji:

Test Q-Diksona

Test Grubbsa

Sposób von Graf'a i Henninga:

1. Dla N 10 < N < 1000

2. Pomija się wynik „podejrzany” i oblicza średnią i odchylenie standardowe

3. Jeśli liczba rozpatrywanych wyników jest większa od 10 i jeśli wynik „podejrzany” różni się od średniej o 4 lub więcej odchyleń standardowych to wynik ten z dużym prawdopodobieństwem jest obciążony błędem grubym

Gdy N > 30

Odrzucanie wyników niepewnych. Test Grubbsa

W teście Grubbsa do sprawdzenia największej wartości z próby o liczności n posługujemy się wzorem:

Dla wartości najmniejszej mamy:

Gdzie

W celu ustalenia, czy dwie wartości odbiegają od pozostałych korzystamy z zależności:

Dla wartości najmniejszej mamy:

Gdzie

Odrzucamy wyniki z określonym prawdopodobieństwem, kiedy we wszystkich wymienionych przypadkach wartość doświadczalna stosunku (Si2/S2)d jest mniejsza od wartości teoretycznej (Si2/S2)t.

Odrzucanie wyników niepewnych. Test Q Dixona

W teście Q Dixona do sprawdzenia największej wartości z próby o liczności n posługujemy się wzorem:

Dla wartości najmniejszej mamy:

gdzie R - rozstęp.

Wynik uznajemy za niepewny jeżeli wartość Qp lub Ql jest większa od wartości krytycznej.

Regresja liniowa

Prosta regresji najmniejszych kwadratów:

y=ax+b

Szukamy takich wartości a i b, aby różnice:

były jak najmniejsze.

Współczynniki regresji liniowej:

Odchylenie standardowe współczynnika kierunkowego regresji a oraz współczynnika przesunięcia b wyliczmy ze wzorów:

Przedziały ufności dla współczynnika kierunkowego regresji a oraz współczynnika przesunięcia b wyliczmy ze wzorów:

Odchylenie standardowe resztkowe:

Miarą współzależności liniowej dwóch zmiennych X i Y jest kowariancja określona wzorem:

Bezpośrednie porównywanie pierwotnych wartości liczbowych par cech w badanej próbie nie ma merytorycznego uzasadnienia. Można porównywać ze sobą wartości unormowane różnych cech.

Wartości unormowane są obliczane z następujących wzorów.

Powszechnie przyjęto używać jako miary związku współzależności między cechami wielkość zwaną

współczynnikiem korelacyjnym Pearsona r:

Uwaga! W tym przypadku we wzorach na sx oraz sy w mianowniku jest n, a nie n-1!

Lub współczynnika determinacji - r2: jest naturalna miarą jakości dopasowania modelu do danych empirycznych oraz informuje w jakim stopniu zmienność zmiennej objaśnianej jest wyjaśniona przez model.

Odchylenie standardowe współczynnika korelacji dla małolicznej próby wynosi:

Współczynnik korelacji r przybiera wartości z zakresu <-1;1>.

Przy zupełnym braku korelacji r = 0.
Przy pełnej korelacji r = 1 (korelacja dodatnia) lub r = -1 (korelacja ujemna).
Pozostałe wartości świadczą o częściowej korelacji.

Istotność korelacji można zweryfikować testem t-Studenta.


Wyszukiwarka

Podobne podstrony:
Koncentracja - zadłużenie, semestr I, STATYSTYKA, ćwiczenia Plenikowska
Indeksy agregatowe, Statystyka - ćwiczenia - Rumiana Górska
t, Statystyka, ćwiczenia
ćwiczenie 2 teoria
Analiza regresji, Statystyka - ćwiczenia - Rumiana Górska
QUIZ 2 statystyka, WSFiZ Białystok - zarządzanie, Semestr II, Statystyka - ćwiczenia
ćwiczenia rachunek prawdopodobieństwa i statystyka, Z Ćwiczenia 01.06.2008
Centralne Twierdzenie Graniczne, PSYCHOLOGIA, I ROK, semestr II, podstawy metodologii badań psycholo
calosc, WSFiZ, IV semestr, Statystyka (ćwiczenia)
ćwiczenia rachunek prawdopodobieństwa i statystyka, Z Ćwiczenia 18.05.2008
ćwiczenia rachunek prawdopodobieństwa i statystyka, Z Ćwiczenia 11.05.2008
elementy statystyki cwiczenia
Analiza struktury zjawisk - zadania, Statystyka - ćwiczenia - Rumiana Górska
Cwiczenia 4-6, niezbędnik rolnika 2 lepszy, Statystyka, Cwiczenia, cwiczenia 4-6
TiMA - wykłady i ćwiczenia, teoria i metodyka archiwalna
Cwiczenia 3, niezbędnik rolnika 2 lepszy, Statystyka, Cwiczenia
cwiczenia 2, niezbędnik rolnika 2 lepszy, Statystyka, Cwiczenia
cwiczenia 1, niezbędnik rolnika 2 lepszy, Statystyka, Cwiczenia, cwiczenia 1
cwiczenie I teoria id 125672 Nieznany

więcej podobnych podstron