ściąga egzamin


właściwości

miary klasyczne

miary pozycyjne

Tendencja centralna

Średnia arytmetyczna

Dominanta

Mediana

Kwartyle

Decyle

Dyspersja

Wariancja

Odchy. standard.

Współ. zmienności

Rozstęp

Roz. międzykwart.

Roz. międzydecyl.

Odchy. ćwiartkow.

Współ. zmienności

Asymetria

Mom. 3 centralny

Mom. 3 względny

Współ. asymetrii oparty o miary średnie

Współ. asymetrii oparty o kwartyle

Współ. asymetrii oparty o decyle

Spłaszczenie (kurtoza)

Mom. 4 centralny

Mom. 4 względny

Wskaźnik spłaszczenia

Nierównomierny podział globalnej wartości cechy (koncentracja)

Współczynnik koncentracji Pearsona

- - -

Dominanta - Jest to wartość cechy najliczniej reprezentowana w zbiorowości; służy do wyznaczenia dokładniejszej wartości dominanty w danym przedziale; nie liczymy jej z szeregu szczegółowego przy małych liczebnościach; nie możemy jej policzyć, gdy przedział najliczniejszy i dwa sąsiednie przedziały mają różną rozpiętość

Mediana - Wartość środkowa szeregu uporządkowanego od wartości najmniejszych do największych; kwartyl drugi

Rozstęp międzykwartylowy - Rozstęp 50% środkowych wartości po odznaczeniu 25% największych i 25% najmniejszych

Rozstęp międzydecylowy - Odznaczamy 10% najwyższych wartości I 10% najniższych

Wariancja - Nie ma interpretacji, ale jest miarą

Odchylenie standardowe - Miara zróżnicowania wyników (wartości cechy), określa o ile średnio różnią się wartości cechy od średniej arytmetycznej

Współczynnik zmienności - Dobre do porównań, gdy mamy różne zmienne np. odchylenie pracowników według wieku i płac

Momenty - Momentem rzędu r - średnia arytmetyczna z podniesionych do potęgi r odchyleń wartości cechy od pewnej stałej

Moment względny 3 - miara skośności; zawiera się między -2 i 2;
jeśli =0 rozkład symetryczny; >0 skośność prawostronna; <0 skośność lewostronna

Moment względny 4 - mierzy koncentrację wokół średniej; α4 < 3 koncentracja większa od normalnej; α4 > 3 koncentracja mniejsza od normalnej; jeśli α4 = 3 nazywamy krzywą Gaussa

Wskaźnik skośności - A∈<-1, 1>, znak mówi o skośności, jeśli 0 to rozkład symetryczny

Miary skośności na wykresie -

Koncentracja - jako nierównomierny podział wartości globalnej cechy; Koncentrację stosuje się, gdy mamy wartości cechy (xi), liczby jednostek (ni), wartości cechy * liczebność (xi * ni)

Współczynnik koncentracji Pearsona K∈ <0,1>, jeśli jest 0 to podział jest równomierny

Zdarzenie losowe - Jest to takie zdarzenie, które może wystąpić w próbie; każdy pomiar podzbioru zbioru zdarzeń elementarnych

Doświadczenie losowe - Jest to każde dowolne doświadczenie, w wyniku którego mogą wystąpić pewne zdarzenia np. rzut monetą, każdy pomiar

Zbiór zdarzeń elementarnych - Jest to zbiór zdarzeń podstawowych związanych z danym doświadczeniem np. liczba oczek w rzucie kostką

Zdarzenie złożone - Jest to zdarzenie, które da się rozłożyć na zdarzenia elementarne np. w rzucie monetą parzyste

Prawdopodobieństwo - Jest to funkcja, której argumentami są zdarzenia losowe zaś wartościami liczby z przedziału 0 - 1

0x01 graphic

0x01 graphic

Własności prawdopodobieństwa - A - zdarzenie losowe 0 <= P(A) <= 1; zdarzenie pewne P(E) = 1; dla każdego ciągu zdarzeń rozłącznych (nie mogą zajść równocześnie) 0x01 graphic

Zmienna losowa - Jest to wielkość (funkcja), która poszczególnym zdarzeniom elementarnym przyporządkowuje określone liczby rzeczywiste: skokowe, ciągłe

Wnioskowanie statystyczne - Jest to proces uogólniania zaobserwowanych wyników w próbie losowej na całą zbiorowość statystyczną. Budową reguł wnioskowania zajmuje się statystyka matematyczna. Reguły te umożliwiają wyprowadzenie wniosków o populacji na podstawie próby oraz ocenę ich dokładności i wiarygodności. Podstawowym założeniem dla wszystkich reguł wnioskowania jest to, że próba losowa jest pobrana w sposób niezależny z populacji nieskończonej.

Losowanie zależne - bezzwrotne

Losowanie niezależne - zwrotne

Podział wnioskowania statystycznego -

PARAMETR

ESTYMATOR

Średnia wartość cechy μ

0x01 graphic

Wariancja σ2

s2 0x01 graphic

Proporcja p - jednostek wyróżnionych np. proporcja kobiet w danej populacji

0x01 graphic

Estymator Tn (gdzie n oznacza n-elementową próbę, n-obserwacji) służy do oszacowania parametrów. Jest to statystyka będąca funkcją wartości w próbie

Tn = f(X1, X2, …., Xn)

Która może posłużyć do oszacowania nieznanego parametru Θ w populacji. Statystyka w próbie jest zmienna losową bo możliwe wyniki w próbie też są zmiennymi losowymi.

Weryfikacja hipotez statystycznych - Jest to każde przypuszczenie dotyczące własności badanej populacji. Są to parametry rozkładu, relacje między parametrami, przypuszczenia co do rozkładu badanej cechy populacji. Hipotezy stawiamy dlatego, że nie znamy populacji. Rozstrzygać o prawdziwości lub fałszywości należy na podstawie próby pobranej z danej populacji.

Podział hipotez na kategorie -

Zbiór hipotez dopuszczalnych - jest to zbiór sensownych hipotez dotyczących interesującej nas własności populacji generalnej, składa się z hipotez prostych.

Hipoteza prosta - można ją wyrazić tylko w jeden sposób, jako hipotezę nierozkładalną.

Weryfikacja - ze zbioru hipotez dopuszczalnych wybieramy jedną i ją sprawdzamy.

Hipoteza zerowa - jest to jedna prosta hipoteza, wyróżniona w zbiorze hipotez dopuszczalnych, którą chcemy sprawdzić (zweryfikować). Oznaczamy ją np.: H0 : μ = 26

Hipoteza alternatywna - jest to hipoteza przeciwna do hipotezy zerowej, powstaje przez usunięcie ze zbioru hipotez dopuszczalnych hipotezy zerowej. Oznaczamy ją H1 : μ ≠ 26

Test hipotezy statystycznej (test statystyczny) - należy zbudować specjalną regułę postępowania, która określi nam przy jakich ewentualnych wynikach z próby hipotezę testowaną należy przyjąć, a przy jakich odrzucić.

Decyzja

hipoteza prawdziwa

H0

H1

Przyjąć h0

decyzja słuszna

P(Tn∉Rα(H0)=1-α

błąd II rodzaju

P(Tn∉Rα(H1)=β

Odrzucić h0

błąd I rodzaju

P(Tn∈Rα(H0)=α

decyzja słuszna

P(Tn∈Rα(H1)=1-β

Błąd I rodzaju - odrzucenie hipotezy zerowej gdy jest ona prawdziwa (jego konsekwencje są poważniejsze)

Błąd II rodzaju - przyjęcie hipotezy zerowej gdy jest ona fałszywa.

Poziom istotności - prawdopodobieństwo błędu I rodzaju α

α ≤ 0,10 np. 0,05 - badanie mniej ważne; 0,01 - badanie ważniejsze istota testowania hipotezy H0 polega na tym, że przestrzeń punktów próbkowych (zbiór możliwych wartości z próby) jest dzielona na dwie części: jedna część Rα oraz pozostała Ω-Rα . Odrzucać będziemy hipotezę H0 jeżeli zaobserwowany punkt próbkowy należy do zbioru Rα. W przeciwnym wypadku przyjmować będziemy hipotezę H0 , jeśli punkt próbkowy należeć będzie do Ω-Rα

Obszar krytyczny tez (obszar odrzucenia) - nazywamy zbiór Rα przestrzeni punktów próbkowych Ω, który związany jest z odrzucaniem hipotezy zerowej.

Współzależność - związki między cechami ilościowymi i jakościowymi.

Analiza jest to poznawanie związków między cechami. W rzeczywistości rzadko jest tak, aby jakaś cecha u obiektów lub zjawisko kształtowało się zupełnie niezależnie od innych cech lub zjawisk. Już pobieżne obserwacje różnych wielkości pozwalają stwierdzić istnienie pewnych związków lub zgodności między nimi.

Zależność stochastyczna - Polega na tym, że jedna ze zmiennych reaguje na zmiany drugiej w ten sposób, że zmienia swój rozkład.

Analiza zależności ma na celu ustalenie siły i kierunku występujących związków między cechami, oraz skwantyfikowania wpływu czynników na badanie zmiennej.

Szereg korelacyjny jest prostym zestawieniem dwóch szeregów wyliczających (szczegółowych).Zazwyczaj jest w jakiś sposób uporządkowany (np. alfabetycznie). Dobrze jest, gdy jedna z cech jest uporządkowana rosnąco lub malejąco.

Tablica korelacyjna - stosujemy, gdy liczba obserwacji jest duża i trzeba je pogrupować.

Wykres korelacyjny - jest wykresem punktowym. Ocena diagramu korelacyjnego jest ważna dla dalszego toku postępowania. Analiza diagramu ma za zadanie odpowiedzieć na następujące pytania: czy między zmiennymi występuje zależność; jaki jest charakter i siła tej zależności ?

Zależność statystyczna - (Jest to uproszczenie koncepcji zależności stochastycznej. Powiadamy, że zmienne są niezależne statystycznie lub są nieskorelowane, jeśli poszczególnym odmianom jednej zmiennej odpowiadają takie same wartości średnich (warunkowych). W przeciwnym wypadku mówimy, że zmienne są skorelowane. Ponieważ koncepcja zależności stochastycznej jest znana, to z niezależności stochastycznej wynika niezależność statystyczna (korelacyjna), ale nie odwrotnie, czyli jeżeli stwierdzimy, że zmienne są nieskorelowane, to nie wynika z tego, że są niezależne stochastycznie.)

współczynnik korelacji Pearsona - Do badania siły liniowej zależności korelacyjnej (współczynnik korelacji liniowej, parami, według momentu iloczynowego). Musi być testowany

Istota badania dokładności funkcji regresji - Parametry funkcji regresji szacujemy metodą najmniejszych kwadratów (MNK), polegającą na takim doborze parametrów α i β funkcji regresji, które minimalizują sumę kwadratów odchyleń wartości empirycznych zmiennej zależnej y od wartości teoretycznych (regresywnych).

Regresja nieliniowa - Jeżeli układ punktów na diagramie korelacyjnym nie imituje linii prostej, to znaczy to, że regresja zmiennej y względem zmiennej x nie ma charakteru liniowego. Mówimy wówczas o regresji nieliniowej lub krzywoliniowej.

Dokładny charakter nieliniowej zależności można określić na podstawie wykresu korelacyjnego. Należy jednak pamiętać, że do danego rozkładu punktów mogą pasować różne funkcje nieliniowe, albowiem mogą one mieć zbliżony przebieg. Szacowanie parametrów nieliniowych funkcji regresji odbywa się również metodą najmniejszych kwadratów (MNK). Niejednokrotnie jednak nie daje się ona stosować. W związku z tym, warto jest sięgnąć do takich funkcji, które można sprowadzić do postaci liniowej ze względu na parametry. Do takich funkcji należy np. funkcja potęgowa

Korelacja cech jakościowych (niemierzalnych) - Dla cech jakościowych niemierzalnych będziemy wyróżniali dwie kategorie:

Szereg czasowy - Jest to ciąg wartości zmiennej uporządkowany zgodnie z następstwem momentów lub okresów czasu, których te wartości dotyczą. Jest to zatem zbiór obserwacji statystycznych charakteryzujących zmiany poziomu zjawiska w czasie. Poszczególne obserwacje nazywamy wyrazami tego szeregu. Szereg czasowy zapisujemy za pomocą symbolu yt lub y(t) , gdzie t reprezentuje kolejne momenty lub okresy czasu. Kolejne momenty lub okresy są oznaczone kolejnymi liczbami całkowitymi np. 1992, 1993 itd. W ogólności mogą to być dowolne liczby, z których każda następna jest o 1 większa od poprzedniej. Zapis szeregu czasowego w postaci yt ma podkreślać, że zmienne traktowane są jako funkcja czasu.

Wyrazy szeregów czasowych powinny być wielkościami jednolitymi w czasie tzn. jednorodnymi i porównywalnymi. W całym analizowanym okresie szereg powinien dotyczyć jednego i tego samego zjawiska lub zbiorowości definiowanego i mierzonego w ten sam sposób.

Powodem, dla którego można utracić jednolitość w czasie jest np. fuzja dwóch przedsiębiorstw, zmiana profilu działalności przedsiębiorstwa, różna długość kalendarzowych jednostek czasowych np. różna długość stycznia i lutego, względy atmosferyczne i klimatyczne.

Zmienna czasowa jako pewna wielkość niezależna jest zmienną ciągłą (czas jest zmienną ciągłą).

Rodzaje szeregów czasowych:

Szeregi czasowe ilustrujemy za pomocą wykresów w układzie współrzędnych, ograniczonych do pierwszej ćwiartki.

Na osi odciętej X - okresy lub momenty czasu, na osi rzędnej Y - wielkości zjawiska.

Badanie dynamiki zjawiska w czasie - Zadaniem tego badania jest określenie zmian zachodzących w poziomie danego zjawiska oraz kierunku, tempa i intensywności tych zmian. Jednym z narzędzi badania dynamiki są wskaźniki dynamiki. Jeżeli zjawisko jest jednorodne lub właściwie agregowane to obliczanie wskaźników sprowadza się do dzielenia lub/i odejmowania dwóch wyrazów szeregu czasowego. Wskaźniki dynamiki mogą być wyznaczane dla dwóch wybranych okresów lub momentów, bądź też dla całej ich sekwencji. Jeżeli wielkość zjawiska w kolejno po sobie następujących okresach lub momentach odnosimy stale do jednego wybranego wyrazu szeregu to wskaźniki nazywamy jednopodstawowymi. Jeżeli natomiast wielkość zjawiska w kolejno po sobie następujących okresach lub momentach odnosimy do wielkości zjawiska w okresie lub momencie poprzedzającym to wskaźnik nazywamy łańcuchowym.

Przyrost absolutny - Przyrosty absolutne informują o ile jednostek zmieniło się (wzrosło lub zmalało) zjawisko w okresie lub momencie badanym względem okresu lub momentu podstawowego lub poprzedniego. Jeżeli więc coś wyrażamy w określonych jednostkach to różnica też wyrażana jest w tych jednostkach (przyrost absolutny to liczby mianowane).

Przyrost względny - Uzyskujemy przez dzielenie przyrostu absolutnego przez wielkość zjawiska w okresie lub momencie odniesienia. Przyrosty względne informują o ile w wyrażeniu względnym (%) zmieniło się (wzrosło lub zmalało) zjawisko w danym okresie lub momencie w stosunku do okresu lub momentu podstawowego lub poprzedniego. Jeżeli zjawisko rośnie to przyrost absolutny jest dodatni i przyrost względny też jest dodatni. Czyli znak wskazuje czy zjawisko ma charakter rosnący czy malejący.

Indeksy dynamiki - Uzyskujemy je dzieląc wielkość zjawiska w danym okresie lub momencie przez wiek zjawiska w okresie lub momencie podstawowym lub poprzednim. Indeksy dynamiki informują ile razy w ujęciu względnym zjawisko w danym okresie lub momencie jest większe lub mniejsze w stosunku do okresu lub momentu podstawowego lub poprzedniego. Odjęcie od indeksu dynamiki liczby 1 lub 100% da odpowiedni przyrost względny.

Jeżeli zjawisko rośnie to indeks dynamiki jest > 1. Jeżeli natomiast zjawisko maleje to indeks dynamiki będzie < 1. Najczęściej stosowanymi są indeksy dynamiki wyrażone w %. W rocznikach statystycznych szeregi czasowe są często uzupełniane indeksami dynamiki:

Wyodrębnienie tendencji rozwojowych - Tendencja rozwojowa albo trend jest to długookresowa zmiana w szeregu czasowym, o której zakłada się, że wraz z oscylacjami i składnikami losowymi generuje obserwacje (zachodzi pod wpływem przyczyn głównych).

Zadaniem analizy tendencji rozwojowych jest wyodrębnić przyczyny główne poprzez określenie ogólnej tendencji rozwoju zjawiska. Są różne sposoby wyodrębniania tendencji rozwojowych. Chodzi o wygładzenie przebiegu zjawiska, żeby linia nie była „poszarpana”, trzeba przefiltrować zjawisko i odrzucić wszystko to co przypadkowe i może zakłócić przebieg zjawiska.

Grupy metod wyodrębniania trendu

  1. metody mechaniczne

  1. średnich podokresów - cały okres dzielimy na podokresy, wyznaczamy średnią i prowadzimy przez nie prostą

  2. średnie ruchome (np. na giełdzie)

  1. metody analityczne - sprowadzają się do dopasowania funkcji matematycznej do zbioru obserwacji na podstawie wykresu szeregu czasowego

  1. metoda najmniejszych kwadratów (MNK).

Na podstawie wykresu szeregu czasowego dokonuje się wyboru funkcji matematycznej, która naszym zdaniem najlepiej oddaje przebieg zjawiska w czasie.

Cel wyodrębniania trendu - Wyodrębnianie trendu służy: opisaniu rozwoju zjawiska w okresach przeszłych; do przewidywania przebiegu zjawiska w przyszłości

Prognozowanie trendu - Trend będzie taki sam tak długo, jak długo nie zmienią się czynniki główne. Prognozować więc można w niezbyt odległą przyszłość. Prognozowanie jest też ograniczone przez stopień dopasowania do danych empirycznych.

Wahania sezonowe - Są trzecim składnikiem szeregu czasowego obok tendencji rozwojowej i wahań przypadkowych. Polegają one na tym, że przyczyny działające periodycznie powodują, że badane zjawisko powtarza się z jednakowym w przybliżeniu natężeniem w kolejnych jednakowo odległych podokresach jakiegoś dłuższego okresu czasu. Takie podokresy nazywamy jednoimiennymi.

Wahania sezonowe charakteryzują się tym, że pełny ich cykl zamyka się w okresie rocznym. Wobec tego okresami jednoimiennymi są miesiące, kwartały, ewentualnie półrocza.

Przyczyny, które wywołują wahania sezonowe wynikają z klimatu, z kalendarza, z organizacji życia społecznego i zwyczajów z tym związanych np. rok szkolny, sezon urlopowy. Żeby móc wykryć wahania sezonowe musimy dysponować odpowiednim szeregiem czasowym np. miesięcznym lub kwartalnym. Żeby móc uśrednić wahania sezonowe - minimalna liczba okresów 5 lat.

PODZIAŁ CECH STATYSTYCZNYCH

  1. stałe:

    1. rzeczowe (kto, co?)

    2. przestrzennej (gdzie?)

    3. czasowej (kiedy?)

  2. zmienne

    1. mierzalne (ilościowe)

      • skokowe (niektóre wartości np. oceny)

      • ciągłe (wyrażane w jednostkach miary np. waga)

  3. niemierzalne (jakościowe)

SZEREGI STATYSTYCZNE

        1. szczegółowe (dla małej liczby obserwacji)

        2. rozdzielcze(duża iczba. obserwacji)

          1. z cechą mierzalną(ilościowe)

wykres:punktowy, słupkowy; szereg rozdzielczy, przedziałowy

- punktowe (cecha skokowa) proste, skumulowane

- przedziałowe (cecha ciągła) proste, skumulowane

          1. z cechą niemierzalną (jakościowe)

wykres:kołowy; szereg strukruralny

- geograficzne

- inne

3. czasowe

          1. momentów (np. stan zapasów na 31-12-2001)

          2. okresów (np. PKB wlatach) - dodawanie ma sens

PRZEDZIAŁ UFNOŚCI μ

czynniki wpływające na długość przedziału to:

im większa próba, tym przedział ufności jest mniejszy

ASYMETRIA ROZKŁADU

x<Me<D - asymetria ujemna (lewostronna)

D<Me<x - asymetria dodatnia (prawostronna)

FORMUŁOWANIE HIPOTEZ

OBSZAR KRYTYCZNY

obustronny gdy H1 : μ ≠ 26

lewostronny gdy H1 : μ < 26

prawostronny gdy H1 : μ > 26

TYPY REGRESJI

wykładnicza y = ax interpretacja: parametr a i b

potęgowa y = xa interpretacja: parametr a

GRUPOWANIE MATERIAŁU STATYSTYCZ.

  1. typologiczne - np. wg cech terytorialnych rzeczowych, czasowych w celu wyodrębnienia grup różnych jakościowo

  2. wariancyjne - łączenie w klasy jednostek statystycznych w celu uporządkowania i poznania strukrury zbiorowości

INDEKSY DYNAMIKI - PRZYROSTY

absolutne (yt - y0) - informują o ile zmienił się poziom zjawiska w badanym okresie w odniesieniu do okresu bazowego. Są to wielkości mianowane, wyrażane w jednostkach miary takich jak badane zjawisko.

względne zwane wskaźnikiem tempa wzrostu (yt -yo / yo *100) - stosunek przyrostu absolutnego zjawiska do jego poziomu w okresie bazowym.

Jeśli pomnożymy przez 100, to otrzymamy % przyrosty względne zwane tempem zmian

indywidualne ( yt / yo * 100) - mierniki określające stosunek wielkości zjawiska w 2 różnych okresach (np. w I i IV kwartale)

WSPÓŁCZYNNIKI KORELACJI

Pearsona - jest miarą siły związku liniowego między cechami

Spearmana - (rangowanie) służy do opisu siły korelacji 2 cech w przypadku gdy:

  1. cechy są mierzalne i badana zbiorowość jest nieliczna

  2. gdy cechy mają charakter jakościowy i istnieje możliwość ich uporządkowania

f. liniowa y = a + bx (a i b) Jeśli X ↑ o 1 to Y ↑ średnio o b

f. potęgowa y = a * xb (a i b) b - wsp. elastyczności.

Jeśli zmienna X ↑ o 1% to Y zmieni się średnio o b%

f. wykładnicza y = a * bx (a i b) b - wsp. regresji

Jeśli X ↑ o 1 jednostkę to Y zmieni się średnio o (b - 1)* 100

f. hiperboliczna y = a + b * 1/x (a) a - wsp. nasycenia

Jeśli X ↑ to Y utrzyma się przeciętnie na poziomie a

trend - wsp. zmian, kierunek rozwoju, funkcja, szereg czasowy, tendencja rozwojowa. skośność - wsp. asymetrii, asymetria. rozproszenie - dyspersja, wsp. zmienności, odchylenie ćwiartkowe, odch standardowe, wariancja. korelacja - wsp. korelacji, wsp. Spearmana, wsp. Pearsona, współzależność. grupowanie - szeregi punktowy, klasowy, rozdzielczy. parametr - populacja, estymator, jednostka statystyczna. indeks - łańcuchowy, agragatowy, dynamiki. sezonowość - multiplikatywna, addytywna. położenie - wartość środkowa, średnia arytmetyczna. koncentracja - krzywa Lorenza. proporcja - wskaźnik struktóry.

Przedział ufności - bliskie 1 (wartość krytyczna standaryzow). Poziom istotności - bliskie 0

Dekompozycja szeregu czasowego - wyodrębnienie f trędu, wachań sezonowych i przypadkowych.

grupowanie - typologiczne dla cech jakościowych i wariancyjne dla cech ilościowych, dychotomiczne jeśli zbiorowość dzielona na 2 klasy np. czynna i bierna zawodowo.

wsp. zbieżności (indeterminacji) Hi-kwadrat ϕ2 = 1 - R2

wsp. zmienności (zróżnicowanie, natężenie) V = s / x ( * 100)

V = Q / Me ( * 100) wykres korelacyjny: oś OX - cecha niezależna (objaśniająca), OY - zmienna zależna (objaśniana). Dominantę stosujemy przy równych rozpiętościach przedziałów i nie może to być przedział skrajny, musi to być szereg z trendem centralnym.

wsp. Pearsona - ilościowe; Kendala i Spearmana - rangi; Czuprowa - jakościowe.

W testach ze stat. T-studenta stosujemy:

Ho : μ1 = μ2; Ho : μ = liczba; Ho : δ2 1 = δ2 2



Wyszukiwarka

Podobne podstrony:
Ścieki ściąga(egzamin), Studia, 1-stopień, inżynierka, Ochrona Środowiska, Technologie stosowane w o
Ściąga egzamin trzoda chlewna
sciaga egzamin 14
ściąga egzamin
sciąga egzamin
Teoria sprotu - ściąga egzamin, AWF Biała Podlaska (SPORT), 2 ROK, Teoria sportu
ściąga egzamin prof Karpuś analiza finansowa
ściąga egzamin z mechaniki
ściąga egzamin wytrzymałość folia
sciaga egzamin
Biologia ściaga egzamin
Ściąga egzamin Manikowski, lamerska stylistyka
sciaga egzamin społeczna, studia, ściągi
ściąga egzamin B.K, Budownictwo PCz, Technologia betonów i zapraw, Ściągi
Ściąga-egzamin planowanie, 1
ściąga 2 egzamin
ŚCIĄGA EGZAMIN NAJLEPSZA
moja ściąga 2 egzamin
sciaga egzamin

więcej podobnych podstron