APS, wyklady (1)


WYKŁAD I

Za główny przedmiot teorii sygnałów uważa się tworzenia opisu matematycznego sygnałów oraz metod ich analizy i przetwarzania. Pojęcie sygnału już intuicyjnie pojawia się z pojęciem informacji gdyż transmisja informacji możliwa jest dzięki przesyłaniu i przetwarzaniu różnego typu sygnałów, np.: elektrycznych, optycznych, akustycznych, elektromagnetycznych, itp. W procesie transmisji sygnałów występuje zjawisko nakładania się sygnałów na przebieg nośny oraz dodatkowe operacje, które utrudniają odtwarzanie przekazywanej informacji z pobieranego przekazu transmisji w celu efektywnego odtworzenia informacji sygnału odbieranego zachodzi konieczność poznania cech informacji, które stanowią podstawowe opracowanie odpowiednich algorytmów. Wymienione zagadnienia wymagają stosowania odpowiedniego aparatu matematycznego. Teoria sygnałów stanowi pewien dział nauk matematycznych. Charakterystyczną cechą wszystkich sygnałów jest ich trwanie w czasie. Analiza cech czasowych sygnałów nie jest zbyt złożona i w przypadku sygnałów deterministycznych kompletny opis sygnałów możemy uzyskać dzięki analizie fourierowskiej i metodach energetycznych. W przypadku sygnałów losowych ich opis ma postać probabilistyczną a zatem podany jest w postaci rozkładów prawdopodobieństwa sygnałów oraz ich momentów. Sygnały możemy również ustalać według topologiczno-geometrycznej topologii sygnałów gdzie każdy sygnał reprezentowany jest jako wektor, punkt bądź linia w uogólnionej przestrzeni wielowymiarowej. Zbiory punktów, wektorów, linii tworzą przestrzenie sygnałów, w których badamy odległość między sygnałami w sensie ich podobieństwa i możliwości rozróżniania. W tym przypadku ważne są pojęcia iloczynu skalarnego a także ortodonalności. Interpretacje geometryczne są szczególnie ważne przy analizie sygnałów dyskretnych, gdzie w przestrzeni funkcji rozumie się jako składnik funkcji.

Klasyfikacja sygnałów.

Wszelkie spotykane sygnały najogólniej możemy podzielić na:

Zaliczanie sygnałów do pierwszej lub drugiej grupy zależy od zawartości informacji, jaką posiada odbiorca sygnału w stosunku do nadawcy informacji. Jeżeli przekazywana jest nam informacja znana to sygnał dla nas jest deterministyczny. Jeżeli przekazywana jest nam informacja, którą możemy, jedynie przewidzieć jako statystyczną to sygnał traktujemy jako losowy. A zatem sygnał o przyszłości znanej opisanej, np.: matematycznie jest sygnałem deterministycznym. Natomiast sygnał losowy o nieznanej przyszłości posiada model probabilistyczny i z nim związana jest informacja. W praktyce modele stochastyczne sygnałów wynikają często z nieznajomości zjawisk fizycznych, które generują dane sygnały.

Analiza cech losowych.

Przebieg sygnałów rzeczywistych możemy określić dokonując pomiarów ich wartości w kolejnych chwilach czasu t. W ten sposób otrzymujemy tablicę wartości t oraz x(t), która punktowo charakteryzuje przebieg sygnału x(t). Sygnały rzeczywiste oraz niektóre sygnały modelowe opisuje się przy użyciu zbiorów ograniczonych, czyli 0x01 graphic
. Jeżeli funkcja czasu opisująca sygnał zanika poza domkniętym pewnym przedziałem, np.: [a, b] to mamy do czynienia z sygnałem o ograniczonym trwaniu, podobnie tworzy się pojęcie sygnału o ograniczonym zakresie wartości. W związku z powyższym klasyfikacja sygnału według zakresu wartości argumentu i wartości funkcji ma postać:

Zakres wartości

Czas trwania

Ograniczony

Ograniczony

Nieograniczony

Nieograniczony

Ograniczony

Nieograniczony

Jeżeli przez D oznaczymy skończony zbiór liczb rzeczywistych wybranych ze zbioru 0x01 graphic
, ale w pewien określony sposób to klasyfikując sygnały według ciągłości zbiorów możemy utworzyć cztery ich podklasy.

0x01 graphic

0x01 graphic

0x01 graphic

Sygnały ciągłe

Sygnały dyskretne

0x01 graphic

Sygnały dyskretne

Sygnały dyskretne

Sygnały nazywamy ciągłymi przy 0x01 graphic
oraz przy 0x01 graphic
, nawet w przypadku, jeśli istnieją punkty nieciągłości funkcji x(t). Pozostałe sygnały nazywamy dyskretnymi, przy czym istnieją trzy możliwości nieciągłości zbiorów wartości argumentu i wartości funkcji.

0x01 graphic
0x01 graphic
0x01 graphic

0x01 graphic
0x01 graphic
0x01 graphic

0x01 graphic
0x01 graphic
0x01 graphic

W teorii sygnałów ważne pojęcie stanowi sygnał cyfrowy, który może mieć następujące modele:

  1. Ciąg całkowitoliczbowy.

  2. Ciąg impulsów delta o wadze całkowitoliczbowej

  3. Ciąg wąskich impulsów o amplitudzie całkowitoliczbowej

  4. Ciąg szerokich impulsów o amplitudzie całkowitoliczbowej

Zwykle modele sygnałów są rzeczywistymi funkcjami amplitudycznymi argumentu rzeczywistego, dlatego cechy takich sygnałów możemy opisać energetycznie korzystając z powszechnych konwencji polegającej na wyznaczeniu mocy sygnału prądowego bądź napięciowego na rezystancji jednostkowej. Moc chwilowa sygnałów w tym przypadku będzie równa kwadratowi wartości chwilowej sygnału 0x01 graphic
. Energię natomiast określi wyrażenie 0x01 graphic
. Korzystając z cech energetycznych sygnału klasyfikujemy je następująco:

Na sygnałach w dziedzinie czasu możemy dokonywać różnych podziałów algebraicznych, analitycznych i operację uśredniania czasowego. Mówi się całkowo wyznaczając:

1. Wartość średnią sygnału:

0x01 graphic

2. Wartość średniokwadratowa:

0x01 graphic

3. Wartość skuteczna:

0x01 graphic

Na sygnałach cyfrowych działania zdefiniowane są na algebrze całkowitoliczbowej i działaniach określonych modulo, przy czym możliwe jest mnożenie i dodawanie jedynie sygnałów w takiej samej postaci. Sygnały te można również przesuwać po osi czasu o całkowitą liczbę n przedziałów elementarnych, N. Operacje analityczne typu różniczkowanie, całkowanie, uśrednianie, splatanie, przekształcanie w La Place' a i Hilberga może być również przeprowadzone na wszystkich typach sygnałów dyskretnych, ale przy wykorzystaniu tzw. dystrybucji.

Analiza częstotliwościowa sygnałów.

Przejście z opisu czasowego sygnału na opis w dziedzinie częstotliwości dokonuje się metodami analizy Furiera. Cechą charakterystyczną takiego opisu jest niezależność od czasu w sensie rozłożenia sygnałów na składowe, okresowe istniejące w czasie bez ograniczenia.

0x01 graphic
, gdzie x(ω) jest transformatą Furiera sygnału x(t), czyli 0x01 graphic
.

W klasycznym ujęciu sygnału x(t) możemy przedstawić w postaci całkowego równania Fouriera, czyli 1.9; 1.10. Najbardziej istotne właściwości przekształcenia Fouriera to:

Powyższe właściwości są słuszne dla funkcji zespolonych x(t) bezwzględnie całkowalnych w całej dziedzinie. Dla funkcji rzeczywistych x(t) bezwzględnie całkowalnych zachodzą ponadto relacje:

- Oryginał rzeczywisty parzysty. Jeśli x(t) = x(-t) to: 0x01 graphic

Transformata w tym przypadku jest rzeczywista.

- Oryginał rzeczywisty nieparzysty. Jeśli x(t) = - x(-t) to: 0x01 graphic
.

Transformata x(ω) jest funkcją widmową określoną w dziedzinie częstotliwości (pulsacji). Transformata ta nazywana jest widmem Fourierowskim bądź widmem zespolonym. Korzystając ze składowych biegunowych transformatę tą możemy zapisać w postaci: 0x01 graphic
, gdzie: 0x01 graphic
- nazywany jest widmem amplitudowym.

0x01 graphic
- jest argumentem od 0x01 graphic
i nazywana jest widmem fazowym. W całej dziedzinie pulsacji 0x01 graphic
widmo amplitudowe jest parzyste, a widmo fazowe nieparzyste. Transformata w tym przypadku jest rzeczywista.

- oryginał rzeczywisty nieparzysty: jeśli 0x01 graphic
to 0x01 graphic
.

Funkcja 0x01 graphic
ma sens gęstości energii w dziedzinie pulsacji i nazywana jest widmem gęstości energii. Do podstawowych pojęć analizy częstotliwościowej sygnałów należą ponadto gęstość mocy i widmo mocy. Aby z sygnału x(t) o mocy ograniczonej utworzyć sygnał o energii ograniczonej należy pobrać wycinek tego sygnału, np.: 0x01 graphic
wówczas na podstawie wcześniejszego wyrażenia określającego energię możemy zapisać, że energia tego wycinka to: 0x01 graphic

Przejście graniczne 0x01 graphic
pozwala odtworzyć moc średnią całego sygnału, która przyjmuje postać: 0x01 graphic
.

Funkcja podcałkowa powyższego wyrażenia stanowi widmową gęstość mody a zatem: 0x01 graphic
. Jeżeli granica istnieje gęstość mocy jest funkcją rzeczywistą nieujemną i parzystą a moc średnia: 0x01 graphic
. Podobnie jak widmo mocy sygnału określa jego własności w dziedzinie częstotliwości to funkcja relacji własnej sygnału opisuje własności sygnału w dziedzinie czasu. Funkcja korelacji własnej pewnego sygnału x(t) określona jest zależnością: 0x01 graphic
, gdzie 0x01 graphic
- funkcja x(t) opóźniona.

Z powyższego wyrażenia widać, że funkcja korelacji własnej jest średnią po czasie z iloczynu 0x01 graphic
i stanowi miarę podobieństwa między dwoma wartościami sygnału 0x01 graphic
i 0x01 graphic
, czyli wartościami odległymi o 0x01 graphic
. W przypadku braku podobieństwa, (czyli braku współzależności) między wartościami x(t) odległego o 0x01 graphic
i o ile sygnał nie posiada składowych stałych to wartość średnia wspomnianego wyżej iloczynu jest równa 0, a zatem funkcja korelacji również wynosi 0. Jeżeli rozpatrujemy dwa różne sygnały x(t) oraz y(t) to miarą podobieństwa ich wartości odległych o 0x01 graphic
jest funkcją korelacji wzajemnej.

0x01 graphic

0x01 graphic
.

Funkcja korelacji i gęstość widmowa mocy związane są ze sobą przekształceniem Fouriera, a zatem można zapisać: 0x01 graphic
0x01 graphic
. Korzystając z cech częstotliwościowych sygnałów, a także ich modele możemy klasyfikować według:

a) ciągłości nośnika:

Sygnały rzeczywiste:

b) szerokości widma:

Sygnały rzeczywiste:

WYKŁAD II

Przetwarzanie sygnałów ciągłych - próbkowanie, kwantowanie.

Sygnały fizyczne, chociaż mają naturę ciągłą to jednak z uwagi na stosowane urządzenia techniczne należy przekształcać do postaci cyfrowej przedstawiających ten sygnał w pewnych, wybranych chwilach. Realizuje się to drogą pomiarów w dyskretnych chwilach czasu. Proces ten nazywamy próbkowaniem sygnału. Stosowanie układów cyfrowych w systemach automatyzacyjnych wymaga nie tylko próbkowania, czyli dyskretyzacji w czasie, lecz również dyskretyzacji w poziomie, czyli kwantowania. A zatem efektem operacji próbkowania i kwantowania jest sygnał cyfrowy. W praktyce próbkowanie przeprowadza się podając sygnał ciągły na wejście przetwornika AC (analogowo - cyfrowy), którego sygnał wejściowy jest już ciągiem wartości cyfrowych sygnału. Próbkowanie sygnału może być równomierne lub nierównomierne. Z punktu widzenia zawartości informacji sygnału ważnym problemem próbkowania jest wybór okresu próbkowania. Przyjmowanie długich okresów próbkowania prowadzi do błędów dyskretyzacji zmniejszających dostarczoną informację w sygnale ciągłym. Przyjęcie zbyt krótkich okresów próbkowania prowadzi nie tylko do komplikowania aparatury kontrolno - rejestrującej, ale także obciąża system nieistotną informacją.

Pierwsze twierdzenie o próbkowaniu sygnału o widmie ograniczonym sformułowali Shannon i Kotelnikov, którzy określili warunki, przy których sygnał ciągły x(t) ograniczony w widmie częstotliwości może być zastąpiony bez strat informacji ciągiem wartości chwilowych mierzonych w określonych odstępach czasu. Twierdzenie to mówi, że sygnał x(t) niezawierający składowych o częstotliwości powyżej pewnej częstotliwości granicznej 0x01 graphic
jest w pełni określony jego wartościami chwilowymi branymi w odstępach czasu: 0x01 graphic
, a zatem każdy sygnał ciągły x(t), jeżeli ma tylko widmo ograniczone możemy przedstawić za pomocą ciągu wartości chwilowych określanych co najmniej dwa razy w każdym okresie składowej o największej częstotliwości.

Proces próbkowania ma postać:

0x01 graphic
0x01 graphic

Rys. Sygnał x(t) i odpowiadający im sygnał próbkowy 0x01 graphic
.

Widzimy, że twierdzenie Kotelnikova - Shannona dotyczy próbkowania sygnałów x(t) określonych i nieskończonych przedziałów czasu i zanikających w nieskończoności. Realizację sygnału x(t) stacjonarnych procesów losowych powyższych warunków nie spełniają i nie należy do nich stosować powyższego twierdzenia. Sygnały rzeczywiste x(t) są funkcjami określonymi w skończonym przedziale czasu T i mają one transformatę Fouriera 0x01 graphic
określoną w paśmie nieograniczonym i także nie spełniają warunków twierdzenia Kotelnikova - Shannona. Ponieważ jednak widma takich sygnałów rzeczywistych szybko maleją w funkcji częstotliwości to można przyjąć częstotliwość graniczną 0x01 graphic
, poza którą widmo sygnałów jest praktycznie pomijane. W takim przypadku sygnał x(t) będzie z pewnym przybliżeniem odtworzonym na podstawie swoich wartości chwilowych 0x01 graphic
. Wobec przedstawionych badań można uogólnić twierdzenie, Kotelnikova - Shannona i stwierdzić, że sygnał x(t) o ograniczonym czasie trwania, T i widmie ograniczonym w przybliżeniu częstotliwością graniczną 0x01 graphic
, przy czym: 0x01 graphic
można w przybliżeniu przedstawić za pomocą 0x01 graphic
jego wartości chwilowych pobieranych w odstępach czasu 0x01 graphic
. Wywód ten wynika ze stwierdzenia Lingwista, który podał, że wystarczy 0x01 graphic
dla przedstawienia sygnału o widmie ograniczonym częstotliwością 0x01 graphic
i czasie trwania T uzasadniając to rozkładem w szereg Fouriera sygnał x(t) o czasie trwania T.

Kwantowanie sygnałów.

Polega ono na przyporządkowaniu ciągłej wielkości fizycznej pewnej wartości dyskretnej poziomu. Kwantowanie również może być równomierne i nierównomierne, co wpływa na wartość momentu kwantowego. W kwantowaniu nierównomiernym kwantyzator sygnałowi ciągłemu x przyporządkowuje wartości dyskretne x*, co prezentuje rysunek:

0x01 graphic

Charakterystyka kwantyzatora.

Załóżmy, że sygnał wyjściowy kwantyzatora x charakteryzuje się znaną funkcją gęstości prawdopodobieństwa p(x) wówczas sygnał wejściowy kwantyzatora x* będzie skończoną liczbą wartości 0x01 graphic
nazywanych poziomami kwantowania. Kwantyzatory określają, zatem N+1 poziomów kwantowania oraz wartości N punktów 0x01 graphic
, w których następują skoki sygnału wejściowego kwantyzatora. Sygnał wyjściowy x* w zależności od sygnału wejściowego x przedstawiamy zależnością:

0x01 graphic
.

Różnicą między wartościami sygnału pierwotnego x i sygnału kwantowanego x*, a zatem różnicę między sygnałem na wejściu i wyjściu kwantyzatora określamy jako 0x01 graphic
i nazywamy błędem kwantowania.

Analiza probabilistyczna sygnałów.

Z uwagi na brak możliwości pełnego poznania sygnału losowego bądź zbioru jednorodnych sygnałów losowych, stosuje się analizę probabilistyczną umożliwiającą opis wspólnych cech sygnału ze wspomnianych zbiorów, co polega na określaniu deterministycznych rozkładów prawdopodobieństwa oraz zdeterminowanych licz i funkcji charakteryzujących te rozkłady. Analiza probabilistyczna opiera się na rachunku prawdopodobieństwa, którego podstawy stanowią: zasada alternatywy i zasada koniunkcji. Zasada alternatywy polega na tym, że prawdopodobieństwo wystąpienia jednego z dwóch zdarzeń wzajemnie się wykluczających jest sumą prawdopodobieństw zdarzeń pojedynczych: 0x01 graphic
. Należy pamiętać, że A i B są wzajemnie rozłączne jest prawdziwa dla więcej niż dwóch zdarzeń. Zasada koniunkcji polega na tym, że prawdopodobieństwo jednoczesnego wystąpienia dwóch zdarzeń niezależnych równa się iloczynowi prawdopodobieństw zdarzeń pojedynczych: 0x01 graphic
. Jest to szczególny przypadek, gdy A i B to zdarzenia niezależne.

Jeżeli zdarzenia A i B są niezależne wówczas w zasadzie koniunkcji występuje prawdopodobieństwo warunkowe i przyjmuje ona postać: 0x01 graphic
, gdzie 0x01 graphic
to prawdopodobieństwo wystąpienia zdarzenia A przy założeniu, że zdarzyło się B.

Rozkłady prawdopodobieństw.

Przeprowadzając doświadczenia wiele razy otrzymujemy zwykle kilka różnych wyników, graficzne przedstawienie częstości tych wyników w funkcji ich samych nazywamy rozkładem prawdopodobieństw tych wyników, a zatem można powiedzieć, że rozkład prawdopodobieństw określa prawdopodobieństwa różnych zdarzeń w ciągu doświadczeń. Z najprostszą postacią rozkładu mamy do czynienia wówczas, jeżeli eksperyment ma jedynie dwie możliwości: sukces bądź niepowodzenie, rozkład taki nazywamy dwumianowym. Załóżmy, że w każdym eksperymencie prawdopodobieństwo sukcesu wynosi p, a niepowodzenia q, wówczas można zapisać: 0x01 graphic
. W przypadku n przeprowadzonych eksperymentów prawdopodobieństwo osiągnięcia sukcesów k razy określa się zależnością: 0x01 graphic
- jest to postać rozkładu dwumianowego. W przypadku, kiedy liczba eksperymentów jest bardzo duża, n >> 1, a prawdopodobieństwo sukcesów każdego z doświadczeń bardzo małe p << 1 to istnieje pewne przybliżenie rozkładu dwumianowego nazywane rozkładem Poisson. Jeżeli przy powyższych założeniach ponadto średnia liczba sukcesów w n próbach określona będzie jako 0x01 graphic
to prawdopodobieństwo, że z całkowitej liczby eksperymentów otrzyma się k sukcesów: 0x01 graphic
0x01 graphic
0x01 graphic
. W przypadku badania zdarzeń w kolejnych przedziałach czasu stosuje się zmodyfikowaną postać rozkładu Poissona, w której, przez r oznaczamy średnią liczbę zdarzeń w jednostce czasu i wówczas 0x01 graphic
, a prawdopodobieństwo wystąpienia k sukcesów w czasie t: 0x01 graphic
.

Rozkład normalny - przypadek dyskretny.

Jest on również w przybliżeniu rozkładu wymiarowego i występuje wówczas, jeżeli zamiast wykreślania prawdopodobieństwa różne liczby sukcesów k w funkcji tej liczby wykreślamy to prawdopodobieństwo w funkcji różnic X między liczbą sukcesów: 0x01 graphic
a średnią liczbę sukcesów: 0x01 graphic
. W tym przypadku ulegnie przesunięciu początek osi odciętych rozkładu wymiarowego: 0x01 graphic
.Jeżeli powyższe zależności podstawimy do wzoru rozkładu dwumianowego otrzymamy: 0x01 graphic
. Przebieg wykresy dyskretnego ma postać:

0x01 graphic

Ciągłe rozkłady gęstości prawdopodobieństwa.

W omawianych dotychczas rozkładach zmianę przyjmowały wyłącznie wartości całkowite, czyli liczba sukcesów lub niepowodzenia była liczbą całkowitą. W praktyce wiele zmiennych ma naturę dowolną i przyjmuje wartość dodatnią wobec tego w przypadkach ciągłych badań zmiennych obliczane są zawsze dla interesujących nas przedziałów wartości zmiennych a nie dla wartości konkretnych wówczas operujemy pojęciem gęstości prawdopodobieństwa a same prawdopodobieństwa reprezentowane są przez pola powierzchni pod krzywą gęstości prawdopodobieństwa. Przykładem rozkładu gęstości prawdopodobieństwa może być rozkład gęstości prawdopodobieństwa ciężaru noworodków ma postać:

0x01 graphic

0x01 graphic

Parametry charakterystyk rozkładu gęstości prawdopodobieństwa.

0x01 graphic
0x01 graphic
.

Często zamiast funkcji gęstości prawdopodobieństwa używana jest tzw. dystrybuanta określona wyrażeniem: 0x01 graphic
lub 0x01 graphic
. Wartość dystrybuanty w każdym punkcie x równa się prawdopodobieństwu, że wartość zmiennej jest mniejsza od x.

Rozkład normalny gęstości prawdopodobieństwa.

Wprowadzony został przez Gaussa dla określenia rozkładu błędów pomiarowych i nazywamy rozkładem błędów. Rozkład ten opisany jest zależnością: 0x01 graphic
. W tym rozkładzie prawdopodobieństwo występowania tzw. błędów grubych maleje oraz z oddaleniem się od wartości średniej. Rozkład Gaussa wykorzystywany jest w analizie sygnałów zakłucających, czyli szumów.

WYKŁAD 3

Składają się one z dyskretnego źródła informacji kanału transmisyjnego oraz dyskretnego odbiornika informacji. Transmitowanym sygnałem jest sygnał losowy 0x01 graphic
, który może być transmitowany przez jego realizację 0x01 graphic
. Liczba jego realizacji jest ograniczona i wynosi:

i = 1, …, M. Rozpatrywać będziemy pewien zbiór 0x01 graphic
utworzony z realizacji 0x01 graphic
z sygnału. Każdemu elementowi 0x01 graphic
ze zbioru 0x01 graphic
przyporządkowana jest pewna liczba 0x01 graphic
, określająca prawdopodobieństwo wysłania ze źródła realizacji 0x01 graphic
sygnału 0x01 graphic
. Zbiór wartości 0x01 graphic
oznaczamy 0x01 graphic
i stanowi on rozkład prawdopodobieństwa określany na zbiorze 0x01 graphic
. Rozkład ten jest probabilistyczną charakterystyką źródła sygnałów a zatem probabilistyczną charakterystyką sygnału nadawanego 0x01 graphic
.

0x01 graphic
0x01 graphic
0x01 graphic

Rys.: Graficzne przedstawienie przyporządkowań elementów zbioru 0x01 graphic
i zbioru 0x01 graphic
.

Przykładem dyskretnego źródła informacji, wysyłającego sygnały losowe 0x01 graphic
może być zespół urządzeń wytwarzających impulsy prostokątne o znanym czasie trwania i amplitudzie, która w sposób losowy przyjmuje N różnych wartości. Przesyłając sygnał losowy 0x01 graphic
kanałem transmisyjnym na jego wyjściu odbierany jest losowy sygnał 0x01 graphic
, który zależy od zakłóceń, działających na transmitowany sygnał w kanale transmisyjnym. Losowy sygnał 0x01 graphic
opisywany jest przez zbiór jego możliwych realizacji 0x01 graphic
. Rozpatrujemy, zatem zbiór 0x01 graphic
przez realizację możliwego sygnału odbieranego. Każdemu elementowi 0x01 graphic
przyporządkowana jest pewna liczba 0x01 graphic
, która określa prawdopodobieństwo odebrania danej realizacji 0x01 graphic
sygnału losowego 0x01 graphic
. Zbiór prawdopodobieństw 0x01 graphic
stanowi probabilistyczną charakterystykę sygnału odbieranego (odbiornika) i jest on określany na zbiorze 0x01 graphic
.

Przyporządkowanie prawdopodobieństw ma postać:

0x01 graphic
0x01 graphic
0x01 graphic

Rys.: graficzna interpretacja przyporządkowania elementów zbioru 0x01 graphic
elementów zbioru 0x01 graphic
.

Ponieważ sygnał odbierany 0x01 graphic
zależy od sygnału nadawanego 0x01 graphic
oraz od obecności kanału transmisyjnego to dla pełnego opisu systemu informacyjnego należy wyznaczyć probabilistyczną charakterystykę zakłóceń działających w kanale. Załóżmy, że na wejście kanału podaliśmy jedną realizację 0x01 graphic
sygnału losowego. Na realizację w kanale tym działają zakłócenia i dlatego nie wiemy, którą realizację 0x01 graphic
sygnału 0x01 graphic
odbieramy. Z uwagi na działania zakłóceń możliwe jest odebranie każdej z realizacji należącej do zbioru 0x01 graphic
.

Istnieje jednak możliwość określenia prawdopodobieństwa warunkowego odebrania danej realizacji ze zbioru 0x01 graphic
, przy nadaniu realizacji 0x01 graphic
ze zbioru 0x01 graphic
. A zatem można to zinterpretować graficznie:

0x01 graphic
0x01 graphic
0x01 graphic

Suma tych prawdopodobieństw warunkowych po wszystkich realizacjach sygnału musi być równa 1:

0x01 graphic
.

Z powyższego widzimy, że dla każdej wartości 0x01 graphic
własności zakłóceń działających w kanale transmisyjnym, opisuje się warunkowym rozkładem prawdopodobieństwa: 0x01 graphic
. W związku z tym, że ilość możliwych realizacji sygnału nadawanego jest N, a ilością realizacji sygnału odbieranego jest M, to własności zakłóceń działających w kanale transmisyjnym, będą opisane przez P x M prawdopodobieństw warunkowych 0x01 graphic
. W związku z tym probabilistyczną charakterystykę kanału możemy przedstawić za pomocą macierzy prostokątnej posiadającej M - kolumn i N - wierszy. Macierz ta ma postać:

0x01 graphic
.

Należy pamiętać, że suma kolumn ma być równa 0x01 graphic
. Powyższą macierz nazywamy macierzą przejścia kanału transmisyjnego, przedstawiającego zbiory 0x01 graphic
i 0x01 graphic
w postaci macierzy kolumnowych:

0x01 graphic
, oraz zbiór 0x01 graphic
: 0x01 graphic
.

Możemy sformułować równanie macierzowe, które opisuje system informacyjny:

0x01 graphic
.

W występujących sygnałach, które są przetwarzane w systemach informacyjnych zawarta jest informacja, której ilość określamy za pomocą pojęcia entropii oznaczonej jako H. Chcąc określić ilość informacji zawartej w sygnale nadawanym 0x01 graphic
, należy pamiętać, że probabilistyczną charakterystyką tego sygnału jest rozkład tego prawdopodobieństwa apriori, czyli 0x01 graphic
. W związku z tym ilość informacji musi być funkcją tego rozkładu, co zapiszemy: 0x01 graphic
. Ponieważ ilość informacji związana jest z każdą realizacją sygnału nadawanego, to możemy ją przedstawić w postaci równania: 0x01 graphic
, gdzie 0x01 graphic
jest to ilość informacji wynikająca z zajścia zależności 0x01 graphic
. Aby spełnić wymagania matematyczne związane z obliczaniem entropii dla jej określenia wprowadzamy logarytm jako funkcję i przy podstawie a > 1 otrzymujemy:

0x01 graphic
.

Ponieważ entropia jest funkcją prawdopodobieństwa apriori to: 0x01 graphic
.

W procesie transmisji sygnału 0x01 graphic
pewna ilość informacji jest tracona z uwagi na oddziaływanie zakłóceń. Jeżeli na wyjściu kanału transmisyjnego odbierzemy pewną realizację 0x01 graphic
sygnału 0x01 graphic
to ze względu na losowy charakter sygnału 0x01 graphic
i oddziaływanie zakłóceń losowych w kanale nie wiemy, jaka realizacja 0x01 graphic
sygnału 0x01 graphic
została rzeczywiście nadana. Możemy, jednak dla ustalonego elementu 0x01 graphic
sygnału 0x01 graphic
wyznaczyć warunkowy rozkład prawdopodobieństwa 0x01 graphic
, określającego prawdopodobieństwo z wysłania realizacji 0x01 graphic
pod warunkiem odebrania realizacji 0x01 graphic
. Interpretacja geometryczna będzie miała postać:

0x01 graphic

Rys.: Interpretacja geometryczna sytuacji nieznajomości nadanej realizacji 0x01 graphic
sygnału 0x01 graphic
, przy odbiorze realizacji 0x01 graphic
sygnału 0x01 graphic
.

Ilość informacji traconej w kanale przez daną realizację 0x01 graphic
sygnału 0x01 graphic
jest tym mniejsza im większe jest prawdopodobieństwo warunkowe 0x01 graphic
. Ilość informacji traconej w kanale jest nieujemną funkcją wszystkich prawdopodobieństw 0x01 graphic
i określona jest zależnością: 0x01 graphic
. Aby otrzymać oczekiwaną ilość informacji traconej w kanale z zakłóceniami w przypadku nadania sygnału 0x01 graphic
i odebrania pełnego sygnału 0x01 graphic
, należy powyższą zależność uśrednić na zbiorze 0x01 graphic
. W związku z tym otrzymamy postać: 0x01 graphic
. Entropia 0x01 graphic
określona wcześniej wymienioną zależnością nazywana jest entropią warunkową a posteriori. Z przedstawionych zależności widzimy, że oczekiwana ilość informacji przesyłanej, przez kanał z zakłóceniami może być określona jako różnica oczekiwanej ilości informacji zawartej w losowym sygnale nadawanym 0x01 graphic
oraz oczekiwanej ilości informacji traconej w kanale przesyłowym, co zapiszemy: 0x01 graphic
. Wielkość 0x01 graphic
określoną wcześniej wymienionym wyrażeniem nazywamy transinformacją bądź szybkością przesyłania informacji lub też informacją wzajemną, wynikającą z zajścia transmisji sygnału 0x01 graphic
i odebrania sygnału 0x01 graphic
.

Podobnie jak dla źródła informacji możemy obliczyć również ilość informacji zawartej w odbieranym sygnale 0x01 graphic
i korzystamy wówczas z wyrażenia: 0x01 graphic
.

Rozpatrzmy system informacyjny, który był omawiany:

0x01 graphic
0x01 graphic
0x01 graphic

0x01 graphic
0x01 graphic

0x01 graphic

0x01 graphic
0x01 graphic

Rys.: Graficzne przedstawienie elementarnego dyskretnego systemu informacyjnego.

Należy teraz ocenić zdolność kanału transmisyjnego do przesyłania informacji. Wielkość charakteryzująca zdolność powinna zależeć od charakterystyki probabilistycznej kanału a zatem od zbioru prawdopodobieństwa 0x01 graphic
. Jednakże miarą oczekiwanej ilości informacji przesyłanej przez kanał jest transinformacja, będąca funkcją zarówno probabilistycznej charakterystyki źródła informacji jak i probabilistycznej charakterystyki kanału. W celu uniezależnienia wielkości opisującej kanał od charakterystyki probabilistycznej źródła a zatem od rozkładu apriori stosujemy metodę polegającą na wyznaczeniu spośród wszystkich możliwych rozkładów apriori określonych na zbiorze 0x01 graphic
takiego, którego transinformacja osiąga wartość maksymalną. Tę maksymalną wartość transinformacji przyjmuje się za wielkość charakteryzującą zdolność kanału do przesyłania informacji i nazywa się ją przepustowością: 0x01 graphic
.

Dla oceny sprawności kanału przesyłowego stosuje się tzw. współczynnik sprawności transinformacji określonej wartością: 0x01 graphic
. Ilość informacji obliczana jest w jednostkach, które należą od podstawy logarytmu w wyrażeniu na entropię.

Jest to jedna z metod optymalizacji transmisji informacji a system informacyjny ma wówczas postać:

0x01 graphic
0x01 graphic

0x01 graphic
0x01 graphic
0x01 graphic
0x01 graphic

0x01 graphic

Rys.: Transmisja sygnałów zakodowanych.

W przedstawionym systemie losowy sygnał 0x01 graphic
wysyłany ze źródła w urządzeniu nazywanym koderem zostaje przekształcony w postać zakodowaną 0x01 graphic
i w takiej postaci podlega transmisji. Na wyjściu kanału transmisji odbierany jest zakodowany sygnał 0x01 graphic
, który w dekoderze przekształcany jest na postać zrozumiałą dla odbiornika.

Źródło wytwarza sygnał losowy 0x01 graphic
o realizacjach 0x01 graphic
tworzących zbiór 0x01 graphic
. Sygnał charakteryzowany jest rozkładem a priori 0x01 graphic
oraz dany jest dyskretny zbiór 0x01 graphic
, który nazywany jest alfabetem kodu v = 1,…, Q. Operacją kodowania dyskretnego losowego sygnału 0x01 graphic
nazywamy przyporządkowania każdej z M realizacji 0x01 graphic
sygnału 0x01 graphic
pewnego ciągu 0x01 graphic
utworzonego z elementów alfabetu kodu 0x01 graphic
. W wyniku kodowania zbiorowi 0x01 graphic
przyporządkowany zostaje zbiór 0x01 graphic
złożony z elementów 0x01 graphic
. Regułę przyporządkowania zbioru 0x01 graphic
, czyli ciągu 0x01 graphic
nazywamy wyrazami kodu, każdy wyraz 0x01 graphic
kodu jest ciągiem 0x01 graphic
elementów alfabetu 0x01 graphic
. Ciągi te mają, zatem postać: 0x01 graphic
.

Liczbę naturalna 0x01 graphic
, czyli liczbę elementów alfabetu kodu tworzących wyraz 0x01 graphic
nazywamy długością wyrazu kodu.

WYKŁAD 4 i 5

Sygnał wytwarzany w źródle 0x01 graphic
reprezentowany jest pewnym ciągiem wielkości 0x01 graphic
, a zatem ma on postać: 0x01 graphic
.

W trakcie kodowania powyższego ciągu, każdej wartości 0x01 graphic
, przyporządkowana jest wartość 0x01 graphic
, czyli wykaz kodu oznacza to, że danej realizacji sygnału 0x01 graphic
w postaci: 0x01 graphic
. W celu jednoznacznego odtworzenia realizacji sygnału 0x01 graphic
na podstawie otrzymanego na wejściu dekodera ciągu wyrazów 0x01 graphic
niezbędne jest wprowadzenie przecinków dla rozdzielenia poszczególnych wyrazów 0x01 graphic
kodu. Procedura ta wydłuża jednak czas transmisji, a zatem zmniejsza sprawność transmisji systemu, co jest sprzeczne z celem wprowadzenia kodowania. W związku z powyższym wymaga się stosowania kodów bez przecinkowych, a rolę przecinków mają spełniać, tzw. przedrostki wyrazów kodu, które definiujemy następująco: wyraz 0x01 graphic
kodu o długości 0x01 graphic
jest ciągiem 0x01 graphic
elementów alfabetu kodu, czyli ciągiem 0x01 graphic
liter kodu, a zatem ma on postać: 0x01 graphic
. Odcinając kolejno pierwszy znak wyrazu kodu, pierwsze dwa znaki wyrazu kodu, itd. aż do 0x01 graphic
znaków wyrazu kodu otrzymujemy 0x01 graphic
ciągów w postaci:

0x01 graphic
.

Przedstawione powyżej ciągi nazywamy przedrostkami wyrazów kodu 0x01 graphic
o długości 0x01 graphic
. O kodach bez przecinkowych mówimy, że spełniają one właściwości przedrostkowe. Aby uzyskać maksymalnie współczynnik transmisji informacji dochodzi do uzależnienia długości 0x01 graphic
wyrazów 0x01 graphic
kodu od prawdopodobieństw 0x01 graphic
wystąpienia poszczególnych realizacji 0x01 graphic
odpowiadały małe długości 0x01 graphic
wyrazów kodu, a rzadko wystąpienia realizacjom 0x01 graphic
odpowiadały większe długości wyrazów kodu, czyli długość 0x01 graphic
wyrazów kodu ma być rosnącą monotonicznie funkcją odwrotności prawdopodobieństw 0x01 graphic
.

Rozpatrzymy projektowanie kodów binarnych, czyli Q = 2. Załóżmy, że kody mają spełniać właściwość przedrostkową, w przypadku takich założeń, dla zapewnienia dużej sprawności kodowania długości 0x01 graphic
wyrazów 0x01 graphic
muszą spełniać nierówność: 0x01 graphic
.

Na podstawie powyższej nierówności dla danego źródła informacji określamy długości 0x01 graphic
wyrazów 0x01 graphic
kodu. W taki sposób projektowany kod w ogólnym przypadku nie spełnia jeszcze właściwości przedrostkowej, dlatego należy zastosować metodę Shannona - Fano, którą opiszemy następująco: elementy 0x01 graphic
ze zbioru 0x01 graphic
w zależności od wartości prawdopodobieństw apriori, czyli 0x01 graphic
uszeregujemy w ten sposób, aby spełniona była nierówność: 0x01 graphic
. Przez 0x01 graphic
oznaczamy dystrybuantę rozkładu prawdopodobieństw 0x01 graphic
ma ona postać: 0x01 graphic
i następnie wprowadzimy pewien pomocniczy zbiór liczb 0x01 graphic
o postaci:

0x01 graphic
. Zauważyć należy, że 0x01 graphic
zmienia się od j = 1, … do 0x01 graphic
.

W następnym kroku wartości liczby 0x01 graphic
zapisujemy w układzie dwójkowym, czyli każda z liczb będzie ciągiem 0 i 1. Dla określenia i - tego wyrazu 0x01 graphic
kodu o długości 0x01 graphic
należy wybrać 0x01 graphic
kolejnych współczynników, czyli 0 i 1, licząc od kropki w prawo.

Przykład:

Źródło informacji wytwarza losowy sygnał 0x01 graphic
charakteryzowany zbiorem realizacji 0x01 graphic
, przy czym i = 1, 2, …, 5 oraz rozkładem prawdopodobieństw 0x01 graphic
, gdzie 0x01 graphic
, 0x01 graphic
, 0x01 graphic
, 0x01 graphic
, 0x01 graphic
. Zaprojektować kod binarny Shannona - Fano. Obliczyć ilość informacji zawartą w sygnale 0x01 graphic
.

Dane:

0x01 graphic
0x01 graphic
0x01 graphic
0x01 graphic
0x01 graphic
.

Rozwiązanie:

0x01 graphic
0x01 graphic

Przetwarzanie ciągłego sygnału analogowego x(t) na sygnał cyfrowy składa się z 3 następujących etapów:

Próbkowanie polega na pobieraniu w określonych odstępach czasu próbek wartości x(t)w taki sposób, aby ciąg tych próbek uniemożliwiał jak najbardziej wierne odtworzenie przebiegu funkcji. Podczas próbkowania następuje dyskretyzacji argumentu 0x01 graphic
, gdzie k - jest numerem próbki; 0x01 graphic
- okresem. A zatem ciąg próbek 0x01 graphic
reprezentuje sygnał x(t) w postaci dyskretnej 0x01 graphic
.

a)0x01 graphic
b)0x01 graphic

c)0x01 graphic
d) 0x01 graphic

Rys. Próbkowanie przebiegu: a - przebieg próbkowany, b - impulsy próbkujące, c - przebieg po próbkowaniu w przypadku naturalnego próbkowania punktowego, d - przebieg po próbkowaniu w przypadku próbkowania z zapamiętywaniem.

W przypadku próbkowania idealnego przyjmuje się punktowe pobieranie informacji, co oznacza, że impulsy próbkujące powinny mieć nieskończenie wąską szerokość. Operacja próbkowania będzie, zatem równoważna pomnożeniu przebiegu 0x01 graphic
sygnału przez ciąg impulsów o jednostkowej amplitudzie, co daje w rezultacie ciąg impulsów zmodulowanych, w których odpowiedzi zachowana jest informacja o oryginalnym przebiegu będzie to, zatem modulacja iloczynowi realizowana przez ciąg impulsów delta.

Często w torze pomiarowym stosowany jest specjalny układ próbkowania z pamięcią, który nie tylko pobiera próbkę wartości przebiegu sygnału, ale również utrzymuje jej wartość przez określony czas, zwykle do pojawienia się następnego impulsu próbkującego. Ponieważ teoria próbkowania jest ważna przy określaniu dokładności oraz użyteczności każdego systemu cyfrowego to niezbędne jest zrozumienie skutków różnego próbkowania. W dziedzinie częstotliwości istnieje niejednoznaczność związana z próbkami sygnału o czasie dyskretnym, która nie istnieje w przypadku sygnałów ciągłych. Ocena skutków tej niejednoznaczności daje się wyjaśnić drogą zrozumienia próbkowej natury danych dyskretnych. Załóżmy, iż dany jest ciąg próbek o postaci: 0x01 graphic
, 0x01 graphic
, 0x01 graphic
, 0x01 graphic
, 0x01 graphic
, 0x01 graphic
, 0x01 graphic
. Próbki te reprezentują wartości chwilowe pewnego przebiegu sinusoidalnego w dziedzinie czasu pobrania w równomiernych odstępach czasu pobrane w równomiernych odstępach na osi czasu.

Można zauważyć i udowodnić, że dany ciąg reprezentuje nieskończoną liczbę sinusoid przesuniętych między sobą w dziedzinie częstotliwości o pewną wartość, która stanowi częstotliwość próbkowania przebiegu. Dzieje się tak, dlatego, że proces próbkowania dokonuje powielania widma sygnału z przesunięciem na osi częstotliwości o wielokrotność częstotliwości próbkowania. W związku z tym istotnym zagadnieniem jest określenie minimalnej, niezbędnej częstotliwości próbkowania, (o czym mówi twierdzenie Kotelnikowa - Shannona), przy, której jest możliwe pełne odtworzenie sygnału ciągłego na podstawie pobranych próbek. Problem ten jest przedmiotem rozważań w teorii sygnałów gdzie punktem wyjścia do analizy jest określenie charakterystyki widmowej, czyli Fourierowskiej sygnału, która podlega próbkowaniu. Zakładając, że przebieg 0x01 graphic
jest sygnałem ściśle dolnopasmowym o paśmie ograniczonym do pewnej wartości 0x01 graphic
uzyskuje się po próbkowaniu widmo sygnału, będące widmem oryginału powielonym nieskończenie wiele razy z przesunięciem na osi częstotliwości o wartości wielokrotności 0x01 graphic
. Odtworzenie przebiegu sygnału z ciągu próbek polega na wydzieleniu drogą idealnej filtracji głównej części widma położonej w otoczeniu środka układu współrzędnych. Jest to możliwe tylko wówczas, gdy poszczególne segmenty widma nie zachodzą na siebie, czyli wtedy twierdzenie Kotelnikowa - Shannona (czyli jest dwukrotnie większa od 0x01 graphic
). Interpretacja twierdzenia Kotelnikowa - Shannona mówi, że minimalna częstotliwość próbkowania określona jest częstotliwością Nequista.

a)0x01 graphic

b)0x01 graphic

c)0x01 graphic

Rys. Widma częstotliwościowe przy próbkowaniu: a - widmo sygnału próbkowanego; b - nakładanie się segmentów widma w przypadku, próbkowania niedomiarowego (0x01 graphic
); c - rozsunięcie segmentów widma w przypadku próbkowania nadmiarowego 0x01 graphic
.

Na przedstawionym rysunku b warunek Kotelnikowa - Shannona nie jest spełniony i segmenty widma zachodzą na siebie w takiej sytuacji przy odtwarzaniu sygnału przez wybieranie filtrem dolnopasmowym głównej części widma, zostaje również pobrana część informacji, ale związana z następnymi segmentami i odtworzony przebieg będzie zniekształcony w stosunku do oryginału. Zjawisko to nosi nazwę aliasingu i oznacza nieprawidłowe potraktowanie fragmentu następnego segmentu jako należącego do głównej części widma. Fragment segmentu o większej częstotliwości przybiera cechy części głównej widma, co niekiedy nazywane jest przeplataniem widm. Nakładania segmentów widma i wynikających z tego przekształceń można uniknąć stosując impulsy próbkujące o odpowiednio dużej częstotliwości lub ograniczając pasmo sygnału próbkowanego przez odpowiednią filtrację. W praktyce stosuje się częstotliwości próbkowania większe od minimalnej wartości wynikającej z twierdzenia Kotelnikowa - Shannona. Pozwala to uniknąć nakładania segmentów spowodowaną minimalną nieidealną filtracją i istnieniem szumów o wielkiej częstotliwości omawiane próbkowanie punktowe jest przypadkiem teoretycznym, gdyż w rzeczywistości impulsy próbkujące charakteryzują się pewnym czasem trwania i zachodzi tzw. próbkowanie rzeczywiste z aparaturą.

Procesy sygnałowe DSP.

DSP - Digital Signal Procesor

Zgodnie ze swoją nazwą są to cyfrowe procesory wyspecjalizowane w określonych zadaniach

(przetwarzanie różnego typu sygnałów: akustycznych, wizyjnych itp.) i przetwarzanie w czasie rzeczywistym z wysoką jakością co wykorzystuje się w technice wojskowej np. w hydrolokacji oraz w technice telefonii komórkowej w urządzeniach medycznych do przetwarzania sygnału mowy i obrazu. Procesy sygnałowe są stosowane w technice komputerowej do obróbki danych praktycznie we wszystkich płytach głównych, modemach i k. dźwiękowych. Istnieją rozwiązania k. wielofunkcyjne, których procesy po odpowiednim zaprogramowaniu przetwarzają dane audio lub modemowe. Wszystkie operacje wykonywane są na bazie zadanych algorytmów. Możliwe jest przeprogramowanie procesora sygnałowego w trakcie pracy co zwiększa jego elastyczność. Moc obliczeniowa procesora dorównuje a nawet przewyższa możliwości procesorów PC. Dzięki zastosowaniu układów DSP możliwe jest dowolne manipulowanie w czasie rzeczywistym sygnałami cyfrowymi. Przetworzony sygnał również w postaci cyfrowej pojawia się na wyjściu procesora skąd następnie zwykle przekazywany jest do przetwornika GA. Układ przetwarzania cyfrowego posiada wiele zalet w porównaniu z techniką analogową gdyż bez użycia lutownicy można zmienić jego funkcję. Wyniki przetwarzania w procesach DSP są powtarzalne, co w przypadkach analogowych jest nie do spełnienia z uwagi na rozrzut elementów. Nie występuje w procesorach DSP zjawisko starzenia się elementów, a realizowanie filtrów mają idealne charakterystyki transmitancji.

Ideą przetwarzania procesora DSP możemy przedstawić na poniższym rysunku:

0x01 graphic

W odstępach czasu określonych przez okres próbkowania T przetwornik analogowo-cyfrowy odczytuje wartości napięcia wejściowego. Wartość ta dostarczana jest do DSP a częstotliwość próbkowania sygnału równa się odwrotności i musi być co najmniej dwukrotnie większa od max. częstotliwości przetwarzanego sygnału.

Filtr dolnoprzepustowy na wejściu przetwornika usuwa wszystkie wyższe częstotliwości z widma analizowanego sygnału a zmierzona przez przetwornik wartości napięcia będzie obarczona błędem zależnym od rozdzielczości przetwornika a-c i nie wzrasta w trakcie cyfrowej obróbki. Właściwa obróbka sygnału zachodzi w procesorze DSP, który przetwarza sygnał w sposób zaprogramowany przez użytkownika. Działanie procesów możemy zmieniać w szerokim zakresie na drodze programowej. Na wyjściu procesora znajduje się przetwornik CA oraz filtr dolnoprzepustowy dla wygładzania skokowego przebiegu sygnału. W niektórych zastosowaniach nie jest konieczne umieszczanie przetwornika AC na wejściu procesora jeśli pracuje on np. jako generator sygnałowy. Architektura procesora DSP różni się od typowej dla mikroprocesora PC, który charakteryzuje się współdzieleniem pamięci przez dane i program. Magistrala procesów DSP pracuje z technologią Harward gdzie pamięć danych jest oddzielona od pamięci programów. Zaletą tego rozwiązania jest możliwość jednoczesnego dostępu do danych. Jednakże nie można dowolnie dzielić całej dostępnej pamięci na program i dane. Procesor DSP posiada kilka wewnętrznych szyn danych i adresowych. Specjalny układ logiczny steruje wewnątrz układu przełącznikami, które łączą odpowiednie magistrale wewnętrzne z zewnętrznymi.



Wyszukiwarka

Podobne podstrony:
K Pedagogika mi-dzykulturowa, Pedagogika ogólna APS 2013 - 2016, I ROK 2013 - 2014, II semestr, 2) K
Wykłady z filozofii - A. Drabarek, STUDIA, aps, I rok ZU - PC pedagogika terappeutyczna, filozofia
program z Podstaw przedsiębiorczości dla APS październik 2013, Studia - Pedagogika Specjalna, Notatk
psychologia Wykład 5, APS, Psychologia Ogólna
A Milerski kierunki pedagogiki wspołczesnej PC, APS Pedagogika specjalna, 2 semestr, Kierunki pedago
PEDEUTOLOGIA-wyklady(1), APS - studia magisterskie, Pedagogika przedszkolna - II stopnia, I rok I se
wyklad - dydaktyka2010, APS pedagogika specjalna, I rok, Dydaktyka, Dydaktyka - Stefan Mieszalski
pedagogika specjalna wyklady, APS różne, Pedagogika specjalna
PEDEUTOLOGIA test, APS - studia magisterskie, Pedagogika przedszkolna - II stopnia, I rok I semestr
Pedagogika specjalna.wyklady, APS, Pedagogika Specjalna
Wyklady dla APS, cz I, repetytorium
Napęd Elektryczny wykład
wykład5
Psychologia wykład 1 Stres i radzenie sobie z nim zjazd B
Wykład 04

więcej podobnych podstron