Al. Mickiewicza 30, 30-059 Kraków, Polska
tel. +48 12 6172852, fax +48 12 6342372
e-mail:
kantor@kt.agh.edu.pl
Podstawy
Telekomunikacji –
jednostki, kanały,
ograniczenia
mgr inż. Mirosław Kantor
Katedra Telekomunikacji AGH
© Mirosław Kantor
kantor@kt.agh.edu.pl
2
Plan wykładu
• Sygnały
• Decybele i jednostki pochodne
• Pasmo transmisyjne
• Przepływność a opóźnienie
• Teoria informacji Claude’a Shannona
• Prawo Moore’a
© Mirosław Kantor
kantor@kt.agh.edu.pl
3
Sygnały
•
Sygnały są fizyczną reprezentacją wiadomości
•
Są nośnikiem informacji przekazywanych na dowolne odległości
•
Powstają w nadajnikach (koderach)
•
Przesyłane są przez kanał telekomunikacyjny
© Mirosław Kantor
kantor@kt.agh.edu.pl
4
Własności sygnału
Każdy sygnał może być opisany przez jedną z następujących
wielkości:
czas trwania
, który może być ograniczony jakimś przedziałem
czasowym, formalnie przedstawionym jako różnica pomiędzy
końcem przedziału T2 i początkiem przedziału T1,
wartość chwilową sygnału
, mierzoną w jednostkach właściwych
dla danej wielkości,
funkcję opisującą przebieg sygnału
, przy czym sygnał może być
funkcją jednej zmiennej lub wielu zmiennych niezależnych,
specyficzne własności
opisujące naturę danego sygnału, takie jak:
amplituda, częstotliwość, energia, moc, okresowość, itp.
© Mirosław Kantor
kantor@kt.agh.edu.pl
5
Rodzaje sygnałów
Sygnał analogowy
• Jeżeli funkcja opisująca sygnał przyjmuje dowolne wartości, to mówimy
o sygnale analogowym.
• Prawie wszystkie sygnały występujące w otaczającym nas świecie są
analogowe.
• W opisie matematycznym sygnał analogowy przedstawia się poprzez
funkcje ciągłe (różniczkowalne).
Sygnał cyfrowy
• Kiedy sygnał może przyjmować tylko pewne z góry ustalone wartości, to
mówimy, że jest dyskretny.
• Jeżeli dopuszczalne wartości lub przedziały wartości uznajemy za
wartości liczbowe, to określa się go jako cyfrowy.
• Sygnał może w sobie nieść zakodowaną informację ale, aby to było
możliwe jego odbiorca i nadawca danych muszą razem tworzyć kanał
komunikacji.
© Mirosław Kantor
kantor@kt.agh.edu.pl
6
Częstotliwość próbkowania
•
Dyskretyzacja
sygnału ciągłego zazwyczaj wiąże się
z utratą
części informacji o nim.
•
Sygnał ciągły może być ponownie odtworzony z
sygnału
dyskretnego, jeśli był próbkowany z
częstotliwością co
najmniej dwa razy większą od
granicznej częstotliwości
swego widma.
•
Ta częstotliwość nazywa się
częstotliwością
Nyquista
.
© Mirosław Kantor
kantor@kt.agh.edu.pl
7
Moc sygnału – decybel [dB]
Stosunek
mocy
[dB]
1/100
-20
1/10
-10
1
0
10
10
100
20
1000
30
10000
40
10
7
70
Moc [dB] =
10 log
(P
wy
/P
we
)
© Mirosław Kantor
kantor@kt.agh.edu.pl
8
Dualizm decybela
• Określa moc względną
Porównanie mocy dwóch sygnałów
Moc [dB] = 10 log (P
wy
/P
we
)
• Określa moc bezwzględną
Przyrównanie mocy sygnału do wartości
odniesienia
Moc [dBW] = 10 log (P
wy
/1[W])
© Mirosław Kantor
kantor@kt.agh.edu.pl
9
milidecybel [dBm]
• Określa
TYLKO
moc bezwzględną
Przyrównanie mocy sygnału do wartości
odniesienia, ale mniejszej
Moc [dBm] = 10 log (P
wy
/1[mW])
• Jest jednostką mniejszą o 30 jednostek
P [dBW] = P [dBm]-30
© Mirosław Kantor
kantor@kt.agh.edu.pl
10
Inne jednostki
• W transmisji wideo:
U [dBmV] = 20 log (U
wy
/1[mV])
mierzone przy impedancji 75
• W transmisji sygnałów:
I [dBmA] = 20 log (I
wy
/1[mA])
• Do pomiaru mocy względnej sygnału
(archaiczne)
P [Np] = 10 ln (P
wy
/P
we
)
© Mirosław Kantor
kantor@kt.agh.edu.pl
11
Przedrostki, wielokrotności
10
3
Kilo
k
10
6
Mega
M
10
9
Giga
G
10
12
Tera
T
10
15
Peta
P
10
-3
Mili
m
10
-6
Mikro
10
-9
Nano
n
10
-12
Piko
p
10
-15
Femto
ƒ
© Mirosław Kantor
kantor@kt.agh.edu.pl
12
Kanał komunikacyjny
• Kanał komunikacji to połączenie pozwalające na komunikację pomiędzy dwoma
uczestnikami wymieniającymi się informacjami. Każdy przekaz jest wysyłany
przez nadawcę oraz odbierany przez adresata wiadomości.
• Kanał może pozwalać na komunikację jednostronną (ang. simplex),
dwustronną, ale tylko w jedną stronę na raz (ang. half duplex) lub na
równoczesny przekaz informacji w tym samym czasie w obu kierunkach (ang.
full duplex).
• W rzeczywistości kanał komunikacyjny jest zwykle jakimś fizycznym medium,
np. powietrzem, miedzianym przewodem czy siecią komputerową. Dużym
problemem jest pojawianie się przesłuchów. Jeżeli na wiele kanałów
komunikacji dzieli wspólne medium transmisyjne, to różni nadawcy mogą się
nawzajem zakłócać.
© Mirosław Kantor
kantor@kt.agh.edu.pl
13
Szerokość pasma
transmisyjnego
• Jest to różnica między częstotliwością
najwyższą a najniższą stosowaną w
danym celu
Szerokość pasma sygnału
Szerokość pasma kanału
• Oznacza dostępną granicę (przedział)
w jakiej mogą być transmitowane
sygnały np. w kanale
• Jednostką jest
herc [Hz]
© Mirosław Kantor
kantor@kt.agh.edu.pl
14
Pasmo telefoniczne
© Mirosław Kantor
kantor@kt.agh.edu.pl
15
Szerokość pasma
transmisyjnego
Przeważnie pasmo przenoszenia na charakterystyce
amplitudowo-częstotliwościowej A= f(f) przyjmuje
kształt dzwonu.
Pasmo przenoszenia jest to
taki zakres częstotliwości, w
którym tłumienie sygnału
jest nie większe niż -3 dB
(amplituda osiąga wtedy nie
mniej niż 70,7% wartości
sygnału maksymalnego).
© Mirosław Kantor
kantor@kt.agh.edu.pl
16
Przepływność, szybkość
generowania znaków
•
Przepływność
: ilość informacji przesyłanej w jednostce czasu
bit/s lub wielokrotności
bit – najmniejsza ilość informacji potrzebna do określenia, który z dwóch równie
prawdopodobnych stanów przyjął układ
•
Szybkość generowania znaków
: szybkość z jaką następują zmiany momentów
znamiennych dla sygnału (np. wartości napięcia)
bod (Baudot)
liczba zmian na sekundę
Przykład: 250 bodów oznacza, że w ciągu sekundy sygnał może zmienić się 250 razy. Jeżeli każda
zmiana sygnału niesie z sobą informację o 4 bitach, oznacza to, że w ciągu każdej sekundy
przesyłanych jest 1000 bitów.
gdy każda zmiana sygnału niesie ze sobą informację tylko o jednym bicie,
wtedy ilość bodów jest równa prędkości transmisji danych
© Mirosław Kantor
kantor@kt.agh.edu.pl
17
Kodowanie
• Aby przesłać jakieś dane konieczne jest ich
zakodowanie
w odpowiedniej
formie pasującej do danego medium.
• W teorii informacji
kod
, to wzajemnie jednoznaczne odwzorowanie, które
każdej wiadomości z alfabetu źródła, przyporządkowuje ciąg określonych
symboli kodowych.
•
Słowem kodowym
nazywamy ciąg symboli kodowych przyporządkowany do
konkretnej wiadomości.
• Odbiorca może zrozumieć otrzymaną informację dopiero po jej
zdekodowaniu
.
• Jeżeli odbiorców jest wielu, to bardzo ważne jest
właściwe adresowanie
każdego komunikatu dzięki czemu wiadomości docierają do określonych
odbiorców.
© Mirosław Kantor
kantor@kt.agh.edu.pl
18
Przykład kodu
kod Morse'a
kod Huffmana,
kod ASCII przypisujący 7 bitowej liczbie (128 kombinacji)
znaki pisarskie
kod binarny i kod Graya
kody liniowe
kod pocztowy
kod Q
Unicode
© Mirosław Kantor
kantor@kt.agh.edu.pl
19
Przepływność i szybkość
generowania znaków
Przepływność
(prędkość transmisji, prędkość przesyłu,
ang. bit rate) - częstość z jaką informacja (mierzona w
bitach) przepływa przez pewien (fizyczny lub
metaforyczny) punkt
K = V log
2
n
K – przepływność w bit/s
V – szybkość generowania znaków w bodach
n – liczba wartości sygnału
© Mirosław Kantor
kantor@kt.agh.edu.pl
20
Opóźnienie transmisji
sygnału
• Zależy od rodzaju medium transmisyjnego,
zastosowanych urządzeń (węzłów) oraz warunków
sieciowych
• Czas przejścia 1 bitu przez łącze = czas przebycia 1
km długość łącza w km
• Czas wprowadzania wiadomości do łącza = liczba
bitów w wiadomości / szybkość wprowadzania bitów
(przepływność urządzenia)
© Mirosław Kantor
kantor@kt.agh.edu.pl
21
Opóźnienie transmisji
sygnału
• Prędkość rozchodzenia się impulsu
elektromagnetycznego jest bliska prędkości światła
• Czas obróbki danych w węzłach jest podawany w
danych technicznych
• Czas natłoku związany jest z liczbą kolizji i
powtórzeń transmisji danych
• Awarie ?
© Mirosław Kantor
kantor@kt.agh.edu.pl
22
Jakość transmisji danych
• SNR:
Signal to Noise Ratio
(lub S/N) – stosunek mocy
sygnału do mocy szumów
• BER:
Bit Error Rate
– elementarna stopa błędów
określająca stosunek liczby bitów przesłanych z
błędami, do całkowitej liczby wysłanych bitów
© Mirosław Kantor
kantor@kt.agh.edu.pl
23
Claude Shannon – teoria
informacji
• Ilość informacji można mierzyć: ilość
informacji jest określona przez
prawdopodobieństwo, że spośród
wszystkich przesyłanych wiadomości,
konkretna wiadomość będzie wybrana
• Jednostka informacji: bit
(reprezentowana przez jeden z dwóch
równoprawdopodobnych stanów )
© Mirosław Kantor
kantor@kt.agh.edu.pl
24
Ilość informacji
• Ilość informacji związana jest ze
zdarzeniem
I
i
= - log
2
P
i
• Gdzie P
i
jest prawdopodobieństwem
zajścia zdarzenia
i
• Jeżeli P
i
= 0.5 to I
i
wynosi 1 bit
© Mirosław Kantor
kantor@kt.agh.edu.pl
25
Przykład zawartości
informacji
• Załóżmy, że na egzaminie wystawiano oceny
6, 5, 4, 3, 2
• Jaką ilość informacji w bitach otrzyma student,
który dowie się, że nie dostał oceny 2
• O ile więcej informacji potrzebuje student by
określić swoją ocenę ?
• Czyli potrzeba jeszcze: 2.32 – 0.32 = 2 bity
© Mirosław Kantor
kantor@kt.agh.edu.pl
26
Zawartość informacji
Prawdopodobieństw
o przyjęcia jednej
z wartości
Średnia zawartość informacji
osiąga maksimum dla p=0.5
czyli oba zdarzenia są
jednakowo prawdopodobne
© Mirosław Kantor
kantor@kt.agh.edu.pl
27
Granica pojemności kanału
(pojemność Shannona)
C=W•log
2
(1+ S/N)
C – przepływność strumienia w bit/s
W – szerokość pasma w Hz
S/N – stosunek mocy sygnału do mocy szumu
Przykład: S/N = 1000 (30dB)
W = 3100 Hz
C = ?
© Mirosław Kantor
kantor@kt.agh.edu.pl
28
Prawo Moore’a
Źródło: CANARIE Inc.
© Mirosław Kantor
kantor@kt.agh.edu.pl
29
Podsumowanie