Informacja podstawowe poj臋cia i teoria informacji
TECHNOLOGIA INFORMACYJNA
PODSTAWOWE POJCIA
茵 Informacja (艂ac. informatio - wyobra偶enie, poj臋cie)
to poj臋cie o wielu definicjach w r贸偶nych
dziedzinach.
茵 Zasadniczo mamy dwa podstawowe punkty
widzenia na informacj臋:
绅 Pierwszy, kt贸ry mo偶na nazwa膰 obiektywnym
(wywodz膮cym si臋 z nauk 艣cis艂ych), gdzie informacja
oznacza pewn膮 w艂asno艣膰 fizyczn膮 lub strukturaln膮
obiekt贸w
绅 Drugi, subiektywny (kogniwistyczny), gdzie informacj膮
jest to, co umys艂 jest w stanie przetworzy膰 i wykorzysta膰
do w艂asnych cel贸w.
INFORMACJA SUBIEKTYWNA
茵 W tym uj臋ciu informacja jest indywidualn膮 lub
grupow膮 interpretacj膮 otrzymanego ci膮gu
sygna艂贸w i musi zawsze opisywa膰 stan jakiej艣
dziedziny.
茵 Informacja jest przetwarzana przez nasz膮 wiedz臋 i
w wyniku daje inn膮 informacj臋 lub now膮 wiedz臋. W
zale偶no艣ci od tzw. indywidualnego systemu
konceptualizacji, ten sam ci膮g sygna艂贸w/znak贸w
mo偶e by膰 zr贸d艂em r贸偶nych informacji dla r贸偶nych
os贸b lub robot贸w.
INFORMACJA OBIEKTYWNA
茵 W teorii informacji Shannona, informacja jest
mierzona jako prawdopodobie艅stwo zaj艣cia
zdarzenia. Zdarzenia mniej prawdopodobne daj膮
wi臋cej informacji
茵 Podej艣cie obiektywne pomija znaczenie
(semantyk臋), jakie niesie komunikat, a skupia si臋
jedynie na jego sk艂adni (syntaktyce).
茵 Je偶eli danymi nazywamy wszystko to co jest
przetwarzane, to informacja jest danymi, ale nie
ka偶de dane s膮 informacj膮 (np. 5 a 5癈)
POSTA膯 PRZETWARZANEJ INFORMACJI
茵 Wsp贸艂czesne systemy informacyjne to >
przewa偶aj膮cej cz臋艣ci systemy cyfrowe operuj膮ce
na sygna艂ach cyfrowych b臋d膮cych dyskretn膮
reprezentacj膮 danych ze 艣wiata rzeczywistego -
determinant膮 tego trendu s膮 systemy
komputerowe w swojej naturze b臋d膮ce binarn膮
podgrup膮 system贸w cyfrowych.
茵 Reprezentacja informacji ograniczona jest tu do
zaledwie dw贸ch stan贸w znamiennych umownie
oznaczanych warto艣ciami 0 i 1 - pojedynczy
symbol (bit) pozwala na reprezentowanie
informacji typu Prawda Fa艂sz, Tak - Nie itp.
POSTA膯 ANALOGOWA A CYFROWA
茵 Przebieg napi臋cia jest sygna艂em ci膮g艂ym, poniewa偶
mo偶e przyjmowa膰 dowoln膮 warto艣膰 z okre艣lonego
zakresu zmienno艣ci. Tak prosta definicja sygna艂u
analogowego jest w zupe艂no艣ci wystarczaj膮ca dla
potrzeb analizy system贸w przetwarzania danych
茵 Urz膮dzenia transmisji danych wykorzystuj膮 sygna艂y
cyfrowe, kt贸re mog膮 znajdowa膰 si臋 w jednym z
mo偶liwych stan贸w znamiennych ze sko艅czonego
zbioru stan贸w.
茵 Szczeg贸lnym przypadkiem sygna艂u cyfrowego jest
sygna艂 binarny przyjmuj膮cy tylko dwie warto艣ci (np.
poziomy napi臋cia 0 i 5V)
POSTA膯 ANALOGOWA A CYFROWA
茵 Poni偶szy rysunek przedstawia sygna艂 cyfrowy, kt贸ry
przyjmuje jeden z dw贸ch stan贸w +5 V lub 0 V, jest to
zatem przyk艂ad sygna艂u binarnego
茵 Sygna艂 sk艂ada si臋 z binarnych element贸w, nazywanych
bitami, o czasie trwania r贸wnym T sekund (elementowa
podstawa czasu). Je偶eli napi臋cie +5 V reprezentuje stan
binarny 1", a napi臋cie 0 V stan binarny 0" (dodatnia
konwencja logiczna), to sygna艂 cyfrowy z rysunku
odpowiada sekwencji binarnej 1011".
BUDOWA BAJTU
茵 Pojedynczy symbol binarny mo偶e odpowiada膰 21=2
stanom, a zatem informacja, kt贸r膮 przenosi to nic
innego jak w艂膮czony/wy艂膮czony , prawda/fa艂sz
itp.
茵 Je偶eli chcemy przekazywa膰 wi臋ksz膮 ilo艣膰
informacji u偶ytecznej, grupujemy pojedyncze bity w
grupy zawieraj膮ce osiem bit贸w, nazywane bajtami
茵 Przyporz膮dkowanie ka偶demu bajtowi, a wi臋c
ka偶dej sekwencji o艣miu bit贸w, jednego znaku
pozwala przekazywa膰 u偶yteczne informacje.
Przyporz膮dkowanie to jest znane pod nazw膮
kodowania
BUDOWA BAJTU
茵 256 kombinacji o艣miu bit贸w w zupe艂no艣ci wystarcza do
oznaczenia wszystkich klawiszy w klawiaturze
komputerowej
茵 Podobnie jak w notacji dziesi臋tnej po艂o偶enie
poszczeg贸lnych bit贸w w liczbie dw贸jkowej ma istotne
znaczenie: bit o numerze 0 generuje wk艂ad 20=1 w
warto艣膰 liczby dw贸jkowej, bit 3 generuje wk艂ad 23=8, itd.
BUDOWA BAJTU
茵 Dla powy偶szego przyk艂adu mamy:
绅 Pomijamy wszystkie bity o warto艣ci 0 (bit
0,2,3,4,5,6)
绅 Dla pozosta艂ych realizujemy sum臋 ich warto艣ci": bit
o numerze 1 generuje wk艂ad 21 = 2 w warto艣膰 liczby
dw贸jkowej, bit 7 generuje wk艂ad 27 =128.
绅 Suma warto艣ci to 2 + 128 = 130 - czyli sekwencja
1000010 w systemie dw贸jkowym jest r贸wnowa偶na
liczbie 130 w systemie dziesi臋tnym
BUDOWA BAJTU
茵 W wielu zastosowaniach praktycznych
wykorzystywane s膮 grupy 4 bit贸w w szczeg贸lno艣ci
w szesnastkowym systemie liczbowym
(oznaczanym hex od hexadecimal) z podstaw膮
rozwini臋cia r贸wn膮 16
茵 W takim uj臋ciu bity 7..4 nazywa si臋 g贸rnym
p贸艂bajtem, natomiast bity 3..0 dolnym p贸艂bajtem
茵 W notacji szesnastkowej sekwencj臋 1000001
interpretujemy jako
1000 0010 czyli 82 hex ( = 130 dec)
茵 W systemach komputerowych o Unix'owych
korzeniach" cz臋sto wykorzystywany jest system
贸semkowy (octalny, oznaczany skr贸tem oct)
KODY ZNAKOWE
茵 Kody znakowe s艂u偶膮 do kodowania zbioru znak贸w lub
symboli, na przyk艂ad znak贸w wyst臋puj膮cych na
klawiaturze komputerowej
茵 Efektywna komunikacja nie jest mo偶liwa, je偶eli
wymieniaj膮ce informacj臋 urz膮dzenia nie b臋d膮
interpretowa膰 kombinacji kodowych dok艂adnie w ten
sam spos贸b
茵 ASCII jest skr贸tem od American Standard Code for
Information Interchange - Standardowy Kod
Ameryka艅ski dla Wymiany Informacji.
茵 Kod ASCII zosta艂 opracowany przez ANSI (ang. American
National Standards Institute -Ameryka艅ski Instytut
Normalizacji), a z up艂ywem czasu uzyska艂 powszechn膮
akceptacj臋 na aronie mi臋dzynarodowej.
KODY ZNAKOWE
茵 Kod ASCII wykorzystuje 7-bitowe kombinacje kodowe do
reprezentacji nast臋puj膮cych znak贸w:
Litery du偶e ABCD...Z
Litery ma艂e abcd...z
Cyfry 0123...9
Znaki interpunkcji ,.!:;?
Znaki specjalne ESC CTRL STX ETX XON XOFF itp.
茵 Dosy膰 cz臋sto kod ASCII jest traktowany jako podstawa
do kod贸w o艣miobitowych
茵 W komputerach IBM PC dodatkowych 128 kombinacji
bit贸w s艂u偶y do kodowania znak贸w graficznych oraz
znak贸w narodowych
KODOWANIE yR脫DAOWE
茵 Zadaniem nadajnika jest przekszta艂cenie danych
zr贸d艂owych do postaci przystosowanej do transmisji w
kanale telekomunikacyjnym
茵 Celem operacji jest maksymalizacja szybko艣ci transmisji
danych, a to nie zawsze jest r贸wnoznaczne z szybko艣ci膮
transmisji informacji
茵 Je偶eli informacje generowane przez zr贸d艂o zawieraj膮
nadmiar, odpowiednia kompresja danych mo偶e skr贸ci膰
przekazywane wiadomo艣ci
茵 Prostym przyk艂adem jest transmisja pliku tekstowego
pomi臋dzy dwoma komputerami, gdzie modem zr贸d艂owy
usuwa nadmiarowe bajty danych jeszcze przed ich
transmisj膮.
KODOWANIE yR脫DAOWE
茵 Za艂贸偶my 偶e przes艂any plik zawiera ci膮g znak贸w
茵 NUMER RACHUNKU~~~~~~~SALDO,
gdzie ~ oznacza znak spacji.
茵 Nadajnik przekazuje t臋 sekwencj臋 w postaci
NUMER RACHUNKU$7SALDO,
gdzie znak $ jest znakiem usuwania spacji.
茵 Odbiornik po napotkaniu symbolu specjalnego $
wykonuje operacj臋 odwrotn膮 do nadajnika
odtwarzaj膮c w ten spos贸b sekwencj臋 pierwotn膮 (w
tym przypadku dodaje 7 spacji)
KODOWANIE yR脫DAOWE ALFABET MORSE A
茵 Wynaleziony w 1830 r. przez ameryka艅skiego
malarza-portrecist臋 Samuela F.B. Morse'a
茵 Pierwszy pr贸bny przekaz odby艂 si臋 w 1844 r
pomi臋dzy miastami Washington a Baltimore
茵 W systemie tym poszczeg贸lnym symbolom
przypisane s膮 okre艣lone sekwencje kropek i
kresek.
茵 Czas trwania kropki traktuje si臋 jako jednostk臋
czasu w strukturze sygna艂u. Kreska odpowiada
trzem kropkom. Odst臋p pomi臋dzy znakami to 3
kropki, s艂owa oddziela si臋 przerw膮 o d艂ugo艣ci 3
kresek
ALFABET MORSE A
DETEKCJA BAD脫W - PARZYSTO艢膯
茵 Parzysto艣膰 umo偶liwia wykrywanie pewnych b艂臋d贸w, kt贸re
mog膮 pojawi膰 si臋 w wiadomo艣ci przekazywanej od
nadajnika do odbiornika. W celu skorygowania b艂臋du
zniekszta艂cony znak musi by膰 przes艂any jeszcze raz
茵 Pojedynczy bit parzysto艣ci jest wystarczaj膮cy do detekcji
b艂臋d贸w w wiadomo艣ciach o d艂ugo艣ci nie przekraczaj膮cej
ok. 12 bit贸w
茵 Wszystkie schematy wykrywania i korekcji b艂臋d贸w
opieraj膮 si臋 na dodawaniu do przekazywanej
wiadomo艣ci redundancji umo偶liwiaj膮cej po stronie
odbiorczej rozr贸偶nienie wiadomo艣ci uszkodzonych od
poprawnych
DETEKCJA BAD脫W - PARZYSTO艢膯
茵 Bez uzupe艂niaj膮cej redundancji ka偶da wiadomo艣膰 musi
zosta膰 uznana za poprawn膮 gdy偶 nie ma sposobu na
rozr贸偶nienie wiadomo艣ci uszkodzonych od poprawnych
茵 Rozwa偶my dla przyk艂adu zdanie pits mia艂 ogon , kt贸re
bez trudu odczytamy jako pies mia艂 ogon . J臋zyk polski
zawiera redundancj臋, co umo偶liwia wykrywanie
przek艂ama艅 oraz ich korekcj臋
茵 Je偶eli jednak pits mia艂 ogon" nie jest zdaniem, a tylko
ci膮giem przypadkowych kombinacji dowolnych czterech
liter (tzn. usun臋li艣my redundancj臋), nie istnieje spos贸b
stwierdzenia, czy kombinacje s膮 poprawne czy te偶 nie.
DETEKCJA BAD脫W - PARZYSTO艢膯
茵 Kontrola parzysto艣ci polega na dodaniu do
przekazywanej wiadomo艣ci tzw. bitu parzysto艣ci w taki
spos贸b, 偶e przekazywana wiadomo艣膰 zawiera albo
parzyst膮, albo nieparzyst膮 liczb臋 jedynek, w zale偶no艣ci
od tego, czy jest stosowana normalna czy negatywna
kontrola parzysto艣ci.
茵 Kontrola parzysto艣ci umo偶liwia detekcj臋 dowolnej
nieparzystej liczby b艂臋d贸w
茵 Kontrola parzysto艣ci dodaje redundancj臋 wystarczaj膮c膮
do wykrycia przypadku przek艂amania informacji nie daje
natomiast mo偶liwo艣ci korekty wykrytego b艂臋du w inny
spos贸b ni偶 poprzez ponowne przes艂anie zniekszta艂conej
informacji
DETEKCJA BAD脫W - CIEKAWOSTKA
茵 Prosz臋 szybko przeczyta膰 poni偶sze akapity:
茵 Zdognie z nanjwoymszi baniadmai
perzporawdzomyni na bytyrijskch uweniretasytch
nie ma zenacznia kojnolesc Itier przy zpiasie
dengao solwa.
茵 Nwajzanszyeim jest, aby prieszwa i otatsnia Iteria
by艂a na siwom mijsecu, ptzosa艂oe mgo膮 by膰 w
niaedzi艂e i w dszalym c膮igu nie pwinono to
sawrzta膰 polbem贸rw ze zozumierniem tksetu.
茵 Dzijee sie tak datgelo, ze nie czamyty wyszistkch
Iteir w so艂wie, ale c艂ae so艂wa od razu.
TEORIA INFORMACJI
茵 Teoria informacji dostarcza odpowiedzi na
fundamentalne pytanie in偶ynierii informacyjnej:
czym jest informacja?
茵 Pierwsz膮 zasad膮 jaka funkcjonuje w teorii
informacji jest fakt, i偶 teoria informacji nie
interesuje si臋 wag膮 czy znaczeniem
przypisywanym przez nas do wiadomo艣ci (zatem
informacj臋 wyl膮dowali kosmici traktujemy na
r贸wni z przypali艂e艣 grzank臋 )
茵 Drug膮 istotn膮 prawid艂owo艣ci膮 jest zasada i偶
zaskakuj膮ca nas wiadomo艣膰 niesie ze sob膮 du偶y
艂adunek informacyjny, wiadomo艣膰 oczekiwana
dostarcza nam niewiele informacji.
TEORIA INFORMACJI
茵 Zawarto艣膰 informacyjna wiadomo艣ci (I) w teorii
informacji jest wielko艣ci膮 nieujemn膮, I >= 0.
茵 Korzystaj膮c z rachunku prawdopodobie艅stwa
mo偶emy przypisa膰 wiadomo艣ci oczekiwanej du偶e
prawdopodobie艅stwo odbioru (wiadomo艣膰
prawdopodobna), natomiast wiadomo艣ci
zaskakuj膮cej ma艂e prawdopodobie艅stwo
(wiadomo艣膰 nieprawdopodobna)
茵 Prawdopodobie艅stwo (P) jest miar膮 przypisywan膮
zdarzeniu, przyjmuj膮c膮 warto艣ci z zakresu
1 e" P e" O, przy czym P = 0 oznacza zdarzenie
nieprawdopodobne, przy P = 1 zdarzenie jest
pewne
TEORIA INFORMACJI
茵 Wyst膮pienie zdarzenia pewnego nie powie nam
niczego nowego, a wi臋c je偶eli P = 1, to r贸wnie偶
I = 0. Wyst膮pienie zdarzenie niemo偶liwego niesie
niesko艅czon膮 ilo艣膰 informacji, tzn. przy
P = 0 mamy tak偶e I = ".
茵 Zawarto艣膰 informacyjna jest mierzona w bitach, a
zwi膮zek pomi臋dzy zawarto艣ci膮 informacyjn膮 (I)
wiadomo艣ci, a prawdopodobie艅stwem (P) jego
nadania wyra偶a zale偶no艣膰:
1
I log2
P
TEORIA INFORMACJI
茵 Rozwa偶my do艣wiadczenie o dw贸ch mo偶liwych
wynikach A oraz B, pojawiaj膮cych si臋 z
jednakowym prawdopodobie艅stwem, odpowiednio
PA oraz PB. St膮d:
茵 PA + PB = 1, oraz PA = PB = 0,5.
茵 Zawarto艣膰 informacyjna wiadomo艣ci podaj膮cej
otrzymany wynik do艣wiadczenia wynosi
I = Iog2(1/0,5) = 1 bit, zatem taka wiadomo艣膰
mo偶e by膰 przekazana za pomoc膮 jednego bitu
茵 Je偶eli prawdopodobie艅stwa zdarze艅 nie s膮
jednakowe, ilo艣膰 informacji zawartej w
pojedynczym znaku binarnym jest mniejsza od
jednego bitu
TEORIA INFORMACJI
茵 艢rednia zawarto艣膰 informacyjna wiadomo艣ci
jest znana pod nazw膮 entropii (H).
茵 Rozwa偶my ponownie dwa zdarzenia A oraz B, o
niekoniecznie jednakowych
prawdopodobie艅stwach PA oraz PB ich
wyst膮pienia:
1 1
H PA log2 PB log2
PA PB
茵 St膮d poniewa偶 PB = 1 - PA otrzymujemy:
1 1
H PA log2 1 PA log2
PA 1 PA
TEORIA INFORMACJI
茵 Na poni偶szym rysunku przedstawiono wykres
艣redniej zawarto艣ci informacyjnej (H)
przekazywanej w pojedynczym znaku binarnym w
funkcji prawdopodobie艅stwa PA, przy za艂o偶eniu
bezpami臋ciowo艣ci zr贸d艂a:
TEORIA INFORMACJI
茵 W przypadku n jednakowo prawdopodobnych
wiadomo艣ci prawdopodobie艅stwo ka偶dej z nich
wynosi P = 1/n, a zawarto艣膰 informacyjna przypisana
do ka偶dej wiadomo艣ci jest r贸wna
I = log2(n) bit贸w
茵 Je偶eli wiadomo艣ci nie s膮 jednakowo prawdopodobne,
zawarto艣膰 informacyjna przypisana poszczeg贸lnym
wiadomo艣ciom jest r贸wna:
1
Ii log2
Pi
茵 Oczekiwana ilo艣膰 informacji przekazywanej przez
wiadomo艣膰 wynosi:
n n
1
.
H PiIi Pi log2 bit贸w
Pi
i 1 i 1
KODOWANIE HUFFMANA
茵 Jest jednym z mo偶liwych zastosowa艅 teorii
informacji, maj膮cym na celu powi臋kszenie
szybko艣ci transmisji informacji poprzez eliminacj臋
redundancji w przekazywanej informacji.
茵 Rozpatrzmy przyk艂ad:
KODOWANIE HUFFMANA TWORZENIE DRZEWA
茵 W ka偶dym kroku procedury kodowania Huffmana
zmniejszamy ilo艣膰 uwzgl臋dnianych jeszcze symboli
o jeden poprzez po艂膮czenie dw贸ch symboli o
najmniejszych prawdopodobie艅stwach.
茵 Dla danych z rysunku w pierwszym kroku nale偶y
po艂膮czy膰 symbole E oraz F w symbol z艂o偶ony
E lub F o prawdopodobie艅stwie wyst膮pienia 0,2
茵 Symbole z艂o偶one nale偶y ustawia膰 w kolejnych
kolumnach (kolejne etapy) mo偶liwie jak najwy偶ej.
茵 Procedur臋 t臋 powtarzamy tak d艂ugo, a偶 w kolumnie
pozostan膮 dok艂adnie dwa symbole.
KODOWANIE HUFFMANA TWPRZENIE
SAOWNIKA NA PODSTAWIE DRZEWA
茵 W utworzonym drzewie ka偶de dwa 艂膮czone
symbole oznaczamy arbitralnie 1 lub O
(ostatnie elementy ka偶dej kolumny).
茵 Po zako艅czeniu procedury nale偶y z otrzymanego
diagramu odczyta膰 s艂owa kodowe przypisane do
poszczeg贸lnych symboli poruszaj膮c si臋 od
korzenia do li艣ci utworzonego drzewa
茵 Przyk艂adowo symbolowi A zostaje
przyporz膮dkowane s艂owo kodowe 01
茵 Utworzony w ten spos贸b s艂ownik ma dodatkow膮
cech臋: 偶aden z jego symboli kodowych nie jest
prefiksem kt贸regokolwiek innego symbolu
Wyszukiwarka
Podobne podstrony:
instrukcja prezentacja2Prezentacja MG 05 2012Prezentacja ekonomia instytucjonalna na MoodleSekrety skutecznych prezentacji multimedialnych413 (B2007) Kapita艂 w艂asny wycena i prezentacja w bilansie cz II18 Prezentacjaprezentacja z budoAntygeny i Imunogennosc PREZENTACJAEtapy tworzenia prezentacjiGeneza polityki sp贸jno艣ci Unii Europejskiej prezentacjaPrezentacja VI dziaPrezent urodzinowy dla Hitlerawi臋cej podobnych podstron