Stanisław Wrycza
1.
Systemy liczbowe
2.
Jednostki informacji
3.
Dane
4.
Informacja
5.
System
Aktualnie znamy trzy podstawowe typy
systemów liczbowych:
System jedynkowy;
Systemy addytywne;
Systemy pozycyjne.
System jedynkowy został wypracowany na etapie neolitu.
W systemie tym występuje tylko jedna cyfra (oznaczana „1”)
a kolejne liczby tworzy się przez wielokrotne powtórzenie tej
cyfry. Najprostsza koncepcja komputera opracowana przez A.
Turinga zwana „maszyną Turinga” „pracowała” właśnie w
systemie jedynkowym. A. Turing dowiódł, że dysponując
taśmami o nieskończonej długości poprzez ich cięcie i
sklejanie możemy wykonać dowolną operację arytmetyczną.
Tak więc liczba „11111” reprezentuje znaną nam z systemu
dziesiętnego cyfrę „5”.
Najbardziej znanymi systemami
addytywnymi były:
system sześćdziesiętny – używany od około
1750 r. p.n.e. w Babilonie a opracowany przez
Sumerów,
system rzymski - używany od ok. 500 r.
p.n.e.
Współcześnie pozostałością systemu sześćdziesiętnego są
miary czasu – godzina obejmująca sześćdziesiąt minut i
minuta obejmująca sześćdziesiąt sekund.
Podstawą systemu rzymskiego jest liczba dziesięć, mająca
najprawdopodobniej związek z faktem posiadania dziesięciu
palców przez człowieka. W systemie tym występuje 7 liter
reprezentujących liczby (np. I=1, V=5, X=10) a liczby
zapisuje się zestawiając litery reprezentujące liczby od
największej do najmniejszej. Zapis „MMVIII” oznacza liczbę
„2008”.
Najbardziej przejrzysty zapis liczb oferują systemy
pozycyjne.
W systemie pozycyjnym najbardziej istotnym jest określenie
podstawy systemu liczbowego oraz symboli cyfr.
Najważniejszym osiągnięciem systemów pozycyjnych było
wypracowanie symbolu 0 (zero) reprezentującego zbiór
pusty dla mnożnika występującego przy określonej potędze
podstawy systemu liczbowego.
Dowolną liczbę w dowolnym pozycyjnym systemie
liczbowym można zapisać jako:
L = C
n
* p
n
+ C
n-1
* p
n-1
+…….+C
1
+ p
1
+ C
0
* p
0
gdzie:
L- dowolna liczba;
C – cyfra systemu liczbowego;
p- podstawa systemu liczbowego
0-n – potęga podstawy systemu liczbowego
.
1 2 3 4 5 =
1*10
4
+
2*10
3
+
3*10
2
+
4*10
1
+
5*10
0
Najpopularniejszymi pozycyjnymi systemami liczbowymi są (jako
przykłady podano te same liczby w różnych systemach):
System dwójkowy zwany również binarnym (występują tylko dwie
cyfry: 0 i 1); przykładowe liczby: 1011, 101101, 11111111;
System ósemkowy zwany oktalnym (występuje osiem cyfr: 0, 1, 2,
3, 4, 5, 6 ,7); przykładowe liczby: 13, 55, 377;
System dziesiętny zwany decymalnym (występują powszechnie
znane i używane cyfry: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9); przykładowe
liczby: 11, 45, 255;
System szesnastkowy zwany hexadecymalnym (występuje
szesnaście następujących cyfr: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D,
E, F); przykładowe liczby: B, 2D, FF.
65536
10
= 10000
16
= 200000
8
=
10000000000000000
2
Dla czystości zapisu (i uniknięcia pomyłek
interpretacyjnych) w notacji liczby jako subskrypt na
końcu liczby podaje się podstawę systemu
liczbowego.
Pomiędzy różnymi systemami liczbowymi można
przeprowadzać konwersje.
Ponieważ najbardziej popularne systemy liczbowe
to dziesiętny i binarny poniżej przedstawiono
wzajemne konwersje między systemami.
1.
Systemy liczbowe
2.
Jednostki informacji
3.
Dane
4.
Informacja
5.
System
Najmniejszą jednostką danych jest bit (ang.
binary digit) zwyczajowo oznaczany literą b.
Bitem nazywa się najmniejszą jednostkę danych
potrzebną do określenia, który z dwóch równie
prawdopodobnych stanów przyjął system. Bit
interpretuje się również jako elementarną
jednostkę danych komputerowych reprezentowaną
w systemie binarnym jako „0” lub „1”.
A zatem bit jest cyfrą binarną, która może
przyjąć tylko dwie wartości: 0 (zero) lub 1 (jeden).
Często spotykanymi innymi interpretacjami bitu
jest (odpowiednio): fałsz-prawda, nie-tak.
Upowszechnienie binarnego systemu liczbowego
związane jest głównie z uproszczeniem konstrukcji
komputerów:
0 – brak napięcia (ewentualnie niskie napięcie),
1 – wysokie napięcie.
LP
Pojęcie
Przykład
1 Bity
Zera i jedynki.
2 Bajty
(znaki)
Litery i cyfry.
3 Dane
Teksty i liczby w postaci ciągów znaków – zapisy zdarzeń
i transakcji.
4 Informacje
Dokument opisujący sprzedaż spodni w kolorze zielonym
w województwie pomorskim i śląskim.
5 Wiedza
Spodnie w kolorze zielonym dobrze sprzedają się w
województwie pomorskim a w województwie śląskim
sprzedaż jest bliska zeru.
6 Mądrość
Zapasy zielonych spodni z magazynów w województwie
śląskim przewozimy do magazynów w województwie
pomorskim.
Kombinację ośmiu bitów przyjęło się nazywać bajtem, którego
oznaczeniem jest B.
Przed wprowadzeniem pojęcia bajt na określenie jednostki danych
używano terminu słowo maszynowe. Słowo maszynowe miało
różne długości, np. produkowane w Polsce komputery serii Odra
pracowały na słowach maszynowych równych 24 bitom.
Używane współcześnie komputery w zależności od tzw. architektury
pracują na słowach maszynowych o długości 16 bitów (słowo
dwubajtowe), 32 bitów (słowo czterobajtowe) lub 64 bitów (słowo
ośmiobajtowe).
W życiu codziennym podstawą tworzenia wszelkich krotności w
systemach miar jest system SI. Układ SI jest międzynarodowym
układem jednostek miar (zatwierdzonym w 1960 roku).
Używa się w tym systemie przedrostki „kilo” (10
3
= 1 000
jednostek), „mega” (10
6
= 1 000 000 jednostek), „giga” (10
9
=
1 000 000 000 jednostek), które w dużym przybliżeniu
odpowiadają zwyczajowo przyjętym w informatyce oznaczeniom dla
wielokrotności bajtów (np. kilo = 2
10
= 1024 bajty
Przykładowe wielokrotności wraz z nazewnictwem i pojemnościami
podano w Tablicy 2.2.
Przykładowo dysk, którego pojemność producent deklaruje jako 250 GB, system operacyjny będzie raportował jako pojemność ok. 231,5 GB.
LP
Nazwa
przedrostka
i (symbol)
Znaczenie
w
układzie
dwójkowym
1
Kilo (K)
2
10
= 1024
1
2
Mega (M)
2
20
= 1024
2
3
Giga (G)
2
30
= 1024
3
4
Tera (T)
2
40
= 1024
4
5
Peta (P)
2
50
= 1024
5
6
Eksa (E)
2
60
= 1024
6
7
Zetta (Z)
2
70
= 1024
7
8
Jotta (J)
2
80
= 1024
8
Najpowszechniej używanym kodem
jest aktualnie kod ASCII. Przykładowe
wartości liczb i znaków kodowanych
dziesiętnie, heksadecymalnie i
binarnie przedstawiono poniżej
Znak
Warto
ść
dziesiętna
Warto
ść HEX
Wartości
binarne
Null
0
00
00000000
Start Of Heading
(SOH)
1
01
00000001
Spacja
32
20
00100000
0 (Zero)
48
30
00110000
9
57
39
00111001
;
58
3A
00111010
@
64
40
01000000
A
65
41
01000001
Z
90
5A
01011010
a
97
61
01100001
z
122
7A
01111010
Delete (DEL)
127
01111111
Tak więc każdy tekst może być przedstawiony jako ciąg
wyrazów, który składa się z ciągu znaków, z których każdy
przedstawiony jest jako ciąg zer i jedynek.
Ponieważ znaków pisarskich jest bardzo wiele (szczególnie
chodzi tu o języki ideograficzne takie jak chiński lub
koreański, gdzie znaków pisarskich są tysiące) systemy
kodowania muszą być rozbudowywane o kody dwubajtowe
(np. kodowanie UTF 16 – 65 536 kombinacji) lub
czterobajtowe (kodowanie UTF 32 – ponad 4 miliardy
kombinacji), które rozwiązują problemy związane z
reprezentacją różnych znaków w językach
narodowych.
Skrót UTF oznacza Unicode Transformation Format.
1.
Systemy liczbowe
2.
Jednostki informacji
3.
Dane
4.
Informacja
5.
System
Dane stanowią fakty, zdarzenia,
transakcje, które zostały
zapisane. Stanowią one surowy
materiał wejściowy, z którego
produkowane są informacje
Przykładowymi danymi będą więc zapisy o
dacie sprzedaży, wartości faktury, podatku do
zapłacenia przez pracownika, zaliczce na
podróż służbową.
Dane mogą pochodzić z różnych źródeł - zewnętrznych
lub wewnętrznych. Jednakże wymagane jest istotne
rozróżnienie między źródłami.
O ile dane zewnętrzne (z otoczenia) docierają w konkretnej
formie i postaci (np. stan gotówki na koncie bankowym) to
dane wewnętrzne wymagają systemu pomiaru i zapisu
danych. Mogą one być produkowane automatycznie (np.
w procesie produkcyjnym na taśmie) albo wymagają
wdrożenia specjalnych procedur liczenia lub pomiaru, a
wyniki mogą być zapisane
Typowymi formami przetwarzania danych mogą
być np.: klasyfikowanie danych, operacje
arytmetyczne na danych, agregowanie danych,
selekcjonowanie lub sortowanie (porządkowanie
rosnąco lub malejąco).
Dopiero wykonanie jednej lub kilku z
wymienionych operacji przetwarzania danych
pozwala uzyskać informacje, które poszerzą nasz
sposób rozumienia i interpretacji rzeczywistości.
1.
Systemy liczbowe
2.
Jednostki informacji
3.
Dane
4.
Informacja
5.
System
Informacja to treść
komunikatu przekazywanego
za pomocą danych.
A zatem informacja stanowi ciąg przetworzonych
danych, użytecznych dla odbiorcy.
Wyróżnia się trzy rodzaje teorii informacji:
ilościową,
jakościową,
wartościową,
pragmatyczną,
semantyczną.
Zasadnicze znaczenie ma ilościowa teoria
informacji opracowana przez C. E. Shannona.
Syntetyczne ujęcie jego teorii przedstawia
poniższy rysunek . W kontekście tej teorii, w
modelu nazwanym przez Shannona modelem
komunikacji informacja jest przesyłana w
spójnym systemie komunikacyjnym
.
•
.
Występują w nim:
komunikat przekazywany w układzie - źródło
(nadawca) generuje informacje,
koder koduje w postaci danych czyli ciągu
znaków,
następnie jest on przesyłany kanałem
komunikacyjnym (medium transmisyjnym),
dekodowana przez dekoder i przekazywana
odbiorcy komunikatu, którym jest osoba lub
urządzenie.
Poprawny przekaz komunikatu może być
zniekształcony przez szum informacyjny
wytwarzany przez źródło zakłóceń.
Kodowanie
? ró d ?o
Kana ?
Dekodowa
nie
Odbiorca
Szum
Mened ? er
Internet
czytanie
Pracownik
Kodowanie
Ź
ró d
ł
o
Kana ł
Dekodowa
nie
Odbiorca
Szum
Menedżer
Pisanie
Internet
Czytanie
Pracownik
Kluczowym terminem w ilościowej teorii informacji
jest pojęcie entropii:
Entropia to średnia ilość informacji przypadająca
na wiadomość elementarną, znak, symbolizujący
zajście zdarzenia z jakiegoś zbioru.
Entropia jest więc naturalną miarą nieokreśloności
danego zdarzenia. Stanami entropii mogą być
pewność, ryzyko i nieokreśloność zajścia danego
zdarzenia.
Entropię można opisać wzorem:
gdzie:
H- entropia;
P(i) –prawdopodobieństwo wystąpienia danego
zdarzenia i (np. wystąpienia i-tego znaku).
A zatem entropia jest określeniem niepewności wystąpienia
danego zdarzenia. Jeśli prawdopodobieństwo wystąpienia
określonego zdarzenia jest równe 1 to otrzymana ilość
informacji wynosi 0, oznacza to bowiem pewność
wystąpienia tego zdarzenia.
Z kolei, im niższe prawdopodobieństwo wystąpienia
określonego zdarzenia tym większą otrzymuje się ilość
informacji. Taką interpretację entropii potwierdza analiza
wyników gier losowych, czy skutków inwestowania na
giełdzie w akcje lub fundusze emerytalne.
Podstawa logarytmu r we wzorze entropii może przybierać
różne wartości. W zależności od wybranej wartości podstawy
logarytmu mamy do czynienia z różnymi miarami entropii:
jeżeli podstawa logarytmu r = 2 to miarą entropii jest bit,
jeżeli r = e (podstawa logarytmu naturalnego), miarą
entropii jest nat (nit),
dla r = 10 miarą entropii jest hartley.
A zatem: 1 hartley = 3,321928095 bitów = 2,302585093
natów (nitów).
Pozostałe wymienione teorie informacji –
jakościowa,
wartościowa,
pragmatyczna i
semantyczna
- są rzadziej przywoływane w teorii i
aplikacjach informatyki ekonomicznej.
Wartościowa teoria informacji, w której
dokonuje się oceny informacji przez okrślenie jej
wartości, dla podejmowanej decyzji wybranej ze
zbioru dopuszczalnych decyzji, przy
uwzględnieniu występujących uwarunkowań;
wartość informacji uzależniona jest od stanu
systemu w określonym momencie;
teoria ta pozwala na maksymalizację korzyści
związanych z podejmowanymi decyzjami;
miarą wartości informacji dla danej sytuacji
decyzyjnej jest przyrost korzyści związany z tą
informacją
Pragmatyczna teoria informacji, której cechą
charakterystyczną jest traktowanie informacji jako jednego z
zasobów przedsiębiorstwa, najcenniejszego towaru,
którego wartość ocenia się przez pryzmat użyteczności w
procesach biznesowych.
Semantyczna teoria informacji – jej najbardziej
charakterystycznym elementem jest subiektywizm w
definiowaniu informacji uzależniony od użytkownika
informacji, który formułuje wymagania w zakresie istotności
informacji i sposobu jej przetworzenia.
Jeżeli informacje będą dotyczyły obszaru
gospodarki to wówczas mówi się o
informacji ekonomicznej.
Ponadto ze względu na rodzaj nośnika
informacji (papier lub nośniki magnetyczne
lub optyczne) można mówić o informacji
tradycyjnej lub informacji
elektronicznej.
Źródło pochodzenia
wewnętrzna - dotyczy wszystkich
elementów systemu organizacji;
zewnętrzna, - z otoczenia organizacji;
Źródło pochodzenia
Pierwotna - będąca wynikiem zdarzeń
gospodarczych np. transakcje kupna-sprzedaży,
wypłaty z bankomatu;
Wtórna - przetworzona na podstawie informacji
pierwotnej, zebrana i przetworzona wcześniej,
wykorzystana powtórnie np. rocznik statystyczny;
Pomiar
Ilościowa - mierzalna, opis zjawiska za
pomocą liczb;
Jakościowa - niemierzalna, opis zjawiska
za pomocą słów (np. dobry);
Stopień formalizacji
Formalna - tworzona według procedur, oparta na dokumentach
np. faktura sprzedaży;
Nieformalna - nie oparta na dokumentach, często domyślna np. ;
Poziom zarządzania
Strategiczna - o kluczowym, długoterminowym
znaczeniu dla całej organizacji np. plan
informatyzacji państwa na lata 2007-2013;
Taktyczna, średnioterminowe znaczenie dla
organizacji np. prognoza sprzedaży;
Operacyjna - krótkoterminowe znaczenie dla
organizacji np. oprocentowanie kredytu
obrotowego;
Czas
Historyczna,
bieżąca,
przyszłościowa.
Częstotliwość
Ciągła (czas rzeczywisty),
godzinowa,
dzienna,
miesięczna,
roczna,
inne okresowe.
Inicjowanie
W przedziałach planistycznych, zgodnie z pewnym
planem np. co miesiąc
okazjonalna, związana z wydarzeniem np.
otrzymaniem nagrody
na żądanie - gdy zaistnieje konieczność
;
;
TYP
Szczegółowa dotyczy pojedynczych
zdarzeń,
sumaryczna, dotyczy wielu zdarzeń np.
zestawienie miesięczne wydanych z
magazynu towarów w sztukach;
zagregowana dotyczy wielu elementów,
są wynikiem działań bardziej złożonych niż
proste sumowanie np. wartość sprzedaży
wszystkich towarów wyrażona w pieniądzu
;
Oddziaływanie na odbiorcę
Aktywne - wywołują określone czynności;
Pasywne - nie wywołują żadnych
czynności.
1.
Systemy liczbowe
2.
Jednostki informacji
3.
Dane
4.
Informacja
5.
System
System informacyjny stanowi zestaw
współdziałających składników do gromadzenia,
przetwarzania, przechowywania i udostępniania
informacji dla wspomagania podejmowania
decyzji, koordynacji, sterowania, analiz i
wizualizacji informacji w organizacji.
System informacyjny dowolnej organizacji to zbiór
elementów, dających się przedstawić za pomocą
iloczynu kartezjańskiego:
SI = X{U, P, D}
gdzie:
SI – system informacyjny danej organizacji,
U – użytkownicy systemu,
P – procesy informacyjne,
D – dane, baza danych.
System informatyczny to taki
system informacyjny, który wspomaga
funkcjonowanie firm i instytucji z
wykorzystaniem infrastruktury
teleinformatycznej.
Kartezjański zapis systemu informatycznego przedstawia się
następująco:
SI = X{U, P, D, S, H, N}
gdzie:
SI – system informacyjny danej organizacji,
S – oprogramowanie;
H – sprzęt komputerowy
N – sieci komputerowe.
Dziękuję