SYSTEMY LICZBOWE
Aktualnie znamy trzy podstawowe typy systemów liczbowych:
System jedynkowy;
Systemy addytywne;
Systemy pozycyjne.
System jedynkowy został wypracowany na etapie neolitu. W systemie tym występuje tylko jedna cyfra (oznaczana „1”) a kolejne liczby tworzy się przez wielokrotne powtórzenie tej cyfry. Najprostsza koncepcja komputera opracowana przez A. Turinga zwana „maszyną Turinga” „pracowała” właśnie w systemie jedynkowym. A. Turing dowiódł, że dysponując taśmami o nieskończonej długości poprzez ich cięcie i sklejanie możemy wykonać dowolną operację arytmetyczną.
Tak więc liczba „11111” reprezentuje znaną nam z systemu dziesiętnego cyfrę „5”.
Najbardziej znanymi systemami addytywnymi były:
system sześćdziesiętny - używany od około 1750 r. p.n.e. w Babilonie a opracowany przez Sumerów,
system rzymski - używany od ok. 500 r. p.n.e.
Współcześnie pozostałością systemu sześćdziesiętnego są miary czasu - godzina obejmująca sześćdziesiąt minut i minuta obejmująca sześćdziesiąt sekund.
Podstawą systemu rzymskiego jest liczba dziesięć, mająca najprawdopodobniej związek z faktem posiadania dziesięciu palców przez człowieka. W systemie tym występuje 7 liter reprezentujących liczby (np. I=1, V=5, X=10) a liczby zapisuje się zestawiając litery reprezentujące liczby od największej do najmniejszej. Zapis „MMVIII” oznacza liczbę „2008”.
Najbardziej przejrzysty zapis liczb oferują systemy pozycyjne.
W systemie pozycyjnym najbardziej istotnym jest określenie podstawy systemu liczbowego oraz symboli cyfr.
Najważniejszym osiągnięciem systemów pozycyjnych było wypracowanie symbolu 0 (zero) reprezentującego zbiór pusty dla mnożnika występującego przy określonej potędze podstawy systemu liczbowego.
Dowolną liczbę w dowolnym pozycyjnym systemie liczbowym można zapisać jako:
L = Cn * pn + Cn-1 * pn-1 +…….+C1 + p1 + C0 * p0
gdzie:
L- dowolna liczba;
C - cyfra systemu liczbowego;
p- podstawa systemu liczbowego
0-n - potęga podstawy systemu liczbowego.
1 2 3 4 5 =
1*104 +
2*103 +
3*102 +
4*101+
5*100
Najpopularniejszymi pozycyjnymi systemami liczbowymi są (jako przykłady podano te same liczby w różnych systemach):
System dwójkowy zwany również binarnym (występują tylko dwie cyfry: 0 i 1); przykładowe liczby: 1011, 101101, 11111111;
System ósemkowy zwany oktalnym (występuje osiem cyfr: 0, 1, 2, 3, 4, 5, 6 ,7); przykładowe liczby: 13, 55, 377;
System dziesiętny zwany decymalnym (występują powszechnie znane i używane cyfry: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9); przykładowe liczby: 11, 45, 255;
System szesnastkowy zwany hexadecymalnym (występuje szesnaście następujących cyfr: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F); przykładowe liczby: B, 2D, FF.
6553610 = 1000016 = 2000008 = 100000000000000002
Dla czystości zapisu (i uniknięcia pomyłek interpretacyjnych) w notacji liczby jako subskrypt na końcu liczby podaje się podstawę systemu liczbowego.
Pomiędzy różnymi systemami liczbowymi można przeprowadzać konwersje.
Ponieważ najbardziej popularne systemy liczbowe to dziesiętny i binarny poniżej przedstawiono wzajemne konwersje między systemami.
JEDNOSTKI INFORMAYJNE
Najmniejszą jednostką danych jest bit (ang. binary digit) zwyczajowo oznaczany literą b.
Bitem nazywa się najmniejszą jednostkę danych potrzebną do określenia, który z dwóch równie prawdopodobnych stanów przyjął system. Bit interpretuje się również jako elementarną jednostkę danych komputerowych reprezentowaną w systemie binarnym jako „0” lub „1”.
A zatem bit jest cyfrą binarną, która może przyjąć tylko dwie wartości: 0 (zero) lub 1 (jeden). Często spotykanymi innymi interpretacjami bitu jest (odpowiednio): fałsz-prawda, nie-tak. Upowszechnienie binarnego systemu liczbowego związane jest głównie z uproszczeniem konstrukcji komputerów:
0 - brak napięcia (ewentualnie niskie napięcie),
1 - wysokie napięcie.
LP |
Pojęcie |
Przykład |
1 |
Bity |
Zera i jedynki. |
2 |
Bajty (znaki) |
Litery i cyfry. |
3 |
Dane |
Teksty i liczby w postaci ciągów znaków - zapisy zdarzeń i transakcji. |
4 |
Informacje |
Dokument opisujący sprzedaż spodni w kolorze zielonym w województwie pomorskim i śląskim. |
5 |
Wiedza |
Spodnie w kolorze zielonym dobrze sprzedają się w województwie pomorskim a w województwie śląskim sprzedaż jest bliska zeru. |
6 |
Mądrość |
Zapasy zielonych spodni z magazynów w województwie śląskim przewozimy do magazynów w województwie pomorskim. |
Kombinację ośmiu bitów przyjęło się nazywać bajtem, którego oznaczeniem jest B.
Przed wprowadzeniem pojęcia bajt na określenie jednostki danych używano terminu słowo maszynowe. Słowo maszynowe miało różne długości, np. produkowane w Polsce komputery serii Odra pracowały na słowach maszynowych równych 24 bitom.
Używane współcześnie komputery w zależności od tzw. architektury pracują na słowach maszynowych o długości 16 bitów (słowo dwubajtowe), 32 bitów (słowo czterobajtowe) lub 64 bitów (słowo ośmiobajtowe).
W życiu codziennym podstawą tworzenia wszelkich krotności w systemach miar jest system SI. Układ SI jest międzynarodowym układem jednostek miar (zatwierdzonym w 1960 roku).
Używa się w tym systemie przedrostki „kilo” (103 = 1 000 jednostek), „mega” (106 = 1 000 000 jednostek), „giga” (109 = 1 000 000 000 jednostek), które w dużym przybliżeniu odpowiadają zwyczajowo przyjętym w informatyce oznaczeniom dla wielokrotności bajtów (np. kilo = 210 = 1024 bajty
Przykładowe wielokrotności wraz z nazewnictwem i pojemnościami podano w Tablicy 2.2.
Przykładowo dysk,
LP |
Nazwa przedrostka i (symbol) |
Znaczenie w układzie dwójkowym |
1 |
Kilo (K) |
210 = 10241 |
2 |
Mega (M) |
220 = 10242 |
3 |
Giga (G) |
230 = 10243 |
4 |
Tera (T) |
240 = 10244 |
5 |
Peta (P) |
250 = 10245 |
6 |
Eksa (E) |
260 = 10246 |
7 |
Zetta (Z) |
270 = 10247 |
8 |
Jotta (J) |
280 = 10248 |
Najpowszechniej używanym kodem jest aktualnie kod ASCII. Przykładowe wartości liczb i znaków kodowanych dziesiętnie, heksadecymalnie i binarnie przedstawiono poniżej
Znak |
Wartość dziesiętna |
Wartość HEX |
Wartości binarne |
Null |
0 |
00 |
00000000 |
Start Of Heading (SOH) |
1 |
01 |
00000001 |
Spacja |
32 |
20 |
00100000 |
0 (Zero) |
48 |
30 |
00110000 |
9 |
57 |
39 |
00111001 |
; |
58 |
3A |
00111010 |
@ |
64 |
40 |
01000000 |
A |
65 |
41 |
01000001 |
Z |
90 |
5A |
01011010 |
a |
97 |
61 |
01100001 |
z |
122 |
7A |
01111010 |
Delete (DEL) |
127 |
|
01111111 |
Tak więc każdy tekst może być przedstawiony jako ciąg wyrazów, który składa się z ciągu znaków, z których każdy przedstawiony jest jako ciąg zer i jedynek.
Ponieważ znaków pisarskich jest bardzo wiele (szczególnie chodzi tu o języki ideograficzne takie jak chiński lub koreański, gdzie znaków pisarskich są tysiące) systemy kodowania muszą być rozbudowywane o kody dwubajtowe (np. kodowanie UTF 16 - 65 536 kombinacji) lub czterobajtowe (kodowanie UTF 32 - ponad 4 miliardy kombinacji), które rozwiązują problemy związane z reprezentacją różnych znaków w językach narodowych.
Skrót UTF oznacza Unicode Transformation Format.
DANE
Dane stanowią fakty, zdarzenia, transakcje, które zostały zapisane. Stanowią one surowy materiał wejściowy, z którego produkowane są informacje
Przykładowymi danymi będą więc zapisy o dacie sprzedaży, wartości faktury, podatku do zapłacenia przez pracownika, zaliczce na podróż służbową.
Dane mogą pochodzić z różnych źródeł - zewnętrznych lub wewnętrznych. Jednakże wymagane jest istotne rozróżnienie między źródłami.
O ile dane zewnętrzne (z otoczenia) docierają w konkretnej formie i postaci (np. stan gotówki na koncie bankowym) to dane wewnętrzne wymagają systemu pomiaru i zapisu danych. Mogą one być produkowane automatycznie (np. w procesie produkcyjnym na taśmie) albo wymagają wdrożenia specjalnych procedur liczenia lub pomiaru, a wyniki mogą być zapisane
Typowymi formami przetwarzania danych mogą być np.: klasyfikowanie danych, operacje arytmetyczne na danych, agregowanie danych, selekcjonowanie lub sortowanie (porządkowanie rosnąco lub malejąco).
Dopiero wykonanie jednej lub kilku z wymienionych operacji przetwarzania danych pozwala uzyskać informacje, które poszerzą nasz sposób rozumienia i interpretacji rzeczywistości.
INFORMACJA
Informacja to treść komunikatu przekazywanego za pomocą danych.
A zatem informacja stanowi ciąg przetworzonych danych, użytecznych dla odbiorcy.
Wyróżnia się trzy rodzaje teorii informacji:
ilościową,
jakościową,
wartościową,
pragmatyczną,
semantyczną.
Zasadnicze znaczenie ma ilościowa teoria informacji opracowana przez C. E. Shannona. Syntetyczne ujęcie jego teorii przedstawia poniższy rysunek . W kontekście tej teorii, w modelu nazwanym przez Shannona modelem komunikacji informacja jest przesyłana w spójnym systemie komunikacyjnym.
Występują w nim:
komunikat przekazywany w układzie - źródło (nadawca) generuje informacje,
koder koduje w postaci danych czyli ciągu znaków,
następnie jest on przesyłany kanałem komunikacyjnym (medium transmisyjnym),
dekodowana przez dekoder i przekazywana odbiorcy komunikatu, którym jest osoba lub urządzenie.
Poprawny przekaz komunikatu może być zniekształcony przez szum informacyjny wytwarzany przez źródło zakłóceń.
Kluczowym terminem w ilościowej teorii informacji jest pojęcie entropii:
Entropia to średnia ilość informacji przypadająca na wiadomość elementarną, znak, symbolizujący zajście zdarzenia z jakiegoś zbioru.
Entropia jest więc naturalną miarą nieokreśloności danego zdarzenia. Stanami entropii mogą być pewność, ryzyko i nieokreśloność zajścia danego zdarzenia.
Entropię można opisać wzorem:
gdzie:
H- entropia;
P(i) -prawdopodobieństwo wystąpienia danego zdarzenia i (np. wystąpienia i-tego znaku).
A zatem entropia jest określeniem niepewności wystąpienia danego zdarzenia. Jeśli prawdopodobieństwo wystąpienia określonego zdarzenia jest równe 1 to otrzymana ilość informacji wynosi 0, oznacza to bowiem pewność wystąpienia tego zdarzenia.
Z kolei, im niższe prawdopodobieństwo wystąpienia określonego zdarzenia tym większą otrzymuje się ilość informacji. Taką interpretację entropii potwierdza analiza wyników gier losowych, czy skutków inwestowania na giełdzie w akcje lub fundusze emerytalne.
Podstawa logarytmu r we wzorze entropii może przybierać różne wartości. W zależności od wybranej wartości podstawy logarytmu mamy do czynienia z różnymi miarami entropii:
jeżeli podstawa logarytmu r = 2 to miarą entropii jest bit,
jeżeli r = e (podstawa logarytmu naturalnego), miarą entropii jest nat (nit),
dla r = 10 miarą entropii jest hartley.
A zatem: 1 hartley = 3,321928095 bitów = 2,302585093 natów (nitów).
Pozostałe wymienione teorie informacji -
jakościowa,
wartościowa,
pragmatyczna i
semantyczna
- są rzadziej przywoływane w teorii i aplikacjach informatyki ekonomicznej.
Wartościowa teoria informacji, w której dokonuje się oceny informacji przez okrślenie jej wartości, dla podejmowanej decyzji wybranej ze zbioru dopuszczalnych decyzji, przy uwzględnieniu występujących uwarunkowań;
wartość informacji uzależniona jest od stanu systemu w określonym momencie;
teoria ta pozwala na maksymalizację korzyści związanych z podejmowanymi decyzjami;
miarą wartości informacji dla danej sytuacji decyzyjnej jest przyrost korzyści związany z tą informacją
Pragmatyczna teoria informacji, której cechą charakterystyczną jest traktowanie informacji jako jednego z zasobów przedsiębiorstwa, najcenniejszego towaru, którego wartość ocenia się przez pryzmat użyteczności w procesach biznesowych.
Semantyczna teoria informacji - jej najbardziej charakterystycznym elementem jest subiektywizm w definiowaniu informacji uzależniony od użytkownika informacji, który formułuje wymagania w zakresie istotności informacji i sposobu jej przetworzenia.
Jeżeli informacje będą dotyczyły obszaru gospodarki to wówczas mówi się o informacji ekonomicznej.
Ponadto ze względu na rodzaj nośnika informacji (papier lub nośniki magnetyczne lub optyczne) można mówić o informacji tradycyjnej lub informacji elektronicznej.
Źródło pochodzenia
wewnętrzna - dotyczy wszystkich elementów systemu organizacji;
zewnętrzna, - z otoczenia organizacji;
Źródło pochodzenia
Pierwotna - będąca wynikiem zdarzeń gospodarczych np. transakcje kupna-sprzedaży, wypłaty z bankomatu;
Wtórna - przetworzona na podstawie informacji pierwotnej, zebrana i przetworzona wcześniej, wykorzystana powtórnie np. rocznik statystyczny;
Pomiar
Ilościowa - mierzalna, opis zjawiska za pomocą liczb;
Jakościowa - niemierzalna, opis zjawiska za pomocą słów (np. dobry);
Stopień formalizacji
Formalna - tworzona według procedur, oparta na dokumentach np. faktura sprzedaży;
Nieformalna - nie oparta na dokumentach, często domyślna np. ;
Poziom zarządzania
Strategiczna - o kluczowym, długoterminowym znaczeniu dla całej organizacji np. plan informatyzacji państwa na lata 2007-2013;
Taktyczna, średnioterminowe znaczenie dla organizacji np. prognoza sprzedaży;
Operacyjna - krótkoterminowe znaczenie dla organizacji np. oprocentowanie kredytu obrotowego;
Czas
Historyczna,
bieżąca,
przyszłościowa.
Częstotliwość
Ciągła (czas rzeczywisty),
godzinowa,
dzienna,
miesięczna,
roczna,
inne okresowe.
Inicjowanie
W przedziałach planistycznych, zgodnie z pewnym planem np. co miesiąc
okazjonalna, związana z wydarzeniem np. otrzymaniem nagrody
na żądanie - gdy zaistnieje konieczność
TYP
Szczegółowa dotyczy pojedynczych zdarzeń,
sumaryczna, dotyczy wielu zdarzeń np. zestawienie miesięczne wydanych z magazynu towarów w sztukach;
zagregowana dotyczy wielu elementów, są wynikiem działań bardziej złożonych niż proste sumowanie np. wartość sprzedaży wszystkich towarów wyrażona w pieniądzu;
Oddziaływanie na odbiorcę
Aktywne - wywołują określone czynności;
Pasywne - nie wywołują żadnych czynności.
SYSTEM
System informacyjny stanowi zestaw współdziałających składników do gromadzenia, przetwarzania, przechowywania i udostępniania informacji dla wspomagania podejmowania decyzji, koordynacji, sterowania, analiz i wizualizacji informacji w organizacji.
System informacyjny dowolnej organizacji to zbiór elementów, dających się przedstawić za pomocą iloczynu kartezjańskiego:
SI = X{U, P, D}
gdzie:
SI - system informacyjny danej organizacji,
U - użytkownicy systemu,
P - procesy informacyjne,
D - dane, baza danych.
System informatyczny to taki system informacyjny, który wspomaga funkcjonowanie firm i instytucji z wykorzystaniem infrastruktury teleinformatycznej.
Kartezjański zapis systemu informatycznego przedstawia się następująco:
SI = X{U, P, D, S, H, N}
gdzie:
SI - system informacyjny danej organizacji,
S - oprogramowanie;
H - sprzęt komputerowy
N - sieci komputerowe.