HISTORIA INFORMATYKI I SYSTEM INFOR


0x08 graphic
WYŻSZA SZKOŁA SPOŁECZNO - EKONOMICZNA

0x08 graphic

TECHNOLOGIE INFORMACYJNE

HISTORIA TECHNOLOGII, INFORMATYKA

I SYSTEM INFORMACYJNY

WYKŁAD

dr inż. Eugeniusz PIEDZIUK

0x08 graphic

WARSZAWA 2010


HISTORIA TECHNOLOGII INFORMACYJNYCH

Euklides

Gdzieś między 400 a 300 rokiem p.n.e wielki grecki matematyk Euklides wynalazł zasadę znajdowania największego wspólnego dzielnika (NWD) dwóch dodatnich liczb całkowitych A i B. Algorytm Euklidesa uważa się za pierwszy kiedykolwiek wymyślony niebanalny algorytm. W pierwszej kolejności wyznacza się wyniki pośrednie, tzn. pary liczb uzyskiwane w następujący sposób: większą zastępujemy mniejszą, a mniejszą - resztą z dzielenia większej przez mniejszą -czynność powtarzamy dopóty, dopóki większa z liczb nie jest całkowicie podzielna przez mniejszą. Wynikiem końcowym, tzn. szukanym największym podzielnikiem pary liczb A i B jest mniejsza liczba z ostatniej pary. Przykład. Dane początkowe:

(A,B)=(30,16); wyniki pośrednie:(16,14),(14, 2). NWD pary (30,16) jest liczba 2.

Algorytm

Termin 'algorytm' wywodzi się od nazwiska perskiego matematyka, astronoma, geografa i kartografa Muhammeda Alchwarizmi (łac. Algorismus), który prawdopodobnie żył w latach 780 - 850. Dzięki jego pracom na Bliskim Wschodzie zaczęto stosować pochodzące z Indii: dziesiętny system liczenia i pozycyjny system zapisu liczb, które wkrótce dotarły do Europy. Cyfry arabskie wyparły w Europie cyfry rzymskie. Prace tego matematyka pozwoliły też wprowadzić i wyjaśnić pojęcia zera, ułamków i funkcję sinus i tangens. Jako pierwszy ułożył tablice funkcji sinus i tangens, wprowadził elementy algebry. Właśnie wyraz 'algebra' pochodzi od tytułu jednego z jego dzieł.

Maszyna Turinga

W latach trzydziestych ubiegłego wieku Alan Turing stworzył abstrakcyjny model komputera, który służył do wykonywania algorytmów. Każdy algorytm wyrażalny na maszynie Turinga można opisać w tzw. rachunku lambda i odwrotnie. Maszyny Turinga są często używane do udowadniania nierozstrzygalności różnych problemów. Model komputera został przygotowany w oparciu o prace Charlesa Babbage'a.5 Praktyczną realizacją prac Turinga jest współczesny komputer. Maszyny Turinga są wykorzystywane w wielu dziedzinach. W informatyce, gdyż udowodniono, że zwykłe komputery są równoważne maszynom Turinga. W filozofii i psychologii poznawczej, gdyż maszyna Turinga jest wygodnym narzędziem przy precyzowaniu pojęć i problemów procesu poznawania oraz sztucznej inteligencji.

Maszyna Turinga składa się z trzech elementów:

Taśmy - taśma jest nieskończonym zbiorem wartości kodowanych, np. dużymi literami „A" -„Z", poza „R" i „L", które będą zarezerwowane dla oznaczenia komend oraz znaku pustego (np. kodowanego spacją).

Głowicy - stan głowicy kodowany jest np. małymi literami alfabetu łacińskiego „a" - „z". Głowica wskazuje na jedną wartość zapisaną na taśmie, nazywaną wartością bieżącą.

Układu sterowania programu - składa się z uporządkowanych „czwórek": {obecny stan głowicy, bieżąca wartość taśmy, komenda/nowa wartość taśmy, nowy stan głowicy}. Tak określona „czwórka" nazywana jest rozkazem lub komendą. Lista rozkazów dla maszyny Turinga może być traktowana jako jej program.

Nieskończona taśma

0x08 graphic

Maszyna Turinga

Właściwa linia programu rozpoznawana jest po dwóch pierwszych elementach „czwórki" — wykonywana jest ta linia, w której pierwszy element jest równy obecnemu stanowi głowicy, a drugi bieżącej wartości taśmy. Poprawny program nie może zawierać dwóch linii o tych samych dwóch pierwszych elementach - inaczej byłby niejednoznaczny. Możliwe są trzy komendy umieszczone w trzecim elemencie „czwórki”/linii programu:

1) przesuń głowicę w lewo kodowane przez zarezerwowaną wartość „L";

2) przesuń głowicę w prawo kodowane przez zarezerwowaną wartość „R";

3) zamień wartość w bieżącej pozycji głowicy na taśmie kodowane przez wartość inną niż „R" lub „L".

Ostatni element „czwórki" zawiera nową wartość rejestru.

Problem ucztujących filozofów

Problem ucztujących filozofów (znany też jako problem pięciu filozofów) to informatyczny problem synchronizacji przedstawiony przez E. Dijkstrę w 1965 roku, o następującej treści: Przy okrągłym stole siedzi pięciu filozofów. Na stole, przed każdym z ucztujących znajduje się talerz, a pomiędzy każdymi dwoma sąsiadami - widelec. Oprócz tego, na środku stołu znajduje się miska z makaronem (różne wersje tego problemu mówią o rybie lub ryżu i pałeczkach). Aby przystąpić do konsumpcji makaronu, filozof musi zaopatrzyć się w dwa, dobierane pojedynczo, widelce.; Po spożyciu pokarmu, filozof odkłada oba widelce i oddaje się własnym rozważaniom, aż do czasu, gdy ponownie zgłodnieje. Problem polega na opracowaniu takiego algorytmu działań uczestników uczty, aby żaden z nich nie został „zagłodzony" oraz by nie doszło do blokady całego systemu (w sytuacji, gdy każdy z filozofów ma po jednym widelcu).

Problem ucztujących filozofów jest prezentacją problemu synchronizacji pracujących współbieżnie procesów. Istnieje kilka możliwych rozwiązań tego problemu, między innymi polegające na wykorzystaniu arbitrów lub grupy semaforów.

E. Dijkstra znany jest także dzięki zaproponowanemu algorytmowi znajdowania najkrótszych ścieżek w grafie (nazwanemu algorytmem Dijkstry). Nie bez echa przeszły też jego opinie na temat zastąpienia polecenia GOTO innymi strukturami programistycznymi.

Claude Elwood Shannon Jeden z twórców teorii informacji. Jako jeden z pierwszych, uświadomił sobie doniosłość kodu binarnego i już w młodym wieku proroczo twierdził, że ciągami zer i jedynek można opisać tekst, obraz i dźwięk. Stworzył modele procesu komunikacyjnego, wykorzystywane później przez psychologów. Shannon zafascynowany był maszynami liczącymi i urządzeniami, które dziś określilibyśmy mianem technologicznych gadżetów. Zaprojektował np. pianino odtwarzające w kolejności losowej zaprogramowane uprzednio utwory muzyczne, czy samouczącą się mysz (znajdowała drogę przez labirynt, na którego końcu Shannon kładł kawałek sera). Pracował także nad sztuczną inteligencją rozwijając koncepcje maszyn Turinga, czego efektem było m.in. stworzenie w 1956 r. komputera szachowego Maniac.

0x08 graphic
Przykład: Przekazywania informacji

szum

Shannon opracował wiele ważnych do dziś formuł matematycznych, które stanowią podstawę nowoczesnej teorii informacji. Jego twierdzenia nabrały szczególnego znaczenia praktycznego po wynalezieniu układów scalonych. Śmiało można stwierdzić, że teorie tego wielkiego naukowca leżą u podstaw współczesnej ekspansji komputerów i Internetu.

Arytmometr Pascala

Prymitywna mechaniczna maszyna sumująca, która pracowała jak dzisiejszy licznik samochodowy, zliczający przejechane kilometry. Była oparta na skomplikowanym zestawie kół zębatych. Pascal skonstruował arytmometr w latach 1642-1643, wykonał 50 egzemplarzy, ale dopiero po 20 latach maszyna zadziałała poprawnie. Otwory, które wyczuwał specjalny mechanizm, sterowały haczykami wybierającymi nici koloru odpowiedniego do wzorów na tkaninach.

Zautomatyzowane krosno Jacquarda

Jedną z najwcześniej­szych maszyn wykonujących proces sterowany przez coś, co można nazwać algorytmem, jest krosno tkackie wynalezione w 1801 roku przez Josepha Jacąuarda. Tkany wzór określały karty z otworami wydziurkowanymi w różnych miejscach.

Maszyna Babbage'a

Ten angielski matematyk, jedna z najważniejszych i najbardziej barwnych postaci w historii informatyki, w roku 1833 zbudował częściowo urządzenie, zwane maszyną różnicową, służące do obliczania pewnych wzorów matematycznych. Charles Babbage również obmyślił i sporządził plany maszyny, zwanej maszyną analityczną. Maszyna różnicowa =>realizowała konkretne zadanie. Maszyna analityczna => realizowała konkretny algorytm, czyli program zakodowany w postaci otworów wydziurkowanych na kartach. Maszyna analityczna miała wykonywać podstawowe działania matematyczne, zapamiętywać dane wejściowe, pośrednie oraz wyniki obliczeń końcowych. Wprowadzanie i wyprowadzanie danych miało odbywać się z wykorzystaniem kart dziurkowanych. Maszyny Babbage'a były w swej naturze mechaniczne, oparte na dźwigniach i kołach zębatych. Przy ich konstrukcji Babbage wykorzystał rozwiązania zastosowane w krośnie Jacąuarda. Koncepcje zawarte w projekcie maszyny analitycznej Babbage'a stworzyły podstawę konstrukcji komputerów. Projekt maszyn nie został zrealizowany z powodu istniejącego wówczas niskiego poziomu techniki. W 1991 roku w Science Museum w Londynie wykonano według oryginalnych planów fragment (arytmometr) Drugiej Maszyny Różnicowej, udowadniając poprawność konstrukcji.

Tabulator Hollerith'a

Herman Hollerith, pracownik biura spisu ludności USA, zbudował w 1890 r. pierwszy tabulator -oparte na idei Jacąuarda urządzenie do mechanicznego tworzenia zestawień danych, ich klasyfikowania, przetwarzania i powielania. Pozwo­liło ono wykonać w USA (wtedy 60 min ludności) spis powszechny w dwa i pół roku. Hollerith założył firmę, z której w 1924 r. wyłonił się IBM.

Komputer Mark I

Pracownik IBM Howard M. Aiken, według pomysłu Babbage'a na maszynę analityczną, zbudował w latach 1939-44, z przekaźników elektromagnetycznych, komputer Harvard Mark I, sterowany programem kodowanym na taśmie perforowanej. Ważył on 50 ton, a dwie liczby dziesięciocyfrowe mnożył w 10 sekund.

ENIAC

W latach 1943-1946 skonstruowano ENIAC (Electronic Numerator, Integrator, Analyser and Computer), pierwszy elektroniczny komputer. Składał się on z 17468 lamp elektronowych, a pobór mocy wynosił 130 kW. Mógł wykonać 5 tys. operacji dodawania lub 300 operacji mnożenia na sekundę, a także przechować w pamięci 20 liczb dziesięciocyfrowych. ENIAC liczył w układzie dziesiętnym, a jego programowanie polegało na ręcznej konstrukcji połączeń na specjalnych tablicach połączeniowych; w przeciwieństwie do późniejszych maszyn, w których konstrukcja fizyczna nie ulegała zmianie, a zmieniał się jedynie wykonywany kod. Był 1000 razy szybszy od każdej innej „calculating machinę" w tych czasach: 5000 sumowań, 357 mnożeń lub 38 dzieleń na minutę. Ważył 30 ton. Wymagał 200 m2 powierzchni. Koszt eksploatacji - 650 USD za godzinę poboru energii, będąc w stanie wstrzymania. Wymagał w obsłudze pracy zespołu specjalistów - inżynierów, programistów, techników i operatorów.

UNIVAC I. W 1951 roku zbudowano pierwszy na świecie elektroniczny komputer ogólnego przeznaczenia - UNIVAC I (Universal Automatic Computer). To także pierwszy komputer komercyjnie dostępny w USA, sprzedany za milion dolarów. Komputer był programowalny, zatem nie było potrzeby przy każdym nowym zadaniu, przebudowy układów i zmiany przełączników. Komputer pobierał instrukcje bezpośrednio z programu umieszczonego w pamięci. Jej pojemność to 1000 12-cyfrowych słów. UNIVAC potrafił wykonać 8333 operacji dodawania lub 555 mnożenia w ciągu sekundy. Zbudowany był z 5000 lamp i zajmował 200 stóp kwadratowych powierzchni.

W roku 1964 powstał system 360 - rodzina komputerów firmy IBM. Skonstruowano je na bazie układów scalonych o średniej skali integracji. Komputery 360, działające w systemie szesnastkowym, były wyposażone w system operacyjny OS/360 i kompilator języka programowania PL/1.

Pod koniec lat 50 ubiegłego stulecia powstał minikomputer. Służył z reguły jako komputer specjalizowany, np. automat obrachunkowy, analizator widma. Wyróżniał się prostą obsługą, niewielkimi wymiarami, modułową budową i nie wymagał klimatyzacji. Początkowo jednostanowiskowy, w miarę wzrostu mocy obliczeniowej, przejmował rolę mniejszych maszyn typu mainframe. Za pierwszy minikomputer uważa się PDP 1 z 1959 roku. Dwa lata później w Polsce skonstruowano minikomputer o nazwie ZAM-11.

W latach 70. ubiegłego stulecia pojawiły się komputery czwartej generacji, oparte na obwodach scalonych dużej skali integracji LSI i VLSI. Przykładem jest rodzina komputerów IBM 370; do ładowania systemu operacyjnego w komputerach IBM stosowano 8-calowe dyskietki. Komputery z łat siedemdziesiątych i osiemdziesiątych ubiegłego wieku jako nośniki danych i programów wykorzystywały karty i taśmy perforowane.

KOMPUTERY OSOBISTE/PERSONALNE

Pierwszy komputer personalny IBM PC został zaprezentowany ponad 25 lat temu na konferencji prasowej 12 sierpnia 1981 roku. Do sprzedaży wszedł kilka tygodni później. Przed skonstruowaniem IBM PC były już dostępne komputery personalne innych producentów, takich jak Apple, Sinclair, Atari i Comodore.

Podstawowy model IBM PC wyposażony był w procesor Intel o zegarze 4,77 MHz, pamięć RAM o pojemności 64 kB oraz system operacyjny DOS (Disk Operation System); parametry te wskazują, że nie był szczególnie nowoczesny. Komputer kosztował 2880 USD, co było dość wysoką ceną. Dlatego też, przez wiele lat IBM PC nie był traktowany jako komputer domowy. Po opracowaniu arkusza kalkulacyjnego Lotus 1-2-3, IBM PC zaczął być coraz powszechniej stosowany w biurach.

Wyróżniającą cechą IBM PC na tle innych typów komputerów było to, że każdy mógł go złożyć sam, ponieważ opublikowała jego konstrukcję bez zastrzeżeń patentowych. Wyjątkiem był tylko opatentowany BIOS. Szereg firm komputerowych, zamiast uiszczać opłaty licencyjne, zaprojektowało BIOS od zera i, naśladując IBM, budowało własne komputery osobiste. Przez kolejne lata pojawiło się szereg udoskonalonych komputerów osobistych standardu IBM PC. Powstała także kolejna generacja systemu operacyjnego dla komputerów osobistych w postaci systemu Windows. Równocześnie z tym systemem weszła do użytkowania mysz komputerowa.

27 kwietnia 1987 roku premierę miał komputer osobisty IBM PS2. Wyposażony był w procesor Intela 80386 z koprocesorem 80387 oraz pamięcią RAM o pojemności 4MB. Charakteryzowała go bardzo duża moc obliczeniowa. Był to jeden z pierwszych komputerów w obudowie typu "wieża". Kosztował wtedy 10 tys. USD. Platforma sprzętowa IBM opanowała cały świat. Dziś nieomal w każdym domu jest komputer standardu IBM PC, wyprodukowany przez różne firmy. Z innych standardów produkowany jest tylko Paple, w którym jednak można zainstalować system operacyjny Windows. Czyni to komputery Paple kompatybilnymi z komputerami IBM.

Przykładowo w roku 2006 pojawił się komputer Apple o nazwie Mac Pro. Wyposażony jest w dwa procesory Intel Xenon o prędkości zegara 2,6 GHz oraz pamięć RAM o pojemności 1 GB. Kosztuje2,5 tys. USD. Mimo radykalnie wyższych parametrów niż pierwszy komputer osobisty jest od niego nieco tańszy.

Historia komputerów

1948

Pierwszy tranzystor.

1958

Pierwszy układ scalony.

1969

Firma Intel opracowuje układ pamięci RAM o pojemności 1 KB.

1970

Powstaje język programowania C (Kernighan, Ritchie i Thompson z AT&T Bell Labs) i system operacyjny UNIX (AT&T).

Jacek Karpiński opracowuje prototyp pierwszego w Polsce minikomputera K-202, opartego w całości na układach scalonych. Świetna konstrukcja nie pasuje do koncepcji Jednolitego Systemu (JS) ustalanej przez ZSRR.

1975

Steve Wozniak i Steve Jobs tworzą komputer Apple I i (1 kwietnia) zakładają firmę komputerową Apple. Bili Gates i Paul Allen tworzą firmę Traf-O-Data, którą później przemianowują na Microsoft.

1977

Apple II: kolorowy wyświetlacz, 4 KB RAM.

1980

Firma Sinclair wypuszcza komputer ZX80. Zespół 12 inżynierów („parszywa dwunastka") rozpoczyna pracę nad IBM PC. Prototyp zostaje dostarczony do Microsoftu (do produkcji oprogramowania).

1981

Xerox prezentuje komputer Star, którego interfejs wyprzedza epokę: okna, ikony, mysz. Finansowa porażka (kosztował 50 tys. USD). Pierwszy IBM PC: procesor Intel 8088 4,77 MHz, 64 KB RAM. System operacyjny MS-DOS 1.0.

1982

Pierwszy klon IBM PC (MPC).

1983

Apple Lisa, pierwszy osobisty (10 tys. USD —> 4,5 tys. USD) komputer z graficznym interfejsem użytkownika. Powolny w działaniu. IBM PC XT: dysk twardy 10 MB, 128 KB RAM, floppy 360 KB. Microsoft ogłasza powstanie Microsoft Windows, mimo braku działającej wersji.

1984

Apple Macintosh. IBM PC AT: procesor Intel 80286 6 MHz, floppy 1,2 MB, 256 KB RAM, dysk twardy 20 MB. DOS 3.1.

1985

Microsoft rozpoczyna sprzedaż Windows 1.0 (100 USD).

1986

Compaq wprowadza pierwszy PC z nowym procesorem Intela 80386 (16 MHz).

1987

Prof. Andrew Tanenbaum pisze od podstaw unixowy system operacyjny Minix i udostępnia jego kompletny kod źródłowy do celów edukacyjnych.

1989

Brytyjska firma Apricot Computers wypuszcza pierwszy PC z nowym procesorem Intela 80486 25 MHz.

1991

Student Uniwersytetu w Helsinkach Linus Torvalds, w oparciu o oprogramowanie projektu GNU i źródła Minixa, zaczyna pisać od podstaw unixowy system operacyjny z założeniem darmowego rozpowszechniania. Wkrótce znajduje (przez Internet) tysiące współpracowników i projekt (GNU/Linux) rozwija się lawinowo.

1993

Intel Pentium 60 MHz, MS: Windows NT, Windows 3.11 i DOS 6.2.

1994

Microsoft otrzymuje prawa do znaku handlowego 'Windows' w odniesieniu do oprogramowania.

1997

Komputer Big Blue wygrywa w szachy z Garym Kasparowem.

POJĘCIA Z TECHNOLOGII INFORMACYJNYCH

Tajemnica prowadzenia biznesu polega na tym, żeby wiedzieć coś, czego nie wie nikt inny -

Arystoteles Onasis

Dane i informacje

Dane to liczby, pojęcia lub rozkazy przedstawione w sposób dogodny do przesłania, interpretacji, przetwarzania metodami ręcznymi lub automatycznymi. Dane mogą przyjmować różną postać: znaków, mowy, wykresów. Są przenoszone za pomocą określonego nośnika: dźwięków, zapachów, błysków świetlnych, papieru, impulsów elektrycznych, itp. Nośnik taki nazywany jest sygnałem. Wyróżnia się:

Informacja:

Informacja z kolei może być rozumiana jako treść komunikatu przekazywanego za pomocą danych. Informacja bazuje na danych, które zostały już poddane kategoryzacji i klasyfikacji, bądź też zostały uporządkowane w jeszcze inny sposób. Jest ona tym, co nadaje formę danym; sprawia, że coś, co wyglądało na bezwartościowe, zyskuje na znaczeniu. Informacja jest nieodłącznie związana ze stanem niepewności, co do wystąpienia możliwych przypadków. Informację uzyskuje się dzięki możliwości porównania co najmniej dwóch stanów. Przykład: Dzwonek dzwonka informuje nas, że ktoś nacisnął przycisk. Kiedy przycisk się zatnie i dzwonek dalej dzwoni, już nie informuje nas o niczym. Gdy przestanie dzwonić, a my porównamy 2 sytuacje, uzyskamy informację, że usterka została usunięta.

Pojęcie informacji, mimo powszechnego stosowania, nie doczekało się jednej, ogólnie przyjętej definicji.

Dane i informacje są to pojęcia na dwóch różnych poziomach. Inne dane mogą przedstawiać tę samą informację. Mimo tego, często błędnie utożsamia się te pojęcia lub używa zamiennie.

Informacja jest uważana za jeden z towarów na rynku, podobny do dóbr materialnych czy energii. Informacja użyteczna, mająca aspekt praktyczny, nazywana jest wiedzą. Informacją zajmuje się nauka zwana „Teorią informacji"; skupia się ona na przekazywaniu danych i informacji od nadawcy - z miejsca powstawania do odbiorcy - miejsca przeznaczenia.

Ilość informacji:

I = log2 = 1/p

Gdzie:

I - ilość informacji - liczba bitów informacji,

p - prawdopodobieństwo zajścia zdarzenia.

Wystąpienie zdarzenia mniej prawdopodobnego dostarcza więcej informacji.

Bit jest to podstawowa elementarna jednostka informacji wystarczająca do zakomunikowania jednego z co najwyżej dwóch jednakowo prawdopodobnych zdarzeń. Słówko bit po raz pierwszy użył w roku 1948 twórca teorii informacji Claude Shannon, który przyznał, iż zapożyczył ten termin od naukowca Johna Turkey'a.

` bit < binary digit >

Zatem bit oznacza po prostu cyfrę binarną „0” lub „1”. Jest to oznaczenie powszechnie stosowane w matematyce oraz przy opisie informacji przechowywanej w pamięci komputera i opisie sposobów kodowania informacji. Za pomocą ciągu zer i jedynek można opisać tekst.

Informacje - Dane

Informacja to twór abstrakcyjny i niematerialny, który w sposób zakodowany może być przesyłany, przetwarzany i używany do sterowania. Nośnikami informacji są symbole takie jak umowne znaki, słowa, gesty itp. Aby odczytać informację zawartą w symbolach trzeba te symbole zinterpretować. Odbiorca informacji musi wiedzieć w jaki sposób symbole należy interpretować. Symbole, które są nośnikami informacji nazywane są danymi.

KLASYFIKACJA INFORMACJI

Rodzaje zasobów informacyjnych

Informacja jako czynnik wytwórczy

Informacja jako produkt

Informacja jako proces

Informacja jako wyrób

Zapotrzebowanie na nie istnieje dlatego, że mogą być wykorzystane do zaspokojenia potrzeb gospodarstw domowych lub potrzeb społecznych, bądź te - mogą być wykorzystane do wytworzenia innych wyrobów lub usług. Produkcja i wymiana wyrobów są działalnościami nierozerwalnymi w tym sensie, że są to czynności odrębne technologicznie i organizacyjnie. Niektóre wyroby nie staje się nigdy przedmiotem wymiany, podczas gdy inne mogą być sprzedawane i kupowane wielokrotnie. Oddzielenie produkcji wyrobu od jego sprzedaży jest charakterystyczna cecha ekonomiczna wyrobu, odróżniająca wyrób od usługi”

Informacja jako usługa

Informacja jako towar

Informacja jako dobro publiczne

Informacja jako infrastruktura gospodarki narodowej

SYSTEM INFORMACYJNY I SYSTEM INFORMATYCZNY

System informacyjny

System informacyjny to uporządkowany układ odpowiednich elementów, charakteryzujących się pewnymi właściwościami oraz połączonych wzajemnie określonymi relacjami.

Zasoby systemu informacyjnego zapewniające jego funkcjonowanie:

Elementy systemu informacyjnego:

Struktury systemu informacyjnego:

Powyższe informacje można przedstawić skrótowo w poniższej tabeli.

Charakterystyka systemu informacyjnego

ELEMENTY SKŁADOWE

STRUKTURA

ZASOBY

• Nadawcy i odbiorcy informacji

• Zbiory informacji

• Kanały informacyjne

• Metody i techniki przetwarzania informacji

• Funkcjonalna

• Informacyjna

• Techniczna

• Przestrzenna

• Konstrukcyjno-technologiczna

• Ludzkie

• Informacyjne

• Proceduralne

• Techniczne

Funkcje systemu informacyjnego:

System informatyczny

Kluczową funkcją systemu informacyjnego jest przetwarzanie danych. Przetwarzanie danych może być realizowane na wiele różnych sposobów: „ręcznie", za pomocą kalkulatorów i innych prostych urządzeń (ich rola jest coraz bardziej marginalna) oraz z wykorzystaniem różnych technologii informatycznych: arkuszy kalkulacyjnych, programów i systemów informatycznych. Wszystkie elementy, które realizują przetwarzanie danych, tworzą system przetwarzania danych. System informatyczny to taka część systemu przetwarzania danych (czasem wykraczająca poza system przetwarzania danych, z uwagi na możliwość dostępu do większej liczby danych), w której procesy przetwarzania danych i procesy komunikacji realizowane są z wykorzystaniem technologii informatycznych.

System informatyczny to ta część składowa systemu informacyjnego, w której następuje przetwarzanie informacji.

Na systemy informatyczne składają się takie elementy, jak:

Sprzęt, głównie komputery oraz:

Oprogramowanie.

Powyższe informacje można przedstawić skrótowo w tabeli:

Elementy systemu informatycznego

Zasoby osobowe

Elementy organizacyjne

Elementy informacyjne

Sprzęt

Oprogramowanie

Podstawowe struktury danych

Struktura danych - taki sposób składowania danych w komputerze, by mogły być efektywnie wykorzystane. Często, właściwe dobranie struktury danych pozwala na zastosowanie wydajniejszego algorytmu.

Podstawowe struktury danych

Rekord

Tablica

Lista

Jest to obiekt programistyczny, grupa danych - takiego samego lub różnego typu - posiadająca swoją ustaloną strukturę oraz możliwość zmiany i odczytania jego elementów.

Przykładowy rekord, dotyczący pracownika, może zawierać jego nazwisko, imię, datę urodzenia, stanowisko, itp.

To struktura, której zadaniem jest przechowywanie zbiorów danych o pewnych właściwościach. Dane są dostępne za pomocą kluczy w postaci odpowiednich numerów.

Najprostszymi przykładami są: tablica jednowymiarowa oraz dwuwymiarowa tablica złożona z wierszy i kolumn.

Jest to struktura danych, składająca się z połączonych ze sobą w łańcuszek komórek zawierających dane.

Typowa lista jest połączona jednostronnie - komórki zawierają tylko odnośnik do kolejnej komórki. Innym przypadkiem jest lista dwustronna, gdzie komórki zawierają także odnośnik do poprzednika.

Drzewo

Stos

Kolejka

Struktura danych, reprezentująca w naturalny sposób hierarchię danych (obiektów fizycznych i abstrakcyjnych, pojęć, itp.).

Drzewa ułatwiają i przyspieszają wyszukiwanie, a także pozwalają w łatwy sposób operować na posortowanych danych.

Liniowa struktura danych: nowe dane dokładane są na wierzch stosu, ściągane są również z wierzchołka. Stąd stos nazywany jest także strukturą LIFO (ang. Last In, First Out - ostatni wchodzi, pierwszy wychodzi).

Kolejkowa struktura danych: nowe dane dopisywane są na końcu kolejki, a jako pierwsze obsługiwane są dane z początku. Stąd kolejka nazywana jest strukturą FIFO (First In, First Out -pierwszy wchodzi, pierwszy wychodzi). Oznacza to, że obiekty wyjmuje się z kolejki w kolejności ich pojawiania się.

Algorytmy

Terminologia algorytmów

0x01 graphic

0x01 graphic
Schemat blokowy jest podstawą tworzenia programów. Graf jest pojęciem matematycznym i oznacza zbiór wierzchołków połączonych krawędziami w taki sposób, że każda krawędź kończy się i zaczyna w którymś z wierzchołków. Przedstawienie algorytmu w postaci grafu symbolizuje przepływ informacji i służy sprawdzeniu poprawności algorytmu.

INTERNET, INTRANET, PORTAL, WORTAL, EKSTRANET

INTERNET to sieć komputerowa o światowym zasięgu, łącząca sieci lokalne, sieci rozległe i wszystkie komputery do nich podłączone.

INTRANET jest siecią komputerową ograniczającą się do komputerów, np. w firmie lub organizacji. Siecią taką może być sieć lokalna tzw. LAN lub kilka sieci lokalnych zintegrowanych za pomocą sieci rozległej, tzw. WAN. Po zamontowaniu serwera umożliwiającego korzystanie w obrębie sieci z usług takich jak strony WWW, poczta elektroniczna eta, czyli usług typowo internetowych, można mówić o sieci intranet. Do intranetu dostęp mają zazwyczaj tylko pracownicy danej firmy.

PORTAL (INTERNETOWY) to rodzaj serwisu informacyjnego, dla którego nośnikiem jest Internet. Zazwyczaj portal internetowy zawiera dział aktualnych wiadomości, pogody, katalog stron internetowych oraz mechanizmy wyszukiwania informacji w nim samym lub w zewnętrznych zasobach Internetu (wyszukiwarki internetowe). W celu przyciągnięcia większej ilości użytkowników niektóre portale oferują darmowe konta e-mail i miejsce na strony WWW.

WORTAL to szczególny rodzaj portalu publikujący informacje tematycznie do siebie zbliżone. Przykłady: Wortal teatralny; Wortal teleinformatyczny.

EKSTRANET (ang. extranet) - część portalu internetowego, do której dostęp jest możliwy dla posiadaczy stosownych identyfikatorów. Ekstranet może umożliwiać kontakty typu B2B (Business to Business) w ramach przedsiębiorstwa oraz z dostawcami i odbiorcami, obejmujące np.:

Zaawansowane technologie produkcyjne (Advanced Manufacturing Technologies, w skrócie AMT) - wyposażenie sterowane komputerowo lub oparte na mikroelektronice, stosowane do automatycznego/ zautomatyzowanego projektowania, wytwarzania i przemieszczania wyrobów (computer-controlled or microelectronics-based eąuipment used in the design, manufacture or handling of a product).

Zaawansowane technologie produkcyjne wykorzystują:

Środki automatyzacji procesów produkcyjnych - urządzenia (lub zestawy maszyn i urządzeń) wykonujące określone czynności bez udziału człowieka, stosowane w celu samoczynnego sterowania i regulowania urządzeń technicznych oraz kontrolowania przebiegu procesów technologicznych.

System CAD/CAM (Computer-Aided Design / Computer-Aided Manufacturing) -projektowanie i wytwarzanie wspomagane komputerowo.

EDI (Electronic Data Interchange) - elektroniczna wymiana informacji pomiędzy firmami (zamówienia, faktury) bez interwencji człowieka w celu wyeliminowania „transakcji papierowych". Obejmuje odbiór i wysyłanie dokumentów sprzedaży i zamówień do niezależnych podmiotów gospodarczych, np. duże sieci handlowe, hipermarkety. Jest to technologia obiegu i wymiany dokumentów między różnymi aplikacjami współpracujących partnerów handlowych. Ta zamknięta sieć pozwala uniknąć charakterystycznych dla Internetu problemów z zapewnieniem bezpieczeństwa przesyłanych danych, lecz nie jest dostosowana do potrzeb firm wszystkich klas wielkości.

0x08 graphic

Idea EDI

W krajach UE, pomimo gwałtownego w ostatnich latach rozwoju Internetu, EDI wciąż odpowiada za większość transakcji typu B2B (business to business). Transakcje za pomocą systemu EDI są zaliczane do tzw. gospodarki elektronicznej (e-Commerce). Zastosowania rozwiązania EDI dają wymierne korzyści w obszarze zaopatrzenia, sprzedaży, logistyki i finansów:

Rozwiązania EDI wykorzystywane są w systemie Just-in-time opartym o zasadę dostaw materiałów w takich ilościach i z takim następstwem czasu, aby wyeliminować lub znacząco zredukować gromadzenie zapasów. Podstawę systemu stanowi eliminacja z procesów wytwórczych i usługowych wszystkich elementów nie podnoszących wartości produktu.

Sztuczna inteligencja

Sztuczna inteligencja - (ang. Artificial Intelligence - AI) zastosowanie znajduje w systemach klasy Business Intelligence (BI), wspomagających procesy podejmowania decyzji poprzez analizę danych zgromadzonych w systemach informatycznych. Służy do ekstrapolacji przyszłości i estymacji stanu obecnego.

Technologia i kierunek badań na styku informatyki, neurologii i psychologii. Ich zadaniem jest konstruowanie maszyn i oprogramowania, zdolnych rozwiązywać problemy nie poddające się bezpośredniej algorytmizacji, tzn. wynikającej wprost z natury problemu. Przykłady zastosowań:

Systemy ekspertowe, np. ocena zdolności kredytowej

Maszynowe tłumaczenie tekstów

Eksploracja danych

Rozpoznawanie optyczne, mowy i ręcznego pisma

Programy do gry, np. program Deep Blue do gry w szachy

System ekspertowy

System ekspertowy (ekspercki) - program lub zestaw programów komputerowych wspomagający korzystanie z wiedzy i ułatwiający podejmowanie decyzji. Systemy ekspertowe mogą wspomagać, bądź zastępować ekspertów (ludzi) w danej dziedzinie, mogą dostarczać rad, zaleceń i diagnoz, dotyczących problemów z tej dziedziny. Systemy ekspertowe wykorzystują pojęcia logiki rozmytej oraz wyniki eksploracji danych.

Eksploracja danych (ang. 'data mining')

To jeden z etapów procesu odkrywania wiedzy z baz danych (ang. Knowledge Discovery in Databases, KDD). Istnieje wiele technik eksploracji danych, np. statystyczna analiza wielowymiarowa i logika rozmyta. W eksploracji danych wykorzystuje się szybkość komputera do znajdowania ukrytych dla człowieka (właśnie z uwagi na ograniczone możliwości czasowe) prawidłowości w danych.

Logika rozmyta (ang. 'fuzzy logie)

To jedna z logik wielowartościowych (ang. 'multi- yalued logie'), stanowi uogólnienie klasycznej dwuwartościowej logiki. W logice rozmytej między stanem 0 (fałsz), a stanem 1 (prawda) rozciąga się szereg wartości pośrednich, które można kojarzyć z prawdopodobieństwem.

Sieć neuronowa

Ogólna nazwa struktur matematycznych i ich programowych lub sprzętowych modeli realizujących obliczenia lub przetwarzanie sygnałów poprzez zbiory elementów, zwanych neuronami. Oryginalną inspiracją takiej struktury była budowa naturalnych układów nerwowych, w szczególności mózgu.

KODOWANIE DANYCH

Kodowanie danych to zamiana formy informacji na inną, zwykle łatwiejszą dla danego urządzenia do przetworzenia i zapamiętania. W ogólnym pojęciu kodowaniem jest też wyrażanie myśli w postaci mowy lub testu. Bez kodowania nie ma zapisu różnorodnych informacji w pamięci komputera. Kodowanie występuje w każdym programie i w każdej bazie danych, ponieważ komputery posługują się językiem opartym na liczbach. Dzięki kodowaniu możliwe jest przechowywanie danych w komputerach oraz wymiana danych pomiędzy programami i komputerami. Kodem nazywane jest wzajemnie jednoznaczne odwzorowanie, które każdej wiadomości z tzw. alfabetu źródła przyporządkowuje ciąg określonych symboli kodowych. Słowem/ciągiem kodowym nazywamy ciąg symboli kodowych przyporządkowany do konkretnej wiadomości. Kodowanie odbywa się z reguły z wykorzystaniem dwuwartościowych sygnałów oznaczanych np. „0" lub „1", prawda i fałsz czy -1 i +1. W pierwszym z tych przypadków sygnały nazywane są bitami i mogą być traktowane jako cyfry w systemie dwójkowym. Precyzyjnie, dla rozróżnienia pojęć, sygnały dwuwartościowe są czasami nazywane binitami. Kolejna jednostka dotyczy prędkości transmisji danych, którą mierzy się w bitach (formalnie poprawnie w binitach) na sekundę (bps, bit/s). Kod wykorzystujący sygnały 2 wartościowe nazywany jest binarnym. Binarny (dwójkowy) sposób zapisu informacji związany jest z łatwą techniczną metodą jego realizacji. Stąd, system dwójkowy jest naturalnym systemem informatyki. Informacje zapisujemy za pomocą zjawisk elektrycznych, magnetycznych, świetlnych. Czasem można spotkać się z opinią, że system dwójkowy był znany znacznie wcześniej niż powstały komputery. Przyjęło się stosowanie jednostki liczącej 8 bitów, nazwanej bajtem. Bajt to podstawowa komputerowa jednostka informacji. Jeden bajt może reprezentować 256 różnych wartości, które w różnorodny sposób mogą oznaczać zapisywane informacje. Ciągi bajtów muszą przechować teksty, liczby, muzykę, animacje - wszystkie informacje zapisywane w wyniku wykonywanych działań. Dla zakodowania dźwięku potrzebne jest zakodowanie informacji inne, niż w przypadku liczb czy też tekstów. Im większa precyzja kodowania, tym większy plik. Wyróżniamy także wielokrotności bajtu o przybliżonym mnożniku 1000: kilobajty, megabajty, gigabajty, terabajty - przedstawia tabela:

Nazwa

Liczba bajtów

Przybliżona liczba bajtów

Kilobajt

210 = 1 024

103 (tysiąc)

Megabajt

220= 1048 576

106 (milion)

Gigabąjt

230 = 1 073 741 824

109 (miliard)

Terabajt

240= 11 099 511 627 776

1012 (bilion)

Kompresja to działanie, mające na celu zmniejszanie objętości pliku. Przy kompresji wykorzystuje się podobieństwa i regularności występujące w plikach. Program przeprowadza analizę i wybiera fragmenty, które można zapisać w sposób zajmujący mniejszą liczbę bajtów.

Kompresja bezstratna: odtworzona informacja jest identyczna z oryginałem; dekompresja jest w pełni odwracalna.

Kompresja stratna: polega ona na eliminowaniu pewnych elementów oryginału w celu lepszej efektywności kompresji. Możemy powiązać jakość ze stopniem kompresji.

Przykłady kodowania:

Kodowanie tekstu - wykorzystywane są kody ASCII (American Standard Code for Information Interchange), opisane będzie poniżej.

Kodowanie liczb całkowitych i rzeczywistych - opisane będzie poniżej.

Kodowanie grafiki, stosowana jest grafika rastrowa i grafika wektorowa.

Grafika rastrowa Obraz złożony z kropek (pikseli), zwany bitmapą. Barwa każdego piksela kodowana na określonej ilości bitów. Umożliwia animację, kiepsko odwzorowuje barwy (tylko 256 kolorów). Grafika rastrowa - termin używany w grafice komputerowej. W grafice rastrowej obraz składa się z malutkich elementów - pikseli. Ich kolor zależy od wartości RGB (red green blue - czerwony zielony niebieski) - ilości tych trzech kolorów, min. 0, max. 255 (np. 0 0 0 - czarny, 255 255 255 - biały). Obrazy składające się z pikseli zajmują mniej miejsca na dysku i są lepszej jakości niż mapy bitowe używane w grafice wektorowej. W zależności od poziomu i typu kompresji, wyróżnia się różne formaty grafiki rastrowej - najpopularniejszy to *.jpg a dalej *.png., *.gif (również obrazek animowany) itd.

Grafika wektorowa Obraz złożony z wektorów (odcinek kodują współrzędne początku, końca i barwa), Okrąg: współrzędne środka, promień i barwa. Grafikę wektorową można przeskalowywać (oraz deformować) bez utraty jakości. Rysunek w formacie wektorowym zajmuje znacznie mniej miejsca, niż w postaci bitmapy, ale zdjęcia lepiej zapisywać jako bitmapy. Grafika wektorowa - drugi typ grafiki komputerowej. W przeciwieństwie do grafiki rastrowej, gdzie opisuje się pojedyncze piksele, w grafice wektorowej opisywany jest cały obszar obrazka oraz to, co ma być na nim wyświetlone. Używa się do tego prostych figur geometrycznych zwanych fachowo prymitywami. Oprócz typu figury, opisuje się jej położenie, tak więc grafikę wektorową można nazwać też obiektową. Podstawowy format plików wykonanych w grafice wektorowej to bitmapa, z rozszerzeniem *.bmp.

Grafica 3D, która przedstawia na płaszczyźnie rzut 3 wymiarowej sceny; zaawansowane techniki pozwalają na zmianę projekcji, na „poruszanie się" w prezentowanej przestrzeni.

Kodowanie dźwięku

Fala dźwiękowa to sygnał analogowy, komputer przetwarza sygnały cyfrowe; potrzebna jest transformacja. Ucho odbiera dźwięki do ok. 22 kHz; by nie tracić jakości należy stosować częstotliwość próbkowania 44 kHz. Obecnie popularny przenośny format mp3 (MPEG Audio Layer 3) i inne.

MP3 - format dźwięku, który w dzisiejszych czasach króluje na rynku muzycznym w Internecie. Kupowanie piosenek w Sieci, tzw. empetrójek jest dostępne na wielu stronach wytwórni muzycznych oraz w programach, przez które można kupować piosenki i całe płyty (iTunes). Ostatnio pojawiły się też zespoły, które swoją twórczość wydają tylko w formacie .mp3 i sprzedają ją w formie elektronicznej. Format mp3 charakteryzuje się szerokim pasmem przenoszenia dźwięków - najbardziej popularny to 128kbps (ang. kilobits per second, czyli kilobity na sekundę). Na początku, gdy dopiero powstawał ten typ kompresji, używano stałej przepustowości przez całe utwory, dźwięki, a obecnie jest ona zmienna i różna w pasmach dźwięków. Format ten oferuje dźwięki stereo (w 3 różnych typach kompresji) i surround.

MP4 - format dźwięku i obrazu. Zdobywa serca Internatów, ponieważ został stworzony z myślą o mediach internetowych - np. cyfrowej telewizji. Jego zaletą jest również to, że ma małe pasmo przenoszenia danych (2kbps), więc podczas pobierania pliku mp4 przy niskim transferze zachowuje wysoką jakość obrazu i dźwięku. Postęp widać szczególnie w sposobie kodowania i rozkodowania dźwięku; w ujęciach filmowych są trzy głębie dźwięku, co daje efekt dolby surround, czyli otaczającego nas dźwięku jak w rzeczywistości. Podstawowe rodzaje kodów podano w poniższej tabeli.

Tabela.

Podstawowe rodzaje kodów

Kody nie nadmiarowe

Długości ciągów są takie, aby zapewnić jednoznaczne zakodowanie wiadomości

Kody nadmiarowe

Ciągi kodowe są dłuższe niż wymaga to warunek jednoznacznego zakodowania wiadomości

Kody równomierne

Wszystkie ciągi kodowe mają jednakową długość

Kody nierównomierne

Ciągi kodowe mają różne długości

Kody detekcyjne

Możliwe jest wykrywanie występujących przekłamań

Kody korekcyjne

Możliwa jest poprawa występujących przekłamań

W tym miejscu należy jeszcze wspomnieć o szyfrach. Konstrukcję takich kodów opisano http://pl.wikipedia.org/wiki/Szyfr. Szyfr to procedura takiego przekształcania wiadomości, żeby była ona niemożliwa (lub bardzo trudna) do odczytania przez każdego, kto nie posiada odpowiedniego klucza. Wiadomość przed zaszyfrowaniem nazywa się tekstem jawnym (plaintext)y a wiadomość zaszyfrowaną - szyfrogramem (ciphertext). Szyfrowanie stosowano już bardzo dawno, ale nowoczesna kryptografia narodziła się dopiero w epoce komputerów i starsze metody szyfrowania są z dzisiejszego punktu widzenia zupełnie bezużytecznie. Należy jednak pamiętać, że szyfrowanie ma cel głównie praktyczny: jest nim utrudnienie dostępu do informacji. Jeśli zadowalamy się utrudnieniem wyłącznie czasowym, np. dwa lata lub dwie godziny, użycie prostych szyfrów może być jak najbardziej uzasadnione np. ekonomicznie.

Kodowanie tekstu

W latach sześćdziesiątych XX wieku opracowano standard ASCII. Podana na następnej stronie tabela kodów ASCII zawiera 128 liczb i odpowiadające im znaki (litery, cyfry, znaki interpunkcyjne oraz symbole). American Standard Code for Information Interchange — ASCII. Kod reprezentujący znaki języka angielskiego jako liczby. Każdemu znakowi przypisana jest liczba z zakresu od 0 do 127, w rozszerzonym kodzie ASCII wykorzystywane są kolejne liczby 128 - 256,zależnie od zapisu danego języka. Kod ASCII wykorzystywany jest do reprezentacji tekstu i do przesyłania danych między komputerami.

Tekst w kodzie ASCII nie zawiera żadnych informacji o atrybutach formatowania, takich, jak pogrubienie, kursywa lub nazwa czcionki. Kod ASCII jest używany do zapisywania plików w Notatniku oraz w programie Microsoft Office Word przy zapisywaniu pliku jako zwykłego tekstu. W ogłoszeniach o naborze pracowników, pracodawcy niekiedy wymagają od kandydatów przekazywania życiorysów w formacie ASCII. Dzięki temu tekst jest gotowy do przetwarzania w oprogramowaniu do optycznego rozpoznawania znaków OCR (OCR - Optical Character Recognition). W rozszerzonym kodzie ASCII znajdują się litery specyficzne dla poszczególnych języków, niektóre znaki matematyczne oraz znaki symulujące elementy grafiki na komputerach. Inny, nowszy standard kodowania znaków nosi nazwę Unicode. Standard kodowania znaków opracowany przez konsorcjum Unicode Consortium. Unicode jest znacznie większym zestawem znaków - składa się z 65536 znaków, w porównaniu do 128 w kodzie ASCII lub 256 w rozszerzonym kodzie ASCII. Dzięki temu, w jednym zestawie można pomieścić większość znaków z wielu różnych języków. Przetwarzanie informacji nie oznacza samego zapisywania tekstów. Dodatkowe informacje (wytłuszczenie, różne czcionki, akapity,...) też trzeba zakodować. Dodatkowe kody pozwalają zapisać znacznie więcej informacji, ale wymagają dekodowania według tych samych reguł, z jakimi były kodowane.

Kodowanie liczb

Na ogół operujemy systemami pozycyjnymi (wartość zapisywanego znaku zależy od jego położenia), np.:

W systemie dziesiętnym za bazę przyjmuje się liczbę dziesięć. Tym samym napis 1946532 oznacza: lxlO6 + 9xlO5+ 4xlO4+ 6xl03+ 5xlO2+ 3xl0J+ 2x10°. System pozycyjny umożliwia też zapisywanie ułamków, przy czym liczby wymierne składają się albo ze skończonej liczby znaków, albo są od pewnego miejsca okresowe. Np. 3,115, rozumiemy jako: 3x10°+ baO"^ lxlO"2+ 5xlO"3. Wśród systemów pozycyjnych oprócz dziesiętnego systemu liczbowego używanego w codziennym życiu warto wymienić też:

System dwójkowy (binarny) to system pozycyjny, w którym podstawą pozycji są kolejne potęgi liczby 2. Do zapisu liczb potrzebne są więc tylko dwa znaki: 0 i 1.

Jak w każdym systemie pozycyjnym, liczby zapisuje się tu jako ciąg cyfr, z których każda jest mnożnikiem kolejnej potęgi liczby stanowiącej podstawę systemu. Np. liczba zapisana w systemie dziesiętnym jako 10, w systemie dwójkowym przybiera postać 1010, gdyż: Ix23 + 0x22 + 1x2* + 0x2° =8+2=10.

Liczby w systemach nie dziesiętnych oznacza się czasami indeksem dolnym, zapisanym w systemie dziesiętnym, a oznaczającym podstawę pozycji danego systemu. W systemie dwójkowym można przedstawiać również liczby rzeczywiste. Dla przykładu ułamek dziesiętny: daje się zapisać jako: 0,19410=0,00110001101012=lx2-3+ Ix2"4+ Ix2"8+ Ix29+ Ix2"n+ Ix2"13+ Ix2"15.

Liczby ujemne: kodowanie w systemie znak-moduł: umawiamy się, że jeden bit z liczby oznacza jej znak (np. ósmy bit). Dla jednego bajta otrzymamy liczby (-127, 127). Ten zakres można rozszerzyć używając dwa bajty, cztery bajty, etc. Problem: niejednoznaczność definicji zera: