Informatyka (


INFORMATYKA

Komputer to „cudowne” narzędzie drugiej połowy XX wieku, dawno już przestał być genialnym rachmistrzem oddanym na usługi wyspecjalizowanych grup działania m.in. naukowców i inżynierów itp. grup. Rozpowszechniony jest on wśród szerokich rzesz ludzi różnych zawodów i stał się przede wszystkim uniwersalnym CENTRUM INFORMACYJNO - KOMUNIKACYJNYM - bez którego trudno sobie wyobrazić funkcjonowanie tętniącego życiem świata.

A skoro życie to wieczny ruch komputer „stara się” w nim uczestniczyć - zawsze towarzysząc swojemu użytkownikowi. Skoro nasz komputer to centrum INFORMACYJNO - KOMUNIKACYJNE to wyjątkową funkcjonalność tego systemu zapewnia sieciowa instalacja interaktywnego multimedialnego połączenia sprzętowego i programowego.

Wykorzystując komputery, a jak wiemy znajdują one zastosowanie w wielu różnych dziedzinach naszego życia m.in. technice, medycynie, naukach ekonomicznych, zarządzaniu, - zyskujemy „niebywałe” zasoby twórczości i innowacyjności jeśli uświadomimy sobie i otoczeniu, w którym funkcjonujemy, że można myśleć jak i robić taki biznes (wykorzystując tą technikę) - który nie liczy się z ograniczeniami wynikającymi z czasu i przypisania do aktualnego miejsca pobytu. Możemy powiedzieć więc, że komputer jest jednym z narzędzi - instrumentów wspomagających zarządzanie i podejmowanie decyzji. Należy jednak pamiętać, że spełnia on tylko funkcję wspomagającą i usprawniającą procesy zarządzania, a nie zastępuje menedżera w wypełnianiu jego funkcji. Dlatego też „wyzwaniem” dla współczesnego menedżera jest kreowanie jego działalności w oparciu o stosowanie zaawansowanych technik, metod i narzędzi informatycznych, gdzie poprzez wkomponowaną wielość różnorodnych modeli optymalizacyjnych, ekonometrycznych, algorytmów, funkcji finansowych, ekonomicznych, statystycznych m.in. w arkuszach analityczno planistycznych, relacyjnych bazach danych i innych aplikacjach pozwalają na powiązanie wiedzy technicznej użytkownika komputera z oczekiwaniami i możliwościami doświadczonego pracownika danej organizacji.

W warunkach gospodarki rynkowej każda decyzja gospodarcza, finansowa lub inwestycyjna zawiera w sobie elementy niepewności i ryzyka. Aby zmniejszyć ich wpływ na podejmowanie decyzji należy skorzystać z nowoczesnych narzędzi informatycznych pozwalających zarówno na nowoczesne sposoby zarządzania, kontrolowania, planowania, a więc najogólniej rzecz biorąc formułowania strategii taktyki działania obrębie organizacji gospodarczej.

Wykorzystanie narzędzi informatycznych, a więc (programów, pakietów, systemów) w szeroko rozumianym wspomaganiu zarządzania możemy umiejscowić w wielu obszarach. W szczególności analiza działalności organizacji gospodarczej może być prowadzona w następujących obszarach:

Ostatnie lata przynoszą dynamiczny rozwój technologii informatycznych, które w dość istotny sposób mają wpływ na sposób prowadzenia działalności gospodarczej w organizacjach. Otwierając nowe możliwości stawiają coraz to nowe wyzwania dla organizacji jak i menedżerów. Aby wygrać w dynamicznie zmieniającym się otoczeniu organizacji, zdobyć przewagę na coraz to bardziej konkurencyjnym rynku, maksymalizować zysk firmy nie mogą zignorować postępu w rozwoju teleinformatyki.

Postęp w technologii informacyjnej ma swój wyraz zarówno w sprzęcie komputerowym, jak i oprogramowaniu. Więcej zadań, niż dotychczas, może być realizowanych przy udziale programów komputerowych. Do najbardziej znamiennych cech w trendach rozwoju współczesnej informatyki zaliczyć możemy więc następujące elementy:

Pozyskiwanie i integracja danych potrzebnych do tworzenia i realizacji systemów; konsolidacji oprogramowania oraz procedur niezbędnych do ich eksploatacji jak i znacznego rozwoju sprzętu komputerowego powoduje, że cały system informacyjny organizacji przesuwa się w kierunku zintegrowanego SIZ (Systemu Informacyjnego Zarządzania) - komputerowo zintegrowanej organizacji (Computer Integrated Organisation). W ramach tak przedstawionej koncepcji ujmującej w sposób kompleksowy wszystkie procesy zachodzące w organizacji, gdzie głównym elementem projektu jest zintegrowana baza danych, z której korzystają wszystkie komórki przedsiębiorstwa mamy możliwość sprawnego i efektywnego zarządzania i kierowania organizacją.

Systemy informacyjne wspomagające menedżera w jego działaniach służą dokonywaniu analiz decyzyjnych, kontroli funkcjonowania instytucji oraz koordynacji działań jej członków. Umożliwiają zatem rutynowe podejmowanie pewnej liczby decyzji o charakterze stałym i powtarzalnym, jak również wspomagają decydowanie i podejmowanie decyzji o pewnym stopniu ryzyka i niepewności (decyzje nie rutynowe).

Systemy informacyjne mają również możliwość przechowywania danych dotyczących przeszłości, co może być punktem odniesienia do kontroli bądź weryfikacji ewolucji organizacji, jak również identyfikacji niesprawności.

W ramach każdego procesu podejmowania decyzji można wyodrębnić specyficzny obieg informacji;

Informacja dla zarządzania jest szczególnym rodzajem informacji, gdyż związana jest z realizacją podstawowych funkcji zarządzania takich jak:

Efektywne zarządzanie jest możliwe tylko wtedy, kiedy posiadamy informacje o organizacji i jej otoczeniu.

Na ogół w działalności menedżerskiej odnosimy się do wielości informacji ekonomicznych, które dotyczą wszelkich zjawisk i procesów gospodarczych, które można wykorzystać w procesie zarządzania i w procesach podejmowania decyzji.

Wychodząc z ogólnego określenia systemu informacyjnego możemy stwierdzić, że elementami systemu informacyjnego dowolnej organizacji jest następujący zbiór elementów:

Si= {P, I, T, O, M, R}

gdzie:

Si - system informacyjny danej organizacji,

P - zbiór podmiotów, które są użytkownikami systemu,

I - zbiór informacji w sferze realnej, czyli o jej stanie i zachodzących w niej zmianach, a więc zasoby informacyjne,

T - zbiór narzędzi technicznych stosowanych w procesie pobierania, przesyłania, przetwarzania, przechowywania i wydawania informacji,

O - zbiór rozwiązań systemowych stosowanych w danej organizacji, a więc stosowana formuła zarządzania (scentralizowana, rynkowa).

M - zbiór metainformacji, czyli opis systemu informacyjnego i jego zasobów,

R - relacja między poszczególnymi zbiorami.

Jednak w literaturze polskiej używa się jeszcze pojęcia system informatyczny dla określenia takiego systemu informacyjnego, w którym zastosowany jest komputer.

System informatyczny jest to wyodrębniona część systemu informacyjnego, która jest, z punktu widzenia przyjętych celów skomputeryzowana.

Na system informatyczny składa się więc: sprzęt (hardware), oprogramowanie (software), baza danych, telekomunikacja, ludzie, organizacja.

Przykładowe połączenie poszczególnych modułów systemu informatycznego ilustruje przytoczony graf.

0x01 graphic

Hardware jest to sprzęt techniczny, dzięki któremu informacje są nadawane, odbierane, przetwarzane i przesyłane. Jest to zbiór, który składa się z rozmaitych urządzeń technicznych takich jak: procesor, pamięć, urządzenia wejścia (klawiatura, czytniki), urządzenia wyjścia (monitory, drukarki).

Software po polsku oprogramowanie. Jest to zbiór programów i instrukcji napisanych w specjalnym języku, który jest zrozumiały dla komputera.

Baza danych jest to taka organizacja zintegrowanych i zaagregowanych zbiorów danych z pewnej dziedziny informacji, która pozwala na zaspokojenie potrzeb jednego lub wielu użytkowników bez uprzedniego sortowania w różne pożądane struktury potrzebne do przetwarzania lub bezpośredniego udzielania informacji. Dane są tak zorganizowane, że korzystanie z nich jest niezależne od oprogramowania, jak i od dysponowanego sprzętu. Powszechnie uważa się, że dopiero od czasu powstania bazy danych możemy mówić o pełnym zastosowaniu systemów informatycznych w zarządzaniu.

W literaturze przedmiotu spotkać się można też z określeniem bazy danych jako zbioru wzajemnie powiązanych danych pamiętanych bez zbędnej redundancji, służących jednej lub wielu zastosowaniom w sposób optymalny.

Telekomunikacja jest to organizacja, sprzęt oraz oprogramowanie umożliwiające wspólną pracę dwu lub wielu komputerów, a w pewnych sytuacjach pozwalająca na pracę jednego komputera z terminalami, czyli tzw. końcówkami (stacje robocze). Dzięki telekomunikacji możliwe jest połączenie komputerów w regionie, kraju lub na całym świecie (przykładem takiej globalnej sieci jest sieć rozległa typu INTERNET - INTRANET).

Ludzie to najważniejszy element całego systemu. Personel obsługujący informatyczne systemy zarządzania, kierowania, wspomagania decyzji jak również systemy doradcze to ludzie, którzy: zarządzają, projektują, programują, eksploatują, konserwują wymienione systemy. Oczywiście cały wymieniony personel jest również zaliczany do personelu systemu informatycznego. Przygotowanie ich wszystkich decyduje o tym, czy system będzie sprawny, efektywny i niezawodny. Na nic zda się zastosowanie najnowszego sprzętu informatycznego i oprogramowania, jeżeli personel go obsługujący i nadzorujący nie będzie na najwyższym profesjonalnym poziomie.

Organizacja sprawia, że poszczególne elementy systemu stanowią całość. Organizacja zawiera w sobie: strategie rozwoju, politykę, reguły i zasady postępowania.

W niedalekiej przyszłości nie będziemy używać pojęcia system informatyczny w stosunku do systemów informacyjnych zarządzania. Problem będzie dotyczyć tylko, jak wielkie powinno być w systemie informacyjnym nasycenie sprzętem komputerowym (komputery wraz z oprogramowaniem, sprzęt teleinformatyczny, reguły i modele zarządzania i decyzji).

W literaturze anglojęzycznej używa się w tym względzie szerszego pojęcia MIS czyli Management INFORMATION Systems. I tak:

R. M. Stair pisze, że system informacyjny zarządzania to, „zorganizowany zbiór ludzi, procedur przetwarzania baz danych oraz urządzeń używanych do dostarczania informacji dla menedżerów i decydentów".

Podobnie E. Turban stwierdza, że „System Informacyjny Zarządzania jest formalnym, komputerowym systemem stworzonym w celu dostarczenia, selekcjonowania i integracji dostarczonej z różnych źródeł informacji w celu zapewnienia aktualnych informacji niezbędnych dla podejmowania decyzji w zarządzaniu".

System informacyjny możemy określić zatem jako wielopoziomową strukturę, która pozwala użytkownikowi tego systemu na transformowanie określonych informacji wejścia na pożądane informacje wyjścia za pomocą odpowiednich procedur i modeli. W wyniku uzyskania tych informacji podejmowane są określone decyzje.

Dlatego też konkretny system informacyjny można analizować jako:

Analizując system informacyjny z punktu widzenia jego struktury rozpatruje się przede wszystkim samo jego zachowanie niezależne od zadań, dla których został on zbudowany.

Reasumując możemy powiedzieć, że system informacyjny organizacji to struktura, która pozwala użytkownikowi tego systemu na transformowanie określonych informacji wejścia na pożądane informacje wyjścia za pomocą odpowiednich procedur i modeli, w wyniku których usprawniamy funkcjonowanie organizacji i podejmowane są określone decyzje kierownicze.

Pojęcie informacji jest jednym z najtrudniej definiowanych pojęć naukowych. Mimo że każdy intuicyjnie zdaje sobie sprawę z tego, co to jest informacja, to jed­nak jej zdefiniowanie napotyka wiele problemów.

Podstawą funkcjonowania każdej organizacji jest posiadanie określonych informacji, które stanowią jej zasoby. Informacja we współczesnym świecie gospodarczym jest tym zasobem, którym dysponuje przedsiębiorstwo, wraz z ziemią, kapitałem i człowiekiem.

Stanowi więc jego główną siłę.

Nie istnieje jednak jedna uznana definicja informacji.

N. Winer wprowadzając pojęcie informacji stwierdza, że „... Jest ona jak gdyby nazwą treści pochodzącą ze świata zewnętrznego w miarę jak do niego przystosujemy swoje zmysły...”.

K. Krzakiewicz przez informację rozumie „...przekazywaną przez nadawcę do odbiorcy pewną treść będącą opisem, poleceniem, nakazem, zakazem lub poleceniem.”

R. Aschby uważa, że „...informacja to przekazywanie różnorodności”.

W. Głuszkow określa informację „...jako wszelkie wiadomości o procesach i stanach dowolnej natury, które mogą być odbierane przez organy zmysłowe człowieka lub przyrodę..”.

Definicja podana przez W. Flakiewicza określa „informację jako czynnik, który zwiększa naszą wiedzę o otaczającej nas rzeczywistości”.

Tsitchizris i Lochovsky definiują informację jako „przyrost wiedzy, który może być uzyskany na podstawie danych”

E. Niedzielska przytacza francuskie przysłowie, które głosi : „bez materii nie ma nic, bez energii wszystko nieruchome, bez informacji jest chaos”.

Uogólniając i odnosząc się raczej do intuicji w rozumieniu tego pojęcia możemy stwierdzić;

Informacja to więc taki rodzaj zasobów, który pozwala na zwiększenie naszej wiedzy o nas i otaczającym nas świecie.

Według B. Stefanowicza informacja wykorzystywana w organizacji przez menedżerów do procesów decyzyjnych powinna charakteryzować się następującymi własnościami:

W informatyce przyjmuje się, że informacją nazywamy wielkość abstrakcyjną, która może być przechowywana w pewnych obiektach (np. komputerach), przesyła­na między pewnymi obiektami (np. komputerami), przetwarzana w pewnych obiek­tach (np. komputerach) i stosowana do zarządzania pewnymi obiektami. Obiekt może być komputerem, ale nie musi być nim. Informatyka zajmuje się wtedy informacją, jeżeli jeden z obiektów, biorących udział w: przechowywaniu, przetwarzaniu, prze­syłaniu, zarządzaniu związany jest, jak stwierdziliśmy wcześniej, z komputerem.

Zamiennie z pojęciem informacja w literaturze bardzo często używa się pojęcia wiadomość i dana. Przyjmujemy więc, że informacja dla zarządzania ma charakter partykularny tzn. przedstawiona jest w postaci wiadomości wyrażonych w określonych językach, czy też systemach znakowych. Znakową postać informacji będziemy nazywali danymi.

Dane są taką postacią informacji , którą możemy przetworzyć z użyciem sprzętu komputerowego. W literaturze przyjmuje się, że Dane są to surowe nie poddane analizie fakty, a więc np. liczby i fakty dotyczące określonych zjawisk lub wydarzeń.

Informacja natomiast jest wynikiem uporządkowania danych lub ich przeanalizowania w jakiś znaczący sposób.

Użytkownik otrzymuje dane w formie wiadomości.

Wiadomości są to więc uporządkowane zbiory danych, które zawierają informacje dla zarządzania.

J. A. F. Stoner i C. Wankel przedstawiają następujący łańcuch w procesie podejmowania decyzji:

DANE (surowe fakty) mogą stać się - INFORMACJĄ (przeanalizowanymi danymi), które mogą stać się - INFORMACJĄ ZARZĄDCZĄ (wnioskami dotyczącymi działania), która może doprowadzić do - DECYZJI I DZIAŁANIA.

dane - informacja (informacja zarządcza) - decyzja (działanie) - zarządzanie

Rozwijając dalej tę myśl można stwierdzić, że dana jako jednostka jest to jeden lub kilka symboli użytych do reprezentowania „czegoś".

Natomiast informacja to zinterpretowane dane, umieszczone w znaczącym kontekście. Informacja wykorzystywana w organizacjach do zarządzania jak i użyta w procesie decyzyjnym powinna mieć charakter subiektywny i musi być zawsze rozpatrywana w kontekście odbiorcy. Te same dane mogą być różnie interpretowane bowiem przez różnych użytkowników w zależności od posiadanej wiedzy i przeznaczenia.

Informacja - może być więc interpretowana jako wynik uporządkowania danych lub ich określonego przeanalizowania w mniej lub bardziej znaczący sposób.

Uogólniając możemy więc przyjąć, że podstawowe cechy wyróżniające informację dla zarządzania w stosunku do innych typów informacji są takie, że:

Jako dziedzina naukowa INFORMATYKA - jest nauką o przetwarzaniu informacji za pomocą komputerów i przy użyciu odpowiedniego oprogramowania lub też możemy powiedzieć, że INFORMATYKA - jest to zespół dyscyplin naukowych i środków technicznych ukierunkowanych na przetwarzanie informacji przy użyciu środków technicznych.

PRZEDMIOTEM BADAŃ INFORMATYKI są zatem:

Algorytm przetwarzania - podaje pełny opis działania operatora przekształcenia danych i zawiera następujące elementy składowe:

- charakterystykę danych wejściowych,

- określenie reguł przetwarzania,

- charakterystyką danych wyjściowych.

Realizowane to jest więc w uporządkowanym ciągu działań i ustalonym czasie, ten uporządkowany ciąg działań w wyniku którego następuje przekształcenie danych wejściowych w dane wyjściowe nazywamy - PROCESEM PRZETWARZANIA DANYCH

Każdy taki proces przekształcenia danych w WE/WY zawiera co najmniej jeden algorytm przetwarzania

Elementami systemu przetwarzania danych są zatem:

- określone grupy ludzi,

- środki techniczne,

- ustalony zestaw metod i technik przetwarzania

Właściwy danemu systemowi zestaw metod i technik przetwarzania danych nazywamy więc SYSTEMEM PRZETWARZANIA DANYCH.

INFORMACJA W KOMPUTERZE.

Nośnikami infor­macji w komputerze są sygnały elektryczne. W odróżnieniu od stosowanego po­wszechnie systemu dziesiętnego, są one przedstawione w postaci dwójkowej (systemie binarnym).

Możemy więc przyjąć, że sygnały są dwustanowe, tzn. takie, że ich parametry mieszczą się w jednym z dwóch dopuszczalnych przedziałów. Cyfry 0 i 1 zwane są bitami. Jest to przyjęty skrót terminu angielskiego Binary Digit. Jest to elementar­na jednostka informacji. Wszystkie informacje wewnątrz komputera trzeba przed­stawić za pomocą wybranych ciągów zero jedynkowych. Przyporządkowanie wybra­nych ciągów zero jedynkowych obiektom, które mają reprezentować, nazywa się kodowaniem, natomiast ciągi zero jedynkowe, reprezentujące określone informacje, nazywa się kodami.

Bit jako element miary informacji jest jednostką małą i używa się w praktyce jej wielokrotność. Jednostką większą częściej używaną jest poję­cie bajtu, który równy jest 8 bitom. W większości współczesnych komputerów bajt stano­wi podstawową jednostkę informacji. W praktyce mogą reprezentować np. liczbę, znak, roz­kaz lub adres komórki.

Istotą poznania miar informacji stosowanych w komputerze jest to, że aby właściwie odczytać pewne istotne parametry funkcjonalne, takie jak:

należy znać i prawidłowo interpretować miary informacji.

Większymi jednostkami są kilobajt skrót - kB, megabajt - skrót MB oraz gigabajt - skrót GB, terabajt - skrót TB.

1 kB = 210 bajtów = 1024 bajtów,

1 MB = 210 kB = 1024 kilobajtów = 1048576 bajtów,

1 GB = 210 MB = 1024 megabajtów,

1 TB = 210 GB = 1024 gigabajtów.

Praktycznie wielkości te zaokrągla się i przyjmuje w obliczeniach, że

1 MB rów­na się 1000 kB i 1000 000 bajtów. Jednak należy pamiętać, że jest to tylko pewne uproszczenie, natomiast faktyczne wielkości są nieco inne.

Człowiek komunikuje się z otoczeniem, w tym również z komputerem za pomocą technik wygodnych dla siebie, a więc za pomocą:

arytmetycznych itp.

Te trzy grupy znaków określa się w informatyce wspólnym mianem znaków alfanumerycznych. A więc przy zapisie liczb korzysta się z:

1998 = 1 ⋅ 10 3 + 9 ⋅ 10 2 + 9 ⋅ 10 1 + 8 ⋅ 10 0

7,53 = 7 ⋅ 10 0 + 5 ⋅ 10 - 1 + 3 ⋅ 10 - 2

8 = 10

10 = 12

15 = 17 itd.

  1. 2 = 1 x 2 3 + 1 x 2 2 + 1 x 2 1 + 0 x 2 0 = 2 n dn

gdzie dn - wartość liczby przedstawionej na i-tej pozycji

zaś konwersja odwrotna z dziesiętnej na binarną

27 = 11011

0x08 graphic
27 / 2 13 reszta 1

13 6 1

6 3 0

3 2 1

1 0 1

AF 13 (16) = 3 + 16 1 x 1 + 16 2 x 15 + 16 3 x 10 = 3 + 16 + 3740 + 37560 = 41319 (10)

Do przetworzenia informacji przedstawionej w systemie dziesiętnym na inne stosuje się konwersję.

Konwersja polega na zmianie zapisu źródłowego na zapis pożądany - najczęściej realizowana jest w komputerach w ramach jego pracy (przetwarzania).

Przykład

HX DEC OTC BINARNY

8 8 10 1000

A 10 12 1010

F 15 17 1111

Ponieważ do zakodowania jednego znaku wykorzystujemy 1 bajt - przyjmujemy, że w ten sposób możemy zakodować 28 czyli 256 różnych znaków. Są to między innymi: małe i duże litery, cyfry, operatory matematyczne i logiczne, znaki specjalne.

Kody definiuje się za pomocą specjalnych tablic. Dla użytkowników istotne są kody rozkazów komputera i kody znaków stworzone do przekazania tekstów zrozu­miałych dla człowieka. Kody znaków pisanych mają standaryzacje w skali między­narodowej i są ujęte w normach wydawanych przez takie organizacje, jak ISO (In­ternational Standard Organization) czy ANST (American National Standard lnstitute). Dla wymiany informacji między różnymi komputerami opracowany został standardowy kod wymiany informacji ASCII (American Standard Code for lnfor­mation Interchange), w którym każdemu znakowi podporządkowano odpowiedni kod (tab.1).

Do kodowania znaków alfanumerycznych (litery, cyfry, operatory matematyczne, znaki specjalne i inne) - stosowane są określone standardy.

Jednym z podstawowych standardów jest kod ASCII i American Standard Code for Information Interchange - Amerykański Standardowy Kod Wymiany Informacji.

Opiera się on na przyporządkowaniu wszystkim znakom z podstawowej klawiatury amerykańskiej oraz niektórym ważnym znakom specjalnym (np. powrót karetki, zmiana wiersza).

W wielu przypadkach ograniczenie się do kodu ASCII jest jednak niewystarczające - kwestie nacji językowych wykorzystano w tym celu kody od 128 do 255, bo mamy na to 1 bajt - jako elementarna jednostka informacji.

Przykłady znaczeń niektórych kodów ASCII

Kod ASCII

Znaczenie

Kod ASCII

Znaczenie

100 0001

100 0010

100 0011

100 0100

100 0101

100 0110

100 0111

100 1000

100 1001

100 1010

A

B

C

D

E

F

G

H

I

J

011 0000

011 0001

011 0010

011 0011

011 0100

011 0101

011 1011

011 0111

011 1000

011 1001

0

1

2

3

4

5

6

7

8

9

W tego typu kodach to:

Przy użyciu ASCII można przedstawić 128 znaków. Jest to kod 7-bitowy. Ze wzglę­du na fakt, że elementarną jednostką informacji jest 1 bajt, to dodatkowo można zakodować dalsze 128 znaków. Nazywa się on rozszerzonym kodem ASCII, który zawiera kody od 128 do 255. W tym zakresie można dodatkowe kody wykorzystać na polskie znaki. Jednak w Polsce nie ma w tym względzie ujednoliconego stanowi­ska i w praktyce spotykamy się z kilkoma różnymi standardami, z których najpopu­larniejszymi są: Mazovia oraz Latin II.

PRZETWARZANIE INFORMACJI LICZBOWYCH.

Komputer wykonuje obliczenia w układzie dwójkowym (binarnym). Istnieją różne metody zapisu liczb dziesiętnych na system dwójkowy lub odwrotnie. Jedną z naj­prostszych metod konwersji systemu dwójkowego na dziesiętny jest metoda pozy­cyjna. Wartość dziesiętną możemy wyliczyć ze wzoru:

W=do+21.d1+22.d2+...+2n.dn

gdzie d - wartość liczby przedstawionej na i-tej pozycji,

Dokonując podsumowania tej części materiału możemy stwierdzić, że informatyka jest nauką o przetwarzaniu informacji za po­mocą komputera i przy użyciu odpowiedniego oprogramowania. System, który zaj­muje się przetwarzaniem informacji, nazywamy systemem informacyjnym. System informatyczny jest pojęciem węższym i zawsze związane jest to z zastosowaniem techniki komputerowej. System komputerowy składa się z: hardware (sprzętu), so­ftware (oprogramowania), bazy danych często uzupełnionych o bazę modeli i bazę wiedzy, telekomunikacji, ludzi i organizacji.

Informacje przetwarzane są w komputerze przy pomocy dwustronnych sygnałów. Podstawową jednostką informacji jest bit. W praktyce używa się większych jednostek, takich jak: bajt, kilobajt, megabajt czy też gigabajt. Dla zapisania poszczególnych zna­ków, takich jak litery, cyfry, operatory matematyczne i inne, stosowane są określone standardy. Jednym z najbardziej popularnych standardów jest kod ASCII. Stosowany jest on dla wymiany znaków między różnymi komputerami.

Dla przetworzenia informacji przedstawionej w systemie dziesiętnym stosuje się konwersję. Konwersja polega na zmianie zapisu źródłowego na zapis pożądany. Najczęściej w przypadkach przetwarzania przez komputer polega na zmianie syste­mu dziesiętnego na system dwójkowy.

KOMPUTERY I ICH RODZAJE.

Postęp i rozwój techniki informatycznej dokonuje się w największym stopniu w zakresie technologii budowy komputerów. Konsekwencją jest pojawianie się wciąż nowych typów komputerów w dużej mierze chodzi o nowoczesne mikroprocesory, pamięci i urządzenia peryferyjne dostosowane do potrzeb współczesności. Podział na typy komputerów jest umowny. Problemem jest wybór kryterium rozróżnienia poszczególnych typów komputera. Najczęściej stosowanym kryterium jest przeznaczenie, budowa, funkcjonalność i cena, jaką płacimy za kupno komputera. Według tego handlowego kryterium komputery można podzielić na:

  1. mikrokomputery,

  2. minikomputery,

  3. superkomputery,

Mikrokomputery są typem komputerów, które spowodowały największe zmiany i spowodowały rozpoczęcie ery informacyjnej. Mikrokomputery można podzielić na dwie podstawowe grupy, a mianowicie:

Uniwersalne z kolei można podzielić na:

Komputery profesjonalne, zwane popularnie komputerami personalnymi, są grupą najliczniejszą w różnego typu zastosowaniach.

Komputery ze względu na sposób użytkowania można podzielić na:

Specjalną grupę stanowią dostępne od 1992 r. komputery sterowane pisakiem, tzw. pen-komputery, pen pad. Użytkownik może go bardzo łatwo przekształcić w normalny komputer. Dokonuje się tego przez dołączenie monitora o normalnych rozmiarach, stacji, dysków, klawiatury, myszy.

Minikomputery są to w zasadzie komputery, które w porównaniu z mikrokom­puterami charakteryzują się większą pojemnością pamięci operacyjnej, dłuższym słowem maszynowym, możliwością równoczesnej pracy wielu użytkowników.

Podobnie jak produkcja personalnych komputerów zdominowana jest przez kom­putery firmy IBM i komputery z nimi kompatybilne. Głównie są to produkty firmy DEC (Digital Eguipment Corp.), przedstawicielem kom­puterów firmy DEC są komputery serii VAX. Popularnymi, również w Polsce są minikomputery firmy IBM serii AS/400 (Apllication System), oraz komputery firmy Hewlett - Packard, w tym popularny model P3000.

Do minikomputerów zalicza się często tzw, stacje robocze (work-stations). Sta­cje roboczą łączą cechy sprzętu mikro i mini. Współczesne stacje robocze można określić następująco według funkcjonalności parametrów techniczno eksploatacyjnych:

W grupie tej wyróżnić można stacje do: przetwarzania danych biurowych, obsłu­gi procesów produkcyjnych, prac projektowo-inżynieryjnych, tzw. CAD/CAM, ob­sługi instytucji finansowych (szczególnie banków i giełd).

Main-frame, czyli komputery duże i średnie. W latach osiemdziesiątych rozpo­wszechniony był pogląd, że personalne komputery wyprą komputery innych typów. Okazało się jednak, iż mimo że komputery personalne przejęły szereg zadań i mogą je samodzielnie realizować to średnie i duże komputery będą odgrywały znaczną rolę, zwłaszcza w bankach, supermarketach, administracji, ubezpieczeniach, jak i wszędzie tam, gdzie niezbędne są niezawodność, działanie w sieci, jak też ochro­na danych. Komputery typu mainframe są jedno- lub wieloprocesorowe o bar­dzo dużej wydajności. Pamięć zewnętrzna jest w praktyce nieograniczona. Ich ujemną cechą jest to, że wymagają specjalnych klimatyzowanych pomieszczeń, jak też profesjonalnej obsługi.

Superkomputery są obecnie komputerami o największej mocy obliczeniowej. Nie­kiedy o tego typie komputerów mówi się też: ultrakomputery, superserwery itp. Superkomputery produku­je niewiele firm, takich jak: Cray, NEC Hitachi, Fujitsu. Szybkość obliczeniowa super­komputerów mierzona jest w miliardach operacji na sekundę (gflops). Pamięci maso­we w formie pakietów dysków są praktycznie nieograniczone, natomiast pamięć operacyjną cechuje pojemność rzędu miliardów bajtów. Wysoka cena superkomputerów jest tym czynnikiem, który powoduje ograniczenie ich zastosowań. Wielu nawet bardzo bogatych użytkowników dzierżawi tego typu komputery lub kupowane są przez wyspecjalizowane konsor­cja. Także ich bardzo złożone konstrukcje wymagają specjalnych mediów chłodzących, np. ciekłego azotu, jak również innych wyspecjalizowanych mediów zabezpieczających ich funkcjonowanie.

W superkomputerach zastąpiono klasyczny system przetwarza­nia danych związanych z nazwiskiem Von Neumanna (przetwarza się jeden strumień danych w jednym procesie i jednej pamięci) na tzw. system współbieżny, gdzie zadania są realizowane równolegle na kilku procesorach (tzw. superskalary).

Człowiek ze zdrowym sercem i jasnym umysłem pozbawiony swoich zmysłów straciłby sens swojego istnienia, nie miałby żadnej możliwości komunikowania się z otaczającym go światem.

Podobnie komputer złożony jedynie z pamięci i procesora, byłby głuchym, ślepym i nieczułym na żadne bodźce, a więc nikomu nie potrzebnym urządzeniem.

Zasada działania naszych narządów zmysłów została już dawno poznana i umiemy budować urządzenia działające w podobny sposób.

Poszczególne zmysły mają dla nas różne znaczenie - najcenniejszy jest wzrok, potem słuch, następnie smak, węch, dotyk. Ta hierarchia nie jest przypadkowa, odpowiada ilości informacji, jaką nam te zmysły dostarczają, odpowiada też stopniowi skomplikowania urządzeń, które imitują narządy zmysłów:

Użytkowane, popularne programy w tym i systemy operacyjne np. typu Windows utrwalają obraz inteligencji maszyny. Ich zachowanie, prowadzenie „rozmowy” z użytkownikiem sprawia wrażenie, że komputer nie tylko wykonuje polecenia, ale potrafi także doradzić, którą drogę wybrać. Coraz częściej podczas instalacji systemu sam rozpoznaje typ sprzętu, ustawia właściwe przerwania optymalnie konfiguruje środowisko pracy. Takie - z pozoru inteligentne - działania maszyny w pewien sposób rozgrzeszają użytkowników z myślenia i odpowiedzialności. Powstaje zatem złudzenie, że tak zmyślny system potrafi sam o siebie ale również o użytkownika zadbać także w przyszłości. Samodzielność komputerów jest jednak „iluzją” wynikającą z nie dostrzeżenia roli człowieka w ich funkcjonowaniu.

Komputer lub inaczej maszyna cyfrowa - jest to więc urządzenie służące do przetwarzania informacji, przy czym to przetwarzanie odbywa się automatycznie, według wprowadzonego uprzednio do jego pamięci programu.

Treść tej definicji można przedstawić obrazowo w sposób następujący;

0x01 graphic

Zaś graf obrazujący system komputerowy tj. zestaw komputerowy ujmujący zespolenie sprzętu i oprogramowania można przedstawić następująco:

0x01 graphic

Przy czym komunikacja użytkownika z komputerem poprzez system operacyjny wyraża się wg załączonego rysunku.

0x01 graphic

Schemat funkcjonowania komputera.

0x01 graphic

Legenda:

1 - konsola operatorska,

2 - taśma magnetyczna,

3 - dysk twardy,

4 - dysk miękki (dyskietka),

5 - drukarka,

6 - monitor ekranowy.

SYSTEM KOMPUTEROWY . Wszystkie elementy kom­putera wzajemnie ze sobą powiązane tworzą system komputerowy. W zależności od zastosowania i możliwości finansowych użytkownika struktura komputera może być bardziej lub mniej rozbudowana. Podstawowymi elementami komputera przedstawionymi na rysunku są:

1. Jednostka centralna, a w niej najbardziej istotnymi elementami są:

2. Pamięci zewnętrzne.

3. Urządzenia wejścia i wyjścia.

Literatura przedmiotu określa również pojęcie komputera jako skomplikowane urządzenie, złożone z czterech podstawowych modułów:

- układu arytmetyczno-logicznego,

- układu sterowania,

- pamięci,

- układów wejścia i wyjścia.

Układ arytmetyczno-logiczny i sterowania umieszcza się razem i noszą one nazwę procesora. Procesor służy bezpośrednio do przetwarzania danych, wykonuje obliczenia i porównuje liczby. Dane i wyniki są przechowywane w pamięci. Tam też zapisany jest program, czyli zakodowany odpowiednio sposób przetwarzania informacji. Układy wejścia i wyjścia służą do komunikacji ze światem zewnętrznym. Za ich pośrednictwem dołącza się do komputera urządzenia do wprowadzania i wyprowadzania danych - urządzenia zewnętrzne. Komputery przetwarzają informacje zapisane binarnie, za pomocą wartości 0 i 1. Elementarną porcję informacji w postaci „0” i „1” nazwano bitem. Taki sposób reprezentowania informacji pozwala na uproszczenie budowy układów elektronicznych, z których zbudowany jest komputer oraz na zwiększenie niezawodności ich pracy.

Pojedynczy bit niesie małą porcję informacji, jednak za pomocą ciągu bitów można zapisać bardziej skomplikowane dane, liczby lub znaki alfabetu. W mikrokomputerach używa się na ogół porcji złożonych z ośmiu bitów, zwanych dalej bajtami.

Sposób połączenia ze sobą podstawowych modułów komputera nazywa się architekturą komputera. Uproszczony schemat połączenia czterech podstawowych modułów komputera przedstawiono na poniższym rysunku.

0x01 graphic

W schemacie zwracają uwagę moduły komputera oraz połączenia między nimi, tzw. szyny. Szyną adresową nazwano połączenie, które służy do przesyłania adresu z procesora do pamięci i układów wejścia i wyjścia. Szyna danych to połączenie, które przekazuje informacje odczytywane lub zapisywane przez procesor z pamięci lub układów wejścia lub wyjścia.

Liczba linii szyny danych, a tym samym liczba bitów, które mogą być jednocześnie przesyłane przez tę szynę, zależy od budowy procesora. Starsze mikrokomputery mają 16-bitowe szyny, nowsze 32-bitowe, a najnowsze 64-bitowe szyny. Zwiększona liczba bitów szyny pozwala na szybsze odczytywanie lub wpisywanie informacji do pamięci, a więc szybszą pracę komputera.

Jednostka centralna. Jak wcześniej stwierdzono elementem organizującym pracę całego systemu komputero­wego jest procesor. Często też w przenośni nazywamy go sercem lub mózgiem. Nowoczesny komputer wyposażony jest zwykle w kilka procesorów, wyspecjalizowanych w wykonywaniu określonego rodzaju zadań. Każdy komputer zawiera jednak jeden główny mikroprocesor, określony często mianem CPU (Central Processing Unit). W najbardziej popularnych typach komputerów, a mianowicie w personalnych komputerach, takim „sercem" jest mikroprocesor umieszczony na płycie głównej o odpowiednich parametrach techniczno funkcjonalnych i otwartej architekturze. Przy zakupie procesora patrzymy na ogół na tzw. współczynnik wydajności - czyli porównanie do wydajności jakiegoś procesora Pentium. Ten współczynnik to: COMP - indeks wydajności komputera ustanowiony przez firmę INTEL do pomiaru wydajności procesorów. Mierzymy więc współczynnik szybkości COMP do ceny procesora.

Wydajność komputera zależy więc bezpośrednio od:

Drugim z podstawowych elementów jednostki centralnej jest pamięć wewnętrz­na. Jest to bardzo szybka pamięć, w której przechowywane są programy (w tym także system operacyjny), a także dane wejściowe oraz wyniki, uzyskane w trakcie przetwarza­nia. W tych sytuacjach, kiedy nie są one natychmiast potrzebne, przesłane są do tzw. pamięci zewnętrznych (o których będzie mowa w dalszej części poradnika).

Pamięć wewnętrzna, jest zorganizowana jako ciąg komórek. Każda komórka ma swój adres. Duża pamięć pozwala na wykonanie bardzo złożonych programów. Pa­mięć ta może być zbudowana z różnych elementów. Stosuje się: pamięć ferrytową, pamięć na cienkich warstwach magnetycznych, pamięć optyczną, pamięć półprze­wodnikową oraz pamięć kriogeniczną, która wykorzystuje zjawiska nadprzewod­nictwa w niskich temperaturach.

Dawniej najbardziej popularne były pamięci ferromagnetyczne, obecnie natomiast pamięci półprzewodnikowe. Wydaje się, że w niedalekiej przyszłości powszechnie będą stosowane pamięci optyczne, które mogą charakteryzować się dużą pojemnością i szybkością przekazywania danych. Największe możliwości w tym względzie powinna mieć pa­mięć holograficzna, która wykorzystuje zjawisko holografii i możliwości jakie daje światło laserowe. Obecną wadą takiej pamięci jest to, że zapisany hologram nie może być zmieniony, co utrudnia aktualizację zasobów informacyjnych. Obok wymienionych rodzajów pamięci istnieją również pamięci innego rodzaju, np. pamięć biologiczną, itp.

Postęp w zakresie budowy pamięci wewnętrznych polega na ilości gromadzonych danych jak również minimalizacji czasu dostępu do zgromadzonych tam danych. Przyspiesza to bowiem proces przetwarzania przez mikroprocesor ze względu na to, że wszelkie dane oraz programy pobiera on z pamięci operacyjnej.

W pamięci wewnętrznej wyróżniamy dwa podstawowe rodzaje pa­mięci:

  1. Pamięć RAM (Random Access Memory), inaczej zwana pamięcią o dostę­pie swobodnym - bezpośrednim, typu zapis/odczyt wymaga ona stałego odświeżania - podania źródła zasilania. Przechowuje program i dane dla programu aktualnie realizowane­go. Po wyłączeniu komputera informacje te znikają. Jej głównymi elementami funkcjonalnymi jest więc pojemność i czas dostępu do informacji tam zgromadzonych (zapis-odczyt).

Pamięć ta jest zorganizowana jako ciąg elementarnych komórek związanych bitami pamięci z których każda jest zdolna do przechowywania jednego bitu informacji. Bity grupowane są w bajty pamięci. Każda komórka ma swój jednoznaczny numer i adres.

Na rynku informatycznym występują następujące rodzaje pamięci, które stosuje się w komputerach:

* pamięć ferrytową,

* pamięć na cienkich warstwach magnetycznych,

* pamięć optyczną,

* pamięć półprzewodnikową,

* pamięć kriogeniczną - która wykorzystuje zjawiska nadprzewodnictwa w niskich temperaturach.

Pamięci powinny charakteryzować się dwoma istotnymi parametrami:

* dużą pojemnością [GB]

* szybkością przekazywania danych [ns].

Optymalnie zatem w przyszłości powszechnie będą stosowane pamięci optyczne. W tym względzie największe możliwości powinna mieć pamięć holograficzna, która wykorzystuje zjawisko holografii i możliwości jakie daje światło lasera. Obecnie wadą tych pamięci jest to, że hologram może być zmieniony, co utrudnia aktualizację zasobów informacyjnych.

Postęp w zakresie budowy pamięci wewnętrznych dąży do koncentracji pamięci i układów logicznych związanych na bardzo małej powierzchni oraz przyspieszenia procesu przetwarzania.

PAO (pamięć operacyjna) służy do przechowywania danych i programów i składa się z następujących modułów:

0x01 graphic

  1. Pamięć ROM (Read Only Memory), inaczej zwana pamięcią tylko do odczytu.

Pamięć ROM - jest to pamięć stała, nie ulotna - elementy programowalne typu EPROM. Zawarte są dane producenta tzn. ROM BIOS tj. informacje o systemie operacyjnym, do rozpoznania przez system, generator znaków, interpreter języka najczęściej języka BASIC.

Pamięć ROM występuje również między innymi w następujących postaciach:

Kanały wejścia-wyjścia.

Kanały te stanowią blok funkcjonalny pozwalający ste­rować przepływem danych pomiędzy pamięcią wewnętrzną a urządzeniami zewnętrz­nymi podłączonymi do procesora. Przez to umożliwiają procesorowi wykonywanie w tym samym czasie odczytu i zapisu informacji w pamięci operacyjnej i przetwarza­nie danych. Kanały „kontaktują” się z urządzeniami zewnętrznymi poprzez łącze stan­dardowe i jednostki sterujące urządzeń zewnętrznych. Stanowią funkcjonalny blok pozwalający na sterowanie przepływem danych pomiędzy pamięcią wewnętrzną, a urządzeniami zewnętrznymi podłączonymi do procesora. Umożliwiają przez to procesorowi w jego działaniu na wykonywanie w tym samym czasie odczytu i zapisu informacji w pamięci operacyjnej wraz z przetwarzaniem danych. Kanały kontaktują się z urządzeniami zewnętrznymi poprzez łącze standardowe i jednostki sterujące urządzeń zewnętrznych. Inaczej patrząc blok we/wy służy do komunikacji procesora z urządzeniami zewnętrznymi poprzez tzw. „porty” które są ogólnie rzecz biorąc programowalnymi układami logicznymi łącznie z liniami komunikacyjnymi (INTRFACE) przez które informacja przechodzi z i od urządzeń zewnętrznych. Realizowane jest to poprzez sterowniki i oprogramowanie.

Pamięć zewnętrzna. Pamięci te mają za zadanie przechowanie danych i progra­mów nie będących w danej chwili przetwarzane. Do najpopularniejszych rodzajów pamięci zewnętrznych należą:

  1. Pamięć taśmowa (pamięć sekwencyjna).

  2. Pamięć na dyskach (pamięć o dostępie bezpośrednim).

  3. Płyta kompaktowa (czytnik CD).

Pamięć ta składa się z dwóch następujących modułów funkcjonalnych: jednostki sterującej oraz z jednej lub kilku jednostek pamięci podłączonych do jednostki ste­rującej. Wymiana danych pomiędzy pamięcią wewnętrzną a jednostką pamięci ze­wnętrznej (zapisywanie danych) odbywa się na drodze: pamięć wewnętrzna - kanał (układ we/wy) - jednostka sterująca pamięcią - jednostka pamięci.

Odczytywanie danych z pamięci zewnętrznych odbywa się w kierunku przeciw­nym. Podstawowymi parametrami decydującymi o przydatności i zastosowaniu da­nego rodzaju pamięci są:

Pamięć na dyskach. Pamięć na dyskach, tzw. pamięć o dostępie bezpośrednim; można ją podzielić na następujące kategorie:

Pamięć dyskowa jest pamięcią o dostępie bezpośrednim. Wprowadzenie dysków magnetycznych przyczyniło się do szybkiego postępu w wykorzystywaniu kompute­rów.

Pojemności dysków są bardzo różne i wynoszą w pakietach od kilku megabąjtów do kilkudziesięciu gigabajtów i setek terabajtów. Najczęściej jest stosowany zestaw, w którym do jed­nostki sterującej można podłączyć do 8 jednostek dyskowych. Zestaw dysków za­pewnia w praktyce nieograniczoną pojemność, ponieważ wymiana jednego pakietu jest niezwykle prosta. Pakiet dysków zawiera najczęściej 6 płyt, w których jest 10 powierzchni roboczych i 2 osłaniające. Przeciętnie czas dostępu do ścieżki sąsiedniej wynosi „~ 30 ms” (nowe tendencje zmieniają ten czas).

Prace dysku obsługują instrukcje:

Dla zrozumienia organizacji zbiorów na dysku istotne jest „wyczucie” różnicy mię­dzy zbiorem logicznym a zbiorem fizycznym. Zbiór logiczny jest to pewna grupa dokumentów jednorodnych tematycznie. Istnienie zbioru fizycznego wynika stąd, że każdy dokument jest magazynowany w pamięci w pewnym przeznaczonym dla siebie obszarze. Każdy taki obszar ma identyfikator zwany adresem.

W projektowaniu zbioru danych na dysku magnetycznym istotnymi parametrami są:

1. Liczba ścieżek na powierzchni dysku, która określa poprzeczną gęstość zapisu i ma decydujący wpływ na pojemność informacyjną dysku. Każda ścieżka na dysku jest podzielona na równe części, zwane blokami lub sektorami. Zapis i odczyt da­nych odbywa się całymi blokami. Blok stanowi najmniejszą „porcję” danych prze­syłanych między dyskiem a pamięcią wewnętrzną systemu cyfrowego.

2. Czas dostępu do danych, który jest sumą czasu poszukiwania (czasu potrzeb­nego na przesunięcie głowicy magnetycznej na właściwą ścieżkę) i czasu oczekiwa­nia (czas obrotu dysku niezbędnego do podejścia początku bloku pod głowicę ma­gnetyczną).

Dysk magnetyczny jako nośnik ma określone zalety i wady.

a) Zalety:

b) Wady:

Dyski magnetyczne spełniają, podobnie jak taśmy magnetyczne, dwojaką rolę; po pierwsze nośnika, na któ­rym są magazynowane dane, po drugie nośnika do wprowadzania danych do systemu cyfrowego. Postęp techniczny dotyczący pamięci dyskowych „idzie” zarówno w kierunku minia­turyzacji dysków, jak również zwiększenia pojemności i skracania czasu dostępu do danych.

Specyficznym nośnikiem pamięci dyskowej jest dyskietka, zwana też dys­kiem elastycznym lub floppy - dyskiem. Jest ona zbudowana z plastikowego krążka, pokrytego materiałem magnetycznym. Krążek ten jest za­mknięty w kopercie z elastycznego, ale odpornego tworzywa. Duży, umieszczo­ny pośrodku, otwór służy do ustawienia dyskietki na wałku mechanizmu napę­dowego. Z boku znajduje się otwór indeksowy. Dzięki temu w momencie prze­sunięcia się otworu indeksowego pod wycięcie komputer może określić położenie obracającej się dyskietki względem głowicy zapisu-odczytu.

W ostatnim okresie coraz częściej stosowanym nośnikiem informacji jest płyta kompaktowa odczytywana przez czytnik CDD. Jest to dość trwały nośnik informacji charakteryzujący się dużą niezawodnością zarówno zapisu jak i odczytu ze względu, że w wymienionych procesach wykorzystano promień laserowy (monochromatyczne spójne światło o dużej energii gromadzonej w stosunkowo małym punkcie). Aby korzystać z zapisu na tego typu nośnikach, należy zestaw komputerowy rozszerzyć o „nagrywarkę”. Istotną zaletą tego nośnika jest kompatybilność odczytu danych przy różnych systemach operacyjnych instalowanych w systemach komputerowych (pomijana jest bowiem procedura formatu nośnika - tj. naniesienia struktury danego systemu operacyjnego).

URZĄDZENIA WEJŚCIA I WYJŚCIA. Istnieje wiele urządzeń komunikacji z komputerem. Grupa tych urządzeń określona jest wspólnym pojęciem urządzeń wej­ścia i wyjścia. Niektóre z nich są urządzeniami tylko wejścia inne zaś wyjścia, wiele zaś pełni obie funkcje. W prezentacji urządzeń przedstawione zostaną tylko naj­ważniejsze i najbardziej popularne.

Monitor. Jak pisze P. Norton, jedyną - istotną z punktu widzenia użytkownika -częścią komputera jest monitor ekranowy. Monitor jest podstawo­wym urządzeniem do wyprowadzenia informacji z komputera. Traktowany jest często jako urządzenie we/wy, służące do wizualizacji danych. Może on praco­wać w tzw. trybie tekstowym - wyświetla znaki lub w trybie graficznym - ob­raz składa się z punktów.

Monitor ekranowy działa bardzo podobnie do telewizora. Zasada jego pracy znana jest pod nazwą wybierania liniowego i polega na ciągłym wykreślaniu obrazu przez poruszający się strumień (wiązkę) elektronów. Czytelność, ostrość i czystość obrazu przedstawionego na ekranie uzyskuje się dzięki zastosowaniu specjalnych kart graficznych zainstalowanych w komputerze i współpracują­cych z monitorem. Większość eksploatowanych monitorów pracuje z kartą Su­per VGA (Virtuall Graphic Array), pozwalającą pracować z rozdzielczością 800 x 600 pkt lub 1024 x 768 pkt (rozdzielczość określa się ilością linii i ilością punktów w każdej linii; skrót pkt pochodzi od słowa picture element, czyli ele­ment obrazu) i uzyskać 256 kolorów.

Często powód, że program działa na jednym komputerze, a nie działa na innym, związany jest w wyborem karty graficznej i współpracującego z nią monitora. Brak zgodności w tym zakresie uniemożliwia przenoszenie programów.

Nowe zastosowania monitora pozwalają nie tylko na wyprowadzenie danych, ale też na ich wprowadzanie. Istnieją tzw. ekrany dotykowe (touch screens), a ostatnio został opracowany specjalny ekran dotykowy, który reaguje też na siłę dotyku. W konsekwencji można otrzymać trójwymiarowy obraz. Niekiedy do monitora dołą­czone jest pióro świetlne, pozwalające na bezpośrednią komunikację z komputerem.

Klawiatura. Klawiatura wraz z monitorem stanowi podstawowe urządzenia komputera. Przy pomocy klawiatury możemy wprowadzić do komputera dowol­ne polecenia i teksty. Klawiatura zawiera w zależności od typu klawiatury 101 lub 102 i więcej klawiszy podzielonych na następujące bloki:

1. centralny, składający się z podstawowych symboli zgodnych z kodem ASCII. Jest to w zasadzie rozszerzona maszyna do pisania, najczęściej przedstawiona w systemie QWERTY (nazwa pochodzi od znaczenia kolejnych klawiszy w lewym górnym rogu),

2. pomocniczy, w którym istnieją powtórzone klawisze cyfrowe i operatory matematyczne,

3. funkcjonalny, w którym znajdują się klawisze oznaczone symbolami od F1 do F12, a ich znaczenie zależy od tego z jakim programem współpracują,

4. sterujący ruchem kursora, w obrębie napisanego tekstu,

5. specjalny, w którym umieszcza się klawisze o specjalistycznym przeznaczeniu np. Enter (naciśnięcie powoduje akceptacje wykonania polecenia), SHIFT (do pisa­nia dużych liter oraz górnych znaków znajdujących się na niektórych klawiszach), ESC (rezygnacji z wykonania polecenia, często, jeśli nie wiemy, co należy dalej zrobić, naciskając klawisz ucieka się z takiej sytuacji).

„Mysz” - urządzenie sterujące. We współczesnych komputerach jest to urządzenie bardzo przydatne i pozwala na obsługę wielu programów bez użycia klawiatury. Informacją, że mysz funkcjonuje, jest na monitorze obraz strzałki, niekiedy prostokąta lub ręki. Jeśli przesuniemy myszką po stole lub po specjalnej podkładce (tzw. padzie), to odpowiedni ruch wykona strzałka na ekranie. Naciśnięcie klawisza myszki, tzw. kliknięcie, pozwala na akceptację realizacji polecenia. W niektórych komputerach wmontowana jest na stałe kulka i tu przez ruchy dłoni możemy realizować podobne funkcje jak przy pomocy myszki. Współczesne „myszki” mają do trzech wbudowanych klawiszy sterujących pozwalających na rozszerzenie możliwości stosowania użytkowego, a tym samym efektywniejszej i sprawniejszej obsługi wielu aplikacji wykorzystywanych przez użytkownika (np. menu podręczne, przesuw kursora itp.).

Drukarka. Urządzenie te służy do wyprowadzania wyników pracy kompute­ra na trwałym nośniku informacji. Szybkość wykonywania przez komputer ope­racji nie przyniesie spodziewanych efektów, jeżeli nie zostanie sprzęgnięte z odpowiednio wydajnymi drukarkami. Ponieważ występuje dość często brak syn­chronizacji, dlatego dane z przetworzenia mogą być zapisywane na specjalistycz­nym dysku spełniającym rolę bufora, a następnie - w miarę możliwości i potrzeb drukowane. Istnieje wiele różnych rodzajów drukarek produkowanych przez różne firmy. W praktyce stosowane są drukarki: mozaikowe, strumieniowe, lase­rowe, termiczne i bezdotykowe.

Drukarka mozaikowa

- jest drukarką uderzeniową. Głowica drukarki zawiera cienk­ie igły (najczęściej 9 lub 24), które - dociskając taśmę barwiącą do papieru-tworzą znak. Im więcej igieł na jednostkę powierzchni, tym lepsza jakość druku, lecz czas druku się wydłuża. Znaki tworzone są w trybie draft (na brudno) i NQL (Near Letter Quality, czyli podwyższonej jakości). Drukarki te są stosunkowo tanie, a ich naj­większą wadą jest niewielka szybkość i dość duża głośność pracy.

Drukarka strumieniowa

- zwana też drukarką atramentową (ink-.jet-printer), drukuje metodą strumienia tuszu wyrzucanego przez dyszę w uruchomio­nej głowicy. Są to więc podobnie jak drukarki igłowe drukarki uderzeniowe, lecz pracujące cicho i dające dobre jakościowo wydruki. Pewną ich wadą jest to, że nie można stosować w nich np. papieru kredowego (wydruk rozlewa się). Również z tego samego powodu nie są rekomendowane dla grafiki, natomiast zdają egzamin dla użytkowników pracujących w trybie tekstowym.

Drukarki laserowe są to obecnie najbardziej popularne typy drukarek. Są one droższe cenowo od atramentowych jednak coraz częściej instalowane ze względu na bezsporne zalety, jakimi są: wysoka jakość druku, cicha praca, większa szybkość realizacji. Zasada działania podobna jak w kseroko­piarce. Różnica jest w tym, że obraz nie jest naświetlany światłem odbitym do orygi­nału, lecz przez laser, który jest w drukarce. W przeciwieństwie do drukarek atra­mentowych i mozaikowych drukowana jest cała strona (a nie linie po linii).

Drukarka bezdotykowa.

Jest to cała rodzina nowego typu drukarek o bardzo dużej wydajności. Drukarki te pracują z szybkością ponad 50% większą niż drukarki laserowe (drukują ponad 90 stron na minutę) i są odporne na wszelkiego rodzaju zakłócenia.

Skanery - pozwalające na cyfrowe przetwarzanie dowolnego obrazu. Skanery występują w postaci skanera ręcznego lub stacjonarnego. Działanie skanera polega na płynnym przesunięciu po skanowanym obrazie lampy fluorescencyjnej lub kilku­nastu fotodiod umieszczonych w urządzeniu.

Skanery scharakteryzowane są przez następujące parametry:

Plotery - są to urządzenia wyjścia wykorzystywane między innymi w pracach pro­jektowych. Przetwarzane w komputerze dane są wykreślane w postaci rysunku w układzie osi X i Y. Plotery należą do stosunkowo drogich urządzeń zewnętrznych.

Przedstawione urządzenia nie wyczerpują wszystkich urządzeń wejścia i wyj­ścia. Istnieją urządzenia, które pozwalają przetwarzać mowę i dźwięki. W dużych hurtowniach stosowane są czytniki kodów paskowych. Postęp techniczny idzie w kierunku wzbogacenia o odkrywania wciąż nowych urządzeń dla poprawienia ko­munikacji z komputerem.

PODSUMOWANIE. Komputer jest urządzeniem, które wykonuje automatycz­nie obliczenia, zgodne z zasadami jego funkcjonowania, określone przez zewnętrzną lub wewnętrzną informację, przekazywane w postaci danych i programów. Rozwój techniki komputerowej spowodował wydzielenie tzw. generacji komputerów. Generacja pierw­sza oparta była na technice lampowej, druga zaś na tranzystorowej, trzecia - z kolei - na układach scalonych małej i średniej skali integracji. Obecnie funkcjonujące komputery zalicza się do czwartej generacji, opartej na układach scalonych o bardzo wysokiej skali integracji. Dalsze generacje oparte będą prawdopodobnie na jeszcze więk­szej skali integracji mających inne niż dotychczas rozwiązania techniczne, jak przykładowo -neurokomputery, superskalary.

Komputery można podzielić według różnych kryteriów. Stosując kryterium handlo­wo-funkcjonalne oraz cenę możemy umownie wyróżnić mikrokomputery, minikomputery średnie i duże oraz super i ultrakomputery. Obecnie najbardziej popularne są mikrokomputery prze­znaczone dla pojedynczych użytkowników, czyli tak zwane personalne komputery.

System komputerowy tworzony jest przez jednostkę centralną i gamę urządzeń peryferyjnych. Naj­bardziej istotnymi elementami jednostki centralnej są: procesor, pamięć wewnętrz­na (operacyjna), kanały wejścia i wyjścia. Peryferia tworzą pamięć zewnętrzną oraz urządzenia wejścia i wyjścia. Elementem organizującym pracę całego sys­temu komputerowego jest procesor. Miniaturyzacja jest tak wielka, że przewiduje się iż mikroprocesor 786 firmy Intel, zawierający sto milionów tranzystorów, będzie to kostka krzemu o powierzchni około 6,5 cm. Istotnym elementem wpływającym na wydajność komputera są również urządzenia pamięci operacyjnej. Pamięć ta, nazywana jest często pamięcią RAM (pamięć dynamiczna o swobodnym, bezpośrednim dostępie wymagająca „stałego odświeżania”), pozwala na przechowywanie danych i programów, które są aktualnie przetwarzane - dostarczane do mikroprocesora. Pojemność zestawów dysków mierzona jest w gigabajtach (terabajtach) i charakteryzuje się bardzo krótkim czasem dostępu. Do urządzeń zewnętrznych, pozwalających na komunikację człowiek - komputer, należą: monitor. klawiatura, drukarka, ska­ner, mysz, ploter. Z punktu widzenia użytkownika najbardziej istotnym urządze­niem jest monitor. Monitor jest bowiem podstawowym urządzeniem do wizualizacji informacji wypro­wadzanych i wyprowadzanych z komputera. Klawiatura natomiast podstawowym urządzeniem do wprowadzenia danych i rozkazów do komputera.

KOMUNIKACJA CZŁOWIEK - KOMPUTER. Komunikacja między człowiekiem - użytkownikiem a systemem komputerowym odbywa się bezpośrednio. Jest to osiągnięcie ostatnich lat, poprzednio bowiem łańcuch po­średników był dość duży. W konsekwencji w takim układzie występowało wiele przekłamań, zmian i uproszczeń, co powodowało, że różnica między zadaniami sformułowanymi przez użytkownika a wykonanym przez system komputerowy była dość duża.

Ujemnym zjawiskiem w tym względzie było to, że cała operacja trwała niekiedy bardzo długo. Wymagała bowiem opracowania dokumentacji systemu oraz wielu uzgodnień i zatwierdzeń. W rezultacie użytkownik otrzymywał rozwiązanie nie za­wsze dotyczące problemu, który go interesował. Często rozwiązania były mu dostarczone wtedy, kiedy sytuacja zmieniła się i uzyskane informacje były nie­aktualne. Aktualizacja wymagała znowu uzgodnień i zatwierdzeń. Obecnie w większości sytuacji użytkownik bezpośrednio „konsultuje się z komputerem”. Temu celo­wi służy zarówno sprzęt techniczny, jak też wygodne w użyciu oprogramowanie.

W układzie człowiek - komputer można wyróżnić dwa poziomy:

Pierwszy to bezpośredni układ człowiek - komputer, polegający na tym, że reakcja komputera i komunikat o efektach działania są natychmiastowe, a ewentual­ne opóźnienie wynika tylko z właściwości użytego sprzętu i rodzaju realizowanego zadania.

Drugi - kiedy dla zadania czas nie ma znaczenia, ewentualnie jest dopusz­czone opóźnienie reakcji.

W pierwszym przypadku układy można przedstawić następująco:

K-KR-M.

K-KR-D,

M-KR-M,

M-KR-D.

gdzie:

K - konsola (klawiatura komputera),

KR - komputer - jednostka centralna,

M - monitor,

D - drukarka.

W drugim przypadku na wejściu lub wyjściu; ewentualnie i na wejściu i na wyjściu, pojawiają się maszynowe nośniki danych, takich ,jak dyski, dyskietki, taśmy magnetyczne. Można więc powiedzieć, że w tej drugiej sytuacji układ jest rozbudowany i wielostopniowy. W systemie tym szczególna rola przypada urządzeniom opisanym w poprzednim rozdziale, a więc klawiaturze i monito­rom, wzbogaconym o zdalne manipulatory, np. mysz, pióro świetlne, ekran dotykowy.

Komunika­cja człowiek - komputer realizowana jest przez działania, które określamy ter­minem zwanym programowanie.

Programowanie jest pewną sekwencją działań, składającą się z:

a. opracowania algorytmu rozwiązania problemu,

b. przetłumaczenia algorytmu na wybrany język komunikacji człowiek- kom­puter,

c. uruchomienia i zrealizowania programu.

ALGORYTM I FORMY JEGO PREZENTACJI.

Algorytm to sposób postę­powania przedstawiający jednoznacznie skończoną ilość kroków (etapów) niezbęd­nych dla rozwiązania określonego zadania. Algorytm jest tak sformułowany, żeby, postępując według jego wskazań, komputer mógł rozwiązać określony problem. Algorytmy są rozwiązaniami takich zadań, które określamy jako zadania algoryt­miczne albo obliczeniowe (rys).

Za podstawowe cechy algorytmu uznaje się (1):

Zadanie algorytmiczne i jego rozwiązanie

0x01 graphic

Kolejność wykonywania działań, opisaną przy pomocy różnych instrukcji, nazywa­my instrukcjami sterującymi. Do najważniejszych z nich należą następujące instrukcje:

Instrukcja skoku jest przez niektórych specjalistów krytykowana jako nieelegancka i ucząca złych nawyków w programowaniu. Instrukcja ta może też wprowadzać trud­ności techniczne, np. skok do pętli.

Tworzone algorytmy mogą być proste lub złożone. Złożone algorytmy są wtedy, kiedy za­wierają podprogramy, które z kolei wywołują inne programy w celu pełnego opisu działania. Zazwyczaj algorytm rozwiązania danego zadania przedstawiony jest w formie:

Opis słowny stosowany jest najczęściej i przykładami tego są:

W notacji matematycznej dla prezentacji algorytmu korzysta się z typowych wzorów i reguł matematycznych. Prezentacja ta jest uzupełniania odpowiednimi komentarzami. Przykładami tego typu algorytmu są między innymi:

Schemat blokowy - jest najbardziej popularną metodą graficznej prezentacji al­gorytmu. Narzędzie to jest stosowane powszechnie dla rozwiązania złożonych pro­blemów. Zasady budowania schematów blokowych są niezwykle proste. Cechują się małą liczbą elementów, co pozwala na łatwość kontroli. Schemat blokowy składa się z następujących elementów:

  1. Strzałka, która wykazuje powiązania między poszczególnymi elementami sche­matu blokowego.

  2. Operand -- prostokąt, w którym przedstawia się czynności arytmetyczne lub organizacyjne, dzięki którym otrzymuje się nową wartość, nowy format zapisu.

A=: B+C

Przy czym każdy operand ma powiązania z operandami poprzedzającymi co najmniej jed­nym i jednym operandem następującym.

  1. Predykat lub też blok warunkowy, który przedstawiony jest w postaci rombu. Do predykatu wchodzi zawsze tylko jedna strzałka, wychodzą zaś zawsze dwie. W predykacie przedstawione są czynności logiczne, które służą do sprawdzenia, czy dany warunek został spełniony.

  2. Objaśnienia, które służą do przedstawienia komentarza dla użytkownika, gra­ficznie przedstawione są w postaci nie zamkniętego prostokąta.

  3. Etykiety przedstawiające początek lub koniec schematu blokowego Etykieta ma tylko strzałki wyjściowe - start, lub strzałki wejściowe - koniec. Graficznie przed­stawione są najczęściej w postaci okręgu, elipsy, niekiedy trójkąta.

  4. Łącznik jest to specjalny typ etykiety, który ma za zadanie powiązanie po­szczególnych części schematu blokowego, którego nie można przedstawić w jednej zwartej części. Wyróżnia się łączniki stronicowe, przedstawione w postaci koła, i łączniki międzystronicowe - przedstawione w formie pięciokąta.

Przykładowe elementy schematu blokowego przedstawia rysunek:

0x01 graphic

0x01 graphic

OPROGRAMOWANIE

Jak wcześniej stwierdziliśmy pojęcie system komputerowy obejmuje również oprogramowanie. System komputerowy stanowi bowiem spójny zestaw środków sprzętowych i programowych. Oprogramowaniem nazywamy ogół środków programowych dostępnych w systemie komputerowym. Oprogra­mowanie tworzone jest przy pomocy określonego języka programowania.

Podstawowym elementem oprogramowania jest program, realizowany przez komputer - bliżej przez mikroprocesor. Jest to zatem ciąg instrukcji jakie musi wykonać mikroprocesor w celu realizacji założonego algorytmu opisującego zadany problem.

Program jest więc opisem danego problemu przy pomocy określonego języka w ten sposób, że jest on akceptowany przez komputer (mikroprocesor).

Oprogramowanie z języka angielskiego zwane jest też softwarem.

Analizując relacje między ceną sprzętu (hardware) a oprogramowaniem (so­ftware) zauważyć można, że w poszczególnych latach uległa ona dużym zmia­nom. Początkowo cena sprzętu komputerowego była bardzo wysoka w stosunku do ceny oprogramowania. Obecnie możemy za­obserwować tendencje do coraz większego udziału ceny oprogramowania w ca­łości wydatków na informatykę. Mimo że ceny systemów komputerowych w całości spadają, to ceny sprzętu ulegają o wiele większej obniżce niż ceny oprogramowania. Przedstawiona w tej części wykładu analiza oprogramowania została przepro­wadzona w odniesieniu do komputerów personalnych. Większość zagadnień ma cha­rakter uniwersalny, jednakże przedstawione przykłady dotyczą najbardziej popular­nych komputerów, jakimi są komputery personalne (osobiste użytkownika). W większości zatem sytuacji spotkamy się w praktyce właśnie z tego typu oprogramowaniem. Podział oprogramowania związa­ny jest z rodzajem komputerów, dla których to oprogramowanie zostało zaprojektowa­ne.

Jak wiemy komputer jest urządzeniem działającym według ściśle określonych reguł. Aby go wykorzystać w swoich działaniach musi on posiadać określoną listę czynności do wykonania.

Programowanie jest więc pewną sekwencją działań składających się m.in. z:

  1. opracowania algorytmu rozwiązania problemu,

  1. przetłumaczenia algorytmu na wybrany język komunikacji człowiek - komputer,

  2. uruchomienia i zrealizowania programu.

A zatem na udany nowoczesny i efektywny produkt informatyczny składają się trzy podstawowe moduły:

  1. właściwy i dobrze zrealizowany produkt,

  1. poprawne oprogramowanie,

  2. odpowiedni sprzęt.

Oprogramowanie komputera decyduje w dużej mierze o:

  1. jego możliwościach wykorzystania,

  1. wykonywania określonych (założonych) zadań.

Dlatego też z punktu widzenia użytkownika sprzętu komputerowego „komputer jest tak dobry jak dobre jest jego oprogramowanie”, ono bowiem decyduje o rzeczywistej wartości komputera gdyż steruje pracą poszczególnych modułów sprzętu komputerowego, nadzoruje ich wykorzystanie i współdziałanie, sprawdza poprawność działania komputera a przede wszystkim współpracuje z użytkownikiem i realizuje jego zadania.

Na koszt zrealizowania prawidłowo funkcjonującego systemu komputerowego około 70% kosztów to koszt produkcji programów umożliwiających pracę systemu.

Reasumując można więc powiedzieć że od cech i jakości oprogramowania zależy łatwość posługiwania się komputerem jak i zakres wykonywanych przez niego zadań zadanych przez użytkownika.

Z punktu widzenia użytkownika obsługującego komputer oprogramowanie jest jakby otuliną okrywającą komputer przy czym ta otulina programowa złożona jest z kilku warstw, w efekcie tego użytkownik komunikuje się zwykle nie bezpośrednio ze sprzętem, lecz z określonym programem należącym do jego otoczenia.

Graficznie można to zilustrować w następujący sposób

0x01 graphic

Z punktu widzenia użytkownika systemu komputerowego oprogramowanie możemy podzielić na następujące moduły:

0x01 graphic

Dla decydentów nie są istotne problemy funkcjonowania oprogramowania systemowego zarządzającego systemem. Decydent jako użytkownik sprzętu komputerowego wykorzystuje tylko oprogramowanie narzędziowe oraz użytkowe. Granica pomiędzy nimi jest jednak trudna do ustalenia gdyż na dynamicznym rynku oprogramowania pojawiają się programy będące aplikacjami programów narzędziowych oraz programy narzędziowe umożliwiające przystosowanie ich do potrzeb programów użytkowych.

Oprogramowanie systemowe to zbiór programów, które są niezbędne w pracy komputerów niezależnie od ich zastosowania; są one opracowane najczęściej przez producentów sprzętu lub osoby zamawiające. Oprogramowanie systemowe, które będzie dalej przedstawione, nie jest pod kątem funkcjonalnym, jednoznaczne. Część oprogramowania czyli oprogramowanie, które możemy nazwać podstawowym (sys­tem operacyjny) jest tego typu, że bez ich udziału komputer nie byłby zdolny do pracy. Druga grupa ma mniejsze znaczenie, a ich zadaniem jest ułatwienie pracy użytkownika i pozwolenie na to aby ta praca była zgodna z przyjętymi standardami i wymaganiami. Podstawowe oprogramowanie systemowe jest dostarczane przez producenta wraz ze sprzętem, a jego cena jest zawarta w kontrakcie zakupu sprzętu.

Oprogramowanie użytkowe obejmuje zbiór programów, które są opracowane pod kątem realizacji konkretnych zadań i spełniających określone potrzeby użyt­kownika. I tak, jeśli oprogramowanie systemowe realizuje powtarzalne zadania wspól­ne dla różnych zastosowań, to oprogramowanie użytkowe służy do rozwiązania i realizacji konkretnych potrzeb użytkownika.

Podział na oprogramowanie systemowe i użytkowe nie zawsze jest ostry i jedno­znaczny. Istnieje wiele pakietów oprogramowania, które realizują zadania systemo­we jak i użytkowe. Odnosi się to zwłaszcza to współczesnego oprogramowania kom­puterów personalnych takiego jak przykładowo pakiet WlNDOWS.

Niezależnie od stosowanego stylu i typu programowania należy w konsekwencji dany algorytm napisać w takim języku, który będzie zrozumiały dla komputera. W tym sensie:

Komputer, aby mógł przetworzyć problem opisany w postaci algorytmu musi być opisany językiem programowania. Na ogół język programowania składa się z notacji i reguł, według których pisze się program.

B. Stefanowicz w podręczniku „Metody i techniki programowania komputerów” PWE, Warszawa 1987 - stawia językowi programowania - jako metodzie porozumiewania się człowieka z komputerem następujące wymagania:

  1. Język musi być łatwy do opanowania przez człowieka i posługiwania się nim,

  2. Sformalizowanie języka musi zapewnić jednoznaczność wszystkich jego elementów (znaków, wyrazów, zdań, zwrotów), co ułatwi opracowanie odpowiednich zasad wykonywania przez maszynę każdego polecenia, jakie w tym języku zostanie sformalizowane.

  3. Język musi umożliwiać zakodowanie minimalnego zbioru operacji elementarnych, niezbędnych do wykonania określonych prac na komputerze,

  4. Jest wskazane aby język umożliwiał także proste kodowanie operacji specyficznych dla danej klasy zastosowań.

  5. Język powinien uwzględniać techniczne możliwości i wymagania dostępnego sprzętu oraz umożliwiać pisanie programów według znanych metod programowania.

Uogólniając te wymagania względem języka komunikacji człowiek - komputer można to sprowadzić do tezy wymagań:

A więc stan idealny to możliwość stosowania jako języka komunikacji człowiek - komputer JĘZYKA NATURALNEGO.

Języki programowania można przedstawić z dwóch punktów widzenia:

  1. z punktu widzenia człowieka - a więc styl tworzenia programów,

  2. z punktu widzenia komputera - a więc formalnie języki programowania.

Ad A.

Z punktu widzenia stylu tworzenia programów możemy wyróżnić:

Przykładowe języki to PASCAL i PL1

Ad B.

Języki programowania z punktu widzenia stopnia uzależnienia się od komputera możemy umownie podzielić na:

OPROGRAMOWANIE SYSTEMOWE.

W oprogramowaniu systemowym zgodnie z przedstawioną uprzednio typologią, wyróżnić można następujące grupy:

System operacyjny jest programem nadzorującym pracę wszystkich urządzeń systemu komputerowego, tworząc środowisko, w którym pracują inne programy. Jest więc zbiorem procedur zarządzających pracą całego systemu komputerowego. Podstawowe zadania systemu operacyjnego są następujące:

System operacyjny komputera - ogólna charakterystyka W systemie operacyjnym bardzo często spotykanym jakim jest MS DOS można wyróżnić wzajemnie z sobą współpracujące moduły:

Strukturę systemu operacyjnego na bazie DOS można przedstawić następująco.

0x01 graphic

System operacyjny dzieli się więc na:

  1. część stałą „zatopioną” w ROMie - PAO (pamięci operacyjnej),

  2. część ruchomą przechowywaną w pamięci masowej.

Umieszczenie systemu w ROMie, a więc części statycznej pamięci operacyjnej ułatwia użytkownikowi, stwarza wygodę w tym względzie, że sprzęt i zarządzający nim system widziane są jako jedna całość.

Zaś umieszczenie systemu w pamięci masowej zwiększa jego elastyczność i pozwala przy mniejszych kosztach zmieniać jego wersje a także dostosowywać go do różnej konfiguracji sprzętowej.

ROM.BIOS - jest zbiorem elementarnych programów i procedur zapisanych przez producenta w jego pamięci stałej ROM.

Wyróżniamy w nim:

WARSTWOWA STRUKTURA SYSTEMU OPERACYJNEGO

na bazie DOS

0x01 graphic

GDZIE JĄDRO SYSTEMU

IO.SYS - moduł ten traktuje się jako zewnętrzne rozwinięcie modułu BIOS, jego podstawowym zadaniem jest:

- obsługa urządzeń WE / WYJ na podstawowym poziomie

MSDOS.SYS - moduł do obsługi zasobów informacyjnych przechowywanych w PM. Zarządza buforami urządzeń dyskowych oraz wykonuje pewne funkcje systemowe

- związane z obsługą programów narzędziowych i użytkowych.

POWŁOKA - INTERPRETER POLECEŃ SYSTEMOWYCH

- OTOCZENIE - to programy pomocnicze, programy komunikacyjne, aplikacje użytkownika.

Programy pomocnicze uzupełniają plik COMMAND.COM nadając aktywność realizowanym przez użytkownika aplikacjom oraz realizacją poleceń zewnętrznych.

Programy komunikacyjne - programowe sterowniki zwane drajwerami - są to programy do obsługi niestandardowych urządzeń zewnętrznych, takich jak:

SYSTEM OPERACYJNY MS DOS jest zorientowany na system komputerowy i stanowi jego część zaś MS WINDOWS zorientowany jest na użytkownika, który do komunikacji z komputerem wykorzystuje grafikę (ikony).

W/g P. Nortona MS WINDOWS jest popularny gdyż:

  1. Graficzny INTERFEJS użytkownika sprawia, że użytkowanie komputera i jego programów jest łatwiejsze (okna ikony) powtarzalność okien w aplikacjach zaś w komunikacji KOMPUTER-UŻYTKOWNIK - zamieniono słowa w grafikę.

  2. Umożliwia bardzo dobrą współpracę między różnymi aplikacjami - a więc ułatwia obsługę i wymianę danych.

Wyjątkową funkcjonalność tego systemu zapewnia sieciowa instalacja interaktywnego, unikalnego, multimedialnego połączenia sprzętowego w ramach systemu.

Realizacja współpracy między aplikacjami jest możliwa dzięki standardowej wymianie danych DDE (Dynamic Data Exchange) - Dynamiczna wymiana danych.

Standard DDE tworzy realizowany na poziomie programisty Interfejs, który umożliwia aplikacjom dla Windows dostęp do danych pochodzących z innych aplikacji.

W konsekwencji uzyskuje się narzędzia, które pozwalają na aktualizację informacji.

Uruchomienie systemu operacyjnego dokonuje się po włączeniu zasilenia kom­putera. Włączając komputer uruchamia się podstawowy moduł tzw. BIOS (Basic lnput Output System), czyli Podstawowy System Wejścia Wyjścia. Moduł ten umiesz­czony jest w pamięci ROM i dzięki niemu istnieje możliwość wczytania pozostałej części systemu z dysku twardego bądź z dyskietki systemowej.

W ten sposób nie musi być cały system operacyjny przechowywany w pamięci operacyjnej, lecz tylko jego niewielka część. Dla użytkownika taka organizacja nie ma znaczenia, ponieważ po włączeniu do sieci komputera czeka na meldunek syste­mu, że jest on gotów do pracy. Znak gotowości do pracy pojawia się po kilku lub kilkudziesięciu sekundach od momentu włączenia komputera. Gotowość do pracy jest sygnalizowana pojawieniem się na ekranie znaku C>_ lub podobnego. W sytu­acji, gdy uruchomienie komputera nastąpi z dyskietki systemowej, włożonej do na­pędu dysków elastycznych A, na ekranie monitora pojawi się znak A>_. Litery A, C, lub inne litery mówią o tym, który dysk jest dyskiem aktualnym (inaczej bieżącym). Od tego momentu możemy wydawać systemowi operacyjnemu polecenia. Do najczęściej wydawanych poleceń systemowych należą:

- Formatowanie dyskietki czyli przygotowanie dyskietki do pracy-polecenie to najczęściej jest podane w postaci FORMAT A. Uwaga! należy sprawdzić aby wpi­sać właściwy dysk, wpisanie bowiem niewłaściwego dysku, powoduje straty zapisa­nych na nim programów i danych. Nie należy formatować dysków, na których mamy zapisane potrzebne nam informacje.

- Tworzenie katalogu dyskowego. a w tym: wyświetlanie jego zawartości polece­niem DIR (DlRectory), stworzenie katalogu - MD Katalog (Make Directory), zmia­na katalogu - CD Katalog (Change Directory), usunięcie katalogu - RD Katalog (Remove Directory).

- Kopiowanie plików przy pomocy polecenia COPY skąd/co dokąd ew. nowa nazwa lub też kopiowanie całego dysku DISKCOPY skąd/dokąd.

Istnieje o wiele więcej poleceń realizowanych przy pomocy systemu operacyjne­go. Wymienione polecenia są tylko przykładem niektórych z nich.

Użytkownik kupując system komputerowy ma do dyspozycji wiele różnych sys­temów operacyjnych. Dla dużych komputerów popularne są szczególnie:

ODS (Disk Operating System) i OS Operating System). Systemy te są stale udo­skonalane i występują w różnych wersjach oznaczonych odpowiednimi numerami. Wersje tych systemów różnią się tym dla jakich zadań są one przeznaczone. I tak: MFT przeznaczony jest dla stałej ilości zadań, a MVT dla zmiennej ilości zadań.

Obok wymienionych systemów operacyjnych, dla dużych komputerów istnieją też inne systemy, tzw. wirtualne, np. SVS, MVS, VM.

Dla komputerów personalnych najbardziej popularne są systemy, uznane jako standardy dla komputerów typu IBM, a mianowicie:

Programy tłumaczące (translatory). Programy niezależnie od użytego języka pro­gramowania muszą być, jak już wcześniej wspomniano, przetłumaczone na instrukcję języka maszynowego. Istnieją trzy podstawowe sposoby tłumaczenia programów: inter­pretacja, kompilacja, asemblacja.

Interpretacja wykonywana jest przez specjalne programy zwane interpreterami. Interpretator tłumaczy program w trakcie wykonania. Działanie interpretatora polega na tym, że program analizuje kolejne programy, krok po kroku, bada ich poprawność, rozpoznaje jakie czynności należy wykonać i realizuje je. Interpretato­ry są z natury powolne i mało wydajne. Wynika to z faktu, że tłumaczenie odbywa się bez przerwy - nie tylko podczas każdego uruchomienia programu, ale także, gdy któryś z jego kroków jest powtarzany. W realnych programach wiele elementów jest realizowanych na drodze powtarzania kroków, tzw. pętli. Dlatego też wiele instrukcji jest podczas interpretacji tłumaczonych kilkakrotnie. Zaletami interpretacji są: łatwość lokalizacji błędów i możliwość wprowadzenia poprawek w każdym momencie.

Kompilacja wykonywana jest przez specjalne programy zwane kompilatorami. Kompilator analizuje program napisany w określonym języku zewnętrznym, nazy­wany programem źródłowym. W następnym etapie zamienia go na równoważny pro­gram w języku wewnętrznym, nazywany programem wynikowym.

Po zakończeniu procesu transakcji do dalszej pracy używa się już wersji wyniko­wej. W ten sposób kompilacja jest krótsza niż interpretacja. Czas tłumaczenia zale­ży od języka oraz długości i złożoności programu źródłowego. Wiele kompilatorów ma wbudowane mechanizmy pozwalające na optymalizacje programów.

Asemblacja wykonywana jest przez specjalny program zwany asemblerem. Asemblacja jest podobna do kompilacji, z tym, że programy tłuma­czone są na język maszynowy, zaś samo tłumaczenie jest integralną częścią tworze­nia programu. Oznacza to, że użytkownik nie musi oczekiwać na realizację tłuma­czenia w jego trakcie i nie musi też posiadać programów tłumaczących. Programy przygotowane w taki sposób są kompletne i gotowe do uruchomienia, w przeciwień­stwie do programów interpretowanych, które mogą być uruchomione tylko w obec­ności i przy pomocy interpretatora. Programy asemblerowe są jednak bardzo praco­chłonne i w stosunku do kompilatorów dość proste.

W języku asemblerowym programista musi wpisać treść każdej instrukcji języka maszynowego, która będzie realizować gotowy program. W językach wysokiego poziomu program budowany, jest z większych kroków, które w procesie translacji przetwarzane są na grupy instrukcji języka maszynowego. Według tego właśnie roz­różnienia translatory języków asemblerowych nazwano asemblerami, a języków wyższego rzędu - kompilatorami (porównaj rozdział o kodowaniu algorytmów). Pro­gramista asemblerowy współpracuje z komputerem na stosunkowo niskim poziomie i operuje elementarnymi instrukcjami języka maszynowego.

Jak stwierdza P. Norton „kompilator okazuje się być narzędziem bar­dzo skomplikowanym, dopuszczającym ogromne zróżnicowanie jakości (jeden kom­pilator może generować kod bardzo wydajny - inny kiepski), w odróżnieniu od asem­blerów, których różnice takie nie dotyczą".

W zależności od punktu spojrzenia na proces tłumaczenia można uważać, jak w niektórych podręcznikach z zakresu oprogramowania, że kompilatory i asemblery są modyfikacją tego samego narzędzia, lub też - jak przedstawiono w tym rozdziale - że tworzą zupełnie różne. Oprogramowanie dla testów i diagnostyki kompute­rów (monitoring sprzętu i oprogramowanie), umożliwia sprawdzenie i sprawne działanie poszczególnych elementów systemu komputerowego. Oprogramowanie to stanowi zróżnicowany pakiet, którego zawartość zależy od konstrukcji i możliwości finansowych użytkownika; najczęściej elementami jego są następujące programy:

W ostatnich latach szczególnie te ostatnie są niezmiernie istotne i powodują, że użytkownik może utracić w niezamierzony sposób dane i programy. Wirus kompute­rowy jest to celowo napisany przez człowieka program, którego głównym zadaniem jest powielenie samego siebie, często z bardzo dużą szybkością i umieszczenie go w określonych miejscach. Najczęściej wirus umieszczony jest na dysku lub w pamięci operacyjnej. Wirusy bardzo często realizują zadanie, które im polecił jego twórca, np. generowanie komunikatów typu "kiss my... keyboard" (pocałuj mnie w ...kla­wiaturę), generowanie dźwięków, przykładowo piosenki „szła dzieweczka do lasecz­ka", lub fałszowanie i niszczenie pliku. Niektóre wirusy powodują też fizyczne uszko­dzenie sprzętu.

Do walki z tego typu programami stosuje się programy antywirusowe oraz przed­sięwzięcia profilaktyczne. Przedstawimy niektóre z nich.

Programy antywirusowe są następujących typów:

Jednym z takich najbardziej popularnych w Polsce programów do zwalczania wirusów jest program o nazwie MKS-VIR, którego autorem jest Marek Sell. Program ten usuwa kilkaset wirusów.

Najlepiej jest jednak nie dopuścić do zakażenia wirusem poprzez działania profi­laktyczne. Zasady postępowania w tym zakresie powinny być następujące:

  1. używać tylko licencjowanego oprogramowania,

  2. bez względu na źródło pochodzenia każdą otrzymaną dyskietkę należy spraw­dzić dobrym programem antywirusowym.

  3. własną dyskietkę, która została pożyczona lub włożona do innego komputera należy potraktować jako dyskietkę pochodzącą z nieznanego źródła i należy rów­nież sprawdzić dobrym programem antywirusowym,

  4. należy sporządzić kopie programów i danych, szczególnie tych które trudno będzie odtworzyć,

  5. dyskietki, które będą używane tylko do odczytu powinny być specjalne zabez­pieczone przed zapisaniem.

  6. okresowo należy analizować swoje zbiory danych i programy programem an­tywirusowym.

Można wręcz stwierdzić, że nigdy nie jest dość ochrony przed wirusami kompu­terowymi. Wirus komputerowy nie zawsze się uaktywnia po zainfekowaniu. Niektó­re, jak np. wirus „Michał Anioł", dają o sobie znać raz na cztery lata (29 lutego). Są też już wyroki sądowe za zainfekowanie wirusami. Jednym z najbardziej znanych wyroków za takie działanie jest dwa lata więzienia i 100 tys. dolarów grzywny, dla sprawcy zainfekowania w 1990 roku, 6000 komputerów przy pomocy sieci Internet.

Do grupy programów diagnostycznych zaliczyć można też programy monitują­ce. Dzięki programom monitującym można określić „wąskie gardła" systemu kom­puterowego, jak też te jego miejsca, które nie są w pełni wykorzystane. W ten sposób użytkownik otrzymuje wskazania w którym kierunku konfiguracja sprzętu powinna być rozbudowana oraz informacje co do wykorzystania posiadanych zasobów.

Za­instalowany w komputerach personalnych program MSD (Microsoft System Dia­gnostics) pozwala na uzyskanie informacji o konfiguracji i sprawności komputera.

Oprogramowanie komunikacyjne stanowią programy, które pośredniczą po­między systemami operacyjnymi, łączami transmisji i programami użytkowymi; ce­lem jest pozwolenie na równoczesną pracę wielu użytkowników, którzy korzystają z takich samych zasobów komputerowych. Oprogramowanie to synchronizuje pracę tych użytkowników, jak też zarządza przekazywanie danych i programów mię­dzy powiązanymi ze sobą komputerami. Pozwala też na przesyłanie informacji między nawet bardzo odległych użytkowników w postaci poczty elektronicznej (szerzej będzie to zagadnienie przedstawione w następnym rozdziale). Jego efek­tem jest umożliwienie wspólnego wykorzystania określonych zasobów; np. pa­mięci dyskowej. drukarek.

Oprogramowanie pomocnicze jest grupą oprogramowania systemowego naj­bardziej zróżnicowaną ze względu na postawione przed nią zadania. W skład tej grupy wchodzą zarówno pojedyncze programy, realizujące wycinkowe zadania w zakresie gospodarki danymi, jak i rozbudowane pakiety programowe, mające za za­danie rozszerzenie możliwości systemów operacyjnych. Do tego typu oprogramo­wania należą między innymi tak popularne pakiety programowe jak PC-TOOLS, XTREE, NORTON COMMANDER. Oprogramowanie takie często nazywane jest nakładkami (shell). Programy te - jak pisze P.Norton - którymi „omija się" system operacyjny, uzupełniają jego brakujące możliwości. Programy te mają wiele różnych funkcji, a do najważniejszych z nich należy:

Aby w pełni efektywnie wykorzystywać system komputerowy w działalności menedżerskiej należy dbać o środowisko pracy, a więc regularnie konserwować oprogramowanie (system operacyjny), a swoje zasoby - dobrze zabezpieczać. W tego typu czynnościach pomagają specjalne programy nazwane programami narzędziowymi. Najbardziej znane z nich to archwizery, deinstalatory, programy antywirusowe, porządkujące pamięci masowe (dyski) oraz pomagające w odzyskiwaniu plików, folderów itp. Obecnie na rynku informatycznym wybór programów narzędziowych jest znacznie bogatszy niż był dotychczas. Pojawiło się sporo ciekawych programów do współpracy z Internetem (np. szyfrujących przesyłane dane), strzegących dostępu do zasobów komputera czy też automatyzujących ich pracę.

Oprogramowanie narzędziowe zwykle realizuje porządkowanie pamięci masowych, którą to czynność podejmujemy przeważnie dopiero wtedy, gdy komunikat „Za mało miejsca na dysku” uniemożliwia normalną pracę. W takich sytuacjach porządkowania na dysku pomaga, usunięcie zbędnych plików, porządkując sektory i cylindry, a tym samym zwiększając efektywność systemu komputerowego (zapis - odczyt). Microsoft Windows jest specyficznym rodzajem oprogramowania. Wydzielony został on z dwóch względów: po pierwsze z uwagi na jego popularność - trudno bowiem znaleźć współczesny personalny komputer typu IBM, na którym nie byłby on zainstalowany, po drugie, że jest to program bardzo uniwersalny zawierający w sobie już system operacyjny, szereg programów wspomagających oraz znaczną gamę aplikacji narzędziowych, komunikacyjnych i użytkowych.

MS Windows jest przedstawicielem oprogramowania, które do komunikacji z użyt­kownikiem wykorzystuje grafikę (ikony). Taki rodzaj komunikacji z użytkownikiem określa się mianem Graficznego Interfejsu Użytkownika w skrócie GUI (Graphical User Interface).

W komunikacji tej bowiem zamieniono słowa na grafikę i polega ona na zastąpie­niu nazw instrukcji przez rysunki, tzw. ikony, które reprezentują funkcje i instrukcje.

Używając klawiszy kursora lub myszki można wskazać polecenia, które chce się wykonać i uruchomić poprzez naciśnięcie klawisza ENTER, lub przycisku myszki (popularnie określa się to terminem - kliknięcie). Jednak należy pamiętać o tym, że zastąpienie trybu tekstowego przez graficzny zwiększa wymagania sprzętowe. Proste operacje, takie jak formatowanie dyskietek, czy kopiowanie plików do innego pliku, mogą być wykonywane szybciej i łatwiej w systemie DOS-a niż w Windows.

System operacyjny typu DOS lub MS DOS jest w zasadzie zorientowany na system komputerowy i stanowi jego część. System MS Windows jest natomiast zo­rientowany na użytkownika. Graficzny interfejs użytkownika, jakim jest MS Win­dows, jest programem, który przedstawia dane i polecenia w formie symboli graficz­nych. Osoby, które korzystają z tego pakietu manipulują tymi symbolami zamiast wpisania konkretnych poleceń.

Według P.Nortona istnieje kilka powodów, dzięki którym MS Win­dows stał się tak popularny:

  1. po pierwsze graficzny interfejs użytkownika - GUI sprawia, że używanie komputera i jego programów staje się łatwiejsze.

  2. po drugie bardzo dobra współpraca pomiędzy różnymi aplikacjami, a co za tym idzie, ułatwienie obsługi i wymiany danych. Dane i obrazy można łatwo przenosić z jedne­go programu do drugiego. Można również tworzyć połączenia pomiędzy aplikacja­mi tak, aby zmiana danych w jednym programie była natychmiast uwzględniona w dołączonej aplikacji. Realizacja współpracy między aplikacjami jest możliwa dzięki standardowej wymianie danych DDE (Dynamic Data Exchange - dynamiczna wymiana danych). Standard DDE tworzy realizowany na poziomie programisty interfejs, który umożli­wia aplikacjom dla Windows, dostęp do danych pochodzących z innych aplikacji. W konsekwencji uzyskuje się narzędzia, które pozwalają na aktualizację informacji.

  3. po trzecie Zastosowanie Techniki Łączenia i Osadzenia Obiektów czyli techniki OLE (Object Linking and Embedding). Jest to forma wymiany danych. Po wstawieniu obiektu do pliku lub docelowego dokumentu można uruchomić aplikacje, która go stworzyła, i manipulować danymi przy pomocy myszki.

Korzystając z systemu MS Windows należy pamiętać, że podstawowym jego elementem jest Menedżer programów (Program Manager), któ­ry zarządza grupami programów i tworzy interfejs użytkownika systemu Windows oraz obsługuje instalowane i uruchamiane aplikacje. Grupa (Group) jest zbiorem plików i programów wyświetlanych przez Menedżera, programów jako pojedyncza ikona. Ikony poszczególnych programów przechowywane są wewnątrz grup, co uła­twia zarządzanie aplikacjami. Menedżer programów, ikony, okienka grup oraz okienka aplikacji tworzą tak zwany pulpit (desktop) Windows, czyli ekranową reprezentację obiektów, która umożliwia korzystanie z zasobów i funkcji komputera. W Windows obiektem jest każdy symbol na ekranie, którym można manipulować. Więk­szość obiektów Windows ma postać ikon lub małych rysunków.

Każdy program, który jest elementem Windows ma swoją własną strukturę menu lecz pewne jego elementy są wspólne dla wszystkich aplikacji. Są tam podmenu Plik (File), Edycja (Edit) oraz Pomoc (Help) i inne. Aplikacje użytkownik uruchamia zazwyczaj myszką i przy jej pomocy - wskaźnikiem myszki (mouse pointer) wskazuje się wybra­ny obiekt. Po wybraniu, obiekt można uruchomić lub zaznaczyć i wykonać z nim żądaną operację. W sytuacjach awaryjnych (uszkodzenie myszki lub chęć użytkownika do korzystania z aplikacji) moż­na użyć klawiatury. Istotnym szczególnie klawiszem, jest klawisz funkcjonalny F1, którego użycie powoduje wywołanie pomocy. Ważna jest kombinacja klawi­szy CTRL-TAB, którą stosuje się wtedy, kiedy nie widzi się na ekranie Menedżera programów, żądanej grupy itp. Oznaczać to może jedną z następujących sytuacji: grupa jest otwarta i zasłonięta przez inne okno, zamknięta lecz zasłonięta przez inne okno, ewentualnie okno Menedżera programów jest za małe. W takim przypadku wielo­krotne naciskanie klawiszy CTRL-TAB umożliwia przejścia przez wszystkie do­stępne grupy aż do momentu wybrania właściwej.

Programy MS Windows umożliwiają realizację bardzo złożonych zadań, z którymi może w praktyce spotkać się użytkownik.

OPROGRAMOWANIE UŻYTKOWE.

Oprogramowanie użytkowe nosi ce­chy oprogramowania aplikacyjnego lub też zastosowaniowego. Jego zadaniem jest bezpośrednia realizacja polecenia sformułowanego przez użytkownika. W odróżnieniu od oprogramowania systemowego, oprogramowanie użytkowe two­rzone jest przez użytkownika (tzw. software - house), które tworzy on jako oprogramowanie o przeznaczeniu typowym dla większej grupy potencjalnych użytkow­ników. Programy te są zakupywane lub dzierżawione przez poszczególnych użyt­kowników na określonych warunkach, takich jak: dostarczenie dokumentacji, szkolenie personelu użytkownika, konsultacje, dostarczanie nowych udoskona­lonych wersji systemu.

Zestaw programów zastosowalnych tworzy często tzw. pakiet, który stosuje się przy rozwiązywaniu problemów określonego typu. Po­pularność i powszechność stosowania komputerów personalnych wynika mię­dzy innymi z faktu , że użytkownik może się posługiwać stosunkowo tanim i ogólnie dostępnym oprogramowaniem użytkowym. Posługiwanie się tym opro­gramowaniem nie wymaga znajomości języka programowania, a jedynie pozna­nia zasad używania prostych instrukcji. Oczywiście przy bardziej złożonych pro­gramach sytuacja jest bardziej skomplikowana, ale stosowane programy wspo­magające powodują, że użytkownik jest prowadzony przez system „za rękę". Takie podejście do użytkownika spowodowało, że oprogramowanie to często nazywane jest oprogramowaniem przyjaznym.

W ramach oprogramowania użytkowego wyróżnia się duże dwie ich klasy, a mianowicie:

Oprogramowanie można też sklasyfikować biorąc za podstawę kryterium wiel­kości komputerów. Istnieje bowiem oprogramowanie, które może być realizowane na dużych i średnich komputerach oraz komputerach personalnych. Wiele pakietów projektuje się z myślą o dużych i personalnych komputerach. Dla tych drugich ist­nieją pewne pakiety o ograniczonych funkcjach.

Inna klasyfikacja bierze z kolei za punkt wyjścia użytkownika i jego zadania. Będą to więc oprogramowania dla przedsiębiorstw, szkolnictwa, administracji i inne. Oprogramowanie można też analizować według podstawowych celów, któremu ma służyć, np. wspomaganie transakcji, tzw. systemy transakcyjne, systemy informowa­nia kierownictwa, systemy wspomagania decyzji, systemy ekspertowe, systemy wspo­magania procesu projektowego.

Nie roszcząc sobie pretensji do całościowej prezentacji (jest to niemożliwe ze względu na ograniczenie objętości tej pracy) przedstawione tu zostaną tylko pod­stawowe informacje o pakietach przydatnych użytkownikowi, w tym:

Te dwa ostatnie są podstawą bardzo dużej ilości różnorodnych zastosowań.

SYSTEMY WSPOMAGANIA PRACY BIUROWEJ. Najbardziej popular­nym pakietem dla wspomagania pracy biurowej jest produkt firmy Microsoft, przeznaczony dla komputerów personalnych zgodnych ze standardem IBM, czy­li MS Office. Obecnie wprowadzana jest na rynek wersja MS Office 2000. Mimo, że w pakiecie znajduje się oprogramowanie dotyczące różnych funkcji pracy biurowej, to jednak każdy z programów można również użyć oddzielnie i niezależnie.

Najbardziej popularnymi programami w pracy biurowej są programy operu­jące na tekstach. Programy operowania na tekstach w zależności od stopnia zło­żoności funkcji redakcyjnych można podzielić na dwie kategorie, a mianowicie:

Edytory tekstów służą do pisania i poprawiania tekstów, natomiast programy re­dagowania tekstów służą do przygotowania dokumentów drukowanych. W praktyce obie te grupy traktuje się łącznie i używa się nazwy edytory. Użytkownikami opro­gramowania są: pracownicy biurowi oraz wszyscy, którzy przygotowują pracę dy­plomową, magisterską, doktorską, czy też powieść.

Przygotowując się do pisania dokumentu należy mu nadać odpowiedni format. Dlatego przed pisaniem tekstu określa się: marginesy, wielkości i krój czcionki, tzw. fonty, odstępy między wierszami, czy i w którym miejscu należy numerować strony tekstu, czy będą stosowane odnośniki. Formatowanie tekstu zależy od możliwości systemu komputerowego, jak i stosowanego programu edycyjnego. Również przed drukowaniem tekstu najczęściej włącza się program edycyjny sprawdzający, czy użyte w maszynopisie przez nas słowa są poprawne or­tograficznie i czy nie piszemy dwukrotnie tego samego słowa, czy tekst ma odpowiedni format (marginesy, odstępy itp.)

Korzystając z programu sprawdzającego musimy zadeklarować język, a w przy­padku niektórych języków jego odmianę, np. w języku angielskim: brytyjską, ame­rykańską, czy australijską.

W trakcie pisania tekstu możemy zmieniać wcześniejsze ustalenia i wykonywać tzw. przeformatowanie. Na tekście można wykonać następujące operacje:

Użytkownik ma do wyboru różne opcje, które są wyświetlane w linii menu. Menu ma strukturę hierarchiczną.

Opracowany przy pomocy edytora tekst ma postać dokumentu tekstowego. Pro­gram pozwala na wykonanie drukiem różnorodnych opcji, a w tym: rozpoczęcie pisania tekstu (opcja nowy dokument z menu), zmiana nazwy już założonego tekstu, wykonanie połączenia z innym wcześniej już napisanym, tekstem, zapisanie tekstu i jego przechowywanie na dowolnym nośniku informacji (dyskietka, dysk twardy), wydrukowanie tekstu i jego skasowanie. Dlatego aby, przykładowo, awaria zasila­nia nie spowodowała utraty napisanego, a nie zabezpieczonego tekstu, komputer co pewien czas zapisuje automatycznie tekst na dysku, najczęściej co 20 minut, jednak można ustalić inny czas, np. co 5 minut lub 10 minut.

Edytory umożliwiają też redagowanie kilku tekstów. Jest to wtedy pomocne, jeżeli chcemy odpowiedzieć na określony list i na jednej stronie ekranu mamy koresponden­cje, która do nas przyszła, a z drugiej strony list, który wysyłamy. Podobnie przy tłuma­czeniach lub powoływaniu się na akty prawne takie ustawienie jest bardzo pomocne.

Tekst wprowadzony do programu edycyjnego przy użyciu klawiatury, jak również wprowadzane z klawiatury poprawki, czy też ich aktualizacja i kasowanie są możliwe dzięki wielości funkcji technologicznych danego edytora. Cenną pomocą, obok wspomniane­go już wcześniej programu sprawdzającego, jest program, umożliwiający szukanie wy­razów bliskoznacznych. Jeżeli też nie chcemy powtarzać wielokrotnie tego samego sło­wa, wtedy komputer może pomóc w znalezieniu słowa pokrewnego.

Pożyteczną opcją jest działanie na blokach - akapitach. Operacja na blokach czy akapitach wymaga uprzed­niego ich zaznaczenia, co może objawić się ich podświetleniem. Zaznaczenie bloku wykonuje się zwykle przy pomocy myszki lub klawiatury. Taki blok może być usunięty, przesunię­ty w inne miejsce tekstu, powtórzony, lub zapamiętany w wydzielonym obszarze pamięci, czyli w tak zwanym buforze. Najnowsze wersje edytorów umożliwiają rów­nież pracę grupową. Praca grupowa w redakcji tekstu polega na tym, że poszczegól­ne osoby zaznaczają wybranym kolorem fragment tekstu, piszą obok swoje uwagi, w tym i propozycje zmian. Osoba odpowiedzialna za redakcję całości, przyjmuje lub odrzuca poczynione uwagi i w konsekwencji powstaje wspólny tekst.

Napisany w całości tekst jest ostatecznie redagowany. Przykładowo ma mieć wyrównany prawy lub lewy margines, lub być wypośrodkowany. Istnieje możliwość pogrubienia (bolding) części tekstu lub podkreślenia go linią. Niekiedy, jeżeli chce się zwró­cić uwagę na wybraną część tekstu, można stosować wyróżniki np.: zmienić krój pisma np. użyć czcionek pochyłych lub prostych (kursywa lub antykwa), cienkich, półgrubych i grubych, drukować spacją (litery bądź wyrazy rozstrzelone) itd. Większość edytorów umożliwia wprowadzenie do tekstu: różnego typu tabel, zestawień i obiektów np. graficznych czy dźwięku.

Edytory często realizują zadanie „drukuję tak jak mnie widzisz", gdyż odpowiada to sytu­acji, że na ekranie otrzymuje się wierny obraz drukowanego tekstu. Na i ile będzie on identyczny, decydują możliwości drukarki. Jeżeli będzie to drukarka kolorowa i laserowa to otrzymamy zupełnie inny wygląd tekstu niż korzystając z 9-igłowej, czarno-białej drukarki. Zawsze należy się zastanowić czy wybrany edytor i sprzęt odpowiada naszym wymaganiom.

Użytkownik ma do wyboru wiele edytorów tekstu. Problem wyboru jest zagadnie­niem wielokryterialnym. Najbardziej popularnymi edytorami są: WORD PERFECT for WINDOWS, WORD for WINDOWS, AMI PRO, QRTEKST, PC WRITE.

Niedawno bardzo popularny był również polski edytor TAG. Należy pamiętać, że każdy z edytorów ma wiele - coraz bardziej doskonałych - wersji. W zasadzie program napisany w wersji niższej może być przeczytany w wersji wyższej. Natomiast relacja ta nie jest zwrotna i program napisany przy pomocy edytora bardziej doskonałego nie może być przeczytany na komputerze, który ma zainstalowaną wersję niższą.

Możliwości edytorów są znacznie rozszerzone o oprogramowanie biurowej poli­grafii komputerowej DTP (DeskTop Publishing). Programy te umożliwiają przygo­towanie do druku tekstu w postaci zbliżonej do składu uzyskanego w drukarniach profesjonalnych. Najbardziej znanymi programami tego typu są między innymi VENTURA PUBL., PAGE - MAKER.

Dla wyboru właściwego edytora użytkownik może korzystać z analiz porównaw­czych prowadzonych przez specjalistyczną prasę, jak przykładowo: PC-Kurier, PC-­Magazine, Enter itp. W analizie porównawczej analizowane są między innymi takie kryteria, jak: system kontrolujący pracę edytora, wymagania sprzętu, polskie fonty, dostępności innych znaków spoza ASCIl, pomoc dla użytkownika, możliwości edy­cji i formatowania tekstu, sposoby zarządzania zbiorami danych, słowniki (ortogra­ficzny, bliskoznaczny), możliwość pracy w sieci, cena.

Arkusze kalkulacyjne zwane też pakietami księgowymi, programami kalkulacyj­nymi, programami obliczeń tablicowych (financial planning programs), arkuszami analityczno-planistycznymi. Zastoso­wanie tego typu pakietów jest bardzo szerokie i mogą być wykorzystywane dla wspo­magania prac związanych z ewidencją kosztów, kalkulacją, planowaniem, sporzą­dzaniem biznes planów, analizą symulacyjną typu „What-for", czyli co będzie jeśli zaistnieje określona sytuacja.

Użytkownikami tego systemu są najczęściej ekonomiści, a szczególnie pracownicy działów księ­gowości i planowania, inżynierowie i pracownicy biurowi. Ponieważ system jest również prosty jak edytor, dlatego też jest on bardzo popularny. Dlatego też bardzo często, w warunkach kwalifikacyjnych, które powinien spełniać kandydat do pracy w działach ekonomicznych i marketingowych, stawia się wymagania znajomości arkuszy kalkulacyjnych.

Podstawowymi elementami pakietu księgowego są:

Oprogramowanie zostało skonstruowane do przechowywania i przetwarzania danych (w postaci arkusza kalkulacyjnego), zgodnie z wprowadzonymi wzorami i tworzoną na ich podstawie prezentacją graficzną w formie różnego typu wykresów. Większość programów, oprócz czterech podstawowych działań arytmetycznych, posiada do kilkudziesięciu funkcji finansowych, statystycznych, matematycznych, logicznych, daty i czasu oraz baz danych itp.

Zalety arkuszy kalkulacyjnych ujawniają się szczególnie w sytuacjach koniecz­ności modyfikacji danych. Przykładowo jeżeli mamy wyniki sprzedaży wielu róż­nych asortymentów i nastąpiła korekta związana ze zmianą kursu dolara lub innej waluty. to przeliczenie ręczne byłoby czaso i pracochłonne oraz miałoby potencjal­ne możliwości popełnienia błędów. W arkuszu kalkulacyjnym taka korekta trwa bar­dzo szybko i dokonywana jest niemal automatycznie. Bardzo pożyteczna jest możli­wość symulacji, np. dokładne obliczenia jak się zmienią wyniki finansowe firmy, jeżeli koszty wzrosną np. o 1 %, 1,5%, 2% i tak dalej. Oczywiście ilość wariantów jest praktycznie nieograniczona.

Budowa arkusza kalkulacyjnego jest następująca, w poszczególnych konkret­nych programach takich jak EXCEL, QUATRO PRO, LOTUS, WORKS mogą być zastosowane nieco inne rozwiązania, jednak podstawo­we zasady nie ulegają znaczącym zmianom.

Cały arkusz kalkulacyjny podzielony jest na wiersze i kolum­ny. Na przecięciu ich znajdują się komórki albo klatki (cele). Dla identyfikacji komórek wiersza numeruje się je liczbami, poczynając od 1, 2 aż np. do 8192. Nato­miast kolumny - literami lub kombinacjami liter, poczynając od A do Z, (pierw­sze 26 kolumn), A, ... AZ (drugie 26 kolumn) i tak dalej. Adres, który identyfiku­je daną komórkę składa się z litery i liczby. Przykładowo adres A5 oznacza, że jest to komórka na przecięciu pierwszej kolumny i piątego wiersza. Każda ko­mórka może być rozszerzona do potrzebnych rozmiarów. W komórce można zapisać tekst alfabetyczny lub numeryczny.

Ponieważ pojemność ekranu jest ograniczona dlatego też można obejrzeć tylko pewną, niewielką część arkusza kalkulacyjnego. Tą część arkusza kalkulacyjnego, którą widzi­my na ekranie nazywamy „oknem”. Przy pomocy klawiszy kursora można „okno" prze­suwać. W ten sposób można oglądać niewidoczne uprzednio komórki arkusza.

Arkusz kalkulacyjny można analizować jako pewną bazę danych, w której wier­sze są rekordami. Na tak zapisanej bazie można dokonywać szeregu operacji, jak przykładowo posortować określone rekordy według malejącej lub rosnącej wielko­ści kryterialnej. Możliwe jest też sortowanie rekordów, np. na takie, które reprezen­tują artykuły przynoszące zysk 10% i takie, które nie przynoszą takiego zysku oraz te, których produkcja przynosi straty. Dla wizualizacji danych można zbudować wykres np. linearny, słupkowy, kolumnowy, dwu lub trójwymiarowy, radarowy, kropkowy, warstwowy itp. jest też możliwość używania różnorodnych funkcji graficznych w tworzeniu danego obrazu wykresu.

Dla ekonomistów szczególnie interesujące są funkcje finansowe, zaś dla inżynie­rów i osób budujących rynek - funkcje matematyczne i statystyczne. Opisy poszczególnych funkcji dostępne są w przewodnikach metodycznych, dotyczących poszczególnych progra­mów. Najbardziej popularnymi programami są: LOTUS 1-2-3, EXCEL, SUPER­CALK. Nową tendencją w tworzeniu arkuszy kalkulacyjnych jest stosowanie arku­szy wielowymiarowych. Podobnie jak przy edytorach użytkownik ma problemy z wyborem właściwego oprogramowania. I tu pomocne są pisma fachowe. Przy wy­borze oprogramowania należy się kierować następującymi kryteriami: wymagania sprzętowe, edycja, łatwość obsługi, operacje matematyczne, logiczne, statystyczne, finansowe, na łańcuchach, możliwości graficzne i możliwości łączenia tekstu z gra­fiką, współpraca z drukarką, zawartość i jakość dokumentacji, cena, serwis.

Kolejną grupą wspomagającą pracę biurową są pakiety graficzne (systems,graphics). Podstawowymi materiałami tworzonymi w biurze, a zawierającymi elementy graficzne są: korespondencja wewnętrzna i wychodząca, materiały informacyjne i reklamowe, pre­zentacja związana z pokazami, naradami, spotkaniami, schematy organizacyjne.

Pakiety graficzne są narzędziem do tworzenia atrakcyjnych form prezentacji, np. na folii i powiększone przy pomocy rzutnika albo też mogą współpracować bezpo­średnio w układzie komputer - rzutnik.

Pakiety graficzne nie zawsze występują jako odrębne oprogramowanie. Są one często elementem innego oprogramowania, np. edytorów, arkuszy elektronicznych itp. Przy pomocy programów graficznych można ilustrować dane w różnych formach.

Najczęściej stosuje się następujące metody prezentacji:

Użytkownik może nadać wykresom postać graficzną zgodną z jego potrzebami. W dowolnym miejscu można umieszczać napisy i znaki np. w postaci podpisów pod rysun­kami, szerszych opisów, odnośników, informacji, komentarzy. Wykres może być przed­stawiony w różnych kolorach, jak też-dla wyeksponowania jego elementów-może być cieniowany, pogrubiony itd. Dla analizy porównawczej wykresy można na siebie nakładać.

Programy graficzne tworzące wykresy korzystają z danych zapisanych w postaci szeregów lub tablic. Dane te mogą być zapisane w innych programach (np. arku­szach kalkulacyjnych) i pakiet graficzny importuje je do siebie.

Dla wykreślenia obrazu graficznego, użytkownik może korzystać z całego szere­gu narzędzi i ułatwień. Przykładowo użytkownik może tworzyć własne rysunki, ko­rzystając z gotowej bazy własnych czy firmowych elementów, np. można na każdym slajdzie przedstawić logo firmy.

Również do popularnych narzędzi wspomagających należą:

Specjalistyczne zestawy rysunków i elementów zawarte są w oprogramowaniu wspomagającym pracę inżynierów i konstruktorów. Oprogramowanie nosi nazwę pakietów CAD/CAM czyli Computer Aided Design (Komputerowe wspomaganie projektowania) i Computer Aided Manafacture (Komputerowe wspomaganie pro­dukcji). Oprogramowanie typu CAE (Computer Aided Enginering) czyli kompute­rowe wspomaganie konstruowania, umożliwiają dodatkowo planowanie produkcji i analizę kosztów.

Oprogramowanie graficzne można podzielić według następujących kryteriów.

1. Specyfika rodzaju pracy:

a) Grafika wektorowa - opiera się na matematycznym opisie punktów, linii i kolorów. Umożliwia to skalowanie elementów rysunku bez ich utraty, precyzję, kon­trolę nad fragmentami grafiki. Programy zachowują najwyższą jakość rysunku, pa­miętają przykładowo współrzędne początku i końca kreślonej linii, dla okręgu zaś grubość linii, środek i promień. Cechy te pozwalają na osiągnięcie gładkich krawę­dzi i pożądanego wyglądu powiększanych, przesuwanych i drukowanych obiektów. Do oprogramowania posługującego się grafiką wektorową należą m.in.. CHARI­SMA, CORELDRAW, WINDOWS-DRAW.

b) Grafika rastrowa - polega na tym, że rysunek jest traktowany jako płaszczyzna wypełniona wieloma punktami, tzw. mapa bitowa. Im tych punktów na jednostkę powierzchni jest więcej tym jakość rysunku jest lepsza. Słabością oprogramowania jest to, że takie operacje jak przesuwanie, powiększanie, zniekształcają obiekt na ekranie monitora i wydruku. Dzieje się tak, ponieważ program wykonuje zadane funkcje pojedynczo na każdym punkcie. Przedstawicielem tej klasy oprogramowa­nia jest program PHOTO MAGIC.

c) Grafika prezentacyjna - wykorzystuje zarówno technikę wektorową, jak i ra­strową. Jest to najbardziej rozwojowa technika grafiki komputerowej i służy do wirtuali­zacji danych używanych dla opracowania materiałów szkoleniowych raportów i analiz.

2. Możliwości zastosowania:

a) Oprogramowanie profesjonalne, gdzie autorzy tych produktów założyli wy­soki poziom wiedzy informatycznej użytkowników. Programy zawierają funkcje dające duże możliwości, jednak dla ludzi mniej przygotowanych są trudne do stoso­wania. Programy używane są m.in. przez artystów - malarzy i grafików co pozwoliło na stworzenie nowych kierunków o nazwie grafika komputerowa i malarstwo kom­puterowe. W opracowaniu tego typu programów przoduje firma Digital, która sponsoruje artystów zajmujących się tym kierunkiem sztuki.

b) Oprogramowanie amatorskie, które charakteryzuje się łatwością obsługi. Ma bardzo rozbudowaną bazę standardowych rysunków, którymi - po pewnych prze­kształceniach lub bez zmian - może posługiwać się użytkownik. Ich dużą zaletą jest stosunkowo niska cena i o wiele mniejsze, niż w przypadku oprogramowania profe­sjonalnego, wymagania sprzętowe.

3. Ilość obsługiwanych funkcji

a) Programy pojedyncze, które wykonują jedną podstawową funkcję. Do tego typu programów należy program analizujący i rysujący wykresy statystyczne - STATGRAPHICS oraz CHART.

b) Pakiety graficzne, które składają się z modułów będących odrębnymi programa­mi, sprzedawanymi niekiedy jako odrębne produkty. Moduły składowe z reguły należą do różnych grup klasyfikacji dokonanej ze względu na rodzaj pracy. Do tej grupy oprogramowania należy bardzo popularny program COREL DRAW. Zawiera on między in­nymi: program tworzenia prezentacji COREL-SHOW, program edycji obrazu i jego obróbki COREL PHOTO-PAINT, program tworzenia wykresów COREL CHART, pro­gram wygładzania krawędzi przekazywanych obrazów COREL TRACE.

Dla wyboru odpowiedniego oprogramowania, podobnie jak dla edytorów i arku­szy kalkulacyjnych, należy odpowiedzieć na podstawowe pytania. Czego oczekuje­my po oprogramowaniu? Jakie są nasze możliwości finansowe? Dla odpowiedzi na te pytania pomogą nam opracowania specjalistyczne, np. Enter lub Computerworld.

Najczęściej stosowanymi kryteriami w ocenie oprogramowania graficznego są: atry­buty linii i powierzchni (grubość, styl, kolor), skalowanie, powiększanie (np. 200 razy), liczba gotowych rysunków w cenie pakietu (Charisma ma ich 2200, a Corel 1200), im­port danych z innych programów, typy wykresów, liczba obsługiwanych formatów pli­ków, współpraca ze skanerem, możliwość łączenia fragmentów skanowanych obrazów. narzędzia malarskie, obrót obrazu, wymagania sprzętowe, cena.

Większość programów graficznych pracuje w środowisku MS WINDOWS. Jest faktem. że bardzo przystępny graficzny interfejs, czyli wspomniany wcześniej GUI, i łatwość poruszania się po nim dzięki myszy - sprzyjają pracy z grafiką komputerową.


SIECI KOMPUTEROWE

Co to są systemy sieciowe? - Najogólniej rzecz biorąc, systemem sieciowym przyjęto nazywać pew­ną strukturę informatyczną, w skład której wchodzi grupa elementów, powiązanych ze sobą na zasadzie wymiany infor­macji. Fizyczną realizacją systemu sieciowego jest sieć komputerowa. Stanowi ją zbiór różnego typu urządzeń oraz oprogramowania. Do urządzeń sie­ciowych zalicza się przede wszystkim komputery oraz urządzenia zapewniające komunikację między nimi. Sieć jest to więc struktura zmienna o otwartej architekturze. Komputery w sieci pełnią rolę stacji robo­czych, serwerów sieciowych oraz mogą tworzyć platformę do instalacji oprogramowania zapewnia­jącego dodatkowe usługi. Podstawowym oprogra­mowaniem zapewniającym funkcjonowanie sieci jest system operacyjny oraz oprogramowanie ko­munikacyjne. Wyższą warstwę stanowią programy udostępniające usługi sieciowe, najwyższą zaś apli­kacje sieciowe.

Sieć komputerowa jest pojęciem bardzo ogólnym i nie specyfikującym jej rozmiaru ani struktury.

Dowolną sieć komputerową tworzy grupa komputerów połączonych ze sobą w taki sposób, że mogą przesyłać i wymieniać między sobą dane. Ze względu na szybkość działania i zasięg wykonywanych operacji sieci dzielą się na:

Lokalne - LAN (ang. Local Area Network) - lokalna sieć komputerowa tworzona jest przez kilka do kilkudziesięciu komputerów rozmieszczonych na niewielkim obszarze ­przeważnie w jednym budynku, np. sieć obejmująca jeden wydział uniwersytetu, firmę itp.

Metropolitarne - MAN (ang. Metropolitan Area Network) - metropolitarna sieć komputerowa łączy pojedyncze komputery i sieci lokalne na większym obszarze - mogą to być sieci akademickie, miejskie, regionalne, na przykład sieć łącząca wydziały uniwersytetu mieszczące się w jednym mieście.

Rozlegle - WAN (ang. Wide Area Network) - rozległa sieć komputerowa obejmuje sieci lokalne, metropolitarne i pojedyncze komputery w obrębie kraju lub kontynentu; na przykład sieć łącząca siedziby firm rozprzestrzenione w całym kraju.

Sieci lokalne charakteryzują się więc z reguły niewielką ilością komputerów rozmieszczonych na niewielkim obszarze. W związku z tym struktura połączeń między nimi jest prosta, zaś koszty eksplo­atacji niewielkie. Problemy zaczynają się w przy­padku sieci rozległych, składających się z dużej liczby komputerów. Skomplikowana struktura po­łączeń sieciowych wymusza konieczność stosowa­nia dodatkowych wyrafinowanych urządzeń, za­pewniających poprawną oraz efektywną komuni­kację i transfer danych. Dodatkowo dochodzą problemy minimaliza­cji kosztów połączeń, gdy sieć rozległa korzysta z publicznych sieci teleinformatycznych.

W praktyce zjawisko to jest bardzo zasadne. Istnieje bowiem bar­dzo duże zapotrzebowanie na sieci do obsługi małych i średnich przedsiębiorstw i instytucji. Po­nadto sieci lokalne stanowią podstawę do konstru­owania sieci rozległych.

Aby sieć mogła zafunkcjonować nie wystarczy samo połączenie komputerów kablem i kartami sieciowymi. Wymagany jest drugi element - opro­gramowanie systemowe. Zasadniczym jego skła­dnikiem jest sieciowy system operacyjny zawiadu­jący zasobami oraz koordynujący pracą sieci. Decyduje on o strukturze funkcjonowa­nia sieci.

Sieciowy system operacyjny

Sieciowy system operacyjny jest podstawowym oprogramowaniem sieci komputerowej. Jego zada­niem jest stworzenie środowiska wspólnej pracy dla wielu urządzeń. Decyduje o charakterze sieci oraz o zakresie oferowanych usług. Sieciowy system operacyjny koordynuje pracą sieci, zapewnia efek­tywne gospodarowanie zasobami i udostępnianie ich użytkownikom według określonych reguł i zasad. Serwer - jako komputer centralny, na którym znajduje się całość oprogramowania jest najbardziej newralgicznym elementem systemu sieciowego. Ponieważ serwer musi obsłużyć wiele stacji roboczych, jest to z reguły komputer o dużej mocy obliczeniowej i dużej pamięci dyskowej.

Ostatnio coraz większą popularność zyskują syste­my bez wyróżnionego serwera (sieci równorzędne, ang. peer-to-peer), gdzie każdy komputer może udostępniać swoje zasoby na rzecz sieci. W takim przypadku komputery pracujące w sieci korzystają z mocy obliczeniowej oraz innych zasobów pozo­stałych komputerów.

Jedno i drugie rozwiązanie ma swoje wady i zalety. W systemie z wyróżnionym serwerem istnieje ko­nieczność przeznaczenia kosztownego komputera do obsługi sieci, z drugiej jednak strony centralne zarządzanie jest łatwiejsze, zaś system ochrony danych bardziej niezawodny. Z kolei sieci równo­rzędne są rozwiązaniem bardziej ekonomicznym. Zapewniają wysoką efektywność, przy wykorzysta­niu komputerów o mniejszych mocach obliczenio­wych i indywidualnych zasobach, ale trudno jest w nich zagwarantować wysoki stopień niezawod­ności pracy.

Programy usługowe

Są to programy, które rozszerzają funkcje sieciowe­go systemu operacyjnego o dodatkowe usługi. Do grupy tej należą programy komunikacyjne, opro­gramowanie pozwalające na integrację z innymi systemami sieciowymi, udostępniające usługi dru­ku w sieci lub zapewniające dostęp do modemów. Instalowane są z reguły na serwerze albo innym dedykowanym komputerze pracującym w sieci. Niektóre z instalowanych programów stanowią integralną część systemu operacyjnego lub oferowane są jako osob­ne produkty. Do typowych usług sieciowych możemy zaliczyć:

Programy zarządzania

Programy zarządzania pracą sieci to oprogramowa­nie umożliwiające scentralizowaną kontrolę pracy sieci. Bazują na informacji udostępnianej przez urządzenia sieciowe lub oprogramowanie systemo­we. Do innych funkcji programów zarządzania należy zaliczyć:

Każda sieć komputerowa ma swoją charakterystyczną architekturę - protokół komunikacyjny i topologię. Protokół komunikacyjny opisuje zasady wymiany informacji pomiędzy tworzącymi sieć urządzeniami definiuje zasady transmisji danych: (sygnały kontrolne, formaty pakietów danych i sposoby kontroli poprawności przepływu danych). Topologia zaś określa zasady łączenia komputerów pomiędzy sobą w celu utworzenia sieci. Zasady te ustalają rodzaje łączy, typ kabli oraz kolejność łączenia i sposób rozmieszczenia komputerów, na przykład w oparciu o topologię magistrali, gwiazdy lub pierścienia. Przykłady podane są w załączniku. Tak więc poszczególne, niezależne sieci komputerowe mogą działać w oparciu o różne protokoły komunikacyjne i korzystać ze specjalizowanych połączeń pomiędzy komputerami. Natomiast ogólnoświatowa sieć Internet nie ma regularnej topologii i jest zbudowana na zasadzie łączenia ze sobą pojedynczych sieci lokalnych i miejskich. Bardzo istotny jest fakt, że Internet nie działa jedynie w oparciu o specjalizowane sieci komputerowe, ale i zwykłe sieci telekomunikacyjne. Podobnie jak w innych sieciach, komunikacja w Internecie odbywa się według wspólnego protokołu transmisji danych, którym jest TCP/IP (ang. Transmission Control Protocol / Internet Protocol), którego istota podana zostanie w dalszej części.

Sieci komputerowe umożliwiają łatwą komunikację, dostęp do wspólnej i aktualnej informacji oraz dzielenie zasobów, takich jak drukarki lub pamięć masowa. Naturalnie każdy z użytkowników (uczestników) sieci może korzystać z tych udogodnień w stopniu zależnym od udzielonych mu przywilejów - praw dostępu.

Architektura sieci komputerowych

Jak już wspomniałem, technologia sieci lokalnych (LAN) w sposób zasadniczy różni się od technologii sieci rozległych (WAN). O ile funkcjonowanie sieci rozległej jest możliwe dzięki istnieniu urządzeń zwanych routerami, które w aktywny sposób decydują o ruchu pakietów, w przypadku sieci lokalnych połączenie między komputerami ma charakter pasywny. Większość technologii sieci LAN oparta jest na transmisji w paśmie podstawowym (baseband), co w konsekwencji oznacza, że w danym momencie może nadawać tylko jedna stacja. W przypadku równoczesnej próby transmisji przez różne stacje następuje kolizja i transmisja musi zostać powtórzona. Istnieją różne technologie sieci LAN, które w różny sposób określają metodę dostępu do łącza fizycznego. Metody te można generalnie podzielić na dwie grupy:

Zasadnicza różnica między obiema technikami polega na tym, że w metodach rywalizacyjnych restrykcje dotyczące momentu, w którym stacja może rozpocząć nadawanie, są stosunkowo łagodne. Natomiast w metodach z przekazywaniem uprawnienia moment i czas nadawania są ściśle limitowane. Oba rodzaje technologii mają swoje wady i zalety oraz występują w wielu wariantach. Poniżej zostaną one w uproszczeniu omówione na przykładzie popularnych sieci Ethernet (metoda typu CSMA/CD) oraz Arcnet (metoda typu token passing).

Ethernet

Standard Ethernet został opracowany na przełomie lat siedemdziesiątych i osiemdziesiątych przez firmy Xerox, Intel i DEC. W metodzie tej stacja może nadawać, jeśli łącze jest wolne. W związku z tym wszystkie stacje mają obowiązek prowadzenia nasłuchu stanu łącza (Carrier Sense). Z uwagi na skończony czas propagacji sygnału stacja w chwili podejmowania decyzji o rozpoczęciu nadawania ramki nie ma jednak nigdy pewności, że tylko ona rozpoczyna transmisję. Dopiero po pewnym czasie od momentu rozpoczęcia nadawania przez daną stację wszystkie stacje mogą wykryć, że łącze jest zajęte. Czas ten jest tym większy, im większa jest rozpiętość sieci i im mniejsza jest szybkość propagacji sygnału. Dopiero po upływie tego czasu stacja, która rozpoczęła nadawanie i nie wykryła kolizji na łączu, może przyjąć, że kolizja już nie nastąpi. Ponieważ transmisja ramki nie może zostać zakończona przed uzyskaniem pewności, że ramka ta nie zostanie zniszczona w wyniku kolizji, czas ten wyznacza minimalną długość nadawanej ramki. W standardzie Ethernet przyjęto również górne ograniczenie długości ramki, ażeby nadająca stacja zbyt długo nie blokowała dostępu do łącza innym stacjom.

Ponieważ w sieci Ethernet z góry zakłada się możliwość zajścia kolizji, musi być określony efektywny algorytm pozwalający na przejście ze stanu kolizyjnego do stanu normalnej pracy sieci. Przede wszystkim stacje, które wykryją kolizję, mają obowiązek wstrzymać nadawanie (Collision Detection). Okres oczekiwania na możliwość retransmisji jest określony losowo, ażeby zmniejszyć prawdopodobieństwo ponownej kolizji.

Zalety i wady Ethernetu

Ethernet jest obecnie najbardziej popularną na świecie technologią sieci lokalnej.

Ethernet, podobnie jak i inne metody oparte na dostępie rywalizacyjnym, jest jednak efektywny jedynie w zakresie stosunkowo niewielkich obciążeń sieci. W przypadku, gdy ilość danych zlecanych do wysłania przez różne stacje wzrasta, rośnie prawdopodobieństwo kolizji i coraz większa część maksymalnej przepustowości sieci (10 Mbps) jest tracona na retransmisje. Dlatego, chociaż w większości przypadków transmisja zachodzi sprawnie, w sieciach tego typu nigdy nie można zagwarantować minimalnego okresu czasu, w którym transmisja zostanie zrealizowana (ani czy w ogóle zostanie zrealizowana). Takie sieci nie nadają się do transmisji głosu, wideo ani sterowania układami pracującymi w czasie rzeczywistym. Mówimy, że Ethernet nie jest siecią izochroniczną.

Arcnet

Alternatywą w stosunku do rywalizacyjnej metody dostępu do medium jest metoda przekazywania uprawnienia (token passing). Jeden z wariantów tej metody został zastosowany w sieci Arcnet. Arcnet jest przykładem standardu sieciowego, który określamy jako standard de facto, bowiem mimo swojej dużej popularności nigdy nie został oficjalnie uznany za żadną organizację zajmującą się standaryzacją. W sieci tego typu między poszczególnymi stacjami przekazywane jest uprawnienie, zwane również żetonem, znacznikiem lub tokenem.

W sieci Arcnet każda stacja musi znać adres następnika, któremu ma przekazać uprawnienie. Kolejność przekazywania uprawnienia między stacjami nie ma związku z fizyczną topologią sieci - metoda ta może być stosowana w przypadku topologii liniowej, gwiaździstej czy drzewiastej. Kolejne stacje, między którymi jest przekazywany żeton, tworzą więc pierścień logiczny a nie, jak w przypadku sieci typu token ring, pierścień fizyczny. Adres stacji w sieci Arcnet ustala użytkownik ustawiając przełączniki na karcie sieciowej. Jest to adres ośmiobitowy, a więc dostępna przestrzeń adresowa jest stosunkowo niewielka.

Oczywistą zaletą Arcnetu i innych metod opartych na przekazywaniu uprawnienia jest możliwość wyeliminowania zjawiska kolizji w warunkach normalnej pracy sieci. Dzięki temu sieć może sprawnie funkcjonować nawet w sytuacji silnego przeciążenia, gwarantując przewidzianą przez standard szybkość transmisji 2,5 Mbps. Poza tym jest to sieć izochroniczna, w przypadku której z góry można obliczyć maksymalny czas oczekiwania przez daną stację na możliwość nadawania. Wadą Arcnetu jest konieczność wprowadzenia dodatkowych typów ramek, służących wyłącznie do organizowania pracy sieci. Muszą być również stosowane stosunkowo skomplikowane procedury służące do zestawienia pierścienia logicznego. Każde wyłączenie stacji pracującej w sieci lub włączenie nowej prowadzi do zaburzenia normalnej pracy sieci i konieczności odtwarzania pierścienia. Praca sieci jest również mało efektywna w warunkach małego obciążenia - żeton musi być przekazywany kolejno wszystkim stacjom, bez względu na to, czy w danej chwili mają coś do nadania.

SIEĆ ROZLEGŁA TYPU INTERNET Od dwóch, trzech lat jesteśmy świadkami gwałtownego rozwoju sieci Internet w Polsce. Na świecie rozwój ten trwa od prawie 30 lat. Chociaż Internet jest znany i używany w naszym kraju od początku lat dziewięćdziesiątych, to jednak dopiero teraz częściej zauważane są możliwości i zalety wynikające z korzystania z Internetu w działalności instytucji - zarówno przedsiębiorstw, jak i placówek niekomercyjnych, w tym także bibliotek i ośrodków informacji. Podobnie jak na całym świecie, początkowo rozwój tej sieci w Polsce związany był jedynie z ośrodkami akademickimi, gdzie wykorzystywano ją do wymiany informacji w celach naukowych oraz prowadzenia obliczeń na komputerach dużej mocy znajdujących się w innych ośrodkach, miastach lub krajach.

Internet można również traktować jako olbrzymią pamięć masową przechowującą ogromne ilości informacji w postaci tekstowej, graficznej lub dźwiękowej. Sieć daje możliwość łatwego dostępu do dokumentów o przeróżnej tematyce, do publikacji książek, przewodników i katalogów. Dzięki stronom WWW (ang. World Wide Web) możliwe jest prezentowanie informacji w sposób czytelny dla użytkownika, pozwalający na łatwe i szybkie docieranie do potrzebnych danych. Witryny - strony prezentujące instytucje lub osoby prywatne - oprócz tekstu mogą zawierać również zdjęcia, rysunki, muzykę.

Internet (sieć sieci o światowym zasięgu) W niektórych dziedzinach działalności powoli staje się oczywiste, że sprawne posługiwanie się INTERNETEM - znajomość jego zasobów, usług i sposobów czerpania z niego korzyści już niedługo będą niezbędnymi warunkami efektywnej pracy każdego menedżera.

Stosowanie tego medium dostępu i przekazu informacji oraz szybkie wykorzystanie nowych możliwości sieci, staje się koniecznością ! Wraz ze wzrostem tempa życia i pracy jest to więc szybki nośnik informacji - zmniejszający czas przepływu informacji niezbędnej do procesów decyzyjnych i dlatego Internet stał się nie tyle narzędziem, lecz zjawiskiem - bytem podobnym do telewizji, radia, prasy - a więc mediów elektronicznych, a więc środkiem masowego przekazu.

Przyczyną wielkiego rozwoju lokalnych sieci komputerowych w latach osiemdziesiątych było dążenie do umożliwienia użytkownikom komputerów osobistych wzajemnego udostępnienia swoich zasobów. Obecnie to już nie wystarcza i wymaga się, aby sieci komputerowe zapewniały usługi komunikacyjne w skali globalnej. Sieci lokalne łączy się więc ze sobą - w ten sposób powstają sieci o dużym zasięgu, takie jak sieci metropolitalne i sieci rozległe. Przeszkodą, którą trzeba pokonać przy łączeniu różnych sieci, jest duża i stale rosnąca liczba stosowanych technologii sieciowych. Obok technologii tradycyjnych, takich jak Ethernet, Token Ring czy Arcnet, w ostatnich latach pojawiły się technologie FDDI, ATM, Fast Ethernet, Frame Relay, ISDN (Integrated Services Digital Network) i inne. Żadna z tych technologii nie spełnia jednak wszystkich wymagań. W wielu przypadkach względy ekonomiczne decydują o utrzymywaniu sieci zrealizowanej w starszej technologii, o ile tylko działa dobrze - dotyczy to zwłaszcza sieci lokalnych. |Równie istotnym problemem przy łączeniu sieci jest jednak i to, że nie sposób wymagać od zwykłych użytkowników sieci, aby znali się choćby w podstawowym zakresie na tych wszystkich technologiach sieciowych. Chodzi więc o to, aby struktura heterogeniczna, jaką jest system połączonych ze sobą sieci zrealizowanych w różnych technologiach, z punktu widzenia zwykłego użytkownika przedstawiała się jak zwykła homogeniczna sieć. Koncepcja tworzenia tego typu struktur określana jest nie mającym polskiego odpowiednika terminem internetworking. Tworzone w ten sposób struktury określane są terminem „intersieci” - internetwork lub w skrócie internet.

Poszczególne sieci wchodzące w skład intersieci połączone są ruterami, realizującymi funkcję kierowania pakietów przesyłanych między tymi sieciami. Najbardziej spektakularnym przykładem intersieci jest ogólnoświatowa sieć Internet, wywodząca się z sieci ARPANET.

Protokół TCP/IP

Podstawą funkcjonowania Internetu jest współpraca wszystkich połączonych sieci fizycznych zgodnie z przyjętym zestawem protokołów. Ten zestaw protokołów określany jest skrótem TCP/IP od nazw dwóch najważniejszych spośród tych protokołów: Protokołu Intersieci IP (Internet Protocol) oraz Protokołu Sterowania Transmisją TCP (Transmission Control Protocol).

Podobnie jak poszczególne komputery w przypadku zwykłej sieci komputerowej, z punktu widzenia protokołów TCP/IP wszystkie sieci wchodzące w skład Internetu są autonomiczne i równoprawne bez względu na ich wielkość, technologię i inne parametry.

Poszczególne elementy sieci mogą pracować pod kontrolą różnych systemów operacyjnych, - jednakże w ramach Internetu komunikują się jednym wspólnym protokołem TCP/IP (Transmission Control Protocol / Internet Protocol ) są to reguły przesyłania informacji w sieciach - wprowadza się więc STANDARD, który stanowi coś w rodzaju uniwersalnego języka konwersacji pomiędzy komputerami.

Protokół TPC - steruje ruchem pakietów (porcji danych) w sieci i umożliwia:

PROTOKÓŁ IP - jest tą częścią protokołu komunikacyjnego, która odpowiada za przesyłanie po sieci datagramów (w pewnym przybliżeniu możemy określić datagram jako pakiet zaopatrzony w adres). Wędruje więc po sieci, aż do momentu znalezienia adresata. Dopuszczalna jest dowolna trasa - wcale nie musi być najkrótsza.

Autorzy tak skonstruowanego protokołu orzekli, że datagram musi trafić do konkretnego urządzenia w sieci Internet, a zatem wszystkie urządzenia muszą posiadać unikatowy w skali całego Internetu identyfikator. Takim identyfikatorem jest adres IP

Adres IP jest 32-bitową (4 bajtową) liczbą,

Liczba ta zawiera określenie wskazujące jednoznacznie zarówno konkretny komputer jak i sieć,

Adres składa się więc z dwóch części:

- numeru sieci

- numeru komputera.

Obie części muszą być zapisane w jednym ciągu. Adres zapisywany jest w formie czterech liczb, oddzielonych od siebie kropkami np. 193.121.58.184 i taki numer może mieć tylko jeden komputer.

Adresy IP nadają wyspecjalizowane instytucje. W przypadku połączenia się z serwerem poprzez modem, komputer otrzymuje automatycznie na czas połączenia swój adres z puli, którą posiada dostarczyciel usług internetowych (Internet Provident) czyli ten kto zarządza serwerem i umożliwia podłączenie się do niego innym użytkownikom którzy poprzez ten serwer chcą uzyskać dostęp do Internetu.

Adres IP identyfikuje sieć i komputer w tej sieci. Ze względu na kombinację tych dwóch elementów wyróżnia się trzy klasy adresów:

  1. KLASA A - adres rozpoczyna się liczbą 1 do 126 (może zaadresować 126 sieci i ponad 16,5 miliona komputerów);

  1. KLASA B - adres rozpoczyna się liczbą 128 do 191 (może zaadresować 16 tysięcy sieci i 65 tysięcy komputerów);

  2. KLASA C - adres rozpoczyna się liczbą 192 do 223 (może zaadresować ponad 2 miliony sieci i 254 komputery).

0x01 graphic

Adres oznaczony liczbą 127 jest zarezerwowany jako oznaczenie lokalnego komputera. W celu uproszczenia zapamiętywania adresów, - liczby zostały zastąpione ciągiem symboli - DOMEN.

WWW - nowa jakość

W 1992 roku powstał pomysł utworzenia WWW (ang. World Wide Web). Po Internecie przetoczyła się dyskusja na temat potrzeby istnienia takiego tworu. Tym razem nie użyto angielskiego słowa „net” (sieć), lecz „web” (pajęczyna), gdyż obecnie struktura połączeń Internetu bardziej przypomina pajęczynę niż regularną sieć. Wcześniej przedstawione narzędzia są bardzo pomocne i dają duże możliwości, ale nie są zbyt łatwe w obsłudze. Utworzeniu WWW towarzyszyła chęć udostępnienia zasobów i możliwości Internetu wszystkim, poprzez stworzenie bardzo przyjaznego dla użytkownika środowiska. Wielką zaletą WWW okazał się brak konieczności znajomości i pamiętania adresów różnych komputerów, wystarczy by użytkownik znał tylko adres początkowego komputera, a do następnych może przechodzić za pomocą myszy. Bardzo istotne było praktyczne zintegrowanie w WWW usług gopher i ftp. Również wszystkie pozostałe usługi wyszukiwawcze są dostępne w ramach WWW.

Powstały przeglądarki sieciowe pozwalające poruszać się po świecie Internetu za pomocą urządzenia sterującego „myszy”. Ważną ich zaletą jest graficzna, przejrzysta forma prezentacji oraz możliwość równie łatwego przekazywania informacji tekstowej i graficznej. Ponadto przeglądarki mają możliwość kopiowania plików tak jak ftp, tyle że w znacznie wygodniejszy dla użytkownika sposób. Przeglądarki często zawierają obsługę poczty elektronicznej i systemu wiadomości. Możliwe jest też uruchamianie aplikacji obsługujących telnet. Najpopularniejsze przeglądarki stron WWW to HotJava, Microsoft Internet Explorer, Netscape Navigator i NCSA Mosaic.

Poruszanie się po stronach WWW polega na przechodzeniu przez kolejne strony WWW, które zawierają połączenia do innych stron znajdujących się na różnych komputerach, rozproszonych po Internecie.

Strony WWW są dokumentami tekstowymi i tworzone są w specjalnym języku HTML (ang. Hyper Text Mark-Up Language), który jest prostym zestawem poleceń do formatowania tekstu. Taka strona może zostać przygotowana na dowolnym komputerze, nawet w trybie tekstowym, i z łatwością udostępniona innym użytkownikom sieci. Język HTML pozwala formować tekst, włączać do niego grafikę, odwołania do innych stron WWW, polecenia wysyłania poczty, kopiowania plików, itd.

Aby ułatwić podróżowanie po zasobach informacyjnych Internetu, w kilku miejscach powstały specjalne katalogi stron WWW, nazywane też „silnikami wyszukiwawczymi” (ang. search engines). Umożliwiają one wyszukiwanie miejsc w Internecie, w których znajdują się poszukiwane informacje. Wyszukanie realizowane jest na podstawie podanych przez użytkownika słów kluczowych. Najpopularniejszymi wyszukiwarkami są AltaVista (altavista.digital.com), InfoSeek (www.infoseek.com), Lycos (www.lycos.com), WebCrawler (www.webcrawler.com) i Yahoo (www.yahoo.com). Istnieją też polskie wyszukiwarki WWW, zawierające informacje o polskich zasobach. Między innymi należą do nich Sieciowid (sieciowid.pol.pl.) i Wirtualna Polska (wp.cnt.pl.).

Do zasobów WWW należą praktycznie wszystkie zasoby Internetu:

- płatne i bezpłatne bazy danych, zawierające informacje tak różnorodne, jak różnorodne są instytucje i osoby korzystające z Internetu; jedną z nich jest baza danych Wspólnoty Europejskiej „Echo and Eurobases”;

- archiwa dokumentów o bardzo szerokim zakresie, od zbiorów odpowiedzi na najczęstsze pytania z danej dziedziny (ang. FAQ - frequently asked questions), poprzez już opublikowane prace naukowe, do gotowych wydawnictw (na przykład gazety);

- archiwa i biblioteki programów freeware i shareware, które mogą być kopiowane na zasadach odpowiednich licencji;

- punkty informacyjne krajów i różnych organizacji, które dostarczają zwykle podstawowe informacje o kraju, strukturze administracyjnej, szkolnictwie, itd.;

- punkty informacji turystycznej, zawierające informacje dotyczące krajów, regionów i miast: na przykład mapy miast, parków i ogrodów, zaproszenia do muzeów (wraz z krótką wycieczką po nich), informacje o pogodzie itp.;

- sklepy i witryny informujących o sobie firm, często umożliwiające złożenie zamówienia na oferowane towary i usługi.

Rys. Przykładowe okno programu Internet Explorer

0x01 graphic

System nazw DNS

Komunikujące się komputery stosują zawsze liczbowe adresy IP. Ponieważ posługiwanie się nimi jest dla ludzi niewygodne, opracowano tzw. system nazw domenowych (dziedzinowych) - DNS (Domain Name System), który równolegle do systemu adresów IP zapewnia jednoznaczną identyfikację komputera w skali całego Internetu. Oczywiście w związku z tym konieczne jest istnienie sprawnego mechanizmu zapewniającego niezawodne przekładanie nazw domenowych na adresy IP. System realizujący tę funkcję działa w oparciu o tzw. serwery nazw, których łączne zasoby tworzą globalną, rozproszoną bazę danych.

Nazwy domenowe komputerów składają się z kilku części oddzielonych kropkami.

HTTP://WWW.WSZIM.EDU.PL.

Nazwa domenowa jest nazwą hierarchiczną, przy czym hierarchia maleje w lewo. W podanym przykładzie PL oznacza domenę polską, EDU wyróżnik branżowy, zaś WSZiM - konkretny komputer należący do domeny WSZiM.EDU.PL. Na samym szczycie hierarchii domen są domeny określające przynależność do danego kraju albo do organizacji określonego typu (Rys. 1). W obrębie tych domen tworzy się kolejno poddomeny coraz niższych poziomów, których hierarchiczny układ odwzorowuje określone zależności geograficzne lub organizacyjne.

(a) (b)

Oznaczenie domeny Kraj

Krajowej

Oznaczenie domeny Rodzaj organizacji

Rodzajowej

AU Australia

CA Kanada

CH Szwajcaria

DE Niemcy

ES Hiszpania

FI Finlandia

FR Francja

JP Japonia

KW Kuwejt

PL Polska

SE Szwecja

COM komercyjna

EDU edukacyjna

GOV rządowa

INT międzynarodowa

MIL wojskowa (USA)

NET zajmująca się siecią

ORG niekomercyjna

Rys. 1 Oznaczenia niektórych domen: (a) krajowych i (b) rodzajowych

Usługi Internetu Architektura klient-serwer

Internet jest siecią udostępniającą każdemu użytkownikowi ogromną ilość zasobów informacyjnych. Zasoby te są dostępne poprzez cały szereg rozmaitych usług. Poniżej zostały pokrótce omówione niektóre z nich. Jakkolwiek usługi oferowane w Internecie są bardzo zróżnicowane, ich wspólną cechą jest charakterystyczny model architektury oprogramowania, określanej jako architektura klient-serwer. Idea architektury klient-serwer polega na podzieleniu aplikacji realizującej daną usługę na dwie części: część odpowiedzialną za sformułowanie polecenia wykonania określonego zadania, zwaną klientem, oraz część mającą to zadanie zrealizować, zwaną serwerem. Obie części mogą być zlokalizowane na różnych komputerach połączonych poprzez sieć. Najczęściej występuje wiele serwerów realizujących daną usługę, rozproszonych po całym świecie i obsługujących poszczególne regiony.

Usługi podstawowe

Spośród wielu usług w Internecie usługami o charakterze podstawowym, w oparciu o które realizowane są inne, są:

Zdalne logowanie (telnet)

Telnet jest usługą umożliwiającą dostęp do odległego komputera poprzez utworzenie wirtualnego terminala. Dzięki temu użytkownik może korzystać z odległego systemu tak, jakby bezpośrednio zasiadał za jego konsolą - wprowadzane przez niego z klawiatury polecenia są przesyłane do odległego komputera, a wyniki przetwarzania informacji są wyświetlane na jego ekranie. Użytkownik korzystający ze zdalnego systemu musi posiadać na nim konto, tzn. w systemie tym w odpowiednich plikach musi być zawarta o nim odpowiednia informacja. W momencie otwierania sesji użytkownik jest proszony o podanie swojego identyfikatora, a następnie hasła potwierdzającego tożsamość. W Internecie istnieje także wiele systemów pozwalających na otwieranie zdalnej sesji użytkownikom nie posiadającym kont indywidualnych, w celu skorzystania z określonej usługi. Przykładem są systemy biblioteczne, pozwalające na zdalny dostęp do katalogów bibliotek.

Transfer plików (FTP)

FTP jest skrótem nazwy podstawowego protokołu w Internecie służącego do transmisji plików - Protokołu Przesyłania Plików (File Transfer Protocol). Podobnie jak w przypadku telnetu, ażeby otworzyć sesję FTP na odległym systemie, wymagane jest podanie identyfikatora i hasła danego użytkownika w tym systemie. W Internecie jest bardzo dużo serwerów FTP udostępniających swoje zasoby publiczne - są to tzw. serwery anonimowego FTP. Ażeby uzyskać dostęp do zasobów takiego serwera, jako identyfikator trzeba podać słowo anonymous lub ftp, zaś jako hasło - najczęściej swój adres poczty elektronicznej.

Zasadniczym warunkiem poprawnej transmisji pliku poprzez sieć jest zastosowanie właściwego trybu transmisji - binarnego lub tekstowego. Podczas przesyłania w trybie binarnym plik jest przesyłany w niezmienionej postaci - w ten sposób należy przesyłać np. skomplikowane programy czy pliki graficzne. Inaczej jest w przypadku plików tekstowych, których postać zależy od przyjętego w danym systemie zestawu znaków (np. ASCII, EBCDIC) czy też konwencji dotyczących znaku końca linii. Pliki te należy przesyłać w trybie tekstowym , w którym podczas transmisji dokonywana jest odpowiednia konwersja. Oczywiście, jeśli w trybie tym zostałby przesłany plik binarny, konwersja pliku doprowadziłaby do jego uszkodzenia.

Poczta elektroniczna (e-mail)

Poczta elektroniczna jest usługą zaprojektowaną w celu umożliwienia przesyłania wiadomości tekstowych między użytkownikami posiadającymi odpowiednie konta pocztowe. Przesłana do użytkownika odległego systemu wiadomość jest dołączona do pliku pełniącego rolę jego skrzynki pocztowej, zlokalizowanego najczęściej na dużym włączonym przez całą dobę serwerze. Adresat może w dowolnym momencie połączyć się z tym serwerem i przeczytać listy zawarte w jego skrzynce. Dzięki tej wzorowanej na tradycyjnej poczcie zasadzie działania wiadomości można przesłać także tym użytkownikom, którzy aktualnie nie pracują przy swoim komputerze. Natomiast w porównaniu do tradycyjnej poczta elektroniczna jest znacznie szybsza i bardziej niezawodna. Oferuje też funkcje umożliwiające częściową automatyzację pracy, takie jak:

Adres pocztowy danego użytkownika składa się z dwóch części, oddzielonych znakiem @. Pierwszą część stanowi identyfikator danego użytkownika w systemie, w którym zlokalizowana jest jego skrzynka pocztowa, drugą nazwa danego komputera.

Np.:

rektor@wszim.edu.pl

jest adresem pocztowym użytkownika rektor na komputerze wszim.edu.pl.

Jak już wspomniano, poczta elektroniczna została stworzona do przesyłania wiadomości tekstowych. Przesyłanie pliku binarnego za pośrednictwem poczty elektronicznej jest możliwe pod warunkiem uprzedniego zakodowania pliku binarnego do postaci tekstowej. Można to zrobić w oparciu o tradycyjny standard kodowania uuencode lub bardziej nowoczesny MIME.

Systemy organizowania i publicznego udostępniania informacji

Gopher

Na początku lat dziewięćdziesiątych gwałtowny rozwój Internetu doprowadził do sytuacji, że ilość zasobów zgromadzonych na tysiącach serwerów okazała się zbyt duża, aby ktokolwiek był w stanie zapoznać się z nimi i zapamiętać ich lokalizację. W związku z tym zaistniała silna potrzeba stworzenia systemu, który pozwoliłby na uporządkowanie przestrzeni informacyjnej Internetu i ułatwienie dostępu do niej. Pierwszym takim systemem był Gopher, który został opracowany na Uniwersytecie Minnesota.

Gopher jest systemem organizującym informację w postaci tekstowej, jako hierarchiczne systemy menu stanowiące listy poszczególnych tematów. Poszczególne pozycje tych list stanowią odnośniki do innych list (podmenu) lub konkretnych dokumentów tekstowych, plików, sesji telnetu i in. Zestawienia tematów i dokumenty są opracowywane i gromadzone na rozrzuconych po całym świecie serwerach Gophera. Niezwykle istotną cechą Gophera jest to, że dostęp do zasobów wskazywanych przez daną pozycję menu jest zorganizowany w sposób jednolity, niezależnie od tego, czy są to zasoby lokalne, czy zlokalizowane na dowolnym innym serwerze. System ten umożliwia więc użytkownikowi wyszukiwanie potrzebnej mu informacji bez potrzeby interesowania się, gdzie jest ona fizycznie zlokalizowana. Cała przestrzeń informacyjna dostępna użytkownikowi systemu Gopher określana jest mianem przestrzeni gopherowej (Gopherspace). Ważną zaletą Gophera jest możliwość dostępu z jego poziomu do zasobów innych systemów informacyjnych, takich jak np. zasoby anonimowego FTP czy sesje telnetu.

Zasadniczą wadą Gophera jest tekstowy sposób prezentowania informacji. Z tego względu system ten jest obecnie zastępowany przez umożliwiający prezentację informacji multimedialnej system WWW. Gopher nie jest dalej rozwijany, a jego znaczenie wynika z dużych ilości zasobów informacyjnych zgromadzonych na jego serwerach.

Systemy wyszukiwania informacji

Archie

W miarę wzrostu ilości zasobów udostępnionych w Internecie powstała konieczność stworzenia systemów baz danych ułatwiających przeszukiwanie tych zasobów. Pierwszym takim systemem był Archie, tworzący i umożliwiający przeszukiwanie baz danych o plikach zawartych na serwerach anonimowego FTP. Na świecie jest kilkadziesiąt serwerów Archie, których bazy danych są okresowo uaktualniane. Archie wyszukuje pliki (i katalogi) na podstawie podanej przez użytkownika nazwy lub jej fragmentu. System ten jedynie informuje o lokalizacji plików, natomiast do ich ściągnięcia konieczne jest użycie osobnego, specjalistycznego programu.

Veronica

Archie jest systemem informacyjnym przestrzeni FTP, natomiast VERONICA jest podstawowym narzędziem przeszukiwania przestrzeni Gophera. WERONICA tworzy i umożliwia przeszukiwanie bazy danych zawierającej informacje o zasobach zawartych na serwerach Gophera. Zawiera również odnośniki do zasobów innych systemów (WWW, telnet), jeśli zostały one wskazane w menu Gophera. Na świecie jest kilkanaście serwerów VERONICA, okresowo uaktualniających bazę danych. W odróżnieniu od usługi Archie, VERONICA nie tylko umożliwia odszukanie informacji, ale również natychmiastowy dostęp do niej poprzez dynamiczne tworzenie menu typu gopherowego.

Systemy przeszukiwania przestrzeni WWW W przeciwieństwie do FTP czy Gophera, w przypadku przestrzeni WWW istnieje ogromna ilość systemów wyszukiwawczych. Podobnie jak VERONICA, systemy te są proste w obsłudze i wykonują przeszukiwanie na podstawie podanych przez użytkownika słów kluczowych, często oferując również możliwość formułowania bardziej złożonych zapytań. Oprócz tego autorzy wielu z tych systemów dokonują klasyfikacji zasobów Internetu, umożliwiając ich przeglądanie za pośrednictwem utworzonego swoistego katalogu tematycznego. Do największych i najpopularniejszych systemów tego typu należą: Yahoo, AltaVista, Lycos, InfoSeek i WebCrawler.

Inne usługi

Listy adresowe

Jest to usługa opierająca się na wykorzystaniu poczty elektronicznej w celu umożliwienia szybkiej i łatwej wymiany poglądów przez użytkowników posiadających wspólne zainteresowania. Jej zasada polega na tym, że listy wysłane pocztą elektroniczną na adres serwera obsługującego daną listę są automatycznie rozsyłane do pozostałych członków tej listy. Liczba list adresowych na całym świecie jest bardzo duża i obejmują one najrozmaitsze tematy. Na większość z nich zapisać się może każdy, są jednak także listy dostępne tylko dla określonych użytkowników (np. lista dla administratorów sieci lokalnych Politechniki Łódzkiej). Niektóre listy działają na zasadzie automatycznego rozsyłania wszystkich nadesłanych listów, inne są objęte swoistą cenzurą w celu zapewnienia zgodności treści listów z tematyką danej listy.

Listy adresowe są bardzo skuteczną formą wymiany informacji na dany temat. Podstawową wadą tej usługi jest konieczność nieustannego kontrolowania nadchodzącej poczty i usuwania nadchodzących listów ze swojej skrzynki pocztowej. Jest to szczególnie ważne w przypadku list obejmujących dużą liczbę osób i dotyczących popularnych tematów.

Usenet

Podobnie jak listy adresowe, Usenet jest usługą pomyślaną jako forum wymiany poglądów na dany temat, w ramach określonych grup dyskusyjnych. Różnica polega na tym, że w przypadku Usenetu artykuły wysłane do danej grupy dyskusyjnej pozostają na serwerze. W tym przypadku inicjatywa w dostępie należy do użytkownika, który przy pomocy specjalnego programu zwanego czytnikiem może łączyć się z serwerem i przeglądać treści artykułów, a także wysyłać własne. Usenet jest więc usługą tworzącą coś w rodzaju elektronicznej tablicy ogłoszeń. Tablica ta ma jednak zasięg globalny, gdyż poszczególne serwery na całym świecie wymieniają między sobą otrzymane artykuły. Podobnie jak w przypadku list adresowych, istnieją grupy dyskusyjne, w których treści nadsyłanych artykułów są kontrolowane pod kątem ich zgodności z tematyką grupy.

IRC

IRC (Internet Relay Chat) jest usługą pozwalającą na prowadzenie na bieżąco zdalnej rozmowy pomiędzy wieloma osobami. Po połączeniu się z serwerem IRC i włączeniu się do jakiegoś kanału wpisywany z klawiatury tekst będzie ukazywał się na ekranie wszystkich kanałów IRC, każdy poświęcony określonej tematyce.

Załącznik do sieci komputerowych

RODZAJE I TOPOLOGIE SIECI KOMPUTEROWYCH.

ZABEZPIECZENIA ZASOBÓW INFORMACYJNYCH W SIECIACH KOMPUTEROWYCH.

0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic

0x08 graphic
0x08 graphic
0x08 graphic

0x08 graphic
0x08 graphic
0x08 graphic

0x08 graphic
0x08 graphic

0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic

0x08 graphic

0x08 graphic
0x08 graphic

0x08 graphic

0x08 graphic

0x08 graphic

0x08 graphic
0x08 graphic

0x08 graphic
0x08 graphic

0x08 graphic
0x08 graphic

0x08 graphic
0x08 graphic

0x08 graphic
0x08 graphic

URZĄDZENIA SIECIOWE ORAZ TYPY POŁĄCZEŃ

0x01 graphic

LITERATURA ZALECANA

  1. Bremmer L. M.: Intranet - Biblia. Warszawa, MIKOM 1997

  2. Bułhak L.: Oficyna „HELP” uczy obsługi komputera. HELP 1997

  3. Cielątkowski J., Porębski W.: IBM dla każdego. Warszawa, HELP 1992

  4. Czajkowski M.: Excell 7.0. CROMA 1997

  5. Czajkowski M.: Power Point 97 - prezentacje jak się patrzy. CROMA 1997

  6. Dec Z, Konieczny R. ABC Komputera. Kraków, EDITION 2000

  7. Filocha M.: Ćwiczenia z systemu Novell Netware. Warszawa, MIKOM 1995

  8. Flakiewicz W.: Zarządzanie przez informację. Warszawa, BMK 1993

  9. Głuszkowski T.: Arkusze kalkulacyjne, przykłady zastosowań, tricki. Łódź, BROKER 1993

  10. Hart-Davis G.: ABC Microsoft Office 97. Warszawa, MIKOM 1997

  11. Heskop B., Angell D.: WORD 97- Biblia. RM 1998

  12. Hetzger P., Jałowiecki A.: Anatomia PC. HELION 1997

  13. Kisielnicki J. Informatyczna infrastruktura zarządzania. Warszawa, PWN 1993

  14. Kluczna K. ABC WINDOWS 98. Kraków, EDITION 2000

  15. Koronkiewicz P.: Alchemia użytkownika Windows 95 czyli.... CROMA 1997

  16. Krzymowski B.: OFFICE 97 PL. HELP 1997

  17. Krzymowski B.: Pierwsze teksty w edytorze WORD. Warszawa, HELP 1994

  18. Krzymowski B.: Pierwsze teksty w edytorze WORD. Warszawa, HELP 1994

  19. Krzymowski B.: Works 4PL dla Windows 95, pierwsza pomoc. HELP 1996

  20. Kuciński K. ABC EXCELA. Kraków, EDITION 2000

  21. Metzeer P, Jełowiecki A. Anatomia PC. Warszawa, HELION 1999

  22. Michalski W.: Arkusze kalkulacyjne w zastosowaniach praktycznych. Warszawa, MIKOM 1996

  23. Microsoft: EXCELL - krok po kroku. READ ME 1995

  24. Microsoft: WINDOWS - Podręcznik dla użytkownika wersja .... MICROSOFT CORPORATION

  25. MICROSOFT-PRESS: Access 7.0 - krok po kroku. CATAPULT 1997

  26. Nowakowski Z, Sikorski W. Informatyka bez tajemnic. Warszawa, MIKOM 1995

  27. Płoszajski G. Elementy informatyki, użytkowanie komputera. Warszawa, WsiP 1999.

  28. Sroka H. (red) Informatyka Akademia Ekonomiczna w Katowicach 1994

  29. Stallings W.: Ochrona danych w sieci i intersieci. Warszawa, WNT 1997

  30. Tor A. Nauka przez ćwiczenia EXCEL 97, ACCESS 97, WORD 97, podstawy z przykładami. Warszawa, TORTECH 1998.

  31. Wojtuszkiewicz K. Urządzenia techniki komputerowej, jak działa komputer. Warszawa, MIKOM 1999.

  32. Wróblewski P.: Algorytmy, struktury danych i techniki programowania. Gliwice, HELION 1997

1

72

76

16 Mb/s

Token Ring

10 Mb/s

Ethernet

10 Mb/s

Ethernet

Local Area Network

Ethernet

Token Ring

FDDI/CDDI

Switching Ethernet

Fast Ethernet

100VG-AnyLan

ATM

Różnorodność sposobów

Transmisji danych

LAN

MAN

WAN

Modele przetwarzania i

transmisji danych

komputer centralny - terminal

klient - serwer zasobów

klient - serwer usług

sieci peer to peer

Metropolitan Area Network/

Wide Area Network

analogowe linie komutowane

analogowe linie stałe

sieć cyfrowa ISDN

sieci pakietowe X.25, Frame Relay

ATM

połączenia satelitarne

Internet

0x01 graphic

Karta IBM

Koncentrator

Koncentrator

100 Mb/s

FDDI/CDDI

Wiele równoczesnych kanałów 10 Mb/s

Switching Ethernet

100 Mb/s

hub

hub

Koncentrator

10/100 Mb/s

100VG-AnyLAN

Fast Ethernet

Router

155-622 Mb/s

Porównanie systemów

operacyjnych

przyjęty model przetwarzania

stabilność wybranego systemu

oferowany zakres usług

ATM

Modele ochrony NetWare 4

Modele ochrony danych

w systemie NetWare 4

Model prosty, wymagania cd.

Model prosty

Wymagania:

Model podstawowy, wymagania cd.

Model podstawowy

Wymagania:

Model chroniony, wymagania cd.

Model chroniony

Wymagania:

Model zabezpieczony

Wymagania:

Model kontrolowany

Wymagania:



Wyszukiwarka

Podobne podstrony:
techniki informacyjne
wykład 6 instrukcje i informacje zwrotne
Technologia informacji i komunikacji w nowoczesnej szkole
Państwa Ogólne informacje
Fizyka 0 wyklad organizacyjny Informatyka Wrzesien 30 2012
informacja w pracy biurowej 3
Wykorzystanie modelu procesow w projektowaniu systemow informatycznych
OK W2 System informacyjny i informatyczny
Sem II Transport, Podstawy Informatyki Wykład XXI Object Pascal Komponenty
RCKiK LEKARZE STAŻYŚCI (materiały informacyjne)
AUSTRIA PREZENTACJA POWERPOINT (INFORMACJE)
SYSTEMY INFORMATYCZNE ORGANIZACJI WIRTUALNEJ1
Metodyka punktow wezlowych w realizacji systemu informatycznego
Informatyka1 2a1
wyklad1 Informacja systeminformacyjny
narodziny spoleczenstwa informacyjnego

więcej podobnych podstron