INFORMATYKA
Komputer to „cudowne” narzędzie drugiej połowy XX wieku, dawno już przestał być genialnym rachmistrzem oddanym na usługi wyspecjalizowanych grup działania m.in. naukowców i inżynierów itp. grup. Rozpowszechniony jest on wśród szerokich rzesz ludzi różnych zawodów i stał się przede wszystkim uniwersalnym CENTRUM INFORMACYJNO - KOMUNIKACYJNYM - bez którego trudno sobie wyobrazić funkcjonowanie tętniącego życiem świata.
A skoro życie to wieczny ruch komputer „stara się” w nim uczestniczyć - zawsze towarzysząc swojemu użytkownikowi. Skoro nasz komputer to centrum INFORMACYJNO - KOMUNIKACYJNE to wyjątkową funkcjonalność tego systemu zapewnia sieciowa instalacja interaktywnego multimedialnego połączenia sprzętowego i programowego.
Wykorzystując komputery, a jak wiemy znajdują one zastosowanie w wielu różnych dziedzinach naszego życia m.in. technice, medycynie, naukach ekonomicznych, zarządzaniu, - zyskujemy „niebywałe” zasoby twórczości i innowacyjności jeśli uświadomimy sobie i otoczeniu, w którym funkcjonujemy, że można myśleć jak i robić taki biznes (wykorzystując tą technikę) - który nie liczy się z ograniczeniami wynikającymi z czasu i przypisania do aktualnego miejsca pobytu. Możemy powiedzieć więc, że komputer jest jednym z narzędzi - instrumentów wspomagających zarządzanie i podejmowanie decyzji. Należy jednak pamiętać, że spełnia on tylko funkcję wspomagającą i usprawniającą procesy zarządzania, a nie zastępuje menedżera w wypełnianiu jego funkcji. Dlatego też „wyzwaniem” dla współczesnego menedżera jest kreowanie jego działalności w oparciu o stosowanie zaawansowanych technik, metod i narzędzi informatycznych, gdzie poprzez wkomponowaną wielość różnorodnych modeli optymalizacyjnych, ekonometrycznych, algorytmów, funkcji finansowych, ekonomicznych, statystycznych m.in. w arkuszach analityczno planistycznych, relacyjnych bazach danych i innych aplikacjach pozwalają na powiązanie wiedzy technicznej użytkownika komputera z oczekiwaniami i możliwościami doświadczonego pracownika danej organizacji.
W warunkach gospodarki rynkowej każda decyzja gospodarcza, finansowa lub inwestycyjna zawiera w sobie elementy niepewności i ryzyka. Aby zmniejszyć ich wpływ na podejmowanie decyzji należy skorzystać z nowoczesnych narzędzi informatycznych pozwalających zarówno na nowoczesne sposoby zarządzania, kontrolowania, planowania, a więc najogólniej rzecz biorąc formułowania strategii taktyki działania obrębie organizacji gospodarczej.
Wykorzystanie narzędzi informatycznych, a więc (programów, pakietów, systemów) w szeroko rozumianym wspomaganiu zarządzania możemy umiejscowić w wielu obszarach. W szczególności analiza działalności organizacji gospodarczej może być prowadzona w następujących obszarach:
obszar finansowy firmy; - przyjmuje się, że poprzez pryzmat finansów najlepiej oraz najszerzej można prześwietlić każdy profil działania firmy, zarówno sukcesy jak i te aspekty, które firma najchętniej by ukryła. Główny wysiłek w tym obszarze skupia się na określeniu wartości rozmaitych funduszy w czasie. Po określeniu wielkości środków nominalnie na wybrane okresy działalności firmy oblicza się wartość tych funduszy w chwili obecnej oraz na potrzebne do dalszych analiz chwile czasu. W ramach tych narzędzi możliwe jest również oszacowanie wartości firmy, a więc jej wycena, określenie rentowności itp.
obszar działalności podstawowej, (produkcyjnej, usługowej) - w ramach tych analiz można określić koszty wielu wariantów realizacji produkcji, czy też optymalizacji sposobu wykonywania działań jak i usług. Dla każdej działalności określa się wartości progowe oraz oszacowuje dźwignię operacyjną (wynikającą ze skali produkcji) i finansową.
obszar zarządzania; - w tym rodzaju analiz wykorzystuje się narzędzia oceniające funkcjonowanie systemów przepływu zasobów organizacji gospodarczej,. Wykorzystując narzędzia takie jak Visio, Microsoft Project, Optima., znajduje się ścieżki i punkty krytyczne tych przepływów, określa optymalne struktury, znajdując i szacując różnice pomiędzy teoretycznie najlepszym wariantem a występującym w rzeczywistości.
Ostatnie lata przynoszą dynamiczny rozwój technologii informatycznych, które w dość istotny sposób mają wpływ na sposób prowadzenia działalności gospodarczej w organizacjach. Otwierając nowe możliwości stawiają coraz to nowe wyzwania dla organizacji jak i menedżerów. Aby wygrać w dynamicznie zmieniającym się otoczeniu organizacji, zdobyć przewagę na coraz to bardziej konkurencyjnym rynku, maksymalizować zysk firmy nie mogą zignorować postępu w rozwoju teleinformatyki.
Postęp w technologii informacyjnej ma swój wyraz zarówno w sprzęcie komputerowym, jak i oprogramowaniu. Więcej zadań, niż dotychczas, może być realizowanych przy udziale programów komputerowych. Do najbardziej znamiennych cech w trendach rozwoju współczesnej informatyki zaliczyć możemy więc następujące elementy:
multimedia, hipertekst,
sieci komputerowe,
graficzny i przyjazny interfejs,
bazy danych o dostępie bezpośrednim oraz hurtownie danych,
integracja technologii,
optyczne skanowanie i elektroniczne publikacje,
wspólna praca z dokumentem.
Pozyskiwanie i integracja danych potrzebnych do tworzenia i realizacji systemów; konsolidacji oprogramowania oraz procedur niezbędnych do ich eksploatacji jak i znacznego rozwoju sprzętu komputerowego powoduje, że cały system informacyjny organizacji przesuwa się w kierunku zintegrowanego SIZ (Systemu Informacyjnego Zarządzania) - komputerowo zintegrowanej organizacji (Computer Integrated Organisation). W ramach tak przedstawionej koncepcji ujmującej w sposób kompleksowy wszystkie procesy zachodzące w organizacji, gdzie głównym elementem projektu jest zintegrowana baza danych, z której korzystają wszystkie komórki przedsiębiorstwa mamy możliwość sprawnego i efektywnego zarządzania i kierowania organizacją.
Systemy informacyjne wspomagające menedżera w jego działaniach służą dokonywaniu analiz decyzyjnych, kontroli funkcjonowania instytucji oraz koordynacji działań jej członków. Umożliwiają zatem rutynowe podejmowanie pewnej liczby decyzji o charakterze stałym i powtarzalnym, jak również wspomagają decydowanie i podejmowanie decyzji o pewnym stopniu ryzyka i niepewności (decyzje nie rutynowe).
Systemy informacyjne mają również możliwość przechowywania danych dotyczących przeszłości, co może być punktem odniesienia do kontroli bądź weryfikacji ewolucji organizacji, jak również identyfikacji niesprawności.
W ramach każdego procesu podejmowania decyzji można wyodrębnić specyficzny obieg informacji;
zbieranie informacji dotyczących sytuacji decyzyjnej,
przetwarzanie informacji w celu uzyskania większej użyteczności,
przekazywanie informacji o podjętej decyzji.
Informacja dla zarządzania jest szczególnym rodzajem informacji, gdyż związana jest z realizacją podstawowych funkcji zarządzania takich jak:
planowanie,
organizowanie,
przewodzenie,
kontrolowanie.
Efektywne zarządzanie jest możliwe tylko wtedy, kiedy posiadamy informacje o organizacji i jej otoczeniu.
Na ogół w działalności menedżerskiej odnosimy się do wielości informacji ekonomicznych, które dotyczą wszelkich zjawisk i procesów gospodarczych, które można wykorzystać w procesie zarządzania i w procesach podejmowania decyzji.
Wychodząc z ogólnego określenia systemu informacyjnego możemy stwierdzić, że elementami systemu informacyjnego dowolnej organizacji jest następujący zbiór elementów:
Si= {P, I, T, O, M, R}
gdzie:
Si - system informacyjny danej organizacji,
P - zbiór podmiotów, które są użytkownikami systemu,
I - zbiór informacji w sferze realnej, czyli o jej stanie i zachodzących w niej zmianach, a więc zasoby informacyjne,
T - zbiór narzędzi technicznych stosowanych w procesie pobierania, przesyłania, przetwarzania, przechowywania i wydawania informacji,
O - zbiór rozwiązań systemowych stosowanych w danej organizacji, a więc stosowana formuła zarządzania (scentralizowana, rynkowa).
M - zbiór metainformacji, czyli opis systemu informacyjnego i jego zasobów,
R - relacja między poszczególnymi zbiorami.
Jednak w literaturze polskiej używa się jeszcze pojęcia system informatyczny dla określenia takiego systemu informacyjnego, w którym zastosowany jest komputer.
System informatyczny jest to wyodrębniona część systemu informacyjnego, która jest, z punktu widzenia przyjętych celów skomputeryzowana.
Na system informatyczny składa się więc: sprzęt (hardware), oprogramowanie (software), baza danych, telekomunikacja, ludzie, organizacja.
Przykładowe połączenie poszczególnych modułów systemu informatycznego ilustruje przytoczony graf.
Hardware jest to sprzęt techniczny, dzięki któremu informacje są nadawane, odbierane, przetwarzane i przesyłane. Jest to zbiór, który składa się z rozmaitych urządzeń technicznych takich jak: procesor, pamięć, urządzenia wejścia (klawiatura, czytniki), urządzenia wyjścia (monitory, drukarki).
Software po polsku oprogramowanie. Jest to zbiór programów i instrukcji napisanych w specjalnym języku, który jest zrozumiały dla komputera.
Baza danych jest to taka organizacja zintegrowanych i zaagregowanych zbiorów danych z pewnej dziedziny informacji, która pozwala na zaspokojenie potrzeb jednego lub wielu użytkowników bez uprzedniego sortowania w różne pożądane struktury potrzebne do przetwarzania lub bezpośredniego udzielania informacji. Dane są tak zorganizowane, że korzystanie z nich jest niezależne od oprogramowania, jak i od dysponowanego sprzętu. Powszechnie uważa się, że dopiero od czasu powstania bazy danych możemy mówić o pełnym zastosowaniu systemów informatycznych w zarządzaniu.
W literaturze przedmiotu spotkać się można też z określeniem bazy danych jako zbioru wzajemnie powiązanych danych pamiętanych bez zbędnej redundancji, służących jednej lub wielu zastosowaniom w sposób optymalny.
Telekomunikacja jest to organizacja, sprzęt oraz oprogramowanie umożliwiające wspólną pracę dwu lub wielu komputerów, a w pewnych sytuacjach pozwalająca na pracę jednego komputera z terminalami, czyli tzw. końcówkami (stacje robocze). Dzięki telekomunikacji możliwe jest połączenie komputerów w regionie, kraju lub na całym świecie (przykładem takiej globalnej sieci jest sieć rozległa typu INTERNET - INTRANET).
Ludzie to najważniejszy element całego systemu. Personel obsługujący informatyczne systemy zarządzania, kierowania, wspomagania decyzji jak również systemy doradcze to ludzie, którzy: zarządzają, projektują, programują, eksploatują, konserwują wymienione systemy. Oczywiście cały wymieniony personel jest również zaliczany do personelu systemu informatycznego. Przygotowanie ich wszystkich decyduje o tym, czy system będzie sprawny, efektywny i niezawodny. Na nic zda się zastosowanie najnowszego sprzętu informatycznego i oprogramowania, jeżeli personel go obsługujący i nadzorujący nie będzie na najwyższym profesjonalnym poziomie.
Organizacja sprawia, że poszczególne elementy systemu stanowią całość. Organizacja zawiera w sobie: strategie rozwoju, politykę, reguły i zasady postępowania.
W niedalekiej przyszłości nie będziemy używać pojęcia system informatyczny w stosunku do systemów informacyjnych zarządzania. Problem będzie dotyczyć tylko, jak wielkie powinno być w systemie informacyjnym nasycenie sprzętem komputerowym (komputery wraz z oprogramowaniem, sprzęt teleinformatyczny, reguły i modele zarządzania i decyzji).
W literaturze anglojęzycznej używa się w tym względzie szerszego pojęcia MIS czyli Management INFORMATION Systems. I tak:
R. M. Stair pisze, że system informacyjny zarządzania to, „zorganizowany zbiór ludzi, procedur przetwarzania baz danych oraz urządzeń używanych do dostarczania informacji dla menedżerów i decydentów".
Podobnie E. Turban stwierdza, że „System Informacyjny Zarządzania jest formalnym, komputerowym systemem stworzonym w celu dostarczenia, selekcjonowania i integracji dostarczonej z różnych źródeł informacji w celu zapewnienia aktualnych informacji niezbędnych dla podejmowania decyzji w zarządzaniu".
System informacyjny możemy określić zatem jako wielopoziomową strukturę, która pozwala użytkownikowi tego systemu na transformowanie określonych informacji wejścia na pożądane informacje wyjścia za pomocą odpowiednich procedur i modeli. W wyniku uzyskania tych informacji podejmowane są określone decyzje.
Dlatego też konkretny system informacyjny można analizować jako:
wielopoziomową strukturę,
element łańcucha decyzyjnego funkcjonujący w systemie zarządzania.
Analizując system informacyjny z punktu widzenia jego struktury rozpatruje się przede wszystkim samo jego zachowanie niezależne od zadań, dla których został on zbudowany.
Reasumując możemy powiedzieć, że system informacyjny organizacji to struktura, która pozwala użytkownikowi tego systemu na transformowanie określonych informacji wejścia na pożądane informacje wyjścia za pomocą odpowiednich procedur i modeli, w wyniku których usprawniamy funkcjonowanie organizacji i podejmowane są określone decyzje kierownicze.
Pojęcie informacji jest jednym z najtrudniej definiowanych pojęć naukowych. Mimo że każdy intuicyjnie zdaje sobie sprawę z tego, co to jest informacja, to jednak jej zdefiniowanie napotyka wiele problemów.
Podstawą funkcjonowania każdej organizacji jest posiadanie określonych informacji, które stanowią jej zasoby. Informacja we współczesnym świecie gospodarczym jest tym zasobem, którym dysponuje przedsiębiorstwo, wraz z ziemią, kapitałem i człowiekiem.
Stanowi więc jego główną siłę.
Nie istnieje jednak jedna uznana definicja informacji.
N. Winer wprowadzając pojęcie informacji stwierdza, że „... Jest ona jak gdyby nazwą treści pochodzącą ze świata zewnętrznego w miarę jak do niego przystosujemy swoje zmysły...”.
K. Krzakiewicz przez informację rozumie „...przekazywaną przez nadawcę do odbiorcy pewną treść będącą opisem, poleceniem, nakazem, zakazem lub poleceniem.”
R. Aschby uważa, że „...informacja to przekazywanie różnorodności”.
W. Głuszkow określa informację „...jako wszelkie wiadomości o procesach i stanach dowolnej natury, które mogą być odbierane przez organy zmysłowe człowieka lub przyrodę..”.
Definicja podana przez W. Flakiewicza określa „informację jako czynnik, który zwiększa naszą wiedzę o otaczającej nas rzeczywistości”.
Tsitchizris i Lochovsky definiują informację jako „przyrost wiedzy, który może być uzyskany na podstawie danych”
E. Niedzielska przytacza francuskie przysłowie, które głosi : „bez materii nie ma nic, bez energii wszystko nieruchome, bez informacji jest chaos”.
Uogólniając i odnosząc się raczej do intuicji w rozumieniu tego pojęcia możemy stwierdzić;
Informacja to więc taki rodzaj zasobów, który pozwala na zwiększenie naszej wiedzy o nas i otaczającym nas świecie.
Według B. Stefanowicza informacja wykorzystywana w organizacji przez menedżerów do procesów decyzyjnych powinna charakteryzować się następującymi własnościami:
Jest niezależna od obserwatora (obiektywna).
Przejawia cechę synergii.
Jest różnorodna.
Jest zasobem niewyczerpalnym.
Może być powielana i przenoszona w czasie i przestrzeni.
Można ją przetwarzać nie powodując jej zniszczenia (zużycia).
Ta sama informacja ma różne znaczenie dla różnych użytkowników (subiektywność ocen).
Każda jednostkowa informacja opisuje obiekt tylko ze względu na jego cechę.
W informatyce przyjmuje się, że informacją nazywamy wielkość abstrakcyjną, która może być przechowywana w pewnych obiektach (np. komputerach), przesyłana między pewnymi obiektami (np. komputerami), przetwarzana w pewnych obiektach (np. komputerach) i stosowana do zarządzania pewnymi obiektami. Obiekt może być komputerem, ale nie musi być nim. Informatyka zajmuje się wtedy informacją, jeżeli jeden z obiektów, biorących udział w: przechowywaniu, przetwarzaniu, przesyłaniu, zarządzaniu związany jest, jak stwierdziliśmy wcześniej, z komputerem.
Zamiennie z pojęciem informacja w literaturze bardzo często używa się pojęcia wiadomość i dana. Przyjmujemy więc, że informacja dla zarządzania ma charakter partykularny tzn. przedstawiona jest w postaci wiadomości wyrażonych w określonych językach, czy też systemach znakowych. Znakową postać informacji będziemy nazywali danymi.
Dane są taką postacią informacji , którą możemy przetworzyć z użyciem sprzętu komputerowego. W literaturze przyjmuje się, że Dane są to surowe nie poddane analizie fakty, a więc np. liczby i fakty dotyczące określonych zjawisk lub wydarzeń.
Informacja natomiast jest wynikiem uporządkowania danych lub ich przeanalizowania w jakiś znaczący sposób.
Użytkownik otrzymuje dane w formie wiadomości.
Wiadomości są to więc uporządkowane zbiory danych, które zawierają informacje dla zarządzania.
J. A. F. Stoner i C. Wankel przedstawiają następujący łańcuch w procesie podejmowania decyzji:
DANE (surowe fakty) mogą stać się - INFORMACJĄ (przeanalizowanymi danymi), które mogą stać się - INFORMACJĄ ZARZĄDCZĄ (wnioskami dotyczącymi działania), która może doprowadzić do - DECYZJI I DZIAŁANIA.
dane - informacja (informacja zarządcza) - decyzja (działanie) - zarządzanie
Rozwijając dalej tę myśl można stwierdzić, że dana jako jednostka jest to jeden lub kilka symboli użytych do reprezentowania „czegoś".
Natomiast informacja to zinterpretowane dane, umieszczone w znaczącym kontekście. Informacja wykorzystywana w organizacjach do zarządzania jak i użyta w procesie decyzyjnym powinna mieć charakter subiektywny i musi być zawsze rozpatrywana w kontekście odbiorcy. Te same dane mogą być różnie interpretowane bowiem przez różnych użytkowników w zależności od posiadanej wiedzy i przeznaczenia.
Informacja - może być więc interpretowana jako wynik uporządkowania danych lub ich określonego przeanalizowania w mniej lub bardziej znaczący sposób.
Uogólniając możemy więc przyjąć, że podstawowe cechy wyróżniające informację dla zarządzania w stosunku do innych typów informacji są takie, że:
zawsze są one związane z realizacją podstawowych funkcji zarządzania,
pozwalają na podjęcie decyzji na różnych szczeblach zarządzania.
Jako dziedzina naukowa INFORMATYKA - jest nauką o przetwarzaniu informacji za pomocą komputerów i przy użyciu odpowiedniego oprogramowania lub też możemy powiedzieć, że INFORMATYKA - jest to zespół dyscyplin naukowych i środków technicznych ukierunkowanych na przetwarzanie informacji przy użyciu środków technicznych.
PRZEDMIOTEM BADAŃ INFORMATYKI są zatem:
środki techniczne
oprogramowanie
organizacja związana z przetwarzaniem informacji
Algorytm przetwarzania - podaje pełny opis działania operatora przekształcenia danych i zawiera następujące elementy składowe:
- charakterystykę danych wejściowych,
- określenie reguł przetwarzania,
- charakterystyką danych wyjściowych.
Realizowane to jest więc w uporządkowanym ciągu działań i ustalonym czasie, ten uporządkowany ciąg działań w wyniku którego następuje przekształcenie danych wejściowych w dane wyjściowe nazywamy - PROCESEM PRZETWARZANIA DANYCH
Każdy taki proces przekształcenia danych w WE/WY zawiera co najmniej jeden algorytm przetwarzania
Elementami systemu przetwarzania danych są zatem:
- określone grupy ludzi,
- środki techniczne,
- ustalony zestaw metod i technik przetwarzania
Właściwy danemu systemowi zestaw metod i technik przetwarzania danych nazywamy więc SYSTEMEM PRZETWARZANIA DANYCH.
INFORMACJA W KOMPUTERZE.
Nośnikami informacji w komputerze są sygnały elektryczne. W odróżnieniu od stosowanego powszechnie systemu dziesiętnego, są one przedstawione w postaci dwójkowej (systemie binarnym).
Możemy więc przyjąć, że sygnały są dwustanowe, tzn. takie, że ich parametry mieszczą się w jednym z dwóch dopuszczalnych przedziałów. Cyfry 0 i 1 zwane są bitami. Jest to przyjęty skrót terminu angielskiego Binary Digit. Jest to elementarna jednostka informacji. Wszystkie informacje wewnątrz komputera trzeba przedstawić za pomocą wybranych ciągów zero jedynkowych. Przyporządkowanie wybranych ciągów zero jedynkowych obiektom, które mają reprezentować, nazywa się kodowaniem, natomiast ciągi zero jedynkowe, reprezentujące określone informacje, nazywa się kodami.
Bit jako element miary informacji jest jednostką małą i używa się w praktyce jej wielokrotność. Jednostką większą częściej używaną jest pojęcie bajtu, który równy jest 8 bitom. W większości współczesnych komputerów bajt stanowi podstawową jednostkę informacji. W praktyce mogą reprezentować np. liczbę, znak, rozkaz lub adres komórki.
Istotą poznania miar informacji stosowanych w komputerze jest to, że aby właściwie odczytać pewne istotne parametry funkcjonalne, takie jak:
wielkość pamięci operacyjnej,
wielkość pamięci masowych,
wielkość folderów,
wielkość dokumentu,
należy znać i prawidłowo interpretować miary informacji.
Większymi jednostkami są kilobajt skrót - kB, megabajt - skrót MB oraz gigabajt - skrót GB, terabajt - skrót TB.
1 kB = 210 bajtów = 1024 bajtów,
1 MB = 210 kB = 1024 kilobajtów = 1048576 bajtów,
1 GB = 210 MB = 1024 megabajtów,
1 TB = 210 GB = 1024 gigabajtów.
Praktycznie wielkości te zaokrągla się i przyjmuje w obliczeniach, że
1 MB równa się 1000 kB i 1000 000 bajtów. Jednak należy pamiętać, że jest to tylko pewne uproszczenie, natomiast faktyczne wielkości są nieco inne.
Człowiek komunikuje się z otoczeniem, w tym również z komputerem za pomocą technik wygodnych dla siebie, a więc za pomocą:
znaków określonego alfabetu,
cyfr dziesiętnych,
pewnych znaków dodatkowych, jak interpunkcja działań
arytmetycznych itp.
Te trzy grupy znaków określa się w informatyce wspólnym mianem znaków alfanumerycznych. A więc przy zapisie liczb korzysta się z:
pozycyjnego systemu dziesiętnego gdzie
1998 = 1 ⋅ 10 3 + 9 ⋅ 10 2 + 9 ⋅ 10 1 + 8 ⋅ 10 0
7,53 = 7 ⋅ 10 0 + 5 ⋅ 10 - 1 + 3 ⋅ 10 - 2
pozycyjnego systemu ósemkowego
8 = 10
10 = 12
15 = 17 itd.
pozycyjnego systemu binarnego /podobny do dziesiętnego z tym, że odpowiednie wagi stanowią tu potęgi o podstawie 2/
2 = 1 x 2 3 + 1 x 2 2 + 1 x 2 1 + 0 x 2 0 = 2 n dn
gdzie dn - wartość liczby przedstawionej na i-tej pozycji
zaś konwersja odwrotna z dziesiętnej na binarną
27 = 11011
27 / 2 13 reszta 1
13 6 1
6 3 0
3 2 1
1 0 1
pozycyjny system szesnastkowy (Hexagonalny)
AF 13 (16) = 3 + 16 1 x 1 + 16 2 x 15 + 16 3 x 10 = 3 + 16 + 3740 + 37560 = 41319 (10)
Do przetworzenia informacji przedstawionej w systemie dziesiętnym na inne stosuje się konwersję.
Konwersja polega na zmianie zapisu źródłowego na zapis pożądany - najczęściej realizowana jest w komputerach w ramach jego pracy (przetwarzania).
Przykład
HX DEC OTC BINARNY
8 8 10 1000
A 10 12 1010
F 15 17 1111
Ponieważ do zakodowania jednego znaku wykorzystujemy 1 bajt - przyjmujemy, że w ten sposób możemy zakodować 28 czyli 256 różnych znaków. Są to między innymi: małe i duże litery, cyfry, operatory matematyczne i logiczne, znaki specjalne.
Kody definiuje się za pomocą specjalnych tablic. Dla użytkowników istotne są kody rozkazów komputera i kody znaków stworzone do przekazania tekstów zrozumiałych dla człowieka. Kody znaków pisanych mają standaryzacje w skali międzynarodowej i są ujęte w normach wydawanych przez takie organizacje, jak ISO (International Standard Organization) czy ANST (American National Standard lnstitute). Dla wymiany informacji między różnymi komputerami opracowany został standardowy kod wymiany informacji ASCII (American Standard Code for lnformation Interchange), w którym każdemu znakowi podporządkowano odpowiedni kod (tab.1).
Do kodowania znaków alfanumerycznych (litery, cyfry, operatory matematyczne, znaki specjalne i inne) - stosowane są określone standardy.
Jednym z podstawowych standardów jest kod ASCII i American Standard Code for Information Interchange - Amerykański Standardowy Kod Wymiany Informacji.
Opiera się on na przyporządkowaniu wszystkim znakom z podstawowej klawiatury amerykańskiej oraz niektórym ważnym znakom specjalnym (np. powrót karetki, zmiana wiersza).
W wielu przypadkach ograniczenie się do kodu ASCII jest jednak niewystarczające - kwestie nacji językowych wykorzystano w tym celu kody od 128 do 255, bo mamy na to 1 bajt - jako elementarna jednostka informacji.
Przykłady znaczeń niektórych kodów ASCII
Kod ASCII |
Znaczenie |
Kod ASCII |
Znaczenie |
100 0001 100 0010 100 0011 100 0100 100 0101 100 0110 100 0111 100 1000 100 1001 100 1010 |
A B C D E F G H I J |
011 0000 011 0001 011 0010 011 0011 011 0100 011 0101 011 1011 011 0111 011 1000 011 1001 |
0 1 2 3 4 5 6 7 8 9 |
W tego typu kodach to:
kody od 0 do 31 to znaki specjalne, nie mające odpowiednika w alfabecie. Są to znaki sterujące ekranem i drukarką,
kody od 32 do l 27 to są między innymi; kody cyfr (od 48 (0) do 57 (9)), kody dużych liter alfabetu (od 65 (A) do 90 (Z), kody małych liter alfabetu (od 97 (a) do 122 (z).
Przy użyciu ASCII można przedstawić 128 znaków. Jest to kod 7-bitowy. Ze względu na fakt, że elementarną jednostką informacji jest 1 bajt, to dodatkowo można zakodować dalsze 128 znaków. Nazywa się on rozszerzonym kodem ASCII, który zawiera kody od 128 do 255. W tym zakresie można dodatkowe kody wykorzystać na polskie znaki. Jednak w Polsce nie ma w tym względzie ujednoliconego stanowiska i w praktyce spotykamy się z kilkoma różnymi standardami, z których najpopularniejszymi są: Mazovia oraz Latin II.
PRZETWARZANIE INFORMACJI LICZBOWYCH.
Komputer wykonuje obliczenia w układzie dwójkowym (binarnym). Istnieją różne metody zapisu liczb dziesiętnych na system dwójkowy lub odwrotnie. Jedną z najprostszych metod konwersji systemu dwójkowego na dziesiętny jest metoda pozycyjna. Wartość dziesiętną możemy wyliczyć ze wzoru:
W=do+21.d1+22.d2+...+2n.dn
gdzie d - wartość liczby przedstawionej na i-tej pozycji,
Dokonując podsumowania tej części materiału możemy stwierdzić, że informatyka jest nauką o przetwarzaniu informacji za pomocą komputera i przy użyciu odpowiedniego oprogramowania. System, który zajmuje się przetwarzaniem informacji, nazywamy systemem informacyjnym. System informatyczny jest pojęciem węższym i zawsze związane jest to z zastosowaniem techniki komputerowej. System komputerowy składa się z: hardware (sprzętu), software (oprogramowania), bazy danych często uzupełnionych o bazę modeli i bazę wiedzy, telekomunikacji, ludzi i organizacji.
Informacje przetwarzane są w komputerze przy pomocy dwustronnych sygnałów. Podstawową jednostką informacji jest bit. W praktyce używa się większych jednostek, takich jak: bajt, kilobajt, megabajt czy też gigabajt. Dla zapisania poszczególnych znaków, takich jak litery, cyfry, operatory matematyczne i inne, stosowane są określone standardy. Jednym z najbardziej popularnych standardów jest kod ASCII. Stosowany jest on dla wymiany znaków między różnymi komputerami.
Dla przetworzenia informacji przedstawionej w systemie dziesiętnym stosuje się konwersję. Konwersja polega na zmianie zapisu źródłowego na zapis pożądany. Najczęściej w przypadkach przetwarzania przez komputer polega na zmianie systemu dziesiętnego na system dwójkowy.
KOMPUTERY I ICH RODZAJE.
Postęp i rozwój techniki informatycznej dokonuje się w największym stopniu w zakresie technologii budowy komputerów. Konsekwencją jest pojawianie się wciąż nowych typów komputerów w dużej mierze chodzi o nowoczesne mikroprocesory, pamięci i urządzenia peryferyjne dostosowane do potrzeb współczesności. Podział na typy komputerów jest umowny. Problemem jest wybór kryterium rozróżnienia poszczególnych typów komputera. Najczęściej stosowanym kryterium jest przeznaczenie, budowa, funkcjonalność i cena, jaką płacimy za kupno komputera. Według tego handlowego kryterium komputery można podzielić na:
mikrokomputery,
minikomputery,
superkomputery,
Mikrokomputery są typem komputerów, które spowodowały największe zmiany i spowodowały rozpoczęcie ery informacyjnej. Mikrokomputery można podzielić na dwie podstawowe grupy, a mianowicie:
specjalizowane,
uniwersalne.
Uniwersalne z kolei można podzielić na:
domowe,
profesjonalne.
Komputery profesjonalne, zwane popularnie komputerami personalnymi, są grupą najliczniejszą w różnego typu zastosowaniach.
Komputery ze względu na sposób użytkowania można podzielić na:
biurowe (desk-top), które mogą pracować w zestawach, tzw. wieżach,
przenośne (portable), mieszczące się w jednej obudowie,
notatnikowe (notebook), przeznaczone do pracy w czasie podróży i które mogą być zasilane z akumulatorów o stosunkowo niewielkim ciężarze (2-3 kg),
podręczne (lap-top), również przeznaczone zwykle do pracy w podróży, jednak nieco cięższe niż notatnikowe.
Specjalną grupę stanowią dostępne od 1992 r. komputery sterowane pisakiem, tzw. pen-komputery, pen pad. Użytkownik może go bardzo łatwo przekształcić w normalny komputer. Dokonuje się tego przez dołączenie monitora o normalnych rozmiarach, stacji, dysków, klawiatury, myszy.
Minikomputery są to w zasadzie komputery, które w porównaniu z mikrokomputerami charakteryzują się większą pojemnością pamięci operacyjnej, dłuższym słowem maszynowym, możliwością równoczesnej pracy wielu użytkowników.
Podobnie jak produkcja personalnych komputerów zdominowana jest przez komputery firmy IBM i komputery z nimi kompatybilne. Głównie są to produkty firmy DEC (Digital Eguipment Corp.), przedstawicielem komputerów firmy DEC są komputery serii VAX. Popularnymi, również w Polsce są minikomputery firmy IBM serii AS/400 (Apllication System), oraz komputery firmy Hewlett - Packard, w tym popularny model P3000.
Do minikomputerów zalicza się często tzw, stacje robocze (work-stations). Stacje roboczą łączą cechy sprzętu mikro i mini. Współczesne stacje robocze można określić następująco według funkcjonalności parametrów techniczno eksploatacyjnych:
moc obliczeniowa, najczęściej kilkakrotnie przewyższająca komputery osobiste,
monitor, najczęściej 19-calowe o wysokiej rozdzielczości,
szybkie i pojemne pamięci zewnętrzne,
możliwość pracy w zestawach.
W grupie tej wyróżnić można stacje do: przetwarzania danych biurowych, obsługi procesów produkcyjnych, prac projektowo-inżynieryjnych, tzw. CAD/CAM, obsługi instytucji finansowych (szczególnie banków i giełd).
Main-frame, czyli komputery duże i średnie. W latach osiemdziesiątych rozpowszechniony był pogląd, że personalne komputery wyprą komputery innych typów. Okazało się jednak, iż mimo że komputery personalne przejęły szereg zadań i mogą je samodzielnie realizować to średnie i duże komputery będą odgrywały znaczną rolę, zwłaszcza w bankach, supermarketach, administracji, ubezpieczeniach, jak i wszędzie tam, gdzie niezbędne są niezawodność, działanie w sieci, jak też ochrona danych. Komputery typu mainframe są jedno- lub wieloprocesorowe o bardzo dużej wydajności. Pamięć zewnętrzna jest w praktyce nieograniczona. Ich ujemną cechą jest to, że wymagają specjalnych klimatyzowanych pomieszczeń, jak też profesjonalnej obsługi.
Superkomputery są obecnie komputerami o największej mocy obliczeniowej. Niekiedy o tego typie komputerów mówi się też: ultrakomputery, superserwery itp. Superkomputery produkuje niewiele firm, takich jak: Cray, NEC Hitachi, Fujitsu. Szybkość obliczeniowa superkomputerów mierzona jest w miliardach operacji na sekundę (gflops). Pamięci masowe w formie pakietów dysków są praktycznie nieograniczone, natomiast pamięć operacyjną cechuje pojemność rzędu miliardów bajtów. Wysoka cena superkomputerów jest tym czynnikiem, który powoduje ograniczenie ich zastosowań. Wielu nawet bardzo bogatych użytkowników dzierżawi tego typu komputery lub kupowane są przez wyspecjalizowane konsorcja. Także ich bardzo złożone konstrukcje wymagają specjalnych mediów chłodzących, np. ciekłego azotu, jak również innych wyspecjalizowanych mediów zabezpieczających ich funkcjonowanie.
W superkomputerach zastąpiono klasyczny system przetwarzania danych związanych z nazwiskiem Von Neumanna (przetwarza się jeden strumień danych w jednym procesie i jednej pamięci) na tzw. system współbieżny, gdzie zadania są realizowane równolegle na kilku procesorach (tzw. superskalary).
Człowiek ze zdrowym sercem i jasnym umysłem pozbawiony swoich zmysłów straciłby sens swojego istnienia, nie miałby żadnej możliwości komunikowania się z otaczającym go światem.
Podobnie komputer złożony jedynie z pamięci i procesora, byłby głuchym, ślepym i nieczułym na żadne bodźce, a więc nikomu nie potrzebnym urządzeniem.
Zasada działania naszych narządów zmysłów została już dawno poznana i umiemy budować urządzenia działające w podobny sposób.
Poszczególne zmysły mają dla nas różne znaczenie - najcenniejszy jest wzrok, potem słuch, następnie smak, węch, dotyk. Ta hierarchia nie jest przypadkowa, odpowiada ilości informacji, jaką nam te zmysły dostarczają, odpowiada też stopniowi skomplikowania urządzeń, które imitują narządy zmysłów:
zmysł dotyku - klawiatura, ekran dotykowy, mysz
zmysł słuchu - mikrofon
wzrok - ekran, skaner, digitizer itp.
Użytkowane, popularne programy w tym i systemy operacyjne np. typu Windows utrwalają obraz inteligencji maszyny. Ich zachowanie, prowadzenie „rozmowy” z użytkownikiem sprawia wrażenie, że komputer nie tylko wykonuje polecenia, ale potrafi także doradzić, którą drogę wybrać. Coraz częściej podczas instalacji systemu sam rozpoznaje typ sprzętu, ustawia właściwe przerwania optymalnie konfiguruje środowisko pracy. Takie - z pozoru inteligentne - działania maszyny w pewien sposób rozgrzeszają użytkowników z myślenia i odpowiedzialności. Powstaje zatem złudzenie, że tak zmyślny system potrafi sam o siebie ale również o użytkownika zadbać także w przyszłości. Samodzielność komputerów jest jednak „iluzją” wynikającą z nie dostrzeżenia roli człowieka w ich funkcjonowaniu.
Komputer lub inaczej maszyna cyfrowa - jest to więc urządzenie służące do przetwarzania informacji, przy czym to przetwarzanie odbywa się automatycznie, według wprowadzonego uprzednio do jego pamięci programu.
Treść tej definicji można przedstawić obrazowo w sposób następujący;
Zaś graf obrazujący system komputerowy tj. zestaw komputerowy ujmujący zespolenie sprzętu i oprogramowania można przedstawić następująco:
Przy czym komunikacja użytkownika z komputerem poprzez system operacyjny wyraża się wg załączonego rysunku.
Schemat funkcjonowania komputera.
Legenda:
1 - konsola operatorska,
2 - taśma magnetyczna,
3 - dysk twardy,
4 - dysk miękki (dyskietka),
5 - drukarka,
6 - monitor ekranowy.
SYSTEM KOMPUTEROWY . Wszystkie elementy komputera wzajemnie ze sobą powiązane tworzą system komputerowy. W zależności od zastosowania i możliwości finansowych użytkownika struktura komputera może być bardziej lub mniej rozbudowana. Podstawowymi elementami komputera przedstawionymi na rysunku są:
1. Jednostka centralna, a w niej najbardziej istotnymi elementami są:
procesor,
pamięć wewnętrzna (operacyjna),
kanały wejścia i wyjścia.
2. Pamięci zewnętrzne.
3. Urządzenia wejścia i wyjścia.
Literatura przedmiotu określa również pojęcie komputera jako skomplikowane urządzenie, złożone z czterech podstawowych modułów:
- układu arytmetyczno-logicznego,
- układu sterowania,
- pamięci,
- układów wejścia i wyjścia.
Układ arytmetyczno-logiczny i sterowania umieszcza się razem i noszą one nazwę procesora. Procesor służy bezpośrednio do przetwarzania danych, wykonuje obliczenia i porównuje liczby. Dane i wyniki są przechowywane w pamięci. Tam też zapisany jest program, czyli zakodowany odpowiednio sposób przetwarzania informacji. Układy wejścia i wyjścia służą do komunikacji ze światem zewnętrznym. Za ich pośrednictwem dołącza się do komputera urządzenia do wprowadzania i wyprowadzania danych - urządzenia zewnętrzne. Komputery przetwarzają informacje zapisane binarnie, za pomocą wartości 0 i 1. Elementarną porcję informacji w postaci „0” i „1” nazwano bitem. Taki sposób reprezentowania informacji pozwala na uproszczenie budowy układów elektronicznych, z których zbudowany jest komputer oraz na zwiększenie niezawodności ich pracy.
Pojedynczy bit niesie małą porcję informacji, jednak za pomocą ciągu bitów można zapisać bardziej skomplikowane dane, liczby lub znaki alfabetu. W mikrokomputerach używa się na ogół porcji złożonych z ośmiu bitów, zwanych dalej bajtami.
Sposób połączenia ze sobą podstawowych modułów komputera nazywa się architekturą komputera. Uproszczony schemat połączenia czterech podstawowych modułów komputera przedstawiono na poniższym rysunku.
W schemacie zwracają uwagę moduły komputera oraz połączenia między nimi, tzw. szyny. Szyną adresową nazwano połączenie, które służy do przesyłania adresu z procesora do pamięci i układów wejścia i wyjścia. Szyna danych to połączenie, które przekazuje informacje odczytywane lub zapisywane przez procesor z pamięci lub układów wejścia lub wyjścia.
Liczba linii szyny danych, a tym samym liczba bitów, które mogą być jednocześnie przesyłane przez tę szynę, zależy od budowy procesora. Starsze mikrokomputery mają 16-bitowe szyny, nowsze 32-bitowe, a najnowsze 64-bitowe szyny. Zwiększona liczba bitów szyny pozwala na szybsze odczytywanie lub wpisywanie informacji do pamięci, a więc szybszą pracę komputera.
Jednostka centralna. Jak wcześniej stwierdzono elementem organizującym pracę całego systemu komputerowego jest procesor. Często też w przenośni nazywamy go sercem lub mózgiem. Nowoczesny komputer wyposażony jest zwykle w kilka procesorów, wyspecjalizowanych w wykonywaniu określonego rodzaju zadań. Każdy komputer zawiera jednak jeden główny mikroprocesor, określony często mianem CPU (Central Processing Unit). W najbardziej popularnych typach komputerów, a mianowicie w personalnych komputerach, takim „sercem" jest mikroprocesor umieszczony na płycie głównej o odpowiednich parametrach techniczno funkcjonalnych i otwartej architekturze. Przy zakupie procesora patrzymy na ogół na tzw. współczynnik wydajności - czyli porównanie do wydajności jakiegoś procesora Pentium. Ten współczynnik to: COMP - indeks wydajności komputera ustanowiony przez firmę INTEL do pomiaru wydajności procesorów. Mierzymy więc współczynnik szybkości COMP do ceny procesora.
Wydajność komputera zależy więc bezpośrednio od:
szybkości - tj. ilości instrukcji, którą może wykonać procesor w ciągu sekundy,
ilości danych - które może objąć procesor w ramach jednej operacji.
od technologii wykonania procesora (jego możliwości w zakresie operacji arytmetycznych, logicznych oraz sterowania.
Drugim z podstawowych elementów jednostki centralnej jest pamięć wewnętrzna. Jest to bardzo szybka pamięć, w której przechowywane są programy (w tym także system operacyjny), a także dane wejściowe oraz wyniki, uzyskane w trakcie przetwarzania. W tych sytuacjach, kiedy nie są one natychmiast potrzebne, przesłane są do tzw. pamięci zewnętrznych (o których będzie mowa w dalszej części poradnika).
Pamięć wewnętrzna, jest zorganizowana jako ciąg komórek. Każda komórka ma swój adres. Duża pamięć pozwala na wykonanie bardzo złożonych programów. Pamięć ta może być zbudowana z różnych elementów. Stosuje się: pamięć ferrytową, pamięć na cienkich warstwach magnetycznych, pamięć optyczną, pamięć półprzewodnikową oraz pamięć kriogeniczną, która wykorzystuje zjawiska nadprzewodnictwa w niskich temperaturach.
Dawniej najbardziej popularne były pamięci ferromagnetyczne, obecnie natomiast pamięci półprzewodnikowe. Wydaje się, że w niedalekiej przyszłości powszechnie będą stosowane pamięci optyczne, które mogą charakteryzować się dużą pojemnością i szybkością przekazywania danych. Największe możliwości w tym względzie powinna mieć pamięć holograficzna, która wykorzystuje zjawisko holografii i możliwości jakie daje światło laserowe. Obecną wadą takiej pamięci jest to, że zapisany hologram nie może być zmieniony, co utrudnia aktualizację zasobów informacyjnych. Obok wymienionych rodzajów pamięci istnieją również pamięci innego rodzaju, np. pamięć biologiczną, itp.
Postęp w zakresie budowy pamięci wewnętrznych polega na ilości gromadzonych danych jak również minimalizacji czasu dostępu do zgromadzonych tam danych. Przyspiesza to bowiem proces przetwarzania przez mikroprocesor ze względu na to, że wszelkie dane oraz programy pobiera on z pamięci operacyjnej.
W pamięci wewnętrznej wyróżniamy dwa podstawowe rodzaje pamięci:
Pamięć RAM (Random Access Memory), inaczej zwana pamięcią o dostępie swobodnym - bezpośrednim, typu zapis/odczyt wymaga ona stałego odświeżania - podania źródła zasilania. Przechowuje program i dane dla programu aktualnie realizowanego. Po wyłączeniu komputera informacje te znikają. Jej głównymi elementami funkcjonalnymi jest więc pojemność i czas dostępu do informacji tam zgromadzonych (zapis-odczyt).
Pamięć ta jest zorganizowana jako ciąg elementarnych komórek związanych bitami pamięci z których każda jest zdolna do przechowywania jednego bitu informacji. Bity grupowane są w bajty pamięci. Każda komórka ma swój jednoznaczny numer i adres.
Na rynku informatycznym występują następujące rodzaje pamięci, które stosuje się w komputerach:
* pamięć ferrytową,
* pamięć na cienkich warstwach magnetycznych,
* pamięć optyczną,
* pamięć półprzewodnikową,
* pamięć kriogeniczną - która wykorzystuje zjawiska nadprzewodnictwa w niskich temperaturach.
Pamięci powinny charakteryzować się dwoma istotnymi parametrami:
* dużą pojemnością [GB]
* szybkością przekazywania danych [ns].
Optymalnie zatem w przyszłości powszechnie będą stosowane pamięci optyczne. W tym względzie największe możliwości powinna mieć pamięć holograficzna, która wykorzystuje zjawisko holografii i możliwości jakie daje światło lasera. Obecnie wadą tych pamięci jest to, że hologram może być zmieniony, co utrudnia aktualizację zasobów informacyjnych.
Postęp w zakresie budowy pamięci wewnętrznych dąży do koncentracji pamięci i układów logicznych związanych na bardzo małej powierzchni oraz przyspieszenia procesu przetwarzania.
PAO (pamięć operacyjna) służy do przechowywania danych i programów i składa się z następujących modułów:
Pamięć ROM (Read Only Memory), inaczej zwana pamięcią tylko do odczytu.
Pamięć ROM - jest to pamięć stała, nie ulotna - elementy programowalne typu EPROM. Zawarte są dane producenta tzn. ROM BIOS tj. informacje o systemie operacyjnym, do rozpoznania przez system, generator znaków, interpreter języka najczęściej języka BASIC.
Pamięć ROM występuje również między innymi w następujących postaciach:
PROM (Programmable ROM) programowalna jednokrotnie,
EPROM (Erasable PROM) pamięć stała kasowalna wielokrotnie światłem ultrafioletowym,
EAPROM (Electrically EPROM lub E2PROM) pamięć kasowalna.
Kanały wejścia-wyjścia.
Kanały te stanowią blok funkcjonalny pozwalający sterować przepływem danych pomiędzy pamięcią wewnętrzną a urządzeniami zewnętrznymi podłączonymi do procesora. Przez to umożliwiają procesorowi wykonywanie w tym samym czasie odczytu i zapisu informacji w pamięci operacyjnej i przetwarzanie danych. Kanały „kontaktują” się z urządzeniami zewnętrznymi poprzez łącze standardowe i jednostki sterujące urządzeń zewnętrznych. Stanowią funkcjonalny blok pozwalający na sterowanie przepływem danych pomiędzy pamięcią wewnętrzną, a urządzeniami zewnętrznymi podłączonymi do procesora. Umożliwiają przez to procesorowi w jego działaniu na wykonywanie w tym samym czasie odczytu i zapisu informacji w pamięci operacyjnej wraz z przetwarzaniem danych. Kanały kontaktują się z urządzeniami zewnętrznymi poprzez łącze standardowe i jednostki sterujące urządzeń zewnętrznych. Inaczej patrząc blok we/wy służy do komunikacji procesora z urządzeniami zewnętrznymi poprzez tzw. „porty” które są ogólnie rzecz biorąc programowalnymi układami logicznymi łącznie z liniami komunikacyjnymi (INTRFACE) przez które informacja przechodzi z i od urządzeń zewnętrznych. Realizowane jest to poprzez sterowniki i oprogramowanie.
Pamięć zewnętrzna. Pamięci te mają za zadanie przechowanie danych i programów nie będących w danej chwili przetwarzane. Do najpopularniejszych rodzajów pamięci zewnętrznych należą:
Pamięć taśmowa (pamięć sekwencyjna).
Pamięć na dyskach (pamięć o dostępie bezpośrednim).
Płyta kompaktowa (czytnik CD).
Pamięć ta składa się z dwóch następujących modułów funkcjonalnych: jednostki sterującej oraz z jednej lub kilku jednostek pamięci podłączonych do jednostki sterującej. Wymiana danych pomiędzy pamięcią wewnętrzną a jednostką pamięci zewnętrznej (zapisywanie danych) odbywa się na drodze: pamięć wewnętrzna - kanał (układ we/wy) - jednostka sterująca pamięcią - jednostka pamięci.
Odczytywanie danych z pamięci zewnętrznych odbywa się w kierunku przeciwnym. Podstawowymi parametrami decydującymi o przydatności i zastosowaniu danego rodzaju pamięci są:
pojemność pamięci,
szybkość pracy pamięci (zapis-odczyt),
koszt przechowywania informacji, liczona jako stosunek kosztu urządzenia do jego pojemności (ilości danych jaka może być przechowana w pamięci).
Pamięć na dyskach. Pamięć na dyskach, tzw. pamięć o dostępie bezpośrednim; można ją podzielić na następujące kategorie:
dyski twarde,
dyski elastyczne.
Pamięć dyskowa jest pamięcią o dostępie bezpośrednim. Wprowadzenie dysków magnetycznych przyczyniło się do szybkiego postępu w wykorzystywaniu komputerów.
Pojemności dysków są bardzo różne i wynoszą w pakietach od kilku megabąjtów do kilkudziesięciu gigabajtów i setek terabajtów. Najczęściej jest stosowany zestaw, w którym do jednostki sterującej można podłączyć do 8 jednostek dyskowych. Zestaw dysków zapewnia w praktyce nieograniczoną pojemność, ponieważ wymiana jednego pakietu jest niezwykle prosta. Pakiet dysków zawiera najczęściej 6 płyt, w których jest 10 powierzchni roboczych i 2 osłaniające. Przeciętnie czas dostępu do ścieżki sąsiedniej wynosi „~ 30 ms” (nowe tendencje zmieniają ten czas).
Prace dysku obsługują instrukcje:
sterujące, zawierające instrukcje wyszukiwania, powrotu oraz „nic nie rób”,
porównania, zawierające instrukcje porównania klucza i adresu (większy lub równy),
czytania, zawierające instrukcje czytania,
zapisu, zawierające instrukcje zapisu,
Dla zrozumienia organizacji zbiorów na dysku istotne jest „wyczucie” różnicy między zbiorem logicznym a zbiorem fizycznym. Zbiór logiczny jest to pewna grupa dokumentów jednorodnych tematycznie. Istnienie zbioru fizycznego wynika stąd, że każdy dokument jest magazynowany w pamięci w pewnym przeznaczonym dla siebie obszarze. Każdy taki obszar ma identyfikator zwany adresem.
W projektowaniu zbioru danych na dysku magnetycznym istotnymi parametrami są:
1. Liczba ścieżek na powierzchni dysku, która określa poprzeczną gęstość zapisu i ma decydujący wpływ na pojemność informacyjną dysku. Każda ścieżka na dysku jest podzielona na równe części, zwane blokami lub sektorami. Zapis i odczyt danych odbywa się całymi blokami. Blok stanowi najmniejszą „porcję” danych przesyłanych między dyskiem a pamięcią wewnętrzną systemu cyfrowego.
2. Czas dostępu do danych, który jest sumą czasu poszukiwania (czasu potrzebnego na przesunięcie głowicy magnetycznej na właściwą ścieżkę) i czasu oczekiwania (czas obrotu dysku niezbędnego do podejścia początku bloku pod głowicę magnetyczną).
Dysk magnetyczny jako nośnik ma określone zalety i wady.
a) Zalety:
duża pojemność informacyjna pakietu dysków,
nieograniczona możliwość zwiększenia pojemności przez wymianę dysków (pakietów),
stosunkowo krótki czas dostępu.
b) Wady:
wrażliwość nośnika na urządzenia mechaniczne,
trudności technologiczne przy wykonywaniu pakietu (jednorodna warstwa ferromagnetyku.
Dyski magnetyczne spełniają, podobnie jak taśmy magnetyczne, dwojaką rolę; po pierwsze nośnika, na którym są magazynowane dane, po drugie nośnika do wprowadzania danych do systemu cyfrowego. Postęp techniczny dotyczący pamięci dyskowych „idzie” zarówno w kierunku miniaturyzacji dysków, jak również zwiększenia pojemności i skracania czasu dostępu do danych.
Specyficznym nośnikiem pamięci dyskowej jest dyskietka, zwana też dyskiem elastycznym lub floppy - dyskiem. Jest ona zbudowana z plastikowego krążka, pokrytego materiałem magnetycznym. Krążek ten jest zamknięty w kopercie z elastycznego, ale odpornego tworzywa. Duży, umieszczony pośrodku, otwór służy do ustawienia dyskietki na wałku mechanizmu napędowego. Z boku znajduje się otwór indeksowy. Dzięki temu w momencie przesunięcia się otworu indeksowego pod wycięcie komputer może określić położenie obracającej się dyskietki względem głowicy zapisu-odczytu.
W ostatnim okresie coraz częściej stosowanym nośnikiem informacji jest płyta kompaktowa odczytywana przez czytnik CDD. Jest to dość trwały nośnik informacji charakteryzujący się dużą niezawodnością zarówno zapisu jak i odczytu ze względu, że w wymienionych procesach wykorzystano promień laserowy (monochromatyczne spójne światło o dużej energii gromadzonej w stosunkowo małym punkcie). Aby korzystać z zapisu na tego typu nośnikach, należy zestaw komputerowy rozszerzyć o „nagrywarkę”. Istotną zaletą tego nośnika jest kompatybilność odczytu danych przy różnych systemach operacyjnych instalowanych w systemach komputerowych (pomijana jest bowiem procedura formatu nośnika - tj. naniesienia struktury danego systemu operacyjnego).
URZĄDZENIA WEJŚCIA I WYJŚCIA. Istnieje wiele urządzeń komunikacji z komputerem. Grupa tych urządzeń określona jest wspólnym pojęciem urządzeń wejścia i wyjścia. Niektóre z nich są urządzeniami tylko wejścia inne zaś wyjścia, wiele zaś pełni obie funkcje. W prezentacji urządzeń przedstawione zostaną tylko najważniejsze i najbardziej popularne.
Monitor. Jak pisze P. Norton, jedyną - istotną z punktu widzenia użytkownika -częścią komputera jest monitor ekranowy. Monitor jest podstawowym urządzeniem do wyprowadzenia informacji z komputera. Traktowany jest często jako urządzenie we/wy, służące do wizualizacji danych. Może on pracować w tzw. trybie tekstowym - wyświetla znaki lub w trybie graficznym - obraz składa się z punktów.
Monitor ekranowy działa bardzo podobnie do telewizora. Zasada jego pracy znana jest pod nazwą wybierania liniowego i polega na ciągłym wykreślaniu obrazu przez poruszający się strumień (wiązkę) elektronów. Czytelność, ostrość i czystość obrazu przedstawionego na ekranie uzyskuje się dzięki zastosowaniu specjalnych kart graficznych zainstalowanych w komputerze i współpracujących z monitorem. Większość eksploatowanych monitorów pracuje z kartą Super VGA (Virtuall Graphic Array), pozwalającą pracować z rozdzielczością 800 x 600 pkt lub 1024 x 768 pkt (rozdzielczość określa się ilością linii i ilością punktów w każdej linii; skrót pkt pochodzi od słowa picture element, czyli element obrazu) i uzyskać 256 kolorów.
Często powód, że program działa na jednym komputerze, a nie działa na innym, związany jest w wyborem karty graficznej i współpracującego z nią monitora. Brak zgodności w tym zakresie uniemożliwia przenoszenie programów.
Nowe zastosowania monitora pozwalają nie tylko na wyprowadzenie danych, ale też na ich wprowadzanie. Istnieją tzw. ekrany dotykowe (touch screens), a ostatnio został opracowany specjalny ekran dotykowy, który reaguje też na siłę dotyku. W konsekwencji można otrzymać trójwymiarowy obraz. Niekiedy do monitora dołączone jest pióro świetlne, pozwalające na bezpośrednią komunikację z komputerem.
Klawiatura. Klawiatura wraz z monitorem stanowi podstawowe urządzenia komputera. Przy pomocy klawiatury możemy wprowadzić do komputera dowolne polecenia i teksty. Klawiatura zawiera w zależności od typu klawiatury 101 lub 102 i więcej klawiszy podzielonych na następujące bloki:
1. centralny, składający się z podstawowych symboli zgodnych z kodem ASCII. Jest to w zasadzie rozszerzona maszyna do pisania, najczęściej przedstawiona w systemie QWERTY (nazwa pochodzi od znaczenia kolejnych klawiszy w lewym górnym rogu),
2. pomocniczy, w którym istnieją powtórzone klawisze cyfrowe i operatory matematyczne,
3. funkcjonalny, w którym znajdują się klawisze oznaczone symbolami od F1 do F12, a ich znaczenie zależy od tego z jakim programem współpracują,
4. sterujący ruchem kursora, w obrębie napisanego tekstu,
5. specjalny, w którym umieszcza się klawisze o specjalistycznym przeznaczeniu np. Enter (naciśnięcie powoduje akceptacje wykonania polecenia), SHIFT (do pisania dużych liter oraz górnych znaków znajdujących się na niektórych klawiszach), ESC (rezygnacji z wykonania polecenia, często, jeśli nie wiemy, co należy dalej zrobić, naciskając klawisz ucieka się z takiej sytuacji).
„Mysz” - urządzenie sterujące. We współczesnych komputerach jest to urządzenie bardzo przydatne i pozwala na obsługę wielu programów bez użycia klawiatury. Informacją, że mysz funkcjonuje, jest na monitorze obraz strzałki, niekiedy prostokąta lub ręki. Jeśli przesuniemy myszką po stole lub po specjalnej podkładce (tzw. padzie), to odpowiedni ruch wykona strzałka na ekranie. Naciśnięcie klawisza myszki, tzw. kliknięcie, pozwala na akceptację realizacji polecenia. W niektórych komputerach wmontowana jest na stałe kulka i tu przez ruchy dłoni możemy realizować podobne funkcje jak przy pomocy myszki. Współczesne „myszki” mają do trzech wbudowanych klawiszy sterujących pozwalających na rozszerzenie możliwości stosowania użytkowego, a tym samym efektywniejszej i sprawniejszej obsługi wielu aplikacji wykorzystywanych przez użytkownika (np. menu podręczne, przesuw kursora itp.).
Drukarka. Urządzenie te służy do wyprowadzania wyników pracy komputera na trwałym nośniku informacji. Szybkość wykonywania przez komputer operacji nie przyniesie spodziewanych efektów, jeżeli nie zostanie sprzęgnięte z odpowiednio wydajnymi drukarkami. Ponieważ występuje dość często brak synchronizacji, dlatego dane z przetworzenia mogą być zapisywane na specjalistycznym dysku spełniającym rolę bufora, a następnie - w miarę możliwości i potrzeb drukowane. Istnieje wiele różnych rodzajów drukarek produkowanych przez różne firmy. W praktyce stosowane są drukarki: mozaikowe, strumieniowe, laserowe, termiczne i bezdotykowe.
Drukarka mozaikowa
- jest drukarką uderzeniową. Głowica drukarki zawiera cienkie igły (najczęściej 9 lub 24), które - dociskając taśmę barwiącą do papieru-tworzą znak. Im więcej igieł na jednostkę powierzchni, tym lepsza jakość druku, lecz czas druku się wydłuża. Znaki tworzone są w trybie draft (na brudno) i NQL (Near Letter Quality, czyli podwyższonej jakości). Drukarki te są stosunkowo tanie, a ich największą wadą jest niewielka szybkość i dość duża głośność pracy.
Drukarka strumieniowa
- zwana też drukarką atramentową (ink-.jet-printer), drukuje metodą strumienia tuszu wyrzucanego przez dyszę w uruchomionej głowicy. Są to więc podobnie jak drukarki igłowe drukarki uderzeniowe, lecz pracujące cicho i dające dobre jakościowo wydruki. Pewną ich wadą jest to, że nie można stosować w nich np. papieru kredowego (wydruk rozlewa się). Również z tego samego powodu nie są rekomendowane dla grafiki, natomiast zdają egzamin dla użytkowników pracujących w trybie tekstowym.
Drukarki laserowe są to obecnie najbardziej popularne typy drukarek. Są one droższe cenowo od atramentowych jednak coraz częściej instalowane ze względu na bezsporne zalety, jakimi są: wysoka jakość druku, cicha praca, większa szybkość realizacji. Zasada działania podobna jak w kserokopiarce. Różnica jest w tym, że obraz nie jest naświetlany światłem odbitym do oryginału, lecz przez laser, który jest w drukarce. W przeciwieństwie do drukarek atramentowych i mozaikowych drukowana jest cała strona (a nie linie po linii).
Drukarka bezdotykowa.
Jest to cała rodzina nowego typu drukarek o bardzo dużej wydajności. Drukarki te pracują z szybkością ponad 50% większą niż drukarki laserowe (drukują ponad 90 stron na minutę) i są odporne na wszelkiego rodzaju zakłócenia.
Skanery - pozwalające na cyfrowe przetwarzanie dowolnego obrazu. Skanery występują w postaci skanera ręcznego lub stacjonarnego. Działanie skanera polega na płynnym przesunięciu po skanowanym obrazie lampy fluorescencyjnej lub kilkunastu fotodiod umieszczonych w urządzeniu.
Skanery scharakteryzowane są przez następujące parametry:
rozdzielczość liczona w liczbie punktów na cal, tzw. dpi, większość skanerów ma około 600 dpi,
skala szarości decydująca o płynności przejścia od czerni do bieli,
szerokość skapowania określająca maksymalną szerokość oryginału przetwarzanego w pojedynczym cyklu pracy skanera,
szybkość skapowania.
Plotery - są to urządzenia wyjścia wykorzystywane między innymi w pracach projektowych. Przetwarzane w komputerze dane są wykreślane w postaci rysunku w układzie osi X i Y. Plotery należą do stosunkowo drogich urządzeń zewnętrznych.
Przedstawione urządzenia nie wyczerpują wszystkich urządzeń wejścia i wyjścia. Istnieją urządzenia, które pozwalają przetwarzać mowę i dźwięki. W dużych hurtowniach stosowane są czytniki kodów paskowych. Postęp techniczny idzie w kierunku wzbogacenia o odkrywania wciąż nowych urządzeń dla poprawienia komunikacji z komputerem.
PODSUMOWANIE. Komputer jest urządzeniem, które wykonuje automatycznie obliczenia, zgodne z zasadami jego funkcjonowania, określone przez zewnętrzną lub wewnętrzną informację, przekazywane w postaci danych i programów. Rozwój techniki komputerowej spowodował wydzielenie tzw. generacji komputerów. Generacja pierwsza oparta była na technice lampowej, druga zaś na tranzystorowej, trzecia - z kolei - na układach scalonych małej i średniej skali integracji. Obecnie funkcjonujące komputery zalicza się do czwartej generacji, opartej na układach scalonych o bardzo wysokiej skali integracji. Dalsze generacje oparte będą prawdopodobnie na jeszcze większej skali integracji mających inne niż dotychczas rozwiązania techniczne, jak przykładowo -neurokomputery, superskalary.
Komputery można podzielić według różnych kryteriów. Stosując kryterium handlowo-funkcjonalne oraz cenę możemy umownie wyróżnić mikrokomputery, minikomputery średnie i duże oraz super i ultrakomputery. Obecnie najbardziej popularne są mikrokomputery przeznaczone dla pojedynczych użytkowników, czyli tak zwane personalne komputery.
System komputerowy tworzony jest przez jednostkę centralną i gamę urządzeń peryferyjnych. Najbardziej istotnymi elementami jednostki centralnej są: procesor, pamięć wewnętrzna (operacyjna), kanały wejścia i wyjścia. Peryferia tworzą pamięć zewnętrzną oraz urządzenia wejścia i wyjścia. Elementem organizującym pracę całego systemu komputerowego jest procesor. Miniaturyzacja jest tak wielka, że przewiduje się iż mikroprocesor 786 firmy Intel, zawierający sto milionów tranzystorów, będzie to kostka krzemu o powierzchni około 6,5 cm. Istotnym elementem wpływającym na wydajność komputera są również urządzenia pamięci operacyjnej. Pamięć ta, nazywana jest często pamięcią RAM (pamięć dynamiczna o swobodnym, bezpośrednim dostępie wymagająca „stałego odświeżania”), pozwala na przechowywanie danych i programów, które są aktualnie przetwarzane - dostarczane do mikroprocesora. Pojemność zestawów dysków mierzona jest w gigabajtach (terabajtach) i charakteryzuje się bardzo krótkim czasem dostępu. Do urządzeń zewnętrznych, pozwalających na komunikację człowiek - komputer, należą: monitor. klawiatura, drukarka, skaner, mysz, ploter. Z punktu widzenia użytkownika najbardziej istotnym urządzeniem jest monitor. Monitor jest bowiem podstawowym urządzeniem do wizualizacji informacji wyprowadzanych i wyprowadzanych z komputera. Klawiatura natomiast podstawowym urządzeniem do wprowadzenia danych i rozkazów do komputera.
KOMUNIKACJA CZŁOWIEK - KOMPUTER. Komunikacja między człowiekiem - użytkownikiem a systemem komputerowym odbywa się bezpośrednio. Jest to osiągnięcie ostatnich lat, poprzednio bowiem łańcuch pośredników był dość duży. W konsekwencji w takim układzie występowało wiele przekłamań, zmian i uproszczeń, co powodowało, że różnica między zadaniami sformułowanymi przez użytkownika a wykonanym przez system komputerowy była dość duża.
Ujemnym zjawiskiem w tym względzie było to, że cała operacja trwała niekiedy bardzo długo. Wymagała bowiem opracowania dokumentacji systemu oraz wielu uzgodnień i zatwierdzeń. W rezultacie użytkownik otrzymywał rozwiązanie nie zawsze dotyczące problemu, który go interesował. Często rozwiązania były mu dostarczone wtedy, kiedy sytuacja zmieniła się i uzyskane informacje były nieaktualne. Aktualizacja wymagała znowu uzgodnień i zatwierdzeń. Obecnie w większości sytuacji użytkownik bezpośrednio „konsultuje się z komputerem”. Temu celowi służy zarówno sprzęt techniczny, jak też wygodne w użyciu oprogramowanie.
W układzie człowiek - komputer można wyróżnić dwa poziomy:
Pierwszy to bezpośredni układ człowiek - komputer, polegający na tym, że reakcja komputera i komunikat o efektach działania są natychmiastowe, a ewentualne opóźnienie wynika tylko z właściwości użytego sprzętu i rodzaju realizowanego zadania.
Drugi - kiedy dla zadania czas nie ma znaczenia, ewentualnie jest dopuszczone opóźnienie reakcji.
W pierwszym przypadku układy można przedstawić następująco:
K-KR-M.
K-KR-D,
M-KR-M,
M-KR-D.
gdzie:
K - konsola (klawiatura komputera),
KR - komputer - jednostka centralna,
M - monitor,
D - drukarka.
W drugim przypadku na wejściu lub wyjściu; ewentualnie i na wejściu i na wyjściu, pojawiają się maszynowe nośniki danych, takich ,jak dyski, dyskietki, taśmy magnetyczne. Można więc powiedzieć, że w tej drugiej sytuacji układ jest rozbudowany i wielostopniowy. W systemie tym szczególna rola przypada urządzeniom opisanym w poprzednim rozdziale, a więc klawiaturze i monitorom, wzbogaconym o zdalne manipulatory, np. mysz, pióro świetlne, ekran dotykowy.
Komunikacja człowiek - komputer realizowana jest przez działania, które określamy terminem zwanym programowanie.
Programowanie jest pewną sekwencją działań, składającą się z:
a. opracowania algorytmu rozwiązania problemu,
b. przetłumaczenia algorytmu na wybrany język komunikacji człowiek- komputer,
c. uruchomienia i zrealizowania programu.
ALGORYTM I FORMY JEGO PREZENTACJI.
Algorytm to sposób postępowania przedstawiający jednoznacznie skończoną ilość kroków (etapów) niezbędnych dla rozwiązania określonego zadania. Algorytm jest tak sformułowany, żeby, postępując według jego wskazań, komputer mógł rozwiązać określony problem. Algorytmy są rozwiązaniami takich zadań, które określamy jako zadania algorytmiczne albo obliczeniowe (rys).
Za podstawowe cechy algorytmu uznaje się (1):
uniwersalność, czyli zapewnienie rozwiązania każdego zadania należącego do określonego typu zadań, pod warunkiem konsekwentnego jego stosowania,
jednoznaczność, czyli prezentacji metody postępowania w postaci skończonej listy prostych j jednoznacznych rozkazów, dotyczących postępowania na kolejnych etapach wykonywania zadania.
zbieżność, czyli dla każdego dopuszczalnego zbioru danych początkowych liczba operacji prowadzących do poszukiwanego wyniku jest skończona,
powtarzalność, czyli każdy z użytkowników, stosując analogiczne dane i algorytm, uzyska analogiczne wyniki.
Zadanie algorytmiczne i jego rozwiązanie
Kolejność wykonywania działań, opisaną przy pomocy różnych instrukcji, nazywamy instrukcjami sterującymi. Do najważniejszych z nich należą następujące instrukcje:
następstwa, „wykonaj A, a następnie B",
warunku, tzw. instrukcja jeżeli („if” „jeżeli W to wykonaj A, a jeżeli nie. to wykonaj B",
skoku, „go to” „jeżeli W to skocz do A, jeżeli Q to skocz do B, jeżeli R to skocz do C", z tym że poszczególne wielkości A, B, C mogą być w różnych miejscach algorytmu.
Instrukcja skoku jest przez niektórych specjalistów krytykowana jako nieelegancka i ucząca złych nawyków w programowaniu. Instrukcja ta może też wprowadzać trudności techniczne, np. skok do pętli.
Tworzone algorytmy mogą być proste lub złożone. Złożone algorytmy są wtedy, kiedy zawierają podprogramy, które z kolei wywołują inne programy w celu pełnego opisu działania. Zazwyczaj algorytm rozwiązania danego zadania przedstawiony jest w formie:
opisu słownego,
notacji matematycznej,
graficznego schematu blokowego lub innej formy zapisu graficznego (tablica decyzyjna; tablica krzyżowa).
Opis słowny stosowany jest najczęściej i przykładami tego są:
Przepisy kulinarne.
Instrukcje składania mebli.
Instrukcje obsługi urządzenia, np. kamery wideo. - Wypełnienie zeznania podatkowego tzw. PIT.
Sporządzenie bilansu działalności firmy.
W notacji matematycznej dla prezentacji algorytmu korzysta się z typowych wzorów i reguł matematycznych. Prezentacja ta jest uzupełniania odpowiednimi komentarzami. Przykładami tego typu algorytmu są między innymi:
Rozwiązanie równań matematycznych.
Obliczanie pierwiastków równania.
Rozwiązanie modelu matematycznego programowania, np. metodą Simple.
Obliczenie ścieżki krytycznej w modelach graficznych typu PERT/CPM.
Schemat blokowy - jest najbardziej popularną metodą graficznej prezentacji algorytmu. Narzędzie to jest stosowane powszechnie dla rozwiązania złożonych problemów. Zasady budowania schematów blokowych są niezwykle proste. Cechują się małą liczbą elementów, co pozwala na łatwość kontroli. Schemat blokowy składa się z następujących elementów:
Strzałka, która wykazuje powiązania między poszczególnymi elementami schematu blokowego.
Operand -- prostokąt, w którym przedstawia się czynności arytmetyczne lub organizacyjne, dzięki którym otrzymuje się nową wartość, nowy format zapisu.
A=: B+C
Przy czym każdy operand ma powiązania z operandami poprzedzającymi co najmniej jednym i jednym operandem następującym.
Predykat lub też blok warunkowy, który przedstawiony jest w postaci rombu. Do predykatu wchodzi zawsze tylko jedna strzałka, wychodzą zaś zawsze dwie. W predykacie przedstawione są czynności logiczne, które służą do sprawdzenia, czy dany warunek został spełniony.
Objaśnienia, które służą do przedstawienia komentarza dla użytkownika, graficznie przedstawione są w postaci nie zamkniętego prostokąta.
Etykiety przedstawiające początek lub koniec schematu blokowego Etykieta ma tylko strzałki wyjściowe - start, lub strzałki wejściowe - koniec. Graficznie przedstawione są najczęściej w postaci okręgu, elipsy, niekiedy trójkąta.
Łącznik jest to specjalny typ etykiety, który ma za zadanie powiązanie poszczególnych części schematu blokowego, którego nie można przedstawić w jednej zwartej części. Wyróżnia się łączniki stronicowe, przedstawione w postaci koła, i łączniki międzystronicowe - przedstawione w formie pięciokąta.
Przykładowe elementy schematu blokowego przedstawia rysunek:
OPROGRAMOWANIE
Jak wcześniej stwierdziliśmy pojęcie system komputerowy obejmuje również oprogramowanie. System komputerowy stanowi bowiem spójny zestaw środków sprzętowych i programowych. Oprogramowaniem nazywamy ogół środków programowych dostępnych w systemie komputerowym. Oprogramowanie tworzone jest przy pomocy określonego języka programowania.
Podstawowym elementem oprogramowania jest program, realizowany przez komputer - bliżej przez mikroprocesor. Jest to zatem ciąg instrukcji jakie musi wykonać mikroprocesor w celu realizacji założonego algorytmu opisującego zadany problem.
Program jest więc opisem danego problemu przy pomocy określonego języka w ten sposób, że jest on akceptowany przez komputer (mikroprocesor).
Oprogramowanie z języka angielskiego zwane jest też softwarem.
Analizując relacje między ceną sprzętu (hardware) a oprogramowaniem (software) zauważyć można, że w poszczególnych latach uległa ona dużym zmianom. Początkowo cena sprzętu komputerowego była bardzo wysoka w stosunku do ceny oprogramowania. Obecnie możemy zaobserwować tendencje do coraz większego udziału ceny oprogramowania w całości wydatków na informatykę. Mimo że ceny systemów komputerowych w całości spadają, to ceny sprzętu ulegają o wiele większej obniżce niż ceny oprogramowania. Przedstawiona w tej części wykładu analiza oprogramowania została przeprowadzona w odniesieniu do komputerów personalnych. Większość zagadnień ma charakter uniwersalny, jednakże przedstawione przykłady dotyczą najbardziej popularnych komputerów, jakimi są komputery personalne (osobiste użytkownika). W większości zatem sytuacji spotkamy się w praktyce właśnie z tego typu oprogramowaniem. Podział oprogramowania związany jest z rodzajem komputerów, dla których to oprogramowanie zostało zaprojektowane.
Jak wiemy komputer jest urządzeniem działającym według ściśle określonych reguł. Aby go wykorzystać w swoich działaniach musi on posiadać określoną listę czynności do wykonania.
Programowanie jest więc pewną sekwencją działań składających się m.in. z:
opracowania algorytmu rozwiązania problemu,
przetłumaczenia algorytmu na wybrany język komunikacji człowiek - komputer,
uruchomienia i zrealizowania programu.
A zatem na udany nowoczesny i efektywny produkt informatyczny składają się trzy podstawowe moduły:
właściwy i dobrze zrealizowany produkt,
poprawne oprogramowanie,
odpowiedni sprzęt.
Oprogramowanie komputera decyduje w dużej mierze o:
jego możliwościach wykorzystania,
wykonywania określonych (założonych) zadań.
Dlatego też z punktu widzenia użytkownika sprzętu komputerowego „komputer jest tak dobry jak dobre jest jego oprogramowanie”, ono bowiem decyduje o rzeczywistej wartości komputera gdyż steruje pracą poszczególnych modułów sprzętu komputerowego, nadzoruje ich wykorzystanie i współdziałanie, sprawdza poprawność działania komputera a przede wszystkim współpracuje z użytkownikiem i realizuje jego zadania.
Na koszt zrealizowania prawidłowo funkcjonującego systemu komputerowego około 70% kosztów to koszt produkcji programów umożliwiających pracę systemu.
Reasumując można więc powiedzieć że od cech i jakości oprogramowania zależy łatwość posługiwania się komputerem jak i zakres wykonywanych przez niego zadań zadanych przez użytkownika.
Z punktu widzenia użytkownika obsługującego komputer oprogramowanie jest jakby otuliną okrywającą komputer przy czym ta otulina programowa złożona jest z kilku warstw, w efekcie tego użytkownik komunikuje się zwykle nie bezpośrednio ze sprzętem, lecz z określonym programem należącym do jego otoczenia.
Graficznie można to zilustrować w następujący sposób
Z punktu widzenia użytkownika systemu komputerowego oprogramowanie możemy podzielić na następujące moduły:
Dla decydentów nie są istotne problemy funkcjonowania oprogramowania systemowego zarządzającego systemem. Decydent jako użytkownik sprzętu komputerowego wykorzystuje tylko oprogramowanie narzędziowe oraz użytkowe. Granica pomiędzy nimi jest jednak trudna do ustalenia gdyż na dynamicznym rynku oprogramowania pojawiają się programy będące aplikacjami programów narzędziowych oraz programy narzędziowe umożliwiające przystosowanie ich do potrzeb programów użytkowych.
Oprogramowanie systemowe to zbiór programów, które są niezbędne w pracy komputerów niezależnie od ich zastosowania; są one opracowane najczęściej przez producentów sprzętu lub osoby zamawiające. Oprogramowanie systemowe, które będzie dalej przedstawione, nie jest pod kątem funkcjonalnym, jednoznaczne. Część oprogramowania czyli oprogramowanie, które możemy nazwać podstawowym (system operacyjny) jest tego typu, że bez ich udziału komputer nie byłby zdolny do pracy. Druga grupa ma mniejsze znaczenie, a ich zadaniem jest ułatwienie pracy użytkownika i pozwolenie na to aby ta praca była zgodna z przyjętymi standardami i wymaganiami. Podstawowe oprogramowanie systemowe jest dostarczane przez producenta wraz ze sprzętem, a jego cena jest zawarta w kontrakcie zakupu sprzętu.
Oprogramowanie użytkowe obejmuje zbiór programów, które są opracowane pod kątem realizacji konkretnych zadań i spełniających określone potrzeby użytkownika. I tak, jeśli oprogramowanie systemowe realizuje powtarzalne zadania wspólne dla różnych zastosowań, to oprogramowanie użytkowe służy do rozwiązania i realizacji konkretnych potrzeb użytkownika.
Podział na oprogramowanie systemowe i użytkowe nie zawsze jest ostry i jednoznaczny. Istnieje wiele pakietów oprogramowania, które realizują zadania systemowe jak i użytkowe. Odnosi się to zwłaszcza to współczesnego oprogramowania komputerów personalnych takiego jak przykładowo pakiet WlNDOWS.
Niezależnie od stosowanego stylu i typu programowania należy w konsekwencji dany algorytm napisać w takim języku, który będzie zrozumiały dla komputera. W tym sensie:
język programowania można określić jako zbiór znaków (słownik), oraz zbiór reguł posługiwania się nimi i ich interpretacji w procesie komunikowania się.
Komputer, aby mógł przetworzyć problem opisany w postaci algorytmu musi być opisany językiem programowania. Na ogół język programowania składa się z notacji i reguł, według których pisze się program.
B. Stefanowicz w podręczniku „Metody i techniki programowania komputerów” PWE, Warszawa 1987 - stawia językowi programowania - jako metodzie porozumiewania się człowieka z komputerem następujące wymagania:
Język musi być łatwy do opanowania przez człowieka i posługiwania się nim,
Sformalizowanie języka musi zapewnić jednoznaczność wszystkich jego elementów (znaków, wyrazów, zdań, zwrotów), co ułatwi opracowanie odpowiednich zasad wykonywania przez maszynę każdego polecenia, jakie w tym języku zostanie sformalizowane.
Język musi umożliwiać zakodowanie minimalnego zbioru operacji elementarnych, niezbędnych do wykonania określonych prac na komputerze,
Jest wskazane aby język umożliwiał także proste kodowanie operacji specyficznych dla danej klasy zastosowań.
Język powinien uwzględniać techniczne możliwości i wymagania dostępnego sprzętu oraz umożliwiać pisanie programów według znanych metod programowania.
Uogólniając te wymagania względem języka komunikacji człowiek - komputer można to sprowadzić do tezy wymagań:
łatwość posługiwania się
pełność realizacji żądań
A więc stan idealny to możliwość stosowania jako języka komunikacji człowiek - komputer JĘZYKA NATURALNEGO.
Języki programowania można przedstawić z dwóch punktów widzenia:
z punktu widzenia człowieka - a więc styl tworzenia programów,
z punktu widzenia komputera - a więc formalnie języki programowania.
Ad A.
Z punktu widzenia stylu tworzenia programów możemy wyróżnić:
programowanie proceduralne,
programowanie deklaratywne,
programowanie obiektowe,
programowanie strukturalne.
PROGRAMOWANIE PROCEDURALNE - charakteryzuje się tym, że program powinien zawierać pełny opis rozwiązania problemu opisanego danym algorytmem. Program składa się w tym przypadku z dwóch części:
deklaratywnej, w której opisuje się obiekty (dane), na których działa
proceduralnej, w której opisuje się czynności (instrukcje), które są wykonywane na tych danych.
PROGRAMOWANIE DEKLARATYWNE - polega na określeniu związków czyli relacji pomiędzy danymi a wynikami. Przy tego typu programowaniu nie kładzie się nacisku na „JAK PRZETWARZAĆ” (programowanie proceduralne) ale „CO MA BYĆ PRZETWARZANE”. Przykładowym językiem jest język PROLOG.
PROGRAMOWANIE OBIEKTOWE - jest próbą połączenia zarówno programowania proceduralnego i deklaratywnego. Jest to metoda programowania, w której program jest opisem działania zbioru wzajemnie powiązanych obiektów. Na opis obiektu składa się kilka następujących charakterystyk: metody, atrybuty, dziedziczenie, reguły, otoczenie. Przykładowe języki to: FRL, KEE, SMALLTALK do prezentacji wiedzy w bazach wiedzy.
PROGRAMOWANIE STRUKTURALNE - powstało na odpowiedź na niedostatki oprogramowania tradycyjnego - celem tego programowania jest rygorystyczna organizacja procesu projektowania i kodowania programu w dążeniu do zapobieżenia błędów logicznych i innych. Ma ono następujące cechy:
jest zastępujące,
modułowe.
Przykładowe języki to PASCAL i PL1
Ad B.
Języki programowania z punktu widzenia stopnia uzależnienia się od komputera możemy umownie podzielić na:
JĘZYK WEWNĘTRZNY MASZYNY (kod maszynowy) składa się z rozkazów mikroprocesora reprezentowanej w formie binarnej nr rozkazu adres kodu operacji, operandu
JĘZYKI SYMBOLICZNE - notacja w postaci skrótowych oznaczeń poszczególnych instrukcji oraz symbolicznych nazw danych i komórek pamięci, SAKO, MOST, MACRO PLAN,
JĘZYKI WYŻSZEGO RZĘDU zorientowane maszynowo - komputery ICL - PLAN, komputery IBM - Assembler
PROBLEMOWE m.in. do: przykładowe języki
obliczeń matematycznych Algol, Pascal, Fortran, Simula,
ekonomicznych Cobol, Pl1
konwersacyjne Basic, Jean, C
komunikacji z bazami danych Sqel, Query, Alpha
specjalistyczne - narzędziowe Psl/Psa, Portes
NATURALNE
OPROGRAMOWANIE SYSTEMOWE.
W oprogramowaniu systemowym zgodnie z przedstawioną uprzednio typologią, wyróżnić można następujące grupy:
systemy operacyjne,
translatory,
oprogramowanie dla testów i diagnostyki komputera,
oprogramowanie komunikacyjne,
oprogramowanie pomocnicze.
System operacyjny jest programem nadzorującym pracę wszystkich urządzeń systemu komputerowego, tworząc środowisko, w którym pracują inne programy. Jest więc zbiorem procedur zarządzających pracą całego systemu komputerowego. Podstawowe zadania systemu operacyjnego są następujące:
obsługa komunikacji człowiek - komputer,
przydział czasu pracy procesora dla poszczególnych użytkowników,
nadzór wymiany informacji między elementami systemu komputerowego,
zarządzanie pamięcią operacyjną,
uruchomienie innych programów w tym programów użytkowych,
sygnalizacja błędów i niesprawność urządzeń.
System operacyjny komputera - ogólna charakterystyka W systemie operacyjnym bardzo często spotykanym jakim jest MS DOS można wyróżnić wzajemnie z sobą współpracujące moduły:
ROM.BIOS
IO.SYS
MS.DOS.SYS
COMMAND.COM
Strukturę systemu operacyjnego na bazie DOS można przedstawić następująco.
System operacyjny dzieli się więc na:
część stałą „zatopioną” w ROMie - PAO (pamięci operacyjnej),
część ruchomą przechowywaną w pamięci masowej.
Umieszczenie systemu w ROMie, a więc części statycznej pamięci operacyjnej ułatwia użytkownikowi, stwarza wygodę w tym względzie, że sprzęt i zarządzający nim system widziane są jako jedna całość.
Zaś umieszczenie systemu w pamięci masowej zwiększa jego elastyczność i pozwala przy mniejszych kosztach zmieniać jego wersje a także dostosowywać go do różnej konfiguracji sprzętowej.
ROM.BIOS - jest zbiorem elementarnych programów i procedur zapisanych przez producenta w jego pamięci stałej ROM.
Wyróżniamy w nim:
program testujący POST (ang. POWER ON SELF TEST) - testuje sprzęt komputerowy, pamięć, rejestratory przerwań,
tzw. BOOT - program inicjujący wczytywanie pozostałych modułów systemu operacyjnego
procedury obsługi podstawowych urządzeń We/Wy tj. klawiatury , monitora, dysków i drukarki - procedury te pośredniczą pomiędzy wyższymi warstwami oprogramowania i sprzętem - to właśnie dzięki nim programiści mogą pisać programy bez konieczności wnikania w szczegóły techniczne urządzeń.
WARSTWOWA STRUKTURA SYSTEMU OPERACYJNEGO
na bazie DOS
GDZIE JĄDRO SYSTEMU
IO.SYS - moduł ten traktuje się jako zewnętrzne rozwinięcie modułu BIOS, jego podstawowym zadaniem jest:
- obsługa urządzeń WE / WYJ na podstawowym poziomie
MSDOS.SYS - moduł do obsługi zasobów informacyjnych przechowywanych w PM. Zarządza buforami urządzeń dyskowych oraz wykonuje pewne funkcje systemowe
- związane z obsługą programów narzędziowych i użytkowych.
POWŁOKA - INTERPRETER POLECEŃ SYSTEMOWYCH
jego zadaniem jest rozpoznawanie i realizowanie poleceń użytkownika,
program wprowadzony zostaje na cały czas działania komputera - jego naczelne zadanie to rozpoznawanie poleceń,
niektóre sam wykonuje zaś pozostałe zleca programom pomocniczym. Programy te wprowadzane są do PAO wybiórczo i tylko na czas niezbędny do wykonania - dlatego mamy podział na polecenia systemowe
wewnętrzne - wykonywane przez COMMAND.COM
zewnętrzne - wykonywane przez programy pomocnicze - wywoływane z PM.
- OTOCZENIE - to programy pomocnicze, programy komunikacyjne, aplikacje użytkownika.
Programy pomocnicze uzupełniają plik COMMAND.COM nadając aktywność realizowanym przez użytkownika aplikacjom oraz realizacją poleceń zewnętrznych.
Programy komunikacyjne - programowe sterowniki zwane drajwerami - są to programy do obsługi niestandardowych urządzeń zewnętrznych, takich jak:
rozszerzona pamięć,
myszka, skaner, pióro świetlne,
dysk wirtualny itp.
SYSTEM OPERACYJNY MS DOS jest zorientowany na system komputerowy i stanowi jego część zaś MS WINDOWS zorientowany jest na użytkownika, który do komunikacji z komputerem wykorzystuje grafikę (ikony).
W/g P. Nortona MS WINDOWS jest popularny gdyż:
Graficzny INTERFEJS użytkownika sprawia, że użytkowanie komputera i jego programów jest łatwiejsze (okna ikony) powtarzalność okien w aplikacjach zaś w komunikacji KOMPUTER-UŻYTKOWNIK - zamieniono słowa w grafikę.
Umożliwia bardzo dobrą współpracę między różnymi aplikacjami - a więc ułatwia obsługę i wymianę danych.
przełączanie się pomiędzy aplikacjami
technika OLE (połączenia i osadzania)
ikony reprezentują funkcje i instrukcje
Wyjątkową funkcjonalność tego systemu zapewnia sieciowa instalacja interaktywnego, unikalnego, multimedialnego połączenia sprzętowego w ramach systemu.
Realizacja współpracy między aplikacjami jest możliwa dzięki standardowej wymianie danych DDE (Dynamic Data Exchange) - Dynamiczna wymiana danych.
Standard DDE tworzy realizowany na poziomie programisty Interfejs, który umożliwia aplikacjom dla Windows dostęp do danych pochodzących z innych aplikacji.
W konsekwencji uzyskuje się narzędzia, które pozwalają na aktualizację informacji.
Uruchomienie systemu operacyjnego dokonuje się po włączeniu zasilenia komputera. Włączając komputer uruchamia się podstawowy moduł tzw. BIOS (Basic lnput Output System), czyli Podstawowy System Wejścia Wyjścia. Moduł ten umieszczony jest w pamięci ROM i dzięki niemu istnieje możliwość wczytania pozostałej części systemu z dysku twardego bądź z dyskietki systemowej.
W ten sposób nie musi być cały system operacyjny przechowywany w pamięci operacyjnej, lecz tylko jego niewielka część. Dla użytkownika taka organizacja nie ma znaczenia, ponieważ po włączeniu do sieci komputera czeka na meldunek systemu, że jest on gotów do pracy. Znak gotowości do pracy pojawia się po kilku lub kilkudziesięciu sekundach od momentu włączenia komputera. Gotowość do pracy jest sygnalizowana pojawieniem się na ekranie znaku C>_ lub podobnego. W sytuacji, gdy uruchomienie komputera nastąpi z dyskietki systemowej, włożonej do napędu dysków elastycznych A, na ekranie monitora pojawi się znak A>_. Litery A, C, lub inne litery mówią o tym, który dysk jest dyskiem aktualnym (inaczej bieżącym). Od tego momentu możemy wydawać systemowi operacyjnemu polecenia. Do najczęściej wydawanych poleceń systemowych należą:
- Formatowanie dyskietki czyli przygotowanie dyskietki do pracy-polecenie to najczęściej jest podane w postaci FORMAT A. Uwaga! należy sprawdzić aby wpisać właściwy dysk, wpisanie bowiem niewłaściwego dysku, powoduje straty zapisanych na nim programów i danych. Nie należy formatować dysków, na których mamy zapisane potrzebne nam informacje.
- Tworzenie katalogu dyskowego. a w tym: wyświetlanie jego zawartości poleceniem DIR (DlRectory), stworzenie katalogu - MD Katalog (Make Directory), zmiana katalogu - CD Katalog (Change Directory), usunięcie katalogu - RD Katalog (Remove Directory).
- Kopiowanie plików przy pomocy polecenia COPY skąd/co dokąd ew. nowa nazwa lub też kopiowanie całego dysku DISKCOPY skąd/dokąd.
Istnieje o wiele więcej poleceń realizowanych przy pomocy systemu operacyjnego. Wymienione polecenia są tylko przykładem niektórych z nich.
Użytkownik kupując system komputerowy ma do dyspozycji wiele różnych systemów operacyjnych. Dla dużych komputerów popularne są szczególnie:
ODS (Disk Operating System) i OS Operating System). Systemy te są stale udoskonalane i występują w różnych wersjach oznaczonych odpowiednimi numerami. Wersje tych systemów różnią się tym dla jakich zadań są one przeznaczone. I tak: MFT przeznaczony jest dla stałej ilości zadań, a MVT dla zmiennej ilości zadań.
Obok wymienionych systemów operacyjnych, dla dużych komputerów istnieją też inne systemy, tzw. wirtualne, np. SVS, MVS, VM.
Dla komputerów personalnych najbardziej popularne są systemy, uznane jako standardy dla komputerów typu IBM, a mianowicie:
MS DOS dla pracy autonomicznej,
systemy bazujące na systemie UNIX (głównie wersja XENIX) dla konfiguracji sprzętowych wielodostępnych.
Programy tłumaczące (translatory). Programy niezależnie od użytego języka programowania muszą być, jak już wcześniej wspomniano, przetłumaczone na instrukcję języka maszynowego. Istnieją trzy podstawowe sposoby tłumaczenia programów: interpretacja, kompilacja, asemblacja.
Interpretacja wykonywana jest przez specjalne programy zwane interpreterami. Interpretator tłumaczy program w trakcie wykonania. Działanie interpretatora polega na tym, że program analizuje kolejne programy, krok po kroku, bada ich poprawność, rozpoznaje jakie czynności należy wykonać i realizuje je. Interpretatory są z natury powolne i mało wydajne. Wynika to z faktu, że tłumaczenie odbywa się bez przerwy - nie tylko podczas każdego uruchomienia programu, ale także, gdy któryś z jego kroków jest powtarzany. W realnych programach wiele elementów jest realizowanych na drodze powtarzania kroków, tzw. pętli. Dlatego też wiele instrukcji jest podczas interpretacji tłumaczonych kilkakrotnie. Zaletami interpretacji są: łatwość lokalizacji błędów i możliwość wprowadzenia poprawek w każdym momencie.
Kompilacja wykonywana jest przez specjalne programy zwane kompilatorami. Kompilator analizuje program napisany w określonym języku zewnętrznym, nazywany programem źródłowym. W następnym etapie zamienia go na równoważny program w języku wewnętrznym, nazywany programem wynikowym.
Po zakończeniu procesu transakcji do dalszej pracy używa się już wersji wynikowej. W ten sposób kompilacja jest krótsza niż interpretacja. Czas tłumaczenia zależy od języka oraz długości i złożoności programu źródłowego. Wiele kompilatorów ma wbudowane mechanizmy pozwalające na optymalizacje programów.
Asemblacja wykonywana jest przez specjalny program zwany asemblerem. Asemblacja jest podobna do kompilacji, z tym, że programy tłumaczone są na język maszynowy, zaś samo tłumaczenie jest integralną częścią tworzenia programu. Oznacza to, że użytkownik nie musi oczekiwać na realizację tłumaczenia w jego trakcie i nie musi też posiadać programów tłumaczących. Programy przygotowane w taki sposób są kompletne i gotowe do uruchomienia, w przeciwieństwie do programów interpretowanych, które mogą być uruchomione tylko w obecności i przy pomocy interpretatora. Programy asemblerowe są jednak bardzo pracochłonne i w stosunku do kompilatorów dość proste.
W języku asemblerowym programista musi wpisać treść każdej instrukcji języka maszynowego, która będzie realizować gotowy program. W językach wysokiego poziomu program budowany, jest z większych kroków, które w procesie translacji przetwarzane są na grupy instrukcji języka maszynowego. Według tego właśnie rozróżnienia translatory języków asemblerowych nazwano asemblerami, a języków wyższego rzędu - kompilatorami (porównaj rozdział o kodowaniu algorytmów). Programista asemblerowy współpracuje z komputerem na stosunkowo niskim poziomie i operuje elementarnymi instrukcjami języka maszynowego.
Jak stwierdza P. Norton „kompilator okazuje się być narzędziem bardzo skomplikowanym, dopuszczającym ogromne zróżnicowanie jakości (jeden kompilator może generować kod bardzo wydajny - inny kiepski), w odróżnieniu od asemblerów, których różnice takie nie dotyczą".
W zależności od punktu spojrzenia na proces tłumaczenia można uważać, jak w niektórych podręcznikach z zakresu oprogramowania, że kompilatory i asemblery są modyfikacją tego samego narzędzia, lub też - jak przedstawiono w tym rozdziale - że tworzą zupełnie różne. Oprogramowanie dla testów i diagnostyki komputerów (monitoring sprzętu i oprogramowanie), umożliwia sprawdzenie i sprawne działanie poszczególnych elementów systemu komputerowego. Oprogramowanie to stanowi zróżnicowany pakiet, którego zawartość zależy od konstrukcji i możliwości finansowych użytkownika; najczęściej elementami jego są następujące programy:
testy diagnostyczne sprzętu pozwalające na wykrywanie uszkodzeń,
testy dla usuwania awarii i umożliwienia stosowania dróg obejściowych,
programy antywirusowe.
W ostatnich latach szczególnie te ostatnie są niezmiernie istotne i powodują, że użytkownik może utracić w niezamierzony sposób dane i programy. Wirus komputerowy jest to celowo napisany przez człowieka program, którego głównym zadaniem jest powielenie samego siebie, często z bardzo dużą szybkością i umieszczenie go w określonych miejscach. Najczęściej wirus umieszczony jest na dysku lub w pamięci operacyjnej. Wirusy bardzo często realizują zadanie, które im polecił jego twórca, np. generowanie komunikatów typu "kiss my... keyboard" (pocałuj mnie w ...klawiaturę), generowanie dźwięków, przykładowo piosenki „szła dzieweczka do laseczka", lub fałszowanie i niszczenie pliku. Niektóre wirusy powodują też fizyczne uszkodzenie sprzętu.
Do walki z tego typu programami stosuje się programy antywirusowe oraz przedsięwzięcia profilaktyczne. Przedstawimy niektóre z nich.
Programy antywirusowe są następujących typów:
„szczepionki" które są przeznaczone do zwalczania konkretnego wirusa,
"szperacze" systematycznie analizujące dane i sygnalizujące wystąpienie wirusa,
„blokery", które uniemożliwiają rozmnożenie się wirusa na inne programy,
„lekarze", czyli programy pozwalające na eliminowanie wirusów już zakażonych programów.
Jednym z takich najbardziej popularnych w Polsce programów do zwalczania wirusów jest program o nazwie MKS-VIR, którego autorem jest Marek Sell. Program ten usuwa kilkaset wirusów.
Najlepiej jest jednak nie dopuścić do zakażenia wirusem poprzez działania profilaktyczne. Zasady postępowania w tym zakresie powinny być następujące:
używać tylko licencjowanego oprogramowania,
bez względu na źródło pochodzenia każdą otrzymaną dyskietkę należy sprawdzić dobrym programem antywirusowym.
własną dyskietkę, która została pożyczona lub włożona do innego komputera należy potraktować jako dyskietkę pochodzącą z nieznanego źródła i należy również sprawdzić dobrym programem antywirusowym,
należy sporządzić kopie programów i danych, szczególnie tych które trudno będzie odtworzyć,
dyskietki, które będą używane tylko do odczytu powinny być specjalne zabezpieczone przed zapisaniem.
okresowo należy analizować swoje zbiory danych i programy programem antywirusowym.
Można wręcz stwierdzić, że nigdy nie jest dość ochrony przed wirusami komputerowymi. Wirus komputerowy nie zawsze się uaktywnia po zainfekowaniu. Niektóre, jak np. wirus „Michał Anioł", dają o sobie znać raz na cztery lata (29 lutego). Są też już wyroki sądowe za zainfekowanie wirusami. Jednym z najbardziej znanych wyroków za takie działanie jest dwa lata więzienia i 100 tys. dolarów grzywny, dla sprawcy zainfekowania w 1990 roku, 6000 komputerów przy pomocy sieci Internet.
Do grupy programów diagnostycznych zaliczyć można też programy monitujące. Dzięki programom monitującym można określić „wąskie gardła" systemu komputerowego, jak też te jego miejsca, które nie są w pełni wykorzystane. W ten sposób użytkownik otrzymuje wskazania w którym kierunku konfiguracja sprzętu powinna być rozbudowana oraz informacje co do wykorzystania posiadanych zasobów.
Zainstalowany w komputerach personalnych program MSD (Microsoft System Diagnostics) pozwala na uzyskanie informacji o konfiguracji i sprawności komputera.
Oprogramowanie komunikacyjne stanowią programy, które pośredniczą pomiędzy systemami operacyjnymi, łączami transmisji i programami użytkowymi; celem jest pozwolenie na równoczesną pracę wielu użytkowników, którzy korzystają z takich samych zasobów komputerowych. Oprogramowanie to synchronizuje pracę tych użytkowników, jak też zarządza przekazywanie danych i programów między powiązanymi ze sobą komputerami. Pozwala też na przesyłanie informacji między nawet bardzo odległych użytkowników w postaci poczty elektronicznej (szerzej będzie to zagadnienie przedstawione w następnym rozdziale). Jego efektem jest umożliwienie wspólnego wykorzystania określonych zasobów; np. pamięci dyskowej. drukarek.
Oprogramowanie pomocnicze jest grupą oprogramowania systemowego najbardziej zróżnicowaną ze względu na postawione przed nią zadania. W skład tej grupy wchodzą zarówno pojedyncze programy, realizujące wycinkowe zadania w zakresie gospodarki danymi, jak i rozbudowane pakiety programowe, mające za zadanie rozszerzenie możliwości systemów operacyjnych. Do tego typu oprogramowania należą między innymi tak popularne pakiety programowe jak PC-TOOLS, XTREE, NORTON COMMANDER. Oprogramowanie takie często nazywane jest nakładkami (shell). Programy te - jak pisze P.Norton - którymi „omija się" system operacyjny, uzupełniają jego brakujące możliwości. Programy te mają wiele różnych funkcji, a do najważniejszych z nich należy:
poprawienie użytkowania systemu operacyjnego, czyli umożliwienie znacznie wygodniejszego sposobu komunikacji z komputerem,
umożliwienie jednoczesnego korzystania z więcej niż jednego programu.
Aby w pełni efektywnie wykorzystywać system komputerowy w działalności menedżerskiej należy dbać o środowisko pracy, a więc regularnie konserwować oprogramowanie (system operacyjny), a swoje zasoby - dobrze zabezpieczać. W tego typu czynnościach pomagają specjalne programy nazwane programami narzędziowymi. Najbardziej znane z nich to archwizery, deinstalatory, programy antywirusowe, porządkujące pamięci masowe (dyski) oraz pomagające w odzyskiwaniu plików, folderów itp. Obecnie na rynku informatycznym wybór programów narzędziowych jest znacznie bogatszy niż był dotychczas. Pojawiło się sporo ciekawych programów do współpracy z Internetem (np. szyfrujących przesyłane dane), strzegących dostępu do zasobów komputera czy też automatyzujących ich pracę.
Oprogramowanie narzędziowe zwykle realizuje porządkowanie pamięci masowych, którą to czynność podejmujemy przeważnie dopiero wtedy, gdy komunikat „Za mało miejsca na dysku” uniemożliwia normalną pracę. W takich sytuacjach porządkowania na dysku pomaga, usunięcie zbędnych plików, porządkując sektory i cylindry, a tym samym zwiększając efektywność systemu komputerowego (zapis - odczyt). Microsoft Windows jest specyficznym rodzajem oprogramowania. Wydzielony został on z dwóch względów: po pierwsze z uwagi na jego popularność - trudno bowiem znaleźć współczesny personalny komputer typu IBM, na którym nie byłby on zainstalowany, po drugie, że jest to program bardzo uniwersalny zawierający w sobie już system operacyjny, szereg programów wspomagających oraz znaczną gamę aplikacji narzędziowych, komunikacyjnych i użytkowych.
MS Windows jest przedstawicielem oprogramowania, które do komunikacji z użytkownikiem wykorzystuje grafikę (ikony). Taki rodzaj komunikacji z użytkownikiem określa się mianem Graficznego Interfejsu Użytkownika w skrócie GUI (Graphical User Interface).
W komunikacji tej bowiem zamieniono słowa na grafikę i polega ona na zastąpieniu nazw instrukcji przez rysunki, tzw. ikony, które reprezentują funkcje i instrukcje.
Używając klawiszy kursora lub myszki można wskazać polecenia, które chce się wykonać i uruchomić poprzez naciśnięcie klawisza ENTER, lub przycisku myszki (popularnie określa się to terminem - kliknięcie). Jednak należy pamiętać o tym, że zastąpienie trybu tekstowego przez graficzny zwiększa wymagania sprzętowe. Proste operacje, takie jak formatowanie dyskietek, czy kopiowanie plików do innego pliku, mogą być wykonywane szybciej i łatwiej w systemie DOS-a niż w Windows.
System operacyjny typu DOS lub MS DOS jest w zasadzie zorientowany na system komputerowy i stanowi jego część. System MS Windows jest natomiast zorientowany na użytkownika. Graficzny interfejs użytkownika, jakim jest MS Windows, jest programem, który przedstawia dane i polecenia w formie symboli graficznych. Osoby, które korzystają z tego pakietu manipulują tymi symbolami zamiast wpisania konkretnych poleceń.
Według P.Nortona istnieje kilka powodów, dzięki którym MS Windows stał się tak popularny:
po pierwsze graficzny interfejs użytkownika - GUI sprawia, że używanie komputera i jego programów staje się łatwiejsze.
po drugie bardzo dobra współpraca pomiędzy różnymi aplikacjami, a co za tym idzie, ułatwienie obsługi i wymiany danych. Dane i obrazy można łatwo przenosić z jednego programu do drugiego. Można również tworzyć połączenia pomiędzy aplikacjami tak, aby zmiana danych w jednym programie była natychmiast uwzględniona w dołączonej aplikacji. Realizacja współpracy między aplikacjami jest możliwa dzięki standardowej wymianie danych DDE (Dynamic Data Exchange - dynamiczna wymiana danych). Standard DDE tworzy realizowany na poziomie programisty interfejs, który umożliwia aplikacjom dla Windows, dostęp do danych pochodzących z innych aplikacji. W konsekwencji uzyskuje się narzędzia, które pozwalają na aktualizację informacji.
po trzecie Zastosowanie Techniki Łączenia i Osadzenia Obiektów czyli techniki OLE (Object Linking and Embedding). Jest to forma wymiany danych. Po wstawieniu obiektu do pliku lub docelowego dokumentu można uruchomić aplikacje, która go stworzyła, i manipulować danymi przy pomocy myszki.
Korzystając z systemu MS Windows należy pamiętać, że podstawowym jego elementem jest Menedżer programów (Program Manager), który zarządza grupami programów i tworzy interfejs użytkownika systemu Windows oraz obsługuje instalowane i uruchamiane aplikacje. Grupa (Group) jest zbiorem plików i programów wyświetlanych przez Menedżera, programów jako pojedyncza ikona. Ikony poszczególnych programów przechowywane są wewnątrz grup, co ułatwia zarządzanie aplikacjami. Menedżer programów, ikony, okienka grup oraz okienka aplikacji tworzą tak zwany pulpit (desktop) Windows, czyli ekranową reprezentację obiektów, która umożliwia korzystanie z zasobów i funkcji komputera. W Windows obiektem jest każdy symbol na ekranie, którym można manipulować. Większość obiektów Windows ma postać ikon lub małych rysunków.
Każdy program, który jest elementem Windows ma swoją własną strukturę menu lecz pewne jego elementy są wspólne dla wszystkich aplikacji. Są tam podmenu Plik (File), Edycja (Edit) oraz Pomoc (Help) i inne. Aplikacje użytkownik uruchamia zazwyczaj myszką i przy jej pomocy - wskaźnikiem myszki (mouse pointer) wskazuje się wybrany obiekt. Po wybraniu, obiekt można uruchomić lub zaznaczyć i wykonać z nim żądaną operację. W sytuacjach awaryjnych (uszkodzenie myszki lub chęć użytkownika do korzystania z aplikacji) można użyć klawiatury. Istotnym szczególnie klawiszem, jest klawisz funkcjonalny F1, którego użycie powoduje wywołanie pomocy. Ważna jest kombinacja klawiszy CTRL-TAB, którą stosuje się wtedy, kiedy nie widzi się na ekranie Menedżera programów, żądanej grupy itp. Oznaczać to może jedną z następujących sytuacji: grupa jest otwarta i zasłonięta przez inne okno, zamknięta lecz zasłonięta przez inne okno, ewentualnie okno Menedżera programów jest za małe. W takim przypadku wielokrotne naciskanie klawiszy CTRL-TAB umożliwia przejścia przez wszystkie dostępne grupy aż do momentu wybrania właściwej.
Programy MS Windows umożliwiają realizację bardzo złożonych zadań, z którymi może w praktyce spotkać się użytkownik.
OPROGRAMOWANIE UŻYTKOWE.
Oprogramowanie użytkowe nosi cechy oprogramowania aplikacyjnego lub też zastosowaniowego. Jego zadaniem jest bezpośrednia realizacja polecenia sformułowanego przez użytkownika. W odróżnieniu od oprogramowania systemowego, oprogramowanie użytkowe tworzone jest przez użytkownika (tzw. software - house), które tworzy on jako oprogramowanie o przeznaczeniu typowym dla większej grupy potencjalnych użytkowników. Programy te są zakupywane lub dzierżawione przez poszczególnych użytkowników na określonych warunkach, takich jak: dostarczenie dokumentacji, szkolenie personelu użytkownika, konsultacje, dostarczanie nowych udoskonalonych wersji systemu.
Zestaw programów zastosowalnych tworzy często tzw. pakiet, który stosuje się przy rozwiązywaniu problemów określonego typu. Popularność i powszechność stosowania komputerów personalnych wynika między innymi z faktu , że użytkownik może się posługiwać stosunkowo tanim i ogólnie dostępnym oprogramowaniem użytkowym. Posługiwanie się tym oprogramowaniem nie wymaga znajomości języka programowania, a jedynie poznania zasad używania prostych instrukcji. Oczywiście przy bardziej złożonych programach sytuacja jest bardziej skomplikowana, ale stosowane programy wspomagające powodują, że użytkownik jest prowadzony przez system „za rękę". Takie podejście do użytkownika spowodowało, że oprogramowanie to często nazywane jest oprogramowaniem przyjaznym.
W ramach oprogramowania użytkowego wyróżnia się duże dwie ich klasy, a mianowicie:
Oprogramowanie własne, które opracowywane jest bezpośrednio przez użytkownika, lub na jego zlecenie. Zadaniem takiego oprogramowania jest bezpośrednie zaspokojenie konkretnych potrzeb indywidualnego klienta. Zastosowanie tego typu oprogramowania przez innych użytkowników powoduje trudności i wymaga poniesienia dodatkowych kosztów na jego adaptację.
Oprogramowanie biblioteczne, niekiedy i nie najszczęśliwiej zwane typowym, tworzone jest z przeznaczeniem dla różnych użytkowników. Ma ono ogólny charakter, a jego użytkownikami, jak w przypadku MS Office, są miliony klientów. Produkowane jest przez wyspecjalizowane komercyjne firmy.
Oprogramowanie można też sklasyfikować biorąc za podstawę kryterium wielkości komputerów. Istnieje bowiem oprogramowanie, które może być realizowane na dużych i średnich komputerach oraz komputerach personalnych. Wiele pakietów projektuje się z myślą o dużych i personalnych komputerach. Dla tych drugich istnieją pewne pakiety o ograniczonych funkcjach.
Inna klasyfikacja bierze z kolei za punkt wyjścia użytkownika i jego zadania. Będą to więc oprogramowania dla przedsiębiorstw, szkolnictwa, administracji i inne. Oprogramowanie można też analizować według podstawowych celów, któremu ma służyć, np. wspomaganie transakcji, tzw. systemy transakcyjne, systemy informowania kierownictwa, systemy wspomagania decyzji, systemy ekspertowe, systemy wspomagania procesu projektowego.
Nie roszcząc sobie pretensji do całościowej prezentacji (jest to niemożliwe ze względu na ograniczenie objętości tej pracy) przedstawione tu zostaną tylko podstawowe informacje o pakietach przydatnych użytkownikowi, w tym:
systemy Wspomagania Pracy Biurowej (edytory, arkusze kalkulacyjne),
programy graficzne,
systemy Zarządzania Bazą Danych.
Te dwa ostatnie są podstawą bardzo dużej ilości różnorodnych zastosowań.
SYSTEMY WSPOMAGANIA PRACY BIUROWEJ. Najbardziej popularnym pakietem dla wspomagania pracy biurowej jest produkt firmy Microsoft, przeznaczony dla komputerów personalnych zgodnych ze standardem IBM, czyli MS Office. Obecnie wprowadzana jest na rynek wersja MS Office 2000. Mimo, że w pakiecie znajduje się oprogramowanie dotyczące różnych funkcji pracy biurowej, to jednak każdy z programów można również użyć oddzielnie i niezależnie.
Najbardziej popularnymi programami w pracy biurowej są programy operujące na tekstach. Programy operowania na tekstach w zależności od stopnia złożoności funkcji redakcyjnych można podzielić na dwie kategorie, a mianowicie:
edytory tekstów (text editors),
programy przetwarzania tekstów (word or text processors).
Edytory tekstów służą do pisania i poprawiania tekstów, natomiast programy redagowania tekstów służą do przygotowania dokumentów drukowanych. W praktyce obie te grupy traktuje się łącznie i używa się nazwy edytory. Użytkownikami oprogramowania są: pracownicy biurowi oraz wszyscy, którzy przygotowują pracę dyplomową, magisterską, doktorską, czy też powieść.
Przygotowując się do pisania dokumentu należy mu nadać odpowiedni format. Dlatego przed pisaniem tekstu określa się: marginesy, wielkości i krój czcionki, tzw. fonty, odstępy między wierszami, czy i w którym miejscu należy numerować strony tekstu, czy będą stosowane odnośniki. Formatowanie tekstu zależy od możliwości systemu komputerowego, jak i stosowanego programu edycyjnego. Również przed drukowaniem tekstu najczęściej włącza się program edycyjny sprawdzający, czy użyte w maszynopisie przez nas słowa są poprawne ortograficznie i czy nie piszemy dwukrotnie tego samego słowa, czy tekst ma odpowiedni format (marginesy, odstępy itp.)
Korzystając z programu sprawdzającego musimy zadeklarować język, a w przypadku niektórych języków jego odmianę, np. w języku angielskim: brytyjską, amerykańską, czy australijską.
W trakcie pisania tekstu możemy zmieniać wcześniejsze ustalenia i wykonywać tzw. przeformatowanie. Na tekście można wykonać następujące operacje:
operacje na plikach,
operacje pisania i redakcji tekstów,
formatowanie ekranowe,
formatowanie wydruków,
Użytkownik ma do wyboru różne opcje, które są wyświetlane w linii menu. Menu ma strukturę hierarchiczną.
Opracowany przy pomocy edytora tekst ma postać dokumentu tekstowego. Program pozwala na wykonanie drukiem różnorodnych opcji, a w tym: rozpoczęcie pisania tekstu (opcja nowy dokument z menu), zmiana nazwy już założonego tekstu, wykonanie połączenia z innym wcześniej już napisanym, tekstem, zapisanie tekstu i jego przechowywanie na dowolnym nośniku informacji (dyskietka, dysk twardy), wydrukowanie tekstu i jego skasowanie. Dlatego aby, przykładowo, awaria zasilania nie spowodowała utraty napisanego, a nie zabezpieczonego tekstu, komputer co pewien czas zapisuje automatycznie tekst na dysku, najczęściej co 20 minut, jednak można ustalić inny czas, np. co 5 minut lub 10 minut.
Edytory umożliwiają też redagowanie kilku tekstów. Jest to wtedy pomocne, jeżeli chcemy odpowiedzieć na określony list i na jednej stronie ekranu mamy korespondencje, która do nas przyszła, a z drugiej strony list, który wysyłamy. Podobnie przy tłumaczeniach lub powoływaniu się na akty prawne takie ustawienie jest bardzo pomocne.
Tekst wprowadzony do programu edycyjnego przy użyciu klawiatury, jak również wprowadzane z klawiatury poprawki, czy też ich aktualizacja i kasowanie są możliwe dzięki wielości funkcji technologicznych danego edytora. Cenną pomocą, obok wspomnianego już wcześniej programu sprawdzającego, jest program, umożliwiający szukanie wyrazów bliskoznacznych. Jeżeli też nie chcemy powtarzać wielokrotnie tego samego słowa, wtedy komputer może pomóc w znalezieniu słowa pokrewnego.
Pożyteczną opcją jest działanie na blokach - akapitach. Operacja na blokach czy akapitach wymaga uprzedniego ich zaznaczenia, co może objawić się ich podświetleniem. Zaznaczenie bloku wykonuje się zwykle przy pomocy myszki lub klawiatury. Taki blok może być usunięty, przesunięty w inne miejsce tekstu, powtórzony, lub zapamiętany w wydzielonym obszarze pamięci, czyli w tak zwanym buforze. Najnowsze wersje edytorów umożliwiają również pracę grupową. Praca grupowa w redakcji tekstu polega na tym, że poszczególne osoby zaznaczają wybranym kolorem fragment tekstu, piszą obok swoje uwagi, w tym i propozycje zmian. Osoba odpowiedzialna za redakcję całości, przyjmuje lub odrzuca poczynione uwagi i w konsekwencji powstaje wspólny tekst.
Napisany w całości tekst jest ostatecznie redagowany. Przykładowo ma mieć wyrównany prawy lub lewy margines, lub być wypośrodkowany. Istnieje możliwość pogrubienia (bolding) części tekstu lub podkreślenia go linią. Niekiedy, jeżeli chce się zwrócić uwagę na wybraną część tekstu, można stosować wyróżniki np.: zmienić krój pisma np. użyć czcionek pochyłych lub prostych (kursywa lub antykwa), cienkich, półgrubych i grubych, drukować spacją (litery bądź wyrazy rozstrzelone) itd. Większość edytorów umożliwia wprowadzenie do tekstu: różnego typu tabel, zestawień i obiektów np. graficznych czy dźwięku.
Edytory często realizują zadanie „drukuję tak jak mnie widzisz", gdyż odpowiada to sytuacji, że na ekranie otrzymuje się wierny obraz drukowanego tekstu. Na i ile będzie on identyczny, decydują możliwości drukarki. Jeżeli będzie to drukarka kolorowa i laserowa to otrzymamy zupełnie inny wygląd tekstu niż korzystając z 9-igłowej, czarno-białej drukarki. Zawsze należy się zastanowić czy wybrany edytor i sprzęt odpowiada naszym wymaganiom.
Użytkownik ma do wyboru wiele edytorów tekstu. Problem wyboru jest zagadnieniem wielokryterialnym. Najbardziej popularnymi edytorami są: WORD PERFECT for WINDOWS, WORD for WINDOWS, AMI PRO, QRTEKST, PC WRITE.
Niedawno bardzo popularny był również polski edytor TAG. Należy pamiętać, że każdy z edytorów ma wiele - coraz bardziej doskonałych - wersji. W zasadzie program napisany w wersji niższej może być przeczytany w wersji wyższej. Natomiast relacja ta nie jest zwrotna i program napisany przy pomocy edytora bardziej doskonałego nie może być przeczytany na komputerze, który ma zainstalowaną wersję niższą.
Możliwości edytorów są znacznie rozszerzone o oprogramowanie biurowej poligrafii komputerowej DTP (DeskTop Publishing). Programy te umożliwiają przygotowanie do druku tekstu w postaci zbliżonej do składu uzyskanego w drukarniach profesjonalnych. Najbardziej znanymi programami tego typu są między innymi VENTURA PUBL., PAGE - MAKER.
Dla wyboru właściwego edytora użytkownik może korzystać z analiz porównawczych prowadzonych przez specjalistyczną prasę, jak przykładowo: PC-Kurier, PC-Magazine, Enter itp. W analizie porównawczej analizowane są między innymi takie kryteria, jak: system kontrolujący pracę edytora, wymagania sprzętu, polskie fonty, dostępności innych znaków spoza ASCIl, pomoc dla użytkownika, możliwości edycji i formatowania tekstu, sposoby zarządzania zbiorami danych, słowniki (ortograficzny, bliskoznaczny), możliwość pracy w sieci, cena.
Arkusze kalkulacyjne zwane też pakietami księgowymi, programami kalkulacyjnymi, programami obliczeń tablicowych (financial planning programs), arkuszami analityczno-planistycznymi. Zastosowanie tego typu pakietów jest bardzo szerokie i mogą być wykorzystywane dla wspomagania prac związanych z ewidencją kosztów, kalkulacją, planowaniem, sporządzaniem biznes planów, analizą symulacyjną typu „What-for", czyli co będzie jeśli zaistnieje określona sytuacja.
Użytkownikami tego systemu są najczęściej ekonomiści, a szczególnie pracownicy działów księgowości i planowania, inżynierowie i pracownicy biurowi. Ponieważ system jest również prosty jak edytor, dlatego też jest on bardzo popularny. Dlatego też bardzo często, w warunkach kwalifikacyjnych, które powinien spełniać kandydat do pracy w działach ekonomicznych i marketingowych, stawia się wymagania znajomości arkuszy kalkulacyjnych.
Podstawowymi elementami pakietu księgowego są:
arkusz elektroniczny dla wyświetlenia i numerycznej analizy tekstu i liczb,
baza danych dla przetwarzania zbiorów danych,
pakiet graficzny dla prezentacji uzyskanych wyników,
modele przekształceń danych (najczęściej w postaci odpowiednich zależności algebraicznych - funkcji wbudowanych w dany program).
Oprogramowanie zostało skonstruowane do przechowywania i przetwarzania danych (w postaci arkusza kalkulacyjnego), zgodnie z wprowadzonymi wzorami i tworzoną na ich podstawie prezentacją graficzną w formie różnego typu wykresów. Większość programów, oprócz czterech podstawowych działań arytmetycznych, posiada do kilkudziesięciu funkcji finansowych, statystycznych, matematycznych, logicznych, daty i czasu oraz baz danych itp.
Zalety arkuszy kalkulacyjnych ujawniają się szczególnie w sytuacjach konieczności modyfikacji danych. Przykładowo jeżeli mamy wyniki sprzedaży wielu różnych asortymentów i nastąpiła korekta związana ze zmianą kursu dolara lub innej waluty. to przeliczenie ręczne byłoby czaso i pracochłonne oraz miałoby potencjalne możliwości popełnienia błędów. W arkuszu kalkulacyjnym taka korekta trwa bardzo szybko i dokonywana jest niemal automatycznie. Bardzo pożyteczna jest możliwość symulacji, np. dokładne obliczenia jak się zmienią wyniki finansowe firmy, jeżeli koszty wzrosną np. o 1 %, 1,5%, 2% i tak dalej. Oczywiście ilość wariantów jest praktycznie nieograniczona.
Budowa arkusza kalkulacyjnego jest następująca, w poszczególnych konkretnych programach takich jak EXCEL, QUATRO PRO, LOTUS, WORKS mogą być zastosowane nieco inne rozwiązania, jednak podstawowe zasady nie ulegają znaczącym zmianom.
Cały arkusz kalkulacyjny podzielony jest na wiersze i kolumny. Na przecięciu ich znajdują się komórki albo klatki (cele). Dla identyfikacji komórek wiersza numeruje się je liczbami, poczynając od 1, 2 aż np. do 8192. Natomiast kolumny - literami lub kombinacjami liter, poczynając od A do Z, (pierwsze 26 kolumn), A, ... AZ (drugie 26 kolumn) i tak dalej. Adres, który identyfikuje daną komórkę składa się z litery i liczby. Przykładowo adres A5 oznacza, że jest to komórka na przecięciu pierwszej kolumny i piątego wiersza. Każda komórka może być rozszerzona do potrzebnych rozmiarów. W komórce można zapisać tekst alfabetyczny lub numeryczny.
Ponieważ pojemność ekranu jest ograniczona dlatego też można obejrzeć tylko pewną, niewielką część arkusza kalkulacyjnego. Tą część arkusza kalkulacyjnego, którą widzimy na ekranie nazywamy „oknem”. Przy pomocy klawiszy kursora można „okno" przesuwać. W ten sposób można oglądać niewidoczne uprzednio komórki arkusza.
Arkusz kalkulacyjny można analizować jako pewną bazę danych, w której wiersze są rekordami. Na tak zapisanej bazie można dokonywać szeregu operacji, jak przykładowo posortować określone rekordy według malejącej lub rosnącej wielkości kryterialnej. Możliwe jest też sortowanie rekordów, np. na takie, które reprezentują artykuły przynoszące zysk 10% i takie, które nie przynoszą takiego zysku oraz te, których produkcja przynosi straty. Dla wizualizacji danych można zbudować wykres np. linearny, słupkowy, kolumnowy, dwu lub trójwymiarowy, radarowy, kropkowy, warstwowy itp. jest też możliwość używania różnorodnych funkcji graficznych w tworzeniu danego obrazu wykresu.
Dla ekonomistów szczególnie interesujące są funkcje finansowe, zaś dla inżynierów i osób budujących rynek - funkcje matematyczne i statystyczne. Opisy poszczególnych funkcji dostępne są w przewodnikach metodycznych, dotyczących poszczególnych programów. Najbardziej popularnymi programami są: LOTUS 1-2-3, EXCEL, SUPERCALK. Nową tendencją w tworzeniu arkuszy kalkulacyjnych jest stosowanie arkuszy wielowymiarowych. Podobnie jak przy edytorach użytkownik ma problemy z wyborem właściwego oprogramowania. I tu pomocne są pisma fachowe. Przy wyborze oprogramowania należy się kierować następującymi kryteriami: wymagania sprzętowe, edycja, łatwość obsługi, operacje matematyczne, logiczne, statystyczne, finansowe, na łańcuchach, możliwości graficzne i możliwości łączenia tekstu z grafiką, współpraca z drukarką, zawartość i jakość dokumentacji, cena, serwis.
Kolejną grupą wspomagającą pracę biurową są pakiety graficzne (systems,graphics). Podstawowymi materiałami tworzonymi w biurze, a zawierającymi elementy graficzne są: korespondencja wewnętrzna i wychodząca, materiały informacyjne i reklamowe, prezentacja związana z pokazami, naradami, spotkaniami, schematy organizacyjne.
Pakiety graficzne są narzędziem do tworzenia atrakcyjnych form prezentacji, np. na folii i powiększone przy pomocy rzutnika albo też mogą współpracować bezpośrednio w układzie komputer - rzutnik.
Pakiety graficzne nie zawsze występują jako odrębne oprogramowanie. Są one często elementem innego oprogramowania, np. edytorów, arkuszy elektronicznych itp. Przy pomocy programów graficznych można ilustrować dane w różnych formach.
Najczęściej stosuje się następujące metody prezentacji:
wykresy dwu- i trójwymiarowe,
wykresy kołowe,
histogramy,
grafy,
schematy technologiczne.
Użytkownik może nadać wykresom postać graficzną zgodną z jego potrzebami. W dowolnym miejscu można umieszczać napisy i znaki np. w postaci podpisów pod rysunkami, szerszych opisów, odnośników, informacji, komentarzy. Wykres może być przedstawiony w różnych kolorach, jak też-dla wyeksponowania jego elementów-może być cieniowany, pogrubiony itd. Dla analizy porównawczej wykresy można na siebie nakładać.
Programy graficzne tworzące wykresy korzystają z danych zapisanych w postaci szeregów lub tablic. Dane te mogą być zapisane w innych programach (np. arkuszach kalkulacyjnych) i pakiet graficzny importuje je do siebie.
Dla wykreślenia obrazu graficznego, użytkownik może korzystać z całego szeregu narzędzi i ułatwień. Przykładowo użytkownik może tworzyć własne rysunki, korzystając z gotowej bazy własnych czy firmowych elementów, np. można na każdym slajdzie przedstawić logo firmy.
Również do popularnych narzędzi wspomagających należą:
pędzel o zmiennej wielkości i kształtujący rysunek w sposób najbardziej pożyteczny,
rozpylacz farby, który powoduje, że w miejscach jego użycia malowane powierzchnie mają bardziej intensywne barwy.
gumka, która wyciera nieudane rysunki lub ich elementy,
zestaw standardów typu linie o dowolnej grubości, koła, elipsy, kwadraty, prostokąty, trójkąty, które pomocne są przy wykorzystaniu różnego typu schematów.
Specjalistyczne zestawy rysunków i elementów zawarte są w oprogramowaniu wspomagającym pracę inżynierów i konstruktorów. Oprogramowanie nosi nazwę pakietów CAD/CAM czyli Computer Aided Design (Komputerowe wspomaganie projektowania) i Computer Aided Manafacture (Komputerowe wspomaganie produkcji). Oprogramowanie typu CAE (Computer Aided Enginering) czyli komputerowe wspomaganie konstruowania, umożliwiają dodatkowo planowanie produkcji i analizę kosztów.
Oprogramowanie graficzne można podzielić według następujących kryteriów.
1. Specyfika rodzaju pracy:
a) Grafika wektorowa - opiera się na matematycznym opisie punktów, linii i kolorów. Umożliwia to skalowanie elementów rysunku bez ich utraty, precyzję, kontrolę nad fragmentami grafiki. Programy zachowują najwyższą jakość rysunku, pamiętają przykładowo współrzędne początku i końca kreślonej linii, dla okręgu zaś grubość linii, środek i promień. Cechy te pozwalają na osiągnięcie gładkich krawędzi i pożądanego wyglądu powiększanych, przesuwanych i drukowanych obiektów. Do oprogramowania posługującego się grafiką wektorową należą m.in.. CHARISMA, CORELDRAW, WINDOWS-DRAW.
b) Grafika rastrowa - polega na tym, że rysunek jest traktowany jako płaszczyzna wypełniona wieloma punktami, tzw. mapa bitowa. Im tych punktów na jednostkę powierzchni jest więcej tym jakość rysunku jest lepsza. Słabością oprogramowania jest to, że takie operacje jak przesuwanie, powiększanie, zniekształcają obiekt na ekranie monitora i wydruku. Dzieje się tak, ponieważ program wykonuje zadane funkcje pojedynczo na każdym punkcie. Przedstawicielem tej klasy oprogramowania jest program PHOTO MAGIC.
c) Grafika prezentacyjna - wykorzystuje zarówno technikę wektorową, jak i rastrową. Jest to najbardziej rozwojowa technika grafiki komputerowej i służy do wirtualizacji danych używanych dla opracowania materiałów szkoleniowych raportów i analiz.
2. Możliwości zastosowania:
a) Oprogramowanie profesjonalne, gdzie autorzy tych produktów założyli wysoki poziom wiedzy informatycznej użytkowników. Programy zawierają funkcje dające duże możliwości, jednak dla ludzi mniej przygotowanych są trudne do stosowania. Programy używane są m.in. przez artystów - malarzy i grafików co pozwoliło na stworzenie nowych kierunków o nazwie grafika komputerowa i malarstwo komputerowe. W opracowaniu tego typu programów przoduje firma Digital, która sponsoruje artystów zajmujących się tym kierunkiem sztuki.
b) Oprogramowanie amatorskie, które charakteryzuje się łatwością obsługi. Ma bardzo rozbudowaną bazę standardowych rysunków, którymi - po pewnych przekształceniach lub bez zmian - może posługiwać się użytkownik. Ich dużą zaletą jest stosunkowo niska cena i o wiele mniejsze, niż w przypadku oprogramowania profesjonalnego, wymagania sprzętowe.
3. Ilość obsługiwanych funkcji
a) Programy pojedyncze, które wykonują jedną podstawową funkcję. Do tego typu programów należy program analizujący i rysujący wykresy statystyczne - STATGRAPHICS oraz CHART.
b) Pakiety graficzne, które składają się z modułów będących odrębnymi programami, sprzedawanymi niekiedy jako odrębne produkty. Moduły składowe z reguły należą do różnych grup klasyfikacji dokonanej ze względu na rodzaj pracy. Do tej grupy oprogramowania należy bardzo popularny program COREL DRAW. Zawiera on między innymi: program tworzenia prezentacji COREL-SHOW, program edycji obrazu i jego obróbki COREL PHOTO-PAINT, program tworzenia wykresów COREL CHART, program wygładzania krawędzi przekazywanych obrazów COREL TRACE.
Dla wyboru odpowiedniego oprogramowania, podobnie jak dla edytorów i arkuszy kalkulacyjnych, należy odpowiedzieć na podstawowe pytania. Czego oczekujemy po oprogramowaniu? Jakie są nasze możliwości finansowe? Dla odpowiedzi na te pytania pomogą nam opracowania specjalistyczne, np. Enter lub Computerworld.
Najczęściej stosowanymi kryteriami w ocenie oprogramowania graficznego są: atrybuty linii i powierzchni (grubość, styl, kolor), skalowanie, powiększanie (np. 200 razy), liczba gotowych rysunków w cenie pakietu (Charisma ma ich 2200, a Corel 1200), import danych z innych programów, typy wykresów, liczba obsługiwanych formatów plików, współpraca ze skanerem, możliwość łączenia fragmentów skanowanych obrazów. narzędzia malarskie, obrót obrazu, wymagania sprzętowe, cena.
Większość programów graficznych pracuje w środowisku MS WINDOWS. Jest faktem. że bardzo przystępny graficzny interfejs, czyli wspomniany wcześniej GUI, i łatwość poruszania się po nim dzięki myszy - sprzyjają pracy z grafiką komputerową.
SIECI KOMPUTEROWE
Co to są systemy sieciowe? - Najogólniej rzecz biorąc, systemem sieciowym przyjęto nazywać pewną strukturę informatyczną, w skład której wchodzi grupa elementów, powiązanych ze sobą na zasadzie wymiany informacji. Fizyczną realizacją systemu sieciowego jest sieć komputerowa. Stanowi ją zbiór różnego typu urządzeń oraz oprogramowania. Do urządzeń sieciowych zalicza się przede wszystkim komputery oraz urządzenia zapewniające komunikację między nimi. Sieć jest to więc struktura zmienna o otwartej architekturze. Komputery w sieci pełnią rolę stacji roboczych, serwerów sieciowych oraz mogą tworzyć platformę do instalacji oprogramowania zapewniającego dodatkowe usługi. Podstawowym oprogramowaniem zapewniającym funkcjonowanie sieci jest system operacyjny oraz oprogramowanie komunikacyjne. Wyższą warstwę stanowią programy udostępniające usługi sieciowe, najwyższą zaś aplikacje sieciowe.
Sieć komputerowa jest pojęciem bardzo ogólnym i nie specyfikującym jej rozmiaru ani struktury.
Dowolną sieć komputerową tworzy grupa komputerów połączonych ze sobą w taki sposób, że mogą przesyłać i wymieniać między sobą dane. Ze względu na szybkość działania i zasięg wykonywanych operacji sieci dzielą się na:
Lokalne - LAN (ang. Local Area Network) - lokalna sieć komputerowa tworzona jest przez kilka do kilkudziesięciu komputerów rozmieszczonych na niewielkim obszarze przeważnie w jednym budynku, np. sieć obejmująca jeden wydział uniwersytetu, firmę itp.
Metropolitarne - MAN (ang. Metropolitan Area Network) - metropolitarna sieć komputerowa łączy pojedyncze komputery i sieci lokalne na większym obszarze - mogą to być sieci akademickie, miejskie, regionalne, na przykład sieć łącząca wydziały uniwersytetu mieszczące się w jednym mieście.
Rozlegle - WAN (ang. Wide Area Network) - rozległa sieć komputerowa obejmuje sieci lokalne, metropolitarne i pojedyncze komputery w obrębie kraju lub kontynentu; na przykład sieć łącząca siedziby firm rozprzestrzenione w całym kraju.
Sieci lokalne charakteryzują się więc z reguły niewielką ilością komputerów rozmieszczonych na niewielkim obszarze. W związku z tym struktura połączeń między nimi jest prosta, zaś koszty eksploatacji niewielkie. Problemy zaczynają się w przypadku sieci rozległych, składających się z dużej liczby komputerów. Skomplikowana struktura połączeń sieciowych wymusza konieczność stosowania dodatkowych wyrafinowanych urządzeń, zapewniających poprawną oraz efektywną komunikację i transfer danych. Dodatkowo dochodzą problemy minimalizacji kosztów połączeń, gdy sieć rozległa korzysta z publicznych sieci teleinformatycznych.
W praktyce zjawisko to jest bardzo zasadne. Istnieje bowiem bardzo duże zapotrzebowanie na sieci do obsługi małych i średnich przedsiębiorstw i instytucji. Ponadto sieci lokalne stanowią podstawę do konstruowania sieci rozległych.
Aby sieć mogła zafunkcjonować nie wystarczy samo połączenie komputerów kablem i kartami sieciowymi. Wymagany jest drugi element - oprogramowanie systemowe. Zasadniczym jego składnikiem jest sieciowy system operacyjny zawiadujący zasobami oraz koordynujący pracą sieci. Decyduje on o strukturze funkcjonowania sieci.
Sieciowy system operacyjny
Sieciowy system operacyjny jest podstawowym oprogramowaniem sieci komputerowej. Jego zadaniem jest stworzenie środowiska wspólnej pracy dla wielu urządzeń. Decyduje o charakterze sieci oraz o zakresie oferowanych usług. Sieciowy system operacyjny koordynuje pracą sieci, zapewnia efektywne gospodarowanie zasobami i udostępnianie ich użytkownikom według określonych reguł i zasad. Serwer - jako komputer centralny, na którym znajduje się całość oprogramowania jest najbardziej newralgicznym elementem systemu sieciowego. Ponieważ serwer musi obsłużyć wiele stacji roboczych, jest to z reguły komputer o dużej mocy obliczeniowej i dużej pamięci dyskowej.
Ostatnio coraz większą popularność zyskują systemy bez wyróżnionego serwera (sieci równorzędne, ang. peer-to-peer), gdzie każdy komputer może udostępniać swoje zasoby na rzecz sieci. W takim przypadku komputery pracujące w sieci korzystają z mocy obliczeniowej oraz innych zasobów pozostałych komputerów.
Jedno i drugie rozwiązanie ma swoje wady i zalety. W systemie z wyróżnionym serwerem istnieje konieczność przeznaczenia kosztownego komputera do obsługi sieci, z drugiej jednak strony centralne zarządzanie jest łatwiejsze, zaś system ochrony danych bardziej niezawodny. Z kolei sieci równorzędne są rozwiązaniem bardziej ekonomicznym. Zapewniają wysoką efektywność, przy wykorzystaniu komputerów o mniejszych mocach obliczeniowych i indywidualnych zasobach, ale trudno jest w nich zagwarantować wysoki stopień niezawodności pracy.
Programy usługowe
Są to programy, które rozszerzają funkcje sieciowego systemu operacyjnego o dodatkowe usługi. Do grupy tej należą programy komunikacyjne, oprogramowanie pozwalające na integrację z innymi systemami sieciowymi, udostępniające usługi druku w sieci lub zapewniające dostęp do modemów. Instalowane są z reguły na serwerze albo innym dedykowanym komputerze pracującym w sieci. Niektóre z instalowanych programów stanowią integralną część systemu operacyjnego lub oferowane są jako osobne produkty. Do typowych usług sieciowych możemy zaliczyć:
dostęp do wspólnych urządzeń fizycznych (systemy dyskowe, drukarki, modemy, napęd dysków optycznych, itp.),
dostęp do wspólnych danych (aplikacji, plików),
wspólne przetwarzanie informacji (bazy danych,
przesyłanie informacji w ramach sieci
Programy zarządzania
Programy zarządzania pracą sieci to oprogramowanie umożliwiające scentralizowaną kontrolę pracy sieci. Bazują na informacji udostępnianej przez urządzenia sieciowe lub oprogramowanie systemowe. Do innych funkcji programów zarządzania należy zaliczyć:
zdalne monitorowanie pracą sieci,
tworzenie graficznej mapy połączeń,
kontrolę natężenia ruchu w różnych miejscach sieci,
analizę wykorzystania zasobów sieciowych,
zdalne sterowanie pracą serwerów oraz innych urządzeń komunikacyjnych,
wykrywanie miejsc nasilonych błędów.
Każda sieć komputerowa ma swoją charakterystyczną architekturę - protokół komunikacyjny i topologię. Protokół komunikacyjny opisuje zasady wymiany informacji pomiędzy tworzącymi sieć urządzeniami definiuje zasady transmisji danych: (sygnały kontrolne, formaty pakietów danych i sposoby kontroli poprawności przepływu danych). Topologia zaś określa zasady łączenia komputerów pomiędzy sobą w celu utworzenia sieci. Zasady te ustalają rodzaje łączy, typ kabli oraz kolejność łączenia i sposób rozmieszczenia komputerów, na przykład w oparciu o topologię magistrali, gwiazdy lub pierścienia. Przykłady podane są w załączniku. Tak więc poszczególne, niezależne sieci komputerowe mogą działać w oparciu o różne protokoły komunikacyjne i korzystać ze specjalizowanych połączeń pomiędzy komputerami. Natomiast ogólnoświatowa sieć Internet nie ma regularnej topologii i jest zbudowana na zasadzie łączenia ze sobą pojedynczych sieci lokalnych i miejskich. Bardzo istotny jest fakt, że Internet nie działa jedynie w oparciu o specjalizowane sieci komputerowe, ale i zwykłe sieci telekomunikacyjne. Podobnie jak w innych sieciach, komunikacja w Internecie odbywa się według wspólnego protokołu transmisji danych, którym jest TCP/IP (ang. Transmission Control Protocol / Internet Protocol), którego istota podana zostanie w dalszej części.
Sieci komputerowe umożliwiają łatwą komunikację, dostęp do wspólnej i aktualnej informacji oraz dzielenie zasobów, takich jak drukarki lub pamięć masowa. Naturalnie każdy z użytkowników (uczestników) sieci może korzystać z tych udogodnień w stopniu zależnym od udzielonych mu przywilejów - praw dostępu.
Architektura sieci komputerowych
Jak już wspomniałem, technologia sieci lokalnych (LAN) w sposób zasadniczy różni się od technologii sieci rozległych (WAN). O ile funkcjonowanie sieci rozległej jest możliwe dzięki istnieniu urządzeń zwanych routerami, które w aktywny sposób decydują o ruchu pakietów, w przypadku sieci lokalnych połączenie między komputerami ma charakter pasywny. Większość technologii sieci LAN oparta jest na transmisji w paśmie podstawowym (baseband), co w konsekwencji oznacza, że w danym momencie może nadawać tylko jedna stacja. W przypadku równoczesnej próby transmisji przez różne stacje następuje kolizja i transmisja musi zostać powtórzona. Istnieją różne technologie sieci LAN, które w różny sposób określają metodę dostępu do łącza fizycznego. Metody te można generalnie podzielić na dwie grupy:
metody oparte na dostępie rywalizacyjnym, z których największe znaczenie mają metody z nasłuchem stanu łącza i wykrywaniem kolizji określane skrótem CSMA/CD (Carrier Sense Multiple Access/Collision Detection)
metody oparte na przekazywaniu uprawnienia (token passing).
Zasadnicza różnica między obiema technikami polega na tym, że w metodach rywalizacyjnych restrykcje dotyczące momentu, w którym stacja może rozpocząć nadawanie, są stosunkowo łagodne. Natomiast w metodach z przekazywaniem uprawnienia moment i czas nadawania są ściśle limitowane. Oba rodzaje technologii mają swoje wady i zalety oraz występują w wielu wariantach. Poniżej zostaną one w uproszczeniu omówione na przykładzie popularnych sieci Ethernet (metoda typu CSMA/CD) oraz Arcnet (metoda typu token passing).
Ethernet
Standard Ethernet został opracowany na przełomie lat siedemdziesiątych i osiemdziesiątych przez firmy Xerox, Intel i DEC. W metodzie tej stacja może nadawać, jeśli łącze jest wolne. W związku z tym wszystkie stacje mają obowiązek prowadzenia nasłuchu stanu łącza (Carrier Sense). Z uwagi na skończony czas propagacji sygnału stacja w chwili podejmowania decyzji o rozpoczęciu nadawania ramki nie ma jednak nigdy pewności, że tylko ona rozpoczyna transmisję. Dopiero po pewnym czasie od momentu rozpoczęcia nadawania przez daną stację wszystkie stacje mogą wykryć, że łącze jest zajęte. Czas ten jest tym większy, im większa jest rozpiętość sieci i im mniejsza jest szybkość propagacji sygnału. Dopiero po upływie tego czasu stacja, która rozpoczęła nadawanie i nie wykryła kolizji na łączu, może przyjąć, że kolizja już nie nastąpi. Ponieważ transmisja ramki nie może zostać zakończona przed uzyskaniem pewności, że ramka ta nie zostanie zniszczona w wyniku kolizji, czas ten wyznacza minimalną długość nadawanej ramki. W standardzie Ethernet przyjęto również górne ograniczenie długości ramki, ażeby nadająca stacja zbyt długo nie blokowała dostępu do łącza innym stacjom.
Ponieważ w sieci Ethernet z góry zakłada się możliwość zajścia kolizji, musi być określony efektywny algorytm pozwalający na przejście ze stanu kolizyjnego do stanu normalnej pracy sieci. Przede wszystkim stacje, które wykryją kolizję, mają obowiązek wstrzymać nadawanie (Collision Detection). Okres oczekiwania na możliwość retransmisji jest określony losowo, ażeby zmniejszyć prawdopodobieństwo ponownej kolizji.
Zalety i wady Ethernetu
Ethernet jest obecnie najbardziej popularną na świecie technologią sieci lokalnej.
Zaletą Ethernetu jest jego prostota - w przeciwieństwie do wielu innych technologii LAN niepotrzebne są tu dodatkowe, specjalne rodzaje ramek służących wyłącznie do organizowania pracy sieci, ani też specjalne procedury umożliwiające stacji rozpoczęcie lub zakończenie pracy. Nawet silne zakłócenia mogą być traktowane jak zwykłe kolizje, a więc zdarzenia w sieci tego typu normalne, na które sieć rutynowo reaguje decyzją o retransmisji.
Wielką zaletą Ethernetu jest to, że stacja może nadawać w każdej chwili, kiedy tylko łącze jest wolne, dzięki czemu czas oczekiwania na możliwość transmisji jest w większości przypadków bardzo krótki.
Ethernet, podobnie jak i inne metody oparte na dostępie rywalizacyjnym, jest jednak efektywny jedynie w zakresie stosunkowo niewielkich obciążeń sieci. W przypadku, gdy ilość danych zlecanych do wysłania przez różne stacje wzrasta, rośnie prawdopodobieństwo kolizji i coraz większa część maksymalnej przepustowości sieci (10 Mbps) jest tracona na retransmisje. Dlatego, chociaż w większości przypadków transmisja zachodzi sprawnie, w sieciach tego typu nigdy nie można zagwarantować minimalnego okresu czasu, w którym transmisja zostanie zrealizowana (ani czy w ogóle zostanie zrealizowana). Takie sieci nie nadają się do transmisji głosu, wideo ani sterowania układami pracującymi w czasie rzeczywistym. Mówimy, że Ethernet nie jest siecią izochroniczną.
Arcnet
Alternatywą w stosunku do rywalizacyjnej metody dostępu do medium jest metoda przekazywania uprawnienia (token passing). Jeden z wariantów tej metody został zastosowany w sieci Arcnet. Arcnet jest przykładem standardu sieciowego, który określamy jako standard de facto, bowiem mimo swojej dużej popularności nigdy nie został oficjalnie uznany za żadną organizację zajmującą się standaryzacją. W sieci tego typu między poszczególnymi stacjami przekazywane jest uprawnienie, zwane również żetonem, znacznikiem lub tokenem.
W sieci Arcnet każda stacja musi znać adres następnika, któremu ma przekazać uprawnienie. Kolejność przekazywania uprawnienia między stacjami nie ma związku z fizyczną topologią sieci - metoda ta może być stosowana w przypadku topologii liniowej, gwiaździstej czy drzewiastej. Kolejne stacje, między którymi jest przekazywany żeton, tworzą więc pierścień logiczny a nie, jak w przypadku sieci typu token ring, pierścień fizyczny. Adres stacji w sieci Arcnet ustala użytkownik ustawiając przełączniki na karcie sieciowej. Jest to adres ośmiobitowy, a więc dostępna przestrzeń adresowa jest stosunkowo niewielka.
Oczywistą zaletą Arcnetu i innych metod opartych na przekazywaniu uprawnienia jest możliwość wyeliminowania zjawiska kolizji w warunkach normalnej pracy sieci. Dzięki temu sieć może sprawnie funkcjonować nawet w sytuacji silnego przeciążenia, gwarantując przewidzianą przez standard szybkość transmisji 2,5 Mbps. Poza tym jest to sieć izochroniczna, w przypadku której z góry można obliczyć maksymalny czas oczekiwania przez daną stację na możliwość nadawania. Wadą Arcnetu jest konieczność wprowadzenia dodatkowych typów ramek, służących wyłącznie do organizowania pracy sieci. Muszą być również stosowane stosunkowo skomplikowane procedury służące do zestawienia pierścienia logicznego. Każde wyłączenie stacji pracującej w sieci lub włączenie nowej prowadzi do zaburzenia normalnej pracy sieci i konieczności odtwarzania pierścienia. Praca sieci jest również mało efektywna w warunkach małego obciążenia - żeton musi być przekazywany kolejno wszystkim stacjom, bez względu na to, czy w danej chwili mają coś do nadania.
SIEĆ ROZLEGŁA TYPU INTERNET Od dwóch, trzech lat jesteśmy świadkami gwałtownego rozwoju sieci Internet w Polsce. Na świecie rozwój ten trwa od prawie 30 lat. Chociaż Internet jest znany i używany w naszym kraju od początku lat dziewięćdziesiątych, to jednak dopiero teraz częściej zauważane są możliwości i zalety wynikające z korzystania z Internetu w działalności instytucji - zarówno przedsiębiorstw, jak i placówek niekomercyjnych, w tym także bibliotek i ośrodków informacji. Podobnie jak na całym świecie, początkowo rozwój tej sieci w Polsce związany był jedynie z ośrodkami akademickimi, gdzie wykorzystywano ją do wymiany informacji w celach naukowych oraz prowadzenia obliczeń na komputerach dużej mocy znajdujących się w innych ośrodkach, miastach lub krajach.
Internet można również traktować jako olbrzymią pamięć masową przechowującą ogromne ilości informacji w postaci tekstowej, graficznej lub dźwiękowej. Sieć daje możliwość łatwego dostępu do dokumentów o przeróżnej tematyce, do publikacji książek, przewodników i katalogów. Dzięki stronom WWW (ang. World Wide Web) możliwe jest prezentowanie informacji w sposób czytelny dla użytkownika, pozwalający na łatwe i szybkie docieranie do potrzebnych danych. Witryny - strony prezentujące instytucje lub osoby prywatne - oprócz tekstu mogą zawierać również zdjęcia, rysunki, muzykę.
Internet (sieć sieci o światowym zasięgu) W niektórych dziedzinach działalności powoli staje się oczywiste, że sprawne posługiwanie się INTERNETEM - znajomość jego zasobów, usług i sposobów czerpania z niego korzyści już niedługo będą niezbędnymi warunkami efektywnej pracy każdego menedżera.
Stosowanie tego medium dostępu i przekazu informacji oraz szybkie wykorzystanie nowych możliwości sieci, staje się koniecznością ! Wraz ze wzrostem tempa życia i pracy jest to więc szybki nośnik informacji - zmniejszający czas przepływu informacji niezbędnej do procesów decyzyjnych i dlatego Internet stał się nie tyle narzędziem, lecz zjawiskiem - bytem podobnym do telewizji, radia, prasy - a więc mediów elektronicznych, a więc środkiem masowego przekazu.
Przyczyną wielkiego rozwoju lokalnych sieci komputerowych w latach osiemdziesiątych było dążenie do umożliwienia użytkownikom komputerów osobistych wzajemnego udostępnienia swoich zasobów. Obecnie to już nie wystarcza i wymaga się, aby sieci komputerowe zapewniały usługi komunikacyjne w skali globalnej. Sieci lokalne łączy się więc ze sobą - w ten sposób powstają sieci o dużym zasięgu, takie jak sieci metropolitalne i sieci rozległe. Przeszkodą, którą trzeba pokonać przy łączeniu różnych sieci, jest duża i stale rosnąca liczba stosowanych technologii sieciowych. Obok technologii tradycyjnych, takich jak Ethernet, Token Ring czy Arcnet, w ostatnich latach pojawiły się technologie FDDI, ATM, Fast Ethernet, Frame Relay, ISDN (Integrated Services Digital Network) i inne. Żadna z tych technologii nie spełnia jednak wszystkich wymagań. W wielu przypadkach względy ekonomiczne decydują o utrzymywaniu sieci zrealizowanej w starszej technologii, o ile tylko działa dobrze - dotyczy to zwłaszcza sieci lokalnych. |Równie istotnym problemem przy łączeniu sieci jest jednak i to, że nie sposób wymagać od zwykłych użytkowników sieci, aby znali się choćby w podstawowym zakresie na tych wszystkich technologiach sieciowych. Chodzi więc o to, aby struktura heterogeniczna, jaką jest system połączonych ze sobą sieci zrealizowanych w różnych technologiach, z punktu widzenia zwykłego użytkownika przedstawiała się jak zwykła homogeniczna sieć. Koncepcja tworzenia tego typu struktur określana jest nie mającym polskiego odpowiednika terminem internetworking. Tworzone w ten sposób struktury określane są terminem „intersieci” - internetwork lub w skrócie internet.
Poszczególne sieci wchodzące w skład intersieci połączone są ruterami, realizującymi funkcję kierowania pakietów przesyłanych między tymi sieciami. Najbardziej spektakularnym przykładem intersieci jest ogólnoświatowa sieć Internet, wywodząca się z sieci ARPANET.
Protokół TCP/IP
Podstawą funkcjonowania Internetu jest współpraca wszystkich połączonych sieci fizycznych zgodnie z przyjętym zestawem protokołów. Ten zestaw protokołów określany jest skrótem TCP/IP od nazw dwóch najważniejszych spośród tych protokołów: Protokołu Intersieci IP (Internet Protocol) oraz Protokołu Sterowania Transmisją TCP (Transmission Control Protocol).
Podobnie jak poszczególne komputery w przypadku zwykłej sieci komputerowej, z punktu widzenia protokołów TCP/IP wszystkie sieci wchodzące w skład Internetu są autonomiczne i równoprawne bez względu na ich wielkość, technologię i inne parametry.
Poszczególne elementy sieci mogą pracować pod kontrolą różnych systemów operacyjnych, - jednakże w ramach Internetu komunikują się jednym wspólnym protokołem TCP/IP (Transmission Control Protocol / Internet Protocol ) są to reguły przesyłania informacji w sieciach - wprowadza się więc STANDARD, który stanowi coś w rodzaju uniwersalnego języka konwersacji pomiędzy komputerami.
Protokół TPC - steruje ruchem pakietów (porcji danych) w sieci i umożliwia:
ochronę przed zagubieniem,
sprawdzenie czy dotarły do celu,
porządkuje w takiej kolejności w jakiej zostały wysłane.
PROTOKÓŁ IP - jest tą częścią protokołu komunikacyjnego, która odpowiada za przesyłanie po sieci datagramów (w pewnym przybliżeniu możemy określić datagram jako pakiet zaopatrzony w adres). Wędruje więc po sieci, aż do momentu znalezienia adresata. Dopuszczalna jest dowolna trasa - wcale nie musi być najkrótsza.
Autorzy tak skonstruowanego protokołu orzekli, że datagram musi trafić do konkretnego urządzenia w sieci Internet, a zatem wszystkie urządzenia muszą posiadać unikatowy w skali całego Internetu identyfikator. Takim identyfikatorem jest adres IP
Adres IP jest 32-bitową (4 bajtową) liczbą,
Liczba ta zawiera określenie wskazujące jednoznacznie zarówno konkretny komputer jak i sieć,
Adres składa się więc z dwóch części:
- numeru sieci
- numeru komputera.
Obie części muszą być zapisane w jednym ciągu. Adres zapisywany jest w formie czterech liczb, oddzielonych od siebie kropkami np. 193.121.58.184 i taki numer może mieć tylko jeden komputer.
Adresy IP nadają wyspecjalizowane instytucje. W przypadku połączenia się z serwerem poprzez modem, komputer otrzymuje automatycznie na czas połączenia swój adres z puli, którą posiada dostarczyciel usług internetowych (Internet Provident) czyli ten kto zarządza serwerem i umożliwia podłączenie się do niego innym użytkownikom którzy poprzez ten serwer chcą uzyskać dostęp do Internetu.
Adres IP identyfikuje sieć i komputer w tej sieci. Ze względu na kombinację tych dwóch elementów wyróżnia się trzy klasy adresów:
KLASA A - adres rozpoczyna się liczbą 1 do 126 (może zaadresować 126 sieci i ponad 16,5 miliona komputerów);
KLASA B - adres rozpoczyna się liczbą 128 do 191 (może zaadresować 16 tysięcy sieci i 65 tysięcy komputerów);
KLASA C - adres rozpoczyna się liczbą 192 do 223 (może zaadresować ponad 2 miliony sieci i 254 komputery).
Adres oznaczony liczbą 127 jest zarezerwowany jako oznaczenie lokalnego komputera. W celu uproszczenia zapamiętywania adresów, - liczby zostały zastąpione ciągiem symboli - DOMEN.
WWW - nowa jakość
W 1992 roku powstał pomysł utworzenia WWW (ang. World Wide Web). Po Internecie przetoczyła się dyskusja na temat potrzeby istnienia takiego tworu. Tym razem nie użyto angielskiego słowa „net” (sieć), lecz „web” (pajęczyna), gdyż obecnie struktura połączeń Internetu bardziej przypomina pajęczynę niż regularną sieć. Wcześniej przedstawione narzędzia są bardzo pomocne i dają duże możliwości, ale nie są zbyt łatwe w obsłudze. Utworzeniu WWW towarzyszyła chęć udostępnienia zasobów i możliwości Internetu wszystkim, poprzez stworzenie bardzo przyjaznego dla użytkownika środowiska. Wielką zaletą WWW okazał się brak konieczności znajomości i pamiętania adresów różnych komputerów, wystarczy by użytkownik znał tylko adres początkowego komputera, a do następnych może przechodzić za pomocą myszy. Bardzo istotne było praktyczne zintegrowanie w WWW usług gopher i ftp. Również wszystkie pozostałe usługi wyszukiwawcze są dostępne w ramach WWW.
Powstały przeglądarki sieciowe pozwalające poruszać się po świecie Internetu za pomocą urządzenia sterującego „myszy”. Ważną ich zaletą jest graficzna, przejrzysta forma prezentacji oraz możliwość równie łatwego przekazywania informacji tekstowej i graficznej. Ponadto przeglądarki mają możliwość kopiowania plików tak jak ftp, tyle że w znacznie wygodniejszy dla użytkownika sposób. Przeglądarki często zawierają obsługę poczty elektronicznej i systemu wiadomości. Możliwe jest też uruchamianie aplikacji obsługujących telnet. Najpopularniejsze przeglądarki stron WWW to HotJava, Microsoft Internet Explorer, Netscape Navigator i NCSA Mosaic.
Poruszanie się po stronach WWW polega na przechodzeniu przez kolejne strony WWW, które zawierają połączenia do innych stron znajdujących się na różnych komputerach, rozproszonych po Internecie.
Strony WWW są dokumentami tekstowymi i tworzone są w specjalnym języku HTML (ang. Hyper Text Mark-Up Language), który jest prostym zestawem poleceń do formatowania tekstu. Taka strona może zostać przygotowana na dowolnym komputerze, nawet w trybie tekstowym, i z łatwością udostępniona innym użytkownikom sieci. Język HTML pozwala formować tekst, włączać do niego grafikę, odwołania do innych stron WWW, polecenia wysyłania poczty, kopiowania plików, itd.
Aby ułatwić podróżowanie po zasobach informacyjnych Internetu, w kilku miejscach powstały specjalne katalogi stron WWW, nazywane też „silnikami wyszukiwawczymi” (ang. search engines). Umożliwiają one wyszukiwanie miejsc w Internecie, w których znajdują się poszukiwane informacje. Wyszukanie realizowane jest na podstawie podanych przez użytkownika słów kluczowych. Najpopularniejszymi wyszukiwarkami są AltaVista (altavista.digital.com), InfoSeek (www.infoseek.com), Lycos (www.lycos.com), WebCrawler (www.webcrawler.com) i Yahoo (www.yahoo.com). Istnieją też polskie wyszukiwarki WWW, zawierające informacje o polskich zasobach. Między innymi należą do nich Sieciowid (sieciowid.pol.pl.) i Wirtualna Polska (wp.cnt.pl.).
Do zasobów WWW należą praktycznie wszystkie zasoby Internetu:
- płatne i bezpłatne bazy danych, zawierające informacje tak różnorodne, jak różnorodne są instytucje i osoby korzystające z Internetu; jedną z nich jest baza danych Wspólnoty Europejskiej „Echo and Eurobases”;
- archiwa dokumentów o bardzo szerokim zakresie, od zbiorów odpowiedzi na najczęstsze pytania z danej dziedziny (ang. FAQ - frequently asked questions), poprzez już opublikowane prace naukowe, do gotowych wydawnictw (na przykład gazety);
- archiwa i biblioteki programów freeware i shareware, które mogą być kopiowane na zasadach odpowiednich licencji;
- punkty informacyjne krajów i różnych organizacji, które dostarczają zwykle podstawowe informacje o kraju, strukturze administracyjnej, szkolnictwie, itd.;
- punkty informacji turystycznej, zawierające informacje dotyczące krajów, regionów i miast: na przykład mapy miast, parków i ogrodów, zaproszenia do muzeów (wraz z krótką wycieczką po nich), informacje o pogodzie itp.;
- sklepy i witryny informujących o sobie firm, często umożliwiające złożenie zamówienia na oferowane towary i usługi.
Rys. Przykładowe okno programu Internet Explorer
System nazw DNS
Komunikujące się komputery stosują zawsze liczbowe adresy IP. Ponieważ posługiwanie się nimi jest dla ludzi niewygodne, opracowano tzw. system nazw domenowych (dziedzinowych) - DNS (Domain Name System), który równolegle do systemu adresów IP zapewnia jednoznaczną identyfikację komputera w skali całego Internetu. Oczywiście w związku z tym konieczne jest istnienie sprawnego mechanizmu zapewniającego niezawodne przekładanie nazw domenowych na adresy IP. System realizujący tę funkcję działa w oparciu o tzw. serwery nazw, których łączne zasoby tworzą globalną, rozproszoną bazę danych.
Nazwy domenowe komputerów składają się z kilku części oddzielonych kropkami.
HTTP://WWW.WSZIM.EDU.PL.
Nazwa domenowa jest nazwą hierarchiczną, przy czym hierarchia maleje w lewo. W podanym przykładzie PL oznacza domenę polską, EDU wyróżnik branżowy, zaś WSZiM - konkretny komputer należący do domeny WSZiM.EDU.PL. Na samym szczycie hierarchii domen są domeny określające przynależność do danego kraju albo do organizacji określonego typu (Rys. 1). W obrębie tych domen tworzy się kolejno poddomeny coraz niższych poziomów, których hierarchiczny układ odwzorowuje określone zależności geograficzne lub organizacyjne.
(a) (b)
Oznaczenie domeny Kraj Krajowej |
Oznaczenie domeny Rodzaj organizacji Rodzajowej |
AU Australia CA Kanada CH Szwajcaria DE Niemcy ES Hiszpania FI Finlandia FR Francja JP Japonia KW Kuwejt PL Polska SE Szwecja |
COM komercyjna EDU edukacyjna GOV rządowa INT międzynarodowa MIL wojskowa (USA) NET zajmująca się siecią ORG niekomercyjna |
Rys. 1 Oznaczenia niektórych domen: (a) krajowych i (b) rodzajowych
Usługi Internetu Architektura klient-serwer
Internet jest siecią udostępniającą każdemu użytkownikowi ogromną ilość zasobów informacyjnych. Zasoby te są dostępne poprzez cały szereg rozmaitych usług. Poniżej zostały pokrótce omówione niektóre z nich. Jakkolwiek usługi oferowane w Internecie są bardzo zróżnicowane, ich wspólną cechą jest charakterystyczny model architektury oprogramowania, określanej jako architektura klient-serwer. Idea architektury klient-serwer polega na podzieleniu aplikacji realizującej daną usługę na dwie części: część odpowiedzialną za sformułowanie polecenia wykonania określonego zadania, zwaną klientem, oraz część mającą to zadanie zrealizować, zwaną serwerem. Obie części mogą być zlokalizowane na różnych komputerach połączonych poprzez sieć. Najczęściej występuje wiele serwerów realizujących daną usługę, rozproszonych po całym świecie i obsługujących poszczególne regiony.
Usługi podstawowe
Spośród wielu usług w Internecie usługami o charakterze podstawowym, w oparciu o które realizowane są inne, są:
Zdalne logowanie (telnet).
Transfer plików (FTP).
Poczta elektroniczna (e-mail).
Zdalne logowanie (telnet)
Telnet jest usługą umożliwiającą dostęp do odległego komputera poprzez utworzenie wirtualnego terminala. Dzięki temu użytkownik może korzystać z odległego systemu tak, jakby bezpośrednio zasiadał za jego konsolą - wprowadzane przez niego z klawiatury polecenia są przesyłane do odległego komputera, a wyniki przetwarzania informacji są wyświetlane na jego ekranie. Użytkownik korzystający ze zdalnego systemu musi posiadać na nim konto, tzn. w systemie tym w odpowiednich plikach musi być zawarta o nim odpowiednia informacja. W momencie otwierania sesji użytkownik jest proszony o podanie swojego identyfikatora, a następnie hasła potwierdzającego tożsamość. W Internecie istnieje także wiele systemów pozwalających na otwieranie zdalnej sesji użytkownikom nie posiadającym kont indywidualnych, w celu skorzystania z określonej usługi. Przykładem są systemy biblioteczne, pozwalające na zdalny dostęp do katalogów bibliotek.
Transfer plików (FTP)
FTP jest skrótem nazwy podstawowego protokołu w Internecie służącego do transmisji plików - Protokołu Przesyłania Plików (File Transfer Protocol). Podobnie jak w przypadku telnetu, ażeby otworzyć sesję FTP na odległym systemie, wymagane jest podanie identyfikatora i hasła danego użytkownika w tym systemie. W Internecie jest bardzo dużo serwerów FTP udostępniających swoje zasoby publiczne - są to tzw. serwery anonimowego FTP. Ażeby uzyskać dostęp do zasobów takiego serwera, jako identyfikator trzeba podać słowo anonymous lub ftp, zaś jako hasło - najczęściej swój adres poczty elektronicznej.
Zasadniczym warunkiem poprawnej transmisji pliku poprzez sieć jest zastosowanie właściwego trybu transmisji - binarnego lub tekstowego. Podczas przesyłania w trybie binarnym plik jest przesyłany w niezmienionej postaci - w ten sposób należy przesyłać np. skomplikowane programy czy pliki graficzne. Inaczej jest w przypadku plików tekstowych, których postać zależy od przyjętego w danym systemie zestawu znaków (np. ASCII, EBCDIC) czy też konwencji dotyczących znaku końca linii. Pliki te należy przesyłać w trybie tekstowym , w którym podczas transmisji dokonywana jest odpowiednia konwersja. Oczywiście, jeśli w trybie tym zostałby przesłany plik binarny, konwersja pliku doprowadziłaby do jego uszkodzenia.
Poczta elektroniczna (e-mail)
Poczta elektroniczna jest usługą zaprojektowaną w celu umożliwienia przesyłania wiadomości tekstowych między użytkownikami posiadającymi odpowiednie konta pocztowe. Przesłana do użytkownika odległego systemu wiadomość jest dołączona do pliku pełniącego rolę jego skrzynki pocztowej, zlokalizowanego najczęściej na dużym włączonym przez całą dobę serwerze. Adresat może w dowolnym momencie połączyć się z tym serwerem i przeczytać listy zawarte w jego skrzynce. Dzięki tej wzorowanej na tradycyjnej poczcie zasadzie działania wiadomości można przesłać także tym użytkownikom, którzy aktualnie nie pracują przy swoim komputerze. Natomiast w porównaniu do tradycyjnej poczta elektroniczna jest znacznie szybsza i bardziej niezawodna. Oferuje też funkcje umożliwiające częściową automatyzację pracy, takie jak:
jednoczesna wysyłka listu do wielu adresatów
odpowiedź na list (reply) z ewentualnym załączeniem jego treści
przesłanie listu na inny adres (forward)
automatyczne kopiowanie wysyłanego listu do archiwum
segregowanie listów w tzw. folderach.
Adres pocztowy danego użytkownika składa się z dwóch części, oddzielonych znakiem @. Pierwszą część stanowi identyfikator danego użytkownika w systemie, w którym zlokalizowana jest jego skrzynka pocztowa, drugą nazwa danego komputera.
Np.:
rektor@wszim.edu.pl
jest adresem pocztowym użytkownika rektor na komputerze wszim.edu.pl.
Jak już wspomniano, poczta elektroniczna została stworzona do przesyłania wiadomości tekstowych. Przesyłanie pliku binarnego za pośrednictwem poczty elektronicznej jest możliwe pod warunkiem uprzedniego zakodowania pliku binarnego do postaci tekstowej. Można to zrobić w oparciu o tradycyjny standard kodowania uuencode lub bardziej nowoczesny MIME.
Systemy organizowania i publicznego udostępniania informacji
Gopher
Na początku lat dziewięćdziesiątych gwałtowny rozwój Internetu doprowadził do sytuacji, że ilość zasobów zgromadzonych na tysiącach serwerów okazała się zbyt duża, aby ktokolwiek był w stanie zapoznać się z nimi i zapamiętać ich lokalizację. W związku z tym zaistniała silna potrzeba stworzenia systemu, który pozwoliłby na uporządkowanie przestrzeni informacyjnej Internetu i ułatwienie dostępu do niej. Pierwszym takim systemem był Gopher, który został opracowany na Uniwersytecie Minnesota.
Gopher jest systemem organizującym informację w postaci tekstowej, jako hierarchiczne systemy menu stanowiące listy poszczególnych tematów. Poszczególne pozycje tych list stanowią odnośniki do innych list (podmenu) lub konkretnych dokumentów tekstowych, plików, sesji telnetu i in. Zestawienia tematów i dokumenty są opracowywane i gromadzone na rozrzuconych po całym świecie serwerach Gophera. Niezwykle istotną cechą Gophera jest to, że dostęp do zasobów wskazywanych przez daną pozycję menu jest zorganizowany w sposób jednolity, niezależnie od tego, czy są to zasoby lokalne, czy zlokalizowane na dowolnym innym serwerze. System ten umożliwia więc użytkownikowi wyszukiwanie potrzebnej mu informacji bez potrzeby interesowania się, gdzie jest ona fizycznie zlokalizowana. Cała przestrzeń informacyjna dostępna użytkownikowi systemu Gopher określana jest mianem przestrzeni gopherowej (Gopherspace). Ważną zaletą Gophera jest możliwość dostępu z jego poziomu do zasobów innych systemów informacyjnych, takich jak np. zasoby anonimowego FTP czy sesje telnetu.
Zasadniczą wadą Gophera jest tekstowy sposób prezentowania informacji. Z tego względu system ten jest obecnie zastępowany przez umożliwiający prezentację informacji multimedialnej system WWW. Gopher nie jest dalej rozwijany, a jego znaczenie wynika z dużych ilości zasobów informacyjnych zgromadzonych na jego serwerach.
Systemy wyszukiwania informacji
Archie
W miarę wzrostu ilości zasobów udostępnionych w Internecie powstała konieczność stworzenia systemów baz danych ułatwiających przeszukiwanie tych zasobów. Pierwszym takim systemem był Archie, tworzący i umożliwiający przeszukiwanie baz danych o plikach zawartych na serwerach anonimowego FTP. Na świecie jest kilkadziesiąt serwerów Archie, których bazy danych są okresowo uaktualniane. Archie wyszukuje pliki (i katalogi) na podstawie podanej przez użytkownika nazwy lub jej fragmentu. System ten jedynie informuje o lokalizacji plików, natomiast do ich ściągnięcia konieczne jest użycie osobnego, specjalistycznego programu.
Veronica
Archie jest systemem informacyjnym przestrzeni FTP, natomiast VERONICA jest podstawowym narzędziem przeszukiwania przestrzeni Gophera. WERONICA tworzy i umożliwia przeszukiwanie bazy danych zawierającej informacje o zasobach zawartych na serwerach Gophera. Zawiera również odnośniki do zasobów innych systemów (WWW, telnet), jeśli zostały one wskazane w menu Gophera. Na świecie jest kilkanaście serwerów VERONICA, okresowo uaktualniających bazę danych. W odróżnieniu od usługi Archie, VERONICA nie tylko umożliwia odszukanie informacji, ale również natychmiastowy dostęp do niej poprzez dynamiczne tworzenie menu typu gopherowego.
Systemy przeszukiwania przestrzeni WWW W przeciwieństwie do FTP czy Gophera, w przypadku przestrzeni WWW istnieje ogromna ilość systemów wyszukiwawczych. Podobnie jak VERONICA, systemy te są proste w obsłudze i wykonują przeszukiwanie na podstawie podanych przez użytkownika słów kluczowych, często oferując również możliwość formułowania bardziej złożonych zapytań. Oprócz tego autorzy wielu z tych systemów dokonują klasyfikacji zasobów Internetu, umożliwiając ich przeglądanie za pośrednictwem utworzonego swoistego katalogu tematycznego. Do największych i najpopularniejszych systemów tego typu należą: Yahoo, AltaVista, Lycos, InfoSeek i WebCrawler.
Inne usługi
Listy adresowe
Jest to usługa opierająca się na wykorzystaniu poczty elektronicznej w celu umożliwienia szybkiej i łatwej wymiany poglądów przez użytkowników posiadających wspólne zainteresowania. Jej zasada polega na tym, że listy wysłane pocztą elektroniczną na adres serwera obsługującego daną listę są automatycznie rozsyłane do pozostałych członków tej listy. Liczba list adresowych na całym świecie jest bardzo duża i obejmują one najrozmaitsze tematy. Na większość z nich zapisać się może każdy, są jednak także listy dostępne tylko dla określonych użytkowników (np. lista dla administratorów sieci lokalnych Politechniki Łódzkiej). Niektóre listy działają na zasadzie automatycznego rozsyłania wszystkich nadesłanych listów, inne są objęte swoistą cenzurą w celu zapewnienia zgodności treści listów z tematyką danej listy.
Listy adresowe są bardzo skuteczną formą wymiany informacji na dany temat. Podstawową wadą tej usługi jest konieczność nieustannego kontrolowania nadchodzącej poczty i usuwania nadchodzących listów ze swojej skrzynki pocztowej. Jest to szczególnie ważne w przypadku list obejmujących dużą liczbę osób i dotyczących popularnych tematów.
Usenet
Podobnie jak listy adresowe, Usenet jest usługą pomyślaną jako forum wymiany poglądów na dany temat, w ramach określonych grup dyskusyjnych. Różnica polega na tym, że w przypadku Usenetu artykuły wysłane do danej grupy dyskusyjnej pozostają na serwerze. W tym przypadku inicjatywa w dostępie należy do użytkownika, który przy pomocy specjalnego programu zwanego czytnikiem może łączyć się z serwerem i przeglądać treści artykułów, a także wysyłać własne. Usenet jest więc usługą tworzącą coś w rodzaju elektronicznej tablicy ogłoszeń. Tablica ta ma jednak zasięg globalny, gdyż poszczególne serwery na całym świecie wymieniają między sobą otrzymane artykuły. Podobnie jak w przypadku list adresowych, istnieją grupy dyskusyjne, w których treści nadsyłanych artykułów są kontrolowane pod kątem ich zgodności z tematyką grupy.
IRC
IRC (Internet Relay Chat) jest usługą pozwalającą na prowadzenie na bieżąco zdalnej rozmowy pomiędzy wieloma osobami. Po połączeniu się z serwerem IRC i włączeniu się do jakiegoś kanału wpisywany z klawiatury tekst będzie ukazywał się na ekranie wszystkich kanałów IRC, każdy poświęcony określonej tematyce.
Załącznik do sieci komputerowych
RODZAJE I TOPOLOGIE SIECI KOMPUTEROWYCH.
ZABEZPIECZENIA ZASOBÓW INFORMACYJNYCH W SIECIACH KOMPUTEROWYCH.
URZĄDZENIA SIECIOWE ORAZ TYPY POŁĄCZEŃ
LITERATURA ZALECANA
Bremmer L. M.: Intranet - Biblia. Warszawa, MIKOM 1997
Bułhak L.: Oficyna „HELP” uczy obsługi komputera. HELP 1997
Cielątkowski J., Porębski W.: IBM dla każdego. Warszawa, HELP 1992
Czajkowski M.: Excell 7.0. CROMA 1997
Czajkowski M.: Power Point 97 - prezentacje jak się patrzy. CROMA 1997
Dec Z, Konieczny R. ABC Komputera. Kraków, EDITION 2000
Filocha M.: Ćwiczenia z systemu Novell Netware. Warszawa, MIKOM 1995
Flakiewicz W.: Zarządzanie przez informację. Warszawa, BMK 1993
Głuszkowski T.: Arkusze kalkulacyjne, przykłady zastosowań, tricki. Łódź, BROKER 1993
Hart-Davis G.: ABC Microsoft Office 97. Warszawa, MIKOM 1997
Heskop B., Angell D.: WORD 97- Biblia. RM 1998
Hetzger P., Jałowiecki A.: Anatomia PC. HELION 1997
Kisielnicki J. Informatyczna infrastruktura zarządzania. Warszawa, PWN 1993
Kluczna K. ABC WINDOWS 98. Kraków, EDITION 2000
Koronkiewicz P.: Alchemia użytkownika Windows 95 czyli.... CROMA 1997
Krzymowski B.: OFFICE 97 PL. HELP 1997
Krzymowski B.: Pierwsze teksty w edytorze WORD. Warszawa, HELP 1994
Krzymowski B.: Pierwsze teksty w edytorze WORD. Warszawa, HELP 1994
Krzymowski B.: Works 4PL dla Windows 95, pierwsza pomoc. HELP 1996
Kuciński K. ABC EXCELA. Kraków, EDITION 2000
Metzeer P, Jełowiecki A. Anatomia PC. Warszawa, HELION 1999
Michalski W.: Arkusze kalkulacyjne w zastosowaniach praktycznych. Warszawa, MIKOM 1996
Microsoft: EXCELL - krok po kroku. READ ME 1995
Microsoft: WINDOWS - Podręcznik dla użytkownika wersja .... MICROSOFT CORPORATION
MICROSOFT-PRESS: Access 7.0 - krok po kroku. CATAPULT 1997
Nowakowski Z, Sikorski W. Informatyka bez tajemnic. Warszawa, MIKOM 1995
Płoszajski G. Elementy informatyki, użytkowanie komputera. Warszawa, WsiP 1999.
Sroka H. (red) Informatyka Akademia Ekonomiczna w Katowicach 1994
Stallings W.: Ochrona danych w sieci i intersieci. Warszawa, WNT 1997
Tor A. Nauka przez ćwiczenia EXCEL 97, ACCESS 97, WORD 97, podstawy z przykładami. Warszawa, TORTECH 1998.
Wojtuszkiewicz K. Urządzenia techniki komputerowej, jak działa komputer. Warszawa, MIKOM 1999.
Wróblewski P.: Algorytmy, struktury danych i techniki programowania. Gliwice, HELION 1997
1
72
76
16 Mb/s
Token Ring
10 Mb/s
Ethernet
10 Mb/s
Ethernet
Local Area Network
Ethernet
Token Ring
FDDI/CDDI
Switching Ethernet
Fast Ethernet
100VG-AnyLan
ATM
Różnorodność sposobów
Transmisji danych
LAN
MAN
WAN
Modele przetwarzania i
transmisji danych
komputer centralny - terminal
klient - serwer zasobów
klient - serwer usług
sieci peer to peer
Metropolitan Area Network/
Wide Area Network
analogowe linie komutowane
analogowe linie stałe
sieć cyfrowa ISDN
sieci pakietowe X.25, Frame Relay
ATM
połączenia satelitarne
Internet
Karta IBM
Koncentrator
Koncentrator
100 Mb/s
FDDI/CDDI
Wiele równoczesnych kanałów 10 Mb/s
Switching Ethernet
100 Mb/s
hub
hub
Koncentrator
10/100 Mb/s
100VG-AnyLAN
Fast Ethernet
Router
155-622 Mb/s
Porównanie systemów
operacyjnych
przyjęty model przetwarzania
stabilność wybranego systemu
oferowany zakres usług
wspomaganie pracy administratora
komunikacja z innymi systemami
otwartość na protokoły komunikacyjne
ATM
Modele ochrony NetWare 4
Modele ochrony danych
w systemie NetWare 4
Zabezpieczony
Kontrolowany
Chroniony
Podstawowy
Prosty
Model prosty, wymagania cd.
przesyłanie archiwów na zewnątrz
instalacja oprogramowania sieciowego zgodnie ze specyfikacją
wybór odpowiedniego hasła dla Admina
umieszczenie urządzenia do archiwizacji w bezpiecznym miejscu
usunięcie hasła zdalnej konsoli z Autoexec.NCF
Model prosty
Wymagania:
każdy użytkownik posiada hasło
sieciowy pakiet antywirusowy
okresowa archiwizacja
zabezpieczenie konsoli serwera
fizyczna ochrona serwera
Model podstawowy, wymagania cd.
zapasowa archiwizacja
usunięcie DOS-u z serwera
pełne zrozumienie systemu ochrony plików oraz NDS
różne hasła konsoli i admina
Model podstawowy
Wymagania:
szkolenie użytkowników na temat haseł, wirusów komputerowych
wyłączanie i zabezpieczanie stanowisk roboczych po zakończeniu pracy
testowanie archiwizowanych plików
Model chroniony, wymagania cd.
uruchomienie śledzenia włamań
całkowite lub częściowe usunięcie uprawnień (Public)
sprawdzanie haseł
regularne sprawdzanie wielkości plików wykonywalnych
wymaganie zmiany hasła, unikalne hasła
sprawdzanie ACL
Model chroniony
Wymagania:
hasła dla serwerów drukarek
sprawdzanie scenariuszy zgłoszeń użytkowników
ograniczenie liczby równoczesnych połączeń
usunięcie użytkownika Admin
wprowadzenie ograniczeń czasu pracy
usuwanie niepotrzebnych kont użytkowników
stosowanie modułów (NLM) przetestowanych przez firmę Novell
Model zabezpieczony
Wymagania:
usunięcie nieużywanych stacji dysków ze stanowisk roboczych
wprowadzenie ograniczeń fizycznych połączeń
zabezpieczenie wszystkich stanowisk roboczych
zabezpieczenie urządzeń sieciowych
wyeliminowanie niezabezpieczonych kont użytkowników
Model kontrolowany
Wymagania:
okresowa kontrola sieci przez zewnętrznych kontrolerów
obserwacja i kontrola dostępu do serwera, stanowisk roboczych, okablowania, sprzętu sieciowego
okresowe szkolenie użytkowników oraz administratorów na temat ochrony