Systemy sieciowe Banyan
Firma Banyan, producent sztandarowego systemu VINES, twierdziła zawsze, że jej sieci są przejrzyste dla ich użytkownika. System VINES organizował bowiem zasoby sieci rozproszonych w taki sposób, że wydawały się one stanowić jedną kompleksową całość sieciową - i stąd reklamowany był jako najlepsze ze wszystkich rozwiązań sieciowych przeznaczonych dla komputerów PC.
1.1. Usługi i aplikacje systemu VINES
Składnikiem kluczowym umożliwiającym działanie systemu VINES w sieciach rozproszonych jest jego część o nazwie ENS (ang. Enterprise Network Services, czyli obsługa sieci (komputerowej) przedsiębiorstwa). Na ENS składają się następujące elementy:
usługi katalogowe (StreetTalk),
usługi zarządzania siecią,
usługi inteligentnego przesyłania komunikatów,
usługi zabezpieczeń.
Wszystkie cztery ze wspomnianych powyżej składników usługi ENS działają na obszarze całej sieci WAN czy też sieci rozproszonej.
1.1.1. Usługi katalogowe (StreetTalk)
Usługi katalogowe i obsługa plików stanowią podstawę każdego systemu sieciowego, a Banyan zaproponował świetny pakiet służący do wykonywania tych czynności. Oprogramowanie umożliwiające systemowi VINES udostępnianie usług sieciowych wszystkim użytkownikom nosi nazwę StreetTalk. Banyan opracował StreetTalk w celu znormalizowania usług obsługi katalogów i plików. Zadaniem pakietu StreetTalk jest więc w zasadzie umożliwienie współdzielenia katalogów i plików znajdujących się w sieci Banyan LAN z innymi systemami obsługi plików, takimi jak NFS (systemu operacyjnego UNIX), NTFS (systemu Windows NT) czy FAT (systemu DOS). I trzeba przyznać, że zadanie to zostało spełnione - system automatycznie integruje z siecią nowo przyłączone do niej stacje. Sprawia to, że utworzenie sieci i jej obsługa stają się całkiem łatwe.
Inna właściwość systemu StreetTalk wynika stąd, że instalowany jest on na każdym serwerze VINES osobno. Jeśli więc jeden serwer obsługujący StreetTalk zostanie uszkodzony, nie spowoduje to załamania całego systemu współdzielenia katalogów i plików. Każdy serwer obsługuje bowiem jedną część "puzzli" i dopiero informacja StreetTalk ze wszystkich serwerów składa się na całość obrazu.
StreetTalk jest w pełni zintegrowany z każdą częścią systemu VINES. Wszystkie usługi, włącznie z takimi jak wysyłanie poczty, drukowanie i usługi katalogowe, używają StreetTalk w celu zlokalizowania w sieci użytkownika czy zasobu. StreetTalk umożliwia użytkownikom logowanie się z każdego miejsca sieci; interfejs wygląda zawsze tak samo, niezależnie od tego, czy użytkownik korzysta z niego w biurze, czy w podróży. Po przyłączeniu do sieci nowego urządzenia, zasobu czy użytkownika, StreetTalk przypisuje mu unikalną nazwę.
Fantastyczną właściwością StreetTalk'a jest jego umiejętność korygowania danych użytkowników, którzy zmienili miejsce przyłączenia do sieci. Sieci ulegają zmianom każdego dnia. StreetTalk umożliwia administratorom pozostawienie stacji roboczych w stanie, w jakim zostały one do sieci przyłączone, dzięki czemu nie muszą oni zmieniać ich ustawień za każdym razem, gdy ich użytkownik zechce przenieść się w inne miejsce. StreetTalk określa miejsce lokalizacji stacji po jej pierwszym zalogowaniu się jej użytkownika w sieci. Oszczędza to administratorom naprawdę znaczne ilości czasu.
Istnieje również serwis o nazwie STDA (ang. StreetTalk Directory Assistance), który pełni funkcję pomocy katalogowej umożliwiającej administratorom i użytkownikom wyszukiwanie terminów w sposób podobny jak w książce telefonicznej. Można dzięki niemu w kolejności alfabetycznej utworzyć listę wszystkich zasobów sieci. Dzięki temu możliwe jest znajdywanie użytkowników, zasobów i serwerów nawet w dużych sieciach V1NES.
1.1.2. Usługi zarządzania siecią
Do zarządzania sieciami firma Banyan korzysta z usług, które nazywa usługami NMS (ang. Network Management Sennces). Serwis ten udostępnia interfejs o łatwych do obsługi ekranach przedstawiających informacje w zrozumiały sposób. Za pomocą systemu VINES NMS można zarządzać takimi pozycjami, jak czynności użytkownika, zmiany i usuwanie zasobów w sieci, bezpieczeństwo, aplikacje i wydajność.
W połączeniu z tą usługą korzystać można z Asystenta VINES. Asystent udostępnia wiele przydatnych narzędzi zaprojektowanych w celu maksymalizacji sprawności sieci i ułatwienia administratorom kontroli nad zasobami sieci. Hierarchiczny system menu ułatwia administratorom wykonywanie poszczególnych czynności.
1.1.3. Usługi inteligentnego przesyłania komunikatów
Przesyłanie komunikatów systemu VINES potrafi samodzielnie dokonać odpowiedniej autokonfiguracji i poprawnie współpracuje ze wszystkimi programami obsługi poczty elektronicznej. Jest przy tym w pełni zintegrowany z systemem StreetTalk, dzięki czemu w celu uzyskania do niego dostępu wystarczy zarejestrowanie się w bazie danych StreetTalk jednego tylko z przyłączonych do sieci serwerów. Po zarejestrowaniu się można swobodnie korzystać z całej sieci, w tym między innymi przeglądać informacje adresowe dotyczące użytkowników sieci, a także odbierać - po podaniu odpowiedniego hasła - pocztę elektroniczną na dowolnej stacji roboczej. Jest to możliwe dzięki temu, że informacje adresowe o użytkownikach zapisywane są wyłącznie w systemie StreetTalk. Dzięki temu, niezależnie od rodzaju programu obsługi poczty elektronicznej, z jakiego korzystać będą użytkownicy, współpraca z systemem przesyłania komunikatów systemu VINES będzie poprawna. Co więcej, usługi przesyłania komunikatów są tak dobrze wbudowane w system NMS, że administratorzy mogą, jeśli zajdzie taka potrzeba, monitorować wszystkie przesyłane wiadomości.
1.1.4. Usługi bezpieczeństwa
Usługi bezpieczeństwa są przezroczyste dla użytkowników sieci, ale mimo to są bardzo efektywne. Pozwalają na zabezpieczanie plików, drukarek, bram, aplikacji i innych zasobów. Kontrola zasobów ma miejsce w momencie uzyskiwania do nich dostępu, więc nawet jeśli haker byłby fizycznie przyłączony do serwera, to nie udałoby mu się uzyskać dostępu do żadnego zasobu, jeśli nie znajdowałby się na liście praw dostępu (ang. ARL - Access Rights List) tego serwera. Lista praw dostępu jest prostym sposobem zarządzania bezpieczeństwem w sieci VINES.
1.2. Standardy obsługiwane przez VINES
Sieci VINES współpracują z wieloma różnymi standardami i protokołami, zarówno na swoich łączach komunikacyjnych, jak i na wielu klienckich systemach operacyjnych. Głównymi standardami obsługiwanymi przez VINES są:
Standardy komunikacyjne: LAN, dial-up, X.25, SNA, TCP/IP oraz IBM 3270. Połączenia bram tych standardów obsługiwane są podczas łączenia geograficznie odległych sieci VINES w jeden system.
Klienckie systemy operacyjne: DOS, Windows, OS/2 i Macintosh. Każdy z nich może być używany jako system operacyjny klienta. VINES udostępnia zasoby sieciowe przy użyciu rodzimych interfejsów tych systemów operacyjnych. Dzięki temu użytkownicy nie muszą poznawać nowego "specjalnego" interfejsu sieciowego w celu uzyskania dostępu do zasobów sieciowych ich stacji roboczych pracujących pod kontrolą jednego z wymienionych systemów operacyjnych.
1.3. Mocne i słabe strony VINES
Banyan próbuje ukryć fakt, że VINES zbudowany został na fundamentach systemu UNIX. A więc UNIX jest bazowym systemem operacyjnym, dzięki któremu VINES może w ogóle działać. UNIX jest jednak często nieaprobowany przez dostawców nowoczesnych technologii. Mimo że, system ten został opracowany wiele lat temu, nadal jest świetnym systemem operacyjnym. Cóż, jeśli wiek UNIX-a odstrasza wiele osób - zwłaszcza tych, które przy wyborze technologii informatycznych kierują się zasadą, którą ująć można następującym dwuwierszem:
"Technologia stara (już nie jara) lecz się może dobrze jara".
/Z. Gała/
Prawdziwą siłą systemu VINES jest jego usługa katalogowa StreetTalk. Stanowi ona pierwszą realizację pomysłu hierarchicznego listowania osób i zasobów wewnętrznej sieci przedsiębiorstwa. Usługa ta jest bardzo niezawodna i daje się przy tym łatwo konfigurować. Inną zaletą systemu VINES jest fakt, że pozwala on - przy użyciu wspomnianej wyżej usługi ENS - na obsługę wielu różnych platform, w tym takich jak: NetWare, UNIX (AIX, SCO i Solaris) oraz NT. Umożliwia to włączenie innych systemów LAN do usługi katalogowej StreetTalk.
Mimo wielu zalet systemu V1NES, lista jego wad jest niemała. Obsługa urządzeń sprzętowych jest bardzo ograniczona. Windows NT - dla porównania - umożliwia błyskawiczne rozpoznanie i konfigurację większości przyłączonych do sieci urządzeń. VINES zbudowany jest jednak na podstawie platformy starego UNIX-a, co oznacza, że rozpoznawanie urządzeń sprzętowych nie jest możliwe. Ponadto VINES potrafi obsługiwać jedynie ograniczoną liczbę urządzeń. W połączeniu z przerażająco drogą obsługą techniczną sprawia to, że VINES nie jest systemem wartym zakładania go tam, gdzie nie został jeszcze założony. Tym bardziej, że firmie Banyan nie udało się zgromadzić środków umożliwiających kontynuację rozwoju tego produktu, co nie wróży mu dobrej przyszłości.
2. Novell NetWare
Firma Novell ustanowiła światowy standard, jeśli chodzi o obsługę sieci LAN. Banyan natomiast opracował lepsze usługi katalogowe. Wszak pierwszą usługą katalogową była właśnie StreetTalk firmy Banyan. Przed jej opracowaniem jedyną usługą obsługi katalogów/plików był UNIX-owy system NFS (ang. Network File System - system plików sieciowych). NFS został jednak zaprojektowany do obsługi sieci WAN, które składają się z wielu różnych systemów hostów. StreetTalk został zaprojektowany specjalnie dla sieci LAN. Novell oczywiście szybko opracował podobny system. I zrobił to dobrze.
Żadna inna firma nie potraktowała sieci na początku lat 80 tak poważnie jak Novell. Pozostaje on więc liderem na tym rynku, choć jej miejsce powoli zajmuje Microsoft. Czy rzeczywiście zajmie - trudno na razie prorokować. Według danych IDC (ang. International Data Corporation), czyli Korporacji Danych Międzynarodowych, w 1996 roku na świecie sprzedano 2,4 miliona sieciowych systemów operacyjnych, przy czym 41% z tego sprzedał Novell. IDC przy tym przewiduje, że udział firmy Novell w sprzedaży sieciowych systemów operacyjnych w latach 1996 do 2000 zwiększy się o 8 punktów procentowych. Novell jak dotychczas oferował lepsze rozwiązania, jeśli chodzi o sieci rozproszone i wewnątrz-korporacyjne.
Novell NetWare był pierwszym sieciowym systemem operacyjnym, który umożliwiał obsługę wielu platform. Był to też pierwszy sieciowy system operacyjny obsługujący sieci o różnych topologiach oraz trasowanie przesyłanych między nimi danych. Prawdziwa siła systemu NetWare polegała na tym, że był on pierwszym sieciowym systemem operacyjnym pozwalającym na obsługę sieci komputerów pracujących pod kontrolą DOS-u. Firma Novell dostrzegła również system Apple, dla którego NetWare stał się pierwszym sieciowym systemem operacyjnym udostępniającym usługi TCP/IP. Przyniosło to później niemałe korzyści - zwłaszcza w godzinie sławy AppleTalk i innych systemów Apple. Ale wszystko to jest wynikiem ponadprzeciętnych właściwości systemu Novell NetWare, które przedstawiam w następnym punkcie.
2.1. Właściwości NetWare
Główną przyczyną tego, że systemowi NetWare udało się tak dalece wyprzedzić konkurencję, jest fakt, że NetWare jest systemem operacyjnym zaprojektowanym specjalnie do obsługi sieci. System Banyan wymaga uprzedniego zainstalowania systemu UNIX. Windows NT jest natomiast, tak jak NetWare, systemem operacyjnym, ale w odróżnieniu od NetWare, nie został on zaprojektowany specjalnie jako system maksymalizujący sprawność usług sieciowych. NetWare został utworzony z myślą o optymalizacji czynności sieciowych, co stanowi o jego przewadze w stosunku do pozostałych systemów sieciowych. Właściwościami decydującymi o owej przewadze są:
obsługa NDS, czyli obsługa katalogów NetWare,
usługi bezpieczeństwa,
usługi baz danych,
usługi przesyłania komunikatów,
usługi drukowania,
moduły NLM, czyli moduły ładowalne NetWare.
Pierwsza ze wspomnianych sześciu usług sprawia, że Novell nadal stanowi mocną konkurencję względem Windows NT. Na utworzenie przez Banyan systemu StreetTalk Novell odpowiedział opracowaniem usługi NDS.
2.2. Standardy obsługiwane przez NetWare
Podczas tworzenia systemu NDS Novell zdecydował zastosować się do standardu X.5OO komitetu CCITT. Novell jest firmą w dużym stopniu uwzględniającą standardy otwarte podczas opracowywania swoich produktów. Dzięki zastosowaniu się do hierarchicznej struktury nazwy standardu X.5OO, NDS uniemożliwia tworzenie kopii obiektów. Każdy z nich musi bowiem mieć swoją własną rozróżnialną nazwę (ang. Distinguished Name, w skrócie DN). Jeśli więc w dziale sprzedaży pracowałby pracownik o imieniu Bil a numerem działu byłoby 2345, to rozróżnialną nazwą pracownika byłoby BILL.SALES.2345. Samo imię BILL (bez dodania SALES.2345) stanowi tzw. RDN, czyli względną nazwę rozróżnialną (ang. Relative Distinguished Mamę).
Podczas korzystania z usług NDS każdy obiekt musi być unikatowo zidentyfikowany przez określenie miejsca tego obiektu w drzewie katalogów. Dzięki temu z jednej względnej nazwy rozróżnialnej (RDN) korzystać można w połączeniu z różnymi tzw. pojemnikami. Dla usług NDS Novell pojemniki są czymś w rodzaju archiwum informacji o grupach osób korzystających z określonego serwera. Można na przykład korzystać ze względnej nazwy BILL zarówno dla pojemnika SALES.2345, jak i dla pojemnika HR.2345. Właściwość ta jest bardzo mocną cechą systemu NDS. System NDS umożliwia podział rzeczywistości - za pomocą pojemników - na elementy i zasoby, które Novell nazywa "liśćmi" lub "obiektami liści".
Obiektami pośredniego szczebla systemu NDS, które przez Novell nazywane są "obiektami pojemników" (pojemników na obiekty, czyli na liście) są Organizacja (O), Jednostka organizacyjna (OU), Kraj (C), a także [Root]. Zwykle obiektami liści są użytkownicy, drukarki, serwery, mapy katalogów, itp. Takie znaczenie "obiektu liścia" może być cokolwiek mylące, ale jego sens jest logicznie uzasadniony. W znaczeniu tradycyjnym liść jest obiektem znajdującym się na końcu drzewa, czyli obiektem, który nie zawiera innych obiektów. Podobnie Novell używa tego terminu na określenie obiektu, który nie może zawierać w sobie innych obiektów. W związku z tym, jeśli coś jest "obiektem liścia", to znajduje się na końcu drzewa struktury katalogowej. Najczęściej jest nim drukarka lub użytkownik. W systemie NDS tworzyć można nieograniczoną liczbę pojemników i obiektów. Standardowo w systemie NDS znajduje się 37 typów pojemników i obiektów liści. Umożliwiają one zarządzanie zasobami wszelkiego rodzaju. Po przyłączeniu do sieci nowych zasobów, można zdefiniować nowe typy obiektów i dodać je do struktury nazw NDS.
Użytkownicy ADMIN mogą oglądać graficznie uporządkowaną, czytelną strukturę obiektów systemu NDS. Jako użytkownik ADMIN zalogować się można z dowolnej stacji roboczej. Umożliwia to zarządzanie całym drzewem katalogów; można dodawać i usuwać użytkowników, serwery i inne zasoby sieciowe. Użytkownicy w celu uzyskania dostępu do zasobów sieciowych muszą logować się tylko raz. NDS jest prawdopodobnie najlepszą dostępną usługą katalogową.
Microsoft zmienił ostatnio nazwy swoich usług obsługi katalogów, ale nie spowodowało to specjalnego zbliżenia systemu NT do obiektowo zorientowanej struktury bazy danych, której przykładem jest NDS.
2.3. Usługi bezpieczeństwa
Bezpieczeństwo jest kolejnym obszarem, na którym NetWare ma możliwość zabłyśnięcia. Firma Novell - jako pomysłodawca wykorzystania nazw użytkowników, haseł i profili użytkownika w sieci LAN - ustanowiła standard dla usług bezpieczeństwa. Informacje profilu użytkownika zapisywane są na dysku sieciowym NetWare w formacie zaszyfrowanym. Rozwiązanie to jest o tyle wspaniałe, że umożliwia dostęp do plików, do których użytkownicy systemów DOS, UNIX, OS/2, czy Windows nie mogą uzyskać dostępu nawet na poziomie fizycznym.
Informacja dotycząca hasła przesyłana jest ze stacji roboczej do serwera w formacie zaszyfrowanym. Nawet administrator nie może sprawdzić znajdującego się na serwerze hasła użytkownika. Administrator może zwiększyć lub zmniejszyć liczbę zezwoleń nadanych użytkownikowi, ale tylko użytkownik wie, jakie jest jego hasło. Administrator może określić, jak często użytkownik musi zmieniać swoje hasło, ale nie ma możliwości dokonania tej zmiany.
Użytkownicy mają dostęp do tych samych zasobów, niezależnie od tego czy uzyskują go za pośrednictwem stacji roboczych, czy bezpośrednio z serwera, ze względu na to, że zabezpieczenia NetWare ustanowione zostały na poziomie najniższym z możliwych. Wszelkie próby uzyskania dostępu do informacji lub zasobów sieciowych przechodzą przez system bezpieczeństwa NetWare. Również zatem system NDS obsługi katalogów NetWare jest ściśle powiązany z systemem bezpieczeństwa NetWare. Dzięki temu użytkownicy uzyskują dostęp tylko do tych zasobów, do których hasła i zezwolenia ich upoważniają. W systemie bezpieczeństwa NetWare wykryto niewiele słabych stron; w systemie Windows NT ich wielość zawsze była źródłem krytyki.
2.4. Usługi baz danych
Inną mocną stroną systemu NetWare jest fakt, że oferuje on usługi bazy danych sieci LAN w środowisku klient-serwer. Usługi te znacznie ułatwiają życie wszystkim twórcom aplikacji pisanych pod Novell Netware. Tworzą one bowiem główne archiwum informacji, które składowane są w serwerze. W systemie NetWare dostępne są dwie usługi baz danych: NetWare Btrieve oraz NetWare SQL.
Btrieve jest systemem baz danych indeksowanym przy użyciu klucza, zaprojektowanym w celu ułatwienia tworzenia aplikacji specjalistycznych. Wiele przedsiębiorstw korzysta z systemu Btrieve w celu zapisywania danych (rekordów) na serwerze NetWare. Użytkownicy stacji roboczych mogą dzięki temu uzyskiwać do tych danych szybki dostęp.
Próbując dostosować się do standardów przemysłowych, Novell opracował system NetWare SQL (ang. Structured Query Language). SQL jest starym (czy raczej: dojrzałym) standardem używanym w sieciach mainframe do wykorzystywania informacji zapisanych w komputerze głównym. Istnieje wiele wersji SQL, ale Novell starał się trzymać pierwotnej wersji SQL podczas opracowywania swojej wersji sieci LAN. W NetWare SQL uczyniono o jeden krok więcej w porównaniu z Btrieve, wprowadzając możliwość dostępu do rekordów Btrieve z poziomu różnych platform i aplikacji.
Mimo że NetWare do zarządzania rekordami używa Btrieve, to wykorzystanie SQL jako interfejsu NetWare SQL umożliwia wielu platformom dostęp do rekordów Btrieve. Dzięki temu aplikacje opracowane dla Btrieve oraz dla SQL mogą poprawnie współdzielić dane. System NetWare obsługuje wiele różnych aplikacji innych producentów, ale dwie wyżej wspomniane stanowią najlepsze narzędzia do tworzenia aplikacji dla sieci Novell LAN.
2.5. Usługi przesyłania komunikatów
Ostatnimi laty w dziedzinie usług przesyłania komunikatów dokonał się znaczny rozwój. Novell nie jest oczywiście jedyną firmą działającą na tym polu. Na pewno usługi przesyłania komunikatów zyskają nową twarz, lecz zapewne podstawy, które Novell stosuje od lat, nie ulegną większym zmianom.
Tradycyjną nazwą używaną na określenie tej usługi była NetWare Message Handling Service, czyli właśnie usługa przekazywania komunikatów - w skrócie MHS. Umożliwia ona łatwe przesyłanie komunikatów między wieloma różnymi aplikacjami czołowymi. Aplikacje te mogą współdzielić dane znajdujące się w różnych miejscach sieci tak LAN, jak i WAN. Usługa MHS może być zainstalowana również na pojedynczym przyłączonym do sieci komputerze PC. Można go tak skonfigurować, aby przesyłał dane w określonym czasie. Dzięki temu dane można przesyłać w czasie, kiedy ruch w sieci jest najmniejszy, lub kiedy najniższe są opłaty za jej używanie.
Twórcy oprogramowania mogą od firmy Novell uzyskać zestawy ułatwiające tworzenie aplikacji i usług związanych z przesyłaniem komunikatów w sieci NetWare. Usługa MHS jest stale rozbudowywana i zmieniana, ale wciąż (a może dzięki temu) zapewnia efektywny i tani sposób przesyłania wiadomości z jednego miejsca sieciowego środowiska Novell w inne.
2.6. Usługi drukowania
Usługi drukowania są w przypadku NetWare rodzime dla środowiska systemu operacyjnego NetWare. Usługi podstawowe umożliwiają użytkownikom współdzielenie do 16 drukarek przy użyciu sieciowego serwera wydruku. Sieci NetWare umożliwiają dostęp do wielu serwerów wydruku w ramach jednej sieci, a prawdziwa elastyczność drukowania w sieci NetWare wynika z faktu, że drukarki w celu korzystania z nich wcale nie muszą być bezpośrednio przyłączane do serwera wydruków.
Drukarka może być przyłączona do serwera, ale równie dobrze może być przyłączona do stacji roboczej znajdującej się gdzieś w sieci. Mimo że drukarki przyłączone do stacji roboczych nadal obsługiwane są przez serwer wydruków, to w stacjach takich należy zainstalować oprogramowanie serwera wydruków, a dokładnie rzecz biorąc, niewielki program rezydentny (ang. TSR - Terminale and Stay Resideni). Dzięki temu w sieciach Novell skonfigurować można wiele różnych kombinacji drukarek i serwerów wydruku.
2.7. Moduły ładowalne NetWare (moduły NLM)
Moduły ładowalne NetWare są niezbędne do zapewnienia poprawnego działania oprogramowania NetWare. Począwszy od wersji 3.12 systemu NetWare, moduły ładowalne stały się podstawą sieciowych działań systemu Novell. Owe interfejsy programowe umożliwiają aplikacjom klient-serwer działanie w charakterze modułów. Ułatwia to obsługę często wykorzystywanych usług sieciowych serwera. Aplikacje NLM mogą dzięki temu mieć taki sam, jak moduły, dostęp do usług bezpieczeństwa NetWare, co sprawia, że są one łatwe do kontroli i administrowania.
Pozytywną właściwością modułów ładowalnych NetWare jest to, że nie wymagają one wyłączania serwera w celu ich załadowania czy też usunięcia. Dzięki temu aplikacje mogą być ładowane i usuwane w dowolnej chwili. Administratorzy mogą więc tworzyć pliki wsadowe w odpowiednim czasie ładujące i usuwające moduły NLM. Novell oferuje wiele zestawów służących do takiego projektowania aplikacji, które umożliwia korzystanie z nich jako z modułów NLM.
2.8. Standardy obsługiwane przez NetWare
NetWare potrafi obsługiwać wiele różnych standardów i protokołów działających za pośrednictwem łączy komunikacyjnych oraz kilka klienckich systemów operacyjnych:
Standardy komunikacyjne: LAN, dial-up, X.25, SNA, SDLC, ISDN, Tl, TCP/IP oraz IBM 3270. Połączenia bram tych standardów obsługiwane są przez NetWare. Oprócz tego Novell sam produkuje dostosowane do obsługi NetWare routery i mostki. NetWare Link/64 jest urządzeniem umożliwiającym przesyłanie danych między geograficznie oddalonymi stacjami roboczymi z prędkościami wahającymi się od 9,6 bps do 64 Kbps. Do tego samego służy łącze NetWare Tl, tyle że umożliwia ono transmisję z prędkością 2,084 Mbps. Wieloprotokołowy router NetWare obsługuje protokoły IPX, IP oraz AppleTalk. Umożliwia on użytkownikom łączenie sieci Ethernet, Token Ring, Local Ring oraz ARCnet w dowolny sposób, a także umożliwia przezroczysty sposób korzystania ze wszystkich zasobów sieciowych każdej z tak połączonych sieci.
Klienckie systemy operacyjne: DOS, Windows, OS/2, UNIX oraz Macintosh. Pod kontrolą takich systemów mogą pracować stacje klientów sieci NetWare.
2.9. Mocne i słabe strony NetWare
Główną siłą Novell NetWare jest jego pozycja wynikająca z tego, że jest to najczęściej stosowany sieciowy system operacyjny dla sieci lokalnych. Mimo że Microsoft ostatnio odbiera Novellowi część jego siły przebicia, to jest to niewielka cząstka, która nie jest w stanie zaszkodzić wyżej wspomnianej pozycji Novella. Pozycji, którą zawdzięcza najlepszemu oprogramowaniu serwerów plików i wydruków. Bo właśnie odpowiedni sposób udostępniania plików i drukarek czyni z sieci prawdziwie efektywne narzędzie pracy.
NetWare obsługuje najszerszy zakres usług służących obsłudze przedsiębiorstwa. Uprzednio omówiony system NDS jest najlepszą dostępną na rynku usługą katalogową systemu operacyjnego dla sieci LAN. Po zestawieniu powyższych właściwości NetWare z możliwością dostępu do bardzo wielu dobrych narzędzi różnych producentów oprogramowania, łatwo dostrzec, dlaczego NetWare warto uwzględnić podczas podejmowania decyzji o rodzaju sieci w przedsiębiorstwie. Tym bardziej, że oferta Microsoftu, czyli konkurencji w zakresie obsługi przedsiębiorstw, jest bardzo słaba.
Novell mógłby jednak pomyśleć o poprawie systemu w kilku miejscach - na przykład w zakresie obsługi aplikacji. NetWare świetnie udostępnia pliki i zasoby, ale jako dostawca rozproszonych aplikacji klient/serwer przegrywa z Microsoftem.
Słabym punktem NetWare jest również monitorowanie stanu sieci oraz ogólne zarządzanie siecią. Choć w NetWare wbudowanych jest kilka narzędzi zarządzania siecią, to nie spełniają one swojego zadania. Wielu administratorów nie jest pewnych, co do stanu zarządzanej przez nich sieci - nie wiedzą, czy jest ona wykorzystywana efektywnie, czy też nie. Czy następna wersja NetWare, poprawi coś w tym względzie?
3. Microsoft Windows NT
Windows for Workgroups był dla Microsoftu wyłącznie stopniem pośrednim między Windows 3.0 a Windows 95. Windows 95 jest pierwszym produktem tej firmy z wbudowanymi protokołami IPX/SPX oraz TCP/IP, czyli pierwszą jej poważniejszą ofertą ukierunkowaną na rynek sieci.
Prawdopodobnie właśnie podczas prac nad Windows 95 w Microsofcie zdano sobie sprawę, że w celu zwiększenia sprzedaży tego systemu potrzebować on będzie zwiększenia swoich możliwości sieciowych. Wkrótce potem okazało się, że użytkownicy zdecydowali, iż aplikacje, interfejsy graficzne oraz możliwość zarządzania nimi oraz korzystania z nich jest ważniejsza niż możliwość pracy w stabilnej sieci.
Microsoft stale poprawiał i rozwijał aplikacje pracujące w środowisku systemu operacyjnego Windows 95. Administratorzy uwierzyli, że jeśli mają opracować jakąś aplikację, to musi być ona stworzona dla platformy Microsoft Windows.
W międzyczasie Microsoft opracował platformę NT i opatrzył ją takim samym interfejsem, jaki zastosował w Windows 95. Wiele osób dziwiło się więc (przynajmniej na początku), że aplikacje, które działały w środowisku DOS, działały również pod Windows 95, ale nie chciały działać w środowisku Windows NT. Mimo to, po wypuszczeniu na rynek wersji Windows NT Server, reklamowana ona była jako najlepszy sieciowy system operacyjny dla sieci, w których Windows 95 zainstalowany był na stacjach roboczych.
Po tym, jak użytkownicy przyzwyczaili się do obsługi aplikacji w systemie Windows 95, dla producentów tych aplikacji było oczywiste, że następne ich wersje powinny być przystosowane do działania również w środowisku NT. W międzyczasie stare systemy Novell zostały dostosowane do obsługi Windows for Workgroups. Tyle że na większości stacji wymieniono WfW na Windows 95.
Wersja 3.51 systemu Windows NT zawiera wiele anomalii przynajmniej raz dziennie zaznaczających swoją obecność, wersja 4.0 jest już natomiast przyzwoicie wykonanym produktem. Po ustaleniu się reputacji Windows NT jako w pewnym stopniu wiarygodnego systemu, Novell począł bardzo szybko tracić swój udział w rynku. Strategia Microsoftu powiodła się. W większości nowo tworzonych sieci LAN instalowany był Windows NT. Zanim Novell zorientował się, co się stało, najpopularniejszym sieciowym systemem operacyjnym stał się NT Server 4.0 (piszę ":server" przez "v", a nie przez "w", gdyż polska wersja językowa tego systemu nie istnieje).
Szybkość sieci pracującej w systemie NT wymagała początkowo poprawy ze względu na nie największe możliwości procesorów serii 80486 DX2 montowanych wówczas w komputerach PC. Zastąpienie ich przez procesory serii Pentium sprawiło, że pecety mogły już swobodnie korzystać z sieci obsługiwanych przez Windows NT. Windows wygrał więc, nawet w opinii wielu użytkowników systemu NetWare, ze względu na lepszą integrację aplikacji i usług sieciowych.
Wyglądało to, więc pokrótce tak, że Microsoft pozbierał fragmenty różnych usług sieciowych, tworząc z nich system NT, który następnie połączył w bardzo efektywny sposób z aplikacjami i usługami działającymi na klientach i serwerach. Sieciowe wersje Microsoft Office oraz setek innych obsługiwanych przez NT aplikacji zapewniły systemowi NT znaczną przewagę nad systemem NetWare.
Dziś więc wiadomo, że jeśli aplikacja sieciowa ma się dobrze sprzedawać, powinna być napisana przede wszystkim dla systemu NT. Systemu, którego główne właściwości przedstawiam w następnym punkcie.
3.1. Właściwości Windows NT
Microsoft NT ma tak wiele różnych cech, że nie sposób ująć ich wszystkich w formie krótkiego streszczenia, stąd też ograniczę się tu jedynie do informacji hasłowych. Zamieszczone tam informacje dotyczą także Windows NT i - między innymi - są to raporty na temat większości cech i właściwości tego systemu. A zatem:
Interfejs NT: W systemie NT zastosowano taki sam interfejs użytkownika jak w Windows 95 - w celu zwiększenia zgodności między tymi systemami oraz ułatwienia obsługi systemu NT osobom, które poznały już Windows 95.
Kreatory administracji: Są to małe aplikacje ("applety") ułatwiające wykonywanie zadań, do ułatwiania których zostały powołane. Prowadzą one krok po kroku przez wszystkie etapy wymagane w celu wykonania określonej czynności. Podczas takich czynności, jak: założenie konta użytkownika, określenie zasad dostępu do pliku czy folderu, administratorzy systemu mogą korzystać z pomocy kreatorów ułatwiających im znacznie wykonanie określonego zadania.
Monitory sieci: umożliwiają administratorom sprawdzanie natężenia ruchu do i z serwera na poziomie pakietów. Można również zapisać dane dotyczące ruchu w celu późniejszej jego analizy. Jest to bardzo wygodna funkcja ułatwiająca rozwiązywanie ewentualnych problemów dotyczących sieci. Samo narzędzie, za pomocą pomiarów szacujących przepływ ruchu przez sieć, umożliwia określenie miejsc szczególnie zatłoczonych i wskazanie powodów tych utrudnień ruchu w sieci.
Edytor założeń systemowych oraz Profile: daje Administratorowi prawo zarządzania i opieki nad środowiskiem pracy oraz nad poszczególnymi czynnościami. Umożliwia to użytkownikom korzystanie z tego samego interfejsu niezależnie od miejsca, z którego się logowali.
Menedżer zadań: Służy do kontroli aplikacji i zadań. Udostępnia informacje dotyczące każdej aplikacji i zadania wykonywanego przez stację roboczą oraz stopnia wykorzystania procesora i pamięci. Może być przydatny, choć wielu administratorów uważa go za narzędzie zbyteczne.
Serwer informacji internetowej (IIS): Za pomocą tej właściwości Microsoft wypełnił jedną z poważniejszych luk na rynku systemów operacyjnych. Usługa ta jest ściśle związana z właściwym systemem NT i umożliwia ona administratorom konfigurowanie serwera WWW w bardzo prosty sposób. W skrócie polega to na tym, że każdy plik znajdujący się na serwerze może za pomocą tego narzędzia być publikowany w sieci. Przed wprowadzeniem tej usługi do konfigurowania serwerów WWW używano starszych zestawów UNIX-owych. Microsoft wymyślił graficzny sposób wykonania tego, co wcześniej potrafiło zabrać wiele godzin. Przed wprowadzeniem edytorów HTML wiele osób musiało tworzyć kod HTML za pomocą edytorów tekstowych. Po napisaniu kodu trzeba było przenieść go do serwera WWW albo przez skopiowanie go tam bezpośrednio, albo za pomocą programu FTP. Zabierało to stanowczo zbyt dużo czasu. Usługa IIS pozwala na wykonanie dokładnie tego samego za pomocą kilku kliknięć myszą. Jak widać, jest to bardzo mocny produkt, który Microsoft sprytnie wprowadził w odpowiedniej chwili.
Serwer indeksu pomocy Microsoft: Usługa ta automatycznie indeksuje cały tekst oraz właściwości każdego pliku, który znajduje się na serwerze. Przydaje się zwłaszcza podczas przeszukiwania systemu NT. Usługa ta umożliwia wyszukanie w sieci określonej części określonego pliku czy choćby pliku zawierającego określone słowa kluczowe. Narzędzie to gwarantuje, że każde z wystąpień szukanego słowa zostanie wyświetlone w odpowiednim oknie.
Protokół PPTP: protokół ten umożliwia wykorzystanie Internetu do utworzenia wirtualnych sieci prywatnych, co z kolei pozwala na bezpieczne przyłączenie komputera PC (klienta) do serwera.
Udostępnianie plików i drukarek: Usługa domen Microsoft używa płaskiej struktury nazw w celu określenia logicznych nazw sieciowych użytkowników, drukarek i innych zasobów. Płaska struktura nazw jest odpowiednia dla sieci prostych, składających się z elementów znajdujących się w niewielkiej odległości geograficznej. Taki sposób organizacji niesie jednak ze sobą znaczne ograniczenia, z których jednym - bardzo ważnym ograniczeniem - jest organizacja wszystkich użytkowników i zasobów sieciowych w ramach jednej listy. Znaczenie tego ograniczenia w pełni rozumieją ci, którzy korzystali zarówno z hierarchicznych systemów plików (na przykład sieci Novell), jak i z systemów płaskich (omawiane NT). Jest to powód, dla którego sieci Novell są uważane za lepsze w tym zakresie funkcjonalności.
Serwer klastra Microsoft: Usługa ta umożliwia automatyczny powrót do stanu funkcjonowania po wystąpieniu uszkodzenia serwera bądź aplikacji dzięki "grupowej" obsłudze ważnych aplikacji. Pozwala to na przykład na aktualizowanie wersji systemu NT kolejno dla każdego serwera, co oznacza, że administratorzy nie muszą już zdejmować z sieci ważnych danych podczas przeprowadzania jej konserwacji. Tak długo bowiem, jak jeden choćby z serwerów grupy jest włączony, tak długo aplikacje obsługiwane grupowo mogą być normalnie wykorzystywane przez użytkowników.
Serwer kolejek komunikatów Microsoft: Z kolei ta usługa umożliwia wiarygodną transmisję danych w sieci NT. Nawet wtedy, gdy serwery czy sama sieć są niedostępne bądź niepewne, serwer kolejek komunikatów używa technik zapisz-i-prześlij dalej w celu zapewnienia, że pliki te zostaną dostarczone tam, gdzie dostarczone zostać powinny. Cały mechanizm polega na tym, że kopia komunikatu bądź danych trzymana jest w pliku kolejki, dopóki miejsce docelowe nie będzie gotowe do ich przyjęcia. Jest on szczególnie przydatny wtedy, gdy sieć jest zajęta bądź gdy określona docelowa stacja robocza została wyłączona lub uszkodzona.
Wieloprocesorowy serwer SMP: System NT pozwala użytkownikom na korzystanie z serwerów wieloprocesorowych, które są bardzo szybkimi komputerami o dużym stopniu niezawodności opartymi na więcej niż jednym procesorze; system NT pozwala na instalowanie od jednego do ośmiu procesorów.
3.2. Standardy obsługiwane przez Windows NT
Windows NT potrafi obsługiwać wiele różnych standardów i protokołów działających za pośrednictwem łączy komunikacyjnych oraz kilka klienckich systemów operacyjnych. Główne standardy obsługiwane przez system NT to:
Standardy komunikacyjne: LAN, dial-up, X.25, SNA, SDLC, ISDN, Tl, TCP/IP oraz IBM mainframe. Microsoft jest chwalony za to, że łącza wszelkiego rodzaju - wszystkie jakie tylko użytkownik potrafi sobie wymarzyć - są przez niego obsługiwane. A nawet jeśli okazuje się, że mamy z czymś problem, to zapewne któraś z firm programistycznych opracowała jego rozwiązanie już jakiś czas temu.
Klienckie systemy operacyjne: DOS, Windows, OS/2, UNIX oraz Macintosh - każdy z tych systemów może być zainstalowany na stacjach roboczych klientów sieci NT. Inną praktyczną właściwością jest fakt, że system Windows NT działa na różnych platformach - Intel, MIPS, PowerPC, DEC-Alpha i in.
3.3. Bezpieczeństwo Windows NT
Windows NT jest pierwszym systemem firmy Microsoft, wyposażonym w funkcje zabezpieczeń. Windows 3.0/3.1/3.11 oraz Windows for Workgroups nie miały żadnych zabezpieczeń poza funkcją logowania się do sieci. Wszystkie pliki i katalogi znajdujące się na dysku komputera pracującego pod kontrolą któregoś z tych systemów operacyjnych mogą być łatwo przeglądane, zmieniane i usuwane. Podobnie jest w Windows 95, który prosi o podanie hasła, którego podanie bądź niepodanie nie zmienia praktycznie niczego - no, może poza kolorami pulpitu. Hasło w Windows NT jest hasłem z prawdziwego zdarzenia - spełnia swoją rolę i wcale nie daje się łatwo obejść. Bezpieczeństwo w Windows NT potraktowane jest bardzo poważnie. Z punktu widzenia administratora daje się ono łatwo konfigurować. Za pomocą usługi, którą Microsoft nazywa "Menedżerem użytkownika dla domen", administrator może w prosty sposób przypisać dowolny stopień zabezpieczeń dla dowolnego użytkownika i dowolnego zasobu. Udostępnianie właściwości Windows NT oznacza, że pliki, katalogi a także całe dyski twarde mogą być konfigurowane w celu umożliwienia odczytu, odczytu/zapisu, usuwania oraz własności pliku tylko tym użytkownikom, którzy mają do tego prawo. Podczas zapisu danych na dysk twardy, Windows NT korzysta z systemu plików NT (czyli z systemu NTFS -ang. NT Files System). Format plików NT pozwala właścicielom plików, katalogów oraz dysków twardych na pełną kontrolę tego, co inni użytkownicy mogą zobaczyć, skopiować, usunąć lub zapisać w zasobach, których są właścicielami. Można wykonywać tylko te czynności, na które pozwalają posiadane zezwolenia. Zdejmuje to sporą część pracy z ramion administratora - dzięki temu nie musi już nadzorować i kontrolować systemu bezpieczeństwa plików i katalogów. W zakresie haseł administrator może nakazać zmienianie haseł w odpowiednich odstępach czasu. Istnieje również funkcja umożliwiająca określanie pór dnia, w których użytkownicy mają dostęp do wyznaczonych zasobów. Jednym słowem - bezpieczeństwo systemu NT jest świetne.
3.4. Mocne i słabe strony Windows NT
Patrząc na dobre strony Windows NT, podkreślić należy możliwość obsługi wielu platform - w zakresie większym niż każdy inny sieciowy system operacyjny. NT obsługuje z łatwością takie platformy, jak Intel, MIPS, PowerPC oraz DEC Alpha. Oznacza to, że każdy, kto zakłada nową sieć LAN, może - dzięki systemowi NT - wykorzystać szybkość i efektywność serwera Alpha jako głównego serwera swojej sieci. Stacje robocze mogą być za to tanimi stacjami roboczymi opartymi na procesorach 80486 lub na procesorach Pentium.
Następnym aspektem, w którym Windows wygrywa z Novellem, jest zakres obsługi aplikacji. Windows NT jest systemem najlepszym z najlepszych dla serwera aplikacji. Nie ma chwili, w której użytkownik podczas korzystania z aplikacji zobaczyłby różnicę między wersjami uruchamianymi lokalnie a zdalnymi. Wykorzystywanie zasobów sieciowych dla celów poszczególnych aplikacji odbywa się pod kontrolą systemu NT niezauważalnie dla klienckich stacji roboczych.
Trzecim źródłem siły systemu NT jest mocna baza finansowa rozwoju systemu NT, jego możliwości oraz aplikacji dla systemu NT. Oprócz tego większość aplikacji rozwijanych na świecie dotyczy systemu NT. Fakt ten w połączeniu z "nieśmiertelną" obsługą klienta powoduje, że system NT w miarę upływu czasu może tylko stawać się systemem coraz większym, coraz lepszym i coraz bardziej niezawodnym. A dla użytkowników oznacza to coraz lepsze interfejsy graficzne, coraz lepsze aplikacje, coraz łatwiejsze w użyciu narzędzia internetowe i coraz więcej innych coraz to bogatszych możliwości.
4. Podsumowanie
Spośród przedstawionych systemów Windows NT jest systemem najłatwiejszym. Mimo iż Banyan VINES jest systemem na wymarciu, to był on pierwszym systemem sieci LAN, który umożliwiał wykorzystanie usług katalogowych obejmujących całą sieć. Novell rozwinął podobny system, nazwany NDS, który do dziś uważany jest za najlepszy tego rodzaju produkt na rynku.
Mimo iż Microsoft zebrał swój system z fragmentów różnych aplikacji, udało mu się utworzyć zintegrowany sieciowy system operacyjny sprzedawany dziś jako całość, podczas gdy produkty konkurencyjne względem NT, które projektowane były jako rozwiązania całościowe, cięte są na kawałki po to, aby móc sprzedać indywidualnie choć najlepsze ich elementy. Stało się tak ze względu na zwycięstwo strategii rozwoju aplikacji i zdobywania poparcia innych producentów Microsoftu nad strategią dostarczania najlepszych usług platformy sieciowej. Dziś Windows NT Serwer oferuje najlepszy pakiet dla administratora, ale nigdy nie wiadomo, co przyniesie przyszłość. Dlatego nie należy wykreślać żadnego z graczy... póki piłka w grze.
5. Literatura
Komar, B. (2002). TCP/IP dla każdego. Gliwice: Helion.
"PC World Komputer PRO". Nr 2/2003.
Pojęcie "społeczeństwo informacyjne"
Hasło "społeczeństwo informacyjne" robi coraz większą karierę. Pojawia się w rozmaitych artykułach, programach telewizyjnych i innych publicznych wypowiedziach.
Co jednak charakterystyczne, wszyscy wypowiadający się na temat "społeczeństwa informacyjnego" podkładają pod to hasło zagadnienia, takie jak upowszechnienie dostępu do Internetu, pracownie komputerowe dla szkół, demonopolizacja rynku telekomunikacyjnego, itp. - innymi słowy, skupiają się na narzędziach dostępu do informacji.
Istotą społeczeństwa informacyjnego - jak sama nazwa wskazuje - jest przede wszystkim informacja! Narzędzia, takie jak Internet - choć niewątpliwie ważne i potrzebne - same nic nie zdziałają, gdy tej informacji brak. Ten aspekt sprawy zdaje się umykać wszystkim dyskusjom na temat społeczeństwa informacyjnego - a wcale nie wygląda on różowo. To nieprawda, że w Internecie jest wszystko, wystarczy tylko poszukać; wielu informacji niestety po prostu tam nie ma i przynajmniej w najbliższej perspektywie nie zanosi się na to, aby wszystko w Internecie było.
Nie zawsze informacja musi być przekazywana przy użyciu tak wyrafinowanych środków technicznych; czasami żadna technika nie jest potrzebna, co jeszcze raz dowodzi tego, że przede wszystkim ważna jest sama informacja, a dopiero w drugiej kolejności sposób jej przekazywania.
Rzecz jasna, aby pełna i szczegółowa informacja była dostępna, ktoś musi włożyć niemało pracy w jej przygotowanie. Serwisy typu "Panorama Firm" i podobne, których pełno w każdym portalu internetowym, nie zdają w tej sytuacji egzaminu - pomijając już fakt, że nie obejmują one zazwyczaj małych firm, nie zawierają one praktycznie nic poza danymi teleadresowymi. Nie zawierają danych o godzinach otwarcia, o asortymencie. Oczywiście, zawsze można wynotować sobie numery telefonów kilku bądź kilkunastu firm, które przypuszczalnie mogą wchodzić w grę, i dzwonić do każdej z nich, aby dowiedzieć się o szczegóły, ale takie postępowanie nie ma nic wspólnego ze społeczeństwem informacyjnym. Perspektywa ery informacyjnej niesie ze sobą zapotrzebowanie na informację wysoko przetworzoną: pełną, aktualną, szczegółową, a przy tym "skrojoną na miarę" - dostarczającą dokładnie tych wiadomości, których potrzebujemy, i dokładnie wtedy, kiedy ich potrzebujemy.
Jako przykład można podać sytuację osoby wybierającej się na wczasy i poszukującej kwatery w interesującej ją miejscowości. Osoba ta na pewno nie jest zainteresowana wykonywaniem dziesiątków telefonów pod numery przepisane ze strony szumnie nazywającej się internetowym serwisem turystycznym - a będącej w istocie jedynie wykazem adresów - po to, aby dowiedzieć się, że tu nie mają wolnych miejsc, tam cena jest zbyt wygórowana, a jeszcze gdzie indziej są wprawdzie i wolne miejsca, i niskie ceny, ale za to obiekt położony jest o godzinę marszu od centrum miejscowości, a autobusy docierają tam dwa razy dziennie... Te wszystkie informacje osoba chce uzyskać od razu - zebrane w jednym miejscu, uporządkowane, kompletne i najlepiej dostępne bez opuszczania stron owego serwisu turystycznego.
Nie od dziś porównuje się Internet do biblioteki, w której wszystkie książki zamiast leżeć na półkach, zrzucone są bezładnie na stos pośrodku pomieszczenia. Jeżeli będziemy mieli szczęście, to może znajdziemy wśród nich tą, która nam jest potrzebna. Podjęcie wyzwania społeczeństwa informacyjnego oznacza konieczność zarówno uporządkowania tej biblioteki, jak też i znacznego rozszerzenia jej zbiorów. Cały czas oczywiście pozostaje aktualne pytanie, kto, w jaki sposób i za co miałby to robić? Ten problem można i powinno się podejmować w rozmaitych dyskusjach na temat społeczeństwa informacyjnego, zamiast w kółko powracać do kwestii zapewnienia powszechnego dostępu do Internetu. Tę sprawę bowiem można stosunkowo prosto rozwiązać - wystarczyłoby tylko wreszcie całkowicie unormalnić nasz rynek telekomunikacyjny, zamiast z uporem maniaka obstawać przy dziwnych połowicznych rozwiązaniach.
2. Możliwości rozwoju młodych ludzi
Zdobywanie informacji do momentu upowszechnienia się Internetu sprowadzało się do zapoznawania się z publikacjami tradycyjnymi oraz do przekazów ustnych. Te opcje w poważny sposób ograniczają możliwości poszerzania swojej wiedzy.
Internet nie tylko w sposób znaczny ułatwia zdobycie konkretnej publikacji z księgozbiorów największych księgarni na całym świecie, lecz również poprzez usługę WWW pozwala na poszerzanie wiedzy o tematy nieporuszane w literaturze. Może to być spowodowane np. małą popularnością poszukiwanych informacji. Oprócz tych udogodnień, Internet pozwala na otrzymywanie odpowiedzi na konkretne zapytania, gdy potencjalnemu użytkownikowi potrzebny jest fragment informacji niewymagający zagłębiania się w dany temat. Wymienione możliwości zdobywania informacji powodują większą indywidualizację wśród członków społeczeństwa informacyjnego, która wynika z różnorodności charakterów i zainteresowań ludzkich. Ludzie korzystający z Internetu są bogatsi o sobie tylko właściwą wiedzę. Nie bez znaczenia są również metody komunikacji poprzez tematyczne fora dyskusyjne, gdzie bez niepotrzebnych wstępów możemy przejść do interesujących nas kwestii i udzielić oraz otrzymać odpowiedzi od osób, które podobnie jak my zajmują się tematami dotyczącymi naszych zapytań.
Społeczeństwo informacyjne, jako etap ewolucji sposobu istnienia jednostek w grupie, wykształca nowe horyzonty w świecie prowadzenia biznesu. Kwartalność (a więc przejście z epoki postindustrialnej do następnej, wyższej formy rozwoju społecznego), identyfikuje zmieniające się wymagania realizacji przedsięwzięć, w kluczowym punkcie stawiając osobowość profesjonalisty i jego wiedzę.
Nowa filozofia prowadzenia biznesu staje się szansą dla ludzi młodych. Poprzez zapał i chęć pomnażania wiedzy mają oni możliwość sprawdzenia swoich możliwości jeszcze podczas nauki. Teoria, w konfrontacji z codziennością zagadnień biznesowych, pozwala na selekcję wiedzy oraz wczesną specjalizację. Z drugiej strony, łatwy dostęp do źródeł informacji jak też mnogość form, w której wiedza ta występuje (ze szczególnym uwzględnieniem nowego kanału Internetu) pozwala na równomierne kształtowanie się osobowości w oparciu o rozwój intelektualny. Realizacja konkretnych projektów owocuje w postaci nabywanych doświadczeń, rozwoju cech przywódczych oraz uczy pracy w grupie. Interdyscyplinarne zespoły, złożone z osób, których kompetencje nawzajem się uzupełniają, rezonują dogłębnym zrozumieniem tematu, a w sferze kontaktów biznesowych pełnym, efektywnym zaprojektowaniem i realizacją zadania.
Młodzi a biznes to pojęcie szerokie, winno jednak obejmować najważniejsze czynniki przemawiające za koniecznością próbowania swoich sił w praktyce. W biznesie dnia dzisiejszego istotne są osoby jako jednostki oraz cechy, które posiadają: wiedzę, umiejętności, indywidualizm oraz kreatywność. Taki rozwój umożliwia dziś młodym ludziom (i nie tylko) także Internet, będąc niemal nieskończonym źródłem danych i interaktywnym środowiskiem pracy swoich użytkowników.
3. E-wybory
Poniżej została zacytowana wypowiedź znanego polityka Macieja Płażyńskiego, na następujące pytanie:
Czy w przewidywalnym okresie możliwe jest wykorzystanie w Polsce możliwości, jakie daje informatyka, do usprawnienia i poszerzenia procedur demokratycznych, np. głosowania przez Internet, zobowiązania urzędów państwowych i samorządowych do publikowania w Internecie ważnych dla obywatela informacji o swoich pracach?
"Wybory przez Internet to zapewne przyszłość, choć nie wiadomo, jak odległa. Natomiast już teraz do wielu rozwiązań ustawowych, które przyjmujemy, komisje sejmowe wprowadzają zapis o konieczności publikowania pewnych informacji w Internecie, nawet jeśli nie ma takiej propozycji w projekcie rządowym. Miejmy nadzieję, że ten sposób myślenia przeniesie się na samorządy i bez ustawowego obowiązku będą się one starały wykorzystać Internet jako formę komunikowania się z mieszkańcami. Sam Sejm jest dobrze przygotowany do obecności w sieci. Wszystko, co robimy, jest dostępne przez Internet w każdej chwili, w każdej fazie prac, łącznie z całym zbiorem uchwalonych aktów prawnych. Chcemy to jeszcze rozszerzyć, tak by była to nawet forma kontroli obecności posłów w pracy. Zamierzamy nauczyć polityków komunikowania się z kancelarią czy uczestnictwa w pracy Sejmu z wykorzystaniem Internetu."
Należy teraz sobie samemu odpowiedzieć na pytanie czy e-wybory (głosowanie przez Internet) jest możliwe?
Informatyka wyborcza nie ma dobrej prasy. Wystarczy przypomnieć kilkakrotnie ponawiane liczenie głosów na Florydzie podczas wyborów prezydenckich w 2000 r. oraz spowodowane niewydolnością systemu informatycznego opóźnienia w ogłoszeniu wyników wyborów samorządowych w Polsce w 2002 r. Ocena dojrzałości systemów głosowania elektronicznego nie jest jednak jednoznaczna. Nawet najlepsze narzędzie może zostać niewłaściwie użyte - przez niewiedzę lub w złej wierze.
3.1. Co to jest e-voting?
Proces głosowania składa się z trzech etapów: identyfikacji głosującego, złożenia głosu i przeliczenia głosów oddanych w całym głosowaniu. Głosowanie metodami tradycyjnymi może zostać przeprowadzone w lokalu wyborczym, przy jednoczesnej obecności głosującego i komisji wyborczej, lub zdalnie, przez wysłanie wypełnionej karty do głosowania pocztą. Polskie prawo nie przewiduje głosowania pocztowego, stąd do niedawna Polacy przebywający w Szwajcarii, nie mogli brać udziału w wyborach, gdyż tamtejsze prawo zabraniało organizowania wyborów w placówkach dyplomatycznych, bo mogło to prowokować do zgromadzeń i protestów mniejszości narodowych.
Głosowania elektroniczne (e-voting) również mogą być przeprowadzane w lokalach wyborczych lub zdalnie, z tym, że głosowania zdalne mogą się odbywać za pomocą bezobsługowych, publicznych stanowisk do głosowania (zwanych czasem głosomatami) lub z wykorzystaniem Internetu, wiadomości tekstowych w telefonii komórkowej (SMS) lub interaktywnych systemów odpowiedzi głosowych (Interactive Voice Response systems). Informatyzacji podlegać może każdy z trzech etapów głosowania niezależnie, jednakże zwykle najpierw automatyzuje się liczenie głosów, jako najbardziej czasochłonne, a wymagające stosunkowo najmniejszych inwestycji.
W polskich wyborach identyfikacja głosującego i złożenie głosu nie są w żaden sposób zautomatyzowane. Głosy liczone są ręcznie na poziomie komisji wyborczych, a następnie dane te są wprowadzane do komputerów i wysyłane do Państwowej Komisji Wyborczej w celu obliczenia ostatecznych, ogólnopolskich wyników wyborów. To właśnie zaburzenia procesu zbierania danych i zliczania wyników spowodowały opóźnienia w 2002 r.
W Stanach Zjednoczonych w głosowaniach zamiast długopisów używano do niedawna specjalnej maszyny dziurkującej, złożonej z obudowy z wbudowanym szablonem otworów, przy których umieszczano nazwiska kandydatów, oraz z przypominającego szpikulec dziurkacza, którym poprzez otwory w obudowie wytłaczało się dziurki w karcie do głosowania.
Złożenie głosów na tego typu kartach dziurkowanych umożliwiało automatyczne liczenie głosów - w teorii. W praktyce bowiem zdarzało się, że karty nie były do końca przedziurkowane, gdyż wypychane przez dziurkacz fragmenty papieru nie zostały oderwane od karty, co praktycznie zablokowało automatyczne zliczanie głosów. Dlatego właśnie w roku 2000 na Florydzie nakazano ręczne przeliczenie głosów. Przy okazji wyszło na jaw, że przy przeprowadzonej przed wyborami centralizacji rejestru wyborców w biurze gubernatora Florydy usunięto ok. 90 tys. obywateli. Powodem tego były identyczne imiona i nazwiska wyborców, co dotknęło szczególnie biednych ze społeczności czarnoskórych, w których osoby rozpoznaje się dzięki przydomkom.
3.2. Amerykańskie rozwiązania
Pomna tych doświadczeń amerykańska administracja przyjęła 29 października 2002 r. ustawę o pomocy Ameryce w głosowaniu (Help America Vote Act - HAYA), która zobowiązuje zastąpienie do końca 2006 r. wszystkich maszyn dziurkujących, znajdujących się w lokalach wyborczych, głosomatami z ekranami dotykowymi oraz centralizację rejestrów wyborców na poziomie pięćdziesięciu stanów. Na ten cel przeznaczono 4 mld USD. Po przyjęciu ustawy prezydent George Bush stwierdził, że "każdy wyborca zasługuje na pewność, że system jest przejrzysty, a wybory uczciwe, że każdy głos jest zapisywany i obowiązują spójne reguły postępowania".
Część stanów zaczęła już wcześniej realizować te postanowienia i nowe systemy zostały zastosowane w wyborach na Florydzie już w 2002 r. Okazało się wtedy, że użyty tam system komputerowy z niewyjaśnionych przyczyn nie zarejestrował ok. 100 tys. głosów! Rozmaite błędy w systemie wystąpiły w stanach New Jersey, Teksas i Georgia. Głosomaty pokazywały wyborcom, że poprawnie oddali głos, ale głosy te nie były liczone. Amerykanie, którzy mają długą historię kradzieży i fałszowania głosów, podeszli bardzo podejrzliwie do tych informacji. Dlatego też w maju ub.r. senator Rush Holt zaproponował nowelizację wspomnianej ustawy tak, by głosomaty drukowały potwierdzenie złożenia głosu na danego kandydata. Taki wydruk byłby deponowany w lokalu wyborczym, aby, z jednej strony, umożliwić komisjom wyborczym ręczne przeliczenie głosów, a z drugiej - uniemożliwić handel głosami, w którym na podstawie tego potwierdzenia głosowania na określonego kandydata byłoby wypłacane wynagrodzenie.
Głosy liczone byłyby ręcznie nie tylko w przypadku podejrzenia o nieprawidłowości, ale wyrywkowo przy każdych wyborach, dla zapewnienia ich poprawności. Innym rozwiązaniem proponowanym w nowelizacji jest zakaz używania w systemach do głosowania oprogramowania o niejawnym kodzie źródłowym oraz jakichkolwiek urządzeń do komunikacji bezprzewodowej. Cały sprzęt i oprogramowanie używane w wyborach musiałoby mieć certyfikat Federalnej Komisji Wyborczej. Nowelizacja miałaby wejść w życie jeszcze przed wyborami prezydenckimi w listopadzie 2004 r.
Wystąpienie Holta poparł oficjalnie Amerykański Komitet Spraw Publicznych ACM (Association for Computing Machinery) - międzynarodowej organizacji profesjonalnej zrzeszającej informatyków. Postulują oni, by wstrzymać dalszą komputeryzację systemów wyborczych, dopóki systemy do głosowania elektronicznego nie będą "odporne na polityczne manipulacje, oszustwa i neutralne rasowo". Problem w tym, że firmy produkujące urządzenia do głosowania wzbraniają się przed instalowaniem w tych urządzeniach drukarek, twierdząc, że spowolnią one działanie systemu i będą źródłem dodatkowych usterek. Tłumaczenie to jest o tyle niezrozumiałe, że te same firmy produkują bankomaty i elektroniczne kasy fiskalne, których drukarki są nieodłączną częścią i nie powodują większych problemów w ich działaniu.
3.3. Europejskie rozwiązania
Mimo wskazywanych przez Amerykanów problemów, prace nad systemami do elektronicznego głosowania posuwają się naprzód. Na przełomie kwietnia i maja 2002 r. w ramach wyborów samorządowych w Wielkiej Brytanii w 5 obwodach wyborczych w Liverpoolu i Sheffield umożliwiono składanie głosów drogą elektroniczną. Wykorzystano do tego Internet, SMS i głosomaty. Do identyfikacji wyborców w głosomatach służyły karty mikroprocesorowe. Był to pierwszy tego rodzaju eksperyment na świecie. Głosowanie było również możliwe w sposób tradycyjny - poprzez skreślenia na kartach wyborczych składanych w lokalach wyborczych lub przesyłanych pocztą. Jednakże głosy tradycyjne również liczone były elektronicznie, z wykorzystaniem kodów paskowych. Głosowanie było prawnie wiążące, ale mogło z niego skorzystać tylko 55 tys. wyborców. W 2003 r. powtórzono eksperyment dla większej społeczności - ok. 1 mln osób w Ipswich, Norwich, Sheffield, South Somerset i St. Albans. Brytyjczycy myślą o przejściu wyłącznie na głosowanie elektroniczne od 2006 r.
W ramach OASIS - międzynarodowej organizacji promującej postęp w zakresie strukturalnych standardów informacyjnych (Organisation for the Advancement of Structured Information Standards) już w maju 2001 r. utworzono Komitet Techniczny ds. głosowań i usług wyborczych, który opracował EML - Election Markup Language - umożliwiający standaryzację wymiany danych wyborczych, składający się ze schematów w języku XML. Po raz pierwszy standard ten zastosowano podczas wyborów w Sheffield w 2003 r.
Na wystawie przy konferencji poświęconej tematyce elektronicznej władzy (eGovernment), zorganizowanej przez Komisję Europejską nad włoskim jeziorem Como 7-8 czerwca 2003 r., poza wyborami w Sheffield zaprezentowano dwa inne przedsięwzięcia związane z elektronicznymi głosowaniami: internetowy system do referendów w kantonie genewskim w Szwajcarii oraz przygotowany na czas greckiego przewodnictwa w Unii Europejskiej system eVote, umożliwiający odpowiedź na sześć kwestii dotyczących przyszłej polityki UE.
Komisja Europejska dofinansowała w ramach 5. Programu Ramowego Badań, Rozwoju Technicznego i Prezentacji kilka projektów badawczych w zakresie e-votingu (m.in.: CYBERVOTE i e-Poll). Celem projektu CYBERVOTE była implementacja bezpiecznego systemu do głosowań elektronicznych z wykorzystaniem Internetu i telefonów komórkowych. Przedmiotem badań był niezawodny protokół do identyfikacji głosujących, który będzie mógł zostać wykorzystany w istniejących urządzeniach i będzie mógł obsłużyć jednocześnie kilka głosowań i kilka sposobów szyfrowania danych. System przetestowano w trzech miastach: w niemieckiej Bremie, w Issy-les-Moulineaux w południowej Francji i w mieście Kista koło Sztokholmu.
W projekcie e-Poll zaprojektowano i zbudowano Europejską Wirtualną Sieć Wyborczą łączącą głosomaty, w których identyfikacja wyborców była możliwa dzięki kartom mikroprocesorowym. Partnerem w wielonarodowym konsorcjum realizującym to przedsięwzięcie była m.in. międzykomunalna spółka Municipium z Warszawy - wydawca prasy samorządowej. Inicjatywy w zakresie elektronicznego głosowania podjęto ponadto w Austrii, Belgii, Estonii, Francji oraz w Niemczech.
4. Literatura
"Teleinfo" Nr 5 (2004), 26 styczeń 2004, Borys Czerniejewski: "Kręte ścieżki e-demokracji", strony: 21-22
Zagrożenia płynące z Internetu
Bezpieczeństwo to zagadnienie istotne zarówno dla firm jak i dla indywidualnych użytkowników. Internet to znakomite narzędzie zarówno do dystrybucji informacji o sobie jak i otrzymywaniu ich od innych, jednak z wszelkimi dobrodziejstwami globalnej sieci związana jest również pokaźna liczba zagrożeń. Przestępstwa komputerowe takie jak kradzież informacji czy celowe niszczenie danych to tylko niektóre z nich.
Najlepszym sposobem uniknięcia takiego biegu wydarzeń jest podjęcie działań prewencyjnych związanych z pozbawieniem możliwości uzyskania dostępu przez sieć do maszyny. To pole zastosowań dla firewalli (ścian ogniowych, zapór ogniowych).
1.1. Metody ataków
Ogólnie metody włamań można podzielić na:
ataki z zewnątrz sieci lokalnej
ataki z wnętrza sieci lokalnej
ataki pośrednie
1.1.1. Ataki z zewnątrz
Są to ataki, których najczęstszą formą są zakłócenia stabilnej pracy. Przejmowanie kontroli nad systemami odbywa się z zewnątrz sieci lokalnej, na przykład z Internetu. Można w tym celu wykorzystać lukę w systemie zabezpieczeń, błąd serwisu sieciowego lub po prostu słaby poziom zabezpieczeń firmy. Do najczęstszych tego typu ataków należą:
Ataki na poszczególne komputery, bądź serwer główny - to jeden z najczęstszych typów ataków. Konsekwencjami są zwykle przerwy w pracy sieci lokalnej, uszkodzenie poszczególnych (bądź wszystkich) końcówek serwera, a co za tym idzie, całej sieci; co powoduje wielogodzinne przerwy w pracy.
Ataki na serwer http - to ataki, których efektem jest utrata danych witryny internetowej lub uzupełnienie jej treściami kompromitującymi firmę.
Do ataków z zewnątrz sieci hakerzy często wykorzystują metodę zwaną Denial of Service - DoS. Jest to atak mający na celu zablokowanie konkretnego serwisu sieciowego (na przykład strony WWW) lub zawieszenie komputera. Możliwe jest przesterowanie ataków DoS do bardziej skomplikowanych metod, co może doprowadzić nawet do awarii całej sieci. Niejednokrotnie hakerzy, którzy włamują się do systemów za pomocą tzw. techniki spoofingu lub redyrekcji, ukrywają swój prawdziwy adres internetowy, więc ich zlokalizowanie często staje się niemożliwe. Anonimowość ułatwia więc zdecydowanie atakowanie systemów metodą DoS, co powoduje uniemożliwienie wykonania przez serwer jakiejkolwiek usługi.
Spoofing (maskarada)
Metoda ta stosowana jest zwykle przez doświadczonych i wyrafinowanych włamywaczy. Polega na podszyciu się włamywacza pod jednego z użytkowników systemu, który posiada własny numer IP (numer identyfikujący użytkownika). Technika ta ma na celu omijanie wszelkich zabezpieczeń, jakie zastosował administrator w sieci wewnętrznej. Jest bardzo skuteczna nawet, gdy bywa wykorzystywana przeciwko markowym firewallom, switchom i ruterom. Dzięki niej możliwe jest "udawanie" dowolnego użytkownika, a co za tym idzie "podszywanie" się i wysyłanie sfałszowanych informacji. Ze swego komputera haker może dokonać przekierowania źródłowego adresu IP i "podszyć się" pod komputer sieciowy. Robi to po to, by określić jego bezpośrednią drogę do miejsca przeznaczenia oraz trasę powrotną. W ten sposób może przechwytywać lub modyfikować transmisje bez zliczania pakietów przeznaczonych dla komputera głównego. W przeciwieństwie do ataków polegających na rozsynchronizowaniu, "podszywanie się" pod adresy IP jest trudne do wykrycia. Jeśli serwer internetowy ma możliwość monitorowania ruchu w sieci w zewnętrznym ruterze internetowym, to należy kontrolować przechodzące przez niego dane. Do sieci nie powinny być wpuszczane pakiety zawierające adresy komputera źródłowego i docelowego, które mieszczą się w obrębie lokalnej domeny. Najlepszą obroną przed podszywaniem się jest filtrowanie pakietów wchodzących przez ruter z Internetu i blokowanie tych, których dane wskazują na to, że powstały w obrębie lokalnej domeny.
1.1.2. Ataki z wnętrza sieci
Ataki z wnętrza sieci należą do jednych z groźniejszych. Włamanie następuje z wnętrza sieci lokalnej poprzez wykorzystanie konta jakiegoś użytkownika, czy też luki w zabezpieczeniach systemu autoryzacji użytkowników. Najczęściej włamania tego typu są udziałem pracowników firmy, a nie użytkowników komputerów spoza jej obrębu, gdyż dostęp do końcówki Sieci takiej osoby rzadko pozostaje zauważony.
1.1.3. Ataki pośrednie.
Hakerzy stosują tu dość wyrafinowane metody, czego najlepszym przykładem są konie trojańskie. To grupa ataków najtrudniejszych do wykrycia. "Podłożenie" konia trojańskiego otwierającego dostęp do całej sieci może odbyć się za pośrednictwem poczty elektronicznej czy też podczas ściągania programu, który pochodzi z niepewnego źródła. Użytkownik prawie nigdy nie jest świadom tego, że ściągając na przykład najnowszą wersję odtwarzacza plików mp3 faktycznie otwiera dostęp do swojego komputera, a potem całej Sieci osobom niepowołanym.
Packet sniffing (podsłuchiwanie pakietów)
Jest to metoda zdobywania systemu polegająca na przechwytywaniu przesyłanych przez sieć niezaszyfrowanych informacji. Można w ten sposób zdobyć hasło użytkownika i uzyskać dostęp do danego konta. Ataki polegające na "biernym węszeniu" stały się powszechne w Internecie. Stanowią one zazwyczaj wstęp do aktywnego przechwytywania cudzych plików. Aby rozpocząć tego rodzaju atak, haker musi zdobyć identyfikator i hasło legalnego użytkownika, a następnie zalogować się do Sieci. Kiedy wykona już te posunięcia, może bezkarnie podglądać i kopiować transmisje pakietów, zdobywając jednocześnie informacje o funkcjonowaniu danej sieci lokalnej.
Ataki korzystające z autoryzowanego dostępu
Są to ataki często stosowane przez osoby próbujące się włamać do sieci opartych na systemie operacyjnym, korzystającym z mechanizmu autoryzowanego dostępu (takim jak UNIX, VMS i Windows NT). Duże niebezpieczeństwo niesie ze sobą tworzenie plików zawierających nazwy serwerów, do których można uzyskać dostęp bez podawania hasła.
2. Zabezpieczenie za pomocą firewalla
Pojawił się problem zabezpieczenia prywatnych sieci przed nieautoryzowanym dostępem z zewnątrz. Administrator musi oddzielić lokalną sieć od internetowego chaosu, żeby dane nie dostały się w niepowołane ręce lub nie zostały zmienione.
Rys.: Wydzielenie domen odseparowanych zaporą ogniową
Źródło: Silberschatz A., Galvin P.: (2002). Podstawy systemów operacyjnych. Warszawa: WNT, strona: 754
Firewall może zabezpieczyć sieć przed nieuprawnionym dostępem z zewnątrz. Zakres dostępnych rozwiązań sięga od dodatkowego oprogramowania do specjalnych urządzeń, które służą tylko do tego celu.
3. Czym jest firewall?
Firewall składa się z pewnej liczby komponentów sieciowych (sprzętowych i programowych) w punkcie styku dwóch sieci. Zapewnia zachowanie reguł bezpieczeństwa między siecią prywatną, a niezabezpieczoną siecią publiczną, na przykład Internetem.
Właśnie ta zapora decyduje, które z usług w sieci prywatnej dostępne są z zewnątrz i z jakich usług niezabezpieczonej sieci publicznej można korzystać z poziomu sieci prywatnej. Aby firewall był skuteczny, cały ruch danych między siecią prywatną a Internetem musi przechodzić przez niego.
Firewall nie jest, jak router, bastion host czy inne urządzenie, częścią sieci. Jest jedynie komponentem logicznym, który oddziela sieć prywatną od publicznej. Bez firewalla każdy host w sieci prywatnej byłby całkowicie bezbronny wobec ataków z zewnątrz.
4. Funkcje firewalla
Firewall spełnia wiele funkcji, których zakres może obejmować:
kontrolę dostępu do usług systemu,
ograniczenie liczby dostępnych usług,
kontrolowanie połączeń sieciowych,
skanowanie serwisów sieciowych,
wykrywanie i eliminowanie prób włamania do systemu,
zabezpieczenie przesyłanych informacji,
nadzorowanie pracy routerów,
ochronę systemu przed niebezpiecznymi programami,
ukrywanie struktury wewnętrznej systemu,
monitorowanie bieżącego stanu komunikacji sieciowej,
rejestrowanie ważnych zdarzeń,
równoważenie obciążenia serwerów.
4.1. Kontrola dostępu do usług systemu
Kontrola jest prowadzona w stosunku do użytkowników zewnętrznych oraz tych pracowników firmy, którzy z pewnych przyczyn przebywają tymczasowo poza terenem organizacji i muszą korzystać z usług systemu. Niekiedy zezwala się także, aby pracownicy dokonywali zdalnych połączeń z systemem informatycznym organizacji za pośrednictwem sieci Internet, pracując na swoich komputerach domowych. Ściana ogniowa po zidentyfikowaniu użytkownika dokonuje uwierzytelnienia jego tożsamości, czyli sprawdzenia, czy jest tym, za kogo się podaje.
Uwierzytelnienie może się odbywać zgodnie z wybraną metodą:
hasło (wielokrotnego użytku, jednorazowe),
karty magnetyczne lub mikroprocesorowe,
systemy biometryczne.
4.2. Ograniczenie liczby dostępnych usług
Ograniczanie usług odnosi się do blokowania serwerów funkcjonujących zarówno w sieci prywatnej, jak i w Internecie. Myśląc o bezpieczeństwie systemu informatycznego należy ograniczyć dostępność określonych usług dla użytkowników zewnętrznych. Również, ze względów bezpieczeństwa oraz w celu zmniejszenia kosztów, można zablokować pewne usługi dla pracowników lokalnych.
4.3. Kontrolowanie połączeń sieciowych
Kontrolowanie odbywa się w niższych warstwach modelu OSI i dzięki temu może być przezroczyste dla użytkowników i aplikacji. Następuje przechwytywanie pakietów danych i sprawdzanie czy rozpoznane połączenie sieciowe jest dozwolone. Ściana ogniowa akceptuje lub blokuje próby zainicjowania komunikacji sieciowej między określonymi komputerami. W dużych sieciach korporacyjnych często przyjmuje się konfigurację, w której komputery mogą prowadzić komunikację wyłącznie w środowisku sieci prywatnej.
4.4. Skanowanie serwisów sieciowych
Skanowanie serwisów sieciowych jest najczęściej prowadzone w stosunku do popularnych usług internetowych: WWW, FTP i poczty elektronicznej. Ściana ogniowa nadzoruje sposób i charakter wykorzystania tych usług, na podstawie pewnych przyjętych reguł ochrony oraz ustaleń organizacyjnych. Można na przykład określić, o której godzinie, w których dniach tygodnia i za pośrednictwem jakich komputerów pracownicy firmy mogą korzystać z zasobów odpowiednich serwerów WWW i FTP. W odniesieniu do poczty elektronicznej można wyobrazić sobie sytuację, w której firewall skanuje wszystkie nadchodzące i wychodzące przesyłki pocztowe oraz poddaje je określonej obróbce, np. usunięciu pewnych typów załączników, zmianie adresu nadawcy lub odbiorcy.
4.5. Wykrywanie i eliminowanie prób włamania do systemu
Wykrywanie i eliminowanie prób włamania do systemu jest jednym z najważniejszych zadań stawianych systemowi ściany ogniowej, od którego w dużej mierze zależy bezpieczeństwo całej organizacji. Firewall powinien być przygotowany do odparcia ataków typu "spoofing", "source routing", "source porting", "SYN Flood", "Ping of Death" oraz wszystkich innych znanych technik stosowanych przez hakerów.
4.6. Zabezpieczenie przesyłanych informacji
Ochrona danych przesyłanych w sieci publicznej sprowadza się do tworzenia wirtualnych sieci prywatnych. Jest to sieć logicznych kanałów transmisji danych, tworzonych na bazie sieci publicznej, otwieranych (najczęściej) na czas transferu danych między stacjami ścian ogniowych sieci prywatnych, poprzez które odbywa się przesyłanie informacji w formie zaszyfrowanej. Niektóre rozwiązania pozwalają także na tworzenie sieci VPN (ang. Virtual Private Network) między ścianą ogniową a odległymi komputerami użytkowników.
4.7. Nadzorowanie pracy routerów
Nadzorowanie pracy routerów jest konieczne w przypadku dużych sieci komputerowych, gdzie stosowanie jednego routera dostępu nie jest wystarczające. Takie sieci są wyjątkowo narażone na ataki hakerów, ponieważ istnieje wiele dróg wejścia do systemu i można łatwiej obejść jego zabezpieczenia. Routery mogą z powodzeniem zostać włączone do ściany ogniowej jako "przednia straż" prywatnej sieci komputerowej. Router może prowadzić filtrowanie pakietów danych, szyfrowanie i uwierzytelnianie przesyłanych informacji, a także przeciwdziałać włamaniom typu "Spoofing".
4.8. Ochrona systemu przed niebezpiecznymi programami
Ochrona systemu odnosi się głównie do najnowszych rozszerzeń możliwości serwisu informacyjnego WWW. W ramach strony HTML można uruchamiać programy Java, JavaScript, VisualBasic Script oraz ActiveX. Obecnie tylko technologia Java ma na tyle mocne mechanizmy zabezpieczeń, że można ją wykorzystywać bez obaw. Na inne rozszerzenia WWW można sobie pozwolić wówczas, gdy pochodzą z dobrze znanych i zaufanych serwerów. Współczesne ściany ogniowe potrafią sprawnie blokować dodatki do stron HTML, które pochodzą z określonych serwerów WWW.
4.9. Ukrywanie struktury wewnętrznej systemu
Ukrywanie struktury systemu ma na celu zmniejszenie ryzyka włamania z zewnątrz. Jest ono najczęściej realizowane przez tłumaczenie adresów komputerów sieci prywatnej. Technika tłumaczenia adresów sieciowych nosi nazwę NAT (ang. network address translation) i polega na odwzorowaniu wielu rzeczywistych adresów w jeden adres (widziany na zewnątrz sieci) lub bloku adresów w inny blok. Technicznie odbywa się to poprzez przechwytywanie pakietów danych i odpowiednią modyfikację zawartości ich nagłówków. Oprócz tłumaczenia adresów można wykonywać także translację numerów portów.
4.10. Monitorowanie bieżącego stanu komunikacji sieciowej
Monitorowanie bieżącego stanu komunikacji sieciowej umożliwia administratorowi wczesne zapobieganie określonym, niekorzystnym zjawiskom np. włamaniom, dużemu obciążeniu routera, itp. Na podstawie bieżącego stanu komunikacji, administrator może modyfikować parametry ściany ogniowej. Często stosowaną techniką jest blokowanie usług, a nawet całych stacji sieciowych (o niskim priorytecie), w celu zmniejszenia obciążenia systemu.
4.11. Rejestrowanie ważnych zdarzeń
Rejestrowanie zdarzeń umożliwia tworzenie raportów okresowych z działalności ściany ogniowej oraz pomaga w wykrywaniu sprawców łamania zasad przyjętej polityki ochrony systemu. Na podstawie analizy danych z archiwum, administrator może modyfikować konfigurację firewalla w celu wzmocnienia szczelności systemu ochrony.
4.12. Równoważenie obciążenia serwerów
Równoważenie obciążenia serwerów sieciowych jest uzasadnione w przypadku organizacji, które świadczą atrakcyjne usługi w sieci Internet. Pojedynczy serwer może wówczas być niewystarczający, a zastosowanie dodatkowych, często kończy się sytuacją, w której jeden komputer jest nadmiernie obciążony, a inne pozostają bezczynne. Ściana ogniowa może przechwytywać zgłoszenia napływające od klientów z Internetu i kierować je do obsługi na wybrany serwer, zgodnie z pewnym przyjętym algorytmem rozdziału zadań.
Powyżej przedstawiono funkcje, jakie mogą pełnić firewalle. W funkcje te są wyposażone w mniejszym lub większym stopniu wszystkie ściany ogniowe dostępne na rynku.
Niestety nadmiar funkcji powoduje, że niedoświadczeni użytkownicy mają wielki problem z poprawnym skonfigurowaniem swoich zapór ogniowych. Wiele gazet poświęconych tematyce komputerowej zamieszcza artykuły, w których autorzy pomagają w konfiguracji.
Osoby, używające zapór: Sygate Personal Firewall 5.5, McAfee Firewall 4.02, Kerio Personal Firewall 4.0.13., odsyłam do artykułu pt.: "Za ścianą ognia" zamieszczonego w "CHIP" nr 5/2004 (strony: 134-138). Autorzy artykuły omówili dość szczegółowo podstawową konfigurację powyżej wymienionych ścian ogniowych.
5. Wady i ograniczenia zapór ogniowych
Firewall może tylko wtedy skutecznie chronić sieć, gdy wszystkie pakiety muszą przez niego przejść. Jeżeli na przykład w obrębie chronionej sieci zostanie ustanowione dodatkowe połączenie przez modem lub ISDN, użytkownicy mogą się łączyć bezpośrednio z Internetem przez PPP. Ci, którzy z jakiś powodów chcą uniknąć dodatkowego uwierzytelniania na serwerze proxy, szybko skorzystają z tej możliwości. Obchodząc firewall, stwarzają ogromne ryzyko ataku typu backdoor.
Firewall jest również bezużyteczny w wypadku ataku od wewnątrz. Nie zapobiegnie skopiowaniu poufnych danych na dyskietkę i wyniesieniu jej z firmy. Tym bardziej nie uniemożliwi działania pracownikowi, który ma duże uprawnienia lub ukradł hasła.
Firewalle nie ochronią też przed wirusami komputerowymi i trojanami, ponieważ nie sprawdzą każdego pakietu w poszukiwaniu szkodników. Nie radzą sobie także z datadriven attacks, polegających na wprowadzeniu pozornie niewinnych danych z ukrytym kodem, który może na przykład zmienić ustawienia zabezpieczeń.
Od dobrego firewalla należy oczekiwać, że będzie na tyle wydajny, żeby analiza danych nie spowalniała przepływu ich strumienia. Im szybsze łącze internetowe, tym więcej pakietów przepływa przez ścianę ogniową. Jeżeli ma ona również analizować strumienie danych - a więc nie tylko pakiety, ale także dane logiczne - potrzebny jest odpowiednio wydajny system.
Jak wyżej pokazano ściany ogniowe nie rozwiązują wszystkich problemów związanych z bezpieczeństwem. Należy pamiętać, że ściany ogniowe są tak dobre jak ich zasady. Niepełny zestaw nieodpowiednio określonych czy nawet nieodpowiednio obsługiwanych reguł może podważyć efektywność działania całej ściany ogniowej.
Zabezpieczenie systemu przez zaporę ogniową jest tak dobre jak ludzie, którzy ją programują i obsługują.
7. Literatura
Komar, B. (2002). TCP/IP dla każdego. Gliwice: Helion.
Niezgódka J.: (1998). Jak bronić się przed hackerami? Warszawa: Komputerowa Oficyna Wydawnicza "HELP".
Silberschatz A., Galvin P.: (2002). Podstawy systemów operacyjnych. Warszawa: WNT.
Sportack M.: (1999). Sieci komputerowe. Księga eksperta. Gliwice: Helion.
Materiały z Akademii Górniczo-Hutniczej (P. Nowak, A. Majka, D. Kościelniak: Firewall).
"PC World Komputer PRO". Nr 2/2003.
"PC World Komputer". Nr 5/2004.
"CHIP". Nr 3/2004.
"CHIP". Nr 5/2004.
Poczta elektroniczna
Krótka historia
1. Krótka historia
Mimo nowych możliwości jakie dają komunikatory, e-mail ciągle zyskuje na popularności i znaczeniu. Z badań rynku przeprowadzonych przez IDC wynika, że w roku 2005 można się spodziewać 36 miliardów e-maili dziennie! W roku 2000 w użyciu było około 505 milionów skrzynek poczty elektronicznej, w roku 2005 tą formą komunikacji ma się już posługiwać ok. 1,2 mld użytkowników.
Wszystko zaczęło się w roku 1971 w sposób, który trudno byłoby nazwać spektakularnym. Technik w BBN, Ray Tomlinson, przesłał e-mail między dwoma komputerami, które były połączone w sieci ARPAnet. Poszukując rzadko używanego znaku dla wyróżnienia poczty elektronicznej odkrył @ i w ten sposób ustanowił symbol nowej epoki.
Kolejnym krokiem milowym w historii poczty elektronicznej było opracowane w roku 1981 przez Erica Allmana oprogramowanie Sendmail. Umożliwiło ono po raz pierwszy wysyłanie za pomocą programu pocztowego wiadomości jednocześnie do wielu sieci. Dzisiejszy sukces e-maila był nie do przewidzenia w roku 1971 i wynalazek Thomlinsona zasłużył sobie tylko na kilka wzmianek w prasie. Dziś nie sposób wyobrazić sobie życia bez poczty elektronicznej, a dla wielu ludzi jest ona wręcz warunkiem funkcjonowania.
Poczta elektroniczna opiera się na trzech protokołach - SMTP do wysyłania oraz POP i IMAP do odbioru. Specyfikację każdego protokołu opisano w jednym lub kilku dokumentach RFC.
Referat 7: Poczta elektroniczna, część 1| 2
3. Literatura
Komar, B. (2002). TCP/IP dla każdego. Gliwice: Helion.
Scrimger R., LaSalle P., Leitzke C., Parihar M., Gupta M. (2002). TCP/IP. Biblia. Gliwice: Helion.
"DHCP
Działanie DHCP
1. Działanie DHCP
Sieci podlegają stałym przemianom - przybywa nowych komputerów, mobilni użytkownicy logują się i wylogowują. Ręczna konfiguracja sieci wymagałaby nieprawdopodobnego nakładu pracy. Protokół DHCP (Dynamic Host Configuration Protocol) rozwiązuje ten problem poprzez dynamiczne przydzielanie adresów IP.
W sieci opartej na protokole TCP/IP każdy komputer ma co najmniej jeden adres IP i jedną maskę podsieci; dzięki temu może się komunikować z innymi urządzeniami w sieci. Centralne przydzielanie adresów za pomocą wydzielonego komputera opłaca się już w małej sieci. Administrator uzyskuje w ten sposób kilka korzyści od razu. Konserwacja sieci wymaga mniej czasu, ponieważ odpadają manipulacje przy poszczególnych klientach. Konflikty adresów należą do przeszłości, ponieważ serwer DHCP steruje centralnie przydzielaniem adresów IP.
Protokół DHCP opiera się na protokole BOOTP (Bootstrap Protocol), jednak w stosunku do niego zawiera wiele ulepszeń. Niewątpliwie najbardziej interesującym jest dynamiczne przydzielanie adresów IP. Serwer DHCP korzysta przy tym z predefiniowanego obszaru adresowego i przydziela kolejnym klientom, które o to występują, adres IP na określony czas (lease). W czasie trwania okresu lease klient DHCP nie występuje do serwera DHCP podczas startu systemu o nowy adres, a jedynie żąda potwierdzenia istniejącego stanu lease. Protokół DHCP minimalizuje również możliwe źródła błędów. Na życzenie podaje, oprócz adresu IP, również inne parametry, jak choćby standardowa brama, czy adresy serwerów nazw. Specyfikacja techniczna protokołu DHCP zawarta jest w RFC 2131.
5. Literatura
Komar, B. (2002). TCP/IP dla każdego. Gliwice: Helion.
Scrimger R., LaSalle P., Leitzke C., Parihar M., Gupta M. (2002). TCP/IP. Biblia. Gliwice: Helion.
McLean, I. (2002). TCP/IP. Czarna księga. Gliwice: Helion.
"PC World Komputer PRO". Nr 3/2003
PC World Komputer PRO". Nr 3/2003.
Poczta elektroniczna
Simple Mail Transfer Protocol - SMTP
2. Simple Mail Transfer Protocol - SMTP
Zadaniem SMTP jest niezawodny i wydajny transport wiadomości. Protokół ten jest niezależny od protokołu sieciowego; zwykle stosowany jest standardowy protokół Internetu, TCP. Komunikacja odbywa się przez port 25.
Za wymianę wiadomości odpowiadają tzw. mail transfer agents (MTA). Najbardziej znanym MTA jest Sendmail. Użytkownik zwykle nie ma z nimi bezpośrednio do czynienia. Dostawą poczty do i z MTA zajmują się klienty pocztowe, takie jak Outlook czy KMail. MTA komunikują się między sobą za pomocą zwykłych znaków ASCII. Klient wysyła polecenia do serwera, który odpowiada za pomocą kodu numerycznego i opcjonalnego ciągu znaków.
Simple Mail Transfer Protocol ma jednak jedną, istotną wadę - po wysłaniu e-maila nie otrzymuje się żadnej wiadomości o jego dalszych losach. Specyfikacja przewiduje wprawdzie powiadomienie nadawcy w sytuacji, gdy wiadomość nie może być dostarczona. Nie jest określone jednoznacznie, jak taka wiadomość ma wyglądać. Zwykle jest to e-mail z komunikatem o błędzie i nagłówkiem niedostarczonej wiadomości. Ze względu na brak standardu, w praktyce rzadko udaje się ustalić, gdzie i dlaczego wystąpił błąd.
Dlatego też opracowano rozszerzenie SMTP, definiujące standardowe powiadomienia o błędach. Niestety bardzo niewiele serwerów obsługuje obecnie to rozszerzenie.
2.1. Proces SMTP
Rys.: Proces SMTP
Źródło: Komar, B. (2002). TCP/IP dla każdego. Gliwice: Helion, strona 373
Typowe połączenie SMTP składa się z następujących etapów:
Klient SMTP inicjuje połączenie z serwerem SMTP. Klient korzysta z losowo wybranego portu o numerze powyżej 1024 i łączy się z portem serwera o numerze 25. Serwer sygnalizuje akceptację połączenia komunikatem 220 - ready.
Klient żąda ustanowienia sesji poprzez wysłanie polecenia HELO (ang. Hello) lub EHLO (ang. Extended Hello). Polecenie to powinno zawierać pełną nazwę (FQDN) klienta. Serwer odpowiada komunikatem 250 - ok.
Klient informuje serwer, kto wysyła wiadomość, wykorzystując polecenie MAIL FROM: -adres-, gdzie -adres- jest adresem poczty elektronicznej użytkownika wysyłającego. Zazwyczaj odpowiada on adresowi zwrotnemu określonemu w programie pocztowym klienta. Serwer ponownie powinien odpowiedzieć komunikatem 250 - ok.
Klient określa następnie wszystkich odbiorców, do których wiadomość jest skierowana. Korzysta w tym celu z polecenia RCPT TO: -adres-. Jeżeli serwer obsługuje wielu odbiorców, dla każdego z nich przesyłane jest kolejne polecenie RCPT TO:. Odpowiedzią serwera na informację o każdym kolejnym odbiorcy jest komunikat 250 - ok.
Klient informuje o gotowości do przesyłania właściwej wiadomości komunikatem DATA. Serwer odpowiada komunikatem 250 -ok-. Określa również ciąg znaków, który spodziewa się otrzymać na znak końca treści wiadomości. Najczęściej jest to [CR][LF].[CR][LF]. Potem następuje przesłanie do serwera tejże treści. Wiadomość przesyłana jest przy użyciu znaków 7-bitowego ASCII. Jeżeli towarzyszą jej załączniki, muszą one zostać przetworzone do tej postaci. Wykorzystuje się do tego celu mechanizm BinHex, uencode lub MIME.
Po zakończeniu transmitowania wiadomości, klient wysyła polecenie QUIT kończące sesję SMTP. Serwer odpowiada komunikatem 221 -closing-, co oznacza, że nastąpiło zakończenie sesji. Jeżeli klient wysyła następną wiadomość, proces ponownie rozpoczyna się od polecenia MAIL FROM:.
Rys.: Droga e-maila od nadawcy do odbiorcy
Źródło: "PC World Komputer PRO". Nr 3/2003
2.2. Polecenia protokołu SMTP
Polecenie definiują sposób przesyłania e-maili. Zgodnie ze specyfikacją implementacja SMTP musi obsługiwać co najmniej osiem poleceń:
POLECENIE |
OPIS |
HELO |
Inicjuje połączenie i identyfikuje nadawcę SMTP dla odbiorcy SMTP |
Inicjuje transakcję pocztową |
|
RCPT |
Identyfikuje pojedynczego adresata |
DATA |
Identyfikuje wiersze następujące po poleceniu jako dane pocztowe od nadawcy |
RSET |
Przerywa bieżącą transakcję pocztową |
SEND |
Dostarcza pocztę do terminala |
SOML |
Dostarcza pocztę do terminala. Jeżeli ta operacja się nie powiedzie, poczta zostanie dostarczona do skrzynki pocztowej |
SAML |
Dostarcza pocztę do terminala. Poczta jest również dostarczana do skrzynki pocztowej |
VRFY |
Weryfikuje nazwę użytkownika |
EXPN |
Rozwija listę dystrybucyjną |
HELP |
Sprawia, że odbiorca wysyła przydatne informacje |
NOOP |
Żąda, by odbiorca wysłał odpowiedź OK, ale w przeciwnym razie nie określa żadnych działań |
QUIT |
Żąda, by odbiorca wysłał odpowiedź OK, a następnie zamknął kanał transmisyjny |
TURN |
Żąda, by odbiorca przejął rolę nadawcy. Jeżeli zostanie otrzymana odpowiedź OK, to nadawca staje się odbiorcą |
Tabela 1. Polecenia SMTP
2.3. Kody odpowiedzi SMTP
Kody odpowiedzi SMTP gwarantują, że klient jest na bieżąco informowany o statusie serwera. Każde polecenie wymaga kodu odpowiedzi od serwera. Klient decyduje o sposobie dalszego postępowania wyłącznie na podstawie otrzymanych zwrotnie kodów numerycznych.
KOD |
ZNACZENIE |
211 |
Odpowiedź stanu systemu lub pomocy systemowej |
214 |
Komunikat pomocy |
220 |
Usługa gotowa |
221 |
Usługa zamyka kanał transmisyjny |
250 |
Żądane działanie poczty OK, zakończone |
251 |
Użytkownik nielokalny; przekażę do ścieżki przekazywania |
354 |
Rozpocznij wprowadzanie poczty |
421 |
Usługa niedostępna, zamykam kanał transmisyjny |
450 |
Żądane działanie poczty nie zostało podjęte: skrzynka pocztowa niedostępna |
451 |
Żądane działanie zostało przerwane |
452 |
Żądane działanie nie zostało podjęte: niewystarczająca ilość pamięci systemowej |
500 |
Błąd składniowy, polecenie nierozpoznane |
501 |
Błąd składniowy w parametrach lub argumentach |
502 |
Polecenie nie zostało implementowane |
503 |
Zła kolejność poleceń |
504 |
Parametr polecenia nie został implementowany |
550 |
Żądane działanie poczty nie zostało podjęte: skrzynka pocztowa niedostępna |
551 |
Użytkownik nielokalny; spróbuj wykorzystać ścieżkę przekazywania |
552 |
Żądane działanie poczty zostało przerwane: przekroczona alokacja pamięci |
553 |
Żądane działanie nie zostało podjęte: niedozwolona nazwa skrzynki pocztowej |
554 |
Transakcja nie powiodła się |
Tabela 2. Kody odpowiedzi SMTP
2.4. Mail Routing i DNS
Gdy serwer SMTP odbierze wiadomość od klienta, odpowiada za routing e-maila. System nazw domen (DNS) odgrywa centralną rolę nie tylko w dziedzinie dostępu do serwerów internetowych i FTP, lecz również w kwestii przesyłania wiadomości elektronicznych.
W systemie DNS przewidziano specjalne wpisy dla e-maili - rekordy MX. Serwer identyfikuje komputer docelowy za pomocą tak zwanego mail exchange record domeny. W tym celu pyta serwer DNS i otrzymuje listę serwerów (mail exchanger), które odbierają wiadomości dla tej domeny. Każdy mail exchanger ma określony priorytet o długości 16 bitów. Serwer SMTP próbuje zatem po kolei dostarczyć wiadomość do któregoś z serwerów zgodnie z priorytetem.
Zasadniczo wiadomość może przechodzić przez wiele serwerów SMTP. Wbrew szeroko rozpowszechnionemu mniemaniu, jakoby e-maile mogły kilkakrotnie okrążyć Ziemię, zanim w końcu dotrą do odbiorcy, w rzeczywistości z reguły przechodzą tylko przez dwa serwery SMTP. Zapobieganie powstawaniu takich pętli jest właśnie zadaniem rekordów MX. Mimo to w wyjątkowych przypadkach może się zdarzyć, że taka pętla powstanie, na przykład w sytuacji gdy informacje routingowe są niekompletne lub nieaktualne. Taki przypadek zachodzi na przykład przy zmianie dostawcy usług internetowych.
Rys.: DNS i e-mail
Źródło: "PC World Komputer PRO". Nr 3/2003
2.5. Multipurpose Internet Mail Extension (MIME)
W treści e-maili stosuje się 7-bitowy tekst ASCII. Zawiera on 128 znaków, jednak bez narodowych znaków specjalnych. W tej wersji nie można więc pisać z polskimi ogonkami. RFC 2045 definiuje MIME, który eliminuje problemy, gdy w e-mailu użyto innego zestawu znaków niż US ASCII.
Treść e-maila MIME może być w dalszym ciągu przesyłana jako tekst ASCII, bez względu na zawartość. Jedynym warunkiem stosowania jest obsługa przez klienta pocztowego. MIME dodaje do nagłówka pewne elementy, które objaśniają odbiorcy strukturę treści.
ELEMENT |
PARAMETR |
OPIS |
Wersja MIME |
1.0 |
Określa wersję MIME. |
Typ zawartości |
Tekst, obraz itp. |
Określa zawartość e-maila. W przypadku typów "tekst" i "multipart" dochodzi informacja o zestawie znaków oraz identyfikator części tekstowej. |
Content Transfer Encoding |
7bit, 8bit, binary, quoted-printable |
Charakteryzuje algorytm kodowania danych |
Tabela 3. Nagłówek MIME
2.5.1. Typy MIME
MIME nie tylko umożliwia przesyłanie e-maili z załącznikami, lecz jednocześnie zapewnia informację, którą klient pocztowy wykorzystuje do wybrania właściwego programu edycyjnego. Służy do tego element nagłówka "Typ zawartości". MIME dzieli typy danych (typy mediów) na siedem grup głównych z wieloma podgrupami. Każde rozszerzenie nazwy pliku przypisane jest do jednego z "typów mediów".
NAZWA |
TYP |
OPIS |
tekst |
plain |
tekst niesformatowany |
|
richtext |
tekst z prostym formatowaniem (kursywa) |
|
enriched |
uproszczona i rozszerzona forma richtext |
multipart |
mixed |
wieloczłonowa treść, elementy przetwarzane są sekwencyjnie |
|
parallel |
wieloczłonowa treść, elementy przetwarzane są równolegle |
|
digest |
wyciąg z e-maila |
|
alternative |
wieloczłonowa treść o identycznej zawartości logicznej |
message |
rfc882 |
zawartością jest inna wiadomość rfc822 |
|
partial |
zawartością jest fragment e-maila |
|
external-body |
zawartością jest wskazówka do właściwej wiadomości |
application |
octet-stream |
dane binarne |
|
postscript |
dane postscriptowe |
image |
jpeg |
format iso 10918 |
|
gif |
compuserve graphic interchange format (gif) |
audio |
basic |
kodowany format 8-bitowy |
video |
mpeg |
format iso 11172 |
Tabela 4. Ważniejsze typy MIME
2.6. Zabezpieczenie sesji SMTP
SMTP to protokół notorycznie nadużywany przez hakerów do wysyłania użytkownikom najróżniejszych niespodzianek. Łatwość takiego wykorzystania protokołu pocztowego wynika wprost z jego "ufnej" natury.
Działanie protokołu SMTP opiera się na technice określanej mianem przekazywanie SMTP (ang. SMTP relaying). Klient łączy się z serwerem SMTP i przekazuje wiadomości do odbiorcy przez ich "odbicie" na serwer SMTP.
Standardowo serwer SMTP pozwala przekazywać (odbijać) wiadomości dowolnym klientom. Wraz ze wzrostem problemu nieuprawnionego wysyłania wiadomości wiele organizacji blokuje swoje serwery SMTP, ograniczając możliwości korzystania z przekazywania SMTP. Typowe rozwiązania to:
Ograniczenie przekazywania do wybranych podsieci IP. Można skonfigurować serwer SMTP tak, aby przyjmował wiadomości wyłącznie od stacji pracujących w wybranej podsieci IP. Mimo że sprawdza się to w odniesieniu do klientów w sieci lokalnej, nie może być stosowane przez organizacje, w której użytkownicy zmieniają miejsca korzystania z poczty elektronicznej. Ponieważ użytkownik zmieniający miejsce pobytu korzysta z usług różnych ISP, zdefiniowanie wszystkich wymaganych podsieci jest praktycznie niemożliwe.
Wprowadzenie uwierzytelniania SMTP. Protokół SMTP przewiduje możliwość uwierzytelniania klientów jeszcze zanim zaczną oni wysyłać wiadomości. Choć wydaje się to rozwiązaniem najlepszym, wiąże się z pewnym ryzykiem, ponieważ uwierzytelnianie opiera się na jawnym przesyłaniu hasła.
Wyłączanie przekazywania SMTP. W przypadku serwerów poczty, takich jak Microsoft Exchange Server 2000, pozwalających klientom łączyć i uwierzytelniać się przy użyciu rozwiązań firmowych, przekazywanie SMTP można wyłączyć. Wówczas usługi specyficzne dla serwera pocztowego będą przyjmować wyłącznie wiadomości kierowane do Internetu. Z opcji tej nie można skorzystać, gdy w sieci pracują klienty protokołu POP3 lub IMAP4.
Poza ograniczeniami przekazywania, wymiana danych SMTP może być chroniona przy użyciu SSL, czyli mechanizmów opartych na technologii klucza publicznego. Zabezpieczenia SSL opierają się na zabezpieczonej wymianie klucza sesji używanego do szyfrowania całości komunikacji między klientem a serwerem.
Kiedy klient SMTP łączy się z usługą SMTP serwera pocztowego, otrzymuje klucz publiczny serwera. Procedura jest następująca:
Klient łączy się z serwerem SMTP. W miejsce standardowego portu TCP 25 wykorzystywany jest port TCP 465.
Serwer SMTP przesyła klientowi swój certyfikat. Jednym z jego atrybutów jest klucz publiczny serwera.
Klient weryfikuje certyfikat serwera: sprawdza powiązanie z zaufanym głównym organem certyfikującym (CA), kontroluje znacznik czasu, porównuje nazwę wymienioną w certyfikacie z pełną kwalifikowaną nazwą serwera i zestawia numer seryjny z listami certyfikatów unieważnionych.
Po udanej weryfikacji klient generuje losowy klucz sesji, szyfruje go przy użyciu klucza publicznego serwera i wysyła klucz do serwera. Serwer z kolei odszyfrowuje klucz sesji przy użyciu własnego klucza prywatnego i zwraca potwierdzenie, będące dla klienta zarazem potwierdzeniem tożsamości serwera.
Do serwera przesyłana jest nazwa użytkownika i hasło (zaszyfrowane przy użyciu klucza sesji).
Referat 7: Poczta elektroniczna, część 1| 2
3. Literatura
Komar, B. (2002). TCP/IP dla każdego. Gliwice: Helion.
Scrimger R., LaSalle P., Leitzke C., Parihar M., Gupta M. (2002). TCP/IP. Biblia. Gliwice: Helion.
"PC World Komputer PRO". Nr 3/2003.
Jesteś niezalogowany Zaloguj się lub zarejestruj nowe konto.
Początek formularza
Prace | Słowniki | Uczelnie | Kalkulator | Ludzie
Szukaj
Dół formularza
POLECAMY: Hej. Otrzymałaś darmowy kupon. Sprawdź.
Student / Informatyczne / Systemy i sieci
3.3
Systemy operacyjne
Autor: kkeettii Dodano: 2006-03-27
INFORMACJA - jest zbiorem danych zebranych w celu ich przetwarzania i otrzymania wyników, które mogą być nowymi informacjami.
KOMPUTER - jest to elektroniczne urządzenie przeznaczone do automatycznego przetwarzania informacji w sposób programowy.
OPROGRAMOWANIE - jest to zestaw programów, pozwalających na wykonanie przez komputer określonych zadań. Podstawą do opracowania programu jest algorytm.
ALGORYTM - jest to przepis rozwiązania określonego zadania, opisujący logiczną sekwencję operacji, które mogą być wykonane przez program przy rozwiązaniu zadania.
INFORMATYKA - jest to dziedzina wiedzy i działalności człowieka, która zajmuje się przetwarzaniem informacji za pomocą komputerów i odpowiedniego oprogramowania.
Zmiana wartości bitu, wyzerowanie, sprawdzenie ® komputer wykonuje te trzy polecenia (trzy rodzaje działań)
SYSTEMY LICZENIA:
- dwójkowy
- ósemkowy
- dziesiętny
- szesnastkowy
Komputer „myśli” dwójkowo - organizacja pamięci:
- 1 bit - miejsce na zapamiętanie znaku 0 bądź 1
- 1 Bajt = 8 bitów - pozwala zapamiętać 28 różnych wartości (liczby od 0-255)
- 1 kB = 210B = 1024B
- 1 MB = 220 B = 1048576B
- 1 GB = 230B
- 1 słowo - to ilość informacji przetwarzanej przez procesor w jednym cyklu
- bity i bajty bardziej i mniej znaczące
Binarna reprezentacja danych
- operacje bitowe
+ przesunięcia
00000001 << 3 = 00001000 = 8
00001101 >> 2 = 00000011 = 3
00001101 << 5 = 10100000 = 160
- operacje logiczne
+ koniunkcja &
01010101 &11001100 = 01000100
+ alternatywa |
01010101 | 11001100 = 11011101
+ dyskusja ^
00001101 ^ 11001100 = 11000001
+ dopełnienie ~
~ 01010101 = 10101010
~ 11001100 = 00110011
Typowa liczba całkowita zajmuje jedno słowo
REPREZENTACJA LICZB
- stałopozycyjna - w praktyce tylko dla liczb całkowitych
- zmiennopozycyjna (zmiennoprzecinkowa) - mantysa o cecha
ARCHITEKTURA KOMPUTERA- to sposób organizacji elementów tworzących komputer.
Ze wzg. na rodzaj połączeń procesor - pamięć i sposób ich wykorzystania możemy podzielić arch. na:
- SMP - systematyczne
- NUMA - arytmetyczne
- AMP - asynchroniczne
- Inne
Ze wzg. na sposób organizacji pamięci i wykorzystania programu
- arch. Von Neumanna
- arch. Harwardzka
System komp. zbudowany w oparciu o ARCH. VON NEUMANNA powinien mieć:
- skończoną i funkcjonalną pełną listę rozkazów,
- możliwość wprowadzenia programu do systemu komputerowego poprzez urządzenia zewnętrzne i jego przechowanie w pamięci,
- dane i instrukcje w danym systemie powinny być jednakowo dostępne dla procesora,
- informacja tam przetwarzana dzięki sekwencyjnemu odczytaniu instrukcji z pamięci komputera i wykorzystaniu tych instrukcji w komputerze.
Podane warunki pozwalają przełączyć system komp. z wykonywania jednego zadania (programu) na inne bez fizycznej ingerencji w strukturę systemu, a tym samym gwarantuje jej suwerenność.
ARCH. HARWARDZKA - pamięć przydzielania danym programu jest oddzielona od pamięci rozkazów.
PROCESOR - urządzenie cyfrowe, sekwencyjne potrafiące pobierać dane z pamięci, interpretować je i wykonywać je jako rozkazy. Wykonuje bardzo szybko ciąg prostych operacji (rozkazów) wybieranych ze zbioru operacji podst. określanych zazwyczaj przez producenta procesora jako lista rozkazów procesora.
BU - blok komunikacyjny
AU - jednostka okresowa
MMU - blok zarządzenia pamięcią
IU - blok dekodera
ALU - jednostka arytmetyczna logiczna
CU - blok kontroli
EU - blok wykonawczy
FPU - blok obsługi działań zmiennoprzecinkowych
PRESETCH - blok kontroli wstępnej pobierania rozkazów
BUDOWA PROCESORA:
Procesor jest zwykle wykonywany jako układ scalony, zamknięty w hermetycznej obudowie posiadającej złocone wprowadzenia. Złoto jest konieczne aby zmniejszyć pojemność pasożytniczych połączeń. Jego sercem jest monokryształ krzemu na który naniesiono techniką fotolitografii szereg warstw półprzewodnikowych. Tworzą one sieć od kilu do kilkudziesięciu milionów tranzystorów. Połączenia wykonane z metalu. Ważnym parametrem procesora jest rozmiar stanowiący jego struktury. Im są one mniejsze tym niższe jest zużycie energii, napięcie pracy oraz wyższa częstotliwość pracy. Współczesne procesory wykonane są w technologii pozwalającej na uzyskanie elementów o rozmiarach mniejszych niż 90 nm, pracujących z częstotliwością kilku GHz.
W funkcjonalnej strukturze procesora można wyróżnić:
- zespół rejestrów do przechowywania danych i wyników, rejestry mogą być ogólnego przeznaczenia, lub mają specjalne przeznaczenie
- jednostkę arytmetyczną do wykonania operacji obliczeniowych na danych
- układ sterujący przebiegiem wykonywanym programem.
Jedną z podst. cech procesora jest długość słowa, na którym są wykonywane podst. operacje obliczeniowe. Innym ważnym parametrem jest szybkość z jaką wykonuje on program.
Do typowych rozkazów wykonywanych przez procesor należą:
- kopiowanie danych - z pamięci do rejestru, z rejestru do pamięci, z pamięci do pamięci (niektóre procesory),
- działania arytmetyczne - dodawanie, odejmowanie, porównywanie dwóch liczb, dodawanie o odejmowanie jedności, zmienna znaku liczby,
- działania na bitach - iloczyn logiczny AND, suma logiczna OR, suma modulo2 XOR, negacja NOT, przesunięcie bitu w prawo lub w lewo,
- skoki - bezwarunkowe, warunkowe.
MIKROPROCESOR - to układ cyfrowy jako układ scalony lub kilka układów scalonych, zdolny do wykonania operacji cyfrowych według dostarczonych mu instrukcji.
W prawie każdym procesorze można wyróżnić następujące bloki:
- ALU - jednostka arytmetyczno - logiczna, wykonuje ona operacje logiczne na dostarczonych jej danych, podst. operacje to: AND, XOR, OR, NOT oraz przesunięcie bitowe w prawo lub w lewo,
- CU - układ sterowania zwany też dekoderem rozkazów. Odpowiedzialny jest on za dekodowanie dostarczonych mikroprocesorowi instrukcji i odpowiednie sterowanie pozostałymi jego blokami,
- REJESTRY - umieszczone wewnątrz mikroprocesora komórki pamięci o niewielkich rozmiarach służące do przechowywania tymczasowych wyników obliczeń, oraz adresów lokacji w pamięci operacyjnej,
- PC - licznik rozkazów - zawiera on adres komórki pamięci zawierającej następny rozkaz do wykonania,
- IR - rejestr instrukcji - zawiera on adres aktualnie wykonywanej przez procesor instrukcji,
- SP - wskaźnik stosu - zawiera adres wierzchołka stosu.
Generalnie każdy bardziej skomplikowany mikroprocesor można zaklasyfikować do jednej z trzech arch.:
- CISC
- RISC
- VLIW
Każda z nich ma swoją specyfikację, wady i zalety.
CISC
Cechy charakterystyczne:
- duża liczba rozkazów,
- mała optymalizacja,
- występowanie złożonych, specjalistycznych rozkazów,
- duża liczba trybów adresowania,
- do pamięci może się odwoływać bezpośrednio duża liczba rozkazów,
- powolne działanie dekodera rozkazów.
RISC
- zredukowana liczba rozkazów,
- redukcja typów adresowania,
- ograniczenie komunikacji pomiędzy pamięcią, a procesorem
- zwiększenie liczby rejestrów
- dzięki POWTARZANIU POTOKOWEMU wszystkie rozkazy wykonują się w jednym cyklu maszynowym.
VILW - arch. o bardzo dużym słowie instrukcji - w przeciwieństwie do innych arch. ta arch. charakteryzuje się maksymalnie daleko idącym uproszczeniem jednostki sterujących (CU) w samym mikroprocesorze.
CYKL ROZKAZOWY MIKROPROCESORA - działanie procesora sprowadza się do cyklicznego przetwarzania dwóch podst. operacji:
- pobierania rozkazów
- wykonanie rozkazów.
Przetwarzanie tego cyklu może nastąpić tylko w przypadku napotkania specjalnego rozkazu nakazującego zatrzymanie procesora lub wyniku interwencji z zewnątrz.
Cykl procesora składa się z następujących kroków:
- odczytanie pamięci rozkazu wskazanego przez licznik rozkazów LR i umieszczenie go w rejestrze rozkazów RR,
- zmiana zawartości LR tak aby wskazywał następny rozkaz,
- dekodowanie rozkazu, określenie jednego typu i liczby argumentów,
- wyznaczanie adresów i pobranie argumentów,
- wykonanie wymaganych czynności wskazanych w treści rozkazu i zapamiętanie wyniku,
- przejście do kroku 1.
Podczas wykonywania każdego kroku generowane są niezbędne sekwencje sygnałów sterujących, otwierające lub zamykające za pomocą bramek odpowiednie drogi przepływu, uruchamiające układy arytmetyczne i logiczne testujące obecność określonych sygnałów.
Klasyfikacja rozkazów:
- przesyłające informację,
- przetwarzające informację,
- rozgałęzienia i skoki,
- wejścia / wyjścia.
Procesory wykorzystujące potok pracują nad olejnymi rozkazami według ściśle określonego schematu:
FAZA I - pobieranie - zakładamy obecność kodu w kolejce rozkazowej procesora. Zapełnienie tej kolejki odbywa się poprzez ściągnięcie do pamięci podręcznej L1.
FAZA II - dekodowanie - analiza kodu operacyjnego instrukcji, separuje się przedrostki i argumenty, później oblicza się adres efektywny argumentów.
FAZA III - fizyczny dostęp do pamięci w celu pobrania ewentualnych argumentów rozkazu oraz operacje na argumentach określone kodem operacji.
FAZA IV - wynik operacji umieszczony jest w miejscu określonym w kodzie rozkazowym - rejestry lub pamięć - później przywraca się stan początkowy.
PRZERWANIE - sygnał powodujący zmianę przepływu sterowania, niezależnie od architektury wykonywanego programu. Pojawienie się przerwania powoduje wstrzymanie aktualnie wykonywanego programu i wykonanie przez procesor kodu procedury obsługi przerwania.
Rodzaje przerwań:
- zewnętrzne - sygnał pochodzi z zewnątrz układu obsługującego przerwanie sprzętowe; przerwania służą do komunikacji z urządzeniami zewnętrznymi np. z klawiaturą, napędami dysków;
- wewnętrzne - zgłaszane przez procesor dla sygnalizowania sytuacji wyjątkowych:
+ falus (niepowodzenie) - sytuacje w których aktualnie wykonywana jest instrukcja powoduje błąd;
+ treps (pułapki) - sytuacja która nie jest błędem, jej występowanie ma na celu wykonanie określonego kodu;
+ aborts - błędy, których nie można naprawić
- programowe - z kodu programu wywoływana jest procedura obsługi przerwania.
PAMIĘCI KOMPUTERA
Ze względu na tym stosowanych nośników można wyróżnić pamięci:
- magnetyczne,
- półprzewodnikowe,
- optyczne.
Inny podział:
- pamięci z ruchomym nośnikiem,
- pamięci z nieruchomym nośnikiem.
Z punktu widzenia trwałości przechowywanych informacji i możliwości ich zmiany można wyróżnić:
- pamięci ulotne,
- nie ulotne
- stałe,
- o zmiennej zawartości.
Z punktu widzenia stosowanych metod dostępu do informacji wyróżniamy:
- o dostępie swobodnym,
- o dostępie sekwencyjnym,
- skojarzeniowe.
W pamięciach o dostępie swobodnym czas, jaki upływa od podania adresu uzyskania informacji jest dla danej pamięci zawsze taki sam i nie zależy od adresu.
W pamięciach sekwencyjnych czas potrzebny na dotarcie do informacji zależy nie tylko od jej adresu, ale i od adresu używanego z poprzedniej operacji. Typową pamięcią sekwencyjną jest pamięć MAGNETYCZNA.
Dostęp do pamięci skojarzeniowych w ogóle nie wymaga podania adresu. Lokalizacja informacji następuje na podstawie jej treści. Nazywa się je pamięciami adresowanymi zawartością.
Pod względem funkcjonalnym pamięci komputerowe tworzą pewną STRUKTURĘ HIERARCICZNĄ. Cechą tej struktury jest ścisła współzależność pojemności i szybkości działania pamięci. Najszybsze pamięci są równocześnie najmniej pojemne. Natomiast ze wzrostem pojemności szybkość maleje. Ta zależność jest uwarunkowana ekonomicznie.
PAMIĘĆ WEWNĘTRZNA
Zaliczamy do niej rejestry procesora oraz stosowane często specjalne bufory pośredniczące między procesorem i pamięcią operacyjną. Pamięć wew. jest bardzo szybka. Wynika to zarówno z jej konstrukcji, technologii jak i lokalizacji. Wszystkie bity informacji są przesyłane równolegle, brak jest również opóźnień jakie występują podczas operacji na magistralach zewnętrznych. Pojemność jej wynosi od kilku do kilkunastu słów w przypadku rejestrów, do kilu tysięcy słów w przypadku buforów pośredniczących.
PAMIĘĆ OPERACYJNA LUB GŁÓWNA
Przechowuje aktualnie wykonywane programy i dane. Pamięć operacyjna jest wielokrotnie wolniejsza od pamięci wewnętrznej.
PAMIĘCI ZEWNĘTRZNE
Największe, ale i najbardziej pojemne. Są to najczęściej pamięci magnetyczne z ruchomym nośnikiem. Stosuje się także pamięci domenowe, które są pamięciami półprzewodnikowymi o dostępie sekwencyjnym.
PAMIĘĆ OPERACYJNA
Pamięć będąca modułem komputera związanym bezpośrednio z procesorem i układem sterowania, uczestniczącą w realizacji każdej operacji wykonywanej przez komputer, nazywa się PAMIĘCIĄ OPERACYJNĄ. Jest niezwykle ważnym urządzeniem komputera, jest miejscem w którym są przechowywane wszystkie informacje niezbędne do pracy, takie jak programy czy zbiory danych.
Podstawową jednostką określającą pojemność pamięci komputera jest BAJT, wystarczający do zapisania jednego znaku danych. Za pomocą 1 bajtu można przedstawić 256 różnych znaków np. liczby całkowite od 0 do 255.
Na pamięć komp. składają się:
- układy umożliwiające wprowadzenie danych lub ich wydawanie,
- elementy lub materiały mające zdolność długotrwałego pamiętania.
Pamięć operacyjna składa się z pamięci przeznaczonej wyłącznie do odczytu ROM oraz z pamięci zapisywalnej o dostępie swobodnym RAM. Układy scalone pamięci ROM zawierają programy i dane zapisane w procesie produkcyjnym w sposób trwały - informacje nie są tracone po odłączeniu zasilania. Pamięć ROM jest trwałą pamięcią do przechowywania podstawowej informacji i programów, które muszą być stałe i natychmiast dostępne, a jednocześnie zabezpieczone przed świadomą lub nieświadomą modyfikację przez użytkownika. Często w pamięci ROM jest przechowywany podstawowy system obsługi wej/wyj. Oprócz pamięci ROM stosuje się jeszcze dwie inne wersje pamięci: PROM i EPROM.
PROM - jest pamięcią w postaci układu scalonego, dającego się trwale programować przez użytkownika. Kości tej pamięci nie zawierają zapisanej informacji w procesie ich produkcji.
EPROM - jest pamięcią stałą wymazywalną i programowalną, w której można dane zapisać i bezterminowo przechowywać. Dane te można także wymazać przez naświetlenie promieniem ultrafioletowym i w ich miejsce zapisać nowe.
RAM - pamięć półprzewodnikowa - jest to pamięć , której zawartość może być odczytywana i zmieniana, ale jest pamięcią nietrwałą, ponieważ do pamiętania informacji wymaga zasilania. Z chwilą przerwy w zasilaniu informacja zapisana jest tracona bezpowrotnie. Pamięć RAM jest swego rodzaju przestrzenią roboczą komp.
Działanie procesora przyspiesza PAMIĘĆ PODRĘCZNĄ CACHE, szybsza od systemowej, w której przechowywane są często wykorzystywane dane. Wykorzystywana jest tu statyczna pamięć RAM (SRAM), która nie wymaga elektronicznego odświeżania. Natomiast jako pamięć operacyjną stosuje się dynamiczną pamięć odświeżania zawartości.
CHIPSET determinuje typ pamięci jaki może współpracować z komputerem. Arch. pamięci stosowanych w PC jest SDRAM, a dokładnie SDR, SDRAM czyli dynamiczna pamięć synchroniczna, zsynchronizowana ze specjalnym zegarem taktującym znajdującym się na płycie głównej.
PAMIĘCI PODRĘCZNE - jest to pamięć, która stanowi bufor o krótkim czasie dostępu - kilka ns lub kilkaset ps. Pamięci te są zorganizowane w linijki o rozmiarach 16 lub 32 bajty. Jest to najmniejsza porcja informacji, jaką pamięć podręczna wymienia z pamięcią główną. System taki został narzucony dla zwiększenia wydajności.
KOMPROMIS EKONOMICZNY - RAM duża i tania pamięć wspierana przez małą, szybką i trochę droższą pamięć. Wykorzystanie tych pamięci jest możliwe ponieważ procesor operuje przez dłuższy czas w tym samym rejonie pamięci, a nie skacze chaotycznie po całym obszarze. Przetwarzane rozkazy ułożone są w pamięci sekwencyjnie, a bloki też nie są rozpraszane po całej pamięci.
MAPOWANIE BEZPOŚREDNIE - pamięć główna dzieli się na strony, zgodnie z rozmiarem bloku pamięci podręcznej. W linijce o pamięci podręcznej znajduje się zawsze linijka 0 po pewnej stronie pamięci RAM.
Cechy:
- dodatnie - prosta konstrukcja i szybkość odszukiwania informacji
- negatywne - brak elastyczności i mała efektywność szczególnie jeżeli dochodzi do częstych skoków poza granice strony.
PEŁNA ASOCJACJA - w modelu tym nie ma symbolicznego podziału na strony pamięci, a operuje się wyłącznie linijkami. Ta optymalnie elastyczna organizacja ma jednak dużą wadę - odszukanie informacji w pamięci podręcznej wymaga przejrzenia całego jej katalogu, bo przeszukiwana linijka może się znajdować na dowolnej pozycji. Konstrukcje tego typu mają uzasadnienie ekonomiczne dla bloków pamięci podręcznej nie przekraczających 4 kB.
ASOCJACJA ZESPOŁOWA - stanowi kombinację rozwiązań poprzednich. Cechą charakterystyczną tej arch. jest podział pamięci podręcznej na równe porcje, zwykle 2 lub 4, zwane kanałami.
ADRESOWANIE - przez adresowanie rozumiemy zasady określania i wyznaczania argumentów rozkazu. Do najważniejszych rodzajów adresowania zaliczamy:
- adr. natychmiastowe
- adr. bezpośrednie
- adr. pośrednie
- indeksowanie
- adr. względem rejestru bazowego
- adr. względem licznika rozkazów
ADR. NATYCMIASTOWE - gdy argument operacji, którą należy wykonać, jest zawarty bezpośrednio w treści rozkazu.
ADR. BEZPOŚREDNIE - oprócz kodu operacji i pola określającego tryb adresowania, w rozkazie występuje adres organizacji argumentu operacji.
ADR. POŚREDNIE - adres zawarty w treści rozkazu nie wskazuje argumentu, lecz miejsce, w którym znajduje się adres argumentu.
INDEKSOWANIE - adres argumentu powstaje w wyniku sumowania części adresowej rozkazu i zawartości specjalnego rejestru procesora zwanego rejestrem indeksowym.
ADR. WZGLĘDEM REJESTRU BAZOWEGO - adres argumentu powstaje w wyniku sumowania odpowiedniego pola rozkazu z zawartością specjalnego rejestru procesora zwanego rejestrem bazowym.
ADR. WZGLĘDEM LICZNIKA ROZKAZÓW - do adresu „M” zawartego w rozkazie dodaje się aktualną zawartość licznika rozkazów LR. Tak obliczona suma ukazuje na miejsce, w którym znajduje się argument rozkazu.
SYSTEMY OPERACYJNE
SYSTEM OPERACYJNY - to program - układ wielu programów - działający jako pośrednik między użytkownikiem komputera, a sprzętem komputerowym.
Zadaniem sys. oper. jest tworzenie bezpiecznego i niezawodnego środowiska, w którym użytkownik może wykonywać swoje programy. W skład sys. oper. wchodzą: sprzęt, oprogramowanie i dane. Sys. oper. dostarcza środków do właściwego wykorzystania zasobów systemu informatycznego:
- pliki,
- urządzenia zewnętrzne,
- czas procesora,
- miejsce w pamięci komputera.
Cechy sys. oper.:
- duża złożoność,
- sys. oper. są sterowane przerwaniami,
- sys. oper. rozpoczyna działanie jako pierwszy program w komputerze i nie zaprzestaje działania aż do wyłączenia komputera.
RODZAJE SYS. OPER.:
- sys. jednozadaniowe - w jednej chwili może wykonać tylko jeden program,
- sys. wielozadaniowe - w danej chwili może wykonać kilka programów,
- sys. jednostanowiskowe - obsługuje tylko jednego użytkownika w danej chwili,
- sys. wielostanowiskowe - obsługuje wiele użytkowników jednocześnie.
- inne - wieloprocesowe, rozproszone, wsadowe, operacyjne sieciowe, otwarte …
Sys. oper. jest pierwszym i najważniejszym programem, który startuje po uruchomieniu komputera i służy głównie do uruchamiania innych programów oraz do zarządzania plikami i urządzeniami zewnętrznymi.
Podwójny tryb działania może pracować w jednym z dwóch trybów pracy:
- TRYB SYSTEMOWY - nazywany trybem jądra, monitora, nadzorcy lub trybem uprzywilejowanym
- TRYB UŻYTKOWNIKA - nie są tu dozwolone operacje potencjalnie niebezpieczne dla całości systemu.
PROCES - każdy egzemplarz programu razem z danymi, na których operuje, załadowany do pamięci operacyjnej w celu wykonania, przy czym wykonanie to musi przebiegać w sposób sekwencyjny. Do procesu należą: zawartość rejestrów maszynowych, tablice otwartych plików i inne struktury danych, określające jego aktualne zasoby.
Proces wykonywany pod kontrolą sys. oper. przebywa w jednym z następujących stanów:
- nowy - zaraz po utworzeniu,
- gotowy - proces oczekuje na przydział procesora,
- wykonywany - proces ma przydzielony procesor, który wykonuje jego instrukcje,
- zakończony - proces zakończył działanie, ale nadal pozostaje w systemie
- oczekujący - proces oczekuje na zajście zdarzenia:
+ operacja powodująca CHWILOWE ZAWIESZENIE wykonywania procesu z jego własnej inicjatywy,
+ WSTRZYMANIE WYKONYWANIA PROCESU wymuszone przez sys. oper.
Inne stany procesu:
- zaniechanie procesu
- likwidowanie procesu
- zakończenie pracy
- zatrzymanie
- głodzenie lub blokowanie nieskończone
- czekanie aktywne
- usypianie
- budzenie
MASZYNA WIRTUALNA - komputer wewnątrz komputera
INTERFEJS - to wszystko to, co stoi pomiędzy:
- użytkownikiem , a komputerem (interfejs sys. oper.)
- użytkownikiem, a programem (interfejsy programów aplikacyjnych)
- procesem, a portami (interfejsy sprzętowe)
SYSTEMY OTWARTE i otwarta arch. sprzętowa - zastąpiły monopol standardów takich firm jak IMB czy DEC.
SYSTEMY „WŁASNOŚCIOWE” - na które monopol ma jedna firma, która nie udostępnia szczegółów technicznych.
Ładowanie systemu, ROZRUCH - BOOTOWANIE BOTABLE DISK, dyskietka systemowa lub dysk systemowy - zawiera informacje wystarczające do inicjacji systemu. Kilka sys. może współistnieć na tym samym komputerze, w różnych partycjach.
ARCH. SYS. OPER.
MONOLITYCZNA - najprostsza, jedno jądro systemu, tylko w komp. jednozadaniowych.
WARSTWOWA - hierarchia poleceń systemowych, nowsze wersje DOSu.
KLIENT / SERWER - aplikacje (programy użytkowe) postrzegane są przez sys. oper. jako klienci dostarczających im swoich usług serwerów. Klienci komunikują się z serwerami poprzez jądro sys., każdy proces pracuje w własnej, wydzielonej i chronionej przestrzeni adresowej pamięci operacyjnej, dobrze odizolowany od innych procesów.
Arch. Klie/Serw. na poziomie relacji:
- jądro sys. i usług systemowych,
- programu i sys.
- stacji roboczych i serwerów
SERWER - maszyna udzielająca mocy obliczeniowej swojego procesora, serwująca pliki lub inne usługi, np. dostęp do drukarek, sieci.
TRZY WERSJE KLIENT/SERWER
- wszystkie aplikacje wykonywane są przez serwer, a wyniki wyświetlane na ekranie klienta,
- serwer dostarcza danych dla aplikacji uruchamiających na komputerze klienta
- wszystkie komputery współpracują ze sobą jak równy z równym, korzystając wzajemnie ze swoich zasobów.
CP/M
BIOS - pośredniczący w komunikacji sprzęt - oprogramowanie.
Struktura i wersje MS-DOSu
Główne idee, stosowane do tej pory to: hierarchiczna struktura danych, katalogów i podkatalogów, zarządzanie dyskami stałymi, BIOS w ROM-ie lub EEPROM-ie.
ŚRODOWISKO MS - WINDOWS - charakterystyka:
- PRACA WIELOZADANIOWA - kilka rzeczy wykonuje się jednocześnie wykorzystując ten sam procesor,
- TRYB ROZSZERZONY - procesów i368 pozwalał na wykonanie aplikacji 32-bitowych
- PAMIĘĆ WIRTUALNA - Ram na dysku, swap file, swapowanie, czyli spisywanie danych na dysk i do RAM-u; można uruchomić wiele aplikacji i nie brakuje pamięci.
WINDOWS WADY: kiepska szybkość działania, konieczna duża moc obliczeniowa procesora, konieczna jest duża pamięć RAM, duże dyski, czasami się zawiesza (zwłaszcza przy aplikacjach sieciowych), stosunkowo wolny wydruk.
POPULARNOŚĆ WINDOWS:
- standaryzacja poleceń: np. CTRL+F4, ALT+F4...
- stanowisko graficzne - moc komputerów i sprane działanie,
- wspólne fonty - do wszystkich aplikacji
- DDE - dynamiczna wymiana danych - automatyczna aktualizacja wyników w powiązanych aplikacji
- OLE - łączenie i zagnieżdżanie obiektów np. całego arkusza kalkulacyjnego czy filmu w tekście
LIMITY ZASOBÓW
- liczba liczników czasu - nieogr.
- liczba portów COM i LPT - nieogr.
- liczba pozycji w obiekcie (polu edycyjnym) - nieogr.
- liczba regionów - nieogr.
- liczba fizycznych ołówków i pędzli - nieogr.
- logiczne ołówki i pędzle - muszą się mieścić w segmencie 64 kB
- liczba zainstalowanych czcionek - 1000
- liczba kontekstów uderzenia - 16 k
Komentarze
tresc nie ma nic wspolnego z tematem pracy
Początek formularza
Anuluj Pozostało znaków 2500
Wyślij
Dół formularza
Serwis Sciaga.pl nie odpowiada za treści umieszczanych tekstów oraz komentarzy pochodzących od zarejestrowanych użytkowników.
Inne prace
Informatyczne
Prace Dodaj nową prace | Szukaj prac | Gimnazjum | Liceum | Student | Nauczyciel | Sciaga.mini
Vademeca Polski | Historia| Wiedza o społeczeństwie| Angielski
Nauka Matura | Korepetycje| Studia i Kursy | Kalkulator
Pomysł, wykonanie i cała reszta - Freshmind Sp. z o.o. © 1998-2009 Sciaga.pl
O Sciaga.pl | Blog | Pomoc | Regulamin | Polityka Prywatności | Reklama | Kontakt | Zgłoś problem
Jesteś niezalogowany Zaloguj się lub zarejestruj nowe konto.
Początek formularza
Prace | Słowniki | Uczelnie | Kalkulator | Ludzie
Szukaj
Dół formularza
POLECAMY: Hej. Otrzymałaś darmowy kupon. Sprawdź.
Gimnazjum / Przedmioty ścisłe / Informatyka / Inne
0.0
Sieciowe systemy operacyjne.
Autor: conixek Dodano: 2009-04-14
Zespół Szkół Zawodowych nr 1 im. Marii Skłodowskiej-Curie
TEMAT: Sieciowe systemy operacyjne.
Autor:
Anna Mirończuk-Ossowska (heh...ale ściema..xD)
kl. I h
Stopka?! xD
Wszelkie Prawa zastrzeżone :D
Dobra..strona nr. 2 ;D
Spis treści:
1. Ogólnie
1.1 Słowem wstępu..................................4
1.2. Dlaczego XP.....................................5
1.3 Wydajność.........................................6
1.4 Wymagania........................................7
2. Instalacja
2.1 Wstęp
2.2 Przygotowanie dysków......................8
2.3 Proces instalacji.................................9
2.4 Konfiguracja systemu.........................10
Bibliografia?!
Ja to z głowy pisze...xDDDDD
Kolejne strony.. :D
Strona nr. 4 - slowem wstepu :D
Od systemu operacyjnego, który wybierzemy będzie zależeć bardzo wiele. Dlatego też pierw musimy zdecydowac do czego głownie będzie on nam potrzebny.
System operacyjny to podstawa komputera. Bez niego nie zrobimy nic. Oczywiście komputer bez niego się włączy, jednak już po chwili zobaczymy komunikat w
języku angielskim (disk boot failure insert system disk and press enter), który informuje nas o tym, że w komputerze nie ma żadnego systemu. I nie możemy w tym
momencie zrobić nic, prócz zainstalowania go. Zwykły uzytkownik w swoim domowym komputerze korzysta z systemu Windows. Jest on najpopularniejszy i dzieli
się na kilka wersji. W bardzo starych komputerach będziemy mogli korzystac jedynie z Windows 98. W komputerach średniej klasy spotkamy Windows 2000, Windows ME czy też windows XP (Professional lub Home Edition).
Ten ostatni to bez wątpienia najpopularniejszy i najlepszy aktualnie system operacyjny. Zdecydowana większość komputerów w naszych domach opiera się własnie na nim.
Nie jest to najnowszy system, ponieważ na przełomie końca 2006 i początku 2007 roku na rynku pojawił sie Windows Vista. Miał byc to przełomowy, szybki i stabilny system.
Niestety taki nie był, uzytkownicy szybko wrócili do "xpeka". Vista miał zbyt duże wymagania sprzętowe i nie współpracował z wieloma aplikacjami. Jest on teraz w większości
nowych laptopów, w których spisuje sie nieźle. Ja jednak skupie się na Windowsie XP, którego postaram się przedstawic zarówno od strony dobrej, jak i tej złej.
Strona nr 5 - dlaczego xp :D
Windows XP jest to system operacyjny na którym możemy robić prawie wszystko. Jest on idealny dla zwykłych domowych uzytkowników. Ma małe wymagania, więc
nie musimy sie martwic o to czy nasz komputer zapewni nam stabilną pracę. Oczywiście komputery z przed 10 lat raczej nie dadzą rady, lecz mało kto juz takie ma.
Zwykły domowy użytkownik chce by komputer działał stabilnie, bez niepotrzebnych problemów. Nieda sie zagwarantowac, że tak będzie, lecz Windows XP to
najbardziej dopracowany system operacyjny dla użytkowników domowych. Dodatkowo co jakis czas Microsoft wypuszcza do niego różne łatki, usprawnienia,
które sprawiają, że praca z nim jest jeszcze bezpieczniejsza. Kolejnym czynnikiem dla którego właśnie WINDOWS XP jest głownym obiektem tej pracy jest
prostota w jego obsłudze. Jest to system wyjątkowo prosty i czytelny. Nie musimy się martwic, że nie będziemy wiedziec jak zrobić jakąś rzecz ponieważ
wszystko można znaleźć w mgnieniu oka. Dodatkowo system pomocy w nim wbudowany zapewnia nam sporą dawke informacji i wskazówek.
Strona 6 - wydajnosc
Każdy rząda od komputera za którego zapłacił nie małe pieniądze, aby ten działal szybko i stabilnie. Windows XP pod tym względem jest zdecydowanie
najlepszy. Na komputerach średniej klasy system windows XP działa bardzo dobrze. Oczywiście
zdarza sie zawieszenie systemu, lecz tego uniknąć się nieda. Nie tylko do systemu operacyjnego zależy jak wydajny będzie nasz komputer, dlatego tez
nie możemy obwiniac systemu za wolne się ładownie, wolną kowersje filmów czy obrazów. Aby przyśpieszyć te procesy musimy zainwestowac w podzespoły
naszego PC'ta. Jeśli jednak nasz system działa zbyt wolno, a mamy porządny komputer zakupiony pół roku temu z systemem windows XP wystarczy kilka
prostych operacji czyszczących dysk twardy PC'ta i znów możemy odzyskac szybkość.
Strona 7 - wymagania
By uruchomić windows XP wystarczy nam słaby komputer. Niestety nie możemy w takim przypadku liczyc na stabilną, szybką i spokojna prace bez zawieszania
się systemu przy otwarciu 2-3 programów. Aby windows xp działał u nas na poziomie zadowalającym wystarczy nam komputer o następujacych parametrach:
* Procesor Pentium 233 megaherców (MHz) lub szybszy
* Przynajmniej 64 megabajty (MB) pamięci RAM
* Przynajmniej 1,5 gigabajta (GB) wolnego miejsca na dysku twardym
* Stacja dysków CD-ROM lub DVD-ROM
* Klawiatura i mysz Microsoft Mouse lub dowolne inne zgodne urządzenie wskazujące
* Karta wideo i monitor o rozdzielczości Super VGA (800 x 600) lub wyższej
* Karta dźwiękowa
* Głośniki lub słuchawki
Jeśli jednak chcemy aby nasz komputer działał stabilnie i szybko będziemy potrzebowali przynajmniej dwa razy silniejszego sprzętu.
Instalacja
Kolejna strona.. ;D - wstep
Wielu z Was uważa, że instalacja systemu operacyjnego to praca tylko dla prawdziwego informatyka. Tak na prawde może to zrobić 12 letni dzieciak z lekkim
pojęciem o tym co robi. Instalacja systemu operacyjnego Windows XP to nie jest żaden skomplikowny proces. Wystarczy czytac wszystko co pisze na ekranie
i spokojnie przechodzic do kolejnych poziomów instalacji. Instalcja takiego systemu trwa około godzine. Potem instalacja sterowników i podstawowych
programów. Aby system był w 100% gotowy do pracy potrzebujemy około 2-3 godzin. Nie należy się spieszyć.
I next strona - przygotowanie dyskow
Aby zainstalowac windows XP potrzebujemy miec na czym go zainstalować. Dlatego też przed instalacją upewnijmy sie, że w komputerze znajduje się
dysk twardy o pojemności przynajmniej 1,5GB. Jest to zdecydowane minimum bo z tak małym dyskiem nic nie będziemy mogli umieścić
na naszym komputerze oprócz systemu. Przygotowanie partycji (logiczny, wydzielony obszar dysku twardego, który może być sformatowany przez system operacyjny
w odpowiednim systemie plików) to jeden z procesów instalacji systemu. Jest on na tyle ważny, że musimy się nad nim troche zastanowic, ponieważ to
jak podzielimy nasz dysk twardy będzie wpływac na pracę z komputerem. Zanim więc podzielimy dysk zastanówmy się na co bedziemy przeznaczac miejsce.
Partycja systemowa powinna mieć duzy zapas miejsca poniewaz, gdy na niej skonczy sie nam miejsce komputer zacznie wariować. Inne partycje nie są
juz takie ważne.
I next stronka - proces instalacji
W momencie gdy zaczniemy isntalacje systemu windows xp musimy przejsc przez kilka prostych procesow instalacji. Zaczynamy od ustalania ilosci
i rozmoarow partycji, nastepnie akceptujemy umowe licencyjna (należy przeczytac cała). Czekamy az instalator sformatuje dysk, skopiuje pliki instalacyjne
na nowe partycje a nastepnie zrestartuje komputer. Calosc trwa około 10min ( w zaleznosci od szybkosci naszego komputera jak i rozmiaru dysku).
Po restarcie komputera instalacja systemu Windows XP opiera sie glownie na naciskaniu przycisku "Dalej". W pewnym momencie musimy
wpisać kod seryjny naszego systemu, wybrac na kogo ma byc zarejestrowany system, podac nasza strefe czasową i kilka innych. Wszystko jest bardzo dobrze opisane, wiec
nie musimy sie bać, że coś pojdzie nie tak. Gdy przejdziemy przez wszystkie kroki będziemy widzieli rozne informacje nt. systemu a po około 30-40min
komputer znów sie zrestartuje i zobaczymy...pulpit. Tak, w tym momencie bedzie koniec instalacji. Teraz juz tylko sterowniki i podstawowe programy.
I znow nastepna strona..juz mnie wkurwia to pisanie..xD Masz sie porzadnie odwdzieczyc..xD Swoja droga to niezła wiedze posiadam..xDDDD
Konfiguracja systemu (tu bedzie trzeba nasciemniac..xD)
Gdy już zainstalujemy system operacyjny, wgramy sterowniki oraz niebędne nam programy możemy zająć sie konfigurowaniem systemu. Nie musimy
tego robic i mozemy pozostawic wszystko tak jak jest, lecz nie każdemu taki wyglad pulpitu czy też ikon może się spodobac.W nowo wgranym systemie
możemy zmieniać od strony wizualnej praktycznie wszystko. Od rozmiarów czcionki, poprzez rozdzielczość ekranu konczac na kolorze paska zadań.
Chwila zabawy i nasz nowy komputer może zmienic się nie do poznania. Dzięki drobnym zmianom w rejestrze systemowym możemy sprawić, że
programy w pasku start beda sie pokazywac szybciej. Jesli nasz komputer dziala zbyt wolno możemy kilkoma prostymi krokami zmienic jego ustawienia
wizualne tak, aby komputer zyskał na wydajności. Wszystko zależy od nas.
Z pracy przyjaciółka dostała 5 ;]
Wszystko pisane z głowy.
Pozdrawiam. :)
Brak komentarzy
Serwis Sciaga.pl nie odpowiada za treści umieszczanych tekstów oraz komentarzy pochodzących od zarejestrowanych użytkowników.
Inne prace
Przedmioty ścisłe
Prace Dodaj nową prace | Szukaj prac | Gimnazjum | Liceum | Student | Nauczyciel | Sciaga.mini
Vademeca Polski | Historia| Wiedza o społeczeństwie| Angielski
Nauka Matura | Korepetycje| Studia i Kursy | Kalkulator
Pomysł, wykonanie i cała reszta - Freshmind Sp. z o.o. © 1998-2009 Sciaga.pl
O Sciaga.pl | Blog | Pomoc | Regulamin | Polityka Prywatności | Reklama | Kontakt | Zgłoś problem
|
|
|
|
|
Autor:
Strony maszynopisu (a4): 7,0
Strony rękopisu (a5): 17,5
Ocena nauczyciela
Komentarz nauczyciela:
poprawne opracowanie,
Oceń pracę
pdst. gimn. liceum studia
wybierz szkołę aby Początek formularza
Dół formularza Początek formularza
Dół formularza Początek formularza
Dół formularza Początek formularza
Dół formularza
nastazja Nazwa: brykowo- naukowo
LORAK614416 Nazwa: LORAKKAROL
nasiakp Wiek: 22
piopiotrek
Ostatnio dodali prace
paola1997
lostfan1
Liceum » Pozostałe » Informatyka
Sieciowe systemy operacyjne Linux Jednym z najważniejszych systemów sieciowych stosowanych w dzisiejszych serwerach i stacjach roboczych jest Linux. Oczywiście, Linux z powodzeniem może być stosowany jako system niesieciowy, wykorzystywany po prostu jako zwykły, niezawodny system operacyjny. Najważniejszą zaletą Linuxa jest fakt, że jest on systemem darmowym. Oprócz tego należy powiedzieć, że dzięki oparciu na jądrze Unix Linux jest systemem nieomal niezawodnym. Oprócz tego, ze względu na to, że większość oprogramowania dla Linuxa jest darmowa, do ściągnięcia w Internecie, powstaje coraz więcej nowych programów, z których można korzystać nie zastanawiając się nad sprawą piractwa komputerowego. R E K L A M A
Okazuje się, że programiści z całego świata wciąż pracują nad doskonaleniem Linuxa i pisaniem do niego różnych programów. Powstało mnóstwo niewielkich programów i narzędzi, nie mówiąc o prostych i mniej prostych skryptach ułatwiających pracę. Napisano także wiele programów, które są podobne do wielkich pakietów dostępnych komercyjnie. Najbardziej znanym chyba pakietem dla Linuxa jest Open Office, który z powodzeniem może być zastosowany jako Linuxowy odpowiednik Microsoft Office (Open Office jest też dostępny dla Windowsa, warto zastanowić się nad jego instalacją). Ciekawym narzędziem może być vmware, dzięki któremu możemy stworzyć wirtualną maszynę Windowsa i symulować jego działanie spod platformy Linuxowej. Oczywiście, chociaż zdarzają się pakiety i programy komercyjne dla Linuxa (za które trzeba płacić), to Linux został stworzony jako ucieleśnienie idei wolnego oprogramowania. Większość programów dostępnych jest na tak zwanej licencji GNU, co oznacza, że nie tylko są darmowe, ale także mamy dostęp do ich kodu źródłowego. Pisanie aplikacji dla Linuxa nie jest proste, jednak warto zauważyć, że można do tego wykorzystywać wszelkie narzędzia i wiele różnych języków programowania. Istnieją narzędzia programistyczne oparte tak jak Linux na licencji GPL, dzięki którym programista jest zmuszony napisać programy również na tej licencji. Wówczas takie środowiska są darmowe. Dla celów komercyjnych większość środowisk należy zakupić za niemałe pieniądze. Najczęściej oczywiście zdarza się pisanie w języku C/C++, chociażby ze względu na dołączaną do Linuxa bibliotekę komponentów graficznych i narzędzia do graficznego tworzenia interfejsu. Jednak nic nie stoi na przeszkodzie, by pisać w Javie, Perlu, Fortranie czy innym ulubionym języku programowania. W początkowej fazie swojego istnienia Linux był systemem tekstowym, takim jak DOS, jednak po pojawieniu się biblioteki graficznej XWindow stał się konkurencją dla innych systemów operacyjnych opartych na filozofii okienek i klikania. Kolejną ważną zaletą tego systemu operacyjnego są minimalne jak na dzisiejsze czasy wymagania sprzętowe. Do odpalenia Linuxa potrzeba właściwie tylko komputera, który by działał w kupie. Linux działa już na procesorze Intel 386 (poprzednik Pentiuma), wymaga zaledwie 2 MB pamięci operacyjnej i stacji dyskietek. Oczywiście potrzebna też jest jakakolwiek karta graficzna oraz reszta komputera (mysz klawiatura, monitor). Na dysku Linux może zajmować już od 8 MB przestrzeni. Takie minimalne wymaganie co do przestrzeni dyskowej ma oczywiście swoje ograniczenia - na tak małej powierzchni mogą się znaleźć tylko najważniejsze części systemu, nie mówiąc o narzędziach czy programach użytkowych. Ale Linux będzie działał. Często potrzebny jest on tylko jako system dla serwera sieciowego - wówczas taki serwer można postawić za kilkadziesiąt złotych - tyle bowiem może kosztować dziś sprzęt w takiej jakości. Minimalnym wymogiem dla działania Linuxa w wersji okienkowej jest procesor o klasę wyższy - 486 oraz co najmniej 8 MB pamięci operacyjnej. Oczywiście dla nas takie wymagania sprzętowe wydają się śmieszne. Jeśli chcemy zainstalować większość systemowych elementów Linuxa, potrzebne będzie około 10-20 MB miejsca na dyskach. Oczywiście, jest to sam system - należy doliczyć sporo miejsca na programy użytkowe. Historia Linuxa rozpoczęła się na początku lat dziewięćdziesiątych. Jego twórcą był helsiński student informatyki, Linus Torvalds. Oczywiście to, co opublikował Torvalds było tylko zaczątkiem prawdziwego systemu operacyjnego, jednak to jemu należą się laury za pierwowzór systemu. Student oparł swój projekt na jądrze Unixa, z tym, że umożliwił mu pracę na zwykłym komputerze PC. Kiedy świat programistów dowiedział się o nowym systemie - oraz o idei dostępu do niego bezpłatnie - od razu podchwycił pomysł. We współpracy z wieloma ludźmi powstał zatem Linux - od imienia pomysłodawcy i od nazwy Unix. Windows NT Linia Windows NT pierwotnie była zaprojektowana jako systemy operacyjne serwerowe. Pierwszym systemem z tej linii był właśnie Windows NT. Na plus tego systemu należy zaliczyć spójność ze wszystkimi systemami operacyjnymi z linii Windows, dzięki czemu nie trzeba się specjalnie uczyć nowego systemu. System posiada specjalne narzędzia do zarządzania siecią oraz zasobami serwera. Należą do nich Task Manager oraz Network Monitor. Task Manager (Menedżer Zadań) jest narzędziem, dzięki któremu można obejrzeć jakie procesy i aplikacje działają aktualnie w systemie. Oprócz tego narzędzie to pokazuje aktualne zużycie procesora i innych zasobów, co jest bardzo ważne dla administratorów sieci. Dzięki Windows NT Server możliwe jest bezproblemowe korzystanie z usługi www. Umożliwia to narzędzie Microsoft Internet Information Server (IIS). Również nie ma problemu z zainstalowaniem serwera poczty internetowej, serwera plików (dzięki usłudze FTP), serwera bazodanowego, zarówno dla Microsoft SQL Server, jak i dla darmowych systemów baz danych, takich jak PostgreSQl czy MySQL. Ciekawą funkcją systemu jest narzędzie, dzięki któremu możliwe jest uzyskanie zdalnego dostępu do serwera. Jest to Remote Access Service. Istnieje także struktura zwana Distributed Component Object Model (DCOM). Jest to unikalna, autorska architektura sieciowa typu klient-serwer. Dzięki tej topologii możliwe jest tworzenie dużych, rozproszonych aplikacji działających w sieci lokalnej lub Internecie. Inną usługą, którą dostarcza Windows NT Server jest tak zwana usługa katalogowa. Każdy adres komputera w sieci firmowej jest skatalogowany w pewnej hierarchii, dzięki czemu zarządzanie zasobami, programami i różnymi usługami jest naprawdę proste nawet dla początkujących administratorów sieci. Wielu użytkowników może mieć wrażenie, że jeśli w sieci pojawiają się komputery tylko Windowsowe, można tylko wtedy używać serwerowego systemu Windows. Nic bardziej błędnego. Windows bardzo dobrze działa, jeśli inne komputery sieci działają na innych systemach operacyjnych, takich jak Linux czy też NetWare. Dzięki temu, że system Windows obsługuje większość obecnych protokołów sieciowych (w tym TCP/IP, SPX/IPX, http, NetBEUI, AppleTalk) jest to kompletny system dla większości zastosowań sieciowych, lokalnych i firmowych. Na plus należy zaliczyć także fakt, że Windows Server działa także jako serwer dla stacji roboczych klasy Macintosh oraz OS/2. NetWare firmy Novell Jeśli chcemy mieć wydajny system operacyjny dla sieci lokalnych lub internetowych, warto zastanowić się nad systemem NetWare firmy Novell. Dzięki temu komputer z takim systemem może zarówno spełniać funkcję łącznika między siecią a Internetem, jak i serwerem plików. Bardzo ważną zaletą tego systemu jest stabilność działania. Również na uwagę zasługuje prostota jeśli chodzi o instalację oraz administrowanie i używanie samego systemu. NetWare jako protokołów komunikacyjnych może używać IPX/SPX lub TCP/IP. Wczesne wersje pozwalały na komunikację opartą tylko na rodzinie protokołów IPX/SPX. Systemy NetWare numerowane są od wersji 2.0. Największą popularność zdobyły systemy w wersji 3.x, z których ostatni nosił numer 3.11. Każdy serwer NetWare w wersji poniżej 4 posiadał własną bazę kont użytkowników, każdy stanowił odrębną wyspę. Od wersji 4.00 (rok 1993) wprowadzono system katalogowy NDS, później przekształcony w Novell Directory Services, a obecnie znany jako eDirectory. Aktualna wersja systemu nosi numer 6.5, wersja 7.0 wg założeń ma posiadać do wyboru jądro Linux lub dotychczasowe pochodzące od Novella. Wszystkie wersje NetWare posiadają konsolę tekstową służącą do najprostszych zadań administracyjnych, która może być wywołana zdalnie dzięki dostępnym w systemie narzędziom. Od wersji 5.0 wprowadzono dodatkową konsolę graficzną opartą o kod X Window System, w którym duży udział mają narzędzia i aplikacje pisane w języku Java. Od wersji 5.0 możliwe stało się pełne zarządzanie siecią i kontami użytkowników z konsoli serwera. Do wersji 5.0 zarządzanie odbywało się w całości z dowolnego komputera, na którym uruchomione były narzędzia administratora. Do wersji 5.0 nie nadawał się na serwer aplikacyjny, gdyż był przewidywany jako dedykowany serwer plików i drukarek. Istniały próby osadzenia serwerów baz danych lub serwerów http. Od wersji 5.0, a szczególnie 6.0 NetWare posiada możliwości osadzania serwerów aplikacyjnych, jednak z uwagi na niewielki udział w rynku straciło to na znaczeniu. Ważnym elementem platformy NetWare jest bezpieczeństwo. Dzięki temu możliwe jest użycie jej jako serwera www. Inną zaletą są także niewielkie wymagania sprzętowe, dzięki którym można postawić serwer za stosunkowo niewielki koszt. Poza tym dobrze współpracuje z DOSowymi aplikacjami, których z biznesie i niewielkich firmach wciąż się używa. Niestety, ogromną przewagą systemów opartych na UNIXie jest fakt, że wypuszczone zostały one jako wersje z dostępem do kodu źródłowego, dlatego wielu entuzjastów przez cały czas pracuje nad udoskonaleniem na przykład Linuxa. Inne systemy, takie jak NetWare czy Windows, chcąc utrzymać swój kod źródłowy w tajemnicy, muszą zatrudniać programistów, którzy mogliby nad nim pracować, co bardzo opóźnia wprowadzanie na rynek różnego rodzaju poprawek. Jak w wielu sieciach, tak i przy zastosowaniu systemu NetWare, w sieci komputerowej zwykle działają dwa rodzaje komputerów. Pierwsze z nich to serwery, które przechowują dużą ilość informacji dostępnych w całej sieci, a także kontrolują jej działanie. Aby sieć działała poprawnie, musi być w niej tak zwany serwer plików, który jest najważniejszym elementem sieci, ponieważ są na nim zebrane pliki sieciowe, a także informacje o użytkownikach i ich pliki. Serwer taki zwykle posiada ogromne dyski, tak by mogły się na nim znaleźć pliki wszystkich użytkowników. Każdy użytkownik ma jakąś część tego dysku dla siebie. Drugim rodzajem sprzętu uczestniczącego w pracy sieci są klienci, czyli tak zwane stacje robocze. Każdy z komputerów klienckich działa na własnym systemie operacyjnym i możliwe jest na nim wykonywanie operacji wcale niezwiązanych z siecią. Jednak właśnie współpraca z dzielonymi zasobami sieciowymi jest najważniejsza w działaniu w sieci. Narzędzia systemowe pozwalające na wymianę informacji pomiędzy stacją roboczą a serwerem noszą nazwę powłoki systemowej (shell). Przez powłokę przechodzą wszelkie zapytania do serwera plików, a także zapytania do własnych zasobow. Wówczas to powłoka decyduje, że nie trzeba wzywać serwera i przekazuje sterowanie do systemu operacyjnego znajdującego się w stacji roboczej. Architektura klient-serwer nie jest jedyną możliwą architekturą sieciową. Inną, także często spotykaną zwłaszcza w małych sieciach, jest architektura peer-to-peer, czyli "wszyscy są równi". Nie ma podziału na ważniejszych i mniej ważnych, jak to ma miejsce w architekturze klient-serwer. W sieci peer-to-peer każdy z komputerów może tymczasowo pełnić rolę serwera i klienta. Oznacza to, że sieć peer-to-peer jest po prostu jednym tworem, polegającym na rozdzieleniu zasobów pomiędzy poszczególnych użytkowników. Dostęp do zasobów sieciowych jest łatwy, jednak z architekturą peer-to-peer wiąże się dużo niebezpieczeństw. Niestety, często zdarza się, że aktualny "serwer" może ulec awarii. Wówczas wszystkie transmisje związane z tym komputerem ulegają zawieszeniu. Jest to szczególnie nieciekawe, gdy potrzebujemy pliku, który znajduje się tylko i wyłącznie na jednym z komputerów w sieci. Jednak niewątpliwą zaletą sieci peer-to-peer jest fakt, że nie potrzeba kupować osobnego komputera, który pełniłby rolę serwera. Chociaż w dzisiejszych czasach postawienie serwera na minimalnych wymaganiach sprzętowych systemu nie jest rzeczą kosztowną, to jednak często serwer powinien jednak być komputerem o wysokich parametrach. Jest to wówczas bardzo droga sprawa. W małych sieciach nie opłaca się kupować osobnego serwera i można polegać na architekturze peer-to-peer.
Zgodnie z regulaminem serwisu www.bryk.pl prawa autorskie do niniejszego materiału posiada Wydawnictwo GREG. W związku z tym, rozpowszechnianie niniejszego materiału w wersji oryginalnej albo w postaci opracowania, utrwalanie lub kopiowanie materiału w celu rozpowszechnienia w szczególności zamieszczanie na innym serwerze, przekazywanie drogą elektroniczną i wykorzystywanie materiału w inny sposób niż dla celów własnej edukacji bez zgody Wydawnictwa GREG podlega grzywnie, karze ograniczenia wolności lub pozbawienia wolności. Polecamy prace o podobnej tematyce
Polecamy na dziś
|
|
|