xxx
xxx
xxx
xxx
SIECIOWE SYSTEMY OPERACYJNE SIECI LOKALNYCH I ROZLEGŁYCH
W STARŻY GRANICZNEJ
xxx
xxx
______________________________________________________________________xxx
Wstęp
Do początku lat osiemdziesiątych, środowisko przetwarzania danych było zdominowane przez duże systemy komputerowe oraz minikomputery otoczone armiami programistów, analityków i zarządców systemów informatycznych. Większość użytkowników miała niewielką wiedzę o komputerach i systemach przetwarzania danych. W większości organizacji personel zajmujący się przetwarzaniem danych rzadko się kontaktował z administracją na tematy dotyczące ich systemów i na odwrót. Ludzie projektujący systemy nie kontaktowali się z tymi, którzy mieli je stosować. Aby wpływać na zmiany systemów i aplikacji, kierownicy decydowali się na drogi i czasochłonny proces analizy potrzeb. Zanim takie zmiany mogły być zrealizowane, mijało nierzadko kilka lat, potrzeby w tym czasie zmieniały się i proces zaczynał się od nowa.
W chwili gdy zaczęły pojawiać się mikrokomputery, zauważono, że w wielu przypadkach można było zastosować niedrogie, gotowe programy do zaimplementowania w przeciągu tygodni lub miesięcy. Pomimo, że początkowo mikrokomputery dały wiele korzyści pojedynczym użytkownikom, miały niewielki wpływ na przetwarzanie danych. Pierwsze komputery osobiste posiadały mało pamięci i nie mogły konkurować z dużymi systemami.
W miarę jak coraz nowsze komputery osobiste zapewniały obsługę twardych dysków i udostępniały większą pamięć, sytuacja szybko się zmieniała. Wiedza użytkowników na temat komputerów rosła i skuteczne oprogramowanie użytkowe rozwijało się. Zwykli ludzie, a nie wyłącznie profesjonaliści mogli zacząć wykorzystywać efektywnie komputery.
Gdy komputery osobiste wkraczały coraz bardziej w świat gospodarki, pojawił się problem z efektywnym dzieleniem się informacją. Zastosowanie dyskietek do przenoszenia danych z jednej maszyny na inną było wystarczające w niektórych sytuacjach, ale nie mogło pomóc w przypadku dużych plików lub danych, które musiały być dostępne dla wielu osób jednocześnie.
Ponadto we wczesnych latach rozwoju mikrokomputerów, takie urządzenia jak twarde dyski czy drukarki były drogie. Aby rozwiązać tego typu problemy, kilka firm opracowało sprzęt i oprogramowanie do stworzenia lokalnych sieci mikrokomputerowych.
Technologia sieciowa nie była czymś nowym w momencie pojawienia się IBM PC. Firmy takie jak Xerox, DEC, Intel i Datapoint używały sieci do łączenia terminali z minikomputerami i większymi systemami. Nadal jednak we wczesnych latach 80-tych, idea zastąpienia sieci minikomputerowych przez sieci mikrokomputerowe była nie do zrealizowania. Sieci były prymitywne i w większości zawodne. Obecnie jednak wiele programów użytkowych jest przenoszonych do środowiska sieci mikrokomputerowych. Zmianie ulega także sama struktura środowiska przetwarzania danych. Dziś wiele zadań uprzednio zarezerwowanych wyłącznie dla dużych systemów jest efektywnie wykonywanych przez komputery osobiste połączone w sieć.
Wraz z małymi komputerami i lokalnymi sieciami rozwija się heterogeniczne środowisko komputerowe, w którym odmienne systemy mogą się komunikować i wspólnie korzystać z tych samych danych. Komputery PC, Apple Macintosh, stacje robocze Unix i inne mogą teraz efektywnie współpracować oraz mogą się łączyć z większymi systemami poprzez sieć i zastosowanie najnowszych systemów operacyjnych.
W poszczególnych rozdziałach opisałem systemy operacyjne wykorzystywane w jednostkach organizacyjnych Straży Granicznej.
W rozdziale pierwszym opisałem System Unix, który po dziś dzień jest nadal głównym systemem operacyjnym używanym w SG. Wykorzystywany jest jako motor do baz informixowych, oraz magic.
Rozdział drugi opisuje system Linux, który też jest stosowany w SG głównie jako serwery internetowe oraz jako routery maskujące.
Rozdział trzeci opisuje system Novell, który w znikomej ilości jest wykorzystywany w jednostkach SG i traktuję go jako bardziej zapoznawczy niż dogłębne studiowanie jego zabezpieczeń i właściwości.
W ostatnim czwartym rozdziale opisuję produkty firmy Microsoft, które wraz z rozwojem informatyki w SG szeroko wchodzą do użytku.
Obecnie wszystkie te systemy tworzą wielką sieć heterogeniczną, która wpływa na efektywne przesyłanie informacji pomiędzy poszczególnymi jednostkami SG.
Rozdział I
System operacyjny Unix
Dla większości ludzi komputer jest narzędziem służącym do rozwiązywania problemów. Jeśli działa w nim różnego typu oprogramowanie oferujące bardziej zaawansowane funkcje niż zwykły kalkulator. Podłączony do sieci komputerowej staje się elementem systemu telekomunikacyjnego.
W sercu każdego komputera znajduje się najważniejszy zestaw programów nazywany systemem operacyjnym. Oprogramowanie to steruje urządzeniami wejścia/wyjścia, takimi jak klawiatura i dyski czy ładowaniem i uruchamianiem programów użytkowych. System operacyjny jest również zestawem mechanizmów i strategii, które pomagają definiować i sterować wykorzystaniem wspólnych zasobów systemowych.
Z systemem operacyjnym współpracuje zawsze zestaw standardowych programów narzędziowych, które pomagają w wykonaniu typowych funkcji, takich jak kopiowanie plików i wyświetlanie zawartości katalogów. Mimo iż programy te nie stanowią technicznie części samego systemu, to mogą one mieć dramatyczny wpływ na jego bezpieczeństwo.
Wielozadaniowość i wieloużytkowość.
Najważniejszymi cechami Unixa jest Wielozadaniowość i wieloużytkowość. Wielozadaniowość oznacza, że użytkownik może wykonywać wiele zadań równocześnie, a co za tym idzie pracować bardziej efektywnie. Druga cecha: wieloużytkowość daje możliwość korzystania z zasobów komputera więcej niż jednej osobie, co wspomaga pracę grupową bez ponoszenia dużych kosztów zakupu pojedynczych komputerów.
Można go uruchomić na prawie każdym komputerze. Istnieje wiele wersji systemu Unix dla różnych typów komputerów: począwszy od komputerów osobistych (IBM PC i Macintosh) poprzez komputery średniej wielkości (VAX firmy DEC) aż do superkomputerów firmy Cray. W praktyce są tylko dwa komputery, na których niemożliwe jest uruchomienie tego systemu: starsze modele PC (np. PC XT) i systemy komputerowe do zadań specjalnych (np. AS/400).
Ponadto Unix jako pierwszy z systemów na komputery PC zapewniał pracę za pośrednictwem sieci jak i połączeń modemowych. W systemie zaszyta jest warstwa umożliwiająca komunikację z użytkownikami odległymi, którzy nawet nie zdają sobie z tego sprawy. Protokół komunikacyjny TCP/IP jest standardem, w wypadku sieci opartych o serwery Unixowe. Cała sieć Internet opiera się właśnie na tym protokole, a najczęściej spotykanymi węzłami tej sieci są serwery Unixowe.
Historia Unixa
Unix swoimi korzeniami sięga do połowy lat sześćdziesiątych, kiedy firmy American Telephone and Telegraph i General Electric oraz uniwersytet Massachusetts Institute of Technology rozpoczęły prace nad projektem pewnego narzędzia informacyjnego. Projekt, który nazwano MULTICS (co pochodzi od Multiplexed Information and Computing Service), był w dużym stopniu sponsorowany przez agencję ARPA (Departament of Defense Advanced Research Projects Agency), znaną również jako DARPA. Większość prac badawczych odbywało się w MIT, w Cambridge w stanie Massachusetts.
MULTICS był modułowym systemem budowanym z elementów, takich jak szybkie procesory, pamięć i urządzenia komunikacyjne. Konstrukcja miała umożliwiać wyłączanie niektórych modułów bez wpływu na inne części systemu i użytkowników. Celem było zbudowanie komputera działającego przez 24 godziny na dobę i 365 dni w roku, który można by powiększyć, dołączając dodatkowe moduły. Mimo, że takie funkcje są dziś czymś normalnym, kiedy powstawał MULTICS, możliwości takich nie było.
W budowaniu MULTICS-a brano również pod uwagę wojskowe wymagania bezpieczeństwa. System ten był projektowany jako odporny na ataki zewnętrzne oraz chroniący użytkowników przed sobą nawzajem. MULTICS miał implementować koncepcję bezpieczeństwa wielopoziomowego. Informacje typu Top Secret (ściśle tajne), Secret (tajne), Confidential (poufne) i Unclassified (dostępne) miały koegzystować w tym samym komputerze. Informacje zastrzeżone na jednym z tych poziomów miały być niedostępne dla wszystkich, którym ich nie udostępniono. MULTICS osiągną stopień bezpieczeństwa, o jaki dziś trudno w wielu funkcjonujących systemach operacyjnych - w tym i w Unixie.
W 1969 roku firma AT&T podejmuje decyzję o podzieleniu projektu ze względu na duże opóźnienia w stosunku do planów.
Pracownik AT&T Ken Thompson pracujący nad MULTICS-em przejmuje nie używany komputer PDP-7 i rozpoczyna samodzielną pracę nad tym systemem. Wkrótce dołączył do niego Denis Ritchie, który również pracował nad projektem. Nazwę Unix dla nowego systemu zaproponował Peter Neumann. Nazwa miała być humorystyczną analogią do nazwy MULTICS i policzkiem dla projektu trwającego w Cambridge (który rzeczywiście ciągną się jeszcze półtorej dekady).
MULTICS miał robić wszystkie rzeczy dobrze, Unix tylko jedną - uruchamiać programy. Koncepcja silnych systemów zabezpieczeń nie mieściła się w jego założeniach.
Zawężenie zakresu prac było wszystkim, czego naukowcom było trzeba. Wczesna wersja Unixa była gotowa kilka miesięcy wcześniej niż MULTICS.
W ciągu roku Tompson, Ritchie i inni napisali wersję Unixa dla PDP-11, nowego komputera firmy Digital.
W latach siedemdziesiątych naukowcy z AT&T dodawali do swojego systemu różne funkcje - Unix zmienił się w raj dla programistów. System bazował na małych, zwartych programach nazywanych narzędziami, z których każdy mógł wykonywać pojedynczą funkcję. Łącząc te narzędzia, programiści mogli wykonywać skomplikowane zadania.
Unix naśladował sposób myślenia programistów. Aby osiągnąć pełną funkcjonalność, użytkownik musiał uzyskać dostęp do wszystkich tych narzędzi - i w wielu przypadkach również ich kodu źródłowego. Dlatego też w trakcie ewolucji systemu każdy, kto miał dostęp do maszyn, przyczyniał się do powstawania nowych narzędzi i do testowania istniejących.
W 1973 roku Tompson przepisał większość Unixa na C - język programowania wynaleziony wtedy przez Ritchiego. Język C powstał jako prosty i umożliwiający łatwe przenoszenie programów. Programy napisane w C można było bez trudu przenosić z jednego typu komputera do innego - co było możliwe również w przypadku takich języków jak FORTRAN - tylko że działały tak szybko, jak programy kodowane bezpośrednio w języku maszynowym komputera.
Taka była teoria, natomiast w praktyce każdy komputer w Bell Labs miał swój własny system operacyjny. Programy w C napisane na PDP-11 mogły być rekompilowane na innych maszynach laboratorium, ale nie zawsze działały poprawnie, ponieważ każdy system operacyjny wykonywał operacje wejścia/wyjścia trochę inaczej. Mike Lesk napisał „przenośną bibliotekę wejścia/wyjścia", która rozwiązała te problemy, niestety nie wszystkie. Potem w 1977 roku członkowie grupy doszli do wniosku, że zamiast przenośnych bibliotek lepiej opracować przenośny system Unix. Najpierw przeniesiono go na Interdata 8/32, komputer laboratorium, który był podobny do PDP-11. W 1978 roku system został przeniesiony na minikomputer VAX firmy Digital. Unix pozostawał wciąż systemem eksperymentalnym, mimo to zyskał sporą popularność na wielu uniwersytetach i został zauważony przez kilka firm. Nagle Unix stał się czymś więcej niż tylko naukowym kuriozum.
Faktycznie, już w 1973 roku istniało ponad 16 różnych jednostek AT&T i Western Electric poza Bell Labs, w których działał Unix. System rozpowszechnił się nawet bardziej. Na sympozjum dotyczącym zasad działania systemów operacyjnych, ACM Symposium on Operating System Principles (SOSP), w październiku 1973 roku Tompson i Ritchie zaprezentowali swoje prace. W ciągu kilku miesięcy od tego wydarzenia różne organizacje z całego świata uzyskiwały i instalowały kopie systemu. Mimo iż firma AT&T miała - na mocy ugody rządowej zawartej z rządem federalnym USA z 1965 roku - zabronione reklamowanie, sprzedaż i obsługę oprogramowania komputerowego, popyt na system stale rósł. W 1977 używało go już ponad 500 firm i organizacji; 125 z nich stanowiły uniwersytety z USA i ponad 10 innych krajów. W tym roku pojawiła się również pierwsza komercyjna wersja Unixa, wtedy była to wersja 6.
W większości miejsc, a zwłaszcza na uniwersytetach, typowe środowisko pracy Unixa wyglądało jak w Bell Labs: komputery znajdowały się w dobrze wyposażonych laboratoriach, do których dostęp fizyczny był mocno ograniczony. Użytkownicy, którzy intensywnie używali komputerów, byli ludźmi z wieloletnim doświadczeniem i to oni wprowadzili istotne zmiany i ulepszenia do systemu operacyjnego i jego narzędzi. Nie musieli się martwić o bezpieczeństwo, ponieważ tylko oni byli upoważnieni do korzystania z komputerów. Poza tym implementowanie funkcji bezpieczeństwa kolidowało z opracowaniem narzędzi i ulepszaniem oprogramowania. Jeden z autorów pracował w początku lat osiemdziesiątych w dwóch takich laboratoriach. W jednym z nich hasło do konta root uważane było za niepotrzebną niedogodność, gdyż i tak każdy, kto miał dostęp do maszyny, miał uprawnienia superużytkownika!
Środowisko można było najlepiej scharakteryzować na podstawie przykładu z uniwersytetu Berkeley w Kalifornii. Szkoła ta, tak jak inne szkoły, zapłaciła 400 dolarów za taśmę zawierającą komplet kodów źródłowych Unixa. Zamiast po prostu uruchomić system dwóch studentów. Bill Joy i Chuck Haley, rozpoczęli prace nad znacznymi poprawkami modyfikacjami. W 1978 roku Joy rozesłał 30 egzemplarzy produktu o nazwie „Berkeley Software Distribution (BSD)", który był zbiorem programów i modyfikacji Unixa. Opłata: 50 dolarów za nośnik i koszty wysyłki.
W ciągu następnych sześciu miesięcy w wyniku sponsorowania przez ARPA tak zwany BSD Unix urósł do rangi samodzielnego systemu operacyjnego, który istotnie przewyższał produkt AT&T. Na przykład programista BSD mógł przełączać się między wieloma działającymi jednocześnie programami. Unix z AT&T zezwalał na stosowanie nazw plików o długości do 14 znaków, a wersja z Berkeley do 255. Ale być może najważniejszym owocem działalności Berkeley była wersja sieciowa systemu, która nosiła nazwę BSD Unix 4.2. Umożliwiała ona łączenie Unixa z sieciami lokalnymi.
Z wszystkich tych powodów wersja z Berkeley stała się bardzo popularna
w środowiskach naukowych i akademickich.
Wraz ze wzrostem popularności Unixa z Berkeley przedstawiciele AT&T zawiązała firmę o nazwie Unix Support Group (USG), która miała kontynuować prace nad systemem i zająć się sprzedażą. Grupa USG swój nowy produkt Unixa ochrzciła jako „AT&T System V" i ogłosiła go nowym standardem.
Uniwersytet w Berkeley aby nie renegocjować swojej umowy z AT&T uaktualniony swój produkt nazwał BSD 4.2.
Największym nieuniwersyteckim zwolennikiem Unixa z Berkeley była firma Sun Microsystems. System SunOS, stworzony częściowo przez absolwentów informatyki w Berkeley, był pod każdym względem systemem operacyjnym z Berkeley (wzorowany był na wersji BSD 4. l c), Innym adaptatorem systemu była firma Digital Equipment, której system Ultrix był również podobny do wersji z Berkeley (oparty był na BSD 4.2).
Firmy wchodzące na rynek stawały przed dylematem, który z systemów wybrać BSD czy też Unix System V. Z uwagi na brak serwisu do BSD większość korporacji, które opracowały swoje Unixy w drugiej połowie lat osiemdziesiątych - w tym Data General, IBM, Hewlett Packard i Silocon Graphics - zaadaptowały System V. W początkach lat osiemdziesiątych powstała też trzecia wersja Unixa stworzona przez formę Microsoft, której nadano nazwę Xenix. Licencję na ten system sprzedano do Santa Cruz Operation (SCO). Xenix był wzorowany na starszej wersji Unixa firmy AT&T-System III.
W latach osiemdziesiątych Microsoft i SCO uaktualniały swoje systemy, dodając pewne nowe funkcje, ale nie wszystkie.
Pod koniec lat osiemdziesiątych (1988r.) nastąpiło połączenie dwóch wersji Unixa, którymi były Xenix i AT&T System V, w wyniku czego powstał Unix System V/386 relase 3.12.
W tym samym roku AT&T oraz Sun Mierosystem podpisały umowę o wspólnej pracy nad połączeniem dwóch kolejnych wersji systemu. W wyniku prac powstał Unix System V Relase 4 łączący w sobie najlepsze funkcje z Systemu V i Unixa z Berkeley i był kompatybilny z oprogramowaniem napisanym dla swoich przodków.
W maju 1988r. siedmiu wiodących producentów Unixa - Apollo Computer, Digital Equipment Corporation, Hewlett Packard, IBM i trzy mniejsze firmy z Europy - ogłosiły utworzenie Open Software Foundation (OSF).
Celem tej organizacji było przejęcie kontroli nad Unixem od AT&T i przekazanie jej do organizacji o charakterze niekomercyjnym, a produkt swój oparła na systemie AIX, następnie przeniosła się na jądro MACH z Carnegie Mellon University oraz zbiór bibliotek unixowych od HP, IBM-a i Digitala. Ze względu na opóźnienia z Systemem OSF/1 niektóre firmy budowały swoje systemy, a inne zaadoptowały SVR4.
W roku 1993 firma AT&T sprzedała Unix System Laboratories (USL) firmie Novell, która przeniosła znak handlowy Unixa do X/0pen Consortium dając prawo do używania go każdemu systemowi, który przejdzie serię 1170 testów. Następnie Novell sprzedał prawa do kodu źródłowego w 1995 roku grupie SCO.
Mimo braku unifikacji liczba systemów unixowych ciągle rośnie. W połowie lat dziewięćdziesiątych Unix działał na około pięciu milionach komputerów na całym świecie. Unix stał się systemem najczęściej wybieranym przez wiele uczelni. Jest też popularny w środowiskach badawczych i naukowych.
Pojawiło się wiele zestawów norm dotyczących unixowych systemów operacyjnych (dotyczących na przykład interfejsu, bibliotek i charakterystyk działania), ale mimo ich istnienia poszczególne implementacje nadal znacznie się od siebie różnią. Zestawem takim jest POSDC opracowany początkowo przez IEEE, a następnie zaadaptowany jako norma ISO/IEC 9945. Czynione są również starania o ujednolicenie interfejsów VMS, Windows NT i innych platform kryjących w sobie zupełnie różne od Unixa mechanizmy. Obecny Unix oparty jest na wielu standardach, co zwiększa jego atrakcyjność jako wspólnej platformy dla biznesu i środowisk akademickich.
Najważniejsze organizacje związane z tworzeniem systemu UNIX i jego odmianami.
Nazwa |
Organizacja |
AIX |
IBM |
A/UX |
Apple |
BSD |
Uniwersytet Kalifornijski w Berkeley |
GNU |
Free Software Foundation |
HP/UX |
Hewlett-Packard |
SunOS |
Sun Microsystems |
Ultrix |
Digital Equipment Corporation (DEC) |
Unicos |
Cray Corporation |
UNIX |
AT&T, SCO, Sun Microsystems |
Xenix |
SCO |
Warto również dodać, że system posiada wiele udziwnień, które mogą być niezrozumiale dla dzisiejszego użytkownika, ale trzeba pamiętać, że system był tworzony przez niczym nieskrępowanych ludzi. Byli oni pełni inwencji i wcielali w system pomysły, które wydają się anachroniczne. Również wiele nazw budzi zastrzeżenia, gdyż w systemie roi się od krwawych określeń typu „zabić", „demon" czy „zombie". Bierze się to stąd, że system miał zapewniać dużą tajność danych, czyli był przeznaczony dla instytucji militarnych.
Podział Unixa
System Unix można podzielić na cztery podstawowe części:
- Jądro (serce systemu), specjalny program, który jest ładowany zaraz po włączeniu komputera. Jądro kontroluje wszystkie systemy wejścia i wyjścia komputera, umożliwia jednoczesne wykonywanie wielu programów i steruje podziałem czasu i pamięci między nimi. W jego skład wchodzi system plików, który jest odpowiedzialny za przechowywanie plików i katalogów na dyskach. System plików jest głównym mechanizmem wzmacniającym bezpieczeństwo komputera. Niektóre nowoczesne wersje Unixa pozwalają programom użytkownika na ładowanie do jądra po rozpoczęciu działania systemu dodatkowych modułów, takich jak sterowniki urządzeń.
- Standardowe programy narzędziowe, które mogą być uruchamiane przez użytkowników i przez system. Niektóre programy są małe i funkcyjne, np. /bin/ls wyświetla listę plików, a /bin/cp umożliwia ich kopiowanie, inne - duże i bardziej uniwersalne, np. /bin/sh czy /bin/csh, powłoki Unixa służące do przetwarzania poleceń użytkownika, które same w sobie można uznać za języki programowania.
- Pliki systemowej bazy danych, z których większość jest względnie mała, używane przez różne programy systemu. Przykładem może być plik /etc/passwd, w którym znajduje się główna lista wszystkich użytkowników systemu, albo /etc/group, który zawiera definicje grup użytkowników mających podobne prawa dostępu.
- Strategia bezpieczeństwa determinująca działanie komputera w stosunku do użytkownika i administracji systemem.
Strategia odgrywa tak ważną rolę w wybieraniu mechanizmów obronnych jak programy systemu operacyjnego. Komputerowi, który nie jest obsługiwany zgodnie z zasadami bezpieczeństwa, nie można ufać, nawet jeśli jest wyposażony w najbardziej wymyślne oprogramowanie zabezpieczające. Z tego powodu określenie i skodyfikowanie strategii odgrywa istotną rolę w ogólnym procesie obsługi bezpiecznego systemu.
Powłoka, nazewnictwo i system plików Unixa
Powłoka
Powłoka (shell - interpreter poleceń) jest programem, który odczytuje, interpretuje i przetwarza polecenia. Zaraz po zarejestrowaniu się użytkownika system przygotowuje powłokę, która czeka na wydanie polecenia. Powłoka zapewnia łączność pomiędzy systemem a użytkownikiem. Istnieje kilka rodzajów powłok, z których najważniejsze to powłoki Bourne'a i C. Z obu tych powłok wywodzi się kilka innych.
Nazwa programu |
Pełna nazwa (nazwa angielska) |
Sh |
powłoka Bourne'a (Bourne Shell) |
Rsh |
ograniczona powłoka Boume'a (Restricted Bourne Shell) |
Ksh |
powłoka Koma (Kom Shell) |
Rksh |
ograniczona powłoka Koma (Restricted Kom Shell) |
Bash |
poprawiona powłoka Boume'a (Bourne Again Shell) |
Sch |
powłoka C (C-Shell) |
Tcsh |
bez nazwy |
Powłoka Bourne'a
Powłoka ta wzięła swą nazwę od jej głównego twórcy, Stephena R. Bourne'a, pracującego w Laboratoriach Bella. Została ona opracowana w późnych latach siedemdziesiątych i stała się podstawowym procesorem poleceń. O tym, że korzystamy właśnie z tej powłoki informuje nas znacznik $ (symbol dolara).
Powłoka C
Jej autorem jest Bili Joy, doktorant na Uniwersytecie Kalifornijskim w Berkeley. Jest ona szczególnie używana przez programistów Unixa. Do jej zalet można zaliczyć:
zapamiętywanie: powłoka C pamięta wprowadzone polecenia i można je wykorzystywać wielokrotnie bez ponownego wpisywania. Są one również
modyfikowanie,
sterowanie zadaniami: umożliwienie uruchomienia kilku programów wraz
z możliwością sprawdzenia ich zaawansowania i zmiany stanu,
nadawanie nazw zastępczych', użytkownik ma prawo tworzenia dowolnych
nazw zastępczych dla często wydawanych poleceń. Np. zamiast Is -l| more
można utworzyć nazwę zastępczą Ism.
Znacznikiem powłoki jest znak % (symbol procenta).
Ograniczona powłoka Bourne 'a
Specjalna odmiana powłoki Bourne'a stosowana do tworzenia środowiska użytkowego o ograniczonych możliwościach i prawach dostępu. Jest ona szczególnie przydatna dla użytkowników o niewielkich umiejętnościach, wykonujących prace biurowe.
Powłoka Korna
Wzięła swoją nazwę od jej autora, Davida Korna, pracującego w Laboratoriach Bella. Powstała w 1983 roku, a jej publikacja odbyła się w 1986 roku. Stanowi ona rozszerzenie powłoki Bourne'a o cechy podobne do opisanych wyżej zalet powłoki C. Różnica jest natomiast w sposobach zapewniających te udogodnienia.
Nazewnictwo
Nazewnictwo w systemie Unix odgrywa ważną rolę. Należy przede wszystkim uważać na wielkość liter, gdyż pliki:
Start.tar
StarT.tar
start.tar
START.TAR
to są różne cztery pliki. Wpisanie chociaż jednej innej litery spowoduje, że otrzymamy komunikat o braku takiego pliku lub katalogu. Na pierwszy rzut oka może się to wydawać jakimś archaizmem, jednak na dłuższą metę płyną korzyści z takiego podejścia.
Kolejnym ważnym elementem jest to, że w systemie Unix nie stosuje się rozszerzeń (tak niezbędnych w DOS-ie), a jeżeli są stosowane spełniają one rolę wyłącznie identyfikacyjno-informacyjną.
W systemach unixowych można stosować długie nazwy plików, jednak zaleca się stosowanie długości nazwy nie przekraczającej 15 znaków, ponieważ „rozjeżdża" się wtedy listing zawartości katalogu, stając się przez to mało czytelnym.
System plików
Osobnym problemem jest nazewnictwo katalogów. Spotykamy się tutaj z brakiem oznaczenia dysku, a mówimy o fliesystemach. Ta nazwa właściwie dotyczy w szczególności administratora, ale użytkownik w wyniku swojej pracy może nieświadomie spowodować spowolnienie pracy systemu, aż do całkowitego padu.
Użytkownik wszystkie dyski jakie są w systemie widzi jako jeden. Struktura katalogów jest tak zorganizowana, że katalogiem głównym (zwanym także rootowym lub korzeniem) jest /. Od niego rozpoczyna się cała struktura systemu, w której jesteśmy umiejscowieni w jakimś miejscu. Nawet urządzenia zewnętrzne, takie jak napęd dyskietek czy CD-ROM znajdują się w strukturze katalogów.
Struktura katalogów w Unix-e
W systemie Unix każdy katalog ma określoną funkcję i użytkownicy korzystają z niego w zakresie przydzielonych im uprawnień. Należy podkreślić, że struktura ta jest stała i nienaruszalna.
Katalog |
Opis |
/bin |
programy wykonywalne |
/dev |
pliki (łączówki) urządzeń komputera, czyli napędu dyskietek, portów drukarkowych, terminali |
/etc |
pliki i narzędzia administracyjne systemu, skrypty startujące i zatrzymujące system, podsystemy autoryzacji i ustawienia jądra |
/lib |
biblioteki używane przez narzędzia i programy |
/lost+found |
używany do odzyskiwanych plików przez program diagnozujący filesystem |
/mnt |
pusty katalog do montowania filesystemów np. napędów dyskietek
|
/tcb |
Informacje o zabezpieczeniach systemu, hasła użytkowników, logi monitoringu |
/tmp |
Używany przez system do tworzenia plików tymczasowych, kasowany czasowo przez program cron |
/u |
Katalog do montowania filesystemu z plikami użytkowników |
/usr |
Zawiera aplikacje, informacje użytkowników systemowych, domyślny katalog dla tworzonych użytkowników |
Oczywiście w w/w katalogach znajdują się podkatalogi, niektóre z nich są omówione poniżej.
Katalog
|
Opis
|
/etc/auth
|
podsystemy domyślne i autoryzacji
|
/etc/conf
|
konfiguracja jądra
|
/etc/default
|
ustawienia domyślne systemu
|
/etc/init.d
|
pliki zadań w trakcie bootowania
|
/etc/rc[02].d
|
skrypty startujące i zatrzymujące system
|
Na szczególne uwzględnienie zasługuje katalog /etc/rc0.d odpowiedzialny za zamykanie systemu (shutdown) i /etc/rc2.d startujący system. W pierwszym znajdują się pliki rozpoczynające się na literę K z numerem dwucyfrowym i określeniem czynności np. K85tcp czyli skrypt zamykający usługę TCP/IP. W drugim jest analogicznie, z tym, że pierwszą jest litera S, np. S85tcp.
Katalog
|
Opis
|
/tcb/audittmp
|
logi śledzące system (audit)
|
/tcb/bin
|
programy auditingu
|
/tcb/files
|
pliki autoryzacji i hasłowe użytkowników
|
/tcb/lib
|
biblioteki auditingu
|
Katalog /tcb/files/ posiada podkatalog auth i znajdujące się w nim katalogi a, b, c ... z. Zawarte są w nich pliki autoryzujące i hasłowe każdego użytkownika np. /tcb/files/autfa/r/root jest plikiem użytkownika root, a /tcb/files/auth/d/dareks użytkownika dareks.
Katalog
|
Opis
|
/usr/adm
|
logi administratora
|
/usr/bin
|
programy użytkowe systemu
|
/usr/include
|
pliki programowe
|
/usr/lib
|
pliki biblioteczne dla programów
|
/usr/man
|
pliki pomocy używane przez program man
|
/usr/mmdf
|
używany przez programy pocztowe
|
/usr/spool
|
używany przez podsystem drukujący
|
Wszystkie znaki, z jakimi spotykamy się w systemie mają własne kody, które wykorzystywane są przy przesyłaniu danych, jak i ich zapisywania w postaci plików.
System Unix używa starego kodu ASCII (American Standard Code for Information Interchange), który zawierał 128 znaków. Poprostu w odróżnieniu od obecnego kodu ASCII poprzedni był zapisywany na 7 bitach (2x2x2x2 x 2 x 2 x 2 czyli 27 = 128) a obecnie na 8 bitach (2x2x2x2x2x2x2x2 czyli 28 = 256). W czasie gdy kod ASCII był rozszerzany do 8 bitów, ze względu na zastosowanie specjalnych symboli do rysowania ramek, czy akcentowania liter, system Unix był na tyle dojrzały, że nie można go było zmieniać. Stąd też pojawiają się problemy przy emulatorach terminali, czy programowaniu ramek.
Bezpieczeństwo
System Unix spełnia wymagania bezpieczeństwa normy C2, a sam proces logowania jest bardzo restykcyjny, gdyż nie wiemy czy podaliśmy źle nazwę użytkownika czy hasło, a jedynym stałym użytkownikiem jest root, czyli administrator. Przechwycenie jego hasła daje pełny dostęp do zasobów systemu, a co za tym idzie do plików użytkowników, jak również umożliwia manipulowanie ustawieniami systemu.
Następnym elementem bezpieczeństwa są hasła. Przy serwerze samodzielnym wystarczy je zmieniać co 30 dni, ale przy sieciowym zalecane jest raz w tygodniu. Hasło nie może zawierać imion i nazw własnych, różnego rodzaju dat, itp.
W niektórych systemach, administrator sam zmienia hasła użytkowników, dając im wykaz haseł np. na cały miesiąc. W tym przypadku administrator chroni własny system w przypadku obecności użytkowników, którzy używają jakiegoś programu, a w związku z tym nie mają dostępu do linii poleceń systemu.
Niektórzy użytkownicy nie mogą korzystać z dyskietek lub innych nośników danych, gdyż jest to następny element systemu bezpieczeństwa. Użytkownik może dane przesyłać na swoje konto na serwerze wyłącznie z wykorzystaniem protokołu FTP. Związane jest to z tym, że napędy urządzeń zewnętrznych niosą potencjalne zagrożenie dla systemu związane np. z odtwarzaniem danych przy ścieżkach bezwzględnych. Dlatego dostęp do tych urządzeń ma tylko administrator i/lub osoba odpowiedzialna za wykonywanie kopii bezpieczeństwa.
Najważniejszym elementem bezpieczeństwa systemu jest sam system i jego odporność na różnego rodzaju działania użytkowników. Nawet jeżeli ktoś złapie konto użytkownika, to ze względu na przydzielone prawa (a raczej ich brak) nie za wiele może zdziałać, a reakcja administratora na działania użytkowników powinna być na tyle szybka, aby zminimalizować straty wynikające z przestoju serwera (w czarnym scenariuszu).
Unix a sieć
Większość implementacji systemu Unix zawiera protokół TCP/IP oraz wsparcie dla standardu Ethernet. Ponadto wiele implementacji tego systemu posiada rozproszony system plików o nazwie Network File System (NFS), opracowany przez firmę Sun Microsystem. Stosowanie takiego systemu plików umożliwia użytkownikom uzyskanie dostępu do plików odległych systemów tak jak gdyby te systemy były częścią systemu użytkownika. Przeglądanie nazw plików i katalogów oraz ich kopiowanie na dysk lokalny nie wymaga dodatkowych poleceń lub procedur ponieważ odległy system jest odwzorowany w taki sposób, że wygląda jak lokalny.
TCP/IP jest powszechnie wykorzystywanym protokołem sieciowym, cechującym się dużymi możliwościami. Został on opracowany na zlecenie Departamentu Obrony USA - w celu umożliwienia połączenia ze sobą wielu różniących się między sobą systemów. W skład TCP/IP wchodzi wiele aplikacji, takich jak: telnet, ftp i innych umożliwiających wykonywanie zdalnych czynności na innych serwerach.
Implementacje Unixa
ULTRIX, jest nazwą wersji systemu Unix opracowaną przez firmę Digital Equipment Corporation (DEC) dla maszyn VAX, MicroVAX, VAX-station oraz RISC-owych - DEC-station. System ULTRIX zawiera:
system plików NFS oraz protokół TCP/IP,
scentralizowane zarządzanie plikami wg standardu Yellow Pages (YP),
system składowania i odzyskiwania danych, dostępnych dla zarządcy ze stanowisk odległych,
obsługę stacji bezdyskowych,
blokowanie plików i rekordów zgodnie z zaleceniami POSIX,
mechanizmy zdalnego wywoływania procedur (RPC), oparte na standardach NCS
V l. 5 systemów Apollo,
transport UDP i TCP , bazujący na X/OPEN Transport Interface Library,
model agenta protokołu SNMP (Simple Network Management Protocol),
wsparcie dla protokołu LAT i LAT/Telnet Gateway, pozwalający na dostęp do sieci TCP/IP z sieci DECnet, stosujących protokół LAT.
Novell natomiast stworzył UnixWare, który łączy w sobie możliwości systemów Unix System V, NetWare i DR DOS. Został zaprojektowany tak, aby mógł pełnić rolę platformy integrującej sprzęt obliczeniowy zakładów, umożliwiającej współdziałanie systemów DOS , Microsoft Windows, NetWare i Unix. Charakterystyczne cechy systemu to:
graficzny interfejs użytkownika,
bsługa wielu dostępnych aplikacji Unixa,
system plików odpornych na błędy z możliwością prowadzenia rejestrów przetwarzania.
Novell UnixWare Application Serwer to wersja systemu UnixWare przeznaczona dla wielu użytkowników, umożliwiająca dostęp do aplikacji systemów Unix, DOS i Microsoft Windows w środowiskach rozproszonych. Użytkownik może utworzyć wiele sesji w protokole NetWare IPX/SPX lub TCP/IP. UnixWare składa się z dwóch konfiguracji: wersja klienta i wersja serwera.
Rozdział II
Linux
Linux - to system oparty na nieśmiertelnym Unixie i z niego czerpie zalety. Jest wielozadaniowy (może uruchamiać wiele procesów naraz). Jest wielodostępny (umożliwia pracę wielu użytkowników na jednym komputerze). Jest systemem zorientowanym sieciowo (co ciekawe: nawet w komputerze bez sieci tworzy swoistą "sieć bez sieci"), obsługuje właściwie wszystkie protokoły sieciowe wysokiego i niskiego poziomu oraz dużą gamę kart sieciowych. Napisany w całości w C, dzięki czemu jest przenośny (można go uruchomić na i386, Motoroli, Alphie, Sparcu, PowerPC...). Jest idealną platformą dla serwerów, poprzez swoją stabilność. Powstaje na niego coraz więcej normalnego oprogramowania użytkowego. A co najważniejsze - jest stale rozwijany przez wielu ludzi na całym świecie.
Historia Linuxa
Cofnijmy się w przeszłość do roku 1983, do laboratorium MIT (Massachusetts Institute of Technology). Pracował tam Richard Stallman, wielki zwolennik wolnego oprogramowania. Był on zaniepokojony rosnącą popularnością zamkniętych, komercyjnych produktów. Aby z tym walczyć, zapoczątkował rozwój wolnego, darmowego, dostępnego dla wszystkich systemu operacyjnego. Postanowił oprzeć go na UNIX-e. Nazwał go GNU (Gnu's Not Unix - GNU nie jest Unixem). Wiele osób zainteresowało się projektem, powstawało wiele aplikacji (m.in. EMACS), rozwijane było i jest po dziś dzień jądro.
W roku 1991 fiński student Linus Torvalds eksperymentował z wykorzystaniem trybu chronionego nowego procesora Intela - 386. Chciał sprawdzić, ile mocy można uzyskać z tego procesora. W tym celu stworzył jądro Linuxa. Nazwa Linux to akronim od Linux Is Not UniX - Linux nie jest Unixem. System został udostępniony wszystkim jako wolne oprogramowanie. Dzięki temu rozwój był bardzo szybki. Zaczęto natomiast szukać systemu, z którym mógłby działać Linux, odnaleziono GNU. I tak powstał GNU/Linux - jądro Linuxa + aplikacje GNU. Ten system był rozwijany dalej - ale w kierunku serwera sieciowego i stacji roboczej.
System był używany w bardzo małym gronie osób „wtajemniczonych”. Powód: żeby używać system, trzeba było go samemu poskładać i pokompilować, plik po pliku, pakiet po pakiecie. Postanowiono więc jakoś to wszystko uprościć - zebrać wszystko w całość, spakietować, dołożyć instalator. I tak powstały pierwsze dystrybucje Linuxa. Pionierami były: Slackware, Debian, Red Hat. Szczególnie ten środkowy i ostatni zasługują na uwagę. Debian jest wolną, całkowicie antykomercyjną dystrybucją, ale niezwykle trudną w użytkowaniu. Ale jednak jest pierwszą, która wprowadziła pakiety z numerem wersji, opisem i zależnościami - deb'y. Drugi natomiast - to światowy lider, najpopularniejsza dystrybucja. Jest tak pewnie ze względu na prostotę, ale jednocześnie moc i złożoność tej dystrybucji. Dzięki dystrybucji zniknęła część problemów - ale ciągle system nie mógł być używany przez przeciętnego użytkownika.
Pozostawała wciąż trudność użytkowania, odziedziczona z potężnych Unixów. Typowy użytkownik nie jest w stanie bezproblemowo władać setkami komend sterujących systemem, plikami, zabezpieczeniami. Nawet obszerna dokumentacja nie pomagała (w krajach innych niż USA i GB była jeszcze przeszkoda językowa) Programy w konsoli tekstowej też nie były zbyt przyjemne w obsłudze (vi lub emacs). Był już wprawdzie dostępny wolny system X-Window - X-Free86, ale to nic nie zmienia. Potrzebna była ładna, prosta i przyjemna powłoka graficzna podobna do Windows. I tak oto powstał KDE, a następnie GNOME. Linux przestał kryć się po kątach - wyszedł z ukrycia i niespodziewanie uderzył na potęgę Windows. Linux zaczął wchodzić do domów, zaczęto mówić o Linuxie, pisać w gazetach komputerowych, tworzyć strony o Linuxie.
Cechy systemu
Wielozadaniowość (możliwość uruchomienia niezależnych od siebie wielu procesów), z kontrolą dostępu do zasobów i poprawnym szeregowaniem.
Wielodostęp (możliwość jednoczesnej pracy wielu użytkowników) - a nawet na raz jeden użytkownik w kilku sesjach.
Wieloprocesorowość - bezproblemowa obsługa komputerów wieloprocesorowych.
Niezależność od architektury - Alpha, Sparc, Motorola lub PowerPC.
Kopiowanie przy zapisie (współdzielenie stron pamięci przez kilka procesów).
Stronicowanie (selektywne kopiowanie nieużywanych stron pamięci na dysk twardy).
Dynamiczna pamięć podręczna dysku (wielkość dostosowana do aktualnej ilości wolnej pamięci)
Biblioteki współdzielone (odpowiedniki DLL'ów).
Zgodność z normą POSIX 1003.1 oraz częściowa zgodność z System V i BSD - możliwość uruchomienia programów z innych unixów.
Obsługa wielu formatów plików wykonywalnych - a.out, ELF, JAVA, wsadowe.
Ochrona pamięci (zwiększa stabilność, odróżnia Linuxa od W95/98) - wadliwy program nie powoduje zawieszenia systemu.
Obsługa klawiatur i czcionek narodowych (normy ISO)
Obsługa wielu systemów plików.
Obsługa protokołów TCP/IP, SLIP i PPP - INTERNET
Wady i zalety
ZALETY
|
WADY
|
Dystrybucje Linuxa
Trzeba tu dokonać rozróżnienia między Linuxem a towarzyszącymi aplikacjami. Sam Linux - to jądro systemu, czyli jego „serce” - tak jak DOS'owy io.sys. Linux wraz ze zbiorem aplikacji, narzędziami systemowymi i instalatorem - to dystrybucja. Takich dystrybucji jest wiele, różnych wersji, różnych firm czy grup. Każda z tych dystrybucji posiada inny instalator, inny sposób konfiguracji, inny zestaw aplikacji. Poniżej krótko scharakteryzuję każdą z nich.
Slackware charakteryzował się w miarę łatwą instalacją. Inne dystrybucje wyprzedziły jednak Slackware'a. Slackware operuje na przestarzałych pakietach tgz, które nie zawierają zależności między pakietami ani opisu pakietu. Zestaw aplikacji dołączany do dystrybucji nie zachwyca.
Debian jest dobrą, cenioną przez administratorów dystrybucją. Cechuje się wysokim stopniem skomplikowania i odmiennością od pozostałych dystrybucji. Debian używa formatu pakietów deb, zachowujących się podobnie jak rpm'y. Niestety, zarządzanie debami nie jest proste, jest dystrubucją zupełnie niekomercyjną.
Corel Linux jest oparty na Debianie. Jest bardzo łatwą w instalacji i użyciu dystrybucją, najłatwiejszą chyba ze wszystkich. Wszystkie czynności przeprowadzane są w trybie graficznym. Interfejsem jest przerobiony KDE. Możliwa jest instalacja na dysku z Windows. Niestety, wadą Corel Linuxa jest mały zestaw aplikacji - można jednak używać pakietów Debiana.
Red Hat Linux jest obecnie najpopularniejszą dystrybucją Linuxa. Popularność Red Hat zawdzięcza głównie łatwej instalacji, pakietom rpm i dobrze dobranemu zestawowi aplikacji. Z Red Hatem dostarczone jest mnóstwo windowmanagerów oraz KDE i GNOME, więc każdy może używać tego, czego chce. Red Hat jest dystrybucją komercyjną.
Mandrake Linux jest dystrybucją tworzoną na podstawie Red Hata. Jest z nim właściwie 100% kompatybilny. Jest optymalizowany na Pentium, więc nie można odpalić go na 486 i 386. Bez problemu radzi sobie z polskimi znakami. Zresztą, po wybraniu przy instalacji języka polskiego, interfejs części programów też zostaje spolszczony. Dystrybucja jeszcze prostsza w użyciu niż Red Hat.
S.u.S.E. Linux jest głównym konkurentem Red Hata. Używa pakietów rpm. Zawiera pokaźny zestaw oprogramowania. Jego instalacja jest bardzo prosta - wszystko ułatwia doskonały program YaST, który potem służy za główne narzędzie administracyjne. Dystrybucja przeznaczona głównie na rynek biurowy i domowy. Znakomita obsługa polskiego języka. SuSE używa interfejsu KDE.
Caldera OpenLinux jest całkowicie komercyjną dystrybucją. Używa pakietów rpm. Instalacja i interfejs systemu są w całości w trybie graficznym. Wersje ewaluacyjne zawierają dość mało oprogramowania. Inferfejsem użytkownika jest KDE. W konfiguracji pomaga COAS (Caldera Open Administration System). Wersja komercyjna zawiera m.in. program Partition Magic służący do wydzielenia wolnego miejsca na Linuxową partycję.
Polish Linux Distribution czyli PLD jest dopiero w fazie tworzenia. Nie zawiera nawet instalatora. Ma to być bardzo łatwa w użyciu dystrybucja. Jedynym sposobem na jej zainstalowanie jest zaimplantować już zainstalowaną dystrybucję. Na razie skorzystają z niego pewnie tylko osoby, które chcą przyczynić się do jego rozwoju.
Oprócz "dużych" dystrybucji istnieją też minidystrybucje, mieszczące się na jednej lub kilku dyskietkach albo instalujące się na dysku w partycji dosowej używając do 250 MB. Dystrybucje te mają bardzo wąskie zastosowania. Dystrybucje dyskietkowe mogą służyć jako systemy ratownicze, przenośne systemy sieciowe, rutery czy firewalle. Zaś minidystrybucje twardyskowe służą właściwie do celów edukacyjnych. Najlepszymi minidystrybucjami dyskietkowymi są Alfa Linux, BrutalWare, CClinux, Floppix, Coyote Linux, oraz polskie Pocket Linux i Linux In A Pill.
Dystrybucje twardyskowe to cLIeNUX, DosLinux/LoopLinux, DragonLinux.
Prawa dostępu
Linux ma bardzo ciekawy system regulowania praw dostępu do plików (taki sam ja Unix). Po wpisaniu ls (odpowiednik Dir z Dos-u) w atrybutach pojawia się np. DRWXRWXRWX. Do tego dochodzi posiadacz i grupa posiadacza pliku. Myślnik na pierwszej pozycji oznacza plik. Może tam być też D (katalog), L (dowiązanie symboliczne), C (urządzenie znakowe), B (urządzenie blokowe), S (gniazdo unixowe), F (kolejka FIFO). Dalej są trzy RWXy. R oznacza prawo do odczytu, W do zapisu, X do wykonania. W przypadku katalogu R i X - to prawo do otwarcia katalogu, W - to prawo do kasowania plików w katalogu lub samego katalogu. Pierwszy RWX - to prawa dostępu dla posiadacza (ownera), drugi - to prawa dostępu dla grupy posiadacza, trzeci zaś - to prawa dla wszystkich użytkowników. W zestawie uprawnień dla grupy i posiadacza może zamiast X-a wystąpić S - jest to tzw. bit setuid (dla posiadacza) i setgid (dla grupy) i powoduje, że po uruchomieniu program przejmuje uprawnienia posiadacza lub grupy niezależnie od tego, kto go uruchomił. Przydaje się to np. demonowi PPP, który musi działać pod uprawnieniami roota. Należy jeszcze wspomnieć, że root może ominąć uprawnienia.
Dzięki tym prawom dostępu można np. ustalić, że: właściciel może zapisywać i odczytywać swoje pliki, współpracownicy mogą je odczytywać, a wszyscy inni nie mogą ich nawet zobaczyć. Można również ograniczać prawa dostępu do urządzeń - gdyż są one reprezentowane przez pliki - np. do modemu.
Polecenia do obsługi uprawnień to chown (zmiana posiadacza) i chmod (zmiana praw dostępu). Chown pobiera jako atrybut właściciela i grupę w formacie właściciel:grupa, np. chown tilk:users pliczek. Chown natomiast bierze sekwencję w formacie kto?co. Kto - to kombinacja znaków UGOA (U - właściciel, G - grupa, O - inni, A - wszyscy). Znakiem zapytania może być + (plus) - dodajemy uprawnienia, - (minus) - zabieramy uprawnienia, oraz = (znak równości) - ustawiamy uprawnienia.
Istnieje jeszcze system kontroli dostępu ACL (Access Control Lists), które pozwalają na bardzo dokładne określenie praw dostępu, lecz wymagają patchy w jądrze i narzędziach.
Partycje pod Linuxem
Partycje oznacza się cyfrą za nazwą urządzenia dysku (np. /dev/hda1). Cyfry 1 do 4 oznaczają partycje podstawowe lub rozszerzone. Cyfry od 5 w górę oznaczają dyski logiczne. Czyli np. jeśli chcemy dostać się do drugiego dysku logicznego drugiego dysku na pierwszym kablu IDE użyjemy /dev/hdb6. Do polecenia montowania można używać nazw partycji, czyli polecenia np. mount /dev/fd0 i mount /mnt/floppy są równoważne.
Partycjami pod Linuxem zarządza się programem fdisk (tekstowy) i cfdisk (semigrafika). Partycje formatuje się poleceniem mkfs.
Partycja wymiany spełnia taką samą rolę co plik wymiany w Windows, czyli przechowuje dane, które nie są aktualnie potrzebne, ale mogą się przydać. Innymi słowy, jest to swoiste „poszerzanie pamięci”. Oczywiście, taka pamięć dyskowa jest wolna, więc nie zastąpi zwykłej pamięci.
Linux dla potrzeb swappingu (dokładniej pagingu) rezerwuje całą partycję. Jakie są z tego korzyści? Po pierwsze, jest zawsze na swoim miejscu. Po drugie, nie ulega rozfragmentowaniu po całym dysku. Po trzecie, ma stały rozmiar. Partycje wymiany formatuje się poleceniem mkswap. Partycje wymiany są odpowiednio oznaczone w fstabie.
System plików
Unixowy system plików ma wiele właściwości, których nie mają inne systemy plików. Podstawowa sprawa - to dowiązania. Każdy plik charakteryzuje specyficzna liczba, która pozwala go odróżnić od innych. Liczba ta oznacza tzw. numer inode'a. Sam inode to struktura danych, w której są wszystkie informacje o pliku za wyjątkiem nazwy. Przeniesienie informacji o pliku z katalogu do inode'a daje znakomite możliwości.
Możliwe jest otwarcie pliku, a następnie jego skasowanie. Dzięki temu plik będzie istniał dalej, ale nie będzie go w tablicy katalogów. To doskonałe rozwiązanie dla plików tymczasowych, gdyż po zakończeniu programu plik bez wpisu w tablicy katalogów zostaje usunięty. Istnieje także możliwość wskazywania na jeden plik większej ilości dowiązań. Dzięki temu można dostać się do jednego pliku z kilku różnych ścieżek. Do tworzenia dowiązań służy polecenie ln.
Istnieje także inny rodzaj dowiązań - dowiązanie symboliczne. Tak naprawdę dowiązanie symboliczne jest krótkim plikiem z zapisaną ścieżką dostępu do oryginalnego pliku. System wykorzystuje to, by przy próbie otwarcia dowiązania symbolicznego otworzyć właściwy plik. Dowiązania symboliczne mają swoje wady i zalety. Zaletą jest fakt, że po skasowaniu głównego pliku dowiązanie symboliczne przestaje działać - tak jak skrót w Windows. Natomiast wadą jest fakt, że dowiązanie symboliczne przestanie działać po przeniesieniu głównego pliku. Zajmuje też dodatkowego inode'a. Dowiązania symboliczne są najlepsze do tworzenia skrótów lub innych nazw pliku. Tworzy się je poleceniem ln -s.
Oprócz zwykłych plików istnieją także pliki specjalne. Jednym z nich jest katalog. Jest on po prostu plikiem z nazwami i numerami inode'ów, którym odpowiadają. Dostęp bezpośredni do katalogów (tzn. jako plik) jest jednak niemożliwy.
Innym z plików specjalnych jest plik-urządzenie. Charakteryzują go dwie liczby - większa, mniejsza - oraz znak (b lub c). Oznaczają one, który sterownik będzie go kontrolował. Zapytania o odczyt-zapis tego pliku trafiają wprost do odpowiedniego sterownika w jądrze. Dzięki temu zostało osiągnięte nieosiągalne - urządzenia przestały być anonimowe, miały swoje oznaczenia. Możliwe też stało się kontrolowanie dostępu do urządzeń, np. do modemu.
Kolejnym z plików specjalnych jest tzw. potok nazwany (named pipe) lub inaczej kolejka FIFO (first in, first out). To, co zostanie zapisane jako pierwsze, pierwsze zostanie odczytane. Ten typ plików znakomicie nadaje się do komunikacji między procesami - jeden zapisuje, drugi odczytuje. Częściej jednak używa się potoków nienazwanych, otwieranych znakiem | (pionowa kreska) w Bashu. Tak naprawdę są to te same potoki, lecz bez dowiązania w systemie plików.
Istnieje jeszcze tzw. gniazdo unixowe. Jest to sposób na komunikację między procesami z połączeniem. Używane jest m.in. do lokalnej komunikacji z X serwerem.
Oprócz tego wszystkiego, w katalogu proc mamy tzw. system plików proc. Nie służy on do zapisywania plików na dyskach, lecz do podawania informacji o pracy systemu i do kontrolowania jego pracy. Jego zawartość nie jest stała, system generuje zawartość plików w nim przy próbach odczytu. Montowany jest domyślnie w katalogu /proc. Zawiera wiele informacji o systemie, np. dane wszystkich procesów, rodzaj i możliwości procesora, używane urządzenia, zamontowane systemy plików, używane przerwania, porty I/O i kanały DMA, informacje o sterownikach, sieci itd.
BASH
Słowo BASH jest skrótem od Bourne Again SHell. Mówi on o autorze pierwowzoru (Steve Bourne). Jednocześnie jest angielską grą słów i oznacza „nowo narodzony sh” lub „nowo narodzony shell Bourne'a”. Jest to podstawowa powłoka używana w Linuxie. Już to zapowiada, że Bash prezentuje nowe możliwości w porównaniu do pierwotnego shella.
Interpreter poleceń BASH pozwala na kilka ciekawych rzeczy. Można korzystać z historii poleceń (strzałka w górę i dół). Dzięki temu nie musimy powtórnie wpisywać długiego polecenia, gdy popełnimy literówkę. Można wywoływać kilka poleceń po kolei, łącząc je znakiem średnika - ;. Można też łączyć programy nienazwanymi potokami (FIFO), kierując wyjście jednego w wejście drugiego, używając znaku | (pionowa kreska). Wynik pracy wielu poleceń można zapisać w pliku poleceniem tee. Można też kierować wyjście programu do pliku albo skierować plik na wejście (znaki < i >) bądź dopisywać do pliku (>>). Można też uruchamiać programy w tle dopisując znak & (ampersand) na końcu polecenia. Wszystko to pozwala na składanie poleceń w złożone zestawy, ułatwiające wykonanie określonego zadania.
Istnieje rozszerzenie wzięte z powłoki C, zwane brace expansion. Pozwala na zautomatyzowanie czynności, w których jakaś część nazwy powtarza się wielokrotnie. Polecenie jest wywoływane wielokrotnie, jeden raz dla każdej możliwości. Przykładowo, wpisanie mkdir katalog_{pierwszy,drugi,trzeci} spowoduje utworzenie trzech katalogów - katalog_pierwszy, katalog_drugi i katalog_trzeci.
Możliwe jest wykonywanie operacji arytmetycznych. Jest to usprawnienie zaczerpnięte z powłoki Korna. Polecenia arytmetyczne wykonuje się, wstawiając je w obrębie znaków $((...)) lub $[...]. Obsługiwane jest większość operatorów arytmetycznych Ansi C. Obsługiwana też jest kolejność działań. Przykładowo, polecenie echo $((2 + 2)) spowoduje, że na ekranie pojawi się 4.
Oczywiście, możliwe jest tworzenie skryptów. Z zewnętrznego punktu widzenia skrypt wygląda identycznie jak binarium wykonywalne: plik z ustawionym atrybutem x. Dopiero wewnątrz widoczne są zmiany: na początku pliku znajdują się dwa znaki: #! , a po nich nazwa interpretera poleceń, np. /bin/sh. Tak więc pierwsza linia skryptu może mieć postać: #!/bin/sh, #!/bin/bash, #!/usr/bin/perl lub cokolwiek innego. Skrypt pisze się oczywiście w języku interpretera. Znak # powoduje zakomentowanie reszty linii na prawo od znaku.
Jądro systemu
Jądro systemu - to jego najważniejsza część. Odpowiada m.in. za komunikację ze sprzętem, obsługę systemów plików, sterowanie procesami. Jądro Win 95/98 (plik io.sys) jest jednozadaniowe, zajmuje się obsługą twardego dysku, klawiatury i trybu tekstowego, resztę funkcji dodaje systemowi nakładka win.exe. Inaczej w Linuxie - jądro komunikuje się z całym dostępnym sprzętem, włączając kartę sieciową, mysz, modem, cd-rom, jojstick i inne. Obsługuje też sieć - obsługa sieci jest w Linuxie kluczowa i nie można jej pominąć.
Patrząc na cały ogrom funkcji jądra Linuxa można stwierdzić, że jądro Linuxa jest wielkie i napakowane funkcjami obsługi sprzętu jakiego na oczy nikt nie widział i przez to wolne. Niestety tak nie jest. Po pierwsze, kod źródłowy Linuxa jest otwarty i darmowy, co oznacza, że każdy ma do niego dostęp, może go zmieniać i na jego podstawie kompilować jądro. Można przekompilować je tak, że będzie zawierać tylko obsługę tego sprzętu, który posiadamy.
Ważnym elementem jest numeracja wersji jądra. Przykładowym numerem jest 2.2.16. Pierwsza liczba to główny numer wersji, druga liczba - to numer podwersji. Jeśli jest parzysty, jądro jest wersją stabilną, jeśli nieparzysty - wersją rozwojową, o dużej ilości nowych funkcji, lecz niezbyt stabilne. Trzeci numer to numer release'u (publikacji). Im wyższy jest ten numer, tym nowsze jądro.
Linux jest chyba jedynym systemem operacyjnym do którego tak szybko ukazują się poprawki w przypadku stwierdzenia błędów, w porównaniu z innymi systemami.
Rozdział III
Novell
Novell jest jedną z wiodących firm w dziedzinie technologii i produkcji sieciowych systemów komputerowych.
Swoje pierwsze produkty sieciowe firma Novell tworzyła na początku lat osiemdziesiątych, wraz z powstaniem pierwszych komputerów osobistych. W roku 1983 Novell wprowadził system współużytkowania plików. Po kilku latach wprowadza NetWare/86, który zapewniał możliwości serwera plików. Nowy system operacyjny serwera pozwalał użytkownikom nie tylko na współużytkowanie plików, ale także na dostęp do nich poprzez system bezpieczeństwa oraz pomagał w zarządzaniu siecią.
W miarę wzrostu popularności NetWare firma zwiększyła jego niezależność od sprzętu i zapewniła obsługę dla produktów innych producentów. Była to jedna z najważniejszych strategii, umożliwiająca utworzenie z NetWare standardu.
W 1989 roku nowa wersja NetWare - Advanced NetWare - zapewniła jeszcze lepszą obsługę sprzętu i sieci, poprzez łączenie przy pomocy mostów wewnątrz serwera lub zewnętrznej stacji roboczej różnych typów sieci. Możliwe się stało zainstalowanie w serwerze zarówno karty Ethemet jak i Token Ring.
Advanced NetWare 286 zaprojektowany z myślą o wykorzystaniu zalet systemów opartych na procesorze Intel 80286. Zapewniał on wielozadaniowość na długo przed pojawieniem się systemów OS/2 oraz Microsoft Windows. Ponadto wykorzystano w nim tryb pracy chronionej, dzięki której możliwe stało się korzystanie z zaawansowanych procedur niemożliwych do wykonania na komputerze opartym na systemie DOS (DOS mógł zaadresować tylko 640 KB pamięci operacyjnej).
W roku 1989 firma Novell wprowadziła na rynek NetWare 386 wersja 3.0. System ten stworzono praktycznie od nowa, aby móc wykorzystać możliwości procesora Intel 80386. NetWare 386 jest w pełni 32 bitowym systemem operacyjnym, zaprojektowanym dla dużych sieci. Zapewniał on również większe bezpieczeństwo, wydajność i elastyczność. W 1991 roku Novell zaoferował wersję 3.11, która obsługiwała pliki DOS, Macintosh, Windows, OS/2 oraz Unixa. Natomiast dla wielkich sieci korporacyjnych Novell zaprojektował NetWare 4.2.
We wrześniu 1998 roku firma Novell wprowadza na rynek swój najnowszy produkt NetWare 5, który w szybkim czasie zaczyna zdobywać największą popularność wśród sieciowych systemów operacyjnych.
Wydajność
Na najwyższym poziomie system operacyjny NetWare oferuje usługi, dzięki którym serwer tego systemu jest wydajniejszy od serwerów obsługiwanych przez sieciowe systemy operacyjne działające pod kontrolą innego systemu operacyjnego (serwery pracujące w trybie gospodarza). System operacyjny ogólnego zastosowania, który pracuje na serwerze działającym w trybie gospodarza, ma za zadanie zapewnić uniwersalne środowisko dla uruchamiania wielu zadań - na ogół nie jest optymalizowany pod kątem zastosowań sieciowych.
Na doskonałość systemu NetWare mają wpływ następujące czynniki:
wielozadaniowe jądro - jądro systemu NetWare jest wielozadaniowe i wielowątkowe, umożliwia pracę serwera przy dużych obciążeniach,
poszukiwanie cylindryczne - operacje odczytywania z dysku obsługiwane są przez osobny proces, który pobiera dane z dysków twardych serwera i umieszcza je w buforach. Przychodzące żądania odczytu są ustawiane w kolejności zależnej od bieżącego położenia głowic dysków. Technika ta wykorzystuje ruchy głowic, dając w wyniku znacznie większą przepustowość kanałów dyskowych, niż w rozwiązaniach konwencjonalnych.
buforowanie dysków - zawartość często odczytywanych plików przechowywana jest w pamięci podręcznej na serwerze, skąd można je odczytać znacznie szybciej, niż bezpośrednio z dysku. Program buforujący odczytuje dane z dysku dużymi porcjami, nie ograniczając się do dostarczenia tylko żądanych informacji - dane w buforze są gromadzone zgodnie z przewidywaniem następnych żądań odczytu, a system rzadziej musi bezpośrednio sięgać do dysku.
zapis w tle - operacje zapisywania danych na dysku stanowią osobny proces. Rozdzielenie funkcji odczytu i zapisu daje możliwość zapisywania danych w tle, w okresach zmniejszonej aktywności w sieci.
wyszukiwanie na zakładkę - jeżeli serwer ma kilka kanałów dyskowych, to wyszukiwanie na zakładkę pozwala na równoczesny dostęp do dysku w kilku kanałach, po jednym dysku na kanał. W ten sposób dostęp do każdego dysku jest kontrolowany odrębnie, a dyski nie pracują jałowo, oczekując na zakończenie operacji odbywających się na innych dyskach.
indeksowane tablice alokacji plików (TurboFAT) - NetWare lokalizuje pliki na dyskach sieciowych korzystając z tablic FAT. Kiedy na dysku serwera są zapisywane duże pliki (o objętości powyżej 2MB), wtedy system indeksuje tablicę FAT, przez co uzyskuje się szybkie odszukiwanie danych, a w wyniku tego szybszy odczyt informacji z dysku.
Niezawodność
Wchodzące w skład systemu NetWare elementy mają wiele cech gwarantujących niezawodność pracy i zachowanie spójności danych. Wymienione poniżej mechanizmy odpowiadają za zabezpieczenie od nośników danych po pliki o szczególnie ważnej treści:
weryfikacja po zapisie - po każdej operacji zapisu na dysku system odczytuje dane sprawdzając ich poprawność,
duplikowanie katalogów - system przechowuje duplikat struktury katalogu głównego w celu zapewnienia ciągłego dostępu do plików, nawet po uszkodzeniu głównej struktury.
duplikowanie tablic FAT - system NetWare przechowuje również duplikat tablicy FAT. Dzięki temu uszkodzenie tablicy nie powoduje utraty dostępu do przechowywanych na dysku danych.
bieżąca korekta (ang. Hotfix) - jest to funkcja wykrywania i korygowania na bieżąco defektów nośnika.
STF (System Fault Tolerance) - jest to zespół funkcji zabezpieczających dane, takich jak lustrzana konfiguracja dysków, dupleksowanie dysków oraz system śledzenia transakcji TTS (Transaction Tracking System).
Pracując w konfiguracji lustrzanej dyski twarde duplikują swoją zawartość i są obsługiwane przez ten sam kontroler. Za każdym razem kiedy serwer plików zapisuje informacje na dysku pierwotnym, taka sama operacja zachodzi na dysku wtórnym. Jeżeli dysk pierwotny ulegnie awarii, to dysk wtórny zastąpi go w pełni.
Dupleksowanie dysków jest techniką podobną do konfiguracji lustrzanej. Różnica polega na obecności dwóch oddzielnych kontrolerów dla dysku pierwotnego i wtórnego. Podobnie jak przy konfiguracji lustrzanej, w razie uszkodzenia jednego z dysków drugi przejmuje jego funkcje.
System TTS ma za zadanie utrzymanie spójności w wielodostępnych bazach danych. System postrzega każdą zmianę zawartości bazy danych jako transakcję, która została pomyślnie zakończona lub jest w toku. Jeśli w czasie wykonywania transakcji system ulegnie awarii, to procedury TTS przywrócą w bazie danych stan sprzed rozpoczęcia transakcji. Taka operacja nosi nazwę automatycznego cofnięcia transakcji (ang. roll-back). System TTS przechowuje pełny zapis historii wszystkich transakcji, dzięki czemu może odtworzyć cofniętą transakcję (ang. roll-foward). System TTS zapewnia, że w wypadku zupełnej awarii wszystkie dane mogą zostać odzyskane.
Bezpieczeństwo
W systemie NetWare mechanizmy zabezpieczające wbudowane są na jego najbardziej podstawowym poziomie, w przeciwieństwie do rozwiązań stosowanych w innych systemach, gdzie mechanizmy te są dodawane jako aplikacje systemu operacyjnego stacji roboczych. System NetWare używa własnej struktury plików. Dlatego nawet użytkownicy mający bezpośredni (fizyczny) dostęp do serwera, nie mogą użyć tych plików z poziomu innego systemu operacyjnego, takiego jak DOS, OS/2 czy Unix.
Elementy składowe systemu NetWare zapewniają mechanizmy zabezpieczające na następujących poziomach:
ochrona konta,
ochrona hasła,
ochrona katalogu,
ochrona pliku,
mechanizmy ochronne między sieciami.
W roku 1983 firma Novell wprowadziła do sieci lokalnych koncepcje nazw użytkowników, profili użytkowników i haseł.
Profil użytkownika zawiera listę zasobów, do których ma dostęp osoba pracująca na danym koncie oraz wykaz praw, jakie ma ta osoba korzystając z danego zasobu. Osoby nadzorujące pracę sieci mogą określić czas oraz miejsca, z których użytkownik może logować się do sieci. Procedury detekcji prób nielegalnego dostępu oraz blokady konta informują zarządcę sieci o każdej próbie nieprawidłowego dostępu.
Hasła są przechowywane w postaci zakodowanej na sieciowym dysku twardym, a osoba zarządzająca siecią może narzucać użytkownikom wymóg okresowej zmiany hasła. Szyfrowanie powoduje, że nawet zarządca sieci nie zna haseł użytkowników. Słowa kluczowe haseł są szyfrowane również podczas przesyłania ich ze stacji roboczej do serwera, aby uniknąć możliwości podsłuchania i prób odszyfrowania.
Podczas pracy serwera NetWare w trybie niededykowanym, użytkownik - choć używa serwera jako stacji roboczej - musi zalogować się do sieci. Dzięki temu każda forma dostępu do danych, przez aplikację lub w inny sposób, przebiega wyłącznie pod kontrolą mechanizmów ochronnych sieci NetWare.
Pod względem bezpieczeństwa wszystkie stacje robocze są równoprawne. Niezależnie od działającego na stacji systemu operacyjnego: DOS, Windows, OS/2, Macintosh czy Unix, wszystkie stacje traktowane są równo, a wszystkie mechanizmy ochronne mają zastosowanie we wszystkich obsługiwanych przez sieć systemach operacyjnych stacji.
3.4. Obsługa standardów
Wbudowana w system NetWare obsługa powszechnie używanych standardów pozwala użytkownikom łatwo przechodzić do nowych technologii bez ryzyka utraty aktualności obecnych systemów obliczeniowych. Obsługa standardów umożliwia również współpracę między systemami obliczeniowymi zwiększając w ten sposób wydajność i wartość sieci.
Standardy w sieciach dzielą się na dwie kategorie: standardy aplikacji i standardy protokołów komunikacyjnych.
Standardy aplikacji
W przeszłości większość aplikacji sieciowych bazowała na możliwościach obliczeniowych stacji roboczych. Wszystkie procesy przetwarzania danych przebiegały na stacjach. Aplikacje tego rodzaju działają opierając się na standardach usług dostępu do plików ustalonych przez firmę IBM dla środowiska DOS, Windows i OS/2, przez firmę Apple dla środowiska komputerów Macintosh oraz istniejących de facto standardach zdalnego dostępu do plików, ustalonych przez firmę Sun Microsystem dla środowiska systemu Unix. Aby skutecznie połączyć w sieci te wszystkie środowiska, system NetWare w każdym z nich obsługuje standardy aplikacji.
Dla umożliwienia pracy rozproszonych aplikacji w środowiskach tworzonych przez różnych producentów, system NetWare obsługuje również różne systemy operacyjne serwerów i klientów (stacji roboczych). Wśród obsługiwanych systemów znajdują się: dla stacji roboczych - DOS, Windows, OS/2, system operacyjny komputerów Macintosh oraz system Unix dostarczany przez różnych producentów sprzętu; dla serwerów - OS/2, Unix, VMS i inne.
Niezależnie od użytego systemu operacyjnego klienta i serwera, aplikacje pracujące w trybie klient-serwer ustalają łącze sieciowe między klientem a serwerem, wykorzystując protokoły komunikacji międzyprocesowej (ang. Interprocess Cominikations Protocols - IPC). System NetWare obsługuje wiele protokołów IPC, w tym SPX (NetWare Sequenced Packet Exchange) opracowany w firmie Novell, NetBIOS i APPC (Advanced Program-to-Program Comunications) autorstwa firmy IBM, Named Pipes firmy Microsoft, TLI (Transport Level Interface), który powstał w firmie AT&T, a także BSD Sockets.
Standardy protokołów komunikacyjnych
Sieciowe systemy operacyjne tworzą środowisko obliczeniowe bazując na protokołach komunikacyjnych. Każdy z trzech rodzajów protokołów komunikacyjnych - nośnikowy, transportowy i klient-serwer - dostarcza specyficznych usług, umożliwiając użytkownikom dostęp do wspólnych zasobów.
Protokoły nośnikowe określają rodzaj fizycznych połączeń zastosowanych do zbudowania sieci. System NetWare obsługuje ponad 100 różnych kart sieciowych.
Po ustaleniu w sieci fizycznego połączenia między jej węzłami trzeba zbudować następny poziom usług sieciowych, używając w tym celu protokołu transportowego.
Protokół transportowy umożliwia przenoszenie pakietów danych od węzła do węzła. System NetWare obsługuje własny protokół transportowy IPX/SPX (Intemet Packet Exchange/Sequential Packet Exchange), a także protokół AppleTalk firmy Apple oraz standartowe protokoły transportowe TCP/IP i OSI.
Po połączeniu sprzętu i zorganizowaniu usług transportowych trzeba uruchomić protokół klient-serwer , dzięki któremu użytkownicy uzyskają dostęp do usług sieciowych. Ten protokół określa reguły przekazywania żądań usługi i danych ze stacji roboczej do serwera. Ten sam protokół określa sposób odpowiedzi serwera. Wszystkie trzy protokoły współpracują ze sobą, aby umożliwić użytkownikom sieci uzyskanie danych i usług z określonych węzłów sieci.
Systemy operacyjne NetWare
Pod nazwą NetWare oferowane są przez firmę Novell różnorodne systemy operacyjne, od prostego Personal NetWare po potężny NetWare 5.x system operacyjny zaprojektowany dla sieci korporacyjnych.
Personal NetWare
Prosty i niedrogi system operacyjny, obsługujący sieć komputerów równorzędnych, przeznaczony dla małych firm i zespołów roboczych. Serwer sytemu Personal NetWare może obsłużyć od 2 do 50 komputerów. Każdy komputer dołączony do sieci można skonfigurować jako klienta, serwer lub jednocześnie jako klienta i serwer.
Sieć jest bardzo prosta w administrowaniu, charakteryzuje się następującymi właściwościami:
administrator sieci kontroluje dostęp do wspólnych zasobów, może
przypisać użytkownikom do trzech definiowalnych praw dostępu,
niezależnie od liczby serwerów, do których ma dostęp dany użytkownik,
wymagane jest dla niego zdefiniowanie tylko jednego hasła,
całą siecią zarządzać można z jednego komputera,
udostępnione zasoby można przemieszczać bez naruszania praw dostępu użytkowników.
W systemie Personal NetWare brak jest funkcji podwyższających niezawodność charakterystycznych dla innych produktów Novella, lecz posiada on pewne właściwości stabilizujące jago działanie, jak:
funkcja auto-reconnect automatycznie odtwarzająca połączenie sieciowe po awarii lub zakłóceniu zasilania,
rozproszone lub zsynchronizowane konta użytkowników, które umożliwiają funkcjonowanie sieci, nawet jeśli aktywny jest tylko jeden serwer. Jeśli fragment sieci ulegnie awarii podczas wykonywania czynności związanych z administrowaniem kontami użytkowników, to po odzyskaniu sprawności tej części sieci baza danych użytkowników zostanie powtórnie zsynchronizowana,
w trakcie instalowania sieci program narzędziowy bada połączenia sieciowe, weryfikując sprawność działania kart sieciowych, okablowania i programów obsługujących protokół IPX.
System Persona NetWare i standardowy NetWare mogą wspólnie działać w jednej sieci. Stacja robocza może wchodzić w skład obu sieci, zachowując dostęp do serwerów plików NetWare oraz do zasobów udostępnionych w sieci Personal NetWare przez inne stacje.
System NetWare 2.2
System NetWare 2.2 jest to jeden ze starszych produktów firmy Novell, jednak nadal dostępny na rynku. Zaprojektowany został do obsługi sieci liczących od 5 do 100 użytkowników. Charakteryzuje się następującymi właściwościami:
wyposażony jest w SFT level I i II,
posiada specjalny program analizujujący dysk, sprawdzając stan nośnika w określonych obszarach dysku twardego, krytycznych z punktu widzenia działania systemu operacyjnego,
jest niezależny od nośnika, co umożliwia administratorom łączenie w sieci wielu różnych, często niezgodnych ze sobą rodzajów sprzętu sieciowego. System zawiera w sobie wewnętrzny router, za pomocą którego można połączyć serwer z czterema różnymi sieciami,
zawiera sterowniki klientów NetWare DOS DDI (Open Data-Link Interface) obsługujące kilka protokołów (np. IPX, TCP/IP) na jednej karcie sieciowej.
System NetWare 3.x
System NetWare 3.x zaprojektowany został dla małych i średnich firm (wersja 3.11 potrafi obsługiwać do 250 użytkowników). Jego charakterystyczne cechy to:
jest to w pełni 32-bitowy system operacyjny wykorzystujący właściwości mikroprocesorów 80386, 80486 oraz rodziny Pentium,
dzięki architekturze bazującej na modułach NLM można ładować do pamięci i usuwać z niej dodatkowe składniki systemu podczas pracy serwera. W postaci modułów NLM są dostarczane sterowniki, programy narzędziowe i użytkowe.
obsługuje do 4GB pamięci operacyjnej RAM, do 32 TB (terabajtów) pamięci dyskowej,
pliki mogą mieć wielkość do 4GB i rozciągać się na kilka fizycznych dysków, dzięki czemu na serwerze można zapisać wielkie bazy danych,
system zawiera oprogramowanie NetWare RMF (Remote Management Facility), dzięki któremu administrator zarządzać może zdalnymi serwerami z własnej stacji roboczej, za pomocą linii telefonicznych lub połączeń sieci lokalnej,
zawiera mechanizmy SFT l e vel III (NetWare 3.11 SFT III).
NetWare 4.x
NetWare v.4.x to najbardziej zaawansowany sieciowy system operacyjny firmy Novell. Zaprojektowany został z myślą o sieciach korporacyjnych.
Pozwala użytkownikowi widzieć całą wieloserwerową sieć jako jeden zintegrowany system. Powstał na podstawie systemu NetWare 3.12. Oprócz wszystkich cech wersji 3.12 ma jeszcze inne, a mianowicie:
nowe narzędzia administracyjne,
nowe mechanizmy ochronne,
możliwość pracy w wielu językach,
poprawia wydajność sieci globalnych.
NetWare 5
NetWare 5 zapewnia największe korzyści przy najniższych kosztach. Zwiększa wydajność pracy użytkowników sieci i jej administratorów . W pełni wykorzystuje elementy sieci komputerowej już istniejącej w przedsiębiorstwie. Zapewnia także ochronę sieci wewnętrznej przed intruzami.
Zalety NetWare 5:
doskonałe mechanizmy zarządzania i kontrolowania całej złożonej sieci, w pełni korzystającej z usług NDS (Novell Directory Sendces).
współpraca z otwartymi standardami, w tym możliwość korzystania w sieci wyłącznie z protokołu IP umożliwiająca szybkie, bezpieczne i wydajne integrowanie sieci lokalnej z Intemetem.
najlepsza platforma dla rozproszonych aplikacji opartych na języku Java, Oracle8 i innych zaawansowanych technologiach
niezawodność, skalowalność, wysoka wydajność i bezpieczeństwo.
NetWare 5 jest ściśle zintegrowany z usługami NDS - (usługami katalogowymi). Umożliwia zarządzanie z jednego centralnego punktu całą niejednorodną siecią komputerową, jakby stanowiła jeden organizm. W sieci takiej mogą występować różne systemy operacyjne, protokoły, mechanizmy bezpieczeństwa, aplikacje, użytkownicy, drukarki i komputery biurowe. Ponadto NetWare oferuje bogaty zestaw narzędzi służących do zarządzania, które ułatwiają pełne wykorzystanie usług NDS.
NetWare 5 łączy niezawodność i infrastrukturę firmowej sieci komputerowej z otwartymi standardami internetowymi. Pozwala uzyskiwać dostęp do Internetu i integrować technologie internetowe z siecią lokalną bez ograniczania kontroli nad nią, obniżania poziomu bezpieczeństwa czy wydajności.
System ten oferuje narzędzia i usługi, które pozwalają na korzystanie wyłącznie z protokołu IP bez stosowania mało wydajnych mechanizmów tunelowania i rozsyłania, stosowanych przez serwery aplikacji NT. NetWare 5 umożliwia stopniowe wprowadzanie protokołu IP bez zakłócania pracy użytkowników. Dzięki korzystaniu wyłącznie z protokołu IP można zwiększyć przepustowość sieci i zapewnić pełniejszą współpracę ze współczesnymi rozwiązaniami internetowymi.
Rozdział IV
Microsoft
Firma Microsoft produkuje następujące sieciowe systemy operacyjne:
LAN Manager,
Windows for Workgroups,
Windows NT,
Windows 2000
Windows 95,
Windows 98.
Windows Me
LAN Manager
System LAN Manager był pierwszą ważną platformą typu klient -serwer opracowaną w firmie Microsoft. Projektowano go z myślą o zapewnieniu najlepszej z możliwych efektywności sieciowego przetwarzania informacji w środowisku klient-senver.
We wcześniejszych wersjach sieci LAN Manager serwer musiał pracować z systemem OS/2. Później firma Microsoft sprzedała licencję systemu innym producentom, między innymi AT&T/NCR, DEC, Hewlett-Packard i SCO. Każda z tych firm opracowała własne wersje systemu LAN Manager, który uzyskał w ten sposób pewną niezależność do systemu operacyjnego: LAN Manager może teraz funkcjonować nie tylko z systemem OS/2, ale także Unix i VMS.
Architektura systemu LAN Manager ma dwie podstawowe zalety: operacje sieciowe obsługuje program o kodzie zoptymalizowanym pod kątem pracy sieciowej, a system operacyjny zapewnia pracę wielozadaniową podobną do wykonywanej w dużych systemach komputerowych, zabezpieczają dane, procesy i sam serwer przed potencjalnie niszczącymi skutkami wzajemnych niezgodności. Wszystkie implementacje systemu LAN Manager - przeznaczone dla systemów OS/2, Unix i VMS - tworzą tą samą doskonałą kombinację z wielozadaniowymi systemami operacyjnymi uznanymi za standardy.
Zabezpieczenia w pracy wielozadaniowej
System LAN Manager wykorzystuje dwa bardzo ważne mechanizmy zabezpieczające: ochronę pamięci i szeregowanie z wywłaszczeniem. Takie mechanizmy są używane w wielozadaniowej architekturze wszystkich głównych systemów operacyjnych dużych systemów komputerowych i minikomputerów. Bez takich dodatkowych zabezpieczeń eliminujących szkodliwe wzajemne oddziaływanie aplikacji, wadliwa praca jednej z nich (lub problemy wynikające ze wzajemnego wpływu dwóch aplikacji, które samodzielnie sprawują się bez zarzutu) nie tylko mogłaby zakłócać normalne działanie programów, ale również powodować uszkodzenie ważnych danych. W pewnych okolicznościach mogłoby to powodować zawieszenie pracy całego serwera.
Ochrona pamięci
Dla bezpiecznej pracy wielozadaniowej kluczowe znaczenie ma sprzętowa ochrona pamięci. Jednoczesna praca wielu aplikacji wymaga takiego zabezpieczenia pamięci, żeby jeden program nie mógł zmienić kodu lub danych innego programu.
Aby zachować spójności pracy systemu w pracy wielozadaniowej LAN Manager wykorzystuje tryb chroniony mikroprocesorów firmy Intel. Jeżeli jeden z programów próbuje coś zapisać w obszarze danych lub kodu należącym do innego programu, mikroprocesor wymusza zakończenie działania tego programu, który spowodował kolizję.
Szeregowanie z wywłaszczaniem
W sytuacji, gdy rozmaite procesy i aplikacje rywalizują o czas mikroprocesora, jest bardzo ważne, aby system operacyjny stosował metodę szeregowania aplikacji. W systemie LAN Manager zastosowano mechanizm o nazwie szeregowanie z wywłaszczaniem. Umożliwia on programowi szeregującemu lub przydzielającemu usunięcie Jednego programu z jednostki centralnej i przydzielenie jej innemu programowi, zgodnie z dynamicznym, wielopoziomowym schematem priorytetów. Takie rozwiązanie ma trzy zalety. Po pierwsze, zapewnia rozsądny przydział czasu mikroprocesora dla poszczególnych procesów uruchomionych w systemie. Po drugie, ponieważ decyzja o zwolnieniu procesora jest podejmowana na poziomie systemu operacyjnego, a nie na poziomie aplikacji, to system jest zabezpieczony przed zablokowaniem przez aplikację, która wpadła w pętlę. Po trzecie, takie podejście uwalnia programistów od zajmowania się sposobem dzielenia czasu procesora.
Windows for Workgroups
Windows for Workgroups jest produktem firmy Microsoft, będącym połączeniem systemu Windows oraz oprogramowania umożliwiającego pracę w sieci równorzędnej peer-to-peer. System ten umożliwia łatwe połączenie komputerów w sieć, dzielenie się ze sobą informacjami przez użytkowników oraz wspólną pracę, możliwe jest przesyłanie poczty elektronicznej (e-mail) do współpracowników, współdzielenie plików i drukarek.
Komputer wyposażony w procesor 80386 lub nowszy, na którym uruchomiono Windows for Workgroups, może pełnić rolę serwera i dzielić się swoimi zasobami (plikami, drukarkami) z innymi użytkownikami sieci. Każdy inny komputer z uruchomionym Windows for Workgroups, podłączony do sieci, może korzystać z tych zasobów jako klient. Produkt firmy Microsoft kompatybilny jest m.in. z Novell NetWare i obsługuje protokół komunikacyjny IPX/SPX. Wraz z systemem Windows for Workgroups dostarczany jest szereg sieciowych aplikacji i programów użytkowych, jak np.: program Chat, służący do szybkiej wymiany informacji między użytkownikami za pomocą klawiatury. Windows for Workgroups zawiera również:
Microsoft Mail - program do obsługi poczty elektronicznej, który umożliwia czytanie, tworzenie i wysyłanie wiadomości oraz plików do współużytkowników sieci,
Schedule+, czyli terminarz, za pomocą którego można zarządzać rozkładem dnia użytkowników,
Network DDE, czyli dynamiczna wymiana danych. Pozwala tworzyć złożone dokumenty, w których zawarte są współdzielone dane, znajdujące się na różnych stacjach sieci,
Security - mechanizmy bezpieczeństwa, które chronią współdzielone zasoby przed dostępem nieupoważnionych użytkowników.
Windows NT
Windows NT został zaprojektowany z myślą o pełnym wykorzystaniu możliwości systemów komputerowych klasy desktop, a także z zamiarem umożliwienia tworzenia aplikacji wykorzystujących te możliwości. Windows NT to 32-bitowy system operacyjny z graficznym interfejsem użytkownika, cechujący się wielozadaniowością z wywłaszczaniem i ochroną pamięci, realizujący wieloprocesorowość symetryczną i posiadającym mechanizmy sieciowe.
Windows NT w pełni wykorzystuje 32-bitową architekturę procesorów, może zatem przetwarzać większe liczby, obsługiwać większą przestrzeń adresową i dłuższe instrukcje. Podnosi to sumaryczną przepustowość, uwarunkowaną wydajnością procesora oraz szybkością transferu danych i czasem dostępu do pamięci.
Wieloprocesorowość symetryczna umożliwia systemowi Windows NT korzystanie z wielu procesorów zamontowanych w jednym komputerze. Systemy wieloprocesorowe stosowane są już od pewnego czasu, przy czym najczęściej każdy procesor wykorzystywany jest do wykonywania określonych zadań, np. sieciowych operacji wejścia/wyjścia. Nazywa się to wieloprocesorowością niesymetryczną każdy procesor desygnowany jest do konkretnych zadań i kiedy zakończy ich realizację, pozostaje bezczynny. Natomiast system, realizujący wieloprocesorowość symetryczną - przydziela zadania każdemu procesorowi dynamicznie, tzn. że gdy któryś z procesorów zakończy wykonywanie swoich zadań, system przydzieli mu kolejne. System ten jest trudniejszy w realizacji, cechuje się jednak dużą wydajnością. Mechanizmy sieciowe w systemie Windows NT są zgodne z usługami sieciowymi systemów Windows for Workgroups, Microsoft LAN Manager i Windows NT Advanced Server. Czyli komputery pracujące pod nadzorem systemu Windows NT mogą współdzielić katalogi, pliki i zasoby, mają zaimplementowane wsparcie dla protokołów NetBios, NetBEUI i TCP/IP , a także IPX/SPX firmy Novell
Do obsługi interfejsu sieciowego Windows NT używa specyfikacji Microsoft Driver Interface Specification (NDIS). Umożliwia ona producentom kart sieciowych tworzenie dla nich sterowników programowych, zgodnych z NDIS. Użytkownicy, którzy zakupią kartę zgodną ze specyfikacją NDIS, mogą być pewni, że będzie ona współpracowała poprawnie z Windows NT. NDIS może obsługiwać różne karty sieciowe w jednym systemie, co umożliwia dostęp do sieci różnych typów.
System Windows NT spełnia wymagania bezpieczeństwa Departamentu Obrony USA o poziomie bezpieczeństwa C2, który cechuje się następującymi wymaganiami:
użytkownicy mają specjalne konta, wymagające rejestrowania się z podaniem hasła. Konto zawiera zapisy różnych czynności podejmowanych przez użytkownika, takich jak np. logowanie się i wylogowanie z sieci oraz odwołania do plików. Służy to celom kontroli. Śledzone są również czynności dotyczące zarządzania, np. zmiany kont użytkowników lub parametry pracy serwerów.
administratorzy i użytkownicy mogą sterować dostępem do plików, katalogów, zasobów (np. drukarek) swoich własnych systemów.
administratorzy systemu mogą śledzić kontrolowane wydarzenia.
użytkownicy nie mogą analizować zawartości pamięci operacyjnej.
Ponieważ Windows NT pozwala na współdzielenie plików i zasobów, kwestie zabezpieczeń są istotne , jeśli do komputera ma dostęp wielu użytkowników. Administratorzy i użytkownicy muszą mieć możliwość zabezpieczenia współdzielonych plików przed nieupoważnionym wykorzystaniem. Zapewnienie bezpieczeństwa wiąże się z koniecznością wykonania pewnych czynności natury administracyjnej. Muszą być nadane odpowiednie uprawnienia dotyczące współdzielonych katalogów, a administratorzy muszą utworzyć konta wymagające podania hasła, na które - w razie potrzeby -nałożone są dodatkowe ograniczenia możliwości rejestrowania się użytkownika.
Windows NT ma również mechanizmy ochrony systemów plików, które wykrywają i eliminują uszkodzone sektory na dyskach twardych oraz realizują ponowne transakcje, które zapisane zostały niekompletnie - z powodu przerwy w zasilaniu systemu. W celu zabezpieczenia przed skutkami uszkodzenia sektorów, tworzone są kopie danych mających istotne znaczenie dla pracy systemu.
Nieco bardziej rozbudowanym systemem jest Windows NT Advenced Server , który udostępnia wszystkie możliwości systemu Windows NT oraz dodatkowo obejmuje m.in. większy stopień kontroli nad administrowanymi domenami i bardziej zaawansowane mechanizmy odporności na awarie, m.in. wsparcie dla systemu RAID poziom 5. Takie narzędzie jak np. Remote Access Server umożliwia administratorom zdamy dostęp i kontrolę systemów poprzez asynchroniczne linie telefoniczne oraz sieci ISDN i X. 25.
Windows 2000
Windows 2000 został wydany jako cztery oddzielne produkty:
Windows 2000 Profesjonal - jako następca Windows NT 4.0 - stacja robocza (projektowany dla komputerów osobistych)
Windows 2000 Server - zastępuje Windows NT 4.0 Server. W nowych instalacjach obsługuje dwudrożne, symetryczne przetwarzanie wieloprocesorowe (SMP - Symetric multiprocessing). Jeśli jest instalowany jako rozbudowa NT 4.0, to może obsługiwać czterodrożny SMP.
Windows 2000 Advanced Server - następca Windows NT 4.0 Enterprice Edition. W nowych instalacjach od razu obsługuje czterodrogowy SMP, natomiast jeżeli jest rozbudową NT 4.0 Enterprice, to może obsługiwać ośmiodrożny SMP, podobnie jak jego poprzednik Advanced Server potrafi wykorzystywać duże pamięci fizyczne i współpracować z technologiami grupowania (clustering) oraz równoważenia obciążeń (load balancing).
Windows 2000 Datacenter Server - nowość w ofercie Microsoftu, jest systemem operacyjnym obsługującym technologie szesnastodrożnego SMP, grupowania oraz równoważenia obciążeń. Potrafi wykorzystać 64GB pamięci fizycznej.
Pierwsze pogłoski na temat Windows 2000 pojawiały się już w 1997. Zresztą: termin wydania Windows 2000 (wtedy NT 5.0) był przewidywany na jesień 1998. Dlaczego tak długo? Programiści mieli dużo kłopotów z ActiveDirectory, bugami (nie chciano powtórzyć błędu z NT 4.0), wydawaniem kolejnych ServicePacków dla NT4. Poza tym, Windows 2000 miał już łączyć rodziny NT i 9x - to w końcu okazało się niemożliwe. Są jeszcze dwa powody dla których Windows 2000 został wydany tak późno:
sprzęt, którego wymaga system, dopiero w 2000 roku staniał na tyle, by móc mówić, że jest ogólnodostępny.
Microsoft chciał wprowadzić nowe windows, dopiero gdy administratorzy uporają się ostatecznie z Y2K.
Dlaczego Windows 2000, a nie NT 5.0 W listopadzie'98 Microsoft optymistycznie zakładał, że uda się mu połączyć w NT 5.0 rodzinę 9x i NT. Wtedy nie kontynuowano by linii Win9x., więc nadaje Windows NT 5.0 nazwę: Windows 2000 (by podkreślić, że system jest dla zwykłego użytkownika).
Nad Windows 2000 pracowano prawie 4 lata (nad NT4.0 - niecałe 2 lata), zespół tworzący liczył 2000 osób (nie tylko programistów) - czego rezultatem jest 27 milionów linii kodu (NT4 - 16mln, Win98 - 22mln). Prawie pięciokrotnie zredukowano sytuacje, kiedy trzeba zrestartować system (z 92 na 20), i co ucieszy najbardziej: liczba BSOD (Blue Screen of Death - niebieski ekran będący wynikiem padu systemu) spadła z 30 do 1.
Wydano 3 betawersje Win 2000 (wcześniej NT 5.0) oraz 3 wersje RC (Release candidat) Wersja Gold ma numer kompilacji 2195 (ostateczna wersja NT 4.0 - 1381, więc Windows 2000 Gold jest 814 kompilacją) dzięki czemu wyeliminowano ponad 17.000 błędów i obsługuje oficjalnie 9000 urządzeń.
Nowe cechy sieciowe
Podczas planowania, projektowania i rozbudowy sieci opartej na technologii firmy Microsoft należy brać pod uwagę liczne cechy, które posiada każdy z wymienionych wyżej systemów operacyjnych. Zostały tutaj zastosowane nowatorskie rozwiązania takie jak Active Directory, DDNS (Dinamic domain name services), czy IntelliMirror.
Active Directory - technologia wychodząca naprzeciw użytkownikom chcącym z jednego konta efektywnie zarządzać wszystkimi zasobami sieci oraz chcącym mieć przejrzysty dostęp do potrzebnych elementów. Activer Directory jest strukturą herarhiczną, tzn. każdy fragment zasobów informatycznych przedsiębiorstwa może znaleźć odbicie w logicznie skonstruowanym systemie. Wszystkie elementy są łatwe do zlokalizowania i zarządzania. Głównymi modułami, z których konstruuje się Active Directory sa:
Domeny - będące elementami Active Directory, mogą składować miliony obiektów, np.: użytkownicy, grupy, drukarki itp.
Kategorie obiektów możliwych do składowania w Active Directory definiuje się w schemacie, który można rozbudowywać. Nie ma problemu z jego rozszerzeniem w sposób umożliwiający obsługę dodatkowych obiektów i usług. Dzięki elastyczności systemu możemy w nim przechowywać dodatkowe struktury danych, czyniąc go bardziej użytecznym.
Moduły organizacyjne - jest to drobniejszy podział zasobów sieciowych od tego co oferują domeny. Tworzy się je celem przyszłego odwzorowania w przestrzeni adresowej domeny. Dzięki nim możliwe jest zbudowanie wygodnej struktury hierarchicznej użytkowników, grup, współużytkowanych zasobów i innych istotnych informacji.
Drzewa - podobnie do modułów organizacyjnych, służą lepszej organizacji przestrzeni adresowej Active Directory. Są to struktury hierarchiczne domen Windows 2000. Korzeń drzewa stanowi pierwsza domena utworzona w Windows 2000, natomiast każda następna domena jest jej domeną potomną i może mieć swoje domeny niższego rzędu (relacja przodek/następca).
Jedną z zalet hierarchicznej struktury domen jest możliwość dziedziczenia niektórych atrybutów od domen nadrzędnych, np.: dołączając domenę do drzewa, wyposażamy ją we wspólne elementy konfiguracyjne rodzica: katalog globalny i schemat. System ochrony nowo utworzonej domeny jest domyślnie autonomiczny wobec struktury nadrzędnej. W zależności od potrzeb istnieje możliwość administracji drzewem w sposób mniej lub bardziej rozproszony lub całkowicie scentralizowany.
Lasy - są to struktury utworzone więcej niż z jednego drzewa o indywidualnej, charakterystycznej dla siebie przestrzeni adresowej. Między domenami tworzącymi korzenie drzew tworzy się przechodnią relację upoważnienia, co automatycznie pozwala współużytkować zasoby wszystkich domen stanowiących las. Wszystkie drzewa w lesie mają jednakowy schemat, wspólną konfigurację i katalog globalny.
Ośrodki (Lokalizacje) - opisują przestrzenie dobrych połączeń sieciowych. Kiedy lokalizacje są skonfigurowane w Active Directory, można im przypisać jedną lub kilka odrębnych sieci TCP/IP. Podsieci wybrane do jednego ośrodka powinny charakteryzować się szerokim pasmem przenoszenia, a przepustowość połączeń między nimi winna być co najmniej 512Kb/s. W celu utrzymania synchronizacji wszystkie kontrolery domen wymieniają między sobą informacje o wszelkich zmianach (generowanie dodatkowego ruchu w sieci).
Katalog globalny - dostarcza informacji o własnościach obiektów innych domen, jest on automatycznie budowany przez Active Directory. Jego pozycje odzwierciedlają wszystkie obiekty oraz własności składające się na drzewo lub las. Nie jest jednak superdomeną, łączącą po prostu wszystkie partycje domenowe. Elementami katalogu globalnego nie są obiekty i własności, ale jedynie podzbiory cech obiektów, istotne dla całej sieci.
System bezpieczeństwa. Jądrem układu bezpieczeństwa Windows 2000 jest Active Directory, który zawiera mechanizmy szczegółowej kontroli dostępu oraz dziedziczenia i delegowania zadań administracyjnych ; pozwala na realizację skutecznej i elastycznej strategii ochrony zasobów bez obnizżania użyteczności sieci.
Windows NT 3.x i 4.0 nie oferowały bardzo szerokiej gamy możliwości sterowania dostępem, czego skutkiem była konieczność zbyt ogólnej lub nadmiernie szczegółowej kontroli.
Windows 2000 zawiera kilka ważnych komponentów rozszerzających arsenał administratora systemu:
Edytor konfiguracji zabezpieczeń SCE (Security Configuration Editor)
Administrator Konfiguracji Zabezpieczeń SCM (Security Configuration Manager)
Protokół NTLM (Windows NT LAN Manager)
Protokół Kerberos
Szyfrowanie metodą klucza publicznego.
Edytor konfiguracji zabezpieczeń SCE konsoliduje zarządzanie ustawieniami ochronnymi Windows 2000 oraz zapewnia łatwy w użyciu, jednolity interfejs użytkownika. Wartości wszystkich parametrów bezpieczeństwa mogą być zapisane do pliku szablonu. W szablonie edytora znajdują się następujące węzły:
Reguły tworzenia kont (Account policies)
Reguły lokalne (Local policies)
Dziennik zdarzeń (Event logs)
Grupy ograniczone (Restricted groups)
Rejestr (Registry)
System plików (File system)
Obiekty Active Directory (Active Directory objects)
Zastosowanie SCE upraszcza ustawianie parametrów ochronnych. Całą pracę wykonujemy poprzez nawigację poszczególnych węzłów i zmianę odpowiednich ustawień.
Administrator konfiguracji zabezpieczeń SCM wykorzystuje szablon do konfiguracji i analizy zawartych w nim parametrów. Ustawienie własności konkretnego komputera polega na przetworzeniu wszystkich instrukcji z odpowiedniego szablonu przez co nawet złożone i rozległe zmiany systemu zabezpieczeń stają się proste w realizacji.
Windows 2000 obsługuje dwa główne protokoły identyfikacyjne: NTLM oraz Kerberos, który jest aktualnie preferowanym protokołem do ustalania tożsamości. NTLM jest jednak nadal żywotny i w pełni wywiązujący się ze swojej roli w sieciach działających pod kontrolą NT 3.x lub 4.0.
Zdolność Windows 2000 do jednoczesnego obsługiwania różnych protokołów identyfikacyjnych ułatwia migrację do nowego systemu (instalacja Windows 2000 na serwerze nie pociąga za sobą wymiany systemu na stacjach roboczych).
Protokół Kerberos jest preferowanym protokołem dla systemu Windows 2000. Jego zalety nad NTLM wyrażają się następującymi cechami:
jest protokołem niezależnym od platformy i powszechnie implementowanym w systemach operacyjnych ;
może nawiązać sesję z innymi komputerami znacznie szybciej niż NTLM;
wszystkie relacje upoważnienia są przechodnie;
obsługuje delegowanie procedur identyfikacyjnych;
jest protokołem bazującym na zgodności i współdzieleniu tajności, który korzysta z szyfrowania symetrycznego.
Szyfrowanie metodą klucza publicznego charakteryzuje się stosowaniem pary kluczy. Jeden z nich, prywatny, pozostaje poufny, drugi nazywany jest kluczem publicznym. Sposób ten jest powszechnie stosowany w Internecie.
Proces szyfrowania odbywa się w następujący sposób:
Wydawca poddaje kod działaniu jednokierunkowej funcji mieszającej, której efektem działania jest ciąg danych o ustalonej długości (streszczenie).
Wydawca koduje streszczenie kluczem prywatnym.
Odbiorca, który otzyma
Nowe cechy jakimi się odznacza Windows 2000:
nowe GUI, ładniejsze niż w Windows 98. Możliwość dostosowania paska narzędzi explorera. Spersonalizowane menu. Nowe efekty wizualne.
prawdziwy i naprawdę porządny Plug'n'play który działa nawet w przypadku urządzeń niezgodnych z PnP
obsługa oszczędzania energii (choć ta sprawia największe problemy, bo Win2000 wymaga stuprocentowej zgodności z najnowszym ACPI), możliwość uśpienia i hibernacji systemu.
nowe narzędzia, których tak brakowało w NT4: defragmentator, menedżer urządzeń, obsługa faxu, backup (stworzony przez seagate, tym razem obsługuje nie tylko steamery)
stare narzędzia z NT4, mocno ulepszone: task manager (6 poziomów priorytetów do przydzielania procesom), diks administrator, disk cleanup - wszystko to zgrupowane w nowym wynalazku: Computer Management Console.
Obsługa multimediów: DirectX 7.0a, nowy odtwarzacz multimedialny, nowy CD-player, obsługa DVD (choć bez programu), podgląd filmów i dźwięków z lewej strony okna explorera. Obsługa nowego sprzętu: FAT32, NTFS5, USB, MMX, DVD, AGP, FireWire, UDMA66 itd.
uproszczone do maksimum zarządzanie użytkownikami i prawami dostępu do zasobów.
nowe mechanizmy obsługi sieci i połączeń dial-up.
mechanizmy ochrony plików systemowych. Niektóre pliki Win2000 pokaże tylko administratorowi - i to tylko wtedy, gdy zaznaczy odpowiednią opcję i przeczyta ostrzeżenie. Drugi mechanizm ochrony to natychmiastowe odzyskiwanie plików wymazanych z folderu winnt i winnt\system32.
Windows 2000 umie już sam się logować jako określony użytkownik.
nowym narzędziem jest Computer Management Console - prawie wszystkie narzędzia administracyjne (manager serwisów, zarządzanie użytkownikami, defragmentator, konfiguracja IP, telnet, event Viewer, Disk Administrator i inne) zgrupowane są w jednym oknie.
dużo bardziej rozbudowany jest też Panel Sterowania, pojawił się Device manager i Add new hardware Wizard. Add/remove software Wizard potrafi nawet określić jak często uzywana jest dana aplikacja.
Kompatybilność i stabilność
W zasadzie jeśli program chodzi pod Win 9x i NT to powinien chodzić też z Windows 2000, ale oczywiście pewności nie ma. Wyjątkiem są:
programy narzędziowe (których nieuruchamianie powinno leżeć we własnym interesie - mogą zniszczyć dane)
programy DOS i Windows 3.1 - NT/2000 odnoszą się do nich dosyć restrykcyjnie i nie zawsze pozwalają im się uruchamiać
gry - pełna dowolność, zgadywanie czy dana gra ruszy podobne jest do zabawy w ruletkę - należy to sprawdzić empirycznie.
Jeśli chodzi o sprzęt: to największa bolączka Win2000: nie każdy sprzęt będzie działał, wciąż mało jest driverów, bardzo duże problemy z modemami nie mówiąc już o sprzęcie takim jak akceleratory Voodoo, Tunery TV, dekodery MPEG czy DVD-ROMy.
Już stabilność bety3 była duża, system zawiesił się tylko 2 razy. Aplikacjom w zawieszaniu systemu przeszkadza umiejętnie Dr. Watson i Machine Debug Manager, a także sama konstrukcja jądra i polityka przydzielania zasobów i multitaskingu pod Windows 2000. Jeśli już system się zawiesza, to jest to konflikt sprzętowy - źle napisany driver, niezgodność z ACPI, zła konfiguracja dostępu do zasobów, podkręcony procesor, fizyczne uszkodzenie dysku, błąd na dysku uszkadzający jakiś krytyczny plik systemowy.
Windows 2000 - plusy i minusy
Windows 2000 - minusy
Pierwsza niedogodność jest oczywista: wymagania sprzętowe. Microsoft podaje że wystarczy P166/32RAM i dysk 1GB - ale do komfortowej pracy trzeba 128 RAM, procesor 400-500MHz i dysk z przynajmniej 30% wolnej przestrzeni
system już na starcie zajmuje ponad 600MB (nie ma instalacji niestandardowej!) a i tak potem puchnie, sam rejestr tuż po instalacji ma prawie 10MB, po zainstalowaniu Worda2000, Homesite, Paintshoppro i kilku drobniejszych programów urósł do 15MB.
To pewnie efekt polityki Microsoftu, wstydzącego się swego niegdyś flagowego produktu - DOS. VDM (wirtualna maszyna DOS) działa dużo gorzej niż jej odpowiednik z NT4.0, nie obsługuje niektórych programów i ma duże trudności z displayem (zarówno w trybie okienkowym jak i pełnoekranowym)
Windows 2000 - plusy
Plug and Play: szybkie i dokładne wykrywanie nawet sprzętu nie-PnP, dynamiczna obsługa urządzeń (można odłączać sprzęt bez wyłączania systemu), instalacja driverów bez konieczności restartu, obsługa tzw. Legacy devices (czyli urządzeń m.in. ISA
duża stabilność pracy (praktycznie brak zawieszeń systemu)
obsługa SMP (czyli 2 procesorów - dotyczy wersji professional, wyższe wersje obsługują ich nawet 32)
kontrola nad całym komputerem bez angażowania użytkownika - ZAW (Zero Administration Windows) - system wie wszystko: jakie programy były używane i ile razy, który program zmienił rejestr, która konfiguracja sprzętowa chodziła bez zarzutu, jak często używasz danej aplikacji itd.
dużo większe możliwości konfiguracji, plus zgrupowanie wszystkich możliwych opcji w Panelu Sterowania
konsola administracji systemu: a w niej narzędzia niedostępne użytkownikowi zwykłych Windows - konfiguracja serwisów, szybki defragmenter, dziennik zdarzeń, task manager, możliwość nadawanie priorytetów i wiele innych bardziej specjalizowanych narzędzi
obsługa systemu plików NTFS (w wersji 4 i 5), więc oprócz mniejszych klusterów, mniejszej podatności na defragmentację i większej szybkości - szyfrowanie plików na dwa sposoby, kompresja plików i folderów w locie, kontrola dostępu do dysku w równym stopniu co w UNIXie lub Novellu
nowy aplet modemów z Panelu Sterowanie oraz nowe Internet Connection Wizard i Dial Up Connection, wiele bardziej zaawansowane niż w Win98, ale równie łatwe w obsłudze.
Windows 95
Windows 95 jest jednym z produktów firmy Microsoft, posiada on wiele udogodnień sieciowych, m.in.:
otwarta, wysokowydajna 32-bitowa architektura sieciowa, na którą składają się: sieciowe oprogramowanie klienta, software rozdziału zasobu plików i drukarek, protokoły sieciowe oraz sterowniki kart sieciowych,
system pozwalający na równoczesne korzystanie z różnorodnych drzew katalogów, protokołów oraz sterowników kart sieciowych w celu zintegrowania na jednym komputerze heterogenicznych środowisk sieciowych,
obsługuje przemysłowe standardy komunikacyjne i systemy zarządzania, w tym: TCP/IP, IPX, SNMP i DMI,
jest zintegrowany z sieciami Novell NetWare - zawiera program Microsoft Client for NetWare Networks zapewniający dostęp do serwerów NetWare generacji 2.x, 3.x oraz 4 .x,
zapewnia integrację z Windows NT Server współpracując z systemami typu klient-server,
ma wbudowane funkcje wspomagające zarządzanie systemami - obejmują one możliwość zdalnego administrowania, monitorowania oraz podglądu konfiguracji komputerów PC znajdujących się w sieci,
posiada ulepszony dostęp przez sieci komputerowe korzystające z połączeń telefonicznych (dial-up network access) - pozwala na zdamy dostęp do serwerów sieci Microsoft Network, Novell NetWare oraz Unix. Zapewnia również obsługę protokołów PPP i SLIP,
udoskonalono także drukowanie w sieci, ułatwiając użytkownikom połączenia i konfigurowanie drukarek pracujących w środowisku sieciowym.
Windows98
System Windows 98 jest produktem firmy Microsoft posiadający wiele udoskonaleń obsługi sieci w porównaniu ze swoim poprzednikiem.
W systemie Windows 98 udoskonalono wygląd i założenia projektowe systemu Windows 95, aby łatwiej na nim pracować, a jego nowy interfejs daje szybszy niż do tej pory dostęp do internetu.
Poza tymi udoskonaleniami Windows 98 posiada wszystkie zalety swojego poprzednika, czyli Windows 95.
Edycja Windows 98SE przyniosła poprawkę wielu błędów ale nadal nie jest stabilna tak jak to się dzieje w rodzinie Windows NT, a wpływ na to ma nadal częściowe 16 bitowe jądro (jest to koszt zgodności z poprzednimi wersjami Windows)
Windows Me
Nowa odsłona Windows nie wykazuje poważnych wad, lecz nie należało ich się spodziewać ze względu na konserwatywne wstępne założenia producenta. Posiada dodatkowe narzędzia i po części zabezpiecza na wypadek nieumyślnych modyfikacji systemu przez użytkownika.
Po porównaniu z poprzednimi wersjami Windows oraz przeglądzie aplikacji zawartych w wersji Me nasuwa się wątpliwość, czy opłaca się aktualizowac system, dodatki nie są aż tak interesujące, jak można by się spodziewać a odpowiedniki większości z nich można mieć bezpłatnie lub za niewielką cenę. Nowe zabezpieczenia mają pewne wady.
Przywracanie systemu Wprowadzając funkcję przywracania systemu, projektanci Windows Me nawiązują do tradycji zapoczątkowanej w Windows 95 narzędziem ERU (Emergency Recovery Utility) i kontynuowanej w Windows 98 programem ScanReg. Funkcja ta tworzy zapasowe kopie plików systemowych w regularnych odstępach czasu i pozwala w sytuacjach awaryjnych odtwarzać poprzedni
stan systemu.
Przez cały czas działa w tle (za pośrednictwem narzędzia Harmonogram zadań) program PCHSCHD.EXE, który codziennie sporządza awaryjną kopię określonych plików. W menu Start (Start | Programy | Akcesoria | Narzędzia systemowe) znajduje się polecenie Przywracanie systemu (odnośnik do pliku RSTRUI.EXE). Pozwala ono w każdej chwili odtworzyć stan systemu na podstawie zarchiwizowanych danych z określonego czasu.
Obsługa kompresji ZIP Kompresja w formacie ZIP, którą w przypadku Windows 98 Microsoft oferował jako składnik pakietu Plus!, stała się standardowym narzędziem Windows Me. Jednak nie jest kopiowana na dysk podczas standardowej instalacji, w której użytkownik nie wybiera ręcznie żądanych elementów systemu.
Celem zabiegów kosmetycznych wykonanych w Windows Me było dopasowanie obsługi systemu do Windows 2000. Skromne zmiany względem poprzednika (Windows 98) dotyczą przede wszystkim pomocy w trybie online, funkcji wyszukiwania, menu Start, wyglądu Otoczenia sieciowego oraz rozszerzonych lub uproszczonych opcji folderów.
Przydatna okazuje się nowa wersja komunikatu, który pojawia się podczas zamykania systemu, gdy jest do niego podłączony inny użytkownik sieci - system podaje nazwę jego komputera. System pomocy dzięki przestawieniu na format HTML stał się bardziej przejrzysty. Jeśli dostępne jest połączenie internetowe, pomoc okazuje się bardziej elastyczna (choć spowolniona), gdyż może być aktualizowana nowymi informacjami.
Z technicznego punktu widzenia opcje milenijnej edycji Windows polegają przede wszystkim na wartościach w Rejestrze. Te, które dotyczą interfejsu użytkownika, można zrealizować za pomocą krótkich skryptów.
Nie wiadomo, dlaczego producent zdecydował się na tak radykalny krok jakim jest usuniecie trybu MS-DOS. Pozbycie się DOS-u miało zwiększyć stabilność i przyspieszyć wczytywanie systemu. Bez środowiska DOS Windows uruchamia się trochę szybciej. Jednak zyskanie kilku sekund nie jest wystarczającą przyczyną, aby trwale skreślić takie elementy jak Ramdrive czy Ansi. Co najmniej standardowe sterowniki, takie jak Ramdrive, Ansi czy Emm386, nie szkodziły Windows 95 i 98, a dały wielu użytkownikom duże korzyści. Sporo czynności naprawczych można wykonać tylko w DOS-ie. Na dodatek także Windows Me uruchamia się na podstawie rdzenia DOS-u. Tym bardziej dziwi decyzja o zablokowaniu dostępu do tego systemu.
Jeśli Windows Me ma zapewniać kompatybilność z poprzednikami, musi dysponować plikami CONFIG.SYS i AUTOEXEC.BAT. Niemniej są one reprezentowane odpowiednimi zapisami w Rejestrze. Podczas wczytywania rdzenia DOS-u (IO.SYS) zbiory te są ignorowane.
Windows ME - plusy i minusy
Windows ME - minusy
zawieszalność, czyli nadal brak pracy stabilnej na którą każdy z użytkowników oczekuje od systemu operacyjnego.
system nadal jest, nakładką na DOSa.(16bitowy OS z 32bitowymi protezami).
nie zmienione od Win98 SE mechanizmy winsock i DialUp Networking
nowy i wolny system pomocy oparty w całości na HTML, Java, ActiveX
Windows ME - plusy
mniejsze wymagania sprzętowe - zarówno jeśli chodzi o osiągi sprzętu, jak i jego markę - chodzą drivery nawet z win95
IE 5.5 - najnowsza wersja IE z ulepszoną obsługą XML i arkuszy stylów, podglądem wydruku.
DirectX. windows ME zawiera wersją 7.0
większa kompatybilność programowa:
dwie całkiem nowe funkcje: AutoUpdate, bez angażowania użytkownika system sam się uaktualnia, ładny system pomocy.
IBM
Firma IBM (Intemational Business Machines Corp.) rozpoczęła swoją działalność w roku 1911 jako Computing- Tabulating-Recording Co. (CTR).
Dopiero w roku 1914, pod kierownictwem Thomasa J. Watsona'a, CTR przekształcił się w IBM. W 1953 roku firma ta zaprezentowała swój pierwszy komputer - model 710 , a wkrótce potem model 650, który stal się najpopularniejszym urządzeniem lat pięćdziesiątych. Lecz swój największy sukces firma odniosła prezentując w roku 1981 komputer osobisty IBM PC. Systemy tego rodzaju, sprzedawane początkowo w sieci magazynów ComputerLand, wykreowały cały rynek kompatybilnego sprzętu, oprogramowania oraz usług.
Rynek komputerów osobistych wkrótce wymknął się spod kontroli IBM i został zdominowany przez producentów sprzętu kompatybilnego, oferujących tzw. klony, czyli komputery lBM-podobne.
W związku ze współzawodnictwem na rynku komputerów osobistych oraz spadkiem sprzedaży maszyn typu mainframe i pośrednich, IBM popadł na przełomie lat osiemdziesiątych i dziewięćdziesiątych w kłopoty finansowe. Firma zaczęła wycofywać się z wielkich systemów i skierowała swoje działania m.in. na projektowanie i budowę sprzętu sieciowego.
Przez lata siedemdziesiąte i osiemdziesiąte IBM forsował architekturę sieciową SNA (System Network Architecture). SNA jest hierarchiczną techniką sieciową polegającą na organizowaniu interakcyjnej współpracy sprzętu i oprogramowania, pod kontrolą programu pracującego na komputerze centralnym.
Architektura SNA przez lata dominowała w dużych systemach. Ostatnio IBM dostrzegł nowy trend, bazujący na przemysłowym wykorzystaniu przetwarzania klient-serwer. W modelu tym aplikacje komunikują się ze sobą jako równorzędne i działają na sprzęcie różnych producentów, wykorzystując wiele różnych protokołów. W latach dziewięćdziesiątych IBM kładzie nacisk na „wieloprotokołowe podejście do sieci". Netwoiking Blueprint zapewnia zgodność z protokołami TCP/IP oraz OSI. Jego częścią jest protokół sieciowy dla systemów komputerowych począwszy od desktop (OS/2) aż do mainframe, noszący nazwę Multiprotocol Transport Network (MPTN). MPTN uniezależnia aplikację od jej macierzystego środowiska sieciowego i umożliwia jej pracę w innym, jak TCP/IP, OSI lub SNA. MPTN wykonuje konwersję protokołów na bieżąco, pozwala na działanie aplikacji kłient-serwer, dopuszczając wiele protokołów.
OS/2 i Workspace OS
OS/2 jest kamieniem węgielnym strategii klient-serwer firmy IBM dla komputerów osobistych. W środowiskach sieci równorzędnej (typu każdy z każdym) działa on zarówno jako klient i serwer. Można w nim jednocześnie uruchamiać nie tylko aplikacje OS/2, ale również DOS oraz Windows. Jest to możliwe dzięki 32-bitowej, wielozadaniowej architekturze systemu operacyjnego.
Graficzny interfejs użytkownika w OS/2 nazywany jest WorkSpace Shel. Stosując Peer OS/2, użytkownicy mogą komunikować się w stylu każdy z każdym i ustanawiać dynamiczne połączenia między aplikacjami, pracującymi pod kontrolą systemu operacyjnego DOS, Windows, OS/2 czy Unix.
Workaspace OS to system operacyjny bazujący na mikrojądrze, charakteryzującym się dużą elastycznością. Wyposażony jest w podobny interfejs użytkownika jaki został użyty w OS/2. Rdzeń systemu jest 64-bitowy i może wykonywać aplikacje przeznaczone dla wielu istniejących systemów operacyjnych, takich jak DOS, Windows, Unix oraz OS/2. Mikrojądro może działać na procesorze PowerPC firmy Motorola oraz procesorach firmy Intel. System Workspace OS oparty jest na mikrojądrze Mach 3, opracowanym na uniwersytecie Camegie-Mellon University. IBM rozszerzył możliwości mikrojądra, uzupełniając go o wieloprocesorowość symetryczną zarządzanie pamięcią oraz mechanizmy bezpieczeństwa.
LAN Serwer
IBM LAN Serwer bazuje na oprogramowaniu Microsoft LAN Manager. Oba zostały opracowane przez Microsoft, lecz LAN Serwer zdecydowanie różni się obecnie od LAN Managera. LAN Serwer bazuje na systemie operacyjnym OS/2, co ma szereg zalet Po pierwsze jądro (kernel) systemu OS/2 działa na poziomie pierścienia O (Ring 0) - w trybie chronionym procesorów Intel. Gwarantuje to, że jądro systemu nie może zostać zniszczone przez jakąkolwiek aplikację, która po przekroczeniu własnego obszaru pamięci, mogłaby spowodować błędy i w konsekwencji zablokowanie realizacji innych aplikacji lub zawieszenie systemu. System ochrony pierścieniowej (ringed protection) jest hierarchiczny, a Ring O znajduje się w jego środku. Procesy działające w pierścieniu zerowym mogą dokonywać zapisów w pamięci należącej do procesów pracujących na wyższych poziomach, lecz tamte nie mogą z kolei dokonywać zapisów w pamięci wykorzystywanej przez procesy niższeoo poziomu.
LAN Serwer może zostać skonfigurowany do pracy w tle OS/2, co oznacza, że można go uruchamiać na serwerze wykorzystywanym do innych zadań - nie dedykowanym. Takie rozwiązanie jest praktyczne jedynie w małych środowiskach sieciowych, gdzie usługi oferowane przez LAN Manager'a są ograniczone do minimum.
LAN Serwer wykorzystuje, instalowany w OS/2 system plikowy HPFS/386, który posiada 32-bitowy dostęp do systemu plikowego oraz ma funkcje obsługi błędów oraz zabezpieczenia, a praca w uprzywilejowanym trybie procesora poprawia stabilność i wydajność pracy.
LAN Serwer jest głównym sieciowym systemem operacyjnym IBM, występuje
w dwóch wersjach: podstawowej (ang. Eirtry) oraz zaawansowanej (ang.
Advanced).
Obie wersje charakteryzują się następującymi własnościami:
- prosta instalacja,
- automatyczna detekcja i identyfikacja kart sieciowych,
- obsługa do czterech kart sieciowych na serwerze. Dopuszczalne są:
Ethemet, Token Ring, FDDI.
- moduł Network SignON Coordinator/2, który umożliwia proste logowanie się do różnych systemów i utrzymanie synchronizacji haseł na wielu przyłączonych lokalnie stacjach roboczych oraz komputerach głównych w centrum sieci,
- obsługa protokołów TCP/IP z transportem MPTN/2,
- obsługa protokołów TCP/IP w systemie DOS,
- graficzny interfejs użytkownika w programach administracyjnych,
- pełne wykorzystanie możliwości systemu operacyjnego OS/2 pod względem oferowanego przez ten system środowiska pracy aplikacji, bazującego na pamięci wirtualnej i funkcjonującego w trybie wielozadaniowym z wywłaszczaniem,
- użytkownik systemu klienta posiada przezroczysty dostęp do zasobów serwera.
- obsługa funkcji zdalnego wstępnego ładowania programów dla stacji roboczych pozbawionych pamięci masowej,
- możliwość współistnienia programów klientów dla systemów OS/2 i NetWare,
- obsługa mirroringu i duplexingu,
- zapewnia połączenia IBM SNA.
LAN Serwer Entry to pakiet przeznaczony dla małych i średnich firm, w których wspólne zasoby muszą być udostępniane na stacjach klientów pracujących z systemami DOS , Windows i OS/2. Wersja zaawansowana
systemu LAN Serwer doskonale nadaje się dla firm, gdzie istotne znaczenie ma zapewnienie sprawności pracy sieci. Ten system stanowi również platformę dla rozszerzeń sieci LAN Serwer, wzbogacających jego możliwości.
Zakończenie
Pomimo istnienia wielu systemów operacyjnych producenci nie mogą ustalić nadal jednego standardu sieciowego systemu operacyjnego. Po części jest to korzystne zjawisko gdyż istnieje konkurencja na rynku systemów operacyjnych, a klient może dokonać wyboru oprogramowania, które najbardziej będzie odpowiadało jego potrzebą.
Należy zauważyć również, że istnieją również systemy operacyjne specjalizowane, które mają zastosowanie tylko w wąskiej dziedzinie, np. system obsługi bankomatów.
W obecnych czasach systemy operacyjne ewaluują w stronę zastosowań internetowych, zgodnie z panującymi trendami na rynku, gdyż obecnie jest to największa sieć światowa, w której skład wchodzą różne mniejsze sieci oparte o różnorodne systemy operacyjne stosujące jedynie wspólny protokół transferu danych.
Moim zdaniem, nieważne jest jakiego systemu operacyjnego będziemy używać w przyszłości, natomiast ważne jest to aby spełniał on nasze oczekiwania co do swojej funkcjonalności, jaki i bezpieczeństwa. Myślę, że w przyszłości zostanie stworzony system łączący w sobie wszystkie zalety istniejących systemów operacyjnych.
Literatura
1. Mark Gibbs: Sieci komputerowe. Biblia użytkownika. Oficyna Wydawnicza READ ME, Warszawa 1994.
2. Wiesław Bartol, Małgorzata Lisowiec, Jan Ogłaz: Unix - kurs użytkownika. Oficyna Wydawnicza READ ME, Warszawa 1994.
3. Tom Sheldon: Wielka Encyklopedia sieci Komputerowych, Wydawnictwo Robomatic, Łódź 1995.
4. Praca zbiorowa pod redakcją Stanisława Paszczyńskiego: Podręcznik użytkownika sieci komputerowej, NASK, październik 1995,
5. Simson Garfinkel, Gene Spafford: Bezpieczeństwo w Unixe i intemecie, Wydawnictwo RM, Warszawa 1997.
6. WWW.Novell.pl
7. Zakończenie
Pomimo istnienia wielu systemów operacyjnych producenci nie mogą ustalić nadal pomimo wielkich starań jednego standardu sieciowego systemu operacyjnego. Po części jest to kożystne zjawisko gdyż istnieje konkurencja na rynku systemów operacyjnych, a klient może dokonać wyboru oprogaramowania, które najbardziej będzie odpowiadało jego potrzebą.
Należy zauważyć również, że istnieją również systemy operacyjne specjalizowane, które mają zastosowanie tylko w wąskiej dziedzinie, np. system obsługi bankomatów.
W obecnych czasach systemy operacyjne ewaulują w stronę zastosowań intemetowych, zgodnie z panującymi trendami na rynku, gdyż obecnie jest to największa sieć światowa, w której skład wchodzą różne mniejsze sieci oparte o różnorodne systemy operacyjne stosujące jedynie wspólny protokół transferu danych.
Moim zdaniem, nieważne jest jakiego systemu operacyjnego będziemy używać w przyszłości, natomiast ważne jest to aby spełniał on nasze oczekiwania co do swojej funkcjonalności, jaki i bezpieczeństwa. Myślę, że w przyszłości zostanie stworzony system łączący w sobie wszystkie zalety istniejących systemów operacyjnych.
8. Literatura
1. Mark Gibbs: Sieci komputerowe. Biblia użytkownika. Oficyna Wydawnicza READ ME, Warszawa 1994.
2. Wiesław Bartol, Małgorzata Lisowiec, Jan Ogłaz: Unix - kurs użytkownika. Oficyna Wydawnicza READ ME, Warszawa 1994.
3. Tom Sheldon: Wielka Encyklopedia sieci Komputerowych, Wydawnictwo Robomatic, Łódź 1995.
4. Praca zbiorowa pod redakcją Stanisława Paszczyńskiego: Podręcznik użytkownika sieci komputerowej, NASK, październik 1995,
5. Simson Garfinkel, Gene Spafford: Bezpieczeństwo w Unixe i intemecie, Wydawnictwo RM, Warszawa 1997.
6. WWW.Novell.pl
1
5