Protokoły sieciowe
Protokół jest to zbiór procedur oraz reguł rządzących komunikacją, między co najmniej dwoma urządzeniami sieciowymi. Istnieją różne protokoły, lecz nawiązujące w danym momencie połączenie urządzenia muszą używać tego samego protokołu, aby wymiana danych pomiędzy nimi była możliwa.
W celu komunikacji między różnymi protokołami wykorzystuje łącza (ang. gateway) - czyli urządzenia, które tłumaczącą rozkazy jednego protokołu na drugi. Należy pamiętać, że używanie łącz może spowolnić w znacznym stopniu komunikację pomiędzy systemami. Kolejnym rozwiązaniem może być skonfigurowanie komputerów w taki sposób, by wykorzystywały kilka protokołów równocześnie, jednak i to rozwiązanie może prowadzić do dodatkowego obciążania sieci.
Do najważniejszych protokołów należą:
TCP/IP
IP
SLIP
PPP
TCP/IP (ang. Transmission Control Protocol / Internet Protocol) - to zespół protokołów sieciowych używany w sieci Internet. Najczęściej wykorzystują go systemy Unixowe oraz systemy Windows, choć można stosować go również w systemach Novell NetWare. Zadanie protokołu TCP/IP polega na dzieleniu danych na pakiety odpowiedniej wielkości, ponumerowaniu ich w taki sposób, aby odbiorca mógł sprawdzić, czy dotarły wszystkie pakiety oraz ustawieniu ich we właściwej kolejności. Kolejne partie informacji wkładane są do kopert TCP, a te z kolei umieszczane są w kopertach IP. Oprogramowanie TCP po stronie odbiorcy zbiera wszystkie nadesłane koperty, odczytując przesłane dane. Jeśli brakuje którejś koperty, wysyła żądanie ponownego jej dostarczenia. Pakiety wysyłane są przez komputery bez uprzedniego sprawdzenia, czy możliwa jest ich transmisja. Może się zdarzyć taka sytuacja, że do danego węzła sieci, gdzie znajduje się router, napływa więcej pakietów, aniżeli urządzenie może przyjąć, posegregować i przesłać dalej. Każdy router posiada bufor, który gromadzi pakiety czekające na wysłanie. Gdy bufor ulegnie całkowitemu zapełnieniu, nowo nadchodzące pakiety zostaną odrzucone i bezpowrotnie przepadną. Protokół, który obsługuje kompletowanie pakietów zażąda więc wtedy ponownego ich wysłania.
IP (Internet Protocol) - to protokół do komunikacji sieciowej, gdzie komputer klienta wysyła żądanie, podczas gdy komputer serwera je wypełnia. Protokół ten wykorzystuje adresy sieciowe komputerów zwane adresami IP. Są to 32-bitowa liczby zapisywana jako sekwencje czterech ośmiobitowych liczb dziesiętnych (mogących przybierać wartość od 0 do 255), oddzielonych od siebie kropkami. Adres IP dzieli się na dwie części: identyfikator sieciowy (network id) i identyfikator komputera (host id). Istnieje kilka klasy adresowych, o różnych długościach obydwu składników. Obowiązujący obecnie sposób adresowania ogranicza liczbę dostępnych adresów, co przy bardzo szybkim rozwoju Internetu jest dla niego istotnym zagrożeniem. W celu ułatwienia zapamiętania adresów wprowadzono nazwy symboliczne, które tłumaczone są na adresy liczbowe przez specjalne komputery w sieci, zwane serwerami DNS.
SLIP (ang. Serial Line Interface Protocol) - to protokół transmisji przez łącze szeregowe. Uzupełnia on działanie protokołów TCP/IP tak, by możliwe było przesyłanie danych przez łącza szeregowe.
PPP (ang. Point to Point Protocol) - to protokół transferu, który służy do tworzenia połączeń z siecią Internet przy użyciu sieci telefonicznej i modemu, umożliwiający przesyłanie danych posiadających różne formaty dzięki pakowaniu ich do postaci PPP. Steruje on połączeniem pomiędzy komputerem użytkownika a serwerem dostawcy internetowego. PPP działa również przez łącze szeregowe. Protokół PPP określa parametry konfiguracyjne dla wielu warstw z modelu OSI (ang. Open Systems Interconnection). PPP stanowiąc standard internetowy dla komunikacji szeregowej, określa metody, za pośrednictwem, których pakiety danych wymieniane są pomiędzy innymi systemami, które używają połączeń modemowych.
Do innych popularnych protokołów sieciowych należą:
IPX/SPX
NetBEUI
FTP
NetDDE
SNMP
SMTP
CSMA/CD
DNS
DHCP
AARP
Gopher
ARP
HTTP
ICMP
IPX/SPX (ang. Internetwork Packet Exchange/Sequenced Packet Exchange) - to zespół protokołów sieciowych opracowanych przez firmę Novell. Obecnie są to jedne z najpopularniejszych protokołów, wykorzystywanych w wielu rodzajach sieci (nie tylko w systemach NetWare).
NetBEUI (ang. Network BIOS Extended USER Interface) - to protokół transportu sieci LAN, wykorzystywany przez systemu operacyjne firmy Microsoft. NetBEUI jest w pełni samodostrajającym się protokołem i najlepiej działa w małych segmentach LAN. Protokół ten, ma minimalne wymagania, jeśli chodzi o użycie pamięci. Zapewnia bardzo dobrą ochronę przed błędami występującymi w transmisji, oraz powrót do normalnego stanu w przypadku ich wystąpienia. Wadą NetBEUI jest to, że nie może on być trasowany i nie najlepiej działa w sieciach typu WAN.
FTP (ang. File Transfer Protocol) - to protokół służący do transmisji plików. Przeważnie usługę ftp stosuje do przesyłania danych z odległej maszyny do lokalnej lub na odwrót. Protokół ten działa w oparciu o zasadę klient-serwer i korzystanie z usługi polega na użyciu interaktywnej aplikacji. Technologia FTP zapewnia ochronę stosując hasła dostępu.
NetDDE - protokół wykorzystujący interfejs NetBIOS (ang. Network Basic Input/Output System), rozszerza możliwości DDE, aby aplikacje pracujące na różnych maszynach mogły miedzy sobą wymieniać dane.
SNMP (ang. Simple Network Managment Protocol) - to podstawowy protokół służący do zarządzania siecią. SNMP (RFC 1157) stanowi standard internetowy, jeżeli chodzi o zdalne monitorowanie i zarządzanie routerami, hostami oraz innymi urządzeniami sieciowymi.
SMTP (ang. Simple Mail Transfer Protocol) - jest podstawowym protokołem realizującym transfer poczty elektronicznej, SMTP należy do rodziny protokołów TCP/IP i służy do wysyłania poczty elektronicznej. Jego definicję zawierają dokumenty STD 10 oraz RFC 821.
CSMA/CD (ang. Carrier Sense Multiple Access with Collision Detection) - to metoda wielodostępu do łącza sieci z wykrywaniem kolizji oraz badaniem stanu kanałów, stosowana w sieciach Ethernet w celu przydziału nośnika dla poszczególnych węzłów. Węzeł zaczyna nadawanie, kiedy nie wykryje w sieci transmisji z innego węzła, sprawdzając przez cały czas, czy nie doszło do kolizji. W przypadku zaistnienia kolizji próba transmisji zostaje ponowiona po przerwie o losowej długości.
DNS (ang. Domain Name Service) - protokół używany w sieci Internet obsługujący system nazywania domen. Umożliwia on nadawanie nazw komputerom, które są zrozumiałe i łatwe do zapamiętania dla człowieka, tłumacząc je na adresy IP. Nazywany czasem usługą BIND (BSD UNIX), DNS oferuje hierarchiczną, statyczną usługę rozróżniania nazw hostów. Administratorzy sieci konfigurują DNS używając listę nazw hostów oraz adresów IP. DNS nie posiada centralnego repozytorium przechowującego adresy IP maszyn w sieci. Dane dotyczące tych adresów dzielone są między wiele komputerów, zwanych serwerami DNS (nazw domenowych), które są zorganizowane hierarchicznie w formie drzewa. Początek drzewa nazywany jest korzeniem. Nazwy najwyższego poziomu składają się z dwuliterowych domen narodowych opartych na zaleceniach ISO 3166 (wyjątek stanowi brytyjska domen uk). Nadrzędna domena narodowa w Polsce oznaczona jest przez pl. Jeżeli chodzi o domeny trzyliterowe, ich znaczenie jest następujące:
com - organizacje komercyjne
gov - agencje rządowe
edu - instytucje edukacyjne
mil - organizacje wojskowe
org - pozostałe organizacje.
net - organizacje, których działalność dotyczy sieci komputerowych
Do każdego węzła w drzewie przypisana jest informacja, zawierająca kolejne nazwy węzłów oddzielone kropkami, poczynając od określonego węzła a skończywszy na korzeniu. Przykładowo etykietą węzła agh w Akademi Górniczo-Hutniczej będzie agh.edu.pl. Komputer w Japonii, który nadaje pocztę do odbiorcy znajdującego się w tym węźle, wyśle prośbę o rozstrzygnięcie nazwy do lokalnego serwera nazw (DNS) znajdującego się najbliżej nadawcy. Jeżeli serwer ten nie posiada tej informacji, skieruje zapytanie do kolejnych serwerów, a te, jeżeli nie będą znały odpowiedzi prześlą pytanie dalej, aż do administratora domeny, gdzie znajduje się poszukiwany węzeł. Otrzymana informacja przechowywana jest przez jakiś czas w pamięci podręcznej (buforze) lokalnego serwera DNS. Jeśli więc poszukiwany adres stosowany jest dosyć często, nie ma potrzeby wysyłania każdorazowo zapytań do serwera administracyjnego dla danej domeny.
Administratorzy dowolnej domeny, przykładowo pl, mogą dodać do niej zupełnie nowe adresy nie powiadamiając wszystkich komputerów w świecie o tej sytuacji.
DHCP (ang. Dynamic Host Configuration Protocol) - to standardowy protokół przydzielający adresy IP poszczególnym komputerom. Serwer DHCP przypisuje adresy IP poszczególnym końcówkom.
AARP (ang. AppleTalk Address Resolution Protocol) - protokół służący przyporządkowaniu adresów w sieci AppleTalk. AARP tłumaczy adresy z sieci AppleTalk do formatu sieci Ethernet albo Token ring.
Gopher (goniec) - to wczesny protokół oraz program służący do wyszukiwania, wyświetlania i pobierania dokumentów znajdujących się na zdalnych komputerach lub witrynach. System oparty jest na menu wspomagającym wyszukiwanie informacji w sieci Internet. Gopher jest poprzednikiem WWW. Obecnie wszelkie możliwości, które posiadał gopher zostały zaimplementowane w przeglądarkach WWW. Z komputerami typu gopher można połączyć się klientami WWW, przeglądając je analogicznie jak klient gopher.
ARP (ang. Address Resolution Protocol) - to protokół sieciowy należący do rodziny TCP/IP (lecz niezwiązany wprost z transportowaniem danych). Jest on stosowany w celu dynamicznego określania fizycznych adresów niskiego poziomu, które odpowiadają adresom IP poziomu wyższego dla określonego komputera Protokół ten ogranicza się do fizycznych systemów sieciowych, które obsługują emisję pakietów.
HTTP (ang. HyperText Transfer Protocol) - to protokół internetowy, używany do obsługi stron WWW. HTTP stanowi podstawowy protokół, przy pomocy którego przebiega komunikacja między klientami i serwerami sieci Web. Jest to protokół poziomu aplikacji dla współpracujących ze sobą, hipermedialnych, rozproszonych systemów informacyjnych. HTTP jest bezstanowym i generycznym protokołem zorientowanym obiektowo. Cechą charakterystyczną tego protokołu możliwość wpisywania oraz negocjowania reprezentacji danych, co umożliwia budowę systemów niezależnie od typu transferowanych danych.
ICMP (ang. Internet Control Message Protocol) - jest to rozszerzenie protokołu IP (Internet Protocol). Protokół ICMP służy generowaniu komunikatów o występujących błędach, wysyłaniu pakietów testowych oraz komunikatów diagnostycznych związanych z protokołem IP.
Protokoły sieciowe TCP/IP, IPX oraz NetBEUI
Każdy z węzłów sieci komunikuje się z pozostałymi dzięki nadawaniu określonych informacji według zasad określonych w standardach protokołów sieciowych. Główne cele oraz model wykorzystania funkcji sieciowych OSI - Open System Interconnection, ustandaryzowała znana organizacja ISO - International Standard Organization. Zdefiniowała ona grupę protokołów, które mogą służyć do komunikacji międzysieciowej oraz sieciowej.
Do najpopularniejszych protokołów sieciowych należą:
TCP/IP - z angielskiego Transmission Control Protocol / Internet Protocol. Jest to protokół, który początkowo opracowano dla potrzeb Ministerstwa Obrony rządu Stanów Zjednoczonych. Stał się on podstawowym protokołem ówczesnej sieci rządowej oraz uniwersyteckiej, która dzisiaj znana jest pod nazwą Internet. Protokół ten wykorzystuje się bardzo często w sieciach, które oparte są o system Unix, a także w innego rodzaju sieciach rozległych lub lokalnych. Pracę z wykorzystaniem opisywanego protokołu umożliwia system NetWare 4.11.
IPX/SPX - z angielskiego Internet Packet Exchange / Sequential Packet Exchange. Jest to protokół, który jest implementacją protokołu XNS opracowanego przez firmę Xerox, którego dokonała firma Novell. Bywa również znany pod nazwą IP / IPC / SPP, jaką nadała mu firma Banyan. Jest on podstawowym protokołem, który wykorzystuje się powszechnie w sieciach opartych o system Novell NetWare. Protokół IPX jest obecnie najpopularniejszym po TCP / IP protokołem, którego używa się do transmisji danych poprzez sieć.
NetBEUI - z angielskiego NetBIOS Extended User Interface. Jest to protokół, który w roku 1985 opracowała firma IBM na potrzeby niewielkich sieci LAN. Jest on obecnie wykorzystywany w różnego rodzaju sieciowych systemach operacyjnych, takich jak Windows NT.
Przykład współpracy protokołu TCP z protokołem IP w czasie pobierania określonej strony WWW:
Użytkownik komputera wpisuje w polu adres swojej przeglądarki internetowej odpowiedni adres WWW. Mechanizm, na jakim opiera się protokół TCP / IP, dokonuje podziału danego dokumentu HTML na dużą liczbę pakietów.
Do warstwy protokołu IP przekazywane są pakiety, który dołącza do nich adres komputera użytkownika zgłaszającego żądanie, jest on dostarczany przez przeglądarkę internetową. Następuje zapoczątkowanie wysyłania pakietów z informacjami.
W obrębie sieci Internet każdy z pakietów porusza się niezależnie od siebie i jest przerzucany przez routery do następnych punktów pośrednich. Zależnie od stanu poszczególnych połączeń ich trasy mogą się nieznacznie od siebie różnić. Możliwa jest również sytuacja, że pakiety przybędą do adresata niekoniecznie w tej samej kolejności, w jakiej zostały nadane. W chwili, gdy pakiety dotrą do użytkownika komputera, warstwa TCP dokonuje rozpoznania pakietów składających się na ten sam plik, a następnie łączy je ze sobą. Później zrekonstruowane dane przekazywane są przeglądarce internetowej, która umożliwia wyświetlenie strony WWW na ekranie monitora.
TCP / IP
. Nazywa się go modelem TCP / IP. Stos protokołów TCP / IP zawiera w sobie cztery różne warstwy funkcjonalne:
Stos protokołów TCP/IP zawiera następujące warstwy funkcjonalne:
Warstwa aplikacji / procesu. Jest to warstwa, która dostarcza rozmaite protokoły do dostępu zdalnego oraz do współdzielenia zasobów. Telnet, http, smtp i ftp znajdują się oraz działają w obrębie tej warstwy. Są one zależne od właściwej funkcjonalności warstw niższych.
Warstwa host z hostem. Warstwa ta nawiązuje w luźny sposób do warstw transportu i sesji wchodzących w skład modelu OSI. W jej skład wchodzą dwa protokoły: protokół datagramów użytkownika UDP oraz protokół sterujący transmisją TCP. W chwili obecnej, aby coraz lepiej dostosować się do nastawionego na transakcje charakteru Internetu, zdefiniowano trzeci z protokołów. Nosi on kodową nazwę protokołu sterującego transmisją i transakcją - T / TCP. Dzięki protokołowi TCP możliwa jest połączeniowa transmisja danych między dwoma lub większą ilością hostów. Dzięki temu protokołowi mogą być jednocześnie obsługiwane znaczne ilości strumieni danych, przy zapewnionej kontroli błędów. Pakiety otrzymane w niewłaściwej kolejności są odpowiednio porządkowane. Innym protokołem IP, wchodzącym w skład warstwy host z hostem, jest protokół datagramów użytkownika UDP. Dzięki niemu możliwa jest prosta oraz posiadająca niewielki narzut transmisja danych. Za sprawą prostoty datagramów UDP jest nieodpowiednim protokołem, jeśli chodzi o zastosowania w niektórych aplikacjach. Nadaje się on jednak doskonale do wyszukanych zastosowań, które potrafią same zapewniać funkcjonalność połączeniową.
Warstwa Internetu. Opisywana warstwa Internetu protokołu IP obejmuje sobą wszystkie procedury oraz protokoły wymagane do przesyłania danych między poszczególnymi hostami znajdującymi się w wielu sieciach. Pakiety, które przenoszą dane muszą być odpowiednio adresowane. Za tą czynność odpowiada właśnie protokół internetowy IP.
Protokóły IPX / SPX
Zestaw protokołów opracowany przez firmę Novell wziął swoją nazwę od dwóch protokołów głównych: SPX - protokołu sekwencyjnej wymiany pakietów, oraz IPX - protokołu międzysieciowej wymiany pakietów. Firmowy stos protokołów oparto na protokole systemów sieciowych opracowanych przez firmę Xerox i wykorzystano go w pierwszych generacjach sieci Ethernet. Protokół IPX / SPX zyskał na znaczeniu na początku lat osiemdziesiątych, kiedy stał się integralną częścią systemu Novell Netware. System ten stał się szybko standardem sieciowego systemu operacyjnego przeznaczonego dla sieci Ethernet pierwszej generacji. Swoją funkcjonalnością IPX przypomina protokół IP. Stanowi on bezpołączeniowy protokół datagramowy, który nie potrzebuje, ani nie potwierdza otrzymania transmitowanego pakietu danych. Protokół IPX jest związany z protokołem SPX, w sposób podobny jak ma to miejsce w wypadku protokołów IP oraz TCP, jeśli chodzi o porządkowanie kolejności oraz inne usługi połączeniowe czwartej warstwy. Stos protokołów IPX / SPX obejmuje sobą cztery warstwy funkcjonalne: warstwę dostępu do nośnika, warstwę łącza danych, warstwę Internetu oraz warstwę aplikacji.
Głównym protokołem warstwy aplikacji jest protokół NCP, który jest protokołem jądra systemu NetWare. NCP może być bezpośrednio sprzęgany zarówno z protokołem IPX, jak i SPX. Wykorzystuje się go do współdzielenia plików, poczty elektronicznej, drukowania oraz dostępu do katalogów. Kolejnymi protokołami, które wchodzą w skład warstwy aplikacji są: firmowy protokół ogłoszeniowy usługi, protokół informacyjny trasowania oraz protokół obsługi łącza. SPX, czyli protokół warstwy Internetu stanowi protokół połączeniowy i można go wykorzystywać w celu przesyłania danych pomiędzy serwerem, a klientem, pomiędzy dwoma serwerami oraz pomiędzy dwoma klientami. Podobnie jak w przypadku protokołu TCP, protokół SPX gwarantuje niezawodność transmisjom IPS, poprzez zarządzanie połączeniami i udostępnianie sterowania strumieniem danych. Odpowiada również za korekcję błędów oraz porządkowanie pakietów.
NetBEUI
Firma IBM opracowała protokół NerBEUI oraz wprowadziła go na rynek w roku 1985. Stanowi on stosunkowo niewielki, jednak bardzo wydajny protokół komunikacyjny sieci LAN. NetBEUI to wyłącznie protokół transportu sieci LAN przeznaczony do systemów operacyjnych Microsoftu. Nie jest on trasowany, s tego powodu jego implementacje są ograniczane do warstwy drugiej, w której działają jedynie komputery wyposażone w systemy operacyjne Microsoftu. Chociaż staje się to coraz to mniejszą przeszkodą, to ograniczane są jednak dostępne architektury obliczeniowe oraz aplikacje technologiczne. Do zalet protokołu NetBEUI należą:
Możliwość wydajnej komunikacji pomiędzy systemami operacyjnymi lub oprogramowaniem sieciowym firmy Microsoft.
Możliwość samodzielnego dostrajania, dzięki czemu idealnie nadaje się do stosowania w niewielkich segmentach sieci LAN.
Minimalne wymagania dotyczące pamięci.
Doskonała ochrona przed błędami transmisji, a także szybki powrót to stanu normalnej pracy po wykryciu błędów.
Istotną wadą protokołu NetBEUI jest to, że nie jest on trasowany i nie działa zbyt dobrze w sieciach WAN.
Instalacja i konfiguracja połączeń Dial - Up
: jak połączyć się z zewnątrz do mojej sieci? Na szczęście w Windows 98 zaimplementowano program do tego przeznaczony - Dial UP Serwer, w skrócie DUS. Za pomocą odpowiednio skonfigurowanego modemu i linii telefonicznej można udostępnić połączenie sieciowe do własnej sieci. Jeśli planujesz dostęp paru osób, na przykład dwóch, trzech, no może ośmiu, to OK. Jednak podłączanie dużej liczby użytkowników to DUS na Windows 98 nie jest dobrym pomysłem. Dedykowane do tego celu programy oferują większą więcej możliwości, większą wydajność i bezpieczeństwo.
Instalacja i konfigurowanie serwera DUS
Najpierw musisz posiadać zainstalowany w swoim komputerze modem. Następnie trzeba go odpowiednio skonfigurować. Dopiero potem konfigurujemy DUS. Jeśli w systemie nie ma DUS to trzeba go doinstalować (według wcześniej podanej procedury " Instalacja systemu W98) z panelu sterowania za pomocą zakładki Dodaj/Usuń programy wybierając go z grupy Komunikacja.
Następnie konfigurujemy serwer Dial - Up.
Należy otworzyć katalog Sieć Dial - Up (Dial-Up Networking).
Z rozwijalnego menu Połączenia trzeba wybrać Serwer Dial - Up.
W oknie Serwera pokażą się dwie możliwości do wyboru: Standard oraz druga z nazwą danego modemu, który jest w tym komputerze (Jeśli masz inny typ modemu będzie to wyglądało troszkę inaczej.
Można ustawić osobne konfiguracje dla każdego modemu niezależnie, w ten sposób, aby włączyć lub wyłączyć możliwość zdalnego dostępu z netu zaznaczając potrzebną opcję. ("Dozwolony dostęp dla wywołującego").
Osoba łącząca się z komputerem powinna ze względów bezpieczeństwa podawać hasło, dlatego należy przy konfiguracji zaznaczyć tą opcję ("Zmień Hasło").
W okienku Komentarz można wpisać opis serwera, natomiast w okienku Stan wyświetla się bieżący status połączenia Dial-Up.
W "Typ Serwera" należy wybrać typ połączenia, w którym będą łączyć się zdalni użytkownicy, jeśli nie masz powodów, aby wpisywać inne ustawienia, to należy wybrać - "PPP, W98,W NT 4.0, Internet".
W Opcjach Zaawansowanych dobrze jest zaznaczyć kompresowanie dla przyspieszenia transferu oraz szyfrowanie hasła dla poprawy bezpieczeństwa. Takie same opcje trzeba zaznaczyć na komputerze, który będzie się łączył z serwerem Dial - Up ("Włączaj kompresowanie oprogramowania").
Następnie trzeba zatwierdzić ustawienia.
W razie potrzeby można jeszcze skonfigurować ustawienia potrzebnych do pracy portów i oczywiście zatwierdzić to wszystko klikając OK.
Pojawi się nowa ikonka zatytułowana Serwer Dial - Up. Po zaznaczeniu kursorem i dwukrotnym kliknięciu otworzy się okienko konfiguracyjne naszego serwera. Natomiast w polu wyświetlającym status modemów obsługujących dostęp zdalny pojawi się napis - "Monitorowanie".
Serwer Dial - Up może już przyjmować połączenia.
Komputer, z którego się łączymy z serwerem Dial - Up nosi nazwę klienta i należy go skonfigurować z takimi ustawieniami jak serwer, w szczególności pamiętając o ustawieniu takiego samego protokołu sieciowego. Należy w tym celu otworzyć okienko właściwości otoczenia sieciowego komputera - klienta i sprawdzić ustawienia protokołu sieciowego dla każdego modemu, jaki jest zainstalowany w komputerze.
Możemy teraz sprawdzić, czy połączenie działa po prostu klikając w Dial - Up - Networking i łącząc się z serwerem naciskając na "Połącz". Powinniśmy zobaczyć go i móc przeglądać jego zasoby za pomocą zwykłego systemowego eksploratora.
Czasami szybsze rezultaty można osiągnąć wybierając z opcji Narzędzia - Znajdź - Komputer. W okienko należy wpisać nazwę komputera poprzedzoną dwoma znakami backslash ( \\ ) i kliknąć w "Znajdź" na belce narzędziowej u góry okienka dialogowego.
Znasz już także jak ustawić opcje protokołu TCP/IP, aby sieć działała. Dzięki temu znasz już podstawy działania większych sieci typu Internet czy Intranet gdzie podstawowym protokołem jest właśnie TCP/IP.
Brodcasting - Rozgłaszanie, przesyłanie danej wiadomości do wszystkich hostów sieciowych.
Dial-Up Serwer (DUS) - Jest to oprogramowanie mogące realizować i obsługiwać na danym komputerze połączenia za pomocą sieci telefonicznej Dial - Up.
Domain Name Service (DNS) - usługa, protokół sieciowy, który tłumaczy nazwy hostów w sieci na adresy IP. Bez skonfigurowania usługi DNS w ustawieniach sieciowych naszego komputera nie będziemy mogli korzystać z Internetu.
Emulator terminala - Oprogramowanie, które łączy nasz komputer ze zdalnym serwerem w trybie znakowym terminala.
Ethernet - Najczęściej obecnie używany standard sieciowy; jego odmiana występuje pod nazwą Fast-ethernet i wtedy działa z szybkością 100 Mbps lub Giga-ethernet i działa z szybkością 1Gbps.
IPX/SPX - standardowa nazwa protokołu działającego w systemie Novell - Netware.
Karta sieciowa - NIC (Network Interface Card) Sieciowy interfejs połączeniowy, zmienia typ danych wysyłanych z komputera na typ sygnałów przesyłanych za poprzez sieć.
Klient - komputer albo urządzenie, któremu serwer udostępnia daną usługę
Hub - koncentrator, urządzenie, do którego można podłączyć kilka, kilkanaście komputerów czy urządzeń sieciowych
LAN - Local Area Network, jest to lokalna sieć komputerowa, np. blokowa lub w małym biurze. Często podłączona przy pomocy rutera lub innego komputera do Internetu.
NetBEUI - Nazwa protokołu sieciowego wprowadzonego przez Microsoft, używanego dawniej w sieciach lokalnych, zwanego czasami NetBIOS
Port - określenie interfejsu służącego do podpięcia do komputera urządzeń zewnętrznych, np. myszy czy drukarki. W zależności od budowy i sposobu przesyłania danych mogą być porty szeregowe lub równoległe
Protokół - zestaw ustandaryzowanych metod porozumiewania się urządzeń sieciowych.
Serwer - komputer dużej mocy i niezawodności świadczący różne usługi, np. serwer sieciowy - usługi WWW, e-mail, FTP, firewall; serwer bazodanowy - obsługujący bazę danych i dostęp do niej.
Skrętka - pary skręconych ze sobą w określony sposób przewodów miedzianych, złożone w jeden kabel sieciowy, może być ekranowana lub nie.
TCP/IP - Transfer Control Protocol/Internet Protocol - zestaw protokołów sieciowych najczęściej obecnie używany w sieciach.
Terminal - urządzenie sieciowe, które pozwalało podłączyć się użytkownikowi do serwera i pracować na nim zdalnie. Obecnie najczęściej używa się programu emulującego terminal na komputerze PC.
Topologia - architektura sieci. Najczęściej stosowane to: gwiazda, magistrala i pierścień. Często stosuje się ich kombinację.
WAN - (Wide Area Network) - w odróżnieniu od LAN jest to sieć rozległa obejmująca duży obszar na przykład województwa, w dużych miastach może występować jej odmiana jako MAN - (Metropolitan Area Network).
Węzeł sieci - każde aktywne urządzenie sieciowe takie jak komputer, drukarka sieciowa, czy komputer pełniący rolę serwera lub stacji roboczej.
Dial-Up Networking
Jest to usługa (w skrócie DUN) oferująca, jak sama nazwa wskazuje, dostęp do sieci Internet (i nie tylko) poprzez dzwonienie (wdzwanianie) za pomocą sieci telefonicznej, a w tym przypadku przez nasz modem, którym dysponuje notebook. Trzeba zaznaczy, że nie omawiamy tutaj łączenia się z siecią w trybie znakowym ( tzn. jako emulator terminala na PC-cie, choć to oczywiście jest także możliwe ) ale wykorzystując DUN do połączenia się z siecią poprzez modem w trybie GUI (czyli w trybie graficznym).Transfer danych jest dużo wolniejszy niż w przypadku "normalnej" sieci, no ale trudno, do przesyłania poczty lub dokumentów jest to szybkość wystarczająca.
Aby skorzystać z tej usługi musimy sprawdzić czy istnieje w naszym systemie, a jeśli nie, to musimy ją doinstalować. W grupie "Programy", podgrupie "Akcesoria" powinniśmy znaleźć zakładkę "Komunikacja", w której szukamy "Dial-Up Networking". Jeśli jest, to w porządku, w przeciwnym wypadku bierzemy się za instalację.
Rdzeniem Dial-Up Networking jest "Połączenie". Jest w nim komplet opcji, dzięki którym możemy stać się kolejnym użytkownikiem sieci. Omówimy poniżej dwa typy połączenia: z Internetem oraz z siecią prywatną.
Połączenie z Internetem
Łączenie się użytkownika z Internetem polega na wpisaniu w opcjach mnóstwa różnych danych, z których część dostarcza nam dostawca Internetu, a część musimy znać sami. Za to później łączymy się już automatycznie. A oto potrzebne dane oraz opcje, które należy poprawnie wpisać:
Nazwa użytkownika
Hasło
Typ połączenia
Kompresja programowa
Szyfrowanie hasła
Numer telefoniczny do wydzwaniania
Wszystkie pozostałe polecenia
Statyczny, czy dynamiczny numer IP
Serwery nazw (DNS)
Możliwość korzystania z jednego lub kilku połączeń
Nazwa użytkownika, nr telefonu oraz hasło nie wymagają chyba tutaj szerszego omówienia. Przeważnie dostarcza nam je dostawca Internetu a w większości przypadków są domyślne. Po prostu wpisujemy je w odpowiednim miejscu w opcjach konfiguracji. Rodzaj połączenia, jaki wybieramy to PPP, SLIP jest starszym i już raczej nie stosowanym typem połączenia. Przeważnie obowiązuje też programowa kompresja danych. Czasami należy szyfrować hasło.
Część dostawców wymaga wpisania dodatkowych poleceń przy połączeniu modemów, zanim jeszcze połączymy się z Internetem. Czasami polecenia te mają postać skryptu tekstowego, który można na stałe wgrać, zamiast robić to ręcznie. Przeważnie przy połączeniu z Internetem dostajemy dynamicznie przydzielony na czas naszej sesji numer IP. Problem polega na tym, że nasz dostawca ma przeważnie skończoną pulę adresów IP i z niej automatycznie przydzielany jest kolejny numer dla kolejnego użytkownika, który się z nim łączy. Gdy adresów zabraknie musimy czekać aż któryś się zwolni.
Było już wcześniej wspominane, że bez usługi DNS nie można się połączyć z Internetem. Dlatego też należy sprawdzić we właściwościach sieci i we właściwościach protokołu TCP/IP czy wpisaliśmy dostarczone przez naszego dostawcę numery sieciowe serwerów DNS. Przeważnie są to dwa numery, jeden dla głównego serwera, drugi dla zapasowego.
Oprócz połączenia Dial - Up za pomocą protokołu PPP można wykorzystać technologię ISDN noszącą w Windows 98 nazwę MCA. Polega ona na tym, że do połączenia wykorzystuje się kilka linii naraz, co zwiększa transfer danych. Chcąc skorzystać z takiego typu połączenia trzeba znaleźć odpowiedniego dostawcę oferującego tego typu usługę.
Naszą pracę możemy sobie znacznie ułatwić, jeśli skorzystamy z kreatora połączeń internetowych, którego możemy znaleźć w "Programy" - "Internet Explorer".
Kreator poprowadzi nas "za rączkę" poprzez wszystkie kolejne stopnie konfiguracji połączenia.
Jak to zwykle bywa w Windows do tego samego celu możemy dojść trochę innymi drogami. Można kliknąć w "Start" - "Programy" - "Internet Explorer" - "Kreator połączeń internetowych", lub wejść do panelu sterowania, tam znaleźć ikonę "Internet", uaktywnić "Połączenie" i wydać polecenie "Połącz".
Oczywiście lista dostawców, którą wyświetli nie będzie kompletna. Należy ją uaktualnić samemu dowiadując się o to w firmach komputerowych, prasie fachowej itp.
Konfiguracja usługi Dial - Up do połączenia z Internetem:
Dotychczas omawialiśmy konfigurację sieci lokalnej za pomocą protokołów NetBeui lub TCP/IP. W takim przypadku początkowo ustalone opcje obowiązywały już później stale. Teraz natomiast korzystając z usług kilku dostawców lub zmieniając jednego na innego musimy dostosować nasze ustawienia do ich wymagań. Mając skonfigurowane tylko jedno połączenie i łącząc się co jakiś czas z innym dostawcą Internetu trzeba by było co jakiś czas "grzebać" w konfiguracji połączenia, potem przestartować kompa, a to po prostu było by kłopotliwe.
Ogólna i szczegółowa konfiguracja Dial - Up z protokołem TCP/IP
Poniższy tekst wyjaśni jak w Windows 98 należy ustawić protokół TCP/IP
Panel Sterowania - "Sieć"
Z rozwijalnej listy protokołów sieciowych wybrać - "Protokół TCP/IP" a następnie - "Karta Dial-Up"
Potem trzeba wybrać właściwości protokołu TCP/IP - UP
Domyślnie zmiany dokonane tutaj będą obowiązywać dla wszystkich połączeń Dial - Up. Często jednak dzieje się tak, że chcemy dokonać zmian tylko w stosunku do konkretnego połączenia
Po przyciśnięciu "OK." anulujemy zmiany we właściwościach TCP/IP oraz we "Właściwościach Sieci".
Zmiany takie zostały opisane poniżej.
Po pierwsze należy prawidłowo zainstalować w systemie nasz modem.
Następnie, dysponując stosownymi danymi, które otrzymaliśmy od naszego dostawcy internetowego możemy przystąpić do konfiguracji połączenia. W tym celu z menu Dial - Up Networking, "Połączenia" wybieramy "Utwórz nowe połączenie". W pierwszym okienku należy wpisać prostą i łatwą do zapamiętania nazwę (przeważnie wpisuje się nazwę dostawcy). Wchodząc do rozwijalnego menu, wybieramy nasz modem i po wciśnięciu "Konfiguruj" mamy do wglądu możliwe opcje do wyboru. Główne z nich to "Ogólne", "Połączenia" a także inne. Potwierdzamy wciskając "OK". Następnie naciskamy "Dalej" w okienku "Utwórz nowe połączenie". Należy wybrać numer telefoniczny pamiętając o poprawnym numerze kierunkowym a także wybrać prawidłową nazwę kraju. Następnie przycisk "Dalej" i kiedy zobaczymy końcowe okienko dialogowe należy wcisnąć "Zakończ".
Teraz po ponownym otwarciu "Dial - Up Networking" należy wcisnąć jego właściwości, w których zobaczymy ikonę naszego nowego połączenia. Zobaczymy tu teraz następujące menu: "Ogólne", "Typy serwerów", "Obsługa skryptów" i "Łącze wielokrotne". W opcjach "Ogólne" będą się znajdować wcześniej przez nas wpisane nr telefonu do wydzwaniania i nazwa naszego modemu. Czasami nie trzeba pisać numeru kierunkowego i wtedy można tą opcję skasować. W menu "Konfiguruj", w zakładce "Połącz" możemy zobaczyć właściwości naszego modemu. Konfigurujemy "Typy serwerów" przeważnie jako: PPP, Windows 98, Windows NT 4.0, Internet. W "Opcje zaawansowane" można wyłączyć "Zaloguj się", jednakże dobrze wiedzieć czy nasz dostawca od nas tego wymaga. Tak samo należy postąpić w przypadku "Włącz kompresję" i "Szyfrowanie hasła". W okienku protokoły należy uaktywnić jedynie protokół TCP/IP. Następnie należy wpisać przydzielony nam numer IP, a jeśli nie przydzielono go nam trzeba zaznaczyć "Adres IP przypisany do serwera". Podobnie postępujemy w przypadku serwerów nazw DNS. Należy zaznaczyć "Używaj kompresji nagłówka protokołu IP", a jeśli w naszej sieci jest adres bramy internetowej to wpisujemy go, w przeciwnym przypadku należy użyć bramy domyślnej. Czasami dostawca Internetu wymaga "odpalenia" skryptu przed otwarciem połączenia. Często jest to plik tekstowy zawierający polecenia dla modemu. Możemy użyć opcji wskazującej położenie tego pliku na dysku, aby się automatycznie ładował przy każdym połączeniu. W opcjach "Łącze wielokrotne" możemy wybrać do połączeń wielokrotne łącza, jeśli posiadamy dodatkowe urządzenia, chcemy je użyć, i oczywiście jeżeli nasz dostawca je obsługuje. Na samym końcu wciskamy "OK", w ten sposób kończąc konfiguracje i ustanawiając nowe połączenie. Gratulacje!
Kiedy będziemy chcieli połączyć się z Internetem należy po prostu kliknąć dwa razy na ikonie naszego połączenia. Wyświetli się okienko "Połącz się". Jeśli chcemy, to możemy w tym momencie zmienić nazwę użytkownika, na taką jaka się nam podoba. Przy następnym połączeniu nie będzie to już potrzebne gdyż nazwa zostanie zapamiętana przez system. Przy wpisywaniu hasła można skorzystać z opcji zapamiętywania go przez system. Wtedy nie musimy go wpisywać za każdym razem. Zmiany jak zwykle potwierdzamy "OK".
Podłączanie się do sieci prywatnej przebiega niemal tak samo jak do Internetu. Mogą wystąpić inne opcje w ustawieniach protokołów sieciowych oraz trochę innej konfiguracji.
Połączenie możemy przećwiczyć bazując na danych, przekazanych przez administratora i na usłudze serwera Dial - Up Networking, którego instalację omówiono już wcześniej.
Otwieramy Dial-Up Networking.
Połączenia a następnie Utwórz nowe połączenie
Podajemy nazwę
Wybieramy żądany modem
Konfigurujemy modem, o ile istnieje taka potrzeba
Dalej
Numer kierunkowy oraz numer dostawcy
Wybór kraju
Dalej
Zakończ
Właściwości nowego połączenia
Właściwości wybierania
Używaj numeru kierunkowego (opcjonalne).
Sieci komputerowe
Siecią komputerową nazywamy zbiór co najmniej dwóch połączonych ze sobą komputerów, wraz z ich urządzeniami peryferyjnymi. Zamysłem sieci komputerowych jest wspólny dostęp do udostępnionych danych. Komputery w sieci połączone są pomiędzy sobą dzięki łączom komunikacyjnym. Dzięki temu każdy z użytkowników podłączonych do sieci ma możliwość korzystania z udostępnionych współdzielonych zasobów, takich jak dane dzielone czy też urządzenia, na przykład drukarki sieciowe.
Każdy komputer, jeśli chce połączyć się z siecią, może to uczynić za pomocą tak zwanych interfejsów sieciowych. Istnieją w sieci komputery, które spełniają określone funkcje, takie jak na przykład mosty, routery czy bramy sieciowe, jednak większość komputerów to komputery klienckie, znane jako stacje robocze, które dzięki podłączeniu do sieci mogą korzystać z zasobów sieciowych.
Sieci komputerowe dzieli się pod względem rozmiaru, a raczej geograficznego obszaru, jaki zajmują i tak, mamy sieci lokalne LAN, które obejmują zwykle jeden budynek (ich "wielobudynkowa' wersja nosi nazwę sieci kampusowej), sieci miejskie, które mogą objąć całe miasto - są to sieci MAN, a także sieci rozległe, które swoim zasięgiem potrafią objąć cały świat, są to tak zwane sieci WAN.
Pierwszą siecią komputerową była sieć ARPANET, która dała podwaliny pod współczesny Internet. Sieć ta działała jako sieć kampusowa na jednej z uczelni wyższych w Stanach Zjednoczonych.
Sieci umożliwiają nie tylko wymianę informacji pomiędzy dwoma komputerami w jednym biurze, ale także udostępniają sieciowe usługi takie jak radio, telewizja czy telefonia sieciowa. No i oczywiście jest jeszcze Internet - sieć globalna łącząca wszystkie komputery na całym świecie o ile tylko ich użytkownicy wyrażą taką wolę.
Sieci komputerowe muszą działać według ściśle stwierdzonych ograniczeń i algorytmów. Jeśli działanie sieci komputerowych nie byłoby ustandaryzowane, niemożliwe byłoby połączenie ich w jedną, globalną siec internetową, co często jest głównym powodem łączenia komputerów w sieci lokalne. Standardy, według których pracują sieci komputerowe zapewniają bezpieczne przesyłanie danych oraz niezawodność transmisji. Dzięki sieciom zwiększa się wydajność pracy dzięki możliwości poszukiwania rozwiązań w całej Sieci, a także w całym Internecie, a także wspomagają system przekazywania wszelkich informacji pomiędzy użytkownikami. Sieci komputerowe podnoszą niezawodność systemów firmowych, ponieważ w momencie zepsucia się jednego komputera, w zależności od rodzaju sieci może ona działać bez zarzutu dalej. Poza tym najważniejszą rzeczą w sieciach komputerowych jest współdzielenie zasobów sieciowych, takich jak drukarki, pamięć masowa, a także wszelkich udostępnionych aplikacji oraz oczywiście wielu różnorakich informacji. Dzisiejsze komputery na szczęście nie są skazane na izolacje właśnie dzięki wprowadzeniu idei sieci komputerowych.
Podstawową klasyfikacją sieci komputerowych jest ich rozmiar. Innym sposobem klasyfikacji sieci komputerowych jest ich architektura. Krótko mówiąc, sieci rozróżnia się na takie, które posiadają serwer, i takie, które go nie posiadają.
Serwerem nazywamy zwykle komputer o dość silnej mocy obliczeniowej. Dla małych sieci może to być zwykły pecet, jednak przy wykorzystywaniu technologii sieciowych w takich sieciach, jak MAN czy WAN, serwerem jest zwykle duży komputer zawierający wiele procesorów i ogromne zasoby przestrzeni dyskowych. Potocznie serwerem nazywamy szybki komputer z dużą ilością pamięci oraz odpowiednim oprogramowaniem, świadczący usługi w sieci komputerowej. Jednak często stosuje się określenie, że serwerem jest konkretna aplikacja uruchomiona na komputerze-serwerze, która udostępnia usługi klientom. Niezależnie od tego, jaką definicję przyjmiemy, rozróżnia się dwa rodzaje sieci komputerowych - z wydzielonym serwerem lub bez. Sieci, które nie posiadają serwerów, nazywamy sieciami równorzędnymi (peer-to-peer - równy z równym). Tego typu sieć charakteryzuje się ogólną sprawiedliwością społeczną - wszystkie komputery są w niej równorzędne i posiadają te same prawa dostępu do wszystkich zasobów co inne maszyny w sieci.
Obecnie sieci lokalne stały się wiodącym narzędziem biznesowym w większości instytucji zajmujących się różnymi gałęziami przemysły i świadczącymi różnorakie usługi. Kiedy sieci lokalne były jeszcze w fazie testów laboratoryjnych, raczej nikt nie przypuszczał, że dokona się taka ich ekspansja na terytorium całego świata. Sieci te, początkowo zaprojektowane do zastosowań na niewielkim obszarze, wkrótce, dzięki takim urządzeniom jak repeatery czy też mosty, mogły być łączone w większe sieci kampusowe, dzięki którym na przykład do sieci mogło być podłączone całe osiedle. Zwiększanie zasięgu sieci lokalnych jest podstawowym problemem w systemach sieciowych.
Sieci miejskie, bardziej znane jako MAN (Metropolitan Area Network), są zwykle budowane w większych miastach (w Polsce sieci takie mają Warszawa, Kraków, Poznań, Wrocław i wiele innych miast). Sieci te są złożone z różnych sieci lokalnych, połączonych ze sobą poprzez mosty, koncentratory, huby i routery, a także charakteryzują się dużą prędkością przesyłania danych. Z sieci tego typu często korzystają przedsiębiorstwa, które potrzebują dużej przepustowości ze względu na nasilony przepływ danych.
Sieci rozległe bazują główne na istniejących połączeniach telefonicznych, tak jak sieć Internet. Sieci lokalne łączą ze sobą sieci miejskie oraz lokalne, tworząc dużą sieć na przykład na terenie konkretnego kraju. Sieci takich nie da się raczej zrobić poprzez wykorzystanie osobnego okablowania, ponieważ nie byłoby to opłacalne ze względu na koszty samego kabla, który musiałby się ciągnąć kilometrami
. Dlatego sieci rozległe wykorzystują druty telefoniczne, które już istnieją na terenie całego świata. Jest to więc swego rodzaju połączenie sieci telefonicznych z zastosowaniami informatycznymi, dzięki czemu te dwie technologie często się przenikają, tworząc podwaliny na przykład pod telefonię internetową. Aby sieci rozległe spełniały swoje funkcje, muszą być wyposażone w najnowocześniejsze rozwiązania zapewniające bezpieczeństwo przesyłanych danych, brak błędów transmisji i odpowiednią prędkość przesyłu informacji, czyli dobrą przepustowość. Dzięki sieciom rozległym zintegrowanym z siecią telefoniczną możliwe jest na przykład przeprowadzanie wideokonferencji, a także umożliwiony jest transfer i współdzielenie plików.
Zadaniem routerów jest tworzenie połączenia pomiędzy różnymi częściami sieci. Routery wyszukują w sieciach ścieżki (ang. routes), które aktualnie są najmniej zatłoczone i poprzez takie ścieżki realizują połączenia sieciowe pomiędzy różnymi komputerami.
W sieciach komputerowych wykorzystuje się dużą liczbę różnych mediów transmisyjnych. Mogą to być kable rożnego typu (najczęściej skrętka ośmiożyłowa), światłowody, fale radiowe, podczerwone i laserowe.
Proces instalacji sieci lokalnej należy rozpocząć od poczynienia pewnych wstępnych założeń, które są niezbędne do jej zbudowania. Przede wszystkim należy dokonać wyboru fizycznej topologii sieci. Obecnie do wyboru są praktycznie tylko dwie topologie: topologia szynowa oraz gwiazdowa, jednak współcześnie stosuje się powszechnie tylko drugie rozwiązanie. Należy wspomnieć, że stosuje się czasem, zwłaszcza w sieciach o dużej rozpiętości, topologie mieszane polegające na łączeniu małych skupisk stacji z zastosowaniem topologii gwiazdowej, zaś skupiska te dołącza się do jednej szyny. Lecz takie rozwiązanie (w oparciu o kabel koncentryczny) spotyka się praktycznie tylko w sieciach amatorskich. W profesjonalnych instalacjach zamiast kabla koncentrycznego stosuje się światłowody.
Kolejnym krokiem przy budowie sieci powinien być wybór przepustowości sieci. Przepustowość sieci lokalnej w głównej mierze zależy od tego, do czego dana sieć ma być wykorzystywana. Do wyboru są praktycznie dwie technologie: sieć 10Base-T (zbudowana na skrętce, o przepustowości 10 Mb/s) oraz sieć 100Base-TX (skrętka, o przepustowości 100 Mb/s). Rozwiązania typu Gigabit Ethernet (1000Base-T) są jak dotąd, ze względu na koszty, nieopłacalne w małych sieciach.
Topologia LAN określa sposób wzajemnego połączenia stacji w sieci. Rozróżnia się topologie fizyczne i logiczne. Topologia fizyczna określa sposób fizycznego połączenia stacji i urządzeń sieciowych. Topologia logiczna zaś sposób ich komunikacji między sobą. Wyróżnia się następujące najczęściej stosowane fizyczne topologie LAN:
szynowa (bus) - wszystkie stacje robocze w sieci dołączone są do jednej wspólnej szyny,
pierścieniowa (ring) - stacje sieciowe podłączone są do okablowania tworzącego pierścień,
gwiazdowa (star) - kable sieciowe połączone są w jednym wspólnym punkcie, w którym znajduje się koncentrator lub przełącznik,
drzewiasta (tree) - (hierarchiczna gwiazda) - jest strukturą podobną do topologii gwiazdy z tą różnicą, że są tu możliwe gałęzie z wieloma węzłami,
mieszana - stanowi połączenie sieci o różnych topologiach.
Topologia szynowa jest najprostszą technologią tworzenia sieci, chociaż nie jest polecana dla sieci, które powinny działać bez względu n awarię stacji roboczych wchodzących w jej skład. Wszystkie stacje są w tej topologii ustawione liniowo i podłączone do wspólnej magistrali danych, która z obu stron jest zakończona specjalnymi tłumikami sygnału (w żargonie sieciowym są to terminatory). Sygnał jest rozprowadzany po całej magistrali. Kiedy sygnał jest przeznaczony dla konkretnego adresata w sieci, może on zatem pobrać tę informację z szyny. Niestety, wadą takiego rozwiązania jest przede wszystkim fakt, że w jednym momencie tylko jeden komputer w sieci może nadawać, inaczej mielibyśmy do czynienia z nakładaniem się na siebie różnych sygnałów, co prowadziłoby do zakłóceń obu odbywających się w jednym czasie transmisji.
Poza tym sieć o takiej topologii jest łatwym celem dla nieuprawnionego dostępu. Wystarczy w którymś miejscu podłączyć się do szyny danych, aby mieć wgląd we wszystkie sygnały przesyłane przez sieć. W momencie, kiedy sieć jest używana do przekazywania na przykład informacji poufnych, taka topologia jest bardzo niebezpieczna. Kolejną wadą tego rozwiązania jest fakt, że sieć łatwo jest uszkodzić - wystarczy przeciąć kabel pełniący rolę szyny danych aby sparaliżować działanie całej sieci. Dodatkowo ciężko jest stwierdzić, w którym miejscu nastąpiło przerwanie kabla, jeśli nie jest przerwana jego izolacyjna osłona, dlatego tego typu sieci są dość ciężkie w zarządzaniu i konserwacji.
W topologii pierścienia węzły łączy się za pomocą jednego nośnika informacji w układzie zamkniętym. Okablowanie nie ma żadnych zakończeń (terminatorów), ponieważ tworzy krąg. Jest to swego rodzaju rozwinięcie topologii szynowej, ponieważ jest to tak jakby szyna danych, gdzie końce są połączone ze sobą.
Często stosuje się konfigurację podwójnego przeciwbieżnego pierścienia . Każda para stacji jest dodatkowo sprzężona dodatkowym łączem o kierunku transmisji przeciwnym do kierunku transmisji w łączu głównym. W stanie normalnej pracy sieci pierścień pomocniczy nie jest używany. Jeśli w pewnym miejscu takiej sieci kabel zostanie przerwany - następuje automatyczna rekonfiguracja pierścienia i sygnał jest transmitowany w przeciwnym kierunku. Umożliwia to kontynuację pracy sieci. Taka topologia jest wykorzystywana w architekturze Token Ring. Komputer, który aktualnie jest w posiadaniu tak zwanego tokena (żetonu), może nadawać sygnał, odbierać go i odsłuchiwać. Następnie przekazuje token kolejnemu komputerowi w sieci, który sprawdza, czy aktualny sygnał jest adresowany do niego. Jeśli tak, odbiera go i wysyła własny sygnał, jeśli nie, przekazuje token dalej.
Topologia gwiazdy charakteryzuje się tym, że sieć zawiera centralny element (hub, koncentrator), do którego przyłączone są wszystkie węzły. Cały ruch w sieci odbywa się przez koncentrator.. Zaletą tej topologii jest łatwość konserwacji, wykrywania uszkodzeń, monitorowania i zarządzania siecią. Awaria jednej stacji nie wpływa na pracę reszty sieci. Układ okablowania jest łatwo modyfikowalny (łatwo dołączyć stację roboczą), ale jego koszt jest stosunkowo duży (potrzeba duże ilości kabla w celu podłączenia każdej stacji osobno). Należy również zauważyć, że hub jest centralnym elementem sieci i jego ewentualna awaria paraliżuje całą sieć.
Topologia drzewiasta jest swego rodzaju rozwinięciem topologii gwiazdy i topologii szynowej, ich połączeniem. Na początku jedną magistralę liniową dołącza się do huba, dzieląc ją na dwie lub więcej magistral. Proces dzielenia można kontynuować, tworząc dodatkowe magistrale liniowe wychodzące z magistral odchodzących od pierwszej magistrali, co nadaje topologii cechy topologii gwiazdy. Do każdej w ten sposób utworzonej magistrali można dołączać komputery tak jakby to była topologia szynowa.
Internet
Internet jest największą siecią komputerową na świecie. Do Internetu podłączona jest większość sieci lokalnych, miejskich i rozległych. Powstał jako rozwinięcie małej sieci komputerowej należącej do amerykańskiego wojska i szybko rozrósł się do dzisiejszej postaci. Internet zawiera ogromna liczbę komputerów na całym świecie, w tym wiele ogromnych serwerów o niewyobrażalnej mocy obliczeniowej.
Niezbędnym wyposażeniem komputera potrzebnym do podłączenia go do sieci lokalnej lub Internetu, jest tak zwana karta sieciowa. Do karty wymagającej przewodu sieciowego dołącza się kable sieciowy, którego drugi koniec podłączony jest najczęściej do koncentratora, huba lub routera, a dalej do Internetu.
Aby korzystać z Internetu, należy wykorzystać usługi tak zwanych dostawców internetowych, czyli firm zajmujących się udostępnianiem adresów internetowych dla poszczególnych użytkowników lub sieci. Kiedy komputer przyłączymy do sieci, zwykle za pomocą łączy telefonicznych dzierżawionych przez naszego dostawcę internetowego, możemy cieszyć się dostępem do Internetu.
Obecnie odchodzi się od rozwiązań modemowych przy dostępie do Internetu na rzecz tańszych i dużo szybszych przyłączeń stałych - przewodowych i radiowych. Dzięki temu za miesięczną opłatą rzędu kilkudziesięciu złotych można stać się posiadaczem dostępu do Internetu 24 godziny na dobę, co znacznie bardziej się opłaca niż korzystanie z modemu, gdzie impuls naliczany jest co trzy minuty i kosztuje tyle co impuls rozmowy lokalnej.
Usługi, jakich dostarcza Internet
Jedną z najważniejszych usług dostarczanych przez Internet jest usługa poczty elektronicznej. Jest to usługa najbardziej znana i jednocześnie najbardziej chyba popularna wśród użytkowników Internetu. Dzięki tej usłudze jest możliwe wysyłanie elektronicznych listów do wszystkich użytkowników Internetu, oczywiście o ile znamy ich adres email. Najczęściej ma on postać nazwauzytkownika@domena.pl (dla Polski - w innych krajach końcówka będzie inna, na przykład uk dla Wielkiej Brytanii czy ru dla Rosji). Email jest także usługą dzięki której możemy należeć do grup dyskusyjnych, gdzie profesjonaliści i amatorzy rozmawiają na konkretne tematy, proszą o poradę czy szukają wskazówek. Kiedy wyśle się email na adres grupy, jest on rozsyłany do wszystkich użytkowników zapisanych do tej grupy. Jest to swego rodzaju forum internetowe dotyczące różnych sfer naszego życia.
Inną ciekawą usługą internetową jest IRC, czyli Internet Relay Chat. Dzięki tej usłudze jest możliwe połączenie się z odległym serwerem oraz rozmowa z obecnymi tam użytkownikami. Dyskusje prowadzone są na żywo, z prawdziwymi ludźmi. Rozwinięciem IRCa jest znany chyba każdemu czat internetowy, jednak przez miłośników IRCa jest on postrzegany jako żałosna namiastka. Istnieje wiele różnych programów, które umożliwiają połączenie się z serwerem IRC, na przykład mIRC czy też HydraIRC. Oprócz rozmów publicznych na tak zwanych kanałach tematycznych IRCa możliwe jest także prowadzenie rozmów prywatnych z tylko jednym użytkownikiem. Oprogramowanie IRCa pozwala na przebywanie na różnych serwerach i na różnych kanałach. Dzięki specjalnym komendom można dowiedzieć się nieco o innych użytkownikach (komenda /whois), a także dokonywać innych działań (zachęcam do badań). Każdy kanał IRC posiada unikalna nazwę, która jest poprzedzona znakiem hasza (#). Istnieją także kanały prywatne, na które można się zalogować tylko znając hasło dostępu lub będąc zaproszonym przez ich użytkowników.
Kolejną usługą, jaką chcę tutaj omówić, jest FTP. Jest to skrót od File Transfer Protocol. FTP jest protokołem (zbiorem reguł) pozwalającym na przesyłanie plików na serwer i pobieranie ich z niego. Wiele różnych programów udostępnia tę usługę - na przykład Windows Commander. Istnieją także systemowe narzędzia tekstowe, dzięki którym jest możliwa wymiana plików poprzez protokół ftp.
Protokół FTP i programy udostępniające tę usługę są bardzo przydatne. Wiele różnych archiwów na całym świecie udostępnia swoje zasoby na potrzeby użytkowników indywidualnych, dlatego warto poznać zasady działania tego protokołu.
Przesyłanie plików może odbywać się w dwóch trybach - binarnym oraz tekstowym. Kiedy przesyłamy program binarnie, nie zachowujemy na przykład takich informacji jak typowo tekstowe znaki polskie czy znaki końca linii, jednak mamy pewność, że pliki binarny nie zostanie przekłamany. Tryb tekstowy służy do przesyłania tekstu. Jest do tego wykorzystywany system ASCII.
WWW jest najczęściej po poczcie elektronicznej wykorzystywaną usługą sieci Internet. Pozwala ona na oglądanie różnego rodzaju dokumentów zgromadzonych na serwerach WWW i poruszać się pomiędzy mini za pomocą specjalnych odnośników.
Ciekawą usługą świadczoną przez Internet jest możliwość zdalnej pracy na odległym komputerze. Usługa nazywa się Telnet. Wystarczy wpisać adres internetowy lub adres IP komputera i można pracować na nim nie ruszając się z domu. Często administratorzy sieci wykorzystują tę usługę aby pracować na odległych serwerach.
Składniki sieci
Krosownica składa się z rzędów punktów zakończeniowych dla stacji roboczych. Administrator sieci może w łatwy sposób łączyć, przesuwać, testować i rozłączać elementy sieci (np. stacje robocze) - poprzez zmianę połączeń w krosownicy.
Koncentrator jest urządzeniem służącym za centralny punkt przyłączenia terminali, komputerów lub urządzeń komunikujących. Może to być centralny punkt, w którym zbiegają się kable. Koncentrator łączy określoną liczbę linii wejściowych z pewną liczbą linii wyjściowych albo udostępnia jedno centralne połączenie komunikacyjne większej liczbie urządzeń. Koncentratory mogą być łączone ze sobą w struktury hierarchiczne. Oto urządzenia, które są koncentratorami:
- procesory czołowe ( front-end ) - jest to komputer realizujący funkcje koncentratora, zazwyczaj z większą szybkością i obsługujący większą liczbę dołączonych urządzeń;
- huby ( hubs ) - koncentratory w sieciach lokalnych (opisane dalej);
- jednostki wspólnego dostępu do portu i selektory;
- multipleksery - urządzenia, które przesyłają po jednej linii dane napływające z wielu innych urządzeń.
Huby to dość spora grupa urządzeń o wspólnej nazwie. W najprostszej postaci hub jest urządzeniem, w którym zbiegają się przewody od stacji roboczych. Istnieją huby pasywne oraz aktywne.
Hub pasywny - posiada kilka portów do podłączenia komputerów, terminali i innych urządzeń. Cechą huba pasywnego jest to, że nie wzmacnia sygnałów - jest tylko skrzynką łączącą - i nie wymaga zasilania. Hubem pasywnym może być po prostu panel łączeniowy, czyli krosownica;
Hub aktywny - zazwyczaj posiada więcej portów od huba pasywnego. Regeneruje sygnały przechodzące od jednego urządzenia do drugiego. Może być używany jako regenerator sygnału ( repeater ).
Repeater jest prostym urządzeniem pomocniczym, regenerującym sygnał przesyłany kablem, co pozwala na zwiększenie długości połączenia, a co za tym idzie - zwiększenie rozpiętości sieci. Repeater nie zmienia w żaden sposób struktury sygnału, poza jego wzmocnieniem. Repeater jest urządzeniem, które charakteryzuje się następującymi cechami: używany jest głównie w liniowych systemach kablowych; działa na najniższym poziomie stosu protokołów - na poziomie fizycznym; dwa segmenty sieci, połączone za pomocą repeater'a , muszą używać tej samej metody dostępu do medium; segmenty sieci połączone za pomocą repeater'a stają się częścią tej samej sieci i mają te same adresy sieciowe (węzły w segmentach rozszerzających sieć muszą mieć różne adresy od węzłów w segmentach istniejących); przekazują pakiety z prędkością transmisji w sieci.
Przełącznica jest to urządzenie posiadające pewną liczbę portów wejścia oraz portów wyjścia. Służy ona do połączenia wybranego wejścia w określonym wyjściem. Przykładową przełącznicę może być przełącznica 4 X 4 łącząca linie modemowe z komputerami. Możliwe są oczywiście rozwiązania o większej liczbie portów: 8 X 8, 16 X 16 itd. Przełącznice są obecnie realizowane na poziomie mikroprocesora i umożliwiają utworzenie połączenia w bardzo krótkim czasie. Przełącznica może służyć do łączenia ze sobą segmentów w sieci (np. hub przełączający). Układy te charakteryzują się ponadto bardzo dużą przepustowością.
Protokoły sieciowe
Protokoły sieciowe to zbiory reguł, jakimi kieruje się sieć w swojej pracy. Dzięki protokołom sieciowym możliwe jest ustandaryzowanie połączeń i przekazywania informacji pomiędzy komputerami podłączonymi do sieci. Dzięki protokołom sieciowym urządzenia działające w sieci mogą wymieniać komunikaty i informacje. Aby możliwa była komunikacja pomiędzy dwoma komputerami, musi zajść kilka ważnych etapów. Przede wszystkim, protokół sieciowy musi zidentyfikować proces, który wysyła informacje do adresata. Dzięki temu jest możliwe określenie, kto powinien odebrać wiadomość, a także dokąd ją zwrócić jeśli nie dotrze na miejsce. Najczęściej informacje przesyłane przez sieć są dzielone na tak zwane pakiety, dzięki którym łatwiej jest przepchnąć dane przez sieć. Niestety, często pakiety przychodzą nie w takiej kolejności jak się je wysłało - dlatego ważne jest, aby protokół sieciowy określał, w jaki sposób stwierdzać oryginalną kolejność pakietów. Protokół zatem dzieli informacje na paczki, adresuje je i wysyła. Natomiast po stronie odbiorcy odbiera paczki wiadomości, ustawia je w odpowiedniej kolejności, a następnie scala z powrotem do wyjściowej postaci. Protokoły poza tym muszą czuwać nad bezpieczeństwem transmisji, a także dbać o pakiety zagubione lub które uległy przekłamaniu ze względu na błędy transmisji.
Istnieje wiele bardzo różnych protokółów sieciowych. Przykładami mogą być takie protokoły jak:
IP - Internet Protocol, wchodzący w skład pakietu protokołów TCP/IP
ICMP - Internet Control Message Protocol, rozbudowana wersja protokołu IP, pozwalająca na wykrywanie przekłamań w pakietach
UDP - User Datagram Protocol, protokół bezpołączeniowy, szybki, ale za to bez możliwości sprawdzania błędów transmisji
ARP - Address Resolution Protocol, służący do przeprowadzenia adresu internetowego na sprzętowy adres karty sieciowej
RARP - Reverse Address Resolution Protocol jest odwrotnością, lustrzanym odbiciem protokołu ARP - przeprowadza adresy kart sieciowych na logiczne adresy sieciowe
Najczęściej spotykanym i w zasadzie standardowym w dzisiejszym Internecie protokołem jest zestaw TCP/IP. TCP jest to protokół zorientowany połączeniowo, czyli umożliwia zestawienie połączenia w którym efektywnie i niezawodnie przesyłane są dane. Połączenie to charakteryzuje się możliwością sterowania przepływem, potwierdzania odbioru, zachowania kolejności danych, kontroli błędów i przeprowadzania retransmisji. Blok danych wymieniany między współpracującymi komputerami nosi nazwę segmentu (nagłówek + dane). Ponieważ TCP jest protokołem zorientowanym połączeniowo, więc e celu przesłania danych między dwoma modułami TCP, zainstalowanymi w różnych komputerach, konieczne jest ustanowienie, utrzymanie i rozłączenie połączenia wirtualnego.
Protokoł TCP/IP posiada cztery warstwy funkcjonalne. Każda warstwa dodaje do danych przekazywanych z warstwy wyższej informacje sterujące w postaci nagłówków. Nagłówek dodany w warstwie wyższej jest traktowany jako dane w warstwie niższej. Kiedy informacja ma być wysłana, wędruje od najwyższych warstw protokołu do warstwy sprzętowej. Kiedy odbieramy informację, z warstwy sprzętowej jest ona przenoszona w górę hierarchii. Warstwy protokołów TCP/IP używają różnych nazw do określania przekazywanych danych. Aplikacje stosujące w warstwie transportowej protokół TCP nazywają swoje dane strumieniem. Z kolei TCP nazywa swoje dane segmentem.
Warstwa dostępu do sieci jest najniższą warstwą w hierarchii architektury protokołów TCP/IP. W warstwie tej do datagramów (pakietów) IP dodaje się nagłówki oraz zakończenie i w ten sposób otrzymuje się ramki przesyłane w sieci.
Warstwa Internet znajduje się powyżej warstwy dostępu do sieci. Podstawowym protokołem tej warstwy jest IP. Protokół ten jest odpowiedzialny za przesyłanie pakietów zwanych datagramami między użytkownikami sieci. Jest to protokół bezpołączeniowy, co oznacza, że datagramy są przesyłane przez sieć bez kontroli poprawności ich dostarczenia. W efekcie datagram może zostać zgubiony w sieci, przekłamany lub zniekształcony. Protokół IP jest przeznaczony do sieci o bardzo dobrej jakości i niezawodności łączy transmisyjnych.
Warstwa transportowa zapewnia bezpośrednie połączenie między końcowymi użytkownikami (systemami) wymieniającymi informacje. Do najważniejszych protokołów tej warstwy zaliczamy TCP oraz UDP. Protokół TCP jest protokołem połączeniowym umożliwiającym wykrywanie błędów na obu końcach połączenia. Ma on możliwość ustanowienia i utrzymania połączenia wirtualnego między dwoma użytkownikami w celu przesyłania danych, sterowania przepływem, przesyłania potwierdzeń oraz kontroli i korekcji błędów. Protokół UDP jest protokołem bezpołączeniowym, nieposiadających mechanizmów sprawdzania poprawności dostarczenia danych do miejsca przeznaczenia.
Najwyższą warstwą protokołu TCP/IP jest warstwa aplikacji, gdzie rezydują procesy odpowiedzialne za wysyłanie i odbieranie informacji.
Adresy IP
W sieciach TCP/IP adres komputera zwany jest adresem IP. Oryginalny adres IP jest czterobajtową (32 bitową) liczbą. Przyjęła się konwencja zapisu każdego bajtu w postaci dziesiętnej i oddzielania ich kropkami. Ten sposób zapisu zwany jest notacją kropkowo-dziesiętną. Bity w adresie IP są interpretowane jako adres sieciowy oraz adres hosta. Można jednak niekiedy spotkać inny zapis będący dziesiętnym wyrażeniem 32 bitowej liczby binarnej. Na przykład adres 148.81.78.1 w notacji kropkowo dziesiętnej, będzie w postaci binarnej wyglądał następująco: 10010100010100010100111000000001 zaś dziesiętnie będzie to liczba 2488356353. Określona liczba bitów 32-bitowego adresu IP jest adresem sieciowym, a reszta adresem hostowym. Adres sieciowy określa sieć LAN, zaś adres hosta konkretną stację roboczą w tej sieci.
Sieci komputerowe - podstawowe definicje
Terminal - to urządzenie elektroniczne złożone z monitora oraz klawiatury. Terminale nie posiadają oprogramowania, nie mogą więc pracować w sposób samodzielny, ani łączyć się do innych terminali.
System wielodostępny - to zbiór terminali podłączonych do centralnego komputera. Komputer centralny ma zainstalowane oprogramowanie (aplikacje i system operacyjny), z którego korzystają terminale.
Stacja robocza (ang. workstation) - to komputer z oprogramowaniem, pracujący w sieci komputerowej.
Sieć komputerowa (ang. network) - jest zbiorem połączonych za pomocą medium transmisyjnego stacji roboczych (komputerów), które mogą funkcjonować samodzielnie, komunikując się z pozostałymi komputerami. Podstawową różnicę w porównaniu z systemem wielodostępnym stanowi możliwość komunikacji stacji roboczych (komputerów) pomiędzy sobą w obrębie sieci.
Rodzaje sieci komputerowych:
LAN (ang. Local Area Network) czyli lokalne sieci komputerowe. Sieci ta zawierają od 2 do ok. 100 komputerów znajdujących się na stosunkowo małym obszarze np. w jednym budynku bądź pokoju (np.: sieć w szkolnej pracowni)
WAN (ang. Wide Area Network) czyli rozległe sieci komputerowe. Są to sieci łączące różne sieci lokalne na większym obszarze np. miasta (np.: Trójmiejska Akademicka Sieć Komputerowa), państwa bądź całego świata (np.: sieć Internet)
Podstawowe zastosowania sieci:
używanie oprogramowania zainstalowanego na innych maszynach
wykorzystywanie rozproszonych baz danych znajdujących się na komputerach całego świata
przesyłanie danych w postaci tekstu, obrazu i dźwięku
poczta elektroniczna
używanie zdalnych urządzeń peryferyjnych jak drukarki, skanery
Serwer - komputer oferujący innym komputerom usługi sieciowe, m.in.:
dostęp do plików
dostęp do urządzeń peryferyjnych
dostęp do aplikacji,
dostęp do napędów
Klient - komputer odbierający (wykorzystujący) różnorodne usługi sieciowe, jakie oferują serwery.
Sieciowy system operacyjny - to system działający na serwerze, który zarządza i steruje pracą sieci komputerowej.
Do najbardziej znanych sieciowych systemów operacyjnych należą:
Systemy Unix (Solaris, AIX, HP-UX, Irix)
Systemy Linux (RedHat, Slackware, Debian)
Windows 2000/2003
Protokół sieciowy - to zestaw reguł sieciowych, przy pomocy których komputery komunikują się pomiędzy sobą.
Topologia - to sposób w jaki stacje robocze połączone są w sieć lokalną. Wyróżnia się cztery podstawowe topologie sieciowe:
szynowa (magistralowa)
pierścieniowa
gwiazdy
drzewa
Nazwy i adresy w sieciach komputerowych
Wyobraźmy sobie środowisko sieciowe, gdzie znajdują się różnorodne typy obiektów, np.:
serwery sieciowe
terminale sieciowe
drukarki
routery bądź inne urządzenia służące do łączenia fragmentów sieci
Użytkownicy sieci z pewnością będą chcieli używać tych obiektów. Aby możliwe było korzystanie z nich, każdemu należy przyznać określony adres sieciowy, zarezerwowany tylko i wyłącznie dla niego. Najłatwiej to zrobić używając adresów liczbowych (numerów IP), które są najłatwiej "przyswajane" przez urządzenia sieciowe. I tutaj pojawia się pewien złożony problem, gdyż taki adres:
jest złożonym ciągiem cyfr
trudno zapamiętać
nie określa w żaden sposób jaki obiekt sieciowy reprezentuje
nie określa jaką funkcję pełni dany obiekt sieciowy
Ze strony zwykłego użytkownika największą trudnością jest zapamiętanie adresu w postaci sekwencji liczb. Aby ułatwić użytkownikom korzystanie z adresów sieciowych należało rozwiązać wszystkie wymienione problemy, jakie niesie ze sobą adresowanie obiektów sieciowych. Dlatego wprowadzono system nazw domenowych, które są łatwiejsze do zapamiętania oraz swą nazwą mogą opisywać funkcję, jaka dany obiekt pełni.
Protokoły sieciowe
Protokół jest zbiorem sygnałów stosowanych przez komputery w trakcie wymiany danych (odbierania, wysyłania oraz kontroli poprawności). Komputery mogą używać wielu protokołów, przykładowo jednego do komunikowania się z jednym systemem, natomiast drugiego do komunikacji z innym.
Protokół w sieci komputerowej to zbiór powiązań oraz połączeń jej części funkcjonalnych. Tylko dzięki nim obiekty tworzące sieć porozumiewają się między sobą. Do głównych zadań protokołu należy identyfikacja procesu, z którym komunikował się będzie proces bazowy. Ponieważ w sieci działa wiele komputerów, niezbędnym jest podanie sposobów określania danego adresata, sposobu zaczynania oraz kończenia transmisji, a także sposobu transmisji danych. Transmitowana informacja może zostać podzielona na fragmenty. W takim wypadku protokół musi potrafić odtworzyć dane do pierwotnej postaci.
Oprócz tego informacja może zostać przesłana niepoprawnie, wtedy protokół musi umieć wykryć i usunąć powstałe w taki sposób błędy. Ilość oraz zróżnicowanie urządzeń funkcjonujących w sieci może stanowić przyczynę niedopasowania prędkości pracy nadawcy oraz odbiorcy informacji. W takich sytuacjach protokół musi zapewniać właściwą synchronizację w przesyłaniu danych przez realizację sprzężeń zwrotnych między urządzeniami, które biorą udział w transmisji. Dodatkowo z uwagi na fakt realizacji połączeń pomiędzy komputerami na różnorodne sposoby, protokół winien zapewniać dobór optymalnej trasy dla danych.
Protokoły sieciowe obsługują adresowanie, weryfikację błędów, informacje o routingu oraz żądania retransmisji. Zawierają również procedury dostępu do sieci, zdeterminowane przez dany rodzaj sieci. Do najpopularniejszych protokołów sieciowych należą:
IP (ang. Internet Protocol), stanowiący fragment protokołów TCP/IP
APPN (ang. Advanced Peer-to-Peer Networking) stworzony przez firmę IBM
CONS (ang. OSI Connection-Oriented Network Service)
CLNS (ang. OSI Connectionless Network Service)
IPX stanowiący fragment protokołów z rodziny SPX/IPX
Microsoft NetBEUI
AppleTalk DDP (ang. Datagram Delivery Protocol)
Do trzech najczęściej stosowanych w sieci lokalnej oraz Internecie protokołów należą: TCP/IP, SPX/IPX oraz NetBEUI
1. TCP/IP
Powiązania pomiędzy protokołami TCP/IP przedstawia model OSI, który jest najczęściej używany, tak w przypadku sieci lokalnej jak i Internetu.
TCP (ang. Transmission Control Protocol) to protokół sterujący transmisją, będący protokołem obsługi połączeniowej procesów użytkownika, który umożliwia niezawodną oraz równoczesną (ang. full-duplex) transmisję strumienia bajtów. Większość internetowych aplikacji użytkowych wykorzystuje protokół TCP.
UDP (ang. User Datagram Protocol) stanowi protokół bezpołączeniowej obsługi procesów użytkownika. Zasadnicza różnica między UDP a TCP polega na tym, że TCP jest protokołem niezawodnym, natomiast UDP nie gwarantuje, że datagramy dotrą do miejsca swego przeznaczenia.
ICMP (ang. Internet Control Message Protocol) jest protokołem międzysieciowych komunikatów sterujących, obsługujący zawiadomienia dotyczące błędów oraz informacje sterujące pomiędzy bramami (ang. gateway) i stacjami (ang. host). Pomimo iż komunikaty ICMP przesyłane są przy pomocy datagramów IP, zazwyczaj nie są one przetwarzane i generowane przez procesy użytkownika, ale przez oprogramowanie sieciowe TCP/IP.
IP (ang. Internet Protocol) to protokół międzysieciowy obsługujący dostarczanie pakietów dla protokołów UDP, ICMP i TCP. Normalnie procesy użytkownika nie muszą utrzymywać komunikacji z warstwą IP.
ARP (ang. Address Resolution Protocol) jest protokołem odwzorowującym adresy internetowe na sprzętowe. Protokoły ARP oraz RARP używany są tylko w niektórych sieciach.
RARP (ang. Reverse Address Resolution Protocol) jest protokołem odwrotnego odwzorowania adresów, odwzorowuje adresy sprzętowe na internetowe.
2. IPX/SPX
IPX/SPX jest zestawem protokołów stworzonym przez firmę Novell. Jego nazwa wzięła się od dwóch podstawowych protokołów z tej grupy: IPX, czyli międzysieciowej wymiany pakietów oraz SPX czyli sekwencyjnej wymiany pakietów. Stos tych protokołów powstał w oparciu o protokół systemów sieciowych stworzony przez firmę Xerox, który stosowany był w sieciach Ethernet pierwszej generacji. Protokół IPX/SPX zyskał na znaczeniu na początku lat 80-tych stanowiąc integralną część systemu operacyjnego Novell Netware. System ten stanowił standard sieciowych systemów operacyjnych przeznaczonych dla pierwszej generacji sieci lokalnych. Protokół IPX w dużej mierze przypomina IP. Jest to bezpołączeniowy protokół datagramowy, nie wymagający ani nie zapewniający potwierdzenia każdego przesyłanego pakietu. IPX polega na protokole SPX w podobny sposób, jak IP polega na protokole TCP w zakresie ustalania kolejności oraz innych usług połączeniowych w warstwie czwartej. Zespół protokołów IPX/SPX działa w czterech warstwach funkcjonalnych:
dostępu do nośnika
łącza danych
Internetu
aplikacji
Podstawowy protokół dla warstwy aplikacji stanowi NCP (protokół rdzenia NetWare). Protokół ten można sprzęgnąć bezpośrednio z protokołem SPX oraz IPX. Wykorzystywany jest do drukowania, poczty elektronicznej, dostępu do katalogów oraz współdzielenia plików. Do innych protokołów warstwy aplikacji należą: protokół informacyjny trasowania, protokół obsługi łącz systemu NetWare oraz firmowy protokół ogłoszeniowy usługi. Protokół warstwy Internetu SPX to protokół połączeniowym, który może zostać wykorzystany do transmisji danych pomiędzy klientem a serwerem, dwoma klientami lub dwoma serwerami. Podobnie jak TCP, SPX gwarantuje niezawodność transmisji IPX, poprzez zarządzanie połączeniem, udostępnianie sterowania strumieniem danych, porządkowanie pakietów oraz kontrolę błędów.
3. NetBEUI
Interfejs NetBEUI opracowany został przez firmę IBM w roku 1985. Jest to stosunkowo mały ale bardzo wydajny protokół komunikacyjny LAN. NetBEUI stanowi protokół transportu wykorzystywany tylko w sieciach LAN w systemach operacyjnych firmy Microsoft. Protokół ten nie jest trasowany, więc jego implementacje ograniczone są jedynie do warstwy drugiej, gdzie funkcjonują komputery pracujące pod kontrolą systemów operacyjnych firmy Microsoft. Do zalet protokołu NetBEUI należą:
swobodna komunikacja komputerów korzystających z systemów operacyjnych bądź oprogramowania sieciowego z rodziny Microsoft
NetBEUI jest całkowicie samodostrajający się, działając najlepiej w niewielkich segmentach LAN
minimalne wymagania dotyczące pamięci
bardzo dobra ochrona przed ewentualnymi błędami w transmisji oraz powrót do prawidłowego stanu w przypadku ich wystąpienia
Główną wadą NetBEUI jest to, że nie może on być trasowany oraz niezbyt dobrze funkcjonuje w sieciach rozległych.
Systemy operacyjne z rodziny Windows - opis
Podstawowe informacje dotyczące systemów operacyjnych
Zanim tak naprawdę dowiemy się jak działają poszczególne systemy operacyjne, musimy zdawać sobie sprawę z tego, czym tak naprawdę SĄ systemy operacyjne. Pozwolę sobie przytoczyć jedną z wielu definicji systemu operacyjnego. Systemem operacyjnym nazywamy specjalistyczny program (właściwie zbiór wielu zależnych od siebie programów), dzięki któremu użytkownik może porozumiewać się ze sprzętem komputerowym. System operacyjny tworzy podkład, środowisko do uruchamiania innych programów zwanych programami użytkownika. System operacyjny powinien wspomagać pracę tych programów tak, by mogły one wykonywać swoje funkcje w sposób jak najbardziej wydajny. Rzadko można ujrzeć w literaturze ogólną definicję systemu operacyjnego. Często podaje się stwierdzenie, że jest to program komputerowy o konkretnych właściwościach. Przede wszystkim jest to program dość rozległy i mocno złożony, ponieważ musi działać pomiędzy użytkownikiem i programami wysokiego poziomu a sprzętem komputerowym. Oprócz tego, najczęściej sterowanie w systemie operacyjnym działa na zasadzie tak zwanych przerwań systemowych. Przerwanie jest impulsem elektrycznym, który mówi, że w systemie zaszło jakieś zdarzenie. Może to być na przykład ruszenie myszką czy wciśnięcie klawisza klawiatury, jednak większość przerwań ma charakter bardziej złożony. Charakterystyczną cechą systemu operacyjnego jest fakt, ze jest to program, który zostaje uruchomiony jako pierwsza aplikacja po włączeniu komputera (jest to sterowane także przerwaniem systemowym mówiącym o włączeniu zasilania) i najczęściej działa do końca pracy komputera, zamyka wszystkie programy i dopiero sama się wyłącza jako ostatnia.
Często mówi się, że systemy operacyjne napisane przez jedno pokolenie służą następnemu. Rzeczywiście, jest w tym trochę prawdy, chociaż obecnie rozwój systemów operacyjnych jest zdecydowanie szybszy niż dawniej, kiedy jedyną możliwością wyboru był UNIX lub DOS.
Okazuje się, że system operacyjny jest jednym z najważniejszych parametrów komputera, wraz z wydajnością procesora czy rozmiarem i szybkością pamięci operacyjnej. Dobry komputer bez równie dobrego systemu operacyjnego nie jest w stanie pokazać wszystkich swoich możliwości. Dlatego decyzję o tym, jaki system operacyjny będzie najlepszy dla naszego komputera, dla sprzętu i zastosowań należy podjąć świadomie.
Rodzaje systemów operacyjnych
Istnieje wiele różnych rodzajów systemów operacyjnych. Pierwszy podziała stosuje się ze względu na to, jak system komunikuje się z użytkownikiem. Są zatem systemy tekstowe, takie jak DOS, gdzie wydaje się polecenia poprzez pisanie rozkazów z klawiatury. Drugim rodzajem systemów są systemy graficzne, najczęściej oparte o system ikon i okienek, sterowane głównie za pomocą myszki. Tego typu rozwiązanie jest oczywiście stosowane w Windows, ale także w graficznych wersjach Linuxa oraz w wielu systemach operacyjnych dla komputerów Macintosh.
Drugim podziałem systemów operacyjnych na pewne klasy jest podział ze względu na architekturę systemu.
I tak, mamy systemy operacyjne monolityczne, takie jak DOS, gdzie system jest jednowątkowy i w jednym czasie może być na nim uruchomiony tylko jeden program. Jest to system bardzo prosty, bez obsługi wielowątkowości, która jest kluczowa w nowoczesnych systemach operacyjnych.
Drugim rodzajem systemów są systemy warstwowe, gdzie różne elementy systemu są ułożone w sposób hierarchiczny. Systemy warstwowe potrafią wykonywać kilka czynności naraz.
No i w końcu mamy systemy operacyjne o architekturze klient-serwer. Są to systemy bardzo złożone i skomplikowane. Pojawiają się najczęściej tam, gdzie mamy sieć w której jeden z komputerów musi sprawować nadzór nad wieloma systemami istniejącymi w sieci. Wówczas każdy z komputerów sieciowych może wysłać do serwera żądanie uruchomienia jakiejś aplikacji klienckiej. Każdy z komputerów działających w sieci działa w swojej przestrzeni adresowej, dzięki czemu nie ma mowy o jakiejś kolizji czy pisaniu po czyjejś pamięci operacyjnej.
Serwery działają na dwa sposoby. Pierwszym z nich jest możliwość wykonywania wszystkich działań przez serwer i wysyłanie tylko wyników działań do komputera klienta. W ten sposób działają na przykład serwery baz danych. Wysyłamy zapytanie do bazy, serwer wykonuje je i zwraca wyniki. Drugą możliwością jest wysłanie tylko danych do komputera klienta, a ten tworzy sam odpowiedzi na pytania. W ten sposób działają na przykład strony internetowe. Serwery wysyłają czysty hipertekst, który jest interpretowany przez przeglądarkę po stronie klienta. Jeśli na przykład na stronie znajduje się funkcja języka JavaScript, wykonywana jest ona właśnie przez przeglądarkę klienta.
Oczywiście w sieci nie musi być wykorzystywana architektura klient-serwer. Często, zwłaszcza w małych lub tymczasowych sieciach, wykorzystuje się architekturę "peer-to-peer", czyli "równy z równym". W takiej sieci każdy komputer ma takie same prawa i każdy korzysta na tych samych zasadach z zasobów innych komputerów. Często wówczas zdarza się, że tymczasowo jeden komputer jest zarówno serwerem, ponieważ ktoś korzysta z jego zasobów, i klientem, ponieważ sam korzysta z pracy innego komputera w sieci.
Cechy systemu operacyjnego
Istnieje wiele różnych kryteriów, które określają jak dobry jest dany system operacyjny.
Liczy się oczywiście łatwość instalacji i obsługi, zwłaszcza jeśli system ma być użytkowany w sposób amatorski, na przykład jako komputer biurowy czy domowy. Dlatego większość użytkowników decyduje się na zakup systemu okienkowego, o intuicyjnej obsłudze i instalacji.
Kolejnym kryterium doboru systemu powinien być fakt, czy dobrze "dogaduje się" on z różnorodnymi programami. Dlatego warto wiedzieć, czy na przykład jeśli w sieci będzie inny system operacyjny, to czy nasz będzie w stanie odczytać coś z jego partycji? Oczywiście większość systemów ma możliwość podłączenia do sieci lokalnych czy Internetu, jednak warto zaopatrzyć się w system, który nie będzie miał problemów z innymi systemami operacyjnymi. Tutaj wybór jest trudny, ponieważ największym potentatem na rynku europejskim jest oczywiście Windows, który raczej z zasady nie chce współpracować z innymi systemami operacyjnymi.
Wybierając system operacyjny należy sprawdzić, czy w ogóle ruszy on na naszym komputerze. Najnowsze systemy operacyjne wymagają na przykład dużo pamięci operacyjnej, przez co są bezużyteczne dla starych komputerów. Również nie należy stawiać systemu Windows na Macintoshu, ponieważ architektura Windowsa jest przeznaczona do komputerów klasy IBM PC. Często zdarza się także, że dana konfiguracja komputera jest na tyle dziwna, że jakiś system może nie posiadać odpowiednich sterowników sprzętowych.
Kolejną rzeczą na którą należy zwrócić uwagę jest fakt, czy dany system operacyjny potrafi działać z aplikacjami, które zapisują dokumenty w innym formacie? Innymi słowy, czy przeznaczony dla Windowsa Microsoft Office będzie w stanie otworzyć napisany pod Linuxem dokument tekstowy? Okazuje się, że najczęściej w tę stronę nie ma problemów, jednak w drugą często nie jest to możliwe. Microsoft skutecznie broni się przez wprowadzeniem jednego standardu plików dokumentów.
Warto także zastanowić się, czy dla danego systemu operacyjnego istnieje na rynku wiele różnych aplikacji użytkowych. Co nam po systemie, który jest sam sobie, a aplikacji do niego nie ma? Dlatego na przykład warto zastanowić się czy rzeczywiście zainstalować Linuxa, skoro prawie nie ma do niego gier komputerowych.
Ostatnimi elementami na które należy zwrócić uwagę jest oczywiście cena oraz lokalizacja, czyli czy dany system operacyjny działa w lokalnym języku. Często bariera językowa jest zbyt duża, by zdecydować się na zakup systemu operacyjnego na przykład w języku angielskim. Jeśli chodzi o cenę, wśród systemów operacyjnych oczywiście wygrywa Linux, który jest systemem darmowym, a z kretesem przegrywa Windows, którego cena woła o pomstę do nieba.
Zadania systemu operacyjnego
Istnieje wiele różnych zadań, jakie systemy operacyjne muszą spełniać w dzisiejszych komputerach.
Przede wszystkim, systemy operacyjne zarządzają działaniem innych programów uruchomionych przez użytkownika. System pilnuje, aby każdy z programów miał przydzieloną izolowaną przestrzeń adresową, tak by nie pisał po nie swojej pamięci.
Oprócz tego system steruje także zasobami komputera. Mowa tu nie tylko o optymalizacji działania procesora i pamięci operacyjnej, ale także o zarządzaniu różnymi urządzeniami podłączonymi do komputera. System może kierować działaniem urządzeń dzięki specjalnym pakietom i narzędziom, zwanym sterownikami. Każdy sterownik udostępnia programom użytkownika pewien interfejs, dzięki któremu za pośrednictwem systemu aplikacje współdziałają ze sprzętem zainstalowanym w komputerze. Większość produkowanego obecnie sprzętu posiada dołączone na płycie sterowniki dla najpopularniejszych systemów operacyjnych.
Każdy system operacyjny ma za zadanie współdziałać z plikami przechowywanymi na dyskach. Systemy operacyjne tworzą na partycjach własny system plików, dzięki któremu wiedzą, gdzie dany plik się znajduje. Pliki w komputerze oprócz tego, że istnieją gdzieś fizycznie zapisane na dysku, posiadają także strukturę logiczną - są ułożone hierarchicznie w katalogi. System musi wiedzieć, gdzie znajduje się na dysku plik o danej lokalizacji logicznej.
System operacyjny współdziała z aplikacjami klienta, dostarczając im potrzebnych im elementów bez wdawania się w szczegóły. Kiedy aplikacja potrzebuje jakiegoś pliku, system odnajduje go, czy to w zasobach lokalnych, czy też w sieci, i udostępnia go aplikacji. Przy czym sama aplikacja nie wie, czy plik został ściągnięty przez system z sieci, czy też znajduje się na komputerze lokalnym. Wszystkie tego typu zadania ukrywania niepotrzebnych szczegółów przed programami użytkownika wykonuje właśnie system operacyjny.
Bardzo ważną cechą współczesnych systemów operacyjnych jest zapewnienie wielozadaniowości lub wielowątkowości. Dzięki temu system operacyjny jest w stanie obsługiwać wiele programów naraz. System sam stwierdza i decyduje, której aplikacji należy przydzielić w danej chwili procesor, a którą można odsunąć od wykonywania, bo na przykład czeka ona na jakieś informacje z dysku.
Istnieje w systemie konkretny proces, zwany powłoką systemową. W wielu systemach jest to integralna część całego programu, często jest też tak, że możemy wymieniać powłoki systemowe na inne, które bardziej pasują do naszej pracy (tak jest na przykład w systemach z rodziny UNIX). Zadaniem powłoki systemowej jest współpraca z użytkownikiem. Wiemy, że współpraca taka może się odbywać graficznie lub tekstowo. Zadaniem powłoki jest odbieranie rozkazów od użytkownika i przekazywanie ich do systemu operacyjnego w celu wykonania.
Ważnym zadaniem systemu operacyjnego jest współdziałanie z innymi komputerami w sieci. W dawnych czasach istniało wiele systemów operacyjnych, które nie były w stanie obsługiwać połączeń sieciowych. Dziś raczej trudno jest sobie wyobrazić działanie z komputerem bez możliwości podłączenia go do sieci. Dzięki sieci komputerowej mamy dostęp do zasobów innych komputerów, do drukarek sieciowych czy w końcu do wielu serwerów WWW za pośrednictwem sieci Internet.
Większość użytkowników działa z systemem operacyjnym na zasadzie amatorskiej. Ich znajomość systemu operacyjnego ogranicza się do zarządzania plikami.
Warstwy systemu operacyjnego
Obecnie na rynku komputerów osobistych królują systemy o architekturze sieciowej. W ogólności wyróżnia się trzy warstwy systemu, są to warstwa fizyczna, która decyduje o tym, jak wygląda współpraca ze sprzętem komputerowym, warstwa jądra systemu, czyli wszystkie narzędzia będące pośrednikami pomiędzy użytkownikiem a sprzętem, oraz wspominana już powłoka systemowa, czyli interfejs, do którego dostęp ma użytkownik. Różne systemy różnie realizują nie tylko poszczególne warstwy (zwłaszcza jądro systemowe jest w każdym z systemów inne), ale także połączenia i współpracę pomiędzy poszczególnymi warstwami systemu.
Kilka systemów operacyjnych na jednym komputerze?
Oczywiście jest to możliwe, a czasem konieczne, aby na jednym komputerze działało kilka różnych systemów operacyjnych. Ważne jest to, by każdy system zajmował oddzielną partycję systemową, a najlepiej oddzielny dysk. Jest to wówczas wygodniejsze dla użytkownika. Natomiast wymóg co do tego, by systemy zajmowały różne partycje jest oczywisty - każdy z systemów operacyjnych posiada własny system plików, który musi być wprowadzony na jego partycji systemowej. Nie byłoby więc możliwe zainstalowanie dwóch systemów o różnej filozofii zapisywania plików na jednym dysku - w końcu musiałyby się "pogryźć".
Jeśli decydujemy się na zainstalowanie na komputerze kilku różnych systemów operacyjnych, zwykle jeden z nich jest systemem nadrzędnym w stosunku do innych i uruchamia się jako pierwszy. Wówczas można stwierdzić, że nie da się spod jednego systemu wywołać innego systemu operacyjnego. Dlatego warto wyposażyć się w program, który uruchamia się jako pierwszy jeszcze przed startem systemu, a który pozwala na wybór, z której partycji systemowej powinien wystartować system operacyjny. Programów tego typu jest bardzo dużo, wybór nie jest więc ograniczony. Takie programy nadzorujące start systemu działają jak szlabany. NA początku każdy system operacyjny ma szlaban zamknięty. Następnie użytkownik wybiera system, który ma być uruchomiony, i ten system otrzymuje pozwolenie na uruchomienie się. Potem już wszystko działa tak jak przy normalnym uruchamianiu pojedynczego systemu.
Będąc przy managerach ładowania systemu i przy różnych systemach na danym komputerze, warto powiedzieć co nieco o tak zwanych symulatorach bądź emulatorach systemów komputerowych. Zasada działania tego typu programów jest prosta - program imituje środowisko pracy komputera o innych właściwościach. Na przykład, na komputerze PC za pomocą emulatorów można stworzyć środowisko do uruchamiania gier PlayStation. To samo można zrobić by stworzyć mini wersję Commodore czy znanych z salonów gier automatów.
Emulatory działają dzięki stworzeniu cyfrowego modelu komputera, który reprezentują. W takim modelu przedstawione jest w pewnym uproszczeniu wszystko, począwszy od procesorów i pamięci, a skończywszy na elementach interakcji z użytkownikiem.
Innym tego typu narzędziem jest program pozwalający na uruchomienie na naszym komputerze maszyny wirtualnej. Dzięki temu możemy mieć na komputerze symulację innego systemu operacyjnego. Często wykorzystuje się to, aby spod niezawodnego jądra Linuxa można było korzystać z Windowsa, na przykład po to, by zainstalować na nim gry, które nie pójdą pod "czystym" Linuxem. Programy maszyn wirtualnych tworzą wirtualną partycję systemową dla uruchamianego nowego systemu operacyjnego.
System operacyjny MS DOS
Jednym z najważniejszych w historii systemów operacyjnych, a także swego czasu najbardziej popularnym systemem jest system MS DOS, wyprodukowany w laboratoriach firmy Microsoft. Jest to system prosty, jednowątkowy, w którym naraz mógł działać tylko jeden program. Wraz z rozwojem systemu MS DOS rozwijały się komputery. Kolejne wersje tego systemu pokazują, jak wiele wydarzyło się w historii od momentu pojawienia się komputerów osobistych aż do wydania pierwszych systemów graficznych, które były dużo bardziej wygodne dla użytkowników i przez które DOS szybko poszedł w zapomnienie.
MS DOS jest nazwą powstałą jako skrót od słów Microsoft Disc Operating System, czyli po prostu Dyskowy System Operacyjny firmy Microsoft. Najczęściej nie używa się tekstowej postaci tego systemu, ale nakładki pozwalające na łatwiejsze operowanie zasobami dyskowymi. Oczywiście na początku warto zaznajomić się także z tekstowym DOSem, po to, by mieć pojęcie, na jakiej zasadzie działa wydawanie poleceń komputerowi. Potem warto także wziąć pod uwagę używanie nakładek systemowych.
Najważniejszą i długi czas najczęściej używaną nakładką jest Norton Commander. Obecnie używa się graficznej wersji tego typu nakładki, o nazwie Windows Commander.
Norton Commander jest menedżerem plików. Polskim odpowiednikiem tego programu był Foltyn Commander. Program ten posiada dwa umieszczone obok siebie okienka, w których widać otwarte katalogi. W każdym okienku można ustawić inny katalog. Dzięki temu łatwo można na przykład kopiować lub przenosić elementy pomiędzy katalogami - wystarczy zaznaczyć plik i wcisnąć odpowiedni klawisz funkcyjny aby przenieść lub skopiować go do katalogu znajdującego się w drugim okienku.
Używanie tego typu menedżerów plików jest bardzo wygodne, ponieważ nie trzeba zawracać sobie głowy wpisywaniem żmudnych komend i ścieżek dostępu.
Pierwszy Windows również był stworzony jako nakładka - graficzna - na DOS.
Najważniejszymi plikami systemowymi DOSa są pliki command.com, io.sys oraz msdos.sys. Pliki te sterują uruchamianiem systemu oraz jego działaniem. Dzięki tym plikom przekazywane jest sterowanie do innych aplikacji, a także do systemu w momencie zamknięcia aplikacji. Kiedy DOS ładowany jest do pamięci, najpierw wczytywane jest jego jądro, czyli pliki msdos.sys oraz io.sys (odpowiedzialny za urządzenia wejścia i wyjścia). Następnie wczytywane są ustawienia systemowe z pliku konfiguracyjnego config.sys oraz z pliku autoexec.bat. W tym pliku często zapisane są ścieżki dostępu do narzędzi, które przy uruchamianiu systemu diagnozują, czy działa on prawidłowo.
Jak wiemy, w DOSie naraz może działać tylko jeden program. To dlatego, że DOS nie jest systemem wielowątkowym czy, jak to się zwykło określać, wieloużytkownikowym. System ten nie był w stanie przełączać procesora pomiędzy różnymi działającymi procesami, dlatego na przykład nie mógł być wykorzystywany jako system operacyjny serwerów sieciowych.
Co zatem potrafi stary poczciwy DOS? Okazuje się, że całkiem sporo.
Przede wszystkim, zarządza pamięcią operacyjną. Aby aplikacja mogła działać prawidłowo, potrzebuje, by system przydzielił jej określoną ilość pamięci operacyjnej. Po zakończeniu działania aplikacja powinna wysłać do systemu operacyjnego prośbę o zwolnienie zarezerwowanej pamięci, inaczej szybko by się ona skończyła.
Oprócz tego, system DOS był w stanie sterować działaniem różnego rodzaju urządzeń. System analizował naciskane klawisze klawiatury, a także, po wgraniu specjalnych sterowników, mógł śledzić ruchy myszy. DOS działał także w wersji graficznej, zatem mógł wyświetlać kilka różnych kolorów. Wiele gier powstało na dyskietkach dla systemu DOS.
Oczywiście najważniejszym zadaniem systemu operacyjnego jest zarządzanie plikami. System DOS potrafił to robić, potrafił tworzyć nowe pliki, zapisywać je na dysku, potrafił odczytać pliki dzięki ścieżkom logicznym. Również ciekawą funkcją jest fakt, że pliki mogły być kasowane w strukturze hierarchicznej, to znaczy przy usuwaniu katalogu usuwane były także pliki znajdujące się w nim i w jego podkatalogach. Funkcja taka była w tamtych czasach wysoce nieoczywista i nie zawsze łatwa do zaimplementowania.
Kiedy system znajdzie się w jakichś kłopotach, jest jego obowiązkiem zdiagnozowanie problemu i wyświetlenie stosownego ostrzeżenia. Takie wyjątkowe sytuacje to może być na przykład brak dysku w stacji lub nagłe odłączenie klawiatury, ale także błąd zapisywania pliku na przykład ze względu na to, że dysk jest chroniony przed zapisem.
Historia DOSa sięga roku 1980, kiedy to wyprodukowany został system operacyjny 86-QDOS dla Intelowskich procesorów 16-bitowych. Rok później firma Microsoft kupiła ten pomysł i wypuściła na rynek pełnowartościowy system operacyjny dla komputerów klasy IBM PC o nazwie MS DOS. Był to oczywiście strzał w dziesiątkę. Nowoczesny jak na owe czasy system operacyjny szybko zyskał sobie sympatyków na całym świecie.
Pierwsze wersje MS DOS pracowały na komputerach wyposażonych w procesory klasy 386. Na dysku zajmowały około piętnastu kilobajtów miejsca, a do pracy potrzebowały ośmiu do szesnastu kilobajtów pamięci operacyjnej. Dziś, w dobie kilkugigowych pamięci wydaje nam się to śmieszne, jednak takie były możliwości ówczesnych komputerów.
Już w dwa lata po pierwszej wersji DOSa na rynku pojawił się MS DOS 2.0, który był poprawioną wersją poprzednika. Przede wszystkim charakteryzował się tym, że mógł mieć dogrywane sterowniki różnych urządzeń, a także że obsługiwał omawianą już hierarchiczność plików. Ten system potrzebował już więcej pamięci operacyjnej, ponieważ było to dwadzieścia cztery kilobajty. Kolejne wersje MS DOS wprowadzały coraz to nowe funkcje, przede wszystkim tworzenie "dużych", o wielkości nawet 32 MB, partycji na dysku.
W latach dziewięćdziesiątych system dalej był rozwijany. W 1991 pojawił się w DOSie system pomocy, a także program do obsługi plików, coś w rodzaju eksplorera, pod nazwą DOS Shell (powłoka DOSa). Pierwsze poważne zestawy narzędzi do DOSa pojawiły się w roku 1993, kiedy to można już było uruchamiać w DOSie narzędzia do defragmentacji dysku, kompresji danych czy ochrony antywirusowej. Ta wersja pozwalała także na obsługę stacji CD-ROM.
Nowe spojrzenie na DOSa pojawiło się w roku 1985, kiedy to pojawiła się nakładka na system, o nazwie Microsoft Windows.
Historia DOSa kończy się na wersji 6.0 z roku 1993. Kolejnym dzieckiem firmy Microsoft okazuje się być system operacyjny, oparty na DOSie, ale pracujący na innych zasadach i przede wszystkim wielowątkowy - był to Windows 95.
Całe szczęście, że DOS przestał w pewnym momencie być rozwijany. Okazało się bowiem, że zbytnie przywiązanie firmy IBM do tego systemu nie pozwoliło na szybki rozwój komputerów klasy PC.
MS DOS nie był jedynym wyborem dla użytkowników ówczesnych komputerów. Oprócz niego na rynku istniał na przykład system operacyjny PC-DOS firmy IBM, która długi czas próbowała podpisać kontrakt na produkcję DOSa z innymi firmami, nie z Microsoft.
Innym produktem konkurencyjnym do DOSa był DR-DOS, początkowo ponieważ był wyposażony w więcej narzędzi systemowych i raczej lepiej zarządzał pamięcią, nawet był bardziej popularny od dziecka firmy Microsoft. W roku 1991 firma Novell zakupiła firmę produkującą DR-DOS i już pod swoim szyldem wyprodukowała system Novell DOS 7.0. Miał to być system wspomagający pracę sztandarowego systemu firmy Novell - NetWare. Okazało się jednak, że przywiązanie użytkowników ma swoje znaczenie i to właśnie MS DOS firmy Microsoft okazał się najlepszym rozwiązaniem, z którego w samych Stanach Zjednoczonych na początku lat dziewięćdziesiątych korzystało 50 milionów komputerów. DOS przeszedł także lokalizację i został przetłumaczony na wiele różnych języków.
Niektórzy mogą zacząć się zastanawiać, po co w ogóle roztrząsać DOSa, uczyć się, jakie miał ograniczenia i cechy, skoro i tak nie jest używany. To prawda, jednak do niedawna system DOS był jeszcze wykorzystywany jako jądro systemów z rodziny Windows. Na jądrze DOSa działał system Windows 95 i Windows 98. Nowe jądro zostało stworzone dla systemów z rodziny Windows NT, dlatego w dziś najpopularniejszym systemie Windows XP DOSa rzeczywiście nie ma.
Problem z DOSem był już od samego początku. Przede wszystkim chodziło o sterowniki urządzeń, które programistom DOSa sen spędzały z powiek. Każdy ze sterowników, jako że nie było jakiegoś standardu, udostępniał użytkownikowi swój własny interfejs. Dlatego programiści różnych aplikacji musieli przewidzieć, na jakich komputerach z jakimi sterownikami będą musiały współpracować ich aplikacje. Każda aplikacja musiała współpracować z wieloma różnymi urządzeniami, dlatego zaprogramowanie czegoś w systemie DOS było rzeczywiście trudne.
Kolejnym utrudnieniem dla programistów aplikacji pod DOS był fakt, że każda z tych aplikacji mogła mieć przydzielone maksymalnie 640 KB pamięci operacyjnej. Było możliwe rozszerzenie tej pamięci, jednak znów musiały być napisane dla pamięci operacyjnej (każdego producenta) osobne sterowniki EMS i XMS.
DOS generalnie, choć nie jest systemem warstwowym, jednak posiada wyraźnie zarysowane podstawowe warstwy, tak jak inne systemy operacyjne. Pierwsza warstw, zwana warstwą fizyczną, jest odpowiedzialna za komunikowanie się ze sprzętem. W DOSie funkcję tę spełnia BIOS, zresztą w większości systemów operacyjnych właśnie BIOS jest podstawowym programem wejścia-wyjścia, który steruje pracą wszelkich urządzeń. Oprócz sprzętowego BIOSu umieszczonego na stałe w płycie głównej komputera, BIOS systemowy zawiera także zbiór narzędzi używanych przez sam system operacyjny i specyficzny dla każdego z nich. Drugą warstwą jest oczywiście jądro systemu operacyjnego. Tutaj najważniejszymi narzędziami są elementy odpowiedzialne za system obsługiwania plików. Trzecia warstwa w DOSie to powłoka systemowa, bardzo uboga i prymitywna. Nic dziwnego, że z czasem stworzono dużo bogatszą, graficzną wersję takiej powłoki o nazwie Windows.
Niestety, różne ograniczenia DOSa przyczyniły się w końcu do powolnego jego upadku. Sytuację miały ratować specjalne, potężne programy rozszerzające (extendery), które symulowały nowocześniejszy system operacyjny, na przykład trzydziestodwubitowy. Niestety, nie zdało się to na wiele i wraz z rozwojem komputerów, procesorów, płyt głównych i pamięci operacyjnej zaczęto poszukiwać nowoczesnych rozwiązań systemowych dla nowoczesnego sprzętu.
Systemy operacyjne z rodziny Windows
Systemy z rodziny Windows stały się bardzo ciekawą alternatywą dla DOSa, który w czasach procesorów pracujących w trybie chronionym stał się przestarzały. Jego jednowątkowość zdecydowanie przeszkadzała w rozwoju komputerów.
System Windows właściwie nie był systemem operacyjnym w ścisłym tego słowa znaczeniu. Był jedynie powłoką systemową, natomiast jądro oraz warstwa fizyczna były wprost wzięte z DOSa. Dlatego zwykło się mawiać, że Windows był nakładką systemową na DOSa.
Firma Microsoft prace nad Windowsem rozpoczęła na początku lat dziewięćdziesiątych. Sposób wydawania poleceń w Windows był rewolucyjny. Wcześniej mysz raczej nie była wykorzystywana przez użytkowników komputera, a tu właśnie mysz stała się podstawowym elementem w procesie wydawania rozkazów komputerowi. Dzięki swojemu graficznemu interfejsowi i intuicyjności obsługi system ten szybko stał się bardzo lubiany i często wykorzystywany zwłaszcza w zastosowaniach domowych i biurowych, nieprofesjonalnych.
Każdy kolejny system Windows był coraz lepszy. Powstało ich naprawdę cała masa, począwszy od nakładek na DOS, poprzez pierwsze Windowsy 95 oraz 98 w wielu różnych wersjach, a skończywszy na świetnej linii NT i Windowsie XP. Obecnie najnowszym dzieckiem Microsoft jest 64-bitowy system operacyjny Windows Vista.
Dla Windowsów powstało na świecie ogromna ilość oprogramowania i sterowników urządzeń. Najwięcej gier komputerowych jest przeznaczona dla systemu z Redmond. Nic dziwnego, że założyciel i do niedawna właściciel firmy Microsoft przez lata królował jako najbogatszy człowiek świata. Obecnie przeszedł na zasłużoną emeryturę.
Warto jednak wiedzieć, od czego to wszystko się zaczęło. Na pewno niełatwo było wpaść na pomysł wykorzystania "okienek" oraz "ikon" do wydawania rozkazów komputerowi. Pomysł ten nie jest jednak nowy. Pierwsze tego typu przedsięwzięcia były tworzone już w latach siedemdziesiątych, kiedy to firma Xerox wyprodukowała komputer Xerox Star. Uważa się, że jest to pierwszy komputer wykorzystujący technologię okienkową i sterowany za pomocą myszki. Niestety, komputer ten nie został zakwalifikowany do produkcji masowej. Kontynuatorem nowatorskiej myśli firmy Xerox był komputer Lisa firmy Apple. Apple otrzymało licencję na pomysł z okienkami od firmy Xerox. Lisa była poprzedniczką Macintosha, który do tej pory święci triumfy, zwłaszcza w Stanach Zjednoczonych. Systemy i komputery firmy Apple są według wielu ludzi dużo lepsze i niezawodne niż komputery klasy PC z wątpliwymi systemami operacyjnymi Windows. Kiedy na komputerach klasy IBM PC królował jeszcze DOS i jego prymitywny interfejs użytkownika, wielu właścicieli Macintosha już od dawna posługiwało się myszką i systemem okienkowym.
Dlatego właśnie błędne jest twierdzenie, że system okien (po angielsku windows) został wymyślony przez firmę Microsoft. Należy zdawać sobie sprawę, że Microsoft podpatrzył pomysł u Apple'a i zaadaptował go dla komputerów klasy PC. Okazuje się, że pomysł na okna został - jak twierdzi wielu - skradziony firmie Apple przez Billa Gatesa, który starał się podpisać umowę z Applem. Bill Gates otrzymał od Apple'a pierwszy egzemplarz Macintosha jeszcze zanim trafił on do sklepów. Wówczas to Bill Gates wpadł na pomysł, aby samemu stworzyć podobne środowisko graficzne. Nazwał je Windows. Apple przez długie lata był tym oburzony i dziś jest uważany za jeden z największych wrogów Microsoftu na rynku systemów operacyjnych i w ogóle oprogramowania.
Nakładka systemowa Windows
Pierwsze środowisko graficzne firma Microsoft stworzyła już w roku 1983, jednak do produkcji trafił on dopiero pod koniec roku 1985. Przez długi czas dzięki Microsoft na rynku działała firma Micrografx, która tworzyła dla firmy z Redmond grafikę. Początkowa, przedpremierowa wersja systemu Windows działała tylko i wyłącznie z programem firmy Micrografx. Dziś, w obecności dwóch silnych konkurentów - Corela i Adobe - o firmie Micrografx niezbyt się pamięta.
O pierwszych krokach Windowsa okazuje się też niewielu pamięta. Pojawienie się nakładki graficznej na DOSa zostało przyjęte dość spokojnie, bez fanfar i wiwatów. Nie podniosło to jednak sprzedaży komputerów z systemem DOS, wręcz przeciwnie - komputery Macintosh długo były znacznie bardziej popularne od pecetów.
Zmieniło się to nieco na korzyść Windowsa po pojawieniu się w roku 1990 wersji trzeciej nakładki, a potem wersji 3.1 oraz 3.11. Przez długi czas systemy te cieszyły się wielkim powodzeniem. Dość powiedzieć, że odniosły one podobny sukces jak DOS - nawet pięćdziesiąt milionów użytkowników!
Podstawową zaletą w stosunku do systemów DOS była w Windowsie wielozadaniowość. Naraz można było korzystać z kilku małych programów (nadal ograniczony był dostęp do nowoczesnej, dużej pamięci operacyjnej). Ciekawą, dla nas oczywistą zaletą Windowsa było wykorzystanie czegoś w rodzaju schowka systemowego, dzięki któremu można było "wycinać" i "wklejać" pliki w różnych katalogach. Takie przenoszenie przez pamięć jest bardzo wygodne.
Użytkownicy w czasie korzystania z Windowsów mieli oczywiście wiele zastrzeżeń. Niektóre z sugestii zostały przez programistów Microsoft docenione i wykorzystane w kolejnych wersjach Windowsa: 3.1 oraz 3.11. Ciekawą funkcją w Windowsie 3.1 była możliwość ustawiania kroju czcionki TrueType (oznacza to, że czcionka będzie taka sama na ekranie i na wydruku). W Windowsie pojawiły się także mini gry komputerowe. Najsłynniejsza tego typu gra - Saper - została wprowadzona do Windowsa już w wersji 3.1.
Rozwój nakładki systemowej pociągał za sobą rozwój oprogramowania. Powstawało wiele programów typu freeware (darmowych, dostępnych dla każdego na przykład w Internecie), dzięki którym praca z nakładką była jeszcze bardziej wydajna, łatwiejsza i bardziej intuicyjna. Jak grzyby po deszczu powstawały edytory ikon, wygaszacze ekranu czy menedżery plików i aplikacji. Bardzo ważnym wydarzeniem było zainteresowanie się bezpieczeństwem i wydajnością systemu przez twórcę pakietu narzędziowego Norton Utilities.
Równie szybko i dynamicznie rozwijał się rynek oprogramowania komercyjnego dla Windows. Sam Microsoft już pod koniec lat osiemdziesiątych stworzył dla swojego Windowsa jeden z najbardziej popularnych edytorów tekstu - Microsoft Word. Przez długi czas konkurował z nim na tym rynku edytor Lotus, jednak to właśnie Word, początkowo sam, potem jako część pakietu biurowego Microsoft Office stał się podstawowym edytorem wyznaczającym często nowe standardy. W pakiecie znanym potem jako Microsoft Office pojawił się także zupełnie nowy, nieznany pod DOSem program do tworzenia arkuszy kalkulacyjnych - Microsoft Excel.
Jeśli chodzi o programy graficzne, to obok początkowo wielkiego potentata firmy Micrografx pojawiły się także inne korporacje, takie jak Corel ze swoim programem Corel Draw oraz Adobe.
Windows 3.1 wykorzystywał wiele ważnych cech komputerów z procesorami klasy Intel 80386. Pomimo że uważa się go za nakładkę na DOS, wiele funkcji wprowadzonych do Windowsa przez firmę Microsoft byłoby niemożliwe do wykonania i zaimplementowania w tradycyjnym DOSie. Mowa tu głównie o wielowątkowości, której nawet najnowsze wersje DOSa nie miały. Nakładki Windows dużo lepiej wykorzystywały sprzęt dzięki udoskonalonemu systemowi sterowników do kart graficznych czy dźwiękowych.
Kolejna ciekawa wersja Windowsa 3.1 ukazała się w roku 1992. Był to Windows for Workgroups. System ten umożliwiał obsługiwanie sieci lokalnej. Oczywiście nie był to w żadnym razie żaden duży sieciowy system, raczej zabawka do tworzenia małych sieci komputerowych opartych na architekturze "równy z równym" ("peer-to-peer"). Elementy sieciowe w Windows for Workgroups to między innymi możliwość wymiany plików w sieci, możliwość współdzielenia drukarek i innych tego typu urządzeń, a także okrojona wersja programu do wysyłania poczty elektronicznej w sieci, dzięki któremu nie trzeba było posiadać w sieci serwera poczty elektronicznej. Również ta wersja jako pierwsza posiada sieciową grę komputerową - były to "Kierki". Ot, ciekawostka.
Rozszerzoną wersją systemu Windows for Workgroups był Windows 3.11. Było to środowisko umożliwiające 32-bitowy dostęp do plików.
Nakładka systemowa Windows 4.0, choć chodziły takie słuchy, nigdy nie wyszła. Zamiast tego Microsoft uraczył użytkowników niezłym cackiem, jak na tamte czasy - był to pełnoprawny system operacyjny pod nazwą Windows 95. W dniu wypuszczenia tego systemu na rynek sklepy komputerowe przeżywały prawdziwe oblężenie użytkowników czekających na przyjazd pierwszych partii towaru.
System operacyjny Windows 95
Rzeczywiście, okazało się, że jest na co czekać. Początkowo system operacyjny Windows 95 otrzymał roboczą nazwę Windows 4.0, natomiast znany był pod nazwą kodową Chicago. Przez wiele miesięcy od premiery liczba zwolenników systemu Windows 95 gwałtownie rosła. Było to spowodowane faktem, że system ten był znakomitym narzędziem do zastosowań biurowych i domowych.
Windows 95 diametralnie różni się od swoich poprzedników. Posiada rozbudowany mechanizm współpracy pomiędzy systemem a działającymi w nim aplikacjami i procesami. Jądro systemu działało na architekturze 32-bitowej, wykorzystywanej jeszcze w Windowsie XP. Bardzo rozbudowane zostały możliwości sieciowe i internetowe systemu. Poprawiono także zarządzanie pamięcią operacyjną, które przez wiele lat kulało w większości systemów operacyjnych firmy Microsoft.
System Windows 95 był w pełni wielozadaniowy. Oznacza to, że system ten potrafił działać z wieloma aplikacjami naraz, przełączając czas procesora pomiędzy wszystkie działające procesy.
Minimalne wymagania sprzętowe Windowsa 95 nie były wygórowane. Do poprawnego działania system potrzebował procesora klasy Intel 80386. Oprócz tego zalecane jest wyposażenie sprzętu w minimum cztery megabajty pamięci operacyjnej.
W sumie wersji systemu Windows 95 powstało oprócz tej podstawowej jeszcze trzy. Są to:
Windows 95 OSR (Potem z Service Packiem). W wersji tej po raz pierwszy dodano do systemu bezpłatnie przeglądarkę internetową Internet Explorer w wersji 2.0. Do tej pory uważa się tą przeglądarkę za nieudaną, jednak jest najczęściej stosowaną przeglądarką na świecie właśnie ze względu na to, że jest dodawana bezpłatnie jako część systemu operacyjnego Windows. W wersji OSR było także poprawionych kilka drobnych niedociągnięć systemu. Wersja ta była sprzedawana wyłącznie jako OEM, co oznacza, że mogła być zainstalowana tylko na świeżo kupionym komputerze.
Windows 95 OSR 2 (Potem z Service Packiem 2). Ta wersja charakteryzowała się już nowoczesnym systemem zarządzania plikami - FAT 32. Oprócz tego dodana była do niej graficzna biblioteka DirectX, wykorzystywana do dziś przez wiele gier komputerowych. Wersja OSR 2 wyposażona była także w nowszą przeglądarkę Internet Explorer (3.0). Również i tę wersję można było otrzymać tylko na świeżo zakupionym komputerze, nigdy nie była wydawana na płytach jako osobny produkt.
Windows 95 OSR 2.5 (Potem z Service Packiem 2.5). W tej wersji dodano przede wszystkim nową wersję biblioteki graficznej DitectX (w wersji piątej), czwartą wersję Internet Explorera, a także uruchomiono możliwość obsługiwania standardu USB. I jej nie można było otrzymać jako osobny system, była dostępna jedynie jako OEM ze świeżo kupionym sprzętem.
System operacyjny Windows 98
Kilka lat po premierze systemu operacyjnego Windows 95, w czerwcu 1998 roku na rynek wkroczył jego następca, Windows 98. Chociaż jego wprowadzenie nie było już tak rewolucyjne jak Windowsa 95, który z nakładki systemowej stał się pełnym systemem operacyjnym, to jednak właśnie Windows 98 przez wiele lat, nawet do dziś jest używany w starszych komputerach. Zmiany, jakie zaszły w Windows 98 w stosunku do wersji z roku 1995, są raczej drobne. Przede wszystkim w systemie tym usprawniono elementy związane z multimedialnością, grafiką i rozrywką. Również poprawione zostały w nim narzędzia wspomagające podłączanie się do sieci oraz Internetu.
Istnieje wiele kosmetycznych zmian w stosunku do Windowsa 95, wiele z nich jednak, jak się okazało, rzeczywiście ułatwiły życie. Przede wszystkim, system został wyposażony w profesjonalny system pomocy dostępny przez Internet. Standardem w tym systemie stał się nowoczesny jak na owe czasy system obsługi plików - FAT 32. Ciekawym rozwiązaniem jest w tym systemie połączenie przeglądarki internetowej z menedżerem plików Windowsa.
System Windows 98 został także wyposażony w wiele użytecznych programów systemowych. Przede wszystkim zawiera on program do tworzenia kopii zapasowych różnych danych, a także aktywny pulpit, który może przedstawiać każde zdjęcie w formacie pliku graficznego., W Windowsie 95 nie było takich możliwości multimedialnych. Ciekawą opcją systemu Windows 98 jest możliwość używania przy jednym komputerze wielu monitorów. Usługa ta była często stosowana przy prezentacjach multimedialnych, gdzie na jednym obrazie (na monitorze komputera) był tekst wystąpienia, a na drugim - najczęściej przepuszczonym przez rzutnik i umieszczonym na ścianie - pokazywana była część rysunkowa, objaśniana przez mówcę.
W systemie Windows 98 standardem jest już obsługa nowych urządzeń, pracujących w takich technologiach jak AGP (karty graficzne), USB (urządzenia przechowujące dane), ISDN czy też DVD. System ten pomyślany był jako jak najbardziej multimedialny, dlatego nie może dziwić jego wsparcie dla akceleratorów grafiki.
Aby używać systemu Windows 98 należało posiadać komputer przynajmniej o procesorze klasy Pentium o częstotliwości taktowania zegara 166 MHz. Minimalna ilość pamięci operacyjnej dla tego systemu to 32 MB.
Około roku po ukazaniu się pierwszej wersji systemu, zgodnie z sugestiami wielu użytkowników, na rynku pojawiła się druga wersja tego systemu o wdzięcznej nazwie Windows 98 SE (Second Edition). Jest to dużo lepszy system od swojego poprzednika. Poprawiono w nim masę błędów, przede wszystkim błędy w zabezpieczeniach.
System operacyjny Windows NT
Podczas gdy w linii systemów operacyjnych przeznaczonych dla użytkowników indywidualnych królował Windows 95, Microsoft rozpoczął prace nad sieciowym systemem operacyjnym opartym na opatentowanej przez firmę Nowej Technologii. Czwarta wersja tego systemu, jedna z najszerzej stosowanych, ujrzała światło dzienne już w roku 1996. Windows NT, bo to o nim oczywiście mowa, miał być przede wszystkim systemem niezawodnym i bezpiecznym. Wykorzystano graficzną powłokę systemów Windows, dlatego dla wielu użytkowników nie było problemu z przejściem z Windowsa 95 na NT.
System Windows NT oferował środowisko w pełni 32-bitowe. Dzięki zastosowaniu Nowej Technologii rzeczywiście stał się on bardziej niezawodny niż Windows 95 i później 98. Niestety, miało to też wady - przede wszystkim nowoczesność systemu i nowy system plików NTFS (New Technology File System) nie był kompatybilny z urządzeniami i oprogramowaniem tworzonym dla Windowsa 95, który działał na systemie plików FAT. Windows NT mimo wielu swoich zalet miał też wady, do których zaliczały się na przykład problemy z instalacją, która nie była intuicyjna i raczej wymagała sporej wiedzy z zakresu systemów operacyjnych i przerwań.
Istnieją tak naprawdę dwa systemy Windows NT.
Pierwszym z nich jest Windows NT Server, który działał właściwie wyłącznie jako system dla serwerów sieciowych. Raczej nie spotykało się go często w systemach komputerowych przeznaczonych dla małych sieci lub indywidualnych.
Drugim rodzajem tego systemu był Windows NT Workstation. Rzeczywiście, ten system był całkiem niezłym posunięciem ze strony Microsoft. Był to system przeznaczony dla pojedynczych użytkowników, także użytkowników sieci, którym zbrzydły ciągłe problemy z systemami z rodziny Windows 95/98. Rzeczywiście, tajemnicza Nowa Technologia bardzo zwiększyła niezawodność systemu i jego stabilność, dlatego Windows NT szybko zyskał sobie grono sympatyków. System ten trudno było zdestabilizować, podczas gdy w systemach 95 i 98 wystarczył maleńki błąd w aplikacji, na przykład wyciek pamięci, i system szybko się zawieszał.
Windows NT Workstation był systemem doskonale łączącym wszystkie zalety systemu Windows 95 oraz Windows NT. Z tego pierwszego system ten wziął intuicyjny interfejs, z którego korzystało wiele osób i który był znany i lubiany ze względu na swoją prostotę użycia. Natomiast Windows NT dał systemowi temu niezawodność, stabilność i bezpieczeństwo, które były potrzebne użytkownikom.
Wiele systemów operacyjnych Windows NT Workstation znalazło swoje zastosowanie w biznesie i bankowości, jako komputery biurowe, ale także jako komputery domowe, do zastosowań multimedialnych. Bardzo ceniono go za stabilność i bezpieczeństwo danych przechowywanych w nowym systemie plikowym NTFS.
Rzeczywiście, system ten ma wiele zalet. Na przykład, posiada on wydzielone obszary pamięci zarówno dla aplikacji działających w trybie 16- jak i 32-bitowym. Aplikacje te nie ulegają kolizji. Oprócz tego zastosowano w systemie ochronę kodu źródłowego, który często mógł zostać zmieniony lub zniekształcony w Windows 95 przez niektóre agresywne aplikacje. System ten jest w pełni wielozadaniowy. Nie faworyzuje aplikacji 32-bitowych, dlatego teoretycznie wolniejsze programy mogły być obsługiwane w ten sam sposób niż 32-bitowe.
System Windows NT Workstation przez kilka dobrych lat królował na rynku systemów przeznaczonych (zgodnie z nazwą) dla stacji roboczych w różnych sieciach komputerowych. Obsługuje on kilkanaście protokołów sieciowych i jest systemem niezwykle wszechstronnym jeśli chodzi o działanie w sieci.
Ciekawą funkcją systemu Windows NT jest tak zwany Monitor Wydajności. Program ten jest częścią Menedżera Zadań. Dzięki temu programowi możliwy jest podgląd i monitorowanie procesów kluczowych dla działania systemu. Oprócz tego system ten został wyposażony w wiele różnych sterowników pozwalających na przyłączenie różnych niespotykanych urządzeń pomocniczych, takich na przykład jak napędy taśm.
Ważną funkcją systemu, wprowadzoną potem w większości systemów Windows, jest możliwość tworzenia profili. Dzięki temu praca na komputerze jest możliwa dla różnych użytkowników, a zasoby poszczególnych osób są chronione według jej życzenia przez oglądaniem ich przez innych.
Windows NT Server jest za to systemem w pełni przystosowanym do pracy w sieci. Oczywiście jest systemem wielozadaniowym. Posiada wbudowane mechanizmy, dzięki którym ułatwiona jest współpraca z sieciami komputerowymi, zarówno z wewnętrznymi sieciami intranetowymi jak i z Internetem. Dlatego Windows NT Server był w czasach swojej świetności bardzo chętnie wykorzystywany przez właścicieli firm do zastosowań biznesowych w sieciach komputerowych.
W wersji czwartej systemu wprowadzono wiele zmian, dzięki którym stała się ona jeszcze bardziej przyjazna dla administratorów sieci i użytkowników. Przede wszystkim dodano przeglądarkę internetową Internet Explorer, a także programy wspomagające pracę serwera, takie jak Index Server czy Front Page do tworzenia stron internetowych. Dzięki zainstalowaniu Windowsa NT Server było możliwe umieszczenie na komputerze serwerów poczty elektronicznej, WWW czy baz danych. Dla systemu tego nie było także problemem, jeśli inne komputery w sieci nie działały na systemach Windows NT czy w ogóle Windows. Równie dobrze komputery sieciowe mogły działać na UNIXie czy systemie sieciowym Novella. System ten obsługiwał także większość obecnie stosowanych protokołów sieciowych, począwszy od TCP/IP, poprzez protokoły starsze, jak IPX/SPX czy AppleTalk, a skończywszy na protokołach HTTP czy FTP. Bez problemu system ten współpracował także z komputerami klasy Macintosh.
System Windows NT Server był wyposażony także w wiele różnorakich usług internetowych. Jedną z nich była usługa nadawania nazw i domen komputerom w sieci - Windows NT Directory Service. Domena uznana przez to narzędzie mogła obsłużyć nawet ćwierć setki tysięcy użytkowników.
System Windows NT Server jest wszechstronny również z innego powodu. Obsługuje on i działa dobrze zarówno z komputerami i procesorami o architekturze RISC, jak i z procesorami CISC.
System operacyjny Windows NT przez długi czas był najbardziej stabilnym systemem z rodziny Windows w ogólności. Na nowo napisane jądro, wykorzystanie nowej technologii przechowywania plików naprawdę zrobiło swoje. Teoretycznie system ten był nie do zawieszenia, zwłaszcza jeśli zabezpieczony był dodatkowo zainstalowaniem Service Packa oraz różnych poprawek w bezpieczeństwie systemu. W poprzednich wersjach systemów Windows wystarczyłoby zawiesiła się jedna aplikacja, a najczęściej następowało także zawieszenie systemu. Windows NT był wolny od tego typu zagrożeń. Właśnie stabilność systemu była przez długi czas największym skarbem systemu Windows NT - aż do pojawienia się jego nowoczesnej wersji - Windowsa 2000.
Kolejną niezaprzeczalną zaletą systemu operacyjnego Windows NT jest jego przenoszalność. System obsługuje komputery o całkiem innych architekturach i parametrach równie wydajnie. System ten wyposażony jest w narzędzia pozwalające na symulowanie pracy procesora firmy Intel, dzięki czemu większość programów nawet nie trzeba przekompilować, żeby mogły chodzić dobrze na różnych procesorach.
Długi czas Windows NT był jedynym systemem firmy Microsoft, na którym mogły pracować komputery wyposażone w więcej niż jeden procesor. Inne korzyści ze skalowalności tego systemu to przede wszystkim możliwość umieszczenia w komputerze większej ilości pamięci operacyjnej i możliwość jej obsługi. Poprzednie systemy operacyjne nie były w stanie przyspieszyć pracy komputera jeśli pamięć operacyjna była rozbudowana powyżej 256 MB.
Umiejętność obsługiwania kilku procesorów lub procesorów wielordzeniowych, które działają prawie jak kilka procesorów, przekłada się na umiejętność pracy z wieloma aplikacjami jednocześnie. W systemie Windows 95, pomimo że teoretycznie jest to system wielozadaniowy, uruchomienie więcej niż dwóch - trzech aplikacji jest raczej niebezpieczne dla stabilności systemu. Tutaj użytkownicy otrzymali system, w którym na wielowątkowość i wielozadaniowość postawiono bardzo silny nacisk. Oczywiście nie ma róży bez kolców - system zawiesza obsługę wielu wątków jeśli potrzebny mu jest plik z dysku, którego nie ma w pamięci operacyjnej. Jednak całe szczęście wystarczy często zwiększyć dostępną pamięć operacyjną aby mieć pewność, że odwołań do dysku będzie jak najmniej.
Co do bezpieczeństwa systemu operacyjnego - zawsze można się do czegoś przyczepić, nie inaczej jest więc w systemie Windows NT. Jednak tutaj można przyczepić się w zdecydowanie mniejszej liczbie punktów niż w poprzednich Windowsach. Na bezpieczeństwo również postawiono w tym systemie wielki nacisk. Przede wszystkim ważnym czynnikiem bezpieczeństwa jest ochrona i stabilność jądra systemowego, a także wiele wbudowanych narzędzi chroniących dane i dostęp do zasobów komputera z sieci.
System Windows NT pracuje szybciej i wydajniej niż Windows 95 i 98. Dzieje się to zwłaszcza dzięki szybszemu dostępowi do plików za pomocą systemu obsługi NTFS. Windows NT ma także wady. posiada jak na Windowsy z tamtego okresu dość wygórowane wymagania sprzętowe. Aby zainstalować i cieszyć się wydajnością systemu, należało posiadać całkiem niezły sprzęt. Nie wystarczy już 32 MB pamięci RAM i Pentium o częstotliwości 100 MHz, jak to było przy Windows 95. Częstotliwość procesora musi być co najmniej dwukrotnie wyższa, podobnie sprawa ma się z pamięcią operacyjną.
W Windows NT często pojawiają się problemy ze współpracą ze sprzętem. Najwięcej kłopotów jest ze sprzętem starszym lub niekoniecznie w pełni sprawnym - Windows NT jest bardzo czuły na punkcie poprawności działania sprzętu. Może się zdarzyć, że Windows NT uzna dysk za uszkodzony, podczas gdy w innych systemach dysk ten może działać, jeśli nie poprawnie, to przynajmniej na tyle dobrze, by uratować znajdujące się na nim dane. Równie spore problemy Windows NT ma z pamięcią operacyjną - jej błędy są najczęstszymi komunikatami Windowsa NT.
Najwięcej korzyści z posiadania Windowsa NT można mieć korzystając z kilku wielowątkowych aplikacji jednocześnie. Niestety, aplikacje proste, jednowątkowe najczęściej działają na tym systemie wolniej niż na przykład na Windows 98. Jest to spowodowane tym, że system ten jest rzeczywiście skomplikowany i jego wydajność daje się zauważyć dopiero przy dużych aplikacjach. Uruchamianie Notatnika w Windows NT przypomina strzelanie z armaty do wróbla.
W pierwszych latach istnienia systemu Windows NT prawdziwym kłopotem użytkowników był brak współpracy z niektórymi sterownikami. Zwłaszcza urządzenia peryferyjne, takie jak skaner czy drukarka przysparzały takich problemów użytkownikom. System był na tyle nowy i innowacyjny, że często brakowało do niego sterowników do wielu urządzeń, dlatego najczęstszym pytaniem użytkownika Windows NT, który chciał kupić drukarkę było nie pytanie o cenę, wydajność czy ekonomiczność, ale właśnie, czy dostępne są do tego urządzenia sterowniki działające w systemie Windows NT. Dziś, kiedy potomek Windowsa NT - Windows XP jest tak popularny, problem sterowników na szczęście zniknął.
Początkowo niestety nie było wiele programów i gier działających w systemie plików NTFS, a więc przez to - działających w Windowsie NT. Ten problem dzięki rosnącej popularności Windowsa XP również został już rozwiązany, jednak pierwsi użytkownicy Windowsa NT nie byli w bardzo komfortowej sytuacji jeśli chodzi o dostęp do aplikacji. Najgorzej było z grami komputerowymi, które musiały odwoływać się bezpośrednio do pamięci i kart graficznych, a poprzez interfejsy zastosowane w Windows NT nie były w stanie połapać się w gąszczu możliwości.
Podsumujmy zatem wymagania sprzętowe systemu Windows NT.
Procesor komputera działającego wydajnie z systemem Windows NT powinien być zgodny ze standardem Intela. Minimalnie wymagany jest 80 486 DX, jednak dla komfortowej pracy najlepiej posiadać procesor klasy przynajmniej Pentium 166, a nawet 200.
Jeśli chodzi o pamięć operacyjną, to system teoretycznie jest w stanie uruchomić się już na 12 MB pamięci. Jest to jednak wymóg dla samego systemu - na komputerze takiej klasy nie będzie można nawet uruchamiać aplikacji. Do tego potrzebne jest 16 MB. Rozsądna praca, posiadająca elementy wygody, rozpoczyna się na komputerach o 32 MB pamięci operacyjnej, a pełne korzystanie z większości funkcji - od 64 MB. Jeśli natomiast chcemy zainstalować na przykład Windows NT Server do pracy w sieci, komputer powinien być wyposażony w minimum 128 MB pamięci RAM. Jak na koniec lat dziewięćdziesiątych były to naprawdę bardzo wysokie wymagania sprzętowe.
Karta graficzna komputera musiała być zgodna ze standardem VGA (przynajmniej).
Partycja systemowa systemu Windows NT powinna była mieć co najmniej rozmiar 300 MB, oczywiście jeśli na tej partycji chcieliśmy mieć też niektóre aplikacje, jej rozmiar musiał być odpowiednio większy.
Oczywiście wymagana była myszka oraz napęd CD-ROM.
System operacyjny Windows Millennium Edition
System operacyjny Windows 98 przez długi czas miał zostać ostatnim systemem opartym na przestarzałej technologii zaczerpniętej jeszcze ze starego poczciwego DOSa. Microsoft i jego systemu operacyjne miały przejść już na nową technologię, system plików NTFS oraz jądro systemu Windows NT. Rozpoczęto prace nad stworzeniem systemu podobnego do następnego po Windows NT serwerowego systemu Windows 2000, który miał być niezawodny jak NT i multimedialny jak 98. Niestety, okazało się, że Microsoft nie jest jeszcze w stanie pogodzić tych dwóch cech w jednym systemie operacyjnym. Dlatego podjęto decyzję o stworzeniu "naprędce" ostatniego z linii systemów 9x - Windows Millennium Edition.
System ten, chociaż jeszcze oparty na jądrze DOSa, miał być zapowiedzią wielkich zmian, jakie miały pojawić się już wkrótce na polu systemów dla użytkowników domowych. Miał zaimplementować dużo rozwiązań Windowsa 2000, by być do niego podobnym jeśli nie pod względem stabilności to chociaż pod względem narzędzi i systemów bezpieczeństwa.
System Windows Millennium Edition niestety zawiódł oczekiwania użytkowników. Okazało się, że jest on jedynie nieco upiększoną i wyposażoną w wiele bajerów wersją systemu Windows 98. Dlatego prawdopodobnie najlepszą nazwą dla tej wersji Windowsa byłoby nie Millennium Edition, która to nazwa nasuwa skojarzenia z nowoczesnością i podsumowaniem wszystkich osiągnięć Microsoftu, ale Windows 98 Third Edition. System ten był wyprodukowany szybko i bez należytego przygotowania technicznego i analitycznego, dlatego zyskał sobie niechlubne miano najgorszego systemu Microsoftu od czasu Windowsa 95. Rzeczywiście, jego podobieństwo do Windows 98, zarówno wizualne jak i pod względem stabilności wołało o pomstę do nieba. Użytkownicy raczej byli przygotowani na nowoczesny system z prawdziwego zdarzenia, a otrzymali niestabilny, pozbawiony większości systemów bezpieczeństwa, okrojony system podobny do swojego poprzednika i niewnoszący niczego nowego do historii systemów operacyjnych. Nic zatem dziwnego, że pojawienie się Windowsa Millennium Edition przeszło raczej bez echa i nigdy system ten nie zbliżył; się pod względem liczby użytkowników do żadnego ze swych poprzedników i następców.
Założeniem systemu miała być zgodność z rozwiązaniami z systemu Windows 2000. Millennium miał przygotować grunt pod nowy system operacyjny, oparty na jądrze NT, dlatego w założeniach była możliwość używania programów przeznaczonych dla systemu Windows 2000. W praktyce okazało się, że było z tym różnie. Mimo że Windows Millennium miał być typowym systemem dla użytkowników domowych, raczej nie spotkał się z ich uznaniem. Większość z nich wybrała bowiem teoretycznie sieciowy system operacyjny Windows 2000, który powstał w tym samym czasie i był dużo lepszy niż jego DOSowa "kopia". Z czasem okazało się, że była to dobra decyzja, ponieważ Windows Millennium był systemem nieudanym, niestabilnym i podatnym na ataki z zewnątrz. Krótko mówiąc - produkowanie w jednym czasie dwóch systemów operacyjnych, w tym jednego opartego na przestarzałej technologii DOSa i reklamowanego jako zwiastun dobrego systemu opartego na jądrze NT było błędem ze strony firmy z Redmond.
Dziś nie znam użytkowników, którzy posiadaliby system Millennium i byli z niego zadowoleni. Niektórzy po zainstalowaniu go "na próbę" szybko wracali do Windowsa 98 (!) lub stawiali na nowe rozwiązania w postaci systemu Windows 2000.
Ważną cechą systemu Millennium Edition, właściwie jedną z niewielu jego zalet, były całkiem znośne wymagania sprzętowe. Minimalnie system wymagał procesora klasy Pentium 166 i 32 MB pamięci operacyjnej. System działał dobrze już z procesorami klasy Pentium II oraz 64 MB pamięci operacyjnej. Na początku dwudziestego pierwszego wieku takie wymagania nie były wygórowane, zwłaszcza w porównaniu z Windows NT.
Niestety, system Windows Millennium Edition nie oferował użytkownikom niczego, czego by już nie mieli lub w każdej chwili mogli mieć. Nawet wbudowane w system najnowsze programy, takie jak przeglądarka internetowa Internet Explorer w wersji 5.5 czy Windows Media Player 7 nie były nie do zdobycia. Przejście z Windows 98 na Millennium właściwie charakteryzowało się tylko innym ekranem powitalnym przy uruchamianiu systemu. Nie uległy poprawie takie elementy, jak szybkość otwierania okien czy łatwość zarządzania nimi (co obiecywał Microsoft). Innym chwytem reklamowym Microsoft były piania zachwytu nad stabilnością systemu, zaczerpniętą z Windowsa NT i 2000. Oczywiście nie było to możliwe, ponieważ jądro systemu pozostało takie samo - DOSowe, zawodne i często ulegające awarii.
Niestety, jak się okazało w przypadku tego systemu, dobra, zakrojona na szeroką skalę kampania reklamowa nie jest w stanie pokonać bariery, jaką jest słabe wykonanie danego produktu. Mimo że Microsoft obiecywał szybsze uruchamianie programów, łatwiejsze korzystanie z okienek i ikonek, wprowadzenie wielu nowoczesnych technologii ułatwiających życie statystycznemu użytkownikowi, rzeczywistość przemówiła sama i bezlitośnie obnażyła niedociągnięcia, których w Windows Millennium Edition było całe mnóstwo. Złośliwi twierdzą, że cały system jest jednym wielkim niedociągnięciem. Aż tak źle nie było, ale jednak trzeba przyznać, że w porównaniu z wypróbowanym, połatanym przez lata systemem Windows 98 Windows Millennium raczej wypadał słabo.
Instalacja systemu Windows Millennium przypomina instalowanie Windowsa 98 - w tym względzie raczej niewiele się zmieniło. W zależności od parametrów komputera, proces instalacji zajmuje od 40 do 25 minut. Dobrym rozwiązaniem jest lepsza wizualizacja postępu pracy. W instalowaniu Windows 98 często komputer wygląda na zawieszony, ponieważ nie ma wielu elementów pod tytułem pasek postępu czy jakikolwiek znak, że komputer jednak żyje.
Instalacja systemu może przebiegać na kilka sposobów. Można zażyczyć sobie zainstalowanie minimalnej ilości składników w instalacji minimalnej, typowego zestawu narzędzi w instalacji typowej, a także możemy wybrać elementy systemu do zainstalowania korzystając z instalacji niestandardowej. Nowością jest możliwość dostosowania systemu dla potrzeb laptopa, dzięki wyborowi opcji instalacji przenośnej.
Aby zainstalować system, należy podać kilka informacji o samym produkcie (takich jak klucz systemu), a także dotyczących lokalizacji komputera czy strefy czasowej. Całe szczęście, jest to podawane na początku instalowania systemu, potem wszystko dzieje się automatycznie. Na pewno wielu użytkowników spędziło przy komputerze dwie godziny instalując Windowsa 98 i będąc w każdej chwili gotowym na podanie komputerowi jakichś informacji, o które Windows 98 pyta przez całą instalację.
Jeśli instalujemy Windows Millennium na komputerze, na którym istnieje już system operacyjny Windows 98, możemy wybrać łagodniejszą formę instalacji, jaką jest aktualizacja systemu do wersji Millennium Edition. Całe szczęście, jeśli zdecydujemy się na zachowanie systemu Windows 98 na dysku, łatwo można powrócić do niego po zainstalowaniu i przetestowaniu Windowsa Millennium. Nie ponosi się dodatkowych kosztów czasowych związanych z przeinstalowaniem wielu aplikacji. Jest to mechanizm bardzo wygodny.
Windows Millennium potrzebuje na własne pliki około 350 MB miejsca na dysku. W porównaniu z obecnymi systemami nie jest to dużo, jednak w momencie swojego pojawienia się raczej była to całkiem pokaźna ilość miejsca. Jest z tego jeden plus - system przenosi na dysk swoje instalatory, dlatego większość opcji, którą chcemy potem doinstalować nie wymaga używania płyty instalacyjnej, jak to było w przypadku Windows 98.
Oczywiście wielkość partycji systemowej nie może sprowadzać się tylko do ilości miejsca potrzebnej na skopiowanie plików instalacyjnych. Minimalnie trzeba na tej partycji posiadać zawsze 200-300 MB wolnej przestrzeni, ponieważ inaczej praca z niektórymi programami może być irytująco powolna.
Kolejnym niedociągnięciem jeśli chodzi o Windows Millennium Edition jest dość przypadkowe nie rozpoznawanie konkretnych urządzeń. System posiada dużo sterowników, jednak testy pokazały, że często system nie jest w stanie rozpoznać i zainstalować wielu urządzeń. Nie udało się zainstalować niektórych kart sieciowych, układów graficznych czy kart dźwiękowych. Największą wpadką programistów Microsoft było nie dołączenie do systemu sterowników dla karty dźwiękowej Sound Blaster Live. Również wiele urządzeń zewnętrznych, takich jak drukarki czy skanery, nie były w stanie działać na standardowych sterownikach będących na wyposażeniu Windowsa Millennium.
Jeśli chodzi o sterowniki, w jednym programiści Microsoftu się postarali - działają na tym systemie wszystkie sterowniki do systemów Windows 98 i 95. Ważne jest, że nawet jeśli w starym systemie coś działało, a w nowym takich sterowników nie ma, to podczas aktualizowania wersji systemu do Windows Millennium sterowniki są zachowywane. Oczywiście nie usprawiedliwia to braku sterowników do tak podstawowych elementów jak Sound Blaster Live.
Szybsze uruchamianie się systemu Windows Millennium Edition miało być spowodowane tym, że system nie przetwarza już DOSowych plików autoexec.bat oraz config.sys. Niestety, wraz z usunięciem komunikatów o uruchamianiu tych plików i tworzeniu strony kodowej, usunięto także możliwość wejścia do DOSowego menu systemu poprzez wciśnięcie klawisza [F8]. Oczywiście było to posunięcie błędne, ponieważ często zdarzało się w systemie 98, na podstawie którego przecież powstał Millennium Edition, by konieczne było uruchomienie systemu w trybie awaryjnym lub tylko z wierszem poleceń DOSa. W Windowsie Millennium miało być to niepotrzebne ze względu na jego niezawodność działania, jednak często wymagały tego na przykład programy antywirusowe i inne. Jedyną możliwością uruchomienia systemu w trybie tekstowo-DOSowym jest użycie dyskietki systemowej, co nie jest raczej sprawą wygodną. Często także taka dyskietka może ulec uszkodzeniu, najczęściej akurat w momencie, kiedy jest jedyną deską ratunku dla plików istniejących w komputerze.
Różnica czasowa pomiędzy szybkością uruchamiania się okien w systemach Windows 98 i Millennium Edition działa na korzyść tego drugiego, jednak nie jest to tak oszałamiające przyspieszenie jak to miał w zwyczaju twierdzić Microsoft.
Usunięcie przetwarzania niektórych plików systemowych DOSa nie oznacza, że jego kod jest pominięty w systemie. Wręcz przeciwnie, większość rozwiązań z jądra systemu została zaczerpnięta wprost z DOSa i raczej nie ma w nim rewolucyjnych zmian w porównaniu do innych systemów z tej rodziny. Rzeczywiście, możliwości DOSowe systemu zostały ograniczone, dlatego nie jest możliwe uruchomienie na Windowsie Millennium Edition programów działających w pełnym trybie rzeczywistym. Jest to zarazem zaleta jak wada - dobrą stroną jest fakt, że nie jest możliwe zainfekowanie systemu wirusem działającym w trybie rzeczywistym. Wadą natomiast jest brak możliwości działania w tym systemie pakietów narzędziowych takich jak Norton System Works czy Partition Magic. Całe szczęście pod tym ograniczonym DOSem bez problemu działają takie ważne aplikacje jak Norton Ghost oraz tekstowe pakiety do tworzenia partycji.
W Windowsie Millennium Edition ukłonem w stronę dużo lepszego od niego systemu Windows 2000 jest fakt, że niedozwolone są w nim operacje wykonywane z pominięciem systemu operacyjnego. Jest to cecha, dzięki której trudniej jest zaatakować komputer poprzez bezpośredni dostęp do warstwy sprzętowej. Każde odwołanie do sprzętu musi się zarówno w Millennium Edition jak i w 2000 odbywać za pośrednictwem sterownika do konkretnego urządzenia. Dzięki temu można stwierdzić rzadsze pojawianie się tak zwanych "blue screens", czyli znanych każdemu użytkownikowi starszych systemów Windows 98 i 95 niebieskie ekrany mówiące o krytycznych błędach systemu.
Osobny paragraf należy się w końcu multimediom w systemie operacyjnym Windows Millennium, reprezentowanym poprzez odtwarzacz multimedialny Windows Media Player 7. Odtwarzacz ten posiada wiele różnych ciekawych funkcji. Jeśli komputer ma podłączenie do Internetu, Windows Media Player po rozpoznaniu włożonej do czytnika płyty CD z muzyką jest w stanie pobrać z witryny Microsoft wiele ciekawych informacji na temat wykonawcy utworu, tytuły płyty czy nawet biografii zespołu. Inną ciekawą opcją programu jest możliwość połączenia się ze stroną internetową radia i wybór jednej z kilkudziesięciu stacji radiowych do posłuchania. Jest to możliwe dzięki wbudowaniu w program dostępu do witryny internetowej RadioGuide. Segregacja stacji radiowych tej witryny odbywa się na podstawie wielu kluczy, między innymi kraju (w tym Polska), rodzaju puszczanej muzyki, charakteru stacji i innych tego typu cech. Niestety, w Polsce w czasie wchodzenia na rynek Windowsa Millennium Edition dostęp do Internetu nadal odbywał się raczej za pośrednictwem modemu, a o łączach stałych i na tyle szybkich, by można było słuchać internetowego radia raczej niewiele osób słyszało. Wciąż była to inwestycja za droga na kieszeń pospolitego obywatela.
W Windows Media Playerze w wersji 7 Microsoft wprowadził w końcu instytucję playlisty. Dzięki niej można zaplanować kolejność odtwarzania interesujących nas utworów. Również pojawiła się możliwość przeglądania biblioteki plików multimedialnych, które mogą być odtwarzane w programie Windows Media Player. Na początku program przegląda zasoby dyskowe w poszukiwaniu takich plików i wyświetla ich listę w sposób dość przejrzysty i jasny. Całe szczęście możliwe jest określenie przeszukiwania na przykład tylko jednego katalogu, co jest bardzo przydatne jeśli posiadamy całą kolekcję multimediów w jednym miejscu. Często w takich bibliotekach mogłyby się znaleźć niepotrzebne nam dźwięki systemowe czy też dźwięki z gier komputerowych.
Windows Media Player w wersji 7 odróżnia się od swoich poprzedników całkiem nowym designem. Program wyposażony jest w mechanizm skórek, dzięki którym można ściągnąć z Internetu konkretny, przystosowany do naszego gustu i potrzeb wygląd programu. Jest to ciekawe ulepszenie programu, jednak zaczerpnięte z programu WinAmp, który system skórek ma już od początku swojego istnienia. Wraz z programem dostarczany jest podstawowy zestaw skórek, dzięki czemu możemy się cieszyć ładnym wyglądem programu nawet jeśli nie mamy dostępu do Internetu. Niestety, często okazywało się, że zmienianie skórki jest niedopracowane i powoduje na przykład wywalenie się programu i wyświetlenie komunikatu o krytycznym błędzie aplikacji, a nawet całkowitym zawieszeniem się całego systemu.
Bardzo ciekawym elementem programu Windows Media Player są tak zwane wizualizacje. Dzięki nim w czasie puszczania muzyki możemy cieszyć oczy pojawiającymi się w takt muzyki pięknymi obrazami i kolorami.
Tyle o programie do odtwarzania, teraz pora na omówienie programu do tworzenia elementów multimedialnych. Mowa tu o programie do tworzenia filmów - Windows Movie Maker. Jest to program o dość prostym interfejsie, pozwalający na tworzenie filmów z klocków, będących pojedynczymi klatkami filmu. Do tworzenia własnych filmów używa się plików graficznych, a także tak zwanych klipów wideo, czyli plików filmowych podzielonych na ujęcia. Po stworzeniu naszej własnej kompozycji, zapisuje się ją na dysku jako osobny plik WMV. Potem dzięki innym programom do obróbki filmów można przerobić ten format na bardziej przyjazny MPG czy AVI.
PO wczytaniu do programu pliku z filmem, program Windows Movie Maker automatycznie dzieli go na ujęcia. Oczywiście, można to robić ręcznie, jednak warto podkreślić, że sam program też robi to całkiem przyzwoicie. Dzięki temu film wczytany z dysku zostaje rozłożony na czynniki pierwsze, które można zobaczyć na "stole do montażu filmów", czyli wewnątrz okna programu. Poniżej znajduje się klisza filmowa, na którą należy przeciągać poszczególne części filmu w takiej kolejności, w jakiej mają być wyświetlane. W taki sam sposób można do naszej kompozycji dodawać pliki graficzne czy przepleść klipy jednego filmu scenami z drugiego. Na pewno takie tworzenie mieszanek wybuchowych powinno dać sporo radości.
Kiedy już stworzy się ciągłość klatek filmu, należy przejść do planowania tego, jak poszczególne ujęcia mają się przenikać, jak mają się zmieniać. Jest to tak zwany etap montażu precyzyjnego. W tym etapie można na przykład wyciąć niektóre elementy klipów. Działanie to jest całkiem intuicyjne i odbywa się przy pomocy osi czasu i pracy myszką. Przez cały czas mamy do dyspozycji okno podglądu, na którym możemy oglądać efekty naszej pracy.
Po zakończeniu pracy z naszym filmem, dzięki temu, że zapis pliku odbywa się w formacie WMV przystosowanym dla Internetu, możemy na przykład opublikować nasz film w sieci, wysłać go mailem czy umieścić na serwerze FTP. Niestety, znów na przeszkodzie w tej internetowej zabawie z plikami stanął w pewnym momencie brak dostępu do stałego Internetu w Polsce. Potem Windows Movie Maker nie był już tak mocno rozwijany, dlatego szybko poszedł w odstawkę i dziś niewielu użytkowników pamięta jeszcze o tym programie.
W Windows Millennium pojawiła się także nowa technologia Microsoft o nazwie Windows Image Acquisition. Dzięki tej technologii możliwe miało być zwiększenie wydajności takich elementów jak współpraca ze skanerami i aparatami cyfrowymi. Dzięki temu możliwe jest uruchamianie tego typu urządzeń na zasadzie plików czy folderów, ponieważ ikony reprezentujące sprzęt pojawiają się także w Moim Komputerze. Dzięki takiej integracji przeglądanie obrazów z urządzeń graficznych jest szybkie i łatwe.
Przejdźmy teraz do elementów, które w systemie Windows Millennium Edition są rozwinięte całkiem nieźle. Mowa tu oczywiście o elementach sieciowych. Tworzenie połączeń internetowych w Windowsie Millennium Edition jest dość proste, wystarczy skorzystać z intuicyjnego kreatora połączeń internetowych, który za rączkę prowadzi poprzez proces tworzenia nowego połączenia. Kiedy już stworzymy jeden zestaw ustawień, możemy zapisać go na dyskietce i resztę komputerów w sieci skonfigurować tak samo bez potrzeby ręcznego wpisywania parametrów. Różnorodność sieci komputerowych każe zadać pytanie, czy z każdą siecią kreator sobie radzi. Rzeczywiście, okazuje się, że w Windows Millennium Edition sieć konfigurowana jest bez problemów, zarówno jeśli jest to sieć bezprzewodowa, jak i sieć przewodowa typu Ethernet. Teoretycznie bezpieczeństwo systemu zostało zaimportowane z Windowsa 2000, dlatego powinno stać na wysokim poziomie. W praktyce bywało z tym różnie. Jedno jest pewne - w Windowsie Millennium Edition działa przynamniej obsługiwanie protokołów sieciowych TCP/IP i to, jak pokazują testy, na dość porównywalnym poziomie jak to ma miejsce w Windows 2000.
Jeśli chodzi o przeglądarkę internetową, nadal nic się nie zmieniło. Do systemu dołączana jest przeglądarka Internet Explorer i choć jest przeglądarką o bardzo niskim stopniu zabezpieczeń, to jednak właśnie z powodu dostępności z systemem jest najczęściej wykorzystywaną przeglądarką w całym Internecie. Wiele firm produkujących konkurencyjne przeglądarki oskarżają Microsoft o podejście monopolistyczne. Oprócz przeglądarki internetowej, system Windows Millennium Edition jest też wyposażony w program do obsługiwania poczty elektronicznej (Microsoft Outlook Express 5.5), a także w znienawidzony przez większość użytkowników program do prowadzenia rozmów przez Internet - MSN Messenger. Każdy, kto nie próbował usuwać z systemu tego małego programiku, nie ma pojęcia o tym, co to znaczy napisać program, który trzyma się systemu "rękami i nogami". Użytkownicy nie lubią być uszczęśliwiani na siłę, a tak właśnie zachowuje się Microsoft. Nic więc dziwnego, że większość osób nawet nie spojrzy na MSN Messengera, który jak się okazuje jest całkiem ciekawym programem do internetowych pogaduszek.
Dziś raczej większość gier wykorzystuje technologię DirectX i jest pisanych tak, by spełniać wymagania jądra systemu NT. Jednak kiedy na rynku pojawiły się dwa systemy - 2000 i Millennium Edition, tylko ten drugi miał możliwości współdziałania z niektórymi starszymi grami, pisanymi pod Windows 98 i jądro DOSowe. Dlatego właśnie wielu graczy jeśli nie przeszło na Windows 2000, to właśnie dlatego, że Millennium Edition oferował im większe możliwości jeśli chodzi o stare gry.
Rozbudowany został natomiast panel sterowania o nazwie Opcje Gier. Można w nim ustawić możliwość rozmów głosowych przez Internet, jeśli gra się zespołowo przez Sieć, a także, co jest oczywiste, ustawić wszelkie elementy związane z konfiguracją padów, joysticków i innych tego typu urządzeń.
Oprócz wsparcia dla gier, Windows Millennium Edition oferuje graczom kilka nowych gier, z których większość są grami internetowymi.
Na plus systemu Windows Millennium Edition należy na pewno zaliczyć rozbudowany system pomocy i dość bogatą kolekcję narzędzi diagnostycznych. Wyposażono system także w dwie ważne funkcje jeśli chodzi o zabezpieczenia - możliwe jest sprawdzenie, czy sterowniki mają certyfikat Microsoft, oraz zaimplementowana została zaawansowana obsługa zabezpieczenia plików systemowych, znana z Windowsa 2000. Dzięki tej usłudze, niemożliwe staje się przypadkowe skasowanie ważnych plików potrzebnych do poprawnego działania systemu. Jest to zatem także zabezpieczenie przez wirusami, których atak polega na niszczeniu plików systemowych. Zasada działania tej funkcji jest dość prosta - system wykrywa, że plik systemowy jest zły, usunięty lub uszkodzony i przy restarcie systemu przywraca jego wersję domyślną, którą przechowuje wewnątrz kopii zapasowych systemu.
Ciekawą funkcją Windows Millennium Edition jest System Restore. Narzędzie to może w każdej chwili wykonać "snapshot", czyli coś w rodzaju "stopklatki" systemu operacyjnego. W takiej "stoplkatce" znajdują się najważniejsze pliki systemowe oraz elementy dotyczące ustawień systemu operacyjnego. Kiedy system ulegnie awarii, bardzo łatwo jest przywrócić jego działającą wersję z którejś ze zrobionych "stopklatek". Jest to funkcja bardzo ciekawa i często może uratować system operacyjny po awarii. Niestety, jak to zwykle bywa z kopiami zapasowymi, jedna taka "stoplkatka" zajmuje na dysku naprawdę sporo miejsca. Jednak jeśli chcielibyśmy na przykład zrobić obraz dysku za pomocą Norton Ghost, to i tak musielibyśmy się z tym liczyć.
Jak już wiemy, bardzo rozbudowany w systemie operacyjnym Windows Millennium jest system pomocy. Wprowadzono w tym systemie znane "zapytania" do systemu pomocy. Wystarczy zadać pytanie, a system analizując je wybiera z pomocy tematy, w których może znajdować się odpowiedź na pytanie. Pomoc jest stworzona w formacie HTML, który jest łatwy w obsłudze i przyjazny dla użytkownika. Producenci sprzętu i systemów mogą zmieniać niektóre elementy systemu pomocy tak, by w jednym miejscu użytkownik mógł uzyskać informacje na temat każdego z zainstalowanych komponentów. Również w Windows Millennium pojawiła się możliwość wysyłania do Microsoftu komunikatów o powstałych błędach lub możliwość komunikowania się bezpośrednio z producentem danego sprzętu czy programu za pośrednictwem poczty elektronicznej. Jeśli uda nam się doprowadzić do tego, że specjaliści odpowiedzą, prawdopodobni w kolejnej poprawce do systemu umieszczą odpowiedź i na to pytanie w pomocy systemowej.
Znana zwłaszcza z systemu operacyjnego Windows XP funkcja Auto Update jest obecna także w systemie Windows Millennium Edition. Dzięki tej funkcji monitorowane są strony Microsoft, i użytkownik może być natychmiast powiadomiony, jeśli pojawi się jakakolwiek poprawka do systemu. Można także ustawić funkcję Auto Update tak, by sama, bez pytania pobierała i instalowała aktualizacje. Jest to bardzo wygodne, chociaż niektórych użytkowników może irytować fakt, że wówczas nie mają ręki na pulsie i tak naprawdę nie wiedzą, co jest akurat ściągane do ich komputera.
Niestety, wszystkie te zalety nadal nie mogą zatuszować faktu, że jak na system "nowoczesny", mający wprowadzić użytkowników w nowe millennium, nie jest on zbyt okazały. Nie wygląda jakoś szczególnie lepiej niż system Windows 98. Niestety, nigdy nie opłacało się kupować tego systemu za ciężkie pieniądze tylko dlatego, że był to system "nowy". Już lepiej było zainwestować w system Windows 2000.
System operacyjny Windows 2000
Windows 2000 jest kolejnym wcieleniem systemu Windows NT, opartego na zupełnie nowej technologii i nowym jądrze, które nie ma już wiele wspólnego z systemem DOS. Początkowo system ten był reklamowany przez firmę Microsoft jako system dla zastosowań w biznesie. Rzeczywiście, system ten z łatwością spełnia wszystkie wymagania, jakie mogą mieć użytkownicy biznesowi. Jest przede wszystkim systemem o dużym poziomie bezpieczeństwa, czego nie dało się powiedzieć o Windowsach z rodziny 95/98/ME. Oprócz tego, system ten odziedziczył po swoim poprzedniku, Windowsie NT, wyjątkową jak na systemy z Redmond stabilność działania.
System operacyjny Windows 2000 zawiera wiele potężnych narzędzi systemowych. Poprawione zostało w nim zarządzanie energią, dzięki czemu jest to system bardzo dobry dla notebooków. Oprócz tego dodana została zaawansowana obsługa takich elementów jak złącza USB czy porty podczerwieni. Jednakże, największe korzyści można zaobserwować jeśli chodzi o zastosowania sieciowe. System posiada odpowiednie wsparcie dla utworzenia serwerów sieciowych, serwerów stron internetowych, FTP czy poczty elektronicznej.
Początkowo nie używało się raczej systemów Windows 2000 do rozrywki. Do tego przeznaczony był system Windows Millennium, który zawierał wszelkie elementy potrzebne do oglądania filmów, słuchania i tworzenia muzyki, czy do gier. Jednak z czasem wielu graczy doceniło także stabilność systemu. Wiele firm produkujących gry komputerowe dodało do swoich produktów obsługę jądra NT, dzięki czemu możliwe było cieszenie się grami komputerowymi na stabilnym systemie. Nie da się jednak ukryć, ze system ten pomyślany był raczej jako narzędzie do pracy niż do zabawy.
Technologia NT ma to do siebie, że nie pozwala programom na odwoływanie się do sprzętu z pominięciem systemu operacyjnego. Jest to oczywiście świetna funkcja, mocno podnosząca bezpieczeństwo plików. Jednak właśnie dlatego wiele gier pisanych dla technologii Windows 95/98 nie mogło działać na Windows NT i Windows 2000. Odwoływały się one bowiem bezpośrednio do karty graficznej, a system działający w technologii NT na to nie pozwala. Szybko jednak okazało się, że korzystanie ze sterowników systemowych nie opóźnia bardzo działania gier, i szybko skorzystano z technologii NT do tworzenia gier komputerowych. Obecnie ogromna większość gier współpracuje bez zarzutu z tą technologią.
Minimalne wymagania sprzętowe do rozruchu i działania systemu operacyjnego Windows 2000 nie są zbyt wysokie, jednak jak to zwykle bywa, wymagania te rosną, jeśli chcemy bez zarzutu i płynnie korzystać z systemu i wielozadaniowości. I tak, minimalnie należy posiadać komputer klasy Pentium 133, 700 MB miejsca na dysku o wielkości minimum 2 GB oraz 32 MB pamięci operacyjnej. Należy także posiadać kartę graficzną zgodną ze standardem AGP. Konfiguracja zalecana przez firmę Microsoft jest wyższa - producenci mówią o 64 MB pamięci operacyjnej, procesor klasy Pentium II 266 oraz dysk o pojemności większej niż te minimalne 2 GB. Oczywiście w nowych komputerach te wymagania spełnione są w stu procentach.
System operacyjny Windows 2000 posiada wbudowane wiele różnych sterowników do sprzętu i urządzeń peryferyjnych. Pełna lista zgodności znajduje się na stronach internetowych firmy.
Jedną z niewielu cech systemu, które upodabniają go raczej do Windowsów z linii 9x jest sposób działania sterowników do urządzeń. Istnieją dwa modele zachowań. Pierwszym z nich, zaimplementowanym w Windows NT, jest technologia KMD (Kernel Model Driver). W tej technologii sterowniki obsługują całą pracę urządzenia. Drugi model działania to WDM (Win32 Driver Model). Ta technologia działała w Windows 98, a następnie w Windows 2000. W tym modelu działania sterownik oddaje w ręce systemu operacyjnego takie czynności jak przydział zasobów dla urządzenia czy też rozpoznanie podłączonego sprzętu.
Sterowniki używane w Windows 2000 różnią się od tych używanych w Windows 98. Przede wszystkim, aby taki sterownik został dopuszczony do pracy z Windows 2000 musi potrafić dodawać urządzenia bez konieczności ponownego rozruchu sytemu, jak to miało miejsce w Windows 98.
W Windows 2000 pojawiły się niemal wszystkie sterowniki potrzebne do poprawnej pracy większości używanego wówczas sprzętu. Inne sterowniki, nowsze, można bez trudu znaleźć w Internecie. Problem pojawia się niestety przy próbie uruchomienia oprogramowania nagrywarek - najczęściej system wyrzuca komunikat o błędzie. Jest to spowodowane tym, że w systemie Windows 2000 nie ma wbudowanej biblioteki ASPI, dzięki której tego typu urządzenia mogą funkcjonować. Całe szczęście, większość programów do nagrywania płyt dostarczanych jest wraz z tą biblioteką. Starsze programy przeznaczone dla Windows 98, nawet jeśli ruszą pod Windows 2000, mogą nie działać poprawnie. Podobne problemy mogą mieć właściciele modemów przeznaczonych dla Windows 98. Większość tanich, popularnych modemów nie przeszło testów zgodności z systemem operacyjnym Windows 2000. Jest to spowodowane tym, że modemy te nie posiadają własnego procesora, a ich działanie opera się na procesorze komputera oraz na programach do połączenia z Internetem. Aby działały poprawnie, nie mogą korzystać ze standardowych sterowników modemowych, ale ze specjalnych sterowników nieprzystosowanych do pracy w Windows 2000.
Ponieważ system ten nie był pomyślany jako system do gier komputerowych, większość "wyjadaczy" raczej poczuje różnicę na niekorzyść systemu Windows 2000. Chociaż jeśli w grze nie chodzi o jak największą liczbę klatek na sekundę (czytaj: nie jest to strzelanka w stylu Quake III), gracze powinni być raczej zadowoleni.
Inaczej przebiega też w Windows 2000 zarządzanie pamięcią. Zbyt częste odwoływanie się do pliku wymiany w tym systemie może niestety powodować jego zawieszenie i w konsekwencji szybki brak pamięci operacyjnej. Dlatego lepiej nie uruchamiać na tym systemie gier i programów, które wymagają dużej ilości pamięci operacyjnej, lub jeśli tej pamięci fizycznie w komputerze dużo nie ma. Jak podkreśla Microsoft, jego priorytetami przy tworzeniu systemu Windows 2000 nie było zadowolenie graczy, ale przede wszystkim stabilność systemu i bezpieczeństwo danych.
Jeśli nie posiadamy zbyt dużo pamięci operacyjnej, zawsze można bazować na pamięci wirtualnej systemu. Jest ona zwykle fabrycznie ustawiona na półtorej wielkości pamięci dostępnej fizycznie. Można jednak zwiększyć ten współczynnik i wykorzystywać więcej pamięci wirtualnej kosztem miejsca na dysku.
System Windows 2000 charakteryzuje się przede wszystkim rozbudowanym zestawem narzędzi systemowych do zarządzania i administracji systemem. Większość tych narzędzi można znaleźć w folderze Narzędzia Administracyjne. Aby mieć do niego dostęp, należy na komputerze posiadać prawa administratorskie.
Przede wszystkim, system został wyposażony w Microsoft Management Console, czyli konsolę zarządzania systemem. Program ten jest bardzo rozbudowany i pozwala na łatwą zmianę różnych elementów konfiguracji systemu. Na przykład, dzięki centrum zarządzania można łatwo zmienić konfigurację okienek.
Aby uruchomić Microsoft Management Console, należy kliknąć prawym przyciskiem myszki na ikonie Mój Komputer, a tam wybrać polecenie "Zarządzaj...".
Aby zmieniać elementy konfiguracyjne systemu, można także oczywiście działać za pomocą Panelu Sterowania. Występuje w nim kilka różnic w stosunku do poprzednich wersji systemu Windows 98. Na przykład, nie ma w panelu ikonki "Devices" ("Urządzenia"), dzięki której konfigurowało się sprzęt w komputerze.
Windows 2000 ma sporo zalet. W wielkim skrócie postaram się przytoczyć niektóre z nich.
I tak, system może pracować zarówno we współpracy z systemem plików FAT 32, jak i NTFS. Sugeruje się jednak stosowanie systemu NTFS, choćby z tego powodu, że w FAT 32 maksymalny rozmiar partycji wynosi 8 GB, a maksymalna wielkość pliku 3-4 GB. Dziś na przykład jeden obraz płyty DVD wymaga około 4,5 GB pamięci dyskowej. Inną zaletą systemu plików NTFS jest fakt, że możemy zabronić dostępu do jakiegoś ważnego pliku innym użytkownikom danego komputera.
System posiada dobre zabezpieczenia jeśli chodzi o wielu użytkowników. Stosowane szyfrowanie haseł do logowania jest całkiem niezłe, dlatego dobre hasło trudno jest złamać.
Jeśli jesteśmy przy wielu użytkownikach, istnieją w systemie rozbudowane funkcje administratorskie pozwalające na zarządzanie kontami użytkowników. Można na przykład ograniczyć użytkownikom wielkość przestrzeni dyskowej przeznaczonej na ich pliki, a także umożliwić lub zabronić dostępu do funkcji systemowych dla poszczególnych osób.
Innymi zaletami systemu jest dobre zarządzanie pamięcią, a także bezawaryjność pracy, dobra obsługa urządzeń i przede wszystkim stabilność systemu.
Jeśli chodzi o skrót wad systemu, można wymienić właściwie tylko brak współpracy z niektórymi grami, a także z początku brak odpowiedniego oprogramowania. Obecnie jednak większość gier i programów jest zgodna z systemem Windows 2000. Jeśli natomiast jakieś gry nie chodzą - cóż, system ten miał być systemem biurowym, nieprzeznaczonym dla koneserów gier komputerowych.
System operacyjny Windows 2003 Server
Następcą systemu operacyjnego Windows 2000 jeśli chodzi o zastosowania sieciowe jest Windows 2003 Server. Wykorzystano w nim większość sugestii użytkowników dotyczących Windowsa 2000, a także przeniesiono z niego najbardziej udane elementy. System dzięki tym elementom oraz innym wprowadzonym tylko dla tego systemu ułatwiają administrowanie, zarządzanie i obsługę dla wielu użytkowników i administratorów sieci. System ten jest bardzo dobrym rozwiązaniem dla firm, które potrzebują stabilnego środowiska dla wykonywania swoich zadań, a także dobrego systemu dla utworzenia infrastruktury sieciowej w firmie.
Jeśli istnieją jakieś wytyczne, dzięki którym użytkownicy mogą wyrażać swoje życzenia co do tego jak ma wyglądać wydajny, przyjazny system sieciowy, to system operacyjny Windows 2003 Server spełnia jeśli nie wszystkie to zdecydowaną większość z nich. Przede wszystkim system jest bowiem niezawodny, stabilny i skalowalny.
Bardzo ważną cechą systemu jest rozszerzenie go o możliwości platformy Microsoft .NET. Jest to zestaw różnych programów ułatwiających pracę w sieci, udostępnianie danych i urządzeń sieciowych i komunikowanie się z innymi komputerami działającymi w sieci komputerowej przedsiębiorstwa.
System Windows 2003 Server wyposażony został w szereg możliwości, dzięki którym może on spełniać rolę wielu różnych serwerów sieciowych. Jest to system uniwersalny. Pozwala na stworzenie w sieci klientów serwera plików, serwera poczty internetowej, serwera stron internetowych WWW i aplikacji, serwera terminalowego, serwera dla obsługiwania wielu rożnych protokołów sieciowych, na przykład HTTP czy FTP, a nawet serwera domen i nazw sieciowych DNS.
System operacyjny Windows XP
System operacyjny Windows XP, znany przez długi czas pod nazwą kodową Whistler, jest obecnie najbardziej popularnym systemem operacyjnym do zastosowań domowych, biurowych i biznesowych. Dwie linie tego systemu pozwalają na zastosowania zarówno amatorskie jak i profesjonalne. System, którego nadejście było przez wielu użytkowników wyczekiwanym wydarzeniem, rzeczywiście okazał się tak dobry, jak utrzymywali to programiści Microsoft.
Już na pierwszy rzut oka widać, że system ten wchodzi w nowe tysiąclecie. Charakteryzuje się zaprojektowano na nowo szatą graficzną, której charakterystyczne cechy to opływowość kształtów oraz pastelowe kolory. Można wybrać pośród trzech wbudowanych wersji kolorystycznych - niebieskiej, srebrnej i oliwkowej.
System Windows XP jest bardzo stabilny. Jako system oparty na nieco zmodyfikowanym jądrze NT jest systemem niezawodnym i właściwie niemożliwym do zawieszenia w czasie normalnej pracy. Możliwe jest wykonywanie na nim działań zarówno profesjonalnych, jak i domowych, z nastawieniem na multimedia.
Istnieje kilka rożnych wersji tego systemu operacyjnego. Jest więc system Windows XP 32-bitowy, oraz system 64-bitowy, przeznaczony do nowych komputerów, które tę technologię mają już zaimplementowaną. System ten jest przeznaczony zwłaszcza do procesorów 64-bitowych, chociaż prawdziwy szok właściciele takich procesorów powinni przeżyć w momencie zainstalowania 64-bitowego Windowsa Vista - najnowszego dziecka Microsoft.
Wróćmy jednak do Windows XP. Jest to system, który daje wiele możliwości współpracy z komputerem dla szerokiego grona użytkowników. Jest to system odporny na uszkodzenia, a dzięki wysokim zabezpieczeniom i wbudowanym takim elementom jak ochrona antywirusowa czy zapora ogniowa jest też trudny do złamania przez hakerów i do zainfekowania przez wirusy.
Istnieją dwie podstawowe wersje systemu Windows XP. Pierwsza z nich najlepiej nadaje się do zastosowań domowych - Jest to Windows XP Home Edition. Posiada on większość cech profesjonalnej wersji, jednak jest łatwiejszy w obsłudze, a większość opcji niepotrzebnych dla zastosowań amatorskich i rozrywkowych jest ukryta. Drugim rodzajem systemu jest Windows XP Professional. W tym systemie każdy administrator systemów, sieci i serwerów znajdzie coś dla siebie, a przy okazji posiada on wszystkie funkcje Windowsa XP Home. Dzięki temu wersja Professional może działać zarówno jako system biznesowy, jak i nieco rozbudowany system domowy i multimedialny. Oprócz tych systemów wyróżnia się także sieciowy Windows XP Server.
System operacyjny Windows XP Professional łączy w sobie wszystkie zalety systemów Windows Millennium, Windows 2000 i Windows 2003 Server. Niestety, spore wymagania sprzętowe uniemożliwiają zainstalowanie go na starszych komputerach. System samej pamięci operacyjnej potrzebuje do poprawnego i płynnego działania MINIMUM 128 MB, a miejsca na dysku zajmuje około 3-4 GB, w zależności od zainstalowanych parametrów. Najlepiej jest także posiadać procesor o częstotliwości taktowania powyżej 1 GHz.