SPIS TREŚCI
1. Wstęp
3. Model OSI
I. WSTĘP
Referat ten jest poświęcony zagadnieniom związanym z lokalnymi sieciami komputerowymi. Skupimy się w nim na zagadnieniach teoretycznych. Chcemy tu przedstawić podstawowe wiadomości z zakresu budowy i zastosowań lokalnych sieci komputerowych LAN, a główną uwagę poświęcimy protokołom transmisji danych i organizacji sieci pod kątem transmisji danych.
Najkrócej charakteryzując sieć lokalną LAN ( Local Area Network ) można powiedzieć, że jest to rodzaj sieci komputerowej zlokalizowanej w stosunkowo niewielkim obszarze o zasięgu od kilkudziesięciu metrów do kilku kilometrów, przenoszącą komunikaty z dość dużą szybkością za pomocą toru symetrycznego, kabla koncentrycznego lub światłowodu poprowadzonego w obrębie budynku lub grupy zabudowań. Dzięki temu użytkownicy sieci LAN mogą się ze sobą komunikować, wspólnie użytkować drukarki czy pliki na dyskach wszystkich lub wybranych komputerów. Szybkości przesyłania danych w sieciach lokalnych wynoszą od 0,2 do 100 Mb/s. Jedna sieć lokalna może zawierać od kilkudziesięciu do kilkuset komputerów. Sieć lokalna działa w trybie rozgłaszania: każdy pakiet dociera do wszystkich komputerów sieci, które przyjmują tylko pakiety do nich adresowane. Do budowania większych sieci łączy się sieć lokalną między sobą za pomocą bram i mostów.
W dziale „Rozwój i znaczenie lokalnych sieci komputerowych” zapoznać się można z początkami sieci komputerowych i ich późniejszą ewolucją.
W dziale „Model OSI” wyjaśniamy znaczenie poszczególnych warstw modelu opracowanego przez organizację ISO.
W dziale „Metody dostępu do nośnika” znajduje się opis różnych mechanizmów działania sieci.
W dziale „Topologie sieci lokalnych” zapoznać się można z najczęściej stosowanymi architekturami sieci.
W dziale „Protokoły transmisji” zapoznać się można z protokołami umożliwiającymi wymianę sygnałów przez komputery podczas wymiany danych.
II. Rozwój i znaczenie lokalnych sieci komputerowych
Nastanie ery mikrokomputerów i co ważniejsze, nastanie ery lokalnych sieci komputerowych opartych na komputerach osobistych wprowadziło znaczące zmiany w świecie przetwarzania danych. Sieci komputerowe zrewolucjonizowały zastosowania komputerów. Przeniknęły do naszego codziennego życia, poczynając od bankomatów, poprzez elektroniczne systemy rezerwacji miejsc w samolotach, aż po usługi poczty elektronicznej. Na tak gwałtowny rozwój sieci komputerowych złożyło się wiele przyczyn, między innymi takich jak:
Rozprzestrzenianie się komputerów osobistych i stacji roboczych w latach osiemdziesiątych przyczyniło się do rozbudzenia zainteresowania sieciami komputerowymi i pomogło ujawnić zapotrzebowanie na ich usługi.
Początkowo sieci komputerowe były drogie i obejmowały jedynie duże uniwersytety, ośrodki badawcze instytucji rządowych i wielkie firmy. Rozwój technologii pozwolił na znaczne obniżenie kosztów instalowania sieci, które obecnie znajdują się w dużych, jak i niewielkich instytucjach.
Wiele firm komputerowych dostarcza obecnie oprogramowanie sieciowe jako część podstawowego systemu operacyjnego. Nie traktuje się oprogramowania sieciowego jako dodatku przeznaczonego dla niewielu zainteresowanych nim klientów. Uważa się, że jest ono tak samo niezbędne, jak np.: edytor tekstów.
Podobnie jak z większością zmian historycznych, wynikające z nich skutki nie zawsze były od razu widoczne. Aż do wczesnych lat osiemdziesiątych, środowisko przetwarzania danych było zdominowane przez duże systemy komputerowe oraz minikomputery otoczone "armiami" programistów, analityków i zarządców systemów informatycznych. Większość użytkowników miała niewielką wiedzę o komputerach i systemach przetwarzania danych.
W większości organizacji personel zajmujący się przetwarzaniem danych rzadko się kontaktował z administracją na tematy dotyczące ich systemów i vice versa. Ludzie projektujący systemy nie konsultowali się z tymi, którzy mieli je stosować. Ludzie potrzebujący określonych narzędzi komputerowych nie składali zamówień projektowych i rzadko dokształcali się na temat systemów, które stawały się niezbędne w ich pracy.
Aby wpływać na zmiany systemów i aplikacji, kierownicy decydowali się na drogi i czasochłonny proces analizy potrzeb. Można było uznać za szczęśliwy przypadek, w którym proponowane zmiany programowe mogły być zaimplementowane w przeciągu, co najwyżej kilku lat. Zanim takie zmiany mogły zostać zrealizowane, zmieniały się potrzeby i proces zaczynał się od początku. Taki system był bardzo efektywny, jeśli chodzi o utrzymanie zatrudnionych programistów i analityków, ale nie był dobry do zapewnienia użyteczności systemów. Gdy zaczęły pojawiać się mikrokomputery, zauważono, że w wielu przypadkach można było zastosować niedrogie, gotowe programy do zaimplementowania w przeciągu tygodni lub miesięcy systemów, których stworzenie dawniej zabrałoby lata.
Systemy komputerowe były zazwyczaj niezależne. Każdy komputer był samowystarczalny i miał wszystkie niezbędne do wykonywania swych zadań urządzenia zewnętrzne oraz właściwe oprogramowanie. W przypadku, gdy użytkownik komputera chciał skorzystać z jego konkretnej właściwości, takiej jak drukowanie wyników na papierze, to do systemu dołączano drukarkę. Gdy była potrzebna obszerna pamięć dyskowa, wówczas dyski dołączało się do systemu. Na zmianę takiego podejścia wpłynęła świadomość, że komputery oraz ich użytkownicy muszą korzystać ze wspólnych informacji i wspólnych zasobów komputerowych. Przykładem korzystania ze wspólnych informacji może być poczta elektroniczna lub przesyłanie plików. Korzystanie ze wspólnych zasobów może wymagać dostępu do urządzeń zewnętrznych drugiego systemu komputerowego. W początkach ery informatycznej wymiana danych odbywała się poprzez wymianę taśm magnetycznych, pakietów kart dziurkowanych lub wydruków komputerowych. Obecnie można komputery łączyć ze sobą za pomocą różnego rodzaju technik elektronicznych, zwanych sieciami komputerowymi.
U początku swego istnienia sieci komputerowe były zindywidualizowanymi formami połączeń, stanowiącymi integralną część równie zindywidualizowanych rozwiązań obliczeniowych. Standardowe konfiguracje składały się z terminali połączonych sprzętowo z kontrolerami urządzeń. Kontrolery te umożliwiały dostęp multipleksowany (wielodostęp) do urządzeń komunikacyjnych pozwalających na przyłączanie urządzeń do sieci głównej. Procesor czołowy umożliwiał wielu urządzeniom komunikacyjnym współdzielenie pojedynczego kanału dostępu do sieci. Wykorzystywane programy do pracy z siecią działały jedynie w środowisku obsługiwanym przez pojedynczy system operacyjny, który mógł działać jedynie na urządzeniu jednego producenta. Również terminale użytkowników, urządzenia za pomocą których były one przyłączane do sieci, musiały być częścią zintegrowanego rozwiązania jednego producenta.
W wyniku potrzeby poprawy wydajności pracy tak zintegrowanych rozwiązań systemowych naukowcy z centrum badawczego firmy Xerox w Palo Alto (PARC), usprawnili sposób współdzielenia plików i danych pomiędzy swoimi stacjami roboczymi, gdyż praktykowane udostępnianie danych przy użyciu dyskietek było czasochłonne i nieporęczne. Rozwiązanie opracowane w firmie Xerox polegało na utworzeniu pierwszej tzw. sieci lokalnej LAN (Local Area Network), sieć ta została nazwana Ethernet. Korzystała on z protokołów współdziałania międzysieciowego wyższych warstw. Jej możliwości rynkowe zostały dość szybko wykorzystane: pierwotny Ethernet, obecnie znany jako Ethernet Parc lub Ethernet I, został zastąpiony przez jego nieco udoskonaloną wersję - DIX Ethernet, zwaną również Ethernet II. Autorzy tego opracowania firma Xerox, Digital oraz Intel ustaliły wspólnie "standardy" sieciowe, do przestrzegania których zobowiązały się przy produkcji jej elementów składowych.
Istnieje wiele sposobów łączenia komputerów w sieci, tak samo jak z wielu rozmaitych usług można skorzystać w wyniku stworzenia sieci komputerowej. Jednymi z typowych zastosowań sieci komputerowych są:
Przesyłanie poczty elektronicznej między użytkownikami różnych komputerów.
Wymiana plików (danych) między systemami. W przypadku wielu programów użytkowych jest to bardzo łatwy sposób ich rozprowadzania zamiast przesyłania pocztą dyskietek lub dysków CD. Przesyłanie plików poprzez sieć warunkuje ich szybsze doręczenie.
Wspólne korzystanie z urządzeń zewnętrznych. Przykładem w tym przypadku może być wspólne korzystanie ze wspólnych drukarek, skanerów jak i napędów.
Duży wpływ na wspólne użytkowanie urządzeń zewnętrznych miał rynek komputerów osobistych i stacji roboczych, ponieważ często koszt urządzeń zewnętrznych przewyższał koszt samego komputera. Korzystanie ze wspólnych urządzeń zewnętrznych miało sens w tych instytucjach, w których było wiele komputerów osobistych lub stacji roboczych.
Wykonywanie programu na drugiej maszynie. Zdarza się, że inny komputer może być lepiej dostosowany do wykonywania jakiegoś programu. Często bywa tak w przypadku programów wymagających specjalnych właściwości systemu, takich jak równoległe przetwarzanie lub dostęp do dużych obszarów pamięci.
Zdalne zgłaszanie się komputera. W przypadku, gdy dwa komputery są połączone ze sobą w sieć, to korzystając w tym przypadku z jednego z nich można zgłosić się do drugiego (przyjmując, że w obydwu są założone konta).
Sieć komputerowa jest systemem komunikacyjnym łączącym systemy końcowe zwane stacjami sieciowymi lub stacjami (host). Terminem host określa się każdy komputer podłączony do sieci. Hostami określa się nie tylko systemy, które umożliwiają pracę interakcyjną, ale również takie, które udostępniają jedynie wyspecjalizowane usługi jak np.: serwery drukowania lub serwery plików. W sieć lokalną, czyli sieć LAN (Local Area Network), łączy się komputery niezbyt od siebie odległe, najczęściej pozostające w obrębie jednego budynku (dopuszcza się jednak i większe odległości, rzędu kilku kilometrów). Obecnie najczęściej stosuje się sieci lokalne zrealizowane w technologii Ethernet lub Token Ring. W takich sieciach dane są przesyłane z dużą szybkością do 10 Mbps (milionów bitów na sekundę) w przypadku zastosowania sieci Ethernet oraz 4 lub 16 Mbps w przypadku zastosowania sieci Token Ring. Nowsze rozwiązania, w których do przesyłu danych wykorzystuje się łącza światłowodowe, pozwalają na osiągnięcie prędkości tego przesyłu w granicach 100 Mbps.
III. Model OSI
Organizacja ISO opracowała Model Referencyjny Połączonych Systemów Otwartych (model OSI) w celu ułatwienia realizacji otwartych połączeń systemów komputerowych. Połączenia otwarte to takie, które mogą być obsługiwane w środowiskach wielosystemowych. Omawiany model jest globalnym standardem określania warstw funkcjonalnych wymaganych do obsługi tego typu połączeń. Model referencyjny OSI dzieli procesy zachodzące podczas sesji komunikacyjnej na siedem warstw funkcjonalnych, które zorganizowane są według naturalnej sekwencji zdarzeń zachodzących podczas sesji komunikacyjnej. Warstwy od 1 do 3 umożliwiają dostęp do sieci, a warstwy od 4 do 7 obsługują logistycznie komunikację końcową.
Nazwa warstwy modelu OSI |
Numer warstwy |
Aplikacji |
7 |
Prezentacji |
6 |
Sesji |
5 |
Transportu |
4 |
Sieci |
3 |
Łącza danych |
2 |
Fizyczna |
1 |
Warstwa fizyczna. Warstwa najniższa nazywana jest warstwą fizyczną. Jest ona odpowiedzialna za przesyłanie strumieni bitów. Odbiera ramki danych z warstwy 2, czyli warstwy łącza danych, i przesyła szeregowo, bit po bicie, całą ich strukturę oraz zawartość. Jest ona również odpowiedzialna za odbiór kolejnych bitów przychodzących strumieni -danych. Strumienie te są następnie przesyłane do warstwy łącza danych w celu ich ponownego ukształtowania.
Warstwa łącza danych. Druga warstwa modelu OSI nazywana jest warstwą łącza danych. Jak każda z warstw, pełni ona dwie zasadnicze funkcje: odbierania i nadawania. Jest ona odpowiedzialna za końcową zgodność przesyłania danych. W zakresie zadań związanych z przesyłaniem, warstwa łącza danych jest odpowiedzialna za upakowanie instrukcji, danych itp. w tzw. ramki. Ramka jest strukturą rodzimą, czyli właściwą dla warstwy łącza danych, która zawiera ilość informacji wystarczającą do pomyślnego przesyłania danych przez sieć lokalną do ich miejsca docelowego. Pomyślna transmisja danych zachodzi wtedy, gdy dane osiągają miejsce docelowe w postaci niezmienionej w stosunku do postaci, w której zostały wysłane. Ramka musi więc zawierać mechanizm umożliwiający weryfikowanie integralności jej zawartości podczas transmisji. W wielu sytuacjach wysyłane ramki mogą nie osiągnąć miejsca docelowego lub ulec uszkodzeniu podczas transmisji. Warstwa łącza danych jest odpowiedzialna za rozpoznawanie i naprawę każdego takiego błędu. Warstwa łącza danych jest również odpowiedzialna za ponowne składanie otrzymanych z warstwy fizycznej strumieni binarnych i umieszczanie ich w ramkach. Ze względu na fakt przesyłania zarówno struktury, jak i zawartości ramki, warstwa łącza danych nie tworzy ramek od nowa. Buforuje ona przychodzące bity dopóki nie uzbiera w ten sposób całej ramki.
Warstwa sieci. Warstwa sieci jest odpowiedzialna za określenie trasy transmisji między komputerem-nadawcą, a komputerem-odbiorcą. Warstwa ta nie ma żadnych wbudowanych mechanizmów korekcji błędów i w związku z tym musi polegać na wiarygodnej transmisji końcowej warstwy łącza danych. Warstwa sieci używana jest do komunikowania się z komputerami znajdującymi się poza lokalnym segmentem sieci LAN. Umożliwia im to własna architektura trasowania, niezależna od adresowania fizycznego warstwy 2. Korzystanie z warstwy sieci nie jest obowiązkowe. Wymagane jest jedynie wtedy, gdy komputery komunikujące się znajdują się w różnych segmentach sieci przedzielonych routerem.
Warstwa transportu. Warstwa ta pełni funkcję podobną do funkcji warstwy łącza w tym sensie, że jest odpowiedzialna za końcową integralność transmisji. Jednak w odróżnieniu od warstwy łącza danych - warstwa transportu umożliwia tę usługę również poza lokalnymi segmentami sieci LAN. Potrafi bowiem wykrywać pakiety, które zostały przez routery odrzucone i automatycznie generować żądanie ich ponownej transmisji. Warstwa transportu identyfikuje oryginalną sekwencję pakietów i ustawia je w oryginalnej kolejności przed wysłaniem ich zawartości do warstwy sesji.
Warstwa sesji. Piątą warstwą modelu OSI jest warstwa sesji. Jest ona rzadko używana; wiele protokołów funkcje tej warstwy dołącza do swoich warstw transportowych. Zadaniem warstwy sesji modelu OSI jest zarządzanie przebiegiem komunikacji podczas połączenia miedzy dwoma komputerami. Przepływ tej komunikacji nazywany jest sesją. Warstwa ta określa, czy komunikacja może zachodzić w jednym, czy obu kierunkach. Gwarantuje również zakończenie wykonywania bieżącego żądania przed przyjęciem kolejnego.
Warstwa prezentacji. Warstwa prezentacji jest odpowiedzialna za zarządzanie sposobem kodowania wszelkich danych. Nie każdy komputer korzysta z tych samych schematów kodowania danych, więc warstwa prezentacji odpowiedzialna jest za translację między niezgodnymi schematami kodowania danych. Warstwa ta może być również wykorzystywana do niwelowania różnic między formatami zmiennopozycyjnymi, jak również do szyfrowania i rozszyfrowywania wiadomości.
Warstwa aplikacji. Najwyższą warstwą modelu OSI jest warstwa aplikacji. Pełni ona rolę interfejsu pomiędzy aplikacjami użytkownika a usługami sieci. Warstwę tę można uważać za inicjującą sesje komunikacyjne.
IV. Metody dostępu do nośnika
Każda sieć musi w jakiś sposób regulować dostęp do nośnika. Mechanizm regulacji dostępu do nośnika realizowany jest przez warstwę 2 modelu referencyjnego OSI (warstwę danych). W sieciach LAN dostęp do nośnika regulowany może być na jeden z czterech różnorodnych sposobów:
rywalizacji
przesyłania tokenu
priorytetu żądań
przełączania
Dostęp do nośnika na zasadzie rywalizacji.
Sieć LAN, która używa rywalizacji jako podstawy do przyznawania prawa do transmisji, określana jest jako wykorzystująca metodę dostępu do nośnika na zasadzie rywalizacji. Wszystkie urządzenia konkurujące ze sobą o dostępne pasmo szerokości tworzą domenę kolizji. Dostęp na zasadzie rywalizacji jest prostym sposobem regulowania dostępu, gdyż nie posiada on żadnych scentralizowanych mechanizmów regulacyjnych. Zamiast tego każde urządzenie przyłączone do sieci przyjmuje na siebie ciężar samodzielnego przeprowadzenia transmisji. Za każdym razem, kiedy urządzenie chce przesyłać dane, musi sprawdzić, czy kanał transmisyjny jest wolny, czy też nie. W definicji dostępu do nośnika na zasadzie rywalizacji domyślnie założono, że wszystkie urządzenia przyłączone do sieci mogą dane odbierać i wysyłać w tym samym zakresie częstotliwości. Nośniki transmisji mogą jednocześnie obsługiwać jeden tylko sygnał, który zajmuje całą dostępną szerokość pasma transmisyjnego.
Dostęp do nośnika na zasadzie pierścienia.
Najpopularniejszym sposobem dostępu do nośnika jest przesyłanie tokenu. Przesyłanie tokenu jest zjawiskiem charakterystycznym dla sieci LAN opartych na topologii pierścienia. Token to specjalna ramka, która jest przesyłana w jednym kierunku do kolejnych urządzeń wchodzących w skład pierścienia. Token może być przesyłany tylko wtedy, gdy sieć jest wolna. Ramka tokenu ma najczęściej długość kilku oktetów i zawiera specjalny wzór bitów. Wzór ten jest zmieniany w celu zmiany tokena w sekwencję początku ramki informującą urządzenia znajdujące się w dalszej części pierścienia o tym, że otrzymana właśnie ramka jest ramką danych. Zaraz po sekwencji początku ramki umieszczone są w niej pary adresów odbiorcy i nadawcy. Token uznawany jest przez wszystkie urządzenia za element decydujący o dostępie do nośnika. Jeśli token przesyłany jest do urządzenia, które akurat nie ma potrzeby wysyłania czegokolwiek, urządzenie to może przetrzymać token przez 10 ms lub dłużej, jeśli zmieniona została wartość domyślna. Czas ten ma pozwolić urządzeniu, które ma token, na zakończenie umieszczania w ramkach danych otrzymanych od protokołów warstw wyższych. Aby umieścić jakiekolwiek dane w sieci, urządzenie musi znajdować się w posiadaniu tokena. Jeśli go nie ma, musi poczekać, aż otrzyma go od sąsiada poprzedzającego go w pierścieniu. Jeśli czas upłynął, a urządzenie nie musiało nic przesyłać, oddaje ono kontrolę nad tokenem, który przekazywany jest do następnego urządzenia w sieci. Ogranicznik początku ramki może być przekonwertowany z powrotem do postaci tokenu tylko przez to urządzenie, które go umieściło w sieci. Token dociera do urządzenia które go utworzyło. Urządzenie to zmienia token do postaci pola Początku ramki. Wykonywane jest to po skopiowaniu przez urządzenie odbierające niesionych przez tę ramkę danych i zmodyfikowaniu jej wzoru bitowego w celu poinformowania urządzenia wysyłającego ramkę o pomyślnym jej otrzymaniu. Tak zmodyfikowana ramka danych kontynuuje swą podróż dookoła pierścienia, aż do powrotu do swego nadawcy, który otrzymawszy potwierdzenie pomyślnego dostarczenia zawartości, albo trzyma token przez określony czas, albo używa go do przenoszenia kolejnych danych.
Dostęp do nośnika na zasadzie pierścienia w sieciach FDDI.
Sieci FDDI korzystają ze schematu przesyłania tokenu opisanego w punkcie poprzednim, lecz z drobną różnicą. Stacje nie muszą się wstrzymywać z dalszą pracą do czasu otrzymania przez nadawcę potwierdzenia pomyślnego dostarczenia przesyłanej ramki. Zamiast tego sieci FDDI korzystają z mechanizmu szybkiego uwalniania tokenu, który pozwala innym urządzeniom przesyłać dane, mimo że uprzednio wysłana ramka nadal znajduje się w drodze (do miejsca docelowego). Dzięki temu następne urządzenie uzyskuje możliwość przesyłania danych dużo wcześniej, co oznacza, że może zdjąć nowo utworzony token z sieci i zamienić go na ogranicznik początku ramki, nawet zanim jeszcze wcześniejsza ramka dotrze do swego adresata.
Dostęp do nośnika na zasadzie priorytetu żądań.
Metoda dostępu na zasadzie priorytetu żądań wykorzystywana jest w sieciach odpowiadających specyfikacji IEEE 802.12 100 Mbps. Powodem wprowadzania priorytetów jest potrzeba umożliwienia uprzywilejowanego dostępu do nośnika procesom, które obsłużone muszą być w określonym czasie. Każdy port nie przeprowadzający transmisji przesyła sygnał wolny (nośny). Do portów takich należą również wszystkie urządzenia nie wysyłające w danym momencie danych oraz urządzenia, których zgłoszenia transmisji są chwilowo zawieszone. Wolny sygnał jest usuwany przez wzmacniak w momencie wybrania urządzenia jako kolejnego do rozpoczęcia transmisji. Informuje on również pozostałe stacje, że mogą one otrzymać wiadomość przychodzącą. Następnie odczytuje adres odbiorcy otrzymanego pakietu, sprawdza go w swojej tabeli konfiguracyjnej i przesyła ramkę dalej. Wzmacniak centralny, kontroluje działanie domeny priorytetów. Może się on składać z nie więcej niż trzech warstw wzmacniaków połączonych ze sobą kaskadowo. Kaskadowo połączone wzmacniaki mogą bowiem działać jak jeden wielki wzmacniak. Wtedy wzmacniak centralny przesyła cały ruch do poszczególnych wzmacniaków warstwy niższej, a te z kolei sprawdzają swoje porty aktywne na obecność żądań transmisji pakietów. Żadna stacja nie może wykonywać dwóch transmisji pod rząd, jeśli zawieszone żądania transmisji innych stacji maja taki sam priorytet. We wzmacniaku centralnym żądanie o wysokim priorytecie nie przerwie rozpoczętej już realizacji żądania. We wzmacniaku niższej warstwy żądanie o priorytecie normalnym zostaje zawłaszczone w celu umożliwienia jak najszybszej realizacji żądania o priorytecie wyższym. Aby zapewnić, że żadne z żądań nie będzie wiecznie ignorowane, żądania o priorytecie normalnym, które oczekują dłużej niż 250 ms, automatycznie uzyskują priorytet wysoki. Ta metoda dostępu do nośnika wykorzystywana jest przez specyfikację IEEE 802.12 dla sieci 100 Mbps, o ramkach formatu Token Ring lub Ethernet (ale nigdy obu jednocześnie) oraz topologii gwiazdy.
Dostęp do nośnika w komutowanych sieciach LAN.
Metoda ta jest coraz częściej stosowana zamiast przedstawionych uprzednio typów w celu zwiększenia sprawności i wydajności sieci LAN. Przełączanie zmienia dotychczasowe zasady dotyczące topologii i metodologii dostępu sieci LAN. Przełączanie może być stosowane zarówno do wzajemnego łączenia współdzielnych koncentratorów, jak i poszczególnych urządzeń. Segmentowanie koncentratorów współdzielnych za pomocą koncentratora przełączającego znane jest jako przełączanie segmentów. Przełączanie może być używane do zwiększenia sprawności sieci LAN o architekturach stosujących dostęp do nośnika zarówno na zasadzie rywalizacji, jak i na zasadzie przesyłania tokenu.
V. Topologie sieci lokalnych
Topologia jest to sposób okablowania sieci na określonym obszarze, czyli połączenia komputerów w jeden zespół. Podczas projektowania sieci komputerowej należy uwzględnić liczne czynniki, wśród których zasadniczą rolę odgrywają trzy:
Koszty instalacji kablowej, kart sterujących i osprzętu sieciowego
Elastyczność architektury sieci dającą możliwość jej rekonfiguracji lub wprowadzenie dodatkowych węzłów (komputerów, urządzeń peryferyjnych)
Niezawodność realizacji zadań informatycznych w sieci komputerowej, uzyskiwaną na drodze redundancji komunikacyjnej między węzłami sieci i dodatkowych węzłów sieci stosownie do wagi zadań informatycznych
Topologia magistrali (szynowa).
Można ją traktować jak "autostradę" służącą transmisji danych i łączącą stacje sieci. Dane, nim dotrą do stacji przeznaczenia, przechodzą po drodze przez wszystkie pozostałe stacje. W rozwiązaniu tym do wspólnego kabla transmisyjnego zostają podłączone komputery o dzielonym dostępie do medium transmisyjnego. Każdy komputer jest przyłączony do kanału, nadawane sygnały docierają do wszystkich stacji, ale pakiety odbierane są tylko przez stację, do której są adresowane, ponieważ każda stacja sprawdza, czy dane są skierowane do niej. Topologia magistrali jest jedną z najbardziej popularnych konfiguracji sieci komputerowych.
kliknij tutaj, aby obejrzeć animację
Zalety magistrali:
małe zużycie kabla
prosta instalacja
niska cena instalacji
bardzo prosta rozbudowa sieci
łatwe łączenie segmentów sieci w jeden system (bez zmian oprogramowania komunikacyjnego)
każdy komputer jest podłączony tylko do jednego kabla
pojedyncze uszkodzenie (przerwa w kablu lub awaria komputera) nie powoduje unieruchomienia całej sieci
Wady magistrali:
konkurencja o dostęp - wszystkie komputery muszą dzielić się kablem
utrudniona diagnostyka błędów z powodu braku centralnego systemu zarządzającego siecią
rozproszenie zadań zarządzających siecią, co w określonych przypadkach niekorzystnie wpływa na szybkość realizacji zadań informatycznych
zwykle dla uniknięcia zakłóceń sygnałów należy zachować pewną odległość między punktami przyłączenia poszczególnych stacji
Topologia pierścienia.
Topologia pierścieniowa ma wiele zalet. Funkcjonowanie sieci nie zostaje przerwane nawet w razie awarii głównego komputera, gdyż jego zadanie może przejąć inna stacja. Dzięki układom obejściowym (ang. by-pass) można wyłączyć z sieci dowolną stację i tym sposobem uniknąć awarii sieci. Każdy węzeł sieci bierze bezpośredni udział w procesie transmisji informacji i jest połączony z dwoma innymi "sąsiadami". Węzły połączone w pierścień przekazują komunikaty sterujące (tokeny) do następnego; węzeł aktualnie mający token może wysyłać komunikat; termin "token ring" często odnosi się do standardu Institute of Electrical and Electronics Engineers (IEEE) 802.5 sieci token ring, który jest najbardziej powszechnym typem sieci token ring; pierwszy standard przewidywał przesyłanie z szybkością 4 Mb/s, natomiast w obecnych sieciach osiągana prędkość to 16 Mb/s. Informacja wędruje w jednym kierunku i po przejściu wszystkich węzłów wraca do miejsca nadania. Interfejs sieciowy każdego komputera musi odbierać dane od jednego sąsiada i przesyłać je do następnego. Podczas przechodzenia przez kolejne węzły sygnał w każdym z nich jest wzmacniany.
kliknij tutaj, aby obejrzeć animację
Zalety :
małe zużycie kabla
możliwość zastosowania łącz optoelektronicznych, które wymagają bezpośredniego nadawania i odbierania transmitowanych sygnałów
możliwe wysokie osiągi, ponieważ każdy kabel łączy dwa konkretne komputery
Wady :
awaria pojedynczego kabla lub komputera powoduje przerwanie pracy całej sieci, jeśli nie jest zainstalowany dodatkowy sprzęt
złożona diagnostyka sieci (możliwe usprawnienie przez wyposażenie każdego węzła
w procedury samotestowania)
trudna lokalizacja uszkodzenia
trudna rekonfiguracja sieci
wymagane specjalne procedury transmisyjne
dołączenie nowych stacji jest utrudnione, jeśli w pierścieniu jest wiele stacji
Topologia łańcucha.
Istnieje podobieństwo do rozkładu pierścieniowego, ale z przerwanym połączeniem między jedną parą komputerów. Każdy komputer jest podłączany do dwóch innych z wyjątkiem komputerów na końcach łańcucha. Mogą powstawać również sieci oparte o połączenie dwóch z wcześniej wymienionych topologii np. pierścień-drzewo, gwiazda-magistrala. Topologia niezbyt popularna ze względu na możliwość rozczłonkowania sieci w przypadku awarii.
kliknij tutaj, aby obejrzeć animację
Zalety łańcucha priorytetów:
łatwość okablowania
mała ilość kabla
Wady łańcucha priorytetów:
przerwanie kabla lub awaria komputera powoduje podzielenie sieci na dwa niezależne kawałki
Topologia gwiazdy.
Jest to sieć zawierająca jeden centralny węzeł (serwer), do którego zostają przyłączone pozostałe elementy składowe sieci za pomocą huba. Chroni to sieć przed awariami, gdyż awaria jednego łącza nie powoduje unieruchomienia całej sieci. Stosowana jest do łączenia komputerów w jednej instytucji, budynku. większość zasobów sieci znajduje się w komputerze centralnym przetwarzającym i zarządzającym siecią. Pozostałe komputery zwane terminalami są stacjami przygotowania danych lub mają niewielkie możliwości obliczeniowe. Wszystkie informacje są przekazywane przez centralny komputer. Topologia ta może być określona jako drzewo z jednym poziomem połączeń. Okablowanie: popularna skrętka (UTP, światłowód).
kliknij tutaj, aby obejrzeć animację
Zalety gwiazdy:
łatwa konserwacja i lokalizacja uszkodzeń
prosta rekonfiguracja
proste i szybkie oprogramowanie użytkowe sieci
centralne sterowanie i centralna programowa diagnostyka sieci
możliwe wysokie szybkości transmisji (warunek - szybki komputer centralny)
Wady gwiazdy:
duża liczba kabli
wszystkie maszyny wymagają podłączenia wprost do głównego komputera
ograniczona możliwość rozbudowy sieci
zależność działania sieci od sprawności komputera centralnego
ograniczenie odległości komputera od huba
w przypadku awarii huba przestaje działać cała sieć.
Topologia drzewa.
Jest to forma okablowania przypominająca kształtem rozgałęzione drzewo. Gałęzie drzewa dzielą się na podgałęzie, które z kolei znowu się dzielą. W każdym punkcie podziału komputer rozsyła sygnały. Topologia ta jest bardzo elastyczna i może w niektórych systemach transportu sieciowego umożliwić praktycznie dowolne konfiguracje.
kliknij tutaj, aby obejrzeć animację
Zalety drzewa:
łatwa rozbudowa sieci komputerowej przez dodawanie rozgałęźników
łatwa rekonfiguracja sieci
sieć zwykle może przetrwać uszkodzenie komputera lub kabla
Wady drzewa:
duża liczba kabli
utrudnione znajdywanie błędów
Połączenia między sieciami LAN
Aby połączyć ze sobą kilka sieci lokalnych (LAN) i zachować przy tym wysoką przepustowość transmisji danych, elementem łączącym poszczególne sieci może być wtedy bridge(mostek). Urządzenie to pozwala ograniczyć do minimum czas dostępu do wspólnych zasobów danych na każdym podłączonym do sieci stanowisku roboczym. Mostki mogą łączyć ze sobą także kilka różnych kabli sieciowych, na przykład światłowód czy arcnet, a następnie obsługiwać transmisję przepływających przez nie danych. Gdy chcemy natomiast połączyć ze sobą kilka sieci komputerowych różnych typów, wtedy jako element łączący należy wykorzystać router. Router może na przykład odczytać adres nadawcy i odbiorcy określonego pakietu danych oraz w gąszczu podłączonych kabli znaleźć najkrótszą drogę transmisji. Router jest więc w stanie przesyłać dane w sieci w bardzo inteligentny sposób, skutecznie unikając przy tym wszelkich wąskich gardeł. Takim newralgicznym punktem może być na przykład bardzo zapracowany serwer plików lub jakiś mostek, który jest właśnie zajęty rozładowywaniem zatoru powstałego w pewnym węźle sieci.
Ponieważ router posiada zdolność omijania napotkanych "korków komunikacyjnych", dane przesyłane kablem sieciowym nie wędrują, co prawda, do odbiorcy zawsze najkrótszą drogą, ale w każdym przypadku jest to droga najszybsza z możliwych. Routery oraz mostki nie należą do urządzeń tanich, warto jednak w nie zainwestować.
Przykładowa sieć wykorzystująca skrętkę:
Skrętka zwana też w zależności od przepustowości 10 BASE - T, 100 BASE - T lub 1000 BASE - T to obecnie najpopularniejsze medium transmisyjne. Używany jest także w telefonii. Przepustowość skrętki zależna jest od tzw. kategorii. Skrętka kategorii 1 to kabel telefoniczny, kategorii 2 przeznaczona jest do transmisji danych z szybkością 4 Mb/s, kategorii 3 do transmisji o przepustowości do 10 Mb/s, kategorii 4 do 16 Mb/s, kategorii 5 do ponad 100 Mb/s - ten typ ma zastosowanie w szybkich sieciach np. Fast Ethernet, natomiast kategorii 6 - 622 Mb/s przeznaczony jest dla sieci ATM.
VI. Protokoły transmisji
Do przekazywania informacji przez sieć teleinformatyczną stosuje się protokoły liniowe, określające sposób transmisji danych na poziomie kanału fizycznego, zbiór procedur sterowania transmisją i sposób postępowania podczas inicjowania, utrzymania i zakończenia transmisji, a także sposób kontroli poprawności przekazu tworzą protokół liniowy.
Istnieje wiele protokołów liniowych różniących się strukturą bloków wiadomości i sposobem sterowania, jednak wszystkie zawierają podstawowe fazy:
nawiązanie i zestawienie łącza,
właściwy przekaz danych,
zakończenie transmisji i likwidacja połączenia.
Protokołem komunikacyjnym nazywamy zbiór formalnych reguł i konwencji szczegółowo określających mechanizmy wymiany informacji między stacjami połączonymi medium transmisyjnym (kablem sieciowym).
Protokoły zorientowane znakowo używają znaku o określonej (ustalonej) długości jako podstawowego nośnika informacji. Informacja jest transmitowana w blokach ograniczonych znakami sterującymi, a podstawowy format bloku protokołu zawiera: nagłówek, tekst i zakończenie. Wadami protokołów o orientacji znakowej są: konieczność rozpoznawania dużej liczby znaków i sekwencji sterujących, oraz złożony sposób zapewnienia przezroczystości informacyjnej. W protokołach zorientowanych bitowo podstawowym nośnikiem informacji jest bit (lub raczej strumień bitów) bez formalnego podziału pola informacji tekstowej na poszczególne znaki. Format bloku zawiera sekwencję "flag" wyznaczającą początek i koniec ramki oraz spełniającą rolę synchronizacji blokowej.
Model OSI jest tylko ogólnym modelem koncepcyjnym komunikacji między stacjami podłączonymi do sieci. Model OSI nie określa szczegółowych metod komunikacji. Mechanizmy rzeczywistej komunikacji są określone w formie protokołów komunikacyjnych (Communication Protocols).
Protokół realizuje funkcje jednej lub wielu warstw modelu OSI. Istniejąca obecnie bardzo duża liczba różnych protokołów komunikacyjnych utrudnia często zorientowanie się w mechanizmach działania sieci. Pomocne może okazać się uświadomienie sobie podziału wszystkich protokołów komunikacyjnych na następujące klasy:
Protokoły sieci lokalnych LAN (LAN Protocols) - obsługują funkcje dwóch najniższych warstw modelu OSI (warstw fizycznej i łącza danych).
Protokoły sieci rozległych WAN (WAN Protocols) - obsługują funkcje trzech najniższych warstw modelu OSI (fizycznej, łącza danych i sieciowej) i definiują komunikację przez różne media stosowane w sieciach rozległych.
Protokoły trasowania (Routing Protocols) - obejmują warstwę sieciową modelu OSI, są odpowiedzialne za określanie tras przepływu pakietów.
Protokoły sieciowe (Network Protocols) - są to zbiory wielu różnych protokołów obejmujących wyższe warstwy modelu OSI (np. AppleTalk, DECnet, SNA, IP, IPX).
Protokół TCP/IP.
TCP / IP (Transmission Control Protocol / Internet Protocol) - Protokół sieciowy - a ściślej zestaw protokołów - stosowany w sieci Internet; najczęściej posługują się nim systemy unix-owe, choć można go również stosować z Novell NetWare, Windows NT itp. TCP/IP jest bardziej podatny na naruszenia systemu bezpieczeństwa, z powodu swojej otwartej, "ufnej natury". Jego zadanie polega na podzieleniu informacji na odpowiedniej wielkości pakiety, ponumerowaniu ich, tak aby u odbiorcy można było sprawdzić, czy wszystkie pakiety nadeszły, i ustawić je w odpowiedniej kolejności. Poszczególne partie informacji są wkładane do kopert TCP, które z kolei są umieszczane w kopertach IP. Po stronie odbiorcy oprogramowanie TCP zbiera wszystkie koperty i odczytuje przesłane dane. Jeżeli brakuje jakiejś koperty, żąda ponownego jej przesłania. Pakiety są wysyłane przez komputery bez sprawdzania, czy droga jest wolna. Może się więc zdarzyć, że do określonego węzła sieci, w którym znajduje się router, nadchodzi więcej pakietów, niż urządzenie jest w stanie posegregować i wysłać dalej. W każdym routerze istnieje bufor, w którym pakiety czekają na wysyłkę. Kiedy bufor całkowicie się zapełni, nowe nadchodzące pakiety są wyrzucane i bezpowrotnie giną. Protokół obsługujący kompletowanie pakietów musi więc wtedy zażądać ponownego ich przesłania. W ten sposób przy dużym obciążeniu sieci coraz więcej pakietów musi być wielokrotnie przesyłanych, co powoduje lawinowe narastanie ruchu aż do praktycznego zablokowania połączenia. Powoduje to bardzo nieefektywne wykorzystanie sieci. Dlatego przyjmuje się, że dobrze działająca sieć nie powinna być obciążana powyżej 30% nominalnej przepływności.
Protokoły IPX/SPX Novell.
Zestaw protokołów firmy Novell bierze nazwę od swoich dwóch głównych protokołów: międzysieciowej wymiany pakietów IPX i sekwencyjnej wymiany pakietów SPX. Ten firmowy stos protokołów został oparty na protokole systemów sieciowych firmy Xerox, wykorzystywanym w pierwszej generacji Ethernet. Wymiana IPX/SPX zyskała na znaczeniu we wczesnych latach 80, jako integralna część systemu Novell Netware. Netware stał się faktycznym standardem sieciowego systemu operacyjnego dla sieci lokalnych pierwszej generacji. Protokół IPX w dużym stopniu przypomina IP. Jest bezpołączeniowym protokołem datagramowym, który nie wymaga ani nie zapewnia potwierdzenia każdego transmitowanego pakietu. Protokół IPX polega na SPX w taki sam sposób, w jaki protokół IP polega na TCP w zakresie porządkowania kolejności i innych usług połączeniowych warstwy 4. Stos protokołów IPX/SPX obejmuje cztery warstwy funkcjonalne: dostępu do nośnika, łącza danych, Internetu i aplikacji. Głównym protokołem warstwy aplikacji jest protokół rdzenia NetWare ( NCP). Protokół NCP można bezpośrednio sprzęgnąć zarówno z protokołem SPX, jak i IPX. Jest wykorzystywany do drukowania, współdzielenia plików, poczty elektronicznej i dostępu do katalogów. Innymi protokołami warstwy aplikacji są: protokół informacyjny trasowania, firmowy protokół ogłoszeniowy usługi i protokół obsługi łącza systemu NetWare. Protokół warstwy Internetu SPX jest protokołem połączeniowym i może być wykorzystywany do przesyłania danych między klientem serwerem, dwoma serwerami czy dwoma klientami. Tak jak w przypadku TCP, protokół SPX zapewnia niezawodność transmisjom IPX, zarządzając połączeniem i udostępniając sterowanie strumieniem danych, kontrolę błędów i porządkowanie kolejnych pakietów.
Protokół NetBEUI.
Interfejs NetBEUI został opracowany przez IBM i wprowadzony na rynek w 1985 roku. Jest stosunkowo małym ale wydajnym protokołem komunikacyjnym LAN. NetBEUI jest wyłącznie protokołem transportu sieci LAN dla systemów operacyjnych Microsoft. Nie jest trasowany. Dlatego jego implementacje ograniczają się do warstwy 2, w których działają wyłącznie komputery wykorzystujące systemy operacyjne firmy Microsoft. Aczkolwiek staje się to coraz mniejszą przeszkodą, to jednak ogranicza dostępne architektury obliczeniowe i aplikacje technologiczne. Zalety korzystania z protokołu NetBEUI są następujące:
Komputery korzystające z systemów operacyjnych lub oprogramowania sieciowego firmy Microsoft mogą się komunikować.
NetBEUI jest w pełni samodostrajającym się protokołem i najlepiej działa w małych segmentach LAN.
Ma minimalne wymagania odnośnie pamięci.
Zapewnia doskonałą ochronę przed błędami transmisji, a także powrót do normalnego stanu w razie ich wystąpienia.
Wadą protokołu NetBEUI jest fakt, że nie może być trasowany i niezbyt dobrze działa w sieciach WAN.
18