praca dyplomowa sieci komputerowe GDOXII4V6BM7D5VEI6ISJKWUIZ3VHR4X7YX6U5I


SPIS TREŚCI

1. Cel i przeznaczenie pracy

1. Cel i przeznaczenie pracy

Celem pracy dyplomowej jest zaprojektowanie i wykonanie modernizacji sali 114p mającej na celu ułatwienie korzystania z węzła internetowego i jego rozbudowę oraz zapewnienie efektywniejszej pracy poszczególnych elementów węzła.

Przeznaczeniem pracy jest wykorzystanie sieci i internetu do nauki i przesyłania informacji. Po zmodernizowaniu szkolny węzeł internetowy może służyć do prezentacji uczniom budowy i zasady działania. Za pomocą internetu można na bieżąco śledzić rozwijające się dziedziny.

2. Sieci komputerowe

2.1. Rodzaje sieci

Siecią nazwać można wszystko, co umożliwia dwóm lub większej liczbie komputerów komunikowanie się ze sobą i/lub z innymi urządzeniami. Dzięki sieciom można wykorzystywać komputery do współdzielenia informacji, do współpracy przy realizacji zadań, do drukowania, a nawet do bezpośredniego komunikowania się za pomocą indywidualnie adresowanych wiadomości.

Zauważyć należy, że sieci jako systemy rozwinęły się w dwóch kierunkach określanych obecnie przez dwie odrębne kategorie sieci:

Rozróżnienie między nimi jest dość proste. Sieci LAN używane są do łączenia urządzeń, które znajdują się w niewielkiej odległości . Sieci WAN służą do łączenia sieci LAN na znaczne odległości.

Trzecią kategorią są sieci miejskie, czyli sieci MAN. Mimo że pierwotnie zostały one zdefiniowane przez Projekt 802 instytutu IEE - ten sam który określa standard sieci LAN, to sieci MAN bliższe są sieciom WAN, aniżeli LAN. Są one rzadko używane i - w związku z tym - mało poznane.

2.2. Typy sieci LAN

Typ sieci opisuje sposób, w jaki przyłączone do sieci zasoby są udostępniane. Zasobami mogą być klienci, serwery lub inne urządzenia, pliki itd., które do klienta lub serwera są przyłączone. Zasoby te udostępniane są na jeden z dwóch sposobów: równorzędny i serwerowy.

2.2.1 Sieci równorzędne (każdy-z-każdym)

Sieć typu każdy-z-każdym obsługuje nieustruktaualizowany dostęp do zasobów sieci. Każde urządzenie w tego typu sieci może być jednocześnie zarówno klientem, jak i serwerem. Wszystkie urządzenia takiej sieci są zdolne do bezpośredniego pobierania danych, programów i innych zasobów. Innymi słowy, każdy komputer pracujący w takiej sieci jest równorzędny w stosunku do każdego innego - w sieciach tego typu nie ma hierarchii.

Sieci typu każdy-z-każdym mają dwa główne zastosowania. Pierwsze - są one idealne dla małych instytucji z ograniczonym budżetem technologii informacyjnych i ograniczonymi potrzebami współdzielenia informacji. Drugie - to zastosowanie tego rodzaju sieci do ściślejszego współdzielenia informacji w ramach grup roboczych wchodzących w skład większych organizacji.

2.2.1 Sieci oparte na serwerach (klient-serwer)

Sieci oparte na serwerach wprowadzają hierarchię, która ma na celu zwiększenie sterowalności różnych funkcji obsługiwanych przez sieć w miarę, jak zwiększa się jej skala. Często sieci oparte na serwerach nazywa się sieciami typu klient-serwer. W sieciach klient-serwer zasoby często udostępniane gromadzone są w komputerach odrębnej warstwy zwanych serwerami. Serwery zwykle nie mają użytkowników bezpośrednich. Są one raczej komputerami wielodostępowymi, które regulują udostępnianie swoich zasobów szerokiej rzeszy klientów. W sieciach tego typu z klientów zdjęty jest ciężar funkcjonowania jako serwery wobec innych klientów.

Sieci oparte na serwerach są bardzo przydatne, zwłaszcza w organizacjach dużych oraz wymagających zwiększonego bezpieczeństwa i bardziej konsekwentnego zarządzania zasobami przyłączonymi do sieci.

2.3. Topologie sieci LAN

2.3.1. Topologia magistrali

Topologię magistrali (szyna, bus) wyróżnia to, że wszystkie węzły sieci połączone są ze sobą za pomocą pojedynczego, otwartego (czyli umożliwiającego przyłączanie kolejnych urządzeń) kabla. Kabel taki obsługuje tylko jeden kanał i nosi nazwę magistrali. Niektóre technologie oparte na magistrali korzystają z więcej niż jednego kabla, dzięki czemu obsługiwać mogą więcej niż jeden kanał, mimo że każdy z kabli obsługuje niezmiennie tylko jeden kanał transmisyjny. Oba końce magistrali muszą być zakończone opornikami ograniczającymi, zwanymi również często terminatorami. Oporniki te chronią przed odbiciami sygnału. Zawsze gdy komputer wysyła sygnał, rozchodzi się on w przewodzie automatycznie w obu kierunkach. Jeśli sygnał nie napotka na swojej drodze terminatora, to dochodzi do końca magistrali, gdzie zmienia kierunek biegu. W takiej sytuacji pojedyncza transmisja może całkowicie zapełnić wszystkie dostępne szerokości pasma i uniemożliwić wysyłanie sygnałów pozostałym komputerom przyłączonym do sieci. Przykładową topologię magistrali przedstawia ten rysunek:

0x01 graphic

Rys. 2.1. Topologia magistrali

Typowa magistrala składa się z pojedynczego kabla łączącego wszystkie węzły w sposób charakterystyczny dla sieci równorzędnej, długość sieci w tej topologii nie powinna przekroczyć odległości 185 m (licząc od jednego terminatora do drugiego). Kabel ten nie jest obsługiwany przez żadne urządzenia zewnętrzne. Zatem wszystkie urządzenia przyłączone do sieci słuchają transmisji przesyłanych magistralą i odbierają pakiety do nich zaadresowane. Brak jakichkolwiek urządzeń zewnętrznych, w tym wzmacniaków, sprawia, że magistrale sieci lokalnych są proste i niedrogie. Jest to również przyczyną ograniczeń dotyczących odległości, funkcjonalności i skalowalności sieci. Topologia ta jest więc stosowana praktyczna jedynie dla najmniejszych sieci LAN. Wobec tego obecnie dostępne sieci lokalne o topologii magistrali są tanimi sieciami równorzędnymi udostępniającymi podstawowe funkcje współdziałania sieciowego. Topologie te są przeznaczone przede wszystkim do użytku w domach i małych biurach.

2.3.2. Topologia pierścienia

Pierwszą topologią pierścieniową była topologia prostej sieci równorzędnej. Każda przyłączona do sieci stacja robocza ma w ramach takiej topologii dwa połączenia: po jednym ze swoich najbliższych sąsiadów. Połączenie to opierało się na kablu koncentrycznym, przy wykorzystaniu kart sieciowych z wyjściem na BNC, oraz trójnika rozdzielającego sygnał. Połączenie takie musiało tworzyć fizyczną pętlę, czyli pierścień. Dane przesyłane były wokół pierścienia w jednym kierunku. Każda stacja robocza działa podobnie jak wzmacniak, pobierając i odpowiadając na pakiety do niej zaadresowane, a także przesyłając dalej pozostałe pakiety do następnej stacji roboczej wchodzącej w skład sieci. Pierwotna, pierścieniowa topologia sieci LAN umożliwiała tworzenie połączeń równorzędnych między stacjami roboczymi. Połączenia te musiały być zamknięte; czyli musiały tworzyć pierścień. Korzyść płynąca z takich sieci LAN polegała na tym, że czas odpowiedzi był możliwy do ustalenia. Im więcej urządzeń przyłączonych było do pierścienia, tym dłuższy był ów czas. Ujemna strona tego rozwiązania polegała na tym, że uszkodzenie jednej stacji roboczej najczęściej unieruchamiało całą sieć pierścieniową. A oto przykładowy rysunek:

0x01 graphic

Rys. 2.2 Topologia pierścienia

Owe prymitywne pierścienie zostały wyparte przez sieci Token Ring firmy IBM, które z czasem znormalizowała specyfikacja IEEE 802.5. Sieci Token Ring odeszły od połączeń międzysieciowych każdy - z - każdym na rzecz koncentratorów wzmacniających. Wyeliminowało to podatność sieci pierścieniowych na zawieszanie się przez wyeliminowanie konstrukcji każdy - z - każdym pierścienia. Sieci Token Ring, mimo pierwotnego kształtu pierścienia, tworzone są przy zastosowaniu topologii gwiazdy i metody dostępu cyklicznego. Sieci LAN mogą być wdrażane w topologii gwiazdy, przy zachowaniu - mimo to - metody dostępu cyklicznego.

2.3.3. Topologia gwiazdy

Połączenia sieci LAN o topologii gwiazdy z przyłączonymi do niej urządzeniami rozchodzą się z jednego, wspólnego punktu, którym jest koncentrator (HUB), okablowanie całej sieci w tym przypadku opiera się na skrętce cztero parowej i kart sieciowych z wyjściem na UTP co przedstawia poniższy rysunek:

0x01 graphic

Rys. 2.3. Topologia gwiazdy

Odległości pomiędzy komputerami a HUB`em nie powinny przekraczać odległości 100 metrów. W bardzo łatwy sposób można połączyć dwie takie sieci o topologii gwiazdy, wystarczy połączyć koncentratory odpowiednim przewodem (UTP, BNC), w zależności od modelu HUB`a łączymy je za pomocą skrętki lub koncentryka (gniazdo to nazywa się UPLINK). Odmiennie niż w topologiach pierścienia - tak fizycznej, jak i wirtualnej - każde urządzenie przyłączone do sieci w topologii gwiazdy może uzyskiwać bezpośredni i niezależny od innych urządzeń dostępu do nośnika. W tym celu urządzenia te muszą współdzielić dostępne szerokości pasma koncentratora. Przykładem sieci LAN o topologii gwiazdy jest 10BaseT Ethernet. Połączenia w sieci LAN o małych rozmiarach i topologii gwiazdy rozchodzą się z jednego wspólnego punktu. Każde urządzenie przyłączone do takiej sieci może inicjować dostęp do nośnika niezależnie od innych przyłączonych urządzeń. Topologie gwiazdy stały się dominującym we współczesnych sieciach LAN rodzajem topologii. Są one elastyczne, skalowalne i stosunkowo tanie w porównaniu z bardziej skomplikowanymi sieciami LAN o ściśle regulowanych metodach dostępu.

2.3.4. Topologie złożone

Topologie złożone są rozszerzeniami i/lub połączeniami podstawowych topologii fizycznych. Topologie podstawowe są odpowiednie jedynie do bardzo małych sieci LAN. Skalowalność topologii podstawowych jest bardzo ograniczona. Topologie złożone tworzone są z elementów składowych umożliwiających uzyskanie topologii skalowalnych odpowiadających zastosowaniom.

Najprostszą z topologii złożonych otrzymać można w wyniku połączenia szeregowego wszystkich koncentratorów sieci. Taki sposób łączenia znany jest jako łańcuchowanie. Wykorzystuje ono porty już istniejących koncentratorów do łączenia ich z kolejnymi koncentratorami. Dzięki temu uniknąć można ponoszenie kosztów dodatkowych związanych z tworzeniem odpowiedniego szkieletu. Małe sieci LAN mogą być zwiększane (skalowane dodatnio) przez łączenie koncentratorów w łańcuchy (łańcuchowania ich). Łańcuchy stanowiły alternatywną, wobec sieci LAN pierwszej generacji, metodę przyłączania urządzeń.

2.4. Organizacje stanowiące standardy

ANSI - Amerykański Narodowy Instytut Normalizacji (ang. ANSI - The American National Standards Instytute) jest prywatną organizacją niekomercyjną. Jej misją jest ułatwianie rozwoju, koordynacji oraz publikowanie nieobligatoryjnych standardów. Organizacja ta nie wdraża aktywnie ani nie narzuca nikomu swoich standardów. Uczestniczy natomiast w pracach organizacji ustanawiających standardy globalne, takich jak IOS, IEC itp., w związku z tym niezgodność z jej standardami powoduje niezgodność ze standardami globalnymi.

IEEE - Instytut Elektryków i Elektroników (ang. IEEE - The Institute of Electrical and Electronic) jest odpowiedzialny za definiowanie i publikowanie standardów telekomunikacyjnych oraz przesyłania danych. Jego największym osiągnięciem jest zdefiniowanie standardów LAN oraz MAN. Standardy te tworzą wielki i skomplikowany zbiór norm technicznych, ogólnie określany jako "Project 802" lub jako seria standardów 802. Celem IEEE jest tworzenie norm, które byłyby akceptowane przez instytut ANSI. Akceptacja taka zwiększyłaby ich forum dzięki uczestnictwa ANSI w globalnych organizacjach określających standardy.

ISO - Międzynarodowa Agencja Normalizacyjna (ang. ISO - International Organization for Standardization) została utworzona w 1946 roku w Szwajcarii, w Genewie. ISO jest niezależnym podmiotem wynajętym przez Organizację Narodów Zjednoczonych do określania standardów międzynarodowych. Zakres jej działania obejmuje praktycznie wszystkie dziedziny wiedzy ludzkiej, poza elektryką i elektroniką. Aktualnie ISO składa się z ponad 90 różnych organizacji standardo-dawczych z siedzibami na całym świecie. Najważniejszym standardem opracowanym przez ISO jest Model Referencyjny Połączonych Systemów Otwartych, czyli model OSI.

IEC - Międzynarodowa Komisja Elektrotechniczna (ang. IEC - International Electrotechnical Commission), z siedzibą również w Genewie, została założona w 1909 roku. Komisja IEC ustanawia międzynarodowe standardy dotyczące wszelkich zagadnień elektrycznych i elektronicznych. Aktualnie w jej skład wchodzą komitety z 40 państw. W Stanach Zjednoczonych Instytut ANSI reprezentuje zarówno IEC, jak i ISO. IEC oraz ISO dostrzegły, że technologie informatyczne stanowią potencjalny obszar zazębiania się ich kompetencji; w celu określenia standardów dla technologii informatycznych utworzyły, więc Połączony Komitet Techniczny (ang. JTC - Join Technical Committee).

IAB - Komisja Architektury Internetu (ang. IAB - Internet Architecture Board) zarządza techniczną stroną rozwoju sieci Internet. Składa się z dwóch komisji roboczych: Grupy Roboczej ds. Technicznych Internetu oraz z Grupy Roboczej ds. Naukowych Internetu. Grupy te są odpowiedzialne za ustanawianie standardów technicznych dla Internetu, jak również nowych standardów, takich ja protokół Internetu IP.

2.5. Model referencyjny OSI

Organizacja ISO opracowała Model Referencyjny Połączonych Systemów Otwartych (model OSI) w celu ułatwienia realizacji otwartych połączeń systemów komputerowych. Połączenia otwarte to takie, które mogą być obsługiwane w środowiskach wielosystemowych. Omawiany model jest globalnym standardem określania warstw funkcjonalnych wymaganych do obsługi tego typu połączeń. Model referencyjny OSI dzieli procesy zachodzące podczas sesji komunikacyjnej na siedem warstw funkcjonalnych, które zorganizowane są według naturalnej sekwencji zdarzeń zachodzących podczas sesji komunikacyjnej. Warstwy od 1 do 3 umożliwiają dostęp do sieci, a warstwy od 4 do 7 obsługują logistycznie komunikację końcową.

Numer warstwy

Nazwa warstwy modelu OSI

7

Aplikacji

6

Prezentacji

5

Sesji

4

Transportu

3

Sieci

2

Łącza danych

1

Fizyczna

Tab. 2.1. Warstwy modelu OSI

Warstwa fizyczna. Warstwa najniższa nazywana jest warstwą fizyczną. Jest ona odpowiedzialna za przesyłanie strumieni bitów. Odbiera ramki danych z warstwy 2, czyli warstwy łącza danych, i przesyła szeregowo, bit po bicie, całą ich strukturę oraz zawartość. Jest ona również odpowiedzialna za odbiór kolejnych bitów przychodzących strumieni danych. Strumienie te są następnie przesyłane do warstwy łącza danych w celu ich ponownego ukształtowania.

Warstwa łącza danych. Druga warstwa modelu OSI nazywana jest warstwą łącza danych. Jak każda z warstw, pełni ona dwie zasadnicze funkcje: odbierania i nadawania. Jest ona odpowiedzialna za końcową zgodność przesyłania danych. W zakresie zadań związanych z przesyłaniem, warstwa łącza danych jest odpowiedzialna za upakowanie instrukcji, danych itp. W tzw. ramki. Ramka jest strukturą rodzimą - czyli właściwą dla - warstwy łącza danych, która zawiera ilość informacji wystarczającą do pomyślnego przesyłania danych przez sieć lokalną do ich miejsca docelowego. Pomyślna transmisja danych zachodzi wtedy, gdy dane osiągają miejsce docelowe w postaci niezmienionej w stosunku do postaci, w której zostały wysłane. Ramka musi więc zawierać mechanizm umożliwiający weryfikowanie integralności jej zawartości podczas transmisji. W wielu sytuacjach wysyłane ramki mogą nie osiągnąć miejsca docelowego lub ulec uszkodzeniu podczas transmisji. Warstwa łącza danych jest odpowiedzialna za rozpoznawanie i naprawę każdego takiego błędu. Warstwa łącza danych jest również odpowiedzialna za ponowne składanie otrzymanych z warstwy fizycznej strumieni binarnych i umieszczanie ich w ramkach. Ze względu na fakt przesyłania zarówno struktury, jak i zawartości ramki, warstwa łącza danych nie tworzy ramek od nowa. Buforuje ona przychodzące bity dopóki nie uzbiera w ten sposób całej ramki.

Warstwa sieci. Warstwa sieci jest odpowiedzialna za określenie trasy transmisji między komputerem-nadawcą, a komputerem-odbiorcą. Warstwa ta nie ma żadnych wbudowanych mechanizmów korekcji błędów i w związku z tym musi polegać na wiarygodnej transmisji końcowej warstwy łącza danych. Warstwa sieci używana jest do komunikowania się z komputerami znajdującymi się poza lokalnym segmentem sieci LAN. Umożliwia im to własna architektura trasowania, niezależna od adresowania fizycznego warstwy 2. Korzystanie z warstwy sieci nie jest obowiązkowe. Wymagane jest jedynie wtedy, gdy komputery komunikujące się znajdują się w różnych segmentach sieci przedzielonych routerem.

Warstwa transportu. Warstwa ta pełni funkcję podobną do funkcji warstwy łącza w tym sensie, że jest odpowiedzialna za końcową integralność transmisji. Jednak w odróżnieniu od warstwy łącza danych - warstwa transportu umożliwia tę usługę również poza lokalnymi segmentami sieci LAN. Potrafi bowiem wykrywać pakiety, które zostały przez routery odrzucone i automatycznie generować żądanie ich ponownej transmisji. Warstwa transportu identyfikuje oryginalną sekwencję pakietów i ustawia je w oryginalnej kolejności przed wysłaniem ich zawartości do warstwy sesji.

Warstwa sesji. Piątą warstwą modelu OSI jest warstwa sesji. Jest ona rzadko używana; wiele protokołów funkcje tej warstwy dołącza do swoich warstw transportowych. Zadaniem warstwy sesji modelu OSI jest zarządzanie przebiegiem komunikacji podczas połączenia miedzy dwoma komputerami. Przepływ tej komunikacji nazywany jest sesją. Warstwa ta określa, czy komunikacja może zachodzić w jednym, czy obu kierunkach. Gwarantuje również zakończenie wykonywania bieżącego żądania przed przyjęciem kolejnego.

Warstwa prezentacji. Warstwa prezentacji jest odpowiedzialna za zarządzanie sposobem kodowania wszelkich danych. Nie każdy komputer korzysta z tych samych schematów kodowania danych, więc warstwa prezentacji odpowiedzialna jest za translację między niezgodnymi schematami kodowania danych. Warstwa ta może być również wykorzystywana do niwelowania różnic między formatami zmiennopozycyjnymi, jak również do szyfrowania i rozszyfrowywania wiadomości.

Warstwa aplikacji. Najwyższą warstwą modelu OSI jest warstwa aplikacji. Pełni ona rolę interfejsu pomiędzy aplikacjami użytkownika a usługami sieci. Warstwę tę można uważać za inicjującą sesje komunikacyjne.

3. Standard Ethernet

3.1. Historia i rozwój Ethernetu

Pierwotnie Ethernet oznaczał sieć lokalną utworzoną przez naukowców w centrum badawczym firmy Xerox w Palo Alto. Ethernet nie był śmiałą, nową technologią, stworzoną z myślą o jej ogromnym potencjale rynkowym, lecz raczej prostym narzędziem, ułatwiającym naukowcom wymianę danych podczas odkrywania i wdrażania nowych technologii.

Pierwotny Ethernet był siecią niezbyt wyszukaną. W dużym stopniu jej działanie, w tym również wielkość ramek, opierało się na lepiej zdefiniowanych protokołach warstwy sieci i transportu. Była to sieć pół dupleksowa, w której urządzenia łączone były za pomocą grubego kabla koncentrycznego. Prędkość przesyłania sygnału wynosiła 10 Mbps. Obecnie ten typ sieci znany jest jako PARC Ethernet lub Ethernet I. Nazwy te zostały wprowadzone dopiero po utworzeniu innych, nowych form Ethernetu w celu umożliwienia rozróżniania ich. Dziś Ethernet w swej oryginalnej postaci jest przestarzały.

Odkrywszy potencjalną wartość tej technologii, firma Xerox pozyskała partnerów w celu wprowadzenia jej na rynek. Były nimi firmy Intel i DEC (Digital Equipment Corporation). Firmy te wspólnie dokonały szeregu ulepszeń sieci PARC Ethernet i uczyniły ją czymś w rodzaju standardu otwartego. Tak zmieniony Ethernet nazwano Ethernet II.

Jednym z pierwszych kroków było zatwierdzenie Ethernetu jako samodzielnego protokołu sieciowego, który do określania rozmiarów ramki nie musiały już korzystać z protokołów warstwy sieci i transportu.

Osiągnięcie to było ważne. Istotniejsze jednak było udoskonalenie metodologii dostępu do nośnika. Oryginalny Ethernet używał bardzo prymitywnej metody „słuchaj zanim zaczniesz mówić”, znanej też jako wielodostęp do łącza sieci z badaniem stanu kanału lub metoda CSMA. Jej istota polegała na tym, że stacja, która chciała przesłać dane, musiała najpierw upewnić się, że jest to możliwe, „nasłuchując”, czy linie przesyłowe (kanały) są wolne. Usprawnienie polegało na dodaniu możliwości wykrywania kolizji. Nowa metodologia dostępu do nośnika zastosowana w Ethernecie II nazwana została więc wielodostępem do łącza sieci z badaniem stanu kanału i wykrywaniem kolizji (CSMA/CD).

W lutym 1980 roku instytut IEEE wziął na siebie odpowiedzialność za przekształcenie rozwijającego się Ethernetu w prawdziwy standard otwarty. Instytut nie miał na celu wyłącznie znormalizowania Ethernetu, lecz dalej idące i ambitniejsze znormalizowanie technologii sieciowych i - co za tym idzie - umożliwienie im współdziałania. W celu utworzenia standardów dla sieci MAN i LAN uruchomiono projekt 802, z wieloma podkomisjami i technicznymi grupami roboczymi.

Projekt 802 rozbił typową sieć na składniki funkcjonalne i pogrupował je w logicznie po sobie następujące warstwy. Wprowadził standardy otwarte dla adresowania na poziomie sprzętowym, zarządzania siecią i monitorowania jej. Standardy te stały się podstawą wielu architektur sieci lokalnych, takich jak:

Fakt, że architektury te posiadały wspólną podstawę dla adresowania na poziomie sprzętowym, zarządzania siecią i monitorowania, oznacza, że można było tworzyć sieci o topologiach mieszanych, nie uzgadniając współoperacyjności między różnymi platformami sieciowymi. Co ważniejsze, można było zarządzać różnymi platformami i monitorować je za pomocą wspólnego zestawu narzędzi odpowiadających każdemu z owych standardów.

Stworzona przez IEEE wersja Ethernetu została formalnie nazwana 802.3 CSMA/CD. Nazwa ta jest jednak niefunkcjonalna i niemal zawsze mówi się po prostu Ethernet. Metodologia dostępu do nośnika CSMA/CD została zachowana, tak samo jak oryginalnie stosowany kabel koncentryczny oraz półdupleksowy tryb transmisji. Następnie dodano kolejną specyfikację dla kabla koncentrycznego, a po pewnym czasie również inne specyfikacje warstwy fizycznej - dla skrętki dwużyłowej i dla światłowodu.

Obecnie bardziej stosowane staje się określanie Ethernetu za pomocą przymiotników innych niż CSMA/CD. W ciągu ostatnich lat oryginalną specyfikację 802.3 rozszerzono tak, aby obejmowała również wersję Ethernetu 100 Mbps. Spowodowało to konieczność wprowadzenia nowych specyfikacji dla warstwy fizycznej, a także pomniejszych modyfikacji mechanizmów dostępu do nośnika. Co ważniejsze, dodano również obsługę transmisji pełnodupleksowej (czyli w obu kierunkach jednocześnie). Pełnodupleksowy Ethernet pozwala urządzeniu wykorzystywać do nadawania jedną fizyczną ścieżkę, którą tworzy jedna z dwóch par skrętek dwużyłowych znajdujących się w kablu ośmiożyłowym przy jednoczesnym odbieraniu danych przychodzących drugą parą przewodów. Pełnodupleksowy Ethernet o konfiguracji przełączanej za pomocą portu skutecznie zapobiega konfliktom związanym z dostępem do nośnika za zasadzie rywalizacji. Urządzenie nadawcze może dzięki temu umieszczać ramki w sieci z prędkością przewodzenia. Specyfikacja Ethernet IEEE 802.3 jak więc widać uległa znacznym zmianom, w związku z czym określenie sieci tego typu mianem CSMA/CD jest błędne.

3.2. Ramka Ethernetu

Projekt 802 zdefiniował podstawę normalizacyjną dla wszystkich rodzajów ramek ethernetowych. Minimalna długość ramki może wynosić 64 bajty, a maksymalna - 1518 bajtów, przy czym do długości wlicza się część użyteczną (dane) i wszystkie nagłówki, z wyjątkiem Preambuły i ogranicznika początku ramki. Nagłówki służą do zidentyfikowania nadawcy i odbiorcy każdego z pakietów. Jedynym ograniczeniem tej identyfikacji jest to, że adres musi być unikatowy i 6-bajtowy.

W pierwszych 12-bajtach każdej ramki zawarty jest 6-bajtowy adres docelowy (adres odbiorcy) i 6-bajtowy adres źródłowy (adres nadawcy). Adresy te są fizycznymi kodami adresowymi urządzeń, znanymi jako adresy MAC. Adres taki może być albo unikatowym adresem administrowanym globalnie, automatycznie przypisanym każdej karcie sieciowej przez jej producenta, albo adresem ustalonym podczas instalacji. Ten drugi adres znany jest także jako adres administrowany lokalnie. Adresy takie, choć potencjalnie użyteczne, były jednak wyjątkowo trudne do utrzymania. Z tego powodu już się ich nie używa.

Poniższy rysunek przedstawia podstawową ramkę Ethernetu IEEE 802.3:

0x01 graphic

Rys 3.1. Ramka Ethernet

Pewne wątpliwości dotyczą dokładnej długości ramki ethernetowej. Ich źródłem są trzy czynniki:

Istnieje pięć różnych typów ramek ethernetowych: PARC Ethernet, DIX Ethernet, podstawowa ramka 802.3, 802.3 z podramką LLC i 802.3 z podramką SNAP. W ramach tych pięciu odmian reprezentowane są trzy różne zestawy minimalnych i maksymalnych rozmiarów ramki.

Uwagę zwraca celowe unikanie podawania określonych rozmiarów ramki. Przy zmiennej długości pola danych najlepszym rozwiązaniem jest określenie minimalnej i maksymalnej dozwolonej wielkości ramki. Faktyczny rozmiar ramki zawarty jest w tym przedziale wartości.

Ostatnia wątpliwość dotyczy Preambuły i Ogranicznika początku ramki, czyli ogranicznika SFD (ang. Start of Frame Delimiter). Preambuła jest 7 bajtowym ciągiem znaków poprzedzającym każdą ramkę i umożliwiającym synchronizację transmisji. Jest ona nieodłącznym dodatkiem do ramki, ale rzadko uważa się ją za składnik tej ostatniej.

Bezpośrednio po Preambule następuje 1-bajtowy Ogranicznik początku ramki (SFD). Czasem uważa się go za integralną część Preambuły, a nie za odrębny element ramki. Nie trzeba długo szukać, by znaleźć źródła, określające ogranicznik SFD jako oficjalny początek ramki.

3.3. Okablowanie

3.3.1. Połączenia kablowe

Kable metalowe dzielą się na symetryczne (składają się z dwóch przewodów, w których przepływają prądy o tym samym natężeniu, w przeciwnych kierunkach co pozwala eliminować szumy i zakłócenia np. Skrętka) i niesymetryczne (prąd płynie przez przewód sygnałów, drugi przewód stanowi uziemienie np. Kabel koncentryczny).

0x01 graphic

Rys. 3.2. Wtyczka i sposób połączenia w skrętce

Wtyczka 1

Nr.

Kolor przewodu

Nr.

Wtyczka 2

 Odbiór +

1

 biało - pomarańczowy

1

 Odbiór +

 Odbiór -

2

 pomarańczowy

2

 Odbiór -

 Transmisja +

3

biało - zielony

3

 Transmisja +

 --------

4

 niebieski

4

 --------

 --------

5

 biało - niebieski

5

 --------

 Transmisja -

6

 zielony

6

 Transmisja -

 --------

7

 biało - brązowy

7

 --------

 --------

8

 brązowy

8

 --------

Tab. 3.1. Opis połączenia zgodnego

Wtyczka 1

Nr.

Kolor przewodu

Nr.

Wtyczka 2

 Odbiór +

1

 biało - pomarańczowy

3

 Transmisja +

 Odbiór -

2

 pomarańczowy

6

 Transmisja -

 Transmisja +

3

biało - zielony

1

 Odbiór +

 --------

4

 niebieski

7

 --------

 --------

5

 biało - niebieski

8

 --------

 Transmisja -

6

 zielony

2

 Odbiór -

 --------

7

 biało - brązowy

4

 --------

 --------

8

 brązowy

5

 --------

Tab. 3.2. Opis połączenia krzyżowego

Kategorie skrętki wg europejskiej normy EN 50171:

0x01 graphic

0x01 graphic

Rys. 3.3. Przewód BNC

3.3.2. Połączenia światłowodowe

Połączenia zbudowane przy pomocy kabli światłowodowych polegają na przepuszczaniu przez włókno szklane światła którego źródłem może być dioda świecąca lub laser, a odbiornikiem jest fotodetektor. Rdzeń wykonany jest z czystego dwutlenku krzemu, a kluczowy element światłowodu czyli szklana powłoka rdzenia wykonana jest z bardzo czystego szkła nie powodującego zakłóceń. Światło przechodząc przez rdzeń wielokrotnie odbija się od powłoki rdzenia, a im większy jest kąt odbicia tym dłuższa jest droga światła między końcami przewodu. Szybkość transmisji za pomocą światłowodu może sięgać kilku Gbit/s.

3.3.3. Połączenia bezprzewodowe

Połączenia bezprzewodowe stosuje się wszędzie tam gdzie kłopotliwe jest zastosowanie tradycyjnych kabli lub konieczna jest łączność bez względu na położenie (w obszarze objętym zasięgiem) np. pracownicy firmy pracujący na komputerach przenośnych. Sieci takie zbudowane są z nadajników i odbiorników nazywanych transceiver'em (transmitter, receiver).

3.4. Protokoły

Protokołem w sieci komputerowej nazywamy zbiór powiązań i połączeń jej elementów funkcjonalnych. Tylko dzięki nim urządzenia tworzące sieć mogą się porozumiewać. Podstawowym zadaniem protokołu jest identyfikacja procesu, z którym chce się komunikować proces bazowy. Z uwagi na to, że zwykle w sieci pracuje wiele komputerów, konieczne jest podanie sposobu określania właściwego adresata, sposobu rozpoczynania i kończenia transmisji, a także sposobu przesyłania danych. Przesyłana informacja może być porcjowana - protokół musi umieć odtworzyć informację w postaci pierwotnej. Ponadto informacja może z różnych powodów być przesłana niepoprawnie - protokół musi wykrywać i usuwać powstałe w ten sposób błędy. Różnorodność urządzeń pracujących w sieci może być przyczyną niedopasowania szybkości pracy nadawcy i odbiorcy informacji - protokół powinien zapewniać synchronizację przesyłania danych poprzez zrealizowanie sprzężenia zwrotnego pomiędzy urządzeniami biorącymi udział w transmisji. Ponadto z uwagi na możliwość realizacji połączenia między komputerami na różne sposoby, protokół powinien zapewniać wybór optymalnej - z punktu widzenia transmisji - drogi. Protokoły komunikacyjne definiowane są w kontekście konkretnej warstwowej architektury sieci. Każda z warstw określa tu protokół do obsługi funkcji lub podsystemu procesu komunikacyjnego. Najpopularniejsze protokoły komunikacyjne to: model OSI (Open System Interconnection) zdefiniowany przez ISO, SNA (System Network Architecture) firmy IBM, AppleTalk firmy Apple, DECnet firmy DEC oraz protokoły Internetu np. TCP/IP. Wszystkie te protokoły istnieją na każdym poziomie i spełniają zadania służące zrealizowaniu komunikacji pomiędzy dwoma systemami, przez cały okres kiedy oba systemy wykorzystują podobne protokoły. Zwykle stosy protokołów składają się z około siedmiu warstw które można podzielić na: protokoły aplikacji, transportowe oraz sieciowe.

3.4.1. Protokoły aplikacji

Protokoły aplikacji - obejmują warstwy aplikacji, prezentacji i sesji. Służą do wzajemnego oddziaływania aplikacji i wymiany danych. Najpopularniejsze protokoły aplikacji to:

3.4.2. Protokoły transportowe

Protokoły transportowe - służą do przesyłania danych w sieciach, zapewniają wymianę danych pomiędzy systemami końcowymi, w których systemy te utrzymują sesję lub połączenia zapewniając stałą, sekwencyjną wymianę danych. Przykładowe protokoły to:

3.4.3. Protokoły sieciowe

Protokoły sieciowe - zapewniają usługi łączy systemów komunikacyjnych, obsługują adresowanie, informacje routingu, weryfikację błędów oraz żądania retransmisji. Obejmują także procedury dostępu do sieci, określone przez wykorzystywany rodzaj sieci. Trzy najczęściej używane protokoły w sieciach lokalnych i w internecie to TCP/IP, SPX/IPX i NetBEUI.

IPX/SPX

IPX/SPX - jest to zestaw protokołów firmy Novell, bierze on nazwę od swoich dwóch głównych protokołów: międzysieciowej wymiany pakietów IPX i sekwencyjnej wymiany pakietów SPX. Ten firmowy stos protokołów został oparty na protokole systemów sieciowych firmy Xerox, wykorzystywanym w pierwszej generacji Ethernet. Wymiana IPX/SPX zyskała na znaczeniu we wczesnych latach 80, jako integralna część systemu Novell Netware. Netware stał się faktycznym standardem sieciowego systemu operacyjnego dla sieci lokalnych pierwszej generacji. Protokół IPX w dużym stopniu przypomina IP. Jest bezpołączeniowym protokołem datagramowym, który nie wymaga ani nie zapewnia potwierdzenia każdego transmitowanego pakietu. Protokół IPX polega na SPX w taki sam sposób, w jaki protokół IP polega na TCP w zakresie porządkowania kolejności i innych usług połączeniowych warstwy 4. Stos protokołów IPX/SPX obejmuje cztery warstwy funkcjonalne: dostępu do nośnika, łącza danych, Internetu i aplikacji. Głównym protokołem warstwy aplikacji jest protokół rdzenia NetWare ( NCP). Protokół NCP można bezpośrednio sprzęgnąć zarówno z protokołem SPX, jak i IPX. Jest wykorzystywany do drukowania, współdzielenia plików, poczty elektronicznej i dostępu do katalogów. Innymi protokołami warstwy aplikacji są: protokół informacyjny trasowania, firmowy protokół ogłoszeniowy usługi i protokół obsługi łącza systemu NetWare. Protokół warstwy Internetu SPX jest protokołem połączeniowym i może być wykorzystywany do przesyłania danych między klientem serwerem, dwoma serwerami czy dwoma klientami. Tak jak w przypadku TCP, protokół SPX zapewnia niezawodność transmisjom IPX, zarządzając połączeniem i udostępniając sterowanie strumieniem danych, kontrolę błędów i porządkowanie kolejnych pakietów.

NetBEUI

NetBEUI - interfejs NetBEUI został opracowany przez IBM i wprowadzony na rynek w 1985 roku. Jest stosunkowo małym ale wydajnym protokołem komunikacyjnym LAN. NetBEUI jest wyłącznie protokołem transportu sieci LAN dla systemów operacyjnych Microsoft. Nie jest trasowany. Dlatego jego implementacje ograniczają się do warstwy 2, w których działają wyłącznie komputery wykorzystujące systemy operacyjne firmy Microsoft. Aczkolwiek staje się to coraz mniejszą przeszkodą, to jednak ogranicza dostępne architektury obliczeniowe i aplikacje technologiczne. Zalety korzystania z protokołu NetBEUI są następujące: Komputery korzystające z systemów operacyjnych lub oprogramowania sieciowego firmy Microsoft mogą się komunikować. NetBEUI jest w pełni samodostrajającym się protokołem i najlepiej działa w małych segmentach LAN. Ma minimalne wymagania odnośnie pamięci. Zapewnia doskonałą ochronę przed błędami transmisji, a także powrót do normalnego stanu w razie ich wystąpienia. Wadą protokołu NetBEUI jest fakt, że nie może być trasowany i niezbyt dobrze działa w sieciach WAN.

TCP/IP

Protokół sieciowy - a ściślej zestaw protokołów - stosowany w sieci Internet; najczęściej posługują się nim systemy uniksowe, choć można go również stosować z Novell NetWare, Windows NT itp. TCP/IP jest bardziej podatny na naruszenia systemu bezpieczeństwa, z powodu swojej otwartej, "ufnej natury". Jego zadanie polega na podzieleniu informacji na odpowiedniej wielkości pakiety, ponumerowaniu ich, tak aby u odbiorcy można było sprawdzić, czy wszystkie pakiety nadeszły, i ustawić je w odpowiedniej kolejności. Poszczególne partie informacji są wkładane do kopert TCP, które z kolei są umieszczane w kopertach IP. Po stronie odbiorcy oprogramowanie TCP zbiera wszystkie koperty i odczytuje przesłane dane. Jeżeli brakuje jakiejś koperty, żąda ponownego jej przesłania. Pakiety są wysyłane przez komputery bez sprawdzania, czy droga jest wolna. Może się więc zdarzyć, że do określonego węzła sieci, w którym znajduje się router, nadchodzi więcej pakietów, niż urządzenie jest w stanie posegregować i wysłać dalej. W każdym routerze istnieje bufor, w którym pakiety czekają na wysyłkę. Kiedy bufor całkowicie się zapełni, nowe nadchodzące pakiety są wyrzucane i bezpowrotnie giną. Protokół obsługujący kompletowanie pakietów musi więc wtedy zażądać ponownego ich przesłania. W ten sposób przy dużym obciążeniu sieci coraz więcej pakietów musi być wielokrotnie przesyłanych, co powoduje lawinowe narastanie ruchu aż do praktycznego zablokowania połączenia. Powoduje to bardzo nieefektywne wykorzystanie sieci. Dlatego przyjmuje się, że dobrze działająca sieć nie powinna być obciążana powyżej 30% nominalnej przepływności.

4. Internet

4.1. Historia internetu

Większość przełomowych wynalazków jest dziełem zbiegu okoliczności, lenistwa lub efektem wojskowych programów badawczych. W przypadku internetu padło na względy militarne. Wszystko zaczęło się od Zimnej Wojny, kiedy to w 1957 roku został wystrzelony przez Rosjan pierwszy sztuczny satelita ziemi - Sputnik.

Mocno zaniepokojony tym faktem Departament Obrony (Department of Defence) USA powołał specjalną Agencję ds. Zaawansowanych Przedsięwzięć Badawczych (Advanced Research Projects Agency - ARPA).

Zadaniem ARPA było stworzenie sieci komunikacyjnej dla celów wojskowych, która mogłaby zadziałać nawet w sytuacji zniszczenia tradycyjnych środków komunikacji - w wyniku ewentualnego ataku nuklearnego. Jedynie taki system mógł zagwarantować, że w przypadku globalnego konfliktu zostanie zachowana chociażby częściowa możliwość przekazywania rozkazów pomiędzy poszczególnymi jednostkami militarnymi. Idea ta zakładała brak centralnego punktu dowodzenia, a jej funkcjonowanie miało być analogiczne do sieci telefonicznej.

Departament Obrony sfinansował badania oraz wyłożył pieniądze na powstanie ośrodków komputerowych. W 1969 roku powstała eksperymentalna sieć ARPAnet, składająca się z czterech połączonych ze sobą komputerów mieszczących się w wybranych instytucjach naukowych: Uniwersytet Kalifornijski w Los Angeles, Uniwersytet Kalifornijski w Santa Barbara, Instytut Stanforda oraz Uniwersytet Stanowy Utah.

Sieć ta była zdecentralizowana - każdy z komputerów był równorzędny i połączony ze wszystkimi pozostałymi komputerami, toteż w przypadku awarii jednego z nich, mogła ona nadal funkcjonować - architektura taka nazywa się peer-to-peer, czyli w wolnym tłumaczeniu - “równy z równym”.

Wykorzystano do tego eksperymentu projekt Paula Barana, który w 1962 r. stworzył koncepcję sieci opartej na wymianie pakietów, polegającej na dzieleniu partii informacji na mniejsze jednostki (tzw. pakiety), następnie przesyłaniu ich osobno przez sieć oraz ponownemu łączeniu ze sobą dopiero po dotarciu do odbiorcy.

Niewątpliwe zalety takiego rozwiązania to między innymi:

29 września 1969 roku została przeprowadzona pierwsza próba zdalnego połączenia pomiędzy komputerami w Los Angeles i Stanford. Trwała ona tylko przez dwie litery: “l” oraz “o” (początek słowa login), gdyż przy przesyłaniu litery “g” jeden z komputerów stwierdził, że to za dużo i prozaicznie się zawiesił. Mimo tego pewien sukces został osiągnięty - prace teoretyczne zaczęły ocierać się o praktykę, więc projekt nie został zawieszony.

Zaczęto intensywnie pracować nad uzgodnieniem protokołów komunikacyjnych, które miały umożliwić porozumiewanie się pomiędzy komputerami różnych typów. Network Working Group - opracowała obowiązujące standardy oraz przedstawiła formalny opis reguł, które muszą realizować komunikujące się ze sobą komputery oraz opis formatu przesyłanych komunikatów. Wszystkie te zasady zostały zebrane w elektronicznych dokumentach zwanych “Request for Comments”. RFC funkcjonują do dzisiaj jako podstawowa forma dokumentowania standardów w Internecie.

Pierwsze dostępne usługi sieciowe obejmowały zdalne logowanie (Telnet) i transmisję plików (FTP - File Transfer Protocol). W następnej kolejności pojawiła się możliwość przesyłania poczty elektronicznej (e-mail) - pierwszy program do jej obsługi został napisany przez Raya Tomlinsona, który wprowadził popularny znak “małpki” - @.

W 1972 r w trakcie międzynarodowej konferencji poświęconej komunikacji pomiędzy komputerami - odbyła się pierwsza publiczna demonstracja ARPAnet'u.

W sieci ARPAnet były już 23 hosty (serwery) oraz 15 węzłów, na które składały się instytucje akademickie i rządowe, a węzeł na Hawajach został podłączony przez łącze satelitarne.

Nazwa agencji ARPA została zmieniona na DARPA (Defense Advanced Research Projects Agency).

Rok później zaczęto coraz poważniej myśleć o połączeniach międzynarodowych. W celu ustalenia wspólnego protokołu powołano Internetwork Working Group, której przewodniczył Vinton Cerf określony później mianem ojca internetu.

W 1973 roku powstaje pierwsze połączenie międzynarodowe z USA do Wielkiej Brytanii (London College University) przez Norwegię (Royal Radar Establishment).

W 1975 roku powstaje pierwsza lista mailingowa, a rok później królowa Elżbieta II wysyła list przy użyciu poczty elektronicznej.

W roku 1979 powstają tekstowe grupy dyskusyjne (Usenet) stworzone przez studentów Toma Truscott'a i Jamesa Ellis'a z Uniwersytetu Duke oraz Stevea Bellovin'a z Uniwersytetu Północnej Karoliny.

Zaczyna się robić gęsto i coraz bardziej różnorodnie pod względem sprzętowym, powstają nowe niezależne sieci. W 1980 roku już 400 serwerów jest połączonych siecią ARPAnet.

Po raz kolejny palącym problemem staje się opracowanie standardowego sposobu komunikacji, jednolitego dla wszystkich serwerów w sieci. Na przełomie lat 70-tych i 80-tych Vinton Cerf i Bob Cahn pracują nad tym pilnie, czego efektem jest wprowadzony w 1982 roku, jako standard dla ARPAnet'u, protokół TCP/IP (Transmission Control Protocol/Internet Protocol), który jest do tej pory używany. Podstawy TCP zostały opublikowane w 1974 r. w opracowaniu "A protocol for Packet Network Internetworking".

W 1981 roku powstaje CSNET (Computer Science Network) - sieć przeznaczona dla naukowców nie mających połączenia z ARPAnet'em oraz BITNET łącząca City University of New York z Uniwersytetem w Yale. Sieć BITNET nie używała standardowego protokołu, ale stała się popularna dzięki usłudze Listserv - listom dyskusyjnym o dużo większych możliwościach od oferowanych przez ARPAnet.

W 1982 roku powstaje w Europie sieć EUNET (European Unix Network), pozwalająca na korzystanie z usług poczty elektronicznej oraz USENET'u.

1 stycznia 1983 roku ARPAnet zostaje rozdzielony na dwie części: militarną - MILNET oraz cywilną - ARPAnet, czyli późniejszy NSFnet. Obie sieci są jednak połączone ze sobą przy pomocy bramy (gateway) oraz powstaje połączenie pomiędzy ARPAnet a CSNET, co uważa się za początek Internetu. Prawie jednocześnie powstają połączenia do Europy, Ameryki Południowej, Japonii i Australii. Na University of Wisconsin powstaje pierwszy Name Server.

W tym samym roku zostaje utworzona EARN (European Academic and Research Network) - Europejska Akademicka i Badawcza Sieć Komputerowa będąca odpowiednikiem BITNET'u.

W 1984 roku wprowadzona jest usługa DNS (Domain Name System) - adresy są wreszcie łatwe do zapamiętania! W sieci jest już około 1000 serwerów. W Wielkiej Brytanii powstaje JANET (Joint Academic Network).

W 1986 roku zostaje stworzona NSFNET (National Science Foundation) - amerykańska ogólnokrajowa sieć szkieletowa o przepustowości 56 Kbps, łącząca początkowo pięć superkomputerów z ośrodków uniwersyteckich w Cornell, Illinois, Princeton, Pittsburgh i San Diego. Sieć ta rozwija się bardzo szybko. Przyłączają się do niej także inne kraje tworzące u siebie analogiczne sieci szkieletowe.

W sieci Internet jest już 241 grup dyskusyjnych oraz 5 razy więcej serwerów niż dwa lata wcześniej.

W 1988 roku pojawia się pierwszy wirus internetowy o nazwie Internet Worm (internetowy robak), co jest kolejnym impulsem przyczyniającym się do zawiązania CERT (Computer Emergency Response Team) - organizacji zajmującej się zapewnieniem bezpieczeństwa w sieci.

W tym samym roku powstaje usługa IRC (Internet Relay Chat) umożliwiająca prowadzenie rozmów w czasie rzeczywistym, stworzona przez studenta z Finlandii - Jarkko Oikarinen'a.

W 1989 roku liczba serwerów w Internecie przekracza 100 000. Ilość hostów jest tak duża, że poważnym problemem staje się znalezienie żądanych informacji. Remedium na to staje się pierwszy katalog zasobów sieciowych stworzony przez Petera Deutsch'a oraz jego współpracowników z Uniwersytetu McGill w Montrealu - program ARCHIE przeglądał od czasu do czasu znane serwery FTP i tworzył indeks ich zawartości z możliwością wyszukiwania plików. Wkrótce powstaje wiele serwerów oferujących tę usługę.

W 1990 ARPAnet kończy swoją działalność, zarząd nad Internetem przejmuje NSFnet. Liczba serwerów przekracza 300 000, a grup dyskusyjnych jest już około 1 000.

4.2 Powstanie www i dalszy rozwój Internetu

Tym razem zaczęło się od fizyki. Szwajcarski instytut CERN (“Centre European pour la Recherche Nucleaire” później “European Laboratory for Particle Physics”) w Genewie poczuł nieodpartą potrzebę udostępnienia wyników swoich badań naukowcom z całego świata. Tim Berners-Lee wpadł na pomysł powiązania ze sobą dokumentów znajdujących się na serwerach WWW (World Wide Web) przy pomocy łączy hipertekstowych, co umożliwiło połączenie tekstu, grafiki oraz dźwięku. W 1991 roku stworzył on pierwszą przeglądarkę tekstową do WWW.

Pierwszy amerykański serwer WWW powstał w Stanford Linear Accelerator Center w Kalifornii.

1991 r. - NSFnet zniósł zakaz używania Internetu do celów komercyjnych oraz, co dla nas najważniejsze, Polska zostaje wreszcie przyłączona do Internetu.

Pojawiają się systemy WAIS (Wide Area Information Server), czyli systemy rozległych baz danych storzone przez Brewstera Kahle. WAIS indeksowały pełną zawartość różnych baz danych, dokumentów RFC oraz plików FAQ (Frequently Asked Questions - Najczęściej Zadawne Pytania) list dyskusyjnych.

Na Uniwersytecie Minnesota w USA powstaje Gopher, czyli system informacyjny udostępniający różne zasoby (n.p.: pliki tekstowe, binarne, graficzne) oraz usługi sieciowe. Gopher bardzo szybko zyskuje dużą popularność, gdyż jest on dużo prostszy w obsłudze od Archie'go czy też systemu WAIS. Zostaje on zaadaptowany przez większość ośrodków komputerowych na świecie. Obecnie rolę Gopher'a w całości przejęła usługa WWW.

Powstaje standard PGP (Pretty Good Privacy) umożliwiający szyfrowanie przesyłek (Philip Zimmerman).

W 1992 roku kolejne ośrodki naukowe tworzą swoje serwery WWW, pod koniec roku jest ich już 50.

Liczba hostów w sieci przekracza milion. Powstaje Społeczność Internetowa (Internet Society) - ISOC, która obecnie skupia 150 organizacji i 6 000 indywidualnych członków z ponad 100 krajow.

W 1993 roku Marc Andreessen wraz z zespołem NCSA (National Center For Supercomputing Applications) tworzą Mosaic - pierwszą przeglądarkę graficzną do odczytywania stron WWW. W sieci pojawia się strona internetowa Białego Domu. Rozpoczyna się wielka kariera stron internetowych - serwerów WWW jest już pięć razy więcej niż rok wcześniej.

Pierwsza międzynarodowa konferencja poświęcona WWW ("Woodstock of the Web"), odbyła się w 1994 roku w instytucie CERN i zainteresowała ponad 600 potencjalnych uczestników, jednakże tylko 400 osób mogło wziąć w niej udział.

Od tego samego roku można przez Internet słuchać radia oraz zamówić pizzę z Pizza Hut, w sieci pojawia się także pierwszy bank.

W październiku 1994 roku z inicjatywy Tima Berners-Lee w Massachusetts Institute of Technology powstaje organizacja World Wide Web Consortium. Udział w stworzeniu tej organizacji ma CERN, a wsparcia udzielają DARPA oraz Komisja Europejska. W kwietniu 1995 do ogranizacji dołącza INRIA (Institut National de Recherche en Informatique et Automatique) - powstaje pierwszy europejski serwer W3C. W3C zajmuje się rozwojem sieci, tworzeniem nowych standardów i technologii oraz zatwierdzaniem oficjalnych specyfikacji (np. języka HTML, arkuszy stylów).

Członkami W3C są naukowcy, programiści, twórcy stron internetowych, firmy, instytucje oraz stowarzyszenia (n.p: HTML Writers Guild). Działanie W3C jest finansowane przez większość znaczących korporacji zajmujących się tworzeniem sprzętu i oprogramowania komputerowego (m.i.n: Microsoft, Intel, Netscape, Apple) oraz inne firmy żywotnie zainteresowane rozwojem Internetu (np.: Boening, Canal+).

W latach 90-tych pojawiają się nowe technologie: Java, JavaScript, Internet Phone, ActiveX, VRML (Virtual Environments), RealAudio (przesyłanie dźwięku), WebTV, ASP oraz popularny staje się dostęp do sieci przez modem.

W 1995 roku NSFnet przekształca się w sieć badawczą, Internet w komercyjną. Powstają przeglądarki Netscape Navigator oraz Internet Explorer. Pojawiają się firmy Compuserve, America Online, Prodigy zajmujące się oferowaniem dostępu do Internetu. Do sieci wkracza komercja i Watykan, pojawiają się pierwsze sklepy internetowe.

W 1996 roku powstają wyszukiwarki Lycos i Yahoo. W 1997 roku jest już 19.5 miliona serwerów, milion stron WWW oraz ponad 71 tysięcy grup dyskusyjnych, szacuje się, że rok później liczba stron internetowych wynosi około 300 milionów oraz powstaje technologia portali internetowych.

W 1999 roku First Internet Bank of Indiana, oferuje całodobową pełną obsługę przez Internet - jest to pierwszy bank dostępny tylko przez internet.

W 2000 powstaje technologia WAP (Wireless Application Protocol), która umożliwia korzystanie z Internetu przy pomocy telefonów komórkowych. Możliwa staje się rejestracja domen w językach chińskim, japońskim i koreańskim. Liczba hostów w sieci przekracza 90 milionów.

4.3 Internet w Polsce

Przynależność do bloku państw socjalistycznych, także w kwestii Internetu, nie wyszła Polsce na dobre. Aż do 1989 roku wszystkie kraje tego bloku były objęte programem COCOM, który polegał na daleko posuniętych restrykcjach technologicznych. Dopiero przemiany ustrojowe pozwoliły Polsce na podjęcie starań się o przyłączenie do międzynarodowej sieci.

W 1990 roku COCOM znosi większość restrykcji, a Polska uzyskuje członkostwo w EARN.
Powstają regionalne węzły sieci EARN w Warszawie, Wrocławiu i Krakowie.

Rok 1991 przynosi wiele nowości:

Kolejne ośrodki akademickie są systematycznie przyłączane do sieci szkieletowej, której przepustowość stale jest zwiększana.

W 1992 roku powstaje łącze satelitarne z Warszawy do Sztokholmu oraz łącze naziemne do Wiednia. TP S.A. uruchamia sieć pakietową POLPAK.

W 1993 roku zostaje uruchomiony pierwszy polski serwer IRC w Uczelnianym Centrum Informatycznym Akademii Górniczo-Hutniczej w Krakowie (irc.uci.agh.edu.pl) oraz pierwszy serwer WWW. W rok później pojawiają się pierwsze polskie grupy dyskusyjne.

W 1995 roku TP S.A. pojawia się w Internecie, a rok później uruchamia usługę anonimowego dostępu, a firma Polbox oferuje pierwsze w Polsce darmowe konta e-mail a następnie WWW.

Rozpoczyna się złota era polskiego Internetu.

Jeszcze kilka lat temu posiadanie konta e-mail, że nie wspomnę już o dostępie do Internetu z domu, było rzadkością, zarezerwowaną dla naukowców lub fanatyków. Obecnie dziwi nas, jeżeli jakaś firma nie posiada swojej strony internetowej lub przynajmniej adresu poczty elektronicznej. Dostęp do Internetu i umiejętność korzystania z jego zasobów przestało być modną nowością czy też ciekawostką techniczną - w obecnych czasach jest to praktycznie konieczność...

4.4. Protokoły internetowe

4.4.1. Protokół przesyłania plików (FTP)

Protokół przesyłania plików FTP (File Transfer Protocol) jest standardowym protokołem służącym do przesyłania plików z jednego systemu na drugi. Jego zadania określono w specyfikacji RFC 0765:

Prace nad metodą przesyłania plików trwały ponad 20 lat. W ciągu tego czasu protokół FTP zyskał wiele ulepszeń. Do przesyłania plików możemy użyć dowolnego klienta FTP.

4.4.2. Telnet

Zadaniem protokołu Telnet jest zapewnienie komunikacji wielozadaniowej, dwukierunkowej, ośmiobitowej i zorientowanej bajtowo. Umożliwia połączenie ze sobą urządzenia terminalowego i procesu pozwalającego na jego obsługę.

Telnet nie tylko pozwala użytkownikowi na zalogowanie się na zdalnym komputerze (uzyskanie dostępu poprzez podanie nazwy użytkownika i hasła), ale także na wywoływanie na nim poleceń. Tak więc użytkownik w Łodzi może połączyć się z hostem w Nowym Jorku i uruchamiać na nim programy tak, jakby faktycznie znajdował się przed tamtym komputerem.

Telnet uruchamiany jest odpowiednim poleceniem, po którym następuje nazwa (albo adres numeryczny IP) hosta zdalnego. Połączenie będzie zaakceptowane bądź odrzucone z zależności od konfiguracji komputera zdalnego.

4.4.3. Protokół przesyłąnia poczty elektronicznej (SMTP)

Protokół przesyłania poczty elektronicznej SMTP służy do wydajnego i niezawodnego przesyłania poczty elektronicznej (e-mail).

Protokół SMTP w bardzo małym stopniu wykorzystuje zasoby systemowe. Użytkownik, korzystając z dowolnego klienta SMTP, przekazuje żądanie do serwera SMTP. Następnie uruchamiane jest dwukierunkowe połączenie. Klient wysyła komendę MAIL oznaczającą, że chce wysłać wiadomość. Jeśli SMTP pozwala na wykonanie takiej operacji, wysyła potwierdzenie. Sesja zostaje rozpoczęta. Klient może już wysłać nazwę odbiorcy, jego adres IP oraz samą wiadomość (tekstową).

4.4.4. Protokół przesyłania hipertekstu (HTTP)

Protokół przesyłania hipertekstu HTTP (Hypertext Transfer Protocol) jest chyba najbardziej rozpowszechnionym z protokołów. To właśnie dzięki niemu możemy "surfować" po sieci WWW. Według dokumentu RFC 1945, HTTP to szybki i niewymagający protokół poziomu aplikacji obsługujący rozproszone systemy informacji połączonych hiperzłączami. Jest zorientowany obiektowo i ma wiele zastosowań - m.in. w serwerach nazw, systemach rozproszonych - dzięki rozszerzonym funkcjom wysyłania żądań.

Protokół ten na zawsze zmienił oblicze Internetu. Udostępnił go przeciętnemu człowiekowi. HTTP przypomina nieco usługę Gopher. Jego działanie także oparte jest na wymianie żądań i odpowiedzi. To istotna cecha: Gopher i HTTP nie wymagają, tak jak Telnet, logowania - po którym w ciągu całej sesji wykorzystywane są zasoby systemowe. W HTTP klient korzysta z tych zasobów tylko wtedy, kiedy wysyła żądanie bądź otrzymuje dane.

4.4.5. Protokół przesyłania wiadomośći w sieci USENET (NNTP)

Protokół przesyłania wiadomości w sieci USENET NNTP (Network News Transfer Protocol) to jeden z najczęściej używanych protokołów. Dzięki niemu uzyskujemy wygodny dostęp do grup dyskusyjnych, czyli ogólnie mówiąc USENET-u. NNTP służy do dystrybucji, ściągania oraz wysyłania artykułów news transmisją strumieniową. Artykuły przechowywane są w centralnej bazie danych. NNTP pozwala wybierać tylko interesujące nas tematy. System pozwala na indeksowanie, budowę odsyłaczy oraz kasowanie wygasłych wiadomości.

NNTP zawiera zarówno elementy protokołu SMTP jak i TCP. Z tym pierwszym wiąże go możliwość wydawania poleceń w trybie tekstowym, zaś z drugim transmisja strumieniowa.

4.4.6. Gopher

Gopher (w Polsce funkcjonuje także określenie "świstak") to rozproszony system dokumentów. Początkowo służył do publikacji informacji w miasteczku akademickim przy Uniwersytecie Minessota. Tam też powstały jego założenia:

Chociaż Gopher skutecznie jest wypierany przez WWW, wciąż jeszcze istnieje wiele serwerów tej usługi.

5. Opis pracy

5.1. Wykonane czynności.

Wykonanie pracy dyplomowej składało się z szeregu następujących czynności:

0x01 graphic

Rys. 5.1. Plan modernizacji sali 114p

Elementy na rysunku:

0x01 graphic

Rys. 5.2. Projekt szafki dla węzła internetowego

0x01 graphic

Rys. 5.3. Rozmieszczenie wentylatora

5.2. Organizacja węzła internetowego w szkole

Schematyczną organizację węzła internetowego pokazuje rysunek poniżej:

0x01 graphic

Rys 5.4. Schemat organizacji węzła internetowego w szkole

Elementy przedstawione na rysunku 5.4. to:

Na poniższym rysunku (rys. 5.5.) przedstawione jest rozmieszczenie poszczególnych elementów na szafce:

0x01 graphic

Rys. 5.5. Rozmieszczenie elementów węzła na szafce

5.3. Opis działania węzła internetowego

Węzeł internetowy ma za zadanie dostarczyć i rozdzielić zasoby internetowe między odbiorcami internetu z Tarnowskiego Ośrodka Informacyjnego (TOI). Do tego celu służy router. Jest to komputer, specjalnie do tego celu skonfigurowany, pracujący najczęściej w systemie Unixowym. W szkolnym węźle jest zainstalowany system oparty na jądrze Linuxa. Samo połączenie między kolejnymi punktami (dostawca - odbiorca) jest realizowane za pomocą dzierżawionych linii telefonicznych. Połączenie takie umożliwia uzyskanie szerokości pasma transmisyjnego dochodzącego do 45 Mbps. Do tego typu transmisji danych wykorzystywane są modemy połączone za pomocą specjalnego okablowania obsługującego interfejs RS-232. Kolejnym zadaniem routera jest rozdzielenie pasma transmisyjnego miedzy odbiorców, w sposób wcześniej zdefiniowany w konfiguracji routera.

Zaopatrywanie szkoły w internet odbywa się za pomocą szkolnego serwera, który jest podłączony bezpośrednio do routera TOI. Natomiast od strony szkolnej sieci LAN, jest on podłączony przez kartę sieciową do HUB'a, łączącego wszystkie podsieci w szkole.

Ze względu na możliwość zawieszenia się modemów, zostało zastosowane urządzenie mające na celu zdalne resetowanie tych urządzeń. Moduł resetujący jest podłączony do jednego z portów routera TOI. Po otrzymaniu odpowiednich sygnałów z routera TOI, urządzenie odcina chwilowo dopływ napięcia do listw zasilających modemy.

5.4. Użyte elementy

Do wykonania pracy dyplomowej użyliśmy następujących elementów:

5.5. Elementy składowe węzłów internetowych i sieci

5.5.1. Karta sieciowa

Karta sieciowa to płytka drukowana instalowana w wolnym gnieździe magistrali komputera. Z tyłu karty znajduje się fizyczny interfejs dla określonego rodzaju złącza. Każdy rodzaj złącza zaprojektowany jest dla konkretnego nośnika. Karta zapewnia połączenie między wewnętrznymi zasobami systemu komputerowego a zasobami zewnętrznymi przyłączonymi do sieci. Zawiera układy logiczne warstwy łącza sieciowego oraz warstwy fizycznej.

5.5.2. Repeater

Repeater jest urządzeniem dzięki któremu można zwiększyć zasięg sieci. Jest to po prostu wzmacniacz, jednak w odróżnieniu od huba, wzmacnia on tylko sygnał użyteczny, pomijając szumy i zakłócenia. Repeater sprzęga segmenty sieci, które mogą korzystać z odmiennych protokołów i rodzajów okablowania.

5.5.3. Hub

Hub jest urządzeniem wykorzystywanym w sieci 10BaseT jako punkt centralny sieci, w którym zbiegają się przewody każdej stacji roboczej. Jeśli pakiet przychodzi do huba, zostanie on skierowany kolejno na wszystkie porty. Każdy hub wyposażony jest w jedno wyjście 10Base2 lub 10Base5 oraz kilka wyjść 10BaseT. Huby możemy podzielić na następujące grupy:

5.5.4. Switch (przełącznik)

Przełączniki są to "inteligentne" urządzenia przełączające ramki na odpowiedni port. Idea działania przełącznika polega na podzieleniu dużego strumienia danych na kilka mniejszych. Klasyczne przełączniki potrafią obsługiwać dowolny protokół, gdyż operują na adresach MAC karty sieciowej. Nowsze przełączniki, pracujące w trybie Layer 3 Switching mają dostęp do adresów IP. Urządzenia te mają zastosowanie w sieciach LAN, powodują zmniejszenie domeny kolizji, dzięki przełączeniu pakietu nie na wszystkie a na odpowiedni port wyjściowy.

5.5.5. Most

Most jest urządzeniem, które śledzi adresy MAC (ang. Media Acces Control - w przypadku sieci Ethernet 48 bitowy adres karty sieciowej przypisany na stałe przez producenta ) umieszczane w przesyłanych do niego pakietach. Może być to urządzenie wolnostojące lub wbudowane w hub. Most wykorzystuje bazę danych dotyczącą topologii sieci. Poprzez analizę adresów MAC, decyduje czy dany pakiet przesłać do drugiego segmentu sieci, czy też zostawić bez odpowiedzi. Most z powodzeniem można wykorzystać do podzielenia sieci na dwa segmenty w sytuacji gdy w jednej dużej sieci część komputerów komunikuje się stale lub bardzo często z tymi samymi komputerami. W obu segmentach sieci będą znajdowały się komputery najczęściej komunikujące się ze sobą. Dzięki podziałowi w idealnym przypadku domena kolizji zmniejszy się dwukrotnie. Urządzenie to obsługuje segmenty sieci budowane tak w tych samych jak i różnych technologiach (most translacyjny).

Rodzaje mostów:

5.5.6. Router

Routery są to urządzenia, których zadaniem jest przesyłanie pakietów pomiędzy sieciami. Najczęściej są wyposażone w kilka kart sieciowych, porty do obsługi sieci WAN, wydajny procesor oraz oprogramowanie wspomagające przepływ pakietów. Jako prosty router może służyć 486DX4 z dwoma kartami sieciowymi pracujący pod kontrolą systemu operacyjnego Linux, najczęściej jednak jest to oddzielny dosyć wydajny komputer. Router w przeciwieństwie do mostu dzieli sieć na dwie podsieci IP. Pakiet wysłany w sieci lokalnej nie trafia do routera, jest obsługiwany przez niego dopiero wtedy gdy jest wysyłany poza sieć. Routery stosowane są zarówno w sieciach LAN jak i WAN. Routery lokalne używane są wtedy gdy chcemy umożliwić przesyłanie pakietów pomiędzy dwoma lub więcej segmentami sieci (podsieciami). Normalnie przesyłanie danych jest niemożliwe, ponieważ obie podsieci mają rożne adresy. Jedną dużą sieć dzieli się na kilka podsieci głównie po to by zmniejszyć domenę kolizji. Jak widać zastosowanie routera spowoduje zwiększenie przepustowości sieci. Zadaniem routera dostępowego jest umożliwienie komunikacji pomiędzy siecią LAN a WAN. Oczywiście może się zdarzyć się, że router służy do obsługi pakietów lokalnych i kierowanych na świat. Routery same budują sobie tabele routingu, dzięki którym "wiedzą" gdzie przesłać dalej pakiet. Komunikują się z innymi routerami w sieci, same "uczą" się topologii. Wyznaczaniem tras zajmują się różne protokoły oparte na masie skomplikowanych algorytmów. Aby przesłać dane do innego komputera w sieci, muszą być one podzielone na mniejsze porcje ( pakiety ) . Wcale nie jest powiedziane, że wszystkie porcje danych są przesyłane tą samą drogą. Router musi reagować na takie sytuacje jak odłączenie jakiegoś fragmentu sieci w ogólnoświatowej pajęczynie, nagłe zmniejszenie przepustowości sieci w pewnym obszarze oraz wiele innych. Dowodem na to że routery przez cały czas kontrolują stan sieci jest sytuacja w której pobieramy stronę z jakiegoś odległego serwera. Strona ładuje się bardzo wolno, jednak po wciśnięciu przycisku "Odśwież" znacznie szybciej przeglądarka zacznie ją pobierać.

Algorytmy trasowania:

Router otrzymując pakiet zawsze musi posłać go dalej. Jeśli komputer docelowy znajduje się w sieci połączonej bezpośrednio z routerem to pobiera on adres MAC odbiorcy i wysyła do niego pakiet. Jeśli jednak komputer znajduje się w innej sieci, to router "opakowuje" pakiet za pomocą odpowiedniego protokołu i wysyła dalej. W sieciach szkieletowych wykorzystuje się routery o najwyższej wydajności. Obsługują one wszystkie rodzaje interfejsów używanych w sieci LAN i WAN oraz wiele protokołów. Routery średniej mocy są najczęściej instalowane w sieciach korporacyjnych. Mogą również służyć do budowy sieci bazowych w niewielkich przedsiębiorstwach. Taki router składa się z dwóch, trzech portów sieci LAN i od czterech do ośmiu portów sieci WAN. Routery oddziałowe przeznaczone do sieci LAN. Najczęściej posiadają jeden port LAN i dwa porty WAN. Są to najpopularniejsze urządzenia, gdyż niewielkim kosztem można rozbudować sieć łączącą biura i oddziały.

5.5.7 Modem

Słowo „modem” jest telekomunikacyjnym terminem określającym urządzenia zmieniające sygnał elektroniczny z komputera w sygnał tonowy, który można przesyłać łączem komunikacyjnym; morfologicznie jest ono zbitką słów „Modulator” i „DEModulator”. Modulowanie sygnału oznacza konwertowanie sygnału z jednego stanu do drugiego. Słowo „modem” właściwie jest względnie nowym terminem w telekomunikacji. Oryginalnie urządzenia takie były znane jako „zestawy transmisji danych”. Przed rokiem 1977 przedsiębiorstwa, które chciały podłączyć do lini telefonicznej, musiały korzystać ze sprzętu dostarczanego przez spółki telefoniczne, które były wtedy monopolistami w tym względzie. Od roku 1977 na mocy zarządzenia Federalnej Komisji łączności osoby fizyczne i prawne mogą korzystać z własnego wyposażenia służącego do połączeń liniami telefonicznymi. Do dziś wszystkie produkowane w USA modemy wciąż muszą odpowiadać temu zarządzeniu FCC, znanemu jako „Part 68”.

Komputer nie jest zdolny do bezpośredniego przyłączenia do loni telefonicznej, gdyż posługuje się „językiem cyfrowym”, składającym się z elektronicznych sygnałów dyskretnych, podczas gdy zwykła linia telefoniczna może przesyłąć tylko impulsy analogowe lub dźwięk. Sam komputer PC, będąc urządzeniem cyfrowym, porozumiewa się w języku znanym jako binarny, który koduje informacje wykorzystując albo stan niski, reprezentowany przez zero albo stan wysoki, reprezentowany przez jedynkę. Transmisję cyfrową zawsze tworzą stany wysoki lub niski; nie ma tu stanów pośrednich. Z kolei transmisja analogowa ma stale zmieniającą się amplitudę natężenia sygnału oraz częstotliwość. Zwykle kable sieciowe są wystarczające przy mniejszych odległościach. Gdy komputery chcą się komunikować się ze sobą na większe odległości, konieczne jest jednak wykorzystanie innego nośnika transmisji. Najbardziej logicznym i dostępnym wyborem jest standardowa linia telefoniczna. Niestety, jak już powiedziano, nie można wziąć komputera posługującego się językiem cyfrowym i przeprowadzić komunikacji z innym komputerem, jeśli używany nośnik komunikacyjny obsługuje wyłącznie transmisję analogową. W przypadku dwóch maszyn komunikujących się za pośrednictwem linii telefonicznej modemy muszą znajdować się na obydwu końcach linii. Komputer nadający musi posiadać modem, by zmienić tworzone przez siebie sygnały w sygnały analogowe, wysyłane linią telefoniczną. Również komputer odbierający musi mieć modem, aby odebrać transmisję analogową i przekształcić ją z powrotem na sygnał cyfrowy, który komputer może zrozumieć.

Transmisja danych zachodzi zwykle między dwoma urządzeniami znanymi jako DCE (urządzenie przesyłania danych, urządzenie komunikacyjne) i DTE (urządzenie końcowe, terminal). Modem jest przykładem urządzenia DCE. Sam z kolei łączy się z komputerem osobistym, który jest terminalem DTE.

Choć istnieją liczne standardy, bez wątpienia najważniejszym w świecie technologii modemów jest interfejs RS-232. Istnieje kilka wersji tego interfejsu, a każda z nich jest wyróżniona literą występującą po oznaczeniu RS-232. Najpopularniejszą implementacją standardu tego interfejsu jest RS-232C.

Na standard RS-232 składają się cztery podstawowe obszary informacji:

RS-232 i jego odpowiedniki zapewniają szeregową transmisję danych przez interfejs. W interfejsie szeregowym bity tworzące dane są wysyłane bit po bicie, synchronicznie lub asynchronicznie.

Główną wadą interfejsu RS-232 jest ograniczenie odległości do 15 metrów. Zwykle nie jest to problemem dla połączenia między komputerem lub modemem, ale może się nim stać , jeśli modem musi być umieszczony w pewnej odległości od komputera.

Aczkolwiek RS-232 jest najpowszechniej wybieranym interfejsem dla połączeń modemowych, należy wspomnieć również o kilku innych, takich jak: RS-422, RS-423, RS-449 i RS-530.

5.6. Wnioski

Wykonane w sali 114p prace modernizacyjne związane z pracą dyplomową pozwoliły nam zapoznać się z budową węzła internetowego w szkole oraz poznać ogólną zasadę jego funkcjonowania. Ważną cechą tego węzła jest to iż poprzez Tarnowski Ośrodek Informacyjny za pomocą routera tegoż dostawcy i czterech modemów zaopatruje on w internet główne szkoły i szpital w Mościcach tj.: IV Liceum Ogólnokształcące, Zespół Szkół Zawodowych, Mościckie Centrum Medyczne oraz Zespół Szkół Technicznych a zarazem Akademię Ekonomiczną. Za pomocą serwera i hub'a węzeł ten również łączy sieć LAN w całej szkole.

Poprowadzenie okablowania sali wokół i zamontowanie gniazdek pozwoliło na podłączenie komputera po drugiej stronie sali dzięki czemu zwolniło się miejsce na szafę.

Wykonanie szafki znacznie ułatwiło dostęp do elementów węzła w przypadku modyfikacji lub awarii. Szafa została w taki sposób zaprojektowana aby umożliwić rozbudowę węzła w przyszłości. Zamontowanie wentylatora pozwoli urządzeniom, zwłaszcza modemom, efektywniej pracować (szczególnie w okresie letnim) gdyż sala 114p nie posiada możliwości swobodnego przepływu powietrza. Do tej pory dość częstą awarią w dostawach internetu było „zawieszanie się” modemów.

Odnowienie ścian i sufitu okazało się niezbędne ponieważ najprawdopodobniej nie robiono tego od wielu lat, poza tym na suficie znajdowały się dość znaczące pęknięcia.

6. Przepisy BHP

Podczas modernizowaniu sali 114p ważne było zastosowanie środków ostrożności i zasad BHP. Konieczne to było zwłaszcza podczas instalacji gniazdek, montowania wentylatora i malowania gdy istniało zagrożenie styczności z prądem elektrycznym oraz zagrożenie porażeniowe.

6.1. Działanie prądu na organizm ludzki

Prąd elektryczny przepływający przez ciało człowieka wywołuje w nim zmiany chemiczne i biologiczne groźne dla zdrowia i życia. Działanie prądu może się objawiać w postaci zmian elektrolitycznych , oparzeń oraz zaburzeń czynności fizjologicznych.

Niebezpieczeństwo porażenia prądem elektrycznym zależy od jego wartości , czasu rażenie (przepływu prądu przez organizm) oraz częstotliwości. Najniebezpieczniejsze są prądy o częstotliwości sieciowej 50-60Hz, gdyż jest ona zbliżona do częstotliwości bioprądów w organizmie. Niebezpieczeństwo porażenia prądem elektrycznym jest mniejsze dla prądu stałego oraz zmniejsza się wraz ze zwiększeniem częstotliwości ponad 50-60 Hz.

Prąd przepływający przez ciało człowieka jest proporcjonalny do napięcia dotykowego ( napięcie między dwoma elementami przewodzącymi, które znajdują się w zasięgu ręki) i odwrotnie proporcjonalny do rezystancji ciała. Rezystancja ciała człowieka zmienia się w szerokim zakresie i jest zależna od: warunków środowiskowych; stanu naskórka; indywidualnych cech człowieka.

Przy prądzie przemiennym płynącym przez ciało człowieka powinno się uwzględniać nie tylko rezystancję, lecz również reaktancję, ale dla uproszczenia przy obliczeniach jej wartości jest pomijana. Wypadkowa rezystancja ciała człowieka składa się z rezystancji skóry i rezystancji wewnętrznej organizmu. Rezystancja wewnętrzna jest niewielka i wynosi od 500 do 1000 SZ. Rezystancja skóry natomiast zmienia się w szerokich granicach. Przy suchym naskórku wynosi od 5000 S2 do 100 000 S~2 i może zmniejszać się pod wpływem wilgotności, przedłużającego się czasu rażenia i wzrostu napięcia rażeniowego. Na tej podstawie przyjęto, że minimalna niebezpieczna dla człowieka wartość prądu płynącego przez ciało wynosi : 30mA prądu przemiennego i 10mA prądu stałego. Korzystając z prawa Ohma i podstawiając do wzoru niebezpieczne wartości prądu płynącego przez ciało człowieka oraz rezystancję ciała w danych warunkach środowiskowych (przyjmując najniższą wartość) otrzymuje się maksymalne wartości napięć dopuszczalnych dla człowieka - napięci dotykowe bezpieczne. W warunkach środowiskowych, w których rezystancja ciała człowieka w stosunku do ziemi wynosi co najmniej 1000 SZ (pomieszczenie o wilgotności względnej nie przekraczającej 75% i podłożu nieprzewodzącym), za napięcie bezpieczne uznaje się napięci 50 V dla prądu przemiennego i 100V dla prądu stałego. Gdy rezystancja ciała jest mniejsza niż 1000 S~, napięcie bezpieczne wynosi 25 V dla prądu przemiennego i 50 V dla prądu stałego.

6.2. Środki ochrony przeciwporażeniowej

Ochrona przeciwporażeniowa w instalacjach i urządzeniach elektrycznych ma na celu niedopuszczenie do przepływu przez ciało człowieka prądu rażeniowego lub ograniczenie czasu przepływu prądu przez szybkie wyłączenie zasilania, aby zapobiec powstaniu groźnych dla zdrowia i życia skutków.

Ochronę przeciwporażeniową można podzielić na trzy grupy:

Zgodnie z przepisami w sprawie ochrony przeciw porażeniowej należy stosować w zależności od zagrożenia następujące środki:

Ochrona podstawowa ma zapobiegać:

Ochrona podstawowa polega więc przede wszystkim na umieszczeniu elementów znajdujących się pod napięciem poza. zasięgiem ręki człowieka, a wiec stosowanie przegród, siatek lub poręczy z materiału izolacyjnego.

Ochrona dodatkowa ma zapobiegać utrzymywaniu się niebezpiecznego napięcia dotykowego. Polega ona na zastosowaniu, poza ochroną podstawową jednego z następujących środków:

Uziemienia ochronne stanowią najbardziej rozpowszechniony rodzaj ochrony dodatkowej, stosowane do maszyn i urządzeń elektrycznych. Celem stosowania uziemienia ochronnego jest zrównanie potencjału uziemionych przedmiotów z potencjałem ziemi.

Zerowanie może być stosowana w przystosowanych do tego sieciach trójfazowych o napięciu poniżej 300 V. Polega ono na połączeni dostępnych części metalowych urządzeń z uziemionym przewodem zerowym.

Sieć przewodów ochronnych wolno stosować w urządzeniach przemiennoprądowych i stałoprądowych niezależnie od napięcia. Wszystkie dostępne części metalowe nie znajdujące się pod napięciem, oraz dostępne metalowe konstrukcje wsporcze i osłony powinny być połączone z przewodem ochronnym .

7. Literatura

PRACA DYPLOMOWA

- 4 -



Wyszukiwarka

Podobne podstrony:
Praca Dyplomowa(2) Sieci Komputerowe, Informatyka
Praca dyplom sieci
Praca dyplomowa Sieć komputerowa w oparciu o system Linux i protokół Samba- calosc, Zespół Szkół Pon
Praca dyplomowa - Sieci Neuronowe, informatyka, Sieci neuronowe
praca dyplomowa sieci neuronowe GUYQ6C4FE3EUJPNFZFK6SAVH7SG2LWZYACZZG2A
praca dyplomowa sieci neuronowe, Praca magisterska
praca dyplomooww - Metodyka Tworzenia Stron WWW, komputery, sieci komputerowe
praca dyplomowa ?zpieczeĺƒstwo?nych w sieciowych systemach komputerowych [inzynierska] 5AVN62WTY3RD
sieci komputerowe - cala praca, Studia, Informatyka, Informatyka, Informatyka

więcej podobnych podstron