egz ustny, !!!Uczelnia, wsti, materialy, III SEM, teleinformatyka


Frame Relay dawniej polpak, - zaawansowana pakietowa sieć komutowana przesyłająca dane zmiennej długości przez stałe obwody wirtualne (PVC) w środowisku cyfrowym. Jakość łączy cyfrowych pozwala na ograniczenie mechanizmów korekcji błędów, co pozwala sieciom Frame Relay na większe szybkości transmisji niż uzyskiwane w sieciach X.25.

Wydzielona sieć teletransmisyjna składa się z dzierżawionych kanałów stałych PVC typu punkt-punkt w sieci Frame Relay, które tworzą wirtualną sieć prywatną dla firmy korzystającej z tej usługi. Cena kanału PVC uzależniona jest od odległości między lokalizacjami, prędkości na porcie dostępowym oraz gwarantowanej przepustowości tzw. CIR (Committed Information Rate). Usługa Frame Relay pozwala na transmisję danych o wysokiej jakości i niezawodności, gdzie niezbędne minimum przepustowości gwarantuje parametr CIR, a prędkość na porcie określa maksymalną dopuszczalną prędkość poza limitem gwarantowanym.

Siec Frame-Relay bazuje na obwodachwirtualnych (VC - virtual circuit).

Wyróżniamy trzy rodzaje obwodów wirtualnych:

PVC - Permanent Virtual Circuit

SPVC - Soft Permanent Virtual Circuit

SVC - Switched Virtual Circuit

SPVC można określić jako PVC z ustawionymi połączeniami punktu końcowego, lecz z

dodanymi połączeniami przez siec, które można poddać korekcie w przypadku awarii. W

odróżnieniu od SVC, SPVC nie mogą zostać rozłączone na żądanie któregokolwiek punktu

końcowego. Ani PVC ani też SVC nie są uważane za odporne na wstrzymanie działania

sieci, tak jak ma to miejsce w przypadku SPVC.

(Data-Link Connection Identifier)

DLCI to wartość numeryczna złożona z 10 bitów (1024 możliwych wartości). Wartości te sa przenoszone przez każdy nagłówek Frame Relay. DLCI określa obwód VC,

do którego należy ramka i pomaga w zdefiniowaniu scieżki fizycznej.

(Data-Link Connection Identifier)

Tak wiec DLCI to nic innego jak lokalnie istotna wartość liczbowa (mogąca sie zmieniać na

różnych wezłach w sieci), reprezentującą cały VC z punktu widzenia bieżącego urządzenia.

Każde urządzenie przełączające stosuje DLCI, co pomaga podjąć decyzje o zastosowaniu

odpowiedniego fizycznego portu ruchu wychodzącego w zależności od tego, z którego

fizycznego portu przychodzącego dotarła do centrali ramka. Tablice przełączania Frame Relay maja miejsce na cztery wpisy: dwa dla przychodzącego portu i

adresu DLCI i dwa dla adresu i portu wychodzącego.

P1 200 P0 100

P0 100 P1 200

INżPort INżDLCI OUTżPort OUTżDLCI

(Local Management Interface)

Interfejs zarządzania - protokół LMI powstał w 1990r. z inicjatywy producentów

współtworzących Frame Relay Forum. Na przekór swojej nazwie ma on znacznie bardziej

globalne niż lokalne znaczenie. LMI wnosi do protokołu FR adresowanie globalne, połączenia grupowe i obwód wirtualny LMI dla komunikatów.

UNI - User to Network Interface

NNI - Network to Network Interface

DTE (Data Terminal Equipment) programowalne urządzenia dostępowe do sieci Frame Relsy WAN spoza jej obrzeża, jak terminale, komputery, routery czy mosty.

DCE (Data Circuit - terminating Equipment) -

urządzenia międzysieciowe, węzły po stronie sieci Frame Relay WAN, przeznaczone do

synchronizacji i przełaczania usług miedzy urządzeniami DTE komunikującymi sie za sobą

przez siec rozległa. Podstawowymi urządzeniami DCE FR sa prawie wyłącznie

przełaczniki ramek.

CIR (Committed Information Rate) jest określany dla każdego obwodu

wirtualnego oddzielnie i okresla minimalna gwarantowana przepustowość VC.

EIR (Excess Information Rate) oznacza nie gwarantowana przepływność

maksymalna, której nie wolno przekroczyć.

Siec Frame Relay jest w stanie wykryć błędy na podstawie pola FCS (Frame-Check Sequence). FCS to wartość wyliczana i umieszczana w takiej pozycji w ramce. Urządzenie odbiorcze wylicza wartość na podstawie tego samego algorytmu , którego wynik powinien być identyczny z umieszczana wartością. Jeżeli wyniki sa różne, wówczas zakłada sie, że ramka została uszkodzona w ostatnim etapie transmisji. Następnie ramka jest odrzucana bez dalszego przetwarzania, ponieważ zidentyfikowanie pierwotnych danych nie jest możliwe.

Przykładowa konfiguracja urządzeń Cisco

interface Serial0

description FR to POLPAK-T

no ip address

encapsulation frame-relay IETF

frame-relay lmi-type ansi

!

interface Serial0.1 point-to-point

description FR subinterface POLPAK-T dlci 99

ip address 212.160.208.242 255.255.255.252

frame-relay interface-dlci 99

Translacja adresów (ang. Network Address Translation - NAT) daje możliwosc

zmapowania całej sieci (lub wielu sieci) do pojedynczego adresu IP (badz grupy

adresów IP). NAT jest niezbedny, gdy liczba adresów IP przydzielonych przez

Dostawce Usług Internetowych (ISP) jest mniejsza niż całkowita liczba maszyn,

który maja mieć dostęp do Internetu. NAT jest opisany w RFC 1631.

• NAT pozwala korzystać z dobrodziejstw zarezerwowanych bloków adresów zdefiniowanych w RFC 1918. Zwykle, wewnętrzną sieć będzie skonfigurowana przy u2yciu jednego lub więcej z tych bloków, a sa to:

• 10.0.0.0/8 (10.0.0.0 - 10.255.255.255)

• 172.16.0.0/12 (172.16.0.0 - 172.31.255.255)

• 192.168.0.0/16 (192.168.0.0 - 192.168.255.255)

Maszyna realizująca NAT będzie miała co najmniej dwa adaptery sieciowe, jeden do Internetu, drugi do sieci wewnętrznej. NAT będzie tłumaczył wywołania z sieci

wewnętrznej tak, aby wydawało sie, że pochodzą one z maszyny realizującej NAT.

• Gdy klient w sieci wewnętrznej łączy sie z maszyna w Internecie, wysyła pakiety IP

zaadresowane do tej maszyny. Pakiety te zawierają wszystkie informacje adresowe,

niezbędne aby dotrzeć do celu. NAT zajmuje się następującymi danymi:

Źródłowy adres IP (na przykład, 192.168.1.35)

Źródłowy port TCP lub UDP (na przykład, 2132)

• Gdy pakiety przechodzą przez bramkę NAT, są modyfikowane tak aby wydawały sie pochodzić z samej bramki (ang. gateway) NAT. Bramka NAT zapamiętuje

zmiany, wykonywane na pakietach, w swojej tabeli stanów, aby móc: a) odwrócić zmiany w powracających pakietach oraz b) zapewnić, że powracające pakiety przepuszczane przez firewall i nie sa blokowane. Na przykład, mogą wystąpić następujące zmiany:

Źródłowe IP: zamienione na zewnętrzny adres bramki (na przykład, 212.244.219.19)

Źródłowy port: zamieniony na losowo wybrany, nieużywany port na bramce (na przykład, 53136) Ani wewnętrzna maszyna, ani host w Internecie nie obawiają sie tych translacji.

Dla komputera z sieci lokalnej, system realizujący NAT jest po prostu bramka. Dla

hosta w Internecie, pakiety wydają się pochodzić wprost z systemu, na którym

realizowany jest NAT; nawet nie zdaje sobie sprawy, że wewnętrzne stacje

robocze w ogóle istnieją. Kiedy host w Internecie odpowiada na pakiety wewnętrznej

maszyny, sa one adresowane do zewnętrznego IP bramki realizującej NAT (212.244.219.19) i na przetłumaczony port (53136). Bramka NAT przeszuka wówczas tabele stanów, aby sprawdzić, czy powracające pakiety pasuja do jakiegoś już nawiązanego połączenia. Niepowtarzalne dopasowanie zostaje dokonane na podstawie kombinacji IP/port, która

mówi, że datagarmy należą do połączenia zainicjowanego przez wewnętrzną maszynę

192.168.1.35. Bramka NAT wykona wówczas odwrócone zmiany w stosunku do wychodzących pakietów i przekaże je do maszyny w sieci wewnętrznej.

Realizacja translacji adresów umożliwia tak2e przekazywanie pakietów z zewnątrz

(najczesciej siec Internet) do wnętrza sieci przy zastosowaniu mapowania portów,

bądź mapowania adresów.

Jeśli dysponujemy więcej niż jednym zewnętrznym adresem IP możemy

powiązać ten adres z pojedynczym adresem IP z sieci wewnętrznej. Takie

powiązanie spowoduje, 2e jesli pojawi się próba nawiązania nowego połączenia do

adresu IP zewnętrznego, to zostanie ono po modyfikacji nagłówka przekazane do

wskazanej stacji w sieci wewnętrznej (mapowanie 1:1).

Jeśli nie chcemy z powodów bezpieczeństwa używać mapowania 1:1,

bądź dysponujemy pojedynczym adresem IP dla całej sieci wewnętrznej możemy

skorzystać z mapowania poszczególnych portów, a nie całych adresów IP.

Topologia sieci komputerowej

Topologia fizyczna

• Zbiór zasad fizycznego łączenia poszczególnych części sieci ze sobą takich jak np.

koncentratory, hosty.

Topologia logiczna

• Opisuje standardy z których powinna korzystać sieć podczas komunikacji. Topologie

te definiuje najczęściej IEEE.

Topologie fizyczne

• Topologia magistrali(ang. Bus) - wszystkie elementy sieci podłączone do jednej magistrali

• Topologia pierścienia(ang. Ring) - poszczególne elementy są połączone pomiędzy sobą

odcinkami kabla tworząc zamknięty pierścień

• Topologia podwójnego pierścienia - poszczególne elementy są połączone pomiędzy sobą

odcinkami tworząc dwa zamknięte pierścienie

• Topologia gwiazdy(ang. Star) - komputery są podłączone do jednego punktu centralnego,

koncentratora (koncentrator tworzy fizyczną topologię gwiazdy, ale logiczną magistralę) lub

przełącznika

• Topologia gwiazdy rozszerzonej - posiada punkt centralny (podobnie do topologii gwiazdy)

i punkty poboczne (jedna z częstszych topologii fizycznych Ethernetu)

• Topologia hierarchiczna - zwana także topologią drzewa, jest kombinacją topologii gwiazdy

i magistrali, budowa podobna do drzewa binarnego

• Topologia siatki - oprócz koniecznych połączeń sieć zawiera połączenia nadmiarowe;

rozwiązanie często stosowane w sieciach, w których jest wymagana wysoka bezawaryjność

• Topologia liniowa - jest to łańcuch hostów w którym każdy z nich jest połączony z dwoma

innymi (nie licząc elementów sieci na końcu łańcucha)

Topologie logiczne

Topologia logiczna opisuje reguły komunikacji, z których powinna korzystać każda stacja robocza

przy komunikowaniu się w sieci. Poza połączeniem fizycznym hostów i ustaleniem standardu

komunikacji, topologia fizyczna zapewnia bezbłędną transmisję danych. Topologia fizyczna jest

ściśle powiązana z topologią logiczną. Przykładowo, specyfikacja Ethernet umożliwia

wykorzystanie topologii fizycznej gwiaździstej lub magistrali, ale nie umożliwia zbudowania sieci

w oparciu o topologię pierścieniową. Najczęściej używane są standardy Ethernetu.

Niektóre topologie fizyczne wraz z wybranymi topologiami logicznymi:

Topologia gwiazdy oraz magistrali:

• IEEE 802.3 - 10 Mb Ethernet

• IEEE 802.3u - 100 Mb Ethernet

• IEEE 802.3x - Full Duplex Ethernet

• IEEE 802.3z - 1 Gb Ethernet

Topologia pierścienia

• IEEE 802.5 - Token ring

• IEEE 802.6 - Sieci metropolitalne (MAN)

Topologia podwójnego pierścienia

• FDDI

Topologia pierścienia

- jedna z fizycznych topologii sieci komputerowych. W topologii tej komputery połączone są za pomocą jednego nośnika informacji w układzie zamkniętym - okablowanie nie ma żadnych zakończeń (tworzy krąg). W ramach jednego pierścienia można stosować różnego rodzaju łącza. Długość jednego odcinka łącza dwupunktowego oraz liczba takich łączy są ograniczone. Sygnał wędruje w pętli od komputera do komputera, który pełni rolę wzmacniacza regenerującego sygnał i wysyłającego go do następnego komputera. W większej skali, sieci LAN mogą być połączone w topologii pierścienia za pomocą grubego kabla koncentrycznego lub światłowodu. Metoda transmisji danych w pętli nazywana jest przekazywaniem żetonu dostępu. Żeton dostępu jest określoną sekwencją bitów zawierających informację kontrolną. Przejęcie żetonu zezwala urządzeniu w sieci na transmisję danych w sieci. Każda sieć posiada tylko jeden żeton dostępu. Komputer wysyłający, usuwa żeton z pierścienia i wysyła dane przez sieć. Każdy komputer przekazuje dane dalej, dopóki nie zostanie znaleziony komputer, do którego pakiet jest

adresowany. Następnie komputer odbierający wysyła komunikat do komputera wysyłającego o odebraniu danych. Po weryfikacji, komputer wysyłający tworzy nowy żeton dostępu i wysyła go do sieci.

Zalety:

• małe zużycie przewodów

• możliwość zastosowania łącz optoelektronicznych, które wymagają bezpośredniego

nadawania i odbierania transmitowanych sygnałów

• możliwe wysokie osiągi, ponieważ każdy przewód łączy dwa konkretne komputery

Wady:

• awaria pojedynczego przewodu lub komputera powoduje przerwanie pracy całej sieci jeśli

nie jest zainstalowany dodatkowy sprzęt

• złożona diagnostyka sieci

• trudna lokalizacja uszkodzenia

• pracochłonna rekonfiguracja sieci

• wymagane specjalne procedury transmisyjne

• dołączenie nowych stacji jest utrudnione, jeśli w pierścieniu jest wiele stacji

Topologia magistrali

(szynowa) - jedna z topologii fizycznych sieci komputerowych charakteryzująca się tym, że wszystkie elementy sieci są podłączone do jednej magistrali (zazwyczaj jest to kabel koncentryczny). Większość topologi logicznych współpracujących z topologią magistrali wychodzi z użytku (wyjątkiem jest tutaj 10Base-2, który nadal może znaleźć zastosowanie).

Sieć składa się z jednego kabla koncentrycznego (10Base-2, 10Base-5 lub 10Broad36). Poszczególne części sieci (takie jak hosty, serwery) są podłączane do kabla koncentrycznego za pomocą specjalnych trójników (zwanych także łącznikami T) oraz łączy BNC. Na obu końcach kabla powinien znaleźć się opornik (tzw. terminator) o rezystancji równej impedancji falowej wybranego kabla aby zapobiec odbiciu się impulsu i tym samym zajęciu całego dostępnego łącza.

Maksymalna długość segmentu sieci to w przypadku:

10Base-2 - 185m

10Base-5 - 500 m

10Broad36 - 1800 m

Sieć o takiej topologi umożliwia tylko jedną transmisję w danym momencie (wyjątkiem jest tutaj 10Broad36, który umożliwia podział kabla na kilka kanałów). Sygnał nadany przez jedną ze stacji jest odbierany przez wszystkie (co bez zastosowania dodatkowych zabezpieczeń umożliwia jego przechwycenie), jednakże tylko stacja do której pakiet został zaadresowany, interpretuje go.Maksymalna przepustowość łącza w tych trzech podanych standardach sieci Ethernet to 10 Mb/s.

Zalety

• małe użycie kabla

• brak dodatkowych urządzeń (koncentratory, switche)

• niska cena sieci

• łatwość instalacji

• awaria pojedynczego komputera nie powoduje unieruchomienia całej sieci

Wady

• trudna lokalizacja usterek

• tylko jedna możliwa transmisja w danym momencie (wyjątek: 10Broad36)

• potencjalnie duża ilość kolizji

• awaria głównego kabla powoduje unieruchomienie całej domeny kolizji

• słaba skal owalność

Topologia gwiazdy

(ang. star network) - sposób połączenia

komputerów w sieci komputerowej, charakteryzująca się tym, że kable sieciowe

połączone są w jednym wspólnym punkcie, w którym znajduje się koncentrator lub

przełącznik. Topologia gwiazdy zawiera serwer i łączący

do niego pozostałe elementy sieci hub (koncentrator). Większość zasobów znajduje się na serwerze, którego zadaniem jest przetwarzać dane i zarządzać siecią. Pozostałe elementy tej sieci nazywamy terminalami - korzystają one z

zasobów zgromadzonych na serwerze. Same zazwyczaj mają małe możliwości obliczeniowe. Zadaniem huba jest nie tylko łączyć elementy sieci, ale także rozsyłać sygnały, a także wykrywać kolizje w sieci. Nadawane przez hub sygnały samoczynnie znikają.

Topologia hierarchiczna

Topologia drzewa (zwana również topologią rozproszonej gwiazdy) jest utworzona z wielu magistrali liniowych połączony łańcuchowo. Na początku jedną magistralę liniową dołącza się do huba, dzieląc ją na dwie lub więcej magistral. Proces dzielenia można kontynuować, tworząc dodatkowe magistrale liniowe wychodzące z magistral odchodzących od pierwszej magistrali, co nadaje topologii cechy topologii gwiazdy. Jeśli jedną magistralę podzieli się na trzy magistrale i każdą z nich na kolejne trzy to w efekcie otrzymamy łącznie trzynaście magistral. Tworzone są kolejne poziomy drzewa, ale ich liczba jest ograniczona. Zaletami topologii drzewa są: łatwość rozbudowy oraz ułatwienie lokalizacji uszkodzeń. Wadą jest zależność pracy sieci od głównej magistrali..

Topologia siatki

- używana jest wtedy, gdy zapewnione jest komunikacjabez żadnych przerwań. W topologii siatki każdy host mawłasne połączenia z wszystkimi pozostałymi hostami.

Siatka częściowa jest zastosowana w schemacie Internetu,gdzie istnieje wiele ścieżek do dowolnego miejsca, chociaż nie ma tu połączeń miedzy wszystkimi hostami.

Token ring

- metoda tworzenia sieci LAN opracowana przez firmę IBM w latach 70-tych, dziś powoli wypierana przez technologię Ethernetu. Szybkość przesyłania informacji w sieciach Token Ring wynosi 4 lub 16 Mb/s.

W oryginalnej IBM-owskiej sieci Token-Ring stacje robocze podłącza się bezpośrednio do

urządzeń MAU (ang. Multistation Access Unit), które z kolei łączy się ze sobą tak, by tworzyły jeden duży pierścień. Wykorzystuje technikę przekazywania "żetonu" (ang.

token passing), stosowaną również w technologii FDDI. Stacja, która ma wiadomość do nadania, czeka na wolny żeton. Kiedy go otrzyma, zmienia go na żeton zajęty i

wysyła go do sieci, a zaraz za nim blok danych zwany ramką (frame). Ramka zawiera część komunikatu (lub cały komunikat), który miała wysłać stacja. Zastosowanie systemu sterowania dostępem do nośnika za pomocą

przekazywania żetonu zapobiega wzajemnemu zakłócaniu się przesyłanych wiadomości i gwarantuje, że w danej chwili tylko jedna stacja może nadawać dane.

Switch

(z ang., w jęz. polskim przełącznik, przełącznica, także komutator) to urządzenie łączące segmentysieci komputerowej. Switch pracuje w warstwie drugiej modelu OSI (łącza danych), jego zadaniemjest przekazywanie ramek między segmentami.

Switche określa się też mianem wieloportowych mostów (ang. bridge) lub inteligentnych hubów -switch używa logiki podobnej jak w przypadku mostu do przekazywania ramek tylko do docelowego segmentu sieci (a nie do wszystkich segmentów jak hub), ale umożliwia połączenie wielu segmentów sieci w gwiazdę jak hub (nie jest ograniczony do łączenia dwóch segmentów jak most).

W celu ustalenia fizycznego adresata używają docelowego adresu MAC zawartego w nagłówku ramki Ethernet. Jeśli switch nie wie, do którego portu powinien wysłać konkretną ramkę, zalewa (flooding) wszystkie porty za wyjątkiem portu, z którego ramkę otrzymał. Switche utrzymują tablicę mapowań adres MAC<->port fizyczny, której pojemność jest zwykle określona na 4096, 8192 lub 16384 wpisów. Po przepełnieniu tej tablicy nowe wpisy nie są dodawane (chyba że któryś stary wygaśnie), a ramki 'zalewane' są do wszystkich portów (za wyjątkiem portu, którym ramka dotarła do switcha). Switche ograniczają domenę kolizyjną do pojedynczego portu, dzięki czemu są w stanie zapewnić każdemu hostowi podłączonemu do portu osobny kanał transmisyj no-nadawczy, a nie współdzielony, tak jak huby. Na switchach zarządzanych można również wydzielać VLAN-y,

czyli wirtualne podsieci LAN. Porty należące do różnych VLANów nie 'widzą' swoich transmisji - do wymiany informacji pomiędzy różnymi VLANami używa się routerów. Porty do VLANów przypisywane są statycznie lub na podstawie adresu MAC podłączonej stacji (opisuje to protokół GVRP, Generic VLAN Registration Protocol, dostępny na większych switchach). VLANy pomiędzy dwoma podłączonymi do siebie switchami przenosi specjalny rodzaj połączenia - trunk.

W standardzie IEEE 802.1Q każda ramka wysyłana przez trunk opatrzona zostaje 4-bajtowym polem, w ramach którego przenoszony jest również identyfikator VLANu (tak, by odbierający ramki przełącznik był w stanie wysłać ramkę do odpowiedniego VLANu). W związku z tym ramki tzw. tagowane, czyli oznaczane, mogą mieć maksymalnie długość do 1523 bajtów. Obecnie na rynku obecne są również switche routujące (tzw. przełączniki 3

warstwy modelu OSI).

Hub

(z ang., w jęz. polskim koncentrator) - urządzenie łączące wiele urządzeń sieciowych w sieci

komputerowej o topologii gwiazdy. Hub najczęściej podłączany jest do routera, zaś do huba

podłączane są komputery będące stacjami roboczymi lub serwerami, drukarki sieciowe oraz inne urządzenia sieciowe. Do połączenia najczęściej wykorzystuje się kabel UTP skrętka kategorii 5. Koncentrator (ang. Hub) działa na poziomie pierwszej warstwy modelu ISO|OSI (warstwie fizycznej), kopiując sygnał z jednego komputera do wszystkich pozostałych do niego podłączonych. Obecnie huby są stosowane coraz rzadziej, zostały zastąpione przełącznikami (ang. switch) działającymi w warstwie drugiej modelu ISO-OSI, a więc w warstwie MACowej. Hub przenosi z wejścia na wszystkie wyjścia sygnał bit po

bicie, natomiast switch ramka po ramce, dlatego też switch wprowadza duże opóźnienie (a także zmienne opóźnienie zależne od długości ramki). Obecnie w czasach gdy przez internet przesyłane są strumienie danych które nie mogą charakteryzowac się zmiennym opóźnieniem (np. strumień video) switch'e nie zawsze są lepszym rozwiązaniem od hubów. Hub to także serwer sieci Direct Connect.

Router

(ruter, trasownik) to urządzenie sieciowe, które określa następny punkt sieciowy, do którego należy skierować pakiet danych (np. datagram IP). Ten proces nazywa się routingiem (rutingiem) bądź trasowaniem. Routing odbywa się w warstwie trzeciej modelu OSI. Router używany jest przede wszystkim do łączenia ze sobą sieci WAN, MAN i LAN.

Routing jest najczęściej kojarzony z protokołem IP, choć procesowi trasowania można poddać datagramy dowolnego protokołu routowalnego np. protokołu IPX w sieciach obsługiwanych przez NetWare (sieci Novell).

Pierwotne routery z lat sześćdziesiątych były komputerami ogólnego przeznaczenia. Chociaż w roli routerów można używać zwykłych komputerów, nowoczesne szybkie routery to wysoce wyspecjalizowane urządzenia, w których interfejsy sieciowe są połączone bardzo szybką magistralą wewnętrzną. Zazwyczaj mają wbudowane dodatkowe elementy (takie jak pamięć podręczna czy układy wyręczające procesor w pakowaniu i odpakowywaniu ramek warstwy drugiej) w celu przyspieszenia typowych czynności, takich jak przekazywanie pakietów. Wprowadzono również inne zmiany w celu zwiększenia pewności działania, takie jak zasilanie z baterii oraz pamięć trwała zamiast magnetycznej. Nowoczesne routery zaczynają więc przypominać centrale telefoniczne, a obie te technologie coraz bardziej się upodabniają i prawdopodobnie wkrótce się połączą. Aby mógł zajść routing, router musi być podłączony przynajmniej do dwóch podsieci (które można określić w ramach jednej sieci komputerowej). Szczególnym przypadkiem routera jest przełącznik warstwy trzeciej, czyli urządzenie z jednym interfejsem sieciowym, które routuje pomiędzy dwoma lub większą ilością sieci wydzielonych logicznie na tym pojedynczym interfejsie. Dla sieci Ethernet są to VLAN-y (wirtualne sieci lokalne), dla sieci ATM czy Frame Relay kanały PVC/SVC (Permanent Virtual Circuit/Switched Virtual Circuit, stałe bądź komutowane kanały wirtualne). Router tworzy i utrzymuje tablicę routingu, która przechowuje ścieżki do konkretnych obszarów sieci i metryki związane z tymi ścieżkami. Aby router mógł realizować routing pakietów i wybierać optymalne trasy routingu, niezbędna jest mu wiedza na temat otaczających go urządzeń (m.in. innych routerów i przełączników). Wiedza ta może być dostarczona w sposób statyczny przez administratora i nosi wówczas nazwę tablicy statycznej lub router może ją pozyskać dynamicznie od innych urządzeń warstwy 3 - tablice takie nazywane są dynamicznymi. Do wyznaczania i obsługi tablic dynamicznych router wykorzystuje protokoły routingu. Często zachodzi wiele nieporozumień dotyczących trasy routingu i tablicy routingu. Warto pamiętać, że trasa routingu jest wyznaczana przez zespół routerów, gdzie każdy z nich do routingu wykorzystuje wewnętrznie budowaną tablice routingu.

Most

(ang. bridge) to urządzenie warstwy łącza danych (ang. Data Link Layer - DLL) modelu OSI/ISO decydujące o przesyłaniu ramek danych (czyli pakietów danych warstwy 2) na podstawie stworzonej przez siebie tablicy forwardingu (ang. Forwarding DataBase - FDB lub MAC DataBase), zawierającej numery portów (interfejs E0/0, E0/1, itd...), do których przyłączone są urządzenia (każdy port to inny segment sieci), oraz adresy sprzętowe MAC urządzeń w segmencie sieci.

Mosty działają w trybie nasłuchu (ang. promiscuous mode) i odbierają dane krążące w medium transmisyjnym. Aby określić, jakie urządzenia znajdują się w poszczególnych segmentach sieci (skojarzonych z poszczególnymi portami), mosty odczytują źródłowe adresy MAC z ramek danych. Na tej podstawie tworzona jest tablica forwardingu (w wolnym tłumaczeniu "tablica mostowania"). Mosty, w przeciwieństwie do przełączników, mają oprogramowanie w formie software'owej a nie hardware'owej, są więc od przełączników wolniejsze (switch używa układu scalonego ASIC wspomagającego podejmowanie decyzji o filtrowaniu). Mosty mogą mieć tylko jedną instancję drzewa rozpinającego przypadającą na jeden most, switche mogą mieć ich wiele. Podobnie mosty mogą mieć tylko do 16-tu portów, zaś przełączniki mogą mieć ich setki. Kiedy mostek (lub analogicznie switch) odbierze ramkę, poszukuje jej adresu docelowego w swojej tablicy forwardingu.

• Jeśli go znajdzie, odczytuje port skojarzony z adresem docelowym, interpretując go teraz

jako port docelowy. Następnie zajmuje się porównaniem. Jeśli port docelowy jest taki sam

jak port, z którego przyszła ramka, mostek nic nie robi (nie przepuszcza na zewnątrz ruchu

docelowo lokalnego). Jeśli port docelowy jest inny niż źródłowy, most przekazuje ramkę

dalej, do portu docelowego - na zewnątrz.

• Jeśli mostek nie znajdzie adresu docelowego w FDB, zalewa (ang. flood) sieć, przekazując

pakiet danych na wszystkie porty za wyjątkiem źródłowego.

• Jeśli natomiast adres docelowy jest typu multicast (grupowy), most przekazuje ramkę do

grupy urządzeń, może więc służyć do tworzenia wirtualnych sieci lokalnych (VLAN).

Dzięki temu blokowane są pakiety, których nie trzeba przekazywać dalej poza lokalny segment sieci. Poprzez nieprzepuszczanie niepotrzebnych ramek, może się zmniejszyć obciążenie sieci. Mimo, iż mosty są niewidoczne dla innych urządzeń (gdyż nie modyfikują ramek, jedynie je "podsłuchują"), użycie mostu powoduje zwiększenie opóźnienia w sieci o 10-30 procent (ale jednocześnie obciążenie sieci może się zmniejszyć). Wynika to z decyzji, jakie most musi podjąć przed przekazaniem pakietu. Most jest uznawany za urządzenie zachowujące i przesyłające (ang. store and forward). Przed przesłaniem ramki dalej most analizuje pole zawierające adres odbiorcy i oblicza kod cyklicznej kontroli nadmiarowej CRC podany w polu kodu kontrolnego ramki. Jeśli port docelowy jest zajęty,

most tymczasowo zachowuje ramkę do momentu, gdy będzie on wolny. Można wyróżnić mosty przeźroczyste, LSB oraz realizujące routing źródłowy.

Mosty przezroczyste zwane też uczącymi się lub inteligentnymi, stosowane są w sieciach typu Ethernet. Tuż po zainstalowaniu urządzenie rozpoczyna proces poznawania topologii sieci. Tablica mostu jest stale aktualizowana. Mosty przezroczyste w rozległych sieciach działają w oparciu o algorytm STA (ang. spanning tree algorithm). Polega on na tworzeniu wielu alternatywnych dróg połączeń, ale pozostawieniu zawsze jednej trasy wolnej (zazwyczaj jest to jedna linia komutowana). Odblokowywana ona jest tylko w razie

konieczności np. awarii innej drogi. Mosty LSB (ang. load-sharing bridges) także stosowane są w sieciach Ethernet. Pozwalają na używanie tej rezerwowej linii, która jest nie wykorzystana w bridge'ach przezroczystych. Są więc przez to najwydajniejsze.

Mosty realizujące routing źródłowy działają w sieciach Token Ring. Poza informacją o miejscu docelowym pakietow, most w tym wypadku wie także którędy najlepiej je tam przesłać. Przy czym to nie urządzenie wybiera optymalną trasę, lecz odczytuje je z danych zawartych w samych pakietach.

Warstwy ISO OSI 7

• 7) Aplikacji,

• 6) Prezentacyjna,

• 5) Sesji,

• 4) Transportowa,

• 3) Sieciowa,

• 2) Łącza danych,

• 1) Fizyczna,

1* fizyczna

• Warstwa fizyczna zajmuje sie transmisja „surowych” bitów kanałem komunikacyjnym.

Problemem projektowym jest tu zapewnienie, że gdy jedna strona wyśle bit o wartości 1, drugastrona odbierze go jako jedynkę, a nie zero. Typowe kwestie to np. wybór napiec reprezentujących0 i 1, określenie, ile nanosekund ma trwac pojedynczy bit, czy transmisja może jednocześnie odbywać sie w obydwu kierunkach, jak nawiązywane jest połączenie i jak jest przerywanego zakończeniu transmisji przez obie strony, ile styków ma mieć złącze sieciowe i do czego służy każdy styk. Zagadnienia projektowe w tej warstwie wiążą sie głównie z interfejsami mechanicznymi, elektrycznymi i zależnościami czasowymi oraz fizycznym nośnikiem transmisyjnym, który znajduje sie pod warstwa fizyczna.

2* łącza danych

• Głównym zadaniem warstwy łącza danych jest przekształcenie surowego łącza transmisyjnego w linie, która dla warstwy sieciowej sprawia wrażenie transmisji wolnej od błędów. To zadanie zostaje osiągnięte tu przez podział danych wejściowych nadawcy na ramki danych (zwykle o rozmiarach kilkuset lub kilku tysięcy bajtów) i sekwencyjna transmisje ramek. Jeśli usługa jest niezawodna, odbiorca potwierdza poprawny odbiór każdej ramki przez odesłanie ramki potwierdzającej.

• Kolejnym problemem, który pojawia sie w warstwie łącza danych (i w większości wyższych

warstw) jest pytanie, jak powstrzymać szybki nadajnik przed zalaniem danymi wolnego odbiornika.

Często potrzebny jest mechanizm sterowania ruchem, który informuje nadajnik, jak wiele miejsca w buforze ma w danej chwili odbiornik. Często to sterowanie jest zintegrowane z obsługa błędów.

• Kontrola parzystości, kod CRC, kodowanie Reed-Solomon (FEC),

3* sieciowa

• Steruje działaniem podsieci. Podstawowym problemem projektowym jest tu ustalenie, jakie

pakiety maja być kierowane od nadawcy do odbiorcy. Trasy mogą opierać się na tablicach

statycznych, które są zakodowane „na sztywno” w sieci i rzadko zmieniane. Mogą też być ustalanena początku każdej konwersacji, np. sesji terminalowej. Na koniec trasy mogą też być wysoce dynamiczne i ustalane na nowo dla każdego pakietu, aby reagować na bieżące obciążenia sieci.

• Jeśli w jednej chwili w podsieci znajduje sie zbyt wiele pakietów, to będą one sobie nawzajem przeszkadzać, tworząc wąskie gardła. Za kontrole nad takimi zatorami również odpowiada warstwa sieciowa. Bardziej ogólnie mówiąc, jakość świadczonych usług (opóźnienia, czas tranzytu, rozsynchronizowanie) jest problemem warstwy sieciowej.

• Gdy pakiet musi przejść z jednej sieci do drugiej, aby dojść do miejsca przeznaczenia, może pojawić się szereg problemów. Adresowanie używane w drugiej sieci może różnic sie

od używanego w pierwszej. Druga siec może w ogóle nie akceptować pakietów, ponieważ będą dla niej za duże, protokoły mogą sie różnic, itd. Do warstwy sieciowej należy uporanie sie z wszystkimi tymi problemami, pozwalając na łączenie niejednakowych sieci.

• W sieciach ro zgłoszeniowych problem wyboru trasy jest prosty, wiec warstwa sieciowa może w nich być bardzo cienka lub w ogóle nie istnieć.

4* transportowa

• Podstawowa funkcja warstwy transportowej jest przyjmowanie danych z góry (z wyższych

warstw), podział na mniejsze jednostki, przekazanie do warstwy sieciowej i zapewnienie,

że wszystkie fragmenty dotrą bezbłędnie do miejsca przeznaczenia. Co więcej,

wszystko to musi odbywać sie wydajnie i w sposób izolujący wyższe warstwy od nieuniknionych zmian w technologii sprzętu.

• Warstwa transportowa określa też, jakie typy usług świadczyć warstwie sesji i, ostatecznie,

użytkownikom sieci. Najpopularniejszym typem połączenia transportowego jest wolny od błędów dwupunktowy kanał, który przekazuje wiadomości lub bajty w kolejności wysłania. Jednakże inne możliwe typy usług transportowych to przesył izolowanych wiadomości bez gwarancji kolejności doleczenia oraz rozgłaszanie wiadomości pod wiele adresów. Typ usługi jest ustalany podczas nawiązywania popaczenia.

• Fizycznie kanał wolny od błędów jest niemożliwy do zrealizowania. Pod tym terminem

tak naprawdę mamy na myśli stopę błędów tak niska, że można ja w praktyce zignorować.

• Warstwa transportowa jest w pełni dwupunktowa, od źródła aż do odbiorcy. Inaczej mówiąc, program w komputerze źródłowym prowadzi konwersacje z analogicznym programem w komputerze docelowym, używając nagłówków wiadomości i komunikatów sterujących. W niższych warstwach protokoły łącza każdy komputer z bezpośrednimi sąsiadami, a nie komputer źródłowy z ostatecznym komputerem docelowym, który może byc oddzielony od źródłowego szeregiem routerów. Warstwy od 1 do 3 są łańcuchowe, natomiast warstwy od 4 do 7 są dwupunktowe (wymiana danych odbywa sie bezpośrednio pomiędzy punktem źródłowym, a punktem docelowym).

5* sesji

• Warstwa sesji pozwala użytkownikom różnych komputerów nawiązać pomiędzy nimi sesje.

Sesje oferują różnorodne usługi, w tym sterowanie dialogiem (śledzenie, na kogo przyszła kolej nadawać), zaradzanie żetonem (zapobieganie przed próba jednoczesnego wykonania krytycznej operacji przez dwie strony) i synchronizacje (wprowadzenie punktów kontrolnych w długich transmisjach pozwalających na kontynuacje od miejsca, w którym transmisja uległa załamaniu).

6* prezentacji

• W przeciwieństwie do niższych warstw, które zajmuje sie głównie przemieszczaniem bitów,

warstwa prezentacji odpowiada za składnie i semantykę przesyłanych informacji. Aby umożliwić komunikacje komputerom o odmiennej reprezentacji danych, wymieniane struktury danych mogą być definiowane w sposób abstrakcyjny, łącznie ze standardowym kodowaniem przeznaczonym do użycia „w kablu”. Warstwa prezentacji zarządza tymi abstrakcyjnymi strukturami danych i pozwala na definicje i wywiane struktur danych wyższego poziomu (np. rejestrów bankowych).

• „Sieciowa” kolejność bitów.

7* aplikacji

• Warstwa aplikacji zawiera szereg różnych protokołów potrzebnych użytkownikom. Jednym

z powszechnie używanych protokołów aplikacji jest HTTP (Hyper Text Transfer Protocol),

stanowiący podstawę WWW. Gdy przeglądarka chce pobrać stronę WWW, wysyła nazwę tej

strony do serwera przy użyciu HTTP, po czym serwer odsyła stronę do klienta. Inne protokoły aplikacji służą do przesyłu plików, poczty elektronicznej i obsługi grup dyskusyjnych.

Typy transmisji

Duplex

Transmisja dwukierunkowa (dupleks, ang. duplex) to, w informatyce i telekomunikacji,

określenie połączenia, w którym możliwe jest nadawanie i odbieranie informacji w obu kierunkach.

Nadajnik i odbiornik mogą zamienić się funkcjami lub pełnią te funkcje jednocześnie.

Wyróżnia się następujące typy dupleksu:

pełny dupleks (ang. full duplex) - informacje przesyłane są w obu kierunkach jednocześnie,bez spadku transferu;

połowiczny dupleks (ang. half duplex zwany też semidupleksem) - słabsza wersja, w której przesyłanie i odbieranie informacji odbywa się naprzemiennie, powodując spadek transferu.

Simpleks

Transmisja jednokierunkowe w telekomunikacji to określenie połączenia, w którym nie jest

możliwe przesyłanie informacji w dwóch kierunkach. Nadajnik i odbiornik nie mogą zamienić się funkcjami. Transmisja jest jednokierunkowa.Przełącznik jest mechaniczy (bo nie ma rozróżnienia częstotliwościowego), w stanie spoczynku nastawiony na odbiór- blokuje nadawanie

DNS

(ang. Domain Name System, system nazw domenowych) to system serwerów oraz protokół

komunikacyjny zapewniający zamianę adresów znanych użytkownikom Internetu na adresy

zrozumiałe dla urządzeń tworzących sieć komputerową. Dzięki wykorzystaniu DNS nazwa

mnemoniczna, np. pl.wikipedia.org, może zostać zamieniona na odpowiadający jej adres IP, czyli 145.97.39.135.

Adresy DNS składają się z domen internetowych rozdzielonych kropkami. Dla przykładu w adresie Wikipedii org oznacza domenę funkcjonalną organizacji, wikipedia domenę należącą do fundacji Wikimedia, a pl polską domenę w sieci tej instytucji. W ten sposób możliwe jest budowanie hierarchii nazw, które porządkują Internet. DNS to złożony system komputerowy oraz prawny. Zapewnia z jednej strony rejestrację nazw domen internetowych i ich powiązanie z numerami IP. Z drugiej strony realizuje bieżącą obsługę komputerów odnajdujących adresy IP odpowiadające poszczególnym nazwom.

System DNS posiada następujące cechy:

• Nie ma jednej centralnej bazy danych adresów IP i nazw. Najważniejszych jest 13 serwerów rozrzuconych na różnych kontynentach.

• Serwery DNS przechowują dane tylko wybranych domen.

• Każda domena ma co najmniej 2 serwery DNS obsługujące ją, jeśli więc nawet któryś z nich będzie nieczynny, to drugi może przejąć jego zadanie.

• Serwery DNS przechowują przez pewien czas odpowiedzi z innych serwerów

(ang. caching), a więc proces zamiany nazw na adresy IP jest często krótszy niż w podanym

przykładzie.

• Każdy komputer może mieć wiele różnych nazw. Na przykład komputer o adresie IP

207.142.131.245 ma nazwę pl.wikipedia.org oraz de.wikipedia.org

• Czasami pod jedną nazwą może kryć się więcej niż 1 komputer po to, aby jeśli jeden z nich

zawiedzie, inny mógł spełnić jego rolę.

• Jeśli chcemy przenieść serwer WWW na inny szybszy komputer, z lepszym łączem ale

z innym adresem IP, to nie musimy zmieniać adresu WWW strony, a jedynie w serwerze

DNS obsługującym domenę poprawiamy odpowiedni wpis.

• Protokół DNS posługuje się do komunikacji głównie protokołem UDP.

• Serwery DNS działają na porcie numer 53.

ARP

(ang. Address Resolution Protocol) - protokół komunikacyjny przekształcania adresów IP

(ustalanych autorytarnie przez użytkownika/administratora) na fizyczne, 48-bitowe adresy MAC (przypisane fizycznie m.in. do kart sieciowych) w komputerowych sieciach lokalnych typu Ethernet. Każdy komputer w sieci powinien posiadać tzw. tablicę ARP. Znajduje się w niej adres IP i przypisany do niego adres MAC. Dzięki temu komputery mogą się ze sobą komunikować za pośrednictwem adresu MAC, ale tylko w obrębie danej sieci LAN. Jeśli jakieś informacje mają być przesłane do innej sieci (lub podsieci w sieci złożonej, sieci oddzielonej routerem, itp.), to adres MAC musi być zastąpiony adresem IP.

ARP jest protokołem pracującym na drugiej warstwie modelu ISO/OSI, czyli warstwie łącza

danych, ponieważ pracuje ona na ramkach i może je analizować tzn. np. sprawdzać ich poprawność.

RIP

(ang. Routing Information Protocol), czyli Protokół Informowania o Trasach należący do grupy protokołów bram wewnętrznych (IGP), oparty jest na zestawie algorytmów wektorowych, służących do obliczania najlepszej trasy do celu. Używany jest w Internecie w sieciach korzystających z protokołu IP (zarówno wersji 4 jak i 6). Z powodu znacznego rozrostu sieci IETF protokół RIP 2 jest teraz standardowo wykorzystywany.

Cechy protokołu RIP

• Jest to protokół routingu działający na podstawie algorytmu wektora odległości.

• Do utworzenia metryki złożonej stosuje się jedynie liczbę przeskoków.

• Aktualizacje routingu są rozgłaszane domyślnie co 30 sekund tylko do ruterów sąsiednich.

• RIP wysyła informacje o trasach w stałych odstępach czasowych oraz po każdej zmianie

topologii sieci.

• Pomimo wieku, oraz istnienia bardziej zaawansowanych protokołów wymiany informacji

o trasach, RIP jest ciągle w użyciu. Jest szeroko używany, dobrze opisany i łatwy

w konfiguracji i obsłudze, oraz .

• Wadami protokołu RIP są wolny czas konwergencji (inaczej długi czas osiągania

zbieżności), niemożliwość skalowania powyżej 15 skoków a także wybór mało optymalnych

ścieżek i brak mechanizmów równoważenia obciążenia przez nadmiarowe łącza.

• Uaktualnienia protokołu RIP przenoszone są przez UDP na porcie 520 (w wersji 2-giej

wykorzystywana jest technologia Multicast na adres 224.0.0.9).

OSPF

(ang. Open Shortest Path First), w wolnym tłumaczeniu: "pierwszeństwo ma najkrótsza ścieżka"

- jest to protokół routingu typu stanu łącza (ang. Link State). Jest zalecanym protokołem wśród protokołów niezależnych (np. RIP, ang. Routing Information Protocol).

W przeciwieństwie do protokołu RIP, OSPF charakteryzuje się dobrą skalowalnością, wyborem optymalnych ścieżek i brakiem ograniczenia skoków powyżej 15, przyspieszoną zbieżnoscią. Przeznaczony jest dla sieci posiadających do 50 routerów w wyznaczonym obszarze routingu. Cechami protokołu OSPF są: routing wielościeżkowy, routing najmniejszym kosztem i równoważne obciążenia.

OSPF jest protokołem wewnętrznej bramy - IGP (ang. Interior Gateway Protocol).

Routery korzystające z tego protokołu porozumiewają się ze sobą za pomocą pięciu komunikatów:

Hello - nawiązywanie i utrzymywanie relacji sąsiedzkich,

database descriptions - opis przechowywanych baz danych,

requests link-state - żądanie informacji na temat stanów połączeń,

updates link-state - aktualizacja stanów połączeń,

acknowledgments links-state - potwierdzenia stanów połączeń.

Protokół OSPF używa hierarchicznej struktury sieci z podziałem na obszary z centralnie

umieszczonym obszarem zerowym (ang. area 0), który pośredniczy w wymianie tras między

wszystkimi obszarami w domenie OSPF.

OSPF jest protokołem typu link-state jedynie wewnątrz obszaru. Oznacza to, że w ramach

pojedynczego obszaru wszystkie routery znają całą jego topologię i wymieniają się między sobą informacjami o stanie łącz, a każdy z nich przelicza trasy samodzielnie (algorytm Dijkstry). Między obszarami OSPF działa jak protokół typu distance-vector, co oznacza, że routery brzegowe obszarów wymieniają się między sobą gotowymi trasami. Istnienie obszaru zerowego umożliwia trasowanie pakietów pomiędzy obszarami bez powstawania pętli

BGP

(ang. Border Gateway Protocol) protokół bramy brzegowej - zewnętrzny protokół routingu. Jest protokołem wektora ścieżki działającym i umożliwiającym tworzenie bezpętlowych sieci IP między różnymi systemami autonomicznymi.

Zadaniem BGP jest wymiana informacji między systemami autonomicznymi. Protokół ten nie

używa metryk. Do jego głównych zalet należy zapewnienie pełnej redundancji łączy.

Protokół BGP funkcjonuje w oparciu o protokół warstwy 4 (port TCP o numerze 179). Umożliwia to zapewnienie, że aktualizacje są wysyłane w sposób niezawodny, pozostawiając protokołowi routingu zbieranie informacji o zdalnych sieciach i zapewnienie topologii bezpętlowej.

Relacje między sąsiadami BGP tworzone są dzięki protokołowi TCP, dlatego nie wymagają

istnienia bezpośredniego sąsiedztwa routerów (ang. adjacency).

Podstawą funkcjonowania BGP jest system autonomiczny, (ang. Autonomous System, AS) , czyli sieć lub grupa sieci pod wspólną administracją i ze wspólną polityką rutingu. Systemy

autonomiczne identyfikowane są za pomocą numerów, zwanych numerami AS. Protokół BGP w wersji aktualnej (v4) zakłada dwubajtowe numery AS, co ze względu na ich ograniczoną ilość stanowi poważniejsze ograniczenie rozwoju Internetu niż brak numerów IP. Protokół BGP służy do nawiązywania relacji między poszczególnymi systemami autonomicznymi. Możemy rozróżnić eBGP (ang. exterior), gdy mamy sesję między dwoma różnymi AS, oraz iBGP (ang. interior), gdy sesja BGP nawiązana jest między dwoma takimi samymi AS - oba typy BGP delikatnie różnią się funkcjonalnością. Podobnie możemy sesje BGP podzielić na takie, gdy między ruterami jest bezpośrednie sąsiedztwo, oraz takie, gdy sąsiedztwa bezpośredniego nie ma, te ostatnie nazywają się BGP multihop i są rzadziej używane, gdyż najczęściej do prawidłowego działania wymagają wsparcia innych protokołów rutingu dynamicznego bądź też rutingu statycznego.

Każdy system autonomiczny może rozgłaszać pewną ilość adresów IP, zgrupowanych w prefiksy.

Np. www.onet.pl ma adres IP 213.180.130.200, Onet.pl rozgłasza prefiks 213.180.128.0/20

(czyli zakres IP 213.180.128.0-213.180.143.255) pod AS o numerze 12990.

Cechy charakterystyczne

• Protokół wektora scieżki;

• Używa TCP jako protokołu warstwy transportu;

• Pełna tablica routingu jest wymieniana tylko podczas początkowej sesji BGP;

• Aktualizacje przesyłane sa przez port TCP o numerze 179;

• Sesje BGP są utrzymywane przez wiadomości typu "keepalive";

• Każda zmiana w sieci powoduje wysłanie zawiadomienia o aktualizacji;

• BGP ma swoją własną tablicę BGP. Każda pozycja w sieci musi znaleźć się najpierw

w tablicy BGP;

• BGP ma skomplikowaną tabelę metryk, zwanych atrybutami, np. sąsiedniego skoku

i pochodzenia;

• Obsługuje VLSM i podsumowanie (zwane też bezklasowym routingiem

między-domenowym (ang. Classless Inter-Domain Routing [CIDR]));

BGP posiada wiele złożonych atrybutów wyznaczających ścieżkę do zdalnej sieci. Pozwalają one na większą elastyczność i podejmowanie złożonych decyzji dotyczących routingu, aby wybrana ścieżka do sieci zdalnej była najlepszą z możliwych. Gdy protokół BGP otrzyma wiele ścieżek do kontretnego celu w zdalnej sieci, wybierze zawsze tylko jedną z nich. BGP zawsze propaguje najlepszą ścieżkę do wszystkich routerów równorzędnych. Atrybuty BGP są przenoszone w pakietach aktualizacji

SNMP (angielskiego Simple Network Management Protocol) - standard protokołu używanego do nadzoru i zarządzania różnymi elementami sieci komputerowych, takimi jak routery, przełączniki, komputery, itp.

Protokół SNMP zakłada istnienie w zarządzanej sieci dwóch rodzajów urządzeń: zarządzających i zarządzanych. Urządzenie (komputer) jest zarządzającym (tzw. NMS, ang. Network Management Station) gdy jest na nim uruchomiony odpowiedni program, manager SNMP (zarządca SNMP). Urządzenie jest zarządzane jeśli działa na nim program agent SNMP.

W procesie zarządzania używane są bazy MIB (ang. Management Information Base - baza informacji zarządzania), czyli zbiory zmiennych, które manager SNMP w zależności od uprawnień może odczytać lub zmienić. W tym celu manager SNMP kontaktuje się z agentem na danym zarządzanym urządzeniu wykorzystując jedno z dwóch wcześniej skonfigurowanych haseł:

hasło odczytu, tzw. public_community,

hasło zapisu, tzw. private_community.

Odczytanie wybranej zmiennej daje managerowi określoną informację o stanie danego elementu sieci, podczas gdy zapis do danej zmiennej pozwala mu na sterowanie zachowaniem się urządzenia w sieci.

Oprócz operacji odczytu i zapisu zmiennych w agencie przez managera istnieje również możliwość takiego skonfigurowania agenta aby sam poinformował danego managera o zmianie swojego stanu w przypadku zajścia określonego zdarzenia. Odbywa się to przy pomocy wysyłanego przez agenta komunikatu Trap lub (od wersji drugiej protokołu SNMP) przy pomocy komunikatu Inform.

SNMP domyślnie działa na porcie 161 TCP oraz UDP.

Komunikaty Trap są domyślnie wysyłane do portu 162 TCP lub UDP.

SNMP to obecnie najpopularniejszy protokół służący do zarządzania sieciami. Swoją popularność zawdzięcza następującym zaletom:

Stosunkowo małe dodatkowe obciążenie sieci generowane przez sam protokół.

Niewielka ilość poleceń własnych obniża koszty urządzeń go obsługujących.

Niskie koszty wdrożenia do eksploatacji.

Główne wady SNMP:

Brak zapewnienia bezpieczeństwa przesyłanym danym (SNMP w wersji pierwszej i drugiej).

Skomplikowana praca agenta.

DHCP (ang. Dynamic Host Configuration Protocol - protokół dynamicznego konfigurowania węzłów) to protokół komunikacyjny umożliwiający komputerom uzyskanie od serwera danych konfiguracyjnych, np. adresu IP hosta, adresu IP bramy sieciowej, adresu serwera DNS, maski sieci.

Protokół DHCP opiera się na protokole BOOTP (Bootstrap Protocol), jednak w stosunku do niego zawiera wiele ulepszeń. Niewątpliwie najbardziej interesującym jest dynamiczne przydzielanie adresów IP. Serwer DHCP korzysta przy tym z predefiniowanego obszaru adresowego i przydziela kolejnym klientom, które o to występują, adres IP na określony czas (lease). W czasie trwania okresu lease klient DHCP nie występuje do serwera DHCP podczas startu systemu o nowy adres, a jedynie żąda potwierdzenia istniejącego stanu lease. Protokół DHCP minimalizuje również możliwe źródła błędów. Na życzenie podaje, oprócz adresu IP, również inne parametry, jak choćby standardowa brama, czy adresy serwerów nazw. Specyfikacja techniczna protokołu DHCP zawarta jest w RFC 2131.

Już uproszczony opis przydzielania adresów unaocznia cykliczny charakter interakcji między klientem a serwerem. Cały proces uzgadniania i przydzielania jest czteroetapowy.

Ujawnienie DHCP (Discover)

Klient protokołu DHCP emituje pakiet żądania konfiguracji DHCPDISCOVER, dostarczając swój adres MAC oraz nazwę hosta. Jeżeli dany klient miał wcześniej przydzielony adres IP, to wysyła również tę informację w polu opcji żądany adres. W ten sposób klient często utrzymuje ten sam adres, nawet jeżeli został wyłączony na dłużej niż czas trwania jego dzierżawy.

Oferta DHCP

Każdy serwer DHCP otrzymujący żądanie odpowiada pakietem emisji DHCPOFFER, zawierającym oferowany adres IP (jeżeli ma jeden lub więcej nieprzydzielonych) oraz jego własny adres IP. Serwery DHCP na dalekim końcu routera mogą odpowiadać na emisję DHCPDISCOVER pod warunkiem, że router ma włączone przesyłanie ruchu emisji DHCP.

Żądanie DHCP (Request)

To kolejny pakiet również wysyłany przez klienta jako rozgłoszenie. Powodem takiego postępowania jest potrzeba powiadomienia jednego serwera o przyjęciu oferty i, jednocześnie, wszystkich pozostałych o jej odrzuceniu. W przypadku odebrania wielu ofert DCHP, proces podejmowania decyzji przez klienta firmy Microsoft przebiega następująco:

klient DHCP przyjmuje ofertę z serwera, który przydzielał adres IP używany ostatnio,

jeżeli serwer przydzielający wcześniejszy adres nie odpowiada, przyjmowana jest pierwsza oferta odebrana.

Potwierdzenie DHCP

Serwer DHCP oficjalnie przydziela żądany adres klientowi w pakiecie emisji DHCPACK. Pakiet zawiera również podane w żądaniu parametry opcjonalne, długość całkowitego okresu dzierżawy adresu oraz okresów jego odnawiania. Serwer przechowuje te informacje w swojej bazie danych jako przydzieloną dzierżawę.

Odświeżanie (odnawianie) DHCP

Nieodłącznym elementem przydzielenia klientowi adresu IP przez serwer DHCP jest przyznanie dodatkowo tzw. czasu użytkowania (lease). Określa on czas ważności ustawień. W tle pracują dwa zegary - T1 odmierza połowę czasu użytkowania, zaś T2 - 87,5 procent pełnego czasu użytkowania. Obie wartości można zmienić w opcjonalnych ustawieniach serwera DHCP - jeśli takie funkcje zostały zaimplementowane. Po upływie czasu T1 klient wysyła komunikat DHCPREQUEST do serwera i pyta, czy serwer może przedłużyć czas użytkowania. Stan ten określa się jako renewing status. Z reguły serwer odpowiada wiadomością DHCPACK i przydziela nowy czas użytkowania. Serwer resetuje wówczas zegary T1 i T2.

Jeżeli po upływie czasu T2 klient nie otrzyma wiadomości DHCPACK, rozpoczyna się tak zwany rebinding status. Klient musi wysłać komunikat DHCPREQUEST, żeby uzyskać przedłużenie czasu użytkowania. Serwer może odpowiedzieć na to żądanie potwierdzeniem DHCPACK. Jeżeli jednak i to żądanie pozostanie bez odpowiedzi, klient musi zażądać nowego adresu IP. Wkracza wówczas ponownie opisany na początku mechanizm, który rozsyła zapytania do wszystkich serwerów DHCP w sieci.

Obszar adresowania a czas użytkownika

Zanim serwer DHCP będzie w ogóle mógł zacząć przydzielać klientom adresy IP, musi zostać wyposażony w informacje na temat przewidzianego do tych celów obszaru adresowego (rangę). Obszar adresowy jest zdefiniowany poprzez adres początkowy i końcowy. W zależności od implementacji mogą też być obszary wykluczone, a więc takie, których serwer nie może przydzielać. Gwarantuje to bezkolizyjne współistnienie w sieci adresów stałych i dynamicznie przydzielanych. Czas użytkowania określany jest zwykle w dniach, godzinach i minutach. Nie ma w tym względzie żadnej złotej reguły. Parametr ten, jeśli w ogóle jest zaimplementowany w poszczególnych produktach, musi uwzględniać obciążenie serwera, zachowanie klientów i stabilność sieci. Decydujące znaczenie ma liczba potencjalnych klientów. Reguła brzmi: czas użytkowania powinien być dwukrotnie dłuższy niż czas potrzebny do przywrócenia pracy serwera w razie jego awarii. W przypadku długiego czasu użytkowania, odpowiednio później uwzględniane są zmiany opcji DHCP po stronie klientów.

FDDI (ang. Fiber Distributed Data Interface) to standard transmisji danych, jest oparty na technologii światłowodowej. Transfer w tych sieciach wynosi 100 Mb/s. Sieć ta zbudowana jest z dwóch pierścieni - pierścień pierwotny i pierścień zapasowy (wtórny). Transmisja prowadzona jest z użyciem jednego pierścienia. Istnieją modyfikacje protokołu pozwalające na używanie dwóch pierścieni lecz są rzadko stosowane z powodu dwukrotnego spadku przepustowości po uszkodzeniu pierścienia i rekonfiguracji sieci. W sieci takiej stacje robocze podłączone są do dwóch pierścieni. Zaletą takiej sieci jest to, że mimo uszkodzenia pierścienia sieć jest nadal sprawna i można przesyłać dane. W przypadku uszkodzenia pierścienia stacje robocze automatycznie się rekonfigurują i zawracają dane do drugiego pierścienia, przez co inne stacje nie zauważają zaistniałej awarii.

FDDI obsługuje dwa typy połączeń: SAS (ang. single-attached stations) i DAS (ang. dual-attached stations). Oznacza to, że karty sieciowe FDDI mogą posiadać dwa zestawy interfejsów medium fizycznego. Znane są one jako porty A i B. Port A jest interfejsem głównym, a port B wtórnym.

Sieci FDDI stosuje się przede wszystkim w sieciach szkieletowych lub kampusowych, ponieważ dzięki nim można podłączyć ok. 500 urządzeń rozrzuconych na przestrzeni nawet 100 km.

Parametry:

Przepływność: 100 Mb/s

Metoda dostępu: Token Passing

Medium transmisyjne: kabel światłowodowy (jedno- i wielomodowy)

Topologia: podwójny pierścień (ang. Dual Ring)

Specyfikacje

Technologia FDDI opisana jest w 4 oddzielnych specyfikacjach, z których każda opisuje określoną funkcję, łącznie zapewniają one możliwość szybkiego połączenia z protokołami wyższych warstw np. TCP/IP, a medium takim jak kabel światłowodowy.

Media Access Control (MAC)

Physical-Layer Protocol (PHY)

Physical-Medium Depedent (PMD)

Station Management (SMT)

Specyfikacja MAC definiuje metodę dostępu do medium, w tym format ramki, sterowanie elementem token, adresowanie, algorytmy dla obliczania wartości CRC i mechanizm usuwania błędów. Specyfikacja PHY definiuje procedurę kodowania/rozkodowania, tworzenie ramek i inne funkcje. PMD specyfikuje charakterystyki medium transmisyjnego , poziom mocy, częstotliwość występowania błędów, komponenty optyczne i złącza. Specyfikacja SMT określa konfiguracje stacji FDDI, konfigurację pierścienia i sposoby sterowania pierścieniem, podłączanie i usuwanie stacji, izolowanie i usuwanie błędów.

CSMA/CD (ang. Carrier Sense Multiple Access / with Collision Detect) to protokół wielodostępu CSMA ze śledzeniem stanu dostępności medium transmisyjnego i wykrywaniem kolizji.

Wielodostęp ze śledzeniem częstotliwości nośnej - Kiedy urządzenie lub węzeł w sieci posiada dane, które chce przesłać - nasłuchuje łącza, sprawdzając czy jakieś inne urządzenie nie przesyła danych w linii transmisyjnej. Dane będą wysłane jedynie wtedy, gdy nie zostanie wykryty żaden sygnał świadczący o tym, że jakieś urządzenie w sieci wysyła dane. Węzeł, który nie wysyła danych, nasłuchuje, czy inne urządzenia wysyłają do niego dane.

Istnieje możliwość, że dwa lub więcej urządzeń przystąpi do wysyłania danych w tej samej chwili lub zanim sygnał z pierwszego węzła dotrze do drugiego. W takiej sytuacji żadne z nich nie wykryje sygnału nośnej drugiego. W efekcie obydwa urządzenia wysyłając dane w (prawie) tym samym czasie spowodują kolizję w sieci Ethernet. Możliwość wystąpienia takiej sytuacji rodzi potrzebę stworzenia mechanizmów pozwalających tę kolizję wykryć i wyeliminować jej skutki.

Wykrywanie kolizji - Urządzenie podczas wysyłania swoich danych, monitoruje swoją własną transmisję. W tym celu sprawdza wartość sygnału w kanale transmisyjnym i porównuje je z aktualnie nadawanym przez siebie stanem logicznym, używając w tym celu przetwornika A/C. Urządzenie, które wykryło kolizję, zatrzymuje wysyłanie danych i wysyła sekwencję informującą o kolizji (sygnał zagłuszania, tzw. JAM), aby zasygnalizować innym węzłom, że dane są nieważne (na pewno zostaną błędnie odebrane). Poziom sygnału informującego o kolizji (prądu, ponieważ zgodnie z CSMA/CD węzły są nadajnikami prądu o stabilizowanym natężeniu) jest wyższy od normalnie generowanego przez węzeł, aby mieć pewność, że każdy węzeł odebrał sekwencję informującą o kolizji. Potem węzły, które weszły w kolizję będą chciały retransmitować sygnał. Robią to sprawdzając po losowo wybranym czasie zajętość kanału i ponownie transmitując, przy czym losowany czas oczekiwania może być dłuższy po kilku kolizjach (system z "eksponencjalnym naleganiem"). Należy zauważyć, że powyższe zasady nie tylko wykrywają kolizje, lecz również zmniejszają ryzyko ich wystąpienia. Dlaczego? Ponieważ ilość wysyłanych pakietów się zmniejsza w porównaniu z siecią CSMA: dzięki wykrywaniu kolizji nie jest potrzebne potwierdzanie każdej ramki (co było w CSMA), ponieważ każdy węzęł, który nadał ramkę bezkolizyjnie zakłada, że dane dotarły bez problemów do węzła odbiorczego (w sieci przewodowej jest bardzo małe prawdopodobieństwo przekłamania bitu z innego powodu).

Należy wspomnieć, że w przypadku zapełnienia łącza protokół ten generuje duże straty czasowe. Dlatego powstał mechanizmy CSMA/AMP i CSMA/CA+AMP (ang. AMP - Arbitration on Message Priority, czyli arbitraż w oparciu o priorytet wiadomości).

Protokół CSMA/CD jest wykorzystywany w sieciach LAN typu Ethernet.

CSMA/CA (ang. Carrier Sense Multiple Access with Collision Avoidance) to protokół wielodostępu do łącza ze śledzeniem stanu nośnika i unikaniem kolizji. Jest to rozszerzona wersja CSMA.

Sposób arbitrażu w przypadku, gdy kilka urządzeń próbuje wysyłać informacje na tym samym łączu w tym samym czasie jest następujący: każde urządzenie przed próbą wejścia na linię wysyła sygnał próbny (pilot) i jeżeli nie zaszła kolizja z sygnałem innego urządzenia - uzyskuje zgodę na nadawanie. Należy wspomnieć, że w przypadku zapełnienia łącza protokół ten generuje duże straty czasowe. Dlatego powstał mechanizmy CSMA/AMP i CSMA/CA+AMP (ang. AMP - Arbitration on Message Priority, czyli arbitraż w oparciu o priorytet wiadomości).

Protokół CSMA/CA ma zastosowanie w bezprzewodowych sieciach WLAN. Stacja odbierająca dane od terminali i zarządzająca ruchem to tzw. Access Point.

ADRESY

Protokół IP wymienia dane między komputerami w postaci datagramów. Każdy datagram jest dostarczony pod adres umieszczony w polu ADRES ODBIORCY, znajdujący się w nagłówku. Adres internetowy to 32-bitowe słowo. Słowo to dzieli się na dwie części: jedna identyfikuje sieć w której dany komputer się znajduje, a druga numer danego komputera. Komputery dołączone do tej samej sieci muszą posiadać taką samą cząstkę identyfikującą daną sieć. Podział adresów IP na sieć i host jest podstawowym warunkiem sprawnego kierowania ruchem pakietów IP (czyli tzw. routingu).

Klasa Najniższy adres Najwyższy adres

A 1.0.0.0 127.0.0.0

B 128.0.0.0 191.255.0.0

C 192.0.0.0 223.255.255.0

D 224.0.0.0 239.255.255.255

E 240.0.0.0 248.255.255.255

Adresy internetowe dzielą się na klasy. Adres należący do danej klasy rozpoczyna się określoną sekwencją bitów, która jest używana przez oprogramowanie internetowe znajdujące się na każdym komputerze do identyfikacji klasy danego adresu. Kiedy klasa adresu zostanie rozpoznana oprogramowanie sieciowe jest

w stanie określić które bity są używane do określenia sieci, a które konkretnego komputera.

Adres klasy A posiada bit zerowy ustawiony na zero, 7-bitowy numer sieci i 24-bitowy adres komputera. 128 sieci klasy A pozwala utworzyć do 16.777.214 adresów komputerowych w każdej z nich.

Adres klasy B posiada dwa najstarsze bity ustawione w sekwencję 1-0, 14-bitowy adres sieci i 16-bitowy adres komputera w tej sieci. 16.384 sieci klasy B mogą być zdefiniowane z 65.534 komputerami w każdej z nich.

Adres klasy C posiada trzy najważniejsze bity ustawione w kombinację 1-1-0, 21-bitowy adres sieci i 8-bitowy adres komputera w tej sieci. Pozwala to zdefiniować 2.097.152 sieci klasy C z 254 komputerami w każdej z nich.

Adresy klasy A odnoszą się najczęściej do dużych sieci zawierających wiele komputerów, adresy klasy B odpowiadają sieciom średniej wielkości, zaś adresy klasy C małym sieciom. Adresy klasy D to tzw. adresy grupowe wykorzystywane

w sytuacji, gdy ma miejsca jednoczesna transmisja do większej liczby urządzeń. Klasa E jest eksperymentalna i w zasadzie niewykorzystywana.

Dla ułatwienia, adres internetowy jest przedstawiony jako cztery liczby dziesiętne

z zakresu od 0 do 255 oddzielone kropkami. Taki format zapisu adresu określa się jako DDN lub IP address. Notacja dzieli 32-bitowy adres na cztery 8-bitowe pola nazwane oktetami i przekształca niezależnie wartość każdego pola na liczbę dziesiętną. Wówczas podział na klasy wygląda następująco:

Adresy zarezerwowane

Nie wszystkie adresy sieci i komputerów są dostępne dla użytkowników. Adresy, których pierwszy bajt jest większy od 223 są zarezerwowane. Także dwa adresy klasy A, 0 i 127 są przeznaczone do specjalnego zastosowania. Sieć 0 oznacza domyślną trasę, a sieć 127 jest to tak zwany loopback address. Domyślna trasa jest używana do ułatwienia wyboru marszrut, które to zadani musi wykonywać IP. Loopback address jest przydatny aplikacją sieciowym, pozwalając im na adresowanie komputera lokalnego w ten sam sposób co komputerów oddalonych. Tych specjalnych adresów używamy konfigurując komputer.

Także pewne adresy komputerów są zarezerwowane do specjalnych celów. Są to we wszystkich klasach sieci, adresy komputerów 0 i 255. Adres IP posiadający wszystkie bity adresu komputera równe 0, identyfikuje sieć jako taką. Na przykład, 26.0.0.0 oznacza sieć 26, a 172.16.0.0 odnosi się do sieci komputerowej 172.16. Adresy w takiej formie są stosowane w tablicach rutowania do wskazywania całych sieci.

Adresacja prywatna IP

W celu dowolnego wykorzystywania adresów IP stworzono specjalne prywatne pule adresowe w poszczególnych klasach adresów IP. Adresy można dowolnie stosować w sieciach prywatnych, natomiast aby sieć prywatną z tymi adresami IP podłaczyć do sieci globalnej (publicznej) musimy zastosować NAT (translację adresów) i posiadać przyznany adres publiczny.

Adresy prywatne IP to:

w klasie A: zakres od 10.0.0.0 do 10.255.255.255 (cała klasa A)

w klasie B: zakres od 172.16.0.0 do 172.31.255.255

w klasie C: zakres od 192.168.0.0 do 192.168.255.255

Adresy IP specjalnego przeznaczenia (oprócz adresów prywatnych):

0.0.0.0 - sieć nieznana, zwykle oznacza default

127.0.0.0 - 127.255.255.255 - loopback/adres lokalny

255.255.255.255 - ograniczony broadcast

Repeter - Nazywany jest również wzmacniakiem lub regeneratorem.

Informacja przesyłana kablem ulega zniekształceniom proporcjonalnie do jego długości. Jednym z urządzeń, które wzmacnia i regeneruje sygnały przesyłane kablem jest repeater. Repeater służy więc do fizycznego zwiększania rozmiarów sieci . Zwykle zawierają one z kilka wzmacniaków.

Repeater powtarza (kopiuje) odbierane sygnały i wzmacnia sygnał . Polega to na zwiększeniu poziomu odbieranego przebiegu falowego bez zmiany jego częstotliwości. Jest to najprostsze urządzenie tego typu. Może łączyć tylko sieci a takiej samej architekturze, używające tych samych protokołów i technik transmisyjnych. Potrafi jednak łączyć segmenty sieci o różnych mediach transmisyjnych.

Jest urządzeniem nieinteligentnym, nie zapewnia izolacji między segmentami, nie izoluje też uszkodzeń i nie filtruje pakietów, w związku z czym informacja, często o charakterze lokalnym, przenika do pozostałych segmentów, obciążając je bez potrzeby. Dlatego też jego cena jest relatywnie niewysoka.

Repeatery wykorzystuje się obecnie w małych sieciach lokalnych.

WLAN

Sieć bezprzewodowa LAN (ang. Wireless LAN) - sieć lokalna zrealizowana bez użycia

przewodów. Używane dziś powszechnie przewodowe sieci LAN umożliwiają wzajemne łączenie np. komputerów PC z wykorzystaniem do tego celu różnych typów kabli i światłowodów.

Natomiast WLAN to sieć lokalna zrealizowana bez użycia przewodów. Sieci tego typu

wykonywane są najczęściej z wykorzystaniem fal radiowych jako medium przenoszącego sygnały ale również z użyciem podczerwieni. Są one projektowane z użyciem standardu IEEE 802.11. Do komunikacji za pomocą fal radiowych wykorzystuje się pasmo 2,4 GHz lub rzadziej 5 GHz. Szybkość przesyłania danych zależna jest od użytego standardu i odległości pomiędzy użytymi urządzeniami i wynosi najczęściej 11, 22, 44, 54 lub 108 Mbps.

Na całość infrastruktury sieci bezprzewodowych składają się następujące elementy:

• karty sieciowe - najczęściej typu PCI, USB lub PCMCIA

• punkty dostępowe (ang. Access Point)

• anteny

• kable, złącza, konektory, przejściówki, rozdzielacze antenowe, terminatory

Do zalet sieci bezprzewodowych należy:

• mobilność - końcówki mogą się przemieszczać

• łatwość instalacji - nie trzeba kłaść przewodów

• elastyczność - łatwe dokładanie nowych końcówek

• zasięg - od kilku metrów (w budynkach) do kilkudziesięciu kilometrów

• szybka rozbudowa i modyfikacja struktury sieci.

Miejsca coraz powszechniejszych instalacji sieci WLAN:

• Transport - wymiana informacji przy transporcie towarów, przemieszczania ładunków

uaktualnianie znaków drogowych itp.

• Handel - szybkie zmiany w organizacji wnętrz

• Opieka zdrowotna - możliwość uzyskiwania przez lekarzy i personel szybkiego dostępu

dodanych pacjenta oraz korzystania z konsultacji, a także zdalnego używania komputerowo

sterowanego sprzętu medycznego

• Usługi finansowe - łatwa organizacja usług bankowych i operacji handlowych

• Edukacja - dostępność uniwersyteckich komputerów z różnych punktów uczelni

• Produkcja - możliwość zdalnego sterowania pracą robotów



Wyszukiwarka

Podobne podstrony:
nowe zadanie, !!!Uczelnia, wsti, materialy, III SEM, teleinformatyka, zadania raporty
WIRTUALNA SIE PRYWATNA, !!!Uczelnia, wsti, materialy, III SEM, teleinformatyka, voip vpn
Serwer Poczty, !!!Uczelnia, wsti, materialy, III SEM, teleinformatyka, windows2003 server
zadanie1 tresc, !!!Uczelnia, wsti, materialy, III SEM, teleinformatyka
EGZAMIN U PAW A JANIKA, !!!Uczelnia, wsti, materialy, III SEM, teleinformatyka, egzamin
Analiza i przetwarzanie obraz w W.1, !!!Uczelnia, wsti, materialy, III SEM, Wyk ady
lista pytan ustne, !!!Uczelnia, wsti, materialy, III SEM, programowanie c
Analiza i przetwarzanie obraz w W.6, !!!Uczelnia, wsti, materialy, III SEM, Wyk ady
Analiza i przetwarzanie obraz w W.7, !!!Uczelnia, wsti, materialy, III SEM, Wyk ady
Analiza i przetwarzanie obraz w W.1, !!!Uczelnia, wsti, materialy, III SEM, Wyk ady
quota, !!!Uczelnia, wsti, materialy, II SEM, systemy operacyjne linux
algorytmy egzamin, !!!Uczelnia, wsti, materialy, II SEM, algorytmy struktury danych
algebra zbior w, !!!Uczelnia, wsti, materialy, II SEM, matematyka
ALGORYTMY I STRUKTURY DANYCH, !!!Uczelnia, wsti, materialy, II SEM, algorytmy struktury danych
AiSD Egzamin 2005, !!!Uczelnia, wsti, materialy, II SEM, algorytmy struktury danych
AiSD Egzamin Zadania, !!!Uczelnia, wsti, materialy, II SEM, algorytmy struktury danych
algo zadania egzamin, !!!Uczelnia, wsti, materialy, II SEM, algorytmy struktury danych, egzamin
Sciaga Przykladowe Zadania, !!!Uczelnia, wsti, materialy, II SEM, algorytmy struktury danych
systemy operacyjne egzamin pytania-odpowiedzi, !!!Uczelnia, wsti, materialy, II SEM

więcej podobnych podstron