Internet od podstaw


Internet od podstaw

Trochę historii

Burzliwy rozwój Internetu, którego jesteśmy świadkami w ostatnich latach, u osób niezorientowanych może wywołać wrażenie, iż sieć ta jest wynalazkiem bardzo świeżej daty. Tymczasem historia Internetu sięga już ponad ćwierć wieku wstecz. Zaczyna się ona 1 września 1969 roku, kiedy to w Uniwersytecie Kalifornijskim w Los Angeles (UCLA), a wkrótce potem w trzech następnych uniwersytetach, zainstalowano w ramach eksperymentu finansowanego przez ARPA (Advanced Research Projects Agency - agencję rządu amerykańskiego, zajmującą się koordynowaniem badań naukowych na potrzeby wojska) pierwsze węzły sieci ARPANET - bezpośredniego przodka dzisiejszego Internetu. Eksperyment miał zbadać możliwość zbudowania sieci komputerowej bez wyróżnionego punktu centralnego, która mogłaby funkcjonować nawet pomimo uszkodzenia pewnej jej części. Wszystkie istniejące do tej pory sieci zarządzane były przez jeden główny komputer, którego awaria pozbawiała możliwości pracy całą sieć. Sieć taka nie nadawała się do dowodzenia armią podczas wojny, gdyż taki główny węzeł sieci byłby oczywiście pierwszym celem ataku przeciwnika. Postanowiono więc wypróbować zaproponowaną kilka lat wcześniej przez RAND Corporation (kolejną instytucję związaną z badaniami wojskowymi) koncepcję sieci rozproszonej.

W ciągu dwu następnych lat sieć była powoli rozbudowywana, a w pracach nad nią brała udział coraz większa liczba naukowców z różnych ośrodków. Trzeba było opracować konkretne aplikacje, umożliwiające wykorzystanie możliwości komunikacyjnych dawanych przez sieć; jednym z pierwszych zastosowań było zdalne wykonywanie obliczeń na komputerach dużej mocy znajdujących się w innych ośrodkach. Pod koniec 1971 roku stworzony został pierwszy program poczty elektronicznej działający w sieci ARPANET i pracujący przy niej naukowcy zaczęli odkrywać zalety tego sposobu komunikacji - nie tylko do przesyłania służbowych notatek i raportów, lecz także zupełnie prywatnej korespondencji; zaczęły tworzyć się zalążki "społeczności sieciowej".

W październiku 1972 roku w ramach odbywającej się w Waszyngtonie międzynarodowej konferencji na temat łączności komputerowej miała miejsce pierwsza publiczna prezentacja działania ARPANET-u. Okazała się ona ogromnym sukcesem: obecni na konferencji naukowcy żywo zainteresowali się siecią i możliwością współpracy przy jej rozwijaniu. Jeszcze w trakcie konferencji zdecydowano o utworzeniu Międzynarodowej Grupy Roboczej do spraw Sieci (International Network Working Group). Tym samym do prac nad siecią włączono także naukowców spoza USA, a w roku następnym do ARPANET-u przyłączono, specjalnymi łączami satelitarnymi, dwa pierwsze węzły zagraniczne: jeden w Wielkiej Brytanii, a drugi w Norwegii. ARPANET stał się siecią międzynarodową.

W miarę przyłączania do sieci kolejnych ośrodków i rozwoju kolejnych aplikacji (w 1972 opracowano ostateczną, stosowaną do dziś specyfikację protokołu telnet, w 1973 - FTP, a w 1977 - poczty elektronicznej) okazało się, że nie tylko w pełni zrealizowano cel eksperymentu, ale również przy okazji stworzono bardzo sprawne narzędzie komunikowania się naukowców ze sobą. W 1975 roku kierownictwo ARPA zdecydowało o zmianie statusu sieci ARPANET z eksperymentalnej na użytkową i przekazało sieć pod zarząd Wojskowej Agencji Łączności (Defense Communications Agency - DCA). Nie oznaczało to jednak bynajmniej, że prace nad rozwojem sieci zostały zaniechane. W szczególności stało się jasne, że w rozrastającej się sieci stosowany początkowo protokół komunikacyjny o nazwie NCP (Network Control Protocol) nie zdaje egzaminu i musi być zastąpiony nowym, nad którym intensywnie pracowano.

Istotną cezurę w historii sieci stanowi rok 1983. W roku tym wydarzyło się szereg istotnych zmian. Po pierwsze, wszystkie komputery w sieci ARPANET przeszły na stosowanie w miejsce NCP "gotowego" już od kilku lat nowego zestawu protokołów sieciowych, określanego skrótem TCP/IP (Transmission Control Protocol/Internet Protocol) - stanowiącego podstawę dzisiejszej sieci. Po drugie, w tym samym roku nastąpił rozpad ARPANET-u na dwie części. W poprzednich latach chęć podłączenia się do ARPANET-u, sieci z założenia wojskowej, zaczęło zgłaszać coraz więcej cywilnych uniwersytetów i instytutów naukowych, luźno tylko związanych z badaniami wojskowymi. W pewnym momencie okazało się ich być już zbyt dużo; zdecydowano więc o rozdzieleniu sieci na dwie części: ściśle wojskową, która przybrała nazwę MILNET, i nowy, mniejszy, "cywilny" ARPANET. Wtedy też zaczął być powszechnie używany - ukuty od nazwy protokołu IP - termin Internet, którym określano obie te sieci połączone razem. W latach następnych nazwa ta zaczęła wypierać określenie ARPANET, jako że wobec powstawania i łączenia się coraz to nowych sieci opartych na protokole TCP/IP - zwłaszcza uruchomionego w 1986 r. NSFNET-u (zob. dalej) - znaczenie "oryginalnego" ARPANET-u powoli, acz systematycznie malało (ostateczna likwidacja sieci ARPANET nastąpiła w 1990 r.).

Po trzecie wreszcie, w tymże roku 1983 pojawiła się wersja systemu Unix, opracowana na Uniwersytecie Berkeley, zawierająca wbudowaną implementację protokołów TCP/IP! Przed licznymi na uniwersytetach komputerami typu stacja robocza, wyposażonymi w tę właśnie odmianę Unixa, otworzyła się zatem możliwość bezpośredniego podłączenia do Internetu. Z Internetem zaczęto łączyć już nie pojedyncze duże komputery, lecz całe uczelniane sieci lokalne. Wojsko nie miało ochoty utrzymywać rozrastającego się w szybkim tempie cywilnego Internetu i w roku następnym został on przekazany pod zarząd Narodowego Funduszu Nauki (National Science Foundation).

Instytucja ta poczyniła wielkie zasługi dla rozwoju sieci, między innymi poprzez sfinansowanie budowy nowego, szybkiego tzw. rdzenia (backbone) Internetu, łączącego główne gałęzie sieci w USA - wspomnianego już NSFNET-u. NSFNET zapewnił dostęp do Internetu wielkiej liczbie instytucji naukowych i badawczych tak w USA, jak i na całym świecie (Polska dołączyła się do Internetu w 1991 r.), był jednak siecią ściśle naukową, w której zabroniona była wszelka działalność komercyjna. Zapotrzebowanie na dostęp do Internetu narastało jednak także ze strony firm komercyjnych. Aby wyjść mu naprzeciw, zaczęły powstawać niezależne od NSFNET-u komercyjne sieci szkieletowe, jak np. AlterNet, i pojawili się komercyjni providerzy Internetu, u których za niezbyt wygórowaną sumę każda firma bądź osoba prywatna mogła uzyskać dostęp do sieci. W 1995 roku rząd USA zdecydował, że dalsze utrzymywanie sztucznego rozdziału sieci "naukowej" od "komercyjnej" nie ma sensu i zdecydował się na całkowitą "prywatyzację" Internetu. NSFNET został formalnie zlikwidowany, a poszczególne fragmenty jego rdzenia "przypadły" pięciu komercyjnym operatorom. I to jest już czas teraźniejszy Internetu - największej i najszybciej rozwijającej się sieci komputerowej świata, liczącej sobie w lipcu 1996 r. około 13 milionów komputerów.

Jak to działa?

Współczesny Internet - jak można zresztą wnioskować z jego nazwy - jest "siecią sieci": zbudowany jest na zasadzie łączenia ze sobą poszczególnych sieci lokalnych. Pokażmy to na przykładzie (rys.1).

0x01 graphic

Rys.1. Schemat budowy przykładowego fragmentu sieci Internet; literami R oznaczone są routery łączące poszczególne podsieci.

Wyobraźmy sobie instytucję (np. uczelnię), w której znajduje się kilka sieci lokalnych - np. w różnych wydziałach. Mogą to być chociażby popularne PC-towe sieci lokalne typu Novell Netware. Sieci te łączymy ze sobą (robi się to za pomocą tzw. routerów, których rola jest dokładniej omówiona dalej), tworząc sieć uczelnianą (może w nią być także - oprócz sieci lokalnych - włączone bezpośrednio kilka "większych" maszyn). Takie sieci uczelniane mogą następnie być przyłączone do sieci miejskiej, łączącej sieci lokalne poszczególnych instytucji, ta zaś sieć miejska - do tzw. krajowej sieci szkieletowej - zwykle jednej z kilku - łączącej poszczególne sieci miejskie na obszarze kraju. Największe jednostki, z jakich zbudowany jest Internet, to Autonomiczne Systemy (AS-y), zwykle pokrywające się ze wspomnianymi sieciami krajowymi; układ połączeń między nimi tworzy tzw. rdzeń Internetu.

Taka właśnie budowa Internetu umożliwia jego tak dynamiczny rozwój. Przyłączenie nowego "kawałka" sieci jest bowiem przy takiej topologii bardzo proste i wymaga uzgodnień w zasadzie jedynie z osobami zarządzającymi bezpośrednio podsiecią, do której zamierzamy się dołączyć. Podłączanie i odłączanie nowych podsieci nie wpływa na działanie pozostałych fragmentów Internetu ani nie wymaga żadnych zmian w konfiguracji komputerów znajdujących się w odległych podsieciach.

Każdy z milionów komputerów w Internecie (zwanych hostami) ma swój niepowtarzalny adres - tzw. adres IP - mający postać 32-bitowej liczby. Zwykle dla łatwiejszego zapamiętania adres ten rozdziela się na cztery części po 8 bitów, które zapisuje się oddzielone kropkami.

W tej konwencji adres IP komputera może mieć np. taką postać:

149.156.24.10

Adres IP odzwierciedla strukturę sieci: kolejne jego fragmenty odpowiadają coraz mniejszym podsieciom obejmującym wskazany komputer. I tak, pierwszy bajt adresu równy 149 jest jedną z kilku wartości, które przydzielone zostały Polsce (a dokładniej - sieci szkieletowej NASK-u; istnieją w Polsce także inne sieci szkieletowe, np. TPSA). Sekwencja 149.156 wskazuje już jednoznacznie na MAN (sieć miejską) w Krakowie. 24 to jeden z numerów podsieci przypisanych konkretnej instytucji podłączonej do tej sieci - krakowskiej WSP, a 10 jest już bezpośrednio numerem komputera w obrębie jednej z tych podsieci.

Routery, łączące poszczególne podsieci, są jednymi z najważniejszych urządzeń w Internecie: to one właśnie "wytyczają drogę" (ang. route - droga, trasa) pakietów danych między sieciami, zapewniając możliwość połączenia się ze sobą dowolnych komputerów, niezależnie od ich fizycznej lokalizacji. Router posiada co najmniej dwa przyłącza sieciowe (każde o innym adresie IP!), podłączone do różnych sieci: jego zadaniem jest "skierowanie" danych we właściwą stronę na podstawie adresu docelowego. Jeżeli komputer o adresie np. 149.156.24.10 wysyła pakiet danych do komputera w tej samej podsieci (np. 149.156.24.15), pakiet ten może być przekazany bezpośrednio: router nie bierze w tym procesie udziału, gdyż pakiety nie "wychodzą" poza lokalną podsieć (i nie powodują obciążenia reszty Internetu...). Jeżeli jednak zechcemy się połączyć z komputerem spoza swojej podsieci (np. 148.81.18.1), wówczas dane przekazywane są do routera, a poprzez niego do następnej sieci, gdzie - o ile pakiet nie jest adresowany do komputera w tej właśnie sieci - zajmie się nim kolejny router.

Routery "wiedzą", przez który router wiedzie droga do jakich sieci (istnieje wiele metod, aby je tego "nauczyć", ale ich rozważanie leży poza zakresem tego artykułu), stąd też w przypadku, gdy dana sieć ma połączenie z kilkoma innymi (zawiera kilka routerów), wybierany jest router najbardziej odpowiedni dla docelowej sieci. Routery potrafią jednak same zmieniać trasę przesyłania pakietów i tworzyć tzw. drogi obejściowe w przypadku np. awarii połączenia - jest to właśnie ta zasadnicza koncepcja, która legła u podstaw ARPANET-u, a później Internetu. Sytuację tę obrazuje rys.2: 0x01 graphic

Rys.2. Tworzenie dróg obejściowych w razie awarii fragmentu sieci.

trzy sieci A, B i C połączone są ze sobą na zasadzie "każda z każdą". W normalnej sytuacji, pakiety wysyłane z sieci A do sieci B przekazywane są połączeniem bezpośrednim, poprzez routery R1 i R3. Jeżeli jednak bezpośrednie połączenie między sieciami A i B ulegnie przerwaniu, pakiety zostaną automatycznie skierowane obejściową trasą poprzez sieć C (routery R2-R6-R5-R4) - może to nawet nie być zauważone przez użytkowników.

Oczywiście aby opisane powyżej rozwiązania mogły funkcjonować, musi istnieć sposób łatwego rozpoznawania przez oprogramowanie sieciowe, czy wskazany adres IP należy do naszej własnej podsieci, czy też znajduje się poza nią. W tym celu adres IP podzielony jest na dwie części: jedna z nich określa numer sieci, i dla wszystkich urządzeń w danej podsieci jest identyczna, druga stanowi numer komputera w sieci. W pierwotnej specyfikacji protokołu TCP/IP podział adresu IP pomiędzy numer sieci i numer komputera ustalono w sposób sztywny, definiując trzy klasy adresów: A, B i C (rys.3). 0x01 graphic

Rys.3. Podział adresu IP na numer sieci i numer komputera w klasach adresowych A, B, C.

Do klasy A należą wszystkie adresy, których pierwszym bitem jest 0: w adresach tych pierwszy bajt (z zakresu od 0 do 127) oznacza numer sieci, zaś pozostałe trzy - numer komputera w sieci. Adresy zaczynające się układem bitów "10" (ich pierwszy bajt przybiera wartości z zakresu 128 - 191) należą do klasy B: tu zarówno numer sieci, jak i komputera mają po dwa bajty. Wreszcie w adresach klasy C, rozpoczynających się kombinacją bitów "110" (192.x.x.x - 223.x.x.x), trzy pierwsze bajty stanowią numer sieci, zaś ostatni - numer komputera. Warto zauważyć, że klasy A, B i C nie wyczerpują wszystkich możliwych 32-bitowych liczb - pozostają bowiem adresy zaczynające się od kombinacji bitów "111". Używane są one w części na potrzeby tzw. multicastingu (techniki pozwalającej na przesyłanie tego samego pakietu danych do wielu komputerów równocześnie, używanej np. do transmisji dźwiękowych w sieci) - jest to tzw. klasa D - a częściowo są zarezerwowane do przyszłych zastosowań.

Także w obrębie klas A, B i C nie wszystkie kombinacje bitów mogą być wykorzystane jako poprawne adresy. Żadne urządzenie nie może mieć adresu, w którym część odpowiadająca numerowi komputera wypełniona jest samymi bitami "0" lub samymi bitami "1". Adres z samymi zerami w miejscu numeru komputera używany jest w routerach jako adres całej sieci; adres z samymi jedynkami jest tzw. adresem rozgłoszeniowym (broadcast address) - używa się go do przesyłania pakietów, które powinny być odebrane przez wszystkie komputery w danej sieci. Zabronione jest także używanie dwu numerów sieci z klasy A: 0 i 127. Sieć o numerze 0 (adres 0.0.0.0) oznacza tzw. drogę domyślną (default route) w konfiguracjach routerów; natomiast każdy adres z sieci 127 (typowo używa się w tym celu 127.0.0.1) traktowany jest jako adres zwrotny (loopback address): pod tym adresem każdy komputer "widzi" sam siebie, niezależnie od swojego faktycznego adresu IP (adres zwrotny jest niezbędny do prawidłowej pracy oprogramowania sieciowego).

Ponadto, w obrębie każdej z trzech klas adresowych istnieje grupa adresów nieroutowalnych; pakiety pochodzące z (lub adresowane do) komputerów o tych adresach nie są przepuszczane przez żadne routery i nigdy nie opuszczają lokalnej podsieci. Adresów tych można używać w sieciach lokalnych opartych na TCP/IP, ale nie podłączonych do Internetu (teoretycznie możnaby w takich sieciach używać zupełnie dowolnych adresów, ale w przypadku ew. późniejszego podłączenia do Internetu mogłoby to spowodować kłopoty) lub wtedy, gdy chcemy celowo zablokować - np. ze względów bezpieczeństwa - możliwość bezpośredniego połączenia między komputerami w sieci lokalnej a Internetem. W tym ostatnim przypadku połączenie jest możliwe jedynie za pośrednictwem wydzielonego komputera - "bramki" (gateway). Posiada on - podobnie do routera - dwa złącza sieciowe: jedno przyłączone do nieroutowalnej sieci wewnętrznej, drugie - o "normalnym" adresie IP, podłączone "na zewnątrz", oraz wyposażony jest w odpowiednie oprogramowanie, tzw. proxy server, pozwalające na kontrolowane przekazywanie danych pomiędzy siecią wewnętrzną i zewnętrzną (tego typu rozwiązania noszą nazwę ścian ogniowych - firewall).

Dla klasy A grupę adresów nieroutowalnych stanowi sieć o adresach 10.x.x.x; dla klasy B - 172.16.x.x; i dla klasy C - 192.168.255.x.

"Sztywny" podział adresów na klasy A, B i C stosunkowo szybko okazał się niewystarczający. W miarę dołączania do Internetu coraz większej liczby podsieci okazało się, że zaczyna po prostu... brakować numerów sieci, które możnaby im przydzielić, podczas gdy w wielu istniejących już sieciach klasy A, B, a nawet C duża część numerów pozostawała niewykorzystana - po prostu w sieci nie było tak wielu komputerów. Dlatego w chwili obecnej klasy adresowe mają znikome znaczenie, a powszechnie stosowany jest model adresowania bezklasowego, opartego o tzw. maski podsieci. W modelu tym dla każdej podsieci definiuje się tzw. maskę, mającą również postać 32-bitowej liczby, ale o dosyć szczególnej budowie: jej początkowa część składa się z samych bitów "1", po których następuje ciąg samych bitów "0". Maskę tę muszą "znać" wszystkie komputery i routery znajdujące się w danej podsieci i to właśnie ona wyznacza granicę między numerem sieci i numerem komputera - ta część adresu, dla której odpowiednie bity maski mają wartość "1", jest numerem sieci; tam, gdzie w masce są zera, mamy numer komputera (rys.4)

0x01 graphic

Rys.4. Zasada działania adresowania bezklasowego

Maskę zapisuje się w podobny sposób jak adres IP, np. maskę składającą się z 27 bitów "1" (numer sieci) i 5 bitów "0" (numer komputera) zapisujemy tak: 255.255.255.224. Także i tutaj numer komputera nie może składać się z samych zer ani samych jedynek - adresy takie mają znaczenie analogiczne do opisanych powyżej, a zatem w sieci o podanej masce może być maksymalnie 30 (25-2) komputerów.

Coś dla ludzi: adresy domenowe

Adresy IP są niezbędne oprogramowaniu sieciowemu do przesyłania pakietów danych, posługiwanie się nimi jest jednak bardzo niewygodne dla człowieka. Dlatego obok adresów IP wprowadzono adresy symboliczne albo domenowe. Nie każdy komputer musi mieć taki adres; adresy symboliczne z reguły przypisywane są tylko komputerom udostępniającym w Internecie jakieś usługi, czyli będącym tzw. serwerami. Umożliwia to użytkownikom chcącym z nich skorzystać łatwiejsze wskazanie konkretnego serwera. Komputery będące tylko klientami, to znaczy tylko korzystające z zasobów informacyjnych serwerów (np. zwykłe domowe PC włączone do Internetu za pośrednictwem modemu) mogą adresów symbolicznych nie mieć, gdyż nikt "z zewnątrz" nie będzie z nich korzystał (chociaż posiadanie takiego adresu może ułatwić identyfikację naszego komputera przez serwer, i np. automatyczne wyświetlenie strony WWW w wersji językowej odpowiedniej dla naszego kraju). Specjalny rodzaj adresów symbolicznych wykorzystywany jest również w przypadku komputerów nie przyłączonych bezpośrednio do Internetu, lecz do innych sieci mających możliwość wymiany poczty z Internetem (np. do amatorskiej, modemowej sieci Fido). Komputery te nie mają - z oczywistych przyczyn - adresów IP, jednakże adresy symboliczne umożliwiają zaadresowanie poczty do takiego komputera.

Adres symboliczny zapisywany jest w postaci ciągu nazw, tzw. domen, które rozdzielone są kropkami podobnie jak w przypadku adresu IP. Poszczególne części adresu domenowego nie mają jednak żadnego związku z poszczególnymi fragmentami adresu IP - chociażby ze względu na fakt, że o ile adres IP składa się zawsze z czterech części, o tyle adres domenowy może ich mieć różną liczbę - od dwóch do sześciu czy siedmiu. Kilka przykładowych adresów domenowych przedstawiono poniżej:

inf.wsp.krakow.pl
galaxy.uci.agh.edu.pl
ftp.microsoft.com
garbo.uwasa.fi

Odwrotnie niż adres IP, adres domenowy czyta się "od tyłu". Ostatni jego fragment, tzw. domena najwyższego poziomu (top-level domain), jest z reguły dwuliterowym oznaczeniem kraju (np. ".pl", ".fi"). Jedynie w USA dopuszcza się istnienie adresów bez oznaczenia kraju na końcu (biorąc pod uwagę, że sieć Internet powstała właśnie tam, i początkowo nie przewidywano tak wielkiego jej rozwoju w innych krajach, jest to oczywiste). Zamiast kraju, domena najwyższego poziomu opisuje "branżową" przynależność instytucji, do której należy dany komputer (por. trzeci z powyższych adresów). Może to być ".com" - oznaczające firmy komercyjne, ".edu" - instytucje naukowe i edukacyjne (np. uczelnie), ".gov" - instytucje rządowe (np. Biały Dom, Biblioteka Kongresu albo NASA), ".mil" - wojskowe, a wreszcie ".org" - wszelkie organizacje społeczne i inne instytucje typu "non-profit". Istnieją jeszcze dwie domeny "top-level", które można spotkać także w adresach komputerów spoza USA: ".int" - organizacje międzynarodowe nie dające się zlokalizować w konkretnym państwie (np. NATO) oraz ".net" - firmy i organizacje zajmujące się explicite administrowaniem i utrzymywaniem sieci komputerowych (np. EARN, europejska sieć akademicka oparta na komputerach mainframe firmy IBM, czy EUnet - firma sprzedająca dostęp do Internetu w kilku krajach Europy). Ten podział zostanie najprawdopodobniej wkrótce rozszerzony o kolejne domeny "top-level" (tym razem już o charakterze globalnym, nie tylko amerykańskim), gdyż uważany jest obecnie za przestarzały i nieadekwatny do aktualnego stanu rozwoju Internetu; niektóre domeny (np. .com) robią się zbyt duże, co utrudnia pracę serwerów nazw (zob. dalej) oraz wywołuje coraz częstsze konflikty między instytucjami chcącymi posiadać tę samą nazwę domenową.

Wzorem USA podział "branżowy" przyjęty został w niektórych innych krajach (częściowo także w Polsce), gdzie domena "branżowa" została umieszczona jako przedostatnia, czyli - zgodnie z zasadą czytania adresu od tyłu - bezpośrednio następna po oznaczeniu kraju (przykładem jest drugi z przytoczonych powyżej adresów). W Europie popularniejszy jest jednak, funkcjonujący w Polsce równolegle ze schematem "branżowym", inny schemat budowy adresu - "geograficzny", w którym przedostatni człon adresu określa miasto (do tego schematu stosuje się pierwszy z wymienionych adresów). Obydwa te schematy mają swoich zwolenników i przeciwników; w efekcie część komputerów ma adresy "branżowe", część - "geograficzne". Żeby sprawa była jeszcze bardziej skomplikowana ;-), w niektórych krajach w ogóle pomija się zarówno domenę "branżową", jak i "geograficzną", jak np. w adresie garbo.uwasa.fi. Gdzie indziej jeszcze zaś oznaczenia domen "branżowych" są inne niż w USA, np. w Austrii, Wielkiej Brytanii, a także Japonii zamiast ".edu" stosowane jest oznaczenie ".ac", a zamiast ".com" - ".co" (innych domen "branżowych" praktycznie się tam nie stosuje). Wszystko to powoduje ogromną różnorodność adresów symbolicznych, z jakimi możemy się spotkać.

Następną - idąc od końca - częścią adresu po domenie "branżowej" lub "geograficznej" będzie domena określająca bezpośrednio instytucję - na ogół jej nazwa lub skrót nazwy, a więc w powyższych adresach "wsp" (Wyższa Szkoła Pedagogiczna, w tym wypadku - co wynika z domeny "geograficznej" - w Krakowie), "agh" (Akademia Górniczo-Hutnicza - też w Krakowie, ale to już trzeba wiedzieć skądinąd), "microsoft" (wszyscy wiedzą...) lub "uwasa" (Uniwersytet Vaasa, Finlandia). W obrębie instytucji mogą - choć nie muszą - występować dalsze podziały ("uci"), aż do pierwszego członu adresu domenowego, który dopiero jest nazwą własną konkretnego komputera ("inf", "galaxy", "ftp", "garbo"). Należy zwrócić tu uwagę na komputer o adresie ftp.microsoft.com: zwyczajowo, komputery na których znajdują się serwery takich usług jak anonimowe FTP, news, gopher, WWW itp. wyróżniane są charakterystyczną nazwą, odpowiadającą nazwie usługi, aby łatwiej było je odnaleźć. W istocie wszystkie te adresy mogą oznaczać jeden i ten sam komputer, ponieważ możliwe jest przypisanie do tego samego adresu IP kilku adresów symbolicznych, tzw. aliasow.

Korzystanie z adresów domenowych jest łatwiejsze dla ludzi, ale oprogramowanie sieciowe "rozumie" jedynie adresy IP. Potrzebny jest zatem jakiś sposób "tłumaczenia" adresów symbolicznych na adresy IP. Jako że ich wzajemne przyporządkowanie jest czysto umowne, "tłumaczenie" to może się odbywać tylko na podstawie jakiejś "tabeli", przechowującej informacje o tym, jakiej nazwie symbolicznej odpowiada jaki adres IP. Ze względu na rozmiary sieci Internet oczywiście niemożliwe jest przechowywanie takiej "tabeli" przez jakikolwiek pojedynczy komputer w sieci, dlatego zastosowano rozwiązanie rozproszone. W każdej (albo prawie każdej) domenie istniejącej w Internecie jest jeden wyróżniony komputer - tzw. serwer nazw (domain name server - DNS), przechowujący wykaz adresów komputerów ze swojej domeny, czasami ewentualnie także sąsiednich domen nie mających własnych serwerów nazw. Oczywiście serwer nazw nie musi być (i na ogół nie jest) komputerem wydzielonym wyłącznie do pełnienia tej funkcji; na ogół jest on poza tym używany do normalnej pracy. Jedyny warunek wymagany dla komputera mającego być serwerem nazw to nieprzerwana dostępność w sieci przez 24 godziny na dobę. Każda domena wyższego poziomu (np. obejmująca miasto) również ma swój serwer nazw, pamiętający adresy serwerów nazw poszczególnych "poddomen" w obrębie tej domeny (aby zatem utworzyć nową domenę, trzeba ją zarejestrować w serwerze nazw domeny nadrzędnej). Np. serwer nazw domeny krakow.pl będzie zawierał nazwy domen wsp.krakow.pl, cyfronet.krakow.pl itp. i adresy ich serwerów nazw, zaś serwer nazw domeny .pl będzie "pamiętał" adresy serwerów nazw domen krakow.pl, wroc.pl, com.pl, edu.pl... itd. Na najwyższym poziomie tej hierarchii znajdują się tzw. główne serwery nazw (root name servers) - dla większej sprawności działania jest ich kilka - zawierające informacje o adresach serwerów nazw domen najwyższego poziomu w Internecie (.com, .edu, .pl, .fi itp.). Każdy serwer nazw musi znać adresy serwerów głównych (ich listę znaleźć można pod adresem ftp://rs.internic.net/netinfo/root-servers.txt), zaś adres IP jego samego musi być znany wszystkim komputerom w obsługiwanej przezeń domenie. Gdy zatem użytkownik jakiegoś komputera "daleko w świecie" usiłuje połączyć się np. z komputerem inf.wsp.krakow.pl, jego oprogramowanie sieciowe "pyta" serwer nazw swojej własnej domeny o odpowiedni adres IP. Ten oczywiście zwykle nie zna tego adresu, wysyła zatem najpierw zapytanie do jednego z głównych serwerów o adres DNS dla domeny .pl. Otrzymawszy ten adres, wysyła tam właśnie pytanie o adres serwera domeny krakow.pl. Ten z kolei jest pytany o adres serwera dla domeny wsp.krakow.pl, i wreszcie ten ostatni bezpośrednio o adres komputera inf w jego domenie. Po tej serii zapytań (proces ten określany jest jako DNS query, czyli przepytywanie serwerów nazw) serwer odsyła pytającemu komputerowi szukany adres IP, i dopiero teraz komputer ten może podjąć próbę przesłania danych.

Kto tu rządzi?

Po przeczytaniu powyższego technicznego opisu działania Internetu intrygujące jest zapewne pytanie, kto zarządza tą całą wielką i niezwykle skomplikowaną strukturą? Odpowiedź może być zaskakująca: nikt! Internet jako całość nie ma żadnej władzy, zarządu ani właściciela. Jak wspomniałem wcześniej, na najwyższym poziomie Internet jest zbiorem połączonych ze sobą sieci szkieletowych. Każda taka sieć ma swojego właściciela - z reguły jest to jakaś firma telekomunikacyjna, gdyż te z natury rzeczy mają największe możliwości w zakresie fizycznej budowy łączy dalekiego zasięgu. Zarządca każdej sieci szkieletowej ustala obowiązujące w niej reguły, ale jego władza nie sięga poza jego sieć. Łączność pomiędzy sieciami funkcjonuje w oparciu o formalne bądź nieformalne umowy pomiędzy operatorami. Sytuacja jest podobna jak w przypadku sieci telefonicznej: nikt nie jest właścicielem czy zarządcą całej sieci telefonicznej na świecie, a jednak z Polski można (przynajmniej teoretycznie...) dodzwonić się do np. Australii, dzięki wzajemnym umowom pomiędzy firmami telekomunikacyjnymi.

Niebagatelną sprawą są rzecz jasna kwestie finansowe: w końcu wybudowanie i utrzymanie sieci kosztuje, a firmy telekomunikacyjne nie są instytucjami charytatywnymi! Generalną zasadą w Internecie jest, iż "mniejszy płaci większemu". Gdy łączą się ze sobą dwie sieci o zbliżonej wielkości, na ogół ich operatorzy nie płacą sobie nawzajem nic lub ewentualnie (rzadziej) rozliczają się ze sobą w oparciu o różnice ruchu w obu kierunkach pomiędzy sieciami. Jeżeli natomiast do większej sieci przyłącza się sieć zdecydowanie mniejsza, właściciel tej mniejszej sieci musi płacić zarządcy większej wymaganą przez niego sumę. Sytuacja powtarza się na niższych szczeblach: sieci miejskie płacą operatorowi sieci ogólnokrajowej, instytucje podłączone do sieci miejskiej - operatorowi tej sieci itd. Natomiast właściciel każdej, najmniejszej nawet sieci może zarządzać nią według swojego uznania, uwzględniając jednakże ograniczenia narzucone przez operatora "większej" sieci, do której jest przyłączony. Częstą praktyką jest bowiem, że operator "większej" sieci narzuca abonentowi w umowie pewne dodatkowe warunki - może to być np. zakaz przyłączania do siebie kolejnych podsieci. Pewne zasady mogą być też narzucane "z góry" przez prawo danego państwa: np. w Polsce dla przyłączania obcych podsieci do swojej sieci wymagane jest posiadanie zezwolenia telekomunikacyjnego wydanego przez Ministerstwo Łączności.

Choć Internet nie ma władzy ani zarządu, pewne sprawy muszą być centralnie koordynowane. Należy do nich chociażby rozdział adresów IP: musi się on odbywać w taki sposób, aby zapewnić ich niepowtarzalność w skali całej sieci. Ktoś musi też ustalać standardy techniczne, dzięki przestrzeganiu których wszystkie włączone do sieci komputery są w stanie porozumiewać się nawzajem. Wprawdzie podstawowe protokoły TCP/IP opracowano we wczesnych latach ARPANET-u, ale od tego czasu wciąż przecież powstają nowe sposoby wykorzystania sieci i związane z nimi standardy. Chociażby World Wide Web: HTTP i HTML, stanowiące podstawę działania tej usługi, to wszak "produkty" lat dziewięćdziesiątych.

Zagadnieniami takimi zajmują się wyłonione ze społeczności internetowej specjalne rady, komitety i grupy robocze - autorytety Internetu. Najstarszym i najważniejszym takim autorytetem jest Rada Architektury Internetu (Internet Architecture Board - IAB). Powstała ona - jako Internet Control Configuration Board - pod patronatem ARPA już w 1979 roku, a więc jeszcze zanim zaistniał Internet w dzisiejszym znaczeniu: miała ona wówczas koordynować prace nad wprowadzeniem w sieci ARPANET protokołu TCP/IP. W 1983 roku, gdy ARPANET przekształcił się w Internet, rada zmieniła nazwę na Internet Activities Board: jej zadaniem było teraz nadzorowanie całości zagadnień związanych z rozwojem technicznym Internetu. Jednakże gdy w rok później Internet przestał być zarządzany przez ARPA, rada straciła formalne "umocowanie". Choć bez formalnych uprawnień, funkcjonowała jednak dalej na mocy ukształtowanego już zwyczaju. W 1986 IAB wyłoniła dwie nowe, również nieformalne, organizacje - Internet Engineering Task Force (IETF), której zadaniem jest bezpośrednia techniczna praca nad protokołami Internetowymi, oraz "spokojniejszą" Internet Research Task Force (IRTF), zajmującą się bardziej dalekosiężnymi projektami badawczymi związanymi z Internetem. Nieformalność swoich działań dosyć istotnie dokuczała członkom IAB, toteż gdy w 1992 roku założone zostało oficjalne stowarzyszenie użytkowników Internetu - Internet Society (ISOC), IAB została - teraz pod kolejną, trzecią już nazwą - włączona w struktury władz ISOC.

Obecnie IAB, wybierana przez zarząd ISOC spośród kandydatur proponowanych przez IETF, pełni funkcję ciała doradczego dla ISOC oraz nadzorczego dla IETF. Ta ostatnia - będąca nadal luźno zorganizowaną grupą bez formalnego członkostwa - stanowi właściwą "siłę napędową" rozwoju Internetu: to tu w ogniu dyskusji (prowadzonych głównie poprzez pocztę elektroniczną) powstają wszelkie nowe pomysły dotyczące struktury sieci, protokołów, usług. Z chwilą, gdy osiągną status proponowanego standardu, podlegają zatwierdzeniu przez IAB i publikacji jako dokumenty RFC - coś w rodzaju Internetowych norm (RFC to skrót od Requests For Comments, czyli prośby o komentarze; ta skromna nazwa wywodzi się z czasów wczesnego ARPANET-u, kiedy zatrudnieni przy budowie sieci informatycy zaczęli spisywać swoje uwagi i propozycje dla współpracowników w postaci pierwszych RFC, nie mających jeszcze żadnego formalnego statusu). Treść dokumentów RFC, określających w istocie podstawy funkcjonowania Internetu, dostępna jest na wielu serwerach w sieci, m.in. w Polsce pod adresem ftp://ftp.cyf-kr.edu.pl/pub/mirror/rfc/.

Z upoważnienia IAB rozdziałem adresów IP, nadzorowaniem systemu nazw domenowych oraz rejestracją specyficznych parametrów związanych z protokołami Internetowymi (np. numerów portów przypisanych poszczególnym usługom sieciowym) zajmuje się Internet Assigned Numbers Authority (IANA). Jej "ramieniem wykonawczym" z kolei jest całkowicie już formalna instytucja o nazwie Internet Network Information Center (InterNIC). Instytucja ta, utworzona w 1993 r. przez firmy AT&T oraz Network Solutions, przy częściowym udziale finansowym NSF, poza przydzielaniem numerów IP operatorom sieci szkieletowych zajmuje się utrzymywaniem głównych serwerów nazw oraz rejestracją poddomen użytkowników w domenach .com, .edu, .gov, .net i .org (przed powstaniem InterNIC funkcje te pełniło SRI NIC, działające w Stanford Research Institute). InterNIC rozdziela grupy adresów pomiędzy operatorów poszczególnych sieci "najwyższego poziomu". Ci z kolei rozdzielają posiadany zasób adresów pomiędzy operatorów mniejszych podsieci, np. miejskich, ci rozdzielają adresy dalej w obrębie swoich podsieci itd... W ten sposób zapewniona jest unikalność adresów pomiędzy wszystkimi komputerami w Internecie. Na mocy umów z InterNIC (lub odpowiadającymi mu instytucjami w innych częściach świata, np. w Europie - RIPE) działają także instytucje administrujące domenami krajowymi, takimi jak .pl, .de czy .fi; w razie niewłaściwego wywiązywania się administratora domeny krajowej ze swoich obowiązków - np. nieuzasadnionego odmawiania rejestracji poddomen w zarządzanej przez siebie domenie - prawo zarządzania tą domeną może być mu odebrane i przekazane innej instytucji.

Jak się podłączyć?

Aby nasz komputer stał się "odnogą" całej tej skomplikowanej struktury, trzeba skorzystać z usług tzw. providera Internetu, czyli po polsku dostawcy usług Internetowych (określenie to jest niezbyt trafne: słowo "dostawca" ma raczej bardzo konkretne i "fizyczne" konotacje, nie bardzo pasując do czegoś tak "niematerialnego" jak Internet). Providerem takim jest firma, która sama ma wykupione podłączenie do innej, większej sieci, i zajmuje się komercyjnym jego udostępnianiem swoim klientom. W niektórych krajach firma taka musi spełniać ponadto pewne wymogi prawne (wspomniałem już o obowiązku posiadania zezwolenia telekomunikacyjnego w Polsce).

"Klasyczną" metodą połączenia z Internetem jest - jak to już omawiano powyżej - bezpośrednie połączenie swojej sieci lokalnej z siecią naszego providera. Połączenie takie może być dokonane za pomocą łącza specjalnie wybudowanego do tego celu (kabel, światłowód, łącze radiowe) lub - zdecydowanie częściej - z wykorzystaniem tzw. linii dzierżawionej; istniejącej linii telefonicznej, wynajętej od operatora telefonicznego na nasz wyłączny użytek i łączącej bezpośrednio naszą sieć z siedzibą providera. Jeszcze innym wariantem połączenia stałego jest rozpowszechniające się ostatnio - na razie niestety jeszcze nie w Polsce - połączenie za pośrednictwem sieci telewizji kablowej, odpowiednio przystosowanej do przenoszenia oprócz sygnału telewizyjnego także pakietów IP.

Dla osób prywatnych lub niewielkich firm, nie posiadających sieci lokalnych i chcących podłączyć do Internetu tylko jeden komputer, połączenie stałe (może z wyjątkiem wariantu z telewizją kablową) jest wyjściem raczej nieopłacalnym. Użytkownicy tacy mogą skorzystać z połączenia komutowanego (dial-up) - realizowanego poprzez zwykłą sieć telefoniczną, z użyciem normalnego abonenckiego łącza telefonicznego i modemu. Wadą tego sposobu połączenia jest niestety znacznie mniejsza niż przy łączach stałych prędkość transmisji, jak również... znaczne koszty rachunków telefonicznych, zwłaszcza gdy - tak jak w Polsce - opłata za połączenie telefoniczne zależna jest od czasu jego trwania. Do zrealizowania połączenia komutowanego z providerem Internetu wykorzystać można także - dość już popularne na świecie, a ostatnio w niewielkim zakresie dostępne także i w Polsce - cyfrowe łącze telefoniczne typu ISDN, które dzięki znacznie większej prędkości transmisji eliminuje pierwszą z opisanych wad (niestety druga - koszt połączenia - nadal pozostaje...).

O ile podłączając się za pomocą linii stałej uzyskujemy bezpośredni dostęp do Internetu - tzn. komputery w naszej podsieci mają własne adresy IP i są pełnoprawnymi hostami w Internecie, o tyle w przypadku połączenia komutowanego sytuacja wygląda nieco inaczej. Możliwe są wówczas trzy rodzaje połączenia (nie wszyscy providerzy zapewniają wszystkie trzy możliwości; o szczegóły należy każdorazowo pytać u konkretnego usługodawcy). Także i tutaj możemy mieć do czynienia z dostępem bezpośrednim - wykorzystywane są w tym celu specjalne warianty protokołu TCP/IP przeznaczone dla połączeń modemowych: SLIP (Serial Line Internet Protocol) lub PPP (Point-to-Point Protocol). W tym przypadku na czas połączenia nasz komputer jest w pełni włączony do Internetu, podobnie jak w przypadku łącza stałego. Musimy jednak posiadać specjalne oprogramowanie umożliwiające obsługę SLIP lub PPP.

Połączenia typu SLIP i PPP są "wynalazkiem" stosunkowo nowym. Starszą metodą, czasami jeszcze nadal stosowaną, jest połączenie w tzw. trybie terminalowym. W tym przypadku nasz komputer nie musi nic "wiedzieć" o protokole TCP/IP, wystarczy mu zwykłe oprogramowanie komunikacyjne, takie samo jakiego używa się np. dzwoniąc do BBS-ów (np. program terminala zawarty w Windows, czy w Norton Commanderze...). Po "wykręceniu" przez modem odpowiedniego numeru, uzyskujemy połączenie z dużym komputerem podłączonym na stałe do Internetu, najczęściej pracującym w systemie Unix, i na nim rozpoczynamy pracę (musimy oczywiście posiadać przydzielone na tym komputerze tzw. konto, czyli identyfikator użytkownika i hasło) - nasz PC pełni tylko funkcję terminala, czyli praktycznie jest odległą klawiaturą i monitorem zdalnego systemu. Pewnym problemem jest w tym przypadku transmisja plików pomiędzy zdalnym systemem i naszym PC (np. celem wydrukowania otrzymanego pocztą elektroniczną listu czy zapisania na dyskietce "ściągniętego" z Internetowego archiwum programu), gdyż nie jest on bezpośrednio podłączony do Internetu - najczęściej jest ona możliwa z wykorzystaniem jednego z typowych - znowu znanych z BBS-ów - protokołów "modemowych", np. Kermita lub Zmodemu.

Ostatnim wariantem połączenia jest dostęp za pośrednictwem UUCP. UUCP (Unix to Unix CoPy) jest "starym ale jarym" protokołem używanym w systemie Unix do łączenia między sobą komputerów poprzez modemy i wymiany poczty elektronicznej oraz kopiowania plików. Protokół ten stosowany był w Unixie w czasach przed powstaniem TCP/IP i stosowany jest nadal w miejscach, gdzie warunki techniczne nie pozwalają na realizację regularnego połączenia TCP/IP lub byłoby ono nieopłacalne. Przykładowo, za pomocą UUCP wymieniają przez radio pocztę elektroniczną statki badawcze ekspedycji naukowych - na wolnych łączach UUCP jest protokołem znacznie bardziej efektywnym niż "naturalne" TCP/IP. W oparciu o UUCP zrealizowany jest dostęp do sieci Internet na znacznej części obszaru Rosji i innych państw b.ZSRR, ale z drugiej strony również wiele instytucji korzystających z Internetu w USA przyłączonych jest właśnie poprzez UUCP! W przeciwieństwie do dwu poprzednich metod dostępu, podłączenie poprzez UUCP daje możliwość korzystania wyłącznie z dwu spośród całej obfitości usług dostępnych w Internecie: poczty elektronicznej oraz grup dyskusyjnych systemu Usenet. Za to pojedynczy komputer korzystający z UUCP może bez kłopotu wymieniać pocztę i newsy dla całej sieci lokalnej, bez potrzeby posiadania łącza stałego - w przeciwieństwie do połączeń terminalowych bądź SLIP/PPP, mogących w typowo stosowanych przez providerów realizacjach "obsłużyć" tylko jeden komputer naraz. Najwygodniejszy do podłączenia przez UUCP jest oczywiście komputer Unixowy, ale jeżeli takim nie dysponujemy, istnieje także oprogramowanie UUCP pracujące w innych systemach operacyjnych.

Dostęp do Internetu w Polsce

Rozwój Internetu w Polsce - jak chyba w większości krajów na świecie - powielał model amerykański: początkowo sieć służyła głównie środowisku naukowemu i finansowana była z państwowych pieniędzy przeznaczonych na rozwój nauki, jak również zarządzana przez państwową instytucję. W Polsce instytucją tą jest NASK (Naukowa i Akademicka Sieć Komputerowa), powołana w 1993 r. dla nadania formalnych ram sieci budowanej w Polsce od dwóch lat przez środowiska akademickie. NASK jest operatorem jednej z trzech aktualnie funkcjonujących w Polsce sieci szkieletowych, a także administratorem krajowej domeny .pl. Za pośrednictwem sieci NASK-u i podłączonych do niej sieci miejskich bezpłatny dostęp do Internetu (finansowany przez Komitet Badań Naukowych) mają uczelnie i instytuty naukowe; dla pozostałych instytucji i osób prywatnych NASK świadczy usługi komercyjne. Do niedawna (mniej więcej do 1995 r.) NASK był praktycznie monopolistą w zakresie dostępu do Internetu; kilka istniejących obok niego firm komercyjnych świadczących w niewielkim zakresie usługi Internetowe stanowiło nie liczący się margines. W ciągu ostatnich dwu lat sytuacja zmieniła się diametralnie: obok sieci szkieletowej NASKu funkcjonują obecnie dwie inne sieci (Bankowego Przedsiębiorstwa Telekomunikacyjnego TELBANK oraz Telekomunikacji Polskiej S.A.), a liczba komercyjnych providerów Internetu sięga setki. Jako samodzielni providerzy działa obecnie także większość MAN-ów, czyli miejskich sieci komputerowych istniejących w miastach akademickich, funkcjonujących dawniej jako "odnogi" NASK-u. Prowadzą one dwutorową działalność: z jednej strony na mocy umów z NASK-iem i KBN zapewniają bezpłatny dostęp do Internetu uczelniom; z drugiej - wobec pozostałych abonentów występują jako zwykły komercyjny provider i również jako komercyjny klient rozliczają się z NASK-iem, do którego sieci są przyłączone. W miastach, w których istnieją sieci miejskie, stanowią one z reguły "stopień pośredni" pomiędzy siecią NASK-u a końcowymi klientami, przyłączającymi się zwykle właśnie do MAN-ów, a nie bezpośrednio do NASK-u.

Większość providerów oferuje obecnie - co jeszcze w 1995 roku było rzadkością - nie tylko połączenia dial-up, ale i liniami dzierżawionymi, a w kilku firmach bardzo zamożni klienci mogą sobie wykupić połączenia satelitarne typu VSAT, dające dostęp do Internetu z każdego miejsca Polski - nawet tam, gdzie nie ma telefonów ani żadnych innych środków łączności. Jeżeli już o połączeniach satelitarnych mowa, to stanowią one podstawową drogę kontaktu polskiego Internetu ze światem. Sieć NASK-u, do której wciąż przyłączona jest największa liczba podsieci użytkowników, posiada dwa zagraniczne łącza satelitarne - jedno do Szwecji o przepustowości 2 Mbit/s, drugie do USA o przepustowości 3 Mbit/s (a oprócz tego dwa niewielkiej przepustowości łącza naziemne do Białorusi i Ukrainy, przez które głównie odbywa się tranzyt ruchu między tamtejszymi sieciami i USA). TP S.A. nie korzysta z łączy satelitarnych - posiada łącze, jak to określa, "naziemne" (chyba raczej podwodne?) do USA o szybkości 2 Mbit/s. Łączami satelitarnymi bezpośrednio do operatorów zagranicznych jest również przyłączonych kilku mniejszych providerów, omijając polskie sieci szkieletowe.

W połączeniach typu dial-up istotną innowację wprowadziła Telekomunikacja Polska S.A., uruchamiając w połowie 1996 r. ogólnopolski numer dostępowy (0-202122), dający każdemu posiadaczowi telefonu, bez załatwiania żadnych formalności, możliwość dostępu do Internetu w trybie PPP za cenę samego tylko połączenia telefonicznego, bez dodatkowych opłat. Przy tym sposobie dostępu nie posiada się wprawdzie własnego konta pocztowego, ale na rynku pojawiło się już wiele firm oferujących tanie lub całkowicie darmowe (!) konta pocztowe dla użytkowników korzystających z tej usługi. Sieć TP S.A. jest obecnie intensywnie rozbudowywana, z docelowym zamiarem zainstalowania węzłów dostępowych w każdym mieście wojewódzkim i taryfikowania połączeń z tym numerem w całym kraju według taryfy lokalnej. Od roku 1997 wejdzie na rynek Internetowy telewizje kablowe: już kilka z nich prowadziło próby w tym zakresie i zapowiedziało rozpoczęcie świadczenia takich usług. Jeżeli na przeszkodzie nie staną znów jakieś bariery formalne (koncesje itp.) - może to być szansa na jeszcze powszechniejszy i tańszy niż dotąd dostęp do Internetu w naszym kraju.

ŻRÓDŁA : http://www.wsp.krakow.pl/Pl-win/papers/

13



Wyszukiwarka

Podobne podstrony:
Internet od podstaw, Informatyka -all, INFORMATYKA-all
Allegro Aukcje internetowe od podstaw
Zend Framework od podstaw Wykorzystaj gotowe rozwiazania PHP do tworzenia zaawansowanych aplikacji i
informatyka zend framework od podstaw wykorzystaj gotowe rozwiazania php do tworzenia zaawansowanych
Zend Framework od podstaw Wykorzystaj gotowe rozwiazania PHP do tworzenia zaawansowanych aplikacji i
Zend Framework od podstaw Wykorzystaj gotowe rozwiazania PHP do tworzenia zaawansowanych aplikacji i
Zend Framework od podstaw Wykorzystaj gotowe rozwiazania PHP do tworzenia zaawansowanych aplikacji i
Zend Framework od podstaw Wykorzystaj gotowe rozwiazania PHP do tworzenia zaawansowanych aplikacji i
Bazy danych i mysql od podstaw Nieznany (3)
PHP4 od podstaw php4po
pozycja bokserska 1 up by Esi, BOKS, SZKOŁA BOKSU nauka boksu od podstaw
ćw.4 - interna od dr Radwińskiej, weterynaria, Choroby wewnętrzne zwierząt gospodarskich
Scheda SCIENZE, NAUKA JĘZYKÓW OBCYCH, WŁOSKI, POMYSŁ NA LEKCJE WŁOSKIEGO OD PODSTAW
znaczenie taktyki w walce up by Esi, BOKS, SZKOŁA BOKSU nauka boksu od podstaw
dystans 3 up by Esi, BOKS, SZKOŁA BOKSU nauka boksu od podstaw
Jemielniak D, Latusek D Zarządzanie Teoria i praktyka od podstaw Ćwiczenia
Algorytmy Od podstaw(1)
j hiszpański lekcje od podstaw
LINUX, SZKOLNE PLIKI-mega zbiory (od podstawówki do magisterki), Systemy operacyjne

więcej podobnych podstron