SIECI KOMPUTEROWE:
Kanały komunikacyjne
Technologie przepływu danych
Komunikacyjne usługi sieciowe
1. Kanały komunikacyjne
Wymiana komunikatów w sieciach (transmisja danych) jest realizowana poprzez kanały komunikacyjne za pośrednictwem wielu różnorodnych technologii przepływu danych.
Przez technologię przepływu danych będziemy rozumieć określony zestaw metod, narzędzi i środków techniczno-programowych służących do "transportu danych" od miejsca nadania do miejsca ich odbioru.
Przyjmiemy też, że termin "dane" oznacza tu wszelkie formy przesyłanych komunikatów. Do technologii przepływu danych wrócimy za chwilę, po przedstawieniu kanałów komunikacyjnych.
Ogólnie, kanały komunikacyjne dzielimy na:
kanały komunikacji przewodowej i
kanały komunikacji bezprzewodowej oraz na
kanały komunikacji hybrydowej (stanowiące różnorodne kombinacje kanałów komunikacji przewodowej i bezprzewodowej).
W sieciach komputerowych, niezależnie od medium transmisji (sieci przewodowe i bezprzewodowe), dane można przesyłać poprzez:
przełączanie kanałów,
przełączanie pakietów,
przełączanie mieszane (kanałów i pakietów).
Przełączanie kanałów polega na stworzeniu linii połączeń w sieci komunikacyjnej między nadawcą i odbiorcą przez fizyczne połączenie poszczególnych kanałów transmisji.
Metoda ta jest najczęściej stosowana w sieciach operatorów telefonicznych (np. łączenie użytkowników końcowych usługą dial-up). W mniejszym zakresie wykorzystuje się ją w autonomicznych (wydzielonych, prywatnych) sieciach komunikacyjnych.
Przełączanie pakietów polega na transmisji danych dzielonych przed wysłaniem na porcje danych (pakiety). Pakiety opatrzone adresem wędrują od miejsca nadania do miejsca odbioru, gdzie są zestawiane w oryginalną wiadomość. I co ciekawe, pakiety mogą wędrować do miejsca przeznaczenia różnymi trasami.
Przełączanie pakietów może być oparte na protokołach X.25 i Frame Relay. Pierwszy jest stosowany przede wszystkim w sieciach o niskiej jakości transmisji (np. tradycyjne linie telefoniczne), drugi zaś wymaga łącz o wyższej niezawodności (np. linie światłowodowe).
Przełączanie mieszane. Dostępne są również technologie transmisji wykorzystujące jednocześnie dwie metody transmisji danych: przełączanie kanałów i przełączanie łączy.
I. W komunikacji przewodowej wykorzystuje się przede wszystkim kable miedziane (skrętki) i kable światłowodowe. Na przewodowe środki transmisji składają się: przewody elektryczne, światłowód.
Do najważniejszych kanałów komunikacji przewodowej zaliczamy:
sieci telefonii przewodowej (stacjonarnej),
sieci telewizji kablowej,
sieci energetyczne,
kanały mieszane.
Powszechnie stosowanym kanałem komunikacji przewodowej są sieci telefoniczne (operatorów publicznych). Jest to najstarsze historycznie medium komunikacji sieciowej. Znaczny udział sieci telefonicznej w przepływie danych wynika z relatywnie dobrze rozwiniętej infrastruktury tych sieci, ich powszechności, dostępności, w miarę niskich kosztów. Utrzymaniu tej wysokiej pozycji sprzyja też ich systematyczny rozwój technologiczny (zwiększanie przepustowości tradycyjnych kabli miedzianych, przejście na światłowody, doskonalenie technologii przepływu).
Sieci telewizji kablowej można wykorzystać jako jednostronny ( do użytkownika) kanał komunikacji sieciowej (zwłaszcza w dostępie do Internetu). Warunkiem jest, aby sieci telewizji kablowej operatorów publicznych oferowały dostęp do Internetu.
Kanał ten jest mniej popularny ze względu na ograniczenie terytorialne sieci telewizji kablowej do większych ośrodków miejskich oraz konieczność stosowania innego (do sieci) kanału zwrotnego (telefon stacjonarny, radio- linie).
Istnieją już systemy dwukierunkowej transmisji na współosiowym kablu TV,
tzw. B-HFS (Bidirectional Hybrid Fiber/Coax) o przepustowościach z Internetu 30 Mb/s, a od użytkownika ok. 10 Mb/s. Oferują one dobre przepustowości, większe niż telefonia przewodowa, relatywnie niskie koszty użytkowania.
Wydaje się, że w miarę rozwoju tzw. sieci domowych (a tym samym uzyskania bezpośredniego kanału zwrotnego) systemy te mogą być bardzo konkurencyjne.
[W Polsce dostęp tym kanałem oferuje UPC (usługa Chello)].
Wykorzystanie sieci energetycznych (tzw. PLC -Power Line Communication) w telekomunikacji ma ponad 80-letnią historię. Współczesny postęp technologiczny umożliwia ich wykorzystanie jako kanału komunikacyjnego w sieciach komputerowych.
Ogólnie, w tym sposobie łączności na kable energetyczne, służące, m.in. do dostaw energii elektrycznej do każdego użytkownika, są "nakładane", poprzez odpowiednie modemy, sygnały (o wysokiej częstotliwości) transmisji danych.
Technologia ta jest dogodna przede wszystkim do tworzenia sieci LAN w obrębie kilku mieszkań i sieci domowych (większość urządzeń domowych korzysta z prądu).
Jednak zastrzeżenia zdrowotne budzi konieczność dłuższej pracy w pobliżu urządzeń emitujących promieniowanie elektromagnetyczne o wysokiej częstotliwości.
Drugim, poważnym ograniczeniem stosowania tego kanału jest problem tzw. ostatniego kilometra.
Transmisja danych tym sposobem wymaga instalowania szeregu stacji bazowych w zasięgu do 2 km od użytkownika. O przyszłości zastosowań tego kanału należy wypowiadać się z dużą ostrożnością.
Kanały mieszane stanowią kombinacje wcześniej omawianych kanałów komunikacji przewodowej (w tym stosowanych mediów kablowych).
Najczęściej są nimi:
sieci telefonii przewodowej (kable miedziane i jednocześnie stosowane światłowody),
sieci telewizji kablowej -sieci telefonii przewodowej .
W kanałach mieszanych, ze względu na konieczność stosowania odpowiednich urządzeń adaptacyjnych oraz zmianę technologii przepływu danych, wydajność całego kanału komunikacyjnego zwykle wyraźnie się obniża.
Warto też wspomnieć, że oprócz wykorzystywania w komunikacji sieciowej dostępnych kanałów komunikacji przewodowej (ogólnego przeznaczenia) tworzy się specjalne kanały przewodowe na potrzeby sieci, tzw. kanały dedykowane.
II. W komunikacji bezprzewodowej wykorzystuje się jako media przede wszystkim fale elektromagnetyczne (i świetlne) o wysokiej częstotliwości (MHz, GHz, THz).
Mogą to być:
fale radiowe i mikrofale,
poczerwień,
światło widzialne.
Fale radiowe i mikrofale (zaliczane są czasem do fal radiowych) mają bardzo szeroki zakres zastosowań.
Mogą służyć do połączenia z siecią przenośnego komputera pracownika poruszającego się w terenie. Z drugiej strony, wykorzystywane są w łączach satelitarnych w międzykontynentalnych sieciach komputerowych. Często linie radiowe wykorzystywane są do łączenia koncentratorów sieci lokalnych.
Fale podczerwone stosowane są, ze względu na ich duże rozpraszanie tylko na małe odległości w sieciach lokalnych. Dzięki ich zastosowaniu można, na przykład, stworzyć szybko sieć lokalną, w pomieszczeniu czasowo wykorzystywanym do pracy z komputerami. Obecnie komputery przenośne są wyposażane standardowo w port do transmisji w podczerwieni.
Fale światła widzialnego są wykorzystywane do przesyłania sygnałów za pośrednictwem lasera. Systemy tego typu wymagają bezpośredniej widoczności urządzenia nadawczego i odbiorczego. Stosowane na dłuższe odległości są bardzo podatne na zakłócenia atmosferyczne.
Do najważniejszych kanałów komunikacji bezprzewodowej zaliczamy:
sieci telefonii komórkowej (mobilnej),
kanały łączności radiowej,
kanały optyczne i w podczerwieni,
systemy łączności satelitarnej,
kanały mieszane (łączności bezprzewodowej).
Komunikacja w sieciach telefonii komórkowej jest z technicznego punktu widzenia rodzajem telefonii radiowej. Jest oparta na:
systemie stacji bazowych (widoczne w krajobrazie Polski maszty antenowe),
lokalnych podsystemach (centrach) komutacji kanałów i zarządzania podsieciami łączności oraz
ogólnokrajowym centrum sieci danego operatora.
Na potrzeby komunikacji między centrami komutacji i zarządzania siecią telefonii komórkowej wykorzystuje się własne lub dzierżawione przewodowe sieci szkieletowe.
W Polsce dominują sieci cyfrowe telefonii komórkowej drugiej generacji (2G) w systemach GSM 900/1800/1900. Standardowa przepustowość kanałów GSM jest niewielka, w granicach 9,6-14,4 Kb/s.
Postęp technologiczny w ostatnich latach i wprowadzanie technologii trzeciej generacji (3G) zwiększa wydatnie walory użytkowe tego systemu komunikacji sieciowej.
W komunikacji za pomocą kanałów łączności radiowej wykorzystuje się wiele różnorodnych rozwiązań technicznych (częstotliwości, zasięg, liczba dostępnych linii). Ogólnie, komunikacja radiowa może mieć charakter stacjonarny (stacjonarne punkty nadawania i odbioru komunikatów) lub mobilny.
Kanały komunikacji radiowej można wykorzystywać do:
konfigurowania systemu komputerowego (PC, urządzenia zewnętrzne),
tworzenia i umożliwiania dostępu do sieci lokalnych WLAN (Wireless LAN): domowych, osiedlowych, wiejskich, przedsiębiorstw itp.
budowy sieci MAN, WAN i GAN.
Zasięg kanałów radiowych jest bardzo zróżnicowany: do 10 m, 200m, kilku km, 50/100/200/400/800 km,
z możliwością wykorzystania kilku do kilkuset cyfrowych linii transmisji danych w ramach określonego pasma.
W łączności radiowej, ze względu na wymagania techniczne transmisji danych, przeważają rozwiązania, w których nadawanie i odbieranie komunikatów jest ograniczone linią horyzontu (tzn. anteny nadawczo-odbiorcze "widzą się"). Przepustowości są bardzo zróżnicowane: od 50 Kb/s do 155 Mb/s. Sieci o tych najwyższych parametrach mogą być wykorzystywane jako swoiste radiowe sieci szkieletowe.
Kanały optyczne i w podczerwieni są oparte na technice emitowania światła widzialnego i odpowiednio - o niższej częstotliwości widma podczerwieni (obie stanowią rodzaj fali świetlnej o częstotliwościach THz). Kanały te mogą być wykorzystywane na niewielkich odległościach, np. kilku metrów (np. w jednym pokoju). Urządzenia nie tylko muszą się "widzieć", ale też współpracować "w linii". Kanały tego rodzaju zapewniają bardzo dobre przepustowości rzędu 1-4 Mb/s, maksymalnie do 1 Gb/s. Poważnym ograniczeniem stosowania tego rodzaju kanałów jest brak przenikalności przez przeszkody (meble, ściany) i niska odporność na zakłócenia ze strony innych źródeł promieniowania świetlnego.
Kanały optyczne i w podczerwieni są wykorzystywane przede wszystkim do konfigurowania systemu komputerowego (PC, urządzenia zewnętrzne) i dostępu do ograniczonych sieci lokalnych (domowych, w jednym pokoju).
Warto wspomnieć, że atrakcyjnym, przyszłościowym zastosowaniem kanałów optycznych jest łączność laserowa między znajdującymi się na orbitach okołoziemskich satelitami komunikacyjnymi.
W łączności satelitarnej korzysta się z różnorodnych systemów satelitów komunikacyjnych umieszczonych na orbitach okołoziemskich. W komunikacji satelitarnej transmisja danych jest prowadzona zarówno między punktami naziemnymi a satelitami, jak i między satelitami. Łączność satelitarna może być wykorzystywana w systemach komunikacji zarówno stacjonarnej, jak i mobilnej.
Komunikacja w łączności satelitarnej może być nawiązywana pośrednio lub bezpośrednio.
Komunikacja pośrednia polega na dostępie (przewodowym i bezprzewodowym) użytkownika do systemu naziemnych łącz satelitarnych nadawania odbioru sygnałów transmisji danych do/z satelity.
Centra te są dostępne zarówno w naszym kraju, jak i Europie (tę usługę oferują w Polsce m.in.: Eutelsat (Europejska firma dysponująca systemem 24 satelitów), Satlink, TTComm, TPSA, Onet.
W komunikacji bezpośredniej użytkownik dysponuje własnymi stacjonarnymi lub mobilnymi urządzeniami nadawczo-odbiorczymi do/z satelity.
Poważnym ograniczeniem w upowszechnieniu tego systemu łączności są relatywnie wysokie koszty zainstalowania niezbędnych urządzeń oraz wysokie opłaty za korzystanie z kanałów komunikacyjnych.
W kanałach mieszanych łączności bezprzewodowej linie transmisji danych są zestawiane z różnych kanałów komunikacyjnych, a użytkownik ma jednocześnie dostęp (pośredni) z danego urządzenia do różnych systemów łączności.
Najczęściej są to kombinacje:
telefonia komórkowa -kanały łączności radiowej,
telefonia komórkowa -łączność satelitarna,
łączność radiowa -łączność satelitarna.
Także w łączności bezprzewodowej, analogicznie jak w przewodowej, niejednokrotnie tworzy się (zwłaszcza dla szczególnych zastosowań) wyodrębnione, specjalnie na potrzeby komunikacji sieciowej tzw. kanały dedykowane.
Ważnym aspektem zastosowań kanałów mieszanych łączności bezprzewodowej jest możliwość tworzenia tzw. systemów komunikacji osobistej (użytkownika) - PCS (Personal Communication System) stacjonarnej, a przede wszystkim mobilnej.
III. Kanały komunikacji hybrydowej
Postęp technologiczny w dziedzinie telekomunikacji (i teleinformatyki) tworzy dogodne warunki do transmisji danych w kanałach hybrydowych (jednocześnie przewodowych i bezprzewodowych).
Najczęściej są nimi kombinacje następujących kanałów komunikacyjnych:
telefonii kablowej i TK,
TK i kanałów łączności przewodowej (nawet w ramach jednego operatora),
TV i łączności przewodowej (transmisje jednego operatora),
TV kablowej i łączności satelitarnej,
telefonii kablowej, TK i łączności satelitarnej,
kanałów optycznych i kanałów łączności przewodowej itp.
Wszystko to prowadzi do kreowania swoistego hybrydowego systemu komunikacji osobistej (użytkownika), tzw. systemów H-PCS (Hybrid Personal Communication Systems), w którym użytkownik:
korzysta z dowolnego kanału łączności przewodowej i bezprzewodowej,
ma możliwość tworzenia i dostępu do sieci komputerowej o dowolnej architekturze, strukturze przestrzennej i topologii.
Systemy H-PCS są coraz częściej oferowane użytkownikom jako kanał komunikacji sieciowej w miejscach publicznych (urzędy, hotele, supermarkety, restauracje, centra miast, lotniska, ośrodki wypoczynkowe itp.), czyli realizowane w technologii Wi-Fi tzw. hot spoty .
2. Technologie przepływu danych
Część technologii przepływu danych ma charakter uniwersalny i jest wykorzystywana w obu rodzajach kanałów (komunikacji przewodowej i bezprzewodowej). Dobór prezentowanych technologii jest, co wynika z ich bogactwa, nieco subiektywny.
Istotnym dla użytkownika parametrem "wydajności" określonej technologii przepływu danych jest jej przepustowość (szybkość transferu, pojemność, przepływność) mierzona liczbą transferowanych bitów na sekundę. Wiąże się ona również z przepustowością kanału komunikacji.
Możemy zatem technologie przepływu danych podzielić umownie na tzw.:
technologie wąskopasmowe (do 144 Kb/s),
technologie średniopasmowe (powyżej 144 Kb/s do 2 Mb/s) i
szerokopasmowe (powyżej 2 Mb/sek);
Dzięki postępowi technologicznemu stale wzrasta szybkość przepływu danych w sieciach telekomunikacyjnych i sieciach komputerowych.
Do najważniejszych technologii przepływu danych w kanałach komunikacji przewodowej zaliczamy:
PSTN/PSDN,
ISDN/BISDN,
klasę xDSL,
SDI/HIS,
FDDI,
SDB,
SDH/SONET,
CTV,
B-HFC,
FR,
ATM34 .
Objaśnienie poszczególnych akronimów będę podawała przy omawianiu poszczególnych technologii.
Najstarszym medium komunikacji są sieci telefoniczne operatorów publicznych PSTN (Public Switched Telephone Network). Technologie te w podstawowym rozwiązaniu zapewniają analogowy przekaz głosu przez komutowane lub stałe łącza telefonii kablowej. W rozwiniętych technologiach PSTN możliwe są również: obsługa poczty głosowej i poczty elektronicznej, korzystanie z telefaksu, prowadzenie (audio-) telekonferencji, dostęp do technologii ISDN, dostęp do Internetu.
Przepustowości PSTN zależą od stosowanych (lokalnie) rozwiązań technicznych, na ogół nie przekraczają 54 Kb/s, są zatem niewielkie.
Lepiej dostosowane do transmisji danych są technologie PSDN (Public Switched (Pakiet) Data Network) - publiczne sieci z pakietową transmisją danych. Najstarszą polską siecią pakietową jest uruchomiona w 1992 r. sieć POLPAK, stale modernizowana i rozwijana.
Podstawowe przepustowości technologii PSDN sięgają granicy 2 Mb/s. W rozwiniętych technologiach FR (Frame Relay) przepustowości sięgają do 45 Mb/s.
W największych przepustowościach (kilku Gb/s) technologie PSDN można wykorzystać do budowy sieci szkieletowej.
Technologia PSDN/FR umożliwia tworzenie tzw. wirtualnych połączeń (stałych lub komutowanych) między użytkownikami (i zasobami) sieci.
Podstawową formą połączeń użytkownika z siecią (np. z Internetu) w technologiach PSTN i PSDN jest połączenie typu dial-up, w którym użytkownik dodzwania się poprzez numer dostępowy do serwera dostępowego dostawcy usług (internetowych). To czasowe połączenie PC wymaga zastosowania po stronie użytkownika odpowiedniego modemu.
Technologia ISDN (lntegrated Services Digital Network) umożliwia w cyfrowej sieci telefonicznej transfer dowolnej klasy danych (teletekstowych, graficznych, dźwiękowych i multimedialnych) z zachowaniem dotychczas realizowanych usług analogowych (telefonicznych).
Podstawowe przepustowości sieci ISDN sięgają 192 Kb/s. W zaawansowanych rozwiązaniach do 1,5 Gb/s. Platforma ISDN jest wykorzystywana przede wszystkim do tworzenia sieci o niewielkim zasięgu (sieci domowe, sieci LAN organizacji, sieci MAN).
W przypadku dostępu do Internetu z platformy ISDN użytkownik musi kupić specjalną kartę - adapter. Technologia ISDN jest oferowana m.in. przez TPSA, z dostępem do Internetu o przepływie 64 lub 128 Kb/s.
Rozwinięciem ISDN jest technologia BISDN (Broadband ISDN), szerokopasmowa, w której kanały podstawowe ISDN 2 Mb/s są zwielokrotniane do 155- 622 Mb/s oraz
2,5 - 10 Gb/s. Wysoka przepustowość i kojarzenie z technologiami FDDI/SDH i ATM umożliwiają przez sieci z technologią BISDN efektywną transmisję dowolnego typu danych. Są dobrą platformą do tworzenia sieci szkieletowych, przede wszystkim MAN, WAN .
Technologie klasy xDSL (xDigital Subscriber Line) umożliwiają użytkownikowi dostęp do sieci łączami przewodowymi o zasięgu do 10 km.
Jest wiele odmian tej technologii. Ja przedstawię Państwu trzy istotne typy technologii DSL :
IDSL (ISDN -DSL) zapewnia symetryczny przepływ danych (o jednakowych przepustowościach do i od użytkownika) w granicach 128-144 Kb/s i zasięgu kilku kilometrów;
ADSL (Asymmetric DSL) nazywany łączem "ostatniej mili" (kilometra), umożliwia przesyłanie danych dowolnego typu kablem miedzianym lub światłowodowym;
przepływy są asymetryczne: większe w stronę użytkownika, mniejsze od użytkownika, maksymalne przepustowości w granicach 1,5-8 Mb/s, zasięg do ok. 5 km;
VDSL (Very High DSL) jest bardzo szybkim łączem o podobnych rozwiązaniach technicznych jak ADSL i przepustowościach do użytkownika ok. 50 Mb/s, a od użytkownika w granicach 20 Mb/s.
Wadą tej technologii jest relatywnie niewielki zasięg, do kilkuset metrów.
Kolejną ofertą rynkową dostępu do Internetu jest opracowana przez firmę Ericsson technologia HIS (Home Internet Solution), oferowana w Polsce przez TP SA pod nazwą SDI (szybki dostęp do Internetu).
Zapewnia ona użytkownikowi połączenie z Internetem o relatywnie niskiej przepustowości 115 Kb/s za pośrednictwem zwykłej analogowej linii telefonicznej.
Użytkownik dysponujący terminalem HIS otrzymuje stały numer IP, ma możliwość logowania się w Internecie poprzez serwer dostępowy operatora (nie musi korzystać z usługi dial-up ), tj. dzwonieniem pod numer dostępu.
Przykładem usługi stałego dostępu do Internetu jest Neostrada, wprowadzona przez TP SA . Nowa infrastruktura sieci umożliwia objęcie Neostradą ok. 80% wszystkich abonentów telefonicznych.
Wykorzystuje tzw. telefoniczne łącze abonenckie (użytkownika) w technologii ADSL.
W zależności od oferowanego wariantu umożliwia, dostęp o przepustowościach 128/ 512/ 1024 Kb/s. W ramach oferty udostępnia się przestrzeń dyskową o pojemności 5/20/50 MB do obsługi poczty elektronicznej i publikowania własnych stron www. Operator zapewnia też dostęp do własnego serwisu multimedialnego.
Konkurencyjne dla TPSA są oferty Netii i Dialogu. Konkurencją dla operatorów publicznych (ISP) są tworzone "półprywatnie" sieci blokowe, osiedlowe.
Technologia FDDI (Fiber Distributed Data Interface) stanowi standard złącz danych przesyłanych światłowodami, przede wszystkim w ramach szybkiej sieci LAN/MAN.
Budowane są w topologii pierścienia (TokenRing). Dostępem terminala do linii transmisji steruje "krążący" w niej znacznik (token). W najnowszych rozwiązaniach możliwe jest stosowanie jednocześnie wielu znaczników. Dzięki tej technologii osiąga się przepustowości rzędu 100 Mb/s, a zasięg (w podstawowowym rozwiązaniu) do 100 km.
Umożliwia to budowę sieci szkieletowych, sieci LAN o dużej "rozpiętości", łączenie odległych sieci LAN, tworzenie sieci kampusowych miejskich (MAN) i korporacyjnych.
Warto zwrócić uwagę, że współcześnie, ze względu na zalety technologii światłowodowych (wysoka przepustowość, odporność na zakłócenia, ograniczona możliwość podsłuchu), operatorzy sieci starają się "podejść" z tą technologią możliwie blisko użytkownika.
W technologii SDB (Switched Digital Broadband) kabel światłowodowy jest doprowadzony bezpośrednio do użytkownika. Transmisja danych jest realizowana w topologii punkt-punkt od miejsca nadania (pośredniego) do miejsca odbioru.
SDB charakteryzuje się dobrą przepustowością: do abonenta 50 Mb/s, a od abonenta do 1,5 Mb/s. Taka wysoka przepustowość może być z powodzeniem wykorzystana w sieciach domowych (PC, TV, audio-wideo, telefony itp.)
SONET (Synchronuos Optical NETwork). Technologia SONET była pierwszą amerykańską siecią transmisji opartą na technice światłowodowej (standard ANSI).
Standard ten, przyjęty na świecie, zapewnia integrację różnych technologii światłowodowego przepływu danych.
SDH/SONET (Synchronous Digital Hierarchy)- technologia SDH jest stosowana w Europie. Zapewnia przepustowość w sieciach światłowodowych w granicach 155 Mb/s/ 622 Mb/s/ 2,5/5/10 Gb/s. Wykorzystywana jest przede wszystkim do tworzenia sieci szkieletowych.
Technologie hybrydowe (kabel miedziany - światłowód) B-HFC (Bidirectional Hybrid-Fiber Coax) zapewniają dwukierunkową szerokopasmową transmisję danych w sieciach telewizji kablowej, na kablu współosiowym. Dobre przepustowości z Internetu do 30 Mb/s, a od użytkownika do 10 Mb/s umożliwiają tworzenie uniwersalnych sieci domowych (PC, TV, audio-wideo, telefonia itp.) oraz sieci LAN w granicach kilkuset mieszkań. Technologia B-HFC jest oparta na węzłach dostępowych optycznych, z których rozprowadzane są kable miedziane do poszczególnych mieszkań. Zatem szkieletem tej technologii są kable światłowodowe .
Usługi szerokopasmowego dostępu do Internetu w technologii telewizji kablowej oferują na polskim rynku m.in.: Aster, Multimedia Polska, UPC.
Technologia FR -(Frame Relay) pakietowej transmisji danych (ramki). Ramki mogą być stałej lub zmiennej odległości. Technologia ta jest stosowana w sieciach rozległych oraz do łączenia odległych sieci LAN. Pierwotnie była projektowana tylko do transmisji danych jako protokół ISDN. Rozszerzenia pozwalają na transmisję dowolnego typu danych. Możliwe jest definiowanie stałych i komutowanych sieci typu VPN (Virtual Private Network). W zależności od rozwiązań oferuje przepustowości 56-256 Kb/s oraz 1,5,2,45 Mb/s.
ATM (Asynchronous Transfer Mode) - jest to technologia transmisji cyfrowej (głos, obraz, dane) pakietowej w postaci komórek o stałej długości (53 bajty). Stosowana jest w sieciach LAN i WAN (MAN, GAN) .
Standard ATM ma charakter uniwersalny i może być stosowany w sieciach kablowych i bezprzewodowych (telefonii komórkowej, radiowych, w podczerwieni). Możliwe jest definiowanie kanałów i połączeń wirtualnych (VPN). W zależności od medium zapewnia przepustowość od 25 Mb/s do 10 Gb/s. Ze względu na dużą przepustowość jest stosowana również do tworzenia sieci szkieletowych.
Każdy z użytkowników winien rozważyć i przemyśleć wybór, odpowiednio do swoich potrzeb i wymagań, kanału łączności przewodowej (z oferowanych przez operatorów sieci telekomunikacyjnych i teleinformatycznych), przede wszystkim ze względu na ich przepustowości i ponoszone koszty użytkowania tych kanałów.
Do podstawowych technologii przepływu danych w kanałach komunikacji bezprzewodowej należą:
CT/DECT,
GSM,
HSCSD,
GPRS,
WAP,
EDGE,
UMTS,
HSDPA,
Bluetooth,
Wi-Fi
Wi-Max,
IrDA,
VSAT.
Technologia CT (Cordless Telephony) - to systemy telefonii bezprzewodowej, analogowej lub cyfrowej, umożliwiające dostęp do sieci lokalnych (domowych, przedsiębiorstw) i sieci publicznych PSTN. Ma zasięg ograniczony do kilkuset metrów. Podstawowym rozwiązaniem jest tu system DECT (Digital Enhanced Cordless Telecommunications) -system telefonii bezprzewodowej, stosowany zwłaszcza w bezprzewodowych centralach WPABX (Wireless PABX), umożliwia transmisję głosu, transmisję danych, współpracę z sieciami ISDN.
Maksymalny zasięg aparatów działających w tym systemie wynosi ok. 300 m w otwartym terenie. Gdy DECT jest używany w budynku, zasięg może być dużo mniejszy. Kraty, zbrojenia budowlane, instalacje ograniczają zasięg do kilkudziesięciu, a czasami nawet do kilkunastu metrów.
Technologia GSM (Global System Mobile Communication) to popularny standard telefonii komórkowej drugiej generacji . Rozwinięciem tej technologii jest możliwość transmisji w trybie HSCSD, GPRS, WAP, EDGE. Rozszerzenia technologii GSM migrują w kierunku UMTS.
Przepustowości podstawowe wynoszą 57-115 Kb/s.
HSCSD (High Speed Circuit Switched Data) - technologia pakietowa transmisji danych w kanale radiowym, stosowana jako rozwinięcie systemów GSM. Przepustowość rzędu 57 Kb/s jest porównywalna z dolną przepustowością GPRS z tego powodu m.in. ta technologia jest przez nią wypierana.
Technologia GPRS (General Packet Radio Services) stanowi ogólny standard radiowej transmisji pakietowej. Jest wykorzystywana przede wszystkim jako technologia bezprzewodowej transmisji danych w systemach komórkowych drugiej i trzeciej generacji. Przepustowości wynoszą 53-171 Kb/s. Umożliwia dostęp do sieci bezprzewodowych WLAN tworzenie ich przez centrale WPABX oraz przejście do standardowych LAN. Umożliwia także dostęp do sieci PSTN, ISDN i Internetu.
WAP (Wireless Application Protocol) -standard komunikacji w sieciach bezprzewodowych, udostępniający (od 1998 r.) w sieci cyfrowej telefonii komórkowej (GSM, UMTS) zasoby serwerów WTA (Wireless Telephony Application) i Internetu (www). Operuje na własnych formatach plików tworzonych, m.in. w języku WML (Wireless Markup Language) stanowiącym uproszczoną wersję języka hipertekstowego HTML. Przekaz obejmuje dane tekstowe, prostą grafikę, obraz dźwięk. W ramach protokołu dostępne są np.: e-mail, serwis informacyjny, realizowanie transakcji elektronicznych.
EDGE (Enhanced Data GSM Evolution) - technologia wykorzystująca kompresję danych zapewniającą przekazy multimedialne w systemach GSM (głos, dźwięk, obraz ruchomy) z szybkością 384 Kb/s do 1 Mb/s. Nazywana jest często technologią generacji 2,5 GSM (2,5G) - przejściową.
Technologia EDGE (E-GPRS)- z ang. Enhanced Data rates for GSM Evolution - co oznacza “Podwyższone prędkości transmisji dla rozwoju GSM”. Często stosuje się skrót E-GPRS, gdzie E oznacza enhanced, czyli w tym przypadku rozszerzony.
Obie technologie (GPRS i E-GPRS) są ze sobą w pełni kompatybilne, a przełączanie się terminali pomiędzy transmisją EDGE i GPRS odbywa się całkowicie płynnie. Użytkownik automatycznie uzyskuje większą szybkość połączenia bez potrzeby wprowadzania jakichkolwiek zmian w istniejących ustawieniach.
Technologie HSCSD, GPRS, WAP, EDGE są stosowane w Polsce w sieciach komórkowych.
UMTS (Universal Mobile Telecommunication System) jest europejskim standardem technologii komórkowej trzeciej generacji.
Przepustowości rzędu 384 Kb/s do 2 Mb/s zapewniają efektywne korzystanie z następujących usług UMTS:
telefonia, telefaks, e-mail, SMS, wideotelefonia, przekazy multimedialne, dostęp do baz danych, dostęp do Internetu, GPS.
A także wykonywanie przez użytkownika wielu operacji na wirtualnym rynku.
Najnowsze generacje UMTS z przepustowością powyżej 1 Mb/s są doskonałą platformą również dla przekazu w technologii mediów strumieniowych (tzw. transmisji na żywo). UMTS stanowi szerokopasmowe rozwinięcie amerykańskiego standardu CDMA (Code Division Multiple Access), czyli tzw. W-CDMA (Wideband- CDMA).
Podstawowym rozwiązaniem UMTS jest interfejs radiowych stacji naziemnych (bazowych) UTRA (UMTS Terrestial Radio Access) .
W systemie UMTS nowej generacji możliwy jest dostęp do kanałów kablowych, radiowych, satelitarnych.
HSDPA (High Speed Downlink Packet Access) stanowi rozszerzenie technologii W-CDMA (UTRA) przyjętej w Europie jako podstawowy standard UMTS, jest to najnowsza technologia łączności bezprzewodowej (radiowej).
W standardzie gwarantowane są sześciokrotnie większe przepustowości od UMTS.
Bluetooth - technologia bezprzewodowego dostępu radiowego. Do konsorcjum rozwijającego tę technologię należą najwięksi producenci sprzętu teleinformatycznego: IBM, Intel, Nokia, Ericsson, Toshiba.
Standard umożliwia połączenia o niewielkim zasięgu (około 10 m) komputerów stacjonarnych i urządzeń zewnętrznych (klawiatury, monitory, myszy, drukarki, telefony komórkowe, urządzenia audio-wideo itp.).
Możliwe jest przejście przez telefon komórkowy do systemu GPRS i Internetu.
Osiąga przepustowość do 1 Mb/s.
Rozwój technologii Bluetooth zmierza w kierunku zwiększenia zasięgu kanału radiowego do kilkuset metrów.
W technologii telefonii komórkowej i radiowej wskutek rywalizacji operatorów powstaje w miejscach publicznych wiele punktów dostępu do Internetu typu Wi-Fi (hot spot), o czym już mówiłam. Liczba hot spotów w Polsce błyskawicznie rośnie. Rywalizują na tym rynku, z korzyścią dla użytkownika, operatorzy telefonii komórkowej: Centertel, Polkomtel, PTC, oraz dostawcy tej usługi Spotnet, Hewlett Packard. Część hot spotów ma charakter komercyjny i dostęp jest do nich płatny.
Technologia ta umożliwia bezprzewodowy dostęp z terminala mobilnego (laptop,TK) do Internetu w promieniu kilkudziesięciu, maksymalnie do 250 m od punktu dostępowego.
Przepustowości są bardzo wysokie, w granicach 11-54 Mb/s, z możliwością podłączenia do punktu do 128 użytkowników jednocześnie. W tzw. hierarchicznych Wi-Fi liczba użytkowników może sięgać nawet tysiąca. Technologię Wi-Fi wykorzystuje się do budowy bezprzewodowych sieci lokalnych WLAN (Wireless LAN). Sieci te tworzone są dziś w dużych skupiskach ludzkich, firmach, hotelach, lotniskach, centrach konferencyjnych, itp., czyli wszędzie tam gdzie istnieje zapotrzebowanie na połączenia internetowe, a potencjalni użytkownicy wyposażeni są w komputery przenośne.
WiMax- to kolejna technologia bezprzewodowa (wykorzystująca fale radiowe) nadająca się do budowy szerokopasmowych sieci dostępowych. Może przesyłać sygnał internetowy na odległość kilkudziesięciu kilometrów. Można powiedzieć, że wkrótce mieszkańcy małych miast i wsi będą mogli surfować po sieci do woli. Tam gdzie operatorom nie pali się by kłaść nowe kable, Internet dotrze drogą radiową.
Porównanie WiFi oraz WiMax
wyszczególnienie |
WiFi |
WiMax |
Częstotliwość |
2,4 GHz (5GHz) |
2 - 11 GHz |
Zasięg |
50-250 m |
50 km |
Szybkość |
11 - 54 Mb/s |
100 - 500 Mb/s |
Przeznaczenie |
Sieci lokalne, dostęp do internetu |
Sieci rozległe, dostęp do internetu |
Zużycie energii |
wysokie |
wysokie |
Bezprzewodowa transmisja w podczerwieni IrDA (Infrared Data Association) jest ograniczona do niewielkiej przestrzeni kilkudziesięciu metrów. Umożliwia konfigurowanie i dostęp do sieci LAN (PC, telefon komórkowy, urządzenia zewnętrzne) ze standardową przepustowością 115 Kb/s, wyższymi przepustowościami 1-4 Mb/s (Past IrDA) i maksymalnymi do 16 Mb/s (a nawet do 1 Gb/s).
Technologia VSAT (Very Small Aperture Terminal) - oparta na małych stacjach nadawczo-odbiorczych w łączności satelitarnej. Jest stosowana zwykle w miejscach, gdzie nie ma możliwości tworzenia innej infrastruktury telekomunikacyjnej. Przepustowości nie przekraczają zwykle 2 Mb/s, standardowo do 256 Kb/s. Dostęp do stacji może być osiągany za pomocą kanałów mieszanych (przewodowych i bezprzewodowych). Dostępne są w Polsce następujące systemy VSAT: D-Star (Eutelsat), Satlink, TTComm, Clearlink VSAT (TPSA), Skystar Plus (TelBank) i inne.
Są stosowane przede wszystkim do: łączności głosowej, transmisji danych, w tym dostępu do serwisów internetowych, przekazu multimedialnego, TV, GPS i SIP/GIS.
[ Na rok 2008 przewiduje się uruchomienie własnego europejskiego systemu 30 satelitów Galileo. ]
3. Usługi komunikacyjne
Wzajemne przenikanie się technologii telekomunikacyjnych i teleinformatycznych powoduje,
że wiele (jeśli nie większość) usług komunikacyjnych uważanych dotychczas za "tradycyjne" jest wspieranych technologiami informatycznymi bądź posiada swoje "odpowiedniki" w tych technologiach.
W naszych rozważaniach skoncentrujemy się na najważniejszym, z punktu widzenia wirtualnego klienta, medium komunikacyjnym, jakim jest Internet.
Do podstawowych usług komunikacyjnych Internetu możemy zaliczyć:
www , e-mail , grupy dyskusyjne , komunikatory internetowe , ftp, IRC, telefonię internetową, blogi.
Poczta elektroniczna ( e-mail)
Korzystając z poczty elektronicznej (e-mail), wirtualny klient ma możliwość wysyłania informacji oraz ich odbierania od innych użytkowników sieci komputerowych (w tym Internetu).
Użytkownik, korzystając z poczty elektronicznej, dysponuje własnym, unikatowym adresem poczty (np. jan.kowalski@serwer.domena.pl) i tzw. skrzynką pocztową. Od strony nadawcy przesyłkę obsługuje serwer poczty wychodzącej, a od strony odbiorcy - odpowiedni serwer poczty przychodzącej.
Warunkiem korzystania z adresu i dostępu do skrzynki pocztowej jest posiadanie tzw. konta u dostawcy usług internetowych. Aktualnie wszystkie portale (np. Wirtualna Polska, Onet.pl, Gazeta.pl) i ważniejsi dostawcy usług internetowych (TPSA, Plus GSM, Dialog i inni) oraz niektóre
e-przedsiębiorstwa oferują odpłatnie lub nieodpłatnie tę usługę. Jedynym kosztem, jaki musi ponieść użytkownik, jest koszt dostępu do Internetu. Użytkownik może zatem dysponować pulą adresów poczty u jednego i wielu innych dostawców usług internetowych. Podstawową formą przesyłki pocztowej jest wiadomość tekstowa. Załącznikami poczty mogą być dowolnego rodzaju pliki (audio/wideo, multimedialne), w tym pliki w formacie HTML. Pocztę możemy wysyłać pod jeden adres lub pod pulę adresów jednocześnie (korespondencja seryjna). Ważnym dla użytkownika udogodnieniem jest możliwość dostępu do własnej skrzynki pocztowej z terminala (PC stacjonarny, mobilny) z dowolnego miejsca na Ziemi.
W komunikacji użytkownika z otoczeniem poczta elektroniczna jest stosowana do takich zadań, jak:
wymiana korespondencji z innymi użytkownikami (osobami fizycznymi), przedsiębiorstwami, instytucjami, urzędami itp.,
pozyskiwanie informacji (pliki tekstowe, graficzne, audio/wideo, multimedialne),
odbiór (z akceptowanych źródeł) materiałów promocyjnych, reklamowych, analityczno-badawczych,
wykonywanie (częściowe) za pomocą poczty niektórych operacji w przestrzeni wirtualnej .
Do podstawowych zalet poczty elektronicznej możemy zaliczyć:
taniość, łatwość obsługi i powszechność,
funkcjonalność (różne formy plików) i korzystanie bez ograniczeń czasowych (24 godz. przez 365 dni),
szybkość i nieograniczony zasięg (poczta dociera do dowolnego miejsca na Ziemi w kilka minut).
Użytkownik musi zdawać sobie sprawę z wielu niedogodności wynikających z korzystania z poczty elektronicznej :
możliwości przeglądania poczty (mimo zabezpieczeń) przez nieuprawnionych użytkowników lub nierzetelnych dostawców usług,
konieczności szyfrowania ważniejszej korespondencji i opatrywania jej podpisem elektronicznym ,
otrzymywania korespondencji niechcianej (marketing wirusowy, spamowanie),
niebezpieczeństwa wykorzystania jej przez różnego rodzaju oszustów, używania jej jako podstawowego narzędzia mechanizmem propagacji wirusów komputerowych.
Do znanych powszechnie programów obsługi poczty elektronicznej należą: Outlook i Outlook Express /Microsoft, Thunderbird/Mozilla, The Bat!, Eudora Mail . Zaawansowane programy poczty umożliwiają jej filtrowanie, blokowanie i odrzucanie. Nie trzeba dodawać, że usługa poczty elektronicznej ma dominującą pozycję i wypiera tradycyjną pocztę.
Odmianą poczty elektronicznej (tekstowej) jest poczta głosowa, w której przekaz ma formę nagranej wiadomości głosowej (dostępna np. w programie Eudora Mail). Obsługiwana jest podobnie jak e-mail. Poczta głosowa jest stosowana zarówno w sieciach komputerowych (w tym w Internecie), jak i w sieciach operatorów telefonii stacjonarnej i mobilnej. Zbliżone technologicznie i funkcjonalnie do poczty elektronicznej są usługi SMS (Short Message Service) i MMS (Multimedia Message Service), powszechnie dostępne, zwłaszcza w sieci telefonii mobilnej GSM / EDGE / UMTS. Podstawową zaletą usługi SMS jest jej znacznie niższy koszt od przekazu głosowego, niekiedy usługa ta jest (przy pewnych ograniczeniach) oferowana bezpłatnie. Poczta elektroniczna i usługi SMS są również jedną z podstawowych form komunikacji sprzyjających rozwojowi tzw. wirtualnych społeczności.
Kolejna usługa komunikacyjna internetu to ftp (File Transfer Protocol) Ogólnie, usługa ftp - umożliwia przesyłanie plików między komputerami w sieci. Jest to, obok poczty elektronicznej, jedna z najstarszych usług komunikacyjnych. Umożliwia ona użytkownikowi pobieranie (kopiowanie) z serwerów ftp, za pośrednictwem programu-klienta (dostępnego np. w systemie Windows, Linux) wybranych plików.
Uprawnieni użytkownicy mogą również przesyłać swoje pliki do serwerów ftp. Serwery ftp mogą być specjalizowane (tematyczne) i niespecjalizowane (ogólnotematyczne), zawierające pliki z różnych dziedzin. Podstawowym formatem plików ftp są pliki binarne (tekstowe).
Współcześnie w technice enkapsulacji jest możliwość transferu plików w innych formatach (audio-wideo, multimedialnych).
[ Enkapsulacja: przesyłanie plików sformatowanych w jednym protokole (nieakceptowanym w transmisji) w ,.kapsule" wewnątrz drugiego protokołu (akceptowanego). ]
Przeszukiwanie zasobów serwerów ftp ułatwiają specjalizowane wyszukiwarki plików -FTP Search.
www (World Wide Web)
WWW to akronim trafnej nazwy światowa pajęczyna - rozproszonego, opartego na hipertekście, multimedialnego światowego systemu informacyjnego, zorganizowanego i udostępnianego w Internecie. Twórcami www uruchomionej na przełomie lat 1990/1991, pomyślanej pierwotnie jako system wymiany informacji naukowej, byli T. Bernes-Lee i R. Cailiau z CERN w Szwajcarii .
Wprowadzenie www na platformę Internetu stało się swoistym synonimem Sieci. Obecnie jest to najbardziej zaawansowana technologicznie, o największych zasobach, najbardziej popularna usługa Internetu. Zasoby www udostępniane są użytkownikowi w architekturze klient-serwer.
Usługa www :
nie tylko udostępnia pliki multimedialne (tekst, dźwięk, audio-wideo),ale
stanowi również platformę dostępu do innych usług internetowych (np. e-mail, SMS, ftp, irc, komunikatory) oraz, umożliwia realizowanie przez użytkownika wszystkich podstawowych operacji na poziomie oprogramowania aplikacyjnego e-biznesu (e-gospodarki).
Prace nad rozwojem www koordynuje w skali światowej organizacja W3C (World Wide Web Consortium), z której witryny (www.w3.org) można pobierać m.in., nieodpłatne oprogramowanie aplikacyjne.
Grupy dyskusyjne (newsgroups)
W najprostszej definicji grupa dyskusyjna to określone miejsce w sieci, w którym użytkownicy za pomocą odpowiednich technologii komunikacyjnych mogą wymieniać informacje na tematy zdefiniowane dla grupy. Jednym z najbardziej znanych światowych systemów grup dyskusyjnych jest Usenet . System ten stanowią tysiące rozlokowanych na całym świecie serwerów grup dyskusyjnych (newsserwers) wymieniających między sobą wiadomości użytkowników i obsługujących za pomocą programów typu "klient" (newsreader) poszczególnych użytkowników. W Polsce liczba grup dyskusyjnych sięga już kilku tysięcy. Grupy porządkowane są według tematyki, będącej podstawą tworzenia wieloczłonowych nazw podobnych do nazw domen internetowych. Najwyższą, pierwotną hierarchią grup jest podział na:
news., dotyczy ogólnej problematyki systemu Usenet,
com., sprzęt komputerowy, oprogramowanie, inne zagadnienia informatyki,
sci., wszelkie dziedziny nauki, z wyjątkiem informatyki,
soc., zagadnienia, wydarzenia, sprawy społeczne, polityczne,
rec., rekreacja, hobby, sztuka,
talk., pogawędki, poświęcone niekiedy tematom kontrowersyjnym,
misc., różna tematyka, nie mieszcząca się w pozostałych grupach.
Grupy mogą być też porządkowane według kraju "pochodzenia" (np.: pl., de., uk.). Zwykle warunkiem dostępu do określonej grupy jest subskrypcja u administratora systemu.
Wiadomości wykraczające poza tematykę dyskusji grupy, niezgodne z dobrymi obyczajami, przepisami i zasadami (wulgarne, obraźliwe, pornograficzne, faszystowskie itp.) lub wiadomości o charakterze spamów są usuwane przez administratorów systemu.
IRC (Internet Relay Chat)
Jest popularną usługą Internetu umożliwiającą wielu użytkownikom jednocześnie prowadzenie synchroniczne (w czasie rzeczywistym) "pogawędek" tekstowych. [Pierwszy system IRC stworzył i uruchomił w Finlandii pod koniec lat osiemdziesiątych XX w. J.Oikarinen]. Usługę udostępniają serwery IRC, tworzące rozległe (nawet globalne) i o mniejszym zasięgu (np. krajowe lub lokalne) kanały wymiany komunikatów. Demokracja IRC polega na tym, że praktycznie każdy użytkownik może aktywować własny kanał, jeśli znajdzie chętnych do dyskusji. Istnieją również rozwiązania, w których zarówno serwery, jak i kanały (tematy) mają charakter zamkniętych -są dostępne tylko dla określonej grupy użytkowników. Komunikacja IRC w tzw. kanałach zamkniętych, chronionych hasłem i nadawanymi użytkownikowi uprawnieniami, jest wykorzystywana przede wszystkim przez przedsiębiorstwa do kontaktu z ich klientami, przez organizacje zawodowe, społeczne, polityczne itp. Najczęściej też dyskusje w kanałach zamkniętych są (za zgodą ich uczestników) monitorowane i moderowane. Usługę czat (chat) oferują wszystkie ważniejsze portale w Polsce.
Blogi są formą komunikacji między internautami - nadawcami i odbiorcami treści. Podstawową formą blogów są przekazy tekstowe. Aplikacja bloga jest uruchamiana z poziomu przeglądarki, np. Internet Eksplorera/MS lub Firefox'a. Do tekstu założonego przez określonego użytkownika - nadawcę inni użytkownicy - odbiorcy mogą, po zapoznaniu się z tym tekstem, dodawać swoje komentarze, z datą i godziną ich umieszczenia. Najczęściej blogi zawierają opinie na aktualne tematy, rozważania (eseje) gospodarcze, społeczne, polityczne, pamiętniki, zwierzenia -krótko mówiąc treści, z którymi nadawca chce się podzielić z odbiorcą. Dostępne są również aplikacje blogów na platformie mobilnej (iTK, palmptopy, laptopy), tzw. m-blogi. Bloga możemy uruchomić na swojej stronie prywatnej lub ulokować w serwisie płatnym bądź bezpłatnym. Usługa jest dostępna w Polsce od 2001 r. i bardzo szybko się rozwija. Praktycznie każdy bloger może utrzymywać własny serwis blogowy.
Blogi i wcześniej prezentowane formy komunikacji elektronicznej stają się synonimem wolności mediów bez licencji, bez cenzury, bez kontroli. To przejaw demokratyzacji mediów. W Internecie każdy może być wydawcą, publicystą, producentem muzycznym, filmowym, multimedialnym. Pośrednik medialny staje się zbędny. Zjawisko to nazywa się "dezintermediacją".
Najnowsze formy blogów i podobnych usług komunikacyjnych to:
podcasting, w którym tysiące internautów przygotowuje własne audycje w formacie MP3 i dystrybuuje je w Sieci,
vbloging, czyli tworzone własne autorskie serwisy informacyjne, w tym swoiste formy reportażu z podkładem dźwiękowym i wideo, udostępniane w Internecie,
mobloging, vmobloging, prowadzone podobne serwisy na podstawie TK z kamerą foto i wideo.
W naszym kraju usługa jest dostępna m.in. w serwisach Blog.pl, Blox.pl, Blog.onet.pl. W Polsce, podobnie jak na świecie, własne blogi prowadzi, poza zwykłymi internautami, wiele znanych osobistości życia politycznego (Ryszard Czarnecki - eurodeputowany, były premier -Kazimierz Marcinkiewicz), społecznego, kulturalnego i gospodarczego. Ta forma nieograniczonej komunikacji internautów intensywnie się rozwija.
Telefonia internetowa
Telefonia internetowa jest oparta na pakietowej transmisji głosu za pośrednictwem podstawowego protokołu VoI (Voice over Internet). Może być również realizowana w dowolnej sieci komputerowej (LAN, MAN, WAN, GAN) akceptującej protokół IP. W technologii VoI jest również możliwe wykonywanie połączeń multimedialnych (np. wideotelefonii i innych przekazów audio-wideo). Do prowadzenia rozmów są stosowane różnorodne kombinacje urządzeń (terminali) np. : PC-PC, PC-telefon. Wykorzystywany do rozmów PC musi być wyposażony: w kartę dźwiękową, mikrofon, głośniki i odpowiedni program do prowadzenia rozmów w Internecie (np. Skype, NetMeeting/Microsoft, Tlenofon i inne). Telefonia internetowa oferuje użytkownikowi szereg udogodnień, m.in.:przekazy głosu i przekazy multimedialne, utrzymywanie połączeń lokalnych na tym samym aparacie w podróży po świecie (!), możliwość łączenia w ramach abonamentu dodatkowego telefonu z odrębnym numerem, stosowanie jednego numeru dla wielu telefonów abonenta zlokalizowanych w różnych miejscach (nawet na świecie), znaczną obniżkę kosztów rozmów telefonicznych. Kolejnym udogodnieniem technologicznym tej telefonii będzie dostęp poprzez bezpłatne w większości przypadków punkty hot spot (Wi-Fi). Oznaczałoby to, ni mniej, ni więcej, że z wielu miejsc będziemy mogliby dzwonić i rozmawiać bezpłatnie.
Komunikatory (Instant Messaging -IM)
Przez komunikator internetowy rozumieć będziemy pakiet (zestaw) programów umożliwiających użytkownikowi, zwykle w czasie rzeczywistym, komunikację z innym użytkownikami, usługami i zasobami w Sieci.
Interesującymi opcjami komunikatorów jest :komunikacja tekstowa i głosowa z telefonią komórkową, możliwość przesyłania dowolnych plików (graficznych, audio-wideo, multimedialnych), uruchamianie tzw. pokojów rozmów, wieloosobowych konferencji i obsługa gier sieciowych (współdziałanie większej liczby użytkowników).
Najbardziej znane na świecie komunikatory to: ICQ [Akronim ICQ to ang. fonetyczne wyrażenie I Seek You (poszukuję cię). /Mirabilis, MSN Messenger/Microsoft, Netscape Communicator, Instant Messenger/America OnLine.
W Polsce największą liczbę użytkowników mają komunikatory Gadu-Gadu.pl, Tlen.pl, OnetKomunikator.pl, (WP)Kontakt.pl. Użytkownikowi korzystającemu z komunikatora przydzielany jest unikatowy identyfikator (w Tlenie ID; login), który potwierdza jego tożsamość w komunikacji z innymi użytkownikami.
Formy komunikowania się w sieci dzielą się ze względu na tryb wykorzystywania na:
synchroniczne ( wymagają jednoczesnego udziału wszystkich uczestników). Zaliczamy do nich:
audiokonferencję i wideokonferencję,
telefonię internetową,
rozmowę interakcyjną w trybie tekstowym,
konferencję w trybie tekstowym
asynchroniczne (gdy członkowie grupy korzystają z systemu w różnych dogodnych dla siebie porach). Do aplikacji tego typu należą:
poczta elektroniczna
listy dyskusyjne
systemy przechowywania i dystrybucji wiadomości.
II. WYBRANE PROBLEMY BEZPIECZEŃSTWA DANYCH
1 . Istota bezpieczeństwa
2. Bezpieczeństwo danych w przedsiębiorstwie
3. Bezpieczeństwo danych w sieci INTERNET
4. Aspekty technologiczne podpisu elektronicznego
5. Otoczenie legislacyjne e-business
6. Koncepcja bezpieczeństwa systemu informatycznego
Istota bezpieczeństwa
Działalność każdego przedsiębiorstwa oparta jest na zasobach informacyjnych. Są one zbierane, przechowywane, przetwarzane i przesyłane. Poddawane są różnego rodzaju analizom .
Informacje te mają swoją wagę i dlatego przedsiębiorstwa powinny opracować odpowiednią politykę ich bezpieczeństwa.
Pod pojęciem bezpieczeństwa należy rozumieć ogół środków i procedur, mających na celu niedopuszczenie do zniszczenia, utraty, kopiowania, modyfikacji lub zdradzenia treści informacji przez osoby fizyczne lub prawne.
Zagrożenia informacji najczęściej dotyczą: -zniszczenia, -utraty , -modyfikacji, -kopiowania, -zdradzenia treści.
W praktyce złamanie przez intruza systemu bezpieczeństwa informacji wiąże się z dwoma typami zagrożeń: finansowymi i niefinansowymi.
Do zagrożeń związanych ze stratami finansowymi
zalicza się :
- straty bezpośrednie, np. utratę technologii,
- stary pośrednie, np. koszty sądowe,
- stratę klientów i kontrahentów,
- konieczność zmiany konfiguracji systemu komputerowego,
aby uniemożliwić kolejne elektroniczne włamania,
- sankcje wymienione w ustawie o ochronie danych osobowych,
- utratę lub zniszczenie sprzętu,
- przerwę w funkcjonowaniu przedsiębiorstwa,
- wzrost składek ubezpieczeniowych,
- załamanie działalności przedsiębiorstwa.
Do najistotniejszych zagrożeń związanych ze stratami
niefinansowymi zalicza się:
utratę prestiżu i dobrego imienia,
utratę wiarygodności w oczach klientów,
niefinansowe sankcje wymienione w ustawie o ochronie danych osobowych,
konieczność zmiany konfiguracji systemu komputerowego, co pociąga za sobą duże obciążenie pracowników, dezorganizację,
niewłaściwe decyzje podjęte w oparciu o sfałszowane informacje,
brak decyzji w przypadku utraty informacji.
2. Bezpieczeństwo danych w przedsiębiorstwie
Zagadnienia związane z bezpieczeństwem użytkowania systemów informacyjnych szczególnie w zakresie zabezpieczenia rozwiązań informatycznych są tematem Raportu Technicznego organizacji międzynarodowych -ISO/IEC TR 13335.
Na podstawie pierwszej części tego dokumentu powstała Polska Norma PN-I-13335-1 dotycząca zarządzania bezpieczeństwem systemów informatycznych.
W zakresie standardów zabezpieczeń w obszarze teleinformatyki takim międzynarodowym unormowaniem jest dokument ISO/IEC 15408.
Każdorazowe niepowołane dotarcie intruza do informacji znajdujących się w systemie informacyjnym przedsiębiorstwa nazywa się włamaniem.
Rozróżnia się dwa typy włamań:
fizyczne, które wymagają obecności intruza
zdalne, które odbywają się za pomocą różnych środków technicznych.
Do podstawowych rodzajów ataków zalicza się:
podsłuch akustyczny bezpośredni,
podsłuch akustyczny pośredni z wykorzystaniem mikrofonów kierunkowych lub instalacji technicznych wewnątrz obserwowanych pomieszczeń, potocznie nazywanych "pluskwami",
emisję elektromagnetyczną z urządzeń komputerowych i telekomunikacyjnych,
obserwację bezpośrednią z filmowaniem lub fotografowaniem włącznie,
obserwację pośrednią poprzez odczytanie z filmowaniem lub fotografowaniem włącznie,
przechwytywanie informacji drogą elektromagnetycznej emisji wtórnej,
przechwytywanie informacji przesyłanych liniami telekomunikacyjnymi,
użycie czytników laserowych lub na podczerwień.
Każde przedsiębiorstwo, analizując wielkość środków finansowych, opłacalność inwestycji związanych z bezpieczeństwem informacji oraz inne czynniki, przyjmuje jeden z trzech modeli bezpieczeństwa.
Model pierwszy polega na braku jakichkolwiek zabezpieczeń.
W modelu drugim zabezpieczenia dotyczą ochrony tylko wybranych jednostek organizacji.
Model trzeci to kompleksowa ochrona całości przedsiębiorstwa
Techniki zabezpieczeń związanych
z ochroną informacji dzieli się na:
organizacyjne,
administracyjne,
fizyczne,
programowe.
Techniki administracyjne polegają na certyfikowaniu oraz odpowiednim zarządzaniu dostępem do pomieszczeń.
Certyfikowanie powinno dotyczyć zakupu i serwisu sprzętu, oprogramowania, urządzeń specjalistycznych, obiektów i pomieszczeń, technologii, i dokumentów.
Poszczególni użytkownicy powinni mieć nadane odpowiednie uprawnienia.
Zabezpieczenia fizyczne powszechnie kojarzą się z metalowymi drzwiami i kłódką, które uniemożliwiają wejście osób niepowołanych do pomieszczeń z tajnymi dokumentami, drogim sprzętem.
W rzeczywistości jest to problem szerszy.
Obiekt będący pod ochroną powinien być otoczony tzw. strefą ochronną, której rolą jest gradacja dostępu.
Na granicy tej strefy umieszcza się:
oznaczenie granicy (drzwi, mur, łańcuch itp.),
znaki informacyjne,
utrudnienie przejścia i kontrolowanie (strażnicy, recepcja, karty wejściowe),
urządzenia monitorujące i alarm w przypadku przekroczenia granicy przez osoby niepowołane.
Techniki fizyczne obejmują również
zabezpieczenia transmisyjne i emisyjne.
Zabezpieczenia transmisyjne dotyczą wyboru odpowiedniego medium służącego do transmisji danych.
Informacje w formie elektronicznej przesyła się przez:
sieci komputerowe,
telekomunikacyjne i telefoniczne.
Zabezpieczenia emisyjne dotyczą ograniczenia niepożądanej emisji fal elektromagnetycznych przez sprzęt komputerowy.
Może ona zostać zamieniona przez urządzenia podsłuchowe na informacje.
Źródłem takiej emisji są praktycznie wszystkie podzespoły komputera: kable sieciowe, kable zasilające, monitory, dyski twarde, drukarki itp.
Techniki programowe, nazywane również systemowymi, dotyczą systemów informatycznych.
Do podstawowych usług zabezpieczających informacje przechowywane i przetwarzane za pomocą sprzętu komputerowego zalicza się:
identyfikację,
uwierzytelnienie,
autoryzację
kontrolę dostępu .
Identyfikacja polega na przydzieleniu każdemu użytkownikowi systemu identyfikatora.
Do różnych aplikacji i różnych serwerów ta sama osoba może mieć różne identyfikatory w zależności od przyjętej polityki bezpieczeństwa i zaleceń administratora systemu.
Użytkownik w zależności od podanego identyfikatora ma skonfigurowany indywidualnie system do swoich potrzeb i realizowanych zadań.
Proces uwierzytelniania, polega na podaniu oprócz identyfikatora użytkownika odpowiedniego hasła.
Jest ono najczęściej sześciu lub ośmioznakowe.
Uwierzytelnianie może przyjmować jedną z trzech postaci:
1. uwierzytelnianie użytkownika przed systemem komputerowym, w ramach którego system komputerowy, do którego dostęp zamierza uzyskać użytkownik, musi dokonać identyfikacji tego użytkownika oraz kontroli jego uprawnień dostępu;
2. uwierzytelnianie systemu komputerowego (stacji) przed użytkownikiem, który zanim rozpocznie np. przekazywanie określonych informacji, musi mieć pewność, że uzyskał połączenie i rozpoczyna współpracę z właściwym systemem komputerowym,
3. uwierzytelnianie obustronne.
Uwierzytelnianie (ang. authentication) jest procesem stwierdzania autentyczności, czyli wiarygodności.
Można mówić o uwiarygodnianiu użytkownika, stacji roboczej lub serwera, integralności pliku danych.
Uwierzytelnianie ustanawia określone związki pomiędzy dwiema jednostkami systemu informatycznego.
Aktualnie wykorzystuje się trzy podstawowe metody uwierzytelniania użytkownika przed systemem komputerowym:
1. Weryfikacja przedmiotu posiadanego przez użytkownika (co użytkownik posiada?) -użytkownik uzyskuje dostęp do zasobów systemu komputerowego na podstawie identyfikacji przez system pewnego znacznika (ang. token), którym może być określony klucz, karta magnetyczna lub elektroniczna (z mikroprocesorem) albo inne specjalne urządzenie;
2. Weryfikacja cech fizycznych użytkownika -metoda polegająca na identyfikacji biometrycznej (analiza odcisków palców, siatkówki lub tęczówki oka, cech charakterystycznych głosu itp.);
3. Weryfikacja wiedzy użytkownika -metoda polegająca na sprawdzeniu określonej wiedzy użytkownika:
w wąskim zakresie - hasła,
w szerszym -innych informacji, w tym także przy użyciu metod kryptograficznych.
Autoryzacją nazywa się proces przydzielania praw dostępu poszczególnym użytkownikom. Polega on na ustaleniu, czy dana osoba może mieć dostęp do plików i na jakim poziomie. Możliwa jest taka konfiguracja systemu, aby możliwy był tylko odczyt, bez możliwości dokonywania jakichkolwiek zmian w plikach.
Kontrola dostępu to usługa, z której korzystają administratorzy w celu ustalenia praw dostępu do sieci i zasobów.
Określa kto i pod jakim warunkiem może skorzystać z określonego zasobu.
3. Bezpieczeństwo danych w sieci Internet
Połączenie sieci lokalnej przedsiębiorstwa z Internetem wymaga podjęcia pewnych kroków zmierzających do zapewnienia odpowiedniego poziomu bezpieczeństwa danych.
Bezpieczeństwo to dotyczy nie tylko zasobów zgromadzonych w wewnętrznych bazach danych przedsiębiorstwa, ale również informacji przesyłanych za pośrednictwem sieci.
Przedsiębiorstwo, chroniąc się przed atakami hakerów, powinno opracować właściwą politykę bezpieczeństwa danych.
Polityka taka powinna szczegółowo regulować prawa, obowiązki i sposób zachowania się pracowników firmy wykorzystujących sieci komputerowe. W jej skład powinny wchodzić również procedury postępowania personelu firmy w sytuacjach zagrożenia.
W celu wzmocnienia polityki bezpieczeństwa przedsiębiorstwo może wykorzystywać szereg narzędzi.
Do najważniejszych z nich należą:
ściana ognia ( ang. firewall/
szyfrowanie danych,
profilaktyka antywirusowa.
Ściana ognia jest systemem, który może składać się z rozwiązań programowych, sprzętowych lub sprzętowo-programowych.
Zadaniem ściany ognia jest kontrolowanie przepływu informacji pomiędzy siecią lokalną a Internetem.
Jedną z najczęściej wykorzystywanych usług Internetu jest poczta elektroniczna.
W celu zapewnienia poufności danych przesyłanych pocztą elektroniczną stosuje się szyfrowanie.
Szyfrowanie polega na utajnieniu wiadomości w taki sposób, aby niemożliwe stało się jej odczytanie przez osoby postronne. Proces odwrotny do szyfrowania zwany jest deszyfrowaniem.
Do utajnienia i odczytywania zaszyfrowanych wiadomości niezbędne jest posiadanie odpowiedniego klucza.
Istnieją dwie metody szyfrowania przesyłanych danych:
1. szyfrowanie z kluczem symetrycznym,
2. szyfrowanie z kluczem asymetrycznym.
Szyfrowanie kluczem symetrycznym polega na tym, że zarówno nadawca, jak i odbiorca używają tego samego klucza do szyfrowania i odszyfrowania wiadomości.
Odbiorca i nadawca powinni przed transmisją wymienić w bezpieczny sposób klucz pomiędzy sobą.
Szyfrowanie z kluczem asymetrycznym wymaga dwóch wzajemnie uzupełniających się kluczy, tj. klucza publicznego i klucza prywatnego. Klucz publiczny zostaje ujawniony przez użytkownika innym osobom, natomiast klucza prywatnego nie może on udostępniać nikomu.
Niezmiernie ważnym problemem dla przesyłania poczty w sieci Internet jest możliwość sprawdzenia przez odbiorcę, czy przesyłka pochodzi rzeczywiście od osoby podpisanej pod wiadomością. W celu zabezpieczenia przed możliwością podszywania się intruza pod prawdziwego nadawcę listu oraz by uniemożliwić modyfikację przesyłanej wiadomości stosuje się tzw. podpisy cyfrowe.
W podpisie cyfrowym stosuje się odwrotną zasadę szyfrowania niż w metodzie szyfrowania z kluczem publicznym.
W tym przypadku nadawca używa klucza prywatnego do zaszyfrowania podpisu, a odbiorca odszyfrowuje go za pomocą klucza publicznego. W ten sposób osoba niepowołana nie może podszyć się pod nadawcę, ponieważ nie zna jej klucza prywatnego.
Głównym przeznaczeniem programu PGP jest szyfrowanie poczty elektronicznej oraz tworzenie podpisu cyfrowego. PGP umożliwia szyfrowanie zarówno kluczem symetrycznym oraz asymetrycznym. Można go wykorzystywać do komputerów pracujących pod różnymi systemami operacyjnymi, np. UNIX czy Windows NT.
Zabezpieczeniem dla przesyłanych danych jest ich szyfrowanie z użyciem programu ssh (Secure Shell), który w swym działaniu wykorzystuje technikę kluczy asymetrycznych.
Dzięki Internetowi stworzono warunki do nowego sposobu rozprzestrzenia się wirusów komputerowych. Szczególnie dużym zagrożeniem dla zasobów wewnętrznych przedsiębiorstwa i jego systemu operacyjnego są wirusy dołączone jako załączniki do poczty elektronicznej.
Sieciowa profilaktyka antywirusowa sprowadza się właściwie do:
nieuruchamiania plików na odległych komputerach, lecz zapisywaniu ich na lokalnych twardych dyskach,
nieotwierania załączników do poczty elektronicznej pochodzącej z niewiadomego źródła,
posiadania odpowiedniego i bieżąco aktualizowanego oprogramowania antywirusowego (najlepiej działającego w tle),
kontrola antywirusowa wszystkich skopiowanych plików za pośrednictwem sieci.
Inne złośliwe programy, które, nie będąc wirusami, również mogą być niebezpieczne dla przedsiębiorstwa:
robak (worm) -to program, który może się powielać w sieci wprost w niezliczonych ilościach. Zwykle nie atakuje żadnych plików, lecz osłabia lub uniemożliwia funkcjonowanie systemu operacyjnego przez przepełnienie pamięci,
koń trojański -stwarzając wrażenie użytecznej aplikacji, po uruchomieniu udostępnia włamywaczowi istotne dla niego dane,
wrogi "aplet Javy" -program napisany w języku Java, który może zawierać w sobie podprogram o działaniu podobnym do konia trojańskiego.
W Internecie używane są różne protokoły bezpieczeństwa.
Stosowane są one w różnych warstwach Modelu Referencyjnego Połączonych Systemów Otwartych OSI RM, w tym m.in.:
w warstwie aplikacji - protokoły: SET, PGP, PEM,
w warstwie prezentacji - protokół SHTTP (Secure http)
w warstwie sesji - protokół SSL (Secure Socket Layer)
w warstwie transportowej - protokół IPSec (Secure Internet Protocol)
Jak działa protokół IPSec?
IPSec wykorzystuje algorytm skrótu (hash) oraz kryptografię klucza publicznego do ochrony połączeń sieciowych między dwoma punktami końcowymi.
W swojej najbezpieczniejszej postaci IPSec korzysta z jednego klucza do podpisu i szyfrowania danych oraz z drugiego - do weryfikacji sygnatury wiadomości i deszyfrowania danych.
Podpisy oraz szyfrowanie udostępniają łącznie cztery typy ochrony pakietów: uwierzytelnianie, integralność, zabezpieczenie przed ponownym przesyłaniem (anti-replay) oraz- opcjonalnie- poufność.
IPSec uwierzytelnia oraz weryfikuje pochodzenie każdej wiadomości , co gwarantuje znajomość jednostki wysyłającej.
IPSec gwarantuje integralność danych, co oznacza, że nikt nie może modyfikować danych podczas ich przesyłania pomiędzy komputerem nadawcą a komputerem odbiorcą.
IPSec unikatowo oznacza każdy pakiet IP podpisem cyfrowym z sumą kontrolną, co zabezpiecza przed użyciem oraz ponownym przesyłaniem wiadomości przez innego użytkownika
Dodatkowo umożliwia gwarancję poufności poprzez szyfrowanie pakietów sieciowych, dzięki czemu istnieje gwarancja, że tylko osoba posiadająca klucz do deszyfrowania wiadomości może ją odczytać.
Protokół SSL (ang. Secure Socket Layer),
Dla użytkowników najpopularniejszych przeglądarek internetowych Netscape Nawigatora i Internet Explorera, funkcjonowanie protokołu SSL jest praktycznie niezauważalne, t.j. nie wymaga on żadnej interakcji użytkownika.
Obsługa SSL wbudowana jest także w inne przeglądarki oraz w praktycznie każde oprogramowanie serwera WWW.
Sesja SSL opiera się na algorytmach klucza publicznego. Te z kolei nie mają przecież racji bytu bez certyfikacji kluczy publicznych. Tak więc poza samym uruchomieniem SSL na serwerze WWW, należy jeszcze uzyskać dla tego serwera certyfikat własnego klucza publicznego. Certyfikat ten musi być wydany przez odpowiedni Urząd Certyfikatów.
Bezpieczeństwo informacji wymienianej elektronicznie oparte jest na kryptografii. Zasada ta obowiązuje także w przypadku SSL, w którym zaimplementowano wiele algorytmów kryptograficznych, stosowanych w zależności od żądanych usług ochrony informacji.
Specyfika SSL 3.0 definiuje aż 31 różnych stosowanych zestawów algorytmów kryptograficznych. Wybór stosowanego algorytmu dokonywany jest automatycznie podczas nawiązywania sesji SSL.
Po nawiązaniu chronionej protokołem SSL sesji komunikacyjnej przeglądarki z bezpiecznym serwerem WWW, w dolnym pasku stanu przeglądarki pojawia się ikona w postaci kłódki, informująca o tym, że komunikacja z danym serwerem jest chroniona. Poziom zabezpieczenia można sprawdzić umieszczając kursor na tej ikonie.
Po chwili pojawia się informacja np. „SSL Secured (128 Bit)”, co oznacza, że dla danej sesji została uzgodniona długość klucza kryptograficznego przeglądarki 128 bitów.
Protokół SSL jest systemem hybrydowym, ponieważ do ochrony informacji wykorzystuje różne typy algorytmów szyfrujących.
Posiada mechanizm uwierzytelniania serwera i opcjonalnie klienta,
współpracuje z zabezpieczeniami typu firewall, serwerami proxy i połączeniami tunelowymi.
Protokół SET (Secure Electronic Transaction) jest standardem wprowadzanym przez Visa oraz MasterCard dla transakcji realizowanych za pomocą sieci, które nie gwarantują bezpieczeństwa.
Do realizacji transakcji za pomocą protokołu SET potrzebne są certyfikaty. Każda ze stron uczestnicząca w realizacji protokołu posiada swój certyfikat - zawiera on informacje pozwalające zweryfikować podpisy cyfrowe uczestnika, jego klucz publiczny używany do bezpiecznego przesyłania mu wiadomości i informacje potwierdzające autentyczność certyfikatu.
Protokół PEM (Privacy Enhanced Mail)
Został opracowany w celu zwiększenia ochrony przesyłanych pocztą elektroniczną wiadomości tekstowych.
Każda wiadomość przekazana z użyciem standardu PEM uwzględnia uwierzytelnianie, integralność i niezaprzeczalność. Poufność to cecha dodatkowa standardu.
Standard PEM pozwala na korzystanie z wielu algorytmów szyfrowania danych, zarządzania kluczami i zapewniania integralności danych. PEM nie narzuca korzystania z określonego algorytmu.
Protokół S-HTTP (Secure Hyper Text Transfer Protocol)
Zapewnia elastyczne usługi zabezpieczające dla transakcji http. Klienci świadomie mogą wybierać możliwości protokołu S-HTTP i komunikować się z serwerem S-HTTP , który takich możliwości świadomego wyboru opcji nie posiada.
W protokole S-HTTP klient i serwer za pomocą negocjacji wybierają zestaw zabezpieczeń oraz związanych z nimi algorytmów.
Wprowadzone zabezpieczenia mają przeciwdziałać pladze ostatnich lat, jaką są nielegalne zachowania internautów (hacking, cracking).
Hacking może doprowadzić do zniszczenia całej struktury przepływu informacji poprzez zmianę parametrów pracy instalacji, zniszczenie strategicznych danych, wprowadzenie informacji zakłócającej.
Cracking natomiast stanowi naruszenie praw właściciela poprzez bezprawne korzystanie z aplikacji (programy, gry, multimedia).
4. Aspekty technologiczne podpisu elektronicznego
Warunki dla funkcjonowania bezpiecznego podpisu elektronicznego:
* weryfikowalność- umożliwienie weryfikacji podpisu
* wiarygodność - uniemożliwienie podszywania się pod daną osobę,
* niezaprzeczalność -zapewnienie niemożliwości wyparcia się podpisu przez autora,
* integralność -zapewnienie wykrywalności wszelkiej zmiany w zawartej i podpisanej transakcji.
Zgodnie z zapisami w Polskiej Normie podpisem elektronicznym jest:
Przekształcenie kryptograficzne danych umożliwiające odbiorcy danych sprawdzenie autentyczności i integralności danych oraz zapewniające nadawcy ochronę przed sfałszowaniem danych przez odbiorcę. ",
Podpis elektroniczny jest liczbą lub ciągiem znaków (cyfr, liter i innych znaków dostępnych na klawiaturze komputera) jednoznacznie wiążący dokument podpisany i osobę podpisującą.
Tworzy go kilkanaście głęboko zaszyfrowanych bajtów dołączonych do danej transakcji, rozpoznawalnych za pomocą pary kluczy deszyfrujących.
W celu zapewnienia autentyczności klucza i jego uwierzytelnienia wydawane są certyfikaty przez Urzędy Certyfikacji.
Algorytm haszujący (hash) zapewnia, że wszelkie dokonane modyfikacje w danych transakcji zostaną wykryte. Zaszyfrowanie wartości hash uniemożliwiają jednoczesne zmiany w danych transakcji i odpowiednie do tych zmian podrobienie podpisu elektronicznego.
Kryptograficzne karty elektroniczne posiadają sprzętowe wspomaganie podpisu elektronicznego i zapewniają bezpieczne przechowywanie klucza prywatnego. Najbardziej newralgicznym elementem systemu z podpisem elektronicznym jest tajność klucza prywatnego. Jego zagubienie umożliwia podszywanie się pod innego użytkownika. Klucz zapisany w karcie nie wydostaje się nigdy na zewnątrz, gdyż generowanie podpisu cyfrowego następuje wewnątrz mikroprocesora karty, która ma zaszyte algorytmy kryptograficzne. Dodatkowo każde użycie karty wymaga podania indywidualnego hasła.
Co nie jest podpisem elektronicznym?
Podpisem elektronicznym nie jest wszystko to, co pozornie sprawia wrażenie, że transakcje są bezpieczne z punktu widzenia transmisji, ale nie spełnia wszystkich czterech aspektów podpisu elektronicznego, wymienionych wcześniej.
Istnieje wiele obszarów działalności przedsiębiorstw, w których wprowadzenie elektronicznego przesyłania dokumentów podpisanych bezpiecznym podpisem elektronicznym może doprowadzić do obniżenia kosztów prowadzonej działalności.
Otoczenie legislacyjne e-business
1. Prawo telekomunikacyjne
W Polsce wprowadza się rozwiązania prawne zmierzające do liberalizacji rynku telekomunikacyjnego w celu doprowadzenia z jednej strony do spadku cen usług telekomunikacyjnych, z drugiej zaś do zwiększenia ich dostępności.
W zakresie prawa telekomunikacyjnego Parlament Europejski przyjął nowy pakiet regulacyjny dotyczący dalszej liberalizacji usług komunikacyjnych, który Polska została zobowiązana wdrożyć już po przystąpieniu do UE.
2. Ustawy dotyczące handlu elektronicznego
Ustawa o podpisie elektronicznym, która weszła w życie 16 sierpnia 2002 roku określa:
warunki stosowania podpisu elektronicznego,
skutki prawne jego stosowania,
zasady świadczenia usług certyfikacyjnych oraz
zasady nadzoru nad podmiotami świadczącymi te usługi.
Ustawa o świadczeniu usług drogą elektroniczną precyzuje m.in.:
* obowiązki usługodawcy związane ze świadczeniem usług drogą elektroniczną,
* zasady wyłączania odpowiedzialności usługodawcy z tytułu świadczenia usług drogą
elektroniczną,
* zasady ochrony danych osobowych osób fizycznych korzystających z usług świadczonych drogą elektroniczną.
Ustawa o elektronicznych instrumentach płatniczych dotyczy między innymi takich zagadnień jak karty płatnicze czy pieniądz elektroniczny.
Ustawa reguluje zasady wydawania i używania elektronicznych instrumentów płatniczych, w tym pieniądza elektronicznego. Została uchwalona przez Sejm 12 września 2002 roku (Dz.U. Nr 169, poz. 1358)
Aspekty cywilnoprawne podpisu elektronicznego
Ustawa o podpisie elektronicznym stwarza ramy prawne używania podpisu elektronicznego, co w przyszłości powinno znacznie uprościć obrót gospodarczy i zwiększyć jego pewność oraz bezpieczeństwo. Ustawa wprowadziła zmiany w przepisach Kodeksu cywilnego, które w nowym brzmieniu stanowią, iż oświadczenie woli złożone w postaci elektronicznej, opatrzone bezpiecznym podpisem elektronicznym jest równoważne formie pisemnej .
Podpis elektroniczny nie jest, jak można by sądzić, elektronicznym odzwierciedleniem imienia i nazwiska, lecz jest to zdefiniowana specjalnymi algorytmami metoda szyfrowania dokumentów stworzonych przez ich autora w sposób uniemożliwiający podważenie wiarygodności podpisanej treści.
Polska ustawa wymienia 2 rodzaje podpisów elektronicznych: bezpieczny podpis elektroniczny i podpis elektroniczny dla odróżnienia nazywany zwykłym.
Bezpieczny podpis elektroniczny zgodnie z ustawą
jest przyporządkowany wyłącznie do osoby składającej ten podpis,
jest sporządzany za pomocą bezpiecznych urządzeń służących do składania podpisu elektronicznego i danych służących do składania podpisu elektronicznego,
jest powiązany z danymi, do których został dołączony, w taki sposób, że jakakolwiek późniejsza zmiana tych danych jest rozpoznawalna.
O bezpiecznym podpisie elektronicznym mówimy wtedy, gdy spełnia on wymienione wyżej warunki.
Najistotniejszą natomiast cechą podpisu elektronicznego z punktu widzenia regulacji prawnych jest stwierdzenie, że: podpisanie dokumentu elektronicznego bezpiecznym podpisem wywołuje te same skutki prawne, jak podpisanie dokumentu papierowego podpisem własnoręcznym. Zapis ten ma znaczenie fundamentalne dla uczestnictwa Polski w Globalnej Nowej Gospodarce tym bardziej, że dyrektywa parlamentu europejskiego nr 199/93/WE w sprawie wspólnotowych warunków ramowych dotyczących podpisu elektronicznego z 13 grudnia 1999 roku, uwzględniająca kierunki dyskusji w różnych światowych gremiach, nie narzuca powszechnie obowiązującej umowy międzynarodowej o wzajemnym uznawaniu podpisów elektronicznych. Innymi słowy: skutki prawne podpisów własnoręcznych reguluje indywidualne prawo każdego państwa.
Zgodnie z ustawą nie można odmówić ważności i skuteczności zwykłemu podpisowi elektronicznemu, jednakże w sądzie wartość dowodowa dokumentu opatrzonego takim podpisem będzie mniejsza niż dokumentu opatrzonego bezpiecznym podpisem elektronicznym.
Wynika to z faktu, że zwykły podpis nie zapewnia jednoznacznej identyfikacji używającej go osoby. Mając na uwadze fakt, że pisemne zawieranie umów ma przede wszystkim na celu zapewnienie skuteczności dowodowej takiej umowy, wydaje się, że firmy funkcjonujące w elektronicznym biznesie w ramach prowadzonej działalności powinny posługiwać się bezpiecznym podpisem elektronicznym.
Ustawowe pojęcie bezpiecznego podpisu elektronicznego scharakteryzować można za pomocą czterech cech:
jest to podpis w formie elektronicznej dołączony do danych lub logicznie związany z nimi, jest jednoznacznie związany z osobą podpisującą -identyfikuje go;
jest tworzony za pomocą bezpiecznych urządzeń, nad którymi podpisujący musi mieć osobistą (wyłączną) kontrolę;
jest powiązany z danymi w taki sposób, aby można było stwierdzić czy dane nie zostały zmienione;
jest weryfikowany przy użyciu ważnego kwalifikowanego certyfikatu.
Certyfikat taki jest elektronicznym zaświadczeniem potwierdzającym tożsamość osoby składającej podpis elektroniczny (osoby fizycznej) i charakteryzuje się następującymi cechami:
identyfikuje właściciela i przechowuje informacje o nim (dane obligatoryjne - art. 20 ust. 1 i dane fakultatywne -art. 20 ust. 2);
zawiera dane o możliwościach stosowania podpisu (limity transakcji, charakter prawny osoby, pełnomocnik firmy, członek zarządu, wojewoda itp.);
klucz publiczny (dane weryfikacyjne) oraz ww. dane są podpisane przez podmiot świadczący usługi certyfikacyjne, który jest gwarantem ich prawdziwości;
termin ważności certyfikatu jest z góry określony i w nim wskazany.
Reasumując, aspekty cywilnoprawne bezpiecznego podpisu elektronicznego, można w kilku zdaniach scharakteryzować najbardziej istotne jego cechy:
Bezpieczny podpis elektroniczny oparty na certyfikacie kwalifikowanym wywołuje skutki prawne równoważne podpisowi własnoręcznemu.
Treść oświadczenia woli podpisanego bezpiecznym podpisem elektronicznym (w okresie ważności certyfikatu) wywołuje skutki prawne równoważne formie pisemnej -zmiana w KC -art. 78 § 2.
Treść podpisana bezpiecznym podpisem elektronicznym (weryfikowanym ważnym certyfikatem) wywołuje skutki dokumentu z własnoręcznym podpisem, chyba że odrębne przepisy stanowią inaczej .
Nie można odmówić ważności i skuteczności podpisowi elektronicznemu tylko na tej podstawie, że istnieje w wersji elektronicznej lub nie opiera się na certyfikacie kwalifikowanym (tzw. zwykły podpis elektroniczny).
Instytucje certyfikujące
Ustawa o podpisie elektronicznym z dnia 18 września 2001 roku otworzyła drogę do wprowadzenia uregulowań organizacyjnych dotyczących stosowania podpisu elektronicznego i, co się z tym wiąże, stworzenia systemu certyfikacji wykorzystywanych kluczy elektronicznych.
Rozporządzeniem Rady Ministrów z dnia 7 sierpnia 2002 r. (Dz. U. Nr 128, poz. 1094 ) ustalone zostały warunki techniczne i organizacyjne pracy kwalifikowanych podmiotów świadczących usługi certyfikacyjne, określone zostały także warunki wydawania certyfikatów i z drugiej strony warunki techniczne dla bezpiecznych urządzeń do składania i weryfikacji podpisu elektronicznego.
Obecnie w Polsce istnieje kilka podmiotów uprawnionych do wydawania kwalifikowanych certyfikatów.
KONCEPCJA BEZPIECZEŃSTWA SYSTEMU INFORMATYCZNEGO
Problematyka koncepcji i modelu zarządzania bezpieczeństwem informacji oraz polityki bezpieczeństwa systemów informatycznych została sformalizowana w raporcie technicznym ISO/IEC TR 13335, składającym się z pięciu części.
W całości raport ten stanowi pewien dobrze zdefiniowany model bezpieczeństwa systemu informatycznego oraz zbiór warunków koniecznych do jego realizacji. Układ poszczególnych części raportu wskazuje ponadto właściwą kolejność działań podczas tworzenia takiego modelu i jego wdrażania. Model bezpieczeństwa systemu informatycznego stanowi podstawę do projektowania systemu zabezpieczeń. Za zapewnienie bezpieczeństwa teleinformatycznego odpowiada kierownik (szef dyrektor) firmy, instytucji, jednostki organizacyjnej lub korporacji.
Złożone rozwiązania systemów zabezpieczeń, aby były efektywne i skuteczne bezwzględnie muszą mieć charakter systemowy. Dlatego definicja systemu bezpieczeństwa systemu informacyjnego organizacji, firmy lub korporacji jest dość złożona:
System bezpieczeństwa systemu informacyjnego, jest odpowiednim powiązaniem wymaganych środków ochrony z dodatkowymi rozwiązaniami uwzględniającymi specyfikę firmy (organizacji, korporacji), a tym samym -jej systemu informacyjnego wraz z urządzeniami technicznymi i ludźmi obsługującymi te urządzenia oraz ludźmi spełniającymi wyznaczone im funkcje ochronne, a także stosownymi dokumentami legislacyjnymi.
Elementy systemu bezpieczeństwa
Na system bezpieczeństwa systemu informacyjnego składają się:
regulacje prawne i organizacyjne,
organizacja systemu ochrony.
Regulacje prawne obejmują:
powszechnie obowiązujące ustawy i rozporządzenia prawne
zarządzenia i instrukcje wewnętrzne, wydane w jednostce organizacyjnej.
Organizacja systemu ochrony informacji uwzględnia następujące główne elementy składowe:
zabezpieczenia wewnętrzne - obejmujące wszystkie elementy powstające na etapie projektu systemu informacyjnego (informatycznego), w tym m.in.: koncepcję zintegrowanego rozproszenia danych, zagadnienia replikacji danych i ich okresowego składowania, synchronizację pracy systemu, model usług plikowych, danych dzielonych i wykonywanych na nich transakcji, sterowanie współbieżnością, itd., tzn. elementy odnoszące się do zabezpieczenia informacji, wynikające z funkcjonowania samego systemu informacyjnego bez uwzględniania zagrożeń zewnętrznych.
Szczególnym rodzajem zabezpieczeń na etapie eksploatacji (funkcjonowania) systemu informatycznego są np. zabezpieczenia przed wirusami (i innymi programami destrukcyjnymi rozprzestrzeniającymi się poza kontrolą użytkowników systemów informatycznych) -niezwykle groźnymi ostatnio zewnętrznymi zagrożeniami utraty informacji, nie mającymi przy tym na ogół cech działania celowego;
zabezpieczenia zewnętrzne -obejmujące większość działań odnoszących się do ograniczenia skutków celowego, zewnętrznego oddziaływania na informację, jej nieuprawnionego zdobycia, upowszechnienia, sprzedaży lub zniszczenia;
szyfrowanie informacji -obejmujące zabezpieczenia mające charakter zarówno wewnętrzny, jak i zewnętrzny, a polegające na uniemożliwieniu, a co najmniej utrudnieniu dostępu oraz poprawnej interpretacji danych przez osoby niepowołane.
Podstawowe założenia modelu zabezpieczeń (modelu bezpieczeństwa systemów informatycznych)
Bezpieczeństwo systemów informatycznych (informacyjnych) musi być zapewnione przede wszystkim w trzech obszarach obejmujących:
Tajność (dostęp do informacji musi być ograniczony tylko do kręgu użytkowników autoryzowanych);
Integralność (informacja musi być zachowana w swej oryginalnej postaci, za wyjątkiem przypadków, gdy jest ona aktualizowana lub usuwana legalnie przez osoby do tego upoważnione);
Dostępność (informacja musi być dostępna dla osób upoważnionych na ich żądanie w każdej chwili).
W warunkach powszechnego zastosowania systemów informatycznych do budowy nowoczesnych systemów informacyjnych albo tylko wspomagania procesów informacyjnych za pomocą systemów informatycznych, jest najzupełniej oczywiste, że bezpieczeństwo systemów informatycznych jest zasadniczym elementem zapewniającym bezpieczeństwo informacji. Dlatego nie jest błędem przyjmowanie dla systemów informatycznych tych samych założeń, wymagań, a nawet kryteriów oceny w zakresie bezpieczeństwa, które są stosowane dla systemów informacyjnych.
Ogólna struktura modelu:
Zabezpieczenia stosuje się w celu minimalizacji prawdopodobieństwa wystąpienia określonego zagrożenia. Łącznie stanowią one system zabezpieczeń, który w modelowej postaci ma strukturę warstwową.
W uniwersalnym modelu bezpieczeństwa systemu informatycznego kolejne warstwy zabezpieczeń obejmują:
warstwę fizyczną, która jest pierwszą barierą chroniącą system przed utratą zasobów;
mechanizmy sieciowego systemu operacyjnego, tworzące drugą warstwę ochronną;
strategie i procedury administracyjne stanowią warstwę trzecią;
konta i identyfikatory użytkowników stanowią czwarty poziom zabezpieczeń;
piątą barierą są uprawnienia do zasobów;
warstwę szóstą zapewnia redundancja systemu
III. BAZY DANYCH
Problematyka baz danych stanowi bardzo ważny element przetwarzania danych.
Na system bazy danych składają się dwa zasadnicze elementy:
-baza danych (BD),
-system zarządzania bazą danych (SZBD).
Baza danych jest zbiorem danych uporządkowanych w rekordach oraz powiązań pomiędzy tymi rekordami, gdzie pod pojęciem rekordu należy rozumieć zbiór określonych wartości opisujących dane zjawisko.
Uporządkowane dane przechowywane są w urządzeniach pamięciowych systemu komputerowego.
System zarządzania bazą danych jest programem zarządzającym dostępem i operacjami na danych przechowywanych w bazie danych. Spełnia on rolę interfejsu pomiędzy użytkownikiem a bazą danych, co oznacza, że jest narzędziem pomocnym we wprowadzaniu do bazy i pozyskiwaniu z bazy ściśle określonych danych.
Powiązania pomiędzy rekordami w bazie danych opierają się na jednym z kilku modeli struktur danych.
Z historycznego punktu widzenia wyróżniane są trzy następujące modele struktur danych:
-hierarchiczną,
-sieciową,
-relacyjną.
Struktura hierarchiczna jest najstarszym modelem organizacji danych w bazie danych. Nazywa się ją też strukturą drzewa, co sugeruje, że istnieje zawsze jeden węzeł (rekord) nadrzędny względem innych.
Natomiast pozostałe rekordy zorganizowane są w specyficzny sposób. Mianowicie każdy rekord posiada tylko jedno powiązanie nadrzędne (tzn. podlega tylko jednemu rekordowi). Chyba, że jest rekordem głównym, który nie ma żadnego powiązania nadrzędnego.
Rozpatrując strukturę ku dołowi, można zaobserwować powiązania typu jeden do wielu. Tak zorganizowana struktura specyfikuje określoną ścieżkę poruszania się, co polega na schodzeniu w dół drzewa i istnieje tylko jedna droga dotarcia do określonego rekordu. W strukturze hierarchicznej rekord podrzędny należy zawsze rozpatrywać w kontekście rekordu nadrzędnego, który jest swoistym agregatem dla rekordów podrzędnych. Struktura ta wyróżnia się prostotą, ale w przedsiębiorstwach powiązania bywają bardziej skomplikowane i to powoduje o jej nieprzydatności we współczesnych przedsiębiorstwach.
Struktura sieciowa reprezentuje bardziej skomplikowane powiązania pomiędzy rekordami. Mianowicie każdy rekord może uczestniczyć w wielu powiązaniach nadrzędnych i podrzędnych. Ta mnogość czyni ze struktury specyficzną sieć powiązań charakterystyczną dla każdego przypadku. Dostęp do rekordów wewnętrznych struktury może się odbywać na kilka sposobów, co czyni taką strukturę bardziej elastyczną i przystającą do wymogów współczesnych przedsiębiorstw .
Relacyjna struktura zrewolucjonizowała pojmowanie baz danych i stała się najpowszechniejszym modelem ich organizacji. W modelu tym dane są zorganizowane w tabelach, zwanych relacjami, i w takim formacie mogą być oglądane. Zawartość tabel (relacji) przed wyświetleniem czy wydrukiem może podlegać specyfikacji co do zawartości.
Podstawową formą organizacji danych w relacyjnej bazie danych jest relacja (posiadająca unikatową nazwę), na którą składają się różne rodzaje danych. Poszczególne rodzaje danych zwane są atrybutami i też muszą być odpowiednio nazwane. Z każdym atrybutem (np. nazwisko, imię, stanowisko) jest związany określony zbiór wartości tego samego typu (np. wiek -liczby z zakresu od 0-100, a nazwisko -łańcuch znaków o określonej długości).Uporządkowanie kolumn w relacji nie ma żadnego znaczenia. Natomiast każdy wiersz relacji (rekord) jest unikatowym wystąpieniem wartości poszczególnych atrybutów.
Użytkownik relacyjnej bazy danych musi dysponować możliwością wprowadzania i aktualizacji danych oraz formułowania zapytań.
Umożliwiają to języki manipulowaia danymi, które w obecnym wydaniu pozwalają na:
wprowadzanie, usuwanie i aktualizacje danych,
wyszukiwanie danych ze zbioru relacji zgodnie z warunkiem wyboru,
wykonywanie operacji arytmetycznych i logicznych,
zapisywanie sekwencji operacji w postaci odpowiednich konstrukcji algorytmicznych,
zapamiętywanie wyników wyszukiwania w celu wydrukowania lub utworzenia nowej relacji w bazie.
Ponadto użytkownicy chcą uzyskiwać relacje wynikowe w określonej postaci, tzn. będące "pionowymi" lub "poziomymi" podzbiorami relacji wejściowych bądź też będące połączeniem dwóch innych relacji.
Pozwalają na to trzy podstawowe operacje relacyjne:
projekcja,
selekcja,
połączenie.
Operacja projekcji umożliwia utworzenie "pionowego" podzbioru określonej relacji wejściowej poprzez wyspecyfikowanie atrybutów, które mają się znaleźć w relacji wynikowej.
Jest to więc operacja wybierania tylko tych atrybutów z relacji, które są istotne dla użytkownika w danym momencie.
Operacja selekcji umożliwia utworzenie "poziomego" podzbioru określonej relacji poprzez wybranie rekordów spełniających postawiony warunek. Jest to więc wybór rekordów poprzez postawienie warunku względem jednego bądź więcej atrybutów.
Operacja połączenia polega na scalaniu rekordów dwóch różnych relacji pod warunkiem , że istnieje co najmniej jeden atrybut, względem którego można dokonać połączenia.
Te 3 operacje logiczne są głównymi operatorami stosowanymi w relacyjnych bazach danych, dzięki którym może być realizowana większość operacji wymaganych przez systemy relacyjne. Pozostałe operacje ( iloczyn, suma, różnica i dzielenie) są wzorowane na tradycyjnym ujęciu w teorii zbiorów.