Rozwoj sieci internet, Sieci komputerowe administracja


Projekt z telekomunikacji pt.:

„ Nowe możliwości komunikacji wypływające z

rozwoju sieci internet”

Opracowali:

Szeleźniak Michał

Sznajder Paweł

Turowski Krzysztof

Nowe możliwości komunikacji wypływające z rozwoju sieci internet

Szybki rozwój internetu spowodował, że ilość osób korzystających z jego usług jest z każdym rokiem większa, co stawia wszystkie osoby związane z dostarczaniem usług przed wielkim wyzwaniem zaspokojenia rosnących potrzeb. Dlatego cały czas trwają prace w laboratoriach nad udoskonaleniem i uatrakcyjnieniem możliwości jakie płynną z korzystania z internetu. W naszej krótkiej pracy postaramy się przedstawić najbliższe plany związane z udoskonaleniem sieci, aby korzystanie z niej było jeszcze łatwiejsze i bardziej powszechne. Pracę naszą podzieliliśmy na 4 części:

  1. Pierwsza część dotyczy problemów ze znalezieniem nowego pasma, które mogłoby zapewnić dalszy rozwój sieci.

  2. W drugiej części zostanie krótko opisany rozwój technologii związanej z transmisją danych.

  3. Trzecia część będzie dotyczyć możliwości jakie może zaoferować internet zwykłemu użytkownikowi.

  4. I na koniec krótkie podsumowanie.

Ad.1.

Prawie wszystkie istniejące szerokopasmowe systemy używają pasma Ku (11-18 GHz) z kilkoma wyjątkami, które używają C-pasma (4-6 GHz). Jakkolwiek większość z nowoplanowanych i proponowanych systemów będzie używała wyższej częstotliwości pasma Ka (18-30 GHz), podczas gdy kilka jeszcze późniejszych systemów ma używać jeszcze wyższych częstotliwości.. W wyniku tego, seria wysoko przepustowych systemów satelitarnych jest teraz rozwijana dla multimedialnej przyszłości.

Z tak wieloma usługami pracującymi w niskich częstotliwościach, widmo Ku jest praktycznie pełne zarówno w Północnej Ameryce i Europie., pomimo oszczędności w szerokości pasm w cyfrowej kompresji , która ma wciąż wiele możliwości do rozwoju. Ale, za wyjątkiem Japonii, nadal nie ma właściwie w pełni komercyjnych użytkowników pasma Ka - jest to dziewiczy obszar. Całe pasmo Ka jest szersze niż Ku, więc teoretycznie jest w nim więcej miejsca dla ruchu o natężeniu Mbps. Dodatkowo, im krótsza długość fali pasma Ka oznacza, że oprzyrządowanie terminali może być znacznie mniejsze i bardziej zwarte.

Korzystając z zalet Ka.

Jednym z operatorów, którzy w wkrótce zrobią użytek z pasma Ka będzie SES/Astra, dotychczas wyłącznie dostawca satelitów dla stacji telewizyjnych i radiowych w Europie. Astra -1H , który ma start wyznaczony tego lata, będzie 8 satelitą tego operatora umieszczonym na 19.2 stopni na wschodzie. Będzie przenosił, oprócz tradycyjnych nadajników telewizyjnych, także ładunek przeznaczony do dostarczenia return link dla odbioru i dostarczania usług multimedialnych w paśmie Ka. Forward link będzie pracować w paśmie Ku. Astra-1 K , duży nowy satelita budowany przez Alcatel Space , który ma wystartować w 2000 roku, będzie niósł podobny ładunek, ale z poszerzonym zasięgiem nad całą Europejską Rosję. SES od jakiegoś czasu dostarcza usługi Astra-NET, podobnej do Easynet Eutelsat'u używając naziemnego return link , ale nowa usługa oznacza wprowadzenie prawdziwego dwustronnego połączenia przez satelitę.

Nowy Astra Return Channel System (ARCS) który ma działać w 2000 roku , będzie dostarczony przez nowa filię nazwaną SES Multimedia. System będzie używał DVB/MPG-2 dla forward path , podczas gdy return path wielo -częstotliwościowego TDMA. Początkowo będzie działać IP, ale później zostanie przedstawiony ATM aby zapewnić szerokość pasma na życzenie. SES pracuje teraz nad następną wersją systemu, który połączy regionalne satelity GEO z globalną konstelacja GEO/LEO. Wg Kevina Smyth'a głównego kierownika od systemów przyszłości, ten drugi zajmie się symetrycznymi zastosowaniami punkt-do- punktu, które teraz są nieopłacalne.

Więcej multimedialnych cech.

Ale prawdziwy system satelitów multimedialnych, działających głównie w paśmie Ka lub wyższym, dopiero nadejdzie. Pomiędzy mocno ugruntowanymi geostacjonarnymi systemami znajduje się Hughes Spaceway, ostatnio podmiot inwestycji, której całkowite koszty wynoszą 1.4 mld dolarów, popartej przez ojca Hughes Spaceway czyli General Motors. Aczkolwiek , ta duża suma sfinansuje tylko system mocno zredukowany z poprzedniej globalnej usługi angażującej 8 satelitów. Hughes razem z Północną Ameryką (i kilkoma miastami w centralnej i południowej Afryce) planuje wyniesienie dwóch satelitów HS.702 (najnowszych i największych tej firmy) plus zapasowego w roku 2002. System używałby wielu wąsko-kątowych anten (aż do 100 uplink wiązek na satelitę, dla wielokrotnego użycia częstotliwości.), pokładowych urządzeń do przetwarzania, rutowania i połączeń międzysatelitarnych. Downlink data rates osiągałyby 400 Mbps i więcej, a uplinks do 6 Mbps. W tym samym czasie , Hughes wydaje się wycofywać z wcześniejszych planów włączenia nie geostacjonarnej konstelacji w plany Spaceway. Wszystkie części imperium Hughes'a przyczynia się do planu Spaceway: Hughes Space and Communications zbuduje satelity, PanAmSat (teraz łaczące się z Hughes Communications) będzie obsługiwało satelity, podczas gdy Hughes Network Systems i pomocniczo DirecTV będzie sprzedawało usługi klientom, prawdopodobnie odpowiednio sektorom biznesu i konsumentów. Wejście Lockheed Martin (LM) w dziedzinie pasma Ka także przeszło proces odchudzania. Jego Astrolink zaczęło od rozważania 9-cio satelitowego systemu (z 4 parami sztucznych satelitów i jednym dla Oceanii). Wydaje się, że działania mogą się zacząć z usługą dla Północnej Ameryki i Europy, przy prawdopodobnym koszcie 3.6 mld dolarów. Ostatnie wieści z CEO Celso Azvedo, poprzednio z SES, mówia że TWR (US) i Telespazio (Włochy) zgodziły się zainwestować po 250 mln dolarów w Astrolink. Global Telecoms należące do Lockheed Martin samo zainwestuje 400mln dolarów. To więcej niż połowa potrzebna dla rozpoczęcia projektu. Inne znane fakty, to ze każdy satelita utworzy 58 wiązek umożliwiając maksymalny przepływ danych 20 Mbps na kanał (Uplink ) i 110 Mbps down, że firma -tak jak pozostałe- planuje bardzo elastyczne taryfy opłat `za bit'. Obecnie Ku pasmowy CyberStar, choć radzący sobie z wszystkimi multimedialnymi aplikacjami, specjalizuje się w rozpowszechnianiu filmów. Zostało wybrane przez US National Cinema Network do transmitować filmy bezpośrednio do kin w całym państwie, zaoszczędzając dużą cześć z 3000 dolarów (średniego kosztu wyprodukowania i dostarczenia pojedynczych kopii dla równoczesnego wyświetlenia). Prawie dwa lata temu CyberStar utworzył strategiczny związek z francuskim Alacatel'em, który rozwija swój własny system SkyBridge. Usługi satelitarne obu partnerów będą sprzedawane wspólnie i oczekuje się, że CyberStar skoncentruje się na bardzo niesymetrycznych regionalnych usługach, podczas gdy SkyBridge będzie służył bardziej interaktywnym rynkom światowym. CyberStar wciąż planuje uruchomić swój 3-satelitowy GEO system, pracujący w paśmie Ka, ale nie jest możliwe aby zaczął on działać w tym roku jak planowano w 1997. Obecnie koszt tego systemu jest ustalony na 3.2 mln dolarów.

Inne Systemy GEO.

General Electric American Communications (Americom) który do niedawna był głównym dystrybutorem video dla stacji telewizji kablowej w US, podpisał w zeszłym roku kontrakt budowlany z Harris Corp. wcześniej znanym głównie ze swych stacji naziemnych i anten . Początkowo było to na jednego Ka- pasmowego satelitę, z możliwością na więcej (do 9). Ale GE Star jest obecnie wstrzymany z powodu powodu prawnych regulacji dotyczących częstotliwości ustalanych przez amerykańską Federal Communication Commission (FCC).

Dwie inne niewiadome przypomniały to co jest nazwane jako kontrakty na budowę satelitów , choć obaj wytwórcy mówią ze są to tylko ogólne umowy, aż ktoś wyłoży pieniądze. Ka -Star częściowo posiadane przez United Video Satellite Group of Tulsa w Oklahomie złożyło zamówienie na dwa satelity Ka- psamowe z SS/Loral. W międzyczasie VisionStar , który wydaje się w pełni posiadany przez właściciela Cellular Vision USA, Inc., operatora lokalnych usług na ultrakrótkich falach w Nowym Yorku , został nagrodzony pojedynczym miejscem na satelitę i złożył zamówienie w Orbital Sciences Corp. na dwie satelity teoretycznie warte 260 mln dolarów. Jeszcze jeden projekt zasługuje na wspomnienie o nim. Jest to Horizons, plan Inmersat'u na ruchomy system multimedialny, zaprojektowany by zaoferować pełny zakres nowoczesnego biurowego IT systemu dla laptopów i palmtopów na pokładzie okrętów handlowych. Działałby w zakresie pasma S (około 2 GHz) co naturalnie ogranicza do skromnej prędkości przesyłania danych w porównaniu z pasmami Ku i Ka.. Maksymalna szybkość 400kbps została wymieniona i większość użytkowników byłaby zadowolona z 144kbps. Brak entuzjazmu u pewnych sygnotariuszy Inmersat'u ( w szczególności Comsat Mobile) oznaczało ze projekt musiał zostać odłożony do chwili gdy Inmersat został sprywatyzowany, co zostało zakończone w kwietniu . Organizacja ma teraz więcej swobody do podjęcia na inwestycje kapitału z rynku. Horizons jest szczególnie interesujący dlatego, że jest to jedyny częściowo- szerokopasmowy system szybko zaprojektowany do użytku z mobilnymi terminalami. Wszystkie pozostałe systemy, geostacjonarne i nie , są zarejestrowane jako stałe satelitarne usługi z założeniem że klient będzie siedział gdzieś przy biurku. Już teraz plany na system 3-ciej generacji naziemnej ruchomej telekomunikacji(IMT-2000) są oparte na założeniu, ze wzrastać będzie ruch nie głosowy, tylko oparty na tekście albo obrazach.

Stara szkoła.

Najstarszą z propozycji szerokopasmowych satelitów jest Teledesic, która została rozpoczęta życie pod flagą Calling Communications w 1990. Wcześni inwestorzy, którzy nadal są na pokładzie, to Bill Gates i Craig McCaw, amerykański pionier telefonii komórkowej. Później przyłączyli się do nich saudyjski książę Alwaleed Bin Talal Bin Abdulaziz Al. Suad, który zainwestował 200 mln dolarów, firma Boeing i Motorola. Ostatni jest teraz nazywany jako główny zleceniobiorca na satelity (nie licząc Boeing'a).

Teledesic jest obecnie planowany jako 228 satelitowy system działający na niskiej orbicie ziemskiej , używający częstotliwości w paśmie Ka, włącznie z połączeniami miedzy satelitarnymi. Liczba satelitów już została zmniejszona z oryginalnej 840, i dalsze zmniejszenie jest silnie doradzane aby móc kontrolować koszty : obecne szacunki firmy wynoszące 9 mld dolarów są uważane jako zbyt niskie. Szybkość przesyłania danych dla większości użytkowników ma wynosić 64 Mbps na downlink i do 2Mbps dla uplink.

Ad.2.

Wzrost zapotrzebowania jeśli chodzi o szerokość pasma (bandwidth przez następne pięć do dziesięciu lat, będzie podsycany przez wiele czynników. Wlicza się tu nowa technologia , malejące koszty transmisji, i zastosowania potrzebujące szerokiego pasma. Ten rozwój ma duży wpływ ma przemysł podwodnych kabli powodując, że przewoźnicy i odsprzedawcy rywalizują ze sobą na całym świecie o pierwszeństwo. Sektor kabli podwodnych, staje się jednym z głównych motorów rozwoju telekomunikacji, i zmienia swoje oblicze. Ciągły wzrost wymagań względem pasma, jest analogiczny do tego jaki obserwowaliśmy w przemyśle komputerów osobistych i programowym. Gdy procesory stały się potężniejsze i tańsze, stało się możliwe pisanie bardziej zaawansowanych i użytecznych programów. Użytkownicy polubili je i zaczęli kupować nowe programy i ich poszerzenia , co wymagało zakupu potężniejszych procesorów i więcej pamięci, w ten sposób zamykając koło.

W zakresie wymagań dotyczących pasma, przełom w technologii transmisji optycznej, umożliwił tej transmisji przełamanie prawa Moore'a w świecie półprzewodników. Podczas gdy prawo Moora mówi o podwajaniu się co 18 miesięcy, prawo pasma dyktuje podwojenie się dostępnego pasma na pojedynczym światłowodzie co 12 miesięcy. W dziedzinie optyki, przepustowość transmisji podwaja się w przybliżeniu co 9 miesięcy. Ten przełom został osiągnięty dzieli dwóm wynalazkom. Wzmacniacze optyczne (EDFA) pozwalają na wzmacnianie sygnału w dziedzinie optycznej. Więc nie ma potrzeby przetwarzać sygnału z optycznego na elektryczny i z powrotem w podmorskich przenośnikach. Z natury szerokie pasmo w EDFA pozwala na wzmacnianie wielu długości fali świetlnej. Drugą kluczową technologią jest WDW lub DWDM (dense wave;ength division multiplexing) która pozwala wielu kolorom światła być równolegle przesyłanym tym samym światłowodem, zwiększając przepustowość o liczbę różnych długości fal. Te nowości technologiczne zmniejszają koszt transmisji na jednostkę szerokości pasma innymi słowy na rozmowę. Wraz ze spadkiem kosztów, na rynku pojawiają się nowi przewoźnicy. Wyjęcie rynku spod kontroli państwowej zwiększa wzrost liczby nowych uczestników. Nowi przewoźnicy muszą odróżniać produkty i usługi na rynku poprzez niższe koszty i innowacje. Nowe usługi dają użytkownikom więcej powodów do korzystania z szerokiego pasma i bardziej zaawansowane aplikacje stają się ekonomiczniejsze dzięki technologiom telekomunikacyjnym.

Rozwój internetu.

Podobny cykl rozwoju można zaobserwować, gdy chodzi o internet. Strony internetowe są stosunkowo tanie .Dostęp do nich także nie jest kosztowny. Właściciele stron ciągle je unowocześniają., aby przyciągnać nowych klientów i odnoszą tutaj sukcesy. To z kolei zwiększa wymagania stawiane sieciom telekomunikacyjnym ,a w tym także podwodnym kablom. Wzrost szerokości pasma nie jest ograniczony do liczby potencjalnych użytkowników internetu. Jest kombinacją liczby użytkowników, liczby aplikacji i szerokości pasma potrzebnego dla niektórych nowszych aplikacji takich jak przesyłanie ciągle audio/video. Liczba komputerów hostów ma przekroczyć 120 mln do roku 2000. W roku 1993 było ich tylko 1.3 mln. Liczba użytkowników internetu w dniu dzisiejszym sięga 100 mln na całym świecie. Oczekuje się ze ta liczba podwoi się, albo przekroczy 200 mln do roku 2000. Obecnie widać, że Stany Zjednoczone przodują w korzystaniu z internetu, ale inne regiony podążają za nimi. Wyjęcie rynku spod kontroli państwa wydaje się być tutaj kluczowym czynnikiem. Europa w 1998 i 1999 jest najlepszym przykładem. Wraz z otwarciem wielu rynków w styczniu 1998, setki nowych przewoźników wkroczyły na rynki a część z nich buduje własne międzynarodowe sieci. Ostatni raport opublikowany przez BancBoston Robertson Stephens pokazuje, że liczba dostarczycieli alternatywnych usług w Europie wzrasta każdego roku o ponad 50%. Raport mówi że taki stan utrzyma się przez następne 3 do 5 lat i że oczekiwany wzrost internetu w tym czasie ma wynieść ponad 200% rocznie. Chiny wyłonią się jako dominujący korespondent w Azji, gdy duże chińskie inwestycje w infrastrukturę spowodują wzrost ruchu. Jeśli wliczyć Hong Kong, stały się największym azjatyckim Transpacyficznym korespondentem w 1997, przyćmiewając po raz pierwszy Japonię. Dodatkowo, wzrost ruchu przez Pacyfik do i z Chin wzrastał dwukrotnie szybciej niż Japonii w okresie pomiędzy 1995 a 1997.

Nowi przewoźnicy i systemy.

Wraz z wyjęciem rynków spod kontroli państwowej i pojawieniu się konkurencji w wielu krajach liczba przewoźników radykalnie wzrosła. Wielu, którzy jeszcze kilka lat temu byli nieznani, stało się ważnymi graczami w przemyśle podwodnych kabli. Global TeleSystems, przewoźnik działający od kilku lat we Wschodniej i Zachodniej Europie, pojawił się na scenie w styczniu, jako jeden z dwóch partnerów w transatlatycznym systemie kablowym FLAG Atlantic-1. Nowe nazwy pojawiły się także wśród pierwszych przewoźników , którzy zgłosili się do transatlantycznego projektu TAT-14, także zaplanowanego na rok 2000. Umowę podpisali Level 3 Communications, Pacific Gateway Exchange, Qwest International, RSL Communications i Viatel. Były też 3 miejscowi przewoźnicy rozciągający swe skrzydła na międzynarodową arenę- GTE, NTT i SBC. Level 3 ogłosił nawet swój własny transatlantyczny kabel. Ale nowi przewoźnicy są jeszcze bardziej widoczni w systemach regionalnych. W Zachodniej Europie, gdzie państwa dzielą stosunkowo wąskie obszary wodne, wielu przewoźników wybudowało swoje własne podmorskie kable. Wlicza się tu kable pod Kanałem Angielskim (Esprit, Hermes Viatel), kable pomiędzy Anglią a Irlandią (NTL, Esat) i skandynawski system kabli (Pangea, Flute, FaciliCom, Powercom, Tele2, NorSea Com). Innym przykładem jest próba połączenia Alaski z niższymi 48 stanami. Od 1991 jedyny światłowód łączący Alaskę należał do filii North Pacific Cable. Pod koniec tego roku będą działały dwa nowe kable łączące Alaskę z niższymi 48 stanami- Alaska United rozpoczęła działanie na początku tego roku, a Northstar planuje zacząć działać w trzecim kwartale. Oba są wynikiem wejścia na rynek nowych przewoźników. Alaska United został zbudowany przez GCI, przewoźnika związanego z lokalnymi usługami telefonicznymi , CATV i dostępem do Internetu. GCI już widzi korzyści z posiadania własnego kabla, gdyż pozwala to zredukować koszty i zwiększyć liczbę nowych usług.

Nowe możliwości.

Na wzrastające wymagania i liczbę przewoźników, przemysł kabli podwodnych reaguje nowymi rodzajami systemów. Fenomen prywatnych kabli rozpoczął się wraz z PTAT-1, stał się bardziej ekspansyjny, elastyczny i różnorodny, co widać na 3 nowych projektach: kontynuacji Global Crossing Network, Concerto i FLAG Atlantic-1. Global Crossing ogłosił rozległy naziemny składnik swoich podwodnych sieci, który umożliwia przewoźnikom na zakup przepustowości z miasta do miasta.. GCL negocjuje i buduje czasami nieuchwytny, a zawsze drogi backhaul aby ułatwić komunikacje swoim klientom. Klienci maja możność zakupu przepustowości na żądanie, tym samym eliminuje się konieczność włożenia dużego kapitału na budowę własnego kabla. Sieć Concerto, która należy do Flute, łącząca 14 państw w północnej Europie, złamie konwencjonalną formę własności kabli podwodnych. Flute będzie działać jako przewoźnik przewoźnika i sprzedawać duże ilości pasma , głównie przez sprzedaż dark fibre w swoich kablach.. Będzie wykorzystywać największą, wśród międzynarodowych projektów kabli podwodnych, liczbę światłowodów - 96. FLAG Atlantic-1 oferuje jako pierwszy 1.28 terabitowy system i także będzie oferować zalety połączenia miasto-miasto. Sieć łączy także z istniejącymi sieciami Hermes i FLAG, co zapewnia dodatkową łączność.

Wzrost natężenia ruchu.

Prędkość wzrostu, zmienia się wg analityków, ale całkowity wskaźnik jest imponujący. W obu oceanach, Atlantyku i Pacyfiku , roczny ruch w przełączaniu głosu na głównych drogach, przekroczył 20% w 1997. Ta liczba jest prawie dwukrotnie większa niż od wzrostu w poprzedniej dekadzie. Jakkolwiek dziś przełączanie głosu jest tylko małą częścią przyrostu. Wyliczenia największych przewoźników pokazują, że usługi mutimedialne wzrastają z prędkością 30% rocznie. Ale dopiero internet jest tam gdzie duży wzrost. IPS twierdzą że wzrost wynosi od 200% do ponad 1000% rocznie. Wg niektórych analityków , w centralach publicznych, ten globalny rozwój internetu spowoduje ruch który przekroczy ruch głosowy w skali 30:1 do roku 2003. Przewidują także ze do roku 2002 ruch IP będzie stanowił ponad 90% całkowitego globalnego ruchu sieciowego . Choć nie jest to zmierzone, uważa się, że na dużych transoceanicznych drogach ruch informatyczny przekroczył ruch głosowy. Można oczekiwać, że w ciągu kilku następnych lat, ruch internetowy będzie stanowił 80 do 90% całkowitego ruchu transoceanicznego. Wzrost rozmieszczania nowych podwodnych sieci w basenach Oceanu Atlantyckiego i Spokojnego jest duża inwestycja przewoźników. W Północnym Atlantyku, prędkość instalowania nowych systemów miedzy 1996 i 1999 to wzrost około 100% rocznie. Systemy zainstalowane, albo do zainstalowania w tym okresie, wliczając TAT 12/13 i jego późniejsze unowocześnienia, Gemini i jego unowocześnienia, AC1 i jego unowocześnienia i Columbus III. Największy z tych systemów, unowocześniony AC1, będzie miał przepustowość 80Gbps. Obecnie jest planowanych 7 nowych transatlantyckich kabli: Tat-14 , FLAG Atlantic , AC-2, Level3, Hibernia, Gemini i Atlantica2. Systemy w oceanie Spokojnym, w ciągu najbliższych kilku lat znacznie zwiększą swoje przepustowości. Southern Cross i China-US,, instalowane w 1999 będą miały całkowitą przepustowość 80 Gbps każdy. Japan-US i PC-1 planowane do oddania i użytku w 2000, każdy będzie miał przepustowość 640 Gbps. Projekt Oxygen ogłosił dodanie kolejnych 1280 Gbps w roku 2001. Te systemy, wszystkie razem, reprezentują prędkość wzrostu na poziomie 150 % rocznie. Dla porównania prędkość całkowitego wzrostu na Pacyfiku w roku 1996 wynosiła 50% na rok. Zawansowanie w technologii umożliwiło taki rozwój.

W ramach konferencji Światłowodowej Telekomunikacji, w roku 1999, następujące eksperymenty zostały ujawnione:

Technologiczny rozwój i następujący po nim wzrost dostępności i obniżenie kosztów, prowadzą do opracowania aplikacji , które pożerają pasmo. Odpowiedź rynku na rozwój telekomunikacji to wejście nowych przewoźników , rozwój nowych partnerów i nowych ofert. To prowadzi do większej ilości połączeń, czego wynikiem jest zwiększona używalność, i cykl wzrostowy jest kontynuowany. Międzynarodowy przemysł kabli podwodnych bezpośrednio czerpie korzyści z rozwoju internetu, i jeszcze przez wiele lat będzie czerpał .

Ad.3.

3.1 Głosy z sieci

Nowa technologia tłumaczy strony internetowe i wiadomości e-mailowe w język mówiony, w ten sposób otwierając internet dla każdego z tonowym telefonem. W roku 1996 pracując razem naukowcy SCR Wynblatt, Benson, Goose i Hsu i koledzy z niemieckiego oddziału Siemens'a , wypracowali technologie pozwalającą na dostęp do stron WWW i wiadomości e-mailowych przy użyciu każdego tonowego telefonu. Nowa technologia, nazwana DICE (Delivering Information in a Cellular Environment), używa algorytmu komputerowego do analizowania e-maili i dokumentów HTML (Hypertext Markup Language). Następnie odtwarza w postaci głosowej, za pomocą syntezatora głosu. Dzięki przekształcaniu stron internetowych w informacje głosowe, umożliwia dostęp do internetu osobom z uszkodzonym wzrokiem, a także każdemu kogo stać na telefon - olbrzymi krok dla milionów ludzi których nie stać na zakup komputera, a także pobudzenie dla wytwórców którzy chcą sprostać wymaganiom tego dużego rynku urządzeń hybrydowych. To czyni internet dostępnym dla każdego związanego z bezproduktywna aktywnością, taką jak prowadzenie samochodu, lub czekanie na opóźniony lot. To co czyni DICE wyjątkowym- SCR ma 3 patenty w toku- jest to ze jego algorytm analizuje format i wygląd elementów dokumentu, w ten sposób przekazując nie tylko tekst, ale także jego strukturę. „Jeśli wziąłbym surowy tekst, i przepompował go przez syntezator mowy wynik nie był by wiele mówiący ani przyjemny” wyjaśnia Goose. ”Ale jeśli bym nagłówki jednym głosem, główne sekcje innym, a treść trzecim głosem itd. , wtedy można by orientować się nawet w złożonych dokumentach bez konieczności patrzenia na nie. Tym podstawowym pomysłem, naukowcy SCR przetestowali czy głosowa wersja dokumentów HTML mogła być stworzona z wykorzystaniem właściwych funkcji syntezatora mowy do przekazania zarówno struktury jak i treści dokumentu. Odkryli, ze wiele głosów jest dostępnych , w tym mężczyzny, kobiety, osoby starej, młodej, i te głosy mogą zostać przetworzone dla zapewnienia odpowiedniej wyrazistości, prędkości, przerw, wahań, w ten sposób pozwalając na przekazanie różnych znaczeń. Głównym zadaniem było rozwinięcie algorytmu, który mógł rozpoznać strukturę strony www. Wydawać by się mogło, że jest to stosunkowo proste, gdyż dokumenty HTML są tworzone przy użyciu wyraźnego języka. Problemem jest ze nie wszyscy autorzy dokumentów HTML używają konsekwentnie tego języka. „jednym z podstawowych przykładów jest to, ze niektórzy autorzy używają różnych czcionek dla nagłówków, i w ten sposób ignorują standardowe zaznaczenia. Musieliśmy opracować algorytm, który właściwie zinterpretuje takie sytuacje” mówi Goose. Rozwiązanie jakie znaleźli naukowcy, opiera się na określeniu przez program intencji autora, poprzez porównanie rozmiarów czcionek poszczególnych sekcji względem siebie, a także długości poszczególnych tekstów. W ten sposób nagłówek ma zazwyczaj większą czcionkę i jest krótszy niż pozostała treść. Innym problemem były zdjęcia i grafiki. DICE nie wykonuje analizy treści zdjęcia, ale został zaprojektowany, tak aby informować, gdy znajdzie zdjęcie. Dodatkowo, jeśli autor starannie stworzył stronę, to powinien się znajdować krótki opis do zdjęcia ,a DICE rzetelnie go przeczyta.

Na drodze do informacyjnej autostrady.

Naukowcy SCR pracują obecnie z inżynierami Siemens'a od samochodowych technologii nad opracowaniem DICE dla samochodów. Pracują także nad aplikacjami do poczty elektronicznej. W samochodzie DICE pracowałby w podobny sposób jak radio. Ale cały system byłby uaktywniany głosem. Użytkownik zaprogramowałby w DICE swoje ulubione strony WWW. DICE używając następnie telefonu kontaktowałby się z dostarczycielem usług internetowych (ISP) lub komputerem użytkownika. Technologia rozpoznawania głosu pozwoli, aby DICE rozpoznawał nazwy stron WWW, i kontaktował się z powiązanymi z nimi URL'ami (Uniform Resource Locators). Po podaniu systemowi swojego kodu dostępu i hasła, jego obsługa wyglądałaby tak: DICE: „witaj w DICE Stuart! Ściągam teraz twoje ulubione strony.” Goose: „ pokaż Washington Post.” DICE: „tytuł tej stony to: WashingtonPost.com. Seven-twenty-nine AM. Friday, December 12” Następowałaby seria bipnięć przy odliczaniu nagłówków. Goose: „polityka” DICE(męski głos) : „komisja odnajduje sprzeniewierzone przez senatora pieniądze” DICE (kobiecy głos): „Komisja twierdzi ze ma niezbite dowody na to, że senator...”. Grupa narzędzi do nawigacji pozwala użytkownikowi np. na sprawdzenie dla dokładniejszych informacji innych związanych z zagadnieniem stron, albo przeskoczyć nagłówki i przejść do podsumowań. Goose podkreśla, ze poruszanie się po dokumencie opiera się tylko na wydawaniu komend głosowych. Ale przejście przez dokument może być problemem dlatego ze powiązania (linki) są zawsze skojarzone z pewnymi dźwiękami , a po nich następuje głos mówiący że istnieje nawiązanie. „Nasze badania pokazały, że przy takiej kombinacji użytkownik za każdym razem dobrze określa istnienie linków” mówi Goose.

E-mail proszę!

DICE może być używany za po mocą głosu, albo touch-tones. Ale w większości wypadków obsługa głosowa jest wygodniejsza. Przypuśćmy że siedzisz w poczekalni i czekasz na zawiadomienie kiedy twój opóźniony lot się odbędzie. W między czasie możesz sprawdzić swoją pocztę elektroniczną. Tak wyglądałaby ta operacja: Goose : „e-mail proszę!” DICE: „ wybrano pocztę. Ładuje twoje e-maile. Masz 6 nowych wiadomości.” Goose: „chce wiadomość pierwszą” DICE (starszy męski głos) „E-mail pierwszy od Wynblatt'a z SCR kropka Siemens kropka com. Temat Interesująca strona internetowa” (młodszy męski głos): „cześć Stuart. Dziś rano znalazłem bardzo interesującą stonkę. (elektroniczne bipnięcie ) Kobiecy głos: „HTTP slash slash www...” Goose: „ otwórz stronę” Tutaj DICE przenosi Stuarta na żądaną stronę WWW. Odpowiedzenie na e-mail jest tak samo proste jak odsłuchanie wiadomości. „ Mówisz tylko „odpowiedź” a DICE nagrywa twoją wiadomość” wyjaśnia Goose. „Potem wysyła wiadomość jako plik dołączony do e-maila.” Osoba która to odbierze może wysłuchać wiadomości. „ Ale nie można uzyskać odpowiedzi na piśmie. Ta technologia nie jest jeszcze wystarczająco dokładna” wyjaśnia Goose. Ale mogą być kłopoty. Wiadomość może zawierać np. dokument Powerpointa. „To jest wyzwanie”, mówi Goose, „ponieważ nie ma obecnie dobrej metody na utworzenie wersji audio złożonego, a być może i animowanego, obrazu. I także dokumenty Wordowskie mogą stwarzać problemy, chyba że są najpierw konwertowane na HTML.” Pomimo tych problemów, DICE jest wspaniałym wynalazkiem ponieważ należy do standardu na syntezatory głosowe. Połączony z unikalnymi algorytmami, które biorą pod uwagę składnię i interpunkcję, może być zadziwiająco bliski uchwycenia sensu zdania. DICE może także czytać inne języki poza angielskim. „jeśli ściągniesz dokument w języku francuskim”, mówi Goose, „DICE najpierw zastosuje algorytm do rozpoznawania języka, a potem załaduje odpowiedni syntezator mowy aby odczytać dokument dokładnie”. Oczywiście nie wszystko co DICE czyta musi być poważne i konkretne. Dzięki ogólnemu interfejsowi audio, DICE może równie łatwo czytać wyciągi z literatury, artykuły z gazet. Może być użyty do uzyskania aktualnych wiadomości o locie, a nawet to stworzenia własnej gazety. Technologia DICE jest tak młoda i jednocześnie posiada tak duży potencjał, że trudno przewidzieć jaki będzie mila wpływ na nasze życie. Pewne jest to, ze zwiąże się z innymi nowymi technologiami takimi jak Palm Pilots i przenośne komputery (wearable) . Goose przewiduje, ze wraz z miniaturyzacją tych urządzeń duże wyświetlacze stanął się niepraktyczne. Uważa on ze technologia DICE będzie w stanie zapełnić tą lukę. Ale małe wyświetlacze zapewne zostaną. Mając to na uwadze, Goose i jego koledzy poszukują jakiego rodzaju graficznych informacji może dostarczyć DICE.

Goose przewiduje, ze DICE stanie się tańszy i szybszy w użyciu. Np. zamiast kontaktować się z dostawcą usługi, program wykona się w telefonie. „jeśli telefon może obsłużyć Windows CE”, mówi Goose,” to wszystko czego by potrzeba to połączenie by móc ściągnąć stronę WWW.”

3.2 Przemienianie internetu w telewizje

Multimedialna treść jest główną częścią internetu, a jako ze medium to wkracza na masowy rynek, złożoność słów i obrazów oferowanych przez strony internetowe, będzie wzrastała. Związany z tym ścisk w paśmie jest oczywisty, ale technologie przesyłania audio/video połączone z nowymi systemami cache'ujacymi mogą dostarczyć oczekiwanej pomocy.

W chwili startu wahadłowca Discovery w US, internet był zalany gośćmi, próbującymi oglądać to na żywo na stronie CNN. Większości z tych osób, nie udało się połączyć i nie zobaczyła nic. Technologowie CNN zasugerowali, ze całkowite przeciążenie sieci mogło odegrać ważna role w tej porażce. Problem Przeciążenia , który ma wzrosnąć wraz ze zwiększaniem się liczby użytkowników internetu, jest traktowany bardzo poważnie. Sieć będzie pod wzrastającym obciążeniem, gdyż oczekuje się ze do roku 2005 będzie 500mln użytkowników, a strony internetowe będą przenosić więcej informacji i więcej bardziej pochłaniających pasmo treści multimedialnych. Przepływ środków przekazu stał się technologicznie możliwy we wczesnych latach 1990, i od tamtej pory stał się głównym zadaniem internetu. Technologia pozwala odtwarzać dźwięk i obraz w czasie rzeczywistym, gdy jest ściągany z internetu, co pozwala obejść się bez wcześniejszego zachowywania na dysku. Podłączenie się do przeglądarki takiej jak Netscape Navigator, pozwala na zdekompresowanie i odtwarzanie danych w trakcie ich ściągania z internetu. Przepływ danych audio i wideo pozwala pominąć opóźnienia związane z zapisem całego pliku i odtworzeniu go przy użyciu odpowiedniej aplikacji. Transmisje audio i wideo są dostarczane przez internet do użytkowników w czasie rzeczywistym lub na żądanie. Korzystając z obecnej technologii, informacja musi najpierw zostać zamieniona na cyfrową żeby moc zostać nadana jako treść multimedialna w internecie. Ale im wyższa jakość pliku audio/video tym więcej danych jest potrzebnych by przedstawić sygnał. Jest to podstawowy problem nad jakim pracuje CNN. Technologia multimedialna płynie na przód, ale przeciążenie sieci poważnie ogranicza potencjalny wzrost tego medium. W chwili obecnej podobieństwa pomiędzy treścią audio i wideo w internecie w czasie rzeczywistym, a tą która jest w tradycyjnej telewizji, nie są takie duże. Ale ta różnica zmaleje w ciągu najbliższych lat wraz z rozwojem telewizji cyfrowej.

Wzrastające zainteresowanie obrazem.

Pomimo dzisiejszych problemów z jakością , jest wciąż olbrzymi popyt na treści multimedialne w internecie. Ostatnio fala zainteresowania muzyką dostarczaną przez internet, zwiększenie ilości danych w czasie rzeczywistym oraz zwiastun filmu „Stars Wars”, który spowodował zamieszanie w internecie jak tylko się tam pojawił, są przykładami na wzrastający apetyt na multimedia. Aby sprostać wymaganiom na dostęp do internetu i treści w nim zawarte, firmy i rządy inwestują duże pieniądze w aparaturę która obsługuje ruch w sieci. Według badań przeprowadzonych przez analityków przemysłowych Frost&Sullivan i Zona Research, rynek amerykański na urządzenia infrastruktury internetowej, ma wzrosnąć z około 12 mld dolarów w 1997 do ponad 47 mld dolarów w roku 2002, co jest wzrostem o ponad 400%. Rozumowanie dotyczące takiego rodzaju inwestycji ma wiele stron. Jednym ze zmartwień jest to, że mimo iż procent ludzi mających dostęp do internetu jest stosunkowo mały, około 10 % w Wielkiej Brytanii, to już teraz ten procent użytkowników cierpi z powodu zmniejszenia wydajności wynikającej z przeciążenia Internetu. Jeszcze raz biorąc Wielką Brytanię za przykład , gdy telewizja cyfrowa zostanie zaakceptowana w całym państwie, odsetek Brytyjczyków mających dostęp do internetu wzrośnie , obejmując każde gospodarstwo domowego posiadające telewizor, co będzie wynosiło okoli 99% społeczeństwa. Ograniczone pasmo, wzrastające użycie multimediów i zwiększająca się liczba gości , mogą spowodować ustanie internetu. W przyszłości, gdy z internetu będzie korzystać 500 mln osób , przepływ obrazów i network caching będą istotne dla utrzymania internetu przy życiu.

Streamlining Content.

Nowa architektura sieci pozwala na ciągały przepływ treści multimedialnych o wysokiej jakości do użytkowników Internetu. Taki rodzaj architektury pozwala kopiującym mi cache'ujacym urządzeniom zachowywać i ciągle podawać treści telewizyjne z jakością CD, jednocześnie zmniejszając przeciążenie sieci. Firmy zajmujące się sieciami zmierzają do zrewolucjonizowania jakości treści- takich jak wiadomości i rozrywka- zarówno w domu jak i w przedsiębiorstwach. Rozwój technologii pozwoli środkom przekazu w internecie osiągnąć- a może nawet przewyższyć- jakość tradycyjnych mediów. Wg Frost&Sullivan, sektor rynku który zawiera systemy cache'ujace (urządzenia infrastruktury, które poszerzają pasmo, przyspieszają dostęp i umożliwiają zapewnienie bezpieczeństwa) ma wzrastać z szybkością pomiędzy 43 a 60% rocznie. Jest to najwyższy przewidywany 5-cio letni wzrost w sektorze infrastruktury internetu. Podczas, gdy oczekiwania w przemyśle się zmieniają, firmy pracują na z wielkim wysiłkiem nad uniknięciem możliwości zatkania sieci, gdy liczba gości osiągnie szczyt, i nad zapewnieniem środowiska które zachęca, a nie odstrasza, dalszy rozwój multimediów.

Techniczne przeszkody.

Jednym z obecnych wyzwań dla dostawców usług jest fakt, ze gdy wysyłany jest materiał wrażliwy na opóźnienia, taki jak obraz wideo, urządzenie źródłowe zwykle wysyła strumień danych na pojedynczym paśmie. W dużej sieci, użytkownicy mogą być popodłączani z różnymi prędkościami. Kiedy obraz jest wysyłany z duża prędkością, tylko „szybcy” użytkownicy otrzymują go poprawnie, podczas gdy „powolnym” obraz się pokrywa.

Kiedy obraz wysyłany jest wolniej, „wolniejsi” użytkownicy otrzymują lepszy obraz, ale ci „szybsi” skazani są na najwolniejsza prędkość. Firmy rozwinęły technologie które pozwalają radzić sobie z ta przeszkoda, ale jest to jeden z wielu drobnych problemów, które do tej pory trzymały to medium w szachu. Dobra wiadomością jest to, ze bardziej zaawansowane rozwiązania pojawiły się z planami kompresji, które mogą stworzyć stosunkowo dobrej jakości dźwięk dla połączeń 28.8 kbps. Mogą nawet obsługiwać dźwięk stereo przy tych prędkościach. Jednak innym dużym problemem przed jakim staje wrażliwy na opóźnienia materiał, to zmiany w szerokości pasma dostępnego, w zależności od natężenia ruchu w sieci- Plik który jest przesyłany sprawnie przez internet w nocy, może nie być tak łatwo przesłany wcześnie rano. Popularnym rozwiązaniem tego problemu jest tworzenie rożnych plików o rożnej jakości i poziomie kompresji. Alternatywą są systemy cache'ujace 3-ciej generacji , które mogą z łatwością rozwiązać ten problem, poprzez trzymanie kopii treści o oryginalnej jakości- takich jak wiadomości i materiały muzyczne- blisko użytkownika , gdzie jest dostęp na zadanie, bez łączenia się z powolnym głównym rdzeniem Internetu. Istnieje już technologia pozwalająca urządzeniom cache'ujacym na zapewnienie usług o dużej przepustowowści dla specjalistycznych serwerów. Programowalne węzły w sieci mogą inteligentnie ocenić zadania połączenia z internetem i utworzyć je w bardziej dopasowany i wydajny sposób, niż to było wcześniej możliwe.

Ostrze

Za wyjątkiem rozwiązań cache'ujacych, dotychczas szerokość pasma nakładała poważne ograniczenia na rodzaj obrazów wideo , które mogły być przesyłane z odpowiednią jakością. Nawet przy prędkości połączenia ponad 28.8 kbps, obraz jest mały, albo wolny, albo oba na raz. Obraz o dużej szybkości akcji, taki jak mecz futbolowy, jest bardzo trudny do odpowiednio szybkiego przesłania, co ogranicza treść, a zatem i różnorodność . Firmy internetowe, takie jak LAUNCH.com i spinner.com, sieciowe magazyny rozrywkowe , CD-Rom, i internetowa stacja radiowa, są przykładami miejsc które pracują na granicy obecnych możliwości multimedialnych.. W chwili obecnej , przepływ mediów w sieci jest używany do nadawania radia i programów telewizyjnych, które w znacznej mierze są wspierane reklamami. Wiadomości takie jak Sillicon.com używają technologii wyprzedzającej pozostałych, chociaż obecnie używana jest ona głównie krótkimi zrywami, blokami tekstu, które przygotowują większość stron internetowych. Prawa autorskie, umowy dotyczące zysków i technologie sieciowe, będą musiały się zmienić, aby internet mógł dalej się przekształcać. Jeżeli technologie przesyłania i cache'owania dziś dostępne będą w pełni wykorzystane, wtedy przepustowość Internetu pod względem multimedialnym będzie się mogła rozwinąć do poziomu dzisiejszych usług telewizyjnych.

3.3 Videokonferencje

Kilka lat temu przewidywano, ze wideokonferencje będą już wszechobecne. To się jednak nie sprawdziło. Zamiast tego rozwój technologiczny jest nękany przez dwa problemy- niepewność dotycząca rozwiązań sieciowych i niekompatybilność pomiędzy standardami. Obecnie nowy rodzaj wideokonferencji zmierzy się z tymi problemami. Niepewność która technologia będzie przenosić obrazy, spowodowała ze osoby odpowiedzialne za integracje sieci zawahały się przed zainwestowaniem w sprzęt do wideokonferencji w jednej sieci. Kiedyś myślano ze to ATM dostarczy odpowiedzi na dostosowanie szerokopasmowych aplikacji do pulpitu.; szybki Ethernet miał być rozwiązaniem w sieciach LAN; a jeszcze później ADSL był obiecywany jako klucz do dostarczenia wysokiego pasma użytkownikowi.

Zapotrzebowanie na pasmo dla aplikacji wideo jest większe niż dla innych danych- nie z powodu pasma potrzebnego w jakiejkolwiek chwili, ale ponieważ potrzeba ciągłego przepływu w czasie trwania aplikacji wideo. Dziś, wideo działa na niektórych specjalnych liniach, poza siecią LAN. Jednakże, zaczyna się teraz poszukiwanie nie specjalnych linii w sieciach LAN- szybkie IP backbone, ATM backbone, nawet niektóre Ethernet- do-pulpitu. Jednak większość istniejących sieci LAN, ma wciąż za mała przepustowość by poradzić sobie z aplikacjami wideo. W wyniku tego, wielu menedżerów sieci jest niepewnych jak zapewnią wymagania co do przepustowości, Które nakładają wideokonferencje. Możliwości na rozwiązanie problemu szerokości pasma jest wiele; może zbyt wiele. Najpewniejsze jest to, że będzie nie jedno rozwiązanie ale kombinacja wielu. To podejście będzie wymagało elastyczności infrastrukturalnego oprzyrządowania sieci, które poradzi sobie z kilkoma różnymi sieciami i będzie mogło zintegrować przyszłe sieci z istniejącymi urządzeniami.

Standardowe rozwiązania?

Doświadczenia z ISDN i H.320 faktycznymi standardami na tą dekadę, pokazały, że oparta na standarowych rozwiązaniach sieć nie gwarantuje niezawodności wideokonferencji. Według badań przeprowadzonych przez firmę konsultingową z Bostonu, DesigNET International, około 30 % multomedialnych połączeń punkt- do- punktu używających ISDN i H.320 doświadcza problemów podczas ustawiania połączenia.. Połączenia wielostronne , które są jeszcze bardziej złożone, maja kłopoty w 60% połączeń. W wyniku tego, menedżerowie sieci poświęcają średnio 20 minut na ustawienie połączenia punkt- do punktu i 40-50 min dla wielostronnego połączenia. Dlaczego wiec połączenia te są tak złożone do ustawienia?. Jedną olbrzymią przeszkodą jest to, że do niedawna wszystkie strony wideokonferencji musiały działać z tą samą przepustowością. Oznacza to, że szerokość pasma, szybkość przesyłania ramek , algorytm kompresji głosu i sieć muszą być identyczne u każdej ze stron uczestniczącej w wideokonferencji. Ustawienie we wszystkich punktach wspólnych parametrach jest długim procesem, wymagającym eksperta przy set-upie.

Wiele kłopotów podczas użytkowania wynika z różnych interpretacji standardu H.320 dla wideokonferencji w sieciach ISDN Międzynarodowej Unii Telekomunikacyjnej (ITU) . Żeby jeszcze bardziej skomplikować sprawę, nowsze standardy dla konferencji multimedialnych H.323 i H.321 w sieciach LAN/Internet i ATM mają własne produkty z własną interpretacją standardów.. Dodatkowo, z definicji ITU standardy H.320, H.321 i H.323 nie współpracują. To oznacza, że współpraca nie jest już tylko rozwiązaniem problemu interpretacji standardu; to także problem pokonania fundamentalnych różnic technologicznych pomiędzy różnymi standardami ITU i ich sieciami. W świetle tego, wyzwanie jest podwójne. Po pierwsze, jest problem sieci. Oprzyrządowanie do wideokonferencji musi dać się podłączyć do różnych sieci- ATM, IP i ISDN. PO drugie, jest problem standardów. Nie tylko urządzenia muszą się dać podłączyć, ale muszą także ustawić wszystkie zmienne zdefiniowane dla każdego z tych standardów- szerokość pasma, rozdzielczość obrazu, szybkość przesyłania ramek i algorytm kompresji audio.

Poszukując środków.

Wiele rozwiązań jest już dostępnych, aby poradzić sobie z tymi problemami. Np. dwu stronna bramka pozwalająca ISDN wezwać IP, podczas negocjowania pomiędzy standardami H.320 i H.323. Bramki te szeroko dostępne nie są odstraszająco drogie i zapewniają dobrą jakość w małych sieciach wideo. Jakkolwiek , niema możliwości przewidzenia z jaka siecią zetknie cię następna wideokonferencja. Wiec inwestując jedynie w dwu stronne bramki może być ryzykowne. Wiedząc nawet, ze wszystkie strony są w sieciach IP lub ISDN może nadejść chwila gdy będzie potrzeba połączyć się ze stroną w sieci ATM. Bramki będą musiały się ciągle rozwijać razem z rozwijającymi się technologiami i standardami. Jest to tymczasowe rozwiązanie, które zaspokaja natychmiastowe potrzeby, ale nie będzie dobre na dłuższą metę.

Aby uzyskać prawdziwą ochronę inwestycji potrzebne jest bardziej elastyczne, pojedyncze rozwiązanie ,które zapewni łączność pomiędzy różnymi sieciami. Jednostka wielopunktowej kontroli (MCU) przetwarzająca wszystkie standardy i prosty zintegrowany interfejs dla wszystkich funkcji systemu. Taka platforma musi umieć się połączyć ze wszystkimi obecnymi technologiami sieciowymi - ISDN, IP, ATM i powiązanymi standardami - i także musi być zaprojektowana by zintegrować przyszłe sieci i standardy.

Uniwersalne kodowanie i rozkodowywanie.

Kodowanie i rozkodowywanie istniejących protokołów dla każdej strony z każdej sieci jest warunkiem koniecznym dla wideokonferencji dobrej jakości. Każda sieć, czy to ISDN, IP, czy ATM używa określonych protokołów, które określają istotę strumieni audio i video, które są przesyłane pomiędzy uczestnikami. Kombinacji standardów i protokołów jest wiele; dla obrazów są to H.261, H.263, CIF, QCIF, od 7,5 do 30 ramek na sekundę; dla audio są G.711, G.728, G.722, G.723. W wielostronnej, wielosieciowej wideokonferencji liczba możliwych kombinacji jest ogromna i może siać spustoszenie zarówno w urządzeniach jak i u poszczególnych stron. Większość MCU nie może negocjować wszystkich zmiennych, zmuszając wszystkie strony wideokonferencji do obniżenia wspólnego mianownika wszystkich uczestników ,a zatem obniża jakość konferencji. Np. najczęstszym problemem dla MCU jest kodowanie i rozkodowywanie pomiędzy algorytmami audio G.722 (zapewniający wysoką jakość w sieciach ISDN) i G.723 (dający niską jakość i wąskie pasmo, u stron używających IP). Z taką kombinacją protokołów , większość oprzyrządowania do wideokonferencji zmusi uczestników do zmiany ich protokołów transmisji audio na G.711- najniższego wspólnego mianownika dla algorytmów audio. Gdy strony IP są połączone z przepustowością 128kbps , to zmniejszenie zdolności zmusza strony używające IP do używania 64kbps z ich 128kbps dla audio (niż 6kbps, do ilu G.723 jest zaprojektowany) zostawiając tylko 64kbps na obraz wideo. Wynikiem będzie konferencja o słabej jakości . Takie sytuacje powstają, gdy urządzenia nie są w stanie połączyć protokołów IP i ISDN na ich warunkach. Nowy rodzaj MCU pokonuje tą przeszkodę poprzez negocjowanie tych parametrów automatycznie , niemalże eliminując potrzebę technicznej ekspertyzy przy ustawianiu połączenia. Poprzez wielostronne kodowanie i dekodowanie każda strona łączy się z każdą inną z całością swych optymalnych parametrów dla transmisji audio i video. Nie tylko to wielostronne kodowanie zapewnia szybkość, brak kłopotów przy łączeniu się, ale także gwarantuje najwyższą jakość konferencji dla każdego z uczestników.

Przepustowość sieci.

Innym zagadnieniem jakie musi być wymienione jest rodzaj architektury na jakiej buduje się MCU. Są właściwie dwie możliwości - klasa telco i PC . Niezawodność tego drugiego jest nie dopuszczalna w krytycznych środowiskach, a także uniemożliwia szybki dostęp do modułów , czyniąc procedury utrzymania nużącymi, bo wymaga zazwyczaj wyłączenia systemu dla jakichkolwiek zmian konfiguracji.. Sprzęt klasy telco jest zaprojektowany do utrzymywania pracy w najbardziej wymagających warunkach . Charakteryzuje go łatwy dostęp do modułów, zbyteczne składniki, możliwość przestawienia modułów w razie awarii i zaawansowanego diagnozowania- wszystko to dostępne gdy system pracuje. Widać z tego, ze udana konferencja zależy od niezawodności architektury. Jednym z głównych celów wideokonferencji jest uczynienie odległych spotkań bardziej podobnymi do żywych- jak rozmowa twarzą w twarz. Jedną z funkcji MCU wspomagającą to jest „ciągła obecność” , która pozwala uczestnikom widzieć więcej jak jednego uczestnika na ekranie. Przez następne kilka lat, sieci w firmach będą rosły. Rozwiązania o małej przepustowości, mówiąc po prostu, są słabą inwestycją. Prawdziwą miarą przepustowości systemu, jest nie tylko maksymalna liczba korzystających z systemu, ale maksymalna liczba bogatych w opcje konferencji. Opcje takie jak ciągłą obecność, bardzo ograniczają liczbę równoczesnych konferencji, jakie niektóre systemy oferują. Np. system, który normalnie obsługuje 30 uczestników w 10 różnych równoległych konferencjach może obsłużyć tych 30 uczestników w tylko dwóch równoczesnych konferencjach ze stałą obecnością. Widać wyraźnie, że platforma MCU, która ma dziś dużą przepustowość i ma wyraźną ścieżkę rozwoju do pomieszczenia o wiele większych przepustowości w przyszłości, powinna być obowiązkową cecha każdego urządzenia do wideokonferencji.

3.4 Kieszonkowe biuro

Technologie informatyczne i komunikacyjne są nastawione na zrewolucjonizowanie biura. W drodze są systemy które ogromnie uproszczą nasze związki z maszynami. Mark M. wchodzi do biura o 8:00 bierze pojemnik, w którym są jego dokumenty i toczy go do doku przy niezajętym biurku.Wkłada notebook'a i zaczyna pracować. Żadna spośród 25 osób pracujących w biurze rozwojowym tego dużego producenta samochodów nie ma swojego osobistego biurka, ani pokoju. Co więcej, ponieważ dzielą się miejscem pracy (dzielenie się biurkami) jest ich tylko 5-cioro w biurze w jednym czasie. Pozostali pracują w domach albo wyjechali w sprawach slużbowych. „Biuro” jest dużym otwartym pokojem. Meble i osprzęt są łatwo przystosowujące się i mogą łato zostać dopasowane do potrzeb. Jedyny trwały osprzęt to „PC islands „ . Prezentacja ma mieć miejsce w „strefie komunikacji” o 14:00. Przed prezentacją personel zestawi kilka stołów razem, ustawi kilka przegród i przygotuje diagramy i wykresy do wyświetlenia na „elektronicznej tapecie”. Złożone tematy, takie jak projekt wtrysk paliwa w silniku disla mogą zostać przedstawione zebranym jako 3-D obrazy za pomocą systemu wirtualnej rzeczywistości. Osoba dokonująca prezentacji może modyfikować model za pomocą rękawicy danych i odpowiadać na pytania natychmiast pokazując zebranym zmodyfikowany model. Na zakończenie prezentacji strefa może zostać szybko przemeblowana , aby stworzyć małe grupy siedzeń, gdzie pracownicy mogą przedyskutować pomysły, albo po prostu zrelaksować się.

Biuro na pół etatu.

Duża cześć tego scenariusza jest już rzeczywistością w niektórych amerykańskich i skandynawskich firmach. Powód do rozwoju środowiska biurowego tak dalece elastycznością jest taki, że praca w biurze już nie jest tylko wpisywaniem tekstu, sprawdzaniem liczb albo wypełnianiem formularzy. Zamiast tego, wzrastający obszar jest charakteryzowany przez sieci komputerowe, w których dane są wspólne. Kierowany przez współzawodnictwo i konsolidacje duzi klienci wymagają by dostawcy usług spędzali więcej czasu na miejscu.

Statystyki mówią wszystko. Według badań przeprowadzonych przez Frauenhofer Institute for Industrial Engineering (IAO) in Stuttgart, Niemcy , biurowe miejsce pracy jest używane przez średnio 40 min w ciągu ośmio- godzinnego dnia pracy w sektorach takich jak sprzedaż i doradztwo - to tylko 5% całkowitego czasu. IAO odkryło, że nawet tradycyjni biurowi pracownicy spędzają tylko 40% ich dnia pracy przy swoich biurkach. Wiele firm zaczyna dostrzegać fakt, że siedzenie w biurze przy biurku od 9:00 do 17 :00 nie jest najbardziej wydajnym modelem pracy. W rzeczy samej. Rzeczy zmieniają się szybko. W Stanach Zjednoczonych około 30-40 milionów ludzi jest zatrudnionych jako telepracownicy, albo pracują w domu. Jedną z pierwszych firm, które wprowadziły niekonwencjonalne formy pracy zmieniając środowiska biurowe, lokalizacje i uprawomocniając telepracę był gigant telekomunikacyjny AT&T . Poprzez przeniesienie stanowisk pracy do domów i łączenie już istniejących biur AT&T zaoszczędziło około 550 mln dolarów od roku 1991. Dzięki swej „mobilnej inicjatywie” IBM szacuje, że zaoszczędza 100 mln dolarów każdego roku na swoich zajmujących się sprzedażą i marketingiem północnoamerykańskich organizacjach.

„Teraz jest możliwie otworzenie biura właściwie wszędzie” mówi Stephen Zinser, który dowodzi „Biurem 21”, projektem sponsorowanym przez Seimens i innych, aby ocenić skutki informatycznej i komunikacyjnej technologii na świat pracy. Podstawowym celem tego przedsięwzięcia jest nakreślenie pomysłów na „biuro przyszłości”. Według Zinsera telekomunikacja wyeliminowała granice pomiędzy komputerem i telefonem. Dziś możliwe jest wysyłanie multimedialnych plików poprzez łącza telefoniczne uzupełnione dźwiękiem, obrazami i grafika. Czas i miejsce- kiedyś nieprzezwyciężone przeszkody w świecie pracy- są coraz bardziej podporządkowane. Nowe, bardziej elastyczne formy współpracy takie jak video-konferenje i telepraca, wkrótce będą tak samo częścią biura jak telefony, faksy i kserokopiarki.

Przepisując książkę o pracy biurowej.

Wraz z rozprzestrzenianiem się zaawansowanych narzędzi telekomunikacyjnych takich jak telekonferencje, praca biurowa stanie się płynnym, zawierającym skoncentrowaną wiedzę procesem, który będzie mniej zależny od fizycznych budynków niż jest obecnie. To jest w porządku, ale podstawowym pytaniem jest czy to wszystko doprowadzi do zwiększenia poziomu wydajności . Według Anderson Consulting wydajność biur spadła o 6% od lat '70.Co więcej góra papierkowej roboty potroiła się. Część problemu to fakt, iż po prostu jest bardzo dużo informacji, jak nigdy przedtem. W wyniku tego pracownicy spędzają większość czasu na przesiewaniu danych w poszukiwaniu tego co im jest potrzebne.

To nie zaskakuje Michael'a Streit'a asystenta do spraw badań w Niemieckim Centrum Badań nad Sztuczna Inteligencją (DFKI) w Saarbrücken. Według niego użycie pracowniczego biura, elektronicznych systemów nie jest łatwe. Pamiętając o tym, Streit pracuje nad realizacją „wielo-modalnego dialogu”- wymyślnego sposobu opisania systemu , który pozwoli użytkownikom na komunikowanie się ze swoimi komputerami w naturalny sposób. Podsumowuje sytuację następująco: „Dlaczego nie mogę po prostu powiedzieć mojemu komputerowi co chcę żeby zrobił?”

Wskaż i mów .

Według Streit'a wielo-modalność jest ,”gdy mowa i gesty są połączone razem i mogą być wykonane razem”. Dodaje, że „Czasami jest łatwiej wskazać na coś niż dać głosowy opis tego”. Ten pomysł stoi za „Diamentem”, maszyną dialogową rozwiniętą przez Streit'a i współpracowników w DFKI. Diament jest software'owym pakietem, który składa się z programu rozpoznającego mowę i prototypu biurowego asystenta „Talky”. Urządzenie jest w stanie interpretować głosowe wypowiedzi i gesty dłoni i transformowania ich w stosowne działania komputera. Streit włącza swój komputer - Pentium II PC- zakłada słuchawki i mówi: „Talky, spotkanie w interesach z Johnson'em w sali konferencyjnej od 1:30 do 2:30”. W tym samym czasie wskazuje na datę na kalendarzu na monitorze. „Język jest zarówno szybki i elastyczny i dlatego idealny do wchodzenia do komputerowych poleceń. Wynik, z drugiej strony, może być dość podstępny, gdyż zawiera tak dużo informacji.” mówi Streit podczas ,gdy Talky wyświetla wpis spotkania jako część wykresu na monitorze. „Językowa odpowiedź zmusza mnie do słuchania i musze zapamiętać co komputer mówi. To może stać się skomplikowane, gdy ma się do czynienia ze złożonymi zagadnieniami” dodaje. Dlatego Streit i inni naukowcy zastąpili głosową odpowiedź grafiką. Która z dwóch form wyprowadzenia jest lepsza w poszczególnych przypadkach zależy od zaistniałej sytuacji. Na przykład: gdy umawiamy się przez telefon komórkowy , głosowe sprzężenie zwrotne może dostarczyć zdecydowanie korzyści.

Od Słów kluczowych do działania.

Inne duże firmy, np.: IBM i Phillips , także oferują programy rozpoznające mowę. Co oferuje Diament czego oni nie mogą? „Używamy pakietu rozpoznawania mowy Siemens'a, który w przeciwieństwie do większości innych systemów nie zależy od pojedynczego mówiącego. To znaczy że system nie musi być szkolony i będzie także pracował, gdy mówiący jest przeziębiony”, mówi Streit. Ale Diament robi więcej niż tylko powiela każdy dźwięk, który zrobi mówiący. On analizuje wszystkie wypowiedzi, bierze pod uwagę ich gramatyczną konstrukcję, odfiltrowuje informację z mówionych słów i przekształca to w odpowiednie działania. Mówiąca maszyna pracuje w oparciu o kluczowe słowa. Gdyby tak nie działała, nie byłaby w stanie odróżnić dwóch wyrażeń: „nie z Jonson'em” i „z Jonson'em”. Wiedza potrzebna by to zrobić jest zgromadzona w tak zwanych modelach zadań: kiedy zostanie dane polecenie „wyznacz spotkanie”, Diament wie, że imię osoby zaangażowanej, miejsce i czas będą podane w dalszej kolejności. System interpretuje wypowiedzi odpowiednio do kontekstu i bierze gesty mówiącego pod uwagę. „Takie interpretujące systemy”, mówi Streit, „nie zawierają się w innych produktach i nie są obecnie dostępne na rynku”. Diament także ułatwia elastyczny dialog. W ten sposób poprawki mogą zostać wprowadzone w bardzo podobny sposób jak w ludzkiej rozmowie. Na przykład Streit może poprawić swoją wcześniejszą wypowiedź mówiąc : „Talky, spotkanie z Millerem i Smithem, nie z Johnsonem” .Talky reaguje na komendy i zmienia odpowiednio nazwiska na wyświetlonym kalendarzu. Użytkownik nie jest ograniczony przez określone kroki. Może rozmawiać całkiem naturalnie z komputerem.

Wbudowany pomocnik.

Jak można oczekiwać Diament nie jest w stanie poprowadzić filozoficznej dyskusji. Mówiąca maszyna może pracować jedynie jako asystent, który rozumie i wykonuje typowe prace biurowe. Jeśli by się powiedziało maszynie, ze ma się problemy z mężem albo żoną, system prawdopodobnie przeoczyłby tą informację, ponieważ nie pasowałaby do jego wiedzy o świecie. Ale Diament może być ogromnie użyteczny jeśli chodzi o rutynową pracę. Na przykład: Talky może sam wyznaczyć spotkanie, i może nawet pisać e-maile w których proponuje możliwe terminy. Co więcej, może do pewnego stopnia oceniać odpowiedzi, takie jak np. gdy spotkanie musi zostać przełożone na później. Talky jest także zdolny zaoszczędzić czas właściciela poszukując szczegółów . Na przykład można go zapytać kiedy mamy następną wizytę u dentysty, a on natychmiast wskaże odpowiedni wpis. Aby zwrócić jego uwagę, musimy tylko powiedzieć Talky, albo włączyć lub wyłączyć program kliknięciem myszki.

Patrząc w przyszłość.

Streit ma nadzieję, że system w końcu będzie zdolny rozpoznać czy rozmówca zwraca się do niego po prostu z kontekstu wypowiedzi. Planuje także rozszerzyć funkcje Diamentu. „Próbujemy poprawić zdolność systemu do uczenia się. Użytkownik powinien móc poprosić o wykonanie zadania w zwykły sposób bez dalszych wyjaśnień” mówi Streit. Streit jest przekonany co do jednego: głosowe polecenia staną się standardem w przyszłości. Wierzy, że taki system przełamie barierę dzielącą ludzi i maszyny i może być ważnym wkładem w poprawienie efektywności pracy z komputerem.

Ad.4.

Jak widać prace trwają na wszystkich płaszczyznach, lecz można wyszczególnić cztery kierunki, na które skierowany jest główny nurt innowacji:

Na podstawie artykułów z „Telecommunications”.



Wyszukiwarka

Podobne podstrony:
Lokalne i globalne sieci komputerowe, Sieci komputerowe administracja
Topologie sieciowe, Sieci komputerowe administracja
Ćwicz.9 Sieci Komputerowe, Sieci komputerowe administracja
Podstawy novella, Sieci komputerowe administracja
Protokoły sieci LAN, Sieci komputerowe administracja
Urządzenia sieci LAN, Sieci komputerowe administracja
Sieci neuronowe, Sieci komputerowe administracja
Sciaga z Sieci Komputerowych, Administracja, Administracja, Administracja i samorząd, Polityka spole
Protokoły w sieciach teleinformatycznych, Sieci komputerowe administracja
opracowania sieci, Sieci komputerowe administracja
Sieci inteligentne i realizacja usług zintegrowanych, Sieci komputerowe administracja
Media sieciowe, Sieci komputerowe administracja
Info XP, Sieci komputerowe administracja
Lokalne i globalne sieci komputerowe, Sieci komputerowe administracja
Lokalne I Rozlegle Sieci Komputerowe Administracja I Bezpieczenstwo Sieci
Sciaga sieci wersja 1, Studia, Sieci komputerowe i internet

więcej podobnych podstron