Projekt z TI
HIPERTEKST
Termin oraz idea hipertekstu pochodzą od Teda Nelsona, który wynalazł go i zastosował dla swojego systemu Xanadu już w 1965 roku. Ćwierć wieku później koncepcja hipertekstu legła u podstaw World Wide Web. W przypadku tego systemu zastosowanie hipertekstu miało cechy rewolucji technologicznej: odsyłacze tekstowe mogły prowadzić nie tylko do lokalnych dokumentów, ale do również do informacji znajdujących się na komputerach rozlokowanych na całym świecie. Hipertekst jest technologią, której internet zawdzięcza swoją niezwykłą popularność. Pojęcie hipertekstu wprowadził Ted Nelson jednak już dwadzieścia lat wcześniej Vannevar Bush przedstawił pomysł urządzenia mikrofilmowego wykorzystującego ideę hipertekstu, które nazwał memexem. Ted Nelson od ponad 30 lat pracuje nad systemem hipertekstowym Xanadu. Opublikował listę wymagań dla implementacji Xanadu, z których część spełnia HyperWave, dawniej znany jako Hyper-G, wykonany na Politechnice w Grazu (Austria).
Dokumenty hipertekstowe różnią się tym od zwykłych, że posiadają w swojej treści dynamiczne odnośniki do kolejnych dokumentów. Odnośniki te mogą dotyczyć dokumentów zgromadzonych na: lokalnym komputerze, komputerach sieci lokalnej oraz serwerach sieci internetowych. Ta właściwość daje projektantom stron WWW nieograniczone możliwości twórcze, limitowane jedynie jego fantazją. W dokumentach hipertekstowych mogą występować także obiekty multimedialne takie jak grafika, animacja, dźwięki, filmy itp. Dokumenty tego typu są zbiorami tekstowymi ( kodowanymi wg normy ISO-8859;PN-93 T-42118 ), zawierającymi proste polecenia składu tekstu. Polecenia te w większości są podobne do poleceń edytora TeX oraz jemu podobnych procesorów tekstu. W celu przyśpieszenia transmisji poprzez rozległą sieć , dokument przesyłany jest w postaci źródłowej. Interpretacja poleceń składu odbywa się poprzez przeglądarkę stron WWW. Taka konwencja pozwala również, oprócz przyśpieszania transmisji, na uniezależnienie się od systemu operacyjnego i komputera, na którym oglądany ma być tekst. Przygotowanie dokumentu można przeprowadzić zwykłym edytorem tekstowym np. w edytorze Nortona Comandera, MS-DOS Edit lub Notepadzie. Nie jest również wymagane akceptowanie przez edytor znaków narodowych. Gotowy dokument hipertekstowy umieszczamy na serwerze WWW w katalogu ustalonym przez administratora systemu. Wymagania, które należy spełnić, aby umieścić swoją stronę w Internecie:
Posiadać konto użytkownika na serwerze WWW. Takie konto można wykupić w firmie posiadającej serwer lub skorzystac z usługi bezpłatnej - np. z oferty POLBOX-u ( http://www.polbox.pl ).
Utworzyć stronę i przesłać ją na swoje konto. W razie konieczności należy utworzyć odpowiedni katalog - najczęściej na serwerach Unixowych, gdzie tworzy się katalog o nazwie public_html. Unix wymaga także rozszerzeń html. Katalog udostępnia się komendą chmod.public_html 744.
(HTML, HyperText Markup Language, specjalny język służący do opisu strony oraz odniesień z poszczególnych jej elementów do innych dokumentów. Język ten powstał na potrzeby internetowej usługi WWW. HTML jest stale rozwijany, a kolejne jego wersje wzbogacane są o nowe możliwości. Pliki zawierające strony napisane w języku HTML charakteryzują się rozszerzeniem “.html” bądź “.htm”.
Umożliwia umieszczenie na stronie tekstu zdefiniowanych dyrektyw co do sposobu jego prezentacji, wyróżnienia pewnych jego elementów edytorskich jak akapity, nagłówki itp. Pozwala także umieszczać bezpośrednio na opisywanych stronach grafikę, a w najnowszych wersjach również inne typy dokumentów. Pewne zdefiniowane przez autora strony elementy (np. fragmenty tekstu) mogą dodatkowo wskazywać na inne dokumenty. Wskazanie takie odbywa się przez zdefiniowanie tzw. URL jednoznacznie określającego dokument w obrębie odpowiedniej przestrzeni (np. w lokalnej kartotece lub w sieci Internet). Technikę tą określa się mianem hipertekstu. Strony napisane tym języku są interpretowane przez przeglądarkę WWW taką jak np. Netscape Navigator lub Internet Explorer.
Cały urok systemu WWW polega na tym, że odsyłacz może wskazywać informacje znajdujące się na zupełnie innym komputerze, w innym końcu świata.
Coraz częściej ze struktura hipertekstową można spotkać się w publikacjach elektronicznych dostarczanych na płytach CD-ROM: encyklopediach, słownikach, dodatkach do czasopism, etc. Również systemy pomocy w wielu programach oparte są na podobnej organizacji materiałów informacyjnych.
Hipertekst, forma prezentacji tekstu. Dokument hipertekstowy jest normalnym tekstem, z tym że niektóre słowa (bądź wyrażenia) stanowią odsyłacz (link) do innego dokumentu lub innego miejsca w bieżącym pliku. Słowa takie są z reguły prezentowane jako podkreślone, dodatkowo mogą być prezentowane w innym kolorze. Hipertekst występuje najczęściej na stronach WWW albo w systemach pomocy programów systemu Windows. Występuje on również w publikacjach multimedialnych, np. Multimedialna Encyklopedia Powszechna firmy Fogra Multimedia zawiera ponad 2 mln linków.
Łącznik hipertekstowy, odsyłacz, odnośnik (angielskie link), element hipertekstu pełniący funkcję odsyłacza książkowego, tj. proponujący czytelnikowi przejście do innego miejsca hipertekstu. Systemy hipertekstowe zapamiętują drogę, którą wybiera użytkownik w hipertekście, umożliwiając łatwe wycofywanie się do punktu wyjścia.
Wyobraź sobie tylko świat bez nagrań Chemical Brothers czy Fatboy Slim. Świat, w którym nie istnieje Quake III, a Polską rządzi Jaruzelski, zaś ostatnim hitem na listach przebojów jest: "Nie ma to jak dziadzio" chóru szkoły przy kościele w Pcimiu Dolnym. Mając w perspektywie takie przeraźliwości, biegniesz do kiosku i szukasz upojenia w swoim ulubionym czasopiśmie, ale okazuje się że ono nie istnieje. Podobnie jak nie ma komputerów.
Nie, nie brałem niczego halucynogennego, opisuję tylko stan rzeczywisty z roku 1980. Już dwanaście miesięcy później wydarzyło się coś, co zmieniło świat: IBM wyprodukował komputer PC. W ciągu następnych dwudziestu lat zmieniło się praktycznie wszystko: przemysł, filmy, edukacja, wydawnictwa, muzyka, gry, a nawet sposób w jaki się porozumiewamy. Nieźle jak na dwudziestolatka. Pecet jest jednym z najważniejszych producentów w dziejach ludzkości, a komputery przebierają w dzisiejszych czasach najrozmaitsze postacie: od klonów IBM PC, poprzez kieszonkowe palmtopy, Apple Macintoshe, do niewiarygodnie szybkich graficznych stacji roboczych. Na tej stronie postaram się przybliżyć sposób, w jaki ta niepozorna skrzynka z bitami ma tak potężny wpływ na wszystkie aspekty życia.
Pierwszy pośród równych
IBM PC nie był pierwszym masowo produkowanym komputerem - był nim Apple II, który powstał w roku 1977. To co sprawia, że maszyna IBM była inna, jest fakt, że w przeciwieństwie do produktów Apple, także inne firmy mogły produkować pecety: pierwszy klon komputera IBM produkcji Columbia Data Systems pojawił się w 1982 roku. Pomimo że niewiele osób je pamięta firmy takie jak Amstrad odegrały olbrzymią rolę w upowszechnieniu pecetów i obniżeniu ceny. W roku 1986 każdy mógł pójść do sklepu i zaopatrzyć się w komputer Amstrad PC, wydając równowartość zaledwie 2500 zł. Także firmy programistyczne miały swój udział w sukcesie. Arkusz kalkulacyjny Lotus 1-2-3 właściwie samodzielnie sprawił, że komputery stały się nieodzowne do prowadzenia jakichkolwiek interesów.
Jeżeli Apple pozwoliłyby innym przedsiębiorstwom produkować klony swoich maszyn, IBM PC mógłby zostać sprowadzony do drobnego przedsięwzięcia, o którym mówiłoby się: " a co się z nim stało?", włączywszy konstrukcje takie jak Dragon 32. Comodore C64 czy BBC Micro. Ale Apple nie przyjął tej polityki, więc komputery kompatybilne firmy IBM PC opanowały wkrótce cały świat. Programiści rozpoczęli produkcje ton rozmaitych software'ów, a wykonawcy sprzętu opracowywali coraz ciekawsze elementy maszynerii. Z racji tego, że konkurencja była dość mocna, firmy stopniowo zaczęły obniżać ceny na swoje produkty, wprowadzając nowe rozwiązania lub poprawiając wydajność dotychczasowych. Wojny pecetowe rozpoczęły się na dobre.
Wielkie interesy
Pierwszy sukces został odniesiony w świecie interesów - czemu trudno się dziwić z racji tego, że oryginalny PC powstał jako maszyna do tego sektora. Praca z arkuszem kalkulacyjnym, być może, nie jest najbardziej ekscytującym zajęciem na ziemi, ale dla księgowych programy tego typu były zbawieniem. Zamiast zapełniać całe strony słupkami, mając nadzieję, że nie została popełniona pomyłka, można wprowadzić dane do arkusza i zlecić komputerowi wykonania wszystkich obliczeń. W systemach, które oparto na rachunkach papierowych, udzielenie odpowiedzi na pytanie, takie jak: " co by się stało, gdyby nasze koszty wzrosły o 3,52%?", zajęłoby nam to całe dni albo tygodnie. Arkusz kalkulacyjny skraca ten czas do ułamków sekund, gwarantując poprawność obliczeń.
Także bazy danych były niezwykle istotnym ułatwieniem. Zamiast potężnych magazynów z zakurzonymi szafami z aktami, olbrzymie ilości ważnych informacji były przechowywane na jednym komputerze, a dostęp do nich zajmował sekundy. Firmy mogły dokładnie analizować wydatki, szczegółowe dane o zatrudnieniu, sprzedaży, wystawiać faktury - i co tylko można sobie wyobrazić. Komputer PC był w stanie poradzić sobie z wieloma zadaniami.
Bazy danych otwierały kolejny zakres możliwości: Umożliwiały przechowywane informacji na temat klientów. Dodając do tego edytor tekstu, można było w kilka chwil wysłać osobiście zaadresowane listy do tysięcy odbiorców. Oczywiście, edytory tekstu nie służyły tylko rozsyłaniu ulotek. Sekretarki mogły szybko sporządzić dzięki nim dokumenty, kontrakty i zamówienia bez konieczności spędzania wielu godzin nad prawniczym bełkotem. A dziennikarze, pisarze i inni "klawiszowi" wklepywacze szybko wyrzucili maszyny do kosza. Dużą zaletą edytora tekstu było to, że znajdował się w zasięgu finansowych możliwości nie tylko dużych przedsiębiorstw - nawet niewielki firmy było stać na korzystanie z pecetów celem uzyskania profesjonalnego wizerunku wobec reszty świata.
Jak widać pojedynczy komputer jest potężnym narzędziem, ale jeszcze większy potencjał daje połączenie całej gromadki komputerów. Wszystkie duże przedsiębiorstwa wykorzystują niewiarygodne liczby pecetów, które spina się w sieć, a w wielu przypadkach taka struktura całkowicie zastąpiła potężne systemy typu mainframe. Sieć oferuje najlepsze cechy obu tych światów: pracownicy korzystają z możliwości i mocy przerobowych pecetów, a łącza pozwalają na dzielenia plików, współpracę nad różnymi projektami i bardzo efektywny sposób porozumiewania się.
Komputery PC miały także ogromny wpływ na strukturę zatrudnienia. Hale wypełnione maszynistkami, widok, który można było spotkać w prawie każdym dużym przedsiębiorstwie, zniknęły, a ich struktura została zupełnie zmieniona przez nowoczesną technologię. Mimo że wiele zawodów bezpowrotnie odeszło w niepamięć, pojawiło się na ich miejsce jeszcze więcej nowych: od centrów telekomunikacyjnych, przez administratorów sieci, zarządców baz danych, szkoleniowców, aż projektantów stron internetowych. Nagle zrodziły się nowe gałęzie przemysłu, technologia umożliwiła ludziom pracę w domu i w podróży, a wraz z pojawieniem się World Wide Web okazało się, że chałupnicze firmy mogą sprzedawać własne produkty odbiorcom znajdującym się na drugim krańcu świata.
Styl życia
Wraz ze wzrostem wydajności i rosnącą popularnością pecety, zaczęły się pojawiać w biurach projektowych. Zamiast rysować plany na papierze, architekci mogli projektować budynki na ekranach monitorów, dodając różne poziomy szczegółów, a nawet przeprowadzając symulacje, które pomagały wybrać odpowiedni w danym przypadku rodzaj konstrukcji. Bardziej zaawansowane komputery wprowadziły modelowanie trójwymiarowe, które zastąpiło stosowane do tej pory schematy szkieletowe i artystyczne rysunki budowli jeszcze nieistniejących. Technologia wirtualnej rzeczywistości umożliwiła architektom oprowadzanie gości po swoich wirtualnych modelach. A to tylko na początek: dzięki komputerom stało się możliwe przewidywanie sposobu, w jaki zachowują się budynki w trakcie trzęsienia ziemi, gwałtownej burzy czy ataku gigantycznego goryla.
Także przemysł zyskał na komputeryzacji. Większość samochodów jest obecnie projektowana komputerowo i wszystko, od podwozia po schowki i lusterka, jest dokładnie dopracowane na ekranie, zanim nawet powstaną prototypy. Coraz istotniejsze stają się komputerowe symulacje - zamiast rozbijać różne rzeczy młotkami albo testować je w tunelach aerodynamicznych, projektanci po prostu uruchamiają odpowiedni program i przewidują ewentualne problemy ich konstrukcji.
Pecety zdominowały jeszcze jeden obszar: wydawnictwa. Składanie w całość gazet czy innej publikacji stanowiło niegdyś żmudny i czasochłonny proces, na który składało się wycinanie, wklejanie i justowanie, zanim gotowe strony mogły przenieść się na metalowe matryce. W dzisiejszych czasach prawie każda publikacja powstaje w sposób cyfrowy. Redaktorzy wysyłają swoje teksty w postaci komputerowych plików, zdjęcia są przesyłane elektronicznie, strony są składane za pomocą takich narzędzi, jak: Quark Xpress czy PageMaker, a skończony artykuł jest wysyłany w formie elektronicznej do drukarni. Dla projektantów nadal lepsze wydają się komputery Apple Macintosh, ale również maszyny zgodne ze standardem IBM zyskują niemałą popularność, Wraz z rosnącą wydajnością procesorów i kart graficznych. Taka sama technologia jest teraz dostępna dla użytkowników domowych, co w rezultacie może prowadzić do opłakanych efektów. Wystarczy popatrzyć na osiedlowe tablice ogłoszeń, żeby przekonać się na własne oczy, co się stanie, gdy połączymy domowego peceta, jedną kartkę papieru A4 i 400 zakręconych czcionek. Nie wygląda to apetycznie.
Jedną z najbardziej kontrowersyjnych technologii jest obróbka zdjęć - w ostatnich miesiącach brytyjski brukowiec "GQ" użył nowoczesnej technologii do tego, żeby spodenki Kylie Minogue zniknęły, a pismo "Loaded" cyfrowo przerobiło zdjęcie Mel B, która wygląda, jakby była naga, ale akurat obsiadły ją pszczoły. Te szczeniacki zabawy mogą trafić na pierwsze popularnych magazynów, ale prawdziwa manipulacja odbywa się przez cały czas: twarze modelek są wygładzone, kolory żywności na jej opakowaniach stają się bardziej jaskrawe, piegi gwiazd muzyki pop znikają, a nawet zdjęcia brytyjskiej rodziny królewskiej są poprawiane, aby wyglądali na nieco weselszych. Obiektyw nigdy nie kłamie, ale kopia programy Photoshop bardzo często. Oczywiście Photoshop jest także używany do innych celów - w komplecie z tabletem graficznym i zręcznym rysownikiem, oprogramowanie tego typu umożliwia tworzenie niewiarygodnie skomplikowanych obrazów, które nigdy nie mogłyby powstać bez komputera.
Również sztuka fotografii sama w sobie podlega zmianom. Najnowsze aparaty cyfrowe oferują niesamowicie wysoką jakość zdjęć, a ich cena bardzo szybko spada. Można dzisiaj zapomnieć o kliszach, ciemniach i odczynnikach, a skupić się na uchwyceniu odpowiedniego kadru.
To jest rozrywka
Świat rozrywki również nie jest uodporniony na zalew rozwiązań z branży PC. Zamiast aktorów w gumowych kostiumach jaszczurki i papierowych statków kosmicznych zawieszonych na sznurkach, obecnie filmy są upchane zapierającymi oddech efektami specjalnymi, z których większość powstaje na stacjach graficznych firmy Silicon Graphics. Niektóre produkcje, jak na przykład Toy Story 2, nie zawierają ani jednej klatki , która nie byłaby stworzona komputerowo, a inne używają takich efektów w bardzo subtelny sposób. Zła pogoda w filmie "Gniew oceanu" powstała na ekranie monitora, podobnie jak większa część publiczności w scenach z Koloseum w "Gladiatorze". Komputery pomogły Hollywood nawet w przywracaniu ludzi do życia - kiedy Oliver Reed wyzionął ducha, zanim ukończono "Gladiatora", Komputerowe sztuczki umożliwiły nałożenie jego twarzy na statystę, co pozwoliło zmarłemu aktorowi dokończyć film. Podobny proces został wykorzystany do wprowadzenia Steve'a McQueena do ostatnich reklamówek samochodu Ford Puma. Studia rozważają nawet stworzenie aktorów, którzy istnieliby wyłącznie w pamięci wirtualnej.
Większość komputerów domowych jest obecnie wyposażona w napęd DVD, który pozwala na oglądanie najnowszych produkcji filmowych na ekranie peceta, a następnie odwiedzenie oficjalnej strony internetowej, na której można znaleźć dodatkowe informacje o filmie albo podyskutować z innymi kinomanami. Kolejną branżą, która przeżywa niesamowite zmiany, jest muzyka. Oprogramowanie ProTools jest regularnie wykorzystywane w celu zmiany atonalnych pochrząkiwań gwiazd oper mydlanych w coś nieco - ale niewiele - bardziej melodyjnego. Studia nagraniowe stają się coraz bardziej skomputeryzowane. Piosenki są prawie zawsze cięte i zmieniane na komputerach, a wielu muzyków tworzy swoje brzmienia z wykorzystaniem cyfrowych sekwenserów, syntezatorów i samplerów. Niektóre zespoły - jak na przykład Blur, Radiohead czy U2 - łączą muzykę cyfrową z bardziej tradycyjnymi instrumentami, ale całe rzesze domowych królów techno odkryło, że nawet najskromniejszy pecet ma o niebo większe możliwości niż cokolwiek, z czego w swoim czasie mogli skorzystać The Beatles.
Jednak nie tylko proces nagrywania brzmień ulega zmianom. Muzyka przenosi się do internetu i zapewne niewiele czasu minie, zanim tradycyjne płyty zostaną wyparte przez programy do ściągania plików. Ostatnie kontrowersje z serwisem Napster dowiodły, jak bardzo popularne stało się rozpowszechnianie muzyki przez internet, a największe firmy wydawnicze pracują nad sposobem dostarczenia za opłatą nagrań, a nawet filmów wprost na pulpit twojego komputera.
Granice bez granic
Gry również uległy dramatycznej przemianie. Legendarny producent Peter Molyneux wierzy, że to właśnie one są odpowiedzialne za szalony postęp, jaki dokonał się ramach technologii dotyczącej kart graficznych i dźwiękowych. I ma rację. Nie potrzeba przecież akceleratora 3D do edytora tekstu, ale daje ona olbrzymią różnicę względem efektów w Quake'u III. Aby przekonać się, jak daleką drogę przebyliśmy, wystarczy cofnąć się w czasie do wczesnych lat osiemdziesiątych: Frogger, Battlezone i Pac-Man. Były to świetne gry, ale wyglądają żałośnie w porównaniu z dzisiejszymi super produkcjami. Przełomowe tytuły nie są czasowo wcale tak odległe: SimCity powstał w 1987. Doom w 1993, a pierwszy Tomb Raider zaledwie w 1996.
Prawdziwe karty graficzne są także całkiem świeżym wynalazkiem. Nawet staruszka VGA oferująca rozdzielczość 640 x 480 nie istniała przed rokiem 1987 - wtedy rządziły karty CGA generujące obraz o szesnastu kolorach w 160 x 200. W porównaniu z dzisiejszymi machinami 3D, pierwsze układy graficzne przypominają kolej parową.
Przemysł gier ma również swój udział w sporej liczbie falstartów - porządne tytuły na DVD jeszcze się nie pojawiły, a filmy interaktywne utknęły w miejscu, gdyż nikt nie chciał bawić się z prymitywnymi mechanizmami. Ale najnowsze gry na PC oferują porażającą grafikę, która prowokuje do myślenia o fabule, i tygodnie - jeśli nie miesiące - świetnej zabawy. Stare gry pokrywa kurz na półkach, ponieważ wszystkie zostały skończone, zaś współczesne tytuły rosną z czasem, np. sieciowy świat Ultima czy dodatkowe pakiety do Half - Life, takie jak: Counter - Strike czy Team Fortress.
No i w końcu pozostaje nam granie w sieci. Jeszcze kilka lat temu rozrywka tego typu była równoznaczna z samotną zabawą, ale w dzisiejszych czasach większość z nas loguje się na rozmaitych serwerach i wymiata z wnętrzności z przygodnie poznanych osób. Kiedy szerokopasmowe łącza bardziej się rozpowszechnią, gry będą mogły rozrosnąć się i stać się lepsze i szybsze. Możecie być pewni, że programiści wyciągną ostatnie tchnienie z waszego sprzętu - nie możemy się doczekać...
Precz ze szkołą
Komputery istniały w szkołach od czasów Elwro Junior. Nie były to co prawda nawet namiastki dzisiejszych maszyn, a programowanie w logo ( ktoś to jeszcze pamięta ) nijak się do Unreala. Dzisiaj komputery i edukacja są ze sobą o wiele bliżej związane. Uczniowie często tworzą serwisy WWW swoich szkół, a edukacyjne programy i encyklopedie na płytach CD-ROM nadają nowe oblicze nauce. Zamiast czytać o słynnym wystąpieniu Martina Luthera Kinga: "I have a dream", w dzisiejszych czasach można zobaczyć i usłyszeć je na ekranie monitora.
Komputery wyposażone w gniazdo podłączenia z Internetem stały się bardzo ważne, ponieważ umożliwiają studentom odnalezienie bezcennych informacji naukowych, czytanie klasyków literatury, współpracę ( nawet międzynarodową ) przy projektach czy też zwykłą wymianę na temat Limp Bizkit na IRC-u. Wkrótce rodzice będą mieli wgląd w oceny swoich pociech w dziennikach online, a już dzisiaj wiele przedsiębiorstw wykorzystuje sieciowe kursy, aby szkolić swoich pracowników w tak różnych dziedzinach, jak, BHP, technikach telefonicznych czy trosce o klienta. Nauka korespondencyjna nabrała całkiem realnego kształtu i coraz więcej uniwersytetów na całym świecie oferuje tego typu kształcenie. Komputerowa nauka nie jest wyłącznie domeną Internetu: Instrukcje obsługi niemal całkowicie zniknęły z pakietów oprogramowania przez rozbudowane pakiety pomocy i samouczki. Kompanie przemysłu kosmicznego wykorzystują wirtualną rzeczywistość w celu przekazywania inżynierom schematów technicznych i istotnych informacji potrzebnych im do pracy.
Dobrze jest mówić
Ze wszystkich sposobów, na jakie pecety odmieniły nasz świat, komunikowanie się znajduje się bodaj na najważniejszym miejscu. Obecnie nie można sobie wyobrazić życia bez e-maila czy Internetu w ogóle, a przecież WWW nawet nie istniała od początku lat dziewięćdziesiątych. Przedtem komunikacja z osobami znajdującymi się na drugim końcu świata była procesem powolnym, żmudnym, skomplikowanym i nader kosztownym. Dzisiaj wystarczy kliknąć Wyślij. No i nie zapomnijmy, że jest jeszcze oprogramowanie ułatwiające pogawędki, które pozwala na prowadzenie bezpośrednich rozmów z ludźmi mieszkającymi na Alasce, i to bez konieczności windowania rachunku na orbitę. Jeszcze bardziej rozwija się komunikacja głosowa, wraz z wideo konferencjami, które pozwalają słyszeć i jednocześnie widzieć osobę, z którą rozmawiamy.
Wideokonferencje mogą przywoływać obrazy wideotelefonów z projekcji ery kosmicznej, ale technologia ta już dzisiaj jest z powodzeniem wykorzystywana przez wiele firm. Zamiast wysyłać ludzi na inny kontynent tylko po to, żeby przeprowadzić godzinne spotkanie, można załatwić całą kwestię za sprawą komputera. Można ją także wykorzystać do przesyłania " na żywo " obrazu z miejsc wypadków do odpowiednich władz i tym podobnych. Możliwości komputera z łączem Internetowym są niewiarygodnie duże. Wydaje się, że każdy okruch informacji, jaki kiedykolwiek powstał, jest dziś dostępny w Sieci, a sklepy internetowe pozwalają na zakup wszystkiego online: od pary skarpetek do lotniskowca. E-mail i grupy dyskusyjne poświęcone dziwacznym zagadnieniom sprawiają, że świat staje się mniejszy, zaś grupy aktywistów wykorzystują Internet do organizacji protestów, dzielenia się informacjami czy wywierania nacisku na rządy i korporacje. Nawet nasz rząd przejął się nieco internautami i publikuje wiele informacji i danych statystycznych w obrębie swoich serwisów. I nieważne, jak obskurnie wyglądają. Internet wywołuje ponadto wielkie narodowe skandale - afera z Moniką Lewinsky po raz pierwszy ukazała się w sieciowym serwisie poświęconym polityce.
Zmiany, które zostały wprowadzone przez Internet do naszego życia, sprawiają niesamowite wrażenie. Dzięki niemu potykają się ludzie, umawiają się za jego pośrednictwem na randki. Naukowcy wykorzystują Sieć do współpracy przy ogromnych, rozległych projektach, takich jak projekt genomu ludzkiego. A najlepsze w tym wszystkim jest to, że obsesyjni fani Star Treka mogą zanudzać się wzajemnie i to bez zawracania nam wszystkim głowy. Samodzielne projektowanie serwisów przeżywa obecnie istny boom. Ludzie tworzą swoje własne Weblogi, publikują e-ziny, zbierają tematy zaczerpnięte ze starych seriali, a także na wiele innych sposobów przekazują swoje myśli w formacie HTML.
Oczywiście, istnieje także ciemna strona takiego zjawiska. Z racji tego, że internet jest Siecią globalną, rządy nie zawsze mogą uporać się z problemami takimi jak blokowanie twardej pornografii, zapobieganie kradzieży w stylu Napstera czy unikanie płacenia podatków za zakupy zrobione za granicą. Szybkość rozwoju pozostawiła regulację wielu spraw prawnych daleko w tyle i działalność Sieci będzie w najbliższych latach należeć do głównych wyzwań dla polityków na całym świecie.
Byliśmy już światkami wielu niewiarygodnych wydarzeń w Internecie - złych i dobrych, ale stanowią one tylko czubek góry lodowej. Świat staje się coraz bardziej usieciowiony, wraz z tym, jak otaczamy się internetowymi gadżetami, czyli bezprzewodowymi cudeńkami i szerokopasmowymi łączami. Za kilka lat komputery PC albo coś, co ewentualnie zajmie ich miejsce, będą stanowić centrum zainteresowania domu.
Dokąd zmierzasz
Łatwo jest uznać peceta za rzecz normalną i wcale nienadzwyczajną, ale w tym szarym i niepozornym pudełku kryje się bardzo złożone urządzenie. W jednej obudowie masz studio nagraniowe, kino, salon gier, każde narzędzie, którego można użyć do wielu zadań czy też mnóstwo programów mogących zamienić cię w artystę, wydawcę czasopisma, reżysera czy rekina finansowego. Możesz wykorzystać komputer w celu poznania nowych osób, uczestniczenia w masowych zabawach online, przyprawiania przemysłu nagraniowego o ból głowy lub też wywnętrzać się na temat Buffy - Łowcy Wampirów na jakiejś liście dyskusyjnej.
Spróbuj wyobrazić sobie świat, w którym nie wynaleziono peceta. Zamiast filmów na DVD musiałbyś zabawiać się lalkami, które rzucają cień na ścianę. Jedynym źródłem pompującym adrenalinę wprost do mózgu była by partyjka chińczyka, a sposobem na przelanie swoich wizji artystycznych na papier pieczątki z ziemniaków. A co najgorsze profesjonalna drukowana rozrywka ograniczyłaby się do najnowszego wydania magazynu " Na kiju ". Kto chciałby żyć w takim świecie? Ja na pewno nie i jestem pewny, że wy również.
Na szczęście, takie wizje mogą być tylko wątkiem koszmarów. Komputer PC zmienił sposób, w jaki pracujemy, komunikujemy się ze sobą oraz tworzymy naszą rozrywkę - a do tego ma zaledwie dwadzieścia lat. Nikt nie jest w stanie przewidzieć, co przyniosą następne dwie dekady, ale jednego możecie być pewni: nic jeszcze nie widzieliście.
W skrócie
1981
Pierwszy IBM PC trafia na półki, ale upgreade'y są kosztowne: 256 KB Ram-u "wali" w kieszeń na sumę $1000. 5 MB twardziel to wydatek $3000, a za 300MB trzeba zapłacić $18 000.
1982
Firma Columbia Data Systems przedstawia pierwszy klon PC-ta, wkrótce to samo robi Compaq. Pierwsze emotikony (uśmieszki) pojawiają się w listach e-mail.
1983
Hawlett-Packard rozpoczyna sprzedaż pierwszych drukarek laserowych, a arkusz Lotus 1-2-3 szturmem wdziera się do biur. IBM wprowadza wersje pecetów o nazwach AT oraz XT.
1984
Pojawia się Apple Macintosh, który wprowadza system DNS; akademicka się JANET zaczyna działać; wymyślono napęd CD-ROM. Intel wprowadza ultraszybki procesor 286
1985
Pierwsze domeny najwyższego poziomu (.com, .pl i tak dalej) użyto w sieci Internet. Pierwsza wersja Windows pojawia się w sklepach, wzbudzając ogólnoświatowe niezadowolenie.
1986
Compaq ogłasza powstanie pierwszego 386. Protokół NNTP dla grup dyskusyjnych rozpoczyna funkcjonowanie, od razu wywołując gorące dyskusje na temat netetykiety.
1987
Windows 2 i OS/2 zostają wprowadzone na rynek, a kulawa karta graficzna peceta zmienia się w system VGA. SimCity niszczy towarzyskie życie dziwaków na całym świecie.
1988
Świat dowiaduje się o pluskwie roku 2000 - wszyscy zginiemy! A wirus-robak infekuje 10 procent całego Internetu. Świat jest za bardzo zajęty graniem w Tetrisa, aby się czymkolwiek przejmować.
1989
Internet Relay Chat (IRC) zaczyna działać, Intel tworzy procesor 486, a na rynku pojawia się pierwsza wersja Word dla Windows. Powstaje format graficzny GIF, a firma Carnation tworzy Coffeemate.
1990
Windows 3.0 szturmuje, ludzie zaczynają się ekscytować. Zostaje napisany pierwszy kod w HTML-u. Powstaje nowa obelga: lamer.
1991
Windows 3.1 na rynku; AMD wprowadza swój klon układu 386. Grafiki JPEG i filmy QuickTime zyskują popularność, a IBM, Apple i Motorola rozpoczynają pracę nad PowerPC.
1992
Powstaje World Wide Web, Linux mówi: "Cześć" i pierwsze modemy 14,4 Kbps trafiają do sklepów. Ludzie zaczynają dyskutować o serwerach POP, przeglądarkach WWW i firewallach.
1993
Doom!Doom!Doom! Gry już nigdy nie będą takie same. Powstają pierwsze przeglądarki Mosaic i Lynx; wymyślono MPEG-a, a noteboki otrzymują napęd CD-ROM. Apple wprowadza swój organizer Newton.
1994
Windows 95 i Netskape Navigator trafiają po strzechy; portal Yahoo! rozpoczyna działalność; powstają dyskietki Zip. Pojawiają się pierwsze żarty o Pentium, tyle że wcale nie są śmieszne.
1995
Audio zostaje użyte po raz pierwszy, a Microsoft ujawnia swoją tajną broń: Microsoft Bob dla Windows. Toy Story - film w całości wykonany w technice komputerowej zdobywa szturmem kina. Intel sprzedaje układy Pentium Pro, Real-
1996
Mac OS 8 chybocze na horyzoncie; pojawia się DVD i pierwsze modemy 56K oraz karty SVGA. Trwają prace nad Windows NT4. Technologia Push pokrzykuje: "Nigdy więcej surfowania!". I nikt nie słucha.
1997
AMD wprowadza układ K6, Intel odpowiada na to technologią MMX i procesorem Pentium II. Apple wprowadza Mac OS 8, a Microsoft zaczyna przebąkiwać o Windows 98.
1998
Apple prezentuje iMaca, udowadniając, że komputer nie musi być beżowy. Producenci pecetów potrzebują dwóch lat na zrozumienie aluzji. Windows 98 rozpoczyna życie.
1999
Histeria Y2K szaleje - wszyscy zginiemy! Pentium III w sprzedaży, AMD kontratakuje swoim Athlonem, a IBM wprowadza największy twardy dysk na świecie 73,4 GB.
2000
Pluskwa milenijna nikogo nie zabiła, chociaż rząd USA próbuje uśmiercić Microsoft. Apple prezentuje grzejnik o nazwie G4, AMD wprowadza Durona, Intel zaczyna straszyć P4, a my wszyscy gramy w Deus Ex.
2001
Ceny Pentium 4 spadają, a nowe układy są już w drodze. Windows Whistler o Office 10 pojawią się jeszcze w tym roku, gra Black & White jest prawi skończona, a szybki Internet ma szanse się rozprzestrzenić. Yippee!
TRANZYTORY
W laboratoriach Bella w USA, kierowany przez Bardeena i Brattaina, w 1947 roku wykonał pierwszy tranzystor z małego kawałka metalopodobnego pierwiastka chemicznego: germanu.
Urządzenie doświadczalne wyglądało prymitywnie, ale mogło wzmacniać moc sygnału 100-krotnie. Dzisiaj wszystkie komputery i urządzenia elektroniczne pracują na tej samej zasadzie.
Tranzystor ostrzowy - 1948 - J. Bardeen, W.H. Brattain (USA),
Tranzystor warstwowy - 1949 - W. Shockley (USA),
Rok 2001. Holenderscy naukowcy z Uniwersytetu w Delft stworzyli tranzystor składający się z jednej cząsteczki! Rozmiar tego cudu miniaturyzacji wynosi zaledwie jeden nanometr (10 -9 m), a do zmiany swojego stanu (włączony / wyłączony) potrzebuje on tylko jednego elektronu!
Naukowcy przewidują, że ich wynalazek pozwoli na konstruowanie układów miliony razy szybszych od obecnie stosowanych, przy czym ich wielkość pozwoli na dalszą miniaturyzację elektronicznych urządzeń
Tranzystory bipolarne
Rodzaje tranzystorów
Tranzystory (z ang. Transfer Resistor) należą do grupy elementów półprzewodnikowych o regulowanym (sterowanym) przepływie nośników ładunku elektrycznego. Biorąc pod uwagę zasadę działania, tranzystory dzielimy na: bipolarne i unipolarne (polowe).
Tranzystory bipolarne są najczęściej wykonywane z krzemu, rzadziej z germanu. Ze względu na kolejność ułożenia warstw półprzewodnika rozróżniamy:
- tranzystory NPN,
- tranzystory PNP.
Mogą one być z:
- jednorodną bazą (dyfuzyjny),
- niejednorodną bazą (dryftowy).
Tranzystory polowe, zwane również w skrócie FET (ang. Field Effect Transistor), dzielimy na:
- złączowe (JFET -- ang. Junction FET);
- z izolowaną bramką (1GFET lub MOSFET -- ang. Insulated Gate FET lub Metal Oxide Semiconductor FET).
względu na rodzaj charakterystyki prądowo-napięciowej rozróżniamy tranzystory z:
-kanałem wzbogacanym (normalnie wyłączone, tzn. kanał ma przeciwny typ przewodnictwa niż podłoże i przy braku zewnętrznej polaryzacji nie występuje w tranzystorze);
- kanałem zubożanym (normalnie załączone, tzn. w kanale jest mniej nośników niż w podłożu, przy braku zewnętrznej polaryzacji tranzystora kanał istnieje).
Tranzystory, tak jak i diody, mogą być: małej, średniej i dużej mocy. Maksymalna moc wydzielana w tranzystorze zależy od powierzchni zajmowanej przez tranzystor i od sposobu odprowadzania ciepła. Ze względu na zakres przetwarzanych częstotliwości, tranzystory dzielimy na małej i wielkiej częstotliwości. O zaliczeniu ich do którejś z tych grup decydują właściwości zastosowanego półprzewodnika, wymiary konstrukcyjne jego poszczególnych elementów oraz rodzaj i czas trwania procesów technologicznych, jakim były poddawane.
Struktura tranzystora
Tranzystor bipolarny składa się z trzech obszarów półprzewodnika o przeciwnym typie przewodnictwa, co powoduje powstanie dwóch złączy: PN i NP. Każdy z trzech obszarów półprzewodnika ma swoją nazwę: baza, emiter, kolektor, a złącza nazywa się -- złączem emiterowym (złącze emiter-baza) i kolektorowym (złącze baza-kolektor).
Tranzystory polowe dzielimy na:
- złączowe (ze złączem PN)
- z izolowaną bramką
Modele struktury tranzystora:
odpowiadające im symbole graficzne
schemat graficzny
Tranzystory polowe (unipolarne -- FET)
Tranzystory polowe w skrócie zwane FET (ang. Field Effect Transistor), są również nazywane unipolarnymi. Tranzystory te mają kanał typu N lub P, który może być wzbogacany lub zubożany.
W tranzystorach unipolarnych elektrody mają następujące nazwy i oznaczenia:
S -- źródło (ang. Source),
G -- bramka (ang. Gate),
D -- dren (ang. Drain).
W tranzystorach polowych w przepływie prądu biorą udział nośniki większościowe jednego rodzaju -- dziury lub elektrony (stąd nazwa unipolarne). W tranzystorach z kanałem typu N nośnikami prądu są elektrony, a z kanałem typu P -- dziury. Wartość prądu przepływającego przez tranzystor polowy, zależy od wartości napięcia przyłożonego między źródłem a drenem oraz od wartości rezystancji kanału.
Tranzystory polowe dzielimy na:
- złączowe (ze złączem PN)
- z izolowaną bramką
KOMPUTER
Dążenie człowieka do ułatwienia sobie obliczeń doprowadziło do zbudowania liczydeł.
Były one używane już w starożytnej Grecji. Pierwszą maszynę liczącą, wykonującą mechaniczne dodawania i odejmowania, zbudował w 1642 roku francuski matematyk, fizyk i filozof . Do wykonywania wszystkich 4 działań była zdolna maszyna skonstruowana w 1671 roku przez innego znakomitego matematyka i filozofa, Niemca Gottfrieda W. Leibnitza.
Pierwszą mechaniczną maszynę liczącą, którą można było produkować fabrycznie, opracował w 1879 roku szwedzki konstruktor Wilhelm Odhner. Jego też uważa się za twórcę stosowanych do dzisiaj arytmometrów.
W XIX wieku rozpoczęto również prace nad zbudowaniem maszyn liczących, zdolnych do podawania wyników bardziej złożonych obliczeń. Pierwszą tego typu zbudował ok.1822 roku angielski matematyk Charles Babbage. Był to układ mechanicznych sumatorów do interpretowania tablic matematycznych metodą rachunku różniczkowego.
Pierwszym właściwym komputerem, to znaczy maszyną zdolną do wykonywania różnych operacji matematycznych według zadanego jej programu i podającej wyniki w formie zapisu cyfrowego, było zbudowane w latach 1937-1944 przez Amerykanina Howarda H. Aikena urządzenie MARK-1. Ten komputer miał przekaźniki elektromagnetyczne i zajmował przestrzeń kilku pokoi. W znacznym stopniu wykorzystano wiedzę i doświadczenie Johna von Neumanna przy jego budowie.
Dalszy szybki rozwój zawdzięczają komputery zastosowaniu w nich przekaźników elektronicznych, najpierw lampowych, potem półprzewodnikowych. Pierwszy elektroniczny komputer ENIAC był zbudowany w 1946 roku. Zaprojektowali go Amerykanie, John W. Mauchly i J.P. Eckert. Później było już coraz łatwiej. W 1950 roku powstał pierwszy komputer wykorzystywany do celów cywilnych. Następnym krokiem było pojawienie się komputerów osobistych. Współczesne komputery mają , która z roku na rok wzrasta wraz z rozwojem miniaturyzacji.
Pierwszy Polski komputer XYZ został zbudowany w 1958 roku w Zakładzie Aparatów Matematycznych Polskiej Akademii Nauk.
Mikroprocesor to niepodzielny układ scalony, do którego wprowadzamy dane wejściowe i program ich przetwarzania, a otrzymujemy dane wyjściowe.
Jednak procesor nie mógł by funkcjonować samodzielnie. Komputer musi przyjąć dane wejściowe i program, dokonać na nich operacji przetwarzania, a następnie wyprowadzić dane wyjściowe. Oprócz samego procesora potrzebne więc będą układy do wprowadzenia i wyprowadzenia danych oraz układ do przechowania danych. Z tym elementem możemy zbudować już mikro komputer.
Procesor przetwarza wprowadzone dane zgodnie z założonym programem.
Pamięć przechowuje program, dane, wyniki końcowe i cząstkowe. Wydzielono w niej dwa elementy: pamięć stałą (ROM - read only memory) i pamięć operacyjną (RAM - random acces memory).
Z pamięci ROM procesor może wyłącznie czytać, nie może natomiast wprowadzać do niej żadnych danych. Przechowuje się w niej, między innymi, wszystkie niezbędne dla procesora informacje.
Pamięć RAM przeznaczona jest do odczytu i zapisu. Wszystkie programy i dane są najpierw umieszczane w RAM, a następnie przekazywane do procesora.
Układy wejścia/wyjścia (I/O - input/output) służą do komunikacji mikrokomputera z takimi urządzeniami jak: dysk twardy, klawiatura, mysz, monitor, drukarka, modem, skaner.
Procesor, pamięć i układy wejścia/wyjścia połączone są za pomocą magistrali (szyny). W czasie każdej operacji wykonywanej przez mikrokomputer, po szynach przesyłane są dane (takie jak wyniki działań), informacje dotyczące tego, jaka operacja ma zostać wykonana na tych danych (na przykład zapis danych) oraz adresy miejsca w pamięci lub układy wejścia/wyjścia, w którym ma być wykonana określona operacja.
Jak komputer rozumie informacje
Komputer może przetwarzać grafikę, tekst, muzyką, wykonywać skomplikowane działania matematyczne. Oczywiście, procesor nie przyjmuje informacji w postaci liter, nut czy obrazków, a tylko przetwarza liczby, za pomocą których informacje te zostały zapisane.
Wydaje się to oczywiste w przypadku działań matematycznych. No dobrze, a jeśli uruchomiliśmy edytor tekstu, albo program graficzny, to gdzie tu liczby? Istnieją sposoby, by nadać danej informacji postać cyfrową. Jeśli, na przykład, każdej literze alfabetu przyporządkujemy inną liczbę, to dowolny wyraz będziemy mogli przedstawić jako ciąg liczb. A taki zbiór danych może już być przetwarzany przez procesor.
Analogicznie ma się rzecz z obrazkiem. Każdemu kolorowi przyporządkujemy jakiś numer. Jeśli teraz podzielimy ilustracją na drobne punkty, to każdemu z nich możemy przypisać liczby: współrzędne X i Y oraz numer koloru. W ten sposób otrzymamy postać cyfrową naszego obrazka. A więc taką jaką procesor może przetwarzać.
Posługując się systemem dziesiętnym, dowolną liczbę możemy przedstawić za pomocą dziesięciu cyfr, od zera do dziewięciu. Na przykład.
1274 to 1*103+2*102+7*101+4*100
Przywykliśmy do tego sposobu zapisu, choć przecież istniały cywilizacje, które używały innych systemów liczbowych, na przykład dwunastkowego. Skonstruowanie procesora przetwarzającego liczby w systemie dziesiętnym było jednak bardzo trudne.
Większość prostych urządzeń elektronicznych i mechanicznych (na przykład włącznik światła) przyjmuje zazwyczaj jeden z dwóch stanów: włączony/wyłączony. Tak też działają elementarne komórki komputera zapamiętujące informację. Rejestrują dwa stany - istnienie informacji/brak informacji. Dlatego wszystkie liczby przechowywane w pamięci, przetwarzane przez procesor i przesyłane po magistralach, są reprezentowane w postaci dwójkowej (1 - informacja; 0 - brak informacji), na przykład:
10011 to 1*24+0*23+0*22+1*21+1*20 - czyli 19
Komputer posługuje się więc systemem dwójkowym. Każdy sygnał (przyjmujący wartość 0 lub 1) nazywa się bitem. Ciąg składający się z ośmiu bitów to bajt. Proste komputery mogły przesyłać i przetwarzać jednobajtowe (ośmioznakowe) ciągi bitów, czyli słowa maszynowe. Nowe procesory przetwarzają słowa dłuższe (16-,32- czy 64-bitowe), dzięki czemu pracują szybciej.
Bajt stanowi podstawową jednostkę miary wielkości zakodowanej informacji. W praktyce używa się jego wielokrotności: 210 (1024) bajtów to kilobajt (KB), 220 (1 048 576 bajtów) to megabajt (MB), 230 (1 073 741 824 bajtów) to gigabajt (GB), czyli 1024 KB to 1 MB, a 1024 MB to 1 GB.
UKŁAD SCALONY
Będące dziś w użyciu oprzewodowane obwody scalone lub tranzystory krzemowe zostały wykonane po raz pierwszy przez Boba Noyce'a w zakładach Fairchild Semiconductors w 1961 roku, chociaż teorię opracował Jack Kirby z firmy Texas Instruments (1959 rok). Noyce wpadł na pomysł, że byłoby możliwe wydrukowanie całego obwodu elektronicznego na powierzchni karty, przy zastosowaniu procesu fotograficznego.
Wielkoseryjna produkcja układów scalonych rozpoczęła się w 1962 roku po odkryciu maskujących właściwości warstwy dwutlenku krzemu i wprowadzeniu technologii planarnej obowiązującej do dziś. Układ scalony, to mikrominiaturowy układ elektroniczny odznaczający się tym, że wszystkie, lub znaczna część jego elementów są wykonane nierozłącznie w jednym cyklu technologicznym, wewnątrz lub na powierzchni wspólnego podłoża którym jest obecnie najczęściej płytka monokrystalicznego krzemu o wymiarach milimetrowych. Układ scalony który można nabyć w handlu, zawarty jest w obudowie chroniącej go przed wpływem czynników zewnętrznych (zanieczyszczenia, wilgoć, czynniki mechaniczne).
Układy scalone można różnie klasyfikować.
Pod względem cech technologiczno-konstrukcyjnych dzieli się je na półprzewodnikowe i warstwowe.
Półprzewodnikowym układem scalonym jest układ, w którym zarówno elementy czynne (dioda, tranzystor) jak i bierne (rezystor, kondensator, cewka), są wytworzone w monokrystalicznej płytce półprzewodnikowej za pomocą odpowiednich procesów fizyko-chemicznych z zachowaniem ciągłości mechanicznej kryształu - elementy są nierozłączne, jeden przechodzi w drugi i nie można układu naprawić.
Warstwowym układem scalonym nazywa się taki układ, który zawiera elementy bierne w postaci warstw różnych materiałów naniesionych na bierne podłoże izolacyjne - najczęściej na podłoże ceramiczne. Elementy czynne (półprzewodnikowe), są do układu warstwowego dolutowywane zewnętrznie.
W zależności od stopnia rozbudowania, układy scalone dzieli się na:
1. SSI (small scale integration) - zawierający do 10 komórek elementarnych
2. MSI (medium ...) - układ zawiera do 100 komórek (wymiary się nie zmieniają),
3. LSI (large ...) od 100 do 1000 komórek w jednej strukturze,
4. VLSI (very large ...) ponad 10 000 do 1 mln komórek (powiązania z mikroprocesorem).
W zależności od zastosowań, układy scalone dzieli się na analogowe i cyfrowe.
Obecnie koncern Hitachi opracował układy scalone, których grubość nie przekracza 0,4 milimetra, co pozawala wtopić je na przykład w banknoty. Nowy chip można zginać jak kartkę papieru i zapisywać w nim informacje o pojemności 128 bitów. Dodatkowo doskonale komunikuje się ze specjalnymi czytnikami, co umożliwi np. błyskawiczne sprawdzenie autentyczności banknotu.
INTERNET
Internet jest siecią komputerową, która łączy ze sobą mniejsze sieci komputerowe na całym świecie. Szybki rozwój Internetu w ostatnich latach przełom w technologii komunikacji
Na początku lat dziewięćdziesiątych Internet zaczął się gwałtownie rozwijać. Było to spowodowane tym , że coraz więcej firm i osób prywatnych zaczęło zdawać sobie sprawę z udogodnień , jakie niesie ogólnoświatowa komunikacja elektroniczna .
Prace nad Internetem zaczęły się w roku 1969 , jako projekt o nazwie ARPanet, finansowy przez amerykański departament obrony . Celem przedsięwzięcia było stworzenie sieci komputerowej , która mogłaby przetrwać atak nuklearny - w przypadku zniszczenia części sieci łączność między pozostałymi jej elementami miała zostać zachowana .Taka filozofia przyświecała konstruktorom Internetu od samego początku . Dane przesyłane są w pakietach przy użyciu standardowych technik komunikacyjnych , znanych jako protokoły (TCP/IP) - każde dwa komputery tych protokołów mogą być połączone . Jeżeli tylko pakiety są właściwi zaadresowane , można je przesłać z dowolnego komputera podłączonego do Internetu do dowolnego komputera również do niego podłączonego- za pośrednictwem dowolnej trasy komunikacyjnej .Oznacza to , że jeśli z części sieci są usterki , informacja ominie ten fragment i inną drogą trafi do celu . Ze względu na tę niezwykłą drożność Internetu , niektórzy sądzą , że niemożliwe jest nałożenie na tę sieć jakiejkolwiek cenzury , co wzbudza niepokój niektórych polityków . Pomoc naukowa
Jeden z najważniejszych fragmentów Internetu powstał w połowie lat osiemdziesiątych , kiedy to amerykańska fundacja National Science Fundation (NSF) umożliwiła naukowcom dzielenie się wynikami swoich badań za pośrednictwem pięciu nowoczesnych centrów komputerowych . W tym czasie użytkownikami Internetu były jedynie instytucje akademickie i rządowe .Jednak na początku lat dziewięćdziesiątych połączenie stał się rzeczą na którą mogły sobie pozwolić nie tylko małe firmy , ale osoby prywatne . Rozbudowa infrastruktury informatycznej była popierana przez rząd Stanów Zjednoczonych , co zaowocowało gwałtownie wzrastającą liczbą użytkowników sieci . W roku 1995 szacowana liczba ludzi korzystających z połączeń Internetu wyniosła ponad 35 milionów ze 135 krajów .
Internet jest największą siecią komputerową na , świecie ale nie jedyną . Istnieje wiele różnych systemów , które wykorzystują łącza telefoniczne do przesyłania informacji . Za , pośrednictwem modemu (modulatora) dane komputerowe zostają przetransportowane na dźwięki które są następnie transmitowane i dekodowane po drugiej stronie . Systemy te oferują podobne usługi jak Internet , w tym pocztę elektroniczną , kartoteki , elektroniczne konferencje , dostęp do baz danych oraz możliwości dotarcia do artykułu z różnych periodyków.
Niektóre z tych systemów świadczą swoje usługi za darmo (Bulletin Board Systems ) , inne jak na przykład najstarszy system udostępniania danych , CompuServe - udostępniają swoje linie za opłatą , zależną od czasu i rodzaju połączenia .Jako że Internet został wybudowany za publiczne pieniądze , a jago pierwszymi użytkownikami byli pracownicy naukowi , informacje uzyskane za pośrednictwem tej sieci tradycyjnie były darmowe . Jednak sytuacja ta zmieniła się - Internet w coraz większym stopniu finansowany jest przez prywatne instytucje , wprowadzane są także coraz lepsze systemy zabezpieczające. Niektóre działy Internetu są w tej chwili finansowane z pieniędzy pochodzących z usług reklamowych świadczonych na łączach sieci .
Oprócz poczty elektronicznej (e-mail) , Usetu i World-Wide Web, najbardziej popularnymi usługami świadczonymi przez Internet Telenet i FTP .Każda z tych usług spełnia odmienne funkcje i wymaga od użytkownika różnego oprogramowania . Większe systemy komercyjne dostarczają swoim klientom kompletne oprogramowanie i inne niezbędne do użytkowania sieci rzeczy . Dzięki telenetowi można wejść do odległego komputera tak , jak byśmy siedzieli przed terminarzem bezpośrednio do niego podłączonym . FTP (File Transfer Protocol) umożliwia swoim użytkownikom wymianę plików pomiędzy oddalonymi od siebie komputerami .
Zastosowania
Ogólnie rzecz ujmując , to co zwykle określa się mianem Internetu jest jedynie jednym jego wielu zastosowań , takich na przykład jak World waid Web , Usent czy e-mail. Są one swoistymi aplikacjami , którymi można posługiwać się przy pomocy Internetu , tak jak edytor tekstu , jest aplikacją , którą posługujemy się przy pomocy naszego komputera . Większość z tych aplikacji dostępna jest również w systemach komputerowych innych niż Internet , tak jak standardowy edytor tekstu dostępny jest w wersjach na PCI i Apple Mac . Odnosi się to szczególnie do poczty elektronicznej - większość systemów e-mail może być podłączona do Internetu .
Jednak dostęp do niektórych z nich bywa zablokowany - czy to w celach bezpieczeństwa , czy też dla zachowania prywatności - podobnie jak w przypadku wewnętrznych sieci telefonicznych spotykanych w przedsiębiorstwach.
Usenet
Usenet służy do wymiany wiadomości z innymi ludźmi na całym świecie . W przeciwieństwie do poczty elektronicznej która ma raczej charakter prywatny , przez Usenet przesyłane są informacje otwarte , dostępne dla wszystkich użytkowników . Stanowi on coś w rodzaju tablicy ogłoszeń , z tą jednak różnicą , że informacje tam umieszczane dotyczyć mogą wszelkich tematów , a odpowiedz na nie ma także formę powszechnie dostępnej wiadomości . Niemal wszystkie sieci dostarczają możliwości tego typu publicznej konwersacji , która określana jest powszechnie mianem elektronicznej konwersacji .
Informacje zamieszczane w Usecie sż podzielone tematycznie , istnieje ponad dziesięć tysięcy tak zwanych „grup dyskusyjnych” .Każda z nich ma swój adres , skonstruowany w ten sposób , by komputer mógł ją łatwo odnaleźć . Na przykład w adresie „alt.fan.letterman” pierwszy człon określa się mianem hierarchii . Wyróżnia się osiem podstawowych hierarchii , wśród nich alt, bio, biz, comp, rec, i sci ,jednak istnieje wiele innych , o charakterze lokalnym lub charakterystycznych dla danej usługi - na przykład uk.politics (dotycząca jedynie Wielkiej Brytanii) lub demon.announce (grupa założona przez świadczącą specyficzne usługi Demon Internet).
Kolejne człony adresu nie są w tak ścisły sposób zdeterminowane . Na przykład grupa dyskusyjna „alt.fan.letterman” odsyła do dyskusji na temat amerykańskiego programu telewizyjnego prowadzonego przez Davida Lettermana . Istnieje wiele grup , których adres zaczyna się od alt.fan, stąd grupe dyskusyjną Lettermana znaleźć można gdzieś pomiędzy @ @ a alt.fan.jay-leno.
Wielu ludzi sądzi , że Usnet i Internet to ,to samo , co ni jest prawdą . Internet jest jedynie jedną z dróg , którym może być rozprzestrzeniany Usnet . Innym sposobem może być bezpośredni transferr między dwoma komputerami za pośrednictwem łączy telefonicznych.
Grupy dyskusyjne
Każdy kto jest podłączony do Internetu , może odbierać i wysyłać informacje za pośrednictwem Usnetu. Jednak zdarza się , że do danej grupy trafiają niewłaściwe informacje lub powtarzane są wiadomości , na które regularny odbiorca wielokrotnie się już natkną . Żeby tego uniknąć , najlepiej czytać informacje zawarte w pliku nazywającym się „FAQ” od „Frequently Asked Questions” („Najczęściej Zadawane Pytania”) . Zawiera on informacje na temat problemów poruszanych w obrębie interesującej nas grupy .
Istnieją trzy sposoby pozyskiwania tych plików . Pierwszym z nich jest cierpliwe czytanie danej grupy :FAQ wysyłane są regularnie , stąd pod koniec drugiego tygodnia czytania , taki plik powinien wyskoczyć na twoim ekranie jako jedna z wielu informacji . Jeżeli brakuje ci cierpliwości i posiadasz połączenia umożliwiające korzystanie z FTP , szybko przekonasz się , że pliki FAQ większości grup znajdują się pod adresem rtfm.mit.edu . Istnieje też wiele miejsc w systemie World Wide Web , gdzie mogą być one dostępne.
W latach 1994 i 1995 najszybciej rozwijającym się obszarem Internetu był World Wide Web . wynalazł go pracujący dla szwajcarskiego laboratorium CERN Tim Berners-Lee , który następnie przeniósł się do Massachusetts Institute Technology (MIT) . jego pomysł opierał się na idei ,która od jakiegoś już czasu krążył wśród zainteresowanych , znanej jako „hipertekst” . Każdy użytkownik środowiska Windows zetkną się z mini wersją hipertekstu : kolorowe wyrazy - hasła , po kliknięciu których przenosimy się do kolejnego tematu z pliku pomocy Windowsa World Waid Web działa w podobny sposób : kliknij podświetlone hasło a zostaniesz przeniesiony do strony lub dokumentu , zawierającego dalsze informacje na interesujący nas temat. Różnica polega na tym , że dany dokument może znajdować się na dysku jakiegoś zupełnie innego komputera . Pojedyncze klikniecie może przenieść cię do oddalonego komputera w Australi (lub jakiegokolwiek miejsca na ziemi) , który akurat zawiera interesujące nas informacje.
Nowe możliwości
Na początku World Wide Web był w całości tekstowy . Zamiast operowania myszą , naciskało się strzałki i szukało odpowiedniego hasła . Niektóre usługi dalej świadczone są w takiej formie , przy użyciu interfejsu opartego w całości na tekście .
Jednak na początku lat 90. zespół pracujący na uniwersytecie Illinois w Champagne-Urbana pod przewodnictwem studenta Marca Andersena opracował oprogramowanie , które znacznie ułatwiło korzystanie z World Wide Web . Program ten , nazwany Mosaic , był dla World Wide Web tym , czym dla DOS-u Windows przełożył tekst na grafikę , co sprawiło , że system stał się łatwiejszy w użytku . Mosaic został wypuszczony na rynek , a wkrótce po nim pojawiły się produkty konkurencyjne , takie jak Cello , Win Web i Netscape . nad Netscape pracowała większość zespołu , który wymyślił Mosaic , z Andersenem włącznie . Graficzny sposób przeglądu całkowicie zmienił możliwości pracy World Wide Web . Użytkowanie systemu nie wymagało już specjalistycznego szkolenia i World Wide Web mógł przenosić wszystkie rodzaje danych , od tekstu do grafiki do przekazów audio-wideo - z transmisjami telewizyjnymi i radiowymi włącznie . jako że techniczna jakość tych ostatnich może się równać z tą dostępną w konwencjonalny sposób (przez radio lub telewizor), rzeczywiste znaczenie World Wide Web w tej sferze polega na tym , że - przykładowo - słuchacz w Europie lub w Azji może odebrać audycję z niewielkiej studenckiej stacji radiowej nadającej w Californi , która w inny sposób by nie była dla niego osiągalna . W ten sam sposób World Wide Web sprawia , że niewielkie firmy mogą reklamować się na całej kuli ziemskiej .
Szyfrowanie
Technologią , która spowodowałaby , że Internet stałby się w pełni użytecznym środkiem do przekazywania poufnych informacji , jest szyfrowanie danych. Istnieją techniki skutecznego szyfrowania , jednak powszechnych strat przed tym , że mogły by zostać one wykorzystane przez hackerów , powoduje , że ni wchodzą one do powszechnego użytku .
Rozwój internetu
Przez ostatnich pięć lat Internet rozwijał się w ogromnym tempie . Z narzędzia używanego w kręgach uniwersyteckich oraz handlowych stał się popularnym , ogólno dostępnym medium rywalizującym z gazetami oraz innymi środkami masowego przekazu .
Większość z użytkowników korzysta z dostępu do Internetu przez linie telefoniczne . Łącza się oni najpierw z Dostawcą Usług Internetowych , którego komputery - serwery są na stałe podłączone do sieci za pomocą łączy światowych . Większość połączeń z Siećą realizuje się za pomocą tradycyjnej analogowej sieci telefonicznej . W komputerach użytkowników instalowane są modemy które przekształcają cyfrowe sygnały zrozumiałe dla komputera na analogowe , wykorzystywane podczas transmisji telefonicznej i na odwrót .Konieczność konwersji cyfrowo analogowej wyznacza górną granice prędkości połączenia modemowego . Szybszym rozwiązaniem jest użycie łącza cyfrowego w którym nie ma konieczności przekształcenia cyfrowego sygnału z komputera na sygnał analogowy . Takie łącza , zwane są ISDN , pozwalające na znacznie szybszą komunikację , lecz i w tym wypadku istnieją ograniczenia prędkości transmisji - maksymalna wynosi 128 kilobajtów na sekundę .
Do niedawna jedyną możliwością pokonania tego ograniczenia było zainstalowanie kosztownego stałego połączenia światłowodowego z Internetem : alb przez telewizję kablową , albo bezpośrednio światłowodem Internetowego huba - światłowodowej centrali . Obie metody były jednak kosztowne .
Przyspieszenie internetu
Nowe możliwości pojawiły się po wprowadzeniu linii asymetrycznej ADSL . W systemie tym sygnał cyfrowy kodowany jest tak ,by można go było przesyłać zwykłą linią telefoniczną . Linia ADSL jest w stanie przesłać w ciągu sekundy nawet 99% więcej danych cyfrowych od normalnej linii , przy czym równolegle do połączenia z siecią komputerową można prowadzić normalną rozmowę telefoniczną . Dokładne określenie prędkości transmisji zależy rzeczywiście od wielu czynników , jak na przykład jakość linii lub też odległość na jaką informacja ma być przesłana , jednak teoretycznie może sięgać ona nawet 8 megabitów w ciągu sekundy dla przesyłu informacji z Sieci do indywidualnego komputera i 1 megabita w kierunku odwrotnym (stad właśnie nazwa-system asymetryczny ) . Zaletą systemu jest możliwość korzystania z istniejących linii telefonicznych .
Internet bez komputerów
Wzrasta także zainteresowanie możliwością dostępu do sieci bez użycia komputera abonenci telewizji cyfrowych dysponują już światłowodowymi kablami umożliwiającym szybki dostęp do Internetu . Można ich równie dobrze używać zarówno do odbierania , jak i wysyłania informacji . Pojawiają się już pierwsze technologie umożliwiające korzystanie z tego okablowania . Zaawansowane urządzenia telewizji interaktywnej są w rzeczywistości pewnego rodzaju komputerami , z których usunięto wszystko , co zbędne dla łączenia się z siecią . Zostały tylko urządzenia niezbędne do wysyłania i odbierania poczty elektronicznej . Abonenci używają klawiatury aby wpisywać treść listów elektronicznych oraz , by przekazać ją na monitory . Wielu ekspertów uważa , że w niedalekiej przyszłości Internet zostanie zdominowany przez telewizję interaktywną .
Inną technologią , która niedawno pojawiła się na rynku , jest terminal e-mail ( poczty elektronicznej ) . Jest to po prostu telefon z małym ekranem oraz klawiaturą służącą do wpisywania treści przesyłki elektronicznej . Aby odebrać lub wysłać e-mail , użytkownik po prostu telefonuje pod numer serwera dostawcy . Jest to bardzo tanie rozwiązanie dla wszystkich tych , którzy korzystają tylko z usługi e-mail , nie wymagając dostępu do innych usług oferowanych w sieci .
Dziś cała telekomunikacja przechodzi rewolucję związana z rosnącą rolą telefonii komórkowej . Popularność tej formy telefonii może doprowadzić do zniknięcia linii tradycyjnych . Wielu ludzi utrzymuje analogową linie telefoniczna wyłącznie po to , by móc korzystać z faksu i Internetu . Dziś najbardziej zaawansowane technologicznie aparaty komórkowej telefonii cyfrowej oferują możliwość korzystania z usług Internetowych .
Dziś możliwe jest również „ żeglowanie „ po sieci za pomocą telefonu komórkowego , bez konieczności użycia komputera . Odbywa się to dzięki protokołowi WAP . Niestety gwałtowna ekspansja Internetu grozi zablokowaniem sieci . składa się na nią pewna liczba stałych światłowodowych połączeń pomiędzy stosunkowo nielicznymi hubami . ich przepustowość jest jednak ograniczona . wraz ze wzrostem liczby użytkowników oraz prędkości transmisji pojawia się zagrożenie przeciążeniem sieci . Przepustowość łączy oraz prędkość serwerów są wciąż powiększane .
Zawartość internetu
Kolejnym powodem wzrostu popularności Internetu jest zwiększenie się jego zawartości . z początków sieci dostępne były usługi e-mail , grupy dyskusyjne oraz przesyłanie plików . W początku lat 90 pojawiła się WWW , która umożliwiła każdemu stworzenie własnych stron internetowych zawierających tekst , obrazy , a później także dźwięki . Pojawił się system aktywnych połączeń na stronach WWW , dzięki którym jednym kliknięciem przenosimy się na inna stronę sieci .
Dziś Internet oferuje jeszcze więcej różnych możliwości . Język używany do tworzenia stron WWW - HTML - staje się coraz bardziej zaawansowany . Do użytku w sieci stworzono wyspecjalizowane języki programowania jednym z nich jest Java , który umożliwia integracje programów ze stronami WWW . program taki uruchamiany jest po otwarciu danej strony i niema konieczności pobierania go na twardy dysk użytkownika .
Mulimedia
Najważniejszym c Internetu jest różnorodność i jakość dostępnych w nim usług i informacji . Poważną role odgrywają dostępne w sieci multimedia . Wraz ze znacznym wzrostem prędkości transferu danych przez sieć możliwym stało się pobieranie z niej klipów audio i wideo w wielu formach . wcześniej użytkownik mógł jedynie skopiować plik wideo lub audio na twardy dysk , aby potem obejrzeć lub odsłuchać go za pomocą specjalnych programów . Zawartość pliku multimedialnego nie mogła być w tym systemie oglądana w rzeczywistym czasie transmisji .
Dziś programy rozszerzające standardowe możliwości popularnych przeglądarek internetowych umożliwiają łatwe „podglądanie” transmitowanego pliku multimedialnego . W tym systemie program odtwarza plik w czasie rzeczywistym . Użytkownik widzi lub słysz zawartość podczas pobierania i może w każdej chwili przerwać proces.
Jakość plików multimedialnych obecnych w sieci nie jest doskonała . normą jest niska rozdzielczość klipów wideo , pojawiających się w malutkich okienkach oraz niska jakość transmitowanego na żywo dźwięku . Mimo to liczba stacji telewizyjnych i radiowych nadających poprzez sieć rośnie . Główna zaletą transmisji Internetowych jest to , że nic praktycznie nie ogranicza zasięgu stacji . Użytkownik z Indii może bez przeszkód słuchać rozgłośni z Alaski
Wraz z rozpowszechnieniem się szybkich połączeń internetowych rośnie jakość sieciowych transmisji radiowych i telewizyjnych . Już dziś niektórzy operatorzy telewizji cyfrowej oferują filmy , bądź nawet programy telewizyjne transmitowane do użytkownika na żądanie .
Większość Internetowych serwisów transmitujących dźwięki obraz wymaga stosowania zaawansowanych technologii . To powoduje , że pozostają one pod kontrolą dużych organizacji medialnych . Użytkownicy indywidualni stosują coraz bardziej popularne urządzenie jakim jest kamera sieciowa , czyli wepcam . Jest to niewielka cyfrowa kamera , która może zapisywać obraz bezpośrednio do pamięci komputera . Użytkownicy mogą przesyłać cyfrowe pliki wideo , które zostały utworzone za pomocą kamery poprzez e-mail , bądź też udostępniać je na swych stronach WWW , odświeżając obraz co kilka sekund .
Prawa autorskie
Innym szalenie popularnym w Internecie wynalazkiem stał się MP3 format wysokiej jakości pliku muzycznego umożliwia on odtwarzanie dźwięku z jakością płyty kompaktowej , przy znacznym stopniu kompresji pliku . MP3 może być przechowywany bezpośrednio w pamięci komputera , stanowiąc idealny format dla przenośnych odtwarzaczy . Urządzenia takie nie zawierają żadnych ruchomych elementów . Coraz częściej wypierają tradycyjne walkmany i discmany .
Jednak format MP3 i sam Internet przysporzyły kłopotów przodującym firmom fonograficznym . Z chwilą , gdy oprogramowanie do MP3 stało się ogólnodostępne strony WWW zaczęły prześcigać się w oferowaniu plików muzycznych . Firmy fonograficzne toczą zaciętą walkę o wyeliminowanie witryn Internetowych oferujących nielegalnie muzykę z pominięciem praw autorskich .
Elektroniczny handel
Różnorodność oferty handlowej zawartej na stronach WWW zmienia się gwałtownie . Szczególnie intensywny jest rozwój sprzedaży prowadzonej za pośrednictwem sieci elektronicznej . W sieci wyrosły strony aukcyjne na których ludzie wystawiają na sprzedaż swoje towary . Zaroiło się w Internecie od księgarni oraz sklepów z płytami CD i DVD .
Dziś w większości transakcji elektronicznych korzysta się ze specjalnego systemu szyfrowania z kodem . Gdy klient ładuje z sieci formularz obciążenia karty kredytowej , od6trzymuje jednocześnie połówkę skomplikowanego „klucza” , która będzie przesyłana z powrotem na serwer obsługujący transakcję . Druga połowa klucza , niezbędna do odczytania informacji , pozostaje cały czas na serwerze , nie może więc być przez nikogo postronnego odebrana i użyta do rozszyfrowania wiadomości . Dostęp do niej ma jedynie właściciel strony WWW po podaniu swojego hasła.
Przyszłość internetu
Internet rozrasta się w tempie którego nikt nie przewidywał . Jest on siecią międzynarodową i dlatego nie jest przez nikogo sterowany ani kontrolowany rządy wielu państw starają się w różny sposób osiągnąć pewien stopień kontroli nad siecią w swoich własnych krajach , a główne koncerny medialne próbują zdominować rynek . Akacje kompanii Internetowych idą w górę , jednak należy pamiętać , że zaledwie kilku z tych organizacji działalność w Internecie przynosi dochód .
Wielkie koncerny medialne są zirytowane sieciową demokracją - każdy może założyć sobie stronę WWW , a nawet zarejestrować swoją własną nazwę domeny za niewielką cenę . W ten sposób każdy staje się potencjalnym dostawcą informacji , co zagraża pozycji telewizji , radia i prasy jako monopolistów medialnych nie zależnie od tego jednak zawsze będzie w sieci zapotrzebowanie na odpowiedzialnych i rzetelnych dostawców informacji . Internet co prawda daje dostęp do „największej biblioteki świata” , jednak ogromna część zawartych to informacji jest nierzetelna , bądź nieprawdziwa . W ciągu ostatnich dziesięciu lat Internet przeszedł olbrzymie zmiany i powoli wychodzi z okresu burzliwego dzieciństwa . Nikt nie potrafi powiedzieć , jak będzie wyglądał na progu dorosłości .
BIBLIOGRAFIA
marmilka
2