Historia
Historia
Internetu
Internetu
1961-1965
HISTORIA SIECI – pierwsze kroki
1961
L. Kleinrock z Massachusetts Institute of Technology przedstawia zarys
teorii przełączania pakietów. Instytucja RAND Corporation (Research and
Development) dostała zlecenie od Sił Powietrznych USA, zbudowania sieci
komunikacji głosowej, która przetrwa atak atomowy.
1962
J.C.R. Licklider z Massachusets Institute for Technology (MIT) opracowuje
koncepcję oplecenia ziemi globalną siecią telekomunikacyjną. Ponadto Paul
Baran z RAND Corporation utworzył model sieci oparty na wymianie danych w
małych pakietach. Powstały więc kolejne koncepcje będąca zalążkiem
Internetu.
1965
T. Merril i L.G. Roberts za pomocą linii telefonicznej łączą między
Massachusetts a Kalifornią dwa komputery. Początkowo istniały tylko sieci
izolowane. Każda z nich wykorzystywała swój własny sposób komunikacji,
stworzony przez firmę administracyjną. Łączenie poszczególnych sieci było
bardzo drogie albo wręcz niemożliwe.
Arpanet (ang. Advanced Research Projects Agency Network)
-
pierwsza sieć rozległa oparta na rozproszonej architekturze i protokole TCP/IP.
Jest bezpośrednim przodkiem Internetu.
Arpanet powstał jako inicjatywa Departamentu Obrony USA (Pentagonu). W
1957 roku po szoku wywołanym wysłaniem Sputnika w kosmos przez ZSRR
powołano rządową agencję której zadaniem było obserwowanie i wspieranie
inicjatyw powstających na uczelniach w USA, które miały szczególne
znaczenie dla obronności USA.
Historia Internetu sięga już ponad ćwierć wieku wstecz. Zaczęła się ona 1
września 1969 roku, kiedy to na Uniwersytecie Kalifornijskim w Los Angeles
(UCLA), a wkrótce potem w trzech następnych uniwersytetach, zainstalowano
w ramach eksperymentu finansowanego przez ARPA (Advanced Research
Project Agency - agencję rządu Amerykańskiego zajmującą się
koordynowaniem badań naukowych na potrzeby wojska) pierwsze węzły sieci
ARPANET - bezpośredniego przodka dzisiejszego Inernetu. Eksperyment miał
zbadać możliwość zbudowania sieci komputerowej bez wyróżnionego punktu
centralnego, która mogła by funkcjonować nawet pomimo uszkodzenia
pewnej jej części. Wszystkie istniejące do tej pory sieci zarządzane były przez
jeden główny komputer, którego awaria pozbawiła by możliwości pracy całą
sieć. Sieć taka nie nadawała się do dowodzenia armią podczas wojny, gdyż
taki główny węzeł sieci byłby oczywiście pierwszym celem ataku przeciwnika.
W ciągu następnych dwóch lat sieć była rozbudowywana, a w pracach nad
nią brała udział coraz większa liczba naukowców z różnych ośrodków. Jednym
z pierwszych zastosowań sieci było zdalne wykonywanie obliczeń na
komputerach dużej mocy znajdujących się w innych ośrodkach.
1969-1990
HISTORIA SIECI – powstanie Internetu
Lata 60-te
- Izolowane systemy komputerowe.
1969-1990
- ARPANET - Advanced Research Project Agency Network.
1971-
zdefiniowanie protokołu przesyłania plików - FTP, oraz logowania – TELNET, e-mail
1973
- zainicjowanie pierwszego europejskiego połączenia poprzez sieć pomiędzy Anglią a
Norwegią.
1978
- UUCP - UNIX to UNIX copy.
1979-
USENET - Users Network - to ogólnoświatowy system grup dyskusyjnych
1980
- ARPANET obejmuje 400 serwerów na uniwersytetach, w rządzie i armii Stanów
Zjednoczonych.
1981
- CSNET - Computer Science Network.
1981-
BITNET - Because It's Time Network - łącząca uczelnie w USA
1982-
Powstają emotikony ;-)
1983
- FidoNet, ARPAnet zostaje rozdzielony na dwie części: militarną - MILNET oraz cywilną -
ARPAnet,
1983
-
Internet (TCP/IP)
1984
- NSFNET - National Science Foundation Network. Na potrzeby Internetu
opracowano hierarchiczny system unikatowych nazw domenowych i protokołów
DNS (Domain Name System).
1987
- OSI - Open System Interconnection.
1988
- GOSIP - Government OSI Profile. Powstaje Internet Relay Chat (IRC).
1989
- liczba komputerów w Internecie przekracza 100 000, do Internetu dołącza
Kanada, Finlandia , Niemcy.
1990
- ARPANET kończy swoją działalność.
1990-2007
1991:
• naukowcy z CERNu opracowali standard
WWW (World Wide Web).
• Zniesiono zakaz używania Internetu do celów komercyjnych.
• wiosna – w Polsce powstaje
NASK (Naukowa i Akademicka Sieć
Komputerowa)
.
• 17 sierpnia 1991 r. Rafał Pietrak, fizyk z Uniwersytetu Warszawskiego, nawiązał
łączność w oparciu o protokół IP z Janem Sorensenem z Uniwersytetu w
Kopenhadze.
• 20 grudnia - Polska zostaje przyłączona do Internetu.
• kwiecień - powstaje protokół Gopher
1992:
• TP S.A. uruchamia sieć pakietową POLPAK
1993:
• 11 czerwca 1993 decyzja Komitetu Badań Naukowych o budowie Miejskich Sieci
Komputerowych w jedenastu ośrodkach akademickich: w Warszawie, Krakowie,
Poznaniu, Wrocławiu, Toruniu, Gdańsku, Katowicach/Gliwicach, Łodzi, Szczecinie,
Rzeszowie i Lublinie oraz przyznaniu funduszy na budowę sieci szkieletowej NASK.
• powstaje pierwsza przeglądarka WWW umożliwiająca oglądanie graficznych stron
- Mosaic.
• powstaje Tucows - jedna z większych składnic oprogramowania shareware,
freeware i demo.
• powstaje pierwszy polski MUD - Studnia Dusz.
1994:
• kwiecień - powstaje portal Yahoo!.
• w czerwcu powstaje pierwszy w Polsce komercyjny BBS - Maloka BBS.
• Premiera przeglądarki Netscape Navigator.
1995:
• Powstaje pierwszy polski portal: Wirtualna Polska,
• 23 sierpnia 1995 prezentacja nowej przeglądarki internetowej na bazie kodu
Mosaica - Internet Explorer.
• Rusza wyszukiwarka stron AltaVista.
1996:
• TP S.A. uruchamia usługę anonimowego dostępu,
• firma Polbox od listopada oferuje pierwsze w Polsce darmowe konta e-mail, a
następnie WWW.
• Powstaje portal Onet.pl.
• Powstaje wyszukiwarka HotBot.
1997:
• oficjalna premiera PHP.
1998:
• Powstaje Google.
1999:
• Powstają pierwsze polskie komunikatory: Gadu-Gadu i Tlen.pl.
• Powstaje portal Interia.pl oraz portal O2.
2001:
• Powstaje pierwszy międzynarodowy program głosowy Skype
• 15 stycznia - powstaje Wikipedia, 26 września - polska
Wikipedia
Użytkownicy internetu IV.2006
szacunki: 0.6 – 1 miliardów osób
USŁUGI INTERNETU
USŁUGI INTERNETU
Dostawca usługi Internetu (ISP – po angielsku Internet Service Provider),
czasem skrótowo tylko provider (wym. prowajder), często oprócz łącza do Internetu
oferuje następujące usługi dodane:
• hosting stron internetowych WWW lub serwerów internetowych
FTP;
• pocztę elektroniczną (e-mail) na swoim portalu lub serwerze.
Jeżeli ISP je oferuje, to ich koszt może być wliczony w koszt usługi podstawowej.
Samo korzystanie z Internetu nie wymaga wykupienia żadnych innych
dodatkowych usług od ISP. Obojętnie czy w domu czy w kafejce internetowej można
bez dodatkowych opłat:
• przeglądać strony internetowe – WWW;
• transferować pliki – FTP, P2P;
• korzystać z darmowych skrzynek poczty elektronicznej;
• dyskutować w grupach dyskusyjnych Usenetu.
Oprócz wyżej wymienionych, Internet umożliwia dostęp do szerokiej gamy usług
takich jak m.in.:
• dyskusje internetowe (grupy dyskusyjne, e-mailowe listy
dyskusyjnych, fora dyskusyjne)
• rozmowy tekstowe w czasie rzeczywistym (IRC)
• komunikatory internetowe (Gadu-Gadu, ICQ, Jabber, Skype, Tlen)
• telefonia internetowa (VoIP - ang. Voice over Internet Protocol)
• radio internetowe
• telewizja internetowa
• telekonferencje
• faksowanie
• sklepy internetowe
• aukcje internetowe
• giełda internetowa
• bankowość elektroniczna
• gry online
Internet
(z angielskiego, dosł. międzysieć) - globalna ogólnoświatowa sieć
komputerowa
logicznie połączona w jednorodną sieć adresową opartą na protokole IP (Internet
Protocol),
do komunikacji używająca TCP/IP (ang. Transmission Control Protocol/Internet Protocol),
dostarcza lub wykorzystuje usługi wyższego poziomu oparte na telekomunikacji i
związanej z nią infrastrukturze.
Połączenie komputera z Internetem
Przyłączenie komputera do Internetu możliwe jest z wykorzystaniem wielu technologii,
które pozwalają urządzeniu komunikować się z pobliską bramką posiadającą stałe
połączenie z innymi systemami w Internecie. Typowe rozwiązania wykorzystują linie
telefoniczne (modemy, cyfrowe linie ISDN, modemy ADSL), inne technologie
przewodowe (transmisja przez sieci energetyczne, telewizję kablową) oraz
bezprzewodowe (sieci komórkowe (GPRS,3G,LTE), łącza satelitarne,
Wi-Fi).
Aby pracować w Internecie, komputer musi być w stanie komunikować się z innymi
systemami przez protokoły z rodziny TCP/IP, a także posiadać oprogramowanie
klienckie pozwalające na praktyczne wykorzystanie usług oferowanych przez innych
użytkowników.
ICANN
The
Internet Corporation for Assigned Names and Numbers
(ICANN) jest powołaną
przez rząd USA organizacją koordynującą przyznawanie unikalnych adresów IP i
wysokopoziomowych nazw DNS w Internecie, na Ujednolicony system nazywania,
pozwalający na prawidłowe kierowanie ruchem w skali globalnej, jest konieczny do
poprawnego działania Internetu. Siedziba główna ICANN znajduje się w Marina del Rey
w Kalifornii, a organizacja jest nadzorowana przez międzynarodowy zarząd, którego
członkowie wybierani są przez techniczne, biznesowe, akademickie i niekomercyjne
kręgi użytkowników sieci. Ponieważ Internet jest siecią wielu dobrowolnie połączonych
węzłów, nie ma jako takiego centrum zarządzania, a rola ICANN jest po prostu umowną
konwencją, która nie musi być przestrzegana przez użytkowników.
Internet a WWW - terminologia
Internet i World Wide Web nie są synonimami. Internet to sieć komputerowa – wiele
połączonych ze sobą komputerów. WWW jest jednym z dóbr dostępnych przy pomocy
Internetu. Innymi bardzo popularnymi są poczta elektroniczna i wymiana plików w
sieciach P2P. WWW jest zbiorem dokumentów i innych zasobów połączonych
hiperłączami i URL-ami.
Ścisłe podanie różnicy między tymi pojęciami odwołuje się do protokołów
internetowych. Protokoły komunikacyjne są podzielone na warstwy. Każda warstwa
zapewnia funkcjonalność wymaganą przez wyższą warstwę. Internet to sieci
komputerowe komunikujących się za pomocą IP (ang. Internet Protocol) i TCP (ang.
Transmission Control Protocol). Inne protokoły, takie jak HTTP (ang. Hypertext Transfer
Protocol), który jest wykorzystywany przez WWW, działają na wierzchu warstwy
komunikacyjnej (IP) i kontroli transmisji (TCP). HTTP jest protokołem warstwy aplikacji.
Wyszukiwanie i ściąganie danych z internetu
1. Systemy indeksujące
2. P2P Peer-to-peer
3. FTP
4. Torrent
BitTorrent – protokół wymiany i dystrybucji plików przez Internet,
którego celem jest odciążenie łączy serwera udostępniającego pliki.
Jego największą zaletą w porównaniu do protokołu HTTP jest podział
pasma pomiędzy osoby, które w tym samym czasie pobierają dany
plik. Oznacza to, że użytkownik w czasie pobierania wysyła fragmenty
pliku innym użytkownikom.
Web 2.0
Web 2.0 - określenie serwisów internetowych, powstałych po
2001 roku, w których działaniu podstawową rolę odgrywa treść
generowana przez użytkowników danego serwisu. Ten termin
został spopularyzowany dzięki firmie O'Reilly Media, która w
2004 roku zorganizowała szereg konferencji poświęconych
temu nowemu trendowi internetowemu.
Wbrew numeracji wersji oprogramowania, Web 2.0 nie jest
nową World Wide Web ani Internetem, ale ulepszeniem, innym
sposobem na wykorzystanie jego dotychczasowych zasobów.
Uważa się, że serwisy Web 2.0 zmieniają paradygmat interakcji
między właścicielami serwisu i jego użytkownikami, oddając
tworzenie większości treści w ręce użytkowników. Strony Web
2.0 mają tendencję do korzystania z nowych technik takich jak
XHTML, SOAP, AJAX, XUL, RDF, dużo częstsze wykorzystywanie
kanałów RSS i Atom oraz bardzo szerokie rozpropagowanie
Webservices.
Cechy Web 2.0
Techniczne
• wykorzystanie mechanizmu wiki, blogów
• udostępnianie interfejsów XML, które umożliwiają innym stronom i programom korzystanie z
danych Web 2.0 (przede wszystkim przez RSS i Atom)
• używanie nowych technologii, jak np. AJAX czy Ruby on Rails
Społeczne
• generowanie treści przez użytkowników,
• użycie folksonomii
• tworzenie się wokół serwisów rozbudowanych społeczności
• wykorzystanie kolektywnej inteligencji
• wykorzystanie otwartych licencji, jak Creative Commons czy GNU GFDL
Wygląd
• pastelowe barwy
• gradienty
• zaokrąglenia
• duże czcionki
• efekt "mokrej podłogi"
Sceptycy uważają, że wiele rozwiązań, które uznaje się za elementy tego systemu,
pojawiło się znacznie wcześniej niż zaczęto myśleć o rewolucji (mechanizm Wiki
powstał w 1996 roku, kanały RSS w 2000 itd.).
Zgodnie z tym tokiem myślenia, Web 2.0 nie prezentuje nowego spojrzenia na sieć, a
jedynie kontynuuje rozpoczęte w przeszłości procesy. Paul Boutin, konfrontując kilka
autonomicznych definicji próbuje udowodnić, że w istocie nowe określenie dla starej
sieci było potrzebne „internetowym przedsiębiorcom, którzy spóźnili się na boom
związany z rozwojem Web 1.0”. Russel Shaw podtrzymuje to stanowisko, wprost
nazywając Web 2.0 "chwytem marketingowym ”.
Przedstawiciele Web 2.0 .PL
Wiadomości24.pl
– polski społecznościowy serwis informacyjny założony
14 czerwca 2006. Pisanie informacji opiera się w głównej mierze na
dziennikarstwie obywatelskim osób zarejestrowanych oraz informacjach z
agencji prasowej Polskapresse.
– serwis społecznościowy, w ramach którego zarejestrowani
użytkownicy mogą tworzyć sieci i grupy, dzielić się wiadomościami i
zdjęciami oraz korzystać z aplikacji, będących własnością Facebook
•Flickr
- serwis internetowy stworzony do gromadzenia i udostępniania zdjęć
cyfrowych online
•Jamendo
- muzyczny serwis internetowy publikujący muzykę na licencjach
Creative Commons/Free Art Licence.
•MySpace
(ang. "moja przestrzeń") – nr. 6 w TOP 500
Serwis ten umożliwia przede wszystkim komunikację pomiędzy
internautami i
nawiązywanie drogą elektroniczną znajomości.
Adres IP
(Internet Protocol address) to unikatowy numer
przyporządkowany urządzeniom sieci komputerowych, protokół IP.
Adresy IP są wykorzystywane w Internecie oraz sieciach lokalnych.
Adres IP zapisywany jest w postaci czterech oktetów w postaci
dziesiętnej oddzielonych od siebie kropkami, np. adres IP:
150.254.66.81
Adresowanie IPv4 (nowsza wersja to IPv6)
W IPv4, czyli obecnym standardzie adresowania internetu,
adres IP to liczba 32-bitowa (od 0 do 4 294 967 295).
Liczby w adresie IP nazywają się oktetami, ponieważ w postaci
binarnej mają one osiem bitów. Te osiem bitów daje w sumie 256
kombinacji, więc każdy oktet przedstawia liczbę od 0 do 255.
Najpopularniejszy sposób zapisu adresów IP, to przedstawianie ich
jako 4 dziesiętnych liczb od 0 do 255 oddzielonych kropkami. W
rzeczywistości komputery traktują adres Wikipedii jako liczbę 32-
bitową:
3482223596
Taki zapis jest mało czytelny, wobec czego stosuje się podział adresu
IP na cztery oktety. Adres Wikipedii zapisujemy binarnie:
11001111 10001110 10000011 11101100
po czym każdą grupę 8-bitów przekształcamy do postaci dziesiętnej:
207 142 131 236
Przykładowe adresy trzech komputerów w danej podsieci:
Komputer 1: 192.168.1.1
Komputer 2: 192.168.1.2
Komputer 3: 192.168.1.3
Ogólne zasady adresowania IP
• Podczas nadawania adresów IP należy przestrzegać następujących
reguł:
• Wszystkie stacje w jednym fizycznym segmencie sieci powinny
mieć ten sam identyfikator sieci
• Część adresu IP określająca pojedynczą stację musi być odmienna
dla każdej stacji w segmencie sieci
• Identyfikatorem sieci nie może być 127 - wartość ta jest
zarezerwowana do celów diagnostycznych
• Identyfikator stacji nie może składać się z samych jedynek - jest to
adres rozgłaszania dla sieci lokalnej
• Identyfikator sieci nie może składać się z samych zer - jest to
oznaczenie sieci lokalnej
• Identyfikator stacji również nie może składać się z samych zer - jest
to oznaczenie sieci wskazanej przez pozostałą część adresu i nie
może zostać przypisane pojedynczej stacji
Adresy w sieci lokalnej
Trzy następujące pule adresów IP zostały zarezerwowane do użytku w
sieciach lokalnych, oddzielonych serwerami proxy lub zaporami
firewall:
od 10.0.0.0 do 10.255.255.255
od 172.16.0.0 do 172.31.255.255
od 192.168.0.0 do 192.168.255.255
Celem ich utworzenia było zapewnienie sieciom nie przyłączonym do
Internetu puli adresów niewchodzących w konflikt z żadnymi
adresami będącymi w użyciu w Internecie.
Sieciom korzystającym z tych pul nie zagraża, w razie późniejszego
przyłączenia do Internetu, przypadkowy konflikt z inną siecią obecną
w Internecie.
Klasy adresów IP
A
0
Sieć
.
Stacja.
Stacja.
Stacja
B
10
Sieć
.
Sieć
.
Stacja.
Stacja
C
110
Sieć
.
Sieć
.
Sieć
.
Stacja
D
1110 Adres multiemisji
E
11110 Zarezerwowany do użycia w przyszłość
Znaczenie masek podsieci
Maska podsieci (ang. SNM - subnet mask)
jest wykorzystywana do
określania, ile bitów adresu IP wskazuje sieć, a ile stację w tej sieci.
Dla adresów klas A, B i C wykorzystywane są maski domyślne:
klasa A - 255.0.0.0
klasa B - 255.255.0.0
klasa C - 255.255.255.0
Maska podsieci klasy A wskazuje, że sieciowa część adresu to
pierwsze 8 bitów. Pozostałe 24 bity określają stację w tej sieci. Jeżeli
adresem stacji jest 11.25.65.32, to wykorzystanie maski domyślnej
określa adres sieci jako 11.0.0.0. Częścią adresu wskazującą stację
jest 25.65.32.
DNS
- nazwy zamiast liczb
Wszystkie komputery w sieci TCP/IP identyfikowane są za pomocą
jednoznacznego adresu IP. Jego postać liczbowa o długości 32 bitów
jest skomplikowana i łatwo o błąd podczas wpisywania. Z tego
powodu już w roku 1984 utworzono system nazw domen
Domain
Name System (DNS).
To właśnie dzięki niemu można połączyć się z
hostem, używając przynależnej nazwy domeny.
DNS to rozproszona baza danych, której głównymi komponentami są
serwery nazw. Zarządzają informacjami o odwzorowaniu, co polega
na wzajemnym przyporządkowaniu adresów IP i nazw komputerów.
Gdy jeszcze nie było Internetu obecnej postaci, a ARPAnet łączył
kilkaset komputerów, wszystkie informacje o hostach mieściły się w
jednym pliku. Plik ten musiał się znajdować w każdym komputerze
podłączonym do sieci ARPAnet; zawierał wszystkie informacje
związane z odwzorowaniem. System nazw domen usunął podstawowe
wady tablic nazw opartych na plikach:
• DNS daje się łatwo rozszerzać,
• ma postać rozproszonej bazy danych i gwarantuje, że informacje o
nowych komputerach i zmianach w razie potrzeby dotrą do
wszystkich użytkowników Internetu.
URL
(ang. Uniform Resource Locator) oznacza
ujednolicony format adresowania zasobów (informacji,
danych, usług), stosowany w Internecie i w sieciach
lokalnych.
protokół://adres_serwera:port/ścieżka_dostępu
http://www.wikipedia.com/wiki/URL/plik.txt
http
– protokół dostępu do zasobu
www.wikipedia.com – adres serwera
wiki/URL
– ścieżka dostępu do zasobu
ftp://ftp.onet.pl/PUB
http://150.254.66.81/
http://150.254.190.62:9080/
nazwa_użytkownika@adres_serwera
mariusz_342@gmail.com
Każda przesyłana Internetem informacja przechodzi (w postaci
opisanych powyżej pakietów) przez wiele komputerów, zwykle kilka
lub kilkanaście. Trasa nie jest ustalana ,,na sztywno'', lecz zestawiana
dynamicznie przez kolejne komputery w zależności od dostępnych w
danej chwili połączeń. Poniższe listy to wynik działania komendy
traceroute, podającej listę komputerów pośredniczących w połączeniu
o określonym celu. Startujemy z komputera w Warszawie; lista
opisuje drogę do USA (docelowy komputer to cnn.com):
1 bbone-R-wman (193.0.80.10) 3.692 ms 1.688 ms 1.529 ms
2 ext-gate-ciuw.net.uw.edu.pl (193.0.112.12) 2.579 ms 1.891 ms 2.378 ms
3 148.81.253.5 (148.81.253.5) 15.175 ms 12.006 ms 13.968 ms
4 poznan-gw-a50014.poznan.pol34.pl (150.254.213.113) 16.077 ms 15.898 ms 15.518 ms
5 poznan.ny.dante.net (212.1.200.61) 280.920 ms 290.803 ms 299.990 ms
6 500.POS2-2.GW9.NYC4.ALTER.NET (157.130.19.21) 288.728 ms * *
7 110.ATM2-0.XR2.NYC4.ALTER.NET (152.63.21.206) 310.588 ms 308.174 ms *
8 188.ATM3-0.TR2.NYC1.ALTER.NET (146.188.179.38) 280.698 ms * 285.223 ms
9 104.ATM7-0.TR2.ATL1.ALTER.NET (146.188.136.61) 325.033 ms 295.604 ms 292.410 ms
10 198.at-2-0-0.XR2.ATL5.ALTER.NET (152.63.80.233) 295.714 ms 330.891 ms 307.345 ms
11 194.ATM11-0-0.GW1.ATL3.ALTER.NET (146.188.233.61) 300.661 ms 305.095 ms *
12 cnn-gw.customer.ALTER.NET (157.130.68.182) 322.275 ms !X 300.921 ms !X *
PROTOKOŁY
Warstwa aplikacji
ADSP (AppleTalk) • APPC • AFP (AppleTalk) • DAP • DLC • DNS
53
• ed2k •
FTAM • FTP
20,21
• Gopher • HTTP
80
• HTTPS
443
• IMAP
143
• IRC
194,529
• Named
Pipes • NCP
524
• NetBIOS
137,138,139
• NWLink • NBT • NNTP
119
• NTP
123
• PAP •
POP3
110
• RPC • RTSP • SNMP
161,162
• SMTP
25
• SMB • SSL/TLS • SSH
22
• TDI •
Telnet
23
• X.400 • X.500 • XDR • ZIP (AppleTalk)
(Cyfry w indeksie oznaczają numery portu)
Warstwa transportowa
ATP (AppleTalk) • NBP (AppleTalk) • NetBEUI • RTP • RTMP (AppleTalk) • SPX
• TCP • UDP • SCTP
Warstwa sieciowa
IP • ICMP • IPsec • NAT • IPX • NWLink • NetBEUI • DDP (AppleTalk)
Warstwa dostępu do sieci
ARP • 10BASE-T • 802.11 WiFi • ADSL • Ethernet • EtherTalk • Fibre Channel
• ISDN • LocalTalk (AppleTalk) • NDIS • ODI • PPP • RS-232 •
SLIP • Token Ring • TokenTalk (AppleTalk) • V.90
Telnet
to standard protokołu komunikacyjnego używanego w
sieciach komputerowych do obsługi odległego terminala w
architekturze klient-serwer.
Telnet jest usługą (programem) pozwalającą na zdalne połączenie się
komputera (terminala) z oddalonym od niego komputerem
(serwerem) przy użyciu sieci, wykorzystując do tego celu protokół
TCP-IP oraz standardowo przypisany port 23. Umożliwia on zatem
ustanowienie użytkownikowi zdalnej sesji na serwerze tak jak gdyby
siedział tuż przed nim.
Protokół obsługuje tylko terminale alfanumeryczne, co oznacza, że nie
obsługuje myszy ani innych urządzeń wskazujących. Nie obsługuje
także graficznych interfejsów użytkownika. Wszystkie polecenia
muszą być wprowadzane w trybie znakowym w wierszu poleceń.
Polecenia wydawane za pomocą naszego komputera przysłane są
poprzez sieć serwera, na którym zainstalowane jest oprogramowanie
serwera telnetu. W odpowiedzi serwer odsyła nam komunikaty, które
następnie wyświetlane są na naszym ekranie.
SSH (ang. secure shell)
to standard protokołów komunikacyjnych
używanych w sieciach komputerowych TCP-IP, w architekturze klient-serwer.
W ścisłym znaczeniu SSH to tylko następca protokołu telnet, służącego do
terminalowego łączenia się ze zdalnym komputerem. SSH różni się od telnetu
tym, że transfer wszelkich danych jest zaszyfrowany, oraz możliwe jest
rozpoznawanie użytkownika na wiele różnych sposobów. W szerszym
znaczeniu SSH to wspólna nazwa dla całej rodziny protokołów, nie tylko
terminalowych, lecz także służących do przesyłania plików (SCP, SFTP),
zdalnej kontroli zasobów, tunelowania i wielu innych zastosowań. Wspólną
cechą wszystkich tych protokołów jest identyczna z ssh technika szyfrowania
danych i rozpoznawania użytkownika. Obecnie protokoły z rodziny SSH
praktycznie wyparły wszystkie inne "bezpieczne" protokoły takie jak np:
Rlogin i RSH
Znane implementacje SSH to zamknięty ssh.com, oparty na licencji Open
Source OpenSSH oraz wersja protokołu stosowana w programie PuTTY.
VNC (ang. Virtual Network Computing) - system przekazywania obrazu z
wirtualnego, bądź fizycznego środowiska graficznego.
Prosty pakiet serwer+klient jest dostępny pod najpopularniejsze systemy
operacyjne z trybem graficznym, jak: Linux, Windows, BSD, MacOS, OS/2,
Solaris, AmigaOS, SCO i wiele innych. Klienty VNC są dostępne nawet dla
urządzeń typu PDA i niektórych telefonów komórkowych.
FTP (ang. File Transfer Protocol)
- protokół typu klient-
serwer, który umożliwia przesyłanie plików z i na serwer poprzez sieć
TCP/IP.
Serwer FTP, zależnie od konfiguracji, może pozwalać na dostęp do
jego zawartości bez podawania hasła. Zamiast niego powinno się
podawać adres e-mail (wg netykiety). Często jednak nie jest to
przestrzegane własnie ze względu na anonimowy charakter usługi.
Większość serwerów FTP loguje jednak każde połączenie i IP klienta.
SFTP (ang. SSH File Transfer Protocol)
– protokół pozbawiony
wad, które posiada zwykły FTP. Przesyłając plik dzięki protokołowi FTP
uzyskujemy dobre przepływności, ale nie zyskujemy bezpieczeństwa,
nasze hasła nie są szyfrowane.
Secure copy (ang. bezpieczne kopiowanie)
lub SCP oznacza
bezpieczny transfer plików pomiędzy lokalnym a zdalnym lub między
zdalnymi komputerami, używając protokołu Secure Shell (SSH). Skrót
SCP odnosi się do dwóch powiązanych ze sobą rzeczy: protokół SCP
oraz polecenie scp.
Programy pod windows: WinScp, TotalCommander, Wiersz poleceń -
FTP
HTTP http://www....
HTTP (ang. Hypertext Transfer Protocol
- protokół przesyłania
dokumentów hypertekstowych) to protokół sieci WWW (ang. World Wide
Web). Obecną definicję HTTP stanowi RFC 2616. Za pomocą protokołu HTTP
przesyła się żądania udostępnienia dokumentów WWW i informacje o
kliknięciu odnośnika oraz informacje z formularzy. Zadaniem stron WWW jest
publikowanie informacji - natomiast protokół HTTP właśnie to umożliwia.
Protokół HTTP jest tak użyteczny, ponieważ udostępnia znormalizowany
sposób komunikowania się komputerów ze sobą. Określa on formę żądań
klienta dotyczących danych oraz formę odpowiedzi serwera na te żądania.
Jest zaliczany do protokołów bezstanowych (ang. stateless) z racji tego, że nie
zachowuje żadnych informacji o poprzednich transakcjach z klientem (po
zakończeniu transakcji wszystko "przepada"). Pozwala to znacznie zmniejszyć
obciążenie serwera, jednak jest kłopotliwe w sytuacji, gdy np. trzeba
zapamiętać konkretny stan dla użytkownika, który wcześniej łączył się już z
serwerem. Najczęstszym rozwiązaniem tego problemu jest wprowadzenie
mechanizmu cookies. Inne podejścia to m.in. sesje po stronie serwera, ukryte
parametry (gdy aktualna strona zawiera formularz) oraz parametry
umieszczone w URL-u.
HTTP standardowo korzysta z portu nr 80 (TCP).
HTTPS (ang. HyperText Transfer Protocol Secure)
to
szyfrowana wersja protokołu HTTP. Zamiast używać w komunikacji
klient-serwer niezaszyfrowanego tekstu, szyfruje go za pomocą
technologii SSL. Zapobiega to przechwytywaniu i zmienianiu
przesyłanych danych.
HTTPS działa domyślnie na porcie nr 443 w protokole TCP.
Wywołania tego protokołu zaczynają się od https:, a zwykłego
połączenia HTTP od http:. Protokół HTTP jest warstwę wyżej (na
transporcie SSL), najpierw następuje więc wymiana kluczy SSL, a
dopiero później żądanie HTTP. Powoduje to, że jeden adres IP może
serwować tylko jedną domenę lub też tylko subdomeny danej
domeny (zależnie od certyfikatu).
TLS (ang. Transport Layer Security)
– przyjęte jako standard w
Internecie rozwinięcie protokołu SSL (ang. Secure Socket Layer), w
swojej pierwotnej wersji zaprojektowanego przez firmę Netscape
Communications Corporation. TLS ma na celu zapewnienie poufności
i integralności transmisji danych oraz zapewnienie uwierzytelnienia,
opiera się na szyfrach asymetrycznych oraz certyfikatach standardu
X.509.
Zaletą protokołu jest fakt, że działa on na warstwie TCP, więc można
go łatwo zastosować do zabezpieczenia protokołów warstwy
aplikacyjnej (np.: telnet, HTTP, gopher, POP3, IMAP, NNTP).
HTML
(ang. Hyper Text Markup Language
, pl. hipertekstowy język
znaczników), to język składający się ze znaczników (ang. tags) oraz reguł ich
poprawnego stosowania (gramatyki, syntaktyki), stosowany do pisania stron
WWW.
Wraz z rozwojem sieci WWW, a zwłaszcza jej upowszechnianiem, pojawiła się
potrzeba dołączania do tekstów tabel, grafiki i plików multimedialnych, w
wyniku czego zaczęły powstawać kolejne wersje HTML-u. Wersje te były
rozwijane przez firmy produkujące przeglądarki stron WWW, bez wzajemnych
konsultacji, co doprowadziło do częściowej niekompatybilności wersji HTML-u
zaimplementowanych w przeglądarkach różnych producentów.
Próbą odpowiedzi na tę sytuację było stworzenie W3C czyli World Wide Web
Consortium, organizacji która zajmuje się ustanawianiem wspólnych
standardów HTML-u, a także innych zagadnień związanych z pisaniem stron
WWW. Jego pierwsza wersja została opracowana przez Tima Berners-Lee w
1989 roku, który w tym czasie był konsultantem do spraw oprogramowania
pracującym dla CERN.
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01//EN"
"http://www.w3.org/TR/html4/strict.dtd">
<html lang="pl">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
<title>Tytuł strony</title>
</head>
<body>
<h1>Nagłówek pierwszego poziomu</h1>
<p>
Akapit (z ang. paragraph)<br>
i jeszcze trochę tekstu w następnym wierszu<br>
<a href="http://pl.wikipedia.org">
a to link do Wikipedii.</a>
</p>
</body>
</html>
JavaScript
JavaScript jest nowym językiem skryptowym dla
dokumentów internetowych. Skrypty napisane za pomocą
JavaScript mogą być umieszczane bezpośrednio na
stronach HTML. Język daje obszerne możliwości
wzbogacania stron w interesujące elementy. Na przykład
można zdefiniować reakcję na zainicjowane przez
czytelnika działania. Niektóre efekty jeszcze niedawno
były możliwe jedynie przy użyciu CGI, teraz również w
JavaScript.
<html>
<head> My first JavaScript! </head>
<body> <br> To jest normalny dokument HTML. <br>
<script language="LiveScript">
document.write("To jest JavaScript!")
</script>
<br> I znowu dokument HTML.
</body>
</html>
<html>
<head>
<script language="JavaScript">
function pushbutton() { alert("Hello!"); }
</script>
</head>
<body>
<form> <input type="button" name="Button1"
value="Naciśnij mnie" onclick="pushbutton()">
</form>
</body>
</html>
CGI (ang. Common Gateway Interface)
to znormalizowany interfejs, umożliwiający
komunikację pomiędzy oprogramowaniem serwera WWW a innymi programami
znajdującymi się na serwerze. Zazwyczaj program serwera WWW wysyła do
przeglądarki statyczne dokumenty HTML. Za pomocą programów CGI można
dynamicznie (na żądanie klienta) generować dokumenty HTML uzupełniając je np.
treścią pobieraną z bazy danych.
Kaskadowe arkusze stylów (ang. Cascading Style Sheets, CSS)
to język służący
do opisu sposobu renderowania stron WWW. CSS został opracowany przez organizację
W3C w 1996 r. Arkusz stylów CSS to lista dyrektyw (tzw. reguł) ustalających w jaki
sposób ma zostać renderowana przez przeglądarkę internetową zawartość wybranego
elementu (lub elementów) (X)HTML lub XML.
XML (ang. Extensible Markup Language)
to uniwersalny język formalny
przeznaczony do reprezentowania różnych danych w ustrukturalizowany sposób. XML
jest niezależny od platformy, co umożliwia łatwą wymianę dokumentów pomiędzy
różnymi systemami i znacząco przyczyniło się do popularności tego języka w dobie
Internetu.
XHTML (ang. Extensible HyperText Markup Language,
rozszerzalny
hipertekstowy język znaczników) jest to język służący do tworzenia stron WWW
ogólnego przeznaczenia. XHTML jest następcą języka HTML. Specyfikacje XHTML
przygotowuje organizacja W3C.
PHP
– refleksywny skryptowy język programowania zaprojektowany do generowania
dynamicznych stron internetowych. PHP najczęściej interpretuje skrypty po stronie
serwera WWW, ale może być również używany z poziomu wiersza poleceń oraz w
aplikacjach pracujących w trybie graficznym za pomocą biblioteki GTK+.
World Wide Web Consortium
, w skrócie
W3C
, to organizacja, która
zajmuje się ustanawianiem standardów pisania i przesyłu stron WWW. Została
założona 1 października 1994 roku przez Tima Berners-Lee, twórcę WWW
oraz autora pierwszej przeglądarki internetowej i serwera WWW.
Najważniejsze zagadnienia, którymi zajmowała się lub zajmuje W3C
• HTML/XHTML/XForms - podstawowy język znaczników, stosowany do pisania stron
WWW,
• CSS - kaskadowe arkusze stylów,
• DOM - Document Object Model - ustanowienie jednolitego systemu, w jaki sposób
przeglądarki zarządzają wyświetlaniem i indeksowaniem elementów stron WWW,
• XML - język znaczników, na podstawie którego tworzone są aplikacje XML,
• HTTP - protokół przesyłania stron WWW,
• SVG - Scalable Vector Graphics - ogólny format grafiki wektorowej, która ma zastąpić
technologię Flash,
• SMIL/TimeText - Synchronized Multimedia Integration Language - język, przy pomocy
którego (wewnątrz XML) będzie można swobodnie manipulować plikami
multimedialnymi i tekstem,
• XSL/XSLT/XPath/XPointer - style, transformacje i inne techniki z tym związane,
• WAI - dostępność stron WWW,
• i wiele, wiele innych.
Wszystko zaczęło się w roku 1971 w sposób, który trudno byłoby nazwać
spektakularnym. Technik w BBN, Ray Tomlinson, przesłał e-mail między
dwoma komputerami, które były połączone w sieci ARPAnet. Poszukując
rzadko używanego znaku dla wyróżnienia poczty elektronicznej odkrył @ i
w ten sposób ustanowił symbol nowej epoki. Kolejnym krokiem milowym w
historii poczty elektronicznej było opracowane w roku 1981 przez Erica
Allmana oprogramowanie Sendmail. Umożliwiło ono po raz pierwszy
wysyłanie za pomocą programu pocztowego wiadomości jednocześnie do
wielu sieci. Dzisiejszy sukces e-maila był nie do przewidzenia w roku 1971 i
wynalazek Thomlinsona zasłużył sobie tylko na kilka wzmianek w prasie.
Dziś nie sposób wyobrazić sobie życia bez poczty elektronicznej.Poczta
elektroniczna opiera się na trzech protokołach - SMTP do wysyłania oraz
POP i IMAP do odbioru.
IMAP (Internet Message Access Protocol)
to internetowy protokół
pocztowy zaprojektowany jako następca POP3.
W przeciwieństwie do POP3, który umożliwia jedynie pobieranie i
kasowanie poczty, IMAP pozwala na zarządzanie wieloma folderami
pocztowymi oraz pobieranie i operowanie na listach znajdujących się na
zdalnym serwerze.
IMAP pozwala na ściągnięcie nagłówków wiadomości i wybranie, które z
wiadomości chcemy ściągnąć na komputer lokalny. Pozwala na
wykonywanie wielu operacji, zarządzanie folderami i wiadomościami.
POP3 to aktualna wersja
standardu Post Office
Protocol. Nie chodzimy
na pocztę, lecz łączymy
się na krótko z
serwerem, ,,bierzemy''
czekające na nas listy,
po czym się rozłączamy.
Czytamy je i
redagujemy odpowiedzi
bez konieczności
utrzymywania
połączenia z
Internetem, co w
przypadku łączenia
przez modem daje
znaczące oszczędności.
Potem łączymy się
znów na krótko5.4, by
wysłać przygotowane
odpowiedzi.
Zagrożenia płynące z Internetu
Bezpieczeństwo to zagadnienie istotne zarówno dla firm jak i dla
indywidualnych użytkowników. Internet to znakomite narzędzie
zarówno do dystrybucji informacji o sobie jak i otrzymywaniu ich od
innych, jednak z wszelkimi dobrodziejstwami globalnej sieci związana
jest również pokaźna liczba zagrożeń. Przestępstwa komputerowe
takie jak kradzież informacji czy celowe niszczenie danych to tylko
niektóre z nich.
Najlepszym sposobem uniknięcia takiego biegu wydarzeń jest
podjęcie działań prewencyjnych związanych z pozbawieniem
możliwości uzyskania dostępu przez sieć do maszyny. To pole
zastosowań dla firewalli (ścian ogniowych, zapór ogniowych).
Ogólnie metody włamań można podzielić na:
• ataki z zewnątrz sieci lokalnej
• ataki z wnętrza sieci lokalnej
• ataki pośrednie
Ataki z zewnątrz
Są to ataki, których najczęstszą formą są zakłócenia stabilnej pracy.
Przejmowanie kontroli nad systemami odbywa się z zewnątrz sieci
lokalnej, na przykład z Internetu. Można w tym celu wykorzystać lukę
w systemie zabezpieczeń, błąd serwisu sieciowego lub po prostu
słaby poziom zabezpieczeń firmy. Do najczęstszych tego typu ataków
należą:
• Ataki na poszczególne komputery, bądź serwer główny - to
jeden z najczęstszych typów ataków. Konsekwencjami są zwykle
przerwy w pracy sieci lokalnej, uszkodzenie poszczególnych (bądź
wszystkich) końcówek serwera, a co za tym idzie, całej sieci; co
powoduje wielogodzinne przerwy w pracy.
• Ataki na serwer http - to ataki, których efektem jest utrata
danych witryny internetowej lub uzupełnienie jej treściami
kompromitującymi firmę.
Spoofing (maskarada)
Metoda ta stosowana jest zwykle przez doświadczonych i
wyrafinowanych włamywaczy. Polega na podszyciu się włamywacza
pod jednego z użytkowników systemu, który posiada własny numer IP
(numer identyfikujący użytkownika). Technika ta ma na celu omijanie
wszelkich zabezpieczeń, jakie zastosował administrator w sieci
wewnętrznej. Jest bardzo skuteczna nawet, gdy bywa
wykorzystywana przeciwko markowym firewallom, switchom i
ruterom. Dzięki niej możliwe jest "udawanie" dowolnego użytkownika,
a co za tym idzie "podszywanie" się i wysyłanie sfałszowanych
informacji. Ze swego komputera haker może dokonać przekierowania
źródłowego adresu IP i "podszyć się" pod komputer sieciowy.
Ataki z wnętrza sieci
Ataki z wnętrza sieci należą do jednych z groźniejszych. Włamanie
następuje z wnętrza sieci lokalnej poprzez wykorzystanie konta
jakiegoś użytkownika, czy też luki w zabezpieczeniach systemu
autoryzacji użytkowników. Najczęściej włamania tego typu są
udziałem pracowników firmy, a nie użytkowników komputerów spoza
jej obrębu, gdyż dostęp do końcówki Sieci takiej osoby rzadko
pozostaje zauważony.
Ataki pośrednie
Hakerzy stosują tu dość wyrafinowane metody, czego najlepszym
przykładem są konie trojańskie. To grupa ataków najtrudniejszych do
wykrycia. "Podłożenie" konia trojańskiego otwierającego dostęp do
całej sieci może odbyć się za pośrednictwem poczty elektronicznej
czy też podczas ściągania programu, który pochodzi z niepewnego
źródła. Użytkownik prawie nigdy nie jest świadom tego, że ściągając
na przykład najnowszą wersję odtwarzacza plików mp3 faktycznie
otwiera dostęp do swojego komputera, a potem całej Sieci osobom
niepowołanym.
Packet sniffing (podsłuchiwanie pakietów)
Jest to metoda zdobywania systemu polegająca na przechwytywaniu
przesyłanych przez sieć niezaszyfrowanych informacji. Można w ten
sposób zdobyć hasło użytkownika i uzyskać dostęp do danego konta.
Ataki polegające na "biernym węszeniu" stały się powszechne w
Internecie. Stanowią one zazwyczaj wstęp do aktywnego
przechwytywania cudzych plików. Aby rozpocząć tego rodzaju atak,
haker musi zdobyć identyfikator i hasło legalnego użytkownika, a
następnie zalogować się do Sieci. Kiedy wykona już te posunięcia,
może bezkarnie podglądać i kopiować transmisje pakietów,
zdobywając jednocześnie informacje o funkcjonowaniu danej sieci
lokalnej.
Ataki korzystające z autoryzowanego dostępu
Są to ataki często stosowane przez osoby próbujące się włamać do
sieci opartych na systemie operacyjnym, korzystającym z
mechanizmu autoryzowanego dostępu (takim jak UNIX, VMS i
Windows NT). Duże niebezpieczeństwo niesie ze sobą tworzenie
plików zawierających nazwy serwerów, do których można uzyskać
dostęp bez podawania hasła.
Czym jest firewall?
Firewall składa się z pewnej liczby komponentów sieciowych
(sprzętowych i programowych) w punkcie styku dwóch sieci.
Zapewnia zachowanie reguł bezpieczeństwa między siecią prywatną,
a niezabezpieczoną siecią publiczną, na przykład Internetem.
Właśnie ta zapora decyduje, które z usług w sieci prywatnej dostępne
są z zewnątrz i z jakich usług niezabezpieczonej sieci publicznej
można korzystać z poziomu sieci prywatnej. Aby firewall był
skuteczny, cały ruch danych między siecią prywatną a Internetem
musi przechodzić przez niego.
Firewall nie jest, jak router, bastion host czy inne urządzenie, częścią
sieci. Jest jedynie komponentem logicznym, który oddziela sieć
prywatną od publicznej. Bez firewalla każdy host w sieci prywatnej
byłby całkowicie bezbronny wobec ataków z zewnątrz.
Funkcje firewalla
Firewall spełnia wiele funkcji, których zakres może
obejmować:
• kontrolę dostępu do usług systemu,
• ograniczenie liczby dostępnych usług,
• kontrolowanie połączeń sieciowych,
• skanowanie serwisów sieciowych,
• wykrywanie i eliminowanie prób włamania do
systemu,
• zabezpieczenie przesyłanych informacji,
• nadzorowanie pracy routerów,
• ochronę systemu przed niebezpiecznymi
programami,
• ukrywanie struktury wewnętrznej systemu,
• monitorowanie bieżącego stanu komunikacji
sieciowej,
• rejestrowanie ważnych zdarzeń,
• równoważenie obciążenia serwerów.
Źródła
Komar, B. (2002). TCP/IP dla każdego. Gliwice:
Helion
Sportac, M. (1999). Sieci komputerowe, księga
eksperta. Gliwice: Helion
http://brain.fuw.edu.pl/~durka/KIC/i.html