background image

Historia

Historia

Internetu

Internetu

background image

1961-1965

HISTORIA SIECI – pierwsze kroki

1961 

    L. Kleinrock z Massachusetts Institute of Technology przedstawia zarys 
teorii przełączania pakietów. Instytucja RAND Corporation (Research and 
Development) dostała zlecenie od Sił Powietrznych USA, zbudowania sieci 
komunikacji głosowej, która przetrwa atak atomowy. 

 

1962 

    J.C.R. Licklider z Massachusets Institute for Technology (MIT) opracowuje 
koncepcję oplecenia ziemi globalną siecią telekomunikacyjną. Ponadto Paul 
Baran z RAND Corporation utworzył model sieci oparty na wymianie danych w 
małych pakietach. Powstały więc kolejne koncepcje będąca zalążkiem 
Internetu. 

 

1965 

     T. Merril i L.G. Roberts za pomocą linii telefonicznej łączą między 
Massachusetts a Kalifornią dwa komputery. Początkowo istniały tylko sieci 
izolowane. Każda z nich wykorzystywała swój własny sposób komunikacji, 
stworzony przez firmę administracyjną. Łączenie poszczególnych sieci było 
bardzo drogie albo wręcz niemożliwe.

background image

Arpanet (ang. Advanced Research Projects Agency Network)

 - 

pierwsza sieć rozległa oparta na rozproszonej architekturze i protokole TCP/IP. 
Jest bezpośrednim przodkiem Internetu. 

Arpanet powstał jako inicjatywa Departamentu Obrony USA (Pentagonu). W 
1957 roku po szoku wywołanym wysłaniem Sputnika w kosmos przez ZSRR 
powołano rządową agencję której zadaniem było obserwowanie i wspieranie 
inicjatyw powstających na uczelniach w USA, które miały szczególne 
znaczenie dla obronności USA.

Historia Internetu sięga już ponad ćwierć wieku wstecz. Zaczęła się ona 1 
września 1969 roku, kiedy to na Uniwersytecie Kalifornijskim w Los Angeles 
(UCLA), a wkrótce potem w trzech następnych uniwersytetach, zainstalowano 
w ramach eksperymentu finansowanego przez ARPA (Advanced Research 
Project Agency - agencję rządu Amerykańskiego zajmującą się 
koordynowaniem badań naukowych na potrzeby wojska) pierwsze węzły sieci 
ARPANET - bezpośredniego przodka dzisiejszego Inernetu. Eksperyment miał 
zbadać możliwość zbudowania sieci komputerowej bez wyróżnionego punktu 
centralnego, która mogła by funkcjonować nawet pomimo uszkodzenia 
pewnej jej części. Wszystkie istniejące do tej pory sieci zarządzane były przez 
jeden główny komputer, którego awaria pozbawiła by możliwości pracy całą 
sieć. Sieć taka nie nadawała się do dowodzenia armią podczas wojny, gdyż 
taki główny węzeł sieci byłby oczywiście pierwszym celem ataku przeciwnika. 
W ciągu następnych dwóch lat sieć była rozbudowywana, a w pracach nad 
nią brała udział coraz większa liczba naukowców z różnych ośrodków. Jednym 
z pierwszych zastosowań sieci było zdalne wykonywanie obliczeń na 
komputerach dużej mocy znajdujących się w innych ośrodkach.

background image

1969-1990

         

HISTORIA SIECI – powstanie Internetu

Lata 60-te

  -  Izolowane systemy komputerowe.

1969-1990

  -  ARPANET - Advanced Research Project Agency Network.

1971-  

zdefiniowanie protokołu przesyłania plików - FTP, oraz logowania – TELNET, e-mail

1973

  -  zainicjowanie pierwszego europejskiego połączenia poprzez sieć pomiędzy Anglią a 

Norwegią.

1978

  -  UUCP - UNIX to UNIX copy.

1979-  

USENET - Users Network -  to ogólnoświatowy system grup dyskusyjnych

1980

  - ARPANET obejmuje 400 serwerów na uniwersytetach, w rządzie i armii Stanów 

Zjednoczonych.

1981

  -  CSNET - Computer Science Network.

1981-  

BITNET - Because It's Time Network - łącząca uczelnie w USA

1982- 

Powstają emotikony ;-)

1983

  -  FidoNet, ARPAnet zostaje rozdzielony na dwie części: militarną - MILNET oraz cywilną - 

ARPAnet,

1983

  -  

Internet (TCP/IP)

1984 

 -  NSFNET - National Science Foundation Network. Na potrzeby Internetu 

opracowano hierarchiczny system unikatowych nazw domenowych i protokołów 
DNS (Domain Name System).

1987

  -  OSI - Open System Interconnection.

1988

  -  GOSIP - Government OSI Profile. Powstaje Internet Relay Chat (IRC).

1989

 - liczba komputerów w Internecie przekracza 100 000, do Internetu dołącza 

Kanada, Finlandia , Niemcy.

1990

 - ARPANET kończy swoją działalność.

background image

1990-2007

1991:

 

• naukowcy z CERNu opracowali standard 

WWW (World Wide Web).

• Zniesiono zakaz używania Internetu do celów komercyjnych.
• wiosna – w Polsce powstaje 

NASK (Naukowa i Akademicka Sieć 

Komputerowa)

.

• 17 sierpnia 1991 r. Rafał Pietrak, fizyk z Uniwersytetu Warszawskiego, nawiązał 
łączność w oparciu o protokół IP z Janem Sorensenem z Uniwersytetu w 
Kopenhadze.

• 20 grudnia - Polska zostaje przyłączona do Internetu.
• kwiecień - powstaje protokół Gopher

1992: 

• TP S.A. uruchamia sieć pakietową POLPAK

1993: 

• 11 czerwca 1993 decyzja Komitetu Badań Naukowych o budowie Miejskich Sieci 
Komputerowych w jedenastu ośrodkach akademickich: w Warszawie, Krakowie, 
Poznaniu, Wrocławiu, Toruniu, Gdańsku, Katowicach/Gliwicach, Łodzi, Szczecinie, 
Rzeszowie i Lublinie oraz przyznaniu funduszy na budowę sieci szkieletowej NASK.

• powstaje pierwsza przeglądarka WWW umożliwiająca oglądanie graficznych stron 
- Mosaic.

• powstaje Tucows - jedna z większych składnic oprogramowania shareware, 
freeware i demo.

• powstaje pierwszy polski MUD - Studnia Dusz.

background image

1994: 

• kwiecień - powstaje portal Yahoo!.
• w czerwcu powstaje pierwszy w Polsce komercyjny BBS - Maloka BBS.
• Premiera przeglądarki Netscape Navigator.

1995: 

• Powstaje pierwszy polski portal: Wirtualna Polska,
• 23 sierpnia 1995 prezentacja nowej przeglądarki internetowej na bazie kodu 
Mosaica - Internet Explorer.

• Rusza wyszukiwarka stron AltaVista.

1996: 

• TP S.A. uruchamia usługę anonimowego dostępu,
• firma Polbox od listopada oferuje pierwsze w Polsce darmowe konta e-mail, a 
następnie WWW.

• Powstaje portal Onet.pl.
• Powstaje wyszukiwarka HotBot.

1997:

 

• oficjalna premiera PHP.

background image

1998: 

• Powstaje Google.

1999: 

• Powstają pierwsze polskie komunikatory: Gadu-Gadu i Tlen.pl.
• Powstaje portal Interia.pl oraz portal O2.

2001: 

• Powstaje pierwszy międzynarodowy program głosowy Skype
• 15 stycznia - powstaje Wikipedia, 26 września - polska 
Wikipedia

background image
background image
background image

Użytkownicy internetu IV.2006

szacunki: 0.6 – 1 miliardów osób

background image

USŁUGI INTERNETU

USŁUGI INTERNETU

Dostawca usługi Internetu (ISP – po angielsku Internet Service Provider), 
czasem skrótowo tylko provider (wym. prowajder), często oprócz łącza do Internetu 
oferuje następujące usługi dodane:

• hosting stron internetowych WWW lub serwerów internetowych 
FTP;

 pocztę elektroniczną (e-mail) na swoim portalu lub serwerze.

Jeżeli ISP je oferuje, to ich koszt może być wliczony w koszt usługi podstawowej.

Samo korzystanie z Internetu nie wymaga wykupienia żadnych innych 
dodatkowych usług od ISP. Obojętnie czy w domu czy w kafejce internetowej można 
bez dodatkowych opłat:

• przeglądać strony internetowe – WWW;
 transferować pliki – FTP, P2P;
 korzystać z darmowych skrzynek poczty elektronicznej;
 dyskutować w grupach dyskusyjnych Usenetu.

background image

Oprócz wyżej wymienionych, Internet umożliwia dostęp do szerokiej gamy usług 
takich jak m.in.:

 dyskusje internetowe (grupy dyskusyjne, e-mailowe listy 
dyskusyjnych, fora dyskusyjne)

 rozmowy tekstowe w czasie rzeczywistym (IRC)
 komunikatory internetowe (Gadu-Gadu, ICQ, Jabber, Skype, Tlen)
 telefonia internetowa (VoIP - ang. Voice over Internet Protocol)
 radio internetowe
 telewizja internetowa
 telekonferencje
 faksowanie
 sklepy internetowe
 aukcje internetowe
 giełda internetowa
 bankowość elektroniczna
 gry online

background image

Internet

 (z angielskiego, dosł. międzysieć) - globalna ogólnoświatowa sieć 

komputerowa

logicznie połączona w jednorodną sieć adresową opartą na protokole IP (Internet 
Protocol),

do komunikacji używająca TCP/IP (ang. Transmission Control Protocol/Internet Protocol),

dostarcza lub wykorzystuje usługi wyższego poziomu oparte na telekomunikacji i 
związanej z nią infrastrukturze.

Połączenie komputera z Internetem 

Przyłączenie komputera do Internetu możliwe jest z wykorzystaniem wielu technologii, 
które pozwalają urządzeniu komunikować się z pobliską bramką posiadającą stałe 
połączenie z innymi systemami w Internecie. Typowe rozwiązania wykorzystują linie 
telefoniczne (modemy, cyfrowe linie ISDN, modemy ADSL), inne technologie 
przewodowe (transmisja przez sieci energetyczne, telewizję kablową) oraz 
bezprzewodowe (sieci komórkowe (GPRS,3G,LTE), łącza satelitarne, 

Wi-Fi).

Aby pracować w Internecie, komputer musi być w stanie komunikować się z innymi 
systemami przez protokoły z rodziny TCP/IP, a także posiadać oprogramowanie 
klienckie pozwalające na praktyczne wykorzystanie usług oferowanych przez innych 
użytkowników.

background image

ICANN 

The 

Internet Corporation for Assigned Names and Numbers

 (ICANN) jest powołaną 

przez rząd USA organizacją koordynującą przyznawanie unikalnych adresów IP i 
wysokopoziomowych nazw DNS w Internecie, na Ujednolicony system nazywania, 
pozwalający na prawidłowe kierowanie ruchem w skali globalnej, jest konieczny do 
poprawnego działania Internetu. Siedziba główna ICANN znajduje się w Marina del Rey 
w Kalifornii, a organizacja jest nadzorowana przez międzynarodowy zarząd, którego 
członkowie wybierani są przez techniczne, biznesowe, akademickie i niekomercyjne 
kręgi użytkowników sieci. Ponieważ Internet jest siecią wielu dobrowolnie połączonych 
węzłów, nie ma jako takiego centrum zarządzania, a rola ICANN jest po prostu umowną 
konwencją, która nie musi być przestrzegana przez użytkowników.

Internet a WWW - terminologia 

Internet i World Wide Web nie są synonimami. Internet to sieć komputerowa – wiele 
połączonych ze sobą komputerów. WWW jest jednym z dóbr dostępnych przy pomocy 
Internetu. Innymi bardzo popularnymi są poczta elektroniczna i wymiana plików w 
sieciach P2P. WWW jest zbiorem dokumentów i innych zasobów połączonych 
hiperłączami i URL-ami.

Ścisłe podanie różnicy między tymi pojęciami odwołuje się do protokołów 
internetowych. Protokoły komunikacyjne są podzielone na warstwy. Każda warstwa 
zapewnia funkcjonalność wymaganą przez wyższą warstwę. Internet to sieci 
komputerowe komunikujących się za pomocą IP (ang. Internet Protocol) i TCP (ang. 
Transmission Control Protocol). Inne protokoły, takie jak HTTP (ang. Hypertext Transfer 
Protocol), który jest wykorzystywany przez WWW, działają na wierzchu warstwy 
komunikacyjnej (IP) i kontroli transmisji (TCP). HTTP jest protokołem warstwy aplikacji.

background image

Wyszukiwanie i ściąganie danych z internetu

1. Systemy indeksujące

2. P2P Peer-to-peer 

3. FTP 

4. Torrent

BitTorrent – protokół wymiany i dystrybucji plików przez Internet, 
którego celem jest odciążenie łączy serwera udostępniającego pliki. 
Jego największą zaletą w porównaniu do protokołu HTTP jest podział 
pasma pomiędzy osoby, które w tym samym czasie pobierają dany 
plik. Oznacza to, że użytkownik w czasie pobierania wysyła fragmenty 
pliku innym użytkownikom.

background image

Web 2.0

Web 2.0 - określenie serwisów internetowych, powstałych po 
2001 roku, w których działaniu podstawową rolę odgrywa treść 
generowana przez użytkowników danego serwisu. Ten termin 
został spopularyzowany dzięki firmie O'Reilly Media, która w 
2004 roku zorganizowała szereg konferencji poświęconych 
temu nowemu trendowi internetowemu.

Wbrew numeracji wersji oprogramowania, Web 2.0 nie jest 
nową World Wide Web ani Internetem, ale ulepszeniem, innym 
sposobem na wykorzystanie jego dotychczasowych zasobów. 
Uważa się, że serwisy Web 2.0 zmieniają paradygmat interakcji 
między właścicielami serwisu i jego użytkownikami, oddając 
tworzenie większości treści w ręce użytkowników. Strony Web 
2.0 mają tendencję do korzystania z nowych technik takich jak 
XHTML, SOAP, AJAX, XUL, RDF, dużo częstsze wykorzystywanie 
kanałów RSS i Atom oraz bardzo szerokie rozpropagowanie 
Webservices.

background image

Cechy Web 2.0

Techniczne 

• wykorzystanie mechanizmu wiki, blogów

• udostępnianie interfejsów XML, które umożliwiają innym stronom i programom korzystanie z 
danych Web 2.0 (przede wszystkim przez RSS i Atom)

• używanie nowych technologii, jak np. AJAX czy Ruby on Rails

 

Społeczne 

• generowanie treści przez użytkowników,

• użycie folksonomii

• tworzenie się wokół serwisów rozbudowanych społeczności

• wykorzystanie kolektywnej inteligencji

• wykorzystanie otwartych licencji, jak Creative Commons czy GNU GFDL

Wygląd 

• pastelowe barwy

• gradienty

• zaokrąglenia

• duże czcionki

• efekt "mokrej podłogi"

background image

Sceptycy uważają, że wiele rozwiązań, które uznaje się za elementy tego systemu, 
pojawiło się znacznie wcześniej niż zaczęto myśleć o rewolucji (mechanizm Wiki 
powstał w 1996 roku, kanały RSS w 2000 itd.).

Zgodnie z tym tokiem myślenia, Web 2.0 nie prezentuje nowego spojrzenia na sieć, a 
jedynie kontynuuje rozpoczęte w przeszłości procesy. Paul Boutin, konfrontując kilka 
autonomicznych definicji próbuje udowodnić, że w istocie nowe określenie dla starej 
sieci było potrzebne „internetowym przedsiębiorcom, którzy spóźnili się na boom 
związany z rozwojem Web 1.0”. Russel Shaw podtrzymuje to stanowisko, wprost 
nazywając Web 2.0 "chwytem marketingowym ”.

background image

Przedstawiciele Web 2.0  .PL

Wiadomości24.pl

 – polski społecznościowy serwis informacyjny założony 

14 czerwca 2006. Pisanie informacji opiera się w głównej mierze na 
dziennikarstwie obywatelskim osób zarejestrowanych oraz informacjach z 
agencji prasowej Polskapresse.

Facebook

 – serwis społecznościowy, w ramach którego zarejestrowani 

użytkownicy mogą tworzyć sieci i grupy, dzielić się wiadomościami i 
zdjęciami oraz korzystać z aplikacji, będących własnością Facebook

Flickr

 - serwis internetowy stworzony do gromadzenia i udostępniania zdjęć 

cyfrowych online

Jamendo

 - muzyczny serwis internetowy publikujący muzykę na licencjach 

Creative Commons/Free Art Licence.

MySpace 

(ang. "moja przestrzeń") – nr. 6 w TOP 500

    Serwis ten umożliwia przede wszystkim komunikację pomiędzy 
internautami i    
    nawiązywanie drogą elektroniczną znajomości.

background image

Adres IP

 

(Internet Protocol address) to unikatowy numer 

przyporządkowany urządzeniom sieci komputerowych, protokół IP. 
Adresy IP są wykorzystywane w Internecie oraz sieciach lokalnych. 
Adres IP zapisywany jest w postaci czterech oktetów w postaci 
dziesiętnej oddzielonych od siebie kropkami, np. adres IP:

150.254.66.81

Adresowanie IPv4 (nowsza wersja to IPv6)

W IPv4, czyli obecnym standardzie adresowania internetu, 
adres IP to liczba 32-bitowa (od 0 do 4 294 967 295).

background image

Liczby w adresie IP nazywają się oktetami, ponieważ w postaci 
binarnej mają one osiem bitów. Te osiem bitów daje w sumie 256 
kombinacji, więc każdy oktet przedstawia liczbę od 0 do 255.

Najpopularniejszy sposób zapisu adresów IP, to przedstawianie ich 
jako 4 dziesiętnych liczb od 0 do 255 oddzielonych kropkami. W 
rzeczywistości komputery traktują adres Wikipedii jako liczbę 32-
bitową: 

3482223596

Taki zapis jest mało czytelny, wobec czego stosuje się podział adresu 
IP na cztery oktety. Adres Wikipedii zapisujemy binarnie:

11001111  10001110  10000011  11101100 

po czym każdą grupę 8-bitów przekształcamy do postaci dziesiętnej:

207       142       131       236

Przykładowe adresy trzech komputerów w danej podsieci:

Komputer 1: 192.168.1.1 

Komputer 2: 192.168.1.2

Komputer 3: 192.168.1.3 

background image

Ogólne zasady adresowania IP

• Podczas nadawania adresów IP należy przestrzegać następujących 
reguł:

• Wszystkie stacje w jednym fizycznym segmencie sieci powinny 
mieć ten sam identyfikator sieci

• Część adresu IP określająca pojedynczą stację musi być odmienna 
dla każdej stacji w segmencie sieci

• Identyfikatorem sieci nie może być 127 - wartość ta jest 
zarezerwowana do celów diagnostycznych

• Identyfikator stacji nie może składać się z samych jedynek - jest to 
adres rozgłaszania dla sieci lokalnej

• Identyfikator sieci nie może składać się z samych zer - jest to 
oznaczenie sieci lokalnej

• Identyfikator stacji również nie może składać się z samych zer - jest 
to oznaczenie sieci wskazanej przez pozostałą część adresu i nie 
może zostać przypisane pojedynczej stacji

background image

 

Adresy w sieci lokalnej

Trzy następujące pule adresów IP zostały zarezerwowane do użytku w 
sieciach lokalnych, oddzielonych serwerami proxy lub zaporami 
firewall:

od 10.0.0.0 do 10.255.255.255

od 172.16.0.0 do 172.31.255.255

od 192.168.0.0 do 192.168.255.255

Celem ich utworzenia było zapewnienie sieciom nie przyłączonym do 
Internetu puli adresów niewchodzących w konflikt z żadnymi 
adresami będącymi w użyciu w Internecie.

Sieciom korzystającym z tych pul nie zagraża, w razie późniejszego 
przyłączenia do Internetu, przypadkowy konflikt z inną siecią obecną 
w Internecie.

background image

Klasy adresów IP

A

0

Sieć

.

Stacja.

Stacja.

Stacja

B

10

Sieć

.

Sieć

.

Stacja.

Stacja

C

110

Sieć

.

Sieć

.

Sieć

.

Stacja

D

1110 Adres multiemisji

E

11110 Zarezerwowany do użycia w przyszłość

background image

 Znaczenie masek podsieci

Maska podsieci (ang. SNM - subnet mask)

 jest wykorzystywana do 

określania, ile bitów adresu IP wskazuje sieć, a ile stację w tej sieci. 
Dla adresów klas A, B i C wykorzystywane są maski domyślne:

klasa A - 255.0.0.0

klasa B - 255.255.0.0

klasa C - 255.255.255.0

Maska podsieci klasy A wskazuje, że sieciowa część adresu to 
pierwsze 8 bitów. Pozostałe 24 bity określają stację w tej sieci. Jeżeli 
adresem stacji jest 11.25.65.32, to wykorzystanie maski domyślnej 
określa adres sieci jako 11.0.0.0. Częścią adresu wskazującą stację 
jest 25.65.32.

background image
background image

DNS

 - nazwy zamiast liczb

Wszystkie komputery w sieci TCP/IP identyfikowane są za pomocą 
jednoznacznego adresu IP. Jego postać liczbowa o długości 32 bitów 
jest skomplikowana i łatwo o błąd podczas wpisywania. Z tego 
powodu już w roku 1984 utworzono system nazw domen 

Domain 

Name System (DNS).

 To właśnie dzięki niemu można połączyć się z 

hostem, używając przynależnej nazwy domeny.

DNS to rozproszona baza danych, której głównymi komponentami są 
serwery nazw. Zarządzają informacjami o odwzorowaniu, co polega 
na wzajemnym przyporządkowaniu adresów IP i nazw komputerów.

Gdy jeszcze nie było Internetu obecnej postaci, a ARPAnet łączył 
kilkaset komputerów, wszystkie informacje o hostach mieściły się w 
jednym pliku. Plik ten musiał się znajdować w każdym komputerze 
podłączonym do sieci ARPAnet; zawierał wszystkie informacje 
związane z odwzorowaniem. System nazw domen usunął podstawowe 
wady tablic nazw opartych na plikach:

• DNS daje się łatwo rozszerzać,
• ma postać rozproszonej bazy danych i gwarantuje, że informacje o 
nowych komputerach i zmianach w razie potrzeby dotrą do 
wszystkich użytkowników Internetu.

background image
background image

URL

 (ang. Uniform Resource Locator) oznacza 

ujednolicony format adresowania zasobów (informacji, 
danych, usług), stosowany w Internecie i w sieciach 
lokalnych.

protokół://adres_serwera:port/ścieżka_dostępu

http://www.wikipedia.com/wiki/URL/plik.txt 

http

 

          – protokół dostępu do zasobu

www.wikipedia.com     – adres serwera
wiki/URL

 

    – ścieżka dostępu do zasobu

ftp://ftp.onet.pl/PUB
http://150.254.66.81/ 
http://150.254.190.62:9080/

nazwa_użytkownika@adres_serwera

mariusz_342@gmail.com

background image

Każda przesyłana Internetem informacja przechodzi (w postaci 
opisanych powyżej pakietów) przez wiele komputerów, zwykle kilka 
lub kilkanaście. Trasa nie jest ustalana ,,na sztywno'', lecz zestawiana 
dynamicznie przez kolejne komputery w zależności od dostępnych w 
danej chwili połączeń. Poniższe listy to wynik działania komendy 
traceroute, podającej listę komputerów pośredniczących w połączeniu 
o określonym celu. Startujemy z komputera w Warszawie; lista 
opisuje drogę do USA (docelowy komputer to cnn.com):

 1  bbone-R-wman (193.0.80.10)  3.692 ms  1.688 ms  1.529 ms
 2  ext-gate-ciuw.net.uw.edu.pl (193.0.112.12)  2.579 ms  1.891 ms  2.378 ms
 3  148.81.253.5 (148.81.253.5)  15.175 ms  12.006 ms  13.968 ms
 4  poznan-gw-a50014.poznan.pol34.pl (150.254.213.113)  16.077 ms  15.898 ms  15.518 ms
 5  poznan.ny.dante.net (212.1.200.61)  280.920 ms  290.803 ms  299.990 ms
 6  500.POS2-2.GW9.NYC4.ALTER.NET (157.130.19.21)  288.728 ms * *
 7  110.ATM2-0.XR2.NYC4.ALTER.NET (152.63.21.206)  310.588 ms  308.174 ms *
 8  188.ATM3-0.TR2.NYC1.ALTER.NET (146.188.179.38)  280.698 ms *  285.223 ms
 9  104.ATM7-0.TR2.ATL1.ALTER.NET (146.188.136.61)  325.033 ms  295.604 ms  292.410 ms
10  198.at-2-0-0.XR2.ATL5.ALTER.NET (152.63.80.233)  295.714 ms  330.891 ms  307.345 ms
11  194.ATM11-0-0.GW1.ATL3.ALTER.NET (146.188.233.61)  300.661 ms  305.095 ms *
12  cnn-gw.customer.ALTER.NET (157.130.68.182)  322.275 ms !X  300.921 ms !X *

background image

PROTOKOŁY            

Warstwa aplikacji

ADSP (AppleTalk) • APPC • AFP (AppleTalk) • DAP • DLC • DNS

53

 • ed2k • 

FTAM • FTP 

20,21

 • Gopher • HTTP

80

 • HTTPS

443

 • IMAP

143

 • IRC 

194,529

 • Named 

Pipes • NCP

524

 • NetBIOS 

137,138,139

 • NWLink • NBT • NNTP

119

 • NTP

123

 • PAP • 

POP3

110

 • RPC • RTSP • SNMP 

161,162

 • SMTP

25

 • SMB • SSL/TLS • SSH

22

 • TDI • 

Telnet

23

 • X.400 • X.500 • XDR • ZIP (AppleTalk)

(Cyfry w indeksie oznaczają numery portu)

Warstwa transportowa

ATP (AppleTalk) • NBP (AppleTalk) • NetBEUI • RTP • RTMP (AppleTalk) • SPX 
• TCP • UDP • SCTP

Warstwa sieciowa

IP • ICMP • IPsec • NAT • IPX • NWLink • NetBEUI • DDP (AppleTalk)

Warstwa dostępu do sieci

ARP • 10BASE-T • 802.11 WiFi • ADSL • Ethernet • EtherTalk • Fibre Channel 
• ISDN • LocalTalk (AppleTalk) • NDIS • ODI • PPP • RS-232 •

SLIP • Token Ring • TokenTalk (AppleTalk) • V.90

background image

Telnet

 to standard protokołu komunikacyjnego używanego w 

sieciach komputerowych do obsługi odległego terminala w 
architekturze klient-serwer.

Telnet jest usługą (programem) pozwalającą na zdalne połączenie się 
komputera (terminala) z oddalonym od niego komputerem 
(serwerem) przy użyciu sieci, wykorzystując do tego celu protokół 
TCP-IP oraz standardowo przypisany port 23. Umożliwia on zatem 
ustanowienie użytkownikowi zdalnej sesji na serwerze tak jak gdyby 
siedział tuż przed nim.

Protokół obsługuje tylko terminale alfanumeryczne, co oznacza, że nie 
obsługuje myszy ani innych urządzeń wskazujących. Nie obsługuje 
także graficznych interfejsów użytkownika. Wszystkie polecenia 
muszą być wprowadzane w trybie znakowym w wierszu poleceń. 
Polecenia wydawane za pomocą naszego komputera przysłane są 
poprzez sieć serwera, na którym zainstalowane jest oprogramowanie 
serwera telnetu. W odpowiedzi serwer odsyła nam komunikaty, które 
następnie wyświetlane są na naszym ekranie.

background image

SSH (ang. secure shell)

 

to standard protokołów komunikacyjnych 

używanych w sieciach komputerowych TCP-IP, w architekturze klient-serwer. 
W ścisłym znaczeniu SSH to tylko następca protokołu telnet, służącego do 
terminalowego łączenia się ze zdalnym komputerem. SSH różni się od telnetu 
tym, że transfer wszelkich danych jest zaszyfrowany, oraz możliwe jest 
rozpoznawanie użytkownika na wiele różnych sposobów. W szerszym 
znaczeniu SSH to wspólna nazwa dla całej rodziny protokołów, nie tylko 
terminalowych, lecz także służących do przesyłania plików (SCP, SFTP), 
zdalnej kontroli zasobów, tunelowania i wielu innych zastosowań. Wspólną 
cechą wszystkich tych protokołów jest identyczna z ssh technika szyfrowania 
danych i rozpoznawania użytkownika. Obecnie protokoły z rodziny SSH 
praktycznie wyparły wszystkie inne "bezpieczne" protokoły takie jak np: 
Rlogin i RSH

Znane implementacje SSH to zamknięty ssh.com, oparty na licencji Open 
Source OpenSSH oraz wersja protokołu stosowana w programie PuTTY.

VNC (ang. Virtual Network Computing) - system przekazywania obrazu z 
wirtualnego, bądź fizycznego środowiska graficznego.

Prosty pakiet serwer+klient jest dostępny pod najpopularniejsze systemy 
operacyjne z trybem graficznym, jak: Linux, Windows, BSD, MacOS, OS/2, 
Solaris, AmigaOS, SCO i wiele innych. Klienty VNC są dostępne nawet dla 
urządzeń typu PDA i niektórych telefonów komórkowych.

background image

FTP (ang. File Transfer Protocol)

 

- protokół typu klient-

serwer, który umożliwia przesyłanie plików z i na serwer poprzez sieć 
TCP/IP.

Serwer FTP, zależnie od konfiguracji, może pozwalać na dostęp do 
jego zawartości bez podawania hasła. Zamiast niego powinno się 
podawać adres e-mail (wg netykiety). Często jednak nie jest to 
przestrzegane własnie ze względu na anonimowy charakter usługi. 
Większość serwerów FTP loguje jednak każde połączenie i IP klienta.

SFTP (ang. SSH File Transfer Protocol)

 – protokół pozbawiony 

wad, które posiada zwykły FTP. Przesyłając plik dzięki protokołowi FTP 
uzyskujemy dobre przepływności, ale nie zyskujemy bezpieczeństwa, 
nasze hasła nie są szyfrowane.

Secure copy (ang. bezpieczne kopiowanie)

 lub SCP oznacza 

bezpieczny transfer plików pomiędzy lokalnym a zdalnym lub między 
zdalnymi komputerami, używając protokołu Secure Shell (SSH). Skrót 
SCP odnosi się do dwóch powiązanych ze sobą rzeczy: protokół SCP 
oraz polecenie scp.

Programy pod windows: WinScp, TotalCommander, Wiersz poleceń - 
FTP

background image

HTTP   http://www....

HTTP (ang. Hypertext Transfer Protocol

 - protokół przesyłania 

dokumentów hypertekstowych) to protokół sieci WWW (ang. World Wide 
Web). Obecną definicję HTTP stanowi RFC 2616. Za pomocą protokołu HTTP 
przesyła się żądania udostępnienia dokumentów WWW i informacje o 
kliknięciu odnośnika oraz informacje z formularzy. Zadaniem stron WWW jest 
publikowanie informacji - natomiast protokół HTTP właśnie to umożliwia.

Protokół HTTP jest tak użyteczny, ponieważ udostępnia znormalizowany 
sposób komunikowania się komputerów ze sobą. Określa on formę żądań 
klienta dotyczących danych oraz formę odpowiedzi serwera na te żądania. 
Jest zaliczany do protokołów bezstanowych (ang. stateless) z racji tego, że nie 
zachowuje żadnych informacji o poprzednich transakcjach z klientem (po 
zakończeniu transakcji wszystko "przepada"). Pozwala to znacznie zmniejszyć 
obciążenie serwera, jednak jest kłopotliwe w sytuacji, gdy np. trzeba 
zapamiętać konkretny stan dla użytkownika, który wcześniej łączył się już z 
serwerem. Najczęstszym rozwiązaniem tego problemu jest wprowadzenie 
mechanizmu cookies. Inne podejścia to m.in. sesje po stronie serwera, ukryte 
parametry (gdy aktualna strona zawiera formularz) oraz parametry 
umieszczone w URL-u.
HTTP standardowo korzysta z portu nr 80 (TCP).

background image

HTTPS (ang. HyperText Transfer Protocol Secure)

 to 

szyfrowana wersja protokołu HTTP. Zamiast używać w komunikacji 
klient-serwer niezaszyfrowanego tekstu, szyfruje go za pomocą 
technologii SSL. Zapobiega to przechwytywaniu i zmienianiu 
przesyłanych danych.

HTTPS działa domyślnie na porcie nr 443 w protokole TCP.

Wywołania tego protokołu zaczynają się od https:, a zwykłego 
połączenia HTTP od http:. Protokół HTTP jest warstwę wyżej (na 
transporcie SSL), najpierw następuje więc wymiana kluczy SSL, a 
dopiero później żądanie HTTP. Powoduje to, że jeden adres IP może 
serwować tylko jedną domenę lub też tylko subdomeny danej 
domeny (zależnie od certyfikatu).

TLS (ang. Transport Layer Security)

 – przyjęte jako standard w 

Internecie rozwinięcie protokołu SSL (ang. Secure Socket Layer), w 
swojej pierwotnej wersji zaprojektowanego przez firmę Netscape 
Communications Corporation. TLS ma na celu zapewnienie poufności 
i integralności transmisji danych oraz zapewnienie uwierzytelnienia, 
opiera się na szyfrach asymetrycznych oraz certyfikatach standardu 
X.509.

Zaletą protokołu jest fakt, że działa on na warstwie TCP, więc można 
go łatwo zastosować do zabezpieczenia protokołów warstwy 
aplikacyjnej (np.: telnet, HTTP, gopher, POP3, IMAP, NNTP).

background image

HTML

 (ang. Hyper Text Markup Language

, pl. hipertekstowy język 

znaczników), to język składający się ze znaczników (ang. tags) oraz reguł ich 
poprawnego stosowania (gramatyki, syntaktyki), stosowany do pisania stron 
WWW. 

Wraz z rozwojem sieci WWW, a zwłaszcza jej upowszechnianiem, pojawiła się 
potrzeba dołączania do tekstów tabel, grafiki i plików multimedialnych, w 
wyniku czego zaczęły powstawać kolejne wersje HTML-u. Wersje te były 
rozwijane przez firmy produkujące przeglądarki stron WWW, bez wzajemnych 
konsultacji, co doprowadziło do częściowej niekompatybilności wersji HTML-u 
zaimplementowanych w przeglądarkach różnych producentów.

Próbą odpowiedzi na tę sytuację było stworzenie W3C czyli World Wide Web 
Consortium, organizacji która zajmuje się ustanawianiem wspólnych 
standardów HTML-u, a także innych zagadnień związanych z pisaniem stron 
WWW. Jego pierwsza wersja została opracowana przez Tima Berners-Lee w 
1989 roku, który w tym czasie był konsultantem do spraw oprogramowania 
pracującym dla CERN. 

<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01//EN"

           "http://www.w3.org/TR/html4/strict.dtd">

<html lang="pl">

<head>

    <meta http-equiv="Content-Type" content="text/html; charset=UTF-8">

    <title>Tytuł strony</title>

</head>

 

<body>

    <h1>Nagłówek pierwszego poziomu</h1>

    <p>

    Akapit (z ang. paragraph)<br>

    i jeszcze trochę tekstu w następnym wierszu<br>

    <a href="http://pl.wikipedia.org">

    a to link do Wikipedii.</a>

    </p>

</body>

</html>

background image

 JavaScript

 

JavaScript jest nowym językiem skryptowym dla 
dokumentów internetowych. Skrypty napisane za pomocą 
JavaScript mogą być umieszczane bezpośrednio na 
stronach HTML. Język daje obszerne możliwości 
wzbogacania stron w interesujące elementy. Na przykład 
można zdefiniować reakcję na zainicjowane przez 
czytelnika działania. Niektóre efekty jeszcze niedawno 
były możliwe jedynie przy użyciu CGI, teraz również w 
JavaScript.

<html> 
<head> My first JavaScript! </head> 

<body> <br> To jest normalny dokument HTML. <br> 

<script language="LiveScript"> 
document.write("To jest JavaScript!") 
</script> 

<br> I znowu dokument HTML. 
</body> 

</html>

 

<html> 
<head> 

<script language="JavaScript"> 
function pushbutton() { alert("Hello!"); } 
</script> 

</head>

 <body>
 <form> <input type="button" name="Button1" 
        value="Naciśnij mnie" onclick="pushbutton()">
 </form>
 </body>

</html> 

background image

CGI (ang. Common Gateway Interface)

 to znormalizowany interfejs, umożliwiający 

komunikację pomiędzy oprogramowaniem serwera WWW a innymi programami 
znajdującymi się na serwerze. Zazwyczaj program serwera WWW wysyła do 
przeglądarki statyczne dokumenty HTML. Za pomocą programów CGI można 
dynamicznie (na żądanie klienta) generować dokumenty HTML uzupełniając je np. 
treścią pobieraną z bazy danych.

Kaskadowe arkusze stylów (ang. Cascading Style Sheets, CSS)

 to język służący 

do opisu sposobu renderowania stron WWW. CSS został opracowany przez organizację 
W3C w 1996 r. Arkusz stylów CSS to lista dyrektyw (tzw. reguł) ustalających w jaki 
sposób ma zostać renderowana przez przeglądarkę internetową zawartość wybranego 
elementu (lub elementów) (X)HTML lub XML.

XML (ang. Extensible Markup Language)

 to uniwersalny język formalny 

przeznaczony do reprezentowania różnych danych w ustrukturalizowany sposób. XML 
jest niezależny od platformy, co umożliwia łatwą wymianę dokumentów pomiędzy 
różnymi systemami i znacząco przyczyniło się do popularności tego języka w dobie 
Internetu.

XHTML (ang. Extensible HyperText Markup Language, 

rozszerzalny 

hipertekstowy język znaczników) jest to język służący do tworzenia stron WWW 
ogólnego przeznaczenia. XHTML jest następcą języka HTML. Specyfikacje XHTML 
przygotowuje organizacja W3C.

PHP

– refleksywny skryptowy język programowania zaprojektowany do generowania 

dynamicznych stron internetowych. PHP najczęściej interpretuje skrypty po stronie 
serwera WWW, ale może być również używany z poziomu wiersza poleceń oraz w 
aplikacjach pracujących w trybie graficznym za pomocą biblioteki GTK+.

background image

World Wide Web Consortium

, w skrócie 

W3C

, to organizacja, która 

zajmuje się ustanawianiem standardów pisania i przesyłu stron WWW. Została 
założona 1 października 1994 roku przez Tima Berners-Lee, twórcę WWW 
oraz autora pierwszej przeglądarki internetowej i serwera WWW.

Najważniejsze zagadnienia, którymi zajmowała się lub zajmuje W3C

• HTML/XHTML/XForms - podstawowy język znaczników, stosowany do pisania stron 
WWW,

• CSS - kaskadowe arkusze stylów,
• DOM - Document Object Model - ustanowienie jednolitego systemu, w jaki sposób 
przeglądarki zarządzają wyświetlaniem i indeksowaniem elementów stron WWW,

• XML - język znaczników, na podstawie którego tworzone są aplikacje XML,
• HTTP - protokół przesyłania stron WWW,
• SVG - Scalable Vector Graphics - ogólny format grafiki wektorowej, która ma zastąpić 
technologię Flash,

• SMIL/TimeText - Synchronized Multimedia Integration Language - język, przy pomocy 
którego (wewnątrz XML) będzie można swobodnie manipulować plikami 
multimedialnymi i tekstem,

• XSL/XSLT/XPath/XPointer - style, transformacje i inne techniki z tym związane,
• WAI - dostępność stron WWW,
• i wiele, wiele innych.

background image

E-MAIL

Wszystko zaczęło się w roku 1971 w sposób, który trudno byłoby nazwać 
spektakularnym. Technik w BBN, Ray Tomlinson, przesłał e-mail między 
dwoma komputerami, które były połączone w sieci ARPAnet. Poszukując 
rzadko używanego znaku dla wyróżnienia poczty elektronicznej odkrył @ i 
w ten sposób ustanowił symbol nowej epoki. Kolejnym krokiem milowym w 
historii poczty elektronicznej było opracowane w roku 1981 przez Erica 
Allmana oprogramowanie Sendmail. Umożliwiło ono po raz pierwszy 
wysyłanie za pomocą programu pocztowego wiadomości jednocześnie do 
wielu sieci. Dzisiejszy sukces e-maila był nie do przewidzenia w roku 1971 i 
wynalazek Thomlinsona zasłużył sobie tylko na kilka wzmianek w prasie. 
Dziś nie sposób wyobrazić sobie życia bez poczty elektronicznej.Poczta 
elektroniczna opiera się na trzech protokołach - SMTP do wysyłania oraz 
POP i IMAP do odbioru. 

IMAP (Internet Message Access Protocol)

 to internetowy protokół 

pocztowy zaprojektowany jako następca POP3.

W przeciwieństwie do POP3, który umożliwia jedynie pobieranie i 
kasowanie poczty, IMAP pozwala na zarządzanie wieloma folderami 
pocztowymi oraz pobieranie i operowanie na listach znajdujących się na 
zdalnym serwerze.
IMAP pozwala na ściągnięcie nagłówków wiadomości i wybranie, które z 
wiadomości chcemy ściągnąć na komputer lokalny. Pozwala na 
wykonywanie wielu operacji, zarządzanie folderami i wiadomościami.

background image

POP3 to aktualna wersja 
standardu Post Office 
Protocol. Nie chodzimy 
na pocztę, lecz łączymy 
się na krótko z 
serwerem, ,,bierzemy'' 
czekające na nas listy, 
po czym się rozłączamy. 
Czytamy je i 
redagujemy odpowiedzi 
bez konieczności 
utrzymywania 
połączenia z 
Internetem, co w 
przypadku łączenia 
przez modem daje 
znaczące oszczędności. 
Potem łączymy się 
znów na krótko5.4, by 
wysłać przygotowane 
odpowiedzi.

background image

Zagrożenia płynące z Internetu

Bezpieczeństwo to zagadnienie istotne zarówno dla firm jak i dla 
indywidualnych użytkowników. Internet to znakomite narzędzie 
zarówno do dystrybucji informacji o sobie jak i otrzymywaniu ich od 
innych, jednak z wszelkimi dobrodziejstwami globalnej sieci związana 
jest również pokaźna liczba zagrożeń. Przestępstwa komputerowe 
takie jak kradzież informacji czy celowe niszczenie danych to tylko 
niektóre z nich.

Najlepszym sposobem uniknięcia takiego biegu wydarzeń jest 
podjęcie działań prewencyjnych związanych z pozbawieniem 
możliwości uzyskania dostępu przez sieć do maszyny. To pole 
zastosowań dla firewalli (ścian ogniowych, zapór ogniowych).

Ogólnie metody włamań można podzielić na:

• ataki z zewnątrz sieci lokalnej
• ataki z wnętrza sieci lokalnej
• ataki pośrednie

background image

Ataki z zewnątrz

Są to ataki, których najczęstszą formą są zakłócenia stabilnej pracy. 
Przejmowanie kontroli nad systemami odbywa się z zewnątrz sieci 
lokalnej, na przykład z Internetu. Można w tym celu wykorzystać lukę 
w systemie zabezpieczeń, błąd serwisu sieciowego lub po prostu 
słaby poziom zabezpieczeń firmy. Do najczęstszych tego typu ataków 
należą:

• Ataki na poszczególne komputery, bądź serwer główny - to 
jeden z najczęstszych typów ataków. Konsekwencjami są zwykle 
przerwy w pracy sieci lokalnej, uszkodzenie poszczególnych (bądź 
wszystkich) końcówek serwera, a co za tym idzie, całej sieci; co 
powoduje wielogodzinne przerwy w pracy.

• Ataki na serwer http - to ataki, których efektem jest utrata 
danych witryny internetowej lub uzupełnienie jej treściami 
kompromitującymi firmę.

background image

Spoofing (maskarada)

Metoda ta stosowana jest zwykle przez doświadczonych i 
wyrafinowanych włamywaczy. Polega na podszyciu się włamywacza 
pod jednego z użytkowników systemu, który posiada własny numer IP 
(numer identyfikujący użytkownika). Technika ta ma na celu omijanie 
wszelkich zabezpieczeń, jakie zastosował administrator w sieci 
wewnętrznej. Jest bardzo skuteczna nawet, gdy bywa 
wykorzystywana przeciwko markowym firewallom, switchom i 
ruterom. Dzięki niej możliwe jest "udawanie" dowolnego użytkownika, 
a co za tym idzie "podszywanie" się i wysyłanie sfałszowanych 
informacji. Ze swego komputera haker może dokonać przekierowania 
źródłowego adresu IP i "podszyć się" pod komputer sieciowy. 

background image

Ataki z wnętrza sieci

Ataki z wnętrza sieci należą do jednych z groźniejszych. Włamanie 
następuje z wnętrza sieci lokalnej poprzez wykorzystanie konta 
jakiegoś użytkownika, czy też luki w zabezpieczeniach systemu 
autoryzacji użytkowników. Najczęściej włamania tego typu są 
udziałem pracowników firmy, a nie użytkowników komputerów spoza 
jej obrębu, gdyż dostęp do końcówki Sieci takiej osoby rzadko 
pozostaje zauważony.

Ataki pośrednie

Hakerzy stosują tu dość wyrafinowane metody, czego najlepszym 
przykładem są konie trojańskie. To grupa ataków najtrudniejszych do 
wykrycia. "Podłożenie" konia trojańskiego otwierającego dostęp do 
całej sieci może odbyć się za pośrednictwem poczty elektronicznej 
czy też podczas ściągania programu, który pochodzi z niepewnego 
źródła. Użytkownik prawie nigdy nie jest świadom tego, że ściągając 
na przykład najnowszą wersję odtwarzacza plików mp3 faktycznie 
otwiera dostęp do swojego komputera, a potem całej Sieci osobom 
niepowołanym.

background image

Packet sniffing (podsłuchiwanie pakietów)

Jest to metoda zdobywania systemu polegająca na przechwytywaniu 
przesyłanych przez sieć niezaszyfrowanych informacji. Można w ten 
sposób zdobyć hasło użytkownika i uzyskać dostęp do danego konta. 
Ataki polegające na "biernym węszeniu" stały się powszechne w 
Internecie. Stanowią one zazwyczaj wstęp do aktywnego 
przechwytywania cudzych plików. Aby rozpocząć tego rodzaju atak, 
haker musi zdobyć identyfikator i hasło legalnego użytkownika, a 
następnie zalogować się do Sieci. Kiedy wykona już te posunięcia, 
może bezkarnie podglądać i kopiować transmisje pakietów, 
zdobywając jednocześnie informacje o funkcjonowaniu danej sieci 
lokalnej.

Ataki korzystające z autoryzowanego dostępu

Są to ataki często stosowane przez osoby próbujące się włamać do 
sieci opartych na systemie operacyjnym, korzystającym z 
mechanizmu autoryzowanego dostępu (takim jak UNIX, VMS i 
Windows NT). Duże niebezpieczeństwo niesie ze sobą tworzenie 
plików zawierających nazwy serwerów, do których można uzyskać 
dostęp bez podawania hasła.

background image
background image

Czym jest firewall?

Firewall składa się z pewnej liczby komponentów sieciowych 
(sprzętowych i programowych) w punkcie styku dwóch sieci. 
Zapewnia zachowanie reguł bezpieczeństwa między siecią prywatną, 
a niezabezpieczoną siecią publiczną, na przykład Internetem.

Właśnie ta zapora decyduje, które z usług w sieci prywatnej dostępne 
są z zewnątrz i z jakich usług niezabezpieczonej sieci publicznej 
można korzystać z poziomu sieci prywatnej. Aby firewall był 
skuteczny, cały ruch danych między siecią prywatną a Internetem 
musi przechodzić przez niego.

Firewall nie jest, jak router, bastion host czy inne urządzenie, częścią 
sieci. Jest jedynie komponentem logicznym, który oddziela sieć 
prywatną od publicznej. Bez firewalla każdy host w sieci prywatnej 
byłby całkowicie bezbronny wobec ataków z zewnątrz.

background image

Funkcje firewalla

Firewall spełnia wiele funkcji, których zakres może 
obejmować:

• kontrolę dostępu do usług systemu,
• ograniczenie liczby dostępnych usług,
• kontrolowanie połączeń sieciowych,
• skanowanie serwisów sieciowych,
• wykrywanie i eliminowanie prób włamania do 
systemu,

• zabezpieczenie przesyłanych informacji,
• nadzorowanie pracy routerów,
• ochronę systemu przed niebezpiecznymi 
programami,

• ukrywanie struktury wewnętrznej systemu,
• monitorowanie bieżącego stanu komunikacji 
sieciowej,

• rejestrowanie ważnych zdarzeń,
• równoważenie obciążenia serwerów.

background image

Źródła

Komar, B. (2002). TCP/IP dla każdego. Gliwice: 
Helion 

Sportac, M. (1999). Sieci komputerowe, księga 
eksperta. Gliwice: Helion

http://brain.fuw.edu.pl/~durka/KIC/i.html

http://sieci-komputerowe.w.interia.pl/index.html

http://pl.wikipedia.org/


Document Outline