W 1957 w reakcji na wystrzelenie przez Związek Radziecki Sputnika, pierwszego sztucznego satelity Ziemi, Departament Obrony USA powołuje
ARPA (Advanced Research Projects Agency) -
agencję ds. zaawansowanych przedsięwzięć
badawczych
• Zadaniem ARPA było stworzenie sieci
komunikacyjnej dla celów wojskowych, która
mogłaby zadziałać nawet w sytuacji zniszczenia
tradycyjnych środków komunikacji - w wyniku
ewentualnego ataku nuklearnego.
W 1969 roku powstała eksperymentalna sieć
ARPAnet, składająca się z czterech połączonych
ze sobą komputerów mieszczących się w
wybranych instytucjach naukowych: Uniwersytet
Kalifornijski w Los Angeles, Uniwersytet
Kalifornijski w Santa Barbara, Instytut Stanforda
(Stanford Research Institute) oraz Uniwersytet
Stanowy Utah.
• Rozwój ARPANetu w ośrodkach akademickich
Schemat sieci ARPAnet
– 4 węzły, 50 kbit/s
W 1970 następuje uruchomienie pierwszej wersji
protokołu FTP (File Transfer Protocol)
pozwalającego na przesyłanie przez sieć plików w
różnych formatach.
• W 1972 Ray Tomlinson z BBN Inc. tworzy pierwszy
program pocztowy (wybiera @ jako znak
rozdzielający nazwę użytkownika od adresu).
ARPA zostaje przekształcona w DARPA. ARPAnet
używa protokołu NCP. Powstaje program do pracy
zdalnej Telnet.
1972 - dalszy rozwój ARPAnet
– 23 węzły, 50 kbit/s
W 1973 rozpoczynają się pracę nad protokołem
TCP/IP. Powstaje FTP oraz pierwsze odległe węzły
ARPANET-u (Norwegia i Wielka Brytania).
• W 1974 pojawia się po raz pierwszy termin
INTERNET
• W 1976 Dr. Robert Metcalfe tworzy Ethernet.
Powstaje łącze satelitarne pomiędzy USA i Europą
(SATNET).
– Używane są łącza radiowe (packet radio). Powstaje
program UUCP (Unix to Unix CoPy).
1977 - TheoryNet łączy pocztą elektroniczną 100
naukowców, powstaje pierwsza lista dyskusyjna.
Opracowane zostają protokoły TCP i IP
(Transmission Control Protocol i Internet Protocol)
- podstawy komunikacji w Internecie.
• 27 października 1980 oprogramowanie typu
„wirus” zawiesza ARPANET
• 1983 - Od ARPANET odłącza się jej część
wojskowa tworząc MILNET. W ARPANET zaczyna
być wykorzystywany protokół TCP/IP. Powstaje
prawdziwy (dzisiejszy z punktu widzenia
technologii) Intenet.
W 1986 w Polsce powstaje FIDOnet
• w 1987 BITNET i CSNET łączą się w Corporation
for Research and Educational Networking (CREN).
– 28 174 węzły, 50 kbit/s
W 1988 łącza T1 nie wystarczają. Po poważnym
ataku robaka internetowego założony zostaje
CERT.
– węzły: 56 000, łącza: ARPANET 50 kbit/s, CSNET 56
kbit/s, NSFNET T1
• W 1990 powstaje koncepcja łącz T3 (45 Mbit/s).
ARPANET zostaje zastąpiony łączami NSFNET-u.
• COCOM w 1990 znosi większość restrykcji, Polska
uzyskuje członkostwo w EARN. Powstają
regionalne węzły sieci EARN w Warszawie,
Wrocławiu i Krakowie.
1990 - Tim Berners-Lee tworzy World Wide Web -
system pozwalający prezentować informacje w
formie tekstu, grafiki i dźwięku. WWW powstało z
myślą o fizykach CERN. Wraz z rozwojem
technologii zwiększa się szybkość przesyłu
danych i liczba użytkowników Internetu.
– 313 000 węzły, łącza: T1 i T3
• 1995 - Marc Andreessen tworzy Netscape
Navigator. Microsoft ogłasza start usługi MSN.
Zaczyna się "wojna przeglądarek". Pojawia się
RealAudio - technologia przesyłania dźwięku w
czasie rzeczywistym. Sun prezentuje język Java.
W 1995 postępuje komercjalizacja Internetu:
pierwsi ISP, opłaty za domeny.
• W 1996 Internet działa w znacznej mierze w
oparciu o niezależnych ISP. W Polsce TPSA
zostaje ISP.
• W 1999 ruszają obliczenia rozproszone w
Internecie: program SETI@Home. Pierwsza
cyberwojna: Jugosławia – NATO.
• W 2000 podpis elektroniczny wchodzi do użycia.
Powstaje technologia WAP (Wireless Application
Protocol), która umożliwia korzystanie z Internetu
przy pomocy telefonów komórkowych.
– węzły: > 60 milionów
• IBM
– model organizacji
pracy
– specjalizacja
– obniżka kosztów
– nowa jakość usług
– bezpieczeństwo
– prawa dostępu
• UNILEVER
– mobilność
pracowników
– bezpieczeństwo
danych
• General Motors
– organizacja pracy
– just in time
– oszczędności
– bezpieczeństwo
– sytuacja w Polsce
– kultura pracy
• ZE (Zakład
Energetyczny)
– niezawodna
komunikacja pomiędzy
stacjami
energetycznymi
• Usługa polegająca na przeniesieniu wiadomości
• szybkość, bezpieczeństwo, jakość, własna
infrastruktura
dostawcy internetu
• POLPAK
• TELENERGO
• NEOSTRADA
• INTERNETIA
• FUTURO
Naukowa Akademicka Sieć Komputerowa
(NASK)
Kabel współosiowy (koncentryczny, BNC)
– Składa się z dwóch przewodów koncentrycznie
umieszczonych jeden wewnątrz drugiego, co
zapewnia większą odporność na zakłócenia a tym
samym wyższą jakość transmisji. Jeden z nich
wykonany jest w postaci drutu lub linki miedzianej i
umieszczony w osi kabla (czasami zwany jest
przewodem gorącym), zaś drugi (ekran) stanowi
oplot
Skrętka nieekranowana (UTP –
Unshielded Twisted Pair)
– Kabel typu UTP jest zbudowany ze
skręconych ze sobą par przewodów i
tworzy linię zrównoważoną
(symetryczną).
– Skręcenie przewodów ze splotem 1
zwój na 6-10 cm chroni transmisję
przed interferencją otoczenia.
– Tego typu kabel jest powszechnie
stosowany w sieciach
informatycznych i telefonicznych,
przy czym istnieją różne technologie
splotu, a poszczególne skrętki mogą
mieć inny skręt.
Skrętka foliowana (FTP – Foiled
Twisted Pair)
– Jest to skrętka ekranowana za
pomocą folii z przewodem
uziemiającym. Przeznaczona jest
głównie do budowy sieci
komputerowych umiejscowionych w
ośrodkach o dużych zakłóceniach
elektromagnetycznych. Stosowana
jest również w sieciach Gigabit
Ethernet (1 Gb/s) przy
wykorzystaniu wszystkich czterech
par przewodów.
Skrętka ekranowana (STP – Shielded
Twisted Pair)
– Ekran kabla jest wykonany w postaci
oplotu i zewnętrznej koszulki ochronnej.
Jej zastosowanie wzrasta w świetle
nowych norm europejskich EMC w
zakresie emisji EMI (ElectroMagnetic
Interference). Można spotkać także
hybrydy tych rozwiązań:
• FFTP – każda para przewodów
otoczona jest osobnym ekranem z
folii, cały kabel jest również pokryty
folią.
• SFTP – każda para przewodów
otoczona jest osobnym ekranem z
folii, cały kabel pokryty jest oplotem
Kabel światłowodowy
• Wady:
– trudne w łączeniu, stosunkowo łatwe do
uszkodzenia, wibracja powoduje powstawanie
zakłóceń, z czasem tracą jakość.
• Zalety:
– odporne na interferencje, nie powodują interferencji,
małe tłumienie sygnałów (duży zasięg), szerokie
pasmo użyteczne (duża szybkość), lekkie i cienkie.
Fale radiowe – medium transmisyjne
• Częstotliwości radiowe: od 0 Hz do oko o 400 GHz
– EHF Extremely High Frequencies ~50 GHz radary, badania
naukowe
– SHF Super High Frequencies ~5 GHz satelity, mikrofale
– UHF Ultra High Frequencies ~500 MHz telewizja kablowa
– VHF Very High Frequencies ~50 MHz FM i TV
– HF High Frequencies ~5 MHz AM: fale krótkie
– MF Medium Frequencies ~500 kHz AM: fale średnie i d
ugie
– LF Low Frequencies ~50 kHz nawigacja
– VLF Very Low Frequencies ~5 kHz łączność podwodna
– VF Voice Frequencies ~500 Hz sygnały akustyczne
– ELF Extremely Low Frequencies ~50/60 Hz sieci
Energetyczne
Łączność satelitarna odbywa się w szerokim
zakresie częstotliwości radiowych od 0,3 GHz do
ponad 40 GHz i jest wykorzystywana w
telekomunikacji satelitarnej do komunikowania się
m.in. z naziemnymi (ruchomymi lub nie) obiektami.
• W stacjonarnych systemach satelitarnych przekaz
informacji pomiędzy abonamentami odbywa się za
pomocą (jednego lub kilku) satelitów
telekomunikacyjnych znajdujących się na orbitach
geostacjonarnych.
Systemy satelitarne
znalazły zastosowanie
w:
– naziemnych
satelitarnych stacjach
odbiorczych TV,
pracujących w
zakresach od 11 do 12
GHz, systemach z
terminalami VSAT
(Very Small Aperture
Terminal), które
pracują w zakresie od
12 do 14 GHz (pasmo
Ku) lub paśmie C
(od 4 do 6 GHz).
Topologie sieci:
Szyna, magistrala
Gwiazda
Pierścień
Drzewiasta
Ze względu na zasięg:
– lokalne (Local Area Network, LAN)
– rozległe (Wide Area Network, WAN)
• Ze względu na skalę zasięgu:
– miejskie (Metropolitan Area Network, MAN)
– regionalne
– krajowe
– globalne (Global Area Network, GAN)
• Ze względu na dostęp:
– otwarte (ogół użytkowników)
– zamknięte (określona grupa)
Systemy scentralizowane
Powstanie – lata 60 XX wieku
Systemy komputerowe klasy mainframe
• Dostęp użytkowników lokalnych (budynek,
kampus)
• Opracowane zostały pierwsze bazy danych i
systemy baz.
• Dane w trybie tekstowym, ograniczone wsparcie
dla języków narodowych
Instalacje zdalnego dostępu
Powstanie – przełom lat 60 i 70 XX wieku.
• Na potrzeby transmisji komputerowych
zaadaptowano linie telekomunikacyjne.
• Rozszerzono dostępności systemów
komputerowych poza daną lokalizację.
• Standaryzacja urządzeń zdalnego dostępu.
• Powstały nowe kategorie użytkowników
BBS – Bulletin Board System
Największą popularność biuletynów
elektronicznych datuje sie na lata 80-te XX wieku.
• Połączenie autonomicznych systemów
komputerowych.
• Powstaje UUCP - Unix-to-Unix Copy (Mike Lesk z
Bell Labs).
• BBS - Bulletin Board System
• Fora wymiany zasobów, informacji, poczty.
• Dostęp on-line tylko do najbliższego węzła.
• Systemy dostępu publicznego –
Newsletter
Email wymyslony w 1965 luiz pouzin , glenda schoreder, pat crisman
71 roy tomilson wymyslil imail w dzisiejszej postaci
Informacja, którą chcemy wysłać dzielona jest na
mniejsze części.
• Do każdej części dodawane są dodatkowe
informacje i staje się ona pakietem.
• Pakiet przygotowany do przesłania nazywamy
ramką (frame).
• Protokoły są regułami używanymi do
transmitowania i odbierania danych, aby umożliwić
realną komunikację.
• Reguły podlegają standardom ustalanym przez
komitet normalizacji IEEE.
Rysunek pierwszej sieci - autor Bob Metcalfe -
Xerox PARC (wczesne lata 70)
Adresowanie
– unikalne, 48-bitowy unikalny adres przypisany do
każdego adaptera - Internet Network Information
Center (INTERNIC).
– przykład: 00:08:00:e4:b1:02
– broadcast (rozgłaszanie): wszystkie bity 1
– multicast (przesyłanie): pierwszy bit jest 1
• Szerokość pasma: 10Mb/s, 100Mb/s, 1Gb/s
• Długość: 2500m (500m segmenty z 4
wzmacniaczami)
• Problem: algorytm przesyłania sygnału zapewnia
wystarczający dostęp
Jeżeli kolizja …
– „korek” (jam) przez 32 bity, następnie przestań
wysyłać ramkę (jabber)
– minimalna długość ramki to 64 bajty (nagłówek + 46
bajtów danych)
• zatrzymaj transmisję i spróbuj ponownie
– 1 raz: 0 lub 51.2 ms
– 2 raz: 0, 51.2, lub 102.4 ms
– 3raz: 51.2, 102.4, lub 153.6 ms
– n-ty raz: k x 51.2 ms, dla losowo wybranego
k=0..2n – 1
przestań po kilkunastu próbach (zazwyczaj 16)
Wtórnik (regenerator, ang. repeater) to urządzenie
stosowane w telekomunikacji do regeneracji
sygnału.
– W technologii Ethernet – hub, switch, router
Reguła 5-4-3-2-1
– pięć segmentów medium sieciowego
– cztery wtórniki lub koncentratory
– trzy segmenty zawierające hosty
– dwie sekcje łączy (bez hostów)
– jedna duża domena kolizyjna
– łącza telefoniczne:
• analogowe,
• cyfrowe (ISDN),
• hybrydowe (xDSL),
– telewizja kablowa,
– bezprzewodowe łącza radiowe,
– sieć energetyczna (PLC),
– łącza satelitarne.
ISDN (ang. Integrated Services Digital Network,
czyli sieć cyfrowa z integracją usług).
– Technologia sieci telekomunikacyjnych mająca na
celu wykorzystanie infrastruktury PSTN do
bezpośredniego udostępnienie usług cyfrowych
użytkownikom końcowym. Połączenia ISDN zalicza
się do grupy połączeń dodzwanianych.
– Podstawowa konfiguracja:
– BRA (basic): 2B+D
• (2 x 64 kbit/s + 16 kbit/s)
– PRA (primary): 30B+D
• (30 x 64 kbit/s + 16 kbit/s)
Łącza xDSL
• DSL (ang. Digital Subscriber Line) - cyfrowa linia
abonencka, rodzina technologii
szerokopasmowego dostępu do Internetu.
Standardowa prędkość odbierania danych waha
się od 128 Kbps do 24.000 Kbps, w zależności od
zastosowanej technologii DSL.
• Główne odmiany:
– HDSL (high bitrate)
2Mbit/s + 2Mbit/s,
– ADSL (asymmetric)
9 Mbit/s + 640 kbit/s,
– VDSL (very high bitrate)
52 Mbit/s + 52 Mbit/s.
Lacza PLC
• Power Line Communication (PLC) - pojęcie
używane w odniesieniu do zbioru technologii
umożliwiających transmisję danych przez sieć
elektroenergetyczną.
• Technologie te dają duże możliwości jeśli chodzi o
dostęp do internetu w budynkach, w których brak
jest odpowiedniej instalacji do sieci komputerowej,
ale jest instalacja elektryczna.
• Sieć energetyczna jako ośrodek transmisyjny
charakteryzuje się bardzo silną niestabilnością.
• Przepływność: do 2,5 Mb/s (zależne od lokalizacji).
Protokoły komunikacji w sieci
lokalnej:
– IPX/SPX (Internetwork Packet
eXchange/Sequenced
Packet eXchange)
– TCP/IP (Transmission Control
Protocol/Internet Protocol)
– NetBIOS Sieci IBM
– NetBEUI Sieci MS Windows
Networking
– FIP - Fast Infrared Protocol
Sieciowe systemy operacyjne
• UNIX - pierwszy sieciowy system
operacyjny
• Novell NetWare - system firmy NOVELL,
posiada dwie odmiany Personal Netware
oraz Novell NetWare
• Lantastic - system firmy Artisoft,
przeznaczony pod różne systemy
operacyjne i sieciowe
• MAC OSX
Sieciowe systemy operacyjne
• MS Windows - system firmy Microsoft,
różne odmiany sieciowe (WfG 3.11, 9.x,
NT, ME, 2000, XP, 2003, Vista)
• IBM - OS/2 LAN Server
• LINUX – dynamicznie rozwijającą się
gałąź UNIX-a
system Novell NetWare
• Novell - wiodąca firma w dziedzinie technologii i
produkcji sieci lokalnych - pierwszy firma, która
wprowadziła:
– oprogramowanie umożliwiające przetwarzanie
danych na wielu platformach sprzętowych i
programowych,
– obsługę wielu różnych topologii sieci oraz metod
komunikacji między nimi,
– obsługę systemu OS/2,
– wielozadaniową wersję systemu DOS w pełni
wykonywalną z pamięci DOS.
Uniwersalność produktów firmy Novell -
współistnieją oraz ze środowiskami komputerów
Apple, DEC, HP, IBM, a także z systemem UNIX
• Małe grupy robocze, jak i również wielkie sieci
ogarniające całe przedsiębiorstwa
• Sieciowy system operacyjny NetWare nie wymaga
zainstalowania na serwerze żadnego innego
systemu operacyjnego
• Aplikacje mogą pracować na stacji roboczej lub na
Serwerze
System operacyjny NetWare obsługuje od 2 do
kilkuset użytkowników w sieci
• Możliwość obsługi systemów operacyjnych DOS,
Windows, Macintosh, OS/2, Unix
• Możliwość łączenia sieci lokalnych
• Sieci lokalne można przekształcać w sieci globalne
• Różnorodne usługi sieciowe, poczta, wymiana
plików, wydruk itp.
• Połączenie przy użyciu linii telefonicznej i modemu
System LANTASTIC
• Najczęściej spotykany w sieciach peer-to-peer,
bazujących na systemach DOS i Windows.
• Obsługuje do 300 komputerów PC połączonych w
sieć lokalną w technologii Ethernet.
• Komunikacja przebiega za pomocą protokołu
NetBIOS
• Dostępne wersje:
– LANtastic for Windows
– LANtastic for NetWare
– LANtastic for Macintosh
– LANtastic Z (dwa komputera, połączone za pomocą
portów szeregowych lub równoległych)
© D. Czerwiński 46
Systemy UNIX
• System Unix jest to wielozadaniowy,
wielodostępny system operacyjny
• Systemy NetWare i LAN Manager mogą działać
jako procesy w systemie UNIX
• Komputer z system Unix może funkcjonować jako
serwer
• System Unix charakteryzuje się dużą
elastycznością, stabilnością oraz wydajnością
• System dla sieci lokalnych i globalnych
• Istnieje wiele wersji tego systemu: HP-UX, Sun-
Solaris, Convex, Xenix, System V, Free BSD, Linux
© D. Czerwiński 47
Systemy sieciowe firmy IBM
• Siec lokalna jako system - użytkownik sieci
lokalnej powinien mieć spójny widok zasobów
systemowych.
• Elastyczność połączeń - dowolny protokół
sieciowy.
• W pełni funkcjonalny system zdalnego dostępu za
pomocą linii telefonicznej.
• Możliwość dostępu do sieci różnego typu.
• LAN server jest głównym sieciowym systemem
operacyjnym oparty na systemie OS/2 Warp
MS LAN Manager
• LAN Manager - pierwsza platformą typu klientserwer
opracowana przez Microsoft
• Może obecnie funkcjonować z systemami, np.: MSDOS,
OS/2 UNIX, VMS, Macintosh
• Łatwy w instalacji (trzeba posiadać informację o
konfiguracji domen w sieci)
• Zawiera kompletny zastaw narzędzi służących do
administrowania, zarządzania siecią oraz jej
diagnostyki
Adresowanie hierarchiczne:
– każdy przełącznik ma swój unikalny adres w WAN,
– każda stacja sieciowa ma swój unikalny adres w
sieci LAN,
– pełny adres w WAN składa się z dwóch części:
adresu przełącznika + adresu stacji sieciowej,
– w praktyce pełny adres to długa liczba całkowita
(binarna konkatenacja obu części adresów)
przełącznik wybiera trasę na podstawie adresu
odbiorcy,
• przełącznik zazwyczaj nie posiada pełnej listy tras,
• przełącznik posiada jedynie tablicę następnego
etapu,
• wybór trasy jest niezależny od adresu nadawcy
(rozwiązanie często stosowane w rzeczywistości).
Wyznaczanie tablicy tras:
– statyczne (raz – przy uruchomieniu przełącznika),
– dynamiczne (przy uruchomieniu i w razie zmian w
stanie sieci),
• Obliczanie najkrótszych tras algorytm E. Dijkstry:
– Algorytm oblicza najkrótsze ścieżki pomiędzy
wierzchołkami grafu sieci wykorzystując wagi
przypisane krawędziom grafu.
– Wagi to liczby reprezentujące odległość,
przepustowość łącza, koszt użytkowania lub inne
parametry.
Routing statyczny
Przewidywalny – trasa po
której pakiet jest przesyłany
jest dobrze znana i może być
kontrolowana.
• Łącza nie są dodatkowo
obciążone wiadomościami
służącymi do routowania.
• Łatwe do skonfigurowania w
małych sieciach.
• Brak skalowalności
• Brak obsługi redundantnych
połączeń
• Nieumiejętność dostosowania
się do dynamicznych zmian w
konfiguracji sieci
routing dynamiczny
Skalowalność
• Zdolność dostosowania się do
zmian topologii sieci
• Łatwość konfiguracji – nie
popełniamy błędów
• Większy stopień zawiłości
działania sieci. Im lepiej
protokół reaguje na zmiany w
sieci tym bardziej
skomplikowany musi być –
trudności w implementacji –
różnice pomiędzy sprzętem od
różnych producentów
• Konieczność okresowej
wymiany danych to z punktu
widzenia użytkownika
niepotrzebne obciążenie sieci.
Protokoły warstwy transportu: protokół
sterowania transmisją w sieci (TCP/IP) i protokół
datagramów użytkownika (UDP), które są częścią
zestawu protokołów TCP/IP
• Protokoły warstwy aplikacyjnej: protokół
przesyłania plików (FTP), prosty protokół
przysłania poczty (SMTP), usługi nazewnicze
domen (DNS), telnet, protokół przesyłania
hipertekstu (HTTP), prosty protokół zarządzania
siecią (SNMP), które także są częścią zestawu
protokołów TCP/IP
Protokół TCP/IP
• Świadczy usługi aplikacyjne (warstwa Process)
takie jak:
– FTP - File Transfer Protocol
– TELNET - Terminal Emulation
– SMTP - Simple Mail Transfer Protocol
– SNMP - Simple Network Managment Protocol
– NFS - Network File System
– HTTP - Hyper Text Transfer Protocol
Adres IP jest 32-bitową liczbą całkowitą
Adres IP składa się z dwóch części
– prefix – jest to numer sieci w sieci rozległej
– suffix – jest to numer danego węzła
prefix128.10.2.sufix 30
Początkowo wszystkie adresy IP były zarządzane
bezpośrednio przez IANA
• Wielkie firmy, jak Xerox, Ford czy IBM
automatycznie otrzymywały po ponad 16 mln
adresów internetowych, nawet jeżeli tak duża
liczba nie była im potrzebna.
• Ze względu na marnotrawstwo oraz
niespodziewanie duże zapotrzebowanie na
adresację internetową z całego świata zmieniono
zasady i powołano do życia organizacje
regionalne, których zadaniem stało się
nadzorowanie wykorzystania dostępnych adresów
Maska podsieci, maska adresu (ang. subnetwork
mask, address mask) - liczba służąca do
wyodrębnienia w adresie IP części sieciowej od
części hosta.
Protokoły ARP i RARP
• Protokół ARP (Address Resolution Protocol) -
protokół odwzorowania adresów
– każdy komputer w sieci posiada 32 bitowy adres IP
oraz 48 bitowy adres fizyczny przypisany w trakcie
produkcji
– IP na fizyczny = ARP
• Protokół RARP (Reverse Address Resolution
Protocol) - protokół odwrotnego odwzorowania
adresów
– fizyczny na IP = RARP
W swej fazie akademickiej, Internet był w
gruncie rzeczy sposobem komunikacji, dzięki
poczcie elektronicznej, oraz kanałem do
przesyłania plików z jednego miejsca w inne.
• Stąd też, pierwsze próby doskonalenia
tworzonych katalogów zasobów sieciowych
koncentrowały się na systemie „Gopher" i
jego procedurach wyszukiwania informacji,
wykorzystujących różnie nazywane systemy,
jak np. Archie czy Veronica.
• Obecnie zostały one prawie całkowicie
zastąpione przez wprowadzenie protokołu
HTTP, sieciowej pajęczyny WWW (World Wide
Web) i przeglądarek do oglądania jej
zasobów.
Jedną z najbardziej użytecznych, jest klasyfikacja,
którą opracowali Jan Alexander i Marsha Ann Tate,
autorzy Mądrości Web'u (Web Wisdom).
• Stosują oni następujący układ kategorii:
– advocacy web pages - strony wspierające,
popierające, zalecające
– business/marketing web pages - strony firmowe i
promocyjne
– news web pages - strony zawierające wiadomości
– informational web pages - strony informacyjne
– personal web pages - strony prywatne
System zarządzania bazą danych (SZBD
Modele baz danych
Hierarchiczny
Użytkownik postrzega dane w postaci zbioru struktur
drzewiastych a operatory służące do manipulowania
zasobem zawierają operatory pokonywania ścieżek
w górę i w dół po tych strukturach (struktura dziecko
rodzic).
– Model hierarchiczny stosuje dwa typy struktur
danych:
• typy rekordów (struktura danych, złożona
ze zbioru nazwanych pól),
• związki nadrzędny-podrzędny (Każde pole
jest używane do przechowywania prostego
atrybutu i jest mu przyporządkowany typ
danych).
Model relacyjny
Model oparty na matematycznym pojęciu relacji tj. na
podzbiorze iloczynu kartezjańskiego
Definicja SQL
SQL - Structured Query Language; database sub-language
(niepełny język obsługi baz danych (bez kontroli
sterowania)).
SQL jest językiem obsługi baz danych (RBD)
zaimplementowanym w systemach zarządzania bazami
danych (SZDB)
SQL jest przeznaczony do definiowania struktur danych,
wyszukiwania danych oraz operacji na danych. Posiada
on akceptację ANSI oraz standard ISO. W praktyce jest
standardowym językiem zapytań dla relacyjnych baz
danych.
80
SQL - cechy
Cechy języka SQL
– jest językiem wysokiego poziomu (4GL) opartym na
słownictwie języka angielskiego, a jego wyrażenia mają
określoną strukturę,
– jest językiem deklaratywnym (nieproceduralnym);
zorientowanym na wynik (użytkownik definiuje co chce
otrzymać, ale nie pisze jak),
– zawiera logikę trójwartościową,
– umożliwia definiowanie struktur danych, wyszukiwanie
danych, oraz operacje na danych,
– nie posiada instrukcji sterujących wykonaniem programu,
– nie dopuszcza rekurencji.
Do 2000 – dominują prymitywna wirusy
plikowe, występują wirusy dyskowe
• 2001 – najpopularniejsze są robaki
internetowe, rozpowszechniające się przy
użyciu poczty elektronicznej. Błyskawiczne
powielanie się robaka sieciowego
powoduje awarie serwerów
• 2003 – masowy zalew spamu
• 2004 – epidemia spyware i natrętnych
reklam. Rozpowszechnianie się koni
trojańskich
6
• 2005 – precyzyjne ataki internetowych
przestępców mające na celu kradzież poufnych
informacji i danych użytkownika. Rozwój
rootkitów.
• 2006 – sieci komputerowych zombie obejmują od 7
do 25 % hostów podłączonych do Internetu. Ataki
komputerów zombie powodują duże szkody.
• 2007 – phishing, zagrożenia nowego typu
wykorzystujące strony WWW, błędy przeglądarek,
naiwność internautów oraz znane do tej pory
technologie koni trojańskich, backdoor-ów i
zombie.
Należy zwrócić uwagę, że aż 78% sytuacji
związanych z utratą dostępu do danych we
wszystkich systemach komputerowych jest
powodowane problemami ze sprzętem.
• Uszkodzenia systemów dyskowych niosą za sobą
największe ryzyko związane z utratą dostępu do
danych, a nawet z ich bezpowrotną stratą.
Do najbardziej znanych należą:
– skanery – narzędzia wykrywające słabe punkty
systemu,
– exploity – programy umożliwiające przejęcie kontroli
nad systemem informatycznym i zdalne nim
administrowanie,
– trojany - programy destrukcyjne dołączane do
popularnych programów użytkowych, zazwyczaj
ściąganych przez użytkowników z sieci Internet.
Jednym z najbardziej znanych na świecie jest ITIL
(IT Infrastructure Library), którego integralną
częścią jest Security Management (Zarządzanie
Bezpieczeństwem).
• ITIL został opracowany przez CCTA (Central
Computer and Telecommunications Agency) na
zlecenie rządu Wielkiej Brytanii.
• W Polsce największe instytucje i organizacje (m.in.
NBP, PKO SA i inne), w których bezpieczeństwo
systemów informatycznych jest priorytetem,
również korzystają z tego zbioru dobrych praktyk
Najbardziej rozpowszechniony jest spam za
pośrednictwem poczty elektronicznej oraz w
Usenecie
Walka ze spamem
• Rozwiązania techniczne
– specjalistyczne urządzenia do wykrywania spamu,
fizyczne połączenia sieci uniemożliwiające kontakt z
siecią globalną
• Rozwiązania programowe
– oprogramowanie antyspamowe, programy pocztowe
z wbudowanymi filtrami antyspamowymi, wymagana
autoryzacja (SMTP AUTH), graylisting, DNS Black
List
• Rozwiązania prawne
– Istnieją też na świecie specjalne prawa przeciwko
spamowi, np. w Ohio odbiorcy indywidualni mogą
dochodzić po 100 dolarów + koszty sądowe za każdy
niechciany e-mail do granicy 50 000 dolarów dla
użytko
Sieci lokalne
– Użytkownik w sieciach firmowych stosunkowo
dobrze zabezpieczony, znana tożsamość każdego
użytkownika pozwala na jego identyfikację,
zainstalowane oprogramowanie antywirusowe,
antyspyware i firewall, ograniczone uprawnienia
użytkownika
– Użytkownik w sieciach osiedlowych – stosunkowo
słabo zabezpieczony, mała świadomość
niebezpieczeństw związanych z pracą w sieci, duża
anonimowość użytkownikówwnika i 500 000 dolarów dla ISP
Sieci rozległe
– Użytkownik zabezpieczony w zależności od stopnia
posiadania świadomości na temat zagrożeń.
Możliwa jest pełna anonimowość użytkowników.
Ilość zagrożeń sieciowych znacznie większa aniżeli
w sieciach lokalnych.
– Sieci firmowe, zazwyczaj dobrze chronione
odpowiednim oprogramowaniem, lub też całkowicie
wydzielone.
Nadzór nad informacją
• Odpowiednim środkiem ochrony
teleinformatycznej jest m.in. fizyczne oddzielenie
sieci od Internetu, wydzielenie odpowiednio
wzmocnionego pomieszczenia w strefie
bezpieczeństwa (ewentualnie w specjalnej strefie
bezpieczeństwa), czy zastosowanie urządzeń o
obniżonym poziomie emisji elektromagnetycznej,
zgodnych z normą TEMPEST (Temporary
Emanation and Spurious Transmission).
44
Nadzór nad informacją
• Amerykańska norma TEMPEST powstała w latach
50 -tych na zlecenie Pentagonu w ramach
programu zabezpieczenia przez niekontrolowaną
emisją ujawniającą.
• Technologia dotycząca tej normy była wielokrotnie
modyfikowana, a jaj ujawnienie rząd USA
umożliwił dopiero w latach 70 i 80 -tych ubiegłego
wieku.
• W 1985 r. holenderski naukowiec Wim van Eck
opublikował raport ze swoich badań na tym polu.
Najpopularniejszy przykład zastosowania systemu
TEMPEST odnosi się do monitorów CRT.
• Obecnie TEMPEST nadzoruje Agencja
Bezpieczeństwa Narodowego (NSA) Stanów
Zjednoczonych.
23
45
Nadzór nad informacją
• Produkty służące do przetwarzania w systemach
informacji niejawnych, muszą spełniać określone
w przepisach państwowych wymogi
bezpieczeństwa, muszą także uzyskać odpowiedni
certyfikat.
• Departament Bezpieczeństwa Teleinformatycznego
Agencji Bezpieczeństwa Wewnętrznego certyfikuje
produkty, pobierając za to opłaty. Wysokość opłat
pobieranych przez ABW określa Rozporządzenie
Prezesa Rady Ministrów z dnia 30 września 2005 r.
w spawie wysokości opłat za przeprowadzanie
przez służbę ochrony państwa czynności z zakresu
bezpieczeństwa teleinformatycznego (Dz. U. Nr 200
Zgodnie z przepisami moc kryptograficzna przy
przesyłaniu danych zawierających informacje
niejawne musi być tym większa, im wyższe są
klauzule tajności dla przesyłanych informacji. ABW
zaleca, by przy przetwarzaniu informacji
niejawnych stanowiących tajemnicę państwową
(klauzula tajne "O" lub ściśle tajne "OO") stosować
rozwiązania sprzętowe gwarantujące ochronę
algorytmów i kluczy kryptograficznych.
Komputerowi włamywacze
• Kevin Mitnick
• Za swoje przestępstwa został skazany na
wieloletnie pozbawienie wolności. 15 lutego 1995
roku FBI przy pomocy dziennikarza
komputerowego Johna Markoffa i Tsutomu
Shimomury aresztowało go.
• Został oskarżony o włamanie na terenie USA do
kilku ważnych systemów komputerowych. Nigdy
jednak nie zarzucono mu czerpania korzyści
materialnych z crackingu.
• Po aresztowaniu Mitnick spędził w areszcie cztery i
pół roku przed wydaniem wyroku.
Rodzaje źródeł
– dokumentalne źródła informacji: dokumenty;
– niedokumentalne źródła informacji:
– instytucjonalne ( np. biblioteki, targi, wystawy..)
– personalne : badacze, specjaliści, także
uczestnictwo w różnych zorganizowanych formach
wymiany informacji i kontakty nieformalne
( zjawisko tzw. niewidzialnych uniwersytetów
"Invisible college")
Niewidzialny uniwersytet
• Prekursor brytyjskiego Royal
Society. Tworzyła go grupa
naukowców Robert Boyle, John
Wilkins, John Wallis, John
Evelyn, Robert Hooke,
Christopher Wren i William Petty
Projekt Gutenberg
• Inicjatywa polegająca na umieszczeniu w
Internecie elektronicznych wersji książek
istniejących w wersji papierowej.
• Według danych na rok 2006 projekt udostępnił
czytelnikom około 17 tysięcy darmowych książek
elektronicznych.
• Projekt Gutenberg został rozpoczęty w roku 1971
przez Michaela Harta.
• Podstawowe formaty, w których udostępnia się
publikacje tekstowe to:
– TXT (niesformatowany tekst) — stosunkowo rzadko
używany ze względu na brak możliwości
wyróżniania fragmentów tekstu (stosowanego w
oryginalnych publikac
– RTF (ang. Rich Text Format) — format umożliwiający
uproszczone formatowanie tekstu, w zależności do
ustawień parametrów dokumentu może słabo lub też
lepiej zachowywać oryginalny wygląd
– HTML (ang. HyperText Markup Language) —
umożliwia szybką prezentację publikacji poprzez
Internet, podobnie jak RTF umożliwiając stosowanie
formatowania oraz umieszczania obrazków, ale
również podobnie nie zachowujący oryginalnego
wyglądu dokumentu.
– PDF (ang. Portable Document Format) — format
umożliwiający najwierniejszą prezentację
dokumentu, jednak zazwyczaj objętość pliku
większa niż poprzednich.
– DjVu — format graficzny, a zatem umożliwiający
najwierniejszą w stosunku do oryginału prezentację
dokumentu. Słabo rozpowszechniony wśród
użytkowników (wymagana instalacja wtyczki lub
osobnej przeglądarki DjVu), ale często
wykorzystywany przez biblioteki cyfrowe.
Formaty graficzne
– W bibliotekach multimedialnych mogą znajdować
się także pliki graficzne (np. w formatach PNG, TIFF,
DjVu, JPEG, GIF)
• Formaty dźwiękowe
– MIDI, WAV, MP3, Ogg Vorbis
• Formaty wideo
– MPG, WMV, AVI, Ogg
Obecnie wyróżnia się cztery rodzaje telewizji
internetowych:
– stacje telewizyjne działające wyłącznie w Internecie,
– tradycyjne stacje telewizyjne udostępniające swój
program nadawany metodami tradycyjnymi również
poprzez Internet,
– tradycyjne stacje telewizyjne udostępniające swoje
programy telewizyjne na żądanie użytkownika
poprzez Internet,
– tradycyjne stacje telewizyjne przygotowujące
specjalne materiały dostępne tylko poprzez Internet.
Pierwsze publiczne testy realizacji przedsięwzięć
będących telewizją w internecie w Polsce
prowadzone były w roku 1998 przez Miejską Sieć
Komputerową LODMAN w Łodzi przy Centrum
Komputerowym Politechniki Łódzkiej.
• Istnieje wiele systemów używanych do transmisji
sygnału telewizyjnego w Internecie – zaliczają się
do nich m.in.:
– Windows Media,
– RealVideo,
– MPEG-4,
– Macromedia Flash 8 Video,
– NSV (Nullsoft Streaming Video),
– Theora.
Radio internetowe
Formaty nadawania:
– MP3,
– Ogg Vorbis,
– RealAudio,
– aacPlus,
– Windows Media Audio,
Do odbierania sygnału należy skorzystać z
darmowego oprogramowania:
– Winamp, Windows Media Player, Amarok, Kaffeine.
• Technologia AAC+ pozwala na uzyskanie
doskonałej jakość dźwięku stereo już przy 32 kbps.
• Powodem, tego iż radio "przerywa", "buforuje" jest
zbyt obciążone lub po prostu zbyt wolne łącze,
którym dysponuje słuchacz. W takim wypadku
należy zmienić jakość strumienia np. ze 128 na 64
lub z 64 na 32 kbps
Advanced Audio Coding
• HE-AAC (AAC+, aacPlus) jest rozszerzeniem
formatu AAC, opracowanym dla zachowania
dobrej jakości dźwięku dla niskich przepływności
strumieni binarnych.
• MPEG-4 aacPlus (znany również pod nazwą High
Efficiency AAC) to standard kompresji stratnej
materiałów audio będący kombinacją trzech
technologii kodowania: Advanced Audio Coding
(AAC), Spectral Band Replication (SBR) oraz
Parametric Stereo (PS).
• Zarówno technologia AAC jak i aacPlus zostały
opracowane przez szwedzką firmę Coding
Technologies.
46
AAC+
• SBR to unikalna technika poszerzania pasma
częstotliwości sygnału, która pozwala kodekom
audio dostarczać taką samą jakość sygnału przy
połowie mniejszym strumieniu binarnym danych.
• Technologia Parametric Stereo znacząco zwiększa
wydajność kodeka w celu zmniejszenia strumienia
binarnego stereofonicznych sygnałów audio. SBR i
PS to zatem dwie metody pozwalające na
zwiększenie wydajności kodeka audio.
• W rezultacie technologia kodowania aacPlus
umożliwia dostarczanie wielokanałowych
sygnałów audio (np. 5.1) już dla strumienia
binarnego 128kbps, a sygnałów stereofonicznych
– nawet przy 32kbps.
Radio Aktywne to internetowe radio
studenckie Politechniki Warszawskiej działające
od października 2004 roku.
• Głównym kanałem radia nadawane jest ponad
czterdzieści programów autorskich, kulturalnych,
muzycznych, sportowych i związanych z życiem
studenckim.
• Jednocześnie funkcjonuje pięć muzycznych
kanałów tematycznych (electro, groove, indie,
reggae, rock). Radio prowadzi również transmisje z
wydarzeń sportowych (mecze Polskiej Ligi
Siatkówki, akademickie zawody sportowe etc.).
• Radio finansowane jest z funduszy Samorządu
Studentów Politechniki Warszawskiej, jednak
tworzone jest przez studentów różnych uczelni.
Cihai – najstarsza
nowoczesna
encyklopedia
chińska (pierwsze
wydanie 1937)
Wikipedia – za ojców-założycieli tej encyklopedii
uważani są dwaj Amerykanie - Jimmy Wales oraz
Larry Sanger, którzy w latach 2000-2003 byli
związani z projektem Nupedia, poprzednikiem
Wikipedii.
• Polska edycja Wikipedii została zapoczątkowana
26 września 2001 r., a już po niecałych dwóch
miesiącach liczyła sobie 500 haseł. Można więc
uznać, że start był bardzo udany i obiecujący.
• Kolejny kamieniem milowym był dzień 22 maja
2003 roku, kiedy to liczba haseł sięgnęła 10 tys.
Obecnie liczba artykułów-haseł w polskiej edycji
Wikipedii wynosi około 450 tys. i rośnie w tempie
ok. 70 artykułów dziennie.
30
59
Wikipedia
• Polska Wikipedia – ojcowie-założyciele to Paweł
Jochym oraz Krzysztof Jasiutowicz. Obaj nadal
bardzo aktywnie uczestniczą w pracach nad
projektem, są także administratorami polskiej
edycji Wikipedii.
Wyszukiwarka składa się z dwu zasadniczych
części:
– pierwsza – składa się oprogramowanie do
pozyskiwania dokumentów – tzw. robot, pająk (ang.
robot, spider, crawler)
– druga – to oprogramowanie tworzące indeks (bazę
danych), czyli tak zwany Indekser
Historia wyszukiwarek na świecie
• 1990 Archie
• 1991 Veronica
• 1991 JugHead
• 1992 WWW Wanderer
• 1994 WebCrawler
• 1995 AltaVista
• 1995 MetaCrawler
• 1996 Google na Uniwersytecie Standforda (pod
adresem: http://google.stanford.edu)
• 1996 HotBot
• 1998 Google Google.com - jako niezależna firma
• 2005 MSN Search
• 2007 Windows Live Search
6
Historia wyszukiwarek w Polsce
• 1991 Emulti
• 1994 Polski Archie
• 1995 Polski Infoseek ICM
• 1996 NEToskop
• 1996 Sieciowid
• 1996 Infoseek Onet
• 1996 Polska AltaVista
• 1997 Sieciowid kończy działalność
• 2000 Arena.pl przejmuje zasoby Polskiego
Infoseeka
• 2001 NetSprint
• 2002 polska wersja Google'a
Techniki informacyjne
© D. Czerwiński 4
7
Historia wyszukiwarek w Polsce
• 2003 Szukacz
• 2003 Polski Yandex
• 2004 Szook
• 2004 Gooru
• 2005 koniec NEToskopu
• 2005 koniec polskiej wersji wyszukiwarki Yandex
(przejęta przez www.runetresarch.pl)
• 2006 Wyszukiwarka Giga
• 2006 Wyszukiwarka Hm?
• 2006 Wyszukiwarka Hidee.org
• 2006 NetSeek.pl
• 2007 Wyszukiwarka video - viFinder.com,
Wyszukiwarka filterfind.org
• Google (www.google.com)
– indeks ponad 8 mld stron
– duże możliwości wyszukiwania
– katalog sieciowy
– proste i zaawansowane możliwości tworzenia kwerend
– duża szybkość zwracania odpowiedzi wynika z
zastosowanych algorytmów wyszukiwania i tysięcy
połączonych ze sobą komputerów osobistych, które
składają się na wyszukiwarkę
– specjalny (opatentowany) mechanizm budowania
rankingu zwracanych odpowiedzi PageRankTM daje dobra
skuteczność wyszukiwania przy zastosowaniu krótkich,
jedno lub dwuwyrazowych zapytań
– oprócz odsyłaczy gromadzona jest także zawartość
indeksowanych stron
Techniki Informacyjne
Techniki informacyjne
© D. Czerwiński 5
9
Wyszukiwarki Internetowe - charakterystyka
• AllTheWeb (www.alltheweb.com)
– indeks ponad 2,1 mld stron, 118 mln plików
multimedialnych, 132 mln plików ftp, 2 mln plików
mp3, 15 mln plików pdf (uaktualniany co 7-11 dni)
– indeks bieżących wiadomości tworzonych w oparciu
o informacje docierające z 3000 źródeł jest
aktualizowany co minutę
– wsparcie dla 49 języków
10
Wyszukiwarki internetowe - charakterystyka
• NetSprint (netsprint.pl)
– największa wyszukiwarka polskiego Internetu (122 mln
dokumentów)
– algorytm wyszukiwania taki jaki stosuje Google.
NetSprint określa wartość strony poprzez badanie
odsyłaczy, które na nią wskazują w całych zasobach
polskiego Internetu.
– NetSprint jest pierwszą wyszukiwarką dostosowaną do
specyfiki języka polskiego wykorzystującą
najnowocześniejsze zaawansowane narzędzia do analizy
językowej. Tekst jest przetwarzany podczas
indeksowania stron WWW, sprowadzając je do postaci, w
której wpływ zawiłości języka polskiego jest ograniczony
do minimum (poprawienie skuteczności wyszukiwania i
możliwość zadawania zapytań w języku polskim)
– NetSprint (podobnie jak Google) przechowuje we
własnym archiwum skatalogowane dokumenty i je
udostępnia
Techniki informacyjne
© D. Czerwiński 6
11
Wyszukiwarki internetowe - charakterystyka
• NEToskop (www.netoskop.pl)
– najstarsza, ale ciągle udoskonalana, polska
wyszukiwarka (uruchomiona w grudniu 1996 roku)
indeksująca wyłącznie polskie strony WWW
– NEToskop bez problemu rozpoznaje kodowanie
polskich liter; litery mogą być zapisane w formacie
ISO 8859-2, Windows (CP-1250), Mazovia, Latin-2, a
nawet w ,,polskawym", czyli przy użyciu znaków
łacińskich zastępujących polskie (zamiast ą - a, ć -c,
ę -e, ó - o itd.)
– W roku 2004 został kupiony przez firmę Pyton
Management, specjalizującą się w zarządzaniu
wiedzą.
Pliki podpisu
Najprostszą formą tej technologii była idea
rozwijana przez D.Tsichritzisa i S.Christodoulakisa,
którzy to zaproponowali binarny kod dla każdego
słowa, który w prosty sposób zastępowałoby
faktyczne słowo w dokumencie.
• Zastosowanie takiego rozwiązania pozwala
oszczędzić przestrzeń na dysku, chroni porządek
słów, i zwiększa szybkość przeszukiwania.
• Proste i często używane słowa mogą być
reprezentowane przez tak małe słowo binarne jak
to tylko możliwe.
Składnia zapytań w Google
– większa ilość słów w zapytaniu zwiększa
prawdopodobieństwo znalezienia,
– słowa automatycznie łączone są operatorem
koniunkcji AND (np. studia AND podyplomowe),
– operator negacji NOT używany jest w przypadku
kiedy nie chcemy aby dane słowo znalazło się na
stronie (studia AND NOT podyplomowe),
– wyrażenia (grupa wyrazów w zadanym porządku) są
wyszukiwane pod warunkiem ujęcia ich w
cudzysłowy lub apostrofy (np. ‘studia
podyplomowe’)
Techniki Informacyjne
Techniki informacyjne
© D. Czerwiński 18
35
Wyszukiwarki Internetowe - składnia
• Składnia zapytań w Google
• znak + umieszczony bezpośrednio przed słowem
kluczowym oznacza, że szukana strona musi
zawierać dane słowo,
• znak - wyklucza strony zawierające wskazane
słowo,
• usuwane są automatycznie słowa pospolite i
pojedyncze znaki (np. i, oraz, how, where, a, an, i,
the ), aby je uwzględnić należy posłużyć się
znakiem +,
• duże i małe litery są nie rozróżniane oraz znak *
(wild card) jest niestosowany,
36
Wyszukiwarki internetowe - składnia
● Rozróżnianie informacji zawartych w META
znacznikach stron
• link:www.lublin.pl - strony, które zawierają
odnośniki do adresu www.lublin.pl,
• allintitle:studia podyplomowe - strony, które w
swoim tytule mają podane słowa,
• intitle: studia podyplomowe - strony, które w
swoim tytule mają słowo studia, a słowo
podyplomowe znajduje się gdzieś na stronie,
Techniki Informacyjne
Techniki informacyjne
© D. Czerwiński 19
37
Wyszukiwarki Internetowe - składnia
• allinurl:dydaktyka informatyki - strony ze
wskazanymi słowami w adresie zasobu
sieciowego (pomijane są kropki, ukośniki, itp.
występujące normalnie w adresie),
• inurl:dydaktyka informatyki - strony ze słowem
dydaktyka w URL-u i informatyki gdziekolwiek w
dokumencie,
• info:www.pollub.pl - pokazuje niektóre
informacje, które serwis Google zgromadził o
wskazanej stronie,
38
Wyszukiwarki Internetowe - składnia
• related:www.pollub.pl - pokazuje listę stron, o
tematyce zbliżonej do strony podanej w
zapytaniu,
• site:lublin.pl - ogranicza przeszukiwanie do
stron znajdujących się w domenie lublin.pl,
• cache:www.pollub.pl - pokazuje wskazaną
stronę tak jak ją Google zapamiętał podczas jej
indeksowania,
• stocks:intc yhoo - podaje notowania
wskazanych w zapytaniu spółek giełdowych (po
dwukropku muszą pojawić się skróty nazw tych
spółek),
Grafika rastrowa
– Grafika rastrowa - reprezentacja obrazu za pomocą
pionowo-poziomej siatki odpowiednio kolorowanych
pikseli na monitorze komputera, drukarce lub innym
urządzeniu wyjściowym.
– Grafika rastrowa została opatentowana pierwszy raz
przez firmę Texas Instruments w latach 70 i jest
teraz wszechobecna
Grafika wektorowa
– Grafika wektorowa (obiektowa) – jeden z dwóch
podstawowych rodzajów grafiki komputerowej, w
której obraz opisany jest za pomocą figur
geometrycznych (w przypadku grafiki
dwuwymiarowej) lub brył geometrycznych (w
przypadku grafiki trójwymiarowej), umiejscowionych
w matematycznie zdefiniowanym układzie
współrzędnych, odpowiednio dwu- lub
trójwymiarowym.
Popularne formaty grafiki bitmapowej
– GIF – (ang. Graphics Interchange Format) – format
pliku graficznego z kompresją bezstratną stworzony
w 1987 r. przez firmę CompuServe. Pliki tego typu
pozwalają na tworzenie animacji z paletą 256
kolorów i dwustanową przezroczystością. Brak
możliwości zapisu plików graficznych w formacie
True Color . Wady tej pozbawiony jest
konkurencyjny format PNG, który opracowano ze
względu na to, że format GIF wykorzystywał patenty
firm Unisys i IBM na algorytm kompresji LZW.
– Od 1 października 2006 r. według organizacji
Software Freedom Law Center wygasły wszystkie
ograniczenia patentowe dotyczące formatu GIF i
format ten można uznać za uwolniony.
Techniki Informacyjne
Techniki informacyjne
© D. Czerwiński 4
© D. Czerwiński 7
Grafika komputerowa
• Popularne formaty grafiki bitmapowej
– JPEG – standard kompresji statycznych obrazów
rastrowych, przeznaczony głównie do przetwarzania
obrazów naturalnych (zdjęć satelitarnych, pejzaży,
portretów itp.), charakteryzujących się płynnymi
przejściami barw oraz brakiem lub małą ilością
ostrych krawędzi i drobnych detali.
– Motywacją do powstania tego standardu było
ujednolicenie algorytmów kompresji obrazów
monochromatycznych i kolorowych. Format plików
JPEG/JFIF obok formatów GIF i PNG jest najczęściej
stosowanym formatem grafiki na stronach WWW.
© D. Czerwiński 8
Grafika komputerowa
• Popularne formaty grafiki bitmapowej
– PCX – oryginalnie format przeznaczony do
indeksowanych palet kolorów, choć został też
przystosowany do koloru 24-bitowego. Był dość
popularny we wczesnych latach DOS i Windows,
lecz współcześnie jest już rzadki, zastąpiony przez
formaty oferujące lepszą kompresję i dodatkowe
możliwości.
– PSD – format aplikacji Adobe Photoshop, zachowuje
wszystkie informacje o danej grafice, bez utraty
jakości, pozwala na zachowanie warstw grafiki, ich
przezroczystości, efektów oraz warstw tekstowych.
Techniki Informacyjne
Techniki informacyjne
© D. Czerwiński 5
© D. Czerwiński 9
Grafika komputerowa
• Popularne formaty grafiki bitmapowej
– PNG – (ang. Portable Network Graphics) – rastrowy
format plików graficznych oraz system bezstratnej
kompresji danych graficznych. Został opracowany
jako następca GIF w 1995 roku po ogłoszeniu przez
Unisys oraz CompuServe roszczeń patentowych
dotyczących kompresji LZW używanej w formatach
GIF oraz TIFF.
– TIFF – (ang. Tagged Image File Format) – jeden z
najbardziej rozpowszechnionych i uniwersalnych
formatów plików graficznych. Służy do zapisywania
grafiki bitmapowej. Został opracowany w 1986 przez
grupę firm pod przewodnictwem Aldus Corporation
do drukowania postscriptowego. W pracach nad nim
uczestniczył też Microsoft i Hewlett-Packard.
© D. Czerwiński 10
Grafika komputerowa
• Popularne formaty grafiki bitmapowej
– XCF – (ang. eXperimental Computing Facility) -
wewnętrzny format zapisu plików graficznych
programu GIMP. Zachowuje on wszystkie
zaznaczenia, warstwy, kanały i ścieżki, jakie do tej
pory zostały użyte.
– XCF nie stosuje kompresji. Jeśli plik zapisze się jako
nazwa_pliku.xcf.gz lub nazwa_pliku.xcf.bz2, to
zostanie on skompresowany w locie. Taki plik
można otwierać i z powrotem zapisywać
bezpośrednio w GIMP-ie, a zajmuje dużo mniej
miejsca.
Techniki Informacyjne
Techniki informacyjne
© D. Czerwiński 6
© D. Czerwiński 11
Grafika komputerowa
• Popularne formaty grafiki bitmapowej
– PPM – (ang. portable pixmap), PBM (ang. portable
bitmap) oraz PGM (ang. portable graymap) - formaty
zapisu grafiki rastrowej, używane głównie do
wymiany grafiki między różnymi narzędziami
graficznymi. Wszystkie trzy formaty określane są
wspólnie jako PNM - (ang. portable anymap).
– PBM zawiera obraz czarno-biały - 1 bit na piksel
– PGM zawiera obraz w odcieniach szarości - 8 bitów
na piksel
– PPM zawiera obraz kolorowy (RGB) - maksymalnie
24 bity na piksel w trybie binarnym, i do 48 bitów w
trybie tekstowym
© D. Czerwiński 12
Grafika komputerowa
• Popularne formaty grafiki wektorowej
– SVG – (ang. Scalable Vector Graphics) –
uniwersalny format dwuwymiarowej grafiki
wektorowej (statycznej i animowanej),
nieobwarowany licencjami i patentami 1993 W3C.
– Format SVG powstał z myślą o zastosowaniu na
stronach WWW. Używany jest również jako
niezależny od platformy systemowej format grafiki
wektorowej. SVG należy do rodziny XML, więc może
być integrowany z innymi językami, jak na przykład
XHTML
Techniki Informacyjne
Techniki informacyjne
© D. Czerwiński 7
© D. Czerwiński 13
Grafika komputerowa
• Popularne formaty grafiki wektorowej
– AI – rozszerzenie wewnętrznego formatu plików
programu grafiki wektorowej Adobe Illustrator.
Powstanie formatu rok 1985 wraz z pierwszą wersją
programu działającą w systemie Mac OS
– CDR – format grafiki wektorowej stworzony przez
firmę Corel Corporation. Jako pierwszy zdobył sobie
tak wielką popularność i do dziś stanowi jeden ze
standardów graficznych mimo komercyjnej
dystrybucji.
– EPS – (Encapsulated PostScript) format plików,
będący podzbiorem języka PostScript, służący do
przechowywania pojedynczych stron grafiki
wektorowej w postaci umożliwiającej osadzanie ich
w innych dokumentach.
Aktualnie większość komputerowych monitorów
wyświetla od 72 do 130 pikseli na cal (PPI),
podczas gdy drukarki mogą drukować materiały w
rozdzielczości 1200 punktów na cal (DPI) lub
wyższej.
Programy do edycji grafiki rastrowej:
– ACDSee
– Adobe Photoshop
– Corel PHOTO-PAINT z pakietu CorelDRAW
– Deneba Canvas
– GIMP
– IrfanView
– Adobe Fireworks
– Painter
– PaintShopPro
Aplikacje do edycji grafiki wektorowej
• Wybrane aplikacje
– AutoCAD
– CorelDraw
– Adobe FreeHand
– Adobe Flash
– Adobe Illustrator
– Sketch
– Inkscape
– Sodipodi
– Star Office Draw (jedna z części pakietu)
– TechCAD
– Xfig
– Xara Xtreme
Obiekt trójwymiarowy jest budowany z płaskich
wielokątów (najczęściej trójkątów lub
czworokątów), które mają wspólne wierzchołki i
krawędzie. Wielkość siatki decyduje o dokładności
odwzorowania.
Aplikacje 2D/3D
• Wybrane prakiety 2D/3D:
– Anim8or
– Blender
– Lightwave
– Cinema 4D
– Maya
– Povray
– Rasterman
– SOFTIMAGE|3D
– 3D Studio i 3D Studio Max
– Zmodeler
Oprogramowanie do tworzenia i edycji video
• Systemy oparte o MS Windows
– Virtual Dub – freeware
– Zwei-Stein 3.01 ( v. 4.0 darmowa do zastosowań
prywatnych) – freeware
– Windows Movie Maker – darmowy do systemów MS
Windows
– Cyberlink Power Director – commercia
• Systemy Linux
– Cinerella
– Vivia
– ZS4 (Zwei-Stein 4)