sciaga (13)

W 1957 w reakcji na wystrzelenie przez Związek Radziecki Sputnika, pierwszego sztucznego satelity Ziemi, Departament Obrony USA powołuje

ARPA (Advanced Research Projects Agency) -

agencję ds. zaawansowanych przedsięwzięć

badawczych

Zadaniem ARPA było stworzenie sieci

komunikacyjnej dla celów wojskowych, która

mogłaby zadziałać nawet w sytuacji zniszczenia

tradycyjnych środków komunikacji - w wyniku

ewentualnego ataku nuklearnego.

W 1969 roku powstała eksperymentalna sieć

ARPAnet, składająca się z czterech połączonych

ze sobą komputerów mieszczących się w

wybranych instytucjach naukowych: Uniwersytet

Kalifornijski w Los Angeles, Uniwersytet

Kalifornijski w Santa Barbara, Instytut Stanforda

(Stanford Research Institute) oraz Uniwersytet

Stanowy Utah.

• Rozwój ARPANetu w ośrodkach akademickich

Schemat sieci ARPAnet

4 węzły, 50 kbit/s

W 1970 następuje uruchomienie pierwszej wersji

protokołu FTP (File Transfer Protocol)

pozwalającego na przesyłanie przez sieć plików w

różnych formatach.

W 1972 Ray Tomlinson z BBN Inc. tworzy pierwszy

program pocztowy (wybiera @ jako znak

rozdzielający nazwę użytkownika od adresu).

ARPA zostaje przekształcona w DARPA. ARPAnet

używa protokołu NCP. Powstaje program do pracy

zdalnej Telnet.

1972 - dalszy rozwój ARPAnet

23 węzły, 50 kbit/s

W 1973 rozpoczynają się pracę nad protokołem

TCP/IP. Powstaje FTP oraz pierwsze odległe węzły

ARPANET-u (Norwegia i Wielka Brytania).

W 1974 pojawia się po raz pierwszy termin

INTERNET

W 1976 Dr. Robert Metcalfe tworzy Ethernet.

Powstaje łącze satelitarne pomiędzy USA i Europą

(SATNET).

Używane są łącza radiowe (packet radio). Powstaje

program UUCP (Unix to Unix CoPy).

1977 - TheoryNet łączy pocztą elektroniczną 100

naukowców, powstaje pierwsza lista dyskusyjna.

Opracowane zostają protokoły TCP i IP

(Transmission Control Protocol i Internet Protocol)

- podstawy komunikacji w Internecie.

27 października 1980 oprogramowanie typu

„wirus” zawiesza ARPANET

1983 - Od ARPANET odłącza się jej część

wojskowa tworząc MILNET. W ARPANET zaczyna

być wykorzystywany protokół TCP/IP. Powstaje

prawdziwy (dzisiejszy z punktu widzenia

technologii) Intenet.

W 1986 w Polsce powstaje FIDOnet

w 1987 BITNET i CSNET łączą się w Corporation

for Research and Educational Networking (CREN).

28 174 węzły, 50 kbit/s

W 1988 łącza T1 nie wystarczają. Po poważnym

ataku robaka internetowego założony zostaje

CERT.

węzły: 56 000, łącza: ARPANET 50 kbit/s, CSNET 56

kbit/s, NSFNET T1

W 1990 powstaje koncepcja łącz T3 (45 Mbit/s).

ARPANET zostaje zastąpiony łączami NSFNET-u.

COCOM w 1990 znosi większość restrykcji, Polska

uzyskuje członkostwo w EARN. Powstają

regionalne węzły sieci EARN w Warszawie,

Wrocławiu i Krakowie.

1990 - Tim Berners-Lee tworzy World Wide Web -

system pozwalający prezentować informacje w

formie tekstu, grafiki i dźwięku. WWW powstało z

myślą o fizykach CERN. Wraz z rozwojem

technologii zwiększa się szybkość przesyłu

danych i liczba użytkowników Internetu.

313 000 węzły, łącza: T1 i T3

1995 - Marc Andreessen tworzy Netscape

Navigator. Microsoft ogłasza start usługi MSN.

Zaczyna się "wojna przeglądarek". Pojawia się

RealAudio - technologia przesyłania dźwięku w

czasie rzeczywistym. Sun prezentuje język Java.

W 1995 postępuje komercjalizacja Internetu:

pierwsi ISP, opłaty za domeny.

W 1996 Internet działa w znacznej mierze w

oparciu o niezależnych ISP. W Polsce TPSA

zostaje ISP.

W 1999 ruszają obliczenia rozproszone w

Internecie: program SETI@Home. Pierwsza

cyberwojna: Jugosławia – NATO.

W 2000 podpis elektroniczny wchodzi do użycia.

Powstaje technologia WAP (Wireless Application

Protocol), która umożliwia korzystanie z Internetu

przy pomocy telefonów komórkowych.

węzły: > 60 milionów

IBM

model organizacji

pracy

specjalizacja

obniżka kosztów

nowa jakość usług

bezpieczeństwo

prawa dostępu

UNILEVER

mobilność

pracowników

bezpieczeństwo

danych

General Motors

organizacja pracy

just in time

oszczędności

bezpieczeństwo

sytuacja w Polsce

kultura pracy

ZE (Zakład

Energetyczny)

niezawodna

komunikacja pomiędzy

stacjami

energetycznymi

Usługa polegająca na przeniesieniu wiadomości

szybkość, bezpieczeństwo, jakość, własna

infrastruktura

dostawcy internetu

POLPAK

TELENERGO

NEOSTRADA

INTERNETIA

FUTURO

Naukowa Akademicka Sieć Komputerowa

(NASK)

Kabel współosiowy (koncentryczny, BNC)

Składa się z dwóch przewodów koncentrycznie

umieszczonych jeden wewnątrz drugiego, co

zapewnia większą odporność na zakłócenia a tym

samym wyższą jakość transmisji. Jeden z nich

wykonany jest w postaci drutu lub linki miedzianej i

umieszczony w osi kabla (czasami zwany jest

przewodem gorącym), zaś drugi (ekran) stanowi

oplot

Skrętka nieekranowana (UTP –

Unshielded Twisted Pair)

Kabel typu UTP jest zbudowany ze

skręconych ze sobą par przewodów i

tworzy linię zrównoważoną

(symetryczną).

Skręcenie przewodów ze splotem 1

zwój na 6-10 cm chroni transmisję

przed interferencją otoczenia.

Tego typu kabel jest powszechnie

stosowany w sieciach

informatycznych i telefonicznych,

przy czym istnieją różne technologie

splotu, a poszczególne skrętki mogą

mieć inny skręt.

Skrętka foliowana (FTP – Foiled

Twisted Pair)

Jest to skrętka ekranowana za

pomocą folii z przewodem

uziemiającym. Przeznaczona jest

głównie do budowy sieci

komputerowych umiejscowionych w

ośrodkach o dużych zakłóceniach

elektromagnetycznych. Stosowana

jest również w sieciach Gigabit

Ethernet (1 Gb/s) przy

wykorzystaniu wszystkich czterech

par przewodów.

Skrętka ekranowana (STP – Shielded

Twisted Pair)

Ekran kabla jest wykonany w postaci

oplotu i zewnętrznej koszulki ochronnej.

Jej zastosowanie wzrasta w świetle

nowych norm europejskich EMC w

zakresie emisji EMI (ElectroMagnetic

Interference). Można spotkać także

hybrydy tych rozwiązań:

FFTP – każda para przewodów

otoczona jest osobnym ekranem z

folii, cały kabel jest również pokryty

folią.

SFTP – każda para przewodów

otoczona jest osobnym ekranem z

folii, cały kabel pokryty jest oplotem

Kabel światłowodowy

Wady:

trudne w łączeniu, stosunkowo łatwe do

uszkodzenia, wibracja powoduje powstawanie

zakłóceń, z czasem tracą jakość.

Zalety:

odporne na interferencje, nie powodują interferencji,

małe tłumienie sygnałów (duży zasięg), szerokie

pasmo użyteczne (duża szybkość), lekkie i cienkie.

Fale radiowe – medium transmisyjne

Częstotliwości radiowe: od 0 Hz do oko o 400 GHz

EHF Extremely High Frequencies ~50 GHz radary, badania

naukowe

SHF Super High Frequencies ~5 GHz satelity, mikrofale

UHF Ultra High Frequencies ~500 MHz telewizja kablowa

VHF Very High Frequencies ~50 MHz FM i TV

HF High Frequencies ~5 MHz AM: fale krótkie

MF Medium Frequencies ~500 kHz AM: fale średnie i d

ugie

LF Low Frequencies ~50 kHz nawigacja

VLF Very Low Frequencies ~5 kHz łączność podwodna

VF Voice Frequencies ~500 Hz sygnały akustyczne

ELF Extremely Low Frequencies ~50/60 Hz sieci

Energetyczne

Łączność satelitarna odbywa się w szerokim

zakresie częstotliwości radiowych od 0,3 GHz do

ponad 40 GHz i jest wykorzystywana w

telekomunikacji satelitarnej do komunikowania się

m.in. z naziemnymi (ruchomymi lub nie) obiektami.

W stacjonarnych systemach satelitarnych przekaz

informacji pomiędzy abonamentami odbywa się za

pomocą (jednego lub kilku) satelitów

telekomunikacyjnych znajdujących się na orbitach

geostacjonarnych.

Systemy satelitarne

znalazły zastosowanie

w:

naziemnych

satelitarnych stacjach

odbiorczych TV,

pracujących w

zakresach od 11 do 12

GHz, systemach z

terminalami VSAT

(Very Small Aperture

Terminal), które

pracują w zakresie od

12 do 14 GHz (pasmo

Ku) lub paśmie C

(od 4 do 6 GHz).

Topologie sieci:

Szyna, magistrala

Gwiazda

Pierścień

Drzewiasta

Ze względu na zasięg:

lokalne (Local Area Network, LAN)

rozległe (Wide Area Network, WAN)

Ze względu na skalę zasięgu:

miejskie (Metropolitan Area Network, MAN)

regionalne

krajowe

globalne (Global Area Network, GAN)

Ze względu na dostęp:

otwarte (ogół użytkowników)

zamknięte (określona grupa)

Systemy scentralizowane

Powstanie – lata 60 XX wieku

Systemy komputerowe klasy mainframe

Dostęp użytkowników lokalnych (budynek,

kampus)

Opracowane zostały pierwsze bazy danych i

systemy baz.

Dane w trybie tekstowym, ograniczone wsparcie

dla języków narodowych

Instalacje zdalnego dostępu

Powstanie – przełom lat 60 i 70 XX wieku.

Na potrzeby transmisji komputerowych

zaadaptowano linie telekomunikacyjne.

Rozszerzono dostępności systemów

komputerowych poza daną lokalizację.

Standaryzacja urządzeń zdalnego dostępu.

Powstały nowe kategorie użytkowników

BBS – Bulletin Board System

Największą popularność biuletynów

elektronicznych datuje sie na lata 80-te XX wieku.

Połączenie autonomicznych systemów

komputerowych.

Powstaje UUCP - Unix-to-Unix Copy (Mike Lesk z

Bell Labs).

BBS - Bulletin Board System

Fora wymiany zasobów, informacji, poczty.

Dostęp on-line tylko do najbliższego węzła.

Systemy dostępu publicznego –

Newsletter

Email wymyslony w 1965 luiz pouzin , glenda schoreder, pat crisman

71 roy tomilson wymyslil imail w dzisiejszej postaci

Informacja, którą chcemy wysłać dzielona jest na

mniejsze części.

Do każdej części dodawane są dodatkowe

informacje i staje się ona pakietem.

Pakiet przygotowany do przesłania nazywamy

ramką (frame).

Protokoły są regułami używanymi do

transmitowania i odbierania danych, aby umożliwić

realną komunikację.

Reguły podlegają standardom ustalanym przez

komitet normalizacji IEEE.

Rysunek pierwszej sieci - autor Bob Metcalfe -

Xerox PARC (wczesne lata 70)

Adresowanie

unikalne, 48-bitowy unikalny adres przypisany do

każdego adaptera - Internet Network Information

Center (INTERNIC).

przykład: 00:08:00:e4:b1:02

broadcast (rozgłaszanie): wszystkie bity 1

multicast (przesyłanie): pierwszy bit jest 1

Szerokość pasma: 10Mb/s, 100Mb/s, 1Gb/s

Długość: 2500m (500m segmenty z 4

wzmacniaczami)

Problem: algorytm przesyłania sygnału zapewnia

wystarczający dostęp

Jeżeli kolizja …

„korek” (jam) przez 32 bity, następnie przestań

wysyłać ramkę (jabber)

minimalna długość ramki to 64 bajty (nagłówek + 46

bajtów danych)

zatrzymaj transmisję i spróbuj ponownie

1 raz: 0 lub 51.2 ms

2 raz: 0, 51.2, lub 102.4 ms

3raz: 51.2, 102.4, lub 153.6 ms

n-ty raz: k x 51.2 ms, dla losowo wybranego

k=0..2n – 1

przestań po kilkunastu próbach (zazwyczaj 16)

Wtórnik (regenerator, ang. repeater) to urządzenie

stosowane w telekomunikacji do regeneracji

sygnału.

W technologii Ethernet – hub, switch, router

Reguła 5-4-3-2-1

pięć segmentów medium sieciowego

cztery wtórniki lub koncentratory

trzy segmenty zawierające hosty

dwie sekcje łączy (bez hostów)

jedna duża domena kolizyjna

łącza telefoniczne:

analogowe,

cyfrowe (ISDN),

hybrydowe (xDSL),

telewizja kablowa,

bezprzewodowe łącza radiowe,

sieć energetyczna (PLC),

łącza satelitarne.

ISDN (ang. Integrated Services Digital Network,

czyli sieć cyfrowa z integracją usług).

Technologia sieci telekomunikacyjnych mająca na

celu wykorzystanie infrastruktury PSTN do

bezpośredniego udostępnienie usług cyfrowych

użytkownikom końcowym. Połączenia ISDN zalicza

się do grupy połączeń dodzwanianych.

Podstawowa konfiguracja:

BRA (basic): 2B+D

(2 x 64 kbit/s + 16 kbit/s)

PRA (primary): 30B+D

(30 x 64 kbit/s + 16 kbit/s)

Łącza xDSL

DSL (ang. Digital Subscriber Line) - cyfrowa linia

abonencka, rodzina technologii

szerokopasmowego dostępu do Internetu.

Standardowa prędkość odbierania danych waha

się od 128 Kbps do 24.000 Kbps, w zależności od

zastosowanej technologii DSL.

Główne odmiany:

HDSL (high bitrate)

2Mbit/s + 2Mbit/s,

ADSL (asymmetric)

9 Mbit/s + 640 kbit/s,

VDSL (very high bitrate)

52 Mbit/s + 52 Mbit/s.

Lacza PLC

Power Line Communication (PLC) - pojęcie

używane w odniesieniu do zbioru technologii

umożliwiających transmisję danych przez sieć

elektroenergetyczną.

Technologie te dają duże możliwości jeśli chodzi o

dostęp do internetu w budynkach, w których brak

jest odpowiedniej instalacji do sieci komputerowej,

ale jest instalacja elektryczna.

Sieć energetyczna jako ośrodek transmisyjny

charakteryzuje się bardzo silną niestabilnością.

Przepływność: do 2,5 Mb/s (zależne od lokalizacji).

Protokoły komunikacji w sieci

lokalnej:

IPX/SPX (Internetwork Packet

eXchange/Sequenced

Packet eXchange)

TCP/IP (Transmission Control

Protocol/Internet Protocol)

NetBIOS Sieci IBM

NetBEUI Sieci MS Windows

Networking

FIP - Fast Infrared Protocol

Sieciowe systemy operacyjne

UNIX - pierwszy sieciowy system

operacyjny

Novell NetWare - system firmy NOVELL,

posiada dwie odmiany Personal Netware

oraz Novell NetWare

Lantastic - system firmy Artisoft,

przeznaczony pod różne systemy

operacyjne i sieciowe

MAC OSX

Sieciowe systemy operacyjne

MS Windows - system firmy Microsoft,

różne odmiany sieciowe (WfG 3.11, 9.x,

NT, ME, 2000, XP, 2003, Vista)

IBM - OS/2 LAN Server

LINUX – dynamicznie rozwijającą się

gałąź UNIX-a

system Novell NetWare

Novell - wiodąca firma w dziedzinie technologii i

produkcji sieci lokalnych - pierwszy firma, która

wprowadziła:

oprogramowanie umożliwiające przetwarzanie

danych na wielu platformach sprzętowych i

programowych,

obsługę wielu różnych topologii sieci oraz metod

komunikacji między nimi,

obsługę systemu OS/2,

wielozadaniową wersję systemu DOS w pełni

wykonywalną z pamięci DOS.

Uniwersalność produktów firmy Novell -

współistnieją oraz ze środowiskami komputerów

Apple, DEC, HP, IBM, a także z systemem UNIX

Małe grupy robocze, jak i również wielkie sieci

ogarniające całe przedsiębiorstwa

Sieciowy system operacyjny NetWare nie wymaga

zainstalowania na serwerze żadnego innego

systemu operacyjnego

Aplikacje mogą pracować na stacji roboczej lub na

Serwerze

System operacyjny NetWare obsługuje od 2 do

kilkuset użytkowników w sieci

Możliwość obsługi systemów operacyjnych DOS,

Windows, Macintosh, OS/2, Unix

Możliwość łączenia sieci lokalnych

Sieci lokalne można przekształcać w sieci globalne

Różnorodne usługi sieciowe, poczta, wymiana

plików, wydruk itp.

Połączenie przy użyciu linii telefonicznej i modemu

System LANTASTIC

Najczęściej spotykany w sieciach peer-to-peer,

bazujących na systemach DOS i Windows.

Obsługuje do 300 komputerów PC połączonych w

sieć lokalną w technologii Ethernet.

Komunikacja przebiega za pomocą protokołu

NetBIOS

Dostępne wersje:

LANtastic for Windows

LANtastic for NetWare

LANtastic for Macintosh

LANtastic Z (dwa komputera, połączone za pomocą

portów szeregowych lub równoległych)

© D. Czerwiński 46

Systemy UNIX

System Unix jest to wielozadaniowy,

wielodostępny system operacyjny

Systemy NetWare i LAN Manager mogą działać

jako procesy w systemie UNIX

Komputer z system Unix może funkcjonować jako

serwer

System Unix charakteryzuje się dużą

elastycznością, stabilnością oraz wydajnością

System dla sieci lokalnych i globalnych

Istnieje wiele wersji tego systemu: HP-UX, Sun-

Solaris, Convex, Xenix, System V, Free BSD, Linux

© D. Czerwiński 47

Systemy sieciowe firmy IBM

Siec lokalna jako system - użytkownik sieci

lokalnej powinien mieć spójny widok zasobów

systemowych.

Elastyczność połączeń - dowolny protokół

sieciowy.

W pełni funkcjonalny system zdalnego dostępu za

pomocą linii telefonicznej.

Możliwość dostępu do sieci różnego typu.

LAN server jest głównym sieciowym systemem

operacyjnym oparty na systemie OS/2 Warp

MS LAN Manager

LAN Manager - pierwsza platformą typu klientserwer

opracowana przez Microsoft

Może obecnie funkcjonować z systemami, np.: MSDOS,

OS/2 UNIX, VMS, Macintosh

Łatwy w instalacji (trzeba posiadać informację o

konfiguracji domen w sieci)

Zawiera kompletny zastaw narzędzi służących do

administrowania, zarządzania siecią oraz jej

diagnostyki

Adresowanie hierarchiczne:

każdy przełącznik ma swój unikalny adres w WAN,

każda stacja sieciowa ma swój unikalny adres w

sieci LAN,

pełny adres w WAN składa się z dwóch części:

adresu przełącznika + adresu stacji sieciowej,

w praktyce pełny adres to długa liczba całkowita

(binarna konkatenacja obu części adresów)

przełącznik wybiera trasę na podstawie adresu

odbiorcy,

przełącznik zazwyczaj nie posiada pełnej listy tras,

przełącznik posiada jedynie tablicę następnego

etapu,

wybór trasy jest niezależny od adresu nadawcy

(rozwiązanie często stosowane w rzeczywistości).

Wyznaczanie tablicy tras:

statyczne (raz – przy uruchomieniu przełącznika),

dynamiczne (przy uruchomieniu i w razie zmian w

stanie sieci),

Obliczanie najkrótszych tras algorytm E. Dijkstry:

Algorytm oblicza najkrótsze ścieżki pomiędzy

wierzchołkami grafu sieci wykorzystując wagi

przypisane krawędziom grafu.

Wagi to liczby reprezentujące odległość,

przepustowość łącza, koszt użytkowania lub inne

parametry.

Routing statyczny

Przewidywalny – trasa po

której pakiet jest przesyłany

jest dobrze znana i może być

kontrolowana.

Łącza nie są dodatkowo

obciążone wiadomościami

służącymi do routowania.

Łatwe do skonfigurowania w

małych sieciach.

Brak skalowalności

Brak obsługi redundantnych

połączeń

Nieumiejętność dostosowania

się do dynamicznych zmian w

konfiguracji sieci

routing dynamiczny

Skalowalność

Zdolność dostosowania się do

zmian topologii sieci

Łatwość konfiguracji – nie

popełniamy błędów

Większy stopień zawiłości

działania sieci. Im lepiej

protokół reaguje na zmiany w

sieci tym bardziej

skomplikowany musi być –

trudności w implementacji –

różnice pomiędzy sprzętem od

różnych producentów

Konieczność okresowej

wymiany danych to z punktu

widzenia użytkownika

niepotrzebne obciążenie sieci.

Protokoły warstwy transportu: protokół

sterowania transmisją w sieci (TCP/IP) i protokół

datagramów użytkownika (UDP), które są częścią

zestawu protokołów TCP/IP

Protokoły warstwy aplikacyjnej: protokół

przesyłania plików (FTP), prosty protokół

przysłania poczty (SMTP), usługi nazewnicze

domen (DNS), telnet, protokół przesyłania

hipertekstu (HTTP), prosty protokół zarządzania

siecią (SNMP), które także są częścią zestawu

protokołów TCP/IP

Protokół TCP/IP

Świadczy usługi aplikacyjne (warstwa Process)

takie jak:

FTP - File Transfer Protocol

TELNET - Terminal Emulation

SMTP - Simple Mail Transfer Protocol

SNMP - Simple Network Managment Protocol

NFS - Network File System

HTTP - Hyper Text Transfer Protocol

Adres IP jest 32-bitową liczbą całkowitą

Adres IP składa się z dwóch części

prefix – jest to numer sieci w sieci rozległej

suffix – jest to numer danego węzła

prefix128.10.2.sufix 30

Początkowo wszystkie adresy IP były zarządzane

bezpośrednio przez IANA

Wielkie firmy, jak Xerox, Ford czy IBM

automatycznie otrzymywały po ponad 16 mln

adresów internetowych, nawet jeżeli tak duża

liczba nie była im potrzebna.

Ze względu na marnotrawstwo oraz

niespodziewanie duże zapotrzebowanie na

adresację internetową z całego świata zmieniono

zasady i powołano do życia organizacje

regionalne, których zadaniem stało się

nadzorowanie wykorzystania dostępnych adresów

Maska podsieci, maska adresu (ang. subnetwork

mask, address mask) - liczba służąca do

wyodrębnienia w adresie IP części sieciowej od

części hosta.

Protokoły ARP i RARP

Protokół ARP (Address Resolution Protocol) -

protokół odwzorowania adresów

każdy komputer w sieci posiada 32 bitowy adres IP

oraz 48 bitowy adres fizyczny przypisany w trakcie

produkcji

IP na fizyczny = ARP

Protokół RARP (Reverse Address Resolution

Protocol) - protokół odwrotnego odwzorowania

adresów

fizyczny na IP = RARP

W swej fazie akademickiej, Internet był w

gruncie rzeczy sposobem komunikacji, dzięki

poczcie elektronicznej, oraz kanałem do

przesyłania plików z jednego miejsca w inne.

Stąd też, pierwsze próby doskonalenia

tworzonych katalogów zasobów sieciowych

koncentrowały się na systemie „Gopher" i

jego procedurach wyszukiwania informacji,

wykorzystujących różnie nazywane systemy,

jak np. Archie czy Veronica.

Obecnie zostały one prawie całkowicie

zastąpione przez wprowadzenie protokołu

HTTP, sieciowej pajęczyny WWW (World Wide

Web) i przeglądarek do oglądania jej

zasobów.

Jedną z najbardziej użytecznych, jest klasyfikacja,

którą opracowali Jan Alexander i Marsha Ann Tate,

autorzy Mądrości Web'u (Web Wisdom).

Stosują oni następujący układ kategorii:

advocacy web pages - strony wspierające,

popierające, zalecające

business/marketing web pages - strony firmowe i

promocyjne

news web pages - strony zawierające wiadomości

informational web pages - strony informacyjne

personal web pages - strony prywatne

System zarządzania bazą danych (SZBD

Modele baz danych

Hierarchiczny

Użytkownik postrzega dane w postaci zbioru struktur

drzewiastych a operatory służące do manipulowania

zasobem zawierają operatory pokonywania ścieżek

w górę i w dół po tych strukturach (struktura dziecko

rodzic).

Model hierarchiczny stosuje dwa typy struktur

danych:

typy rekordów (struktura danych, złożona

ze zbioru nazwanych pól),

związki nadrzędny-podrzędny (Każde pole

jest używane do przechowywania prostego

atrybutu i jest mu przyporządkowany typ

danych).

Model relacyjny

Model oparty na matematycznym pojęciu relacji tj. na

podzbiorze iloczynu kartezjańskiego

Definicja SQL

SQL - Structured Query Language; database sub-language

(niepełny język obsługi baz danych (bez kontroli

sterowania)).

SQL jest językiem obsługi baz danych (RBD)

zaimplementowanym w systemach zarządzania bazami

danych (SZDB)

SQL jest przeznaczony do definiowania struktur danych,

wyszukiwania danych oraz operacji na danych. Posiada

on akceptację ANSI oraz standard ISO. W praktyce jest

standardowym językiem zapytań dla relacyjnych baz

danych.

80

SQL - cechy

Cechy języka SQL

jest językiem wysokiego poziomu (4GL) opartym na

słownictwie języka angielskiego, a jego wyrażenia mają

określoną strukturę,

jest językiem deklaratywnym (nieproceduralnym);

zorientowanym na wynik (użytkownik definiuje co chce

otrzymać, ale nie pisze jak),

zawiera logikę trójwartościową,

umożliwia definiowanie struktur danych, wyszukiwanie

danych, oraz operacje na danych,

nie posiada instrukcji sterujących wykonaniem programu,

nie dopuszcza rekurencji.

Do 2000 – dominują prymitywna wirusy

plikowe, występują wirusy dyskowe

2001 – najpopularniejsze są robaki

internetowe, rozpowszechniające się przy

użyciu poczty elektronicznej. Błyskawiczne

powielanie się robaka sieciowego

powoduje awarie serwerów

2003 – masowy zalew spamu

2004 – epidemia spyware i natrętnych

reklam. Rozpowszechnianie się koni

trojańskich

6

2005 – precyzyjne ataki internetowych

przestępców mające na celu kradzież poufnych

informacji i danych użytkownika. Rozwój

rootkitów.

2006 – sieci komputerowych zombie obejmują od 7

do 25 % hostów podłączonych do Internetu. Ataki

komputerów zombie powodują duże szkody.

2007 – phishing, zagrożenia nowego typu

wykorzystujące strony WWW, błędy przeglądarek,

naiwność internautów oraz znane do tej pory

technologie koni trojańskich, backdoor-ów i

zombie.

Należy zwrócić uwagę, że aż 78% sytuacji

związanych z utratą dostępu do danych we

wszystkich systemach komputerowych jest

powodowane problemami ze sprzętem.

Uszkodzenia systemów dyskowych niosą za sobą

największe ryzyko związane z utratą dostępu do

danych, a nawet z ich bezpowrotną stratą.

Do najbardziej znanych należą:

skanery – narzędzia wykrywające słabe punkty

systemu,

exploity – programy umożliwiające przejęcie kontroli

nad systemem informatycznym i zdalne nim

administrowanie,

trojany - programy destrukcyjne dołączane do

popularnych programów użytkowych, zazwyczaj

ściąganych przez użytkowników z sieci Internet.

Jednym z najbardziej znanych na świecie jest ITIL

(IT Infrastructure Library), którego integralną

częścią jest Security Management (Zarządzanie

Bezpieczeństwem).

ITIL został opracowany przez CCTA (Central

Computer and Telecommunications Agency) na

zlecenie rządu Wielkiej Brytanii.

W Polsce największe instytucje i organizacje (m.in.

NBP, PKO SA i inne), w których bezpieczeństwo

systemów informatycznych jest priorytetem,

również korzystają z tego zbioru dobrych praktyk

Najbardziej rozpowszechniony jest spam za

pośrednictwem poczty elektronicznej oraz w

Usenecie

Walka ze spamem

Rozwiązania techniczne

specjalistyczne urządzenia do wykrywania spamu,

fizyczne połączenia sieci uniemożliwiające kontakt z

siecią globalną

Rozwiązania programowe

oprogramowanie antyspamowe, programy pocztowe

z wbudowanymi filtrami antyspamowymi, wymagana

autoryzacja (SMTP AUTH), graylisting, DNS Black

List

Rozwiązania prawne

Istnieją też na świecie specjalne prawa przeciwko

spamowi, np. w Ohio odbiorcy indywidualni mogą

dochodzić po 100 dolarów + koszty sądowe za każdy

niechciany e-mail do granicy 50 000 dolarów dla

użytko

Sieci lokalne

Użytkownik w sieciach firmowych stosunkowo

dobrze zabezpieczony, znana tożsamość każdego

użytkownika pozwala na jego identyfikację,

zainstalowane oprogramowanie antywirusowe,

antyspyware i firewall, ograniczone uprawnienia

użytkownika

Użytkownik w sieciach osiedlowych – stosunkowo

słabo zabezpieczony, mała świadomość

niebezpieczeństw związanych z pracą w sieci, duża

anonimowość użytkownikówwnika i 500 000 dolarów dla ISP

Sieci rozległe

Użytkownik zabezpieczony w zależności od stopnia

posiadania świadomości na temat zagrożeń.

Możliwa jest pełna anonimowość użytkowników.

Ilość zagrożeń sieciowych znacznie większa aniżeli

w sieciach lokalnych.

Sieci firmowe, zazwyczaj dobrze chronione

odpowiednim oprogramowaniem, lub też całkowicie

wydzielone.

Nadzór nad informacją

Odpowiednim środkiem ochrony

teleinformatycznej jest m.in. fizyczne oddzielenie

sieci od Internetu, wydzielenie odpowiednio

wzmocnionego pomieszczenia w strefie

bezpieczeństwa (ewentualnie w specjalnej strefie

bezpieczeństwa), czy zastosowanie urządzeń o

obniżonym poziomie emisji elektromagnetycznej,

zgodnych z normą TEMPEST (Temporary

Emanation and Spurious Transmission).

44

Nadzór nad informacją

Amerykańska norma TEMPEST powstała w latach

50 -tych na zlecenie Pentagonu w ramach

programu zabezpieczenia przez niekontrolowaną

emisją ujawniającą.

Technologia dotycząca tej normy była wielokrotnie

modyfikowana, a jaj ujawnienie rząd USA

umożliwił dopiero w latach 70 i 80 -tych ubiegłego

wieku.

W 1985 r. holenderski naukowiec Wim van Eck

opublikował raport ze swoich badań na tym polu.

Najpopularniejszy przykład zastosowania systemu

TEMPEST odnosi się do monitorów CRT.

Obecnie TEMPEST nadzoruje Agencja

Bezpieczeństwa Narodowego (NSA) Stanów

Zjednoczonych.

23

45

Nadzór nad informacją

Produkty służące do przetwarzania w systemach

informacji niejawnych, muszą spełniać określone

w przepisach państwowych wymogi

bezpieczeństwa, muszą także uzyskać odpowiedni

certyfikat.

Departament Bezpieczeństwa Teleinformatycznego

Agencji Bezpieczeństwa Wewnętrznego certyfikuje

produkty, pobierając za to opłaty. Wysokość opłat

pobieranych przez ABW określa Rozporządzenie

Prezesa Rady Ministrów z dnia 30 września 2005 r.

w spawie wysokości opłat za przeprowadzanie

przez służbę ochrony państwa czynności z zakresu

bezpieczeństwa teleinformatycznego (Dz. U. Nr 200

Zgodnie z przepisami moc kryptograficzna przy

przesyłaniu danych zawierających informacje

niejawne musi być tym większa, im wyższe są

klauzule tajności dla przesyłanych informacji. ABW

zaleca, by przy przetwarzaniu informacji

niejawnych stanowiących tajemnicę państwową

(klauzula tajne "O" lub ściśle tajne "OO") stosować

rozwiązania sprzętowe gwarantujące ochronę

algorytmów i kluczy kryptograficznych.

Komputerowi włamywacze

Kevin Mitnick

Za swoje przestępstwa został skazany na

wieloletnie pozbawienie wolności. 15 lutego 1995

roku FBI przy pomocy dziennikarza

komputerowego Johna Markoffa i Tsutomu

Shimomury aresztowało go.

Został oskarżony o włamanie na terenie USA do

kilku ważnych systemów komputerowych. Nigdy

jednak nie zarzucono mu czerpania korzyści

materialnych z crackingu.

Po aresztowaniu Mitnick spędził w areszcie cztery i

pół roku przed wydaniem wyroku.

Rodzaje źródeł

dokumentalne źródła informacji: dokumenty;

niedokumentalne źródła informacji:

instytucjonalne ( np. biblioteki, targi, wystawy..)

personalne : badacze, specjaliści, także

uczestnictwo w różnych zorganizowanych formach

wymiany informacji i kontakty nieformalne

( zjawisko tzw. niewidzialnych uniwersytetów

"Invisible college")

Niewidzialny uniwersytet

Prekursor brytyjskiego Royal

Society. Tworzyła go grupa

naukowców Robert Boyle, John

Wilkins, John Wallis, John

Evelyn, Robert Hooke,

Christopher Wren i William Petty

Projekt Gutenberg

Inicjatywa polegająca na umieszczeniu w

Internecie elektronicznych wersji książek

istniejących w wersji papierowej.

Według danych na rok 2006 projekt udostępnił

czytelnikom około 17 tysięcy darmowych książek

elektronicznych.

Projekt Gutenberg został rozpoczęty w roku 1971

przez Michaela Harta.

Podstawowe formaty, w których udostępnia się

publikacje tekstowe to:

TXT (niesformatowany tekst) — stosunkowo rzadko

używany ze względu na brak możliwości

wyróżniania fragmentów tekstu (stosowanego w

oryginalnych publikac

RTF (ang. Rich Text Format) — format umożliwiający

uproszczone formatowanie tekstu, w zależności do

ustawień parametrów dokumentu może słabo lub też

lepiej zachowywać oryginalny wygląd

HTML (ang. HyperText Markup Language) —

umożliwia szybką prezentację publikacji poprzez

Internet, podobnie jak RTF umożliwiając stosowanie

formatowania oraz umieszczania obrazków, ale

również podobnie nie zachowujący oryginalnego

wyglądu dokumentu.

PDF (ang. Portable Document Format) — format

umożliwiający najwierniejszą prezentację

dokumentu, jednak zazwyczaj objętość pliku

większa niż poprzednich.

DjVu — format graficzny, a zatem umożliwiający

najwierniejszą w stosunku do oryginału prezentację

dokumentu. Słabo rozpowszechniony wśród

użytkowników (wymagana instalacja wtyczki lub

osobnej przeglądarki DjVu), ale często

wykorzystywany przez biblioteki cyfrowe.

Formaty graficzne

W bibliotekach multimedialnych mogą znajdować

się także pliki graficzne (np. w formatach PNG, TIFF,

DjVu, JPEG, GIF)

Formaty dźwiękowe

MIDI, WAV, MP3, Ogg Vorbis

Formaty wideo

MPG, WMV, AVI, Ogg

Obecnie wyróżnia się cztery rodzaje telewizji

internetowych:

stacje telewizyjne działające wyłącznie w Internecie,

tradycyjne stacje telewizyjne udostępniające swój

program nadawany metodami tradycyjnymi również

poprzez Internet,

tradycyjne stacje telewizyjne udostępniające swoje

programy telewizyjne na żądanie użytkownika

poprzez Internet,

tradycyjne stacje telewizyjne przygotowujące

specjalne materiały dostępne tylko poprzez Internet.

Pierwsze publiczne testy realizacji przedsięwzięć

będących telewizją w internecie w Polsce

prowadzone były w roku 1998 przez Miejską Sieć

Komputerową LODMAN w Łodzi przy Centrum

Komputerowym Politechniki Łódzkiej.

Istnieje wiele systemów używanych do transmisji

sygnału telewizyjnego w Internecie – zaliczają się

do nich m.in.:

Windows Media,

RealVideo,

MPEG-4,

Macromedia Flash 8 Video,

NSV (Nullsoft Streaming Video),

Theora.

Radio internetowe

Formaty nadawania:

MP3,

Ogg Vorbis,

RealAudio,

aacPlus,

Windows Media Audio,

Do odbierania sygnału należy skorzystać z

darmowego oprogramowania:

Winamp, Windows Media Player, Amarok, Kaffeine.

Technologia AAC+ pozwala na uzyskanie

doskonałej jakość dźwięku stereo już przy 32 kbps.

Powodem, tego iż radio "przerywa", "buforuje" jest

zbyt obciążone lub po prostu zbyt wolne łącze,

którym dysponuje słuchacz. W takim wypadku

należy zmienić jakość strumienia np. ze 128 na 64

lub z 64 na 32 kbps

Advanced Audio Coding

HE-AAC (AAC+, aacPlus) jest rozszerzeniem

formatu AAC, opracowanym dla zachowania

dobrej jakości dźwięku dla niskich przepływności

strumieni binarnych.

MPEG-4 aacPlus (znany również pod nazwą High

Efficiency AAC) to standard kompresji stratnej

materiałów audio będący kombinacją trzech

technologii kodowania: Advanced Audio Coding

(AAC), Spectral Band Replication (SBR) oraz

Parametric Stereo (PS).

Zarówno technologia AAC jak i aacPlus zostały

opracowane przez szwedzką firmę Coding

Technologies.

46

AAC+

SBR to unikalna technika poszerzania pasma

częstotliwości sygnału, która pozwala kodekom

audio dostarczać taką samą jakość sygnału przy

połowie mniejszym strumieniu binarnym danych.

Technologia Parametric Stereo znacząco zwiększa

wydajność kodeka w celu zmniejszenia strumienia

binarnego stereofonicznych sygnałów audio. SBR i

PS to zatem dwie metody pozwalające na

zwiększenie wydajności kodeka audio.

W rezultacie technologia kodowania aacPlus

umożliwia dostarczanie wielokanałowych

sygnałów audio (np. 5.1) już dla strumienia

binarnego 128kbps, a sygnałów stereofonicznych

– nawet przy 32kbps.

Radio Aktywne to internetowe radio

studenckie Politechniki Warszawskiej działające

od października 2004 roku.

Głównym kanałem radia nadawane jest ponad

czterdzieści programów autorskich, kulturalnych,

muzycznych, sportowych i związanych z życiem

studenckim.

Jednocześnie funkcjonuje pięć muzycznych

kanałów tematycznych (electro, groove, indie,

reggae, rock). Radio prowadzi również transmisje z

wydarzeń sportowych (mecze Polskiej Ligi

Siatkówki, akademickie zawody sportowe etc.).

Radio finansowane jest z funduszy Samorządu

Studentów Politechniki Warszawskiej, jednak

tworzone jest przez studentów różnych uczelni.

Cihai – najstarsza

nowoczesna

encyklopedia

chińska (pierwsze

wydanie 1937)

Wikipedia – za ojców-założycieli tej encyklopedii

uważani są dwaj Amerykanie - Jimmy Wales oraz

Larry Sanger, którzy w latach 2000-2003 byli

związani z projektem Nupedia, poprzednikiem

Wikipedii.

Polska edycja Wikipedii została zapoczątkowana

26 września 2001 r., a już po niecałych dwóch

miesiącach liczyła sobie 500 haseł. Można więc

uznać, że start był bardzo udany i obiecujący.

Kolejny kamieniem milowym był dzień 22 maja

2003 roku, kiedy to liczba haseł sięgnęła 10 tys.

Obecnie liczba artykułów-haseł w polskiej edycji

Wikipedii wynosi około 450 tys. i rośnie w tempie

ok. 70 artykułów dziennie.

30

59

Wikipedia

Polska Wikipedia – ojcowie-założyciele to Paweł

Jochym oraz Krzysztof Jasiutowicz. Obaj nadal

bardzo aktywnie uczestniczą w pracach nad

projektem, są także administratorami polskiej

edycji Wikipedii.

Wyszukiwarka składa się z dwu zasadniczych

części:

pierwsza – składa się oprogramowanie do

pozyskiwania dokumentów – tzw. robot, pająk (ang.

robot, spider, crawler)

druga – to oprogramowanie tworzące indeks (bazę

danych), czyli tak zwany Indekser

Historia wyszukiwarek na świecie

1990 Archie

1991 Veronica

1991 JugHead

1992 WWW Wanderer

1994 WebCrawler

1995 AltaVista

1995 MetaCrawler

1996 Google na Uniwersytecie Standforda (pod

adresem: http://google.stanford.edu)

1996 HotBot

1998 Google Google.com - jako niezależna firma

2005 MSN Search

2007 Windows Live Search

6

Historia wyszukiwarek w Polsce

1991 Emulti

1994 Polski Archie

1995 Polski Infoseek ICM

1996 NEToskop

1996 Sieciowid

1996 Infoseek Onet

1996 Polska AltaVista

1997 Sieciowid kończy działalność

2000 Arena.pl przejmuje zasoby Polskiego

Infoseeka

2001 NetSprint

2002 polska wersja Google'a

Techniki informacyjne

© D. Czerwiński 4

7

Historia wyszukiwarek w Polsce

2003 Szukacz

2003 Polski Yandex

2004 Szook

2004 Gooru

2005 koniec NEToskopu

2005 koniec polskiej wersji wyszukiwarki Yandex

(przejęta przez www.runetresarch.pl)

2006 Wyszukiwarka Giga

2006 Wyszukiwarka Hm?

2006 Wyszukiwarka Hidee.org

2006 NetSeek.pl

2007 Wyszukiwarka video - viFinder.com,

Wyszukiwarka filterfind.org

Google (www.google.com)

indeks ponad 8 mld stron

duże możliwości wyszukiwania

katalog sieciowy

proste i zaawansowane możliwości tworzenia kwerend

duża szybkość zwracania odpowiedzi wynika z

zastosowanych algorytmów wyszukiwania i tysięcy

połączonych ze sobą komputerów osobistych, które

składają się na wyszukiwarkę

specjalny (opatentowany) mechanizm budowania

rankingu zwracanych odpowiedzi PageRankTM daje dobra

skuteczność wyszukiwania przy zastosowaniu krótkich,

jedno lub dwuwyrazowych zapytań

oprócz odsyłaczy gromadzona jest także zawartość

indeksowanych stron

Techniki Informacyjne

Techniki informacyjne

© D. Czerwiński 5

9

Wyszukiwarki Internetowe - charakterystyka

AllTheWeb (www.alltheweb.com)

indeks ponad 2,1 mld stron, 118 mln plików

multimedialnych, 132 mln plików ftp, 2 mln plików

mp3, 15 mln plików pdf (uaktualniany co 7-11 dni)

indeks bieżących wiadomości tworzonych w oparciu

o informacje docierające z 3000 źródeł jest

aktualizowany co minutę

wsparcie dla 49 języków

10

Wyszukiwarki internetowe - charakterystyka

NetSprint (netsprint.pl)

największa wyszukiwarka polskiego Internetu (122 mln

dokumentów)

algorytm wyszukiwania taki jaki stosuje Google.

NetSprint określa wartość strony poprzez badanie

odsyłaczy, które na nią wskazują w całych zasobach

polskiego Internetu.

NetSprint jest pierwszą wyszukiwarką dostosowaną do

specyfiki języka polskiego wykorzystującą

najnowocześniejsze zaawansowane narzędzia do analizy

językowej. Tekst jest przetwarzany podczas

indeksowania stron WWW, sprowadzając je do postaci, w

której wpływ zawiłości języka polskiego jest ograniczony

do minimum (poprawienie skuteczności wyszukiwania i

możliwość zadawania zapytań w języku polskim)

NetSprint (podobnie jak Google) przechowuje we

własnym archiwum skatalogowane dokumenty i je

udostępnia

Techniki informacyjne

© D. Czerwiński 6

11

Wyszukiwarki internetowe - charakterystyka

NEToskop (www.netoskop.pl)

najstarsza, ale ciągle udoskonalana, polska

wyszukiwarka (uruchomiona w grudniu 1996 roku)

indeksująca wyłącznie polskie strony WWW

NEToskop bez problemu rozpoznaje kodowanie

polskich liter; litery mogą być zapisane w formacie

ISO 8859-2, Windows (CP-1250), Mazovia, Latin-2, a

nawet w ,,polskawym", czyli przy użyciu znaków

łacińskich zastępujących polskie (zamiast ą - a, ć -c,

ę -e, ó - o itd.)

W roku 2004 został kupiony przez firmę Pyton

Management, specjalizującą się w zarządzaniu

wiedzą.

Pliki podpisu

Najprostszą formą tej technologii była idea

rozwijana przez D.Tsichritzisa i S.Christodoulakisa,

którzy to zaproponowali binarny kod dla każdego

słowa, który w prosty sposób zastępowałoby

faktyczne słowo w dokumencie.

Zastosowanie takiego rozwiązania pozwala

oszczędzić przestrzeń na dysku, chroni porządek

słów, i zwiększa szybkość przeszukiwania.

Proste i często używane słowa mogą być

reprezentowane przez tak małe słowo binarne jak

to tylko możliwe.

Składnia zapytań w Google

większa ilość słów w zapytaniu zwiększa

prawdopodobieństwo znalezienia,

słowa automatycznie łączone są operatorem

koniunkcji AND (np. studia AND podyplomowe),

operator negacji NOT używany jest w przypadku

kiedy nie chcemy aby dane słowo znalazło się na

stronie (studia AND NOT podyplomowe),

wyrażenia (grupa wyrazów w zadanym porządku) są

wyszukiwane pod warunkiem ujęcia ich w

cudzysłowy lub apostrofy (np. ‘studia

podyplomowe’)

Techniki Informacyjne

Techniki informacyjne

© D. Czerwiński 18

35

Wyszukiwarki Internetowe - składnia

Składnia zapytań w Google

znak + umieszczony bezpośrednio przed słowem

kluczowym oznacza, że szukana strona musi

zawierać dane słowo,

znak - wyklucza strony zawierające wskazane

słowo,

usuwane są automatycznie słowa pospolite i

pojedyncze znaki (np. i, oraz, how, where, a, an, i,

the ), aby je uwzględnić należy posłużyć się

znakiem +,

duże i małe litery są nie rozróżniane oraz znak *

(wild card) jest niestosowany,

36

Wyszukiwarki internetowe - składnia

Rozróżnianie informacji zawartych w META

znacznikach stron

link:www.lublin.pl - strony, które zawierają

odnośniki do adresu www.lublin.pl,

allintitle:studia podyplomowe - strony, które w

swoim tytule mają podane słowa,

intitle: studia podyplomowe - strony, które w

swoim tytule mają słowo studia, a słowo

podyplomowe znajduje się gdzieś na stronie,

Techniki Informacyjne

Techniki informacyjne

© D. Czerwiński 19

37

Wyszukiwarki Internetowe - składnia

allinurl:dydaktyka informatyki - strony ze

wskazanymi słowami w adresie zasobu

sieciowego (pomijane są kropki, ukośniki, itp.

występujące normalnie w adresie),

inurl:dydaktyka informatyki - strony ze słowem

dydaktyka w URL-u i informatyki gdziekolwiek w

dokumencie,

info:www.pollub.pl - pokazuje niektóre

informacje, które serwis Google zgromadził o

wskazanej stronie,

38

Wyszukiwarki Internetowe - składnia

related:www.pollub.pl - pokazuje listę stron, o

tematyce zbliżonej do strony podanej w

zapytaniu,

site:lublin.pl - ogranicza przeszukiwanie do

stron znajdujących się w domenie lublin.pl,

cache:www.pollub.pl - pokazuje wskazaną

stronę tak jak ją Google zapamiętał podczas jej

indeksowania,

stocks:intc yhoo - podaje notowania

wskazanych w zapytaniu spółek giełdowych (po

dwukropku muszą pojawić się skróty nazw tych

spółek),

Grafika rastrowa

Grafika rastrowa - reprezentacja obrazu za pomocą

pionowo-poziomej siatki odpowiednio kolorowanych

pikseli na monitorze komputera, drukarce lub innym

urządzeniu wyjściowym.

Grafika rastrowa została opatentowana pierwszy raz

przez firmę Texas Instruments w latach 70 i jest

teraz wszechobecna

Grafika wektorowa

Grafika wektorowa (obiektowa) – jeden z dwóch

podstawowych rodzajów grafiki komputerowej, w

której obraz opisany jest za pomocą figur

geometrycznych (w przypadku grafiki

dwuwymiarowej) lub brył geometrycznych (w

przypadku grafiki trójwymiarowej), umiejscowionych

w matematycznie zdefiniowanym układzie

współrzędnych, odpowiednio dwu- lub

trójwymiarowym.

Popularne formaty grafiki bitmapowej

GIF – (ang. Graphics Interchange Format) – format

pliku graficznego z kompresją bezstratną stworzony

w 1987 r. przez firmę CompuServe. Pliki tego typu

pozwalają na tworzenie animacji z paletą 256

kolorów i dwustanową przezroczystością. Brak

możliwości zapisu plików graficznych w formacie

True Color . Wady tej pozbawiony jest

konkurencyjny format PNG, który opracowano ze

względu na to, że format GIF wykorzystywał patenty

firm Unisys i IBM na algorytm kompresji LZW.

Od 1 października 2006 r. według organizacji

Software Freedom Law Center wygasły wszystkie

ograniczenia patentowe dotyczące formatu GIF i

format ten można uznać za uwolniony.

Techniki Informacyjne

Techniki informacyjne

© D. Czerwiński 4

© D. Czerwiński 7

Grafika komputerowa

Popularne formaty grafiki bitmapowej

JPEG – standard kompresji statycznych obrazów

rastrowych, przeznaczony głównie do przetwarzania

obrazów naturalnych (zdjęć satelitarnych, pejzaży,

portretów itp.), charakteryzujących się płynnymi

przejściami barw oraz brakiem lub małą ilością

ostrych krawędzi i drobnych detali.

Motywacją do powstania tego standardu było

ujednolicenie algorytmów kompresji obrazów

monochromatycznych i kolorowych. Format plików

JPEG/JFIF obok formatów GIF i PNG jest najczęściej

stosowanym formatem grafiki na stronach WWW.

© D. Czerwiński 8

Grafika komputerowa

Popularne formaty grafiki bitmapowej

PCX – oryginalnie format przeznaczony do

indeksowanych palet kolorów, choć został też

przystosowany do koloru 24-bitowego. Był dość

popularny we wczesnych latach DOS i Windows,

lecz współcześnie jest już rzadki, zastąpiony przez

formaty oferujące lepszą kompresję i dodatkowe

możliwości.

PSD – format aplikacji Adobe Photoshop, zachowuje

wszystkie informacje o danej grafice, bez utraty

jakości, pozwala na zachowanie warstw grafiki, ich

przezroczystości, efektów oraz warstw tekstowych.

Techniki Informacyjne

Techniki informacyjne

© D. Czerwiński 5

© D. Czerwiński 9

Grafika komputerowa

Popularne formaty grafiki bitmapowej

PNG – (ang. Portable Network Graphics) – rastrowy

format plików graficznych oraz system bezstratnej

kompresji danych graficznych. Został opracowany

jako następca GIF w 1995 roku po ogłoszeniu przez

Unisys oraz CompuServe roszczeń patentowych

dotyczących kompresji LZW używanej w formatach

GIF oraz TIFF.

TIFF – (ang. Tagged Image File Format) – jeden z

najbardziej rozpowszechnionych i uniwersalnych

formatów plików graficznych. Służy do zapisywania

grafiki bitmapowej. Został opracowany w 1986 przez

grupę firm pod przewodnictwem Aldus Corporation

do drukowania postscriptowego. W pracach nad nim

uczestniczył też Microsoft i Hewlett-Packard.

© D. Czerwiński 10

Grafika komputerowa

Popularne formaty grafiki bitmapowej

XCF – (ang. eXperimental Computing Facility) -

wewnętrzny format zapisu plików graficznych

programu GIMP. Zachowuje on wszystkie

zaznaczenia, warstwy, kanały i ścieżki, jakie do tej

pory zostały użyte.

XCF nie stosuje kompresji. Jeśli plik zapisze się jako

nazwa_pliku.xcf.gz lub nazwa_pliku.xcf.bz2, to

zostanie on skompresowany w locie. Taki plik

można otwierać i z powrotem zapisywać

bezpośrednio w GIMP-ie, a zajmuje dużo mniej

miejsca.

Techniki Informacyjne

Techniki informacyjne

© D. Czerwiński 6

© D. Czerwiński 11

Grafika komputerowa

Popularne formaty grafiki bitmapowej

PPM – (ang. portable pixmap), PBM (ang. portable

bitmap) oraz PGM (ang. portable graymap) - formaty

zapisu grafiki rastrowej, używane głównie do

wymiany grafiki między różnymi narzędziami

graficznymi. Wszystkie trzy formaty określane są

wspólnie jako PNM - (ang. portable anymap).

PBM zawiera obraz czarno-biały - 1 bit na piksel

PGM zawiera obraz w odcieniach szarości - 8 bitów

na piksel

PPM zawiera obraz kolorowy (RGB) - maksymalnie

24 bity na piksel w trybie binarnym, i do 48 bitów w

trybie tekstowym

© D. Czerwiński 12

Grafika komputerowa

Popularne formaty grafiki wektorowej

SVG – (ang. Scalable Vector Graphics) –

uniwersalny format dwuwymiarowej grafiki

wektorowej (statycznej i animowanej),

nieobwarowany licencjami i patentami 1993 W3C.

Format SVG powstał z myślą o zastosowaniu na

stronach WWW. Używany jest również jako

niezależny od platformy systemowej format grafiki

wektorowej. SVG należy do rodziny XML, więc może

być integrowany z innymi językami, jak na przykład

XHTML

Techniki Informacyjne

Techniki informacyjne

© D. Czerwiński 7

© D. Czerwiński 13

Grafika komputerowa

Popularne formaty grafiki wektorowej

AI – rozszerzenie wewnętrznego formatu plików

programu grafiki wektorowej Adobe Illustrator.

Powstanie formatu rok 1985 wraz z pierwszą wersją

programu działającą w systemie Mac OS

CDR – format grafiki wektorowej stworzony przez

firmę Corel Corporation. Jako pierwszy zdobył sobie

tak wielką popularność i do dziś stanowi jeden ze

standardów graficznych mimo komercyjnej

dystrybucji.

EPS – (Encapsulated PostScript) format plików,

będący podzbiorem języka PostScript, służący do

przechowywania pojedynczych stron grafiki

wektorowej w postaci umożliwiającej osadzanie ich

w innych dokumentach.

Aktualnie większość komputerowych monitorów

wyświetla od 72 do 130 pikseli na cal (PPI),

podczas gdy drukarki mogą drukować materiały w

rozdzielczości 1200 punktów na cal (DPI) lub

wyższej.

Programy do edycji grafiki rastrowej:

ACDSee

Adobe Photoshop

Corel PHOTO-PAINT z pakietu CorelDRAW

Deneba Canvas

GIMP

IrfanView

Adobe Fireworks

Painter

PaintShopPro

Aplikacje do edycji grafiki wektorowej

Wybrane aplikacje

AutoCAD

CorelDraw

Adobe FreeHand

Adobe Flash

Adobe Illustrator

Sketch

Inkscape

Sodipodi

Star Office Draw (jedna z części pakietu)

TechCAD

Xfig

Xara Xtreme

Obiekt trójwymiarowy jest budowany z płaskich

wielokątów (najczęściej trójkątów lub

czworokątów), które mają wspólne wierzchołki i

krawędzie. Wielkość siatki decyduje o dokładności

odwzorowania.

Aplikacje 2D/3D

Wybrane prakiety 2D/3D:

Anim8or

Blender

Lightwave

Cinema 4D

Maya

Povray

Rasterman

SOFTIMAGE|3D

3D Studio i 3D Studio Max

Zmodeler

Oprogramowanie do tworzenia i edycji video

Systemy oparte o MS Windows

Virtual Dub – freeware

Zwei-Stein 3.01 ( v. 4.0 darmowa do zastosowań

prywatnych) – freeware

Windows Movie Maker – darmowy do systemów MS

Windows

Cyberlink Power Director – commercia

Systemy Linux

Cinerella

Vivia

ZS4 (Zwei-Stein 4)


Wyszukiwarka

Podobne podstrony:
sciaga 13
Ściąga (13)
ŚCIAGA 13, matura, matura ustna, maturag, tematyczne
ŚCIAGA 13, matura, matura ustna, maturag, tematyczne
eco sciaga, 13. Skutki monopolizacji rynku, Prawo popytu - wraz ze wzrostem ceny danego dobra, zmale
SCIAGA 13
sciaga 13
sciaga 13
ściąga 13
ściąga 13
sciaga kolos 1 13
sciaga z herbologi 13 cwiczenia
OPRACOWANIE SPRAWDZIAN DZIAL VIII RODZIAL 13 sciaga, OPRACOWANIE TEMATU 13 DZIAŁU VIII

więcej podobnych podstron