1.Informatyka - dziedzina nauki i techniki zajmująca się przetwarzaniem informacji, w tym technologiami przetwarzania informacji
oraz technologiami wytwarzania systemów przetwarzających informację.
2. Informacja
jest każdą formą uporządkowania energii lub materii. W cybernetyce informację określa się jako każdy czynnik organizacyjny”
(niematerialny), który może być wykorzystany do bardziej sprawnego lub bardziej celowego działania przez ludzi, inne organizmy żywe lub maszyny. . Dokładny wzór to: I = -log2(p) bit
3. Wady pierwszych komputerów.
-tworzone na specjalne zamówienie
-duża awaryjność
-duże rozmiary i pobór mocy
-ogromny koszt
-wykorzystywały dziesiętny system liczenia
-programowane tylko sprzętowo
4.Koncepcja komputera Johna von Neumanna
zakłada, że komputer posiada następujące elementy składowe:
*Procesor, którego zadaniem jest:
-Sterowanie pracą całego urządzenia.
-Przetwarzanie informacji (wykonywanie operacji arytmetycznych i logicznych).
*Pamięć główna, której zadaniem jest:
-Przechowywanie aktualnie wykonywanego programu.
-Przechowywanie danych potrzebnych programowi.
-Przechowywanie wyników działania programu.
*Urządzenia wejścia/wyjścia, których zadaniem jest:
-Wprowadzanie do komputera informacji (wejściowe).
-Wyprowadzanie z komputera informacji (wyjściowe).
-Czyli komunikacja ze światem zewnętrznym (człowiekiem).
5.Inteligencja komputerów.
Niekiedy przez komputery szóstej generacji rozumie się komputery myślące”, będące jeszcze w sferze marzeń projektantów.
Sam pomysł sztucznej inteligencji jest jednak przedmiotem krytyki wielu środowisk, między
innymi twórców science fiction. Na podstawie tych utworów powstało już wiele filmów
pokazujących zagrożenia dla człowieka ze strony elektronicznych maszyn myślących.
Wiele osób uważa, że skonstruowanie pierwszego komputera myślącego wyznaczy koniec epoki
człowieka na Ziemi.
6.Rodzaje komputerów:
1. Superkomputery – CRAY, Convex
2. Komputery centralne (ang. Main Frame) – IBM, Vax
3. Minikomputery:
a. Stacje robocze (np. stacje graficzne) – SUN, HP
b. Serwery (np. serwery sieciowe, serwery druku) – HP
4. Mikrokomputery:
1. Komputery osobiste PC (ang. Personal Cpmputer):
• Klasy IBM PC
• Mac Intosh
2. Komputery prawie osobiste (CPC) – Commodore, Amiga
Superkomputer to komputer:
• Robiony na specjalne zamówienie (optymalizowany z punktu widzenia sprzętu i oprogramowania do wykonywania określonych zadań).
• Posiadający ogromną moc obliczeniową (są to najszybsze komputery na świecie; na liście
500 najszybszych komputerów są tylko superkomputery).
• Bardzo drogi (najdroższe komputery na świecie), o cenie od kilku do kilkuset milionów
dolarów.
• Wykorzystujący najnowsze technologie (np. najszybsze mikroprocesory, pamięci,
chłodzony cieczą itp.).
Pierwszy superkomputer CRAY 2 stworzono w 1975 roku. Pracował z częstotliwością zegara
250 MHz (komputery PC dopiero 20 lat później).
7. Bit (ang. binary digit)
- najmniejsza ilość informacji (zarazem jednostka informacji) potrzebna do określenia jednej z dwóch możliwości (np. stanów
urządzenia), które zwykle umownie oznacza się jako 0 lub 1. W skrócie bit oznacza mała litera b.
Bajt (ang. byte)
– ciąg 8-bitów stanowiący najmniejszą adresowalną jednostkę informacji pamięci komputerowej, nazywaną znakiem. W skrócie bajt
oznacza duża litera B.
W jednym bajcie można zakodować
następującą liczbę możliwości:
2
( 2 ( 2 ( 2 ( 2 ( 2 ( 2 ( 2 = 2
8 = 256
1 B = 1 znak
1 kB = 1024 B (kB - kilobajt) 1 MB = 1024 kB (MB - megabajt)1 GB = 1024 MB (GB - gigabajt)1 TB = 1024 GB (TB - terabajt)1 PB = 1024 TB (PB – peta bajt) 1 EB = 1024 PB (EB - eksabajt
Standardy kodowania znaków:
1. ASCII
2. Rozszerzenia ASCII
1. ISO/IEC 646
2. ISO 8859
3. Windows-1250
4. Unicode
8.Rodzaje mikroprocesorów:
-RISC
(ang. Reduced Instruction Set Computers) - nazwa architektury mikroprocesorów, która została przedstawiona pod koniec lat 70.
Charakteryzuje się ona zredukowana listą rozkazów mikroprocesora do kilkudziesięciu (50-70), tych najczęściej używanych i najprostszych.
-Nie-RISC
(
CISC
– ang. Complex Instruction Set Computers,
EPIC
– ang. Explicitly Parallel Instruction Computing) – to architektura mikroprocesorów
cechująca się rozbudowaną listą rozkazów wewnętrznych do ponad 200. Obecnie panuje przekonanie, że mikroprocesory nie-RISC są nieefektywne,
ponieważ stwarzają kłopot przy próbie optymalizacji ich pracy.
Funkcje procesora:
1. Wykonywanie operacji arytmetycznych i logicznych (tzw. jednostka
ALU
– ang. Aritmetical & Logical Unit).
2. Sterowanie pracą urządzeń (tzw. jednostka
CU
– ang. Control Unit).
Procesor wykonuje
rozkazy
. Wszystkie możliwe do wykonania rozkazy znajdują się na
liście poleceń
wewnętrznych procesora.
Każdy program użytkowy, bez względu na rodzaj wykorzystanego języka programowania przy
jego tworzeniu, w końcowym etapie musi zostać przetłumaczony i wyrażony za pomocą
rozkazów procesora.
9.Metody przetwarzania równoległego rozkazów:
-Przetwarzanie potokowe
-Przetwarzanie superskalarne
Etapy wykonania rozkazu:
-Pobranie rozkazu (odczytanie z pamięci) – PR
-Dekodowanie rozkazu (odszukanie na liście) – DR
-Pobranie argumentów (odczytanie z pamięci) – PA
-Wykonanie rozkazu – WR
-Zapisanie wyniku (w pamięci) – ZW
Przetwarzanie potokowe rozkazów
– równoległe (w tym samym czasie) wykonywanie wielu rozkazów przez procesor, ale każdy rozkaz jest
wykonywany na innym etapie.
Przetwarzanie superskalarne rozkazów
– równoległe (w tym samym czasie) wykonywanie wielu rozkazów przez procesor, ale każdy rozkaz jest
wykonywany na tym samym etapie.
10.Klasyfikacja (podział) pamięci w komputerze:
A.Pamięć wewnętrzna (półprzewodnikowa, ulotna):
1.Rejestry mikroprocesora (kilkanaście do kilkudziesięciu bajtów).
2.Cache – pamięć podręczna mikroprocesora zwykle dwupoziomowa L1 i L2 – 1 MB.
3.RAM (ang. Random Access Memory, pamięć o dostępie swobodnym, operacyjna, główna) – 1 GB.
4.Buforowa (podręczna, cache) urządzeń (np. drukarki, dysku twardego itp.) – 1 MB.
5.ROM (ang. Read Only Memory), tylko do odczytu, stała – kilka KB.
B.Pamięć zewnętrzna (masowa, trwała):
1.Urządzenia magnetyczne:
-Stacje dysków elastycznych (dyskietek) – 1,44 MB.
-Stacje dysków twardych – kilkaset GB.
-Stacje dysków wymienialnych (np. zipdrive) – kilkadziesiąt GB.
-Taśmy magnetyczne – kilkaset GB.
2.Urządzenia optyczne:
-Stacje dysków CD – 650 MB.
-Stacje dysków DVD – 4,7 GB (8,5 GB, 17 GB).
-Stacje dysków Blu-ray – 25 GB/warstwa
3.Stacje dysków magneto-optycznych – 100 GB.
4.Inne (np. pamięć półprzewodnikowa typu flash, SD itp. wykorzystywana np. w pendrivach, odtwarzaczach multimedialnych itp.).
Pamięć wewnętrzna
jest wykorzystywana przez komputer do bieżących operacji i nie może służyć do przechowywania informacji w długim okresie
czasu. Steruje jej użyciem system operacyjny i ewentualnie pewne mechanizmy sprzętowe. Programista zazwyczaj nie ma do niej dostępu.
Pamięć zewnętrzna
służy do przechowywania informacji w długim okresie czasu i może przechowywać niewykorzystywane dane.
11.Drukarki
tworzą wydruk składając każdy jego obiekt (także litery) z pojedynczych punktów (grafika punktowa) ułożonych blisko siebie (zależy od
zdolności rozdzielczej drukarki) – nie dotyczy to drukarki rozetkowej. W wydrukach kolorowych nakładane są na siebie barwy podstawowe w technologii
CMY lub CMYK.
Ploter
tworzy wydruk z pojedynczych linii (grafika wektorowa) rysowanych jednym kolorem każda. Ramię mechaniczne wybiera do rysowania pisak o
określonym kolorze. Ploter nie potrafi mieszać barw.
Drukarki i plotery
mogą być stołowe (głowica lub ramię drukujące wykonuje ruchy w dwóch kierunkach (x, y) – wadą duże gabaryty urządzeń, lub
bębnowe (papier jest przesuwany w jednym kierunku a głowica/ramię drukujące w drugim kierunku) – małe gabaryty urządzeń.
12. Modem
jest urządzeniem elektronicznym, które zamienia cyfrowe dane (komputerowe) na analogowe sygnały elektryczne i odwrotnie, które są
transmitowane w sieci zewnętrznej (np. linia telefoniczna, telewizja kablowa, fale radiowe, sieć energetyczna). Przy wysyłaniu sygnału modem
moduluje falę nośną w danej sieci kodując w niej informację. Modem odbierający ma za zadanie odseparować informację z fali nośnej demodulując ją.W
odróżnieniu od modemu (modem działa poza siecią komputerową, łączy sieć komputerową z inną siecią nie komputerową),
karta sieciowa
jest
urządzeniem elektronicznym będącym częścią sieci komputerowej (urządzenie aktywne sieci).
Jej zadanie polega na przekształcaniu pakietów danych wysyłanych przez komputer w sygnały
elektryczne (cyfrowe), które są przesyłane w sieci komputerowej oraz odbieraniu tych sygnałów
i przekształcaniu ich w pakiety danych. Karta sieciowa potrafi to robić tylko w jeden sposób
(mówimy, że pracuje w określonym standardzie, np. Ethernet). Każda
karta sieciowa ma unikatowy adres (MAC)
w skali świata, nadawany przez producenta i zapisany w jej pamięci ROM.
13.System wielomagistralowy.
-magoistrala wewnterzna procesora taktowana z częstotliwości procesora, laczaca procesor z pamięcią cache
-magistrala systemowa laczy pamiec cache z Ram
-magistrala PCI laczy szybsze urzadzenia komputera z pamięcią RAM
-magistarala wejścia/wyjscia laczy wolniejsze urzadzenia z pamięcią RAM
-dedykowana magistrala AGP/PC/Exress laczy karte graficzna z RAM
14.Rodzaje interfejsów:
• szeregowy (np. USB),
• równoległy (8-bitowy, 16-bitowy, 24-bitowy, 32-bitowy)
W interfejsie szeregowym
kablem transmisyjnym przesyłany jest jeden ciąg bitów, który zamieniany jest na ciąg bajtów.
W interfejsie równoległym
każdym kablem transmisyjnym przesyłany jest ciąg bitów. Ciągi te muszą być zamienione na ciągi bajtów.
Przygotowanie sygnału, jego transmisja, odbiór i interpretacja są:
• Interfejs szeregowy – bardzo proste, pewne i szybkie
• Interfejs równoległy – skomplikowane, kłopotliwe i długie.
Obecnie przede wszystkim rozwijane są interfejsy szeregowe, w typowych rozwiązaniach
cechują się wyższą szybkością i niezawodnością (np. obecnie łączy się drukarki za pomocą USB).
15.Funkcje (podstawowe) systemu operacyjnego:
1. Sterowanie pracą urządzeń.
2. Zarządzanie informacją w pamięciach.
3. Porozumiewanie z użytkownikiem (interfejs użytkownika).
System operacyjny określa możliwości komputera. Możliwości sprzętu, których system operacyjny
nie jest w stanie wykorzystać są bezużyteczne.
Wraz z rozwojem technologii komputerowej, powstawaniem nowego sprzętu i jego nowymi
możliwościami system operacyjny musi podlegać ciągłym modyfikacjom, by nadążyć za tym
rozwojem.
Współczesne komputery PC wykorzystują następujące systemy operacyjne:
1. MS DOS (wersja 1-6).
2. MS DOS + MS Windows 3.11.
3. MS Windows 9x (95, 98, Me).
4. Windows NT (wersja 1-4).
5. Windows 2k (2000, XP, 2003)
6. Windows Vista.
7. Unix, Linux.
8. Mac Intosh OS.
16.Dlaczego środowisko MS Windows zrewolucjonizowało świat komputerów?
Obecnie na świecie panuje monopol systemów operacyjnych na komputery PC jednej firmy – MicroSoft. Monopol ten wytworzył się samoistnie, a nie na
skutek jakiejś brudnej gry rynkowej. Tak duża popularność produktów MicroSoft sprawia, że nikt inny nie jest się w stanie wybić w tym momencie.
Pojawiła się pętla dodatniego sprzężenia zwrotnego.
Jeżeli jakaś firma na świecie chce wypuścić nowy program użytkowy, to najpierw przygotuje jego
wersję pod Windows, ponieważ tutaj ma najwięcej potencjalnych klientów. Również tą wersję
najczęściej będzie modyfikować. Najwięcej na tym zarobi.Podobnie jest z producentami sprzętu
(zgodny z Windows).
Współczesny użytkownik komputera PC w zasadzie nie ma innej alternatywy, niż MS Windows:
-Może kupić sobie komputer MacIntosh i korzystać z jego systemu operacyjnego, ale traci dostęp do milionów programów użytkowych napisanych pod
Windows.
-Może zainstalować sobie Linuxa, ale będzie jak wyżej plus pojawią się problemy ze sprzętem. Dodatkowo Linux nie jest tak wydajny w zarządzaniu
strukturą katalogów, jak Windows.
-To, że Linux jest za darmo jest nieprawdą. Darmowe jest jądro systemu, ale chcąc mieć takie same programy narzędziowe, jak w Windows (w nich
tkwi siła systemu) trzeba zapłacić dużo więcej.
17. Dysk logiczny
to dysk obsługiwany przez system operacyjny. Dyskiem logicznym może być całe urządzenie (np. dyskietka magnetyczna, CD,
DVD, pendrive) lub jego część (np. dysk magnetyczny).
Dodatkowo dyskiem może być określony katalog na innym dysku logicznym (tzw. dysk
mapowany).
Dysk magnetyczny
podczas preformatowania (formatowanie wstępne) dzielony jest na części (tzw. partycje) i w każdej partycji tworzone są dyski
logiczne.Powinno się mieć co najmniej dwa dyski logiczne (gdy jeden fizyczny), by można było przenieść informacje podczas problemów z systemem
operacyjnym. Za dużo dysków też jest niewygodne – mniejsza pojemność.
Struktura katalogów
ma służyć uporządkowaniu informacji zgromadzonych na dysku. Dodatkowa zapewnia ona bezpieczeństwo poprzez
odseparowanie plików aplikacji od plików użytkownika oraz plików różnych aplikacji.
Plik
– zbiór informacji na określony ale dowolny temat stanowiący dla użytkownika pewną całość.
18.Program komputerowy-sekwencja symboli opisująca obliczenia zgodnie z pewnymi regułami zwanymi językiem
programowania
[1]
. Program jest zazwyczaj wykonywany przez komputer (np. wyświetlenie strony internetowej), czasami bezpośrednio – jeśli wyrażony jest
w języku zrozumiałym dla danej maszyny lub pośrednio – gdy jest interpretowany przez inny program (interpreter). Program może być ciągiem instrukcji
opisujących modyfikacje stanu maszyny ale może również opisywać obliczenia w inny sposób (np. rachunek lambda).
*Edycja tekstów:
-Dokumenty tekstowe (np. MS Word)
-DTP (np. Ventura, Tex)
*Arkusze kalkulacyjne
*Systemy Bazy Danych
*Przetwarzanie grafiki:
-Przetwarzanie obrazów
-Oprogramowanie CAD/CAM
-CAD – Computer Aided Design
-CAM – Computer Aided Manufacturing
19. algorytm programu
– opis sposobu rozwiązania problemu zapisany w języku logiki matematycznej przy pomocy skończonej liczby operacji
20. Sieć komputerowa
to zespół komputerów połączonych ze sobą. Komputery uważamy za połączony, gdy potrafią wymieniać informację między
sobą. Komputery w sieci są autonomiczne (ich funkcjonowanie nie zależy od sieci; brak połączenia z siecią nie pozwoli na wymianę informacji).Przed
utworzeniem pierwszych sieci komputerowych powstawały systemy wielodostępne – pewna liczba terminali połączonych z jednym (dużym) komputerem
centralnym umożliwiająca równoczesną pracę wielu ludziom.W latach 70-tych XX wieku uważano, że systemy wielodostępne są przyszłością
informatyki
.
Rodzaje sieci komputerowych:
1.Lokalne sieci komputerowe – LAN:
*Sieci równorzędne (Peer-To-Peer, P2P)
*Sieci zależne (klient-serwer):
-Z niededykowanym serwerem
-Z dedykowanym serwerem
2.Miejskie (metropolitalne, małe regionalne) sieci komputerowe – MAN
3.Rozległe (regionalne, krajowe, ogólnoświatowe) sieci komputerowe – WAN
21.Protokół sieciowy
to zbiór narzędzi programowych i sprzętowych realizujących i egzekwujących reguły obowiązujące w sieci.
Protokół jest to zbiór procedur oraz reguł rządzących komunikacją, między co najmniej dwoma
urządzeniami sieciowymi. Istnieją różne protokoły, lecz urządzenia nawiązujące w danym
momencie połączenie muszą używać tego samego protokołu, aby wymiana danych pomiędzy
nimi była możliwa.
W celu komunikacji między różnymi protokołami wykorzystuje łącza
(ang. gateway)
- czyli urządzenia, które
tłumaczącą rozkazy jednego protokołu na drugi. Innym rozwiązaniem może być skonfigurowanie komputerów w taki sposób, by wykorzystywały kilka
protokołów równocześnie.
Protokół sieciowy odpowiada za:
1. Transmisję informacji:
1. Podział na pakiety
2. Przesyłanie pakietów
3. Kontrola poprawności transmisji pakietów
4. Naprawianie błędów transmisji
5. Składanie pakietów
6. Powiadamianie o problemach z transmisją
2. Adresowanie w sieci
3. Bezpieczeństwo w sieci:
1. Odbiór przesyłek przez uprawnione osoby (adresatów)
2. Szyfrowanie przesyłanej informacji
22.Router (po polsku – ruter, traser, trasownik) –
podstawowe urządzenie sieciowe (każdej sieci), pełniące rolę węzła komunikacyjnego, służącego do
rozdzielenia sygnału i rozgałęzienia połączeń sieciowych – kierowanie ruchem w sieci. Proces kierowania ruchem nosi nazwę trasowania, routingu lub
rutowania.
Trasowanie musi zachodzić między co najmniej dwiema podsieciami, które można wydzielić w
ramach jednej sieci komputerowej. Urządzenie przechowuje ścieżki do konkretnych obszarów
sieci. Skuteczne działanie routera wymaga wiedzy na temat otaczających go urządzeń, przede
wszystkim innych routerów oraz przełączników (switch).
23. Szerokopasmowy dostęp do Internetu– usługa polegająca na połączeniu z Internetem za pomocą szybkiego
łącza lub medium o dużej przepustowości transmisji. Połączenie wykorzystuje szerokie pasmo częstotliwości wykorzystywane przez modem. Najczęściej
do tego celu wykorzystuje się technologie z rodziny DSL (xDSL), WiMAX, PON lub inne podobne.Dostęp szerokopasmowy umożliwia transmisję
danych z prędkością co najmniej 5 Mbit/s w kierunku odbiorcy (download) i 1 Mbit/s od odbiorcy do Internetu (upload). Jednak dopiero szybsze łącza o
prędkości ponad 20 Mbit/s pozwolą na prawdziwą rewolucję (np. na oglądanie filmów HD w czasie rzeczywistym).
24.
TCP/IP
Protokół komunikacyjny TCP/IP jest używany do łączenia komputerów (urządzeń, hostów) w Internecie. TCP/IP wykorzystuje wiele protokołów – dwa
podstawowe to: TCP i IP:
-TCP (Transmission Control Protocol) odpowiada za uzgadnianie tożsamości, zarządzanie pakietami (mogą docierać do adresata w innej kolejności, niż
były wysłane), sterowanie przepływem oraz wykrywanie i obsługę błędów.
-IP – odpowiada za przesyłanie informacji (pakietów) od punktu, do punktu.
Internet
to powstała w na początku lat dziewięćdziesiątych XX wieku ogólnoświatowa (WAN) sieć sieci komputerowych (tzw. metasieć) wykorzystujących
protokół TCP/IP.
Intranet
Przez Intranet rozumie się sieć lokalną (prywatną lub firmową), w której wykorzystywana jest filozofia Internetu.
W Internecie i Intranecie wykorzystywane są niemal te same narzędzia programowe
(przeglądarki, szperacze, IM, ftp, telnet itp.) i metody pracy ich użytkowników (strony WWW,
poczta elektroniczna). To właśnie stanowi o sile Intranetu - jest to forma miniatury Internetu.
Intranet jest bogatszy od Internetu o co najmniej trzy właściwości: jest znacznie szybszy,
bezpieczny (odizolowany od świata zewnętrznego przez specjalne zabezpieczenia w postaci tak
zwanych firewalli) i pod stałą kontrolą właściciela.
Extranet
Prywatna rozległa sieć oparta na internetowym protokole transmisji informacji. Służy do
bezpiecznej (podobnie jak ma to miejsce w Intranecie) komunikacji z wyróżnionymi
zewnętrznymi użytkownikami – np. między odległymi redakcjami jednego pisma, a także z
biznesowymi partnerami, zaopatrzeniowcami i klientami.
Sieć tego typu jest także nazywana siecią korporacyjną,
VPN – Virtual Private Networks
lub
WLAN – Wide Local Area
Network
(także, ale już w innym znaczeniu, lokalnym, nazywany
Wireless LAN
– bezprzewodowy LAN).
VPN umożliwia tworzenie tuneli pomiędzy komputerami i sieciami lokalnymi (nie będąc w danej
sieci LAN, dzięki VPN możemy być traktowani jako jedna z jej części).
25. IPv4
jest obecnym standardem adresowania w Internecie. Adres IP to liczba 32-bitowa (od 0 do 4294967295), zapisywana w porządku big
endian (górny bajt). Jest to forma zapisu danych za pomocą rozłącznych części (tutaj bajtów), z których najważniejsza jest pierwsza część (lewy bajt).
Liczby w adresie IP nazywają się oktetami, ponieważ w postaci binarnej mają one osiem bitów. Te osiem bitów daje w sumie 256 kombinacji, więc
każdy oktet przedstawia liczbę dziesiętną od 0 do 255.
Najpopularniejszy sposób zapisu adresów IP, to przedstawianie ich jako 4 dziesiętnych liczb od
0 do 255 oddzielonych kropkami. W rzeczywistości komputery traktują je jako liczbę 32-bitową.
IPv6 – najnowsza wersja protokołu IP, następca IPv4, do którego
stworzenia przyczynił się w głównej mierze problem małej, kończącej się ilości adresów IPv4. Dodatkowymi zamierzeniami było udoskonalenie
protokołu IP: eliminacja wad starszej wersji, wprowadzenie nowych rozszerzeń (uwierzytelnienie, kompresja i inne), zminimalizowanie czynności
wymaganych do podłączenia nowego węzła do Internetu (autokonfiguracja).
Pierwsze dokumenty opisujące protokół IPv6 powstały w 1995 roku. W latach 1996-2006 w
infrastrukturę Internetu wdrażany był projekt 6BONE w formie eksperymentalnej sieci działającej
w oparciu o IPv6. Po zamknięciu tego projektu niektórzy dostawcy usług internetowych
rozpoczęli produkcyjne dostarczanie IPv6. Spora część szkieletu sieci IPv6 opiera się jednak
jeszcze na tunelach wykorzystujących poprzednią wersję protokołu.
26.DNS -to system serwerów oraz protokół komunikacyjny zapewniający zamianę adresów
znanych użytkownikom Internetu na adresy zrozumiałe dla urządzeń tworzących sieć komputerową. Dzięki wykorzystaniu DNS nazwa mnemoniczna,
np.
pl.wikipedia.org
, może zostać zamieniona na odpowiadający jej adres IP, czyli
145.97.39.155
.
URL(Uniform Resource Locator) oznacza ujednolicony format adresowania zasobów (informacji, danych, usług), stosowany w Internecie i w sieciach
lokalnych.
URL najczęściej kojarzony jest z adresami stron WWW, ale ten format adresowania służy do
identyfikowania wszelkich zasobów dostępnych w Internecie. Większość przeglądarek
internetowych umożliwia dostęp nie tylko do stron WWW, ale także do innych zasobów w
Internecie, po wpisaniu do przeglądarki poprawnego adresu URL danego zasobu.
Domena internetowa
– element adresu DNS wykorzystywanego do nazywania urządzeń w Internecie. Dla przykładu adres Wikipedii
pl.wikipedia.org
składa się z trzech nazw domenowych rozdzielonych kropkami.
27.Podstawowe usługi (informatyczne) Internetu:
-Tworzenie, wyszukiwanie i przeglądanie stron.
-Telnet
-FTP
-Poczta elektroniczna (szeroko rozumiana)
-Wykorzystanie mediów strumieniowych
Do podstawowych usług informatycznych Internetu należą:
1. Telnet
2. FTP
3. Poczta elektroniczna
4. Media strumieniowe
FTP (ang. file transfer protocol)
– protokół do przesyłania plików. Jest to jedna z powszechnych usług komunikacyjnych (sprzętowa i programowa
składowa infrastruktury Internetu) pozwalająca na sprawną transmisję informacji w postaci pliku poprzez sieć. Plik ten może zawierać informacje
dowolnego typu (np. tekst, obraz, dźwięk, film).W Sieci istnieje wiele serwerów ftp udostępniających informacje w ten sposób. Zasoby tych serwerów są
widoczne zdalnym użytkownikom jako systemy plików.Udostępniane one mogą być anonimowo lub wymagane jest posiadanie konta na danym
serwerze ftp.
Telnet
to usługa polegająca na pracy na zdalnym komputerze. Użytkownik łączy się zdalnie z innym komputerem (loguje się na nim) i wykorzystuje
jego zasoby jak własne przy pomocy swojej klawiatury i myszy. Telnet jest częścią takich powszechnych usług Internetu, jak ftp i przeglądanie stron
WWW. W tym wypadku zdalny użytkownik wykorzystuje zasoby informacji zgromadzone na zdalnym komputerze, kopiując je na własny dysk.
Innym przykładem korzystania z telnetu jest zdalne uruchamianie i obsługa aplikacji. W ten
sposób używa się mocy obliczeniowych komputerów w centrach obliczeniowych do realizacji
bardziej skomplikowanych zadań użytkowników (zazwyczaj usługa płatna) i/lub
oprogramowania, którego użytkownik nie posiada.
Telnet jest standardem protokołu komunikacyjnego używanego w sieciach komputerowych do
obsługi odległego terminala w architekturze klient-serwer. Telnet jest usługą (programem)
pozwalającą na zdalne połączenie się komputera (terminala) z oddalonym od niego
komputerem (serwerem) przy użyciu sieci, wykorzystując do tego protokół TPC/IP oraz
standardowo przypisany port 23. Umożliwia on użytkownikowi ustanowienie zdalnej sesji na
serwerze tak, jakby siedział przed nim.
Poczta elektroniczna
, to jedna z informatycznych usług Internetu polegająca na wysyłaniu wiadomości (komunikatów, które nie są zapisane w plikach).
Pierwotnie polegała na wysyłaniu wiadomości w formacie tekstowym ASCII (odpowiednik SMS w telefonii komórkowej). Później rozszerzono możliwości
poczty o wiadomości w formacie HTML. Ponadto do wiadomości pocztowych mogą być dołączone załączniki w postaci plików w prawie dowolnym
formacie (także plików binarnych) o prawie dowolnej wielkości.
Za pośrednictwem poczty elektronicznej realizowanych jest wiele usług internetowych, nie tylko
email (grupy i listy dyskusyjne, BBS – Bulletin Board System, rozmowy w czasie rzeczywistym –
IRC czy IM).
28.Cechy zasobów informacyjnych Internetu:
-Zasoby Internetu zazwyczaj są szczególnie cenne ze względu na ich aktualność i możliwość szybkiego i powszechnego dostępu do nich.
-Wiedza o potencjale informacyjnym Internetu ma szczególne znaczenie w obszarze społeczno-ekonomicznym oraz dla nauki i edukacji.
-Niestety zarysowuje się brak równowagi pomiędzy narzędziami pozwalającymi korzystać z Internetu (nie nadążają) a jego zasobami informacyjnymi i
usługami.
-Z punktu widzenia mediów zasoby informacyjne Internetu są wartościowym źródłem informacji backgroundowych, bieżących oraz poczynań konkurencji
(zawodowych).
-Tradycyjne (papierowe) publikacje z jednej strony spowalniały przepływ informacji, natomiast z drugiej czyniły je bardziej wyważonymi, zmniejszając
ryzyko rozpowszechniania informacji niesprawdzonych i niewiarygodnych.
-W przypadku zasobów online zredukowano lub nawet wyeliminowano pośredników na drodze od producenta informacji do ich odbiorcy.
-W konsekwencji pojawił się problem ogromnej liczebności i wiarygodności informacji określanych często terminem smogu informacyjnego”.
29.Co to jest WWW, strona WWW, HTML, http, hipertekst?
Zasoby Internetu tworzą zbiory informacji pogrupowane w stronach (witrynach, portalach). W
większości są one zapisane w formacie nazywanym hipertekstem. Hipertekst stanowi logiczną
kombinację tekstu i materiałów multimedialnych ułożonych w sposób nieliniowy (brak początku i
końca, przeglądana zawartość i kolejność zależna od użytkownika).
Każda strona (site) WWW zawiera zazwyczaj jeden monotematyczny zbiór informacji. Jest ona
podzielona na części (page) nazywane dla odróżnienia stronicami, w znaczeniu pojedynczych
kartek.
A zatem zbiory WWW są nazywane stronami, które z kolei są dzielone na pojedyncze kartki” –
stronice.
HTTP to protokół do przesyłania hipertekstu.
Strony WWW są tworzone przy wykorzystaniu specjalnie do tego celu opracowanego języka
programowania HTML (ang. HiperText Markup Language) – hipertekstowego języka znaczników.
Pozwala on na formatowanie dokumentów zachowując niewielkie rozmiary plików (w
porównaniu z dokumentami np. MS Word).
Dokumenty hipertekstowe są przykładami dokumentów nieliniowych. Pozwalają one na łatwe
przeglądanie i odczytywanie zawartości stron i stronic o kolejności dobieranej indywidualnie przez
użytkownika.
Strony mogą zawierać informacje w każdej formie – teksty, rysunki, fotografie, dźwięki i wideo
(multimedia).
Na stronach umieszcza się także linki (odnośniki), wybranie których powoduje otwarcie nowej
strony/stronicy.
30.Metody wymiany poglądów w Internecie?
W starym” Internecie (Web 1.0) do roku 2001 internauci mogli wymieniać poglądy wykorzystując:
• Grupy i listy dyskusyjne
• Grupy binarne
Nowy Internet (Web 2.0) po 2001 roku rozszerzył możliwości o:
• Blogi
• Grupy społecznościowe
Grupa lub lista dyskusyjna
- w Internecie to ogólna nazwa wszelkich form dyskusji internetowych przypominających wymianę korespondencji, a nie
rozmowy w czasie rzeczywistym
.31. Metody komunikacji w Internecie?
Metody komunikacji w Internecie można podzielić z punktu widzenia relacji pomiędzy nadawca i odbiorcą na:
• Komunikację bezpośrednią
• Komunikację pośrednią
Z punktu widzenia czasu realizacji połączenia komunikacja może być:
• Komunikacją natychmiastową (online)
• Komunikacją odroczoną w czasie (offline)
Dodatkowo można mówić o komunikacji bezpośredniej online i bezpośredniej offline. Komunikacja
pośrednia ze swojej natury zwykle ma formę komunikacji odroczonej.
O komunikacji bezpośredniej mówi się, gdy konkretny nadawca porozumiewa się bezpośrednio z
konkretnym odbiorcą. Równocześnie dla obu stron istotna jest i znana druga strona rozmowy.
Dodatkowo podczas komunikacji bezpośredniej online wymagane są systemy szybkiego,
bezpośredniego kontaktu osób między sobą. Rejestracja treści korespondencji jest tutaj kwestią
marginalną (może jedynie na zasadzie prowadzenia archiwum), ponieważ osoby wymieniają
poglądy w czasie rzeczywistym.
Komunikacja bezpośrednia offline wymaga gromadzenia treści rozmowy w celu późniejszego
wykorzystania.
Podczas komunikacji pośredniej także pewien konkretny nadawca wysyła informację do
odbiorcy, ale przechodzi ona przez szereg użytkowników pośrednich, także uczestniczących w
procesie porozumiewania się i informacja o nadawcy ginie. Z drugiej strony w tym modelu
porozumiewania się odbiorcy jest wszystko jedno od kogo otrzymał daną informację. Interesuje
go jedynie jej treść.
Z uwagi na specyfikę realizacji połączenia w metodzie komunikacji pośredniej, konieczność
przekazywania sobie informacji przez pośredników, co wymaga czasu, metoda ta jest zazwyczaj
metodą komunikacji offline.
Metody komunikacji bezpośredniej w Internecie:
• email (offline)
• IRC
• IM
• VoIP
Metody komunikacji pośredniej w Internecie:
• P2P
32.Intruzów internetowych można podzielić na trzy kategorie:
-Haker – działa w dobrej wierze, w imię ludzkości (większości lub dręczonych); włamuje się do systemów komputerowych by wskazać ich słabość, lub by
odpłacić się firmie za krzywdy wyrządzone innym; nie kradnie, zawsze zostawia swoją wizytówkę w systemie.
-Craker – to po prostu złodziej, który włamuje się do systemu komputerowego by coś ukraść; zaciera wszelkie ślady po swojej obecności.
33.DoS attack
(ang. Denial of Service, pol. odmowa usługi) - atak na system komputerowy lub usługę sieciową w celu uniemożliwienia działania
poprzez zajęcie wszystkich wolnych zasobów.
Atak polega zwykle na:
• przeciążeniu aplikacji serwującej określone dane, czy obsługującej danych klientów (np.
wyczerpanie limitu wolnych gniazd dla serwerów FTP czy WWW),
• zapełnienie całego systemu plików tak, by dogrywanie kolejnych informacji nie było
możliwe (w szczególności serwery FTP),
• czy po prostu wykorzystanie błędu powodującego załamanie się pracy aplikacji.
W praktyce przez atak typu DoS rozumie się różnego typu ataki na systemy komputerowe
mające na celu utrudnienie lub uniemożliwienie funkcjonowania danej maszyny lub części sieci.
Ataki tego typu polegają najczęściej na sztucznym generowaniu i przesyłaniu do komputera
ofiary wielkiej ilości informacji. Komputer (ofiara) nie jest w stanie przeanalizować i odpowiedzieć
na wszystkie napływające informacje co prowadzi do spowolnienia lub zablokowania jego
działania (zawieszenia komputera). Niemożliwe staje się wtedy osiągnięcie go, mimo że usługi
pracujące na nim są gotowe do przyjmowania połączeń.
34.Co to jest program złośliwy? Rodzaje? Czy wirus i program złośliwy to to samo?
Przez złośliwe oprogramowanie (ang. malware – malicious software) rozumie się wszelkie aplikacje, skrypty i ingerencje mające szkodliwe,przestępcze lub złośliwe działanie w stosunku do użytkownika komputera.
Podstawowe cechy programów złośliwych to:
• Instalacja bez wiedzy i zgody użytkownika,
• Uruchamianie bez wiedzy i zgody użytkownika,
• Działanie na niekorzyść użytkownika),
• Zazwyczaj małe rozmiary.
Rodzaje programów złośliwych:
• Exploit - kod umożliwiający zdalne przejęcie kontroli nad komputerem poprzez sieć, wykorzystując do tego celu dziury w programach i
systemach operacyjnych.
• Dialer - program łączący się z siecią przez inny numer dostępowy niż wybrany przez użytkownika, najczęściej są to numery o początku 0-
700 lub numery zagraniczne. Dialery szkodzą tylko posiadaczom modemów telefonicznych analogowych i cyfrowych ISDN, występują
głównie na stronach o tematyce erotycznej.
• SQL/URL injection - forma ataku na bazę danych poprzez stronę WWW i komendy języka SQL. Służy wyciąganiu informacji z bazy danych
niedostępnych dla zwykłego użytkownika. Atakujący może zmodyfikować zapytanie kierowane do bazy danych poprzez modyfikację
adresu URL o nieautoryzowane polecenia języka SQL.
• Robaki (ang. Worms) – programy złośliwe rozmnażające się tylko przez sieć. Nie potrzebują programu "żywiciela" tak jak typowe wirusy.
Często powielają się poprzez pocztę elektroniczną.
• Króliki, określane są również jako bakterie. To programy, które nie niszczą plików. Ich jedynym celem jest samokopiowanie. Typowy
program w rodzaju bakterii lub królika może na przykład jednocześnie uruchomić kilka swoich kopii w systemach wieloprogramowych, lub
stworzyć dwa nowe pliki z których każdy jest kopią oryginalnego pliku źródłowego bakterii. Oba programy mogą następnie skopiować się
podwójnie i w ten sposób mogą rozmnożyć się do bardzo dużej liczby. Bakterie reprodukują się wykładniczo, zabierając całą moc
obliczeniową procesora. Ten rodzaj ataku jest jedną z najstarszych form zaprogramowanych zagrożeń.
• Bomby logiczne (ang. logical bombs) różnią się od konia trojańskiego tym, że ukryte operacje nie są wykonywane od razu po ich
uruchomieniu, lecz dopiero w odpowiednim czasie. Może to być zajście określonego zdarzenia w systemie bądź wielokrotne uruchomienie
danego programu. Często uruchomienie ukrytych operacji następuje automatycznie po upłynięciu określonej liczby dni od momentu
uruchomienia bomby.
Wirus – krótki program komputerowy lub fragment wykonywalnego kodu, który dołącza się, nadpisuje lub zamienia inny program w celu uruchamiania
samego siebie bez wiedzy i zgody użytkownika. Wirusy zwykle szkodzą systemowi operacyjnemu utrudniając prace użytkownika. Każdy wirus ma
zdolność samopowielania. Jest to warunek konieczny, aby dany program można było nazywać wirusem.
Wirusy przenoszone są przeważnie w zainfekowanych wcześniej plikach lub w pierwszych
sektorach fizycznych dysków logicznych. Długość typowego wirusa dawniej wahała się od
kilkudziesięciu bajtów do kilku kilobajtów. Obecnie klasyczne wirusy spotyka się rzadziej –
częściej jest to hybryda wirusa z robakiem, a rozmiar kilkadziesiąt i więcej kilobajtów nie dziwi –
tyle kodu bez problemu można ukryć w wielomegabajtowych bibliotekach czy programach.
35.Na czym polega szyfrowanie informacji?
Kryptologia – nauka o przekazywaniu informacji w sposób zabezpieczony przed
niepowołanym dostępem.
Kryptologię dzieli się na:
• kryptografię-czyli naukę o układaniu systemów kryptograficznych,
• kryptoanalizę
(z greckiego kryptós oraz analýein – rozluźnić), czyli naukę o ich łamaniu.
Istotnym elementem technik kryptograficznych jest proces zamiany
tekstu jawnego w szyfrogram (inaczej
kryptogram
); proces ten nazywany jest
szyfrowaniem
, a proces odwrotny, czyli zamiany tekstu zaszyfrowanego na powrót w możliwy do odczytania,
deszyfrowaniem
. Przez szyfr rozumiana jest para algorytmów służących do przeprowadzenia obu procesów. Wraz z algorytmami dodatkowo używa
się kluczy, czyli pewnych
niezbędnych
parametrów, od których zależy wynik obu procesów. Innymi słowy, znajomość algorytmu i szyfrogramu bez
dostępu do klucza nie pozwoli na odtworzenie tekstu jawnego.
W jakim celu szyfruje się informacje:
1. Zapewnienie poufności.
2. Zapewnienie integralności (niezmienności w czasie przekazu).
3. Uwierzytelniania (pewność źródła pochodzenia).
Szyfrowanie jest elementem takich technik, jak:
1. Podpis elektroniczny.
2. Głosowanie elektroniczne (e-voting).
3. Dowód z wiedzą zerową (udowodnienie posiadania pewnej informacji bez jej
ujawniania).
4. Współdzielenie tajemnicy (zaszyfrowanie informacji tak, by tylko pewna grupa osób
mogła ją odczytać).
5. Obliczenia wielopodmiotowe (sytuacja odwrotna).
36.Metody szyfrowania. Szyfrowanie symetryczne. Szyfrowanie asymetryczne.
Współczesne metody szyfrowania można ogólnie podzielić na:
• Szyfrowanie asymetryczne
• Szyfrowanie symetryczne
W
szyfrowaniu asymetrycznym
występują 2 klucze:
• Klucz publiczny służący zazwyczaj do szyfrowania (informacja zaszyfrowana kluczem prywatnym może być odszyfrowana tylko kluczem
publicznym – np. podpis elektroniczny),
• Klucz prywatny służący zazwyczaj do deszyfrowania (informacja zaszyfrowana kluczem prywatnym może być odszyfrowana tylko kluczem
publicznym – np. podpis elektroniczny).
Przekształcenia tekstu otwartego przez oba te klucze są wzajemnie odwrotne – użycie obu
kluczy bezpośrednio po sobie daje w wyniku pierwotny tekst otwarty. Kolejność użycia kluczy nie
ma znaczenia: najpierw klucz publiczny, potem prywatny lub najpierw klucz prywatny, potem
publiczny.
System szyfrowania asymetrycznego (z kluczem publicznym) został skonstruowany w taki
sposób, że obliczenie klucza prywatnego na podstawie klucza publicznego, mimo że możliwe,
jest praktycznie niewykonalne. Zamiast tego, oba klucze generowane są poufnie jako para i
klucz publiczny jest następnie rozpowszechniany.
Szyfry asymetryczne opierają się na istnieniu pewnych trudnych do odwrócenia problemów. Na
przykład o wiele łatwiej jest pomnożyć przez siebie 2 duże liczby, niż rozłożyć dużą liczbę na
czynniki (opiera się na tym system RSA).
Współczesne metody
szyfrowania symetrycznego
można podzielić na dwie grupy:
• Symetryczne szyfry blokowe
• Symetryczne szyfry strumieniowe
Szyfry blokowe
to procedury, które szyfrują niewielkie bloki danych (znacznie mniejsze od typowej wiadomości), współcześnie jest to najczęściej 128
bitów (AES), choć do niedawna przeważały 64-bitowe bloki (DES, 3DES, Blowfish, IDEA). Klucze są znacznie mniejsze, mają zwykle od 128 do 256
bitów, przy czym wartości mniejsze od 80 (DES – 56) są uważane za niewystarczające.
Typowy szyfr blokowy składa się z kilkunastu dość prostych
rund
przekształcających blok. Operacje używane w tych
szyfrach są zwykle proste, ale pochodzą z "różnych światów", np. używa się dodawania, XOR, przesunięć cyklicznych, mnożenia modulo liczb
pierwszych itd. Już kilka rund takich operacji zupełnie zaburza jakikolwiek porządek i jest bardzo trudne do analizowania.
Szyfry strumieniowe
szyfrują każdy znak tekstu jawnego osobno, generując znak
strumienia szyfrującego
, w związku z czym nie jest konieczne
oczekiwanie na cały blok danych, jak w przypadku szyfrów blokowych.
Najpopularniejszym współczesnym szyfrem strumieniowym jest RC4. Inne popularne szyfry
strumieniowe to A5/1 i A5/2 stosowane w telefonii komórkowej. Do szyfrów strumieniowych
należą też historyczne szyfry polialfabetyczne i monoalfabetyczne.
37.Co to jest podpis elektroniczny? Jak podpisywać elektronicznie dokumenty? Jaka jest rola podpisu elektronicznego?
Podpis cyfrowy
(podpis elektroniczny) to dodatkowa informacja dołączona do wiadomości służąca do weryfikacji jej źródła.
Podpis elektroniczny służy zapewnieniu między innymi następujących funkcji:
• autentyczności, czyli pewności co do autorstwa dokumentu,
• niezaprzeczalności nadania informacji, nadawca wiadomości nie może wyprzeć się
wysłania wiadomości, gdyż podpis cyfrowy stanowi dowód jej wysłania (istnieją także inne
rodzaje niezaprzeczalności),
• integralności, czyli pewności, że wiadomość nie została zmodyfikowana po złożeniu
podpisu przez autora.
Do zapewnienia wszystkich wymienionych funkcji potrzebne jest zastosowanie trzech środków:
• instrumentów technicznych - algorytmów, protokołów i formatów, które dzięki
zastosowaniu technik kryptograficznych zapewniają integralność oraz wiążą klucz
prywatny autora z dokumentem, zapewniając autentyczność i niezaprzeczalność,
• instrumentów prawnych, czyli dyrektyw, ustaw i rozporządzeń, które osadzają
wymienione instrumenty techniczne w obowiązującym prawie,
• instrumentów organizacyjnych, takich jak centra certyfikacji, które występując jako
zaufana trzecia strona poświadczają związek klucza prywatnego z konkretną osobą.
Podpisy cyfrowe korzystają z kryptografi asymetrycznej – tworzona jest para kluczy, klucz
prywatny i klucz publiczny – klucz prywatny służy do podpisywania wiadomości, klucz publiczny
natomiast do weryfikowania podpisu.
Najważniejszymi kryptosystemami umożliwiającymi podpisywanie cyfrowe są RSA i EIGamal
(rozwinięty w standardy DSA, GOST 31.10 czy KCDSA).
Inne znane systemy proponowane dla podpisu elektronicznego to schematy oparte na krzywych
eliptycznych (ECDSA, EC-KCDSA, ECNR) i inne wykorzystujące problem logarytmu
dyskretnego (np. XTR), algorytmy wielu zmiennych (jak SFLASH czy Quartz) oraz operujące na
kartach (NTRU-Sign