informatyka sciaga

  1. Czym jest Informatyka?

Informacja + automatyka = Informatyka

W związku z tym termin informatyka oznacza automatyzację procesu przetwarzania informacji.

Informatyka (ang. Informatics) - dziedzina nauki i techniki zajmująca się przetwarzaniem informacji, w tym technologiami przetwarzania informacji oraz technologiami wytwarzania systemów przetwarzających informację (w szczególności komputerów).

Pierwotnie zagadnieniami tymi zajmowała się matematyka. Wydzielenie osobnej dziedziny nazwanej informatyką miało miejsce w latach 60-tych XX wieku. Informatyka nadal pozostaje w ścisłym związku z matematyką.

Informatyka obejmuje dwie dziedziny:

Obecnie systemy informatyczne tworzone są głównie z wykorzystaniem komputerów, jako narzędzi do przetwarzania informacji.

  1. Co to jest informacja?

Informacja jest każdą formą uporządkowania energii lub materii.

W cybernetyce informację określa się jako „każdy czynnik organizacyjny” (niematerialny), który może być wykorzystany do bardziej sprawnego lub bardziej celowego działania przez ludzi, inne organizmy żywe lub maszyny.

Czynnik ten powoduje zmniejszenie niewiedzy (im więcej informacji, tym w większym stopniu maleje niewiedza).

Informacja jest przedmiotem działania dla technologii informacyjnych

  1. Wady pierwszych komputerów.

-tworzone na specjalne zamówienie

-duża awaryjność

-duże rozmiary i pobór mocy

-ogromny koszt

-wykorzystywały dziesiętny system liczenia

-programowane tylko sprzętowo

  1. Koncepcja komputera Johna von Neumanna.

Koncepcja komputera Johna von Neumanna zakłada, że komputer posiada następujące elementy składowe:

  1. Procesor, którego zadaniem jest:

    • Sterowanie pracą całego urządzenia.

    • Przetwarzanie informacji (wykonywanie operacji arytmetycznych i logicznych).

  2. Pamięć główna, której zadaniem jest:

    • Przechowywanie aktualnie wykonywanego programu.

    • Przechowywanie danych potrzebnych programowi.

    • Przechowywanie wyników działania programu.

  3. Urządzenia wejścia/wyjścia, których zadaniem jest:

    • Wprowadzanie do komputera informacji (wejściowe).

    • Wyprowadzanie z komputera informacji (wyjściowe).

    • Czyli komunikacja ze światem zewnętrznym (człowiekiem).

Zasada działania komputera von Neumanna:

  1. Procesor pobiera z pamięci głównej kolejną instrukcję programu.

  2. Wykonując instrukcję ewentualnie pobiera dane i zapisuje wyniki w pamięci głównej.

  3. Po zakończeniu wykonywania danej instrukcji procesor pobiera następną instrukcję programu – komputer sekwencyjny.

  1. Rodzaje komputerów, superkomputer.

Komputery we współczesnym świecie:

  1. Superkomputery – CRAY, Convex

  2. Komputery centralne (ang. Main Frame) – IBM, Vax

  3. Minikomputery:

    1. Stacje robocze (np. stacje graficzne) – SUN, HP

    2. Serwery (np. serwery sieciowe, serwery druku) – HP

  4. Mikrokomputery:

    1. Komputery osobiste PC (ang. Personal Cpmputer):

      • Klasy IBM PC

      • Mac Intosh

    2. Komputery prawie osobiste (CPC) – Commodore, Amiga

Superkomputer to komputer:

Pierwszy superkomputer CRAY 2 stworzono w 1975 roku. Pracował z częstotliwością zegara 250 MHz (komputery PC dopiero 20 lat później).

  1. Bit, bajt, wielokrotności bajta, systemy kodowania znaków.

Konwersja informacji tekstowej do postaci cyfrowej wymaga umowy (najlepiej międzynarodowej) określającej jakimi ciągami zer i jedynek będą zastępowane poszczególne (analogowe) znaki tekstu. Długość ciągu zer i jedynek zależeć będzie od liczby kodowanych znaków.

Pojedyncza cyfra 0 lub 1 nazywana jest bitem.

Bit (ang. binary digit) - najmniejsza ilość informacji (zarazem jednostka informacji) potrzebna do określenia jednej z dwóch możliwości (np. stanów urządzenia), które zwykle umownie oznacza się jako 0 lub 1. W skrócie bit oznacza mała litera b.

Z tego względu przetwarzanie informacji w urządzeniach wykorzystywanych w informatyce (np. komputerów) opiera się na binarnym (dwójkowym) systemie liczenia. Próby konstruowania urządzeń wykorzystujących inne systemy liczenia (np. dziesiętny) okazały się nieefektywne.

Na potrzeby kodowania informacji w postaci cyfrowej wykorzystuje się pewien ciąg kolejnych bitów. W informatyce szczególne znaczenie posiada ciąg 8-bitów zwany bajtem.

Bajt (ang. byte) – ciąg 8-bitów stanowiący najmniejszą adresowalną jednostkę informacji pamięci komputerowej, nazywaną znakiem. W skrócie bajt oznacza duża litera B.

W jednym bajcie można zakodować następującą liczbę możliwości:

2 ⋅ 2 ⋅ 2 ⋅ 2 ⋅ 2 ⋅ 2 ⋅ 2 ⋅ 2 = 28 = 256

1 B = 1 znak

Niekiedy w systemach komputerowych nie operuje się pojęciem bajt, tylko słowem maszynowym (definicja – podstawowa porcja informacji, na której operuje dany system komputerowy). Słowo maszynowe jest wielokrotnością bitu i zazwyczaj wielokrotnością bajta. W komputerach PC słowo maszynowe procesora może być 16-bitowe, 32-bitowe lub 64-bitowe.

Dodatkowo w systemach komputerowych pewne informacje mogą być przechowywane w więcej niż jednym bajcie. Np. liczby w zależności od formatu i precyzji przechowywane są w 1-10 bajtów. W jednym bajcie można zapisać tylko liczby całkowite z przedziału 0-255.

Standardy kodowania znaków:

  1. ASCII (7 bitów)

  2. Rozszerzenia ASCII:

    1. ISO/IEC 646 (7 bitów)

    2. ISO 8859 (8 bitów)

    3. Windows-1250 (8-bitów)

    4. UTF Unicode (32 bity)

ASCII (ang. American Standard Code for Information Interchange) – amerykański standard określający zestaw znaków wykorzystywanych przy wymianie informacji tekstowej w postaci cyfrowej oraz sposób ich kodowania. Obejmuje 128 znaków:

Wśród nich 95 znaków to tzw. znaki tekstowe (drukowane), wykorzystywane przez ludzi do tworzenia informacji tekstowej w języku angielskim. Pozostałe 33 znaki to tzw. kody sterujące pracą urządzeń. Każdemu z tych znaków przypisano kod (7-bitowy) składający się z ciągu siedmiu zer i jedynek, co odpowiada w systemie dziesiętnym liczbom z przedziału 0-127.

Znaki tekstowe posiadają kody z przedziału 32-126.

Pracę nad standardem kodowania znaków ASCII rozpoczęto w 1960 roku. Pierwszy standard ogłoszono w 1963 roku. Główna wersja standardu nieco poprawiona została ogłoszona w 1967 roku. Ostatnią wersję zmodyfikowaną ogłoszono w 1986 roku.

Przed rozpoczęciem prac nad standardem ASCII (w latach 50-tych XX wieku) różne firmy informatyczne (np. IBM) wykorzystywały własne standardy, co uniemożliwiało wymianę informacji pomiędzy różnymi systemami.

W latach 80-tych XX wieku okazało się, że standard obejmujący 128 znaków jest niewystarczający z punktu widzenia sterowania urządzeniami (33 kody sterujące to za mało). Dodatkowo pojawił się problem znaków narodowych w różnych językach, których nie ma w alfabecie angielskim.

W ten sposób doszło do rozszerzenia standardu ASCII do co najmniej 256 znaków (kod 8-bitowy, co odpowiada liczbom w systemie dziesiętnym z przedziału 0-255). Pojawiły się także standardy obejmujące zestawy większej liczby znaków (np. 65536 znaków).

  1. Rodzaje procesorów. Funkcje procesora.

Funkcje procesora:

  1. Wykonywanie operacji arytmetycznych i logicznych (tzw. jednostka ALU – ang. Aritmetical & Logical Unit).

  2. Sterowanie pracą urządzeń (tzw. jednostka CU – ang. Control Unit).

Procesor wykonuje rozkazy. Wszystkie możliwe do wykonania rozkazy znajdują się na liście poleceń wewnętrznych procesora.

Każdy program użytkowy, bez względu na rodzaj wykorzystanego języka programowania przy jego tworzeniu, w końcowym etapie musi zostać przetłumaczony i wyrażony za pomocą rozkazów procesora.

Rodzaje mikroprocesorów:

Koncepcja mikroprocesorów CISC (pierwszych wyprodukowanych) zakładała wspieranie języków programowania (rozkazy mikroprocesora były bliskie instrukcjom języków programowania). Dzięki temu programy użytkowe były małe (w porównaniu z mikroprocesorami RISC).

  1. Przetwarzanie równoległe (potokowe, superskalarne).

Metody przetwarzania równoległego rozkazów:

Etapy wykonania rozkazu:

Zapisanie wyniku (w pamięci) - ZW

Przetwarzanie potokowe rozkazów – równoległe (w tym samym czasie) wykonywanie wielu rozkazów przez procesor, ale każdy rozkaz jest wykonywany na innym etapie.

Przetwarzanie superskalarne rozkazów – równoległe (w tym samym czasie) wykonywanie wielu rozkazów przez procesor, ale każdy rozkaz jest wykonywany na tym samym etapie.

  1. Rodzaje, podział i zadania pamięci w komputerze.

Klasyfikacja pamięci w komputerze:

  1. Pamięć wewnętrzna (półprzewodnikowa, ulotna):

    1. Rejestry mikroprocesora (kilkanaście do kilkudziesięciu bajtów).

    2. Cache – pamięć podręczna mikroprocesora zwykle dwupoziomowa L1 i L2 – 1 MB.

    3. RAM (ang. Random Access Memory, pamięć o dostępie swobodnym, operacyjna, główna) – 1 GB.

    4. Buforowa (podręczna, cache) urządzeń (np. drukarki, dysku twardego itp.) – 1 MB.

    5. ROM (ang. Read Only Memory), tylko do odczytu, stała – kilka KB.

  2. Pamięć zewnętrzna (masowa, trwała):

    1. Urządzenia magnetyczne:

      1. Stacje dysków elastycznych (dyskietek) – 1,44 MB.

      2. Stacje dysków twardych – kilkaset GB.

      3. Stacje dysków wymienialnych (np. zipdrive) – kilkadziesiąt GB.

      4. Taśmy magnetyczne – kilkaset GB.

    2. Urządzenia optyczne:

      1. Stacje dysków CD – 650 MB.

      2. Stacje dysków DVD – 4,7 GB (8,5 GB, 17 GB).

      3. Stacje dysków Blu-ray – 25 GB/warstwa

    3. Stacje dysków magneto-optycznych – 100 GB.

    4. Inne (np. pamięć półprzewodnikowa typu flash, SD itp. wykorzystywana np. w pendrivach, odtwarzaczach multimedialnych itp.).

  1. Pamięć wewnętrzna jest wykorzystywana przez komputer do bieżących operacji i nie może służyć do przechowywania informacji w długim okresie czasu. Steruje jej użyciem system operacyjny i ewentualnie pewne mechanizmy sprzętowe. Programista zazwyczaj nie ma do niej dostępu.

  2. Pamięć zewnętrzna służy do przechowywania informacji w długim okresie czasu i może przechowywać niewykorzystywane dane.

  3. Wymiana informacji pomiędzy pamięciami odbywa się blokami – gdy jakaś dana jest w pewnym momencie potrzebna przenoszony jest cały blok, który ją zawiera. W ten sposób nie traci się czasu na wyszukanie danej, ale w dużej liczbie mogą zostać przeniesione niepotrzebne informacje. Zamiast jakości duża szybkość i duża ilość.

  1. Drukarka, ploter, drukarkoploter.

Urządzenia wejścia/wyjścia dzielą się na:

  1. Urządzenia wejściowe:

    1. Klawiatura, mysz, inne manipulatory (np. joystick, kierownica itp.).

    2. Skaner (czytnik graficzny).

    3. Digitajzer (czytnik grafiki wektorowej).

  2. Urządzenia wyjściowe:

    1. Monitor, wyświetlacz.

    2. Drukarka.

    3. Ploter.

    4. Drukarkoploter.

  3. Urządzenia komunikacyjne:

Rodzaje drukarek:

Cechy charakterystyczne drukarek:

Drukarki tworzą wydruk składając każdy jego obiekt (także litery) z pojedynczych punktów (grafika punktowa) ułożonych blisko siebie (zależy od zdolności rozdzielczej drukarki) – nie dotyczy to drukarki rozetkowej. W wydrukach kolorowych nakładane są na siebie barwy podstawowe w technologii CMY lub CMYK.

Ploter tworzy wydruk z pojedynczych linii (grafika wektorowa) rysowanych jednym kolorem każda. Ramię mechaniczne wybiera do rysowania pisak o określonym kolorze. Ploter nie potrafi mieszać barw.

Drukarki i plotery mogą być stołowe (głowica lub ramię drukujące wykonuje ruchy w dwóch kierunkach (x, y) – wadą duże gabaryty urządzeń, lub bębnowe (papier jest przesuwany w jednym kierunku a głowica/ramię drukujące w drugim kierunku) – małe gabaryty urządzeń.

Cechy charakterystyczne ploterów:

Wydruk wielkogabarytowych kolorowych rysunków (grafika punktowa) o dobrej rozdzielczości nastręcza problemy:

Drukarka stronicowa (laserowa) musi w pamięci buforowej pomieścić mapę bitową całej strony. Dla papieru A4 i wydruku kolorowego z rozdzielczością 300 dpi daje to plik o wielkości:

By móc przetwarzać wielkogabarytowe rysunki w pamięci komputera dzieli się je na wiele części, wydzielając i grupując obiekty (nie chodzi o klocki, jak w układance) i każdą część przetwarza się oddzielnie (jest nieliniowa zależność między wielkością pliku i czasem jego przetwarzania). Potem należy to wydrukować składając wszystkie części (każda część musi być drukowana oddzielnie), ale do tego trzeba cofać papier, czego zwykła drukarka nie potrafi.

Tak wymyślono nowe urządzenie – drukarkoploter:

  1. Modem, karta sieciowa.

Urządzenia zewnętrzne dzielą się na:

  1. Urządzenia komunikacyjne:

    1. Modem.

    2. Karta sieciowa.

    3. Pamięci zewnętrzne.

  2. Inne urządzenia:

    1. Urządzenia audio.

    2. Urządzenia wideo.

    3. Karta RTV.

Urządzenie zewnętrzne (peryferyjne) składa się z urządzenia wejścia/wyjścia i modułu wejścia/wyjścia (programowego lub sprzętowego).

Słowo modem to neologizm powstały z dwóch słów:

modulator + demodulator = modem

Modem łączy dwa urządzenia (np. komputery).

Modem jest urządzeniem elektronicznym, które zamienia cyfrowe dane (komputerowe) na analogowe sygnały elektryczne i odwrotnie, które są transmitowane w sieci zewnętrznej (np. linia telefoniczna, telewizja kablowa, fale radiowe, sieć energetyczna). Przy wysyłaniu sygnału modem moduluje falę nośną w danej sieci kodując w niej informację. Modem odbierający ma za zadanie odseparować informację z fali nośnej demodulując ją.

W odróżnieniu od modemu (modem działa poza siecią komputerową, łączy sieć komputerową z inną siecią nie komputerową), karta sieciowa jest urządzeniem elektronicznym będącym częścią sieci komputerowej (urządzenie aktywne sieci).

Jej zadanie polega na przekształcaniu pakietów danych wysyłanych przez komputer w sygnały elektryczne (cyfrowe), które są przesyłane w sieci komputerowej oraz odbieraniu tych sygnałów i przekształcaniu ich w pakiety danych. Karta sieciowa potrafi to robić tylko w jeden sposób (mówimy, że pracuje w określonym standardzie, np. Ethernet). Każda karta sieciowa ma unikatowy adres (MAC) w skali świata, nadawany przez producenta i zapisany w jej pamięci ROM.

Każde urządzenie zewnętrzne komputera pracuje na swój własny sposób, generując i/lub odbierając sygnały elektryczne określonej postaci, wynikającej ze specyfiki urządzenia (zazwyczaj nie ma tutaj standardów). By procesor był w stanie zrozumieć się z urządzeniem, sygnałom tym musi być nadana określona forma i zadanie to realizuje tzw. moduł wejścia/wyjścia, który pośredniczy w tej komunikacji. W tańszych (wolniejszych) rozwiązaniach jest on programem (tzw. sterownik, driver), w droższych urządzeniem, które może nawet posiadać swój własny procesor (np. karta graficzna). W tym ostatnim przypadku odciąża on procesor centralny od przetwarzania informacji pochodzącej od urządzenia. Moduł wejścia/wyjścia zarządza także pamięcią cache urządzenia.

  1. System wielomagistralowy.

Rodzaje magistral w komputerze PC:

Jednym z bardzo istotnych rozwiązań w produkcji komputerów było wykorzystanie technologii „overdrive” oznaczającej, że urządzenia składające się na komputer nie muszą pracować z identyczną częstotliwością. W latach 80-tych XX wieku cały komputer osobisty pracował z jedną częstotliwością taktowania, najpierw 4 MHz, potem 8 MHz, 16 MHz, 25 MHz, 33 MHz i koniec – nie dało się przyspieszyć pewnych urządzeń.

Początkowo szybciej działał tylko procesor (2x, 4x – komputery 386SX2, 386DX2, 486DX2, 486DX4), a obecnie w komputerze urządzenia podobne z punktu widzenia szybkości działania są zgrupowane i podłączone do tej samej magistrali, która jest taktowana z odpowiednią dla nich częstotliwością.

  1. Interfejs szeregowy i równoległy.

Rodzaje interfejsów:

W interfejsie szeregowym kablem transmisyjnym przesyłany jest jeden ciąg bitów, który zamieniany jest na ciąg bajtów.

W interfejsie równoległym każdym kablem transmisyjnym przesyłany jest ciąg bitów. Ciągi te muszą być zamienione na ciągi bajtów.

Przygotowanie sygnału, jego transmisja, odbiór i interpretacja są:

Obecnie przede wszystkim rozwijane są interfejsy szeregowe, w typowych rozwiązaniach cechują się wyższą szybkością i niezawodnością (np. obecnie łączy się drukarki za pomocą USB).

  1. Rola (podstawowe zadania) i rodzaje systemów operacyjnych.

Funkcje (podstawowe) systemu operacyjnego:

  1. Sterowanie pracą urządzeń.

  2. Zarządzanie informacją w pamięciach.

  3. Porozumiewanie z użytkownikiem (interfejs użytkownika).

System operacyjny określa możliwości komputera. Możliwości sprzętu, których system operacyjny nie jest w stanie wykorzystać są bezużyteczne.

Wraz z rozwojem technologii komputerowej, powstawaniem nowego sprzętu i jego nowymi możliwościami system operacyjny musi podlegać ciągłym modyfikacjom, by nadążyć za tym rozwojem.

Jeżeli system operacyjny nie nadąża za zmianami sprzętu (ewentualnie nie są możliwe takie modyfikacje), powstałą lukę mogą wypełnić programy narzędziowe (tzw. nakładki systemowe nie będące częścią systemu operacyjnego), które dodają do niego nowe możliwości. Można także brakujące funkcje opisać w programach użytkowych, ale to rozwiązanie nie jest najlepsze, ponieważ programy te są przez to większe, a ponadto mogą to robić w specyficzny sposób, inny niż w innych programach i pojawią się problemy z obsługą sprzętu.

Przykładem nakładki systemowej jest Notron Commander, czy Windows do wersji 3.11.

  1. Dlaczego środowisko MS Windows zrewolucjonizowało świat komputerów?

Obecnie na świecie panuje monopol systemów operacyjnych na komputery PC jednej firmy – MicroSoft. Monopol ten wytworzył się samoistnie, a nie na skutek jakiejś brudnej gry rynkowej. Tak duża popularność produktów MicroSoft sprawia, że nikt inny nie jest się w stanie wybić w tym momencie. Pojawiła się pętla dodatniego sprzężenia zwrotnego.

Jeżeli jakaś firma na świecie chce wypuścić nowy program użytkowy, to najpierw przygotuje jego wersję pod Windows, ponieważ tutaj ma najwięcej potencjalnych klientów. Również tą wersję najczęściej będzie modyfikować. Najwięcej na tym zarobi.

Podobnie jest z producentami sprzętu (zgodny z Windows)

Współczesny użytkownik komputera PC w zasadzie nie ma innej alternatywy, niż MS Windows:

  1. Struktura do przechowywania informacji (dysk logiczny, katalog, plik).

System plików:

Dysk logiczny to dysk obsługiwany przez system operacyjny. Dyskiem logicznym może być całe urządzenie (np. dyskietka magnetyczna, CD, DVD, pendrive) lub jego część (np. dysk magnetyczny).

Dodatkowo dyskiem może być określony katalog na innym dysku logicznym (tzw. dysk mapowany).

Dysk magnetyczny podczas preformatowania (formatowanie wstępne) dzielony jest na części (tzw. partycje) i w każdej partycji tworzone są dyski logiczne.

Powinno się mieć co najmniej dwa dyski logiczne (gdy jeden fizyczny), by można było przenieść informacje podczas problemów z systemem operacyjnym. Za dużo dysków też jest niewygodne – mniejsza pojemność.

Nazwa pliku i katalogu jest prawie dowolna (tylko niektórych znaków nie wolno używać, ale na pewno wszystkie litery i cyfry) i długość jest prawie dowolna, ale musi być skończona (system operacyjny odróżnia tylko pewną liczbę pierwszych znaków (np. pierwsze 64 znaki)

Plik – zbiór informacji na określony ale dowolny temat stanowiący dla użytkownika pewną całość.

  1. Rodzaje plików. Co to są programy?

Pliki dzielą się na:

Wśród plików aplikacji można wyróżnić pliki samowykonujące się (po ich uprzednim świadomym uruchomieniu przez użytkownika – pliki uruchamiane nieświadomie są programami złośliwymi).

Pliki te można samodzielnie uruchamiać.

Próba uruchomienia pozostałych plików aplikacji, a także dokumentów spowoduje uruchomienie właściwego programu aplikacji lub otwarcie pliku do edycji w skojarzonym programie użytkowym.

Programowanie komputera polega na utworzeniu programu komputerowego, w którym opisane zostały wszystkie operacje, jakie mają być wykonane przez komputer.

Program wykonywany jest przez procesor (mikroprocesor). Dlatego w programie komputerowym muszą się znaleźć takie polecenia, jakie potrafi on wykonać – tzw. rozkazy procesora.

Dobry (bezpieczny) program powinien mieć opisane zachowanie na każdą ewentualność (np. dowolny zestaw danych wejściowych). W przeciwnym razie istnieć będzie potencjalna możliwość zawieszenia go.

Pisanie programów z użyciem rozkazów procesora jest bardzo niewygodne:

W celu uproszczenia procesu tworzenia programów komputerowych opracowano specjalne języki programowania (np. Fortran, Pascal, C+, Basic itp.).

  1. Co to jest algorytm programu komputerowego?

Proces tworzenia programu obejmuje:

  1. Postawienie problemu

  2. Stworzenie schematu rozwiązania

  3. Stworzenie algorytmu rozwiązania (algorytm programu – opis sposobu rozwiązania problemu zapisany w języku logiki matematycznej przy pomocy skończonej liczby operacji)

  4. Wybór języka programowania

  1. Co to jest sieć komputerowa? Rodzaje sieci.

Sieć komputerowa to zespół komputerów połączonych ze sobą. Komputery uważamy za połączony, gdy potrafią wymieniać informację między sobą. Komputery w sieci są autonomiczne (ich funkcjonowanie nie zależy od sieci; brak połączenia z siecią nie pozwoli na wymianę informacji).

Przed utworzeniem pierwszych sieci komputerowych powstawały systemy wielodostępne – pewna liczba terminali połączonych z jednym (dużym) komputerem centralnym umożliwiająca równoczesną pracę wielu ludziom.

W latach 70-tych XX wieku uważano, że systemy wielodostępne są przyszłością informatyki.

Rodzaje sieci komputerowych:

  1. Lokalne sieci komputerowe – LAN:

    1. Sieci równorzędne (Peer-To-Peer, P2P)

    2. Sieci zależne (klient-serwer):

      • Z niededykowanym serwerem

      • Z dedykowanym serwerem

  2. Miejskie (metropolitalne, małe regionalne) sieci komputerowe – MAN

  3. Rozległe (regionalne, krajowe, ogólnoświatowe) sieci komputerowe - WAN

  1. Co to jest protokół sieciowy? Za co odpowiada?

Protokół sieciowy to zbiór narzędzi programowych i sprzętowych realizujących i egzekwujących reguły obowiązujące w sieci.

Protokół jest to zbiór procedur oraz reguł rządzących komunikacją, między co najmniej dwoma urządzeniami sieciowymi. Istnieją różne protokoły, lecz urządzenia nawiązujące w danym momencie połączenie muszą używać tego samego protokołu, aby wymiana danych pomiędzy nimi była możliwa.

W celu komunikacji między różnymi protokołami wykorzystuje łącza (ang. gateway) - czyli urządzenia, które tłumaczącą rozkazy jednego protokołu na drugi.

Innym rozwiązaniem może być skonfigurowanie komputerów w taki sposób, by wykorzystywały kilka protokołów równocześnie.

Protokół sieciowy odpowiada za:

  1. Transmisję informacji:

    1. Podział na pakiety

    2. Przesyłanie pakietów

    3. Kontrola poprawności transmisji pakietów

    4. Naprawianie błędów transmisji

    5. Składanie pakietów

    6. Powiadamianie o problemach z transmisją

  2. Adresowanie w sieci

  3. Bezpieczeństwo w sieci:

    1. Odbiór przesyłek przez uprawnione osoby (adresatów)

    2. Szyfrowanie przesyłanej informacji

  1. Do czego służy router?

Router (po polsku – ruter, traser, trasownik) – podstawowe urządzenie sieciowe (każdej sieci), pełniące rolę węzła komunikacyjnego, służącego do rozdzielenia sygnału i rozgałęzienia połączeń sieciowych – kierowanie ruchem w sieci. Proces kierowania ruchem nosi nazwę trasowania, routingu lub rutowania.

Trasowanie musi zachodzić między co najmniej dwiema podsieciami, które można wydzielić w ramach jednej sieci komputerowej. Urządzenie przechowuje ścieżki do konkretnych obszarów sieci. Skuteczne działanie routera wymaga wiedzy na temat otaczających go urządzeń, przede wszystkim innych routerów oraz przełączników (switch).

  1. Co to jest szerokopasmowy dostęp do Internetu?

DSL – cyfrowa pętla abonencka realizowana zazwyczaj w wersji ADSL (asymetryczna cyfrowa pętla abonencka). Wykorzystuje ona tradycyjne ale cyfrowe połączenie telefoniczne mieszkania z centralą telefoniczną (miedziane druty), umożliwiając transmisję, zależnie od odległości, z szybkością do 9 Mb/s. Asymetria połączenia polega na większej szybkości odbierania informacji z Internetu, niż wysyłania do niego (zazwyczaj 56 Kb/s).

Dostęp na jednym kablu jest realizowany niezależnie od rozmowy telefonicznej, w innym (wyższym) paśmie częstotliwości. Pasma te są rozłączne i rozmowy komputera i ludzi wzajemnie się nie zakłócają. Jest to tzw. dostęp szerokopasmowy.

  1. Co to jest TCP/IP, Internet, Intranet, Extranet?

W roku 1982 ustanowiono, obowiązujący do dziś, standard przesyłu informacji w Internecie – tzw. protokół TCP/IP (Transmission Control Protocol/Internet Protocol). Jest to protokół transmisji pakietowej. Pakiety informacji poza przesyłaną treścią zawierają dane o adresacie, odbiorcy i wiele informacji kontrolnych zapewniających poprawną transmisję informacji w Sieci.

Przez Intranet rozumie się sieć lokalną (prywatną lub firmową), w której wykorzystywana jest filozofia Internetu.

W Internecie i Intranecie wykorzystywane są niemal te same narzędzia programowe (przeglądarki, szperacze, IM, ftp, telnet itp.) i metody pracy ich użytkowników (strony WWW, poczta elektroniczna). To właśnie stanowi o sile Intranetu - jest to forma miniatury Internetu.

Intranet jest bogatszy od Internetu o co najmniej trzy właściwości: jest znacznie szybszy, bezpieczny (odizolowany od świata zewnętrznego przez specjalne zabezpieczenia w postaci tak zwanych firewalli) i pod stałą kontrolą właściciela.

  1. Adresowanie IPv4 i IPv6.

IPv4 jest obecnym standardem adresowania w Internecie. Adres IP to liczba 32-bitowa (od 0 do 4294967295), zapisywana w porządku big endian (górny bajt). Jest to forma zapisu danych za pomocą rozłącznych części (tutaj bajtów), z których najważniejsza jest pierwsza część (lewy bajt). Liczby w adresie IP nazywają się oktetami, ponieważ w postaci binarnej mają one osiem bitów. Te osiem bitów daje w sumie 256 kombinacji, więc każdy oktet przedstawia liczbę dziesiętną od 0 do 255.

Najpopularniejszy sposób zapisu adresów IP, to przedstawianie ich jako 4 dziesiętnych liczb od 0 do 255 oddzielonych kropkami. W rzeczywistości komputery traktują je jako liczbę 32-bitową.

IPv6 / IPNG (ang. Internet Protocol version 6 / Internet Protocol Next Generation) – najnowsza wersja protokołu IP, następca IPv4, do którego stworzenia przyczynił się w głównej mierze problem małej, kończącej się ilości adresów IPv4. Dodatkowymi zamierzeniami było udoskonalenie protokołu IP: eliminacja wad starszej wersji, wprowadzenie nowych rozszerzeń (uwierzytelnienie, kompresja i inne), zminimalizowanie czynności wymaganych do podłączenia nowego węzła do Internetu (autokonfiguracja).

W protokole IPv4, przestrzeń adresowa opisywana była za pomocą 32 bitów, pozwalając zaadresować 232 ≈ 4,3×109 węzłów, co odpowiada liczbie 8,42 adresów/km² powierzchni Ziemi. W protokole IPv6 rozmiar tej przestrzeni został zwiększony do 128 bitów co daje 2128 ≈ 3,4×1038 kombinacji. Odpowiada to liczbie 6,7×1017 adresów/mm² powierzchni Ziemi.

Adres reprezentowany jest w postaci heksadecymalnej, z dwukropkiem co 16 bitów, np. 2001:0db8:0000:0000:0000:0000:1428:57ab.

Dozwolone jest skrócenie jednego bloku zer na podwójny dwukropek, początkowe zera w grupach również mogą być opuszczane, w związku z czym poniższe sposoby zapisu są prawidłowe i równoznaczne sobie:

  1. Adresowanie DNS i URL. Domena.

Adresowanie urządzeń w sieci Internet jest konieczne dla prawidłowej transmisji informacji. Ludzi jednak zazwyczaj interesuje w Internecie informacja. Większość informacji dostępnej w sieci ma postać stron WWW. Z tego względu wprowadzono alternatywny sposób adresowania domen. Domeny muszą być zarejestrowane, by można było na nie wchodzić. W procesie rejestracji domena jest wiązana z określonym adresem IP. Dane te są przechowywane przez pewne komputery w sieci, które odpowiednio przekierowywują żądanie użytkownika.

Proste zasady adresowania domen oraz możliwość stosowania słów sprawiają, że są one łatwiejsze do zapamiętania w porównaniu z adresami IP.

URL (Uniform Resource Locator) oznacza ujednolicony format adresowania zasobów (informacji, danych, usług), stosowany w Internecie i w sieciach lokalnych.

URL najczęściej kojarzony jest z adresami stron WWW, ale ten format adresowania służy do identyfikowania wszelkich zasobów dostępnych w Internecie. Większość przeglądarek internetowych umożliwia dostęp nie tylko do stron WWW, ale także do innych zasobów w Internecie, po wpisaniu do przeglądarki poprawnego adresu URL danego zasobu.

Część zależna od rodzaju usługi zwykle przybiera jedną z postaci:

//adres_serwera:port/sciezka_dostępu

jeżeli port jest standardowy dla danego rodzaju zasobu,
jest pomijany i stosuje się formę uproszczoną:

//adres_serwera/sciezka_dostępu

//nazwa_użytkownika:hasło@adres_serwera/sciezka_dostępu

ale najczęściej nazwa_użytkownika i hasło nie są wymagane i mogą być pominięte.

W przypadku zasobów nie będących plikami (konta shellowe, adresy email itp.):

nazwa_uzytkownika@adres_serwera

adres_serwera/sciezka_dostepu

http://www.wikipedia.com/wiki/URL

gdzie:

wiki/URL – ścieżka dostępu do zasobu

  1. Informatyczne usługi Internetu. Co to jest FTP, telnet i poczta elektroniczna?

Do podstawowych usług informatycznych Internetu należą:

  1. Telnet

  2. FTP

  3. Poczta elektroniczna

  4. Media strumieniowe

Głównym celem usług oferowanych przez Internet jest pozyskiwanie i wymiana informacji. Równocześnie Internet staje się coraz istotniejszą platformą do komunikacji.

FTP (ang. file transfer protocol) – protokół do przesyłania plików. Jest to jedna z powszechnych usług komunikacyjnych (sprzętowa i programowa składowa infrastruktury Internetu) pozwalająca na sprawną transmisję informacji w postaci pliku poprzez sieć. Plik ten może zawierać informacje dowolnego typu (np. tekst, obraz, dźwięk, film).

W Sieci istnieje wiele serwerów ftp udostępniających informacje w ten sposób. Zasoby tych serwerów są widoczne zdalnym użytkownikom jako systemy plików.

Udostępniane one mogą być anonimowo lub wymagane jest posiadanie konta na danym serwerze ftp.

Telnet to usługa polegająca na pracy na zdalnym komputerze. Użytkownik łączy się zdalnie z innym komputerem (loguje się na nim) i wykorzystuje jego zasoby jak własne przy pomocy swojej klawiatury i myszy. Telnet jest częścią takich powszechnych usług Internetu, jak ftp i przeglądanie stron WWW. W tym wypadku zdalny użytkownik wykorzystuje zasoby informacji zgromadzone na zdalnym komputerze, kopiując je na własny dysk.

Innym przykładem korzystania z telnetu jest zdalne uruchamianie i obsługa aplikacji. W ten sposób używa się mocy obliczeniowych komputerów w centrach obliczeniowych do realizacji bardziej skomplikowanych zadań użytkowników (zazwyczaj usługa płatna) i/lub oprogramowania, którego użytkownik nie posiada.

Poczta elektroniczna (ang.) electronic mail lub krótko e-mail – usługa internetowa, w nomenklaturze prawnej określana zwrotem świadczenie usług drogą elektroniczną, służąca do przesyłania wiadomości tekstowych, tzw. listów elektronicznych – stąd zwyczajowa nazwa tej usługi.

  1. Co tworzy zasoby informacyjne Internetu?

Zasoby informacyjne Internetu tworzą:

  1. Systemy plików

  2. Zbiór stron WWW

  3. Media strumieniowe

  1. Co to jest WWW, strona WWW, HTML, http, hipertekst?

Zasoby Internetu tworzą zbiory informacji pogrupowane w stronach (witrynach, portalach). W większości są one zapisane w formacie nazywanym hipertekstem. Hipertekst stanowi logiczną kombinację tekstu i materiałów multimedialnych ułożonych w sposób nieliniowy (brak początku i końca, przeglądana zawartość i kolejność zależna od użytkownika).

Każda strona (site) WWW zawiera zazwyczaj jeden monotematyczny zbiór informacji. Jest ona podzielona na części (page) nazywane dla odróżnienia stronicami, w znaczeniu pojedynczych kartek.

A zatem zbiory WWW są nazywane stronami, które z kolei są dzielone na pojedyncze „kartki” – stronice.

HTTP to protokół do przesyłania hipertekstu.

Strony WWW są tworzone przy wykorzystaniu specjalnie do tego celu opracowanego języka programowania HTML (ang. HiperText Markup Language) – hipertekstowego języka znaczników. Pozwala on na formatowanie dokumentów zachowując niewielkie rozmiary plików (w porównaniu z dokumentami np. MS Word).

  1. Metody wymiany poglądów w Internecie?

W „starym” Internecie (Web 1.0) do roku 2001 internauci mogli wymieniać poglądy wykorzystując:

Nowy Internet (Web 2.0) po 2001 roku rozszerzył możliwości o:

  1. Metody komunikacji w Internecie?

Metody komunikacji w Internecie można podzielić z punktu widzenia relacji pomiędzy nadawca i odbiorcą na:

Z punktu widzenia czasu realizacji połączenia komunikacja może być:

Dodatkowo można mówić o komunikacji bezpośredniej online i bezpośredniej offline. Komunikacja pośrednia ze swojej natury zwykle ma formę komunikacji odroczonej.

O komunikacji bezpośredniej mówi się, gdy konkretny nadawca porozumiewa się bezpośrednio z konkretnym odbiorcą. Równocześnie dla obu stron istotna jest i znana druga strona rozmowy.

Dodatkowo podczas komunikacji bezpośredniej online wymagane są systemy szybkiego, bezpośredniego kontaktu osób między sobą. Rejestracja treści korespondencji jest tutaj kwestią marginalną (może jedynie na zasadzie prowadzenia archiwum), ponieważ osoby wymieniają poglądy w czasie rzeczywistym.

Komunikacja bezpośrednia offline wymaga gromadzenia treści rozmowy w celu późniejszego wykorzystania.

Podczas komunikacji pośredniej także pewien konkretny nadawca wysyła informację do odbiorcy, ale przechodzi ona przez szereg użytkowników pośrednich, także uczestniczących w procesie porozumiewania się i informacja o nadawcy ginie. Z drugiej strony w tym modelu porozumiewania się odbiorcy jest wszystko jedno od kogo otrzymał daną informację. Interesuje go jedynie jej treść.

Z uwagi na specyfikę realizacji połączenia w metodzie komunikacji pośredniej, konieczność przekazywania sobie informacji przez pośredników, co wymaga czasu, metoda ta jest zazwyczaj metodą komunikacji offline.

Metody komunikacji bezpośredniej w Internecie:

Metody komunikacji pośredniej w Internecie:

  1. Zagrożenia w Internecie. Czy haker=craker?

Zagrożenia sieciowe - potencjalne możliwości nieuprawnionego działania w sieci, zarówno przez legalnych jak i nieuprawnionych użytkowników danej sieci.

Zagrożenia w sieci można podzielić na:

Ataki w Internecie:

Intruzów internetowych można podzielić na trzy kategorie:

  1. Co to jest DoS attack? Co wykorzystuje atakujący?

DoS attack (ang. Denial of Service, pol. odmowa usługi) - atak na system komputerowy lub usługę sieciową w celu uniemożliwienia działania poprzez zajęcie wszystkich wolnych zasobów.

Atak polega zwykle na:

W praktyce przez atak typu DoS rozumie się różnego typu ataki na systemy komputerowe mające na celu utrudnienie lub uniemożliwienie funkcjonowania danej maszyny lub części sieci. Ataki tego typu polegają najczęściej na sztucznym generowaniu i przesyłaniu do komputera ofiary wielkiej ilości informacji. Komputer (ofiara) nie jest w stanie przeanalizować i odpowiedzieć na wszystkie napływające informacje co prowadzi do spowolnienia lub zablokowania jego działania (zawieszenia komputera). Niemożliwe staje się wtedy osiągnięcie go, mimo że usługi pracujące na nim są gotowe do przyjmowania połączeń.

Ataki DoS dzieli się na:

Najczęstsze sposoby ataku DoS:

Najczęściej ataki te opierają się na lukach w protokołach komunikacyjnych lub oprogramowaniu systemowym oraz specyfice ich działania.

  1. Co to jest program złośliwy? Rodzaje? Czy wirus i program złośliwy to to samo?

Przez złośliwe oprogramowanie (ang. malware – malicious software) rozumie się wszelkie aplikacje, skrypty i ingerencje mające szkodliwe, przestępcze lub złośliwe działanie w stosunku do użytkownika komputera.

Podstawowe cechy programów złośliwych to:

Wirus – krótki program komputerowy lub fragment wykonywalnego kodu, który dołącza się, nadpisuje lub zamienia inny program w celu uruchamiania samego siebie bez wiedzy i zgody użytkownika. Wirusy zwykle szkodzą systemowi operacyjnemu utrudniając prace użytkownika. Każdy wirus ma zdolność samopowielania. Jest to warunek konieczny, aby dany program można było nazywać wirusem.

Wirusy przenoszone są przeważnie w zainfekowanych wcześniej plikach lub w pierwszych sektorach fizycznych dysków logicznych. Długość typowego wirusa dawniej wahała się od kilkudziesięciu bajtów do kilku kilobajtów. Obecnie klasyczne wirusy spotyka się rzadziej – częściej jest to hybryda wirusa z robakiem, a rozmiar kilkadziesiąt i więcej kilobajtów nie dziwi – tyle kodu bez problemu można ukryć w wielomegabajtowych bibliotekach czy programach.

Rodzaje programów złośliwych:

  1. Na czym polega szyfrowanie informacji?

Istotnym elementem technik kryptograficznych jest proces zamiany tekstu jawnego w szyfrogram (inaczej kryptogram); proces ten nazywany jest szyfrowaniem, a proces odwrotny, czyli zamiany tekstu zaszyfrowanego na powrót w możliwy do odczytania, deszyfrowaniem. Przez szyfr rozumiana jest para algorytmów służących do przeprowadzenia obu procesów. Wraz z algorytmami dodatkowo używa się kluczy, czyli pewnych niezbędnych parametrów, od których zależy wynik obu procesów. Innymi słowy, znajomość algorytmu i szyfrogramu bez dostępu do klucza nie pozwoli na odtworzenie tekstu jawnego.

W jakim celu szyfruje się informacje:

  1. Zapewnienie poufności.

  2. Zapewnienie integralności (niezmienności w czasie przekazu).

  3. Uwierzytelniania (pewność źródła pochodzenia).

Szyfrowanie jest elementem takich technik, jak:

  1. Podpis elektroniczny.

  2. Głosowanie elektroniczne (e-voting).

  3. Dowód z wiedzą zerową (udowodnienie posiadania pewnej informacji bez jej ujawniania).

  4. Współdzielenie tajemnicy (zaszyfrowanie informacji tak, by tylko pewna grupa osób mogła ją odczytać).

  5. Obliczenia wielopodmiotowe (sytuacja odwrotna).

W poprzednich epokach stosowano proste metody szyfrowania, mające na celu przekształcenie informacji do postaci niezrozumiałej. Szyfry nie były zbyt skomplikowane ponieważ i tak większość społeczeństwa nie potrafiła czytać.

Szyfry te można podzielić na:

  1. Szyfry wymagające specjalnych urządzeń do czytania (np. greckie skytale).

  2. Zastępowanie słów innymi umówionymi (popularne nawet w czasie II wojny światowej).

  3. Szyfry przestawieniowe (przestawianie liter).

  4. Szyfry podstawieniowe (zastępowanie liter innymi).

  1. Metody szyfrowania. Szyfrowanie symetryczne. Szyfrowanie asymetryczne.

W szyfrowaniu asymetrycznym występują 2 klucze:

Przekształcenia tekstu otwartego przez oba te klucze są wzajemnie odwrotne – użycie obu kluczy bezpośrednio po sobie daje w wyniku pierwotny tekst otwarty. Kolejność użycia kluczy nie ma znaczenia: najpierw klucz publiczny, potem prywatny lub najpierw klucz prywatny, potem publiczny.

Klucz publiczny jest rozpowszechniany. Można go pobrać z wielu serwerów przechowujących tego typu informacje. Klucz publiczny danej osoby lub organizacji jest dostępny dla każdego.

Klucz prywatny powinien być bezpiecznie przechowywany u użytkownika. W żadnym wypadku nie wolno go udostępniać. Stosowany algorytm szyfrowania nie wymaga tego.

Podstawowym problemem tej metody jest bardzo duża liczba generowanych kluczy (po dwa dla każdej osoby) oraz odpowiednie zarządzanie kluczami łącznie z ich udostępnianiem, kojarzenie kluczy.

System szyfrowania asymetrycznego (z kluczem publicznym) został skonstruowany w taki sposób, że obliczenie klucza prywatnego na podstawie klucza publicznego, mimo że możliwe, jest praktycznie niewykonalne. Zamiast tego, oba klucze generowane są poufnie jako para i klucz publiczny jest następnie rozpowszechniany.

Szyfry asymetryczne opierają się na istnieniu pewnych trudnych do odwrócenia problemów. Na przykład o wiele łatwiej jest pomnożyć przez siebie 2 duże liczby, niż rozłożyć dużą liczbę na czynniki (opiera się na tym system RSA).

Obecnie najpopularniejszymi metodami szyfrowania niesymetrycznego jest RSA oraz system EIGamal, opierający się na trudności logarytmu dyskretnego.

Typowe obecnie rozmiary kluczy to:

Współczesne metody szyfrowania symetrycznego można podzielić na dwie grupy:

Szyfry blokowe to procedury, które szyfrują niewielkie bloki danych (znacznie mniejsze od typowej wiadomości), współcześnie jest to najczęściej 128 bitów (AES), choć do niedawna przeważały 64-bitowe bloki (DES, 3DES, Blowfish, IDEA). Klucze są znacznie mniejsze, mają zwykle od 128 do 256 bitów, przy czym wartości mniejsze od 80 (DES – 56) są uważane za niewystarczające.

Typowy szyfr blokowy składa się z kilkunastu dość prostych rund przekształcających blok. Operacje używane w tych szyfrach są zwykle proste, ale pochodzą z "różnych światów", np. używa się dodawania, XOR, przesunięć cyklicznych, mnożenia modulo liczb pierwszych itd. Już kilka rund takich operacji zupełnie zaburza jakikolwiek porządek i jest bardzo trudne do analizowania.

Szyfry strumieniowe szyfrują każdy znak tekstu jawnego osobno, generując znak strumienia szyfrującego, w związku z czym nie jest konieczne oczekiwanie na cały blok danych, jak w przypadku szyfrów blokowych.

Najpopularniejszym współczesnym szyfrem strumieniowym jest RC4. Inne popularne szyfry strumieniowe to A5/1 i A5/2 stosowane w telefonii komórkowej. Do szyfrów strumieniowych należą też historyczne szyfry polialfabetyczne i monoalfabetyczne.

Przykład szyfrowania symetrycznego danych:

ALA NIE LUBI PIWA

KUFEL

ALA+N IE+LU BI+PI WA+++

  1. Co to jest podpis elektroniczny? Jak podpisywać elektronicznie dokumenty? Jaka jest rola podpisu elektronicznego?

Podpis cyfrowy (podpis elektroniczny) to dodatkowa informacja dołączona do wiadomości służąca do weryfikacji jej źródła.

Podpis elektroniczny służy zapewnieniu między innymi następujących funkcji:

Do zapewnienia wszystkich wymienionych funkcji potrzebne jest zastosowanie trzech środków:

Podpisy cyfrowe korzystają z kryptografi asymetrycznej – tworzona jest para kluczy, klucz prywatny i klucz publiczny – klucz prywatny służy do podpisywania wiadomości, klucz publiczny natomiast do weryfikowania podpisu.

Najważniejszymi kryptosystemami umożliwiającymi podpisywanie cyfrowe są RSA i EIGamal (rozwinięty w standardy DSA, GOST 31.10 czy KCDSA).

Inne znane systemy proponowane dla podpisu elektronicznego to schematy oparte na krzywych eliptycznych (ECDSA, EC-KCDSA, ECNR) i inne wykorzystujące problem logarytmu dyskretnego (np. XTR), algorytmy wielu zmiennych (jak SFLASH czy Quartz) oraz operujące na kartach (NTRU-Sign).

Najpopularniejsze standardy pozwalające na złożenie podpisu elektronicznego to X.509 oraz PGP.

PGP jest systemem zdecentralizowanym, w którym poziom autentyczności danego klucza jest determinowany przez sumę podpisów, złożonych przez różne osoby znające posiadacza klucza (model Sieć zaufania). System ten jest powszechnie stosowany w Internecie oraz w środowiskach korporacyjnych (np. niektóre systemy EDI).

System X.509 jest systemem scentralizowanym, w którym autentyczność klucza jest gwarantowana przez hierarchię centrów certyfikacji formalnie poświadczających związek klucza z tożsamością jego właściciela. Ze względu na jednoznaczną odpowiedzialność, łatwiejszą do osadzenia w prawie, X.509 jest obecnie dominującym systemem, na którym opiera się aktualnie obowiązujące prawodawstwo o podpisie elektronicznym.

X.509 to standard opisujący sposób użycia asymetrycznych algorytmów kryptograficznych w celu składania podpisu oraz jego weryfikacji. Jego istota polega na istnieniu organizacji cieszącej się powszechnym zaufaniem, której zadaniem jest potwierdzanie tożsamości właścicieli konkretnych par kluczy poprzez podpisywanie za pomocą własnej pary kluczy certyfikatów subskrybentów systemu.

Na certyfikat składają się pola zawierające dane właściciela, dane podmiotu wystawiającego certyfikat, okres ważności, klucz publiczny, oraz certyfikaty głównego i pośrednich urzędów certyfikacji - jest to tzw. ścieżka certyfikacji.

Jest to najpowszechniej obsługiwany przez klientów poczty elektronicznej oraz przeglądarki internetowe system podpisu elektronicznego. W Polsce standard ten jest wykorzystywany w systemie elektronicznych podpisów kwalifikowanych (prawnie niezaprzeczalnych). Bezpieczny (kwalifikowany) podpis elektroniczny, na mocy Ustawy o podpisie elektronicznym jest w świetle prawa równy podpisowi odręcznemu.

Standard X.509 pozwala również na przechowywanie wewnątrz certyfikatów dowolnych innych danych, takich jak np. fotografie, nagrania dźwiękowe, czy informacje biometryczne właściciela.

Przykład wykorzystania podpisu elektronicznego: Użytkownik A chce wysłać do B dokument „podpisany”. Procedura obejmuje:

Powszechnie uważa się obecnie, że nie można podrobić „podpisów”.

Przykład wykorzystania podpisu elektronicznego w połączeniu z szyfrowaniem wiadomości: Użytkownik A chce wysłać do B dokument „podpisany” i zarazem chce mieć pewność, że tylko B tą wiadomość odbierze. Procedura obejmuje:

1. Czym jest Informatyka?

2. Co to jest informacja

3. Wady pierwszych komputerów

4. Koncepcja komputera Johna von Neumanna.

5. Rodzaje komputerów, superkomputer.

6. Bit, bajt, wielokrotności bajta, systemy kodowania znaków.

7. Rodzaje procesorów. Funkcje procesora.

8. Przetwarzanie równoległe (potokowe, superskalarne).

9. Rodzaje, podział i zadania pamięci w komputerze.

10. Drukarka, ploter, drukarkoploter.

11. Modem, karta sieciowa.

12. System wielomagistralowy

13. Interfejs szeregowy i równoległy.

14. Rola (podstawowe zadania) i rodzaje systemów operacyjnych.

15. Dlaczego środowisko MS Windows zrewolucjonizowało świat komputerów?

16. Struktura do przechowywania informacji (dysk logiczny, katalog, plik).

17. Rodzaje plików. Co to są programy?

18. Co to jest algorytm programu komputerowego?

19. Co to jest sieć komputerowa? Rodzaje sieci.

20. Co to jest protokół sieciowy? Za co odpowiada?

21. Do czego służy router?

22. Co to jest szerokopasmowy dostęp do Internetu?

23. Co to jest TCP/IP, Internet, Intranet, Extranet?

24. Adresowanie IPv4 i IPv6.

25. Adresowanie DNS i URL. Domena.

26. Informatyczne usługi Internetu. Co to jest FTP, telnet i poczta elektroniczna?

27. Co tworzy zasoby informacyjne Internetu?

28. Co to jest WWW, strona WWW, HTML, http, hipertekst?

29. Metody wymiany poglądów w Internecie?

30. Metody komunikacji w Internecie

31. Zagrożenia w Internecie. Czy haker=craker?

32. Co to jest DoS attack? Co wykorzystuje atakujący?

33. Co to jest program złośliwy? Rodzaje? Czy wirus i program złośliwy to to samo?

34. Na czym polega szyfrowanie informacji?

35. Metody szyfrowania. Szyfrowanie symetryczne. Szyfrowanie asymetryczne.

36. Co to jest podpis elektroniczny? Jak podpisywać elektronicznie dokumenty? Jaka jest rola podpisu elektronicznego?


Wyszukiwarka

Podobne podstrony:
Informatyka-sciaga, (2) EE-DI
Nauka o informacji ściąga
Ściągawka + informator, Ściągawka na egzamin zawodowy - technik elektronik SMALL
Ściągawka + informator, Ściągawka na egzamin zawodowy - technik elektronik SMALL
pytania na egzamin - Technologie informacyjne, ŚCIĄGA 2
informatyka sciaga
Technologia informatyczna ściąga
Inteligentne systemy informacyjne Ściąga
INFORMATYKA ściąga
informatyka sciaga, Studia, Semestr 1, Informatyka
PROJEKT INFORMATYCZNY sciaga, WSB Poznań, Zarządzanie Projektem Informatycznym
Informatyka-sciaga, (2) EE-DI
informatyka - ściąga1, Administracja, Administracja, Administracja i samorząd, Polityka spoleczna, i
Informatyka ściąga wykłady Fąfara
Informatyka ściąga , informatyka
projektowanie systemów informacyjnych-ściąga, Administracja, Administracja, Administracja i samorząd
INFORM, sciaga
informatyka ściąga egz

więcej podobnych podstron