notatki od Yuriego

background image

str. 1

BEZPIECZEŃSTWO SYSTEMÓW KOMPUTEROWYCH


Bezpieczeństwo sieci komputerowych - zakres problematyki:

Podstawy bezpieczeństwa komputerów - systemy operacyjne, konta i ich struktura, hasła,
administrator systemu, poufność danych, użytkownicy i grupy, ochrona kont, niebezpieczne konta,
systemy szyfrowania haseł, systemy plików, używanie uprawnień do plików i katalogów, pliki urządzeń,
strategie archiwizacji, sporządzanie kopii plików systemowych.

Sieci komputerowe - protokół TCP/IP, cechy poszczególnych protokołów, identyfikowanie zasobów
sieci, fizyczna infrastruktura sieci, granice podsieci, kontrola dostępu logicznego.

Rejestrowanie zdarzeń i audyt bezpieczeństwa - strategie zabezpieczeń, planowanie potrzeb
związanych z bezpieczeństwem, analiza ryzyka, wartość zasobów, analiza kosztów i zysków,
podstawowe pliki rejestrów.

Rodzaje ataków i oprogramowanie szkodliwe - ataki destrukcyjne, bomby pocztowe, DoS, ataki przez
przeciążenie, ataki przeciw sprzętowym elementom sieci, wirusy, robaki, ataki zdalne, poziomy ataków,
atak przez podszywanie, ataki przez telnet, programy skanujące, programy łamiące hasła, konie
trojańskie, programy do analizy ruchu sieciowego, steganografia (nauka o komunikacji w taki sposób,
by obecność komunikatu nie mogła zostać wykryta).

Zapory sieciowe i detekcja włamań - typy zapór sieciowych, zapory sieciowe na poziomie nagłówka
pakietu, zapory sieciowe z kontrolą kontekstową, polityka zabezpieczeń i reguły dostępu do zasobów,
wrappery i serwery proxy, systemy wykrycia i analizy włamań IDS.

Podstawy kryptografii - infrastruktura i integralność danych, szyfrowanie symetryczne i asymetryczne,
algorytmy kryptograficzne, skróty wiadomości i podpisy cyfrowe, uwierzytelnienie i autoryzacja,
tworzenie i dystrybucja kluczy publicznych, modele zaufania.

Technologie bezpieczeństwa internetowego - technologie i protokoły uwierzytelnienia, protokoły
bezpieczeństwa warstw aplikacji transportu i sieci, bezpieczeństwo wirtualnych prywatnych połączeń
komutowanych, protokoły L2F, PPTP, L2TP, wirtualne sieci prywatne VPN.

Bezpieczeństwo systemów unixowych - zabezpieczenia pakietu instalacyjnego, pakiety korekcyjne, luki
i usterki systemowe systemów AIX, IRIX, SunOs, Solaris i Linux, analiza poszczególnych usług,
niebezpieczne protokoły.

Bezpieczeństwo innych systemów operacyjnych - Microsoft DOS i Windows.

Literatura: Stebe, Matthew, Podstawy bezpieczeństwa sieci, Mikom 2005.


W roku 1996 rozpoczęła się produkcja sprzętowych rozwiązań bezpieczeństwa - czyste firewalle sprzętowe. Od
1999 roku rozpoczęła się nieustanna analiza zagrożeń w sieci. W wielu przypadkach firmy produkujące
sprzętowe rozwiązania bezpieczeństwa współpracują z producentami oprogramowania: antywirusy,
antyspamy, IPS.

IPSIntrusion Prevention System – system zapobiegania włamaniom. Jest to system zwiększający
bezpieczeństwo sieci komputerowych przez wykrywanie i blokowanie ataków w czasie rzeczywistym. Typowe

background image

str. 2

elementy IPS to sonda (sensor - analizuje ruch sieciowy), baza danych (zbiera informacje o atakach z grupy
sond), analizator logów (umożliwia wizualizację i analizę logów).

Analiza heurystyczna – defragmentacja i łączenie pakietów w strumienie danych, analiza nagłówków
pakietów oraz protokołów komunikacyjnych – pozwala wykryć pakiety mogące doprowadzić do
zdestabilizowania docelowej aplikacji.

Analiza sygnaturowa – wyszukiwanie w pakietach ciągów danych charakterystycznych dla znanych
ataków, wymaga bazy sygnatur.


W 2010-2011 pojawiły się nowe typy zagrożeń, co implikuje rozwój rozwiązań bezpieczeństwa. Jeszcze kilka lat
temu nie było możliwe filtrowanie ruchu HTTPS. Jego idea jest taka, że treści w jego ramach przesyłane mają
być znane tylko nadawcy i odbiorcy. Rozwiązania bezpieczeństwa przeprowadzają nań atak typu decryption in
the middle
. Firewall jest “trzecią zaufaną stroną”, zna klucze sesyjne. Dla użytkownika widoczne jest to poprzez
niepoprawność certyfikatu - komunikat przeglądarki.

HTTPS (ang. Hypertext Transfer Protocol Secure) – szyfrowana wersja protokołu HTTP. W przeciwieństwie do
komunikacji niezaszyfrowanego tekstu w HTTP klient-serwer, szyfruje go za pomocą protokołu SSL. Zapobiega
to przechwytywaniu i zmienianiu przesyłanych danych. HTTPS działa domyślnie na porcie nr 443 w protokole
TCP. Wywołania tego protokołu zaczynają się od https://, natomiast zwykłego połączenia HTTP od http://.
Protokół HTTPS jest warstwę wyżej (na transporcie SSL), najpierw następuje więc wymiana kluczy SSL, a
dopiero później żądanie HTTP. Powoduje to, że jeden adres IP może serwować tylko jedną domenę lub też
tylko subdomeny danej domeny (zależnie od przyznanego certyfikatu).

IE6 w przypadku nieprawidłowego certyfikatu wyświetlał komunikat o niepoprawnym certyfikacie - “OK” i
“anuluj”. Narzędzie ethercap, korzystając z ARP, potrafi przekierować ruch sieciowy generowany przez jakiś
komputer, zamiast bramy domyślnej, na inny komputer - prosty atak.

Decryption in the middle - firewall ustala klucze sesyjne z klientem i, osobno, z witryną https. Ruch jest
odszyfrowywany, filtrowany, ponownie szyfrowany, odsyłany. Aby zapobiec wyświetlaniu ostrzeżeniom przez
przeglądarkę, należy wystawić certyfikat „z gwiazdką”, główny. Jeśli firewall zobaczy, że certyfikat witryny jest
błędny, odeśle do użytkownika błędny certyfikat.
Każda przeglądarka niesie ze sobą zbiór certyfikatów głównych, wystawionych przez instytucje certyfikujące.
Kilka lat temu wykradziono dane klucza prywatnego centrum certyfikującego COMODO. Na całym świecie były
one akceptowane. Trwało to dwa tygodnie.

Kwestie prawne - administrator ma prawo filtrować ruch HTTPS pod warunkiem odpowiedniego
poinformowania użytkownika - regulamin pracy.

Najsłabszym ogniwem zawsze jest człowiek - socjotechnika.

Socjotechnika - ogół metod, środków i działań praktycznych zmierzających do wywołania pożądanych
przemian w postawach lub zachowaniach społecznych. Podstawowe metody socjotechniczne to np. perswazja,
manipulacja, intensyfikacja lęku.

background image

str. 3


Przypadki z życia wzięte: duża brytyjska firma zajmująca się bezpieczeństwem systemów komputerowych. Szef
- dyktator. Włamywacz załatwił zmianę hasła telefonicznie, podszywając się pod szefa.


Systemy DLP (Data Loss Prevention) – ochrona przed wyciekami informacji - ogólna nazwa technologii
informatycznych służących do ochrony organizacji przez utratą kontroli nad informacją niejawną.

DLP – ogólna nazwa technologii informatycznych służących do ochrony organizacji przez utratą kontroli nad
informacją niejawną. Systemy DLP wdraża się w organizacjach przetwarzających informacje niejawne, których
ujawnienie może narazić organizację na odpowiedzialność karną lub cywilną. Wdrożenia DLP służą najczęściej
realizacji prawnych lub branżowych wymogów ochrony danych osobowych i finansowych. Systemy DLP mogą
wykorzystywać wiele technik do kontroli przepływu informacji niejawnych:

wykrywanie danych wrażliwych w ruchu sieciowym w sposób podobny jak systemy wykrywania
włamań lub w plikach zapisywanych na nośniki zewnętrzne w sposób podobny do programów
antywirusowych,

klasyfikacja i przypisanie wag plikom w lokalnym systemie na podstawie zawartości danych wrażliwych,
a następnie kontrolowanie przesyłania tych plików przez sieć lub zapisywania ich na nośniki
zewnętrzne,

blokowanie zapisu na nośniki zewnętrzne w ogóle,

transparentne szyfrowanie i deszyfrowanie wrażliwych dokumentów tak, by nigdy nie opuszczały one
organizacji w formie niezaszyfrowanej, zaś wewnątrz niej były czytelne tylko dla osób uprawnionych
(systemy zarządzania prawami do informacji – IRM).


Ochrona DLP:

Obecnie ochrona nie dla spełnienia wymogów, ale przede wszystkim dla ochrony zasobów.

Firmy coraz częściej produkują dobra niematerialne.

Z racji swojej natury dobra niematerialne są trudne do ochrony.

Obecnie, w dobie kryzysu, wykorzystanie cyfrowych zasobów jako sposobu na zdobycie pieniędzy jest
bardzo prawdopodobne.

Rozwiązania DLP stają się i staną się coraz bardziej popularne.

Na rozwiązaniach DLP Watchguard’a standardowo pracuje Kaspersky. Można go zastąpić McAffee, gdyż
Kaspersky jest produkcji rosyjskiej, a administracja rządowa USA takiego oprogramowania używać nie może.

Exploit – program mający na celu wykorzystanie błędów w oprogramowaniu (np. przepełnienie bufora na
stosie lub stercie, format string) w celu przejęcia kontroli nad działaniem procesu i wykonania odpowiednio
spreparowanego kodu maszynowego.

Zero-day exploit (0day) – metoda ataku na system komputerowy, która jest znana przed publikacją
odpowiedniej poprawki przez producenta.

background image

str. 4

Malware (ang. malicious software – złośliwe oprogramowanie) – wszelkie aplikacje, skrypty itd. mające
szkodliwe, przestępcze lub złośliwe działanie w stosunku do użytkownika komputera.


Cyber-przestępstwa:

fanatycy religijni,

cele polityczne,

pieniądze.


Można się spodziewać, że w najbliższej przyszłości rządy zaczną prowadzić cyber-walkę z przestępcami.
Przykład – Stuxnet (pod koniec prezydentury George’a W. Busha, Stany Zjednoczone i Izrael rozpoczęły
rozwijanie i wdrażanie robaka przeciwko Irańskim zakładom nuklearnym).

Ataki APT:

APT to najpowszechniej znany skrót: Advanced Persistent Threats – zaawansowane, uporczywe
zagrożenia.

Ataki APT wykorzystują bardzo wyrafinowane i nietypowe techniki propagacji zagrożeń.

Ataki APT są atakami długotrwałymi i jako takie przez długi okres czasu pozostają w ukryciu.

Przeprowadzane są przeciwko dokładnie określonym celom. Nie istnieje przypadkowość w wyborze
ofiary.

Ataki te są bardzo niebezpieczne, ze względu na bezwzględną skuteczność. Nie liczy się czas, a
osiągnięty cel.


Ataki APT
przeprowadzane są tak, aby trudno było je wykryć - po to, by potem długotrwale czerpać korzyści z
uzyskania dostępu do zasobów. W ogólności ataki APT są bardzo zaawansowanymi tajnymi sposobami
zdobywania długotrwałej i ukrytej kontroli nad istotnymi politycznie lub biznesowo obiektami.

advanced - zaawansowane: atakujący korzystają z wyrafinowanych metod zbierania informacji i
ataków oraz technik typu malware,

persistent – uporczywe, długotrwałe: atakujący chcą osiągnąć konkretny cel i gotowi są na to poświęcić
wiele czasu – ukrywają swoje ataki jak najdłużej,

background image

str. 5

threat - zagrożenie: ataki APT przeprowadzane są w dużej mierze przeciwko rządom, czy dużym firmom
– z reguły doprowadzają do znacznej straty.


Przykład ataków APT – Operation Aurora połowa ’09 – grudzień ’09:

incydent „Chinese” Google hacking,

podatność 0day IE pozwalała na drive-by-download (pobieranie oprogramowania bez wiedzy/zgody
użytkownika),

uzyskano dostęp do serwerów Google Perforce - system wersjonowania kodu,

podobno zaatakowano także 20-30 innych firm,

atak celowany (SpearPhishing) - wybrani odbiorcy,

prawdopodobnie udało się uzyskać możliwość czytania maili na GMail.


Ataki APT są drogie, więc nie warto atakować jednostek. Jednakże ich konsekwencje „spływają w dół”.

Ochrona przed atakami APT:

Defense-in-depth (ochrona w głąb) pomaga blokować ataki APT – wiele warstw bezpieczeństwa,

„Visibility tools” pomagają w wykrywaniu i reakcji,

Dodatkowe usługi bezpieczeństwa oferują nowe możliwości ochrony - kontrola aplikacji, reputacja
adresów WWW.


Atak typu „spear phishing” to wiadomość e-mail, która wygląda, jakby została wysłana przez osobę lub firmę
znaną użytkownikowi. To jednak nieprawda — wiadomość pochodzi od przestępców, którzy chcą dokonać
kradzieży numerów kart kredytowych i kont bankowych haseł oraz informacji finansowych przechowywanych
w komputerze.

Hakuje się nie tylko komputery: drukarki, konsole do gier, wyjątkiem nie są samochody. Wykorzystują one
Bluetooth, GPS, 3G, komputery podkładowe. Wykryto już przypadki zarażania komputerów samochodowych.
Pedał gazu - potencjometr, do silnika przekazywany impuls elektryczny.

Część sprzętu już w fabryce zarażana jest złośliwym kodem. Konieczne jest skanowanie nawet nowo
zakupionego sprzętu w celu wykrycia malware.

Jedyną sensowną metodą wykrywania zagrożeń to monitorowanie sieci. Ze względu na coraz większą ilość
zagrożeń, nawet najlepsze rozwiązania bezpieczeństwa nie są w stanie przechwycić i zablokować wszystkich.

Malware jako usługa:

Potrzebujesz nowej aplikacji dla swojego telefonu – po prostu pobierz ją z sieci.

Chcesz obejrzeć najnowszy odcinek ulubionego serialu - po prostu pobierz go z sieci.

Chcesz przeprowadzić unikalny atak na witrynę www - po prostu pobierz go z sieci.

Chcesz nowego botnet’a - po prostu pobierz go z sieci.

background image

str. 6

Powstają w hackerskim podziemiu witryny, na których można kupować szkodliwe oprogramowanie, jak
i informacje o nowych zagrożeniach (0day) – exploit na Office 2003/2007/2010 w serwisie
1337day.com w styczniu 2013 roku został wystawiony za cenę wywoławczą 20 000 USD.


Najczęściej atakowany software: Java (Java Exploit Framework Tool). Microsoft Malware Protection Center
(MMPC) w 2010 roku ostrzegał przed Javą – ponoć odkąd przejęło ją Oracle, pełno w niej dziur.

Evernote – aplikacja na systemy Android. Na początku marca 2013 Evernote poinformował, iż wyciekły nazwy
użytkowników, e-maile oraz hashe haseł. Treści notatek, dane, karty kredytowe, według przedstawicieli firmy,
nie ucierpiały.

Na tegorocznym CanSecWest w Kanadzie padły FF, Chrome, IE. 6-8 marca 2013, trwała konferencja
CanSecWest, w trakcie której odbył się konkurs Pwn2Own. Padł Firefox, Chrome, IE 10, przeprowadzono dwa
udane ataki na Javę. Przetrwała Safari.

Problemy z chmurą:

Jeden duży provider usług cloud’owych - cenny cel dla potencjalnego ataku.

Usługodawcy rozszerzają swoją ofertę także o rozwiązania gwarantujące bezpieczeństwo korzystania z
chmury.

Usługi cloud’owe bazują często na własnych rozwiązaniach web i wirtualizacji.

Technologie te są z jednej strony wspaniałe, z drugiej - potencjalnie niebezpieczne.


Instytucje np. bankowe nie mogą przechowywać danych w chmurze publicznej – prawo stanowi, że taka
instytucja musi wiedzieć, gdzie przechowywane są jej dane.

Bezpieczeństwo dla wirtualizacji:

Przez lata stosowania technologie wirtualizacyjne stały się technologiami dojrzałymi.

Ze względu na ich zastosowanie (i wynikającą z tego prostotę sterowania) oraz aspekt ekonomiczny,
technologie wirtualizacyjne będą stosowane przez wszystkie organizacje.

Organizacje niewielkie będą jednak miały problemy z ich poprawnym zabezpieczeniem.

Potrzebne są wirtualne systemy bezpieczeństwa.

Stosowanie firewalli sprzętowych w przypadku wirtualnych rozwiązań jest możliwe, ale wiąże się ze spadkiem
wydajności. Należy skorzystać z firewalli wirtualnych, bez wyprowadzania ruchu do infrastruktury sprzętowej.

Malware + geolokacja:

Złośliwe oprogramowanie zacznie wykorzystywać informacje o lokalizacji w celu przeprowadzenia
udanych ataków.

Szczególnie kierowane dla urządzeń mobilnych.

Poznawanie zwyczajów osoby.

Kierowanie na złośliwe strony, które przynoszą najlepsze efekty w danym regionie.

background image

str. 7

Stuxnet:

Stworzony został jako USB Malware (LNK/PIF).

Ktoś musiał go zanieść do środka!

Kod malware zawierał:

4 ataki typu 0day (nieznane dziury),

zaszyfrowany kanał komunikacyjny C&C (command&control) - propagowanie aktualizacji,

aktualizacje p2p w sieci LAN.

STUXNET wykorzystał fakt, że system Windows przy skanowaniu pendrive po podłączeniu dosyć
specyficznie traktował linki symboliczne - w pliku skrótu umieszczony był kod binarny.

Kod ukrywania przed AV/FW - gdyby ktoś analizował ruch sieciowy, wykryłby ruch p2p.

Windows rootkit.

Używał poprawnych (skradzionych) podpisów cyfrowych.

PLC rootkit - zarażał sterowniki kontrolujące prace urządzeń przemysłowych.

Skierowany przeciw Iranowi.

Mocno celowany - szukał konkretnego oprogramowania Siemens SCADA.

Przeprogramowywał Industrial Control Systems (ISC), kontrolujący pompy, wirówki, turbiny.


PLC (ang. Programmable Logic Controller) – programowalny sterownik logiczny - uniwersalne urządzenie
mikroprocesorowe przeznaczone do sterowania pracą maszyny lub urządzenia technologicznego.

Rootkit - narzędzie pomocne we włamaniach do systemów informatycznych. Ukrywa on niebezpieczne pliki i
procesy, które umożliwiają utrzymanie kontroli nad systemem. Rootkit infekuje jądro i usuwa ukrywane
programy z listy procesów oraz plików zwracanych do programów. Rootkity mogą działać w trybie
użytkownika (usermode) lub systemu operacyjnego (kernel-mode). Rootkit może się dostać do komputera
użytkownika wraz z aplikacją będącą w rzeczywistości trojanem.

Duqu (2011):

Wykorzystuje mechanizmy bardzo podobne do Stuxneta,

Wykryty przez programy antywirusowe jako Stuxnet,

Instaluje się jako podpisany cyfrowo driver korzystający z wykradzionego klucza prywatnego,

Służy do wykradania kluczy prywatnych, które mogą być wykorzystane do kolejnych ataków,

Działa na komputerze ofiary 36 dni,

Wykorzystuje błąd w bibliotece T2EMBED.DLL w silniku obsługi fontów TFF w systemie Windows,

Podejrzewa się, że mógł być stworzony przez twórców Stuxneta.


SuperMalware - niewykrywalny, sam się zmieniający malware – Duqu, Stuxnet.

CERT (Computer Emergency Response Team) Polska jest zespołem powołanym do reagowania na zdarzenia
naruszające bezpieczeństwo w sieci Internet. CERT Polska działa od 1996 roku (do końca roku 2000 pod nazwą
CERT NASK), a od roku 1997 jest członkiem FIRST (Forum of Incidents Response and Security Teams). Podlega
pod NASK.

background image

str. 8

Ataki na VoIP (Voice over IP):

Ataki na VoIP są coraz bardziej popularne.

Wynika to z faktu, że technologia ta jest relatywnie nowa.

Technologia ta jest również skomplikowana, co powoduje, że łatwiej jest dokonywać manipulacji.

Powstają narzędzia pozwalające na przeprowadzanie ataków, co powoduje znaczny wzrost ich ilości.

Administratorzy konfigurują zgodnie z „how to” - nawet domyślne hasła, producenci popełniają błędy
w domyślnych konfiguracjach swojego sprzętu.

Tradycyjne, standardowe protokoły są pozbawione szyfrowania i autentykacji. Błędy w konfiguracji -
słabe hasła.

Publiczne narzędzie pozwalające na atakowanie protokołu SIP - SIPVicious.

Ataki VoIP:

brak standardu

niebezpieczne protokoły

skomplikowana technologia

ciągle relatywnie nowa

cenne ofiary

Ochrona przez atakami na VoIP:

Kontrola dostępu.

Proxy VoIP

pomaga gdy stosowany jest NAT,

ogranicza liczbę codec’ów,

ogranicza zakres adresów IP,

ochrania przed directory harvesting,

ogranicza ilość sesji (ochrona przed DoS),

ukrywanie aplikacji użytkowników,

ukrywa topologię.


DHA lub Directory Harvest Attack - jedna z metod stosowanych przez spamerów w celu zbierania czynnych
adresów e-mail. Adresy te stają się bezpośrednim celem ataków, które spamerzy przeprowadzają osobiście,
albo odsprzedawane są innym spamerom. Najpierw spamer wybiera domenę (powiedzmy
„ofiara_domena.com”), a następnie wysyła spekulacyjne wiadomości e-mail na prawdopodobne adresy w tej
domenie (na przykład „jacek@ofiara_domena.com”, anna@ofiara_domena.com). Jeśli serwer pocztowy
„ofiara_domena.com” nie odrzuci wiadomości, spamer będzie wiedział, że dany adres e-mail jest czynny i
może być wykorzystywany jako cel w atakach spamowych.


Facebook - jedno z największych sieciowych zagrożeń wynikające z Web 2.0 (np. like-jacking). Większość
zagrożeń pochodzi z ruchu WWW. Facebook podjął współpracę z WebSense w kwestii filtrowania adresów
URL.

background image

str. 9

Websense – amerykańska firma z San Diego w Kalifornii, specjalizująca się w oprogramowaniu zapewniającym
internetową kontrolę treści. Pozwala użytkownikom na zablokowanie dostępu do wybranych kategorii stron
internetowych jak np. treści pornograficzne czy portale społecznościowe.

Zagrożenia Facebook’a:

like-jacking

wiadomości Facebook’a

sfałszowane zaproszenia przyjaciół

niebezpieczne aplikacje

skróty adresów URL


Likejacking jest Facebook’ową odmianą clickjackingu. W praktyce polega on na tym, iż przestępca tworzy
stronę, na której rzekomo ma znajdować się ciekawy film, gra czy też inna treść, która z założenia mogłaby
zainteresować odbiorcę. W rzeczywistości jednak wcale ich tam nie ma. Utworzona witryna ma bowiem za
zadanie jedynie przyciągnąć uwagę użytkowników. To jednak nie koniec. Cyber-przestępcy dopuszczający się
likejackingu na przygotowanej przez siebie witrynie tworzą specjalną ramkę, która obejmuje całą stronę
wyświetlaną w przeglądarce. Klikając na jakikolwiek przycisk czy też obrazek, znajdujący się w jej obrębie,
aktywujemy oprogramowanie, którego celem jest odwołanie się do naszego profilu na Facebook’u oraz zmiana
jego ustawień.


datalossdb.org

stan na 24 kwietnia 2013

background image

str. 10

AT&T - adresy pocztowe

Wellpoint - dane pacjentów

Apache XSS - hasło developera/administratora

Google Aurora - poczta i być może kod źródłowy

Gawker - dane użyktowników

SourceForge - hasła, być może dostęp do projektów

HBGary - hasła do poczty i serwerów

RSA - secureID seeds

Epsilon - adresy pocztowe

Sony PSN Network - praktycznie wszystkie dane identyfikacyjne


Grupy: Anonymous, LulzSec, AntiSec.

Potrafisz wykryć atak?

Potrafisz dalej prowadzić działalność w trakcie ataku?

Jak odzyskać dane po ataku?

Odzyskać czysty system z kopii.

Ocena istotności utraty danych, wpływu na działalność.

Zgłoszenie do zarządu?


Discovery & Response (odkrywanie zagrożeń i reagowanie na nie) powinno być podstawą polityki
bezpieczeństwa. Wykrycie ataków przeprowadzanych z użyciem nowatorskich metod najczęściej jest
przypadkiem. Stosować: systemy IPS, systemy firewall’owe, SIEM.

W większości działów IT personel w praktyce zagląda do logów okazyjnie, zazwyczaj po tym, gdy wydarzy się
już coś niedobrego w sieci. Stałe monitorowanie logów rzadko jest praktykowane. Pomocne w monitorowaniu
zdarzeń w trybie non stop może być wdrożenie platformy SIEM (Security Information and Event
Management)
. Pomaga ona w uzyskiwaniu danych zawartych w rozproszonych logach i następnie
gromadzeniu ich w jednym centralnym miejscu, gdzie mogą być monitorowane, raportowane oraz
oczyszczane. Taka centralizacja zapewnia pełną wiedzę o bieżącej sytuacji, niezbędną do efektywnego
zarządzania ryzykiem operacyjnym IT.

background image

str. 11

„Network visibility” ochrania. Większość administratorów nie wie, co się dzieje w ich sieci. Musisz wiedzieć:

Co użytkownicy i urządzenia robią w sieci?

Kto z zewnątrz próbuje uzyskać dostęp?

Przeprowadzane i skuteczne ataki?

Jakie urządzenia zostały zainfekowane?

Jak do tego doszło?

Co wykonywały po zarażeniu?

Visibility Tools”, takie jak Application Control, pomagają.


Mobilne bezpieczeństwo - wnętrze sieci się kurczy. Obecnie znaczna część urządzeń pracuje poza
standardową siecią chronioną. Dawniej czynnikiem ochrony fizycznej była konkretna lokalizacja. Konieczna jest
ochrona urządzeń mobilnych - szyfrowanie nośników mobilnych, lub zdalne kasowanie danych. Potrzeba silnej
ochrony urządzeń mobilnych nie zaspokaja potrzeby silnej ochrony sieci.

Wnętrze sieci się kurczy. Zmiana podejścia do pracy: praca w domu, używanie urządzeń mobilnych. Problem
udostępniania zasobów firmy na zewnątrz. Dotychczas - tylko ochrona sieci wewnętrznej na styku z siecią
Internet. Teraz trzeba dać możliwość łączenia się z sieci zewnętrznej - tunele.

Coraz większa sprzedaż smartphonów - coraz więcej zagrożeń mobilnych:

wysyp Malware na Google Play

milion smartphonów przejętych w Chinach

Zeus atakuje autentykację SMS

botnet dla systemu Symbian

hackowanie RIM Blackberry

PDF 0day w iOS


Bezpieczna komunikacja mobilna - zestawianie bezpiecznych kanałów komunikacji z wykorzystaniem SSL,
IPSec, L2TP. Mobilne oprogramowanie antywirusowe.

Złośliwe oprogramowanie w Android: czytanie i pisanie wiadomości SMS (numery potwierdzeń z banków).
Antywirus dla Androida: SOFOS Mobile Security.

Drogie rozmowy – krótkie połączenia z telefonów zagranicznych, często w środku nocy; sprawcy liczą, że
ofiara oddzwoni.


Włamywacze chcą centrów danych. Włamywacze są zmotywowani finansowo, bo dane mogą być drogie.
Ceny danych:

Karty kredytowe 0,60$-30$

Dane do kont 10$-1000$

background image

str. 12

Zeus - atak polegający na przejęciu haseł jednorazowych z komórki ofiary. Wykorzystuje drive-by-download, by
pobrać złośliwe oprogramowanie. Następnie modyfikuje stronę internetową banku, prosząc użytkownika o
podanie modelu i numeru telefonu, w celu przesłania „certyfikatu bezpieczeństwa” – w rzeczywistości aplikacji
umożliwiającej atak typu man-in-the-mobile. Użytkownik od tej pory nie wie nawet, kiedy dostaje smsy z
potwierdzeniami transakcji, które są automatycznie przesyłane do atakującego.

Ochrona centrum sieci i danych:

Ochrona centrum sieci musi radzić sobie z nowymi zagrożeniami.

Ochrona powinna skupiać się na centrum danych.

Oddzielanie sieci użytkowników od miejsc składowanie cennych danych (segmentacja sieci).

Wykorzystanie systemów DLP do monitorowania przesyłania danych.


Wcześniejsze zagrożenia, które wciąż są niebezpieczne:

Sieć WEB ciągle polem bitwy - duża część ataków.

Zagrożenia mobilne - ilość rośnie.

Sieci botnet tworzone przez malware.


Statystyki zagrożeń:

Ilość niebezpiecznych stron wzrosła o 111,4% w latach 2009-2010.

Przeciętna strona WWW ma 13 poważnych błędów.

79.9% stron ze szkodliwym kodem to przejęte poprawne strony.

52-60% wykradania danych ma miejsce w sieci WEB.

86% zagrożeń kierowanych jest do aplikacji WEB.


Czemu ataki na WEB?

Zablokowane inne drogi ataku:

Serwery i firewall’e są zabezpieczone.

Poczta elektroniczna jest chroniona w miarę skutecznie.

Użytkownicy coraz bardziej świadomi ataków z wykorzystaniem poczty.

Przeglądarka stała się uniwersalnym narzędziem:

Duża część pracy wykonywana w sieci: SaaSI.

Dodatki i plugin’y poszerzają możliwości ataku.

Web 2.0 kuszącym celem ataków:

HTTP pozbawiony jakichkolwiek mechanizmów bezpieczeństwa.

Mało kto filtruje ruch szyfrowany.


Ochrona przed atakami WEB:

Rozwiązania XTM (extensible threat management) – elastyczne narzędzia zarządzania

Proxy HTTP (Application Layer Content Filtering) – filtrowanie pakietów po zawartości

Skanowanie zawartości stron w poszukiwaniu Malware (GAV – gateway antivirus)

Sygnatury IPS (ogólne sygnatury XSS cross-site scripting i SQL Injection)

Web Blocker - kategoryzacja URL

background image

str. 13

Reputation Enabled Defence (RED) – ocena reputacji URL

Application Control pomaga w kontroli dopuszczonych aplikacji

XCS (extensible content security) – rozszerzalne bezpieczeństwo treści

Skanowanie zawartości stron w poszukiwaniu Malware (GAV)

Kategoryzacja adresów URL

Reputation Enabled Defence (RED)

Objectionable Content Filtering

Możliwości Web DLP


Extensible Threat Management (XTM) jest następną generacją United Threat Management (UTM),
zintegrowanych urządzeń stanowiących zabezpieczenie sieci, rozszerzającą trzy fundamentalne kwestie:
większe bezpieczeństwo, większe możliwości sieciowe, większa elastyczność zarządzania. Główne elementy
UTM to: firewall, IDS/IPS, GAV.

Ochrona działa:

System IPS wykrywa MS09-002 Memory Corruption.

GAV wykrył niebezpieczną zawartość strony.

Proxy zablokowało EXE.


Botnet – grupa komputerów zainfekowanych złośliwym oprogramowaniem (np. robakiem) pozostającym w
ukryciu przed użytkownikiem i pozwalającym jego twórcy na sprawowanie zdalnej kontroli nad wszystkimi
komputerami w ramach botnetu. Kontrola ta pozwala na zdalne rozsyłanie spamu oraz inne ataki z użyciem
zainfekowanych komputerów.

Sieci botnet propaguje Malware. Około 6/1000 PCs zarażonych w US. W Japonii mniej niż 1. W Polsce jest to
około 4/1000 PCs. Bot clients (trojany) najczęściej przesyłane dane. Najczęściej tworzy się cross-platform
botnents
(PC & Mac).

Botnet TDL-4:

własne szyfrowanie

zarażony master boot record (MBR) - nawet format nie pomoże

używa kernel rootkit w celu ukrycia przed AV

wykorzystuje współdzielenie P2P Kadmilla

wsparcie dla 64 bitów (działa na Windows 7 64-bit)

moduł Blackhat SEO

wykorzystuje exploity Stuxnet’a

CIĄGLE EWOLUUJE!

Zarażonych 4,5 miliona komputerów.

background image

str. 14

Master Boot Record, MBR – główny rekord startowy, czyli umowna struktura danych zapisana w pierwszym
sektorze dysku twardego. Nazywany też Master Boot Block. Zawiera program rozruchowy oraz tablicę partycji.

Ochrona przed botnetami:

XTM

XCS

Ataki przeciw POS (Point of Sale):

Ataki na urządzenia do płatności bezgotówkowych.

Nowe złośliwe kody VSkimmer oraz BlackPOS.

VSkimmer wykrada informacje z kart używanych w czytnikach podłączonych do komputerów z
systemem Windows i wysyła te dane na zewnątrz.

Mechanizm zarażania kodem BlackPOS to wyszukiwanie w sieci komputerów podatnych (niezałatane
dziury).

NFC - kradzieże poprzez dwa telefony z androidem zestawione tunelem.


Ataki na urządzenia ICS/SCADA:

ICS - Industrial Control Systems

SCADA - Supervisory Control and Data Acquisition

Trend Micro przeprowadziła badania - stworzono systemy IDS udające stacje uzdatniania wody, PLC
(Programmable Logic Controller) oraz kontroler.

W ciągu 28 dni na systemy honeypot przeprowadzono kilkadziesiąt ataków z różnych krajów.

Uwzględnia to tylko ataki celowane na systemy ICS.


ICS (Industrial Control System) – przemysłowy system sterowania – ogólny termin, obejmujący kilka rodzajów
systemów sterowania stosowanych w przemyśle: DCS, SCADA, PLC itd.
SCADA (Supervisory Control and Data Acquisition) – nadzór i gromadzenie danych - oznacza system
nadzorujący przebieg procesu technologicznego lub produkcyjnego. Jego główne funkcje obejmują zbieranie
aktualnych danych (pomiarów), ich wizualizację, sterowanie procesem, alarmowanie oraz archiwizację danych.

Jednoczesny atak fizyczny i elektroniczny:

Dziennikarz zajmujący się tematyką bezpieczeństwa (Brian Krebs).

Do firmy utrzymującej serwer wysłany zostaje list, rzekomo od FBI, o naruszeniu prawa przez serwis z
żądaniem zablokowania strony.

Jednocześnie przeprowadzono atak DoS (denial of service).

W tym samym czasie pod drzwiami dziennikarza pojawiła się policja - ktoś zadzwonił z jego numeru
telefonu komórkowego na numer 911 i zgłosił włamanie Rosjanina, który zastrzelił żonę (SWATting).


Swatting – jest próbą oszukania systemu reagowania awaryjnego/ratunkowego w celu wysłania jednostki w
oparciu o fałszywe zgłoszenie incydentu.

background image

str. 15

Ataki na graczy:

Wykorzystano błędy w obsłudze adresów URI.

Można wymusić pobranie z sieci i uruchomienie złośliwego kodu.

Dotyczy to usługi Origin firmy Electronic Arts.

Podobna sytuacja miała miejsce z usługą Steam kilka miesięcy temu.

Ataki na graczy nie są często traktowane poważnie.

Ich konsekwencje mogą być jednak istotne.


Ataki na DNS - DNS spoofing:

DNS spoofing - atak, u którego podstaw leży modyfikacja wpisów w bazach serwerów DNS.

Udany atak tego typu doprowadza do sytuacji, że aplikacja kliencka, korzystająca z informacji
dostarczonych przez zaatakowany serwer DNS, łączy się z innym serwerem (adresem IP), niż
rzeczywiście chciała.

Na przykład atak polegający na przechwytywaniu transmisji pomiędzy klientem a serwerem DNS.
Korzystanie z UDP to znacznie ułatwia.


Ataki na DNS - DNS Amplification:

DNS Amplification - atak, w którym serwery DNS są narzędziem.

Serwery DNS służą jako wzmacniacze ataku DoS (Deny of Service).

Atakujący wysyła z dużej ilości komputerów zapytania DNS do różnych serwerów DNS podmieniając
adres IP klienta wysyłającego zapytanie na adres IP atakowanej maszyny.

Serwery DNS wyślą odpowiedź do atakowanej maszyny.


300Gbps DDoS:

Szacuje się, iż Spamhaus odpowiada za filtrowanie około 80% spamu w sieci

18.03.2013 rozpoczął się atak, który początkowo generował 10Gbps, a potem rósł w siłę osiągając
nawet 300Gbps.

Wykorzystano mechanizm wzmocnienia przez serwery DNS (DNS Amplification).

Możemy spodziewać się takich ataków w przyszłości (stosunkowo łatwo je przeprowadzić).

background image

str. 16

Telefoniczny DoS:

TDoS - Telephony Denial of Service.

Nie tak skomplikowany jak sieciowy DoS (wymaga jednej rozmowy telefonicznej jednocześnie - w
typowym DoS ilość pakietów jest ogromna).

Automatyzacja - serwery VoIP (np. Asterisk).

Próba wymuszenia 5000$.

Blokowanie linii telefonicznych.

Podszywanie pod poprawne numery.

Atak na wiele numerów firm i instytucji (np.: pogotowie lotnicze).


Inne wydarzenia:

Poważna dziura w PostgreSQL (od wersji 8.4 wzwyż) załatana: możliwy atak DoS prowadzący do
uszkodzenia baz lub (w przypadku posiadania nieuprzywilejowanego dostępu) eskalacja uprawnień i
możliwość instalacji złośliwego kodu.

Grupa Anonymous atakuje Koreę Północną:

DoS na serwery rządowe,

atak na Air Koryo,

plakat na flickr strony propagandy Uriminzokkiri.


Darkleech atakuje Apache’a:

Tysiące zarażonych stron (m.in. Los Angeles Times, Seagate i wiele innych o dobrej reputacji).

Nie jest znana metoda propagacji zagrożenia - nie wiadomo na razie jak się bronić.

Na serwerze modyfikowany jest serwer sshd, dając pełen dostęp i służy do wykradania haseł.

Instalowany jako moduły Apache’a.

Przekierowuje na zewnętrzne adresy do złośliwego kodu.

Selektywnie wybierane ofiary (np. nie ujawnia się dla IP firm z branży IT Sec).

Brak statycznego kodu na stronach.

Z

ARZĄDZANIE

B

EZPIECZEŃSTWEM

S

YSTEMÓW

I

NFORMATYCZNYCH


Zarządzanie bezpieczeństwem systemów informatycznych jest procesem stosowanym w celu osiągnięcia i
utrzymywania odpowiedniego poziomu poufności, integralności, dostępności, rozliczalności, autentyczności i
niezawodności.


Definicje podstawowe:

1. Poufność (confidentiality) - właściwość zapewniająca, że informacja nie jest udostępniana lub ujawniana

nieautoryzowanym osobom, podmiotom lub procesom.

2. Integralność systemu (system integrity) - właściwość polegająca na tym, że system realizuje swoją

zamierzoną funkcję w nienaruszony sposób, wolny od nieautoryzowanej manipulacji, celowej lub
przypadkowej.

3. Integralność danych (data integrity) - właściwość zapewniająca, że dane nie zostały zmienione lub

zniszczone w sposób nieautoryzowany.

background image

str. 17

4. Dostępność (availability) – właściwość bycia dostępnym i możliwym do wykorzystania na żądanie, w

założonym czasie, przez autoryzowany podmiot.

5. Rozliczalność (accountability) - właściwość zapewniająca, że działania podmiotu mogą być przypisane w

sposób jednoznaczny tylko temu podmiotowi.

6. Autentyczność (authenticity) - właściwość zapewniająca, ze tożsamość podmiotu lub zasobu jest taka, jak

deklarowana. Autentyczność dotyczy takich podmiotów jak: użytkownicy, procesy, systemy i informacja.

7. Niezawodność (reliability) - właściwość oznaczająca spójne, zamierzone zachowanie i skutki.


Elementy bezpieczeństwa systemów informatycznych - wzajemne relacje:

Zasoby (assets) - wszystko, co ma wartość dla instytucji.

Prawidłowe zarządzanie zasobami jest niezbędne do osiągnięcia celu działania instytucji i jest ono
głównym obowiązkiem osób odpowiedzialnych za kierowanie instytucją na wszystkich poziomach.
Zasoby instytucji to między innymi:

zasoby fizyczne - sprzęt komputerowy, urządzenia komunikacyjne, budynki,.

informacje/dane (dokumenty, bazy danych)

oprogramowanie, zdolność produkowania lub świadczenia usług,

ludzie

dobra niematerialne (reputacja, wizerunek)

Większość lub wszystkie te zasoby można uważać za wartościowe na tyle, aby zagwarantować pewien
stopień ochrony. Jeśli zasoby nie są chronione, niezbędne jest określenie ryzyka akceptowalnego.

background image

str. 18

Zagrożenia (threats) - potencjalna przyczyna niepożądanego incydentu, którego skutkiem może być
szkoda dla systemu lub instytucji.

Szkoda ta może powstać jako skutek bezpośredniego lub pośredniego ataku na informację
przetwarzaną przez system lub usługę informatyczną, na przykład uszkodzenie, ujawnienie,
modyfikację, utratę informacji lub jej dostępności
.

Zagrożenia mogą mieć pochodzenie naturalne lub ludzkie i mogą być przypadkowe lub rozmyślne.
Należy zidentyfikować zarówno zagrożenia przypadkowe, jak i rozmyślne oraz określić ich poziom i
prawdopodobieństwo.

Podatność (vulnerability) - słabość zasobu, lub grupy zasobów, która może być wykorzystana przez
zagrożenie.

Ryzyko (risk) - jest prawdopodobieństwem określającym możliwość wykorzystania określonej
podatności przez dane zagrożenie w celu spowodowania straty lub zniszczenia zasobu lub grupy
zasobów, a przez to negatywnego bezpośredniego lub pośredniego wpłynięcia na instytucję.

Scenariusz ryzyka opisuje, w jaki sposób dane zagrożenie lub grupa zagrożeń może wykorzystać
konkretną podatność lub grupę podatności, narażając zasoby na szkodę.

Zabezpieczenie (safeguard) - praktyka, procedura lub mechanizm redukujący ryzyko.

Zabezpieczenia to praktyki, procedury lub mechanizmy, które mogą chronić przed zagrożeniem,
redukować podatność, ograniczać następstwa, wykrywać niepożądane incydenty i ułatwiać
odtwarzanie
.

Efektywna ochrona wymaga zwykle kombinacji różnych zabezpieczeń w celu utworzenia warstw
ochronnych dla zasobów. Na przykład mechanizmy kontroli dostępu stosowane dla komputerów
powinny być wspomagane przez narzędzia audytu, procedury postępowania dla personelu, szkolenia i
zabezpieczenia fizyczne.

P

ROCES

Z

ARZĄDZANIA

R

YZYKIEM


Umowa SLA - Service Level Agreement – porozumienie o poziomie usług – umowa utrzymania i
systematycznego poprawiania ustalonego między klientem a usługodawcą poziomu jakości usług poprzez stały
cykl obejmujący:

uzgodnienia,

monitorowanie usługi,

raportowanie,

przegląd osiąganych wyników.

background image

str. 19


Identyfikacja i przeglądy ograniczeń:

czy zabezpieczenie spełni nasze oczekiwania?

czy zabezpieczenie sprawdzi się w naszym środowisku?

zgodność systemu generowania logów z istniejącym już systemem analizy logów...


Nie tylko rozwiązania sprzętowe, ale też procedury i szkolenia dla pracowników. Raz na jakiś czas
przeprowadzać trzeba ponowne analizy ryzyka.

zarządzanie ryzykiem - risk management - całkowity proces identyfikacji, kontrolowania i eliminacji lub
minimalizowania prawdopodobieństwa zaistnienia niepewnych zdarzeń, które mogą mieć wpływ na
zasoby systemu informatycznego.

analiza ryzyka - risk analysis - proces identyfikacji ryzyka, określenia jego wielkości i identyfikowania
obszarów wymagających zabezpieczeń.

ryzyko szczątkowe - residual risk - ryzyko, które pozostaje po wprowadzeniu zabezpieczeń. Nigdy nie
osiąga ono wartości zero.


Monitorowanie

Używanie zabezpieczeń powinno być monitorowane w celu zapewnienia ich prawidłowego działania,
upewnienia się, czy zmiany w środowisku nie wpłynęły na efektywność działania zabezpieczeń oraz czy
zapewniona jest rozliczalność.

background image

str. 20

Automatyczne narzędzia do przeglądania i analizy dzienników działań są pomocne w zapewnieniu
zamierzonej skuteczności działania zabezpieczeń.

Narzędzia te mogą także być użyte do wykrywania niepożądanych zdarzeń, a ich użycie ma efekt
odstraszający.

Rozliczalność systemu - zdolność przypisania działalności do podmiotu, w celu stwierdzenia autoryzacji
działania.


Honeypot (ang. honey – miód; pot – garniec) to w informatyce pułapka mająca na celu wykrycie prób
nieautoryzowanego użycia systemu czy pozyskania danych. Najczęściej składa się z komputera, danych i
wyodrębnionego obszaru sieci lokalnej, które udają prawdziwą sieć, lecz są odizolowane i odpowiednio
zabezpieczone. Wszystko to z zewnątrz wygląda jakby zawierało informacje lub zasób, który mógłby być
potencjalnym celem cyberprzestępcy. Systemy honeypot działają najczęściej pod kontrolą specjalistycznego
oprogramowania. Istnieją zaawansowane wersje honeypotów przeznaczone dla ogromnych sieci będących
własnością wielkich ISP, jak również w miarę proste systemy nadające się doskonale do ochrony małej sieci
firmowej lub domowej. Te ostatnie mogą być z powodzeniem zainstalowane na domowym komputerze.

Planowanie awaryjne i odtwarzanie po katastrofie:

Plany awaryjne zawierają informacje o tym, jak prowadzić działalność, gdy procesy ją wspomagające (w
tym systemy informatyczne) są osłabione lub niedostępne.

W planach tych powinny być opisywane wszystkie możliwe składniki różnych scenariuszy sytuacji
awaryjnych, w tym:

różne okresy trwania awarii,

utrata różnych rodzajów funkcji,

całkowita utrata fizycznego dostępu do budynków instytucji,

potrzeba powrotu do stanu, który istniałby, gdyby przerwa w działaniu nie nastąpiła.


Polityka czystego biurka
- jeśli ktoś opuszcza swoje biurko, to ma zostawić je tak, że osoba, która do niego
podejdzie, nie ma prawa znaleźć tam nic cennego:

blokowanie ekranu,

zamknięcie na klucz dokumentów.


Cele, strategie i polityki bezpieczeństwa:

Cele, strategie i polityki bezpieczeństwa instytucji powinny być opracowane hierarchicznie od poziomu
instytucji do poziomu eksploatacyjnego. Powinny odzwierciedlać potrzeby instytucji i uwzględniać
wszelkie występujące w instytucji ograniczenia.

Bezpieczeństwo wchodzi w skład odpowiedzialności na każdym poziomie kierowniczym, instytucji i w
każdej fazie cyklu życia systemów.

Cele, strategie i polityki powinny być utrzymywane i aktualizowane w oparciu o wyniki cyklicznych
przeglądów bezpieczeństwa (na przykład analizy ryzyka, audytów bezpieczeństwa) oraz zmian w celach
działania instytucji.


background image

str. 21

Pojęcia i stosowane definicje:

Bezpieczeństwo systemu informatycznego (IT security) - wszystkie aspekty związane z definiowaniem,
osiąganiem i utrzymywaniem poufności, integralności, dostępności, rozliczalności, autentyczności oraz
niezawodności.

Polityka bezpieczeństwa instytucji w zakresie systemów informatycznych (IT security policy) - zasady,
zarządzenia, procedury, które określają, jak zasoby - włącznie z informacjami wrażliwymi - są
zarządzane, chronione i dystrybuowane w instytucji i jej systemach informatycznych.


Polityka bezpieczeństwa nie określa szczegółowo, który użytkownik ma dostęp do jakich danych. Konkretne
nadanie uprawnień regulują stosowne dokumenty, które wystawia administrator danych osobowych danej
instytucji.

Polityka bezpieczeństwa systemów informatycznych - powinna odzwierciedlać podstawowe zasady
bezpieczeństwa i zarządzania wynikające z polityki bezpieczeństwa instytucji oraz ogólne zasady korzystania z
systemów informatycznych w instytucji.

Potyka bezpieczeństwa systemu informatycznego powinna zawierać szczegóły dotyczące konkretnych
wymagań.

Polityka bezpieczeństwa systemu informatycznego powinna odzwierciedlać zasady bezpieczeństwa.

Polityka działania instytucji

wynikająca z jej celów i strategii

(misja instytucji)

Polityka marketingowa instytucji

Polityka stosowania

teleinformatyki w instytucji

Polityka finansowa

instytucji

Polityka bezpieczeństwa instytucji

Polityka bezpieczeństwa systemów

teleinformatycznych instytucji

Polityka bezpieczeństwa systemów

teleinformatycznych oddziału instytucji

(opcjonalnie)

Polityka bezpieczeństwa

systemu #A

Polityka bezpieczeństwa

systemu #B

Polityka bezpieczeństwa

systemu #X

POZIOM I

POZIOM II

POZIOM
TŁA

POZIOM III

background image

str. 22

Normy:

ISO 27001.

Polska norma PN-I-0200: Zabezpieczenia w systemach informatycznych - Terminologia, PKN 1998 (dot.
polityk bezpieczeństwa systemów i ochrony danych).

Polska norma PN-I-13335-1 (tłumaczenie angielskiej wersji raportu technicznego ISO/IEC).

ISO (Międzynarodowa Organizacja Normalizacyjna) i IEC (Międzynarodowa Komisja Elektrotechniczna)
tworzą wyspecjalizowany system światowej normalizacji międzynarodowej.

R

EALIZACJA

U

SŁUG

Z

APEWNIENIA

B

EZPIECZEŃSTWA

I

NFORMACJI

E

LEMENTY

K

RYPTOGRAFII I

K

RYPTOANALIZY

integralność, poufność, niezaprzeczalność, rozliczalność


Szyfrowanie i odszyfrowywanie:

Szyfrowanie polega na takim przekształceniu wiadomości (tekstu jawnego), by dla osoby trzeciej,
różnej od nadawcy i odbiorcy, stanowiła ona jedynie przypadkowy ciąg znaków, na podstawie którego
nie jest możliwe odtworzenie żadnej użytecznej informacji.

Otrzymany w wyniku szyfrowania ciąg znaków nosi nazwę tekstu zaszyfrowanego - szyfrogramu.

Procesem odwrotnym do szyfrowania, wykonywanym przez odbiorcę wiadomości, jest odszyfrowanie,
pozwalające na odtworzenie tekstu jawnego.


System kryptograficzny:

Zbiór wszystkich tekstów jawnych (wiadomości), które mogą być zaszyfrowane przy użyciu danego
szyfru to dziedzina przekształceń szyfrujących.

Nowoczesne szyfry zazwyczaj nie wprowadzają żadnych ograniczeń na postać wiadomości podlegającej
szyfrowaniu. Może ją stanowić dowolny - sensowny bądź nie - ciąg znaków.


Klucze systemu kryptograficznego:

Klucz kryptograficzny wyznacza odpowiednie przekształcenie szyfrujące i/lub odszyfrowujące.

Klucz szyfru jest parametrem, którego wartość decyduje o tym, które odwzorowanie ze zbioru
odwzorowań wyznaczonych przez ogólny algorytm szyfrowania, zostanie użyte do
zaszyfrowania lub odszyfrowania danej wiadomości.

Zbiór możliwych do wyboru kluczy powinien być na tyle liczny, by niemożliwe było (w praktyce)
odtworzenie będącego w użyciu klucza metodą sprawdzenia wszystkich możliwości.


System kryptograficzny:

W rodzinie przekształceń odszyfrowujących istnieje zazwyczaj tylko jedno przekształcenie odwrotne dla
wybranego przekształcenia szyfrującego.

Tylko użycie właściwego klucza po stronie odbiorczej zapewnia odtworzenie zaszyfrowanej
wiadomości.


background image

str. 23

Współczesne systemu kryptograficzne:

Systemy symetryczne (klasyczne):
W systemach tych, zwanych również systemami szyfrowania z kluczem tajnym, nadawca i odbiorca
posługują się tym samym kluczem, zarówno do szyfrowania jak i do deszyfrowania.

Systemy asymetryczne (publicznego klucza):
Systemy te, zwane również systemami szyfrowania z kluczem jawnym, posługują się dwoma
oddzielnymi kluczami, przy czym jeden klucz służy do szyfrowania a drugi do deszyfrowania. Para takich
kluczy jest przypisana każdemu użytkownikowi sieci.

Klucz szyfrujący się zmienia - co 128MB lub 8h - w przypadku złamania klucza, można przechwycić tylko
niewielką porcję informacji.

Systemy symetryczne:

W systemach symetrycznych ten sam klucz przypisany jest parze użytkowników sieci i używany jest
zarówno do szyfrowania, jak i do odszyfrowywania przesyłanych pomiędzy nimi wiadomości.

Głównym problemem związanym z użyciem kryptosystemów symetrycznych jest konieczność
wcześniejszego (poprzedzającego transmisję wiadomości) uzgodnienia wspólnego, tajnego klucza
pomiędzy każdą parą potencjalnych korespondentów.


Kerberos - system korzystający z szyfrowania symetrycznego.

Metoda realizacja usługi poufności - klucz tajny:

Ze względu na to, że klucz ma być znany tylko danej parze nadawca-odbiorca, jego uzgodnienie musi odbywać
się przy użyciu specjalnego, bezpiecznego kanału łączności.

Bezpieczeństwo szyfrowania symetrycznego zależy od:

Jakości algorytmu szyfrującego, który musi być wystarczająco dobry, by rozszyfrowanie komunikatu w
przypadku posiadania wyłącznie tekstu zaszyfrowanego (bez posiadania klucza) było praktycznie
niemożliwe.

Zachowania tajności klucza - nie algorytmu; ta cecha szyfrowania symetrycznego powoduje, iż jest ono
wygodne w praktycznym stosowaniu.

źródło komunikatu

szyfrator

deszyfrator

miejsce przeznaczenia

źródło klucza

background image

str. 24

Algorytm szyfrowania nie musi być tajny co umożliwia tworzenie tanich realizacji sprzętowych
algorytmów szyfrowania danych.


Dystrybucja kluczy w systemach symetrycznych:

W przypadku firm działających na szeroką skalę, używany jest osobny tajny klucz dla każdej sesji, gdzie
poprzez sesję rozumie się pojedyncze komunikacyjne przesłanie danych pomiędzy dwoma jednostkami.

W przypadku dużej sieci z setkami systemów z których każdej przeprowadza wiele sesji w ciągu każdej
godziny, przypisywane i dystrybucja tajnych kluczy staje się dużym problemem.

Tajne klucze często rozprowadzane są przez scentralizowane centra dystrybucji kluczy lub przez
algorytmy z kluczem publicznym.


Czym jest Key Distribution Center

Alicja wybiera jakiś klucz sesji K

S

.

Alicja wysyła do KDC swoją tożsamość, oraz tożsamość Boba i klucz sesji, zaszyfrowane tajnym
kluczem, znanym tylko jej i KDC.

KDC rozszyfrowuje ten komunikat, uzyskując tożsamość Boba i klucz sesji, po czym konstruuje
nowy komunikat, zawierający tożsamość Alicji i tajny klucz sesji, zaszyfrowane tajnym kluczem
Boba.

Gdy Bob rozszyfruje ten komunikat stwierdzi, że Alicja chce z nim nawiązać sesję w oparciu o
klucz K

S

.

ZAGROŻENIE: atak powtarzający – Tekla przejmuje komunikat 2. i następujący po nim komunikat przekazania
kwot; jeśli przelew był robiony na jej konto, może go wielokrotnie powtórzyć w późniejszym czasie.

Jak działa Kerberos
Alice - inicjuje połączenie - należy traktować jako klienta, który chce otrzymać dostęp do jakiejś usługi lub
zasobu.
Bob - należy traktować jako serwer usługi.

background image

str. 25

Authentication via pre-shared key: K

ab

Nie ma pewności, że Bob to Bob.

Authentication via pre-shared key: K

ab

with mutual authentication.


Autentykacja z pośrednikiem:

Zaufana 3 strona pośredniczy w procesie autentykacji.

Tą zaufaną stroną jest KDC (Key Distribution Center), a więc centrum dystrybucji kluczy.

Każda usługa oraz każdy użytkownik posiada unikalny klucz pozwalający na komunikację z KDC.

KDC generuje klucz sesji i w bezpieczny sposób rozsyła go do każdej ze stron komunikacji,

Strony komunikacji muszą nawzajem udowodnić sobie, że posiadają ten klucz, a więc dokonać
autentykacji przy zachowaniu warunków zaufania do KDC.

A

lice

e

B

o

b

I’m Alice

a random challenge R

F(K

AB

,R)

Alice

Bob

I’m Alice

R1

background image

str. 26

Cel: uniknięcie konieczności komunikacji KDC z Bobem. Rozwiązanie: użycie „ticketów” – tokenów
bezpieczeństwa, które wygasają.


Gdy spojrzeć na Kerberos zgodnie z konwencją Alicji i Boba, Alicja jest użytkownikiem korzystającym ze
stacji klienckiej, która kontaktuje się z trzema sewerami:

serwerem uwierzytelnienia AS (Authentication Server), wykorzystywanym do weryfikacji logujących się
użytkowników,

serwerem biletów TGC (Ticket Granting Service), wystawiającym bilety dostępu do określonych usług,

background image

str. 27

serwerem wykonawczym, który stanowi odpowiednik Boba i wykonuje zadania zlecone przez Alicję.

1. Tożsamość Alicji jest wysyłana jako plain text do serwera AS.
2. AS odpowiada zaszyfrowanym kluczem tajnym Alicji komunikatem, zawierającym klucz sesji i bilet dla

Alicji. Po odebraniu komunikatu, stacja robocza zapyta Alicję o hasło, dzięki któremu wygenerowany
zostanie klucz K

A

, umożliwiający odszyfrowanie wiadomości.

3. Najważniejszym elementem tego komunikatu jest K

TGS

(A, K

S

), czyli zakodowana tajnym kluczem TGS

tożsamość Alicji oraz klucz sesji, potwierdzające jej autentyczność. Dzięki znacznikowi czasowemu w
komunikacie 3. Tekla nie może go skopiować i wysłać powtórnie.

4. W odpowiedzi TGS wysyła klucz połączenia K

AB

w dwóch wersjach: szyfrowanej kluczem K

S

wersji dla

Alicji i szyfrowanej kluczem K

B

wersji dla Boba.

5. Alicja wysyła do oba klucz K

AB

w celu nawiązania połączenia. Komunikat także kontrolowany jest

znacznikiem czasowym.

6. Odpowiedź jest dla Alicji gwarancją, że połączyła się ona z Bobem, nie np. z Teklą.


Kerberos - TGS:

TGS - Ticket Granting Service

Usługa serwera Kerberos umożliwiająca pobieranie ticketów dla innych usług,

Zespolona z serwerem autoryzacji.

TGT - Ticket Granting Ticket

Specjalny rodzaj Ticketu umożliwiający bezpieczne pobieranie ticketów z serwera TGS.

TGS session key

Klucz sesji współdzielony przez klienta i serwer TGS.

TGT i TGS session-key są cache’owane przez klienta i wykorzystywane wielokrotnie.


Dystrybucja kluczy w systemach symetrycznych:

W przypadku firm działających na szeroką skalę, używany jest osobny tajny klucz dla każdej sesji, gdzie
sesję rozumie się pojedyncze komunikacyjne przesłanie danych pomiędzy dwoma jednostkami.

W przypadku dużej sieci z setkami systemów z których każdy przeprowadza wiele sesji w ciągu każdej
godziny, przypisywanie i dystrybucja tajnych kluczy staje się dużym problemem.

Tajne klucze często rozprowadzane są przez scentralizowane centra dystrybucji kluczy lub przez
algorytmy z kluczem publicznym.

background image

str. 28


Możliwość zaatakowania autopilota samolotu przez telefon z androidem, ataki na Wordpress.

Kryptosystemy asymetryczne:

W systemach asymetrycznych klucze wyznaczające dwa wzajemnie odwrotne przekształcenia
(szyfrowanie i odszyfrowanie wiadomości) są różne.

Para kluczy przypisana jest jednemu użytkownikowi sieci.

klucz publiczny (public key) jest udostępniany wszystkim użytkownikom sieci.

klucz prywatny (private key, secret key) znany jest tylko temu użytkownikowi sieci, któremu jest
przypisany.


Poufność w kryptosystemach asymetrycznych:

Przy użyciu kluczy publicznych możliwe jest nadawanie wiadomości do dowolnego użytkownika sieci w
sposób zapewniający poufność.

Wiadomość zaszyfrowana przy użyciu klucza publicznego odbiorcy może być odczytana tylko przez
właściwego odbiorcę, gdyż tylko on zna swój klucz prywatny, wyznaczający odpowiednie
przekształcenie odszyfrowujące.


Metoda realizacji usług poufności - klucz jawny.

(tylko odbiorca jest w stanie odczytać zaszyfrowaną jego kluczem publicznym wiadomość)


Realizacja usługi zapewnienia integralności, uwierzytelnienia i niezaprzeczalności:

Realizacja tych usług polega na dołączeniu do transmitowanej w niezmienionej postaci wiadomości
pewnego ciągu bitów.

Ciąg ten, będący zawsze funkcją wiadomości, otrzymywany jest w różny sposób, ma różne długości i
równe nazwy dla każdej z trzech podstawowych usług:

MIC, MDC - integralność

MAC - uwierzytelnienie

Podpis cyfrowy - niezaprzeczalność


background image

str. 29

Realizacja usług zapewnienia integralności:

Dla usługi integralności ciąg ten zwany jest silnym (lub kryptograficznym) skrótem wiadomości
(Message Digest).

Używa się też nazw znacznik integralności wiadomości lub znacznik wykrywalności modyfikacji i ich
angielskich akronimów:

MIC (Message Integrity Code)

MDC (Modification Detection Code)

Znacznik ten jest otrzymywany jako rezultat działania tzw. funkcji skrótu h(M).


Funkcja skrótu

Od funkcji skrótu h wymaga się spełnienia następujących wymagań:

funkcja h jest określona dla wiadomości M o dowolnej długości,

w wyniku przekształcenia h otrzymujemy skrót wiadomości MDC=h(M) o ustalonej długości n

h

bitów,

skrót wiadomości h(M) jest łatwy do obliczenia,

nie jest obliczeniowo możliwe odtworzenia wiadomości M na podstawie znajomości jej skrótu,

funkcja h jest wolna od kolizji, tzn. znając funkcję h jest obliczeniowo niemożliwe
wygenerowanie takiej pary wiadomości (M, M’) dla której M # M’ i h(M)=h(M’).


Funkcja skrótu - niewielka zmiana danych wejściowych powinna powodować znaczną zmianę skrótu.

Funkcja skrótu nie zależy od żadnego tajnego parametru i stąd jej wartość może być wyliczona przez
każdego użytkownika sieci.

Do najpopularniejszych funkcji mieszających należą:

algorytm MD4 (Message Digest 4),

algorytm MD5 (Message Digest 5),

algorithm SHA (Secure Hash Algorithm).

MD4 oraz MD5 zostały zaprojektowane przez Rona Rivesta z MIT.

SHA został stworzony przez NIST (National Institute of Standards and Technology).

MD5 oraz SHA są funkcjami mieszającymi najczęściej używanymi w obecnych implementacjach
produktów zabezpieczających.

Oba są oparte na MD4, MD5 przetwarza dane wejściowe w 512-bitowych blokach i produkuje 128-
bitowe streszczenia
.

SHA przetwarza dane wejściowe w 512-bitowych blokach, i produkuje 160-bitowe streszczenia dla
SHA-0 oraz SHA-1 lub większe w zależności od stosowanej funkcji SHA-2.

SHA-2 to grupa funkcji kryptograficznych (SHA-224, SHA-256, SHA-384, SHA-512) opracowana przez
NSA (National Security Agency) i opublikowana w 2001 r..

Nazwy funkcji mówią o tym, jak długie jest streszczenie wiadomości (w bitach).

Następcą projektu NIST jest SHS (Secure Hash Standard), który obejmuje użycie SHA-256, SHA-384,
oraz SHA-512.

SHA-2 zostanie zastąpiony przez standard SHA-3, który został wyłoniony w konkursie pod koniec 2012
r.

background image

str. 30

Istnieje kilka ataków na funkcje skrótu, najpowszechniejsze to:

atak urodzinowy

atak kolizyjny


Celem ataku urodzinowego jest znalezienie kolizji funkcji haszującej. Jest to atak siłowy. U jego podstaw leży
jednak paradoks dnia urodzin, który pozwala oczekiwać, że kolizja zostanie znaleziona znacznie szybciej niż
sugerowałby to rozmiar przeciwdziedziny funkcji haszującej. Liczba potrzebnych do tego sprawdzeń rośnie
bowiem proporcjonalnie do pierwiastka z liczby wszystkich możliwych wyników funkcji haszującej.

Kolizja funkcji skrótu H to taka para różnych wiadomości m1, m2, że mają one taką samą wartość skrótu, tj.
H(m1) = H(m2). Ponieważ funkcja skrótu zwraca skończenie wiele wartości, a przestrzeń argumentów jest
nieskończona (w przypadku funkcji akceptujących dowolnie długie argumenty), lub przynajmniej znacznie
większa od przestrzeni wyników, dla każdej funkcji skrótu istnieją kolizje.

Realizacja usługi zapewnienia integralności

Realizacja usługi integralności polega:

po stronie nadawcy - na dołączeniu do wiadomości obliczonego na jej podstawie skrótu,

po stronie odbiorcy - na porównaniu skrótów wyliczonych po stronie nadawczej i odbiorczej -
MDC i MDC’.

Ze względu na własności silnej jednokierunkowości funkcji skrótu wykrywana jest w ten sposób zmiana
choćby jednego bitu przesyłanej wiadomości.

Daje to pewność, że dane nie zostały przypadkowo zmienione (np. poprzez błędy transmisji) - dane
zmienione w niewielkim zakresie powodują znaczną zmianę skrótu. Szansa na to, że dane zostały
zmienione tak, by generowały ten sam klucz, jest bardzo niska. Jeśli jednak ktoś po drodze zmieni dane,
to podmieni też klucz - na właściwy dla tych danych. Funkcja skrótu nie chroni przed manipulowaniem
danymi z premedytacją.


Odcisk palca („fingerprint”):

Jednokierunkowe funkcje mieszające są zwykle używane do utworzenia „odcisku palca” (fingerprint)
wiadomości lub pliku.

Podobnie jak odcisk ludzkiego palca, odcisk uzyskany dzięki funkcji mieszającej jest unikalny i tym
samym dowodzi integralność oraz autentyczność wiadomości.


Usługa integralności sekwencji wiadomości:

Integralność sekwencji wiadomości (message sequence integrity) chroni przed przechwyceniem i
opóźnionym przesłaniem wiadomości, zmianą kolejności wiadomości oraz przed powieleniem,
dodaniem lub usunięciem wiadomości.

W celu wykrycia utraty wiadomości lub zamiany kolejności wiadomości:

nadawca zawiera w wiadomości, a odbiorca sprawdza, numer sekwencyjny wiadomości
(message sequence number), związany z przepływem komunikatów pomiędzy nadawcą i
odbiorcą,

nadawca może również zażądać potwierdzenia otrzymania wiadomości przez odbiorcę.

background image

str. 31

Uwierzytelnienie nadawcy wiadomości:
Usługa integralności nie zapewnia zabezpieczenia przed możliwością podszycia się przez intruza pod innego
użytkownika sieci. Każdy z użytkowników sieci (a więc w szczególności intruz) może wygenerować skrót do
utworzonej przez siebie wiadomości.

Uwierzytelnienie nadawcy wiadomości:

Uwierzytelnienie nadawcy (message origin [pochodzenie] authentication) zapewnia możliwość
sprawdzenia, czy nadawca wiadomości jest tym użytkownikiem sieci, za którego się podaje.

Uwierzytelnienie nadawcy może być osiągnięte poprzez dołączenie przez nadawcę do wiadomości tzw.
znacznika uwierzytelnienia wiadomości (MAC - Message Authentication Code).

Wartością znacznika jest funkcja wiadomości oraz klucza.

Klucz nie jest znany żadnemu użytkownikowi sieci poza nadawcą i odbiorcą wiadomości.

Usługi poufności i uwierzytelnienia - model systemu szyfrowania z kluczem jawnym:

Klucz publiczny odbiorcy - daje nam poufność.

Klucz prywatny nadawcy - daje nam autentyczność.


background image

str. 32

Realizacja usługi niezaprzeczalności nadania wiadomości w systemach asymetrycznych:

Niezaprzeczalność nadania wiadomości (non-repudation of message origin) chroni przed możliwością
wyparcia się przez nadawcę wysłania wiadomości.

Usługa niezaprzeczalności zabezpiecza m.in. przed próbą zmiany treści wiadomości (w szczególności
części umowy lub zlecenia bankowego) przez nadawcę lub odbiorcę i przedstawienia takiej wiadomości
w sądzie jako autentycznej.

Usługa niezaprzeczalności jest realizowana jest poprzez wykorzystanie idei podpisu cyfrowego.

Podpis cyfrowy jest ciągiem bitów (zazwyczaj krótszym od wiadomości, którą reprezentuje) będącym
funkcją:

podpisywanej wiadomości,

tajnej informacji znanej tylko autorowi podpisu (klucza prywatnego nadawcy).

Podpis cyfrowy może być weryfikowany przy użyciu publicznie znanej informacji (klucz publicznego
nadawcy), odpowiadającej tajnej informacji użytej podczas generowania podpisu.


Podpisy cyfrowe:

Aby utworzyć cyfrowy podpis, nadawca wykonuje następujące kroki:

Tworzy parę kluczy prywatny/publiczny.

Przekazać klucz publiczny odbiorcy.

Pisać wiadomość dla odbiorcy i używać tego dokumentu jako danych wejściowych
jednokierunkowej funkcji mieszającej.

Szyfrować.

Wysyłać.


Uwierzytelnienie a poufność:

Cyfrowe podpisy nie zapewniają poufności danych - nie dostarczają możliwości utajnienia. Jednakże
często ważniejszą kwestią jest uwierzytelnienie osoby nadawcy, niż ukrycie zawartości wiadomości.

W pewnych przypadkach potrzebne jest zagwarantowanie uwierzytelnienia oraz integralności
wiadomości bez zachowania jej poufności. Sytuacja taka zachodzi w przypadku rozsyłania uaktualnień
routingu w sieciach centralnych. Zawartość routingu nie może być poufna, ale stwierdzać, czy nadawca
uaktualnienia jest godny zaufania.


Algorytmy cyfrowych podpisów z kluczem publicznym:

Do bardziej popularnych algorytmów cyfrowych podpisów z kluczem publicznym należą:

algorytm RSA (R. Rivest, A. Shamir, L. Adleman)

algorytm DSS (Digital Signature Standard) - został zaproponowany przez NIST i jest oparty na
algorytmie z kluczem publicznym EI Gamal.

algorytm HSH ( Secure Hash Standard) nowszy projekt NIST z 2001r.

algorytm DSA - (Digital Signature Algorithm) został stworzony przez rząd USA jako standardowy
algorytm dla podpisów elektronicznych.

W porównaniu z RSA, DSS szybciej generuje klucz i mniej więcej tak samo szybko generuje podpisy, ale
jest dużo wolniejszy, jeśli chodzi o ich weryfikacje.

background image

str. 33

Podpis ręczny, podpis cyfrowy:
Cechy wspólne:

Przypisany jednej osobie.

Niemożliwy do podrobienia.

Uniemożliwiający wyparcie się go przez autora.

Łatwy do weryfikacji przez osobę niezależną.

Łatwy do wygenerowania.

Różnice:

Podpis ręczny związany nierozłącznie z dokumentem.

Podpis ręczny taki sam dla wszystkich dokumentów.

Podpis ręczny stawiany na ostatniej stronie dokumentu.

Podpis cyfrowy może być składowany i transmitowany niezależnie od dokumentu.

Podpis cyfrowy jest funkcją dokumentu.

Podpis cyfrowy obejmuje cały dokument.


Niezaprzeczalność odbioru wiadomości:

Niezaprzeczalność odbioru wiadomości (non-repudation of message receipt) chroni nadawcę
komunikatu przed wyparciem się przed odbiorcę faktu odebrania komunikatu.

Realizacja usługi polega na wysłaniu przez odbiorcę potwierdzenia odebrania wiadomości zawierającej
podpis cyfrowy odbiorcy, będący funkcją oryginalnej wiadomości.


Dystrybucja kluczy tajnych - algorytm Diffiego-Hellmana:

Popularną metodą używaną do dystrybucji tajnych kluczy sesji tworzenia w sposób rozproszony jest
algorytm Diffiego-Hellmana.

Algorytm ten zapewnia możliwość ustalenia wspólnego dla obu stron i znanego tylko im tajnego klucza,
nawet jeśli porozumiewają się poprzez niezabezpieczony kanał.

Tajny klucz jest następnie używany do szyfrowania danych wybranym algorytmem z tajnym kluczem.

Poprzez jawną wymianę liczb (p, q) obie strony mogą wyznaczyć nową, unikalną liczbę Z, znaną tylko im.

background image

str. 34

Algorytm Diffiego-Hellmana:

A rozpoczyna wymianę i wysyła dwie liczby (duże p oraz q) do B.

A wybiera dużą losową liczbę całkowitą X

A

i rozwiązuje równanie:

B Wybiera dużą losową liczbę całkowitą X

B

i rozwiązuje równanie:

A wysyła Y

A

do B. B wysyła Y

B

do A.

A rozwiązuje równanie:

B rozwiązuje równanie:

Wynikowy wspólny klucz ma wzór:


Bezpieczeństwo algorytmu Diffiego-Hellmana opiera się na dwóch bardzo trudnych matematycznych
problemach:

W celu odzyskania X

A

oraz X

B

atakujący musi odgadnąć X

A

na podstawie

lub X

B

na

podstawie

,

Nie istnieją dotąd efektywne metody logarytmowania dyskretnego modulo liczba pierwsza,

p i q powinny być dużymi liczbami pierwszymi,

powinno być liczbą pierwszą,

Liczby rzędu 100-200 cyfr mogą być uznane za duże.


Protokół Diffiego-Hellmana – protokół wymiany kluczy szyfrujących, opracowany przez Witfielda Diffiego oraz
Martina Hellmana w 1976 roku. Jego siła oparta jest na trudności obliczenia logarytmów dyskretnych w ciałach
skończonych. Klucz wymieniony za pomocą tego algorytmu może zostać wykorzystany do szyfrowania
komunikacji. Algorytm pozwala bezpiecznie wymienić klucz nawet jeżeli istnieje osoba, która podsłuchuje
proces wymiany klucza, nie chroni jednak przed atakami typu man in the middle. Algorytm nie nadaje się do
szyfrowania i deszyfrowania wiadomości.

Usługa znakowania czasowego – w kryptologii jest to usługa zapewnianiająca, że określony dokument
elektroniczny istniał w pewnym określonym momencie czasu oraz pozwalająca na śledzenie zmian
dokonywanych na tym dokumencie. W rozwiązaniu ulepszonym do serwisu świadczącego usługę znakowania
przesyłany jest nie cały dokument, lecz jego skrót. Do takiego skrótu dołączana jest następnie informacja o
dacie jego otrzymania, całość jest podpisywana cyfrowo przez serwis i odsyłana do klienta. To rozwiązanie
usuwa większość problemów występujących w rozwiązaniu naiwnym: dokument klienta nie jest nikomu
ujawniany, żadne informacje nie muszą być przechowywane przez serwis a wszelkie uszkodzenia dokumentu
powstałe podczas transmisji lub znakowania można zweryfikować od razu po otrzymaniu oznakowanego
skrótu.


background image

str. 35

P

ODSTAWOWE

T

YPY

I

W

ŁASNOŚCI

S

YSTEMÓW

K

RYPTOGRAFICZNYCH


Klasy systemów kryptograficznych
Współczesne rozwiązania tego problemu bazują na jednej z dwóch klas, na które można podzielić szyfry:

szyfry blokowe

szyfry strumieniowe


Szyfry blokowe operują w sposób kombinatoryczny na określonej długości fragmentach tekstu otwartego,
oznacza to, że przed właściwą operacją szyfrowania tekst jest dzielony na bloki o zadanej długości a następnie
każdy z bloków jest poddawany szyfrowaniu z użyciem tego samego tajnego klucza. Szyfry blokowe są tak
konstruowane aby niewielka zmiana w tekście otwartym wywoływała dużą zmianę szyfrogramu, stąd wynika
ceniona właściwość tych szyfrów jaką jest propagacja błędu - zmniejsza ona znacznie prawdopodobieństwo
udanej modyfikacji kryptogramu bez znajomości klucza.

Zasada działania szyfrów strumieniowych polega na zaszyfrowaniu każdego pojawiającego się na wejściu
urządzenia szyfrującego znaku wiadomości poprzez połączenie go w pewien odwracalny sposób z
wygenerowanym wewnątrz urządzenia znakiem klucza.

Szyfry strumieniowe
, w przeciwieństwie do blokowych, działają ze zmieniającym się w czasie kluczem, tak
więc dwa identyczne fragmenty występujące w szyfrowanym tekście nie będą posiadały takiego samego
szyfrogramu. Klucz szyfru ma zazwyczaj skończoną liczbę symboli natomiast szyfrowana wiadomość nie jest
dzielona na fragmenty, nie ma również ograniczeń co do jej długości, zatem, przy bezpośrednim stosowaniu
klucza do transformacji szyfrującej, istniało by realne niebezpieczeństwo skończenia się klucza przed końcem
wiadomości. Z tego powodu klucz tak naprawdę służy do wysterowania układu zwanego generatorem
strumienia klucza.

Do najpopularniejszych szyfrów strumieniowych należą addytywne szyfry strumieniowe - szyfrogram uzyskuje
się poprzez sumowanie modulo-2 kolejnych bitów tekstu otwartego i klucza.

background image

str. 36

Tryby pracy szyfrów blokowych:

1. ECB Electronic Code Book

C

i

= E

K

(P

i

)

P

i

= D

K

(C

i

)

2. CBC Cipher Block Chaining

C

i

= E

K

(P

i

⊕ C

i-1

)

P

i

= D

K

(C

i

) ⊕ C

i-1

C

0

= IV

3. CTR Counter Mode

C

i

= E

K

(IV+i) ⊕ P

i

P

i

= E

K

(IV+i) ⊕ C

i

4. CFB Cipher Feedback

C

i

= E

K

(C

i-1

) ⊕ P

i

P

i

= E

K

(C

i-1

) ⊕ C

i

C

0

= IV

5. OFB Output Feedback

O

0

= E

K

(IV)

O

i

= E

K

(O

i-1

)

C

i

= P

i

⊕ O

i

P

i

= C

i

⊕ O

i

6. OCB Offset Codebook Mode

Tryb pracy szyfru blokowego zapewniający w jednym kroku poufność, integralność oraz autentyczność
informacji stworzony przez amerykańskiego kryptologa Philipa Rogaway'a. Integruje szyfr blokowy i
MAC, cechując się przy tym dużą wydajnością. Algorytm jest opatentowany w Stanach Zjednoczonych.
Autor udziela bezpłatnej licencji na stosowanie go w oprogramowaniu licencjonowanym na zasadach
GPL oraz produkowanym poza Stanami Zjednoczonymi.

7. CCM Counter with CBC-MAC

Jest to uwierzytelniony algorytm szyfrowania zaprojektowany w celu zapewnienia uwierzytelniania i
poufności. Tryb CCM jest zdefiniowany tylko dla szyfrów blokowych o długości 128 bitów. Jest podobny
do OCB, ale darmowy i znacznie wolniejszy.


background image

str. 37

Algorytmy symetryczne
Algorytm symetryczny
(inne nazwy: algorytm konwencjonalny, algorytm z kluczem tajnym, algorytm z
pojedynczym kluczem, algorytm z jednym kluczem) – algorytm kryptograficzny, który do szyfrowania i
deszyfrowania tekstu jawnego wykorzystuje klucz lub klucze. W przypadku, gdy do szyfrowania i
deszyfrowania wykorzystywane są różne klucze, to jest możliwe wyznaczenie klucza szyfrującego z
deszyfrującego i odwrotnie. Ujawnienie jednego z kluczy umożliwia odtworzenie zaszyfrowanej wiadomości.

DES

opracowany przez IBM w 1977 roku,

przeznaczony do szyfrowania 64-bitowych bloków danych

klucz – 56 bitów, 8 bitów parzystości

Stosowany w triple DES, może pracować z ECB, CBC, CFB, OFB


Tekst wejściowy przetwarzany jest w rozbiciu na 64-bitowe bloki, z których każdy podlega niezależnemu
szyfrowaniu. algorytm tego szyfrowania, parametryzowany 56-bitowym kluczem, składa się z 19 oddzielnych
etapów. Pierwszy z tych etapów jest niezależną od klucza transpozycją całego bloku 64-bitowego, ostatni, 19.
etap realizuje permutację odwrotną do tej z etapu pierwszego. Etap przedostatni polega na zamianie
miejscami 32-bitowych połówek bloku. Wszystkie z pozostałych szesnastu etapów są sobie funkcjonalnie
równoważne, ale każdy z nich jest parametryzowany inną funkcją kluza. Szyfr symetryczny – odszyfrowanie
odbywa się za pomocą tego samego klucza, co szyfrowanie, należy tylko wykonać etapy w odwrotnej
kolejności.

Po prawej przedstawiono pojedynczą iterację. Informacja wejściowa, jak i wyjściowa dla jednego etapu
pośredniego to dwa 32-bitowe bloki. Lewy blok wyjściowy jest dokładną kopią prawego bloku wejściowego.
Prawy blok wyjściowy jest natomiast wynikiem różnicy symetrycznej (XOR) dwóch składników: lewego bloku

background image

str. 38

wejściowego oraz pewnej funkcji dwóch argumentów – prawego bloku wejściowego oraz klucza pośredniego
K

i

, charakterystycznego dla etapu.


3DES
Z uwagi na małą jak na obecne możliwości obliczeniowe przestrzeń kluczy algorytmu DES nie zaleca się
stosowania algorytmu w jego podstawowej postaci. W jego miejsce najczęściej używa się potrójnego DESa.

Mamy tu dwa klucze K

1

i K

2

i trzy etapy przetwarzania. W pierwszy etapie tekst wejściowy jest szyfrowany za

pomocą klucza K

1

w sposób typowy dla DES, w drugim etapie wynik pierwszego etapu jest rozszyfrowywany za

pomocą klucza K

2

. Wynik drugiego etapu ponownie szyfrowany jest (w trzecim etapie) za pomocą klucza K

1

.


Użycie schematu EDE zamiast EEE podyktowane jest względami kompatybilności wstecz. Jeśli K

1

=K

2

, to cały

schemat redukuje się do pojedynczego etapu, czyli klasycznego szyfru DES z kluczem K

1

.


3DES może również występować z trzema kluczami K

1

, K

2

i K

3

!


AES (ang. Advanced Encryption Standard) – symetryczny szyfr blokowy przyjęty przez NIST jako standard FIPS-
197 w wyniku konkursu ogłoszonego w roku 1997, który wygrał algorytm nazywany roboczo Rijndael. AES
wykonuje 10 (klucz 128 bitów), 12 (klucz 192 bity) lub 14 (klucz 256 bitów) rund szyfrujących substitution-
permutation. Składają się one z substytucji wstępnej, permutacji macierzowej (mieszanie wierszy, mieszanie
kolumn) i modyfikacji za pomocą klucza. Funkcja substytucyjna ma bardzo oryginalną konstrukcję, która
uodparnia ten algorytm na znane ataki kryptoanalizy różnicowej i liniowej.

Kryptosystem IDEA (International Data Encryption Algorithm)
Został opracowany pod koniec lat 80-tych w ETH (Szwajcaria). Jest to szyfr blokowy, iteracyjny, oparty na
trzech operacjach arytmetycznych:

suma modulo 2

dodawanie modulo 2

16

mnożenie modulo 2

16

+1 (liczba pierwsza), przy czym liczba 0 jest traktowana jako 2

16

Zawiera 64-bitowe bloki i 128-bitowy klucz. Tryby pracy jak dla DES'a (jest ok. dwukrotnie szybszy od DES'a).
Można korzystać bezpłatnie do celów niekomercyjnych, wchodzi w skład PGP (Pretty Good Privacy – narzędzie
do szyfrowania poczty elektronicznej).

background image

str. 39

Niektóre algorytmy kryptograficzne oparte na kluczu symetrycznym:


Inne: RC6, CAST – bardzo podobny do DESa, SAFER, MARS.

Algorytmy asymetryczne
Kryptografia klucza publicznego (nazywana również kryptografią asymetryczną)
to rodzaj kryptografii, w
którym używa się zestawów dwu lub więcej powiązanych ze sobą kluczy, umożliwiających wykonywanie
różnych czynności kryptograficznych. Jeden z kluczy może być udostępniony publicznie bez utraty
bezpieczeństwa danych zabezpieczanych tym kryptosystemem. Najważniejsze zastosowania kryptografii
asymetrycznej – szyfrowanie i podpisy cyfrowe – zakładają istnienie 2 kluczy – prywatnego i publicznego, przy
czym klucza prywatnego nie da się łatwo odtworzyć na podstawie publicznego. W niektórych innych
zastosowaniach kluczy może być więcej.

W 1997 roku brytyjska służba wywiadu elektronicznego (GCHQ) ujawniła, że pierwsza koncepcja systemy
szyfrowania z kluczem publicznym została opracowana przez jej pracownika Jamesa Ellisa już w 1965 roku, a
działający system stworzył w 1973 roku Clifford Cocks, również pracownik GCHQ. Oficjalnie kryptografia
asymetryczna została oficjalnie wynaleziona przez cywilnych badaczy Martina Hellmana i Whitfielda Diffie w
1976 roku.

RSA –
jeden z pierwszych i obecnie najpopularniejszych asymetrycznych algorytmów kryptograficznych z
kluczem publicznym, zaprojektowany w 1977 przez Rona Rivesta, Adi Shamira oraz Leonarda Adlemana.
Pierwszy algorytm, który może być stosowany zarówno do szyfrowania jak i do podpisów cyfrowych.
Bezpieczeństwo szyfrowania opiera się na trudności faktoryzacji dużych liczb złożonych. Jego nazwa pochodzi
od pierwszych liter nazwisk jego twórców.

poufność – klucz publiczny odbiorcy

uwierzytelnienie – klucz prywatny nadawcy


Jak działa RSA?

p, q – dwie losowe duże liczby pierwsze

n – p*q

e - jest liczbą z zakresu 1 < e < ϕ(n), względnie pierwszą z ϕ(n), gdzie ϕ(n)=(p-1)(q-1); względnie
pierwsze, to znaczy, że e i ϕ(n) nie mają wspólnych dzielników w rozkładzie na czynniki pierwsze poza 1

( )


Klucz prywatny (secret key) SK to para liczb (d, n), lub trójka liczb (d, p, q). Klucz publiczny (public key) PK to
para liczb (e, n).

background image

str. 40


Liczby e i d spełniają warunek: ( ) ( ( )).

W celu zaszyfrowania wiadomości, należy podzielić ją na bloki m

i

o wartości liczbowej nie większej niż n, po

czym każdy zaszyfrować:

. Czyli, w uproszczeniu:

. Odszyfrowywanie:

.


Bezpieczna długość klucza – minimum 1024 bity. W przypadku obu kluczy złożoność jest podobna. Atak
sprowadza się do odszukania p i q, co jest bardzo trudne przy dużych liczbach.

DES

RSA

Duże szybkości

Wolniejsze

Duże szybkości generowania
i weryfikacji

Wolniejsze generowanie i
uwierzytelnianie podpisu
cyfrowego

Trudność generowania
podpisu

Łatwość generowania
podpisu

Trudna w realizacji

Łatwa w realizacji



Kryptosystem ElGamal
ElGamal –
jeden z dwóch najważniejszych algorytmów kryptografii asymetrycznej (obok RSA), oparty na
algorytmie Diffiego-Hellmana. System jest oparty na trudności problemu logarytmu dyskretnego w ciele liczb
całkowitych modulo duża liczba pierwsza. Algorytm w połowie lat 80. XX wieku przedstawił Egipcjanin Taher
Elgamal.

Algorytm ElGamal składa się z trzech komponentów:

generator klucza,

algorytm szyfrowania,

algorytm deszyfrowania.


Przy kluczu 160 bitów daje bezpieczeństwo jak RSA przy 1024 bitach.

Dystrybucja kluczy w systemach asymetrycznych
Infrastruktura klucza publicznego (ang. Public Key Infrastructure (PKI)
) – w ogólności jest to zespół urządzeń,
oprogramowania, ludzi, polityk oraz procedur umożliwiający tworzenie, przechowywanie, zarządzanie i
rozprowadzanie cyfrowych certyfikatów klucza publicznego. W szczególności jest to szeroko pojęty
kryptosystem, w skład którego wchodzą urzędy certyfikacyjne (CA), urzędy rejestracyjne (RA), subskrybenci
certyfikatów klucza publicznego (użytkownicy), oprogramowanie oraz sprzęt. Infrastruktura klucza publicznego
tworzy hierarchiczną strukturę zaufania, której podstawowym dokumentem jest certyfikat klucza publicznego.
Najpopularniejszym standardem certyfikatów PKI jest X.509 w wersji trzeciej.
Do podstawowych funkcji PKI należą:

Weryfikacja tożsamości subskrybentów

Wymiana kluczy kryptograficznych

Wystawianie certyfikatów

Weryfikacja certyfikatów

Podpisywanie przekazu

background image

str. 41

Szyfrowanie przekazu

Potwierdzanie tożsamości

Znakowanie czasem

Dodatkowo, w pewnych konfiguracjach, możliwe jest
odzyskiwanie kluczy prywatnych.
Ważniejsze pojęcia:

CA - Certification Authority - urząd certyfikacji
- wystawia certyfikaty, listy CRL, certyfikuje
inne CA.

RA - Registration Authority - urząd rejestracji
- zbiera wnioski o wydanie certyfikatu,
weryfikuje tożsamość subskrybentów.

Subskrybent - właściciel certyfikatu.


Zagrożenia dla bezpieczeństwa
Metoda podprogowego wykradania kluczy prywatnych. Służby bezpieczeństwa w USA wymuszają na
producentach wybieranie kluczy z wyznaczonego podzbioru. Sprzęt produkowany w stanach posiada
ograniczenia na wybieranie kluczy prywatnych. Rozwiązania opensourcowe są bezpieczniejsze, można
sprawdzić, czy klucz jest wybierany z pełnej dziedziny.

Infrastruktura klucza publicznego PKI, standard X.509 - stanowi powszechnie akceptowaną podstawę
infrastruktury PKI, definiującą formaty danych oraz procedury. X.509 to standard definiujący schemat dla
certyfikatów kluczy publicznych, unieważnień certyfikatów oraz certyfikatów atrybutu służących do budowania
hierarchicznej struktury PKI. Kluczowym elementem X.509 jest urząd certyfikacji, który pełni rolę zaufanej
trzeciej strony w stosunku do podmiotów oraz użytkowników certyfikatów.

Przykład certyfikatu:

dla kogo został wystawiony?

nazwa domeny

organizacja

jednostka organizacyjna

numer seryjny – jednoznacznie identyfikuje certyfikat wydany przez dane centrum certyfikujące;
unieważnienie polega na unieważnieniu numeru seryjnego

informacja, przez kogo certyfikat został wystawiony

adres URL z informacjami na temat procedur; można sprawdzić, do czego certyfikat może być użyty

Aby dostać certyfikat, wystarczy odebrać maila w stylu admin@domena. Dzięki temu taki certyfikat nie jest
bezpieczny. Tekla potrafi odebrać maila dla admina mBanku. Robi w tym celu DNS cache poisoning. Udało się
przechwycić maila – masz certyfikat. I możesz stworzyć fałszywą domenę.

Certyfikat ma dwie daty ważności od-do. Nieważny przed, nieważny po. Możemy wygenerować certyfikat
ważny od za miesiąc. Odciski – skróty MD5, SHA itp. Wygenerowane z danych identyfikujących certyfikat.
Musimy te klucze porównać żeby potwierdzić certyfikat.

background image

str. 42

Zasady certyfikatu – opis procedur jakie zostały użyte w trakcie tworzenia certyfikatu. Metoda jaka została
użyta do identyfikacji podmiotu. Certyfikat kwalifikowany lub niekwalifikowany.

Tworzenie certyfikatu przez CA
Certyfikat własny CA – bezpieczeństwo w ramach organizacji.
Eduroam – certyfikowanie certyfikatów innych uczelni.

Format X.509 v3


Polityka certyfikacji – dokument określający zasady według których urząd certyfikacji (CA - Certificate
Auhority) wydaje certyfikaty swoim klientom. Zasady wydawania certyfikatów mogą być diametralnie różne
dla różnych CA lub dla różnych poziomów certyfikatów wydawanych przez jednego CA. Od braku
jakiegokolwiek potwierdzenia danych (np. certyfikaty testowe), poprzez sprawdzenie autentyczności adresu
poczty elektronicznej, żądanie dostarczenia dokumentów faksem, aż do wymogu osobistej weryfikacji
tożsamości w punkcie rejestracyjnym, lub u notariusza. Polityka określa również zakres odpowiedzialności CA,
częstotliwość publikowania list CRL.

PKI:

wydawcy certyfikatów

urzędy rejestrujące

posiadacze certyfikatów

klienci

repozytoria (lista certyfikatów unieważnionych)


Modele zaufania PKI:

ścisła hierarchiczna certyfikacja; model rozproszony (często spotykany), żeby uwiarygodnić certyfikaty
miedzy sobą poprzez wzajemne podpisanie certyfikatów (certyfikacja wzajemna)

wzajemna wewnątrzdomenowa, wzajemna międzydomenowa

model WWW, oparty o certyfikat przeglądarki (wirtualna kotwica zaufania)

zaufanie oparte na użytkowniku (łańcuszek zaufania, wymyślone)

background image

str. 43

Dostawcy: Verisign, GlobalSign, Thawte
Moduły: OpenSSL, Oscar, mikroPKI
Serwery CA: OpenCA, pyCA, IDX-PKI

Zagrożenia PKI: Udany atak, poprzez odpowiednie zapytanie centrum wystawia certyfikat dla podrzędnej
fałszywej placówki.

LPKI - A lightweight Public Key Infrastructure for the Mobile Environments
(lekka infrastruktura klucza publicznego dla środowisk mobilnych):

Wraz z rozwojem i wzrostem popularności urządzeń mobilnych pojawiła się propozycja wprowadzenia
dla nich alternatywnej wersji PKI, która będzie mniej wymagająca obliczeniowo.

Specyfikacja opublikowana w październiku 2008 r. na konferencji IEEE (International Conference on
Communication Systems
).

Stosuje zaawansowaną metodę szyfrowania ECC z użyciem krzywych eliptycznych.


Elliptic Curve Cryptography (ECC) – grupa technik kryptografii asymetrycznej, wykorzystująca jako
podstawową technikę matematyczną krzywe eliptyczne. Użycie krzywych eliptycznych w celach
kryptograficznych zostało zasugerowane niezależnie przez dwójkę badaczy, Neal Koblitza oraz Victora S.
Millera w roku 1985. Bezpieczeństwo ECC jest oparte na złożoności obliczeniowej dyskretnych logarytmów na
krzywych eliptycznych – Elliptic Curve Discrete Logarithm Problem (ECDLP) .
ECC oferuje bezpieczeństwo porównywalne do RSA przy znacznie krótszych kluczach. Ocenia się, że
bezpieczeństwo klucza RSA o długości 1024 bitów jest równoważne bezpieczeństwu klucza ECC o długości 160
bitów. Z tego powodu ECC jest bardzo atrakcyjnym algorytmem w zastosowaniach, które wymagają bardzo
wysokiej wydajności szyfrowania asymetrycznego (algorytm RSA jest stosunkowo wolny) lub oferują bardzo
ograniczone środowisko obliczeniowe (jak karty mikroprocesorowe).

P

ODPIS

E

LEKTRONICZNY

I

P

ODPIS

C

YFROWY


Podpis elektroniczny w Polsce - regulacje techniczne i prawne

Technologia podpisu elektronicznego to powiązanie dokumentu (poddanego digitalizacji) z daną osobą
poprzez cechy jednoznacznie ją charakteryzujące (np. biometryczne).

Przy dzisiejszym stanie technologii jedynie nagranie dokumentu przekazywanego głosem człowieka
spełnia wymagania stawiane podpisowi elektronicznemu (np. zlecenia bankowe lub maklerskie
przekazywane przez telefon).

Odcisk linii papilarnych, obraz tęczówki oka, kształt twarzy itp., są doskonałymi sposobami identyfikacji,
ale nie mogą być jeszcze stosowane do podpisu elektronicznego ze względów technicznych.


Podpis cyfrowy a podpis elektroniczny:

Pojęcia podpisu elektronicznego oraz podpisu cyfrowego nie są tożsame - podpis elektroniczny to
pojęcie szersze znaczeniowo niż podpis cyfrowy, ten drugi stanowi jeden z rodzajów podpisu
elektronicznego
.

Podpis cyfrowy różni się od innych podpisów elektronicznych tym, że został wykonany przy użyciu
kryptografii asymetrycznej z parą kluczy prywatny - publiczny (gdyby wykorzystano inną technikę
kryptograficzną przy tworzeniu podpisu elektronicznego - taki podpis nie byłby już podpisem
cyfrowym
).


background image

str. 44

Cywilnoprawna regulacja podpisu elektronicznego

30 czerwca 2000 roku - pierwszy w dziejach legalny podpis cyfrowi pod ustawą „Electronic Signatures in
Global and National Commerce Act
” (USA).

Ustawa z dnia 18 września 2001 roku o podpisie elektronicznym (Dz. U. 2001 nr 130, poz. 1450) -
(Polska):

o “ Podpis elektroniczny to dane w postaci elektronicznej, które wraz z innymi danymi, do których

zostały dołączone lub z którymi są logicznie powiązane, służą do identyfikacji osoby składającej
podpis elektroniczny.”

o Nie ma znaczenia, jakie techniki kryptograficzne będą stosowane przy podpisie elektronicznym,

nie istnieją jednak na razie inne metody, oprócz kryptografii asymetrycznej, używane do
tworzenia podpisu elektronicznego.

W Polsce obowiązuje prawne zrównanie podpisu elektronicznego z podpisem własnoręcznym oraz
wytyczone są normy regulujące działalność Urzędów Certyfikacji.

Artykuł 60. Kodeksu Cywilnego: „Z zastrzeżeniem wyjątków w ustawie przewidzianych, wola osoby
dokonującej czynności prawnej może być wyrażona przez każde zachowanie się tej osoby, które
ujawnia jej wolę w sposób dostateczny, w tym również przez ujawnienie tej woli w postaci
elektronicznej (oświadczenie woli).”

Ustawa z 18 września 2001 r. określa dwa rodzaje podpisu: „podpis elektroniczny” oraz „bezpieczny
podpis elektroniczny”. Każdy z nich musi spełnić określone wymagania oraz wywołuje określone skutki
prawne.

Artykuł 78. Kodeksu Cywilnego, ust. 2.: „Oświadczenie woli złożone w postaci elektronicznej opatrzone
bezpiecznym podpisem elektronicznym weryfikowanym przy pomocy ważnego kwalifikowanego
certyfikatu jest równoważne z oświadczeniem woli złożonym w formie pisemnej.”


Bezpieczny podpis elektroniczny
Aby podpis elektroniczny mógł być zrównany pod względem prawnym z podpisem własnoręcznym, oraz
wywoływał takie same skutki prawne, musi spełniać warunki:

ma być wygenerowany na podstawie kwalifikowanego certyfikatu w okresie jego ważności, przy
pomocy bezpiecznych urządzeń i danych podlegających wyłącznej kontroli osoby składającej podpis,

zapewniać bezpieczeństwo, pewność i integralność danych,

zawierać jednoznaczne wskazanie kwalifikowanego certyfikatu.


Wskazanie certyfikatu: wskazanie wystawcy certyfikatu i numeru seryjnego certyfikatu.

Z ustawy – bezpieczny podpis elektroniczny, to podpis elektroniczny, który:

jest przyporządkowany wyłącznie do osoby składającej ten podpis,

jest sporządzany za pomocą podlegających wyłącznej kontroli osoby składającej podpis elektroniczny
bezpiecznych urządzeń służących do składania podpisu elektronicznego i danych służących do składania
podpisu elektronicznego,

jest powiązany z danymi, do których został dołączony, w taki sposób, że jakakolwiek późniejsza zmiana
tych danych jest rozpoznawalna.


background image

str. 45

Kwalifikowany certyfikat w rozumieniu Ustawy:

Kwalifikowany certyfikat, jest to certyfikat wydany przez kwalifikowany podmiot świadczący usługi
certyfikujące, spełniający wymogi określone w ustawie.

Kwalifikowany podmiot świadczący usługi certyfikujące jest to podmiot wpisany do rejestru
kwalifikowanych podmiotów świadczących usługi certyfikujące prowadzonego przez Ministra
Gospodarki, spełniający wymogi określone w ustawie.


Zwykły (niekwalifikowany) podpis elektroniczny:

Nie można zabraniać stosowania w obrocie podpisów elektronicznych bez certyfikatów, jeżeli taka
będzie wola stron danego stosunku prawnego i nie pozostanie to w sprzeczności z obowiązującymi
przepisami prawa.

Podpis który nie spełnia wszystkich wymogów bezpiecznego podpisu elektronicznego, a jest podpisem
elektronicznym, w świetle prawa nie jest równoważny podpisowi odręcznemu.


Podpisujący (składający podpis elektroniczny):
Podpisującym, według ustawy z 18 września 2001 r., może być:

osoba fizyczna,

osoba prawna,

jednostka organizacyjna nie posiadająca osobowości prawnej.

Warunkiem złożenia podpisu elektronicznego jest posiadanie odpowiedniego sprzętu i skonfigurowanego
oprogramowania do składania podpisów elektronicznych.

Weryfikujący podpis elektroniczny:
Osoba weryfikująca podpis elektroniczny to osoba podejmująca czynności, które pozwalają na:

identyfikację osoby składające podpis elektroniczny,

stwierdzenie, że podpis został złożony za pomocą danych służących do składania podpisu
elektronicznego przyporządkowanych do tej osoby,

stwierdzenie, że dane opatrzone tym podpisem nie uległy zmianie po złożeniu podpisu.


Znakowanie czasem:

Podpis elektroniczny może być znakowany czasem.

Znakowanie czasem to usługa polegająca na dołączaniu do danych w postaci elektronicznej logicznie
powiązanych z danymi opatrzonymi podpisem lub poświadczeniem elektronicznym, oznaczenia czasu
w chwili wykonania tej usługi oraz poświadczenia elektronicznego tak powstałych danych przez
podmiot świadczący tę usługę.

W sytuacji, gdy to znakowanie świadczy kwalifikowany podmiot certyfikacyjny, podpis wywołuje skutki
daty pewnej w rozumieniu przepisów Kodeksu Cywilnego.


Podmioty świadczące usługi certyfikacyjne wg ustawy z 18 września 2001 r.:

Zwykły podmiot świadczący usługi certyfikacyjne to przedsiębiorca, Narodowy Bank Polski albo organ
władzy publicznej, który świadczy co najmniej jedną z usług certyfikacyjnych, czyli: wydawanie
certyfikatów, znakowanie czasem lub oferujący inne usługi związane z podpisem elektronicznym

Kwalifikowany podmiot świadczący usługi certyfikacyjne - podmiot świadczący usługi certyfikacyjne,
wpisany do rejestru kwalifikowanych podmiotów świadczących usługi certyfikacyjne.

Akredytowany podmiot świadczący usługi certyfikacyjne to kwalifikowany podmiot świadczący usługi
certyfikacyjne posiadający akredytację, czyli decyzję administracyjną potwierdzającą, że dany podmiot
spełnia wymogi określone w ustawie.

background image

str. 46

Świadczenie usługi i nadzór nad działalnością podmiotów świadczących usługi certyfikacyjne:

Według ustawy z 18 września 2001 r. „świadczenie usług certyfikacyjnych w charakterze
kwalifikowanego podmiotu świadczącego usługi certyfikacyjne wymaga uzyskania wpisu do rejestru
kwalifikowanych podmiotów świadczących usługi certyfikacyjne i uzyskania zaświadczenia
certyfikacyjnego wykorzystywanego do weryfikowania poświadczeń elektronicznych tego podmiotu,
wydanego przez ministra właściwego do spraw gospodarki.”.

Nadzór nad podmiotami świadczącymi usługi certyfikacyjne jest najważniejszym i najwyżej
postawionym organem w hierarchii podmiotów certyfikacyjnych.

Organem nadzoru nad podmiotami świadczącymi usługi certyfikacyjne jest minister właściwy do spraw
gospodarki.


Prowadzenie rejestru kwalifikowanych podmiotów:

W Polsce głównym CA oraz organem nadzorowania systemu świadczenia usług certyfikacyjnych jest
Narodowe Centrum Certyfikacji NCCert.

Narodowe Centrum Certyfikacji NCCert powstało 6 września 2000 roku, a jego głównym udziałowcem
jest Narodowy Bank Polski.


Narodowe Centrum Certyfikacji NCCert:
Działając na podstawie art. 23 ust. 5 i art. 30 ust. 3 ustawy z dnia 18 września 2001 r. o podpisie
elektronicznym (Dz. U. Nr 130, poz. 1450), na wniosek Prezesa Narodowego Banku Polskiego, w dniu 27 lipca
2005 r., Minister Gospodarki i Pracy upoważnił Narodowy Bank Polski do wykonywania następujących
czynności:

wytwarzanie i wydawanie zaświadczeń certyfikacyjnych, o których mowa w art. 23 ustawy z dnia 18
września 2001 r. o podpisie elektronicznym,

publikacja listy wydawanych zaświadczeń certyfikacyjnych, o których mowa w pkt 1,

publikacja danych służących do weryfikacji wydanych zaświadczeń certyfikacyjnych, o których mowa w
pkt 1,

publikacja listy unieważnionych zaświadczeń certyfikacyjnych.

oraz powierzył Narodowemu Bankowi Polskiemu prowadzenie rejestru kwalifikowanych podmiotów
świadczących usługi certyfikacyjne, o którym mowa w art. 30 ust. 2 pkt 1 ustawy z dnia 18 września 2001 r. o
podpisie elektronicznym.

Narodowe Centrum Certyfikacji pełni funkcję głównego urzędu certyfikacji dla infrastruktury bezpiecznego
podpisu elektronicznego w Polsce, powierzoną Narodowemu Bankowi Polskiemu przez Ministra Gospodarki i
Pracy na mocy ustawy z dnia 18 września 2001 r. o podpisie elektronicznym.

background image

str. 47

Sytuacja z pracowni:

Sytuacja bardziej z życia wzięta:

Komputer PC o publicznym adresie IP 149.156.146.10, poprzez sieć Internet, łączy się z terminatorem tuneli
VPN o adresie 192.150.10.50. Za firewallem znajduje się sieć LAN 192.168.100.0/24.

W komputerze PC mamy wpisy w tablicy routingu:

149.156.146.10/24 eth0

0.0.0.0/0 eth0


Po zestawieniu tunelu VPN:

149.156.146.10/24 eth0

192.168.100.0/24 192.168.100.254 vpn1

0.0.0.0/0 eth0


Tworzona jest wirtualna karta sieciowa (vpn1), z wirtualnym adresem. Pakuje ona dane w dodatkowe
nagłówki, oraz w szczególności szyfruje i ostatecznie wysyła na publiczny adres terminatora tuneli VPN.

Należy uważać na polityki bezpieczeństwa – ograniczenie, czy ruch z tunelu na terminatorze może wychodzić
na zewnątrz, czy tylko na sieć lokalną itd.

Router brzegowy – router najbardziej wysunięty w infrastrukturze sieci do operatora lub dostawcy usług.
Elektroniczne, aktywne urządzenie sieciowe pozwalające na kierowanie pakietów danych w sieci Internet
zgodnie z zawartą w nich informacją adresową, zainstalowane na styku sieci Operatora i każdego z Partnerów
Operatora.

PC1

PC2

FW1

FW2

192.168.1.10

192.168.1.1

192.168.8.10

192.168.8.1

background image

str. 48

P

ROTOKÓŁ

IPS

EC


Wstęp:

IPSec (ang. Internet Protocol Security) to zbiór protokołów stworzony w celu implementacji
bezpiecznych połączeń między komputerami.

Protokół IP nie gwarantuje iż otrzymane datagramy:

o pochodzą od deklarowanego nadawcy,
o zawierają dane, które były umieszczone w nim przez nadawcę,
o ich zawartość nie została odczytana przez niepowołaną osobę podczas przesyłania od nadawcy

do odbiorcy.

Dla IPv4 IPSec jest rozszerzeniem, dla IPv6 jest standardem.


Tryb transportu:

Tryb transportu jest trybem domyślnym protokołu IPSec.

Służy do ustanawiania komunikacji typu dwupunktowego (klient - serwer).

Typowy tryb przy komunikacji software - urządzenie.

W tym trybie szyfrowaniu podlega wyłącznie ładunek IP.

IPSec zapewnia ochronę datagramów IP oraz protokołów warstw wyższych przy pomocy protokołów
ESP (Encapsulating Security Payload) (poufność, integralność, autentyczność) lub AH (Authentication
Header
) (autentyczność, integralność).


W trybie transportowym komunikacja jest pomiędzy pojedynczą maszyną, a jakąś całą siecią. W trybie
transportowym nie ukrywa się adresów IP, ukrywa się sam ładunek - komputer łączy się z firewallem
bezpośrednio.

Tryb tunelowania:

W trybie tunelowania protokołu IPSec szyfrowane są nagłówek i ładunek IP (w trybie transportu
szyfrowany jest tylko ładunek IP).

Tryb tunelowania zapewnia ochronę całego pakietu IP, traktując go jako ładunek AH lub ESP.

W trybie tunelowania cały pakiet jest enkapsulowany za pomocą nagłówka AH lub ESP i uzupełniany
dodatkowym nagłówkiem IP.

Adresy IP określone w zewnętrznym nagłówku IP są punktami końcowymi tunelu, a adresy IP określone
w enkapsulowanym nagłówku IP są ostatecznymi adresami - źródłowym i docelowym.

Tryb tunelowania protokołu IPSec jest użyteczny do ochrony ruchu między różnymi sieciami, który musi
być przekazywany za pośrednictwem sieci niezaufanej.


Protokół AH (Authentication Header):
Protokół AH służy do uwierzytelniania, zapewnia integralność danych, opcjonalnie także chroni przeciwko
atakom z powtórzonymi pakietami. Nie zapewnia natomiast poufności, dane są czytelne, ale chronione przed
modyfikacją.

background image

str. 49

następny nagłówek - identyfikuje ładunek pakietu IP; Wartość 6 reprezentuje protokół TCP

długość - wskazuje długość nagłówka AH

indeks parametrów zabezpieczeń (SPI) - wartość używana w połączeniu z adresem docelowym (z
pakietu IP) i protokołem zabezpieczeń do identyfikowania poprawnego skojarzenia zabezpieczeń (SA)
dla danej komunikacji

numer kolejny/sekwencyjny (Sequence Number) - 32 bitowa, inkrementowana od 1 liczba. Zapewnia
ochronę przed powielaniem pakietów.
Co się dzieje, jak numer kolejny zostaje przepełniony?

Dane uwierzytelnienia - zawiera wartość testową integralności (ICV - integrity check value), wyliczaną
zazwyczaj przy pomocy funkcji skrótu MD5 lub SHA-1.


SPI jednoznacznie identyfikuje Security Associations, a te z kolei definiują klucz i algorytm.

Protokół AH – tryb transportu:
W trybie transportu wypełniony nagłówek AH zostaje umieszczony za nagłówkiem protokołu IP a przed
ładunkiem pakietu IP. Protokół AH jest identyfikowany w nagłówku IP przez identyfikator 51 protokołu IP.


Protokół AH - tryb tunelowania:
W trybie tunelowania cały pakiet jest enkapsulowany za pomocą nagłówka AH i uzupełniany dodatkowym
nagłówkiem IP.

Protokół ESP (Encapsulating Security Payload):

Protokół ESP zapewnia poufność, a ponadto integralność, ochronę przed atakami z powtórzonymi
pakietami oraz uwierzytelnianie (tylko dla nagłówka ESP i zaszyfrowanego ładunku).

background image

str. 50

Do transmisji danych stosowane są szyfry symetryczne, które są po prostu szybsze od algorytmów
asymetrycznych. Szyfrują one najczęściej dane z wykorzystaniem trybu blokowego - stąd uzupełnienie
do rozmiaru bloku.


Protokół ESP – tryb transportu:
W trybie transportu nagłówek ESP jest umieszczany za nagłówkiem IP i oznaczany jest w nim identyfikatorem
protokołu o numerze 50. Nagłówek ESP jest umieszczony przed ładunkiem IP, a blok końcowy ESP i blok
końcowy uwierzytelniania na końcu.

Protokół ESP – tryb tunelowania:
W trybie tunelowania ESP pakiet IP jest hermetyzowany za pomocą nagłówków ESP i IP oraz bloku końcowego
ESP i bloku końcowego uwierzytelnienia ESP.

Skojarzenia zabezpieczeń:

Skojarzenia zabezpieczeń (Security Associations) są umową pomiędzy dwoma komunikującymi się
węzłami dotyczącą szczegółów danego tunelu IPSec. Dane skojarzenie zabezpieczeń jest
identyfikowane za pomocą:

o adresu IP nadawcy
o typu protokołu IPSec (AH lub ESP)
o indeksu parametrów zabezpieczeń (SPI)

background image

str. 51

Skojarzenia zabezpieczeń (SA) opisują m.in. algorytm szyfrujący (jeśli występuje), algorytm
uwierzytelnienia, okres ważności i klucz sesji, jaki jest używany dla danego tunelu.

Skojarzenia zabezpieczeń są jednokierunkowe, więc potrzeba 2 kanałów na dwukierunkową
komunikację oraz 4 w przypadku używania protokołów AH i ESP jednocześnie.

Indeks parametrów zabezpieczeń (SPI) jest 32-bitową liczbą, która jednoznacznie identyfikuje
skojarzenie zabezpieczeń (SA). SPI jest umieszczany w nagłówkach protokołu ESP i AH.


Mechanizm wymiany klucza:

Mechanizm wymiany klucza odpowiedzialny jest za dynamiczne tworzenie skojarzenia zabezpieczeń
(SA), a także zarządzania bazą skojarzeń zabezpieczeń.

IKE (Internet Key Exchange) działa w dwóch fazach o następującej kolejności:

o uwierzytelnienie obu stron komunikacji i nawiązanie bezpiecznego kanału na potrzeby IKE

(ISAKMP SA),

o negocjacje kluczy kryptograficznych oraz parametrów tunelu przez uwierzytelnione strony na

potrzeby IPSec SA.


Mechanizm wymiany klucza:

Faza 1.: Uwierzytelnienie może być dokonywane za pomocą hasła (shared secret), które służy do
obliczania kluczy metodą Diffiego-Hellmana. W praktyce hasła wprowadzane ręcznie używane są do
testowania. Inną metodą jest zastosowanie certyfikatów X.509, czyli kluczy publicznych podpisanych
przez nadrzędny urząd certyfikacyjny (CA). Trzecią metodą jest stosowanie podpisów RSA (konieczna
jest ręczna wymiana kluczy publicznych stron).

Faza 2.: Faza druga działa w trybie szybkim używając zestawionego IKE SA. W tym trybie obie strony
ustalają charakterystyki połączenia i generują klucze dla IPSec SA.


Ustalanie kluczy szyfrujących: algorytm Diffiego-Hellmana.

Mechanizm wymiany klucza:

Faza 1. może działać w 2 trybach: głównym i agresywnym. W trybie głównym dochodzi do 3 wymian
pomiędzy stronami komunikacji: negocjacji zasad, wymiany Diffie-Hellmana i uwierzytelniania. W
trybie agresywnym dochodzi tylko do jednej wymiany i uwierzytelnienia u odbiorcy. W trybie głównym
uwierzytelnienie jest dwustronne. W przypadku trybu agresywnego uwierzytelnia się tylko inicjator.

Faza 2. działa w trybie szybkim używając poprzednio zestawionego IKE SA. W tym trybie obie strony
ustalają charakterystyki połączenia i generują klucze dla IPSec SA.

W trybie szybkim strony negocjują:

o protokół IPSec
o algorytm zapewniający integralność (MD5 lub SHA1)
o algorytm szyfrowania (3DES lub DES)

Następnie odświeżany lub wymieniany jest klucz sesji i tworzone jest skojarzenie zabezpieczeń (SA).
Tryb szybki używany jest także w przypadku renegocjacji nowego SA.


Mechanizm wymiany klucza - mechanizmy wspomagające:

IKE Keepalive

Dead Peer Detection

NAT Traversal

Perfect Forward Secrecy

background image

str. 52

IKE Keepalive:

Protokół IKE jest oparty o protokół UDP, a co za tym idzie - bezpołączeniowy.

Konieczna jest weryfikacja działania drugiej strony tunelu w celu określenia czy przesyłane pakiety nie
giną.

Bez tego mechanizmu dany kanał będzie uznany za aktywny do czasu wygaśnięcia SA. Wtedy tworzone
jest nowe SA i możliwa weryfikacja połączenia.

Mechanizm ten nie daje odpowiedzi na pytanie czy sieci „drugiej strony” są dostępne, jedynie czy drugi
koniec tunelu jest aktywny.

Komunikaty te są szyfrowane tak jak cała transmisja w ramach danego tunelu.

W przypadku dużej ilości tuneli konieczne jest wysyłanie wielu takich informacji (zapotrzebowanie na
moc obliczeniową).


Dead Peer Detection:

Mechanizm alternatywny do IKE Keepalive cechujący się większym poziomem skalowalności.

Nie wysyła okresowo komunikatów w celu weryfikacji aktywności tunelu.

Sprawdzany jest fakt przesyłania danych w kanale. Fakt ten informuje o działaniu kanału VPN.

Jeśli przez pewien okres czasu nie otrzymana zostanie odpowiedź na wygenerowany ruch następuje
wymiana wiadomości DPD w celu weryfikacji pracy „drugiej strony”.

Jeśli któraś ze stron komunikacji nie obsługuje DPD następuje przejście na IKE Keepalive.


NAT Traversal:

Umożliwia komunikacje pomiędzy dwoma hostami w przypadku gdy pomiędzy nimi występuje jedno
lub wiele urządzeń wykonujących translację NAT.

Detekcja wsparcia dla NAT Traversal i detekcja NAT pomiędzy dwoma hostami wykonywana jest
podczas pierwszej fazy mechanizmu IKE (zarówno w trybie głównym jak i agresywnym).

Wykrycie czy pomiędzy dwoma hostami znajduje się NAT dokonywane jest poprzez wyliczenie wartości
funkcji skrótu dla adresu IP i portów obu stron wykonujących IKE.

Jeśli wyliczone wartości są różne, to pomiędzy hostami występuje NAT i konieczne jest korzystanie z
NAT Traversal.

W trybie NAT-T port źródłowy i docelowy pakietu UDP jest ustalany na 4500.

Urządzenie dokonujące translacji musi wspierać NAT-T.


Perfect Forward Secrecy:

Korzyści płynące ze stosowania protokołów automatycznej negocjacji IPSec są zauważalne szczególnie
w przypadku dużych sieci, pozwalają także łatwo osiągnąć efekty, które w praktyce byłyby niemożliwe
do wykonania w sieciach konfigurowanych ręcznie.

Jedną z takich funkcji jest automatyczna renegocjacja kluczy kryptograficznych co określony czas.

Operacja ta trwa stosunkowo krótko (może więc być wykonywana często) i gwarantuje, że w razie
naruszenia bezpieczeństwa systemu, ujawnione mogą zostać jedynie dane przechwycone po włamaniu.

Cecha ta, określana jako Perfect Forward Secrecy chroni przed sytuacją, gdy atakujący zapisuje
wszystkie przechwycone w przeszłości dane w nadziei, że kiedyś uda mu się zdobyć klucz do ich
rozszyfrowania.

Renegocjacja kluczy z użyciem algorytmu Diffiego-Hellmana. Bez mechanizmu PFS - nowy klucz jest
przesyłany zaszyfrowany starym kluczem.


background image

str. 53

Bazy danych
Systemy korzystające z IPSec posiadają dwie bazy danych:

SPD (Security Policy Database) - zawiera informacje o mechanizmach, jakie powinny być zastosowane
do pakietów wychodzących i przychodzących.

SAD (Security Association Database) - zawiera parametry związane z SA:

o algorytm szyfrowania lub uwierzytelniania
o klucze szyfrowania lub uwierzytelniania
o czas życia SA
o licznik pakietu SA
o informacje, co należy robić w przypadku przepełnienia licznika


S

YSTEMY

IDS

W

YKRYWANIE

I

A

NALIZA

D

ZIAŁALNOŚCI

I

NTRUZÓW


Rozwiązania sprzętowe to zazwyczaj IPS, natomiast software’owe to często IDS. IDS wykrywa i informuje, a IPS
podejmuje również jakąś akcję.

IDS – definicja:
Wykrywanie włamań (intrusion detection) to detekcja naruszenia bezpieczeństwa systemu w czasie
rzeczywistym
. Narzędzia, które przeprowadzają taką detekcję, nazywają się Systemami wykrywania włamań
(Intrusion Detection Systems - IDS).

Rola i podstawowe zadania IDS to:

Śledzenie aktywności użytkownika od punktu wejścia do punktu ataku - monitorowanie działalności
intruza od momentu rozpoczęcia ataku do jego zakończenia.

Rozpoznanie i poinformowanie o zmianach w danych - integralność danych.

Wykrycie, kiedy system jest atakowany - nie może być fałszywych alarmów.

Wykrycie błędów w konfiguracji systemu - może nas poinformować, że przez firewalla przeszły pakiety,
które nie powinny.

Pomoc w ustalaniu polityki bezpieczeństwa.

Reakcja na atak (IPS).


AIDE - Advanced Intrusion Detection Environment

Ograniczenia IDS:

Nie może zrekompensować złej jakości mechanizmów identyfikacji i autentykacji.

Nie może przeprowadzić dochodzenia dotyczącego ataku bez pomocy człowieka.

Nie może analizować całego ruchu w obciążonej sieci.

Nie może zrekompensować jakości i integralności informacji dostarczonej przez system.

Nie może zrekompensować wad protokołów sieciowych - w IP nie da się sprawdzić, czy źródłowy pakiet
IP jest prawdziwy.


Włączenie IPS powoduje drastyczny spadek wydajności - należy dobierać rozwiązania tak, aby były w stanie
analizować cały ruch w sieci. Konsekwencje błędnego doboru rozwiązań:

obniżenie przepustowości,

jeśli system IDS jest wdrożony jako rozwiązanie oddzielne od routera - może nie analizować wszystkich
pakietów.

background image

str. 54

Common Intrusion Detection Framework:

E-boxes (event generators) - generatory zdarzeń systemowych analizujące zewnętrzne zdarzenia.

A-boxes (event analizers) - analizatory zdarzeń systemowych. W systemach IDS istnieje model
standardowego zachowania się użytkownika. Ze względu na sposób analizy danych A-boxes dzielimy
na:

o Systemy rozpoznające anomalie. Anomalia to zachowanie użytkownika niezgodne z przyjętymi

zasadami np.: większe niż zwykle wykorzystanie procesora, użycie przez użytkownika
niestandardowej sekwencji komend.

o Systemy wykrywające nadużycia. Nadużycie jest rodzajem zachowania, które IDS rozpoznaje

jako konkretny atak na system.

D-boxes (event database) - bazy danych; zawierają znane wzorce ataków (zwane niekiedy
sygnaturami), logi wygenerowane przez pozostałe komponenty systemu, oraz wzorce podejrzanych
ciągów tekstowych.

R-boxes (response units) - jednostki reagujące. W najnowszych systemach IDS mają zdolność
podejmowania decyzji służących złagodzeniu skutków włamania, mogą też przekierowywać intruza na
specjalną maszynę pułapkę.


Baza danych nie jest niezbędna. Analizator zdarzeń przesyła zagregowane informacje do jednostek
reagujących. Generator zdarzeń systemowych dzieli systemy na grupy: sieciowe, oparte na hoście. Podział ze
względu na typ analizatora zdarzeń: wykrywające nadużycie, wykrywające anomalie.

Klasyfikacja IDS:

Ze względu na sposób wykrywania:

o systemy oparte na zbiorze zasad
o systemy adaptacyjne (wykrywające anomalie) - zwykle wykorzystują AI

Ze względu na umieszczenie generatora zdarzeń:

o HIDS - Host Intrusion Detection System
o NIDS - Network Intrusion Detection System
o NNIDS - Network Node Intrusion Detection System

background image

str. 55

Systemy oparte na zbiorze zasad
Systemy te analizują aktywność monitorowanego środowiska, szukając zdarzeń lub ich zbiorów, które pasują
do wcześniej zdefiniowanych jako zabronione. Są opisy znanych ataków. Te zdefiniowane reguły nazywane są
sygnaturami. Z tego powodu systemy te nazywane są też często systemami opartymi o sygnatury lub także
systemami wykrywającymi nadużycia. Najczęściej spotykane podejście do tej techniki wykrywania włamań
polega na kolejnym porównywaniu danych otrzymanych z generatora zdarzeń do poszczególnych sygnatur.

Sygnatury dotyczą na przykład:

port dowolny, z zakresu

pola w nagłówku IP

protokół warstwy wyższej

itd.


Systemy oparte na zbiorze zasad - zalety:

Są bardzo efektywne w wykrywaniu ataków, a przy tym generują niewielką ilość fałszywych alarmów.

Potrafią szybko i niezawodnie diagnozować użycie specyficznego narzędzia ataku lub techniki. Może to
pomóc administratorom do spraw bezpieczeństwa podjąć odpowiednie działania.

Nie wymagają od osoby administrującej dużej wiedzy. Sygnatury ataków są powszechnie dostępnie i
nie ma konieczności tworzenia własnych.


Jeśli IPS coś blokuje, dodaje do logów informacje wraz z numerem sygnatury - można sprawdzić rodzaj ataku
np. na stronie producenta. Sygnatury mają wagi - można ustawiać reakcje systemu w zależności od wagi
sygnatury.

Systemy oparte na zbiorze zasad - wady:

Potrafią wykrywać tylko ataki, które są już znane. Jedynie ataki, których sygnatura znajduje się w bazie
wiedzy systemu zostaną wyłapane. Nie ma możliwości wykrywania nowych ataków. System zawsze
musi posiadać wcześniejszą wiedzę o tym, czego szuka.

W przypadku dużej ilości sygnatur spada wydajność systemu – należy wyłączyć sygnatury, które
dotyczą ataków dla nas niegroźnych.


Systemy adaptacyjne:

Systemy te identyfikują nienormalny, niezwykły sposób zachowania (anomalie) w sieci lub na danym
hoście. Ich praca opiera się na podstawowym założeniu, iż ataki generują inne zachowania niż
normalna praca i dzięki temu mogą być wykryte. Budowane są profile reprezentujące normalne
zachowania użytkowników, hostów czy połączeń sieciowych.

Następnie zbierane są dane o zachowaniu w określonej chwili, a przy wykorzystaniu różnych sposobów
pomiaru stwierdza się, czy monitorowana działalność odbiega od normy. Metody pomiarów mogą być
różne. Można mierzyć wartość zasobów zużywanych przez użytkownika czy proces (np. liczba ot
wartych plików, niepoprawnych zalogowań do systemu itp.). Przekroczenie pewnej wartości granicznej
może oznaczać nienormalną sytuację.


Systemy adaptacyjne - zalety:

Systemy tego typu wykrywają niezwykłe zachowanie. W związku z tym posiadają zdolności wykrywania
nowych, nieznanych do tej pory ataków. Nie muszą posiadać wiedzy na ich temat.

background image

str. 56

Wynikiem ich działania może być informacja, która w dalszej kolejności zostanie poddana analizie
systemu działającego na zasadzie wykrywania nadużyć. Może to podnieść skuteczność systemu, a w
szczególności ograniczyć ilość fałszywych alarmów.


Systemy adaptacyjne - wady:

Mogą reagować na anomalie, które nie są atakami - np. włączenie VoIP.

Często generują dużą ilość alarmów spowodowaną nieprzewidywalnością zachowania użytkowników.
Podobna sytuacja występuje w odniesieniu do sieci. Także praca hosta nie do końca jest
przewidywalna.

Wymagają uczenia. Takiemu systemowi dostarczyć trzeba zbioru uczącego, na podstawie którego
utworzone zostaną bazowe profile. Co więcej, wraz z upływem czasu muszą być one zmieniane. jeśli
zostanie dostarczony zły zbiór uczący, późniejsza praca będzie niemożliwa. Będzie generowana duża
ilość fałszywych alarmów lub nie będą wykrywane ataki.

o Mało agresywny atak - system może się nauczyć, że to normalne zachowanie.
o Atak w trakcie uczenia - j/w.


Host Intrusion Detection System
Systemy HIDS nadzorują informacje związane z pracą danej maszyny. Podstawą informacji dla tego typu
systemu są logi systemowe, sprawdzana jest także integralność systemu plików. Ponadto system monitoruje
aktywność użytkowników.

Host Intrusion Detection System - zalety:

Można dokładnie określić, co zrobił agresor. Jakie wydał w systemie polecenia jakie otworzył pliki. Nie
tylko można się domyślać, że zostaną takie wydane, ale jest się tego pewnym. Można więc uzyskać
bardziej szczegółową informacje na temat poczynań

Systemy oparte na hoście mają znacznie niższą ilość fałszywych alarmów niż NIDS. Dzieje się tak
dlatego, ponieważ ilość komend jaką może wydać agresor w danym systemie jest znacznie mniejsza,
niż ilość informacji jaką można zebrać z analizowanego ruchu sieci


Host Intrusion Detection System - wady:

Systemy HIDS wymagają instalacji na systemie, który chce się ochraniać. Może nie być to możliwe z
wielu przyczyn. Systemy IDS generują dużą ilość informacji, którą trzeba przechować, a często system
ochraniany może nie posiadać wystarczającej ilości przestrzeni dyskowej. Można również nie mieć
fizycznego dostępu do ochranianej jednostki.

Systemy HIDS polegają na możliwościach logowania i monitorowania ochranianego systemu
operacyjnego. Jeśli ten nie jest dostatecznie dobrze skonfigurowany, wiąże się to z jego rekonfiguracją,
co nie zawsze jest możliwe ze względu na przeznaczenie maszyny.


Network Intrusion Detection System
Systemy NIDS nadzorują informacje związane z siecią, sprawdzają każdy pakiet przechodzący przez interfejs
sieciowy - cały ruch w sieci.

Network Intrusion Detection System - zalety:

Systemy NIDS mogą wykrywać ataki, do przeprowadzenia których wykorzystuje się sieć komputerową.

Systemy NIDS nie wpływają w żaden sposób na dotychczasową pracę chronionego systemu, ponieważ
nie pracują jako router lub inne tego typu urządzenie. Awaria systemu NIDS nie wpływa na pracę
chronionego systemy

background image

str. 57

Nie wymagają modyfikacji ochranianych komputerów. To jest poważna zaleta, ponieważ często
ochraniane maszyny mają ograniczone możliwości sprzętowe.

Systemy NIDS pracują na osobnych maszynach, a co za tym idzie mogą zostać zainstalowane na innym
systemie operacyjnym niż chronione komputery. Z tego powodu są prostsze w instalacji niż HIDS.


Network Intrusion Detection System - wady:

Z drugiej jednak strony systemy NIDS jedynie badają ruch w segmencie sieci, do którego są
bezpośrednio podpięte. To jest poważny problem w przypadku sieci zbudowanych w oparciu o
switch’e. Rozwiązaniem jest umieszczenie systemów w odpowiednich miejscach sieci lub użycie
odpowiedniego sprzętu.

Systemy NIDS zbudowane są w oparciu o analizowanie zbioru zasad. Jest to podyktowane potrzebą
zapewnienia jak najwyższej wydajności takiego systemu. Nie może on bowiem zgubić ani jednego
pakietu.

W typowej konfiguracji systemy NIDS wszelkie efekty swej pracy logują do jakiejś jednostki, która
później zajmuje się dodatkową analizą korelacyjną tych danych. Wiążę się to z dużym wzrostem ruchu
w sieci. Można to rozwiązać poprzez stworzenie drugiej sieci.

Poważny problem stanowi szyfrowany ruch w sieci. Ataków realizowanych przy pomocy szyfrowanych
sesji nie da się w łatwy sposób wykryć. Tego typu ataków jest coraz więcej - jedyną metodą radzenia
sobie jest stosowanie proxy filturjących z analizą ruchu szyfrowanego - decryption in the middle.


Fałszywe alarmy
Można wyróżnić dwa typy fałszywych alarmów:

false positive - fałszywy alarm, który generowany jest, gdy system wykrywania włamań normalny,
dopuszczony ruch w sieci sklasyfikuje jako próba włamania

false negative - nie jest właściwie alarmem, a jego brakiem w przypadku wystąpienia niepożądanej
działalności, która nie została wykryta


Podsłuch całego ruchu w sieci:

najprostsze rozwiązanie - HUB

mirror switch port - na jeden z portów jest wysyłany cały ruch; rozwiązanie niedopuszczalne - cały ruch
z np. 48 portów nie wejdzie na jeden

podsłuch - tap (zawór) - czteroportowe urządzenie pozwalające na podglądanie ruchu w sieci. Z reguły
urządzenie to wpina się w krytycznym miejscu sieci, gdzie monitorowanie jest konieczne.

background image

str. 58

Stealth configuration - jedna karta sieciowa nie posiada adresu IP, ani zdefiniowanego stosu TCP, druga
pracuje w typowej konfiguracji. Brak zdefiniowanego stosu TCP/IP - interfejs monitorujący ruch jest w sieci
niewidoczny.

Każdy switch jest zbudowany z układów ASIC - przełączają. Każdy układ ma swoją przepustowość. Do każdego
takiego układu podpięta jest pewna ilość portów switcha. Zazwyczaj przepustowość wewnętrzna switcha jest
mniejsza niż liczba portów.

Systemy agentowe:

Małe, autonomiczne moduły mogą się przemieszczać pomiędzy hostami zabezpieczanej sieci.

Rolą agenta jest monitorowanie i filtrowanie działań dokonywanych w chronionym przez niego
obszarze.

Agenty wymieniają miedzy sobą informacje o podejrzanych działaniach i (lub) komunikują się z
centralnymi systemami IDS.


Rozmieszczenie systemów IDS:

Lokalizacja w jednym miejscu (np. w pobliżu zapory ogniowej),

Rozproszenie w chronionej sieci jako:

o zbiór niezależnych, pojedynczych systemów IDS, wymieniających między sobą informacje o

włamaniach,

o zaawansowana architektura systemów agentowych.


Pierwszy przykład, bardzo typowy: sieć złożona z trzech podsieci (fizycznych stref bezpieczeństwa): LAN/WAN,
DMZ LAN (do niej jest dostęp z Internetu). Firewall rozdziela wszystkie sieci. Umieszczamy sensory (trzy zawory
sieciowe, z których ruch przesyłany jest do switcha, a ze switcha do IDS). Podsłuchiwany jest ruch: między
firewallem a siecią zew, między firewallem a LAN/WAN, między firewallem a DMZ LAN.

background image

str. 59

WAN - Router - Firewall - LAN

Umieszczenie NIDS - Przykład 1
IDS przed Firewallem (pomiędzy firewallem a routerem). Jesteśmy w stanie podsłuchać cały ruch, który jest
kierowany do naszej sieci. Zaleta: jesteśmy w stanie zauważyć wszelkie próby ataku na naszą sieć. Wada:
fałszywe alarmy - znaczna część ruchu zostanie odfiltrowana przez firewall.

Umieszczenie NIDS - Przykład 2
Drugie podejście - przeniesienie IDS za firewall. Sytuacja odwrotna - IDS ma wykrywać tylko ze zagrożenia,
które przedarły się przez firewall. Tutaj widzimy dokładnie 100% tego, co jest faktycznie dla nas groźne. To, co
przedarło się przez firewall i dalej jest niebezpieczne, ma zostać wykryte przez IDS. Z drugiej strony nie wiemy,
jakie były różne próby ataków na naszą sieć.

Umieszczenie NIDS - Przykład 3
Idealne połączenie - system IDS potrafi analizować ruch przed i za firewallem:

wiemy, co mogłoby zagrażać,

wiemy, co zagraża,

jesteśmy w stanie zmodyfikować konfigurację zapory na podstawie informacji o próbach ataków i które
z nich przedarły się przez firewall.


Sensor wykrywania włamań na jakimś zasobie, który nas interesuje - na przykład na serwerze WEBowym.
System IDS analizujący ruch wokół firewalla niekoniecznie jest w stanie stwierdzić, czy jakiś serwer pracujący w
sieci faktycznie jest zagrożony.

Problemy związane z IDS:

Atak typu wstawienia (Insertion)

Atak typu odrzucenia (Evasion)

Atak TTL

Szyfrowane połączenie


Atak typu wstawienia:
Atakujący wysłał: TAXAK
Ochraniany system widzi: ATAK
System IDS widzi: ATAXT

Zdarza się, że pakiety przyjęte do hosta są przyjmowane w innej kolejności, niż są wysyłane. Atakujący celowo
zaburza kolejność. Obecność pakietu X może wywołać fałszywy alarm, albo efekt błędnego uczenia się.

Czemu IDS uzna pakiet za poprawny, a system ochraniany nie?

W przypadku TTL IDS zobaczy pakiet, a chroniony system nie. Dlatego ważne jest umieszczanie
dodatkowych sensorów na newralgicznych hostach w sieci.

Odmienność implementacji stosu TCP/IP. System chroniony odrzuci pakiety, które uzna za
niepoprawne. Konfiguracja stosu TCP/IP systemu IDS może ocenić, że pakiet jest OK.


Atak typu odrzucenia:
Atakujący wysłał: TAAK
Ochraniany system widzi: ATAK
System IDS widzi: ATK

Odmienna konfiguracja stosu TCP/IP,

background image

str. 60

Nieprawidłowa konfiguracja IDS.


Atak TTL:
Ochraniane maszyny - router/firewall - system IDS - internet - agresor

Agresor wysyła pakiety z małym TTL. IDS widzi pakiety, generuje alarmy, ale pakiety nigdy nie docierają do
konkretnych maszyn. Typowa procedura ataku typu wstawienia. System IDS musi znać minimalną wartość TTL,
żeby pakiet dotarł do celu - znać ile jest routerów w sieci. Druga możliwość - sensory sieciowych systemów IDS
na maszynach.

Szyfrowane połączenie
W przypadku, gdy przesyłane w sieci dane są zaszyfrowane powstaje bardzo trudna sytuacja. System
wykrywania włamań musi być zaufaną trzecią stroną - musi znać klucze sesyjne. Jest to konieczne do
przeprowadzania operacji odszyfrowania strumienia danych, która warunkuje wykrywanie niepożądanych
zdarzeń. Konieczność odszyfrowania danych pociąga za sobą zwiększenie mocy obliczeniowej koniecznej do
przeprowadzania skomplikowanych operacji matematycznych związanych z procesem deszyfracji. Ponadto
przejęcie funkcji zaufanej trzeciej strony przez system IDS uderza w podstawowe założenia systemów
bezpieczeństwa. Pojawia się jednak problem, co stanie się w przypadku, gdy system wykrywania włamań jako
zaufana trzecia strona będzie narażony na wyciek informacji. W takim wypadku administrator systemu pełni
też rolę zaufanego pracownika. Sytuacja taka może prowadzić do absurdu. Wprowadzenie nowego systemu
bezpieczeństwa może doprowadzić do obniżenia bezpieczeństwa istniejących systemów ochrony informacji.

Oszukiwanie programów IDS

Skanowanie portów w losowej kolejności - niektóre systemy IDS wykrywają sekwencyjne połączenia z
jednego adresu źródłowego z kolejnymi portami. Wystarczy wprowadzić losowość przy wyborze
portów do skanowania, by ominąć to zabezpieczenie.

Powolne skanowanie - system IDS lub dowolny inny stwierdzi próbę skanowania systemu, jeśli wykryje
kolejne połączenie z jednego źródła do różnych portów w określonym czasie, np. za skanowanie
uważana będzie próba nawiązania 5 połączeń na różne porty z jednego adresu w czasie 3 sekund -
wiedząc to, można uniknąć wykrycia poprzez skanowanie 5 połączeń w ciągu 4 sekund. W przypadku
nieznanych ustawień można skanowanie spowolnić do kilku pakietów na dzień. Jednostka analizująca
logi może odnaleźć takie zagrożenia - wymagane składowanie danych i moce obliczeniowe do ich
analizy.

Fragmentacja pakietów - część istniejących systemów IDS nie składa zdefragmentowanych pakietów
bądź to w obawie przed atakiem DoS, bądź z braku takiej funkcji. Nie widząc całego pakietu, system nie
jest w stanie poprawnie go rozpoznać. Rozwiązaniem problemu jest skonfigurowanie bramki (zapory
ogniowej lub routera), tak by składała w całość wszystkie zdefragmentowane pakiety.

Odwrócenie uwagi - polega na stworzeniu obfitego strumienia skanujących pakietów ze sfałszowanymi
adresami nadawcy. Wśród tych pakietów co jakiś czas będzie znajdować się adres prawdziwego hosta
inicjującego skanowanie. Jego wychwycenie jest jednak bardzo trudne, jeśli nie niemożliwe. Wystarczy
wygenerować skanowanie z wieloma adresami IP - można wywołać efekt zablokowania tych IP - DoS.

Fałszowanie adresu nadawcy - metoda ta może stanowić rozwinięcie poprzedniej. Komputer skanujący
fałszuje wszystkie adresy nadawcy, dbając jedynie o to, by przynajmniej jeden z fałszowanych adresów
znajdował się w jego podsieci. Dzięki temu host skanujący jest w stanie podsłuchiwać pakiety zwrotne,
nie zdradzając swojego adresu.

Skanowanie rozproszone - skoordynowane skanowanie może być wykorzystane w połączeniu z
powolnym skanowaniem w celu wykonania praktycznie niewykrywalnego skanowania w rozsądnym
czasie. Technika ta wymaga jednak wcześniejszych przygotowań i znacznych zasobów.

background image

str. 61

F

IRE

W

ALL


Definicja: firewall (ang. ściana przeciwogniowa).
Jeden ze sposobów zabezpieczenia sieci/komputera/serwera przed intruzami. Termin określający sprzęt
komputerowy wraz ze specjalnym oprogramowaniem bądź samo oprogramowanie blokujące niepowołany
dostęp do sieci komputerowej, komputera, serwera, itp. na której straży stoi.

Firewall sprzętowy pracuje zazwyczaj na styku z siecią zewnętrzną. Coraz częściej - pomiędzy segmentami sieci
wewnętrznych.

Stosowane technologie:

filtrowanie pakietów - analiza nagłówków protokołów sieciowych do warstwy 4

pośredniczenie (proxy) - proxy filtrujące, wyjście do warstw 5/6/7 - HTTP, SMTP, FTP

translacja adresów sieciowych (NAT) - nie chroni, jeśli ktoś pobierze złośliwy kod (atak na HTTP)

wirtualne sieci prywatne (VPN)


Filtrowanie pakietów w:

warstwie aplikacji

warstwie transportowej

warstwie sieciowej

warstwie łącza danych


Pośredniczenie (proxy) - firewall warstwy aplikacji. Klient uruchomiony - przyjmijmy - w sieci wewnętrznej, nie
może nawiązać połączenia z serwerem pracującym w sieci zewnętrznej. Może tylko nawiązać połączenie z
apliakacją pośredniczącą, zainstalowaną na zaporze (proxy). Ruch przechodzi przez zaporę jedynie, jeśli
zostanie pozytywnie sklasyfikowany przez aplikację proxy. Zaakceptowane połączenie od klienta jest następnie
zestawiane w imieniu klienta przez aplikację proxy z serwerem. W istocie zatem utrzymywane są dwa
połączenie: klient-proxy i proxy-serwer docelowy.

Technika translacji adresów sieciowych NAT (Network Address Translation) ukrywa przestrzeń adresową
pakietu danych w innej przestrzeni adresu publicznego. Dzięki temu każdy host w sieci prywatnej może
uzyskać dostęp do Internetu przy użyciu jednego publicznego adresu IP. Lokalne sieci komputerowe,
korzystające z tzw. adresów prywatnych (specjalna pula adresów tylko dla sieci lokalnych), mogą zostad
podłączone do Internetu przez jeden komputer (lub router), posiadający mniej adresów internetowych niż
komputerów w tej sieci. Router ten, gdy komputery z sieci lokalnej komunikują się ze światem, dynamicznie
tłumaczy adresy prywatne na adresy zewnętrzne, umożliwiając użytkowanie Internetu przez większą liczbę
komputerów niż posiadana liczba adresów zewnętrznych.

Typy NAT:

SNAT (Source Network Address Translation) to technika polegająca na zmianie adresu źródłowego
pakietu IP na jakiś inny. Stosowana często w przypadku podłączenia sieci dysponującej adresami
prywatnymi do sieci Internet. Wtedy router, przez który podłączono sieć, podmienia adres źródłowy
prywatny na adres publiczny (najczęściej swój własny).
Szczególnym przypadkiem SNAT jest maskarada, czyli sytuacja, gdy router ma zmienny adres IP (np.
otrzymuje go w przypadku połączenia modemowego dodzwanianego). Wtedy router zmienia adres
źródłowy na taki, jak adres interfejsu, przez który pakiet opuszcza router.

background image

str. 62

DNAT (Destination Network Address Translation) to technika polegająca na zmianie adresu
docelowego pakietu IP na jakiś inny. Stosowana często w przypadku, gdy serwer, który ma być
dostępny z Internetu ma tylko adres prywatny. W tym przypadku router dokonuje translacji adresu
docelowego pakietów IP z Internetu na adres tego serwera.


Odróżnianie pakietów z różnych urządzeń – podmiana numerów portów.

NAT może dokonać konwersji na dwóch różnych poziomach adresowania pakietu:

1. na poziomie warstwy sieciowej: adres IP - NAT
2. na poziomie warstwy transportowej: socket (adres IP i numer portu) - NAPT (PAT)

Rozpatrzmy powyższe dwie metody translacji NAT i NAPT (PAT).

1. Pierwsza metoda (NAT) dokonuje translacji tylko adresu IP prywatnego hosta. Informacja adresowa

wygląda następująco:
(adres IP źródła : numer portu źródłowego; adres IP przezn. : numer portu przeznaczenia)
pakiet, który wychodzi w kierunku Internetu jest translowany do postaci:
(adres IP źródła : numer portu źródłowego; adres IP przezn. : numer portu przeznaczenia)

2. W drugim przypadku modyfikacji (NAPT, PAT) podlegają zarówno adres IP jak i numer portu TCP/UDP.

Informacja adresowa wygląda następująco:
(adres IP źródła : numer portu źródłowego; adres IP przezn. : numer portu przeznaczenia)

pakiet, który wychodzi w kierunku Internetu jest translowany do postaci:
(adres IP źródła : numer portu źródłowego; adres IP przezn. : numer portu przeznaczenia)


Dla pakietów w kierunku odwrotnym, czyli z Internetu do sieci prywatnej, dokonywane są podobne
modyfikacje, ale na polach przeznaczenia.

Translacja statyczna i dynamiczna
Kiedy mówimy o NAT (Network Address Translation) to musimy wiedzieć, że translacje NAT mogą być
dokonywane statycznie (dokonywane ręcznie) lub dynamicznie. W pierwszym przypadku przydział adresu
NAT-IP dla oryginalnego adresu IP jest jednoznaczny, w drugim nie jest. W statycznym NAT pewien stały
źródłowy adres IP jest zawsze translowany do tego samego adresu NAT-IP i żaden inny adres IP nie będzie
translowany do tego samego adresu NAT-IP. Natomiast w przypadku translacji dynamicznej NAT, adres NAT-IP
jest zależny od różnorodnych warunków działania i może być kompletnie inny dla każdej pojedynczej sesji.

VPN (ang. Virtual Private Network, Wirtualna Sieć Prywatna) – tunel, przez który płynie ruch w ramach sieci
prywatnej pomiędzy klientami końcowymi za pośrednictwem publicznej sieci (takiej jak Internet) w taki
sposób, że węzły tej sieci są przezroczyste dla przesyłanych w ten sposób pakietów. Można opcjonalnie
kompresować lub szyfrować przesyłane dane w celu zapewnienia lepszej jakości lub większego poziomu
bezpieczeństwa.

IPtables
W iptables istnieją trzy tablice reguł. Pierwsza (domyślna) filter zawiera wbudowane łańcuchy INPUT i OUTPUT
dla pakietów przeznaczonych lub wygenerowanych przez lokalnego hosta oraz FORWARD dla pakietów
routowanych przez hosta. Druga tablica nat dotyczy reguł stosowanych dla pakietów, dla których dokonywana
jest translacja adresów IP i zawiera łańcuchy PREROUTING i POSTROUTING, dla tablicy nat dostępny jest także
łańcuch OUTPUT. Trzecia tablica mangle zawiera łańcuchy PREROUTING oraz OUTPUT.

background image

str. 63

Obieg pakietu

prerouting - można zmienić docelowy adres IP przy pakiecie wchodzącym

decyzja co do routingu - czy ruch jest kierowany do podsieci, czy bezpośrednio do firewalla

input - czy pakiet może dotrzeć do firewalla?

output - czy ruch może wyjść z komputera

postrouting - można podmieć źródłowy adres IP - można zmienić źródłowy IP przy pakiecie
wychodzącym

Firewall Builder to graficzny konfigurator zapory ogniowej. Narzędzie może być używane do konfiguracji
firewalla w systemach operacyjnych oraz urządzeniach Cisco. Aplikacja zapewnia wsparcie dla: Linux iptables,
Cisco ASA i PIX, Cisco FWSM, Cisco router access lists, pf, ipfw i ipfilter for BSD oraz HP ProCurve ACL.

Firewall prywatny jest to bariera pomiędzy twoim komputerem a światem zewnętrznym czyli Internetem.
Zastosowanie:

Ochrona poufnych danych użytkownika, np. danych osobowych, numerów kart kredytowych, numeru
IP,

Ochrona przed atakami mającymi na celu utrudnienie lub uniemożliwienie pracy komputera,

Ochrona przed nieautoryzowanym dostępem do zasobów komputera,

Ochrona przed złośliwym oprogramowaniem.


Architektury firewalli:
Na konstrukcję zapory sieciowej zwykle składają się filtry pakietów oraz serwery proxy. Podstawowym
zadaniem zapory jest ograniczenie przepływu danych między sieciami. Przed postawieniem zapory trzeba
określić, jakie rodzaje danych mają być przez nią przepuszczane, a jakie nie. Czyli trzeba zdefiniować politykę
zapory. Następnie należy skonstruować mechanizmy, które umożliwią wprowadzenie tej polityki w życie. Filtry
pakietów to urządzenia przechwytujące każdy transmitowany pakiet danych i dopuszczające lub blokujące
przesłanie tego pakietu do adresata. Decyzja o przesłaniu jest podejmowana na podstawie atrybutów
rozpatrywanego pakietu. Są to m.in. adres źródłowy, adres docelowy, typ protokołu, port źródłowy, port
docelowy, zawartość. W praktyce funkcjonują dwie podstawowe strategie konfiguracji filtrów pakietów:
domyślne przepuszczanie oraz domyślne powstrzymywanie. Pierwsza polega na blokowaniu tylko niektórych
portów, protokołów czy adresów. Stosowana jest więc zasada: wszystko, co nie jest zabronione jest
dozwolone. Druga strategia polega na odblokowaniu tylko niektórych portów, protokołów czy adresów.
Obowiązuje więc zasada: wszystko, co nie jest dozwolone jest zabronione. Administrator systemu, dążący w
konfiguracji zapory sieciowej do osiągnięcia maksymalnego bezpieczeństwa, powinien oczywiście wybrać
strategię domyślnego powstrzymywania. Serwery proxy to pakiety programowe służące do pośredniczenia w

PREROUTING

NAT

decyzja co

do routingu

proces lokalny

decyzja co

do routingu

FORWARD

FILTER

INPUT

FILTER

POSTROUTING

NAT

OUTPUT

FILTER, NAT

background image

str. 64

ruchu sieciowym pomiędzy siecią prywatną a Internetem. Użytkownik sieci prywatnej, który chciałby
skorzystać z usługi udostępnianej na serwerze w Internecie, rejestruje się najpierw w aplikacji serwera proxy.
Zadaniem tego serwera jest uwierzytelnienie użytkownika i po stwierdzeniu, że ma on odpowiednie prawa,
zezwolenie na skorzystanie z usługi w Internecie. Przy połączeniach z sieci zewnętrznej postępowanie jest
podobne. Ponieważ serwer proxy działa na poziomie aplikacji, więc każdy typ aplikacji wymaga oddzielnego
serwera. Taki zastaw serwerów proxy nazywamy bramą aplikacyjną. Przez połączenie filtrów pakietów i
serwerów proxy, oraz ich odpowiednie osadzenie na platformach sprzętowych, można uzyskać różne
konfiguracje zapór sieciowych. Najbardziej popularne są w tej chwili cztery konfiguracje:

host z dwoma portami,

filtr pakietów,

zapora z jednym filtrem pakietów i bramą aplikacyjną,

zapora z dwoma filtrami pakietów i bramą aplikacyjną.


Host z dwoma portami
Jest to jedno z najstarszych rozwiązań. Polega na osadzeniu zapory
na komputerze wyposażonym w dwa interfejsy sieciowe,
pracującym zwykle pod kontrolą systemu operacyjnego z rodziny
UNIX. Komputer w zaporze działa jednocześnie jako dławik i
brama. Usługi są zwykle oferowane użytkownikom na dwa
sposoby:

• użytkownik loguje się do komputera z dwoma portami,
• na hoście z dwoma portami mogą działać serwery proxy

poszczególnych, przepuszczanych przez zaporę usług.

W systemie operacyjnym, a dokładniej mówiąc w jego jądrze musi
być włączona opcja ip_forwarding.

Filtr pakietów

Ten typ zapory buduje się na bazie jednego filtru pakietów. Może nim być np. router, w którym dostępna jest
funkcja filtrowania pakietów. Jest to konfiguracja prosta i dość popularna. Programowanie filtru polega na:

• zablokowaniu pakietów wszystkich nieużywanych usług,
• zablokowaniu pakietów z ustawioną opcją routingu źródłowego,
• zezwoleniu na połączenia przychodzące tylko z

określonych serwerów sieciowych i blokowaniu
pozostałych,

• zezwoleniu komputerom z sieci wewnętrznej na

połączenia z dowolnym komputerem w sieci
zewnętrznej.

Do zalet takiej konfiguracji należy zaliczyć prostotę, taniość
i elastyczność wyrażającą się łatwością blokowania
dostępu z wybranej sieci zewnętrznej. Do wad należą:

• brak lub słabo rozbudowany system rejestracji

ruchu przechodzącego przez zaporę, prób włamań,
udzielania użytkownikom różnego rodzaju dostępu,
zwłaszcza w przypadku starszych urządzeń,

• złożoność reguł filtrowania może być znaczna, co

powoduje znaczną trudność ich weryfikowania,

• testowanie filtru polega na eksperymentowaniu,

które może być czasami dość problematyczne,

background image

str. 65

• po złamaniu zabezpieczeń routera, komputery w sieci wewnętrznej będą całkowicie podatne na ataki,
• brak zabezpieczeń przed zawartością pewnych pakietów (np. SMTP czy FTP).


Zapora z jednym filtrem pakietów i bramą aplikacyjną
Bardziej bezpieczną zaporę sieciową można zbudować stosując
jednocześnie filtr pakietów i bramę aplikacyjną. Filtrem
pakietów może być router, a bramą aplikacyjną wybrany
komputer w sieci wewnętrznej. W bramie działają serwery
proxy umożliwiające użytkownikom sieci wewnętrznej
korzystanie z usług sieci zewnętrznej.
W tej konfiguracji filtr pakietów jest skonfigurowany w sposób
zapewniający:
• blokowanie pakietów usług, które nie są potrzebne w sieci
wewnętrznej,
• blokowanie pakietów przesyłanych w ramach routingu
źródłowego lub mających ustawione nietypowe opcje,
• blokowanie pakietów, których miejscem przeznaczenia jest
sieć wewnętrzna (poza adresem bramy),
• przepuszczanie pakietów, których adresem źródłowym lub docelowym jest adres bramy aplikacyjnej.
Jeżeli komputer w sieci wewnętrznej chce się skontaktować z siecią zewnętrzną, to pakiet komunikacyjny musi
przejść przez serwer proxy funkcjonujący w bramie aplikacyjnej. Użytkownicy z sieci zewnętrznej zanim
dostaną się do sieci wewnętrznej, muszą się połączyć z odpowiednim serwerem proxy.

Zapora z dwoma filtrami pakietów i bramą aplikacyjną
W takiej konfiguracji filtr zewnętrzny i serwer proxy pełnią takie same funkcje jak w konfiguracji z jednym
filtrem pakietów i bramą aplikacyjną. Nowym elementem jest filtr wewnętrzny, pełniący funkcję awaryjną.
Jeśli intruzowi uda się włamać do serwera proxy i przejąć nad
nim kontrolę, filtr wewnętrzny uniemożliwi mu posłużenie się
serwerem proxy do przeprowadzenia ataków na inne komputery
w sieci wewnętrznej (dzięki np.: blokowaniu pakietów usług,
które nie są potrzebne w sieci wewnętrznej).

We

wszystkich

konfiguracjach

wykorzystujących

bramę

aplikacyjną, zamiast jednej można używać wielu bram - po jednej
dla każdego protokołu. Prostsze rozwiązanie polega na
zastosowaniu jednej bramy i przeznaczeniu kilku serwerów na
poszczególne usługi sieci wewnętrznej.
Wszystkie komputery można pogrupować w kilka oddzielnych
sieci, które będą się komunikować za pomocą specjalnych
komputerów - bramek, routerów i zapór sieciowych. Mogą one
do wewnętrznej komunikacji wykorzystywać Internet i
odpowiednie systemy kryptograficzne.

Należy pamiętać, że nieuczciwi pracownicy mają o wiele
dogodniejsze położenie do dokonywania zniszczeń niż włamywacze zewnętrzni. Odpowiednia konfiguracja
zapór wewnętrznych może pomóc w ograniczeniu ich działań destrukcyjnych.

background image

str. 66

Endian Firewall:
Endian Firewall jest dystrubycją Linuxa, która pozwala na szybką i łatwą zamianę dowolnego komputera w
zaawansowany system zabezpieczający sieć. Cechuje się prostotą obsługi i dużymi możliwościami. Oparty na
Squidzie. IDS, OpenVPN, traffic shaping, AV, kategoryzacja URL.

KONFIGURACJE FIREWALLI

Konfiguracja z routowaniem:

konfiguracja na laboratorium mixed-routing mode

każdy interfejs firewalla ma inną adresację IP

wada - musimy mieć wydzielone podsieci i taki firewall jest widoczny w sieci, bo musi mieć przypisane
adresy IP

Konfiguracja drop-in:

przezroczysta dla warstwy sieciowej, nie wykonuje routingu

na każdym interfejsie firewall ma ten sam adres IP

zalety:

o przezroczysty dla warstwy IP
o łatwa integracja z istniejącą infrastrukturą sieciową
o niezastąpione rozwiązanie w przypadku niemożności zastosowania podziału na podsieci

Wady

o brak serwisów typu proxy
o brak NAT

Konfiguracja bridge:

firewall przezroczysty dla warstwy łącza danych

zalety:

o przezroczysty dla warstwy IP i Ethernet
o łatwa integracja z istniejącą infrastrukturą sieciową

Wady:

o brak trybu multi-WAN
o brak obsługi VLANs (Virtual Local Area Networks)
o brak obsługi statycznego i dynamicznego routingu
o brak możliwości klastrowania urządzeń
o brak możliwości tworzenia podsieci
o brak obsługi serwera DHCP
o brak translacji adresów NAT


Stateless firewall (bezstanowy) - nie posiada definicji kierunku przesyłanego ruchu. Każdy pakiet w sieci jest
traktowany jako osobny byt. Trzeba zrobić reguły w obie strony: od PC -> port 53 -> do SRV; PC do <- port 53 <-
od SRV.
Zalety:

Szybkie

Małe wymagania sprzętowe

Wady:

Brak definicji kierunku przesyłanego ruchu

Brak przynależności pakietu do sesji (połączenia)

Analiza jedynie nagłówków protokołów


background image

str. 67

Stateful firewall (stanowy)
Zalety:

Możliwość weryfikacji kierunku przesyłanego ruchu

Przypisywanie pakietów do sesji (połączenia)

Analiza kontekstowa nagłówków protokołów (w połączeniu z informacją o kierunku przesyłania
danych)

Możliwość oferowanie dodatkowych funkcji jak proxy

Wady:

Wolniejszy

Większe wymagania sprzętowe

Wymagana pamięć do przechowywania informacji o połączeniach


Pakiet będący odpowiedzią na żądanie jest jak ruch wychodzący - wchodzi w skład tej samej polityki.

ATAK NA FIREWAL STANOWY


Procedura ustanawiania połączenia TCP three-way handshake:

klient  serwer: SYN; seq = 1000, ack = 0

serwer  klient: SYN/ACK; seq = 2000, ack = 1001 (zwiększony seq od klienta, a jednocześnie następny
spodziewany seq)

klient  serwer: ACK; seq = 1001, ack = 2001

Firewall widzi, kto zainicjował połączenie.

TCP Simultaneous Open
TCP umożliwia jednoczesne otwarcie połączenia przez obie strony, kiedy obie strony chcą wykonać otwieranie
aktywne (w przeciwieństwie do sytuacji, kiedy jedna ze strony otwiera połączenie pasywnie).
Prawdopodobieństwo jest małe, gdyż obie strony muszą wiedzieć, na jaki port po drugiej stronie należy
kierować pakiety. Jest to jednakże całkowicie prawidłowy sposób ustanowienia połączenia TCP, zgodnie z RFC
793.

Na przykład: aplikacja na hoście A używa portu 7777 i łączy się z portem 8888 na hoście B. W tym samym
czasie, aplikacja na hoście B używa portu 8888 i łączy się z portem 7777 na hoście A.

background image

str. 68


TCP Split-Handshake
Jak sama nazwa wskazuje, TCP Split-Handshake łączy cechy three-way handshake z simultaneous open.

1.

Klient wysyła pakiet SYN do serwera, zamierzając ukończyć normalną procedurą trójfazowego
ustanawiania połączenia TCP.

2.

Złośliwy serwer odpowiada pakietem z prawidłowym numerem ack, ale bez ustawionej flagi SYN.

3.

W trzecim kroku serwer wysyła pakiet SYN z nowo wygenerowanym numerem seq i poprawnym
numerem potwierdzenia.

4.

Zamiast jedynie potwierdzić ten pakiet flagą ACK, klient odpowiada pakietem SYN/ACK, ponownie
używając swojego oryginalnego numeru seq.

5.

Złośliwy serwer potwierdza ten pakiet poprzez przesłanie ACK.

Właściwe połączenie zostało więc zestawione tylko w jedną stronę – przeciwną, niż myśli firewall.

TCP Split-Handshake w czterech krokach

Okazuje się, że krok drugi (ACK od serwera do klienta) może nie mieć żadnego wpływu na ustanowienie
połączenia, co pozwala zredukować atak split-handshake do czterech kroków.

Konsekwencje – serwer może przesyłać pakiety korzystając z reguł dla ruchu wychodzącego.


Wyszukiwarka

Podobne podstrony:
notatki od kolosa
Semestr II - Biofizyka - Ściąga - Notatki od Dominiki - Kolokwium - Maj 2011, R4
Semestr II - Biofizyka - Ściąga - Notatki od Dominiki - Kolokwium - Maj 2011, R5
NOTATKI OD ALDONY SPECJALISTA, BHP
andragog. Wujek., pedagogika opiekunczo-wychowawcza, andragogika, notatki od poprzednich roczników
Notatki od Iwony Jurzak
andra, pedagogika opiekunczo-wychowawcza, andragogika, notatki od poprzednich roczników
notatki od kolosa
polityka regionalna notatki od Ani, Wyklady, Polityka regionalna
Makroekonomia notatki od Basi, europeistyka
notatki od Karoliny z TIR HKS, II rok II semestr, BWC, hks
socjologia notatki od pawla
PKM projekt notatki od Skrzypacza(1)
notatki od eweliny, studia UMK, Prawo europejskie (P. Justyńska)
Notatka od Zawadzkiego
Opisówka notatki od Kasi K
zadania - stężenia, Notatki i materiały dodatkowe, Chemia, materiały od Romka
Finanse wykład IV, Rok 1, Semestr 2, Finanse (dr Helena Ogrodnik), Różne (od poprzednich roczników),

więcej podobnych podstron