2010 01 Bezpiecznie jak w chmurach

background image

26

HAKIN9

ATAK

1/2010

H

acker zamknięty w ciemnym pokoju
wykorzystuje swój terminal, aby uzyskać
dostęp do mocy obliczeniowej serwera.

Przełamanie zabezpieczeń nie było proste, ale
opłacalne – zwykły użytkownik nie ma dostępu do
zasobów zgromadzonych w sieci.

Wspomnienia z początku lat 80. XX wieku?

Nie – bliska przyszłość.

Jak działa chmura?

Modny ostatnio termin cloud computing
(przetwarzanie w chmurze) oznacza sposób
udostępniania zasobów i usług przez
Sieć. Idea polega na stworzeniu abstrakcji
prezentującej użytkownikowi wynik działania lub
zasób bez konieczności wnikania w działanie
oprogramowania i sprzętu oraz ich kupowania.
Główne zalety tego rozwiązania to wysoka
skalowalność i rozłożenie kosztów zarządzania
systemem w czasie. Zyskują zarówno użytkownicy
indywidualni (wykorzystując usługi takie jak poczta
przez webmaile), małe firmy, które nie muszą
inwestować w drogi sprzęt i obsługę techniczną
oraz korporacje, które mogą praktycznie
natychmiast uzyskać większą ilość zasobów.

Najlepszym przykładem wykorzystania cloud

computingu jest właśnie dostęp do e-maila przez
interfejs na stronie WWW. Użytkownik, korzystając
z dowolnej przeglądarki i urządzenia (np. telefonu),
ma dostęp do swojego konta. Wszystkie dane
składowane są na dyskach usługodawcy,
a obliczenia wykonują połączone w sieć i

MARCIN KOSEDOWSKI

Z ARTYKUŁU

DOWIESZ SIĘ

czy twoje dane są bezpieczne i

dlaczego nie,

dlaczego uzależnisz się od

bezprzewodowego Internetu,

dlaczego script kiddies muszą

odejść i kto ich zastąpi.

CO POWINIENEŚ

WIEDZIEĆ

mieć podstawową wiedzę o

procesach produkcyjnych,

mieć ogólne pojęcie typowych

atakach.

współpracujące ze sobą serwery. Dzięki temu
komputer użytkownika nie musi mieć dużej mocy
obliczeniowej niezbędnej np. do przefiltrowania
kilku tysięcy e-maili. Serwery zrobią to szybciej
niż telefon. Urządzenie odbiorcze musi tylko
pobrać i wyświetlić dane oraz komunikować się z
serwerem – służy wyłącznie jako terminal.

Na tej samej zasadzie działają arkusze

kalkulacyjne dostępne online i inne aplikacje
wymagające dużej mocy obliczeniowej. Idea nie
jest nowa. Dokładnie tak samo działały pierwsze
komputery dostępne dla zwykłych użytkowników.
Mainframe znajdował się na uczelni lub w
siedzibie firmy, a pracownicy łączyli się z nim
z powolnych, ale stosunkowo tanich terminali.
Zmienił się tylko sposób dostępu do zasobów
– teraz zamiast jednego serwera wykorzystuje
się całą ich sieć, która dla użytkownika jest
jedynie abstrakcyjnym pojęciem, a jej fizyczna
realizacja nie ma znaczenia (stąd słowo cloud;
computing
oznacza oczywiście obliczenia).
Sposób prezentacji danych i wygodę użytkowania
poprawiają nowoczesne techniki, takie jak AJAX.

Płatność za usługę

SaaS (Service as a Software) to model
dystrybucji oprogramowania, w którym programy
działają na serwerze, a użytkownikom – za
pośrednictwem Internetu – udostępniany jest
jedynie wynik działania aplikacji. Płatności zwykle
odbywają się w rocznych lub miesięcznych
cyklach, a w razie potrzeby można dokupić lepszy

Stopień trudności

Bezpiecznie jak

w chmurach

Nie uciekniemy od Cloud computingu. Dostawcy usług

przywiążą nas do siebie, po czym zaopiekują się naszymi

danymi. Nie nastąpi to w tym roku ani kolejnym, ale trend jest

jasny – coraz więcej danych i obliczeń będzie rozproszonych

w Sieci. To się po prostu opłaca.

background image

27

HAKIN9

CLOUD COMPUTING

1/2010

pakiet usług, więcej miejsca na dysku czy
dodatkową moc obliczeniową. Rozwiązanie
to jest wygodne dla dostawcy i odbiorców.
Właściciel oprogramowania nie naraża
się na nielegalne kopiowanie programów,
otrzymuje stałą miesięczną opłatę i
przywiązuje do siebie użytkownika. Klient
nie musi płacić za całe oprogramowanie
od razu, może w dowolnym momencie
zmienić zakres usług (np. jeśli kupił ich
zbyt dużo lub nagle postanowi czasowo
rozszerzyć działalność). Dla małych
firm i osób prywatnych ważna jest także
obsługa serwerów przez doświadczonych
administratorów i lepszy sprzęt. Powierzenie
swoich danych, zwłaszcza jeśli są to
informacje kluczowe dla firmy, wiąże się
jednak z ryzykiem.

Obecnie technologia jest bardzo

młoda i nie ma regulacji w świadczeniu
usług backupu czy dostarczania
oprogramowania wykorzystując cloud
computing,
ani tym bardziej płatności za
efekt, a nie aplikację. Rynek rozwija się
jednak szybciej niż zakładano, a analitycy
z organizacji Gartner twierdzą, że w ciągu
pięciu lat jego wartość przekroczy 150 mld
dolarów. W tym czasie firmy same zadbają
o stworzenie odpowiednich certyfikatów
bezpieczeństwa i edukację użytkowników,
ale dzisiaj nie wszyscy dostrzegają ryzyko.
Mniejsze firmy, które chcą za kilkaset złotych
rocznie mieć dostęp do umieszczonego
w chmurze dysku (a właściwie dysków, w
dodatku często wirtualizowanych – patrz
ramka) nie zawsze wiedzą, że ich dane
mogą zostać wykradzione, chociażby przez
nieuczciwego dostawcę.

Praktycznie nie ma dnia bez doniesień

o wycieku lub utracie danych. Korzystanie
z usług w chmurze oznacza duże zaufanie
do dostawcy. Główną kwestią jest wybór
i zaufanie odpowiedniej firmie
– mówi
Łukasz Żur z firmy Infrastruktura24
oferującej backup z wykorzystaniem cloud
computingu
i modelu SaaS. Wysyłając
dane w chmurę spodziewamy się, że zajmą
się nimi profesjonaliści, których zatrudnienie
byłoby dla nas zbyt dużym kosztem. Z
jednej strony jest to bezpieczne rozwiązanie,
ale z drugiej naraża dane np. na odczytanie
przez nieuczciwego dostawcę. Dane są
co prawda szyfrowane, ale jego sposoby
są różne. Spotkać można zarówno
sytuacje, w których posiadaczem klucza

szyfrującego jest dostawca usługi(!), aż
po zaawansowane sposoby szyfrowania,
w których pełną kontrolę przejmuje
użytkownik. Przechowywanie kopii klucza
przez usługodawcę gwarantuje nam, że nie
zostanie usunięty jeśli np. przechowywany
byłby na tym samym komputerze lokalnym,
który uległ awarii – w takim przypadku
zaszyfrowany backup na nic by się nie
zdał. Nieuczciwy dostawca mógłby jednak
zażądać opłaty za odszyfrowanie danych.

Takie sytuacje mogą zdarzać się właśnie
teraz, kiedy rynek dopiero się kształtuje, a
cloud computing – zwłaszcza w Polsce
– jest stosunkowo rzadko spotykany.

Bezpiecznie jak w banku?

Badania przeprowadzone przez kadrę
naukową Politechniki Wrocławskiej oraz
firmę Supersafe w 2008 roku pokazują, że
zaledwie 8% z 470 przebadanych małych
i średnich firm chroni ważne informacje

Rysunek 1.

Antywirus online wykorzystuje chmurę obliczeniową dostawcy, ale dostaje

pełen dostęp do danych. Ilu użytkowników przeczyta umowę?

Rysunek 2.

Narzędzia do backupu online to niepozorne programy, które dają dostęp

do nowoczesnych centrów danych za stosunkowo małe pieniądze

background image

ATAK

28

HAKIN9 1/2010

CLOUD COMPUTING

29

HAKIN9

1/2010

wykorzystując do tego celu backup
online. 1/3 ze wszystkich firm odczuła
bolesne konsekwencje związane z utratą
cennych informacji. W jednym przypadku
na cztery było to związane z awarią
sprzętu komputerowego lub nieumyślnym
usunięciem danych przez pracownika.

Poza backupem popularne obecnie

rozwiązania wykorzystujące cloud
computing
to dostęp do pakietów
biurowych, poczty i antywirusów. Klasyczne
czytniki zostały prawie całkowicie wyparte
przez webmaile. Thunderbird czy Outlook
potrafią skutecznie spowolnić starsze
komputery, a uruchomienie najnowszego
Office'a jest na nich prawie niemożliwe.
Użytkownik bez zastanowienia wybiera
więc Google Docs, przechowuje pocztę na
serwerze i daje pełen dostęp do swojego
komputera antywirusowi online. Jak
przekonują eksperci, bardzo wiele zależy
w tym przypadku od reputacji firmy, której
powierzamy własne dane. Odbiorcy usługi
nie zawsze wiedzą jak dokładnie działa
technologia chmur obliczeniowych i ufają
w tym względzie dostawcy. Jeden błąd lub
wyciek danych z takiej firmy może mieć
kluczowy wpływ na jej pozycję na rynku,
więc należy zakładać, że duzi dostawcy
będą starali się utrzymać wysoki poziom
bezpieczeństwa. Z drugiej strony, w razie
ewentualnego wycieku danych lub ataku
cyberprzestępców mogą pokusić się o
utajnienie tego faktu przed opinią publiczną.
W podobny sposób działają banki i duże
serwisy internetowe, które starają się
nie informować o ataku, gdyż mogłoby

to doprowadzić do spadku reputacji w
oczach klientów. Należy zdawać sobie
sprawę, że ukrywanie informacji o wycieku
danych lub ataku na klientów i infrastrukturę
ma też wady. Głównym zagrożeniem
jest to, że wielkie firmy będą próbowały
zbagatelizować sprawę zapewniając
użytkowników, że ich dane są bezpieczne.
Podobne sytuacje miały miejsce
wielokrotnie. Wspomnieć można chociażby
ubiegłoroczny wyciek bazy danych 100000
użytkowników serwisu społecznościowego
Wykop.pl. Jego właściciele przez kilka
tygodni nie ujawnili informacji o tym,
że hasła nie są już bezpieczne, a po
znalezieniu sprawcy poinformowały, że
wszystkie ukradzione kopie bazy zostały
odzyskane. Brzmi to niepoważnie, bo w
jaki sposób sprawdzić ile razy skopiowano
dane? Mimo to użytkownicy poczuli się
bezpieczni – do sprawy włączyła się
przecież policja, a administracja wysyłała
komunikaty o postępach. Większość tego
typu sytuacji, zwłaszcza, jeśli dotyczą
ważniejszych danych niż hasło do serwisu
społecznościowego, nigdy nie zostaje
ujawniona.

Uwaga na terminale

Nie tylko zachowanie w sytuacjach
kryzysowych, ale również same ataki będą
analogiczne jak w przypadku banków.
Dużo łatwiej jest zaatakować pojedynczego
klienta niż dobrze chronione centrum
danych, ale różnica w korzyściach jest
równie znacząca. Za kilka lat, kiedy cloud
computing
rozwinie skrzydła, po stronie

użytkownika będziemy mieli netbooka,
tani komputer lub telefon, na których
główne oprogramowanie stanowi system
operacyjny i przeglądarka. Pakiet biurowy,
klienta poczty i inne programy przeniesiono
w chmurę, wykorzystywany jest również
dysk online od dostawcy usług. Nietrudno
domyślić się, co będzie celem ataku.
Wydawałoby się, że system powinien być
w tym przypadku wyjątkowo bezpieczny.
Niestety tak nie jest. W tanich netbookach,
potencjalnie najbardziej potrzebujących
wsparcia chmury, cały czas masowo
instaluje się leciwego już Windowsa
XP. Microsoft zastrzegł nawet, że na
komputerach mobilnych wyposażonych
w mniej niż 1GB RAM-u nie będzie
instalowana Vista ani Windows 7. Dla
zwykłego użytkownika nie jest to najlepsze
rozwiązanie – domyślnie skonfigurowana
Vista zapewni większe bezpieczeństwo
niż standardowy Windows XP bez service
packów
. Jeszcze gorzej może wyglądać
sytuacja gdy Microsoft przestanie wspierać
ten system i nie będzie już wypuszczał łat
na wykryte luki. Bez wsparcia ze strony
Microsoftu użytkownik będzie po prostu
wystawiony na działanie cyberprzestępców.
Dotyczy to również starszych komputerów z
Windowsem 2000 czy 98, które cały czas
można spotkać na starych komputerach.
Na pierwszy rzut oka są oni sami sobie
winni, gdyż nie instalują poprawek i
korzystają ze starego oprogramowania.
Komputer takiego użytkownika może
jednak stać się stacją docelową do
zdobycia cenniejszych zasobów chmury,
które przeznaczone były dla większej
liczby osób. Nietrudno wyobrazić sobie

Rysunek 3.

Z cloud computingiem nieodłącznie wiąże się wirtualizacja. Na zrzucie

Windows XP, SUSE Linux i Windows 7 uruchomione na wspólnej fizycznej maszynie

Rysunek 4.

Chmura obliczeniowa

pozwoli połączyć wszystko: terminale,

słabe komputery i urządzenia o małej

mocy obliczeniowej

background image

ATAK

28

HAKIN9 1/2010

CLOUD COMPUTING

29

HAKIN9

1/2010

złośliwe oprogramowanie, które wykorzysta
podłączony do zaatakowanego komputera
dysk online albo użyje dostępnej mocy
obliczeniowej do łamania haseł. Podobne
ataki były już wykorzystywana na
szeroką skalę (m.in. do złamania haseł
użytkowników eBay'a).

Warto zauważyć również rosnące

znaczenie telefonów komórkowych,
dla których podłączenie do chmury
obliczeniowej daje zupełnie nowe
możliwości. Najlepszym przykładem są
mobilne wersje przeglądarki Opera. W
tym przypadku strona pobierana jest
na serwer, następnie renderuje się ją z
uwzględnieniem możliwości wyświetlacza
klienta, kompresuje i dopiero taką wersję
wysyła na ekran telefonu. Wszystkimi tymi
operacjami zajmują się serwery Opery, a
aplikacja zainstalowana w telefonie działa
jedynie jako klient. Jeszcze dalej poszło
Google. Ustalenie granicy między tym, co
w systemie Android działa lokalnie, a w
chmurze jest bardzo trudne.

Dla kogo chmura?

Niektórzy, w szczególności firmy i instytucje
rządowe, nie mogą pozwolić sobie na

korzystanie z cudzych chmur, więc tworzą
własne. Chmura obliczeniowa jest w
rzeczywistości siecią serwerów, której
budowa dla użytkownika nie powinna mieć
znaczenia. W związku z tym każda firma,
która nie może powierzyć swoich danych
zewnętrznym dostawcom usług ma szanse
na zastosowanie cloud computingu,
którego głównym celem jest przecież
lepsze wykorzystanie zasobów i obniżenie
kosztów. W systemach takich pojawia się
problem z zapanowaniem nad serwerami
czy dyskami sieciowymi – wszystko to jest
przecież wirtualizowane. Pojawiło się już
określenie server sprawl (rozrost serwerów),
oznaczające gwałtowny wzrost liczby
wirtualnych maszyn, którymi coraz trudniej
jest zarządzać. Coraz mniejsze znaczenie
ma też fizyczna ilość komputerów czy
dysków – ważne jest to, co widzi użytkownik.
Administratorzy często uświadamiają sobie
kwestie związane z bezpieczeństwem
dopiero po wdrożeniu wirtualizacji.
Powszechną praktyką jest skupianie się na
dostarczaniu serwerów, a dopiero później
analizowanie, jak je zabezpieczyć –
pisze
Rafał Janus z virtualfocus.pl, jednego z
najlepszych polskich serwisów zajmujących

się wirtualizacją. Stworzenie bezpiecznego
środowiska nie jest więc proste i wymaga
wiedzy. Warto nadmienić, że wirtualizacja
to nie tylko umieszczanie wielu serwerów
na jednej fizycznej maszynie. Pojęcie
to dotyczy również pamięci masowych
(wirtualne dyski), komputerów biurkowych
oraz aplikacji.

Ataki przyszłości

Potencjalnym niebezpieczeństwem mogą
być próby podszycia się pod dostawcę
usług. Obecnie często zdarzają się
ataki phishingowe (podszywanie się
pod banki i serwisy w celu przejęcia
konta użytkownika) oraz fałszowanie
wpisów w serwerach DNS. Atakujący
wykorzystują pośrednią witrynę, która
pobiera przekazane dane, zapisuje je
i natychmiastowo przekierowuje do
prawdziwego serwera. Podobny atak
można by przeprowadzić w odniesieniu
do cloud computingu. Główna idea
to przechwycenie danych wysyłanych
w chmurę. Można założyć, że są one
wartościowe, bo płatny hosting online
będzie używany do przechowywania
stosunkowo ważnych plików. Najprostszym
pomysłem, stosowanym początkowo w
phishingu, byłoby stworzenie własnej usługi
udającej np. Google Docs i zachęcenie

Rysunek 5.

Przykładem zastosowania chmury obliczeniowej są pakiety biurowe

dostępne online

Rysunek 6.

W kwestii bezpieczeństwa

usług wykorzystujących cloud computing

na razie powinniśmy kierować się

rekomendacjami, mówi Karel Oblug z

AVG Technologies

background image

ATAK

30

HAKIN9 1/2010

CLOUD COMPUTING

31

HAKIN9

1/2010

internautów do skorzystania z niej.
Wymaga to jednak własnej infrastruktury.
Zamiast tego lepiej byłoby stworzyć tunel
między użytkownikiem a chmurą Google i
przechwytywać tylko interesujące dane. W
tym przypadku nie wystarczy sama strona
z formularzem logowania, ale konieczne
jest utrzymanie stałego połączenia – dane
są bowiem wymieniane stale, często
asynchronicznie z użyciem AJAX-u, a więc
bez odświeżania strony.

Rozwiązaniem tego problemu (ze strony

atakującego) mogłoby być przykładowo
postawienie serwera proxy i modyfikacja
przeglądarki ofiary tak, aby łączyła się za
jego pośrednictwem. Jeśli transmisja jest
szyfrowana (w przypadku Google Docs
nie jest) należałoby dodatkowo zająć się
jej złamaniem. Oczywiście jest to jedynie
model, a na tej samej zasadzie można
uruchomić znacznie bardziej złożone i
trudniejsze do wykrycia tunele. Atak taki
jest tylko pomysłem, a jego praktyczna
realizacja może być skomplikowana, ale
przechwycenie połączenia jest możliwe.
Możemy spodziewać się, że w przyszłości
pojawią się próby podszycia pod dostawcę
usług przetwarzania w chmurze właśnie w
ten sposób.

Obecnie często spotykanym atakiem

jest SQL injection, czyli wstrzyknięcie
zapytania do bazy danych prosto od strony
klienta. Jeśli serwer źle filtruje zapytania,
zadane chociażby przez przeglądarkę,
może okazać się, że użytkownik zmusi
go do wykonania niebezpiecznych
operacji. Błędy te dotyczą głównie
unikatowych systemów robionych na

konkretne zamówienie lub pisanych
przez niedoświadczonych programistów.
W przypadku dużych firm SQL injection
rzadko ma miejsce. Podobny atak można
by zastosować w przypadku usług
działających w chmurach obliczeniowych.
Analizując wysyłane i otrzymywane przez
przeglądarkę komunikaty, atakujący może
zlokalizować miejsca, w których da się
dokleić dodatkowy kod. W przeciwieństwie
do serwerów stron WWW, które dają co
najwyżej dostęp do bazy danych, chmury
obliczeniowe mogą zostać wykorzystane
do wykonania niebezpiecznego kodu
lub nawet umieszczenia go na stałe na
serwerach.

Gdzie zaatakować?

Atak na jedną maszynę jest zawsze
prostszy niż na całą ich sieć, ale w
przypadku chmur obliczeniowych celem
wcale nie musi być pojedynczy serwer.
Na samodzielnych serwerach atak
polega na znalezieniu świadczonych
przez niego usług, zidentyfikowaniu
oprogramowania, wykryciu jego słabych
punktów i skorzystaniu z programów,
które wykorzystują te dziury. To, czy
oprogramowanie pisane jest samodzielnie
czy ściągnięte z Internetu nie ma w tym
przypadku znaczenia. Podobnie wygląda
atak na tysiące zwykłych komputerów, ale
pomijana jest sprawa wykrywania błędów
w oprogramowaniu. Cyberprzestępcy
zarażają możliwie dużą liczbę komputerów
licząc na to, że w części z nich trafią
się dziurawe aplikacje, które można
wykorzystać. W przypadku chmury

obliczeniowej
sprawa wygląda
zupełnie inaczej.
Usługodawca
dostarcza tylko
interfejs aplikacji,
a cała część
obliczeniowa
znajduje się na
jego serwerach.
Jeśli architektura
oprogramowania
jest dobrze
opracowana, to
część użytkowa
aplikacji powinna

być bezpieczna

i całkowicie odizolowana od dostępu z
zewnątrz.

Pozwala to chronić uruchomioną

aplikację przed próbami wyszukiwania dziur
i zasadniczo czyni je bezpieczniejszymi.
Z drugiej strony programy, które nigdy nie
wychodzą poza serwery dostawcy usługi
mogą posiadać wiele dziur, o których
załatanie nikt nie będzie się specjalnie
martwił. Jeśli w jakiś sposób udałoby
się uzyskać dostęp do wnętrza systemu
(np. poprzez przekupienie pracowników),
atakujący mógłby liczyć na to, że
znalezione przez niego dziury pozostaną
niezauważone przez wiele miesięcy.

Żegnajcie, script kiddies!

Działanie takie wymaga pracy, ale może
być opłacalne. Obecnie małe firmy i osoby
prywatne nie mogą pozwolić sobie na
opiekę doświadczonych administratorów
czy audyt bezpieczeństwa posiadanych
urządzeń. Zwłaszcza zwykli użytkownicy nie
przejmują się specjalnie bezpieczeństwem
swoich danych, aplikacji i sprzętu. Duże
firmy sprzedające swoje usługi i zasoby
w ramach modelu SaaS przywiązują
znacznie większą wagę do bezpieczeństwa.
W dodatku będzie ona rosła wraz z
rozwojem rynku i konkurencji. Trudność w
dotarciu do atakowanego oprogramowania
i wykryciu luk oraz niezbędne kwalifikacje
doprowadzą do wzrostu cen exploitów
oraz informacji o lukach dnia zerowego

– ostrzegają eksperci. Atak na centrum
danych czy chmury serwerów nie będzie
już mógł być wykonany przez amatorów,
którzy przypadkiem znaleźli w sieci
odpowiednie programy (script kiddies),
ale stanie się domeną grup, które będą
w stanie zainwestować we własnych
programistów, czy właśnie przekupienie
pracowników atakowanej firmy w celu
wyciągnięcia programu na zewnątrz.
Większość osób mogłaby być z tego
powodu zadowolona – skończą się ataki
dla zabawy albo w celu pochwalenia
się znajomym – ale przyszłość nie jest
aż tak różowa. Same serwerownie są z
oczywistych względów, chociażby opieki
administratora, bezpieczniejsze niż typowy
domowy czy biurowy pecet, ale groźne
mogą okazać się aplikacje używane w
cloud computingu. Kontrolę nad atakami
na chmury obliczeniowe przejmie mafia

Rysunek 7.

Lokalizacja 38 centrów danych firmy Google. Źródło:

wayfaring.com/

background image

ATAK

30

HAKIN9 1/2010

CLOUD COMPUTING

31

HAKIN9

1/2010

lub rządu państw przygotowujących się
do ceberwojny. Powrót do czasów grup
ganianych hackerów byłby najlepszą
możliwa perspektywą, bo nikt rozsądny
nie powinien zakładać, że wraz z
przeniesieniem większości usług w chmury
znikną problemy z atakami na dane.
Przeniosą się one po prostu na wyższy,
niedostępny dla większości osób, poziom.

Po drugiej stronie, poza bezpieczną

chmurą, mamy miliony zwykłych
użytkowników, którzy korzystają z tysięcy
różnych wyszukiwarek na setkach systemów
operacyjnych. Przenosząc swoje programy
do Sieci prawie całkowicie zrzucają oni
odpowiedzialność za swoje zasoby na
administratorów i dostawców usług. W
takiej sytuacji, wbrew logice, świadomość
dotycząca kwestii bezpieczeństwa może się
wśród nich zmniejszyć. Ciągłe korzystanie
z usług udostępnianych za pośrednictwem
Sieci, w tym ochrony antywirusowej, może
doprowadzić do zaniku świadomości
zagrożeń płynących z Internetu i większemu
zaufaniu do programów uruchamianych po
stronie serwera. Zmiany te nie będą jednak
znaczące.

Za ochronę takich użytkowników

mogliby wziąć się producenci
oprogramowania instalowanego na
lokalnych maszynach – w przyszłości
będą to głównie przeglądarki. Standardem
powinna stać się na przykład praca
każdej karty w osobnym procesie,
tak jak ma to miejsce w Google
Chrome. Z drugiej strony dostawcy
usług mogą nie dopuszczać do Sieci
niektórych użytkowników, korzystających
z nieaktualnego i niebezpiecznego
oprogramowania. Obecnie, aby uzyskać
dostęp do części zasobów, zwłaszcza
związanych z backupem danych, należy
skorzystać z oprogramowania klienckiego
dostarczonego przez dostawcę usługi.
Naturalnym wydaje się, że nie wszyscy
będą dopuszczali do swoich sieci stare
i niebezpieczne przeglądarki lub nie
wszystkie będą wspierane. Wskazuje na to
aktualne podejście banków, które działają
podobnie jak firmy związane z cloud
computingiem
.

Powrót do korzeni

Zmiany w nastawieniu do bezpieczeństwa
mogą oznaczać powrót do początków

hakingu. Kiedy pojawili się źli hakerzy,
łamanie zabezpieczeń nie polegało na
pobraniu z sieci gotowych skryptów albo
kupnie magazynu, otwarciu go na dziale
Atak i wykorzystaniu opisanych programów.
Musiały one zostać wymyślone. Celem
osób przełamujących zabezpieczenia był
darmowy dostęp do telefonu, zasobów
mainframe'u albo po prostu chęć
udowodnienia innym, że system nie jest
bezpieczny. Włamania nie były aktem
wandalizmu, ale służyły konkretnym celom.
Oczywiście, wielkie firmy były okradane, ale
właściwie tylko one i konkurenci hakerów
stawały się ofiarami.

Później, wraz z upowszechnieniem się

Internetu, przyszła pora na przestępców
czyhających na nieświadomych
internautów, którzy w dalszym ciągu dają
się nabierać na próby wyłudzenia haseł,
zostawiają domyślne hasła i instalują
wszystko co tylko trafi im w ręce. Z drugiej
strony łatwość z jaką można uzyskać
narzędzia, ułatwiając włamania sprzyja
wszystkim internetowym wandalom.
Wykorzystanie ściągniętego z sieci exploita
w celu zrobienia żartu koledze może być
zabawne, ale ataki przeprowadzone przez
osoby niemające pojęcia o tym, co robi
pobrany z sieci program polegają zwykle
na bezsensownym zniszczeniu cudzej bazy
danych albo danych z serwera FTP.

Jeśli cloud computing rozwinie się do

poziomu, w którym korzystać będziemy
głównie z przeglądarki, to możemy
spodziewać się ponownej profesjonalizacji
hakingu. Znikną nie tylko firmowe serwery
WWW i FTP, ale też większość lokalnego
oprogramowania, którego dziury są
częstą przyczyną ataków na zwykłych
użytkowników.

Uzależnieni od dostawcy

Problemem groźniejszym od nawet
najlepszych hakerów może stać się
nagły brak dostępu do Sieci. Użytkownicy
indywidualni rzadko kiedy korzystają z
komputera niepodłączonego do Internetu,
a trend do ciągłego bycia online będzie
się zwiększał. Jeśli większość usług,
programów i danych przeniesiemy w
dostępne tylko przez Internet chmury
obliczeniowe, to odłączenie od Sieci może
oznaczać katastrofę. W ciągu najbliższych
kilku lat, dzięki lepszemu wykorzystaniu
GSM-u i pojawieniu się WiMAX
wzrośnie dostęp do bezprzewodowego
Internetu, ale cały czas będą pojawiały
się miejsca, w których znajdziemy się
poza zasięgiem. Nawet jeśli cały świat
zostanie pokryty sygnałem, to mogą
zdarzyć się awarie, które odetną od Sieci
setki osób. Ich komputery staną się w
tej sytuacji praktycznie bezużyteczne.

Bezpieczeństwo? Jeszcze nie teraz

Bezpieczeństwo danych przechowywanych w chmurach ma, przynajmniej na razie, małe
znaczenie dla klientów. Rozmowa z Karlem Oblukiem, dyrektorem ds.Technologii w AVG
Technologies, przeprowadzona dla magazynu hakin9.

Czy klienci ufają usługom w chmurach, czy preferują lokalne rozwiązania?

Wydaje mi się, że wielu użytkowników, którzy przechowują swoje dane online nie do końca
uświadamia sobie implikacje związane z kwestiami bezpieczeństwa. Ufają dostawcom tych
usług, a ich największym zmartwieniem jest to, by czas potrzebny na załadowanie plików
(backup) był jak najkrótszy. Wraz ze wzrastającą ilością funkcjonalności oferowanych przez
usługodawców oraz stale zwiększającą się przepustowością łącz, rozwiązania tego typu mogą
zyskiwać na popularności.

Jak cloud computing zmieni podejście zwykłego użytkownika do kwestii

bezpieczeństwa?

Z uwagi na fakt, iż zabezpieczenie danych tego typu jest bardzo skomplikowane, większość
użytkowników zaufa w tej kwestii dostawcom usług backupu, opierając się na rekomendacjach
i recenzjach. Podsumowując, nie uważam, by chmury obliczeniowe miały spowodować
diametralną zmianę w podejściu zwykłego użytkownika do kwestii bezpieczeństwa.

W jaki sposób chronione są dane przechowywane w chmurach?

Sposób, w jaki chronione są dane, w dużej mierze zależy od usługodawcy. Od prostego
kodowania z kluczem, w posiadaniu którego jest dostawca usługi, po systemy bezpieczeństwa
wykorzystujące złożone mechanizmy kodowania, a jedynym posiadaczem klucza jest sam
użytkownik.

background image

ATAK

32

HAKIN9 1/2010

CLOUD COMPUTING

33

HAKIN9

1/2010

Inaczej wygląda sprawa firm, zwłaszcza
klasycznych, nastawionych na produkcję.
W ich przypadku dostęp do zewnętrznej
sieci nie jest konieczny przez cały czas,
a lokalne chmury obliczeniowe mogą
działać samodzielnie. Zadania takie jak
kontrola produkcji, logowanie wejść i wyjść
pracowników czy obsługa wewnętrznej
poczty i drukarek nie muszą wymagać
dostępu do Internetu. Z drugiej strony
zadania niemające bezpośredniego
wpływu na produkcję (backup, zewnętrzny
serwer poczty, hosting stron internetowych)
mogą zostać przeniesione na zewnątrz.
Posiadanie własnej chmury zapewni
oczywiście większe bezpieczeństwo i
konieczną niezależność od dostawców

Internetu, ale ogranicza podstawową zaletę
cloud computingu – skalowalność.

W obydwu przypadkach mamy

jednak do czynienia z uzależnieniem się
od dostawcy Internetu. W Polsce mamy
dostęp do kilku operatorów, co daje
możliwość wyboru i marginalizuje ryzyko
nieuczciwych operacji, ale nie wszędzie
tak jest. W krajach, w których działa tylko
jeden dostawca technologii GSM, może
on dyktować ceny, gdyż wie, że klienci
i tak zapłacą za dostęp do Sieci. Jeśli
dodatkowo operator jest kontrolowany przez
rząd, jak np. w Zjednoczonych Emiratach
Arabskich, mogą pojawić się próby kontroli
tego, co robią użytkownicy lub nawet
odcięcia ich od Internetu, a w praktyce

również komputerów. Znów dochodzimy do
punktu, w którym musimy zaufać kolejnej
firmie.

Dla największych firm dostarczających

usługi w modelu cloud computing
znaczenie ma również fizyczna
lokalizacja serwerowni. Jeśli usługi mają
być świadczone na całym świecie, to
opóźnienia związane z transferem danych
do serwera, znajdującego się tysiące
kilometrów od użytkownika, znacząco
wpłyną na szybkość transmisji. W tym
przypadku ważne jest rozmieszczenie
serwerów w okolicach, z których łączy
się najwięcej osób. Sprawa nie jest
jednak tak prosta. Google podaje, że
stworzenie jednego data center kosztuje
ich około 600 milionów dolarów, a roczne
utrzymanie wszystkich centrów danych
to wydatek rzędu 3 miliardów dolarów.
Duży wpływ na te wydatki ma lokalizacja
data centers. Wybierane są takie miejsca,
które zapewniają dostęp do taniej, a
ostatnio także zielonej, energii. Ważny
jest dostęp do rzek i jezior, których woda
jest używana do chłodzenia serwerowni
oraz otoczenie zapewniające prywatność
i bezpieczeństwo. Pod uwagę brane
są również podatki w danym kraju oraz
odległość do już istniejących centrów
danych. Dzięki takiej optymalizacji możemy
uzyskać odpowiedź na najbardziej
złożone zapytanie do wyszukiwarki po
dziesiątych częściach sekundy, a w
czasie wpisywania zapytania na bieżąco
dostajemy podpowiedzi. Każde wciśnięcie
klawisza zmusza do pracy kilkadziesiąt
serwerów Google, znajdujących się w
różnych częściach świata, a zużywana
przez nie energia wystarcza podobno do
zagotowania 100 ml (połowy szklanki) wody.

Zapłacimy za bezpieczne

chmury!

Kadra kierownicza w dziedzinie IT oczekuje
ochrony danych i aplikacji działających
w chmurze. Twierdzi tak 89% badanych,
co pokazują badania przeprowadzone
w październiku 2009 roku przez Trend
Micro, firmę dostarczającą rozwiązania
zabezpieczenia infrastruktury udostępnianej
przez Internet (security for-the-cloud).
Niestety tylko 40% ankietowanych bierze
pod uwagę wyłącznie bezpieczne
rozwiązania. Dla pozostałych ważniejsza

Chmura w oczach klienta

O tym, jak przechowywanie i przetwarzanie informacji w chmurach obliczeniowych postrzegane
jest przez klientów indywidualnych i biznesowych mówi Dorota Oviedo, analityk rynku ICT z firmy
Frost & Sullivan (www.frost.com).

Chmury obliczeniowe i dystrybucja oprogramowania w modelu SaaS to dziś nie tylko

modne hasła sektora ICT, ale wyraźne trendy rynkowe. Najwięksi gracze inwestują obecnie
w infrastruktury bazujące na chmurach obliczeniowych. Liderzy rynku telekomunikacji
zunifikowanej i pracy grupowej również propagują SaaS, co widać na przykładzie Cisco i
WebEx, IBM i LotusLive czy Microsoft i usług z rodziny BPOS. Ponadto popularność mediów
społecznościowych i poczty elektronicznej typu Gmail wśród użytkowników indywidualnych
wspomaga akceptację chmur.

Co ciekawe, zainteresowanie tymi usługami wykazują zarówno małe firmy, jak i

korporacje, które coraz chętniej oddają obowiązek administracji, zapewnienia dostępności i
bezpieczeństwa rozwiązania w ręce dostawcy usług, co pozwala im skoncentrować się na
rozwoju głównej działalności.

Spowolnienie gospodarki światowej zdecydowanie napędza ten rynek usług. Obecnie firmy

preferują rozwiązania oparte na wydatkach bieżących. Dla najmniejszych firm duże znaczenia
ma również poziom zaawansowania współczesnych systemów komunikacji biznesowej i brak
wykwalifikowanego personelu do zarządzania tymi systemami. W przypadku dużych firm
elastyczność usług komunikacyjnych pozwala na wypróbowanie dostępnych narzędzi. Chociaż
utrata kontroli i bezpieczeństwo są często wymieniane jako główne zagrożenie dla rozwoju
rynku, reputacja dostawcy usług, umowy SLA (o standard usługi) oraz przykłady wdrożeń
niwelują obawy potencjalnych klientów. W praktyce przeważają korzyści cenowe, szczególnie w
przypadku sektora małych firm.

Wirtualizacja

Wirtualizacja polega na programowym lub sprzętowym oddzieleniu warstwy zasobów
od aplikacji, które z nich korzystają. W ten sposób tworzy się abstrakcyjną warstwę, która
przysłania dostępne zasoby. Popularnym rozwiązaniem jest instalowanie wirtualnych systemów
operacyjnych. Tak zainstalowany system można zapisać i przenieść na inny komputer
wyposażony w oprogramowanie do wirtualizacji. Zajmuje to tyle, ile potrzeba na skopiowanie
plików do nowej lokalizacji. Na jednym fizycznym komputerze może znajdować się wiele
wirtualnych systemów operacyjnych.

Dzięki temu rozwiązaniu każdy z nich może pracować niezależnie i obsługiwać tylko jedną

aplikację, co pozwala na ochronę np. systemu z serwerem poczty, jeśli zaatakowany zostanie
system z serwerem FTP. Wirtualizacja pozwala na lepsze wykorzystanie zasobów – wiele mało
obciążonych serwerów może znajdować się na jednej fizycznej maszynie, a jeśli któryś z nich
zwiększy zapotrzebowanie na zasoby można go przenieść na inny komputer. Wirtualizowane
mogą być również dyski twarde (zarówno poprzez łączenie w macierz RAID, jak i dzielenie
fizycznych nośników), aplikacje czy procesory.

background image

ATAK

32

HAKIN9 1/2010

CLOUD COMPUTING

33

HAKIN9

1/2010

jest skalowalność i obniżenie kosztów.
Takie podejście może mieć związek z
brakiem dostatecznej wiedzy na temat
bezpieczeństwa – co martwi – lub z
chłodną kalkulacją wykazującą, że ryzyko
utraty danych rekompensuje potencjalne
zyski. Z drugiej strony 61% pytanych nie
jest jeszcze gotowych do przeniesienia
infrastruktury w chmury, ale ma zamiar
skorzystać z tej technologii kiedy będzie
miała pewność, że jest ona bezpieczna.

Dostawcy oprogramowania, służącego

do tworzenia chmur obliczeniowych,
powinni więc zwrócić szczególną uwagę
na stworzenie bezpiecznych rozwiązań
i sposobu ich certyfikacji, gdyż tego
oczekują ich potencjalni klienci. Obecnie
porównanie konkurencyjnych systemów
jest trudne, a sami dostawcy podkreślają,
że klienci bazują głównie na zaufaniu i
poleceniach danej firmy. Uniwersalny
system certyfikatów mógłby rozwiązać ten
problem. Korzyści odnieśliby zarówno sami
użytkownicy, którzy mieliby ułatwiony wybór,
jak i uczciwe, pewne firmy.

Dostawcy na celowniku

Atak może dotyczyć usługodawcy, a nie
tylko użytkowników cloud computing.
Nietrudno wyobrazić sobie sytuację, w
której użytkownicy, zwłaszcza prywatni,
mogliby próbować uzyskać większą ilość
zasobów niż jest dla nich przeznaczone.
Warto więc zwrócić uwagę na
bezpieczeństwo samych serwerowni i
działających na nich aplikacji. Podstawowe
niebezpieczeństwa są takie jak w
przypadku innych usług tego typu (fizyczne
uszkodzenia, błędy pracowników), więc
doświadczeni administratorzy powinni
sobie z nimi poradzić. Dochodzą do
tego ataki z zewnątrz (np. DDoS) i próby
uruchomienia niezaufanego kodu przez
użytkowników.

Niezaprzeczalną zaletą chmury

obliczeniowej, również pod względem
bezpieczeństwa, jest jej rozproszenie.
Ataki Dos i DDoS, polegających
na zalaniu serwera falą zapytań i
wyczerpania zasobów, grożą większości
scentralizowanych usług. Obrona przed
tysiącami fałszywych zapytań to w
gruncie rzeczy filtrowanie ich przez serwer.
W przypadku chmury obliczeniowej
obciążenie dzielone jest na wiele maszyn, a

ryzyko wyczerpania zasobów pojedynczego
komputera spada.

W chmurze ułatwiona jest

również fizyczna ochrona danych. W
profesjonalnych rozwiązaniach dane
przechowywane są w wielu serwerowniach,
aby zapewnić szybki dostęp z każdego
miejsca na świecie. Serwery są więc
fizycznie oddalone od siebie, co chroni
przed pożarem w serwerowni, awarią
pojedynczej maszyny czy pomyłkami
pracowników.

W przypadku firm dostarczających

usługi w modelu cloud computing duże
znaczenie ma wirtualizacja. Nikogo
nie trzeba przekonywać o tym, że
fizyczne serwery są wykorzystywane w
większym stopniu, jeśli umieści się na
nich wiele maszyn wirtualnych. Tak jak
w innych przedsiębiorstwach, również
w firmach wykorzystujących chmurę,
pozwala to redukować koszty i zwiększyć
wykorzystanie serwerów, ale nie tylko.
Odchodzimy od modelu, w którym na
serwerze było kilka różnych aplikacji, a
przechodzimy do rozwiązania, w którym
na jednym wirtualnym serwerze jest
jedna aplikacja. W konsekwencji liczba
maszyn wirtualnych drastycznie rośnie,
wzrasta liczba wirtualnych aplikacji, a tym
wszystkim trzeba jakoś zarządzać
– mówił
Rafał Kwaśny z firmy Novell, podczas
debaty przeprowadzonej przez serwis
VirtualFocus. Rozproszenie aplikacji na
samodzielne maszyny wirtualne pozwala
chronić wszystkich klientów przed atakiem
na pojedyncze aplikacje. W systemach
niewykorzystujących wirtualizacji lub
łączących wiele usług na jednej maszynie
wirtualnej istnieje ryzyko przejęcia kontroli
nad chronionymi aplikacjami i danymi
poprzez atak na mniej bezpieczne
rozwiązania działające na tej samej
maszynie. Układ jeden system – jedna
aplikacja znacząco zmniejsza to ryzyko.
Jeśli atakujący przejmie kontrolę nad
niezabezpieczonym programem, to w
najlepszym przypadku dostanie się tylko do
zwirtualizowanego systemu, na którym nie
ma żadnych znaczących danych.

Podsumowanie

Chmura obliczeniowa jest pojęciem na
tyle abstrakcyjnym, że problemem może
być prawna regulacja tego typu usług. Już

teraz giganci Internetu muszą brać pod
uwagę, że nie wszędzie mogą oferować
swoje usługi. Niektóre kraje nie pozwalają
na stosowanie narzędzi kryptograficznych
przez użytkowników cywilnych, w innych
mocno ograniczony jest dostęp do
materiałów o treściach erotycznych lub
możliwości przechowywania danych
osobowych. Część firm dostosowuje się
do międzynarodowych i lokalnych regulacji
– np. w YouTube nie obejrzymy filmów,
których nie dopuszcza prawo danego
kraju. Wraz z rozwojem cloud computingu
pojawią się nowe problemy. Czy dokument
przetwarzany na niemieckim serwerze,
ale przez użytkownika z Polski podlega
polskiemu prawu czy niemieckiemu? A co,
jeśli wykorzystywanych jest jednocześnie
kilkadziesiąt serwerów znajdujących się
w centrach danych w różnych krajach?
A jeżeli system operacyjny użytkownika
jest wirtualizowany? Jeśli taki użytkownik
popełni przestępstwo, to stwierdzenie,
który z serwerów znajdujących się w
chmurze wykonał nielegalne operacje
jest niemożliwy. Nawet jeśli część krajów
będzie regulować takie sytuacje, to z
pewnością nie dotyczy to wszystkich
państw. W dodatku prawa te mogą być
sprzeczne.

Specjaliści z firm dostarczających

rozwiązania do cloud computingu
nie przewidują drastycznych zmian
w podejściu zwykłych użytkowników
do spraw bezpieczeństwa. Jednak
przeniesienie większości oprogramowania
w dobrze chronione chmury obliczeniowe,
będące w rzeczywistości profesjonalnie
obsługiwanymi serwerowniami, pozwoli
zmniejszyć ryzyko ataku na domowe
komputery czy serwery w małych firmach.
Powód jest prosty – znajdzie się tam
tak mała ilość oprogramowania, że cały
obowiązek ochrony spadnie na dostawców
usług. Wybór klienta ograniczy się tylko
do wyboru zaufanej firmy dostarczającej
usługę. Zły wybór okaże się tragiczny w
skutkach, bo ilość danych przekazanych w
chmurę będzie stale rosła.

Marcin Kosedowski

Dziennikarz publikujący m.in. w magazynach Internet

Maker i PC World. Interesuje się anonimowością,

spamem i kryptografią. Obecnie kończy

studia na wydziale Elektroniki i Telekomunikacji

Politechniki Wrocławskiej. Kontakt z autorem:

marcin@kosedowski.com.


Wyszukiwarka

Podobne podstrony:
2010 01 Bezpieczeństwo informacji
2010 01 Prywatność poczty elektronicznej [Bezpieczenstwo]
2010-03-01, bezpieczeństwo publiczne
2010 01 Mechanizm haseł jednorazowych [Bezpieczenstwo]
Odwodnienie (dehydratatio) (17 12 2010 i 7 01 2011)
laboratorium artykul 2010 01 28 Nieznany
2010 01 22 21;50;57
2010 01 Wykład 6 Obwód LC drgania swobodne (2)
2010 01 02, str 106 110
2010 01 28 KWP Gorzów Regulamin
2010 01 02, str 100 105
2010 01 02, str 083 086
2010 01 Mechanik Pojazdow Samochodowych Teoretyczny
2010 01 02, str 053
2010.01.10. Parazytologia, WSPiA, 1 ROK, Semestr 1, Biologia i Mikrobiologia
2010.01.08. Bakteriologia, WSPiA, 1 ROK, Semestr 1, Biologia i Mikrobiologia
scenariusz 01 2006 jak nam mija czas, Konspekty
01 Bezpieczeństwo użytkowania urządzeń elektrycznych
2010 01 Zabawa w SSHowanego [Administracja]

więcej podobnych podstron