Z
godnie z prawem Moore’a b´dà-
cym wynikiem obserwacji, ˝e
szybkoÊç komputerów i pojem-
noÊç pami´ci podwajajà si´ co 18 miesi´-
cy, wspó∏czeÊnie produkowane pecety
liczà tak szybko jak najbardziej zaawan-
sowane maszyny klasy mainframe z
ubieg∏ego dziesi´ciolecia. Przynajmniej
dopóty, dopóki nie spróbujemy uzyskaç
rzeczywiÊcie poprawnych wyników.
Z prawa Moore’a wynika bowiem jeden
przykry wniosek. O ile poziom nieza-
wodnoÊci maszyn wykonujàcych obli-
czenia z szybkoÊcià kilku milionów ope-
racji na sekund´ by∏ wystarczajàcy, o tyle
zaczyna si´ on gwa∏townie obni˝aç, gdy
procesory komputerów taktowane sà
z cz´stotliwoÊcià bliskà gigahercowi lub
go przekraczajàcà. Prawdopodobieƒstwo
pomy∏ki raz na miliard wydaje si´ nie-
z∏ym rezultatem, dopóki nie wykonuje
si´ obliczeƒ matematycznych.
Wi´kszoÊç nowoczesnych urzàdzeƒ
cyfrowych charakteryzuje si´ nawet
mniejszym prawdopodobieƒstwem po-
pe∏nienia b∏´du. Dyski twarde mylà je-
den bit informacji na 10, a nawet 100 bln
bitów podczas odczytu. Wolniejsze CD-
ROM-y robià b∏àd raz na bilion. Dla su-
perszybkich nap´dów przenoszàcych
300 mln bitów na sekund´ takie wspó∏-
czynniki oznaczajà pojawienie si´ b∏´du
co kilka dni nieustannej pracy. Wype∏-
niony danymi CD-ROM nara˝ony jest
na wystàpienie nie zauwa˝onego b∏´du
raz na 200 instalacji oprogramowania.
Jeszcze kilka lat temu, gdy dyski twar-
de osiàga∏y maksymalnà szybkoÊç trans-
feru rz´du 40 mln bitów na sekund´, nie
zauwa˝onego b∏´du nale˝a∏o si´ spodzie-
waç nie cz´Êciej ni˝ raz na miesiàc.
Edytory tekstu i arkusze kalkulacyjne
zapisujà informacj´ na dysku z regu∏y
kilka razy w ciàgu minuty. Czynià to
porcjami liczàcymi milion bitów, tak
wi´c b∏àd pojawia si´ przeci´tnie raz na
kilka lat pracy. Strumienie danych
dêwi´kowych i wideo wymagajà prze-
pustowoÊci rz´du dziesiàtków milio-
nów bitów na sekund´ podczas sesji
trwajàcych minuty, a nawet godziny.
Na dodatek wspó∏czesne techniki kom-
presji powodujà, ˝e pojedynczy b∏´dny
bit przyczynia si´ niekiedy do „zepsu-
cia” informacji ukrytej w milionach in-
nych bitów.
èle odczytane bity z pliku z danymi
mogà byç wzgl´dnie nieszkodliwe (do-
póki b∏´dne dane nie zostanà zapisane
na dysku). B∏´dy wewnàtrz programu
lub systemu operacyjnego bywajà przy-
czynà niebezpiecznych awarii. Nie wy-
kryte pomy∏ki w katalogu dysku mogà
zablokowaç dost´p do ca∏ej informacji.
Proporcjonalnie do wzrostu iloÊci in-
formacji przechowywanych na dyskach
wzrasta ryzyko b∏´du. Nowe twarde
dyski produkcji IBM do komputerów
przenoÊnych o pojemnoÊci 25 GB mogà
przechowywaç dane równowa˝ne czte-
rem filmom pe∏nometra˝owym. Ozna-
cza to, ˝e nale˝y spodziewaç si´ jednego
nie zauwa˝onego b∏´du na 50 cyklów
odczytu ca∏ego dysku. Przy pojemnoÊci
750 GB (osiàgniemy takie za pi´ç lat, je-
Êli utrzyma si´ obecna tendencja w pro-
dukcji pami´ci masowych), dzisiejszy
poziom b∏´dów oznacza, ˝e nawet jed-
norazowy zapis i odczyt dysku mo˝e
byç obarczony pomy∏kà – czyli mo˝e si´
to zdarzyç nawet podczas formatowa-
nia dysku, czynnoÊci niezb´dnej do
przygotowania go do pracy.
In˝ynierowie wiedzà, jak poradziç so-
bie z problemami tego rodzaju. Od lat
robili to na komputerach mainframe
i serwerach baz danych, stosujàc proce-
dury weryfikacji i automatycznej korek-
cji b∏´dów. Weryfikacja, polegajàca na
wydestylowaniu z pliku „podpisu”
o wielkoÊci kilku bitów, umo˝liwia
stwierdzenie, czy jakakolwiek informa-
cja przepad∏a. Procedury naprawcze,
opierajàce si´ na dodaniu dodatkowych
bitów do ka˝dego bajta danych, pozwa-
lajà odzyskaç oryginalne informacje,
gdy nawet 10% i wi´cej danych zosta∏o
zniszczonych. Obie te metody, wraz
z korekcjà b∏´dów zapewnianà ju˝ przez
hardware dysków, umo˝liwiajà popra-
w´ bezpieczeƒstwa danych miliard ra-
zy i wi´cej. Opisane procedury uznano
za zbyt kosztowne i skomplikowane, by
stosowaç je w komputerach osobistych.
Gdy jednak cena dysków twardych spa-
da, a koszty pomy∏ek rosnà, kalkulacja
op∏acalnoÊci mo˝e si´ zmieniç.
RzeczywiÊcie, Apple Computer ju˝
rozwa˝a zastosowanie pami´ci z proce-
durami naprawczymi w kolejnej genera-
cji swych komputerów, mimo ˝e poje-
dynczy bit informacji w pami´ci RAM
mo˝e byç uszkodzony raz na wiele mi-
liardów godzin pracy (zwykle na sku-
tek promieniowania kosmicznego). Jed-
nak coraz wi´ksze zapotrzebowanie na
RAM zainstalowanà w systemie oznacza
wzrost ryzyka. Statystyki pochodzàce
z Micron Technology dowodzà, ˝e kom-
puter wyposa˝ony w 16 MB pami´ci
RAM doÊwiadczy b∏´du raz na 15 lat.
Lecz obecnie komputery wyposa˝a si´
w 128 MB i wi´cej RAM, co oznacza
prawdopodobieƒstwo wystàpienia b∏´-
du co dwa lata, jeÊli eksploatacja przebie-
gaç b´dzie w idealnych warunkach. (W
du˝ej firmie wyposa˝onej w sieç 10 tys.
pecetów taki wspó∏czynnik b∏´dów ozna-
cza oko∏o 12 pomy∏ek w ciàgu dnia.) Gdy
b∏´dy w RAM sà skutkiem promienio-
wania kosmicznego, cz´stotliwoÊç ich
wyst´powania zmienia si´ wraz z wyso-
koÊcià: komputery w Denver b´dà si´
myliç kilka razy cz´Êciej ni˝ maszyny
w San Francisco. U˝ytkujàcy komputery
podczas podró˝y samolotem mogà spo-
dziewaç si´ nawet dwudziestokrotnego
wzrostu prawdopodobieƒstwa pomy∏ki.
Stosowane obecnie konstrukcje magi-
strali systemowych i okablowania w zwy-
k∏ych komputerach nie wykluczajà utra-
ty danych. Równie˝ procesor nie jest
odporny na dzia∏anie promieniowania
kosmicznego. Zamiast próbowaç wyeli-
minowaç b∏´dy, niektóre systemy kom-
puterowe dostosowujà si´ do ˝ycia z ni-
mi. Weêmy Internet. Linia kategorii T1,
archetypiczne ju˝ superszybkie po∏àcze-
nie cyfrowe, dopuszcza jednà pomy∏k´
na milion bitów. Oznacza to prawdopo-
dobieƒstwo wystàpienia trzech b∏´dów
podczas ka˝dych 2 s po∏àczenia, a mo˝e
nawet dziesiàtki tysi´cy na sekund´
w skali ca∏ego Internetu. Ka˝dy jednak
pakiet danych w´drujàcych wzd∏u˝ linii
T1 podlega weryfikacji, która dopuszcza
przegapienie zaledwie jednego na 65 536
b∏´dnych pakietów, czyli prawdopodo-
bieƒstwo pomy∏ki raz na 12 godzin. Po-
nadto dane czeka dodatkowa weryfikacja
u kresu w´drówki, odleg∏ego nawet o tu-
zin i wi´cej w´z∏ów. Gdy system w∏àczo-
ny do Internetu wykryje b∏´dne lub bra-
kujàce pakiety (w´z∏y potrafià, gdy majà
„z∏y dzieƒ”, psuç nawet 30% ruchu),
wówczas uruchamia starannie opraco-
wany protokó∏, który domaga si´ ponow-
nego wys∏ania brakujàcych bitów i
umieszcza je we w∏aÊciwym miejscu.
Wyda si´ nam dziwne, gdy w kompu-
terach na biurkach lub w opiekaczach do
chleba zacznie si´ stosowaç techniki wy-
nalezione dla wielkich koncernów i stra-
tegicznych operacji wojskowych. Warto
jednak zdaç sobie spraw´, ˝e odpowied-
nio wyposa˝ona osoba dysponuje dziÊ
wi´kszà mocà obliczeniowà ni˝ ca∏y sys-
tem kontroli lotów Stanów Zjednoczo-
nych 15 lat temu. Gdy niezawodnoÊç
sprz´tu dorówna rosnàcej mocy oblicze-
niowej procesorów, to byç mo˝e powsta-
nà równie˝ systemy operacyjne, które nie
b´dà „padaç” co kilka dni lub tygodni.
Paul Wallich
Â
WIAT
N
AUKI
Grudzieƒ 1999 31
Pomy∏ki to rzecz normalna
CYBERÂWIAT