Tabela 9.3. Kodowanie RLL 2,7 danych na zmiany strumienia
Wartość bitu danych |
Kodowanie strumienia |
10 |
NTNN |
11 |
TNNN |
000 |
NNNTNN |
010 |
TNNTNN |
011 |
NNTNNN |
0010 |
NNTNNTNN |
0011 |
NNNNTNNN |
7" = Zmiana strumienia
N = Brak zmiany
Ograniczenie minimalnej odległości pomiędzy przejściami strumienia jest niezbędne z powodu ograniczonej rozdzielczości głowicy i nośnika magnetycznego. Ograniczenie maksymalnej odległości między dwoma zmianami strumienia zapewnia synchronizację zegara w urządzeniach.
Po zapoznaniu się z tabelą 9.3 można zauważyć, że zakodowanie wartości bitowej takiej jak 0000000 lb jest niemożliwe, ponieważ brak jest odpowiedniej kombinacji składającej się na taki bajt. Zakodowanie tego typu bajta nie stanowi problemu, ponieważ kontroler nie przesyła poszczególnych bajtów, ale całe sektory. Problem taki występuje jedynie w ostatnim bajcie sektora, gdzie do zakończenia sekwencji bitów mogą być konieczne dodatkowe bity. W takich przypadkach koder w kontrolerze dodaje nadmiarowy bit, który jest podczas odczytu odrzucany. Dzięki temu kontroler zawsze może prawidłowo zdekodować ostatni bajt.
Porównanie schematów kodowania
Na rysunku 9.11 pokazane są przykłady zapisywanych na nośniku przebiegów odpowiadających wartości ASCII znaku X, zakodowanego przy wykorzystaniu trzech różnych metod kodowania.
Rysunek 9.11.
Przebieg czasowy wartości ASCII znaku ,, X" zakodowanego metodą FM, MFM i RLL 2,7
W każdym z tych trzech przykładów na górze pokazane są poszczególne bity danych (na przykład 01011 OOOb), umieszczone w ich komórkach bitów, rozdzielane przez sygnał zegarowy zaznaczony kropką. Poniżej tego wiersza znajduje się przebieg czasowy fali, pokazujący zarówno dodatnie i ujemne wartości napięcia, jak również zmiany napięcia w głowicy powodującego zapisanie zmiany strumienia. Dolny wiersz zawiera komórki przejścia, gdzie T reprezentuje komórkę przejścia zawierającą zmianę strumienia, natomiast N pustą komórkę przejścia.
Przykład kodowania FM pokazany na rysunku 9.11 jest łatwy do objaśnienia. Każda komórka bitu zawiera dwie komórki przejścia, jedną na dane zegarowe i jedną na same dane. Wszystkie komórki zegarowe zawierają zmianę strumienia, natomiast komórki przejścia danych zawierają zmianę strumienia tylko wtedy, gdy bit danych ma wartość 1. W przypadku bitu danych równemu 0, nie jest rejestrowana zmiana strumienia. Rozpoczynając od lewej, pierwszy bit danych ma wartość 0, co przekłada się na wzór zmian strumienia zapisywany jako TN. Kolejny bit ma wartość 1, co jest kodowane jako TT. Następny bit ma wartość 0, kodowane na TN itd.
W przypadku kodowania MFM również dla każdego bitu danych zapisywane są komórki przejścia zawierające dane i sygnał zegarowy. Jednak, jak widać, komórka zawierająca dane zegarowe zawiera zmianę strumienia tylko wtedy, gdy bit 0 jest zapisywany po innym bicie 0. Rozpoczynając od lewej, pierwszy bit ma wartość 0. a poprzedni jest nieznany (zakładamy 0), więc dla tego bitu wzorzec przejść jest TN. Następny bit ma wartość 1, co zawsze jest kodowane jako wzorzec NT. Następny bit jest równy 0, ale poprzedni bit był równy 1. więc zapisywany jest wzorzec NN. Korzystając z zamieszczonej wcześniej tabeli 9.2. można zapisać pozostałe wzorce kodowania MFM aż do końca naszych przykładowych danych. Jak widać, minimalna i maksymalna ilość komórek przejść pomiędzy dwoma zmianami strumienia wynosi jeden i trzy, co wyjaśnia, dlaczego kodowanie MFM może być również nazywane kodowaniem RLL 1.3.
Schemat RLL 2.7 jest bardziej skomplikowany, ponieważ kodowane są grupy bitów, a nie pojedyncze bity. Rozpoczynając od lewej, pierwszą grupą odpowiadającą grupom wymienionym w tabeli 9.3 jest pierwsza trzybitowa grupa 010. Bity te są zamieniane na zmiany strumienia TNNTNN. Następne dwa bity, 11, są kodowane na TNNN, natomiast końcowa grupa bitów, 000, zamieniana jest na NNNTNN. Jak widać, nie były potrzebne dodatkowe bity kończące ostatnią grupę.
Zwróćmy uwagę, że minimalna i maksymalna liczba pustych komórek przejść pomiędzy dwoma zmianami strumienia w tym przykładzie wynosi 2 i 6, ale w innym przykładzie może wystąpić maksymalnie siedem pustych komórek przejścia. Właśnie z tego powodu metoda ta jest nazywana RLL 2,7. Z powodu jeszcze mniejszej liczby przejść niż w metodzie MFM, częstotliwość zegara może wzrosnąć trzykrotnie w stosunku do FM i 1,5 razy w stosunku do MFM, zapisując więcej danych na tej samej przestrzeni. Wynikowy przebieg czasowy wygląda podobnie do typowego przebiegu FM czy MFM, biorąc pod uwagę ilość zmian strumienia i ich odległość od siebie na określonej powierzchni dysku. Inaczej mówiąc, minimalna i maksymalna fizyczna odległość pomiędzy dwoma zmianami strumienia pozostaje identyczna w przedstawionych tu przykładach trzech metod kodowania.
Dekodery Partial-Response, Maximum-Likehood
Inna funkcja wykorzystywana w nowoczesnych dyskach twardych kryje się w układach odczytujących. Układy kanału odczytu korzystające z technologii Partial-Response, Maximum-Likehood (PRML) pozwalają zwiększyć liczbę danych zapisywanych na talerzach dysku o 40%. Technologia PRML zastępuje standardowe podejście „wykrywaj jeden impuls" stosowane w tradycyjnych analogowych układach wykrywania impulsów, wykorzystując cyfrowe przetwarzanie sygnałów.
Wraz ze wzrostem gęstości danych na dyskach twardych, napęd musiał zapisywać zmiany strumienia w coraz mniejszej odległości od siebie. Sprawia to, że odczytanie danych z dysku jest coraz trudniejsze, ponieważ sąsiednie impulsy magnetyczne zaczynają interferować ze sobą. Metoda PRML modyfikuje sposób odczytu danych z dysku. Kontroler analizuje strumień danych analogowych odczytywany z głowicy, korzystając z cyfrowego próbkowania i przetwarzania sygnału oraz algorytmów wykrywania (jest to element partial response). Dodatkowo przewiduje sekwencję bitów, jaką z największym możliwym prawdopodobieństwem reprezentuje odczytany strumień danych (element maximum likehood). Technologia PRML pozwala pobrać przebieg analogowy, który może zawierać szumy oraz przypadkowe sygnały i na jego podstawie prawidłowo odczytać zapisane dane.
Być może na podstawie tego opisu nie wygląda to na najbardziej precyzyjną metodę odczytu danych, które, aby być użyteczne, muszą być odczytane ze 100% pewnością, ale zastosowany układ filtrów cyfrowego przetwarzania sygnałów usuwających szumy jest tak efektywny, że pozwala na umieszczenie impulsów zmiany strumienia jeszcze bliżej siebie, dzięki czemu osiągane są jeszcze większe gęstości. Większość napędów o pojemności powyżej 2 GB korzysta w układach dekodera z technologii PRML.
Mierzenie pojemności
W grudniu 1998 roku komisja IEC (ang. International Electrotechnical Commission) — wiodąca międzynarodowa organizacja zajmująca się standaryzowaniem na potrzeby elektrotechniki — przyjęła międzynarodowy standard nazewnictwa i prefiksów dla wielokrotności binarnych używanych przy przetwarzaniu i transmisji danych. Poprzednio powstawało wiele pomyłek spowodowanych interpretowaniem megabajta jako jednego miliona bajtów (106) lub 1048576 bajtów (220). Jednak pomimo wprowadzenia nowego standardu, nowe prefiksy jeszcze się nie przyjęły i nadal zdarzają się pomyłki. Standardowe skróty jednostek używanych do pomiaru pojemności napędów magnetycznych (i innych) są zamieszczone w tabeli 9.4.
Tabela 9.4. Standardowe skróty i ich znaczenie
Skrót |
Opis |
Zapis potęgowy |
Wartość |
k |
Kilo |
103 |
1 000 |
Ki |
Kibi |
210 |
1 024 |
M |
Mega |
106 |
1 000 000 |
Mi |
Mebi |
220 |
1 048 576 |
G |
Giga |
109 |
1 000 000 000 |
Gi |
Gibi |
230 |
1 073 741 824 |
T |
Tera |
1012 |
1 000 000 000 000 |
Ti |
Tebi |
240 |
1 099 511 627 776 |
P |
Peta |
1015 |
1 000 000 000 000 000 |
Pi |
Pebi |
250 |
1 125 899 906 842 624 |
Zgodnie z nowym standardem prefiksów, 1 mebibajt (1 MiB = 220 B = 1048576 B) i 1 megabajt (1 MB = 106 B = 1000000 B) nie są równe. Ponieważ nowe prefiksy nie są powszechnie używane (i mogą nigdy nie być), M w większości przypadków może oznaczać milion bajtów i binarne megabajty. Podobnie, G jest używane do oznaczania dziesiętnego miliarda bajtów i binarnego gigabajta. Najczęściej ilość zainstalowanej pamięci jest podawana w wartościach binarnych, natomiast pojemności dysków mogą być podawane na oba sposoby. Często powoduje to pomyłki przy raportowaniu pojemności dysków, ponieważ wielu producentów korzysta z tej wartości, która w danym momencie „lepiej wygląda". Na przykład, pojemność dysku często są podawane w dziesiętnych miliardach (G — giga), natomiast większość BIOS-ów i programów narzędziowych, takich jak FDISK w Windows, podaje te same wartości w binarnych gigabajtach (Gi — gibi). Czasami w niektórych przeliczeniach korzysta się z bitów i bajtów. Jednostki te są rozróżniane przez użycie małej litery b dla bitów i dużej B dla bajtów. Na przykład, megabity są skracane jako Mb, więc skrót Mb/s oznacza megabity na sekundę, natomiast MB/s oznacza megabajty na sekundą.
Gęstość powierzchniowa
Gęstość powierzchniowa jest często wykorzystywana jako wskaźnik rozwoju technologii produkcji dysków twardych. Wartość gęstości powierzchniowej jest obliczana jako iloczyn gęstości liniowej w bitach na cal (BPI), długości ścieżki wokół dysku i ilości ścieżek na cal (TPI) mierzonych wzdłuż promienia dysku (patrz rysunek 9.12). Wynik jest wyrażany w megabitach na cal kwadratowy lub gigabitach na cal kwadratowy (Mbit/cal2 lub Gb/cal2) i jest używany do mierzenia efektywności zapisu danych na dysku. Obecne zaawansowane napędy 3,5 cala zapisują dane z gęstością przekraczającą 60 Gb/cal2 (np. Hitachi 7K.400 o pojemności 400 GB, zapisujący dane z gęstością wynoszącą 61,7 Gb/cal2). Z kolei napędy 2,5 cala, takie jak Hitachi 5K80 o pojemności 80 GB. oferują gęstość powierzchniową 70 Gb/cal2 lub większą. Istnieją już prototypowe napędy zapisujące dane z gęstością 130 Gb/cal2 lub większą co pozwala na wyprodukowanie w przeciągu najbliższych lat dysków o pojemności jednego terabajta lub większej.
Rysunek 9.12.
Gęstość powierzchniowa, iloczyn ścieżek na cal i bitów na cal
Napęd zapisuje dane na ścieżkach, czyli okrągłych „torach" na dysku. Każda ścieżka jest podzielona na sektory. Na rysunku 9.13 pokazano dyskietkę z napylonym wywoływaczem magnetycznym (sproszkowane żelazo), tak że można zobaczyć ścieżki i sektory. Pokazano tu dyskietkę 5,25 cala, 360 kB z 40 ścieżkami na stronie, a każda ścieżka podzielona jest na 9 sektorów. Zwróćmy uwagę, że każdy sektor jest wydzielony przez przerwy w zapisie, które poprzedzają i zakańczają nagłówki sektorów i ścieżek (gdzie zapisane są ID i dane adresowe). Można zauważyć potrójną przerwę poprzedzającą pierwszy sektor, gdzie znajdują się nagłówki ścieżki i sektora. Następnie, w kierunku przeciwnym do ruchu wskazówek zegara można zobaczyć każdy kolejny sektor poprzedzony przerwami oddzielającymi nagłówek każdego sektora. Obszar pomiędzy nagłówkami jest miejscem, gdzie zapisywane są dane.
Rysunek 9.13.
Dyskietka 360 kB z napylonym wywoływaczem magnetycznym (sproszkowane żelazo) pokazującym zarysy ścieżek
1 sektorów
Zwróćmy uwagę na to. że sektor 9. jest dłuższy od innych: dzięki czemu kompensuje się różnice prędkości obrotowej różnych napędów, pozwalając na zapisanie wszystkich danych przed początkiem ścieżki. Trzeba również zauważyć, że duża część dysku jest niewykorzystana, bowiem niepraktyczne byłoby przesuwanie głowicy tak daleko, ponieważ problemem stałaby się różnica w długości sektorów pomiędzy ścieżkami wewnętrznymi i zewnętrznymi.
Gęstość powierzchniowa stale wzrasta od czasu wprowadzenia pierwszego dysku magnetycznego (IBM RAMAC) w roku 1956, na początku rosła o około 25% rocznie (podwajała się co cztery lata), a od początku lat dziewięćdziesiątych współczynnik wzrostu wynosi około 60% na rok (podwaja się co półtora roku). Wzrost gęstości powierzchniowej został przyspieszony przez wynalezienie i wprowadzenie w roku 1991 głowic ma-gnetorezystywanych i głowic GMR w roku 1997. Przez ponad 47 lat od wprowadzenia napędu RAMAC, gęstość powierzchniowa wzrosła ponad 17 milionów razy.
Przy tym współczynniku wzrostu, w ciągu następnych pięciu lat producenci napędów osiągną gęstości powierzchniowe około 100 Gb/cal2, co spowoduje zbliżenie do punktu wystąpienia efektu superparamagnetycz-nego. Efekt ten polega na wrodzonej niestabilności bardzo małych domen magnetycznych już w temperaturze pokojowej. Techniki wykorzystujące nośniki o ekstremalnie wysokiej koercji i zapis o pionowej polaryzacji pozwalają osiągnąć gęstości zapisu rzędu 400 Gb/cal2, ale poza tą granicą naukowcy muszą szukać innych technologii. Jedną z takich technik może być zapis holograficzny, w którym laser zapisuje dane trójwymiarowo w płytce lub sześcianie krystalicznym.
Na rysunku 9.14 pokazano wzrost gęstości powierzchniowej od czasu powstania zapisu magnetycznego (RAMAC rok 1956) do obecnych czasów.
Rysunek 9.14.
Ewolucja gęstości powierzchniowej w dyskach magnetycznych
Aby zwiększyć gęstość powierzchniową, zachowując takie same wielkości napędów, producenci muszą opracować technologie nośników i głowic pozwalające na obsługę wysokich gęstości powierzchniowych, takie jak talerze ceramiczne i szklane, głowice GMR, zapis pseudodotykowy, układy PRML. Podstawowym problemem przy osiąganiu wysokich gęstości jest produkcja głowic i dysków działających przy coraz mniejszych tolerancjach. Poprawienie tolerancji i wykorzystanie większej liczby talerzy o określonej wielkości pozwalają na zwiększenie pojemności dysków, ale producenci stale szukają sposobów jeszcze większego wzrostu pojemności, zarówno przez ulepszenie bieżących technologii, jak i opracowanie nowych.
Aby umieścić więcej danych na talerzu o stałej powierzchni, ścieżki muszą być umieszczane coraz bliżej siebie, a głowice muszą być z ogromną precyzją ustawiane nad tymi ścieżkami. Oznacza to również, że wraz ze wzrostem pojemności dysków głowice muszą w czasie pracy unosić się coraz niżej nad powierzchnią dysku. Odległość pomiędzy głowicą i dyskiem w niektórych typach dysków wynosi 10 nanometrów, co jest porównywalne z grubością ścianki komórki. Dla porównania, typowa grubość włosa ludzkiego wynosi około 80 mikronów, co stanowi wartość 8000 razy większą niż szczelina pomiędzy głowicą a dyskiem. Prowadzone są badania nad zastosowaniem dotykowego lub niemal dotykowego zapisu dysków, co może pozwolić na dalszy wzrost gęstości zapisu.
Zwiększanie gęstości powierzchniowej za pomocą „czarodziejskiego pyłu"
W 1990 r. naukowcy z firmy IBM odkryli, że cienka warstwa rutenu może być najskuteczniejszym rozdzielającym elementem niemagnetycznym stosowanym w takich urządzeniach, jak głowice GMR. Jednak dopiero ponad dekadę później pojawiło się pierwsze komercyjne zastosowanie rutenu, mające na celu zwiększenie gęstości zapisu danych na talerzach dysków twardych.
W maju 2001 r. firma IBM rozpoczęła produkcję serii przeznaczonych dla komputerów przenośnych 2,5-calowych napędów Travelstar, w których zastosowała technologię „czarodziejskiego pyłu" (ang. pixie dust). W listopadzie 2001 r. pojawiły się oparte na tej samej technologii dyski twarde Deskstar GXP, oferujące pojemność 80 i 120 GB.
W wymienionych napędach — dzięki użyciu cienkiej warstwy rutenu (o grubości 3 atomów), oddzielającego dwie warstwy magnetyczne po każdej stronie talerzy — osiągnięto gęstość zapisu danych przekraczającą 25 Gb/cal2. W przypadku tradycyjnych napędów dla każdej strony talerzy jest stosowana pojedyncza warstwa magnetyczna. Nośnik zawierający rutenową powłokę, powszechnie nazywaną „czarodziejskim pyłem", nosi techniczną nazwę nośnika AFC {antiferromagnetically coupled— sprzężony antyferromagnetycznie). Firma IBM w dalszym ciągu stosuje nośnik AFC w najnowszych modelach napędów przeznaczonych dla komputerów przenośnych, stacjonarnych i serwerów. Dodatkowo udziela licencji na nośnik AFC innym producentom dysków i nośników.
Nośnik AFC został stworzony, ponieważ do osiągnięcia coraz większych gęstości zapisu na nośniku magnetycznym wymagane jest, aby poszczególne obszary magnetyczne były coraz mniejsze. Jednak gdy obszary te staną się zbyt małe. może wystąpić problem określany mianem ograniczenia superparamagnetycznego, które powodujące, że z czasem obszary magnetyczne tracą swoje własności.
Umieszczenie cienkiej warstwy rutenu pomiędzy dwiema warstwami magnetycznymi spowoduje, że względem siebie będą one ustawione w przeciwnych kierunkach magnetycznych. Co prawda 3-warstwowa struktura jest grubsza od konwencjonalnej powierzchni magnetycznej, ale przeciwne kierunki sprawią, że warstwy będą cieńsze od takiej powierzchni. W efekcie głowice odczytująco-zapisujące dysku twardego mogą zapisywać mniejsze sygnały o dużej gęstości i tym samym zwiększać pojemność talerza o określonej wielkości bez ryzyka pogorszenia sygnału. Na rysunku 9.15 porównano konwencjonalny jednowarstwowy talerz dysku z talerzem napędu wykorzystującego technologię nośnika AFC.
Tak jak w głowicach GMR dwie warstwy są rozdzielone cienką warstwą przewodzącą zwiększającą gęstość zapisu danych, tak w przypadku nośnika AFC jest stosowane podobne rozwiązanie. Zasadniczo nośnik AFC reprezentuje przeniesienie rozwiązań zastosowanych w głowicach odczytująco-zapisujących GMR do powierzchni zapisu danych nośnika. Z czasem można oczekiwać, że użycie nośnika AFC spowoduje czterokrotne zwiększenie pojemności nośnika magnetycznego, dzięki czemu napędy będą oferowały gęstość wynoszącą 100 Gb/cal2 lub większą. W praktyce oznacza to, że 3,5-calowe dyski twarde przeznaczone dla komputerów stacjonarnych będą miały maksymalną pojemność 1 TB, natomiast 2,5-calowe napędy dla komputerów przenośnych — pojemność do 300 GB. Dyski firmy IBM z serii Microdrives mające talerz o średnicy 1 cala zaoferują pojemność 8 GB lub większą.
Rysunek 9.15.
Konwencjonalny nośnik zawiera pojedynczą warstwą magnetyczną, natomiast nośnik AFC — dwie warstwy rozdzielone warstwą rutenu, określaną przez firmą IBM ,, czarodziejskim pyłem "
Rozdział 10.
Dyski twarde
Definicja dysku twardego
Dla wielu użytkowników komputera dysk twardy jest jednym z najważniejszych i jednocześnie najbardziej tajemniczych elementów systemu. Jest to szczelnie zamknięte „pudełko", którego komputer PC używa do nie-ulotnego przechowywania danych. Przechowywanie nieulotne oznacza, że urządzenie zapisujące przechowuje dane nawet po wyłączeniu zasilania. Ponieważ dysk twardy przechowuje dane aż do chwili ich rozmyślnego usunięcia lub nadpisania, wykorzystywany jest on do gromadzenia ważnych danych i programów. W związku z tym konsekwencje jego awarii są zwykle bardzo poważne. Aby prawidłowo użytkować, serwisować i rozbudowywać komputer PC, powinieneś wiedzieć, jak działa dysk twardy.
Dysk twardy składa się z sztywnych talerzy zwykle wykonanych z aluminium lub szkła (patrz rysunek 10.1). W przeciwieństwie do dyskietki, talerze nie mogą być zginane — stąd nazwa „dysk twardy". Z większości napędów dysków twardych nie można wyjąć talerzy, i stąd wzięło kolejne określenie — „dysk stały". Jednak dostępne są również wymienne dyski twarde. Czasami nazwą tą opisywane są urządzenia, gdzie wyjmowana jest cala jednostka (czyli dysk zawierający talerze i pozostałe elementy napędu), ale częściej używa się jej wobec napędów, w których talerze znajdują się w osobnej kasecie.
Rysunek 10.1.
Głowice i talerze dysku twardego
Dyski twarde są czasami określane jako dyski Winchester. Nazwa ta powstała w roku 1973, gdy IBM wprowadził napęd 3340, który miał pojemność 30 MB na stałych talerzach i 30 MB na talerzach wymiennych, umieszczonych na osobnych osiach. Dysk został nazwany „Winchester" przez szefa projektu Kena Haughtona, ponieważ oznaczenie początkowej pojemności (30-30) było bardzo podobne do nazwy popularnych nabojów 30-30 używanych w karabinie Winchester z 1895 roku. Oryginalny napęd 3340 „Winchester" był pierwszym urządzeniem, w którym głowice i mechanizmy dysku były szczelnie zamknięte. Określenie to było wykorzystywane dla kolejnych dysków o podobnej technologii wykonania.
Rozwój dysków twardych
W roku 1957 Cyryl Northcote Parkinson opublikował słynny zbiór esejów zatytułowany Prawa Parkinsona. który rozpoczyna się zdaniem: „Ilość pracy wzrasta tak szybko, że wypełnia cały czas dostępny na jej wykonywanie". Wniosek wypływający ze słynnego „prawa" Parkinsona odnosi się również do dysków twardych: „Ilość danych przyrasta w takim tempie, że wypełniają one całą powierzchnię dostępną do ich przechowywania". Oznacza to, że bez względu na to, jak duży jest dysk twardy, zawsze znajdziesz sposób na jego zapełnienie. Sprawdza się to co do joty od czasu zakupienia przeze mnie pierwszego dysku twardego niemal 20 lat temu.
Mimo że doskonale zdaję sobie sprawę z wykładniczego wzrostu możliwości wszystkiego, co jest związane z komputerami, nadal jestem zdziwiony, jak ogromne i szybkie stały się dzisiejsze dyski. Pierwszym dyskiem, który kupiłem w roku 1983, był 10 MB (10 megabajtów, nie gigabajtów) Miniscribe model 2012 posiadający talerze o średnicy 5,25 cala. napęd miał wielkość 200 mm x 140 mm x 80 mm i ważył 2,5 kg (więcej niż niektóre laptopy)! Dla porównania dysk Hitachi Deskstar 7K400 (w chwili, gdy piszę te słowa, jest to największy dostępny dysk 3,5-calowy) korzysta z mniejszych, 3,5-calowych talerzy, ma wymiary 147 mm x 101.6 mm x 26.1 mm. waży jedynie 0.7 kg i może przechować 400 GB danych (czyli 40 000 razy więcej i mieści się w obudowie, która jest sześć razy mniejsza i cztery razy lżejsza). To ogromny skok zaledwie w przeciągu 20 lat!
Książka Prawa Parkinsona (ISBN: 1-5684-9015-1) jest nadal drukowana i jest dziś uważana za jedną z najważniejszych książek dotyczących biznesu i ekonomii.
Aby uzmysłowić sobie, jak długą drogę przeszły dyski twarde w czasie swojej ponaddwudziestoletniej historii, zebrałem razem kilka faktów, które zaszły w tym czasie:
♦ Maksymalna pojemność zwiększyła się z 5 i 10 MB na dyskach 5,25 cala o pełnej wysokości, dostępnych w roku 1982, do ponad 300 GB na dysku 3,5-calowym o polowie wysokości (Maxtor MaXLine II) i ponad 80 GB na 2,5-calowych napędach dla notebooków (Hitachi Travelstar 5K80), które mają wysokość 9,5 mm (lub mniej). Dyski twarde mniejsze od 30 GB są rzadkością
w sprzedawanych dzisiaj komputerach stacjonarnych.
Prędkość przesyłu danych na i z nośnika (ciągły transfer danych) zwiększył się od 85 kB/s i 105 kB/s w oryginalnym IBM XT w roku 1983 do ponad 62 MB/s dla najszybszych dzisiaj spotykanych dysków (Seagate Cheetah Xl5.3).
Średni czas dostępu (czas przesunięcia głowicy do wybranego cylindra) skrócił się od ponad 85 ms (milisekund) dla 10 MB dysku używanego przez IBM w IBM XT z roku 1983, do mniej niż 3,6 ms dla najszybszych napędów. Dysk Maxtor Atlas 15K oferuje średni czas dostępu wynoszący zaledwie 3,2 ms.
W latach 1982 - 1983 napęd 10 MB wraz z kontrolerem kosztował ponad 2000 dolarów (200 dolarów czyli 690 zl za megabajt), a ówczesny dolar miał dwa razy większą wartość niż dziś. Obecnie cena dysku twardego (ze zintegrowanym kontrolerem) spadla do poniżej 1/3 grosza za megabajt i 345 zl za dysk 80 GB.
Raczej zaskakującym posunięciem firmy IBM było sprzedanie 6 stycznia 2003 r. firmie Hitachi działu zajmującego się produkcją dysków twardych. W efekcie powstała nowa spółka o nazwie Hitachi Global Storage Technologies (http://www.hitachigst.com), mająca siedzibę w San Jose w stanie Kalifornia i produkująca dyski twarde firm Hitachi i IBM. Firma Hitachi Global Storage Technologies zajmuje się obecnie wytwarzaniem, sprzedażą i obsługą techniczną poprzednich serii napędów firmy IBM, takich jak Travelstar, Microdrive, Ultrastar i Deskstar. Nowa spółka w 70% należy do firmy Hitachi, natomiast pozostałe udziały są w posiadaniu firmy IBM. Pod koniec 2005 r. firma Hitachi zamierza uzyskać pełną kontrolę nad nową spółką — odtąd firma IBM nie będzie miała wpływu na zarządzanie nią. Zaskakujące jest to, że firma IBM, która wynalazła dysk twardy, kończy działalność w tej branży. Jest to smutne zjawisko.
Działanie dysku twardego
Podstawowymi elementami dysku twardego są obracające się talerze oraz przesuwające się nad nimi głowice zapisujące dane w sektorach ścieżek. Głowice odczytują i zapisują dane na koncentrycznych okręgach zwanych ścieżkami, które są podzielone na fragmenty zwane sektorami, które najczęściej przechowują po 512 bajtów (rysunek 10.2).
Rysunek 10.2.
Ścieżki i sektory na dysku
Wewnątrz obudowy napędu umieszczonych jest wiele dysków zwanych talerzami, ułożonych jeden nad drugim i obracającymi się wspólnie. Na każdym z dysków dane mogą być przechowywane po obu stronach. Większość napędów posiada dwa lub trzy talerze, co daje cztery lub sześć stron, ale istnieją również dyski o 12 talerzach i 24 stronach, posiadające 24 głowice (Seagate Barracuda 180). Identycznie położone ścieżki na każdej stronie talerzy tworzą cylinder (rysunek 10.3). Dyski mają najczęściej po jednej głowicy na stronę, a wszystkie te głowice są zamontowane na wspólnym ramieniu. Głowice poruszają się razem wzdłuż promienia talerza; nie mogą poruszać się niezależnie, ponieważ są zamontowane na wspólnym urządzeniu sterującym — pozycjonerze.
Rysunek 10.3.
Cylindry dysku twardego
Na początku większość dysków twardych obracało się z prędkością obrotową 3600 obr./min — około 10 razy szybciej niż dyskietka. Przez wiele lat prędkość ta była stała dla wszystkich dysków. W chwili obecnej większość dysków obraca się z większą prędkością; występują dyski o prędkościach obrotowych 4200 obr./min, 5400 obr./min, 7200 obr./min lub 15 000 obr./min. Większość standardowych napędów obraca się z prędkością
5400 obr./min, natomiast modele o dużej wydajności 7200 obr./min. Niektóre niewielkie 2,5-calowe dyski stosowane w komputerach przenośnych w celu zaoszczędzenia energii oferują prędkość obrotową wynoszącą zaledwie 4200 obr./min. Dyski 10 000 obr./min i 15 000 obr./min wykorzystywane są jedynie w serwerach i stacjach roboczych o bardzo dużej wydajności, gdzie wysokie ceny, wydzielanie ciepła i hałas nie stanowią zbyt dużego problemu. Duża prędkość obrotowa połączona z szybkim mechanizmem pozycjonowania głowicy i dużą liczbą sektorów na ścieżkę powoduje, że dysk ten jest szybszy od innych.
Głowice w większości dysków nie dotykają (i nie powinny) powierzchni talerzy w czasie normalnego działania. Jednak w większości napędów głowice opierają się o talerze w czasie, gdy dysk jest wyłączony. W takim przypadku, podczas wyłączania zasilania głowice przesuwają się do najbardziej wewnętrznego cylindra, gdzie lądują na powierzchni talerza. Projekt taki jest określany jako CSS (ang. Contact Start Stop). Gdy włączone zostanie zasilanie napędu, w trakcie jego rozpędzania talerza głowice ślizgają się po jego powierzchni, aż wytworzy się cienka poduszka powietrzna pomiędzy głowicą i powierzchnią talerza, co powoduje oderwanie się ich od talerza i utrzymywanie się w niewielkiej odległości od niego. Jeżeli stabilność szczeliny wytworzonej przez poduszkę powietrzną zostanie zakłócona przez cząstkę kurzu lub przez uderzenie, głowica może uderzyć w talerz obracający się z pełną prędkością. Jeżeli to uderzenie jest wystarczająco silne, aby spowodować uszkodzenia powierzchni dysku, zdarzenie takie nazywa się wypadkiem głowicy. Efekt uderzenia może być bardzo różny, od utraty kilku bajtów do całkowitego zniszczenia napędu. Większość napędów ma powierzchnie dysków pokryte specjalnym smarem utwardzającym, która może w ten sposób wytrzymać codzienne „starty i lądowania", jak również bardziej poważne zderzenia.
Niektóre nowe napędy nie korzystają z projektu CSS i zamiast tego wykorzystują mechanizm ładowania i wyładowania, który nie pozwala głowicom na kontakt z talerzami nawet po wyłączeniu zasilania. Po raz pierwszy został on wykorzystany w napędach 2,5-calowych stosowanych w laptopach i notebookach, gdzie odporność dysku na uderzenia jest bardzo istotna. Mechanizm ładowania i wyładowania wykorzystuje rampę umieszczoną zaraz obok zewnętrznego brzegu talerzy. Gdy zasilanie dysku zostanie odłączone lub dysk przejdzie w tryb oszczędzania energii, głowice są przesuwane na rampę. Gdy zasilanie zostanie przywrócone, głowice zostaną uwolnione z rampy dopiero wtedy, gdy talerze są rozpędzone do pełnej prędkości, dzięki czemu przepływ powietrza zapobiega kontaktowi głowicy z talerzem.
Ponieważ mechanizmy talerzy są zamknięte i nie mogą być wyjmowane, gęstość ścieżek na dysku może być bardzo duża. Dzisiejsze dyski twarde mają na nośniku po 96 000 lub więcej ścieżek na cal (TPI) (Hitachi Travelstar 5K80). Mechanizmy głowic dysku (HDA), które zawierają talerze, są montowane w pomieszczeniach, w których obowiązują bardzo wysokie wymagania dotyczące czystości. Ponieważ tylko niewiele firm serwisuje le urządzenia, naprawa i wymiana części wewnątrz HDA może być bardzo kosztowna. Każdy dysk może ulec uszkodzeniu. Jednak problemem jest to, kiedy uszkodzenie wystąpi i czy wszystkie ważne dane będą zabezpieczone.
Nie zaleca się podejmowania prób otwierania napędu bez odpowiedniego wyposażenia i doświadczenia w naprawie. Większość producentów rozmyślnie utrudnia ich otwieranie, aby zniechęcić użytkowników. Otwarcie napędu powoduje utratę gwarancji.
Wielu użytkowników wie, że dyski twarde są najdelikatniejszymi elementami komputera PC. Dlatego studenci przychodzący na moje seminaria PC Hardware and Troubleshooting oraz Data Recovery są zaskoczeni, gdy uruchamiam różne dyski twarde ze zdjętą obudową, a nawet zakładam i zdejmuję obudowę w trakcie pracy dysku! Dyski te działają świetnie do dziś niezależnie od tego, czy są zamknięte czy otwarte. Oczywiście nie zalecam robienia tego z własnym dyskiem.
Analogia obrazująca technologię dysków twardych
Istnieje stara analogia dotycząca współpracy głowic i nośnika w normalnym dysku twardym. Jest ona porównywalna do samolotu Boeing 747 Jumbo Jet lecącego około metra nad ziemią z prędkością przelotową (około 800 km/h). Przytaczam tę analogię od lat i w przeszłości nie zadawałem sobie trudu, aby sprawdzić, czy jest ona technicznie poprawna w odniesieniu do nowoczesnych dysków twardych. A nie jest!
Prawdopodobnie najbardziej niewłaściwy aspekt tej analogii to porównanie głowic do samolotu. Analogia odnosi się do faktu, że głowice lecą bardzo nisko ponad dyskiem, ale technicznie nie jest to prawda. Głowice nie lecą w tradycyjnym aerodynamicznym sensie, raczej ślizgają się na poduszce powietrznej tworzącej się nad talerzem.
Dużo lepiej będzie, jeśli zastąpimy samolot poduszkowcem; istota ruchu poduszkowca precyzyjniej oddaje działanie głowic w dysku twardym. Podobnie jak poduszkowiec, utrzymywanie się głowicy napędu w powietrzu zależy od kształtu jej dolnej powierzchni, który kontroluje przepływ powietrza między dyskiem i głowicą. Poduszka powietrzna tworzy się w niewielkiej odległości od talerza i często jest nazywana łożyskiem powietrznym.
Uważam, że nadszedł czas na utworzenie nowej analogii, lepiej obrazującej wymiary i prędkość, z jaką działają dzisiejsze napędy. Zajrzałem do specyfikacji nowoczesnych napędów i pomnożyłem dane przez współczynnik 300 000. W moim przykładzie użyłem napędu IBM Deskstar 75GXP, który jest 3,5-calowym dyskiem ATA o pojemności 75 GB. Ślizgacze głowicy (nazywane pikoślizgaczami) w tym napędzie mają wymiary 0,0019 mm długości. 0.0015 mm szerokości i 0,0005 mm wysokości. Unoszą się one na poduszce powietrznej około 15 nanometrów (nm czyli miliardowa część metra) nad powierzchnią dysku przesuwającego się pod nimi ze średnią prędkością 85 km/h (przyjmując średnią średnicę ścieżki jako 6,45 cm). Głowice te odczytują i zapisują poszczególne bity oddalone od siebie o 0,895 mikrometrów. Głowice mogą przesunąć się na inną ścieżkę w średnim czasie 8,5 milisekundy.
Aby utworzyć moją analogię, powiększyłem skalę, aby uzyskać odległość głowicy od nośnika równą 5 mm. Ponieważ 5 milimetrów jest około 333 333 razy większe niż 15 nm, przeskalowałem wszystkie wymiary o tę wartość.
Powiększone o ten wskaźnik głowice tego dysku miałyby około 400 m wysokości, 320 m szerokości i 100 m wysokości (długość i wysokość odpowiadają wieżowcowi Sears Tower w Chicago obróconemu na bok). Te głowice o wielkości wieżowca powinny unosić się na poduszce powietrznej o grubości 5 mm, przesuwając się z prędkością 28,48 miliona kilometrów na godzinę (7911 km na sekundę — a trzecia prędkość kosmiczna to zaledwie 42 kilometry na sekundę), odczytując bity danych ułożonych co 21 mm na ścieżkach odległych od siebie o 29 cm!
Proporcjonalne zwiększenie prędkości tej modelowej głowicy jest trudne do wyobrażenia, więc nieco przybliżymy tę wartość. Średnica Ziemi na równiku wynosi 12 681 km, co daje obwód około 40 000 km. Z prędkością 7911 km/s nasz wyimaginowany drapacz chmur okrąży ziemię w czasie 5 sekund (znajdując się 5 mm nad ziemią)! Podczas tego jednego okrążenia będzie mógł odczytać 321,33 MB danych.
Trzeba również wziąć pod uwagę prędkość ruchu w bok. Ponieważ średni czas dostępu jest zdefiniowany jako czas przesunięcia głowicy o jedną trzecią całkowitej liczby ścieżek (w naszym przykładzie to 9241 ścieżek), głowice mogą poruszać się w bok na przeskalowaną odległość 2,73 km w czasie 8,5 milisekund. W wyniku przeskalowania otrzymujemy prędkość wyszukiwania większą od 1 162 113 km/h czyli 323 km/s!
Ta analogia powinna obrazować zdumiewający poziom możliwości technologii nowoczesnych dysków twardych. Stara analogia do Jumbo Jęta brzmi przy niej nieco patetycznie (nie wspominając, że jest mocno nieprecyzyjna), nieprawdaż?
Ścieżki i sektory
Pod nazwą ścieżki rozumiemy okrąg danych na jednej stronie dysku. Ścieżka dysku jest zbyt długa, aby można było efektywnie zarządzać danymi, operując jej całą zawartością. Wiele ścieżek dysku może pomieścić 100 000 bajtów danych, co byłoby bardzo nieefektywne podczas zapisu małych plików. Z tego powodu ścieżki są podzielone na kilka ponumerowanych fragmentów zwanych sektorami. Sektory są fragmentami ścieżki w kształcie łuku.
Różne typy dysków dzielą ścieżki na różną liczbę sektorów, w zależności od gęstości ścieżek. Na przykład, dyskietki mają 8-36 sektorów na ścieżkę, natomiast dyski twarde przechowują dane z większą gęstością i mogą osiągać ponad 900 sektorów na ścieżkę. Sektory tworzone przez standardową procedurę formatowania mają pojemność 512 bajtów i jest to wartość niezmienna przez całą historię komputerów PC. Interesującą rzeczą jest to, że aby zachować zgodność z większością starych BIOS-ów i sterowników, gdy dane są adresowane w trybie CHS. napędy dokonują wewnętrznej translacji, „udając", że mają 63 sektory na ścieżkę.
Sektory na ścieżce są numerowane od 1, natomiast głowice i cylindry są numerowane od 0. Na przykład dyskietka 1,44 MB zawiera 80 cylindrów numerowanych od 0 do 79, wykorzystuje dwie głowice o numerach 0 i 1. natomiast każda ścieżka ma 18 sektorów numerowanych od 1 do 18.
Podczas formatowania dysku program formatujący przed obszarem danych każdego sektora tworzy obszary ID, używane później przez kontroler dysku do numerowania sektorów i identyfikowania początku i końca każdego sektora. Obszary znajdują się przed i po sektorze danych i zajmują część pojemności dysku. Wyjaśnia to zjawisko różnicy pojemności przed i po sformatowaniu. Należy zwrócić uwagę, że większość nowoczesnych dysków twardych jest sprzedawanych w postaci preformatowanej i podawana jest pojemność po sformatowaniu. Pojemność przed formatowaniem najczęściej nie jest nigdy podawana. Innym interesującym faktem jest to, że niektóre dyski korzystają z tzw. formatowania No-ID, co oznacza, że sektory są zapisywane bez znaczników ID przed i po każdym sektorze. Dzięki temu większa część dysku może być przeznaczona na dane.
Każdy sektor dysku posiada zwykle prefiks lub nagłówek identyfikujący początek sektora i zawierający jego numer oraz sufiks lub stopkę, zawierająca sumę kontrolną (pomagającą zapewnić integralność zapisywanych danych). Wiele nowych dysków pomija ten nagłówek, korzystając z zapisu No-ID pozwalającego na zapisanie większej ilości danych. W przypadku zapisu No-ID początek i koniec każdego sektora jest wyznaczany przez impulsy zegara.
Każdy sektor zawiera 512 bajtów danych. Proces formatowania niskopoziomowego najczęściej wypełnia bajty danych specyficzną wartością, taką jak F6h, lub innym powtarzającym się wzorcem testowym używanym przez producenta dysku. Niektóre wzorce są trudniejsze do zakodowania i zdekodowania przez elektronikę dysku, więc są one używane przez producentów do testowania napędów podczas początkowego formatowania. Specjalny wzorzec testowy może spowodować wykrycie błędu powierzchni, który nie będzie ujawniony przy wykorzystaniu normalnych wzorców danych. Tym sposobem producenci mogą dokładniej zidentyfikować sektory marginesowe w trakcie testowania.
Omawiany tu typ formatowania jest formatowaniem fizycznym lub niskopoziomowym, a nie formatowaniem wysokopoziomowym wykonywanym przez użytkowników za pomocą programu Eksplorator Windows lub FORMAT. W podrozdziale „Formatowanie dysku" opiszemy różnice pomiędzy tymi typami formatowania.
Nagłówki i stopki sektorów są niezależne od systemu operacyjnego, systemu plików i plików przechowywanych na dysku. Oprócz nagłówków i stopek, pomiędzy sektorami na ścieżce występują przerwy zawierające potencjalną przestrzeń danych. Przerwy te są tworzone w czasie formatowania niskopoziomowego, gdy zapis jest na moment wstrzymywany. Mają one tę samą funkcję, co przerwy pomiędzy utworami na kasecie magnetofonowej. Nagłówek, stopka i przerwy składają się na różnicę pomiędzy pojemnością przed formatowaniem i po sformatowaniu. Na przykład, 4 MB (niesformatowana) dyskietka 3,5-calowa posiada pojemność po sformatowaniu 2,88 MB, a 2 MB (niesformatowana) dyskietka ma po sformatowaniu pojemność 1,44 MB, stary dysk (np. Seagate ST-4038) o pojemności przed formatowaniem 38 MB ma po sformatowaniu pojemność jedynie 32 MB. Ponieważ dyski ATA/IDE i SCSI kupowane dzisiaj są fabrycznie sformatowane nisko-poziomowo, producenci podają jedynie pojemność po sformatowaniu. Jednak wszystkie dyski rezerwują nieco miejsca na zarządzanie przechowywanymi danymi. Dlatego, choć wspominałem wcześniej, że każdy sektor dysku ma 512 bajtów danych, technicznie rzecz biorąc, jest to nieprawda. Każdy sektor pozwala na zapisanie 512 bajtów danych, ale obszar danych jest jedynie fragmentem sektora. Każdy sektor na dysku zwykle zajmuje 571 bajtów, z czego tylko 512 bajtów jest dostępne na dane użytkownika. Dokładna liczba bajtów wymaganych na nagłówek i stopkę sektora różni się w zależności od dysku. Wspominaliśmy również, że wiele dysków korzysta z zapisu No-ID, co niemal całkowicie eliminuje narzut na dane nagłówka sektorów.
Można porównać każdy sektor dysku do strony w książce. W książce każda strona zawiera tekst, ale nie jest ona wypełniona nim całkowicie — każda strona posiada marginesy: górny, dolny, lewy i prawy. Informacje takie jak tytuły rozdziałów (numery ścieżki i cylindra) i numery stron (numery sektorów) umieszczane są na marginesach. Obszary „marginesów" sektorów są tworzone w czasie formatowania niskopoziomowego. Formatowanie wypełnia również obszar danych sztucznymi wartościami. Po wykonaniu formatowania wysokiego poziomu, system plików komputera PC może zapisywać do obszarów danych każdego sektora, ale dane w nagłówku i stopce sektora nie mogą być zmienione przez normalną operację zapisu, chyba że ponownie wykonane zostanie formatowanie niskopoziomowe.
W tabeli IO.I zamieszczony jest format każdej ścieżki i sektora typowego dysku twardego z 17 sektorami na ścieżkę.
Tabela 10.1. Typowy format ścieżki i sektora dysku korzystającego ze znaczników ID
Bajtów Nazwa Opis
16 POST INDEX GAP Wszystkie wartości 4Eh na ścieżce rozpoczynającej się po znaczniku indeksu.
Poniższe dane sektora (pokazane pomiędzy liniami tej tabeli) są powtarzane tyle razy, ile istnieje sektorów na ścieżce.
13 |
ID VFO LOCK |
Wszystkie OOh; synchronizuje VFO dla pola ID sektora. |
1 |
SYNC BYTE |
Alh; informuje kontroler o nadchodzących danych. |
1 ADDRESS MARK |
FEh; definiuje dane pola ID. |
|
2 | CYLINDER NUMBER |
Wartość określająca położenie pozycjonera głowicy. |
|
1 | HEAD NUMBER |
Wartość określająca wybraną głowicę. |
|
1 |
SECTOR NUMBER |
Wartość określająca sektor. |
2 |
CRC |
Suma kontrolna weryfikująca dane ID. |
3 |
WRITE TURN-ON GAP |
OOh zapisane w celu izolacji VFO od danych. |
13 |
DATA SYNC VFO LOCK |
Wszystkie OOh; synchronizuje VFO z obszarem DATA. |
1 |
SYNC BYTE |
Alh; informuje kontroler o nadchodzących danych. |
1 |
ADDRESS MARK |
F8h; definiuje dane pola DATA. |
512 |
DATA |
Obszar przeznaczony na dane użytkownika. |
2 |
CRC |
Suma kontrolna weryfikująca dane pola DATA. |
3 |
WRITE TURN-OFF GAP |
OOh; zapisane w celu izolacji obszaru DATA. |
15 |
INTER-RECORD GAP |
Wszystkie OOh; bufor na wahania prędkości obrotowej. |
693 |
PRE-INDEX GAP |
Wszystkie 4Eh na końcu ścieżki przed znacznikiem indeksu. |
571 = Całkowita liczba bajtów na sektor: 512 = Dane (użyteczne) na sektor.
Uwaga: Wszystkie XXh oznaczają, że pole jest wypełnione bajtami o wartościach XXh.
Jak można się przekonać, użyteczne miejsce na każdej ścieżce jest około 15% mniejsze od całkowitej nie-sformatowanej pojemności nośnika. Wartość ta jest prawdziwa dla większości dysków, choć dokładna różnica procentowa może przedstawiać się nieco inaczej, w zależności od liczby sektorów na ścieżce. Poniżej opiszemy dokładniej poszczególne części danych sektora wymienione w tabeli 10.1.
Pole POST INDEX GAP zapewnia odstęp przeznaczony na zmianę głowicy, dzięki czemu, zmieniając ścieżkę, głowica może odczytywać kolejne sektory bez potrzeby czekania na dodatkowy pełny obrót dysku. Ponieważ dysk obraca się stale i głowice mają niewiele czasu na przesunięcie się pomiędzy ścieżkami, odczyt kolejnych sektorów na dwóch różnych ścieżkach natychmiast po przeczytaniu poprzedniego nie jest możliwy. W czasie, gdy głowica przesunie się na następną ścieżkę, początek kolejnego sektora już znajduje się za głowicą. Pozostawienie odstępu pomiędzy sektorami zapewnia głowicom nieco czasu na przesunięcie się do następnej ścieżki.
W niektórych napędach przerwa ta nie jest wystarczająca na przesunięcie głowic. W takim przypadku napęd może zapewnić dodatkowy czas, przesuwając sektory na kolejnych ścieżkach, dzięki czemu pierwszy sektor jest nieco opóźniony w stosunku do poprzedniej ścieżki. Inaczej mówiąc, proces formatowania niskopoziomowego tak przesuwa numery sektorów na kolejnych ścieżkach, aby sektory na sąsiednich ścieżkach nie miały takich samych numerów sektora, ale sektor 9 na jednej ścieżce leżał obok sektora 8 na sąsiedniej, sektora 7 na jeszcze następnej itd. Optymalne przesunięcie jest wyliczane na podstawie prędkości obrotowej dysku i prędkości przesuwania głowic.
Dawniej wartość przesunięcia sektorów była ustalana przez użytkownika na etapie formatowania niskopoziomowego. Dzisiejsze napędy ATA/IDE oraz SCSI są formatowane na etapie produkcji z optymalnym przesunięciem.
Dane ID sektora składają się z pól określających numer cylindra, głowicy i sektora oraz pola sumy kontrolnej wykorzystywanej do sprawdzania poprawności danych ID. Większość kontrolerów korzysta z 7. bitu w numerze głowicy do oznaczenia błędnego sektora wykrytego w czasie formatowania niskopoziomowego lub analizy powierzchni. Konwencja ta nie jest oczywiście obowiązująca. Niektóre kontrolery korzystają z innych metod zaznaczania błędnego sektora, ale oznaczenie to zwykle jest wykonywane z wykorzystaniem pól ID.
Pole WRITE TURN-ON GAP następujące po sumie kontrolnej pola ID stanowi strefę buforową zapewniającą prawidłowy zapis następujących po tym polu danych użytkownika.
Pole DATA składa się z 512 bajtów danych użytkownika zapisanych w sektorze. Po tym polu zapisana jest suma kontrolna służąca do weryfikacji pola danych. Choć wiele kontrolerów korzysta z dwubajtowej sumy kontrolnej, może być zastosowany dłuższy kod korekcji błędów (ECC) wymagający przechowywania więcej niż dwóch bajtów CRC. Zapisane dane ECC zapewniają możliwość wykrywania i korekcji błędów w polu DATA. Możliwości detekcji i korekty błędów zależą od rodzaju kodu ECC zastosowanego w kontrolerze. Pole WRITE TURN-OFF GAP zapewnia pełne odtworzenie bajtów CRC (ECC).
Dzięki polu INTER-RECORD GAP można zniwelować różnicę prędkości obrotowej dysku. Ścieżka mogła być sformatowana w momencie, gdy dysk obracał się nieco wolniej niż normalnie, a następnie dane są zapisywane, gdy dysk obracał się nieco szybciej. W takich przypadkach przerwa ta zabezpiecza przed przypadkowym zamazaniem danych w następnym sektorze. Dokładna wielkość tego odstępu zależy od prędkości obrotowej obszaru DATA w czasie formatowania dysku i za każdym razem, gdy jest uaktualniane pole DATA.
Pole INTER-RECORD GAP pozwala na tolerancję prędkości w obrębie całej ścieżki. Ma wielkość zależną od różnicy prędkości obrotowej dysku i tolerancji częstotliwości zapisu w czasie formatowania.
Pola nagłówka sektora są niezmiernie ważne, ponieważ zawierają dane identyfikujące cylinder, głowicę i sektor. Informacje te. oprócz pól DATA. DATA CRC i WRITE TURN-OFF GAP, są zapisywane tylko w czasie formatowania niskopoziomowego.
Formatowanie dysku
Przed rozpoczęciem zapisywania danych na dysk wymagane jest zastosowanie dwóch procedur formatowania:
Fizyczne — formatowanie niskopoziomowe.
Logiczne — formatowanie wysokiego poziomu.
Gdy formatujesz pustą dyskietkę, Eksplorator systemu Windows lub polecenie FORMAT systemu DOS uruchamia jednocześnie oba typy formatowania. Jeżeli dyskietka jest już sformatowana, DOS i Windows domyślnie wykonująjedynie formatowanie wysokiego poziomu.
Dysk twardy również wymaga dwóch niezależnych operacji formatowania. Dodatkowo, dysk twardy wymaga wykonania trzeciej czynności pomiędzy dwiema procedurami formatowania — zapisania informacji o partycjach dysku. Partycjonowanie jest wymagane, ponieważ dyski twarde są zaprojektowane do wykorzystania przez więcej niż jeden system operacyjny. Oddzielenie procedury formatowania niskopoziomowego, które zawsze przebiega tak samo, od formatowania wysokiego poziomu (różnego dla różnych systemów operacyjnych), umożliwia wykorzystanie jednego dysku przez kilka systemów operacyjnych. Partycjonowanie pozwala na uruchamianie różnych systemów operacyjnych umieszczonych na jednym dysku, jak również umożliwia jednemu systemowi operacyjnemu widzenie dysku twardego jako kilka wolumenów lub dysków logicznych. Nazwa wolumen lub dysk logiczny oznacza dowolny fragment dysku, któremu system operacyjny nadaje nazwę lub literę dysku.
Przygotowanie dysku twardego do normalnej pracy wymaga wykonania trzech czynności, którymi są:
Formatowanie niskopoziomowe (LLF).
Partycjonowanie.
Formatowanie wysokiego poziomu (HLF).
Formatowanie niskopoziomowe
W czasie formatowania niskopoziomowego program dzieli ścieżki dysku na określoną liczbę sektorów, tworząc przerwy między sektorami i ścieżkami oraz zapisy w nagłówkach i stopkach sektorów. Program formatujący wypełnia również pole danych określonym wzorcem testowym. W przypadku dyskietek liczba sektorów zapisanych na każdej ścieżce zależy od typu dysku i napędu. W przypadku dysków twardych liczba sektorów przypadających na ścieżkę zależy od dysku i rodzaju kontrolera.
Oryginalne komputery PC korzystały z osobnego kontrolera w formie karty rozszerzeń lub zintegrowanego z płytą główną. Ponieważ kontroler mógł być wykorzystywany do pracy z różnymi napędami dysków i mógł być wyprodukowany przez innego producenta, komunikacja pomiędzy kontrolerem a napędem podlegała pewnej standaryzacji. Z tego powodu liczba sektorów na ścieżce była względnie stała.
Oryginalny kontroler MFM ST-506/412 korzystał z 17 sektorów na ścieżkę, natomiast kontroler ST-506/412 z kodowaniem RRL zwiększył liczbę sektorów na ścieżkę do 25 lub 26 na ścieżkę. Dyski ESDI miały ponad 32 sektory na ścieżkę. Napędy ATA/IDE oraz SCSI wykorzystywane w dzisiejszych komputerach zapisują od 17 do ponad 900 sektorów na ścieżkę.
Niemal wszystkie napędy ATA i SCSI korzystają z techniki zapisu strefowego (ZBR), w którym zapisuje się zmienną liczbę sektorów na ścieżce. Bez zapisu strefowego liczba sektorów — a więc jednocześnie bitów — na każdej ścieżce jest stała. Oznacza to, że liczba bitów na jednostkę powierzchni jest zmienna. Na wewnętrznej ścieżce znajduje się więcej bitów na jednostkę powierzchni, natomiast na zewnętrznych ścieżkach gęstość zapisu jest mniejsza. Prędkość przesyłu danych i prędkość obrotowa pozostaje ta sama, podobnej jak liczba bitów na ścieżkę. Na rysunku 10.4 pokazany jest dysk o identycznej liczbie sektorów na ścieżkę.
Rysunek 10.4.
Standardowy sposób zapisu, z tą samą liczbą sektorów na ścieżkę
Standardowy tryb zapisu nieefektywnie wykorzystuje pojemność dysku na zewnętrznych ścieżkach, ponieważ, choć są one dłuższe, przechowują tę samą ilość danych (zapisanych z mniejszą gęstością) co ścieżki wewnętrzne. Jedyną metodą zwiększenia pojemności dysków twardych jest utworzenie w czasie formatowania większej liczby sektorów na zewnętrznych cylindrach dysku. Ponieważ zewnętrzne cylindry mają większy obwód, mogą przechowywać więcej danych. Napędy bez zapisu strefowego przechowują taką samą ilość danych w każdym cylindrze, pomimo że ścieżki zewnętrzne są dwa razy dłuższe niż ścieżki wewnętrzne. W wyniku tego marnuje się pojemność dysku, ponieważ nośnik musi umożliwiać niezawodne przechowywanie danych z tą sarną gęstością, co na wewnętrznych cylindrach. Gdy liczba sektorów na ścieżkę jest stalą, tak jak w sytuacji wykorzystywania starych kontrolerów, pojemność dysku jest ograniczana przez maksymalną gęstość zapisu na najbardziej wewnętrznej (najkrótszej) ścieżce.
Napędy korzystające z zapisu strefowego dzielą cylindry na grupy, zwane strefami, a w każdej kolejnej strefie, zaczynając od najbardziej wewnętrznej, mieści się coraz więcej sektorów na ścieżkę. Wszystkie cylindry w określonej strefie mają taką samą liczbę sektorów na ścieżkę. Liczba stref zależy od modelu dysku, ale większość dysków ma ponad 10 stref.
Na rysunku 10.5 pokazany jest dysk z zapisem strefowym.
Rysunek 10.5.
Zapis strefowy, gdzie liczba sektorów na ścieżkę zwiększa się w każdej kolejnej strefie, licząc od środka
Inną cechą zapisu strefowego jest zmienność prędkości przesyłu w zależności od strefy, w której znajduje się głowica odczytująca. Dysk z zapisem strefowym obraca się ze stałą prędkością. Ponieważ na ścieżkach stref zewnętrznych znajduje się więcej sektorów, prędkość przesyłu danych tam zapisanych jest większa. Konsekwentnie, prędkość przesyłu danych jest najmniejsza podczas odczytu lub zapisu stref wewnętrznych. Z tego powodu producenci podają minimalną i maksymalną wartość prędkości ciągłego przesyłu, która zależy od położenia odczytywanych lub zapisywanych danych.
Jako przykład, w tabeli 10.2 zamieszczono dane na temat stref w 2,5-calowym dysku Hitachi Travelstar 7K60 — liczba sektorów na ścieżkę w kolejnych strefach oraz prędkość przesyłu. Ten model dysku twardego jest jednym z najszybszych dostępnych na rynku napędów przeznaczonych dla komputerów przenośnych.
Tabela 10.2. Dane na temat stref w 2,5-calowym dysku twardego Hitachi Travelstar 7K60
Strefa |
Sektory na ścieżkę |
Bajty na ścieżkę |
Prędkość przesyłu (MB/s) |
0 |
720 |
368 640 |
44,24 |
1 |
704 |
360 448 |
43,25 |
2 |
696 |
356 352 |
42,76 |
3 |
672 |
344 064 |
41,29 |
4 |
640 |
327 680 |
39,32 |
5 |
614 |
314 368 |
37,72 |
6 |
592 |
303 104 |
36,37 |
7 |
556 |
284 672 |
34,16 |
8 |
528 |
270 336 |
32,44 |
9 |
480 |
245 760 |
29,49 |
10 |
480 |
245 760 |
29.49 |
11 |
456 |
233 472 |
28,02 |
12 |
432 |
221 184 |
26,54 |
13 |
416 |
212 992 |
25,56 |
14 |
384 |
196 608 |
23,59 |
15 |
360 |
184 320 |
22,12 |
Dysk ma w sumie 54 288 cylindrów podzielonych na 16 stref, z których każda średnio liczy 3393 cylindry. Strefa 0 składa się z cylindrów położonych najbardziej na zewnątrz, które są najdłuższe i zawierają najwięcej sektorów — po 720 dla każdej ścieżki. Ponieważ każdy sektor to 512 bajtów, każda ze ścieżek w zewnętrznej strefie przechowuje 368 640 bajtów danych. Wewnętrzna strefa zawiera tylko 360 sektorów przypadających dla każdej ścieżki. Oznacza to, że każda ścieżka takiej strefy może pomieścić 184 320 bajtów.
Dlatego, przy zastosowaniu zapisu strefowego, w przypadku omawianego dysku na ścieżkę przypada średnio 545,63 sektora. Bez zapisu strefowego liczba sektorów na ścieżkę byłaby ograniczona do 360 na całej powierzchni dysku. Zapis strefowy zapewnia prawie 52% zwiększenie pojemności opisywanego dysku.
Zwróćmy uwagę na różnicę prędkości przesyłu w kolejnych strefach. Ze względu na to, iż napęd obraca się z prędkością 7200 obr./min, jeden petny obrót jest wykonywany co V12o sekundy lub co 8,33 ms. A zatem prędkość przesyłu danych zmienia się w zależności od odczytywanej i zapisywanej strefy. W przypadku zewnętrznej strefy prędkość przesyłu danych wyniesie 44,24 MB/s. natomiast dla strefy wewnętrznej będzie miała wartość 22,12 MB/s. Średnia prędkość przesyłu dla omawianego napędu wynosi zatem 33,52 MB/s. Jest to powód, dla którego mogą występować ogromne rozbieżności w wynikach podawanych przez programy testujące wydajność dysków. Test. który odczytuje i zapisuje dane na zewnętrznych ścieżkach dysku w sposób naturalny osiąga lepsze wyniki niż test korzystający z wewnętrznych ścieżek. Może się wydać, że dysk działa wolniej niż w rzeczywistości, natomiast program testujący będzie porównywał wyniki działania dysków w różnych strefach.
Dysk ten jest zgodny ze specyfikacją ATA-6 i może działać w trybie Ultra-ATA/100 (nazywanym również UDMA-100), co oznacza, że maksymalna prędkość przesyłu wynosi 100 MB/s. Jest to prędkość czysto teoretyczną ponieważ prędkość przesyłu danych z nośnika wynosi od 22 MB/s do 44 MB/s, czyli średnio 33 MB/s. Maksymalna prędkość przesyłu dla interfejsu jest prędkością, z jaką interfejs może przesyłać dane. Nie ma ona nic wspólnego z możliwościami dysku.
Dyski z osobnymi kontrolerami wykorzystywane w przeszłości nie obsługują zapisu strefowego, ponieważ nie istniał standardowy sposób przesyłania danych o strefach między napędem i kontrolerem.
W przypadku dysków ATA i SCSI formatowanie poszczególnych ścieżek z dowolną liczbą sektorów stało się możliwe, ponieważ dyski te posiadają wbudowany kontroler. Wbudowany kontroler dysku korzysta z tego samego algorytmu podziału na strefy i może tłumaczyć fizyczne adresy cylindrów, głowic, sektorów i numery sektorów na logiczne numery cylindrów, głowic i sektorów, dzięki czemu dysk sprawia wrażenie, jakby miał identyczną liczbę sektorów na ścieżce. Ponieważ BIOS komputera PC potrafi przechowywać jedynie jedną wartość sektorów na ścieżce dla całego dysku, dysk z zapisem strefowym musi posiadać mechanizm translacji adresów sektorów.
Wykorzystanie zapisu strefowego pozwoliło producentom dysków zwiększyć ich pojemność o 20% do 50% w porównaniu z dyskami o stałej liczbie sektorów na ścieżkę. Wszystkie nowoczesne dyski korzystają z zapisu strefowego.
Partycjonowanie
Tworzenie partycji na dysku twardym pozwala na obsługę różnych systemów plików na osobnych partycjach.
Każdy system plików posiada inny sposób rezerwowania wolnego miejsca z wykorzystaniem klastrów lub jednostek alokacji. Każdy dysk twardy musi posiadać co najmniej jedną, a co najwyżej cztery partycje, z których każda może być obsługiwana przez ten sam lub różne systemy plików. Najczęściej używanymi systemami plików w systemach operacyjnych dla PC są:
FAT (tablica alokacji plików). Standardowy system plików obsługiwany przez DOS i Windows 9x/Me. Partycje FAT obsługują nazwy plików do 11 znaków (8 znaków nazwy i trzy rozszerzenia) w systemie DOS i do 255 znaków w systemie Windows 9x lub nowszych. Standardowy system plików FAT korzysta przy identyfikacji klastrów z liczb 12 i 16-bitowych, przez co maksymalną wielkością partycji jest 2 GB.
FAT32 (32-bitowa tablica alokacji plików). Jest to opcjonalny system plików obsługiwany przez Windows 95 OSR2, Windows 98, Windows Me oraz Windows 2000 i XP. System plików FAT32 wykorzystuje do identyfikacji plików liczby 32-bitowe, co pozwala na zakładanie partycji o wielkości 2 TB, a dokładniej 2048 GB.
NTFS (Windows NT File System). System plików przeznaczony dla Windows NT, 2000 i XP obsługujący nazwy plików o długości do 256 znaków i partycje (teoretycznie) do 16 eksabajtów. System plików NTFS posiada również obsługę rozszerzonych atrybutów i zabezpieczeń, które nie istnieją w systemie plików FAT.
Do czasu premiery systemu Windows XP, FAT32 był najczęściej stosowanym systemem plików. Ponieważ NTFS jest systemem podstawowym dla XP, teraz on staje się coraz popularniejszy. System plików FAT jest odczytywany przez niemal każdy system operacyjny, co powoduje, że jest najbardziej kompatybilny w środowisku wielosystemowym. Systemy FAT32 i NTFS posiadają dodatkowe funkcje, ale często nie są one dostępne z poziomu innych systemów operacyjnych.
► ► Zajrzyj do punktu „FAT32" znajdującego się na stronie 1423.
Partycjonowanie jest najczęściej wykonywane przez przeznaczony do tego program wchodzący w skład systemu operacyjnego. Nazwa i sposób działania programów partycjonujących dysk zmienia się w zależności od używanego systemu operacyjnego. Przykładowo w tym celu w systemach DOS i Windows 9x/Me stosowany jest program FDISK, natomiast w przypadku systemu Windows XP korzysta się z polecenia diskpart lub przystawki Zarządzanie dyskami, wchodzącego w skład narzędzia Zarządzanie komputerem. Program FDISK. polecenie diskpart lub inne narzędzie partycjonujące dysk pozwala na wybór ilości miejsca na tworzonej partycji z dokładnością od 1 MB aż do całej pojemności dysku lub maksymalnej wielkości partycji dopuszczanej przez wybrany system plików. Zwykle lepiej maksymalnie ograniczyć liczbę partycji, a wielu użytkowników (w tym i ja) korzysta tylko z jednej lub co najwyżej dwóch. Było to trudniejsze przed wprowadzeniem systemu plików FAT32, ponieważ maksymalna wielkość partycji dla systemu FAT wynosi jedynie 2 GB. W przypadku FAT32 maksymalna wielkość partycji została zwiększona do 2048 GB.
Program FDISK, polecenie diskpart lub inne narzędzie partycjonujące dysk dołączone do systemu operacyjnego nie może być wykorzystane do zwiększenia wielkości partycji; potrafi ono jedynie utworzyć lub usunąć partycję. W procesie usuwania i tworzenia partycji niszczone są wszystkie dane, jakie były w niej zapisane. Aby manipulować partycjami bez utraty danych, należy skorzystać z programów narzędziowych, takich jak Partition Magie firmy PowerQuest lub Partition Commander firmy V-Communications.
Po partycjonowaniu dysku każda z założonych partycji musi zostać sformatowana przez system operacyjny, który będzie z niej korzystał.
Formatowanie wysokiego poziomu
W czasie formatowania wysokiego poziomu system operacyjny zapisuje wszystkie struktury niezbędne do zarządzania danymi na dysku. Na przykład, partycja FAT posiada dla każdego dysku logicznego tzw. Yolume Boot Sector (VBS) dwie kopie tablicy alokacji plików (FAT) oraz katalog główny. Te struktury pozwalają systemowi operacyjnemu na zarządzanie wolnym miejscem na dysku, zapamiętywanie położenia plików, a nawet zarządzanie uszkodzonymi obszarami tak, aby nie przeszkadzały one w normalnej pracy systemu.
Formatowanie wysokiego poziomu nie wykonuje fizycznego formatowania dysku, a raczej tworzy spis treści dysku. W procesie formatowania niskopoziomowego, które jest prawdziwym, fizycznym formatowaniem, na dysk są zapisywane ścieżki i sektory. Tak jak wspomniałem, program FORMA T systemów DOS i Windows 9x/Me może wykonywać formatowanie niskiego i wysokiego poziomu dla dyskietki, ale dla dysków twardych wykonuje jedynie formatowanie wysokiego poziomu. Formatowanie niskiego poziomu dysków ATA i SCSI jest wykonywane przez producenta i niemal nigdy nie jest wykonywane przez użytkownika. Formatowanie niskopoziomowe dysku ATA lub SCSI zdarzyło mi się wykonywać jedynie wtedy, gdy próbowałem naprawić uszkodzony format (części dysku nie dało się odczytać) lub w niektórych przypadkach, gdy chciałem usunąć wszystkie dane z dysku.
Podstawowe części dysku twardego
Na rynku dostępnych jest wiele typów dysków twardych, ale niemal wszystkie korzystają z tych samych podstawowych komponentów. Różnice mogą wystąpić w implementacji tych komponentów (i oczywiście jakości zastosowanych przy produkcji materiałów), ale charakterystyka pracy większości z nich jest podobna. Podstawowe składniki typowego dysku twardego to (patrz rysunek 10.6):
Rysunek 10.6. Typowe elementy dysku twardego
talerze dysku,
głowice odczytująco-zapisujące,
mechanizm pozycjonera głowicy,
silnik napędu talerzy (wewnątrz piasty),
płytka z układami logicznymi (kontroler),
kable i złącza,
elementy konfiguracyjne (takie jak zworki i przełączniki).
Talerze, silnik, głowice i pozycjoner głowic są zwykle umieszczone w zamkniętej komorze określanej jako HDA (ang. Hard Disk Assembly — zespół głowic i dysku). Układ HDA jest zwykle traktowany jako jeden element i rzadko jest otwierany. Pozostałe części dysku, takie jak płytka z układami kontrolera, obejma i pozostałe części mogą być zdemontowane z dysku.
Talerze dysku twardego (dyski)
Dysk twardy ma jeden lub więcej talerzy, czyli dysków. W historii dysków przeznaczonych dla systemów PC. byty one dostępne w kilku wielkościach. Zwykle wielkość dysku jest określana wielkością talerzy. W dyskach twardych do komputerów PC używane były następujące wielkości:
5,25 cala (właściwie 130 mm czyli 5,12 cala),
3.5 cala (właściwie 95 mm czyli 3,74 cala),
2,5 cala (właściwie 65 mm czyli 2,56 cala),
1,8 cala (właściwie 48 mm czyli 1,89 cala),
1 cal (właściwie 34 mm czyli 1,33 cala),
0,85 cala (właściwie 21,5 mm).
Dostępne są również dyski 8-calowe lub 14-calowe, ale nie są one używane w komputerach PC. W chwili obecnej najpopularniejsze dyski dla komputerów biurkowych i niektórych przenośnych to 3,5 cala. a 2,5 cala i mniejsze są bardzo popularne w notebookach.
W roku 1998 IBM wprowadził na rynek dysk o nazwie Microdrive (aktualnie wytwarzany przez firmę Hitachi Global Storage Technologies), który w chwili obecnej może pomieścić 4 GB lub więcej na pojedynczym talerzu
0 średnicy jednej czwartej cala! Dyski te mają fizyczny i elektryczny format karty Compact Flash typu U (CF). co oznacza, że mogą być używane we wszystkich urządzeniach korzystających z kart CF. na przykład w aparatach cyfrowych, odtwarzaczach MP3 i palmtopach.
W 2004 r. firma Toshiba wprowadziła na rynek jeszcze mniejszy napęd o wielkości 0,85 cala. który ma rozmiar mniej więcej znaczka pocztowego i może przechowywać maksymalnie 4 GB danych. Co prawda napęd nie został zaprojektowany z myślą o komputerach PC, ale znajdzie zastosowanie w telefonach komórkowych, cyfrowych odtwarzaczach audio, cyfrowych asystentach osobistych, aparatach cyfrowych, kamkorderach itp.
Kilka firm wprowadziło na rynek napędy 1,8 cala, a najbardziej znane pośród nich to HP, Calluna, Toshiba
1 Hitachi. Z tych firm jedynie Toshiba i Hitachi kontynuują produkcję takich dysków. W roku 2000 Toshiba wprowadziła do sprzedaży dysk 1.8 cala, który ma fizyczny format karty PC Card typu II lub format umożliwiający zamontowanie wewnątrz urządzenia. W 2003 r. firma Hitachi przedstawiła swoje 1,8-calowe dyski. Mają one pojemność 40 GB lub większą i mogą być wykorzystane w bardzo cienkich i lekkich laptopach, a także w cyfrowych asystentach osobistych, odtwarzaczach MP3 i innych niewielkich urządzeniach cyfrowych.
Większość dysków posiada dwa lub więcej talerzy, choć małe modele wykorzystywane w systemach przenośnych i niektóre najprostsze napędy przeznaczone dla komputerów PC mają jedynie jeden. Liczba talerzy jest ograniczana przez wysokość dysku. Maksymalna liczba talerzy jaką widziałem to 12, jednak większość korzysta z 6 i mniej.
Talerze są najczęściej wykonane ze stopu aluminium z magnezem, który zapewnia zarówno wytrzymałość, jak i niewielką wagę. Jednak producenci, chcąc osiągać coraz większe gęstości zapisu danych na swoich dyskach, wypuszczają mniejsze modele z talerzami wykonanymi ze szkła (a dokładniej kompozytu ceramiczno-szklanego). Materiał ten produkowany jest przez firmę Dow Corning Corporation i nazywany MemCor. Mem-Cor składa się ze szklą z ceramicznymi wstawkami zapewniającymi większą odporność na pękanie niż czyste szkło. Szklane talerze są bardziej sztywne niż metal (ponieważ metal może się zginać, a szkło nie) i dlatego mogą mieć grubość o połowę mniejszą niż konwencjonalne dyski aluminiowe. Dyski szklane mają większą stabilność cieplną niż dyski aluminiowe, co oznacza, że nie rozszerzają się i nie kurczą wraz ze zmianami temperatury. Kilka nowych dysków twardych wyprodukowanych przez firmy IBM, Seagate. Toshiba, Areał Technology i Maxtor korzysta ze szklanych talerzy; firma Hitachi Global Storage Technologies (wspólne przedsięwzięcie firm IBM i Hitachi) projektuje już wszystkie nowe dyski z wykorzystaniem takiej technologii. W przypadku większości pozostałych producentów szkło zastąpi standardowy stop magnezu z aluminium w przeciągu kilku następnych lat.
Nośniki zapisu
Niezależnie od materiału użytego do wykonania talerzy, są one pokryte cienką warstwą substancji czynnej magnetycznie, nazywanej nośnikiem, na której zapisywane są dane. Wykorzystuje się trzy rodzaje nośników magnetycznych:
tlenki.
nośnik cienkowarstwowy,
nośnik AFC (sprzężony antyferromagnetycznie).
Tlenki
Nośnik wykorzystujący tlenki zawiera tlenek żelaza jako składnik aktywny. Warstwa magnetyczna jest tworzona przez powleczenie aluminiowego talerza gęstym płynem zawierającym cząstki tlenku żelaza. Jest on rozprowadzany poprzez obracanie talerza z dużą prędkością— siła odśrodkowa powoduje rozpłynięcie się materiału od środka talerza do jego brzegów, tworząc równą warstwę materiału. Powierzchnia jest następnie utwardzana i polerowana. Na koniec nakładana jest warstwa materiału zabezpieczającego i smarującego powierzchnię. Powłoka tlenków ma grubość około 10 nm. Jeżeli mógłbyś zajrzeć do napędu z talerzami pokrytymi tlenkami, zauważyłbyś, że mają one kolor od brązowego do bursztynowego.
Wraz ze wzrostem gęstości zapisu w dyskach, warstwa magnetyczna musiała stawać się coraz cieńsza i perfekcyjnie uformowana — możliwości nośnika wykorzystującego tlenki zostały już wyczerpane. Ponieważ powierzchnia nośnika korzystającego z tlenków jest bardzo miękka, jest on narażony na uszkodzenie podczas uderzenia głowicy zachodzącego, gdy dysk zostanie potrząśnięty podczas pracy. Większość starszych dysków, szczególnie tych najtańszych, korzysta z takich właśnie talerzy. Nośnik tlenkowy był używany od roku 1955 i pozostawał popularny z powodu swojej niskiej ceny i łatwości stosowania. Dziś bardzo niewiele napędów korzysta z tej technologii.
Nośnik cienkowarstwowy
Nośnik cienkowarstwowy jest cieńszy, twardszy i dokładniej uformowany niż nośnik tlenkowy. Zosta! zaprojektowany jako nośnik o ogromnych możliwościach pozwalający skonstruować nową generację napędów, w których zmniejszono odległości głowicy od nośnika, co z kolei pozwoliło na zwiększenie gęstości zapisu. Na początku nośnik cienkowarstwowy był używany jedynie w dyskach o dużej pojemności i wysokiej jakości, ale w chwili obecnej niemal wszystkie dyski korzystają z niego.
,.Nośnik cienkowarstwowy" to bardzo trafna nazwa. Warstwa tego nośnika jest dużo cieńsza niż tworzona przy wykorzystaniu nośnika tlenkowego. Nośnik cienkowarstwowy jest nazywany również galwanizowanym lub napylanym, ponieważ do nakładania nośnika na talerze stosowane są te właśnie metody.
Nośnik cienkowarstwowy jest nakładany na talerz za pomocą metody galwanicznej, sposobem podobnym do tego, w jaki nakłada się chrom na zderzaki samochodów. Stop aluminium i magnezu lub szkło jest zanurzane w kilku kąpielach chemicznych, które powodują pokrycie go kilkoma warstwami metalicznymi. Nośnikiem jest warstwa stopu kobaltu o grubości około 40 mikrometrów.
Nośnik cienkowarstwowy jest nakładany poprzez pokrycie aluminiowych talerzy warstwą fosforku niklu, a następnie nałożenie magnetycznego stopu kobaltu w ciągłym procesie nakładania próżniowego nazywanego napylaniem. Metoda ta pozwala na nakładanie warstw magnetycznych o grubości poniżej 40 mikrometrów i jest podobna do nakładania warstwy metalicznej na płytki krzemowe w przemyśle półprzewodnikowym. Ta sama technika napylania jest stosowana następnie do nałożenia niezwykle twardej, 40-mikrometrowej ochronnej warstwy węgla. Stosowanie niemal całkowitej próżni powoduje, że proces napylania jest najbardziej kosztownym opisanym tu procesem.
Powierzchnia napylonych talerzy ma warstwę magnetyczną o grubości 40 mikrometrów. Ponieważ warstwa ta jest również bardzo gładka, głowica może unosić się bliżej dysku, niż było to możliwe wcześniej. Odległość ta wynosi jedynie 10 nanometrów. Gdy głowica jest bliżej dysku, gęstość strumienia magnetycznego może być zwiększona, aby uzyskać większą pojemność zapisu. Dodatkowo, zwiększona intensywność pola magnetycznego w czasie odczytu zapewnia większą amplitudę sygnałów, niezbędną do osiągania dobrego odstępu pomiędzy sygnałem a szumami.
Zarówno proces napylania, jak i galwanizacji dają w wyniku bardzo cienką powierzchnię nośnika magnetycznego. Ponieważ nośnik cienkowarstwowy jest tak twardy, istnieje mniejsza szansa uszkodzenia go podczas zderzenia z głowicą przy pełnej prędkości. Właściwie nowoczesne napędy korzystające z nośnika cienkowarstwowego są niemal niezniszczalne. Jeżeli mógłbyś otworzyć obudowę i obejrzeć talerze, zobaczyłbyś, że dyski pokryte nośnikiem cienkowarstwowym mają lustrzaną powierzchnię.
Nośnik AFC
Najnowsza technologia to nośniki sprzężone antyferromagnetycznie (AFC). Zaprojektowana została w celu umożliwienia zastosowania gęstości przekraczających dzisiejsze ograniczenia. Za każdym razem, gdy zwiększana jest gęstość, warstwa magnetyczna musi być coraz cieńsza. Gęstość powierzchniowa (ścieżki na cal / bity na cal) zwiększyła się do tego stopnia, że ziarna w warstwie magnetycznej używane do zapisu danych są zbyt małe, aby być stabilne przez dłuższy czas, co owocuje powstaniem niepewnego zapisu. Sytuacja ta jest nazywana ograniczeniem superparamagnetycznym i występuje pomiędzy 30 a 50 GB/cal kwadratowy. Dzisiejsze dyski osiągają 35 GB/cal kwadratowy, co oznacza, że ograniczenie superparamagnetyczne zacznie już niedługo wpływać na projekty nowych napędów.
Nośnik AFC składa się z dwóch warstw magnetycznych rozdzielonych bardzo cienką, 3-atomową (6 angstre-mów) warstwą rutenu. IBM nazwał tę ultracienką warstwę pixie dust. Ta „kanapka" tworzy sprzężenie antyferromagnetyczne pomiędzy warstwą górną i dolną powodujące, że pozorna grubość magnetyczna całej struktury wynosi tyle co różnica pomiędzy górną i dolną warstwą. Pozwala to na wykorzystanie fizycznie grubszych warstw magnetycznych, posiadających większe i bardziej stabilne ziarna, funkcjonujących razem jako jedna, dużo cieńsza warstwa.
IBM zastosował nośnik AFC w kilku dyskach, rozpoczynając od serii 2,5-calowych dysków Travelstar wprowadzonych na rynek w roku 2001; były to pierwsze dyski stosujące nośnik AFC. Dodatkowo. IBM zastosował nośnik AFC w dysku 3,5-calowym przeznaczonym dla komputerów stacjonarnych, Deskstar 120 GXP. Nośnik AFC jest też stosowany przez firmę Hitachi Global Storage Technologies, która przejęła serie dysków twardych firmy IBM. Można się spodziewać, że inni producenci również wprowadzą ten typ nośnika do swoich dysków. Wykorzystanie technologii AFC pozwala na zwiększenie gęstości powierzchniowych rzędu 100 GB/cal kwadratowy.
► ► W celu uzyskania dodatkowych informacji na temat nośnika AFC i innych zaawansowanych technologii
przechowywania danych zajrzyj do rozdziału 9., „Świat urządzeń o zapisie magnetycznym", znajdującego się na stronie 693.
Głowice odczytująco-zapisujące
Dyski twarde mają najczęściej jedną głowicę odczytująco-zapisującądla każdej powierzchni dysku (czyli każdy talerz posiada dwie głowice —jedną dla dolnej powierzchni i jedną dla górnej). Głowice są przyłączone do jednego mechanizmu poruszającego nimi, dlatego wszystkie głowice są razem przesuwane po powierzchni dysku.
Budowa głowic odczytująco-zapisujących jest prosta. Każda głowica znajduje się na ramieniu pozycjonera, które jest sprężyste i dociska ją do talerza. Niewielu ludzi zdaje sobie sprawę, że każdy talerz jest ściskany z dołu i z góry przez głowice. Jeżeli otworzyłbyś bezpiecznie dysk i podniósł górną głowicę, to po jej puszczeniu zostanie ona przyciągnięta do powierzchni talerza. Jeżeli odciągniesz jedną głowic z dolnej powierzchni talerzy, sprężyste ramię wróci do góry po jej puszczeniu.
Na rysunku 10.7 pokazany jest typowy układ pozycjonera głowic pochodzący z dysku z napędem w postaci cewki swobodnej.
Rysunek 10.7.
Układ głowic odczytująco
—zapisujących
i pozycjonera
z cewką swobodną
Gdy dysk jest w stanie spoczynku, głowice są dociskane przez sprężyste ramiona do talerzy, ale gdy dysk rozpędzi się do prędkości roboczej, ciśnienie powietrza tworzy poduszkę powietrzną unoszącą głowice nad jego powierzchnię. Gdy dysk obraca się z pełną prędkością, odległość pomiędzy głowicami i talerzem wynosi w nowoczesnych dyskach od 0,01 mikrometra do 0,1 mikrometra i więcej.
Na początku lat sześćdziesiątych głowice dysków były oddalone od talerzy o 5 - 7 mikrometrów; w dzisiejszych napędach głowice są oddalone od talerza o około 10 nanometrów. Aby zapewnić większą gęstość zapisu w dyskach przyszłości, głowice i dysk będą jeszcze bliżej siebie, a w niektórych dyskach będą nawet spoczywały na powierzchni talerza. Do zapisu z wykorzystaniem pełnego lub częściowego kontaktu głowic z talerzem potrzebne będą nowe projekty nośników i głowic.
Mały odstęp pomiędzy talerzami i głowicami stanowi główny powód, dla którego nie należy otwierać HDA dysku, jeżeli nie można tego zrobić w odpowiednio czystym środowisku. Dowolna cząstka kurzu lub brudu, która dostałaby się do mechanizmu, może powodować niewłaściwy odczyt danych lub nawet uderzenie głowic o talerze obracające się z pełną prędkością. W takim przypadku może dojść do zarysowania powierzchni talerza i jego trwałego uszkodzenia.
Aby zapewnić odpowiednią czystość wnętrza dysku, układy HDA są montowane w pomieszczeniach o klasie czystości 100 lub lepszej. Specyfikacja ta oznacza, że w metrze sześciennym powietrza nie może się znajdować więcej niż 100 cząstek o wielkości do 0,5 mikrona. Nieruchoma osoba wydycha w ciągu minuty około 500 takich cząstek! Pomieszczenia te posiadają specjalne urządzenia filtrujące, które ciągle oczyszczają powietrze. Układ HDA może być otwierany jedynie w takim pomieszczeniu.
Choć utrzymywanie tak czystego środowiska może wydawać się drogie, wiele firm produkuje tego typu komory przeznaczone do ustawienia na stole. Niektóre z tych urządzeń działają jako komora rękawicowa, operator wkłada napęd i potrzebne narzędzia, zamyka urządzenie i włącza system filtracyjny. Wewnątrz urządzenia tworzy się sterylne środowisko, a operator może poprzez wbudowane rękawice pracować nad napędem.
W innym rozwiązaniu, operator stoi przy biurku, gdzie kurtyna powietrzna wytwarza na jego powierzchni czystą atmosferę. Operator wchodzi do pomieszczenia i z niego wychodzi poprzez kurtynę powietrzną. Kurtyny podobnego typu są stosowane w niektórych sklepach i domach towarowych w celu zapobiegania przed uciekaniem w zimie ciepłego powietrza przez otwarte drzwi.
Ponieważ tworzenie czystego środowiska jest kosztowne, niewiele firm poza producentami dysków posiada właściwe wyposażenie do serwisowania dysków twardych.
Rodzaje głowic odczytująco-zapisujących
Wraz z rozwojem technologii dysków twardych zmieniały się również głowice. Pierwsze głowice były rdzeniami żelaznymi z nawiniętą cewką (elektromagnes). Zgodnie z dzisiejszymi standardami pierwsza głowica była ogromna i zapewniała bardzo małą gęstość zapisu. Z czasem głowice rozwinęły się od pierwszych głowic ferrytowych do stosowanych dzisiaj głowic magnetorezystywnych.
Więcej informacji na temat różnych rodzajów głowic znajduje się w rozdziale 9.
Mechanizm pozycjonera głowicy
Prawdopodobnie ważniejszy niż sama głowica jest układ mechaniczny służący do jej przesuwania — pozycjoner głowicy. Mechanizm przesuwa głowice poprzecznie po dysku i ustawia je precyzyjnie nad żądanym cylindrem. Wykorzystywane są różne mechanizmy pozycjonera, ale można je podzielić na dwie kategorie;
pozycjonery z silnikiem krokowym,
pozycjonery ze swobodną cewką.
Wykorzystanie jednego z tych typów pozycjonera ma głębokie konsekwencje odnośnie wydajności i niezawodności dysku. Nie ograniczają się jedynie do prędkości, ale także obejmują dokładność, wrażliwość na temperaturę, pozycję, wibracje i ogólną niezawodność. Pozycjoner głowicy jest najważniejszym pojedynczym elementem dysku i typ jego mechanizmu ma duży wpływ na wydajność dysku i charakterystykę niezawodności. W tabeli 10.3 zestawione są dwa typy pozycjonerów głowicy i ich wpływ na charakterystykę wydajności.
Tabela 10.3. Charakterystyka pozycjonera z silnikiem krokowym i swobodną cewką
Charakterystyka |
Silnik krokowy |
Swobodna cewka |
Średni czas dostępu |
Niski |
Wysoki |
Wrażliwość na temperaturę |
Tak (duża) |
Nie |
Wrażliwość na położenie |
Tak |
Nie |
Automatyczne parkowanie głowic |
Najczęściej brak |
Tak |
Okresowa obsługa |
Okresowe reformatowanie |
Nie wymagana |
Średnia niezawodność |
Niska |
Doskonalą |
Pozycjonery z silnikiem krokowym były powszechnie stosowane w dyskach twardych produkowanych w latach 80 i na początku lat 90, które miały pojemność 100 MB i mniej. Wszystkie dyski o większej pojemności, z jakimi się spotkałem, korzystająz pozycjonera ze swobodną cewką.
Napędy dyskietek korzystają do ustawiania głowic z pozycjonera z silnikiem krokowym. Dokładność mechanizmu krokowego jest wystarczająca dla dyskietek, ponieważ gęstość ścieżek zwykle nie zbliża się nawet do gęstości stosowanych w dysku twardym. Dla dyskietki 1,44 MB wartość ta wynosi 135 ścieżek na cal, natomiast dyski twarde mają gęstość powyżej 5000 ścieżek na cal. Wszystkie produkowane dziś dyski korzystają z pozycjonerów ze swobodną cewką, ponieważ silniki krokowe nie zapewniają wystarczającej dokładności.
Pozycjoner z silnikiem krokowym
Silnik krokowy jest silnikiem elektrycznym, który potrafi wykonywać „kroki" — przesunięcia pomiędzy pozycjami. Jeżeli będziemy próbować ręcznie obrócić oś takiego silnika, usłyszymy trzaski lub buczenie, gdy silnik będzie przełączał się pomiędzy kolejnymi zaczepami pozycji.
Silniki krokowe nie mogą zatrzymać się pomiędzy pozycjami; zatrzymują się jedynie na z góry określonych pozycjach. Silniki te są niewielkie (pomiędzy 2,5 a 4,5 cm) i mogą być kwadratowe, cylindryczne lub płaskie. Silniki krokowe nie są zamknięte w HDA — oś silnika wchodzi do HDA przez uszczelniony otwór.
Mechanizm silnika krokowego sprawia wiele problemów, a największym z nich jest temperatura. Gdy talerze dysku nagrzewają się i stygną, to rozszerzają się i kurczą, przez co ścieżki przesuwają się w stosunku do wyznaczonych pozycji. Mechanizm pozycjonera nie może ustawiać się dokładnie na ścieżce, aby skorygować efekt zmian temperatury. Dysk pozycjonuje głowice na określonym cylindrze wykonując jedynie określoną ilość kroków silnika.
Na rysunku 10.8 pokazano budowę mechanizmu pozycjonera z silnikiem krokowym, w którym do przenoszenia napędu obracającej się osi silnika na sam pozycjoner głowicy wykorzystuje się dzieloną taśmę stalową.
Rysunek 10.8.
Pozycjoner
z silnikiem krokowym
Pozycjoner ze swobodną cewką
Pozycjoner ze swobodną cewkąjest używany niemal we wszystkich dziś stosowanych dyskach, ponieważ w przeciwieństwie do rozwiązania z silnikiem krokowym może wykorzystać sygnał zwrotny z dysku i dokładnie określić położenie głowicy oraz skorygować je w razie potrzeby. Taka konstrukcja zapewnia znacznie większą wydajność, dokładność i niezawodność w porównaniu z tradycyjnymi pozycjonerami z silnikami krokowymi.
Pozycjoner ze swobodną cewką wykorzystuje jedynie siły elektromagnetyczne. Jego budowa jest podobna do konstrukcji zwykłego głośnika. Głośniki posiadają stacjonarny magnes, wokół którego znajduje się cewka połączoną z papierową membraną. Przepuszczenie prądu przez cewkę powoduje jej przesunięcie względem stacjonarnego magnesu i wygenerowanie dźwięku poprzez poruszanie membraną. W typowym układzie dysku twardego ze swobodną cewką, cewkąjest podłączona do końca stojaka głowic i umieszczona blisko magnesu stacjonarnego. Pomiędzy magnesem i cewką nie zachodzi fizyczny kontakt; cewkąjest poruszana jedynie przez pole magnetyczne. Gdy przez cewkę zostanie przepuszczony prąd, jest ona przyciągana lub odpychana przez magnes i w ten sposób przesuwa ramiona z głowicami. Systemy tego typu są niezwykle szybkie, efektywne i najczęściej wytwarzają mniejszy hałas niż systemy z silnikami krokowymi.
W przeciwieństwie do silnika krokowego, swobodna cewka nie posiada żadnych mechanicznych zaczepów; zamiast tego. specjalny system sterujący zatrzymuje ramię z głowicami nad określonym cylindrem. Ponieważ me ma żadnych mechanicznych zaczepów, pozycjoner ze swobodną cewką może płynnie przesuwać głowice na dowolną pozycję. Pozycjoner ze swobodną cewką korzysta z mechanizmu sterującego zwanego serwo. wskazującego pozycjonerowi, gdzie znajdują się głowice i umieszczająje dokładnie na żądanej pozycji. System pozycjonowania często jest nazywany mechanizmem z zamkniętą pętlą zwrotną. Do elektroniki pozycjonera wysyłany jest sygnał indeksowy (lub serwo), a w odpowiedzi otrzymywany jest sygnał zwrotny wykorzystywany do dokładnego ustawienia głowic. System ten jest nazywany również systemem z serwosterowaniem. co odnosi się do informacji serwo lub indeksowych używanych do sterowania dokładnym położeniem głowicy.
Pozycjoner ze swobodną cewką z serwosterowaniem jest niewrażliwy na zmiany temperatury. Gdy zmiana temperatury powoduje rozszerzenie lub skurczenie talerzy dysku, system swobodnej cewki automatycznie je kompensuje, ponieważ nigdy nie ustawia on głowic na predefiniowanej pozycji ścieżki. Zamiast tego. system sterowania swobodną cewką szuka określonej ścieżki naprowadzany zapisanymi danymi, a następnie ustawia głowice nad wymaganą ścieżką, niezależnie gdzie się ona znajduje. Ponieważ dane zwrotne informacji serwo są ciągłe, głowice zawsze nastawiają się na bieżącą pozycję ścieżki. Na przykład, wraz z nagrzewaniem się dysku i rozszerzaniem się talerzy, informacje serwo pozwalają na „śledzenie" ścieżki. W wyniku tego pozycjoner ze swobodną ścieżką jest nazywany systemem ze śledzeniem ścieżki.
Istnieją dwa główne typy mechanizmów pozycjonera ze swobodną cewką:
liniowe pozycjonery ze swobodną ścieżką,
obrotowe pozycjonery ze swobodną ścieżką.
Te dwa typy różnią się jedynie fizycznym rozmieszczeniem magnesów i cewki.
Pozycjoner liniowy
Pozycjoner liniowy przesuwa głowice nad talerzami po prostej (patrz rysunek 10.9). Cewka przesuwa się w przód i tył na ścieżce otoczonej magnesami stacjonarnymi. Podstawową zaletą mechanizmu liniowego jest wyeliminowanie odchyleń azymutu głowicy zachodzących przy obrotowym systemie pozycjonowania (azymut to miara kątowa pozycji głowicy względem stycznej do podanego cylindra). Pozycjoner liniowy nie obraca głowicami, przesuwając je między cylindrami, więc problem ten jest usunięty.
Choć pozycjoner liniowy wydaje się dobrym projektem, posiada on jedną poważną wadę — urządzenia są zbyt ciężkie. Wraz ze wzrostem wydajności dysków niezwykle ważne jest stosowanie lekkich mechanizmów pozycjonera. Im lżejszy mechanizm, tym szybciej przyspiesza i hamuje. Ponieważ mechanizmy te są znacznie cięższe niż pozycjonery obrotowe, pozycjonery liniowe były popularne jedynie przez krótki czas; nie są one stosowane w produkowanych obecnie dyskach.
Rysunek 10.9.
Pozycjoner liniowy ze swobodną cewką
Pozycjonery obrotowe również korzystają ze stacjonarnych magnesów i przesuwających się cewek, ale cewka jest umieszczona na końcu ramienia pozycjonera. Gdy cewka się przesuwa względem nieruchomego magnesu, przesuwa ramię głowicy nad powierzchnią dysku. Podstawową zaletą tego mechanizmu jest niska waga, co oznacza, że głowice mogą przyspieszać i hamować bardzo szybko, co daje w efekcie krótkie czasy dostępu. Z powodu efektu dźwigni na ramieniu głowicy, głowice przesuwają się szybciej niż pozycjoner, co również pozwala poprawić czas dostępu (schemat pozycjonera obrotowego znajduje się na rysunku 10.7).
Wadą systemu obrotowego jest to, że gdy głowica przesuwa się od cylindrów zewnętrznych do wewnętrznych, obracają się one nieco względem stycznej do cylindra. Obrót ten powoduje błąd azymutu i jest jednym z powodów ograniczenia powierzchni talerzy, na której mogą znajdować się ścieżki. Ograniczenie całkowitego ruchu pozycjonera pozwala na zmniejszenie błędu azymutu do rozsądnej wielkości. Niemal wszystkie dzisiejsze napędy korzystają z obrotowych systemów pozycjonerów.
Serwomechanizmy
Do sterowania pozycjonerami ze swobodną cewką stosowane były do tej pory trzy rodzaje serwomechanizmów:
serwo klinowe,
serwo wbudowane,
serwo dedykowane.
Te trzy typy są różne, ale służą do tego samego celu: umożliwiają ciągłe sterowanie pozycjonerem głowicy, dzięki czemu jest ona precyzyjnie umieszczona nad określonym cylindrem dysku. Główną różnicą jest miejsce zapisu kodu Graya na dysku.
Wszystkie serwomechanizmy korzystają ze specjalnych danych zapisanych na dysku podczas jego produkcji. Dane te są zapisane w formie specjalnego kodu zwanego kodem Graya. Jest to specjalna notacja binarna, w której dwie sąsiednie liczby są reprezentowane przez kod różniący się tylko jednym bitem. System taki pozwala na łatwy odczyt informacji przez głowicę i błyskawiczne i precyzyjne określanie jej pozycji.
W czasie produkcji dysku specjalne urządzenie nazywane serwowriterem zapisuje kod Graya serwomechanizmu na dysk. Serwowriter to w gruncie rzeczy jarzmo, które mechanicznie przesuwa głowicę w określone miejsce, gdzie zapisywana jest informacja serwo dla tej pozycji. Wiele serwowriterów jest naprowadzanych promieniem lasera, obliczając własną pozycję na podstawie długości fali świetlnej. Ponieważ serwowriter musi mechanicznie przesuwać głowice, proces wymaga zdjęcia pokrywy napędu lub wykonywanie tej operacji przez specjalny port dostępu w HDA. Po zakończeniu zapisu informacji serwo port jest najczęściej zaklejany taśmą. Często można zauważyć zasłonięte taśmą otwory w HDA, zwykle opatrzone ostrzeżeniem, że w przypadku sunięciu tej taśmy nastąpi utrata gwarancji. Ponieważ zapis informacji serwo powoduje odkrycie wnętrza HDA, operacja ta musi być wykonywana w czystym środowisku.
Serwowriter jest drogim urządzeniem — ceny zaczynają się od 172 000 zł i często musi być wykonany specjalnie dla konkretnego modelu dysku. Niektóre firmy naprawiające dyski są w stanie zapisywać informacje serwo, jeżeli dane te zostaną uszkodzone. Jeżeli nie jest dostępny serwowriter, napęd z uszkodzonymi danymi serwo musi być odesłany do producenta w celu ponownego ich zapisu.
Na szczęście, uszkodzenie danych serwo w czasie odczytu i zapisu dysku jest niemożliwe. Napędy są tak zaprojektowane, że głowice nie mogą ich nadpisać, nawet w procesie formatowania niskopoziomowego. Jednym z. krążących mitów (szczególnie w odniesieniu do dysków ATA) jest możliwość uszkodzenia danych serwo przez niewłaściwe formatowanie niskopoziomowe. Nie jest to prawda. Nieprawidłowe formatowanie niskopoziomowe może spowodować zmniejszenie osiągów dysku, ale dane serwo są chronione i nie mogą być nadpisane. Dane serwo mogą ulec uszkodzeniu przez silne pole magnetyczne lub silne wstrząsy występujące podczas zapisu danych, które mogą spowodować wytrącenie głowicy poza ścieżkę.
Zdolność śledzenia ścieżki przez pozycjoner z serwosterowaniem eliminuje błędy pozycjonowania występujące z czasem w napędach z silnikiem krokowym. Napędy ze swobodną cewką są niewrażliwe na takie zjawiska jak termiczne rozszerzanie i kurczenie się talerzy. W rzeczywistości, wiele napędów ze swobodną cewką wykonuje w określonych przedziałach czasu procedurę rekalibracji termicznej. Procedura ta najczęściej polega na tym, że wszystkie głowice kolejno wyszukują określony cylinder rozpoczynając od cylindra 0. W czasie wykonywania tej sekwencji elektronika sterująca napędu kontroluje stopień przesunięcia ścieżek od ostatniego wykonania rekalibracji i zapisuje w pamięci napędu obliczone nowe poprawki termiczne. Dane te są używane do wszystkich operacji pozycjonowania głowic, co zapewnia dużą dokładność tej operacji.
Większość napędów wykonuje procedurę rekalibracji termicznej co 5 minut w czasie pierwszych 30 minut pracy dysku, a następnie co 25 minut. W niektórych modelach rekalibracja jest łatwa do zauważenia; dysk przestaje wykonywać bieżącą operację i przez sekundę wyraźnie słychać pracę mechanizmu głowic. Niektórzy użytkownicy uważają to za objaw problemów z odczytem i z tym, że głośna praca jest związana z próbą ponownego odczytania sektorów, ale nie jest to prawda. Większość dzisiejszych dysków (ATA i SCSI) wykonują procedurę rekalibracji termicznej dla zapewnienia dokładności pozycjonowania głowic.
Wraz ze wzrostem popularności aplikacji multimedialnych, w przypadku niektórych modeli dysków rekalibracja termiczna zaczęła sprawiać problemy. Sekwencja rekalibracji przerywała czasami przesył dużego pliku danych, takich jak dane dźwiękowe czy filmowe, co w wyniku dawało zerwanie synchronizacji dźwięku lub obrazu. Niektóre firmy wypuściły specjalne modele A/V (ang. audio visual), które ukrywały sekwencję rekalibracji, aby nigdy nie przerywała ona transferu. Większość nowszych dysków ATA i SCSI nadaje się do pracy z multimediami, co oznacza, że sekwencja rekalibracji termicznej nie przerywa przesyłu, na przykład podczas odtwarzania filmu. Modele A/V dysków ATA są również stosowane w popularnych dekoderach, takich jak TiVo i Replay TV. wykorzystywanych przy rejestracji cyfrowej.
Większość napędów wykonujących sekwencję rekalibracji termicznej automatycznie wykonuje również funkcję omiatania dysku (ang. disk sweep). Przez niektórych producentów funkcja ta jest określana mianem uśredniania zużycia (ang. wear !eveling). Po pewnym okresie bezczynności głowice automatycznie przesuwają się nad zewnętrzną cześć dysku, gdzie odległość głowic od nośnika jest największa (z powodu największej prędkości liniowej talerzy). Następnie, jeżeli przez kolejny okres czasu dysk nadal jest w stanie bezczynności, głowice przesuwają się do innego cylindra w tym obszarze i proces powtarza się stale przez cały czas, gdy dysk jest włączony.
Funkcja omiatania dysku ma za zadanie zapobieganie pozostawieniu głowic nad określonym cylindrem przez długi czas, ponieważ tarcie pomiędzy głowicami i talerzami mogłoby wytrzeć rowek w nośniku. Choć głowice nie mają bezpośredniego kontaktu z nośnikiem, są tak blisko, że ciągłe ciśnienie powietrza od strony głowic może powodować tarcie i nadmierne zużycie. Na rysunku 10.10 pokazane jest zarówno serwo klinowe, jak i wbudowane.
Rysunek 10.10.
Serwo klinowe i wbudowane
Serwo klinowe
Pierwsze dyski korzystające z serwosterowania wykorzystywały technikę nazywaną serwo klinowe. W dyskach tych kod Graya danych naprowadzających zapisany był w klinowym obszarze dysku położonym bezpośrednio przed znacznikiem indeksowym. Znacznik indeksowy oznacza początek każdej ścieżki, czyli dane serwa klinowego były zapisywane w obszarze PRE-INDEX GAP, znajdującym się na końcu każdej ścieżki. Obszar ten zapewnia pewną tolerancję na wahania prędkości obrotowej i nie jest wykorzystywany przez kontroler.
Niektóre kontrolery muszą być informowane, że napęd korzysta z serwa klinowego i skracają wtedy odmierzanie czasu dla sektorów, co zapewnia odpowiednią wielkość obszaru serwa klinowego. Jeżeli kontroler nie zostanie właściwie skonfigurowany, nie będzie prawidłowo współpracował z takim dyskiem.
Innym problemem jest to. że dane serwa pojawiają się tylko raz na obrót, co oznacza, że dysk musi często wykonać kilka obrotów, zanim dokładnie określi i ustawi pozycję głowicy. Z powodu występowania tych problemów serwo klinowe nigdy nie było zbyt popularne i nie jest już używane w nowych dyskach.
Serwo wbudowane
Serwo wbudowane to rozwinięcie serwa klinowego. Zamiast umieszczania kodu serwa przed początkiem każdego cylindra, w serwo wbudowanym dane te są zapisywane przed każdym sektorem. Projekt taki umożliwia wysyłanie informacji zwrotnych do pozycjonera wiele razy w czasie każdego obrotu dysku, co umożliwia dużo szybsze i bardziej precyzyjne pozycjonowanie głowic. Inną zaletą jest możliwość umieszczenia danych pozycjonujących dla każdej ścieżki osobno, więc szybko i efektywnie można korygować położenie, kompensując dowolne zmiany w wielkości talerzy lub głowic, szczególnie tych, które są spowodowane przez rozszerzanie termiczne lub naprężenia mechaniczne.
Większość produkowanych obecnie dysków korzysta z serwa wbudowanego do sterowania systemem pozycjonującym. Podobnie jak w przypadku serwa klinowego, dane sterujące serwa wbudowanego są chronione przez układy dysku i operacja zapisu jest przerywana, jeżeli głowica znajdzie się nad obszarem danych serwa. Dlatego nie można napisać tych danych za pomocą procedury formatowania niskopoziomowego, w co wierzą niektórzy użytkownicy.
Serwo wbudowane działa o wiele lepiej niż serwo klinowe, ponieważ informacje zwrotne są dostępne kilkukrotnie w czasie jednego obrotu dysku, jednak najlepiej działałby system udostępniający informacje zwrotne w sposób ciągły.
Serwo dedykowane
Serwo dedykowane to system, w którym dane serwa są zapisywane w sposób ciągły dla całej ścieżki, a nie jedynie na początku na początku ścieżki lub sektora. Niestety, jeżeli procedura ta zostałaby użyta dla całego dysku, nie byłoby miejsca na zapisanie danych. Dlatego, w przypadku serwa dedykowanego, cała jedna strona talerza jest przeznaczona do zapisu danych serwa. Nazwa serwa dedykowanego powstała właśnie z powodu „dedykowania" — przeznaczenia jednej strony jednego talerza tylko na te dane.
Podczas produkcji dysku z serwem dedykowanym producent wyłącza jedną ze stron jednego talerza z normalnej pracy i zapisuje na nim specjalny zbiór danych w kodzie Graya, które wskazują prawidłową pozycję ścieżek. Ponieważ głowica znajdująca się nad dedykowaną powierzchnią nie może użyta do normalnego odczytu i zapisu, kod Graya nie może być skasowany i dzięki temu dane serwa są zabezpieczone. Zarówno formatowanie niskopoziomowe, jak i żadna inna procedura nie ma możliwości zniszczenia danych serwa. Na rysunku 10.11 pokazany jest mechanizm dedykowanego serwa. Najczęściej głowica na górze lub jedna z głowic środkowych jest przeznaczona na potrzeby serwosterowania.
Rysunek 10.11.
Serwo dedykowane — użycie całej jednej powierzchni na dane serwa
Gdy dysk przesuwa głowice do określonego cylindra, wewnętrzne układy elektroniczne dysku korzystają z sygnałów odczytywanych przez głowicę serwo do określenia pozycji głowic odczytująco-zapisujących. Gdy głowice przesuną się po dedykowanej dla serwa powierzchni, odczytane zostają liczniki ścieżek. Gdy głowica serwo wykryje żądaną ścieżkę, pozycjoner zatrzymuje się. Zanim możliwy będzie jakikolwiek zapis na dysk, elektronika serwosterowania precyzyjnie ustawi głowice nad żądanym cylindrem. Choć tylko jedna głowica jest używana do śledzenia danych serwa, to przecież wszystkie głowice są umieszczone na tym samym stojaku i jeżeli jedna z nich znajduje nad właściwym cylindrem, pozostałe też są odpowiednio ustawione.
Jedynym sposobem na stwierdzenie, że napęd korzysta z dedykowanej powierzchni serwo jest sprawdzenie, czy ma on nieparzystą liczbę głowic. Na przykład, napęd Toshiba MK-538FB 1,2 GB. który używałem w jednym ze swoich komputerów, posiadał osiem talerzy, ale tylko 15 głowic odczytująco-zapisujących. Dysk ten korzysta! z systemu sterowania z dedykowanym serwem i 16 głowica była właśnie głowicą serwo. Zaletą takiego systemu jest ciągła dostępność danych pozycjonujących, co powoduje, że proces właściwego ustawiania głowicy jest szybki i bardziej precyzyjny.
Wadą dedykowanego serwa jest przeznaczenie całej powierzchni talerza na jego dane. Dlatego niemal wszystkie dzisiejsze dyski korzystają z pewnej wariacji tej metody. W niektórych dyskach łączy się serwo dedykowane z wbudowanym, ale tego typu hybrydy są dosyć rzadkie. Niezależnie od tego, czy mechanizm serwo jest dedykowany czy wbudowany, zawsze jest o wiele bardziej dokładny niż stare mechanizmy z silnikiem krokowym.
Oczywiście, tak jak powiedzieliśmy wcześniej, dzisiejsze dyski SCSI oraz ATA wykonują translację rzeczywistych parametrów fizycznych na parametry raportowane. Dlatego często no podstawie podanych parametrów nie można dokładnie stwierdzić, ile głowic lub talerzy zawiera dysk.
Automatyczne parkowanie głowic
Gdy wyłączysz dysk twardy zbudowany w technologii CSS (ang. Contact Start Stop), napięcie sprężynujących ramion głowic przyciska głowice do powierzchni talerzy. Napęd jest tak zaprojektowany, aby wytrzymać tysiące startów i lądowań, ale mądrze jest zapewnić lądowanie głowic w miejscu, gdzie nie są zapisywane dane. Stare dyski wymagały ręcznego zaparkowania głowic — przed wyłączeniem komputera trzeba było uruchomić program pozycjonujący głowice w strefie lądowania — zwykle na najbardziej wewnętrznym cylindrze. Nowoczesne dyski automatycznie parkują głowice, więc programy parkujące nie sąjuż potrzebne.
W czasie operacji startu i lądowania zachodzi zjawisko ścierania dysku — z nośnika magnetycznego wycierany jest „mikrodym". ale jeżeli w czasie lądowania dysk jest wstrząsany, mogą zdarzyć się prawdziwe uszkodzenia. Nowe dyski korzystają z mechanizmu ładowania-rozładowania, korzystającego z rampy umieszczonej poza zewnętrzną powierzchnią talerzy, co pozwala zapobiec kontaktowi głowic z talerzami nawet, gdy dysk jest wyłączony. Dyski z mechanizmem ładowania-rozładowania automatycznie parkują głowice na rampie podczas wyłączania dysku.
Jedną z zalet układu pozycjonera ze swobodna cewkąjest automatyczne parkowanie głowic. W dyskach takich do pozycjonowania głowicy wykorzystywane są tylko siły magnetyczne. Gdy zostanie wyłączone zasilanie dysku, pole magnetyczne utrzymujące głowice nad wybranym cylindrem zanika, co pozwala stojakowi głowicy przesuwać się swobodnie po całym dysku, być może powodując uszkodzenia. W konstrukcjach ze swobodną cewką stojak głowicy jest zaczepiony słabą sprężyną do obudowy. Gdy zostaje włączone zasilanie, sprężyna jest rozciągana przez pole magnetyczne pozycjonera. Gdy dysk zostanie wyłączony, sprężyna przezwycięża siłę przyciągania pozycjonera i delikatnie ściąga stojak głowic na miejsce przeznaczone do parkowania, zanim dysk zwolni i głowice wylądują. W niektórych napędach można nawet usłyszeć dźwięk ,.ding. ding, ding", gdy głowice ściągane przez sprężynę odbijają się od zderzaka parkowania.
W dyskach z pozycjonerem ze swobodną cewką mechanizm parkowania jest aktywowany przez, wyłączenie zasilania; nie ma potrzeby uruchamiania programu parkującego głowice. W przypadku wyłączenia zasilania głowice są parkowane automatycznie (po włączeniu zasilania głowice automatycznie wracają z pozycji parkowania).
Filtry powietrzne
Niemal wszystkie dyski mają dwa filtry powietrzne. Jeden z nich to filtr recyrkulacyjny, natomiast drugi jest nazywany filtrem barometrycznym lub filtrem odpowietrznika. Filtry te sana stałe zabudowane we wnętrzu dysku i są tak zaprojektowane, aby ich nigdy nie wymieniać; inaczej niż było w starych dyskach z minikomputerów, które miały wymienne filtry.
Dysk twardy w systemie PC nie umożliwia wymiany powietrza z wewnątrz HDA na zewnątrz i odwrotnie. Filtr recyrkulacyjny na stałe zamontowany wewnątrz HDA jest przeznaczony do filtrowania jedynie małych cząstek wytartych z talerzy w czasie startów i lądowań głowic (i być może niewielkich cząstek pochodzących z wnętrza dysku). Ponieważ dyski twarde komputerów PC są trwale obudowane i nie wymieniają powietrza z otaczającą go atmosferą, mogą działać w bardzo zanieczyszczonym środowisku (patrz rysunek 10.12).
HDA w dysku twardym jest szczelnie zamknięte, ale nie jest hermetyczne. Wnętrze dysku jest wentylowane przez filtr barometryczny lub inaczej odpowietrznik, który umożliwia wyrównywanie ciśnienia (odpowietrzanie) pomiędzy wnętrzem dysku a atmosferą. Dlatego większość dysków ma określony przez producenta zakres wysokości, na której mogą pracować; najczęściej od 300 m poniżej poziomu morza do 3000 metrów nad jego powierzchnią. Niektóre modele nie potrafią pracować powyżej 2500 metrów nad poziomem morza, ponieważ ciśnienie powietrza jest zbyt małe, aby unieść głowice dysku. Gdy ciśnienie powietrza zmienia się, jest ono wypychane lub wciągane do dysku, więc wewnętrzne ciśnienie jest identyczne z ciśnieniem atmosferycznym.
Rysunek 10.12.
Obieg powietrza wewnątrz dysku twardego
Choć powietrze jest wciągane do środka dysku, zanieczyszczenia nie stanowią problemu, ponieważ filtr barometryczny może wychwytywać cząstki większe od 0,3 mikrona, co pozwala zachować specyfikację czystości wewnątrz napędu. W większości dysków można znaleźć otwory odpowietrzające chronione od wewnątrz filtrem barometrycznym. Niektóre dyski wykorzystują filtry wychwytujące jeszcze mniejsze cząstki.
Kilka lat temu prowadziłem seminarium na Hawajach i kilku moich studentów było z jednego z obserwatoriów astronomicznych położonych na górze Mauna Kea. Opowiadali oni, że niemal wszystkie dyski twarde, jakie próbowali użyć w obserwatorium, bardzo szybko ulegały awarii, o ile w ogóle chciały pracować. Nie było to niespodzianką, ponieważ obserwatorium to jest położone na szczycie góry o wysokości 4215 nad poziomem morzą a na tej wysokości nawet ludzie nie działają zbyt dobrze! Zastosowali oni wtedy dyski pamięciowe (ang. solid-state disk), napędy taśm lub nawet stacje dyskietek jako podstawowe urządzenie do przechowywania danych. Oddział firmy IBM, Adstar (produkujący wszystkie dyski twarde firmy IBM przed utworzeniem spółki Hitachi Global Storage Technologies), zaczął sprzedawać dyski 3,5 cala, które są hermetycznie zamknięte. Ponieważ utrzymują one powietrze wewnątrz HDA pod stałym ciśnieniem, mogą działać na dowolnej wysokości oraz są odporne na uderzenia i temperaturę. Napędy te są przeznaczone do zastosowań przemysłowych i militarnych, na przykład w systemach używanych w samolotach. Są one oczywiście dużo droższe niż dyski twarde pracujące w ciśnieniu otoczenia. Na rynku pojawiły się również hermetycznie zamknięte napędy innych producentów, takich jak firma MBM Rugged Systems (http://www.lago.co.uk).
Aklimatyzacja termiczna dysków
Ponieważ dyski mają otwory z filtrami pozwalające na przenikanie powietrza do i z wnętrza HDA, również wilgoć może wnikać do wnętrza dysku i po pewnym czasie można przyjąć, że wilgotność wewnątrz i na zewnątrz dysku twardego jest podobna. Wilgoć może powodować poważne problemy, a szczególnie w sytuacji, jeżeli uruchomimy napęd, w środku którego skropliła się woda. Większość producentów dysków twardych posiada specjalną procedurę aklimatyzacji dysku do nowego środowiska, z innym zakresem temperatury i wilgotności, szczególnie, gdy przeniesiemy dysk do cieplejszego środowiska, w którym może nastąpić kondensacja. Muszą o tym pamiętać właściciele notebooków. Jeżeli w zimie notebook zostanie pozostawiony na kilka godzin w samochodzie, to włączenie go w ciepłym pokoju bez odczekania pewnego czasu na wyrównanie temperatur może być katastrofalne w skutkach.
Poniższy cytat i tabela 10.4 pochodzi z opakowania wykorzystywanego przez firmę Control Data Corporation (wcześniej Itnprimis, ewentualnie Seagate) do transportu swoich dysków:
Jeżeli urządzenie zostało wyjęte z pomieszczenia o temperaturze 10 stopni Celsjusza lub niższej, nie należy otwierać pojemnika do czasu spełnienia poniżej przedstawionych warunków, w przeciwnym przypadku może nastąpić kondensacja, która może uszkodzić urządzenie lub nośnik. Należy umieścić ten pojemnik w środowisku roboczym na czas określony w tabeli na następnej stronie.
Jak można się przekonać na podstawie tej tabeli, dysk przechowywany w temperaturze niższej niż zazwyczaj należy umieścić przed uruchomieniem we właściwym środowisku pracy na określony okres czasu w celu aklimatyzacji.
Tabela 10.4. Czasy aklimatyzacji napędów dysków twardych
Poprzednia temperatura otoczenia |
Czas aklimatyzacji |
Poprzednia temperatura otoczenia |
Czas aklimatyzacji |
+4°C |
13 godzin |
-23°C |
20 godzin |
-1°C |
15 godzin |
-29°C |
22 godzin |
-7°C |
16 godzin |
-34°C lub mniej |
27 godzin |
-12°C |
17 godzin |
|
|
-18°C |
18 godzin |
|
Silniki
Silnik w dysku twardym jest przyłączony do osi, na której obracają się talerze. Połączenie to zawsze jest bezpośrednie, nie są używane pasy ani przekładnie. Silnik musi działać bez drgań i zakłóceń, w przeciwnym przypadku zakłócenia byłyby przenoszone na talerze, co mogłoby spowodować przerwanie operacji odczytu lub zapisu.
Silnik talerzy musi mieć również precyzyjnie regulowaną prędkość. Talerze dysku obracają się z prędkością od 3600 obr./min do 15 000 obr./min (60 - 250 obrotów na sekundę), a silnik posiada układ sterujący z pętlą zwrotną, który monitoruje i precyzyjnie reguluje tę prędkość. Ponieważ kontrola prędkości musi być wykonywana automatycznie, dyski twarde nie mają możliwości dodatkowej regulacji prędkości. Niektóre programy diagnostyczne deklarują, że mierzą prędkość obrotową dysku, ale w rzeczywistości jedynie szacują prędkość obrotową przez mierzenie czasu, w jakim sektor przesuwa się pod głowicą.
Nie ma programu, który mierzyłby prędkość obrotową dysku; pomiar taki może być wykonany za pomocą skomplikowanej aparatury testowej. Nie należy się przejmować, gdy niektóre programy diagnostyczne stwierdzają że dysk obraca się z niewłaściwą prędkością— najprawdopodobniej to nie dysk jest uszkodzony, a raczej program się myli. Obroty talerzy i dane synchronizacji nie są dostępne poprzez interfejs kontrolera dysku. W przeszłości programy mogły szacować prędkość obrotową przez wykonywanie wielokrotnego odczytu tego samego sektora i mierzenie czasu miedzy tymi odczytami, ale działało to prawidłowo, gdy wszystkie
napędy miały identyczną liczbę sektorów na ścieżce i obracały się ze stałą prędkością. Zapis strefowy — połączony ze zmienną prędkością obrotową stosowaną w nowoczesnych dyskach twardych, nie wspominając już o pamięci buforowej, powoduje, że przybliżenia takie wykonywane przez programy nie są wiarygodne.
W większości napędów silnik znajduje się na dole dysku, bezpośrednio pod jednostką HDA. Wiele nowych urządzeń posiada silnik wbudowany bezpośrednio w piastę talerzy wewnątrz HDA. Wykorzystując wewnętrzny silnik w piaście, producent może umieścić w dysku więcej talerzy, ponieważ silnik nie zajmuje dodatkowego miejsca w pionie.
Silniki dysków, szczególnie tych większych, mogą pobierać sporo prądu o napięciu 12V. Podczas rozpędzania talerzy większość dysków wymaga do normalnego dziania dwukrotnie lub trzykrotnie więcej mocy. Tak duże obciążenie trwa jedynie kilka sekund — do czasu, aż talerze dysku osiągną prędkość roboczą. Jeżeli w komputerze znajduje się więcej niż jeden dysk, powinieneś spróbować sekwencyjnego ich uruchamiania, aby zasilacz nie musiał dostarczać tak dużej ilości prądu podczas włączania komputera. Większość dysków SCSI i niektóre ATA posiadają funkcję opóźnionego uruchamiania silnika.
Łożyska olejowe
Tradycyjnie silniki dysków korzystały z łożysk kulkowych, ale ograniczenia ich wydajności spowodowały, że producenci zaczęli szukać alternatywnych rozwiązań. Głównym problemem z łożyskami kulkowymi jest to, że mają one średnie bicie (czyli poprzeczne przesunięcia) wielkości 0,002 mikrometrów. Choć wartość ta wydaje się mała, to w związku ze stale wzrastającą gęstością zapisu w nowoczesnych dyskach staje się to problemem. Bicie to pozwala na losowe poruszanie się na tę odległość z boku na bok. co powoduje falowanie ścieżki pod głowicą. Dodatkowo, bicie połączone z naturalnym tarciem metalu o metal powoduje generowanie znacznego szumu mechanicznego oraz wibracji, a to staje się problemem dla dysków obracających się z dużymi prędkościami.
Rozwiązaniem są nowe łożyska olejowe (fluid dynamie bearing), które korzystają z bardzo lepkiego oleju umieszczonego pomiędzy osią a tuleją łożyska. Olej ten zapewnia tłumienie wibracji i przesunięć, ograniczając bicie do 0,0002 mikrometra lub mniej. Łożyska olejowe zapewniają również lepszą odporność na uderzenia, poprawiają regulację prędkości i zmniejszają poziom hałasu. Kilka bardziej zaawansowanych technologicznie dysków dostępnych na rynku korzysta już z łożysk olejowych, szczególnie modele zaprojektowane dla uzyskania dużej prędkości obrotowej, dużej gęstości powierzchniowej lub małej hałaśliwości. W czasie następnych lat łożyska olejowe staną się standardowym wyposażeniem większości dysków.
Płytka z układami logicznymi
Wszystkie dyski twarde mają jedną lub więcej płytek z układami. Płytka taka zawiera układy elektroniczne sterujące silnikiem, systemem pozycjonowania głowic i przesyłaniem danych do kontrolera w ustalonej formie. W przypadku napędów ATA płytka zawiera również sam kontroler, natomiast napędy SCSI posiadają kontroler i układy adaptera magistrali SCSI.
Wiele uszkodzeń dysków to uszkodzenia płytki z układami, a nie uszkodzenia układów mechanicznych (nie brzmi to logiczne, ale to prawda). Dlatego czasami można naprawić uszkodzony napęd, wymieniając tylko płytkę z elektroniką. Jej wymiana umożliwia również uzyskanie dostępu do danych zapisanych na dysku — czego oczywiście nie zapewnia wymiana dysku. Niestety, żaden z producentów nie sprzedaje osobno tych elementów. Jedynym sposobem dostania płyty na wymianę jest zakupienie identycznego działającego dysku i wymontowanie z niego potrzebnej części. Metoda ta jest najczęściej stosowana w firmach oferujących usługi odzyskiwania danych. Kupują oni popularne dyski i korzystają z nich jako magazynu części zamiennych dla uszkodzonych dysków dostarczonych przez klientów.
Większość płytek można łatwo wymienić korzystając jedynie ze śrubokręta. Wystarczy wykręcić kilka wkrętów, wyjąć kilka kabli i zastosować odwrotną procedurę w celu zamontowania nowej płytki.
Kable i złącza
Dyski twarde mają zwykle kilka złączy: do komunikacji z komputerem, dostarczania napięcia, a czasami do uziemiania obudowy. Większość dysków posiada co najmniej trzy rodzaje złączy:
złącze interfejsu,
złącze zasilania,
opcjonalne złącze uziemienia.
Z trzech wymienionych złączy najważniejsze jest złącze interfejsu, ponieważ pozwala ono na przenoszenie danych i sygnałów sterujących pomiędzy systemem i dyskiem. W większości przypadków kable interfejsu mogą być łączone w konfiguracji łańcucha lub magistrali. Większość interfejsów obsługuje co najmniej dwa urządzenia, a interfejs SCSI (ang. Smali Computer System Interface) obsługuje do siedmiu (Wide SCSI może obsługiwać nawet piętnaście) połączonych w łańcuch. Starsze interfejsy, takie jak ST-506/412 lub EDS1 (ang. Enhanced Smali Device Interface) korzystały z osobnych kabli dla danych i sygnałów sterujących, natomiast dzisiejsze urządzenia SCSI, ATA (ang. AT Attachment) i Serial ATA wykorzystują w tym celu jeden kabel.
► ► Zajrzyj do punktu „Złącze równoległe ATA" znajdującego się na stronie 615 i podrozdziału „Kable i złącza SCSI" znajdującego się na stronie 675.
Zasilanie jest doprowadzane przez duże czteropinowe złącze dostępne we wszystkich zasilaczach komputerów PC. Większość dysków twardych wykorzystuje zarówno napięcie 5 V, jak i 12 V, choć niektóre mniejsze dyski zaprojektowane do komputerów przenośnych korzystają jedynie z napięcia 5 V. W większości przypadków napięcie 12 V jest używane do zasilania silnika i pozycjonera głowic, natomiast napięciem 5 V zasilane są układy elektroniczne. Należy się upewnić, że zasilacz komputera jest w stanie dostarczyć wystarczającą ilość prądu dla wszystkich dysków zainstalowanych w systemie.
Potrzebna ilość prądu o napięciu 12 V zależy od wielkości napędu. Im większy jest napęd, tym szybciej się obraca. Dodatkowo, większa liczba talerzy wymaga również większej ilości prądu. Na przykład: większość dostępnych na rynku dysków 3,5 cala potrzebuje 0,5 - 0,25 całkowitej mocy pobieranej przez starsze napędy 5.25 cala. Niektóre bardzo małe dyski (2,5 cala lub 1,8 cala) niemal „sączą" prąd i zużywają do 1 Wata mocy!
Złącze uziemienia pozwala na wykonanie opcjonalnego uziemienia pomiędzy dyskiem a obudową komputera. W większości komputerów dyski twarde są montowane bezpośrednio do obudowy za pomocą śrub lub napęd jest uziemiany przez przewody uziemienia w złączu zasilania, więc dodatkowe uziemienie nie jest potrzebne.
Elementy konfiguracyjne
Aby skonfigurować dysk twardy dla określonego systemu, najczęściej trzeba właściwie ustawić kilka zworek (i być może rezystory terminatora). Elementy te zwykle zależą od typu interfejsu dysku, jak również często różnią się pomiędzy różnymi modelami dysków.
^ Zajrzyj do rozdziału 14. „Instalowanie i konfigurowanie napędów dysków" znajdującego się na stronie 901.
Płyta czołowa lub ramka
Kiedyś producenci dysków twardych oferowali opcjonalną płytę czołową lub ramkę (patrz rysunek 10.13). W większości dzisiejszych systemów ramka jest elementem obudowy, a nie dysku.
Rysunek 10.13.
Typowe pfyty czołowe dysków 3,5 i 5,25 cala pokazane od przodu i od tylu (widoczne elementy montażowe i przewód diody
LED)
Starsze systemy mają dysk zamontowany w taki sposób, że jest on widoczny na zewnątrz obudowy. Aby zakryć otwór w obudowie, trzeba skorzystać z opcjonalnej płyty czołowej. Ponieważ obecnie spotykane dyski są prawie zawsze montowane we wnęce wewnętrznej lub zewnętrznej, znajdującej się za płytą czołową, rzadko będzie konieczny zakup ramki napędu. Jeśli konieczne jest jej użycie, zwykle korzysta się z płyty dołączonej do komputera lub obudowy. Niezależnie od tego ramki napędów są nadal oferowane przez różnych producentów w kilku rozmiarach i kolorach, tak aby pasowały do różnych obudów komputerów PC. Dla dysków 3.5 cala dostępne są różne płyty czołowe, w tym pasujące do kieszeni 3,5 cala i 5,25 cala. Można także wybrać kolor (zwykle czarny, kremowy lub biały).
Niektóre płyty posiadają diodę świecącą (LED), która miga w czasie pracy dysku. W niektórych dyskach dioda taka jest montowana na dysku, a płyta posiada okienko, przez które ją widać. Większość dzisiaj stosowanych obudów posiada na przedniej ściance diodę wskazującą aktywność dysku, podłączoną do złącza LED na płycie głównej.
W systemach, w których dysk twardy jest ukryty w środku obudowy, płyta czołowa jest niepotrzebna. Właściwie użycie płyty czołowej może uniemożliwić prawidłowe zamknięcie obudowy i w takich przypadkach trzeba dodatkową płytę usunąć. Jeśli jest używany dysk twardy o prędkości 7200 obr./min lub wyższej, pod uwagę powinno się wziąć umieszczenie go we wnęce, której obudowę można zdjąć, i zastosowanie wentylatora, który znajdzie się z przodu zewnętrznej wnęki, czyli w miejscu standardowej płyty. Wnęka posiada złącze, które może zasilić jeden lub większą liczbę wentylatorów chłodzących dysk w celu zwiększenia jego niezawodności.
Własności dysku twardego
Aby podczas zakupu dysku twardego przeznaczonego do swojego systemu podjąć najlepszą decyzję lub aby poznać różnice pomiędzy różnymi markami dysków, należy wziąć pod uwagę kilka własności. W tym podrozdziale opiszemy zagadnienia, jakie uwzględnić przy wyborze dysków.
pojemność,
wydajność.
niezawodność,
cena.
Pojemność
Jak wcześniej wspominaliśmy, wniosek ze słynnego „prawa" Parkinsona odnosi się również do dysków twardych: „Dane rosną tak szybko, że zapełniają całą pojemność przeznaczona na ich zapisanie". Oznacza to. że bez względu na wielkość dysku, na pewno znajdziesz sposób, aby go zapełnić.
Jeżeli brakuje miejsca na używanym właśnie dysku, być może się zastanawiasz „jak duży dysk będzie wystarczający?". Ponieważ najprawdopodobniej miejsca na dysku będzie zawsze za mało, a nie za dużo, powinieneś mierzyć wysoko i kupić największy dysk, jaki mieści się w założonym budżecie. Nowoczesne systemy są wykorzystywane do przechowywania bardzo obszernych typów plików, w tym zdjęć cyfrowych, muzyki, filmów, nowszych systemów operacyjnych i gier. Na przykład, według producenta dysków, firmy Western Digital, do zapisania 600 zdjęć o wysokiej rozdzielczości (po 500 kB), 12 godzin cyfrowej muzyki, 5 gier. 20 aplikacji i 90 minut filmu cyfrowego potrzebny jest dysk twardy o pojemności 43 GB, jakiej nie oferują typowe dyski twarde instalowane w wielu tańszych komputerach sprzedawanych w handlu detalicznym.
W nowoczesnych systemach operacyjnych brak wolnego miejsca na dysku powoduje poważne problemy, głównie dlatego, że Windows, jak również wiele nowych aplikacji, wykorzystuje dużo miejsca na pliki tymczasowe i pamięć wirtualną. Gdy Windows nie ma wystarczająco dużo przestrzeni dyskowej, staje się niestabilny, występują błędy i często nieuchronna jest utrata danych.
Ograniczenia pojemności
Maksymalna wielkość dysku, jaki można zastosować, zależy od rodzaju zastosowanego interfejsu. Najpopularniejszym typem interfejsu dla dysków twardych jest ATA, ale dostępne są również dyski z interfejsem SCSI. Każdy z nich ma inne ograniczenia, ale ograniczenia interfejsu ATA są zawsze większe niż interfejsu SCSI.
Gdy w roku 1986 powstał interfejs ATA. maksymalna pojemność dysków została ustalona na 137 GB (65 536 * 16 * 255 sektorów). W systemach produkowanych przed rokiem 1998 BIOS ograniczał dodatkowo tę pojemność do 8,4 GB, a w systemach produkowanych przed rokiem 1994 — nawet do 528 MB. Choć problemy z ograniczeniem BIOS-u zostały przezwyciężone, ograniczenie interfejsu ATA pozostało. Na szczęście, ograniczenie to zostało zniesione przez specyfikację ATA-6 opublikowaną w roku 2001. Specyfikacja ATA-6 zmieniła sposób adresowania, umożliwiając budowanie dysków o maksymalnej pojemności 144 PB (petabajtów lub kwadrylionów bajtów), czyli 248 sektorów. Pozwoliło to na rozpoczęcie produkcji dysków ATA o pojemnościach większych niż 137 GB. Oczywiście tak duże dyski muszą być zgodne ze specyfikacją ATA-6. Jeżeli jednak chcesz wykorzystać dysk większy niż 137 GB. sprawdź, czy BIOS płyty głównej zapewnia obsługę ATA-6.
Ograniczenia BIOS-u
Jeżeli korzystasz z dysku o pojemności nie większej niż 8 GB, system którego używasz może nie być w stanie obsłużyć większych dysków bez uaktualnienia BIOS-u, ponieważ wiele z nich (sprzed 1998 roku) nie obsługuje dysków większych niż 8,4 GB, natomiast inne (sprzed 2002 roku) dysków większych niż 137 GB. Większość dysków twardych ATA jest sprzedawanych z dyskietką instalacyjną zawierającą oprogramowanie zawierające programowy sterownik dysku, taki jak Ontrack Disk Manager lub Phoenix Technologies EZ-Drive (Phoenix kupił w styczniu 2002 firmę StorageSoft, która wyprodukowała program EZ-Drive), ale nie zalecam ich używania. Programy Ez-Drive. Disk Manager i inne tego typu (Drive Guide, MAXBlast, Data Lifeguard itp.) sprawiają problemy z uruchamianiem systemu z dyskietki, dysku CD oraz przy naprawianiu niestandardowego rekordu rozruchowego używanego przez te produkty.
Jeżeli ROM BIOS płyty głównej pochodzi sprzed roku 1998 i jest ograniczony do 8,4 GB lub sprzed 2002 i ograniczony jest do 137 GB, a trzeba do takiej płyty podłączyć większy dysk, należy na początek sprawdzić, czy producent udostępnia uaktualnienie BIOS-u. Niemal wszystkie płyty główne posiadają Flash ROM, który można bardzo łatwo zaktualizować za pomocą odpowiedniego programu narzędziowego.
Wewnętrzne napędy ATA o pojemności przekraczającej 137 GB wymagają obsługi 48-bitowego adresowania LBA. Obsługa ta musi być realizowana na poziomie systemu operacyjnego. Może też być oferowana przez BIOS lub jednocześnie przez BIOS i system, co jest najlepszym rozwiązaniem. Jednak wystarczająca będzie obsługa jedynie ze strony systemu operacyjnego.
Obsługa 48-bitowego adresowania LBA jest realizowana przez następujące systemy operacyjne:
Windows XP z zainstalowanym dodatkiem Service Pack 1 (SP1) lub nowszym.
Windows 2000 z zainstalowanym dodatkiem Service Pack 4 (SP4) lub nowszym.
Windows 98/98SE/Me lub NT 4.0 z załadowanym programem IAA (Intel Application Accelerator). Oprogramowanie zadziała tylko wówczas, gdy płyta główna zawiera chipset przez nie obsługiwany. Więcej informacji można znaleźć na stronie internetowej znajdującej się pod adresem http://www.intel.com/support/chipsets/IAA/instruct.htm.
Obsługa 48-bitowego adresowania LBA jest realizowana przez BIOS. gdy:
Płyta główna zawiera odpowiedni BIOS (zwykle pochodzący z września 2002 r. lub nowszy).
Karta jest wyposażona w odpowiedni BIOS. Przykładem takiej karty jest LBA Pro, wyprodukowana przez firmę eSupport (http://www.esupport.com).
Karty te korzystają ze złącza ISA i zawierają Flash ROM dodający do istniejących adapterów hosta ATA obsługę 48-bitowego adresowania LBA. Są to karty zawierające jedynie pamięć ROM i nie mają własnego interfejsu ATA — dyski nadal należy podłączać do istniejącego adaptera hosta ATA (zwykle znajdującego się na płycie głównej).
Jeśli 48-bitowe adresowanie LBA jest obsługiwane zarówno przez BIOS, jak i system operacyjny, wystarczy zainstalować dysk i korzystać z niego jak z dowolnego innego wewnętrznego napędu. Z kolei, jeśli takiej obsługi nie oferuje BIOS, lecz tylko system operacyjny, obszar dysku przekraczający granicę 137 GB nie będzie widoczny lub dostępny do momentu załadowania systemu. Oznacza to, że jeśli system jest instalowany na
„czystym" dysku twardym i ładowany z oryginalnego dysku CD systemu Windows XP (bez dodatku SP1) lub starszego, w trakcie instalacji konieczne będzie wykonanie partycjonowania dysku dla pierwszych 137 GB. Po pełnym zainstalowaniu systemu operacyjnego i dodatku Service Pack dostępny stanie się obszar dysku znajdujący się za granicą 137 GB. Korzystając z narzędzia Zarządzanie dyskami systemu Windows XP. można teraz dokonać partycjonowania tego obszaru dysku. Aby zwiększyć rozmiar pierwszej partycji do maksymalnej pojemności dysku, można użyć niezależnych narzędzi partycjonujących, takich jak Partition-Magic lub Partition Commander.
Jeśli system zostanie załadowany przy użyciu instalacyjnego dysku CD systemu Windows z już obecnym dodatkiem Service Pack 1 lub nowszym, możliwe będzie w trakcie instalacji systemu rozpoznanie i udostępnienie całego dysku i partycjonowanie go jako pojedynczej partycji o pojemności przekraczającej 137 GB.
Jeżeli potrzebny jest szybszy interfejs ATA lub więcej kanałów dyskowych albo nie ma złącza ISA na płycie głównej, można zastosować kartę rozszerzeń PCI (taką jak Ultral33 TX2 i UltralOO TX2) na przykład firm Maxtor i Promise Technologies. Karty te obsługują dyski o pojemności większej niż 137 GB. Mają one również dwa interfejsy host adaptera, każdy obsługujący po dwa dyski (cztery dyski na kartę). Karty te obsługują prędkości interfejsów ATA-133 i ATA-100 i są zgodne z starszymi, wolniejszymi dyskami ATA.
Firmy Maxtor i Western Digital sprzedają dyski w komplecie z kartą host adaptera ATA-133 PCI. która zawiera również BIOS obsługujący dyski o pojemności ponad 137 GB.
Z napędami wyposażonymi w interfejsy USB, FireWire i SCSI nie występują tego typu problemy, ponieważ w celu ich obsługi nie jest konieczne zastosowanie układu ROM BIOS. Zamiast niego są używane sterowniki zarządzane przez system operacyjny.
Interfejs SCSI był zaprojektowany od początku z mniejszą liczbą ograniczeń niż ATA i dlatego SCSI jest częściej używany w serwerach plików o dużej wydajności, stacjach roboczych i innych systemach o dużej wydajności. Choć SCSI był zaprojektowany przed powstaniem ATA, projektanci wykazali się większą zdolnością przewidywania i w urządzeniach SCSI można adresować do 2,2 TB (terabajtów lub trylionów bajtów) pojemności (232 sektorów). W 2001 r. zestaw poleceń SCSI został dodatkowo rozbudowany w celu obsługi napędów o pojemności maksymalnej 9,44 ZB (zetabajtów lub sekstylionów bajtów; 264 sektorów). Ponieważ SCSI od początku miał mniej ograniczeń i zaprojektowany był z myślą o większej wydajności, producenci zawsze najpierw wypuszczają dyski o dużej pojemności w wersji SCSI. Jeżeli koniecznie musisz mieć duzy dysk. niemal zawsze najbardziej odpowiedni będzie dysk SCSI.
Ponieważ w roku 2001 zarówno w specyfikacji ATA, jak i SCSI zostały wprowadzone zmiany, kolejne ograniczenia pojemności staną się problemem za wiele lat.
Ograniczenia systemu operacyjnego
Nowe systemy operacyjne, takie jak Windows Me oraz Windows 2000 i XP, na szczęście nie mają problemów z obsługą dużych dysków. Jednak w starszych systemach mogą ujawnić się pewne ograniczenia.
DOS nie potrafi rozpoznawać dysków większych niż 8,4 GB, ponieważ dyski te wykorzystują adresowanie LBA, natomiast DOS w wersjach 6,x i starszych korzysta jedynie z adresowania CHS.
Windows 95 posiada ograniczenie pojemności dysku do 32 GB i nie ma innego sposobu na jego ominięcie jak tylko wymiana systemu na Windows 98 lub nowszy. Dodatkowo, pierwsze sprzedawane wersje Windows 95 (nazywane często Windows 95 OSR 1 lub Windows 95a) mogą korzystać tylko z systemu plików FAT 16 (16-bitowa tablica alokacji plików), który ma ograniczenie maksymalnej wielkości partycji do 2 GB. Dlatego, jeżeli próbowałbyś zainstalować dysk 30 GB, musiałbyś podzielić go na 15 partycji po 2 GB, które byłyby widoczne jako kolejne dyski logiczne (dyski od C: do Q:). Windows 95B i 95C mogą korzystać z systemu plików FAT32, który obsługuje partycje o wielkości do 2 TB. Jednak z powodu wewnętrznych ograniczeń program FDISK nie może utworzyć partycji o wielkości większej niż 512 GB.
Windows 98 obsługuje duże dyski, ale błąd w programie FDISK dołączonym do Windows 98 ogranicza raportowaną wielkość dysku o 64 GB w przypadku dysków większych niż te 64 GB. Rozwiązaniem jest zastosowanie poprawionej wersji programu FDISK, która może być pobrana z witryny firmy Microsoft. Występuje również problem z programem FORMA T dostarczanym z Windows 98. Jeżeli program FORMAT zostanie uruchomiony w wierszu poleceń dla partycji większej niż 64 GB, wielkość dysku nie jest raportowana poprawnie, choć cala partycja jest sformatowana.
Wydajność
Jedną z najważniejszych cech, na jakie należy zwrócić uwagę, wybierając dysk twardy, jest jego wydajność (szybkość). Dostępne są dyski o bardzo różnych parametrach wydajnościowych. Podobnie jak w przypadku wielu innych sytuacji, jednym z najlepszych wskaźników wydajności dysku jest jego cena. Powiedzenie pochodzące z wyścigów samochodowych jest prawdziwe również w tym przypadku: „Szybkość kosztuje. Jak szybko chcesz jeździć?".
Szybkość napędu jest zwykle mierzona na dwa sposoby:
prędkość przesyłu,
średni czas dostępu.
Prędkość przesyłu
Prędkość przesyłu jest prawdopodobnie najważniejszym czynnikiem wpływającym na ogólną wydajność systemu, ale jest ona również najmniej rozumianą wartością. Problem wynika z tego, że dla jednego dysku można podać kilka prędkości przesyłu, jednak najważniejsza z nich jest najczęściej pomijana.
Nie należy ulegać szumowi, jaki wytworzył się zwłaszcza wokół interfejsu ATA-133 lub SATA-150. a dotyczącemu prędkości przesyłania danych interfejsów. Znacznie ważniejszym wskaźnikiem wydajności dysków jest średnia prędkość przesyłania danych do i z nośnika, która jest o wiele niższa niż w przypadku interfejsu (133 lub 150 MB/s). Prędkość przesyłania do i z nośnika określa średnią prędkość, z jaką faktycznie napęd odczytuje lub zapisuje dane. Z kolei prędkość przesyłania interfejsu określa jedynie, jak szybko dane mogą zostać przemieszczone pomiędzy płytą główną i buforem dysku. Na rzeczywistą prędkość przesyłania danych dysku największy wpływ ma jego prędkość obrotowa. Zasadniczo napędy o prędkości obrotowej wynoszącej 10 000 obr./min przesyłają dane szybciej od tych oferujących prędkość równą 7200 obr./min. Te z kolei będą szybciej przesyłać dane niż dyski obracające się z prędkością wynoszącą 5400 obr./min. Jeśli zależy Ci na zwiększeniu wydajności, przy porównywaniu dysków zwróć uwagę na prędkość przesyłu danych do i z nośnika.
Zamieszanie wynika z faktu, że producenci dysku mogą podać do siedmiu różnych prędkości przesyłu dla pojedynczego dysku. Prawdopodobnie najmniej ważną (ale niektórzy użytkownicy najbardziej się na niej skupiają) jest prędkość przesyłu interfejsu, która dla większości nowych dysków ATA wynosi 100 MB/s lub 133 MB/s, bądź 150 MB/s w przypadku dysków Serial ATA. Niestety, niewielu z nich wie, że dzisiejsze dyski potrafią odczytywać i zapisywać dane z dużo mniejszą prędkością. O wiele ważniejsza jest prędkość przesyłu z nośnika, która określa szybkość odczytu i zapisu danych. Prędkości przesyłu mogą być wyrażane jako dane surowe maksimum, dane surowe minimum, dane sformatowane maksimum, dane sformatowane minimum oraz średnie z tych wartości. Jedynie niewielu producentów podaje wartości średnie, ale mogą być one łatwo obliczone.
Prędkość przesyłu z nośnika jest dużo ważniejsza niż prędkość interfejsu, ponieważ dane są faktycznie odczytywane z prędkością przesyłu z nośnika. Inaczej mówiąc, wskazuje, jak szybko dane są przesyłane z talerzy dysku (oraz na nie). Jest to prędkość, jaką może osiągnąć dowolny ciągły transfer. Najczęściej producenci podają minimalną i maksymalną prędkość tego przesyłu, choć niektórzy z nich podająjedynie maksymalną wartość.
Prędkość przesyłu z nośnika podawana jest jako wartość maksymalna i minimalna, ponieważ dyski korzystają z techniki zapisu strefowego, gdzie na wewnętrznych cylindrach zapisywane jest mniej sektorów niż na cylindrach zewnętrznych. Najczęściej dyski są dzielone na 16 lub więcej stref, gdzie cylindry strefy wewnętrznej mają o połowę mniej sektorów (i jednocześnie o połowę mniejszą prędkość przesyłu) niż cylindry strefy zewnętrznej. Ponieważ dysk obraca się ze stałą prędkością, dane z zewnętrznych cylindrów są odczytywane dwukrotnie szybciej niż z cylindrów wewnętrznych.
Innym zagadnieniem jest porównanie prędkości surowego przesyłu i sformatowanego przesyłu. Prędkość surowego przesyłu określa rzeczywistą prędkość czytania bitów z nośnika. Ponieważ nie wszystkie bity reprezentują dane użytkownika (niektóre są bitami międzysektorowymi, serwa, ECC lub ID) i traci się nieco czasu na przesunięcie głowic ze ścieżki do ścieżki (opóźnienie), prędkość sformatowanego przesyłu jest prawdziwą prędkością, z jaką użytkownik może odczytywać lub zapisywać dane.
Niektórzy producenci raportują jedynie prędkość surowego przesyłu danych, ale najczęściej można obliczyć prędkość przesyłu sformatowanego jako trzy czwarte podawanej wartości. Średnio trzy czwarte z wszystkich danych zapisywanych na dysku przypada na dane użytkownika, resztę zajmują dane serwa, ECC, ID i inne nadmiarowe dane. Podobnie, niektórzy producenci udostępniająjedynie maksymalne prędkości przesyłu (surowego, sformatowanego lub obu). W takim przypadku można założyć, że minimalna prędkość przesyłu jest równa polowie wartości maksymalnej, natomiast średnia wynosi trzy czwarte maksimum.
Przyjrzymy się teraz konkretnemu modelowi dysku. Dysk Hitachi (wcześniej IBM) Deskstar 120GXP jest uważany za szybki napęd ATA. Jego talerze obracają się z prędkością 7200 obr./min i obsługuje on prędkości przesyłu specyfikacji ATA/100 (tryb Ultra-DMA 5 o prędkości 100 MB/s pomiędzy kontrolerem dysku i adapterem hosta płyty głównej). Podobnie jak we wszystkich znanych mi dyskach, rzeczywista prędkość (z nośnika) jest dużo mniejsza.
W tabeli 10.5 zamieszczona jest specyfikacja napędu Ultra-ATA/100 Hitachi (IBM) Deskstar 120GXP o prędkości obrotowej 7200 obr./min.
Tabela 10.5. Specyfikacja prędkości przesyłu z nośnika dla dysku Hitachi (IBM) Deskstar 120GXP
Strefa nośnika |
Sektory na ścieżkę |
Prędkość obrotowa |
Prędkość przesyłu |
Strefa zewnętrzna |
928 |
7200 obr./min |
57,02 MB/s |
Strefa wewnętrzna |
448 |
7200 obr./min |
27,53 MB/s |
Średnia |
688 |
7200 obr./min |
42,27 MB/s |
Jak widać, prawdziwa prędkość przesyłu mieści się pomiędzy 57,02 MB/s a 27,53 MB/s (średnio około 42,27 MB/s) — to mniej niż polowa prędkości przesyłu interfejsu. Jeżeli posiadasz ten model dysku, nie powinieneś być zmartwiony, ponieważ 42.27 MB/s to doskonały wynik. Tak naprawdę, jest to jeden z najszybszych dysków ATA na rynku. Wiele innych dysków ATA osiąga podobną lub mniejszą wydajność.
Bardzo często zadawane jest mi pytanie o możliwość ulepszenia interfejsu ATA w komputerze. Wielu użytkowników posiada jeszcze stare płyty główne obsługujące jedynie tryb ATA/33 (Ultra-DMA 2) lub ATA/66 (Ultra-DMA 4), nie mają one natomiast dostępnych szybszych trybów ATA/100 (Ultra-DMA 5) i ATA/133 (Ultra-DMA 6). Po zapoznaniu się z maksymalnymi prędkościami przesyłu sformatowanego w większości dysków będziesz wiedział, dlaczego zwykle nie zalecam montowania osobnych kart host adaptera ATA/100 lub ATA/133, chyba że ta karta jest potrzebna do podłączenia większej liczby dysków. Z punktu widzenia czystej wydajności osoba przeprowadzająca taką rozbudowę uzyska niewielki jej wzrost lub nie odnotuje żadnej poprawy. Dzieje się tak, ponieważ w większości przypadków wykorzystywane dyski mają średnią prędkość przesyłu niższą nawet od prędkości interfejsu ATA/33, a na pewno znacznie niższą niż prędkości interfejsów ATA/66, ATA/100 czy ATA/133.
Na wydajność przesyłu mają wpływ dwa czynniki: prędkość obrotowa i liniowa gęstość zapisu, czyli liczba sektorów na ścieżkę. Porównując dwa dyski o tej samej liczbie sektorów na ścieżkę, dysk obracający się szybciej przesyła dane z większą prędkością. Podobnie, porównując dwa dyski z identycznymi prędkościami obrotowymi, szybszy będzie dysk z większą gęstością zapisu (więcej sektorów na ścieżkę). Napęd o wyższej gęstości zapisu może być szybszy niż napęd o większej prędkości obrotowej — należy wziąć pod uwagę oba parametry.
Przeanalizujmy inny przykład. Podobnie jak dysk IBM 120GXP, Maxtor DiamondMax D540X-4G120J6 jest również dyskiem ATA 120 GB. Ma on prędkość obrotową 5400 obr./min i obsługuje prędkości interfejsu ATA/133 (Ultra-DMA 6, o prędkości 133 MB/s pomiędzy kontrolerem dysku a host adapterem na płycie głównej). W tabeli 10.6 zamieszczona jest specyfikacja dysku Ultra-ATA/133 Maxtor DiamondMax D540X-4G120J6 o pojemności 120 GB i prędkości obrotowej 5400 obr./min.
Tabela 10.6. Specyfikacja dysku Ultra-ATA/133 Mcator DiamondMca D540X-4G120J6 o pojemności 120 GB
Strefa nośnika |
Sektory na ścieżkę |
Prędkość obrotowa |
Prędkość przesyłu |
Strefa zewnętrzna |
896 |
5400 obr./min |
41,29 MB/s |
Strefa wewnętrzna |
448 |
5400 obr./min |
20,64 MB/s |
Średnia |
672 |
5400 obr./min |
30,97 MB/s |
Jak widać, rzeczywista prędkość przesyłu dla tego dysku wynosi od 41,29 MB/s do 20,64 MB/s (średnio około 30.97 MB/s) — mniej niż jedna czwarta prędkości interfejsu.
Spójrzmy teraz na porównanie dysków 120 GB.
Dysk |
Prędkość obrotowa |
Prędkość przesytu interfejsu |
Średnia prędkość przesyłu z nośnika |
Hitachi (IBM) 120GXP |
7200 obr./min |
100 MB/s |
42,27 MB/s |
Maxtor D540X |
5400 obr./min |
133 MB/s |
30,97 MB/s |
Trzeba zauważyć, że dysk z szybszym interfejsem (133 MB/s w porównaniu do 100 MB/s) jest wyraźnie wolniejszy (około 37%). Ponieważ dyski mają podobną liczbę sektorów na ścieżkę, różnica w prędkości przesyłu jest spowodowana głównie przez 33% różnicę prędkości obrotowej obu dysków.
Jeżeli chcesz kupić dysk 120 GB i szukasz możliwie dużej wydajności, ten przykład pokazuje, że mądrze jest wybrać model z większą prędkością przesyłu z nośnika. Nawet, jeżeli będzie on działał z mniejszą prędkością interfejsu 100 MB/s (ATA-100), i tak odczytuje oraz zapisuje dane 37% szybciej niż jego konkurent, pomimo że drugi dysk wykorzystuje interfejs o prędkości przesyłu 133 MB/s (ATA-133).
Jak wykazaliśmy w poprzednim przykładzie, prędkość przesyłu interfejsu jest niemal bez znaczenia. Ponieważ żaden dysk obecnie nie potrafi przesyłać danych z prędkością większą niż 66 MB/s (nawet z zewnętrznego cylindra), użycie interfejsu o większej prędkości przesyłu nie wpływa na całkowitą wydajność. Jeżeli więc myślisz o kupieniu nowej płyty głównej lub osobnej karty host adaptera wyłącznie w celu zwiększenia wydajności dysku, możesz zaoszczędzić te pieniądze. Aby być uczciwym, muszę powiedzieć, że można jednak zauważyć niewielki wzrost wydajności, ponieważ dane z bufora w kontrolerze dysku są przesyłane do płyty głównej z prędkością interfejsu, a nie z prędkością odczytu z nośnika. Bufor ten ma zwykle wielkość 2 MB i pomaga jedynie w przypadku powtarzających się przesyłów małej ilości danych. Jeśli jednak często będą wykonywane powtarzające się transfery danych, napędy z większymi buforami o pojemności 8 MB mogą zwiększyć wydajność aplikacji realizujących takie operacje. W tabeli 10.5 zamieszczono informacje dotyczące aktualnie dostępnych dysków z buforem o pojemności 8 MB.
Jeżeli pozostałe parametry są takie same, szybciej przesyła dane dysk obracający się z większą prędkością. Niestety, rzadko kiedy parametry są dokładnie takie same, więc zawsze należy przestudiować specyfikację dysku zamieszczoną w tabeli danych lub podręczniku dołączonym do dysku.
Jednym z najszybciej obracających się dysków jest Seagate Cheetah Xl 5, który pracuje z prędkością obrotową 15 000 obr./min. W tabeli 10.7 zamieszczona jest specyfikacja dysku Ultra4-SCSI Seagate Cheetah X15-35LP (ST-336732LW) o prędkości obrotowej 15 000 obr./min.
Jako porównanie, w tabeli 10.8 zamieszczona została specyfikacja dysku Ultra4-SCSI/320 Seagate Cheetah X15-36ES (ST-336746LW) o prędkości obrotowej 10 000 obr./min.
Tabela 10.7. Specyfikacja prędkości przesyłu dla dysku Seagate Cheetah X15-35LP (ST-336732LW) o prędkości obrotowej 15 000 obr./min
Prędkość przesyłu |
Megabity/s |
Megabajty/s |
Prędkość interfejsu |
2560 Mb/s |
320,0 MB/s |
Prędkość przesyłu surowego z nośnika (maks.) |
709 Mb/s |
88,6 MB/s |
Prędkość przesyłu surowego z nośnika (min) |
522 Mb/s |
65,3 MB/s |
Prędkość przesyłu sformatowanego z nośnika (maks.) |
522 Mb/s |
69,0 MB/s |
Prędkość przesyłu sformatowanego z nośnika (min) |
408 Mb/s |
51,0 MB/s |
Prędkość przesyłu sformatowanego z nośnika (średnia) |
480 Mb/s |
60,0 MB/s |
Tabela 10.8. Specyfikacja prędkości przesyłu dla dysku Seagate Cheetah X15-36ES (ST-336746LW) o prędkości obrotowej 10 000 obr./min
Prędkość przesyłu |
Megabity/s |
Megabajty/s |
Prędkość interfejsu |
2560 Mb/s |
320,0 MB/s |
Prędkość przesytu surowego z nośnika (maksymalna). |
682 Mb/s |
85.3 MB/s |
Prędkość przesyłu surowego z nośnika (minimalna). |
520 Mb/s |
65.0 MB/s |
Prędkość przesyłu sformatowanego z nośnika (maksymalna). |
506 Mb/s |
63,2 MB/s |
Prędkość przesyłu sformatowanego z nośnika (minimalna). |
393 Mb/s |
49,1 MB/s |
Prędkość przesyłu sformatowanego z nośnika (średnia). |
449 Mb/s |
56,2 MB/s |
Jak widać, choć dysk 15 000 obr./min obraca się z prędkością o 50% większą, przesyła on dane jedynie około 7% szybciej, a kosztuje około 38% więcej przy tej samej pojemności. Zwróćmy uwagę, że żaden z tych dysków nie zbliża się nawet do maksymalnej przepustowości magistrali Ultra 4 SCSI (320 MB/s). Jedyną różnicą pomiędzy ATA i SCSI jest lepsze współdzielenie dostępnego kanału dyskowego przez dyski SCSI.
Porównanie to jest zamieszczone jako ostrzeżenie. Nie można porównywać jedynie jednego parametru, na przykład prędkości interfejsu lub prędkości obrotowej, ponieważ może być to mylące. Prędkość interfejsu jest właściwie bez znaczenia i choć prędkość obrotowa jest o wiele ważniejsza, niektóre napędy mogą osiągać niższe prędkości przesyłu z nośnika od dysków obracających się z niższymi prędkościami. Należy unikać uproszczonych porównań. W przypadku dysków twardych prędkość transferu jest prawdopodobnie najważniejszym parametrem dysku — im większa tym lepiej.
Aby sprawdzić specyfikację prędkości przesyłu, należy odszukać tabelę z danymi lub dokumentację dysku. Można je zazwyczaj ściągnąć z witryny WWW producenta. W dokumentacji często podawane są wartości maksymalnej i minimalnej liczby sektorów na ścieżkę, co połączone z prędkością obrotową może być wykorzystane do obliczenia prędkości przesyłu danych sformatowanych z nośnika. Powinieneś odszukać prawdziwą liczbę fizycznych sektorów na ścieżkach strefy wewnętrznej i wewnętrznej. Powinieneś wiedzieć, ze wiele dysków (szczególnie stosujących strefowy zapis danych) korzysta z translacji sektorów, co oznacza, że liczba sektorów na ścieżkę raportowaną przez BIOS ma niewiele wspólnego z fizyczna organizacją dysku. Trzeba odszukać prawdziwe parametry fizyczne, a nie wartości wykorzystywane przez BIOS.
Znając liczbę sektorów na ścieżkę (SPT) i prędkość obrotową, do obliczenia prędkości przesyłu z nośnika w milionach bajtów na sekundę (MB/s) można skorzystać z poniższego równania:
Prędkość przesyłu z nośnika (MB/s) = SPT * 512 bajtów * obr./min / 60 sekund / 1000000
Na przykład, dysk Hitachi Deskstar 120GXP obraca się z prędkością 7200 obr./min i ma średnio 688 sektorów na ścieżkę. Średnia prędkość przesyłu z nośnika jest wyliczana w sposób następujący:
688 * 512 * (7200/60) / 1000000 = 42.27 MB/s
Korzystając z tego równania, można obliczyć prędkość przesyłu z nośnika dowolnego dysku, znając jego prędkość obrotową i średnią liczbę sektorów na ścieżkę.
Średni czas wyszukiwania
Średni czas wyszukiwania, zwykle mierzony w milisekundach, to średni czas potrzebny na przesunięcie głowic z jednego cylindra do innego, losowo wybranego. Jedynym sposobem zmierzenia tego czasu jest wykonanie wielu losowych operacji wyszukiwania ścieżki i podzielenie wynikowego czasu przez ilość wykonanych operacji wyszukiwania. Metoda ta pozwala na wyliczenie średniego czasu jednej operacji wyszukiwania.
Standardową metodą mierzenia średniego czasu wyszukiwania, wykorzystywaną przez wielu producentów, jest zmierzenie czasu potrzebnego na przesunięcie głowic o jedną trzecią całkowitej liczby cylindrów. Średni czas wyszukiwania zależy jedynie od dysku; typ interfejsu kontrolera ma niewielki wpływ na wynik. Średni czas wyszukiwania określa możliwości mechanizmu pozycjonera głowicy.
Należy ostrożnie interpretować wyniki programów mierzących szybkość wyszukiwania dysku. Więk-szość dysków ATA (IDE) oraz SCSI korzysta z translacji sektorów, więc każde polecenie przesunię-cia głowic na określony cylinder otrzymywane przez dysk może nie przekładać się na zamierzony fizyczny ruch głowic. Sytuacja ta powoduje, że programy diagnostyczne są w przypadku takich dysków bezużyteczne. Dyski SCSI wymagają wykonania dodatkowego kroku, ponieważ polecenie musi być przesłane do dysku poprzez magistralę SCSI. Może się wydawać, ze dyski te mają krótszy czas wyszukiwania, ponieważ narzut na dodatkową głowicę nie jest rejestrowany przez większość programów diagnostycznych. Jednak gdy program diagnostyczny prawidłowo rejestruje wszystkie opóźnienia, okazuje się, że dyski te osiągają gorszą wydajność.
Opóźnienie
Opóźnienie to średni czas (w milisekundach), jaki trzeba odczekać po ustawieniu głowicy na cylindrze, na dotarcie wybranego jego sektora. Średnio jest to polowa czasu jednokrotnego obrotu dysku. Dyski obracające się z prędkością dwukrotnie większą mają dwa razy mniejsze opóźnienie.
Opóźnienie jest czynnikiem wpływającym na prędkość odczytu i zapisu dysku. Zmniejszenie tej prędkości zwiększa szybkość dostępu do danych i jest to osiągane jedynie przez zwiększenie prędkości obrotowej dysku. Wartości opóźnienia dla najpopularniejszych prędkości obrotowych dysków, przedstawione są w tabeli 10.9.
Tabela 10.9. Prędkości obrotowe dysków i ich opóźnienia
Obroty na minutę |
Obroty na sekundę |
Opóźnienie |
3600 |
60 |
8,33 |
4200 |
70 |
7,14 |
5400 |
90 |
5,56 |
7200 |
120 |
4,17 |
10000 |
167 |
3,00 |
15000 |
250 |
2,00 |
Wiele sprzedawanych dziś dysków ma prędkość obrotową 7200 obr./min, co daje średnie opóźnienie tylko 4,17 ms. natomiast modele obracające się z prędkością 10 000 lub nawet 15 000 obr./min osiągają niewiarygodnie niskie wartości opóźnień 3 i 2 ms. Oprócz zwiększania szybkości dostępu do danych, dyski o większej prędkości obrotowej mają również większą prędkość przesyłu danych po ustawieniu głowicy na potrzebnym sektorze.
Średni czas dostępu
Wartość średniego czasu dostępu to suma średniego czasu wyszukiwania i opóźnienia. Średni czas dostępu jest podawany w milisekundach.
Wartość średniego czasu dostępu (średni czas wyszukiwania i opóźnienie) określa średni czas, jaki dysk potrzebuje na odszukanie losowo wybranego sektora.
Programy i kontrolery buforujące
Największy wpływ na wydajność dysku mĄ\programy buforujące (ang. cache), takie jak SMARTDRV (DOS) i YCACHE (Windows). Programy te monitorują przerwania BIOS-u dysku twardego i przechwytują wywołania odczytu i zapisu z uruchomionych aplikacji i sterowników urządzeń.
Gdy aplikacja chce odczytać dane z dysku twardego, program buforujący przechwytuje żądanie odczytu, przekazuje je do kontrolera, zapisuje dane'odczytane z dysku w buforze znajdującym się w pamięci operacyjnej i na koniec przekazuje te dane do aplikacji. W zależności od wielkości bufora dysku, w pamięci można zapisać dane z określonej liczby sektorów.
Gdy aplikacja chce odczytać kolejne dane, program buforujący znów przechwytuje żądanie odczytu i szuka żądanych w swoim buforze. Jeżeli dane te zostaną odnalezione, program przekazuje je bezpośrednio z pamięci do aplikacji, nie wykonując żadnej operacji dyskowej. Ponieważ buforowane dane znajdują się w pamięci, metoda ta pozwala znacznie zwiększyć prędkość dostępu do danych i świetnie wpływa na ogólną wydajność pracy.
Większość obecnie sprzedawanych kontrolerów posiada wbudowane bufory, które jednak nie przechwytują przerwań BIOS-u. Zamiast tego, napęd buforuje dane na poziomie sprzętowym, co jest niezauważalne dla programów mierzących wydajność. Producenci najczęściej umieszczają bufory odczytu wyprzedzającego ścieżki, co pozwala na stosowanie przeplotu 1:2. Niektórzy producenci zwiększają obecnie wielkość tych buforów, natomiast inni. zamiast stosowania prostych buforów, umieszczają układy inteligentnego sterowania pamięcią podręczną.
Wiele dysków ATA i SCSI posiada pamięć podręczną wbudowaną bezpośrednio w kontroler dysku. Większość nowych dysków ATA ma 2 MB pamięci buforującej (wiele bardzo wydajnych dysków ATA jest wyposażonych w pamięć podręczną o pojemności 8 MB). Większość dysków SCSI posiada 8 MB pamięci, a niektóre nawet 16 MB. Pamiętam, gdy 1 MB lub 2 MB pamięci RAM było nadmiarowe dla całego systemu. Teraz niektóre dyski 3,5 cala mają wbudowane 16 MB pamięci!
Choć buforowanie sprzętowe i programowe pozwala przyspieszyć dysk podczas wykonywania rutynowych lub powtarzających się operacji przesyłu danych, to nie wpływa na maksymalną prędkość przesyłu, jaką może osiągnąć urządzenie.
Wybór przeplotu
Przy omawianiu wydajności dysków często podnoszony jest problem przeplotu. Choć zwykle było to bardziej związane z wydajnością kontrolera, a nie samego dysku, a nowoczesne dyski ATA i SCSI z wbudowanymi kontrolerami potrafią przetwarzać dane z taką samą szybkością jak są one odczytywane z dysku. Inaczej mówiąc, nowoczesne dyski ATA i SCSI są formatowane bez przeplotu (czasami jest to oznaczane jako współczynnik przeplotu 1:1). W starych typach dysków, takich jak MFM i EDSI, można modyfikować wartość przeplotu podczas formatowania niskopoziomowego w celu optymalizacji wydajności dysku. Dziś dyski są formatowane niskopoziomowo przez producentów i problem przeplotu zniknął.
Niezawodność
Podczas zakupu dysku można zwrócić uwagę na wartość statystyczną nazywaną przeciętnym czasem między awariami (MTBF) umieszczoną w specyfikacji dysku. MTBF ma wartość od 300 000 do 1 000 000 godzin lub nawet więcej. Najczęściej ignoruję ten parametr, ponieważ jego pochodzenie jest czysto teoretyczne.
Aby zrozumieć, co to jest MTBF, trzeba wiedzieć, w jaki sposób producenci wyliczają ten czas i co on oznacza. Większość producentów ma bogate doświadczenie w budowaniu dysków i ich urządzenia przepracowały w sumie już miliony godzin. Aby obliczyć częstotliwość awarii nowego dysku, wykorzystywane są statystyki awarii poprzednich modeli składających się z tych samych komponentów. Dla układów elektronicznych istnieją również standardowe metody przewidywania awarii układów scalonych. Pozwala to na wyliczenie przewidywanej częstotliwości awarii dla całkowicie nowego urządzenia.
Trzeba wiedzieć, że MTBF odnosi się do całego zbioru dysków, a nie do konkretnego urządzenia. Oznacza to, że jeżeli dla dysku zadeklarowany jest MFBF równy 500 000 godzin, w ciągu tego czasu można spodziewać się awarii w całym zbiorze dysków. Jeżeli w sprzedaży jest 1 000 000 egzemplarzy danego modelu i wszystkie jednocześnie pracują, można się spodziewać, że jeden z nich ulegnie awarii w ciągu pół godziny. Statystyka MTBF nie jest przydatna do przewidywania awarii poszczególnych dysków i małych ich zbiorów.
Należy również wiedzieć, co oznacza słowo awaria. W tym sensie awarią jest uszkodzenie, które powoduje odesłanie dysku do producenta w celu naprawy, a nie okresowe kłopoty z prawidłowym odczytem lub zapisem pliku.
Czas MTBF powinien być właściwie określany jako czas do pierwszej awarii. Określenie między awariami wskazuje, że gdy dysk ulegnie uszkodzeniu, to jest wysyłany do naprawy, a następnie w którymś momencie znów ulega uszkodzeniu. Czas pomiędzy naprawą a drugim uszkodzeniem powinien być właśnie czasem MTBF. Ponieważ w większości przypadków dysk, który ulega uszkodzeniu, jest zastępowany nowym, a nie naprawiany, cała koncepcja MTBF jest nieprawidłowo nazwana.
Z wymienionych powyżej powodów nie kładę zbyt dużego nacisku na ten wskaźnik. Dla poszczególnych dysków nie ma dokładnych prognoz niezawodności. Jednak jeżeli jesteś szefem działu informatyki rozważającym zakup tysięcy komputerów lub dysków rocznie i musisz oszacować koszty obsługi tysięcy systemów, warto poznać te liczby i przestudiować metody ich obliczania stosowane przez producenta. Większość wytwórców dysków twardych swoje najlepsze produkty przeznacza do zastosowania w przedsiębiorstwach. Oznacza to. że zostały one zaprojektowane do pracy w środowiskach wymagających nieustannej pracy i wysokiej niezawodności. W związku z tym takie dyski posiadają najwyższe wartości MTBF. Jeżeli będziesz wiedział, jak powstają te liczby, i będziesz mógł je porównać do niezawodności dużej liczby dysków, to będziesz mógł podjąć decyzję o zakupie bardziej niezawodnego sprzętu, co zaoszczędzi nieco czasu i pieniędzy przeznaczonych na ich serwisowanie.
SMART
Technologia SMART (ang. Self-Monitoring, Analysis and Reporting Technology — technologia monitorowania, analizy i raportowania) to standard przemysłowy pozwalający na przewidywanie awarii dysków twardych. Gdy dla danego dysku uaktywniony jest system SMART, napęd monitoruje kilka atrybutów, na których podstawie można podejrzewać lub które wskazują na uszkodzenia dysku. W oparciu o zmiany w monitorowanych atrybutach można przewidywać uszkodzenia. Jeżeli da się wywnioskować, że może wystąpić uszkodzenie, SMART tworzy raport stanu dysku dostępny dla BIOS-u systemu lub programu sterownika, a użytkownik jest powiadamiany o nadchodzących problemach, dzięki czemu można wykonać kopie ważnych danych przed wystąpieniem problemów.
System SMART może wykrywać jedynie przewidywalne typy awarii. Wynikają one z postępującego obniżania jakości dysku. Zgodnie z danymi firmy Seagate 60% uszkodzeń dysku to uszkodzenia mechaniczne, które mogą być przewidywane przez system SMART
Oczywiście nie wszystkie uszkodzenia są przewidywalne i w takich przypadkach SMART nie jest w stanie pomóc. Mogą być one skutkiem statycznych pól elektrycznych, nieprawidłowego przenoszenia, silnych uderzeń lub awarii układów elektronicznych związanych, na przykład, z uszkodzeniem układów.
System SMART został zaprojektowany przez firmę IBM w roku 1992. Wtedy właśnie IBM rozpoczął sprzedaż dysku 3,5 calowego wyposażonego w system Predictive Failure Analysis (PFA), który okresowo mierzył wybrane parametry dysku i wysyłał ostrzeżenia, gdy przekroczone zostały ustalone poziomy. IBM przestawił tę technologię organizacji ANSI i stała się ona po niedługim czasie standaryzowanym przez ANSI protokołem SMART dla dysków SCSI i została opisana w dokumencie ANSFSCSI Informational Exception Control (1EC) X3T10/94-190.
Dążenie do zaadaptowania tej technologii dla dysków ATA spowodowało zawiązanie w roku 1995 SMART Working Group. Oprócz firmy IBM w skład grupy weszli reprezentanci innych firm: Seagate Technology, Conner Peripherials (teraz część Seagate), Fujitsu. Hewlett-Packard, Maxtor, Quantum i Western Digital. Specyfikacja SMART opracowana wspólnie przez tę grupę i udostępniona publicznie obejmuje dyski ATA i SCSI; jest stosowana w większości produkowanych obecnie dysków twardych.
Parametry i wartości progowe w SMART są podobne dla dysków ATA i SCSI, różnice występują tylko w sposobie raportowania.
W urządzeniach ATA sterownik w systemie operacyjnym interpretuje sygnały alarmowe z dysku generowane przez polecenie systemu SMART raportujące o statusie. Sterownik regularnie sprawdza status tego polecenia i. jeżeli odpowiedź wskazuje na uszkodzenie, wysyła informację do systemu operacyjnego, która jest przekazywana użytkownikowi poprzez okno z komunikatem błędu. Struktura taka pozwala wprowadzić w przyszłości rozszerzenia, które mogłyby pozwolić na raportowanie nie tylko informacji o uszkodzeniach. Oprócz standardowego polecenia Report Status, system może sam odczytywać i oceniać wartości atrybutów i raportowanych alarmów.
Dyski SCSI z systemem SMART przesyłają komunikaty o niezawodności jedynie w postaci dwustanowej — dobry lub awaria. W systemach SCSI decyzja o raportowaniu uszkodzenia jest podejmowana przez dysk i również tutaj użytkownik jest powiadamiany o awarii. Specyfikacja SCSI określa pewien znacznik, który jest ustawiany, gdy napęd wykryje problem z niezawodnością. Następnie system informuje użytkownika o uszkodzeniu.
Trzeba wiedzieć, że tradycyjne programy diagnostyczne dysku, takie jak Scandisk operują tylko na sektorach danych na powierzchni dysku i nie monitorują wszystkich jego funkcji monitorowanych przez SMART Większość nowoczesnych dysków posiada zapasowe sektory, które mogą być użyte w zastępstwie sektorów posiadających błędy. Gdy jeden z tych zapasowych sektorów zostanie realokowany. dysk raportuje tę czynność do systemu SMART. ale dysk nadal wygląda na całkowicie pozbawiony błędów w czasie analizy sektorów wykonywanej przez program Scandisk.
Dyski różnych producentów z. systemem SMART, monitorują różne parametry. Parametry te są wybierane przez producenta w oparciu o możliwość przewidywania zużycia lub sytuacji błędnych dla określonego modelu dysku. Wielu producentów wypracowało specyficzny zbiór monitorowanych parametrów i uważają ten zbiór za charakterystyczny dla producenta i prawnie zastrzeżony.
Niektóre dyski monitorują wysokość unoszenia się głowicy nad nośnikiem. Jeżeli wysokość ta zmieni się w stosunku do pierwotnej wartości, dysk może ulec uszkodzeniu. Inne dyski monitorują atrybuty takie jak układy ECC, co pozwala wykrywać błędy podczas odczytu lub zapisu danych. Niektóre z niżej wymienionych parametrów są monitorowane przez większość dysków:
wysokość unoszenia się głowicy,
wydajność przesyłu danych,
czas rozpędzania talerzy,
licznik realokowanych sektorów,
częstotliwość błędów wyszukiwania,
wartość czasu wyszukiwania,
licznik powtórzeń rozpędzania talerzy,
licznik powtarzania kalibracji dysku.
Każdy z tych atrybutów posiada własny poziom graniczny wykorzystywany do wykrywania zużycia lub sytuacji awaryjnych. Poziomy te są ustalane przez producenta (mogą być różne dla poszczególnych wytwórców i modeli) i nie mogą być modyfikowane.
Podstawowym warunkiem prawidłowego działania systemu SMART jest posiadanie dysku z systemem SMART oraz BIOS-u komputera z jego obsługą lub analogicznego sterownika dysku twardego dla systemu operacyjnego. Jeżeli BIOS komputera nie obsługuje SMART, dostępne są odpowiednie programy narzędziowe to zapewniające. Są to na przykład: Norton Disk Doctor firmy Symantec, EZ Drive firmy StorageSoft i Data Advisor firmy Ontrack.
Gdy w monitorowanych atrybutach zajdą odpowiednio duże zmiany, system SMART tworzy ostrzeżenie, przesyłane następnie poprzez polecenie ATA lub SCSI (w zależności od typu dysku) do sterownika dysku twardego w układzie BIOS, który zwykle informuje o problemie w trakcie wykonywania procedury POST po ponownym uruchomieniu komputera.
Aby szybciej uzyskać zgłoszenie o problemie, można uruchomić takie narzędzie, jak SMART Explorer firmy Adenix (http://www.adenix.net) lub HDD Health firmy Panterasoft (http://www.panterasoft.com), pobierające status systemu SMART dotyczący dysku.
Po otrzymaniu ostrzeżenia systemu SMART należy najpierw utworzyć kopię danych. Namawiam do zastosowania w tym celu nowego nośnika. Warto również zachować wcześniejsze kopie na wypadek, gdyby awaria nastąpiła w czasie tworzenia najnowszej.
Co można zrobić po zabezpieczeniu danych? Ostrzeżenia SMART mogą być powodowane przez zewnętrzne czynniki i nie muszą koniecznie oznaczać nadchodzącej awarii dysku. Na przykład, zmiany w środowisku, jak wysoka lub niska temperatura otoczenia, mogą spowodować wygenerowanie ostrzeżenia SMART, podobnie jak znaczne wibracje dysku powodowane przez źródła zewnętrzne. Dodatkowo, ostrzeżenia takie mogą być powodowane przez zakłócenia elektryczne pochodzące od silników i innych urządzeń zasilanych z tego samego źródła co PC.
Jeżeli ostrzeżenie nie jest spowodowane przez zewnętrzne źródło zakłóceń, wskazuje to na konieczność wymiany dysku. Jeżeli dysk jest na gwarancji, skontaktuj się z dostawcą i zapytaj, czy zostanie on wymieniony. Jeżeli nie będą generowane kolejne ostrzeżenia, to być może problem był anomalią i nie ma potrzeby wymiany dysku. Jeżeli jednak generowane są kolejne ostrzeżenia, zalecana jest wymiana. Można skopiować całą zawartość używanego dysku na nowy, podłączając oba dyski do tego samego systemu, zaoszczędzając czas potrzebny na instalację systemu i aplikacji oraz przywrócenie danych z kopii zapasowej.
Cena
Ceny dysków twardych stale spadają. Obecnie (październik 2004 r.) nowy dysk ATA 200 GB można kupić za około 470 zł, co stanowi 0,2 grosza za megabajt.
Mój dysk kupiony w roku 1983 miał pojemność 10 MB i kosztował 1800 dolarów (6210 zł). Według obecnych cen (0,2 grosza za megabajt) dysk ten jest wart 2 grosze!
Oczywiście ceny dysków zmniejszają się stale i można oczekiwać, że w przyszłości dostępne będą jeszcze tańsze i pojemniejsze napędy.
Rozdział 11.
Napędy dyskietek
Podstawowe informacje na temat dyskietek
W rozdziale tym omówimy standardowe typy napędów dyskietek oraz same dyskietki, które są używane w komputerach PC od początku ich istnienia. Będziemy zajmować się różnymi typami dyskietek i napędów, poznamy sposób ich działania oraz zasady właściwego ich instalowania i używania. Napędy dyskietek dużej pojemności, takie jak SuperDisk (LS-120 i LS-240) i urządzenia z pamięcią Flash (np. napęd z interfejsem USB), są opisane osobno w rozdziale 12., „Nośniki wymienne o dużej pojemności". Ogólne informacje o zapisie magnetycznym — to znaczy o tym, w jaki sposób dane są zapisywane na nośniku — znajdują się w rozdziale 9., „Świat urządzeń o zapisie magnetycznym".
Choć dyskietki nie są już używane jako podstawowe urządzenie dyskowe, nadal są wykorzystywane do instalacji systemów i konfiguracji, jak również w czasie usuwania usterek. W starszych komputerach, które nie obsługują specyfikacji CD-ROM El Torito, napęd dyskietek jest jedynym urządzeniem służącym do załadowania od początku systemu operacyjnego lub uruchamiania niektórych programów diagnostycznych. Nowe komputery obsługujące standard El Torito (CD startowe) nie wymagają napędu dyskietek, ponieważ mogą uruchomić systemy operacyjne i programy diagnostyczne bezpośrednio z dysku CD.
Od 2002 r. wiele firm zaczęło sprzedaż komputerów pozbawionych stacji dyskietek. Najpierw były to komputery przenośne, w których wewnętrzne stacje dyskietek zastąpiono napędami zewnętrznymi (zwykle z interfejsem USB). Większość nowszych komputerów przenośnych nie dysponuje już stacją dyskietek — dostępne są jedynie modele z zewnętrznym napędem USB. W 2003 r. wielu producentów komputerów stacjonarnych również przestało w przypadku typowych konfiguracji wyposażać je w napędy dyskietek. W marcu 2003 r. firma Dell usunęła stację dyskietek ze standardowego wyposażenia większości modeli swoich komputerów PC i oferowała ją tylko jako dodatkową opcję.
Zamiast dyskietek można zastosować wiele innych rozwiązań. Zarówno napędy Zip, jak i LS-120/LS-240 (SuperDisk) nie zastąpiły napędów dyskietek w nowych komputerach PC. Standard Mount Rainier, zaprezentowany w 2002 r., pozwala napędom CD-RW i DVD+-RW zastąpić dyskietki. Przed opublikowaniem standardu Mount Rainier napędy CD i DVD nie posiadały mechanizmu wykrywania uszkodzeń oraz bezpośredniej obsługi przez system operacyjny.
► ► Zajrzyj do podpunktu „Mount Rainier" znajdującego się na stronie 847.
Obecnie przy przenoszeniu pomiędzy systemami niewielkiej lub średniej ilości danych (do 2 GB lub trochę więcej) wiele osób korzysta też z urządzeń USB z pamięcią Flash, często określanymi anglojęzycznymi terminami thumb drives lub keychain drives. Stacje dyskietek nadal przydają się w czasie odzyskiwania danych lub ekspertyzach komputerowych, gdzie często niezbędne jest przywracanie danych ze starszych nośników. Pomimo że nie korzystam z dyskietek przy zapisywaniu nowych danych, nadal posiadam kilka systemów z napędami dyskietek 5,25 cala oraz 3,5 cala, dzięki czemu mogę odczytać dane ze starych nośników w przypadku konieczności odzyskania danych lub wykonania ekspertyzy.
Historia dyskietek
Za twórcę napędów dyskietek uznaje się Alana Shugarta, który skonstruował ten napęd w roku 1967 w czasie pracy w firmie IBM. Jeden z szefów Shugarta, David Noble, zaproponował zastosowanie elastycznego nośnika (wtedy o średnicy 8 cali) i koszulki zabezpieczającej z wykładziną z włókniny. Shughart opuścił firmę IBM w roku 1969, a w roku 1976 jego firma, Shughart Associates, wprowadziła napęd minidyskietek (5,25 cala). Stały się one standardem wykorzystywanym w komputerach PC, błyskawicznie wypierając napędy dyskietek o średnicy 8 cali. Shugart ma swój udział w powstaniu interfejsu Shugart Associates System Interface (SASI), który później, po jego zatwierdzeniu przez ANSI, został nazwany Smali Computer System Interface (SCSI).
Pierwszy napęd mikrodyskietek 3,5 cala wprowadziła w roku 1981 firma Sony. Pierwszą znaczącą firmą, która zastosowała napęd dyskietek 3,5 cala był Hewlet-Packard w roku 1984 w jego częściowo zgodnym z PC komputerze HP-150. Pełna aprobata branży komputerowej dla dyskietek 3,5 cala nastąpiła, gdy firma IBM w 1986 r. zaczęła stosować stacje dyskietek 3,5 cala w niektórych komputerach PC i ostatecznie rok później we wszystkich modelach.
Trzeba również wiedzieć, że wszystkie napędy dyskietek w komputerach PC korzystają nadal z oryginalnego projektu Shugarta (i są z nim zgodne) zarówno jeżeli chodzi o układ elektryczny, jak i polecenia interfejsu. Porównując go do pozostałych elementów komputera PC, napęd dyskietek niewiele się zmienił w czasie tych wielu lat.
Interfejsy napędu dyskietek
Napędy dyskietek są przyłączane do komputera PC na kilka sposobów. Większość korzysta z tradycyjnego kontrolera dyskietek, który będzie dokładniej opisany w tym rozdziale, ale niektóre nowe konstrukcje korzystają z interfejsu USB. Ponieważ tradycyjne kontrolery dyskietek działająjako urządzenia wewnętrzne, wszystkie zewnętrzne napędy są przyłączane przez USB lub inny tego typu interfejs. Napędy USB często zawierają standardowy napęd dyskietek zamknięty w oddzielnej obudowie z dobudowanym konwerterem interfejsu dyskietek na USB. Nowsze systemy, które mają usunięte przestarzałe interfejsy, nie posiadają tradycyjnego kontrolera napędu dyskietek i najczęściej zamiast niego korzystają z USB. W przeszłości niektóre napędy były dostępne z interfejsem FireWire (IEEE 1394) lub nawet z interfejsem równoległym. Więcej informacji na temat interfejsów USB i równoległego znajduje się w rozdziale 17., „Porty wejścia-wyjścia — od szeregowego i równoległego do IEEE 1394 i USB".
Elementy napędu
Wszystkie napędy dyskietek, niezależnie od typu, składają się z kilku podstawowych elementów. Aby prawidłowo instalować i konserwować napęd dyskietek, musisz potrafić odszukać te elementy i znać ich przeznaczenie (patrz rysunek 11.1).
Głowice odczytująco-zapisujące
Napęd dyskietek posiada zwykle dwie głowice odczytująco-zapisujące — po jednej na każdą stronę dysku, i obie one są używane do odczytu i zapisu danych po swojej stronie nośnika (patrz rysunek 11.2). Kiedyś dostępne były napędy jednostronne (oryginalny PC mial taki napęd), ale w chwili obecnej napędy jednostronne nikną w mrokach historii.
Wielu użytkowników nie wie, że głowica 0, czyli pierwsza głowica napędu dyskietek, znajduje się na dole. Napędy jednostronne miały tylko dolną głowicę, natomiast zamiast górnej zamontowana była filcowa płytka dociskowa. Inna ciekawostką jest to, że górna głowica (głowica 1) nie znajduje się bezpośrednio nad dolna (głowicą 0). Górna głowica jest przesunięta o cztery lub osiem ścieżek do wewnątrz, w zależności od typu napędu.
Rysunek 11.2.
Układ
dwustronnych głowic napędu
Silnik nazywany pozycjonerem głowicy przesuwa cały mechanizm głowic. Głowice mogą przesuwać się po prostej nad powierzchnią dysku i w ten sposób ustawiać się nad kolejnymi ścieżkami. W napędzie głowice przesuwają się po stycznej do ścieżek zapisu na dysku. Różni się to od działania dysku twardego, gdzie głowica jest przesuwana przez obrotowe ramię podobne do ramienia gramofonu. Ponieważ górna i dolna głowica zamontowane są na wspólnym wózku, nie mogą przesuwać się niezależnie. Głowice wyznaczają ścieżki na odpowiednich stronach nośnika, natomiast ścieżki znajdujące się pod dolną i górną głowicą tworzą cylinder. Na większości dyskietek zapisywane jest 80 ścieżek na każdej stronie (w sumie 160 ścieżek), czyli 80 cylindrów.
Same głowice są zbudowane z miękkiego związku żelaza z wbudowanymi cewkami elektromagnetycznymi. Głowica składa się z kilku elementów: głowicy odczytująco-zapisującej umieszczonej pośrodku oraz dwóch tunelowo kasujących głowic po bokach (patrz rysunek 11.3).
Rysunek 11.3.
Złożona konstrukcja typowej głowicy napędu dyskietek
Napęd dyskietek korzysta z metody zapisu zwanej kasowaniem tunelowym. W czasie zapisu ścieżki przez napęd, boczne głowice kasują brzegi ścieżki, tworząc ostre krawędzie zapisu. Dane są zapisywane w postaci wąskiego „tunelu". Proces ten zapobiega zakłóceniom sygnału ścieżki przez sygnały z sąsiednich ścieżek, co najczęściej zdarza się, gdy umożliwi się utworzenie naturalnego, stożkowego kształtu ścieżki po obu stronach dysku. Proces zestrajania to proces ustawiania głowic w odniesieniu do ścieżek dysku. Zestrajanie głowic może być wykonywane jedynie w stosunku do standardowego dysku odniesienia zapisanego na doskonale przygotowanej maszynie. Dyski takie można kupić i wykorzystać do sprawdzenia zestrojenia głowic napędu. Jednak najczęściej nie jest to praktyczne rozwiązanie dla końcowego użytkownika, ponieważ dysk kalibrujący może kosztować więcej niż nowy napęd.
Dwie głowice napędu dyskietek są dociskane sprężyną do dysku z niewielką siłą, dzięki czemu podczas odczytu i zapisu mają one bezpośredni kontakt z nośnikiem magnetycznym. Ponieważ napęd dyskietek wykorzystuje prędkość obrotowąjedynie 300 lub 360 obr/min, nacisk ten nie stwarza problemów związanych z nadmiernym tarciem. Niektóre nowe dyskietki są powlekane warstwą teflonu lub innego materiału obniżającego tarcie i ułatwiającego ślizganie się dysku pod głowicami. Ponieważ jednak głowice mają styczność z dyskiem, czasami na głowicach odkładają się zanieczyszczenia z materiału magnetycznego. Zanieczyszczenia te powinny być usuwane w czasie rutynowej konserwacji komputera lub w serwisie. Większość producentów zaleca czyszczenie głowic po 40 godzinach działania napędu, co w chwili obecnej, gdy dyskietki nie są zbyt intensywnie wykorzystywane, może być całym czasem życia komputera.
Aby prawidłowo odczytywać i zapisywać dane, głowice muszą mieć bezpośredni kontakt z nośnikiem magnetycznym. Bardzo małe cząstki luźnych tlenków, kurzu, brudu, dymu, odciski palców lub włosy mogą powodować problemy z odczytem i zapisem na dyskietce. Testy producentów napędów i dysków wykazały, że szczelina 0,000813 mm (813 milionowych milimetra) między głowicą i nośnikiem może powodować błędy odczytu i zapisu. Dlatego tak ważne jest ostrożne obchodzenie się z dyskietkami i unikanie dotykania oraz zanieczyszczania powierzchni dysku. Sztywna koperta i zasuwka zabezpieczająca w dyskietkach 3,5 cala doskonale zapobiegają problemom związanym z zabrudzeniami. Dyskietki 5,25 cala nie miały tych elementów ochronnych i był to jeden z powodów, dlaczego przestały być one używane. Jeżeli nadal korzystasz z dyskietek 5,25 cala, powinieneś obchodzić się z nimi bardzo ostrożnie. Jeśli nie jest wymagane pozostawienie danych na oryginalnym nośniku, namawiam do zapisania ich na dysku CD lub DVD.
Pozycjoner dysku
W napędzie dyskietek pozycjoner głowicy przesuwa głowice nad powierzchnią dyskietki i jest napędzany przez specjalny silnik krokowy (patrz rysunek 11.4). Ten typ silnika przesuwa się o precyzyjnie wyznaczony dystans i zatrzymuje się. Silniki krokowe nie mogą ustawiać się na dowolnych pozycjach, obracają się o stały kąt wyznaczony przez zapadkę i muszą zatrzymywać się na określonych pozycjach. Jest to idealne rozwiązanie dla napędów dyskietek, ponieważ położenie każdej ścieżki na dysku może być zdefiniowane przez przesunięcie o jeden lub więcej kroków silnika. Kontroler napędu może nakazać silnikowi obrót o dowolną ilość kroków w stosunku do bieżącego ustawienia. Na przykład, aby ustawić głowice na cylindrze 25, kontroler nakazuje silnikowi przesunięcie o 25 kroków od cylindra 0.
Rysunek 11.4.
Widok układu silnika krokowego i pozycjonera głowicy
Silnik krokowy może być przyłączony do stojaka głowic na dwa sposoby. Pierwszym sposobem jest połączenie za pomocą zwiniętej taśmy stalowej. Taśma jest nawijana i rozwijana na oś silnika krokowego, przekładając jej ruch obrotowy na liniowy ruch głowicy. Drugim rodzajem przeniesienia napędu jest zastosowanie przekładni ślimakowej napędzanej bezpośrednio z osi silnika krokowego. Ponieważ układ taki jest dużo mniejszy, najczęściej jest stosowany w napędach 3,5-calowych.
Większość silników krokowych wykorzystywanych w napędach dyskietek ma wielkość kroku dobraną do gęstości ścieżek na dyskietce. Starsze napędy o gęstości 48 ścieżek na cal (TPI) posiadają silnik, którego krok ma wielkość 3,6 stopnia. Oznacza to, że obrót silnika krokowego o 3,6 stopnia przesuwa głowicę z jednej ścieżki na drugą. Większość napędów 96 i 135 TPI posiada silniki krokowe mające krok o wielkości 1,8 stopnia, czyli o połowę mniej niż krok stosowany w napędach 48 TPI. Czasami ta informacja jest drukowana na samym silniku krokowym, co jest czasem przydatne, np. gdy chcemy sprawdzić, jaki typ napędu posiadamy. Napędy 5,25 cala 360 kB korzystają z silnika o kroku 3,6 stopnia, natomiast pozostałe napędy najczęściej używają silników o kroku 1,8 stopnia. W większości napędów silnik krokowy jest małym cylindrycznym obiektem położonym blisko narożnika napędu.
Silnik krokowy na pełny obrót potrzebuje najczęściej około 1/5 sekundy — 200 milisekund. Średnio, pół obrotu zabiera 100 ms, a jedna trzecia obrotu — 66 ms. Czas połowy lub jednej trzeciej skoku mechanizmu pozycjonera głowicy jest często używany do wyznaczania średniego czasu dostępu napędu dysku. Średni czas dostępu jest czasem, jaki zajmuje głowicom przesunięcie się z bieżącej ścieżki na inną losowo wybraną ścieżkę.
Silnik napędowy
Silnik napędowy służy do obracania nośnika dyskietki. Normalna prędkość obrotowa wynosi 300 lub 360 ob-r/min, w zależności od typu napędu. Jedynym napędem obracającym się z prędkością 360 obr/min jest napęd 5,25 cala wysokiej gęstości (HD). Wszystkie pozostałe, w tym 5,25 cala podwójnej gęstości (DD), 3,5 cala HD i 3,5 cala ekstrawysokiej gęstości (ED), obracają się z prędkością 300 obr/min. W porównaniu z dyskami twardymi jest to niewielka prędkość i jest to przyczyna, dlaczego napędy dyskietek mają dużo mniejszą prędkość przesyłu. Jednak ta niewielka prędkość obrotowa pozwala na fizyczny kontakt głowic napędu z obracającym się nośnikiem bez powodowania uszkodzeń wytwarzanych przez tarcie.
Wiele wczesnych napędów korzysta z mechanizmu, w którym silnik napędowy napędza piastę dysku za pomocą paska, ale wszystkie nowoczesne urządzenia korzystają z bezpośredniego systemu napędzającego bez zastosowania żadnych pasków. System bezpośredniego napędu jest bardziej niezawodny i tańszy w produkcji, a jednocześnie jest on dużo mniejszy. Wcześniejszy pasowy system napędu zapewniał większy moment obrotowy potrzebny do poruszenia bardziej „lepkich" dysków. Większość nowoczesnych napędów z bezpośrednim napędem korzysta z automatycznej kompensacji momentu obrotowego, która reguluje prędkość obrotową do stałej wartości 300 lub 360 obr/min i zwiększa moment obrotowy dla takich „lepkich" dyskietek oraz zmniejsza moment dla bardziej „śliskich". Oprócz kompensowania różnych wartości oporu, układ taki eliminuje potrzebę regulacji prędkości obrotowej napędu, który był często wymagany w przypadku starszych napędów.
Płyta z układami
Napędy dysków zawsze mają jedną lub więcej płytek z układami logicznymi, zawierających układy niezbędne do sterowania pozycjonerem głowicy, głowicami odczytująco-zapisującymi, silnikiem napędowym, czujnikami dyskietki i innymi elementami napędu. Na płytce znajduje się również układy interfejsu pomiędzy napędem a kontrolerem znajdującym się na płycie głównej.
Standardowym interfejsem stosowanym przez wszystkie napędy dyskietek jest stary interfejs SA-400 firmy Shugart Associates, który został zaprojektowany w latach 70. w oparciu o układ kontrolera NEC 765. Wszystkie nowoczesne kontrolery dyskietek są zgodne z oryginalnym układem NEC 765. Dzięki temu standardowi przemysłowemu można zakupić napęd dowolnego producenta i mieć pewność, że będzie on zgodny z każdym kontrolerem.
Kontroler
Niegdyś kontroler napędu dyskietek mial postać osobnej karty rozszerzeń instalowanej w gnieździe magistrali ISA (ang. Industry Standard Architecture). Późniejsze implementacje wykorzystywały wielofunkcyjną kartę zawierającą, oprócz interfejsu napędu dyskietek, interfejsy IDE (ATA), równoległy i szeregowy. W chwili obecnej komputery PC mają kontroler dyskietek wbudowany w płytę główną, najczęściej w postaci układu Super IO zawierającego interfejs szeregowy oraz równoległy, jak również inne elementy. Mimo to, że interfejs dyskietek znajduje się w układzie Super I/O na płycie głównej, nadal jest przyłączony do systemu poprzez magistrale ISA i działa identycznie, jakby był kartą umieszczoną w gnieździe ISA. Wbudowany kontroler jest najczęściej konfigurowany poprzez funkcje programu konfiguracyjnego BIOS i może zostać on wyłączony, jeżeli zainstalowany zostanie dodatkowa karta kontrolera dyskietek.
Niezależnie od tego, czy podstawowy kontroler dyskietek jest wbudowany w płytę główną czy nie, korzysta on ze standardowego zbioru zasobów systemu:
IRQ 6 (przerwanie).
DMA 2 (kanał bezpośredniego dostępu do pamięci),
porty wejścia-wyjścia 3F0 - 3F5, 3F7.
Te zasoby systemowe są standardowe i zwykle nie da się ich zmienić. Najczęściej nie stanowi to problemu, ponieważ żadne inne urządzenia nie próbują z nich korzystać (ponieważ spowodowałoby to konflikt). Komputery reklamowane jako nieobsługujące przestarzałych urządzeń nie zawierają układu Super l/O, co oznacza, że nie posiadają wbudowanego kontrolera stacji dyskietek. W przypadku takich komputerów nadal możliwe jest zastosowanie napędu dyskietek, lecz wyłącznie w postaci zewnętrznego urządzenia z interfejsem USB.
W przeciwieństwie do interfejsu ATA, używanego głównie przez dyski twarde i napędy optyczne, kontroler napędu dyskietek nie zmienił się zbytnio od czasu jego zaprojektowania. Chyba jedyną zmianą była maksymalna prędkość kontrolera. Wraz ze wzrostem gęstości zapisu danych na dyskietce (i jej pojemności), musiała zwiększać się również maksymalna prędkość działania kontrolera. Niemal wszystkie stosowane dziś kontrolery dyskietek obsługują prędkości do 1 Mb/s, która wystarcza do obsługi wszystkich standardowych napędów dyskietek. Kontrolery o prędkości 500 kb/s mogą obsługiwać wszystkie napędy oprócz dyskietek ekstrawysokiej gęstości (2,88 MB). Starsze komputery korzystają z kontrolerów 250 kb/s, które obsługują jedynie napędy 360 kB, 5,25 cala i 720 kB 3,5 cala. Aby zainstalować standardowy napęd 1,44 MB 3,5 cala w starszym komputerze, trzeba wymienić kontroler dyskietek na szybszy.
Najlepszym sposobem na określenie prędkości kontrolera stacji dyskietek jest sprawdzenie rodzajów napędów dyskietek obsługiwanych w programie konfiguracyjnym BIOS-u.
► ► Zajrzyj do rozdziału „BIOS" znajdującego się na stronie 457.
Nawet jeżeli nie będziesz chciał korzystać z napędu dyskietek 2,88 MB, mimo to warto mieć zainstalowany możliwie szybki kontroler. Niektóre starsze napędy taśm korzystają z interfejsu dyskietek i w takim przypadku prędkość kontrolera ma ogromny wpływ na całkowitą przepustowość napędu taśm. Co prawda tradycyjnie stosowane karty kontrolera stacji dyskietek i karty Multi I/O są w stanie obsługiwać dwa napędy dyskietek (A: i B:), jednak wiele nowszych komputerów z płytą główną zawierającą układ mostka południowego zintegrowanego z układem Super I/O obsługuje tylko jeden napęd.
Płyta czołowa
Płyta czołowa jest kawałkiem tworzywa sztucznego zakrywającego przód napędu dyskietek. Element ten jest najczęściej wymienny i dostępny jest we wielu kolorach i konfiguracjach.
Większość producentów napędów dyskietek oferuje swoje produkty z odpowiednimi płytami czołowymi w kolorze szarym, beżowym lub czarnym wraz z diodą LED o kolorze czerwonym, zielonym bądź żółtym. Pozwala to producentom komputerów lepiej dopasować napęd dyskietek do estetyki całej obudowy, tak aby osiągnąć jednolity i bardziej profesjonalny wygląd zestawu.
Złącza
Niemal wszystkie napędy dyskietek posiadają dwa złącza —jedno złącze zasilania i jedno złącze z sygnałami sterującymi oraz danymi przesyłanymi między kontrolerem i napędem. Złącza te stanowią standard w przemyśle komputerowym. Mała lub duża wersja rzędowego złącza 4-pinowego (nazwanego przez firmę AMP Mate-N-Lock) stosowana jest do doprowadzenia zasilania (rysunek 11.5), natomiast 34-pinowe złącze czołowe lub krawędziowe jest używane do doprowadzania danych i sygnałów sterujących. Najczęściej napędy 5,25 cala korzystają z dużego złącza zasilania i 34-pinowego złącza krawędziowego, natomiast większość napędów 3,5 cala korzysta z mniejszego złącza zasilania i 34-pinowego złącza czołowego. Kontroler napędu, złącze sterowania i funkcje pinów złącza są opisane szczegółowo w dalszej części rozdziału.
Rysunek 11.5.
Duże (do napędu 5,25 cala) i małe (do napędu 3,5 cala) żeńskie złącza zasilania
Zarówno duże, jak i małe złącza zasilania są wtykami żeńskimi. Łączą się one z częścią męską zamontowaną w samym napędzie. Zauważ, że przypisanie pinów do sygnałów w małym złączu jest odwrotne niż w dużym złączu.
Częstym problemem, w przypadku instalowania napędu 3,5 cala w starszych systemach lub przy dodawaniu drugiego napędu do nowego systemu, jest brak drugiego lub całkowity brak małych złączy zasilania. Na stronie internetowej firmy Dalco (http://www.dalco.com) pod numerem 47425 dostępny jest adapter zamieniający złącze zasilania przeznaczone dla dużych urządzeń peryferyjnych na małe złącze odpowiednie dla większości napędów 3,5 cala. Adapter można nabyć też w innych miejscach.
Większość standardowych komputerów PC korzysta z napędów 3,5 cala z 34-pinowym złączem sygnałowym i małym złączem zasilania. W przypadku starszych systemów można nabyć ramkę pozwalającą na zamontowanie napędu 3,5 cala w miejscu przeznaczonym na urządzenia 5,25 cala (czasem wraz ze specjalnym adapterem pozwalającym na podłączenie dużego złącza zasilania i starszego złącza krawędziowego). Zewnętrzne napędy dyskietek są podłączane do gniazda USB, FireWire lub nawet interfejsu równoległego. Więcej informacji na temat tych interfejsów znajduje się w rozdziale 17.
Kabel kontrolera napędu dyskietek
Złącze o 34-pinach w napędzie dyskietek ma postać złącza krawędziowego (w napędach 5,25 cala) lub złącza czołowego (w napędach 3,5 cala). W tabeli 11.1 opisane są funkcje poszczególnych pinów w złączu kontrolera stacji dyskietek.
Tabela 11.1. Funkcje pinów standardowego złącza kontrolera napadu dyskietek
Pin |
Sygnał |
Pin |
Sygnał |
1 Masa |
2 |
DD/HD Density Select |
|
3 |
Klucz' |
4 |
Zarezerwowane (nieużywane) |
5 |
Klucz1 |
6 |
ED Density Select2 |
7 |
Masa |
8 Index |
|
9 |
Masa |
10 |
Motor-On 0 (A:) |
11 |
Masa |
12 |
Drive Select 1 (B:) |
13 |
Masa |
14 |
Drive Select 0 (A:) |
15 |
Masa |
16 |
Motor-On 1 (B:) |
17 |
Masa |
18 Direction (silnik krokowy) |
|
19 |
Masa |
20 |
Step Pulse |
21 |
Masa |
22 |
Write Data |
23 |
Masa |
24 |
Write Enable |
25 Masa |
26 |
Track 0 |
|
27 |
Masa |
28 |
Write Protect |
29 |
Masa |
30 |
Read Data |
31 |
Masa |
32 |
Head Select |
33 |
Masa |
34 |
Disk Change |
'Kontrolery i napędy mogą używać jednego, obu lub żadnego (brak) pinu klucza.
2 Dotyczy tylko kontrolerów obsługujących napędy ED (Extra-high Density 2,88 MB). W innych przypadkach pin nie jest używany.
Kabel wykorzystywany do przyłączenia napędu (lub napędów) dyskietek do kontrolera jest nieco dziwny. Aby obsługiwać różne konfiguracje, kabel taki ma najczęściej pięć złączy — dwa złącza krawędziowe, dwa złącza czołowe do podłączania napędów oraz jedno złącze czołowe przyłączane do kontrolera. Kabel tan ma nadmiarowe złącza dla każdego z dwóch napędów (A i B) obsługiwanych przez standardowy kontroler napędów dyskietek, więc można za jego pomocą podłączyć dowolną kombinację napędów 5,25 cala oraz 3,5 cala (patrz rysunek 11.6).
Rysunek 11.6.
Standardowy, pięciozlączowy kabel interfejsu napędu dyskietek
Oprócz złączy, kable w większości systemów posiadają specjalne skręcenie, które powoduje odwrócenie sygnału przewodów 10 - 16. Są to przewody przenoszące sygnały Drive Select (DS) i Motor Enable dla obu napędów. Starsze napędy dyskietek mają zworkę DS pozwalającą na określenie, czy dany napęd ma być rozpoznawany jako A czy jako B (wyjątkowo wiekowe napędy oferują też trzecie i czwarte ustawienie).
Możesz nawet nie wiedzieć, że istnieje taka zworka, ponieważ skręcenie przewodów powoduje, że nie ma potrzeby jej zmieniania (w większości nowszych napędów zworki zostały wyeliminowane). W przypadku instalacji dwóch napędów dyskietek w jednym systemie (w chwili obecnej to rzadkość) kabel zmienia konfigurację elektryczną sygnału DS w napędzie, który jest podłączony za przeplotem. Dzięki temu skręcenie powoduje fizyczne przyłączenie napędu do drugiej pozycji DS (B) — od strony kontrolera wygląda to tak. jakby napęd był przyłączony do pierwszej pozycji DS (A). Zastosowanie takiego kabla pozwala na stosowanie standardowego ustawienia zworki dla wszystkich napędów dyskietek, niezależnie od tego, czy w komputerze zainstalowany jeden czy dwa napędy.
Instalując tylko jeden napęd dyskietek, wykorzystuje się złącza za skręceniem, co powoduje, że napęd jest rozpoznawany jako A. Co prawda obecnie jest to rzadko stosowane, ale wiele programów konfigurujących BIOS komputerów zawiera opcję umożliwiającą zamianę napędów A i B bez konieczności przełączania ich kabli. Jeśli dysponujesz komputerem, w którym stacja dyskietek 5.25 cala (oznaczona jako B) jest używana z myślą o starszych aplikacjach i zależy Ci na tym, aby była identyfikowana jako A, w celu zmiany konfiguracji stacji bez zdejmowania obudowy możesz skorzystać z takiej opcji (jeśli jest dostępna).
Tajemnice kabla ze skręceniem
Oryginalny interfejs stacji dyskietek Shugart SA400 został zaprojektowany tak, aby za pomocą jednego kabla można było obsługiwać maksymalnie cztery napędy. Firma IBM dokonała jednak zmian w konfiguracji pinów, dzięki czemu była w stanie wyprodukować tańszy kontroler, obsługujący tylko dwa napędy i jednocześnie eliminujący konieczność ustawiania zworek napędów.
Po zaglądnięciu do dokumentacji dołączonej do starszych stacji dyskietek i ich kontrolerów opartych na standardzie przemysłowym, jakim jest interfejs Shugart SA400, okaże się, że korzystają one z czterech różnych sygnałów wybierających napędy (sygnały DS0IDS1IDS2IDS3 powiązane odpowiednio z pinami 10/12/14/6). a pin 16 jest wykorzystywany przez sygna! Motor-On (nazywany też Motor Enable), współużytkowany przez wszystkie napędy (tabela 11.2).
Sygnał Drive Select 3 (D) byłby powiązany z pinem 6, ale w tabeli zawarłem tylko te piny. które będą dotyczyły kabla ze skręceniem. Komputery PC obsługują maksymalnie tylko dwa napędy dyskietek — przyczyną zamieszania jest skręcenie kabla.
Gdy kontroler chce skomunikować się ze stacją dyskietek, generuje sygnały Drive Select (DSO dla A i DSI dla B) i Motor-On. Odpowiada tylko wybrany napęd, w którym włączany jest silnik. W celu odszukania, odczytania, zapisania danych i wykonania podobnych operacji kontroler następnie korzysta z innych sygnałów, na które odpowiada tylko żądany napęd.
Jednak firma IBM nie dostosowała się dokładnie do specyfikacji standardu przemysłowego interfejsu stacji dyskietek Shugart. Zamiast tego zaprojektowany przez nią kontroler stacji dyskietek oferował tylko sygnały Dnve Select, a ponadto sygnał DSO (A) został umieszczony tam, gdzie oryginalnie powinien znaleźć się sygnał DS2 (C). Dodatkowo firma IBM dla napędów 0 i I (A i B) dostarczyła niezależne sygnały Motor-On. powiązane odpowiednio z pinami 10 i 16 (tabela 11.3). Warto zauważyć, że oryginalnie pin 10 miał być wykorzystany na potrzeby sygnału DSO, a nie sygnału Motor-On napędu 0 (A). Poza tym pin 16 miał zostać użyty przez sygnał Motor-On obsługujący wszystkie napędy, a nie tylko napęd 1 (B).
Tabela 11.3 |
Interfejs stacji dyskietek Shugart zmodyfikowany przez firmę IBM |
|
Pin |
Sygnał |
|
10 |
Motor-On 0 (A) |
|
12 |
Dnve Select I (B) |
|
14 |
Drive Select 0 (A) |
|
16 |
Motor-On I (B) |
Jak widać, funkcje pinów kontrolera stacji dyskietek firmy IBM nie pokrywają się z funkcjami pinów standardowych napędów dyskietek! A zatem jak to wszystko razem działa?
Napęd B pracuje bez problemów w następujący sposób. Sygnał DSI (Drive Select I). wygenerowany przez kontroler na pinie 12, pojawia się zgodnie z oczekiwaniami na pinie 12 napędu. Z kolei sygnał Motor-On I (B) wychodzący z pinu 16 kontrolera dociera do pinu 16 napędu. Dzięki temu napęd B działa w przypadku zastosowania kabla posiadającego skręcenie. W tym przypadku konieczne jest jedynie ustawienie zworki stacji dyskietek na pozycji DSI. co stanowi domyślną konfigurację we wszystkich komputerach PC.
A jak to wygląda w przypadku napędu Al Właśnie tu pojawia się kwestia skręcenia kabla wraz z informacją, że zworka napędu A powinna być ustawiona na pozycji DSI, tak samo jak w napędzie B.
W praktyce wygląda to następująco. W skręconej części kabla zamienione miejscami są piny 10 i 16, a także 12 i 14. Przy próbie użycia napędu A sygnał DSO (Drive Select 0) wychodzący z pinu 14 kontrolera dociera do pinu 12 (zamienionego miejscami przez skręcenia kabla) napędu, który obsługuje sygnał DSI (Drive Select 1). Wszystko funkcjonuje, ponieważ zworka napędu A jest tak ustawiona, aby stacja odpowiadała na sygnał DSI, tak samo jak napęd B. Sygnał Motor-On 0 (A) wychodzi z pinu 10 kontrolera i za pośrednictwem skręcenia kabla trafia do pinu 16 napędu, który obsługuje sygnał Motor-On dla wszystkich stacji dyskietek. Jak widać, napęd A będzie działał bez zarzutu.
Interfejsy oryginalnego kontrolera stacji dyskietek firmy IBM i standardowego napędu nie do końca do siebie pasują. Aby wszystko prawidłowo zadziałało, wystarczy zastosować kabel ze skręceniem i zworki obu napędów ustawić w pozycji DSI. Od czasów pojawienia się oryginalnego komputera IBM PC kontroler napędów firmy IBM i kabel ze skręceniem są standardem obowiązującym we wszystkich komputerach PC.
Fizyczna specyfikacja dyskietek i ich działanie
Większość obecnie sprzedawanych komputerów PC sprzedawanych jest z napędem dyskietek 3,5 cala 1,44 MB. W rzadkich przypadkach możesz spotkać się ze starszymi systemami, które wyposażone są w napędy dyskietek 5,25 cala 1,2 MB zamiast lub oprócz napędu 3,5 cala. Dodatkowo, niektóre systemy PC wykorzystują napęd 2,88 MB, 3,5 cala, który może również odczytywać i zapisywać dyskietki 1,44 MB. Starsze typy napędów — 5,25 cala 360 kB i 3,5 cala 720 kB — są przestarzałe i trudno już je spotkać.
Fizyczne działanie napędu dyskietek jest dosyć łatwe do opisania. Dysk obraca się w napędzie z prędkością 300 lub 360 obr/min. Większość napędów ma prędkość obrotową 300 obr/min, jedynie napędy 5,25 cala o pojemności 1,2 MB obracają się z większą prędkością. Gdy dysk się obraca, głowice przesuwają się na dystansie około 2,5 cm i zapisują dane na 80 ścieżkach. Ścieżki są zapisywane na obu stronach dysku i dlatego są czasami nazywane cylindrami. Pojedynczy cylinder składa się ze ścieżki na górnej i dolnej powierzchni nośnika. Głowice zapisują dane stosując procedurę kasowania tunelowego, w której dane są zapisywane na ścieżce o określonej szerokości, a następnie brzegi ścieżki są kasowane w celu zapobiegania interferencjom z sąsiednimi ścieżkami.
Różne napędy zapisują ścieżki o różnej szerokości. W tabeli 11.4 zamieszczone są szerokości ścieżek (mierzone w milimetrach) dla różnych typów napędów dyskietek używanych w nowoczesnych systemach PC.
Tabela 11.4. Specyfikacja szerokości ścieżek w napędach dyskietek
Typ napędu |
Ilość ścieżek |
Szerokość ścieżek |
5,25 cala, 360 kB |
40 na stronę |
0,300 mm |
5,25 cala, 1,2 MB |
80 na stronę |
0,155 mm |
3,5 cala, 720 kB |
80 na stronę |
0,115 mm |
3,5 cala, 1.44 MB |
80 na stronę |
0,115 mm |
3,5 cala, 2.88 MB |
80 na stronę |
0,115 mm |
Sposób wykorzystania dyskietki przez system operacyjny
Dla systemu operacyjnego dane na dyskietkach są zorganizowane w postaci ścieżek i sektorów, podobnie jak w przypadku dysku twardego. Ścieżki to wąskie koncentryczne okręgi na dysku, natomiast sektory to łukowate fragmenty poszczególnych ścieżek.
W tabeli 11.5 zamieszczone są standardowe formaty dla napędów dyskietek używanych w komputerach PC.
Można łatwo policzyć różnicę w pojemności różnych formatów, mnożąc ilość sektorów na ścieżkę przez ilość ścieżek na stronę oraz stałą wartość dwóch stron i 512 bajtów na sektor. Zwróć uwagę, że pojemność dyskietki może być wyrażana na kilka sposobów. Na przykład, dyskietka, którą nazywamy 1,44 MB, naprawdę może pomieścić 1.457 MB danych, jeżeli zastosujemy prawidłową definicję prefiksu dla megabajta. Ta rozbieżność wzięła się z faktu, że w przeszłości dyskietki były oznaczane pojemnościami mierzonymi w kilobi-narybajtach (1024 bajty), które początkowo nieprawidłowo skracano do kB. Aby uniknąć niejednoznaczności przy porównywaniu binarnej i dziesiętnej interpretacji wartości liczbowych, organizacja 1EC (International Electrotechnical Commission) określiła kiB jako poprawny skrót nazwy kilobinarybąjt.
Mimo standardów IEC tradycyjną metodą oznaczania dyskietek i dysków jest podawanie ilości kilobinarybaj-tów (1024 bajty to 1 kiB), ale korzystając z nieprawidłowego skrótu kB. Podobnie nieprawidłowo używany jest skrót MB. Dlatego dysk o pojemności 1440 kiB jest określany jako 1,44 MB, choć tak naprawdę ma on pojemność 1.406 MiB (megabinarybajtów) lub 1,475 MB (milionów bajtów) jeżeli zastosujemy prawidłową definicję MiB (mebibajta) oraz MB (megabajta).
Tabela 11.5. Formaty napędów dyskietek 5,25 cala i 3,5 cala
Napęd dyskietek 5,25 cala
|
Podwójna gęstość 360 kB (DD) |
Wysoka gęstość 1,2 MB (HD) |
|
Bajty na sektor |
512 |
512 |
|
Sektory na ścieżkę |
9 |
15 |
|
Ścieżki na stronę |
40 |
80 |
|
Strony |
2 |
2 |
|
Pojemność (kiB) |
360 |
1200 |
|
Pojemność (MiB) |
0,352 |
1,172 |
|
Pojemność (MB) |
0,369 |
1,229 |
|
|
Napęd dyskietek 3,5 cala |
|
|
|
Podwójna gęstość 720 kB (DD) |
Wysoka gęstość 1,44 MB (HD) |
Ekstrawysoka gęstość 2,88 MB (ED) |
Bajty na sektor |
512 |
512 |
512 |
Sektory na ścieżkę |
9 |
18 |
36 |
Ścieżki na stronę |
80 |
80 |
80 |
Strony |
2 |
2 |
2 |
Pojemność (kiB) |
720 |
1440 |
2880 |
Pojemność (MiB) |
0,703 |
1,406 |
2,813 |
Pojemność (MB) |
0,737 |
1,475 |
2,949 |
W tym rozdziale określam pojemność różnych dyskietek zgodnie z poprzednio wykorzystywaną konwencją, a nie technicznie prawidłową notacją IEC dla prefiksów binarnych i dziesiętnych.
Podobnie jak w przypadku dysków twardych, zastosowanie identycznych prefiksów w przypadku dziesiętnych i binarnych wielokrotności wprowadziło sporo zamieszania. Prefiksy wprowadzone przez IEC zostały zaprojektowane w celu wyeliminowania tych niejednoznaczności. Więcej informacji na temat prefiksów wielokrotności binarnych znajduje się pod adresem http://physics.nist.gov/ cuu/Units/binary.html. Warto też zapoznać się z zawartością podrozdziału „Mierzenie pojemności", znajdującego się w rozdziale 9.
Podobnie jak czysta kartka papieru, nowe, niesformatowane dyskietki nie zawierają żadnych informacji. Formatowanie dyskietki jest podobne do rysowania linii na papierze pomagających w utrzymaniu prostego kierunku pisania. Formatowanie dyskietki powoduje zapis informacji, których system operacyjny potrzebuje do zorganizowania katalogu i spisu plików. W przypadku dyskietek nie ma różnicy pomiędzy formatowaniem niskopoziomowym i wysokopoziomowym, nie trzeba również tworzyć partycji. Formatując dyskietkę za pomocą programu Explorer w systemie w Windows lub w wierszu poleceń za pomocą programu FORMAT.COM. wykonywane jest jednocześnie formatowanie nisko- i wysokopoziomowe.
Formatując dyskietkę, system operacyjny rezerwuje ścieżkę najbliższą zewnętrznemu brzegowi dysku (ścieżka 0) niemal całkowicie na własne potrzeby. Sektor 1 ścieżki 0 na stronie 0, zawiera Yolume Boot Record (VBR) lub Boot Sector, który system operacyjny potrzebuje do rozpoczęcia operacji. Następne kilka sektorów zawiera dwie tablice alokacji plików (FAT), które zawierają zapisy dotyczące zajętości klastrów lub jednostek alokacji na dysku. Na koniec kilka sektorów zawiera główny katalog dysku, w którym system operacyjny zapisuje informacje na temat nazw i początkowych pozycji plików na dysku.
Większość dyskietek w chwili obecnej jest sprzedawana w postaci sformatowanej. Oszczędza to nieco czasu, ponieważ formatowanie jednej dyskietki zajmuje około minuty. Choć dyskietki są preformatowane, zawsze mogą być one później sformatowane ponownie.
Cylindry
Numer cylindra jest najczęściej używany w miejscu numeru ścieżki, ponieważ w chwili obecnej wszystkie napędy dyskietek są dwustronne. Cylinder na dyskietce zawiera dwie ścieżki: jedną na dolnej powierzchni dysku, ponad głowicą 0, oraz jedną na górnej powierzchni, pod głowicą 1. Ponieważ dyskietka nie może mieć więcej niż dwóch stron, zawsze występują dwie ścieżki na cylinder. Dyski twarde mogą mieć kilka talerzy — każdy z dwoma głowicami — więc na cylinder składa się więcej ścieżek. W przypadku cylindrów istnieje prosta zasada — składają się one z tylu ścieżek ile głowic znajduje się w napędzie.
Cylindry są dokładniej opisane w rozdziale 10., ,.Dyski twarde" oraz w rozdziale 25., „Systemy plików i odzyskiwanie danych".
Klastry lub jednostki alokacji
Klaster jest również nazywany jednostką alokacji. Nazwa jest odpowiednia, ponieważ jeden klaster jest najmniejszą jednostka dysku, jaką system operacyjny może zarezerwować na zapis pliku. Klaster lub jednostka alokacji składa się z jednego lub więcej sektorów — zwykle potęgi dwójki (1, 2, 4, 8 itd.). Klastry z większą ilością sektorów zmniejszają wielkość tablicy FAT oraz przyspieszają działanie systemu operacyjnego, ponieważ ma on mniej klastrów do obsłużenia. W zamian za to większa ilość miejsca pozostaje niewykorzystana. Ponieważ system operacyjny może tylko zarządzać przestrzenią dysku o w jednostkach o rozmiarze jednego klastra, każdy plik zajmuje na dysku wielokrotność jednego klastra.
^ ^ Więcej informacji na temat jednostek alokacji znajduje się w podrozdziale „Systemy plików FAT" na stronie 1416.
W tabeli 11.6 zamieszczono domyślne wielkości klastrów używanych w różnych formatach dysków.
Tabela 11.6. Domyślne rozmiary klastrów i jednostki alokacji
Pojemność dyskietki |
Wielkość klastra — jednostki alokacji |
Wielkość jednostki alokacji w bajtach |
Typ FAT |
5,25 cala 360 kB |
2 sektory |
1024 bajty |
12-bitowy |
5,25 cala 1,2 MB |
1 sektor |
512 bajtów |
12-bitowy |
3,5 cala 720 kB |
2 sektory |
1024 bajty |
12-bitowy |
3,5 cala 1,44 MB |
1 sektor |
512 bajtów |
12-bitowy |
3,5 cala 2,88 MB |
2 sektory |
1024 bajty |
12-bitowy |
kB = 1024 bajty (według konwencji)
MB = 1000 kB (według konwencji)
Sygnał Disk Change
Standardowy kontroler i napęd korzystają ze specjalnego sygnału, wyprowadzonego na pin 34., o nazwie Disk Change, który pozwala sprawdzić, czy została wymieniona dyskietka — a dokładniej, sprawdzić, czy dyskietka będąca w napędzie podczas ostatniego odczytu nadal pozostaje w napędzie. Sygnał Disk Change jest sygnałem impulsowym zmieniającym rejestr statusu w kontrolerze w celu powiadomienia systemu, że został włożony lub wyjęty dysk. Domyślnie rejestr ten jest ustawiony, gdy dysk został włożony lub wyjęty (zmieniony).
Rejestr ten jest zerowany, gdy kontroler wyśle do napędu sygnał do wykonania kroku silnika, a napęd potwierdzi przesunięcie głowic. System interpretuje sygnał jako potwierdzenie wsunięcia dyskietki do napędu. Jeżeli przed kolejnym dostępem sygnał Disk Change nie został odebrany, system przyjmuje, że dyskietka pozostaje w napędzie i nie została zmieniona. W tej sytuacji wszystkie informacje wczytane do pamięci mogą być nadal używane bez konieczności ponownego odczytu dysku.
Dzięki tej sygnalizacji system może buforować w pamięci komputera zawartość tablicy alokacji lub strukturę katalogów. Eliminując niepotrzebne odczyty obszaru systemowego dyskietki zauważalnie zwiększa się prędkość działania napędu. Jeżeli otworzysz dźwignię napędu bądź przyciśniesz przycisk wyrzutu dyskietki, napęd obsługujący sygnał Disk Change, wysyła impuls DC do kontrolera, kasując rejestr i raportując zmianę dysku. Procedura ta powoduje skasowanie przez system zawartości buforów danych odczytanych z dyskietki, ponieważ, nie ma pewności, że w napędzie znajduje się nadal ta sama dyskietka.
Interesujący problem występuje, gdy napęd zostanie zainstalowany w systemie 16-bitowym lub nowszym. Jak wspomnieliśmy, niektóre napędy wykorzystują pin 34 do przesyłania sygnału Ready (RDY). Sygnał RDY jest wysyłany, gdy dysk jest włożony do napędu i obraca się w nim. Jeżeli zainstalujesz napęd, który wykorzystuje pin 34 do wysyłania sygnału RDY, system uzna, że stale otrzymuje sygnał Disk Change, co powoduje to problemy. Najczęściej napęd odpowiada błędem Dysk nie gotowy i przestaje działać. Jedynym powodem istnienia sygnału RDY jest jego zdefiniowanie w standardzie interfejsu Shugart SA400, jednak nigdy nie był on używany w systemach PC.
Większy problem występuje, gdy napęd nie wysyła sygnału DC na pin 34, choć powinien to robić. Jeżeli system ma ustawiony typ napędu (poprzez program konfiguracyjny CMOS) inny niż 360 kB (który nie wysyła sygnału DC), system oczekuje od napędu wysłania sygnału £>Cpo wyjęciu dysku. Jeżeli napęd nie wysyła tego sygnału, system nie będzie mógł sprawdzić, czy dysk został zmieniony. Dlatego mimo zmiany dysku będzie on działał tak, jakby w napędzie znajdował się nadal pierwszy dysk i nadal przechowywał w pamięci katalog i FAT pierwszego dysku. Może być to niebezpieczne, ponieważ dane FAT i katalogu głównego z pierwszej dyskietki mogą zostać częściowo zapisane na drugiej.
Jeżeli spotkasz się z systemem, w którym napęd dyskietek pokazuje „cienie katalogów" poprzednio włożonej dyskietki, właśnie spotkałeś się z tym problemem. Negatywnym efektem ubocznym jest to, że wszystkie dyskietki wkładane do napędu są narażone na niebezpieczeństwo. Katalogi i tablice alokacji kolejnych dyskietek mogą zostać zapisane danymi z pierwszej dyskietki.
Uratowanie dyskietki po takiej katastrofie może wymagać dużo pracy (z wykorzystaniem programów narzędziowych, takich jak Norton Utilities, wchodzący w skład pakietu Norton SystemWorks), o ile w ogóle się uda. Problemy z sygnałem Disk Change najczęściej jest powodowany przez niewłaściwą konfigurację napędu.
Warto zauważyć, że program Eksplorator Windows nie zawsze wyświetli zawartość nowej dyskietki znajdującej się w napędzie. W celu odświeżenia zawartości okna programu po zmianie dyskietek należy wcisnąć klawisz F5. Operacja spowoduje wymuszenie wczytania zawartości nowej dyskietki.
Jeżeli instalujesz napęd 5,25 cala 1,2 MB, 3,5 cala 720 kB lub 3,5 cala 1,44 MB upewnij się, że pin 34 wysyła sygnał Disk Change (DC). Większość napędów jest na stałe skonfigurowana w ten sposób, ale niektóre mają zworkę (zwykle oznaczoną jako DC) pozwalającą ustawić tę opcję.
Typy napędów dyskietek
Charakterystyki napędów dyskietek używanych w systemach zgodnych z PC zestawione są w tabeli 11.7. Jak można się przekonać, różne pojemności są wyznaczane przez kilka parametrów, z których niektóre są stałe dla wszystkich napędów, a niektóre zmieniają się w różnych typach napędów. Na przykład, wszystkie napędy korzystają z sektorów o wielkości 512 bajtów i ta wielkość sektora jest również używana w dyskach twardych.
Napędy 1,44 MB 3,5 cala
Napędy 3,5 cala wysokiej gęstości (HD, 1,44 MB) zostały po raz pierwszy zastosowane w rodzinie komputerów PS/2 firmy IBM, wprowadzonej na rynek w roku 1987. Niemal natychmiast po tym większość producentów komputerów zaczęła je oferować w swoich systemach. Ten typ napędu dyskietek jest w chwili obecnej najbardziej popularny.
Tabela 11.7. Logiczne parametry sformatowanych dyskietek
|
|
Bieżące formaty |
|
Formaty przestarzałe |
||||
Wielkość dyskietki (w calach) |
3,5 |
3,5 |
3,5 |
5,25 |
5,25 |
5,25 |
5,25 |
5,25 |
Pojemność dyskietki (kB) |
2880 |
1440 |
720 |
1200 |
360 |
320 |
180 |
160 |
Bajt opisu nośnika |
FOh |
FOh |
F9h |
F9h |
FDh |
FFh |
FCh |
FEh |
Strony (głowice) |
2 |
2 |
2 |
2 |
2 |
2 |
1 ! 1 |
|
Ścieżki na stronę |
80 |
80 |
80 |
80 |
40 |
40 |
40 40 |
|
Sektory na ścieżkę |
36 |
18 |
9 |
15 |
9 |
8 |
9 8 |
|
Bajty na sektor |
512 |
512 |
512 |
512 |
512 |
512 |
512 |
512 |
Sektory na klaster |
2 |
1 |
2 |
1 |
2 |
2 |
1 i 1 |
|
Długość tablicy alokacji (w sektorach) |
9 |
9 |
3 |
7 |
2 |
1 |
2 |
|
Ilość tablic alokacji |
2 |
2 |
2 |
2 |
2 |
2 |
2 |
2 |
Długość katalogu głównego (sektory) |
15 |
14 |
7 |
14 |
7 |
7 |
4 |
4 |
Maksymalna ilość pozycji katalogu głównego |
240 |
224 |
112 |
224 |
112 |
112 |
64 |
64 |
Całkowita ilość sektorów na dysku |
5760 |
2880 |
1440 |
1400 |
720 |
640 |
360 |
320 |
Całkowita ilość dostępnych sektorów |
5726 |
2847 |
1426 |
2371 |
708 |
630 |
351 |
313 |
Całkowita ilość dostępnych klastrów |
2863 |
2847 |
713 |
2371 |
354 |
315 |
351 |
313 |
Napęd zapisuje 80 cylindrów składających się z 2 ścieżek, zapisywanych jest 18 sektorów na ścieżkę, co daje całkowitą pojemność po sformatowaniu 1,44 MB. Niektórzy producenci dyskietek oznaczają swoje wyroby jako 2,0 MB, ale różnica 0,56 MB to różnica pomiędzy podawaną pojemnością niesformatowanej dyskietki a użytecznym wynikiem ostatecznym. Trzeba pamiętać, że do całkowitej pojemności 1440 kB wchodzą obszary rezerwowane przez system plików FAT na zarządzanie plikami, a zatem na dane pozostaje 1423,5 kB.
Napęd obraca się z prędkością 300 obr/min i musi zachować tę prędkość do poprawnej pracy z istniejącymi kontrolerami dużej i małej gęstości. Aby uzyskać prędkość przepływu danych równą 500 kB/s (maksymalna wartość dla większości standardowych kontrolerów dyskietek wysokiej i niskiej gęstości), dyskietka musi obracać się z prędkością 300 obr/min. Jeżeli dyskietka obracałaby się z prędkością 360 obr/min, jak dyskietka 5,25 cala, ilość sektorów na ścieżce należałoby zmniejszyć do 15, w przeciwnym wypadku kontroler nie nadążałby z przesyłem danych. Napęd 1,44 MB 3,5 cala może zapisać 1,2 razy więcej danych niż napęd 5,25 cala i dyskietka 1,2 MB obraca się dokładnie 1,2 razy szybciej niż dyskietka 1,44 MB. Ponieważ napęd HD 3,5 cala pracuje z częstotliwością danych 500 kHz, kontroler obsługujący napędy 1,2 MB 5,25 cala może również obsługiwać napędy 1,44 MB.
Inne typy napędów dyskietek
W przeszłości były stosowane następujące inne typy napędów dyskietek:
Napęd 3,5 cala o pojemności 2,88 MB. Dyskietki o tej pojemności były używane na początku lat 80. ubiegłego stulecia w niektórych modelach komputerów IBM PS/2 i ThinkPad.
Napęd 3,5 cala o pojemności 720 kB. Dyskietki o tej pojemności były stosowane od 1986 r. przez firmę IBM i innych producentów, zanim pojawiły się 3,5-calowe dyskietki o pojemności 1,44 MB.
Napęd 5,25 cala o pojemności 1,2 MB. Tego typu napęd został zastosowany w 1984 r. przez firmę IBM w komputerze AT i był powszechnie używany przez resztę dekady.
Napęd 5,25 cala o pojemności 360 kB. Udoskonalona wersja napędu dyskietek oryginalnie zastosowanego w komputerze IBM PC. Tego typu napęd był używany w latach 80. ubiegłego wieku w systemach klasy XT i niektórych komputerach klasy AT.
Budowa dyskietki 3,5 cala
Dyskietki 3,5 cala różnią się od starszych dyskietek 5,25 cala pod względem konstrukcji i własności fizycznych. Dyski elastyczne są umieszczone w koszulce z tworzywa sztucznego. Dyskietki 3,5 cala umieszczone są w sztywniejszej koszulce niż dyskietki 5,25 cala. Same dyski umieszczone w środku koszulki są niemal takie same, poza oczywiście wielkością.
Ponieważ dyskietki 3,5 cala mają dużo sztywniejszą obudowę, która pomaga w stabilizacji nośnika magnetycznego, dyski takie mogą zapisywać ścieżki i dane na nich z większą gęstością niż jest to możliwe na dyskietkach 5,25 cala (patrz rysunek 11.7) Dodatkowo otwór głowicy jest chroniony metalową zasuwką. Napęd potrafi odsuwać tę zasuwkę, ale jeżeli dyskietka zostaje wyjęta z napędu, zasuwka pozostaje zamknięta. Nośnik jest całkowicie izolowany od środowiska i zabezpieczony przed dotykaniem. Zasuwka usuwa potrzebę stosowania kopert do dyskietek.
Rysunek 11.7.
Konstrukcja dyskietki 3,5 cala
Ponieważ zasuwka nie jest konieczna do pracy dyskietki, można ją usunąć, jeżeli zostanie wygięta lub uszkodzona. Aby usunąć zasuwkę, należy ją podważyć i sama powinna wyskoczyć z zaczepów. Trzeba wtedy również wyjąć sprężynę zamykającą. Dodatkowo, po usunięciu uszkodzonej zasuwki, trzeba skopiować dane z takiej dyskietki na nową.
Zamiast otworu indeksowego w dysku, dyskietki 3,5 cala posiadają metalową piastę z otworem ustalającym. Napęd chwyta metalową piastę, a otwór w niej pozwala na prawidłowe ustawienie nośnika.
W dolnym lewym rogu dysku znajduje się otwór z suwakiem — otwór zabezpieczenia przed zapisem. Gdy suwak zostanie ustawiony w taki sposób, że otwór jest widoczny, dysk jest zabezpieczony przed zapisem — napęd nie może zapisywać na tej dyskietce. Gdy suwak zakrywa otwór, zapis jest dozwolony i można zapisywać dane na dyskietce. Aby zabezpieczenie przed zapisem było jeszcze bardziej skuteczne, niektóre programy są dostarczane na dyskietkach nie zawierających suwaka, przez co nie można łatwo umożliwić zapisu na dysku. Zabezpieczenie to działa odwrotnie do stosowanego w dyskietkach 5,25 cala, w których zasłonięcie wycięcia oznacza zabezpieczenie przez zapisem a nie umożliwienie zapisu.
Po przeciwnej (prawej) stronie dyskietki znajduje się inny otwór, nazywany otworem wyboru gęstości nośnika. Jeżeli w dyskietce znajduje się ten otwór, nośnik jest nośnikiem specjalnym, czyli dyskietka jest typu HD lub ED. Jeżeli otwór wyboru gęstości nośnika znajduje się dokładnie naprzeciwko otworu zabezpieczenia przed zapisem, oznacza on dyskietkę 1,44 MB (HD). Jeżeli otwór wyboru gęstości nośnika jest nieco przesunięty w stronę góry dysku (w kierunku metalowej zasuwki), oznacza on dyskietkę ED. Brak otworu po prawej stronie oznacza dysk niskiej gęstości. Większość napędów 3,5 cala posiada czujnik typu nośnika sterujący gęstością zapisu w zależności od występowania lub braku tych otworów.
Nośnik dyskietek 3,5 cala i 5,25 cala jest wykonany z tych samych materiałów. Korzysta on z podstawy z tworzywa sztucznego (zwykle Mylar) powleczonej materiałem magnetycznym. Dyski wysokiej gęstości korzystają z materiału kobaltowo-ferrytowego, dyski o zwiększonej gęstości wykorzystują materiał barowo-ferrytowy. Dysk znajdujący się wewnątrz obudowy 3,5 cala jest tego samego typu, co w dyskietce 5,25 cala.
Specyfikacja typów nośników dyskietek
Omówimy teraz typy dyskietek, jakie były do tej pory oferowane użytkownikom komputerów PC. Szczególnie interesująca jest specyfikacja techniczna zamieszczona w tabeli 11.8. Omówimy również wszystkie parametry używane do opisania typowej dyskietki.
Tabela 11.8. Specyfikacja nośników dyskietek
|
5,25 cala |
3,5 cala |
||||
Parametry nośnika |
Podwójna gęstość (DD) |
Poczwórna gęstość (QD) |
Wysoka gęstość (HD) |
Podwójna gęstość (DD) |
Wysoka gęstość (HD) |
Ekstrawysoka gęstość (ED) |
Ścieżki na cal (TPI) |
48 |
96 |
96 |
135 |
135 |
135 |
Bity na cal (BPI) |
5876 |
5876 |
9646 |
8717 |
17434 |
34868 |
Składnik nośnika |
Ferryt |
Ferryt |
Kobalt |
Kobalt |
Kobalt |
Bar |
Koercyjność (w erstedach1) |
300 |
300 |
600 |
600 |
720 |
750 |
Grubość (w mikrometrach) |
2,5 |
2,5 |
1,25 |
1,75 |
1 |
2,5 |
Polaryzacja zapisu |
Pozioma |
Pozioma |
Pozioma |
Pozioma |
Pozioma |
Pionowa |
Gęstość
Najprostszą definicją gęstości jest ilość danych, jaką można niezawodnie upakować na określonej powierzchni nośnika magnetycznego. Najważniejszym słowem użytym w tym zdaniu jest niezawodnie.
Dyski mają dwa typy gęstości: wzdłużną i liniową. Gęstość wzdłużna wskazuje na ilość ścieżek, jakie można zapisać na dysku i najczęściej jest określana jako ilość ścieżek na cal (TPI). Gęstość liniowa określa ilość danych, jakie mogą być zapisane na poszczególnych ścieżkach (BPI). Niestety, ten typ gęstości jest inaczej określany przy omawianiu różnych typów dysków.
Grubość i koercyjność nośnika
Parametr koercyjności dysku określa siłę pola magnetycznego, jaka jest wymagana do wykonania prawidłowego zapisu. Koercyjność jest mierzona w erstedach —jednostkach pola magnetycznego. Dysk z wyższą koercyjnością wymaga do wykonania zapisu silniejszego pola magnetycznego. W przypadku niższej wartości dysk może być zapisywany za pomocą słabszych pól magnetycznych. Inaczej mówiąc, im niższa koercyjność, tym bardziej wrażliwy jest dysk (na pole magnetyczne).
Nośniki HD wymagają wyższych wartości koercyjności, więc sąsiednie domeny magnetyczne nie interferują ze sobą. Dlatego nośniki HD są mniej wrażliwe i wymagają silniejszego sygnału zapisującego.
Innym wskaźnikiem jest grubość dysku. Im drobniejsze są cząstki nośnika, tym mniejszy na siebie wpływ mają na sąsiednie regiony dysku. Oczywiście im drobniejsze są cząstki magnetyczne nośnika, tym więcej można zapisać bitów na jednostkę powierzchni bez ewentualnej degradacji zapisu.
Środki ostrożności przy obsłudze dyskietek i napędów dyskietek
Większość użytkowników komputerów zna podstawowe zasady pracy z dyskietkami. Z łatwością można uszkodzić lub zniszczyć dyskietkę, gdy mają miejsce następujące czynności:
dotykanie powierzchni nośnika.
pisanie na etykiecie dysku (naklejonej na dyskietce) za pomocą długopisu lub ołówka,
wyginanie dyskietki,
zalewanie kawą lub innymi płynami.
przegrzewanie dyskietki (pozostawienie na silnym słońcu lub obok grzejnika),
wystawienie na działanie pól magnetycznych.
Oprócz tego. dyskietki są dosyć odpornymi nośnikami; nie można powiedzieć, że pisanie po powierzchni dyskietki zawsze powoduje jej uszkodzenie, ponieważ robię to bardzo często. Jednak należy robić to ostrożnie i nie naciskać długopisu zbyt mocno. Również dotykanie powierzchni dysku niekoniecznie musi spowodować zniszczenie dyskietki, ale powoduje zabrudzenie tłuszczem i kurzem nośnika i głowic napędu. Największym wrogiem dyskietek są pola magnetyczne, ponieważ są one niewidoczne, a czasami pojawiają się w miejscach, gdzie trudno się ich spodziewać.
Na przykład, wszystkie monitory kolorowe (i telewizory) korzystające z kineskopów mają cewkę rozmagne-sowującą maskę podczas włączania. Jeżeli przechowujesz dyskietki przed monitorem (do 30 cm), wystawiasz je na silne pole magnetyczne. Przechowywanie tu dyskietek jest niewłaściwe, ponieważ pole to zostało zaprojektowane w celu demagnetyzacji obiektów i świetnie sprawdza się do demagnetyzacji dyskietek. Efekt jest nieodwracalny. Monitory LCD i plazmowe nie posiadają cewki demagnetyzująccj i są bezpieczne dla nośników magnetycznych.
Innym źródłem silnych pól magnetycznych są silniki elektryczne znajdujące się w odkurzaczach, grzejnikach, klimatyzatorach, wentylatorach, elektrycznych temperówkach do ołówków itd. Nie należy umieszczać tych urządzeń w miejscach, gdzie przechowywane są dyski. Głośniki również zawierają magnesy, ale większość głośników przeznaczonych do komputerów zawierają odpowiednie ekrany zmniejszające ich wpływ na dyskietki.
Dyskietki 3,5 cala należy przechowywać w temperaturze pomiędzy 4 a 53 stopniami Celsjusza, natomiast dyskietki 5,25 cala pomiędzy 4 a 60 stopniami Celsjusza. W obu przypadkach wilgotność nie powinna przekraczać 90%.
Lotniskowe urządzenia rentgenowskie i wykrywacze metalu
Jednym z mitów, jakie lubię obalać, jest twierdzenie, że lotniskowe urządzenia rentgenowskie powodują uszkodzenie dysków. Mam w tej materii duże doświadczenie, ponieważ w czasie ostatnich 20 lat sporo podróżuję i zawsze w bagażu mam dyski i komputer przenośny. Rocznie pokonuję samolotem około 250 000 kilometrów i mój laptop oraz dyskietki były prześwietlane promieniami rentgenowskimi setki razy.
Promienie rentgena są właściwie odmianą światła, a dyski i komputery nie są wrażliwe na promieniowanie o poziomie używanym w urządzeniach na lotniskach.
' Ersted —jednostka pola magnetycznego 0,795 775 * 102 A/m
Potencjalnie niebezpieczne dla dysków są wykrywacze metalu. Działają one na zasadzie wykrywania zmian w słabym polu magnetycznym. Metalowy obiekt umieszczony w takim polu powoduje zmianę kształtu takiego pola, co jest rejestrowane przez wykrywacz. Wykorzystywane pole może być niebezpieczne dla dysków. Dlatego najbezpieczniejszym dla komputera urządzeniem wykrywającym jest urządzenie rentgenowskie.
Urządzenia rentgenowskie nie są niebezpieczne dla nośników magnetycznych, ponieważ nośniki są prześwietlane promieniowaniem elektromagnetycznym o określonej (bardzo dużej) częstotliwości. Przykładem promieniowania elektromagnetycznego o innej częstotliwości jest światło niebieskie. Jedyną różnicą między promieniami rentgena i światłem niebieskim jest częstotliwość, czyli długość emitowanej fali.
Niektórzy użytkownicy martwią się o wpływ promieniowania rentgenowskiego na układy EPROM (pamięć kasowalna ROM) systemu. Obawa ta jest bardziej uzasadniona niż obawa o dyski, ponieważ pamięci te są kasowane przez określoną postać promieniowania elektromagnetycznego. W rzeczywistości nie ma się jednak czym przejmować. Pamięci EPROM są kasowane poprzez bezpośrednie naświetlanie bardzo intensywnym światłem ultrafioletowym. Dokładniej, aby skasować EPROM, należy oświetlać go przez 15-20 minut światłem UV o intensywności 12 000 uw/cm2 i długości fali 2537 angstremów z odległości około 2 cm. Zwiększenie intensywności światła lub zmniejszenie odległości od źródła pozwala skrócić ten czas do kilku minut.
Lotniskowe urządzenia rentgenowskie korzystają z promieniowania, którego długość fali różni się o współczynnik 10 000. Natężenie pola czas naświetlania i odległość od emitera nie zbliżają się nawet do wartości wymaganych do skasowania pamięci EPROM. Wielu producentów układów korzysta z promieniowania rentgenowskiego przy kontroli obwodów (z zainstalowanymi układami EPROM) w procesie kontroli jakości produkcji.
Jeżeli moje słowo Ci nie wystarcza, to wiedz, że opublikowano wyniki badań naukowych potwierdzających moje słowa. Dostępne są wyniki badań dwóch naukowców — w tym tego, który projektował lampy rentgenowskie dla jednego z większych producentów. Ich praca była zatytułowana: „Lotniskowe urządzenia rentgenowskie i dyskietki: brak powodów do obaw" a wyniki badań zostały opublikowane w magazynie „Computer Methods and Programs in Biomedicine". W streszczeniu tego artykułu napisano:
Wykonano kontrolowane badania testujące możliwe efekty promieniowania rentgenowskiego na dane zapisane na często używane rodzaje dyskietek. Dyski zostały wystawione na promieniowanie rentgenowskie na czas siedmiokrotnie dłuższy, niż przewidywany na sprawdzenie bagażu. Czytelność niemal 14 megabajtów danych nie zmieniła się po naświetleniu promieniowaniem rentgenowskim, co wskazuje na brak potrzeby specjalnego traktowania dyskietek podczas rentgenowskiej kontroli bagażu.
Dodatkowo, dyski zostały powtórnie sprawdzone po dwóch latach przechowywania danych i nadal nie stwierdzono mierzalnej degradacji od czasu naświetlenia.
Procedury instalacji napędów
W większości przypadków do zainstalowania napędu dyskietek wystarcza fizyczne przykręcenie go do szkieletu lub obudowy komputera i podłączenie zasilania oraz kabla sygnałowego. Do podłączenia napędu do obudowy wymagane są odpowiednie wsporniki i śruby. Są one najczęściej dostarczane razem z obudową lub napędem. Kilka firm specjalizuje się w produkcji obudów, wsporników, śrub i innych elementów przydatnych przy składaniu systemów lub instalowaniu napędów.
Ponieważ napędy dyskietek są instalowane zwykle w tych samych wnękach co napędy dysków twardych i sposób ich montażu jest identyczny, więcej informacji na ten temat znajduje się w roz-dziale 14., „Instalowanie i konfigurowanie napędów dysków", w podrozdziale „Procedura instalowania dysku twardego".
Rozdział 12.
Nośniki wymienne o dużej pojemności
Rola napędów nośników wymiennych
Od połowy lat 80. ubiegłego wieku podstawowym urządzeniem przechowującym dane był dysk twardy. Jednak jego przydatnym uzupełnieniem są urządzenia służące do archiwizowania danych, przenoszenia ich pomiędzy komputerami, a także spełniające funkcję tymczasowych lub dodatkowych nośników danych. Do urządzeń tych należy zaliczyć oferujące duże pojemności napędy nośników wymiennych, napędy dyskietek optycznych, napędy magnetooptyczne i oparte na pamięci Flash oraz napędy taśmowe. Nośniki czysto optyczne — takie jak CD-R. CD-RW, DVD-RAM, DVD+RW, DVD-RW i inne — są opisane w rozdziale 13.. ..Pamięci optyczne". Wymienione typy napędów mogą zarówno stanowić uzupełnienie dla dysku twardego, jak i odgrywać rolę podstawowego urządzenia przechowującego dane.
Na rynku dostępny jest szeroki wybór napędów takich nośników. Niektóre napędy nośników wymiennych są wielkości V* długości palca wskazującego, natomiast inne korzystają z większych nośników, aż do 5,25 cala. Najbardziej popularne dyski wymienne mają pojemności z zakresu od 16 MB do 100 GB i więcej. Napędy te oferują całkiem niezłą prędkość i umożliwiają zapisanie na dysku wymiennym lub taśmie od kilku plików danych czy rzadziej używanych programów, do całego obrazu dysku.
W następnych dwóch punktach zostaną omówione podstawowe zastosowania tych urządzeń.
Dodatkowa pamięć dyskowa
Wraz ze wzrostem objętości i ilości funkcji systemów operacyjnych i aplikacji, na programy i dane przez nie zapisywane potrzebne jest coraz więcej miejsca na dyskach.
Systemy operacyjne nie są jedynymi rozrastającymi się programami. Aplikacje, których wersje dla MS-DOS zajmowały kilka dyskietek, w tej chwili rozrosły się tak, że zajmują ponad 500 MB miejsca na dysku. Rewolucja multimedialna, napędzana rozwojem wydajnych i tanich aparatów cyfrowych, skanerów i kamer, pozwoliła na łatwe zapisywanie obrazów, które z łatwością zapełniają setki megabajtów miejsca na dysku, a dodatkowo powszechnie dostępne pliki MP3 pozwalają zapełnić kolejne gigabajty przestrzeni muzyką cyfrową.
Napędy nośników dużej pojemności zapewniają możliwość łatwego przenoszenia pomiędzy komputerami ogromnych plików danych — plików programów do projektowania (CAD) czy plików graficznych. Można również użyć nośników wymiennych do umieszczenia na nich ważnych danych i ukrycia ich w bezpiecznym, oddalonym od wścibskich oczu, miejscu. Niektóre typy nośników charakteryzują się dużą, zapewniającą możliwość archiwizowania trwałością, inne natomiast zaprojektowane sana potrzeby fotografii cyfrowej i działań w stylu: „dziś zrób zdjęcie, jutro je skasuj".
Tworzenie kopii zapasowych
Wszystkie warte przeczytania książki na temat komputerów zawierają przypomnienie o potrzebie regularnego kopiowania systemu. Kopie zapasowe są niezbędne, ponieważ w każdym momencie może zdarzyć się awaria, która zniszczy ważne informacje i programy zapisane na dysku twardym komputera. Uszkodzenie dysku może być spowodowane przez wiele czynników. Poniżej przedstawimy listę niektórych spośród nich:
Nagłe zmiany napięcia zasilającego komputer (szpilki), powodujące uszkodzenie lub zniszczenie danych.
Pomyłkowe nadpisanie pliku.
Przypadkowe sformatowanie dysku twardego zamiast dyskietki.
Uszkodzenie dysku twardego powodujące utratę danych. Nie tylko trzeba zainstalować nowy napęd, ale z powodu braku kopii zapasowej zainstalować wszystkie programy.
7Miszczenie całego komputera (zalanie, uderzenie pioruna, pożar, kradzież itp.). Jedno uderzenie pioruna niedaleko biura lub domu może zniszczyć układy elektroniczne komputera i dysku twardego. Problemem jest również kradzież komputera (coraz częściej dotyka użytkowników laptopów). Częste tworzenie kompletnej kopii zapasowej upraszcza proces konfiguracji wymienionego komputera.
Utrata ważnych danych z powodu działania wirusa. Jeden załadowany program lub dyskietka zawierająca wirusa może spowodować uszkodzenie ważnych plików lub nawet całego dysku twardego. Ponieważ każdego miesiąca pojawia się kilkaset nowych wirusów, żaden program antywirusowy nie zapewnia pełnej ochrony. Częste tworzenie kopii zapasowych krytycznych plików może pozwolić naprawić najgorsze uszkodzenia.
Kopie zapasowe pozwalają również na rozwiązywanie takich problemów jak potrzeba przeniesienia danych na inny komputer przy zapełnionym dysku twardym. Kopiując rzadko używane dane i usuwając je z dysku twardego, można odzyskać nieco potrzebnego miejsca. Jeżeli dane te są potrzebne później, można je odzyskać z kopii zapasowej. Można również wymieniać duże ilości danych między komputerami, na przykład przesyłając dane z jednego miasta do drugiego, tworząc kopię danych na taśmie lub innym nośniku i wysyłając ten nośnik.
Niezależnie od ważności regularnego tworzenia kopii zapasowych, wielu użytkowników unika tych czynności. Najważniejszym powodem jest to, że dla większości użytkowników jest to praca nudna, ponieważ korzystają z dyskietek lub innych nośników o małej pojemności. Korzystając z takich nośników, trzeba włożyć i wyjąć wiele dysków, aby wykonać kopie wszystkich ważnych danych i programów.
Napędy optyczne, nośniki magnetyczne o wysokiej pojemności i napędy taśm są odpowiednimi urządzeniami do tworzenia kopii. Napędy taśm są pod tym względem najlepsze, ponieważ są one jednymi z niewielu urządzeń do tworzenia kopii zapasowych, które są w stanie pomieścić w jednej kasecie zawartość wielu gigabajtów danych.
Porównanie technologii zapisu danych na dyskach, taśmach i w pamięci Flash
Najczęściej używanych jest kilka typów nośników wymiennych. Najczęściej są to różne odmiany nośników magnetycznych, ale niektóre korzystają z połączenia zapisu magnetycznego i optycznego: napędy floptical lub magnetooptyczne. Nośniki magnetyczne korzystają przy zapisie danych z podobnej technologii co dyskietki lub dyski twarde. Napędy floptical lub magnetooptyczne zapisują dane na dysku, korzystając z połączenia technologii magnetycznych i laserowych.
W tym rozdziale opiszemy również coraz bardziej popularne urządzenia pamięci Flash, które emulują napędy dysków. Niektóre z napędów taśm również są w stanie emulować napędy dyskowe i można ich używać, wykorzystując kolejną literę alfabetu (jak w przypadku dysków), ale są one przeznaczone do tworzenia ciągłej kopii zapasowej całego dużego nośnika lub macierzy dyskowej.
Dyski magnetyczne
Szukając odpowiedniego nośnika „czysto" magnetycznego, floptical lub magnetooptycznego, przekonasz się, że wszystkie typy dysków magnetycznych mają podobną charakterystykę. Nośniki dyskowe mają wyższą cenę za megabajt niż taśma i zwykle mają mniejszą pojemność, ale w porównaniu z taśmą, łatwiejszy jest dostęp do poszczególnych plików. Nośniki dyskowe pozwalają na swobodny dostęp do danych, co umożliwia wyszukiwanie, korzystanie, modyfikowanie i usuwanie dowolnego pliku lub grupy plików bez naruszania pozostałej zawartości dysku. Nośniki dyskowe są szybsze podczas kopiowania małej liczby plików, ale zwykle wolniejsze podczas kopiowania dużej ilości plików lub całych dysków.
Taśma magnetyczna
Taśma ma dużo niższą cenę za megabajt niż nośniki dyskowe, ma wyższą pojemność i daje się łatwo wykorzystywać do kopiowania obrazów dysków lub wielu plików jednocześnie. Napędy taśm oferują dostęp sekwencyjny do nośnika, co oznacza, że taśma musi być odczytywana od początku i poszczególne pliki muszą być odzyskiwane w kolejności, w jakiej znajdują się na taśmie. Poszczególne pliki nie mogą być na taśmie modyfikowane, ani usuwane z niej; zawartość całej kasety musi zostać skasowana i zapisana na nowo. Dlatego napędy taśm lepiej nadają się do tworzenia kopii całych dysków twardych zawierających wszystkie aplikacje i dane. Ponieważ są przeznaczone do masowych kopii zapasowych, trudno jest wykorzystać taśmy do kopiowania pojedynczych plików.
Napędy dysków wymiennych, podobnie jak taśmy, mogą być również wykorzystane jako systemo-we urządzenia do tworzenia kopii zapasowych. Jednak wyższa cena nośników (dysków lub kaset) i najczęściej niższa prędkość, z jaką wykonywane są kopie, powoduje, że takie zastosowanie jest rzadkie. W przypadku tworzenia kopii zapasowych poszczególnych plików, nośniki dyskowe są idealne; jeżeli jednak potrzebna jest kopia całego dysku lub systemu, taśmy są szybsze i tańsze.
Pamięci Flash
Najnowszy typ nośników wymiennych nie korzysta z efektu magnetycznego, ale z pamięci Flash — specjalnej pamięci nieulotnej, nie wymagającej prądu do przechowywania danych. Karty pamięci Flash mogą być łatwo przenoszone z aparatów cyfrowych do notebooków lub komputerów stacjonarnych, mogą być również podłączane bezpośrednio do drukarek umożliwiających wydruk bez pośrednictwa komputera — najczęściej w przypadku druku fotografii — lub urządzeń wyświetlających. Pamięci Flash można wykorzystywać do przechowywania dowolnych danych, ale podstawowym ich zastosowaniem jest fotografia cyfrowa. Jednak stale rośnie liczba cyfrowych odtwarzaczy muzyki i tak zwanych urządzeń thumb drive lub „ breloczkowych " (key-chain), wyposażonych w wymienne karty pamięci Flash i podłączanych bezpośrednio do portu USB. Tego typu urządzenia pozwalają spopularyzować pamięć Flash w roli nośnika danych powszechnie używanego i coraz częściej stosowanego zamiast innego typu przenośnego nośnika magnetycznego.
W chwili obecnej na rynku dostępnych jest wiele rodzajów urządzeń do zapisu danych. Przed decyzją zakupu wybranego rozwiązania trzeba zapoznać się również z konkurencją. Szczególnie trzeba zwracać uwagę na brak specyfikacji w materiałach i na opakowaniach — producenci często unikają ich umieszczania w przypadku, gdy napęd nie jest w stanie sprostać konkurencji.
Interfejsy dla napędów nośników wymiennych
Oprócz wyboru typu urządzenia należy wybrać również typ interfejsu przeznaczony do podłączenia urządzenia do komputera. Dostępnych jest kilka rozwiązań wykorzystywanych w wiodących napędach nośników wymiennych. Najczęściej stosowanym interfejsem (i jednym z najszybszych) dla urządzeń montowanych wewnątrz obudowy jest interfejs ATA wykorzystywany przez większość dysków twardych. Interfejs SCSI jest równie szybki, a nawet szybszy i może być wykorzystywany do podłączania urządzeń wewnętrznych i zewnętrznych, ale w większości przypadków wymaga zakupienia karty interfejsu. Większość najbardziej zaawansowanych napędów taśm korzysta z interfejsu SCSI.
Najczęściej stosowanym zewnętrznym interfejsem jest w chwili obecnej USB, który zastępuje sędziwy port równoległy przy podłączaniu nie tylko drukarek, ale również tanich dysków zewnętrznych i innych urządzeń wejścia-wyjścia. Porty USB są dostępne w niemal wszystkich nowych komputerach PC (zarówno stacjonarnych, jak i notebookach), można do nich podłączać urządzenia w trakcie pracy; są obsługiwane przez Windows 98 i nowsze, w tym Windows Me, Windows 2000 i Windows XP. W przypadku urządzeń o wymiennych nośnikach oferujących niewielką pojemność (poniżej 300 MB) przepustowość interfejsu USB 1.1 wynosząca 12 Mb/sjest odpowiednia, ale już pojemniejsze urządzenia tego typu w miarę możliwości powinny zostać podłączone do szybszego portu USB 2.0 (przepustowość równa 480 Mb/s) lub portu IEEE 1394a (FireWire/i.Link) o przepustowości 400 Mb/s. Większość urządzeń z pamięcią Flash musi zostać umieszczona w czytniku kart, który zazwyczaj jest podłączany do portu USB. W przypadku laptopów niektóre tego typu urządzenia mogą zostać podłączone do adaptera CardBus. Niektóre nowsze laptopy dysponują zintegrowanymi gniazdami obsługującymi określonego typu karty pamięci Flash (głównie karty SD i MMC).
Aktualnie wiele najnowszych czytników kart pamięci Flash i „breloczkowych" napędów USB obsługuje standard Hi-Speed USB (USB 2.0). Jeśli komputer jest wyposażony w porty Hi-Speed USB i nie jesteś zadowolony z szybkości oferowanej przez urządzenia zgodne ze standardem USB 1.1, możesz użyć napędów USB korzystających z interfejsu USB 2.0.
Starsze interfejsy, jak na przykład port równoległy oraz PC Card (dla notebooków) są nadal wykorzystywane w niektórych urządzeniach, ale mają one ograniczoną wydajność. Są one zalecane w systemach nie obsługujących USB (na przykład korzystających nadal z Windows 95 lub Windows NT). Niektóre zewnętrzne napędy nośników wymiennych pozwalają na wymianę interfejsów, dzięki czemu jeden dysk może współpracować z różnymi systemami.
Choć ostatnie wersje Windows 95 (Win95C lub OSR2.1 i następne) posiadają już sterowniki USB, wielu producentów urządzeń USB nie zapewnia ich obsługi w systemie Windows 95. Aby osiągnąć odpowiednią niezawodność, trzeba skorzystać z Windows 98, Windows Me, Windows 2000 lub Windows XP.
Porty Hi-Speed USB mogą zostać dodane do komputerów stacjonarnych dysponujących wolnym gniazdem PCI i do komputerów przenośnych posiadających dostępne gniazdo CardBus (32-bitowa wersja PC Card).
Jak przekonamy się niebawem, większość napędów nośników wymiennych jest dostępnych z dwoma lub więcej typami interfejsów, co daje możliwość rozwiązania spełniającego potrzeby użytkownika.
Podłączanie lub instalowanie napędów nośników wymiennych jest podobne do podłączania i instalowania innych wewnętrznych i zewnętrznych urządzeń. Napędy zewnętrzne podłączane do portu USB, IEEE 1394 lub równoległego są najprostszymi z możliwych do instalacji, ponieważ wymagają jedynie zastosowania specjalnego kabla dostarczanego z urządzeniem i zastosowania odpowiednich sterowników. Sposób instalacji opisany jest w instrukcji dostarczanej z każdym napędem.
W rozdziale 7., „Interfejs ATA/IDE", rozdziale 8., „Interfejs SCSI", i rozdziale 17., „Porty wejścia-wyjścia — od szeregowego i równoległego do IEEE 1394 i USB" szczegółowo opisany jest sposób pracy tych interfejsów.
Przegląd napędów
wymiennych nośników magnetycznych
Na dynamicznym rynku magnetycznych dysków wymiennych dominuje mała grupa firm. Iomega i Castle-wood to aktualnie najwięksi producenci wymiennych nośników magnetycznych. Do niedawna wśród liderów branży znajdowała się też założona przez korporację 3M firma Imation, ale zrezygnowała ona już z produkcji nośników i napędów SuperDisk.
Wymienne nośniki magnetyczne najczęściej wykorzystują konstrukcję dyskietki bądź dysku twardego. Na przykład popularny napęd Zip to 3,5-calowa wersja oryginalnego dysku Bernoulliego wyprodukowanego przez firmę Iomega. Nie produkowany już napęd SuperDisk LS-120 firmy Imation jest napędem wykorzystującym konstrukcję dyskietki; umożliwia on zapis 120 MB na dysku wyglądającym niemal identycznie jak dyskietka 1,44 MB! Napędy drugiej generacji LS-240 SuperDisk przechowują maksymalnie 240 MB danych i umożliwiają sformatowanie standardowych dyskietek 1,44 MB do pojemności wynoszącej 32 MB. Zarówno napęd LS-120, jak i LS-240 jest w stanie odczytywać i zapisywać dyskietki o standardowej pojemności 1,44 MB i 720 kB. Poprzednie napędy SyQuest SparCj, Iomega Jaz (ich produkcję zaniechano) i Castlcwood Orb oraz Peerless wykorzystywały konstrukcję dysku twardego. Najnowszy napęd nośników wymiennych firmy Iomega o nazwie Iomega REV korzysta z nowego, zamkniętego mechanizmu dysków twardych. Producent oferuje kasety własnego formatu o pojemności 35 GB, która po zastosowaniu kompresji wzrasta do 90 GB.
Do niedawna napędy Imation LS-120 SuperDisk i Iomega Zip były uważane za standardy przemysłowe elastycznych nośników danych o dużej pojemności. Jednak po podjęciu w 2003 r. przez firmę Imation decyzji o zaprzestaniu produkcji nośnika SuperDisk zarówno napęd LS-120, jak i napęd drugiej generacji LS-240 znalazły się na najlepszej drodze do tego, aby o nich zapomniano. Inaczej wygląda sytuacja napędów Iomega Zip. Co prawda nie są one już tak popularne, jak pod koniec lat 90. ubiegłego wieku, ale ich rozpowszechnienie w branży i duża dostępność nośników oraz napędów sprawiają, że w praktyce stanowią standard wśród magnetycznych nośników wymiennych o pojemności przekraczającej pojemność dyskietki. Można kupić różne modele do rozbudowy istniejących systemów; dostępne są również nośniki produkowane przez firmy, takie jak Iomega i FujiFilm.
Co prawda firma Imation nie zajmuje się już produkcją napędów i nośników SuperDisk, ale dla niektórych modeli laptopów firmy IBM i HP, a także dla komputerów stacjonarnych korzystających ^V z interfejsu ATA/IDE nadal są dostępne napędy LS-120 i LS-240 SuperDisk. Niektórzy producenci w dalszym ciągu mogą oferować wersję napędu LS-240 zgodną z interfejsem USB. Firma Maxell nadal wytwarza natomiast nośniki przeznaczone dla napędów LS-120 i LS-240.
Kolejne punkty zawierają informacje na temat wszystkich dostępnych typów nośników magnetycznych, w tym dysków magnetooptycznych i floptical.
Iomega Zip
W przeciwieństwie do napędów LS-120 i LS-240 SuperDisk w napędzie Iomega Zip nie mogą być wykorzystywane zwykłe dyskietki 3,5-calowe. Napęd ten jest potomkiem długiej linii napędów dysków wymiennych firmy Iomega rozpoczynającej się pierwszym dyskiem Bernoulliego, którego sprzedaż zainaugurowano na początku lat 80. zeszłego stulecia.
Popularny Zip jest obecnym wcieleniem napędu wykorzystującego technologię dysku Bernoulliego. Napędy dostępne są w wersjach oferujących pojemności 100, 250 i 750 MB oraz zgodnych z interfejsami ATA (napędy wewnętrzne), USB lub FireWire (napędy zewnętrzne). Firma sprzedaje też modele napędu wyposażone w interfejs SCSI lub podłączane do portu równoległego. Dodatkowo różni podrzędni producenci oferują energooszczędne wersje napędów przystosowane do adaptera PC Card lub wewnętrznej wnęki stosowanej w komputerach przenośnych.
Napędy Zip 100 są w stanie pomieścić do 100 MB danych na niewielkiej wymiennej kasecie z nośnikiem magnetycznym, przypominającej dyskietkę 3,5 cala. Nowsze napędy Zip 250 na identycznej wielkości kasecie przechowują maksymalnie 250 MB danych, a także odczytują i zapisują kasety napędu Zip 100. Najbardziej zaawansowane wersje kaset napędów Zip 250 mają obudowę w kształcie litery U i zawierają nośnik, w którym dla polepszenia trwałości zastosowano cząstki tytanu. Najnowsze napędy Zip przechowują z kolei 750 MB danych. Napęd jest dostępny w wersji wewnętrznej zgodnej z interfejsem ATAPI, przeznaczonej dla komputerów PC i Macintosh. W przypadku obu platform dostępne są też wersje zgodne z interfejsem USB 2.0 i FireWire (IEEE 1394a). Napęd potrafi odczytywać i zapisywać nośniki napędu Zip 250, ale już w przypadku nośnika napędu Zip 100 oferuje jedynie odczyt. W celu uzyskania jak najlepszej wydajności w przypadku napędów Zip 250 i Zip 750 należy stosować nośniki ich własnego formatu. Oba napędy odczytują i zapisują dane znacznie wolniej, gdy użyje się nośnika o mniejszej pojemności niż pojemność ich własnych nośników.
LS-120 i LS-240 SuperDisk
Pod koniec lat 90. firma Imation opracowała napęd LS-120 SuperDisk, mający konkurować z napędem Zip firmy Iomega. Wykorzystano w nim technologię floptyczną: do precyzyjnego pozycjonowania głowic odczytująco-zapisujących nad nośnikiem przypominającym dyskietkę zastosowano śledzenie optyczne. Co prawda poza własnym formatem o pojemności 120 MB napęd SuperDisk potrafi odczytywać i zapisywać standardowe dyskietki o pojemności 1,44 MB i 720 kB, ale pod względem popularności nie był w stanie pokonać napędu i nośnika Zip firmy Iomega, wprowadzonego na rynek wcześniej, w połowie lat 90.
Napęd drugiej generacji LS-240 SuperDisk obsługuje zarówno nośnik własnego formatu o pojemności 240 MB, jak i nośnik napędu LS-120. Potrafi zapisywać dane na standardowych dyskietkach o pojemności 1,44 MB i 720 kB, a także formatować dyskietki 1,44 MB tak, aby mogły pomieścić 32 MB danych. Jednak podobnie do swojego poprzednika nie odegrał na rynku większej roli.
Firma Imation nie sprzedaje już żadnych napędów i nośników SuperDisk. Firma Maxell kontynuuje natomiast sprzedaż nośników napędów LS-120 i LS-240 SuperDisk. Z kolei kilku dostawców w dalszym ciągu oferuje napędy LS-120 i LS-240 przystosowane do komputerów przenośnych o niestandardowych formatach i zgodne z interfejsami ATA/IDE oraz USB. W tego typu napędach zastosowano 1-calowy mechanizm opracowany przez firmę Matsushita (Panasonic). Ze względu na niewielką dostępność napędów i nośników SuperDisk w najlepszym razie należy uznać je za wychodzące z użycia. W związku z tym namawiam do zastosowania innego typu wymiennych nośników danych, które będą przydatne przez dłuższy czas.
Napędy dysków wymiennych o pojemności dysku twardego
Poniżej przedstawione napędy mają pojemności rozpoczynające się od 1 GB i są na tyle szybkie, aby traktować je jako wymienne dyski twarde.
Iomega Jaz. Oferuje pojemności wynoszące 1 i 2 GB.
Castlewood Orb. Oferuje pojemności wynoszące 2,2 i 5,7 GB.
Iomega Peerless. Oferuje pojemności wynoszące 10 i 20 GB.
Iomega REV. Oferuje pojemności wynoszące 35 (standardowo) i 90 (z kompresją) GB.
Już nieprodukowane napędy Jaz i Peerless oraz dostępne jeszcze napędy Orb i nowy REV mogą posłużyć do załadowania systemu. W ich kasecie można zainstalować cały system operacyjny i podstawowe aplikacje, co pozwala całkowicie dostosowywać środowisko systemowe do określonych potrzeb. Niestety, napędy te nie są w żaden sposób standaryzowane, więc napędy i nośniki pochodzące od różnych producentów nie są ze sobą zgodne. Zazwyczaj nie polecam korzystania z firmowych rozwiązań i zalecam używanie urządzeń zgodnych z obowiązującymi standardami.
Różne czynniki, takie jak wysokie ceny tradycyjnych napędów i kaset nośników wymiennych, pojawienie się bardzo szybkich zewnętrznych dysków twardych używających portu USB lub IEEE 1394a i niski koszt napędów DVD z możliwością wielokrotnego zapisu doprowadziły w ostatnich latach do spadku popularności tej kategorii urządzeń przechowujących dane.
W 2001 r. firma Iomega zaprzestała produkcji napędów nośników wymiennych Jaz, ale nadal oferuje przeznaczone dla nich kasety o pojemności 1 i 2 GB. Wytwarzanie napędów Peerless zostało przez firmę Iomega zakończone w 2002 r., a ponadto producent nie oferuje już dla nich kaset. Napędy Castlewood Orb nadal są sprzedawane przez firmę Castlewood, ale w większości sklepów detalicznych nie można już ich nabyć.
Najnowszy napęd wymiennych nośników o pojemności dysku twardego, czyli Iomega REV, pojawił się na rynku z początkiem 2004 r. W napędzie wykorzystywana jest specjalna kaseta (10 mm * 77 mm * 75 mm), zawierająca 2,5-calowy silnik i talerze dysku twardego. Wewnątrz napędu znajdują się głowice odczytująco-zapisujące i układy elektroniczne. W wyniku umieszczenia silnika w kasecie zamiast w napędzie, jak to miało miejsce w poprzednich napędach nośników wymiennych, kaseta może być chroniona przed zanieczyszczeniami. Uszczelnienie napędu i obieg powietrza wokół głowic odczytująco-zapisujących ma na celu dodatkowe zminimalizowanie ryzyka zanieczyszczenia głowicy lub nośnika. Podczas zapisywania danych stosowana jest funkcja ECC (korekcja błędów). Własny format napędu oferuje pojemność wynoszącą 35 GB, przy czym po zastosowaniu oprogramowania Iomega Automatic Backup Pro i kompresji możliwe jest uzyskanie pojemności kasety równej 90 GB. W praktyce kasety z kompresją mają średnią pojemność zawierającą się w przedziale od 35 do 90 GB. Zależy to od typu przenoszonych danych.
Wewnętrzna przepustowość napędu Iomega REV wynosi 25 MB/s, co oznacza, że jest on nieco wolniejszy od najnowszych dysków twardych ATA/IDE. Pod koniec 2004 r. napęd będzie dostępny w wersjach zgodnych z interfejsami Hi-Speed USB, ATA/IDE, SCSI, FireWire i Serial ATA. W pierwszych modelach zastosowano interfejsy Hi-Speed USB i ATA/IDE.
„Osierocone" napędy dysków wymiennych
Kilka z przedstawionych rozwiązań napędów dysków wymiennych zostało „osieroconych'", ponieważ ich producenci zbankrutowali. Do „osieroconych" napędów należy zaliczyć:
napędy SyQuest (wszystkie modele),
napędy Avatar Shark.
Ponieważ „osierocone" napędy mają bardzo małe pojemności, niewielką wydajność oraz w ograniczonym zakresie są obsługiwane przez nowe systemy operacyjne, zalecamy przeniesienie wszystkich danych ze starych nośników na nowe — wymienne bądź optyczne. Dalsze korzystanie z tych urządzeń może postawić Cię w niewygodnej sytuacji w przypadku wystąpienia awarii takiego napędu lub nośnika.
Napędy magnetooptyczne
Jedną z najbardziej lekceważonych technologii dysków wymiennych jest technologia dysków magnetooptycznych (MO). Dyski magnetooptyczne zostały wprowadzone na rynek w roku 1985, obecnie ich pojemność przekracza 9 GB.
Dyski magnetooptyczne dostępne są w rozmiarach 3,5 cala i 5,25 cala. Napędy 3,5-calowe mają pojemności do 2.3 GB, natomiast 5,25-calowe przekraczają 9.1 GB. Dostępne są również 12-calowe napędy MO, stosowane w komputerach przeznaczonych dla przedsiębiorstw. Na początku dyski magnetooptyczne były typowymi napędami WORM (jednokrotny zapis, wielokrotny odczyt), na których można było dopisywać dane, ale nie można było ich kasować. Napędy WORM nadal są dostępne, ale dla użytkowników komputerów PC zalecane są napędy MO do wielokrotnego odczytu i zapisu.
Technologia magnetooptyczna
W normalnych temperaturach powierzchnia magnetyczna dysku MO jest bardzo stabilna i może utrzymywać zapis ponad 30 lat.
Jedna z powierzchni dysku MO jest skierowana w stronę lasera o zmiennej mocy, natomiast przy drugiej powierzchni znajduje się magnes. Zarówno promień lasera jak i magnes są używane do zmiany danych na dysku. Na rysunku 12.1 pokazano sposób zapisu i odczytu magnetooptycznego.
Optyczną część napędu MO stanowi laser, który w czasie procesu kasowania jest ustawiany na dużą moc w celu podgrzania obszaru dysku MO do temperatury około 200 stopni Celsjusza (punkt Curie, w którym powierzchnia magnetyczna traci własności magnetyczne). Pozwala to na usunięcie zapisanych danych przez zwykłe pole magnetyczne, które nie wpływa na pozostałe części dysku mające normalną temperaturę.
Rysunek 12.1.
Napędy
magnetooptyczne korzystają z lasera o dużej mocy do podgrzania powierzchni magnetycznej, co umożliwia zmianę jej orientacji magnetycznej w cyklu zapisu (po lewej); do odczytu korzystają z lasera niskiej mocy w celu ustalenia kąta polaryzacji (efekt Kerra) (po prawej)
Następnie, w celu zapisu danych, stosowane jest równocześnie pole magnetyczne i promień lasera dużej mocy; kontrolowany sygnał magnetyczny powoduje że stan nośnika zmieniany jest na logiczne 0 lub 1.
Podczas odczytu wykorzystywana jest niska moc lasera w celu wysłania neutralnie spolaryzowanego światła do powierzchni dysku. Obszary dysku MO przechowujące binarne 0 odbijają światło inaczej spolaryzowane niż. te, które przechowują binarną 1. Ta różnica wartości jednego stopnia nazywana jest efektem Kerra.
W starszych napędach MO kasowanie i zapis były dwiema osobnymi operacjami, ale najnowsze napędy MO, zaczynając od Plasmon DW260 z roku 1997, korzystają z metody LIMDOW (ang. light intensity modulated direct overwrite — bezpośrednie nadpisywanie za pomocą modulowanej intensywności światła) pozwalającej na jednoprzebiegowy zapis na niektórych typach nośników. Napędy LIMDOW, zamiast zewnętrznych magnesów stosowanych w starszych napędach MO, korzystają z magnesów wbudowanych w sam dysk. Nowe napędy są wystarczająco szybkie, aby móc zapisać strumień wideo MPEG-2 i ułatwiają osiąganie wyższych pojemności.
Napędy MO są oferowane przez wielu producentów i mają bardzo różne ceny.
Większość wewnętrznych napędów MO jest podłączanych za pomocą interfejsu SCSI. Modele z interfejsami ATAPI/IDE są sprzedawane przez niektórych dostawców, ale trudno je znaleźć. Zewnętrzne napędy MO dostępne są w wersjach zgodnych z interfejsami SCSI, USB 2.0 i IEEE 1394a.
Porównanie MO do „czystych" nośników magnetycznych
W porównaniu z większością napędów dysków wymiennych o dużej pojemności, napędy MO są dużo droższe (szczególnie obsługujące nośniki 5,25 cala), natomiast ceny nośników za megabajt są dużo niższe. Ich wydajność jest równie dobra lub wyższa jak napędów magnetycznych nośników wymiennych o pojemności 200 MB lub mniejszej. Wykorzystanie interfejsu SCSI w większości modeli było wadą w czasie, gdy najpopularniejszym systemem operacyjnym był MS-DOS i Windows 3.1, ale Windows 9x, Me, NT, 2000 i XP mają znacznie bardziej uproszczoną procedurę instalacji SCSI. Ceny interfejsów SCSI również są dużo niższe niż poprzednio (i są dołączane do niektórych modeli wewnętrznych). Dostępne w niektórych modelach zewnętrznych napędówinterfejsy IEEE 1394a i Hi-Speed (USB 2.0) są najłatwiejsze w instalacji. Jeżeli możesz pozwolić sobie na kupienie drogiego napędu MO 5,25 cala, będziesz mógł korzystać z jego szybkości, trwałości i użyteczności, nie tylko jako urządzenia do archiwizacji, ale również przydatnego w bieżącej pracy.
Kluczowe kryteria wyboru napędu wymiennych nośników
Kupując napęd dysków wymiennych, należy wziąć pod uwagę następujące parametry:
Cena za megabajt nośnika. Podziel cenę dysku lub kasety przez pojemność i sprawdź, ile będzie kosztował megabajt danych. Różnica w cenie staje się dosyć istotna w przypadku, gdy będziesz kupował dużą ilość nośników do napędu (dokonując wyboru nie zapominaj również o cenie samego napędu). Jeśli napęd wymiennych nośników ma posłużyć jedynie do tymczasowego przechowania danych, tak jak w przypadku urządzeń z pamięcią Flash, koszt megabajta danych będzie mniej istotnym czynnikiem niż wówczas, gdy dane planuje się pozostawić na kasecie lub dysku przez dłuższy czas.
Czas dostępu a potrzeba dostępu. Czas dostępu i prędkość przesyłu jest istotna tylko w przypadku potrzeby częstego i szybkiego dostępu do danych. Jeżeli podstawowym przeznaczeniem będzie archiwizowanie danych, powolniejszy napęd nie będzie przeszkodą. Jeżeli jednak będziesz chciał uruchamiać programy z takiego napędu, przydatne będzie szybsze rozwiązanie.
Zgodność i przenośność. Jeżeli będziesz chciał przenosić napęd pomiędzy różnymi komputerami, wybierz napęd zewnętrzny z interfejsem SCSI. IEEE 1394a, USB lub portem równoległym. Zastosowanie portu Hi-Speed USB jest najtańsze i najbardziej przyjazne, ponieważ port ten występuje w niemal wszystkich współczesnych systemach i pozwala na przyłączanie urządzeń bez wyłączania komputera. Poza tym port ten może zostać użyty w przypadku komputerów wyposażonych w gniazda USB 1.1 (aczkolwiek oferowane będą znacznie mniejsze przepustowości i czasy dostępu). Sprawdź, czy dostępny jest sterownik dla wszystkich rodzajów komputerów i systemów operacyjnych, jakie będą korzystać z napędu. Pomyśl także, czy będą one musiały wymieniać dyski z danymi. Napęd Iomega Zip stal się standardem dla nośników wymiennych. Jeśli jednak nie chcesz ponosić kosztu związanego z zakupem oddzielnego napędu dla każdego komputera, w tym samym celu mogą zostać użyte „breloczkowe" napędy USB wyposażone w pamięć Flash. W tym przypadku nie jest wymagany napęd dla każdego komputera. Dla niektórych użytkowników może być to najważniejszy powód wyboru napędu.
Pojemność nośnika. W celu zapewnienia maksymalnego bezpieczeństwa i łatwości użycia, pojemność urządzenia powinna być możliwie duża. Na przykład, użytkownicy aparatów cyfrowych będą chcieli zakupić możliwie najbardziej pojemną kartę pamięci Flash lub dysk obsługiwany przez ich aparat, dzięki czemu można będzie zapamiętać więcej zdjęć lub zapisywać zdjęcia w wyższej jakości. Użytkownicy komputerów stacjonarnych i notebooków będą domagali się możliwe dużych dysków pozwalających na wykonanie kopii danych i programów.
Dla wielu użytkowników napęd DVD z możliwością wielokrotnego zapisu będzie najlepszym rozwiązaniem z dwóch powodów: niska cena nośników CD-RW (nawet poniżej 2 zł) i DVD-RW (poniżej 10 zł) oraz niemal całkowita uniwersalność (prawie wszystkie systemy sprzedawane od połowy lat dziewięćdziesiątych mogą odczytywać nośniki CD-RW w zwykłych napędach CD-ROM). Wiele komputerów z napędami DVD-ROM jest w stanie odczytywać dyski DVD-RW. Aby na stałe zapisać dane, należy użyć dysków formatu CD-R lub DVD-R.
Obecnie „breloczkowe" napędy USB oferują pojemność przekraczającą 1 GB, która przydaje się, gdy na niewielkiej przestrzeni wymagana jest duża gęstość zapisu.
Napęd wewnętrzny lub zewnętrzny. Wielu użytkowników uważa zewnętrzne napędy z interfejsem USB za najłatwiejsze do instalacji; dodatkowo pozwala to wykorzystać napęd w kilku systemach. Wewnętrzne napędy są zwykle szybsze z powodu użycia interfejsów ATA, Serial ATA lub SCSI oraz łatwiej integrują się z całym systemem.
Możliwość uruchamiania systemu. Od 1995 r. większość komputerów posiada BIOS obsługujący standard El Torito firmy Phoenix, umożliwiający załadowanie systemu przy użyciu napędów CD lub DVD bądź urządzeń, które je emulują, takich jak Iomega REV. Wersja ATAPI/IDE napędów Imation LS-120 lub LS-240 SuperDisk również może zostać użyta do załadowania systemu w niemal wszystkich nowych komputerach, jednak te napędy są już przestarzałe i trudno je znaleźć. Jako napęd ładujący system w niektórych komputerach może zostać użyte urządzenie ATA Zip, które jednak jest rozwiązaniem niestandardowym i niezgodnym z dyskietkami 3,5 cala.
Urządzenia z kartami pamięci Flash
Pamięć Flash jest stosowana od kilku lat jako główna bądź dodatkowa pamięć dla notebooków. Jednak rozwój takich urządzeń jak aparaty cyfrowe i odtwarzacze MP3, a także obecność portów USB praktycznie w każdym nowym komputerze spowodowały jej przesunięcie z niszowych zastosowań na pozycję niezbędnych akcesoriów.
Jak działa pamięć Flash?
Pamięć Flash to rodzaj pamięci nieulotnej, która jest podzielona na bloki, a nie bajty, jak w przypadku zwykłych modułów RAM. Pamięć ta, używana również w najnowszych komputerach do przechowywania oprogramowania BIOS, jest zapisywana dzięki procesowi zwanemu tunelowaniem Fowlera-Nordheima. Proces ten powoduje usunięcie ładunku z bramki skojarzonej z każdą komórką pamięci. Pamięci Flash muszą być kasowane przed zapisaniem nowych danych.
Prędkość, niskie wymagania prądowe w czasie programowania i niewielki rozmiar najnowszych rozwiązań pamięci Flash powoduje, że pamięci te stały się doskonałymi elementami urządzeń przenośnych, takich jak notebooki i aparaty cyfrowe, powoduje, że są czasami nazywane „cyfrową kliszą filmową". W przeciwieństwie do prawdziwej kliszy, klisza cyfrowa może być kasowana i używana ponownie. Wyjątkowo małe „breloczkowe" napędy USB używające pamięci Flash są stosowane do przenoszenia danych pomiędzy komputerami zamiast tradycyjnych stacji dyskietek i napędów Zip/SuperDisk.
Typy pamięci Flash
W codziennym użyciu jest obecnie kilka typów urządzeń pamięci Flash i ważne jest, aby wiedzieć, z którego korzysta nasz aparat cyfrowy. Głównymi typami są:
ATA Flash,
CompactFlash (CF),
SmartMedia (SM),
MultiMediaCard (MMC),
Reduced Size MMC (RS-MMC),
SecureDigital (SD),
Memory Stick,
xD-Picture Card,
„breloczkowe" urządzenia USB.
Niektóre z wymienionych urządzeń dostępne są w różnych rozmiarach (Type I/Type II). W tabeli 12.1 przedstawiono różne typy urządzeń przechowujących dane, stosowanych w aparatach cyfrowych i nie tylko (posortowano je według wielkości).
CompactFlash
CompactFlash został zaprojektowany przez firmę SanDisk Corporation w roku 1994. Wykorzystuje on architekturę ATA do emulacji napędu dyskowego — karta CompactFlash podłączona do komputera ma swoją literę dysku, identycznie jak pozostałe napędy.
Oryginalną wielkością jest Typ I (3,3 mm grubości), natomiast nowsze karty Typ II (5 mm grubości) zawierają układy o większej pojemności. Oba typy kart CompactFlash mają 3,6 cm szerokości i 4,3 cm długości. Istnieją adaptery pozwalające podłączać te karty do notebooków za pośrednictwem adaptera PC Card. Nad rozwojem tych kart czuwa organizacja CompactFlash Association (http://www.compactflash.org).
Tabela 12.1. Różne urządzenia oparte na pamięci Flash i ich rozmiary
Typ |
Długość (mm) |
Szerokość (mm) |
Wysokość (mm) |
Objętość (cm3) |
Data wprowadzenia do sprzedaży |
ATA Flash Type 11 |
54,00 |
85,60 |
5.00 |
23,11 |
listopad 1992 r. |
ATA Flash Type I |
54,00 |
85,60 |
3.30 |
15.25 j listopad 1992 r. |
|
CompactFlash (CF) Type 11 |
42,80 |
36,40 |
5,00 |
7,79 |
marzec 1998 r. |
CompactFlash (CF) Type 1 |
42,80 |
36,40 |
3,30 |
5,14 |
październik 1995 r. |
Memory Stick |
21,45 |
50.00 |
2,80 |
3,00 |
lipiec 1998 r. |
Secure Digital (SD) |
24,00 |
32,00 |
2,10 |
1,61 |
sierpień 1999 r. |
SmartMedia (SM) |
37.00 |
45,00 |
0,76 |
1,27 |
kwiecień 1996 r. |
MultiMediaCard (MMC) |
24,00 |
32,00 |
1,40 |
1,08 |
listopad 1997 r. |
x-D Picture Card (xD) |
20,00 |
25,00 |
1,70 |
0,85 |
lipiec 2002 r. |
Reduced Size MMC (RS-MMC) 24,00 18,00 |
1,40 |
0.60 listopad 2002 r. |
Uwaga: napędy USB z pamięcią Flash me zostały wymienione, ponieważ nie posiadają standardowego
SmartMedia
Karty SmartMedia (nazywane na początku SSFDC) to najprostszy rodzaj kart pamięci Flash. Karty SmartMedia zawierająjedynie układ pamięci bez żadnych dodatkowych układów sterujących. Prostota ta sprawia, że zgodność z różnymi generacjami kart SmartMedia musi być zapewniona przez urządzenie z niej korzystające. Nad rozwojem kart SmartMedia czuwa forum Solid State Floppy Disk Forum (http://www.ssfdc.or.jp/english). Jeśli korzystasz z aparatu cyfrowego firmy Olympus, w którym stosowane są karty SmartMedia i oferowana jest funkcja panoramiczna, powinieneś pamiętać o nabyciu kart od producenta aparatu, ponieważ karty innych firm nie obsługują tej funkcji.
MultiMediaCard
Karty MultiMediaCard (MMC) stworzone zostały przez firmę SanDisk i Infineon Technologies AG (wcześniej Siemens AG) i wprowadzone na rynek w listopadzie 1997 r. z myślą o zastosowaniu ich w aparatach cyfrowych, inteligentnych telefonach, odtwarzaczach MP3 i cyfrowych kamerach. Karty MMC posiadają prosty 7-pinowy interfejs szeregowy do podłączania urządzeń i korzystają z niskonapięciowej pamięci Flash. W roku 1998 została powołana organizacja MultiMediaCard Association (http://www.mmca.org) mająca na celu promowanie standardu MMC i pomoc w projektowaniu nowych rozwiązań. W listopadzie 2002 r. organizacja MMCA poinformowała o stworzeniu karty RS-MMC (Reduced Size MultiMedia Card), mniejszej od standardowej karty MMC o około 40%. Kartę RS-MMC można przystosować do urządzeń MMC. Pierwsze karty pamięci tego formatu pojawiły się na początku 2004 r. w niewielkich inteligentnych telefonach.
SecureDigital
Urządzenie pamięciowe SecureDigital (SD) ma mniej więcej rozmiar karty MMC (w wielu urządzeniach mogą być używane oba typy kart), ale jest produktem bardziej zaawansowanym. Karta SD, stworzona w 1999 r. wspólnie przez firmy Toshiba, Matsushita Electric (Panasonic) i SanDisk, swoją nazwę wzięła od dwóch specjalnych funkcji. Pierwsząjest szyfrowanie przechowywanych danych, zwiększające ich bezpieczeństwo i spełniające obecne oraz przyszłe standardy dotyczące urządzeń przenośnych ustanawiane przez organizację SDMI (Secure Digital Musie lniliative). Drugąjest mechaniczny przełącznik zabezpieczający przed zapisem. Gniazdo kart SD może posłużyć do dodania pamięci do cyfrowych asystentów osobistych firmy Palm. W styczniu 2002 r. zatwierdzono standard SDIO, umożliwiający zastosowanie gniazd kart SD w niewielkich aparatach cyfrowych oraz różnego typu cyfrowych asystentach osobistych i nie tylko. W 2000 r. powołano organizację SD Card Association (http://www.sdcard.org), której celem jest promowanie standardu kart SD i rozwijanie nowych produktów. Warto zauważyć, że niektóre nowe laptopy mają wbudowane gniazda kart SD.
Sony Memory Stick i Memory Stick Pro
Firma Sony jest silnie zaangażowana zarówno w produkcję notebooków, jak i różnych rodzajów kamer i aparatów cyfrowych. Zaprojektowała ona własną wersję pamięci Flash, nazywaną Sony Memory Stick. Urządzenie to posiada unikatowy przełącznik zabezpieczający przed kasowaniem, co chroni przed przypadkowym skasowaniem zdjęć. Sony udzieliło licencji na technologię Memory Stick innym firmom, na przykład Lexar Media.
W 2003 r. firma Lexar zaprezentowała ulepszoną kartę Memory Stick Pro, oferującą pojemności z zakresu od 256 MB do 1 GB. Karta korzysta z technologii szyfrowania MagicGate, umożliwiającej zarządzanie prawami do dokumentów cyfrowych (ang. DRM — Digital Rights Management). Dodatkowo karta zawiera bardzo szybki kontroler pamięci opracowany przez firmę Lexar. Karta Memory Stick Pro czasami jest nazywana MagicGate Memory Stick.
ATA Flash PC Card
Choć karty o rozmiarze PC Card (PCMCIA) wykorzystywane są do różnych celów, od adapterów gier, modemów, interfejsów SCSI do kart sieciowych, na początku były stosowane do podłączania pamięci, na co wskazuje dawniej używany akronim (PCMCIA — międzynarodowe stowarzyszenie producentów pamięci dla komputerów osobistych).
W przeciwieństwie do zwykłych modułów RAM, pamięci PC Card są „widziane" jako napędy dysków. Karty PC Card mają trzy grubości (typ I — 3,3 mm, typ II — 5 mm i typ III — 10,5 mm), ale wszystkie mają długość 8,25 cm długości i 5,32 cm szerokości. Karty typu I i typu II są wykorzystywane do montażu pamięci Flash i najnowszych dysków twardych zgodnych z ATA. Karty typu III są używane do starszych dysków ATA; karty typu III mogą również być włożone do dwóch slotów typu II położonych obok siebie.
xD-Picture Card
W lipcu 2002 r. firmy Olympus i Fujifilm, będące głównymi zwolennikami standardu stosowanych w aparatach cyfrowych kart pamięci Flash o nazwie SmartMedia, poinformowały o wprowadzeniu na rynek znacznie mniejszych i trwalszych od nich kart xD-Picture Card. Karta xD-Picture jest około 3 razy mniejsza od karty SmartMedia (co oznacza, że jak na razie jest to najmniejszy format kart pamięci Flash), a ponadto zawiera szybszy kontroler pozwalający na zapisanie obrazu w krótszym czasie. Aktualnie dostępne są karty xD-Picture oferujące pojemności z zakresu od 16 MB do 1 GB.
Karty o pojemnościach 16 i 32 MB (powszechnie dołączane do aparatów) zapisują dane z szybkością 1,3 MB/s, natomiast karty o pojemności 64 MB i większej — z szybkością 3 MB/s. W przypadku wszystkich wersji kart szybkość odczytu wynosi 5 MB/s. Karty są wytwarzane przez firmę Toshiba na zlecenie firm Olympus i Fujifilm. Ze względu na to, że karty xD-Picture są optymalizowane pod kątem aparatów określonych firm (na przykład karta przeznaczona dla wybranych modeli aparatów firmy Olympus z serii xD-Picture obsługuje tryb panoramiczny), powinno się je nabywać u producenta używanego aparatu cyfrowego.
„Breloczkowe" napędy USB
Urządzenia z pamięcią Flash, stanowiące alternatywę dla stacji dyskietek i napędów nośników wymiennych Zip/SuperDisk, szybko stają się preferowaną metodą przenoszenia danych pomiędzy komputerami. Pierwszy udany tego typu napęd ThumbDrive firmy Trek został wprowadzony do sprzedaży w 2000 r. Znalazł wielu naśladowców, w tym takich, którzy w celu podkreślenia przenośności tych urządzeń wyposażali je w breloczek do kluczy lub zaczep do kieszeni.
W przeciwieństwie do innego typu urządzeń z pamięcią Flash „breloczkowe" napędy USB nie wymagają oddzielnego czytnika kart. Mogą zostać podłączone do dowolnego portu lub koncentratora USB. Co prawda w przypadku systemów Windows 98/98SE zwykle jest wymagany sterownik, ale nowsze wersje systemu, a zwłaszcza Windows XP, potrafią natychmiast rozpoznać większość „breloczkowych" napędów USB. Podobnie jak w przypadku innego typu urządzeń z pamięcią Flash po podłączeniu do komputera „breloczkowym" napędom USB przypisywana jest litera dysku. Większość tych urządzeń oferuje pojemności z przedziału od
32 do 256 MB, a niektóre nawet 2 GB. Typowa szybkość odczytu-zapisu napędów zgodnych z interfejsem USB 1.1 wynosi około 1 MB/s. „Breloczkowe" napędy Hi-Speed USB są znacznie szybsze, oferując szybkości odczytu z. zakresu od 5 do 15 MB/s oraz zapisu z przedziału od 5 do 13 MB/s. Ponieważ „breloczkowe" napędy Hi-Speed USB różnią się pod względem wydajności, przed zakupem takiego urządzenia należy sprawdzić, jakie oferuje szybkości odczytu i zapisu.
Jeśli do koncentratora USB lub portu USB komputera podłączono czytnik kart, przed podłączeniem „breloczkowego" napędu USB może być konieczne odłączenie czytnika. Wynika to z możliwych konfliktów występujących pomiędzy sterownikami używanymi przez niektóre urządzenia. W celu wyłączenia czytnika kart przed podłączeniem „breloczkowego" napędu USB należy skorzystać z ikony Bezpieczne usuwanie sprzętu, znajdującej się na systemowym pasku zadań. Po rozpoznaniu przez system napędu powinno się ponownie uaktywnić czytnik kart.
W celu dodatkowego zabezpieczenia danych niektóre „breloczkowe" napędy USB są wyposażone w mechaniczny przełącznik blokady zapisu. Opcjonalnie stosuje się również szyfrowanie danych chronione hasłem. Niektóre napędy mogą zostać użyte do załadowania systemu (warunkiem jest odpowiednia obsługa ze strony BIOS). W celu dodatkowego zwiększenia pojemności urządzenie Kangura MicroDrive+ pozwala na zastosowanie kart pamięci Flash typu SD lub MMC.
Na rysunku 12.2 pokazano elementy typowego „breloczkowego" napędu USB. którym jest urządzenie NextDisk USB, produkowane przez firmę Jungsoft.
Rysunek 12.2.
Napęd NextDisk USB firmy Jungsoft przechowuje 128 MB danych, które — w celu zapobieżenia przypadkowemu ich usunięciu — mogą być chronione za pomocą przełącznika blokującego zapis
Jeśli w aparacie cyfrowym lub innym urządzeniu używana jest karta pamięci Flash typu MMC, SD lub Memory Stick, można użyć jej do przenoszenia danych z urządzenia Lexar Media JumpDrive Trio. Zasadniczo jest to „breloczkowy" napęd USB 1.1/Hi-Speed USB bez wbudowanej karty pamięci Flash, umożliwiający jej podłączenie. Napęd może też spełniać funkcję czytnika kart. Podobne możliwości oferuje napęd Bonzai firmy SimpleTech, obsługujący tylko pamięci Flash typu SD i MMC. Urządzenie dostępne jest w wersji z wbudowaną kartą pamięci SD i bez niej.
Kryteria wyboru urządzeń pamięci Flash
Tak jak w przypadku innych urządzeń służących do przechowywania danych, należy porównać własności produktów i wybrać ten, który najbardziej pasuje do Twoich potrzeb. Należy zwrócić uwagę na następujące cechy:
Rodzaje pamięci Flash obsługiwanych przez aparat lub inne urządzenie. Choć istnieją adaptery umożliwiające korzystanie z różnych typów pamięci Flash, najlepsze wyniki osiąga się, stosując typ pamięci, do jakiego zostało zaprojektowane urządzenie.
Pojemności obsługiwane przez urządzenie. Dostępne są pamięci Flash o coraz większej pojemności, ale nie wszystkie urządzenia są w stanie obsłużyć pamięci powyżej pewnej granicy. Dokładnych informacji należy szukać na witrynie WWW producenta urządzenia lub producenta pamięci Flash.
Niektóre rozwiązania pamięci są lepsze niż inne. Na przykład firma Lexar wytwarza pamięci CompactFlash+, dostępne w czterech szybszych seriach kart (x4, xl 2, xl6 i x24), a także jeszcze wydajniejsze karty z serii Write Acceleration Technology, stosowane w profesjonalnych aparatach cyfrowych SLR i modelach z interfejsem USB. Karty te można podłączać do portu USB w celu szybkiego przesyłu danych tylko za pomocą kabla USB bez potrzeby stosowania drogich czytników kart.
Tylko karty ATA DataFlash mogą być podłączane bezpośrednio do slotu PC Card notebooka. Wszystkie inne urządzenia wymagają do przesyłu danych własnego gniazda lub adaptera. Na rysunku 12.3 zestawiono ze sobą pod względem wielkości najpopularniejsze typy pamięci Flash (dla porównania na rysunku umieszczono też amerykańską monetę jednocentową).
Rysunek 12.3.
Karty pamięci Flash: SmartMedia, CompactFlash, MultiMediaCard, SecureDigital, xD-Picture Card i Sony Memory Stick. Wersje kart o największej pojemności porównano z amerykańską jednocentówką (prawy dolny narożnik)
W tabeli 12.2 dokonano przeglądu najważniejszych typów kart pamięci Flash i podano ich aktualne pojemności. Warto zauważyć, że karty o mniejszej pojemności mogą być dołączone do niektórych aparatów cyfrowych.
Tabela 12.2. Możliwości kart pamięci Flash
Karta |
Maksymalna dostępna pojemność |
Uwagi |
CompactFlash+ |
4 GB |
Największa pojemność, najbardziej elastyczny format, obsługiwana przez najlepsze aparaty cyfrowe. Firmy Lexar Media i SanDisk wytwarzają też szybsze wersje kart CF+. Firma Lexar Media produkuje ponadto kartę zgodną z interfejsem USB |
Secure Digital (SD) |
1 GB |
Drugi po karcie CompactFlash+ najlepszy format. Karty SD nie są obsługiwane przez gniazda MMC |
MultiMediaCard (MMC) |
128 MB |
Format przestarzały. Karty MMC są obsługiwane przez większość gniazd SD |
Memory Stick |
128 MB |
Zastrzeżony format opracowany przez firmę Sony i licencjonowany przez firmę Lexar Media |
Memory Stick Pro |
1 GB |
Rozszerzona wersja karty Memory Stick, oferująca dużą szybkość i funkcję zarządzania prawamido dokumentów cyfrowych. Karty te nazywa się też kartami Memory Stick Magie Gate |
ATA Flash |
2 GB |
Instalowana bezpośrednio w gnieździe PC Card (PCMCIA) bez konieczności stosowania adaptera |
xD-Picture Card |
512 MB |
W przypadku tych kart w celu uzyskania jak najlepszych rezultatów należy nabywać je u producenta używanego aparatu cyfrowego |
SmartMedia |
128 MB |
Wychodzi z użycia. Bardzo cienka |
„breloczkowy" napęd USB |
2 GB |
Niektóre oferują zabezpieczenie danych hasłem i blokadę zapisu |
Zwykle namawiam do użycia urządzeń (aparaty cyfrowe, cyfrowe asystenty osobiste itp.) korzystających z kart pamięci Flash typu CompactFlash (CF), Secure Digital (SD) lub xD-Picture Card. Ze względu na ograniczoną pojemność, wydajność, zastrzeżone rozwiązania i wyższe koszty innego typu kart zazwyczaj nie polecam.
W przypadku urządzeń profesjonalnych i przeznaczonych do powszechnego użytku najczęściej stosuje się karty CompactFlash, które przy stosunkowo niewielkich rozmiarach i najniższej cenie oferują największą pojemność. Przy użyciu prostego i wyjątkowo taniego pasywnego adaptera karty CF podłączane są do gniazd PC Card wszystkich laptopów. A zatem, jeśli tego typu karta nie jest wykorzystywana w aparacie cyfrowym, może w laptopie spełniać funkcję niewielkiego dysku twardego. Przez długi czas nie będę w ogóle brał pod uwagę aparatu lub innego urządzenia, w którym nie są używane karty CF. Co prawda moja opinia w tym względzie trochę się zmieniła, ale w dalszym ciągu karta CF jest najlepszym formatem oferującym pojemności przekraczające 8 GB i jest poza tym znacznie szybsza od innych.
Karta Secure Digital staje się coraz popularniejsza, jest dość szybka i oferuje maksymalną pojemność równą I GB. Gniazda SD obsługują również karty MultiMediaCard (MMC), które przede wszystkim są cieńszą wersją kart SD. Warto zauważyć, że odwrotna sytuacja nie jest możliwa, ponieważ gniazda MMC nie współpracują z kartami SD. Karta MMC jest też dostępna w wersji o pojemności 128 MB. Z kolei karta x-D Picture oferuje bardzo zwarty format o coraz większej popularności i pojemności wynoszącej maksymalnie 1 GB.
Zwykle nie wezmę pod uwagę żadnego urządzenia korzystającego z kart innych formatów, a zwłaszcza formatu Memory Stick. zastrzeżonego przez firmę Sony (czy firma ta nie wyciągnęła żadnego wniosku z batalii formatów Betamax i VHS'?). Format RS-MMC jest zbyt nowy, aby go uwzględniać i jako taki stosowany jest w niewielkiej liczbie urządzeń o bardzo ograniczonej pojemności. Format ATA Flash jest znakomity, ale karty są duże. przeważnie przestarzałe i z łatwością mogą zostać zastąpione przez kartę CompactFlash, zainstalowaną w adapterze PC Card. Swego czasu format SmartMedia ograniczony pod względem pojemności do 128 MB byl popularny, ale obecnie nie wygląda to już tak dobrze. Poza tym producenci aparatów cyfrowych, którzy wcześniej z tego formatu korzystali, dziś zaczynają stosować bardziej pojemne karty xD-Picture.
Przenoszenie danych z pamięci Flash do komputera
Można kupić kilka rodzajów urządzeń służących do przenoszenia danych z pamięci Flash zapisanych w aparacie cyfrowym do komputera. Choć niektóre aparaty mają port RS-232 służący do transferu danych, to jest to bardzo wolna metoda, nawet w przypadku tanich aparatów o rozdzielczości poniżej jednego megapiksela.
Czytniki kart
Firmy produkujące karty Flash sprzedają również czytniki pozwalające na przesłanie danych z aparatu cyfrowego lub innego urządzenia do komputera PC. Czytniki te najczęściej są włączane do portu USB (niektóre starsze modele mogą korzystać z portu równoległego), co zapewnia dużą szybkość przesyłu danych.
Oprócz zapewniania dużej szybkości przesyłu czytniki kart umożliwiają powtórne użycie drogiej cyfrowej kliszy po skopiowaniu zdjęć z aparatu i oszczędzanie jego baterii, ponieważ przy przenoszeniu danych nie musi on być już włączony. Zewnętrzne czytniki kart mogą współpracować z dowolnym komputerem wyposażonym w odpowiedniego typu port i zgodny system operacyjny. Przykładowo czytniki USB są zgodne z systemem Windows 98 lub jego nowszymi wersjami. Niektóre czytniki nie obsługują funkcji zapisywania (na przykład usuwającej obrazy po przeniesieniu ich z nośnika do komputera), namawiam zatem do użycia urządzeń oferujących możliwość odczytu i zapisu.
Ponieważ wielu użytkowników komputerów i urządzeń elektronicznych może posiadać urządzenia korzystające z dwóch lub większej liczby typów pamięci Flash, obecnie wielu producentów oferuje uniwersalne czytniki obsługujące wiele formatów kart. Przykładem jest firma SanDisk, która wytwarza pokazany na rysunku 12.4 czytnik 8-in-l Card Reader/Writer.
Adaptery PC Card Type II
W podróży wygodniejsze może być umieszczanie kart pamięci Flash w slocie PC Card Type II. Pamięć umieszcza się w adapterze, a następnie wsuwa adapter do slotu PC Card notebooka. Na rysunku 12.5 pokazany jest adapter PC Card Type II dla kart pamięci CompactFlash. Podobnie jak czytniki kart, adaptery są sprzedawane przez producentów kart pamięci.
Rysunek 12.4.
Czytnik 8-in-l Card Reader/Writer firmy SanDisk, podłączany do portu Hi-Speed USB
Rysunek 12.5.
Typowy adapter PC Card Type II dla kart CompactFlash (po lewej) porównany z kartą ATA DataFlash (po prawej)
Adaptery dyskietek
W przypadku, gdy w komputerze zamontowana jest standardowa stacja dyskietek podłączona do standardowego kontrolera, do odczytu zawartości kart pamięci Flash można zastosować trzecie rozwiązanie — firma SmartDisk (http://www.smartdisk.com) wyprodukowała serię adapterów kart pamięci FlashPath, które są umieszczane w napędzie dyskietek 3,5 cala. Dostępne są modele dla kart SmartMedia, Sony Memory Stick i CompactFlash. Jak widać na rysunku 12.6, karta pamięci Flash jest wsuwana do adaptera FlashPath. Następnie cały adapter FlashPath należy umieścić w napędzie dyskietek 3,5 cala.
Warto zauważyć, że adapter nie współpracuje z napędami LS-120/LS-240 SuperDisk, spotykanymi w niektórych komputerach, a jedynie ze stacjami dyskietek 1,44 MB.
Rysunek 12.6.
Moduł CompactFlash wsuwany do adaptera FlashPath: zestaw ten należy następnie umieścić w stacji dyskietek 3,5 cala. Zdjęcie zamieszczone za zgodą firmy SanDisk
Technologia Microdrive
Do przechowywania zdjęć w aparacie cyfrowym można zaprząc również technologię magnetyczną. Urządzeniem ją wykorzystującym jest Hitachi Microdrive, oryginalnie zaprojektowane przez IBM i obecnie produkowane oraz sprzedawane przez firmę Hitachi Global Storage Technologies. Na podstawie licencji OEM sprzedażą urządzenia zajmują się też inne firmy.
Gdy urządzenie Microdrive po raz pierwszy zostało zaprezentowane przez firmę IBM, oferowało pojemność 170 MB. Aktualne modele posiadają pojemności równe 512 MB, 1 GB, 2 GB i 4 GB. Model o pojemności 4 GB używa nowej 5-warstwowej wersji nośnika Pixie Dust AFC, oryginalnie opracowanego przez IBM. Urządzenie Microdrive może być zastosowane w kilku modelach aparatów cyfrowych, wielu komputerach przenośnych i innych urządzeniach. Microdrive to prawdziwy dysk twardy o prędkości obrotowej równej 3600 obr./min i buforze o pojemności 128 kB. Ten mający szerokość 2,5 cm dysk pracuje w złączu CompactFlash+ Type II. co umożliwia bezpośrednią zamianę zwykłej pamięci CompactFlash lub urządzenia z nią zgodnego. Dyski Microdrive są też dostępne jako część zestawu podróżnego Travel Kit, zawierającego również adapter PC Card. Sam dysk jest zgodny z większością zwykłych czytników kart CompactFlash. Więcej informacji na temat produktu i jego zgodności z urządzeniami można znaleźć na witrynie http://www.hitachigst.com. Na rysunku 12.7 pokazano mechanizm dysku Microdrive porównany z amerykańską monetą 25-centową.
Zależnie od wersji systemu Windows i typu wybranego napędu nośników wymiennych po zainstalowaniu w komputerze nowego napędu lub urządzenia z pamięcią Flash zmianie może ulec aktualna kolejność przypisanych liter dysków.
Napędy taśm
Tworzenie kopii zapasowych oraz archiwizacja danych w komputerze osobistym nie mogą być trudne. Użytkownicy posiadający wiele zainstalowanych aplikacji oraz ci, którzy generują olbrzymie ilości danych, prawdopodobnie powinni wykonywać kopie zapasowe w cyklu tygodniowym lub nawet codziennym.
Rysunek 12.7.
Moneta 25-centowa jest tylko nieco mniejsza niż napęd Hitachi (wcześniej IBM) Microdrive (po prawej). Zdjęcie zamieszczone za zgodąjirmy International Business Machines Corporation. Nieautoryzowane użycie niedozwolone
Dodatkowo, współczesne komputery osobiste wymagają zastosowania dysków o dużej pojemności. Czasami wydaje się, że wymagania co do pojemności pamięci dyskowej w komputerach PC nie mogą być nigdy spełnione. W niemal wszystkich komputerach PC wykorzystywanych w biznesie, nauce lub nawet do zabawy, zainstalowane programy szybko zapełniają nawet największy dysk twardy. Aby wygospodarować miejsce na podstawowym urządzeniu do przechowywania danych, dane rzadko używane można zarchiwizować na innym nośniku. Zależnie od metody archiwizowania danych na dodatkowym nośniku może być możliwe odczytanie ich bezpośrednio z urządzenia, ale może być też konieczne przywrócenie ich na dysk przed uzyskaniem do nich dostępu. Jeśli dane do napędu zostaną skopiowane mzlo&Ą przeciągnij i upuść, możliwe będzie bezpośrednie ich odczytanie z nośnika. Jeśli jednak do wykonania kopii zapasowej danych zostanie zastosowany program archiwizujący, w celu ponownego ich użycia konieczne będzie uruchomienie tej samej aplikacji, która umożliwi uzyskanie dostępu do danych i przywrócenie ich na dysk.
Historycznie, najbardziej popularną metodą tworzenia kopii zapasowych całych dysków lub zmodyfikowanych plików jest korzystanie z napędu taśm. W tym podrozdziale omówimy dostępne dziś napędy taśm i pomożemy wybrać właściwe rozwiązania dla różnych typów użytkowników.
Napędy taśm to najprostsze i najbardziej efektywne urządzenia do tworzenia pełnych kopii zapasowych dysku twardego, o ile zastosowana taśma jest wystarczająco długa. Jeżeli w komputerze jest zamontowany napęd taśm, wystarczy włożyć taśmę do napędu, uruchomić program do tworzenia kopii zapasowych i wybrać napęd i pliki, które mają być zarchiwizowane. Program będzie tworzył kopie wybranych plików, a użytkownik może w tym czasie zajmować się innymi czynnościami. Gdy zajdzie potrzeba odczytania niektórych bądź wszystkich plików z taśmy, należy umieścić właściwą taśmę w napędzie, uruchomić program archiwizujący i wybrać pliki do odtworzenia. Resztą zajmie się napęd taśm.
Omówimy teraz różne typy napędów taśm dostępne na rynku, opiszemy ich pojemności oraz wymagania, jakie muszą być spełnione do instalacji i użytkowania napędu. Poniżej opisane zostaną następujące zagadnienia:
alternatywne do napędów taśm urządzenia korzystające z dysku twardego,
wady i zalety napędów taśm,
najczęściej stosowane standardy napędów taśm,
pojemności popularnych taśm,
nowsze napędy taśm o większej pojemności,
interfejsy stosowane w popularnych napędach.
przenośne napędy taśm,
oprogramowanie do napędów taśm.
Alternatywne do napędów taśm urządzenia korzystające z dysku twardego
Zanim zdecydujesz się na zastosowanie napędu taśm do wykonywania kopii, pomyśl również o poniżej zaprezentowanych rozwiązaniach.
♦ Zewnętrzne dyski twarde. Maxtor, Western Digital, SimpleTech i inne firmy stworzyły zewnętrzne dyski twarde o pojemnościach zawierających się w zakresie od 20 do 400 GB. Tego typu dyski podłączane są do portów USB 1.1/2.0 lub IEEE 1394a i mogą zostać użyte do przechowywania kopii zapasowej danych wykonanej za pomocą programu archiwizującego lub plików skopiowanych metodą przeciągnij i upuść. Wiele zewnętrznych napędów zawiera oprogramowanie archiwizujące i kilka dodatkowych funkcji. Przykładowo napędy z rodziny One Touch i Personal Storage 5000 firmy Maxtor oferują specjalną funkcję OneTouch, automatycznie rozpoczynającą proces kopiowania plików
i uruchomiającą program archiwizujący Dantz Retrospect Express. Zewnętrzne napędy z serii Media Center firmy Western Digital oferują zgodność z interfejsami Hi-Speed USB i IEEE 1394a, pojemności rzędu 250 GB, a także 2-portowy koncentrator Hi-Speed USB i czytnik kart pamięci Flash 8-in-l.
♦ Napędy nośników wymiennych oparte na technologii wytwarzania dysków twardych. Standardowa pojemność kasety napędu Iomega REV, wynosząca 35 GB, i dostępna po zastosowaniu kompresji pojemność 90 GB sprawiają, że urządzenie stanowi obiecującą alternatywę dla napędów taśmowych.
► ► W celu uzyskania dodatkowych informacji na temat napędu Iomega REV zajrzyj do punktu „Iomega Zip",
znajdującego się na stronie 779.
♦ Macierze RAID. Po utworzeniu z identycznych dysków twardych macierzy RAID poziomu 1. (mirroring) lub poziomu 5. (przeplatanie danych z parzystością) dane będą automatycznie archiwizowane bezpośrednio po ich utworzeniu. Ze względu na wysoki koszt macierze RAID były kiedyś stosowane wyłącznie w przypadku napędów SCSI. Jednak ostatnie dokonania zwiększające wydajność, niska cena oraz obecność na płytach głównych kontrolerów ATA lub Serial ATA (wbudowanych lub mających postać kart PCI) obsługujących macierz RAID 1 sprawiły, że rozwiązanie to może być kolejną godną rozważenia metodą archiwizowania danych. Macierze RAID 5 zwykle wymagają zastosowania niezależnego kontrolera.
► ► W celu uzyskania dodatkowych informacji na temat macierzy RAID zajrzyj do podrozdziału „ATA RAID",
znajdującego się na stronie 651.
Wady napędów taśm
Wielu użytkowników stosujących napędy taśm do tworzenia kopii zapasowych zrezygnowało z nich i rozpoczęło stosowanie innych technologii z następujących powodów:
Tworzenie kopii zapasowych plików lub dysku na taśmie w niemal wszystkich przypadkach wymaga zastosowania specjalnego programu archiwizującego. Jedynie niewiele napędów pozwala na dostęp do nich poprzez literę dysku, a i ta funkcja jest mało uniwersalna.
Odczytywanie danych z większości napędów taśm wymaga zapisania plików na dysk twardy. Pozostałe typy urządzeń do archiwizacji pozwalają na bezpośredni dostęp do nośnika poprzez literę dysku.
Napędy taśm zapisują i odczytują dane sekwencyjnie. Ostatni zapisany plik nie może być odczytany, dopóki nie zostaną odczytane wszystkie poprzednie pliki. Pozostałe typy urządzeń do archiwizacji danych oferują swobodny dostęp do plików, co pozwala na wyszukanie dowolnego zapisanego pliku w krótkim czasie.
Tanie napędy taśm korzystające z technologii QIC (ang. Quarter Inch Committee). QIC-Wide lub Travan miały problemy z nadążeniem za zwiększającą się pojemnością dysków twardych
i miały cenę porównywalną lub nieco niższą niż dyski twarde, które miały być przez nie chronione. Dzisiejsze dyski twarde mają pojemności 20 - 400 GB i ceny o wiele niższe niż większość taśm o porównywalnych pojemnościach. W efekcie w celu pomieszczenia kopii zapasowej na jednej kasecie konieczne jest stosowanie droższych i bardziej pojemnych napędów taśmowych.
♦ Nowe techniki tworzenia kopii zapasowych i odzyskiwania plików, takie jak tworzenie obrazów dysków, konkurują z wykorzystaniem taśm łatwością użycia i umożliwieniem łatwego odzyskiwania danych przechowywanych na dyskach optycznych, takich jak CD-RW lub DYD+RW/-RW. Wymienione alternatywne rozwiązania są szczególnie przydatne, gdy konieczne jest regularne zarchiwizowanie tylko kilku gigabajtów danych.
Z tych powodów, niegdyś niezagrożona pozycja napędów taśm jako niezbędnych urządzeń do wykonywania kopii bezpieczeństwa nie jest już tak mocna — na rynku dostępnych jest wiele konkurencyjnych urządzeń. Jednak jeżeli możesz pozwolić sobie na zakupienie wysokiej jakości napędu taśm DDS lub AIT, rozwiązanie takie będzie miało zarówno dużą wydajność, jak również dużą niezawodność, ponieważ te same urządzenia są używane do tworzenia kopii w dużych sieciach.
Zalety napędów taśm
Choć napędy taśm już od pewnego czasu przestały być rozwiązaniem zapewniającym zapisanie zawartości wszystkich typów dysków „większych od dyskietki", to nadal stanowią nośnik pozwalający bezpiecznie przechowywać dane. Poniżej przedstawiamy kilka powodów, dla których stosowanie napędów taśm ma sens.
W przypadku zastosowania napadów i taśm o wysokiej pojemności, zapewniany jest proces tworzenia kopii na jednym nośniku zarówno dla indywidualnych komputerów PC, jak i serwerów sieciowych. Każdorazowo po pojawieniu się konieczności użycia wielu taśm lub dysków do wykonania kopii zapasowej wzrasta ryzyko wystąpienia awarii.
Jeżeli firma poprzednio wykonywała kopie zapasowe na taśmach, trzeba posiadać co najmniej jeden napad taśm na wypadek konieczności odzyskania danych. Napędy taśm są niezbędne do odzyskania wykonanych wcześniej kopii danych.
Napędy taśm dobrze nadają się do łatwego zrealizowania metody wykonywania kopii bezpieczeństwa z rotacją nośników.
Napędy taśm są stosowane wszędzie tam, gdzie ważna jest wysoka pojemność i niezawodność. Koszt tych napędów może być na początku wysoki, ale jest on rekompensowany przez niezmiernie niską cenę nośnika.
Najczęściej stosowane standardy napędów taśm
Istnieją różne standardy przemysłowe napędów taśm, jak również kilka rozwiązań firmowych. Poniżej przedstawiamy listę wybranych dostępnych formatów:
QIC, QIC-Wide i Travan. Napędy Travan zaprojektowano na bazie tanich podstawowych napędów taśmowych z rodziny QIC i QIC-Wide. Napędy Travan oferują pojemność do 40 GB z kompresją 2:1.
DAT (Digital Audio TapeJ. Jest to technologia nowsza niż QIC i jej odnogi. Wykorzystuje ona technologię Digital Data Storage (DDS), pozwalającą na zapisanie do 40 GB danych z kompresją 2:1 (DDS-4) i maksymalnie 72 GB w przypadku nowych napędów DDS piątej generacji. Napędy DAT są często nazywane z tego powodu napędami DDS.
AIT (Advanced Intelligent Tape). Standard ten staje się następcą napędów DAT (DDS), ponieważ osiągają większe pojemności.
Napędy Exabyte (wcześniej Ecrix) VXA-l i VXA-2. Napęd VXA-I oferuje zapis do 66 GB danych
z kompresją 2:1 oraz kilka wariantów interfejsów dużej przepustowości SCSI i IEEE 1394. Format VXA-1 został zaaprobowany przez ECMA, ważną międzynarodową organizację ustanawiającą standardy dla systemów informatycznych i telekomunikacyjnych. Ulepszone napędy VXA-2 oferują pojemność rzędu 160 GB (przy kompresji 2:1).
Istnieją również inne standardy napędów taśm, takie jak DLT (ang. Digital Linear Tape) i 8 mm. ale są przede wszystkim używane w dużych serwerach plików i ich opisywanie wykracza poza ramy tej książki.
QIC i jego odmiany (QIC-Wide i Travan)
Pierwszy napęd taśm 0.25-calowych został wprowadzony w roku 1972 przez firmę 3M. Wykorzystywał on kasety o rozmiarze 15 cm x 10 cm x 1,56 cm. To pionierskie rozwiązanie ustanowiło standard tak zwanych kaset ..DC", które zostały wykorzystane w pierwszym napędzie taśm standardu QIC — 60 MB QIC-02 wprowadzonego na rynek w latach 1983 - 1984. Przez kilka lat sprzedawane były napędy zgodne z QIC-02 i podobnie jak wiele wczesnych rozwiązań napędów taśm korzystały one z dedykowanej karty host adaptera. Niewielka pojemność napędu QIC-02 zaczęła sprawiać problemy w połowie lat osiemdziesiątych i na potrzeby większych dysków stworzono wiele odmian standardu QIC.
Przez wiele kolejnych lat konsorcjum QIC (http://www.qic.org) wprowadziło ponad 120 standardów, zarówno starego standardu DC, jak i minikaset (MC). Duża ilość standardów doprowadziła do dużej fragmentacji rynku i narastających problemów z zapewnieniem zgodności z istniejącymi rozwiązaniami, co mial właśnie zapewniać standard QIC. Opracowana przez firmę Sony technologia QIC-Wide nie jest oficjalnym standardem konsorcjum QIC. ale korzystające z niej napędy są w stanie odczytywać i zapisywać dane na niektórego typu minikasetach Q1C.
Opiszemy teraz obecne oraz stosowane niedawno wersje korzystających z minikaset napędów Travan, będących najnowszymi produktami opartymi na technologiach QIC i QIC-Wide.
Kaseta Travan
Następca napędów Q'C-MC oraz QlC-Wide został zaprojektowany w roku 1994 przez firmę 3M (teraz Imation). Napędy Travan zapewniają zgodność z różnymi standardami QIC oraz zapewniają możliwość skopiowania do 20 GB nieskompresowanych danych lub 40 GB z kompresją 2:1.
Platforma Travan posiada unikalny interfejs napędu i minikasety, opatentowany przez firmę Imation. Napędy Travan są wielkości urządzenia 3,5 cala, co umożliwia łatwą instalację w różnych systemach i obudowach. Napędy Travan akceptują minikasety QIC, QIC-Wide oraz Travan —jest to niezbędna cecha dla użytkowników ponad 200 milionów minikaset zgodnych ze standardem QIC. W tabeli 12.3 wymienione są standardowe kasety Travan oraz ich pojemności. Wszystkie kasety Travan korzystają z taśmy o szerokości 8 mm.
Tabela 12.3. Kasety rodziny Travan i ich pojemności
Kaseta Travan (poprzednia nazwa) |
Pojemność (kompresja 2:1) |
Zgodność odczytu i zapisu z kasetami |
Zgodność odczytu z kasetami |
Travan-1 (TR-1) |
400 MB (800 MB) |
QIC-80, QW5122 |
QIC-40 |
Travan-3 (TR-3) |
1.6 GB (3,2 GB) |
TR-2, QIC-3020, QIC-3010, QW-3020XLW, QW-30I0XLW |
QlC-80, QW5122, TR-1 |
Travan 8 GB (Travan 4 / TR-4) |
4 GB (8 GB) |
Travan 8, OJC-3080, QIC-Wide (3080) |
QIC-80, QIC-3010, QIC-Wide (3010). OJC-3020, QIC-Wide (3020), TR-1. TR-3 |
TravanNS-8' |
4 GB (8 GB) |
TR-4, QIC-3080 |
QIC-Wide (3080) |
Travan NS-20 (Travan TR-5) |
10 GB (20 GB) |
|
Travan 8 GB, OIC-3095 |
Travan 40 GB (Travan TR-7) |
20 GB (40 GB) |
|
Travan NS-20 |
'Kaseta ta może być użyta zamiast Travan 8 GB (TR-4); ta sama kaseta może być użyta w napędach NS8 lub TR-4. |
Zgodność z poprzednimi napędami może zależeć od modelu; przed zakupem należy skonsultować się z producentem w celu zapoznania się z zagadnieniami kompatybilności.
Większość dostępnych dziś napędów Travan korzysta z technologii Network Series (NS) opisanej w dalszej części rozdziału.
Travan NS
Napędy korzystające z technologii Travan NS zostały zaprojektowane w celu rozwiązania dwóch problemów trapiących od wielu lat użytkowników napędów taśm: kompresji danych i weryfikacji danych.
W przypadku OIC-40 i następnych, QIC-Wide oraz standardowych napędów Travan, kompresja danych była przeprowadzana przez oprogramowanie do tworzenia kopii zapasowych. Powodowało to następujące problemy:
Napędy miały trudności z odczytem danych, jeżeli do tworzenia kopii zapasowych i odzyskiwania danych zostały użyte różne programy.
Wydajność komputera ma duży wpływ na szybkość tworzenia kopii; typowe programy (na przykład Diito Too/s firmy Iomega) oferują trzy ustawienia — brak kompresji, kompresja szybka i kompresja dokładna — co wymaga od użytkownika wybrania pomiędzy maksymalną pojemnością a maksymalną szybkością.
W tych samych napędach oprogramowanie do tworzenia kopii zapasowych zapewnia wykonywanie weryfikacji danych, w którym dane zapisywane na taśmie porównywane są z danymi na dysku. Niestety, wymaga to przewinięcia taśmy na początek i odczytania jej, porównując dane z danymi odczytanymi w tym samym czasie z dysku. Wynik? Proces tworzenia kopii zapasowej trwający 45 minut będzie trwał 90 minut wraz z weryfikacją. Nieefektywność tej metody powoduje, że wielu użytkowników rezygnuje z wykonywania bezpieczniejszej procedury. Zmiana stanu komputera z systemem Windows 9x (na przykład uaktywnienie wygaszacza ekranu lub zmiana wielkości pliku wymiany) w czasie przejścia z fazy zapisu do fazy weryfikacji powoduje wystąpienie fałszywego ostrzeżenia o błędzie w tworzonej kopii.
Napędy zgodne z Travan NS, w tym urządzenie Travan 40, wykorzystują podwójne głowice pokazane na rysunku 12.8, które umożliwiają weryfikację danych zaraz po ich zapisie (odczyt w czasie zapisu). Posiadają one również sprzętową kompresję danych, do umożliwia osiągnięcie większej pojemności (do 40 GB z kompresją 2:1). Dzięki tym udogodnieniom otrzymujemy szybszy i bardziej niezawodny proces tworzenia kopii zapasowych. Kasety Travan NS20 i Travan 40 pozwalają również na wykorzystanie różnych składników nośnika, dzięki czemu osiągana jest większa gęstość zapisu niż w starszych napędach Travan.
Rysunek 12.8.
Napędy taśm Travan NS i Travan 40 korzystają z oddzielnych głowic odczytujących i zapisujących umożliwiających weryfikację danych zaraz po ich zapisaniu, co pozwala uniknąć czasochłonnego przewijania taśmy niezbędnego w napędach QIC, QlC-Wide i starszych Travan
Obecnie napędy korzystające z kaset Travan NS20 i Travan 40 są głównie sprzedawane przez firmę Certance (wcześniej Seagate Removable Storage Solutions LLC).
Firmowe wersje technologii Travan
Choć technologia Travan miała zakończyć „wojny" pomiędzy standardami QIC MC a QIC Wide, niektóre napędy korzystają z firmowych wersji standardu Travan. Niestandardowe są pojemności:
5 GB Tecmar / Iomega DittoMax',
5 GB HP / Colorado,
6,6 GB AIWA Bolt2,
7 GB Tecmar / Iomega DittoMax',
10 GB Tecmar DittoMax',
14 GB HP/ Colorado.
'firma Iomega sprzedała firmie Tecmar serie produktów Ditto i DittoMax, wiązane z napędami służącymi do archiwizowania danych. Z kolei firma Tecmar zakończyła działalność w 2002 r. Co prawda nośniki przeznaczone dla tych napędów nadal znajdują się w ofercie firmy Imation, ale bez wsparcia technicznego są „ osierocone " i powinno się z nich zrezygnować. 2Firma AIWA Computer Systems Division zakończyła działalność w październiku 1999 r. Produkowane przez nią napędy zostały „ osierocone " i powinno się je zastąpić innymi.
Producenci napędów są podstawowymi dostawcami nośników dla niektórych z tych napędów, natomiast pozostałe obsługują również nośniki innych firm. Szczegóły można odszukać na stronie WWW producenta.
Napędy OnStream ADR
Firma OnStream Data B.V., wywodząca się z założonej przez korporację Philips Electronics firmy OnStream Inc., „osierociła" produkty związane z archiwizowaniem danych z serii OnStream ADR (zapoczątkowana w 1999 r.) i nowszej ADR2, ogłaszając w kwietniu 2003 r. bankructwo. W celu zapoznania się z resztą napędów OnStream, niektórymi typami kaset, sterownikami, instrukcjami obsługi i technicznymi danymi należy zaglądnąć na stronę internetową firmy Hastec B.V. (http://www.hastec.nl). Firma Verbatim nadal prowadzi sprzedaż kaset dla napędów ADR o określonej pojemności.
DAT (DDS), AIT i inne standardy napędów taśm o dużej pojemności
Co prawda obecnie napędy Travan oferują pojemność 40 GB skompresowanych danych, ale użytkownicy dzisiejszych dysków o dużych pojemnościach muszą korzystać z bardziej pojemnych rozwiązań. W komputerach osobistych i małych serwerach sieciowych mogą być użyte standardy taśm stosowane od dawna w stacjach roboczych i dużych serwerach. Dodatkowo zostały zaprojektowane nowe technologie o dużej pojemności, które są w stanie obsługiwać dzisiejsze duże dyski.
Najbardziej odpowiednimi rozwiązaniami dla użytkowników, którzy chcieliby tworzyć kopie o większej objętości, są: kasety cyfrowe 4 mm (DAT/DSS), taśma wideo 8 mm, AIT 8 mm, DLT (digital linear tape), SLR (scalable linear recording) i Exabyte (wcześniej Ecrix) VXA. Doskonałym rozwiązaniem dla użytkowników dysków o bardzo dużej pojemności (ponad 100 GB) jest wersja Ultrium standardu LTO Technology. Wszystkie te technologie są wykorzystywane zarówno w samoczynnie ładujących bibliotekach taśm stosowanych w dużych sieciach, jak i w postaci napędów pojedynczych kaset odpowiednich dla małych serwerów sieci lub komputerów osobistych.
Standardy firmowe oraz otwarte
Jeżeli chcesz mieć wybór spośród większej ilości napędów, nośników i cen, powinieneś wybierać taki typ napędu o wysokiej pojemności, który jest sprzedawany przez kilka firm. Jednak niektóre najbardziej zaawansowane technologie są kontrolowane przez jednego producenta.
Technologie napędów udostępniane przez kilku dostawców:
DAT/DSS. Wprowadzona przez firmę Sony i licencjonowana przez kilku innych producentów. Napędy piątej generacji DDS są sprzedawane przez firmy HP i Certance (wcześniej Seagate RSS).
AIT. Wprowadzona przez firmę Sony i licencjonowana przez kilku innych producentów.
DLT. Zaprojektowana przez firmę Digital Eąuipment Corporation i odkupiona przez firmę Cmantum w roku 1994.
LTO (Linear Tape-Open). Technologia zaprojektowana przez HP, IBM i Seagate RSS (obecnie Certance).
Przez jednego producenta sprzedawane są:
SLR — Tandberg Data,
VXA — Exabyte (oryginalnie zaprojektowany przez firmę Ecrix).
Jednak niektóre firmy mogą sprzedawać kasety zgodne z tzw. „firmowymi" standardami.
Napędy taśm DAT/DDS
Z wielu dostępnych na rynku napędów o dużej pojemności, ulubionym przez Autora typem napędów przez długi okres czasu był napęd taśm DAT/DDS, ponieważ łączy on w sobie wydajność, pojemność i niezawodność oraz rozsądną cenę. Dostępne są cztery poziomy pojemności napędów DAT/DDS:
DDS-1. Jest to najprostszy wariant całej rodziny (standardowo 2 GB; 4 GB z kompresją2:1); obecnie zarzucony.
DDS-2. Posiada tę samą pojemność co napędy korzystające ze standardu Travan NS8 (standardowo 4 GB; 8 GB z kompresją 2:1).
DDS-3. Posiada nieco większą pojemność (standardowo 12 GB; 24 GB z kompresją 2:1) niżTravan NS20.
DDS-4. Najbardziej zaawansowany z rodziny DAT/DDS, ma standardową pojemność 20 GB (40 GB
z kompresją 2:1), co stanowi wartość dwukrotnie wyższą niż Travan NS20 i jednakową z Travan 40 GB. Napęd obsługuje też kasety DDS-3.
♦ DAT72 (DDS Fifth Generation). Najnowszy członek rodziny DAT/DDS, oferujący standardową pojemność 36 GB i 72 GB z kompresją 2:1. Napęd obsługuje kasety DDS-4 i DDS-3.
Choć napędy DAT/DDS są droższe niż napędy Travan o podobnej pojemności, to z powodu ich konstrukcji znacznie niższa jest cena nośników. Na przykład, cena kasety Travan NS20 jest około trzykrotnie wyższa niż kaseta DDS-3, która ma nieco większą pojemność. Nawet kaseta DDS-4, która zapewnia dwukrotnie większą pojemność niż Travan NS20 jest o 30% tańsza. Napędy DDS są bardziej niezawodne niż Travan lub wcześniejsze napędy standardu QIC, a przecież najważniejszą funkcją napędu taśm jest wykonanie bezproblemowego odzyskania danych. Zwiększona niezawodność napędów DDS jest wspomagana przez funkcję automatycznego czyszczenia głowic wbudowaną w większość napędów i nośników.
Po ogłoszeniu w kwietniu 2001 r. przez firmę Sony, że napędy taśmowe DDS-4 będą ostatnimi z serii DAT/DDS. niepewny stał się przyszły los obsługiwanych przez nie kaset. Jednak w styczniu 2003 r. firmy HP i Certance poinformowały o rozwijaniu napędów DDS piątej generacji DAT72, oferujących w porównaniu z napędami DDS-4 większą pojemność, a także zgodność wstecz dotyczącą odczytu i zapisu kaset DDS-4 i DDS-3. Pierwsze napędy DAT72 pojawiły się na rynku w lipcu 2003 r. Napęd DAT72 prawie dwukrotnie zwiększa pojemność oferowaną przez napędy DDS-4.
W napędach DAT72 firmy Certance wykorzystano technologie o nazwie TapeShield opracowane w celu ochrony napędów i danych. Te zastosowane wcześniej w napędach DDS-4 firmy Certance mechanizmy oferują:
szczelnie zamkniętą komorę zawierającą interfejs pośredniczący pomiędzy głowicą i taśmą,
element czyszczący wałka napędowego, będący z nim cały czas w kontakcie,
szafirowe ostrze czyszczące nośnik i usuwające z taśmy cząstki, zanim zanieczyszczą napęd.
Wymienione innowacje umożliwiają napędom DAT72 pracę w zakurzonym otoczeniu 10 razy dłużej od napędów, które są ich pozbawione. Napędy DAT72 firmy Certance korzystają też z funkcji SmartShield, która za pomocą wielu odczytów zwiększa szanse odzyskania danych z taśm niespełniających wymagań lub o słabej jakości zapisu.
Napędy DAT72 firmy HP oferują prostą w użyciu funkcję One Button Disaster Recovery, umożliwiającą przywrócenie systemu po wystąpieniu awarii do stanu, w jakim znajdował się podczas ostatnio wykonywanej operacji archiwizacji.
Zapis ze skanowaniem spiralnym w napędach DAT, 8 mm i AIT
Napędy Exabyte 8 mm, Sony DAT/DDS i Sony AIT korzystają z zapisu ze skanowaniem spiralnym. Głowice za-pisująco-odczytujące używane w tym rodzaju zapisu są zamontowane na bębnie i zapisują dane pod pewnym kątem do taśmy, wykorzystując mechanizm dosyć podobny do stosowanego w magnetowidach. Do przechowywania danych jest wykorzystana cała powierzchnia taśmy, co pozwala na umieszczenie na odcinku taśmy większej ilości danych niż przy stosowaniu zapisu liniowego wykorzystywanego w rodzinie napędów QIC.
Charakterystyczne własności technologii AIT
Technologia Sony AIT posiada kilka charakterystycznych własności, stworzonych w celu przyspieszenia zapisu i odtwarzania danych oraz zwiększenia niezawodności. Opcjonalny układ Memory In Cassette (MIC) pozwala na zapamiętanie w kasecie, które z 256 partycji na taśmie zawierają dane przeznaczone do odtworzenia dzięki czemu w ciągu kilku sekund napęd wyszukuje odpowiednią pozycję startową. Napędy AIT posiadają również mechanizm sterujący, nazywany Auto Tracking Following (ATF), wykorzystywany do dokładnego zapisu ścieżek. Funkcja Advanced Lossless Data Compression (ALDC) jest metodą kompresji zbliżoną do metod stosowanych w dużych komputerach, zapewniającą większy stopień kompresji niż metody stosowane w innych napędach. Napęd posiada jeszcze kilka innych własności, na przykład ma wbudowany układ czyszczenia głowic aktywowany po osiągnięciu określonego poziomu błędów korygowalnych. Dodatkowo na taśmę napylana jest warstwa metalu, dzięki czemu zmniejsza się stopień zabrudzenia głowic. Napęd AIC ma wielkość 3,5 cala.
Charakterystyczne własności technologii DLT
W przypadku napędu DLT taśma jest podzielona na równoległe poziome części ze ścieżkami. Dane są zapisywane poprzez przesuwanie taśmy poprzecznie do nieruchomej głowicy z prędkością 2,5 - 3,8 m/s w czasie operacji odczytu i zapisu. Stanowi to ogromny kontrast w stosunku do tradycyjnej technologii ze skanowaniem spiralnym, w których dane są zapisywane w ukośnych pasach przez obracającą się głowicę bębnową, gdzie taśma jest przesuwana ze znacznie mniejszą prędkością.
Wynikiem zastosowania takiej technologii jest niezwykle trwały napęd i solidny nośnik. Głowice napędu DLT mają minimalny spodziewany czas życia równy 15 000 godzin w najgorszych warunkach temperaturowych i wilgotności, natomiast taśmy mają spodziewany okres życia równy 500 000 przebiegów.
Charakterystyczne własności technologii SLR
Napędy SLR firmy Tandberg korzystają z liniowej metody zapisu; taśma wykorzystywana w napędach SLR 40, SLR 60, SLR 75, SLR 100 i SLR 140 jest podzielona na 192 ścieżki. W razie potrzeby regulacji pozycji głowicy, wykorzystywane są dwadzieścia cztery ścieżki z danymi sterującymi. Funkcja ta została zaprojektowana w celu zapewnienia zgodności taśm SLR między różnymi napędami i zapewnia odczytanie taśmy zapisanej w jednym napędzie przez inny napęd. Jednocześnie zapisywane są cztery ścieżki. Podstawowy model SLR7 korzysta z uproszczonej metody zapisu wykorzystującej 72 ścieżki, z których w danej chwili dwie są zapisywane. Oba typy taśm posiadają funkcje eliminacji błędów pozwalające w przypadku uszkodzenia zapisywanej ścieżki na przełączenie się na inną. Nośnik SLR oferowany jest przez większość najważniejszych dostawców taśm.
Charakterystyczne własności technologii Exabyte VXA
Napędy Exabyte VXA (oryginalnie stworzone przez firmę Ecrix, która w listopadzie 2001 r. połączyła się z firmą Exabyte) łączą specjalne metody zapisu i odtwarzania. Wykorzystywana metoda zapisu przypomina normalne skanowanie spiralne, ale taśma jest prowadzona po bębnie magnetycznym za pomocą zupełnie innego mechanizmu. Dane zapisywane są z różną prędkością, zmieniającą się w zależności od chwilowej prędkości transmisji danych z komputera. Eliminuje to konieczność przewijania taśmy do tyłu w przypadku braku danych do zapisu (szarpanie wsteczne). Dane nie są zapisywane w liniowych blokach, ale w 64-bajtowych grupach po 387 pakietów. Napędy VXA posiadają specjalną funkcję odczytu nazywaną operacją overscan (OSO). Funkcja ta wykonuje wielokrotny odczyt każdej grupy pakietów danych, co umożliwia ich odzyskanie nawet ze zniszczonej taśmy. Podział danych na pakiety działa podobnie do sposobu przesyłu pakietów w Internecie: dane mogą być odbierane w dowolnej kolejności i są one składane do oryginalnej postaci po odczytaniu wszystkich pakietów. W testach firm Ecrix i Exabyte taśmy są gotowane, zamrażane, wylewana jest na nie gorąca kawa, a mimo to udaje się odczytać 100% zapisanych danych.
Charakterystyczne własności technologii LTO
Technologia Linear Tape-Open, znana lepiej pod nazwą LTO, to dużej wydajności technologia tworzenia kopii zapasowych oferująca dwa różne typy mechanizmów:
♦ Ultrium. Ta implementacja LTO jest zoptymalizowana pod kątem bardzo dużych pojemności. Na przykład napędy Ultrium mająpojemność bez kompresji 100 GB (200 GB przy kompresji 2:1) i szybkości przesyłania zawarte w przedziale od 20 do 40 MB/s. Napędy Ultrium Generation 2 oferują standardową pojemność 200 GB (400 GB z kompresją 2:1) i szybkości przesyłania od 40 do 80 MB/s. Oba typy napędów mają specjalne funkcje, jak dynamiczne wyłączanie (chroni przed uszkodzeniem
taśmy po wyłączeniu zasilania), inteligentna kompresja danych, analiza powierzchni eliminująca niepewne odcinki taśmy i zmienna prędkość przesuwu minimalizująca „szarpanie wsteczne" (cofanie taśmy z powodu braku danych do zapisu). Napędy Ultrium są dostępne zarówno w postaci pojedynczych napędów, jak i bibliotek taśm i są dosyć drogie. Ceny podstawowego napędu jednokasetowego Ultrium Generation 1 zaczynają się od około 12 000 zł, natomiast kasety o pojemności 100 GB (bez kompresji) sprzedawane są za około 140 złotych. Kasety napędu Ultrium Generation 2 kosztują około 280 złotych.
♦ Accelis. Ta implementacja LTO jest zoptymalizowana pod kątem bardzo dużych prędkości i korzysta z dwuszpulowej kasety pozwalającej na ładowanie taśmy od środka, a nie od początku. Ma ona pojemność 25 GB (50 GB z kompresją 2:1) i zawiera pamięć kasety (używaną do przechowywania danych na temat poprzedniego użycia kasety, co pozwala na szybsze wyszukiwanie danych). Prędkość przesyłu danych wynosi od 20 MB do 40 MB na sekundę. Ponieważ przy znacznie większych pojemnościach napędy Ultrium oferują taką samą szybkość, nie jest zaskoczeniem to, że standard Accelis istnieje na razie tylko na papierze. Nie można kupić żadnego napędu tej odmiany LTO.
Porównanie technologii tworzenia kopii na taśmach
Jak pokazują poprzednie podrozdziały, mamy duży wybór napędów taśm o dużej pojemności i wydajności. Wszystkie opisane tu technologie korzystają z interfejsu SCSI i dostępne są w postaci napędów wewnętrznych lub zewnętrznych (niektóre z nich są też zgodne z interfejsem USB 2.0 lub IEEE 1394a). Choć są one droższe niż napędy Travan lub OnStream, oferują pojemności wymagane przez dzisiejsze dyski twarde.
W przeciwieństwie do niepełnej zgodności z poprzednimi modelami napędów rodziny QIC, bardziej zaawansowane napędy w każdej z rodzin są zgodne z urządzeniami o mniejszej pojemności.
W tabeli 12.4 zestawiono wydajność i inne cechy tych technologii taśm oraz porównano z napędami Travan NS8 i NS20 oraz OnStream ADR. Ceny napędów różnią się w zależności od rodzaju interfejsu SCSI, tego, czy napęd jest wewnętrzny czy zewnętrzny, oraz czy jest to biblioteka taśm czy pojedynczy napęd. Standardy zamieszczone w tabeli 12.4 uporządkowane są według naturalnej pojemności. Wszystkie te napędy posiadają interfejs SCSI, chyba że zaznaczono inaczej. Maksymalna wymieniona cena stanowi koszt najdroższego napędu z jedną kasetą, większość modeli danego napędu jest tańsza, w zależności od obsługiwanej wersji interfejsu SCSI, w zależności od tego, czy są sprzedawane same czy jako zestaw, oraz czy jest to napęd wewnętrzny (tańszy) czy zewnętrzny.
Z tabeli 12.4 wynika, że napęd Travan NS80 należy do najtańszych napędów SCSI, ale w przypadku napędów DAT/DDS znacznie niższa jest cena nośnika. W przypadku wszystkich napędów większych niż 20 GB wydajność jest wyższa. W przypadku pojedynczych komputerów lub małych serwerów sieci napędy DDS-3, DDS-4, DAT72, SLR7, VXA-1 i VXA-2 mają najlepsze proporcje, jeśli chodzi o początkową cenę, wydajność i cenę za megabajt nośnika. Napędy DLT i AIT są lepszym wyborem dla większych serwerów sieciowych, szczególnie w przypadku zakupu droższej wersji z biblioteką taśm (nie wymieniona tutaj).
Wybór odpowiedniego napędu taśm
Wybór napędu taśm jest dosyć prostą sprawą, jeżeli ma on służyć do kopiowania danych z relatywnie małego dysku twardego. Podjęcie decyzji staje się bardziej skomplikowane, gdy system posiada duży dysk lub gdy trzeba tworzyć kopie danych z komputera stacjonarnego i laptopa. Sytuacja komplikuje się jeszcze bardziej, jeżeli trzeba tworzyć kopie bezpieczeństwa dysku twardego serwera lub kopiować dane ze stacji roboczych na napęd zamontowany w serwerze. Zastanawiając się nad wyborem napędu należy wziąć pod uwagę następujące cechy:
ilość danych do skopiowania,
interfejsy obsługiwane przez system,
niezbędna prędkość przesyłu,
najbardziej odpowiednie do potrzeb standardy nośnika,
cena napędu i taśm,
możliwości i kompatybilność dołączanego sterownika i oprogramowania narzędziowego,
obsługa przywracania po awarii.
Tabela 12 A. Porównanie standardów napędów taśm o wysokiej pojemności
Typ napędu |
Pojemność (z kompresją 2:1) |
Prędkość zapisu (standardowa/z kompresją) |
Zakres cen napędu |
Cena nośnika |
Travan NS20 |
10 GB (20 GB) |
1-2 MB/s |
Poniżej 880 zl |
Około 140 zl |
DAT DDS-3 |
12 GB (24 GB) |
1,1-2,2 MB/s |
Około 2100 zł |
Około 25 zł |
Travan 40 GB |
20 GB (40 GB) |
2-4 MB/s ATA |
Poniżej 1200 zł |
Około 160 zł |
|
|
1 -2 MB/s USB 2.0 |
Około 1500 zł |
Około 160 zł |
DAT DDS-4 |
20 GB (40 GB) |
2 - 4,8 MB/s |
Około 2450 zl |
Około 50 zl |
SLR 7 |
20 GB (40 GB) |
3-6 MB/s |
Poniżej 2800 zl |
Około 175 zł |
DLT 4000 |
20 GB (40 GB) |
1,5-3 MB/s |
Około 5200 zl |
Około ! 40 zl |
SLR 50 |
25 GB (50 GB) |
2-4 MB/s |
Około 4500 zł |
Około 280 zł |
SLR 60 |
30 GB (60 GB) |
|
Około 3360 zł |
Około 245 zł |
VXA-1 |
33 GB (66 GB) |
3-6 MB/s |
Poniżej 2620 zl |
Około 234 zl (33/66 GB); Około 140 zl (20/40 GB); Około 105 zl (12/24 GB) |
AIT-I |
35 GB (70 GB) |
3-6 MB/s |
Poniżej 3150 zl |
Około 175 zl |
DAT72 |
36 GB (72 GB) |
3,5 - 7 MB/s |
Około 4200 zl |
Około 105 zl |
DLT 8000 |
40 GB (80 GB) |
3-6 MB/s |
Około 5950 zł |
Około 175 zl |
SLR 100 |
50 GB (100 GB) |
5- 10 MB/s |
Około 4900 zł |
Około 280 zl |
AIT-2 |
50 GB (100 GB) |
6- 12 MB/s |
Poniżej 4900 zl |
Około 192 zł |
VXA-2 |
80 GB (160 GB) |
6- 12 MB/s |
Około 3500 zl |
Około 315 zł |
Odpowiednio wyważając oczekiwania wobec ceny, pojemności, przepustowości, zgodności i standardu taśm. należy wybrać najbardziej odpowiedni napęd.
Kupując napęd taśm, warto poświęcić nieco czasu na przejrzenie czasopism, w których reklamują się dostawcy i dystrybutorzy. Ze swojej strony polecam PC Kurier, CHIP i Enter. Publikacje te są przeznaczone dla tych, którzy chcą pominąć pośredników i kupować bezpośrednio u źródła. Zapoznając się z tymi czasopismami, można się zorientować co do zakresu oferowanych napędów i cen, jakie trzeba za nie zapłacić.
Czytając o możliwościach napędów i ich cenach, nie należy zaniedbywać czytania opisu oprogramowania dostarczanego z napędem. Należy sprawdzić, czy możliwości oprogramowania spełniają oczekiwania i potrzeby. Jest to szczególnie istotne, gdy chcesz wykorzystywać napęd w systemie innym niż Windows, ponieważ większość oprogramowania do tworzenia kopii zapasowych jest przeznaczona dla platformy Windows. Jeśli nie jesteś zadowolony z oprogramowania archiwizującego dołączonego do napędu, należy sprawdzić, czy producent nie oferuje urządzenia bez aplikacji, a następnie zorientować się, czy firma tworząca wybrany program archiwizujący obsługuje nabyty napęd.
Pojemność
Pierwszą zasadą przy wybieraniu napędu taśm jest zakup napędu o pojemności odpowiedniej do potrzeb bieżących i w przewidywalnej przyszłości. Idealną sytuacją jest kupienie napędu o takiej pojemności, aby można było uruchomić program do tworzenia kopii, włożyć pustą taśmę do napędu i wyjść, pozostawiając systemowi czas na zrealizowanie operacji. Po powrocie kopia powinna być gotowa. Ponieważ taśmy mają deklarowaną pojemność podaną po kompresji (2:1) — co rzadko jest osiągane w praktyce — powinno się brać pod uwagę „prawdziwą" pojemność, mnożąc jąprzez 1,5 (co odpowiada kompresji 1,5:1). Dlatego tzw. taśmy 20 GB powinny być traktowane raczej jako 15 GB (10 GB nieskompresowane x 1,5). Oczywiście pojemność po kompresji zależy od użytego oprogramowania archiwizującego, określonych ustawień i typu danych, których kopia zapasowa jest wykonywana. Wcześniej skompresowane dane, takie jak archiwa .zip, pliki obrazów JPEG i GIF oraz niektóre rodzaje plików obrazów TIFF. nie mogą już dodatkowo zostać skompresowane. Z kolei pliki tekstowe i bazy danych pozwalają na uzyskanie sporej kompresji. Jeśli stwierdzisz, że podczas archiwizowania danych uzyskałeś wyższe lub niższe współczynniki kompresji, w celu ułatwienia oszacowania rzeczywistej pojemności kopii zapasowej należy zastosować standardową wartość współczynnika.
Pojemność taśmy powinna być większa od pojemności największej partycji dysku. Umożliwia to tworzenie kopii bezpieczeństwa w sposób automatyczny, ponieważ nie ma potrzeby zmieniania taśmy w czasie tworzenia kopii. Nawet jeżeli nie uważasz za kłopotliwe zmieniania taśm w trakcie tworzenia kopii, to jednokasetowa kopia jest bezpieczniejsza. Jeżeli pierwsza taśma kopii wielokasetowej zostanie zniszczona lub zagubiona, w większości systemów tworzenia kopii pozostałe kasety są bezużyteczne!
Standardy taśm i zgodność
Następnym po odpowiedniej pojemności ważnym zagadnieniem jest wybór napędu korzystającego z użytecznego dla Ciebie standardu taśm. Jeżeli posiadasz taśmy, z których będziesz chciał odzyskać dane, lub otrzymujesz od innych użytkowników taśmy do odczytania, potrzebujesz napędu potrafiącego odczytać wszystkie te rodzaje taśm. Aby wybrać odpowiedni napęd, skorzystaj z zamieszczonych wcześniej informacji o zgodności z poprzednimi modelami.
Jeżeli praca ze starszymi typami taśm ma być jedynie okazjonalna, być może lepszym rozwiązaniem okaże się zakup napędu o wysokiej wydajności, który będzie używany do bieżącej pracy, a stary napęd zostanie zachowany na wypadek potrzeby odczytania starszych standardów. Większość napędów typu Travan i QIC-Wide może czytać kasety QIC-80.
Ważne jest, aby mądrze wybierać nowy napęd. Jeżeli zarządzasz dużą liczba komputerów, mieszanie napędów QIC, Travan, DAT i 8 mm w systemach zazwyczaj nie jest dobrym pomysłem.
Zgodność oprogramowania
Równie ważne jak sam napęd jest oprogramowanie niezbędne do jego pracy. W chwili obecnej większość napędów ATA i podłączanych od portu równoległego jest sprzedawana z oprogramowaniem działającym w systemie Windows (wersje od 98 do XP). Napędy dysków SCSI są obsługiwane przez Windows NT, Windows 2000 i XP oraz Uniksa. Napędy korzystające z USB są przeznaczone dla Windows 98. Me, 2000 i XP, choć Windows 2000 i XP może nie obsługiwać tak dużej liczby urządzeń jak Windows 98 i Me. Na witrynie producenta napędu powinny znajdować się informacje na temat zgodności z systemami operacyjnymi.
Większość systemów operacyjnych posiada własny program do tworzenia kopii zapasowych danych na taśmie. Jeżeli masz zamiar skorzystać z tego programu, powinieneś sprawdzić, czy napęd jest obsługiwany przez wszystkie elementy wszystkich systemów, w których będzie on wykorzystywany. Programy niezależnych firm zwykle mają więcej możliwości, ale być może będziesz musiał zakupić osobne programy dla wszystkich wykorzystywanych systemów operacyjnych.
Prędkość przesyłu
Wszystkie opisane napędy z interfejsem SCSI, IEEE 1394a, Hi-Speed USB lub ATA zapewniają wystarczającą wydajność (1 MB/s lub więcej w przypadku kopiowania danych skompresowanych), ale wydajność zmniejsza się, jeżeli chcemy skorzystać z wygodnych napędów USB 1.1 lub napędów z portem równoległym. Napędy QIC, QIC-Wide i Travan wykorzystujące interfejs dyskietek powinny być uważane za nieodpowiednie do tworzenia kopii dużych dysków z powodu ograniczeń interfejsu dyskietek oraz małych pojemności kaset.
Cena
Cenę za megabajt można dla napędu liczyć na dwa sposoby: licząc tylko cenę nośników lub cenę nośników i napędu (co jest lepsze przy pierwszym zakupie). Niezależnie od własnych preferencji należy wziąć pod uwagę wszystkie czynniki, jak na przykład mniejszą cenę paczek z kasetami oraz zyski z szybkości działania napędów SCSI i ATA.
Gdy podczas zakupu bierzemy pod uwagę cenę napędu i taśm jako całość, trzeba pamiętać, że cena ta nie jest nawet zbliżona do kosztów (razem z frustracją i utratą produktywności) jednej awarii niszczącej dane na dysku twardym. Należy pamiętać, że większość użytkowników chętniej wykonuje kopie bezpieczeństwa, jeżeli mają oni zainstalowany napęd taśm, niż gdy muszą korzystać z innego nośnika. Cena napędu i taśm jest niewielka, nawet dla pojedynczego komputera PC używanego do zabawy.
Obsługa przywracania po awarii
Przywracanie po awarii, umożliwiające utworzenie kopii zapasowej na taśmie lub dyskietkach, przy użyciu których można odzyskać cały system operacyjny i pliki danych bez uprzedniej instalacji systemu Windows, jest funkcją oferowaną przez oprogramowanie archiwizujące i interfejs napędu. Przywracanie po awarii jest obsługiwane przez większość programów archiwizujących, ale nie jest już tak w przypadku napędów podłączanych do portu USB lub IEEE 1394a, ponieważ korzystają one ze sterowników systemu Windows. Ze względu na to, że proces przywracania danych po awarii rozpoczynany jest w systemie MS-DOS, sterowniki takie nie mogą zostać użyte, ponieważ system ten nie dysponuje sterownikami obsługującymi port USB lub IEEE 1394a.
Instalacja napędu taśm
Ponieważ większość dzisiejszych napędów taśm korzysta z interfejsów TA, SCSI USB lub portu równoległego, które są wykorzystywane również przez inne urządzenia masowe, powinieneś przeczytać odpowiednie rozdziały książki:
Rozdział 14., „Instalowanie i konfigurowanie napędów dysków", zawiera szczegółowe instrukcje na temat instalowania dysków twardych, dyskietek i napędów CD.
Rozdział 7. prezentuje wyczerpujące omówienie interfejsu ATA.
Rozdział 8. przedstawia wyczerpujące omówienie interfejsu SCSI.
Rozdział 17. zawiera informacje na temat USB i interfejsów szeregowych.
Oprogramowanie do obsługi napędów taśm
Po wybraniu standardu taśm i pojemności napędu, najważniejszą decyzją będzie wybranie oprogramowania do jego obsługi.
Istnieją trzy źródła oprogramowania do obsługi napędów:
oprogramowanie dostarczone z napędem,
oprogramowanie dostarczane z systemem operacyjnym,
oprogramowanie dostarczane przez zewnętrzne firmy.
Poniżej przedstawiamy punkty, według których można oceniać oprogramowanie do obsługi napędu taśm:
♦ Obsługa urządzeń. Możesz korzystać z taśmy w większości przypadków, ale jeżeli zmienisz zdanie, to czy będziesz mógł skorzystać z nośników magnetycznych o dużej pojemności lub napędu dysków optycznych? Niektóre programy sprzedawane z napędami działająjedynie z tymi napędami; należy sprawdzić, czy dostępna jest pełna wersja takiego programu.
Zgodność z istniejącymi kopiami. Jeżeli zastąpiłeś stary napęd taśm nowym, to czy nowe oprogramowanie będzie w stanie odczytać stare dane?
Regulowane opcje kompresji. Jeżeli wykorzystujesz napęd bez kompresji sprzętowej, powinieneś móc dobrać metodę kompresji lub ją wyłączyć, co ułatwia życie w przypadku wysyłania taśmy do innego użytkownika.
Opcje ochrony danych. Oprócz weryfikacji, dobre oprogramowanie do tworzenia kopii może dodawać kody korekcji błędów ECC, co ułatwia odzyskiwanie danych w przypadku uszkodzenia nośnika.
Odtwarzanie po awarii. Wiele standardowych lub dołączanych do napędu programów wymaga zainstalowania systemu operacyjnego przed odzyskaniem zawartości uszkodzonego dysku. Upieraj się przy opcji odtwarzania po awarii pozwalającej na odtworzenie danych za pomocą dysku startowego
i kopii z taśmy bez potrzeby instalowania systemu operacyjnego. Trzeba pamiętać, że konieczne jest sprawdzenie, czy napęd taśmowy i interfejs obsługują funkcję przywracania po awarii. Jeśli w tym celu zamierzasz użyć napędu zgodnego z interfejsem USB lub IEEE 1394a, zazwyczaj konieczne będzie utworzenie startowej dyskietki lub dysku CD zawierającego oprogramowanie służące do przywracania po awarii i obsługujące wymienione interfejsy. Niektóre programy archiwizujące w przypadku przywracania po awarii współpracują tylko z napędami SCSI lub ATAPI.
Poniżej wymieniono inne przydatne funkcje, które należy wziąć pod uwagę.
Planowanie automatycznie wykonywanych kopii zapasowych. Umożliwia zaplanowanie archiwizacji w czasie, gdy komputer nie będzie potrzebny do pracy. Jeśli samo oprogramowanie archiwizujące nie oferuje takiej funkcji, można skorzystać z usługi planowania systemu Windows.
Możliwość zastosowania makr. Przydatna przy określaniu ustawień i wybieraniu plików, które zostaną zarchiwizowane.
Możliwość szybkiego usunięcia zawartości taśmy. Przydatna przy usuwaniu zawartości całej taśmy.
Możliwość usunięcia zawartości fragmentu taśmy. Przydatna, gdy konieczne jest wymazanie części zawartości taśmy.
Możliwość przywracania zawartości taśmy. Przydatna, gdy konieczne jest odzyskanie usuniętych danych.
Możliwość ochrony hasłem. Dzięki niej możliwe jest zabezpieczenie danych przed nieautoryzowanym dostępem.
Szukając najlepszego produktu, należy czytać opisy programów, sprawdzać kompatybilność, zapoznawać się z wersjami próbnymi i, co najważniejsze, sprawdzić, czy funkcje tworzenia kopii i odtwarzania działają zgodnie z oczekiwaniami.
Producent oprogramowania Novastor (http://www.novastor.com) oferuje unikatowe rozwiązanie podstawowego problemu związanego z przejściem ze starej metody tworzenia kopii zapasowych na nową — co można zrobić z danymi na starych nośnikach? Program Tape Copy 2.1 pozwala przenieść dane ze starych napędów SCSI, ATA/IDE, USB lub FireWire do nowego systemu korzystającego z interfejsu ATA lub SCSI. Możliwe jest też użycie aplikacji do utworzenia na dyskach twardych kopii zawartości taśm i powielenia jej podobnym napędzie. Jeżeli posiadasz dużo danych na taśmach i nie chcesz zachowywać starego napędu taśm, program Tape Copy 2.1 może być odpowiednim rozwiązaniem. W celu uzyskania informacji na temat zgodności programu z określonymi modelami napędów i pobrania wersji próbnej należy zaglądnąć na stronę internetową producenta.
Rozwiązywanie problemów z napędami taśm
Napędy taśm mogą sprawiać problemy przy instalacji i w trakcie działania. Każdy typ nośnika wymiennego jest narażony na uszkodzenia i taśmy nie są tu wyjątkiem. Opiszemy teraz niektóre często występujące problemy i sposoby ich rozwiązywania.
Komputer nie rozpoznaje napędu:
♦ W przypadku napędów z portem równoległym podłącz napęd taśm jako jedyne urządzenie i sprawdź wymagane przez napęd ustawienie trybu IEEE 1284 (EPP lub ECP) w konfiguracji portu równoległego.
W przypadku napędów USB użyj Windows 98 lub nowszego i sprawdź, czy port USB jest włączony w BlOS-ie. Wicie systemów sprzedawanych z systemem Windows 95 ma zablokowany port USB. Podłączając do portu USB inne urządzenie (na przykład czytnik kart pamięci Flash lub kamerę internetową), należy je sprawdzić.
W przypadku napędów ATA upewnij się. że zworki master/slave są odpowiednio ustawione na obu napędach.
W przypadku napędów SCSI sprawdź terminatory i ustawienie Device ID.
W przypadku napędów zewnętrznych dowolnego typu włącz urządzenie na kilka sekund przed uruchomieniem całego systemu. Jeżeli tego nie zrobisz, wykonaj operację Odśwież w Menedżerze urządzeń systemu Windows 9x. Jeżeli to nie pomoże, musisz uruchomić ponownie komputer.
Błąd przy tworzeniu kopii lub przy odtwarzaniu:
Jeżeli zdarzy się błąd podczas wykonywania operacji tworzenia kopii lub przy odtwarzaniu danych, wykonaj następujące kroki:
Upewnij się, że korzystasz z właściwego typu kasety.
Wyjmij i włóż ponownie kasetę.
Uruchom ponownie system.
Przewiń taśmę.
Wypróbuj inną taśmę.
Wyczyść głowice napędu.
Upewnij się. że wszystkie kable są dobrze włączone.
Uruchom ponownie test zgodności, który weryfikuje prędkość przesyłu, wykorzystując nową taśmę (test nadpisuje wszystkie dane zapisane na taśmie).
Błędne bloki lub inne błędy nośnika:
Aby rozwiązać problemy z błędnymi blokami i innymi typami błędów nośnika, należy wykonać następujące czynności:
Przewiń taśmę.
Wyczyść głowice.
Wypróbuj nową taśmę.
Uruchom ponownie system.
Spróbuj inicjalizować taśmę.
Wykonaj bezpieczne kasowanie taśmy (poprzednio zapisane dane zostaną usunięte).
Zwróć uwagę, że większość minikaset jest sprzedawana w postaci preformatowanej i nie mogą być one formatowane w napędzie. Nie próbuj kasować preformatowanej taśmy, ponieważ stanie się ona bezużyteczna.
Zawieszenie lub zablokowanie systemu w czasie uruchamiania kopiowania na taśmę:
Jeżeli system zawiesza się w trakcie wykonywania kopii, wykonaj następujące czynności:
Sprawdź, czy system spełnia minimalne wymagania zarówno dla napędu taśm, jak i oprogramowania do tworzenia kopii.
Sprawdź, czy jakiś sterownik lub zasób (IRQ, DMA lub adres portu wejścia-wyjścia) nie jest w konflikcie z napędem taśm i oprogramowaniem do tworzenia kopii.
Ustaw CD-ROM jako master, a napęd taśm jako slave w przypadku, gdy oba urządzenia korzystają z tego samego portu ATA.
Sprawdź sekwencję uruchamiania w BlOS-ie; jeżeli napęd taśm jest skonfigurowany jako master lub jako slave bez urządzenia master, nie ustawiaj urządzenia startowego ATAPI (napęd taśm lub CD-ROM).
Sprawdź, czy dysk twardy ma wystarczająco dużo wolnego miejsca; większość oprogramowania do tworzenia kopii zapasowych korzysta z dysku twardego jako bufora przesyłu.
Problemy z dyskiem twardym mogą spowodować zawieszenie się programu do tworzenia kopii. Sprawdź dysk twardy za pomocą programu SCANDISK lub podobnego.
Sprawdź, czy system jest wolny od wirusów.
Upewnij się, że zostały usunięte sterowniki do poprzedniego napędu taśm.
Tymczasowo wyłącz sterownik karty graficznej i przetestuj tworzenie kopii przy wykorzystaniu standardowego sterownika 640x480x16 dostarczanego przez Microsoft. W przypadku komputerów z systemami Windows 2000/XP należy uaktywnić tryb VGA. Jeżeli problem zniknie, pobierz nowy sterownik karty graficznej.
Opróżnij Kosz przed rozpoczęciem kopiowania. Pliki chronione przez oprogramowanie niektórych firm sterujące Koszem mogą powodować zawieszenie komputera.
Zablokuj oprogramowanie antywirusowe i zarządzanie energią.
Wypróbuj taśmę w innym komputerze i innym systemie operacyjnym lub przenieś napęd, kartę i kable do innego działającego systemu.
Inne problemy z napędem taśm:
Przy tworzeniu kopii na taśmach mogą wystąpić również inne problemy:
Uszkodzone dane lub informacje ID na taśmie.
Niewłaściwe ustawienia BIOS-u (CMOS).
Problemy z siecią (stare sterowniki sieciowe itp.).
Taśma była zapisywana w innym napędzie. Jeżeli inny napęd może ją odczytać, problem ten wskazuje na niewłaściwe ustawienie głowic lub niekompatybilne środowisko.
Poprawianie naciągu taśmy
Proces poprawiania naciągu taśm polega na przewinięciu taśmy w przód, a następnie w tył w celu zapewnienia jednakowego naciągu taśmy i rolek na całej ścieżce taśmy. Wykonanie tej operacji jest zalecane przed użyciem nowej taśmy lub po narażeniu zapisanej taśmy na zmiany temperatury lub uderzenie (na przykład po upuszczeniu kasety). Proces przewijania taśmy przywraca właściwy naciąg nośnika i usuwa niepożądane napięcia, jakie mogły powstać.
Niektóre zasady rządzące poprawianiem naciągu są następujące:
Należy przewijać taśmy, które nie były używane przez miesiąc lub dwa.
Należy przewijać taśmy, w których wystąpiły błędy odczytu.
Należy przewijać wszystkie upuszczone taśmy.
W niektórych przypadkach należy kilkakrotnie wykonywać operacje przewijania w celu osiągnięcia właściwych efektów. Większość napędów taśm i obsługującego je oprogramowania posiada odpowiednie opcje uruchamiające przewijanie.
Rozdział 13.
Pamięci optyczne
Technologie optyczne
W komputerach stosowane są dwa podstawowe typy dysków: magnetyczne i optyczne. Dyski magnetyczne to na przykład napędy dyskietek lub dysków twardych, instalowane w większości komputerów PC. Dyski optyczne są podobne do magnetycznych funkcjonalnie, ale zapisują i odczytują dane korzystając ze światła (optycznie), zamiast wykorzystywać zjawiska magnetyczne. Większość dysków to nośniki, na których dane można zapisywać i odczytywać wielokrotnie, natomiast duża część nośników optycznych jest przeznaczona albo tylko do odczytu albo do jednokrotnego zapisu i potem odczytywania danych.
Niektóre urządzenia wykorzystują zarówno techniki związane z optyką, jak i magnetyzmem; przy wykorzystaniu laserowego systemu prowadzącego głowicę laserową (tak jak w napędach dyskietek LS-120/LS-240 SuperDisk) lub w sytuacji, gdy laser jest stosowany do rozgrzewania dysku, dzięki czemu możliwa jest magnetyczna polaryzacja obszarów nośnika, która umożliwia odczyt tak zapisywanych danych za pomocą lasera o niskiej mocy, takiego jak w napędach magnetooptycznych (MO). Powyższe techniki omówiono w rozdziale 12., „Nośniki wymienne o dużej pojemności".
W pewnym momencie można było odnieść wrażenie, że napędy optyczne zastąpią dyski magnetyczne w roli podstawowych urządzeń do przechowywania danych. Jednak dyski optyczne są dużo wolniejsze i chociaż pozwalają na zapis danych z mniejsza gęstością w porównaniu z dyskami magnetycznymi, lepiej nadają się jako nośniki wymienne. Dlatego napędy optyczne są często wykorzystywane do tworzenia kopii zapasowych oraz jako nośniki źródłowe, z których programy i dane są kopiowane na dyski magnetyczne. Dyski magnetyczne są dużo szybsze i mogą przechowywać o wiele więcej danych na takiej samej powierzchni fizycznej. Z tego powodu lepiej nadają się one do bezpośredniego przechowywania danych i najprawdopodobniej w najbliższej przyszłości nie zostaną one w tej roli zastąpione przez dyski optyczne.
Najbardziej obiecującą dziedziną związaną z optyką i funkcjonującą w świecie komputerów jest zgodna ze standardem EasyWrite (Mount Rainier) technologia CD-RW (ang. Compact Disc ReWritable — zapisywalny dysk optyczny) i DVD+RW (ang. DVD+ Rewritable — zapisywalny dysk DVD), które to urządzenia prawdopodobnie zastąpią wiekowe stacje dyskietek jako standard wymiennych nośników danych. Niektórzy mogą powiedzieć, że właściwie już się to stało. Większość nowych systemów posiada napęd CD-RW, a niektóre wybranego typu napęd DVD oferujący wielokrotny zapis i choć napęd dyskietek również jest montowany, jest on rzadko wykorzystywany oprócz uruchamiania programów diagnostycznych, podstawowej konfiguracji systemu, formatowania dysków, przygotowań do zainstalowania systemu operacyjnego itp.
Standardy komputerowych technologii optycznych można zaliczyć do dwóch podstawowych typów. Oto one:
CD (CD-ROM, CD-R, CD-RW),
DVD (DYD-ROM, DYD-RAM, DYD-RW, DYD-R, DYD+RW, DYD+R).
Zarówno komputerowe urządzenia CD, jak i DVD wywodzą się z popularnych standardów stosowanych w branży rozrywkowej. Tradycyjne odtwarzacze CD pozwalają na słuchanie muzyki z płyt CD, a urządzenia DVD na oglądanie kupionych lub wypożyczonych filmów DVD. Jednak urządzenia komputerowe obsługujące lego typu nośniki oferują wiele dodatkowych możliwości.
W kolejnych podrozdziałach dowiesz się, jakie podobieństwa występują pomiędzy napędami CD i DVD. co je różni i jak mogą zostać wykorzystane do poszerzenia możliwości związanych z przechowywaniem danych i odtwarzaniem muzyki oraz filmów.
Dyski optyczne CD
CD-ROM byl pierwszym typem technologii optycznej, która stała się ogólnie stosowanym standardem komputerowym. CD-ROM czyli Compact Disk-Read Only Memory jest nośnikiem optycznym tylko do odczytu, korzystającym z oryginalnego formatu CD-DA (ang. Digital Audio — dźwięk cyfrowy) opracowanego na potrzeby muzycznych płyt CD. Inne formaty, na przykład CD-R i CD-RW zwiększają możliwości dysku kompaktowego poprzez udostępnienie opcji nagrywania. Dodatkowo, nowe technologie, takie jak DVD (ang. Digital 1'ersatile Disc), umożliwiają zapisywanie dużo większej ilości danych na takim samym dysku.
Napędy CD-ROM stanowią już od wielu lat standardowe wyposażenie komputerów PC. Wyjątkiem są tzw. klient}1 uproszczone (ang. thin clients) — komputery PC przewidziane tylko do pracy w sieci, które najczęściej nie posiadają żadnych napędów dysków.
Dyski CD-ROM mogą przechowywać 74 lub 80 minut dźwięku wysokiej jakości (w zależności od rodzaju użytego dysku). Dane lub dźwięk są zapisywane na jednej stronie dysku wykonanego z tworzywa o średnicy 120 mm i grubości 1,2 mm
CD-ROM posiada identyczną wielkość jak dysk formatu CD-DA i może być włożony do normalnego odtwarzacza płyt. Najczęściej nie da się go jednak odtworzyć, ponieważ odtwarzacz czyta dane informacyjne ścieżki, które wskazują, czy znajdują się na niej dane czy dźwięk. Jeżeli jednak udałoby się nam odtworzyć dysk z danymi, usłyszelibyśmy szum, chyba że na dysku CD-ROM przed ścieżkami danych znajduje się ścieżka dźwiękowa (zajrzyj do podpunktu „Blue Book — CD EXTRA" w dalszej części rozdziału). Odczyt danych z dysku CD-ROM jest o wiele szybszy niż z dyskietki, ale wolniejszy niż z nowoczesnych dysków twardych. Termin CD-ROM odwołuje się zarówno do samego dysku kompaktowego jak i do faktu, że napęd może z niego jedynie odczytywać.
W roku 1988 wydano jedynie kilka dysków CD-ROM, natomiast w chwili obecnej dostępne są setki tysięcy tytułów z danymi i programami z różnych dziedzin — od światowych statystyk rolniczych do gier edukacyjnych dla dzieci. Również poszczególne firmy, rząd i duże korporacje publikują tysiące tytułów do użytku wewnętrznego. Jednym z przykładów jest książka telefoniczna: wiele tomów zostało zastąpionych dwoma dyskami zawierającymi listę telefonów z całych Stanów Zjednoczonych (USA).
Krótka historia dysku CD
W roku 1979 firmy Philips i Sony połączyły siły w celu opracowania standardu CD-DA (ang. Compact Disc-Digital Audio). Philips produkował już i sprzedawał laserowe odtwarzacze dysków, natomiast Sony miało za sobą dekadę doświadczeń związanych z cyfrowym zapisem dźwięku. Te dwie firmy, zamiast przygotowywać się do starcia — wprowadzając dwa niezgodne ze sobą formaty dysków laserowych — połączyły siły w celu utworzenia jednego standardu technologii cyfrowego zapisu dźwięku.
Philips byl odpowiedzialny za zaprojektowanie technologii zapisu, korzystając z doświadczenia nabytego przy wyprodukowanych wcześniej laserowych napędach dysków. Tak jak poprzednio zastosowano układ zapisu danych w postaci układu otworów i powierzchni płaskich, odczytywanych później za pomocą lasera. Firma Sony opracowała układy przetworników analogowo-cyfrowych, kodowania cyfrowego i projekt kodu korekcji błędów.
W październiku 2004 r. cena dysków o pojemności 80 GB zawierała się w przedziale od 230 do 270 złotych —przyp. Tłum
teraz.(3q 2008) wynosi mniej niż 100 zł ;) --- przypis edytującego
Sektor