Dyski twarde, systemy


0x08 graphic
Dyski twarde

Definicja dysku twardego

Dla wielu użytkowników komputera dysk twardy jest jednym z najważniejszych i jednocześnie najbardziej tajemniczych elementów systemu. Jest to szczelnie zamknięte „pudełko", którego komputer PC używa do nie-ulotnego przechowywania danych. Przechowywanie nieulotne oznacza, że urządzenie zapisujące przechowuje dane nawet po wyłączeniu zasilania. Ponieważ dysk twardy przechowuje dane aż do chwili ich rozmyślnego usunięcia lub nadpisania, wykorzystywany jest on do gromadzenia ważnych danych i programów. W związku z tym konsekwencje jego awarii są zwykle bardzo poważne. Aby prawidłowo użytkować, serwisować i roz­budowywać komputer PC, powinieneś wiedzieć, jak działa dysk twardy.

Dysk twardy składa się z sztywnych talerzy zwykle wykonanych z aluminium lub szkła (patrz rysunek 10.1). W przeciwieństwie do dyskietki, talerze nie mogą być zginane — stąd nazwa „dysk twardy". Z większości napędów dysków twardych nie można wyjąć talerzy, i stąd wzięło kolejne określenie — „dysk stały". Jednak dostępne są również wymienne dyski twarde. Czasami nazwą tą opisywane są urządzenia, gdzie wyjmowana jest cała jednostka (czyli dysk i napęd), ale częściej używa się jej wobec napędów, w których talerze znajdują się w osobnej kasecie.

0x01 graphic

0x08 graphic
Dyski twarde są czasami określane jako dyski Winchester. Nazwa ta powstała w roku 1973, gdy IBM wprowadził napęd 3340, który miał pojemność 30 MB na stałych talerzach i 30 MB na talerzach wymiennych, umieszczonych na osobnych osiach. Dysk został nazwany Winchester" przez szefa projektu Kena Haughtona, ponieważ oznaczenie początkowej pojemności (30-30) było bardzo podob­ne do nazwy popularnych nabojów 30-30 używanych w karabinie Winchester z 1895 roku. Orygi­nalny napęd 3340 Winchester" był pierwszym urządzeniem, w którym głowice i mechanizmy dys­ku były szczelnie zamknięte. Określenie to było wykorzystywane dla kolejnych dysków o podobnej technologii wykonania.

Rozwój dysków twardych

W roku 1957 Cyryl Northcote Parkinson opublikował słynny zbiór esejów zatytułowany „Prawa Parkinsona", który rozpoczyna się zdaniem: „Ilość pracy wzrasta tak szybko, że wypełnia cały czas dostępny na jej wyko­nywanie". Wniosek wypływający ze słynnego „prawa" Parkinsona odnosi się również do dysków twardych: „Ilość danych przyrasta w takim tempie, że wypełniają one całą powierzchnię dostępną do ich przechowywa­nia". Oznacza to, że bez względu na to, jak duży jest dysk twardy, zawsze znajdziesz sposób na jego zapełnienie. Sprawdza się to co do joty od czasu zakupienia przeze mnie pierwszego dysku twardego niemal 20 lat temu.

Mimo że doskonale zdaję sobie sprawę z wykładniczego wzrostu możliwości wszystkiego, co jest związane z komputerami, nadal jestem zdziwiony, jak ogromne i szybkie stały się dzisiejsze dyski. Pierwszym dyskiem, który kupiłem w roku 1983, był 10 MB (10 megabajtów, nie gigabajtów) Miniscribe model 2012 posiadający talerze o średnicy 5,25 cala, napęd miał wielkość 200 mm x 140 mm x 80 mm i ważył 2,5 kg (więcej niż nie­które laptopy)! Dla porównania, dysk Seagate Barracuda 180 (w chwili, gdy piszę te słowa, jest to największy dostępny dysk 3,5-calowy) korzysta z mniejszych, 3,5-calowych talerzy, ma wymiary 145 mm x 100 mm x 40 mm, waży jedynie 1,04 kg i może przechować 181,6 GB danych (czyli 18 160 razy więcej i mieści się w obudowie, która jest cztery razy mniejsza i o połowę lżejsza). To ogromny skok w przeciągu 20 lat!

0x08 graphic
Książka „Prawa Parkinsona" (ISBN: 1-5684-9015-1) jest nadal drukowana i jest dziś uważana za jedną z najważniejszych książek dotyczących biznesu i ekonomii.

0x08 graphic
Aby uzmysłowić sobie, jak długą drogę przeszły dyski twarde w czasie swojej ponaddwudziestoletniej histo­rii, zebrałem razem kilka faktów, które zaszły w tym czasie:

Maksymalna pojemność zwiększyła się z 5 i 10 MB na dyskach 5,25 cala o pełnej wysokości,
dostępnych w roku 1982, do ponad 180 GB na dysku 3,5-calowym o połowie wysokości (Seagate
Barracuda 180) i ponad 60 GB na 2,5-calowych napędach dla notebooków (IBM Travelstar 60GH),
które mają wysokość 12,5 mm (lub mniej). Dyski twarde mniejsze od 30 GB są rzadkością

w sprzedawanych dzisiaj komputerach stacjonarnych.

Działanie dysku twardego

Podstawowymi elementami dysku twardego są obracające się talerze oraz przesuwające się nad nimi głowice zapisujące dane w sektorach ścieżek. Głowice odczytują i zapisują dane na koncentrycznych okręgach zwa­nych ścieżkami, które są podzielone na fragmenty zwane sektorami, które najczęściej przechowują po 512 bajtów (rysunek 10.2).

Wewnątrz obudowy napędu umieszczonych jest wiele dysków zwanych talerzami, ułożonych jeden nad dru­gim i obracającymi się wspólnie. Na każdym z dysków dane mogą być przechowywane po obu stronach. Większość napędów posiada dwa lub trzy talerze, co daje cztery lub sześć stron, ale istnieją również dyski o 12 talerzach i 24 stronach, posiadające 24 głowice (Seagate Barracuda 180). Identycznie położone ścieżki na każdej stronie talerzy tworzą cylinder (rysunek 10.3). Dyski mają najczęściej po jednej głowicy na stronę,

0x01 graphic

a wszystkie te głowice są zamontowane na wspólnym ramieniu. Głowice poruszają się razem wzdłuż promie­nia talerza; nie mogą poruszać się niezależnie, ponieważ są zamontowane na wspólnym urządzeniu sterują­cym — pozycjonerze.

Na początku większość dysków twardych obracało się z prędkością obrotową 3600 obr/min — około 10 razy szybciej niż dyskietka. Przez wiele lat prędkość ta była stała dla wszystkich dysków. W chwili obecnej więk­szość dysków obraca się z większą prędkością; występują dyski o prędkościach obrotowych 4200 obr/min, 5400 obr/min, 7200 obr/min lub 15 000 obr/min. Większość standardowych napędów obraca się z prędkością 5400 obr/min, natomiast modele o dużej wydajności 7200 obr/min. Dyski 10 000 obr/min i 15 000 obr/min wykorzystywane sąjedynie w serwerach i stacjach roboczych o bardzo dużej wydajności, gdzie wysokie ce­ny, wydzielanie ciepła i hałas nie stanowią zbyt dużego problemu. Duża prędkość obrotowa połączona z szyb­kim mechanizmem pozycjonowania głowicy i dużą liczbą sektorów na ścieżkę powoduje, że dysk ten jest szybszy od innych.

Głowice w większości dysków nie dotykają (i nie powinny) powierzchni talerzy w czasie normalnego działa­nia. Jednak w większości napędów głowice opierają się o talerze w czasie, gdy dysk jest wyłączony. W takim przypadku, podczas wyłączania zasilania głowice przesuwają się do najbardziej wewnętrznego cylindra, gdzie lądują na powierzchni talerza. Projekt taki jest określany jako CSS (ang. Contact Start Stop). Gdy włączone zostanie zasilanie napędu, w trakcie jego rozpędzania talerza głowice ślizgają się po jego powierzchni, aż wy­tworzy się cienka poduszka powietrzna pomiędzy głowicą i powierzchnią talerza, co powoduje oderwanie się ich od talerza i utrzymywanie się w niewielkiej odległości od niego. Jeżeli stabilność szczeliny wytworzonej

przez poduszkę powietrzną zostanie zakłócona przez cząstkę kurzu lub przez uderzenie, głowica może ude­rzyć w talerz obracający się z pełną prędkością. Jeżeli to uderzenie jest wystarczająco silne, aby spowodować uszkodzenia powierzchni dysku, zdarzenie takie nazywa się wypadkiem głowicy. Efekt uderzenia może być bardzo różny, od utraty kilku bajtów do całkowitego zniszczenia napędu. Większość napędów ma powierzch­nie dysków pokryte specjalnym smarem utwardzającym, która może w ten sposób wytrzymać codzienne ..starty i lądowania", jak również bardziej poważne zderzenia.

Niektóre nowe napędy nie korzystają z projektu CSS i zamiast tego wykorzystują mechanizm ładowania i wy­ładowania, który nie pozwala głowicom na kontakt z talerzami nawet po wyłączeniu zasilania. Po raz pierwszy został on wykorzystany w napędach 2,5-caIowych stosowanych w laptopach i notebookach, gdzie odporność dysku na uderzenia jest bardzo istotna. Mechanizm ładowania i wyładowania wykorzystuje rampę umiesz­czoną zaraz obok zewnętrznego brzegu talerzy. Gdy zasilanie dysku zostanie odłączone lub dysk przejdzie w tryb oszczędzania energii, głowice są przesuwane na rampę. Gdy zasilanie zostanie przywrócone, głowice zostaną uwolnione z rampy dopiero wtedy, gdy talerze są rozpędzone do pełnej prędkości, dzięki czemu prze­pływ powietrza zapobiega kontaktowi głowicy z talerzem.

Ponieważ mechanizmy talerzy są zamknięte i nie mogą być wyjmowane, gęstość ścieżek na dysku może być bardzo duża. Dzisiejsze dyski twarde mają na nośniku po 66 400 lub więcej ścieżek na cal (TPI) (IBM Travelstar 60GH). Mechanizmy głowic dysku (HDA), które zawierają talerze, są montowane w pomieszcze­niach, w których obowiązują bardzo wysokie wymagania dotyczące czystości. Ponieważ tylko niewiele firm serwisuje te urządzenia, naprawa i wymiana części wewnątrz HDA może być bardzo kosztowna. Każdy dysk może ulec uszkodzeniu. Jednak problemem jest to, kiedy uszkodzenie wystąpi i czy wszystkie ważne dane będą zabezpieczone.

0x08 graphic
Nie zaleca się podejmowania prób otwierania napędu bez odpowiedniego wyposażenia i doświad­czenia w naprawie. Większość producentów rozmyślnie utrudnia ich otwieranie, aby zniechęcić użyt­kowników. Otwarcie napędu powoduje utratę gwarancji.

0x08 graphic
Wielu użytkowników wie, że dyski twarde są najdelikatniejszymi elementami komputera PC. Dlatego studen­ci przychodzący na moje seminaria „PC Hardware and Troubleshooting" oraz „Data Recovery" są zaskocze­ni, gdy uruchamiam różne dyski twarde ze zdjętą obudową, a nawet zakładam i zdejmuję obudowę w trakcie pracy dysku! Dyski te działają świetnie do dziś niezależnie od tego, czy są zamknięte czy otwarte. Oczywi­ście nie zalecam robienia tego z własnym dyskiem.

Analogia obrazująca technologię dysków twardych

Istnieje stara analogia dotycząca współpracy głowic i nośnika w normalnym dysku twardym. Jest ona porów­nywalna do samolotu Boeing 747 Jumbo Jet lecącego około metra nad ziemią z prędkością przelotową (około 800 km/h). Przytaczam tę analogię od lat i w przeszłości nie zadawałem sobie trudu, aby sprawdzić, czy jest ona technicznie poprawna w odniesieniu do nowoczesnych dysków twardych. A nie jest!

Prawdopodobnie najbardziej niewłaściwy aspekt tej analogii to porównanie głowic do samolotu. Analogia odnosi się do faktu, że głowice lecą bardzo nisko ponad dyskiem, ale technicznie nie jest to prawda. Głowice nie lecą w tradycyjnym aerodynamicznym sensie, raczej ślizgają się na poduszce powietrznej tworzącej się nad talerzem.

Dużo lepiej będzie, jeśli zastąpimy samolot poduszkowcem; istota ruchu poduszkowca precyzyjniej oddaje dzia­łanie głowic w dysku twardym. Podobnie jak poduszkowiec, utrzymywanie się głowicy napędu w powietrzu za­leży od kształtu jej dolnej powierzchni, który kontroluje przepływ powietrza między dyskiem i głowicą. Podusz­ka powietrzna tworzy się w niewielkiej odległości od talerza i często jest nazywana łożyskiem powietrznym.

Uważam, że nadszedł czas na utworzenie nowej analogii, lepiej obrazującej wymiary i prędkość, z jaką działają dzisiejsze napędy. Zajrzałem do specyfikacji nowoczesnych napędów i pomnożyłem dane przez współczyn­nik 300 000. W moim przykładzie użyłem napędu IBM Deskstar 75GXP, który jest 3,5-calowym dyskiem ATA o pojemności 75 GB. Ślizgacze głowicy (nazywane pikoślizgaczami) w tym napędzie mają wymiary 0.0019 mm długości, 0,0015 mm szerokości i 0,0005 mm wysokości. Unoszą się one na poduszce powietrznej około 15 nanometrów (nm czyli miliardowa część metra) nad powierzchnią dysku przesuwającego się pod nimi ze średnią prędkością 85 km/h (przyjmując średnią średnicę ścieżki jako 6,45 cm).

Głowice te odczytują i zapisują poszczególne bity oddalone od siebie o 0,895 mikrometrów. Głowice mogą przesunąć się na inną ścieżkę w średnim czasie 8,5 milisekundy.

Aby utworzyć moją analogię, powiększyłem skalę, aby uzyskać odległość głowicy od nośnika równą 5 mm. Ponieważ 5 milimetrów jest około 333 333 razy większe niż 15 nm, przeskalowałem wszystkie wymiary o tę wartość.

Powiększone o ten wskaźnik głowice tego dysku miałyby około 400 m wysokości, 320 m szerokości i 100 m wysokości (długość i wysokość odpowiadają wieżowcowi Sears Tower w Chicago obróconemu na bok). Te głowice o wielkości wieżowca powinny unosić się na poduszce powietrznej o grubości 5 mm, przesuwając się z prędkością 28,48 miliona kilometrów na godzinę (7911 km na sekundę — a trzecia prędkość kosmiczna to zaledwie 42 kilometry na sekundę), odczytując bity danych ułożonych co 21 mm na ścieżkach odległych od siebie o 29 cm!

Proporcjonalne zwiększenie prędkości tej modelowej głowicy jest trudne do wyobrażenia, więc nieco przy­bliżymy tę wartość. Średnica Ziemi na równiku wynosi 12 681 km, co daje obwód około 40 000 km. Z pręd­kością 7911 km/s nasz wyimaginowany drapacz chmur okrąży ziemię w czasie 5 sekund (znajdując się 5 mm nad ziemią)! Podczas tego jednego okrążenia będzie mógł odczytać 321,33 MB danych.

Trzeba również wziąć pod uwagę prędkość ruchu w bok. Ponieważ średni czas dostępu jest zdefiniowany ja­ko czas przesunięcia głowicy o jedną trzecią całkowitej liczby ścieżek (w naszym przykładzie to 9241 ście­żek), głowice mogą poruszać się w bok na przeskalowaną odległość 2,73 km w czasie 8,5 milisekund. W wy­niku przeskalowania otrzymujemy prędkość wyszukiwania większą od 1 162 113 km/h czyli 323 km/s!

Ta analogia powinna obrazować zdumiewający poziom możliwości technologii nowoczesnych dysków twar­dych. Stara analogia do Jumbo Jęta brzmi przy niej nieco patetycznie (nie wspominając, że jest mocno nie­precyzyjna), nieprawdaż?

Ścieżki i sektory

Pod nazwą ścieżki rozumiemy okrąg danych na jednej stronie dysku. Ścieżka dysku jest zbyt długa, aby moż­na było efektywnie zarządzać danymi, operując jej całą zawartością. Wiele ścieżek dysku może pomieścić 100 000 bajtów danych, co byłoby bardzo nieefektywne podczas zapisu małych plików. Z tego powodu ścież­ki są podzielone na kilka ponumerowanych fragmentów zwanych sektorami. Sektory są fragmentami ścieżki w kształcie łuku.

Różne typy dysków dzielą ścieżki na różną liczbę sektorów, w zależności od gęstości ścieżek. Na przykład, dyskietki mają 8-36 sektorów na ścieżkę, natomiast dyski twarde przechowują dane z większą gęstością i mogą osiągać ponad 900 sektorów na ścieżkę. Sektory tworzone przez standardową procedurę formatowa­nia mają pojemność 512 bajtów i jest to wartość niezmienna przez całą historię komputerów PC. Interesującą rzeczą jest to, że aby zachować zgodność z większością starych BIOS-ów i sterowników, gdy dane są adreso­wane w trybie CHS, napędy dokonują wewnętrznej translacji, „udając", że mają 63 sektory na ścieżkę.

Sektory na ścieżce są numerowane od 1, natomiast głowice i cylindry są numerowane od 0. Na przykład dys­kietka 1,44 MB zawiera 80 cylindrów numerowanych od 0 do 79, wykorzystuje dwie głowice o numerach 0 i 1, natomiast każda ścieżka ma 18 sektorów numerowanych od 1 do 18.

Podczas formatowania dysku program formatujący przed obszarem danych każdego sektora tworzy obszary ID, używane później przez kontroler dysku do numerowania sektorów i identyfikowania początku i końca każ­dego sektora. Obszary znajdują się przed i po sektorze danych i zajmują część pojemności dysku. Wyjaśnia to zjawisko różnicy pojemności przed i po sformatowaniu. Należy zwrócić uwagę, że większość nowoczesnych dysków twardych jest sprzedawanych w postaci preformatowanej i podawana jest pojemność po sformatowa­niu. Pojemność przed formatowaniem najczęściej nie jest nigdy podawana. Innym interesującym faktem jest to, że niektóre dyski korzystają z tzw. formatowania No-ID, co oznacza, że sektory są zapisywane bez znacz­ników ID przed i po każdym sektorze. Dzięki temu większa część dysku może być przeznaczona na dane.

Każdy sektor dysku posiada zwykle prefiks lub nagłówek identyfikujący początek sektora i zawierający jego numer oraz sufiks lub stopkę, zawierająca sumę kontrolną (pomagającą zapewnić integralność zapisywanych danych). Wiele nowych dysków pomija ten nagłówek, korzystając z zapisu No-ID pozwalającego na zapisa­nie większej ilości danych. W przypadku zapisu No-ID początek i koniec każdego sektora jest wyznaczany przez impulsy zegara.

Każdy sektor zawiera 512 bajtów danych. Proces formatowania niskopoziomowego najczęściej wypełnia baj­ty danych specyficzną wartością, taką jak F6h, lub innym powtarzającym się wzorcem testowym używanym przez producenta dysku. Niektóre wzorce są trudniejsze do zakodowania i zdekodowania przez elektronikę dysku, więc są one używane przez producentów do testowania napędów podczas początkowego formatowa­nia. Specjalny wzorzec testowy może spowodować wykrycie błędu powierzchni, który nie będzie ujawniony przy wykorzystaniu normalnych wzorców danych. Tym sposobem producenci mogą dokładniej zidentyfiko­wać sektory marginesowe w trakcie testowania.

0x08 graphic
Omawiany tu typ formatowania jest formatowaniem fizycznym lub niskopoziomowym, a nie forma­towaniem wysokopoziomowym wykonywanym przez użytkowników za pomocą programu Eksplora­tor Windows lub FORMAT. W podrozdziale „Formatowanie dysku" opiszemy różnice pomiędzy tymi typami formatowania.

0x08 graphic
Nagłówki i stopki sektorów są niezależne od systemu operacyjnego, systemu plików i plików przechowywa­nych na dysku. Oprócz nagłówków i stopek, pomiędzy sektorami na ścieżce występują przerwy zawierające potencjalną przestrzeń danych. Przerwy te są tworzone w czasie formatowania niskopoziomowego, gdy zapis jest na moment wstrzymywany. Mają one tę samą funkcję, co przerwy pomiędzy utworami na kasecie ma­gnetofonowej. Nagłówek, stopka i przerwy składają się na różnicę pomiędzy pojemnością przed formatowa­niem i po sformatowaniu. Na przykład, 4 MB (niesformatowana) dyskietka 3,5-calowa posiada pojemność po sformatowaniu 2,88 MB, a 2 MB (niesformatowana) dyskietka ma po sformatowaniu pojemność 1,44 MB, stary dysk (np. Seagate ST-4038) o pojemności przed formatowaniem 38 MB ma po sformatowaniu pojem­ność jedynie 32 MB. Ponieważ dyski ATA/IDE i SCSI kupowane dzisiaj są fabrycznie sformatowane nisko-poziomowo, producenci podająjedynie pojemność po sformatowaniu. Jednak wszystkie dyski rezerwują nieco miejsca na zarządzanie przechowywanymi danymi. Dlatego, choć wspominałem wcześniej, że każdy sektor dysku ma 512 bajtów danych, technicznie rzecz biorąc, jest to nieprawda. Każdy sektor pozwala na zapisanie 512 bajtów danych, ale obszar danych jest jedynie fragmentem sektora. Każdy sektor na dysku zwykle zaj­muje 571 bajtów, z czego tylko 512 bajtów jest dostępne na dane użytkownika. Dokładna liczba bajtów wy­maganych na nagłówek i stopkę sektora różni się w zależności od dysku. Wspominaliśmy również, że wiele dysków korzysta z zapisu No-ID, co niemal całkowicie eliminuje narzut na dane nagłówka sektorów.

Można porównać każdy sektor dysku do strony w książce. W książce każda strona zawiera tekst, ale nie jest ona wypełniona nim całkowicie — każda strona posiada marginesy: górny, dolny, lewy i prawy. Informacje takie jak tytuły rozdziałów (numery ścieżki i cylindra) i numery stron (numery sektorów) umieszczane są na marginesach. Obszary „marginesów" sektorów są tworzone w czasie formatowania niskopoziomowego. For­matowanie wypełnia również obszar danych sztucznymi wartościami. Po wykonaniu formatowania wysokie­go poziomu, system plików komputera PC może zapisywać do obszarów danych każdego sektora, ale dane w nagłówku i stopce sektora nie mogą być zmienione przez normalną operację zapisu, chyba że ponownie wykonane zostanie formatowanie niskopoziomowe.

W tabeli 10.1 zamieszczony jest format każdej ścieżki i sektora typowego dysku twardego z 17 sektorami na ścieżkę.

Jak można się przekonać, użyteczne miejsce na każdej ścieżce jest około 15% mniejsze od całkowitej nie-sformatowanej pojemności nośnika. Wartość ta jest prawdziwa dla większości dysków, choć dokładna różni­ca procentowa może przedstawiać się nieco inaczej, w zależności od liczby sektorów na ścieżce. Poniżej opi­szemy dokładniej poszczególne części danych sektora wymienione w tabeli 10.1.

Pole POST INDEX GAP zapewnia odstęp przeznaczony na zmianę głowicy, dzięki czemu, zmieniając ścieżkę, głowica może odczytywać kolejne sektory bez potrzeby czekania na dodatkowy pełny obrót dysku. Ponieważ dysk obraca się stale i głowice mają niewiele czasu na przesunięcie się pomiędzy ścieżkami, odczyt kolejnych

0x01 graphic

sektorów na dwóch różnych ścieżkach natychmiast po przeczytaniu poprzedniego nie jest możliwy. W czasie, gdy głowica przesunie się na następną ścieżkę, początek kolejnego sektora już znajduje się za głowicą. Pozosta­wienie odstępu pomiędzy sektorami zapewnia głowicom nieco czasu na przesunięcie się do następnej ścieżki.

W niektórych napędach przerwa ta nie jest wystarczająca na przesunięcie głowic. W takim przypadku napęd może zapewnić dodatkowy czas, przesuwając sektory na kolejnych ścieżkach, dzięki czemu pierwszy sektor jest nieco opóźniony w stosunku do poprzedniej ścieżki. Inaczej mówiąc, proces formatowania niskopoziomo-wego tak przesuwa numery sektorów na kolejnych ścieżkach, aby sektory na sąsiednich ścieżkach nie miały takich samych numerów sektora, ale sektor 9 na jednej ścieżce leżał obok sektora 8 na sąsiedniej, sektora 7 na jeszcze następnej itd. Optymalne przesunięcie jest wyliczane na podstawie prędkości obrotowej dysku i pręd­kości przesuwania głowic.

0x08 graphic
Dawniej wartość przesunięcia sektorów była ustalana przez użytkownika na etapie formatowania niskopoziomowego. Dzisiejsze napędy ATA/IDE oraz SCSI są formatowane na etapie produkcji z optymalnym przesunięciem.

0x08 graphic
Dane ID sektora składają się z pól określających numer cylindra, głowicy i sektora oraz pola sumy kontrolnej wykorzystywanej do sprawdzania poprawności danych ID. Większość kontrolerów korzysta z 7. bitu w nume­rze głowicy do oznaczenia błędnego sektora wykrytego w czasie formatowania niskopoziomowego lub anali­zy powierzchni. Konwencja ta nie jest oczywiście obowiązująca. Niektóre kontrolery korzystają z innych me­tod zaznaczania błędnego sektora, ale oznaczenie to zwykle jest wykonywane z wykorzystaniem pól ID.

Pole WRITE TURN-ON GAP następujące po sumie kontrolnej pola ID stanowi strefę buforową zapewniającą pra­widłowy zapis następujących po tym polu danych użytkownika.

Pole DATA składa się z 512 bajtów danych użytkownika zapisanych w sektorze. Po tym polu zapisana jest su­ma kontrolna służąca do weryfikacji pola danych. Choć wiele kontrolerów korzysta z dwubajtowej sumy kontrolnej, może być zastosowany dłuższy kod korekcji błędów (ECC) wymagający przechowywania więcej niż dwóch bajtów CRC. Zapisane dane ECC zapewniają możliwość wykrywania i korekcji błędów w polu DATA. Możliwości detekcji i korekty błędów zależą od rodzaju kodu ECC zastosowanego w kontrolerze. Pole WRITE TURN-OFF GAP zapewnia pełne odtworzenie bajtów CRC (ECC).

Dzięki polu INTER-RECORD GAP można zniwelować różnicę prędkości obrotowej dysku. Ścieżka mogła być sformatowana w momencie, gdy dysk obracał się nieco wolniej niż normalnie, a następnie dane są zapisywa­ne, gdy dysk obracał się nieco szybciej. W takich przypadkach przerwa ta zabezpiecza przed przypadkowym zamazaniem danych w następnym sektorze. Dokładna wielkość tego odstępu zależy od prędkości obrotowej obszaru DATA w czasie formatowania dysku i za każdym razem, gdy jest uaktualniane pole DATA.

Pole INTER-RECORD GAP pozwala na tolerancję prędkości w obrębie całej ścieżki. Ma wielkość zależną od róż­nicy prędkości obrotowej dysku i tolerancji częstotliwości zapisu w czasie formatowania.

Pola nagłówka sektora są niezmiernie ważne, ponieważ zawierają dane identyfikujące cylinder, głowicę i sek­tor. Informacje te, oprócz pól DATA, DATA CRC i WRITE TURN-OFF GAP, są zapisywane tylko w czasie formatowa­nia niskopoziomowego.

Formatowanie dysku

Przed rozpoczęciem zapisywania danych na dysk wymagane jest zastosowanie dwóch procedur formatowania:

Gdy formatujesz pustą dyskietkę, Eksplorator systemu Windows lub polecenie FORMAT systemu DOS urucha­mia jednocześnie oba typy formatowania. Jeżeli dyskietka jest już sformatowana. DOS i Windows domyślnie wykonują jedynie formatowanie wysokiego poziomu.

Dysk twardy również wymaga dwóch niezależnych operacji formatowania. Dodatkowo, dysk twardy wyma­ga wykonania trzeciej czynności pomiędzy dwiema procedurami formatowania — zapisania informacji o par-tycjach dysku. Partycjonowanie jest wymagane, ponieważ dyski twarde są zaprojektowane do wykorzystania przez więcej niż jeden system operacyjny. Oddzielenie procedury formatowania niskopoziomowego, które zawsze przebiega tak samo, od formatowania wysokiego poziomu (różnego dla różnych systemów operacyj­nych), umożliwia wykorzystanie jednego dysku przez kilka systemów operacyjnych. Partycjonowanie pozwala na uruchamianie różnych systemów operacyjnych umieszczonych na jednym dysku, jak również umożliwia jednemu systemowi operacyjnemu widzenie dysku twardego jako kilka wolumenów lub dysków logicznych. Nazwa wolumen lub dysk logiczny oznacza dowolny fragment dysku, któremu system operacyjny nadaje na­zwę lub literę dysku.

Przygotowanie dysku twardego do normalnej pracy wymaga wykonania trzech czynności, którymi są:

  1. Formatowanie niskopoziomowe (LLF).

  2. Partycjonowanie.

  3. Formatowanie wysokiego poziomu (HLF).

Formatowanie niskopoziomowe

W czasie formatowania niskopoziomowego program dzieli ścieżki dysku na określoną liczbę sektorów, two­rząc przerwy między sektorami i ścieżkami oraz zapisy w nagłówkach i stopkach sektorów. Program formatu­jący wypełnia również pole danych określonym wzorcem testowym. W przypadku dyskietek liczba sektorów zapisanych na każdej ścieżce zależy od typu dysku i napędu. W przypadku dysków twardych liczba sektorów przypadających na ścieżkę zależy od dysku i rodzaju kontrolera.

Oryginalne komputery PC korzystały z osobnego kontrolera w formie karty rozszerzeń lub zintegrowanego z płytą główną. Ponieważ kontroler mógł być wykorzystywany do pracy z różnymi napędami dysków i mógł być wyprodukowany przez innego producenta, komunikacja pomiędzy kontrolerem a napędem podlegała pew­nej standaryzacji. Z tego powodu liczba sektorów na ścieżce była względnie stała.

Oryginalny kontroler MFM ST-506/412 korzystał z 17 sektorów na ścieżkę, natomiast kontroler ST-506/412 z kodowaniem RRL zwiększył liczbę sektorów na ścieżkę do 25 lub 26 na ścieżkę. Dyski ESDI miały ponad 32 sektory na ścieżkę. Napędy ATA/IDE oraz SCSI wykorzystywane w dzisiejszych komputerach zapisują od 17 do ponad 900 sektorów na ścieżkę.

Niemal wszystkie napędy ATA i SCSI korzystają z techniki zapisu strefowego (ZBR), w którym zapisuje się zmienną liczbę sektorów na ścieżce. Bez zapisu strefowego liczba sektorów — a więc jednocześnie bitów — na każdej ścieżce jest stała. Oznacza to, że liczba bitów na jednostkę powierzchni jest zmienna. Na wewnętrz­nej ścieżce znajduje się więcej bitów na jednostkę powierzchni, natomiast na zewnętrznych ścieżkach gęstość zapisu jest mniejsza. Prędkość przesyłu danych i prędkość obrotowa pozostaje ta sama, podobnej jak liczba bitów na ścieżkę. Na rysunku 10.4 pokazany jest dysk o identycznej liczbie sektorów na ścieżkę.

0x01 graphic

Standardowy tryb zapisu nieefektywnie wykorzystuje pojemność dysku na zewnętrznych ścieżkach, ponie­waż, choć są one dłuższe, przechowują tę samą ilość danych (zapisanych z mniejszą gęstością) co ścieżki we­wnętrzne. Jedyną metodą zwiększenia pojemności dysków twardych jest utworzenie w czasie formatowania większej liczby sektorów na zewnętrznych cylindrach dysku. Ponieważ zewnętrzne cylindry mają większy obwód, mogą przechowywać więcej danych. Napędy bez zapisu strefowego przechowują taką samą ilość da­nych w każdym cylindrze, pomimo że ścieżki zewnętrzne są dwa razy dłuższe niż ścieżki wewnętrzne. W wy­niku tego marnuje się pojemność dysku, ponieważ nośnik musi umożliwiać niezawodne przechowywanie da­nych z tą samą gęstością, co na wewnętrznych cylindrach. Gdy liczba sektorów na ścieżkę jest stała, tak jak w sytuacji wykorzystywania starych kontrolerów, pojemność dysku jest ograniczana przez maksymalną gę­stość zapisu na najbardziej wewnętrznej (najkrótszej) ścieżce.

Napędy korzystające z zapisu strefowego dzielą cylindry na grupy, zwane strefami, a w każdej kolejnej stre­fie, zaczynając od najbardziej wewnętrznej, mieści się coraz więcej sektorów na ścieżkę. Wszystkie cylindry w określonej strefie mają taką samą liczbę sektorów na ścieżkę. Liczba stref zależy od modelu dysku, ale więk­szość dysków ma ponad 10 stref.

Na rysunku 10.5 pokazany jest dysk z zapisem strefowym.

0x01 graphic

Inną cechą zapisu strefowego jest zmienność prędkości przesyłu w zależności od strefy, w której znajduje się głowica odczytująca. Dysk z zapisem strefowym obraca się ze stałą prędkością. Ponieważ na ścieżkach stref zewnętrznych znajduje się więcej sektorów, prędkość przesyłu danych tam zapisanych jest większa. Konse­kwentnie, prędkość przesyłu danych jest najmniejsza podczas odczytu lub zapisu stref wewnętrznych. Z tego powodu producenci podają minimalną i maksymalną wartość prędkości ciągłego przesyłu, która T2XtTj od położenia odczytywanych lub zapisywanych danych.

Jako przykład, w tabeli 10.2 zamieszczono dane na temat stref w dysku IBM Travelstar 32GH — liczba sek­torów na ścieżkę w kolejnych strefach oraz prędkość przesyłu.

0x01 graphic

Dysk ten ma 21 664 ścieżki na każdej stronie talerza i ścieżki te są podzielone na 16 stref po 1354 ścieżki każda. Wielkość stref nie musi być taka sama; w tym określonym dysku zastosowano przedstawiony podział. Strefa 0 składa się z 1354 najdłuższych ścieżek, zawierających najwięcej sektorów — 617. Ponieważ każdy sektor to 512 bajtów, każda ze ścieżek w tej strefie może przechowywać 315 904 bajty danych użytkownika, natomiast 327 sektorów w strefie 15 może pomieścić tylko 167 424 bajty.

Dlatego, stosując zapis strefowy, każda z powierzchni talerza mieści 10 225 408 sektorów, co daje pojemność 5 235 MB na stronę. Bez zapisu strefowego liczba sektorów na ścieżkę byłaby ograniczona do 327 na całej powierzchni dysku, co w sumie dałoby 7 084 128 sektorów mieszczących 3 627 MB. Zapis strefowy zapew­nia 44% zwiększenie pojemności opisywanego dysku.

Zwróćmy uwagę na różnicę prędkości przesyłu w kolejnych strefach. Dane ze ścieżek w najbardziej zewnętrz­nej strefie (0) są przesyłane z prędkością 28,49 MB/s, co stanowi wartość o 89% większą niż 15,10 MB/s w najbardziej wewnętrznej strefie (15). Jest to powód, dla którego mogą występować ogromne rozbieżności w wynikach podawanych przez programy testujące wydajność dysków. Test, który odczytuje i zapisuje dane na zewnętrznych ścieżkach dysku w sposób naturalny osiąga lepsze wyniki niż test korzystający z wewnętrz­nych ścieżek. Może się wydać, że dysk działa wolniej niż w rzeczywistości, natomiast program testujący bę­dzie porównywał wyniki działania dysków w różnych strefach.

Dysk ten jest zgodny ze specyfikacją AT A-5 i może działać w trybie Ultra-ATA/66 (nazywanym również UDMA-66), co oznacza, że maksymalna prędkość przesyłu wynosi 66 MB/s. Jest to prędkość czysto teore­tyczna, ponieważ prędkość przesyłu danych z nośnika wynosi od 15 MB/s do 28 MB/s, czyli średnio 21 MB/s. Maksymalna prędkość przesyłu dla interfejsu jest prędkością, z jaką interfejs może przesyłać dane. Nie ma ona nic wspólnego z możliwościami dysku.

Dyski z osobnymi kontrolerami wykorzystywane w przeszłości nie obsługują zapisu strefowego, ponieważ nie istniał standardowy sposób przesyłania danych o strefach między napędem i kontrolerem.

W przypadku dysków ATA i SCSI formatowanie poszczególnych ścieżek z dowolną liczbą sektorów stało się możliwe, ponieważ dyski te posiadają wbudowany kontroler. Wbudowany kontroler dysku korzysta z tego samego algorytmu podziału na strefy i może tłumaczyć fizyczne adresy cylindrów, głowic, sektorów i nume­ry sektorów na logiczne numery cylindrów, głowic i sektorów, dzięki czemu dysk sprawia wrażenie, jakby miał identyczną liczbę sektorów na ścieżce. Ponieważ BIOS komputera PC potrafi przechowywać jedynie jedną wartość sektorów na ścieżce dla całego dysku, dysk z zapisem strefowym musi posiadać mechanizm translacji adresów sektorów.

Wykorzystanie zapisu strefowego pozwoliło producentom dysków zwiększyć ich pojemność o 20% do 50% w porównaniu z dyskami o stałej liczbie sektorów na ścieżkę. Wszystkie nowoczesne dyski ATA (IDE) i SCSI korzystają z zapisu strefowego.

Partycjonowanie

Tworzenie partycji na dysku twardym pozwala na obsługę różnych systemów plików na osobnych partycjach.

Każdy system plików posiada inny sposób rezerwowania wolnego miejsca z wykorzystaniem klastrów lub jednostek alokacji. Każdy dysk twardy musi posiadać co najmniej jedną, a co najwyżej cztery partycje, z któ­rych każda może być obsługiwana przez ten sam lub różne systemy plików. Najczęściej używanymi systema­mi plików w systemach operacyjnych dla PC są:

Do czasu premiery systemu Windows XP, FAT32 był najczęściej stosowanym systemem plików. Ponieważ NTFS jest systemem podstawowym dla XP, teraz on staje się coraz popularniejszy. System plików FAT jest odczytywany przez niemal każdy system operacyjny, co powoduje, że jest najbardziej kompatybilny w śro­dowisku wielosystemowym. Systemy FAT32 i NTFS posiadają dodatkowe funkcje, ale często nie są one do­stępne z poziomu innych systemów operacyjnych.

► ► Zajrzyj do podrozdziału „FAT" znajdującego się na stronie 1243 i „FAT32" znajdującego się na stronie 1261.

Partycjonowanie jest najczęściej wykonywane przez program FDISK wchodzący w skład systemu operacyjne­go. Program FDISK pozwala na wybór ilości miejsca na tworzonej partycji z dokładnością od 1 MB aż do ca­łej pojemności dysku lub maksymalnej wielkości partycji dopuszczanej przez wybrany system plików. Zwykle lepiej maksymalnie ograniczyć liczbę partycji, a wielu użytkowników (w tym i ja) korzysta tylko z jednej lub co najwyżej dwóch. Było to trudniejsze przed wprowadzeniem systemu plików FAT32, ponieważ maksymal­na wielkość partycji dla systemu FAT wynosi jedynie 2 GB. W przypadku FAT32 maksymalna wielkość par­tycji została zwiększona do 2048 GB.

0x08 graphic
Program FDISK nie może być wykorzystany do zwiększenia wielkości partycji; potrafi on jedynie utwo­rzyć lub usunąć partycję. W procesie usuwania i tworzenia partycji niszczone są wszystkie dane. jakie byty w niej zapisane. Aby manipulować partycjami bez utraty danych, należy skorzystać z pro­gramów narzędziowych, takich jak Partition Magie firmy PowerQuest lub Partition Commander fir­my V-Communications.

0x08 graphic
Po partycjonowaniu dysku każda z założonych partycji musi zostać sformatowana przez system operacyjny, który będzie z niej korzystał.

Formatowanie wysokiego poziomu

W czasie formatowania wysokiego poziomu system operacyjny zapisuje wszystkie struktury niezbędne do zarządzania danymi na dysku. Na przykład, partycja FAT posiada dla każdego dysku logicznego tzw. Yolume Boot Sector (VBS) dwie kopie tablicy alokacji plików (FAT) oraz katalog główny. Te struktury pozwalają sys­temowi operacyjnemu na zarządzanie wolnym miejscem na dysku, zapamiętywanie położenia plików, a na­wet zarządzanie uszkodzonymi obszarami tak, aby nie przeszkadzały one w normalnej pracy systemu.

Formatowanie wysokiego poziomu nie wykonuje fizycznego formatowania dysku, a raczej tworzy spis treści dysku. W procesie formatowania niskopoziomowego, które jest prawdziwym, fizycznym formatowaniem, na dysk są zapisywane ścieżki i sektory. Tak jak wspomniałem, program FORMAT systemu DOS może wykonywać formatowanie niskiego i wysokiego poziomu dla dyskietki, ale dla dysków twardych wykonuje jedynie formatowanie wysokiego poziomu. Formatowanie niskiego poziomu dysków ATA i SCSI jest wyko­nywane przez producenta i niemal nigdy nie jest wykonywane przez użytkownika. Formatowanie niskopozio-mowe dysku ATA lub SCSI zdarzyło mi się wykonywać jedynie wtedy, gdy próbowałem naprawić uszkodzo­ny format (części dysku nie dało się odczytać) lub w niektórych przypadkach, gdy chciałem usunąć wszystkie dane z dysku.

Podstawowe części dysku twardego

Na rynku dostępnych jest wiele typów dysków twardych, ale niemal wszystkie korzystają z tych samych pod­stawowych komponentów. Różnice mogą wystąpić w implementacji tych komponentów (i oczywiście jakości zastosowanych przy produkcji materiałów), ale charakterystyka pracy większości z nich jest podobna. Pod­stawowe składniki typowego dysku twardego to (patrz rysunek 10.6):

Talerze, silnik, głowice i pozycjoner głowic są zwykle umieszczone w zamkniętej komorze określanej jako HDA (ang. Hard Disk Assembly — zespół głowic i dysku). Układ HDA jest zwykle traktowany jako jeden element i rzadko jest otwierany. Pozostałe części dysku, takie jak płytka z układami kontrolera, obejma i po­zostałe części mogą być zdemontowane z dysku.

0x01 graphic

Talerze dysku twardego (dyski)

Dysk twardy ma jeden lub więcej talerzy, czyli dysków. W historii dysków przeznaczonych dla systemów PC. były one dostępne w kilku wielkościach. Zwykle wielkość dysku jest określana wielkością talerzy. W dyskach twardych do komputerów PC używane były następujące wielkości:

Dostępne są również dyski 8-calowe lub 14-calowe, ale nie są one używane w komputerach PC. W chwili obecnej najpopularniejsze dyski dla komputerów biurkowych i niektórych przenośnych to 3,5 cala, a 2,5 cala i mniejsze są bardzo popularne w notebookach. W roku 1998 IBM wprowadził na rynek dysk o nazwie Micro-drive, który w chwili obecnej może pomieścić 1 GB na pojedynczym talerzu o średnicy jednej czwartej cala! Dyski te mają fizyczny i elektryczny format karty Compact Flash typu II (CF), co oznacza, że mogą być uży­wany we wszystkich urządzeniach korzystających z kart CF, na przykład w aparatach cyfrowych, odtwarza­czach MP3 i palmtopach. Kilka firm wprowadziło na rynek napędy 1,8 cala, a najbardziej znane pośród nich to HP, Calluna i Toshiba. Z tych firm jedynie Toshiba kontynuuje produkcję takich dysków. W roku 2000 Toshiba wprowadziła do sprzedaży dysk 1,8 cala, który ma fizyczny format PC Card typu II. Dyski te mają pojemność do 5 GB i mogą być wykorzystane w laptopach i innych urządzeniach, gdzie można podłączyć standardowe urządzenie PC Card.

Większość dysków posiada dwa lub więcej talerzy, choć małe modele wykorzystywane w systemach przeno­śnych mają jedynie jeden. Liczba talerzy jest ograniczana przez wysokość dysku. Maksymalna liczba talerzy jaką widziałem to 12, jednak większość korzysta z 6 i mniej.

Talerze są najczęściej wykonane ze stopu aluminium z magnezem, który zapewnia zarówno wytrzymałość, jak i niewielką wagę. Jednak producenci, chcąc osiągać coraz większe gęstości zapisu danych na swoich dys­kach, wypuszczają mniejsze modele z talerzami wykonanymi ze szkła (a dokładniej kompozytu ceramiczno-szklanego). Materiał ten produkowany jest przez firmę Dow Corning Corporation i nazywany MemCor. Mem-Cor składa się ze szkła z ceramicznymi wstawkami zapewniającymi większą odporność na pękanie niż czyste szkło. Szklane talerze są bardziej sztywne niż metal (ponieważ metal może się zginać, a szkło nie) i dlatego mogą mieć grubość o połowę mniejszą niż konwencjonalne dyski aluminiowe. Dyski szklane mają większą stabilność cieplną niż dyski aluminiowe, co oznacza, że nie rozszerzają się i nie kurczą wraz ze zmianami temperatury. Kilka nowych dysków twardych wyprodukowanych przez firmy IBM, Seagate, Toshiba, Areał Technology i Maxtor korzysta ze szklanych talerzy; firma IBM projektuje już wszystkie nowe dyski z wyko­rzystaniem takiej technologii. W przypadku większości pozostałych producentów szkło zastąpi standardowy stop magnezu z aluminium w przeciągu kilku następnych lat.

Nośniki zapisu

Niezależnie od materiału użytego do wykonania talerzy, są one pokryte cienką warstwą substancji czynnej magnetycznie, nazywanej nośnikiem, na której zapisywane są dane. Wykorzystuje się trzy rodzaje nośników magnetycznych:

Tlenki

Nośnik wykorzystujący tlenki zawiera tlenek żelaza jako składnik aktywny. Warstwa magnetyczna jest two­rzona przez powleczenie aluminiowego talerza gęstym płynem zawierającym cząstki tlenku żelaza. Jest on rozprowadzany poprzez obracanie talerza z dużą prędkością— siła odśrodkowa powoduje rozpłynięcie się materiału od środka talerza do jego brzegów, tworząc równą warstwę materiału. Powierzchnia jest następnie utwardzana i polerowana. Na koniec nakładana jest warstwa materiału zabezpieczającego i smarującego po­wierzchnię. Powłoka tlenków ma grubość około 10 nm. Jeżeli mógłbyś zajrzeć do napędu z talerzami pokry­tymi tlenkami, zauważyłbyś, że mają one kolor od brązowego do bursztynowego.

Wraz ze wzrostem gęstości zapisu w dyskach, warstwa magnetyczna musiała stawać się coraz cieńsza i per­fekcyjnie uformowana — możliwości nośnika wykorzystującego tlenki zostały już wyczerpane. Ponieważ powierzchnia nośnika korzystającego z tlenków jest bardzo miękka, jest on narażony na uszkodzenie podczas uderzenia głowicy zachodzącego, gdy dysk zostanie potrząśnięty podczas pracy. Większość starszych dys­ków, szczególnie tych najtańszych, korzysta z takich właśnie talerzy. Nośnik tlenkowy był używany od roku 1955 i pozostawał popularny z powodu swojej niskiej ceny i łatwości stosowania. Dziś bardzo niewiele napę­dów korzysta z tej technologii.

Nośnik cienkowarstwowy

Nośnik cienkowarstwowy jest cieńszy, twardszy i dokładniej uformowany niż nośnik tlenkowy. Został za­projektowany jako nośnik o ogromnych możliwościach pozwalający skonstruować nową generację napędów, w których zmniejszono odległości głowicy od nośnika, co z kolei pozwoliło na zwiększenie gęstości zapisu. Na początku nośnik cienkowarstwowy był używany jedynie w dyskach o dużej pojemności i wysokiej jakości. ale w chwili obecnej niemal wszystkie dyski korzystają z niego.

„Nośnik cienkowarstwowy" to bardzo trafna nazwa. Warstwa tego nośnika jest dużo cieńsza niż tworzona przy wykorzystaniu nośnika tlenkowego. Nośnik cienkowarstwowy jest nazywany również galwanizowanym lub napylanym, ponieważ do nakładania nośnika na talerze stosowane są te właśnie metody.

Nośnik cienkowarstwowy jest nakładany na talerz za pomocą metody galwanicznej, sposobem podobnym do tego, w jaki nakłada się chrom na zderzaki samochodów. Stop aluminium i magnezu lub szkło jest zanurzane w kilku kąpielach chemicznych, które powodują pokrycie go kilkoma warstwami metalicznymi. Nośnikiem jest warstwa stopu kobaltu o grubości około 40 mikrometrów.

Nośnik cienkowarstwowy jest nakładany poprzez pokrycie aluminiowych talerzy warstwą fosforku niklu, a następnie nałożenie magnetycznego stopu kobaltu w ciągłym procesie nakładania próżniowego nazywanego napylaniem. Metoda ta pozwala na nakładanie warstw magnetycznych o grubości poniżej 40 mikrometrów i jest podobna do nakładania warstwy metalicznej na płytki krzemowe w przemyśle półprzewodnikowym. Ta sama technika napylania jest stosowana następnie do nałożenia niezwykle twardej, 40-mikrometrowej ochron­nej warstwy węgla. Stosowanie niemal całkowitej próżni powoduje, że proces napylania jest najbardziej kosz­townym opisanym tu procesem.

Powierzchnia napylonych talerzy ma warstwę magnetyczną o grubości 40 mikrometrów. Ponieważ warstwa ta jest również bardzo gładka, głowica może unosić się bliżej dysku, niż było to możliwe wcześniej. Odległość ta wynosi jedynie 10 nanometrów. Gdy głowica jest bliżej dysku, gęstość strumienia magnetycznego może być zwiększona, aby uzyskać większą pojemność zapisu. Dodatkowo, zwiększona intensywność pola magne­tycznego w czasie odczytu zapewnia większą amplitudę sygnałów, niezbędną do osiągania dobrego odstępu pomiędzy sygnałem a szumami.

Zarówno proces napylania, jak i galwanizacji dają w wyniku bardzo cienką powierzchnię nośnika magnetycz­nego. Ponieważ nośnik cienkowarstwowy jest tak twardy, istnieje mniejsza szansa uszkodzenia go podczas zderzenia z głowicą przy pełnej prędkości. Właściwie nowoczesne napędy korzystające z nośnika cienkowar­stwowego są niemal niezniszczalne. Jeżeli mógłbyś otworzyć obudowę i obejrzeć talerze, zobaczyłbyś, że dyski pokryte nośnikiem cienkowarstwowym mają lustrzaną powierzchnię.

Nośnik AFC

Najnowsza technologia to nośniki sprzężone antyferromagnetycznie (AFC). Zaprojektowana została w celu umożliwienia zastosowania gęstości przekraczających dzisiejsze ograniczenia. Za każdym razem, gdy zwięk­szana jest gęstość, warstwa magnetyczna musi być coraz cieńsza. Gęstość powierzchniowa (ścieżki na cal / bity na cal) zwiększyła się do tego stopnia, że ziarna w warstwie magnetycznej używane do zapisu danych są zbyt małe, aby być stabilne przez dłuższy czas, co owocuje powstaniem niepewnego zapisu. Sytuacja ta jest nazywana ograniczeniem superparamagnetycznym i występuje pomiędzy 30 a 50 GB/cal kwadratowy. Dzi­siejsze dyski osiągają 35 GB/cal kwadratowy, co oznacza, że ograniczenie superparamagnetyczne zacznie już niedługo wpływać na projekty nowych napędów.

Nośnik AFC składa się z dwóch warstw magnetycznych rozdzielonych bardzo cienką, 3-atomową(6 angstre-mów) warstwą rutenu. IBM nazwał tę ultracienką warstwę pixie dust. Ta „kanapka" tworzy sprzężenie antyter-romagnetyczne pomiędzy warstwą górną i dolną powodujące, że pozorna grubość magnetyczna całej struktu­ry wynosi tyle co różnica pomiędzy górną i dolną warstwą. Pozwala to na wykorzystanie fizycznie grubszych warstw magnetycznych, posiadających większe i bardziej stabilne ziarna, funkcjonujących razem jako jedna, dużo cieńsza warstwa.

IBM zastosował nośnik AFC w kilku dyskach, rozpoczynając od serii 2,5-calowych dysków Travelstar wpro­wadzonych na rynek w roku 2001; były to pierwsze dyski stosujące nośnik AFC. Dodatkowo, IBM zastoso­wał nośnik AFC w dysku 3,5-calowym przeznaczonym dla komputerów stacjonarnych, Deskstar 120 GXP. Można się spodziewać, że inni producenci również wprowadzą ten typ nośnika do swoich dysków. Wykorzy­stanie technologii AFC pozwala na zwiększenie gęstości powierzchniowych rzędu 100 GB/cal kwadratowy.

Głowice odczytująco-zapisujące

Dyski twarde mają najczęściej jedną głowicę odczytująco-zapisującą dla każdej powierzchni dysku (czyli każdy talerz posiada dwie głowice —jedną dla dolnej powierzchni i jedną dla górnej). Głowice są przyłączone do jed­nego mechanizmu poruszającego nimi, dlatego wszystkie głowice są razem przesuwane po powierzchni dysku.

Budowa głowic odczytująco-zapisujących jest prosta. Każda głowica znajduje się na ramieniu pozycjonera, które jest sprężyste i dociska ją do talerza. Niewielu ludzi zdaje sobie sprawę, że każdy talerz jest ściskany z dołu i z góry przez głowice. Jeżeli otworzyłbyś bezpiecznie dysk i podniósł górną głowicę, to po jej puszcze­niu zostanie ona przyciągnięta do powierzchni talerza. Jeżeli odciągniesz jedną głowic z dolnej powierzchni talerzy, sprężyste ramię wróci do góry po jej puszczeniu.

Na rysunku 10.7 pokazany jest typowy układ pozycjonera głowic pochodzący z dysku z napędem w postaci cewki swobodnej.

0x08 graphic
0x01 graphic

Gdy dysk jest w stanie spoczynku, głowice są dociskane przez sprężyste ramiona do talerzy, ale gdy dysk rozpędzi się do prędkości roboczej, ciśnienie powietrza tworzy poduszkę powietrzną unoszącą głowice nad jego powierzchnię. Gdy dysk obraca się z pełną prędkością, odległość pomiędzy głowicami i talerzem wynosi w nowoczesnych dyskach od 0,01 mikrometra do 0,1 mikrometra i więcej.

Na początku lat sześćdziesiątych głowice dysków były oddalone od talerzy o 5 - 7 mikrometrów; w dzisiej­szych napędach głowice są oddalone od talerza o około 10 nanometrów. Aby zapewnić większą gęstość zapisu w dyskach przyszłości, głowice i dysk będąjeszcze bliżej siebie, a w niektórych dyskach będą nawet spoczy­wały na powierzchni talerza. Do zapisu z wykorzystaniem pełnego lub częściowego kontaktu głowic z tale­rzem potrzebne będą nowe projekty nośników i głowic.

0x08 graphic
Mały odstęp pomiędzy talerzami i głowicami stanowi główny powód, dla którego nie należy otwie­rać HDA dysku, jeżeli nie można tego zrobić w odpowiednio czystym środowisku. Dowolna cząstka kurzu lub brudu, która dostałaby się do mechanizmu, może powodować niewłaściwy odczyt danych lub nawet uderzenie głowic o talerze obracające się z pełną prędkością. W takim przypadku może dojść do zarysowania powierzchni talerza i jego trwałego uszkodzenia.

0x08 graphic
Aby zapewnić odpowiednią czystość wnętrza dysku, układy HDA są montowane w pomieszczeniach o klasie czystości 100 lub lepszej. Specyfikacja ta oznacza, że w metrze sześciennym powietrza nie może się znajdo­wać więcej niż 100 cząstek o wielkości do 0,5 mikrona. Nieruchoma osoba wydycha w ciągu minuty około 500 takich cząstek! Pomieszczenia te posiadają specjalne urządzenia filtrujące, które ciągle oczyszczają po­wietrze. Układ HDA może być otwierany jedynie w takim pomieszczeniu.

Choć utrzymywanie tak czystego środowiska może wydawać się drogie, wiele firm produkuje tego typu ko­mory przeznaczone do ustawienia na stole. Niektóre z tych urządzeń działają jako komora rękawicowa, ope­rator wkłada napęd i potrzebne narzędzia, zamyka urządzenie i włącza system filtracyjny. Wewnątrz urządze­nia tworzy się sterylne środowisko, a operator może poprzez wbudowane rękawice pracować nad napędem.

W innym rozwiązaniu, operator stoi przy biurku, gdzie kurtyna powietrzna wytwarza na jego powierzchni czystą atmosferę. Operator wchodzi do pomieszczenia i z niego wychodzi poprzez kurtynę powietrzną. Kur­tyny podobnego typu są stosowane w niektórych sklepach i domach towarowych w celu zapobiegania przed uciekaniem w zimie ciepłego powietrza przez otwarte drzwi.

Ponieważ tworzenie czystego środowiska jest kosztowne, niewiele firm poza producentami dysków posiada właściwe wyposażenie do serwisowania dysków twardych.

Rodzaje głowic odczytująco-zapisujących

Wraz z rozwojem technologii dysków twardych zmieniały się również głowice. Pierwsze głowice były rdze­niami żelaznymi z nawiniętą cewką (elektromagnes). Zgodnie z dzisiejszymi standardami pierwsza głowica

była ogromna i zapewniała bardzo małą gęstość zapisu. Z czasem głowice rozwinęły się od pierwszych gło­wic ferrytowych do stosowanych dzisiaj głowic magnetorezystywnych.

Więcej informacji na temat różnych rodzajów głowic znajduje się w rozdziale 9., „Świat urządzeń o zapisie magnetycznym".

Mechanizm pozycjonera głowicy

Prawdopodobnie ważniejszy niż sama głowica jest układ mechaniczny służący do jej przesuwania — pozy­cjoner głowicy. Mechanizm przesuwa głowice poprzecznie po dysku i ustawia je precyzyjnie nad żądanym cylindrem. Wykorzystywane są różne mechanizmy pozycjonera, ale można je podzielić na dwie kategorie:

Wykorzystanie jednego z tych typów pozycjonera ma głębokie konsekwencje odnośnie wydajności i niezawod­ności dysku. Nie ograniczają się jedynie do prędkości, ale także obejmują dokładność, wrażliwość na tempe­raturę, pozycję, wibracje i ogólną niezawodność. Pozycjoner głowicy jest najważniejszym pojedynczym ele­mentem dysku i typ jego mechanizmu ma duży wpływ na wydajność dysku i charakterystykę niezawodności. W tabeli 10.3 zestawione są dwa typy pozycjonerów głowicy i ich wpływ na charakterystykę wydajności.

0x01 graphic

Pozycjonery z silnikiem krokowym były powszechnie stosowane w dyskach twardych produkowanych w la­tach 80 i na początku lat 90, które miały pojemność 100 MB i mniej. Wszystkie dyski o większej pojemności, z jakimi się spotkałem, korzystają z pozycjonera ze swobodną cewką.

Napędy dyskietek korzystają do ustawiania głowic z pozycjonera z silnikiem krokowym. Dokładność mecha­nizmu krokowego jest wystarczająca dla dyskietek, ponieważ gęstość ścieżek zwykle nie zbliża się nawet do gęstości stosowanych w dysku twardym. Dla dyskietki 1,44 MB wartość ta wynosi 135 ścieżek na cal, nato­miast dyski twarde mają gęstość powyżej 5000 ścieżek na cal. Wszystkie produkowane dziś dyski korzystają z pozycjonerów ze swobodną cewką, ponieważ silniki krokowe nie zapewniają wystarczającej dokładności.

Pozycjoner z silnikiem krokowym

Silnik krokowy jest silnikiem elektrycznym, który potrafi wykonywać „kroki" — przesunięcia pomiędzy po­zycjami. Jeżeli będziemy próbować ręcznie obrócić oś takiego silnika, usłyszymy trzaski lub buczenie, gdy silnik będzie przełączał się pomiędzy kolejnymi zaczepami pozycji.

Silniki krokowe nie mogą zatrzymać się pomiędzy pozycjami; zatrzymują się jedynie na z góry określonych pozycjach. Silniki te są niewielkie (pomiędzy 2,5 a 4,5 cm) i mogą być kwadratowe, cylindryczne lub płaskie. Silniki krokowe nie są zamknięte w HDA — oś silnika wchodzi do HDA przez uszczelniony otwór.

Mechanizm silnika krokowego sprawia wiele problemów, a największym z nich jest temperatura. Gdy talerze dysku nagrzewają się i stygną, to rozszerzają się i kurczą, przez co ścieżki przesuwają się w stosunku do wy­znaczonych pozycji. Mechanizm pozycjonera nie może ustawiać się dokładnie na ścieżce, aby skorygować efekt zmian temperatury. Dysk pozycjonuje głowice na określonym cylindrze wykonując jedynie określoną ilość kroków silnika.

Na rysunku 10.8 pokazano budowę mechanizmu pozycjonera z silnikiem krokowym, w którym do przenosze­nia napędu obracającej się osi silnika na sam pozycjoner głowicy wykorzystuje się dzieloną taśmę stalową.

0x01 graphic

Pozycjoner ze swobodną cewką

Pozycjoner ze swobodną cewką jest używany niemal we wszystkich dziś stosowanych dyskach, ponieważ w przeciwieństwie do rozwiązania z silnikiem krokowym może wykorzystać sygnał zwrotny z dysku i do­kładnie określić położenie głowicy oraz skorygować je w razie potrzeby. Taka konstrukcja zapewnia znacznie większą wydajność, dokładność i niezawodność w porównaniu z tradycyjnymi pozycjonerami z silnikami krokowymi.

Pozycjoner ze swobodną cewką wykorzystuje jedynie siły elektromagnetyczne. Jego budowa jest podobna do konstrukcji zwykłego głośnika. Głośniki posiadają stacjonarny magnes, wokół którego znajduje się cewka połączoną z papierową membraną. Przepuszczenie prądu przez cewkę powoduje jej przesunięcie względem stacjonarnego magnesu i wygenerowanie dźwięku poprzez poruszanie membraną. W typowym układzie dysku twardego ze swobodną cewką, cewka jest podłączona do końca stojaka głowic i umieszczona blisko magne­su stacjonarnego. Pomiędzy magnesem i cewką nie zachodzi fizyczny kontakt; cewka jest poruszana jedynie przez pole magnetyczne. Gdy przez cewkę zostanie przepuszczony prąd, jest ona przyciągana lub odpychana przez magnes i w ten sposób przesuwa ramiona z głowicami. Systemy tego typu są niezwykle szybkie, efek­tywne i najczęściej wytwarzają mniejszy hałas niż systemy z silnikami krokowymi.

W przeciwieństwie do silnika krokowego, swobodna cewka nie posiada żadnych mechanicznych zaczepów; zamiast tego, specjalny system sterujący zatrzymuje ramię z głowicami nad określonym cylindrem. Ponieważ nie ma żadnych mechanicznych zaczepów, pozycjoner ze swobodną cewką może płynnie przesuwać głowice na dowolną pozycję. Pozycjoner ze swobodną cewką korzysta z mechanizmu sterującego zwanego serwo, wskazującego pozycjonerowi, gdzie znajdują się głowice i umieszczają je dokładnie na żądanej pozycji. System pozycjonowania często jest nazywany mechanizmem z zamkniętą pętlą zwrotną. Do elektroniki pozycjonera wysyłany jest sygnał indeksowy (lub serwo), a w odpowiedzi otrzymywany jest sygnał zwrotny wykorzysty­wany do dokładnego ustawienia głowic.

System ten jest nazywany również systemem z serwosterowaniem, co odnosi się do informacji serwo lub indeksowych używanych do sterowania dokładnym położeniem głowicy.

Pozycjoner ze swobodną cewką z serwosterowaniem jest niewrażliwy na zmiany temperatury. Gdy zmiana temperatury powoduje rozszerzenie lub skurczenie talerzy dysku, system swobodnej cewki automatycznie je kompensuje, ponieważ nigdy nie ustawia on głowic na predefiniowanej pozycji ścieżki, Zamiast tego, system sterowania swobodną cewką szuka określonej ścieżki naprowadzany zapisanymi danymi, a następnie ustawia głowice nad wymaganą ścieżką, niezależnie gdzie się ona znajduje. Ponieważ dane zwrotne informacji serwo są ciągłe, głowice zawsze nastawiają się na bieżącą pozycję ścieżki. Na przykład, wraz z nagrzewaniem się dysku i rozszerzaniem się talerzy, informacje serwo pozwalają na „śledzenie" ścieżki. W wyniku tego pozy­cjoner ze swobodną ścieżką jest nazywany systemem ze śledzeniem ścieżki.

Istnieją dwa główne typy mechanizmów pozycjonera ze swobodną cewką:

Te dwa typy różnią się jedynie fizycznym rozmieszczeniem magnesów i cewki.

Pozycjoner liniowy

Pozycjoner liniowy przesuwa głowice nad talerzami po prostej (patrz rysunek 10.9). Cewka przesuwa się w przód i tył na ścieżce otoczonej magnesami stacjonarnymi. Podstawową zaletą mechanizmu liniowego jest wyeliminowanie odchyleń azymutu głowicy zachodzących przy obrotowym systemie pozycjonowania (azy­mut to miara kątowa pozycji głowicy względem stycznej do podanego cylindra). Pozycjoner liniowy nie ob­raca głowicami, przesuwając je między cylindrami, więc problem ten jest usunięty.

0x01 graphic

Choć pozycjoner liniowy wydaje się dobrym projektem, posiada on jedną poważną wadę — urządzenia są zbyt ciężkie. Wraz ze wzrostem wydajności dysków niezwykle ważne jest stosowanie lekkich mechanizmów pozycjonera. Im lżejszy mechanizm, tym szybciej przyspiesza i hamuje. Ponieważ mechanizmy te są znacz­nie cięższe niż pozycjonery obrotowe, pozycjonery liniowe były popularne jedynie przez krótki czas; nie są one stosowane w produkowanych obecnie dyskach.

Pozycjonery obrotowe również korzystają ze stacjonarnych magnesów i przesuwających się cewek, ale cewka jest umieszczona na końcu ramienia pozycjonera. Gdy cewka się przesuwa względem nieruchomego magne­su, przesuwa ramię głowicy nad powierzchnią dysku. Podstawową zaletą tego mechanizmu jest niska waga, co oznacza, że głowice mogą przyspieszać i hamować bardzo szybko, co daje w efekcie krótkie czasy dostę­pu. Z powodu efektu dźwigni na ramieniu głowicy, głowice przesuwają się szybciej niż pozycjoner, co rów­nież pozwala poprawić czas dostępu (schemat pozycjonera obrotowego znajduje się na rysunku 10.7).

Wadą systemu obrotowego jest to, że gdy głowica przesuwa się od cylindrów zewnętrznych do wewnętrz­nych, obracają się one nieco względem stycznej do cylindra. Obrót ten powoduje błąd azymutu i jest jednym z powodów ograniczenia powierzchni talerzy, na której mogą znajdować się ścieżki. Ograniczenie całkowite­go ruchu pozycjonera pozwala na zmniejszenie błędu azymutu do rozsądnej wielkości. Niemal wszystkie dzi­siejsze napędy korzystają z obrotowych systemów pozycjonerów.

12



Wyszukiwarka

Podobne podstrony:
Dyski twarde-woluminy, Szkoła, Systemy Operacyjnie i sieci komputerowe, systemy, semestr II
Dyski twarde-konspekt, Szkoła, Systemy Operacyjnie i sieci komputerowe, utk, semestr II
Dyski twarde-konspekt1, Szkoła, Systemy Operacyjnie i sieci komputerowe, utk, semestr II
Dyski twarde od A do Z Dyski tw Nieznany
03 Dyski Twarde
Dyski twarde i interfejsy dyskowe
Dyski twarde i elastyczne
Dyski twarde
Co to są partycje i dyski logiczne, Systemy i sieci
Pamięci masowe-dyski twarde, wrzut na chomika listopad, Informatyka -all, INFORMATYKA-all, Informaty
dyski twarde1
dyski twarde ssd hd hybrydowe wady i zalety
Kompatybilne dyski twarde
Dyski Twarde HDD
DYSKI TWARDE 2
34 ASK Dyski Twarde (Marek Kobus)
Dyski twarde
Dyski Twarde 4

więcej podobnych podstron