Dyski twarde
Definicja dysku twardego
Dla wielu użytkowników komputera dysk twardy jest jednym z najważniejszych i jednocześnie najbardziej tajemniczych elementów systemu. Jest to szczelnie zamknięte „pudełko", którego komputer PC używa do nie-ulotnego przechowywania danych. Przechowywanie nieulotne oznacza, że urządzenie zapisujące przechowuje dane nawet po wyłączeniu zasilania. Ponieważ dysk twardy przechowuje dane aż do chwili ich rozmyślnego usunięcia lub nadpisania, wykorzystywany jest on do gromadzenia ważnych danych i programów. W związku z tym konsekwencje jego awarii są zwykle bardzo poważne. Aby prawidłowo użytkować, serwisować i rozbudowywać komputer PC, powinieneś wiedzieć, jak działa dysk twardy.
Dysk twardy składa się z sztywnych talerzy zwykle wykonanych z aluminium lub szkła (patrz rysunek 10.1). W przeciwieństwie do dyskietki, talerze nie mogą być zginane — stąd nazwa „dysk twardy". Z większości napędów dysków twardych nie można wyjąć talerzy, i stąd wzięło kolejne określenie — „dysk stały". Jednak dostępne są również wymienne dyski twarde. Czasami nazwą tą opisywane są urządzenia, gdzie wyjmowana jest cała jednostka (czyli dysk i napęd), ale częściej używa się jej wobec napędów, w których talerze znajdują się w osobnej kasecie.
Dyski twarde są czasami określane jako dyski Winchester. Nazwa ta powstała w roku 1973, gdy IBM wprowadził napęd 3340, który miał pojemność 30 MB na stałych talerzach i 30 MB na talerzach wymiennych, umieszczonych na osobnych osiach. Dysk został nazwany „Winchester" przez szefa projektu Kena Haughtona, ponieważ oznaczenie początkowej pojemności (30-30) było bardzo podobne do nazwy popularnych nabojów 30-30 używanych w karabinie Winchester z 1895 roku. Oryginalny napęd 3340 „Winchester" był pierwszym urządzeniem, w którym głowice i mechanizmy dysku były szczelnie zamknięte. Określenie to było wykorzystywane dla kolejnych dysków o podobnej technologii wykonania.
Rozwój dysków twardych
W roku 1957 Cyryl Northcote Parkinson opublikował słynny zbiór esejów zatytułowany „Prawa Parkinsona", który rozpoczyna się zdaniem: „Ilość pracy wzrasta tak szybko, że wypełnia cały czas dostępny na jej wykonywanie". Wniosek wypływający ze słynnego „prawa" Parkinsona odnosi się również do dysków twardych: „Ilość danych przyrasta w takim tempie, że wypełniają one całą powierzchnię dostępną do ich przechowywania". Oznacza to, że bez względu na to, jak duży jest dysk twardy, zawsze znajdziesz sposób na jego zapełnienie. Sprawdza się to co do joty od czasu zakupienia przeze mnie pierwszego dysku twardego niemal 20 lat temu.
Mimo że doskonale zdaję sobie sprawę z wykładniczego wzrostu możliwości wszystkiego, co jest związane z komputerami, nadal jestem zdziwiony, jak ogromne i szybkie stały się dzisiejsze dyski. Pierwszym dyskiem, który kupiłem w roku 1983, był 10 MB (10 megabajtów, nie gigabajtów) Miniscribe model 2012 posiadający talerze o średnicy 5,25 cala, napęd miał wielkość 200 mm x 140 mm x 80 mm i ważył 2,5 kg (więcej niż niektóre laptopy)! Dla porównania, dysk Seagate Barracuda 180 (w chwili, gdy piszę te słowa, jest to największy dostępny dysk 3,5-calowy) korzysta z mniejszych, 3,5-calowych talerzy, ma wymiary 145 mm x 100 mm x 40 mm, waży jedynie 1,04 kg i może przechować 181,6 GB danych (czyli 18 160 razy więcej i mieści się w obudowie, która jest cztery razy mniejsza i o połowę lżejsza). To ogromny skok w przeciągu 20 lat!
Książka „Prawa Parkinsona" (ISBN: 1-5684-9015-1) jest nadal drukowana i jest dziś uważana za jedną z najważniejszych książek dotyczących biznesu i ekonomii.
Aby uzmysłowić sobie, jak długą drogę przeszły dyski twarde w czasie swojej ponaddwudziestoletniej historii, zebrałem razem kilka faktów, które zaszły w tym czasie:
♦ Maksymalna pojemność zwiększyła się z 5 i 10 MB na dyskach 5,25 cala o pełnej wysokości,
dostępnych w roku 1982, do ponad 180 GB na dysku 3,5-calowym o połowie wysokości (Seagate
Barracuda 180) i ponad 60 GB na 2,5-calowych napędach dla notebooków (IBM Travelstar 60GH),
które mają wysokość 12,5 mm (lub mniej). Dyski twarde mniejsze od 30 GB są rzadkością
w sprzedawanych dzisiaj komputerach stacjonarnych.
Prędkość przesyłu danych na i z nośnika (ciągły transfer danych) zwiększył się od 85 kB/s i 105 kB/s
w oryginalnym IBM XT w roku 1983 do ponad 60 MB/s dla najszybszych dzisiaj spotykanych
dysków (Seagate Cheetah X15 36LP).
Średni czas dostępu (czas przesunięcia głowicy do wybranego cylindra) skrócił się od ponad 85 ms
(milisekund) dla 10 MB dysku używanego przez IBM w IBM XT z roku 1983, do mniej niż 3,6 ms
dla najszybszych napędów (Seagate Cheetah Xl5).
W latach 1982 - 1983 napęd 10 MB wraz z kontrolerem kosztował ponad 2000 dolarów (200 dolarów
czyli 800 zł za megabajt), a ówczesny dolar miał dwa razy większą wartość niż dziś. Obecnie cena
dysku twardego (ze zintegrowanym kontrolerem) spadła do poniżej 2/3 grosza za megabajt i 400 zł
za dysk 60 GB.
Działanie dysku twardego
Podstawowymi elementami dysku twardego są obracające się talerze oraz przesuwające się nad nimi głowice zapisujące dane w sektorach ścieżek. Głowice odczytują i zapisują dane na koncentrycznych okręgach zwanych ścieżkami, które są podzielone na fragmenty zwane sektorami, które najczęściej przechowują po 512 bajtów (rysunek 10.2).
Wewnątrz obudowy napędu umieszczonych jest wiele dysków zwanych talerzami, ułożonych jeden nad drugim i obracającymi się wspólnie. Na każdym z dysków dane mogą być przechowywane po obu stronach. Większość napędów posiada dwa lub trzy talerze, co daje cztery lub sześć stron, ale istnieją również dyski o 12 talerzach i 24 stronach, posiadające 24 głowice (Seagate Barracuda 180). Identycznie położone ścieżki na każdej stronie talerzy tworzą cylinder (rysunek 10.3). Dyski mają najczęściej po jednej głowicy na stronę,
a wszystkie te głowice są zamontowane na wspólnym ramieniu. Głowice poruszają się razem wzdłuż promienia talerza; nie mogą poruszać się niezależnie, ponieważ są zamontowane na wspólnym urządzeniu sterującym — pozycjonerze.
Na początku większość dysków twardych obracało się z prędkością obrotową 3600 obr/min — około 10 razy szybciej niż dyskietka. Przez wiele lat prędkość ta była stała dla wszystkich dysków. W chwili obecnej większość dysków obraca się z większą prędkością; występują dyski o prędkościach obrotowych 4200 obr/min, 5400 obr/min, 7200 obr/min lub 15 000 obr/min. Większość standardowych napędów obraca się z prędkością 5400 obr/min, natomiast modele o dużej wydajności 7200 obr/min. Dyski 10 000 obr/min i 15 000 obr/min wykorzystywane sąjedynie w serwerach i stacjach roboczych o bardzo dużej wydajności, gdzie wysokie ceny, wydzielanie ciepła i hałas nie stanowią zbyt dużego problemu. Duża prędkość obrotowa połączona z szybkim mechanizmem pozycjonowania głowicy i dużą liczbą sektorów na ścieżkę powoduje, że dysk ten jest szybszy od innych.
Głowice w większości dysków nie dotykają (i nie powinny) powierzchni talerzy w czasie normalnego działania. Jednak w większości napędów głowice opierają się o talerze w czasie, gdy dysk jest wyłączony. W takim przypadku, podczas wyłączania zasilania głowice przesuwają się do najbardziej wewnętrznego cylindra, gdzie lądują na powierzchni talerza. Projekt taki jest określany jako CSS (ang. Contact Start Stop). Gdy włączone zostanie zasilanie napędu, w trakcie jego rozpędzania talerza głowice ślizgają się po jego powierzchni, aż wytworzy się cienka poduszka powietrzna pomiędzy głowicą i powierzchnią talerza, co powoduje oderwanie się ich od talerza i utrzymywanie się w niewielkiej odległości od niego. Jeżeli stabilność szczeliny wytworzonej
przez poduszkę powietrzną zostanie zakłócona przez cząstkę kurzu lub przez uderzenie, głowica może uderzyć w talerz obracający się z pełną prędkością. Jeżeli to uderzenie jest wystarczająco silne, aby spowodować uszkodzenia powierzchni dysku, zdarzenie takie nazywa się wypadkiem głowicy. Efekt uderzenia może być bardzo różny, od utraty kilku bajtów do całkowitego zniszczenia napędu. Większość napędów ma powierzchnie dysków pokryte specjalnym smarem utwardzającym, która może w ten sposób wytrzymać codzienne ..starty i lądowania", jak również bardziej poważne zderzenia.
Niektóre nowe napędy nie korzystają z projektu CSS i zamiast tego wykorzystują mechanizm ładowania i wyładowania, który nie pozwala głowicom na kontakt z talerzami nawet po wyłączeniu zasilania. Po raz pierwszy został on wykorzystany w napędach 2,5-caIowych stosowanych w laptopach i notebookach, gdzie odporność dysku na uderzenia jest bardzo istotna. Mechanizm ładowania i wyładowania wykorzystuje rampę umieszczoną zaraz obok zewnętrznego brzegu talerzy. Gdy zasilanie dysku zostanie odłączone lub dysk przejdzie w tryb oszczędzania energii, głowice są przesuwane na rampę. Gdy zasilanie zostanie przywrócone, głowice zostaną uwolnione z rampy dopiero wtedy, gdy talerze są rozpędzone do pełnej prędkości, dzięki czemu przepływ powietrza zapobiega kontaktowi głowicy z talerzem.
Ponieważ mechanizmy talerzy są zamknięte i nie mogą być wyjmowane, gęstość ścieżek na dysku może być bardzo duża. Dzisiejsze dyski twarde mają na nośniku po 66 400 lub więcej ścieżek na cal (TPI) (IBM Travelstar 60GH). Mechanizmy głowic dysku (HDA), które zawierają talerze, są montowane w pomieszczeniach, w których obowiązują bardzo wysokie wymagania dotyczące czystości. Ponieważ tylko niewiele firm serwisuje te urządzenia, naprawa i wymiana części wewnątrz HDA może być bardzo kosztowna. Każdy dysk może ulec uszkodzeniu. Jednak problemem jest to, kiedy uszkodzenie wystąpi i czy wszystkie ważne dane będą zabezpieczone.
Nie zaleca się podejmowania prób otwierania napędu bez odpowiedniego wyposażenia i doświadczenia w naprawie. Większość producentów rozmyślnie utrudnia ich otwieranie, aby zniechęcić użytkowników. Otwarcie napędu powoduje utratę gwarancji.
Wielu użytkowników wie, że dyski twarde są najdelikatniejszymi elementami komputera PC. Dlatego studenci przychodzący na moje seminaria „PC Hardware and Troubleshooting" oraz „Data Recovery" są zaskoczeni, gdy uruchamiam różne dyski twarde ze zdjętą obudową, a nawet zakładam i zdejmuję obudowę w trakcie pracy dysku! Dyski te działają świetnie do dziś niezależnie od tego, czy są zamknięte czy otwarte. Oczywiście nie zalecam robienia tego z własnym dyskiem.
Analogia obrazująca technologię dysków twardych
Istnieje stara analogia dotycząca współpracy głowic i nośnika w normalnym dysku twardym. Jest ona porównywalna do samolotu Boeing 747 Jumbo Jet lecącego około metra nad ziemią z prędkością przelotową (około 800 km/h). Przytaczam tę analogię od lat i w przeszłości nie zadawałem sobie trudu, aby sprawdzić, czy jest ona technicznie poprawna w odniesieniu do nowoczesnych dysków twardych. A nie jest!
Prawdopodobnie najbardziej niewłaściwy aspekt tej analogii to porównanie głowic do samolotu. Analogia odnosi się do faktu, że głowice lecą bardzo nisko ponad dyskiem, ale technicznie nie jest to prawda. Głowice nie lecą w tradycyjnym aerodynamicznym sensie, raczej ślizgają się na poduszce powietrznej tworzącej się nad talerzem.
Dużo lepiej będzie, jeśli zastąpimy samolot poduszkowcem; istota ruchu poduszkowca precyzyjniej oddaje działanie głowic w dysku twardym. Podobnie jak poduszkowiec, utrzymywanie się głowicy napędu w powietrzu zależy od kształtu jej dolnej powierzchni, który kontroluje przepływ powietrza między dyskiem i głowicą. Poduszka powietrzna tworzy się w niewielkiej odległości od talerza i często jest nazywana łożyskiem powietrznym.
Uważam, że nadszedł czas na utworzenie nowej analogii, lepiej obrazującej wymiary i prędkość, z jaką działają dzisiejsze napędy. Zajrzałem do specyfikacji nowoczesnych napędów i pomnożyłem dane przez współczynnik 300 000. W moim przykładzie użyłem napędu IBM Deskstar 75GXP, który jest 3,5-calowym dyskiem ATA o pojemności 75 GB. Ślizgacze głowicy (nazywane pikoślizgaczami) w tym napędzie mają wymiary 0.0019 mm długości, 0,0015 mm szerokości i 0,0005 mm wysokości. Unoszą się one na poduszce powietrznej około 15 nanometrów (nm czyli miliardowa część metra) nad powierzchnią dysku przesuwającego się pod nimi ze średnią prędkością 85 km/h (przyjmując średnią średnicę ścieżki jako 6,45 cm).
Głowice te odczytują i zapisują poszczególne bity oddalone od siebie o 0,895 mikrometrów. Głowice mogą przesunąć się na inną ścieżkę w średnim czasie 8,5 milisekundy.
Aby utworzyć moją analogię, powiększyłem skalę, aby uzyskać odległość głowicy od nośnika równą 5 mm. Ponieważ 5 milimetrów jest około 333 333 razy większe niż 15 nm, przeskalowałem wszystkie wymiary o tę wartość.
Powiększone o ten wskaźnik głowice tego dysku miałyby około 400 m wysokości, 320 m szerokości i 100 m wysokości (długość i wysokość odpowiadają wieżowcowi Sears Tower w Chicago obróconemu na bok). Te głowice o wielkości wieżowca powinny unosić się na poduszce powietrznej o grubości 5 mm, przesuwając się z prędkością 28,48 miliona kilometrów na godzinę (7911 km na sekundę — a trzecia prędkość kosmiczna to zaledwie 42 kilometry na sekundę), odczytując bity danych ułożonych co 21 mm na ścieżkach odległych od siebie o 29 cm!
Proporcjonalne zwiększenie prędkości tej modelowej głowicy jest trudne do wyobrażenia, więc nieco przybliżymy tę wartość. Średnica Ziemi na równiku wynosi 12 681 km, co daje obwód około 40 000 km. Z prędkością 7911 km/s nasz wyimaginowany drapacz chmur okrąży ziemię w czasie 5 sekund (znajdując się 5 mm nad ziemią)! Podczas tego jednego okrążenia będzie mógł odczytać 321,33 MB danych.
Trzeba również wziąć pod uwagę prędkość ruchu w bok. Ponieważ średni czas dostępu jest zdefiniowany jako czas przesunięcia głowicy o jedną trzecią całkowitej liczby ścieżek (w naszym przykładzie to 9241 ścieżek), głowice mogą poruszać się w bok na przeskalowaną odległość 2,73 km w czasie 8,5 milisekund. W wyniku przeskalowania otrzymujemy prędkość wyszukiwania większą od 1 162 113 km/h czyli 323 km/s!
Ta analogia powinna obrazować zdumiewający poziom możliwości technologii nowoczesnych dysków twardych. Stara analogia do Jumbo Jęta brzmi przy niej nieco patetycznie (nie wspominając, że jest mocno nieprecyzyjna), nieprawdaż?
Ścieżki i sektory
Pod nazwą ścieżki rozumiemy okrąg danych na jednej stronie dysku. Ścieżka dysku jest zbyt długa, aby można było efektywnie zarządzać danymi, operując jej całą zawartością. Wiele ścieżek dysku może pomieścić 100 000 bajtów danych, co byłoby bardzo nieefektywne podczas zapisu małych plików. Z tego powodu ścieżki są podzielone na kilka ponumerowanych fragmentów zwanych sektorami. Sektory są fragmentami ścieżki w kształcie łuku.
Różne typy dysków dzielą ścieżki na różną liczbę sektorów, w zależności od gęstości ścieżek. Na przykład, dyskietki mają 8-36 sektorów na ścieżkę, natomiast dyski twarde przechowują dane z większą gęstością i mogą osiągać ponad 900 sektorów na ścieżkę. Sektory tworzone przez standardową procedurę formatowania mają pojemność 512 bajtów i jest to wartość niezmienna przez całą historię komputerów PC. Interesującą rzeczą jest to, że aby zachować zgodność z większością starych BIOS-ów i sterowników, gdy dane są adresowane w trybie CHS, napędy dokonują wewnętrznej translacji, „udając", że mają 63 sektory na ścieżkę.
Sektory na ścieżce są numerowane od 1, natomiast głowice i cylindry są numerowane od 0. Na przykład dyskietka 1,44 MB zawiera 80 cylindrów numerowanych od 0 do 79, wykorzystuje dwie głowice o numerach 0 i 1, natomiast każda ścieżka ma 18 sektorów numerowanych od 1 do 18.
Podczas formatowania dysku program formatujący przed obszarem danych każdego sektora tworzy obszary ID, używane później przez kontroler dysku do numerowania sektorów i identyfikowania początku i końca każdego sektora. Obszary znajdują się przed i po sektorze danych i zajmują część pojemności dysku. Wyjaśnia to zjawisko różnicy pojemności przed i po sformatowaniu. Należy zwrócić uwagę, że większość nowoczesnych dysków twardych jest sprzedawanych w postaci preformatowanej i podawana jest pojemność po sformatowaniu. Pojemność przed formatowaniem najczęściej nie jest nigdy podawana. Innym interesującym faktem jest to, że niektóre dyski korzystają z tzw. formatowania No-ID, co oznacza, że sektory są zapisywane bez znaczników ID przed i po każdym sektorze. Dzięki temu większa część dysku może być przeznaczona na dane.
Każdy sektor dysku posiada zwykle prefiks lub nagłówek identyfikujący początek sektora i zawierający jego numer oraz sufiks lub stopkę, zawierająca sumę kontrolną (pomagającą zapewnić integralność zapisywanych danych). Wiele nowych dysków pomija ten nagłówek, korzystając z zapisu No-ID pozwalającego na zapisanie większej ilości danych. W przypadku zapisu No-ID początek i koniec każdego sektora jest wyznaczany przez impulsy zegara.
Każdy sektor zawiera 512 bajtów danych. Proces formatowania niskopoziomowego najczęściej wypełnia bajty danych specyficzną wartością, taką jak F6h, lub innym powtarzającym się wzorcem testowym używanym przez producenta dysku. Niektóre wzorce są trudniejsze do zakodowania i zdekodowania przez elektronikę dysku, więc są one używane przez producentów do testowania napędów podczas początkowego formatowania. Specjalny wzorzec testowy może spowodować wykrycie błędu powierzchni, który nie będzie ujawniony przy wykorzystaniu normalnych wzorców danych. Tym sposobem producenci mogą dokładniej zidentyfikować sektory marginesowe w trakcie testowania.
Omawiany tu typ formatowania jest formatowaniem fizycznym lub niskopoziomowym, a nie formatowaniem wysokopoziomowym wykonywanym przez użytkowników za pomocą programu Eksplorator Windows lub FORMAT. W podrozdziale „Formatowanie dysku" opiszemy różnice pomiędzy tymi typami formatowania.
Nagłówki i stopki sektorów są niezależne od systemu operacyjnego, systemu plików i plików przechowywanych na dysku. Oprócz nagłówków i stopek, pomiędzy sektorami na ścieżce występują przerwy zawierające potencjalną przestrzeń danych. Przerwy te są tworzone w czasie formatowania niskopoziomowego, gdy zapis jest na moment wstrzymywany. Mają one tę samą funkcję, co przerwy pomiędzy utworami na kasecie magnetofonowej. Nagłówek, stopka i przerwy składają się na różnicę pomiędzy pojemnością przed formatowaniem i po sformatowaniu. Na przykład, 4 MB (niesformatowana) dyskietka 3,5-calowa posiada pojemność po sformatowaniu 2,88 MB, a 2 MB (niesformatowana) dyskietka ma po sformatowaniu pojemność 1,44 MB, stary dysk (np. Seagate ST-4038) o pojemności przed formatowaniem 38 MB ma po sformatowaniu pojemność jedynie 32 MB. Ponieważ dyski ATA/IDE i SCSI kupowane dzisiaj są fabrycznie sformatowane nisko-poziomowo, producenci podająjedynie pojemność po sformatowaniu. Jednak wszystkie dyski rezerwują nieco miejsca na zarządzanie przechowywanymi danymi. Dlatego, choć wspominałem wcześniej, że każdy sektor dysku ma 512 bajtów danych, technicznie rzecz biorąc, jest to nieprawda. Każdy sektor pozwala na zapisanie 512 bajtów danych, ale obszar danych jest jedynie fragmentem sektora. Każdy sektor na dysku zwykle zajmuje 571 bajtów, z czego tylko 512 bajtów jest dostępne na dane użytkownika. Dokładna liczba bajtów wymaganych na nagłówek i stopkę sektora różni się w zależności od dysku. Wspominaliśmy również, że wiele dysków korzysta z zapisu No-ID, co niemal całkowicie eliminuje narzut na dane nagłówka sektorów.
Można porównać każdy sektor dysku do strony w książce. W książce każda strona zawiera tekst, ale nie jest ona wypełniona nim całkowicie — każda strona posiada marginesy: górny, dolny, lewy i prawy. Informacje takie jak tytuły rozdziałów (numery ścieżki i cylindra) i numery stron (numery sektorów) umieszczane są na marginesach. Obszary „marginesów" sektorów są tworzone w czasie formatowania niskopoziomowego. Formatowanie wypełnia również obszar danych sztucznymi wartościami. Po wykonaniu formatowania wysokiego poziomu, system plików komputera PC może zapisywać do obszarów danych każdego sektora, ale dane w nagłówku i stopce sektora nie mogą być zmienione przez normalną operację zapisu, chyba że ponownie wykonane zostanie formatowanie niskopoziomowe.
W tabeli 10.1 zamieszczony jest format każdej ścieżki i sektora typowego dysku twardego z 17 sektorami na ścieżkę.
Jak można się przekonać, użyteczne miejsce na każdej ścieżce jest około 15% mniejsze od całkowitej nie-sformatowanej pojemności nośnika. Wartość ta jest prawdziwa dla większości dysków, choć dokładna różnica procentowa może przedstawiać się nieco inaczej, w zależności od liczby sektorów na ścieżce. Poniżej opiszemy dokładniej poszczególne części danych sektora wymienione w tabeli 10.1.
Pole POST INDEX GAP zapewnia odstęp przeznaczony na zmianę głowicy, dzięki czemu, zmieniając ścieżkę, głowica może odczytywać kolejne sektory bez potrzeby czekania na dodatkowy pełny obrót dysku. Ponieważ dysk obraca się stale i głowice mają niewiele czasu na przesunięcie się pomiędzy ścieżkami, odczyt kolejnych
sektorów na dwóch różnych ścieżkach natychmiast po przeczytaniu poprzedniego nie jest możliwy. W czasie, gdy głowica przesunie się na następną ścieżkę, początek kolejnego sektora już znajduje się za głowicą. Pozostawienie odstępu pomiędzy sektorami zapewnia głowicom nieco czasu na przesunięcie się do następnej ścieżki.
W niektórych napędach przerwa ta nie jest wystarczająca na przesunięcie głowic. W takim przypadku napęd może zapewnić dodatkowy czas, przesuwając sektory na kolejnych ścieżkach, dzięki czemu pierwszy sektor jest nieco opóźniony w stosunku do poprzedniej ścieżki. Inaczej mówiąc, proces formatowania niskopoziomo-wego tak przesuwa numery sektorów na kolejnych ścieżkach, aby sektory na sąsiednich ścieżkach nie miały takich samych numerów sektora, ale sektor 9 na jednej ścieżce leżał obok sektora 8 na sąsiedniej, sektora 7 na jeszcze następnej itd. Optymalne przesunięcie jest wyliczane na podstawie prędkości obrotowej dysku i prędkości przesuwania głowic.
Dawniej wartość przesunięcia sektorów była ustalana przez użytkownika na etapie formatowania niskopoziomowego. Dzisiejsze napędy ATA/IDE oraz SCSI są formatowane na etapie produkcji z optymalnym przesunięciem.
Dane ID sektora składają się z pól określających numer cylindra, głowicy i sektora oraz pola sumy kontrolnej wykorzystywanej do sprawdzania poprawności danych ID. Większość kontrolerów korzysta z 7. bitu w numerze głowicy do oznaczenia błędnego sektora wykrytego w czasie formatowania niskopoziomowego lub analizy powierzchni. Konwencja ta nie jest oczywiście obowiązująca. Niektóre kontrolery korzystają z innych metod zaznaczania błędnego sektora, ale oznaczenie to zwykle jest wykonywane z wykorzystaniem pól ID.
Pole WRITE TURN-ON GAP następujące po sumie kontrolnej pola ID stanowi strefę buforową zapewniającą prawidłowy zapis następujących po tym polu danych użytkownika.
Pole DATA składa się z 512 bajtów danych użytkownika zapisanych w sektorze. Po tym polu zapisana jest suma kontrolna służąca do weryfikacji pola danych. Choć wiele kontrolerów korzysta z dwubajtowej sumy kontrolnej, może być zastosowany dłuższy kod korekcji błędów (ECC) wymagający przechowywania więcej niż dwóch bajtów CRC. Zapisane dane ECC zapewniają możliwość wykrywania i korekcji błędów w polu DATA. Możliwości detekcji i korekty błędów zależą od rodzaju kodu ECC zastosowanego w kontrolerze. Pole WRITE TURN-OFF GAP zapewnia pełne odtworzenie bajtów CRC (ECC).
Dzięki polu INTER-RECORD GAP można zniwelować różnicę prędkości obrotowej dysku. Ścieżka mogła być sformatowana w momencie, gdy dysk obracał się nieco wolniej niż normalnie, a następnie dane są zapisywane, gdy dysk obracał się nieco szybciej. W takich przypadkach przerwa ta zabezpiecza przed przypadkowym zamazaniem danych w następnym sektorze. Dokładna wielkość tego odstępu zależy od prędkości obrotowej obszaru DATA w czasie formatowania dysku i za każdym razem, gdy jest uaktualniane pole DATA.
Pole INTER-RECORD GAP pozwala na tolerancję prędkości w obrębie całej ścieżki. Ma wielkość zależną od różnicy prędkości obrotowej dysku i tolerancji częstotliwości zapisu w czasie formatowania.
Pola nagłówka sektora są niezmiernie ważne, ponieważ zawierają dane identyfikujące cylinder, głowicę i sektor. Informacje te, oprócz pól DATA, DATA CRC i WRITE TURN-OFF GAP, są zapisywane tylko w czasie formatowania niskopoziomowego.
Formatowanie dysku
Przed rozpoczęciem zapisywania danych na dysk wymagane jest zastosowanie dwóch procedur formatowania:
Fizyczne — formatowanie niskopoziomowe.
Logiczne — formatowanie wysokiego poziomu.
Gdy formatujesz pustą dyskietkę, Eksplorator systemu Windows lub polecenie FORMAT systemu DOS uruchamia jednocześnie oba typy formatowania. Jeżeli dyskietka jest już sformatowana. DOS i Windows domyślnie wykonują jedynie formatowanie wysokiego poziomu.
Dysk twardy również wymaga dwóch niezależnych operacji formatowania. Dodatkowo, dysk twardy wymaga wykonania trzeciej czynności pomiędzy dwiema procedurami formatowania — zapisania informacji o par-tycjach dysku. Partycjonowanie jest wymagane, ponieważ dyski twarde są zaprojektowane do wykorzystania przez więcej niż jeden system operacyjny. Oddzielenie procedury formatowania niskopoziomowego, które zawsze przebiega tak samo, od formatowania wysokiego poziomu (różnego dla różnych systemów operacyjnych), umożliwia wykorzystanie jednego dysku przez kilka systemów operacyjnych. Partycjonowanie pozwala na uruchamianie różnych systemów operacyjnych umieszczonych na jednym dysku, jak również umożliwia jednemu systemowi operacyjnemu widzenie dysku twardego jako kilka wolumenów lub dysków logicznych. Nazwa wolumen lub dysk logiczny oznacza dowolny fragment dysku, któremu system operacyjny nadaje nazwę lub literę dysku.
Przygotowanie dysku twardego do normalnej pracy wymaga wykonania trzech czynności, którymi są:
Formatowanie niskopoziomowe (LLF).
Partycjonowanie.
Formatowanie wysokiego poziomu (HLF).
Formatowanie niskopoziomowe
W czasie formatowania niskopoziomowego program dzieli ścieżki dysku na określoną liczbę sektorów, tworząc przerwy między sektorami i ścieżkami oraz zapisy w nagłówkach i stopkach sektorów. Program formatujący wypełnia również pole danych określonym wzorcem testowym. W przypadku dyskietek liczba sektorów zapisanych na każdej ścieżce zależy od typu dysku i napędu. W przypadku dysków twardych liczba sektorów przypadających na ścieżkę zależy od dysku i rodzaju kontrolera.
Oryginalne komputery PC korzystały z osobnego kontrolera w formie karty rozszerzeń lub zintegrowanego z płytą główną. Ponieważ kontroler mógł być wykorzystywany do pracy z różnymi napędami dysków i mógł być wyprodukowany przez innego producenta, komunikacja pomiędzy kontrolerem a napędem podlegała pewnej standaryzacji. Z tego powodu liczba sektorów na ścieżce była względnie stała.
Oryginalny kontroler MFM ST-506/412 korzystał z 17 sektorów na ścieżkę, natomiast kontroler ST-506/412 z kodowaniem RRL zwiększył liczbę sektorów na ścieżkę do 25 lub 26 na ścieżkę. Dyski ESDI miały ponad 32 sektory na ścieżkę. Napędy ATA/IDE oraz SCSI wykorzystywane w dzisiejszych komputerach zapisują od 17 do ponad 900 sektorów na ścieżkę.
Niemal wszystkie napędy ATA i SCSI korzystają z techniki zapisu strefowego (ZBR), w którym zapisuje się zmienną liczbę sektorów na ścieżce. Bez zapisu strefowego liczba sektorów — a więc jednocześnie bitów — na każdej ścieżce jest stała. Oznacza to, że liczba bitów na jednostkę powierzchni jest zmienna. Na wewnętrznej ścieżce znajduje się więcej bitów na jednostkę powierzchni, natomiast na zewnętrznych ścieżkach gęstość zapisu jest mniejsza. Prędkość przesyłu danych i prędkość obrotowa pozostaje ta sama, podobnej jak liczba bitów na ścieżkę. Na rysunku 10.4 pokazany jest dysk o identycznej liczbie sektorów na ścieżkę.
Standardowy tryb zapisu nieefektywnie wykorzystuje pojemność dysku na zewnętrznych ścieżkach, ponieważ, choć są one dłuższe, przechowują tę samą ilość danych (zapisanych z mniejszą gęstością) co ścieżki wewnętrzne. Jedyną metodą zwiększenia pojemności dysków twardych jest utworzenie w czasie formatowania większej liczby sektorów na zewnętrznych cylindrach dysku. Ponieważ zewnętrzne cylindry mają większy obwód, mogą przechowywać więcej danych. Napędy bez zapisu strefowego przechowują taką samą ilość danych w każdym cylindrze, pomimo że ścieżki zewnętrzne są dwa razy dłuższe niż ścieżki wewnętrzne. W wyniku tego marnuje się pojemność dysku, ponieważ nośnik musi umożliwiać niezawodne przechowywanie danych z tą samą gęstością, co na wewnętrznych cylindrach. Gdy liczba sektorów na ścieżkę jest stała, tak jak w sytuacji wykorzystywania starych kontrolerów, pojemność dysku jest ograniczana przez maksymalną gęstość zapisu na najbardziej wewnętrznej (najkrótszej) ścieżce.
Napędy korzystające z zapisu strefowego dzielą cylindry na grupy, zwane strefami, a w każdej kolejnej strefie, zaczynając od najbardziej wewnętrznej, mieści się coraz więcej sektorów na ścieżkę. Wszystkie cylindry w określonej strefie mają taką samą liczbę sektorów na ścieżkę. Liczba stref zależy od modelu dysku, ale większość dysków ma ponad 10 stref.
Na rysunku 10.5 pokazany jest dysk z zapisem strefowym.
Inną cechą zapisu strefowego jest zmienność prędkości przesyłu w zależności od strefy, w której znajduje się głowica odczytująca. Dysk z zapisem strefowym obraca się ze stałą prędkością. Ponieważ na ścieżkach stref zewnętrznych znajduje się więcej sektorów, prędkość przesyłu danych tam zapisanych jest większa. Konsekwentnie, prędkość przesyłu danych jest najmniejsza podczas odczytu lub zapisu stref wewnętrznych. Z tego powodu producenci podają minimalną i maksymalną wartość prędkości ciągłego przesyłu, która T2XtTj od położenia odczytywanych lub zapisywanych danych.
Jako przykład, w tabeli 10.2 zamieszczono dane na temat stref w dysku IBM Travelstar 32GH — liczba sektorów na ścieżkę w kolejnych strefach oraz prędkość przesyłu.
Dysk ten ma 21 664 ścieżki na każdej stronie talerza i ścieżki te są podzielone na 16 stref po 1354 ścieżki każda. Wielkość stref nie musi być taka sama; w tym określonym dysku zastosowano przedstawiony podział. Strefa 0 składa się z 1354 najdłuższych ścieżek, zawierających najwięcej sektorów — 617. Ponieważ każdy sektor to 512 bajtów, każda ze ścieżek w tej strefie może przechowywać 315 904 bajty danych użytkownika, natomiast 327 sektorów w strefie 15 może pomieścić tylko 167 424 bajty.
Dlatego, stosując zapis strefowy, każda z powierzchni talerza mieści 10 225 408 sektorów, co daje pojemność 5 235 MB na stronę. Bez zapisu strefowego liczba sektorów na ścieżkę byłaby ograniczona do 327 na całej powierzchni dysku, co w sumie dałoby 7 084 128 sektorów mieszczących 3 627 MB. Zapis strefowy zapewnia 44% zwiększenie pojemności opisywanego dysku.
Zwróćmy uwagę na różnicę prędkości przesyłu w kolejnych strefach. Dane ze ścieżek w najbardziej zewnętrznej strefie (0) są przesyłane z prędkością 28,49 MB/s, co stanowi wartość o 89% większą niż 15,10 MB/s w najbardziej wewnętrznej strefie (15). Jest to powód, dla którego mogą występować ogromne rozbieżności w wynikach podawanych przez programy testujące wydajność dysków. Test, który odczytuje i zapisuje dane na zewnętrznych ścieżkach dysku w sposób naturalny osiąga lepsze wyniki niż test korzystający z wewnętrznych ścieżek. Może się wydać, że dysk działa wolniej niż w rzeczywistości, natomiast program testujący będzie porównywał wyniki działania dysków w różnych strefach.
Dysk ten jest zgodny ze specyfikacją AT A-5 i może działać w trybie Ultra-ATA/66 (nazywanym również UDMA-66), co oznacza, że maksymalna prędkość przesyłu wynosi 66 MB/s. Jest to prędkość czysto teoretyczna, ponieważ prędkość przesyłu danych z nośnika wynosi od 15 MB/s do 28 MB/s, czyli średnio 21 MB/s. Maksymalna prędkość przesyłu dla interfejsu jest prędkością, z jaką interfejs może przesyłać dane. Nie ma ona nic wspólnego z możliwościami dysku.
Dyski z osobnymi kontrolerami wykorzystywane w przeszłości nie obsługują zapisu strefowego, ponieważ nie istniał standardowy sposób przesyłania danych o strefach między napędem i kontrolerem.
W przypadku dysków ATA i SCSI formatowanie poszczególnych ścieżek z dowolną liczbą sektorów stało się możliwe, ponieważ dyski te posiadają wbudowany kontroler. Wbudowany kontroler dysku korzysta z tego samego algorytmu podziału na strefy i może tłumaczyć fizyczne adresy cylindrów, głowic, sektorów i numery sektorów na logiczne numery cylindrów, głowic i sektorów, dzięki czemu dysk sprawia wrażenie, jakby miał identyczną liczbę sektorów na ścieżce. Ponieważ BIOS komputera PC potrafi przechowywać jedynie jedną wartość sektorów na ścieżce dla całego dysku, dysk z zapisem strefowym musi posiadać mechanizm translacji adresów sektorów.
Wykorzystanie zapisu strefowego pozwoliło producentom dysków zwiększyć ich pojemność o 20% do 50% w porównaniu z dyskami o stałej liczbie sektorów na ścieżkę. Wszystkie nowoczesne dyski ATA (IDE) i SCSI korzystają z zapisu strefowego.
Partycjonowanie
Tworzenie partycji na dysku twardym pozwala na obsługę różnych systemów plików na osobnych partycjach.
Każdy system plików posiada inny sposób rezerwowania wolnego miejsca z wykorzystaniem klastrów lub jednostek alokacji. Każdy dysk twardy musi posiadać co najmniej jedną, a co najwyżej cztery partycje, z których każda może być obsługiwana przez ten sam lub różne systemy plików. Najczęściej używanymi systemami plików w systemach operacyjnych dla PC są:
FAT (tablica alokacji plików). Standardowy system plików obsługiwany przez DOS i Windows
9x/Me. Partycje FAT obsługują nazwy plików do 11 znaków (8 znaków nazwy i trzy rozszerzenia)
w systemie DOS i do 255 znaków w systemie Windows 9x lub nowszych. Standardowy system
plików FAT korzysta przy identyfikacji klastrów z liczb 12 i 16-bitowych, przez co maksymalną
wielkością partycji jest 2 GB.
FAT32 (32-bitowa tablica alokacji plików). Jest to opcjonalny system plików obsługiwany przez
Windows 95 OSR2, Windows 98, Windows Me oraz Windows 2000 i XP. System plików FAT32
wykorzystuje do identyfikacji plików liczby 32-bitowe, co pozwala na zakładanie partycji o wielkości
2 TB, a dokładniej 2048 GB.
NTFS (Windows NTFile System). System plików przeznaczony dla Windows NT, 2000 i XP
obsługujący nazwy plików o długości do 256 znaków i partycje (teoretycznie) do 16 eksabajtów.
System plików NTFS posiada również obsługę rozszerzonych atrybutów i zabezpieczeń, które nie
istnieją w systemie plików FAT.
Do czasu premiery systemu Windows XP, FAT32 był najczęściej stosowanym systemem plików. Ponieważ NTFS jest systemem podstawowym dla XP, teraz on staje się coraz popularniejszy. System plików FAT jest odczytywany przez niemal każdy system operacyjny, co powoduje, że jest najbardziej kompatybilny w środowisku wielosystemowym. Systemy FAT32 i NTFS posiadają dodatkowe funkcje, ale często nie są one dostępne z poziomu innych systemów operacyjnych.
► ► Zajrzyj do podrozdziału „FAT" znajdującego się na stronie 1243 i „FAT32" znajdującego się na stronie 1261.
Partycjonowanie jest najczęściej wykonywane przez program FDISK wchodzący w skład systemu operacyjnego. Program FDISK pozwala na wybór ilości miejsca na tworzonej partycji z dokładnością od 1 MB aż do całej pojemności dysku lub maksymalnej wielkości partycji dopuszczanej przez wybrany system plików. Zwykle lepiej maksymalnie ograniczyć liczbę partycji, a wielu użytkowników (w tym i ja) korzysta tylko z jednej lub co najwyżej dwóch. Było to trudniejsze przed wprowadzeniem systemu plików FAT32, ponieważ maksymalna wielkość partycji dla systemu FAT wynosi jedynie 2 GB. W przypadku FAT32 maksymalna wielkość partycji została zwiększona do 2048 GB.
Program FDISK nie może być wykorzystany do zwiększenia wielkości partycji; potrafi on jedynie utworzyć lub usunąć partycję. W procesie usuwania i tworzenia partycji niszczone są wszystkie dane. jakie byty w niej zapisane. Aby manipulować partycjami bez utraty danych, należy skorzystać z programów narzędziowych, takich jak Partition Magie firmy PowerQuest lub Partition Commander firmy V-Communications.
Po partycjonowaniu dysku każda z założonych partycji musi zostać sformatowana przez system operacyjny, który będzie z niej korzystał.
Formatowanie wysokiego poziomu
W czasie formatowania wysokiego poziomu system operacyjny zapisuje wszystkie struktury niezbędne do zarządzania danymi na dysku. Na przykład, partycja FAT posiada dla każdego dysku logicznego tzw. Yolume Boot Sector (VBS) dwie kopie tablicy alokacji plików (FAT) oraz katalog główny. Te struktury pozwalają systemowi operacyjnemu na zarządzanie wolnym miejscem na dysku, zapamiętywanie położenia plików, a nawet zarządzanie uszkodzonymi obszarami tak, aby nie przeszkadzały one w normalnej pracy systemu.
Formatowanie wysokiego poziomu nie wykonuje fizycznego formatowania dysku, a raczej tworzy spis treści dysku. W procesie formatowania niskopoziomowego, które jest prawdziwym, fizycznym formatowaniem, na dysk są zapisywane ścieżki i sektory. Tak jak wspomniałem, program FORMAT systemu DOS może wykonywać formatowanie niskiego i wysokiego poziomu dla dyskietki, ale dla dysków twardych wykonuje jedynie formatowanie wysokiego poziomu. Formatowanie niskiego poziomu dysków ATA i SCSI jest wykonywane przez producenta i niemal nigdy nie jest wykonywane przez użytkownika. Formatowanie niskopozio-mowe dysku ATA lub SCSI zdarzyło mi się wykonywać jedynie wtedy, gdy próbowałem naprawić uszkodzony format (części dysku nie dało się odczytać) lub w niektórych przypadkach, gdy chciałem usunąć wszystkie dane z dysku.
Podstawowe części dysku twardego
Na rynku dostępnych jest wiele typów dysków twardych, ale niemal wszystkie korzystają z tych samych podstawowych komponentów. Różnice mogą wystąpić w implementacji tych komponentów (i oczywiście jakości zastosowanych przy produkcji materiałów), ale charakterystyka pracy większości z nich jest podobna. Podstawowe składniki typowego dysku twardego to (patrz rysunek 10.6):
talerze dysku,
głowice odczytująco-zapisujące,
mechanizm pozycjonera głowicy,
silnik napędu talerzy (wewnątrz piasty),
płytka z układami logicznymi (kontroler),
kable i złącza,
elementy konfiguracyjne (takie jak zworki i przełączniki).
Talerze, silnik, głowice i pozycjoner głowic są zwykle umieszczone w zamkniętej komorze określanej jako HDA (ang. Hard Disk Assembly — zespół głowic i dysku). Układ HDA jest zwykle traktowany jako jeden element i rzadko jest otwierany. Pozostałe części dysku, takie jak płytka z układami kontrolera, obejma i pozostałe części mogą być zdemontowane z dysku.
Talerze dysku twardego (dyski)
Dysk twardy ma jeden lub więcej talerzy, czyli dysków. W historii dysków przeznaczonych dla systemów PC. były one dostępne w kilku wielkościach. Zwykle wielkość dysku jest określana wielkością talerzy. W dyskach twardych do komputerów PC używane były następujące wielkości:
5,25 cala (właściwie 130 mm czyli 5,12 cala),
3,5 cala (właściwie 95 mm czyli 3,74 cala),
2,5 cala (właściwie 65 mm czyli 2,56 cala),
1,8 cala (właściwie 48 mm czyli 1,89 cala),
1 cal (właściwie 34 mm czyli 1,33 cala).
Dostępne są również dyski 8-calowe lub 14-calowe, ale nie są one używane w komputerach PC. W chwili obecnej najpopularniejsze dyski dla komputerów biurkowych i niektórych przenośnych to 3,5 cala, a 2,5 cala i mniejsze są bardzo popularne w notebookach. W roku 1998 IBM wprowadził na rynek dysk o nazwie Micro-drive, który w chwili obecnej może pomieścić 1 GB na pojedynczym talerzu o średnicy jednej czwartej cala! Dyski te mają fizyczny i elektryczny format karty Compact Flash typu II (CF), co oznacza, że mogą być używany we wszystkich urządzeniach korzystających z kart CF, na przykład w aparatach cyfrowych, odtwarzaczach MP3 i palmtopach. Kilka firm wprowadziło na rynek napędy 1,8 cala, a najbardziej znane pośród nich to HP, Calluna i Toshiba. Z tych firm jedynie Toshiba kontynuuje produkcję takich dysków. W roku 2000 Toshiba wprowadziła do sprzedaży dysk 1,8 cala, który ma fizyczny format PC Card typu II. Dyski te mają pojemność do 5 GB i mogą być wykorzystane w laptopach i innych urządzeniach, gdzie można podłączyć standardowe urządzenie PC Card.
Większość dysków posiada dwa lub więcej talerzy, choć małe modele wykorzystywane w systemach przenośnych mają jedynie jeden. Liczba talerzy jest ograniczana przez wysokość dysku. Maksymalna liczba talerzy jaką widziałem to 12, jednak większość korzysta z 6 i mniej.
Talerze są najczęściej wykonane ze stopu aluminium z magnezem, który zapewnia zarówno wytrzymałość, jak i niewielką wagę. Jednak producenci, chcąc osiągać coraz większe gęstości zapisu danych na swoich dyskach, wypuszczają mniejsze modele z talerzami wykonanymi ze szkła (a dokładniej kompozytu ceramiczno-szklanego). Materiał ten produkowany jest przez firmę Dow Corning Corporation i nazywany MemCor. Mem-Cor składa się ze szkła z ceramicznymi wstawkami zapewniającymi większą odporność na pękanie niż czyste szkło. Szklane talerze są bardziej sztywne niż metal (ponieważ metal może się zginać, a szkło nie) i dlatego mogą mieć grubość o połowę mniejszą niż konwencjonalne dyski aluminiowe. Dyski szklane mają większą stabilność cieplną niż dyski aluminiowe, co oznacza, że nie rozszerzają się i nie kurczą wraz ze zmianami temperatury. Kilka nowych dysków twardych wyprodukowanych przez firmy IBM, Seagate, Toshiba, Areał Technology i Maxtor korzysta ze szklanych talerzy; firma IBM projektuje już wszystkie nowe dyski z wykorzystaniem takiej technologii. W przypadku większości pozostałych producentów szkło zastąpi standardowy stop magnezu z aluminium w przeciągu kilku następnych lat.
Nośniki zapisu
Niezależnie od materiału użytego do wykonania talerzy, są one pokryte cienką warstwą substancji czynnej magnetycznie, nazywanej nośnikiem, na której zapisywane są dane. Wykorzystuje się trzy rodzaje nośników magnetycznych:
tlenki,
nośnik cienkowarstwowy,
nośnik AFC (sprzężony antyferromagnetycznie).
Tlenki
Nośnik wykorzystujący tlenki zawiera tlenek żelaza jako składnik aktywny. Warstwa magnetyczna jest tworzona przez powleczenie aluminiowego talerza gęstym płynem zawierającym cząstki tlenku żelaza. Jest on rozprowadzany poprzez obracanie talerza z dużą prędkością— siła odśrodkowa powoduje rozpłynięcie się materiału od środka talerza do jego brzegów, tworząc równą warstwę materiału. Powierzchnia jest następnie utwardzana i polerowana. Na koniec nakładana jest warstwa materiału zabezpieczającego i smarującego powierzchnię. Powłoka tlenków ma grubość około 10 nm. Jeżeli mógłbyś zajrzeć do napędu z talerzami pokrytymi tlenkami, zauważyłbyś, że mają one kolor od brązowego do bursztynowego.
Wraz ze wzrostem gęstości zapisu w dyskach, warstwa magnetyczna musiała stawać się coraz cieńsza i perfekcyjnie uformowana — możliwości nośnika wykorzystującego tlenki zostały już wyczerpane. Ponieważ powierzchnia nośnika korzystającego z tlenków jest bardzo miękka, jest on narażony na uszkodzenie podczas uderzenia głowicy zachodzącego, gdy dysk zostanie potrząśnięty podczas pracy. Większość starszych dysków, szczególnie tych najtańszych, korzysta z takich właśnie talerzy. Nośnik tlenkowy był używany od roku 1955 i pozostawał popularny z powodu swojej niskiej ceny i łatwości stosowania. Dziś bardzo niewiele napędów korzysta z tej technologii.
Nośnik cienkowarstwowy
Nośnik cienkowarstwowy jest cieńszy, twardszy i dokładniej uformowany niż nośnik tlenkowy. Został zaprojektowany jako nośnik o ogromnych możliwościach pozwalający skonstruować nową generację napędów, w których zmniejszono odległości głowicy od nośnika, co z kolei pozwoliło na zwiększenie gęstości zapisu. Na początku nośnik cienkowarstwowy był używany jedynie w dyskach o dużej pojemności i wysokiej jakości. ale w chwili obecnej niemal wszystkie dyski korzystają z niego.
„Nośnik cienkowarstwowy" to bardzo trafna nazwa. Warstwa tego nośnika jest dużo cieńsza niż tworzona przy wykorzystaniu nośnika tlenkowego. Nośnik cienkowarstwowy jest nazywany również galwanizowanym lub napylanym, ponieważ do nakładania nośnika na talerze stosowane są te właśnie metody.
Nośnik cienkowarstwowy jest nakładany na talerz za pomocą metody galwanicznej, sposobem podobnym do tego, w jaki nakłada się chrom na zderzaki samochodów. Stop aluminium i magnezu lub szkło jest zanurzane w kilku kąpielach chemicznych, które powodują pokrycie go kilkoma warstwami metalicznymi. Nośnikiem jest warstwa stopu kobaltu o grubości około 40 mikrometrów.
Nośnik cienkowarstwowy jest nakładany poprzez pokrycie aluminiowych talerzy warstwą fosforku niklu, a następnie nałożenie magnetycznego stopu kobaltu w ciągłym procesie nakładania próżniowego nazywanego napylaniem. Metoda ta pozwala na nakładanie warstw magnetycznych o grubości poniżej 40 mikrometrów i jest podobna do nakładania warstwy metalicznej na płytki krzemowe w przemyśle półprzewodnikowym. Ta sama technika napylania jest stosowana następnie do nałożenia niezwykle twardej, 40-mikrometrowej ochronnej warstwy węgla. Stosowanie niemal całkowitej próżni powoduje, że proces napylania jest najbardziej kosztownym opisanym tu procesem.
Powierzchnia napylonych talerzy ma warstwę magnetyczną o grubości 40 mikrometrów. Ponieważ warstwa ta jest również bardzo gładka, głowica może unosić się bliżej dysku, niż było to możliwe wcześniej. Odległość ta wynosi jedynie 10 nanometrów. Gdy głowica jest bliżej dysku, gęstość strumienia magnetycznego może być zwiększona, aby uzyskać większą pojemność zapisu. Dodatkowo, zwiększona intensywność pola magnetycznego w czasie odczytu zapewnia większą amplitudę sygnałów, niezbędną do osiągania dobrego odstępu pomiędzy sygnałem a szumami.
Zarówno proces napylania, jak i galwanizacji dają w wyniku bardzo cienką powierzchnię nośnika magnetycznego. Ponieważ nośnik cienkowarstwowy jest tak twardy, istnieje mniejsza szansa uszkodzenia go podczas zderzenia z głowicą przy pełnej prędkości. Właściwie nowoczesne napędy korzystające z nośnika cienkowarstwowego są niemal niezniszczalne. Jeżeli mógłbyś otworzyć obudowę i obejrzeć talerze, zobaczyłbyś, że dyski pokryte nośnikiem cienkowarstwowym mają lustrzaną powierzchnię.
Nośnik AFC
Najnowsza technologia to nośniki sprzężone antyferromagnetycznie (AFC). Zaprojektowana została w celu umożliwienia zastosowania gęstości przekraczających dzisiejsze ograniczenia. Za każdym razem, gdy zwiększana jest gęstość, warstwa magnetyczna musi być coraz cieńsza. Gęstość powierzchniowa (ścieżki na cal / bity na cal) zwiększyła się do tego stopnia, że ziarna w warstwie magnetycznej używane do zapisu danych są zbyt małe, aby być stabilne przez dłuższy czas, co owocuje powstaniem niepewnego zapisu. Sytuacja ta jest nazywana ograniczeniem superparamagnetycznym i występuje pomiędzy 30 a 50 GB/cal kwadratowy. Dzisiejsze dyski osiągają 35 GB/cal kwadratowy, co oznacza, że ograniczenie superparamagnetyczne zacznie już niedługo wpływać na projekty nowych napędów.
Nośnik AFC składa się z dwóch warstw magnetycznych rozdzielonych bardzo cienką, 3-atomową(6 angstre-mów) warstwą rutenu. IBM nazwał tę ultracienką warstwę pixie dust. Ta „kanapka" tworzy sprzężenie antyter-romagnetyczne pomiędzy warstwą górną i dolną powodujące, że pozorna grubość magnetyczna całej struktury wynosi tyle co różnica pomiędzy górną i dolną warstwą. Pozwala to na wykorzystanie fizycznie grubszych warstw magnetycznych, posiadających większe i bardziej stabilne ziarna, funkcjonujących razem jako jedna, dużo cieńsza warstwa.
IBM zastosował nośnik AFC w kilku dyskach, rozpoczynając od serii 2,5-calowych dysków Travelstar wprowadzonych na rynek w roku 2001; były to pierwsze dyski stosujące nośnik AFC. Dodatkowo, IBM zastosował nośnik AFC w dysku 3,5-calowym przeznaczonym dla komputerów stacjonarnych, Deskstar 120 GXP. Można się spodziewać, że inni producenci również wprowadzą ten typ nośnika do swoich dysków. Wykorzystanie technologii AFC pozwala na zwiększenie gęstości powierzchniowych rzędu 100 GB/cal kwadratowy.
Głowice odczytująco-zapisujące
Dyski twarde mają najczęściej jedną głowicę odczytująco-zapisującą dla każdej powierzchni dysku (czyli każdy talerz posiada dwie głowice —jedną dla dolnej powierzchni i jedną dla górnej). Głowice są przyłączone do jednego mechanizmu poruszającego nimi, dlatego wszystkie głowice są razem przesuwane po powierzchni dysku.
Budowa głowic odczytująco-zapisujących jest prosta. Każda głowica znajduje się na ramieniu pozycjonera, które jest sprężyste i dociska ją do talerza. Niewielu ludzi zdaje sobie sprawę, że każdy talerz jest ściskany z dołu i z góry przez głowice. Jeżeli otworzyłbyś bezpiecznie dysk i podniósł górną głowicę, to po jej puszczeniu zostanie ona przyciągnięta do powierzchni talerza. Jeżeli odciągniesz jedną głowic z dolnej powierzchni talerzy, sprężyste ramię wróci do góry po jej puszczeniu.
Na rysunku 10.7 pokazany jest typowy układ pozycjonera głowic pochodzący z dysku z napędem w postaci cewki swobodnej.
Gdy dysk jest w stanie spoczynku, głowice są dociskane przez sprężyste ramiona do talerzy, ale gdy dysk rozpędzi się do prędkości roboczej, ciśnienie powietrza tworzy poduszkę powietrzną unoszącą głowice nad jego powierzchnię. Gdy dysk obraca się z pełną prędkością, odległość pomiędzy głowicami i talerzem wynosi w nowoczesnych dyskach od 0,01 mikrometra do 0,1 mikrometra i więcej.
Na początku lat sześćdziesiątych głowice dysków były oddalone od talerzy o 5 - 7 mikrometrów; w dzisiejszych napędach głowice są oddalone od talerza o około 10 nanometrów. Aby zapewnić większą gęstość zapisu w dyskach przyszłości, głowice i dysk będąjeszcze bliżej siebie, a w niektórych dyskach będą nawet spoczywały na powierzchni talerza. Do zapisu z wykorzystaniem pełnego lub częściowego kontaktu głowic z talerzem potrzebne będą nowe projekty nośników i głowic.
Mały odstęp pomiędzy talerzami i głowicami stanowi główny powód, dla którego nie należy otwierać HDA dysku, jeżeli nie można tego zrobić w odpowiednio czystym środowisku. Dowolna cząstka kurzu lub brudu, która dostałaby się do mechanizmu, może powodować niewłaściwy odczyt danych lub nawet uderzenie głowic o talerze obracające się z pełną prędkością. W takim przypadku może dojść do zarysowania powierzchni talerza i jego trwałego uszkodzenia.
Aby zapewnić odpowiednią czystość wnętrza dysku, układy HDA są montowane w pomieszczeniach o klasie czystości 100 lub lepszej. Specyfikacja ta oznacza, że w metrze sześciennym powietrza nie może się znajdować więcej niż 100 cząstek o wielkości do 0,5 mikrona. Nieruchoma osoba wydycha w ciągu minuty około 500 takich cząstek! Pomieszczenia te posiadają specjalne urządzenia filtrujące, które ciągle oczyszczają powietrze. Układ HDA może być otwierany jedynie w takim pomieszczeniu.
Choć utrzymywanie tak czystego środowiska może wydawać się drogie, wiele firm produkuje tego typu komory przeznaczone do ustawienia na stole. Niektóre z tych urządzeń działają jako komora rękawicowa, operator wkłada napęd i potrzebne narzędzia, zamyka urządzenie i włącza system filtracyjny. Wewnątrz urządzenia tworzy się sterylne środowisko, a operator może poprzez wbudowane rękawice pracować nad napędem.
W innym rozwiązaniu, operator stoi przy biurku, gdzie kurtyna powietrzna wytwarza na jego powierzchni czystą atmosferę. Operator wchodzi do pomieszczenia i z niego wychodzi poprzez kurtynę powietrzną. Kurtyny podobnego typu są stosowane w niektórych sklepach i domach towarowych w celu zapobiegania przed uciekaniem w zimie ciepłego powietrza przez otwarte drzwi.
Ponieważ tworzenie czystego środowiska jest kosztowne, niewiele firm poza producentami dysków posiada właściwe wyposażenie do serwisowania dysków twardych.
Rodzaje głowic odczytująco-zapisujących
Wraz z rozwojem technologii dysków twardych zmieniały się również głowice. Pierwsze głowice były rdzeniami żelaznymi z nawiniętą cewką (elektromagnes). Zgodnie z dzisiejszymi standardami pierwsza głowica
była ogromna i zapewniała bardzo małą gęstość zapisu. Z czasem głowice rozwinęły się od pierwszych głowic ferrytowych do stosowanych dzisiaj głowic magnetorezystywnych.
Więcej informacji na temat różnych rodzajów głowic znajduje się w rozdziale 9., „Świat urządzeń o zapisie magnetycznym".
Mechanizm pozycjonera głowicy
Prawdopodobnie ważniejszy niż sama głowica jest układ mechaniczny służący do jej przesuwania — pozycjoner głowicy. Mechanizm przesuwa głowice poprzecznie po dysku i ustawia je precyzyjnie nad żądanym cylindrem. Wykorzystywane są różne mechanizmy pozycjonera, ale można je podzielić na dwie kategorie:
pozycjonery z silnikiem krokowym,
pozycjonery ze swobodną cewką.
Wykorzystanie jednego z tych typów pozycjonera ma głębokie konsekwencje odnośnie wydajności i niezawodności dysku. Nie ograniczają się jedynie do prędkości, ale także obejmują dokładność, wrażliwość na temperaturę, pozycję, wibracje i ogólną niezawodność. Pozycjoner głowicy jest najważniejszym pojedynczym elementem dysku i typ jego mechanizmu ma duży wpływ na wydajność dysku i charakterystykę niezawodności. W tabeli 10.3 zestawione są dwa typy pozycjonerów głowicy i ich wpływ na charakterystykę wydajności.
Pozycjonery z silnikiem krokowym były powszechnie stosowane w dyskach twardych produkowanych w latach 80 i na początku lat 90, które miały pojemność 100 MB i mniej. Wszystkie dyski o większej pojemności, z jakimi się spotkałem, korzystają z pozycjonera ze swobodną cewką.
Napędy dyskietek korzystają do ustawiania głowic z pozycjonera z silnikiem krokowym. Dokładność mechanizmu krokowego jest wystarczająca dla dyskietek, ponieważ gęstość ścieżek zwykle nie zbliża się nawet do gęstości stosowanych w dysku twardym. Dla dyskietki 1,44 MB wartość ta wynosi 135 ścieżek na cal, natomiast dyski twarde mają gęstość powyżej 5000 ścieżek na cal. Wszystkie produkowane dziś dyski korzystają z pozycjonerów ze swobodną cewką, ponieważ silniki krokowe nie zapewniają wystarczającej dokładności.
Pozycjoner z silnikiem krokowym
Silnik krokowy jest silnikiem elektrycznym, który potrafi wykonywać „kroki" — przesunięcia pomiędzy pozycjami. Jeżeli będziemy próbować ręcznie obrócić oś takiego silnika, usłyszymy trzaski lub buczenie, gdy silnik będzie przełączał się pomiędzy kolejnymi zaczepami pozycji.
Silniki krokowe nie mogą zatrzymać się pomiędzy pozycjami; zatrzymują się jedynie na z góry określonych pozycjach. Silniki te są niewielkie (pomiędzy 2,5 a 4,5 cm) i mogą być kwadratowe, cylindryczne lub płaskie. Silniki krokowe nie są zamknięte w HDA — oś silnika wchodzi do HDA przez uszczelniony otwór.
Mechanizm silnika krokowego sprawia wiele problemów, a największym z nich jest temperatura. Gdy talerze dysku nagrzewają się i stygną, to rozszerzają się i kurczą, przez co ścieżki przesuwają się w stosunku do wyznaczonych pozycji. Mechanizm pozycjonera nie może ustawiać się dokładnie na ścieżce, aby skorygować efekt zmian temperatury. Dysk pozycjonuje głowice na określonym cylindrze wykonując jedynie określoną ilość kroków silnika.
Na rysunku 10.8 pokazano budowę mechanizmu pozycjonera z silnikiem krokowym, w którym do przenoszenia napędu obracającej się osi silnika na sam pozycjoner głowicy wykorzystuje się dzieloną taśmę stalową.
Pozycjoner ze swobodną cewką
Pozycjoner ze swobodną cewką jest używany niemal we wszystkich dziś stosowanych dyskach, ponieważ w przeciwieństwie do rozwiązania z silnikiem krokowym może wykorzystać sygnał zwrotny z dysku i dokładnie określić położenie głowicy oraz skorygować je w razie potrzeby. Taka konstrukcja zapewnia znacznie większą wydajność, dokładność i niezawodność w porównaniu z tradycyjnymi pozycjonerami z silnikami krokowymi.
Pozycjoner ze swobodną cewką wykorzystuje jedynie siły elektromagnetyczne. Jego budowa jest podobna do konstrukcji zwykłego głośnika. Głośniki posiadają stacjonarny magnes, wokół którego znajduje się cewka połączoną z papierową membraną. Przepuszczenie prądu przez cewkę powoduje jej przesunięcie względem stacjonarnego magnesu i wygenerowanie dźwięku poprzez poruszanie membraną. W typowym układzie dysku twardego ze swobodną cewką, cewka jest podłączona do końca stojaka głowic i umieszczona blisko magnesu stacjonarnego. Pomiędzy magnesem i cewką nie zachodzi fizyczny kontakt; cewka jest poruszana jedynie przez pole magnetyczne. Gdy przez cewkę zostanie przepuszczony prąd, jest ona przyciągana lub odpychana przez magnes i w ten sposób przesuwa ramiona z głowicami. Systemy tego typu są niezwykle szybkie, efektywne i najczęściej wytwarzają mniejszy hałas niż systemy z silnikami krokowymi.
W przeciwieństwie do silnika krokowego, swobodna cewka nie posiada żadnych mechanicznych zaczepów; zamiast tego, specjalny system sterujący zatrzymuje ramię z głowicami nad określonym cylindrem. Ponieważ nie ma żadnych mechanicznych zaczepów, pozycjoner ze swobodną cewką może płynnie przesuwać głowice na dowolną pozycję. Pozycjoner ze swobodną cewką korzysta z mechanizmu sterującego zwanego serwo, wskazującego pozycjonerowi, gdzie znajdują się głowice i umieszczają je dokładnie na żądanej pozycji. System pozycjonowania często jest nazywany mechanizmem z zamkniętą pętlą zwrotną. Do elektroniki pozycjonera wysyłany jest sygnał indeksowy (lub serwo), a w odpowiedzi otrzymywany jest sygnał zwrotny wykorzystywany do dokładnego ustawienia głowic.
System ten jest nazywany również systemem z serwosterowaniem, co odnosi się do informacji serwo lub indeksowych używanych do sterowania dokładnym położeniem głowicy.
Pozycjoner ze swobodną cewką z serwosterowaniem jest niewrażliwy na zmiany temperatury. Gdy zmiana temperatury powoduje rozszerzenie lub skurczenie talerzy dysku, system swobodnej cewki automatycznie je kompensuje, ponieważ nigdy nie ustawia on głowic na predefiniowanej pozycji ścieżki, Zamiast tego, system sterowania swobodną cewką szuka określonej ścieżki naprowadzany zapisanymi danymi, a następnie ustawia głowice nad wymaganą ścieżką, niezależnie gdzie się ona znajduje. Ponieważ dane zwrotne informacji serwo są ciągłe, głowice zawsze nastawiają się na bieżącą pozycję ścieżki. Na przykład, wraz z nagrzewaniem się dysku i rozszerzaniem się talerzy, informacje serwo pozwalają na „śledzenie" ścieżki. W wyniku tego pozycjoner ze swobodną ścieżką jest nazywany systemem ze śledzeniem ścieżki.
Istnieją dwa główne typy mechanizmów pozycjonera ze swobodną cewką:
liniowe pozycjonery ze swobodną ścieżką,
obrotowe pozycjonery ze swobodną ścieżką.
Te dwa typy różnią się jedynie fizycznym rozmieszczeniem magnesów i cewki.
Pozycjoner liniowy
Pozycjoner liniowy przesuwa głowice nad talerzami po prostej (patrz rysunek 10.9). Cewka przesuwa się w przód i tył na ścieżce otoczonej magnesami stacjonarnymi. Podstawową zaletą mechanizmu liniowego jest wyeliminowanie odchyleń azymutu głowicy zachodzących przy obrotowym systemie pozycjonowania (azymut to miara kątowa pozycji głowicy względem stycznej do podanego cylindra). Pozycjoner liniowy nie obraca głowicami, przesuwając je między cylindrami, więc problem ten jest usunięty.
Choć pozycjoner liniowy wydaje się dobrym projektem, posiada on jedną poważną wadę — urządzenia są zbyt ciężkie. Wraz ze wzrostem wydajności dysków niezwykle ważne jest stosowanie lekkich mechanizmów pozycjonera. Im lżejszy mechanizm, tym szybciej przyspiesza i hamuje. Ponieważ mechanizmy te są znacznie cięższe niż pozycjonery obrotowe, pozycjonery liniowe były popularne jedynie przez krótki czas; nie są one stosowane w produkowanych obecnie dyskach.
Pozycjonery obrotowe również korzystają ze stacjonarnych magnesów i przesuwających się cewek, ale cewka jest umieszczona na końcu ramienia pozycjonera. Gdy cewka się przesuwa względem nieruchomego magnesu, przesuwa ramię głowicy nad powierzchnią dysku. Podstawową zaletą tego mechanizmu jest niska waga, co oznacza, że głowice mogą przyspieszać i hamować bardzo szybko, co daje w efekcie krótkie czasy dostępu. Z powodu efektu dźwigni na ramieniu głowicy, głowice przesuwają się szybciej niż pozycjoner, co również pozwala poprawić czas dostępu (schemat pozycjonera obrotowego znajduje się na rysunku 10.7).
Wadą systemu obrotowego jest to, że gdy głowica przesuwa się od cylindrów zewnętrznych do wewnętrznych, obracają się one nieco względem stycznej do cylindra. Obrót ten powoduje błąd azymutu i jest jednym z powodów ograniczenia powierzchni talerzy, na której mogą znajdować się ścieżki. Ograniczenie całkowitego ruchu pozycjonera pozwala na zmniejszenie błędu azymutu do rozsądnej wielkości. Niemal wszystkie dzisiejsze napędy korzystają z obrotowych systemów pozycjonerów.
12