Twarde dyski - dyskologia stosowana 2003-05-20 (14:15)
IDE wciąż opóźnia pracę
W przypadku kopiowania dużych, niesfragmentowanych plików ważną rolę odgrywa prędkość transmisji danych. W codziennych zastosowaniach maksymalna prędkość odczytu czy zapisu schodzi na drugi plan - parametrem decydującym o szybkości pracy dysku jest tzw. czas dostępu (zazwyczaj bierze się pod uwagę czas dostępu do konkretnego sektora na dysku - obecnie jest to kilkanaście milisekund). Gdy dysk musi się odwoływać do wielu małych plików, pracować na kilku plikach jednocześnie czy kopiować pliki pomiędzy katalogami lub partycjami, łatwo zauważyć, że prędkość kopiowania maleje do najwyżej kilku MB/s (podczas gdy wartości maksymalne odczytu sięgają co najmniej 40 MB/s). W tym przypadku działają właśnie opóźnienia związane z czasem dostępu.
Kontroler IDE wprowadza znacznie większe opóźnienia niż SCSI. Jeśli na jednej taśmie IDE są dwa urządzenia (np. dwa dyski), w danej chwili może pracować tylko jedno z nich, a drugie musi czekać na swoją kolej. Jest to szczególnie uciążliwe, gdy jedno z urządzeń pracuje w szybszym trybie, a drugie wolniejszym (np. ATA/100 i ATA/66) lub gdy jedno z urządzeń w ogóle nie pracuje w trybie DMA. Wówczas wolniejsze urządzenie znacznie spowalnia działanie szybszego. W praktyce zdarza się często, że osoba składająca komputer montuje dysk i CD-ROM na jednej taśmie zamiast na dwóch różnych kanałach kontrolera. Wady takiego rozwiązania są mniej dotkliwe w przypadku interfejsu SCSI. Nowy standard magistrali SerialATA rozwiązuje tylko część tych problemów. Przede wszystkim na jednym kanale działa tylko jedno urządzenie, a nie dwa. Dzięki temu nie występują opóźnienia związane z oczekiwaniem na zwolnienie magistrali. ATA/100 (133) oferowało transmisję z prędkością 100 (133) MB/s, SerialATA w pierwszej wersji ma przepustowość 150 MB/s. Zapowiadana jest już druga wersja standardu, o przepustowości zwiększonej do 300 MB/s, co powinno wpłynąć dodatnio na rzeczywistą prędkość pracy dysków.
Techniki jutra
Wyścig producentów dysków toczy się głównie o uzyskanie większej gęstości zapisu, a więc większej pojemności. Ich pomysły są obecnie na różnym poziomie realizacji.
Warstwa nośnika magnetycznego, znajdująca się na powierzchniach talerzy współczesnych dysków, powstaje przez napylanie cząstek ferromagnetycznych (głównie tlenków żelaza i chromu). Nałożony taką metodą materiał ma niejednorodną i nieregularną strukturę. Fragmenty powierzchni, na których występuje mniejsza liczba cząstek ferromagnetycznych ograniczają gęstość zapisu. W tych fragmentach najłatwiej o termiczną degradację zapisu. Właśnie ze względu na efekty termiczne niektórzy producenci wykonują talerze twardych dysków ze szkła, co pozwala obecnie na uzyskanie gęstości zapisu do ok. 15 Gb na cal kw.
Innym przykładem zwiększania gęstości zapisu jest technika LEXIS (Layer Exchange Interaction Stabilised) opracowana przez firmę Fujitsu. Polega ona na nałożeniu warstwy magnetycznej na warstwę materiału izolacyjnego i dopiero później na metalowy talerz. Technika ta zapewniła uzyskanie w doświadczalnym prototypie gęstości zapisu 56 Gb/cal kw. i pojemności 78 GB na jednym talerzu.
Powyższe techniki nie eliminują jednak efektu termicznej degradacji zapisu. Rozwiązaniem tego problemu może być nośnik o "samoporządkującej" się strukturze. Naukowcy pracujący nad zwiększeniem pojemności dysków twardych odkryli reakcje chemiczne, w których małe cząstki magnetyczne potrafią same uporządkować się w zorganizowane struktury, rozmieszczone w stałej odległości od siebie. Stworzony z nich materiał pozwoli na budowę dysków twardych o pojemności nawet stukrotnie większej niż popularnych dziś nośników. Jeśli ten pomysł zostanie zrealizowany, będziemy mogli instalować w swoich komputerach dyski o pojemności np. 5 TB.
Z myślą o zwiększeniu pojemności dysków twardych stale udoskonalane są również procesy zapisu i odczytu danych z nośnika. W tym celu stosuje się coraz to nowe materiały magnetyczne i ulepszone głowice.
|
Producenci pracują także nad innymi niż magnetyczne technikami zapisu danych, m.in. nad wykorzystaniem skaningowego mikroskopu tunelowego. Metoda ta pozwala na ustalanie struktury nośnika na poziomie pojedynczych atomów. Nośnik wykonany w tej technice, odpowiadający rozmiarami dzisiejszemu jednotalerzowemu dyskowi twardemu, miałby pojemność rzędu 1,5 PB (1,5 mln GB). Inna koncepcja - zwiększanie gęstości zapisu - przewiduje zastosowanie do tego hologramów, czyli wzorów interferencyjnych powstałych w wyniku nałożenia dwóch wiązek światła. Wciąż jednak prace nad pamięciami holograficznymi, które spełniałyby wymagania dotyczące pojemności i innych parametrów, np. czasu dostępu czy liczby błędów, nie wyszły poza pomieszczenia laboratoriów.
Wzrost gęstości zapisu i pojemności dysków wyprzedza potrzeby większości użytkowników. Szybko jednak pojawiają się nowe systemy, aplikacje, zastosowania, które te nadmiary wykorzystują. Im więcej informacji da się zapisać na dysku, tym więcej można stracić. A ponieważ nawet najlepszy dysk może się zepsuć (p. statystyki na str. 47), użytkownikom pozostaje tylko zastosować zasadę ograniczonego zaufania i zabezpieczyć się przed najgorszym.