901 1000


0x08 graphic
Rysunek 14.6.

Kable danych i zasilania SATA mogą być oddzielne (na górze) lub połączone, tworząc ukszaltowany element (na dole)


  1. Napęd należy ostrożnie umieścić we wnęce odpowiedniego rozmiaru, podobnie jak w kroku 4. procedury instalacji kontrolera ATA.

  2. Jeśli napęd i kabel nie są montowane jednocześnie, złącze kabla danych należy podłączyć z tyłu napędu SCSI, W tym przypadku kabel należy podłączyć przed umieszczeniem i zamocowaniem napędu we wnęce.

  3. Do napędu należy podłączyć odpowiednie złącze zasilania, podobnie jak w kroku 6. procedury instalacji kontrolera ATA.

  4. Podobnie jak w kroku 7. procedury instalacji kontrolera ATA, należy uruchomić komputer i przysłuchać się pracy napędu.

  5. Po załadowaniu systemu należy uruchomić narzędzie konfigurujące napędy kontrolera SCSI

i określić ustawienia kontrolera i dysku. Szczegółowe informacje można znaleźć w instrukcji obsługi kontrolera SCSI.

9. Podobnie jak w kroku 9. procedury instalacji kontrolera ATA, należy uruchomić program
partycjonujący dyski, wchodzący w skład systemu operacyjnego.

Konfigurowanie komputera do współpracy z dyskiem

Po fizycznym zainstalowaniu dysku, należy wprowadzić w komputerze podstawowe informacje o dysku, nie­zbędne do uzyskania do niego dostępu i uruchomienia systemu operacyjnego. Sposób wprowadzania i prze­chowywania tego rodzaju danych zależy od typu dysku i komputera, w którym jest instalowany. Standardowe procedury instalowania dla większości dysków twardych (w tym napędów SATA) pozostają jednolite, nie obejmują jednak dysków SCSI. Sposób instalowania dysku SCSI pozostaje ściśle związany z wykorzystywa­nym kontrolerem. W jego dokumentacji znajdziemy dokładny opis zasad instalowania dysków.

Automatyczne wykrywanie dysków

Praktycznie każdy nowy BIOS komputera wyposażony jest w funkcję automatycznego wykrywania parame­trów dysku (autodetect). Proces ten polega na wysłaniu do wszystkich urządzeń przyłączonych do interfejsu ATA specjalnego polecenia Identify Drive (Zidentyfikuj dysk). Wszystkie dyski potrafią odpowiedzieć na ta­kie wywołanie, generowane zazwyczaj przy każdym uruchamianiu systemu. Dalsza praca BIOS-u opiera się na uzyskanych tą drogą danych o parametrach dysku. Jest to niemal zawsze skuteczna metoda zapobiegania pomyłkom związanym z wprowadzaniem wartości ręcznie.

Samodzielne wprowadzanie parametrów dysku

Gdy płyta główna nie dysponuje funkcją autodetekcji, niezbędne jest wprowadzenie odpowiednich in­formacji o dysku ręcznie. W programie konfiguracyjnym BIOS-u znajdziemy prekonfigurowany zbiór typów dysków, w większości przypadków (aż do śmieszności) nieaktualny. Ogólną zasadą jest więc wybranie opcji typu definiowanego (user) — wprowadzamy wówczas trzy wartości:

Odpowiednie wartości znajdziemy w opisie dysku lub na jego obudowie. Dobrym przygotowaniem do insta­lacji dysku jest zapisanie tych wartości na kartce — w momencie, gdy będą potrzebne, dysk może być trudno dostępny. Również dalsze przechowywanie tych danych jest wskazane, na wypadek utraty danych zapisanych w BlOS-ie (gdy wyczerpie się podtrzymująca jego skromną pamięć bateria). Najlepszym miejscem do prze­chowywania tych informacji jest wnętrze obudowy komputera. Przyklejenie odpowiedniej notki może być później znacznym ułatwieniem.

Jeśli odszukanie właściwych ustawień dysku twardego na jego obudowie lub w dokumentacji technicznej okaże się niemożliwe, można skorzystać z dostępnych w internecie programów użytkowych, za pomocą któ­rych można uzyskać takie informacje.


0x08 graphic

Gdy nie dysponujemy opisem dysku, a na jego obudowie nie ma niezbędnych danych, w internecie znaleźć można programy, które rozpoznają właściwe wartości.


Zależnie o producenta i wersji programu BIOS, korzystne może być określenie dalszych ustawień, takich jak tryb przesyłania danych i korzystanie z translacji LBA.

^ ^ Zajrzyj do podrozdziału „Ograniczenia pojemności dysku ATA" znajdującego się na stronie 635.

Formatowanie dysku

Właściwa instalacja i formatowanie to podstawa wydajności i niezawodności dysku. W tej części rozdziału opiszemy procedury formatowania. Przeprowadzamy je zarówno przy instalowaniu nowego dysku, jak i bez­pośrednio po skopiowaniu danych z dysku, który sprawiał wcześniej problemy.

Formatowanie dysku obejmuje trzy etapy:

  1. formatowanie niskiego poziomu,

  2. dzielenie dysku na partycje,

  3. formatowanie wysokiego poziomu.

Formatowanie niskiego poziomu (Low-Level Formatting)

Wszystkie nowe dyski twarde są formatowane niskopoziomowo fabrycznie i ponowne wykonywanie tej ope­racji nie jest wymagane. Można właściwie stwierdzić, że dyski ATA i SCSI nie wymagają formatowania ni­skiego poziomu. Nie jest to również zalecane przez producentów.

Zalecenie formatowania niskiego poziomu było źródłem pewnych mitów o dyskach typu ATA. Przykładowo, wiele osób twierdzi, że dysku ATA nie można formatować niskopoziomowo, a podjęcie takiej próby prowadzi do uszkodzenia dysku. Jest to nieprawda! W przypadku wczesnych dysków ATA można utracić fabrycznie określone optymalne ustawienia przeliczania cylindrów i głowic, jak również mapowanie wadliwych obsza­rów nośnika. Odbija się to na wydajności dysku, ale nie prowadzi do jego uszkodzenia. Warto zwrócić uwa­gę, że wszystkie dyski wykorzystujące wewnętrznie mechanizm nagrywania strefowego (zoned recording) pozostają niewrażliwe na wszelkie próby formatowania niskiego poziomu — rzeczywista liczba sektorów na ścieżkę jest w nich zróżnicowana, a znaczniki sektorów nie mogą zostać zmienione. Zasada taka obejmuje większość dysków ATA wyprodukowanych w ciągu ostatnich 10 lat.

W pewnych sytuacjach przeprowadzenie formatowania niskopoziomowego jest jednak koniecznością. Opisze­my teraz służące do tego celu oprogramowanie.

Oprogramowanie dla dysków SCSI

Dyski SCSI są formatowane niskopoziomowo fabrycznie i, o ile dysk nie sprawia problemów, powtarzanie tej czynności nie jest potrzebne. W rzadkich przypadkach, gdy operacja taka jest wskazana, korzystamy z na­rzędzia dołączonego do kontrolera SCSI. Różnice pomiędzy kontrolerami są dosyć znaczne — program pra­cujący na poziomie rejestrów musi być ściśle dopasowany do konkretnego urządzenia. Do każdego kontrolera SCSI dołączany jest program formatowania niskiego poziomu. Jest on elementem BIOS-u kontrolera bądź osobnym, dołączanym na dyskietce lub dysku CD, programem.

Dysk SCSI przyłączamy do systemu za pośrednictwem kontrolera urządzeń SCSI. Jest to standard komunika­cji między urządzeniami, który nie obejmuje jednak wytycznych odnośnie ich wyglądu. Oznacza to, że każdy element oprogramowania konfiguracyjnego czy formatującego może mieć postać specyficzną dla producenta i konkretnego modelu.

Warto zwrócić uwagę, że oprogramowanie do formatowania i konfigurowania pracy dysku pozostaje związane z kontrolerem. Zapewnia ono obsługę każdego rodzaju dysku SCSI. Ze względu na różnice w sposobie, w jaki różne kontrolery SCSI „widzą" zawartość dysku twardego SCSI, po podłączeniu dysku do innego kontrolera SCSI znajdujące się na nim dane mogą nie zostać rozpoznane.

Oprogramowanie dla dysków ATA

Producenci dysków ATA zdefiniowali i przyjęli jako standardowe rozszerzenia interfejsu ISA (nazywanego też „AT-bus"), wprowadzone w jednej z pierwszych kart kontrolerów dysków WD1002/1003. Powstała w ten sposób norma interfejsu ATA (AT Attachment). Specyfikacja ATA umożliwia korzystanie z komunikatów specyficznych dla producentów dysków i funkcjonujących jako firmowe rozszerzenia standardu. W celu za­bezpieczenia przed formatowaniem niskiego poziomu wprowadza się często specjalne kody, których wysła­nie do dysku odblokowuje możliwość korzystania z procedur formatujących. Różni producenci stosują różne kody. Gdy jest to możliwe, należy postarać się o oprogramowanie udostępniane przez wytwórcę dysku. Zróż­nicowane jest również oprogramowanie do obsługi poszczególnych modeli.

Większość dysków ATA pozostaje całkowicie zabezpieczona przed zmianami współczynnika skośności i usu­nięciem mapy defektów. Jest to związane z wewnętrzną translacją zapisu i dotyczy dysków wykorzystujących technikę zapisu strefowego (zone bit recording). Do uruchomienia procedur formatowania wymagane jest za­zwyczaj skorzystanie ze specyficznych dla dysku poleceń. Komunikaty opisane w specyfikacji ATA nie są za­zwyczaj obsługiwane, zwłaszcza w przypadku dysków nowych, w których jest stosowany zapis strefowy. Bez odpowiedniego przygotowania nie jest więc możliwe przeprowadzenie operacji oznaczania defektów dysku, umożliwiającej często usunięcie uszkodzonych sektorów z obszaru dostępnego do utworzenia partycji.

Większość producentów udostępnia oprogramowanie formatowania niskopoziomowego na stronach WWW. Oto kilka przykładów:

W każdym przypadku użycie programu oferowanego przez producenta dysku jest rozwiązaniem najlepszym. Program taki jest darmowy, umożliwia wykonywanie operacji niskiego poziomu i obsługę defektów dysku w sposób zazwyczaj lepszy niż narzędzia uniwersalne. Jeżeli oprogramowanie producenta nie jest dostępne, można polecić programy Disk Manager firmy Ontrack i Micro-Scope firmy Micro 2000. Innym dopracowa­nym i niedrogim narzędziem jest program diagnostyczny dla komputerów PC firmy Hitachi (wcześniej IBM) o nazwie Drive Fitness Test (DFT). Program ten zawiera moduł formatowania niskiego poziomu, współpracuje z dyskami różnych firm i umożliwia przeprowadzenie gruntownej analizy stanu dysku. Narzędzie firmy IBM zwraca uwagę wygodną funkcją gruntownego testowania dysku w trybie nieniszczącym. Dostępne możliwości niszczącej operacji formatowania niskopoziomowego ograniczają się do dysków firmy IBM i Hitachi. Program dostępny jest na wymienionej wyżej witrynie WWW firmy Hitachi.

Mimo że można zakupić program Ontrack Disk Manager w wersji „ogólnej", która pracuje z dyska-mi dowolnych producentów, jego bezpłatne i dostosowane do poszczególnych marek dysków od-miany dołączane są zazwyczaj na dyskietkach lub dyskach CD-ROM włączanych do standardowego pakietu, w którym kupujemy dysk. Zawsze warto zajrzeć na stronę producenta i sprawdzić, czy do­stępne są nowsze wersje oprogramowania. Narzędzia takie korzystają z funkcji dysku specyficznych dla jego wytwórcy i nie mogą być stosowane do formatowania innych dysków.

Nieniszczące narzędzia formatowania dysków

Narzędzia uniwersalne, pracujące na poziomie BIOS-u i nie niszczące danych na dysku, takie jak Calibrate (składnik starszych wersji Symantec Norton Utilities) lub SpinRite (Gibson Research), nie są warte polecenia w większości sytuacji, gdy wymagane jest faktyczne niskopoziomowe formatowanie dysku. Skuteczność tego rodzaju programów podlega istotnym ograniczeniom, a w niektórych sytuacjach mogą one doprowadzić do niepoprawnej obsługi błędów na dysku. Ich praca polega na formatowaniu pojedynczych ścieżek przy użyciu funkcji BIOS-u. Przed formatowaniem każda ścieżka jest odczytywana, co umożliwia zapisanie danych przed rozpoczęciem formatowania kolejnej. Formatowanie nigdy nie jest pełne — pierwsza ścieżka (cylinder 0, gło­wica 0) jest z zasady pomijana, ponieważ niektóre kontrolery dysków przechowują na niej własne dane o nie-standaryzowanej strukturze.

Programy takie nie wykonują mapowania defektów dysku na wzór właściwych programów formatowania ni­skopoziomowego. Co więcej, mogą nawet usunąć znaczniki uszkodzonych sektorów zapisane w trakcie wcze­śniejszej, poprawnej operacji. Wynikiem jest wówczas możliwość zapisywania danych w sektorach wadliwych. Dodatkową konsekwencją może być utrata gwarancji. Ostatnim, choć może najistotniejszym, ograniczeniem jest to. że programy formatowania nieniszczącego mogą być wykorzystywane wyłącznie w odniesieniu do dys­ków sformatowanych wcześniej i umożliwiających formatowanie przy użyciu funkcji BIOS-u.

Program SpinRite jest użyteczny jako narzędzie odzyskiwania danych, kiedy pojawiają się błędy od-^\ czytu. Wielokrotnie odczytuje on ten sam obszar dysku, analizując wyniki pod kątem odtworzenia jego właściwej zawartości.

Właściwy program formatowania niskiego poziomu pomija funkcje BIOS-u komputera, przesyłając polecenia bezpośrednio do kontrolera dysku. Stąd właśnie bierze się ścisłe powiązanie oprogramowania z wykorzysty­wanym kontrolerem. Ujednolicenie oprogramowania formatującego jest zadaniem praktycznie niewykonal­nym. Użycie niewłaściwego programu tego rodzaju było przyczyną niejednej fałszywej diagnozy dotyczącej stanu dysku.

Zakładanie partycji na dysku

Zakładanie partycji na dysku (partitioning) to operacja prowadząca do zdefiniowania obszarów dysku, które będą widoczne dla systemu operacyjnego jako niezależne wolumeny dyskowe.

Założenie partycji polega przede wszystkim na zapisaniu odpowiednich danych do głównego sektora rozru­chowego dysku (cylinder 0, głowica 0, sektor 1 — pierwszy sektor dysku). Każdą partycję opisują numery początkowych i końcowych: cylindra, głowicy i ścieżki). Dodatkową informacją, odczytywaną przez ROM BIOS komputera, jest znacznik partycji rozruchowej, który wskazuje na której z nich dostępne są pliki inicja-lizacyjne systemu operacyjnego.

► ► Zajrzyj do rozdziału 25., „Systemy plików i odzyskiwanie danych" znajdującego się na stronie 1401.

Standardem programu do tworzenia partycji dysków jest FDISK, dostępy we wszystkich systemach operacyj­nych firmy Microsoft (i nie tylko), aż do wersji Windows Me. Systemy Windows 2000 i XP wyposażone zo­stały w podobny program uruchamiany z wiersza poleceń, o nazwie DISKPART. Dysponują też narzę­dziem Zarządzanie dyskami, służącym do partycjonowania i formatowania dysków twardych. Wszystkie wersje Windows, poczynając od Windows 95, umożliwiają również założenie partycji i sformatowanie dys­ku przez program instalacyjny systemu. Mimo że nazwa i podstawowe funkcje programu nie różnią się po­między różnymi systemami operacyjnymi, zaleca się korzystanie z narzędzia dołączonego do systemu, który będziemy faktycznie instalować. Wynikiem operacji zakładania partycji jest utworzenie sektora rozruchowego dysku, o formacie zrozumiałym dla programu FDISK i instalatora systemu. Główną przesłanką tworzenia więcej niż jednej partycji dysku jest potrzeba korzystania z dwóch lub większej liczby systemów operacyj­nych, zainstalowanych na jednym dysku fizycznym. Program FDISK, DISKPART lub SETUP jest dostępny w każdym systemie operacyjnym.

Ponieważ praca narzędzi FDISK, DISKPART i SETUP (instalator Windows) opiera się na informacjach T^l z BIOS-u komputera (rozmiar i geometria dysku), poprawność wykonywanych przez nie operacji po-zostaje ściśle zależna od poprawności ustawień wprowadzonych przez program BIOS Setup. Dysk 100 GB zdefiniowany jako dysk 100 MB będzie rozpoznawany przez wymienione narzędzia jako dysk o pojemności 100 MB.

We wszystkich wersjach Windows, podobnie jak w systemie MS-DOS, program FDISK lub inne narzędzia przygotowujące dyski umożliwiają tworzenie dwóch rodzajów partycji: podstawowej (primary) i rozszerzo­nej (extended). Wyłącznie partycja podstawowa może być partycją rozruchową. Jeżeli w komputerze zain­stalowany jest tylko jeden dysk, jego część lub całość zawsze musi zostać wybrana jako partycja podstawowa. Warunek ten musi być spełniony, aby możliwe było uruchamianie z dysku systemu operacyjnego. Partycja podstawowajest rozpoznawanajako pojedynczy wolumen lub, inaczej mówiąc, litera dysku (C: w przypadku systemów jednodyskowych). Partycja rozszerzona jest jedynie obszarem, w którym utworzyć można wła­ściwe dyski logiczne. Dysk logiczny może obejmować część lub całość partycji rozszerzonej. Poszczególne dyski logiczne mogą mieć różne rozmiary. FDISK określa dyski logiczne jako „logiczne dyski DOS" (logical DOS drive).

Określanie partycji jako „partycji DOS" lub „dysku DOS" jest typowe dla wszystkich wersji Windows, do XP włącznie, jak również systemu Linux.

Zależnie od wykorzystywanej wersji Windows (lub MS-DOS), wprowadzenie podziału na partycje może być wymagane. Pierwsza edycja Windows 95 i wszystkie wersje systemu MS-DOS zapewniają wyłącznie obsługę systemu plików FAT16, który nie umożliwia utworzenia więcej niż 65 536 plików na każdym dysku, a co ważniejsze — wolumenów o pojemności przekraczającej 2,1 GB. Tak więc 10-gigabajtowy dysk pracujący pod kontrolą systemu MS-DOS lub pierwszej edycji Windows 95 (95A) musi mieć pięć lub więcej partycji (patrz rysunek 14.7).


0x08 graphic
Rysunek 14.7.

Przyłączenie dysku o pojemności większej niż 2,1 GB do komputera pracującego pod kontrolą systemu MS-DOS lub Windows 95A wymusza korzystanie z wielu liter dysków. Mimo ze wszystkie wolumeny są wówczas częścią jednego dysku, są one opisane podobnie jak osobne dyski fizyczne


► ► Zajrzyj do podrozdziału „Systemy plików FAT", znajdującego się na stronie 1416.

Inną przesłanką dzielenia dysku na wiele wolumenów jest możliwość podwyższenia bezpieczeństwa danych. Przykładowo, PowerQuest (producent programu PartitionMagic) zaleca podział na trzy wolumeny:

C: — dla systemu operacyjnego i narzędzi,

D: — dla aplikacji,

E: i dalsze — dla danych.

W takim przypadku partycje przypisujemy następująco: C: — partycja podstawowa,

D: i E: — dyski logiczne DOS (wolumeny) w obrębie partycji rozszerzonej.

Jeżeli w przypadku awarii struktura dysków C: i D: ulegnie zniszczeniu, dane na dysku E: mogą pozostać nie­naruszone. Dodatkowo, ułatwia to tworzenie kopii zapasowych — wskazujemy programowi całość dysku E: (w miejsce wybierania katalogów na dysku wspólnym).

Co prawda w celu umożliwienia natychmiastowego użycia zewnętrzne napędy USB i IEEE 1394a XA są zwykle wcześniej formatowane i partycjonowane, ale za pomocą narzędzi FDISK/FORMAT lub Zarządzanie dyskami możliwe jest zmodyfikowanie partycji i systemów plików napędów. Szczegó­łowych informacji należy szukać w instrukcji obsługi dołączonej do zewnętrznego napędu lub na stronie internetowej jego producenta.

Obsługa dużych dysków

Jeżeli korzystamy z programu FDISK dołączonego do systemu Windows 95B lub nowszego (Win95 OSR 2.x), Windows 98, Windows Me lub Windows 2000, a jeden z dysków w komputerze ma pojemność większą niż 512 MB. FDISK umożliwia skorzystanie z opcji obsługi dużych dysków.

Wybranie opcji obsługi dużych dysków zapewnia dwie korzyści:

♦ Można uzyskać dostęp do całej pojemności dużego dysku (powyżej 2,1 GB) przy użyciu jednej litery dysku. Limitem rozmiaru „dużego dysku" jest 2 TB. Jest to konsekwencją tego, że (niejawnie) wybieramy system plików FAT32, pozbawiony podstawowych ograniczeń systemu FAT16.

► ► Zajrzyj do punktu „FAT32" znajdującego się na stronie 1423.

♦ Ze względu na efektywniejsze zasady przechowywania danych w systemie plików FA T32, pliki zajmują mniejszy obszar przestrzeni dyskowej.

Należy jednak pamiętać, że w przypadku stosowania obsługi dużych dysków, wszystkie operacje na nich muszą być wykonywane przez system operacyjny, który zapewnia obsługę systemu plików FAT32 (Windows 95B i późniejsze, Windows 98, Windows Me i Windows 2000). Jeżeli korzystamy z gier lub aplikacji dla systemu DOS. które wymagają uruchomienia systemu z dyskietki, nie będą one mogły uzyskać dostępu do dużych partycji. Potencjalnym rozwiązaniem może być zastąpienie systemu DOS na dyskietce wersją DOS włączoną do systemu Windows 95B lub Windows 98. Operację taką wykona polecenie SYS A:. Inną możliwością jest skorzystanie z menu startowego systemów Windows 95B lub Windows 98 (wywoływanego wciśnięciem F8 w trakcie pierwszej fazy inicjowania systemu). Dostępna jest w nim opcja Wiersz poleceń (Command Prompt). umożliwiająca wejście w tryb DOS zgodny z systemem plików FAT32. Jeszcze jedną alternatywą jest wybra­nie z menu Start polecenia Zamknij system (Shutdown), a następnie opcji Uruchom ponownie komputer w trybie MS-DOS (Restart computer in MS-DOS mode).

Po wybraniu opcji obsługi dużych dysków ogólne zasady tworzenia partycji nie zmieniają się. Wciąż można utworzyć partycję podstawową i rozszerzoną kierując się zaleceniami ochrony danych, opisanymi wcześniej.

Innym typem systemu plików jest NTFS obsługiwany wyłącznie przez systemy Windows NT/2000 i XP. Jest on wydajny i zapewnia dodatkowe funkcje ochrony danych i pracy sieciowej. W systemach Windows 2000/XP i Windows NT 4.0 z zestawem Service Pack 4 lub nowszym stosowana jest wersja NTFS5. System NTFS sze­rzej omawiamy w rozdziale 25.. „Systemy plików i odzyskiwanie danych". Warto pamiętać przede wszystkim o tym, że system Windows 9x nie zapewnia dostępu do partycji NTFS, a Windows NT — do partycji FAT32. Jedynie Windows 2000 oraz XP potrafi odczytywać i zapisywać dane w obu tych formatach.

FDISK a litery dysków

Dzielenie dysku na partycje trudno ująć w jednym schemacie. Przebieg operacji zależy od liczby dysków twar­dych w komputerze i pożądanej liczby wolumenów dyskowych.

W przypadku pojedynczego dysku twardego, utworzenie partycji podstawowej i partycji rozszerzonej z dwoma dyskami logicznymi prowadzi do następujących przypisań:

Typ partycji Litery dysków

Podstawowa C:

Rozszerzona D: i E:

Typowym oczekiwaniem jest, że przyłączenie drugiego dysku spowoduje przypisanie do jego wolumenów kolejnych liter alfabetu. Nie jest to prawdą.

Aby korzystać z programu FDISK, niezbędna jest podstawowa wiedza o sposobie przypisywania liter dysków w systemie MS-DOS. Przypisania dla dwóch dysków twardych zestawione zostały w tabeli 14.1.

Tabela 14.1. Przypisania liter dysków

Dysk

Partycja

Numer kolejny

Oznaczenie literowe

1

Podstawowa

1

C:

1

Rozszerzona

3

E:

2

Podstawowa

2

D:

2

Rozszerzona

4

F:

Jak wpływa to na zasady postępowania przy dołączaniu kolejnego dysku? Jeżeli na drugim dysku założymy partycję podstawową podczas gdy na dysku pierwszym była już wykorzystywana partycja rozszerzona, drugi dysk „przejmie" literę D:. która zostanie wykorzystana jako oznaczenie drugiej partycji podstawowej w systemie. Zmianie (o jedną literę „wzwyż") ulegną oznaczenia wszystkich dysków logicznych na partycji rozszerzonej.

We wcześniejszym przykładzie mówiliśmy o dysku, do którego opisu wykorzystane zostały litery C: (partycja podstawowa). D: i E: (wolumeny partycji rozszerzonej). W tabeli 14.2 zestawione zostały oznaczenia przypi­sywane w sytuacji, gdy do tego samego komputera dołączymy drugi dysk, z partycją podstawową i dwoma dyskami logicznymi na partycji rozszerzonej (czyli podzielony w taki sam sposób).

Tabela 14.2. Przypisania liter dysków po dołączeniu drugiego dysku fizycznego

Dysk

Partycja

Numer kolejny

Oznaczenie pierwotne (tylko 1. dysk)

Nowe oznaczenie

po dołączeniu 2. dysku

1

Podstawowa

1

C:

C:

1

Rozszerzona

3

D:, E:

E:, F:

2

Podstawowa

2

D:

2

Rozszerzona

4

G:, H:

Po dołączeniu drugiego dysku litery dysków D: i E: zostały zmienione na E: i F:. Partycja podstawowa nowego dysku jest oznaczona jako D.\ wolumenom partycji rozszerzonej przypisane zostały litery G: i H:. Znajomość logiki takiej zamiany jest jedynym zabezpieczeniem przed nieumyślnym usunięciem danych z niewłaściwego dysku.

Identyczna zasada odnosi się do trzeciego i czwartego dysku w systemie — pierwsze litery alfabetu przypi­sywane są partycjom podstawowym. Dopiero po nich opisywane są wolumeny logiczne kolejnych partycji rozszerzonych.

Podstawowym wnioskiem, który można z powyższej analizy wysnuć, jest zasada tworzenia na dodatkowych dyskach wyłącznie partycji rozszerzonych. Jeżeli nie utworzymy partycji podstawowej, kolejnemu dyskowi w systemie przypisane zostaną kolejne nie wykorzystane litery.

Rozumiemy teraz zapewne, że przy dodawaniu dysku drugiego, trzeciego lub czwartego do systemu, tworze­nie partycji podstawowej nie jest zazwyczaj najlepszym pomysłem. Dysk, który nie pracuje jako pierwszy, nie może zazwyczaj być dyskiem rozruchowym. Nie ma więc powodu, aby tworzyć na nim partycję podstawową. FDISK umożliwia wykorzystanie 100% miejsca na dysku do utworzenia partycji rozszerzonej. W tabeli 14.3 przedstawiamy oznaczenia przypisywane wolumenom, gdy drugi dysk ma wyłącznie partycję rozszerzoną.

Tabela 14.3. Przypisania liter dysków po dołączeniu drugiego dysku bez partycji podstawowej

Dysk

Partycja

Numer kolejny

Oznaczenie pierwotne (tylko 1. dysk)

Nowe oznaczenie

po dołączeniu 2. dysku

I

Podstawowa

1

C:

C:

1

Rozszerzona

3

D:, E:

D:, E:

2

Podstawowa

2

2

Rozszerzona

4

F:

Jak widać, litery wolumenów dysku pierwszego pozostają niezmienione. Układ taki jest bardziej zrozumiały i zabezpiecza przed pomyłkami, wynikającymi z nagłej zmiany oznaczeń. Konsekwencją szczególnego trak­towania partycji podstawowych było przed laty oznaczanie pierwszych napędów dysków Iomega Zip, które korzystały z interfejsu ATAPI, jako D:. Dyskowi twardemu o dwóch partycjach pozostawały wówczas litery C: i E:. Producent szybko wówczas zareagował zmianą formatu dysków i programów obsługi — zapewniając rozpoznawanie stacji Iomega jako kolejnego dysku twardego z partycją rozszerzoną.

Korzystanie z programu FDISK

Przy uruchamianiu nowszych wersji narzędzia FDISK, pierwszy ekran programu zawiera następujące pytanie:

Czy chcesz włączyć obsługę dużych dysków (T/N) ? [T]

Podanie odpowiedzi twierdzącej spowoduje, że dla wszystkich tworzonych wolumenów o rozmiarze przekra­czającym 512 MB FDISK automatycznie wybierze format FAT32. Odpowiedź przecząca ogranicza możliwo­ści programu do tworzenia dysków FAT16, ograniczonych rozmiarem do 2 GB i nieefektywnie wykorzystu­jących dostępne miejsce (ze względu na duży rozmiar jednostki alokacji).

W nowych komputerach standardem jest odpowiedź Y, potwierdzająca zamiar korzystania z systemu plików FAT32. Ukaże się wówczas menu podobne do poniższego:

Bieżący dysk twardy: 1

Wybierz jedną z możliwości:

  1. Utwórz partycję DOS lub logiczny dysk DOS

  2. Ustaw aktywną partycję

  3. Usuń partycję lub logiczny dysk DOS

  4. Wyświetl informacje o partycjach

  5. Zmień bieżący dysk twardy

Wybierz: [1]

Opcja piąta wyświetlana jest wyłącznie wtedy, gdy FDISK wykryje w komputerze więcej niż jeden fizyczny dysk twardy (warunkiem jest jego zadeklarowanie w programie konfiguracyjnym BIOS-u). FDISK standar­dowo proponuje pracę z pierwszym dyskiem. Opcja piąta umożliwia wybranie innego dysku w systemie.

Do zakładania partycji służy opcja numer 1. Jeżeli dysk był już wcześniej dzielony na partycje, można wy­świetlić ich układ, korzystając z opcji numer 4.

Po wybraniu opcji numer 1, menu zmienia zawartość, umożliwiając wybór pomiędzy tworzeniem partycji podstawowej i rozszerzonej:

Utwórz partycję DOS lub logiczny dysk DOS

Bieżący dysk twardy: 1 Wybierz jedną z możliwości:

  1. Utwórz podstawową partycję DOS

  2. Utwórz rozszerzoną partycję DOS

  3. Utwórz logiczny dysk DOS w rozszerzonej partycji DOS

Wybierz: [1]

Zasady pracy programu wymagają utworzenia partycji podstawowej na dysku rozruchowym systemu opera­cyjnego. Na innych dyskach fizycznych można utworzyć pojedynczą partycję rozszerzoną. Opcja numer 1 jest więc opcją, którą wybieramy przy zakładaniu partycji na pierwszym dysku komputera, który będzie zarazem dyskiem rozruchowym.

Po wybraniu opcji tworzenia partycji podstawowej wyświetlane jest zapytanie o to, czy życzymy sobie wyko­rzystać całość dostępnego na dysku miejsca. Odpowiedź twierdząca— w połączeniu z wcześniejszym wybo­rem formatu FAT32 — prowadzi do założenia partycji podstawowej, która obejmuje cały dysk twardy. Jeżeli nie włączyliśmy opcji obsługi dużych dysków (a więc korzystamy wyłącznie z formatu FAT16). utworzona zostanie partycja o wielkości 2 GB, chyba że rozmiar całego dysku jest mniejszy.

Jeżeli nie jest pożądane, aby partycja podstawowa obejmowała cały dysk, to po określeniu jej rozmiaru i wy­konaniu operacji, ponownie korzystamy z menu, wybierając tym razem opcję tworzenia partycji rozszerzonej, na której — w kolejnych krokach — zakładamy dyski logiczne. Autor zaleca jednak standardowo tworzenie jednej partycji, która obejmuje cały dysk. Do podzielenia dysku skłonić może jednak wiele różnych czynników: instalacja dodatkowego systemu operacyjnego, potrzeba korzystania z innego systemu plików, wymagania aplikacji itp.

Po utworzeniu wszystkich wymaganych partycji, ostatnim krokiem jest określenie jednej z nich jako rozrucho­wej (bootable) lub aktywnej (active). Umożliwia to opcja numer 2 głównego menu programu. W typowych przypadkach tylko jedna partycja może zostać oznaczona jako aktywna — partycja podstawowa. Po jej wska­zaniu kończymy pracę narzędzia.

Po zakończeniu pracy programu FDISK komputer musi zostać uruchomiony ponownie —jest to warunkiem rozpoznania zmiany przez wszystkie składniki oprogramowania komputera. Następnym krokiem będzie for­matowanie wysokiego poziomu każdego z utworzonych wolumenów. Służy do tego polecenie FORMAT. Po jego użyciu dyski będą gotowe do przechowywania plików.

Wolumen C: powinien być zazwyczaj formatowany z opcją umieszczenia na nim plików systemu operacyj­nego. Gdy jednak zamierzamy korzystać z programu instalacyjnego systemu Windows, można oczekiwać, że wykryje on brak plików systemowych i zapewni ich skopiowanie.

Partycjonowanie i formatowanie dysku

za pomocą narzędzia Zarządzanie dyskami (Disk Management)

Pomimo tego, że systemy Windows 2000 i XP posiadają bogaty w możliwości program trybu wiersza pole­ceń DISKPART, podobny do narzędzia FDISK, który dodatkowo pozwala na obsługę zaawansowanych roz­wiązań dyskowych, takich jak macierze RAID i dyski dynamiczne, większość użytkowników tych systemów korzysta z narzędzia Zarządzanie dyskami, wyposażonego w graficzny interfejs. Narzędzie to — wchodzące w skład konsoli MMC (Microsoft Management Console) — umożliwia partycjonowanie i formatowanie no­wego dysku twardego zainstalowanego w komputerze.

Podobnie jak w przypadku programu FDISK, narzędzie Zarządzanie dyskami pozwala wybrać dla dysku typ systemu plików. Jednak oba narzędzia różnią się pod następującymi względami:

♦ Narządzie Zarządzanie dyskami jest wyposażone w prawdziwy graficzny interfejs użytkownika. Identyfikacja oparta na kolorach powiązanych z typem partycji i stanem napędu pozwala z łatwością stwierdzić, jakie zadania zostały wykonane. Dołączone kreatory umożliwiają partycjonowanie

i formatowanie dysku według wytycznych systemu Windows.

W przeciwieństwie do programu FDISK, który przed rozpoczęciem formatowania nowego dysku wymaga ponownego uruchomienia systemu i w celu ukończenia operacji korzysta dodatkowo z programu FORMAT, narzędzie Zarządzanie dyskami wszystkie zadania jest w stanie zrealizować bez ponownego uruchamiania systemu.

♦ Niezależnie od typu partycji narządzie Zarządzanie dyskami używa symboli dyskowych, których jeszcze nie przypisano żadnemu dyskowi twardemu ani napędowi optycznemu. W przeciwieństwie do programu FDISK, który na skutek zainstalowania nowego dysku twardego z partycją podstawową może wymieszać istniejące przypisania symboli dysków, narzędzie Zarządzanie dyskami nowemu napędowi przydzieli nowe symbole, niekolidujące z już wykorzystanymi. Jeśli instalacja nowego napędu wywoła konflikty z używanymi

sporadycznie napędami nośników wymiennych, takimi jak napęd USB lub czytnik kart, wyposażonymi w pamięć Flash, za pomocą narzędzia Zarządzanie dyskami można przypisać inny symbol nowym lub istniejącym dyskom twardym bądź napędom optycznym.

Aby w systemie Windows XP przy użyciu narzędzia Zarządzanie dyskami dokonać partycjonowania nowego dysku twardego, należy wykonać następujące kroki:

  1. Po wybraniu z menu Start elementu Mój komputer (My Computer) należy go kliknąć prawym przyciskiem myszy i z menu podręcznego wybrać pozycję Zarządzaj (Manage).

  2. W lewym panelu okna Zarządzanie komputerem (Computer Management) należy kliknąć pozycję Zarządzanie dyskami (Disk Management). W górnej części prawego panelu pojawią się symbole aktualnie przypisane dyskom twardym. W dolnej części prawego panelu (rysunek 14.8) widoczne będą dyski zainstalowane w komputerze. Nowy dysk twardy będzie identyfikowany przez niewykorzystaną przestrzeń.

0x08 graphic

Rysunek 14.8. Okno narzędzia Zarządzanie dyskami (Disk Management) pokazujące nowo zainstalowany dysk twardy (Dysk 1). Ponieważ wolumin New Volume (E:) został utworzony po dodaniu napędu CD-ROM (D:), przypisano mu dalszą literę

  1. Po zaznaczeniu nowego dysku twardego należy go kliknąć prawym przyciskiem myszy, a następnie w celu rozpoczęcia partycjonowania z menu podręcznego wybrać pozycję Nowa partycja (New Partitioń).

  1. W oknie narzędzia Kreator nowych partycji (New Partitioń Wizard) należy kliknąć przycisk Dalej (Next).

  1. Należy wybrać opcję Partycja podstawowa (Primary partitioń) lub Partycja rozszerzona (Extended partitioń). Jeśli nie jest tworzona partycja podstawowa służąca do ładowania systemu, zwykle należy wybrać opcję Partycja rozszerzona. Aby kontynuować, należy kliknąć przycisk Dalej.

  2. Jeśli zależy Ci na pozostawieniu wolnej części przestrzeni dysku twardego, powinieneś zmodyfikować rozmiar partycji. W przeciwnym razie należy kliknąć przycisk Dalej.

  3. Narzędzie Kreator nowych partycji poinformuje o zmianach, jakie zostaną dokonane dla nowego dysku (rysunek 14.9). W celu zakończenie operacji partycjonowania należy kliknąć przycisk Zakończ.

  4. Po zamknięciu kreatora nowa partycja dysku twardego zostanie w oknie narzędzia Zarządzanie dyskami zidentyfikowana jako wolne miejsce. Aby kontynuować, prawym przyciskiem myszy należy kliknąć partycję i wybrać pozycję Nowy dysk logiczny (New Logical Drive).

  5. W celu wykonania w kreatorze kolejnej operacji należy kliknąć przycisk Dalej. Aby utworzyć dysk logiczny, należy ponownie kliknąć przycisk Dalej.

0x08 graphic
10. W celu utworzenia więcej niż jednego dysku logicznego należy zmienić maksymalny rozmiar partycji. Aby utworzyć jeden dysk logiczny, należy kliknąć przycisk Dalej.

Rysunek 14.9.

Narządzie Kreator nowych partycji jest gotowe do utworzenia na dysku Dysk 1 partycji rozszerzonej


  1. W tym kroku należy przypisać dyskowi symbol. Domyślnie zostanie wyświetlony kolejny wolny symbol, ale możliwe jest wybranie dowolnego z dostępnych. Można też podłączyć nowy dysk logiczny do pustego katalogu systemu plików NTFS, a nawet nie przydzielać litery ani ścieżki. Aby kontynuować, należy kliknąć przycisk Dalej.

  2. W tym kroku należy określić opcje formatowania. Domyślnie nowy dysk logiczny jest formatowany przy użyciu systemu plików NTFS, ale jeśli jego pojemność nie przekracza 34,36 GB (32 GiB), można zastosować system plików FAT32. Jeśli jednak pojemność dysku logicznego jest większa

od 32 GiB. system Windows XP może sformatować go wyłącznie w systemie plików NTFS. Możliwe jest też określenie etykiety woluminu i rozmiaru jednostki alokacji (klastra), włączenie kompresji plików i katalogów oraz wykonanie szybkiego formatowania. Jeśli dysk ma zostać sformatowany później, należy zaznaczyć opcję Nie formatuj tej partycji (Do not format this partitioń). Aby kontynuować, należy kliknąć przycisk Dalej.

13. Narzędzie Kreator nowych partycji ponownie wyświetli listę zmian do wykonania. Aby powrócić
do określonego menu i dokonać odpowiednich modyfikacji, należy kliknąć przycisk Cofnij (Back).
W celu sformatowania dysku logicznego przy użyciu wybranych opcji należy kliknąć przycisk
Zakończ (rysunek 14.10).


0x08 graphic
Rysunek 14.10.

Narzędzie Kreator nowych partycji jest gotowe do sformatowania dysku logicznego dysku fizycznego Dysk I

z wykorzystaniem pokazanych opcji


14. Jeśli na dysk logiczny nie wykorzystano całej dostępnej przestrzeni i zamierzasz utworzyć kolejne tego typu dyski, należy powtórnie wykonać kroki 10-14.

Po zakończeniu operacji utworzenia i formatowania nowej partycji nie jest wymagane ponowne uruchomie­nie komputera. W dolnej części okna narzędzia Zarządzanie dyskami widoczna jest kolorowa legenda, uła­twiająca śledzenie stanu operacji przygotowywania dysków.

Tworzenie partycji przy użyciu narzędzi firm trzecich

Alternatywne programy do obsługi partycji dyskowych, takie jak PartitionMagic firmy PowerQuest i Partitioń Commander firmy V-Communications, umożliwiają pracę z dyskiem wykorzystywanym wcześniej i wykony­wanie na nim następujących operacji (bez utraty danych):

Mimo dużej wygody oferowanej przez narzędzia niezależnych firm, autor wciąż zaleca wykonać pierw-szą operację dzielenia dysku przy użyciu narzędzi FDISK, DISKPART, Zarządzanie dyskami (Disk Management) lub instalatora Windows (narzędzia usuwają istniejące dane). Programy alternatywne mogą być przydatne później, gdy pojawi się potrzeba zmiany pierwotnego układu.

Mimo że każdy program zaleca poprzedzenie jakichkolwiek operacji wykonaniem pełnej kopii zapasowej sys­temu, autor korzystał z wymienionych narzędzi wiele razy, zamieniając pojedynczą partycję dysku na dwie lub więcej mniejszych — całość operacji zamykała się w 10 minutach. Wykonanie podobnych czynności przy uży­ciu narzędzi FDISK i FORMAT oraz programu do tworzenia kopii zapasowych wymagałoby kilku godzin. Wynika to z konieczności archiwizacji zawartości dysku, usunięcia istniejących i utworzenia nowych partycji za pomocą programu FDISK, ponownego uruchomienia komputera, sformatowania nowych napędów oraz powtórnego załadowania systemu operacyjnego i przywrócenia danych z kopii.

Formatowanie wysokiego poziomu

Ostatnim etapem instalacji dysku jest formatowanie wysokiego poziomu. Podobnie jak oprogramowanie do zakładania partycji, oprogramowanie formatujące jest związane z wybranym systemem plików. W syste­mach Windows 9x i DOS podstawową funkcją operacji formatowania jest utworzenie tablicy alokacji plików i głównego katalogu dysku. Te dwa elementy umożliwiają pracę z dyskiem systemowi operacyjnemu. Forma­towanie musi zostać poprzedzone założeniem partycji. Każdy założony przez FDISK wolumen musi zostać sformatowany. Jak dowiedziałeś się w podpunkcie „Partycjonowanie i formatowanie dysku za pomocą na­rzędzia Zarządzanie dyskami (Disk Management)", w systemach Windows 2000 i XP formatowanie wyso­kiego poziomu jest realizowane przez narzędzie Kreator nowych partycji (New Partitioń Wizard).

Podstawowe narzędzia formatujące to F0RMAT.COM i moduł formatowania wywoływany przez menu programu Eksplorator Windows (Windows Explorer) systemów Windows 9x/Me. Narzędzie F0RMAT.C0M wymaga na­stępującej składni:

FORMAT C: /S /V

Polecenie takie zapewni sformatowanie dysku C: i zapisanie na nim ukrytych plików systemu operacyjnego. Ukoronowaniem pracy narzędzia będzie wyświetlenie pytania o etykietę wolumenu.

Program formatowania wysokiego poziomu systemu plików FAT działa następująco:

  1. Przeszukuje dysk w poszukiwaniu ścieżek i sektorów oznaczonych w trakcie formatowania niskopoziomowego jako uszkodzone i oznacza odpowiednie ścieżki jako nieczytelne.

  2. Zapisuje w obszarze pierwszego cylindra partycji (głowica 1, sektor 1) sektor rozruchowy wolumenu systemu DOS.

  1. Poczynając od kolejnego sektora (głowica 1, sektor 2), zapisuje tablicę alokacji plików. Bezpośrednio po niej zapisana zostaje kopia. Oba te wpisy pozostają praktycznie puste — mogą zawierać jedynie oznaczenia uszkodzonych bloków dysku, odnalezione w trakcie przeszukiwania dysku.

  2. Zapisuje pusty katalog główny.

  3. Jeżeli podany został parametr /S, kopiuje pliki systemowe, IO.SYS, MS-DOS.SYS(lub IBMBIO.COM i 1BMDOS.COM) i COMMAND.COM (w takiej dokładnie kolejności).

  4. Jeżeli podany został parametr /V, wzywa do wprowadzenia etykiety wolumenu zapisywanej jako czwarty wpis w katalogu głównym.

Od tego momentu system może zapisywać i odczytywać dane z dysku. O ile skopiowaliśmy pliki systemowe, dysk będzie również dyskiem rozruchowym.

W trakcie pierwszej fazy formatowania wysokiego poziomu wykonywane jest przeszukiwanie dysku pod ką­tem oznaczonych wcześniej defektów. Wyszukiwane są wówczas znaczniki, które mogły zostać wprowadzone jako oznaczenia wadliwych ścieżek lub sektorów. Narzędzie FORMAT pięciokrotnie podejmuje próbę wykona­nia operacji odczytu z każdego takiego obszaru. Jeżeli oznaczenia zostały wprowadzone w trakcie formatowa­nia niskopoziomowego, wszystkie te próby zazwyczaj zawodzą.

Po pięciu próbach odczytu program nie ponawia ich więcej i przechodzi do sprawdzania kolejnego sektora. Jeżeli w trakcie pięciu prób dany obszar nie mógł być odczytany, odpowiednie bloki dysku zostają opisane jako uszkodzone (odpowiedni wpis zostaje umieszczony w tablicy alokacji plików).

Ponieważ formatowanie wysokiego poziomu nie niszczy zawartości dysku, poza katalogiem główny i sektorem rozruchowym, korzystając z narzędzi takich jak Norton Utilities można „cofnąć" tę ope-rację. Warunkiem poprawnego odzyskania danych jest to, żeby po przeprowadzeniu formatowania w obszarze partycji nie były zapisywane nowe pliki. Do tego momentu zawartość dysku pozostaje właściwie nienaruszona.

Jeżeli utworzyliśmy partycję rozszerzoną, polecenia formatowania dysków logicznych DOS będą krótsze — w rodzaju FORMAT D: /V dla dysku D:, czy FORMAT E: /V dla dysku £:.

Ograniczenia programów FDISK i FORMAT

Największym problemem, z którym zetkniemy się przy korzystaniu z narzędzia FDISK, jest jego niszczące działanie. Gdy pojawia się potrzeba zmiany struktury dysku, wszystkie dane muszą zostać skopiowane na inny nośnik, a cała procedura zakładania partycji rozpoczęta od nowa. Możliwość usunięcia całego wolumenu dysku skłania do ostrożności. Para programów FDISK-FORMAT też ma istotne ograniczenia:

Co prawda narzędzie Zarządzanie dyskami systemów Windows 2000 i XP — w porównaniu z programami FDISKIFORMAT— lepiej sobie radzi z zapobieganiem konfliktom występującym pomiędzy nowym i ist­niejącymi dyskami, dotyczącym oznaczeń literowych dysków, ale jeśli konieczne jest zmodyfikowanie party­cji, w dalszym ciągu nie potrafi uchronić danych przed ich utraceniem. Poza tym nie jest oferowana żadna metoda migracji danych.

Wymienione tu braki skłaniają wielu producentów do dołączania różnego rodzaju oprogramowania automaty­zującego instalację dysku twardego. Dzięki nim przygotowanie nowego środowiska pracy może być czynno­ścią szybką, prostą i bezpieczną.

Typowe funkcje programów automatyzujących instalowanie dysku to:

8,4 GB itd.).

Najwięksi producenci oprogramowania automatyzującego instalowanie dysków to Ontrack Data International, Inc. i StorageSoft. Obie firmy sprzedają swoje produkty wytwórcom dysków twardych, którzy dołączają je do oferowanych klientom urządzeń. Dostępne są również wersje „ogólnego stosowania", umożliwiające pracę z dyskami dowolnej marki i wersji. W tabeli 14.4 zestawione zostały podstawowe informacje o najpopular­niejszych programach instalacji dysku.

Tabela 14.4. Przegląd programów automatyzujących instalowanie dysków twardych

Producent

Program

Wersja OEM

(dla wybranych dysków)

Wersja detaliczna (dla wszystkich dysków)

Ontrack

Disk Manager1

Tak

Tak

StorageSoft2

DriveGuide

Tak

Nie

Western Digital3

Data Lifeguard

Tak

Nie

Seagate4

DiscWizard

Tak

Nie

Maxtors

MaxBlast

Tak

Nie

Disk Manager zastąpił Disk Manager DiskGo!

1W 2002 roku firma StorageSoft została przejęta przez Phoenix Technologies.

oprogramowanie Data Lifeguard zawiera zmodyfikowaną wersję narzędzi EZ-Drive i DriveGuide firmy StorageSoft. 4 Oprogramowanie DiscWizard firmy Seagate powstało we współpracy z firmą Ontrack i zawiera Ontrack Disk Manager. Zostało stworzone w celu umożliwienia instalacji dodatkowego napędu. W celu zainstalowania w nowym komputerze pierwszego napędu należy pobrać narzędzie DiscWizard Starter Edition. DiscWizard Online jest internetową wersją narzędzia DiscWizard2002.

3Oprogramowanie MaxBlast Plus IIfirmy Maxtor jest zmodyfikowaną wersją DriveGuide. Narzędzie MaxBlast! Software v9.x jest zmodyfikowaną wersją programu EZ-Drive. Wersje 7.x i 8.x to zmodyfikowane wersje narzędzia Ontrack Disk Manager.

Disk Manager i EZ-Drive to programy narzędziowe pracujące w środowisku DOS. DiscWizard, MaxBlast i Disk Manager 4.x zapewniają interfejs okienkowy. DiscWizard firmy Seagate i MaxBlast przeprowadzają analizę systemu, zadają użytkownikowi odpowiednie pytania i przeprowadzają na ich podstawie procedurę całkowicie zautomatyzowaną.

Wersje OEM omawianego tu oprogramowania są udostępniane publicznie w witrynach WWW producentów dysków. Wersję detaliczną narzędzia Disk Manager 4.x, współpracującą z dowolnymi konfiguracjami ste­rowników, można zakupić w sklepach komputerowych lub na stronach internetowych producentów.

Wymiana dysku twardego

Na stronach wcześniejszych omawialiśmy instalowanie dysku jako jedynego w komputerze lub dołączanie nowego dysku jako drugiego. Choć już samo przygotowanie i sformatowanie nowego dysku może być zada­niem ciekawym, o wiele większym wyzwaniem będzie przeniesienia programów i plików z dysku starszego na nowy, instalowany na jego miejsce.

Migracja w środowisku MS-DOS

Gdy w świecie PC królował system MS-DOS 6.x, wielu użytkowników korzystało z prostej i niezawodnej metody:

  1. Przygotowujemy dyskietkę rozruchową z narzędziami FDISK, FORMAT i XCOPY.

  2. Zakładamy na nowym dysku partycję podstawową i, gdy takie jest życzenie użytkownika, rozszerzoną.

  3. Nie zważając na przypisanie nowej partycji podstawowej litery D:, przeprowadzamy jej formatowanie z opcją kopiowania plików systemowych.

  4. Używamy polecenia XC0PY, aby skopiować wszystkie nieukryte pliki z dysku C: \ (starego dysku twardego) na D:\:

XC0PY C:\ D:\ /S /E

W taki sam sposób kopiujemy dane z dysków logicznych na partycji rozszerzonej, o ile partycja taka była wykorzystywana.

Ponieważ w wielu starszych systemach jedynymi plikami ukrytymi były pliki rozruchowe systemu operacyj­nego (skopiowane wcześniej) oraz plik wymiany środowiska Windows (odtwarzany automatycznie przy jego uruchamianiu), tak prosta operacja udawała się zazwyczaj doskonale.

Po usunięciu starszego dysku z komputera, nowy dysk konfigurowany jest jako primary master, co zapewnia mu przypisanie litery C:. Ostatnią niezbędną czynnością jest wówczas uruchomienie komputera przy użyciu dyskietki rozruchowej i oznaczenie wolumenu C: jako aktywnego. Po restarcie komputer powinien uruchomić się w sposób niemal identyczny jak przed wymianą dysku.

Migracja w środowisku 9x/Me

Systemy Windows 9x/Me wprowadziły istotną komplikację prostej dotąd operacji przenoszenia danych na nowy dysk — wykorzystują one całą gamę plików i folderów ukrytych. Przykładem może być \Winows\lnf, folder plików informacji o programach obsługi urządzeń. Konsekwencją było wprowadzenie w tych wersjach Windows rozbudowanej wersji narzędzia XCOPY.

Program XCOPY32 zostaje uruchomiony automatycznie przy każdym wywołaniu XC0PY z wiersza po­leceń Windows.

Narzędzie XCOPY32 w systemie Windows 9x

W odróżnieniu od „tradycyjnego" programu XCOPY, XCOPY32 może zapewnić kopiowanie plików ukry­tych, automatyczne tworzenie folderów, zachowanie czterech podstawowych atrybutów plików i zachowanie długich nazw plików. W takiej postaci jest to więc narzędzie umożliwiające replikowanie starszego dysku, wciąż jednak należy liczyć się z tym, że:

Poniższe polecenie wywołuje narzędzie XCOPY32 i kopiuje wszystkie pliki i foldery, z zachowaniem ich atry­butów, z dysku CV na nowy dysk D:. Do jego poprawnego funkcjonowania wymagane jest wywołanie z okna wiersza poleceń MS-DOS w systemie Windows 9x/Me (nie jest dopuszczalne wywołanie w „trybie MS-DOS"):

xcopy32 c:\. d:\ /e/c/h/r/k

Użyte zostały następujące parametry:

Podobne polecenie może zostać użyte w odniesieniu do dysków na partycji rozszerzonej.

Po usunięciu z komputera starszego dysku, zworki nowego muszą zostać ustawione na opcję master lub single. Jest to warunkiem przypisania dyskowi litery CV. Kolejnym krokiem będzie uruchomienie z dyskietki progra­mu FDISK, niezbędnego do oznaczenia partycji podstawowej nowego dysku jako aktywnej. Po wyjściu z pro­gramu FDISK ponownie uruchamiamy komputer.

Mimo że metoda oparta na narzędziu XCOPY sprawdziła się w niejednym przypadku, niektóre osoby miały z nią problemy. Powstało więc oprogramowanie bardziej zautomatyzowane i prostsze w obsłudze, jak Drive Copy firmy PowerQuest lub Norton Ghost firmy Symantec. Narzędzia służące do wykonywania kopii dys­ków, dołączane przez producentów do starszych wersji programów instalujących dyski twarde, nie zawsze dobrze działały, ale ich najnowsze wydania mogą być bardzo przydatne przy kopiowaniu zawartości napędów i wykonywaniu innych zadań przygotowawczych. W ostatnich instalacjach stwierdziłem, że program kopiu­jący dyski MaxBlast firmy Maxtor świetnie się sprawdził przy przenoszeniu instalacji systemu Windows XP na znacznie większy docelowy dysk. W związku z tym namawiam do wypróbowania jako pierwszego pro­gramu kopiującego dołączonego do dysku przez jego producenta. Jeśli pojawią się problemy, można skorzy­stać z oprogramowania innych firm.

FDISK i FORMAT to narzędzia wciąż wystarczające do przygotowania nowego dysku, jednak współczesne, coraz bardziej złożone systemy dostarczają wciąż nowych powodów, aby odwołać się do procedur alternatywnych.

Rozwiązywanie problemów z dyskiem twardym

Jeżeli w dysku twardym wystąpiła awaria natury mechanicznej wewnątrz zaplombowanego zestawu glowi-cowo-dyskowego (ang. Head Disk Assembly, HDA), naprawa dysku jest zazwyczaj nieopłacalna. Może być wciąż możliwa, ale zakup nowego dysku to w takiej sytuacji znacznie mniejszy wydatek. Jeżeli uszkodzeniu uległa część elektroniczna dysku, płytkę można zastąpić inną, wyjętą z dysku uszkodzonego mechanicznie. Rzadko jednak istnieje taka możliwość i operacje takie wykonuje się w praktyce wyłącznie w celu odzyskania ważnych danych z dysku uszkodzonego (tymczasowo wyjmując element elektroniczny ze specjalnie zakupio­nego nowego dysku). Części zamiennych do dysku twardych nie sprzedaje się.

Większość problemów z dyskami twardymi nie ma natury ściśle mechanicznej. Można je rozwiązywać przy użyciu odpowiedniego oprogramowania, przeprowadzając niskopoziomowe formatowanie i poprawne mapo­wanie błędów. Jeżeli odgłosy pracy dysku nie odbiegają od typowych, podczas gdy odczyt i zapis nie prze­biegają poprawnie, mamy najczęściej do czynienia właśnie z takim rodzajem błędów.

Problemy natury mechanicznej powodują wyraźną zmianę „brzmienia" dysku. Odgłosy skrobania i zgrzyta­nia „jakby piasek był w środku", w połączeniu z brakiem możliwości odczytywania i zapisywania danych są wyraźnym sygnałem uszkodzenia ściśle sprzętowego. W takich przypadkach nie można liczyć na naprawę dysku za pomocą formatowania niskiego poziomu. Jedyną możliwością jest wymiana płytki z układami elek­tronicznymi dysku. Nie wymaga to wyrafinowanych umiejętności.

Jeżeli wymiana elektronicznych obwodów dysku nie rozwiąże problemu, pozostaje jedynie kontaktowanie się z producentem lub firmą, która specjalizuje się w naprawach dysków twardych i dysponuje odpowiednimi, zabezpieczonymi przed drobinami pyłu, urządzeniami. Ze względu na koszty, działania takie okazują się za­zwyczaj mniej ekonomicznie uzasadnione niż zakup nowego dysku i odtworzenie danych.

Testowanie dysku

Jeżeli jesteśmy w stanie uzyskać dostęp do dysku, ustalenie, czy zostały na nim założone partycje i czy został sformatowany, jest zadaniem stosunkowo łatwym. Umożliwia to prosty test, którego wykonanie ułatwi nam dys­kietka rozruchowa oraz to, że sprawdzany dysk twardy będzie jedynym dyskiem w systemie. Jeżeli do kom­putera podłączone są inne dyski, powinny zostać (tymczasowo) odłączone.

Rozpoczynamy od przyłączenia dysku testowanego. Nie jest konieczne montowanie go w obudowie. Gdy jed­nak decydujemy się na podłączenie dysku twardego do przewodów wypuszczonych poza obudowę kompute­ra, należy pamiętać o zabezpieczeniu go przed niepożądanymi wstrząsami i zjawiskami elektrostatycznymi. Dysk powinien więc zostać umieszczony na specjalnej nieprzewodzącej piance, ewentualnie innej miękkiej powierzchni. Po wykryciu dysku przez BIOS komputera i zapisaniu ustawień, uruchamiamy system operacyj­ny z dyskietki rozruchowej.

W wierszu poleceń systemu operacyjnego wprowadzamy:

DIR C:

Wykonanie polecenia spowoduje wyświetlenie jednego z komunikatów:

Jeśli wiesz, w jakim komputerze napęd wcześniej się znajdował, w celu przeprowadzenia testów dysku powinno się go w nim ponownie zainstalować. Po przeniesieniu napędu do innego kompu­tera różnice w translacji pomiędzy układem BIOS i kontrolerem ATA mogą spowodować, że napęd zawierający już dane zostanie rozpoznany jako pusty. Dzieje się tak zwłaszcza w przypadku kom­puterów z kontrolerami Promise ATA RAID, nawet jeśli funkcja ATA RAID nie jest używana, a także gdy dysk został przeniesiony z komputera z układem BIOS firmy Award lub AMI do systemu z ukła­dem BIOS firmy Phoenix.

Instalowanie napędu dysków optycznych

Instalowanie stacji CD-ROM, CD-R, CD-RW, DVD-ROM czy DVD-RW może być zadaniem bardzo pro­stym lub wręcz przeciwnie, niezwykle skomplikowanym. Warunkiem sprawnego przebiegu operacji jest od­powiednie przygotowanie.

Omówimy teraz instalowanie typowego, wewnętrznego (SCSI lub ATA) lub zewnętrznego (wyłącznie SCSI) napędu dysków optycznych, zwracając szczególną uwagę na detale często pomijane w instrukcjach dołącza­nych do tych urządzeń przez producentów. Po zainstalowaniu stacji, dalsze operacje konfiguracyjne może za­inicjować mechanizm Pług and Play i system Windows. W niektórych przypadkach niezbędne może być jed­nak ręczne konfigurowanie oprogramowania.

Stacje CD-ROM i DVD-ROM korzystają z tych samych interfejsów (ATA lub SCSI) i podstawowe pro­cedury ich instalowania pozostają nie zmienione. Niektórym stacjom DVD-ROM towarzyszy karta dekodera MPEG-2. Inne wyposażone są w zastępujące kartę rozszerzeń oprogramowanie. Jest to wyposażenie umożliwiające wyświetlanie przy użyciu komputera filmów DVD. Kartę dekodera MPEG-2 instalujemy zazwyczaj, podobnie jak większość kart rozszerzeń, w złączu magistrali PCI. Jej funk­cją jest dekodowanie skompresowanych danych obrazu. Rozwiązanie alternatywne, czyli oprogra­mowanie zastępujące kartę dekodera, wykonuje te same czynności przy użyciu głównego proceso­ra komputera. Istotne jest w takim przypadku, czy procesor spełnia wymagania narzucone przez twórcę programu. W przypadku, gdy główna jednostka obliczeniowa komputera jest zbyt wolna, obraz ulega zniekształceniom, „skacze" i traci synchronizację z dźwiękiem. Co prawda z tego po­wodu w przeszłości wiele droższych zestawów DVD zostało wyposażonych w sprzętowe dekodo­wanie, ale obecnie komputery zwykle dysponują procesorami o częstotliwości 1 GHz lub wyższej, wystarczającej do tego, aby oprogramowanie poprawnie odtwarzało obraz. Poza tym wiele współ­czesnych kart graficznych jest zintegrowanych ze sprzętowym dekoderem DVD, dzięki czemu nie ma potrzeby stosowania oddzielnego dekodera.

Warto pamiętać o dodatkowym połączeniu audio, cyfrowym bądź analogowym, pomiędzy stacją dys­ków optycznych, a kartą dźwiękową komputera. Jest ono wykorzystywane głównie przy odtwarzaniu „tradycyjnych" dysków CD.

Konflikty między urządzeniami

Niezależnie od tego, czy stacja dysków optycznych jest stacją zewnętrzną czy wewnętrzną, do jej podłączenia niezbędny jest odpowiedni kontroler typu ATA lub SCSI. W większości przypadków wykorzystywać będzie­my kontroler, który już wcześniej w systemie pracował. W takiej sytuacji można liczyć na to, że został wła­ściwie skonfigurowany. Wówczas pozostaje nam jedynie podłączyć stację.

Większość współczesnych komputerów posiada kontroler ATA zintegrowany z płytą główną. W przypadku, gdy niezbędna jest instalacja nowego kontrolera SCSI, po jego zainstalowaniu w złączu rozszerzeń niezbędne jest upewnienie się, czy zostały mu przypisane odpowiednie zasoby komputera:

Podobnie jak w przypadku innych urządzeń, można liczyć na to, że system Windows 9x/Me/2000/XP i mecha­nizmy Pług and Play zapewnią zautomatyzowanie procesu konfigurowania nowej stacji i kontrolera. W nie­których sytuacjach koniecznością okazuje się jednak samodzielne wykonanie tej pracy.

Konfigurowanie stacji dysków

Właściwa konfiguracja instalowanego dysku optycznego jest kluczowym warunkiem jego funkcjonowania w systemie. Rozpoczynamy od wyszukania bloku zworek (patrz rysunek 14.11). W przypadku dysków ATA dostępne są zazwyczaj trzy podstawowe ich układy:

Rysunek 14.11.

Złącza w tylnej części typowej wewnętrznej stacji CD-ROM

0x08 graphic


Jeżeli dysk jest jedynym urządzeniem korzystającym z drugiego kanału interfejsu ATA, jego ustawienia fa­bryczne powinny być odpowiednie. Niemniej jednak należy to sprawdzić w dołączonym doń opisie.

Jeżeli stacja CD-ROM lub DVD-ROM ma pracować jako urządzenie slave, niezbędne jest odpowiednie do­pasowanie ustawienia zworek. Modyfikacji może wymagać również ustawienie zworek urządzenia master, które korzysta z tego samego kanału danych (patrz rysunek 14.12). Jeżeli w systemie wykorzystywany jest tylko jeden dysk twardy, z jedną partycją nowa stacja dysków optycznych zostanie oznaczona literą/):.

0x08 graphic
Rysunek 14.12.

Zintegrowany, dwukanałowy interfejs

ATA (pióro na zdjęciu wskazuje złącze primary)


Jeśli tylko jest to możliwe, nie przyłączamy dysku CD-ROM lub DVD-ROM do tego samego kanału, który wykorzystuje dysk twardy. Urządzenia używające do komunikacji tego samego kabla nie mo­gą jednocześnie odczytywać ani zapisywać danych. Jeżeli komputer dysponuje dwoma kanałami ATA (co jest obecnie standardem), stacja dysków optycznych powinna został przyłączona do kana­łu drugiego, nawet gdy w komputerze pracuje tylko jeden dysk twardy.


^ ^ Zajrzyj do podrozdziału „Interfejs równoległy ATA" znajdującego się na stronie 615 oraz do podrozdziału „Smali Computer System Interface" znajdującego się na stronie 655.

Z pewnego punktu widzenia konfigurowanie dysków SCSI może wydawać się nieco prostsze. Wymagane jest jedynie określenie identyfikatora SCSI. Konwencja nakazuje przypisać ID 0 dyskowi rozruchowemu (C.), a ID 7 — kontrolerowi SCSI. Nowej stacji można przypisać dowolny numer z zakresu od 1 do 6, o ile nie jest on wykorzystywany przez inne urządzenie. Do ustawiania identyfikatora używamy specjalnego obrotowego wybieraka, przycisku lub zworek.

Urządzenia SCSI łączone są w łańcuch (magistralę). Jeżeli nowe urządzenie dołączane jest jako końcowy element łańcucha, wymagane jest założenie bądź uaktywnienie terminatora magistrali. Określenie „końcowy" dotyczy w tym przypadku układu fizycznego, a nie wartości ID.

Przyłączanie stacji zewnętrznej (SCSI)

Rozpoczynamy od uważnego rozpakowania urządzenia. W pudełku powinniśmy znaleźć:

Poza kontrolerem SCSI, są to podstawowe, niezbędne do przyłączenia stacji, elementy. Dalszymi elementami w zestawie mogą być: koperta do wsuwania dysku CD (caddy), opis urządzenia, programy obsługi, wtyk ter­minatora łańcucha SCSI i, niekiedy, dodatkowe dyski optyczne z oprogramowaniem lub puste. Stacje dysków optycznych nie są praktycznie nigdy sprzedawane razem z kartą kontrolera SCSI. Ponieważ SCSI to standard umożliwiający przyłączenie do jednego komputera do siedmiu urządzeń (lub piętnastu, w przypadku Ultra2 SCSI), dołączanie kontrolera do każdego z nich nie wydaje się konieczne. Ponieważ stosunkowo niewiele komputerów dysponuje przyłączami SCSI na płycie głównej, niemal zawsze niezbędne będzie korzystanie z kontrolera zakupionego osobno.

Przed rozpoczęciem instalacji uważnie przyglądamy się środowisku pracy nowego urządzenia, wraz z dołą­czonym do niego kablem. Gdzie ustawimy stację? Długość połączenia jest istotnym ograniczeniem. Wyszu­kujemy odpowiednie miejsce i przyłączamy kabel zasilający. Warto zadbać, aby był on podłączony do gniazda zabezpieczonego przed skokami napięcia.

Urządzenia SCSI przyłączane są standardowo za pomocą dwóch typów kabli. Starsze z nich korzystają z 50-stykowego kabla Centronics, określanego też jako A-cable, czyli „kabel typu A". Obecnie najczęściej stosowany jest kabel 68-stykowy, tzw. P-cable, czyli „kabel typu P". Jeden jego koniec przyłączmy do stacji, drugi do kontrolera SCSI. Większość stacji zewnętrznych ma w tylnej części dwa złącza — można wykorzy­stać dowolne z nich (patrz rysunek 14.13). Do drugiego można przyłączyć kolejne urządzenie SCSI. Jeżeli stacja jest ostatnim elementem magistrali urządzeń SCSI, wymagane jest założenie wtyku terminatora. Jeżeli do gniazda przymocowane są charakterystyczne haczyki, wykorzystujemy je do mocowania wtyku.

0x08 graphic
Rysunek 14.13.

Złącza SCSI w tylnej części obudowy zewnętrznej stacji CD

Każde urządzenie SCSI zapewnia możliwość pracy jako ostatni element łańcucha —- z terminato-rem. Terminator może mieć postać pozbawionego kabla wtyku, który wkładamy do drugiego gniaz-da SCSI. W niektórych modelach opcję terminatora włącza specjalna zworka lub przełącznik.

W tylnej części obudowy instalowanej stacji powinniśmy znaleźć przełącznik SCSI ID. Określa on identyfi­kator urządzenia, wyróżniający je spośród innych, przyłączonych do tej samej magistrali SCSI. Większość producentów przypisuje karcie kontrolera SCSI ID 7. Popularną praktykąjest również rezerwowanie identyfi­katorów 0 i 1 dla dysków twardych. Identyfikator stacji może być dowolny, jak 6, 5 czy 4, musi jednak zostać określony. Jedyną istotną regułąjest zachowaniu jednoznaczności przypisanego w ten sposób oznaczenia.

Przyłączanie stacji wewnętrznej

Rozpoczynamy od rozpakowania zestawu instalacyjnego. Powinien on zawierać:

Dodatkowo, niektórzy producenci dołączają rozdzielacz kabla zasilania — wiązkę przewodów z trzema złą­czami. Pewne modele stacji korzystają ze sztywnej plastykowej koperty, w której dysk CD wkładany jest do urządzenia (ang. caddy). Coraz rzadziej sprzedawane w sklepach zestawy zawierają drukowany podręcznik obsługi. W przypadku stacji SCSI niezbędnym elementem będzie karta kontrolera.

Przed zdjęciem pokrywy obudowy upewniamy się, czy całkowicie wyłączone zostało zasilanie. Przed umiesz­czeniem w gnieździe karty kontrolera SCSI, przyłączamy doń wewnętrzny kabel SCSI (patrz rysunek 14.14).


0x08 graphic
Rysunek 14.14.

Przyłączanie kabla

Wewnętrznego

do kontrolera SCSI


Wewnętrzny kabel SCSI i złącze krawędziowe

Oba końce kabla SCSI nie różnią się między sobą. Jeden z brzegów „taśmy" powinien być oznaczony czer­wonym paskiem lub kropkowanymi liniami. W ten sposób wyróżnia się styk numer 1, który powinien przyjąć odpowiednią pozycję w gniazdach stacji i karty. Niekiedy stosowane są dodatkowe karby w obudowie złączy, zabezpieczające przed pomyłkami w trakcie montażu. Gdy ich brakuje, odpowiednie położenie wyróżnionego brzegu taśmy jest dość ważne.

Na górnym brzegu karty SCSI zauważyć można 50, ułożonych w dwóch rzędach, styków — złącze krawę­dziowe SCSI. Na powierzchni karty, w bezpośrednim sąsiedztwie złącza widoczne powinny być przynajmniej dwie liczby, 1 i 50. Kabel mocujemy odpowiednio do ich położenia.

Kartę umieszczamy w wolnym złączu odpowiedniej magistrali rozszerzeń komputera (PCI).

Kolejną czynnością jest wybranie wnęki montażowej w obudowie. Powinna być łatwo dostępna z zewnątrz. W wyjmowaniu dysku nie powinny przeszkadzać żadne, nawet tymczasowo stawiane w danym miejscu przed­mioty. Jeżeli komputer stoi na biurku, należy liczyć się z tym, że zazwyczaj stawiamy przed nim różne rzeczy.

W przedniej części wnęki powinna znajdować się zaślepka, którą usuwamy. Zazwyczaj wyskoczy ona po na­ciśnięciu, mocowanie śrubowe stosowane jest dość rzadko. Wewnątrz wnęki widoczny jest metalowy stelaż z otworami montażowymi. Jeżeli stelaż pasuje do stacji, żadne dodatkowe szyny nie będą potrzebne. Niektóre obudowy mogą wymagać dokręcenia odpowiednich elementów umożliwiających wsunięcie dysku do wnęki. Stacja powinna zostać przykręcona przy użyciu czterech śrub. Gdy odpowiednie dopasowanie nie jest możliwe, bezwzględnie należy zadbać o użycie co najmniej dwóch. Stacja ma służyć przez lata, wielokrotnie otwierana i zamykana — solidny montaż ma więc szczególne znaczenie.

Odszukujemy zamocowany wcześniej do karty kontrolera kabel i dopasowujemy oznaczony czerwonym pa­skiem brzeg złącza do pozycji styku numer 1. Niezbędnej informacji o układzie złącza stacji dostarczy jej opis lub uważne spojrzenie na samo złącze (gdzie szukamy liczb 1 i 50).

W tylnej części stacji znajduje się też czterostykowe złącze zasilania, takie samo, jakie znamy z dysków twar­dych. Pośród żółto-czarno-czerwonych, przyłączonych do zasilacza, wiązek wyszukujemy taką, która nie zo­stała wykorzystana i której rozmiar wtyku jest odpowiedni. Umieszczamy (dobrze zabezpieczony przed po­myłkami) wtyk w gnieździe. Gdy wolnego wtyku brakuje, korzystamy z rozdzielacza (porównaj rysunek 14.5). Odłączamy wówczas przewody zasilające od urządzenia pobierającego możliwie najmniej mocy, przyłącza­my do rozdzielacza, a następnie, do wolnych końcówek, oba urządzenia.

„Pożyczanie" zasilania od urządzenia o najmniejszym poborze mocy jest ogólną zasadą, mającą za-bezpieczyć przed przeciążeniem. Informacje o poborze mocy powinny znajdować się w dołączanych do urządzeń opisach. Można też kierować się rozmiarem i szybkością obrotową urządzenia. Gdy jed­nak nie ma wyboru — na przykład przewody są za krótkie — możemy skorzystać z dowolnej dostęp­nej możliwości. Dobrze jest wówczas unikać przynajmniej łączenia ze sobą kolejnych rozdzielaczy.

Przed założeniem pokrywy obudowy warto zawsze upewnić się, czy po zmianie konfiguracji sprzętowej no­we urządzenie (i sam komputer) funkcjonują poprawnie. Włączamy komputer. Jeżeli jego uruchomienie prze­biegnie poprawnie, a nowa stacja zostanie rozpoznana, można zamknąć obudowę.

Łańcuchy SCSI — wewnętrzny i zewnętrzny

Przypomnijmy, że jedną z. głównych przyczyn stosowania interfejsu SCSI do przyłączania stacji dysków optycz­nych jest możliwość przyłączenia łańcucha różnorodnych urządzeń przy użyciu jednej tylko karty kontrolera. Wykorzystujemy dzięki temu tylko jedno złącze na płycie głównej i unikamy problemów z dopasowaniem numerów IRQ, DMA i wejścia-wyjścia.

W łańcuchu SCSI pracować mogą dyski twarde, skanery, stacje taśm i inne urządzenia (patrz rysunek 14.15). Przy wdrażaniu takiej konfiguracji trzeba zwrócić uwagę na kilka istotnych czynników.

0x08 graphic

Rysunek 14.15. Łańcuch urządzeń SCSI, korzystający z jednej karty rozszerzeń

► ► Zajrzyj do punktu „Zakańczanie magistrali" znajdującego się na stronie 683.

Przykład I: Wyłącznie zewnętrzne urządzenia SCSI. Przypuśćmy, że do kontrolera SCSI przyłączamy zewnętrzny napęd dysków optycznych, a do niego z kolei — napęd taśm. Pierwszym urządzeniem w łańcuchu jest karta kon­trolera. Obecnie większość takich kart wyposażonych jest w funkcję określaną jako autoterminating, co oznacza automatyczne wykrywanie trybu pracy jako końcowe urządzenia łańcucha. Pierwszy kabel łączy kontroler ze sta­cją dysków optycznych, drugi — stację dysków optycznych z napędem taśm. Zatem drugi koniec łańcucha, napęd taśm, również wymaga terminatora, czyli urządzenia kończącego obwód. W przypadku urządzeń zewnętrznych będzie to najczęściej pozbawiony kabla wtyk, przeznaczony do umieszczenia w wolnym gnieździe SCSI. Tego rodzaju wtyki występują w dwóch odmianach: krańcowej i przelotowej. Terminator przelotowy wykorzystujemy w tych przypadkach, gdy drugie gniazdo SCSI w urządzeniu nie istnieje. Terminator przelotowy jedną stroną (wtykiem) umieszczamy w dostępnym gnieździe, podczas gdy do drugiej (gniazda) przyłączamy kabel SCSI.

Przykład 2: Wyłącznie urządzenia wewnętrzne SCSI. W przypadku wewnętrznej magistrali SCSI obowiązują reguły identyczne — każde urządzenie musi mieć inny identyfikator, a pierwsze i ostatnie w łańcuchu fizycz­nym musi zostać wyposażone w terminator. W przypadku urządzeń wewnętrznych ustalenie sposobu akty­wowania terminatora może wymagać nieco zachodu. Typowe opcje to przełączniki DIP lub, podobny do sto­sowanego w urządzeniach zewnętrznych, wtyk. Odpowiedniej konfiguracji wymagają zarówno urządzenia końcowe łańcucha (terminator włączony), jak i urządzenia wewnątrz (terminator wyłączony). Jeżeli wszyst­kie urządzenia pozostają wewnątrz obudowy, karta kontrolera będzie urządzeniem końcowym.

Większość wewnętrznych urządzeń SCSI wyposaża się w przełączniki DIP lub, rzadziej, mocowane w odpowiednim złączu, wtyki. Niezbędne informacje trzeba wyszukać w opisie urządzenia. W nie-których przypadkach liczba aktywowanych zestawów oporników sięga trzech.

Przykład 3: Zewnętrzne i wewnętrzne urządzenia SCSI. Ogólne zasady nie zmieniają się, gdy korzystamy z wewnętrznych i z zewnętrznych urządzeń SCSI jednocześnie. W przykładzie przedstawionym jako ostatni na rysunku 14.16 widzimy wewnętrzną stację CD-ROM, z włączonym terminatorem i numerem SCSI 6. Ze­wnętrzny dysk twardy (ID 5) również jest urządzeniem końcowym, stąd wtyk terminatora. Kontroler SCSI ma standardowe dla niego ID 7. Jego terminator został wyłączony.

Firma Adaptec dołącza do swoich urządzeń program SCSI Interrogator ułatwiający określenie, czy karta SCSI i przy­łączone do niej urządzenia funkcjonują poprawnie. Jego użycie przed rozpoczęciem instalacji pomoże wyszukać wolne numery urządzeń, określane w tym programie jako logiczne numery jednostek (Logical Unit Numbers, LUN).

Jeżeli narzędzie nie wyświetla informacji o żadnym z urządzeń, może to oznaczać niewłaściwe ustawienie ter­minatorów łańcucha. Wyłączamy wówczas komputer i urządzenia, po czym sprawdzamy układ wtyczek koń­cowych, przełączników i (lub) zestawów oporników na karcie. Jeżeli wszystko wydaje się być w najlepszym porządku, włączamy same urządzenia zewnętrzne i odczekujemy przed włączeniem komputera około 5 se­kund. W takich przypadkach przydaje się rozdzielacz zasilania (przedłużacz) z przełącznikami dla poszczegól­nych gniazd. Jeżeli po takiej próbie urządzenia w dalszym ciągu nie są widoczne, przyczyną kłopotów może być niewłaściwa praca BIOS-u kontrolera SCSI lub programów obsługi urządzeń. Informacje o programach obsługi wymaganych przez wykorzystywane modele urządzeń i kartę musimy wyszukać w ich opisie.

Cechą szczególną programu SCSI Interrogator firmy Adaptec jest to, że wyświetla on pozycje postaci host kontroler #1, oznaczające faktycznie interfejs ATA. Jeżeli karta SCSI nie pracuje poprawnie, zobaczymy za­równo host kontroler #0, jaki i host kontroler #1, obie odpowiadające interfejsowi ATA! W Windows 9x informacja o sterowniku urządzenia ATA to ESDI 506.

Instalowanie stacji dyskietek

Stacja dyskietek to jeden z najprostszych w instalacji napędów dyskowych. W większości przypadków wy­starczy zamocować stację w obudowie i przyłączyć do niej dwa kable, zasilania i danych. Do odpowiedniego montażu niezbędne są niekiedy dodatkowe klamry i śruby, w wielu jednak obudowach istnieje wnęka gotowa do przyjęcia stacji dyskietek bez dodatkowych zabiegów. Niezbędne elementy montażowe są często dołącza­ne do obudowy lub samej stacji.

Rysunek 14.16.

Przykładowe układy urządzeń SCSI

0x08 graphic



Ponieważ stacje dyskietek instaluje się zazwyczaj w tych samych wnękach co dyski twarde (half-height 3,5", czyli 3,5-calowe o połowie wysokości), przebieg czynności montażowych nie różni się. Zostały one opisane we wcześniejszym podrozdziale, „Procedura instalowania dysku twardego".

W trakcie podłączania stacji dyskietek zwracamy uwagę na mocowanie przewodów zasilania. Ma on zazwy­czaj odpowiedni karb, zabezpieczający przed niewłaściwym podłączeniem, należy jednak liczyć się z tym, że ktoś mógł już wcześniej próbować metod „siłowych". Odwrotnie przyłączony kabel zasilający powoduje na­tychmiastowe spalenie obwodów stacji.

Drugą czynnością jest przyłączenie kabla danych. Jest to kabel 34-stykowy, zazwyczaj z charakterystycznym „przeplotem". Prowadzi on do odwrócenia kolejności styków 10 - 16 na odcinku poprzedzającym złącze sta­cji rozpoznawanej przez system jako stacja A:. Tak więc, ostatnią stacją przyłączaną do taśmy jest stacja A:, do złącza środkowego można podłączyć stację przeznaczoną do pracy jako fi:. Rozwiązanie takie, polegające na zamianie sygnałów Drive Select (wybór napadu) i Motor Enable (włączenie silnika), umożliwia przyłącza­nie stacji dyskietek bez mozolnego ustawiania zworek. Odpowiada to opcji Cable Select dysków ATA/IDE. Takie jest właśnie ustawienie niedostępnych użytkownikowi zworek stacji dyskietek. W tym przypadku nosi nazwę Drive Select (wybór napędu).

Starsze stacje dyskietek wymagały ustawiania zworek. Dwie podstawowe to Drive Select (DS, wybór napędu) i Disk Change (DC, zmiana dysku). Gdyby zdarzyło nam się podłączać stację starszego typu, wystarczy prze­strzegać kilku prostych reguł. Zworka DS może mieć zazwyczaj dwie pozycje, oznaczane jako 0 i 1 lub, rza­dziej, 1 i 2. Bez względu na oznaczenie, standardowa konfiguracja PC wymaga zawsze pozycji drugiej. Za­pewnia to pracę stacji przyłączonej przed „przeplotem" taśmy jako B:, stacji przyłączonej za „przeplotem" — jako A:. Zworka DC ma zazwyczaj pozycje określane jako on i off. Właściwa dla PC jest opcja on, umożli­wiająca komputerowi wykrywanie zmiany dysku w napędzie. Szerzej piszemy o przyłączach stacji dyskietek i samych stacjach w rozdziale 11.

Kabel danych jest zazwyczaj zabezpieczony przed niewłaściwym umieszczeniem w gnieździe. Jeżeli nie za­uważamy żadnych blokujących niewłaściwą pozycję karbów, jako wskaźnik wykorzystujemy kolorowaną krawędź taśmy skojarzoną ze stykiem numer 1. Standardem jest umieszczanie styku numer 1 po stronie złą­cza zasilania (podobnie jak w innych stacjach dysków). Jeżeli po włączeniu komputera dioda kontrolna stacji dyskietek nie gaśnie, jest to jasny sygnał, że taśma została odwrócona albo po stronie napędu, albo po stronie kontrolera (płyty głównej).


Rozdział 15.

Podsystem graficzny

Sposoby wyświetlania obrazu

Wraz myszą i klawiaturą, ekran monitora jest jednym z kluczowych elementów interfejsu użytkownika kom­putera PC. Należy jednak wspomnieć, że monitor nie był elementem świata komputerów „od zawsze". Zanim rozpowszechniły się urządzenia wyświetlające dane, standardem interfejsu użytkownika był dalekopis — du­że, głośne urządzenie wypisujące wprowadzane i uzyskiwane dane na rolce papieru. W porównaniu ze współ­czesnymi monitorami, pierwsze „urządzenia CRT" były dość prymitywne. Wyświetlały tekst, który miał tyl­ko jeden kolor (zazwyczaj zielony). Dla ówczesnych użytkowników była to znaczna poprawa komfortu pracy — dane były wyświetlane „w czasie rzeczywistym". Z czasem pojawiły się monitory kolorowe i większych rozmiarów, a dopiero w ostatnich latach na biurka zawitały pełnowymiarowe wyświetlacze LCD. Ostatnio panujące trendy, czyli stosowanie wyświetlaczy plazmowych o dużym ekranie i projektorów LCD/DLP, po­twierdzają wzrastający stopień zbieżności technologii ze świata komputerów i rozrywki. Przykładem tego są prace rozwojowe prowadzone nad wersją Media Center systemu Windows XP.

Obecnie technika wyświetlania obrazu jest czymś niezwykle wyrafinowanym. Mimo to, wciąż warto dbać o odpowiednie parametry kupowanego sprzętu. Powolna praca karty graficznej może przyczynić się do ogól­nego spadku wydajności nawet najszybszego PC. Niewłaściwe dobranie karty graficznej i monitora grozi bó­lem oczu. Istotne jest też dostosowanie tych elementów do wykonywanych przy użyciu komputera zadań.

Na podsystem graficzny komputera PC składają się dwa główne elementy:

W niniejszym rozdziale omawiać będziemy różnorodne dostępne na rynku PC karty graficzne i monitory. Roz­poczniemy od ogólnego przeglądu technik prezentacji obrazu.

Budowa monitorów komputerowych

Dostępnych jest obecnie kilka różnych sposobów wyświetlania obrazu. Technika tradycyjna, wciąż najpopu­larniejsza, to lampa katodowa (ang. Cathode Ray Tube — CRT), stosowana również w odbiornikach telewi­zyjnych. Lampa katodowa to rodzaj szklanej lampy próżniowej. W jej tylnej części znajduje się tzw. działo elektronowe generujące trzy strumienie elektronów, po jednym dla każdej z odmian luminoforu, umieszczo­nego po wewnętrznej stronie szklanego ekranu naprzeciwko. Różne punkty luminoforu odpowiadają za wy­świetlanie kolorów czerwonego, zielonego i niebieskiego.

Podgrzane działo elektronowe emituje strumień szybkich elektronów przyciąganych przez drugi koniec ko­mory próżniowej. Drogę elektronu wyznaczają cewki skupiające i odchylające. W zetknięciu z luminoforem elektron wywołuje błysk. Połączenie takich błysków jest obrazem, który widzimy na ekranie telewizora lub monitora komputerowego. Luminofor układa się trój warstwowo, osobno dla każdej z trzech barw podstawo­wych. Wyrównywanie strumienia elektronów wspomaga tzw. maska (ang. shadow mask). Jej szczeliny bądź otwory odpowiadają strumieniom elektronów związanych z poszczególnymi kolorami. Typ maski wpływa znacząco na jakość obrazu, a odstępy między dwoma punktami tej samej barwy decydują o ostrości.

► ► Zajrzyj do punktu „Wielkość piksela (monitory kineskopowe)" znajdującego się na stronie 950.

0x08 graphic
Rysunek 15.1 przedstawia wnętrze typowej lampy katodowej monitora.


Rysunek 15.1.

Typowy monitor to duża lampa próżniowa, zawierająca trzy działa elektronowe, które generują obraz na ekranie monitora. Pola wysokiego napięcia zapewniają sterowanie strumieniami elektronów


Substancja nazywana luminoforem ma pewną istotną właściwość — poświatę (ang. persistence). Od niej za­leży, jak długo błysk elektronu pozostaje widoczny na ekranie. To dzięki poświacie luminoforu, po wyłączeniu telewizora jeszcze przez chwilę widzimy pozostałości obrazu. Każdy wyświetlany na ekranie punkt podlega okresowemu odświeżeniu, zgodnie z tzw. częstotliwością odświeżania ekranu. Niezbędne jest odpowiednie dopasowanie częstotliwości odświeżania do czasu poświaty. Gdy poświata jest trwała, na ekranie pozostają „duchy", gdy częstotliwość odświeżania jest zbyt niska, ekran migocze.

Strumień elektronów porusza się bardzo szybko, uderzając w ekran kolejno, wzdłuż poziomych linii, od lewej do prawej i od góry do dołu. Wzór rozświetlanych punktów określa się jako raster. Wartość częstotliwości odchylania poziomego odnosi się do prędkości z jaką strumień elektronów przemieszcza się pomiędzy dwo­ma brzegami ekranu.

W trakcie każdego przebiegu przez kolejne linie ekranu, elektrony uderzają w te miejsca, w których powinien pojawić się obraz. Różne poziomy jaskrawości zapewnia zróżnicowanie intensywności strumienia. Ponieważ błyski trwają bardzo krótko, niezbędne jest ciągłe odświeżanie obrazu (ang. refreshing).

Większość współczesnych monitorów zapewnia idealną częstotliwość odświeżania (nazywaną też „częstotli­wością skanowania pionowego"), wynoszącą 85 Hz, co oznacza, że obraz zostaje odnowiony 85 razy w ciągu sekundy. Zbyt mała częstotliwość odświeżania powoduje migotanie, a w dalszej konsekwencji — ból oczu. Im wyższa częstotliwość, tym lepiej dla wzroku użytkownika. Tańsze monitory zapewniają odpowiednią czę­stotliwość wyłącznie w rozdzielczościach 640x480 i 800x600. Warto zwrócić uwagę na wartość tego para­metru przy rozdzielczościach wyższych niż 1024x768.

Ważne jest, aby częstotliwości odchylania generowane przez kartę były dopasowane do tych, do których do­stosowany jest monitor. Brak takiej zgodności powoduje poważne zakłócenia wyświetlania i może doprowa­dzić do uszkodzenia monitora. Ogólnie rzecz biorąc, karty graficzne zapewniają większą elastyczność częstotli­wości odświeżania niż monitory. Jest to przyczyną tego, że częstotliwość domyślna wynosi zazwyczaj 60 Hz. co jest wartością stosunkowo niewielką, ale zabezpiecza przed zniszczeniem monitora. Wybór odpowiedniej wartości możliwy jest poprzez kliknięcie prawym przyciskiem myszy na pulpicie i wybranie opcji Właściwości. a następnie ustawienie w zakładce Karta (Windows 95/98/Me) lub Monitor (Windows 2()00/XP).

Monitory wieloczęstotliwościowe

Mimo że wiele starszych monitorów pracowało ze stałą częstotliwością nowsze mogą działać ze znaczną roz­piętością parametrów. Wiąże się to ze zgodnością urządzeń z najróżniejszymi normami, bieżącymi i planowa­nymi (opisujemy je w dalszej części rozdziału, poświęconej kartom graficznym). Monitor zapewniający obsługę wielu trybów wideo określa się jako monitor wieloczęstotliwościowy (ang. multi-freąuency monitor). Niemal każdy sprzedawany dziś monitor jest monitorem wieloczęstotliwościowym, co oznacza, że może pracować zgodnie z różnymi popularnymi trybami sygnału wideo. Poszczególni producenci nadają swoim uniwersal­nym produktom nazwy handlowe: multisync, multifreąuency, multiscan, autosynchronous czy autotracking.

Nawet jeżeli monitor dysponuje szeroką gamą trybów pracy, osiągnięcie najlepszej jakości obrazu wymaga zazwyczaj dostrojenia ręcznego za pomocą kontrolek wyświetlanych na ekranie i zakładek ustawień środowiska graficznego systemu Windows.

Kineskop płaski a kineskop tradycyjny

Pokryte luminoforem ekrany monitorów można podzielić na dwie grupy: wypukłe i płaskie. Jeszcze niedaw­no można było stwierdzić, że typowy monitor to monitor o ekranie wypukłym. Jest to charakterystyczne dla wszystkich starszych modeli, jak również większości odbiorników telewizyjnych. Rozwiązanie takie jest pro­ste w produkcji, powoduje jednak zniekształcenia i odblaski, zwłaszcza w rzęsiście oświetlonych pomiesz­czeniach. Niektórzy producenci sięgają po specjalne technologie umożliwiające zmniejszenie ilości światła odbijanego.

Ekran tradycyjny cechuje zakrzywienie, widoczne zarówno w płaszczyźnie poziomej, jak i w płaszczyźnie pionowej. Niektóre modele monitorów wyposaża się w kineskopy Sony Trinitron, zakrzywione wyłącznie w płaszczyźnie poziomej. Odnosi się do nich termin kineskop płaski (ang. fiat sąuare tube FST).

Większość producentów ma obecnie w swojej ofercie monitory całkowicie płaskie. Nie przyjął się wprowa­dzony w późnych latach 80-tych pierwszy model Zenith FTM. Ze współczesnych marek można wymienić FD Trinitron firmy Sony, DiamondTron NF koncernu NEC-Mitsubishi i PerfectFlat firmy ViewSonic. Wielu użytkowników decyduje się na ich zakup ze względu na ograniczenie zjawiska odblasków oraz wyższąjakość i wierność obrazu. Płaskie monitory są droższe od tradycyjnych. Jeżeli jednak porównać ich cenę z wyświe­tlaczami LCD podobnych rozmiarów, okazuje się, że kineskop wciąż pozostaje dwu- lub trzykrotnie tańszy.

Na rysunku 15.2 porównujemy przekroje monitora wypukłego i płaskiego.

DVI — cyfrowa komunikacja z monitorem

Najnowszą nowością dotyczącą technologii wykorzystywanych w produkcji monitorów jest stosowanie cyfro­wych sygnałów wejściowych, opartych na normie Digital Video Interface (DVI), z którą zgodne są wyświe­tlacze LCD. Mimo że kilku producentów monitorów ogłosiło, że wprowadzi interfejs DVI-I w swoich monito­rach już w 1999 roku, większość produkowanych modeli (z wyjątkiem niewielu 19-calowych i najdroższych) wciąż korzysta z konwencjonalnego, 15-stykowego, analogowego złącza VGA. Monitory korzystające ze złącza DVI-I — w przeciwieństwie do cyfrowych monitorów TTL z lat osiemdziesiątych, które nie mogły wyświe­tlać więcej niż kilkanaście kolorów — zapewniają obsługę pełnej skali barw, porównywalnej z monitorami analogowymi. Dla użytkownika oznacza to lepsząjakość obrazu, dopracowane mechanizmy automatycznej konfiguracji i niezakłócone przenoszenie sygnału.


0x08 graphic
Rysunek 15.2.


Tradycyjny kineskop wypukły i plaski kineskop Sony Trinitron


Ponieważ karty graficzne wciąż zapewniają przede wszystkim obsługę złączy VGA (DB-15), DVI jest za­zwyczaj złączem opcjonalnym. W monitorze jest więc dostępne 15-stykowe złącze VGA i 20-stykowe złącze DVI. Wraz ze wzrostem popularności całkowicie cyfrowych wyświetlaczy ciekłokrystalicznych, które rów­nież korzystają ze złącza DVI. jest możliwe, że standard ten stanie się z czasem obowiązujący.

Wyświetlacze ciekłokrystaliczne (LCD)

Korzystając z technologii komputerów przenośnych, wielu producentów monitorów oferuje obecnie monitory wykorzystujące technologię LCD (ang. liąuid crystal display — wyświetlacz ciekłokrystaliczny). Wyróżnia je niewielka ilość odbijanego światła, całkowicie płaska powierzchnia i niewielki pobór mocy (5 W w porów­naniu z 100 W pobieranymi przez przeciętny monitor). Odwzorowanie kolorów wyświetlacza o matrycy ak­tywnej jest lepsze niż zapewniane przez większość popularnych monitorów.

Ekrany LCD podlegają istotnemu ograniczeniu w zakresie rozdzielczości. W tabeli 15.1 porównano typowe rozdzielczości oferowane przez monitory LCD o przekątnej ekranu od 15 do 22 cali z podobnymi obszarami wyświetlania i rozdzielczościami powszechnie stosowanych monitorów kineskopowych o przekątnej ekranu zawierającej się w przedziale od 17 do 22 cali.

Na podstawie tabeli 15.1 można stwierdzić, że w celu uzyskania rozdzielczości przekraczającej wartość 1280x1024 konieczne będzie użycie wyświetlacza LCD o przekątnej 20,1 cala lub monitora kineskopowego

0 większym ekranie. Większość tradycyjnych monitorów 18-calowych oferuje rozdzielczość 1600x1200.

Tabela 15.1. Porównanie rozdzielczości monitorów LCD i kineskopowych

Przekątna ekranu monitora LCD

Rozdzielczość monitora LCD

Przekątna ekranu monitora kineskopowego

Przekątna widzialnego obszaru ekranu

Maksymalna rozdzielczość monitora kineskopowego

15 cali

1024x768

17 cali

16 cali

1024x768

1280x1024

1600x1200*

17 cali

1280x1024

18,1 cala

1280x1024

19 cali

18 cali

1600x1200 1920x1440*

19 cali

1280x1024

20,1 cala

1600x1200

21 cali

20 cali

1600x1200 1920x1440*

*Dostępna wyłącznie w drogich modelach

Pomimo ostatnich obniżek cen, wyświetlacze LCD wciąż są drogie. Typowy wyświetlacz 15-calowy kosztuje

1 100 - 1800 zt., natomiast 17-calowy monitor to wydatek rzędu 470 - 800 zł. Mając na uwadze zawartość tabeli 15.1, warto jednak zawsze pamiętać o tym, że panel LCD zapewnia większy rozmiar powierzchni fak­tycznie wykorzystywanej niż opisywany tą samą wartością monitor. Na rysunku 15.3 przedstawiamy typowy panel LCD przeznaczony do pracy stacjonarnej.

0x08 graphic
Rysunek 15.3.

Warto -wrócić uwagę na niewielką ilość miejsca zajmowanego przez pokazany 15-calowy monitor LCD, dzięki czemu idealnie nadaje się on do pomieszczeń o ograniczonej przestrzeni

W świecie komputerów przenośnych oferowane są obecnie dwa typy wyświetlaczy LCD: aktywna matryca ciekłokrystaliczna z analogową obsługą koloru (ang. active-matrix analog color) i aktywna matryca ciekło­krystaliczna z cyfrową obsługą koloru (ang. active matrix digital), która jest najnowszym osiągnięciem w tej dziedzinie techniki. Wyświetlacze monochromatyczne nie sąjuż stosowane w komputerach osobistych, moż­na się z nimi spotkać jedynie w urządzeniach o charakterze elektronicznego organizera czy palmtopa, niekiedy również w zastosowaniach przemysłowych. Technologie matrycy pasywnej (ang. passive-matrix) i podwójnego skanowania (ang. dual-scan) jeszcze kilka lat temu były stosowane jako środek umożliwiający obniżenie ceny laptopa. Jednak obecnie całkowicie zostały zastąpione przez analogowe lub cyfrowe matryce aktywne. O zasto­sowaniu matrycy pasywnej w urządzeniach mniejszych i środowiskach przemysłowych wciąż decyduje zarówno niski koszt, jak i większa trwałość.

Najpopularniejszy typ matrycy pasywnej to supertwist nematic (superskręt kryształu o strukturze włóknistej}, stąd stosowany często skrót STN. Standardem matrycy aktywnej jest thin-film transistor (tranzystor cienkowarstwowy} — TFT.

Biurkowe panele LCD mogą być urządzeniami o matrycy aktywnej analogowej bądź cyfrowej. Najtańsze wyświetlacze 15-calowe wyposażone są w tradycyjne, analogowe złącze VGA i wewnętrznie przekształcają sygnał ponownie do postaci cyfrowej. Wyświetlacze droższe i większe mają zarówno złącza VGA, jak i DVI. Złącza DVI można wykorzystać do połączenia wyświetlacza z dobrą kartą graficzną. Charakterystyczna jest praktyka nie umieszczania w pakietach stosunkowo drogich kabli DVI. Jeżeli więc zamierzamy skorzystać z cyfrowego złącza danych karty graficznej, zawsze musimy upewnić się, czy panel ma odpowiednie złącze i czy jest do niego dołączony kabel. Brak tego elementu w opakowaniu może całkowicie zniweczyć oszczędność poczynioną przy zakupie wyświetlacza.

Ostatnią nowością w świecie wyświetlaczy LCD jest tak zwany monitor telewizyjny. Aby jedno urządzenie mogło być wykorzystywane do pracy, gier i materiałów wideo, w tego typu wyświetlaczach LCD zastosowano tuner telewizyjny oraz wejścia audio i wideo. Wiele takich wyświetlaczy, zwłaszcza o przekątnej wynoszącej 17 lub więcej cali, oferuje też ekran zgodny ze współczynnikiem kształtu 16:9, który lepiej nadaje się do oglądania programów telewizyjnych i materiałów wideo przystosowanych do szerokiego ekranu.

Jak działa wyświetlacz ciekłokrystaliczny?

Działanie wyświetlacza ciekłokrystalicznego polega na wykorzystaniu zjawiska filtru polaryzującego, który pozwala podzielić światło na dwie grupy fal. Filtr przepuszcza wyłącznie fale o zgodnym z nim kierunku. Jeżeli za pierwszym filtrem polaryzującym ustawimy kolejny, obrócony wobec pierwszego o 90 stopni, całe światło zostanie zatrzymane. Zmiana kąta ustawienia drugiego filtru polaryzującego pozwala manipulować i ilością przepuszczanego światła. Ciekły kryształ jest takim filtrem. Składają się nań podłużne molekuły two­rzące substancję o konsystencji cieczy. Pole elektryczne pozwala porządkować układ molekuł i sterować ką­tem przepuszczanych fal światła. W wyświetlaczach monochromatycznych zastosowanie kilku komórek do obsługi jednego elementu ekranu stosowane było często do uzyskiwania odcieni szarości, w wyświetlaczach kolorowych stosuje się dodatkowo filtry barwne.

Do zastosowania filtrów barwnych wymagane jest wprowadzenie trzech komórek do obsługi każdego ele­mentu obrazu. Odpowiadają one za trzy kolory podstawowe — czerwony, zielony i niebieski. Każdą komórkę obsługuje osobny tranzystor. Takie elementy składowe punktów obrazu określa się niekiedy jako subpiksele (ang. subpixels). Możliwość niezależnego sterowania komórkami obrazu została wykorzystana przez firmę Microsoft do opracowania nowej metody poprawiania jakości wyświetlania tekstu przez wyświetlacze — po­czynając od Windows XP, w oknie właściwości ekranu dostępna jest opcja ClearType.

Martwe punkty

Tzw. martwy punkt (ang. clead pixel) to taki, w którym komórka czerwona, zielona lub niebieska pozostaje trwale włączona lub trwale wyłączona. Najczęściej komórki „zastygają" w trybie aktywności. Ich nieprzyjem­ną cechą jest silne wyróżnianie się na ciemnym tle (jako czerwone, zielone lub niebieskie kropki). Mimo że nawet kilka takich punktów na ekranie może być dość nieprzyjemną usterką producenci stosują dość zróżni­cowane kryteria przy określaniu jaka liczba martwych punktów kwalifikuje wyświetlacz do wymiany. Bywa, że istotna jest nie tylko ich liczba, ale i położenie. Na szczęście, ciągłe ulepszanie technik produkcji zmniejsza prawdopodobieństwo, że będziemy musieli oglądać takie zjawisko na nowo zakupionym ekranie.

Choć nie ma sposobu naprawienia uszkodzonych pikseli, istnieje prosta technika, która niekiedy okazuje się pomocna. Autor samodzielnie naprawił kilka martwych punktów stukając w nie. Metoda ta była skuteczniejsza w przypadku pikseli zablokowanych w stanie aktywności.

Matryca aktywna

Większość wyświetlaczy z matrycą aktywną to rodzaj tablicy tranzystorów cienkowarstwowych (ang. thin-film transistor — TFT). Jest metoda umożliwiająca upakowanie od 1 do 3 tranzystorów w każdym elemencie obrazu, na elastycznym materiale o wielkości i kształcie ekranu. Zapewnia to, że tranzystory poszczególnych pikseli znajdą się bezpośrednio pod komórkami kryształu, którymi będą sterować.

Do produkcji matryc aktywnych wykorzystuje się najczęściej jeden z dwóch procesów: krzemu amorficznego uwodornionego (a-Si) i niskotemperaturowy polikrzemowy (p-Si). Różnią się one przede wszystkim kosztem. Początkowo większość wyświetlaczy produkowana była w procesie a-Si, jako wymagającym niższych tem­peratur (mniej niż 400 stopni) niż ówczesny proces p-Si. Badania nad możliwościami obniżenia temperatury procesu polikrzemowego umożliwiły wprowadzenie go jako uzasadnionej ekonomicznie alternatywy.

Dla zwiększenia kąta widoczności obrazu najnowszych wyświetlaczy LCD niektórzy producenci modyfikują klasyczny układ matrycy TFT. Przykładem może być technika przełączania wewnątrzpłytowego (ang. in-plane switching, IPS) lub, inaczej, STFT. Obejmuje ona wyrównywanie pojedynczych komórek wyświetlacza rów­nolegle do powierzchni szyby ochronnej poprzez utworzenie pola elektrycznego wprowadzającego komórki w ruch wirowy. Zapewnia to lepszy rozkład koloru w obszarze panelu. W technologii Super-IPS firma Hitachi wprowadza zygzakowe porządkowanie molekuł w miejsce stosowanego wcześniej układu wiersz-kolumna. Przyczynia się to do jeszcze większej jednolitości i ograniczenia przesunięć kolorów. W zbliżonej technice wielodomenowego wyrównywania pionowego (ang. multidomain vertical alignment — MVA) firmy Fujitsu, obraz dzieli się na obszary, w których kryształy ustawiane są pod niezależnymi kątami.

Zarówno technologia Super-IPS, jak i MVA zapewniają szerszy kąt widoczności obrazu niż rozwiązania tra­dycyjne. Ta sama technologia przez różne firmy jest inaczej nazywana. Przykładowo firma Sharp określają mianem Ultra High Aperture (UHA). Różni producenci często lubią wymyślać własne terminy dla jednej i tej samej technologii, ponieważ dzięki temu ich produkty wydają się wyróżniać wśród innych. Ponieważ już sam rozmiar większych wyświetlaczy powoduje, że użytkownik często nie patrzy na część obrazu pod wymaga­nym kątem, technologie te, stosunkowo drogie, stosuje się w głównie w dużych wyświetlaczach LCD (od 17 cali wzwyż). Korzystają z nich również inni producenci.

Płaskie monitory LCD

Biurkowe monitory ciekłokrystaliczne, jeszcze niedawno atrybut futurystycznych pokazów, zaczynają być obec­nie istotną alternatywą, poważnie rozważaną przy zakupach biurowych. Posiadacze kart graficznych z dwoma złączami monitora już teraz chętnie dołączają panele LCD jako wyświetlacze pomocnicze lub wprost zastępują nimi wysłużone już „kineskopy".

Monitor LCD zapewnia kilka korzyści. Pierwszą jest duża powierzchnia robocza ekranu. Faktyczny rozmiar obrazu 17-calowego wyświetlacza LCD jest często równy rozmiarowi obrazu 19-calowego monitora. Ponie­waż w wyświetlaczach ciekłokrystalicznych stosuje się adresowanie bezpośrednie (każdemu elementowi ob­razu odpowiada jeden tranzystor), dokładność prezentacji grafiki jest niemal doskonała. Wyświetlacze LCD wolne są od problemów nękających monitory: zniekształceń poduszkowych i beczkowych czy zakłóceń kon­wergencji (zjawiska „halo" na brzegach wyświetlanych elementów).

Koszty eksploatacji panelu LCD zmniejsza niski pobór energii, związany między innymi z niewielkim wy­dzielaniem ciepła. Brak lampy katodowej pozwala zapomnieć o szkodliwych polach elektromagnetycznych (emisji VLF, ELF itp.). Co prawda w porównaniu z monitorami kineskopowymi wyświetlacze LCD oferują krótszy średni czas bezawaryjnej pracy, ale główną przyczyną ich awarii jest podświetlacz, którego koszt wy­miany jest stosunkowo niewielki. Tymczasem awarie tradycyjnych monitorów zwykle związane są z kinesko­pem, który jest ich najdroższym komponentem i często jego wymiana jest nieopłacalna (dotyczy to zwłaszcza monitorów 17-calowych i mniejszych).

Wyświetlacz LCD charakteryzuje niewielka „głębokość" (odległość ekranu od tylnej ściany obudowy), często można go nawet przymocować do ściany. Niektóre modele umieszczane sana obrotowej podstawie, umożli­wiającej łatwe obracanie ekranu o 90 stopni, jak również wybieranie pomiędzy tradycyjnym, poziomym ukła­dem ekranu, a — użytecznym w przetwarzaniu tekstów i pracach typu DTP — układem pionowym. W parze z niewielkimi rozmiarami idzie ograniczenie masy wyświetlaczy. 17-calowy, ciekłokrystaliczny ViewSonic VE175 waży ok. 6 kg. Przeciętny tradycyjny monitor 19-calowy to około 23 kg.

W rozwiązaniach stosowanych przez różnych producentów wyświetlaczy LCD dominują dwa standardy:

w tym modele współpracujące z dwoma monitorami.

Rysunek 15.4 przedstawia porównanie złączy DFP, DVI i standardowego VGA, stosowanego w konwencjonal­nych kartach graficznych i monitorach, jak również w zapewniających zgodność „w dół" wyświetlaczach LCD.

Przed zakupem monitora LCD warto również rozważyć kilka jego mniej przyjemnych cech:

♦ Jeżeli regularnie zmieniamy rozdzielczość ekranu (jak robią m. in. projektanci stron WWW), istotne jest funkcjonowanie monitora LCD w każdej z nich. Starsze modele przy przełączaniu do mniejszej rozdzielczości zmniejszają po prostu rozmiar powierzchni roboczej, wykorzystując jedynie niezbędną ilość elementów obrazu. Powszechna jest obecnie możliwość skalowania obrazu, tak aby ekran

o rozdzielczości 640x480 wykorzystał całą powierzchnię matrycy 1024x768. Norma DDWG wymaga, aby skalowanie było zapewniane przez panel, kontroler grafiki lub oba te urządzenia. Warto zwrócić uwagę na jakość skalowanego obrazu.

Rysunek 15.4.

Tradycyjne karty VGA, monitory i zgodne z nimi wyświetlacze LCD wyposażone są w standardowe złącze VGA. Wczesne wyświetlacze LCD i pewne modele kart graficznych korzystały ze złącza DFP. Większość nowych paneli LCD ma złącze DVI-D. Po stronie karl graficznych, obok złącza IGA. dostępne jest coraz częściej złącze DVI-I

0x08 graphic

Producenci kart i chipsetów graficznych, jak NVIDIA, Matrox i ATI, włączyli już funkcje obsługi obu typów paneli LCD do najnowszych modeli chipsetów i kart 3D. Aby zorientować się w zakresie ob-sługi, należy zapoznać się ze specyfikacją określonej karty graficznej.

Zamiast przy zmianie obrazu przykładać takie samo napięcie do komórek wyświetlacza LCD, w przy-padku metody FFD dla każdej komórki stosowana jest optymalna wartość napięcia. Ponieważ w za-leźności od żądanego odcienia komórki wymagają różnego napięcia, wyświetlacze oparte na tech­nologii FFD redukują rozmazanie przez zwiększenie wydajności. Tego typu wyświetlacze w sprzedaży detalicznej po raz pierwszy pojawiły się pod koniec 2002 r.

Dzięki obniżkom cen, wzrostowi produkcji paneli o większych rozmiarach, poprawieniu wydajności i upo­wszechnieniu standardu DVI na rynku kart graficznych, wybór panelu LCD staje się opcją coraz bardziej ekonomiczną i uzasadnioną.

Gdy przyjdzie wybrać konkretny model, należy zwracać uwagę na następujące cechy:

do odtwarzania filmów DVD. Ponieważ większość dobrych kart graficznych, opartych na nowych chipsetach firm NVIDIA i ATI, wyposaża się w złącze DVI. nowy zakup nie powinien przysporzyć trudności. Mimo że w nowszych komputerach przenośnych również instaluje się złącze cyfrowe, w modelach starszych dostępne jest wyłącznie złącze VGA.

Co prawda wiele nowych chipsetów zintegrowanych z funkcjami wideo, takich jak nForce2 firmy NVIDIA, Radeon IGP firmy ATI oraz 865G, 845G i 845GE firmy Intel, obsługuje standard DVI, ale większość wyposażonych w nie płyt głównych nie posiada wbudowanego portu DVI. Zamiast niego obsługa standardu DVI jest realizowana przy użyciu opcjonalnej karty instalowanej w gnieździe AGP. Nie mając takiej karty, można też wyłączyć zintegrowany układ wideo płyty głównej i zastąpić go kartą graficzną współpracującą z dwoma monitorami, także wyposażoną w porty VGA i DVI.

i większych. Warto jednak zwrócić uwagę, że wydajność wyświetlania w orientacji pionowej jest zazwyczaj niższa niż w pozycji tradycyjnej. Jeżeli zamierzamy korzystać z możliwości obracania ekranu, warto przyjrzeć się jego pracy w obu pozycjach.


Projektory LCD i DLP

Początkowo projektory były tworzone z myślą o zastosowaniu ich w pomieszczeniach konferencyjnych i szko­leniowych. Jednak wraz z pojawieniem się zestawów kina domowego, wzrostem popularności pracy w domu, a także znacznym spadkiem cen i udoskonaleniem technologii wytwarzania projektorów ich wersje przenośne coraz częściej stanowią alternatywę dla telewizorów i wyświetlaczy plazmowych o dużym ekranie. Projektory mogą współpracować z komputerami PC z systemem Windows XP Media Center, odtwarzaczami wideo oraz tradycyjnymi komputerami stacjonarnymi i przenośnymi.

Przy wytwarzaniu projektorów stosowane są następujące dwie technologie:

Zamiast — podobnie jak w płaskich lub przenośnych wyświetlaczach LCD — stosować triady subpikseli, w projektorach LCD światło białe jest dzielone na składową czerwoną, zieloną i niebieską; następnie każda z nich jest kierowana do odpowiedniego panelu LCD. Zależnie od sygnałów otrzymywanych ze źródła (kom­puter, odtwarzacz wideo lub DVD), piksele każdego panelu LCD są uaktywniane lub wyłączane. Następnie są łączone do postaci pojedynczego obrazu RGB, wyświetlanego na ekranie.

Koszt wytwarzania projektorów LCD jest dość niski (niektóre modele SVGA o rozdzielczości 800x600 do­stępne są w cenie nie przekraczającej 3500 zł), ale przed ich zapakowaniem może być konieczne odczekanie określonej ilości czasu potrzebnego na ochłodzenie.

Kolejną ważną technologią stosowaną w projektorach używanych do prezentacji i w zestawach kina domo­wego jest technologia DLP, stworzona przez firmę Texas Instruments. W projektorach DLP wykorzystywane jest szybko obracające się koło barw i kontrolowana przez mikroprocesor tablica niewielkich zwierciadeł, na­zywana urządzeniem DMD (digital micromirror device). Każde zwierciadło urządzenia odpowiada pikselowi. Zwierciadła odbijają światło w kierunku układu optycznego projektora i w stronę przeciwną. W zależności od częstotliwości przełączania zwierciadeł obraz zmienia się z białego (zawsze aktywny) na czarny (nieaktywny), przechodząc maksymalnie przez 1024 odcienie szarości. Kolo barw przekazuje informacje dotyczące kolorów niezbędne do wygenerowania pełnego obrazu. W porównaniu z projektorami LCD projektory DLP są bardziej zwarte, lżejsze i po użyciu znacznie szybciej się chłodzą. Sąjednak znacznie droższe.

Na rysunku 15.5 zilustrowano generowanie obrazu przez projektor oparty na technologii DLP.

Rysunek 15.5.

Ilustracja działania typowego projektora DLP

0x08 graphic

W pierwszych projektorach DLP używano prostego 3-barwnego (RGB) koła, widocznego na rysunku 15.5. Jednak w celu poprawienia jakości obrazu w nowszych modelach zastosowano koło złożone z czterech (RGB i pusty segment) lub sześciu segmentów (RGBRGB).

W celu uzyskania dodatkowych informacji na temat cyfrowego przetwarzania światła należy zajrzeć na oficjalną stronę internetową firmy Texas Instruments (http://www.dlp.com), poświęconą tech-nologii DLP.

Wyświetlacze plazmowe

Tak naprawdę plazma, będąca najnowszą technologią stosowaną przy wytwarzaniu dużych wyświetlaczy o szerokim ekranie, ma już długą historię. Pod koniec lat 80. ubiegłego wieku firma IBM opracowała mono­chromatyczny ekran plazmowy, który na czarnym tle wyświetlał grafikę i tekst w kolorze pomarańczowym. Wyświetlacz ten został użyty przez firmę Toshiba w jej komputerach przenośnych T3100 i T3200, wyposażo­nych w kartę graficzną Double-scan CGA o rozdzielczości 640x400, zgodną z urządzeniem 6300 firmy AT&T.

W przeciwieństwie do pierwszych monochromatycznych wyświetlaczy plazmowych firmy IBM obecnie do­stępne wyświetlacze są urządzeniami RGB oferującymi 24- lub 32-bitową głębię koloru oraz obsługującymi sygnały telewizyjne i sygnały odtwarzaczy DVD. W przypadku wyświetlaczy plazmowych obraz uzyskuje się przez zapalanie triad luminoforu czerwonego, zielonego i niebieskiego przy użyciu zjonizowanego gazu, czyli plazmy (rysunek 15.6).


0x08 graphic
Rysunek 15.6.

Przekrój typowego

wyświetlacza

plazmowego

Elektrody adresujące i ekran tworzą siatkę umożliwiającą zaadresowanie każdego pojedynczego subpiksela. Poprzez regulowanie dla subpikseli każdej triady różnicy wartości ładunku pomiędzy ekranem i elektrodami adresującymi możliwe jest sterowanie obrazem przez sygnał źródłowy.

Przekątna typowych wyświetlaczy plazmowych zawiera się w przedziale od 42 do 50 cali. Ponieważ ich głównym przeznaczeniem jest współpraca z urządzeniami wideo, takimi jak DVD, tradycyjny telewizor i HDTV. oferowana przez nie rozdzielczość wynosi zwykle 852x480 przy współczynniku kształtu obrazu 16:9 (niektó­re modele 50-calowe oferują rozdzielczość WXGA, równą 1366x768). Co prawda rozdzielczość 852x480 jest niewystarczająca do powszechnych zastosowań komputerowych, ale wiele wyświetlaczy obsługuje sy­gnały portów VGA i DVI, a także sygnał S-video lub Composite. W związku z tym możliwe jest podłączenie tego typu wyświetlaczy do komputerów PC na potrzeby DVD lub podobnych zastosowań o charakterze roz­rywkowym.

Typy kart graficznych

Monitor wymaga pewnego źródła danych obrazu. Odpowiednie sygnały generuje obecna komputerze karta graficzna.

Karta graficzna implementowana jest na trzy sposoby:

Większość komputerów w obudowach Baby-AT i ATX korzysta z osobnych kart graficznych. Starsze płyty główne LPX, nowe Mini-ITX oraz najnowsze NLX i Micro-ATX, zawierają zazwyczaj kartę zintegrowaną. W ostatnim okresie wprowadzono wiele modeli płyt głównych o układzie Micro-ATX, Flex-ATX. NLX i Mini-ITX ze zintegrowanymi chipsetami (gdzie karta jest elementem głównego obwodu płyty) firm. takich jak Intel, NV1DIA, VIA i innych. Karty na trwale połączone z płytą główną można zazwyczaj zastępować kartą rozszerzeń, warto jednak pamiętać, że niektóre modele nie posiadają złącza AGP, optymalnego dla komunikacji graficznej.

Termin karta graficzna będziemy dalej stosować w odniesieniu do każdego z wymienionych wyżej typów. Określenie karta wideo stosowane jest zamiennie z terminem karta graficzna, ponieważ wszystkie urządzenia wideo stworzone od czasów pojawienia się karty MDA (monochrome display adapter) firmy IBM są w stanie wyświetlać zarówno tekst, jak i grafikę.

Kryteria wyboru monitora

Wybór monitorów jest ogromny, poczynając od modeli najtańszych, dołączanych do standardowych zestawów komputerowych, po odmiany wielkoekranowe, droższe od niejednego całego komputera. Ponieważ cena monitora zawsze stanowi dużą część związanych z zakupem komputera wydatków, dobrze jest wiedzieć, czego szukamy.

Jako istotne czynniki należy wymienić:

Na kolejnych stronach omówimy kolejno wszystkie te cechy. Powinno to ułatwić rozsądny zakup właściwie dobranego monitora.

Właściwy rozmiar

Zakres rozmiarów monitorów kineskopowych sięga od 15 cali do 42 cali przekątnej. Im większy monitor, tym wyższa cena. Ceny monitorów większych niż 19-calowe sąjuż zdecydowanie wysokie. Typowe obecnie roz­miary monitorów to 17 cali, 19 cali i 21 cali. Niestety, jest to zazwyczaj długość przekątnej lampy kineskopo­wej, a nie faktycznie wyświetlanego przez monitor obrazu. Aby porównać obszary wyświetlania monitorów kineskopowych z rzeczywistą wielkością wyświetlaczy LCD, należy zapoznać się z zawartością tabeli 15.1.

Porównywanie monitorów różnych firm nie będzie rzetelne, o ile nie uwzględnimy faktycznego rozmiaru po­wierzchni „aktywnej". Obszar aktywny ekranu to część jego powierzchni faktycznie rozświetlana przez stru­mienie elektronów. W świecie systemów Windows odpowiada on płaszczyźnie pulpitu.

Różnice są dość znaczne. 17-calowy monitor jednej firmy wyświetla obraz 16-calowy. a innej — 15.5-calowy. Oczekiwać można utraty od 1 do 1,5 cala przekątnej. Informacje o obszarze aktywnym znaleźć można w opi­sie monitora, jego reklamach lub na stronie WWW producenta. W opisie monitora ViewSonic G73f znajdzie­my: ,. 17" (16.0" VIS)". VIS to skrót od Yiewable Image Size (rozmiar wyświetlanego obrazu). Podstawowym zaleceniem przy wyborze monitora jest więc kierowanie się rozmiarem użytecznym, a nie „nominalnym".

Większość sprzedawanych obecnie monitorów to monitory 17-calowe lub większe. Aktualnie stan-T\ dardem jest 17 cali. Jest to więc nowy standard, zagrożony już spadającymi poniżej 1000 zł cenami monitorów 19-calowych.

Monitory wyższej klasy umożliwiają zazwyczaj wyświetlenie — bez utraty jakości — obrazu, który wykorzy­sta pełny rozmiar kineskopu. W modelach tańszych też jest to możliwe, widać jednak, że wykraczamy wów­czas poza normalnie zapewniane przez urządzenie możliwości. Często okazuje się, że lepiej ustawić obraz mniejszy, ale pozbawiony zniekształceń.

W większości sytuacji monitor 17-calowy będzie zakupem najbardziej opłacalnym. Rozmiar taki stosuje się w większości nowych systemów, zwłaszcza wyposażonych w środowisko Windows. Różnica cenowa w sto­sunku do wersji 15-calowych staje się coraz mniejsza. Przekątna 17 cali jest więc teraz rozsądnym i wygod­nym minimum. Monitory 19- i 21-calowe zaleca się dla systemów specjalnych, zwłaszcza tych. które pracują z aplikacjami graficznymi.

Jedną z przyczyn, dla których nie warto polecać tanich, dostępnych w większości sklepów detalicznych, zestawów jest to, że zawierają niskiej jakości monitory LCD lub kineskopowe. Co prawda ^\ 15-calowe monitory kineskopowe są obecnie mniej popularne od 17-calowych, ale wiele modeli w obu wersjach dołączanych do zestawów oferuje niskie częstotliwości odświeżania. Poza tym są cięższe i mają inne braki, których są pozbawione kupowane oddzielnie wysokiej jakości monitory. Kupowanie komputera i monitora osobno pozostawia szeroką swobodę wyboru i umożliwia się­gnięcie po model o dopasowanych parametrach. Gdy istotne znaczenie ma ilość zajmowanego przez urządzenie miejsca, można zdecydować się na zakup panelu LCD. Warto zwrócić uwagę, że kilku producentów (np. Sony i HP) oferujących zarówno zestawy komputerowe, jak i wyświetlacze ciekłokrystaliczne sprzedaje od niedawna kompletne systemy, w których monitor został zastąpiony właśnie panelem.

Monitory o dużej przekątnej są szczególnie użyteczne w zastosowaniach takich jak CAD czy DTP, kiedy wy­świetlanych jest wiele elementów, z których każdy musi być dobrze widoczny. Już monitor 17-calowy umoż­liwia wyświetlenie prawie całej strony A4 w skali 1:1. Można więc korzystać z wiernego odwzorowania stron drukowanych. Obniża to ilość wydruków próbnych.

Na znaczenie rozmiaru i rozdzielczości monitora wpływa rosnąca popularność Internetu. Wiele stron projek­tuje się pod kątem wyświetlania w rozdzielczości 800x600 lub wyższej. O ile monitor 15-calowy sprawdza się w rozdzielczości 800x600, monitor o przekątnej 17 cali, pracujący w trybie 1024x768 umożliwi wygodne przeglądanie każdej z wyszukanych stron, bez wysilania wzroku (o ile zapewnia częstotliwość odświeżania 75 Hz lub wyższą) i nieustannego przewijania.

Mimo że wiele monitorów o przekątnej mniejszej niż 17 cali ma fizyczną możliwość pracy w rozdziel-czości 1024x768 lub nawet wyższej, czytanie tekstu o niewielkim rozmiarze sprawia wielu osobom dużą trudność. Częściowe uniknięcie tego problemu umożliwia opcja Używaj dużych ikon systemów Windows 98/Me/2000/XP, dostępna w oknie Właściwości ekranu, w zakładce Efekty. W Windows 95 opcja zmiany wielkości samych ikon nie jest tak łatwo dostępna. Można użyć karty Ustawienia i wybrać opcję Duże czcionki, jednak nie każdy program przy takim ustawieniu pracuje poprawnie.

Monitory szerokoekranowe dla komputerów PC z systemem Windows XP Media Center

Obecnie kilku producentów posiada w swojej ofercie szerokoekranowe (współczynnik kształtu 16:9, maksy­malna przekątna 30 cali) wyświetlacze telewizyjne LCD zawierające tunery TV, wejścia audio i wideo, wbu­dowane głośniki oraz porty VGA i DVI. W porównaniu z tradycyjnymi wyświetlaczami LCD (porównaj z tabelą 15.1) tego typu wyświetlacze telewizyjne posiadają stosunkowo niską rozdzielczość. Zwykle wynosi ona 1280x768 (WXGA). Jednak takie wyświetlacze są głównie przeznaczone do domowych zastosowań o cha­rakterze rozrywkowym. Należy do nich zaliczyć użycie komputera PC z systemem Windows XP Media Center lub odtwarzacza DVD bądź magnetowidu. Biorąc pod uwagę większą odległość od ekranu, w jaiej przebywa się podczas oglądania telewizji lub materiału wideo, oferowana rozdzielczość jest odpowiednia.

Szerokoekranowe telewizory plazmowe wyposażone w porty VGA i DVI mogą też współpracować z kom­puterem PC z systemem Windows XP Media Center, a także z innymi źródłowymi urządzeniami wideo. Tego typu telewizory posiadają przekątną wynoszącą nawet 50 cali i oferują rozdzielczości HD równe 852x480 (w przypadku przekątnych do 46 cali) lub 1366x768 (przekątna 50 cali).

Rozdzielczość

Rozdzielczość (ang. resolution) decyduje o ilości wyświetlanych na ekranie szczegółów. Jest to parametr wyra­żany liczbą elementów obrazu, czyli pikseli (ang. picture elements, pixels) w poziomie i w pionie. Im większa liczba pikseli, tym dokładniejsza jest prezentacja obrazu. Różne zastosowania wymagają różnych rozdzielczo­ści. Aplikacje znakowe (jak aplikacje wiersza poleceń DOS) nie mają wygórowanych oczekiwań. Ich przeci­wieństwem są aplikacje związane z grafiką (jak oprogramowanie DTP i, ogólnie, większość aplikacji Windows), gdzie rozdzielczość jest czynnikiem bardzo istotnym.

Podstawową różnicą między monitorami a wyświetlaczami LCD jest to, że monitory mogą wyświetlać pewien zakres rozdzielczości, oferując podobnąjakość odwzorowania, podczas gdy wyświetlacze LCD projektowane są pod kątem jednego trybu pracy. Pozostałe uzyskiwane są wyłącznie drogą wymuszonego skalowania. Choć skalowanie zapewniane przez nowe modele paneli LCD jest znacznie lepsze niż to, z którym spotykaliśmy się w starych laptopach, uzyskiwane efekty nie mogą się równać z zapewnianymi przez tradycyjny kineskop.

Wraz z rozwojem technologii komputerów osobistych, zapewniane przez karty graficzne rozdzielczości ekra­nu rosły stosunkowo powoli. W tabeli 15.2 zestawiliśmy rozdzielczości standardowe, wraz z używanymi do ich opisu terminami.

Standardy CGA (Color Graphics Adapter) i EGA (Enhanced Graphics Adapter), na których bazowały karty i monitory, były pierwszymi standardami graficznymi stosowanymi w komputerach PC od początku do po­łowy lat 80. ubiegłego wieku. Standard VGA (Video Graphics Array) został opublikowany przez firmę IBM w kwietniu 1987 r. Odtąd wszystkie kolejne wprowadzane rozdzielczości i tryby graficzne w ten lub inny sposób były powiązane ze standardem VGA. Tryb VGA wciąż wykorzystuje się powszechnie jako określenie standardu wyświetlania z rozdzielczością 640x480 i 16 kolorami. Jest to standardowy tryb pracy większości systemów Windows. Wyróżnia się pod tym względem Windows XP, w którym domyślnym trybem pracy jest tryb SVGA wykorzystujący rozdzielczość 800x600. Tym samym skrótem VGA opisywane jest 15-pinowe złącze (często nazywane portem VGA), wykorzystywane przez większość kart graficznych do komunikacji z analogowym monitorem. Nowsze złącze 20-stykowe zapewnia obsługę paneli LCD zgodnych ze specyfikacją DFP. Większych rozmiarów złącze 24-stykowe znajdziemy w wyświetlaczach DVI-D. Wyświetlacze DVI-I korzystają z jego odmiany o 29 stykach (porównaj rysunek 15.4).

Tabela 15.2. Standardowe rozdzielczości kart graficznych

Standard urządzeń graficznych

Liczba pikseli w poziomie i pionie

Całkowita liczba pikseli

Współczynnik kształtu

CGA

320x200

64 000

1,60

EGA

640x350

224 000

1,83

VGA

640x480

307 200

1,33

WVGA

854x480

409 920

1,78

SVGA

800x600

480 000

1,33

XGA

1024x768

786 432

1,33

XGA+

1152x864

995 328

1,33

WXGA

1280x800

1 024 000

1,60

WXGA+

1440x900

1 296 000

1,60

SXGA

1280x1024

1 310 720

1,25

SXGA+

1400x1050

1 470 000

1,33

WSXGA

1600x1024

1 638 400

1,56

WSXGA+

1680x1050

1 764 000

1,60

UXGA

1600x1200

1 920 000

1,33

HDTV

1920x1080

2 073 600

1,78

WUXGA

1920x1200

2 304 000

1,60

QXGA

2048x1536

3 145 728

1,33

QSXGA

2560x2048

5 242 880

1,25

QUXGA-W

3840x2400

9 216 000

1.60

Współczynniki

0x08 graphic

Obecnie prawie wszystkie karty graficzne zapewniają obsługę trybu 1280x1024 (z różną głębią kolorów). Nie jest też rzadkością obsługa trybu UXGA (1600x1200) i wyższych. Zwykle poza najwyższą rozdzielczością oferowaną przez kartę i monitor niższe wartości są automatycznie obsługiwane.

Ponieważ wszystkie monitory oraz większość nowych i planowanych wyświetlaczy LCD zapewnia możli­wość pracy z wieloma rozdzielczościami, jest w czym wybierać. Jak wyjaśnimy to w dalszej części rozdziału, dostępne kombinacje rozdzielczości i głębi (liczby) kolorów mogą być ograniczone ilością pamięci RAM kar­ty graficznej. Jeżeli przełączenie do trybu o wyższej rozdzielczości wymaga zredukowania liczby wyświetla­nych kolorów, można szykować się do zakupu karty graficznej z większą ilością pamięci. Przed laty pamięć na karcie graficznej mogła być rozbudowywana, obecnie producenci nie zapewniają takiej możliwości.

Jaka rozdzielczość będzie najlepsza? Ogólnie rzecz biorąc, większa rozdzielczość wymaga większej powierzch­ni ekranu. Dlaczego? Ikony i tekst w systemie Windows korzystają ze stałej liczby elementów obrazu. W wy­sokich rozdzielczościach stają się więc bardzo małe. Użycie większego monitora (jak 17-calowy lub większy) pozwala wykorzystać możliwości karty bez utraty czytelności tekstów na ekranie.

Aby lepiej zrozumieć tę zależność, spróbujmy kilku trybów pracy na dowolnym komputerze. Przełączanie mię­dzy trybami 800x600 i 1024x768 powoduje charakterystyczne zmiany w wyglądzie ekranu.

W rozdzielczości 800x600 lub mniejszej wyświetlany na ekranie tekst i ikony są duże. Ponieważ elementy wyświetlane na pulpicie Windows 9x/2000/Me zawsze składają się z takiej samej liczby pikseli, zmiana do wyższej rozdzielczości powoduje ich wyraźne zmniejszenie. Oznacza to zarazem, że widoczna będzie większa część dokumentu lub strony WWW — każdy wyświetlany element zajmuje mniej miejsca.

Do pracy z rozdzielczością 800x600 w zupełności wystarczy monitor 15-calowy. Gdy jednak zechcemy sko­rzystać z trybu 1024x768, 15-calowa przekątna może okazać się niewygodna. Monitor 17-calowy zapewnia w takiej sytuacji wyraźną poprawę. W tabeli 15.3 przedstawiono listę rozdzielczości i minimalnej, niezbęd­nej do wygodnej pracy z nimi, przekątnej monitora.

Tabela 15.3. Zalecane rozdzielczości monitorów kineskopowych i LCD

Rozdzielczość

Minimalna zalecana przekątna monitora kineskopowego

Minimalna zalecana przekątna panelu LCD

800x600

15"

15"

1024x768

17"

15"

1280x1024

19"

17"

1600x1200

21"

18"

Jeśli zalecane rozdzielczości z tabeli 15.3 porówna się z tymi zawartymi w tabeli 15.1, zauważy się, że nieko­nieczne są one maksymalnymi oferowanymi przez określony monitor. Jednak polecam korzystanie właśnie z takich parametrów, aby umożliwić użytkownikowi komfortową pracę przy komputerze. Jeżeli monitor jest zbyt mały dla danej rozdzielczości, większość użytkowników skarży się na trudności w korzystaniu z małych elementów na ekranie i bóle oczu. Poza tym, monitory tańsze i sprzedawane w zestawach nie zapewniają w najwyższych rozdzielczościach odpowiedniej stabilności obrazu. Często też po ustawieniu maksymalnej rozdzielczości pracują z niskimi częstotliwościami odświeżania które wywołują migotanie obrazu, powodujące z kolei zmęczenie oczu.

Wolne od zakłóceń związanych ze zbyt wysokim ustawieniem rozdzielczości są panele LCD. Z natury ich obraz jest ostry i dobrze zogniskowany. Dodatkowo, informacja o rozmiarze ekranu opisuje jego obszar użyt­kowy. Poziom ostrości wyświetlaczy ciekłokrystalicznych umożliwia wyświetlanie na nich obrazu w rozdziel­czości, która byłaby nie do przyjęcia na monitorze o tej samej przekątnej.

Dobrym przykładem mogą być wyrafinowane modele komputerów przenośnych, wyposażone w panele o prze­kątnej 14 cali lub 15 cali, dostosowane do rozdzielczości 1400x1050 (SXGA+), a nawet 1600x1200 (UXGA). Co prawda takie rozdzielczości przekraczają możliwości tradycyjnych monitorów o identycznej przekątnej, ale dobrze sprawdzają się w przypadku paneli wbudowanych w laptopy. Wynika to stąd, że obraz jest krystalicznej jakości, a ponadto zwykle w przypadku komputera przenośnego siedzi się dość blisko wyświetlacza. Właściwie z tego powodu tak duże rozdzielczości nie sprawdzą się w przypadku paneli LCD dla komputerów stacjonarnych, których przekątna wynosi nieco ponad 17 cali lub jest równa 18 cali.

Wielkość piksela (monitory kineskopowe)

Innym ważnym parametrem monitora kineskopowego jest wielkość piksela (ang. dot pitch), o której decyduje zastosowana maska luminoforu. Maska (ang. shadow mask, aperture grille) to metalowa płyta znajdująca się w przedniej części monitora, tuż przy luminoforze. Maska ma tysiące otworów, które służą do ogniskowania strumieni poszczególnych dział elektronowych w taki sposób, że każde z nich rozświetla jednocześnie tylko jeden punkt luminoforu w odpowiednim kolorze. Jedynie ze względu na dużą częstotliwość odświeżania za­wartości ekranu (60 - 85 razy na sekundę) wszystkie punkty sprawiają wrażenie rozświetlanych jednocześnie. Maska zabezpiecza więc przed uderzeniami elektronów w niewłaściwe miejsca obrazu.

0x08 graphic
W przypadku monitora monochromatycznego elementem obrazu jest pojedynczy fragment luminoforu. W mo­nitorach kolorowych, element obrazu tworzy triada — grupa trzech punktów luminoforu (czerwony, zielony i niebieski). Wielkość piksela to odległość (w milimetrach) pomiędzy triadami, mierzona jako odległość od środka jednego punktu luminoforu do środka punktu w tym samym kolorze, należącego do triady sąsiadującej. Mniejsza wielkość piksela to mniejsza odległość między triadami. Element obrazu rozmieszczone są wówczas gęściej, co zapewnia wysoką ostrość obrazu. Ekran o dużej wartości rozmiaru piksela będzie z kolei mniej ostry. Rysunek 15.7 ilustruje znaczenie tej wartości.

Rysunek 15.7.

Wielkość piksela to odległość między sąsiadującymi grupami (triadami) kropek luminoforu czerwonego, zielonego i niebieskiego (RGB). Mniejsza wielkość piksela zapewnia ostrzejszy i bardziej przejrzysty obraz


0x08 graphic

Pojęcie wielkości piksela nie ma odniesienia do wyświetlaczy LCD, gdzie w miejsce triad luminoforu wykorzystywane są tranzystory.


Oryginalny monitor kolorowy komputera IBM PC dysponował wielkością piksela 0,43 mm. Wykracza ona poza współczesne normy. Dla zapewnienia odpowiedniej ostrości obrazu, producenci monitorów redukują tę wartość. Większość monitorów ma piksele o wielkości z zakresu od 0,25 do 0,30 mm. Aby uniknąć zjawiska ziarnistości obrazu, należy wybrać model zapewniający tę wartość na poziomie 0,26 mm. Zdecydowanie na­leży odradzić monitory, w których rozmiar elementu obrazu przekracza 0,28 mm. Brakuje im przejrzystości zarówno przy wyświetlaniu grafiki, jak i tekstu. Mimo że mniejszy kineskop i większy rozmiar piksela pozwa­lają oszczędzić nieco pieniędzy, ich wady szybko dają się we znaki.

Monitory oparte na kineskopach Sony Trinitron i Mitsubishi DiamondTron wyposażone są w maskę szczeli­nową (ang. aperture grille), gdzie zamiast otworów wykorzystywane są pionowe szczeliny. Zapewnia to więk­szą jasność obrazu, choć przy spojrzeniu z bardzo małej odległości można rozpoznać przewody stabilizujące, zaznaczone na rysunku 15.8. W miejsce wielkości pikseli producent podaje wówczas informację o rozstawie szczelin. Rozstaw 0,25 mm odpowiada wielkości piksela 0,27 mm.

0x08 graphic
Rysunek 15.8.

W kineskopach o masce szczelinowej (po lewej) luminofor ma układ paskowy. W zależności od rozmiaru monitora stosuje się jeden lub dwa przewody wzmacniające. Maska z krótkimi szczelinami, jak NEC CromaClear (po prawej) zapewnia połączenie zalet maski otworowej i szczelinowej

Niektóre monitory firmy NEC wyposażone są w odmianę maski szczelinowej (ang. slotted mask), która po­zwala uzyskać większą jasność, charakterystyczną dla maski szczelinowej, i zachować jednocześnie me­chaniczną stabilność maski tradycyjnej (patrz rysunek 15.8).

Wielkość piksela lub rozstaw szczelin to jeden z najważniejszych parametrów każdego monitora. Nie decy­duje jednak o wszystkim. Może się okazać, że monitor o nieco większym rozstawie pikseli zapewnia lepszą jakość od podobnego, o mniej wyrafinowanej masce. Nic nie zastąpi faktycznego obejrzenia grafiki i tekstu wyświetlanych przez konkretny model.

Jasność i kontrast obrazu (panele LCD)

Jak już wspomnieliśmy, kwestia wielkości piksela nie dotyczy paneli LCD. Mimo że jasność ekranu ma zna­czenie zarówno przy korzystaniu z tradycyjnego monitora, jak i z panelu LCD, jest szczególnie istotna w dru­gim z tych przypadków.

O ile przytłumiony obraz na monitorze jest zazwyczaj skutkiem niewłaściwej regulacji lub długiego czasu użytkowania, jasność paneli LCD różni się znacznie pomiędzy poszczególnymi ich modelami. Jasność paneli mierzy się w kandelach na metr kwadratowy. 1 cd/m2 to 1 nit (ang. natural unit— jednostka naturalna, skra­cane do nt). Dla dobrej jakości paneli ciekłokrystalicznych typowe wartości to 200 - 400 nitów. Dobrym połączeniem jest wysoka wartość jasności (od 250 nitów wzwyż) i wysoki współczynnik kontrastu (od 300:1 wzwyż).

trakcie oceniania telewizyjnego monitora LCD należy zwrócić uwagę na ustawienia dostępne w trybie pracy z komputerem i w trybie telewizyjnym. Wiele tego typu wyświetlaczy oferuje jaśniejszy obraz w przypadku drugiego trybu.

Przeplot

Rozdzielczość monitora lub karty graficznej może być uzyskiwana w trybie z przeplotem łub bez. W standar­dowym trybie bez przeplotu (ang. noninterlaced) strumień elektronów przeczesuje ekran wierszami od góry do dołu, przechodząc przez każdy kolejny wiersz ekranu w każdym takim przebiegu. W trybie z przeplotem (ang. interlaced) ruch strumienia elektronów pozostaje podobny, ale wymagane są dwa przebiegi — w pierw­szym odświeżane są wiersze nieparzyste, a w drugim parzyste. Każdy przebieg zajmuje połowę czasu przebie­gu w trybie bez przeplotu. Wczesne monitory wysokiej rozdzielczości, takie jak IBM 8514/A, wykorzystywa­ły przeplot do uzyskania najwyższych parametrów pracy. Od niedawna wszystkie monitory przeznaczone do pracy w wysokich rozdzielczościach (od 1024x768 wzwyż) zapewniają pracę bez przeplotu, co jest warunkiem uzyskania dobrego czasu reakcji ekranu i uniknięcia migotania.

Zarządzanie energią i normy bezpieczeństwa

Monitory, podobnie jak niemal wszystkie związane z komputerami urządzenia wyposaża się już od lat w funk­cje umożliwiające minimalizowanie poboru mocy. Praktycznie każdy sprzedawany obecnie monitor spełnia wymagania Energy Star, wprowadzone przez amerykańską Agencją Ochrony Środowiska (Ewironmental Protection Agency, EPA). Oznacza to, że w trybie bezczynność redukuje pobór energii do 30 watów lub mniej. Połączenie funkcji, w które wyposażony jest monitor, BIOS komputera i nowe wersje systemu Windows, umoż­liwia monitorom i innym urządzeniom utrzymanie zużycia energii elektrycznej na obniżonym poziomie.

► ► O zarządzaniu zasilaniem piszemy szerzej w rozdziale 21., „Zasilacze i obudowy", na stronie 1205.

Zarządzenie zasilaniem

Jedną z pierwszych norm ukierunkowanych na zmniejszenie poboru energii elektrycznej przez monitory była specyfikacja Display Power-Management Signalling (DPMS, sygnały zarządzania zasilaniem dla monito­rów). Określiła ona zestaw sygnałów przesyłanych przez komputer w celu przekazania monitorowi informacji o stanie bezczynności komputera. O tym, kiedy takie sygnały będą wysyłane, decyduje konfiguracja kompu­tera i karty graficznej.

W systemach Windows 9x/Me/2000/XP funkcja przesyłania sygnałów DPMS pozostaje standardowo wyłą­czona. W celu włączenia jej w systemie Windows 9x/Me otwieramy w Panelu sterowania arkusz właściwości ekranu, wywołujemy kartę Wygaszacz ekranu (ang. Screen Saver) i włączamy opcje zgodności z normą Energy Star i wyłączania monitora. Można samodzielnie określić okres czasu, po którym monitor zostanie wygaszo­ny lub całkowicie wyłączony. W systemie Windows 2000/XP korzystamy z arkusza opcji zasilania, służącego do określania zasad zarządzania poborem energii dla różnych urządzeń. Wyświetlenie arkusza opcji poprzez kartę wygaszacza ekranu również jest możliwe.

Firmy Intel i Microsoft wspólnie opracowały specyfikację Advanced Power Management (APM. zaawanso­wane zarządzanie zasilaniem), która określa implementowany w BlOS-ie komputera interfejs komunikacji pomiędzy zdolnymi do regulowania poboru mocy urządzeniami a systemem operacyjnym. Mówiąc krótko, oznacza to możliwość ustawienia w systemie operacyjnym, takim jak Windows 9x. opcji przełączania moni­tora w tryb „uśpienia" po pewnym czasie bezczynności komputera. Dostępna może być również opcja całko­witego wyłączenia komputera. Aby mechanizm ten funkcjonował, niezbędne jest zapewnienie zgodności z normą APM przez trzy składniki: monitor, BIOS komputera i system operacyjny.

W systemach Windows 98/Me/2000/XP firma Microsoft wprowadziła bardziej ogólną technikę zarządzania zasilaniem — Advanced Configuration and Power Interface (ACPI, zaawansowany interfejs konfiguracji i za­silania). Pozwala ona na obsługę monitorów, wyświetlaczy LCD, dysków twardych i innych urządzeń APM, umożliwiając również zautomatyzowanie czynności włączania i wyłączania urządzeń peryferyjnych: stacji CD-ROM, kart sieciowych, dysków twardych, drukarek itp. W podobny sposób sterować można również urzą­dzeniami niekomputerowymi, takimi jak magnetowid, telewizor, telefon czy zestaw stereo.

Mechanizmy APM szybko stały się standardowym elementem praktycznie wszystkich BIOS-ów PC. Gdy jed­nak wprowadzony został system Windows 98 z obsługą ACPI, większość komputerów wymagała uaktualnień BIOS-u, niezbędnych, aby wykorzystać możliwości nowej specyfikacji.

Obsługa ACPI w systemie Windows 98/Me/2000/XP zostaje zainstalowana wyłącznie wtedy, gdy T^l w czasie instalacji Windows BIOS komputera zapewnia obsługę tego standardu. Aktualizacja wpro-wadzona później pozostanie zignorowana. Na szczęście wszystkie wersje Windows zapewniają ob­sługę APM. Dokładniejsze informacje o ACPI można znaleźć w zbiorze FAQ poświęconym temu in­terfejsowi, udostępnianym na witrynie WWW firmy Microsoft.

W tabeli 15.4 zestawione zostały ustawienia związane z zarządzaniem zasilaniem według standardu DPMS. Większość współczesnych komputerów umożliwia użytkownikowi samodzielne określenie wartości opóźnie­nia dla trybu Standby (który wprowadza jedynie minimalną oszczędność) i wyłączenia monitora (które pozwa­la zaoszczędzić najwięcej energii, ale wymaga dłuższego oczekiwania na ponowne włączenie).

Tabela 15.4. Sygnalizacja DPMS

Stan monitora

Odchylanie poziome

Odchylanie pionowe

Ekran

Oszczędność

Czas powrotu

do stanu aktywności

Włączony

Tak

Tak

Aktywny

Brak

Nie dotyczy

Standby (gotowy)

Nie

Tak

Wygaszony

Minimalna

Krótki

Suspend

(praca wstrzymana)

Tak

Nie

Wygaszony

Znacząca

Dłuższy

Wyłączony

Nie

Nie

Wygaszony

Największa

Zależy od modelu

Praktycznie wszystkie monitory z funkcjami zarządzania zasilaniem spełniają wymogi programu Energy Star amerykańskiej agencji ochrony środowiska EPA. Wymaga on ograniczenia zużycia energii w trybie gotowo­ści do 15 watów lub mniej. Dostępne są również monitory spełniające wyższe wymagania szwajcarskiej nor­my Energy 2000 (E2000). Nakazuje ona ograniczenie poboru mocy w trybie Standby do 5 watów.

Emisja elektromagnetyczna

Innym działaniem związanym z minimalizowaniem szkodliwego wpływu monitorów na środowisko jest ogra­niczanie występowania pól elektromagnetycznych w bezpośrednim otoczeniu urządzenia, potencjalnie szko­dliwych dla użytkownika. Badania medyczne potwierdzają możliwość wywoływania przez emisję elektroma­gnetyczną poronień, wad wrodzonych i raka. Ryzyko nie jest zapewne duże, ale kumuluje się, gdy siedzimy przed ekranem trzecią część dnia (lub więcej).

Na pracę organów wewnętrznych wpływać może emisja w zakresie częstotliwości określanych jako bardzo małe i skrajnie małe (ang. very Iow freąuency— VLF i extremely Iow freąuency — ELF). Emisja może mieć postać elektryczną lub magnetyczną. Niektóre z przeprowadzonych badań wykazały, że emisja magnetyczna w paśmie skrajnie małych częstotliwości jest bardziej szkodliwa niż emisja w paśmie bardzo małych często­tliwości, co ma być wynikiem interakcji z aktywnością elektryczną komórek ciała. Monitory nie są tu jedyny­mi podejrzanymi. Wysoki poziom emisji elektromagnetycznej charakteryzuje też koce elektryczne i przewo­dy sieci energetycznej.

Emisja bardzo niskich i skrajnie niskich częstotliwości to rodzaj promieniowania elektromagnetycz-nego. Są to tzw. częstotliwości radiowe, pozostające jednak poniżej zakresu używanego przez na-dajniki radiowe.

W tabeli 15.5 przedstawione jest zestawienie norm regulujących poziom emisji elektromagnetycznej i inne aspekty pracy monitora. Mimo że wszystkie pochodzą ze Szwecji, zostały uznane na całym świecie.

Tabela 15.5. Normy emisji elektromagnetycznej monitorów

Nazwa normy

Organizacja normalizacyjna

Data

Zakres wymagań

Uwagi

MPR 1

SWEDAC1

1987

Emisja

elektromagnetyczna

Zastąpiona przez MPR II.

MPR 11

SWEDAC'

1990

Emisja

el ektromagnetyczn a

Dodane wartości maksymalne dla emisji ELF i VLF; od niedawna praktycznie stosowany standard minimalny.

TCO2

TCO2

1992, 1995. 1999, 2003

Silniejsze ograniczenie emisji niż MPR II. Specyfikacje TCO 95, TCO 99 i TCO 03 obejmują także inne klasy urządzeń.

'Szwedzka Rada ds. Akredytacji i Oceny Zgodności. 'Szwedzka Konfederacja Specjalistów.

Praktycznie wszystkie monitory sprzedawane obecnie zapewniają obsługę norm TCO.

Jeżeli nie korzystamy z monitora o ograniczonej emisji, możemy podjąć pewne minimalne kroki zabezpiecza­jące. Najważniejszym jest pozostawanie w odległości rzędu 70 cm od powierzchni ekranu. Kolejny metr dalej emisja w zakresie częstotliwości skrajnie niskich spada do poziomu typowego dla tradycyjnego biura. Dodat­kowo, natężenie emisji po stronie ekranu jest stosunkowo najmniejsze. Należy pamiętać o unikaniu przeby­wania w odległości mniejszej niż 1 m od tylnej ścianki monitora i 1,5 m od kserokopiarki, która również jest znaczącym źródłem emisji pola o skrajnie niskich częstotliwościach.

Promieniowanie elektromagnetyczne nie jest jedynym zagrożeniem dla zdrowia. Warto zwrócić uwagę na odblaski. Wiele paneli odblaskowych, przeznaczonych do mocowania przed ekranem, odcina również emisję elektromagnetyczną.

Ponieważ wyświetlacze plazmowe i ciekłokrystaliczne nie wymagają magnesów ani dział elektronowych, nie generują one emisji w zakresie ELF w ogóle.

Częstotliwości

Jednym z istotnych czynników, które należy brać pod uwagę przy zakupie monitora, jest zapewnienie zgodności z kartą graficzną. Wszystkie sprzedawane obecne monitory określa się jako wieloczęstotliwościowe. Zapew­niają one zgodność z różnymi standardami, zarówno starszymi, jak i nowymi, jeszcze nie uznanymi formalnie. Mimo to, we współpracy z różnorodnymi kartami graficznymi nie każdy monitor okazuje się uniwersalny.

Mimo szeroko zachwalanych możliwości obsługi wielu częstotliwości, zagadnienie zgodności trybów pracy monitora z trybami pracy karty graficznej nie traci na aktualności. Zapewnienie pracy ze zróżnicowanym sy­gnałem wizji zapewnia uniwersalność, ale i podwyższa cenę monitora. Częstotliwość odchylania pionowego i poziomego zapewniana przez kartę graficzną musi być równa odpowiedniej wartości spośród tych, które ak­ceptuje monitor. Wartość częstotliwości odchylania pionowego decyduje o stabilności obrazu (im wyższa, tym lepiej). Zakres jej wartości to 50-160 Hz. Osiągana przez monitor częstotliwość odświeżania pionowego róż­ni się dla poszczególnych częstotliwości. Ten sam monitor, który zapewnia w trybie 640x480 częstotliwość 120 Hz, w trybie 1280x1024 oferować może jedynie 66 Hz. Zakres częstotliwości odświeżania pionowego obejmuje wartości od 31,5 do 90 kHz. Aby nie ryzykować uszkodzenia monitora, większość kart graficznych odświeża obraz z częstotliwością 60 Hz.

Monitory wysokiej jakości dłużej utrzymują swoją wartość. W porównaniu z procesorami, kiedy już w kilka dni po zakupie komputera dowiadujemy się, że nowo nabyty model został uznany za prze­starzały, dobry monitor może być inwestycją bardzo udaną. Jeżeli weźmiemy poprawkę na rosnące z upływem lat wymagania, możemy liczyć na to, że w przyszłości nasz monitor pozostanie w użyciu nawet po wymianie całego komputera.

Jako drobniejsze, a użyteczne elementy warto wziąć pod uwagę:

Pomimo to. że monitory LCD pracują z niższymi częstotliwościami niż tradycyjne, zjawisko migotania nie jest w ich przypadku problemem. Jest to efekt jednoczesnego podświetlania pikseli, nieosiągalny dla monito­rów, gdzie wąski strumień elektronów nieustannie „wędruje" pomiędzy górną a dolną krawędzią ekranu.

Częstotliwość odświeżania (częstotliwość odchylania pionowego)

Częstotliwość odświeżania (ang. refresh rate) lub częstotliwość odchylania pionowego (ang. vertical scan freąuency) określa, jak często odtwarzana jest zawartość ekranu. Miarą tej wielkości jest herc (Hz). Częstotli­wość odświeżania 72 Hz oznacza, że obraz na ekranie jest odnawiany 72 razy na sekundę. Zbyt niska wartość tego współczynnika powoduje migotanie ekranu, które dość szybko męczy wzrok użytkownika. Im wyższa jest częstotliwość odświeżania, tym lepiej dla naszych oczu i wygody pracy w trakcie dłuższych sesji.

Częstotliwość bez migotania (ang. flicker-free refresh rate) to częstotliwość wystarczająco wysoka, aby mi­gotanie obrazu stało się niezauważalne. Jej wartość związana jest z rozdzielczością pracy (rozdzielczość wyż­sza wymaga wyższej częstotliwości). Częstotliwość bez migotania ma charakter wartości minimalnej, której obsługę musi zapewniać zarówno monitor, jak i karta graficzna. Ponieważ zawyżone ustawienia częstotliwo­ści odświeżania mogą odbić się ujemnie na szybkości obsługi ekranu, zaleca się korzystanie z częstotliwości najniższej spośród uznanych za odpowiednie.

Częstotliwość odświeżania ma szczególne znaczenie przy wyborze monitora przeznaczonego do pracy w try­bie 1024x768 i wyższych. Monitory „ekonomiczne" nie zapewniają zazwyczaj możliwości osiągnięcia często­tliwości bez migotania w wyższych rozdzielczościach.

W tabeli 15.6 zestawione zostały parametry pracy dwóch typowych monitorów o przekątnej 17 cali i przecięt­nej karty graficznej.

Tabela 15.6. Zestawienie częstotliwości odświeżania

Rozdzielczość

Częstotliwości odświeżania

ATI RADEON 9000 Pro

ViewSonic E70

ViewSonic P75f+

1024x768

60 Hz - 200 Hz*

87 Hz*

118 Hz'

1280x1024

60 Hz - 160 Hz*

66 Hz

89 Hz*

1600x1200

60 Hz - 120 Hz*

nie obsługiwana

77 Hz*

Częstotliwości powyżej 72 Hz są akceptowalne dla większości użytkowników. Standard VESA wymaga co najmniej 85 Hz.

Zwróćmy uwagę na różnicę w wartościach częstotliwości odświeżania. Przedstawione parametry opisują istnie­jące w rzeczywistości modele: kartę ATI RADEON 9000 Pro oraz dwa 17-calowe monitory firmy ViewSonic: E70 i P75f+.'

Monitor E70 sprzedawany jest za 450 zł, a P75f+ — za około 650 zł. Monitor droższy zapewnia możliwość pracy z częstotliwością bez migotania w wyższych rozdzielczościach.

Mimo że karta ATI RADEON 9000 Pro umożliwia pracę w wyższych rozdzielczościach niż każdy z tych monitorów, nie można tych możliwości wykorzystać. Narzucenie karcie pracy w wyższej rozdzielczości niż dopuszczana przez monitor może doprowadzić do uszkodzenia tego ostatniego!

Informacje o zapewnianych przez monitor częstotliwościach odświeżania (dla różnych rozdzielczości) są za­zwyczaj dostępne na witrynie WWW producenta.

Stosując określenie optymalna rozdzielczość, wielu producentów odnosi się do rozdzielczości tra-T^i dycyjnego monitora obsługującego standard VESA, dotyczący wyświetlania obrazu bez migotania (częstotliwości od 85 Hz wzwyż). Namawiam do tego, aby za optymalną rozdzielczość monitora uznać najwyższą w praktyce stosowaną, ponieważ wyższe wartości, przy których wyświetlany obraz nie jest pozbawiony migotania, będą raczej oferowały kiepską jakość wizualną.

Systemy Windows 95B (OSR 2.x), Windows 98, Windows Me, Windows 2000 i Windows XP zapewniają bez-obsługową konfigurację współpracy z monitorem, o ile zarówno monitor, jak karta dysponują funkcją Display Data Channel (DDC, kanał danych monitora). Komunikacja tego rodzaju polega na przesłaniu przez monitor sygnałów opisujących obsługiwane częstotliwości odświeżania i kilka innych parametrów pracy. Odzwiercie­dleniem uzyskanych w ten sposób informacji jest w systemie Windows karta właściwości monitora.

Monitory, które nie zapewniają konfiguracji automatycznej przy użyciu kanału DDC. mogą być konfigurowane przy użyciu plików .INF, podobnie jak inne obsługiwane przez system Windows urządzenia. Plik taki może być dołączony do monitora na dyskietce lub udostępniony na witrynie WWW producenta.

Ponieważ ekran monitora jest w ciągu każdej sekundy kilkadziesiąt razy odświeżany, zmiany jego wyglądu pozostają dla nieuzbrojonego oka niewidoczne. Zakłócenia widać natomiast wyraźnie na zdjęciach ekranu, nagraniach wideo czy klasycznej taśmie filmowej. Ponieważ praca aparatu foto­graficznego lub kamery nie może zostać zsynchronizowana z cyklem odświeżania monitora, jego przebieg widoczny jest zazwyczaj jako ciemny pas biegnący w poprzek ekranu.

Gdy pojawia się potrzeba zapisania ruchomego obrazu monitora na taśmie wideo, należy skorzystać z karty graficznej wyposażonej w wyjście TV, do którego można podłączyć magnetowid. Jeśli zależy Ci na wykonaniu zrzutów zawartości ekranu monitora (na przykład w celu zachowania informacji doty­czących konfiguracji BIOS/CMOS), zamiast tradycyjnego monitora należy użyć wyświetlacza LCD.

Z doświadczenia autora wynika, że częstotliwość odchylania pionowego tradycyjnego monitora wynosząca 60 Hz to absolutne minimum w każdych warunkach. Nawet w tej rozdzielczości każda z osób dostrzeże wi­doczne migotanie. Grozi ono zmęczeniem oczu i całego organizmu, szczególnie gdy pracujemy z monito­rem większych rozmiarów. Jeżeli można wybrać częstotliwość 72 Hz (jest to minimalna zalecana wartość) lub wyższą, większość osób uzna obraz za stabilny. Wszystkie dobre monitory oferują obecnie możliwość uzyskania częstotliwości 85 Hz lub wyższej we wszystkich rozdzielczościach do 1024x768 włącznie. Migota­nie jest w takich trybach znikome. Warto jednak pamiętać, że zwiększanie częstotliwości odświeżania, choć polepsza jakość obrazu, ogranicza wydajność karty graficznej — częstość wyświetlania obrazu musi być większa. Jeśli jesteś amatorem gier, mniejsza liczba klatek na sekundę może przyczynić się do uzyskania gor­szego wyniku. Dobrym rozwiązaniem jest wykorzystywanie częstotliwości najniższej spośród tych, które wydają się zadowalające. W systemach Windows 9x/Me/2000/XP zmianę częstotliwości odświeżania ekranu umożliwia okno Właściwości ekranu, wywoływane z Panelu sterowania.

W zależności od wersji Windows, lista częstotliwości odświeżania może znajdować się na różnych kartach arkusza właściwości. Ustawieniem domyślnym jest Optymalna. W rzeczywistości, wybrana w ten sposób częstotliwość to tryb „bezpieczny", nie grożący uszkodzeniem żadnego monitora. W celu ograniczenia (lub całkowitego zlikwidowania) migotania wybieramy opcję 72 Hz lub wyższą. Aby zobaczyć ekran z nowymi ustawieniami, klikamy Zastosuj. Po wybraniu wartości innej niż „optymalna" wyświetlone zostanie ostrzeże­nie o możliwości uszkodzenia monitora. Jeżeli nie dysponujemy pełnymi informacjami o monitorze, ostrze­żenie to powinniśmy potraktować poważnie — przy zbyt dużej częstotliwości układy monitora mogą ulec do­słownie stopieniu. Przed rozpoczęciem „eksperymentów" należy:

Klikamy OK, aby wypróbować nowe ustawienie. Jeżeli ekran ulegnie zniekształceniu, wystarczy poczekać kilka chwil, a karta graficzna automatycznie powróci do pracy we wcześniejszym trybie. W tym czasie wy­świetlane jest zapytanie o to, czy nowe parametry obsługi ekranu powinny zostać zachowane. Jeżeli wygląd ekranu jest odpowiedni, klikamy Tak. Przycisk Nie umożliwia natychmiastowe powrócenie do trybu sprzed zmiany częstotliwości. Jeżeli zawartość ekranu uniemożliwia manewrowanie wskaźnikiem myszy, wciskamy klawisz ENTER. Odpowiada on domyślnej odpowiedzi Me. W przypadku starszych programów obsługi kart graficznych, udostępnianie listy częstotliwości nie było przewidziane. Warto wówczas poszukać uaktualnienia sterownika. Jeżeli uaktualnienie takie nie jest dostępne, można oczekiwać, że do karty dołączony był osobny program, odpowiedzialny za zarządzanie jej pracą.

Jeżeli po przełączeniu do trybu z wysoką częstotliwością odświeżania obraz ulega zniekształceniom, podczas gdy dokumentacja monitora informuje, że mamy do czynienia z obsługiwanym przezeń połączeniem rozdziel­czości i częstotliwości, przyczyną może być niewłaściwe rozpoznanie urządzenia. Aby sprawdzić, jak system Windows 9x/Me/2000/XP rozpoznał monitor, sięgamy do okna właściwości ekranu. Nazwy takie jak Standard VCA, Super VGA czy Monitor domyślny informują o wykorzystywaniu przez system standardowego programu, który zapewnia obsługę szerokiej gamy monitorów. Nie umożliwia on jednak korzystania z częstotliwości odświeża­nia przekraczającej 75 Hz — wyższe częstotliwości groziłyby zniszczeniem niektórych modeli monitorów.

W sporadycznych przypadkach pomocne może być „ręczne" wskazanie właściwej marki i modelu (na wy­świetlonej za pomocą arkusza właściwości ekranu liście). Jeżeli wykorzystywany model nie jest wymieniony, przeszukujemy witrynę WWW producenta. Po zainstalowaniu właściwego sterownika informacja o obsługi­wanych częstotliwościach będzie łatwo dostępna.

Częstotliwość odchylania poziomego

Przy różnych rozdzielczościach ekranu wykorzystywane są różne częstotliwości odchylania poziomego (ang. horizontal scan freąuency). Przykładem może być standardowa rozdzielczość VGA, 640x480, wymagająca częstotliwości 31,5 kHz i rozdzielczość 800x600, kiedy częstotliwość odchylania pionowego powinna wyno­sić co najmniej 72 Hz, a częstotliwość odchylania poziomego — co najmniej 48 kHz. Odpowiednie wartości minimalne dla obrazu 1024x768 to 60 Hz i 58 kHz, a dla obrazu 1280x1024 — 60 Hz i 64 kHz. Jeżeli często­tliwość odchylania pionowego w trybie 1280x1024 wzrasta do 75 Hz, wymagana częstotliwość pozioma to 80 kHz. Aby uzyskać superostry obraz sięgamy po monitor zapewniający częstotliwość odświeżania co naj­mniej 75 Hz i częstotliwość odchylania pionowego — co najmniej 90 kHz. Monitor faworyzowany przez au­tora, 17-calowy model firmy NEC, zapewnia częstotliwość odświeżania 75 Hz w trybie 1600x1200, 117 Hz w trybie 1024x768, a 160 Hz w trybie 640x480.

Praktycznie wszystkie dostępne obecnie monitory analogowe to modele, które można określić jako wieloczę-stotliwościowe. Ponieważ dosłownie setki producentów wytwarzają tysiące modeli monitorów, trudno zagłę­biać się w szczegółowe omówienia poszczególnych modeli. Warto jedynie podkreślić, że przed zainwestowa­niem w nowy monitor niezbędne jest przejrzenie jego specyfikacji i dokładne ustalenie, czy spełni pokładane w nim oczekiwania. Dobrym początkiem poszukiwań może być przegląd magazynów komputerowych, które okresowo publikują różne „testy monitorów". Alternatywną możliwością jest sięgnięcie do wiitryn WWW firm IBM. Sony, NEC-Mitsubishi i ViewSonic. Wyznaczają one standardy, z którymi porównywać można inne, dostępne w sklepach modele. Choć wymienione marki nie należą do najtańszych, liczyć można zarówno na uznany poziom jakości i zgodności, jak również na obsługę gwarancyjną i pomoc techniczną. Warto zwró­cić uwagę, że większość firm oferuje zróżnicowane linie produktów, o różnym poziomie częstotliwości od­świeżania, typie kineskopu, powłoce antyodblaskowej, poborze energii i okresie gwarancji. Zdecydowanie nie można polecać najtańszych monitorów 17-calowych, jeżeli standardową rozdzielczością ma być 1024x768. W tym trybie ich obraz jest najczęściej rozmazany, a częstotliwość odświeżania nie jest satysfakcjonująca.

Regulacja obrazu

Większość nowych modeli monitorów i paneli LCD wyposażona jest w przyciski lub sensory, które wypierają obecnie z użytku stosowane wcześniej analogowe regulatory obrazu. Nie mają one nic wspólnego z sygnałem przesyłanym do monitora przez komputer. Obsługiwany przy użyciu prostej „klawiatury" system menu umoż­liwia ustawianie parametrów takich jak: jasność (poziom czerni), kontrast (luminancję). rozmiar obrazu, jego położenie w pionie i w poziomie, nasycenie kolorów, faza i ogniskowanie. Pierwsze wciśnięcie przycisku wy­wołuje menu na ekran. Po zakończeniu wprowadzania korekt, dopracowane ustawienia mogą zostać zapisane w nieulotnej pamięci RAM monitora (NVRAM). Ten szczególny rodzaj pamięci umożliwia trwałe przecho­wywanie danych bez korzystania z zewnętrznego zasilania bateryjnego lub sieciowego. Odłączenie zasilania monitora nie powoduje utraty danych, które zarazem można w dowolnym momencie modyfikować. Cyfrowy system regulacji obrazu daje duże możliwości i warto go polecić.

Uwagi specjalisty od cyfrowej techniki obrazu, Charlesa Poyntona, są doskonałym przewodnikiem, w którym znajdziemy precyzyjne informacje o właściwym korzystaniu z — tak często niewłaściwie rozumianych — opcji regulacji jasności i kontrastu. Dostępne są na stronie internetowej http:// www.vision.ee.ethz.ch/~buc/brechbuehler/mirror/color/Poynton-color.html.

Mechanizmy regulacji cyfrowej znacznie ułatwiają korygowanie wszystkich przedstawionych na rysunku 15.9 zniekształceń geometrii ekranu. Przed rozpoczęciem wprowadzania takich poprawek niezbędne jest do­branie właściwego rozmiaru i pozycji obrazu.


0x08 graphic
Rysunek 15.9.

Typowe zakłócenia geometrii obrazu, charakterystyczne dla monitorów kineskopowych. Cyfrowe panele regulacyjne umożliwiają ich skuteczne korygowanie


0x08 graphic
Regulatory pozycji obrazu i innych jego parametrów powinny być łatwo dostępne. Optymalną lokali­zacją jest przednia ściana obudowy monitora. Podstawowe regulatory jasności i kontrastu powinny uzupełniać możliwość dostosowania wielkości i położenia obrazu (w pionie i w poziomie). Standar­dowym wyposażeniem jest również podstawa uchylno-obrotowa, umożliwiająca ustawienie ekranu monitora pod odpowiednim kątem do pionu.


Mimo że paneli LCD nie nękają zniekształcenia geometrii, również one podatne sana obniżające jakość ob­razu problemy. Rozsynchronizowanie i pływanie pikseli (kiedy przylegające do siebie elementy są na prze­mian włączane i wyłączane) to typowe zakłócenia charakterystyczne dla wyświetlaczy LCD korzystających z analogowego złącza VGA.

Testowanie monitora

W przeciwieństwie do większości przyłączanych do komputerów urządzeń peryferyjnych, samo przejrzenie danych technicznych nie pozwala określić, czy dany monitor spełni nasze oczekiwania. Również cena nie zawsze jest wskaźnikiem rzetelnym. Testowanie monitora to procedura, w której duże znaczenie ma subiek­tywna ocena urządzenia. Najlepiej więc wypróbować kilka dostępnych modeli w sklepie, a najlepiej przynieść wybrany egzemplarz do domu czy biura (o ile mamy możliwość zwrotu).

Testowanie nie powinno polegać jedynie na spojrzeniu na przygotowaną dla klienta lub przypadkową zawar­tość. W wielu sklepach wyświetlane są na ekranach monitorów filmy, krajobrazy lub pstrokata grafika —jest to bezużyteczne, gdy przychodzi do rzetelnej analizy i porównań. O ile to możliwe, należy na poszczególnych monitorach oglądać ten sam obraz i porównywać ich sposób pracy z tą samą sekwencją czynności.

Przed rozpoczęciem opisanych poniżej testów przełączamy monitor do pracy z najwyższą rozdzielczością i największą częstotliwością na jakie pozwalać będzie wykorzystywana po zakupie karta graficzna.

Wzorcowa seria testów może wyglądać następująco:

♦ Korzystając z programu graficznego rysujemy idealnie równy okrąg. Jeżeli wyświetlony zostanie kształt owalny, monitor nie sprawdzi się jako narzędzie do pracy z oprogramowaniem do grafiki

i projektowania.

to samo zjawisko pojawia się na więcej niż jednym monitorze z tej samej serii, może to sygnalizować niedopracowaną technologię wytwarzania. Przyczyną może być również sygnał karty graficznej. Dla wykluczenia tej możliwości konieczne jest podłączenie monitora do innego komputera, wyposażonego w odmienny model karty graficznej. Problem tego rodzaju nie może jednak pozostać zignorowany.

♦ Wyświetlamy pulpit systemu Windows, sprawdzając jednolitość ogniskowania i jasności. Czy ikony w narożnikach ekranu są równie ostre jak na pozostałym obszarze ekranu? Czy teksty na paskach tytułowych są równe? Ogniskowanie monitora jest zazwyczaj najlepsze pośrodku ekranu. Rozmazane brzegi to znak rozpoznawczy monitorów gorszej jakości. Za występowanie zakrzywień linii może odpowiadać niskiej jakości karta graficzna lub niepoprawna konfiguracja cyfrowych ustawień obrazu monitora. Zanim zostanie podjęta decyzja o wymianie monitora należy najpierw spróbować za pomocą cyfrowych kontrolek poprawić jakość obrazu. Następną czynnością może być podłączenie monitora do portu innej karty graficznej. Jeśli jakość wyświetlanego obrazu się nie polepszy, należy wymienić monitor.

Zmiany poziomu jasności mogą powodować, że ekran matowieje i „kołysze się" — można wówczas oczekiwać słabego ogniskowania przy pracy z dużą jasnością. Tego rodzaju analizę ułatwiają programy diagnostyczne dołączane do niektórych kart graficznych lub oferowane jako niezależne produkty.

Konserwacja monitora

Ponieważ dobry 17-calowy lub większy monitor kineskopowy bądź 15-calowy lub większy monitor LCD może służyć przez lata i pracować z niejednym komputerem, odpowiednia nad nim opieka nabiera szczegól­nego znaczenia.

Oto podstawowe wskazówki:

♦ Mimo że wypalanie luminoforu (które polega na tym, że obraz pozostający często na ekranie z czasem wypala trwały „cień") jest niemal niemożliwe w przypadku współczesnych monitorów typu VGA — w odróżnieniu od starszych monitorów TTL — wygaszacze ekranu wciąż znajdują zastosowanie. Zarówno standardowe wygaszacze ekranu Windows, jak i programy niezależnych firm, oferują opcję zabezpieczania komputera hasłem (choć nie jest ono niemożliwe do ominięcia). Każdy system operacyjny firmy Microsoft wyposażony jest w standardowy zestaw wygaszaczy, uaktywnianych poprzez arkusz właściwości ekranu. Obfitość wygaszaczy znajdziemy też w Internecie. Przy korzystaniu z tych ostatnich warto pamiętać, że wszelkie dodatkowe oprogramowane, jeżeli jest niedopracowane lub przestarzałe, może powodować awarie systemu. Ponadto wiele darmowych wersji wygaszaczy może instalować programy szpiegujące (ich zadaniem jest przekazywanie agencjom reklamowym informacji na temat nawyków użytkownika związanych z przeglądaniem zasobów internetu). Warto zwrócić uwagę na to, pod kątem której wersji Windows przygotowany został instalowany wygaszacz.


0x08 graphic

W przypadku wyświetlaczy plazmowych możliwe jest wypalanie się luminoforu, dlatego po zdecy­dowaniu się na podłączenie takiego urządzenia do komputera PC w celu jego ochrony należy pa­miętać o zastosowaniu wygaszacza ekranu.


♦ Aby uniknąć przedwczesnej awarii zasilacza monitora, warto korzystać z funkcji zarządzania zasilaniem, dostępnych za pośrednictwem arkusza właściwości ekranu lub opcji zasilania. Umożliwiają one przełączenie monitora w tryb Standby (gotowości), o niskim poziomie poboru mocy, po upływie pewnego rozsądnego okresu czasu bezczynności komputera (10- 15 minut). Po upływie dłuższego okresu, rzędu godziny, monitor może zostać całkowicie wyłączony. Poleganie na funkcjach zarządzania zasilaniem jest zdecydowanie bardziej godne polecenia niż ciągłe korzystanie z głównego wyłącznika monitora. Monitor wyłączamy jedynie na zakończenie dnia pracy.

Jak stwierdzić, czy monitor znajduje się w trybie gotowości czy został już całkowicie wyłączony? Informuje o tym umieszczona na jego przedniej ściance dioda sygnalizacyjna zasilania. O ile w normalnym trybie pracy jej kolor pozostaje niezmiennie zielony, przejście w tryb Standby sygnalizuje zmiana koloru na bursztynowy bądź miganie. Ponieważ monitor w tym trybie wciąż pobiera energię, wskazane jest jego wyłączenie na noc.

Jeżeli monitor nie przechodzi w tryb gotowości po upływie określonego czasu bezczynności komputera, upewniamy się, czy został poprawnie rozpoznany przez system operacyjny. W systemie Windows oznacza to wyświetlenie karty Ustawienia (Settings) arkusza właściwości ekranu. Dodatkowo, wybrana powinna zostać opcja zgodności z normą Energy Star (o ile monitor zapewnia zarządzanie zasilaniem). Zasada ta nie obowiązuje w przypadkach, gdy monitor powinien nieustannie pozostawać włączony.

Karty graficzne

Karta graficzna łączy komputer z monitorem, zapewniając możliwość przesyłania sygnałów, które opisują wy­świetlany obraz. W historii komputerów PC standardy graficzne kilkakrotnie zmieniały się — podstawowym wyróżnikiem są coraz wyższe rozdzielczości i głębia kolorów. Poniższe wyliczenie starych i nowych specy­fikacji można traktować jako przegląd historyczny technologii graficznej:

Skrót j Nazwa

Tłumaczenie

MDA

Monochrome Display Adapter

monochromatyczny adapter wideo

HGC

Hercules Graphics Card

karta graficzna Hercules

CGA

Color Graphics Adapter

adapter grafiki kolorowej

EGA 1 Enhanced Graphics Adapter

rozszerzony adapter grafiki

VGA ! Video Graphics Array

matryca graficzna wideo

SVGA Super VGA

Super VGA

XGA j Extended Graphics Array

rozszerzona matryca wideo

Firmą pionierską była najczęściej IBM, która wyznaczała standardy kopiowane przez producentów kompute­rów kompatybilnych. Obecnie IBM nie jest już, jak wcześniej, liderem. Wiele z wymienionych wyżej standar­dów całkowicie wyszło z użycia. Specyfikacje nowe nie są natomiast opisywane swoimi nazwami. Wyjątkiem jest jedynie VGA, termin wciąż używany do określenia podstawowego trybu pracy ekranu, którego obsługę zapewnia praktycznie każda współczesna karta graficzna.

W opisach oferowanych w sklepach kart graficznych nie znajdziemy już zazwyczaj skrótów VGA, SVGA. XGA czy UVGA, ale jedynie liczby określające rozdzielczość i ilość dostępnych kolorów. Zapoznanie się z rozwojem standardów zapewnia jednak szerokie spojrzenie na rozwój technologii. Pozwoli też uniknąć nie­spodzianek, gdy zetkniemy się z urządzeniami starszymi.

Współczesne karty zgodne z VGA umożliwiają pracę z większością starszego oprogramowania, pisanego pod kątem monitorów CGA, EGA i innych. Zapewnia to możliwość dalszego korzystania ze znanych gier. pro­gramów edukacyjnych i innych aplikacji. Wyjątkiem jest niewielka liczba programów, które używały funkcji bezpośredniego zapisu do rejestrów karty, nieobecnych w modelach dzisiaj stosowanych. Dla większości użyt­kowników jest to już bez znaczenia.

Starsze odmiany kart graficznych

Niejeden rodzaj podsystemu graficznego uznano już za standard przemysłowy. Jednak tylko wybrane wciąż zachowują faktyczne znaczenie.

Współczesne karty graficzne

Wraz z wprowadzeniem komputerów PS/2, 2 kwietnia 1987 roku, firma IBM po raz pierwszy zaoferowała użytkownikom kartę VGA. W tym samym okresie firma ta wprowadziła do sprzedaży karty MCGA, o niższej rozdzielczości, i 8514. o rozdzielczości wyższej. Obie te linie zostały po pewnych czasie porzucone. Szeroką popularność zdobyła natomiast karta VGA.

Wszystkie współcześnie stosowane karty graficzne wyposażone w 15-stykowe analogowe złącze VGA. jak również te. które korzystają ze złączy DVI, to rozwiązania wywodzące się ze standardu VGA.

Sygnały cyfrowe a sygnały analogowe

W przeciwieństwie do najstarszych cyfrowych standardów wideo VGA jest systemem analogowym. Dlaczego porzucono cyfrowy tryb komunikacji, gdy wszystkie systemy elektroniczne rozwijają się w kierunku przeciw­nym, upowszechniania pracy cyfrowej? Cyfrowe dyski kompaktowe zastąpiły talerze obrotowe gramofonów, miniaturowe kamery DV zastępują taśmę VHS i 8 mm, a cyfrowe nagrywarki wideo wypierają magnetowidy. Cyfrowy odbiornik telewizyjny umożliwia jednoczesne wyświetlanie obrazu z kilku kanałów na podzielonym ekranie lub w oknach podglądu.

Przed premierą komputera PS/2 większość monitorów komputerów osobistych należała do grupy cyfrowych. Rozwiązanie takie polegało na prostym powiązaniu wyświetlanego koloru z pojedynczym „strzałem" trzech dział elektronowych (RGB). Podejście oparte na dwóch stanach aktywny-nieaktywny umożliwia uzyskanie do 8 kolorów (21). W rozwiązaniach firmy IBM dodatkowy sygnał pozwolił podwoić liczbę kombinacji kolo­rów podstawowych poprzez wprowadzenie możliwości korzystania z dwóch poziomów intensywności barwy. Tego rodzaju monitor cyfrowy jest stosunkowo prosty w produkcji, zapewnia również jednolitość prezentacji obrazu przez komputery. Jedynie ograniczona liczba kolorów okazała się z czasem nie do przyjęcia.

W systemach PS/2 specjaliści firmy IBM wykorzystali technikę analogową. Podobnie jak w monitorach cy­frowych, różne odcienie kolorów uzyskiwane są dzięki odpowiedniemu sterowaniu trzema strumieniami elek­tronów. Jednak w przypadku monitora analogowego korzystać można z różnorodnych poziomów jasności. Monitor VGA pozwala na uzyskanie 64 poziomów tego samego koloru podstawowego. Uzyskujemy w ten sposób 262 144 dostępne kolory (643), z których 256 może być wyświetlanych jednocześnie. Gdy wyświetla­na jest realistyczna grafika komputerowa, głębia kolorów jest nawet istotniejsza od rozdzielczości — obraz o większej liczbie kolorów będzie postrzegany jako bardziej zbliżony do rzeczywistego. Dzięki technice ana­logowej komputery firmy IBM mogły to osiągnąć.

Karta VGA

Komputery PS/2 wyposażone zostały w podstawowy obwód karty graficznej wbudowany w płytę główną, jednak zarówno IBM. jak i inne firmy oferowały samodzielne karty VGA, umożliwiające korzystanie z moż­liwości nowych monitorów systemom starszym.

Mimo że karta VGA pierwotnie zaimplementowana została w komputerach z magistralą MCA, takich jak PS/2 Model 50 i dalsze, nie można już dziś znaleźć nowego urządzenia, które mogłoby taką kartę zastąpić. Urządze­nia ze złączem MCA są już trudno dostępne nawet na giełdach komputerowych.

VGA BIOS to oprogramowanie sterujące obwodów VGA, osadzone w pamięci ROM karty. Udostępniane przezeń możliwości umożliwiają aplikacjom i systemowi operacyjnemu korzystanie z określonego zestawu poleceń i funkcji, w miejsce zarządzenia ekranem bezpośrednio. Zapewnia to podstawowy poziom zgodności różnych urządzeń i umożliwia korzystanie ze spójnego zestawu instrukcji, których obsługa zaimplementowa­na jest w firmowym oprogramowaniu karty.

► ► Zajrzyj do podpunktu „BIOS karty graficznej" znajdującego się na stronie 593.

Poszczególne implementacje kart VGA różnią się rozwiązaniami sprzętowymi, rozpoznają jednak te same wy­wołania i funkcje BIOS-u. Funkcje nowe dodaje się jako nadzbiór funkcji standardowych, co zapewnia zgod­ność kolejnych generacji kart ze standardowymi funkcjami graficznymi i tekstowymi, obecnymi w najstarszych modelach PC. Karta VGA pozwala korzystać niemal z każdego programu przeznaczonego dla kart CGA i EGA. Jedynym wyjątkiem są aplikacje korzystające z funkcji bezpośredniego dostępu do rejestrów karty.

Standardowa karta VGA wyświetla do 256 kolorów należących do palety 262 144 (256 k) kolorów. Gdy wy­korzystywany jest tryb graficzny 640x480 lub tekstowy 720x400, dostępnych jest tylko 16 kolorów. Ponie­waż generowany sygnał ma charakter analogowy, niezbędny jest odpowiedni do tego trybu sposób przesyłania danych na monitor.

Pierwsze modele monitorów VGA to zarówno monitory kolorowe, jak i monitory monochromatyczne. Praca monitora monochromatycznego VGA opiera się na sumowaniu barw, którego wynikiem są 64 odcienie szaro­ści. Procedura sumowania inicjowana jest przez BIOS, jeżeli wykryje on monitor monochromatyczny w trak­cie uruchamiania komputera. Dla każdego koloru wykonywane jest wówczas odpowiednie przekształcenie wzoru sterowania działami elektronowymi. Umożliwia ono wykorzystanie monochromatycznego monitora w pracy z aplikacjami pisanymi pod kątem użycia monitora kolorowego.

Nawet najtańsze dostępne dzisiaj karty graficzne mogą pracować w trybach znacznie wykraczających poza wymagania wzorcowej specyfikacji. 16 kolorów i rozdzielczość 640x480 to powszechnie akceptowana kon­figuracja minimalna. Tak określony „tryb VGA" musi być obsługiwany przez każdą kartę pracującą pod kon­trolą systemu Windows. W tym trybie pracuje standardowo program instalacyjny systemów firmy Microsoft. Niezależnie od tego, praktycznie każda karta umożliwia pracę z wyższymi rozdzielczościami i większą liczbą kolorów. W przypadku problemów z uruchomieniem systemów Windows 9x/Me/2000/XP można skorzystać z trybu awaryjnego, w którym również stosowany jest tryb VGA. W systemach Windows 2000 i XP dostępny jest dodatkowo tryb uruchamiania o nazwie Tryb VGA (ang. VGA modę), gdzie obsługa ekranu musi przebie­gać zgodnie ze starymi, ogólnie obowiązującymi zasadami, a obsługa pozostałych podzespołów komputera nie zmienia się (jak to się dzieje w trybie awaryjnym). Tryb VGA systemu Windows XP jest jednak specyficzny — oznacza pracę z rozdzielczością 800x600! '

Firma IBM wprowadziła na początku lat 90-tych odmiany podsystemu VGA, nazwane XGA i XGA-2, jednak w trakcie dalszego rozwoju standardów palmę pierwszeństwa przejęły inne firmy i założone przez nie stowa­rzyszenie Video Electronic Standards Association (VESA, Stowarzyszenie Normalizacyjne Elektroniki Wideo).

Super VGA

Gdy firma IBM wprowadziła karty XGA i 8514/A, inni producenci odeszli od zwyczaju „klonowania" rozwią­zań lidera. Rozpoczęta została produkcja kart tańszych, osiągających często wyższe rozdzielczości. Ogólnym określeniem tego rodzaju rozwiązań jest Super VGA (SVGA).

Karta SVGA to rozwiązanie o możliwościach poszerzonych w stosunku do karty VGA. W przeciwieństwie do kart wymienionych na stronach wcześniejszych, termin SVGA nie jest precyzyjny i dotyczy licznej grupy kart graficznych o zróżnicowanym potencjale.

Przykładem mogą być dwie karty, z których pierwsza oferuje rozdzielczości 800x600 i 1024x768 (poza roz­dzielczością VGA), a druga — zarówno wyższe rozdzielczości, jak i większą głębię kolorów w każdej z nich. Mimo tych różnic, obie można sklasyfikować jako karty SVGA.

Karta SVGA przypomina zewnętrznie kartę VGA. Wykorzystywane jest takie samo złącze monitora; Zróżni­cowanie innych parametrów technicznych urządzeń różnych producentów istotnie utrudnia pełne ich omówienie. Złącze VGA przedstawia rysunek 15.10, a przeznaczenie poszczególnych styków opisujemy w tabeli 15.7.

We wtyku, który umieszczamy w gnieździe karty graficznej, często nie odnajdziemy styku nr 9. Styk nr 5 wy­korzystuje się wyłącznie w procedurach testowania, a z kolei styk nr 15 najczęściej nie jest potrzebny. Rów­nież i one pozostają czasem nie podłączone. Przy rozpoznawaniu typu monitora niektórzy producenci wyko­rzystują informacje o obecności lub braku poszczególnych styków.


0x08 graphic

Rysunek 15.10.

Złącze VGA, wykorzystywane przez urządzenia SVGA i pokrewne

Tabela 15.7. Układ standardowego, 15-stykowego złącza VGA

Numer styku

Funkcja

Kierunek

Numer styku

Funkcja

Kierunek

1

Sygnał — czerwony

Wyjście

9

Klucz (zaślepiony)

2

Sygnai — zielony

Wyjście

10

Synchronizacja — masa

3

Sygnał — niebieski

Wyjście

11

Monitor ID 0

Wejście

4

Monitor ID 2

Wejście

12

Monitor ID 1

Wejście

5

TTL — uziemienie (autotest monitora)

13

Synchronizacja pozioma

Wyjście

6

Masa sygnału analogowego —

czerwony

14

Synchronizacja pionowa

Wyjście

7

Masa sygnału analogowego —

zielony

15

Monitor ID 3

Wejście

8

Masa sygnału analogowego —

niebieski

Standardy SVGA wyznaczone przez VESA

Do stowarzyszenia VESA należą różne firmy związane z produkcją komputerów osobistych i innych, zwią­zanych z wyświetlaniem obrazu komputera, urządzeń. W październiku 1989 roku, kiedy tworzenie aplikacji obsługujących różnorodne, dostępne wówczas na rynku karty SVGA stało się znacznie utrudnione, organiza­cja ta przedstawiła specyfikację jednolitego interfejsu programowania kart. Jest on znany pod nazwą VRSA BIOS Extension (VBE, rozszerzenie BIOS-u zgodne z normą VESA). Funkcje VBE może realizować ładowany do pamięci program obsługi (rozwiązanie stosowane przez starsze karty) lub dodatkowy moduł w oprogramowaniu VGA BIOS. co jest bardziej typowe. Możliwość korzystania z rozszerzenia VBE pozwala programiście pracować z jednym tylko programem obsługi karty graficznej. Interfejs VESA jest obsługiwany przez wiele kart różnych producentów. Obecnie zgodność z VBE jest istotna głównie dla aplikacji DOS-u i systemów operacyjnych spoza firmy Microsoft, gdy niezbędne jest korzystanie z wyższych rozdzielczości lub większej głębi kolorów. Spe­cyfikacja VBE obejmuje rozdzielczości do 1280x1024 i głębię kolorów do 24 bitów (16,7 miliona kolorów). Istotnym ograniczeniem możliwości korzystania z takich trybów pracy jest ilość pamięci karty. Zgodność z nor­mami VESA nie ma jednak żadnego znaczenia dla Windows 95 i nowszych odmian tego systemu. W środowisku okienkowym zawsze wykorzystywany jest program obsługi specyficzny dla zainstalowanej karty.

Karta zintegrowana i chipset płyty głównej

Mimo że wbudowana karta graficzna jest znakiem rozpoznawczym tanich komputerów od długiego już cza­su, aż do końca lat 90-tych „wbudowany" oznaczało jedynie proste przeniesienie standardowych elementów omawianych w tym rozdziale na płytę główną komputera. Jest to typowe zwłaszcza dla niedrogich płyt głów­nych o układzie LPX. Wydajność i funkcje wbudowanych kart graficznych niewiele różniły się od zapewnia­nych przez karty rozszerzeń (z tym samym lub podobnym chipsetem). W większości przypadków dostępna była możliwość zastąpienia karty wbudowanej kartą zewnętrzną. W pewnych modelach wprowadzono nawet opcję rozbudowy pamięci zintegrowanej karty graficznej.

► ► Zajrzyj do punktu „Format LPX" znajdującego się na stronie 207.

W ostatnich latach dążenie do włączania elementów peryferyjnych do konstrukcji płyty głównej doprowadzi­ło do opracowania chipsetów PC, których elementami wewnętrznymi są karta graficzna z akceleracją 3D oraz układ obsługi dźwięku. Gdy jest on wykorzystywany, niepotrzebna staje się osobna karta graficzna. Jako pamięć wideo wykorzystywana jest część standardowej pamięci komputera. Takie „podbieranie" pamięci komputerowi określa się jako jednolitą architekturę pamięci (ang. unified memory architecture — UMA). Rozwiązanie to byto stosowane wcześniej, gdy wbudowana karta graficzna była jeszcze urządzeniem niezależnym, jednak nowe zintegrowane chipsety płyty głównej przyczyniły się do jego znacznego rozpowszechnienia.

Pionierem w dziedzinie chipsetów zawierających funkcje graficzne (i audio) była firma Cyrix (obecnie jej właścicielem jest firma VIA Technologies). W okresie, gdy fabryki Cyriksa wykupione zostały przez National Semiconductor. powstał produkt złożony z dwóch układów scalonych, o nazwie MediaGX. Chipset ten łączył funkcje procesora, kontrolera pamięci, układu dźwiękowego i układu graficznego. Pozwalało to na znaczne oszczędności. Słabą stroną rozwiązania była wydajność, znacznie niższa niż w innych rozwiązaniach, pra­cujących z tą samą szybkością taktowania procesora. Firma National Semiconductor, po sprzedaży Cyriksa firmie VIA, zachowała prawa do układu MediaGX. Powstały nowe wersje, Geode GX1 i Geode GX2. prze­znaczone do użytku w terminalach graficznych, przystawkach do telewizorów i innych systemach wbudowa­nych. W sierpniu 2003 r. firma National Semiconductors sprzedała firmie Advanced Micro Devices swój dział urządzeń informacyjnych, produkujący też rodzinę chipsetów Geode. Aktualnie firma AMD oferuje różne rozwiązania oparte na tych chipsetach.

Kolejnym graczem na polu chipsetów zintegrowanych jest firma Intel, oferująca przeznaczone dla procesorów Pentium III i Celeron układy serii 810. Chipsetowi 810 (nazywany roboczo Whitney) towarzyszyło powszechne dopasowanie innych elementów systemów komputerowych. Kolejną serią po 810 (810 i 810E) była 815, prze­znaczona dla procesorów Pentium III i Celeron, również zapewniająca obsługę funkcji graficznych i audio. Aktualnie Intel w ramach chipsetów z rodziny 845 i 865 oferuje zintegrowane układy wideo dla procesorów Pentium 4 i Celeron 4. W tabeli 15.8 porównano główne funkcje wideo chipsetów Intela z serii 8xx zawiera­jących zintegrowany układ graficzny. Warto zauważyć, że chipsety wymienione w jednej komórce oferują identyczne funkcje wideo, ale różnią się pod względem obsługi pamięci, funkcji wejścia-wyjścia itp.

0x08 graphic

Poza firmą Intel wytwarzaniem zintegrowanych chipsetów zajmują się inni więksi producenci, tacy jak NVIDIA, VIA, ATI i Acer Labs. W tabeli 15.9 porównano funkcje wideo najważniejszych zintegrowanych chipsetów tych producentów.

Tabela 15.9. Funkcje wideo aktualnie dostępnych chipsetów innych firm niż Intel

Producent! Chipset

Obsługiwane procesory

Typ zintegrowanego układu wideo

Obsługa zewnętrznej j Pojemność

magistrali AGP pamięci wideo

ATI

RADEON 1GP9100

Intel Pentium 4, Celeron 4

ATI RADEON 9000

AGP x8 I Maksymalnie ! 128 MB

ATI

RADEON IGP9100PRO

Intel Pentium 4, Celeron 4

ATI RADEON 9000

AGP x8 | Maksymalnie 128 MB

NVIDIA

nForce2

AMD Athlon/Duron/ Athlon XP

NVIDIA GeForce4 MX420

AGP x8 S Maksymalnie ! 64 MB

SiS i SiS661FX

Intel Pentium 4, Celeron 4

SiS Ultra-AGPII Mirage

AGP x8

Maksymalnie 64 MB

SiS ! SiS760

AMD Athlon 64, Opteron

SiS Ultra-AGPII Mirage 2

AGP x8

Maksymalnie 128 MB

SiS i SiS74I

AMD Athlon XP/Duron/ Athlon

SiS Ultra-AGPII Mirage

AGP x8 1 Maksymalnie 64 MB

VIA

PM880, PM800

Intel Pentium 4, Celeron 4

S3 Graphics Unichrome Pro

AGP x8

Maksymalnie 64 MB

VIA

K8M800

AMD Athlon 64, Opteron

S3 Graphics Unichrome Pro

AGP x8

Maksymalnie 64 MB

VIA

KM400

AMD Athlon XP/Duron/ Athlon

S3 Graphics Unichrome

AGP x8

Maksymalnie 64 MB

Mimo że wydajność większości chipsetów zintegrowanych nie zadowoli miłośnika gier 3D (wyjątkiem są NV1D1A nForce2 i ATI RADEON IGP 9100). osoby wykorzystujące komputer w innych dziedzinach mogą uznać uzyskiwane wyniki za zadowalające, a zakup płyty z takim chipsetem współpracującej z procesorem Pentium 4, Athlon XP lub Athlon 64 — za rozwiązanie ekonomiczne. Szczególnie polecić można wybór płyty, która — poza zintegrowanym chipsetem — wyposażona została w złącze AGP x8 lub PCI Express x 16 umożliwiające zainstalowanie nowej karty. W przyszłości, gdy nasze wymagania wzrosną może być to bardzo przydatne.

Elementy karty graficznej

Każdy karta zawiera kilka podstawowych komponentów:

Rysunek 15.11 przedstawia lokalizacje większości z tych komponentów na typowej karcie graficznej AGP x8. Warto zauważyć, że GPU jest skrótem od Graphics Processing Unit.

Rysunek 15.11.

Przykład typowej karty graficznej o dużej wydajności wyposażonej w chipset GPUNVIDIA GeForce FX 6800 Ultra, optymalizowany pod kątem gier i obsługi dwóch monitorów

0x08 graphic

Praktycznie wszystkie karty graficzne wyposażone są obecnie w chipsety z funkcjami akceleracji 3D. Na dal­szych stronach omówimy wymienione składniki kolejno.

BIOS karty

Karty graficzne zawierają uktad pamięci ROM z oprogramowaniem BIOS (ang. Basic Input/Output System — podstawowy podsystem wejścia-wyjścia), który jest podobny w konstrukcji, ale całkowicie niezależny od głównego BIOS-u komputera. Podobne układy znaleźć można również w innych podzespołach, przede wszyst­kim w kontrolerach SCSI. Jeżeli uruchamianie systemu rozpoczniemy od włączenia monitora i będziemy uważ­nie śledzić szybko znikające z ekranu napisy, powinniśmy zobaczyć winietę BIOS-u karty graficznej —jest to najczęściej pierwszy wyświetlany na ekranie tekst.

Podobnie jak BIOS komputera. BIOS karty graficznej zapisany jest w trwałej pamięci ROM (ang. Read-Only Memory — pamięć tylko do odczytu) i zawiera podstawowe instrukcje umożliwiające oprogramowaniu korzy­stanie z podstawowych instrukcji obsługi karty. Z wywołań funkcji BIOS-u karty graficznej mogą korzystać aplikacje, system operacyjny i główny system BIOS komputera. Oprogramowanie BIOS-u umożliwia kom­puterowi wyświetlanie informacji jeszcze przed załadowaniem do pamięci składników systemu operacyjnego.

► ► Zajrzyj do podrozdziału „Podstawowe informacje o BlOS-ie" znajdującego się na stronie 398.

BIOS karty graficznej może być też aktualizowany, podobnie jak BIOS komputera, dwoma sposobami. Wy­korzystywany układ scalony to układ wielokrotnego zapisu, typu EEPROM (ang. Electrically Erasable Pro-grammable ROM — programowalna pamięć stała wymazywalna elektrycznie). Udostępniane przez producen­ta karty oprogramowanie umożliwia zmianę jego zawartości. Alternatywą może być prosta wymiana układu scalonego. Producent może oferować takie rozwiązanie, jeżeli układ BIOS-u nie jest trwale do karty przyluto-wany. Większość nowych kart graficznych korzysta jednak z układów montowanych powierzchniowo. BIOS. który można uaktualnić przy pomocy oprogramowania określa się nazwą Flash BIOS — rozwiązanie to jest obecnie stosowane powszechnie.

Uaktualnienie BIOS-u karty graficznej (czasami nazywa się to uaktualnieniem oprogramowania sprzętowego) może być niezbędne przy instalowaniu nowego systemu operacyjnego, jak również wskazane w sytuacji, gdy producent stwierdzi błędy w oryginalnym oprogramowaniu karty. Uaktualnienie może się również wiązać z wprowadzeniem znaczących zmian w programie obsługi karty graficznej. Ogólną zasadą jest jednak klasy­fikowanie BIOS-u jako oprogramowania z grupy „dopóki działa, nie dotykać". Nie ulegajmy pokusie insta­lowania uaktualnienia tylko dlatego, że istnieje. Niezbędna jest zawsze uważna lektura dokumentacji uaktual­nienia. Jeżeli nie dotyczą nas opisywane w niej problemy, pozostawiamy konfigurację karty bez zmian.

^ Zajrzyj do podpunktu „BIOS karty graficznej" znajdującego się na stronie 523.

Procesor graficzny

Procesor graficzny (ang. Graphics Processing Unit — GPU) to serce każdego karty graficznej. Od niego za­leżą dostępne funkcje karty i jej wydajność. Dwie karty oparte na tym samym chipsecie mają zazwyczaj po­dobne możliwości i osiągi. Również oprogramowanie wykorzystywane przez system operacyjny i aplikacje do komunikacji z kartą to oprogramowanie pisane głównie pod kątem obsługi jego procesora graficznego. Dość często zdarza się. że można używać programu obsługi karty z określonym chipsetem również do obsługi innych kart, które mają ten sam chipset. Głównym czynnikiem różnicującym podobne urządzenia staje się wów­czas ilość i rodzaj pamięci wideo.

Od czasów zaprojektowania pierwszych kart graficznych VGA zastosowano w nich kilka podstawowych odmian procesorów, które porównano w tabeli 15.10.

Tabela 15.10. Technologie procesorów graficznych

Typ l Gdzie przetwarzany jest obraz

Wydajność

Koszt

Obecny status

Bufor ramek i

Główny procesor komputera

Bardzo mała

Bardzo niski

Przestarzały. Głownie karty ISA.

Koprocesor graficzny

Procesor karty graficznej '.

Bardzo duża

Bardzo wysoki

CAD i zaawansowane stacje robocze

Akcelerator , graficzny

Układ graficzy kreśli odcinki koła i inne figury geometryczne.| Procesor komputera przesyła odpowiednie polecenia

Duża

Niski-średni

Wszystkie popularne karty graficzne; najczęściej ! łączony z procesorem i grafiki 3D (GPU)

Procesor grafiki 3D (GPU)

Układy przetwarzania 3 D (GPU) kart graficznych generują (w układzie akceleratora) wielokąty wraz z niezbędnymi efektami oświetlenia i cienia.

Duża. w zakresie grafiki 2D i3D

Cena zależy od rodzaju chipsetu, ilości pamięci szybkości przetwornika DAC

Wszystkie karty graficzne zoptymalizowane pod ! kątem gier (większość kart „z półki").

Identyfikacja chipsetów graficznych i płyty głównej

Przed zakupem komputera lub karty należy sprawdzić, w jaki układ procesora graficznego są zaopatrzone. Może to oznaczać określenie chipsetu karty graficznej, wbudowanej karty graficznej lub układu, który inte­gruje funkcje chipsetu graficznego i płyty głównej. Umożliwi to:

Ponieważ wydajność i funkcje karty będą istotnym czynnikiem decydującym o naszej satysfakcji i wydajności pracy, warto wyszukać jak najwięcej informacji publikowanych na stronach WWW producentów karty i chip­setu, jak również przez firmy niezależne (najczęściej czasopisma komputerowe). Sterowniki kiepskiej jakości lub zawierające błędy mogą być przyczyną różnego rodzaju problemów, dlatego co jakiś czas należy sprawdzać, czy pojawiły się ich aktualizacje i instalować je od razu po pobraniu. W przypadku kart graficznych wsparcie ze strony producenta istotne może być już po dokonaniu zakupu. Należy zaglądać na stronę internetową pro­ducenta i sprawdzać, czy udostępnił aktualizację sterowników i czy pozytywnie wpłyną one na pracę karty.

Warto zauważyć, że NVID1A (czołowy producent chipsetów graficznych) wytwarza tylko chipsety, nato­miast firma ATI (zajmuje drugie miejsce w kategorii producentów układów wideo) wytwarza także karty gra­ficzne i dostarcza chipsety innym firmom. Oznacza to, że dostępnych jest wiele kart graficznych opartych na tym samym chipsecie. Z tego wynika też, że pomiędzy takimi kartami pojawią się różnice w wydajności, do­łączonym oprogramowaniu, oferowanej gwarancji i innych możliwościach.

Pamięć RAM karty graficznej

Większość kart graficznych korzysta z własnej pamięci, w której umieszczany jest przetwarzany obraz. Co prawda specyfikacja magistrali AGP dopuszcza przechowywanie tekstur 3D w głównej pamięci komputera, ale obecnie taka możliwość wykorzystywana jest w niewielu kartach wideo wyposażonych w pamięć o po­jemności 32 MB. 64 MB, a nawet większej. Wiele tańszych systemów, wyposażonych w kartę zintegrowaną korzysta z architektury UMA i wykorzystuje część pamięci komputera. W każdym z tych przypadków pa­mięć na karcie graficznej lub pamięć „pożyczona" od komputera wykorzystywane są jednakowo.

Ilość pamięci karty wyznacza największą dopuszczalną rozdzielczość i głębię kolorów obrazu. Ta sama karta może być często wyposażona w mniejszą lub większą ilość pamięci. Typowe wielkości to 32. 64 i 128 MB. Mimo że zwiększanie ilości pamięci nie gwarantuje wzrostu wydajności karty, może ona ulec poprawie, jeśli wykorzystana zostanie szersza magistrala danych (64 lub 128 bitów) lub umożliwi się użycie dodatkowych megabajtów pamięci jako bufora standardowych elementów obrazu. Karta o większej ilości pamięci to dla użytkownika najczęściej dwie korzyści: większa głębia kolorów w większych rozdzielczościach ekranu oraz (w przypadku kart AGP) możliwość przechowywania i przetwarzania tekstur 3D w całości przez kartę, bez wykorzystywania wolniejszej pamięci głównej.

W kartach graficznych stosowanych było wiele typów pamięci. Ich przegląd zawiera tabela 15.11.

Tabela 15.11. Typy pamięci kart graficznych

Nazwa skrócona

Nazwa pełna

Wydajność

Zastosowania

FPM RAM

Fast Page-Mode RAM

niska

starsze karty ISA: przestarzała

VRAM'

Video RAM

wysoka

wysoki koszt układów; przestarzała

W RAM1

Window RAM

wysoka

wysoki koszt układów; przestarzała

EDO RAM

Extended Data Out RAM

średnia

tańsze karty PCI

SDRAM

Synchronous DRAM

wysoka

tańsze karty PCI/AGP

MDRAM

Multibank DRAM

wysoka

rzadko stosowana; przestarzała

SGRAM

Synchronous Graphics DRAM

bardzo wysoka

dobre karty PCI/AGP; zastępowana przez DDR SDRAM

DDR SDRAM

Double-Data Rate SDRAM

bardzo wysoka

dobre karty AGP

DDR-II SDRAM

Double-Data Rate SDRAM; pobieranie do pamięci 4 bitów danych w ciągu cyklu

wyjątkowo wysoka

dobre karty AGP i PCI Express

GDDR-3 SDRAM

Zmodyfikowana pamięć Double-Data Rate SDRAM

wyjątkowo wysoka

dobre karty AGP i PCI Express

VRAM i WRAM to tzw. pamięci dwuportowe, umożliwiające jednoczesny odczyt dartych przez jeden port i zapis przez drugi. Umożliwia to zwiększenie wydajności dzięki redukcji czasu oczekiwania na uzyskanie dostępu do pamięci przez procesor graficzny. Pamięci lego typu zapewniają lepsze osiągi niż pamięci FPM i EDO.

Pamięci VRAM. WRAM i MDRAM wyparte zostały obecnie przez wydajniejsze SGRAM, SDRAM, DDR SDRAM i DDR-II SDRAM. Są to rozwiązania oparte na technologii głównej pamięci komputera. Zapew­niana wydajność i niskie koszty produkcji umożliwiły umieszczanie na najtańszych kartach graficznych 16 MB RAM lub więcej.

SDRAM

Synchroniczna pamięć DRAM to ten sam typ układów, który zastosowano jako pamięć główną wielu kompute­rów z procesorami Pentium III, Pentium 4, Athlon i Duron. W tym zastosowaniu są to zazwyczaj układy mon­towane powierzchniowo. Jedynie kilka modeli pozwala wymieniać „kości" pamięci —jednak nawet wówczas stosowane jest firmowe gniazdo. Pamięć ta umożliwia pracę z szybkościami taktowania magistrali sięgającymi 200 MHz. a jej wydajność jest niewiele niższa niż wydajność pamięci SGRAM. Układy SDRAM stosowane są obecnie w tańszych kartach, takich jak NYIDIA GeForce2 MX i ATI RADEON VE.

SGRAM

Synchroniczna pamięć DRAM grafiki to rozwiązanie zaprojektowane pod kątem szybkich kart graficznych Podobnie jak pamięć SDRAM umożliwia synchronizację z szybką magistralą danych (do 200 MHz). Różnica polega na wprowadzeniu obwodów umożliwiających zapis blokowy, co pozwala zwiększyć szybkość opera­cji wypełniania i, wykorzystywanych w grafice 3D, operacji Z-buffer. Mimo że pamięć SGRAM zapewnia wyższą wydajność niż SDRAM, większość producentów kart zarzuciła korzystanie z tej technologii na rzecz DDR SDRAM, zapewniającej jeszcze lepsze osiągi.

DDR SDRAM

Pamięć SDRAM o podwojonej szybkości przesyłania danych to technologia najnowsza. Ma zapewniać po­dwojenie osiągów pamięci SDRAM dzięki wykorzystaniu obu zmian stanu zegara taktującego — wznoszenia i opadania sygnału. Układy SDRAM wykorzystują obecnie karty „z górnej półki", oparte na chipsetach takich jak NVIDIA GeForce FX i ATI RADEON 9xxx'.

DDR-II SDRAM

Drugiej generacji pamięci DDR SDRAM pobierają w każdym cyklu 4 bity danych zamiast 2. jak w przypad­ku poprzedniej wersji. Pamięć DDR-II SDRAM podwaja zatem wydajność przy takiej samej częstotliwości zegara. Pierwszym chipsetem wideo obsługującym tego typu pamięć był układ GeForce FX firmy NVIDIA. który pod koniec 2002 r. cieszył się największą popularnością wśród układów GPU tego producenta. Pamięć DDR-II (inaczej DDR-2) stosowana jest też w droższych kartach graficznych firmy ATI.

GDDR-3 SDRAM

Pamięć GDDR-3 SDRAM, która zaczęła się pojawiać z początkiem 2004 r. w droższych kartach graficznych firmy NVIDIA. bazuje na pamięci DDR-II, ale różni się od niej pod dwoma podstawowymi względami:

^ ► W celu uzyskania dodatkowych informacji na temat pamięci DDR, DDR-II i GDDR-3 zajrzyj do rozdziału 6., „Pamięć".

Szybkość pamięci RAM karty

Karty grafiki o tym samym typie procesora grafiki 3D (GPU) mogą przesyłać dane do i z pamięci z różnymi szybkościami. Przykładowo w dwóch kartach z chipsetem GeForce FX 5200 firmy NVIDIA, Prolink PixelView i Chaintech A-FX20, wykorzystywana jest pamięć o różnej szybkości. Pierwsza karta posiada pamięć o czasie dostępu 4 ns, natomiast druga o czasie 5 ns.

Czasami producenci kart wideo wyposażają w pamięci o innej szybkości różne wersje tego samego układu GPU (na przykład wersje XT i Pro układu Radeon 9800 firmy ATI). Częstotliwość zegara rdzenia chipsetu 9800 XT wynosi 412 MHz, natomiast chipsetu 9800 Pro — 380 MHz. A zatem pierwszy z chipsetów obsłu­guje pamięć o szybkości 730 MHz, natomiast drugi — o szybkości 680 MHz. Stosując wolniejszą wersję Pro chipsetu, producenci mogą zastosować pamięć o niższej szybkości i zaoferować tańszą kartę graficzną.

Określenie, czy dana karta wyposażona jest w pamięć SDRAM, DDR SDRAM. SGRAM, DDR-II SDRAM czy GDDR-3 SDRAM może wymagać dokładnego zapoznania się z jej dokumentacją. Ponieważ żadna ze współczesnych kart z akceleracją 3D nie umożliwia rozbudowy pamięci, zdecydowanie warto poświęcić nie­co czasu na dobranie modelu o odpowiedniej wydajności, funkcjach i cenie.

Pamięć RAM a rozdzielczość i liczba kolorów

Ilość pamięci, jakiej wymaga karta do wyświetlenia obrazu o określonej rozdzielczości i głębi kolorów, wy­nika z prostego wzoru. Każdy piksel musi opisywać osobna lokalizacja pamięci. Liczba pikseli jest zależna od rozdzielczości. Rozdzielczość 1024x768 to 786 432 piksele.

Aby wyświetlić obraz w tej rozdzielczości przy użyciu 2 kolorów, do opisania każdego piksela wystarczy 1 bit. Wartości 0 przypisany będzie kolor czarny, a wartości 1 — biały. Jeżeli każdy piksel opiszemy przy użyciu 24 bitów, uzyskamy 16.8 miliona kolorów — 24-cyfrowa liczba binarna może mieć 16 777 216 wartości (22A). Proste pomnożenie ilości pikseli przez liczbę opisujących każdy z nich bitów prowadzi do określenia ilości niezbędnej do wyświetlenia obrazu pamięci. Oto przykład takiego przeliczenia:

1024x768 = 786 432x24 bity/piksel

= 18 874 368 bitów

= 2 359 296 bajtów

= 2,25 MB

Jak widać, wyświetlenie obrazu o 24-bitowym kolorze (16 777 216 odcieni) w rozdzielczości 1024x768 wyma­ga dokładnie 2.25 MB pamięci RAM karty graficznej. Ponieważ wiele kart zapewnia jedynie 512 kB. 1 MB. 2 MB. 4 MB lub 8 MB pamięci, niezbędne będzie zastosowanie karty wyposażonej w co najmniej 4 MB RAM.

Aby korzystać z trybów o wyższej rozdzielczości bez konieczności ograniczania liczby wyświetlanych kolo­rów, niezbędna jest karta wyposażona w znacznie więcej pamięci niż zapewniała niegdyś 256-kilobajtowa karta VGA firmy IBM. W tabeli 15.12 zestawione zostały wymagania związane z typowymi trybami pracy i grafiką dwuwymiarową, taką jak zdjęcia, grafika prezentacyjna. DTP czy strony WWW.

Tabela 15.12. Minimalna pojemność pamięci karty graficznej dla operacji 2D

Rozdzielczość

Głębia kolorów

Maksymalna liczba kolorów

Wymagana ilość pamięci RAM karty

Ilość wymaganych bajtów pamięci

640x480

16 bitów

65 536

1 MB

614 400

640x480

24 bity

16 777 216

1 MB

921 600

640x480

32 bity

4 294 967 296

2 MB

1 228 800

800x600

16 bitów

65 536

1 MB

960 000

800x600

24 bity

16 777216

2 MB

1 440 000

800x600

32 bity

4 294 967 296

2 MB

1 920 000

1024x768

16 bitów

65 536

2 MB

1 572 864

1024x768

24 bitv

16 777216

4 MB

2 359 296

1024x768

32 bity

4 294 967 296

4 MB

3 145 728

1280x1024

16 bitów

65 536

4 MB

2 621 440

1280x1024

24 bity

16 777 216

4 MB

3 932 160

1280x1024

32 bity

4 294 967 296

8 MB

5 242 880

1400x1050

16 bitów

65 536

4 MB

2 940 000

1400x1050

24 bity

16777216

8 MB

4 410 000

1400x1050

32 bity

4 294 967 296

8 MB

5 880 000

1600x1200

16 bitów

65 536

4 MB

3 840 000

1600x1200

24 bity

16 777 216

8 MB

5 760 000

1600x1200

32 bity

4 294 967 296

8 MB

7 680 000

Z tabeli łatwo odczytać, że karta wyposażona w 4 MB pamięci przy pracy w rozdzielczości 1600x 1200 może wyświetlić jedynie 65 536 kolorów, jednak opcja Tnie Color (16.8 miliona kolorów) wymaga już 8 MB. W większości przypadków nie jest możliwe dodanie pamięci do karty wideo. Konieczne jest zastąpienie uży­wanej karty nową. wyposażoną w pamięć o większej pojemności.

Karty 3D wymagają dla każdej z rozdzielczości i głębi kolorów większej ilości pamięci. Wykorzystują one trzy różne bufory obrazu: bufor czołowy (ang. front buffer). bufor zaplecza (ang. back buf/er) i bufor Z (ang. Z-buJfer). Wymagane minimum zależy głównie od liczby kolorów i bufora Z. Potrójne buforowanie zapewnia więcej pamięci do obsługi tekstur 3D, może jednak odbić się negatywnie na wydajności niektórych gier. Tryb buforowania karty 3D można zazwyczaj zmieniać przy użyciu jej arkusza właściwości.

Tabela 15.13 przedstawia wymagania pamięciowe kart 3D. Pełne zestawienie, obejmujące inne połączenia głębi kolorów i głębokości bufora Z, znaleźć można na witrynie firmy eTesting Labs. na stronie Memory Reąuirements for 3D Applications (wymagania pamięciowe aplikacji 3D):

Mimo że karty 3D pracują zazwyczaj w trybie 32-bitowym (co uwzględniono w powyższej tabeli), nie T^i musi to oznaczać faktycznej możliwości wyświetlania więcej niż 16 777 216 kolorów, typowych dla trybu 24-bitowego. Wiele procesorów wizyjnych i magistral pamięci wideo optymalizuje się pod kątem przesyłania 32-bitowych słów, głębia koloru pozostaje jednak 24-bitowa i nie można liczyć na uzyskanie 4 294 967 296 kolorów, czego można by po 32-bitowym trybie oczekiwać.

http://www.etestinglabs.com/'benchmarks/3dwinbench/dSmemfor3d.asp

Tabela 15.13. Wymagania pamięciowe kart graficznych dla operacji 3D

Rozdzielczość j

Głębia kolorów

Głębokość bufora Z

Tryb buforowania

Dokładna ilość wykorzystywanej pamięci

Wymagana ilość pamięci karty

640x480

16 bitów

16 bitów

podwójne

1,76 MB

2 MB

potrójne

2,34 MB

4 MB

640x480

24 bity

24 bity

podwójne potrójne

2,64 MB 3,52 MB

4 MB 4 MB

640x480 i

32 bity

32 bity

podwójne potrójne

3.52 MB 4,69 MB

4 MB 8 MB

800x600

I

16 bitów

16 bitów

podwójne potrójne

2.75 MB 3.66 MB

4 MB 4 MB

800x600 |

24 bity

24 bity

podwójne potrójne

4,12 MB 5,49 MB

8 MB 8 MB

800x600 !

32 bity

32 bity

podwójne

5,49 MB

8 MB

1024x768

potrójne

7,32 MB

8 MB

16 bitów

16 bitów

podwójne

4,50 MB

8 MB

1024x768

potrójne

6.00 MB

8 MB

24 bity

24 bity

podwójne potrójne

6.75 MB 9,00 MB

8 MB 16 MB

1024x768 i

32 bity

32 bity

podwójne potrójne

9,00 MB 12,00 MB

16 MB 16 MB

1280x1024

16 bitów

16 bitów

podwójne potrójne

7,50 MB 10,00 MB

8 MB 16MB

1280x1024 )

24 bity

24 bity

podwójne potrójne

11.25 MB 15,00 MB

16 MB 16MB

1280x1024

32 bity

32 bity

podwójne potrójne

15,00 MB 20.00 MB

16 MB 32 MB

1600x1200

16 bitów

16 bitów

podwójne potrójne

10,99 MB 14,65 MB

16 MB 16 MB

1600x1200 j

24 bity

24 bity

podwójne potrójne

16,48 MB 21,97 MB

32 MB 32 MB

1600x1200 |

i

32 bity

32 bity

podwójne potrójne

21,97 MB 29,30 MB

32 MB 32 MB

Jeżeli spędzamy wiele czasu, pracując z grafiką, i nie zamierzamy rezygnować z gier 3D, warto zainwesto­wać w 24-bitową (2D) lub 32-bitową (3D) kartę graficzną, wyposażoną w co najmniej 64 MB RAM. Mimo że do wykonywania operacji 2D wystarczyć mogą 4 MB RAM, 32-bitowa głębia kolorów, wykorzystywana przy wyświetlaniu realistycznej grafiki 3D w rozdzielczości 1024x768 będzie wymagać 32 MB. Wyższe roz­dzielczości wymagają jeszcze więcej pamięci. Współczesne karty oferują niespotykaną dotąd ilość pamięci wideo i wydajność za stosunkowo niewielką cenę. Nie wolno zapominać, że nowe modele kart nie mają żad­nych gniazd rozbudowy pamięci. Dzisiaj zakupione urządzenie będzie można w przyszłości co najwyżej wy­mienić na nowe. Warto więc zadbać o odpowiedni wybór zawczasu.

Jeśli w komputerze znajduje się zintegrowany układ graficzny i pamięć RAM o pojemności nie prze-T^i kraczającej 256 MB, może być możliwe zwiększenie ilości dostępnej pamięci graficznej przez zain-stalowanie dodatkowych układów pamięci systemowej. Wynika to stąd, że zintegrowany cnipset wideo może korzystać z pamięci RAM komputera. Większość nowszych chipsetów Intela zintegro­wanych z układem graficznym automatycznie wykrywa dodatkową systemową pamięć RAM i odpo­wiednio dopasowuje ilość używanej przez siebie pamięci. Więcej informacji zamieszczono w tabeli 15.8.

Windows nie wyświetla więcej niż 256 kolorów

Jeżeli korzystamy z karty graficznej wyposażonej w 1 MB lub więcej pamięci wideo, a arkusz właściwości ekranu nie pozwala na wybranie trybu o większej liczbie kolorów niż 256, oznacza to błędne rozpoznanie karty lub nie­prawidłowo funkcjonujące programy obsługi. Aby zobaczyć, jak system Windows rozpoznał kartę, wywołujemy okno zaawansowanych właściwości ekranu, na którym znajdziemy zakładkę Karta. Powinniśmy na niej znaleźć nazwę producenta i modelu karty bądź chipsetu.

Jeżeli opis modelu wydaje się niewłaściwy lub zbyt ogólny, klikamy przycisk Zmień, co pozwoli przejrzeć listę dostępnych programów obsługi. Można również skorzystać z narzędzia oferowanego przez producenta karty lub chipsetu, służącego do wykrywania danych karty i ilości pamięci. Konieczny może być ręczny wybór sterownika. Jeżeli wszystko wydaje się być w najlepszym porządku, sięgamy do arkusza właściwości systemu, wyszuku­jemy menedżer urządzeń i usuwamy program obsługi karty. Po restarcie komputera Windows ponownie wykryje kartę i zainstaluje sterownik.

Szerokość magistrali

Innym zagadnieniem związanym z pamięcią karty graficznej jest szerokość magistrali, która łączy ją z chip­setem graficznym. Chipset to zazwyczaj jeden duży układ scalony realizujący praktycznie wszystkie funkcje karty. Jest on połączony z pamięcią bezpośrednio, przy użyciu magistrali danych karty. Większość dobrych kart graficznych korzysta z magistrali 256-bitowej. Rozważanie tej kwestii może być dość mylące, ponieważ, karty graficzne w postaci kart rozszerzeń łączą się również z główną magistralą systemu, o odrębnej charakte­rystyce. Gdy czytamy o 128- lub 256-bitowej szynie pamięci, pamiętać należy, że jest to informacja doty­cząca wewnętrznej magistrali komunikacyjnej danej karty. Niezależna od niej magistrala główna komputera to magistrala PCI, AGP, bądź PCI Express na płycie głównej.

► ► Zajrzyj do podrozdziału „Typy magistrali systemowych, ich funkcje i właściwości" znajdującego się na stronie 338.

Konwerter cyfrowo-analogowy (DAC)

Digital-to-Analog Converter (DAC lub RAMDAC) karty graficznej to nazwa dość dobrze opisująca przezna­czenie układu. Odpowiada on za przetworzenie cyfrowego obrazu komputera na wymagany przez monitor sy­gnał analogowy. Szybkość układu RAMDAC mierzy się w megahercach (MHz). Im szybszy proces konwer­sji, tym wyższa może być częstotliwość odświeżania karty. Współcześnie dobre karty graficzne wyposażone są w układy RAMDAC taktowane zegarem 300 - 500 MHz. W większości nowoczesnych chipsetów układ ten jest zintegrowany z akceleratorem 3D. Z osobnego układu RAMDAC korzystają niektóre karty dwumo-nitorowe. co pozwala na pracę każdego z monitorów z inną częstotliwością odświeżania. W komputerach wypo­sażonych w zintegrowany układ graficzny układ RAMDAC znajduje się w mostku północnym lub w układzie GMCH chipsetu płyty głównej.

Zwiększanie szybkości przetwornika pozwala uzyskiwać wyższe częstotliwości odświeżania, co jest istotne dla uniknięcia migotania ekranu w wyższych rozdzielczościach (72 - 85 Hz i więcej). Karta z układem RAMDAC o szybkości 300 MHz lub wyższej może najczęściej zapewnić częstotliwość odświeżania 75 Hz (lub więcej) we wszystkich rozdzielczościach. aż do 1920x1200. Faktyczne osiągi zależą oczywiście od zgodności z monitorem ikarty graficznej.

Magistrala rozszerzeń

Pisaliśmy już w tym rozdziale o powiązaniu kart graficznych z określonym typem magistrali rozszerzeń kom­putera. Karty VGA i jej późniejsze wariacje korzystały z wszystkich standardów wcześniejszych: MCA. ISA. EISA i VESA (VL-bus). Ich niska wydajność sprawiła, że karty z odpowiednimi złączami zostały stopniowo wycofane z. produkcji. Obecnie karty graficzne wyposażone są w złącza magistral PCI, AGP lub PCI Express.

Co prawda w sprzedaży nadal jest dostępnych kilka kart graficznych PCI, znajdujących przede wszystkim zasto­sowanie w przypadku komputerów wyposażonych w zintegrowany układ wideo i pozbawionych gniazda AGP, ale najpopularniejszą szybką magistralą graficzną jest AGP. Jej ewentualny następcą czyli magistrala PCI Express, pojawiła się w połowie 2004 r.

Accelerated Graphics Port (AGP. akcelerowany port grafiki) jest wprowadzoną w 1997 r. specjalizowaną magistrala, której przepustowość maksymalna 16-krotnie przekracza możliwości porównywalnego rozwią­zania, opartego na architekturze PCI. Od kilku lat AGP odgrywa rolę podstawowej szybkiej magistrali gra­ficznej. Magistrala AGP pozostaje rozszerzeniem PCI. Ma służyć wyłącznie do przyłączania karty graficznej i umożliwia wydajny dostęp do głównej pamięci systemu. Dzięki takiemu dostępowi, karta może przetwarzać pewne elementy grafiki 3D (jak mapy tekstur) bezpośrednio w pamięci komputera, bez kopiowania danych do pamięci karty. Pozwala to oszczędzić cenny czas i uniknąć rozbudowywania pamięci adaptera jedynie w celu zapewniania lepszej obsługi funkcji 3D. Co prawda wersja 3.0 standardu AGP oferuje dwa gniazda, ale w prak­tyce taka możliwość nigdy nie została wykorzystana i komputery korzystające z magistrali AGP posiadają tylko jedno gniazdo.

Mimo że najwcześniejsze karty AGP dysponowały stosunkowo niewielką ilością pamięci RAM, w mo­delach nowszych widać wyraźny skok ilościowy. Do szybkiego przesyłania danych pomiędzy pamię­cią karty i komputera wykorzystuje się okno pamięci (memory aperture), czyli obszar adresowania poza zakresem pamięci fizycznej. Z pamięci komputera korzystają w dalszym ciągu chipsety zinte­growane, z obsługą grafiki AGP (pamięć systemowa wykorzystywana jest do wszystkich operacji, nie tylko tekstur 3D).

Humorystycznie można potraktować konflikt okna pamięci kart AGP z systemami Windows 9x i Me, w komputerach wyposażonych w więcej niż 512 MB pamięci RAM. Problem ten jest opisany w ar­tykule Q253912 bazy wiedzy firmy Microsoft.

Wszystkie nowsze chipsety płyt głównych oferowane przez większych producentów (Intel, Acer Labs, VIA Technologies i SiS), które nie zawierają zintegrowanego układu graficznego, przeznaczone dla procesora Pentium II i nowszych, jak również dla procesorów Athlon i Duron firmy AMD, zapewniają obsługę jednej z wersji magistrali AGP. W przypadku chipsetów zintegrowanych dość często spotkać się można z brakiem obsługi zewnętrznego złącza AGP.

Nawet gdy płyta główna komputera została wyposażona w odpowiedni chipset, pełne wykorzystanie możliwo­ści AGP wymaga współpracy ze strony systemu operacyjnego. Funkcja AGP o nazwie Direct Memory Execute (D1ME. uruchamianie bezpośrednie) pozwala procesorowi wizyjnemu wykonywać pewne operacje w głów­nej pamięci komputera. Zmniejsza to ilość danych przesyłanych do i z karty. Systemy Windows 98/Me oraz Windows 2000/XP zapewniają obsługę tej funkcji; starszym systemom firmy Microsoft, Windows 95 i NT 4, pozostaje ona nieznana. Jednak obecność w aktualnie dostępnych kartach graficznych AGP dużej ilości pamięci spowodowała, że funkcja ta jest rzadko wykorzystywana.

Magistrala AGP może pracować z czterema szybkościami, oznaczanymi: xl, x2. x4 i x8 (więcej informacji za­mieszczono w tabeli 15.14).

Tabela 15.14. Porównanie rozdzielczości monitorów LCD i kineskopowych

0x08 graphic

Ze względu na wymaganą przez AGP 3.0 przepustowość, systemy wyposażone w tę magistralę pracują z pa­mięcią DDR333. co zapewnia wyraźną poprawę wydajności w stosunku do DDR266 (pamięci określanej również jako PC2100). Specyfikacja AGP 3.0 została ogłoszona w roku 2000, jednak konstruowanie nowych chipsetów płyt głównych trwało aż do połowy 2002 roku. Prawie wszystkie obecnie dostępne chipsety płyt głównych i karty graficzne AGP obsługują magistralę AGP x8. Jednak różnice w budowie układów GPU, magi­strali pamięci, częstotliwości zegara rdzenia i pamięci sprawiają (jak zawsze), że karty graficzne AGP x8 wy­posażone w szybszą i szerszą pamięć, a także w szybszy układ GPU, będą wydajniejsze od kart zawierają­cych wolniejszą i węższą pamięć.

Co prawda niektóre komputery wyposażone w magistralę AGP w wersji x4 lub x8 korzystają z uniwersalnego gniazda obsługującego zarówno karty graficzne AGP zasilane napięciem 3,3 V, jak i 1,5 V. ale nie dotyczy to już innych systemów. Jeśli karta wideo zasilana napięciem 3,3 V (AGP x4) zostanie umieszczona w gnieździe płyty głównej oferującym jedynie napięcie 1,5 V (AGP x2), może dojść do uszkodzenia płyty.

► ► Zajrzyj do punktu „Magistrala AGP (Accelerated Graphics Port)" znajdującego się na stronie 364.


0x08 graphic
Przed zainstalowaniem starszej karty AGP xl/x2 w nowszym komputerze należy sprawdzić jej zgod­ność z magistralą AGP. Jeśli nawet możliwe jest umieszczenie karty w gnieździe, różnica w napięciu przez nią wymaganym i oferowanym przez gniazdo AGP może doprowadzić do uszkodzenia płyty głównej. Aby zapoznać się z typami kart i napięciami zasilania obsługiwanymi przez gniazdo AGP, należy zaglądnąć do dokumentacji dołączonej do płyty głównej.

Niektóre karty graficzne AGP mogą być wyposażone w zworkę umożliwiającą wybranie napięcia za­silania o wartości 3,3 lub 1,5 V. W tego typu kartach złącze AGP zwykle posiada wycięcie przysto­sowane do gniazd AGP x2/x4 (więcej na ten temat można znaleźć w rozdziale 4., „Płyty główne i magistrale"). Przed umieszczeniem takiej karty w gnieździe płyty głównej (na przykład w przypadku modeli z chipsetami 845 i 850 firmy Intel) oferującym tylko napięcie 1,5 V należy pamiętać o usta­wieniu w niej napięcia o identycznej wartości.


Magistrala PCI Express, która ostatecznie zastąpi magistrale PCI i AGP, zaczęła się pojawiać w bardzo wy­dajnych komputerach w połowie 2004 r. Wykorzystana jest w niej metoda bardzo szybkiego, dwukierunko­wego szeregowego transferu danych. Kanały magistrali (nazywane też torami) mogą być ze sobą łączone w celu utworzenia szerszych i szybszych gniazd rozszerzeń (każdy tor dla każdego kierunku oferuje przepustowość 250 MB/s). W przeciwieństwie do magistrali PCI gniazda magistrali PCI Express nie rywalizują między sobą o przepustowość. W celu udostępnienia dla każdego kierunku szybkości 4 GB/s w kartach graficznych PCI Express stosowanych jest 16 torów (xl6). Gdy gniazdo PCI Express używane jest przez innego typu kartę, wykorzystywana jest mniejsza liczba torów.

W tabeli 15.15 przedstawiono istotne różnice występujące pomiędzy magistralami PCI. AGP i PCI Express x 16.

Tabela 15.15. Specyfikacje magistral szybkich kart graficznych

Funkcja

PCI

AGP

PCI Express

Maksymalna teoretyczna

133 MB/s'

533 MB/s (x2)

250 MB/s na tor''

przepustowość

1066 MB/s (x4)2

4 GB/s (x8)'

2133 MB/s(x8)2

Liczba gniazd

4/5 (najczęściej)

1

1 lub więcej4

'Dotyczy 32-birowej magistrali pracującej z częstotliwością 33 MHz.

: Większość nowych komputerów obsługuje jedynie karty graficzne AGPx4/x8.

'Dla każdego kierunku. Aby uzyskać przepustowość obu kierunków, należy pomnożyć tę wartość przez 2.

''W pierwszych zastosowaniach dostępne było tylko jedno gniazdo graficzne PCI Express (xl 6). Płyty główne z wieloma

gniazdami PCI Express. oferujące mniejszą liczbę torów i przeznaczone do obsługi innego typu kart, pojawią się w 2005 r.

Program obsługi karty graficznej

Program obsługi (sterownik) to kluczowy, a zarazem często sprawiający problemy, element podsystemu gra­ficznego. Jego zadaniem jest umożliwienie oprogramowaniu komputera komunikacji z kartą. Karta wyposa­żona w najszybszy dostępny procesor i w najwydajniejszą pamięć nie zapewni dobrej wydajności, jeżeli jego program obsługi nic jest dopracowany.

Programy obsługi kart graficznych projektuje się głównie pod kątem procesora graficznego. Do każdej kar­ty dołączany jest sterownik firmowany przez jej producenta. Najczęściej można również użyć sterownika oferowanego przez producenta chipsetu karty. Zmiana programu obsługi pozwala często rozwiązać problemy z kartą lub podwyższyć jej wydajność.

Większość producentów kart graficznych i chipsetów utrzymuje witryny WWW, na których udostępnia naj­nowsze wersje programów obsługi. Sterowniki do układów zintegrowanych z chipsetem płyty głównej odnaleźć można na witrynie producenta płyty bądź komputera. Mimo że program obsługi oferowany przez producenta chipsetu może okazać się użyteczny, konfigurowanie nowego systemu lub nowej karty zawsze rozpoczynamy od sterownika dołączonego przez producenta karty. Przed zakupem nowej karty warto zapoznać się z witryną jego producenta i zwrócić uwagę na daty ostatnich zmian w oferowanym oprogramowaniu. Częste aktualiza­cje programów obsługi były dawniej znakiem, że architektura sprzętowa urządzenia nie jest dopracowana, jed­nak zwiększona złożoność dzisiejszych komputerów sprawią że modyfikowanie oprogramowania jest koniecz­nością. Wyszukiwanie najnowszej wersji sterowników to czynność związana zarówno z kartami starszymi, jak i nowo zakupionymi.

Co prawda większość urządzeń najlepiej działa z najnowszymi sterownikami, ale zauważalnym wy-jątkiem mogą być karty graficzne. Zarówno w kartach firmy (WIDIA, jak i ATI wykorzystywane są obecnie zunifikowane sterowniki, rozprowadzane w postaci jednego pliku instalacyjnego przysto­sowanego do wielu różnych układów graficznych. Jednak w niektórych przypadkach starsze chipse­ty lepiej współpracują z wcześniejszymi wersjami sterowników niż z późniejszymi. Jeśli stwierdzisz, że wydajność lub stabilność komputera, zwłaszcza po uruchomieniu gry 3D, spadła po zastoso­waniu dla karty graficznej 3D nowszej wersji sterownika, należy przywrócić jego poprzednią wersję.

Elementem oprogramowania obsługi karty graficznej jest interfejs umożliwiający modyfikowanie ustawień związanych z wyświetlanym obrazem. W systemach Windows 9x/Me/20007XP wywoływany poprzez Panel sterowania arkusz Ekran'Właściwości umożliwia zmianę rozdzielczości i głębi kolorów. Sterownik karty graficznej decyduje o tym, jakie opcje będą dostępne, co wyklucza wprowadzenie ustawień błędnych. Jeżeli karta ma 1 MB pamięci, nie będzie możliwe wybranie trybu pracy w rozdzielczości 1024x768 i z 24-bitową głębią kolorów.

Po kliknięciu przycisku Zaawansowane na zakładce Ustawienia arkusza właściwości ekranu wyświetlane są opcje związane z konkretnym modelem karty. W zależności od sterownika i możliwości sprzętowych wygląd arkusza zaawansowanych ustawień ekranu może być różny. Standardowo na zakładce Ogólne można wybrać rozmiar wyświetlanych czcionek (duże lub małe). Windows 98/Me/2000 (ale nie XP) umożliwiają dodatkowo włączenie jednej wygodnej funkcji — zaznaczanie pola wyboru Pokaż ikonę ustawień na pasku zadań włącza opcję wyświetlania w prawej części paska (koło zegara) ikony, która służy do szybkiego zmieniania rozdziel­czości i liczby kolorów ekranu. Skrótową nazwą tej funkcji jest QuickRes. Zakładka Karta zawiera szczegóło­we informacje o karcie i zainstalowanych programach obsługi. Umożliwia również zmianę częstotliwości od­świeżania ekranu. W systemie Windows XP można skorzystać z przycisku Pokaż wszystkie tryby, a następnie ustawić rozdzielczość, głębię kolorów i częstotliwość odświeżania jednym kliknięciem. Zakładka Monitor umożliwia wyświetlanie i modyfikowanie właściwości monitora oraz zmianę jego sterowników. Tu również znajdziemy w systemie Windows XP opcję wyboru częstotliwości odświeżania.

Jeżeli karta została wyposażona w akcelerator graficzny, zakładka Wydajność zawiera suwak Przyspieszenie sprzętowe, umożliwiający sterownie poziomem wspierania pracy programu obsługi przez specjalne funkcje karty. W systemie Windows XP ta sama zakładka nosi nazwę Rozwiązywanie problemów.

Tabela 15.16. Ustawienia akceleratora grafiki eliminujące problemy zaistniałe w systemie Windows XP

Ustawienie akceleratora

Zastosowanie

Efekt ustawienia

Trwałe rozwiązanie problemów

Po lewej stronie*

Karta graficzna działa w trybie VGA lub trybie awaryjnym, natomiast w pozostałych nie

Brak akceleracji

Uaktualnienie sterowników karty graficznej i myszy, a także oprogramowania DirectX

Jedno kliknięcie od lewej strony*

Problemy ze sterownikiem grafiki 2D i 3D lub ze sterownikiem

myszy

Pozostawienie aktywnej jedynie podstawowej akceleracji

Uaktualnienie sterowników karty graficznej i myszy, a także oprogramowania DirectX

Dwa kliknięcia od lewej strony*

Problemy z akceleracją grafiki 3D

Wyłączenie oprogramowania DirectX, DirectDraw i Direct3D (wykorzystywane głównie przez gry 3D)

Uaktualnienie sterowników oprogramowania DirectX

Dwa kliknięcia od prawej strony*

Problemy ze sterownikiem karty graficznej

Wyłączenie akceleracji i rysowania kursora

Uaktualnienie sterowników karty graficznej

Jedno kliknięcie od prawej strony*

Problemy z kursorem myszy

Wyłączenie akceleracji kursora myszy

Uaktualnienie sterowników myszy

Po prawej stronie

Brak problemów

Włączenie pełnej akceleracji

'Każde ustawienie inne niż pełna akceleracja powoduje wyłączenie funkcji łączonego zapisu, przyspieszającej wyświetlanie obrazu (celem tej operacji jest poprawienie stabilności).

Tabela 15.17. Ustawienia akceleratora grafiki eliminujące problemy zaistniałe w innych wersjach systemu Windows

Ustawienie akceleratora

Zastosowanie

Efekt ustawienia

Trwałe rozwiązanie problemów

Po lewej stronie

Karta graficzna działa w trybie VGA lub trybie awaryjnym, natomiast w pozostałych nie

Brak akceleracji

Uaktualnienie sterowników karty graficznej i myszy

Jedno kliknięcie od lewej strony

Problemy ze sterownikiem grafiki 2D i 3D lub ze sterownikiem myszy

Pozostawienie aktywnej jedynie podstawowej akceleracji

Uaktualnienie sterowników karty graficznej i myszy

Jedno kliknięcie od prawej strony

Problemy z kursorem myszy

Wyłączenie akceleracji kursora myszy

Uaktualnienie sterowników myszy

Po prawej stronie

Brak problemów

Włączenie pełnej akceleracji

Pozycja suwaka opisana jako Pełna zapewnia pełne wykorzystanie dostępnych funkcji karty. Niezbędne usta­wienia rozwiązujące różne problemy wymieniono w tabelach 15.16 (system Windows XP) i 15.17 (inne wersje systemu Windows).

Jeśli nie masz pewności, które ustawienie będzie najlepsze w Twoim przypadku, suwak akceleracji sprzęto­wej należy przesunąć o jedną pozycję w lewo, co umożliwi rozwiązanie problemów z obsługą myszy — wyłą­czona zostaje sprzętowa obsługa wskaźnika. Jest to równoznaczne z umieszczeniem w sekcji [Display] pliku system.ini systemów Windows 9x/Me wpisu SWCursor=l.

Jeżeli w systemie Windows XP pojawiły się tylko problemy z grafiką 2D, natomiast aplikacje 3D działają poprawnie, suwak należy umieścić przy kolejnej pozycji, patrząc od prawej strony. Spowoduje to wyłączenie akceleracji i rysowania kursora.

Przesunięcie suwaka na kolejną pozycję w lewo (w przypadku systemu Windows XP trzecia od prawej stro­ny, natomiast w starszych wersjach druga) spowoduje wyłączenie wykonywania przez kartę niektórych ope­racji przesyłania blokowego (w systemie Windows XP zostaną wyłączone funkcje 3D oprogramowania DirectX). W zależności od sterownika, dodatkowo może również zostać wyłączone korzystanie z funkcji wejścia-wyjścia wykorzystujących mapowanie do pamięci. Jest to równoznaczne z wprowadzeniem wpisu Mmio=0 w sekcji [Display] pliku system.ini i wpisu SafeMode=l w sekcji [Windows] pliku win.ini systemów Windows 9x/Me (wraz z wymienionym wcześniej wpisem SWCursor).

Przesunięcie suwaka do lewej skrajnej pozycji (brak przyspieszania) powoduje dodanie do sekcji [Windows] pliku win.ini systemów Windows 9x/Me wpisu SafeMode=2. Akceleracja sprzętowa zostaje wyłączona całkowicie (doty­czy wszystkich wersji systemu Windows), a system operacyjny może wyświetlać obrazy wyłącznie przy użyciu tzw. map bitowych niezależnych od urządzenia (ang. device independent bitmap — DIB). Korzystamy z tego usta­wienia, gdy komputer regularnie „zawiesza się" lub wyświetla komunikaty o błędzie aplikacji lub stronicowania.

Jeżeli użycie suwaka akceleracji rozwiązuje problemy z obsługą wyświetlania, ich przyczyną jest za-pewne niedopracowany sterownik karty graficznej lub myszy. Po pobraniu (z WWW) i zainstalowaniu nowego oprogramowania tych dwóch urządzeń powrót do pełnej akceleracji nie powinien sprawić problemów. Powinno się też pobrać aktualną wersję oprogramowania DirectX dla używanej wersji systemu Windows.

W większości przypadków dostępna jest również dodatkowa zakładka Zarządzanie kolorami. Wskazanie pro­filu dopasowanego do monitora umożliwia precyzyjne dopasowanie wyświetlanego przez programy graficzne obrazu do wyglądu przyszłych wydruków.

Karty graficzne z zaawansowanymi funkcjami akceleracji 3D dołączają zazwyczaj do arkusza własne zakładki. Omówimy je nieco dalej.

Obsługa wielu monitorów

Począwszy od Windows 98 wszystkie nowsze wersje systemu Windows wyposażone zostały w funkcję znaną od lat z. komputerów Macintosh: możliwość korzystania z wielu monitorów. Windows 98/Me pozwala użyć do 9 monitorów (i kart graficznych), z których każdy może wyświetlać inną część pulpitu. Windows 2000 i Windows XP podwyższają tę liczbę do 10. Konfiguracja wielomonitorowa opiera się na wprowadzeniu pulpitu wirtualnego, czyli takiego, który jest przechowywany w pamięci wideo, ale może być większy niż wskazywałaby na to roz­dzielczość monitora. Poszczególne monitory wyświetlają różne części pulpitu wirtualnego, umożliwiając umiesz­czanie w nich okien różnorodnych aplikacji, jak również swobodne przenoszenie ich pomiędzy monitorami.

O ile nie korzystamy z kart graficznych określanych jako dual-head, każdy przyłączany do komputera moni­tor wymaga osobnej karty. O ile więc nie dysponujemy dziewięcioma wolnymi złączami magistrali rozsze­rzeń, nie mamy wielkich szans na wyświetlenie ekranu Windows podzielonego na dziewięć ekranów. Jednak nawet dwa monitory mogą wprowadzić w środowisku pracy zupełnie nową jakość. Przykładowo na ekranie jednego monitora można pozostawić zmaksymalizowane okno programu pocztowego lub przeglądarki inter­netowej, a na ekranie drugiego korzystać z innych aplikacji.

W wielomonitorowym systemie Windows jeden z ekranów ma status podstawowego. Monitor podstawowy może korzystać z dowolnej karty PCI lub AGP (zgodnej z VGA), obsługiwanej przez ministerownik Windows z linio­wym buforem ramek i upakowaniem. Zapewnia to większość sprzedawanych obecnie markowych kart. Konfigu­rowanie środowiska wielomonitorowego zaczynamy od zainstalowania oprogramowania pierwszej karty i restartu. Dalsze z nich również instalujemy pojedynczo. Więcej informacji o obsłudze wielu monitorów w systemach Windows 98/Me, wraz z listą obsługiwanych kart, znajdziemy w artykule Ql 82708 bazy wiedzy firmy Microsoft.

Bardzo ważne jest, aby komputer właściwie rozpoznawał wybraną kartę jako podstawową. Jest to funkcja BIOS-u płyty głównej. Jeżeli nie umożliwia on wskazania karty, wybór automatyczny opiera się na kolejności gniazd rozszerzeń. Kartę główną instalujemy więc w złączu PCI o najwyższym priorytecie. Karta AGP nie zawsze będzie wybrana do roli podstawowej. W zależności od BIOS-u opcja wyboru podstawowej karty VGA może być dostępna w różnych oknach programu BIOS Setup. Przykładem może być AMI BIOS płyty głównej MSI KT4 Ultra (Socket A), gdzie w menu PCI/PnP dostępna jest opcja Primary Graphics Adapter. Dla po­równania, w oprogramowaniu Intel/AMI BIOS, wykorzystywanym przez płytę Intel D865PERL, opcję Primary Video Adapter znajdziemy w menu Video Configuration.

► ► Zajrzyj do punktu „Magistrala PCI" znajdującego się na stronie 358.

Po zamontowaniu wszystkich urządzeń przechodzimy do konfigurowania zawartości monitorów poprzez za­kładkę Ustawienia arkusza Ekran/Wlaściwości. Monitor podstawowy zawsze pozostaje w lewym górnym rogu wirtualnego pulpitu, ale pozostałe można układać dowolnie. Dla każdego z monitorów można ustawić dowol­ną rozdzielczość i głębię kolorów. Szczegółowe informacje o konfigurowaniu systemu wielomonitorowego w systemach Windows 98/Me zawiera artykuł bazy wiedzy firmy Microsoft o numerze Q179602. Zasady ob­sługi wielu monitorów w systemach Windows 2000 i Windows XP są nieco inne. Te wersje Windows obsługują do 10 monitorów (o jeden więcej). Ponieważ systemy te korzystają z innych programów obsługi kart graficz­nych, pewne konfiguracje, sprawdzone w Windows 98/Me, mogą nie funkcjonować poprawnie pod kontrolą Windows 2000/XP. O konfigurowaniu obsługi wielu monitorów w systemie Windows 2000 traktuje artykuł bazy wiedzy firmy Microsoft o numerze Q238886. Informacje o kart graficznych zgodnych z Windows XP w trybie wielomonitorowym znajdziemy w artykule Q307397.

System Windows XP obsługuje również tryb DualView, rozszerzenie mechanizmu pracy wielomonitorowej. Jest to technika obsługi karty graficznej z dwoma wyjściami, jak również komputerów przenośnych, przyłącza­nych do zewnętrznego monitora. W komputerze z obsługąDualView pierwszy port graficzny zostaje automa­tycznie przypisany monitorowi podstawowemu. Na komputerze przenośnym monitorem podstawowym jest wyświetlacz LCD.

Wiele nowszych komputerów przenośnych posiadających zintegrowany układ graficzny nie obsługuje try-bu DuaMew. Nie dotyczy to notebooków wyposażonych w niezależny układ graficzny. W celu określenia, czy używany komputer przenośny obsługuje tryb DuaMew, należy wyświetlić okno właściwości ekranu i uaktywnić zakładkę Ustawienia. Jeśli widoczne są ikony dwóch monitorów, komputer jest zgodny z tym trybem. Po podłączeniu drugiego monitora do zewnętrznego portu VGA można włączyć jego obsługę.

Nawet jeżeli BIOS komputera umożliwia wybranie podstawowej karty graficznej, a używane karty znajdują się na liście zgodności, ustalenie, które karty faktycznie mogą pracować w zespole, nie jest łatwe. Firma Microsoft udostępnia listę kompatybilnych kart graficznych w pliku Hcl.txt umieszczanym na dyskach instalacyjnych systemu Windows 2000, nie znajdziemy na niej jednak modeli najnowszych, oferowanych przez firmy NVIDIA, ATI i inne. Nie są uwzględnione również zmiany w chipsetach związane z ciągłym ulepszaniem programów obsługi. Niestety strona internetowa Microsoft Windows Catalog (http://www.microsoft.com/windows/catalog) nie zawiera żadnej wzmianki o obsłudze konfiguracji wielomonitorowych w jakiejkolwiek wersji systemu Windows.

Jedynym wyjściem pozostaje więc korzystanie z informacji producentów kart i chipsetów graficznych.

Ponieważ, gdy przychodzi do łączenia wielu monitorów (obsługiwanych przez oddzielne karty graficzne), nieustannie przewija się problem coraz to nowszych chipsetów, sterowników i kart graficznych, warto polecić dwa, stale uaktualniane, źródła informacji online:

Obsługa wielu monitorów może zostać zainicjowana przez zainstalowanie w komputerze:

Karta umożliwiająca obsługę wielu monitorów (tzw. karta multiple-head lub dual-head) pozwala oszczędniej wykorzystać dostępne w systemie złącza rozszerzeń i wyeliminować niemiłą konieczność uaktualniania ste­rowników i BIOS-u lub ponownego konfigurowania systemu, co ma miejsce, gdy wiele monitorów obsługi­wanych jest przez dwie lub więcej kart graficznych.

Większość nowych kart graficznych obsługujących wiele monitorów wyposażona jest w 15-stykowe złącze VGA dla monitorów kineskopowych, cyfrowo-analogowe złącze DVI-I dla paneli LCD i złącze TV-out. za­pewniające sygnał S-video lub kompozytowy dla telewizorów i magnetowidów. Do kart tych można więc podłączyć dowolną z poniższych kombinacji urządzeń:

W tabeli 15.18 przedstawiono zestawienie popularnych chipsetów graficznych obsługujących wiele monito­rów tradycyjnych i wyświetlaczy LCD.

Tabela 15.18. Popularne chipsety graficzne z opcją obsługi wielu monitorów

Producent

Chipset

Typy obsługiwanych magistrali

Liczba obsługiwanych monitorów

ATI1

RADEON VE

AGP x4

2

RADEON 75007

AGP x4, PCI

2

RADEON 8500

AGP x4

2

i RADEON 8500LE

AGP x4

2

RADEON 9000 PRO

AGPx4

2

RADEON 9500 PRO

AGPx8

2

RADEON 9600 PRO

AGPx8

2

! AIW 9600 PRO

AGPx8

2

i RADEON 9700 PRO

AGPx8

2

RADEON 9800 PRO/XT

AGPx8

2

Matrox2

M200MMS

PCI

2,4'

Millennium G450

AGP x4, PCI

2'

G450MMS

PCI

2, 4J

G550

AGP x4

23

Millennium P650

AGP x8

2''

Millennium P750

AGP *8

1

Parhelia

AGPx8

3'

NV1D1A5

Seria GeForce 2 MX7

AGP x4. PCI

2

GeForce 4 MX 4407

AGP x4

2

Seria GeForce 4 Ti7

AGP x4/x8

2

Seria GeForce FX

AGP x8

2

Seria GeForce 6800

AGPx8

2

Seria GeForce MX 4000

AGPx8

2

'Pod własną marką firma ATI sprzedaje karty graficzne używające tych chipsetów, a także dostarcza je innym producentom. 'Firma Matrox jest jedynym producentem korzystającym z tych chipsetów. W tabeli zawarto modele kart tej firmy 'Każdy monitor obsługiwany jest przez oddzielny układ akceleratora, dzięki czemu w systemie Windows 2000 możliwe jest niezależne ustawianie częstotliwości odświeżania i rozdzielczości.

4 Każdy monitor obsługiwany jest przez oddzielny układ RAMDAC. dzięki czemu w systemie Windows 2000 możliwe jest niezależne ustawianie częstotliwości odświeżania i rozdzielczości. 'Firma NITD1A nie produkuje kart graficznych, lecz jedynie sprzedaje chipsety. ''Możliwość uaktualnienia do wersji obsługującej trzy monitory.

7Niektóre karty graficzne bazujące na tym chipsecie mogą nie obsługiwać wielu monitorów. AIW — All-in-Wonder; zawiera tuner telewizyjny i obsługuje inne funkcje audio-wideo.

.lak wynika z tabeli 15.18, niektóre karty graficzne wyposażone w chipset obsługujący wiele monitorów mogą nie oferować dodatkowego portu DVI lub VGA, niezbędnego do tego, aby możliwe było podłączenie wielu monitorów. W tej samej tabeli nie wymieniono chipsetów graficznych obsługujących wyjście telewizyjne oraz wejście i wyjście wideo, nie umożliwiają one bowiem podłączenia drugiego monitora kineskopowego lub wyświetlacza LCD.

Niektórzy producenci, których karty wyposażone są w jeden port VGA lub DVI (korzystając z przej-ściówki, można zamienić go na port VGA) oraz wyjście telewizyjne, uznają je za obsługujące wiele monitorów. W tabeli 15.18 wymieniono jednak tylko te chipsety, które współpracują z dwoma lub większą liczbą monitorów kineskopowych lub wyświetlaczy LCD.

Akceleratory grafiki 3D

Od końca lat 90-tych akceleracja 3D — początkowo wymagająca specjalnych kart. uzupełniających standardo­we karty graficzne — stała się zjawiskiem powszechnym. Choć oprogramowanie dla firm wciąż jeszcze z tej możliwości nie korzysta (zmieni się to po pojawieniu się w 2006 r. kolejnej wersji systemu Windows o na­zwie kodowej Longhorn). ruchoma grafika 3D zadomowiła się już we wszelkiego rodzaju grach: sportowych, zespołowych symulatorach, FPP i innych. Ponieważ nawet tanie chipsety zintegrowane zapewniają pewne funkcje obsługi 3D, a karty 3D mają już szóstą generację, praktycznie każdy użytkownik w miarę nowego komputera, grając w swoje ulubione gry, może doświadczyć na własnym monitorze dobrodziejstw oświetle­nia 3D, perspektywy, tekstur i cieniowania. Najnowsze gry związane ze sportem zapewniają efekty oświetlenia i ruch kamery tak realistyczne, że przypadkowy obserwator może wręcz pomylić je z rzeczywistą transmisja telewizyjną. Najnowsze układy akceleratorów 3D umożliwiają szybkim komputerom PC konkurowanie z wyso­ko wydajnymi systemami specjalizowanymi, takimi jak Sony Playstation 2, Nintendo GameCube czy Microsoft Xbox. Znacznie utrudnia to zapalonym graczom podjęcie wyboru przy zakupach.

System Longhorn wymaga co najmniej karty graficznej zgodnej z oprogramowaniem DirectX 7 w zakresie grafiki 3D. Jednak aby w pełni wykorzystać możliwości trójwymiarowego interfejsu użytkownika, lepiej zastosować kartę graficzną współpracującą z oprogramowaniem DirectX w wersji 9. lub nowszej.

Jak działają akceleratory 3D?

Aby wytworzyć animowaną sekwencję 3D, komputer może matematycznie generować obrazy pomiędzy ram­kami kluczowymi. Ramka kluczowa odpowiada pewnemu wyróżnionemu momentowi sekwencji. Odbijana piłka może mieć, przykładowo, trzy ramki kluczowe: górną, dolną i górną. Korzystając z takich punktów od­niesienia komputer może wygenerować wszystkie obrazy pośrednie. Uzyskujemy w ten sposób efekt płynnie poruszającej się piłki.

Po utworzeniu sekwencji podstawowej komputer może dopracować wygląd obrazów, wypełniając je kolorem. Najprymitywniejszą i najmniej efektowną metodą wypełniania jest cieniowanie płaskie (ang. fiat shading) po­legające na wypełnieniu wielokąta jednolitą barwą. Technika odrobinę efektowniej sza, cieniowanie Gourauda (ang. Gouraud shading) pozwala przypisywać kolory poszczególnym punktom wielokąta. Punkty te są następ­nie łączone barwami o łagodnych przejściach.

Metodą wypełniania, która wymaga więcej mocy obliczeniowej, ale dostarcza znacząco lepszych efektów, jest mapowanie tekstur (ang. texture mapping). Aplikacja 3D korzysta wówczas z wzorków — tekstur, czyli nie­wielkich map bitowych, które układa sąsiadująco w obszarze odpowiedniego wielokąta obrazu. W taki sam spo­sób można pokryć pulpit Windows (gdy wybierzemy małą mapę bitową i opcję Sąsiadująco). Jednak aplikacja 3D dysponuje możliwością modyfikowania każdej pojedynczej mapy bitowej poprzez zastosowanie efektów perspektywy i cieniowania. Gdy uzupełnimy to wszystko efektami oświetlenia, efektami udającymi mgłę, od­blaski, cienie padające w określonym kierunku i innymi, animacja 3D staje się podobna do rzeczywistości.

Prawie do końca lat 90-tych aplikacje 3D musiały opierać całość wykonywanych przekształceń na możliwo­ściach oprogramowania aplikacyjnego. Ciężka praca głównego procesora komputera odbijała się negatywnie zarówno na szybkości wyświetlania obrazu, jak i na szybkości pracy innych aplikacji, wykorzystujących za­soby komputera w tym samym czasie. Począwszy od roku 1996 chipsety kart graficznych zaczęły przejmować coraz więcej związanych z generowaniem obrazów 3D zadań. Pozwoliło to zmniejszyć obciążenie procesora centralnego, co znacznie poprawiło wydajność wyświetlających animację komputerów.

W przybliżeniu pojawiło się osiem generacji graficznych układów 3D przeznaczonych dla komputerów PC. Więcej informacji ich dotyczących zawarto w tabeli 15.19.

Tabela 15.19. Podsumowanie historii graficznych akceleratorów 3D

Generacja

Okres

Technologie

Przykład produktu/chipsetu

1.

1996- 1997

Akcelerator 3D PCI połączony z kartą graficzną 2D; interfejsy API — OpenGL i GLIDE

3dfx Voodoo

2

1997- 1998

Karta graficzna 2D/3D PCI

ATI Rage. NV1DIA RIVA 128

3.

1999

Karta graficzna 2D/3D AGP xl/x2

3dfx Voodoo 3, ATI Rage Pro. NVIDIA TnT2

4.

1999-2000

Interfejs API DirectX 7; AGP x4

NVIDIA GeForce 256, ATI Radeon

5

2001

Interfejs API DirectX 8; programowalne cieniowanie wierzchołków i pikseli

NVIDIA GeForce 3, NVIDIA GeForce 4 Ti

6.

2001-2002

Interfejs API DirectX 8.1

ATI Radeon 8500, ATI Radeon 9000

7.

2002 - 2003

Interfejs API DirectX 9, AGP x8

ATI Radeon 9700, NVIDIA GeForce FX 5900

8.

2004 -2005

PCI Express

ATI X800, NY1DIA GeForce 6800

W przypadku niemal każdej dostępnej na rynku nowej karty graficznej zgodnej z oprogramowaniem DirectX 8.x lub nowszym nie jest wymagane wydanie sporej kwoty, aby uzyskać możliwości przetwarzania grafiki 3D na przyzwoitym poziomie. Wiele kart mieszczących się w przedziale cenowym od 260 do 700 złotych jest wyposażonych w mniej wydajne wersje nowych zaawansowanych układów GPU lub najlepsze wersje czoło­wych układów z poprzedniego roku. Tego typu karty oferują zwykle wydajność więcej niż wystarczającą dla biznesowych aplikacji 2D. Większość obecnie dostępnych akceleratorów 3D dysponuje też wyjściem telewi­zyjnym i obsługuje dwa monitory, dzięki czemu możliwa jest jednoczesna praca i rozrywka.

Należy jednak mieć świadomość tego, że im więcej wyda się na akcelerator 3D, będzie się dysponować tym szybszym chipsetem graficznym i pamięcią o tym większej pojemności. Cena droższych kart wideo, znajdu­jących się aktualnie w sprzedaży i wyposażonych w najlepsze układy graficzne firm NVIDIA i ATI, pamięć o pojemności od 128 do 256 MB oraz interfejs AGP x8 lub nowszy PCI Express xl6, zawiera się w prze­dziale od 1050 do 1750 zł. Tego typu karty z założenia przeznaczone są dla entuzjastów gier, dla których cena nie jest istotna. Karty średniej klasy, z przedziału cenowego od 700 do 1050 zł, często oparte sana układach GPU wykorzystujących architekturę podobną jak w droższych modelach, ale mogą posiadać wolniejszą pamięć lub niższą częstotliwość zegara rdzenia, bądź też mniejszą liczbę potoków renderujących. Takie karty stanowią odpowiednią propozycję dla osób grających dość często, ale nie widzących sensu w zakupie droższych modeli.

Zanim rozpoczniemy zakupy, warto zapoznać się z terminami i pojęciami związanymi z procesem generowa­nia obrazu 3D.

Podstawową funkcją oprogramowania 3D jest przekształcanie elementów abstrakcyjnych na obraz wyświe­tlany na ekranie monitora. Abstrakcyjne elementy obrazu to przede wszystkim:

to korzystanie z perspektywy — trzy współrzędne mogą wyznaczać dowolne miejsce w przestrzeni trójwymiarowej.

♦ Tekstury (ang. textures). Dwuwymiarowe obrazy typu mapa bitowa lub powierzchnie, nanoszone

na prymitywy. Oprogramowanie podwyższa realizm efektu 3D, modyfikując wygląd tekstur zależnie od lokalizacji i ustawienia prymitywu. Proces ten nosi nazwę korekcji perspektywy (ang. perspective correction). Niektóre aplikacje stosują inną metodę, odwzorowanie MIP (ang. MIP mapping). w której wykorzystywane są różne wersje tej samej tekstury o odmiennej ilości szczegółów, stosowane w zależności od odległości obiektu od obserwatora. Jeszcze inna technika, obrazowanie głębi (ang. depth cueing), redukuje poziom barwy i intensywność wypełnienia obiektów wraz ze wzrostem ich odległości od obserwatora.

Oparte na tych elementach abstrakcyjne opisy obrazu są renderowane (ang. render), czyli przekształcane we właściwy obraz. Renderowanie wykorzystuje zawsze dwie standardowe funkcje, których wynik widzimy na ekranie:

i teksturowane).

Współczesna karta graficzna, wyposażona w chipset z funkcjami akceleracji 3D, ma specjalne moduły sprzę­towe, zapewniające przeprowadzenie procesu rasteryzacji znacznie szybciej niż mógłby to wykonać procesor komputera. Większość chipsetów z akceleracją 3D przejmuje wykonywanie następujących operacji:

Popularne techniki 3D

Praktycznie wszystkie karty 3D pozwalają korzystać z następujących technik:

Zaawansowane techniki 3D

Wymienimy teraz kilka nowych technik wykorzystywanych przez niektóre tylko akceleratory.

Buforowanie matrycowe

Buforowanie matrycowe (ang. stencil buffering) to technika użyteczna w grach takich jak symulatory lotu, w których statyczny element graficzny — taki jak rama kokpitu czy wyświetlacz HUD (ang. heads up display — HUD). używany też przez prawdziwych pilotów myśliwców — zostaje umieszczony przed grafiką dyna­miczną (krajobraz, inne samoloty, niebo itp.). Rama czy stale wyświetlane elementy wyświetlacza nie są wów­czas wielokrotnie renderowane. Pozwala to zaoszczędzić czas i zwiększyć szybkość zmian klatek animacji.

Buforowanie Z

Techniką zbliżoną do buforowania matrycowego jest buforowanie Z (ang. Z-buffering). Jego pierwotnym prze­znaczeniem były aplikacje CAD (komputerowe wspomaganie projektowania). Część pamięci wideo wydzie­lona jako bufor Z przechowuje informacje o głębokości pikseli przedstawianej sceny. W trakcie renderowa-nia. wartości Z (głębokość) nowych pikseli porównuje się z wartościami w buforze. Umożliwia to określenie, które piksele znalazły się przed innymi i powinny zostać przeliczone. Piksele niewidoczne nie są renderowane. Metoda ta zwiększa szybkość wykonywania operacji i może być łączona z buforowaniem matrycowym w celu utworzenia cieniowania wolumetrycznego i innych, złożonych obiektów 3D.

Środowiskowe odwzorowanie wypukłości i przemieszczeń

Środowiskowe odwzorowanie wypukłości (ang. environment-based bump mapping) to techniką po raz pierwszy zastosowana w oprogramowaniu DirectX w wersji 6., wprowadzająca specjalne efekty oświetlenia i tekstu­rowania umożliwiające symulowanie faktur innych niż gładkie — falującej wody, cegieł itp. Łączone są trzy oddzielne odwzorowania tekstur (dla kolorów, dla wysokości i głębokości i dla środowiska, łącznie z efektami oświetlenia, mgły i chmur). Zwiększa to realizm scenerii w grach i może zostać wykorzystane jako element apli­kacji do modelowania terenu, architektury i krajobrazu. Odwzorowanie wypukłości to znaczący postęp w sto­sunku do łączenia alfa. Jednak technika nazywana odwzorowaniem przemieszczeń pozwala uzyskać wyniki o jeszcze większej dokładności.

Specjalne mapy w skali szarości, nazywane mapami przemieszczeń, od dawna stosowane były do tworzenia precyzyjnych map kuli ziemskiej. W oprogramowaniu Microsoft DirectX 9 obsługiwane na poziomie sprzę­towym mapy przemieszczeń w skali szarości stanowią źródło precyzyjnego renderingu 3D. Układy GPU, któ­re w pełni są zgodne z tym oprogramowaniem na poziomie sprzętowym, obsługują też odwzorowanie prze­mieszczeń. Karty z serii Parhelia firmy Matrox obsługują niektóre funkcje oprogramowania DirectX 9, w tym odwzorowanie przemieszczeń.

Filtrowanie odwzorowań tekstur

W celu zwiększenia jakości odwzorowań tekstur stosuje się kilka technik filtrowania, przede wszystkim od­wzorowanie MIP, filtrowanie dwuliniowe, filtrowanie trójliniowe i filtrowanie anizotropowe. Ich lista jest sto­sunkowo długa.

0x08 graphic
Filtrowanie dwuliniowe i trójliniowe sprawdza się w przypadku płaszczyzn ustawionych na wprost obserwatora, wyniki mogą być jednak niezadowalające w przypadku płaszczyzn ustawionych sko­śnie Oak oddalająca się ściana).


♦ Filtrowanie anizotropowe (ang. anisotropic fdtering). Niektórzy producenci kart korzystają z innej metody, określanej terminem filtrowanie anizotropowe. Zapewnia ona bardziej realistyczny wynik odwzorowania powierzchni skośnych, które zawierają tekst. Technikę tę stosuje się, kiedy tekstura jest odwzorowywana na powierzchni, której położenie zmienia się w dwóch płaszczyznach. Przykładem może być tekst na stojącej przy drodze ścianie (reklamy wzdłuż toru wyścigowego). Dodatkowe obliczenia wymagają znacznej ilości czasu, więc funkcja ta może być wyłączana. W celu zrównoważenia jakości obrazu

i wydajności można też zmienić rozmiar próbki. Aby poprawić jakość obrazu, należy zwiększyć rozmiar próbki. Z kolei w celu poprawienia wydajności należy rozmiar próbki zmniejszyć.

w przypadku wybranych obiektów, o tyle w nowych akceleratorach firm NVIDIA (GeForce 4 Ti, GeForce FX/6800) i ATI (RADEON 9xxx/X800) wykorzystywane są różnego typu wysoce zoptymalizowane metody pełnoekranowego wygładzania krawędzi, pozwalające na uzyskanie wysokiej jakości obrazu przy dużej liczbie klatek na sekundę.

♦ Łączenie wierzchołków (ang. vertex skinning, vertex biending). Technika scalania połączeń między wielokątami, szczególnie istotna przy wyświetlaniu elementów takich jak stawy animowanych postaci. Karty NVIDIA GeForce 2, 3 i 4 wykorzystują technikę programową zapewniającą łączenie oparte

na dwóch matrycach. Seria ATI RADEON zapewnia lepsze efekty dzięki wykorzystaniu technologii warstwy sprzętowej opartej na czterech matrycach.

a podwójne cieniowanie wierzchołków zapewnia wzrost wydajności o nawet 50% w stosunku do kart GeForce3. W kartach ATI RADEON 8500 i 9000 zastosowano technologię SmartShader obsługiwaną przez oprogramowanie DirectX 8.1, umożliwiające korzystanie z procedur bardziej złożonych niż. nfiniteFX i zapewniającą jakość porównywalną z nfiniteFXII. Karty ATI Radeon 9700/9800/9500

obsługują zmiennoprzecinkowe cieniowanie pikseli i bardziej złożone cieniowanie wierzchołków, wchodzące w skład oprogramowania DirectX 9. Z kolei karty NVID1A GeForce FX również obsługują oba typy cieniowania, ale ponadto oferują więcej funkcji. Karty NVIDIA 6800 obsługują nową funkcję cieniowania Shader Model 3.0 oprogramowania DirectX 9. ♦ Obliczenia zmiennoprzecinkowe. W celu uzyskania żywszych i precyzyjniejszych kolorów, a także w związku z renderowaniem wielokątów oprogramowanie DirectX 9 wykonuje obliczenia zmiennoprzecinkowe. Układy GPU firmy ATI. takie jak Radeon 9500/9600/9700 i 9800, obsługują standardowe operacje zmiennoprzecinkowe wykonywane przez DirectX 9, natomiast chipsety GeForce FX firmy NVIDIA dodatkowo oferują większą precyzję. Układy GPU 6800 firmy NVIDIA pozwalają na uzyskanie dokładności przekraczającej podstawowe wymagania oprogramowania DirectX 9. Chipset Parhelia firmy Matrox obsługuje obliczenia zmiennoprzecinkowe, ale innych funkcji DirectX 9 już nie.

Renderowanie jedno- i wieloprzebiegowe

Producenci kart graficznych różnorodnie wykorzystują wymienione wyżej techniki. Obecnym trendem jest stosowanie filtrów i renderowania podstawowego w jednym tylko przebiegu. Zapewnia to najczęściej wyższą szybkość wyświetlania klatek i pozwala uniknąć wyświetlania wyników błędów wynikających z niedokładno­ści obliczeń zmiennoprzecinkowych.

Akceleracja sprzętowa i programowa

W porównaniu z renderowaniem programowym, techniki oparte na rozwiązaniach w warstwie sprzętowej umożliwiają uzyskanie szybszej animacji. Mimo że renderowanie programowe pozwoliłoby uzyskać obra­zy dokładniejsze i o lepszym wyglądzie, wydajność operacji jest zbyt niska. Korzystający ze specjalnych sterowników akcelerator 3D może przejąć wykonywanie skomplikowanych obliczeń, jakich wymaga obraz 3D. które w innym przypadku wykonywałby procesor główny komputera. Jest to wygodne zarówno dla osób tworzących grafikę i animacje 3D, jak również w grach, gdzie ilość efektów 3D jest ostatnio coraz większa. Warto zwrócić uwagę, że rozwiązania, gdzie układ graficzny jest silnie zintegrowany z płytą główną (przykłady takich układów podano w tabelach 15.8 i 15.9) zapewniają zazwyczaj znacznie niższą wydajność. Wynika to stąd, że w wielu operacjach nie zapewniają one przeniesienia przetwarzania poza procesor główny.

W celu uzyskania wyższej wydajności wiele nowych akceleratorów 3D taktuje się bardzo szybkim zega­rem, a niekiedy możliwe jest również podwyższenie standardowych częstotliwości przetwornika cyfrowo-analogowego. Znaczna szybkość układu powoduje wydzielanie dużych ilości ciepła. Dotyczy to w równej mierze procesora głównego, jak i układu 3D i pamięci na karcie. Większość najnowszych kart 3D wyso­kiej i średniej klasy wyposaża się więc w dodatkowy wentylator. Uzupełnieniem jest często radiator chło­dzący układy pamięci, który ułatwia podkręcanie karty graficznej. Oba elementy widzimy na karcie przed­stawionej na rysunku 15.11.

Optymalizacja oprogramowania

Warto zdać sobie sprawę, że obecność zaawansowanych funkcji renderowania 3D na jakiejkolwiek karcie po­zostaje bez znaczenia, o ile autor gry lub aplikacji nie zoptymalizował oprogramowania pod kątem korzysta­nia z nich. Mimo istnienia różnorodnych standardów 3D (OpenGL i DirectX). producenci kart dostarczają sterowniki, które umożliwiają współdziałanie gry, standardowe elementy oprogramowania i karty. Ponieważ niektóre karty zapewniają szczególnie wysoką wydajność w pewnych grach, oferując jednocześnie przeciętne wyniki w innych, warto zapoznać się z recenzjami w czasopismach, takich jak Chip i ustalić, jak wybrana wstępnie karta graficzna pracuje z ulubionymi grami. Godne uwagi jest to, że nawet pomimo tego, iż najnowsze karty wideo wyposażone w nowe układy GPU firm ATI i NVIDIA zgodne są z DirectX 9, wiele gier w dalszym ciągu obsługuje tylko wersje 8.x. Podobnie jak w przypadku poprzednich funkcji 3D. musi upłynąć trochę czasu, zanim najnowsze rozwiązania sprzętowe będą obsługiwane przez producentów gier.

Niektóre karty graficzne umożliwiają ręczne optymalizowanie ustawień związanych z OpenGL, Direct3D. przetwornikiem RAMDAC, szybkością wewnętrznej magistrali i innych. Warto zauważyć, że uproszczone sterowniki kart graficznych 3D wchodzące w skład systemu Windows zazwyczaj nie posiadają okien dialo­gowych umożliwiających dokonanie takich ustawień. W związku z tym należy stosować sterowniki dołączone do karty graficznej lub pobrane w najnowszej wersji ze strony internetowej producenta. Co prawda czasami można użyć podstawowych sterowników dostarczonych przez producenta układu GPU, ale w takim przypadku należy stosować takie oprogramowanie, które zostało stworzone dla posiadanego modelu karty. Dzięki temu uzyska się pewność, że określone funkcje karty zostaną w pełni wykorzystane.

Aby po zakupie nowej karty 3D nie tracić czasu i nie wystawiać swojej cierpliwości na próbę, warto zakupić urządzenie w ładnym, przeznaczonym do sprzedaży detalicznej pudełku. Znajdziemy w nim zazwyczaj zestaw przykładowych gier (zarówno wersji demo, jak i pełnych) zaprojektowanych lub kompilowanych pod kątem kupowanej karty. Tańsze pakiety OEM wyposażone są jedynie w progra­my obsługi, mogą też różnić się nieco od produktów znanych z reklam. Przykładami takich różnic mogą być zmodyfikowane sterowniki, wolniejsza pamięć lub układ RAMDAC czy brak wyjścia TV. W celu uniknięcia nieporozumień, niektórzy producenci modyfikują nazwy wersji OEM swoich pro­duktów, nie jest to jednak praktyka powszechna. Co więcej, niektórzy producenci oferują karty do sprzedaży hurtowej, przeznaczone dla dużych firm dysponujących własnym personelem technicz­nym. Wówczas może całkowicie brakować dokumentacji, sterowników czy zaawansowanych funkcji akceleracji sprzętowej 3D.

Interfejsy programowania aplikacji

Application Programming Interface (API) umożliwia producentom sprzętu i oprogramowania pisanie sterow­ników i programów pracujących niezawodnie i wydajnie na różnorodnych platformach. Dostępność interfejsu programowania aplikacji umożliwia programom obsługi urządzenia współpracę właśnie z nim, a nie bezpo­średnio z systemem operacyjnym i wykorzystywanym przezeń sprzętem.

Podstawowe interfejsy API gier to obecnie OpenGL firmy SGI i Direct3D firmy Microsoft (wchodzi w skład DirectX). Interfejsy te są dostępne dla praktycznie każdej karty. Trzecim interfejsem jest Glide, oparty na OpenGL. Jego zastosowanie jest ograniczone do nieprodukowanych już chipsetów 3Dfx.

Najnowsza wersja interfejsu OpenGL oznaczona numerem 1.5 pojawiła się 29 lipca 2003 r. W ramach specy­fikacji OpenGL Shading Language oferuje obsługę programowalnego cieniowania, a także inne rozszerzenia. W celu uzyskania dodatkowych informacji na temat interfejsu OpenGL należy zaglądnąć na stronę interne­tową znajdującą się pod adresem http://www.opengl.org. Mimo że producent karty musi zapewnić obsługę OpenGL (przez aktualizację sterownika), firma Microsoft dba o obsługę Direct3D, elementu API o szerszym zastosowaniu. DirectX.

Najnowsza wersja DirectX to DirectX 9.x, wyposażona w rozbudowane funkcje obsługi grafiki 3D i funkcji DirectPlay (wykorzystywana w grach internetowych). Informacje o DirectX i możliwość pobrania najnow­szej wersji zapewnia witryna firmy Microsoft, http://www.microsoft.com/windows/directx.

Oprogramowanie DirectX 9 jest zgodne tylko z systemem Windows 98 i jego nowszymi wersjami (98SE/Me/2000/XP). Jednak z myślą o użytkownikach systemu Windows 95 Microsoft nadal oferuje oprogramowanie DirectX 8.0a.

Co prawda oprogramowanie DirectX w wersjach 8.0. 8.1 i 9.0 obsługuje powierzchnie 3D wyższego rzędu (przez zastąpienie ich krzywymi), cieniowanie wierzchołków i pikseli, ale pomiędzy pierwszymi dwiema wymienionymi wersjami a trzecią istnieją znaczne różnice w sposobie wykonywania tego typu operacji.

Wersje 8.0 (stosowana w układach GPU firmy NVID1A) i 8.1 (wykorzystywana w układach GPU firm ATI i Matrox) oprogramowania DirectX różnią się częścią mechanizmu renderingu 3D, którą jest moduł cieniowa­nia pikseli. W przypadku wersji 8.1 moduł ten jest w stanie obsługiwać więcej map tekstur (6, a wersja 8.0 — 4) i instrukcji tekstur (8, a wersja 8.0 — 4). Dodatkowo wersja 8.1 oprogramowania DirectX przetwarza dane całkowitoliczbowe z 48-bitową dokładnością, natomiast wersja 8.0 — z 32-bitową. Jednak w przypadki) modułu cieniowania pikseli obu wersji nie ma się czym pochwalić po porównaniu go z modułem wersji 9.0. który przetwarza do 16 map tekstur, maksymalnie 32 instrukcje tekstur i 64 instrukcje kolorów, a także dane zmienno­przecinkowe ze 128-bitową dokładnością.

Aby utworzyć powierzchnie wyższego rzędu, oprogramowanie DirectX 9 korzysta z ciągłej teselacji (proces zamiany powierzchni na niewielkie trójkąty, realizowany przy użyciu jednostki zmiennoprzecinkowej, co zwiększa precyzję) i mapowania przemieszczeń. Obie techniki uzupełniają metodę N-patch, stosowaną już w wersjach 8.0 i 8.1 oprogramowania DirectX.

Moduł cieniowania wierzchołków oprogramowania DirectX 9.0 potrafi przetwarzać znacznie bardziej złożone polecenia niż taki sam moduł w wersji 8.x. Porównanie wygląda następująco: 1024 (wersja 9.0) instrukcje przy 128 (wersje 8.x) i maksymalnie 256 stałych (wersja 9.0) przy 96 (wersje 8.x). DirectX 9.0 obsługuje też kontrolę przepływu.

Oprogramowanie DirectX 9.0c (obsługiwane przez układy NVID1A GeForce FX 6800) zawiera funkcje Vertex Shader 3.0 i Pixel Shader 3.0. Obie funkcje przetwarzają maksymalnie 65 535 instrukcji i oferują 32-bitową dokładność operacji zmiennoprzecinkowych.

Oprogramowanie DirectX 9.x jest coraz częściej obsługiwane przez nowe wersje popularniejszych gier, ta­kich jak Half-Life 2, Doom 3. Far Cry. Painkiller i innych. Jak już wcześniej wspomniano, następna wersja systemu Windows (o nazwie kodowej Longhorn) będzie zawierała trójwymiarowy interfejs użytkownika zgodny z DirectX 9.0.

Chipsety 3D

Praktycznie każda produkowana obecnie karta graficzna (z wyjątkiem specjalizowanych) wyposażona jest w chipset zgodny z funkcjami akceleracji 3D. Biorąc pod uwagę kolejne generacje kart 3D. śledzenie infor­macji o najnowszych produktach może nie być zadaniem łatwym. W tabeli 15.20 przedstawiona jest lista większych producentów chipsetów 3D wraz z nazwami wytwarzanych przez nich układów i ich podstawo­wymi funkcjami.

Lista nie obejmuje następujących firm:

Tabela 15.20 spełnia funkcję zestawienia nowych i najnowszych układów GPU oraz kart graficz­nych produkowanych przez firmy obecne na rynku. W większości przypadków uwzględniono w niej tylko takie układy GPU, które zgodne są ze standardami czwartej lub nowszej generacji (DirectX 7). Wymieniono też układy GPU trzeciej generacji, które nadal są powszechnie używane. W tabeli 15.19 zawarto kryteria, którymi kierowałem się przy opisywaniu każdej generacji układów 3D. Po­nieważ obecnie większość firm wytwarzających karty graficzne posługuje się skrótem GPU jako częścią nazwy swoich produktów, w tabeli 15.20 nie podano przykładów kart.

Informacje z tabeli należy zawsze porównać z informacjami o aplikacjach lub grach, które zamie­rzamy wykorzystywać — osiągi chipsetów we współpracy z różnym oprogramowaniem nie są jedno­lite. Aby uzyskać dodatkowe informacje o innych kartach wykorzystujących danych chipset, kieru­jemy się do witryny producenta chipsetu.


Tabela 15.20. Firmy wytwarzające chipsety graficzne 3D

0x08 graphic
0x08 graphic



0x08 graphic

0x08 graphic

0x08 graphic

0x08 graphic

AIW— identyfikuje układy GPUfirmy ATI, które stosowane są też w jej kartach graficznych z serii All-in-Wonder wyposażonych w tuner telewizyjny.

PCinema — identyfikuje układy GPU firmy NVIDIA, które stosowane są też w kartach graficznych Personal Cinema wyposażonych w tuner telewizyjny.

XGI—firma powstała z działu firmy SiS zajmującego się produkcją układów graficznych; później przejęła część firmy Trident wytwarzającej karty graficzne.

Rozbudowa i wymiana karty graficznej

Zaawansowana grafika 3D zgodna z oprogramowaniem DirectX 8.x/9.x. obsługa wielu monitorów (przy różnych progach cenowych) i ogromna pojemność pamięci graficznej (do 256 MB!) to czynniki sprawiające, że rozbudowa karty w większości przypadków nie ma uzasadnienia. Komponenty, którymi warto ją niekiedy uzupełnić to:

W wiciu przypadkach jedno urządzenie oferuje oba komponenty. Jeżeli potrzebujemy wyższej wydajności, szerszych możliwości, większej ilości pamięci lub obsługi cyfrowego wyświetlacza DVI. niezbędna jest wymiana karty.

Tuner TV i urządzenie przechwytywania wideo

Poza kilkoma zauważalnymi wyjątkami, takimi jak produkty firmy ATI z serii Radeon AU-in-Wonder i firmy NVIDIA z serii Personal Cinema, większość kart graficznych nie ma wbudowanych elementów tunera tele­wizyjnego czy przechwytywania wideo. Nowe karty, wyposażone w tego rodzaju moduły, to zazwyczaj urządzenia o dosyć wysokich cenach. Rozwiązania tańsze nie zapewniają zazwyczaj dobrej jakości.

Funkcje tunera i przechwytywania są szczególnie pożądane dla osób zainteresowanych edycją obrazu wideo, umieszczeniem filmów na witrynie WWW czy stworzeniem filmowego archiwum na dyskach CD lub DVD. Je­żeli posiadamy kartę graficzną o odpowiedniej wydajności 2D i 3D. z co najmniej 64 MB pamięci RAM. warto porównać cenę karty dodatkowej z ceną nowej, zintegrowanej karty graficznej. Karta dodatkowa może okazać się rozwiązaniem tańszym. Jeżeli posiadana karta ma mniej niż 64 MB RAM i używa się gier 3D, polecić można jego wymianę. Istotne jest obejrzenie próbek przechwyconego obrazu — wszystkie oferowane rozwiązania stosują kompresję związaną z pewną utratą jakości. Jeżeli dysponujemy cyfrową kamerą wideo ze złączem IEEE 1394 (nazywanym też FireWire lub i.Link), powinniśmy kupić kartę interfejsu IEEE 1394, która umożliwi bezpośrednie korzystanie z wysokiej jakości cyfrowego wideo bez konwersji.

Co prawda karta ATI All-in-Wonder RADEON 8500 DV zawiera port IEEE 1394a (FireWire 400), ale nowsze karty z serii All-in-Wonder już nie obsługują tego połączenia. Jednak w taki port wyposażo-nych jest wiele różnych wielofunkcyjnych kart PCI, takich jak droższe karty dźwiękowe firm Hercules i Creative Labs. Wielu producentów oferuje też karty posiadające jednocześnie port Hi-Speed USB (USB 2.0) i IEEE 1394a.

Do przyłączenia tunera i urządzeń przechwytywania wideo, firm takich jak Dazzle, Hauppauge i innych zgodnych z dowolną kartą graficzną, można wykorzystać port USB, obecny we wszystkich nowszych kom­puterach. Przykładem takich rozwiązań może być ATI TV-Wonder USB Edition i Hauppauge WinTV-USB. Ponieważ różnorodność systemów telewizyjnych i sprzętu komputerowego może wywołać problemy ze zgodnością urządzeń USB, niezbędne jest przejrzenie witryn z przeglądami i porównaniami, takich jak http:// reviews.cnet.com lub http:/'www.epinions.com. Aby uzyskać jak najlepszą jakość przechwytywanego wideo, należy poszukać produktów zgodnych ze standardem Hi-Speed USB (USB 2.0) i podłączyć je do portu Hi-Speed USB.

Jeśli w przyszłości zamierza się korzystać z technologii HDTV, należy rozglądnąć się za zgodnymi z nią pro­duktami, takimi jak tuner HDTV (część z nich można umieścić w pustym gnieździe PCI, a część podłączyć do portu USB). Tunery HDTV umożliwiają oglądanie programów nadawanych w technologii HDTV na do­wolnym monitorze lub projektorze (także wielkoekranowym) podłączonym do komputera PC. Do ważniejszych producentów kart HDTV należy zaliczyć takie firmy, jak ATI Technologies, Hauppauge Computer Works i Sasem.

Gwarancja i serwis

Ponieważ programy obsługi karty graficznej będziemy zapewne kilkakrotnie zmieniać (..czas życia" karty to zazwyczaj trzy lata lub dwie wymiany systemu operacyjnego), zakup urządzenia większego producenta pozwa­la liczyć na lepszą pomoc techniczną w przyszłości. Jeżeli zakupimy kartę wyposażoną w popularny chipset (np. NVID1A lub ATI), w przypadku braku odpowiednich wersji sterowników można będzie korzystać z opro­gramowania innych producentów lub standardowych programów obsługi, udostępnianych przez producenta chipsetu.

Warto pamiętać, że korzystanie ze sterowników producenta chipsetu lub innych firm może powodować pro­blemy. Wiąże się to z. wprowadzanymi w wielu kartach, odstępstwami od „modelu odniesienia" przedsta­wianego przez producenta chipsetu. Warto przejrzeć fora pomocy technicznej producenta, grupy dyskusyjne, witryny informacyjne (jak ZDNet) i strony czasopism komputerowych, aby wyrobić sobie opinię o stabilno­ści, niezawodności i użyteczności zapewnianego przez producenta serwisu. W miejscach tych można również znaleźć informacje o dostępnych sterownikach alternatywnych. Jeżeli korzystamy z systemu Windows Me. Windows 2000 lub Windows XP, najlepsze wyniki powinny zapewnić programy obsługi certyfikowane przez WHQL. Sterowniki testowane przez Windows Hardware Quality Labs można pobrać z witryny producenta karty lub korzystając z mechanizmu Windows Update.

^

Wraz ze wzrostem popularności Linuksa wielu producentów kart graficznych i układów GPU oferuje obecnie do pobrania wersje sterowników dla tego systemu. Ze względu na to, iż niektórzy produ­cenci dostosowują sterowniki do różnych dystrybucji systemu Linux lub mogą oferować sterowniki współpracujące tylko z określonymi wersjami jądra lub sterownikami środowiska graficznego XFree86, należy dokładnie sprawdzić ich zgodność.

Porównywanie kart graficznych o tym samym chipsecie

Wielu producentów oferuje linie produktów wyposażonych w ten sarn chipset, ale o różnych cenach. Dlaczego nie zaoszczędzić i nie wybrać modelu najtańszego? Co może zachęcić do zakupu modeli droższych? Poten­cjalne różnice zestawione zostały w tabeli 15.21.

Karty graficzne

w zastosowaniach multimedialnych

Multimedia — wraz z przesyłaniem obrazu wideo i animacji oraz systemami wideokonferencyjnymi — stały się istotnym elementem przemysłu PC prowadzącym do zamazania ostrej niegdyś granicy między światem komputerów a domeną radia i telewizji. Wraz ze wzrostem zapotrzebowania na treść multimedialną, rosną możliwości komputerowego sprzętu i oprogramowania. Obraz wideo to tylko jeden, choć bardzo istotny, ele­ment „doświadczenia multimedialnego". Komputerowe karty grafiki nieustannie próbują nadążyć za rosną­cymi potrzebami w tym zakresie. Wytwarzanie wyszukanej treści multimedialnej wymaga często możliwości współpracy komputera z innymi urządzeniami: magnetowidem, kamerą, telewizorem — karty graficzne coraz częściej nie mają z tym problemów.

Inne technologie multimedialne, jak animacja 3D, narzucają ogromne wymagania w zakresie przetwarzania danych. Powstają więc coraz to nowe produkty zapewniające efektywne wykonywanie takich czynności.

Przyjrzymy się teraz kilku elementom kart graficznych, które sprawiają, że praca w nowych obszarach zasto­sowania komputera PC staje się możliwa i uzasadniona, przede wszystkim VFC, VAFC, VMC i VESA VIP.

Ponieważ żadna z tych specyfikacji wewnętrznego złącza wideo nie stalą się prawdziwym standardem, nie­którzy z producentów urządzeń wspomagających —jak osobne karty akceleracji 3D i dekodery MPEG — sięgają po rozwiązania alternatywne.


0x08 graphic
Tabela 15.21. Porównywanie kart graficznych z tym samym chipsetem

Częstotliwość pracy układu RAMDAC nie jest równa częstotliwości zegara rdzenia określonej karty graficznej. Nawet pomimo tego, że najnowsze układy GPU zawierają układ RAMDAC, układy te działają z różnymi szybkościami.

Wewnętrzne złącza wideo

W celu rozszerzenia standardu VGA poza samą komunikację z monitorem, opracowano kilka standardów złącza pomocniczego, wprowadzanych początkowo przez pojedynczych producentów, a następnie przez organizację VESA.

Pierwsze próby stworzenia rozwiązania uniwersalnego to Video Feature Connector (VFC, złącze funkcji spe­cjalnych wideo), opracowany przez firmę IBM w 1987 roku, VESA AdvancedFeature Connector (VAFC. za­awansowane złącze funkcji specjalnych wideo), VESA Media Channel (VMC, kanał mediów VESA) i VESA Video Interface Port (VESA VIP, port interfejsu wideo VESA). Żadne z tych rozwiązań nie zdobyło szerszej popularności.

Zamiast złącza wideo

Obecnie większość komputerów łączy się z urządzeniami wideo przy użyciu portów USB lub IEEE 1394. Dodatkowe karty tunera TV i USB, takie jak ATI TV Wonder VE, mogą współpracować z większością chip­setów graficznych zgodnych z DirectX (przede wszystkim NVIDIA i ATI) i umożliwiać przechwytywanie ob­razu. Karta ATI All-in-Wonder wyposażona jest w wejście TV, wyjście TV i komplet funkcji karty graficznej. Jej najnowsza wersja, ATI All-in-Wonder 9800 Pro, wyposażona jest w wejścia i wyjścia S-video oraz Compo-site, a także w 125-kanalowy stereofoniczny tuner telewizyjny. Firma ATI oferuje kartę w wersji przystosowanej do współpracy z. telewizorami wielkoekranowymi. Jeśli wolisz produkty firmy NVIDIA, powinieneś poszukać kart z układem GeForce FX wyposażonych w „łącznicę" i pakiet oprogramowania Personal Cinema.

Wyjście wideo

Oryginalna technologia wideo bazowała na standardach telewizyjnych. Nie przystają one zupełnie standar­dów monitora komputerowego. W Stanach Zjednoczonych Komitet ds. Krajowego Systemu Telewizyjnego (NTSC) ustanowił standard telewizji kolorowej w 1953 roku. Został on uznany w niewielu innych krajach, przede wszystkich w Japonii. W Europie wprowadzono normy o wyższych parametrach. Dwie podstawowe to SECAM (ang. Seąuential Couleur Avec Memoire), do niedawna stosowana w Polsce, i PAL (ang. Phase Alternate Lim), obowiązująca w większości krajów Europy. Podstawowe różnice między nimi przedstawione zostały w tabeli 15.22.

Tabela 15.22. Telewizja a monitory komputerowe

Standard

Rok ustanowienia

Kraje

Liczba linii

Szybkość

Telewizja

NTSC

1953 (kolorowa) 1941 (czarno-biała)

USA, Japonia

525

60 pól/s

PAL

1941

Europa1

625

50 pól/s

SECAM

1962

Francja

625

50 pól/s

Komputer

VGA

1987

USA

640x4802

72 Hz

Pole - '/: ramki.

'Anglia. Holandia i Niemcy.

2Standard VGA wymaga większej liczby linii i stosuje pojęcie pikseli (w liczbie 480.), a nie linii. W celu synchronizacji i dostosowania do standardu telewizyjnego stosuje się tzw. kluczowanie (ang. genlocking).

Karta z wyjściem wideo (VGA-do-NTSC lub VGA-do-PAL) umożliwia wyświetlenie zawartości ekranu kompu­tera w telewizorze lub jego nagranie na taśmie wideo. Produkty tego rodzaju dzieli się dwie kategorie: z klu­czowaniem (które umożliwia karcie synchronizowanie sygnałów z różnych źródeł wideo lub łączenie ob­razu wideo z grafiką komputerową) i bez kluczowania. Kluczowanie (ang. genlocking) zapewnia stabilność sygnału niezbędną do uzyskania odpowiednich wyników przy nagrywaniu na taśmie wideo, nie jest natomiast konieczne do wykorzystania telewizora jako ekranu.

Konwertery VGA-do-NTSC i VGA-do-PAL są dostępne jako wewnętrzne karty rozszerzeń, przenośne urządzenia zewnętrzne lub porty TV-out, montowane w większości kart graficznych korzystających z chipsetów firm NVIDIA, ATI i innych. Dość typowe jest również wyposażanie w wyjście wideo komputerów przenośnych.

Konwerter nie zastępuje karty graficznej, ale jest do niej przyłączany przy użyciu zewnętrznego kabla. Poza wejściem VGA jest wyposażony w wyjście VGA i wyjścia telewizyjne, sygnału zespolonego i S-video.

Konwerter VGA-do-TV może zapewniać współpracę z urządzeniami standardu PAL, NTSC lub obu. Zapew­niana przez takie urządzenia rozdzielczość, zarówno przy wyświetlaniu obrazu w telewizorze, jak i przy na­grywaniu na taśmę, to zazwyczaj 640x480 pikseli. Nowością jest praca w trybie 800x600. Ważnym uzupeł­nieniem jest obwód zapobiegający migotaniu, które jest dość częstym zjawiskiem nękającym użytkowników mniej wyszukanych urządzeń VGA-do-TV i TV-do-VGA.

Urządzenia do przechwytywania wideo

Pojedyncze klatki obrazu lub dłuższe sekwencje mogą być przechwytywane kilkoma sposobami. Dostępne są następujące możliwości:

Urządzenia takie przechwytują klatki i sekwencje obrazu ze źródeł sygnału telewizyjnego, takich jak kamery wideo lub magnetowidy. Mimo że jakość obrazu ogranicza jakość sygnału wejściowego, uzyskiwane wyniki są wystarczające do prezentacji i publikacji. Zapewniana jest zgodność z 8-, 16- i 24-bitowymi trybami VGA i urządzeniami VHS, Super VHS i Hi-8. Jak można było oczekiwać, urządzenia Super VHS i Hi-8 zapewnia­ją uzyskanie lepszych wyników, podobnie jak zastosowanie więcej niż 256 kolorów. Uzyskanie najlepszego efektu umożliwi cyfrowa kamera wideo (DV) ze złączem IEEE 1394 (i.Link lub FireWire). Wysokiej jakości obraz wideo jest wówczas przesyłany do komputera bez wykonywania dodatkowej konwersji analogowo-cy­frowej. Jeśli komputer nie posiada portu IEEE 1394a lub 1394b. niezbędne jest zainstalowanie dodatkowej karty kontrolera.

Karty wideo

Sygnał telewizyjny może być przechwytywany przez komputer w celu jego późniejszego wyświetlania i edy­cji. Innymi słowy, można oglądać telewizję na ekranie monitora. Przechwytywanie obrazu wiąże się przede wszystkim z zamianą jego postaci analogowej na cyfrową. Największą zaletą analogowego sygnału telewi­zyjnego jest efektywność, umożliwiająca przesyłanie danych obrazu kanałem o niewielkiej przepustowości. Podstawową wadą jest brak możliwości wprowadzania zmian (można jedynie zmieniać sposób wyświetlania).

Przechwytywanie obrazu wideo z zewnętrznych źródeł i zapisywanie go do plików wymaga specjalnej tech­nologii. Niezbędnym elementem jest karta przechwytywania wideo (ang. video capture hoard. video digitizer. video grahber) nazywana też tunerem TV (TV tuner).

W tym kontekście techniczna nomenklatura znów wprowadza zamieszanie, ponieważ termin wideo ma tu swoje zwykłe znaczenie, czyli odnosi się do wyświetlania na ekranie monitora komputera PC ruchomych obrazów. Przy analizowaniu sprzętu wideo należy poprawnie odróżniać urządzenia prze­chwytujące pojedyncze klatki ze źródła wideo od tych służących do przechwytywania sekwencji wideo.

Sygnał obrazu wideo może mieć charakter:

Analogowy sygnał wideo można przechwytywać ze źródeł tradycyjnych, takich jak antena, gniazdo telewizji kablowej, magnetowid albo kamera VFIS lub podobna. Jest to proces wymagający większej ilości pamięci ma­sowej i większej wydajności systemu niż w przypadku obrazów statycznych.

Standardowy ekran komputera został zaprojektowany pod kątem wyświetlania obrazu statycznego. Przecho­wywanie i pobieranie informacji o zawartości ekranu wymaga zarządzanie wielkimi plikami danych. Roz­ważmy prosty przykład: pojedynczy, kolorowy obraz wielkości ekranu w postaci nie skompresowanej może wymagać nawet 2 MB miejsca na dysku; oznacza to, że jedna sekunda filmu wideo będzie wymagać 45 MB. Każda transmisja wideo, która ma zostać przechwycona do obróbki przez komputer, musi zostać przekształ­cona z analogowego sygnału PAL lub NTSC do postaci cyfrowej. Aby przetwarzanie odbywało się w czasie rzeczywistym (zgodnie z szybkością wyświetlania obrazu telewizyjnego) 45 MB danych na sekundę, musi zostać zapisanych w pamięci masowej komputera. Jest to szybkość 10-krotnie przekraczająca wydajność sta­rej magistrali ISA. Wymagana jest więc nie tylko dobra karta graficzna, ale i wydajna magistrala rozszerzeń, jak PCI lub AGP.

Zważywszy ogromne ilości wymaganej pamięci masowej, staje się jasne, że wprowadzenie kompresji danych jest praktycznie niezbędne. Kompresji i dekompresji poddaje się więc zarówno dane wideo, jak i audio. Skom­presowany plik zajmuje mniej miejsca na dysku. Dodatkową korzyścią jest ułatwienie operowania mniejszym plikiem. Gdy odtwarzamy plik wideo lub audio, aplikacja przeprowadza dekompresję na bieżąco. Niezależnie od tego. gdy zamierzamy pracować z obrazem wideo, warto upewnić się, że dysk twardy ma wystarczającą pojemność i wydajność.

Kompresję i dekompresję obrazu realizują programy i urządzenia określane ogólnie nazwą kodek (ang. codec). Wyróżnia się dwa rodzaje kodeków: sprzętowe i programowe (niezależne od wyposażenia). Kodeki sprzęto­we zapewniają zasadniczo lepszą wydajność, wymagają jednak odpowiedniego urządzenia — albo karty de­dykowanej, albo wysokiej klasy karty wideo wyposażonej w kodek zintegrowany. Kodeki programowe nie stawiają takich wymagań, nie są jednak w stanie zapewnić równie dobrej jakości i kompresji. Stosuje się dwa podstawowe algorytmy kodeków:

o efektywności 30:1, jednak w połączeniu z kompresją wstępną polegającą na nadpróbkowaniu, współczynnik ten może sięgnąć 100:1 lub więcej, przy zachowaniu wysokiej jakości. Kompresja MPEG umożliwia więc lepszą i szybszą obsługę wideo, przy oszczędnym wykorzystaniu pamięci masowej. MPEG jest algorytmem kompresji międzyklatkowej. Ponieważ zapisywane są jedynie zmiany w stosunku do ramek wcześniejszych, algorytm ten nie jest używany w trakcie edycji filmów.

Jeżeli zamierzamy przechwytywać lub kompresować wideo, będziemy korzystać z oprogramowania opartego na standardach takich jak Microsoft DirectShow (następca Video for Windows i ActiveMovie), Real Networks Real Producer lub Apple QuickTime Pro. Odtwarzacze plików w takich formatach mogą być pobierane za darmo z witryn firm sygnujących standardy.

Aby odtwarzać lub rejestrować obraz wideo na multimedialnym komputerze osobistym (Multimedia PC, MPC). wymagany jest następujący zestaw oprogramowania i urządzeń:

W zależności od wykorzystywanego urządzenia dostępnych jest kilka możliwości połączenia ze źródłem ana­logowego obrazu wideo. Najlepszą z nich jest użycie kabla komponentowego wideo. Wykorzystuje on trzy złącza typu RCA. Osobnymi przewodami przenoszony jest sygnał luminancji (Y) i dwa sygnały chrominancji (PR i PB). Tego rodzaju złącza znaleźć można w odtwarzaczach DVD i wysokiej klasy telewizorach, zarówno tradycyjnych, jak i HDTV. Problemem może być jednak to, że domowe urządzenia przechwytywana wideo zazwyczaj nie posiadają tego rodzaju przyłączy. Typowe, profesjonalne urządzenie przechwytywania wideo ze złączem komponentowym, takie jak Pinnacle Systems DC2000DV, kosztuje ok. 7000 zł.

Kolejnym dobrym rozwiązaniem, którego obsługę zapewnia większość urządzeń przechwytujących, jest złą­cze S-video (S-VHS). Rozdzielone są w nim sygnały koloru {chroma) i jasności (luma). Rozwiązanie ..ostat­niej szansy" to złącze zespolone, gdzie całość informacji przesyłana jest jednym kablem. Jakość sygnału jest wówczas niższa, co rzutuje na ostateczny wynik pracy z obrazem.

Można również zakupić urządzenia, które jedynie wyświetlają na komputerze obraz telewizyjny. Standar­dowe funkcje edycji cyfrowego obrazu wideo, w jakie wyposażono systemy Windows Me i Windows XP. wzrastająca popularność rozwiązań PC-TV i szerokopasmowe przyłącza internetowe sprawiają, że wyświe­tlanie filmów na komputerowym monitorze staje się standardem. Dalszą konsekwencją tego zjawiska jest wzbogacanie architektury procesorów głównych o funkcje wspomagające odtwarzanie filmów — instrukcje MMX i SSE procesorów Pentium II, Pentium III, Celeron, Athlon i Duron, instrukcje mikroarchitektury Net-Burst procesora Pentium 4 oraz SSE2. Komputer z systemem Windows XP Media Center po jego zainstalo­waniu jest natychmiast gotowy do przechwytywania i cyfrowej rejestracji programu telewizyjnego w celu późniejszego odtworzenia go. Komputer taki spełnia funkcję osobistego magnetowidu.

Ponadto wiele kart graficznych z wejściem telewizyjnym, takich jak produkty firmy ATł z serii All-in-Wonder z układem Radeon i firmy NVIDIA z serii Personal Cinema FX, również wyposażono w oprogramowanie osobistego magnetowidu. Aby jeszcze bardziej ułatwić oglądanie i nagrywanie audycji telewizyjnych, często dołączany jest pilot i ekranowy przewodnik po programach.

W tabeli 15.23 podsumowujemy omówione funkcje, zestawiając je z dostępnymi na rynku produktami. Nie są to oczywiście wszystkie dostępne urządzenia wymienionych klas, a jedynie wybrane, pojedyncze przykłady.

Tabela 15.23. Urządzenia do przechwytywania wideo

Typ urządzenia

Przykład

Karta wideo z tunerem TV i przechwytywaniem obrazu oraz osobisty magnetowid

ATI All-in-Wonder 9800 Pro. XT

Karta wideo z tunerem TV i przechwytywaniem obrazu oraz osobisty magnetowid

ATI All-in-Wonder 9800 XT, XT, NVID!A Personal Cinema FX

Tuner TV PCT i osobisty magnetowid

ATI TV Wonder, VE, HDTV Wonder

Tuner TV USB i osobisty magnetowid

Hauppauge WinTV-PVR-USB2

Urządzenie przechwytujące z portem USB

Seria Dazzle Digital Video Creator

Urządzenie do przechwytywania pojedynczych klatek z portem równoległym

Invisco SnapMagic

Karta przechwytywania wideo PCI

Broadway Pro DVD

Urządzenie ze złączem IEEE 1394 (FireWire)

AVerMedia DVD EzMaker

Rysunek 15.12 przedstawia typowa kartę graficzną wideo z funkcją tunera TV oraz wejściem i wyjściem wideo: ATI All-in-Wonder 9600 XT.


0x08 graphic
Rysunek 15.12.

A TI All-in-Wonder 9600 XT to średniej klasy akcelerator wideo z obsługą dwóch monitorów, zintegrowanymi modułami tunera TV i FM oraz przechwytywania wideo i osobistego magnetowidu. Do karty dołączono też wielozlączowy kabel wyjść audio-wideo. rozdzielnicę wejść audio-wideo i pilot. Fotografia za zgodą ATI Technologies


Urządzenie każdego rodzaju ma swoje zalety i swoje wady. Ich porównanie przedstawiamy w tabeli 15.24.

Tabela 15.24. Porównanie urządzeń multimedialnych

Typ urządzenia

Zalety

Wady

Karta graficzna z wbudowanym tunerem TV i modułem przechwytywania wideo

Wygoda. Wykorzystuje tylko jedno złącze.

Rozbudowa wymaga wymiany całości.

Karta tunera TV Umożliwia wymienianie karty graficznej.

Może zostać wykorzystana w nowym komputerze.

Może nie współpracować z pewnymi chipsetami.

Urządzenie przyłączane do portu równoległego

Może być stosowane z komputerem stacjonarnym lub przenośnym. Niedrogie.

Szybkość klatek ograniczona wydajnością portu Rozwiązanie właściwe dla przechwytywania pojedynczych klatek.

Urządzenie przyłączane do portu USB

Łatwa instalacja w nowych komputerach z systemem Windows 98/Me i Windows 2000/XP.

Może nie współpracować z systemem Windows 95B OSR 2.x USB. Wymaga aktywnego portu USB. Nie wszystkie urządzenia są zgodne z systemami Windows 2000/XP. W przypadku korzystania z urządzeń zgodnych z interfejsem USB 1.1 uzyskuje się niską przepustowość. Jeśli nie jest obsługiwany interfejs Hi-Speed USB (USB 2.0), dostępna przepustowość jest zbyt niska dla wysokich rozdzielczości i filmów.

Dedykowana karta PCI

Duża szybkość wyświetlania klatek umożliwiająca obsługę realistycznego obrazu wideo. Współpracuje z każdą kartą graficzną.

Niektóre modele wymagają dużych zasobów komputera (1RQ itd.). Wymaga instalacji wewnątrz obudowy.

Komunikacja IEEE 1394 z urządzeniem cyfrowym

Brak konwersji analogowo-cyfrowej. Wysoka jakość obrazu, bez wad kompresji. Duża przepustowość.

Wymaga portu IEEE 1394 i cyfrowego źródła wideo ze złączem IEEE 1394. Wymaga instalacji wewnątrz obudowy. Do niektórych kart nie jest dołączane oprogramowanie przechwytywania i edycji wideo. Należy sprawdzić, czy oprogramowanie kupowane osobno będzie pracować z kartą.

Problemy z urządzeniami przechwytywania wideo

W tabeli 15.25 zestawione zostały podstawowe porady dotyczące rozwiązywania problemów z urządzeniami przechwytywania wideo. Zwróćmy uwagę, że konflikty IRQ mogą pojawić się zarówno w przypadku urządzeń korzystających z portu równoległego, jak i kart rozszerzeń. Innym istotnym aspektem jest to, że urządzenia niskoprzepustowe korzystające z portu równoległego lub USB nie mają możliwości obsługi przechwytywania wideo z pełną szybkością i w dużej rozdzielczości.

Problemy z kartą graficzną lub monitorem

Rozwiązywanie większości problemów z kartą graficzną i monitorem jest stosunkowo proste, choć kosztow­ne. Konieczność wymiany karty lub monitora nie jest rzadkością. Przed podjęciem takiego kroku warto się jednak upewnić, że wyczerpaliśmy wszystkie inne opcje. Żenująco prostym rozwiązaniem może być niekiedy odpowiednia regulacja, przede wszystkim jasności i kontrastu — zrozpaczony użytkownik często o tym za­pomina. Co więcej, niemal wszystkie monitory dysponują przyciskami bądź pokrętłami do regulacji tych pa­rametrów dostępnymi na frontowej ścianie obudowy. Nie zawsze jednak są to wszystkie dostępne regulatory.

Przykładem mogą być niektóre monitory firmy NEC wyposażone w śrubę regulacyjną ogniskowania umieszczoną po lewej stronie. Ponieważ śruba pozostaje dość głęboko, jedynym śladem jej istnienia jest otwór w plastykowym żebrowaniu na górnej powierzchni obudowy. Aby skorygować ogniskowanie monitora, niezbędne jest włożenie do otworu długiego śrubokrętu, na głębokość około 5 cm, i wyszukanie szczeliny w główce śruby „na wyczucie". Oszczędzi to zarówno wydatku, jak i marnej opinii w punkcie naprawczym. Zawsze warto więc przyjrzeć się do­brze obudowie, dokumentacji, witrynie WWW producenta i wszelkim informacjom dostępnym w Internecie.


0x08 graphic
Tabela 15.25. Rozwiązywanie problemów z urządzeniami przechwytywania wideo



Wadliwa lub niepoprawnie działająca karta albo monitor są zazwyczaj wymieniane jako całość, a nie napra­wiane, za wyjątkiem specjalizowanych kart dla aplikacji CAD i stacji roboczych, praktycznie w każdym przy­padku naprawa jest droższa niż zakup nowego urządzenia. Trudności sprawia też uzyskanie dokumentacji serwisowej. Nie są zazwyczaj dostępne schematy, listy części, diagramy obwodów ani inne opisy. Co więcej, powszechnie stosowana jest technika montażu powierzchniowego, która wymaga dużych nakładów na samo oprzyrządowanie naprawcze. Najzgrabniejsza lutownica z ostrą końcówką pozostaje bezużyteczna!

Naprawa monitora to nieco rozsądniejsza operacja. Mimo popularnej praktyki zastępowania starego monitora nowym, urządzenia o przekątnej 20 cali lub większej i panele LCD wciąż opłaca się naprawiać. Gdy pojawi się potrzeba naprawy monitora lub wyświetlacza LCD, najlepiej skierować swoje kroki do firmy, w której go zaku­piliśmy, lub zakładu serwisowego specjalizującego się w naprawach monitorów. Jeżeli jednak przekątna ekranu monitora kineskopowego nie przekracza 15 cali, najlepiej od razu pójść do sklepu po nowy, 17-calowy.

W niektórych krajach popularna jest tzw. depot repair, czyli „naprawa magazynowa", polegająca na tym, że przekazujemy urządzenie do zakładu naprawczego, który naprawia je lub od razu zastępuje innym, już napra­wionym. Oplata pozostaje stała, niezależnie od faktycznej usterki.

Zaletą depot repair jest możliwość uzyskania naprawionego monitora bezpośrednio po oddaniu uszkodzone­go, a nawet wcześniej. Minimalizuje to czas wymuszonego przestoju. Gdy jednak firma naprawcza nie dyspo­nuje takim samym modelem, trzeba wykazać się cierpliwością.

Diagnozowanie problemów z monitorem przebiega stosunkowo prosto. Gdy monitor przestaje funkcjonować, podłączamy do komputera inny. Jeżeli problem przestanie istnieć, potwierdza to uszkodzenie naszego urzą­dzenia lub jego kabla połączeniowego. Jeżeli, mimo wymiany monitora, obraz się nie pojawia, wskazuje to. żc źródłem problemów jest karta graficzna lub sam komputer.

Wiele wyższej klasy nowych monitorów ma wbudowaną funkcję autodiagnostyki. Informacje na ten temat znajdziemy w podręczniku obsługi monitora. Skorzystanie z niej ułatwia określenie, czy awaria faktycznie dotyczy monitora czy jedynie kabla lub karty graficznej. Jeżeli jesteśmy w stanie wyświetlić obraz kontrolny, źródła zakłóceń szukamy poza monitorem.

Niekiedy problemy sprawia sam kabel połączeniowy. Wygięty styk we wtyczce wkładanej do złącza karty gra­ficznej może spowodować zmiany kolorów lub całkowicie uniemożliwić wyświetlanie obrazu. W większości przypadków styk taki można wyprostować za pomocą szczypców z ostrą końcówką. Poluzowany kabel lub przejściówka DVI-VGA też mogą być przyczyną zmiany kolorów. W związku z tym należy dobrze umoco­wać kabel i przejściówkę.

Jeżeli styk ułamie się lub wtyczka zostanie w inny sposób trwale uszkodzona, można zazwyczaj wymienić cały kabel. Niektóre monitory wyposażone są w kabel odłączany, do innych jest on przymocowany trwale. W nie­których przypadkach pozyskanie nowego może wymagać kontaktu z producentem.

Po uzyskaniu pewności, że źródło problemu faktycznie pozostaje ukryte pod obudową monitora (i że nie dys­ponujemy możliwością naprawy gwarancyjnej), polecić można kontakt z producentem, który powinien wska­zać najbliższy autoryzowany punkt serwisowy. Można również spróbować znaleźć zakład niezależny, który często będzie oferował znacznie niższe ceny.

Nigdy nie powinniśmy próbować samodzielnej naprawy monitora kineskopowego. Dotknięcie nie­właściwego elementu może doprowadzić do śmiertelnego porażenia prądem. Obwody monitora mogą utrzymywać ogromną różnicę potencjałów (napięcie) przez wiele godzin, dni, a nawet tygodni od momentu całkowitego odłączenia urządzenia. Wykwalifikowany pracownik serwisowy rozpoczy­na prace od właściwego rozładowania lampy katodowej.

W przypadku większości monitorów możliwości samodzielnej naprawy sprowadzają się do drobnych korekt obrazu. Jeżeli brakuje nam doświadczenia, dostrajanie kolorowego monitora może być dosyć trudne. W celu podregulowania koloru, jasności, rozmiaru obrazu i innych ustawień należy użyć kontrolek ekranowych. Aby szybko skonfigurować parametry wyświetlacza LCD, należy skorzystać z automatycznego dostrajania, do­stępnego w wielu modelach. Nawet pracownicy firmowych zakładów naprawczych mają problemy z uzyska­niem właściwej dokumentacji urządzeń. Ogólną zasadą przy kupowaniu nowego monitora powinno być usta­lenie, czy firma zapewnia serwis w kraju.

W przypadku problemów z monitorem lub kartą graficzną zawsze warto zadzwonić do producenta lub jego przedstawiciela. Może on znać problem i sposób jego naprawienia. Niekiedy, gdy dany model sprawia szcze­gólnie dużo problemów, można spotkać się z ofertą darmowej naprawy lub zastąpienia urządzenia — nie bę­dziemy o tym wiedzieć, dopóki nie zadzwonimy we właściwe miejsce.

Pamiętać też należy, że wiele problemów związanych z nowoczesnymi kartami i monitorami wiąże się z ich sterownikami, a nie z samym sprzętem. Przed rozpoczęciem naprawiania sprzętu warto więc upewnić się. że zainstalowane oprogramowanie jest właściwe i aktualne.

Rozwiązywanie problemów z monitorami

Problem

Brak obrazu. Rozwiązanie

Jeżeli dioda kontrolna na przedniej ściance monitora świeci na żółto lub miga na zielono, oznacza to wejście w tryb oszczędzania energii. Jeżeli komputer jest włączony i pozostawał nieaktywny, wykonujemy dowolny ruch myszą i wciskamy kombinację klawiszy ALT +TAB, po czym czekamy 1 minutę na „obudzenie się" urządzenia.

Jeżeli dioda kontrolna na przedniej ściance monitora ma kolor zielony, oznacza to normalny tryb pracy (sygnał jest odbierany). Pozostaje poprawić ustawienia kontrastu i jasności.

Jeżeli dioda kontrolna nie świeci się, sprawdzamy kabel zasilający monitora i przełącznik zasilana. Sprawdza­my, czy stosowany przedłużacz lub UPS działa poprawnie. Należy też podjąć próbę zastąpienia kabla zasila­nia monitora innym, o którym wiemy, że działa.

Niezbędną czynnością jest też sprawdzenie obu połączeń kabla danych.

Problem

„Poszarpany" obraz. Rozwiązanie

Panele LCD. Używamy oprogramowania do dostrajania obrazu lub wyświetlanych na ekranie menu regula­cyjnych w celu zredukowania lub usunięcia efektu pływania pikseli.

Wszystkie monitory. Sprawdzamy, czy kable połączeniowe zostały z obu stron dobrze osadzone w gniazdach:

Monitory kineskopowe. Sprawdzamy ustawienia częstotliwości odświeżania. Zmniejszenie tej wartości może zaowocować uzyskaniem obrazu poprawnej jakości.

Rozwiązywanie problemów z kartami graficznymi i ich sterownikami

Problem

Karla pracuje poprawnie w środowisku DOS. ale nie w Windows.

Rozwiązanie

Jeżeli w trybie MS-DOS (przy uruchamianiu komputera) obraz wygląda poprawnie, a problemy pojawiają się dopiero przy ładowaniu lub po załadowaniu graficznego interfejsu użytkownika, najbardziej prawdopodobną ich przyczyną są niewłaściwe lub uszkodzone programy obsługi. Uruchamiamy wówczas system w trybie awaryjnym (Windows 9x/Me) lub trybie VGA (Windows 2000/XP), kiedy używany jest najprostszy sterow­nik VGA. Jeżeli w tym trybie obraz jest widoczny, oznacza to konieczność reinstalacji właściwego programu obsługi karty graficznej.

Jeżeli podejmowaliśmy próby zwiększenia częstotliwości zegara karty przy użyciu narzędzia dostarczonego przez jej producenta lub zakupionego od innej firmy, sytuacja taka może oznaczać, że ustawiona szybkość pracy jest zbyt duża. Korzystając z trybu awaryjnego, ustawiamy kartę do pracy z szybkością standardową. Jeśli w programie BIOS Setup modyfikowano częstotliwości pracy gniazd AGP i PCI, należy ponownie uruchomić komputer i program, a następnie przywrócić standardową szybkość gniazd.

Problem

Nic można zastąpić wbudowanego układu graficznego dodatkową kartą PCI lub AGP.

Rozwiązanie

Przeglądamy informacje udostępniane przez producentów karty graficznej i płyty głównej, aby ustalić jakie modele kart mogą być instalowane. Wyszukujemy opcje w BlOS-ie i zworki na płycie głównej, które umoż­liwiają wyłączenie wbudowanej karty. Próbujemy umieścić kartę w innym gnieździe PCI. Należy sprawdzić, czy karta została poprawnie umieszczona w gnieździe PCI lub AGP.

Problem

Nie można ustawić właściwego połączenia rozdzielczości i głębi kolorów.

Rozwiązanie

Sprawdzamy, czy karta jest właściwie rozpoznana w systemie Windows i czy pamięć karty działa. Sprawdze­nie pamięci umożliwi oprogramowanie diagnostyczne dołączone do urządzenia przez producenta lub narzędzie innej firmy. .leżeli test taki nie wykaże żadnych zakłóceń, wyszukujemy nowe sterowniki. Zamiast sterowni­ków systemu Windows należy użyć oprogramowania dostarczonego przez producenta karty.

Problem

Nie można wybrać właściwej częstotliwości odświeżania.

Rozwiązanie

Sprawdzamy, czy karta i monitor są właściwie rozpoznane w systemie Windows. Pobieramy i instalujemy naj­nowsze programy obsługi karty i monitora.

Problem

Nie można zmodyfikować ustawień OpenGL lub Direct3D (DirectX).

Rozwiązanie

Zamiast sterowników dołączonych do systemu Windows instalujemy najnowsze sterowniki dostarczone przez producenta karty graficznej lub chipsetu. Standardowe sterowniki oferowane przez Microsoft często nie zawierają okien dialogowych konfiguracji funkcji 3D lub innych zaawansowanych opcji.

DisplayMate

DisplayMate to niepowtarzalny program do diagnostyki i dokładnego testowania karty graficznej i monitora. Można się jedynie dziwić, że większość konwencjonalnych programów do diagnozowania podzespołów kompu­tera nie stosuje metod używanych przez to narzędzie.

Autor używa DisplayMate zarówno przy testowaniu kart graficznych, jak i monitorów. Można dokładnie spraw­dzić jakość wyświetlanego obrazu, co ułatwia ustawianie ogniskowania, centrowania, jasności, kontrastu, na­sycenia kolorów itp. Przy zakupach nowego monitora użycie DisplayMate pozwala w jednolity sposób sprawdzić ostrość i geometrię obrazu każdego z wybranych modeli. Jeżeli w trakcie prezentacji korzystamy z projektora — podobnie jak autor, kiedy prowadzi seminaria związane ze sprzętem komputerowym — DisplayMate będzie niezastąpioną pomocą w przygotowaniu projektora do pracy.

Narzędzie to umożliwia również dokładne sprawdzenie funkcjonowania karty graficznej. Wywoływane są wszyst­kie dostępne tryby, co ułatwia określenie możliwości karty. Procedury testowania wydajności uwzględniają różne tryby pracy, o różnej rozdzielczości i liczbie kolorów. Uzyskane wyniki można wykorzystywać do porównywania karty z innym urządzeniem tej samej klasy. Wersja Video Edition obsługuje dodatkowo różnego typu projektory multimedialne i telewizory spotykane w zestawach kina domowego lub urządzeniach służących do przeprowa­dzania prezentacji.

W celu uzyskania dodatkowych informacji na temat programu DisplayMate należy zajrzeć na stronę internetową http://www. displaymate. com.

Niektórzy producenci kart graficznych dołączają specjalną wersję DisplayMate jako standardowe narzędzie dia­gnostyczne ich urządzeń.


Rozdział 16.

Podsystem audio

Od czasu pierwszego wydania niniejszej książki, w 1988 roku, wiele się w świecie urządzeń audio zmieniło. Mimo że podstawowe funkcje generowania dźwięku były już elementem oryginalnego IBM PC w 1981 roku. jak również wszystkich jego następców, dźwięk w starszych komputerach służył przede wszystkim jako narzę­dzie wspomagające rozwiązywanie problemów. Komputer wydawał dźwięki, aby zasygnalizować przepełnie­nie bufora klawiatury albo błędy przy uruchamianiu. Dopiero komputery Macintosh, wprowadzone w 1984 roku, wyposażone zostały w urządzenia umożliwiające korzystanie z dźwięku wysokiej jakości. Komputery PC dorównały im dopiero pod koniec lat 80., kiedy pojawiły się pierwsze karty dźwiękowe, produkowane przez znane firmy AdLib i Creative Labs.

Dzięki nieustającej konkurencji między wieloma firmami, możemy obecnie cieszyć się szeroko uznanymi, choć nie zawsze sformalizowanymi, standardami sprzętu i oprogramowania obsługi dźwięku. Urządzenia z nim związane to już nie drogie i egzotyczne dodatki, ale integralna część większości systemów.

Stosowane obecnie urządzenia audio komputerów PC występują w jednej z trzech postaci:

Niezależnie od lokalizacji urządzenia, dysponuje ono złączami typu minijack, umożliwiającymi przyłączenie głośników i mikrofonu. Dodatkowo, wiele kart audio wyposażonych jest w złącza urządzeń MIDI (starsze karty zwykle dysponowały analogowym portem joysticka). W modelach nowszych jako złącze joysticka słu­ży port USB. Wiele kart wyższej klasy zapewnia również wyszukane złącza wejścia i wyjścia cyfrowego. Każda karta audio wymaga odpowiedniego programu obsługi, instalowanego przez aplikację albo jako element systemu operacyjnego. W niniejszym rozdziale omówimy dostępne obecnie karty, ich zastosowania, sposób instalowania i wykorzystywania w codziennej pracy i zabawie.

Wczesne karty audio

Pierwsze karty audio przeznaczone dla komputerów PC, wprowadzone na rynek pod koniec lat 80-tych przez firmy AdLib. Roland i Creative Labs, służyć miały wyłącznie jako uzupełnienie gier komputerowych. Karty te nie były ze sobą zgodne i często kosztowały ponad 100 dolarów.

Niemal jednocześnie z wprowadzeniem Game Blastera firmy Creative Labs, na rynku PC pojawiły \i się urządzenia z obsługą interfejsu MIDI. Ich pierwotnym przeznaczeniem były wyspecjalizowane aplikacje do rejestrowania utworów muzycznych. Wraz z upowszechnieniem złącza MIDI w instru­mentach muzycznych, popularniejsze stały się karty dźwiękowe zapewniające możliwość połącze­nia z nimi.

Karta Game Blaster. obsługująca tylko kilka gier. została wkrótce zastąpiona modelem Sound Blasler. zgod­nym zarówno z Game Blasterem, jak i kartą firmy AdLib. Sound Blaster wyposażono w gniazdo mikrofo­nu, wyjście stereo i port MIDI, umożliwiający przyłączenie komputera do syntezatora lub innego instrumentu muzycznego. Tak powstał standard podstawowych funkcji, zapewnianych przez niemal wszystkie późniejsze karty audio. Nowa klasa urządzeń uzyskała potencjał umożliwiający stosowanie jej nie tylko do wzbogacania gier. Kolejna karta, Sound Blaster Pro, zapewniała wyższą jakość dźwięku. Model ten. wraz z jego póź­niejszymi odmianami, uzyskał znaczącą przewagę nad konkurencją, wyznaczając standard karty audio kom­puterów PC.

W przeciwieństwie do standardów de jurę, takich jak IEEE 1394, karta Sound Blaster wyznaczyła standard de facto, którego powstanie było wynikiem szerokiego uznania pozycji lidera w segmencie kart dźwiękowych. Sound Blaster Pro jest tylko jednym z wielu przykładów standardów de facto. Karta VGA firmy IBM stała się takim standardem dla kart graficznych, natomiast różne języki firm Adobe i HP obsługujące drukowanie (HP PCL i Adobe PostScript) odgrywały rolę standardów de facto w przypadku drukarek.

Zgodność z Sound Blaster Pro

Do połowy lat 90-tych, kiedy system MS-DOS pozostawał standardową platformą gier PC, użytkownicy pro­dukowanych przez różnorodne firmy kart dźwiękowych zmagali się nieustannie z ograniczeniami niedoskonałej emulacji standardu Sound Blaster Pro. Niestety, wiele kart korzystało z dwóch zestawów ustawień konfigura­cyjnych, z których jeden stosowany był w trybie macierzystym, a drugi w trybie emulacji. Innym problemem była praca w „czystym" środowisku MS-DOS. O ile karta działała poprawnie w Windows i oknach DOS-u. po wejściu do pełnego trybu MS-DOS, niezbędne było ładowanie do pamięci programu rezydentnego (TSR).

Dla porównania po pojawieniu się gier dla 32-bitowego systemu Windows obsługa dźwięku stała się bardzo prosta. Aplikacje środowiska okienkowego wykorzystują do komunikacji z urządzeniami sterowniki sys­temu operacyjnego. Zwalnia to programistę z pisania specjalnych modułów zapewniających obsługę róż­norodnych modeli kart dźwiękowych, graficznych itd. Do obsługi dźwięku i grafiki w grach Microsoft Windows dodatkowo wykorzystuje technologię DirectX, wprowadzoną na rynek w grudniu 1995 roku. Aktualna wersja technologii to 9.0c.

Karty audio i DirectX

Microsoft DirectX to grupa interfejsów programowania aplikacji (API), które pośredniczą w komunikacji mię­dzy aplikacjami multimedialnymi a urządzeniami. W przeciwieństwie do aplikacji MS-DOS, które wymagały od programistów pisania procedur obsługi dla różnorodnych modeli kart audio, wideo, joysticków itp., w sys­temie Windows wykorzystuje się DirectX, interfejs, który „rozmawia" z urządzeniami znacznie bardziej bez­pośrednio, niż robią to standardowe programy obsługi. Zapewnia to wysoką wydajność aplikacji i uwalania programistę od modyfikowania programu pod kątem różnych urządzeń. Tworzona przezeń gra musi jedynie współpracować z kontrolerem dźwięku DirectX, rendererem grafiki Direct3D i procedurami obsługi modemu i sieci DirectX.

^ ^ Więcej o współpracy urządzeń audio z interfejsem DirectX piszemy w podrozdziale „Dźwięk 3D" znajdującym się na stronie 1029.

Dzięki interfejsowi DirectX, projektanci kart dźwiękowych i chipsetów mogą liczyć na to, że ich produkty będą poprawnie obsługiwane przez bieżące i przyszłe wersje Windows. Jeżeli natomiast wciąż korzystamy z gier dla środowiska MS-DOS. zapewnienie ich współpracy z nowymi kartami audio, chipsetami czy zintegrowanymi układami obsługi dźwięku może być znacznie utrudnione. Różnica między złączami rozszerzeń ISA, wykorzy­stywanymi przez tradycyjne karty dźwiękowe, a złączami PCI i rozwiązaniami zintegrowanymi jest ogromna.

^ ^ O współpracy urządzeń PCI z grami MS-DOS piszemy w podpunkcie „Problemy z grami dla systemu MS-DOS" znajdującym się na stronie 1018.

PC i multimedia — przegląd historyczny

Praktycznie każdy dostępny na rynku komputer jest obecnie wyposażony w jakiś kontroler audio oraz stację CD-ROM lub zgodną, jak CD-RW lub DVD. Komputery wyposażone w te dwa elementy określa się często mianem Multimedia PC. czyli multimedialny komputer osobisty. Jest to nawiązanie do nieaktualnych już stan­dardów MPC-1. MPC-2 i MPC-3, stosowanych do klasyfikowania komputerów, gdy „multimedialność" była jeszcze nowinką. Już w roku 1996 wszystkie komputery wyposażane w kartę audio i stację dysków optycz­nych znacznie przekroczyły wymagania klasy MPC-3.

Ponieważ specyfikacje MPC odnoszą się do coraz bardziej odległej przeszłości, użytkownikom, którzy inte­resują się bardziej przyszłością multimediów, należy polecić inne źródła. Firmy Microsoft i Intel wspólnie opracowały serię specyfikacji PC System Design Guide. Co prawda ostatnią wersją specyfikacji jest PC 2001 System Design Guide i nie są planowane jej aktualizacje, ale zarówno ona, jak i jej poprzednik — PC 99 System Design Guide — w dalszym ciągu stanowią wartościowy materiał referencyjny przy projektowaniu sprzętu i oprogramowania multimedialnego, a ponadto są powszechnie wykorzystywane w branży. Przykła­dowo standardu kodowania za pomocą kolorów, zawarty w specyfikacji PC 99 System Design Guide, wyko­rzystywany jest w większości portów wejścia-wyjścia nowszych komputerów.

Specyfikację PC 2001 System Design Guide i jej starsze wersje można pobrać ze strony internetowej Microsoftu (http://www.microsoft.com/whdc/system/platform/pcdesign/desguide/pcguides.mspx).

Aktualne informacje dotyczące projektowania komputerów, powiązane z produktami Microsoftu, znajdują się pod adresem http://www.microsoft.com/whdc/system/platfomi/pcdesign

Mimo że każdy współczesny komputer można określić mianem „multimedia PC", możliwości kontrolera audio wciąż mają istotne znaczenie dla zadowolenia użytkownika korzystającego z szerokiej gamy aplika­cji multimedialnych.

W dalszej części rozdziału dokładnie opiszemy cechy, jakich należy wymagać od tego urządzenia.

Cechy karty audio

Aby w trakcie zakupów podjąć rozsądną decyzję, niezbędna jest znajomość podstawowych składników karty dźwiękowej i pełnionych przez nią funkcji, jak również składników bardziej wyrafinowanych, w jakie wypo­sażone są urządzenia wyższej klasy. Omówimy teraz poszczególne z nich.

Złącza podstawowe

Większość kart audio ma ten sam zestaw podstawowych złączy. Gniazda minijack o średnicy 1/8 cala umoż­liwiają przekazanie generowanego przez kontroler sygnału do głośników, słuchawek lub zestawu stereo oraz odbieranie dźwięku z mikrofonu, odtwarzacza CD, magnetofonu lub, ponownie, zestawu stereo. Cztery rodza­je złączy, które każda karta powinna zawierać, przedstawione sana rysunku 16.1. Warto zauważyć, że także komputery z zintegrowaną kartą dźwiękową posiadają wszystkie lub część tych złączy.

0x08 graphic

Gniazda przedstawione na rysunku 16.1 są zazwyczaj opisane, małe literki czy piktogramy nie zawsze są jednak dobrze widoczne. Jedną z najbardziej typowych przyczyn całkowitego „milczenia" komputera jest przyłącze­nie głośników do niewłaściwego gniazda. Aby uniknąć tego problemu, w wielu popularnych kartach dźwię­kowych wykorzystuje się kolory opisane w specyfikacji PC 99 System Design Guide, dostępnej na stronie internetowej Microsoftu. Należy jednak być przygotowanym na odstępstwa lub brak podobnego oznako­wania. Oto omówienie złączy:

Jeżeli dostępne jest tylko jedno, uniwersalne złącze wyjściowe sygnału, aby uzyskać dobrą jakość dźwięku, niezbędne jest precyzyjne dobranie poziomu głośności dźwięku przesyłanego przez kartę i poziomu głośności głośników aktywnych (z wewnętrznym wzmacniaczem). Jeżeli jest to możliwe, należy unikać przyłączania głośników aktywnych do złącza oznaczonego jako złącze głośnikowe (co oznacza, że sygnał jest już wzmocniony, odpowiednio do wymagań głośników pasywnych).

♦ Wejście mikrofonowe mono {mic, różowe). Wejściowe złącze monofoniczne służy do przyłączania mikrofonu umożliwiającego nagrywanie na dysk komputera głosu lub innych dźwięków. Ponieważ nie jest to złącze stereo, nie można liczyć na uzyskanie za jego pomocą wysokiej jakości nagrań muzycznych. W wielu kartach wykorzystywana jest, polepszająca jakość nagrań, technika Automatic Gain Control (AGC, automatyczna regulacja wzmocnienia). Zapewnia ona dynamiczne sterownie poziomem nagrania. Zaleca się stosowanie mikrofonu dynamicznego bądź pojemnościowego 600 - 10 000 omów. W tańszych rozwiązaniach jako złącze mikrofonowe wykorzystuje się złącze wejścia sygnałowego.

Port gier (złote). Port gier (nazywany też złączem joysticka) to 15-stykowe złącze w kształcie litery D, do którego można przyłączyć dowolny, standardowy „manipulator drążkowy" lub inny kontroler gier. Niekiedy dopuszczalne jest podłączenie dwóch joysticków, po zakupieniu dodatkowego rozdzielacza. Niezależnie od złącza na karcie audio, wiele komputerów ma port joysticka zintegrowany z wielofunkcyjnym obwodem wejścia-wyjścia na płycie głównej lub karcie rozszerzeń (multifunction l/O). W takim przypadku warto zwrócić uwagę na to, z którego portu będzie korzystał system operacyjny lub aplikacja. Wiele nowych modeli kart audio nie zawiera złącza joysticka — najnowsze kontrolery gier korzystają ze złącza USB.

Złącze MIDI (złote). Jako złącze MIDI najczęściej wykorzystuje się złącze joysticka. Dwa z piętnastu styków przeznaczone są wówczas do komunikacji z zewnętrznym urządzeniem MIDI, którego najprostszym przykładem jest klawiatura muzyczna. W większości przypadków, aby przyłączyć urządzenie MIDI, trzeba zakupić dodatkowy kabel, którego jeden koniec wyposażony jest w 15-stykową wtyczkę, dopasowaną do gniazda karty, a drugi — w dwa 5-stykowe okrągłe złącza DIN, pasujące do gniazd urządzeń muzycznych, oraz trzecie, przeznaczone dla joysticka. Wysokiej klasy karty dźwiękowe wyposażone są w typowe, 5-stykowe złącza DIN, umieszczone na karcie pomocniczej lub zewnętrznym rozdzielaczu (patrz rysunek 16.3, dalej w tym rozdziale). Ponieważ sygnały joysticka i MIDI korzystają z osobnych styków, urządzenie muzyczne i kontroler gier mogą pozostawać stale podłączone. Złącze MIDI służy wyłącznie do przyłączania zewnętrznych urządzeń MIDI. Nie bierze ono żadnego udziału w odtwarzaniu, popularnych w sieci WWW, plików MIDI, których obsługę zapewnia wewnętrzny syntezator karty.

Niektóre nowsze systemy z kontrolerem audio na płycie głównej nie posiadają złącza joysticka/MIDI. Wówczas możemy korzystać z cyfrowych kontrolerów gier przyłączanych do złącza USB. Zastoso­wanie odpowiedniego interfejsu umożliwia przyłączanie do złącza USB również urządzeń MIDI.

Poza złączami zewnętrznymi, większość kart dźwiękowych wyposażonych jest w co najmniej jedno we­wnętrzne złącze CD-audio. Umożliwia on bezpośrednie połączenie karty ze stacją CD-ROM przy użyciu nie­pozornego 4-żyłowego kabla. Zapewnia on przekazywanie dźwięku tradycyjnych płyt muzycznych do karty audio i dalej, do głośników komputera. W części kart dźwiękowych używane jest inne złącze niż w napędzie CD-ROM, natomiast w pozostałych jest ono identyczne (rysunek 16.2).


0x08 graphic
Rysunek 16.2.

Typowy kabel

do przesyłania

dźwięku

analogowego,

przyłączany

do stacji

CD-ROM


Na rysunku 16.10 zamieszczonym w dalszej części rozdziału przedstawiono przykład typowej karty dźwiękowej, do której podłączono kable dźwięku analogowego i cyfrowego.

Istnieją dwie metody odtwarzania muzyki z płyt CD — cyfrowa i analogowa. Odtwarzanie analogowe jest obsługiwane przez kabel przesyłający dźwięk analogowy, podłączony do napędu i karty dźwiękowej. Przez tego typu kabel nie są przesyłane do magistrali systemowej dane z napędu CD-ROM. Zamiast tego łączy on wyjście dźwięku analogowego napędu CD-ROM bezpośrednio ze wzmacniaczem karty dźwiękowej. Jeśli za pomocą kabla nie połączy się ze sobą napędów i kart dźwiękowych stosowanych zwłaszcza w starszych komputerach, może nie być możliwe odtwarzanie muzyki z płyt CD lub usłyszenie części dźwięków w grach.

0x01 graphic

0x01 graphic

0x01 graphic

0x01 graphic

0x01 graphic

0x01 graphic

0x01 graphic



Wyszukiwarka

Podobne podstrony:
10 pyt od 901 do 1000, Nieruchomości, Nieruchomości - pośrednik
ROZSZERZANIE NUMERACJI DO 1000
1000 015id 11430
Wyprawa na polanę z 1000 letnim dębem, ZHP - przydatne dokumenty, Zbiórki pojedyncze
901
1000 024id 11439
BBY 1000 Darth Bane Droga Zagłady
Instrukcja CCD 2001 w 1000, A4, W2 04
08 SEPAM 2000 1000 100 KATALOGi Nieznany
1000 slowek Angielski z wymowai Nieznany
1000 023id 11438
901
BBY 1000 Bane of the Sith
Polskie ofiary II wojny światowej na 1000 Polaków zabito 220
1000 Trios Answer Key
1000 śmiesznych smsów

więcej podobnych podstron