Karty graficzne (4)


Karty graficzne, wspomagające lub przejmujące generowanie grafiki trójwymiarowej, są najszybciej - obok procesorów - rozwijającą się gałęzią komputerowego przemysłu. Producenci układów - rdzeni urządzeń odpowiedzialnych za tworzenie "przestrzennych" obrazów - prześcigają się w implementowaniu nowych funkcji w swoich chipsetach. Rok 2000 zapowiada się pod tym względem szczególnie interesująco.
 
     Obecnie nie liczy się tylko prędkość (określana jako fill-rate) przetwarzania danych, której efektem jest kolorowy obraz, wyświetlany na monitorze komputera. Równie istotna staje się liczba i wizualna atrakcyjność funkcji "wbudowanych" w procesor 3D. Projektantom układów wtórują programiści - twórcy gier komputerowych, wykorzystujących coraz bardziej zaawansowane operacje 3D. Żadna innowacja techniczna nie zaistniałaby bez odpowiedniego oprogramowania, wykorzystującego potencjał nowych rozwiązań. Siłę napędową rynku stanowią producenci dostarczający układy oraz programiści potrzebujący coraz nowszych możliwości oferowanych przez sprzęt. Dzięki nim odpowiednio zasobny "zjadacz komputerowego chleba" może się cieszyć wspaniałą grafiką przestrzenną, wyświetlaną na ekranie monitora. Warto się zatem przyjrzeć zapowiedziom nowych układów graficznych, których premiera zaplanowana została na bieżący rok.
 Ogłoszenie oficjalnej nazwy i udostępnienie specyfikacji technicznej procesora, znanego wcześniej pod kodową nazwą NV10, nastąpiło we wrześniu ubiegłego roku. Pierwsze modele kart graficznych trafiły na rynek konsumencki już w październiku. Opisywanie GeForce'a w kontekście innowacji mających mieć swoją premierę w roku 2000 jest jednak niezwykle istotne. NV10 zapoczątkował bowiem rewolucję, którą porównać można do wprowadzenia pierwszego układu akcelerującego generowanie grafiki 3D - 3dfx Voodoo Graphics (rok 1996). Podstawowym określeniem jest tutaj "akceleracja grafiki 3D", oznaczająca wsparcie tylko w ostatnich fazach renderingu - podczas ustawiania trójkątów na scenie (tzw. triangle setup) oraz rasteryzacji. Pozostałe, poprzedzające rasteryzację, etapy generowania grafiki wykonywane były przez procesor komputera, a nie specjalizowany układ na karcie. Chociaż istniały procesory przejmujące niektóre fazy powstawania obrazu 3D, np. przekształcanie geometrii, to - ze względu na wysoki koszt - były jednak przeznaczone niemal wyłącznie do profesjonalnych (głównie projektanckich), a nie "domowych" zastosowań.
     Nvidia promuje swój układ jako pierwszy GPU (Geometry Processing Unit - procesor geometrii), stanowczo odżegnując się od terminu akcelerator grafiki. Rewolucja rozpoczęta przez GeForce wiąże się zarówno z przejęciem przez kartę większości procesów renderingu, jak i obniżeniem kosztów całego kompleksowego rozwiązania. Użytkownicy zyskują bowiem, po obniżonej cenie, urządzenie o wydajności odpowiadającej lub nawet przewyższającej profesjonalne rozwiązania za część ich ceny. Co więcej, popularne interfejy programowe API, OpenGL i DirectX7 wykorzystują unikatowe możliwości GeForce'a, a producenci gier komputerowych zaczynają anonsować tytuły zoptymalizowane pod kątem T&L. Pod tym skrótem ukryta została cała magia układu NV10. Akronim ten rozszyfrowuje się jako "transform & lightning". T&L oznacza wykonywanie operacji związanych z przekształcaniem geometrii i wyliczaniem nowych map oświetlenia dla każdej generowanej sceny. Co dla użytkownika oznacza zabieg polegający na realizacji T&L przez układ na karcie graficznej, a nie przez procesor komputera? Po pierwsze - co wydaje się najbardziej oczywiste - odciążenie CPU od żmudnych obliczeń graficznych. Dzięki temu wolna moc procesora może zostać wykorzystana do obliczeń związanych z generowaniem świata gry. Efektem będzie bardziej szczegółowa animacja ruchów postaci czy dokładniejsze wyliczanie kolizji obiektów. Granice możliwości wykorzystania "uwolnionej" mocy CPU są wyznaczane przez twórców gier.
     Po drugie, wysoko specjalizowana jednostka T&L może operować na obiektach o znacznie bardziej złożonej geometrii. Nvidia opracowała dla GeForce'a specjalną aplikację (tzw. TechDemo), prezentującą możliwości nowego procesora. Program ten wyświetla między innymi bardzo szczegółowe modele samochodów. Ich płynna animacja nie jest możliwa nawet na najszybszych dotąd kartach 3D: RivaTNT2 Ultra czy Millennium G400 Max, jednak GeForce 256 radzi sobie z przekształceniem tak skomplikowanej geometrii bez najmniejszej "zadyszki". Sprzętowe wsparcie dla transformacji geometrycznych daje programistom możliwość umieszczania w grach znacznie bardziej niż dotychczas złożonych i realistycznych modeli 3D, bez ryzyka utraty spadku wydajności generowania grafiki.
     Również sprzętowe wyliczanie map oświetlenia ma bardzo ważne znaczenie dla zwiększenia wydajności i realizmu generowanych scen. Uproszczony sposób nakładania oświetlenia na scenę polega na wykorzystaniu predefiniowanej mapy świateł jako mapy otoczenia (environmental map) i łączeniu jej z podstawową teksturą obiektu. Metoda ta jest bardzo wygodna w użyciu, dlatego stosowana jest również przez układy poprzedniej generacji (G400, TNT, Voodoo3). Dodatkowe przyśpieszenie uzyskuje się, stosując dwie jednostki teksturujące - mówi się wtedy o multiteksturowaniu, czyli nakładaniu dwóch map w jednym cyklu procesora. Problem pojawia się w momencie, w którym światła na scenie stają się obiektami dynamicznymi - poruszają się, zmieniają barwę lub jasność. Zachodzi wtedy konieczność wyliczenia nowej mapy oświetlenia dla każdej następnej tworzonej ramki obrazu. Podobnie jak transformacja geometrii, ten etap generowania sceny wymaga skomplikowanych przekształceń matematycznych. GeForce 256 jest w stanie obsłużyć do ośmiu punktowych źródeł światła. O tym, jak duże znaczenie dla wiarygodności obrazu ma odpowiednio dobrane oświetlenie, można się przekonać, oglądając zamieszoną wyżej, wyrenderowaną sprzętowo scenę.
     GeForce 256 wprowadza także innowację w zakresie nakładania na obiekt mapy otoczenia. Zastosowanie sześciu, zamiast jednej, takich map pozwala na uniknięcie niepożądanych zniekształceń, występujących w sytuacji, w której obiekt przemieszcza się na scenie. Metoda NV10 określana jest jako Cube Environmental Mapping (kubiczne mapowanie otoczenia). Z innych zaimplementowanych funkcji warto wspomnieć o obsłudze kompresowanych tekstur w formacie S3TC (o czym w dalszej części artykułu), wprowadzenie bump-mappingu typu Dot3 oraz sprzętowe wsparcie dla kompensacji ruchu podczas odtwarzanych filmów MPEG.
     Z wprowadzeniem GeForce'a wiąże się jeszcze jeden wydajnościowy aspekt. Według producenta NV10 charakteryzuje się maksymalnym fill-rate rzędu 480 milionów tekseli/s. Czasem jednak, zwłaszcza kiedy obraz generowany jest w wysokich rozdzielczościach (od 1024Ą768 wzwyż) przy 32-bitowym kolorze, a scena wykorzystuje wiele megabajtów tekstur, może się okazać, że procesor graficzny oczekuje na dane z pamięci, której przepustowość jest ograniczona. Dlatego opracowano nowy rodzaj kości, określanych mianem DDR (Double Data Rate). Udoskonalenie w stosunku do dotychczas stosowanych układów SDR (Single Data Rate) polega na transmisji danych dwukrotnie podczas każdego sygnału taktującego. Rezultatem jest podwojenie dostępnej przepustowości. W praktyce jednak, ze względu na umieszczanie części tekstur w pamięci głównej komputera, efektywny wzrost wydajności dochodzi "tylko" do 40%. W tym przypadku rozwiązaniem może okazać się zwiększenie pamięci lokalnej na karcie z obecnie stosowanych 32 MB do nawet 128 MB.

Pierwszą odpowiedzią ze strony konkurencji Nvidii jest procesor Savage 2000 produkcji firmy S3. Układ, podobnie jak GeForce, wyposażono w jednostkę obliczeniową T&L. Różnice pojawiają się dopiero w późniejszym porównaniu możliwości obu kości. Savage 2000 nie ma zaimplementowanego mapowania kubicznego oraz posługuje się prostszą metodą bump-mappingu - embossingiem ("tłoczeniem"). Brak tych cech równoważą jednak inne: wyższy fill-rate (na poziomie ponad 700 milionów tekseli/s) oraz sprzętowa kompresja tekstur S3TC. Odmienność między GeForce i Savage 2000 w wykorzystaniu S3TC polega na sposobie jej implementacji: NV10 używa tylko wcześniej wygenerowane tekstury, podczas gdy procesor S3 może sam spakować mapy niezbędne do wyrenderowania sceny. W praktyce oznacza to, że Savage 2000 będzie mógł obsługiwać S3TC w każdej grze, a GeForce - tylko w specjalnie przystosowanych programach. Cecha ta w prosty sposób wpływa na wydajność: przewaga Savage'a 2000 ujawni się dopiero w najwyższych rozdzielczościach (1600Ą1200), kiedy większość tekstur bez stosowania kompresji będzie musiała zostać umieszczona w pamięci komputera, przez co dostęp do nich będzie znacznie wolniejszy. Przeciętne upakowanie map w stosunku 8:1 umożliwia załadowanie większości wymaganych obrazów do lokalnej pamięci karty, dzięki czemu w procesie rasteryzacji procesor graficzny będzie je mógł szybciej pobierać. Niestety, w trakcie tworzenia tego tekstu karta Diamond Viper II, bazująca na układzie Savage 2000, nie była jeszcze dostępna, dlatego na zweryfikowanie tej tezy przyjdzie nam jeszcze trochę poczekać.
     S3 Savage 2000 konkuruje z GeForcem także cenowo. Karty z procesorem NV10 kosztują około 300 dolarów, natomiast Diamond Viper II - niecałe 200. Przypuszczalnie wymusi to istotną dla konsumentów obniżkę cen u Nvidii i związanych z nią producentach kart graficznych.

Premiera następcy Voodoo3 została przełożona z listopada 1999 na pierwszy kwartał 2000 roku. Nowy układ, znany poprzednio jako Napalm, niesie ze sobą wiele innowacji w stosunku do swojego poprzednika. VSA-100 ma generować grafikę w 32 bitach oraz wykorzystywać w tym celu tekstury w maksymalnej rozdzielczości 2048Ą2048 punktów - obie cechy są już standardem implementowanym od dość dawna w innych procesorach. Nowy układ ma być też zgodny z magistralą AGP 4x, jednak - co dla procesorów 3dfx jest normą - w celu umieszczenia tekstur w pamięci głównej komputera nie będzie on wykorzystywał trybu "execute". Znany z akceleratorów Voodoo2 tryb SLI (Scan-line Interleave) znajdzie zastosowanie również dla kości VSA-100. Na jednej karcie, w zależności od modelu, znajdzie się od jednego do czterech układów VSA-100. Fill-rate pojedynczej kości określany jest na poziomie 333-367 megapikseli/s. 3dfx proponuje również nową technikę kompresji - FXT1. Trudno przewidzieć, czy ten format zostanie przyjęty, zwłaszcza że w pakiecie DirectX 7 jest miejsce na dwa inne standardy: S3TC oraz DXT.
     Do generowania sceny układ Napalm będzie wykorzystywał technikę bufora akumulacyjnego, nazwaną T-Buffer. Niestety, zostanie ona zastosowana tylko w wieloprocesorowych wersjach kart. Mechanizm działania tego bufora polega na wielokrotnym łączeniu ze sobą kilku wygenerowanych wcześniej elementów obrazu. Najbardziej istotnym efektem, możliwym do uzyskania dzięki wykorzystaniu T-bufora, jest pełny, poprawny antyaliasing. Wygładzanie brzegów obiektów oferują wprawdzie i inne układy graficzne, jednak stosują pewne uproszczenia, z powodu których zwłaszcza cienkie, ukośne krawędzie są w dalszym ciągu poprzerywane i bardzo postrzępione.
     Inne efekty graficzne, oferowane przez VSA-100, są konsekwencją wykorzystania T-bufora. Motion Blur ("rozmycie ruchu") jest funkcją przydatną dla zapewnienia bardziej płynnej animacji wyświetlanych na ekranie obiektów. Poruszające się elementy na kolejnych powstających ramkach obrazu są lekko rozmywane, co sprawia, że wydaje się, iż są w nieustannym ruchu. Kolejny efekt - Depth Of Field ("głębokość pola") - stosowany jest często przez twórców filmów: kamera pokazuje wyostrzony detal, na który reżyser chce zwrócić szczególną uwagę. Reszta, mniej istotna w danej chwili część obrazu, jest w różnym stopniu rozmywana - w zależności od odległości. Soft Shadows ("miękkie cienie") umożliwia wygenerowanie bardziej realistycznych cieni, a Reflectance Blur ("rozmycie odbić") powoduje powstawanie na błyszczących powierzchniach rozmywających się odbić, obiektów znajdujących się w pobliżu. Wszystkie opisane efekty sprawią, że renderowana scena będzie wyjątkowo realistyczna.
     Karty 3dfx będą sprzedawane w wersjach przeznaczonych dla magistrali PCI i AGP. Najprostsze modele Voodoo4, wyposażone w jeden procesor VSA-100, mają kosztować 179 dolarów. Koszt najdroższej wersji z czterema układami ustalony został na 599 dolarów. Biorąc pod uwagę brak sprzętowego T&L, sama implementacja nowych efektów wizualnych nie tłumaczy aż tak wysokiej ceny najpotężniejszego modelu, zwłaszcza że w obliczu braku pełnego wsparcia AGP trudno spekulować o wydajności przyszłych produktów. Zważywszy na około sześciomiesięczny cykl produkcyjny Nvidii, w momencie wprowadzenia na rynek kart z układm VSA-100 równolegle pojawi się z pewnością udoskonalona i szybsza wersja NV10, znacznie bardziej atrakcyjna cenowo.

Jeżeli okazuje się, że moc obliczeniowa karty przestaje wystarczać do obsługi coraz bardziej wymagających gier, jedynym rozwiązaniem nie musi być jej wymiana. Wydajność generowania obrazów w grach 3D można podnieść innymi, praktycznie bezpłatnymi metodami.
 
     Zbiór wszystkich operacji, których celem jest zwiększenie wydajności karty graficznej w grach 3D, można umownie podzielić na dwie grupy. Pierwsza z nich obejmuje czynności całkowicie bezpieczne dla karty, jak choćby odpowiednią optymalizację sterowników. Do drugiej należy zaliczyć wiążące się z pewnym ryzykiem zmiany częstotliwości pracy poszczególnych elementów urządzenia - procesora i pamięci. Ustawienie zbyt wygórowanych parametrów sterujących zegarami taktującymi oba wymienione elementy może bowiem doprowadzić do utraty gwarancji czy nawet fizycznego uszkodzenia karty graficznej.
     
Bezpieczne drogi
Zwiększanie osiągów karty graficznej należy rozpocząć od odpowiedniego ustalenia opcji sterowników, w znacznej mierze odpowiedzialnych za prędkość generowania grafiki 3D. Okazuje się, że sama tylko zmiana ustawień w driverach może zwiększyć wydajność renderingu nawet o 10-15%.
     W dziedzinie optymalizacji sterowników w najlepszej sytuacji znajdują się użytkownicy urządzeń z procesorami firm 3dfx, ATI i Nvidia. Standardowe oprogramowanie, rozprowadzane razem z kartami graficznymi tych producentów, udostępnia szereg parametrów związanych z generowaniem i wyświetlaniem grafiki.
     Innym bezpiecznym sposobem na poprawienie prędkości karty graficznej jest instalacja sterowników zoptymalizowanych przez miłośników wszelkiego rodzaju "dłubania" w ustawieniach oprogramowania. Z Internetu można bezpłatnie pobrać pliki dla kart Nvidia Riva TNT/TNT2 oraz S3 Savage. Dla modeli z procesorami z serii Riva TNT przygotowany został pakiet sterowników bazujących na aktualnym oprogramowaniu referencyjnym Nvidii w wersji 2.xx, uzupełnionym dodatkowo nowymi wersjami BIOS-ów dla tych kart, programem TNTClk, regulującym szybkość pracy procesora i pamięci, oraz innymi, małymi, lecz przydatnymi aplikacjami. Podczas instalacji, w zależności od posiadanego komputera, drivery te są automatycznie optymalizowane w celu maksymalizacji osiągów karty graficznej, nie ma więc potrzeby późniejszej, ręcznej zmiany parametrów.
     Podobny pakiet wykonany został dla urządzeń S3. Oryginalne, firmowe sterowniki tego producenta nie udostępniają opcji mogących mieć wpływ na wydajność karty, dlatego sterowniki Fachmanna (autora wielu programowych przeróbek zwiększających wydajność urządzeń) uzupełnione są programem S3Tweak. Aplikacja ta umożliwia regulację wielu parametrów pracy, nie tylko związanych z generowaniem i wyświetlaniem obrazu. S3Tweak okazuje się także narzędziem pomocnym w rozwiązywaniu ewentualnych konfliktów między kartą graficzną a innymi podzespołami komputera, głównie płytą główną. Ponadto do programu dołączono plik zawierający szereg predefiniowanych ustawień, optymalizujących kartę pod kątem pracy z popularnymi grami 3D i aplikacjami testującymi wydajność renderingu - tzw. benchmarkami.
     
Zalety i wady synchronizacji
Każda karta graficzna generuje kolejne obrazy 3D (ramki) do dwóch lub trzech buforów (tzw. podwójne lub potrójne buforowanie), umieszczonych w lokalnej pamięci urządzenia. Taki sposób pracy ma zapewnić płynną prezentację na ekranie następujących po sobie obrazów. Standardowo każda wygenerowana ramka oczekuje w buforze na powrót wiązki elektronów kineskopu monitora do lewego górnego rogu ekranu. Inaczej mówiąc, wyświetlanie kolejnych obrazów jest synchronizowane z częstotliwością pionową monitora. Jeżeli odświeża on ekran z szybkością 75 Hz, wówczas karta wyświetli maksymalnie 75 ramek na sekundę - chociaż jej wydajność może być większa. Wyłączenie synchronizacji pionowej (VSync) spowoduje projekcję kolejnych obrazów bez oczekiwania na powrót wiązki. Umożliwia to przekroczenie ustalonej dla danej rozdzielczości granicy odświeżania. Co więcej, wyłączenie synchronizacji może wywołać wzrost wydajności nawet wtedy, gdy karta graficzna nie generuje ramek z szybkością większą od częstotliwości odświeżania monitora.

Regulacja szybkości taktowania kart z układami TNT/TNT2/GeForce 256 możliwa jest z poziomu sterowników. Użytkownicy akceleratorów z innymi procesorami będą musieli skorzystać z dodatkowego, na ogół bezpłatnego, oprogramowania

0x01 graphic


     Większość współczesnych kart umożliwia wyłączenie synchronizacji pionowej z poziomu sterowników, jednak wygodniejsze może okazać się użycie aplikacji Performance Tuner, dającej natychmiastowy dostęp do odpowiedniego parametru - niezależnie od rodzaju urządzenia. Brak synchronizacji prowadzi do podniesienia wydajności średnio o ok. 15%.
     Niestety, wyłączenie VSync powoduje na ogół niekorzystne efekty wizualne. Jednym z nich może być migotanie ekranu, objawiające się głównie w starszych modelach kart graficznych. Innym bardzo często występującym efektem jest złożenie jednego wyświetlonego obrazu z dwóch części następujących po sobie ramek, nieco przesuniętych względem siebie. Taka sytuacja może spowodować dostrzegalną, poziomą linię, rozdzielającą oba segmenty obrazu.
     Nie należy się łudzić, że dobrym rozwiązaniem jest zwiększenie szybkości odświeżania monitora dla uniknięcia wyłączania VSync i tym samym wspomnianych wcześniej graficznych "zakłóceń". Zwiększenie częstotliwości pionowej powoduje częstsze odwoływanie się układu RAMDAC do pamięci karty, czego efektem jest obniżenie wydajności procesora graficznego. Dlatego najlepsze efekty daje dezaktywacja synchronizacji pionowej i ustawienie rozsądnej, jednak ergonomicznej częstotliwości odświeżania ekranu - na poziomie 75-85 Hz.
 

Sterowniki niektórych kart graficznych umożliwiają zarządzanie bardziej zaawansowanymi parametrami generowania i wyświetlania trójwymiarowej grafiki. W ich przypadku nie występuje więc konieczność instalowania dodatkowego oprogramowania, regulującego pracę kontrolerów graficznych.
     Poniżej prezentujemy sposób optymalizacji driverów kart z procesorami Nvidii Riva TNT/TNT2/GeForce 256, 3dfx Voodoo3 oraz ATI Rage 128.

0x01 graphic

Powyższe ustawienia dotyczą sterowników referencyjnych w wersji 3.xx, przeznaczonych przede wszystkim dla kart GeForce, jednak większość opcji występuje również w starszych (1.xx i 2.xx) wersjach driverów. Panel sterujący oprogramowaniem Nvidii ma dodatkowe karty, dzięki którym istnieje możliwość wyłączenia synchronizacji pionowej oraz "podkręcenia" zegarów taktujących kartę. Niezbędne jest jednak utworzenie odpowiedniego wpisu w rejestrze, aktywującego "ukryte" opcje sterowników:

0x01 graphic

0x01 graphic

Dla kart Voodoo opracowany został alternatywny sterownik dla MiniGL. WickedGL znajduje zastosowanie w grach z serii Quake i podobnych, wykorzystujących API OpenGL. Zapewnia on o ok. 15% większą wydajność od swojego pierwowzoru. Program ten można bezpłatnie pobrać z Internetu. Posiadacze uproszczonej - przez co tańszej - wersji Voodoo3, karty 3dfx Velocity 100, mogą dodatkowo zwiększyć osiągi w trybach OpenGL/Glide dzięki uaktywnieniu drugiej jednostki teksturującej, programowo wyłączonej przez sterowniki. Aby tego dokonać, w rejestrze HKEY_LOCAL_MACHINE | System | CurrentControlSet | Services | Class | Display | 0000 | Glide ustawić należy wartość klucza FX_GLIDE_NUM_TMU na 2.

0x01 graphic

Opcje te dostępne są standardowo na kartach sterowników urządzeń bazujących na układzie ATI Rage 128. Użytkownicy odpowiednich modeli powinni jednak zainstalować dodatkowo aplikację Rage 128 Tweaker umożliwiającą zwiększenie częstotliwości zegarów taktujących procesor i pamięć oraz dającą dostęp do kilku parametrów nie pojawiających się standardowo w driverach (np. włączenie wykorzystania instrukcji Pentium III). Rage 128 Tweaker ma również kilka wygodnych predefiniowanych ustawień, np. optymalizację

Właściwa konfiguracja komputera może zwiększyć jego wydajność nawet o kilkadziesiąt procent. Niestety, najczęściej podczas overclockingu zapominamy o BIOS-ie. Jego ustawienia, w przeciwieństwie do wielu aplikacji służących do zwiększania wydajności, nie wymagają żadnych dodatkowych programów.
 
     BIOS (Basic Input/Output System) znajduje się w każdym komputerze. Najczęściej "zamknięty" jest w małej kostce umieszczonej na płycie głównej. Podczas każdorazowego startu peceta BIOS, odpowiedzialny za prawidłową pracę wszystkich zainstalowanych komponentów, wykonuje szereg testów oraz ustala podstawowe parametry pracy. Okazuje się jednak, że jego zła konfiguracja może niekorzystnie wpłynąć na wydajność całego systemu. Aby pomóc mniej wtajemniczonym, prezentujemy listę najważniejszych opcji decydujących o łatwości instalacji kolejnych napędów, możliwości zdalnego "budzenia" komutera oraz jego wydajności.
     Przed przystąpieniem do zmiany ustawień, o ile jest to możliwe, warto wykonać aktualizację bieżącej wersji BIOS-u. Niezbędne pliki udostępniają na swoich stronach producenci wszystkich płyt głównych. Przed ściągnięciem nowych zbiorów należy jednak dokładnie sprawdzić wersję posiadanej płyty głównej, gdyż różnice nawet w ostatniej literze jej oznaczenia (np. P2B-F, P2B-B, P2B-L) mają istotne znacznie, a pliki do innej wersji płyty niż ta, którą mamy - o ile w ogóle dadzą się "załadować" - spowodują, że przestanie ona działać. Podczas pobierania nowszej wersji plików należy również zadbać o odpowiedni program, który umożliwi zamianę istniejącego BIOS-u. Niezbędne informacje zawarte są zwykle przy uaktualnieniach konkretnych modeli płyt głównych. Często zdarza się nawet, że ściągane pliki zawierają już odpowiednią wersję "flashera". Na przykład dla systemów wyprodukowanych przez firmę Award plik programujący kostkę z BIOS-em nazywa się awdflash.exe. Związek nazwy programu z nazwą producenta nie jest jednak regułą. Większość udostępnianych obecnie pakietów poza nowym BIOS-em i programem uaktualniającym go zawiera także plik z opisem kolejnych etapów postępowania. Niestety, największym niebezpieczeństwem podczas procesu ładowania nowej wersji jest zanik zasilania. Niezapisany w pełni system nie będzie pracował, płyty zaś nie da się uruchomić.

Jeżeli tak się już stanie, możliwe są dwie metody rozwiązania problemu. Po pierwsze, można zgłosić się do serwisu komputerowego i poprosić o wymianę uszkodzonego układu bądź zapis BIOS-u na dostarczonej kostce. Najczęściej nie jest ona wlutowana na stałe w płytę główną i daje się stosunkowo łatwo wyciągnąć. Niestety, zarówno wymiana modułu, jak i jego aktualizacja w serwisie kosztuje ok. 50-100 zł. Istnieje również tańsze, choć bardziej ryzykowne rozwiązanie. Jeżeli mamy dostęp do płyty, na której zainstalowano taką samą kostkę z BIOS-em (ten sam model bądź inny, jednak z takim samym układem) można uaktualnić ją w drugiej płycie. W kolejnych etapach operacji powinniśmy:
- włączyć sprawny komputer i uruchomić program do aktualizacji BIOS-u (pamiętać należy, aby użyć właściwego "flashera" i zbióru z nowym BIOS-em),
- przy włączonym komputerze wyciągnąć sprawny BIOS i w jego miejsce wstawić niedziałającą kostkę,
- uruchomić procedurę aktualizacyjną,
- po prawidłowym załadowaniu nowej wersji systemu do układu wyłączyć komputer,
- do komputera, na którym wykonywano aktualizację, włożyć jego BIOS, do własnego zaś zaktualizowaną właśnie wersję.
     Jeśli aktualizacja odbyła się bez problemów, płyta główna powinna współpracować ze zaktualizowaną wersją BIOS-u. Niestety, ze względu na duże ryzyko uszkodzenia płyty ("operacja" odbywa się na działającym systemie) opisany zabieg polecamy jedynie doświadczonym użytkownikom zaznajomionym z wewnętrzną konstrukcją komputera.

Znajomość kilku opcji BIOS-u umożliwia dopasowanie komputera do własnych wymagań oraz zwiększenie jego wydajności.

Pierwsza grupa opcji zawiera m.in. informacje dotyczące dysków. Wyłączenie dyskietki spowoduje zabezpieczenie komputera przed niepowołanym kopiowaniem danych. Ustawienie dysków na wykrywanie automatyczne ułatwia zaś podłączanie kolejnych napędów - np. umieszczonych w przenośnej kieszeni

0x01 graphic


     Ustawienie napędów dysków twardych na automatyczne wykrywanie podczas każdego startu systemu wydłuża proces uruchomienia komputera. Zyskać można jednak bezproblemowe podłączanie dodatkowych dysków.

Niektóre płyty główne umożliwiają zmianę zegara taktującego procesor z poziomu BIOS-u. Ponieważ mnożnik zablokowany jest przez producentów procesorów, zmieniać można jedynie częstotliwość magistrali. Należy pamiętać również o włączeniu obu poziomów (L1, L2) pamięci cache

0x01 graphic


     Użyteczna okazuje się również funkcja BIOS update. Po jej wyłączeniu (Disabled) unikniemy przypadkowej aktualizacji zawartości BIOS-u, w tym również niepożądanej próby jego modyfikacji, np. przez komputerowego wirusa. Oczywiście na czas aktualizacji BIOS-u opcję należy włączyć, umożliwiając zapis pamięci Flash.

Choć parametry pracy pamięci mogą być dobierane przez moduł SPD, warto przetestować inne ustawienia SDRAM-ów. Może się okazać, że pracują one stablinie nawet przy niższych cyklach oczekiwania, niż proponuje "automat" - np. z 3T, 2T, 2T przejść można czasem na 2T, 1T, 1T

0x01 graphic


     Funkcja Graphics Aperture Size (często oznaczana też jako AGP size) umożliwia zdefiniowanie wielkości podstawowej pamięci roboczej RAM, jaką wykorzystać może w razie potrzeby karta AGP. Wartość ta nie powinna przekraczać połowy zainstalowanej pamięci RAM. Gdy korzystamy z karty graficznej PCI, ustawienia tej opcji nie mają znaczenia.

Niektóre karty, szczególnie starsze modele niezgodne ze standardem Plug and Play, powodują często konflikty sprzętowe. Rozwiązaniem problemu może być stałe przypisanie numerów przerwań do konkretnych slotów. Zainstalowane w nich karty będą wówczas korzystały tylko z przydzielonych im zasobów

0x01 graphic


     Jeżeli w systemie zainstalowanych jest wiele kart rozszerzających, występuje duże prawdopodobieństwo, że niektóre z nich będą współdzielić zasoby systemowe - np. przerwania (IRQ). Aby temu zaradzić, najczęściej wystarczy stałe przypisanie przerwań do slotów PCI i ISA. Wielu użytkowników nie wykorzystuje również żadnych urządzeń USB. Można zatem zrezygnować z przerwania przypisywanego do obsługi tej magistrali. W tym celu opcję USB IRQ należy wyłączyć (Disabled).

Nowe systemy obsługują wiele trybów oszczędzania energii. Niektóre z nich polegają na uśpieniu komputera po wyznaczonym okresie nieaktywności. "Podniesienie" systemu z takiego stanu możliwe jest m.in. za pomocą modemu, karty sieciowej oraz myszy i klawiatury

0x01 graphic


     Okazuje się, że komputer może działać również jako budzik! Po odpowiednim ustawieniu opcji Automatic Power Up system uruchomi w dowolnym dniu bieżącego miesiąca o wyznaczonej porze. Możliwe jest również zdefiniowanie stałej pory, o której codziennie uruchamiany będzie system. Niestety, funkcja ta działa jedynie na płytach ATX.

Większość komputerów umożliwia niemal dowolny wybór napędów dysków twardych, wymiennych i czytników CD-ROM bądź DVD-ROM, z których startować będzie system. Wśród dyskietek obsługiwane są nawet nietypowe nośniki LS120 (dyskietka o pojemności 120 MB), ZIP-100 (100 MB) i dowolny napęd magnetooptyczny (MO) ATAPI

0x01 graphic



Wyszukiwarka

Podobne podstrony:
Karty Graficzne wesołowski
Karty Graficzna UTK
Karty graficzne cd
KARTY GRAFICZNE
11 Karty graficzne
karty graficznej, Przydatne do Szkoły Technik Informatyk;)
Karty Graficzne
Karty graficzne i karty dźwiękowe - dla początkujących, Studia, Informatyka, Informatyka, Informatyk
Karty Graficzne
Karty Graficzne klakier
Budowa karty graficznej
karty graficzne
karty graficzne
Wybor karty graficznej, instalacja i konfiguracja
Karty graficzne, informatyka, utk
Karty Graficzne
Karty graficzne
Karty Graficzne
10 porad które ułatwią zakup karty graficznej

więcej podobnych podstron