karty graficzne


Dwudziestego sierpnia minęło dwadzieścia lat od chwili, gdy trzech obywateli Hongkongu - K.Y. Ho, Benny Lau i Lee Lau - założyło w Kanadzie firmę Array Technology Inc., znaną dziś wszystkim pod nazwą ATI. Myślę, że ta rocznica to dobry pretekst, by przypomnieć sobie, jak na przestrzeni lat zmieniały się karty i akceleratory graficzne, montowane w naszych pecetach.
 
Zaczęło się od liter
Na początku sierpnia 1981 roku wraz z narodzinami IBM-a 5150 - 0x01 graphic
protoplasty dzisiejszych pecetów - światło dzienne ujrzała pierwsza karta graficzna. Urządzenie to, oznaczone symbolem MDA (Monochrome Display Adapter), potrafiło wyświetlić 25 wierszy tekstu po 80 znaków każdy i korzystało z ośmiobitowej szyny ISA. Konstruktorzy IBM-a 5150 niesłusznie założyli, że ich maszyny wykorzystywane będą niemal wyłącznie w biurach. Dlatego też początkowo w ogóle nie przewidzieli opcji wyświetlania grafiki. Szybko okazało się jednak, że komputerami PC interesują się również użytkownicy indywidualni, którzy chcieli grać. IBM naprawił swój błąd i w niecałe dwa miesiące po premierze peceta na rynku pojawiła się pierwsza karta graficzna z prawdziwego zdarzenia - CGA (Color Graphics Adapter).
      Pradziadek dzisiejszych akceleratorów wyposażony był w 16-kilobajtowy bufor ramki i oprócz trybów tekstowych, co ciekawe, niezgodnych z MDA, oferował dwa tryby graficzne. W pierwszym z nich był w stanie wyświetlić 320x200 punków przy "zawrotnej" liczbie czterech kolorów wybieranych z dwóch palet. Pierwsza zawierała barwy: białą, czarną, różową i jasnoniebieską, druga zaś kolory żółty, czarny, zielony i czerwony. Karty CGA oferowały też tryb wysokiej rozdzielczości 640x200 punktów, wykorzystujący dwa kolory - czarny i biały.

Od Herculesa do SVGA
Osoby, które swoją przygodę z komputerami PC zaczynały w końcu lat 80., dobrze pamiętają montowane wówczas karty graficzne HGC (Hercules Graphics Controller), określane, od nazwy firmy, która opracowała ten standard, "Herkulesami". Swój przełomowy produkt Hercules zaprezentował w 1982 roku. Wszystkie klony Herculesa były w stanie pracować w monochromatycznym trybie 720x348 punktów, a dzięki specjalnym programowym emulatorom udawały też CGA. Oczywiście nie było wówczas mowy o kolorach, niemniej gry napisane na CGA działały na Herculesach bardzo dobrze.
      Popularności standardowi HGC nie odebrała ani na chwilę opracowana w 1984 roku przez IBM-a karta EGA (Enhanced Graphics Adapter). Była ona zgodna z CGA i MDA, ale do swojej pracy wymagała specjalnego, drogiego monitora. Wprowadzono w niej dwa nowe tryby graficzne - 320x200 i 640x350 pikseli, mogące wyświetlać jednocześnie 16 barw wybranych z 64-kolorowej palety. Prawdziwym przełomem w komputerowej grafice okazał się opracowany w 1987 roku w laboratoriach IBM-a standard VGA (Video Graphics Array). Karty VGA oprócz sprzętowej zgodności z MDA, CGA i EGA (ale nie z Herculesem) oferowały dwa nowe tryby pracy - 320x200 pikseli przy 256 kolorach i 640x480 punktów wyświetlający 16 kolorów. To tę ostatnią rozdzielczość obsługiwał do niedawna niemal każdy system operacyjny. Karty VGA wyposażone też były w zawrotną jak na owe czasy 256-kilobajtową pamięć wideo.

VGA dość szybko uznano za obowiązujący standard, a producenci kart graficznych rozpoczęli wyścig o to, kto więcej z karty wyciśnie pikseli i kolorów. Na rynku pojawiały się niekompatybilne ze sobą konstrukcje, określane wspólnym mianem SVGA (Super VGA), oferujące tryby 800x600, 1024x768, a nawet 1280x1024 punkty i pracujące z 16, 256 bądź 16 384 barwami. By uporządkować rynek, najwięksi producenci monitorów i kart graficznych powołali organizację VESA (Video Electronics Standards Association), która od 1989 roku odpowiada za standaryzację wszystkich graficznych trybów pracy, definiując rozdzielczości i dostępne kolory.

Akceleratory i złącza

      Za przykładem IBM-a poszli inni producenci kości i kart graficznych. Na przełomie lat 80. i 90. pojawiło się mnóstwo układów wspomagających wyświetlanie grafiki 2D. W ich produkcji przodowała firma S3. Wiele osób z pewnością pamięta jej akceleratory z serii Vision 868 i Vision 968 oraz późniejsze Trio32 i Trio64. Wśród udanych konstrukcji z pierwszej połowy lat 90. wymienić należy kości ATI Mach32 z 1992 roku, dwa lata młodszą ATI Mach64 oraz bardzo popularne w Polsce konstrukcje bazujące na chipie Trident TGUI 9680. Czas na trzeci wymiar
Pierwszym układem, w którym zaimplementowano wspomaganie wyświetlania trójwymiarowych obrazów, była kość MGA-2064W, produkowana przez firmę Matrox od końca 1994 roku. Ten wykorzystywany w profesjonalnych kartach z serii Millennium chip potrafił m.in. cieniować przestrzenne bryły metodą Gourauda, nakładać tekstury i eliminować niewidoczne obszary, wykorzystując Z-bufor.

  W 1995 roku zadebiutował pierwszy przeznaczony dla graczy układ 3D - NV1 Nvidii. Zastosowała go firma Diamond w karcie Edge3D. Karta ta nie zdobyła jednak popularności ze względu na swoją bardzo wysoką cenę. Pod koniec 1995 roku pojawiły się dwie pierwsze trójwymiarowe karty graficzne, na które mógł sobie pozwolić zwykły użytkownik - S3 ViRGE (Video and Rendering Graphics Engine) oraz ATI Rage 3D. Niestety, każda z nich miała swój własny interfejs programowy, przez co gry napisane na jedną kartę nie działały na drugiej i odwrotnie.
      Problemowi niekompatybilności kart graficznych postanowił zaradzić Microsoft i wzbogacił programowy interfejs DirectX z systemu Windows o nowy komponent - Direct3D. Dzięki niemu wszystkie windowsowe gry działały już niezależnie od zainstalowanej w pececie karty - pod jednym warunkiem: producent karty musiał wraz z nią dostarczyć odpowiednie sterowniki. Podobnego ujednolicenia funkcji 3D podjęło się założone w 1992 0x08 graphic
roku przez firmę SGI zrzeszenie producentów promujących standard

Wszystkie opisane dotąd karty graficzne to tzw. bufory ramki - wyświetlały one na ekranie monitora punkty o określonych przez procesor współrzędnych. Pierwszym akceleratorem był IBM 8514/A z 1988 roku, który sprzętowo przyspieszał rysowanie prostokątów, linii o zadanym punkcie początkowym i końcowym oraz wypełnianie obszarów zamkniętych. Sprzętowa realizacja tych operacji stała się niezbędna do przyspieszenia działania graficznych systemów operacyjnych, takich jak opracowywane wówczas Microsoft Windows i IBM OS/2.
Wraz z rozwojem kart graficznych zmieniała się również używana przez nie magistrala. Początkowo wykorzystywano ośmiobitowe złącze ISA, które szybko okazało się niewystarczające. Karty zaczęto więc montować w 16-bitowej wersji tego slotu, a wraz z pojawieniem się procesorów 486, w 32-bitowym gnieździe VESA Local Bus (VLB). Ta ostatnia magistrala była "przedłużeniem" wyprowadzeń procesora, co przyspieszało generowanie grafiki, ale też zmniejszało elastyczność konstrukcji peceta. Z pierwszymi procesorami Pentium pojawiła się szybka jak na owe czasy magistrala PCI o przepustowości 132 MB/s - to właśnie z jej potencjału zaczęły korzystać pierwsze akceleratory 3D.

OpenGL (Open Graphics Library).

Magia Voodoo
Akceleratorem 3D, który wywołał trójwymiarową rewolucję, był legendarny już dziś Voodoo firmy 3dfx. Pojawił się on na rynku w sierpniu 1996 roku i był niemal trzykrotnie szybszy od ViRGE'a. Co więcej, jakość generowanego obrazu dosłownie zwalała wówczas z nóg. Voodoo skonstruowany został dość nietypowo - był on jedynie "dopalaczem" grafiki 3D, który do działania wymagał zwykłej karty SVGA (urządzenia łączyło się za pomocą zewnętrznego kabla).
      Na początku takie rozwiązanie konstrukcyjne stanowiło atut firmy 3dfx (Voodoo i jego następca Voodoo 2 były tańsze), lecz gdy pozostali producenci zaczęli wytwarzać zintegrowane akceleratory 2D/3D, ludzie nie chcieli już dokupować drugiej karty 3D. Połączeniem akceleratora Voodoo 2 ze zwykłą kartą był Voodoo Banshee, który zadebiutował w 1998 roku. Drugą przyczyną niepowodzenia przedsiębiorstwa 3dfx stał się po kilku latach własny interfejs programowy Glide, niekompatybilny ani z OpenGL. (choć wzorowany na nim), ani z DirectX. Firmie nie pomogły też kolejne wersje Voodoo: Voodoo 3000, 4500 i 5500, które nie nadążały już za konkurencją i w końcu 3dfx przejęła w 2000 roku Nvidia.

Wielcy wkraczają do akcji
Pod koniec lat 90. rynek bardzo szybko zalany został przez różne wersje akceleratorów 3D. W 1997 roku pojawiły się Riva128 (Realtime Inter­active Video and Animation) Nvidii oraz 3DRage Pro wytwarzany przez ATI - karty w pełni zgodne z DirectX Microsoftu i bibliotekami OpenGL. W tym samym czasie do producentów domowych akceleratorów 3D dołączyły 3Dlabs (znany z produkcji kart profesjonalnych) z układem Permedia II oraz Intel z opracowanym wspólnie ze specjalistami z firmy Lockheed Martin układem i740, bazującym na chipie Real3D.
      Do akcji wkroczył też S3 z kością Trio3D, a następnie z przełomowym pod względem obsługiwanych efektów graficznych Savage'em 3D. Rok 1998 należał do Rivy128 ZX i Rivy TNT (TwiN Texel) oraz kości Matroksa - G100 i G200, które znalazły się w kartach z serii Millennium i Mystique. G200 był pierwszym popularnym układem, który tworzył grafikę 3D z 32-bitową paletą kolorów. W 1998 roku ATI zaprezentował swój bardzo udany układ 3D Rage 128. Wówczas pojawił się też protoplasta akceleratorów kafelkowych (patrz: Niespodziewana konkurencja) - VideoLogic PowerVR 250. Karty graficzne standardowo wyposażane już były w 16 MB pamięci graficznej i współpracowały ze złączem AGP, którego specyfikację Intel ogłosił w 1996 roku.

Dominacja T&L
Akceleratory 3D do chwili premiery 256-bitowego GeForce'a 256 (sierpień 1999 roku) potrafiły wspomóc wyświetlanie grafiki trójwymiarowej jedynie w ostatnich fazach generowania obrazu, nazywanych renderingiem. Obliczeniami geometrii sceny i jej oświetleniem zajmował się procesor. Pierwsze GeForce'y potrafiły go już w tym wyręczyć (notabene od słów Geometry Force pochodzi właśnie jego nazwa). Jednostki wykonawcze GeForce'a, wykonujące obliczenia geometryczne i kalkulacje oświetlenia zyskały miano modułów T&L (Transform and Lighting), a ich obsługę uwzględniono w bibliotekach DirectX 7.0.
      Wprowadzenie jednostek T&L do kart graficznych spowodowało trzęsienie ziemi na rynku akceleratorów 3D. 3dfx z nieobsługującą operacji geometrycznych kością VSA-100 (Voodoo 4000, 4500, 5000) nie był w stanie dorównać kroku Nvidii, popadając w tarapaty finansowe. Matrox również przespał swoją szansę. Opracowana w 2002 roku nowatorska, ale stosunkowo wolna Parhelia-512 pojawiła się zbyt późno, by stawić czoła konkurencji. S3 miał z kolei kłopoty ze sterownikami i błędną obsługą T&L w kolejnych kartach z serii Savage - Savage4 i Savage 2000. S3 został następnie przejęty przez firmę VIA specjalizującą się w produkcji chipsetów, dokąd trafiły jego konstrukcje. Podobny los spotkał Intela i740, którego w unowocześnionej formie znajdziemy na wielu płytach gównych. Do historii odeszła seria kości Kyro bazujących na technice PoverVR - wszystkie one pozbawione były niestety modułów T&L. Jedyną firmą, która sprostała Nvidii, była kanadyjska ATI. W 2000 roku jej inżynierowie zaprojektowali pierwszy chip - Radeona 256 - obsługujący funkcje T&L. Układ ten był bardzo udaną konstrukcją, jednak dopiero jego następca - Radeon 8500 - zagroził pozycji nVidii . 0x01 graphic

Czas shaderów
Kolejnym etapem rozwoju kart graficznych stało się wbudowanie w nie jednostek Pixel i Vertex Shader, których obsługa pojawiła się w bibliotekach DirectX 8.0. Pierwszą kartą wykorzystującą nową technologię był GeForce3 z 2001 roku. Stał się on pierwszym układem w historii, który zasłużył na miano procesora graficznego (GPU - Graphics Processing Unit). Kość ta zawierała niezależne, programowalne jednostki wykonawcze Vertex i Pixel Shader, przeznaczone do przetwarzania danych zmienno- i stałoprzecinkowych. Co więcej, każdy moduł udostępniał własne rejestry oraz listę rozkazów pozwalających programiście na napisanie krótkich programów (tzw. shaderów), przekształcających w dowolny sposób obraz na etapie jego obróbki geometrycznej (Vertex Shader) i rastrowej (Pixel Shader).
      Odpowiedzią firmy ATI na GeForce'a 3 w 2001 roku stał się wspomniany Radeon 8500. Był on zgodny z bibliotekami DirectX 8.1, pozwalającymi znacznie łatwiej oprogramować Vertex i Pixel Shadery. Karty zbudowane na bazie tego chipa potrafiły też zwiększyć dokładność szkieletu sceny 3D dzięki technice TrueForm. Co więcej, akceleratory te były szybsze od konkurencyjnych wyrobów Nvidii.

Od współczesności do przyszłości
Technologiczną poprzeczkę podniosły w grudniu 2002 roku biblioteki DirectX 9.0. Oczywiście obaj główni gracze - firmy Nvidia i ATI - przygotowali dość szybko odpowiednie produkty. Pierwszy z nich zaprezentował serię kart GeForce FX, drugi zaś Radeony 9000. W kolejnej generacji GeForce'ów - serii 6000 - Nvidia zaimplementowała już obsługę Pixel i Vertex Shaderów 3.0, wykorzystywanych przez biblioteki DirectX 9.0c, ATI planuje zaś wprowadzić ją w październiku, gdy pokażą się karty z rodziny Radeon X1800.
kart graficznych Nvidia GeForce 6800 Ultra i ATI Radeon X800, zadebiutowała magistrala graficzna PCI Express x16. Pozwala ona nie tylko na szybsze przesyłanie danych, ale również na łączenie dwóch kart w pary, przyspieszając tym samym szybkość generowania grafiki. Co ciekawe, architektury SLI (Nvidia) i CrossFire (ATI) czerpią z pomysłu, który kiedyś zaproponowała firma 3dfx dla kart Voodoo 2. Ale o tych technologiach oraz o graficznych planach na przyszłość pisaliśmy w kilku ostatnich numerach



Wyszukiwarka

Podobne podstrony:
Karty Graficzne wesołowski
Karty Graficzna UTK
Karty graficzne cd
KARTY GRAFICZNE
11 Karty graficzne
karty graficznej, Przydatne do Szkoły Technik Informatyk;)
Karty Graficzne
Karty graficzne i karty dźwiękowe - dla początkujących, Studia, Informatyka, Informatyka, Informatyk
Karty Graficzne
Karty Graficzne klakier
Budowa karty graficznej
karty graficzne
karty graficzne
Wybor karty graficznej, instalacja i konfiguracja
Karty graficzne, informatyka, utk
Karty Graficzne
Karty graficzne
Karty Graficzne
10 porad które ułatwią zakup karty graficznej

więcej podobnych podstron