001 100


Wymień stare komponenty na nowe.

Usuń usterki.

Tchnij w swój komputer nowe życie.

ROZBUDOWA i NAPRAWA

KOMPUTERÓW PC

WYDANIE XVI

Emersonowi

Prawdziwą próbą dla każdego wyboru

jest konieczność jego ponownego dokonania,

gdy dobrze się wie, ile może kosztować.

— Wyrocznia

Podziękowania

Nowa, 16. edycja książki jest kontynuacją długiej serii publikacji, której efektem jest najobszerniejsza i najbardziej aktualna tego typu pozycja dostępna na rynku. W porównaniu z poprzednimi wydaniami nowa edycja jest wynikiem przeprowadzonych na szeroką skalę dodatkowych badań. W osiągnięciu końcowego efektu pomogio mi kilka osób. W związku z tym chciałbym im podziękować.

Na początek pragnę szczególnie podziękować Lynn, mojej żonie i jednocześnie współpracownikowi. Przez ostatnie kilka lat Lynn znów uczyła się w pełnym zakresie, a także wspomagała mnie w prowadzeniu firmy. Ostatnio, uzyskując tytuł z zakresu multimediów i projektowania stron internetowych, ze znakomitym rezultatem zakończyła edukację (moje gratu­lacje!) Mając na względzie jej dokonania z ostatnich kilku lat, jestem z niej bardzo dumny. To. w jaki sposób była oddana swej pracy, było dla mnie inspiracją.

Podziękowania należą się Lisie Carlson z firmy Mueller Technical Research za pomoc w analizowaniu rynku komputero­wego i administracji biurem. Lisa posiada fantastyczny zmysł organizacyjny, dzięki któremu zajęła się zarządzaniem obie­giem dokumentów firmy.

Muszę szczególnie podziękować Rickowi Kugnenowi z wydawnictwa Que. Rick był osobą odpowiedzialną za przyjmowa­nie przesyłanych przeze mnie materiałów i następnie zamianę ich na gotową książkę. Jego biuro jest jak świątynia poświę­cona Rozbudowie i naprawie komputerów PC — zawiera wszystkie jej dotychczasowe edycje Jest to wyjątkowo rzadko spotykana kolekcja. Jego dbałość o szczegóły jest zadziwiająca. Rickowi zależy na książce i jej Czytelnikach do tego stop­nia, że w pracach związanych z obsługą klienta często zajmuje się rzeczami, które daleko wykraczają poza zakres jego obowiązków. Rick cały czas poprawia rękopis i wciąż opracowuje metody podnoszące jakość końcowego produktu.

Dziękuję również mojemu nowemu wydawcy, którym jest Todd Green. Choć z książką tą nie miał jeszcze stycznosei, jest weteranem w branży wydawniczej i okazał się pomocny w doprowadzeniu obecnego wydania do końca.

Chciałbym również podziękować Toddowi Brakke'owi za wykonanie mnóstwa pracy związanej z korektą bieżącej edycji książki. Jego cenne rady i sugestie naprawdę w znaczącym stopniu pomogły mi uzyskać zwięzły i aktualny materiał. Dzię­kuję też ilustratorom, projektantom i redaktorom technicznym wydawnictwa Que, którzy swoją ciężką pracą przyczynili się do ukończenia i wydania tej pozycji! Jest to zespół wspaniałych osób wydających bezsprzecznie najlepsze książki infor­matyczne dostępne na rynku. Jestem szczęśliwy i dumny, że miałem okazję tak blisko z nimi współdziałać

Chciałbym także przekazać wyrazy wdzięczności Gregowi Wiegandowi, mojemu wydawcy, który wyraził zgodę na opu­blikowanie wszystkich książek i towarzyszących im materiałów multimedialnych z serii Rozbudowa i naprawa. Dziękuje mu też za to. że zaryzykował i wyraził zgodę na przygotowanie kolejnych książek, takich jak Rozbudowa i naprawa laptopów.

Wszyscy pracownicy wydawnictwa Que sprawili, że czułem się jak członek ich zespołu. Dziękuję im za to, że w procesie wydawania jak najlepszych książek ich zaangażowanie jest równe mojemu.

Chciałbym również podziękować Markowi Soperowi za wykonanie dodatkowej ekspertyzy tam, gdzie ja mógłbym po­traktować temat zbyt ogólnie. Dziękuje też Markowi Reddinowi, który byl głównym redaktorem technicznym tej książki i który nie tylko wykazał, się wyjątkową gorliwością w sprawdzaniu szczegółów, ale także zgłosił kilka bardzo cennych propozycji dotyczących dodatkowych zagadnień, które można uwzględnić. Jego wkład okazał się niezmiernie istotny w za­pewnieniu najwyższego poziomu dokładności wiedzy technicznej i stopnia omówienia zagadnień.

Szczególne wyrazy wdzięczności przekazuję Chrisowi Beahanowi, który bardzo pomógł mi w procesie korekty tekstu. Dziękuję też wszystkim Czytelnikom, którzy za pośrednictwem poczty elektronicznej przesłali mi swoje sugestie na temat książki. Mile widziane są wszelkie komentarze, a nawet słowa krytyki. Traktuję je poważnie i uwzględniam w nieustannie trwającym procesie udoskonalania książki. Szczególną satysfakcję sprawia mi udzielanie odpowiedzi na wiele pytań, które otrzymuję. Zadawane pytania ułatwiają mi zrozumienie, że są w książce zagadnienia wymagające większej przejrzystości, i wskazują dodatkowe tematy, które powinny zostać uwzględnione. Kontakt z Czytelnikami jest głównym czynnikiem, który wśród wszystkich dostępnych publikacji poświęconych sprzętowi komputerowemu pomaga utrzymać mi moją książkę na pozycji najbardziej aktualnej i uwzględniającej odpowiednie zagadnienia.

Chciałbym też podziękować tysiącom osób, które brały udział w moich seminariach. Być może nie zdajecie sobie nawet sprawy z tego, jak wiele nauczyłem się przy okazji każdego z waszych pytań!

W czasie wielu moich całonocnych sesji posiłkowałem się różnymi raczej niezbyt zdrowymi, ale za to bardzo smacznymi i energetycznymi produktami żywnościowymi i napojami. W szczególności przy okazji tego wydania wypiłem mnóstwo kawy Starbucks sporządzonej przy użyciu niesamowitego automatu do kawy Capresso (zupełny stan nirwany dla uzależ­nionych od kawy, takich jak ja), wiele skrzynek napoju Coke Classic (w żadnym razie Pepsi •— miałaby zły wpływ) oraz napoje energetyczne Red Buli i AMP. Jadłem też takie produkty, jak Troll Brite Crawler Eggs i Pearsoifs Salted NutRolls. W szczególnych sytuacjach, wymagających wyjątkowego wzmocnienia, piłem napój energetyczny Skeleteens Brain Wash. Tym sposobem wspomniałem o grupach produktów żywnościowych dla pracoholików i maniaków komputerowych opar­tych na trzech podstawowych składnikach, którymi są kofeina, cukier i sól!

Rzut oka na książkę

O Autorze 27

Współpracownicy i redaktorzy techniczni 29

Wprowadzenie 3 i

Rozdział 1. Historia powstania komputera osobistego 39

Rozdział 2. Komponenty, funkcje i typy komputerów 57

Rozdział 3. Typy i parametry mikroprocesorów 71

Rozdział 4. Płyty główne i magistrale 253

Rozdział 5. BIOS 457

Rozdział 6. Pamięć 521

Rozdział 7. Interfejs ATA/IDE 603

Rozdział 8. Interfejs SCSI 655

Rozdział 9. Świat urządzeń o zapisie magnetycznym 693

Rozdział 10. Dyski twarde 715

Rozdział 11. Napędy dyskietek 755

Rozdział 12. Nośniki wymienne o dużej pojemności 775

Rozdział 13. Pamięci optyczne 807

Rozdział 14. Instalowanie i konfigurowanie napędów dysków 901

Rozdział 15. Podsystem graficzny 935

Rozdział 16. Podsystem audio 10"05

Rozdział 17. Porty wejścia-wyjścia — od szeregowego i równoległego do IEEE 1394 i USB 1043

Rozdział 18. Urządzenia wejściowe 1075

Rozdział 19. Internet 1113

Rozdział 20. Sieć lokalna (LAN) 1155

Rozdział 21. Zasilacze i obudowy 1205

Rozdział 22. Montaż i modernizacja komputera 1259

Rozdział 23. Radykalne modyfikacje — przetaktowywanie, chłodzenie cieczą i udoskonalanie obudów.. 1301

Rozdział 24. Diagnostyka, testowanie i konserwacja komputera PC 1331

Rozdział 25. Systemy plików i odzyskiwanie danych 1401

Dodatek A Słownik 1469

Dodatek B Rozwiązywanie problemów — indeks 1553

Dodatek C Lista akronimów i skrótów 1581

Skorowidz 1597

Spis treści

O Autorze 27

Współpracownicy i redaktorzy techniczni 29

Wprowadzenie 31

Co nowego znalazło się w 16. edycji? 32

Czemu ma służyć ta książka? 33

Czy ta książka jest przeznaczona dla Ciebie? 33

Omówienie rozdziałów 34

Komentarz Autora 37

Rozdział 1. Historia powstania komputera osobistego 39

Historia maszyn cyfrowych przed powstaniem komputera osobistego 39

Chronologia 39

Kalkulatory mechaniczne 44

Pierwszy kalkulator mechaniczny 44

Maszyny elektroniczne 45

Nowoczesne komputery 46

Od lamp do tranzystorów 47

Układy scalone 48

Pierwszy mikroprocesor 48

Historia komputera osobistego 52

Narodziny komputera osobistego 52

Komputer osobisty firmy IBM 53

Przemysł komputerowy ponad 20 lat później 54

Rozdział 2. Komponenty, funkcje i typy komputerów 57

Czym jest komputer osobisty? .. 57

Kto dominuje na rynku oprogramowania komputerów PC? 58

Kto obecnie ma największy wpływ na rozwój sprzętu komputerowego? 60

Przewodnik po typach systemów PC 64

Typy komputerów 66

Komponenty komputera 69

Rozdział 3. Typy i parametry mikroprocesorów 71

Historia mikroprocesora przed pojawieniem się komputerów osobistych 71

Procesory produkowane po roku 1971 72

Parametry procesorów 75

Magistrala danych wejścia-wyjścia (I/O) 80

Magistrala adresowa 81

Rejestry wewnętrzne (wewnętrzna magistrala danych) 82

Tryby pracy procesora 83

Szybkość procesorów 88

Porównanie szybkości procesorów i płyt głównych 93

Szybkości procesorów Cyrix 97

Szybkości procesorów AMD 97

Przetaktowywanie 102

Pamięć podręczna (Cache) 105

Zasada działania pamięci podręcznej 106

Pamięć Cache Level 2 108

Funkcje procesorów 112

SMM (Zarządzanie energią) 113

Wykonywanie superskalarne 1 13

MMX 114

SSE, SSE2 i SSIJ 115

3DNow!. Enhanced 3DNow! i 3DNow! Professional 1 16

Dynamie Execution (Dynamiczne wykonywanie) 117

Architektura DIB 118

Technologia hiperwątkowości 119

Wytwarzanie procesorów 120

Fałszowanie procesorów 124

Obudowa PGA 126

Obudowy SEC i SEPP 127

Typy gniazd procesorów 129

Podstawka ZIF (Zero Insertion Force) 129

Gniazdo Socket I 13 1

Gniazdo Socket 2 132

Gniazdo Socket 3 133

Gniazdo Socket 4 134

Gniazdo Socket 5 135

Gniazdo Socket 6 135

Gniazdo Socket 7 i Super7 136

Gniazdo Socket 8 137

Gniazdo Socket 370 (PGA-370) 137

Gniazdo Socket 423 139

Gniazdo Socket 478 ■. 139

Gniazdo Socket A (Socket 462) 140

Gniazdo Socket 603 142

Gniazdo Socket 754 142

Gniazdo Socket 939 i Socket 940 142

Gniazdo Socket T 143

Gniazda procesorowe '44

Napięcia zasilania procesorów 145

Ciepło i problemy z jego odprowadzaniem 147

Koprocesory (jednostki zmiennoprzecinkowe) 148

Błędy procesora '3(*

Możliwości aktualizacji procesorów 151

Nazwy kodowe procesorów 151

Procesory kompatybilne z procesorami firmy Intel (AMD i Cyrix) 155

Procesory firmy AMD '55

Procesory firmy Cyrix '55

PI (086). Procesory pierwszej generacji '55

Procesory 8088 i 8086 '56

Procesory 80186 i 80188 '57

Koprocesor 8087 '57

P2 (286). Procesory drugiej generacji 157

Procesor 286 157

Koprocesor 80287 158

P3 (386). Procesory trzeciej generacji 159

Procesory 386 159

Procesor 386DX 160

Procesor 386SX 160

Procesor 386SL 161

Koprocesor 80387 161

P4 (486). Procesory czwartej generacji 162

Procesory 486 '62

Procesor 486DX 164

Procesor 486SL 165

Procesor 486SX 166

Koprocesor 487SX 167

Procesory DX2/OverDrive i DX4 167

Procesor Pentium OverDrive przeznaczony dla systemów 486SX2 i DX2 169

Procesor AMD 486 (5x86) 170

Procesor Cyrix/Tl 486 171

P5 (586). Procesory piątej generacji '71

Procesory Pentium '71

Procesor Pentium pierwszej generacji 175

Procesor Pentium drugiej generacji 176

Procesory Pentium-MMX '78

Defekty procesora Pentium 179

Procedura sprawdzająca obecność błędu koprocesora 180

Błędy związane z zarządzaniem energią 180

Modele i wersje procesora Pentium 181

Procesor AMD-K5 '82

Intel P6 (686). Procesory szóstej generacji 183

Dynamiczne wykonywanie 183

Architektura DIB 184

Inne ulepszenia procesorów szóstej generacji 184

Procesory Pentium Pro '85

Procesory Pentium II '89

Procesor Celeron 200

Procesor Pentium III 206

Procesor Pentium II lub III Xeon 214

Inne procesory szóstej generacji 214

Procesor NexGen Nx586 215

Procesory z serii AMD-K6 215

Procesory AMD Athlon, Duron i Athlon XP 219

Procesor AMD Duron 221

Procesor AMD Athlon XP 224

Procesor Athlon MP 226

Procesory Cyrix/IBM 6x86 (Ml) i 6x86MX (MII) 226

Procesor C3 firmy VIA 227

Procesory Intel Pentium 4 siódmej generacji 228

Pentium 4 Extreme Edition 230

Wymagania pamięciowe 231

Informacje na temat zasilaczy 231

Oznaczenia modeli procesorów Intel 239

Następcy procesora Pentium 4 240

Procesory ósmej generacji (64-bitowe rejestry) 241

Procesor Itanium i Itanium 2 241

AMD Athlon 64 i 64 IX 244

AMDOpteron 248

Aktualizacja procesora 248

Procesory w wersji OverDrive 249

Testy porównawcze procesorów 249

Metody identyfikacji problemów występujących w procesorach 250

Rozdział 4. Płyty główne i magistrale 253

Formaty płyt głównych 253

Komputery PC i XT 255

Format Full-size AT 256

Format Baby-AT 258

Format LPX 260

Format A1 X 262

Format MicroATX 270

Format FlexATX 271

Format 11 X i Mini-1TX 272

Format B IX 277

Format NLX 280

Format W IX 284

Formaty niestandardowe 286

Systemy Backplane 287

Komponenty płyty głównej 290

Gniazda procesora (Socket i Slot) 290

Chipsety 292

Rozwój chipsetów 292

Chipsety firmy Intel 294

Chipsety współpracujące z procesorami AMD Athlon i Duron 296

Tradycyjna architektura mostka północnego i południowego 297

Architektura koncentratora 298

Połączenia o dużej szybkości między mostkiem północnym i południowym 300

Pierwsze chipsety firmy Intel dla płyt głównych klasy 386/486 302

Chipsety piątej generacji (klasa P5 Pentium) 302

Intel 4301 .X (Mercury) 303

Intel 430NX (Neptune) 304

Intel 430FX (Triton) 305

Intel 4301IX (Triton II) 306

Intel 430VX (Triton III) 307

Intel 430TX 308

Chipsety innych producentów współpracujące z procesorami Pentium 308

Chipsety szóstej generacji (procesory P6 Pentium Pro/II/III) 309

Intel 450KX/GX (Orion Workstation Sener) 311

Intel 440FX (Natoma) 311

Intel 440LX 314

Intel 440EX 314

Intel 440BX 315

Intel 440ZX i 440ZX-66 316

Intel 440GX 316

Intel 450NX 316

Intel 810, 810E i 810E2 317

Chipsety Intel 815 320

Intel 820 i 820E 323

Intel 840 325

Chipsety klasy P6 innych producentów 327

Chipsety siódmej generacji obsługujące procesor Pentium 4 330

Chipsety Intel 850....' 335

Chipsety Intel 845 335

Chipsety Intel 865 338

Chipset Intel 875P 338

Chipsety Intel 915 339

Chipset Intel 925X 340

Chipsety innych firm zgodne z procesorem Pentium 4 340

Chipsety firmy SiS 340

Chipsety firmy ALi Corporation 344

Chipsety firmy Al 1 346

Chipsety firmy VIA 347

Chipsety zgodne z procesorami Athlon, Duron i Athlon XP 352

Chipsety firmy AMD zgodne z procesorami Athlon i Duron 352

Chipsety firmy VIA przeznaczone dla procesorów Athlon, Duron i Athlon XP 354

ProSavage KM 133 358

Chipsety firmy Silicon Integrated Systems zgodne z procesorami AMD Athlon i Duron 361

Chipset ALiMagikl dla procesorów Athlon i Duron 367

Chipsety nForce firmy NV1DIA przeznaczone dla procesorów Athlon, Duron i Athlon XP 368

Chipsety Radeon IGP firmy ATI przeznaczone dla procesorów Athlon, Duron i Athlon XP 369

Chipsety firmy Intel przeznaczone dla procesorów Pentium 4 i Xeon 370

Chipset Intel 860 370

Chipset Intel E7205 372

Chipset Intel E7505 372

Chipsety przeznaczone dla procesora Athlon 64 373

Chipset AMD 8000 (8151) 376

Chipsety firmy ALi dla procesora Athlon 64 379

Chipsety firmy VIA Technologies dla procesora Athlon 64 379

Chipsety firmy WIDIA 382

Chipsety firmy SiS 383

Chipsety firmy ATI 386

Układy Super I/0 386

Adresy układu CMOS RAM 388

Złącza płyty głównej 388

Typy magistrali systemowych, ich funkcje i właściwości 396

Magistrala procesora (FSB) 402

Magistrala pamięci 407

Gniazda rozszerzeń 407

Rodzaje magistral I/O 408

Magistrala ISA 408

Magistrala Micro Channel 412

Magistrala EISA 412

Magistrale lokalne 414

Magistrala VESA Local Bus 416

Magistrala PCI 417

Magistrala PCI Express 420

Magistrala AGP (Accelerated Graphics Port) 423

Zasoby systemowe 425

Przerwania 426

Kanały DMA 434

Adresy portów I/0 435

Rozwiązywanie konfliktów zasobów 439

Ręczne rozwiązywanie konfliktów zasobów 440

Zastosowanie szablonu konfiguracji systemu 441

Karty specjalne — omówienie problemów 445

Systemy Pług and Play 449

Kryteria doboru płyt głównych (jeśli wiesz, czego szukasz) 451

Dokumentacja 454

Komponenty pracujące z zawyżoną częstotliwością 455

Rozdziaf 5. BIOS 457

Podstawowe informacje o BlOS-ie 457

BIOS — urządzenia i oprogramowanie 460

BIOS płyty głównej 462

ROM ' 463

Cieniowanie pamięci ROM (ROM shadowing) 465

Rodzaje pamięci ROM 465

Producenci układów ROM BIOS 470

Aktualizacja BIOS-u 476

Gdzie szukać aktualizacji BIOS-u? 478

Identyfikacja wersji BIOS-u 478

Odczytanie daty BIOS-u 479

Tworzenie kopii zapasowej BIOS-u 479

Tworzenie kopii zapasowej konfiguracji CMOS BIOS 480

Układy Flash BIOS ' '. 481

Adresy pamięci CMOS RAM płyty głównej 486

Wymiana układu BIOS ROM 488

BIOS i problemy związane z rokiem 2000 489

Środowisko przeduruchomieniowe 489

Omówienie ustawień CMOS 491

Uruchomienie i dostęp do programu BIOS Setup 491

Menu programu BIOS Setup 492

Menu Maintenance 493

Menu Main 493

Menu Advanced 495

Menu Security 506

Menu Power Management 508

Menu Boot (kolejność użycia urządzeń inicjalizujących) 509

Menu Exit 510

Dodatkowe opcje programu BIOS Setup 511

BIOS Pług and Play 513

Numery identyfikacyjne urządzeń PnP 513

ACPI .' 513

lnicjalizacja urządzenia PnP 514

Komunikaty błędów BIOS-u 515

Podstawowe tekstowe komunikaty o błędach generowane przez BIOS w trakcie inicjalizacji 516

Komunikaty ROM BIOS informujące o niepowodzeniu inicjalizacji systemu operacyjnego
(nieodnalezieniu poprawnego rekordu MBR) 516

Rozdział 6. Pamięć 521

Podstawowe wiadomości o pamięci 521

ROM 523

DRAM 524

Pamięć podręczna SRAM 525

Typy pamięci RAM 529

FPM (Fast Page Mode) DRAM 533

EDO (Extended Data Out) RAM 534

SDRAM 535

DDR SDRAM 537

DDR2 SDRAM 538

RDRAM 539

Moduły pamięci 542

Moduły SIMM, DIMM i RIMM 543

Rozmieszczenie końcówek modułu SIMM 548

Rozmieszczenie końcówek modułu DIMM 551

Rozmieszczenie końcówek modułu DDR DIMM 553

Rozmieszczenie końcówek modułu DDR2 DIMM 555

Rozmieszczenie końcówek modułu RIMM 557

Pojemność i organizacja fizycznej pamięci RAM 560

Banki pamięci 563

Szybkość modułów pamięci 564

Złoto lub cyna 565

Kontrola parzystości i kod korekcji błędów ECC 568

Rozszerzanie pamięci komputera 57ó

Możliwe strategie rozszerzania pamięci 576

Wybór i instalacja pamięci 577

Rozwiązywanie problemów związanych z pamięcią 582

Procedura identyfikująca defekt pamięci 585

Organizacja logiczna pamięci komputera 587

Pamięć konwencjonalna (podstawowa) 589

Pamięć górna (UMA) 590

Pamięć powyżej pierwszego megabajta (extended memory) 596

Zapobieganie konfliktom pomiędzy obszarami pamięci ROM BIOS i ich nakładaniu się 598

Cieniowanie pamięci ROM (ROM shadowing) 599

Całkowita wielkość pamięci a pamięć dostępna dla programów 599

Konfiguracja i optymalizacja pamięci kart 600

Rozdział 7. Interfejs ATA/IDE 603

Omówienie interfejsu IDE 603

Poprzednicy IDE 603

Rodowód interfejsu IDE 604

Wersje magistrali IDE 605

Rodowód interfejsu ATA 606

Standardy ATA 608

ATA-1 609

ATA-2 609

ATA-3 610

ATA/ATAPI-4 61 1

ATA/ATAPI-5 612

ATA/ATAPI-6 613

ATA/ATAPI-7 614

SATA/ATAPI-8 614

Interfejs równoległy ATA 615

Złącze równolegle ATA 615

Kabel danych równoległego interfejsu ATA 617

Kable dłuższe i „zaokrąglone" 619

Sygnały równoległego interfejsu ATA 620

Konfiguracja z dwoma dyskami ATA 620

Tryby przesyłu danych PIO równoległego interfejsu ATA 623

Tryby DMA równoległego interfejsu ATA 623

Interfejs Serial ATA 625

Złącza i kable Serial ATA 626

Konfiguracja urządzeń Serial ATA 627

Serial ATA II 629

Advanced Host Controller Interface 630

Transfery danych interfejsu Serial ATA 630

Funkcje interfejsu ATA 631

Polecenia ATA 631

ATA Security Mode 632

Host Protected Area 633

Interfejs pakietowy ATA 634

Ograniczenia pojemności dysku ATA 635

Prefiksy dla wielokrotności dziesiętnych i binarnych 635

Ograniczenia BIOS-u 635

CHS kontra LBA 637

Konwersje CHS-LBA i LBA-CHS 638

Polecenia BIOS a polecenia ATA 639

Ograniczenia CHS (bariera 528 MB) 640

Translacja CHS (łamanie bariery 528 MB) 641

Bariera 2,1 GB 643

Bariera 4.2 GB 643

Translacja korzystająca z LBA 645

Bariera 8,4 GB .' 647

Bariera 137 GB i powyżej 648

Ograniczenia związane z systemami operacyjnymi i innym oprogramowaniem 650

ATA RAID 651

Rozdział 8. Interfejs SCSI 655

Smali Computer System Interface 655

SCSI kontra ATA 657

Historia i budowa dysków twardych SCSI 657

Standard SCSI ANS1 661

SCSI-1 663

SCSI-2 663

SCSI-3 666

SPI lub Ultra SCSI 667

SPI-2 i Litra: SCSI 667

SPI-3 lub Ultra3 SCSI (UltralóO) 670

SPI-4 lub Ultra4 SCSI (Ultra320) 671

SPI-5 lub Ultra5 SCSI (Ultra640) 672

Serial Attached SCSI 673

Macierze dyskowe RAID 674

Fibrę Channel SCSI 674

iSCSI 675

Kable i złącza SCSI 675

Funkcje pinów złączy i kabli równoległego interfejsu SCSI 678

Kable i złącza asymetrycznego SCSI 678

Sygnały High Yokage Differential SCSI 680

Ekspandery 682

Zakańczanie magistrali 683

Konfiguracja napędu SCSI 684

Polecenie Start on Command (opóźnione uruchamianie) 687

Parzystość SCSI 687

Zasilanie terminatorów 687

Negocjacja synchroniczna 688

Pług and Play SCSI 688

Rozwiązywanie problemów z konfiguracją SCSI 689

Porównanie wydajności interfejsów SCSI i ATA — zalety i ograniczenia 690

Zalecane host adaptery SCSI, kable i terminatory 691

Rozdział 9. Świat urządzeń o zapisie magnetycznym 693

Zapis magnetyczny 693

Historia zapisu magnetycznego 694

Wykorzystanie pól magnetycznych do przechowywania danych 694

Rodzaje głowic odczytująco-zapisujących 698

Głowice ferrytowe 698

Głowice Metal-In-Gap 699

Głowice cienkowarstwowe 699

Głowice magnetorezystywne 699

Głowice magnetorezystywne drugiej generacji (GMR) 701

Zapis prostopadły 702

Ślizgacze głowic 703

Schematy kodowania danych 705

Kodowanie FM 706

Kodowanie MFM 706

Kodowanie RLL 707

Porównanie schematów kodowania 708

Dekodery Partial-Response, Maximum-Likehood 709

Mierzenie pojemności 710

Gęstość powierzchniowa 710

Zwiększanie gęstości powierzchniowej za pomocą „czarodziejskiego pyłu" 713

Rozdział 10. Dyski twarde 715

Definicja dysku twardego 715

Rozwój dysków twardych 716

Działanie dysku twardego 717

Analogia obrazująca technologię dysków twardych 718

Ścieżki i sektory 719

Formatowanie dysku 722

Podstawowe części dysku twardego 726

Talerze dysku twardego (dyski) 727

Nośniki zapisu 728

Głowice odczytująco-zapisujące 730

Mechanizm pozycjonera głowicy 73 1

Filtry powietrzne 738

Aklimatyzacja termiczna dysków 739

Silniki '. 740

Płytka z układami logicznymi 741

Kable i złącza 741

Elementy konfiguracyjne 742

Płyta czołowa lub ramka 742

Własności dysku twardego 743

Pojemność 743

Wydajność 746

Niezawodność 751

Cena 754

Rozdział 11. Napędy dyskietek 755

Podstawowe informacje na temat dyskietek 755

Interfejsy napędu dyskietek 756

Elementy napędu 756

Głowice odczytująco-zapisujące 756

Pozycjoner dysku 759

Silnik napędowy 759

Płyta z układami 760

Kontroler 760

Ptyta czołowa 761

Złącza 761

Kabel kontrolera napędu dyskietek 762

Fizyczna specyfikacja dyskietek i ich działanie 765

Sposób wykorzystania dyskietki przez system operacyjny 765

Cylindry 767

Klastry lub jednostki alokacji 767

Sygnał Disk Change 767

Typy napędów dyskietek 768

Napędy 1,44 MB 3,5 cala 768

Inne typy napędów dyskietek 769

Budowa dyskietki 3,5 cala 770

Specyfikacja typów nośników dyskietek 771

Środki ostrożności przy obsłudze dyskietek i napędów dyskietek 771

Lotniskowe urządzenia rentgenowskie i wykrywacze metalu 772

Procedury instalacji napędów 773

Rozdział 12. Nośniki wymienne o dużej pojemności 775

Rola napędów nośników wymiennych 775

Dodatkowa pamięć dyskowa 775

Tworzenie kopii zapasowych 776

Porównanie technologii zapisu danych na dyskach, taśmach i w pamięci Flash 776

Dyski magnetyczne 777

Taśma magnetyczna 777

Pamięci Flash 777

Interfejsy dla napędów nośników wymiennych 777

Przegląd napędów wymiennych nośników magnetycznych 778

Iomega Zip 779

LS-120 i LS-240 SuperDisk 780

Napędy dysków wymiennych o pojemności dysku twardego 780

..Osierocone" napędy dysków wymiennych 781

Napędy magnetooptyczne 781

Technologia magnetooptyczna 781

Porównanie MO do „czystych" nośników magnetycznych 782

Kluczowe kryteria wyboru napędu wymiennych nośników 783

Urządzenia z kartami pamięci Flash 784

Jak działa pamięć Flash? 784

Typy pamięci Flash 784

Przenoszenie danych z pamięci Flash do komputera 789

Technologia Microdrive 791

Napędy taśm 791

Alternatywne do napędów taśm urządzenia korzystające z dysku twardego 793

Wady napędów taśm 793

Zalety napędów taśm 794

Najczęściej stosowane standardy napędów taśm 794

Porównanie technologii tworzenia kopii na taśmach 800

Wybór odpowiedniego napędu taśm 800

Instalacja napędu taśm 803

Oprogramowanie do obsługi napędów taśm 803

Rozwiązywanie problemów z napędami taśm 804

Poprawianie naciągu taśmy 806

Rozdział 13. Pamięci optyczne 807

Technologie optyczne 807

Dyski optyczne CD 808

Krótka historia dysku CD 808

Technologia i budowa dysku CD-ROM 809

Zasady obchodzenia się z nośnikami optycznymi 820

DVD 821

Historia DVD 822

Technologia i budowa dysku DVD 822

Ścieżki i sektory DVD 823

Obsługa błędów 827

Pojemność DVD (strony i warstwy) 828

Kodowanie danych na dysku 831

Dyski Blu-ray 83 1

!ll)-l)\ I) 833

Formaty dysków optycznych 833

Formaty napędów i ptyt CD 833

Systemy plików CD-ROM 843

Standardy i formaty DVI) 848

Zabezpieczenia przed kopiowaniem 851

Napędy CD i DVI) — specyfikacje 854

Specyfikacja wydajności 854

Interfejsy 862

Mechanizm ładujący 865

Inne własności napędów 866

Zapisywalne dyski CD 867

CD-R 868

CD-RW 872

Specyfikacja MultiRead 874

Jak niezawodnie zapisywać dyski CD? 876

Programy do zapisu CD 879

Cyfrowy odczyt dźwięku 880

Dyski CD-R i CD-RW ..tylko do zapisu muzyki" 882

Zabezpieczenie przed kopiowaniem CD 882

Standardy zapisywalnych dysków DVD 883

DVD-RAM 884

DVD-R 886

DVD-RW 886

DVI) • RW 887

Wieloformatowe napędy wielokrotnego zapisu 890

Instalacja i obsługa napędów CD i DVD oraz współpracującego z nimi oprogramowania 890

Ładowanie systemu z dyskietki z obsługą napędu CD/DVD 891

Napędy rozruchowe CD i DVI) — El Torito 893

Tworzenie ratunkowego dysku CD 893

Tworzenie startowego ratunkowego dysku CD/DVD 894

Wykrywanie usterek w napędach optycznych 894

Aktualizowanie oprogramowania sprzętowego napędu CD-RW lub DVD z możliwością

wielokrotnego zapisu 897

Rozdział 14. Instalowanie i konfigurowanie napędów dysków 901

Różne typy napędów dysków 901

Procedura instalowania dysku twardego 901

Konfigurowanie dysku 902

Konfigurowanie kontrolera dysku 902

Fizyczna instalacja dysku 904

Konfigurowanie komputera do współpracy z dyskiem 910

Formatowanie dysku 910

Formatowanie niskiego poziomu (Low-Level Formatting) 911

Zakładanie partycji na dysku 913

Formatowanie wysokiego poziomu 921

Ograniczenia programów FD1SK i FORMAT 922

Wymiana dysku twardego 924

Migracja w środowisku MS-DOS 924

Migracja w środowisku 9x/Me 924

Rozwiązywanie problemów z dyskiem twardym 925

Testowanie dysku 926

Instalowanie napędu dysków optycznych 926

Konflikty między urządzeniami 927

Konfigurowanie stacji dysków 927

Przyłączanie stacji zewnętrznej (SCSI) 929

Przyłączanie stacji wewnętrznej 930

Wewnętrzny kabel SCSI i złącze krawędziowe 930

Łańcuchy SCSI — wewnętrzny i zewnętrzny 93 1

Instalowanie stacji dyskietek 932

Rozdział 15. Podsystem graficzny 935

Sposoby wyświetlania obrazu 935

Budowa monitorów komputerowych 935

DVI — cyfrowa komunikacja z monitorem 937

Wyświetlacze ciekłokrystaliczne (LCD) 938

Projektory LCD i DLP 944

Wyświetlacze plazmowe 945

Typy kart graficznych 945

Kryteria wyboru monitora 946

Właściwy rozmiar 947

Rozdzielczość 948

Wielkość piksela (monitory kineskopowe) 950

Jasność i kontrast obrazu (panele LCD) 952

Przeplot 952

Zarządzanie energią i normy bezpieczeństwa 952

Częstotliwości 955

Regulacja obrazu 958

Testowanie monitora 959

Konserwacja monitora 960

Karty graficzne 961

Starsze odmiany kart graficznych 962

Współczesne karty graficzne 962

Super VGA 963

Standardy SVGA wyznaczone przez VESA 964

Karta zintegrowana i chipset płyty głównej 964

Elementy karty graficznej 966

Identyfikacja chipsetów graficznych i płyty głównej 968

Pamięć RAM karty graficznej 969

Konwerter cyfrowo-analogowy (DAC) 973

Magistrala rozszerzeń 974

Program obsługi karty graficznej 976

Obsługa wielu monitorów 978

Akceleratory grafiki 3D 981

Jak działają akceleratory 3D? 981

Popularne techniki 3D 983

Zaawansowane techniki 3D 984

Interfejsy programowania aplikacji 987

Chipsety 3D 988

Rozbudowa i wymiana karty graficznej 992

Tuner TV i urządzenie przechwytywania wideo 992

Gwarancja i serwis 993

Porównywanie kart graficznych o tym samym chipsecie 993

Karty graficzne w zastosowaniach multimedialnych 993

Wewnętrzne złącza wideo 994

Wyjście wideo 995

Urządzenia do przechwytywania wideo 996

Karty wideo 996

Problemy z kartą graficzną lub monitorem 999

Rozwiązywanie problemów z monitorami 1001

Rozwiązywanie problemów z kartami graficznymi i ich sterownikami 1002

Rozdział 16. Podsystem audio 1005

Wczesne karty audio 1005

Zgodność z Sound Blaster Pro 1006

Karty audio i DirectX 1006

PC i multimedia — przegląd historyczny 1007

Cechy karty audio 1007

Złącza podstawowe 1007

Złącza dodatkowe 1010

Regulacja głośności 1014

Obsługa standardu MIDI 1014

Kompresja danych 1015

Uniwersalne cyfrowe procesory sygnałowe 1016

Programy obsługi 1016

Wybór karty audio 1017

Gry 1017

Filmy DVI) 1018

Rozpoznawanie mowy i sterowanie głosem 1019

Twórcy zapisu dźwiękowego 1019

Odtwarzanie i zapisywanie plików dźwiękowych 1020

Pojęcia i terminy 1021

Struktura dźwięku 1021

Określanie jakości karty audio 1021

Próbkowanie 1022

Przegląd producentów 1023

Producenci chipsetów sprzedający własne karty 1023

Producenci chipsetów 1025

Chipsety płyt głównych ze zintegrowanymi układami audio 1026

AOpen TubeSound '028

Dźwięk 3D 1029

Dźwięk pozycyjny 1029

Przetwarzanie dźwięku 3D 1031

Zgodność z DirectX '031

Instalowanie karty dźwiękowej 1031

Przyłączenie głośników i kończenie instalacji 1033

Zestaw stereo zamiast głośników 1033

Problemy z kartą dźwiękową 1035

Konflikty zasobów 1035

Inne problemy z kartą lub zintegrowanym układem dźwiękowym 1035

Głośniki 1039

Dźwięk kinowy i dźwięk otoczenia („surround") 1041

Mikrofony 1042

Rozdział 17. Porty wejścia-wyjścia — od szeregowego i równoległego do IEEE 1394 i USB 1043

Wprowadzenie 1043

USB i IEEE 1394 (i.Link/FireWire) 1043

Dlaczego szeregowe? 1043

Universal Serial Bus (USB) 1044

IEEE 1394 1053

Porównanie IEEE 1394 i USB 1.1/2.0 1057

Standardowe porty szeregowe i równoległe 1058

Porty szeregowe 1058

Typowe lokalizacje portów szeregowych 1059

Układy U ART 1061

Karty portów szeregowych o dużej szybkości 1063

Porty szeregowe na płycie głównej 1063

Konfiguracja portu szeregowego 1064

Testowanie portów szeregowych 1065

Porty równoległe 1067

Standard portu szeregowego IEEE 1284 1068

Instalowanie portów EPP i ECP 1071

Konfiguracja portu równoległego 1071

Łączenie komputerów przy użyciu portów szeregowych lub równoległych 1072

Konwertery port równoległy-SCSl 1074

Testowanie portów równoległych 1074

Rozdział 18. Urządzenia wejściowe 1075

Klawiatury 1075

Klawiatura rozszerzona (101 lub 102 klawisze) 1075

Klawiatura Windows (104 klawisze) 1076

Klawiatury USB 1078

Klawiatury komputerów przenośnych 1079

Opcja Num Lock ' 080

Konstrukcja klawiatur '081

Przełączniki '081

Interfejs klawiatury '085

Automatyczne powtarzanie wciśnięć '087

Numery i odpowiedniki kodowe klawiszy '087

Układ klawiatury międzynarodowej '088

Złącza klawiatury i myszy '088

Klawiatury specjalne 1090

Naprawianie i rozwiązywanie problemów związanych z klawiaturą 1091

Czyszczenie klawiatury '092

Wybór klawiatury '093

Urządzenia wskazujące '094

Mysz kulkowa ' 095

Mysz optyczna '096

Interfejsy urządzeń wskazujących 1098

Problemy z myszą ' '00

Pokrętła 1102

IrackPoitU II III IV "02

Alternatywy dla myszy i trackpointu ' '05

Trackballe 1 '06

3M Ergonomie Mouse 1106

Urządzenia wejściowe gier 1 107

Joysticki analogowe i port gier 1107

Port USB jako port gier 1107

Zgodność 1 '08

Bezprzewodowe urządzenia wejściowe 1108

Działanie bezprzewodowych urządzeń wejściowych 1108

Korzystanie z bezprzewodowych urządzeń wskazujących 1111

Problemy z urządzeniami bezprzewodowymi 1112

Rozdział 19. Internet 1113

Sieć internet a sieć LAN 1113

Dostęp szerokopasmowy a dostęp modemowy 1114

Dostęp szerokopasmowy — typy połączeń 1115

Większa szybkość = mniej wolności 1115

Sieci komputerowe telewizji kablowej 1116

Modem kablowy 1116

Sieć telewizji kablowej 1116

Pasmo przenoszenia telewizji kablowej 1118

Wydajność sieci kablowych 1119

Zabezpieczenia połączeń CATV 1120

Digital Subscriber Line (DSL) 1120

Zasada działania DSL 1121

Kto może używać DSL? 1121

Podstawowe odmiany DSL 1122

Ceny DSL 1124

Zabezpieczenia komunikacji DSL 1124

Problemy techniczne 1125

Stacjonarne połączenia bezprzewodowe 1125

Połączenia satelitarne — DirecWAY i StarBand 1126

DirecWAY "26

StarBand 1127

Rzeczywista wydajność połączenia satelitarnego 1127

Integrated Services Digital Network (ISDN) 1128

Jak działa ISDN? 1128

Zakup usługi ISDN 1129

Wyposażenie do komunikacji ISDN 1130

Porównywanie wysoko wydajnych usług internetowych 1130

Opcja awaryjna ' 132

Łącza dzierżawione 1132

Tl i T3 I '32

Porównywanie konwencjonalnych usług komunikacyjnych 1133

Zabezpieczanie połączenia internetowego 1134

Modemy asynchroniczne ' 134

Standardy modemowe "36

Szybkość w bitach i w bodach "37

Standardy modulacji 1137

Protokoły korekcji błędów 1139

Standardy kompresji danych 1139

Standardy firmowe ' '40

Modemy 56K "40

Ograniczenia połączeń 56K "41

Standardy 56K 1142

Standardy faksmodemów "44

Wybór modemu ' '44

Udostępnianie połączenia internetowego 1148

Brama, serwer proxy, router 1149

Udostępnianie połączenia przy użyciu routera 1149

Problemy z połączeniami internetowymi 1150

Diagnozowanie problemów z połączeniem udostępnianym 1151

Korzystanie z diod sygnalizacyjnych 1152

Modem nie wybiera numeru 1152

Komputer „zawiesza się" po zainstalowaniu lub w trakcie używania wewnętrznego modemu,

adaptera ISDN lub karty sieciowej 1153

Komputer nie wykrywa modemu zewnętrznego 1153

Dźwięk z głośnika modemu 1154

Rozdział 20. Sieć lokalna (LAN) 1155

Zagadnienia 1155

Wprowadzenie 1 155

Typy sieci 1156

Podstawowe wymagania 1157

Sieci klient-serwer a sieci równorzędne 1157

Sieci klient-serwer 1157

Sieci komputerów równorzędnych 1158

Porównanie sieci typu klient-serwer i sieci równorzędnych 1 159

Przegląd protokołów sieciowych 1159

Ethernet 1161

Wyposażenie sprzętowe sieci 1162

Karty sieciowe 1162

Okablowanie sieci 1 166

Topologie sieci 1167

Koncentratory i przełączniki sieci Ethernet 1170

Okablowanie sieci 1174

Wybór okablowania 1174

Samodzielny montaż okablowania 1176

Standardy sieci bezprzewodowych 1181

Wi-Fi — standard standardu 1182

Urządzenia sieciowe 802.11 1 185

Bluetooth 1188

Logiczne topologie sieci bezprzewodowych 1189

Protokoły sieciowe 1190

1P i TCP/IP 1190

IPX 1191

NetBEUI 1192

Inne systemy sieci domowych I '92

HomePNA 1192

Sieci korzystające z instalacji elektrycznej 1194

Sieci domowe a sieci Ethernet z okablowaniem UTP 1195

Instalowanie sieci 1196

Karta sieciowa ' 196

Kable sieciowe i połączenia między komputerami 1198

Koncentrator, przełącznik, punkt dostępowy 1198

Bramy w sieciach nieethernetowych 1 '98

Rejestrowanie informacji o sieci 1198

Instalowanie oprogramowania sieciowego 1199

Wskazówki praktyczne 1201

Instalowanie '201

Udostępnianie zasobów 1201

Konfigurowanie zabezpieczeń 1202

Udostępnianie połączenia internetowego 1202

Bezpośrednie połączenie kablowe 1202

Rozwiązywanie problemów z siecią 1202

Konfiguracja oprogramowania sieciowego 1202

Awaria sieci 1203

TCP/IP 1203

Rozdział 21. Zasilacze i obudowy 1205

Jakie znaczenie ma zasilacz? 1205

Zasada działania i funkcje zasilacza 1205

Napięcia dodatnie 1205

Napięcia ujemne 1206

Sygnał Power Good 1207

Format (rozmiar) zasilacza 1208

PC X I 1209

AT/Desk 1210

Al Tower 1211

Baby-AT 1211

LPX 1211

ATX 1213

NLX 1214

SFX 1215

Złącza zasilania płyty głównej 1217

Złącza AT 1217

Złącze główne Al X (A IX Main) 1218

Złącze pomocnicze ATX (ATX Auxilliary) 1219

ATX12V 1220

Architektura A IX firmy Dell 1222

Wyłączniki zasilania 1224

Złącza zasilania urządzeń peryferyjnych 1226

Złącza urządzeń peryferyjnych i stacji dyskietek 1226

Numery części '228

Parametry techniczne zasilaczy 1229

Obciążenie zasilacza '229

Parametry zasilacza 1230

Inne parametry zasilaczy 1231

Korekcja współczynnika mocy 1233

Certyfikaty bezpieczeństwa zasilaczy 1234

Obliczanie poboru mocy 1235

Włączanie i wyłączanie zasilania 1238

Zarządzanie zasilaniem 1239

Komputery Energy Star 1240

Advanced Power Management (APM) 1240

Advanced Configuration and Power Interface (ACPI) 1241

Problemy z zasilaczem 1241

Przeciążenie zasilacza '242

Niewystarczające chłodzenie '243

Cyfrowy miernik uniwersalny '244

Specjalistyczne wyposażenie diagnostyczne 1246

Naprawianie zasilacza 1247

Kupowanie zasilacza 1248

Wybieranie właściwego modelu 1248

Wybór producenta zasilacza '248

Obudowa '249

Obudowy specjalne ' 250

Systemy zabezpieczania zasilania 1250

Eliminatory skoków napięcia (filtry przeciwprzepięciowe) 1252

Eliminatory skoków napięcia linii telefonicznej 1253

Stabilizatory napięcia 1253

Podtrzymywanie zasilania 1253

Baterie RTC W RAM (CMOS RAM) 1256

Rozdział 22. Montaż i modernizacja komputera 1259

Podzespoły 1259

Obudowa i zasilacz 1260

Procesor 1262

Płyta główna 1264

Stacja dyskietek i stacje dysków wymiennych 1269

Dyski twarde 1269

Stacje dysków optycznych 1270

Urządzenia wejściowe 1271

Karta graficzna i monitor 1272

Karta dźwiękowa i głośniki 1273

Akcesoria 1273

Zasoby sprzętowe komputera i oprogramowanie 1275

Montaż i demontaż podzespołów komputera 1276

Przygotowanie 1276

Instalowanie płyty głównej 1280

Instalowanie procesora i układu chłodzenia 1280

Instalowanie modułów pamięci 1282

Montowanie płyty głównej w obudowie 1283

Podłączanie zasilacza 1287

Podłączanie portów i urządzeń 1289

Instalowanie stacji i dysków 1290

Demontaż karty graficznej 1292

Instalowanie karty graficznej i sterowników 1292

Instalowanie innych kart rozszerzeń 1293

Zakładanie obudowy i podłączanie kabli zewnętrznych 1294

Uruchamianie programu konfiguracyjnego BIOS-u płyty głównej 1294

Problemy z uruchomieniem komputera 1295

Instalowanie systemu operacyjnego 1295

Zakładanie partycji dysku w przypadku systemów DOS i Windows 9x/Me 1296

Formatowanie dysku w przypadku systemów DOS i Windows 9x/Me 1296

Przygotowanie dysku w przypadku systemu Windows 2000/XP 1296

Lądowanie sterownika stacji CD-ROM 1297

Instalacja ważnych sterowników 1298

Dalsza rozbudowa komputera '298

Rozdział 23. Radykalne modyfikacje

— przetaktowywanie, chłodzenie cieczą i udoskonalanie obudów 1301

Przetaktowywanie '302

Kwarc '302

Historia przetaktowywania '304

Zegary w nowoczesnych komputerach PC 1305

Przetaktowywanie w praktyce '307

Prędkości magistrali oraz mnożniki '308

Chłodzenie '308

Układy chłodzenia '308

Chłodzenie cieczą '3'6

Obudowy zoptymalizowane termicznie 1320

Panele czołowe z portami wejścia-wyjścia oraz innymi akcesoriami 1327

System FrontX 1327

Inne akcesoria przeznaczone do montażu w panelach czołowych 1328

Rozdział 24. Diagnostyka, testowanie i konserwacja komputera PC 1331

Diagnostyka komputera PC 1331

Oprogramowanie diagnostyczne 1331

Test startowy komputera (POST) 1332

Programy diagnostyczne urządzeń 1343

Uniwersalne programy diagnostyczne 1344

Narzędzia diagnostyczne systemu operacyjnego 1344

Proces uruchamiania komputera 1345

Proces uruchamiania się komputera — zdarzenia niezależne od systemu operacyjnego 1345

Proces uruchamiania systemu DOS 1349

Proces uruchamiania się systemu Windows 9x/Me 1350

Proces uruchamiania systemu Windows NT/2000/XP 1353

Narzędzia służące do serwisowania komputerów PC 1353

Narzędzia podręczne 1354

Bezpieczeństwo 1358

Słowo o narzędziach i osprzęcie 1359

Urządzenia testowe 1360

Narzędzia dla entuzjastów 1365

Konserwacja i działania profilaktyczne 1367

Aktywne procedury profilaktyczne 1368

Pasywne procedury profilaktyczne 1378

Podstawy rozwiązywania problemów 1383

Nowoczesne komputery PC — bardziej skomplikowane, ale i bardziej niezawodne 1384

Standardowe części zamienne 1385

Naprawiać czy wymieniać? 1386

Rozwiązywanie problemów przez wymianę elementów 1386

Rozwiązywanie problemów za pomocą procedury uruchomieniowej 1387

Problemy pojawiające się w trakcie przeprowadzania procedury POST 1388

Problemy sprzętowe występujące po uruchomieniu systemu 1389

Problemy z uruchamianiem programów 1389

Problemy związane z kartami rozszerzeń 1389

Najczęściej spotykane problemy 1390

Rozdział 25. Systemy plików i odzyskiwanie danych 1401

Rekordy ładujące 1401

Główny rekord ładujący (MBR) 1402

Partycje podstawowa i rozszerzona 1403

Rekord ładujący wolumenu 1408

Obszar danych '415

Cylinder diagnostyczny 1415

Systemy plików '415

Klastry (jednostki alokacji plików) 1416

Systemy plików FAT 1416

FAT 12 1417

FAT 16 1418

VFAT i długie nazwy plików 1420

FAT32 1423

Przewodnik po systemie plików FAT 1428

Katalogi 1431

Błędy systemu plików FAT 1434

System plików NTFS 1437

Architektura NTFS 1440

Zapewnienie zgodności w NTFS 1442

Tworzenie dysków NTFS 1443

Narzędzia systemu NTFS 1443

System plików HPFS 1444

Narzędzia systemu plików 1444

Program RECOVER 1445

SCANDISK. 1445

Defragmentacja dysku 1446

Programy innych firm 1448

Odzyskiwanie danych 1450

Odzyskiwanie danych z Kosza systemu Windows 1450

Odzyskiwanie danych spoza Kosza 1450

Odzyskiwanie danych z usuniętych partycji i sformatowanych dysków 1452

Posługiwanie się programem Norton Disk Editor 1455

Odzyskiwanie danych z urządzeń z pamięcią Flash 1463

Najczęściej spotykane komunikaty o błędach i sposoby postępowania w ich przypadku 1464

Missing Operating System 1464

NO ROM BASIC — SYSTEM HALTED 1466

Boot Error Press FI to Retry 1466

Invalid Drive Specification 1466

Invalid Media Type 1466

Hard Disk Controller Failure 1466

Podstawowe zasady rozwiązywania problemów z systemem plików
w systemach MS-DOS, Windows 9x oraz Windows Me 1467

Podstawowe zasady rozwiązywania problemów z systemem plików w systemach Windows 2000/XP... 1468

Dodatek A Słownik 1469

Dodatek B Rozwiązywanie problemów — indeks 1555

Dodatek C Lista akronimów i skrótów 1581

Skorowidz 1597

O Autorze

Scott Mueller jest prezesem międzynarodowej firmy Muller Technical Research zajmującej się badaniem ryn­ku komputerów PC i szkoleniami. Od 1982 roku firma MTR specjalizuje się w przeprowadzaniu profesjonal­nych seminariów poświęconych sprzętowi komputerowemu i przywracaniu danych. Dodatkowo firma udo­stępnia książki, artykuły, materiały wideo oraz listy pytań i odpowiedzi. Do jej klientów zaliczają się firmy z listy Fortune 500. rząd Stanów Zjednoczonych i rządy innych państw, wielkie firmy informatyczne zajmują­ce się produkcją sprzętu i oprogramowania oraz przedsiębiorcy i prawdziwi entuzjaści komputerów. Uczest­nikami seminariów prowadzonych przez, autora książki było kilka tysięcy specjalistów z branży komputero­wej z całego świata.

Scott osobiście prowadzi w całym kraju seminaria poświęcone różnym zagadnieniom ze świata sprzętu kom­puterowego (rozwiązywanie problemów, konserwacja, naprawy i modernizacje), uzyskiwaniu certyfikatu w ramach programu A+ Certification, a także odzyskiwaniu i analizie danych. Scott potrafi omawiać tech­niczne zagadnienia w sposób nie tylko zrozumiały, ale też zabawny. Na jego wykładach nie można się nu­dzić! Jeśli dysponujesz grupą 10-osobową lub większą, Scott może dla Twojej firmy przygotować i przepro­wadzić seminarium.

Choć Scott prowadzi wykłady niemal bez przerwy od 1982 r., najbardziej znany jest jako autor cieszącej się ogromną popularnością, mającej wiele wydań i zawierającej mnóstwo informacji książki poświęconej sprzę­towi komputerowemu, wydawanej na całym świecie. Nosi ona tytuł Rozbudowa i naprawa komputerów PC. Książka ta nie tylko posiada już 16 wydań, ale pełnia rolę fundamentu dla całej serii innych publikacji.

Przez ponad 20 lat Scott napisał wiele książek, takich jak Upgrading and Repairing PCs' (16 wydań wraz z wersjami akademickimi), Upgrading and Repairing Laptops1, Upgrading and Repairing PCs: A+ Certifi­cation Siudy Guide (2 wydania), Upgrading and Repairing PCs Technician's Portable Reference (2 wydania), Upgrading and Repairing PCs Field Guide2, Upgrading and Repairing PCs Ouick Reference, Upgrading and Repairing PCs, Linia Edition, Killer PC Utilities, The IBM PS/2 Handbook i Oue 's Guide to Data Recovery.

Scott przygotował też kilka pakietów szkoleniowych z materiałami wideo dotyczącymi sprzętu komputero­wego, w tym 6-godzinne seminarium umieszczone na płytach CD, zatytułowane Upgrading and Repairing PCs Training Course: A Digital Seminar from Scott Mueller. Materiał jest idealną propozycją dla osób. które nie mogą sobie pozwolić na seminarium osobiście przeprowadzone dla nich przez Scotta.

1 Rozbudowa i naprawa komputerom PC — seria wydana przez Wydawnictwo Helion. ~ Rozbudowa i naprawa laptopem. Helion. 2004.

' Rozbudowa i naprawa komputera. Kompendium. Wydanie drugie, Helion, 2003.

Scott przez wiele lat przygotował też inne materiały wideo, takie jak Upgrading and Repairing PCs Video: I2th Edition, Your PC: The Inside Story. Scott zawsze poszerzał swoje książki o oryginalne materiały wideo, zamiast korzystać każdego roku z tych samych.

Jeśli interesuje Cię określona książka, artykuł lub projekt wideo bądź zależy Ci na tym. aby Scott osobiście przeprowadził dostosowane do potrzeb firmy seminarium dotyczące rozwiązywania problemów z kompute­rami PC, ich naprawy, konserwacji, modernizacji lub odzyskiwania danych, należy skontaktować się bezpo­średnio z firmą MTR.

Mueller Technical Research 3700 Grayhawk Drive Algonquin. 1L 60102-6325 847-854-6794 Faks: 847-854-6795 F-mail: scottmuelterfclicompuserve.com WWW: http:/'www.upgradingandrepuiringpcs.com http:.''www. m-lr. com

Podstawowa książka napisana przez Scotta, którą jest Naprawa i rozbudowa komputerów PC. została sprze­dana już w ponad 2 milionach egzemplarzy, co oznacza, że jak na razie jest to najpopularniejsza i najdłużej dostępna w sprzedaży publikacja poświęcona sprzętowi komputerowemu. Na temat Scotta pisano w czasopi­śmie Forbes. Sam napisał kilka artykułów dla czasopisma Ma.ximum PC, kilku grup dyskusyjnych i strony internetowej Upgrading and Repairing PCs.

Scott ostatnio ukończył pracę nad dwoma nowymi książkami — Upgrading and Repairing Laptops i Upgrading and Repairing PCs Video Training Course.

Jeśli chciałbyś przekazać swoje sugestie dotyczące następnych wydań książki, jakiekolwiek komentarze z nią związane lub dotyczące nowej książki, bądź tematów na artykuł, które Cię interesują, prześlij je do Scotta za pośrednictwem poczty elektronicznej pod adres scottmuellerfd)compuserve.com lub zajrzyj na stronę interne­tową http: '/www.upgradingandrepairingpcs.com i kliknij przycisk Ask Scott (Zadaj pytanie Scottowi).

Jeśli autor książki nie pracuje nad swoimi publikacjami dotyczącymi komputerów PC lub nie prowadzi semi­nariów, wtedy zazwyczaj można go spotkać w jego garażu zajętego kilkoma projektami. Obecnie przerabia swój motocykl Harley-Davidson FLHRCI Road King Classic i samochód 5.9L Grand Cherokee (rocznik 1998) — z napędem na 4 koła.

Współpracownicy

i redaktorzy techniczni

Mark Edward Soper jest prezesem firmy Select Systems and Associates, Inc. zajmującej się organizacją szkoleń i tworzeniem opracowań technicznych.

Od 1992 roku, począwszy od Maine, a skończywszy na Hawajach, Mark przekazywał tysiącom studentów swoją wiedzę na temat rozwiązywania problemów występujących w komputerach oraz innych technicznych zagadnień. Jest posiadaczem certyfikatów A+ oraz Microsoft Certified Proffesional. Już od polowy lat 80. ubiegłego wieku zajmuje się pisaniem tekstów na tematy techniczne i ma swój udział w powstaniu kilku książek wydanych przez wydawnictwo Que, takich jak Upgrading and Repairing PCs4 (edycja 11., 12., 13., 14., 15.), Upgrading and Repairing Networks5 oraz Special Edition Using Microsoft Windows Millennium Edition. Jest również współautorem: Upgrading and Repairing PCs, Technician 's Portale Reference, Upgra­ding and Repairing PCs Field Guide6, TechTV's Upgrading Your PC oraz Upgrading and Repairing PCs: A+ Study Certification Guide, Second Edition. Poza tym jest autorem następujących pozycji: The Complete Idiot 's Guide to Hlgh-Speed Internet Connections, PC Help Desk in a Book oraz Absolute Beginner 's Guide to Cable Internet Connections.

Od 1990 roku Mark napisał ponad 125 artykułów dla kilku większych czasopism komputerowych, takich jak SinartComputing, PCNovice, PCNovice Guides oraz PCNovice Learning Series. Jego pierwsze teksty zostały opublikowane w WordPerfect Magazine. The WordPerfectionist i PCToday. Wiele prac jego autorstwa moż­na odnaleźć w archiwalnych numerach tych czasopism lub dotrzeć do nich za pośrednictwem strony interne­towej znajdującej się pod adresem http://www.smartcomputing.com, natomiast firma Select Systems ma na swojej stronie indeks wszystkich artykułów Marka posortowany według tytułów. Strona dostępna jest pod ad­resem http://www.selectsystems. com

4 Rozbudowa i naprawa komputerów PC— seria wydana przez Wydawnictwo Helion.

5 Rozbudowa i naprawa sieci, Helion, 2001

6 Rozbudowa i naprawa komputera. Kompendium. Wydanie drugie. Helion, 2003

Mark Reddin jest posiadaczem certyfikatu MCSE (Microsoft Certified Systems Engineer) oraz A+. Jeszcze jako nowicjusz, za czasów pierwszych komputerów Commodore i Atari (oraz ich wspaniałych gier), lubił grze­bać przy sprzęcie. Bardziej na poważnie technologiami komputerowymi zajął się w czasie studiów na Bali State University i od tego momentu w różnym stopniu pozostaje z nimi związany. Jego doświadczenie obej­mujące komputery i sieci komputerowe jest wynikiem działalności w zakresie udzielania konsultacji i prowa­dzenia własnej firmy zajmującej się sprzedażą i serwisem komputerów. Oprócz tego, w ciągu kilku ostatnich lat Mark miał swój udział we wprowadzeniu na rynek kilkunastu publikacji wydawnictwa Que, pełniąc funk­cję redaktora technicznego.

Wprowadzenie

Witaj, Czytelniku 16. edycji książki Rozbudowa i naprawa komputerów PC. Od momentu, gdy w roku 1988 na rynku pojawiło się pierwsze wydanie, żadna książka dotycząca zagadnień związanych ze sprzętem komputerowym nie dorównała jej pod względem dokładności i jakości informacji. Ta edycja jest kontynuacją książki, która nie tylko jest najlepiej sprzedającą się publikacją tego typu, ale również najbardziej obszernym i kompletnym dostępnym na rynku zbiorem informacji na temat komputera. W książce przedstawiono do­głębnie budowę komputerów, podkreślono różnice występujące pomiędzy nimi oraz opisano możliwości kon­figuracji poszczególnych systemów.

16. edycja książki Rozbudowa i naprawa komputerów PC, która jest czymś więcej niż tylko niewielką aktu­alizacją poprzedniej edycji, obejmuje setki stron zupełnie nowego lub uaktualnionego i powtórnie napisanego materiału. Przemyśl komputerowy rozwija się szybciej niż kiedykolwiek, dlatego też książka ta jest naj­bardziej dokładną, kompletną i aktualną publikacją tego typu obecnie dostępną.

Napisałem tę pozycję dla osób, które zamierzają aktualizować, naprawiać i konserwować komputery lub usu­wać zaistniałe problemy. Jest ona również przeznaczona dla entuzjastów, którzy zamierzają poszerzyć swoją wiedzę na temat sprzętu. W książce omówiono w pełnym zakresie różne systemy kompatybilne z IBM PC. począwszy od najstarszych komputerów 8-bitowych, a skończywszy na najnowszych 64-bitowych stacjach roboczych wyposażonych w procesory taktowane zegarem rzędu kilku gigaherców. Jeśli zamierzasz dowie­dzieć się wszystkiego na temat komputerów, począwszy od pierwszych systemów, a skończywszy na najnow­szych technologiach dostępnych obecnie na rynku, z pewnością ta książka to właściwy wybór.

W tekście omówiono najwyższej jakości sprzęt i akcesoria, które sprawiają, że najnowsze typy komputerów osobistych są prostsze w obsłudze, szybsze i bardziej wydajne. Zawarto w nim szczegółowy opis każdego procesora przeznaczonego dla komputerów osobistych, począwszy od procesora Intel 8088, a skończywszy na najnowszym procesorze Pentium 4 z rdzeniem Prescott i układach Athlon 64/64 FX.

Książka Rozbudowa i naprawa komputerów PC zawiera również informacje na temat mniej istotnych kom­ponentów. Każda część komputera ze względu stabilność i wydajność całości odgrywa znaczącą rolę. W trak­cie lektury książki liczącej ponad 1500 stron dowiesz się dokładnie, dlaczego chipsety umieszczone na płycie głównej mogą być najważniejszymi elementami komputera lub co się może złego wydarzyć, gdy stosowany zasilacz nie będzie wystarczający, aby odpowiednio współpracować z właśnie zakupionym procesorem o na­prawdę wielkiej mocy. Publikacja ta zawiera również szczegółowe omówienie elementów, takich jak nowe formaty płyt głównych BTX, pamięci DDR/DDR2 SDRAM, karty graficzne i dźwiękowe, gniazda AGP, PCI i PCI-Express, monitory ciekłokrystaliczne, napędy DVD+/-RW, interfejs USB 2.0, Serial ATA i FireWire oraz wymienialne nośniki danych o dużej pojemności. To wszystko tutaj naprawdę jest! Nie zapomniano również o dokładnym omówieniu myszy i klawiatur.

Co nowego znalazło się w 16. edycji?

Na pewno wiele osób zapoznających się z treścią tej książki zakupiło jedną lub kilka jej poprzednich edycji. Na podstawie listów, poczty elektronicznej i innej korespondencji wiem, że — na tyle, na ile jest przydatna każda nowa edycja — na pewno chciałbyś wiedzieć, co nowego zostało w niej zawarte. Poniżej przedstawiłem krótką listę podstawowych zagadnień, które zostały dodane:

czy posiadany komputer spełnia wymagania niezbędne do skorzystania z procesorów z technologią hiperwątkowości i w jakim stopniu bardziej złożony potok wpływa na wydajność i szybkość komputera. Uzyskasz również informacje dotyczące szybszych magistrali, nowych typów pamięci i nie tylko.

♦ Nowsze chipsety korzystają z 2-kanałowej pamięci DDR, która w celu dostosowania szybkości

do magistrali procesora, wyeliminowania „wąskiego gardła" i zoptymalizowania wydajności jednocześnie używa dwóch banków. Najnowszym typem pamięci obsługiwanym przez obecnie dostępne chipsety i płyty główne jest pamięć DDR2. W rozdziale 6.. „Pamięć", nie tylko rozszerzyłem omówienie technologii pamięci, ale też wyjaśniłem korzyści wynikające z zastosowania nowszych rozwiązań.

z omówieniem kart dźwiękowych i graficznych oraz połączenia z internetem. Dostępne są nowe informacje na temat najnowszych kart graficznych firm NVIDIA (z serii 6800) i ATI (z serii x800).

♦ Jak zawsze dodano kolejne nowe rysunki cechujące się wysokąjakością wykonania. Corocznie dodajemy, modyfikujemy i, ogólnie mówiąc, poprawiamy kilkaset rysunków zamieszczonych w książce. Nowe

i zaktualizowane ilustracje zawierają więcej szczegółów technicznych pomagających zrozumieć bardziej złożone zagadnienia lub prezentujących, w jaki sposób wykonać określone zadanie.

Tak, jak w przypadku każdego wydania, w celu zagwarantowania, że niniejsza książka będzie najbardziej spójną i aktualną pozycją poświęconą sprzętowi komputerowemu dostępną w księgarni, poświęciłem jej tyle czasu, ile tylko byłem w stanie.

Czemu ma służyć ta książka?

Książka Rozbudowa i naprawa komputerów PC służy kilku celom. Pierwszym z. nich jest przekazanie wiedzy na temat konserwacji, aktualizacji i naprawy komputera osobistego. Książka pomaga w pełni zapoznać się z. całą grupą komputerów kompatybilnych z oryginalnym IBM PC. od którego wzięły swój początek. Oma­wia rozwój wszystkich komponentów komputera, takich jak płyty główne, procesory, pamięci, a nawet zasi­lacze i obudowy. Zawarto w niej informacje na temat właściwej obsługi komputera i jego podzespołów. Wy­mieniono również elementy najbardziej podatne na awarie występujące w różnych komputerach osobistych oraz pokazano, w jaki sposób zlokalizować wadliwą część. W trakcie lektury dowiesz się o zaawansowanych urządzeniach diagnostycznych i oprogramowaniu współpracującym z systemem i umożliwiającym określenie źródła problemu oraz metody jego eliminacji.

Komputery osobiste bardzo szybko zwiększają swoją moc obliczeniową i możliwości. Wydajność procesorów wzrasta przy okazji pojawienia się każdego nowego modelu. W książce Rozbudowa i naprawa komputerów PC dokonano przeglądu wszystkich procesorów stosowanych w komputerach kompatybilnych z IBM PC.

W publikacji opisano istotne różnice występujące pomiędzy najważniejszymi architekturami systemowymi, począwszy od standardu ISA (Industry Standard Architecture). a skończywszy na najnowszych standardach PCI, AGP i PCI-Express. Dla ułatwienia podjęcia decyzji dotyczących wyboru właściwego typu komputera, który zostanie w przyszłości zakupiony, jego aktualizacji oraz diagnostyki, omówiono każdą ze stosowa­nych architektur systemowych i współpracujących z nimi kart.

Ilość miejsca dostępnego do przechowywanych danych w nowoczesnych komputerach wzrasta w sposób geometryczny. Książka omawia różne możliwości przechowywania danych, począwszy od większych i szyb­szych dysków twardych, a skończywszy na specjalistycznych narzędziach służących do archiwizacji. Ponadto, przedstawiono w niej szczegółowe informacje na temat aktualizacji i diagnostyki używanej pamięci opera­cyjnej RAM.

Po przeczytaniu tej książki powinieneś mieć wystarczającą wiedzę, aby dokonać aktualizacji, diagnostyki i naprawy większości komputerów i ich komponentów.

Czy ta książka jest przeznaczona dla Ciebie?

Jeśli chcesz dowiedzieć się więcej na temat komputerów PC, niniejsza książka zdecydowanie jest dla Ciebie!

Książka Rozbudowa i naprawa komputerów PC została napisana dla osób, które chcą zdobyć wiedzę na te­mat budowy oraz funkcjonowania komputerów osobistych. Każda jej część dokładnie omawia powszechne i mniej typowe problemy, pokazuje, czym są one spowodowane i w jaki sposób postępować w sytuacji, gdy się pojawią. Dostarcza informacji na temat konfiguracji dysku i wykorzystywanych interfejsów, które mogą. na przykład, zwiększyć Twoje umiejętności związane z diagnozowaniem i usuwaniem problemów. Dzięki tej książce nabierzesz pewnej rutyny, która pozwoli Ci zorientować się, co się dzieje w komputerze w oparciu o własne obserwacje i wnioski, a nie na podstawie tabeli zawierającej kilka kroków z góry określonej procedury diagnostycznej.

Rozbudowa i naprawa komputerów PC jest przeznaczona dla osób, które zajmują się doborem, instalacją, konserwacją i naprawą komputerów wykorzystywanych prywatnie lub przez firmy, w których pracują. W celu realizacji takich zadań konieczne jest posiadanie określonego poziomu wiedzy znacznie szerszego od tego. którym dysponuje typowy użytkownik komputera. Musisz dokładnie wiedzieć, jakie narzędzie zastosować w przypadku konkretnego zadania i jak prawidłowo się nim posługiwać. Ta książka pomoże Ci osiągnąć wy­magany poziom wiedzy.

Autor miał na myśli miliony osób aktualizujących i składających komputery. Niektórzy z jego studentów na­leżą do komputerowych ekspertów, a inni są dopiero początkujący, ale niezależnie od tego łączy ich jedno, a mianowicie wiara w to, że książka Scotta zmienia ich życie. Scott może być nauczycielem dla każdego.

Omówienie rozdziałów

Książka została podzielona na rozdziały, które omawiają różne komponenty komputera osobistego. Kilka roz­działów posłużyło wprowadzeniu lub poszerzeniu zagadnień ściśle nie związanych z samymi podzespołami, ale większości elementów, z których jest zbudowany komputer, został poświęcony osobny rozdział lub jego część. Taki podział ma być pomocny w odszukaniu potrzebnych informacji. Godny uwagi jest również fakt znacznego poszerzenia, w porównaniu z poprzednimi edycjami, indeksu, który jest dodatkowym narzędziem przydatnym w wyszukiwaniu informacji w książce tej objętości.

Rozdziały 1. i 2. posłużyły głównie jako forma wprowadzenia. Rozdział 1., „Historia powstania komputera osobistego", rozpoczyna się wstępem do historii powstania oryginalnego komputera IBM PC i komputerów z nim kompatybilnych. Zawarto w nim niektóre fakty, które przyczyniły się do powstania mikroprocesora i samego komputera osobistego. Rozdział 2., „Komponenty, funkcje i typy komputerów", zawiera informacje na temat różnych typów magistral systemowych, które wyróżniają poszczególne rozwiązania. W rozdziale tym dokonano również przeglądu rodzajów komputerów osobistych, który pozwoli zdobyć podstawy wie­dzy wymaganej w czasie lektury pozostałej części książki, a ponadto zawiera pewnego rodzaju analizę praw. którymi rządzi się rynek sprzętu komputerowego. Podano również miejsca, w których powstają podzespoły i technologie.

Rozdział 3., „Typy i parametry mikroprocesorów", zawiera szczegółowe omówienie różnych procesorów firmy Intel, takich jak Pentium 4 (Prescott, Northwood i Willamette), Pentium III, Pentium II, Celeron. Xeon oraz starszych jednostek centralnych (CPU). Zamieszczono w nim również obszerną część poświęconą serii bardzo wydajnych procesorów Athlon 64/64FX i Athlon XP firmy AMD oraz procesorów Athlon, Duron i K6. Ze względu na fakt, że procesor jest jednym z najważniejszych składników komputera, ta edycja książki za­wiera, jak nigdy dotąd, bardziej obszerny i aktualny materiał im poświęcony. Dogłębnie omówiłem para­metry techniczne najnowszych gniazd procesorów, włączając w to obszerny opis gniazd Socket 754/939/940 obsługujących układy Athlon 64/64FX, gniazd Socket 423, Socket 478 i Socket T (LGA775) przeznaczonych dla procesora Pentium 4, gniazda Socket A dla procesora AMD Athlon XP oraz starszych gniazd, takich jak Socket 7, Socket 370, Slot 1 i Slot A. W rozdziale 3. opisano również, w jaki sposób zidentyfikować procesory znakowane. Są to procesory, które zostały zmodyfikowane przez nieuczciwego pośrednika w ten sposób, że wskazują wyższą częstotliwość pracy niż wynika to z rzeczywistych parametrów określonych przez produ­centa. Takie procesory są zazwyczaj sprzedawane odbiorcy jako szybsze modele. Zaprezentuję, w jaki sposób identyfikować i unikać tego typu elementów.

Rozdział 4., „Płyty główne i magistrale", szczegółowo omawia płyty główne oraz ich komponenty, chipsety i magistrale systemowe. Rozdział zawiera również przegląd wszystkich standardów płyt głównych począw­szy od Baby-AT. a skończywszy na przeróżnych odmianach standardu ATX i nowym BTX. Chipsety płyty głównej mogą poprawić wydajność komputera, jak również — pomimo zastosowania bardzo szybkiego pro­cesora — spowodować jej spadek. W rozdziale 4. zostały omówione najnowsze chipsety współpracujące z procesorami aktualnie dostępnymi na rynku, włączając w to produkty firm Intel, AMD, VIA, NVIDIA. SiS. ALi oraz innych. Również tutaj dokonano przeglądu specjalnych architektur magistral i urządzeń takich jak bardzo wydajna magistrala PCI (Peripheral Component Interconnect), magistrala PCI-Express oraz magi­strala AGP (Accelerated Graphics Port) wraz z jej wersją AGP x8. W rozdziale tym można znaleźć wszelkie informacje, począwszy od danych na temat najnowszych chipsetów, a skończywszy na właściwym rozmiesz­czeniu otworów w płycie wykonanej w standardzie ATX lub BTX.

Rozdział 5., „BIOS", zawiera szczegółowe omówienie systemu BIOS uwzględniające jego rodzaje, możliwo­ści i aktualizacje. Zagadnienie to zostało poszerzone z dotychczasowego jednego podrozdziału książki do ca­łego rozdziału zawierającego więcej informacji z nim związanych, niż miało to miejsce do tej pory. Został również dodany uaktualniony przegląd systemu BIOS, a dokładniej mówiąc informacje dotyczące narzędzia służącego do konfiguracji systemu BIOS, jego programowalnej wersji — Flash — oraz zawartych w nim funkcji Pług and Play.

Rozdział 6., „Pamięć", zawiera szczegółowe omówienie pamięci stosowanych w komputerach osobistych, z. uwzględnieniem parametrów technicznych najnowszych typów pamięci RAM i podręcznej. Obok procesora i płyty głównej, pamięć operacyjna jest jedną z najważniejszych części komputera. Jednocześnie jest elemen­tem jednym z najtrudniejszych do opisania, ponieważ w pewien sposób jest nieuchwytna i zasady jej działa­nia nie zawsze są oczywiste. Jeśli zależy Ci na poznaniu różnicy pomiędzy poszczególnymi typami pamięci operacyjnej i podręcznej, takimi jak pamięć podręczna LI i L2, pamięć podręczna L2. zewnętrzna i zinte­growana, pamięć SIMM. DIMM, RIMM oraz na porównaniu pamięci SDRAM z pamięcią DDR SDRAM i RDRAM, porównaniu pamięci EDO o czasie dostępu równym 60 nanosekund z pamięcią PC 133. PC3200 i nową DDR2, rozdział ten jest miejscem, w którym znajdziesz odpowiedź na pytania związane z tymi zagad­nieniami. A zatem, zanim dokonasz w swoim komputerze wymiany, zamiast pamięci PC2I00 DDR SDRAM, pamięci EDO SIMM pracującej w trybie Fast Page na pamięć DIMM, postaraj się zapoznać z treścią tego rozdziału.

Rozdział 7., „Interfejs ATA/IDE", szczegółowo omawia interfejs ATA/IDE, z uwzględnieniem jego typów i parametrów technicznych. Zaliczają się do nich różne wersje Ultra-ATA pozwalające na transfer danych z prędkością 133 MB/s. Zostanie wyjaśnione, dlaczego nie powodują one znacznego przyrostu wydajności komputera. W tym rozdziale zawarto też więcej informacji na temat nowego standardu Serial ATA — tech­nologii, która docelowo ma zastąpić interfejs równoległy ATA wykorzystywany przez ostatnie 16 lat.

Rozdział 8.. „Interfejs SCSI", omawia interfejs SCSI z uwzględnieniem nowego standardu SAS (Serial Atta-ched SCSI), powiązanego z interfejsem Serial ATA. Zawarto tutaj również informacje na temat nowego systemu sterowania sygnałami Low Voltage Differential (różnicowy system niskich napięć) wykorzystywa­nego przez niektóre szybsze urządzenia dostępne na rynku oraz najnowsze dane dotyczące kabli, terminato­rów i konfiguracji urządzeń SCSI. W rozdziale 8. omówiono też najnowszy standard UltraSCSI.

Rozdział 9„ „Świat urządzeń o zapisie magnetycznym", szczegółowo omawia zasady działania urządzeń wy­korzystujących zapis magnetyczny, takich jak dyski twarde i napędy taśmowe. Niezależnie od tego, czy na zajęciach z fizyki zrozumiałeś zasady związane z elektromagnetyzmem, w tym rozdziale te dość złożone za­gadnienia zostaną poddane analizie i przedstawione, w sposób, który zmieni Twoje dotychczasowe wyobra­żenie na temat dysków i przechowywanych na nich danych.

Rozdział 10.. „Dyski twarde", opisuje sposób, w jaki dane są przechowywane na dysku twardym i co się dzie­je w chwilę po dwukrotnym kliknięciu przyciskiem myszy nazwy pliku.

Rozdział 11.. „Napędy dyskietek", dokonuje szczegółowego omówienia poczciwych stacji dyskietek. Do­wiesz się. w jaki sposób prawidłowo je zamontować oraz jak dane są zapisywane na dyskietkach.

Rozdział 12., „Nośniki wymienne o dużej pojemności", omawia przenośne urządzenia przechowujące dane. takie jak SuperDisk (LS-120), Iomega Zip, Jaz oraz Click!, jak również zawiera zupełnie nową część poświę­coną napędom taśmowym.

Rozdział 13., „Pamięci optyczne", omawia urządzenia wykorzystujące do zapisu danych technologie CD i DVD z uwzględnieniem nagrywarek CD jedno- i wielokrotnego zapisu oraz inne technologie zapisu optycz­nego. W rozdziale tym opisano też czynności, jakie należy wykonać, aby uniknąć błędów przepełnienia bufo­ra oraz szczegółowe informacje na temat tworzenia startowych płyt CD, nagrywania płyt CD Audio i doboru nośników o najwyższej jakości. Jest tu także obszerne omówienie standardu DVD zawierające wszelkie in­formacje konieczne do zrozumienia różnicy pomiędzy standardami DVD-R, DVD-RAM, DVD-RW i DVD+ RW. Po przeczytaniu tego rozdziału będziesz wiedział też, który napęd wykonany zgodnie z jednym z powyż­szych standardów należy zakupić, aby móc go wykorzystywać w przyszłości.

Rozdział 14., „Instalowanie i konfigurowanie napędów dysków", omawia, w jaki sposób zamontować dyski różnych typów stosowanych w komputerach osobistych. Dowiesz się tutaj również, jak po zamontowaniu dysku założyć i sformatować na nim partycje.

Rozdział 15., „Podsystem graficzny", omawia wszystko, co należy wiedzieć na temat kart graficznych i moni­torów. Dowiesz się z niego, na czym polega działanie monitorów kineskopowych i ciekłokrystalicznych oraz który z nich jest dla Ciebie najbardziej odpowiedni. Jeśli lubisz gry komputerowe lub multimedia, z pewno­ścią będziesz chciał przeczytać coś na temat doboru odpowiedniego graficznego akceleratora 3D. Zostały po­równane najnowsze technologie dostępne na rynku i podano informacje pomocne przy wyborze odpowiedniej karty graficznej.

Rozdział 16., „Podsystem audio", omawia karty dźwiękowe i inne urządzenia do obróbki dźwięku, włączając w to zestawy głośnikowe. Jakość dźwięku zaczęła odgrywać coraz większą rolę w każdym lepszym kompute­rze, dlatego też w tym rozdziale spróbuję wyjaśnić, czym powinny się cechować kupowane karty dźwiękowe i jakie ich typy są najbardziej zalecane. Zawarłem w nim nawet wskazówki dotyczące optymalizacji wydajno­ści urządzeń odpowiedzialnych za dźwięk stosowanych w grach, przeznaczonych do słuchania płyt CD oraz przy tworzeniu i odtwarzaniu plików muzycznych zapisanych w formacie MP3.

Rozdział 17., „Porty wejścia-wyjścia — od szeregowego i równoległego do IEEE 1394 i USB", omawia stan­dardowe porty szeregowe i równolegle nadal stosowane w większości komputerów oraz nowsze technologie, takie jak USB i FireWire (IEEE 1394/iLink). Zostały w nim również przedstawione najnowsze innowacje związane ze standardami interfejsów, takimi jak USB 2.0, USB On-The-Go i nowy FireWire 800.

Rozdział 18., „Urządzenia wejściowe", omawia klawiatury, urządzenia wskazujące oraz porty gier służące do prowadzenia komunikacji z komputerem. Wspomniano również o myszach i klawiaturach bezprzewodowych.

Rozdział 19., „Internet", porównuje różne typy połączeń o dużej szybkości, które zaczynają się pojawiać na ryn­ku komputerów osobistych, oparte na takich urządzeniach, jak modem DSL oraz modem kablowy i satelitarny.

Rozdział 20., „Sieć lokalna (LAN)", omawia instalację i konfigurację sieci lokalnej (LAN) wykorzystywanej w domu lub w biurze. Zaprezentuję w nim, w jaki sposób zainstalować kartę sieciową (NIC), samodzielnie wykonać kable sieci Ethernet i skonfigurować usługi sieciowe systemu Windows.

Rozdział 21., „Zasilacze i obudowy", zawiera szczegółowy przegląd zasilaczy, które w dalszym ciągu są pod­stawową przyczyną problemów i awarii występujących w komputerach osobistych. Po nabyciu nowego kom­putera okazuje się, że ten niedoceniany komponent jest zazwyczaj tym, który nie jest najlepszej jakości, co wy­jaśnia, dlaczego jest źródłem tak wielu problemów często przypisywanych systemowi Windows, pamięci lub jeszcze kilku innym elementom. W rozdziale zamieszczono też dokładne parametry techniczne zasilaczy sto­sowanych w różnych komputerach, począwszy od AT, a skończywszy na ATX. Ich budowa nie jest jednakowa, dlatego też nieprawidłowa instalacja może spowodować zagrożenie zarówno dla Ciebie, jak i dla komputera.

W rozdziale 22., „Montaż i modernizacja komputera", został pokazany proces doboru elementów, które po­służą wykonaniu aktualizacji lub montażu od podstaw całego komputera. Następnie krok po kroku zostaniesz przeprowadzony przez taką operację. W rozdziale zostało umieszczonych mnóstwo zdjęć, które będą pomocne przy pracy.

W rozdziale 23. omówiono technologię mającą wpływ na szybkość komputera i wyjaśniono, w jaki sposób bezpiecznie sprawić, aby częstotliwość pracy procesora przekraczała wartość nominalną. Operację tę nazywa się przetaktowywaniem (ang. overclocking). W rozdziale omówiono też szczegółowo systemy odprowadzania ciepła z komputera oparte na powietrzu, płynie, a nawet wykorzystujące obieg chłodniczy. Wspomniano również o najnowszych udoskonaleniach obudów za cenę mniejszą od 32 zł, polepszających chłodzenie uży­wanych komputerów. Wiele nowych płyt głównych posiada złącza przeznaczone dla przedniego panelu wejść i wyjść. W rozdziale podano możliwości wyposażenia używanych komputerów w takie panele.

Rozdział 24.. „Diagnostyka, testowanie i konserwacja komputera PC", omawia narzędzia i procedury służące do diagnozowania i testowania komputera. Zawarto tutaj również dodatkowe informacje dotyczące identyfi­kacji i usuwania typowych problemów występujących w komputerze. Dowiesz się. jakimi narzędziami po­sługuje się dobry technik komputerowy. Poza tym zapoznam Cię z kilkoma, o których może do tej pory nie słyszałeś lub ich nie używałeś.

Rozdział 25., „Systemy plików i odzyskiwanie danych", omawia systemy plików i procedury odzyskiwania danych. Jeśli należysz do grupy tych użytkowników systemu Windows XP, którzy zastanawiają się, czy zmienić stosowany system plików na system NTFS lub jeśli nie jesteś pewien tego, czy zaktualizować system plików

FAT 16 na FAT32, wtedy powinieneś przeczytać ten rozdział. Jeśli na skutek uszkodzenia głównego sektora rozruchowego MBR (master boot record) lub sektora rozruchowego woluminu VBR (volume boot record) nie jest możliwe użycie dysku, można skorzystać z zamieszczonych w rozdziale informacji, pomocnych w odtworzeniu tych sektorów i uzyskaniu dostępu do cennych danych.

Na mojej stronie internetowej umieściłem ponadgodzinny wideoklip, który za darmo jest dostępny dla każde­go, kto ma ochotę obejrzeć go sobie w wersji online. Aby to zrobić, należy w przeglądarce wprowadzić adres:

httpjiwww. upgradingandrepairingpcs. com.

Komentarz Autora

Gdy pytano Dave'a McLellana — byłego dyrektora koncernu General Motors odpowiedzialnego za model Corvette — o jego ulubioną wersję tego samochodu, on zawsze odpowiadał: „Przyszłoroczna". Teraz, po uka­zaniu się 16. edycji, przyszłoroczna wersja okazała się wersją tegoroczną, aż do następnego roku, w którym...

Wierzę, że książka jest bezsprzecznie najlepszą tego typu pozycją dostępną na rynku, a mniemam tak głównie na podstawie sporego odzewu zarówno ze strony słuchaczy moich seminariów, jak i Czytelników. Jestem ogromnie wdzięczny wszystkim tym. którzy wspierali mnie przy tworzeniu tej książki przez ostatnie 16 lat, jak również wszystkim oddanym Czytelnikom, z których wielu towarzyszy mi już od czasu wydania pierwszej edycji. Podczas seminariów prowadzonych przeze mnie od 1982 r. miałem bezpośredni kontakt z wieloma ty­siącami odbiorców moich książek i nadal mile widziane są wszelkie komentarze, a nawet słowa krytyki. Nie­których z Was zainteresuje może informacja, że pisanie tej pracy rozpocząłem na początku 1985 r. W tamtych czasach została ona wydana za moje własne pieniądze i zanim została profesjonalnie opublikowana w 1988 r. przez wydawnictwo Que była wykorzystywana wyłącznie w trakcie prowadzonych przeze mnie seminariów poświęconych sprzętowi komputerowemu. W ten lub inny sposób tworzyłem tę książkę lub ją aktualizowałem przez ponad 20 lat! Od 16 lat, odkąd jest profesjonalnie wydawana, Rozbudowa i naprawa komputerów PC potwierdziła, że jest nie tylko pierwszą, ale również najbardziej obszerną, przystępnie napisaną i zrozumiałą publikacją tego typu. Najnowsza. 16. edycja jest jeszcze lepsza niż wszystkie poprzednie. Wszelkie komen­tarze, sugestie i pomoc sprawiły, że książka ta okazała się najlepszą dostępną na rynku publikacją poświęconą zagadnieniom związanym ze sprzętem komputerowym. Czekam na Wasze komentarze.

Scott

Rozdział 1.

Historia powstania komputera osobistego

Historia maszyn cyfrowych

przed powstaniem komputera osobistego

Można powiedzieć, że wiele odkryć i wynalazków miało pośredni lub bezpośredni wpływ na powstanie kom­putera osobistego. Przeanalizowanie kilku znaczących wydarzeń z historii maszyn cyfrowych może pomóc w przybliżeniu całego obrazu związanego z tym procesem.

Pierwsze komputery, niezależnie od typu, były prostymi kalkulatorami. Zaliczają się również do nich elek­troniczne urządzenia cyfrowe wywodzące się bezpośrednio od swoich mechanicznych poprzedników.

Chronologia

Poniżej przedstawiono chronologiczne zestawienie kilku znaczących wydarzeń z historii komputera. W za­mierzeniu nie jest to pełna prezentacja, ale tylko spis niektórych najważniejszych przełomowych wydarzeń związanych z powstawaniem tego urządzenia:

1617 John Napier tworzy „kości Napiera" — drewniane lub wykonane z kości słoniowej słupki służące do realizacji obliczeń

1642 Blaise Pascal opracowuje maszynę sumującą Pascala

.

1822 Charles Babbage opracowuje projekt maszyny różnicowej, a następnie maszyny analitycznej — prawdziwej maszyny liczącej ogólnego zastosowania.


1906 Lee De Forest patentuje triodę (lampę elektronową) pełniącą rolę przełącznika w pierwszych elektronicznych komputerach.

1936 Alan Turing publikuje pracę On Computable Numbers w której opisuje wyimaginowany computer zwany maszyną Turinga. Zostaje ona uznana za jeden z

fundamentów nowoczesnego przetwarzania danych. W późniejszym okresie Turing zajął się łamaniem kodu niemieckiego urządzenia szyfrującego ENIGMA.

1937 Jonh V. Atanasoff rozpoczyna pracę nad komputerem Atanasoffa-Berry (ABC), który później zostaje oficjalnie uznany jako pierwszy elektroniczny komputer.

1943 Thomas (Tommy) Flowers projektuje dla tajnej komórki brytyjskiej armii zajmującej się łamaniem kodów komputer Colossus, mający za zadanie rozszyfrowywanie wiadomości kodowanych za pomocą niemieckiego urządzenia szyfrującego Enigma.

1949 Maurice Wilkes buduje na uniwersytecie w Cambridge EDSAC, pierwszy praktycznie wykorzystywany komputer z programem znajdującym się w pamięci.

1950 Zespół badawczy Engineering Research Associates, mający swoją siedzibę w Minneapolis, buduje ERA 1101, jeden z pierwszych komputerów produkowanych seryjnie.

1954 Gordon Teal — pracownik firmy Teras Instruments, Inc. — doskonali krzemowy tranzystor złączowy, powodując znaczne obniżenie kosztów jego produkcji.

1956 Wraz z dostarczeniem przez firmę IBM do siedziby firmy Zellerbach Paper, znajdującej się w San Francisco, produktu 0 nazwie 305 RAMAC rozpoczyna się era magnetycznych napędów dyskowych.

1958 W celu udowodnienia, że oporniki i kondensatory mogą być umieszczone na tej samej warstwie materiału półprzewodnikowego, Jack Kolby pracownik firmy Texas Instruments worzy pierwszy układ scalony.

1959 Komputery przemysłowe firmy IBM z serii 7000 są pierwszymi komputerami opartymi na tranzystorach.

1959 Układ scalony praktycznie wykorzystywany i zaprojektowany przez Roberta Noyce'a — pracownika firmy Fairchild Camera and Instrument Corp. — umożliwia tworzenie ścieżek przewodzących bezpośrednio na powierzchni krzemu.

1960 Bell Labs projektuje Dataphone — pierwszy ogólnie dostępny modem służący do konwersji danych cyfrowych na sygnał analogowy przekazywany następnie przez łącze telefoniczne.

1964 Superkomputer CDC 6600 — zaprojektowany przez firmę Seymour Cray — wykonuje do trzech milionów instrukcji na sekundę, co jest wartością

trzykrotnie wyższą niż szybkość osiągana przez komputer IBM Stretch, będący produktem jej największego konkurenta.

1964 Firma IBM informuje o swoim System/360 — rodzinie sześciu kompatybilnych ze sobą komputerów i 40 urządzeniach zewnętrznych współpracujących ze sobą.

1966 Firma Hewlett-Packard angażuje się w branżę komputerów ogólnego zastosowania przeznaczonych dla biznesu i opracowuje komputer HP-2115 służący do wykonywania obliczeń z szybkością, która dotąd była dostępna tylko w większych systemach.

1969 Departament Obrony tworzy cztery węzły sieci ARPAnet — dwa z nich w budynkach University of California (jeden w Santa Barbara, a drugi w Los Angeles) oraz po jednym w siedzibie firmy SRI International i w University of Utah — a tym samym daje podbudowę temu, co zapoczątkowało sieć Internet.

1971 Zespół badawczy San Jose Laboratories firmy IBM projektuje napęd dyskietek formatu 8 cali.

1971 W czasopiśmie Electronic News pojawia się pierwsza reklama mikroprocesora Intel 4004.

1971 W czasopiśmie Scientific American
zostaje zamieszczona reklama Kenbaka-1

— jednego z pierwszych komputerów osobistych wartego 750 dolarów.

1972 Firma Hewlett-Packard wprowadza na rynek HP-35 — szybki i wyjątkowo dokładny elektroniczny kalkulator z zaawansowanymi funkcjami arytmetycznymi między innymi logarytmy), wyposażony w jednolitą pamięć podobną do pamięci stosowanej w komputerach.

1972 Firma Intel wprowadza do sprzedaży mikroprocesor 8008.

1972 Steve Wozniak buduje „błękitne pudełko" — generator dźwięku służący do wykonywania darmowych połączeń telefonicznych.

1973 Robert Metcalfe wpada na pomysł wykonania w centrum badawczym firmy Xerox — położonym w Pało Alto — połączeń sieciowych w technologii Ethernet.

1973 Micral jest pierwszym sprzedawanym w częściach ogólnodostępnym komputerem osobistym opartym na mikroprocesorze Intel 8008.

1973 TV Typewriter zaprojektowany przez Dona Lancastera jako pierwszy umożliwia wyświetlanie alfanumerycznych danych przy wykorzystaniu

zwykłego odbiornika telewizyjnego.

1974 Pracownicy centrum badawczego firmy Xerox znajdującego się w Pało Alto projektują Alto — pierwszą stację roboczą z wbudowaną myszą stanowiącą urządzenie wejściowe.

1975 Styczniowe wydanie czasopisma Popular Electronics opisuje przedstawiony na swojej okładce komputer Altair 8800. który jest wyposażony w procesor Intel 8080.

1975 Lee Felsenstein projektuje prototyp modułu wizualizacji (ang. visual display module — VDM), który jest pierwszą implementacją wykorzystującego mapowanie pamięci alfanumerycznego wyświetlacza przeznaczonego dla komputerów osobistych.

1976 Steve Wozniak projektuje Apple-1 — pierwszy komputer jednopłytowy.

1976 Firma Shugart Associates wprowadza na rynek napęd dyskietek formatu 5,25 cala.

1977 Firma Apple Computer wprowadza do sprzedaży komputer Apple II.

1977 Firma Commodore przedstawia komputer PET (Personal Electronic Transactor — osobisty elektroniczny terminal).

1978 Komputer VAX 11/780 firmy Digital Eąuipment Corp. cechuje się zdolnością adresowania pamięci wirtualnej o maksymalnej pojemności 4,3 GB, co przewyższa kilkaset razy możliwości większości ówczesnych minikomputerów.

1980 Firma Seagate Technology tworzy pierwszy dysk twardy ST-506 przeznaczony dla mikrokomputerów.

1981 Adam Osborne kończy prace nad pierwszym komputerem przenośnym 0 nazwie Osborne I, który ważył około 9 kilogramów i kosztował 1795 dolarów.

1981 Firma IBM prezentuje swój komputer IBM PC, wywołując szybki rozwój rynku komputerów osobistych. IBM PC jest przodkiem stosowanych obecnie komputerów osobistych.

1981 Firma Sony wprowadza do sprzedaży pierwszy napęd dyskietek o formacie 3,5 cala.

1 współpracujący z myszą (jego reklama pokazywana w trakcie finału rozgrywek Super Bowl 1984 kosztowała 1,5 miliona dolarów).

1984 Firma IBM prezentuje komputer PC-AT (PC Advanced Technology — zaawansowany technologicznie komputer osobisty), który jest trzykrotnie szybszy niż pierwszy komputer IBM PC i jest oparty na procesorze Intel 80286. Komputer AT, na którym są wzorowane obecnie produkowane komputery, jest wyposażony w 16-bitową magistralę ISA.

1987 Firma IBM wprowadza do sprzedaży komputer PS/2, który jest wyposażony w napęd dyskietek formatu 3,5 cala oraz obsługuje standard VGA opracowany dla omputerów osobistych. Komputer PS/2 zawiera również magistralę MCA (MicroChannel Architecture) będącą pierwszą magistralą typu plug-and-play (podłącz i działaj) zaprojektowaną dla komputerów osobistych.

1988 Steve Wozniak— współzałożyciel firmy Apple — opuszczają, aby stworzyć nową, własną firmę o nazwie NeXT.

1988 Firma Compaq wraz z innymi producentami klonów komputera IBM PC opracowuje magistralę EISA (Enhanced Indus try Standard Architecture), która w rzeciwieństwie do magistrali MicroChannel jest kompatybilna z już istniejącą magistralą ISA.

1988 „Robak" komputerowy stworzony przez Roberta Morrisa powoduje przeciążenie sieci ARPAnet. 23-letni Morris — syn eksperta do spraw bezpieczeństwa komputerowego pracującego w Narodowej Agencji Bezpieczeństwa — przesyła do internetu „robaka" nie nastawionego na destrukcję, ale blokującego 6 000 komputerów podłączonych do sieci liczącej 60 000 węzłów.

1993 Firma Intel wprowadza do sprzedaży procesor Pentium (P5). Gdy okazało się, że niemożliwe jest zastrzeżenie liczby, Intel zmienia nazewnictwo procesorów z l iczb na nazwy. Intel prezentuje również chipsety współpracujące z nowym procesorem oraz po raz pierwszy kompletne płyty główne.

1995 Firma Intel prezentuje procesor Pentium Pro, który jest pierwszym przedstawicielem rodziny P6.

1995 Firma Microsoft wprowadza na rynek Windows 95 — pierwszy popularny 32-bitowy system operacyjny.

1997 Firma Intel rozpoczyna sprzedaż procesora Pentium II, który właściwie jest procesorem Pentium Pro z dodanym rozszerzeniem MMX.

1999 Firma AMD wprowadza na rynek procesor Athlon.

1999 Organizacja IEEE oficjalnie zatwierdza standardy sieci bezprzewodowych 802.1 la (szybkość 54 Mb/s, pasmo 5 GHz) i 802.11 b (szybkość 11 Mb/s, pasmo 2,4 GHz). W celu certyfikowania produktów zgodnych ze standardem 802.11 b powstaje organizacja Wi-Fi Alliance. Wydawany przez nią certyfikat potwierdza możliwość współdziałania urządzeń.

2000 Na rynku pojawiają się pierwsze produkty zgodne ze standardem 802.1 lb, posiadające certyfikat organizacji Wi-Fi Alliance. Rozpoczyna się szybki rozwój
sieci bezprzewodowych.

2000 Firma Microsoft wprowadza do sprzedaży systemy operacyjne Windows Me (Millenium Edition) oraz Windows 2000.

2000 Zarówno Intel, jak i AMD prezentują procesory taktowane zegarem 1 GHz.

2000 Firma AMD tworzy procesor Duron — tańszą wersję modelu Athlon wyposażoną w pamięć Cache L2 o mniejszej pojemności.

2001 Przemysł komputerowy obchodzi 20. rocznicę wprowadzenia do sprzedaży komputera osobistego IBM PC.

2001 Firma Intel prezentuje kolejną wersję procesora Pentium 4, który jako pierwszy jest taktowany zegarem 2 GHz. Przemysł komputerowy potrzebował

dwudziestu ośmiu i pół roku na to, aby z początkowych 108 kHz dojść do częstotliwości zegara równej 1 GHz, ale już do osiągnięcia granicy 2 GHz

wystarczyło tylko 18 miesięcy.

2001 Firma Microsoft rozpoczyna sprzedaż systemu operacyjnego Windows XP w wersjach Home i Professional, przy czym po raz pierwszy — pod postacią identycznej podstawowej części kodu źródłowego — łączy ze sobą dotychczas oddzielnie tworzoną wersję domową (9x/Me) oraz wersję przeznaczoną dla firm (NT/2000).

2001 Firma Atheros wprowadza na rynek pierwsze bardzo szybkie układy zgodne z standardem 802.1 la, oferującym szybkość przesyłu danych na poziomie 54 Mb/s.

2002 Firma Intel wprowadza na rynek pierwszy procesor o szybkości przekraczającej 3 GHz, którym jest układ Pentium 4, taktowany zegarem o częstotliwości 3,06 GHz. Procesor przeznaczony dla komputerów PC jest też wyposażony w technologię hiperwątkowości (ang. Hyper-Threading), umożliwiającą jednoczesną obsługę dwóch wątków aplikacji.

2003 Firma Intel prezentuje procesor Pentium M, stworzony z myślą o komputerach przenośnych i cechujący się wyjątkowo niskim zużyciem energii. Dzięki temu w znaczącym stopniu wydłużono żywotność baterii i jednocześnie nadal utrzymano dość wysoką wydajność. Układ Pentium M odgrywa kluczową rolę w przypadku produktów firmy Intel opatrzonych logo Centrino. z którym standard 802.1 lg jest zgodny). Produkty oparte na standardzie 802.11 g szybko pojawiają się na rynku. Niektóre z nich były już dostępne, zanim standard został oficjalnie zatwierdzony.

2004 Firma Intel prezentuje wersję procesora Pentium 4 o nazwie kodowej Prescott. Jest to pierwszy układ przeznaczony dla komputerów PC wykonany w technologii 90 nanometrów.

2003 Firma AMD wprowadza do sprzedaży układ Athlon 64, pierwszy 64-bitowy procesor przeznaczony dla zwykłych użytkowników i klientów biznesowych.

2003 Organizacja IEEE oficjalnie zatwierdza standard bardzo szybkich sieci bezprzewodowych 802.1 lg (szybkość 54 Mb/s, pasmo 2,4 GHz — takie samo. jak w przypadku standardu 802.1 lb,

2004 Firma Intel prezentuje technologię EM64T (Extended Memory 64 Technology), będącą 64-bitowym rozszerzeniem architektury IA-32. Technologia EM64T jest zgodna z oprogramowaniem i przeznaczona na ten sam rynek, co procesor AMD Athlon 64; nie zachowano natomiast zgodności z 64-bitowym układem Itanium.

Kalkulatory mechaniczne

Jednym z najstarszych znanych urządzeń służących do obliczeń jest liczydło, które było szeroko stosowane przez ponad 2000 lat. Liczydło jest prostą drewnianą ramką zawierającą równolegle ustawione poprzeczki, na które są nawleczone kulki. Dzięki temu, że kulki mogą być przesuwane w dwóch kierunkach — zgodnie z określo­nymi zasadami — możliwe jest wykonanie kilku różnych operacji arytmetycznych.

Matematyka oparta na standardowych cyfrach arabskich dotarła do Europy w ósmym i dziewiątym wieku. Na po­czątku 1600 roku uczony o nazwisku Charles Napier (wynalazca logarytmów) zaprojektował kilka słupków (póź­niej nazwanych kośćmi Napiera), które mogły być wykorzystane przy wykonywaniu operacji mnożenia liczb.

Blaise Pascal jest zazwyczaj uznawany za tego, który w 1642 roku zbudował pierwszą maszynę liczącą. Była ona w stanie wykonywać dodawanie liczb wprowadzanych za pomocą tarczy i w zamierzeniu miała wspomóc ojca wynalazcy, który był poborcą podatkowym. Następnie, w roku 1671 Gottfried Wilhelm von Leibniz za­projektował kalkulator, który ostatecznie został wykonany 23 lata później. Jego maszyna licząca potrafiła nie tylko dodawać, ale po poprawnym wykonaniu operacji dodawania i przesunięcia była również w stanie wy­konać operację mnożenia.

W roku 1820 Charles Xavier Thomas zaprojektował pierwszy mechaniczny kalkulator, który odniósł sukces na rynku. Oprócz dodawania potrafił również odejmować, mnożyć i dzielić. Następstwem tego było opraco­wanie udoskonalonych wersji mechanicznych kalkulatorów tworzonych przez różnych wynalazców.

Pierwszy kalkulator mechaniczny

Charles Babbage — profesor matematyki na uniwersytecie w Cambridge w Anglii — przez wielu jest uwa­żany za ojca komputera, co zawdzięcza dwóm wspaniałym wynalazkom, z których każdy jest innego typu mechaniczną maszyną liczącą.

Maszyna różnicowa —jak ją nazwał — została zaprojektowana w 1812 r. Jej zadaniem było rozwiązywanie wielomianowych równań za pomocą metod różnicowych. W roku 1822 Charles Babbage zbudował — dla celów demonstracyjnych — działającą miniaturę modelu swojej maszyny różnicowej. Mając finansowe wsparcie brytyjskiego rządu, Babbage rozpoczął w 1823 roku konstruowanie modelu w rzeczywistej wielko­ści. W zamierzeniu model ten miał być napędzany parą i w pełni automatyczny; potrafić nawet drukować ta­bele wyników.

Babbage kontynuował pracę nad wynalazkiem przez 10 lat, ale w roku 1833 przestał się nim interesować, ponieważ wpadł na pomysł opracowania o wiele lepszej maszyny, którą opisał jako w pełni programowalny i zautomatyzowany komputer liczący ogólnego zastosowania o napędzie mechanicznym. Babbage nazwał swój nowy wynalazek maszyną analityczną. Projekt maszyny określał ją jako komputer równolegle przetwa­rzający liczby (słowa) dziesiętne składające się z 50 cyfr i wyposażony w przestrzeń przechowującą (pamięć) do 1000 takich liczb. Wbudowane operacje zawierały wszystko, co było wymagane w nowoczesnym kompu­terze ogólnego zastosowania łącznie z istotną funkcją warunkową, która umożliwiała wykonywanie instrukcji w kolejności zależnej od określonych warunków, a nie tylko w kolejności numerycznej. W nowoczesnych ję­zykach programowania taka instrukcja warunkowa jest realizowana za pomocą instrukcji IF. Maszyna anali­tyczna została przewidziana do stosowania kart perforowanych, które umożliwiały sprawowanie kontroli lub zaprogramowanie maszyny. Maszyna napędzana parą miała działać w sposób automatyczny i wymagać dozoru tylko jednego pracownika.

Maszyna analityczna jest uważana za pierwszego prawdziwego protoplastę nowoczesnego komputera, po­nieważ posiadała wszystkie elementy, z których obecnie składa się komputer. Należą do nich:

Niestety, potencjał tkwiący w pierwszym komputerze nigdy nie został wykorzystany z powodu problemów związanych z uzyskaniem wymaganej dokładności obróbki kół zębatych i mechanizmów. Stosowane wtedy narzędzia po prostu nie były doskonałe.

Godny uwagi jest fakt, że pomysł zastosowania karty perforowanej autorstwa Babbage'a ostatecznie został urzeczywistniony w 1890 r. W tym roku trwała rywalizacja dotycząca opracowania lepszej metody zapisywa­nia w tablicach informacji dotyczących spisu ludności zamieszkującej obszar Stanów Zjednoczonych. Wtedy też Herman Hollerith — pracownik wydziału zajmującego się spisem ludności — zaproponował zastosowa­nie kart perforowanych. Jeśli nie zostałyby one wykorzystane, to jak w przybliżeniu określili pracownicy wy­działu, zapisanie w tabelach wyników spisu ludności zajęłoby kilka lat. Jednak z pomocą kart perforowanych zadanie to można było wykonać w ciągu około 6 tygodni. Hollerith został założycielem firmy Tabulating Machinę Company, która później stała się znana pod nazwą IBM.

IBM i inne firmy w pewnym okresie opracowały serię udoskonalonych systemów opartych na kartach perfo­rowanych. Systemy te składały się z urządzeń elektromechanicznych, takich jak przekaźniki i napędy. Takie systemy posiadały możliwość automatycznego podawania określonej ilości kart ze stacji odczytującej oraz pozwalały wykonywać operacje takie jak dodawanie, mnożenie i sortowanie. Możliwe też było otrzymanie z powrotem kart perforowanych z uzyskanymi wynikami. Tego typu maszyny obliczeniowe były w stanie przetworzyć od 50 do 250 kart na minutę, przy czym każda z nich przechowywała maksymalnie 80-cyfrowe liczby. Karty perforowane były nie tylko pomocne przy wprowadzaniu i uzyskiwaniu danych. Spełniały one również rolę nośnika pamięci. Urządzenia oparte na kartach perforowanych przez ponad 50 lat wykonały na całym świecie ogromną ilość obliczeń i pozwoliły na rozwinięcie się wielu pierwszych firm komputerowych.

Maszyny elektroniczne

Fizyk John V. Atanasoff — we współpracy z Cliffordem Berrym — jest uznawany za twórcę pierwszej praw­dziwej elektronicznej maszyny liczącej. Została ona zbudowana latach 1937 - 1942, gdy jej twórca pracował na uniwersytecie stanowym w Iowa. Komputer Atanasoff-Berry (Atanasoff-Berry Computer — ABC) był pierwszym komputerem wykorzystującym nowoczesne techniki przełączania i lampy elektronowe spełniające rolę przełączników. Poza tym wykorzystano w nim rozwiązania związane z arytmetyką binarną i obwodami logicznymi. Dnia 19 października 1973 roku, po długiej rozprawie, wyrokiem sądu federalnego Stanów Zjedno­czonych pod przewodnictwem sędziego Earla R. Larsona oficjalnie unieważniono patent należący do tej pory do Eckerta i Mauchly'ego, a dotyczący maszyny ENIAC, natomiast Atanasoffa uznano za twórcę pierwszego elektronicznego komputera.

Działania militarne podczas drugiej wojny światowej spowodowały znaczny rozwój komputerów. W 1943 roku Alan Turing zakończył tworzenie ściśle tajnego komputera o nazwie Colossus — łamiącego szyfry, wy­korzystywanego przez armię brytyjską do rozszyfrowywania tajnych rozkazów kierowanych do niemieckich jednostek wojskowych. Niestety, Turing tak naprawdę nie został oficjalnie uznany za jego twórcę, ponieważ istnienie Colossusa jeszcze długo po wojnie było utrzymywane w tajemnicy.

Poza zastosowaniem komputerów do łamania szyfrów były one również wykorzystywane do wyznaczania trajektorii lotu pocisków oraz do innych celów militarnych. W 1946 roku John P. Eckert i John W. Mauchly — wraz ze swoimi współpracownikami z instytutu Moore School of Electrical Engineering mieszczącego się w University of Pennsylvania — zbudowali dla sil zbrojnych pierwszy komputer elektroniczny. Komputer ten stał się później znany jako ENIAC (ang. Electrical Numerical Integrator and Calculator — elektryczny numeryczny integrator i kalkulator). Komputer operował na liczbach 10-cyfrowych i potrafił pomnożyć dwie liczby tej wielkości z szybkością 300 działań na sekundę. Operacja taka polegała na odszukaniu w tabeli mnożenia — znajdującej się w pamięci — wartości każdego iloczynu. ENIAC był około 1000 razy szybszy od elektromechanicznych komputerów poprzedniej generacji opartych na przełącznikach.

Zawierał około 18 000 lamp elektronowych, zajmował powierzchnię 167 m2 i pobierał około 180 000 watów energii elektrycznej. Do wprowadzania i uzyskiwania danych były stosowane karty perforowane, natomiast rejestry służyły za sumatory oraz umożliwiały szybki dostęp przy odczycie i zapisie pamięci.

Instrukcje, z których był zbudowany wykonywany program, były tworzone za pomocą określonego schematu przewodów i przełączników, które kontrolowały przebieg obliczeń wykonywanych przez maszynę liczącą. Uruchomienie na ENIAC-u kolejnego programu wiązało się z ponowną zmianą układu przewodów i przełączników.

Mimo że Eckert i Mauchly początkowo uzyskali patent na elektroniczny komputer, później utracili go na rzecz Johna Atanasoffa, który zaprojektował maszynę Atanasoff-Berry.

Na początku 1945 roku matematyk John von Neumann zaprezentował komputer, który posiadał bardzo pro­stą, niezmienną fizyczną strukturę i dodatkowo był w stanie wydajnie wykonywać obliczenia dowolnego ro­dzaju. Było to możliwe dzięki zastosowaniu odpowiedniej kontroli programowej bez konieczności dokony­wania modyfikacji konfiguracji sprzętowej komputera. Inaczej mówiąc, modyfikacja programu była możliwa bez zmiany układu przewodów. Metoda pamiętanego programu (ang. stored-program techniąue), znana rów­nież jako myśl von Neumanna, została powszechnie przyjęta i stała się fundamentem przyszłych generacji komputerów o wysokiej szybkości obliczeń.

Pierwsza generacja nowoczesnych programowalnych komputerów elektronicznych wykorzystująca powyższą metodę pojawiła się w 1947 roku. Do tej grupy maszyn można zaliczyć EDVAC i UNIVAC — pierwsze ogólnie dostępne komputery. Po raz pierwszy komputery te do przechowywania elementów programu i da­nych, do których wymagany był krótki czas dostępu, wykorzystywały pamięć o dostępie swobodnym (ang. random access memory — RAM). Zazwyczaj były one programowane bezpośrednio w kodzie maszynowym, mimo że latem roku 1950 dokonano znacznego postępu związanego z kilkoma aspektami zaawansowanego programowania. Nową erę zapoczątkował UNIVAC (Universal Automatic Computer — uniwersalny auto­matyczny komputer) — pierwszy prawdziwy komputer ogólnego zastosowania, zaprojektowany zarówno do wykonywania operacji na tekście, jak i na liczbach. Sprawiło to, że UNIVAC, oprócz zastosowania do celów naukowych i militarnych, mógł być wykorzystywany w zastosowaniach biznesowych.

Nowoczesne komputery

Począwszy od wprowadzenia na rynek UNIVAC-a, a skończywszy na czasach obecnych, rozwój komputera postępował w sposób bardzo dynamiczny. Komputery pierwszej generacji w swojej konstrukcji wykorzysty­wały lampy elektronowe. Następna generacja wykorzystuje już dużo mniejsze i bardziej wydajne tranzystory.

Od lamp do tranzystorów

Każdy nowoczesny komputer jest w większości zbiorem elektronicznych układów przełączających. Przełącz­niki mają za zadanie reprezentowanie i sterowanie przepływem elementów danych zwanych cyframi binar­nymi (ang. binary digits) lub bitami (ang. bits). Z powodu wykorzystywanej przez komputer dwustanowej natury binarnej informacji i wyboru trasy sygnału okazało się, że jest do tego potrzebny wydajny elektronicz­ny przełącznik. Pierwsze elektroniczne komputery stosowały jako przełączniki lampy elektronowe, ale z ich działaniem związanych było wiele problemów.

W pierwszych komputerach była stosowana lampa elektronowa zwana triadą. Została ona skonstruowana w 1906 roku przez Lee De Foresta (rysunek 1.1). Trioda składa się z katody i anody, które są oddzielone od siebie siatką sterującą i zawieszone w szklanej lampie wypełnionej próżnią. Katoda jest nagrzewana przez elektryczny żarnik, co powoduje emisję elektronów, które są następnie przyciągane przez siatkę. Siatka ste­rująca umieszczona w środku triody steruje przepływem elektronów. Po przyłożeniu do siatki napięcia ujem­nego elektrony są odpychane z powrotem do katody, natomiast w przypadku napięcia dodatniego są przycią­gane przez anodę. Wniosek z tego taki, że wskutek zmiany napięcia siatki możliwe jest kontrolowanie stanu końcowego anody.

Rysunek 1.1.

Lampa próżniowa — trioda

0x08 graphic
0x08 graphic

Niestety, lampy nie sprawdziły się w roli przełączników. Pobierały sporą ilość energii elektrycznej i emito­wały wiele ciepła, co w pierwszych maszynach liczących było poważnym problemem. Wynikało to głównie z faktu, że ciepło generowane przez lampy sprawiało, że ich praca była bardzo niestabilna, co w większych systemach objawiało się tym, że co kilka godzin ulegała spaleniu jedna lampa.

Wynalezienie tranzystora było jednym z najważniejszych okryć doprowadzających do rozpoczęcia rewolucji w świecie komputerów osobistych. Tranzystor po raz pierwszy został zbudowany w 1947 r. i w następnym roku zaprezentowany publicznie przez inżynierów Bell Laboratory — Johna Bardeena i Waltera Brattaina. William Shockley — pracownik firmy Bell — kilka miesięcy później zaprojektował tranzystor złączowy i w efekcie cała trójka naukowców w 1956 roku odebrała nagrodę Nobla w dziedzinie fizyki. Tranzystor, któ­ry przede wszystkim funkcjonuje jako jednorodny elektroniczny przełącznik, zastąpił w tej roli mniej nadają­cą się do tego lampę elektronową. Ze względu na fakt, że tranzystory miały tak niewielkie rozmiary i pobie­rały znacznie mniej energii, oparte na nich komputery również były mniejsze, szybsze i bardziej wydajne niż ich odpowiedniki wykorzystujące lampy elektronowe.

Tranzystory początkowo były wykonywane z elementów krzemowych i germanowych z pewną domieszką zanieczyszczeń. W zależności od rodzaju zanieczyszczeń stosowane materiały zaczęto określać jako typu n (ujemny) lub typu p (dodatni). Obydwa typy są przewodnikami umożliwiającymi przepływ prądu w obu kie­runkach. Jednak po zetknięciu tych dwóch typów tworzy się bariera, przez którą przepływ prądu jest możliwy tylko w jednym kierunku — w momencie, gdy napięcie zostanie przyłożone do odpowiedniego bieguna. Jest to powód, dla którego struktury takie są nazywane półprzewodnikami.

Tranzystor powstaje po połączeniu ze sobą dwóch złączy typu p-n. Złącza typu p-n powstają poprzez umiesz­czenie cienkiej warstwy jednego typu materiału półprzewodnikowego pomiędzy dwiema warstwami drugiego. Jeśli warstwa znajdująca się w środku jest wykonana z materiału typu p, wtedy tranzystor jest oznaczony jako n-p-n. Jeśli natomiast jest wykonana z materiału typu «, wtedy tranzystor jest oznaczany jako p-n-p.

W przypadku tranzystora n-p-n materiał półprzewodnika typu n — znajdujący się po jednej stronie „wafla" — jest określany terminem emitera lub źródła i zwykle jest do niego przyłożone napięcie ujemne (rysunek 1.2). Materiał typu p, z którego jest wykonana warstwa środkowa jest nazywany bazą, natomiast materiał typu n warstwy położonej po przeciwnej stronie emitera — kolektorem lub drenem.

Rysunek 1.2.

Tranzystor n-p-n

0x08 graphic
0x01 graphic

Tranzystor n-p-n jest porównywany z triodą, gdzie emiter odpowiada katodzie, baza siatce, natomiast kolek­tor anodzie. Poprzez sterowanie napięciem przyłożonym do bazy możliwe jest wpływanie na natężenie prze­pływu prądu pomiędzy emiterem i kolektorem.

W porównaniu z lampą elektronową tranzystor w roli przełącznika jest o wiele bardziej wydajny i może zo­stać pomniejszony do mikroskopijnych rozmiarów. W styczniu 2001 roku dział badawczy firmy Intel ujaw­nił, że opracował najmniejszy i najszybszy tranzystor krzemowy świata o wielkości tylko 20 nanometrów (miliardowych części metra). Można się spodziewać, że procesory zbudowane z takich tranzystorów — w ilości miliarda — pojawią się na rynku w 2007 roku i będą taktowane zegarem 20 GHz! Dla porównania w roku 2003 procesor Athlon 64 firmy AMD był zbudowany z ponad 105,9 miliona tranzystorów, natomiast Pentium 4 Extreme Edition posiadał ich ponad 178 milionów.

Przejście z lamp elektronowych na tranzystory rozpoczęło proces miniaturyzacji trwający do dnia dzisiejszego. Dostępne obecnie niewielkie komputery kieszonkowe, a nawet tablety PC są zasilane bateriami i mają więk­sze możliwości obliczeniowe niż wiele wcześniejszych rozwiązań wypełniających całe biurka w pokojach oraz pobierających ogromne ilości energii elektrycznej.

Co prawda lampy próżniowe zostały zastąpione przez tranzystory i układy scalone w niemal wszystkich po­wszechnych zastosowaniach, jednak wciąż pozostają popularne w wysokiej klasy sprzęcie audio, ponieważ w porównaniu z tranzystorami generują cieplejszy i bogatszy dźwięk. Ze względu na coraz częstsze wykorzy­stywanie komputerów do przetwarzania i odtwarzania dźwięku oddział Aopen firmy Acer — dążąc do umożliwienia odtwarzania muzyki ze znakomitą jakością— wyprodukował płytę główną AX4B-533 Tube, zawierającą dwie triody wspomagane przez specjalny układ redukcji szumów.

Układy scalone

Trzecia generacja nowoczesnych komputerów jest znana z tego, że zastosowano w nich — zamiast pojedyn­czych tranzystorów — układy scalone. W 1959 roku inżynierowie firmy Texas Instruments zaprojektowali układ scalony (czyli element półprzewodnikowy składający się z kilku tranzystorów umieszczonych na tej sa­mej bazie (materiale podłoża) połączonych między sobą bez stosowania przewodów. Pierwszy układ scalony składał się tylko z sześciu tranzystorów. Dla porównania procesor Pentium Pro firmy Intel, stosowany w wielu współczesnych rozwiązaniach, zawiera ponad 5,5 miliona tranzystorów. Ponadto zintegrowana z nim pamięć podręczna jest zbudowana z dodatkowych 32 milionów tranzystorów! Obecnie istnieje wiele układów scalo­nych składających się z wielu milionów tranzystorów.

Pierwszy mikroprocesor

Firma Intel została założona 18 lipca 1968 roku przez Roberta Noyce'a, Gordona Moore'a i Andrew Grove'a. Jej założyciele postawili przed sobą konkretny cel. Postanowili mianowicie sprawić, żeby pamięć półprzewod­nikowa stała się użyteczna w praktycznych zastosowaniach i dostępna po niewygórowanej cenie. W tamtym okresie tak nie było — warto wspomnieć, że cena pamięci opartej na krzemowym układzie scalonym była co najmniej 100 razy wyższa od ceny powszechnie stosowanej wtedy pamięci rdzeniowej. Ówczesny koszt pa­mięci półprzewodnikowej był równy mniej więcej jednemu dolarowi za bit, natomiast w przypadku pamięci rdzeniowej był to tylko jeden cent za bit. Noyce powiedział coś takiego: „Wszystko, co musieliśmy zrobić, sprowadzało się do stukrotnego obniżenia cen, a wtedy mogliśmy zdobyć rynek. I to zasadniczo tyle".

Około roku 1970 Intel był znany jako producent popularnych pamięci półprzewodnikowych i właśnie wtedy zaprezentował układ o pojemności 1 KB, który znacznie przewyższał pod tym względem wszystko, co wtedy było dostępne na rynku. 1 KB odpowiada 1024 bitom, natomiast bajt jest równy 8 bitom, a zatem taka pamięć była w stanie przechowywać tylko 128 bajtów, co według obecnych standardów nie jest zbyt dużą wartością. Układ pamięci opracowany przez firmę Intel, znany jako pamięć dynamiczna o dostępie swobodnym 1103 (ang. dynamie random access memory — DRAM), pod koniec następnego roku stała się najlepiej sprzedającym się układem półprzewodnikowym na świecie. W tym czasie firma — z grupy składającej się z jej założycieli i kilku innych osób — przeistoczyła się w przedsiębiorstwo zatrudniające ponad 100 osób.

Wynikiem sukcesu odniesionego przez firmę Intel w dziedzinie produkcji i projektowania układów pamięci była prośba japońskiego producenta Busicom o zaprojektowanie przez Intel zestawu układów scalonych przeznaczonych do produkcji bardzo wydajnych programowalnych kalkulatorów. W tym czasie wszystkie logiczne układy scalone dla każdej aplikacji lub produktu były projektowane na konkretne zamówienie i przeznaczone do ściśle określonych celów. Z tego właśnie powodu żaden z nich nie mógł być zastosowany w szerszym zakresie.

Początkowy projekt kalkulatora firmy Busicom zakładał zastosowanie przynajmniej 12 układów scalonych, z których każdy miał być oddzielnie zaprojektowany. Ted Hoff, inżynier firmy Intel, odrzucił takie rozwiąza­nie jako zbyt trudne do zrealizowania i zamiast niego zaprojektował jeden układ scalony, który miał pełnić rolę logicznego urządzenia ogólnego przeznaczenia, pobierającego instrukcje do wykonania z pamięci pół­przewodnikowej. Program współpracujący z zestawem składającym się z czterech układów scalonych mógł kontrolować taką jednostkę centralną i odpowiednio dostosowywać jej działanie do aktualnie wykonywanego zadania. Taki układ scalony sam w sobie nie był złożony, co oznaczało, że mógł być zastosowany w rozwią­zaniach innych niż kalkulatory. Poprzednie projekty były tworzone pod kątem jednego zastosowania, dlatego też nie były modyfikowalne. W takich rozwiązaniach stosowano wbudowane instrukcje. Uniwersalny układ scalony mógłby w tym przypadku wczytywać z pamięci zestaw zmiennych zawartych w instrukcjach, które następnie sterowałyby jego działaniem. Zamierzano opracować pojedynczy układ scalony wykonujący — w zależności od przetwarzanej instrukcji -— różne funkcje prawie kompletnego urządzenia liczącego.

Pojawił się jednak jeden problem związany z nowo zaprojektowanym układem scalonym, mianowicie firma Busicom posiadała do niego wszelkie prawa. Hoff i inni wiedzieli, że ten produkt ma praktycznie nieograni­czone możliwości zastosowania dzięki wyposażeniu — dotąd ograniczonych pod tym względem — maszyn liczących w pewien stopień inteligencji. W efekcie inżynierowie ci zaczęli namawiać kierownictwo Intela do odkupienia praw własności do tego produktu. W czasie, gdy założyciele firmy — Gordon Moore i Robert Noyce — zdobyli prawa do układu scalonego, niektórzy inni pracownicy zaczęli się obawiać, że fakt ten spowoduje odejście od głównego zajęcia firmy, czyli wytwarzania pamięci. Ostatecznie ich obawy zostały rozwiane po tym, kiedy okazało się, że każdy mikrokomputer wyposażony w zestaw składający się z czterech układów scalonych posiadał również dwa układy pamięci. Oto, co powiedział wtedy dyrektor marketingu: „Sądzę, że początkowo uznaliśmy to za sposób na sprzedaż większej ilości pamięci i planowaliśmy w oparciu o to realizować kolejne inwestycje".

Intel zaoferował firmie Busicom, w zamian za przekazanie praw do produktu, zwrot kosztów, jakie firma ta poniosła w związku z zamówieniem układu scalonego. Była to kwota 60 000 dolarów. Japońska firma, która akurat borykała się z problemami finansowymi, zgodziła się na to. Nikt wtedy w firmie — nawet Intel — nie był w pełni świadom znaczenia zrealizowanej transakcji. Oczywiście pozwoliło to wejść firmie na drogę zwią­zaną z produkcją procesorów. W rezultacie w roku 1971 wprowadzono na rynek mikrokomputer oparty na 4-bitowym układzie 4004 firmy Intel (termin mikroprocesor został wymyślony później). Układ scalony — mniejszy od paznokcia i mieszczący w sobie 2300 tranzystorów zajmujących powierzchnię 10 mikronów (milionowa część metra) — kosztował 200 dolarów. Posiadał moc obliczeniową równą wydajności pierwszego komputera elektronicznego ENIAC. Dla porównania, ENIAC, który został zbudowany w 1946 roku zawierał 18 000 lamp elektronowych zajmujących razem 85 metrów sześciennych. Układ scalony 4004 był taktowany zegarem 108 kiloherców (ponad 0,1 megaherca) i wykonywał 60 000 operacji na sekundę. Jest to może, we­dług obecnych standardów, liczba śmiesznie mała, ale na tamte czasy było to poważne osiągnięcie.

W roku 1972 Intel wprowadził na rynek mikrokomputer oparty na układzie 8008, który przetwarzał jednocze­śnie 8 bitów danych, co — w porównaniu z poprzednim układem — było wartością dwukrotnie większą. Około 1981 roku rodzina procesorów firmy Intel powiększyła się o kolejne dwa — 16-bitowy 8086 i 8-bitowy 8088. Te dwa układy scalone zostały wykorzystane w jednym tylko roku w niesamowitej liczbie 2500 różnych pro­jektów. Wśród nich był projekt firmy IBM, który okazał się być projektem pierwszego komputera osobistego.

Termin PC definiuje typ komputera osobistego wyposażonego w procesor o architekturze opracowanie przez firmę Intel i luźno powiązanego z oryginalnymi systemami PC, XT i AT. Przed pojawieniem się komputera PC istniały innego typu komputery osobiste, jednak to właśnie systemy, które obecnie są nazywane komputerami PC, zdominowały rynek, począwszy od 1981 r., gdy pojawiły się po raz pierwszy.

W roku 1982 Intel wprowadził na rynek procesor 286. Składał się on z 134 000 tranzystorów i był około trzy razy wydajniejszy niż inne 16-bitowe procesory dostępne w tym czasie. Nowy procesor, oprócz tego, że był wyposażony w układ zarządzania pamięcią, był również zgodny ze swoimi poprzednikami, co oznaczało, że można było uruchamiać na nim starsze aplikacje. Procesor ten — o rewolucyjnym znaczeniu — został po raz pierwszy zastosowany w systemie PC-AT firmy IBM, na którym bazują wszystkie współczesne komputery osobiste.

W 1985 roku Intel wprowadził na rynek procesor 386. Charakteryzował się on architekturą 32-bitową i za­wierał 275 000 tranzystorów. Procesor 386 był w stanie wykonać ponad 5 milionów instrukcji na sekundę (Million Instructions Per Second — MIPS). Komputer DESKPRO 386 firmy Compaq był pierwszym kom­puterem osobistym wykorzystującym nowy mikroprocesor.

Następnym z kolei procesorem był Intel 486, wprowadzony do sprzedaży w roku 1989. Składał się z 1,2 miliona tranzystorów i po raz pierwszy miał wbudowany koprocesor. Jego wydajność była około 50 razy większa od pierwszego układu 4004 i dorównywała wydajności niektórych komputerów dużej mocy (ang. mainframe).

Następnie, w roku 1993, firma Intel wprowadziła na rynek pierwszy procesor o nazwie Pentium, który zapo­czątkował rodzinę P5 (586). Procesor ustanowił nowe standardy wydajności, która była do pięciu razy wyż­sza od wydajności procesora Intel 486. Procesor Pentium zawierał 3,1 miliona tranzystorów, które pozwalały osiągnąć szybkość działania na poziomie 90 MIPS, czyli około 1500 razy wyższą od szybkości układu 4004.

Zmiana nazewnictwa procesorów stosowanego przez firmę Intel z liczb (386/486) na nazwy (Pen-tium/Pentium Pro) wynikała z faktu, że firma nie mogła zastrzec liczby jako znaku towarowego, a zatem nie była w stanie powstrzymać konkurencyjnych producentów przed używaniem tych sa­mych liczb jako nazw produkowanych przez nich podobnych układów.

Pierwszy procesor z rodziny P6 (686), o nazwie Pentium Pro, został wprowadzony na rynek w roku 1995. Składał się z 5,5 miliona tranzystorów i jako pierwszy był wyposażony w szybką pamięć podręczną drugiego poziomu L2 mającą za zadanie zwiększenie ogólnej wydajności procesora.

Intel dokonał modyfikacji procesorów z rodziny P6 (686/Pentium Pro), a efektem tego było wprowadzenie na rynek w maju 1997 roku procesora Pentium II. Procesory Pentium II zawierały 7,5 miliona tranzystorów umieszczonych, zamiast w tradycyjnym układzie scalonym, w kasecie (ang. cartridge), co umożliwiło umiesz­czenie układów scalonych pamięci podręcznej drugiego poziomu L2 bezpośrednio w jednym module. Rodzi­na procesorów Pentium II została poszerzona w kwietniu 1998 roku o dwa nowe produkty. Jednym z nich byl nieco tańszy procesor Celeron przeznaczony dla zwykłych komputerów osobistych, natomiast drugim był droższy procesor Pentium II Xeon przewidziany do zastosowań w serwerach i stacjach roboczych. Firma In­tel w 1999 roku zaprezentowała kolejny procesor, Pentium III, który właściwie był procesorem Pentium II z dodanym rozszerzeniem przetwarzania potokowego SSE (Streaming SIMD Extensions).

Mniej więcej w tym czasie, gdy procesor Pentium umacniał swoją dominującą pozycję, firma AMD przejęła firmę Neogen. która projektowała wtedy swój procesor Nx686. AMD dokonało połączenia tego projektu z interfejsem procesora Pentium, co w efekcie zaowocowało powstaniem produktu o nazwie AMD K6. K6 był — zarówno od strony sprzętowej, jak i programowej — kompatybilny z procesorem Pentium, co oznaczało, żc współpracował z tym samym gniazdem Socket 7 i można było uruchamiać na nim identyczny zestaw aplikacji. W momencie gdy Intel wycofał się z produkcji procesora Pentium na rzecz jego następców, Pentium II i III. firma AMD w dalszym ciągu kontynuowała produkcję szybszych wersji procesora K.6 i zdo­była ogromną część rynku tanich komputerów osobistych.

W roku 1998 Intel okazał się pierwszą firmą, która zintegrowała pamięć podręczną drugiego poziomu L2 (pracującą przy pełnej szybkości rdzenia procesora) bezpośrednio z procesorem, przez co w znaczący sposób zwiększyła jego wydajność. Rozwiązanie to zostało po raz pierwszy zastosowane w procesorze Celeron dru­giej generacji (opartym na rdzeniu procesora Pentium II), jak również w procesorze Pentium IIPE (o zwięk­szonej wydajności) stosowanym tylko w komputerach przenośnych. Pierwszym procesorem wyposażonym w pamięć podręczną drugiego poziomu L2, bezpośrednio z nim zintegrowaną, był procesor Pentium III dru­giej generacji (z rdzeniem Coppermine) wprowadzony na rynek pod koniec 1999 roku. Później wszyscy li­czący się producenci procesorów również zintegrowali z procesorem pamięć podręczną drugiego poziomu L2. Taka tendencja jest realizowana do dnia dzisiejszego.

W 1999 roku firma AMD wprowadziła do sprzedaży procesor Athlon. W zamierzeniu miał on stanowić prze­ciwwagę dla procesorów Intela przeznaczonych dla droższych komputerów osobistych. Procesor Athlon zdo­był sporą popularność i wydawało się, że po raz pierwszy Intel zyskał poważnego konkurenta na rynku ser­werów i stacji roboczych. Jeśli spojrzy się na te wydarzenia z perspektywy czasu, można dojść do wniosku, że sukces procesorów Athlon byl prosty do przewidzenia, ale w czasie, gdy wprowadzono je do sprzedaży po raz pierwszy, nie było to takie pewne. W przeciwieństwie do układów K6, które były zgodne z procesorami firmy Intel zarówno na poziomie sprzętu, jak i oprogramowania, układy Athlon były zgodne jedynie na dru­gim z wymienionych poziomów i wymagały wyspecjalizowanej płyty głównej wyposażonej w obsługujące je chipset i gniazdo.

W roku 2000 obaj producenci wprowadzili na rynek kilka nowych procesorów. Ze strony firmy AMD swoją premierę miały procesory Athlon Thunderbird i Duron. Duron jest właściwie procesorem Athlon wyposażo­nym w mniejszą ilość pamięci podręcznej drugiego poziomu L2 i przeznaczonym dla tańszych komputerów osobistych, natomiast procesor Thunderbird współpracuje ze zintegrowaną z nim pamięcią podręczną, która ma za zadanie zwiększenie wydajności procesora Athlon. Duron jest stosunkowo tanim procesorem opracowa­nym głównie jako konkurencja dla równie niedrogich procesorów Celeron produkowanych przez firmę Intel.

Pod koniec roku 2000 Intel wprowadził do sprzedaży procesor Pentium 4. który jest najnowszym osiągnię­ciem w zakresie architektury 32-bitowej Intel Architecture (IA-32). Intel zapowiedział również pojawienie się procesora Itanium (o nazwie kodowej Merced), który jest pierwszym przedstawicielem architektury 64-bi-towej Intel Architecture (IA-64). Itanium jest pierwszym procesorem przetwarzającym instrukcje 64-bitowe. dla którego powstanie cała gama nowych systemów operacyjnych i aplikacji, a który nadal pozostanie kom­patybilny z oprogramowaniem 32-bitowym.

W 2000 r. nastąpił kolejny przełomowy moment, który zapisze się na kartach historii. Związany jest on z przekroczeniem przez firmy Intel i AMD bariery 1 GHz — szybkości, która przez wielu była uznawana za nieosiągalną.

► ► Zajrzyj do punktu „Procesor Itanium i Itanium 2" znajdującego się na stronie 241.

W roku 2001 Intel wprowadził do sprzedaży wersję procesora Pentium 4 taktowanego zegarem 2 GHz, który był pierwszym procesorem przeznaczonym dla komputerów osobistych o takiej szybkości. Firma AMD rów­nież zaprezentowała procesor Athlon XP, oparty na nowszym rdzeniu Palomino, oraz procesor Athlon MP, przewidziany do zastosowań w serwerach wieloprocesorowych. W trakcie roku 2002 zarówno firma AMD. jak i Intel w dalszym ciągu zwiększały szybkość taktowania swoich procesorów i rozszerzały możliwości procesorów już będących na rynku, odpowiednio — Athlon/Duron oraz Pentium 4/Celeron.

W 2002 r. Intel zaprezentował procesor Pentium 4 o częstotliwości 3,06 GHz, będący pierwszym układem przeznaczonym dla komputerów PC, który osiągnął taką szybkość. Ten i kolejne układy pracujące z często­tliwością przekraczającą 3 GHz dysponowały technologią hiperwątkowości HT (Hyper-Threading), opraco­waną przez firmę Intel. Sprawia ona, że procesor pracuje w wirtualnej konfiguracji dwuprocesorowej. Wyko­nując jednocześnie dwa wątki aplikacji, procesory z technologią HT są w stanie pracować od 25 do 40% szybciej od układów, które tej technologii są pozbawione. Technologia HT jest też zgodna z systemem Win­dows XP Home Edition, który nie obsługuje płyt głównych z dwoma procesorami.

W roku 2003 firma AMD zaprezentowała swój pierwszy 64-bitowy procesor Athlon 64 (wcześniej noszący nazwę kodową ClawHammer lub K8). W przeciwieństwie do pierwszych 64-bitowych układów firmy Intel — Itanium i Itanium 2, stworzonych z myślą o serwerach, zoptymalizowanych dla nowej 64-bitowej archi­tektury i stosunkowo wolnych w przypadku wykonywania 32-bitowych instrukcji x86 używanych przez star­sze procesory — układ Athlon 64 jest 64-bitowym rozszerzeniem procesorów o architekturze x86, takich jak Athlon, Pentium 4 i starsze modele. Procesor Athlon 64 przetwarza zatem 32-bitowe aplikacje z taką samą szybkością, jak oprogramowanie 64-bitowe. Intel stworzył następnie procesor Pentium 4 Extreme Edition, będący pierwszym układem przeznaczonym dla zwykłych użytkowników, który zawierał pamięć podręczną L3. Pamięć podręczna o ogromnej pojemności wynoszącej 2 MB w znacznym stopniu przyczyniła się do zwięk­szenia liczby wchodzących w skład procesora tranzystorów, a także jego wydajności.

Historia komputera osobistego

Do czwartej, obecnej generacji współczesnych komputerów można zaliczyć te, które są wyposażone w mi­kroprocesory. Oczywiście część komputerów czwartej generacji stanowią komputery osobiste, które same stały się znacznie bardziej dostępne wraz z upowszechnieniem się tanich mikroprocesorów i pamięci.

Narodziny komputera osobistego

W 1973 roku zostały opracowane jedne z pierwszych mikrokomputerów opartych na układzie 8008. Nie były one niczym więcej niż tylko narzędziami używanymi do pokazów i nie wykonywały żadnych operacji poza zapalaniem i gaszeniem diod. W kwietniu 1974 r. firma Intel wprowadziła do sprzedaży mikroprocesor 8080, który był 10 razy szybszy niż poprzedni układ 8008 i potrafił współpracować z pamięcią o wielkości 64 kB. Było to przełomowe wydarzenie, na które oczekiwał przemysł komputerowy.

W styczniu 1975 roku, w czasopiśmie Popular Electronics, firma MITS zamieściła spory artykuł dotyczący komputera Altair. Komputer Altair — uważany za pierwszy komputer osobisty — oparty byl na procesorze 8080 i oprócz niego składał się jeszcze z zasilacza, przedniego panelu zawierającego sporą ilość diod oraz pamięci o pojemności 256 bajtów (nie kilobajtów). Zestaw do samodzielnego montażu był sprzedawany w cenie 395 dolarów. Montaż — w celu uzyskania ostatecznej postaci połączonych ze sobą płytek z układami — wiązał się wtedy z użyciem lutownicy, w przeciwieństwie do tego. co oznacza obecnie, czyli poskładania wcześniej wyprodukowanych komponentów przy użyciu najwyżej śrubokręta.

Micro Instrumentation and Telemetry Systems była początkową nazwą firmy założonej w 1969 r. przez Eda Robertsa i kilka innych osób w celu wytwarzania i sprzedawania przyrządów i nadajni-ków przeznaczonych dla rakiet. Na początku lat 70. ubiegłego wieku Ed Roberts stał się jedynym właścicielem firmy. Później zaprojektował zestaw komputerowy Altair. W styczniu 1975 r. po wprowadzeniu Altaira na rynek przedsiębiorstwo przyjęło nazwę MITS, będącą jedynie skrótem pełnej nazwy. W 1977 r. Roberts sprzedał je firmie Pertec, a następnie przeniósł się do stanu Georgia i rozpoczął naukę w szkole medycznej. Obecnie jest czynnym zawodowo lekarzem!

Komputer Altair by! wyposażony w magistralę S-100 — charakterystyczną dla architektury systemów otwar­tych — ze względu na fakt, że w przypadku każdego gniazda składała się ona ze 100 końcówek. Otwarta ar­chitektura oznaczała, że każdy mógł zaprojektować karty współpracujące z tymi gniazdami i interfejsem sys­temu. Spowodowało to, że kilku mniejszych producentów wprowadziło na rynek różne karty rozszerzeń i urządzenia zewnętrzne. Nowy procesor był inspiracją dla wielu firm, które rozpoczęły tworzenie oprogra­mowania z nim współpracującego, włączając w to system operacyjny CP/M (Contro!/ Program for Micro-processors — program sterujący pracą mikroprocesorów) i pierwszą wersję języka programowania BASIC (Beginners All-purpose Symbolic Instruction Code).

Firma IBM w roku 1975 wprowadziła na rynek to, co można określić mianem jej pierwszego komputera oso­bistego. Model 5100 był wyposażony w pamięć o pojemności 16 kB. Poza tym posiadał wbudowany wy­świetlacz o wysokości 16 wierszy i szerokości 64 znaków oraz interpreter języka BASIC i napęd taśmowy DC-300 służący do przechowywania danych. Cena komputera ustalona na 9000 dolarów spowodowała, ze nie mógł on zostać zaliczony do produktów licznie występujących na rynku komputerów osobistych, który był zdominowany przez domorosłych eksperymentatorów — z czułością nazywanych hakerami — składają­cych w ramach hobby tanie zestawy o wartości około 500 dolarów. Oczywiście komputer firmy IBM nie mógł być konkurencją dla takich tanich produktów i dlatego też nie odniósł sukcesu.

Zanim IBM opracował to, co jest znane jako IBM Personal Computer (model 5150). jeszcze wcześniej zastą­pi! model 5100 kolejnymi dwoma — 5110 i 5120. Pomimo że seria 5100 poprzedzała komputer IBM PC, to jednak starsze komputery i model 5150 IBM PC nie miały ze sobą zbyt wiele wspólnego. Komputer osobisty opracowany przez firmę IBM bliższy był komputerowi IBM System/23 DataMaster — wprowadzonemu na rynek w 1980 roku i przeznaczonemu do zastosowań biurowych. I rzeczywiście, wielu inżynierów zaangażo­wanych w projekt IBM PC pracowało początkowo przy projekcie, którego efektem był komputer DataMaster.

W 1976 roku nowa firma o nazwie Apple Computer wprowadziła na rynek komputer Apple I, który począt­kowo byl sprzedawany za 666,66 dolarów. Cena sprzedaży została ustalona w sposób arbitralny przez jedne­go ze współzałożycieli firmy — Steve'a Jobsa. Komputer składał się z płyty głównej przykręconej do kawał­ka sklejki. Obudowy i zasilacza nie było w komplecie. Zostało sprzedanych tylko kilka takich komputerów i w chwili obecnej kolekcjonerzy płacą za nie ponad 20 000 dolarów. Komputer Apple II wprowadzony na rynek w 1977 roku przyczyni! się do ustanowienia standardów dotyczących prawie wszystkich najważniej­szych mikrokomputerów później zbudowanych, włączając w to IBM PC.

W roku 1980 rynek został zdominowany przez dwa typy komputerów. Pierwszym z nich był Apple II. który pozyskał dużą liczbę oddanych użytkowników i ogromny zbiór oprogramowania (jego ilość zwiększała się wręcz w fantastycznym tempie). Drugi z komputerów oparty na systemie operacyjnym CP/M nie był pojedynczym systemem, ale składał się z wielu systemów, które swoje początki wywodziły z oryginalnego komputera Altair firmy MITS. Były wzajemnie ze sobą kompatybilne, wszystkie współpracowały z systemem operacyjnym CP/M oraz stosowano w nich gniazda rozszerzeń, które były zgodne ze standardem S-100. Poszczególne systemy zostały stworzone przez różne firmy i były sprzedawane pod odmiennymi nazwami. Jednak — w przypadku większości z nich — było wykorzystywane to samo oprogramowanie i podłączano do nich podobne urządzenia dodatkowe. Godna uwagi jest informacja, że żaden z tych systemów nie był kompatybilny ani z IBM PC, ani z komputerami Macintosh, które obecnie są dwoma podstawowymi standardami.

Nowa, konkurencyjna firma wyłaniająca się zza linii horyzontu mogła dojść do wniosku, że aby odnieść suk­ces, wytwarzany komputer osobisty powinien charakteryzować się otwartą architekturą, posiadać gniazda rozszerzeń, budowę modułową oraz mieć zapewnione wsparcie ze strony nie tylko producenta komputera, ale również innych firm zajmujących się tworzeniem oprogramowania i sprzętu. Tą firmą okazał się IBM, który wywołał w tamtym czasie sporo zamieszania na rynku, ponieważ nie był postrzegany jako producent syste­mów mających cechy architektury otwartej. Zasadniczo komputer IBM bardziej upodobnił się do pierwszego komputera Apple, natomiast sam Apple, zgodnie z oczekiwaniami wszystkich, upodobni! się do produktów firmy IBM. Otwarta architektura mającego się ukazać w sprzedaży komputera IBM PC i jej przeciwieństwo w postaci projektowanego komputera Macintosh firmy Apple spowodowały w przemyśle komputerowym całkowite odwrócenie istniejącej sytuacji.

Komputer osobisty firmy IBM

Pod koniec 1980 roku firma IBM postanowiła naprawdę powalczyć na szybko rozwijającym się rynku tanich komputerów osobistych. Firma otworzyła w Boca Raton na Florydzie swój oddział, Entry Systems Division, który miał zajmować się stworzeniem nowego komputera. Oddział ten celowo został umiejscowiony z dala od głównej siedziby IBM znajdującej się w Nowym Jorku, jak również z dala od innych oddziałów, tak aby mógł funkcjonować jako jednostka niezależna. W oddziale pracował niewielki zespół liczący 12 inżynierów i projektantów kierowanych przez Dona Estridge'a i mający za zadanie zaprojektowanie pierwszego praw­dziwego komputera osobistego. Firma IBM uważała poprzedni komputer 5100 wprowadzony na rynek w 1975 roku raczej za inteligentny programowalny terminal niż za komputer z prawdziwego zdarzenia, nawet pomimo faktu, że to naprawdę był komputer. Prawie wszyscy inżynierowie, którzy przenieśli się do nowego oddziału, byli wcześniej związani z projektem komputera System/23 DataMaster, który byl niewielkim kom­puterem biurowym wprowadzonym na rynek w 1980 roku i, w efekcie, bezpośrednim poprzednikiem kom­putera IBM PC.

Spora cześć projektu komputera IBM PC powstała pod wpływem projektu urządzenia DataMaster, który łączył w jedną całość również monitor i klawiaturę. Ponieważ takie rozwiązanie w efekcie okazało się nie­wygodne, w przypadku komputera IBM PC klawiatura i monitor stały się niezależnymi elementami, jednak sam układ klawiatury i jej wewnętrzna elektronika zostały skopiowane z projektu komputera DataMaster.

Kilka innych komponentów komputera IBM PC również zostało skopiowanych z projektu DataMaster. włą­czając w to magistrale rozszerzeń (lub gniazd wejścia-wyjścia), które posiadały nie tylko identyczne złącze

0 62 końcówkach, ale też prawie identyczne parametry techniczne. Takie przeniesienie projektu magistrali było możliwe, ponieważ komputer IBM PC wykorzystywał ten sam kontroler przerwań co DataMaster oraz podobny kontroler bezpośredniego dostępu do pamięci (Direct Memory Access — DMA). Poza tym. karty rozszerzeń — już zaprojektowane dla komputera DataMaster — mogły być z łatwością przystosowane na potrzeby komputera IBM PC.

Komputer DataMaster oparty byl na procesorze Intel 8085, który posiadał ograniczenia współpracy z pamię­cią o maksymalnej pojemności 64 kB oraz z 8-bitową wewnętrzną i zewnętrzną magistralą danych. Roz­mieszczenie komponentów sprawiło, że zespół projektujący nowy komputer zastosował procesor Intel 8088, który współpracował z pamięciami o znacznie większej pojemności (1 MB) i z 16-bitową wewnętrzną magi­stralą danych, ale tylko z 8-bitową zewnętrzną magistralą danych. 8-bitowa zewnętrzna magistrala danych

1 podobny zestaw instrukcji umożliwia! łatwe połączenie procesora 8088 z wcześniejszym projektem kom­putera DataMaster.

W ciągu roku firma IBM zamieniła pomysł na nowy komputer na w pełni działający produkt. W tym celu wykorzystała istniejące projekty i zakupiła od innych producentów tak dużo komponentów, jak to tylko było możliwe. Oddział Entry Systems Division uzyskał niezależność w stosunku do innych oddziałów firmy IBM i, zamiast stosować się do obowiązujących biurokratycznych procedur firmy, które wymagały korzystania tylko z własnych zasobów, mógł wykorzystywać wszelkie zasoby dostępne poza nią. IBM zlecił stworzenie języków programowania i systemu operacyjnego niewielkiej firmie Microsoft. Ta decyzja miała decydujący wpływ na stworzenie z firmy Microsoft potęgi na obecnym rynku oprogramowania.

Godny uwagi jest fakt, że firma IBM początkowo skontaktowała się z firmą Digital Research (pro-TV ducentem CP/M, wówczas najpopularniejszego systemu operacyjnego przeznaczonego dla kompute-rów osobistych) w celu zlecenia jej opracowania systemu operacyjnego dla nowego komputera IBM PC. Jednakże firma Digital Research nie była skora do współpracy z IBM-em i nie doprowadziła do podpisania z nim umowy. W tym momencie Microsoft skorzystał z możliwości stworzonej przez Digital Research i w konsekwencji stał się jednym z największych producentów oprogramowania na świecie. Współpraca firmy IBM w czasie projektowania komputera IBM PC z zewnętrznymi koope­rantami była dla Microsoftu jawnym zaproszeniem do późniejszego przejęcia obsługi powstałego systemu. I tak się faktycznie stało.

Dnia 12 sierpnia 1981 roku, wraz z wprowadzeniem na rynek komputera IBM PC, w przemyśle komputero­wym został ustanowiony nowy standard. W tym momencie oryginalny komputer IBM PC zapoczątkował roz­poczęcie produkcji ogromnej ilości innych komputerów i urządzeń peryferyjnych. Zostało sprzedanych setki milionów komputerów z nim kompatybilnych. Ponadto, dla żadnej innej platformy dostępnej na rynku nie po­wstała tak duża ilość oprogramowania jak ma to miejsce w przypadku komputerów kompatybilnych z IBM PC.

Przemysł komputerowy ponad 20 lat później

Po upływie ponad 20 lat od powstania komputera osobistego IBM PC nastąpiło wiele zmian. Dla przykładu, komputer zgodny z IBM PC, początkowo z procesorem 8088 4,77 MHz, teraz jest taktowany zegarem 3 GHz lub szybszym stosowanym w procesorze Pentium 4, czyli działa prawie 20 000 razy szybciej, niż miało to miejsce w przypadku oryginalnego komputera IBM PC (wzrost dotyczy faktycznej szybkości przetwarzania, a nie częstotliwości zegara). Pierwszy IBM PC pracujący pod kontrolą systemu DOS 1.0 był wyposażony tylko w jeden lub dwa napędy dyskietek jednostronnego zapisu o pojemności 160 kB, podczas gdy w obecnie stosowanych komputerach z łatwością można przechowywać dane na dyskach twardych o pojemności 200 GB (200 miliardów bajtów) lub nawet większej.

W przemyśle komputerowym obowiązuje praktyczna zasada — zwana prawem Moore 'a (od nazwiska jej twórcy. Gordona Moore'a — współzałożyciela firmy Intel), która mówi, że dostępna moc obliczeniowa pro­cesora oraz pojemność dysków jest mniej więcej podwajana co 1,5 roku do 2 lat.

Odkąd pojawiły się komputery osobiste, zależność ta niezmiennie się sprawdza i jeśli cokolwiek ma ulec zmianie, to jedynie w kierunku dalszego zwiększenia tempa wzrostu wydajności procesorów.

Prawo Moore'a

W 1965 roku Gordon Moore przygotował przemówienie na temat sprzedaży pamięci komputerowych i zauważył cie­kawą zależność. Gdy zaczął rysować graficzną prezentację danych, zdał sobie sprawę z istnienia zadziwiającej tendencji, mianowicie takiej, że każdy nowy układ scalony w przybliżeniu dwukrotnie zwiększał swoją pojemność w porównaniu ze swoim poprzednikiem, a poza tym każdy taki układ był wprowadzany na rynek w ciągu 18 - 24 miesięcy od daty pojawienia się poprzedniego. Doszedł do wniosku, że jeśli taka tendencja nadal będzie się utrzymywać, to moc obliczeniowa po stosunkowo niedługim czasie zacznie zwiększać się w sposób wykładniczy.

Obserwacja dokonana przez Moore'a, obecnie określana jako prawo Moore'a, opisuje tendencję, która jest aktualna do dnia dzisiejszego i nadal sprawdza się z niezwykłą dokładnością. Prawo Moore'a nie dotyczy tylko układów pamięci, ale również precyzyjnie opisuje wzrost mocy obliczeniowej procesorów i pojemności dysków twardych. Stało się ono podstawą w przypadku wielu branżowych prognoz dotyczących wydajności. Jako przykład można przytoczyć fakt, że przez 30 lat liczba tranzystorów stosowanych w procesorach zwiększyła się ponad 18 000 razy, z początkowych 2300 tranzystorów procesora 4004 do ponad 140 milionów procesora Pentium III Xeon wprowadzonego na rynek w maju 2000 roku. Intel przewiduje, że około roku 2007 zostanie wprowa­dzony do sprzedaży procesor zawierający miliard tranzystorów i taktowany zegarem 20 GHz.

Oprócz wzrostu wydajności procesorów i pojemności dysków nastąpiła kolejna ważna zmiana, mianowicie firma IBM nie jest już jedynym producentem komputerów zgodnych z jej projektem. Oczywiście firma ta za­początkowała nowy standard dla swojego produktu, ale obecnie już się nim nie zajmuje. Częściej się zdarza, że nowe standardy obowiązujące w przemyśle komputerowym są opracowywane przez inne firmy i organizacje.

Aktualnie to głównie firmy Intel i Microsoft oraz — w pewnym stopniu — AMD są odpowiedzialne za okre­ślanie i rozwijanie standardów związanych ze sprzętem komputerowym i oprogramowaniem. W związku z dominacją pierwszych dwóch z wymienionych firm niektórzy wpadli nawet na pomysł określania kompute­rów osobistych terminem Wintel. Co prawda na początku firma AMD wytwarzała procesory firmy Intel w ramach udzielonej przez nią licencji, a później produkowała tanie odpowiedniki układów 486 i Pentium mające taką samą liczbę nóżek, jak one, ale począwszy od procesora Athlon, tworzy zupełnie odrębne układy, będące godnymi rywalami dla procesorów firmy Intel z serii Pentium II/III i 4.

W ciągu kilku ostatnich lat Intel i Microsoft kierowały rozwojem rynku komputerów osobistych. Opracowa­nie standardów takich jak magistrala PCI (Peripheral Component Interconnect), magistrala AGP (Accelera-ted Graphics Port), płyt głównych zgodnych ze specyfikacją ATX i NLX, gniazd procesorów, interfejsów kart rozszerzeń oraz kilku innych jest potwierdzeniem faktu, że Intel obecnie ma naprawdę duży wpływ na rozwój podzespołów przeznaczonych dla komputerów osobistych. Intel zajmuje się też projektowaniem chip­setów płyt głównych, które obsługują wymienione elementy. Dzięki temu firma może natychmiast udostęp­niać komputery wyposażone w jej najnowsze procesory. Firma AMD też wytwarza chipsety obsługujące pro­dukowane przez nią procesory, ale odgrywają one głównie rolę układów, na których opierają się inni producenci przy udoskonalaniu własnych konstrukcji. W efekcie komputery z procesorami firmy AMD w po­równaniu z wyposażonymi w układy firmy Intel oferują— przy niższej cenie — znacznie szersze możliwości modyfikowania. Podobnie przedstawia się sytuacja na rynku oprogramowania, na którym firma Microsoft w dalszym ciągu promuje swój system operacyjny Windows oraz takie aplikacje, jak pakiet Office. Zarówno Intel, jak i Microsoft cały czas korzystają z dużej popularności internetu, multimediów i innego typu nośni­ków o bogatej zawartości. Takie zastosowania, jak gry interaktywne, publikacje DVD, szerokopasmowy do­stęp do internetu i drukowanie z fotograficzną jakością przekonują coraz więcej osób do korzystania z kom­puterów PC. Nawet pomimo tego, że dziś — w porównaniu z okresem od połowy do końca lat 90. ubiegłego wieku, gdy nastąpił ogromny wzrost sprzedaży —jej obecny poziom nie zmienia się, większość osób, które zamierzały użyć komputera PC w pracy lub do zabawy, już go posiada. Obecnie dosłownie kilkuset produ­centów z branży komputerowej, opierając się na opracowanych standardach, tworzy komputery, które są w peł­ni kompatybilne z IBM PC. Poza tym tysiące firm wytwarzających urządzenia peryferyjne wprowadza do sprzedaży produkty, które poszerzają możliwości systemów kompatybilnych z IBM PC.

Systemy te rozwinęły się w takim stopniu nie tylko dlatego, że kompatybilny sprzęt z łatwością mógł ze sobą współpracować, ale również wskutek tego, że podstawowy system operacyjny nie był tworzony tylko przez IBM, ale też przez innych producentów (Microsoft). Rdzeń oprogramowania systemowego stanowi BIOS (ang. basie input/output system — podstawowy system wejścia-wyjścia), który również był tworzony przez różnych producentów, takich jak AMI, Phoenix i innych. Taka sytuacja pozwoliła na udzielanie innym pro­ducentom licencji na tworzenie przez nich systemu operacyjnego i BIOS-u, a następnie sprzedawanie wła­snych komputerów kompatybilnych z IBM PC. Fakt, że twórcy systemu DOS wykorzystali sporą część funk­cjonalności i interfejsu użytkownika z systemów CP/M i Unix, prawdopodobnie mial duży wpływ na ilość dostępnego oprogramowania. Gdy system Windows odniósł sukces, twórcy oprogramowania tym bardziej mieli powody ku temu. aby pisać programy dla systemów używanych w komputerach osobistych.

Jednym z powodów, dla którego komputery Apple Macintosh nigdy nie zyskały większej popularności na rynku komputerów osobistych było kontrolowanie przez firmę Apple całości oprogramowania systemowego (BIOS-u i systemu operacyjnego), a ponadto (z wyłączeniem jednego krótkotrwałego epizodu) nie udzielanie licencji żadnej innej firmie, która zamierzała wprowadzić na rynek rozwiązanie kompatybilne z jej produktami.

Po latach niedopuszczania innych do własnej części rynku firma Apple zdała sobie sprawę, że nieudzielanie licencji na swój system operacyjny było niewłaściwym posunięciem i w połowie roku 1990 udostępniła li­cencję na swoje oprogramowanie innym producentom, takim jak Power Computing. Jednak niedługo po tym fakcie unieważniła te umowy. Ze względu na fakt, że rozwiązania firmy Apple zasadniczo nadal mają cha­rakter systemów zamkniętych, inni producenci nie mogą projektować komputerów z nimi kompatybilnych, co oznacza, że tego typu produkty są możliwe do uzyskania tylko z jednego źródła, czyli od firmy Apple. Co prawda projektowanie tanich komputerów, takich jak iMac, i ciągłe powodzenie produktów firmy Apple wśród artystów i nauczycieli pomogło jej się utrzymać i nieznacznie zwiększyć udział w rynku, jednak ze względu na zamknięty charakter jej produktów nigdy nie będzie mogła skutecznie konkurować z producen­tami komputerów PC. Dobrze się stało, dla całej społeczności informatycznej, że IBM stworzył bardziej otwarty i rozszerzalny standard, który obecnie jest wykorzystywany w rozwiązaniach oferowanych przez setki producentów w tysiącach różnych konfiguracji. Tego typu współzawodnictwo wśród producentów produktów kompatybilnych z IBM PC powoduje, że oferują oni wyższą wydajność i większe możliwości za bardziej przystępną cenę.

Rynek komputerów osobistych w dalszym ciągu rozwija się, natomiast nowe technologie stopniowo są wdra­żane w produktach wprowadzanych do sprzedaży, przez co, wraz z upływem czasu, stają się one coraz bar­dziej nowoczesne. Rozwiązania te, za niższą cenę, zapewniają wysoką jakość i dodatkowo są wyposażane w spo­rą ilość oprogramowania dla nich przeznaczonego. Bez obaw można przyjąć założenie, że w ciągu następnych 20 lat produkty kompatybilne z IBM PC będą dominowały na rynku komputerów osobistych.

Rozdział 2.

Komponenty, funkcje i typy komputerów

Czym jest komputer osobisty?

Zwykle zadaję pytanie „Czym właściwie jest komputer PC?" w momencie, gdy rozpoczynam jedno z moich seminariów poświęconych sprzętowi komputerowemu. Oczywiście większość osób natychmiast odpowiada, że skrót PC wywodzi się od słów personal computer (komputer osobisty), co oczywiście jest zgodne z praw­dą. Następnie niektórzy przechodzą do tworzenia dokładniejszej definicji komputera osobistego jako dowol­nego niedużego systemu zakupionego i używanego przez pojedynczego użytkownika. Niestety, taka definicja jest niezupełnie precyzyjna i wystarczająca do naszych zastosowań. Zgodzę się z tym, że PC jest komputerem osobistym, ale jednak nie wszystkie komputery osobiste są komputerami PC. Na przykład komputer Apple Macintosh jest oczywiście komputerem osobistym, ale nikt ze znanych mi osób nie zaliczyłby go do kategorii PC, a zwłaszcza sami użytkownicy komputerów Macintosh! Aby określić poprawną definicję komputera PC, należy bardziej zagłębić się w to zagadnienie.

Używając określenia PC, uznaje się, że jest to coś bardziej konkretnego niż tylko dowolny komputer osobisty. Na pewno nawiązuje się do powiązań z oryginalnym komputerem IBM PC wyprodukowanym w 1981 roku. Pozwolę sobie nawet na stwierdzenie, że firma IBM rzeczywiście opracowała typ komputera, który obecnie jest określany terminem PC, co oznacza, że zaprojektowała i zbudowała pierwszy komputer oraz określiła wszystkie standardy, które odróżniały go od innych komputerów osobistych. Należy zauważyć, że to. czego jestem w pełni świadom i co zostało również potwierdzone przez samą historię, to fakt, że firma IBM nie wpadła na pomysł stworzenia komputera osobistego. Większość uważa, że jego historyczne początki sięgają czasów opracowania przez firmę M1TS w 1975 roku komputera Altair. Firma IBM nie wymyśliła komputera osobistego, ale zaprojektowała i wykonała to, co jest dzisiaj nazywane mianem PC. Niektórzy mogą rozsze­rzyć definicję komputera PC jako dowolnego komputera osobistego, który jest zgodny z komputerem IBM PC. 1 faktycznie, przez wiele lat komputerami PC nazywano zarówno modele zgodne z IBM PC, jak również jego kopie, czyli właściwie uznawano zasługi firmy IBM jako twórcy komputera PC.

Pomimo że oczywiście firma IBM w 1981 roku zaprojektowała i zbudowała pierwszy komputer PC, a następnie przez kolejnych kilka lat kontrolowała opracowywanie i rozwój standardu PC, to jednak aktualnie już nie pełni takiej roli. Oznacza to, że nie ma dużego wpływu na współczesny rynek komputerów PC. W 1987 roku firma IBM straciła kontrolę nad rozwojem standardu PC po tym, jak sama wprowadziła na rynek komputery z serii PS/2. Do tego momentu inne firmy produkujące komputery PC dosłownie kopiowały rozwiązania firmy IBM łącznie z układami scalonymi, złączami i nawet formatem płyt głównych, a także obudowami i zasilacza­mi. Po roku 1987 firma IBM zaniechała rozwijania wielu wczesnych standardów. Jest to powód, dla którego już od wielu lat zaprzestałem w odniesieniu do komputerów PC stosowania terminu zgodny z IBM PC.

Jeśli komputer PC nie jest już rozwiązaniem zgodnym z IBM PC, czym zatem jest? Poprawnie zadane pyta­nie powinno brzmieć: „Kto aktualnie kontroluje rozwój standardu PC?". Pytanie to jeszcze lepiej rozbić na dwie części. Pierwsza z nich ma postać: „Kto aktualnie dominuje na rynku oprogramowania komputerów PC?", natomiast druga: „Kto obecnie ma największy wpływ na rozwój sprzętu komputerowego?".

Kto dominuje na rynku oprogramowania komputerów PC?

W momencie, gdy zadaję to pytanie uczestnikom moich seminariów, większość z nich nawet przez ułamek sekundy nie waha się i odpowiada: „Microsoft!". Nie sądzę, że taka odpowiedź wzbudza jakiekolwiek wąt­pliwości. Microsoft oczywiście dominuje na rynku systemów operacyjnych przeznaczonych dla komputerów osobistych, począwszy od pierwszego systemu MS-DOS, poprzez kolejne wersje Windows 3.1/95/98/Me, Windows NT/2000, a skończywszy na najnowszym Windows XP.

Firma Microsoft skutecznie wykorzystała swoją hegemonię na rynku systemów operacyjnych dla komputerów PC jako sposób na przejęcie kontroli na rynku oprogramowania takiego jak narzędzia i aplikacje. Przykłado­wo, wiele programów narzędziowych, takich jak programy do kompresji i buforowania dysków, defragmen-tacji i naprawy struktury plików, a nawet prostych aplikacji takich jak kalkulator i notatnik, początkowo ofe­rowanych przez niezależnych producentów, obecnie jest dołączonych do systemu Windows. Firma Microsoft dodała do swojego systemu nawet bardziej złożone aplikacje, takie jak przeglądarka internetowa, która do­datkowo była automatycznie instalowana wraz z systemem, co stanowiło spore zagrożenie dla producentów konkurencyjnego oprogramowania. Firma Microsoft swoją dominację na rynku systemów operacyjnych — w większym stopniu niż inni — wykorzystała również przy integracji z systemem własnego oprogramowania sieciowego i aplikacji. Jest to powód obecnej dominacji tej firmy w prawie każdej kategorii oprogramowania przeznaczonego dla komputerów osobistych, począwszy od systemów operacyjnych, poprzez programy na­rzędziowe i sieciowe, a skończywszy na edytorach tekstu, bazach danych i arkuszach kalkulacyjnych.

W początkowym okresie istnienia komputerów osobistych, gdy jeszcze firma IBM w pełni kontrolowała stan­dard PC, zlecono firmie Microsoft stworzenie systemu operacyjnego współpracującego z komputerem PC. IBM opracował projekt dysku twardego oraz napisał BIOS (ang. basie input/output system — podstawowy system wejścia-wyjścia), po czym zlecił firmie Microsoft stworzenie dla komputera PC dyskowego systemu operacyjnego (ang. Disk Operating System — DOS), jak również kilku innych programów i narzędzi. W związku z tym, co później zostało uznane za chyba najbardziej kosztowną pomyłkę w historii biznesu, firma IBM nie zadbała o zachowanie dla siebie wyłącznych praw do systemu DOS stworzonego przez firmę Microsoft. Mogła to osiągnąć poprzez odkupienie praw lub udzielenie licencji na wyłączność. Zamiast tego IBM udzielił zwykłej licencji, która zezwalała firmie Microsoft na sprzedaż kodu źródłowego systemu MS-DOS każdej innej zainteresowanej nim firmie. Firma Compaq, produkująca pierwsze kopie komputera IBM PC. chętnie nabyła licencję kodu źródłowego systemu MS-DOS i w krótkim czasie użytkownicy mogli zakupić ten sam system operacyjny wprowadzony do sprzedaży pod kilkoma różnymi nazwami. Z perspektywy czasu można powiedzieć, że jeden błąd popełniony przy zawieraniu umowy sprawił, że Microsoft stał się potęgą na rynku oprogramowania, a w konsekwencji spowodował utratę przez firmę IBM kontroli nad stworzonym przez nią standardem PC.

Jako twórca książki (nie oprogramowania) jestem w stanie wyobrazić sobie znaczenie tego niebywałego przeoczenia. Wyobraźmy sobie, że wydawnictwo wpada na wspaniały pomysł opublikowania bardzo popu­larnej książki i w tym celu płaci jej autorowi. Następnie, wskutek źle sformułowanej umowy, autor stwierdza, że w pełnej zgodności z prawem może sprzedać tę samą książkę (może pod innym tytułem) wszystkim innym konkurencyjnym wydawnictwom. Oczywiście nie znam żadnego wydawnictwa, które by dopuściło do tego, na co pozwolił IBM w 1981 roku firmie Microsoft. Na mocy umowy zawartej z Microsoftem IBM właściwie już pierwszego dnia po jej podpisaniu utracił kontrolę nad zleconym przez siebie oprogramowaniem przezna­czonym dla swojego nowego komputera PC.

Wart uwagi jest fakt, że w branży komputerowej oprogramowanie jest chronione przez prawa autorskie, na­tomiast sprzęt może być chroniony tylko poprzez wykorzystywanie patentów, które są trudne do uzyskania ze względu na czasochłonność i koszt takiej operacji. Poza tym tracą ważność po 17 latach. Opatentowanie czegoś wymaga spełnienia warunku unikalności i w konsekwencji powoduje konieczność wykonania zupełnie no­wego projektu. Tym sposobem w przypadku większości podzespołów komputera IBM PC uzyskanie patentu nie było możliwe, ponieważ został on zbudowany z już istniejących części, które były ogólnie dostępne w każ­dym sklepie komputerowym! I faktycznie, większość najważniejszych elementów oryginalnego komputera IBM PC, takich jak procesor 8088, generator czasu 8284, czasomierz 8253/54, kontroler przerwań 8259, kon­troler DMA 8237 (ang. direct memory access — bezpośredni dostęp do pamięci), interfejs urządzeń zewnętrz­nych 8255 oraz kontroler magistrali 8288 były produktami firmy Intel. Wymienione układy scalone stanowiły „duszę" i „serce" płyty głównej pierwszego komputera IBM PC.

Ze względu na fakt, że projekt pierwszego komputera IBM PC nie był w pełni opatentowany, każdy mógł skopiować jego komponenty. Sprowadzało się to nabycia identycznych układów scalonych tych samych pro­ducentów i dostawców, u których zaopatrywała się firma IBM, a następnie zaprojektowania nowej płyty głównej o podobnym schemacie. Co dziwniejsze, firma IBM publikowała w postaci szczegółowych i łatwo dostępnych materiałów technicznych nawet kompletne diagramy zawierające schematy swoich płyt głównych i wszystkich kart z nimi współpracujących. Sam jestem posiadaczem kilku pierwszych dokumentacji opubli­kowanych przez IBM, do których nadal, od czasu do czasu, zaglądam w celu uzyskania szczegółowych in­formacji związanych z. określonymi komponentami zastosowanymi w projekcie komputera PC. Tak napraw­dę w dalszym ciągu polecam te materiały każdemu, kto zamierza w większym stopniu zgłębić rozwiązania sprzętowe zastosowane w komputerach firmy IBM.

Trudniejszą rzeczą związaną z kopiowaniem projektu komputera IBM PC było oprogramowanie, które było chronione przez prawa autorskie. Firma Phoenix Software (obecnie znana pod nazwą Phoenix Technologies) znalazła się wśród producentów, którzy jako pierwsi wpadli na pomysł obejścia, w zgodzie z prawem, tego ograniczenia, co umożliwiło powielenie (ale tak naprawdę nie skopiowanie) funkcjonalności oprogramowania, do którego zalicza się BIOS. BIOS jest definiowany jako zbiór programów bezpośrednio nadzorujących urzą­dzenia występujące w komputerze. Tego typu programy są zwykle określane terminem sterowników (ang. device drivers), dlatego też BIOS jest właściwie zbiorem wszystkich podstawowych sterowników służących do nadzoru i współpracy z urządzeniami systemowymi. System operacyjny, taki jak DOS lub Windows, wyko­rzystuje sterowniki zawarte w BlOS-ie do nadzorowania i komunikacji z różnym urządzeniami występują­cymi w komputerze i peryferiami z nim współpracującymi.

► ► Zajrzyj do rozdziału 5. „BIOS" znajdującego się na stronie 457.

Sposób firmy Phoenix na zgodne z prawem powielenie BIOS-u użytego w komputerze IBM PC był cieka­wym przykładem zastosowania inżynierii odwrotnej. Firma stworzyła dwa zespoły złożone z inżynierów systemowych, z tym że jeden z nich był kompletowany ze szczególną uwagą, ponieważ w jego skład miały wchodzić osoby, które nigdy wcześniej nie miały do czynienia z kodem źródłowym BIOS-u firmy IBM. Pierwszy zespół zapoznał się z BlOS-em firmy IBM, a następnie opracował jak najbardziej szczegółową spe­cyfikację operacji przez niego wykonywanych. Następnie drugi zespół zapoznał się z treścią specyfikacji i na jej podstawie zaczął prace nad zupełnie nowym BlOS-em, który będzie realizował wszystkie operacje okre­ślone przez pierwszy zespól. Końcowym efektem prac był nowy BIOS — napisany całkowicie od początku — z kodem może nie identycznym jak kod BIOS-u firmy IBM, ale posiadającym taką samą funkcjonalność.

Firma Phoenix określiła zastosowane podejście wykorzystujące inżynierię odwrotną terminem „czystego po­koju". Na pewno taka metoda nie wywoła żadnych procesów sądowych. Ze względu na fakt, że kod źródłowy oryginalnego BIOS-u firmy IBM zajmował tylko 8 kB i miał ograniczone zastosowanie, jego powielenie metodą „czystego pokoju" nie stanowiło większego problemu i nie było zbyt czasochłonne. Wraz z rozwija­niem przez firmę IBM BIOS-u również firma Phoenix oraz inni producenci doszli do wniosku, że dotrzymy­wanie kroku zmianom dokonywanym przez IBM jest stosunkowo tanie. Po odliczeniu programu testującego urządzenia POST (ang. power on self test) oraz programu BIOS Setup służącego do konfiguracji BIOS-u okazało się. że w przypadku większości BIOS-ów — stosowanych nawet w płytach głównych dostępnych obecnie — objętość wykonywanego kodu zawiera się w przedziale od 32 do 128 kB pamięci. Aktualnie głównymi wytwórcami układów BIOS dla producentów komputerów osobistych i płyt głównych są firmy Phoenix i American Megatrends (AMI). Trzecim najważniejszym producentem BIOS jest firma Award Software, przejęta przez firmę Phoenix Technologies, która kontynuuje sprzedaż produktów wyposażonych w BIOS marki Award.

Po skopiowaniu rozwiązań sprzętowych i BIOS-u — zastosowanych w komputerze IBM PC — pozostało jeszcze tylko stworzenie systemu operacyjnego w pełni zgodnego z systemem wykorzystywanym przez IBM. jakim był DOS. Inżynieria odwrotna systemu DOS nawet po zastosowaniu metody ..czystego pokoju" była zniechęcającym zadaniem, ponieważ system DOS jest o wiele bardziej rozbudowany niż BIOS, a ponadto zawiera znacznie więcej programów i funkcji. Poza tym system operacyjny w porównaniu z BlOS-em — któ­ry jest stosunkowo niezmienny — ulegał znacznie częściej różnym modyfikacjom. Oznaczało to. że jedynym sposobem pozyskania systemu zgodnego z systemem DOS było zakupienie licencji na niego. I właśnie w tym momencie pojawiła się firma Microsoft. Ze względu na fakt, że IBM (który jako pierwszy zlecił Microsoftowi stworzenie systemu DOS) nie zwrócił uwagi na to. że podpisał z nią zwykłą umowę licencyjną, od tej pory Microsoft mógł bez ograniczeń sprzedawać ten sam system DOS, zaprojektowany dla firmy IBM, każdemu, kto się z taką prośbą do niego zwrócił. Po nabyciu licencjonowanej kopii systemu MS-DOS ostatni brakujący element został zdobyty i teraz, niezależnie od tego. czy IBM wyraził na to zgodę czy nie. można było rozpo­cząć produkcję komputerów zgodnych z IBM PC.

Pozostaje jeszcze tylko odpowiedź na pytanie, dlaczego nie istnieją kopie lub rozwiązania zgodne z komputerem Macintosh firmy Apple. Nie wynika to z faktu, że komputerów firmy Apple nie da się skopiować. Tak na­prawdę komputer Macintosh ma stosunkowo prostą budowę i można go z łatwością złożyć z gotowych kom­ponentów. Rzeczywisty problem polega na tym, że firma Apple posiada prawa do systemu Mac OS oraz do BIOS-u. a ponieważ nie zamierzała udzielać żadnych licencji na swoje produkty, w efekcie żadna firma nie może sprzedawać rozwiązań zgodnych z jej komputerami. Poza tym należy zwrócić uwagę na to. że system Mac OS i BIOS są ze sobą ściśle zintegrowane i na to, że, w przeciwieństwie do wielu prostszych i dających się w łatwiejszy sposób powielić BIOS-ów stosowanych w komputerach PC, Mac BIOS jest bardzo duży oraz złożony i właściwie stanowi część systemu Mac OS. Większa złożoność i stopień integracji systemu Mac OS i BIOS-u zapobiegła sytuacjom, w których dążono wszelkimi metodami, w tym metodą „czystego pokoju", do ich powielenia. Oznacza to, że bez błogosławieństwa firmy Apple udzielonego w formie licencji żadna kopia komputera Macintosh nie ma prawa kiedykolwiek powstać.

Wart uwagi jest fakt, że w latach 1996 - 1997 bardziej liberalnie myślący decydenci w firmie Apple poczy­nili pewne starania mające na celu udzielenie licencji na połączony system OS/BIOS i nawet kilka rozwią­zań zgodnych z komputerami Macintosh zostało nie tylko opracowanych, ale również zrealizowanych i sprzedanych. Firmy takie jak Sony. Power Computing, Radius, a nawet Motorola zainwestowały miliony dolarów w wykonanie projektów takich systemów, ale niestety, już po sprzedaniu pierwszych kopii kompute­ra Macintosh firma Apple nagle odebrała wszystkie licencje! Takie postępowanie było ewidentnie wynikiem decyzji Steve'a Jobsa. który ponownie stanął na czele firmy Apple i przede wszystkim był jednym z twórców projektu komputera Macintosh, mającym do niego prawa autorskie. Po wycofaniu udzielonych licencji firma Apple niemalże zagwarantowała sobie to, że jej produkty nigdy nie odniosą większego sukcesu. Wraz ze zmniejszeniem udziału w rynku wzrosną koszty. Poza tym zmniejszy się ilość dostępnych aplikacji i w po­równaniu z rynkiem komputerów PC powstanie — dla rozwiązań firmy Apple — mniej nowych urządzeń. Prawa własności oznaczają również, że poważniejsze naprawy lub wymiany komponentów takich jak płyty główne, zasilacze i obudowy będą realizowane za wyższą cenę tylko przez firmę Apple, niezależnie od tego, że koszt aktualizacji takich komponentów zazwyczaj nie jest wysoki.

Często dochodzę do wniosku, że gdyby Apple prowadził inną politykę i od początku udzielał licencji na swój system OS i BIOS, wtedy książka ta mogłaby być zatytułowana Upgrading and Repairing Macs (Rozbudowa i naprawa komputerów Macintosh)!

Kto obecnie ma największy wpływ na rozwój sprzętu komputerowego?

Pomimo oczywistego faktu, że dzięki swojej pozycji wśród producentów systemów operacyjnych dla kom­puterów osobistych na rynku oprogramowania zawsze dominował Microsoft, to jednak warto wiedzieć, jak przedstawia się sytuacja w przypadku sprzętu komputerowego. Można stwierdzić, że do roku 1987 firma IBM sprawowała kontrolę na standardami związanymi z komponentami komputerów PC. Niezależnie od te­go, co się wydarzyło później, firma IBM opracowała projekt pierwszej płyty głównej dla komputera PC, ory­ginalną architekturę magistrali obsługującej karty rozszerzeń (8- i 16-bitowa magistrala ISA), specyfikacje portu szeregowego i równoległego, standardy kart graficznych, w tym VGA i XGA. interfejsy współpracujące z dyskami twardymi i stacjami dyskietek, kontrolery dysków, zasilacze, projekt klawiatury i współpracują­cych z nią interfejsów, interfejs myszy, a nawet formaty wszystkich komponentów począwszy od płyty głównej, a skończywszy na kartach rozszerzeń, zasilaczach i obudowach. Wszystkie projekty komputerów firmy IBM wyprodukowanych przed 1987 rokiem, takich jak PC, XT, AT, nadal wywierają wpływ na obecnie powstające systemy.

Jednak dla mnie istotna jest odpowiedź na pytanie: „Jaka firma jest odpowiedzialna za tworzenie i rozwijanie najnowszych systemów komputerowych PC, interfejsów i standardów z nimi związanych?". Gdy zadaję to pytanie, zwykle u osób udzielających na nie odpowiedzi można zauważyć pewne wahanie. Jedni mówią, że Microsoft (chociaż ta firma dominuje na rynku oprogramowania, a nie sprzętu), inni, że Compaą, Dell lub wymieniają nazwy kilku innych dużych producentów sprzętu komputerowego. Tylko nieliczni podają po­prawną odpowiedź — Intel.

Rozumiem, dlaczego większość osób od razu sobie tego nie uświadamia. Mówiąc to, zastanawiam się, ile tak naprawdę osób jest posiadaczami komputera PC marki Intel? I nie mam tu na myśli napisu „Intel inside" (z proce­sorem Intel — informującym tylko o zastosowanym procesorze) znajdującego się na obudowie komputera, ale rozwiązanie, które zostało opracowane i wykonane lub nawet zakupione przez firmę Intel. Wierzcie mi lub nie, ale uważam, że obecnie wiele, jeśli nie większość, osób posiada komputer Intel PC!

Z pewnością nie oznacza to, że użytkownicy nabyli swoje komputery od firmy Intel, ponieważ nie sprzedaje ona końcowym odbiorcom kompletnych zestawów komputerowych. Nie istnieje możliwość zamówienia w firmie Intel komputera, ani też zakupienia go od kogoś innego. Mówiąc o komputerze Intel PC mam na myśli płytę główną. Według mnie najważniejszym elementem komputera osobistego jest płyta główna i na­wet pokusiłbym się o stwierdzenie, że dowolny producent płyty głównej powinien być traktowany jak wy­twórca całego komputera. Nawet w czasach, gdy IBM był głównym producentem komputerów PC, wykony­wał przede wszystkim płyty główne, a produkcję innych elementów systemu (zasilaczy, dysków twardych itp.) zlecał innym.

► ► Zajrzyj do rozdziału 4. „Płyty główne i magistrale" znajdującego się na stronie 253.

Wielu producentów komputerów o najwyższym poziomie sprzedaży projektuje i wykonuje swoje własne płyty główne. Według czasopisma Computer Reseller News do czołowych producentów sprzętu komputerowego przez ostatnie kilka lat konsekwentnie zaliczały się takie firmy jak Compaą, HP i IBM. Firmy te przeważnie projektowały i produkowały swoje własne płyty główne oraz wiele innych komponentów komputerowych. W niektórych przypadkach projektowały nawet chipsety przeznaczone do wytwarzanych przez siebie płyt. Cho­ciaż poziom sprzedaży produktów tych poszczególnych firm jest wciąż wysoki, to jednak większa część ryn­ku sprzętu komputerowego należy do producentów tak zwanych „białych skrzynek" (ang. white-box).

„Biała skrzynka" jest terminem stosowanym w branży komputerowej w odniesieniu do tego, co jest inaczej nazywane składakiem (ang. generic PC), czyli komputera PC złożonego z kilku ogólnie dostępnych kompo­nentów zgodnych ze standardami. Określenie „biała skrzynka" wzięło się stąd, że większość obudów stoso­wanych w tego typu systemach jest w kolorze białym (lub w kolorze kości słoniowej, ewentualnie beżowym).

To. co w przypadku „białych skrzynek" jest tak wspaniałe, to fakt zastosowania w nich wymienialnych pod­zespołów spełniających wszelkie standardy. Taka wymienialność odgrywa kluczową rolę w przypadku przy­szłych aktualizacji oraz napraw, ponieważ gwarantuje, że będziemy dysponować dużym wyborem różnych komponentów. Przez wiele lat zniechęcałem do kupowania rozwiązań mających ograniczenia wynikające z praw własności i namawiałem do wykorzystywania komputerów składanych z elementów bardziej zgodnych z obo­wiązującymi standardami.

Firmy zajmujące się sprzedażą „białych skrzynek" tak naprawdę nie są ich producentami. Dokonują one tylko ich montażu. Oznacza to, że kupują ogólnie dostępne części, takie jak płyty główne, obudowy, zasilacze, dyski twarde, urządzenia peryferyjne i tym podobne, a następnie składają je w jedną całość, uzyskując kom­pletny komputer nadający się do sprzedaży. Dell, Gateway i Micron (obecnie MPC) należą obecnie do grupy największych firm montujących składaki. Oczywiście można by jeszcze wymienić setki podobnych firm. Pod względem ogólnej sprzedaży tego typu firmy zajmują obecnie największą część rynku komputerów PC. To, co jest interesujące w przypadku „białych skrzynek" to fakt, że, może poza kilkoma wyjątkami, wszyscy ku­pujemy te same płyty główne i inne komponenty, w które zaopatrują się ich producenci (z tą różnicą, że prawdopodobnie ze względu na uzyskane zniżki wynikające z zamówienia większej ilości towaru oni zapłacą mniej niż my). Możemy samodzielnie od podstaw złożyć prawie identyczny komputer, jaki można nabyć u pro­ducenta „białych skrzynek", ale tym zajmiemy się w rozdziale 22., „Montaż i modernizacja komputera".

Należy zwrócić uwagę na fakt, że niektórzy producenci „białych skrzynek" osiągają zadziwiający poziom sprzedaży. Przykładowo firma Dell zajęła pierwsze miejsce na liście firm o najlepszych wynikach w sprzedaży komputerów PC, detronizując tym samym firmę Compaą (obecnie HP), która była przez wiele lat na samym jej szczycie. Gateway i inni wytwórcy „białych skrzynek" plasują się niewiele niżej.

Na podstawie tego wszystkiego można zadać następujące pytanie: „Jeśli oczywiście Dell. Gateway, Micron oraz inne firmy nie zajmują się produkcją własnych płyt głównych, to kto to robi?". Jeśli myślisz o Intelu — masz całkowitą rację. Nie tylko wyżej wymienione firmy wykorzystują płyty główne Intela, ale po niewielkim ro­zeznaniu stwierdzisz, że obecnie o wiele więcej systemów dostępnych na rynku komputerów, składanych rów­nież, jest wyposażonych w płyty główne tej firmy. Jedynym miejscem, w którym jeszcze firma Intel nie jest obecna, jest rynek systemów opartych na procesorach Athlon firmy AMD.

W pewnym przeglądzie dotyczącym komputerów zamieszczonym w czasopiśmie Computer Shopper za­mieszczono informacje, że spośród 10 omówionych systemów aż 8 było wyposażonych w płytę główną firmy Intel. Co ciekawsze, wszystkie osiem komputerów współpracowało dokładnie z tym samym modelem płyty. Oznacza to. że tak naprawdę porównywane systemy różniły się między sobą tylko wyglądem obudowy oraz wykorzystanymi komponentami takimi jak karta graficzna, dysk twardy, klawiatura i tym podobne. Zabawne było to. że w poszczególnych systemach identycznych było również wiele wymienionych składników. Zanim dokonasz porównania zestawów komputerowych montowanych przez różnych dostawców, postaraj się spraw­dzić, z jakich elementów jest złożony każdy z nich. Możesz być zaskoczony tym, jak bardzo podobne do sie­bie są systemy obecnie dostępne na rynku.

Pomimo ciągłej dominacji Intela wśród producentów płyt głównych, od kilku lat następuje stopniowe jej za­chwianie. Ze względu na fakt stosowania przez firmę Intel pamięci Rambus w początkowym okresie istnienia na rynku procesorów Pentium 4 wielu producentów tańszych systemów zaczęło wykorzystywać rozwiązania alternatywne. Poza tym płyty Intela nie umożliwiają wykonywania operacji przetaktowywania lub powodują, że jest ona trudna do zrealizowania, dlatego też zwolennicy takiego sposobu podnoszenia wydajności kom­putera zwykle sięgają po płyty innych producentów.

Patrząc na to z drugiej strony, firma AMD zajmuje się produkcją procesorów i chipsetów, ale już nie całych płyt głównych. Z tego też powodu firma ta współpracuje z kilkoma innymi producentami wytwarzającymi płyty przewidziane do użytku z produkowanymi przez nią procesorami. Takie płyty są wyposażone w chip­sety firmy AMD lub układy wyprodukowane przez inne firmy zajmujące się w szczególności rozwiązaniami dla procesorów firmy AMD. Te same firmy, które wytwarzają płyty główne współpracujące z procesorami AMD, produkują również płyty stosowane w komputerach opartych na procesorach firmy Intel, tworząc tym samym bezpośrednią konkurencję dla Intela jako producenta płyt głównych.

^ ► Zajrzyj do podrozdziału „Chipsety" znajdującego się na stronie 292.

Jak doszło do tego, że Intel zdominował rynek wewnętrznych komponentów komputerów PC? Firma Intel od roku 1981, odkąd IBM zastosował w swoim oryginalnym IBM PC procesor Intel 8088. była już znaczącym dostawcą procesorów dla komputerów osobistych. Po opanowaniu rynku procesorów Intel automatycznie zdominował rynek chipsetów wymaganych do zintegrowania jego procesorów z resztą systemu komputero­wego. Dzięki temu Intel w naturalny sposób zadomowił się w branży chipsetów. Firma Intel rozpoczęła pro­dukcję chipsetów w 1989 roku, opracowując projekt układu 82350 zgodnego ze standardem EISA (ang. Exten-ded Industry Standard Architecture — rozszerzona architektura standardu przemysłowego), a w roku 1993, wraz z wprowadzeniem na rynek procesora Pentium, stała się dostawcą chipsetów do płyt głównych, osiągając naj­wyższy poziom ich produkcji. W tej chwili wyobrażam sobie pracowników Intela zastanawiających się, czy jeśli firma już zajmuje się produkcją procesorów i chipsetów do płyt głównych, to czy nie powinna wyelimi­nować pośredników poprzez rozpoczęcie również produkcji własnych płyt? Odpowiedź na to pytanie, i jed­nocześnie przełomowy moment w historii przemysłu komputerowego, miała miejsce około roku 1994, gdy Intel okazał się producentem płyt głównych, który osiągnął największy na świecie poziom sprzedaży. Od tej pory Intel pozostawał na samym szczycie. I bynajmniej jego przewaga nie była znikoma. Tak naprawdę w roku 1997 Intel wyprodukował większą ilość płyt niż ośmiu następnych w kolejności największych producentów płyt głównych razem wziętych. Firma osiągnęła sprzedaż na poziomie ponad 30 milionów płyt wartych po­nad 3.6 miliarda dolarów! Należy mieć świadomość, że liczba ta nie uwzględnia procesorów lub chipsetów, a tylko same płyty główne. Wszystkie te płyty były montowane przez różne firmy w ich najnowszych kom­puterach osobistych, które następnie były kupowane przez Ciebie i mnie, co oznacza, że teraz większość z nas jest w posiadaniu systemu zbudowanego z komponentów Intela niezależnie od tego, kto dokonał jego fak­tycznego montażu.

Ponieważ firma Intel dominuje na rynku producentów płyt głównych, tym samym sprawuje również kontrolę nad standardami związanymi ze sprzętem wykorzystywanym w komputerach osobistych. Intel nie tylko pro­dukuje znakomitą większość płyt głównych wykorzystywanych w aktualnie dostępnych systemach, ale rów­nież jest dostawcą większości procesorów i chipsetów służących do wytwarzania płyt głównych w fabrykach innych producentów.

Firma Intel brała udział w opracowywaniu kilku najnowszych standardów związanych ze sprzętem kompute­rowym. Należą do nich:

Firma Intel zdominowała nie tylko rynek komputerów PC, lecz również całą branżę półprzewodników. Według wyników sprzedaży opublikowanych przez organizację iSuppli.com firma Intel ma ponad 2,5 razy wyższą sprzedaż w porównaniu z następnym w kolejności producentem półprzewodników (Samsung) i około 9 razy wyższą od swojego konkurenta — firmy AMD (patrz tabela 2.1).

Po zapoznaniu się z powyższym zestawieniem nie zdziwi nas to, że popularny w branży komputerowej serwis informacyjny o nazwie The Register znajdujący się pod adresem http://www.theregister.co.uk, nawiązując do giganta rynku półprzewodników, posługuje się określeniem ,.Chipzilla".

Ten, kto dominuje na rynku systemów operacyjnych, również jest potęgą w branży oprogramowania dla kom­puterów osobistych. Ten, kto opanował rynek procesorów, a tym samym płyt głównych, sprawuje faktyczną kontrolę nad rynkiem sprzętu komputerowego. Ze względu na fakt, że Microsoft i Intel wydają się być potę­gami na rynku oprogramowania i sprzętu przeznaczonego dla komputerów PC, nie zdziwi nas fakt, że naj­nowsze komputery są często określane terminem „Wintel".

Dostawca

Pozycja w roku 2002

Sprzedaż w roku 2002

Pozycja w roku 2001

Sprzedaż w roku 2001

Pozycja w roku 2000

Sprzedaż w roku 2000

Intel

1

$23.47

1

$23,54

1

$30,21

Samsung

2

$9,18

4

$6,14

4

$8,94

STMicro

3

$6,31

3

$6,36

6

$7,89

Tl

4

$6,20

5

$6,05

3

$9,20

Toshiba

5

$6,19

2

$6,54

2

$10,43

Infineon

6

$5,36

8

$4.56

8

$6,74

NEC

7

$5,26

6

$5,30

5

$8,20

Motorola

8

$4,73

7

$4,83

7

$7,71

Philips

9

$4,36

9

$4,41

9

$6,27

Hitachi

10

$4,05

10

$4,24

12

$5,69

Mitsubishi

11

$3,62

11

$3,87

11

$5,79

IBM

12

$3,39

14

$3,56

18 $3,99

Matsushita

13

$3,28

16

$3,01

17

$4,33

Fujitsu

14

$3,24

13

$3,73

15

$5,01

Micron

15

$3,22

18

$2,45

10

$6,26

AMD

16

$2,61

12

$3,79

16

$4,38

Hynix

17

$2,57

19

$2,34

14

$5,10

Sony

18

$2,50

17

$2,47

20

$3,29

Rohm

19

$2,39

21

$2,21

23

$3,06

Sharp

20

$2,36

20

$3,36

19

$3,33

Sanyo

21

$2,10

22

$2,03

21

$3,28

Agere

22

$2,03

15

$3,14

13

$5,10

Analog Devices

23

$1,94

23

$1,93

24

$2,74

Qualcomm

24

$1,85

28

$1,39

37

$1,22

NVIDIA

25

$1,80

30

$1,29

51

$0,71

Agilent

26

$1,60

24

$1,53

27

$2,31

National

27

$1,57

26

$1,51

25

$2,36

LSI Logic

28

$1,51

25

$1,56

26

$2,34

Fairchild

29

$1,35

29

$1,34

31

$1,68

Atmel

30

$1,21

27

$1,48

29

$2,01

Tabela 2.1. Zestawienie 30 największych producentów półprzewodników według poziomu sprzedaży osiągniętego w roku 2002

* Sprzedaż wyrażona w milionach dolarów.

Przewodnik po typach systemów PC

Nawet pomimo dominacji Intela w świecie sprzętu komputerowego — patrząc z perspektywy systemów ope­racyjnych — firma Microsoft jest świadoma wpływu, jaki wywiera na rynek komputerów osobistych, dlatego też podjęła współpracę z firmą Intel. Wynikiem tych połączonych sił jest seria dokumentów o nazwie PC xx Design Guides (gdzie za xx należy podstawić rok) stanowiąca zestaw specyfikacji standardów mających za zadanie informowanie projektantów z branży oprogramowania i sprzętu tworzących produkty współpracujące z systemem Windows. Standardy zawarte w tych przewodnikach stanowią część wymagań, które należy spełnić, aby uzyskać zgodę tirmy Microsoft na posługiwanie się ich logo Designed for Windows (zaprojektowano dla systemu Windows). Mówiąc inaczej, jeśli jesteś producentem oprogramowania lub sprzętu komputerowego i chcesz uzyskać zgodę tirmy Microsoft na zamieszczanie na opakowaniu gotowego produktu jej logo Desi­gned for Windows, musi on spełniać minimalne wymagania przedstawione w dokumentach z serii PC xx Design Guides.

Dotychczas opracowano następujące dokumenty:

Powyższe dokumenty są udostępnione do pobrania na stronie internetowej firmy Microsoft (http:'/www.microsoft.com/whdc/system/platform/pcdesign/desguide/pcguides.mspx).

Dokumenty dotyczące projektowania systemów zawierają informacje przeznaczone dla inżynierów, zajmują­cych się projektowaniem i wprowadzaniem na rynek komputerów osobistych, kart rozszerzeń oraz urządzeń peryferyjnych, które będą współpracować z systemem operacyjnym Windows w wersjach 9x/Me, NT/2000 oraz XP. Wymagania i zalecenia zawarte w dokumentach określają podstawowe warunki związane z używa­niem programu firmy Microsoft, których spełnienie daje producentom sprzętu współpracującego z jej systemami operacyjnymi możliwość posługiwania się logo „Designed for Windows".

Dokumenty te zawierają wymagania związane z projektowaniem podstawowych systemów (stacjonarnych i przenośnych), stacji roboczych, a nawet komputerów multimedialnych. Poruszają również zagadnienia do­tyczące konfiguracji urządzeń Pług and Play i zarządzania energią w komputerach osobistych PC. Poza tym można w nich znaleźć wymagania stawiane standardowi USB (ang. universal serial bus — uniwersalna ma­gistrala szeregowa) i IEEE-1394 oraz nowym urządzeniom obsługiwanym przez system Windows, włączając w to nowe typy kart graficznych i kart służących do obróbki wideo, odtwarzaczy DVD, skanerów, aparatów cyfrowych i innych urządzeń.

Wymienione dokumenty nie mają większego znaczenia dla zwykłych użytkowników. Są one prze-T^i znaczone dla producentów komputerów osobistych, którzy mogą uwzględnić zawarte w nich zale-cenią w momencie projektowania i wytwarzania swoich produktów. Jako takie, same dokumenty zawierają tylko zalecenia, dlatego też nie jest konieczne ich ścisłe przestrzeganie. W pewnym sensie są one dla Intela i Microsoftu czymś w rodzaju narzędzi kontrolujących rynek oraz pozwa­lających na dalsze zwiększanie dominacji w zakresie oprogramowania i sprzętu przeznaczonego dla komputerów PC. W rzeczywistości rynek często decyduje o tym, że niektóre z zaleceń okre­ślonych w dokumentach zostają pominięte, co sprawia, że Intel i Microsoft corocznie opracowują nowe ich wersje.

Dokument PC 2001 System Design Guide jest najnowszym kompletnym przewodnikiem po typach kompute­rów PC, opracowanym przez firmy Microsoft i Intel. Oba przedsiębiorstwa oferują obecnie różne związane z tym dokumentem raporty i inne materiały. W celu uzyskania aktualnych danych dotyczących tworzenia kom­puterów PC należy zaglądnąć na następujące strony internetowe:

Typy komputerów

Komputery PC mogą być podzielone na wiele różnych kategorii. Dokonam ich klasyfikacji na dwa sposoby — według typu obsługiwanego oprogramowania i według wykorzystywanej magistrali płyty głównej lub typu procesora. Ponieważ w tej książce są omawiane zagadnienia związane ze sprzętem, przyjrzymy się naj­pierw jemu.

W momencie gdy procesor odczytuje dane. są one do niego przekazywane za pośrednictwem zewnętrznej magistrali danych procesora. Magistrala danych procesora jest bezpośrednio połączona z magistralą główną (ang. host bus) płyty głównej współpracującej z procesorem. Szyna danych procesora lub płyty głównej jest czasami określana również terminem magistrali lokalnej (ang. local bus), ponieważ procesor jest z nią połą­czony bezpośrednio. Inne urządzenia podłączone do magistrali głównej sprawiają takie wrażenie, jakby wła­ściwie też były bezpośrednio podłączone do procesora. Jeśli procesor dysponuje 32-bitową szyną danych, to płyta główna musi być wyposażona w odpowiednią 32-bitową magistralę główną. Oznacza to, że system jest w stanie przekazywać w trakcie pojedynczego cyklu dane w 32-bitowym formacie do i na zewnątrz procesora.

► ► Zajrzyj do punktu „Magistrala danych wejścia-wyjścia (l/O)" znajdującego się na stronie 80.

Różne procesory dysponują różnymi szynami danych, natomiast płyty główne z nimi współpracujące muszą być wyposażone w taką samą magistralę główną, jaką posiada procesor. W tabeli 2.2 zestawiono wszystkie procesory firmy Intel i ważniejsze zgodne z nimi układy wraz z szerokością ich magistrali danych i rejestrów wewnętrznych.

Tabela 2.2. Procesory firmy Intel i ważniejsze zgodne z nimi układy wraz z szerokością ich magistrali danych i rejestrów wewnętrznych

Procesor

Magistrala danych

Rejestry wewnętrzne

8088

8-bitowa

16-bitowe

8086

16-bitowa

16-bitowe

286

16-bitowa

16-bitowe

386SX

16-bitowa

32-bitowe

386DX

32-bitowa

32-bitowe

486/AMD-5x86

32-bitowa

32-bitowe

Pentium/AMD-K6

64-bitowa

32-bitowe

Pentium Pro/Celeron/II/III

64-bitowa

32-bitowe

AMD Duron/Athlon/Athlon XP

64-bitowa

32-bitowe

Pentium 4

64-bitowa

32-bitowe

Itanium

64-bitowa

64-bitowe

AMD Athlon 64

64-bitowa

64-bitowe

Często podczas dyskusji na temat architektury procesorów dochodzi do nieporozumień. Pomimo, że procesor Pentium i nowsze modele dysponują 64-bitową szyną danych, ich wewnętrzne rejestry nadal są tylko 32-bitowe. dlatego też wykonują 32-bitowe polecenia i instrukcje. Procesory Intel Itanium i AMD Athlon 64 są pierwszymi, które wyposażono w 64-bitowe rejestry wewnętrzne. A zatem — z punktu widzenia producentów oprogramo­wania — wszystkie procesory, począwszy od 386, a skończywszy na procesorach Athlon/Duron i Celeron/ Pentium 4 są wyposażone w 32-bitowe rejestry i przetwarzają 32-bitowe instrukcje. Patrząc na to z perspek­tywy budowy procesora, te uważane przez uruchamiane programy za 32-bitowe układy były fizycznie wyposa­żane w różne typy szyn danych, takie jak 16-bitowa (386SX), 32-bitowa (386DX) i 64-bitowa (Pentium i nowsze procesory). Szerokość magistrali danych jest głównym wyznacznikiem produkowanych płyt głównych i pamięci, ponieważ decyduje o ilości bitów danych przekazywanych w ciągu jednego cyklu do i na zewnątrz procesora.

► ► Zajrzyj do punktu „Rejestry wewnętrzne (wewnętrzna magistrala danych)" znajdującego się na stronie 82.

Procesor Itanium firmy Intel jest wyposażony w zestaw instrukcji o nowej 64-bitowej architekturze (IA-64). ale może również przetwarzać te same 32-bitowe instrukcje, co starsze procesory, począwszy od 386, a skoń­czywszy na Pentium 4. Co prawda procesor Athlon 64 jest wyposażony w nową 64-bitową architekturę zgodną z architekturą x86, ale został zaprojektowany tak, aby obsługiwał 32-bitowe instrukcje przeznaczone dla standardowych układów firmy Intel lub układów z nimi zgodnych równie wydajnie, jak zwykły procesor Athlon XP lub procesor z nim porównywalny.

► ► Zajrzyj do podrozdziału „Parametry procesorów" znajdującego się na stronie 75.

Po przyjrzeniu się zawartości tabeli 2.2 można dojść do wniosku, że wszystkie systemy oparte na procesorach Pentium i nowszych są wyposażone w 64-bitową szynę danych procesora. Procesory z serii Pentium — nieza­leżnie od tego, czy jest to Pentium, Pentium MMX, Pentium Pro czy nawet Pentium II/III lub Pentium 4 — wszyst­kie dysponują 64-bitową magistralą danych (podobnie jak porównywalne układy firmy AMD, takie jak K6. Athlon, Duron. Athlon XP i Athlon 64).

.lak można wywnioskować na podstawie tabeli 2.2. systemy mogą być podzielone na następujące kategorie sprzętowe:

To, co jest w tym interesujące, to fakt, że poza różną szerokością szyny danych — od 16-bitowej do 64-bitowej — wszystkie systemy są pod względem ogólnego projektu i architektury bardzo podobne. Tylko rozwiązania z 8-bitową szyną danych znacznie się różnią. Tym sposobem uzyskujemy dwa podstawowe typy lub klasy systemów:

W powyższym potoku skrótów PC odpowiada personal computer (komputer osobisty), XT — extended PC (rozszerzony komputer PC), natomiast AT — advanced-technology PC (komputer PC zaawansowany tech­nologicznie). Terminy PC, XT i AT zapisane tutaj w takiej postaci wywodzą się od nazw oryginalnych kom­puterów firmy IBM. XT był komputerem osobistym zawierającym oprócz stacji dyskietek, w które był już wyposażony pierwszy komputer PC, dysk twardy służący do przechowywania danych. Systemy te były wy­posażone w 8-bitowy procesor 8088 i 8-bitową magistralę ISA (Industry Standard Architecture) obsługującą karty rozszerzeń. Stówo magistrala (ang. bus) jest nazwą określającą gniazda rozszerzeń, w których mogą być instalowane dodatkowe karty. 8-bitowość wynika z faktu, że magistrala ISA, w którą były wyposażone systemy klasy PC/XT, była w stanie w ciągu jednego cyklu wysyłać lub odbierać tylko 8 bitów danych. W przypadku 8-bitowej magistrali dane są przesyłane jednocześnie przez 8 równoległych linii.

► ► Zajrzyj do punktu „Magistrala ISA" znajdującego się na stronie 408.

Systemy 16-bitowe i nowsze są zaliczane do klasy systemów AT, co oznacza, że są zgodne z pewnymi stan­dardami i zasadami określonymi przy opracowywaniu projektu pierwszego komputera IBM AT. Firma IBM wprowadziła termin AT w celu określania nim systemów, które początkowo były wyposażone w bardziej za­awansowane procesory 16-bitowe (a później 32-bitowe i 64-bitowe) oraz gniazda rozszerzeń. Systemy klasy AT muszą posiadać procesor, który jest zgodny z procesorem 286 firmy Intel lub modelami nowszymi takimi jak 386, 486, Pentium, Pentium Pro, Pentium II, Pentium III, Pentium 4 i Pentium M, a ponadto być wyposa­żone w magistralę I6-bitową lub nowszą. Architektura magistrali danych łącznie z architekturą pamięci, kontrolerem przerwań (IRQ), kontrolerem bezpośredniego dostępu do pamięci (DMA) i portów obsługi wej­ścia-wyjścia (l/O) jest głównym elementem projektu systemu AT. Wszystkie systemy klasy AT pod wzglę­dem sposobu działania i przydzielania zasobów są do siebie podobne.

Pierwszy system klasy AT był wyposażony w 16-bitową wersję magistrali danych ISA, która jest modyfika­cją oryginalnej 8-bitowej magistrali ISA stosowanej w komputerach klasy PC/XT. Ostatecznie dla systemów klasy AT opracowano kilka projektów magistrali lub gniazd rozszerzeń. Zaliczają się do nich:

System wyposażony w dowolną z wymienionych magistrali lub gniazd rozszerzeń z definicji jest syste­mem klasy AT, niezależnie od zastosowanego procesora firmy Intel lub z nim zgodnego. Systemy klasy AT — wyposażone w procesor 386 lub nowszy — cechują się specjalnymi własnościami niespotykanymi w pierwszej generacji komputerów klasy AT opartych na procesorze 286. Własności te związane są z do­stępem do pamięci, zarządzaniem nią i czasami też z przekazywaniem danych przez 32- i 64-bitowe magi­strale danych. Większość systemów opartych na procesorze 386DX lub nowszym charakteryzuje się rów­nież magistralą o 32-bitowej architekturze pozwalającą w pełni wykorzystać możliwości 32-bitowego transferu danych procesora.

Do niedawna w celu zachowania zgodności wstecz i umożliwienia zastosowania starszych kart komputery PC były wyposażone w gniazdo 16-bitowej magistrali ISA. Obecnie jednak w niemal wszystkich płytach głównych gniazda magistrali ISA zostały całkowicie zastąpione przez gniazda magistrali PCI i AGP (gniazdo rozszerzenia o specjalnym przeznaczeniu). Gniazdo AGP jest dostępne w większości kompute­rów służących do zaawansowanych zastosowań graficznych (z wyjątkiem kilku podstawowych systemów zawierających zintegrowaną kartę graficzną). Ponadto większość komputerów przenośnych jest wyposa­żona w gniazda PC Card (PCMCIA) i CardBus, natomiast w przypadku opcjonalnych stacji dokujących są używane gniazda PCI.

W rozdziale 4., „Płyty główne i magistrale", zawarto szczegółowe informacje na temat omówionych tutaj oraz innych magistrali spotykanych w komputerach PC, włączając w to parametry techniczne takie jak roz­mieszczenie końcówek, specyfikacje dotyczące wydajności oraz zasady działania.

W tabeli 2.3 zebrano główne różnice występujące pomiędzy starszymi 8-bitowymi systemami (PC/XT), a nowszymi AT. Zawarte w tabeli zestawienie obejmuje wszystkie typy komputerów IBM oraz modeli z nimi zgodnych.

Najprostszy sposób rozpoznania 8-bitowego systemu PC/XT polega na sprawdzeniu, czy jest on wyposażony w 8-bitowe gniazda rozszerzeń ISA. Jeśli wszystkie gniazda są wykonane według 8-bitowego standardu ISA to, niezależnie od zastosowanego procesora lub innych funkcji, mamy do czynienia z systemem PC/XT. 16-bitowe systemy AT mogą być zidentyfikowane w podobny sposób, mianowicie są wyposażone w dowolnego typu gniaz­da 16-bitowe lub nowsze. Zaliczają się do nich standardy ISA, EISA, MCA, PC Card (poprzednio PCMCIA), CardBus, VL-Bus oraz PCI. Każdy komputer wyposażony w nowe bardzo szybkie magistrale szeregowe, takie jak PCI Express lub ExpressCard. również zalicza się do systemów klasy AT. Dysponując tego typu informacją, można poprawnie zaklasyfikować jako PC/XT lub AT dosłownie każdy system. Od wielu lat nie wyproduko­wano żadnego 8-bitowego komputera klasy PC/XT. Jeśli nie odwiedzisz jakiegoś muzeum komputerów, to niewielkie masz szanse na to. że spotkasz się z systemem innym niż AT.

Cecha systemu

8-bitowy system PC/XT

16-/32-/64-bitowy system AT

Obsługiwane procesory

Wszystkie z serii x86 lub x88

286 lub nowsze

Tryby pracy procesora

Rzeczywisty

Rzeczywisty/chroniony/wirtualny rzeczywisty

Obsługiwane oprogramowanie

Tylko 16-bitowe

16- lub 32-bitowe

Szerokość magistrali procesora

8-bitowa

16-/32-/64-bitowa

Typ gniazd

Tylko ISA

ISA, EISA. MCA, PC Card. CardBus, ExpressCard. VL-Bus, PCI, PCI Express, AGP

Ilość przerwań sprzętowych

8 (używanych 6)

16 (używanych 11)

Kanały DMA

4 (używane 3)

8 (używanych 7)

Maksymalna ilość pamięci RAM

1 MB

16 MB/4 GB lub więcej

Prędkość kontrolera stacji dyskietek

250 kB/s

250/300/500/1000 kB/s

Format dyskietki startowej

360 lub 720 kB

1,2/1,44/2,88 MB

Interfejs klawiatury

Jednokierunkowy

Dwukierunkowy

Pamięć/zegar układu CMOS

Brak standardu

Zgodne z MC 146818

Układ portu szeregowego UART

8250B

16450/16550A

Tabela 2.3. Różnice pomiędzy systemami PC/XT i AT

Komponenty komputera

Nowoczesny komputer PC jest jednocześnie i prosty, i złożony. Jego prostota wynika z faktu, że przez lata wiele komponentów stosowanych do budowy komputerów zostało ze sobą coraz bardziej zintegrowanych i w efekcie jest ich coraz mniej. Złożoność komputera wiąże się z tym, że w porównaniu z komponentami występującymi w starszych systemach każdy element wykorzystywany w nowoczesnych komputerach wy­konuje o wiele więcej funkcji.

W tym miejscu dokonamy pobieżnego przeglądu wszystkich komponentów i urządzeń peryferyjnych stoso­wanych w obecnie spotykanych systemach PC. Każdy z elementów zostanie szczegółowo omówiony w na­stępnych rozdziałach.

Komponent

Opis

Płyta główna

Płyta główna jest podstawą komputera. Tak naprawdę to ona jest komputerem PC. Wszystkie inne elementy są do niej podłączone. Płyta główna steruje wszystkimi elementami systemu. Płyty główne szczegółowo omówiono w rozdziale 4.

Procesor

Procesor często jest traktowany jako „serce" komputera. Określany jest również terminem CPU (ang. centralprocessing unit) —jednostka centralna. Procesory zostały dokładnie omówione w rozdziale 3., „Typy i parametry mikroprocesorów".

Pamięć (RAM)

Pamięć systemowa często jest określana terminem RAM (ang. random access memory — pamięć o dostępie swobodnym). Jest to pamięć podstawowa przechowująca wszystkie programy i dane przetwarzane w danej chwili przez procesor. Pamięć zostanie szczegółowo omówiona w rozdziale 6., „Pamięć".

Obudowa

Obudowa jest ramą lub konstrukcją, do której mocowane są: płyta główna, zasilacz, dyski twarde, karty rozszerzeń oraz inne komponenty wykorzystywane w komputerach. Obudowa szczegółowo została omówiona w rozdziale 21., „Zasilacze i obudowy".

Tabela 2.4. Podstawowe komponenty komputera

W tabeli 2.4 omówiono komponenty i urządzenia peryferyjne niezbędne do zbudowania podstawowego no­woczesnego komputera PC.

Tabela 2.4. Podstawowe komponenty komputera — ciąg dalszy

Komponent

Opis

Zasilacz

Zadaniem zasilacza jest doprowadzenie napięcia do każdego podzespołu komputera. Zasilacze zostały dokładnie omówione w rozdziale 21.

Stacja dyskietek

Stacja dyskietek jest prostym i niedrogim napędem dysków wymiennych o zapisie magnetycznym i niewielkiej pojemności. Zamiast stacji dyskietek w wielu nowszych komputerach są stosowane innego typu urządzenia obsługujące wymienne nośniki magnetyczne lub karty pamięci Flash oparte na interfejsie USB. Stacje dyskietek szczegółowo omówiono w rozdziale 11., „Napędy dyskietek". Z kolei innym napędom nośników wymiennych poświęcono rozdział 12., „Nośniki wymienne o dużej pojemności".

Dysk twardy

Dyski twarde są podstawowymi nośnikami danych stosowanymi w komputerach. Zostały one dokładnie omówione w rozdziale 10., „Dyski twarde".

Napęd CD lub DVD

CD (ang. compact disc — kompaktowy dysk) i DVD (ang. digital yersatile disc — uniwersalny dysk cyfrowy) są wymiennymi dyskami o zapisie optycznym charakteryzującymi się stosunkowo dużą pojemnością. W wielu nowszych komputerach znajdują się napędy dysków CD-RW (wielokrotnego zapisu) i DVD-ROM. Zostały one szczegółowo omówione w rozdziale 13., „Pamięci optyczne".

Klawiatura

Klawiatura jest podstawowym urządzeniem wykorzystywanym przez użytkownika do komunikacji z komputerem i do sterowania nim. Klawiatury zostały omówione w rozdziale 18., „Urządzenia wejściowe".

Mysz

Pomimo że obecnie na rynku dostępnych jest wiele różnych urządzeń wskazujących, to jednak najpopularniejszym z nich jest mysz. Mysz i inne urządzenia wskazujące zostały omówione w rozdziale 18.

Karta graficzna*

Karta graficzna steruje danymi wyświetlanymi na ekranie monitora. Karty te zostały szczegółowo opisane w rozdziale 15., „Karty graficzne".

Monitor

Omówienie monitorów znajduje się w rozdziale 15.

Karta dźwiękowa*

Karta dźwiękowa umożliwia generowanie przez komputer złożonych dźwięków. Karty dźwiękowe i głośniki zostały szczegółowo omówione w rozdziale 16., „Karty dźwiękowe".

Modem*

Większość fabrycznie wykonanych komputerów PC jest wyposażona w modem (zazwyczaj jego wersję wewnętrzną). Modemy oraz inne urządzenia realizujące połączenie z Internetem, a także sposoby wykonania takiego połączenia zostały omówione w rozdziale 19., „Podłączenie do internetu".

*Komponenty oznaczone gwiazdką w wielu nowszych komputerach (zwłaszcza tańszych) mogą być zintegrowane z płytą główną.

Rozdział 3.

Typy i parametry mikroprocesorów

Historia mikroprocesora

przed pojawieniem się komputerów osobistych

„Mózgiem" komputera jest procesor, czasami określany terminem mikroprocesor lub jednostka centralna (ang. central processing unit — CPU). Zadaniem procesora jest wykonywanie obliczeń i systemowych opera­cji przetwarzania. Procesor jest zwykle najdroższym pojedynczym komponentem w całym systemie (obecnie zdarza się, że w niektórych przypadkach ceny kart graficznych są jeszcze wyższe). W rozwiązaniach dla ser­werów cena procesora może być cztery lub nawet więcej razy wyższa niż płyty głównej, która z nim współ­pracuje. Ogólnie rzecz biorąc, firmie Intel jest przypisywane stworzenie w 1971 r. pierwszego mikroproceso­ra, który był układem o nazwie 4004. Aktualnie firma Intel w dalszym ciągu dominuje na rynku procesorów, przynajmniej w części rozwiązań dla komputerów osobistych. Oznacza to, że wszystkie komputery kompaty­bilne ze standardem IBM PC są wyposażone w procesor firmy Intel lub procesor z nim kompatybilny, wypro­dukowany przez jedną z wielu firm konkurencyjnych takich jak AMD lub VIA/Cyrix.

Dominacja Intela na rynku procesorów nie zawsze była oczywista. Pomimo to, że firma Intel jest zwykle uzna­wana za firmę, która jako pierwsza zaprojektowała i wprowadziła na rynek procesor, to jednak tak naprawdę pod koniec lat 70. dwa najbardziej popularne procesory przeznaczone dla komputerów osobistych wcale nie zostały wyprodukowane przez nią— chociaż jeden z nich był kopią procesora firmy Intel. Komputery oso­biste z tamtych czasów były przeważnie wyposażone w procesor Z-80 firmy Zilog i układ 6502 firmy MOS Technologies. Procesor Z-80 zwrócił na siebie uwagę, ponieważ był poszerzoną i tańszą kopią procesora Intel 8080 — podobnie jak ma to miejsce dzisiaj w przypadku produktów firm takich jak AMD, VIA/Cyrix, IDT i Rise Technologies, które wykonały kopie procesorów Intel Pentium. Jednak procesor Z-80, jako kopia, stał się bardziej popularny niż oryginał. Można się spierać, czy firma AMD w przeciągu całego zeszłego roku doprowadziła do podobnej sytuacji — nawet pomimo to, że osiągnęła znaczący wzrost sprzedaży, to jednak Intel nadal dominuje na rynku procesorów dla komputerów osobistych.

Byłem posiadaczem komputera wyposażonego w obydwa wyżej wymienione procesory taktowane zegarem o częstotliwości 1 MHz (tak, zgadza się, 1 jak jeden megaherc!). Był to komputer Apple II oparty na proceso­rze 6502 z włożoną do jednego z jego gniazd kartą Microsoft Softcard (z procesorem Z-80). Karta Softcard była wyposażona w procesor Z-80 taktowany zegarem o częstotliwości 2 MHz. Dzięki temu byłem w stanie uruchamiać programy na komputerze wyposażonym w dwa procesory! Procesor Z-80 był stosowany w kom­puterach końca lat 70-tych i początku lat 80-tych pracujących pod kontrolą systemu operacyjnego CP/M. na­tomiast układ 6502 zdobył uznanie jako procesor stosowany w pierwszych komputerach Apple I i II, będących prekursorami serii Macintosh.

Sytuacja firm Intel i Microsoft uległa znaczącej zmianie w roku 1981, gdy IBM wprowadził na rynek komputer IBM PC oparty na procesorze Intel 8088 taktowanym zegarem 4,77 MHz i pracującym pod kontrolą systemu Microsoft Disk Operating System (MS-DOS) w wersji 1.0. Od momentu podjęcia tej znamiennej w skutkach decyzji — zastosowania w pierwszym komputerze PC procesora firmy Intel — kolejne rozwiązania z nim kompatybilne były wyposażane w coraz to nowsze procesory Intela lub procesory z nim zgodne, z których każdy następny umożliwia! uruchamianie oprogramowania działającego na poprzedniku, począwszy od ukła­du 8088, a skończywszy na najnowszych procesorach Pentium 4/III/Celeron i Athlon/Athlon XP. W dalszej części rozdziału zostaną omówione różne typy procesorów, które były stosowane w komputerach osobistych od chwili jego wprowadzenia na rynek prawie dwie dekady temu. Zawarto tam mnóstwo technicznych szcze­gółów dotyczących każdego omówionego układu i wyjaśnienie, dlaczego jeden typ procesora jest w stanie (w określonym okresie czasu) wykonać większą ilość operacji niż inny.

Procesory produkowane po roku 1971

Godny uwagi jest fakt, że mikroprocesor istniał tylko 10 lat, zanim stworzono komputer osobisty. Intel zapro­jektował mikroprocesor w roku 1971. Komputer osobisty został opracowany przez firmę IBM w roku 1981. Obecnie — ponad 20 lat później — nadal są stosowane rozwiązania oparte na projekcie pierwszego kompute­ra osobistego. Procesory, w które wyposaża się komputery, nadal sana wiele sposobów kompatybilne z ukła­dem 8088 wybranym w 1981 r. przez firmę IBM na jednostkę centralną jej pierwszego komputera osobistego.

W dniu 15 listopada 2001 r. minęła 30 rocznica powstania mikroprocesora. W ciągu tych 30 lat prędkość pro­cesora zwiększyła się ponad 18 500 razy (z częstotliwości 0,108 MHz do 2 GHz). Historia powstania pierw­szego mikroprocesora Intel 4004 została opisana w rozdziale 1.. „Historia powstania komputera osobistego". Układ 4004 zosta! wprowadzony na rynek dnia 15 listopada 1971 r. i początkowo byl taktowany zegarem 108 kHz (108 000 cykli na sekundę lub, inaczej, ponad 1/10 megaherca). Procesor 4004 składał się z 2300 tranzy­storów i oparty był na technologii 10 mikronów. Oznacza to, że każda linia, ścieżka lub tranzystor mieściły się na obszarze 10 mikronów (milionowej części metra). Jednocześnie były przesyłane 4 bity danych, natomiast maksymalna obsługiwana objętość pamięci wynosiła 640 bajty. Procesor 4004 został zaprojektowany z myślą

0 kalkulatorach, ale dzięki swojej naturalnej elastyczności programowania potwierdził swoją przydatność w przypadku wielu innych zastosowań. Przykładowo, układ 4004 został wykorzystany w sterownikach ruchu ulicznego, analizatorach krwi, a nawet w sondzie kosmicznej Pioneer 10 zbudowanej przez NASA.

W kwietniu 1972 r. firma Intel wprowadziła do sprzedaży procesor 8008, który początkowo był taktowany ze­garem 200 kHz (0.2 MHz). Procesor ten składał się z 3500 tranzystorów i oparty był na tej samej technologii 10 mikronów, co w przypadku poprzednika. Znaczącą zmianą było zastosowanie w nowym procesorze 8-bi-towej magistrali danych, która umożliwiała przesyłanie jednocześnie 8 bitów danych, czyli dwukrotnie więcej niż poprzednio. Procesor 8008 mógł również współpracować z pamięcią o maksymalnej pojemności 16 kB. Układ ten głównie był wykorzystywany w prostych terminalach i kalkulatorach ogólnego zastosowania.

Następnym z kolei procesorem był układ 8080 wprowadzony na rynek w kwietniu 1974 r. i taktowany zegarem 2 MHz. Głównie wskutek wyższej częstotliwości pracy zegara, procesor 8080 cechowa! się 10-krotnie wyższą wydajnością w porównaniu z układem 8008. Procesor 8080 składał się z 6000 tranzystorów i oparty był na technologii 6 mikrometrów. Podobnie jak w przypadku poprzedniego układu, procesor 8080 był wyposażony w 8-bitową szynę danych, a zatem jednocześnie był w stanie przesyłać 8 bitów. Układ 8080. w porównaniu z jego poprzednikiem, był przystosowany do współpracy z pamięcią o znacznie większej pojemności (64 kB).

Procesor 8080 ze względu na fakt jego zastosowania w komputerze Altair 8800, powszechnie uznawanym za pierwszy komputer osobisty, był tym, który przyczynił się do rozpoczęcia rewolucji w branży komputerowej. W efekcie dla układu 8080 został stworzony system operacyjny CP/M, a nowo powstała firma Microsoft opracowała dla komputera Altair swój pierwszy produkt o nazwie Microsoft BASIC. Pojawienie się obu pro­duktów wpłynęło na rozpoczęcie rewolucji na rynku oprogramowania, która objawiła się w postaci tysięcy programów przeznaczonych dla platformy tworzonej przez system CP/M i Microsoft BASIC.

1 faktycznie, procesor 8080 cieszył się tak dużą popularnością, że w efekcie został skopiowany. Firma o na­zwie Zilog została założona pod koniec roku 1975 r. przez kilku byłych inżynierów firmy Intel pracujących nad projektem procesora 8080. W lipcu 1976 r. firma wprowadziła do sprzedaży procesor Z-80. który byl znacz­nie rozbudowaną wersją układu 8080. Procesor nie posiadał identycznej ilości końcówek, ale zamiast tego dysponował takimi funkcjami jak interfejs pamięci i obwody odświeżania pamięci RAM (ang. R.4M refresh circuitry), które pozwalały na tworzenie tańszych i prostszych systemów. Procesor Z-80 zawierał też specjal­ny zestaw instrukcji procesora 8080, przez co mógł wykonać każdy program dla niego napisany. Układ firmy Zilog obsługiwał nowe instrukcje i wewnętrzne rejestry, dlatego też oprogramowanie dla niego napisane nie­koniecznie musiało działać ze starszym procesorem 8080. Procesor Z-80 początkowo był taktowany zegarem 2,5 MHz (a później maksymalnie 10 MHz) i składał się z 8500 tranzystorów. Procesor ten mógł współpraco­wać z pamięcią o maksymalnej pojemności równej 64 kB.

Firma RadioShack zastosowała procesor Z-80 w swoim pierwszym komputerze TRS-80 Model 1. Układ firmy Zilog został również wykorzystany w wielu innych pionierskich systemach, włączając w to komputery firm Osborne i Kaypro. Inni producenci postąpili podobnie i wkrótce procesor Z-80 stał się standardem w przy­padku komputerów działających pod kontrolą systemu operacyjnego CP/M, dla którego istniało wiele popu­larnych aplikacji.

Firma Intel w marcu 1976 r. wprowadziła na rynek procesor 8085 będący następcą układu 8080. Chociaż po­jawił się kilka miesięcy wcześniej niż procesor Z-80, to jednak w przypadku komputerów osobistych nigdy nie zyskał podobnej popularności. Zdobył uznanie jako wbudowany kontroler i był stosowany w układach pomiarowych oraz innego rodzaju sprzęcie współpracującym z komputerem. Procesor 8085 był taktowany zegarem 5 MHz i składał się z 6500 tranzystorów. Oparty był na technologii 3 mikronów i był wyposażony w 8-bitową szynę danych.

Razem z produktami o różnej architekturze, firma MOS Technologies wprowadziła w 1976 roku na rynek układ 6502. Został on zaprojektowany przez kilku byłych inżynierów firmy Motorola, którzy uczestniczyli w tworzeniu pierwszego jej procesora o nazwie 6800. Podobnie jak w przypadku układu 8080, procesor 6502 był układem 8-bitowym, ale kosztował tylko około 25 dolarów, natomiast koszt procesora 8080 w chwili wprowadzenia do sprzedaży wynosił około 300 dolarów. Tak niska cena układu 6502 spowodowała, że Steve Wozniak zastosował go w swoich projektach komputerów Apple I i II. Procesor 6502 został również wykorzy­stany w produktach firmy Commodore i innych producentów komputerów. Układ 6502 i jego następcy byty wykorzystywane też w konsolach gier, z uwzględnieniem, między innymi, oryginalnej konsoli Nintendo En-tertainment System (NES). Firma Motorola rozpoczęta tworzenie procesorów z serii 68000, na których oparte były komputery Apple Macintosh. Aktualnie komputery firmy Apple wykorzystują procesory PowerPC będą­ce następcami serii 68000 produkowanej przez firmę Motorola.

Wszystkie z wymienionych procesorów wpłynęły na rozwój rynku procesorów dla komputerów PC. W czerw­cu 1978 r. firma Intel wprowadziła do sprzedaży procesor 8086. Był on wyposażony w oryginalny zestaw in­strukcji x86, który nadal jest obecny w najnowszych procesorach kompatybilnych z serią x86 takich jak Pentium 4 i AMD Athlon. W porównaniu ze swoimi poprzednikami procesor 8086 ulegt znacznej rozbudowie dzięki zastosowaniu w pełni 16-bitowej architektury, która objawiała się w postaci 16-bitowych wewnętrznych reje­strów i 16-bitowej magistrali danych. Oznaczało to, że za jego pomocą możliwe było wewnętrzne przetwarzanie 16-bitowych danych oraz jednoczesne przesyłanie 16 ich bitów do i na zewnątrz procesora. Układ 8086 składał się z 29 000 tranzystorów i początkowo był taktowany zegarem 5 MHz. Procesor posługiwał się 20-bitowym adresowaniem, dlatego też mógł bezpośrednio współpracować z pamięcią o maksymalnej pojemności 1 MB. Chociaż procesor 8086 nie był bezpośrednio kompatybilny z modelem 8080, to jednak stosowane przez oba układy instrukcje i język były do siebie bardzo podobne, co w efekcie umożliwiało szybkie przystosowywanie starszych programów do nowego procesora. Taka możliwość okazała się później pomocna w celu rozpoczę­cia rewolucji na rynku oprogramowania dla komputerów PC, która nastąpiła w momencie wprowadzenia do sprzedaży nowej wersji systemu operacyjnego CP/M dedykowanej dla procesora 8086.

Choć procesor 8086 był znakomitym produktem, jak na tamte czasy był dość drogi i, co ważniejsze, jego za­stosowanie wiązało się z użyciem równie kosztownych 16-bitowych płyt głównych. W celu obniżenia cen procesorów, w 1979 r. Intel wprowadził na rynek uproszczoną wersję modelu 8086 — procesor 8088. Proce­sor ten posiadał identyczny rdzeń co układ 8086 oraz 16-bitowe rejestry, a ponadto współpracował z pamięcią o maksymalnej pojemności 1 MB. Jednak jego zewnętrzna magistrala danych została zredukowana do 8-bitowej. Tym sposobem stało się możliwe wykorzystanie chipsetów stosowanych w przypadku starszego 8-bitowego procesora 8085. a zatem można było produkować znacznie tańsze płyty główne i komputery. Powyższe czynniki wpłynęły na to. że IBM zamiast procesora 8086 w swoim pierwszym komputerze PC zastosował układ 8088.

Decyzja firmy IBM była przełomowa z kilku powodów. Procesor 8088 pod względem oprogramowania byl w pełni kompatybilny z układem 8086, dlatego też mógł wykonywać programy 16-bitowe. Poza tym. ze wzglę­du na duże podobieństwo stosowanego zestawu instrukcji do instrukcji poprzednich układów 8085 i 8080. programy dla nich napisane w prosty i szybki sposób mogły być zmodyfikowane i uruchomione w systemach z procesorem 8088. Spowodowało to, że w krótkim czasie możliwe było stworzenie dużej biblioteki progra­mów przeznaczonych dla komputerów IBM PC, co miało spory wpływ na ich rozpowszechnienie. Ogromny sukces komputera IBM PC wpłynął na to, że od nowszych systemów wymagano utrzymywania z nim kom­patybilności. W celu utrzymania popularności swoich procesorów, od tej pory Intel naprawdę był zmuszony, w przypadku większości nowszych modeli, do utrzymywania kompatybilności z układami 8088/8086.

W tamtym czasie, pomimo wymaganej kompatybilności wstecz, nadal możliwe było opracowywanie nowych rozwiązań. Jedną z ważniejszych zmian dokonanych w procesorach było przejście z 16-bitowej wewnętrznej architektury procesora 286 i jego następców na architekturę 32-bitową zastosowaną w procesorze 386 i now­szych modelach, którą Intel określił skrótem IA-32 (ang. 32-bit Intel Architecture). Choć architektura 32-bitowa stworzona została przez firmę Intel w 1985 r.. dopiero 10 lat później pojawi! się częściowo 32-bitowy (Win­dows 95) i w pełni 32-bitowy (Windows NT) powszechnie stosowany system operacyjny, wymagający 32-bitowych sterowników. Kolejne sześć lat minęło, zanim pojawiło się całkowicie 32-bitowe środowisko systemu operacyjnego i sterowników (Windows XP). W sumie upłynęło 16 lat od chwili zaprezentowania 32-bitowej platformy sprzętowej, zanim za pomocą odpowiedniego oprogramowania w pełni i na skalę ma­sową wykorzystano jej możliwości. Jestem pewien, że Czytelnik doceni te 16 lat, które w przypadku techno­logii stanowią całą epokę.

W chwili obecnej oczekujemy na kolejny znaczący przełom technologiczny wynikający z wprowadzenia przez firmy Intel i AMD 64-bitowego rozszerzenia standardowej 32-bitowej architektury opracowanej przez Intela. Kilka lat wcześniej w swoich procesorach Itanium i Itanium 2 firma Intel zastosowała 64-bitową ar­chitekturę 1A-64 (Intel Architecture), ale była to technologia zupełnie nowa. nie będąca rozszerzeniem ist­niejącej 32-bitowej architektury. O architekturze IA-64 — objętej zakresem projektu realizowanego wspólnie przez firmy Intel i HP, a dotyczącego rozwoju procesora o nazwie kodowej Merced — po raz pierwszy poin­formowano w 1994 r. Pierwsze szczegóły techniczne udostępniono w październiku 1997 r. Efektem prac projektowych była architektura IA-64 i procesor Itanium, oficjalnie zaprezentowany w 2001 r.

Niestety architektura IA-64 nie jest rozszerzeniem architektury IA-32, lecz rozwiązaniem zupełnie nowym i odmiennym. Świetnie sprawdza się w przypadku serwerów, z myślą o których została stworzona. Jednak rynek komputerów PC zawsze bazował na zgodności wstecz. Chociaż emulowanie architektury IA-32 we­wnątrz architektury IA-64 jest możliwe, działa powolnie.

Z zaistniałej sytuacji skorzystała firma AMD, która opracowała 64-bitowe rozszerzenie architektury IA-32, nazywane AMD64 lub też x86-64. Obecnie Intel zaprezentował własną wersję 64-bitowego rozszerzenia

0 nazwie EM64T lub IA-32e. Okazuje się, że rozszerzenie firmy Intel jest prawie takie samo, jak rozszerzenie firmy AMD. Oznacza to, że na poziomie oprogramowania rozszerzenia powinny być ze sobą zgodne. Wydaje się. że po raz pierwszy przy projektowaniu architektury związanej z komputerami PC Intel właściwie wzoro­wał się na firmie AMD.

Oczywiście, aby to wszystko funkcjonowało, konieczne jest zastosowanie 64-bitowego systemu operacyjne­go i. co ważniejsze, 64-bitowych sterowników umożliwiających współpracę z takim systemem wszystkich posiadanych urządzeń. Przy rozważaniu przejścia z technologii 32-bitowej na 64-bitowej pod uwagę trzeba brać wszelkie kwestie dotyczące pojemności pamięci, oprogramowania i sterowników. Popularyzacja tech­nologii 64-bitowej na skalę masową może nie zajmie 16 lat, ale też nie nastąpi w ciągu jednej nocy.

Niewątpliwie komputery PC mają za sobą długą drogę. Oryginalny procesor 8088, zastosowany w pierwszym komputerze PC, zawierał 29 000 tranzystorów i pracował z częstotliwością 4,77 MHz. Procesory Athlon 64

1 64 FX firmy AMD dysponują 106 milionami tranzystorów. Układ Pentium 4 580 (rdzeń Prescott) działa z szybkością 4 GHz i posiada 125 milionów tranzystorów. Z kolei procesor Pentium 4 Extreme Edition — ze względu na zintegrowanie z jego rdzeniem pamięci podręcznej L3 — dysponuje jeszcze większą liczbą tranzystorów. W przyszłości należy oczekiwać dalszego wzrostu liczby tranzystorów i pojemności pamięci podręcznej.

Choć z technicznego punktu widzenia układ Itanium 2 (rdzeń Madison) firmy Intel nie jest procesorem dla zwykłych komputerów PC, na jego podstawie można zorientować się, w jakim kierunku zmierza rozwój układów dla typowych stacjonarnych systemów. Układ Itanium 2 zawiera zintegrowaną pamięć podręczną L3 o pojemności do 6 MB i niesamowitą liczbę tranzystorów, wynosząca 410 milionów i pomieszczoną na płyt­ce o powierzchni 374 mm2, wykonanej w technologii 0,13 mikrona. Jest to nowy rekord liczby tranzystorów, a także pojemności pamięci podręcznej zintegrowanej z rdzeniem. Trwają prace projektowe nad przyszłymi modelami procesorów zawierających miliard tranzystorów, a nawet więcej. Intel wprowadził na rynek proce­sory pracujące z częstotliwościami przekraczającymi 4 GHz, a firma AMD jest tuż za nim. Dalsza ewolucja nie zostanie przerwana, ponieważ zgodnie z prawem Moore'a regularnie po upływie okresu od 1,5 roku do 2 lat szybkość obliczeń i liczba tranzystorów wzrastają dwukrotnie.

Parametry procesorów

W czasie rozmów na temat procesorów często pojawia się wiele terminów technicznych. Poniżej dokonano omówienia niektórych z nich. z uwzględnieniem takich parametrów jak magistrala danych, magistrala adre­sowa i szybkość. W dalszej części podrozdziału zostały zamieszczone tabele zestawiające dane techniczne prawie wszystkich dostępnych procesorów przeznaczonych dla komputerów PC.

Procesory są identyfikowane według dwóch podstawowych parametrów: szybkości i typu magistrali. Szyb­kość procesora jest dość łatwym do zrozumienia parametrem. Jest ona wyrażana w megahercach (MHz) lub gigahercach (GHz), co oznacza odpowiednio milion lub miliard wykonywanych cykli na sekundę. Ogólnie mówiąc, im ta wartość jest wyższa, tym lepiej! Typ magistrali procesora jest pojęciem trochę trudniejszym do wyjaśnienia ze względu na fakt, że trzy podstawowe parametry procesora są określane za jego pomocą. Należą do nich:

Warto zauważyć, że magistrala danych procesora nazywana jest też magistralą FSB {front sicie bus), magi­stralą PSB (processor sicie bus) lub po prostu magistralą procesora. Wszystkie te terminy odnoszą się do ma­gistrali znajdującej się pomiędzy procesorem i podstawowym układem chipsetu (mostek północny lub układ ICH — Memory Controller Hub). Intel posługuje się terminami magistrala FSB i PSB, natomiast firma AMD tylko pierwszym z nich. Osobiście podczas rozmowy lub w trakcie prowadzonych przeze mnie szkoleń zwykle używam określenia „magistrala procesora". Wynika to stąd, że spośród wszystkich terminów jest ono naj­mniej mylące, a jednocześnie całkowicie precyzyjne.

Liczba bitów przydzielona procesorowi może być powodem nieporozumień. Wszystkie nowsze procesory dysponują 64-bitową magistralą danych. Jednak nie oznacza to, że należy je zaklasyfikować do układów 64-bitowych. Takie procesory, jak Pentium 4 i Athlon XP, są 32-bitowe, ponieważ ich wewnętrzne rejestry liczą 32 bity. Z kolei procesory te korzystają z 64-bitowej magistrali danych wejścia-wyjścia i 36-bitowej magistrali adresowej (obie magistrale są szersze od stosowanych w starszych procesorach Pentium i K.6). Układy z serii Itanium, a także procesory Opteron i Athlon 64 firmy AMD, są 64-bitowe, ponieważ ich we­wnętrzne rejestry używają 64 bitów.

Na początek zaprezentuję kilka tabel wyjaśniających różnice występujące pomiędzy procesorami stosowany­mi w komputerach osobistych. Następnie dokonam bardziej szczegółowego omówienia typów magistrali oraz innych parametrów. Przejrzenie zamieszczonych poniżej tabel zalecane jest dopiero po zapoznaniu się z omó­wieniem różnych parametrów procesora, ponieważ wtedy informacje w nich zawarte będą bardziej czytelne.

W tabelach od 3.1 do 3.4 wymieniono procesory firm Intel, AMD i innych producentów.

Tabela 3.1. Parametry procesorów firmy Intel

0x08 graphic
0x01 graphic

Procesor 386SL zawiera zintegrowany kontroler pamięci podręcznej, ale sama pamięć musi być umieszczona na zewnątrz procesora.

2 W późniejszym okresie firma Intel wprowadziła na rynek wersję SL Enhanced procesorów SX, DX i DX2. Były one dostępne w wersjach o napięciu zasilania 5 i 3,3 Vi posiadały możliwości zarządzania energią.

3 Pamięć podręczna drugiego poziomu L2 pracuje z pełną częstotliwością procesora, ale jest umieszczona w oddzielnym module.

0x08 graphic
0x08 graphic
4 Pamięć podręczna drugiego poziomu o pojemności użytecznej 128 kB (pojemność całkowita 256 kB, z tego polowa wyłączona) jest zintegrowana z procesorem Pentium IIIA.

5 Pamięć podręczna drugiego poziomu o pojemności użytecznej 256 kB (pojemność całkowita 512 kB, z tego polowa wyłączona) jest zintegrowana z procesorem Pentium IIIB.

6 Pamięć podręczna drugiego poziomu o pojemności użytecznej 128 kB (pojemność całkowita 256 kB, z tego połowa wyłączona) jest zintegrowana z procesorem Pentium 4.

Tabela 3.2. Parametry procesorów firmy AMD

0x08 graphic
0x08 graphic

Tabela 3.3. Parametry procesorów firm Intel i AMD przeznaczonych dla serwerów i stacji roboczych

0x08 graphic

0x08 graphic

0x08 graphic
0x01 graphic

0x08 graphic
0x01 graphic

Tabela 3.4. Parametry procesorów firm Cyrix, NexGen, IDT, Rise i VIA

0x08 graphic
0x01 graphic

0x08 graphic
0x01 graphic

Magistrala danych wejścia-wyjścia (I/0)

Prawdopodobnie najważniejszymi parametrami procesora są jego szybkość i szerokość zewnętrznej magistrali danych. Drugi parametr określa, w jakiej ilości dane są przesyłane do i na zewnątrz procesora.

Najczęściej omawianą magistralą procesora jest jego zewnętrzna magistrala danych, czyli zgrupowanie prze­wodów lub końcówek służących do wysyłania i odbierania danych. Im większa ilość jednocześnie wysłanych sygnałów, tym więcej danych może zostać przesłanych w określonym przedziale czasu, a zatem uzyskujemy szybszą i szerszą magistralę. Szyna o większej szerokości może być porównana z autostradą o większej ilości pasów powodujących zwiększenie jej przepustowości.

Dane w komputerze są przesyłane w postaci cyfrowej informacji składającej się z przedziałów czasu, w których przez pojedynczy przewód podawane jest napięcie o wartości 3,3 lub 5 V odpowiadające wartości binarnej I lub napięcie o wartości O V odpowiadające wartości binarnej 0. Im większą ilością przewodów dysponujemy, tym większą ilość pojedynczych bitów można wysiać w określonym przedziale czasu. Wszystkie nowoczesne procesory, począwszy od pierwszego procesora Pentium, a skończywszy na najnowszych modelach Pentium 4, Athlon XP, Athlon 64, a nawet Itanium i Itanium 2, posiadają 64-bitową (8-bajtową) magistralę danych. Wynika stąd. że są one w stanie przesyłać jednocześnie 64 bity danych do i na zewnątrz chipsetu płyty głównej lub pamięci systemowej.

0x08 graphic
0x08 graphic
Zalecana metoda zapamiętania powyższego opisu przepływu danych polega na wykorzystaniu analogii auto­strady i odbywającego się na niej ruchu. Jeśli autostrada dysponuje tylko jednym pasem dla każdego kierunku ruchu, wtedy jednocześnie tylko jeden pojazd może poruszać się w jednym z kierunków ruchu. Aby zwięk­szyć przepustowość autostrady, należy dobudować kolejny pas ruchu, wtedy w określonym przedziale czasu będzie mogła przejechać dwukrotnie większa ilość samochodów. O 8-bitowym układzie możesz pomyśleć jak o jednopasmowej autostradzie, ponieważ jednocześnie przechodzi przez niego 1 bajt danych (1 bajt odpowia­da 8 pojedynczym bitom). W przypadku układu 16-bitowego, który przesyła w danej chwili 2 bajty danych.

można użyć analogii autostrady dwupasmowej. Oczywiście w celu obsłużenia większej ilości pojazdów moż­na zbudować autostradę posiadającą dla każdego kierunku 4 pasy ruchu. Taka konstrukcja odpowiada 32-bito­wej magistrali danych, która pozwala na jednoczesne przesłanie 4 bajtów informacji. Kontynuując powyższe rozważania, 64-bitową szynę danych przesyłającą dane do i na zewnątrz procesora można porównać z auto­stradą 8-pasmową.

Kolejną informacją wynikającą ze znajomości parametrów magistrali danych procesora jest to, że jej szerokość określa również rozmiar banku pamięci operacyjnej. A zatem, procesor taki jak 486, posiadający 32-bitową ma­gistralę danych, jednocześnie wczytuje i zapisuje do pamięci 32 bity. Z kolei procesory posiadające 64-bitową magistralę danych (większość dostępnych obecnie modeli) w danej chwili wczytują i zapisują do pamięci 64 bity.

Ze względu na fakt, że standardowe 72-końcówkowe układy pamięci SIMM (ang. single inline memory mo­dule — pojedynczy moduł pamięci) są tylko 32-bitowe, w większości systemów klasy 486 konieczne jest zastosowanie tylko jednego modułu. Gdy układy takie zostaną umieszczone w komputerze klasy Pentium z 64-bitową magistralą danych, niezbędne będzie użycie jednocześnie dwóch modułów pamięci. Stosowany obecnie standardowy moduł DIMM (dual inline memory module) jest 64-bitowy. W związku z tym, jeśli komputer nie jest został zaprojektowany z myślą o pamięci 2-kanałowej. w danej chwili należy zainstalować jeden moduł pamięci. Pamięć 2-kanałowa jednocześnie odczytuje i zapisuje dwa banki, co oznacza, że muszą zostać zainstalowane dwa moduły DIMM. Aby zwiększyć wydajność pamięci, większość przyszłych chipsetów będzie obsługiwała moduły pamięci DIMM; będzie też wymagane instalowanie ich w jednakowych parach.

Moduły pamięci RIMM (Rambus inline memory module), stosowane w niektórych komputerach z proceso­rami Pentium III/4, są wśród pamięci pewną anomalią, ponieważ w ich przypadku obowiązują różne zasady. Zazwyczaj są to pamięci 16- lub 32-bitowe. W zależności od typu modułu pamięci i chipsetu mogą one być stosowane parami lub pojedynczo.

^ ^ Zajrzyj do punktu „Banki pamięci" znajdującego się na stronie 563.

Magistrala adresowa

Magistrala adresowa jest zestawem ścieżek przenoszących informacje na temat adresowania informacji wyko­rzystywanych do opisu adresów komórek pamięci, do lub z których dane są wysyłane lub odczytywane. Po­dobnie jak w przypadku magistrali danych każda ścieżka szyny adresowej przenosi pojedynczy bit informacji. Takiemu bitowi odpowiada pojedyncza cyfra adresu. Im większa ilość ścieżek (cyfr) zostanie zastosowana do określania adresów, tym większa ilość komórek adresów zostanie uzyskana. Rozmiar (lub szerokość) magi­strali adresowej określa maksymalną pojemność pamięci RAM, z którą może współpracować procesor.

Analogia autostrady zastosowana w punkcie „Magistrala danych wejścia-wyjścia (I/O)" może być tutaj użyta w celu pokazania podobieństw pomiędzy magistralą adresową a magistralą danych I/O. Jeśli szyna danych jest autostradą, a jej szerokość jest równa liczbie pasów ruchu, wtedy magistrala adresowa odpowiada numerom domów lub lokalizacji ulic. Szerokość magistrali adresowej odpowiada liczbie cyfr zawartych w numerze do­mu. Jeśli, na przykład, mieszkasz przy ulicy, której numeracja jest ograniczona do dziesiętnych liczb dwucy­frowych, można wtedy określić nie więcej niż 100 różnych adresów (00 - 99), które mogą być przypisane do tej ulicy (102). Po dodaniu jednej cyfry, ilość dostępnych adresów zwiększy się do 1000(000-999) lub 103.

Komputery posługują się dwójkowym systemem liczbowym (o podstawie liczby 2), dlatego też liczby dwu­cyfrowe pozwalają na określenie tylko 4 unikalnych adresów (00. 01, 10. 11) wyliczonych z zależności 2L. Liczba trzycyfrowa daje tylko 8 możliwości określenia adresu (000 - 111), co wynika z zależności 23. Przy­kładowo, procesory 8086 i 8088 posiadają 20-bitową magistralę adresową, która umożliwia wyznaczenie ilo­ści adresów odpowiadającej zależności 220 lub, inaczej, 1 048 576 bajtów (1 MB). W tabeli 3.5 pokazano moż­liwości procesorów związane z adresowaniem pamięci.

Tabela 3.5. Możliwości procesorów związane z adresowaniem pamięci

Rodzina procesorów

Magistrala adresowa

Bajtów

Kilobajtów (kB)

Megabajtów (MB)

Gigabajtów (GB)

Terabajtów (TB)

8088. 8086

20-bitowa

1 048 576

1 024

1

286, 386SX

24-bitowa

16 777 216

16 384

16

386DX, 486. Pentium

32-bitowa

4 294 967 296

4 194 304

4 096

4

K6, Duron. Athlon, Athlon XP

32-bitowa

4 294 967 296

4 194 304

4 096

4

_

Celeron, Pentium Pro. Pentium 11, Pentium III, Pentium 4

36-bitowa

68 719 476 736

67 108 864

65 536

64

Athlon 64, Athlon 64 FX, Opteron

40-bitowa

1 099 511 627 776

1 073 741 824

1 048 576

1024

1

Itanium, Itanium 2

44-bilowa

17 592 186 044 416

17 179 869 184

16 777 216

16 384

16

Uwaga: Terminy takie, jak kilobajty (kB), megabajty (MB) i terabajty (TB), są tu i w całej książce używane zgodnie

z konwecją. Jednak z technicznego punktu widzenia w przyszłości powinny zostać zastąpione przez kilobinarybajty (KiB),

gigabinarybajty (GiB) i terabinarybajly (TiB). Więcej informacji można znaleźć pod adresem http://www.iec.ch/zone/si/si_bytes.htm.

Magistrale danych i adresowa są wzajemnie niezależne, natomiast projektanci procesorów mają swobodę przy ustalaniu ich szerokości. Jednak zazwyczaj procesory wyposażone w szynę danych o większej szeroko­ści mają również taką magistralę adresową. Szerokości obu magistral mogą być źródłem ważnych informacji dotyczących relatywnej wydajności procesora, która może być określona na dwa sposoby. Szerokość magistrali danych jest wskaźnikiem możliwości procesora związanych z przesyłaniem danych, natomiast szerokość ma­gistrali adresowej informuje, z pamięcią o jakiej pojemności procesor może współpracować.

Rejestry wewnętrzne (wewnętrzna magistrala danych)

Szerokość rejestrów wewnętrznych informuje, jaka ilość danych może być jednocześnie przetworzona przez procesor oraz w jaki sposób dane są w nim wewnętrznie przekazywane. Czasem w stosunku do rejestrów we­wnętrznych używa się terminu wewnętrzna magistrala danych (ang. internal data bus). Rejestr jest komórką umieszczoną wewnątrz procesora służącą do przechowywania danych. Przykładowo, po dodaniu liczb znaj­dujących się w dwóch różnych rejestrach procesor może zapisać wynik operacji w trzecim. Rozmiar rejestru określa ilość danych, które mogą być przetworzone przez procesor. Na podstawie rozmiaru rejestru można również określić typ programów lub instrukcji wykonywanych przez procesor. Oznacza to, że procesor wy­posażony w 32-bitowe wewnętrzne rejestry może wykonać 32-bitowe instrukcje przetwarzające 32-bitowe porcje danych, ale procesory z 16-bitowymi rejestrami już nie. Najbardziej zaawansowane modele procesorów obecnie dostępnych, począwszy od 386, a skończywszy na Pentium 4 wykorzystują 32-bitowe rejestry we­wnętrzne, a zatem można na nich uruchamiać te same 32-bitowe systemy operacyjne i aplikacje. Procesory Itanium i Athlon 64 posiadają 64-bitowe rejestry wewnętrzne, które w celu ich pełnego wykorzystania wy­magają stworzenia nowych wersji systemów operacyjnych i aplikacji.

Niektóre bardzo wiekowe procesory są wyposażone w wewnętrzną magistralę danych (złożoną z linii danych i jednostek przechowujących dane nazywanych rejestrami), która jest szersza od jej zewnętrznego odpowied­nika. Przykładem są procesory 8088 i 386SX. w których szerokość wewnętrznej magistrali danych jest dwu­krotnie większa od szerokości magistrali zewnętrznej. Tego typu rozwiązania czasami zwane też hybrydowymi zwykle składają się na tańszą wersję procesora standardowego. Na przykład procesor 386SX do wewnętrz­nego przesyłania danych wykorzystuje pełną szerokość 32-bitowego rejestru, natomiast w przypadku komu­nikacji ze światem zewnętrznym jest ograniczony do stosowania 16-bitowej szyny danych. Takie rozwiązanie pozwala inżynierom systemowym tworzyć niedrogie płyty główne wykorzystujące 16-bitową magistralę oraz w dalszym ciągu wprowadzać zestaw aplikacji i instrukcji w pełni kompatybilnych z 32-bitowym procesorem 386. Jednak zarówno procesor 8088. jak i 386SX, pracujące z identyczną częstotliwością, oferowały niższą wy­dajność niż procesory 8086 i 386DX.

Często się zdarza, że szerokość wewnętrznych rejestrów jest większa niż magistrali danych, co oznacza, że zanim rejestr będzie w pełni sprawny, procesor do jego wypełnienia potrzebuje dwóch cykli. Przykładowo, zarówno procesor 386SX, jak i 386DX są wyposażone w 32-bitowe rejestry wewnętrzne, ale do ich wypełnie­nia procesor 386SX potrzebuje, mówiąc w przenośni, dwóch „oddechów", natomiast 386DX realizuje to za­danie już tylko po jednym. Taka sama sytuacja wystąpi również w przypadku przesyłania danych z rejestrów do magistrali systemowej.

Procesor Pentium jest przykładem tego typu rozwiązania. Wszystkie procesory z serii Pentium posiadają 64-bitową magistralę danych i 32-bitowe rejestry czyli mają budowę, która na pierwszy rzut oka może się wydać dziwna, ale tylko do momentu uświadomienia sobie, że procesor Pentium jest wyposażony w dwa 32-bitowe wewnętrzne potoki służące do przetwarzania informacji. Procesor Pentium (i to na wiele sposobów) jest jak dwa 32-bitowe układy zawarte w jednym. 64-bitowa magistrala danych jest stosowana do bardzo wydajnego wypełniania wielu rejestrów. Wiele potoków określa się terminem architektury superskalarnej (ang. superscalar) po raz pierwszy zastosowanej w procesorze Pentium.

► ► Zajrzyj do punktu „Procesory Pentium" znajdującego się na stronie 171.

Bardziej zaawansowane procesory szóstej i siódmej generacji firmy Intel i AMD dysponują sześcioma poto­kami wykonującymi instrukcje. Chociaż niektóre z wewnętrznych potoków są przeznaczone do realizowania specjalnych funkcji, to jednak wyposażone w nie procesory są w stanie wykonać do trzech instrukcji w ciągu jednego cyklu zegara.

Tryby pracy procesora

Wszystkie 32-bitowe procesory (386 i nowsze) Intela i z nim zgodne mogą pracować w kilku trybach. Tryby pracy procesora odnoszą się do różnych środowisk roboczych i mają wpływ na możliwości i instrukcje przez niego wykonywane. Tryb pracy procesora decyduje, w jaki sposób zarządza on pamięcią systemową i zada­niami do wykonania.

Można wyróżnić następujące trzy podstawowe tryby pracy z kilkoma dodatkowymi. Oto one:

♦ 64-bitowy rozszerzony tryb IA-32e (nazywany też AMD64. x86-64 lub EM64T),

W tabeli 3.6 zawarto zestawienie trybów procesorów.

Tabela 3.6. Tryby procesorów

0x08 graphic
0x01 graphic

Tryb rzeczywisty

Tryb rzeczywisty czasami nazywany jest trybem 8086, ponieważ wywodzi się z procesorów 8086 i 8088. Oryginalny komputer IBM PC wyposażony był w procesor 8088, który przy użyciu 16-bitowych rejestrów wewnętrznych potrafił wykonywać instrukcje 16-bitowe oraz za pośrednictwem 20 ścieżek adresowych współpracować z pamięcią o pojemności maksymalnej 1 MB. Oprogramowanie, w które byl wyposażony oryginalny IBM PC, zostało stworzone z myślą o współpracy z procesorem 8088, dlatego też wykorzysty­wało zestaw instrukcji 16-bitowych i 1-megabajtowy model pamięci. Przykładowo, system DOS i wszystkie programy dla niego przeznaczone oraz system Windows w wersjach l.x - 3.x wraz z aplikacjami zostały na­pisane przy wykorzystaniu instrukcji 16-bitowych. 16-bitowe systemy operacyjne i aplikacje zostały stwo­rzone dla oryginalnego procesora 8088.

Następne procesory, takie jak 286, nadal mogły wykonywać te same 16-bitowe instrukcje co procesor 8088. ale już znacznie szybciej. Inaczej mówiąc, procesor 286 byl w pełni z nim kompatybilny, dlatego też można było na nim uruchamiać wszystkie programy 16-bitowe co w przypadku procesora 8088, ale oczywiście dzia­łały one o wiele szybciej. Tryb wykonywania przez procesory 8088 i 286 instrukcji 16-bitowych został okre­ślony terminem trybu rzeczywistego (ang. real mode). Wszystkie programy pracujące w trybie rzeczywistym mogą korzystać tylko z instrukcji 16-bitowych i współpracować z 20-bitową architekturą pamięci (I MB). Tego typu oprogramowanie z reguły jest jednozadaniowe, co oznacza, że jednocześnie może być uruchomio­ny tylko jeden program. Ponadto nie ma wbudowanej żadnego ochrony zapobiegającej wykorzystaniu przez program obszaru pamięci już przydzielonego innemu programowi lub systemowi operacyjnemu. Jeśli zatem uruchomiono więcej niż jeden program, dowolny z nich może spowodować zawieszenie całego systemu.

Tryb chroniony (32-bitowy)

Pierwszym procesorem 32-bitowym przeznaczonym dla komputerów PC i wprowadzonym do sprzedaży był układ 386. Procesor ten mógł wykonywać zupełnie nowy zestaw instrukcji 32-bitowych. Aby w pełni wyko­rzystać taką możliwość, konieczne było stworzenie odpowiedniego 32-bitowego systemu operacyjnego i apli­kacji. Nowy. 32-bitowy tryb pracy procesora został określony terminem trybu chronionego (ang. prolected mode). Nazwa wywodzi się stąd, że programy działające w tym trybie otrzymują własny obszar pamięci, przez co nie dochodzi między nimi do konfliktów. Tego typu ochrona sprawia, że system jest o wiele bardziej sta­bilny, ponieważ programy zawierające błąd nie mogą w prosty sposób zaszkodzić innym programom lub systemowi operacyjnemu. Poza tym program, który się zawiesił, może być usunięty z pamięci bez szkody dla reszty systemu.

Wiedząc, że stworzenie nowych systemów operacyjnych i aplikacji wykorzystujących zalety 32-bitowego trybu chronionego może zająć trochę czasu, firma Intel na wszelki wypadek wbudowała do układu 386 kom­patybilność wstecz z trybem rzeczywistym. Pozwoliło to, bez potrzeby wykonywania żadnych modyfikacji, na uruchamianie 16-bitowych systemów operacyjnych i aplikacji. Działały one zupełnie przyzwoicie i o wiele szybciej niż w przypadku poprzedniego procesora. Dla większości osób było to w zupełności wystarczające. Opracowanie nowego oprogramowania opartego na architekturze 32-bitowej nie było dla nich konieczne — właściwie wystarczyło, aby istniejące aplikacje 16-bitowe działały znacznie szybciej. Niestety, oznaczało to, że procesor nigdy nie wykorzysta 32-bitowego trybu chronionego, a tym samym wszystkie związane z tym możliwości zostaną utracone.

W sytuacji, gdy tak wydajny procesor jak Pentium 4 pracuje pod kontrolą systemu DOS (w trybie rzeczywi­stym), upodabnia się on do procesora 8088 w wersji Turbo. Słowo „Turbo" oznacza, że jest lepszy od zwy­kłego procesora 8088 w tym, że każdy program 16-bitowy działa szybciej, ale poza tym wykorzystuje tylko 16-bitowe instrukcje i ma dostęp do tego samego obszaru pamięci o pojemności 1 MB, co oryginalny układ 8088. Wniosek z tego jest taki. że jeśli jesteś posiadaczem systemu zawierającego procesor Pentium 4 lub Athlon oraz 256 MB pamięci, a pracującego pod kontrolą systemu Windows 3.1 lub DOS, wtedy w rzeczy­wistości jest wykorzystywany tylko pierwszy megabajt pamięci, a pozostałe 255 MB jest nieużywane!

Pojawiło się zatem zapotrzebowanie na nowe systemy operacyjne i aplikacje działające w 32-bitowym trybie chronionym oferowanym przez nowoczesne procesory. Użytkownicy komputerów — z natury uparci — opie­rali się początkowym próbom przejścia na 32-bitowe środowisko pracy. Można odnieść wrażenie, że spo­łeczność użytkowników nie jest skłonna do zmian i woli nadal wykorzystywać starsze oprogramowanie, ale działające szybciej z nowym procesorem, niż nowe aplikacje oferujące dodatkowe możliwości. Będę może pierwszą osobą, która przyznaje się.do identyfikowania się z tego typu użytkownikami!

Wskutek tak dużego sprzeciwu musiało upłynąć sporo czasu, zanim prawdziwe 32-bitowe systemy operacyj­ne takie jak Unix lub jego odmiany (Linux), OS/2 lub nawet Windows NT/2000 czy XP zyskały na rynku komputerów osobistych większą popularność. Windows XP jest pierwszym w pełni 32-bitowym systemem operacyjnym, który odniósł prawdziwy sukces i było to spowodowane głównie faktem zakończenia tworzenia przez Microsoft systemów z serii Windows 95/98/Me, które są mieszanką architektur 16- i 32-bitowej. Win­dows 3.x był ostatnim wyłącznie 16-bitowym systemem operacyjnym. Tak naprawdę nigdy nie był uważany za prawdziwy system operacyjny, ponieważ stanowił nakładkę dla systemu DOS.

Procesory z rodziny Itanium i układ Opteron firmy AMD przeznaczone dla serwerów oferują architekturę 64-bitową. W przypadku zwykłych komputerów PC podobną możliwość stwarza układ Athlon 64 firmy AMD. Wymienione procesory pozwalają uruchomić istniejące aplikacje 32-bitowe. Aby jednak w pełni wy­korzystać ich możliwości, konieczne jest zastosowanie 64-bitowego systemu operacyjnego i aplikacji. Firma Microsoft opracowała 64-bitową wersję systemu Windows XP, natomiast kilka innych producentów stwo­rzyło 64-bitowe aplikacje sieciowe przeznaczone dla stacji roboczych.

Procesory z serii Itanium Intela i układy Athlon 64/Opteron firmy AMD oparte są na odmiennej 64-bitowej architekturze. A zatem 64-bitowe oprogramowanie napisane dla układów Intela bez re-kompilacji dokonanej przez producenta nie będzie działało z procesorami firmy AMD. Oznacza to, że aplikacje stworzone z myślą o 64-bitowej architekturze Intela nie są zgodne z 64-bitowymi pro­cesorami firmy AMD i odwrotnie.

Wirtualny tryb rzeczywisty IA-32

Kluczem do zgodności wstecz 32-bitowego środowiska Windows jest trzeci tryb pracy procesora — wirtual­ny tryb rzeczywisty. Wirtualny tryb rzeczywisty (ang. virtual real mode) właściwie jest trybem wirtualnym środowiska 16-bitowego działającego w 32-bitowym trybie chronionym. Po uruchomieniu w systemie Windows sesji DOS jest wykorzystywany wirtualny tryb rzeczywisty. Dzięki wielozadaniowości oferowanej przez tryb chroniony właściwie możliwe jest uruchomienie kilku sesji w trybie rzeczywistym, w których działają pro­gramy na zasadzie pracy w wirtualnych komputerach. Programy te mogą działać jednocześnie, nawet gdy są uruchomione aplikacje 32-bitowe.

Należy zauważyć, że dowolny program działający w wirtualnym trybie rzeczywistym ma dostęp tylko do 1 MB pamięci, co spowoduje, że będzie „przekonany o tym", że jest to pierwszy i jedyny megabajt pa­mięci dostępnej w systemie. Inaczej mówiąc, jeśli aplikacja napisana dla systemu DOS zostanie uruchomiona w wirtualnym trybie rzeczywistym, będzie miała do dyspozycji tylko 640 kB. Takie ograniczenia wynika stąd, że w przypadku 16-bitowego środowiska pracy jest dostępny tylko 1 MB pamięci RAM. z czego 384 kB jest zarezerwowane dla samego systemu. Wirtualny tryb rzeczywisty w pełni emuluje środowisko pracy pro­cesora 8088, dlatego też aplikacje działają tak, jakby były uruchomione w komputerze oferującym tylko fak­tyczny tryb rzeczywisty. Każda wirtualna maszyna korzysta z własnej 1-megabajtowej przestrzeni adresowej, w której znajduje się obraz rzeczywistych funkcji systemu BIOS odwołujących,się do urządzeń i emuiuje wszystkie pozostałe rejestry oraz funkcje występujące w trybie rzeczywistym.

Wirtualny tryb rzeczywisty jest wykorzystywany w momencie uruchomienia, w oknie sesji DOS. 16-bitowego programu stworzonego dla systemu DOS lub Windows 3.x. Po uruchomieniu takiego programu system Windows tworzy wirtualną maszynę DOS, która przejmuje jego obsługę.

Zasługujący na uwagę jest fakt, że wszystkie procesory firmy Intel i z nimi kompatybilne takich firm jak AMD i Cyrix, działając w trybie rzeczywistym, zwiększają swoją wydajność. Po załadowaniu 32-bitowego systemu operacyjnego następuje automatyczne przełączenie pracy procesora w tryb 32-bitowy, który od tej pory przej­muje kontrolę.

Należy również zwrócić uwagę na istotną rzecz, a mianowicie na to, że niektóre aplikacje 16-bitowe (dla sys­temu DOS i Windows 3.x), działając w środowisku 32-bitowym, nie zachowują się prawidłowo, co oznacza, że wykonują one operacje, które nie są obsługiwane nawet w wirtualnym trybie rzeczywistym. Oprogramowa­nie diagnostyczne jest znakomitym tego przykładem. Tego typu programy nie sprawują się za dobrze działając w oknie sesji wirtualnej uruchomionej w systemie Windows. W takich sytuacjach rozwiązaniem jest przełą­czenie procesora Pentium III w faktyczny tryb rzeczywisty — poprzez załadowanie systemu DOS z dyskietki startującej lub. w przypadku systemu Windows 9x (z wyjątkiem Me), poprzez przerwanie procesu jego łado­wania i nakazanie uruchomienia zwykłej platformy DOS. W przypadku systemu Windows 9x operacja ta jest realizowana za pomocą klawisza F8, który należy wcisnąć w momencie wyświetlenia na ekranie komunikatu Uruchamianie systemu Windows.. . lub natychmiast po usłyszeniu dźwięku generowanego po zakończeniu wy­konywania procedury testującej komputer POST (ang. power on self test).

W drugim wariancie najlepiej wcisnąć klawisz F8 kilka razy ze względu na fakt, że idealne wyczucie właści­wego momentu jest bardzo trudne, a poza tym system Windows 9x oczekuje na jego wciśnięcie tylko przez krótki okres czasu wynoszący 2 sekundy.

Jeśli operacja się uda, na ekranie pojawi się menu startowe. Można w nim wybrać jedną z pozycji, która spo­woduje załadowanie zwykłego 16-bitowego systemu DOS pracującego w trybie rzeczywistym. Jeśli zamie­rzasz wykonać procedurę testującą urządzenia, najbardziej zalecana jest pozycja menu o nazwie Tylko wiersz poleceń trybu awaryjnego, która nie powoduje przejścia do trybu chronionego, natomiast uruchamia system z minimalną ilością wymaganych sterowników urządzeń i aplikacji.

Choć system Windows Me oparty jest na swoim poprzedniku, Windows 98, firma Microsoft — celem dalszego odzwyczajania użytkowników od stosowania programów 16-bitowych — usunęła z niego menu startowe. Systemy Windows NT/2000 i XP również są pozbawione możliwości przerwania w taki sposób procesu ich ładowania. W przypadku tych systemów operacyjnych konieczne jest skorzystanie z dyskietki startowej lub dysku CD, którą można utworzyć i stosować do załadowania systemu w trybie rzeczywistym. Sięgnięcie po nią zwykle będzie konieczne w przypadku wykonywania określonych procedur serwisowych takich jak dia­gnozowanie urządzeń lub dokonywanie bezpośredniej modyfikacji sektorów dysku.

Chociaż tryb rzeczywisty jest używany przez 16-bitowy system operacyjny DOS i zwykłe aplikacje, istnieją programy, które „poszerzają" system DOS i udostępniają pamięć rozszerzoną (powyżej 1 MB). Czasem są one określane terminem ekspandera systemu DOS (ang. DOS extenders) i zazwyczaj stanowią część progra­mów przeznaczonych dla systemu DOS lub Windows 3.x. Protokół opisujący proces przełączania systemu DOS w tryb chroniony nosi nazwę DPMI (ang. DOSprotected mode interface).

Protokół DPMI był wykorzystywany przez system Windows 3.x w celu uzyskania przez działające pod jego kontrolą aplikacje dostępu do pamięci rozszerzonej. DPMI umożliwiało 16-bitowym programom korzystanie z większej ilości pamięci niż pozwalała im na to ich architektura. Programy rozszerzające DOS były szczególnie popularne w przypadku gier napisanych dla systemu DOS. ponieważ za ich pomocą możliwy byl dostęp do znacznie większej ilości pamięci systemowej niż standardowy 1 MB, z którym mogła współpracować więk­szość aplikacji trybu rzeczywistego. Zasada ich działania polega na ciągłym włączaniu i wyłączaniu trybu rzeczywistego procesora. W przypadku programów rozszerzających DOS uruchomionych pod kontrolą systemu Windows jest przez nie wykorzystywany wbudowany protokół DPMI pozwalający im ma współdzie­lenie obszaru systemowej pamięci rozszerzonej.

Kolejnym wyjątkiem dotyczącym trybu rzeczywistego jest obszar 64 kB pamięci rozszerzonej, który właści­wie jest dostępny dla komputera uruchomionego w tym trybie, chociaż tak nie powinno być. Sytuacja ta jest wynikiem błędu popełnionego w oryginalnym komputerze IBM AT, a dotyczącym 21. ścieżki adresowej pa­mięci znanej jako .420 (pierwszą linią adresową jest AO). Po zmodyfikowaniu tej ścieżki programy działające w trybie rzeczywistym uzyskiwały dostęp do pierwszych 64 kB pamięci rozszerzonej, czyli już za granicą 1 MB. Taki obszar pamięci określany jest terminem pamięci wysokiej (ang. High memory area — HMA).

64-bitowy tryb rozszerzony IA-32e (AMD64, x86-64, EM64T)

64-bitowy tryb rozszerzony jest rozwinięciem architektury IA-32. Oryginalnie zaprojektowany został przez firmę AMD. a później zaadaptowany przez Intela. Procesory oparte na tej technologii mogą działać w trybie rzeczywistym (8086), trybie IA-32 lub trybie lA-32e. Tryb IA-32 pozwala procesorom działać w trybie chro­nionym i wirtualnym trybie rzeczywistym. Z kolei tryb IA-32e umożliwia procesorowi pracę w trybie 64-bitowym i trybie zgodności. Oznacza to. że jednocześnie można uruchamiać zarówno aplikacje 32-. jak i 64-bitowe. Tryb lA-32e zawiera dwa następujące podtryby:

64-bitowy tryb IA-32e uaktywniany jest po załadowaniu 64-bitowego systemu operacyjnego i wykorzysty­wany przez aplikacje 64-bitowe. 64-bitowy podtryb oferuje następujące nowe funkcje:

Tryb zgodności IA-32e umożliwia uruchamianie w 64-bitowym systemie operacyjnym aplikacji 16- i 32-bitowych. Niestety starsze 16-bitowe programy działające w wirtualnym trybie rzeczywistym (aplikacje systemu DOS) nie są obsługiwane i nie będzie można z nich korzystać. Prawdopodobnie dla wielu użytkowników jest to największy problem. Podobnie do trybu 64-bitowego, tryb zgodności uaktywniany jest przez system opera­cyjny dla poszczególnych partii kodu. Oznacza to, że 64-bitowe aplikacje działające w trybie 64-bitowym mogą jednocześnie być używane z programami 32-bitowymi uruchomionymi w trybie zgodności.

Aby to wszystko było możliwe, wymagany jest 64-bitowy system operacyjny i, co ważniejsze, zgodne z nim 64-bitowe sterowniki obsługujące posiadane urządzenia. Dostępne są już następujące dwie wersje 64-bitowego systemu operacyjnego:

Pierwszy z wymienionych systemów stworzono z myślą o procesorach IA-64, takich jak Itanium i Itanium 2. Jego ostateczna wersja pojawiła się w 2001 r. Drugi z systemów obsługuje procesory IA-32 z 64-bitowym roz­szerzeniem, takie jak Athlon 64, Opteron i mające pojawić się w przyszłości układy Xeon i Pentium z 64-bitowym rozszerzeniem. Wersja produkcyjna systemu pojawiła się w drugiej połowie 2004 r.

W tabeli 3.7 wymieniono różnice występujące pomiędzy 32- i 64-bitowymi wersjami systemu Windows XP.

Tabela 3.7. Porównanie 32- i 64-bitowej wersji systemu Windows XP

Przestrzeń adresowa

Pojemność pamięci obsługiwana przez 32-bitową wersję Windows XP

Pojemność pamięci obsługiwana przez 64-bitową wersję Windows XP

Pamięć fizyczna

4 GB

32 TB

Pamięć wirtualna

4 GB

16 TB

Plik wymiany

16 TB

512 TB

Pula stronicowana

470 MB

128 GB

Pula niestronicowana

256 MB

128 GB

Systemowa pamięć podręczna

1 GB

1 TB

Główna różnica pomiędzy 32- i 64-bitową wersją systemu Windows XP związana jest z obsługą pamięci. W przy­padku 64-bitowej wersji została przekroczona granica 4 GB, obowiązująca w 32-bitowej wersji systemu. 32-bitowa wersja systemu Windows XP obsługuje maksymalnie 4 GB fizycznej lub wirtualnej pamięci, a danemu pro­cesowi jest w stanie przydzielić do 2 GB pamięci. Z kolei 64-bitowa wersja systemu obsługuje maksymalnie 32 GB fizycznej pamięci i 16 TB wirtualnej. Obsługa pamięci o większej pojemności oznacza, że aplikacje mogą od razu umieścić w fizycznej lub wirtualnej pamięci więcej danych, do których procesor jest w stanie znacznie szybciej uzyskać dostęp. Jeśli potrzebujesz pamięci RAM o pojemności przekraczającej 4 GB, ko­nieczne będzie zastosowanie 64-bitowej platformy sprzętowej z 64-bitowym systemem Windows.

64-bitowy system Windows XP bez problemów obsługuje 32-bitowe aplikacje Windows, ale nie pozwala już uruchomić programów systemu DOS lub innych działających w wirtualnym trybie rzeczywistym. Kolejnym sporym problemem są sterowniki. 32-bitowe procesy nie są w stanie załadować 64-bitowych bibliotek DLL (dynamie link libraries), a 64-bitowe procesy — 32-bitowych bibliotek DLL. Zasadniczo oznacza to, że aby można było korzystać ze wszystkich urządzeń komputera, konieczne jest zastosowanie zarówno 32-, jak i 64-bitowych sterowników. Zdobycie 64-bitowych sterowników dla starszych lub już nieobsługiwanych urządzeń może być trudne lub niemożliwe. Nawet w przypadku nowych urządzeń może upłynąć kilka lat, za­nim producenci standardowo będą wyposażać je w 64-bitowe sterowniki.

Przy rozważaniu przejścia z platformy 32-bitowej na 64-bitową pod uwagę należy wziąć wszystkie kwestie dotyczące pojemności pamięci, oprogramowania i sterowników. Zanim 32-bitowa platforma sprzętowa zaczęła być masowo wykorzystywana do przetwarzania danych, upłynęło 16 lat. Jak już wspomniałem, w przypadku platformy 64-bitowej może to nie trwać tyle czasu, ale najprawdopodobniej zajmie co najmniej kilka lat.

Szybkość procesorów

Określanie w różny sposób szybkości procesorów jest przyczyną częstych nieporozumień. W tej części roz­działu zostanie omówione zagadnienie szybkości procesorów, a następnie przedstawimy bardziej szczegółowe informacje na temat osiągów procesorów takich firm jak Intel, AMD i VIA/Cyrix.

0x08 graphic
Szybkość działania komputera jest wyrażana częstotliwością będąca zazwyczaj ilością cykli wykonanych w ciągu sekundy. Zadaniem oscylatora będącego krzemową płytką (czasem umieszczoną w niewielkiej obu­dowie wykonanej z cyny) jest sterowanie częstotliwością taktowania zegara. Nowsze rozwiązania zawierają układ oscylatora zintegrowany z chipsetem płyty głównej, dlatego też może on nie być widoczny jako od­dzielny komponent. Po przyłożeniu napięcia, kwarc zaczyna drgać (oscylować) z częstotliwością zależną od kształtu i wielkości kryształu (płytki). Drgania są przekazywane poza kryształ w postaci prądu, który zmienia swoją wartość zgodnie z częstotliwością oscylacji kryształu. Generowany prąd zmienny stanowi sygnał zega­rowy, który tworzy podstawę czasu, zgodnie z którą komputer wykonuje obliczenia. Standardowy komputer wykonuje w ciągu sekundy miliony takich cykli, a zatem częstotliwość jest mierzona w megahercach. Herc odpowiada jednemu cyklowi na sekundę. Sygnał prądu zmiennego ma postać sinusoidy, w której przedział czasu pomiędzy jej kolejnymi wartościami szczytowymi wyznacza częstotliwość (rysunek 3.1).

Rysunek 3.1.

Sygnał prądu zmiennego ukazujący cykl taktujący zegara

Nazwa jednostki herc wywodzi się od nazwiska niemieckiego fizyka Heinricha Rudolfa Hertza. W 1885 r. udowodnił istnienie zjawiska elektromagnetyzmu, w którym zakłada się, że światło jest postacią promieniowania elektromagnetycznego emitowanego w formie fal.

Dla procesora najmniejszą jednostką czasu jest pojedynczy cykl. Każda operacja przez niego wykonana wy­maga co najmniej jednego cyklu, ale zazwyczaj jest ich kilka. Na przykład, aby odczytać i zapisać dane, no­woczesny procesor — taki jak Pentium 4 — wymaga minimalnie trzech cykli potrzebnych do zrealizowania pierwszej operacji dostępu do danych znajdujących się w pamięci, a następnie już tylko jednego cyklu na każ­dą taką operację powtórzoną kolejno od trzech do sześciu razy. Dodatkowe cykle wymagane przy pierwszej operacji zwykle są określane terminem cykli oczekiwania (ang. wait states). Cykl oczekiwania jest taktem zegara, w czasie którego nie jest wykonywana żadna operacja. Jego zastosowanie ma na celu zapobiegnięcie zbyt szybkiej pracy procesora w stosunku do reszty systemu.

^ ^ Zajrzyj do punktu „Moduły SIMM, DIMM i RIMM" znajdującego się na stronie 543.

Czas potrzebny na wykonanie instrukcji również uległ skróceniu:

Procesor Pentium, seria K6. Architektura procesora Pentium i innych procesorów kompatybilnych

z piątą generacją produktów firmy Intel takich jak AMD i Cyrix jest wyposażona w podwojone potoki instrukcji oraz inne innowacje, które powodują, że w ciągu jednego cyklu jest wykonywana jedna lub dwie instrukcje.

Procesory Pentium Pro, Pentium H/IH/4/Celeron i Athlon/Athlon XP/Duron. Wymienione procesory szóstej (P6) i siódmej (P7) generacji są w stanie w ciągu jednego cyklu wykonać trzy lub więcej instrukcji.

Różne czasy wykonywania instrukcji wyrażone w cyklach powodują, że próba dokonania porównania syste­mów tylko w oparciu o częstotliwość ich zegarów lub ilość cykli wykonanych w ciągu sekundy okazuje się zadaniem trudnym do zrealizowania. W jaki sposób wyjaśnić, że w przypadku dwóch procesorów taktowa­nych jednakową częstotliwością zegara jeden z nich jest szybszy od drugiego? Odpowiedź jest bardzo prosta — poprzez pomiar wydajności.

Główną przyczyną, dla której procesor 486 był uważany za stosunkowo szybki, była dwukrotnie większa ilość instrukcji wykonanych w ciągu identycznej liczby cykli w porównaniu z poprzednim modelem (386). Ta sa­ma prawidłowość dotyczy procesora Pentium w porównaniu z procesorem 486 — Pentium wykonuje prawie dwa razy więcej instrukcji przy określonej liczbie cykli. Podsumowując, przy jednakowej częstotliwości zegara procesor Pentium jest dwukrotnie szybszy od swojego poprzednika, natomiast procesor klasy 486 taktowany zegarem 133 MHz (taki jak AMD 5x86-133) nie dorównuje pod względem szybkości nawet procesorowi Pentium taktowanemu zegarem 75 MHz! Wynika to stąd, że megaherce procesora Pentium są około dwa razy więcej „warte" od megaherców procesora 486, przy czym mam na myśli ilość instrukcji wykonanych w ciągu jednego cyklu. Procesory Pentium II i III są w przybliżeniu 50% szybsze od odpowiednika w postaci procesora Pentium taktowanego zegarem o identycznej częstotliwości. Wynika to stąd. że w ciągu tej samej liczby cykli wykonują o wiele większą liczbę instrukcji.

Niestety po pojawieniu się układu Pentium III o wiele trudniejsze stało się porównywanie procesorów tylko na podstawie częstotliwości ich zegara. Wynika to stąd, że różne wewnętrzne architektury procesorów spra­wiają, że niektóre z nich są wydajniejsze od innych. Jednocześnie różnice w wydajności spowodowane są przez obwody, które mogą pracować z różnymi maksymalnymi szybkościami. Mniej wydajny obwód może pracować z wyższą częstotliwością i odwrotnie.

Po dokonaniu porównania względnej wydajności komputerów można dojść do wniosku, że procesor Pentium III taktowany zegarem 1 GHz ma teoretycznie podobną wydajność jak Pentium taktowany zegarem 1,5 GHz, któremu z kolei odpowiada procesor 3 GHz 486. a temu procesor 386 lub 286 taktowany zegarem 6 GHz i w końcu jemu odpowiada układ 8088 pracujący z częstotliwością 12 GHz. W porównaniu z oryginalnym procesorem 8088, taktowanym zegarem o częstotliwości tylko 4,77 MHz, obecnie stosowane systemy są co najmniej 25 000 razy szybsze! Jak można z tego wywnioskować, należy zachować ostrożność w przypadku dokonywania porównania wydajności różnych systemów w oparciu tylko o częstotliwość zegara, ponieważ na wydajność ma wpływ wiele innych wskaźników.

Określanie wydajności procesora może okazać się trudnym zadaniem. Procesory charakteryzujące się odmienną architekturą wewnętrzną wykonują instrukcje w inny sposób i w przypadku określonych operacji mogą szybsze, a innych wolniejsze. Aby dokonać wiarygodnego porównania procesorów taktowanych zegarami o różnych częstotliwościach, firma Intel opracowała szereg konkretnych testów określanych mianem indeksu iCOMP (Intel Comparative Microprocessor Performance), które mogą być wykorzystane do uzyskania względnej miary wydajności testowanego procesora. Indeks iCOMP uległ dwukrotnym aktualizacjom opublikowanym w postaci kolejnych wersji iCOMP 2.0 i 3.0.

Typ procesora

Indeks iCOMP 2.0

Typ procesora

Indeks iCOMP 2.0

Pentium 75

67

Pentium Pro 200

220

Pentium 100

90

Celeron 300

226

Pentium 120

100

Pentium II 233

267

Pentium 133

111

Celeron 300A

296

Pentium 150

114

Pentium II 266

303

Pentium 166

127

Celeron 333

318

Pentium 200

142

Pentium II 300

332

Pentium-MMX 166

160

Pentium II OverDrive 300

351

Pentium Pro 150

168

Pentium 11 333

366

Pentium-MMX 200

182

Pentium II 350

386

Pentium Pro 180

197

Pentium II OverDrive 333

387

Pentium-MMX 233

203

Pentium II 400

440

Celeron 266

213

Pentium II 450

483

Tabela 3.8. Indeks iCOMP 2.0 firmy Inlet

W tabeli 3.8 zestawiono porównanie względnej wydajności (indeks iCOMP 2.0) zmierzonej dla kilku pro­cesorów.

Należy zwrócić uwagę na to, że są to wyniki określone według najnowszej wersji indeksu iCOMP. Jednak w przypadku procesora Pentium 4 firma Intel do określenia jego wydajności wykorzystuje inne narzędzia.

Indeks iCOMP 2.0 jest tworzony na podstawie wyników kilku niezależnych pomiarów wydajności i sta­nowi wiarygodny wskaźnik względnej wydajności procesora. Programy służące do wykonywania pomia­rów w równym stopniu sprawdzają wydajność związaną z operacjami zmiennoprzecinkowymi jak i multi­medialnymi.

Po zaprojektowaniu procesora Pentium III firma Intel zaprzestała posługiwania się indeksem iCOMP 2.0 i opra­cowała jego nową wersję 3.0. Indeks iCOMP 3.0 został uaktualniony o mające coraz większe znaczenie aplika­cje związane z grafiką trójwymiarową, multimediami, technologiami stosowanymi w sieci Internet oraz programy służące do transmisji danych w trybie strumieniowym. Składa się z sześciu następujących testów porów­nawczych: WinTune 98 Advanced CPU Integer test, CPUmark 99, 3D WinBench 99-3D Lighting and Trans-formation Test, MultimediaMark 99, Jmark 2.0 Processor Test oraz WinBench 99-FPU WinMark. Wymie­nione testy porównawcze wykorzystują możliwości rozszerzenia SSE (ang. Streaming S/MD Exlensions) oraz dodatkowe instrukcje przetwarzające grafikę i dźwięk wbudowane w procesor Pentium III. Bez uwzględnie­nia możliwości nowych instrukcji procesor ten, w porównaniu z procesorem Pentium II taktowanym zegarem o identycznej częstotliwości, wykazałby w testach w przybliżeniu tę samą wydajność.

W tabeli 3.9 zebrano wyniki indeksu iCOMP 3.0 dotyczące procesorów Pentium II i III.

Tabela 3.9. Indeks iCOMP 3.0 firmy Intel

Typ procesora

Indeks iCOMP 3.0

Typ procesora

Indeks iCOMP 3.0

Pentium II 350

1000

Pentium III 650

2270

Pentium II 450

1240

Pentium III 700

2420

Pentium III 450

1500

Pentium III 750

2540

Pentium III 500

1650

Pentium III 800

2690

Pentium III 550

1780

Pentium III 866

2890

Pentium III 600

1930

Pentium III 1000

3280

Pentium III 600E

2110

Obecnie firmy Intel i AMD mierzą wydajność swoich najnowszych procesorów przy użyciu zestawu dostępnych odpłatnie testów porównawczych BAPCo SYSmark 2002 i 2004. W tabeli 3.10 i 3.11 zebrano wyniki uzyskane w testach porównawczych SYSmark 2002 i 2004 dla różnych wersji tego procesora.

SYSmark 2002 i 2004 są dostępnymi odpłatnie zestawami testów porównawczych opartymi na aplikacjach odzwierciedlających zwykły poziom obciążenia generowanego przez przeciętnego użytkownika wykorzystują­cego aplikacje biurowe z uwzględnieniem zestawu Microsoft Office i nowoczesnych narzędzi służących do tworzenia treści udostępnianych w Internecie. Godne uwagi jest to, że widoczne powyżej wyniki zostały uzy­skane dla kompletnych systemów i wpływ na nie mają takie czynniki, jak określona wersja procesora, typ uży­wanej płyty głównej i chipsetu, pojemność i rodzaj zainstalowanej pamięci, prędkość dysku twardego i inne. W celu zapoznania się z pełnym zestawieniem innych czynników wpływających na uzyskiwane wyniki należy zajrzeć na stronę internetową firmy BAPCo.

SYSmark 2002 podczas swojej pracy korzysta z następujących aplikacji:

Procesor

Częstotliwość (GHz)

Wynik testów porównawczych SYSMark 2002

Pentium 4 Extreme Edition

3.2

362

Pentium 4

3,2

344

Pentium 4

3,0

328

Pentium 4

3,06

324

Pentium 4

2,8

312

Pentium 4

2,6

295

Pentium 4

2,67

285

Pentium 4

2,53

273

Pentium 4

2,4

264

Pentium 4

2,26

252

Pentium 4

2,2

238

Pentium 4

2,0

222

AMD Athlon XP

1,72

195

Pentium 4

1,9

192

Pentium 4

1,8

187

Pentium 4

1,7

178

Pentium 4

1,6

171

AMD Athlon XP

1,67

171

Pentium 4

1,5

162

AMD Athlon XP

1,53

149

Pentium III

1,2

108

Pentium III

1,3

104

Pentium III

1,13

100

Pentium III

1,0

92

Tabela 3.10. Wyniki uzyskane dla różnych procesorów w testach porównawczych SYSMark 2002

SYSmark 2004 podczas swojej pracy korzysta z następujących aplikacji:

SYSmark za pomocą różnych skryptów symuluje rzeczywiste operacje wykonywane za pomocą powyższych aplikacji. Dzięki temu jest wykorzystywany przez wiele firm do testowania i porównywania różnych syste­mów PC i ich komponentów. SYSmark 2002 jest o wiele bardziej nowoczesnym i symulującym rzeczywiste operacje zestawem testów niż dotychczas stosowany indeks iCOMP firmy Intel. Ponadto dzięki ogólnej do­stępności, uzyskiwane wyniki mogą być niezależnie weryfikowane. Zestawy testów SYSmark 2002 i 2004 można zakupić za pośrednictwem strony internetowej ich producenta, firmy BAPCo, znajdującej się pod adresem http://www.bapco.com.

Procesor

Częstotliwość (GHz)

Wynik testów porównawczych SYSMark 2004

Intel Pentium 4EE

3,4

225

Intel Pentium 4E

3,4

218

Intel Pentium 4EE

3,2

215

AMD Athlon FX-53

2,4

213

Intel Pentium 4C

3,4

212

Intel Pentium 4E

3,2

204

AMD Athlon FX-51

2,2

200

AMD Athlon 64 3400+

2,2

195

AMD Athlon 64 3200+

2,2

194

Intel Pentium 4C

3,0

193

Intel Pentium 4E

2.8

182

AMD Athlon 64 3200+

2,0

180

AMD Athlon 64 3000+

2.0

178

Intel Pentium 4C

2,8

174

AMD Athlon 64 2800+

1,8

164

AMD Athlon XP 3200+

2,2

163

Intel Pentium 4C

2,4

153

AMD Athlon XP 2800+

2,25

151

AMD Athlon XP 2700+

2,18

148

Intel Pentium 4B

2,8

144

AMD Athlon XP 2600+

2,08

144

AMD Athlon XP 2400+

2,0

133

Intel Pentium 4B

2,4

130

Intel Celeron

2,8

117

Intel Celeron

2,7

115

AMD Athlon XP 1800+

1,53

111

Intel Celeron

2,5

110

Intel Celeron

2,4

104

Intel Pentium 4A

2,0

104

Intel Pentium III

1,0

64

Tabela 3.11. Wyniki uzyskane dla różnych procesorów w testach porównawczych SYSMark 2004

Porównanie szybkości procesorów i płyt głównych

Kolejny nie do końca oczywisty wskaźnik wykorzystywany przy porównywaniu wydajności procesorów jest związany z istnieniem kilku różnych szybkości taktowania szyn płyt głównych. Sytuacja taka miała miejsce już od czasów pojawienia się na rynku procesora 486DX2. Przykładowo procesor Pentium 4 pracuje z czę­stotliwością 2,53 GHz, która jest 4,75 ('%) razy wyższa od częstotliwości magistrali FSB płyty głównej wynoszącej 500 MHz. Z kolei procesor AMD Athlon XP 2800+ oparty na najnowszym rdzeniu Barton pracuje z częstotliwością 2,083 GHz, która jest 6,25 (75/12) razy wyższa od częstotliwości magistrali FSB płyty głównej równej 333 MHz. Aż do początku roku 1998 większość płyt głównych była taktowana zegarem o częstotliwo­ści 66 MHz lub niższej. Począwszy od kwietnia 1998 r. firma Intel wprowadziła do sprzedaży zarówno procesory, jak i płyty główne przystosowane do pracy z częstotliwością 100 MHz.

Pod koniec roku 1999 pojawiły się chipsety i płyty główne taktowane zegarem 133 MHz i przystosowane do współpracy z nowszymi modelami procesora Pentium III. W tym okresie zostały wprowadzone do sprzedaży płyty główne i chipsety współpracujące z procesorami AMD Athlon i taktowane zegarem 100 MHz. ale wy­korzystywały również technologię podwojonego transferu, który w efekcie pozwalał na zwiększenie efektyw­nego transferu danych pomiędzy procesorem Athlon, a mostkiem północnym chipsetu (ang. North Bridge) odbywającego się z częstotliwością200 MHz'.

W roku 2000 i następnym prędkości magistrali procesorów zostały zwiększone — w przypadku procesora AMD Athlon i Intel Itanium do 266 MHz. a w procesorach Pentium 4 od 4002 do 533 MHz. W 2002 r. procesory AMD Athlon XP zaczęły obsługiwać magistralę o szybkości 333 MHz. W następnym roku Intel zaprezento­wał procesory Pentium 4 współpracujące z magistralą o szybkości 800 MHz. Zazwyczaj szybkość magistrali procesorów firm AMD i Intel jest dostosowywana do typu pamięci, z którymi będą one współpracować. W przy­padku większości nowszych modeli procesorów szybkość ich magistrali jest zależna od częstotliwości rdzenia procesora oraz zastosowanej pamięci (SDRAM, DDR SDRAM, RDRAM). Warto zauważyć, że szybkość magi­strali procesorów Pentium 4 nie odpowiada wprost szybkości określonej pamięci.

Aby uzyskać więcej informacji na temat szybkości chipsetów i magistrali, należy zajrzeć do roz­działu 4., „Płyty główne i magistrale".

Tabela 3.12. Częstotliwości pracy procesorów firmy Intel i ptyt głównych

Typ procesora

Częstotliwość procesora (MHz)

Mnożnik częstotliwości

Częstotliwość płyty głównej (MHz)

Pentium

75

x 1,5

50

Pentium

60

x l

60

Pentium

90

x l,5

60

Pentium

120

x 2

60

Pentium

150

x 2,5

60

Pentium/Pentium Pro

180

x 3

60

Pentium

66

x l

66

Pentium

100

x l,5

66

Pentium

133

x 2

66

Pentium/Pentium Pro

166

x 2,5

66

Pentium/Pentium Pro

200

x 3

66

Pentium/Pentium II

233

x 3,5

66

Pentium (Mobile)/Pentium II/Celeron

266

x 4

66

1 Rzeczywista częstotliwość pracy wynosi 100 MHz, natomiast ze względu na to, iż dane są przesyłane nie tylko na zboczu opadającym ale i rosnącym stąd bierze się wartość 200 MHz —jest to tzw. „efektywna" częstotliwość.

2 Dla szyny pracującej w trybie Quad Pumped — w jednym cyklu przesyłane są 4 bity.

Szybkość płyty głównej i mnożnik częstotliwości mogą być ustawione za pomocą zworek (znajdujących się na płycie) lub innego typu mechanizmów konfiguracyjnych (takich jak narzędzie Setup systemu BIOS). W' now­szych rozwiązaniach do ustawiania częstotliwości płyty głównej i procesora jest wykorzystywany układ syn­tezatora zmiennych częstotliwości zwykle zintegrowany z chipsetem płyty głównej. Większość płyt głównych przeznaczonych dla procesorów Pentium ma możliwość pracy z trzema lub czterema różnymi szybkościami Obecnie stosowane modele procesorów są dostępne w różnych wersjach przystosowanych, w zależności od ustawionej szybkości płyty głównej, do pracy z różnymi częstotliwościami. Przykładowo, większość modeli procesora Pentium jest taktowana z częstotliwością, która jest wielokrotnością częstotliwości płyty głównej. Na przykład procesory Pentium i współpracujące z nimi płyty główne pracują z częstotliwościami przedsta­wionymi w tabeli 3.12.

Tabela 3.12. Częstotliwości pracy procesorów firmy Intel i płyt głównych — ciąg dalszy

Typ procesora

Częstotliwość procesora (MHz)

Mnożnik częstotliwości

Częstotliwość płyty głównej (MHz)

Pentium Ii/Celeron

300

x4,5

66

Pentium ll/Ccleron

333

x5

66

Pentium Il/Celeron

366

x5,5

66

Celeron

400

x6

66

Celeron

433

x6,5

66

Celeron

466

x7

66

Celeron

500

x7,5

66

Celeron

533

x8

66

Celeron

566

x8,5

66

Celeron

600

x9

66

Celeron

633

x9,5

66

Celeron

667

xl0

66

Celeron

700

xl 0,5

66

Celeron

733

xli

66

Celeron

766

xl 1,5

66

Pentium 11

350

x3,5

100

Pentium 11

400

x4

100

Pentium 11/111

450

x4,5

100

Pentium III

500

x5

100

Pentium III

550

x5,5

100

Pentium III

600

x6

100

Pentium III

650

x6,5

100

Pentium III

700

x7

100

Pentium III

750

x7,5

100

Pentium lll/Ccleron

800

x8

100

Pentium lll/Ccleron

850

x8,5

100

Pentium Ul/Celeron

900

x9

100

Pentium lll/Celeron

950

x9,5

100

Pentium Iii/Celeron

1000

xl0

100

Pentium lll/Celeron

1100

xli

100

Pentium lll/Celeron

1200

xl2

100

Pentium lll/Celeron

1300

xl3

100

Pentium lll/Celeron

1400

xl4

100

Pentium III

533

x4

133

Pentium III

600

x4,5

133

Pentium III

667

x5

133

Pentium III

733

x5,5

133

Pentium III

800

x6

133

Pentium III

866

x6,5

133

Pentium III

933

x7

133

Pentium III

1000

x7,5

133

Pentium III

1066

x8

133

Pentium III

1133

x8,5

133

Pentium III

1200

x9

133

Pentium III

1266

x9,5

133

Pentium III

1333

xl0

133

Pentium III

1400

xl0,5

133

Pentium 4

1300

x3,25

400

Pentium 4

1400

x3,5

400

Pentium 4

1500

x3,75

400

Pentium 4

1600

x4

400

Pentium 4/Celeron

1700

x4,25

400

Pentium 4

1800

x4,5

400

Pentium 4

1900

x4,75

400

Pentium 4

2000

x5

400

Pentium 4

2200

x5,5

400

Pentium 4

2400

x6

400

Pentium 4

2266

x4,25

533

Pentium 4

2400

x4,5

533

Pentium 4

2500

x6,25

400

Pentium 4

2533

x4,75

533

Pentium 4

2600

x6,5

400

Pentium 4

2660

x5

533

Pentium 4

2800

x5,25

533

Pentium 4

3060

x5,75

533

Pentium 4

3200

x4

800

Pentium 4

3400

x4,25

800

Itanium

733

x2,75

266

Itanium

800

x3

266

Itanium 2

1000

x2,5

400

Aby uzyskać więcej informacji na temat konkretnych modeli procesorów firmy AMD, Cyrix lub VIA, należy zapoznać się z zawartością poświęconych im podrozdziałów znajdujących się w dalszej części rozdziału.

Jeśli wszystkie pozostałe parametry, takie jak typ procesora, liczba cykli oczekiwania (cykli pustych) zde­finiowana dla czasów dostępu różnych typów pamięci oraz szerokość magistrali danych, są stałe, wtedy na podstawie odpowiednich częstotliwości pracy można dokonać porównania dwóch systemów. Wsku­tek różnic w budowie i architekturze kontrolera pamięci (zintegrowanego w chipsecie płyty głównej) oraz typu i ilości zainstalowanej pamięci uzyskana całkowita szybkość działającego systemu może się znacznie różnić.

W trakcie procesu produkcyjnego wytwórca procesorów sprawdza ich parametry pracy przy różnych prędko­ściach, temperaturach i ciśnieniach. Po zakończeniu etapu testowania procesor uzyskuje znacznik informują­cy o maksymalnej częstotliwości, z którą będzie działał prawidłowo z uwzględnieniem zmiennych warunków temperaturowych i ciśnieniowych występujących w normalnych warunkach jego pracy. Parametry pracy pro­cesora są opisane na jego obudowie.

Szybkości procesorów Cyrix

Procesory Cyrix/1BM/VIA z serii 6x86 (układy konkurujące z procesorem Pentium, pierwszymi modelami Pentium II. a także procesorami firmy AMD z serii K5 i K6) posługiwały się wskaźnikiem wydajności PR. który nie był równoznaczny rzeczywistej szybkości wyrażonej częstotliwością pracy zegara (MHz). Przykła­dowo, procesor Cyrix 6x86MX/MII-PR366 w rzeczywistości jest taktowany zegarem 250 MHz (2,5 x 100 MHz). Takie oznaczenie procesorów jest trochę mylące — zamiast spodziewanej częstotliwości 366 MHz konieczne jest skonfigurowanie płyty głównej do współpracy z procesorem taktowanym zegarem 250 MHz. Niestety, doprowadziło to do tego, że wiele osób uwierzyło, że systemy oparte na procesorach Cyrix były szybsze niż w rzeczywistości.

W tabeli 3.13 zaprezentowano zależność występującą pomiędzy wskaźnikiem wydajności PR, stosowa­nym w procesorach Cyrix 6x86, 6x86MX i MII, a ich rzeczywistą częstotliwością pracy wyrażoną w me­gahercach.

Należy zwrócić uwagę na fakt, że tak naprawdę określona wartość wskaźnika PR może oznaczać kilka różnych częstotliwości pracy procesora. Przykładowo, procesor Cyrix 6x86MX-PR200 może właściwie pracować z częstotliwością 150 MHz, 165 MHz, 166 MHz lub 180 MHz, ale już na pewno nie z często­tliwością 200 MHz.

Zadaniem wskaźnika wydajności PR było porównanie szybkości procesora Cyrix z szybkością odpowiadają­cego mu procesora Pentium firmy Intel z tym, że był to model pozbawiony rozszerzenia MMX i wyposażony z pamięć Cache LI o małej pojemności przystosowany do współpracy ze starszymi modelami płyt głównych i chipsetów oraz wolniejszymi typami pamięci. Wskaźnik PR nie wypadał za dobrze w porównaniu z proce­sorami Celeron czy Pentium II i III. Inaczej mówiąc, procesor MII-PR366 w rzeczywistości był taktowany zegarem 250 MHz i jego osiągi były porównywalne z produktami firmy Intel pracującymi z podobną często­tliwością, przez co uzyskiwane wyniki w pewien sposób nie były wiarygodne.

Szybkości procesorów AMD

Procesory Athlon XP firmy AMD cechują się znakomitą wydajnością i posiadają kilka funkcji godnych uwa­gi, ale, niestety, do określenia ich szybkości zastosowano podobny wskaźnik, jakim posługiwał się producent procesorów Cyrix. Jest nim symulowana częstotliwość wyrażona w megahercach nie mająca nic wspólnego z rzeczywistą częstotliwością procesora, a jedynie porównywana z wersję procesora Intel Pentium 4 pierw­szej generacji osiągającego podobną wydajność. Jeśli powyższa definicja zabrzmiała trochę niezrozumiale to wszystko jest w porządku, ponieważ tak jest w istocie!

W tabeli 3.14 zebrano rzeczywiste i wyrażone za pomocą wskaźnika PR częstotliwości procesorów firmy AMD, takich jak K5, K6, Athlon, Athlon XP i Duron.

Tabela 3.13. Porównanie rzeczywistej częstotliwości wyrażonej w MHz z częstotliwością określoną według wskaźnika wydajności P-Rating procesorów firmy Cyrix

Typ procesora

Wskaźnik P-Rating

Rzeczywista częstotliwość (MHz)

Mnożnik częstotliwości

Częstotliwość płyty głównej (MHz)

6x86

PR90

80

x2

40

6x86

PR120

100

x2

50

6x86

PR133

110

x2

55

6x86

PR 150

120

x2

60

6x86

PR 166

133

x2

66

6x86

PR200

150

x2

75

6x86MX

PR133

100

x2

50

6x86MX

PR 133

110

x2

55

6x86MX

PRI50

120

x2

60

6x86MX

PR150

125

x2,5

50

6x86MX

PR 166

133

x2

66

6x86MX

PR 166

137,5

x2,5

55

6x86MX

PR166

150

x3

50

6x86MX

PR 166

150

x2,5

60

6x86MX

PR200

150

x2

75

6x86MX

PR200

165

x3

55

6x86MX

PR200

166

x2,5

66

6x86MX

PR200

180

x3

60

6x86MX

PR233

166

x2

83

6x86MX

PR233

187,5

x2,5

75

6x86MX

PR233

200

x3

66

6x86MX

PR266

207,5

x2,5

83

6x86MX

PR266

225

x3

75

6x86MX

PR266

233

x3,5

66

M-Il

PR300

225

x3

75

M-H

PR300

233

x3,5

66

M-II

PR333

250

x3

83

M-II

PR366

250

x2,5

100

M-II

PR400

285

x3

95

M-II

PR433

300

x3

100

Cyrix III

PR433

350

x3,5

100

Cyrix III

PR466

366

x3

122

Cyrix III

PR500

400

x3

133

Cynx III

PR533

433

x3,5

124

Cyrix III

PR533

450

x4,5

100

Tabela 3.14. Porównanie rzeczywistej częstotliwości wyrażonej w MHz z częstotliwością określoną według wskaźnika wydajności P-Rating procesorów firmy AMD

Typ procesora

Wskaźnik P-Rating

Rzeczywista częstotliwość (MHz)

Mnożnik częstotliwości

Częstotliwość płyty głównej (MHz)

K5

75

75

xl,5

50

K5

90

90

xl,5

60

K.5

100

100

xl,5

66

K5

120

90

xl,5

60

K5

133

100

xl,5

66

K5

166

116

xl,75

66

K6

166

166

x2,5

66

K6

200

200

x3

66

K6

233

233

x3,5

66

K6

266

266

x4

66

K6

300

300

x4,5

66

K6-2

233

233

x3,5

66

K6-2

266

266

x4

66

K6-2

300

300

x4,5

66

K6-2

300

300

x3

100

K6-2

333

333

x5

66

K6-2

333

333

x3,5

95

K6-2

350

350

x3,5

100

K.6-2

366

366

x5,5

66

K6-2

380

380

x4

95

K6-2

400

400

x6

66

K6-2

400

400

x4

100

K6-2

450

450

x4,5

100

K.6-2

475

475

x5

95

K6-2

500

500

x5

100

K6-2

533

533

x5,5

97

K6-2

550

550

x5,5

100

K6-3

400

400

x4

100

K6-3

450

450

x4,5

100

Athlon

500

500

x2,5

200

Athlon

550

550

x2,75

200

Athlon/Duron

600

600

x3

200

Athlon/Duron

650

650

x3,25

200

Athlon/Duron

700

700

x3,5

200

Athlon/Duron

750

750

x3,75

200

Athlon/Duron

800

800

x4

200

Athlon/Duron

850

850

x4,25

200

Athlon/Duron

900

900

x4,5

200

Athlon/Duron

950

950

x4,75

200

Athlon/Duron

1000

1000

x5

200

Athlon/Duron

1100

1100

x5,5

200

Athlon/Duron

1200

1200

x6

200

Athlon/Duron

1300

1300

x6,5

200

Athlon/Duron

1400

1400

x7

200

Athlon

1000

1000

x3,75

266

Athlon

1133

1133

x4,25

266

Athlon

1200

1200

x4,5

266

Athlon

1333

1333

x5

266

Athlon

1400

1400

x5,25

266

Athlon XP

1500+

1333

x5

266

Athlon XP

1600+

1400

x5,25

266

Athlon XP

1700+

1466

x5,5

266

Athlon XP

1800+

1533

x5,75

266

Athlon XP

1900+

1600

x6

266

Athlon XP

2000+

1666

x6,25

266

Athlon XP

2100+

1733

x6,5

266

Athlon XP

2200+

1800

x6,75

266

Athlon XP

2400+

2000

x7,5

266

Athlon XP

2500+*

1833

x5,5

333

Athlon XP

2600+

2083

x6,25

333

Athlon XP

2600+

2133

x8

266

Athlon XP

2700+

2167

x6,5

333

Athlon XP

2800+*

2083

x6,25

333

Athlon XP

2800+

2250

x6,75

333

Athlon XP

3000+*

2167

x6,5

333

Athlon XP

3200+'

2333

x7

333

Należy zwrócić uwagę na fakt, że w przypadku procesorów Athlon/Duron opartych na magistrali pracującej z częstotliwością 200 i 266 MHz jest wykorzystywany zegar o częstotliwościach, odpowiednio, 100 i 133 MHz oraz, w celu podwojenia efektywnej szybkości, w ciągu jednego cyklu są wykonywane dwa transfery.

'Procesory oparte są na rdzeniu Barton, który w celu zwiększenia wydajności zintegrowano z pamięcią Cache o pojemności 512 kB (inne modele układu Athlon XP zawierają 256 kB).

Testy wydajności wykonane przez firmę AMD pokazują, że procesor Athlon taktowany zegarem 1,8 GHz charakteryzuje się teoretycznie identyczną wydajnością jak procesor Pentium 4 pracujący z częstotliwością 2,2 GHz, dlatego też jest oznaczony jako Athlon XP 2200+, gdzie liczba 2200+ wskazuje na względną wydajność odpowiadającego mu procesora Pentium 4. Tego typu działania marketingowe, w których procesorowi jest przypisywana liczba wskazująca bardziej jego względną niż na rzeczywistą prędkość, odniosły znikomy sukces.

W niektórych przypadkach spowodowało to negatywne nastawienie klientów, którzy po tym. gdy dowiedzieli się. jaka jest rzeczywista częstotliwość pracy zakupionego i zastosowanego w ich komputerze procesora, doszli do wniosku, że zostali oszukani.

Dział marketingu firmy AMD został postawiony przed rzeczywistym problemem, a mianowicie, w jaki sposób zareklamować procesor, który ma wyższą wydajność niż jego konkurent, ale jest taktowany zegarem o jedna­kowej częstotliwości? Procesor AMD Athlon XP 2 GHz jest znacznie szybszy od procesora Pentium 4 pra­cującego z taką samą częstotliwością. Co więcej, prawie dorównuje wydajności modelu Pentium 4 2,4 GHz (z tego powodu firma AMD nadała mu oznaczenie Athlon XP 2400+)! Ta oczywista różnica w wydajności wynika stąd, że procesory Pentium 4 wykorzystują odmienną architekturę opierającą się na szerszym potoku instrukcji, ale i na większej liczbie poziomów. Pentium 4, w porównaniu z procesorami Athlon wykorzystu­jącymi 10-poziomowy potok i Pentium III czy Celeron mającymi 10-poziomowy potok, sam opiera się na potoku złożonym z 20 poziomów (tabela 3.15).

Tabela 3.15. Liczba poziomów potoku procesorów

Procesor

Liczba poziomów potoku

Pentium III

10

Pentium M

10

Athlon/Athlon XP

10

Athlon 64/64 FX

12

Pentium 4

20

Pentium 4 Prescott

31

Bardziej złożony potok w efektywny sposób dzieli instrukcje na mniejsze elementy, które przy użyciu tej sa­mej technologii produkcji układów krzemowych pozwalają osiągnąć wyższe częstotliwości pracy. Jednak oznacza to również, że w porównaniu z procesorem Athlon lub Pentium III, w ciągu jednego cyklu jest wy­konywanych mniej instrukcji.

Wynika to stąd, że jeśli etap przewidywania rozgałęzień lub wykonywanie spekulatywne się nie powiedzie (co ma miejsce dość często, gdy procesor próbuje kolejkować instrukcje, które dopiero będą wykonywane), wtedy zawartość całego potoku musi zostać usunięta lub ponownie uzupełniona. A zatem, jeśli procesor Pen­tium 4 zostanie za pomocą standardowych testów porównany z procesorami Athlon lub Pentium III pracują­cymi z identyczną częstotliwością, wtedy okaże się, że oba procesory biją go na głowę, co wynika z faktu wy­konywania przez nie w ciągu jednego cyklu większej ilości instrukcji.

Choć przedstawia się to dla procesora Pentium 4 niekorzystnie, wcale tak nie jest. W rzeczywistości wszystko zostało uwzględnione w trakcie jego projektowania. Firma Intel argumentuje to tym, że nawet, jeśli zastosowanie potoku o większej liczbie poziomów może spowodować 30-procentowy spadek ogólnej wydaj­ności, to jednak będzie to w pełni wynagrodzone w postaci możliwości zastosowania wyższych (przynajmniej o 50 %) częstotliwości taktowania zegara, w porównaniu z osiągami procesorów Athlon i Pentium III wyposa­żonych w potoki z mniejszą ilością poziomów. 20-poziomowy potok zastosowany w architekturze procesora Pentium 4 umożliwia, w porównaniu z innymi układami, osiągnięcie znacznie wyższych częstotliwości tak­towania przy użyciu identycznej technologii produkcji procesorów. Na przykład procesory Athlon XP i Pen­tium 4 początkowo były wytwarzane przy użyciu tego samego procesu 0,18 mikrona (opisującego szerokość ścieżki trawionej w układach scalonych). Zastosowanie w procesorze Pentium 4 20- lub 31-poziomowego potoku, pozwala, przy użyciu procesu 0,18 mikrona, wytwarzać procesory taktowane zegarem o częstotliwości do 2,0 GHz. W przypadku procesora Athlon XP posiadającego 10-poziomowy potok możliwe jest uzyskanie częstotliwości tylko 1,73 GHz, natomiast dla procesorów Pentium III czy Celeron z 10-poziomowym poto­kiem jest to już tylko 1,33 GHz. Przy wykorzystaniu nowszej technologii 0,13 mikrona, procesor Pentium 4 może być aktualnie taktowany zegarem 3,4 GHz, natomiast procesor Athlon XP 3200+ (przy tej samej po­czątkowej ramce czasowej) osiąga maksymalną częstotliwość równą 2,2 GHz. Chociaż Pentium 4 wyko­nuje w każdym cyklu mniejszą ilość instrukcji, to jednak dzięki wyższej częstotliwości pracy nadrabia straty w ogólnej wydajności. Podsumowując, można powiedzieć, że po początkowych różnicach wydajności proceso­rów Athlon XP i Pentium 4, ostateczny wynik porównania wyższej częstotliwości taktowania z bardziej wy­dajnym przetwarzaniem instrukcji jest remisowy.

Wiele komputerów w trakcie inicjalizacji wyświetla na ekranie monitora częstotliwość pracy procesora. System Windows XP również zawiera tę informację na zakładce Ogólne, okna Właściwości systemu. Firma AMD dąży do tego, aby systemy nie informowały bezpośrednio o szybkości procesora. I faktycznie, firma AMD nie rekomenduje ani też nie zatwierdza płyt głównych współpracujących z procesorem Athlon XP, które wyświe­tlają informacją dotyczącą rzeczywistej częstotliwości zegara, którym jest taktowany procesor. W przyszłości wszyscy ciekawi tego, jaka jest rzeczywista częstotliwość taktowania posiadanego procesora będą musieli sięgnąć po niezależny program testujący taki jak SiSoft Sandra lub Intel Freąuency ID Utility.

Aby dla dowolnego modelu procesora Athlon określić jego częstotliwość pracy (rzeczywista szyb-^^"\ kość może zmieniać się zależnie od tego, czy dla magistrali FSB płyty głównej ustawiono często-tliwość wyższą lub niższą od nominalnej, czy też zmieniono wartość napięcia zasilania układu), ze strony internetowej firmy AMD należy pobrać poświęcony mu arkusz danych Data Sheet. W każ­dym arkuszu znajduje się tabela zawierająca rzeczywistą częstotliwość podaną w megahercach (w celu uzyskania szybkości w gigahercach należy podzielić ją przez 1000). Najnowszy model pro­cesora Athlon XP ma oznaczenie Model 10, natomiast starsze — Model 8 i Model 6.

Wśród tych wszystkich niejasności jedna rzecz jest oczywista, a mianowicie sama wartość częstotliwości wy­rażona w MHz (GHz) nie zawsze jest najlepszym sposobem porównywania procesorów, a tworzenie pseudo-częstotliwości może tylko doprowadzić do jeszcze większego zamieszanie, szczególnie wśród początkujących użytkowników komputera. Obecnie nawet Intel rezygnuje z posługiwania się częstotliwością zegara jako podstawowym oznaczeniem procesorów wprowadzanych do sprzedaży. Firma nadal informuje o szybkości procesorów, ale począwszy od późniejszych wersji układów Pentium 4 i Celeron dodatkowo podaje nowy numer modelu, pozwalający określić względną różnicę pomiędzy nimi. Względna różnica oparta jest nie tylko na szybkości, ale też uwzględnia aspekty dotyczące architektury i innych kwestii.

Przetaktowywanie

W niektórych systemach możliwe jest ustawienie wyższej częstotliwości procesora niż wynosi jego częstotli­wość nominalna. Operacja taka jest określana mianem przetaktowywania (ang. overclocking). W wielu przy­padkach można w znacznym stopniu zwiększyć szybkość, ponieważ firmy AMD, Intel oraz inni producenci często przy określaniu wartości nominalnej (ze względów bezpieczeństwa) pozostawiają spory zapas. A za­tem, przykładowo, procesor taktowany zegarem 800 MHz w rzeczywistości może pracować z częstotliwością 900 MHz lub wyższą, ale w celu zapewnienia większej stabilności jego szybkość jest obniżana. Operacja przetaktowywania korzysta z pozostawionego zapasu i powoduje, że procesor pracuje z częstotliwością bliską jego maksymalnych możliwości. Zwykle początkującym użytkownikom nie proponuję stosowania przetakto­wywania procesora, ale jeśli lubisz eksperymentować z konfiguracją systemu i możesz sobie na to pozwolić, jednocześnie licząc się z możliwymi konsekwencjami, to dzięki niemu można uzyskać 10-20 procentowy lub nawet większy wzrost wydajności systemu.

Pułapki związane z przetaktowywaniem

Jeśli jesteś zdecydowany na przetaktowanie swojego procesora, musisz być świadomy kilku rzeczy. Jedna z nich jest związana z faktem fabrycznego blokowania mnożnika częstotliwości w większości — począwszy od Pentium II — procesorów firmy Intel. Oznacza to, że taki procesor ignoruje wszelkie zmiany w ustawie­niu mnożnika znajdującego się na płycie głównej. Tak naprawdę, w przypadku większości nowszych modeli procesorów, blokowanie mnożnika jest praktykowane zarówno przez firmę Intel, jak i AMD, z tym, że w pro­cesorach drugiej z nich zastosowano lutowane mostki umieszczone na zewnątrz procesora, które przy zacho­waniu ostrożności i w pewnym stopniu przy udziale mechanicznej ingerencji można zmodyfikować. Chociaż początkowym zamierzeniem stosowania mostków było uniemożliwienie oszustom rozprowadzania znakowa­nych procesorów (ze zmienioną informacją na temat częstotliwości), to jednak dotknęło to też entuzjastów zwiększania wydajności, pozostawiając im do dyspozycji modyfikowanie częstotliwości magistrali znajdują­cej się na płycie głównej jako jedynej metody uzyskania wyższej częstotliwości taktowania od ustalonej przez producenta.

Zwiększanie szybkości magistrali na płycie głównej również może wiązać się z problemami. Przykładowo, płyty główne firmy Intel zazwyczaj nie obsługują innych częstotliwości niż standardowe wartości takie jak 66, 100, 133, 400, 533 lub 800 MHz. Nowsze płyty główne Intela posiadają funkcję „dopalacza", umożliwiającą zwiększenie domyślnej szybkości magistrali procesora, a także jego rdzenia maksymalnie o 4%. Jest to dość znikomy przyrost, ale z łatwością osiągalny w przypadku większości procesorów. Płyty główne większości innych firm również umożliwiają zwiększanie szybkości magistrali nawet o wyższe wartości.

Nawet jeśli uda Ci się oszukać procesor i zmusić go do zaakceptowania innych ustawień mnożnika zegara, to jednak przeskok z częstotliwości 66 MHz na 100 MHz lub z 100 na 133 MHz jest znaczny i wiele procesorów wskutek takiej operacji nie będzie działało stabilnie. Przykładowo, procesor Pentium III 800E pracuje przy ustawionej częstotliwości magistrali równej 100 MHz i mnożniku x8. Podniesienie częstotliwości magistrali do 133 MHz spowoduje, że procesor będzie próbował działać z prędkością 8 x 133 MHz czyli 1066 MHz. Nie ma gwarancji, że przy takiej częstotliwości będzie się zachowywał stabilnie. Podobnie sytuacja wygląda w przypadku procesora Celeron 600E taktowanego zegarem 9 x 66 MHz. Po zwiększeniu prędkości magi­strali do 100 MHz procesor będzie pracował z częstotliwością 9 x 100 MHz lub inaczej 900 MHz, co może być przyczyną potencjalnego niepowodzenia.

Potrzebna jest płyta główna, która pozwala ustawiać pośrednie wartości częstotliwości i to w jak najmniej­szych skokach. Wynika to stąd, że określony procesor jest przeważnie podatny na przetaktowywanie tylko w pewnym ograniczonym stopniu. Im mniejsze skoki przy zwiększaniu częstotliwości magistrali, tym bar­dziej prawdopodobne, że zostanie osiągnięta maksymalna dopuszczalna częstotliwość procesora, z którą działa jeszcze stabilnie. Przykładowo, płyta główna Asus P3V4X pozwala ustawić częstotliwości pracy magi­strali procesora o wartościach 66, 75, 83,90, 95, 100, 103, 105, 110, 112, 115, 120, 124. 133, 140 i 150 MHz. Poniżej przedstawiono częstotliwości uzyskane po przekroczeniu wartości 100 MHz dla procesora Pentium IIIE taktowanego zegarem 800 MHz.

Mnożnik częstotliwości (zablokowany)

Częstotliwość magistrali

Częstotliwość procesora

x8

100 MHz

800 MHz

x8

103 MHz

824 MHz

x8

105 MHz

840 MHz

x8

110 MHz

880 MHz

x8

112 MHz

896 MHz

x8

115 MHz

920 MHz

x8

120 MHz

960 MHz

x8

124 MHz

992 MHz

x8

133 MHz

1066 MHz

Podobnie poniżej zaprezentowano częstotliwości uzyskane po przekroczeniu wartości 66 MHz — standardo­wej częstotliwości pracy magistrali współpracującej z procesorem Celeron 600.

Mnożnik częstotliwości (zablokowany)

Częstotliwość magistrali

Częstotliwość procesora

x9

66 MHz

600 MHz

x9

75 MHz

675 MHz

x9

83 MHz

747 MHz

x9

90 MHz

810 MHz

x9

95 MHz

855 MHz

x9

100 MHz

900 MHz

Zazwyczaj jest uzyskiwany wzrost szybkości rzędu 10 - 20%, dlatego też przy zastosowaniu tego typu płyty głównej prawdopodobnie będzie możliwe uruchomienie procesora współpracującego z magistralą taktowaną zegarem 100 MHz lub nawet wyższym niż wynosi jego wartość nominalna.

Inny problem, który pojawia się wskutek zwiększenia częstotliwości pracy procesora, jest związany z wpływem takiej operacji na pozostałe magistrale znajdujące się na płycie głównej. Polega on na tym, że po zwiększeniu częstotliwości taktowania magistrali procesora o 10%, o taką samą wartość wzrośnie też prędkość magistrali AGP i PCI. wskutek czego zainstalowane w nich karty graficzne, sieciowe i inne mogą przestać działać sta­bilnie. Zjawisko to przebiega w różny sposób dla każdej płyty głównej, dlatego też konieczne jest rozważenie każdego przypadku jako unikalnego.

Przetaktowywanie procesorów współpracujących z gniazdem Socket A

Procesory Athlon i Duron firmy AMD — wyposażone w obudowę FC-PGA (ang. flip-chip pin grid array) i instalowane w gnieździe Socket A — mają specjalne lutowane mostki znajdujące się na zewnątrz obudowy. Po ich zmodyfikowaniu możliwa jest zmiana lub usunięcie blokady wewnętrznego mnożnika procesora. Tym sposobem można zwiększyć częstotliwość procesora bez konieczności zmiany częstotliwości pracy magistrali i wpływania na funkcjonowanie innych magistral i współpracujących z nimi kart.

Określony mnożnik częstotliwości jest ustawiany lub blokowany za pomocą niewielkiego lutowanego połą­czenia wykonanego pomiędzy dwoma punktami (stykami) umieszczonymi na zewnątrz procesora. Całkowite usunięcie blokady polega na połączeniu lub rozłączeniu odpowiednich punktów. Niestety, operacja usuwania lub dodawania takich połączeń jest trudna. W celu jej wykonania zwykle należy najpierw zidentyfikować miejsce, w którym zostanie utworzone połączenie, a następnie zamiast stosowania lutu trzeba wykonać połą­czenie dwóch punktów za pomocą farby przewodzącej (srebro lub miedź). Przykładowo, można wykorzystać specjalną farbę przewodzącą (miedź) sprzedawaną w niewielkich fiolkach w każdym sklepie z częściami sa­mochodowymi. Problem polega na tym, że styki są bardzo małe i jeśli — zamiast przeciwległych — zostaną połączone sąsiednie styki, wtedy może okazać się, że procesor nie działa. W razie konieczności, w celu usu­nięcia wykonanego mostka, należy posłużyć się specjalnym nożem grawerskim lub skalpelem. Jeśli nie za­chowasz ostrożności, możesz z łatwością uszkodzić procesor warty kilkaset złotych. Jeśli nie chcesz do tego dopuścić, lepiej spróbuj „podnieść" częstotliwość pracy magistrali. Zadanie to jest realizowane za pomocą narzędzia BIOS Setup i dokonane zmiany z łatwością mogą być cofnięte bez konieczności mechanicznej in­gerencji w konstrukcję procesora.

Ustawienie napięcia zasilania procesora

Kolejną operacją wykonywaną przez entuzjastów zwiększania wydajności procesora jest zmiana jego napięcia zasilania. Gniazda wszystkich nowszych modeli procesorów, włączając w to Slotl, Slot A, Socket 370, Socket 423, Socket 478 i Socket A, są wyposażone w automatyczną detekcję napięcia. Wykorzystując mechanizm detekcji polegający na odczytaniu określonych końcówek procesora, system określa i ustawia prawidłową war­tość napięcia zasilania. Niektóre płyty główne — przykładowo produkowane przez firmę Intel — nie umoż­liwiają ręcznej modyfikacji wartości napięcia. Inne płyty główne, takie jak wspomniana już Asus P3V4X, po­zwalają na zwiększanie lub zmniejszanie o dziesiętne części wolta wartości napięcia ustawionego w sposób automatyczny. Niektórzy eksperymentatorzy doszli do wniosku, że niewielkie zwiększenie lub zmniejszenie standardowej wartości napięcia pozwala osiągnąć wyższe częstotliwości przy operacji przetaktowywania pro­cesora, zachowując stabilność systemu.

Osobiście zalecam szczególną ostrożność w przypadku modyfikacji napięcia zasilania, ponieważ inaczej może to doprowadzić do uszkodzenia procesora. Nawet bez dokonywania zmiany napięcia, operacja przetaktowy­wania procesora ograniczona do modyfikacji częstotliwości magistrali procesora jest dość prosta i dająca spore korzyści. Pamiętaj, aby zaopatrzyć się w wysokiej jakości płytę główną, pamięć, a zwłaszcza dobrą obudowę wyposażoną w dodatkowe wentylatory i wydajny zasilacz. Aby uzyskać więcej informacji na temat wymiany zasilaczy i obudów zajrzyj do rozdziału 21., „Zasilacze i obudowy". W przypadku wykonywania przetakto­wywania szczególnie ważne jest, aby komponenty systemowe, a zwłaszcza procesor, były odpowiednio chło­dzone. Założenie na procesor trochę lepszego radiatora i dodanie do obudowy dodatkowych wentylatorów nigdy nie zaszkodzi, a w wielu przypadkach takie „wzmocnienie" całego systemu może się bardzo przydać.



Wyszukiwarka

Podobne podstrony:
(Art 98 a 100)
PM 100
001 Istota Marketingu i otoczenie
3616 001
Datasheet SL4 100
001
2980 001
I wojna swiatowa i Rosja 001
001
gruzlica 001
BVSOI 3 001 E en
1119155152 001
P27 001
2012 11 22 Document 001
Access to History 001 Gas Attack! The Canadians at Ypres, 1915
odejmowanie 100 10
0718 001
100

więcej podobnych podstron