Wymień stare komponenty na nowe.
Usuń usterki.
Tchnij w swój komputer nowe życie.
ROZBUDOWA i NAPRAWA
KOMPUTERÓW PC
WYDANIE XVI
Emersonowi
Prawdziwą próbą dla każdego wyboru
jest konieczność jego ponownego dokonania,
gdy dobrze się wie, ile może kosztować.
— Wyrocznia
Podziękowania
Nowa, 16. edycja książki jest kontynuacją długiej serii publikacji, której efektem jest najobszerniejsza i najbardziej aktualna tego typu pozycja dostępna na rynku. W porównaniu z poprzednimi wydaniami nowa edycja jest wynikiem przeprowadzonych na szeroką skalę dodatkowych badań. W osiągnięciu końcowego efektu pomogio mi kilka osób. W związku z tym chciałbym im podziękować.
Na początek pragnę szczególnie podziękować Lynn, mojej żonie i jednocześnie współpracownikowi. Przez ostatnie kilka lat Lynn znów uczyła się w pełnym zakresie, a także wspomagała mnie w prowadzeniu firmy. Ostatnio, uzyskując tytuł z zakresu multimediów i projektowania stron internetowych, ze znakomitym rezultatem zakończyła edukację (moje gratulacje!) Mając na względzie jej dokonania z ostatnich kilku lat, jestem z niej bardzo dumny. To. w jaki sposób była oddana swej pracy, było dla mnie inspiracją.
Podziękowania należą się Lisie Carlson z firmy Mueller Technical Research za pomoc w analizowaniu rynku komputerowego i administracji biurem. Lisa posiada fantastyczny zmysł organizacyjny, dzięki któremu zajęła się zarządzaniem obiegiem dokumentów firmy.
Muszę szczególnie podziękować Rickowi Kugnenowi z wydawnictwa Que. Rick był osobą odpowiedzialną za przyjmowanie przesyłanych przeze mnie materiałów i następnie zamianę ich na gotową książkę. Jego biuro jest jak świątynia poświęcona Rozbudowie i naprawie komputerów PC — zawiera wszystkie jej dotychczasowe edycje Jest to wyjątkowo rzadko spotykana kolekcja. Jego dbałość o szczegóły jest zadziwiająca. Rickowi zależy na książce i jej Czytelnikach do tego stopnia, że w pracach związanych z obsługą klienta często zajmuje się rzeczami, które daleko wykraczają poza zakres jego obowiązków. Rick cały czas poprawia rękopis i wciąż opracowuje metody podnoszące jakość końcowego produktu.
Dziękuję również mojemu nowemu wydawcy, którym jest Todd Green. Choć z książką tą nie miał jeszcze stycznosei, jest weteranem w branży wydawniczej i okazał się pomocny w doprowadzeniu obecnego wydania do końca.
Chciałbym również podziękować Toddowi Brakke'owi za wykonanie mnóstwa pracy związanej z korektą bieżącej edycji książki. Jego cenne rady i sugestie naprawdę w znaczącym stopniu pomogły mi uzyskać zwięzły i aktualny materiał. Dziękuję też ilustratorom, projektantom i redaktorom technicznym wydawnictwa Que, którzy swoją ciężką pracą przyczynili się do ukończenia i wydania tej pozycji! Jest to zespół wspaniałych osób wydających bezsprzecznie najlepsze książki informatyczne dostępne na rynku. Jestem szczęśliwy i dumny, że miałem okazję tak blisko z nimi współdziałać
Chciałbym także przekazać wyrazy wdzięczności Gregowi Wiegandowi, mojemu wydawcy, który wyraził zgodę na opublikowanie wszystkich książek i towarzyszących im materiałów multimedialnych z serii Rozbudowa i naprawa. Dziękuje mu też za to. że zaryzykował i wyraził zgodę na przygotowanie kolejnych książek, takich jak Rozbudowa i naprawa laptopów.
Wszyscy pracownicy wydawnictwa Que sprawili, że czułem się jak członek ich zespołu. Dziękuję im za to, że w procesie wydawania jak najlepszych książek ich zaangażowanie jest równe mojemu.
Chciałbym również podziękować Markowi Soperowi za wykonanie dodatkowej ekspertyzy tam, gdzie ja mógłbym potraktować temat zbyt ogólnie. Dziękuje też Markowi Reddinowi, który byl głównym redaktorem technicznym tej książki i który nie tylko wykazał, się wyjątkową gorliwością w sprawdzaniu szczegółów, ale także zgłosił kilka bardzo cennych propozycji dotyczących dodatkowych zagadnień, które można uwzględnić. Jego wkład okazał się niezmiernie istotny w zapewnieniu najwyższego poziomu dokładności wiedzy technicznej i stopnia omówienia zagadnień.
Szczególne wyrazy wdzięczności przekazuję Chrisowi Beahanowi, który bardzo pomógł mi w procesie korekty tekstu. Dziękuję też wszystkim Czytelnikom, którzy za pośrednictwem poczty elektronicznej przesłali mi swoje sugestie na temat książki. Mile widziane są wszelkie komentarze, a nawet słowa krytyki. Traktuję je poważnie i uwzględniam w nieustannie trwającym procesie udoskonalania książki. Szczególną satysfakcję sprawia mi udzielanie odpowiedzi na wiele pytań, które otrzymuję. Zadawane pytania ułatwiają mi zrozumienie, że są w książce zagadnienia wymagające większej przejrzystości, i wskazują dodatkowe tematy, które powinny zostać uwzględnione. Kontakt z Czytelnikami jest głównym czynnikiem, który wśród wszystkich dostępnych publikacji poświęconych sprzętowi komputerowemu pomaga utrzymać mi moją książkę na pozycji najbardziej aktualnej i uwzględniającej odpowiednie zagadnienia.
Chciałbym też podziękować tysiącom osób, które brały udział w moich seminariach. Być może nie zdajecie sobie nawet sprawy z tego, jak wiele nauczyłem się przy okazji każdego z waszych pytań!
W czasie wielu moich całonocnych sesji posiłkowałem się różnymi raczej niezbyt zdrowymi, ale za to bardzo smacznymi i energetycznymi produktami żywnościowymi i napojami. W szczególności przy okazji tego wydania wypiłem mnóstwo kawy Starbucks sporządzonej przy użyciu niesamowitego automatu do kawy Capresso (zupełny stan nirwany dla uzależnionych od kawy, takich jak ja), wiele skrzynek napoju Coke Classic (w żadnym razie Pepsi •— miałaby zły wpływ) oraz napoje energetyczne Red Buli i AMP. Jadłem też takie produkty, jak Troll Brite Crawler Eggs i Pearsoifs Salted NutRolls. W szczególnych sytuacjach, wymagających wyjątkowego wzmocnienia, piłem napój energetyczny Skeleteens Brain Wash. Tym sposobem wspomniałem o grupach produktów żywnościowych dla pracoholików i maniaków komputerowych opartych na trzech podstawowych składnikach, którymi są kofeina, cukier i sól!
Rzut oka na książkę
O Autorze 27
Współpracownicy i redaktorzy techniczni 29
Wprowadzenie 3 i
Rozdział 1. Historia powstania komputera osobistego 39
Rozdział 2. Komponenty, funkcje i typy komputerów 57
Rozdział 3. Typy i parametry mikroprocesorów 71
Rozdział 4. Płyty główne i magistrale 253
Rozdział 5. BIOS 457
Rozdział 6. Pamięć 521
Rozdział 7. Interfejs ATA/IDE 603
Rozdział 8. Interfejs SCSI 655
Rozdział 9. Świat urządzeń o zapisie magnetycznym 693
Rozdział 10. Dyski twarde 715
Rozdział 11. Napędy dyskietek 755
Rozdział 12. Nośniki wymienne o dużej pojemności 775
Rozdział 13. Pamięci optyczne 807
Rozdział 14. Instalowanie i konfigurowanie napędów dysków 901
Rozdział 15. Podsystem graficzny 935
Rozdział 16. Podsystem audio 10"05
Rozdział 17. Porty wejścia-wyjścia — od szeregowego i równoległego do IEEE 1394 i USB 1043
Rozdział 18. Urządzenia wejściowe 1075
Rozdział 19. Internet 1113
Rozdział 20. Sieć lokalna (LAN) 1155
Rozdział 21. Zasilacze i obudowy 1205
Rozdział 22. Montaż i modernizacja komputera 1259
Rozdział 23. Radykalne modyfikacje — przetaktowywanie, chłodzenie cieczą i udoskonalanie obudów.. 1301
Rozdział 24. Diagnostyka, testowanie i konserwacja komputera PC 1331
Rozdział 25. Systemy plików i odzyskiwanie danych 1401
Dodatek A Słownik 1469
Dodatek B Rozwiązywanie problemów — indeks 1553
Dodatek C Lista akronimów i skrótów 1581
Skorowidz 1597
Spis treści
O Autorze 27
Współpracownicy i redaktorzy techniczni 29
Wprowadzenie 31
Co nowego znalazło się w 16. edycji? 32
Czemu ma służyć ta książka? 33
Czy ta książka jest przeznaczona dla Ciebie? 33
Omówienie rozdziałów 34
Komentarz Autora 37
Rozdział 1. Historia powstania komputera osobistego 39
Historia maszyn cyfrowych przed powstaniem komputera osobistego 39
Chronologia 39
Kalkulatory mechaniczne 44
Pierwszy kalkulator mechaniczny 44
Maszyny elektroniczne 45
Nowoczesne komputery 46
Od lamp do tranzystorów 47
Układy scalone 48
Pierwszy mikroprocesor 48
Historia komputera osobistego 52
Narodziny komputera osobistego 52
Komputer osobisty firmy IBM 53
Przemysł komputerowy ponad 20 lat później 54
Rozdział 2. Komponenty, funkcje i typy komputerów 57
Czym jest komputer osobisty? .. 57
Kto dominuje na rynku oprogramowania komputerów PC? 58
Kto obecnie ma największy wpływ na rozwój sprzętu komputerowego? 60
Przewodnik po typach systemów PC 64
Typy komputerów 66
Komponenty komputera 69
Rozdział 3. Typy i parametry mikroprocesorów 71
Historia mikroprocesora przed pojawieniem się komputerów osobistych 71
Procesory produkowane po roku 1971 72
Parametry procesorów 75
Magistrala danych wejścia-wyjścia (I/O) 80
Magistrala adresowa 81
Rejestry wewnętrzne (wewnętrzna magistrala danych) 82
Tryby pracy procesora 83
Szybkość procesorów 88
Porównanie szybkości procesorów i płyt głównych 93
Szybkości procesorów Cyrix 97
Szybkości procesorów AMD 97
Przetaktowywanie 102
Pamięć podręczna (Cache) 105
Zasada działania pamięci podręcznej 106
Pamięć Cache Level 2 108
Funkcje procesorów 112
SMM (Zarządzanie energią) 113
Wykonywanie superskalarne 1 13
MMX 114
SSE, SSE2 i SSIJ 115
3DNow!. Enhanced 3DNow! i 3DNow! Professional 1 16
Dynamie Execution (Dynamiczne wykonywanie) 117
Architektura DIB 118
Technologia hiperwątkowości 119
Wytwarzanie procesorów 120
Fałszowanie procesorów 124
Obudowa PGA 126
Obudowy SEC i SEPP 127
Typy gniazd procesorów 129
Podstawka ZIF (Zero Insertion Force) 129
Gniazdo Socket I 13 1
Gniazdo Socket 2 132
Gniazdo Socket 3 133
Gniazdo Socket 4 134
Gniazdo Socket 5 135
Gniazdo Socket 6 135
Gniazdo Socket 7 i Super7 136
Gniazdo Socket 8 137
Gniazdo Socket 370 (PGA-370) 137
Gniazdo Socket 423 139
Gniazdo Socket 478 ■. 139
Gniazdo Socket A (Socket 462) 140
Gniazdo Socket 603 142
Gniazdo Socket 754 142
Gniazdo Socket 939 i Socket 940 142
Gniazdo Socket T 143
Gniazda procesorowe '44
Napięcia zasilania procesorów 145
Ciepło i problemy z jego odprowadzaniem 147
Koprocesory (jednostki zmiennoprzecinkowe) 148
Błędy procesora '3(*
Możliwości aktualizacji procesorów 151
Nazwy kodowe procesorów 151
Procesory kompatybilne z procesorami firmy Intel (AMD i Cyrix) 155
Procesory firmy AMD '55
Procesory firmy Cyrix '55
PI (086). Procesory pierwszej generacji '55
Procesory 8088 i 8086 '56
Procesory 80186 i 80188 '57
Koprocesor 8087 '57
P2 (286). Procesory drugiej generacji 157
Procesor 286 157
Koprocesor 80287 158
P3 (386). Procesory trzeciej generacji 159
Procesory 386 159
Procesor 386DX 160
Procesor 386SX 160
Procesor 386SL 161
Koprocesor 80387 161
P4 (486). Procesory czwartej generacji 162
Procesory 486 '62
Procesor 486DX 164
Procesor 486SL 165
Procesor 486SX 166
Koprocesor 487SX 167
Procesory DX2/OverDrive i DX4 167
Procesor Pentium OverDrive przeznaczony dla systemów 486SX2 i DX2 169
Procesor AMD 486 (5x86) 170
Procesor Cyrix/Tl 486 171
P5 (586). Procesory piątej generacji '71
Procesory Pentium '71
Procesor Pentium pierwszej generacji 175
Procesor Pentium drugiej generacji 176
Procesory Pentium-MMX '78
Defekty procesora Pentium 179
Procedura sprawdzająca obecność błędu koprocesora 180
Błędy związane z zarządzaniem energią 180
Modele i wersje procesora Pentium 181
Procesor AMD-K5 '82
Intel P6 (686). Procesory szóstej generacji 183
Dynamiczne wykonywanie 183
Architektura DIB 184
Inne ulepszenia procesorów szóstej generacji 184
Procesory Pentium Pro '85
Procesory Pentium II '89
Procesor Celeron 200
Procesor Pentium III 206
Procesor Pentium II lub III Xeon 214
Inne procesory szóstej generacji 214
Procesor NexGen Nx586 215
Procesory z serii AMD-K6 215
Procesory AMD Athlon, Duron i Athlon XP 219
Procesor AMD Duron 221
Procesor AMD Athlon XP 224
Procesor Athlon MP 226
Procesory Cyrix/IBM 6x86 (Ml) i 6x86MX (MII) 226
Procesor C3 firmy VIA 227
Procesory Intel Pentium 4 siódmej generacji 228
Pentium 4 Extreme Edition 230
Wymagania pamięciowe 231
Informacje na temat zasilaczy 231
Oznaczenia modeli procesorów Intel 239
Następcy procesora Pentium 4 240
Procesory ósmej generacji (64-bitowe rejestry) 241
Procesor Itanium i Itanium 2 241
AMD Athlon 64 i 64 IX 244
AMDOpteron 248
Aktualizacja procesora 248
Procesory w wersji OverDrive 249
Testy porównawcze procesorów 249
Metody identyfikacji problemów występujących w procesorach 250
Rozdział 4. Płyty główne i magistrale 253
Formaty płyt głównych 253
Komputery PC i XT 255
Format Full-size AT 256
Format Baby-AT 258
Format LPX 260
Format A1 X 262
Format MicroATX 270
Format FlexATX 271
Format 11 X i Mini-1TX 272
Format B IX 277
Format NLX 280
Format W IX 284
Formaty niestandardowe 286
Systemy Backplane 287
Komponenty płyty głównej 290
Gniazda procesora (Socket i Slot) 290
Chipsety 292
Rozwój chipsetów 292
Chipsety firmy Intel 294
Chipsety współpracujące z procesorami AMD Athlon i Duron 296
Tradycyjna architektura mostka północnego i południowego 297
Architektura koncentratora 298
Połączenia o dużej szybkości między mostkiem północnym i południowym 300
Pierwsze chipsety firmy Intel dla płyt głównych klasy 386/486 302
Chipsety piątej generacji (klasa P5 Pentium) 302
Intel 4301 .X (Mercury) 303
Intel 430NX (Neptune) 304
Intel 430FX (Triton) 305
Intel 4301IX (Triton II) 306
Intel 430VX (Triton III) 307
Intel 430TX 308
Chipsety innych producentów współpracujące z procesorami Pentium 308
Chipsety szóstej generacji (procesory P6 Pentium Pro/II/III) 309
Intel 450KX/GX (Orion Workstation Sener) 311
Intel 440FX (Natoma) 311
Intel 440LX 314
Intel 440EX 314
Intel 440BX 315
Intel 440ZX i 440ZX-66 316
Intel 440GX 316
Intel 450NX 316
Intel 810, 810E i 810E2 317
Chipsety Intel 815 320
Intel 820 i 820E 323
Intel 840 325
Chipsety klasy P6 innych producentów 327
Chipsety siódmej generacji obsługujące procesor Pentium 4 330
Chipsety Intel 850....' 335
Chipsety Intel 845 335
Chipsety Intel 865 338
Chipset Intel 875P 338
Chipsety Intel 915 339
Chipset Intel 925X 340
Chipsety innych firm zgodne z procesorem Pentium 4 340
Chipsety firmy SiS 340
Chipsety firmy ALi Corporation 344
Chipsety firmy Al 1 346
Chipsety firmy VIA 347
Chipsety zgodne z procesorami Athlon, Duron i Athlon XP 352
Chipsety firmy AMD zgodne z procesorami Athlon i Duron 352
Chipsety firmy VIA przeznaczone dla procesorów Athlon, Duron i Athlon XP 354
ProSavage KM 133 358
Chipsety firmy Silicon Integrated Systems zgodne z procesorami AMD Athlon i Duron 361
Chipset ALiMagikl dla procesorów Athlon i Duron 367
Chipsety nForce firmy NV1DIA przeznaczone dla procesorów Athlon, Duron i Athlon XP 368
Chipsety Radeon IGP firmy ATI przeznaczone dla procesorów Athlon, Duron i Athlon XP 369
Chipsety firmy Intel przeznaczone dla procesorów Pentium 4 i Xeon 370
Chipset Intel 860 370
Chipset Intel E7205 372
Chipset Intel E7505 372
Chipsety przeznaczone dla procesora Athlon 64 373
Chipset AMD 8000 (8151) 376
Chipsety firmy ALi dla procesora Athlon 64 379
Chipsety firmy VIA Technologies dla procesora Athlon 64 379
Chipsety firmy WIDIA 382
Chipsety firmy SiS 383
Chipsety firmy ATI 386
Układy Super I/0 386
Adresy układu CMOS RAM 388
Złącza płyty głównej 388
Typy magistrali systemowych, ich funkcje i właściwości 396
Magistrala procesora (FSB) 402
Magistrala pamięci 407
Gniazda rozszerzeń 407
Rodzaje magistral I/O 408
Magistrala ISA 408
Magistrala Micro Channel 412
Magistrala EISA 412
Magistrale lokalne 414
Magistrala VESA Local Bus 416
Magistrala PCI 417
Magistrala PCI Express 420
Magistrala AGP (Accelerated Graphics Port) 423
Zasoby systemowe 425
Przerwania 426
Kanały DMA 434
Adresy portów I/0 435
Rozwiązywanie konfliktów zasobów 439
Ręczne rozwiązywanie konfliktów zasobów 440
Zastosowanie szablonu konfiguracji systemu 441
Karty specjalne — omówienie problemów 445
Systemy Pług and Play 449
Kryteria doboru płyt głównych (jeśli wiesz, czego szukasz) 451
Dokumentacja 454
Komponenty pracujące z zawyżoną częstotliwością 455
Rozdziaf 5. BIOS 457
Podstawowe informacje o BlOS-ie 457
BIOS — urządzenia i oprogramowanie 460
BIOS płyty głównej 462
ROM ' 463
Cieniowanie pamięci ROM (ROM shadowing) 465
Rodzaje pamięci ROM 465
Producenci układów ROM BIOS 470
Aktualizacja BIOS-u 476
Gdzie szukać aktualizacji BIOS-u? 478
Identyfikacja wersji BIOS-u 478
Odczytanie daty BIOS-u 479
Tworzenie kopii zapasowej BIOS-u 479
Tworzenie kopii zapasowej konfiguracji CMOS BIOS 480
Układy Flash BIOS ' '. 481
Adresy pamięci CMOS RAM płyty głównej 486
Wymiana układu BIOS ROM 488
BIOS i problemy związane z rokiem 2000 489
Środowisko przeduruchomieniowe 489
Omówienie ustawień CMOS 491
Uruchomienie i dostęp do programu BIOS Setup 491
Menu programu BIOS Setup 492
Menu Maintenance 493
Menu Main 493
Menu Advanced 495
Menu Security 506
Menu Power Management 508
Menu Boot (kolejność użycia urządzeń inicjalizujących) 509
Menu Exit 510
Dodatkowe opcje programu BIOS Setup 511
BIOS Pług and Play 513
Numery identyfikacyjne urządzeń PnP 513
ACPI .' 513
lnicjalizacja urządzenia PnP 514
Komunikaty błędów BIOS-u 515
Podstawowe tekstowe komunikaty o błędach generowane przez BIOS w trakcie inicjalizacji 516
Komunikaty ROM BIOS informujące o niepowodzeniu inicjalizacji systemu operacyjnego
(nieodnalezieniu poprawnego rekordu MBR) 516
Rozdział 6. Pamięć 521
Podstawowe wiadomości o pamięci 521
ROM 523
DRAM 524
Pamięć podręczna SRAM 525
Typy pamięci RAM 529
FPM (Fast Page Mode) DRAM 533
EDO (Extended Data Out) RAM 534
SDRAM 535
DDR SDRAM 537
DDR2 SDRAM 538
RDRAM 539
Moduły pamięci 542
Moduły SIMM, DIMM i RIMM 543
Rozmieszczenie końcówek modułu SIMM 548
Rozmieszczenie końcówek modułu DIMM 551
Rozmieszczenie końcówek modułu DDR DIMM 553
Rozmieszczenie końcówek modułu DDR2 DIMM 555
Rozmieszczenie końcówek modułu RIMM 557
Pojemność i organizacja fizycznej pamięci RAM 560
Banki pamięci 563
Szybkość modułów pamięci 564
Złoto lub cyna 565
Kontrola parzystości i kod korekcji błędów ECC 568
Rozszerzanie pamięci komputera 57ó
Możliwe strategie rozszerzania pamięci 576
Wybór i instalacja pamięci 577
Rozwiązywanie problemów związanych z pamięcią 582
Procedura identyfikująca defekt pamięci 585
Organizacja logiczna pamięci komputera 587
Pamięć konwencjonalna (podstawowa) 589
Pamięć górna (UMA) 590
Pamięć powyżej pierwszego megabajta (extended memory) 596
Zapobieganie konfliktom pomiędzy obszarami pamięci ROM BIOS i ich nakładaniu się 598
Cieniowanie pamięci ROM (ROM shadowing) 599
Całkowita wielkość pamięci a pamięć dostępna dla programów 599
Konfiguracja i optymalizacja pamięci kart 600
Rozdział 7. Interfejs ATA/IDE 603
Omówienie interfejsu IDE 603
Poprzednicy IDE 603
Rodowód interfejsu IDE 604
Wersje magistrali IDE 605
Rodowód interfejsu ATA 606
Standardy ATA 608
ATA-1 609
ATA-2 609
ATA-3 610
ATA/ATAPI-4 61 1
ATA/ATAPI-5 612
ATA/ATAPI-6 613
ATA/ATAPI-7 614
SATA/ATAPI-8 614
Interfejs równoległy ATA 615
Złącze równolegle ATA 615
Kabel danych równoległego interfejsu ATA 617
Kable dłuższe i „zaokrąglone" 619
Sygnały równoległego interfejsu ATA 620
Konfiguracja z dwoma dyskami ATA 620
Tryby przesyłu danych PIO równoległego interfejsu ATA 623
Tryby DMA równoległego interfejsu ATA 623
Interfejs Serial ATA 625
Złącza i kable Serial ATA 626
Konfiguracja urządzeń Serial ATA 627
Serial ATA II 629
Advanced Host Controller Interface 630
Transfery danych interfejsu Serial ATA 630
Funkcje interfejsu ATA 631
Polecenia ATA 631
ATA Security Mode 632
Host Protected Area 633
Interfejs pakietowy ATA 634
Ograniczenia pojemności dysku ATA 635
Prefiksy dla wielokrotności dziesiętnych i binarnych 635
Ograniczenia BIOS-u 635
CHS kontra LBA 637
Konwersje CHS-LBA i LBA-CHS 638
Polecenia BIOS a polecenia ATA 639
Ograniczenia CHS (bariera 528 MB) 640
Translacja CHS (łamanie bariery 528 MB) 641
Bariera 2,1 GB 643
Bariera 4.2 GB 643
Translacja korzystająca z LBA 645
Bariera 8,4 GB .' 647
Bariera 137 GB i powyżej 648
Ograniczenia związane z systemami operacyjnymi i innym oprogramowaniem 650
ATA RAID 651
Rozdział 8. Interfejs SCSI 655
Smali Computer System Interface 655
SCSI kontra ATA 657
Historia i budowa dysków twardych SCSI 657
Standard SCSI ANS1 661
SCSI-1 663
SCSI-2 663
SCSI-3 666
SPI lub Ultra SCSI 667
SPI-2 i Litra: SCSI 667
SPI-3 lub Ultra3 SCSI (UltralóO) 670
SPI-4 lub Ultra4 SCSI (Ultra320) 671
SPI-5 lub Ultra5 SCSI (Ultra640) 672
Serial Attached SCSI 673
Macierze dyskowe RAID 674
Fibrę Channel SCSI 674
iSCSI 675
Kable i złącza SCSI 675
Funkcje pinów złączy i kabli równoległego interfejsu SCSI 678
Kable i złącza asymetrycznego SCSI 678
Sygnały High Yokage Differential SCSI 680
Ekspandery 682
Zakańczanie magistrali 683
Konfiguracja napędu SCSI 684
Polecenie Start on Command (opóźnione uruchamianie) 687
Parzystość SCSI 687
Zasilanie terminatorów 687
Negocjacja synchroniczna 688
Pług and Play SCSI 688
Rozwiązywanie problemów z konfiguracją SCSI 689
Porównanie wydajności interfejsów SCSI i ATA — zalety i ograniczenia 690
Zalecane host adaptery SCSI, kable i terminatory 691
Rozdział 9. Świat urządzeń o zapisie magnetycznym 693
Zapis magnetyczny 693
Historia zapisu magnetycznego 694
Wykorzystanie pól magnetycznych do przechowywania danych 694
Rodzaje głowic odczytująco-zapisujących 698
Głowice ferrytowe 698
Głowice Metal-In-Gap 699
Głowice cienkowarstwowe 699
Głowice magnetorezystywne 699
Głowice magnetorezystywne drugiej generacji (GMR) 701
Zapis prostopadły 702
Ślizgacze głowic 703
Schematy kodowania danych 705
Kodowanie FM 706
Kodowanie MFM 706
Kodowanie RLL 707
Porównanie schematów kodowania 708
Dekodery Partial-Response, Maximum-Likehood 709
Mierzenie pojemności 710
Gęstość powierzchniowa 710
Zwiększanie gęstości powierzchniowej za pomocą „czarodziejskiego pyłu" 713
Rozdział 10. Dyski twarde 715
Definicja dysku twardego 715
Rozwój dysków twardych 716
Działanie dysku twardego 717
Analogia obrazująca technologię dysków twardych 718
Ścieżki i sektory 719
Formatowanie dysku 722
Podstawowe części dysku twardego 726
Talerze dysku twardego (dyski) 727
Nośniki zapisu 728
Głowice odczytująco-zapisujące 730
Mechanizm pozycjonera głowicy 73 1
Filtry powietrzne 738
Aklimatyzacja termiczna dysków 739
Silniki '. 740
Płytka z układami logicznymi 741
Kable i złącza 741
Elementy konfiguracyjne 742
Płyta czołowa lub ramka 742
Własności dysku twardego 743
Pojemność 743
Wydajność 746
Niezawodność 751
Cena 754
Rozdział 11. Napędy dyskietek 755
Podstawowe informacje na temat dyskietek 755
Interfejsy napędu dyskietek 756
Elementy napędu 756
Głowice odczytująco-zapisujące 756
Pozycjoner dysku 759
Silnik napędowy 759
Płyta z układami 760
Kontroler 760
Ptyta czołowa 761
Złącza 761
Kabel kontrolera napędu dyskietek 762
Fizyczna specyfikacja dyskietek i ich działanie 765
Sposób wykorzystania dyskietki przez system operacyjny 765
Cylindry 767
Klastry lub jednostki alokacji 767
Sygnał Disk Change 767
Typy napędów dyskietek 768
Napędy 1,44 MB 3,5 cala 768
Inne typy napędów dyskietek 769
Budowa dyskietki 3,5 cala 770
Specyfikacja typów nośników dyskietek 771
Środki ostrożności przy obsłudze dyskietek i napędów dyskietek 771
Lotniskowe urządzenia rentgenowskie i wykrywacze metalu 772
Procedury instalacji napędów 773
Rozdział 12. Nośniki wymienne o dużej pojemności 775
Rola napędów nośników wymiennych 775
Dodatkowa pamięć dyskowa 775
Tworzenie kopii zapasowych 776
Porównanie technologii zapisu danych na dyskach, taśmach i w pamięci Flash 776
Dyski magnetyczne 777
Taśma magnetyczna 777
Pamięci Flash 777
Interfejsy dla napędów nośników wymiennych 777
Przegląd napędów wymiennych nośników magnetycznych 778
Iomega Zip 779
LS-120 i LS-240 SuperDisk 780
Napędy dysków wymiennych o pojemności dysku twardego 780
..Osierocone" napędy dysków wymiennych 781
Napędy magnetooptyczne 781
Technologia magnetooptyczna 781
Porównanie MO do „czystych" nośników magnetycznych 782
Kluczowe kryteria wyboru napędu wymiennych nośników 783
Urządzenia z kartami pamięci Flash 784
Jak działa pamięć Flash? 784
Typy pamięci Flash 784
Przenoszenie danych z pamięci Flash do komputera 789
Technologia Microdrive 791
Napędy taśm 791
Alternatywne do napędów taśm urządzenia korzystające z dysku twardego 793
Wady napędów taśm 793
Zalety napędów taśm 794
Najczęściej stosowane standardy napędów taśm 794
Porównanie technologii tworzenia kopii na taśmach 800
Wybór odpowiedniego napędu taśm 800
Instalacja napędu taśm 803
Oprogramowanie do obsługi napędów taśm 803
Rozwiązywanie problemów z napędami taśm 804
Poprawianie naciągu taśmy 806
Rozdział 13. Pamięci optyczne 807
Technologie optyczne 807
Dyski optyczne CD 808
Krótka historia dysku CD 808
Technologia i budowa dysku CD-ROM 809
Zasady obchodzenia się z nośnikami optycznymi 820
DVD 821
Historia DVD 822
Technologia i budowa dysku DVD 822
Ścieżki i sektory DVD 823
Obsługa błędów 827
Pojemność DVD (strony i warstwy) 828
Kodowanie danych na dysku 831
Dyski Blu-ray 83 1
!ll)-l)\ I) 833
Formaty dysków optycznych 833
Formaty napędów i ptyt CD 833
Systemy plików CD-ROM 843
Standardy i formaty DVI) 848
Zabezpieczenia przed kopiowaniem 851
Napędy CD i DVI) — specyfikacje 854
Specyfikacja wydajności 854
Interfejsy 862
Mechanizm ładujący 865
Inne własności napędów 866
Zapisywalne dyski CD 867
CD-R 868
CD-RW 872
Specyfikacja MultiRead 874
Jak niezawodnie zapisywać dyski CD? 876
Programy do zapisu CD 879
Cyfrowy odczyt dźwięku 880
Dyski CD-R i CD-RW ..tylko do zapisu muzyki" 882
Zabezpieczenie przed kopiowaniem CD 882
Standardy zapisywalnych dysków DVD 883
DVD-RAM 884
DVD-R 886
DVD-RW 886
DVI) • RW 887
Wieloformatowe napędy wielokrotnego zapisu 890
Instalacja i obsługa napędów CD i DVD oraz współpracującego z nimi oprogramowania 890
Ładowanie systemu z dyskietki z obsługą napędu CD/DVD 891
Napędy rozruchowe CD i DVI) — El Torito 893
Tworzenie ratunkowego dysku CD 893
Tworzenie startowego ratunkowego dysku CD/DVD 894
Wykrywanie usterek w napędach optycznych 894
Aktualizowanie oprogramowania sprzętowego napędu CD-RW lub DVD z możliwością
wielokrotnego zapisu 897
Rozdział 14. Instalowanie i konfigurowanie napędów dysków 901
Różne typy napędów dysków 901
Procedura instalowania dysku twardego 901
Konfigurowanie dysku 902
Konfigurowanie kontrolera dysku 902
Fizyczna instalacja dysku 904
Konfigurowanie komputera do współpracy z dyskiem 910
Formatowanie dysku 910
Formatowanie niskiego poziomu (Low-Level Formatting) 911
Zakładanie partycji na dysku 913
Formatowanie wysokiego poziomu 921
Ograniczenia programów FD1SK i FORMAT 922
Wymiana dysku twardego 924
Migracja w środowisku MS-DOS 924
Migracja w środowisku 9x/Me 924
Rozwiązywanie problemów z dyskiem twardym 925
Testowanie dysku 926
Instalowanie napędu dysków optycznych 926
Konflikty między urządzeniami 927
Konfigurowanie stacji dysków 927
Przyłączanie stacji zewnętrznej (SCSI) 929
Przyłączanie stacji wewnętrznej 930
Wewnętrzny kabel SCSI i złącze krawędziowe 930
Łańcuchy SCSI — wewnętrzny i zewnętrzny 93 1
Instalowanie stacji dyskietek 932
Rozdział 15. Podsystem graficzny 935
Sposoby wyświetlania obrazu 935
Budowa monitorów komputerowych 935
DVI — cyfrowa komunikacja z monitorem 937
Wyświetlacze ciekłokrystaliczne (LCD) 938
Projektory LCD i DLP 944
Wyświetlacze plazmowe 945
Typy kart graficznych 945
Kryteria wyboru monitora 946
Właściwy rozmiar 947
Rozdzielczość 948
Wielkość piksela (monitory kineskopowe) 950
Jasność i kontrast obrazu (panele LCD) 952
Przeplot 952
Zarządzanie energią i normy bezpieczeństwa 952
Częstotliwości 955
Regulacja obrazu 958
Testowanie monitora 959
Konserwacja monitora 960
Karty graficzne 961
Starsze odmiany kart graficznych 962
Współczesne karty graficzne 962
Super VGA 963
Standardy SVGA wyznaczone przez VESA 964
Karta zintegrowana i chipset płyty głównej 964
Elementy karty graficznej 966
Identyfikacja chipsetów graficznych i płyty głównej 968
Pamięć RAM karty graficznej 969
Konwerter cyfrowo-analogowy (DAC) 973
Magistrala rozszerzeń 974
Program obsługi karty graficznej 976
Obsługa wielu monitorów 978
Akceleratory grafiki 3D 981
Jak działają akceleratory 3D? 981
Popularne techniki 3D 983
Zaawansowane techniki 3D 984
Interfejsy programowania aplikacji 987
Chipsety 3D 988
Rozbudowa i wymiana karty graficznej 992
Tuner TV i urządzenie przechwytywania wideo 992
Gwarancja i serwis 993
Porównywanie kart graficznych o tym samym chipsecie 993
Karty graficzne w zastosowaniach multimedialnych 993
Wewnętrzne złącza wideo 994
Wyjście wideo 995
Urządzenia do przechwytywania wideo 996
Karty wideo 996
Problemy z kartą graficzną lub monitorem 999
Rozwiązywanie problemów z monitorami 1001
Rozwiązywanie problemów z kartami graficznymi i ich sterownikami 1002
Rozdział 16. Podsystem audio 1005
Wczesne karty audio 1005
Zgodność z Sound Blaster Pro 1006
Karty audio i DirectX 1006
PC i multimedia — przegląd historyczny 1007
Cechy karty audio 1007
Złącza podstawowe 1007
Złącza dodatkowe 1010
Regulacja głośności 1014
Obsługa standardu MIDI 1014
Kompresja danych 1015
Uniwersalne cyfrowe procesory sygnałowe 1016
Programy obsługi 1016
Wybór karty audio 1017
Gry 1017
Filmy DVI) 1018
Rozpoznawanie mowy i sterowanie głosem 1019
Twórcy zapisu dźwiękowego 1019
Odtwarzanie i zapisywanie plików dźwiękowych 1020
Pojęcia i terminy 1021
Struktura dźwięku 1021
Określanie jakości karty audio 1021
Próbkowanie 1022
Przegląd producentów 1023
Producenci chipsetów sprzedający własne karty 1023
Producenci chipsetów 1025
Chipsety płyt głównych ze zintegrowanymi układami audio 1026
AOpen TubeSound '028
Dźwięk 3D 1029
Dźwięk pozycyjny 1029
Przetwarzanie dźwięku 3D 1031
Zgodność z DirectX '031
Instalowanie karty dźwiękowej 1031
Przyłączenie głośników i kończenie instalacji 1033
Zestaw stereo zamiast głośników 1033
Problemy z kartą dźwiękową 1035
Konflikty zasobów 1035
Inne problemy z kartą lub zintegrowanym układem dźwiękowym 1035
Głośniki 1039
Dźwięk kinowy i dźwięk otoczenia („surround") 1041
Mikrofony 1042
Rozdział 17. Porty wejścia-wyjścia — od szeregowego i równoległego do IEEE 1394 i USB 1043
Wprowadzenie 1043
USB i IEEE 1394 (i.Link/FireWire) 1043
Dlaczego szeregowe? 1043
Universal Serial Bus (USB) 1044
IEEE 1394 1053
Porównanie IEEE 1394 i USB 1.1/2.0 1057
Standardowe porty szeregowe i równoległe 1058
Porty szeregowe 1058
Typowe lokalizacje portów szeregowych 1059
Układy U ART 1061
Karty portów szeregowych o dużej szybkości 1063
Porty szeregowe na płycie głównej 1063
Konfiguracja portu szeregowego 1064
Testowanie portów szeregowych 1065
Porty równoległe 1067
Standard portu szeregowego IEEE 1284 1068
Instalowanie portów EPP i ECP 1071
Konfiguracja portu równoległego 1071
Łączenie komputerów przy użyciu portów szeregowych lub równoległych 1072
Konwertery port równoległy-SCSl 1074
Testowanie portów równoległych 1074
Rozdział 18. Urządzenia wejściowe 1075
Klawiatury 1075
Klawiatura rozszerzona (101 lub 102 klawisze) 1075
Klawiatura Windows (104 klawisze) 1076
Klawiatury USB 1078
Klawiatury komputerów przenośnych 1079
Opcja Num Lock ' 080
Konstrukcja klawiatur '081
Przełączniki '081
Interfejs klawiatury '085
Automatyczne powtarzanie wciśnięć '087
Numery i odpowiedniki kodowe klawiszy '087
Układ klawiatury międzynarodowej '088
Złącza klawiatury i myszy '088
Klawiatury specjalne 1090
Naprawianie i rozwiązywanie problemów związanych z klawiaturą 1091
Czyszczenie klawiatury '092
Wybór klawiatury '093
Urządzenia wskazujące '094
Mysz kulkowa ' 095
Mysz optyczna '096
Interfejsy urządzeń wskazujących 1098
Problemy z myszą ' '00
Pokrętła 1102
IrackPoitU II III IV "02
Alternatywy dla myszy i trackpointu ' '05
Trackballe 1 '06
3M Ergonomie Mouse 1106
Urządzenia wejściowe gier 1 107
Joysticki analogowe i port gier 1107
Port USB jako port gier 1107
Zgodność 1 '08
Bezprzewodowe urządzenia wejściowe 1108
Działanie bezprzewodowych urządzeń wejściowych 1108
Korzystanie z bezprzewodowych urządzeń wskazujących 1111
Problemy z urządzeniami bezprzewodowymi 1112
Rozdział 19. Internet 1113
Sieć internet a sieć LAN 1113
Dostęp szerokopasmowy a dostęp modemowy 1114
Dostęp szerokopasmowy — typy połączeń 1115
Większa szybkość = mniej wolności 1115
Sieci komputerowe telewizji kablowej 1116
Modem kablowy 1116
Sieć telewizji kablowej 1116
Pasmo przenoszenia telewizji kablowej 1118
Wydajność sieci kablowych 1119
Zabezpieczenia połączeń CATV 1120
Digital Subscriber Line (DSL) 1120
Zasada działania DSL 1121
Kto może używać DSL? 1121
Podstawowe odmiany DSL 1122
Ceny DSL 1124
Zabezpieczenia komunikacji DSL 1124
Problemy techniczne 1125
Stacjonarne połączenia bezprzewodowe 1125
Połączenia satelitarne — DirecWAY i StarBand 1126
DirecWAY "26
StarBand 1127
Rzeczywista wydajność połączenia satelitarnego 1127
Integrated Services Digital Network (ISDN) 1128
Jak działa ISDN? 1128
Zakup usługi ISDN 1129
Wyposażenie do komunikacji ISDN 1130
Porównywanie wysoko wydajnych usług internetowych 1130
Opcja awaryjna ' 132
Łącza dzierżawione 1132
Tl i T3 I '32
Porównywanie konwencjonalnych usług komunikacyjnych 1133
Zabezpieczanie połączenia internetowego 1134
Modemy asynchroniczne ' 134
Standardy modemowe "36
Szybkość w bitach i w bodach "37
Standardy modulacji 1137
Protokoły korekcji błędów 1139
Standardy kompresji danych 1139
Standardy firmowe ' '40
Modemy 56K "40
Ograniczenia połączeń 56K "41
Standardy 56K 1142
Standardy faksmodemów "44
Wybór modemu ' '44
Udostępnianie połączenia internetowego 1148
Brama, serwer proxy, router 1149
Udostępnianie połączenia przy użyciu routera 1149
Problemy z połączeniami internetowymi 1150
Diagnozowanie problemów z połączeniem udostępnianym 1151
Korzystanie z diod sygnalizacyjnych 1152
Modem nie wybiera numeru 1152
Komputer „zawiesza się" po zainstalowaniu lub w trakcie używania wewnętrznego modemu,
adaptera ISDN lub karty sieciowej 1153
Komputer nie wykrywa modemu zewnętrznego 1153
Dźwięk z głośnika modemu 1154
Rozdział 20. Sieć lokalna (LAN) 1155
Zagadnienia 1155
Wprowadzenie 1 155
Typy sieci 1156
Podstawowe wymagania 1157
Sieci klient-serwer a sieci równorzędne 1157
Sieci klient-serwer 1157
Sieci komputerów równorzędnych 1158
Porównanie sieci typu klient-serwer i sieci równorzędnych 1 159
Przegląd protokołów sieciowych 1159
Ethernet 1161
Wyposażenie sprzętowe sieci 1162
Karty sieciowe 1162
Okablowanie sieci 1 166
Topologie sieci 1167
Koncentratory i przełączniki sieci Ethernet 1170
Okablowanie sieci 1174
Wybór okablowania 1174
Samodzielny montaż okablowania 1176
Standardy sieci bezprzewodowych 1181
Wi-Fi — standard standardu 1182
Urządzenia sieciowe 802.11 1 185
Bluetooth 1188
Logiczne topologie sieci bezprzewodowych 1189
Protokoły sieciowe 1190
1P i TCP/IP 1190
IPX 1191
NetBEUI 1192
Inne systemy sieci domowych I '92
HomePNA 1192
Sieci korzystające z instalacji elektrycznej 1194
Sieci domowe a sieci Ethernet z okablowaniem UTP 1195
Instalowanie sieci 1196
Karta sieciowa ' 196
Kable sieciowe i połączenia między komputerami 1198
Koncentrator, przełącznik, punkt dostępowy 1198
Bramy w sieciach nieethernetowych 1 '98
Rejestrowanie informacji o sieci 1198
Instalowanie oprogramowania sieciowego 1199
Wskazówki praktyczne 1201
Instalowanie '201
Udostępnianie zasobów 1201
Konfigurowanie zabezpieczeń 1202
Udostępnianie połączenia internetowego 1202
Bezpośrednie połączenie kablowe 1202
Rozwiązywanie problemów z siecią 1202
Konfiguracja oprogramowania sieciowego 1202
Awaria sieci 1203
TCP/IP 1203
Rozdział 21. Zasilacze i obudowy 1205
Jakie znaczenie ma zasilacz? 1205
Zasada działania i funkcje zasilacza 1205
Napięcia dodatnie 1205
Napięcia ujemne 1206
Sygnał Power Good 1207
Format (rozmiar) zasilacza 1208
PC X I 1209
AT/Desk 1210
Al Tower 1211
Baby-AT 1211
LPX 1211
ATX 1213
NLX 1214
SFX 1215
Złącza zasilania płyty głównej 1217
Złącza AT 1217
Złącze główne Al X (A IX Main) 1218
Złącze pomocnicze ATX (ATX Auxilliary) 1219
ATX12V 1220
Architektura A IX firmy Dell 1222
Wyłączniki zasilania 1224
Złącza zasilania urządzeń peryferyjnych 1226
Złącza urządzeń peryferyjnych i stacji dyskietek 1226
Numery części '228
Parametry techniczne zasilaczy 1229
Obciążenie zasilacza '229
Parametry zasilacza 1230
Inne parametry zasilaczy 1231
Korekcja współczynnika mocy 1233
Certyfikaty bezpieczeństwa zasilaczy 1234
Obliczanie poboru mocy 1235
Włączanie i wyłączanie zasilania 1238
Zarządzanie zasilaniem 1239
Komputery Energy Star 1240
Advanced Power Management (APM) 1240
Advanced Configuration and Power Interface (ACPI) 1241
Problemy z zasilaczem 1241
Przeciążenie zasilacza '242
Niewystarczające chłodzenie '243
Cyfrowy miernik uniwersalny '244
Specjalistyczne wyposażenie diagnostyczne 1246
Naprawianie zasilacza 1247
Kupowanie zasilacza 1248
Wybieranie właściwego modelu 1248
Wybór producenta zasilacza '248
Obudowa '249
Obudowy specjalne ' 250
Systemy zabezpieczania zasilania 1250
Eliminatory skoków napięcia (filtry przeciwprzepięciowe) 1252
Eliminatory skoków napięcia linii telefonicznej 1253
Stabilizatory napięcia 1253
Podtrzymywanie zasilania 1253
Baterie RTC W RAM (CMOS RAM) 1256
Rozdział 22. Montaż i modernizacja komputera 1259
Podzespoły 1259
Obudowa i zasilacz 1260
Procesor 1262
Płyta główna 1264
Stacja dyskietek i stacje dysków wymiennych 1269
Dyski twarde 1269
Stacje dysków optycznych 1270
Urządzenia wejściowe 1271
Karta graficzna i monitor 1272
Karta dźwiękowa i głośniki 1273
Akcesoria 1273
Zasoby sprzętowe komputera i oprogramowanie 1275
Montaż i demontaż podzespołów komputera 1276
Przygotowanie 1276
Instalowanie płyty głównej 1280
Instalowanie procesora i układu chłodzenia 1280
Instalowanie modułów pamięci 1282
Montowanie płyty głównej w obudowie 1283
Podłączanie zasilacza 1287
Podłączanie portów i urządzeń 1289
Instalowanie stacji i dysków 1290
Demontaż karty graficznej 1292
Instalowanie karty graficznej i sterowników 1292
Instalowanie innych kart rozszerzeń 1293
Zakładanie obudowy i podłączanie kabli zewnętrznych 1294
Uruchamianie programu konfiguracyjnego BIOS-u płyty głównej 1294
Problemy z uruchomieniem komputera 1295
Instalowanie systemu operacyjnego 1295
Zakładanie partycji dysku w przypadku systemów DOS i Windows 9x/Me 1296
Formatowanie dysku w przypadku systemów DOS i Windows 9x/Me 1296
Przygotowanie dysku w przypadku systemu Windows 2000/XP 1296
Lądowanie sterownika stacji CD-ROM 1297
Instalacja ważnych sterowników 1298
Dalsza rozbudowa komputera '298
Rozdział 23. Radykalne modyfikacje
— przetaktowywanie, chłodzenie cieczą i udoskonalanie obudów 1301
Przetaktowywanie '302
Kwarc '302
Historia przetaktowywania '304
Zegary w nowoczesnych komputerach PC 1305
Przetaktowywanie w praktyce '307
Prędkości magistrali oraz mnożniki '308
Chłodzenie '308
Układy chłodzenia '308
Chłodzenie cieczą '3'6
Obudowy zoptymalizowane termicznie 1320
Panele czołowe z portami wejścia-wyjścia oraz innymi akcesoriami 1327
System FrontX 1327
Inne akcesoria przeznaczone do montażu w panelach czołowych 1328
Rozdział 24. Diagnostyka, testowanie i konserwacja komputera PC 1331
Diagnostyka komputera PC 1331
Oprogramowanie diagnostyczne 1331
Test startowy komputera (POST) 1332
Programy diagnostyczne urządzeń 1343
Uniwersalne programy diagnostyczne 1344
Narzędzia diagnostyczne systemu operacyjnego 1344
Proces uruchamiania komputera 1345
Proces uruchamiania się komputera — zdarzenia niezależne od systemu operacyjnego 1345
Proces uruchamiania systemu DOS 1349
Proces uruchamiania się systemu Windows 9x/Me 1350
Proces uruchamiania systemu Windows NT/2000/XP 1353
Narzędzia służące do serwisowania komputerów PC 1353
Narzędzia podręczne 1354
Bezpieczeństwo 1358
Słowo o narzędziach i osprzęcie 1359
Urządzenia testowe 1360
Narzędzia dla entuzjastów 1365
Konserwacja i działania profilaktyczne 1367
Aktywne procedury profilaktyczne 1368
Pasywne procedury profilaktyczne 1378
Podstawy rozwiązywania problemów 1383
Nowoczesne komputery PC — bardziej skomplikowane, ale i bardziej niezawodne 1384
Standardowe części zamienne 1385
Naprawiać czy wymieniać? 1386
Rozwiązywanie problemów przez wymianę elementów 1386
Rozwiązywanie problemów za pomocą procedury uruchomieniowej 1387
Problemy pojawiające się w trakcie przeprowadzania procedury POST 1388
Problemy sprzętowe występujące po uruchomieniu systemu 1389
Problemy z uruchamianiem programów 1389
Problemy związane z kartami rozszerzeń 1389
Najczęściej spotykane problemy 1390
Rozdział 25. Systemy plików i odzyskiwanie danych 1401
Rekordy ładujące 1401
Główny rekord ładujący (MBR) 1402
Partycje podstawowa i rozszerzona 1403
Rekord ładujący wolumenu 1408
Obszar danych '415
Cylinder diagnostyczny 1415
Systemy plików '415
Klastry (jednostki alokacji plików) 1416
Systemy plików FAT 1416
FAT 12 1417
FAT 16 1418
VFAT i długie nazwy plików 1420
FAT32 1423
Przewodnik po systemie plików FAT 1428
Katalogi 1431
Błędy systemu plików FAT 1434
System plików NTFS 1437
Architektura NTFS 1440
Zapewnienie zgodności w NTFS 1442
Tworzenie dysków NTFS 1443
Narzędzia systemu NTFS 1443
System plików HPFS 1444
Narzędzia systemu plików 1444
Program RECOVER 1445
SCANDISK. 1445
Defragmentacja dysku 1446
Programy innych firm 1448
Odzyskiwanie danych 1450
Odzyskiwanie danych z Kosza systemu Windows 1450
Odzyskiwanie danych spoza Kosza 1450
Odzyskiwanie danych z usuniętych partycji i sformatowanych dysków 1452
Posługiwanie się programem Norton Disk Editor 1455
Odzyskiwanie danych z urządzeń z pamięcią Flash 1463
Najczęściej spotykane komunikaty o błędach i sposoby postępowania w ich przypadku 1464
Missing Operating System 1464
NO ROM BASIC — SYSTEM HALTED 1466
Boot Error Press FI to Retry 1466
Invalid Drive Specification 1466
Invalid Media Type 1466
Hard Disk Controller Failure 1466
Podstawowe zasady rozwiązywania problemów z systemem plików
w systemach MS-DOS, Windows 9x oraz Windows Me 1467
Podstawowe zasady rozwiązywania problemów z systemem plików w systemach Windows 2000/XP... 1468
Dodatek A Słownik 1469
Dodatek B Rozwiązywanie problemów — indeks 1555
Dodatek C Lista akronimów i skrótów 1581
Skorowidz 1597
O Autorze
Scott Mueller jest prezesem międzynarodowej firmy Muller Technical Research zajmującej się badaniem rynku komputerów PC i szkoleniami. Od 1982 roku firma MTR specjalizuje się w przeprowadzaniu profesjonalnych seminariów poświęconych sprzętowi komputerowemu i przywracaniu danych. Dodatkowo firma udostępnia książki, artykuły, materiały wideo oraz listy pytań i odpowiedzi. Do jej klientów zaliczają się firmy z listy Fortune 500. rząd Stanów Zjednoczonych i rządy innych państw, wielkie firmy informatyczne zajmujące się produkcją sprzętu i oprogramowania oraz przedsiębiorcy i prawdziwi entuzjaści komputerów. Uczestnikami seminariów prowadzonych przez, autora książki było kilka tysięcy specjalistów z branży komputerowej z całego świata.
Scott osobiście prowadzi w całym kraju seminaria poświęcone różnym zagadnieniom ze świata sprzętu komputerowego (rozwiązywanie problemów, konserwacja, naprawy i modernizacje), uzyskiwaniu certyfikatu w ramach programu A+ Certification, a także odzyskiwaniu i analizie danych. Scott potrafi omawiać techniczne zagadnienia w sposób nie tylko zrozumiały, ale też zabawny. Na jego wykładach nie można się nudzić! Jeśli dysponujesz grupą 10-osobową lub większą, Scott może dla Twojej firmy przygotować i przeprowadzić seminarium.
Choć Scott prowadzi wykłady niemal bez przerwy od 1982 r., najbardziej znany jest jako autor cieszącej się ogromną popularnością, mającej wiele wydań i zawierającej mnóstwo informacji książki poświęconej sprzętowi komputerowemu, wydawanej na całym świecie. Nosi ona tytuł Rozbudowa i naprawa komputerów PC. Książka ta nie tylko posiada już 16 wydań, ale pełnia rolę fundamentu dla całej serii innych publikacji.
Przez ponad 20 lat Scott napisał wiele książek, takich jak Upgrading and Repairing PCs' (16 wydań wraz z wersjami akademickimi), Upgrading and Repairing Laptops1, Upgrading and Repairing PCs: A+ Certification Siudy Guide (2 wydania), Upgrading and Repairing PCs Technician's Portable Reference (2 wydania), Upgrading and Repairing PCs Field Guide2, Upgrading and Repairing PCs Ouick Reference, Upgrading and Repairing PCs, Linia Edition, Killer PC Utilities, The IBM PS/2 Handbook i Oue 's Guide to Data Recovery.
Scott przygotował też kilka pakietów szkoleniowych z materiałami wideo dotyczącymi sprzętu komputerowego, w tym 6-godzinne seminarium umieszczone na płytach CD, zatytułowane Upgrading and Repairing PCs Training Course: A Digital Seminar from Scott Mueller. Materiał jest idealną propozycją dla osób. które nie mogą sobie pozwolić na seminarium osobiście przeprowadzone dla nich przez Scotta.
1 Rozbudowa i naprawa komputerom PC — seria wydana przez Wydawnictwo Helion. ~ Rozbudowa i naprawa laptopem. Helion. 2004.
' Rozbudowa i naprawa komputera. Kompendium. Wydanie drugie, Helion, 2003.
Scott przez wiele lat przygotował też inne materiały wideo, takie jak Upgrading and Repairing PCs Video: I2th Edition, Your PC: The Inside Story. Scott zawsze poszerzał swoje książki o oryginalne materiały wideo, zamiast korzystać każdego roku z tych samych.
Jeśli interesuje Cię określona książka, artykuł lub projekt wideo bądź zależy Ci na tym. aby Scott osobiście przeprowadził dostosowane do potrzeb firmy seminarium dotyczące rozwiązywania problemów z komputerami PC, ich naprawy, konserwacji, modernizacji lub odzyskiwania danych, należy skontaktować się bezpośrednio z firmą MTR.
Mueller Technical Research 3700 Grayhawk Drive Algonquin. 1L 60102-6325 847-854-6794 Faks: 847-854-6795 F-mail: scottmuelterfclicompuserve.com WWW: http:/'www.upgradingandrepuiringpcs.com http:.''www. m-lr. com
Podstawowa książka napisana przez Scotta, którą jest Naprawa i rozbudowa komputerów PC. została sprzedana już w ponad 2 milionach egzemplarzy, co oznacza, że jak na razie jest to najpopularniejsza i najdłużej dostępna w sprzedaży publikacja poświęcona sprzętowi komputerowemu. Na temat Scotta pisano w czasopiśmie Forbes. Sam napisał kilka artykułów dla czasopisma Ma.ximum PC, kilku grup dyskusyjnych i strony internetowej Upgrading and Repairing PCs.
Scott ostatnio ukończył pracę nad dwoma nowymi książkami — Upgrading and Repairing Laptops i Upgrading and Repairing PCs Video Training Course.
Jeśli chciałbyś przekazać swoje sugestie dotyczące następnych wydań książki, jakiekolwiek komentarze z nią związane lub dotyczące nowej książki, bądź tematów na artykuł, które Cię interesują, prześlij je do Scotta za pośrednictwem poczty elektronicznej pod adres scottmuellerfd)compuserve.com lub zajrzyj na stronę internetową http: '/www.upgradingandrepairingpcs.com i kliknij przycisk Ask Scott (Zadaj pytanie Scottowi).
Jeśli autor książki nie pracuje nad swoimi publikacjami dotyczącymi komputerów PC lub nie prowadzi seminariów, wtedy zazwyczaj można go spotkać w jego garażu zajętego kilkoma projektami. Obecnie przerabia swój motocykl Harley-Davidson FLHRCI Road King Classic i samochód 5.9L Grand Cherokee (rocznik 1998) — z napędem na 4 koła.
Współpracownicy
i redaktorzy techniczni
Mark Edward Soper jest prezesem firmy Select Systems and Associates, Inc. zajmującej się organizacją szkoleń i tworzeniem opracowań technicznych.
Od 1992 roku, począwszy od Maine, a skończywszy na Hawajach, Mark przekazywał tysiącom studentów swoją wiedzę na temat rozwiązywania problemów występujących w komputerach oraz innych technicznych zagadnień. Jest posiadaczem certyfikatów A+ oraz Microsoft Certified Proffesional. Już od polowy lat 80. ubiegłego wieku zajmuje się pisaniem tekstów na tematy techniczne i ma swój udział w powstaniu kilku książek wydanych przez wydawnictwo Que, takich jak Upgrading and Repairing PCs4 (edycja 11., 12., 13., 14., 15.), Upgrading and Repairing Networks5 oraz Special Edition Using Microsoft Windows Millennium Edition. Jest również współautorem: Upgrading and Repairing PCs, Technician 's Portale Reference, Upgrading and Repairing PCs Field Guide6, TechTV's Upgrading Your PC oraz Upgrading and Repairing PCs: A+ Study Certification Guide, Second Edition. Poza tym jest autorem następujących pozycji: The Complete Idiot 's Guide to Hlgh-Speed Internet Connections, PC Help Desk in a Book oraz Absolute Beginner 's Guide to Cable Internet Connections.
Od 1990 roku Mark napisał ponad 125 artykułów dla kilku większych czasopism komputerowych, takich jak SinartComputing, PCNovice, PCNovice Guides oraz PCNovice Learning Series. Jego pierwsze teksty zostały opublikowane w WordPerfect Magazine. The WordPerfectionist i PCToday. Wiele prac jego autorstwa można odnaleźć w archiwalnych numerach tych czasopism lub dotrzeć do nich za pośrednictwem strony internetowej znajdującej się pod adresem http://www.smartcomputing.com, natomiast firma Select Systems ma na swojej stronie indeks wszystkich artykułów Marka posortowany według tytułów. Strona dostępna jest pod adresem http://www.selectsystems. com
4 Rozbudowa i naprawa komputerów PC— seria wydana przez Wydawnictwo Helion.
5 Rozbudowa i naprawa sieci, Helion, 2001
6 Rozbudowa i naprawa komputera. Kompendium. Wydanie drugie. Helion, 2003
Mark Reddin jest posiadaczem certyfikatu MCSE (Microsoft Certified Systems Engineer) oraz A+. Jeszcze jako nowicjusz, za czasów pierwszych komputerów Commodore i Atari (oraz ich wspaniałych gier), lubił grzebać przy sprzęcie. Bardziej na poważnie technologiami komputerowymi zajął się w czasie studiów na Bali State University i od tego momentu w różnym stopniu pozostaje z nimi związany. Jego doświadczenie obejmujące komputery i sieci komputerowe jest wynikiem działalności w zakresie udzielania konsultacji i prowadzenia własnej firmy zajmującej się sprzedażą i serwisem komputerów. Oprócz tego, w ciągu kilku ostatnich lat Mark miał swój udział we wprowadzeniu na rynek kilkunastu publikacji wydawnictwa Que, pełniąc funkcję redaktora technicznego.
Wprowadzenie
Witaj, Czytelniku 16. edycji książki Rozbudowa i naprawa komputerów PC. Od momentu, gdy w roku 1988 na rynku pojawiło się pierwsze wydanie, żadna książka dotycząca zagadnień związanych ze sprzętem komputerowym nie dorównała jej pod względem dokładności i jakości informacji. Ta edycja jest kontynuacją książki, która nie tylko jest najlepiej sprzedającą się publikacją tego typu, ale również najbardziej obszernym i kompletnym dostępnym na rynku zbiorem informacji na temat komputera. W książce przedstawiono dogłębnie budowę komputerów, podkreślono różnice występujące pomiędzy nimi oraz opisano możliwości konfiguracji poszczególnych systemów.
16. edycja książki Rozbudowa i naprawa komputerów PC, która jest czymś więcej niż tylko niewielką aktualizacją poprzedniej edycji, obejmuje setki stron zupełnie nowego lub uaktualnionego i powtórnie napisanego materiału. Przemyśl komputerowy rozwija się szybciej niż kiedykolwiek, dlatego też książka ta jest najbardziej dokładną, kompletną i aktualną publikacją tego typu obecnie dostępną.
Napisałem tę pozycję dla osób, które zamierzają aktualizować, naprawiać i konserwować komputery lub usuwać zaistniałe problemy. Jest ona również przeznaczona dla entuzjastów, którzy zamierzają poszerzyć swoją wiedzę na temat sprzętu. W książce omówiono w pełnym zakresie różne systemy kompatybilne z IBM PC. począwszy od najstarszych komputerów 8-bitowych, a skończywszy na najnowszych 64-bitowych stacjach roboczych wyposażonych w procesory taktowane zegarem rzędu kilku gigaherców. Jeśli zamierzasz dowiedzieć się wszystkiego na temat komputerów, począwszy od pierwszych systemów, a skończywszy na najnowszych technologiach dostępnych obecnie na rynku, z pewnością ta książka to właściwy wybór.
W tekście omówiono najwyższej jakości sprzęt i akcesoria, które sprawiają, że najnowsze typy komputerów osobistych są prostsze w obsłudze, szybsze i bardziej wydajne. Zawarto w nim szczegółowy opis każdego procesora przeznaczonego dla komputerów osobistych, począwszy od procesora Intel 8088, a skończywszy na najnowszym procesorze Pentium 4 z rdzeniem Prescott i układach Athlon 64/64 FX.
Książka Rozbudowa i naprawa komputerów PC zawiera również informacje na temat mniej istotnych komponentów. Każda część komputera ze względu stabilność i wydajność całości odgrywa znaczącą rolę. W trakcie lektury książki liczącej ponad 1500 stron dowiesz się dokładnie, dlaczego chipsety umieszczone na płycie głównej mogą być najważniejszymi elementami komputera lub co się może złego wydarzyć, gdy stosowany zasilacz nie będzie wystarczający, aby odpowiednio współpracować z właśnie zakupionym procesorem o naprawdę wielkiej mocy. Publikacja ta zawiera również szczegółowe omówienie elementów, takich jak nowe formaty płyt głównych BTX, pamięci DDR/DDR2 SDRAM, karty graficzne i dźwiękowe, gniazda AGP, PCI i PCI-Express, monitory ciekłokrystaliczne, napędy DVD+/-RW, interfejs USB 2.0, Serial ATA i FireWire oraz wymienialne nośniki danych o dużej pojemności. To wszystko tutaj naprawdę jest! Nie zapomniano również o dokładnym omówieniu myszy i klawiatur.
Co nowego znalazło się w 16. edycji?
Na pewno wiele osób zapoznających się z treścią tej książki zakupiło jedną lub kilka jej poprzednich edycji. Na podstawie listów, poczty elektronicznej i innej korespondencji wiem, że — na tyle, na ile jest przydatna każda nowa edycja — na pewno chciałbyś wiedzieć, co nowego zostało w niej zawarte. Poniżej przedstawiłem krótką listę podstawowych zagadnień, które zostały dodane:
Oprócz setek znanych już stron zawierających szczegółowe omówienie każdego procesora, w tym wszystkich procesorów Firmy Intel i AMD, w tym wydaniu dołączono wiele nowych. Wraz z procesorem Pentium 4 opartym na rdzeniu Prescott firma Intel zaczęła korzystać z technologii 0,09 mikrona (90 nanometrów). Ten model procesora stał się znaczącą ilustracją współczesnego potencjału technologicznego. Prezentując procesory Athlon 64/64 FX, firma AMD poczyniła pierwsze działania w zakresie 64-bitowego przetwarzania realizowanego przez zwykłe komputery. W procesorach tych firma AMD zastosowała architekturę spotykaną dotychczas wyłącznie w serwerach. Pojawiły się nowe gniazda, chipsety i płyty główne współpracujące z tymi układami. W książce znajdziesz również informacje na temat nowego schematu oznaczeń procesorów stosowanego przez firmę Intel.
Nowsze modele procesora Pentium 4 firmy Intel obsługuję technologię hiperwątkowości (HT Technology), dzięki której jeden układ może jednocześnie odgrywać rolę dwóch procesorów. Nowe modele oparte na rdzeniu Prescott posiadają też bardziej złożony 31-poziomowy potok. Z książki dowiesz się,
czy posiadany komputer spełnia wymagania niezbędne do skorzystania z procesorów z technologią hiperwątkowości i w jakim stopniu bardziej złożony potok wpływa na wydajność i szybkość komputera. Uzyskasz również informacje dotyczące szybszych magistrali, nowych typów pamięci i nie tylko.
♦ Nowsze chipsety korzystają z 2-kanałowej pamięci DDR, która w celu dostosowania szybkości
do magistrali procesora, wyeliminowania „wąskiego gardła" i zoptymalizowania wydajności jednocześnie używa dwóch banków. Najnowszym typem pamięci obsługiwanym przez obecnie dostępne chipsety i płyty główne jest pamięć DDR2. W rozdziale 6.. „Pamięć", nie tylko rozszerzyłem omówienie technologii pamięci, ale też wyjaśniłem korzyści wynikające z zastosowania nowszych rozwiązań.
W zupełnie nowym rozdziale dotyczącym modernizacji komputera szczegółowo omówiono technologię mającą wpływ na częstotliwość zegara procesora i wyjaśniono, w jaki sposób przez przetaktowanie można ją zwiększyć. Ponieważ wyższa częstotliwość zawsze wiąże się z generowaniem większej ilości ciepła, omówiono wyjątkowo wydajne technologie chłodzenia wraz z najnowszymi systemami odprowadzania ciepła zaprojektowanymi dla komputerów PC. Przedstawiono prostą modernizację, dzięki której w używanym komputerze można zastosować najnowszą technologię chłodzenia. Więcej uwagi poświęcono też wymianie obudowy na wyposażoną w umieszczone na przednim panelu złącza interfejsów USB, FireWire i inne porty.
W przypadku obudów i płyt głównych komputerów PC dokonano wiele zmian, dotyczących przede wszystkim odprowadzania ciepła. Od 1996 r. najpopularniejszym formatem był ATX, ale na horyzoncie pojawi! się nowy standard o nazwie BTX. W rozdziale 4., „Płyty główne i magistrale", zawarto wszystkie szczegółowe informacje na temat nowego formatu BTX wraz z powodami, dla których go opracowano, oraz wyjaśnieniem, jaki to będzie miało wpływ na obudowę, chłodzenie procesora i nie tylko. Na płytach głównych pojawiły się też nowe gniazda magistrali PCI-Express. Więcej informacji na ich temat zawarto w rozdziale 4.
Czy jesteś zainteresowany zamianą komputera w rozgrzaną do czerwoności platformę do gier? W celu uzyskania najważniejszych informacji dotyczących „doładowania" komputera należy zapoznać się
z omówieniem kart dźwiękowych i graficznych oraz połączenia z internetem. Dostępne są nowe informacje na temat najnowszych kart graficznych firm NVIDIA (z serii 6800) i ATI (z serii x800).
♦ Jak zawsze dodano kolejne nowe rysunki cechujące się wysokąjakością wykonania. Corocznie dodajemy, modyfikujemy i, ogólnie mówiąc, poprawiamy kilkaset rysunków zamieszczonych w książce. Nowe
i zaktualizowane ilustracje zawierają więcej szczegółów technicznych pomagających zrozumieć bardziej złożone zagadnienia lub prezentujących, w jaki sposób wykonać określone zadanie.
Tak, jak w przypadku każdego wydania, w celu zagwarantowania, że niniejsza książka będzie najbardziej spójną i aktualną pozycją poświęconą sprzętowi komputerowemu dostępną w księgarni, poświęciłem jej tyle czasu, ile tylko byłem w stanie.
Czemu ma służyć ta książka?
Książka Rozbudowa i naprawa komputerów PC służy kilku celom. Pierwszym z. nich jest przekazanie wiedzy na temat konserwacji, aktualizacji i naprawy komputera osobistego. Książka pomaga w pełni zapoznać się z. całą grupą komputerów kompatybilnych z oryginalnym IBM PC. od którego wzięły swój początek. Omawia rozwój wszystkich komponentów komputera, takich jak płyty główne, procesory, pamięci, a nawet zasilacze i obudowy. Zawarto w niej informacje na temat właściwej obsługi komputera i jego podzespołów. Wymieniono również elementy najbardziej podatne na awarie występujące w różnych komputerach osobistych oraz pokazano, w jaki sposób zlokalizować wadliwą część. W trakcie lektury dowiesz się o zaawansowanych urządzeniach diagnostycznych i oprogramowaniu współpracującym z systemem i umożliwiającym określenie źródła problemu oraz metody jego eliminacji.
Komputery osobiste bardzo szybko zwiększają swoją moc obliczeniową i możliwości. Wydajność procesorów wzrasta przy okazji pojawienia się każdego nowego modelu. W książce Rozbudowa i naprawa komputerów PC dokonano przeglądu wszystkich procesorów stosowanych w komputerach kompatybilnych z IBM PC.
W publikacji opisano istotne różnice występujące pomiędzy najważniejszymi architekturami systemowymi, począwszy od standardu ISA (Industry Standard Architecture). a skończywszy na najnowszych standardach PCI, AGP i PCI-Express. Dla ułatwienia podjęcia decyzji dotyczących wyboru właściwego typu komputera, który zostanie w przyszłości zakupiony, jego aktualizacji oraz diagnostyki, omówiono każdą ze stosowanych architektur systemowych i współpracujących z nimi kart.
Ilość miejsca dostępnego do przechowywanych danych w nowoczesnych komputerach wzrasta w sposób geometryczny. Książka omawia różne możliwości przechowywania danych, począwszy od większych i szybszych dysków twardych, a skończywszy na specjalistycznych narzędziach służących do archiwizacji. Ponadto, przedstawiono w niej szczegółowe informacje na temat aktualizacji i diagnostyki używanej pamięci operacyjnej RAM.
Po przeczytaniu tej książki powinieneś mieć wystarczającą wiedzę, aby dokonać aktualizacji, diagnostyki i naprawy większości komputerów i ich komponentów.
Czy ta książka jest przeznaczona dla Ciebie?
Jeśli chcesz dowiedzieć się więcej na temat komputerów PC, niniejsza książka zdecydowanie jest dla Ciebie!
Książka Rozbudowa i naprawa komputerów PC została napisana dla osób, które chcą zdobyć wiedzę na temat budowy oraz funkcjonowania komputerów osobistych. Każda jej część dokładnie omawia powszechne i mniej typowe problemy, pokazuje, czym są one spowodowane i w jaki sposób postępować w sytuacji, gdy się pojawią. Dostarcza informacji na temat konfiguracji dysku i wykorzystywanych interfejsów, które mogą. na przykład, zwiększyć Twoje umiejętności związane z diagnozowaniem i usuwaniem problemów. Dzięki tej książce nabierzesz pewnej rutyny, która pozwoli Ci zorientować się, co się dzieje w komputerze w oparciu o własne obserwacje i wnioski, a nie na podstawie tabeli zawierającej kilka kroków z góry określonej procedury diagnostycznej.
Rozbudowa i naprawa komputerów PC jest przeznaczona dla osób, które zajmują się doborem, instalacją, konserwacją i naprawą komputerów wykorzystywanych prywatnie lub przez firmy, w których pracują. W celu realizacji takich zadań konieczne jest posiadanie określonego poziomu wiedzy znacznie szerszego od tego. którym dysponuje typowy użytkownik komputera. Musisz dokładnie wiedzieć, jakie narzędzie zastosować w przypadku konkretnego zadania i jak prawidłowo się nim posługiwać. Ta książka pomoże Ci osiągnąć wymagany poziom wiedzy.
Autor miał na myśli miliony osób aktualizujących i składających komputery. Niektórzy z jego studentów należą do komputerowych ekspertów, a inni są dopiero początkujący, ale niezależnie od tego łączy ich jedno, a mianowicie wiara w to, że książka Scotta zmienia ich życie. Scott może być nauczycielem dla każdego.
Omówienie rozdziałów
Książka została podzielona na rozdziały, które omawiają różne komponenty komputera osobistego. Kilka rozdziałów posłużyło wprowadzeniu lub poszerzeniu zagadnień ściśle nie związanych z samymi podzespołami, ale większości elementów, z których jest zbudowany komputer, został poświęcony osobny rozdział lub jego część. Taki podział ma być pomocny w odszukaniu potrzebnych informacji. Godny uwagi jest również fakt znacznego poszerzenia, w porównaniu z poprzednimi edycjami, indeksu, który jest dodatkowym narzędziem przydatnym w wyszukiwaniu informacji w książce tej objętości.
Rozdziały 1. i 2. posłużyły głównie jako forma wprowadzenia. Rozdział 1., „Historia powstania komputera osobistego", rozpoczyna się wstępem do historii powstania oryginalnego komputera IBM PC i komputerów z nim kompatybilnych. Zawarto w nim niektóre fakty, które przyczyniły się do powstania mikroprocesora i samego komputera osobistego. Rozdział 2., „Komponenty, funkcje i typy komputerów", zawiera informacje na temat różnych typów magistral systemowych, które wyróżniają poszczególne rozwiązania. W rozdziale tym dokonano również przeglądu rodzajów komputerów osobistych, który pozwoli zdobyć podstawy wiedzy wymaganej w czasie lektury pozostałej części książki, a ponadto zawiera pewnego rodzaju analizę praw. którymi rządzi się rynek sprzętu komputerowego. Podano również miejsca, w których powstają podzespoły i technologie.
Rozdział 3., „Typy i parametry mikroprocesorów", zawiera szczegółowe omówienie różnych procesorów firmy Intel, takich jak Pentium 4 (Prescott, Northwood i Willamette), Pentium III, Pentium II, Celeron. Xeon oraz starszych jednostek centralnych (CPU). Zamieszczono w nim również obszerną część poświęconą serii bardzo wydajnych procesorów Athlon 64/64FX i Athlon XP firmy AMD oraz procesorów Athlon, Duron i K6. Ze względu na fakt, że procesor jest jednym z najważniejszych składników komputera, ta edycja książki zawiera, jak nigdy dotąd, bardziej obszerny i aktualny materiał im poświęcony. Dogłębnie omówiłem parametry techniczne najnowszych gniazd procesorów, włączając w to obszerny opis gniazd Socket 754/939/940 obsługujących układy Athlon 64/64FX, gniazd Socket 423, Socket 478 i Socket T (LGA775) przeznaczonych dla procesora Pentium 4, gniazda Socket A dla procesora AMD Athlon XP oraz starszych gniazd, takich jak Socket 7, Socket 370, Slot 1 i Slot A. W rozdziale 3. opisano również, w jaki sposób zidentyfikować procesory znakowane. Są to procesory, które zostały zmodyfikowane przez nieuczciwego pośrednika w ten sposób, że wskazują wyższą częstotliwość pracy niż wynika to z rzeczywistych parametrów określonych przez producenta. Takie procesory są zazwyczaj sprzedawane odbiorcy jako szybsze modele. Zaprezentuję, w jaki sposób identyfikować i unikać tego typu elementów.
Rozdział 4., „Płyty główne i magistrale", szczegółowo omawia płyty główne oraz ich komponenty, chipsety i magistrale systemowe. Rozdział zawiera również przegląd wszystkich standardów płyt głównych począwszy od Baby-AT. a skończywszy na przeróżnych odmianach standardu ATX i nowym BTX. Chipsety płyty głównej mogą poprawić wydajność komputera, jak również — pomimo zastosowania bardzo szybkiego procesora — spowodować jej spadek. W rozdziale 4. zostały omówione najnowsze chipsety współpracujące z procesorami aktualnie dostępnymi na rynku, włączając w to produkty firm Intel, AMD, VIA, NVIDIA. SiS. ALi oraz innych. Również tutaj dokonano przeglądu specjalnych architektur magistral i urządzeń takich jak bardzo wydajna magistrala PCI (Peripheral Component Interconnect), magistrala PCI-Express oraz magistrala AGP (Accelerated Graphics Port) wraz z jej wersją AGP x8. W rozdziale tym można znaleźć wszelkie informacje, począwszy od danych na temat najnowszych chipsetów, a skończywszy na właściwym rozmieszczeniu otworów w płycie wykonanej w standardzie ATX lub BTX.
Rozdział 5., „BIOS", zawiera szczegółowe omówienie systemu BIOS uwzględniające jego rodzaje, możliwości i aktualizacje. Zagadnienie to zostało poszerzone z dotychczasowego jednego podrozdziału książki do całego rozdziału zawierającego więcej informacji z nim związanych, niż miało to miejsce do tej pory. Został również dodany uaktualniony przegląd systemu BIOS, a dokładniej mówiąc informacje dotyczące narzędzia służącego do konfiguracji systemu BIOS, jego programowalnej wersji — Flash — oraz zawartych w nim funkcji Pług and Play.
Rozdział 6., „Pamięć", zawiera szczegółowe omówienie pamięci stosowanych w komputerach osobistych, z. uwzględnieniem parametrów technicznych najnowszych typów pamięci RAM i podręcznej. Obok procesora i płyty głównej, pamięć operacyjna jest jedną z najważniejszych części komputera. Jednocześnie jest elementem jednym z najtrudniejszych do opisania, ponieważ w pewien sposób jest nieuchwytna i zasady jej działania nie zawsze są oczywiste. Jeśli zależy Ci na poznaniu różnicy pomiędzy poszczególnymi typami pamięci operacyjnej i podręcznej, takimi jak pamięć podręczna LI i L2, pamięć podręczna L2. zewnętrzna i zintegrowana, pamięć SIMM. DIMM, RIMM oraz na porównaniu pamięci SDRAM z pamięcią DDR SDRAM i RDRAM, porównaniu pamięci EDO o czasie dostępu równym 60 nanosekund z pamięcią PC 133. PC3200 i nową DDR2, rozdział ten jest miejscem, w którym znajdziesz odpowiedź na pytania związane z tymi zagadnieniami. A zatem, zanim dokonasz w swoim komputerze wymiany, zamiast pamięci PC2I00 DDR SDRAM, pamięci EDO SIMM pracującej w trybie Fast Page na pamięć DIMM, postaraj się zapoznać z treścią tego rozdziału.
Rozdział 7., „Interfejs ATA/IDE", szczegółowo omawia interfejs ATA/IDE, z uwzględnieniem jego typów i parametrów technicznych. Zaliczają się do nich różne wersje Ultra-ATA pozwalające na transfer danych z prędkością 133 MB/s. Zostanie wyjaśnione, dlaczego nie powodują one znacznego przyrostu wydajności komputera. W tym rozdziale zawarto też więcej informacji na temat nowego standardu Serial ATA — technologii, która docelowo ma zastąpić interfejs równoległy ATA wykorzystywany przez ostatnie 16 lat.
Rozdział 8.. „Interfejs SCSI", omawia interfejs SCSI z uwzględnieniem nowego standardu SAS (Serial Atta-ched SCSI), powiązanego z interfejsem Serial ATA. Zawarto tutaj również informacje na temat nowego systemu sterowania sygnałami Low Voltage Differential (różnicowy system niskich napięć) wykorzystywanego przez niektóre szybsze urządzenia dostępne na rynku oraz najnowsze dane dotyczące kabli, terminatorów i konfiguracji urządzeń SCSI. W rozdziale 8. omówiono też najnowszy standard UltraSCSI.
Rozdział 9„ „Świat urządzeń o zapisie magnetycznym", szczegółowo omawia zasady działania urządzeń wykorzystujących zapis magnetyczny, takich jak dyski twarde i napędy taśmowe. Niezależnie od tego, czy na zajęciach z fizyki zrozumiałeś zasady związane z elektromagnetyzmem, w tym rozdziale te dość złożone zagadnienia zostaną poddane analizie i przedstawione, w sposób, który zmieni Twoje dotychczasowe wyobrażenie na temat dysków i przechowywanych na nich danych.
Rozdział 10.. „Dyski twarde", opisuje sposób, w jaki dane są przechowywane na dysku twardym i co się dzieje w chwilę po dwukrotnym kliknięciu przyciskiem myszy nazwy pliku.
Rozdział 11.. „Napędy dyskietek", dokonuje szczegółowego omówienia poczciwych stacji dyskietek. Dowiesz się. w jaki sposób prawidłowo je zamontować oraz jak dane są zapisywane na dyskietkach.
Rozdział 12., „Nośniki wymienne o dużej pojemności", omawia przenośne urządzenia przechowujące dane. takie jak SuperDisk (LS-120), Iomega Zip, Jaz oraz Click!, jak również zawiera zupełnie nową część poświęconą napędom taśmowym.
Rozdział 13., „Pamięci optyczne", omawia urządzenia wykorzystujące do zapisu danych technologie CD i DVD z uwzględnieniem nagrywarek CD jedno- i wielokrotnego zapisu oraz inne technologie zapisu optycznego. W rozdziale tym opisano też czynności, jakie należy wykonać, aby uniknąć błędów przepełnienia bufora oraz szczegółowe informacje na temat tworzenia startowych płyt CD, nagrywania płyt CD Audio i doboru nośników o najwyższej jakości. Jest tu także obszerne omówienie standardu DVD zawierające wszelkie informacje konieczne do zrozumienia różnicy pomiędzy standardami DVD-R, DVD-RAM, DVD-RW i DVD+ RW. Po przeczytaniu tego rozdziału będziesz wiedział też, który napęd wykonany zgodnie z jednym z powyższych standardów należy zakupić, aby móc go wykorzystywać w przyszłości.
Rozdział 14., „Instalowanie i konfigurowanie napędów dysków", omawia, w jaki sposób zamontować dyski różnych typów stosowanych w komputerach osobistych. Dowiesz się tutaj również, jak po zamontowaniu dysku założyć i sformatować na nim partycje.
Rozdział 15., „Podsystem graficzny", omawia wszystko, co należy wiedzieć na temat kart graficznych i monitorów. Dowiesz się z niego, na czym polega działanie monitorów kineskopowych i ciekłokrystalicznych oraz który z nich jest dla Ciebie najbardziej odpowiedni. Jeśli lubisz gry komputerowe lub multimedia, z pewnością będziesz chciał przeczytać coś na temat doboru odpowiedniego graficznego akceleratora 3D. Zostały porównane najnowsze technologie dostępne na rynku i podano informacje pomocne przy wyborze odpowiedniej karty graficznej.
Rozdział 16., „Podsystem audio", omawia karty dźwiękowe i inne urządzenia do obróbki dźwięku, włączając w to zestawy głośnikowe. Jakość dźwięku zaczęła odgrywać coraz większą rolę w każdym lepszym komputerze, dlatego też w tym rozdziale spróbuję wyjaśnić, czym powinny się cechować kupowane karty dźwiękowe i jakie ich typy są najbardziej zalecane. Zawarłem w nim nawet wskazówki dotyczące optymalizacji wydajności urządzeń odpowiedzialnych za dźwięk stosowanych w grach, przeznaczonych do słuchania płyt CD oraz przy tworzeniu i odtwarzaniu plików muzycznych zapisanych w formacie MP3.
Rozdział 17., „Porty wejścia-wyjścia — od szeregowego i równoległego do IEEE 1394 i USB", omawia standardowe porty szeregowe i równolegle nadal stosowane w większości komputerów oraz nowsze technologie, takie jak USB i FireWire (IEEE 1394/iLink). Zostały w nim również przedstawione najnowsze innowacje związane ze standardami interfejsów, takimi jak USB 2.0, USB On-The-Go i nowy FireWire 800.
Rozdział 18., „Urządzenia wejściowe", omawia klawiatury, urządzenia wskazujące oraz porty gier służące do prowadzenia komunikacji z komputerem. Wspomniano również o myszach i klawiaturach bezprzewodowych.
Rozdział 19., „Internet", porównuje różne typy połączeń o dużej szybkości, które zaczynają się pojawiać na rynku komputerów osobistych, oparte na takich urządzeniach, jak modem DSL oraz modem kablowy i satelitarny.
Rozdział 20., „Sieć lokalna (LAN)", omawia instalację i konfigurację sieci lokalnej (LAN) wykorzystywanej w domu lub w biurze. Zaprezentuję w nim, w jaki sposób zainstalować kartę sieciową (NIC), samodzielnie wykonać kable sieci Ethernet i skonfigurować usługi sieciowe systemu Windows.
Rozdział 21., „Zasilacze i obudowy", zawiera szczegółowy przegląd zasilaczy, które w dalszym ciągu są podstawową przyczyną problemów i awarii występujących w komputerach osobistych. Po nabyciu nowego komputera okazuje się, że ten niedoceniany komponent jest zazwyczaj tym, który nie jest najlepszej jakości, co wyjaśnia, dlaczego jest źródłem tak wielu problemów często przypisywanych systemowi Windows, pamięci lub jeszcze kilku innym elementom. W rozdziale zamieszczono też dokładne parametry techniczne zasilaczy stosowanych w różnych komputerach, począwszy od AT, a skończywszy na ATX. Ich budowa nie jest jednakowa, dlatego też nieprawidłowa instalacja może spowodować zagrożenie zarówno dla Ciebie, jak i dla komputera.
W rozdziale 22., „Montaż i modernizacja komputera", został pokazany proces doboru elementów, które posłużą wykonaniu aktualizacji lub montażu od podstaw całego komputera. Następnie krok po kroku zostaniesz przeprowadzony przez taką operację. W rozdziale zostało umieszczonych mnóstwo zdjęć, które będą pomocne przy pracy.
W rozdziale 23. omówiono technologię mającą wpływ na szybkość komputera i wyjaśniono, w jaki sposób bezpiecznie sprawić, aby częstotliwość pracy procesora przekraczała wartość nominalną. Operację tę nazywa się przetaktowywaniem (ang. overclocking). W rozdziale omówiono też szczegółowo systemy odprowadzania ciepła z komputera oparte na powietrzu, płynie, a nawet wykorzystujące obieg chłodniczy. Wspomniano również o najnowszych udoskonaleniach obudów za cenę mniejszą od 32 zł, polepszających chłodzenie używanych komputerów. Wiele nowych płyt głównych posiada złącza przeznaczone dla przedniego panelu wejść i wyjść. W rozdziale podano możliwości wyposażenia używanych komputerów w takie panele.
Rozdział 24.. „Diagnostyka, testowanie i konserwacja komputera PC", omawia narzędzia i procedury służące do diagnozowania i testowania komputera. Zawarto tutaj również dodatkowe informacje dotyczące identyfikacji i usuwania typowych problemów występujących w komputerze. Dowiesz się. jakimi narzędziami posługuje się dobry technik komputerowy. Poza tym zapoznam Cię z kilkoma, o których może do tej pory nie słyszałeś lub ich nie używałeś.
Rozdział 25., „Systemy plików i odzyskiwanie danych", omawia systemy plików i procedury odzyskiwania danych. Jeśli należysz do grupy tych użytkowników systemu Windows XP, którzy zastanawiają się, czy zmienić stosowany system plików na system NTFS lub jeśli nie jesteś pewien tego, czy zaktualizować system plików
FAT 16 na FAT32, wtedy powinieneś przeczytać ten rozdział. Jeśli na skutek uszkodzenia głównego sektora rozruchowego MBR (master boot record) lub sektora rozruchowego woluminu VBR (volume boot record) nie jest możliwe użycie dysku, można skorzystać z zamieszczonych w rozdziale informacji, pomocnych w odtworzeniu tych sektorów i uzyskaniu dostępu do cennych danych.
Na mojej stronie internetowej umieściłem ponadgodzinny wideoklip, który za darmo jest dostępny dla każdego, kto ma ochotę obejrzeć go sobie w wersji online. Aby to zrobić, należy w przeglądarce wprowadzić adres:
httpjiwww. upgradingandrepairingpcs. com.
Komentarz Autora
Gdy pytano Dave'a McLellana — byłego dyrektora koncernu General Motors odpowiedzialnego za model Corvette — o jego ulubioną wersję tego samochodu, on zawsze odpowiadał: „Przyszłoroczna". Teraz, po ukazaniu się 16. edycji, przyszłoroczna wersja okazała się wersją tegoroczną, aż do następnego roku, w którym...
Wierzę, że książka jest bezsprzecznie najlepszą tego typu pozycją dostępną na rynku, a mniemam tak głównie na podstawie sporego odzewu zarówno ze strony słuchaczy moich seminariów, jak i Czytelników. Jestem ogromnie wdzięczny wszystkim tym. którzy wspierali mnie przy tworzeniu tej książki przez ostatnie 16 lat, jak również wszystkim oddanym Czytelnikom, z których wielu towarzyszy mi już od czasu wydania pierwszej edycji. Podczas seminariów prowadzonych przeze mnie od 1982 r. miałem bezpośredni kontakt z wieloma tysiącami odbiorców moich książek i nadal mile widziane są wszelkie komentarze, a nawet słowa krytyki. Niektórych z Was zainteresuje może informacja, że pisanie tej pracy rozpocząłem na początku 1985 r. W tamtych czasach została ona wydana za moje własne pieniądze i zanim została profesjonalnie opublikowana w 1988 r. przez wydawnictwo Que była wykorzystywana wyłącznie w trakcie prowadzonych przeze mnie seminariów poświęconych sprzętowi komputerowemu. W ten lub inny sposób tworzyłem tę książkę lub ją aktualizowałem przez ponad 20 lat! Od 16 lat, odkąd jest profesjonalnie wydawana, Rozbudowa i naprawa komputerów PC potwierdziła, że jest nie tylko pierwszą, ale również najbardziej obszerną, przystępnie napisaną i zrozumiałą publikacją tego typu. Najnowsza. 16. edycja jest jeszcze lepsza niż wszystkie poprzednie. Wszelkie komentarze, sugestie i pomoc sprawiły, że książka ta okazała się najlepszą dostępną na rynku publikacją poświęconą zagadnieniom związanym ze sprzętem komputerowym. Czekam na Wasze komentarze.
Scott
Rozdział 1.
Historia powstania komputera osobistego
Historia maszyn cyfrowych
przed powstaniem komputera osobistego
Można powiedzieć, że wiele odkryć i wynalazków miało pośredni lub bezpośredni wpływ na powstanie komputera osobistego. Przeanalizowanie kilku znaczących wydarzeń z historii maszyn cyfrowych może pomóc w przybliżeniu całego obrazu związanego z tym procesem.
Pierwsze komputery, niezależnie od typu, były prostymi kalkulatorami. Zaliczają się również do nich elektroniczne urządzenia cyfrowe wywodzące się bezpośrednio od swoich mechanicznych poprzedników.
Chronologia
Poniżej przedstawiono chronologiczne zestawienie kilku znaczących wydarzeń z historii komputera. W zamierzeniu nie jest to pełna prezentacja, ale tylko spis niektórych najważniejszych przełomowych wydarzeń związanych z powstawaniem tego urządzenia:
1617 John Napier tworzy „kości Napiera" — drewniane lub wykonane z kości słoniowej słupki służące do realizacji obliczeń
1642 Blaise Pascal opracowuje maszynę sumującą Pascala
.
1822 Charles Babbage opracowuje projekt maszyny różnicowej, a następnie maszyny analitycznej — prawdziwej maszyny liczącej ogólnego zastosowania.
1906 Lee De Forest patentuje triodę (lampę elektronową) pełniącą rolę przełącznika w pierwszych elektronicznych komputerach.
1936 Alan Turing publikuje pracę On Computable Numbers w której opisuje wyimaginowany computer zwany maszyną Turinga. Zostaje ona uznana za jeden z
fundamentów nowoczesnego przetwarzania danych. W późniejszym okresie Turing zajął się łamaniem kodu niemieckiego urządzenia szyfrującego ENIGMA.
1937 Jonh V. Atanasoff rozpoczyna pracę nad komputerem Atanasoffa-Berry (ABC), który później zostaje oficjalnie uznany jako pierwszy elektroniczny komputer.
1943 Thomas (Tommy) Flowers projektuje dla tajnej komórki brytyjskiej armii zajmującej się łamaniem kodów komputer Colossus, mający za zadanie rozszyfrowywanie wiadomości kodowanych za pomocą niemieckiego urządzenia szyfrującego Enigma.
John von Neumann tworzy pierwszą wersję projektu komputera EDVAC, w którym opisuje architekturę nowoczesnego komputera z programem znajdującym się w pamięci.
Zostaje zaprezentowana elektroniczna maszyna licząca ENIAC. zbudowana przez Johna Mauchly'ego i J. Prespera Eckerta.
23 grudnia William Shockley, Walter Brattain i John Bardeen sukcesem kończą testy tranzystora ostrzowego, rozpoczynając tym samym rewolucję w branży półprzewodników.
1949 Maurice Wilkes buduje na uniwersytecie w Cambridge EDSAC, pierwszy praktycznie wykorzystywany komputer z programem znajdującym się w pamięci.
1950 Zespół badawczy Engineering Research Associates, mający swoją siedzibę w Minneapolis, buduje ERA 1101, jeden z pierwszych komputerów produkowanych seryjnie.
UN1VAC I dostarczony do amerykańskiego urzędu zajmującego się spisem ludności jest pierwszym komputerem produkowanym seryjnie, który wzbudził szersze zainteresowanie.
Firma IBM wprowadza na rynek swój pierwszy elektroniczny komputer o nazwie 701.
1954 Gordon Teal — pracownik firmy Teras Instruments, Inc. — doskonali krzemowy tranzystor złączowy, powodując znaczne obniżenie kosztów jego produkcji.
Kalkulator IBM 650 z magnetycznym bębnem okazuje się być pierwszym komputerem produkowanym seryjnie, którego roczna sprzedaż wyniosła 450 sztuk.
Pracownicy Bell Laboratories informują o TRADIC, pierwszym komputerze całkowicie opartym na tranzystorach.
Dział badawczy firmy MIT buduje TX-0 — pierwszy oparty na tranzystorach programowalny komputer ogólnego zastosowania.
1956 Wraz z dostarczeniem przez firmę IBM do siedziby firmy Zellerbach Paper, znajdującej się w San Francisco, produktu 0 nazwie 305 RAMAC rozpoczyna się era magnetycznych napędów dyskowych.
1958 W celu udowodnienia, że oporniki i kondensatory mogą być umieszczone na tej samej warstwie materiału półprzewodnikowego, Jack Kolby pracownik firmy Texas Instruments worzy pierwszy układ scalony.
1959 Komputery przemysłowe firmy IBM z serii 7000 są pierwszymi komputerami opartymi na tranzystorach.
1959 Układ scalony praktycznie wykorzystywany i zaprojektowany przez Roberta Noyce'a — pracownika firmy Fairchild Camera and Instrument Corp. — umożliwia tworzenie ścieżek przewodzących bezpośrednio na powierzchni krzemu.
1960 Bell Labs projektuje Dataphone — pierwszy ogólnie dostępny modem służący do konwersji danych cyfrowych na sygnał analogowy przekazywany następnie przez łącze telefoniczne.
PDP-1 firmy DEC — protoplasta mikrokomputera — zostaje sprzedany za 120 000 dolarów.
Według danych czasopisma Datamation, firma IBM w 1961 roku, kiedy to wprowadziła na rynek komputer z serii 1400, ma udział w rynku wynoszący 81,2%.
1964 Superkomputer CDC 6600 — zaprojektowany przez firmę Seymour Cray — wykonuje do trzech milionów instrukcji na sekundę, co jest wartością
trzykrotnie wyższą niż szybkość osiągana przez komputer IBM Stretch, będący produktem jej największego konkurenta.
1964 Firma IBM informuje o swoim System/360 — rodzinie sześciu kompatybilnych ze sobą komputerów i 40 urządzeniach zewnętrznych współpracujących ze sobą.
Zostaje uruchomione przetwarzanie transakcji w trybie on-Iine w ramach systemu rezerwacji biletów SABRE opracowanego przez firmę IBM, stworzonego na zamówienie linii lotniczych American Airlines.
Firma Digital Equipment Corp. wprowadza z powodzeniem na rynek PDP-8 — pierwszy powszechnie wykorzystywany minikomputer.
1966 Firma Hewlett-Packard angażuje się w branżę komputerów ogólnego zastosowania przeznaczonych dla biznesu i opracowuje komputer HP-2115 służący do wykonywania obliczeń z szybkością, która dotąd była dostępna tylko w większych systemach.
1969 Departament Obrony tworzy cztery węzły sieci ARPAnet — dwa z nich w budynkach University of California (jeden w Santa Barbara, a drugi w Los Angeles) oraz po jednym w siedzibie firmy SRI International i w University of Utah — a tym samym daje podbudowę temu, co zapoczątkowało sieć Internet.
1971 Zespół badawczy San Jose Laboratories firmy IBM projektuje napęd dyskietek formatu 8 cali.
1971 W czasopiśmie Electronic News pojawia się pierwsza reklama mikroprocesora Intel 4004.
1971 W czasopiśmie Scientific American
zostaje zamieszczona reklama Kenbaka-1
— jednego z pierwszych komputerów osobistych wartego 750 dolarów.
1972 Firma Hewlett-Packard wprowadza na rynek HP-35 — szybki i wyjątkowo dokładny elektroniczny kalkulator z zaawansowanymi funkcjami arytmetycznymi między innymi logarytmy), wyposażony w jednolitą pamięć podobną do pamięci stosowanej w komputerach.
1972 Firma Intel wprowadza do sprzedaży mikroprocesor 8008.
1972 Steve Wozniak buduje „błękitne pudełko" — generator dźwięku służący do wykonywania darmowych połączeń telefonicznych.
1973 Robert Metcalfe wpada na pomysł wykonania w centrum badawczym firmy Xerox — położonym w Pało Alto — połączeń sieciowych w technologii Ethernet.
1973 Micral jest pierwszym sprzedawanym w częściach ogólnodostępnym komputerem osobistym opartym na mikroprocesorze Intel 8008.
1973 TV Typewriter zaprojektowany przez Dona Lancastera jako pierwszy umożliwia wyświetlanie alfanumerycznych danych przy wykorzystaniu
zwykłego odbiornika telewizyjnego.
1974 Pracownicy centrum badawczego firmy Xerox znajdującego się w Pało Alto projektują Alto — pierwszą stację roboczą z wbudowaną myszą stanowiącą urządzenie wejściowe.
Komputer 8H stworzony przez firmę Scelbi jest pierwszym szeroko reklamowanym amerykańskim zestawem komputerowym opartym na mikroprocesorze — Intel 8008.
Powstaje Telenet — pierwsza komercyjna sieć oparta na przełączaniu pakietów i będąca ogólnie dostępnym odpowiednikiem sieci ARPAnet.
1975 Styczniowe wydanie czasopisma Popular Electronics opisuje przedstawiony na swojej okładce komputer Altair 8800. który jest wyposażony w procesor Intel 8080.
1975 Lee Felsenstein projektuje prototyp modułu wizualizacji (ang. visual display module — VDM), który jest pierwszą implementacją wykorzystującego mapowanie pamięci alfanumerycznego wyświetlacza przeznaczonego dla komputerów osobistych.
1976 Steve Wozniak projektuje Apple-1 — pierwszy komputer jednopłytowy.
1976 Firma Shugart Associates wprowadza na rynek napęd dyskietek formatu 5,25 cala.
Pojawia się Cray I — pierwszy powszechnie dostępny procesor wektorowy, który odniósł sukces.
Firma Tandy Radio Shack prezentuje urządzenie TRS-80.
1977 Firma Apple Computer wprowadza do sprzedaży komputer Apple II.
1977 Firma Commodore przedstawia komputer PET (Personal Electronic Transactor — osobisty elektroniczny terminal).
1978 Komputer VAX 11/780 firmy Digital Eąuipment Corp. cechuje się zdolnością adresowania pamięci wirtualnej o maksymalnej pojemności 4,3 GB, co przewyższa kilkaset razy możliwości większości ówczesnych minikomputerów.
Firma Motorola wprowadza do sprzedaży mikroprocesor 68000.
John Shoch, pracownik centrum badawczego firmy Xerox — położonego w Pało Alto — tworzy „robaka" komputerowego, czyli program szukający w sieci procesorów będących w stanie bezczynności.
1980 Firma Seagate Technology tworzy pierwszy dysk twardy ST-506 przeznaczony dla mikrokomputerów.
Wyprodukowano pierwszy nośnik danych o zapisie optycznym — odpowiadający pojemności 60 dyskietek formatu 5,25 cala.
Firma Xerox wprowadza na rynek komputer osobisty Star, który jako pierwszy posiadał graficzny interfejs użytkownika (GUI).
1981 Adam Osborne kończy prace nad pierwszym komputerem przenośnym 0 nazwie Osborne I, który ważył około 9 kilogramów i kosztował 1795 dolarów.
1981 Firma IBM prezentuje swój komputer IBM PC, wywołując szybki rozwój rynku komputerów osobistych. IBM PC jest przodkiem stosowanych obecnie komputerów osobistych.
1981 Firma Sony wprowadza do sprzedaży pierwszy napęd dyskietek o formacie 3,5 cala.
Firma Philips, wraz z Sony, przedstawia napęd CD-DA (Compact Disc Digital Audio — kompaktowy dysk z cyfrowym zapisem dźwięku).
Firma Sony jako pierwsza wprowadza na rynek odtwarzacz płyt CD.
Firma Apple prezentuje komputer Lisa, który jest wyposażony w graficzny interfejs użytkownika bardzo podobny do interfejsu po raz pierwszy wykorzystanego w komputerze Star firmy Xerox.
Firma Compaą Computer Corp. wprowadza na rynek swoją pierwszą kopię komputera IBM PC, wykorzystując nawet podobne oprogramowanie.
Firma Apple Computer wprowadza z powodzeniem do sprzedaży pierwszy komputer Macintosh wyposażony w graficzny interfejs użytkownika
1 współpracujący z myszą (jego reklama pokazywana w trakcie finału rozgrywek Super Bowl 1984 kosztowała 1,5 miliona dolarów).
1984 Firma IBM prezentuje komputer PC-AT (PC Advanced Technology — zaawansowany technologicznie komputer osobisty), który jest trzykrotnie szybszy niż pierwszy komputer IBM PC i jest oparty na procesorze Intel 80286. Komputer AT, na którym są wzorowane obecnie produkowane komputery, jest wyposażony w 16-bitową magistralę ISA.
Firma Philips jako pierwsza prezentuje napęd CD-ROM.
Firma Compaą informuje o komputerze Deskpro 386, który jako pierwszy z dostępnych na rynku współpracował z nowym procesorem Intela — 80386.
1987 Firma IBM wprowadza do sprzedaży komputer PS/2, który jest wyposażony w napęd dyskietek formatu 3,5 cala oraz obsługuje standard VGA opracowany dla omputerów osobistych. Komputer PS/2 zawiera również magistralę MCA (MicroChannel Architecture) będącą pierwszą magistralą typu plug-and-play (podłącz i działaj) zaprojektowaną dla komputerów osobistych.
1988 Steve Wozniak— współzałożyciel firmy Apple — opuszczają, aby stworzyć nową, własną firmę o nazwie NeXT.
1988 Firma Compaq wraz z innymi producentami klonów komputera IBM PC opracowuje magistralę EISA (Enhanced Indus try Standard Architecture), która w rzeciwieństwie do magistrali MicroChannel jest kompatybilna z już istniejącą magistralą ISA.
1988 „Robak" komputerowy stworzony przez Roberta Morrisa powoduje przeciążenie sieci ARPAnet. 23-letni Morris — syn eksperta do spraw bezpieczeństwa komputerowego pracującego w Narodowej Agencji Bezpieczeństwa — przesyła do internetu „robaka" nie nastawionego na destrukcję, ale blokującego 6 000 komputerów podłączonych do sieci liczącej 60 000 węzłów.
Firma Intel wprowadza na rynek mikroprocesor 486 (P4), który zawiera ponad 4 miliony tranzystorów. Jednocześnie Intel prezentuje chipsety przeznaczone dla płyt głównych współpracujących z nowym procesorem.
Powstaje ogólnoświatowa sieć World Wide Web (WWW), która jest wynikiem prac Tima Bernersa-Lee — pracownika naukowego laboratorium fizyki wielkich energii CERN położonego w Genewie — nad hipertekstowym językiem znaczników (Hypertext Markup Language — HTML).
1993 Firma Intel wprowadza do sprzedaży procesor Pentium (P5). Gdy okazało się, że niemożliwe jest zastrzeżenie liczby, Intel zmienia nazewnictwo procesorów z l iczb na nazwy. Intel prezentuje również chipsety współpracujące z nowym procesorem oraz po raz pierwszy kompletne płyty główne.
1995 Firma Intel prezentuje procesor Pentium Pro, który jest pierwszym przedstawicielem rodziny P6.
1995 Firma Microsoft wprowadza na rynek Windows 95 — pierwszy popularny 32-bitowy system operacyjny.
1997 Firma Intel rozpoczyna sprzedaż procesora Pentium II, który właściwie jest procesorem Pentium Pro z dodanym rozszerzeniem MMX.
Firma AMD prezentuje procesor K6. który jest kompatybilny z procesorem Intel P5 (Pentium).
Firma Microsoft tworzy system operacyjny Windows 98.
Firma Intel wprowadza do sprzedaży procesor Celeron — tańszą wersję procesora Pentium II. Jego początkowe wersje nie posiadały pamięci podręcznej, ale w ciągu kilku miesięcy Intel prezentuje procesory Celeron z dodaną mniejszą, ale za to szybszą pamięcią podręczną drugiego poziomu L2.
Firma Intel prezentuje procesor Pentium III, który właściwie jest procesorem Pentium II z dodanym rozszerzeniem przetwarzania potokowego SSE (Streaming SIMD Extensions).
1999 Firma AMD wprowadza na rynek procesor Athlon.
1999 Organizacja IEEE oficjalnie zatwierdza standardy sieci bezprzewodowych 802.1 la (szybkość 54 Mb/s, pasmo 5 GHz) i 802.11 b (szybkość 11 Mb/s, pasmo 2,4 GHz). W celu certyfikowania produktów zgodnych ze standardem 802.11 b powstaje organizacja Wi-Fi Alliance. Wydawany przez nią certyfikat potwierdza możliwość współdziałania urządzeń.
2000 Na rynku pojawiają się pierwsze produkty zgodne ze standardem 802.1 lb, posiadające certyfikat organizacji Wi-Fi Alliance. Rozpoczyna się szybki rozwój
sieci bezprzewodowych.
2000 Firma Microsoft wprowadza do sprzedaży systemy operacyjne Windows Me (Millenium Edition) oraz Windows 2000.
2000 Zarówno Intel, jak i AMD prezentują procesory taktowane zegarem 1 GHz.
2000 Firma AMD tworzy procesor Duron — tańszą wersję modelu Athlon wyposażoną w pamięć Cache L2 o mniejszej pojemności.
Firma Intel wprowadza do sprzedaży procesor Pentium 4 — najnowszy produkt z rodziny procesorów charakteryzujących się architekturą 32-bitową Intel Architecture 32-bit (IA-32).
Firma Intel prezentuje procesor Itanium, który jest pierwszym procesorem 64-bitowym (IA-64) przeznaczonym na rynek komputerów osobistych.
2001 Przemysł komputerowy obchodzi 20. rocznicę wprowadzenia do sprzedaży komputera osobistego IBM PC.
2001 Firma Intel prezentuje kolejną wersję procesora Pentium 4, który jako pierwszy jest taktowany zegarem 2 GHz. Przemysł komputerowy potrzebował
dwudziestu ośmiu i pół roku na to, aby z początkowych 108 kHz dojść do częstotliwości zegara równej 1 GHz, ale już do osiągnięcia granicy 2 GHz
wystarczyło tylko 18 miesięcy.
2001 Firma Microsoft rozpoczyna sprzedaż systemu operacyjnego Windows XP w wersjach Home i Professional, przy czym po raz pierwszy — pod postacią identycznej podstawowej części kodu źródłowego — łączy ze sobą dotychczas oddzielnie tworzoną wersję domową (9x/Me) oraz wersję przeznaczoną dla firm (NT/2000).
2001 Firma Atheros wprowadza na rynek pierwsze bardzo szybkie układy zgodne z standardem 802.1 la, oferującym szybkość przesyłu danych na poziomie 54 Mb/s.
2002 Firma Intel wprowadza na rynek pierwszy procesor o szybkości przekraczającej 3 GHz, którym jest układ Pentium 4, taktowany zegarem o częstotliwości 3,06 GHz. Procesor przeznaczony dla komputerów PC jest też wyposażony w technologię hiperwątkowości (ang. Hyper-Threading), umożliwiającą jednoczesną obsługę dwóch wątków aplikacji.
2003 Firma Intel prezentuje procesor Pentium M, stworzony z myślą o komputerach przenośnych i cechujący się wyjątkowo niskim zużyciem energii. Dzięki temu w znaczącym stopniu wydłużono żywotność baterii i jednocześnie nadal utrzymano dość wysoką wydajność. Układ Pentium M odgrywa kluczową rolę w przypadku produktów firmy Intel opatrzonych logo Centrino. z którym standard 802.1 lg jest zgodny). Produkty oparte na standardzie 802.11 g szybko pojawiają się na rynku. Niektóre z nich były już dostępne, zanim standard został oficjalnie zatwierdzony.
2004 Firma Intel prezentuje wersję procesora Pentium 4 o nazwie kodowej Prescott. Jest to pierwszy układ przeznaczony dla komputerów PC wykonany w technologii 90 nanometrów.
2003 Firma AMD wprowadza do sprzedaży układ Athlon 64, pierwszy 64-bitowy procesor przeznaczony dla zwykłych użytkowników i klientów biznesowych.
2003 Organizacja IEEE oficjalnie zatwierdza standard bardzo szybkich sieci bezprzewodowych 802.1 lg (szybkość 54 Mb/s, pasmo 2,4 GHz — takie samo. jak w przypadku standardu 802.1 lb,
2004 Firma Intel prezentuje technologię EM64T (Extended Memory 64 Technology), będącą 64-bitowym rozszerzeniem architektury IA-32. Technologia EM64T jest zgodna z oprogramowaniem i przeznaczona na ten sam rynek, co procesor AMD Athlon 64; nie zachowano natomiast zgodności z 64-bitowym układem Itanium.
Kalkulatory mechaniczne
Jednym z najstarszych znanych urządzeń służących do obliczeń jest liczydło, które było szeroko stosowane przez ponad 2000 lat. Liczydło jest prostą drewnianą ramką zawierającą równolegle ustawione poprzeczki, na które są nawleczone kulki. Dzięki temu, że kulki mogą być przesuwane w dwóch kierunkach — zgodnie z określonymi zasadami — możliwe jest wykonanie kilku różnych operacji arytmetycznych.
Matematyka oparta na standardowych cyfrach arabskich dotarła do Europy w ósmym i dziewiątym wieku. Na początku 1600 roku uczony o nazwisku Charles Napier (wynalazca logarytmów) zaprojektował kilka słupków (później nazwanych kośćmi Napiera), które mogły być wykorzystane przy wykonywaniu operacji mnożenia liczb.
Blaise Pascal jest zazwyczaj uznawany za tego, który w 1642 roku zbudował pierwszą maszynę liczącą. Była ona w stanie wykonywać dodawanie liczb wprowadzanych za pomocą tarczy i w zamierzeniu miała wspomóc ojca wynalazcy, który był poborcą podatkowym. Następnie, w roku 1671 Gottfried Wilhelm von Leibniz zaprojektował kalkulator, który ostatecznie został wykonany 23 lata później. Jego maszyna licząca potrafiła nie tylko dodawać, ale po poprawnym wykonaniu operacji dodawania i przesunięcia była również w stanie wykonać operację mnożenia.
W roku 1820 Charles Xavier Thomas zaprojektował pierwszy mechaniczny kalkulator, który odniósł sukces na rynku. Oprócz dodawania potrafił również odejmować, mnożyć i dzielić. Następstwem tego było opracowanie udoskonalonych wersji mechanicznych kalkulatorów tworzonych przez różnych wynalazców.
Pierwszy kalkulator mechaniczny
Charles Babbage — profesor matematyki na uniwersytecie w Cambridge w Anglii — przez wielu jest uważany za ojca komputera, co zawdzięcza dwóm wspaniałym wynalazkom, z których każdy jest innego typu mechaniczną maszyną liczącą.
Maszyna różnicowa —jak ją nazwał — została zaprojektowana w 1812 r. Jej zadaniem było rozwiązywanie wielomianowych równań za pomocą metod różnicowych. W roku 1822 Charles Babbage zbudował — dla celów demonstracyjnych — działającą miniaturę modelu swojej maszyny różnicowej. Mając finansowe wsparcie brytyjskiego rządu, Babbage rozpoczął w 1823 roku konstruowanie modelu w rzeczywistej wielkości. W zamierzeniu model ten miał być napędzany parą i w pełni automatyczny; potrafić nawet drukować tabele wyników.
Babbage kontynuował pracę nad wynalazkiem przez 10 lat, ale w roku 1833 przestał się nim interesować, ponieważ wpadł na pomysł opracowania o wiele lepszej maszyny, którą opisał jako w pełni programowalny i zautomatyzowany komputer liczący ogólnego zastosowania o napędzie mechanicznym. Babbage nazwał swój nowy wynalazek maszyną analityczną. Projekt maszyny określał ją jako komputer równolegle przetwarzający liczby (słowa) dziesiętne składające się z 50 cyfr i wyposażony w przestrzeń przechowującą (pamięć) do 1000 takich liczb. Wbudowane operacje zawierały wszystko, co było wymagane w nowoczesnym komputerze ogólnego zastosowania łącznie z istotną funkcją warunkową, która umożliwiała wykonywanie instrukcji w kolejności zależnej od określonych warunków, a nie tylko w kolejności numerycznej. W nowoczesnych językach programowania taka instrukcja warunkowa jest realizowana za pomocą instrukcji IF. Maszyna analityczna została przewidziana do stosowania kart perforowanych, które umożliwiały sprawowanie kontroli lub zaprogramowanie maszyny. Maszyna napędzana parą miała działać w sposób automatyczny i wymagać dozoru tylko jednego pracownika.
Maszyna analityczna jest uważana za pierwszego prawdziwego protoplastę nowoczesnego komputera, ponieważ posiadała wszystkie elementy, z których obecnie składa się komputer. Należą do nich:
Urządzenie wejścia. Wykorzystany został pomysł urządzenia podobnego do stosowanego w krosnach używanych w ówczesnych czasach w zakładach tekstylnych. Dane były wprowadzane za pomocą kart perforowanych.
Jednostka sterująca. Baryłkowaty element składający się z wielu listew i słupków służący do sterowania lub programowania pracy procesora.
Procesor (lub kalkulator). Urządzenie liczące zawierające setki osi i tysiące kół zębatych o wysokości około 3 metrów.
Pamięć. Jednostka zawierająca jeszcze większy zestaw osi i kół zębatych będących w stanie zapamiętać 1000 50-cyfrowych liczb.
Urządzenie wyjścia. Płyty dopasowane do prasy drukującej służącej do drukowania końcowych wyników.
Niestety, potencjał tkwiący w pierwszym komputerze nigdy nie został wykorzystany z powodu problemów związanych z uzyskaniem wymaganej dokładności obróbki kół zębatych i mechanizmów. Stosowane wtedy narzędzia po prostu nie były doskonałe.
Godny uwagi jest fakt, że pomysł zastosowania karty perforowanej autorstwa Babbage'a ostatecznie został urzeczywistniony w 1890 r. W tym roku trwała rywalizacja dotycząca opracowania lepszej metody zapisywania w tablicach informacji dotyczących spisu ludności zamieszkującej obszar Stanów Zjednoczonych. Wtedy też Herman Hollerith — pracownik wydziału zajmującego się spisem ludności — zaproponował zastosowanie kart perforowanych. Jeśli nie zostałyby one wykorzystane, to jak w przybliżeniu określili pracownicy wydziału, zapisanie w tabelach wyników spisu ludności zajęłoby kilka lat. Jednak z pomocą kart perforowanych zadanie to można było wykonać w ciągu około 6 tygodni. Hollerith został założycielem firmy Tabulating Machinę Company, która później stała się znana pod nazwą IBM.
IBM i inne firmy w pewnym okresie opracowały serię udoskonalonych systemów opartych na kartach perforowanych. Systemy te składały się z urządzeń elektromechanicznych, takich jak przekaźniki i napędy. Takie systemy posiadały możliwość automatycznego podawania określonej ilości kart ze stacji odczytującej oraz pozwalały wykonywać operacje takie jak dodawanie, mnożenie i sortowanie. Możliwe też było otrzymanie z powrotem kart perforowanych z uzyskanymi wynikami. Tego typu maszyny obliczeniowe były w stanie przetworzyć od 50 do 250 kart na minutę, przy czym każda z nich przechowywała maksymalnie 80-cyfrowe liczby. Karty perforowane były nie tylko pomocne przy wprowadzaniu i uzyskiwaniu danych. Spełniały one również rolę nośnika pamięci. Urządzenia oparte na kartach perforowanych przez ponad 50 lat wykonały na całym świecie ogromną ilość obliczeń i pozwoliły na rozwinięcie się wielu pierwszych firm komputerowych.
Maszyny elektroniczne
Fizyk John V. Atanasoff — we współpracy z Cliffordem Berrym — jest uznawany za twórcę pierwszej prawdziwej elektronicznej maszyny liczącej. Została ona zbudowana latach 1937 - 1942, gdy jej twórca pracował na uniwersytecie stanowym w Iowa. Komputer Atanasoff-Berry (Atanasoff-Berry Computer — ABC) był pierwszym komputerem wykorzystującym nowoczesne techniki przełączania i lampy elektronowe spełniające rolę przełączników. Poza tym wykorzystano w nim rozwiązania związane z arytmetyką binarną i obwodami logicznymi. Dnia 19 października 1973 roku, po długiej rozprawie, wyrokiem sądu federalnego Stanów Zjednoczonych pod przewodnictwem sędziego Earla R. Larsona oficjalnie unieważniono patent należący do tej pory do Eckerta i Mauchly'ego, a dotyczący maszyny ENIAC, natomiast Atanasoffa uznano za twórcę pierwszego elektronicznego komputera.
Działania militarne podczas drugiej wojny światowej spowodowały znaczny rozwój komputerów. W 1943 roku Alan Turing zakończył tworzenie ściśle tajnego komputera o nazwie Colossus — łamiącego szyfry, wykorzystywanego przez armię brytyjską do rozszyfrowywania tajnych rozkazów kierowanych do niemieckich jednostek wojskowych. Niestety, Turing tak naprawdę nie został oficjalnie uznany za jego twórcę, ponieważ istnienie Colossusa jeszcze długo po wojnie było utrzymywane w tajemnicy.
Poza zastosowaniem komputerów do łamania szyfrów były one również wykorzystywane do wyznaczania trajektorii lotu pocisków oraz do innych celów militarnych. W 1946 roku John P. Eckert i John W. Mauchly — wraz ze swoimi współpracownikami z instytutu Moore School of Electrical Engineering mieszczącego się w University of Pennsylvania — zbudowali dla sil zbrojnych pierwszy komputer elektroniczny. Komputer ten stał się później znany jako ENIAC (ang. Electrical Numerical Integrator and Calculator — elektryczny numeryczny integrator i kalkulator). Komputer operował na liczbach 10-cyfrowych i potrafił pomnożyć dwie liczby tej wielkości z szybkością 300 działań na sekundę. Operacja taka polegała na odszukaniu w tabeli mnożenia — znajdującej się w pamięci — wartości każdego iloczynu. ENIAC był około 1000 razy szybszy od elektromechanicznych komputerów poprzedniej generacji opartych na przełącznikach.
Zawierał około 18 000 lamp elektronowych, zajmował powierzchnię 167 m2 i pobierał około 180 000 watów energii elektrycznej. Do wprowadzania i uzyskiwania danych były stosowane karty perforowane, natomiast rejestry służyły za sumatory oraz umożliwiały szybki dostęp przy odczycie i zapisie pamięci.
Instrukcje, z których był zbudowany wykonywany program, były tworzone za pomocą określonego schematu przewodów i przełączników, które kontrolowały przebieg obliczeń wykonywanych przez maszynę liczącą. Uruchomienie na ENIAC-u kolejnego programu wiązało się z ponowną zmianą układu przewodów i przełączników.
Mimo że Eckert i Mauchly początkowo uzyskali patent na elektroniczny komputer, później utracili go na rzecz Johna Atanasoffa, który zaprojektował maszynę Atanasoff-Berry.
Na początku 1945 roku matematyk John von Neumann zaprezentował komputer, który posiadał bardzo prostą, niezmienną fizyczną strukturę i dodatkowo był w stanie wydajnie wykonywać obliczenia dowolnego rodzaju. Było to możliwe dzięki zastosowaniu odpowiedniej kontroli programowej bez konieczności dokonywania modyfikacji konfiguracji sprzętowej komputera. Inaczej mówiąc, modyfikacja programu była możliwa bez zmiany układu przewodów. Metoda pamiętanego programu (ang. stored-program techniąue), znana również jako myśl von Neumanna, została powszechnie przyjęta i stała się fundamentem przyszłych generacji komputerów o wysokiej szybkości obliczeń.
Pierwsza generacja nowoczesnych programowalnych komputerów elektronicznych wykorzystująca powyższą metodę pojawiła się w 1947 roku. Do tej grupy maszyn można zaliczyć EDVAC i UNIVAC — pierwsze ogólnie dostępne komputery. Po raz pierwszy komputery te do przechowywania elementów programu i danych, do których wymagany był krótki czas dostępu, wykorzystywały pamięć o dostępie swobodnym (ang. random access memory — RAM). Zazwyczaj były one programowane bezpośrednio w kodzie maszynowym, mimo że latem roku 1950 dokonano znacznego postępu związanego z kilkoma aspektami zaawansowanego programowania. Nową erę zapoczątkował UNIVAC (Universal Automatic Computer — uniwersalny automatyczny komputer) — pierwszy prawdziwy komputer ogólnego zastosowania, zaprojektowany zarówno do wykonywania operacji na tekście, jak i na liczbach. Sprawiło to, że UNIVAC, oprócz zastosowania do celów naukowych i militarnych, mógł być wykorzystywany w zastosowaniach biznesowych.
Nowoczesne komputery
Począwszy od wprowadzenia na rynek UNIVAC-a, a skończywszy na czasach obecnych, rozwój komputera postępował w sposób bardzo dynamiczny. Komputery pierwszej generacji w swojej konstrukcji wykorzystywały lampy elektronowe. Następna generacja wykorzystuje już dużo mniejsze i bardziej wydajne tranzystory.
Od lamp do tranzystorów
Każdy nowoczesny komputer jest w większości zbiorem elektronicznych układów przełączających. Przełączniki mają za zadanie reprezentowanie i sterowanie przepływem elementów danych zwanych cyframi binarnymi (ang. binary digits) lub bitami (ang. bits). Z powodu wykorzystywanej przez komputer dwustanowej natury binarnej informacji i wyboru trasy sygnału okazało się, że jest do tego potrzebny wydajny elektroniczny przełącznik. Pierwsze elektroniczne komputery stosowały jako przełączniki lampy elektronowe, ale z ich działaniem związanych było wiele problemów.
W pierwszych komputerach była stosowana lampa elektronowa zwana triadą. Została ona skonstruowana w 1906 roku przez Lee De Foresta (rysunek 1.1). Trioda składa się z katody i anody, które są oddzielone od siebie siatką sterującą i zawieszone w szklanej lampie wypełnionej próżnią. Katoda jest nagrzewana przez elektryczny żarnik, co powoduje emisję elektronów, które są następnie przyciągane przez siatkę. Siatka sterująca umieszczona w środku triody steruje przepływem elektronów. Po przyłożeniu do siatki napięcia ujemnego elektrony są odpychane z powrotem do katody, natomiast w przypadku napięcia dodatniego są przyciągane przez anodę. Wniosek z tego taki, że wskutek zmiany napięcia siatki możliwe jest kontrolowanie stanu końcowego anody.
Rysunek 1.1.
Lampa próżniowa — trioda
Niestety, lampy nie sprawdziły się w roli przełączników. Pobierały sporą ilość energii elektrycznej i emitowały wiele ciepła, co w pierwszych maszynach liczących było poważnym problemem. Wynikało to głównie z faktu, że ciepło generowane przez lampy sprawiało, że ich praca była bardzo niestabilna, co w większych systemach objawiało się tym, że co kilka godzin ulegała spaleniu jedna lampa.
Wynalezienie tranzystora było jednym z najważniejszych okryć doprowadzających do rozpoczęcia rewolucji w świecie komputerów osobistych. Tranzystor po raz pierwszy został zbudowany w 1947 r. i w następnym roku zaprezentowany publicznie przez inżynierów Bell Laboratory — Johna Bardeena i Waltera Brattaina. William Shockley — pracownik firmy Bell — kilka miesięcy później zaprojektował tranzystor złączowy i w efekcie cała trójka naukowców w 1956 roku odebrała nagrodę Nobla w dziedzinie fizyki. Tranzystor, który przede wszystkim funkcjonuje jako jednorodny elektroniczny przełącznik, zastąpił w tej roli mniej nadającą się do tego lampę elektronową. Ze względu na fakt, że tranzystory miały tak niewielkie rozmiary i pobierały znacznie mniej energii, oparte na nich komputery również były mniejsze, szybsze i bardziej wydajne niż ich odpowiedniki wykorzystujące lampy elektronowe.
Tranzystory początkowo były wykonywane z elementów krzemowych i germanowych z pewną domieszką zanieczyszczeń. W zależności od rodzaju zanieczyszczeń stosowane materiały zaczęto określać jako typu n (ujemny) lub typu p (dodatni). Obydwa typy są przewodnikami umożliwiającymi przepływ prądu w obu kierunkach. Jednak po zetknięciu tych dwóch typów tworzy się bariera, przez którą przepływ prądu jest możliwy tylko w jednym kierunku — w momencie, gdy napięcie zostanie przyłożone do odpowiedniego bieguna. Jest to powód, dla którego struktury takie są nazywane półprzewodnikami.
Tranzystor powstaje po połączeniu ze sobą dwóch złączy typu p-n. Złącza typu p-n powstają poprzez umieszczenie cienkiej warstwy jednego typu materiału półprzewodnikowego pomiędzy dwiema warstwami drugiego. Jeśli warstwa znajdująca się w środku jest wykonana z materiału typu p, wtedy tranzystor jest oznaczony jako n-p-n. Jeśli natomiast jest wykonana z materiału typu «, wtedy tranzystor jest oznaczany jako p-n-p.
W przypadku tranzystora n-p-n materiał półprzewodnika typu n — znajdujący się po jednej stronie „wafla" — jest określany terminem emitera lub źródła i zwykle jest do niego przyłożone napięcie ujemne (rysunek 1.2). Materiał typu p, z którego jest wykonana warstwa środkowa jest nazywany bazą, natomiast materiał typu n warstwy położonej po przeciwnej stronie emitera — kolektorem lub drenem.
Rysunek 1.2.
Tranzystor n-p-n
Tranzystor n-p-n jest porównywany z triodą, gdzie emiter odpowiada katodzie, baza siatce, natomiast kolektor anodzie. Poprzez sterowanie napięciem przyłożonym do bazy możliwe jest wpływanie na natężenie przepływu prądu pomiędzy emiterem i kolektorem.
W porównaniu z lampą elektronową tranzystor w roli przełącznika jest o wiele bardziej wydajny i może zostać pomniejszony do mikroskopijnych rozmiarów. W styczniu 2001 roku dział badawczy firmy Intel ujawnił, że opracował najmniejszy i najszybszy tranzystor krzemowy świata o wielkości tylko 20 nanometrów (miliardowych części metra). Można się spodziewać, że procesory zbudowane z takich tranzystorów — w ilości miliarda — pojawią się na rynku w 2007 roku i będą taktowane zegarem 20 GHz! Dla porównania w roku 2003 procesor Athlon 64 firmy AMD był zbudowany z ponad 105,9 miliona tranzystorów, natomiast Pentium 4 Extreme Edition posiadał ich ponad 178 milionów.
Przejście z lamp elektronowych na tranzystory rozpoczęło proces miniaturyzacji trwający do dnia dzisiejszego. Dostępne obecnie niewielkie komputery kieszonkowe, a nawet tablety PC są zasilane bateriami i mają większe możliwości obliczeniowe niż wiele wcześniejszych rozwiązań wypełniających całe biurka w pokojach oraz pobierających ogromne ilości energii elektrycznej.
Co prawda lampy próżniowe zostały zastąpione przez tranzystory i układy scalone w niemal wszystkich powszechnych zastosowaniach, jednak wciąż pozostają popularne w wysokiej klasy sprzęcie audio, ponieważ w porównaniu z tranzystorami generują cieplejszy i bogatszy dźwięk. Ze względu na coraz częstsze wykorzystywanie komputerów do przetwarzania i odtwarzania dźwięku oddział Aopen firmy Acer — dążąc do umożliwienia odtwarzania muzyki ze znakomitą jakością— wyprodukował płytę główną AX4B-533 Tube, zawierającą dwie triody wspomagane przez specjalny układ redukcji szumów.
Układy scalone
Trzecia generacja nowoczesnych komputerów jest znana z tego, że zastosowano w nich — zamiast pojedynczych tranzystorów — układy scalone. W 1959 roku inżynierowie firmy Texas Instruments zaprojektowali układ scalony (czyli element półprzewodnikowy składający się z kilku tranzystorów umieszczonych na tej samej bazie (materiale podłoża) połączonych między sobą bez stosowania przewodów. Pierwszy układ scalony składał się tylko z sześciu tranzystorów. Dla porównania procesor Pentium Pro firmy Intel, stosowany w wielu współczesnych rozwiązaniach, zawiera ponad 5,5 miliona tranzystorów. Ponadto zintegrowana z nim pamięć podręczna jest zbudowana z dodatkowych 32 milionów tranzystorów! Obecnie istnieje wiele układów scalonych składających się z wielu milionów tranzystorów.
Pierwszy mikroprocesor
Firma Intel została założona 18 lipca 1968 roku przez Roberta Noyce'a, Gordona Moore'a i Andrew Grove'a. Jej założyciele postawili przed sobą konkretny cel. Postanowili mianowicie sprawić, żeby pamięć półprzewodnikowa stała się użyteczna w praktycznych zastosowaniach i dostępna po niewygórowanej cenie. W tamtym okresie tak nie było — warto wspomnieć, że cena pamięci opartej na krzemowym układzie scalonym była co najmniej 100 razy wyższa od ceny powszechnie stosowanej wtedy pamięci rdzeniowej. Ówczesny koszt pamięci półprzewodnikowej był równy mniej więcej jednemu dolarowi za bit, natomiast w przypadku pamięci rdzeniowej był to tylko jeden cent za bit. Noyce powiedział coś takiego: „Wszystko, co musieliśmy zrobić, sprowadzało się do stukrotnego obniżenia cen, a wtedy mogliśmy zdobyć rynek. I to zasadniczo tyle".
Około roku 1970 Intel był znany jako producent popularnych pamięci półprzewodnikowych i właśnie wtedy zaprezentował układ o pojemności 1 KB, który znacznie przewyższał pod tym względem wszystko, co wtedy było dostępne na rynku. 1 KB odpowiada 1024 bitom, natomiast bajt jest równy 8 bitom, a zatem taka pamięć była w stanie przechowywać tylko 128 bajtów, co według obecnych standardów nie jest zbyt dużą wartością. Układ pamięci opracowany przez firmę Intel, znany jako pamięć dynamiczna o dostępie swobodnym 1103 (ang. dynamie random access memory — DRAM), pod koniec następnego roku stała się najlepiej sprzedającym się układem półprzewodnikowym na świecie. W tym czasie firma — z grupy składającej się z jej założycieli i kilku innych osób — przeistoczyła się w przedsiębiorstwo zatrudniające ponad 100 osób.
Wynikiem sukcesu odniesionego przez firmę Intel w dziedzinie produkcji i projektowania układów pamięci była prośba japońskiego producenta Busicom o zaprojektowanie przez Intel zestawu układów scalonych przeznaczonych do produkcji bardzo wydajnych programowalnych kalkulatorów. W tym czasie wszystkie logiczne układy scalone dla każdej aplikacji lub produktu były projektowane na konkretne zamówienie i przeznaczone do ściśle określonych celów. Z tego właśnie powodu żaden z nich nie mógł być zastosowany w szerszym zakresie.
Początkowy projekt kalkulatora firmy Busicom zakładał zastosowanie przynajmniej 12 układów scalonych, z których każdy miał być oddzielnie zaprojektowany. Ted Hoff, inżynier firmy Intel, odrzucił takie rozwiązanie jako zbyt trudne do zrealizowania i zamiast niego zaprojektował jeden układ scalony, który miał pełnić rolę logicznego urządzenia ogólnego przeznaczenia, pobierającego instrukcje do wykonania z pamięci półprzewodnikowej. Program współpracujący z zestawem składającym się z czterech układów scalonych mógł kontrolować taką jednostkę centralną i odpowiednio dostosowywać jej działanie do aktualnie wykonywanego zadania. Taki układ scalony sam w sobie nie był złożony, co oznaczało, że mógł być zastosowany w rozwiązaniach innych niż kalkulatory. Poprzednie projekty były tworzone pod kątem jednego zastosowania, dlatego też nie były modyfikowalne. W takich rozwiązaniach stosowano wbudowane instrukcje. Uniwersalny układ scalony mógłby w tym przypadku wczytywać z pamięci zestaw zmiennych zawartych w instrukcjach, które następnie sterowałyby jego działaniem. Zamierzano opracować pojedynczy układ scalony wykonujący — w zależności od przetwarzanej instrukcji -— różne funkcje prawie kompletnego urządzenia liczącego.
Pojawił się jednak jeden problem związany z nowo zaprojektowanym układem scalonym, mianowicie firma Busicom posiadała do niego wszelkie prawa. Hoff i inni wiedzieli, że ten produkt ma praktycznie nieograniczone możliwości zastosowania dzięki wyposażeniu — dotąd ograniczonych pod tym względem — maszyn liczących w pewien stopień inteligencji. W efekcie inżynierowie ci zaczęli namawiać kierownictwo Intela do odkupienia praw własności do tego produktu. W czasie, gdy założyciele firmy — Gordon Moore i Robert Noyce — zdobyli prawa do układu scalonego, niektórzy inni pracownicy zaczęli się obawiać, że fakt ten spowoduje odejście od głównego zajęcia firmy, czyli wytwarzania pamięci. Ostatecznie ich obawy zostały rozwiane po tym, kiedy okazało się, że każdy mikrokomputer wyposażony w zestaw składający się z czterech układów scalonych posiadał również dwa układy pamięci. Oto, co powiedział wtedy dyrektor marketingu: „Sądzę, że początkowo uznaliśmy to za sposób na sprzedaż większej ilości pamięci i planowaliśmy w oparciu o to realizować kolejne inwestycje".
Intel zaoferował firmie Busicom, w zamian za przekazanie praw do produktu, zwrot kosztów, jakie firma ta poniosła w związku z zamówieniem układu scalonego. Była to kwota 60 000 dolarów. Japońska firma, która akurat borykała się z problemami finansowymi, zgodziła się na to. Nikt wtedy w firmie — nawet Intel — nie był w pełni świadom znaczenia zrealizowanej transakcji. Oczywiście pozwoliło to wejść firmie na drogę związaną z produkcją procesorów. W rezultacie w roku 1971 wprowadzono na rynek mikrokomputer oparty na 4-bitowym układzie 4004 firmy Intel (termin mikroprocesor został wymyślony później). Układ scalony — mniejszy od paznokcia i mieszczący w sobie 2300 tranzystorów zajmujących powierzchnię 10 mikronów (milionowa część metra) — kosztował 200 dolarów. Posiadał moc obliczeniową równą wydajności pierwszego komputera elektronicznego ENIAC. Dla porównania, ENIAC, który został zbudowany w 1946 roku zawierał 18 000 lamp elektronowych zajmujących razem 85 metrów sześciennych. Układ scalony 4004 był taktowany zegarem 108 kiloherców (ponad 0,1 megaherca) i wykonywał 60 000 operacji na sekundę. Jest to może, według obecnych standardów, liczba śmiesznie mała, ale na tamte czasy było to poważne osiągnięcie.
W roku 1972 Intel wprowadził na rynek mikrokomputer oparty na układzie 8008, który przetwarzał jednocześnie 8 bitów danych, co — w porównaniu z poprzednim układem — było wartością dwukrotnie większą. Około 1981 roku rodzina procesorów firmy Intel powiększyła się o kolejne dwa — 16-bitowy 8086 i 8-bitowy 8088. Te dwa układy scalone zostały wykorzystane w jednym tylko roku w niesamowitej liczbie 2500 różnych projektów. Wśród nich był projekt firmy IBM, który okazał się być projektem pierwszego komputera osobistego.
Termin PC definiuje typ komputera osobistego wyposażonego w procesor o architekturze opracowanie przez firmę Intel i luźno powiązanego z oryginalnymi systemami PC, XT i AT. Przed pojawieniem się komputera PC istniały innego typu komputery osobiste, jednak to właśnie systemy, które obecnie są nazywane komputerami PC, zdominowały rynek, począwszy od 1981 r., gdy pojawiły się po raz pierwszy.
W roku 1982 Intel wprowadził na rynek procesor 286. Składał się on z 134 000 tranzystorów i był około trzy razy wydajniejszy niż inne 16-bitowe procesory dostępne w tym czasie. Nowy procesor, oprócz tego, że był wyposażony w układ zarządzania pamięcią, był również zgodny ze swoimi poprzednikami, co oznaczało, że można było uruchamiać na nim starsze aplikacje. Procesor ten — o rewolucyjnym znaczeniu — został po raz pierwszy zastosowany w systemie PC-AT firmy IBM, na którym bazują wszystkie współczesne komputery osobiste.
W 1985 roku Intel wprowadził na rynek procesor 386. Charakteryzował się on architekturą 32-bitową i zawierał 275 000 tranzystorów. Procesor 386 był w stanie wykonać ponad 5 milionów instrukcji na sekundę (Million Instructions Per Second — MIPS). Komputer DESKPRO 386 firmy Compaq był pierwszym komputerem osobistym wykorzystującym nowy mikroprocesor.
Następnym z kolei procesorem był Intel 486, wprowadzony do sprzedaży w roku 1989. Składał się z 1,2 miliona tranzystorów i po raz pierwszy miał wbudowany koprocesor. Jego wydajność była około 50 razy większa od pierwszego układu 4004 i dorównywała wydajności niektórych komputerów dużej mocy (ang. mainframe).
Następnie, w roku 1993, firma Intel wprowadziła na rynek pierwszy procesor o nazwie Pentium, który zapoczątkował rodzinę P5 (586). Procesor ustanowił nowe standardy wydajności, która była do pięciu razy wyższa od wydajności procesora Intel 486. Procesor Pentium zawierał 3,1 miliona tranzystorów, które pozwalały osiągnąć szybkość działania na poziomie 90 MIPS, czyli około 1500 razy wyższą od szybkości układu 4004.
Zmiana nazewnictwa procesorów stosowanego przez firmę Intel z liczb (386/486) na nazwy (Pen-tium/Pentium Pro) wynikała z faktu, że firma nie mogła zastrzec liczby jako znaku towarowego, a zatem nie była w stanie powstrzymać konkurencyjnych producentów przed używaniem tych samych liczb jako nazw produkowanych przez nich podobnych układów.
Pierwszy procesor z rodziny P6 (686), o nazwie Pentium Pro, został wprowadzony na rynek w roku 1995. Składał się z 5,5 miliona tranzystorów i jako pierwszy był wyposażony w szybką pamięć podręczną drugiego poziomu L2 mającą za zadanie zwiększenie ogólnej wydajności procesora.
Intel dokonał modyfikacji procesorów z rodziny P6 (686/Pentium Pro), a efektem tego było wprowadzenie na rynek w maju 1997 roku procesora Pentium II. Procesory Pentium II zawierały 7,5 miliona tranzystorów umieszczonych, zamiast w tradycyjnym układzie scalonym, w kasecie (ang. cartridge), co umożliwiło umieszczenie układów scalonych pamięci podręcznej drugiego poziomu L2 bezpośrednio w jednym module. Rodzina procesorów Pentium II została poszerzona w kwietniu 1998 roku o dwa nowe produkty. Jednym z nich byl nieco tańszy procesor Celeron przeznaczony dla zwykłych komputerów osobistych, natomiast drugim był droższy procesor Pentium II Xeon przewidziany do zastosowań w serwerach i stacjach roboczych. Firma Intel w 1999 roku zaprezentowała kolejny procesor, Pentium III, który właściwie był procesorem Pentium II z dodanym rozszerzeniem przetwarzania potokowego SSE (Streaming SIMD Extensions).
Mniej więcej w tym czasie, gdy procesor Pentium umacniał swoją dominującą pozycję, firma AMD przejęła firmę Neogen. która projektowała wtedy swój procesor Nx686. AMD dokonało połączenia tego projektu z interfejsem procesora Pentium, co w efekcie zaowocowało powstaniem produktu o nazwie AMD K6. K6 był — zarówno od strony sprzętowej, jak i programowej — kompatybilny z procesorem Pentium, co oznaczało, żc współpracował z tym samym gniazdem Socket 7 i można było uruchamiać na nim identyczny zestaw aplikacji. W momencie gdy Intel wycofał się z produkcji procesora Pentium na rzecz jego następców, Pentium II i III. firma AMD w dalszym ciągu kontynuowała produkcję szybszych wersji procesora K.6 i zdobyła ogromną część rynku tanich komputerów osobistych.
W roku 1998 Intel okazał się pierwszą firmą, która zintegrowała pamięć podręczną drugiego poziomu L2 (pracującą przy pełnej szybkości rdzenia procesora) bezpośrednio z procesorem, przez co w znaczący sposób zwiększyła jego wydajność. Rozwiązanie to zostało po raz pierwszy zastosowane w procesorze Celeron drugiej generacji (opartym na rdzeniu procesora Pentium II), jak również w procesorze Pentium IIPE (o zwiększonej wydajności) stosowanym tylko w komputerach przenośnych. Pierwszym procesorem wyposażonym w pamięć podręczną drugiego poziomu L2, bezpośrednio z nim zintegrowaną, był procesor Pentium III drugiej generacji (z rdzeniem Coppermine) wprowadzony na rynek pod koniec 1999 roku. Później wszyscy liczący się producenci procesorów również zintegrowali z procesorem pamięć podręczną drugiego poziomu L2. Taka tendencja jest realizowana do dnia dzisiejszego.
W 1999 roku firma AMD wprowadziła do sprzedaży procesor Athlon. W zamierzeniu miał on stanowić przeciwwagę dla procesorów Intela przeznaczonych dla droższych komputerów osobistych. Procesor Athlon zdobył sporą popularność i wydawało się, że po raz pierwszy Intel zyskał poważnego konkurenta na rynku serwerów i stacji roboczych. Jeśli spojrzy się na te wydarzenia z perspektywy czasu, można dojść do wniosku, że sukces procesorów Athlon byl prosty do przewidzenia, ale w czasie, gdy wprowadzono je do sprzedaży po raz pierwszy, nie było to takie pewne. W przeciwieństwie do układów K6, które były zgodne z procesorami firmy Intel zarówno na poziomie sprzętu, jak i oprogramowania, układy Athlon były zgodne jedynie na drugim z wymienionych poziomów i wymagały wyspecjalizowanej płyty głównej wyposażonej w obsługujące je chipset i gniazdo.
W roku 2000 obaj producenci wprowadzili na rynek kilka nowych procesorów. Ze strony firmy AMD swoją premierę miały procesory Athlon Thunderbird i Duron. Duron jest właściwie procesorem Athlon wyposażonym w mniejszą ilość pamięci podręcznej drugiego poziomu L2 i przeznaczonym dla tańszych komputerów osobistych, natomiast procesor Thunderbird współpracuje ze zintegrowaną z nim pamięcią podręczną, która ma za zadanie zwiększenie wydajności procesora Athlon. Duron jest stosunkowo tanim procesorem opracowanym głównie jako konkurencja dla równie niedrogich procesorów Celeron produkowanych przez firmę Intel.
Pod koniec roku 2000 Intel wprowadził do sprzedaży procesor Pentium 4. który jest najnowszym osiągnięciem w zakresie architektury 32-bitowej Intel Architecture (IA-32). Intel zapowiedział również pojawienie się procesora Itanium (o nazwie kodowej Merced), który jest pierwszym przedstawicielem architektury 64-bi-towej Intel Architecture (IA-64). Itanium jest pierwszym procesorem przetwarzającym instrukcje 64-bitowe. dla którego powstanie cała gama nowych systemów operacyjnych i aplikacji, a który nadal pozostanie kompatybilny z oprogramowaniem 32-bitowym.
W 2000 r. nastąpił kolejny przełomowy moment, który zapisze się na kartach historii. Związany jest on z przekroczeniem przez firmy Intel i AMD bariery 1 GHz — szybkości, która przez wielu była uznawana za nieosiągalną.
► ► Zajrzyj do punktu „Procesor Itanium i Itanium 2" znajdującego się na stronie 241.
W roku 2001 Intel wprowadził do sprzedaży wersję procesora Pentium 4 taktowanego zegarem 2 GHz, który był pierwszym procesorem przeznaczonym dla komputerów osobistych o takiej szybkości. Firma AMD również zaprezentowała procesor Athlon XP, oparty na nowszym rdzeniu Palomino, oraz procesor Athlon MP, przewidziany do zastosowań w serwerach wieloprocesorowych. W trakcie roku 2002 zarówno firma AMD. jak i Intel w dalszym ciągu zwiększały szybkość taktowania swoich procesorów i rozszerzały możliwości procesorów już będących na rynku, odpowiednio — Athlon/Duron oraz Pentium 4/Celeron.
W 2002 r. Intel zaprezentował procesor Pentium 4 o częstotliwości 3,06 GHz, będący pierwszym układem przeznaczonym dla komputerów PC, który osiągnął taką szybkość. Ten i kolejne układy pracujące z częstotliwością przekraczającą 3 GHz dysponowały technologią hiperwątkowości HT (Hyper-Threading), opracowaną przez firmę Intel. Sprawia ona, że procesor pracuje w wirtualnej konfiguracji dwuprocesorowej. Wykonując jednocześnie dwa wątki aplikacji, procesory z technologią HT są w stanie pracować od 25 do 40% szybciej od układów, które tej technologii są pozbawione. Technologia HT jest też zgodna z systemem Windows XP Home Edition, który nie obsługuje płyt głównych z dwoma procesorami.
W roku 2003 firma AMD zaprezentowała swój pierwszy 64-bitowy procesor Athlon 64 (wcześniej noszący nazwę kodową ClawHammer lub K8). W przeciwieństwie do pierwszych 64-bitowych układów firmy Intel — Itanium i Itanium 2, stworzonych z myślą o serwerach, zoptymalizowanych dla nowej 64-bitowej architektury i stosunkowo wolnych w przypadku wykonywania 32-bitowych instrukcji x86 używanych przez starsze procesory — układ Athlon 64 jest 64-bitowym rozszerzeniem procesorów o architekturze x86, takich jak Athlon, Pentium 4 i starsze modele. Procesor Athlon 64 przetwarza zatem 32-bitowe aplikacje z taką samą szybkością, jak oprogramowanie 64-bitowe. Intel stworzył następnie procesor Pentium 4 Extreme Edition, będący pierwszym układem przeznaczonym dla zwykłych użytkowników, który zawierał pamięć podręczną L3. Pamięć podręczna o ogromnej pojemności wynoszącej 2 MB w znacznym stopniu przyczyniła się do zwiększenia liczby wchodzących w skład procesora tranzystorów, a także jego wydajności.
Historia komputera osobistego
Do czwartej, obecnej generacji współczesnych komputerów można zaliczyć te, które są wyposażone w mikroprocesory. Oczywiście część komputerów czwartej generacji stanowią komputery osobiste, które same stały się znacznie bardziej dostępne wraz z upowszechnieniem się tanich mikroprocesorów i pamięci.
Narodziny komputera osobistego
W 1973 roku zostały opracowane jedne z pierwszych mikrokomputerów opartych na układzie 8008. Nie były one niczym więcej niż tylko narzędziami używanymi do pokazów i nie wykonywały żadnych operacji poza zapalaniem i gaszeniem diod. W kwietniu 1974 r. firma Intel wprowadziła do sprzedaży mikroprocesor 8080, który był 10 razy szybszy niż poprzedni układ 8008 i potrafił współpracować z pamięcią o wielkości 64 kB. Było to przełomowe wydarzenie, na które oczekiwał przemysł komputerowy.
W styczniu 1975 roku, w czasopiśmie Popular Electronics, firma MITS zamieściła spory artykuł dotyczący komputera Altair. Komputer Altair — uważany za pierwszy komputer osobisty — oparty byl na procesorze 8080 i oprócz niego składał się jeszcze z zasilacza, przedniego panelu zawierającego sporą ilość diod oraz pamięci o pojemności 256 bajtów (nie kilobajtów). Zestaw do samodzielnego montażu był sprzedawany w cenie 395 dolarów. Montaż — w celu uzyskania ostatecznej postaci połączonych ze sobą płytek z układami — wiązał się wtedy z użyciem lutownicy, w przeciwieństwie do tego. co oznacza obecnie, czyli poskładania wcześniej wyprodukowanych komponentów przy użyciu najwyżej śrubokręta.
Micro Instrumentation and Telemetry Systems była początkową nazwą firmy założonej w 1969 r. przez Eda Robertsa i kilka innych osób w celu wytwarzania i sprzedawania przyrządów i nadajni-ków przeznaczonych dla rakiet. Na początku lat 70. ubiegłego wieku Ed Roberts stał się jedynym właścicielem firmy. Później zaprojektował zestaw komputerowy Altair. W styczniu 1975 r. po wprowadzeniu Altaira na rynek przedsiębiorstwo przyjęło nazwę MITS, będącą jedynie skrótem pełnej nazwy. W 1977 r. Roberts sprzedał je firmie Pertec, a następnie przeniósł się do stanu Georgia i rozpoczął naukę w szkole medycznej. Obecnie jest czynnym zawodowo lekarzem!
Komputer Altair by! wyposażony w magistralę S-100 — charakterystyczną dla architektury systemów otwartych — ze względu na fakt, że w przypadku każdego gniazda składała się ona ze 100 końcówek. Otwarta architektura oznaczała, że każdy mógł zaprojektować karty współpracujące z tymi gniazdami i interfejsem systemu. Spowodowało to, że kilku mniejszych producentów wprowadziło na rynek różne karty rozszerzeń i urządzenia zewnętrzne. Nowy procesor był inspiracją dla wielu firm, które rozpoczęły tworzenie oprogramowania z nim współpracującego, włączając w to system operacyjny CP/M (Contro!/ Program for Micro-processors — program sterujący pracą mikroprocesorów) i pierwszą wersję języka programowania BASIC (Beginners All-purpose Symbolic Instruction Code).
Firma IBM w roku 1975 wprowadziła na rynek to, co można określić mianem jej pierwszego komputera osobistego. Model 5100 był wyposażony w pamięć o pojemności 16 kB. Poza tym posiadał wbudowany wyświetlacz o wysokości 16 wierszy i szerokości 64 znaków oraz interpreter języka BASIC i napęd taśmowy DC-300 służący do przechowywania danych. Cena komputera ustalona na 9000 dolarów spowodowała, ze nie mógł on zostać zaliczony do produktów licznie występujących na rynku komputerów osobistych, który był zdominowany przez domorosłych eksperymentatorów — z czułością nazywanych hakerami — składających w ramach hobby tanie zestawy o wartości około 500 dolarów. Oczywiście komputer firmy IBM nie mógł być konkurencją dla takich tanich produktów i dlatego też nie odniósł sukcesu.
Zanim IBM opracował to, co jest znane jako IBM Personal Computer (model 5150). jeszcze wcześniej zastąpi! model 5100 kolejnymi dwoma — 5110 i 5120. Pomimo że seria 5100 poprzedzała komputer IBM PC, to jednak starsze komputery i model 5150 IBM PC nie miały ze sobą zbyt wiele wspólnego. Komputer osobisty opracowany przez firmę IBM bliższy był komputerowi IBM System/23 DataMaster — wprowadzonemu na rynek w 1980 roku i przeznaczonemu do zastosowań biurowych. I rzeczywiście, wielu inżynierów zaangażowanych w projekt IBM PC pracowało początkowo przy projekcie, którego efektem był komputer DataMaster.
W 1976 roku nowa firma o nazwie Apple Computer wprowadziła na rynek komputer Apple I, który początkowo byl sprzedawany za 666,66 dolarów. Cena sprzedaży została ustalona w sposób arbitralny przez jednego ze współzałożycieli firmy — Steve'a Jobsa. Komputer składał się z płyty głównej przykręconej do kawałka sklejki. Obudowy i zasilacza nie było w komplecie. Zostało sprzedanych tylko kilka takich komputerów i w chwili obecnej kolekcjonerzy płacą za nie ponad 20 000 dolarów. Komputer Apple II wprowadzony na rynek w 1977 roku przyczyni! się do ustanowienia standardów dotyczących prawie wszystkich najważniejszych mikrokomputerów później zbudowanych, włączając w to IBM PC.
W roku 1980 rynek został zdominowany przez dwa typy komputerów. Pierwszym z nich był Apple II. który pozyskał dużą liczbę oddanych użytkowników i ogromny zbiór oprogramowania (jego ilość zwiększała się wręcz w fantastycznym tempie). Drugi z komputerów oparty na systemie operacyjnym CP/M nie był pojedynczym systemem, ale składał się z wielu systemów, które swoje początki wywodziły z oryginalnego komputera Altair firmy MITS. Były wzajemnie ze sobą kompatybilne, wszystkie współpracowały z systemem operacyjnym CP/M oraz stosowano w nich gniazda rozszerzeń, które były zgodne ze standardem S-100. Poszczególne systemy zostały stworzone przez różne firmy i były sprzedawane pod odmiennymi nazwami. Jednak — w przypadku większości z nich — było wykorzystywane to samo oprogramowanie i podłączano do nich podobne urządzenia dodatkowe. Godna uwagi jest informacja, że żaden z tych systemów nie był kompatybilny ani z IBM PC, ani z komputerami Macintosh, które obecnie są dwoma podstawowymi standardami.
Nowa, konkurencyjna firma wyłaniająca się zza linii horyzontu mogła dojść do wniosku, że aby odnieść sukces, wytwarzany komputer osobisty powinien charakteryzować się otwartą architekturą, posiadać gniazda rozszerzeń, budowę modułową oraz mieć zapewnione wsparcie ze strony nie tylko producenta komputera, ale również innych firm zajmujących się tworzeniem oprogramowania i sprzętu. Tą firmą okazał się IBM, który wywołał w tamtym czasie sporo zamieszania na rynku, ponieważ nie był postrzegany jako producent systemów mających cechy architektury otwartej. Zasadniczo komputer IBM bardziej upodobnił się do pierwszego komputera Apple, natomiast sam Apple, zgodnie z oczekiwaniami wszystkich, upodobni! się do produktów firmy IBM. Otwarta architektura mającego się ukazać w sprzedaży komputera IBM PC i jej przeciwieństwo w postaci projektowanego komputera Macintosh firmy Apple spowodowały w przemyśle komputerowym całkowite odwrócenie istniejącej sytuacji.
Komputer osobisty firmy IBM
Pod koniec 1980 roku firma IBM postanowiła naprawdę powalczyć na szybko rozwijającym się rynku tanich komputerów osobistych. Firma otworzyła w Boca Raton na Florydzie swój oddział, Entry Systems Division, który miał zajmować się stworzeniem nowego komputera. Oddział ten celowo został umiejscowiony z dala od głównej siedziby IBM znajdującej się w Nowym Jorku, jak również z dala od innych oddziałów, tak aby mógł funkcjonować jako jednostka niezależna. W oddziale pracował niewielki zespół liczący 12 inżynierów i projektantów kierowanych przez Dona Estridge'a i mający za zadanie zaprojektowanie pierwszego prawdziwego komputera osobistego. Firma IBM uważała poprzedni komputer 5100 wprowadzony na rynek w 1975 roku raczej za inteligentny programowalny terminal niż za komputer z prawdziwego zdarzenia, nawet pomimo faktu, że to naprawdę był komputer. Prawie wszyscy inżynierowie, którzy przenieśli się do nowego oddziału, byli wcześniej związani z projektem komputera System/23 DataMaster, który byl niewielkim komputerem biurowym wprowadzonym na rynek w 1980 roku i, w efekcie, bezpośrednim poprzednikiem komputera IBM PC.
Spora cześć projektu komputera IBM PC powstała pod wpływem projektu urządzenia DataMaster, który łączył w jedną całość również monitor i klawiaturę. Ponieważ takie rozwiązanie w efekcie okazało się niewygodne, w przypadku komputera IBM PC klawiatura i monitor stały się niezależnymi elementami, jednak sam układ klawiatury i jej wewnętrzna elektronika zostały skopiowane z projektu komputera DataMaster.
Kilka innych komponentów komputera IBM PC również zostało skopiowanych z projektu DataMaster. włączając w to magistrale rozszerzeń (lub gniazd wejścia-wyjścia), które posiadały nie tylko identyczne złącze
0 62 końcówkach, ale też prawie identyczne parametry techniczne. Takie przeniesienie projektu magistrali było możliwe, ponieważ komputer IBM PC wykorzystywał ten sam kontroler przerwań co DataMaster oraz podobny kontroler bezpośredniego dostępu do pamięci (Direct Memory Access — DMA). Poza tym. karty rozszerzeń — już zaprojektowane dla komputera DataMaster — mogły być z łatwością przystosowane na potrzeby komputera IBM PC.
Komputer DataMaster oparty byl na procesorze Intel 8085, który posiadał ograniczenia współpracy z pamięcią o maksymalnej pojemności 64 kB oraz z 8-bitową wewnętrzną i zewnętrzną magistralą danych. Rozmieszczenie komponentów sprawiło, że zespół projektujący nowy komputer zastosował procesor Intel 8088, który współpracował z pamięciami o znacznie większej pojemności (1 MB) i z 16-bitową wewnętrzną magistralą danych, ale tylko z 8-bitową zewnętrzną magistralą danych. 8-bitowa zewnętrzna magistrala danych
1 podobny zestaw instrukcji umożliwia! łatwe połączenie procesora 8088 z wcześniejszym projektem komputera DataMaster.
W ciągu roku firma IBM zamieniła pomysł na nowy komputer na w pełni działający produkt. W tym celu wykorzystała istniejące projekty i zakupiła od innych producentów tak dużo komponentów, jak to tylko było możliwe. Oddział Entry Systems Division uzyskał niezależność w stosunku do innych oddziałów firmy IBM i, zamiast stosować się do obowiązujących biurokratycznych procedur firmy, które wymagały korzystania tylko z własnych zasobów, mógł wykorzystywać wszelkie zasoby dostępne poza nią. IBM zlecił stworzenie języków programowania i systemu operacyjnego niewielkiej firmie Microsoft. Ta decyzja miała decydujący wpływ na stworzenie z firmy Microsoft potęgi na obecnym rynku oprogramowania.
Godny uwagi jest fakt, że firma IBM początkowo skontaktowała się z firmą Digital Research (pro-TV ducentem CP/M, wówczas najpopularniejszego systemu operacyjnego przeznaczonego dla kompute-rów osobistych) w celu zlecenia jej opracowania systemu operacyjnego dla nowego komputera IBM PC. Jednakże firma Digital Research nie była skora do współpracy z IBM-em i nie doprowadziła do podpisania z nim umowy. W tym momencie Microsoft skorzystał z możliwości stworzonej przez Digital Research i w konsekwencji stał się jednym z największych producentów oprogramowania na świecie. Współpraca firmy IBM w czasie projektowania komputera IBM PC z zewnętrznymi kooperantami była dla Microsoftu jawnym zaproszeniem do późniejszego przejęcia obsługi powstałego systemu. I tak się faktycznie stało.
Dnia 12 sierpnia 1981 roku, wraz z wprowadzeniem na rynek komputera IBM PC, w przemyśle komputerowym został ustanowiony nowy standard. W tym momencie oryginalny komputer IBM PC zapoczątkował rozpoczęcie produkcji ogromnej ilości innych komputerów i urządzeń peryferyjnych. Zostało sprzedanych setki milionów komputerów z nim kompatybilnych. Ponadto, dla żadnej innej platformy dostępnej na rynku nie powstała tak duża ilość oprogramowania jak ma to miejsce w przypadku komputerów kompatybilnych z IBM PC.
Przemysł komputerowy ponad 20 lat później
Po upływie ponad 20 lat od powstania komputera osobistego IBM PC nastąpiło wiele zmian. Dla przykładu, komputer zgodny z IBM PC, początkowo z procesorem 8088 4,77 MHz, teraz jest taktowany zegarem 3 GHz lub szybszym stosowanym w procesorze Pentium 4, czyli działa prawie 20 000 razy szybciej, niż miało to miejsce w przypadku oryginalnego komputera IBM PC (wzrost dotyczy faktycznej szybkości przetwarzania, a nie częstotliwości zegara). Pierwszy IBM PC pracujący pod kontrolą systemu DOS 1.0 był wyposażony tylko w jeden lub dwa napędy dyskietek jednostronnego zapisu o pojemności 160 kB, podczas gdy w obecnie stosowanych komputerach z łatwością można przechowywać dane na dyskach twardych o pojemności 200 GB (200 miliardów bajtów) lub nawet większej.
W przemyśle komputerowym obowiązuje praktyczna zasada — zwana prawem Moore 'a (od nazwiska jej twórcy. Gordona Moore'a — współzałożyciela firmy Intel), która mówi, że dostępna moc obliczeniowa procesora oraz pojemność dysków jest mniej więcej podwajana co 1,5 roku do 2 lat.
Odkąd pojawiły się komputery osobiste, zależność ta niezmiennie się sprawdza i jeśli cokolwiek ma ulec zmianie, to jedynie w kierunku dalszego zwiększenia tempa wzrostu wydajności procesorów.
Prawo Moore'a
W 1965 roku Gordon Moore przygotował przemówienie na temat sprzedaży pamięci komputerowych i zauważył ciekawą zależność. Gdy zaczął rysować graficzną prezentację danych, zdał sobie sprawę z istnienia zadziwiającej tendencji, mianowicie takiej, że każdy nowy układ scalony w przybliżeniu dwukrotnie zwiększał swoją pojemność w porównaniu ze swoim poprzednikiem, a poza tym każdy taki układ był wprowadzany na rynek w ciągu 18 - 24 miesięcy od daty pojawienia się poprzedniego. Doszedł do wniosku, że jeśli taka tendencja nadal będzie się utrzymywać, to moc obliczeniowa po stosunkowo niedługim czasie zacznie zwiększać się w sposób wykładniczy.
Obserwacja dokonana przez Moore'a, obecnie określana jako prawo Moore'a, opisuje tendencję, która jest aktualna do dnia dzisiejszego i nadal sprawdza się z niezwykłą dokładnością. Prawo Moore'a nie dotyczy tylko układów pamięci, ale również precyzyjnie opisuje wzrost mocy obliczeniowej procesorów i pojemności dysków twardych. Stało się ono podstawą w przypadku wielu branżowych prognoz dotyczących wydajności. Jako przykład można przytoczyć fakt, że przez 30 lat liczba tranzystorów stosowanych w procesorach zwiększyła się ponad 18 000 razy, z początkowych 2300 tranzystorów procesora 4004 do ponad 140 milionów procesora Pentium III Xeon wprowadzonego na rynek w maju 2000 roku. Intel przewiduje, że około roku 2007 zostanie wprowadzony do sprzedaży procesor zawierający miliard tranzystorów i taktowany zegarem 20 GHz.
Oprócz wzrostu wydajności procesorów i pojemności dysków nastąpiła kolejna ważna zmiana, mianowicie firma IBM nie jest już jedynym producentem komputerów zgodnych z jej projektem. Oczywiście firma ta zapoczątkowała nowy standard dla swojego produktu, ale obecnie już się nim nie zajmuje. Częściej się zdarza, że nowe standardy obowiązujące w przemyśle komputerowym są opracowywane przez inne firmy i organizacje.
Aktualnie to głównie firmy Intel i Microsoft oraz — w pewnym stopniu — AMD są odpowiedzialne za określanie i rozwijanie standardów związanych ze sprzętem komputerowym i oprogramowaniem. W związku z dominacją pierwszych dwóch z wymienionych firm niektórzy wpadli nawet na pomysł określania komputerów osobistych terminem Wintel. Co prawda na początku firma AMD wytwarzała procesory firmy Intel w ramach udzielonej przez nią licencji, a później produkowała tanie odpowiedniki układów 486 i Pentium mające taką samą liczbę nóżek, jak one, ale począwszy od procesora Athlon, tworzy zupełnie odrębne układy, będące godnymi rywalami dla procesorów firmy Intel z serii Pentium II/III i 4.
W ciągu kilku ostatnich lat Intel i Microsoft kierowały rozwojem rynku komputerów osobistych. Opracowanie standardów takich jak magistrala PCI (Peripheral Component Interconnect), magistrala AGP (Accelera-ted Graphics Port), płyt głównych zgodnych ze specyfikacją ATX i NLX, gniazd procesorów, interfejsów kart rozszerzeń oraz kilku innych jest potwierdzeniem faktu, że Intel obecnie ma naprawdę duży wpływ na rozwój podzespołów przeznaczonych dla komputerów osobistych. Intel zajmuje się też projektowaniem chipsetów płyt głównych, które obsługują wymienione elementy. Dzięki temu firma może natychmiast udostępniać komputery wyposażone w jej najnowsze procesory. Firma AMD też wytwarza chipsety obsługujące produkowane przez nią procesory, ale odgrywają one głównie rolę układów, na których opierają się inni producenci przy udoskonalaniu własnych konstrukcji. W efekcie komputery z procesorami firmy AMD w porównaniu z wyposażonymi w układy firmy Intel oferują— przy niższej cenie — znacznie szersze możliwości modyfikowania. Podobnie przedstawia się sytuacja na rynku oprogramowania, na którym firma Microsoft w dalszym ciągu promuje swój system operacyjny Windows oraz takie aplikacje, jak pakiet Office. Zarówno Intel, jak i Microsoft cały czas korzystają z dużej popularności internetu, multimediów i innego typu nośników o bogatej zawartości. Takie zastosowania, jak gry interaktywne, publikacje DVD, szerokopasmowy dostęp do internetu i drukowanie z fotograficzną jakością przekonują coraz więcej osób do korzystania z komputerów PC. Nawet pomimo tego, że dziś — w porównaniu z okresem od połowy do końca lat 90. ubiegłego wieku, gdy nastąpił ogromny wzrost sprzedaży —jej obecny poziom nie zmienia się, większość osób, które zamierzały użyć komputera PC w pracy lub do zabawy, już go posiada. Obecnie dosłownie kilkuset producentów z branży komputerowej, opierając się na opracowanych standardach, tworzy komputery, które są w pełni kompatybilne z IBM PC. Poza tym tysiące firm wytwarzających urządzenia peryferyjne wprowadza do sprzedaży produkty, które poszerzają możliwości systemów kompatybilnych z IBM PC.
Systemy te rozwinęły się w takim stopniu nie tylko dlatego, że kompatybilny sprzęt z łatwością mógł ze sobą współpracować, ale również wskutek tego, że podstawowy system operacyjny nie był tworzony tylko przez IBM, ale też przez innych producentów (Microsoft). Rdzeń oprogramowania systemowego stanowi BIOS (ang. basie input/output system — podstawowy system wejścia-wyjścia), który również był tworzony przez różnych producentów, takich jak AMI, Phoenix i innych. Taka sytuacja pozwoliła na udzielanie innym producentom licencji na tworzenie przez nich systemu operacyjnego i BIOS-u, a następnie sprzedawanie własnych komputerów kompatybilnych z IBM PC. Fakt, że twórcy systemu DOS wykorzystali sporą część funkcjonalności i interfejsu użytkownika z systemów CP/M i Unix, prawdopodobnie mial duży wpływ na ilość dostępnego oprogramowania. Gdy system Windows odniósł sukces, twórcy oprogramowania tym bardziej mieli powody ku temu. aby pisać programy dla systemów używanych w komputerach osobistych.
Jednym z powodów, dla którego komputery Apple Macintosh nigdy nie zyskały większej popularności na rynku komputerów osobistych było kontrolowanie przez firmę Apple całości oprogramowania systemowego (BIOS-u i systemu operacyjnego), a ponadto (z wyłączeniem jednego krótkotrwałego epizodu) nie udzielanie licencji żadnej innej firmie, która zamierzała wprowadzić na rynek rozwiązanie kompatybilne z jej produktami.
Po latach niedopuszczania innych do własnej części rynku firma Apple zdała sobie sprawę, że nieudzielanie licencji na swój system operacyjny było niewłaściwym posunięciem i w połowie roku 1990 udostępniła licencję na swoje oprogramowanie innym producentom, takim jak Power Computing. Jednak niedługo po tym fakcie unieważniła te umowy. Ze względu na fakt, że rozwiązania firmy Apple zasadniczo nadal mają charakter systemów zamkniętych, inni producenci nie mogą projektować komputerów z nimi kompatybilnych, co oznacza, że tego typu produkty są możliwe do uzyskania tylko z jednego źródła, czyli od firmy Apple. Co prawda projektowanie tanich komputerów, takich jak iMac, i ciągłe powodzenie produktów firmy Apple wśród artystów i nauczycieli pomogło jej się utrzymać i nieznacznie zwiększyć udział w rynku, jednak ze względu na zamknięty charakter jej produktów nigdy nie będzie mogła skutecznie konkurować z producentami komputerów PC. Dobrze się stało, dla całej społeczności informatycznej, że IBM stworzył bardziej otwarty i rozszerzalny standard, który obecnie jest wykorzystywany w rozwiązaniach oferowanych przez setki producentów w tysiącach różnych konfiguracji. Tego typu współzawodnictwo wśród producentów produktów kompatybilnych z IBM PC powoduje, że oferują oni wyższą wydajność i większe możliwości za bardziej przystępną cenę.
Rynek komputerów osobistych w dalszym ciągu rozwija się, natomiast nowe technologie stopniowo są wdrażane w produktach wprowadzanych do sprzedaży, przez co, wraz z upływem czasu, stają się one coraz bardziej nowoczesne. Rozwiązania te, za niższą cenę, zapewniają wysoką jakość i dodatkowo są wyposażane w sporą ilość oprogramowania dla nich przeznaczonego. Bez obaw można przyjąć założenie, że w ciągu następnych 20 lat produkty kompatybilne z IBM PC będą dominowały na rynku komputerów osobistych.
Rozdział 2.
Komponenty, funkcje i typy komputerów
Czym jest komputer osobisty?
Zwykle zadaję pytanie „Czym właściwie jest komputer PC?" w momencie, gdy rozpoczynam jedno z moich seminariów poświęconych sprzętowi komputerowemu. Oczywiście większość osób natychmiast odpowiada, że skrót PC wywodzi się od słów personal computer (komputer osobisty), co oczywiście jest zgodne z prawdą. Następnie niektórzy przechodzą do tworzenia dokładniejszej definicji komputera osobistego jako dowolnego niedużego systemu zakupionego i używanego przez pojedynczego użytkownika. Niestety, taka definicja jest niezupełnie precyzyjna i wystarczająca do naszych zastosowań. Zgodzę się z tym, że PC jest komputerem osobistym, ale jednak nie wszystkie komputery osobiste są komputerami PC. Na przykład komputer Apple Macintosh jest oczywiście komputerem osobistym, ale nikt ze znanych mi osób nie zaliczyłby go do kategorii PC, a zwłaszcza sami użytkownicy komputerów Macintosh! Aby określić poprawną definicję komputera PC, należy bardziej zagłębić się w to zagadnienie.
Używając określenia PC, uznaje się, że jest to coś bardziej konkretnego niż tylko dowolny komputer osobisty. Na pewno nawiązuje się do powiązań z oryginalnym komputerem IBM PC wyprodukowanym w 1981 roku. Pozwolę sobie nawet na stwierdzenie, że firma IBM rzeczywiście opracowała typ komputera, który obecnie jest określany terminem PC, co oznacza, że zaprojektowała i zbudowała pierwszy komputer oraz określiła wszystkie standardy, które odróżniały go od innych komputerów osobistych. Należy zauważyć, że to. czego jestem w pełni świadom i co zostało również potwierdzone przez samą historię, to fakt, że firma IBM nie wpadła na pomysł stworzenia komputera osobistego. Większość uważa, że jego historyczne początki sięgają czasów opracowania przez firmę M1TS w 1975 roku komputera Altair. Firma IBM nie wymyśliła komputera osobistego, ale zaprojektowała i wykonała to, co jest dzisiaj nazywane mianem PC. Niektórzy mogą rozszerzyć definicję komputera PC jako dowolnego komputera osobistego, który jest zgodny z komputerem IBM PC. 1 faktycznie, przez wiele lat komputerami PC nazywano zarówno modele zgodne z IBM PC, jak również jego kopie, czyli właściwie uznawano zasługi firmy IBM jako twórcy komputera PC.
Pomimo że oczywiście firma IBM w 1981 roku zaprojektowała i zbudowała pierwszy komputer PC, a następnie przez kolejnych kilka lat kontrolowała opracowywanie i rozwój standardu PC, to jednak aktualnie już nie pełni takiej roli. Oznacza to, że nie ma dużego wpływu na współczesny rynek komputerów PC. W 1987 roku firma IBM straciła kontrolę nad rozwojem standardu PC po tym, jak sama wprowadziła na rynek komputery z serii PS/2. Do tego momentu inne firmy produkujące komputery PC dosłownie kopiowały rozwiązania firmy IBM łącznie z układami scalonymi, złączami i nawet formatem płyt głównych, a także obudowami i zasilaczami. Po roku 1987 firma IBM zaniechała rozwijania wielu wczesnych standardów. Jest to powód, dla którego już od wielu lat zaprzestałem w odniesieniu do komputerów PC stosowania terminu zgodny z IBM PC.
Jeśli komputer PC nie jest już rozwiązaniem zgodnym z IBM PC, czym zatem jest? Poprawnie zadane pytanie powinno brzmieć: „Kto aktualnie kontroluje rozwój standardu PC?". Pytanie to jeszcze lepiej rozbić na dwie części. Pierwsza z nich ma postać: „Kto aktualnie dominuje na rynku oprogramowania komputerów PC?", natomiast druga: „Kto obecnie ma największy wpływ na rozwój sprzętu komputerowego?".
Kto dominuje na rynku oprogramowania komputerów PC?
W momencie, gdy zadaję to pytanie uczestnikom moich seminariów, większość z nich nawet przez ułamek sekundy nie waha się i odpowiada: „Microsoft!". Nie sądzę, że taka odpowiedź wzbudza jakiekolwiek wątpliwości. Microsoft oczywiście dominuje na rynku systemów operacyjnych przeznaczonych dla komputerów osobistych, począwszy od pierwszego systemu MS-DOS, poprzez kolejne wersje Windows 3.1/95/98/Me, Windows NT/2000, a skończywszy na najnowszym Windows XP.
Firma Microsoft skutecznie wykorzystała swoją hegemonię na rynku systemów operacyjnych dla komputerów PC jako sposób na przejęcie kontroli na rynku oprogramowania takiego jak narzędzia i aplikacje. Przykładowo, wiele programów narzędziowych, takich jak programy do kompresji i buforowania dysków, defragmen-tacji i naprawy struktury plików, a nawet prostych aplikacji takich jak kalkulator i notatnik, początkowo oferowanych przez niezależnych producentów, obecnie jest dołączonych do systemu Windows. Firma Microsoft dodała do swojego systemu nawet bardziej złożone aplikacje, takie jak przeglądarka internetowa, która dodatkowo była automatycznie instalowana wraz z systemem, co stanowiło spore zagrożenie dla producentów konkurencyjnego oprogramowania. Firma Microsoft swoją dominację na rynku systemów operacyjnych — w większym stopniu niż inni — wykorzystała również przy integracji z systemem własnego oprogramowania sieciowego i aplikacji. Jest to powód obecnej dominacji tej firmy w prawie każdej kategorii oprogramowania przeznaczonego dla komputerów osobistych, począwszy od systemów operacyjnych, poprzez programy narzędziowe i sieciowe, a skończywszy na edytorach tekstu, bazach danych i arkuszach kalkulacyjnych.
W początkowym okresie istnienia komputerów osobistych, gdy jeszcze firma IBM w pełni kontrolowała standard PC, zlecono firmie Microsoft stworzenie systemu operacyjnego współpracującego z komputerem PC. IBM opracował projekt dysku twardego oraz napisał BIOS (ang. basie input/output system — podstawowy system wejścia-wyjścia), po czym zlecił firmie Microsoft stworzenie dla komputera PC dyskowego systemu operacyjnego (ang. Disk Operating System — DOS), jak również kilku innych programów i narzędzi. W związku z tym, co później zostało uznane za chyba najbardziej kosztowną pomyłkę w historii biznesu, firma IBM nie zadbała o zachowanie dla siebie wyłącznych praw do systemu DOS stworzonego przez firmę Microsoft. Mogła to osiągnąć poprzez odkupienie praw lub udzielenie licencji na wyłączność. Zamiast tego IBM udzielił zwykłej licencji, która zezwalała firmie Microsoft na sprzedaż kodu źródłowego systemu MS-DOS każdej innej zainteresowanej nim firmie. Firma Compaq, produkująca pierwsze kopie komputera IBM PC. chętnie nabyła licencję kodu źródłowego systemu MS-DOS i w krótkim czasie użytkownicy mogli zakupić ten sam system operacyjny wprowadzony do sprzedaży pod kilkoma różnymi nazwami. Z perspektywy czasu można powiedzieć, że jeden błąd popełniony przy zawieraniu umowy sprawił, że Microsoft stał się potęgą na rynku oprogramowania, a w konsekwencji spowodował utratę przez firmę IBM kontroli nad stworzonym przez nią standardem PC.
Jako twórca książki (nie oprogramowania) jestem w stanie wyobrazić sobie znaczenie tego niebywałego przeoczenia. Wyobraźmy sobie, że wydawnictwo wpada na wspaniały pomysł opublikowania bardzo popularnej książki i w tym celu płaci jej autorowi. Następnie, wskutek źle sformułowanej umowy, autor stwierdza, że w pełnej zgodności z prawem może sprzedać tę samą książkę (może pod innym tytułem) wszystkim innym konkurencyjnym wydawnictwom. Oczywiście nie znam żadnego wydawnictwa, które by dopuściło do tego, na co pozwolił IBM w 1981 roku firmie Microsoft. Na mocy umowy zawartej z Microsoftem IBM właściwie już pierwszego dnia po jej podpisaniu utracił kontrolę nad zleconym przez siebie oprogramowaniem przeznaczonym dla swojego nowego komputera PC.
Wart uwagi jest fakt, że w branży komputerowej oprogramowanie jest chronione przez prawa autorskie, natomiast sprzęt może być chroniony tylko poprzez wykorzystywanie patentów, które są trudne do uzyskania ze względu na czasochłonność i koszt takiej operacji. Poza tym tracą ważność po 17 latach. Opatentowanie czegoś wymaga spełnienia warunku unikalności i w konsekwencji powoduje konieczność wykonania zupełnie nowego projektu. Tym sposobem w przypadku większości podzespołów komputera IBM PC uzyskanie patentu nie było możliwe, ponieważ został on zbudowany z już istniejących części, które były ogólnie dostępne w każdym sklepie komputerowym! I faktycznie, większość najważniejszych elementów oryginalnego komputera IBM PC, takich jak procesor 8088, generator czasu 8284, czasomierz 8253/54, kontroler przerwań 8259, kontroler DMA 8237 (ang. direct memory access — bezpośredni dostęp do pamięci), interfejs urządzeń zewnętrznych 8255 oraz kontroler magistrali 8288 były produktami firmy Intel. Wymienione układy scalone stanowiły „duszę" i „serce" płyty głównej pierwszego komputera IBM PC.
Ze względu na fakt, że projekt pierwszego komputera IBM PC nie był w pełni opatentowany, każdy mógł skopiować jego komponenty. Sprowadzało się to nabycia identycznych układów scalonych tych samych producentów i dostawców, u których zaopatrywała się firma IBM, a następnie zaprojektowania nowej płyty głównej o podobnym schemacie. Co dziwniejsze, firma IBM publikowała w postaci szczegółowych i łatwo dostępnych materiałów technicznych nawet kompletne diagramy zawierające schematy swoich płyt głównych i wszystkich kart z nimi współpracujących. Sam jestem posiadaczem kilku pierwszych dokumentacji opublikowanych przez IBM, do których nadal, od czasu do czasu, zaglądam w celu uzyskania szczegółowych informacji związanych z. określonymi komponentami zastosowanymi w projekcie komputera PC. Tak naprawdę w dalszym ciągu polecam te materiały każdemu, kto zamierza w większym stopniu zgłębić rozwiązania sprzętowe zastosowane w komputerach firmy IBM.
Trudniejszą rzeczą związaną z kopiowaniem projektu komputera IBM PC było oprogramowanie, które było chronione przez prawa autorskie. Firma Phoenix Software (obecnie znana pod nazwą Phoenix Technologies) znalazła się wśród producentów, którzy jako pierwsi wpadli na pomysł obejścia, w zgodzie z prawem, tego ograniczenia, co umożliwiło powielenie (ale tak naprawdę nie skopiowanie) funkcjonalności oprogramowania, do którego zalicza się BIOS. BIOS jest definiowany jako zbiór programów bezpośrednio nadzorujących urządzenia występujące w komputerze. Tego typu programy są zwykle określane terminem sterowników (ang. device drivers), dlatego też BIOS jest właściwie zbiorem wszystkich podstawowych sterowników służących do nadzoru i współpracy z urządzeniami systemowymi. System operacyjny, taki jak DOS lub Windows, wykorzystuje sterowniki zawarte w BlOS-ie do nadzorowania i komunikacji z różnym urządzeniami występującymi w komputerze i peryferiami z nim współpracującymi.
► ► Zajrzyj do rozdziału 5. „BIOS" znajdującego się na stronie 457.
Sposób firmy Phoenix na zgodne z prawem powielenie BIOS-u użytego w komputerze IBM PC był ciekawym przykładem zastosowania inżynierii odwrotnej. Firma stworzyła dwa zespoły złożone z inżynierów systemowych, z tym że jeden z nich był kompletowany ze szczególną uwagą, ponieważ w jego skład miały wchodzić osoby, które nigdy wcześniej nie miały do czynienia z kodem źródłowym BIOS-u firmy IBM. Pierwszy zespół zapoznał się z BlOS-em firmy IBM, a następnie opracował jak najbardziej szczegółową specyfikację operacji przez niego wykonywanych. Następnie drugi zespół zapoznał się z treścią specyfikacji i na jej podstawie zaczął prace nad zupełnie nowym BlOS-em, który będzie realizował wszystkie operacje określone przez pierwszy zespól. Końcowym efektem prac był nowy BIOS — napisany całkowicie od początku — z kodem może nie identycznym jak kod BIOS-u firmy IBM, ale posiadającym taką samą funkcjonalność.
Firma Phoenix określiła zastosowane podejście wykorzystujące inżynierię odwrotną terminem „czystego pokoju". Na pewno taka metoda nie wywoła żadnych procesów sądowych. Ze względu na fakt, że kod źródłowy oryginalnego BIOS-u firmy IBM zajmował tylko 8 kB i miał ograniczone zastosowanie, jego powielenie metodą „czystego pokoju" nie stanowiło większego problemu i nie było zbyt czasochłonne. Wraz z rozwijaniem przez firmę IBM BIOS-u również firma Phoenix oraz inni producenci doszli do wniosku, że dotrzymywanie kroku zmianom dokonywanym przez IBM jest stosunkowo tanie. Po odliczeniu programu testującego urządzenia POST (ang. power on self test) oraz programu BIOS Setup służącego do konfiguracji BIOS-u okazało się. że w przypadku większości BIOS-ów — stosowanych nawet w płytach głównych dostępnych obecnie — objętość wykonywanego kodu zawiera się w przedziale od 32 do 128 kB pamięci. Aktualnie głównymi wytwórcami układów BIOS dla producentów komputerów osobistych i płyt głównych są firmy Phoenix i American Megatrends (AMI). Trzecim najważniejszym producentem BIOS jest firma Award Software, przejęta przez firmę Phoenix Technologies, która kontynuuje sprzedaż produktów wyposażonych w BIOS marki Award.
Po skopiowaniu rozwiązań sprzętowych i BIOS-u — zastosowanych w komputerze IBM PC — pozostało jeszcze tylko stworzenie systemu operacyjnego w pełni zgodnego z systemem wykorzystywanym przez IBM. jakim był DOS. Inżynieria odwrotna systemu DOS nawet po zastosowaniu metody ..czystego pokoju" była zniechęcającym zadaniem, ponieważ system DOS jest o wiele bardziej rozbudowany niż BIOS, a ponadto zawiera znacznie więcej programów i funkcji. Poza tym system operacyjny w porównaniu z BlOS-em — który jest stosunkowo niezmienny — ulegał znacznie częściej różnym modyfikacjom. Oznaczało to. że jedynym sposobem pozyskania systemu zgodnego z systemem DOS było zakupienie licencji na niego. I właśnie w tym momencie pojawiła się firma Microsoft. Ze względu na fakt, że IBM (który jako pierwszy zlecił Microsoftowi stworzenie systemu DOS) nie zwrócił uwagi na to. że podpisał z nią zwykłą umowę licencyjną, od tej pory Microsoft mógł bez ograniczeń sprzedawać ten sam system DOS, zaprojektowany dla firmy IBM, każdemu, kto się z taką prośbą do niego zwrócił. Po nabyciu licencjonowanej kopii systemu MS-DOS ostatni brakujący element został zdobyty i teraz, niezależnie od tego. czy IBM wyraził na to zgodę czy nie. można było rozpocząć produkcję komputerów zgodnych z IBM PC.
Pozostaje jeszcze tylko odpowiedź na pytanie, dlaczego nie istnieją kopie lub rozwiązania zgodne z komputerem Macintosh firmy Apple. Nie wynika to z faktu, że komputerów firmy Apple nie da się skopiować. Tak naprawdę komputer Macintosh ma stosunkowo prostą budowę i można go z łatwością złożyć z gotowych komponentów. Rzeczywisty problem polega na tym, że firma Apple posiada prawa do systemu Mac OS oraz do BIOS-u. a ponieważ nie zamierzała udzielać żadnych licencji na swoje produkty, w efekcie żadna firma nie może sprzedawać rozwiązań zgodnych z jej komputerami. Poza tym należy zwrócić uwagę na to. że system Mac OS i BIOS są ze sobą ściśle zintegrowane i na to, że, w przeciwieństwie do wielu prostszych i dających się w łatwiejszy sposób powielić BIOS-ów stosowanych w komputerach PC, Mac BIOS jest bardzo duży oraz złożony i właściwie stanowi część systemu Mac OS. Większa złożoność i stopień integracji systemu Mac OS i BIOS-u zapobiegła sytuacjom, w których dążono wszelkimi metodami, w tym metodą „czystego pokoju", do ich powielenia. Oznacza to, że bez błogosławieństwa firmy Apple udzielonego w formie licencji żadna kopia komputera Macintosh nie ma prawa kiedykolwiek powstać.
Wart uwagi jest fakt, że w latach 1996 - 1997 bardziej liberalnie myślący decydenci w firmie Apple poczynili pewne starania mające na celu udzielenie licencji na połączony system OS/BIOS i nawet kilka rozwiązań zgodnych z komputerami Macintosh zostało nie tylko opracowanych, ale również zrealizowanych i sprzedanych. Firmy takie jak Sony. Power Computing, Radius, a nawet Motorola zainwestowały miliony dolarów w wykonanie projektów takich systemów, ale niestety, już po sprzedaniu pierwszych kopii komputera Macintosh firma Apple nagle odebrała wszystkie licencje! Takie postępowanie było ewidentnie wynikiem decyzji Steve'a Jobsa. który ponownie stanął na czele firmy Apple i przede wszystkim był jednym z twórców projektu komputera Macintosh, mającym do niego prawa autorskie. Po wycofaniu udzielonych licencji firma Apple niemalże zagwarantowała sobie to, że jej produkty nigdy nie odniosą większego sukcesu. Wraz ze zmniejszeniem udziału w rynku wzrosną koszty. Poza tym zmniejszy się ilość dostępnych aplikacji i w porównaniu z rynkiem komputerów PC powstanie — dla rozwiązań firmy Apple — mniej nowych urządzeń. Prawa własności oznaczają również, że poważniejsze naprawy lub wymiany komponentów takich jak płyty główne, zasilacze i obudowy będą realizowane za wyższą cenę tylko przez firmę Apple, niezależnie od tego, że koszt aktualizacji takich komponentów zazwyczaj nie jest wysoki.
Często dochodzę do wniosku, że gdyby Apple prowadził inną politykę i od początku udzielał licencji na swój system OS i BIOS, wtedy książka ta mogłaby być zatytułowana Upgrading and Repairing Macs (Rozbudowa i naprawa komputerów Macintosh)!
Kto obecnie ma największy wpływ na rozwój sprzętu komputerowego?
Pomimo oczywistego faktu, że dzięki swojej pozycji wśród producentów systemów operacyjnych dla komputerów osobistych na rynku oprogramowania zawsze dominował Microsoft, to jednak warto wiedzieć, jak przedstawia się sytuacja w przypadku sprzętu komputerowego. Można stwierdzić, że do roku 1987 firma IBM sprawowała kontrolę na standardami związanymi z komponentami komputerów PC. Niezależnie od tego, co się wydarzyło później, firma IBM opracowała projekt pierwszej płyty głównej dla komputera PC, oryginalną architekturę magistrali obsługującej karty rozszerzeń (8- i 16-bitowa magistrala ISA), specyfikacje portu szeregowego i równoległego, standardy kart graficznych, w tym VGA i XGA. interfejsy współpracujące z dyskami twardymi i stacjami dyskietek, kontrolery dysków, zasilacze, projekt klawiatury i współpracujących z nią interfejsów, interfejs myszy, a nawet formaty wszystkich komponentów począwszy od płyty głównej, a skończywszy na kartach rozszerzeń, zasilaczach i obudowach. Wszystkie projekty komputerów firmy IBM wyprodukowanych przed 1987 rokiem, takich jak PC, XT, AT, nadal wywierają wpływ na obecnie powstające systemy.
Jednak dla mnie istotna jest odpowiedź na pytanie: „Jaka firma jest odpowiedzialna za tworzenie i rozwijanie najnowszych systemów komputerowych PC, interfejsów i standardów z nimi związanych?". Gdy zadaję to pytanie, zwykle u osób udzielających na nie odpowiedzi można zauważyć pewne wahanie. Jedni mówią, że Microsoft (chociaż ta firma dominuje na rynku oprogramowania, a nie sprzętu), inni, że Compaą, Dell lub wymieniają nazwy kilku innych dużych producentów sprzętu komputerowego. Tylko nieliczni podają poprawną odpowiedź — Intel.
Rozumiem, dlaczego większość osób od razu sobie tego nie uświadamia. Mówiąc to, zastanawiam się, ile tak naprawdę osób jest posiadaczami komputera PC marki Intel? I nie mam tu na myśli napisu „Intel inside" (z procesorem Intel — informującym tylko o zastosowanym procesorze) znajdującego się na obudowie komputera, ale rozwiązanie, które zostało opracowane i wykonane lub nawet zakupione przez firmę Intel. Wierzcie mi lub nie, ale uważam, że obecnie wiele, jeśli nie większość, osób posiada komputer Intel PC!
Z pewnością nie oznacza to, że użytkownicy nabyli swoje komputery od firmy Intel, ponieważ nie sprzedaje ona końcowym odbiorcom kompletnych zestawów komputerowych. Nie istnieje możliwość zamówienia w firmie Intel komputera, ani też zakupienia go od kogoś innego. Mówiąc o komputerze Intel PC mam na myśli płytę główną. Według mnie najważniejszym elementem komputera osobistego jest płyta główna i nawet pokusiłbym się o stwierdzenie, że dowolny producent płyty głównej powinien być traktowany jak wytwórca całego komputera. Nawet w czasach, gdy IBM był głównym producentem komputerów PC, wykonywał przede wszystkim płyty główne, a produkcję innych elementów systemu (zasilaczy, dysków twardych itp.) zlecał innym.
► ► Zajrzyj do rozdziału 4. „Płyty główne i magistrale" znajdującego się na stronie 253.
Wielu producentów komputerów o najwyższym poziomie sprzedaży projektuje i wykonuje swoje własne płyty główne. Według czasopisma Computer Reseller News do czołowych producentów sprzętu komputerowego przez ostatnie kilka lat konsekwentnie zaliczały się takie firmy jak Compaą, HP i IBM. Firmy te przeważnie projektowały i produkowały swoje własne płyty główne oraz wiele innych komponentów komputerowych. W niektórych przypadkach projektowały nawet chipsety przeznaczone do wytwarzanych przez siebie płyt. Chociaż poziom sprzedaży produktów tych poszczególnych firm jest wciąż wysoki, to jednak większa część rynku sprzętu komputerowego należy do producentów tak zwanych „białych skrzynek" (ang. white-box).
„Biała skrzynka" jest terminem stosowanym w branży komputerowej w odniesieniu do tego, co jest inaczej nazywane składakiem (ang. generic PC), czyli komputera PC złożonego z kilku ogólnie dostępnych komponentów zgodnych ze standardami. Określenie „biała skrzynka" wzięło się stąd, że większość obudów stosowanych w tego typu systemach jest w kolorze białym (lub w kolorze kości słoniowej, ewentualnie beżowym).
To. co w przypadku „białych skrzynek" jest tak wspaniałe, to fakt zastosowania w nich wymienialnych podzespołów spełniających wszelkie standardy. Taka wymienialność odgrywa kluczową rolę w przypadku przyszłych aktualizacji oraz napraw, ponieważ gwarantuje, że będziemy dysponować dużym wyborem różnych komponentów. Przez wiele lat zniechęcałem do kupowania rozwiązań mających ograniczenia wynikające z praw własności i namawiałem do wykorzystywania komputerów składanych z elementów bardziej zgodnych z obowiązującymi standardami.
Firmy zajmujące się sprzedażą „białych skrzynek" tak naprawdę nie są ich producentami. Dokonują one tylko ich montażu. Oznacza to, że kupują ogólnie dostępne części, takie jak płyty główne, obudowy, zasilacze, dyski twarde, urządzenia peryferyjne i tym podobne, a następnie składają je w jedną całość, uzyskując kompletny komputer nadający się do sprzedaży. Dell, Gateway i Micron (obecnie MPC) należą obecnie do grupy największych firm montujących składaki. Oczywiście można by jeszcze wymienić setki podobnych firm. Pod względem ogólnej sprzedaży tego typu firmy zajmują obecnie największą część rynku komputerów PC. To, co jest interesujące w przypadku „białych skrzynek" to fakt, że, może poza kilkoma wyjątkami, wszyscy kupujemy te same płyty główne i inne komponenty, w które zaopatrują się ich producenci (z tą różnicą, że prawdopodobnie ze względu na uzyskane zniżki wynikające z zamówienia większej ilości towaru oni zapłacą mniej niż my). Możemy samodzielnie od podstaw złożyć prawie identyczny komputer, jaki można nabyć u producenta „białych skrzynek", ale tym zajmiemy się w rozdziale 22., „Montaż i modernizacja komputera".
Należy zwrócić uwagę na fakt, że niektórzy producenci „białych skrzynek" osiągają zadziwiający poziom sprzedaży. Przykładowo firma Dell zajęła pierwsze miejsce na liście firm o najlepszych wynikach w sprzedaży komputerów PC, detronizując tym samym firmę Compaą (obecnie HP), która była przez wiele lat na samym jej szczycie. Gateway i inni wytwórcy „białych skrzynek" plasują się niewiele niżej.
Na podstawie tego wszystkiego można zadać następujące pytanie: „Jeśli oczywiście Dell. Gateway, Micron oraz inne firmy nie zajmują się produkcją własnych płyt głównych, to kto to robi?". Jeśli myślisz o Intelu — masz całkowitą rację. Nie tylko wyżej wymienione firmy wykorzystują płyty główne Intela, ale po niewielkim rozeznaniu stwierdzisz, że obecnie o wiele więcej systemów dostępnych na rynku komputerów, składanych również, jest wyposażonych w płyty główne tej firmy. Jedynym miejscem, w którym jeszcze firma Intel nie jest obecna, jest rynek systemów opartych na procesorach Athlon firmy AMD.
W pewnym przeglądzie dotyczącym komputerów zamieszczonym w czasopiśmie Computer Shopper zamieszczono informacje, że spośród 10 omówionych systemów aż 8 było wyposażonych w płytę główną firmy Intel. Co ciekawsze, wszystkie osiem komputerów współpracowało dokładnie z tym samym modelem płyty. Oznacza to. że tak naprawdę porównywane systemy różniły się między sobą tylko wyglądem obudowy oraz wykorzystanymi komponentami takimi jak karta graficzna, dysk twardy, klawiatura i tym podobne. Zabawne było to. że w poszczególnych systemach identycznych było również wiele wymienionych składników. Zanim dokonasz porównania zestawów komputerowych montowanych przez różnych dostawców, postaraj się sprawdzić, z jakich elementów jest złożony każdy z nich. Możesz być zaskoczony tym, jak bardzo podobne do siebie są systemy obecnie dostępne na rynku.
Pomimo ciągłej dominacji Intela wśród producentów płyt głównych, od kilku lat następuje stopniowe jej zachwianie. Ze względu na fakt stosowania przez firmę Intel pamięci Rambus w początkowym okresie istnienia na rynku procesorów Pentium 4 wielu producentów tańszych systemów zaczęło wykorzystywać rozwiązania alternatywne. Poza tym płyty Intela nie umożliwiają wykonywania operacji przetaktowywania lub powodują, że jest ona trudna do zrealizowania, dlatego też zwolennicy takiego sposobu podnoszenia wydajności komputera zwykle sięgają po płyty innych producentów.
Patrząc na to z drugiej strony, firma AMD zajmuje się produkcją procesorów i chipsetów, ale już nie całych płyt głównych. Z tego też powodu firma ta współpracuje z kilkoma innymi producentami wytwarzającymi płyty przewidziane do użytku z produkowanymi przez nią procesorami. Takie płyty są wyposażone w chipsety firmy AMD lub układy wyprodukowane przez inne firmy zajmujące się w szczególności rozwiązaniami dla procesorów firmy AMD. Te same firmy, które wytwarzają płyty główne współpracujące z procesorami AMD, produkują również płyty stosowane w komputerach opartych na procesorach firmy Intel, tworząc tym samym bezpośrednią konkurencję dla Intela jako producenta płyt głównych.
^ ► Zajrzyj do podrozdziału „Chipsety" znajdującego się na stronie 292.
Jak doszło do tego, że Intel zdominował rynek wewnętrznych komponentów komputerów PC? Firma Intel od roku 1981, odkąd IBM zastosował w swoim oryginalnym IBM PC procesor Intel 8088. była już znaczącym dostawcą procesorów dla komputerów osobistych. Po opanowaniu rynku procesorów Intel automatycznie zdominował rynek chipsetów wymaganych do zintegrowania jego procesorów z resztą systemu komputerowego. Dzięki temu Intel w naturalny sposób zadomowił się w branży chipsetów. Firma Intel rozpoczęła produkcję chipsetów w 1989 roku, opracowując projekt układu 82350 zgodnego ze standardem EISA (ang. Exten-ded Industry Standard Architecture — rozszerzona architektura standardu przemysłowego), a w roku 1993, wraz z wprowadzeniem na rynek procesora Pentium, stała się dostawcą chipsetów do płyt głównych, osiągając najwyższy poziom ich produkcji. W tej chwili wyobrażam sobie pracowników Intela zastanawiających się, czy jeśli firma już zajmuje się produkcją procesorów i chipsetów do płyt głównych, to czy nie powinna wyeliminować pośredników poprzez rozpoczęcie również produkcji własnych płyt? Odpowiedź na to pytanie, i jednocześnie przełomowy moment w historii przemysłu komputerowego, miała miejsce około roku 1994, gdy Intel okazał się producentem płyt głównych, który osiągnął największy na świecie poziom sprzedaży. Od tej pory Intel pozostawał na samym szczycie. I bynajmniej jego przewaga nie była znikoma. Tak naprawdę w roku 1997 Intel wyprodukował większą ilość płyt niż ośmiu następnych w kolejności największych producentów płyt głównych razem wziętych. Firma osiągnęła sprzedaż na poziomie ponad 30 milionów płyt wartych ponad 3.6 miliarda dolarów! Należy mieć świadomość, że liczba ta nie uwzględnia procesorów lub chipsetów, a tylko same płyty główne. Wszystkie te płyty były montowane przez różne firmy w ich najnowszych komputerach osobistych, które następnie były kupowane przez Ciebie i mnie, co oznacza, że teraz większość z nas jest w posiadaniu systemu zbudowanego z komponentów Intela niezależnie od tego, kto dokonał jego faktycznego montażu.
Ponieważ firma Intel dominuje na rynku producentów płyt głównych, tym samym sprawuje również kontrolę nad standardami związanymi ze sprzętem wykorzystywanym w komputerach osobistych. Intel nie tylko produkuje znakomitą większość płyt głównych wykorzystywanych w aktualnie dostępnych systemach, ale również jest dostawcą większości procesorów i chipsetów służących do wytwarzania płyt głównych w fabrykach innych producentów.
Firma Intel brała udział w opracowywaniu kilku najnowszych standardów związanych ze sprzętem komputerowym. Należą do nich:
Lokalna magistrala danych PCI (ang. Peripheral Component Interconnect).
PCI Express (początkowo 3GIO) — nowo utworzony interfejs wybrany przez organizację PCI SIG (ang. PCI Special Interest Group) na ten, który zastąpi standard PCI w roli bardzo wydajnej magistrali wykorzystywanej w przyszłych komputerach osobistych.
Interfejs AGP (ang. Accelerated Graphics Port) współpracujący z kartami graficznymi o wysokiej wydajności.
Standard ATX (oraz jego modyfikacje takie jak MicroATX i FlexATX) dotyczący formatu płyt głównych, który w latach 1996 - 97 zastąpił standard Baby-AT — chyba już zbyt przestarzały — opracowany przez firmę IBM i wykorzystywany od początku lat 80. ubiegłego wieku.
Standard NLX określający format płyt głównych mający zastąpić ograniczony i prawnie zastrzeżony standard LPX stosowany w wielu tańszych systemach i ostatecznie umożliwić dokonywanie aktualizacji płyt głównych wykorzystywanych w tego typu rozwiązaniach.
Standard DMI (ang. Desktop Management Interface) służący do monitorowania funkcji urządzeń systemowych.
Standardy DPMA (ang. Dynamie Power Management Architecture) i APM (ang. Advanced Power Management) służące do zarządzania zużyciem energii w komputerach osobistych.
Firma Intel zdominowała nie tylko rynek komputerów PC, lecz również całą branżę półprzewodników. Według wyników sprzedaży opublikowanych przez organizację iSuppli.com firma Intel ma ponad 2,5 razy wyższą sprzedaż w porównaniu z następnym w kolejności producentem półprzewodników (Samsung) i około 9 razy wyższą od swojego konkurenta — firmy AMD (patrz tabela 2.1).
Po zapoznaniu się z powyższym zestawieniem nie zdziwi nas to, że popularny w branży komputerowej serwis informacyjny o nazwie The Register znajdujący się pod adresem http://www.theregister.co.uk, nawiązując do giganta rynku półprzewodników, posługuje się określeniem ,.Chipzilla".
Ten, kto dominuje na rynku systemów operacyjnych, również jest potęgą w branży oprogramowania dla komputerów osobistych. Ten, kto opanował rynek procesorów, a tym samym płyt głównych, sprawuje faktyczną kontrolę nad rynkiem sprzętu komputerowego. Ze względu na fakt, że Microsoft i Intel wydają się być potęgami na rynku oprogramowania i sprzętu przeznaczonego dla komputerów PC, nie zdziwi nas fakt, że najnowsze komputery są często określane terminem „Wintel".
Dostawca |
Pozycja w roku 2002 |
Sprzedaż w roku 2002 |
Pozycja w roku 2001 |
Sprzedaż w roku 2001 |
Pozycja w roku 2000 |
Sprzedaż w roku 2000 |
Intel |
1 |
$23.47 |
1 |
$23,54 |
1 |
$30,21 |
Samsung |
2 |
$9,18 |
4 |
$6,14 |
4 |
$8,94 |
STMicro |
3 |
$6,31 |
3 |
$6,36 |
6 |
$7,89 |
Tl |
4 |
$6,20 |
5 |
$6,05 |
3 |
$9,20 |
Toshiba |
5 |
$6,19 |
2 |
$6,54 |
2 |
$10,43 |
Infineon |
6 |
$5,36 |
8 |
$4.56 |
8 |
$6,74 |
NEC |
7 |
$5,26 |
6 |
$5,30 |
5 |
$8,20 |
Motorola |
8 |
$4,73 |
7 |
$4,83 |
7 |
$7,71 |
Philips |
9 |
$4,36 |
9 |
$4,41 |
9 |
$6,27 |
Hitachi |
10 |
$4,05 |
10 |
$4,24 |
12 |
$5,69 |
Mitsubishi |
11 |
$3,62 |
11 |
$3,87 |
11 |
$5,79 |
IBM |
12 |
$3,39 |
14 |
$3,56 |
18 $3,99 |
|
Matsushita |
13 |
$3,28 |
16 |
$3,01 |
17 |
$4,33 |
Fujitsu |
14 |
$3,24 |
13 |
$3,73 |
15 |
$5,01 |
Micron |
15 |
$3,22 |
18 |
$2,45 |
10 |
$6,26 |
AMD |
16 |
$2,61 |
12 |
$3,79 |
16 |
$4,38 |
Hynix |
17 |
$2,57 |
19 |
$2,34 |
14 |
$5,10 |
Sony |
18 |
$2,50 |
17 |
$2,47 |
20 |
$3,29 |
Rohm |
19 |
$2,39 |
21 |
$2,21 |
23 |
$3,06 |
Sharp |
20 |
$2,36 |
20 |
$3,36 |
19 |
$3,33 |
Sanyo |
21 |
$2,10 |
22 |
$2,03 |
21 |
$3,28 |
Agere |
22 |
$2,03 |
15 |
$3,14 |
13 |
$5,10 |
Analog Devices |
23 |
$1,94 |
23 |
$1,93 |
24 |
$2,74 |
Qualcomm |
24 |
$1,85 |
28 |
$1,39 |
37 |
$1,22 |
NVIDIA |
25 |
$1,80 |
30 |
$1,29 |
51 |
$0,71 |
Agilent |
26 |
$1,60 |
24 |
$1,53 |
27 |
$2,31 |
National |
27 |
$1,57 |
26 |
$1,51 |
25 |
$2,36 |
LSI Logic |
28 |
$1,51 |
25 |
$1,56 |
26 |
$2,34 |
Fairchild |
29 |
$1,35 |
29 |
$1,34 |
31 |
$1,68 |
Atmel |
30 |
$1,21 |
27 |
$1,48 |
29 |
$2,01 |
Tabela 2.1. Zestawienie 30 największych producentów półprzewodników według poziomu sprzedaży osiągniętego w roku 2002
* Sprzedaż wyrażona w milionach dolarów.
Przewodnik po typach systemów PC
Nawet pomimo dominacji Intela w świecie sprzętu komputerowego — patrząc z perspektywy systemów operacyjnych — firma Microsoft jest świadoma wpływu, jaki wywiera na rynek komputerów osobistych, dlatego też podjęła współpracę z firmą Intel. Wynikiem tych połączonych sił jest seria dokumentów o nazwie PC xx Design Guides (gdzie za xx należy podstawić rok) stanowiąca zestaw specyfikacji standardów mających za zadanie informowanie projektantów z branży oprogramowania i sprzętu tworzących produkty współpracujące z systemem Windows. Standardy zawarte w tych przewodnikach stanowią część wymagań, które należy spełnić, aby uzyskać zgodę tirmy Microsoft na posługiwanie się ich logo Designed for Windows (zaprojektowano dla systemu Windows). Mówiąc inaczej, jeśli jesteś producentem oprogramowania lub sprzętu komputerowego i chcesz uzyskać zgodę tirmy Microsoft na zamieszczanie na opakowaniu gotowego produktu jej logo Designed for Windows, musi on spełniać minimalne wymagania przedstawione w dokumentach z serii PC xx Design Guides.
Dotychczas opracowano następujące dokumenty:
Hardware Design Guide for Microsoft Windows 95,
Hardware Design Guide Supplement for PC 95.
PC 97 Hardware Design Giude,
PC 98 System Design Guide,
PC 99 System Design Guide,
PC 2000 System Design Guide.
PC 2001 System Design Guide.
Powyższe dokumenty są udostępnione do pobrania na stronie internetowej firmy Microsoft (http:'/www.microsoft.com/whdc/system/platform/pcdesign/desguide/pcguides.mspx).
Dokumenty dotyczące projektowania systemów zawierają informacje przeznaczone dla inżynierów, zajmujących się projektowaniem i wprowadzaniem na rynek komputerów osobistych, kart rozszerzeń oraz urządzeń peryferyjnych, które będą współpracować z systemem operacyjnym Windows w wersjach 9x/Me, NT/2000 oraz XP. Wymagania i zalecenia zawarte w dokumentach określają podstawowe warunki związane z używaniem programu firmy Microsoft, których spełnienie daje producentom sprzętu współpracującego z jej systemami operacyjnymi możliwość posługiwania się logo „Designed for Windows".
Dokumenty te zawierają wymagania związane z projektowaniem podstawowych systemów (stacjonarnych i przenośnych), stacji roboczych, a nawet komputerów multimedialnych. Poruszają również zagadnienia dotyczące konfiguracji urządzeń Pług and Play i zarządzania energią w komputerach osobistych PC. Poza tym można w nich znaleźć wymagania stawiane standardowi USB (ang. universal serial bus — uniwersalna magistrala szeregowa) i IEEE-1394 oraz nowym urządzeniom obsługiwanym przez system Windows, włączając w to nowe typy kart graficznych i kart służących do obróbki wideo, odtwarzaczy DVD, skanerów, aparatów cyfrowych i innych urządzeń.
Wymienione dokumenty nie mają większego znaczenia dla zwykłych użytkowników. Są one prze-T^i znaczone dla producentów komputerów osobistych, którzy mogą uwzględnić zawarte w nich zale-cenią w momencie projektowania i wytwarzania swoich produktów. Jako takie, same dokumenty zawierają tylko zalecenia, dlatego też nie jest konieczne ich ścisłe przestrzeganie. W pewnym sensie są one dla Intela i Microsoftu czymś w rodzaju narzędzi kontrolujących rynek oraz pozwalających na dalsze zwiększanie dominacji w zakresie oprogramowania i sprzętu przeznaczonego dla komputerów PC. W rzeczywistości rynek często decyduje o tym, że niektóre z zaleceń określonych w dokumentach zostają pominięte, co sprawia, że Intel i Microsoft corocznie opracowują nowe ich wersje.
Dokument PC 2001 System Design Guide jest najnowszym kompletnym przewodnikiem po typach komputerów PC, opracowanym przez firmy Microsoft i Intel. Oba przedsiębiorstwa oferują obecnie różne związane z tym dokumentem raporty i inne materiały. W celu uzyskania aktualnych danych dotyczących tworzenia komputerów PC należy zaglądnąć na następujące strony internetowe:
Microsoft Windows Platform Design — Overview (http://www.microsoft.com/whdc/system/platform/default.mspx).
Intel Hardware Design (http://developer.intel.com).
Typy komputerów
Komputery PC mogą być podzielone na wiele różnych kategorii. Dokonam ich klasyfikacji na dwa sposoby — według typu obsługiwanego oprogramowania i według wykorzystywanej magistrali płyty głównej lub typu procesora. Ponieważ w tej książce są omawiane zagadnienia związane ze sprzętem, przyjrzymy się najpierw jemu.
W momencie gdy procesor odczytuje dane. są one do niego przekazywane za pośrednictwem zewnętrznej magistrali danych procesora. Magistrala danych procesora jest bezpośrednio połączona z magistralą główną (ang. host bus) płyty głównej współpracującej z procesorem. Szyna danych procesora lub płyty głównej jest czasami określana również terminem magistrali lokalnej (ang. local bus), ponieważ procesor jest z nią połączony bezpośrednio. Inne urządzenia podłączone do magistrali głównej sprawiają takie wrażenie, jakby właściwie też były bezpośrednio podłączone do procesora. Jeśli procesor dysponuje 32-bitową szyną danych, to płyta główna musi być wyposażona w odpowiednią 32-bitową magistralę główną. Oznacza to, że system jest w stanie przekazywać w trakcie pojedynczego cyklu dane w 32-bitowym formacie do i na zewnątrz procesora.
► ► Zajrzyj do punktu „Magistrala danych wejścia-wyjścia (l/O)" znajdującego się na stronie 80.
Różne procesory dysponują różnymi szynami danych, natomiast płyty główne z nimi współpracujące muszą być wyposażone w taką samą magistralę główną, jaką posiada procesor. W tabeli 2.2 zestawiono wszystkie procesory firmy Intel i ważniejsze zgodne z nimi układy wraz z szerokością ich magistrali danych i rejestrów wewnętrznych.
Tabela 2.2. Procesory firmy Intel i ważniejsze zgodne z nimi układy wraz z szerokością ich magistrali danych i rejestrów wewnętrznych
Procesor |
Magistrala danych |
Rejestry wewnętrzne |
8088 |
8-bitowa |
16-bitowe |
8086 |
16-bitowa |
16-bitowe |
286 |
16-bitowa |
16-bitowe |
386SX |
16-bitowa |
32-bitowe |
386DX |
32-bitowa |
32-bitowe |
486/AMD-5x86 |
32-bitowa |
32-bitowe |
Pentium/AMD-K6 |
64-bitowa |
32-bitowe |
Pentium Pro/Celeron/II/III |
64-bitowa |
32-bitowe |
AMD Duron/Athlon/Athlon XP |
64-bitowa |
32-bitowe |
Pentium 4 |
64-bitowa |
32-bitowe |
Itanium |
64-bitowa |
64-bitowe |
AMD Athlon 64 |
64-bitowa |
64-bitowe |
Często podczas dyskusji na temat architektury procesorów dochodzi do nieporozumień. Pomimo, że procesor Pentium i nowsze modele dysponują 64-bitową szyną danych, ich wewnętrzne rejestry nadal są tylko 32-bitowe. dlatego też wykonują 32-bitowe polecenia i instrukcje. Procesory Intel Itanium i AMD Athlon 64 są pierwszymi, które wyposażono w 64-bitowe rejestry wewnętrzne. A zatem — z punktu widzenia producentów oprogramowania — wszystkie procesory, począwszy od 386, a skończywszy na procesorach Athlon/Duron i Celeron/ Pentium 4 są wyposażone w 32-bitowe rejestry i przetwarzają 32-bitowe instrukcje. Patrząc na to z perspektywy budowy procesora, te uważane przez uruchamiane programy za 32-bitowe układy były fizycznie wyposażane w różne typy szyn danych, takie jak 16-bitowa (386SX), 32-bitowa (386DX) i 64-bitowa (Pentium i nowsze procesory). Szerokość magistrali danych jest głównym wyznacznikiem produkowanych płyt głównych i pamięci, ponieważ decyduje o ilości bitów danych przekazywanych w ciągu jednego cyklu do i na zewnątrz procesora.
► ► Zajrzyj do punktu „Rejestry wewnętrzne (wewnętrzna magistrala danych)" znajdującego się na stronie 82.
Procesor Itanium firmy Intel jest wyposażony w zestaw instrukcji o nowej 64-bitowej architekturze (IA-64). ale może również przetwarzać te same 32-bitowe instrukcje, co starsze procesory, począwszy od 386, a skończywszy na Pentium 4. Co prawda procesor Athlon 64 jest wyposażony w nową 64-bitową architekturę zgodną z architekturą x86, ale został zaprojektowany tak, aby obsługiwał 32-bitowe instrukcje przeznaczone dla standardowych układów firmy Intel lub układów z nimi zgodnych równie wydajnie, jak zwykły procesor Athlon XP lub procesor z nim porównywalny.
► ► Zajrzyj do podrozdziału „Parametry procesorów" znajdującego się na stronie 75.
Po przyjrzeniu się zawartości tabeli 2.2 można dojść do wniosku, że wszystkie systemy oparte na procesorach Pentium i nowszych są wyposażone w 64-bitową szynę danych procesora. Procesory z serii Pentium — niezależnie od tego, czy jest to Pentium, Pentium MMX, Pentium Pro czy nawet Pentium II/III lub Pentium 4 — wszystkie dysponują 64-bitową magistralą danych (podobnie jak porównywalne układy firmy AMD, takie jak K6. Athlon, Duron. Athlon XP i Athlon 64).
.lak można wywnioskować na podstawie tabeli 2.2. systemy mogą być podzielone na następujące kategorie sprzętowe:
8-bitowe,
16-bitowe,
32-bitowe.
64-bitowe.
To, co jest w tym interesujące, to fakt, że poza różną szerokością szyny danych — od 16-bitowej do 64-bitowej — wszystkie systemy są pod względem ogólnego projektu i architektury bardzo podobne. Tylko rozwiązania z 8-bitową szyną danych znacznie się różnią. Tym sposobem uzyskujemy dwa podstawowe typy lub klasy systemów:
systemy 8-bitowe (klasa PC/XT),
systemy 16/32/64-bitowe (klasa AT).
W powyższym potoku skrótów PC odpowiada personal computer (komputer osobisty), XT — extended PC (rozszerzony komputer PC), natomiast AT — advanced-technology PC (komputer PC zaawansowany technologicznie). Terminy PC, XT i AT zapisane tutaj w takiej postaci wywodzą się od nazw oryginalnych komputerów firmy IBM. XT był komputerem osobistym zawierającym oprócz stacji dyskietek, w które był już wyposażony pierwszy komputer PC, dysk twardy służący do przechowywania danych. Systemy te były wyposażone w 8-bitowy procesor 8088 i 8-bitową magistralę ISA (Industry Standard Architecture) obsługującą karty rozszerzeń. Stówo magistrala (ang. bus) jest nazwą określającą gniazda rozszerzeń, w których mogą być instalowane dodatkowe karty. 8-bitowość wynika z faktu, że magistrala ISA, w którą były wyposażone systemy klasy PC/XT, była w stanie w ciągu jednego cyklu wysyłać lub odbierać tylko 8 bitów danych. W przypadku 8-bitowej magistrali dane są przesyłane jednocześnie przez 8 równoległych linii.
► ► Zajrzyj do punktu „Magistrala ISA" znajdującego się na stronie 408.
Systemy 16-bitowe i nowsze są zaliczane do klasy systemów AT, co oznacza, że są zgodne z pewnymi standardami i zasadami określonymi przy opracowywaniu projektu pierwszego komputera IBM AT. Firma IBM wprowadziła termin AT w celu określania nim systemów, które początkowo były wyposażone w bardziej zaawansowane procesory 16-bitowe (a później 32-bitowe i 64-bitowe) oraz gniazda rozszerzeń. Systemy klasy AT muszą posiadać procesor, który jest zgodny z procesorem 286 firmy Intel lub modelami nowszymi takimi jak 386, 486, Pentium, Pentium Pro, Pentium II, Pentium III, Pentium 4 i Pentium M, a ponadto być wyposażone w magistralę I6-bitową lub nowszą. Architektura magistrali danych łącznie z architekturą pamięci, kontrolerem przerwań (IRQ), kontrolerem bezpośredniego dostępu do pamięci (DMA) i portów obsługi wejścia-wyjścia (l/O) jest głównym elementem projektu systemu AT. Wszystkie systemy klasy AT pod względem sposobu działania i przydzielania zasobów są do siebie podobne.
Pierwszy system klasy AT był wyposażony w 16-bitową wersję magistrali danych ISA, która jest modyfikacją oryginalnej 8-bitowej magistrali ISA stosowanej w komputerach klasy PC/XT. Ostatecznie dla systemów klasy AT opracowano kilka projektów magistrali lub gniazd rozszerzeń. Zaliczają się do nich:
16-bitowa magistrala ISA/AT,
16-bitowa magistrala PC Card (PCMCIA),
I6-bitowa/32-bitowa magistrala Extended ISA (EISA),
16-bitowa/32-bitowa magistrala PS/2 Micro Channel Architecture (MCA),
32-bitowa magistrala VESA Local (VL),
32-bitowa/64-bitowa magistrala Peripheral Component Interconnect (PCI),
32-bitowa magistrala CardBus (PCMCIA).
magistrala PCI Express,
magistrala ExpressCard,
32-bitowa magistrala Accelerated Graphics Port (AGP).
System wyposażony w dowolną z wymienionych magistrali lub gniazd rozszerzeń z definicji jest systemem klasy AT, niezależnie od zastosowanego procesora firmy Intel lub z nim zgodnego. Systemy klasy AT — wyposażone w procesor 386 lub nowszy — cechują się specjalnymi własnościami niespotykanymi w pierwszej generacji komputerów klasy AT opartych na procesorze 286. Własności te związane są z dostępem do pamięci, zarządzaniem nią i czasami też z przekazywaniem danych przez 32- i 64-bitowe magistrale danych. Większość systemów opartych na procesorze 386DX lub nowszym charakteryzuje się również magistralą o 32-bitowej architekturze pozwalającą w pełni wykorzystać możliwości 32-bitowego transferu danych procesora.
Do niedawna w celu zachowania zgodności wstecz i umożliwienia zastosowania starszych kart komputery PC były wyposażone w gniazdo 16-bitowej magistrali ISA. Obecnie jednak w niemal wszystkich płytach głównych gniazda magistrali ISA zostały całkowicie zastąpione przez gniazda magistrali PCI i AGP (gniazdo rozszerzenia o specjalnym przeznaczeniu). Gniazdo AGP jest dostępne w większości komputerów służących do zaawansowanych zastosowań graficznych (z wyjątkiem kilku podstawowych systemów zawierających zintegrowaną kartę graficzną). Ponadto większość komputerów przenośnych jest wyposażona w gniazda PC Card (PCMCIA) i CardBus, natomiast w przypadku opcjonalnych stacji dokujących są używane gniazda PCI.
W rozdziale 4., „Płyty główne i magistrale", zawarto szczegółowe informacje na temat omówionych tutaj oraz innych magistrali spotykanych w komputerach PC, włączając w to parametry techniczne takie jak rozmieszczenie końcówek, specyfikacje dotyczące wydajności oraz zasady działania.
W tabeli 2.3 zebrano główne różnice występujące pomiędzy starszymi 8-bitowymi systemami (PC/XT), a nowszymi AT. Zawarte w tabeli zestawienie obejmuje wszystkie typy komputerów IBM oraz modeli z nimi zgodnych.
Najprostszy sposób rozpoznania 8-bitowego systemu PC/XT polega na sprawdzeniu, czy jest on wyposażony w 8-bitowe gniazda rozszerzeń ISA. Jeśli wszystkie gniazda są wykonane według 8-bitowego standardu ISA to, niezależnie od zastosowanego procesora lub innych funkcji, mamy do czynienia z systemem PC/XT. 16-bitowe systemy AT mogą być zidentyfikowane w podobny sposób, mianowicie są wyposażone w dowolnego typu gniazda 16-bitowe lub nowsze. Zaliczają się do nich standardy ISA, EISA, MCA, PC Card (poprzednio PCMCIA), CardBus, VL-Bus oraz PCI. Każdy komputer wyposażony w nowe bardzo szybkie magistrale szeregowe, takie jak PCI Express lub ExpressCard. również zalicza się do systemów klasy AT. Dysponując tego typu informacją, można poprawnie zaklasyfikować jako PC/XT lub AT dosłownie każdy system. Od wielu lat nie wyprodukowano żadnego 8-bitowego komputera klasy PC/XT. Jeśli nie odwiedzisz jakiegoś muzeum komputerów, to niewielkie masz szanse na to. że spotkasz się z systemem innym niż AT.
Cecha systemu |
8-bitowy system PC/XT |
16-/32-/64-bitowy system AT |
Obsługiwane procesory |
Wszystkie z serii x86 lub x88 |
286 lub nowsze |
Tryby pracy procesora |
Rzeczywisty |
Rzeczywisty/chroniony/wirtualny rzeczywisty |
Obsługiwane oprogramowanie |
Tylko 16-bitowe |
16- lub 32-bitowe |
Szerokość magistrali procesora |
8-bitowa |
16-/32-/64-bitowa |
Typ gniazd |
Tylko ISA |
ISA, EISA. MCA, PC Card. CardBus, ExpressCard. VL-Bus, PCI, PCI Express, AGP |
Ilość przerwań sprzętowych |
8 (używanych 6) |
16 (używanych 11) |
Kanały DMA |
4 (używane 3) |
8 (używanych 7) |
Maksymalna ilość pamięci RAM |
1 MB |
16 MB/4 GB lub więcej |
Prędkość kontrolera stacji dyskietek |
250 kB/s |
250/300/500/1000 kB/s |
Format dyskietki startowej |
360 lub 720 kB |
1,2/1,44/2,88 MB |
Interfejs klawiatury |
Jednokierunkowy |
Dwukierunkowy |
Pamięć/zegar układu CMOS |
Brak standardu |
Zgodne z MC 146818 |
Układ portu szeregowego UART |
8250B |
16450/16550A |
Tabela 2.3. Różnice pomiędzy systemami PC/XT i AT
Komponenty komputera
Nowoczesny komputer PC jest jednocześnie i prosty, i złożony. Jego prostota wynika z faktu, że przez lata wiele komponentów stosowanych do budowy komputerów zostało ze sobą coraz bardziej zintegrowanych i w efekcie jest ich coraz mniej. Złożoność komputera wiąże się z tym, że w porównaniu z komponentami występującymi w starszych systemach każdy element wykorzystywany w nowoczesnych komputerach wykonuje o wiele więcej funkcji.
W tym miejscu dokonamy pobieżnego przeglądu wszystkich komponentów i urządzeń peryferyjnych stosowanych w obecnie spotykanych systemach PC. Każdy z elementów zostanie szczegółowo omówiony w następnych rozdziałach.
Komponent |
Opis |
Płyta główna |
Płyta główna jest podstawą komputera. Tak naprawdę to ona jest komputerem PC. Wszystkie inne elementy są do niej podłączone. Płyta główna steruje wszystkimi elementami systemu. Płyty główne szczegółowo omówiono w rozdziale 4. |
Procesor |
Procesor często jest traktowany jako „serce" komputera. Określany jest również terminem CPU (ang. centralprocessing unit) —jednostka centralna. Procesory zostały dokładnie omówione w rozdziale 3., „Typy i parametry mikroprocesorów". |
Pamięć (RAM) |
Pamięć systemowa często jest określana terminem RAM (ang. random access memory — pamięć o dostępie swobodnym). Jest to pamięć podstawowa przechowująca wszystkie programy i dane przetwarzane w danej chwili przez procesor. Pamięć zostanie szczegółowo omówiona w rozdziale 6., „Pamięć". |
Obudowa |
Obudowa jest ramą lub konstrukcją, do której mocowane są: płyta główna, zasilacz, dyski twarde, karty rozszerzeń oraz inne komponenty wykorzystywane w komputerach. Obudowa szczegółowo została omówiona w rozdziale 21., „Zasilacze i obudowy". |
Tabela 2.4. Podstawowe komponenty komputera
W tabeli 2.4 omówiono komponenty i urządzenia peryferyjne niezbędne do zbudowania podstawowego nowoczesnego komputera PC.
Tabela 2.4. Podstawowe komponenty komputera — ciąg dalszy |
|
Komponent |
Opis |
Zasilacz |
Zadaniem zasilacza jest doprowadzenie napięcia do każdego podzespołu komputera. Zasilacze zostały dokładnie omówione w rozdziale 21. |
Stacja dyskietek |
Stacja dyskietek jest prostym i niedrogim napędem dysków wymiennych o zapisie magnetycznym i niewielkiej pojemności. Zamiast stacji dyskietek w wielu nowszych komputerach są stosowane innego typu urządzenia obsługujące wymienne nośniki magnetyczne lub karty pamięci Flash oparte na interfejsie USB. Stacje dyskietek szczegółowo omówiono w rozdziale 11., „Napędy dyskietek". Z kolei innym napędom nośników wymiennych poświęcono rozdział 12., „Nośniki wymienne o dużej pojemności". |
Dysk twardy |
Dyski twarde są podstawowymi nośnikami danych stosowanymi w komputerach. Zostały one dokładnie omówione w rozdziale 10., „Dyski twarde". |
Napęd CD lub DVD |
CD (ang. compact disc — kompaktowy dysk) i DVD (ang. digital yersatile disc — uniwersalny dysk cyfrowy) są wymiennymi dyskami o zapisie optycznym charakteryzującymi się stosunkowo dużą pojemnością. W wielu nowszych komputerach znajdują się napędy dysków CD-RW (wielokrotnego zapisu) i DVD-ROM. Zostały one szczegółowo omówione w rozdziale 13., „Pamięci optyczne". |
Klawiatura |
Klawiatura jest podstawowym urządzeniem wykorzystywanym przez użytkownika do komunikacji z komputerem i do sterowania nim. Klawiatury zostały omówione w rozdziale 18., „Urządzenia wejściowe". |
Mysz |
Pomimo że obecnie na rynku dostępnych jest wiele różnych urządzeń wskazujących, to jednak najpopularniejszym z nich jest mysz. Mysz i inne urządzenia wskazujące zostały omówione w rozdziale 18. |
Karta graficzna* |
Karta graficzna steruje danymi wyświetlanymi na ekranie monitora. Karty te zostały szczegółowo opisane w rozdziale 15., „Karty graficzne". |
Monitor |
Omówienie monitorów znajduje się w rozdziale 15. |
Karta dźwiękowa* |
Karta dźwiękowa umożliwia generowanie przez komputer złożonych dźwięków. Karty dźwiękowe i głośniki zostały szczegółowo omówione w rozdziale 16., „Karty dźwiękowe". |
Modem* |
Większość fabrycznie wykonanych komputerów PC jest wyposażona w modem (zazwyczaj jego wersję wewnętrzną). Modemy oraz inne urządzenia realizujące połączenie z Internetem, a także sposoby wykonania takiego połączenia zostały omówione w rozdziale 19., „Podłączenie do internetu". |
*Komponenty oznaczone gwiazdką w wielu nowszych komputerach (zwłaszcza tańszych) mogą być zintegrowane z płytą główną.
Rozdział 3.
Typy i parametry mikroprocesorów
Historia mikroprocesora
przed pojawieniem się komputerów osobistych
„Mózgiem" komputera jest procesor, czasami określany terminem mikroprocesor lub jednostka centralna (ang. central processing unit — CPU). Zadaniem procesora jest wykonywanie obliczeń i systemowych operacji przetwarzania. Procesor jest zwykle najdroższym pojedynczym komponentem w całym systemie (obecnie zdarza się, że w niektórych przypadkach ceny kart graficznych są jeszcze wyższe). W rozwiązaniach dla serwerów cena procesora może być cztery lub nawet więcej razy wyższa niż płyty głównej, która z nim współpracuje. Ogólnie rzecz biorąc, firmie Intel jest przypisywane stworzenie w 1971 r. pierwszego mikroprocesora, który był układem o nazwie 4004. Aktualnie firma Intel w dalszym ciągu dominuje na rynku procesorów, przynajmniej w części rozwiązań dla komputerów osobistych. Oznacza to, że wszystkie komputery kompatybilne ze standardem IBM PC są wyposażone w procesor firmy Intel lub procesor z nim kompatybilny, wyprodukowany przez jedną z wielu firm konkurencyjnych takich jak AMD lub VIA/Cyrix.
Dominacja Intela na rynku procesorów nie zawsze była oczywista. Pomimo to, że firma Intel jest zwykle uznawana za firmę, która jako pierwsza zaprojektowała i wprowadziła na rynek procesor, to jednak tak naprawdę pod koniec lat 70. dwa najbardziej popularne procesory przeznaczone dla komputerów osobistych wcale nie zostały wyprodukowane przez nią— chociaż jeden z nich był kopią procesora firmy Intel. Komputery osobiste z tamtych czasów były przeważnie wyposażone w procesor Z-80 firmy Zilog i układ 6502 firmy MOS Technologies. Procesor Z-80 zwrócił na siebie uwagę, ponieważ był poszerzoną i tańszą kopią procesora Intel 8080 — podobnie jak ma to miejsce dzisiaj w przypadku produktów firm takich jak AMD, VIA/Cyrix, IDT i Rise Technologies, które wykonały kopie procesorów Intel Pentium. Jednak procesor Z-80, jako kopia, stał się bardziej popularny niż oryginał. Można się spierać, czy firma AMD w przeciągu całego zeszłego roku doprowadziła do podobnej sytuacji — nawet pomimo to, że osiągnęła znaczący wzrost sprzedaży, to jednak Intel nadal dominuje na rynku procesorów dla komputerów osobistych.
Byłem posiadaczem komputera wyposażonego w obydwa wyżej wymienione procesory taktowane zegarem o częstotliwości 1 MHz (tak, zgadza się, 1 jak jeden megaherc!). Był to komputer Apple II oparty na procesorze 6502 z włożoną do jednego z jego gniazd kartą Microsoft Softcard (z procesorem Z-80). Karta Softcard była wyposażona w procesor Z-80 taktowany zegarem o częstotliwości 2 MHz. Dzięki temu byłem w stanie uruchamiać programy na komputerze wyposażonym w dwa procesory! Procesor Z-80 był stosowany w komputerach końca lat 70-tych i początku lat 80-tych pracujących pod kontrolą systemu operacyjnego CP/M. natomiast układ 6502 zdobył uznanie jako procesor stosowany w pierwszych komputerach Apple I i II, będących prekursorami serii Macintosh.
Sytuacja firm Intel i Microsoft uległa znaczącej zmianie w roku 1981, gdy IBM wprowadził na rynek komputer IBM PC oparty na procesorze Intel 8088 taktowanym zegarem 4,77 MHz i pracującym pod kontrolą systemu Microsoft Disk Operating System (MS-DOS) w wersji 1.0. Od momentu podjęcia tej znamiennej w skutkach decyzji — zastosowania w pierwszym komputerze PC procesora firmy Intel — kolejne rozwiązania z nim kompatybilne były wyposażane w coraz to nowsze procesory Intela lub procesory z nim zgodne, z których każdy następny umożliwia! uruchamianie oprogramowania działającego na poprzedniku, począwszy od układu 8088, a skończywszy na najnowszych procesorach Pentium 4/III/Celeron i Athlon/Athlon XP. W dalszej części rozdziału zostaną omówione różne typy procesorów, które były stosowane w komputerach osobistych od chwili jego wprowadzenia na rynek prawie dwie dekady temu. Zawarto tam mnóstwo technicznych szczegółów dotyczących każdego omówionego układu i wyjaśnienie, dlaczego jeden typ procesora jest w stanie (w określonym okresie czasu) wykonać większą ilość operacji niż inny.
Procesory produkowane po roku 1971
Godny uwagi jest fakt, że mikroprocesor istniał tylko 10 lat, zanim stworzono komputer osobisty. Intel zaprojektował mikroprocesor w roku 1971. Komputer osobisty został opracowany przez firmę IBM w roku 1981. Obecnie — ponad 20 lat później — nadal są stosowane rozwiązania oparte na projekcie pierwszego komputera osobistego. Procesory, w które wyposaża się komputery, nadal sana wiele sposobów kompatybilne z układem 8088 wybranym w 1981 r. przez firmę IBM na jednostkę centralną jej pierwszego komputera osobistego.
W dniu 15 listopada 2001 r. minęła 30 rocznica powstania mikroprocesora. W ciągu tych 30 lat prędkość procesora zwiększyła się ponad 18 500 razy (z częstotliwości 0,108 MHz do 2 GHz). Historia powstania pierwszego mikroprocesora Intel 4004 została opisana w rozdziale 1.. „Historia powstania komputera osobistego". Układ 4004 zosta! wprowadzony na rynek dnia 15 listopada 1971 r. i początkowo byl taktowany zegarem 108 kHz (108 000 cykli na sekundę lub, inaczej, ponad 1/10 megaherca). Procesor 4004 składał się z 2300 tranzystorów i oparty był na technologii 10 mikronów. Oznacza to, że każda linia, ścieżka lub tranzystor mieściły się na obszarze 10 mikronów (milionowej części metra). Jednocześnie były przesyłane 4 bity danych, natomiast maksymalna obsługiwana objętość pamięci wynosiła 640 bajty. Procesor 4004 został zaprojektowany z myślą
0 kalkulatorach, ale dzięki swojej naturalnej elastyczności programowania potwierdził swoją przydatność w przypadku wielu innych zastosowań. Przykładowo, układ 4004 został wykorzystany w sterownikach ruchu ulicznego, analizatorach krwi, a nawet w sondzie kosmicznej Pioneer 10 zbudowanej przez NASA.
W kwietniu 1972 r. firma Intel wprowadziła do sprzedaży procesor 8008, który początkowo był taktowany zegarem 200 kHz (0.2 MHz). Procesor ten składał się z 3500 tranzystorów i oparty był na tej samej technologii 10 mikronów, co w przypadku poprzednika. Znaczącą zmianą było zastosowanie w nowym procesorze 8-bi-towej magistrali danych, która umożliwiała przesyłanie jednocześnie 8 bitów danych, czyli dwukrotnie więcej niż poprzednio. Procesor 8008 mógł również współpracować z pamięcią o maksymalnej pojemności 16 kB. Układ ten głównie był wykorzystywany w prostych terminalach i kalkulatorach ogólnego zastosowania.
Następnym z kolei procesorem był układ 8080 wprowadzony na rynek w kwietniu 1974 r. i taktowany zegarem 2 MHz. Głównie wskutek wyższej częstotliwości pracy zegara, procesor 8080 cechowa! się 10-krotnie wyższą wydajnością w porównaniu z układem 8008. Procesor 8080 składał się z 6000 tranzystorów i oparty był na technologii 6 mikrometrów. Podobnie jak w przypadku poprzedniego układu, procesor 8080 był wyposażony w 8-bitową szynę danych, a zatem jednocześnie był w stanie przesyłać 8 bitów. Układ 8080. w porównaniu z jego poprzednikiem, był przystosowany do współpracy z pamięcią o znacznie większej pojemności (64 kB).
Procesor 8080 ze względu na fakt jego zastosowania w komputerze Altair 8800, powszechnie uznawanym za pierwszy komputer osobisty, był tym, który przyczynił się do rozpoczęcia rewolucji w branży komputerowej. W efekcie dla układu 8080 został stworzony system operacyjny CP/M, a nowo powstała firma Microsoft opracowała dla komputera Altair swój pierwszy produkt o nazwie Microsoft BASIC. Pojawienie się obu produktów wpłynęło na rozpoczęcie rewolucji na rynku oprogramowania, która objawiła się w postaci tysięcy programów przeznaczonych dla platformy tworzonej przez system CP/M i Microsoft BASIC.
1 faktycznie, procesor 8080 cieszył się tak dużą popularnością, że w efekcie został skopiowany. Firma o nazwie Zilog została założona pod koniec roku 1975 r. przez kilku byłych inżynierów firmy Intel pracujących nad projektem procesora 8080. W lipcu 1976 r. firma wprowadziła do sprzedaży procesor Z-80. który byl znacznie rozbudowaną wersją układu 8080. Procesor nie posiadał identycznej ilości końcówek, ale zamiast tego dysponował takimi funkcjami jak interfejs pamięci i obwody odświeżania pamięci RAM (ang. R.4M refresh circuitry), które pozwalały na tworzenie tańszych i prostszych systemów. Procesor Z-80 zawierał też specjalny zestaw instrukcji procesora 8080, przez co mógł wykonać każdy program dla niego napisany. Układ firmy Zilog obsługiwał nowe instrukcje i wewnętrzne rejestry, dlatego też oprogramowanie dla niego napisane niekoniecznie musiało działać ze starszym procesorem 8080. Procesor Z-80 początkowo był taktowany zegarem 2,5 MHz (a później maksymalnie 10 MHz) i składał się z 8500 tranzystorów. Procesor ten mógł współpracować z pamięcią o maksymalnej pojemności równej 64 kB.
Firma RadioShack zastosowała procesor Z-80 w swoim pierwszym komputerze TRS-80 Model 1. Układ firmy Zilog został również wykorzystany w wielu innych pionierskich systemach, włączając w to komputery firm Osborne i Kaypro. Inni producenci postąpili podobnie i wkrótce procesor Z-80 stał się standardem w przypadku komputerów działających pod kontrolą systemu operacyjnego CP/M, dla którego istniało wiele popularnych aplikacji.
Firma Intel w marcu 1976 r. wprowadziła na rynek procesor 8085 będący następcą układu 8080. Chociaż pojawił się kilka miesięcy wcześniej niż procesor Z-80, to jednak w przypadku komputerów osobistych nigdy nie zyskał podobnej popularności. Zdobył uznanie jako wbudowany kontroler i był stosowany w układach pomiarowych oraz innego rodzaju sprzęcie współpracującym z komputerem. Procesor 8085 był taktowany zegarem 5 MHz i składał się z 6500 tranzystorów. Oparty był na technologii 3 mikronów i był wyposażony w 8-bitową szynę danych.
Razem z produktami o różnej architekturze, firma MOS Technologies wprowadziła w 1976 roku na rynek układ 6502. Został on zaprojektowany przez kilku byłych inżynierów firmy Motorola, którzy uczestniczyli w tworzeniu pierwszego jej procesora o nazwie 6800. Podobnie jak w przypadku układu 8080, procesor 6502 był układem 8-bitowym, ale kosztował tylko około 25 dolarów, natomiast koszt procesora 8080 w chwili wprowadzenia do sprzedaży wynosił około 300 dolarów. Tak niska cena układu 6502 spowodowała, że Steve Wozniak zastosował go w swoich projektach komputerów Apple I i II. Procesor 6502 został również wykorzystany w produktach firmy Commodore i innych producentów komputerów. Układ 6502 i jego następcy byty wykorzystywane też w konsolach gier, z uwzględnieniem, między innymi, oryginalnej konsoli Nintendo En-tertainment System (NES). Firma Motorola rozpoczęta tworzenie procesorów z serii 68000, na których oparte były komputery Apple Macintosh. Aktualnie komputery firmy Apple wykorzystują procesory PowerPC będące następcami serii 68000 produkowanej przez firmę Motorola.
Wszystkie z wymienionych procesorów wpłynęły na rozwój rynku procesorów dla komputerów PC. W czerwcu 1978 r. firma Intel wprowadziła do sprzedaży procesor 8086. Był on wyposażony w oryginalny zestaw instrukcji x86, który nadal jest obecny w najnowszych procesorach kompatybilnych z serią x86 takich jak Pentium 4 i AMD Athlon. W porównaniu ze swoimi poprzednikami procesor 8086 ulegt znacznej rozbudowie dzięki zastosowaniu w pełni 16-bitowej architektury, która objawiała się w postaci 16-bitowych wewnętrznych rejestrów i 16-bitowej magistrali danych. Oznaczało to, że za jego pomocą możliwe było wewnętrzne przetwarzanie 16-bitowych danych oraz jednoczesne przesyłanie 16 ich bitów do i na zewnątrz procesora. Układ 8086 składał się z 29 000 tranzystorów i początkowo był taktowany zegarem 5 MHz. Procesor posługiwał się 20-bitowym adresowaniem, dlatego też mógł bezpośrednio współpracować z pamięcią o maksymalnej pojemności 1 MB. Chociaż procesor 8086 nie był bezpośrednio kompatybilny z modelem 8080, to jednak stosowane przez oba układy instrukcje i język były do siebie bardzo podobne, co w efekcie umożliwiało szybkie przystosowywanie starszych programów do nowego procesora. Taka możliwość okazała się później pomocna w celu rozpoczęcia rewolucji na rynku oprogramowania dla komputerów PC, która nastąpiła w momencie wprowadzenia do sprzedaży nowej wersji systemu operacyjnego CP/M dedykowanej dla procesora 8086.
Choć procesor 8086 był znakomitym produktem, jak na tamte czasy był dość drogi i, co ważniejsze, jego zastosowanie wiązało się z użyciem równie kosztownych 16-bitowych płyt głównych. W celu obniżenia cen procesorów, w 1979 r. Intel wprowadził na rynek uproszczoną wersję modelu 8086 — procesor 8088. Procesor ten posiadał identyczny rdzeń co układ 8086 oraz 16-bitowe rejestry, a ponadto współpracował z pamięcią o maksymalnej pojemności 1 MB. Jednak jego zewnętrzna magistrala danych została zredukowana do 8-bitowej. Tym sposobem stało się możliwe wykorzystanie chipsetów stosowanych w przypadku starszego 8-bitowego procesora 8085. a zatem można było produkować znacznie tańsze płyty główne i komputery. Powyższe czynniki wpłynęły na to. że IBM zamiast procesora 8086 w swoim pierwszym komputerze PC zastosował układ 8088.
Decyzja firmy IBM była przełomowa z kilku powodów. Procesor 8088 pod względem oprogramowania byl w pełni kompatybilny z układem 8086, dlatego też mógł wykonywać programy 16-bitowe. Poza tym. ze względu na duże podobieństwo stosowanego zestawu instrukcji do instrukcji poprzednich układów 8085 i 8080. programy dla nich napisane w prosty i szybki sposób mogły być zmodyfikowane i uruchomione w systemach z procesorem 8088. Spowodowało to, że w krótkim czasie możliwe było stworzenie dużej biblioteki programów przeznaczonych dla komputerów IBM PC, co miało spory wpływ na ich rozpowszechnienie. Ogromny sukces komputera IBM PC wpłynął na to, że od nowszych systemów wymagano utrzymywania z nim kompatybilności. W celu utrzymania popularności swoich procesorów, od tej pory Intel naprawdę był zmuszony, w przypadku większości nowszych modeli, do utrzymywania kompatybilności z układami 8088/8086.
W tamtym czasie, pomimo wymaganej kompatybilności wstecz, nadal możliwe było opracowywanie nowych rozwiązań. Jedną z ważniejszych zmian dokonanych w procesorach było przejście z 16-bitowej wewnętrznej architektury procesora 286 i jego następców na architekturę 32-bitową zastosowaną w procesorze 386 i nowszych modelach, którą Intel określił skrótem IA-32 (ang. 32-bit Intel Architecture). Choć architektura 32-bitowa stworzona została przez firmę Intel w 1985 r.. dopiero 10 lat później pojawi! się częściowo 32-bitowy (Windows 95) i w pełni 32-bitowy (Windows NT) powszechnie stosowany system operacyjny, wymagający 32-bitowych sterowników. Kolejne sześć lat minęło, zanim pojawiło się całkowicie 32-bitowe środowisko systemu operacyjnego i sterowników (Windows XP). W sumie upłynęło 16 lat od chwili zaprezentowania 32-bitowej platformy sprzętowej, zanim za pomocą odpowiedniego oprogramowania w pełni i na skalę masową wykorzystano jej możliwości. Jestem pewien, że Czytelnik doceni te 16 lat, które w przypadku technologii stanowią całą epokę.
W chwili obecnej oczekujemy na kolejny znaczący przełom technologiczny wynikający z wprowadzenia przez firmy Intel i AMD 64-bitowego rozszerzenia standardowej 32-bitowej architektury opracowanej przez Intela. Kilka lat wcześniej w swoich procesorach Itanium i Itanium 2 firma Intel zastosowała 64-bitową architekturę 1A-64 (Intel Architecture), ale była to technologia zupełnie nowa. nie będąca rozszerzeniem istniejącej 32-bitowej architektury. O architekturze IA-64 — objętej zakresem projektu realizowanego wspólnie przez firmy Intel i HP, a dotyczącego rozwoju procesora o nazwie kodowej Merced — po raz pierwszy poinformowano w 1994 r. Pierwsze szczegóły techniczne udostępniono w październiku 1997 r. Efektem prac projektowych była architektura IA-64 i procesor Itanium, oficjalnie zaprezentowany w 2001 r.
Niestety architektura IA-64 nie jest rozszerzeniem architektury IA-32, lecz rozwiązaniem zupełnie nowym i odmiennym. Świetnie sprawdza się w przypadku serwerów, z myślą o których została stworzona. Jednak rynek komputerów PC zawsze bazował na zgodności wstecz. Chociaż emulowanie architektury IA-32 wewnątrz architektury IA-64 jest możliwe, działa powolnie.
Z zaistniałej sytuacji skorzystała firma AMD, która opracowała 64-bitowe rozszerzenie architektury IA-32, nazywane AMD64 lub też x86-64. Obecnie Intel zaprezentował własną wersję 64-bitowego rozszerzenia
0 nazwie EM64T lub IA-32e. Okazuje się, że rozszerzenie firmy Intel jest prawie takie samo, jak rozszerzenie firmy AMD. Oznacza to, że na poziomie oprogramowania rozszerzenia powinny być ze sobą zgodne. Wydaje się. że po raz pierwszy przy projektowaniu architektury związanej z komputerami PC Intel właściwie wzorował się na firmie AMD.
Oczywiście, aby to wszystko funkcjonowało, konieczne jest zastosowanie 64-bitowego systemu operacyjnego i. co ważniejsze, 64-bitowych sterowników umożliwiających współpracę z takim systemem wszystkich posiadanych urządzeń. Przy rozważaniu przejścia z technologii 32-bitowej na 64-bitowej pod uwagę trzeba brać wszelkie kwestie dotyczące pojemności pamięci, oprogramowania i sterowników. Popularyzacja technologii 64-bitowej na skalę masową może nie zajmie 16 lat, ale też nie nastąpi w ciągu jednej nocy.
Niewątpliwie komputery PC mają za sobą długą drogę. Oryginalny procesor 8088, zastosowany w pierwszym komputerze PC, zawierał 29 000 tranzystorów i pracował z częstotliwością 4,77 MHz. Procesory Athlon 64
1 64 FX firmy AMD dysponują 106 milionami tranzystorów. Układ Pentium 4 580 (rdzeń Prescott) działa z szybkością 4 GHz i posiada 125 milionów tranzystorów. Z kolei procesor Pentium 4 Extreme Edition — ze względu na zintegrowanie z jego rdzeniem pamięci podręcznej L3 — dysponuje jeszcze większą liczbą tranzystorów. W przyszłości należy oczekiwać dalszego wzrostu liczby tranzystorów i pojemności pamięci podręcznej.
Choć z technicznego punktu widzenia układ Itanium 2 (rdzeń Madison) firmy Intel nie jest procesorem dla zwykłych komputerów PC, na jego podstawie można zorientować się, w jakim kierunku zmierza rozwój układów dla typowych stacjonarnych systemów. Układ Itanium 2 zawiera zintegrowaną pamięć podręczną L3 o pojemności do 6 MB i niesamowitą liczbę tranzystorów, wynosząca 410 milionów i pomieszczoną na płytce o powierzchni 374 mm2, wykonanej w technologii 0,13 mikrona. Jest to nowy rekord liczby tranzystorów, a także pojemności pamięci podręcznej zintegrowanej z rdzeniem. Trwają prace projektowe nad przyszłymi modelami procesorów zawierających miliard tranzystorów, a nawet więcej. Intel wprowadził na rynek procesory pracujące z częstotliwościami przekraczającymi 4 GHz, a firma AMD jest tuż za nim. Dalsza ewolucja nie zostanie przerwana, ponieważ zgodnie z prawem Moore'a regularnie po upływie okresu od 1,5 roku do 2 lat szybkość obliczeń i liczba tranzystorów wzrastają dwukrotnie.
Parametry procesorów
W czasie rozmów na temat procesorów często pojawia się wiele terminów technicznych. Poniżej dokonano omówienia niektórych z nich. z uwzględnieniem takich parametrów jak magistrala danych, magistrala adresowa i szybkość. W dalszej części podrozdziału zostały zamieszczone tabele zestawiające dane techniczne prawie wszystkich dostępnych procesorów przeznaczonych dla komputerów PC.
Procesory są identyfikowane według dwóch podstawowych parametrów: szybkości i typu magistrali. Szybkość procesora jest dość łatwym do zrozumienia parametrem. Jest ona wyrażana w megahercach (MHz) lub gigahercach (GHz), co oznacza odpowiednio milion lub miliard wykonywanych cykli na sekundę. Ogólnie mówiąc, im ta wartość jest wyższa, tym lepiej! Typ magistrali procesora jest pojęciem trochę trudniejszym do wyjaśnienia ze względu na fakt, że trzy podstawowe parametry procesora są określane za jego pomocą. Należą do nich:
magistrala danych wejścia-wyjścia (I/O),
magistrala adresowa,
wewnętrzne rejestry.
Warto zauważyć, że magistrala danych procesora nazywana jest też magistralą FSB {front sicie bus), magistralą PSB (processor sicie bus) lub po prostu magistralą procesora. Wszystkie te terminy odnoszą się do magistrali znajdującej się pomiędzy procesorem i podstawowym układem chipsetu (mostek północny lub układ ICH — Memory Controller Hub). Intel posługuje się terminami magistrala FSB i PSB, natomiast firma AMD tylko pierwszym z nich. Osobiście podczas rozmowy lub w trakcie prowadzonych przeze mnie szkoleń zwykle używam określenia „magistrala procesora". Wynika to stąd, że spośród wszystkich terminów jest ono najmniej mylące, a jednocześnie całkowicie precyzyjne.
Liczba bitów przydzielona procesorowi może być powodem nieporozumień. Wszystkie nowsze procesory dysponują 64-bitową magistralą danych. Jednak nie oznacza to, że należy je zaklasyfikować do układów 64-bitowych. Takie procesory, jak Pentium 4 i Athlon XP, są 32-bitowe, ponieważ ich wewnętrzne rejestry liczą 32 bity. Z kolei procesory te korzystają z 64-bitowej magistrali danych wejścia-wyjścia i 36-bitowej magistrali adresowej (obie magistrale są szersze od stosowanych w starszych procesorach Pentium i K.6). Układy z serii Itanium, a także procesory Opteron i Athlon 64 firmy AMD, są 64-bitowe, ponieważ ich wewnętrzne rejestry używają 64 bitów.
Na początek zaprezentuję kilka tabel wyjaśniających różnice występujące pomiędzy procesorami stosowanymi w komputerach osobistych. Następnie dokonam bardziej szczegółowego omówienia typów magistrali oraz innych parametrów. Przejrzenie zamieszczonych poniżej tabel zalecane jest dopiero po zapoznaniu się z omówieniem różnych parametrów procesora, ponieważ wtedy informacje w nich zawarte będą bardziej czytelne.
W tabelach od 3.1 do 3.4 wymieniono procesory firm Intel, AMD i innych producentów.
Tabela 3.1. Parametry procesorów firmy Intel
Procesor 386SL zawiera zintegrowany kontroler pamięci podręcznej, ale sama pamięć musi być umieszczona na zewnątrz procesora.
2 W późniejszym okresie firma Intel wprowadziła na rynek wersję SL Enhanced procesorów SX, DX i DX2. Były one dostępne w wersjach o napięciu zasilania 5 i 3,3 Vi posiadały możliwości zarządzania energią.
3 Pamięć podręczna drugiego poziomu L2 pracuje z pełną częstotliwością procesora, ale jest umieszczona w oddzielnym module.
4 Pamięć podręczna drugiego poziomu o pojemności użytecznej 128 kB (pojemność całkowita 256 kB, z tego polowa wyłączona) jest zintegrowana z procesorem Pentium IIIA.
5 Pamięć podręczna drugiego poziomu o pojemności użytecznej 256 kB (pojemność całkowita 512 kB, z tego polowa wyłączona) jest zintegrowana z procesorem Pentium IIIB.
6 Pamięć podręczna drugiego poziomu o pojemności użytecznej 128 kB (pojemność całkowita 256 kB, z tego połowa wyłączona) jest zintegrowana z procesorem Pentium 4.
Tabela 3.2. Parametry procesorów firmy AMD
Tabela 3.3. Parametry procesorów firm Intel i AMD przeznaczonych dla serwerów i stacji roboczych
Tabela 3.4. Parametry procesorów firm Cyrix, NexGen, IDT, Rise i VIA
Magistrala danych wejścia-wyjścia (I/0)
Prawdopodobnie najważniejszymi parametrami procesora są jego szybkość i szerokość zewnętrznej magistrali danych. Drugi parametr określa, w jakiej ilości dane są przesyłane do i na zewnątrz procesora.
Najczęściej omawianą magistralą procesora jest jego zewnętrzna magistrala danych, czyli zgrupowanie przewodów lub końcówek służących do wysyłania i odbierania danych. Im większa ilość jednocześnie wysłanych sygnałów, tym więcej danych może zostać przesłanych w określonym przedziale czasu, a zatem uzyskujemy szybszą i szerszą magistralę. Szyna o większej szerokości może być porównana z autostradą o większej ilości pasów powodujących zwiększenie jej przepustowości.
Dane w komputerze są przesyłane w postaci cyfrowej informacji składającej się z przedziałów czasu, w których przez pojedynczy przewód podawane jest napięcie o wartości 3,3 lub 5 V odpowiadające wartości binarnej I lub napięcie o wartości O V odpowiadające wartości binarnej 0. Im większą ilością przewodów dysponujemy, tym większą ilość pojedynczych bitów można wysiać w określonym przedziale czasu. Wszystkie nowoczesne procesory, począwszy od pierwszego procesora Pentium, a skończywszy na najnowszych modelach Pentium 4, Athlon XP, Athlon 64, a nawet Itanium i Itanium 2, posiadają 64-bitową (8-bajtową) magistralę danych. Wynika stąd. że są one w stanie przesyłać jednocześnie 64 bity danych do i na zewnątrz chipsetu płyty głównej lub pamięci systemowej.
Zalecana metoda zapamiętania powyższego opisu przepływu danych polega na wykorzystaniu analogii autostrady i odbywającego się na niej ruchu. Jeśli autostrada dysponuje tylko jednym pasem dla każdego kierunku ruchu, wtedy jednocześnie tylko jeden pojazd może poruszać się w jednym z kierunków ruchu. Aby zwiększyć przepustowość autostrady, należy dobudować kolejny pas ruchu, wtedy w określonym przedziale czasu będzie mogła przejechać dwukrotnie większa ilość samochodów. O 8-bitowym układzie możesz pomyśleć jak o jednopasmowej autostradzie, ponieważ jednocześnie przechodzi przez niego 1 bajt danych (1 bajt odpowiada 8 pojedynczym bitom). W przypadku układu 16-bitowego, który przesyła w danej chwili 2 bajty danych.
można użyć analogii autostrady dwupasmowej. Oczywiście w celu obsłużenia większej ilości pojazdów można zbudować autostradę posiadającą dla każdego kierunku 4 pasy ruchu. Taka konstrukcja odpowiada 32-bitowej magistrali danych, która pozwala na jednoczesne przesłanie 4 bajtów informacji. Kontynuując powyższe rozważania, 64-bitową szynę danych przesyłającą dane do i na zewnątrz procesora można porównać z autostradą 8-pasmową.
Kolejną informacją wynikającą ze znajomości parametrów magistrali danych procesora jest to, że jej szerokość określa również rozmiar banku pamięci operacyjnej. A zatem, procesor taki jak 486, posiadający 32-bitową magistralę danych, jednocześnie wczytuje i zapisuje do pamięci 32 bity. Z kolei procesory posiadające 64-bitową magistralę danych (większość dostępnych obecnie modeli) w danej chwili wczytują i zapisują do pamięci 64 bity.
Ze względu na fakt, że standardowe 72-końcówkowe układy pamięci SIMM (ang. single inline memory module — pojedynczy moduł pamięci) są tylko 32-bitowe, w większości systemów klasy 486 konieczne jest zastosowanie tylko jednego modułu. Gdy układy takie zostaną umieszczone w komputerze klasy Pentium z 64-bitową magistralą danych, niezbędne będzie użycie jednocześnie dwóch modułów pamięci. Stosowany obecnie standardowy moduł DIMM (dual inline memory module) jest 64-bitowy. W związku z tym, jeśli komputer nie jest został zaprojektowany z myślą o pamięci 2-kanałowej. w danej chwili należy zainstalować jeden moduł pamięci. Pamięć 2-kanałowa jednocześnie odczytuje i zapisuje dwa banki, co oznacza, że muszą zostać zainstalowane dwa moduły DIMM. Aby zwiększyć wydajność pamięci, większość przyszłych chipsetów będzie obsługiwała moduły pamięci DIMM; będzie też wymagane instalowanie ich w jednakowych parach.
Moduły pamięci RIMM (Rambus inline memory module), stosowane w niektórych komputerach z procesorami Pentium III/4, są wśród pamięci pewną anomalią, ponieważ w ich przypadku obowiązują różne zasady. Zazwyczaj są to pamięci 16- lub 32-bitowe. W zależności od typu modułu pamięci i chipsetu mogą one być stosowane parami lub pojedynczo.
^ ^ Zajrzyj do punktu „Banki pamięci" znajdującego się na stronie 563.
Magistrala adresowa
Magistrala adresowa jest zestawem ścieżek przenoszących informacje na temat adresowania informacji wykorzystywanych do opisu adresów komórek pamięci, do lub z których dane są wysyłane lub odczytywane. Podobnie jak w przypadku magistrali danych każda ścieżka szyny adresowej przenosi pojedynczy bit informacji. Takiemu bitowi odpowiada pojedyncza cyfra adresu. Im większa ilość ścieżek (cyfr) zostanie zastosowana do określania adresów, tym większa ilość komórek adresów zostanie uzyskana. Rozmiar (lub szerokość) magistrali adresowej określa maksymalną pojemność pamięci RAM, z którą może współpracować procesor.
Analogia autostrady zastosowana w punkcie „Magistrala danych wejścia-wyjścia (I/O)" może być tutaj użyta w celu pokazania podobieństw pomiędzy magistralą adresową a magistralą danych I/O. Jeśli szyna danych jest autostradą, a jej szerokość jest równa liczbie pasów ruchu, wtedy magistrala adresowa odpowiada numerom domów lub lokalizacji ulic. Szerokość magistrali adresowej odpowiada liczbie cyfr zawartych w numerze domu. Jeśli, na przykład, mieszkasz przy ulicy, której numeracja jest ograniczona do dziesiętnych liczb dwucyfrowych, można wtedy określić nie więcej niż 100 różnych adresów (00 - 99), które mogą być przypisane do tej ulicy (102). Po dodaniu jednej cyfry, ilość dostępnych adresów zwiększy się do 1000(000-999) lub 103.
Komputery posługują się dwójkowym systemem liczbowym (o podstawie liczby 2), dlatego też liczby dwucyfrowe pozwalają na określenie tylko 4 unikalnych adresów (00. 01, 10. 11) wyliczonych z zależności 2L. Liczba trzycyfrowa daje tylko 8 możliwości określenia adresu (000 - 111), co wynika z zależności 23. Przykładowo, procesory 8086 i 8088 posiadają 20-bitową magistralę adresową, która umożliwia wyznaczenie ilości adresów odpowiadającej zależności 220 lub, inaczej, 1 048 576 bajtów (1 MB). W tabeli 3.5 pokazano możliwości procesorów związane z adresowaniem pamięci.
Tabela 3.5. Możliwości procesorów związane z adresowaniem pamięci
Rodzina procesorów |
Magistrala adresowa |
Bajtów |
Kilobajtów (kB) |
Megabajtów (MB) |
Gigabajtów (GB) |
Terabajtów (TB) |
8088. 8086 |
20-bitowa |
1 048 576 |
1 024 |
1 |
|
|
286, 386SX |
24-bitowa |
16 777 216 |
16 384 |
16 |
— |
|
386DX, 486. Pentium |
32-bitowa |
4 294 967 296 |
4 194 304 |
4 096 |
4 |
|
K6, Duron. Athlon, Athlon XP |
32-bitowa |
4 294 967 296 |
4 194 304 |
4 096 |
4 |
_ |
Celeron, Pentium Pro. Pentium 11, Pentium III, Pentium 4 |
36-bitowa |
68 719 476 736 |
67 108 864 |
65 536 |
64 |
|
Athlon 64, Athlon 64 FX, Opteron |
40-bitowa |
1 099 511 627 776 |
1 073 741 824 |
1 048 576 |
1024 |
1 |
Itanium, Itanium 2 |
44-bilowa |
17 592 186 044 416 |
17 179 869 184 |
16 777 216 |
16 384 |
16 |
Uwaga: Terminy takie, jak kilobajty (kB), megabajty (MB) i terabajty (TB), są tu i w całej książce używane zgodnie
z konwecją. Jednak z technicznego punktu widzenia w przyszłości powinny zostać zastąpione przez kilobinarybajty (KiB),
gigabinarybajty (GiB) i terabinarybajly (TiB). Więcej informacji można znaleźć pod adresem http://www.iec.ch/zone/si/si_bytes.htm.
Magistrale danych i adresowa są wzajemnie niezależne, natomiast projektanci procesorów mają swobodę przy ustalaniu ich szerokości. Jednak zazwyczaj procesory wyposażone w szynę danych o większej szerokości mają również taką magistralę adresową. Szerokości obu magistral mogą być źródłem ważnych informacji dotyczących relatywnej wydajności procesora, która może być określona na dwa sposoby. Szerokość magistrali danych jest wskaźnikiem możliwości procesora związanych z przesyłaniem danych, natomiast szerokość magistrali adresowej informuje, z pamięcią o jakiej pojemności procesor może współpracować.
Rejestry wewnętrzne (wewnętrzna magistrala danych)
Szerokość rejestrów wewnętrznych informuje, jaka ilość danych może być jednocześnie przetworzona przez procesor oraz w jaki sposób dane są w nim wewnętrznie przekazywane. Czasem w stosunku do rejestrów wewnętrznych używa się terminu wewnętrzna magistrala danych (ang. internal data bus). Rejestr jest komórką umieszczoną wewnątrz procesora służącą do przechowywania danych. Przykładowo, po dodaniu liczb znajdujących się w dwóch różnych rejestrach procesor może zapisać wynik operacji w trzecim. Rozmiar rejestru określa ilość danych, które mogą być przetworzone przez procesor. Na podstawie rozmiaru rejestru można również określić typ programów lub instrukcji wykonywanych przez procesor. Oznacza to, że procesor wyposażony w 32-bitowe wewnętrzne rejestry może wykonać 32-bitowe instrukcje przetwarzające 32-bitowe porcje danych, ale procesory z 16-bitowymi rejestrami już nie. Najbardziej zaawansowane modele procesorów obecnie dostępnych, począwszy od 386, a skończywszy na Pentium 4 wykorzystują 32-bitowe rejestry wewnętrzne, a zatem można na nich uruchamiać te same 32-bitowe systemy operacyjne i aplikacje. Procesory Itanium i Athlon 64 posiadają 64-bitowe rejestry wewnętrzne, które w celu ich pełnego wykorzystania wymagają stworzenia nowych wersji systemów operacyjnych i aplikacji.
Niektóre bardzo wiekowe procesory są wyposażone w wewnętrzną magistralę danych (złożoną z linii danych i jednostek przechowujących dane nazywanych rejestrami), która jest szersza od jej zewnętrznego odpowiednika. Przykładem są procesory 8088 i 386SX. w których szerokość wewnętrznej magistrali danych jest dwukrotnie większa od szerokości magistrali zewnętrznej. Tego typu rozwiązania czasami zwane też hybrydowymi zwykle składają się na tańszą wersję procesora standardowego. Na przykład procesor 386SX do wewnętrznego przesyłania danych wykorzystuje pełną szerokość 32-bitowego rejestru, natomiast w przypadku komunikacji ze światem zewnętrznym jest ograniczony do stosowania 16-bitowej szyny danych. Takie rozwiązanie pozwala inżynierom systemowym tworzyć niedrogie płyty główne wykorzystujące 16-bitową magistralę oraz w dalszym ciągu wprowadzać zestaw aplikacji i instrukcji w pełni kompatybilnych z 32-bitowym procesorem 386. Jednak zarówno procesor 8088. jak i 386SX, pracujące z identyczną częstotliwością, oferowały niższą wydajność niż procesory 8086 i 386DX.
Często się zdarza, że szerokość wewnętrznych rejestrów jest większa niż magistrali danych, co oznacza, że zanim rejestr będzie w pełni sprawny, procesor do jego wypełnienia potrzebuje dwóch cykli. Przykładowo, zarówno procesor 386SX, jak i 386DX są wyposażone w 32-bitowe rejestry wewnętrzne, ale do ich wypełnienia procesor 386SX potrzebuje, mówiąc w przenośni, dwóch „oddechów", natomiast 386DX realizuje to zadanie już tylko po jednym. Taka sama sytuacja wystąpi również w przypadku przesyłania danych z rejestrów do magistrali systemowej.
Procesor Pentium jest przykładem tego typu rozwiązania. Wszystkie procesory z serii Pentium posiadają 64-bitową magistralę danych i 32-bitowe rejestry czyli mają budowę, która na pierwszy rzut oka może się wydać dziwna, ale tylko do momentu uświadomienia sobie, że procesor Pentium jest wyposażony w dwa 32-bitowe wewnętrzne potoki służące do przetwarzania informacji. Procesor Pentium (i to na wiele sposobów) jest jak dwa 32-bitowe układy zawarte w jednym. 64-bitowa magistrala danych jest stosowana do bardzo wydajnego wypełniania wielu rejestrów. Wiele potoków określa się terminem architektury superskalarnej (ang. superscalar) po raz pierwszy zastosowanej w procesorze Pentium.
► ► Zajrzyj do punktu „Procesory Pentium" znajdującego się na stronie 171.
Bardziej zaawansowane procesory szóstej i siódmej generacji firmy Intel i AMD dysponują sześcioma potokami wykonującymi instrukcje. Chociaż niektóre z wewnętrznych potoków są przeznaczone do realizowania specjalnych funkcji, to jednak wyposażone w nie procesory są w stanie wykonać do trzech instrukcji w ciągu jednego cyklu zegara.
Tryby pracy procesora
Wszystkie 32-bitowe procesory (386 i nowsze) Intela i z nim zgodne mogą pracować w kilku trybach. Tryby pracy procesora odnoszą się do różnych środowisk roboczych i mają wpływ na możliwości i instrukcje przez niego wykonywane. Tryb pracy procesora decyduje, w jaki sposób zarządza on pamięcią systemową i zadaniami do wykonania.
Można wyróżnić następujące trzy podstawowe tryby pracy z kilkoma dodatkowymi. Oto one:
tryb rzeczywisty (oprogramowanie 16-bitowe),
tryb IA-32:
tryb chroniony (oprogramowanie 32-bitowe),
wirtualny tryb rzeczywisty (oprogramowanie 16-bitowe uruchamiane na platformie 32-bitowej).
♦ 64-bitowy rozszerzony tryb IA-32e (nazywany też AMD64. x86-64 lub EM64T),
tryb 64-bitowy (oprogramowanie 64-bitowe),
tryb zgodności (oprogramowanie 32-bitowe).
W tabeli 3.6 zawarto zestawienie trybów procesorów.
Tabela 3.6. Tryby procesorów
Tryb rzeczywisty
Tryb rzeczywisty czasami nazywany jest trybem 8086, ponieważ wywodzi się z procesorów 8086 i 8088. Oryginalny komputer IBM PC wyposażony był w procesor 8088, który przy użyciu 16-bitowych rejestrów wewnętrznych potrafił wykonywać instrukcje 16-bitowe oraz za pośrednictwem 20 ścieżek adresowych współpracować z pamięcią o pojemności maksymalnej 1 MB. Oprogramowanie, w które byl wyposażony oryginalny IBM PC, zostało stworzone z myślą o współpracy z procesorem 8088, dlatego też wykorzystywało zestaw instrukcji 16-bitowych i 1-megabajtowy model pamięci. Przykładowo, system DOS i wszystkie programy dla niego przeznaczone oraz system Windows w wersjach l.x - 3.x wraz z aplikacjami zostały napisane przy wykorzystaniu instrukcji 16-bitowych. 16-bitowe systemy operacyjne i aplikacje zostały stworzone dla oryginalnego procesora 8088.
► Zajrzyj do punktu „Rejestry wewnętrzne (wewnętrzna magistrala danych)" znajdującego się na stronie 82.
^ Zajrzyj do punktu „Magistrala adresowa" znajdującego się na stronie 81.
Następne procesory, takie jak 286, nadal mogły wykonywać te same 16-bitowe instrukcje co procesor 8088. ale już znacznie szybciej. Inaczej mówiąc, procesor 286 byl w pełni z nim kompatybilny, dlatego też można było na nim uruchamiać wszystkie programy 16-bitowe co w przypadku procesora 8088, ale oczywiście działały one o wiele szybciej. Tryb wykonywania przez procesory 8088 i 286 instrukcji 16-bitowych został określony terminem trybu rzeczywistego (ang. real mode). Wszystkie programy pracujące w trybie rzeczywistym mogą korzystać tylko z instrukcji 16-bitowych i współpracować z 20-bitową architekturą pamięci (I MB). Tego typu oprogramowanie z reguły jest jednozadaniowe, co oznacza, że jednocześnie może być uruchomiony tylko jeden program. Ponadto nie ma wbudowanej żadnego ochrony zapobiegającej wykorzystaniu przez program obszaru pamięci już przydzielonego innemu programowi lub systemowi operacyjnemu. Jeśli zatem uruchomiono więcej niż jeden program, dowolny z nich może spowodować zawieszenie całego systemu.
Tryb chroniony (32-bitowy)
Pierwszym procesorem 32-bitowym przeznaczonym dla komputerów PC i wprowadzonym do sprzedaży był układ 386. Procesor ten mógł wykonywać zupełnie nowy zestaw instrukcji 32-bitowych. Aby w pełni wykorzystać taką możliwość, konieczne było stworzenie odpowiedniego 32-bitowego systemu operacyjnego i aplikacji. Nowy. 32-bitowy tryb pracy procesora został określony terminem trybu chronionego (ang. prolected mode). Nazwa wywodzi się stąd, że programy działające w tym trybie otrzymują własny obszar pamięci, przez co nie dochodzi między nimi do konfliktów. Tego typu ochrona sprawia, że system jest o wiele bardziej stabilny, ponieważ programy zawierające błąd nie mogą w prosty sposób zaszkodzić innym programom lub systemowi operacyjnemu. Poza tym program, który się zawiesił, może być usunięty z pamięci bez szkody dla reszty systemu.
Wiedząc, że stworzenie nowych systemów operacyjnych i aplikacji wykorzystujących zalety 32-bitowego trybu chronionego może zająć trochę czasu, firma Intel na wszelki wypadek wbudowała do układu 386 kompatybilność wstecz z trybem rzeczywistym. Pozwoliło to, bez potrzeby wykonywania żadnych modyfikacji, na uruchamianie 16-bitowych systemów operacyjnych i aplikacji. Działały one zupełnie przyzwoicie i o wiele szybciej niż w przypadku poprzedniego procesora. Dla większości osób było to w zupełności wystarczające. Opracowanie nowego oprogramowania opartego na architekturze 32-bitowej nie było dla nich konieczne — właściwie wystarczyło, aby istniejące aplikacje 16-bitowe działały znacznie szybciej. Niestety, oznaczało to, że procesor nigdy nie wykorzysta 32-bitowego trybu chronionego, a tym samym wszystkie związane z tym możliwości zostaną utracone.
W sytuacji, gdy tak wydajny procesor jak Pentium 4 pracuje pod kontrolą systemu DOS (w trybie rzeczywistym), upodabnia się on do procesora 8088 w wersji Turbo. Słowo „Turbo" oznacza, że jest lepszy od zwykłego procesora 8088 w tym, że każdy program 16-bitowy działa szybciej, ale poza tym wykorzystuje tylko 16-bitowe instrukcje i ma dostęp do tego samego obszaru pamięci o pojemności 1 MB, co oryginalny układ 8088. Wniosek z tego jest taki. że jeśli jesteś posiadaczem systemu zawierającego procesor Pentium 4 lub Athlon oraz 256 MB pamięci, a pracującego pod kontrolą systemu Windows 3.1 lub DOS, wtedy w rzeczywistości jest wykorzystywany tylko pierwszy megabajt pamięci, a pozostałe 255 MB jest nieużywane!
Pojawiło się zatem zapotrzebowanie na nowe systemy operacyjne i aplikacje działające w 32-bitowym trybie chronionym oferowanym przez nowoczesne procesory. Użytkownicy komputerów — z natury uparci — opierali się początkowym próbom przejścia na 32-bitowe środowisko pracy. Można odnieść wrażenie, że społeczność użytkowników nie jest skłonna do zmian i woli nadal wykorzystywać starsze oprogramowanie, ale działające szybciej z nowym procesorem, niż nowe aplikacje oferujące dodatkowe możliwości. Będę może pierwszą osobą, która przyznaje się.do identyfikowania się z tego typu użytkownikami!
Wskutek tak dużego sprzeciwu musiało upłynąć sporo czasu, zanim prawdziwe 32-bitowe systemy operacyjne takie jak Unix lub jego odmiany (Linux), OS/2 lub nawet Windows NT/2000 czy XP zyskały na rynku komputerów osobistych większą popularność. Windows XP jest pierwszym w pełni 32-bitowym systemem operacyjnym, który odniósł prawdziwy sukces i było to spowodowane głównie faktem zakończenia tworzenia przez Microsoft systemów z serii Windows 95/98/Me, które są mieszanką architektur 16- i 32-bitowej. Windows 3.x był ostatnim wyłącznie 16-bitowym systemem operacyjnym. Tak naprawdę nigdy nie był uważany za prawdziwy system operacyjny, ponieważ stanowił nakładkę dla systemu DOS.
Procesory z rodziny Itanium i układ Opteron firmy AMD przeznaczone dla serwerów oferują architekturę 64-bitową. W przypadku zwykłych komputerów PC podobną możliwość stwarza układ Athlon 64 firmy AMD. Wymienione procesory pozwalają uruchomić istniejące aplikacje 32-bitowe. Aby jednak w pełni wykorzystać ich możliwości, konieczne jest zastosowanie 64-bitowego systemu operacyjnego i aplikacji. Firma Microsoft opracowała 64-bitową wersję systemu Windows XP, natomiast kilka innych producentów stworzyło 64-bitowe aplikacje sieciowe przeznaczone dla stacji roboczych.
Procesory z serii Itanium Intela i układy Athlon 64/Opteron firmy AMD oparte są na odmiennej 64-bitowej architekturze. A zatem 64-bitowe oprogramowanie napisane dla układów Intela bez re-kompilacji dokonanej przez producenta nie będzie działało z procesorami firmy AMD. Oznacza to, że aplikacje stworzone z myślą o 64-bitowej architekturze Intela nie są zgodne z 64-bitowymi procesorami firmy AMD i odwrotnie.
Wirtualny tryb rzeczywisty IA-32
Kluczem do zgodności wstecz 32-bitowego środowiska Windows jest trzeci tryb pracy procesora — wirtualny tryb rzeczywisty. Wirtualny tryb rzeczywisty (ang. virtual real mode) właściwie jest trybem wirtualnym środowiska 16-bitowego działającego w 32-bitowym trybie chronionym. Po uruchomieniu w systemie Windows sesji DOS jest wykorzystywany wirtualny tryb rzeczywisty. Dzięki wielozadaniowości oferowanej przez tryb chroniony właściwie możliwe jest uruchomienie kilku sesji w trybie rzeczywistym, w których działają programy na zasadzie pracy w wirtualnych komputerach. Programy te mogą działać jednocześnie, nawet gdy są uruchomione aplikacje 32-bitowe.
Należy zauważyć, że dowolny program działający w wirtualnym trybie rzeczywistym ma dostęp tylko do 1 MB pamięci, co spowoduje, że będzie „przekonany o tym", że jest to pierwszy i jedyny megabajt pamięci dostępnej w systemie. Inaczej mówiąc, jeśli aplikacja napisana dla systemu DOS zostanie uruchomiona w wirtualnym trybie rzeczywistym, będzie miała do dyspozycji tylko 640 kB. Takie ograniczenia wynika stąd, że w przypadku 16-bitowego środowiska pracy jest dostępny tylko 1 MB pamięci RAM. z czego 384 kB jest zarezerwowane dla samego systemu. Wirtualny tryb rzeczywisty w pełni emuluje środowisko pracy procesora 8088, dlatego też aplikacje działają tak, jakby były uruchomione w komputerze oferującym tylko faktyczny tryb rzeczywisty. Każda wirtualna maszyna korzysta z własnej 1-megabajtowej przestrzeni adresowej, w której znajduje się obraz rzeczywistych funkcji systemu BIOS odwołujących,się do urządzeń i emuiuje wszystkie pozostałe rejestry oraz funkcje występujące w trybie rzeczywistym.
Wirtualny tryb rzeczywisty jest wykorzystywany w momencie uruchomienia, w oknie sesji DOS. 16-bitowego programu stworzonego dla systemu DOS lub Windows 3.x. Po uruchomieniu takiego programu system Windows tworzy wirtualną maszynę DOS, która przejmuje jego obsługę.
Zasługujący na uwagę jest fakt, że wszystkie procesory firmy Intel i z nimi kompatybilne takich firm jak AMD i Cyrix, działając w trybie rzeczywistym, zwiększają swoją wydajność. Po załadowaniu 32-bitowego systemu operacyjnego następuje automatyczne przełączenie pracy procesora w tryb 32-bitowy, który od tej pory przejmuje kontrolę.
Należy również zwrócić uwagę na istotną rzecz, a mianowicie na to, że niektóre aplikacje 16-bitowe (dla systemu DOS i Windows 3.x), działając w środowisku 32-bitowym, nie zachowują się prawidłowo, co oznacza, że wykonują one operacje, które nie są obsługiwane nawet w wirtualnym trybie rzeczywistym. Oprogramowanie diagnostyczne jest znakomitym tego przykładem. Tego typu programy nie sprawują się za dobrze działając w oknie sesji wirtualnej uruchomionej w systemie Windows. W takich sytuacjach rozwiązaniem jest przełączenie procesora Pentium III w faktyczny tryb rzeczywisty — poprzez załadowanie systemu DOS z dyskietki startującej lub. w przypadku systemu Windows 9x (z wyjątkiem Me), poprzez przerwanie procesu jego ładowania i nakazanie uruchomienia zwykłej platformy DOS. W przypadku systemu Windows 9x operacja ta jest realizowana za pomocą klawisza F8, który należy wcisnąć w momencie wyświetlenia na ekranie komunikatu Uruchamianie systemu Windows.. . lub natychmiast po usłyszeniu dźwięku generowanego po zakończeniu wykonywania procedury testującej komputer POST (ang. power on self test).
W drugim wariancie najlepiej wcisnąć klawisz F8 kilka razy ze względu na fakt, że idealne wyczucie właściwego momentu jest bardzo trudne, a poza tym system Windows 9x oczekuje na jego wciśnięcie tylko przez krótki okres czasu wynoszący 2 sekundy.
Jeśli operacja się uda, na ekranie pojawi się menu startowe. Można w nim wybrać jedną z pozycji, która spowoduje załadowanie zwykłego 16-bitowego systemu DOS pracującego w trybie rzeczywistym. Jeśli zamierzasz wykonać procedurę testującą urządzenia, najbardziej zalecana jest pozycja menu o nazwie Tylko wiersz poleceń trybu awaryjnego, która nie powoduje przejścia do trybu chronionego, natomiast uruchamia system z minimalną ilością wymaganych sterowników urządzeń i aplikacji.
Choć system Windows Me oparty jest na swoim poprzedniku, Windows 98, firma Microsoft — celem dalszego odzwyczajania użytkowników od stosowania programów 16-bitowych — usunęła z niego menu startowe. Systemy Windows NT/2000 i XP również są pozbawione możliwości przerwania w taki sposób procesu ich ładowania. W przypadku tych systemów operacyjnych konieczne jest skorzystanie z dyskietki startowej lub dysku CD, którą można utworzyć i stosować do załadowania systemu w trybie rzeczywistym. Sięgnięcie po nią zwykle będzie konieczne w przypadku wykonywania określonych procedur serwisowych takich jak diagnozowanie urządzeń lub dokonywanie bezpośredniej modyfikacji sektorów dysku.
Chociaż tryb rzeczywisty jest używany przez 16-bitowy system operacyjny DOS i zwykłe aplikacje, istnieją programy, które „poszerzają" system DOS i udostępniają pamięć rozszerzoną (powyżej 1 MB). Czasem są one określane terminem ekspandera systemu DOS (ang. DOS extenders) i zazwyczaj stanowią część programów przeznaczonych dla systemu DOS lub Windows 3.x. Protokół opisujący proces przełączania systemu DOS w tryb chroniony nosi nazwę DPMI (ang. DOSprotected mode interface).
Protokół DPMI był wykorzystywany przez system Windows 3.x w celu uzyskania przez działające pod jego kontrolą aplikacje dostępu do pamięci rozszerzonej. DPMI umożliwiało 16-bitowym programom korzystanie z większej ilości pamięci niż pozwalała im na to ich architektura. Programy rozszerzające DOS były szczególnie popularne w przypadku gier napisanych dla systemu DOS. ponieważ za ich pomocą możliwy byl dostęp do znacznie większej ilości pamięci systemowej niż standardowy 1 MB, z którym mogła współpracować większość aplikacji trybu rzeczywistego. Zasada ich działania polega na ciągłym włączaniu i wyłączaniu trybu rzeczywistego procesora. W przypadku programów rozszerzających DOS uruchomionych pod kontrolą systemu Windows jest przez nie wykorzystywany wbudowany protokół DPMI pozwalający im ma współdzielenie obszaru systemowej pamięci rozszerzonej.
Kolejnym wyjątkiem dotyczącym trybu rzeczywistego jest obszar 64 kB pamięci rozszerzonej, który właściwie jest dostępny dla komputera uruchomionego w tym trybie, chociaż tak nie powinno być. Sytuacja ta jest wynikiem błędu popełnionego w oryginalnym komputerze IBM AT, a dotyczącym 21. ścieżki adresowej pamięci znanej jako .420 (pierwszą linią adresową jest AO). Po zmodyfikowaniu tej ścieżki programy działające w trybie rzeczywistym uzyskiwały dostęp do pierwszych 64 kB pamięci rozszerzonej, czyli już za granicą 1 MB. Taki obszar pamięci określany jest terminem pamięci wysokiej (ang. High memory area — HMA).
64-bitowy tryb rozszerzony IA-32e (AMD64, x86-64, EM64T)
64-bitowy tryb rozszerzony jest rozwinięciem architektury IA-32. Oryginalnie zaprojektowany został przez firmę AMD. a później zaadaptowany przez Intela. Procesory oparte na tej technologii mogą działać w trybie rzeczywistym (8086), trybie IA-32 lub trybie lA-32e. Tryb IA-32 pozwala procesorom działać w trybie chronionym i wirtualnym trybie rzeczywistym. Z kolei tryb IA-32e umożliwia procesorowi pracę w trybie 64-bitowym i trybie zgodności. Oznacza to. że jednocześnie można uruchamiać zarówno aplikacje 32-. jak i 64-bitowe. Tryb lA-32e zawiera dwa następujące podtryby:
Tryb 64-bitowy. Umożliwia 64-bitowemu systemowi operacyjnemu uruchamianie aplikacji 64-bitowych.
Tryb zgodności. Umożliwia 64-bitowemu systemowi operacyjnemu uruchamianie większości istniejących aplikacji 32-bitowych.
64-bitowy tryb IA-32e uaktywniany jest po załadowaniu 64-bitowego systemu operacyjnego i wykorzystywany przez aplikacje 64-bitowe. 64-bitowy podtryb oferuje następujące nowe funkcje:
64-bitowe liniowe adresowanie pamięci.
Obsługa pamięci o pojemności fizycznej przekraczającej 4 GB (ograniczenie narzuca określony procesor).
Osiem nowych rejestrów ogólnego przeznaczenia GPR (general-purpose register).
Osiem nowych rejestrów obsługujących instrukcje multimedialne MMX, SSE (streaming SIMD extensions), SSE2 i SSE3.
64-bitowe rejestry GPR i wskaźniki instrukcji.
Tryb zgodności IA-32e umożliwia uruchamianie w 64-bitowym systemie operacyjnym aplikacji 16- i 32-bitowych. Niestety starsze 16-bitowe programy działające w wirtualnym trybie rzeczywistym (aplikacje systemu DOS) nie są obsługiwane i nie będzie można z nich korzystać. Prawdopodobnie dla wielu użytkowników jest to największy problem. Podobnie do trybu 64-bitowego, tryb zgodności uaktywniany jest przez system operacyjny dla poszczególnych partii kodu. Oznacza to, że 64-bitowe aplikacje działające w trybie 64-bitowym mogą jednocześnie być używane z programami 32-bitowymi uruchomionymi w trybie zgodności.
Aby to wszystko było możliwe, wymagany jest 64-bitowy system operacyjny i, co ważniejsze, zgodne z nim 64-bitowe sterowniki obsługujące posiadane urządzenia. Dostępne są już następujące dwie wersje 64-bitowego systemu operacyjnego:
64-bitowa wersja systemu Windows XP przeznaczona dla procesorów Itanium.
64-bitowa wersja systemu Windows XP przeznaczona dla 64-bitowych systemów rozszerzonych.
Pierwszy z wymienionych systemów stworzono z myślą o procesorach IA-64, takich jak Itanium i Itanium 2. Jego ostateczna wersja pojawiła się w 2001 r. Drugi z systemów obsługuje procesory IA-32 z 64-bitowym rozszerzeniem, takie jak Athlon 64, Opteron i mające pojawić się w przyszłości układy Xeon i Pentium z 64-bitowym rozszerzeniem. Wersja produkcyjna systemu pojawiła się w drugiej połowie 2004 r.
W tabeli 3.7 wymieniono różnice występujące pomiędzy 32- i 64-bitowymi wersjami systemu Windows XP.
Tabela 3.7. Porównanie 32- i 64-bitowej wersji systemu Windows XP
Przestrzeń adresowa |
Pojemność pamięci obsługiwana przez 32-bitową wersję Windows XP |
Pojemność pamięci obsługiwana przez 64-bitową wersję Windows XP |
Pamięć fizyczna |
4 GB |
32 TB |
Pamięć wirtualna |
4 GB |
16 TB |
Plik wymiany |
16 TB |
512 TB |
Pula stronicowana |
470 MB |
128 GB |
Pula niestronicowana |
256 MB |
128 GB |
Systemowa pamięć podręczna |
1 GB |
1 TB |
Główna różnica pomiędzy 32- i 64-bitową wersją systemu Windows XP związana jest z obsługą pamięci. W przypadku 64-bitowej wersji została przekroczona granica 4 GB, obowiązująca w 32-bitowej wersji systemu. 32-bitowa wersja systemu Windows XP obsługuje maksymalnie 4 GB fizycznej lub wirtualnej pamięci, a danemu procesowi jest w stanie przydzielić do 2 GB pamięci. Z kolei 64-bitowa wersja systemu obsługuje maksymalnie 32 GB fizycznej pamięci i 16 TB wirtualnej. Obsługa pamięci o większej pojemności oznacza, że aplikacje mogą od razu umieścić w fizycznej lub wirtualnej pamięci więcej danych, do których procesor jest w stanie znacznie szybciej uzyskać dostęp. Jeśli potrzebujesz pamięci RAM o pojemności przekraczającej 4 GB, konieczne będzie zastosowanie 64-bitowej platformy sprzętowej z 64-bitowym systemem Windows.
64-bitowy system Windows XP bez problemów obsługuje 32-bitowe aplikacje Windows, ale nie pozwala już uruchomić programów systemu DOS lub innych działających w wirtualnym trybie rzeczywistym. Kolejnym sporym problemem są sterowniki. 32-bitowe procesy nie są w stanie załadować 64-bitowych bibliotek DLL (dynamie link libraries), a 64-bitowe procesy — 32-bitowych bibliotek DLL. Zasadniczo oznacza to, że aby można było korzystać ze wszystkich urządzeń komputera, konieczne jest zastosowanie zarówno 32-, jak i 64-bitowych sterowników. Zdobycie 64-bitowych sterowników dla starszych lub już nieobsługiwanych urządzeń może być trudne lub niemożliwe. Nawet w przypadku nowych urządzeń może upłynąć kilka lat, zanim producenci standardowo będą wyposażać je w 64-bitowe sterowniki.
Przy rozważaniu przejścia z platformy 32-bitowej na 64-bitową pod uwagę należy wziąć wszystkie kwestie dotyczące pojemności pamięci, oprogramowania i sterowników. Zanim 32-bitowa platforma sprzętowa zaczęła być masowo wykorzystywana do przetwarzania danych, upłynęło 16 lat. Jak już wspomniałem, w przypadku platformy 64-bitowej może to nie trwać tyle czasu, ale najprawdopodobniej zajmie co najmniej kilka lat.
Szybkość procesorów
Określanie w różny sposób szybkości procesorów jest przyczyną częstych nieporozumień. W tej części rozdziału zostanie omówione zagadnienie szybkości procesorów, a następnie przedstawimy bardziej szczegółowe informacje na temat osiągów procesorów takich firm jak Intel, AMD i VIA/Cyrix.
Szybkość działania komputera jest wyrażana częstotliwością będąca zazwyczaj ilością cykli wykonanych w ciągu sekundy. Zadaniem oscylatora będącego krzemową płytką (czasem umieszczoną w niewielkiej obudowie wykonanej z cyny) jest sterowanie częstotliwością taktowania zegara. Nowsze rozwiązania zawierają układ oscylatora zintegrowany z chipsetem płyty głównej, dlatego też może on nie być widoczny jako oddzielny komponent. Po przyłożeniu napięcia, kwarc zaczyna drgać (oscylować) z częstotliwością zależną od kształtu i wielkości kryształu (płytki). Drgania są przekazywane poza kryształ w postaci prądu, który zmienia swoją wartość zgodnie z częstotliwością oscylacji kryształu. Generowany prąd zmienny stanowi sygnał zegarowy, który tworzy podstawę czasu, zgodnie z którą komputer wykonuje obliczenia. Standardowy komputer wykonuje w ciągu sekundy miliony takich cykli, a zatem częstotliwość jest mierzona w megahercach. Herc odpowiada jednemu cyklowi na sekundę. Sygnał prądu zmiennego ma postać sinusoidy, w której przedział czasu pomiędzy jej kolejnymi wartościami szczytowymi wyznacza częstotliwość (rysunek 3.1).
Rysunek 3.1.
Sygnał prądu zmiennego ukazujący cykl taktujący zegara
Nazwa jednostki herc wywodzi się od nazwiska niemieckiego fizyka Heinricha Rudolfa Hertza. W 1885 r. udowodnił istnienie zjawiska elektromagnetyzmu, w którym zakłada się, że światło jest postacią promieniowania elektromagnetycznego emitowanego w formie fal.
Dla procesora najmniejszą jednostką czasu jest pojedynczy cykl. Każda operacja przez niego wykonana wymaga co najmniej jednego cyklu, ale zazwyczaj jest ich kilka. Na przykład, aby odczytać i zapisać dane, nowoczesny procesor — taki jak Pentium 4 — wymaga minimalnie trzech cykli potrzebnych do zrealizowania pierwszej operacji dostępu do danych znajdujących się w pamięci, a następnie już tylko jednego cyklu na każdą taką operację powtórzoną kolejno od trzech do sześciu razy. Dodatkowe cykle wymagane przy pierwszej operacji zwykle są określane terminem cykli oczekiwania (ang. wait states). Cykl oczekiwania jest taktem zegara, w czasie którego nie jest wykonywana żadna operacja. Jego zastosowanie ma na celu zapobiegnięcie zbyt szybkiej pracy procesora w stosunku do reszty systemu.
^ ^ Zajrzyj do punktu „Moduły SIMM, DIMM i RIMM" znajdującego się na stronie 543.
Czas potrzebny na wykonanie instrukcji również uległ skróceniu:
Procesory 8086 i 8088. Obydwa modele na wykonanie pojedynczej instrukcji potrzebowały średnio 12 cykli.
Procesory 286 i 386. W tym przypadku czas wykonywania jednej instrukcji został zmniejszony do około 4,5 cykla.
Procesor 486. W przypadku procesora 486 i większości innych modeli procesorów kompatybilnych z czwartą generacją produktów firmy Intel takich jak AMD 5x86, czas wykonywania instrukcji zmniejszył się do około 2 cykli.
♦ Procesor Pentium, seria K6. Architektura procesora Pentium i innych procesorów kompatybilnych
z piątą generacją produktów firmy Intel takich jak AMD i Cyrix jest wyposażona w podwojone potoki instrukcji oraz inne innowacje, które powodują, że w ciągu jednego cyklu jest wykonywana jedna lub dwie instrukcje.
♦ Procesory Pentium Pro, Pentium H/IH/4/Celeron i Athlon/Athlon XP/Duron. Wymienione procesory szóstej (P6) i siódmej (P7) generacji są w stanie w ciągu jednego cyklu wykonać trzy lub więcej instrukcji.
Różne czasy wykonywania instrukcji wyrażone w cyklach powodują, że próba dokonania porównania systemów tylko w oparciu o częstotliwość ich zegarów lub ilość cykli wykonanych w ciągu sekundy okazuje się zadaniem trudnym do zrealizowania. W jaki sposób wyjaśnić, że w przypadku dwóch procesorów taktowanych jednakową częstotliwością zegara jeden z nich jest szybszy od drugiego? Odpowiedź jest bardzo prosta — poprzez pomiar wydajności.
Główną przyczyną, dla której procesor 486 był uważany za stosunkowo szybki, była dwukrotnie większa ilość instrukcji wykonanych w ciągu identycznej liczby cykli w porównaniu z poprzednim modelem (386). Ta sama prawidłowość dotyczy procesora Pentium w porównaniu z procesorem 486 — Pentium wykonuje prawie dwa razy więcej instrukcji przy określonej liczbie cykli. Podsumowując, przy jednakowej częstotliwości zegara procesor Pentium jest dwukrotnie szybszy od swojego poprzednika, natomiast procesor klasy 486 taktowany zegarem 133 MHz (taki jak AMD 5x86-133) nie dorównuje pod względem szybkości nawet procesorowi Pentium taktowanemu zegarem 75 MHz! Wynika to stąd, że megaherce procesora Pentium są około dwa razy więcej „warte" od megaherców procesora 486, przy czym mam na myśli ilość instrukcji wykonanych w ciągu jednego cyklu. Procesory Pentium II i III są w przybliżeniu 50% szybsze od odpowiednika w postaci procesora Pentium taktowanego zegarem o identycznej częstotliwości. Wynika to stąd. że w ciągu tej samej liczby cykli wykonują o wiele większą liczbę instrukcji.
Niestety po pojawieniu się układu Pentium III o wiele trudniejsze stało się porównywanie procesorów tylko na podstawie częstotliwości ich zegara. Wynika to stąd, że różne wewnętrzne architektury procesorów sprawiają, że niektóre z nich są wydajniejsze od innych. Jednocześnie różnice w wydajności spowodowane są przez obwody, które mogą pracować z różnymi maksymalnymi szybkościami. Mniej wydajny obwód może pracować z wyższą częstotliwością i odwrotnie.
Po dokonaniu porównania względnej wydajności komputerów można dojść do wniosku, że procesor Pentium III taktowany zegarem 1 GHz ma teoretycznie podobną wydajność jak Pentium taktowany zegarem 1,5 GHz, któremu z kolei odpowiada procesor 3 GHz 486. a temu procesor 386 lub 286 taktowany zegarem 6 GHz i w końcu jemu odpowiada układ 8088 pracujący z częstotliwością 12 GHz. W porównaniu z oryginalnym procesorem 8088, taktowanym zegarem o częstotliwości tylko 4,77 MHz, obecnie stosowane systemy są co najmniej 25 000 razy szybsze! Jak można z tego wywnioskować, należy zachować ostrożność w przypadku dokonywania porównania wydajności różnych systemów w oparciu tylko o częstotliwość zegara, ponieważ na wydajność ma wpływ wiele innych wskaźników.
Określanie wydajności procesora może okazać się trudnym zadaniem. Procesory charakteryzujące się odmienną architekturą wewnętrzną wykonują instrukcje w inny sposób i w przypadku określonych operacji mogą szybsze, a innych wolniejsze. Aby dokonać wiarygodnego porównania procesorów taktowanych zegarami o różnych częstotliwościach, firma Intel opracowała szereg konkretnych testów określanych mianem indeksu iCOMP (Intel Comparative Microprocessor Performance), które mogą być wykorzystane do uzyskania względnej miary wydajności testowanego procesora. Indeks iCOMP uległ dwukrotnym aktualizacjom opublikowanym w postaci kolejnych wersji iCOMP 2.0 i 3.0.
Typ procesora |
Indeks iCOMP 2.0 |
Typ procesora |
Indeks iCOMP 2.0 |
Pentium 75 |
67 |
Pentium Pro 200 |
220 |
Pentium 100 |
90 |
Celeron 300 |
226 |
Pentium 120 |
100 |
Pentium II 233 |
267 |
Pentium 133 |
111 |
Celeron 300A |
296 |
Pentium 150 |
114 |
Pentium II 266 |
303 |
Pentium 166 |
127 |
Celeron 333 |
318 |
Pentium 200 |
142 |
Pentium II 300 |
332 |
Pentium-MMX 166 |
160 |
Pentium II OverDrive 300 |
351 |
Pentium Pro 150 |
168 |
Pentium 11 333 |
366 |
Pentium-MMX 200 |
182 |
Pentium II 350 |
386 |
Pentium Pro 180 |
197 |
Pentium II OverDrive 333 |
387 |
Pentium-MMX 233 |
203 |
Pentium II 400 |
440 |
Celeron 266 |
213 |
Pentium II 450 |
483 |
Tabela 3.8. Indeks iCOMP 2.0 firmy Inlet
W tabeli 3.8 zestawiono porównanie względnej wydajności (indeks iCOMP 2.0) zmierzonej dla kilku procesorów.
Należy zwrócić uwagę na to, że są to wyniki określone według najnowszej wersji indeksu iCOMP. Jednak w przypadku procesora Pentium 4 firma Intel do określenia jego wydajności wykorzystuje inne narzędzia.
Indeks iCOMP 2.0 jest tworzony na podstawie wyników kilku niezależnych pomiarów wydajności i stanowi wiarygodny wskaźnik względnej wydajności procesora. Programy służące do wykonywania pomiarów w równym stopniu sprawdzają wydajność związaną z operacjami zmiennoprzecinkowymi jak i multimedialnymi.
Po zaprojektowaniu procesora Pentium III firma Intel zaprzestała posługiwania się indeksem iCOMP 2.0 i opracowała jego nową wersję 3.0. Indeks iCOMP 3.0 został uaktualniony o mające coraz większe znaczenie aplikacje związane z grafiką trójwymiarową, multimediami, technologiami stosowanymi w sieci Internet oraz programy służące do transmisji danych w trybie strumieniowym. Składa się z sześciu następujących testów porównawczych: WinTune 98 Advanced CPU Integer test, CPUmark 99, 3D WinBench 99-3D Lighting and Trans-formation Test, MultimediaMark 99, Jmark 2.0 Processor Test oraz WinBench 99-FPU WinMark. Wymienione testy porównawcze wykorzystują możliwości rozszerzenia SSE (ang. Streaming S/MD Exlensions) oraz dodatkowe instrukcje przetwarzające grafikę i dźwięk wbudowane w procesor Pentium III. Bez uwzględnienia możliwości nowych instrukcji procesor ten, w porównaniu z procesorem Pentium II taktowanym zegarem o identycznej częstotliwości, wykazałby w testach w przybliżeniu tę samą wydajność.
W tabeli 3.9 zebrano wyniki indeksu iCOMP 3.0 dotyczące procesorów Pentium II i III.
Tabela 3.9. Indeks iCOMP 3.0 firmy Intel
Typ procesora |
Indeks iCOMP 3.0 |
Typ procesora |
Indeks iCOMP 3.0 |
Pentium II 350 |
1000 |
Pentium III 650 |
2270 |
Pentium II 450 |
1240 |
Pentium III 700 |
2420 |
Pentium III 450 |
1500 |
Pentium III 750 |
2540 |
Pentium III 500 |
1650 |
Pentium III 800 |
2690 |
Pentium III 550 |
1780 |
Pentium III 866 |
2890 |
Pentium III 600 |
1930 |
Pentium III 1000 |
3280 |
Pentium III 600E |
2110 |
|
|
Obecnie firmy Intel i AMD mierzą wydajność swoich najnowszych procesorów przy użyciu zestawu dostępnych odpłatnie testów porównawczych BAPCo SYSmark 2002 i 2004. W tabeli 3.10 i 3.11 zebrano wyniki uzyskane w testach porównawczych SYSmark 2002 i 2004 dla różnych wersji tego procesora.
SYSmark 2002 i 2004 są dostępnymi odpłatnie zestawami testów porównawczych opartymi na aplikacjach odzwierciedlających zwykły poziom obciążenia generowanego przez przeciętnego użytkownika wykorzystującego aplikacje biurowe z uwzględnieniem zestawu Microsoft Office i nowoczesnych narzędzi służących do tworzenia treści udostępnianych w Internecie. Godne uwagi jest to, że widoczne powyżej wyniki zostały uzyskane dla kompletnych systemów i wpływ na nie mają takie czynniki, jak określona wersja procesora, typ używanej płyty głównej i chipsetu, pojemność i rodzaj zainstalowanej pamięci, prędkość dysku twardego i inne. W celu zapoznania się z pełnym zestawieniem innych czynników wpływających na uzyskiwane wyniki należy zajrzeć na stronę internetową firmy BAPCo.
SYSmark 2002 podczas swojej pracy korzysta z następujących aplikacji:
Narzędzia do tworzenia treści publikowanych w sieci Internet. Należą do nich: Adobe Photoshop 6.01, Premierę 6.0. Microsoft Windows Media Encoder 7.1, Macromedia Dreamweaver 4 oraz Flash 5.
Aplikacje biurowe. Należą do nich: Microsoft Word 2002, Excel 2002, PowerPoint 2002, Outlook 2002, Access 2002, Netscape Communicator 6.0, Dragon NaturallySpeaking Preferred v.5. WinZip 8.0 oraz McAfee YirusScan 5.13.
Procesor |
Częstotliwość (GHz) |
Wynik testów porównawczych SYSMark 2002 |
Pentium 4 Extreme Edition |
3.2 |
362 |
Pentium 4 |
3,2 |
344 |
Pentium 4 |
3,0 |
328 |
Pentium 4 |
3,06 |
324 |
Pentium 4 |
2,8 |
312 |
Pentium 4 |
2,6 |
295 |
Pentium 4 |
2,67 |
285 |
Pentium 4 |
2,53 |
273 |
Pentium 4 |
2,4 |
264 |
Pentium 4 |
2,26 |
252 |
Pentium 4 |
2,2 |
238 |
Pentium 4 |
2,0 |
222 |
AMD Athlon XP |
1,72 |
195 |
Pentium 4 |
1,9 |
192 |
Pentium 4 |
1,8 |
187 |
Pentium 4 |
1,7 |
178 |
Pentium 4 |
1,6 |
171 |
AMD Athlon XP |
1,67 |
171 |
Pentium 4 |
1,5 |
162 |
AMD Athlon XP |
1,53 |
149 |
Pentium III |
1,2 |
108 |
Pentium III |
1,3 |
104 |
Pentium III |
1,13 |
100 |
Pentium III |
1,0 |
92 |
Tabela 3.10. Wyniki uzyskane dla różnych procesorów w testach porównawczych SYSMark 2002
SYSmark 2004 podczas swojej pracy korzysta z następujących aplikacji:
Narzędzia do tworzenia treści publikowanych w sieci Internet. Należą do nich: Adobe After Effects 5.5, Adobe Photoshop 7.01, Adobe Premierę 6.5, Discreet 3ds max 5.1, Macromedia Dreamweaver MX, Macromedia Flash MX, Microsoft Windows Media Encoder 9 Series, Network Associates McAfee VirusScan 7.0 i WinZip Computing WinZip 8.1.
Aplikacje biurowe. Należą do nich: Adobe Acrobat 5.0.5, Microsoft Access 2002, Excel 2002. Internet Explorer 6, Outlook 2002, PowerPoint 2002, Word 2002, Network Associates McAfee VirusScan 7.0, ScanSoft Dragon Naturally Speaking 6 Preferred i WinZip Computing WinZip 8.1.
SYSmark za pomocą różnych skryptów symuluje rzeczywiste operacje wykonywane za pomocą powyższych aplikacji. Dzięki temu jest wykorzystywany przez wiele firm do testowania i porównywania różnych systemów PC i ich komponentów. SYSmark 2002 jest o wiele bardziej nowoczesnym i symulującym rzeczywiste operacje zestawem testów niż dotychczas stosowany indeks iCOMP firmy Intel. Ponadto dzięki ogólnej dostępności, uzyskiwane wyniki mogą być niezależnie weryfikowane. Zestawy testów SYSmark 2002 i 2004 można zakupić za pośrednictwem strony internetowej ich producenta, firmy BAPCo, znajdującej się pod adresem http://www.bapco.com.
Procesor |
Częstotliwość (GHz) |
Wynik testów porównawczych SYSMark 2004 |
Intel Pentium 4EE |
3,4 |
225 |
Intel Pentium 4E |
3,4 |
218 |
Intel Pentium 4EE |
3,2 |
215 |
AMD Athlon FX-53 |
2,4 |
213 |
Intel Pentium 4C |
3,4 |
212 |
Intel Pentium 4E |
3,2 |
204 |
AMD Athlon FX-51 |
2,2 |
200 |
AMD Athlon 64 3400+ |
2,2 |
195 |
AMD Athlon 64 3200+ |
2,2 |
194 |
Intel Pentium 4C |
3,0 |
193 |
Intel Pentium 4E |
2.8 |
182 |
AMD Athlon 64 3200+ |
2,0 |
180 |
AMD Athlon 64 3000+ |
2.0 |
178 |
Intel Pentium 4C |
2,8 |
174 |
AMD Athlon 64 2800+ |
1,8 |
164 |
AMD Athlon XP 3200+ |
2,2 |
163 |
Intel Pentium 4C |
2,4 |
153 |
AMD Athlon XP 2800+ |
2,25 |
151 |
AMD Athlon XP 2700+ |
2,18 |
148 |
Intel Pentium 4B |
2,8 |
144 |
AMD Athlon XP 2600+ |
2,08 |
144 |
AMD Athlon XP 2400+ |
2,0 |
133 |
Intel Pentium 4B |
2,4 |
130 |
Intel Celeron |
2,8 |
117 |
Intel Celeron |
2,7 |
115 |
AMD Athlon XP 1800+ |
1,53 |
111 |
Intel Celeron |
2,5 |
110 |
Intel Celeron |
2,4 |
104 |
Intel Pentium 4A |
2,0 |
104 |
Intel Pentium III |
1,0 |
64 |
Tabela 3.11. Wyniki uzyskane dla różnych procesorów w testach porównawczych SYSMark 2004
Porównanie szybkości procesorów i płyt głównych
Kolejny nie do końca oczywisty wskaźnik wykorzystywany przy porównywaniu wydajności procesorów jest związany z istnieniem kilku różnych szybkości taktowania szyn płyt głównych. Sytuacja taka miała miejsce już od czasów pojawienia się na rynku procesora 486DX2. Przykładowo procesor Pentium 4 pracuje z częstotliwością 2,53 GHz, która jest 4,75 ('%) razy wyższa od częstotliwości magistrali FSB płyty głównej wynoszącej 500 MHz. Z kolei procesor AMD Athlon XP 2800+ oparty na najnowszym rdzeniu Barton pracuje z częstotliwością 2,083 GHz, która jest 6,25 (75/12) razy wyższa od częstotliwości magistrali FSB płyty głównej równej 333 MHz. Aż do początku roku 1998 większość płyt głównych była taktowana zegarem o częstotliwości 66 MHz lub niższej. Począwszy od kwietnia 1998 r. firma Intel wprowadziła do sprzedaży zarówno procesory, jak i płyty główne przystosowane do pracy z częstotliwością 100 MHz.
Pod koniec roku 1999 pojawiły się chipsety i płyty główne taktowane zegarem 133 MHz i przystosowane do współpracy z nowszymi modelami procesora Pentium III. W tym okresie zostały wprowadzone do sprzedaży płyty główne i chipsety współpracujące z procesorami AMD Athlon i taktowane zegarem 100 MHz. ale wykorzystywały również technologię podwojonego transferu, który w efekcie pozwalał na zwiększenie efektywnego transferu danych pomiędzy procesorem Athlon, a mostkiem północnym chipsetu (ang. North Bridge) odbywającego się z częstotliwością200 MHz'.
W roku 2000 i następnym prędkości magistrali procesorów zostały zwiększone — w przypadku procesora AMD Athlon i Intel Itanium do 266 MHz. a w procesorach Pentium 4 od 4002 do 533 MHz. W 2002 r. procesory AMD Athlon XP zaczęły obsługiwać magistralę o szybkości 333 MHz. W następnym roku Intel zaprezentował procesory Pentium 4 współpracujące z magistralą o szybkości 800 MHz. Zazwyczaj szybkość magistrali procesorów firm AMD i Intel jest dostosowywana do typu pamięci, z którymi będą one współpracować. W przypadku większości nowszych modeli procesorów szybkość ich magistrali jest zależna od częstotliwości rdzenia procesora oraz zastosowanej pamięci (SDRAM, DDR SDRAM, RDRAM). Warto zauważyć, że szybkość magistrali procesorów Pentium 4 nie odpowiada wprost szybkości określonej pamięci.
Aby uzyskać więcej informacji na temat szybkości chipsetów i magistrali, należy zajrzeć do rozdziału 4., „Płyty główne i magistrale".
Tabela 3.12. Częstotliwości pracy procesorów firmy Intel i ptyt głównych
Typ procesora |
Częstotliwość procesora (MHz) |
Mnożnik częstotliwości |
Częstotliwość płyty głównej (MHz) |
Pentium |
75 |
x 1,5 |
50 |
Pentium |
60 |
x l |
60 |
Pentium |
90 |
x l,5 |
60 |
Pentium |
120 |
x 2 |
60 |
Pentium |
150 |
x 2,5 |
60 |
Pentium/Pentium Pro |
180 |
x 3 |
60 |
Pentium |
66 |
x l |
66 |
Pentium |
100 |
x l,5 |
66 |
Pentium |
133 |
x 2 |
66 |
Pentium/Pentium Pro |
166 |
x 2,5 |
66 |
Pentium/Pentium Pro |
200 |
x 3 |
66 |
Pentium/Pentium II |
233 |
x 3,5 |
66 |
Pentium (Mobile)/Pentium II/Celeron |
266 |
x 4 |
66 |
1 Rzeczywista częstotliwość pracy wynosi 100 MHz, natomiast ze względu na to, iż dane są przesyłane nie tylko na zboczu opadającym ale i rosnącym stąd bierze się wartość 200 MHz —jest to tzw. „efektywna" częstotliwość.
2 Dla szyny pracującej w trybie Quad Pumped — w jednym cyklu przesyłane są 4 bity.
Szybkość płyty głównej i mnożnik częstotliwości mogą być ustawione za pomocą zworek (znajdujących się na płycie) lub innego typu mechanizmów konfiguracyjnych (takich jak narzędzie Setup systemu BIOS). W' nowszych rozwiązaniach do ustawiania częstotliwości płyty głównej i procesora jest wykorzystywany układ syntezatora zmiennych częstotliwości zwykle zintegrowany z chipsetem płyty głównej. Większość płyt głównych przeznaczonych dla procesorów Pentium ma możliwość pracy z trzema lub czterema różnymi szybkościami Obecnie stosowane modele procesorów są dostępne w różnych wersjach przystosowanych, w zależności od ustawionej szybkości płyty głównej, do pracy z różnymi częstotliwościami. Przykładowo, większość modeli procesora Pentium jest taktowana z częstotliwością, która jest wielokrotnością częstotliwości płyty głównej. Na przykład procesory Pentium i współpracujące z nimi płyty główne pracują z częstotliwościami przedstawionymi w tabeli 3.12.
Tabela 3.12. Częstotliwości pracy procesorów firmy Intel i płyt głównych — ciąg dalszy
Typ procesora |
Częstotliwość procesora (MHz) |
Mnożnik częstotliwości |
Częstotliwość płyty głównej (MHz) |
|||
Pentium Ii/Celeron |
300 |
x4,5 |
66 |
|||
Pentium ll/Ccleron |
333 |
x5 |
66 |
|||
Pentium Il/Celeron |
366 |
x5,5 |
66 |
|||
Celeron |
400 |
x6 |
66 |
|||
Celeron |
433 |
x6,5 |
66 |
|||
Celeron |
466 |
x7 |
66 |
|||
Celeron |
500 |
x7,5 |
66 |
|||
Celeron |
533 |
x8 |
66 |
|||
Celeron |
566 |
x8,5 |
66 |
|||
Celeron |
600 |
x9 |
66 |
|||
Celeron |
633 |
x9,5 |
66 |
|||
Celeron |
667 |
xl0 |
66 |
|||
Celeron |
700 |
xl 0,5 |
66 |
|||
Celeron |
733 |
xli |
66 |
|||
Celeron |
766 |
xl 1,5 |
66 |
|||
Pentium 11 |
350 |
x3,5 |
100 |
|||
Pentium 11 |
400 |
x4 |
100 |
|||
Pentium 11/111 |
450 |
x4,5 |
100 |
|||
Pentium III |
500 |
x5 |
100 |
|||
Pentium III |
550 |
x5,5 |
100 |
|||
Pentium III |
600 |
x6 |
100 |
|||
Pentium III |
650 |
x6,5 |
100 |
|||
Pentium III |
700 |
x7 |
100 |
|||
Pentium III |
750 |
x7,5 |
100 |
|||
Pentium lll/Ccleron |
800 |
x8 |
100 |
|||
Pentium lll/Ccleron |
850 |
x8,5 |
100 |
|||
Pentium Ul/Celeron |
900 |
x9 |
100 |
|||
Pentium lll/Celeron |
950 |
x9,5 |
100 |
|||
Pentium Iii/Celeron |
1000 |
xl0 |
100 |
|||
Pentium lll/Celeron |
1100 |
xli |
100 |
|||
Pentium lll/Celeron |
1200 |
xl2 |
100 |
|||
Pentium lll/Celeron |
1300 |
xl3 |
100 |
|||
Pentium lll/Celeron |
1400 |
xl4 |
100 |
|||
Pentium III |
533 |
x4 |
133 |
|||
Pentium III |
600 |
x4,5 |
133 |
|||
Pentium III |
667 |
x5 |
133 |
|||
Pentium III |
733 |
x5,5 |
133 |
|||
Pentium III |
800 |
x6 |
133 |
|||
Pentium III |
866 |
x6,5 |
133 |
|||
Pentium III |
933 |
x7 |
133 |
|||
Pentium III |
1000 |
x7,5 |
133 |
|||
Pentium III |
1066 |
x8 |
133 |
|||
Pentium III |
1133 |
x8,5 |
133 |
|||
Pentium III |
1200 |
x9 |
133 |
|||
Pentium III |
1266 |
x9,5 |
133 |
|||
Pentium III |
1333 |
xl0 |
133 |
|||
Pentium III |
1400 |
xl0,5 |
133 |
|||
Pentium 4 |
1300 |
x3,25 |
400 |
|||
Pentium 4 |
1400 |
x3,5 |
400 |
|||
Pentium 4 |
1500 |
x3,75 |
400 |
|||
Pentium 4 |
1600 |
x4 |
400 |
|||
Pentium 4/Celeron |
1700 |
x4,25 |
400 |
|||
Pentium 4 |
1800 |
x4,5 |
400 |
|||
Pentium 4 |
1900 |
x4,75 |
400 |
|||
Pentium 4 |
2000 |
x5 |
400 |
|||
Pentium 4 |
2200 |
x5,5 |
400 |
|||
Pentium 4 |
2400 |
x6 |
400 |
|||
Pentium 4 |
2266 |
x4,25 |
533 |
|||
Pentium 4 |
2400 |
x4,5 |
533 |
|||
Pentium 4 |
2500 |
x6,25 |
400 |
|||
Pentium 4 |
2533 |
x4,75 |
533 |
|||
Pentium 4 |
2600 |
x6,5 |
400 |
|||
Pentium 4 |
2660 |
x5 |
533 |
|||
Pentium 4 |
2800 |
x5,25 |
533 |
|||
Pentium 4 |
3060 |
x5,75 |
533 |
|||
Pentium 4 |
3200 |
x4 |
800 |
|||
Pentium 4 |
3400 |
x4,25 |
800 |
|||
Itanium |
733 |
x2,75 |
266 |
|||
Itanium |
800 |
x3 |
266 |
|||
Itanium 2 |
1000 |
x2,5 |
400 |
Aby uzyskać więcej informacji na temat konkretnych modeli procesorów firmy AMD, Cyrix lub VIA, należy zapoznać się z zawartością poświęconych im podrozdziałów znajdujących się w dalszej części rozdziału.
Jeśli wszystkie pozostałe parametry, takie jak typ procesora, liczba cykli oczekiwania (cykli pustych) zdefiniowana dla czasów dostępu różnych typów pamięci oraz szerokość magistrali danych, są stałe, wtedy na podstawie odpowiednich częstotliwości pracy można dokonać porównania dwóch systemów. Wskutek różnic w budowie i architekturze kontrolera pamięci (zintegrowanego w chipsecie płyty głównej) oraz typu i ilości zainstalowanej pamięci uzyskana całkowita szybkość działającego systemu może się znacznie różnić.
W trakcie procesu produkcyjnego wytwórca procesorów sprawdza ich parametry pracy przy różnych prędkościach, temperaturach i ciśnieniach. Po zakończeniu etapu testowania procesor uzyskuje znacznik informujący o maksymalnej częstotliwości, z którą będzie działał prawidłowo z uwzględnieniem zmiennych warunków temperaturowych i ciśnieniowych występujących w normalnych warunkach jego pracy. Parametry pracy procesora są opisane na jego obudowie.
Szybkości procesorów Cyrix
Procesory Cyrix/1BM/VIA z serii 6x86 (układy konkurujące z procesorem Pentium, pierwszymi modelami Pentium II. a także procesorami firmy AMD z serii K5 i K6) posługiwały się wskaźnikiem wydajności PR. który nie był równoznaczny rzeczywistej szybkości wyrażonej częstotliwością pracy zegara (MHz). Przykładowo, procesor Cyrix 6x86MX/MII-PR366 w rzeczywistości jest taktowany zegarem 250 MHz (2,5 x 100 MHz). Takie oznaczenie procesorów jest trochę mylące — zamiast spodziewanej częstotliwości 366 MHz konieczne jest skonfigurowanie płyty głównej do współpracy z procesorem taktowanym zegarem 250 MHz. Niestety, doprowadziło to do tego, że wiele osób uwierzyło, że systemy oparte na procesorach Cyrix były szybsze niż w rzeczywistości.
W tabeli 3.13 zaprezentowano zależność występującą pomiędzy wskaźnikiem wydajności PR, stosowanym w procesorach Cyrix 6x86, 6x86MX i MII, a ich rzeczywistą częstotliwością pracy wyrażoną w megahercach.
Należy zwrócić uwagę na fakt, że tak naprawdę określona wartość wskaźnika PR może oznaczać kilka różnych częstotliwości pracy procesora. Przykładowo, procesor Cyrix 6x86MX-PR200 może właściwie pracować z częstotliwością 150 MHz, 165 MHz, 166 MHz lub 180 MHz, ale już na pewno nie z częstotliwością 200 MHz.
Zadaniem wskaźnika wydajności PR było porównanie szybkości procesora Cyrix z szybkością odpowiadającego mu procesora Pentium firmy Intel z tym, że był to model pozbawiony rozszerzenia MMX i wyposażony z pamięć Cache LI o małej pojemności przystosowany do współpracy ze starszymi modelami płyt głównych i chipsetów oraz wolniejszymi typami pamięci. Wskaźnik PR nie wypadał za dobrze w porównaniu z procesorami Celeron czy Pentium II i III. Inaczej mówiąc, procesor MII-PR366 w rzeczywistości był taktowany zegarem 250 MHz i jego osiągi były porównywalne z produktami firmy Intel pracującymi z podobną częstotliwością, przez co uzyskiwane wyniki w pewien sposób nie były wiarygodne.
Szybkości procesorów AMD
Procesory Athlon XP firmy AMD cechują się znakomitą wydajnością i posiadają kilka funkcji godnych uwagi, ale, niestety, do określenia ich szybkości zastosowano podobny wskaźnik, jakim posługiwał się producent procesorów Cyrix. Jest nim symulowana częstotliwość wyrażona w megahercach nie mająca nic wspólnego z rzeczywistą częstotliwością procesora, a jedynie porównywana z wersję procesora Intel Pentium 4 pierwszej generacji osiągającego podobną wydajność. Jeśli powyższa definicja zabrzmiała trochę niezrozumiale to wszystko jest w porządku, ponieważ tak jest w istocie!
W tabeli 3.14 zebrano rzeczywiste i wyrażone za pomocą wskaźnika PR częstotliwości procesorów firmy AMD, takich jak K5, K6, Athlon, Athlon XP i Duron.
Tabela 3.13. Porównanie rzeczywistej częstotliwości wyrażonej w MHz z częstotliwością określoną według wskaźnika wydajności P-Rating procesorów firmy Cyrix
Typ procesora |
Wskaźnik P-Rating |
Rzeczywista częstotliwość (MHz) |
Mnożnik częstotliwości |
Częstotliwość płyty głównej (MHz) |
6x86 |
PR90 |
80 |
x2 |
40 |
6x86 |
PR120 |
100 |
x2 |
50 |
6x86 |
PR133 |
110 |
x2 |
55 |
6x86 |
PR 150 |
120 |
x2 |
60 |
6x86 |
PR 166 |
133 |
x2 |
66 |
6x86 |
PR200 |
150 |
x2 |
75 |
6x86MX |
PR133 |
100 |
x2 |
50 |
6x86MX |
PR 133 |
110 |
x2 |
55 |
6x86MX |
PRI50 |
120 |
x2 |
60 |
6x86MX |
PR150 |
125 |
x2,5 |
50 |
6x86MX |
PR 166 |
133 |
x2 |
66 |
6x86MX |
PR 166 |
137,5 |
x2,5 |
55 |
6x86MX |
PR166 |
150 |
x3 |
50 |
6x86MX |
PR 166 |
150 |
x2,5 |
60 |
6x86MX |
PR200 |
150 |
x2 |
75 |
6x86MX |
PR200 |
165 |
x3 |
55 |
6x86MX |
PR200 |
166 |
x2,5 |
66 |
6x86MX |
PR200 |
180 |
x3 |
60 |
6x86MX |
PR233 |
166 |
x2 |
83 |
6x86MX |
PR233 |
187,5 |
x2,5 |
75 |
6x86MX |
PR233 |
200 |
x3 |
66 |
6x86MX |
PR266 |
207,5 |
x2,5 |
83 |
6x86MX |
PR266 |
225 |
x3 |
75 |
6x86MX |
PR266 |
233 |
x3,5 |
66 |
M-Il |
PR300 |
225 |
x3 |
75 |
M-H |
PR300 |
233 |
x3,5 |
66 |
M-II |
PR333 |
250 |
x3 |
83 |
M-II |
PR366 |
250 |
x2,5 |
100 |
M-II |
PR400 |
285 |
x3 |
95 |
M-II |
PR433 |
300 |
x3 |
100 |
Cyrix III |
PR433 |
350 |
x3,5 |
100 |
Cyrix III |
PR466 |
366 |
x3 |
122 |
Cyrix III |
PR500 |
400 |
x3 |
133 |
Cynx III |
PR533 |
433 |
x3,5 |
124 |
Cyrix III |
PR533 |
450 |
x4,5 |
100 |
Tabela 3.14. Porównanie rzeczywistej częstotliwości wyrażonej w MHz z częstotliwością określoną według wskaźnika wydajności P-Rating procesorów firmy AMD
Typ procesora |
Wskaźnik P-Rating |
Rzeczywista częstotliwość (MHz) |
Mnożnik częstotliwości |
Częstotliwość płyty głównej (MHz) |
K5 |
75 |
75 |
xl,5 |
50 |
K5 |
90 |
90 |
xl,5 |
60 |
K.5 |
100 |
100 |
xl,5 |
66 |
K5 |
120 |
90 |
xl,5 |
60 |
K5 |
133 |
100 |
xl,5 |
66 |
K5 |
166 |
116 |
xl,75 |
66 |
K6 |
166 |
166 |
x2,5 |
66 |
K6 |
200 |
200 |
x3 |
66 |
K6 |
233 |
233 |
x3,5 |
66 |
K6 |
266 |
266 |
x4 |
66 |
K6 |
300 |
300 |
x4,5 |
66 |
K6-2 |
233 |
233 |
x3,5 |
66 |
K6-2 |
266 |
266 |
x4 |
66 |
K6-2 |
300 |
300 |
x4,5 |
66 |
K6-2 |
300 |
300 |
x3 |
100 |
K6-2 |
333 |
333 |
x5 |
66 |
K6-2 |
333 |
333 |
x3,5 |
95 |
K6-2 |
350 |
350 |
x3,5 |
100 |
K.6-2 |
366 |
366 |
x5,5 |
66 |
K6-2 |
380 |
380 |
x4 |
95 |
K6-2 |
400 |
400 |
x6 |
66 |
K6-2 |
400 |
400 |
x4 |
100 |
K6-2 |
450 |
450 |
x4,5 |
100 |
K.6-2 |
475 |
475 |
x5 |
95 |
K6-2 |
500 |
500 |
x5 |
100 |
K6-2 |
533 |
533 |
x5,5 |
97 |
K6-2 |
550 |
550 |
x5,5 |
100 |
K6-3 |
400 |
400 |
x4 |
100 |
K6-3 |
450 |
450 |
x4,5 |
100 |
Athlon |
500 |
500 |
x2,5 |
200 |
Athlon |
550 |
550 |
x2,75 |
200 |
Athlon/Duron |
600 |
600 |
x3 |
200 |
Athlon/Duron |
650 |
650 |
x3,25 |
200 |
Athlon/Duron |
700 |
700 |
x3,5 |
200 |
Athlon/Duron |
750 |
750 |
x3,75 |
200 |
Athlon/Duron |
800 |
800 |
x4 |
200 |
Athlon/Duron |
850 |
850 |
x4,25 |
200 |
Athlon/Duron |
900 |
900 |
x4,5 |
200 |
Athlon/Duron |
950 |
950 |
x4,75 |
200 |
Athlon/Duron |
1000 |
1000 |
x5 |
200 |
Athlon/Duron |
1100 |
1100 |
x5,5 |
200 |
Athlon/Duron |
1200 |
1200 |
x6 |
200 |
Athlon/Duron |
1300 |
1300 |
x6,5 |
200 |
Athlon/Duron |
1400 |
1400 |
x7 |
200 |
Athlon |
1000 |
1000 |
x3,75 |
266 |
Athlon |
1133 |
1133 |
x4,25 |
266 |
Athlon |
1200 |
1200 |
x4,5 |
266 |
Athlon |
1333 |
1333 |
x5 |
266 |
Athlon |
1400 |
1400 |
x5,25 |
266 |
Athlon XP |
1500+ |
1333 |
x5 |
266 |
Athlon XP |
1600+ |
1400 |
x5,25 |
266 |
Athlon XP |
1700+ |
1466 |
x5,5 |
266 |
Athlon XP |
1800+ |
1533 |
x5,75 |
266 |
Athlon XP |
1900+ |
1600 |
x6 |
266 |
Athlon XP |
2000+ |
1666 |
x6,25 |
266 |
Athlon XP |
2100+ |
1733 |
x6,5 |
266 |
Athlon XP |
2200+ |
1800 |
x6,75 |
266 |
Athlon XP |
2400+ |
2000 |
x7,5 |
266 |
Athlon XP |
2500+* |
1833 |
x5,5 |
333 |
Athlon XP |
2600+ |
2083 |
x6,25 |
333 |
Athlon XP |
2600+ |
2133 |
x8 |
266 |
Athlon XP |
2700+ |
2167 |
x6,5 |
333 |
Athlon XP |
2800+* |
2083 |
x6,25 |
333 |
Athlon XP |
2800+ |
2250 |
x6,75 |
333 |
Athlon XP |
3000+* |
2167 |
x6,5 |
333 |
Athlon XP |
3200+' |
2333 |
x7 |
333 |
Należy zwrócić uwagę na fakt, że w przypadku procesorów Athlon/Duron opartych na magistrali pracującej z częstotliwością 200 i 266 MHz jest wykorzystywany zegar o częstotliwościach, odpowiednio, 100 i 133 MHz oraz, w celu podwojenia efektywnej szybkości, w ciągu jednego cyklu są wykonywane dwa transfery.
'Procesory oparte są na rdzeniu Barton, który w celu zwiększenia wydajności zintegrowano z pamięcią Cache o pojemności 512 kB (inne modele układu Athlon XP zawierają 256 kB).
Testy wydajności wykonane przez firmę AMD pokazują, że procesor Athlon taktowany zegarem 1,8 GHz charakteryzuje się teoretycznie identyczną wydajnością jak procesor Pentium 4 pracujący z częstotliwością 2,2 GHz, dlatego też jest oznaczony jako Athlon XP 2200+, gdzie liczba 2200+ wskazuje na względną wydajność odpowiadającego mu procesora Pentium 4. Tego typu działania marketingowe, w których procesorowi jest przypisywana liczba wskazująca bardziej jego względną niż na rzeczywistą prędkość, odniosły znikomy sukces.
W niektórych przypadkach spowodowało to negatywne nastawienie klientów, którzy po tym. gdy dowiedzieli się. jaka jest rzeczywista częstotliwość pracy zakupionego i zastosowanego w ich komputerze procesora, doszli do wniosku, że zostali oszukani.
Dział marketingu firmy AMD został postawiony przed rzeczywistym problemem, a mianowicie, w jaki sposób zareklamować procesor, który ma wyższą wydajność niż jego konkurent, ale jest taktowany zegarem o jednakowej częstotliwości? Procesor AMD Athlon XP 2 GHz jest znacznie szybszy od procesora Pentium 4 pracującego z taką samą częstotliwością. Co więcej, prawie dorównuje wydajności modelu Pentium 4 2,4 GHz (z tego powodu firma AMD nadała mu oznaczenie Athlon XP 2400+)! Ta oczywista różnica w wydajności wynika stąd, że procesory Pentium 4 wykorzystują odmienną architekturę opierającą się na szerszym potoku instrukcji, ale i na większej liczbie poziomów. Pentium 4, w porównaniu z procesorami Athlon wykorzystującymi 10-poziomowy potok i Pentium III czy Celeron mającymi 10-poziomowy potok, sam opiera się na potoku złożonym z 20 poziomów (tabela 3.15).
Tabela 3.15. Liczba poziomów potoku procesorów
Procesor |
Liczba poziomów potoku |
Pentium III |
10 |
Pentium M |
10 |
Athlon/Athlon XP |
10 |
Athlon 64/64 FX |
12 |
Pentium 4 |
20 |
Pentium 4 Prescott |
31 |
Bardziej złożony potok w efektywny sposób dzieli instrukcje na mniejsze elementy, które przy użyciu tej samej technologii produkcji układów krzemowych pozwalają osiągnąć wyższe częstotliwości pracy. Jednak oznacza to również, że w porównaniu z procesorem Athlon lub Pentium III, w ciągu jednego cyklu jest wykonywanych mniej instrukcji.
Wynika to stąd, że jeśli etap przewidywania rozgałęzień lub wykonywanie spekulatywne się nie powiedzie (co ma miejsce dość często, gdy procesor próbuje kolejkować instrukcje, które dopiero będą wykonywane), wtedy zawartość całego potoku musi zostać usunięta lub ponownie uzupełniona. A zatem, jeśli procesor Pentium 4 zostanie za pomocą standardowych testów porównany z procesorami Athlon lub Pentium III pracującymi z identyczną częstotliwością, wtedy okaże się, że oba procesory biją go na głowę, co wynika z faktu wykonywania przez nie w ciągu jednego cyklu większej ilości instrukcji.
Choć przedstawia się to dla procesora Pentium 4 niekorzystnie, wcale tak nie jest. W rzeczywistości wszystko zostało uwzględnione w trakcie jego projektowania. Firma Intel argumentuje to tym, że nawet, jeśli zastosowanie potoku o większej liczbie poziomów może spowodować 30-procentowy spadek ogólnej wydajności, to jednak będzie to w pełni wynagrodzone w postaci możliwości zastosowania wyższych (przynajmniej o 50 %) częstotliwości taktowania zegara, w porównaniu z osiągami procesorów Athlon i Pentium III wyposażonych w potoki z mniejszą ilością poziomów. 20-poziomowy potok zastosowany w architekturze procesora Pentium 4 umożliwia, w porównaniu z innymi układami, osiągnięcie znacznie wyższych częstotliwości taktowania przy użyciu identycznej technologii produkcji procesorów. Na przykład procesory Athlon XP i Pentium 4 początkowo były wytwarzane przy użyciu tego samego procesu 0,18 mikrona (opisującego szerokość ścieżki trawionej w układach scalonych). Zastosowanie w procesorze Pentium 4 20- lub 31-poziomowego potoku, pozwala, przy użyciu procesu 0,18 mikrona, wytwarzać procesory taktowane zegarem o częstotliwości do 2,0 GHz. W przypadku procesora Athlon XP posiadającego 10-poziomowy potok możliwe jest uzyskanie częstotliwości tylko 1,73 GHz, natomiast dla procesorów Pentium III czy Celeron z 10-poziomowym potokiem jest to już tylko 1,33 GHz. Przy wykorzystaniu nowszej technologii 0,13 mikrona, procesor Pentium 4 może być aktualnie taktowany zegarem 3,4 GHz, natomiast procesor Athlon XP 3200+ (przy tej samej początkowej ramce czasowej) osiąga maksymalną częstotliwość równą 2,2 GHz. Chociaż Pentium 4 wykonuje w każdym cyklu mniejszą ilość instrukcji, to jednak dzięki wyższej częstotliwości pracy nadrabia straty w ogólnej wydajności. Podsumowując, można powiedzieć, że po początkowych różnicach wydajności procesorów Athlon XP i Pentium 4, ostateczny wynik porównania wyższej częstotliwości taktowania z bardziej wydajnym przetwarzaniem instrukcji jest remisowy.
Wiele komputerów w trakcie inicjalizacji wyświetla na ekranie monitora częstotliwość pracy procesora. System Windows XP również zawiera tę informację na zakładce Ogólne, okna Właściwości systemu. Firma AMD dąży do tego, aby systemy nie informowały bezpośrednio o szybkości procesora. I faktycznie, firma AMD nie rekomenduje ani też nie zatwierdza płyt głównych współpracujących z procesorem Athlon XP, które wyświetlają informacją dotyczącą rzeczywistej częstotliwości zegara, którym jest taktowany procesor. W przyszłości wszyscy ciekawi tego, jaka jest rzeczywista częstotliwość taktowania posiadanego procesora będą musieli sięgnąć po niezależny program testujący taki jak SiSoft Sandra lub Intel Freąuency ID Utility.
Aby dla dowolnego modelu procesora Athlon określić jego częstotliwość pracy (rzeczywista szyb-^^"\ kość może zmieniać się zależnie od tego, czy dla magistrali FSB płyty głównej ustawiono często-tliwość wyższą lub niższą od nominalnej, czy też zmieniono wartość napięcia zasilania układu), ze strony internetowej firmy AMD należy pobrać poświęcony mu arkusz danych Data Sheet. W każdym arkuszu znajduje się tabela zawierająca rzeczywistą częstotliwość podaną w megahercach (w celu uzyskania szybkości w gigahercach należy podzielić ją przez 1000). Najnowszy model procesora Athlon XP ma oznaczenie Model 10, natomiast starsze — Model 8 i Model 6.
Wśród tych wszystkich niejasności jedna rzecz jest oczywista, a mianowicie sama wartość częstotliwości wyrażona w MHz (GHz) nie zawsze jest najlepszym sposobem porównywania procesorów, a tworzenie pseudo-częstotliwości może tylko doprowadzić do jeszcze większego zamieszanie, szczególnie wśród początkujących użytkowników komputera. Obecnie nawet Intel rezygnuje z posługiwania się częstotliwością zegara jako podstawowym oznaczeniem procesorów wprowadzanych do sprzedaży. Firma nadal informuje o szybkości procesorów, ale począwszy od późniejszych wersji układów Pentium 4 i Celeron dodatkowo podaje nowy numer modelu, pozwalający określić względną różnicę pomiędzy nimi. Względna różnica oparta jest nie tylko na szybkości, ale też uwzględnia aspekty dotyczące architektury i innych kwestii.
Przetaktowywanie
W niektórych systemach możliwe jest ustawienie wyższej częstotliwości procesora niż wynosi jego częstotliwość nominalna. Operacja taka jest określana mianem przetaktowywania (ang. overclocking). W wielu przypadkach można w znacznym stopniu zwiększyć szybkość, ponieważ firmy AMD, Intel oraz inni producenci często przy określaniu wartości nominalnej (ze względów bezpieczeństwa) pozostawiają spory zapas. A zatem, przykładowo, procesor taktowany zegarem 800 MHz w rzeczywistości może pracować z częstotliwością 900 MHz lub wyższą, ale w celu zapewnienia większej stabilności jego szybkość jest obniżana. Operacja przetaktowywania korzysta z pozostawionego zapasu i powoduje, że procesor pracuje z częstotliwością bliską jego maksymalnych możliwości. Zwykle początkującym użytkownikom nie proponuję stosowania przetaktowywania procesora, ale jeśli lubisz eksperymentować z konfiguracją systemu i możesz sobie na to pozwolić, jednocześnie licząc się z możliwymi konsekwencjami, to dzięki niemu można uzyskać 10-20 procentowy lub nawet większy wzrost wydajności systemu.
Pułapki związane z przetaktowywaniem
Jeśli jesteś zdecydowany na przetaktowanie swojego procesora, musisz być świadomy kilku rzeczy. Jedna z nich jest związana z faktem fabrycznego blokowania mnożnika częstotliwości w większości — począwszy od Pentium II — procesorów firmy Intel. Oznacza to, że taki procesor ignoruje wszelkie zmiany w ustawieniu mnożnika znajdującego się na płycie głównej. Tak naprawdę, w przypadku większości nowszych modeli procesorów, blokowanie mnożnika jest praktykowane zarówno przez firmę Intel, jak i AMD, z tym, że w procesorach drugiej z nich zastosowano lutowane mostki umieszczone na zewnątrz procesora, które przy zachowaniu ostrożności i w pewnym stopniu przy udziale mechanicznej ingerencji można zmodyfikować. Chociaż początkowym zamierzeniem stosowania mostków było uniemożliwienie oszustom rozprowadzania znakowanych procesorów (ze zmienioną informacją na temat częstotliwości), to jednak dotknęło to też entuzjastów zwiększania wydajności, pozostawiając im do dyspozycji modyfikowanie częstotliwości magistrali znajdującej się na płycie głównej jako jedynej metody uzyskania wyższej częstotliwości taktowania od ustalonej przez producenta.
Zwiększanie szybkości magistrali na płycie głównej również może wiązać się z problemami. Przykładowo, płyty główne firmy Intel zazwyczaj nie obsługują innych częstotliwości niż standardowe wartości takie jak 66, 100, 133, 400, 533 lub 800 MHz. Nowsze płyty główne Intela posiadają funkcję „dopalacza", umożliwiającą zwiększenie domyślnej szybkości magistrali procesora, a także jego rdzenia maksymalnie o 4%. Jest to dość znikomy przyrost, ale z łatwością osiągalny w przypadku większości procesorów. Płyty główne większości innych firm również umożliwiają zwiększanie szybkości magistrali nawet o wyższe wartości.
Nawet jeśli uda Ci się oszukać procesor i zmusić go do zaakceptowania innych ustawień mnożnika zegara, to jednak przeskok z częstotliwości 66 MHz na 100 MHz lub z 100 na 133 MHz jest znaczny i wiele procesorów wskutek takiej operacji nie będzie działało stabilnie. Przykładowo, procesor Pentium III 800E pracuje przy ustawionej częstotliwości magistrali równej 100 MHz i mnożniku x8. Podniesienie częstotliwości magistrali do 133 MHz spowoduje, że procesor będzie próbował działać z prędkością 8 x 133 MHz czyli 1066 MHz. Nie ma gwarancji, że przy takiej częstotliwości będzie się zachowywał stabilnie. Podobnie sytuacja wygląda w przypadku procesora Celeron 600E taktowanego zegarem 9 x 66 MHz. Po zwiększeniu prędkości magistrali do 100 MHz procesor będzie pracował z częstotliwością 9 x 100 MHz lub inaczej 900 MHz, co może być przyczyną potencjalnego niepowodzenia.
Potrzebna jest płyta główna, która pozwala ustawiać pośrednie wartości częstotliwości i to w jak najmniejszych skokach. Wynika to stąd, że określony procesor jest przeważnie podatny na przetaktowywanie tylko w pewnym ograniczonym stopniu. Im mniejsze skoki przy zwiększaniu częstotliwości magistrali, tym bardziej prawdopodobne, że zostanie osiągnięta maksymalna dopuszczalna częstotliwość procesora, z którą działa jeszcze stabilnie. Przykładowo, płyta główna Asus P3V4X pozwala ustawić częstotliwości pracy magistrali procesora o wartościach 66, 75, 83,90, 95, 100, 103, 105, 110, 112, 115, 120, 124. 133, 140 i 150 MHz. Poniżej przedstawiono częstotliwości uzyskane po przekroczeniu wartości 100 MHz dla procesora Pentium IIIE taktowanego zegarem 800 MHz.
Mnożnik częstotliwości (zablokowany) |
Częstotliwość magistrali |
Częstotliwość procesora |
x8 |
100 MHz |
800 MHz |
x8 |
103 MHz |
824 MHz |
x8 |
105 MHz |
840 MHz |
x8 |
110 MHz |
880 MHz |
x8 |
112 MHz |
896 MHz |
x8 |
115 MHz |
920 MHz |
x8 |
120 MHz |
960 MHz |
x8 |
124 MHz |
992 MHz |
x8 |
133 MHz |
1066 MHz |
Podobnie poniżej zaprezentowano częstotliwości uzyskane po przekroczeniu wartości 66 MHz — standardowej częstotliwości pracy magistrali współpracującej z procesorem Celeron 600.
Mnożnik częstotliwości (zablokowany) |
Częstotliwość magistrali |
Częstotliwość procesora |
x9 |
66 MHz |
600 MHz |
x9 |
75 MHz |
675 MHz |
x9 |
83 MHz |
747 MHz |
x9 |
90 MHz |
810 MHz |
x9 |
95 MHz |
855 MHz |
x9 |
100 MHz |
900 MHz |
Zazwyczaj jest uzyskiwany wzrost szybkości rzędu 10 - 20%, dlatego też przy zastosowaniu tego typu płyty głównej prawdopodobnie będzie możliwe uruchomienie procesora współpracującego z magistralą taktowaną zegarem 100 MHz lub nawet wyższym niż wynosi jego wartość nominalna.
Inny problem, który pojawia się wskutek zwiększenia częstotliwości pracy procesora, jest związany z wpływem takiej operacji na pozostałe magistrale znajdujące się na płycie głównej. Polega on na tym, że po zwiększeniu częstotliwości taktowania magistrali procesora o 10%, o taką samą wartość wzrośnie też prędkość magistrali AGP i PCI. wskutek czego zainstalowane w nich karty graficzne, sieciowe i inne mogą przestać działać stabilnie. Zjawisko to przebiega w różny sposób dla każdej płyty głównej, dlatego też konieczne jest rozważenie każdego przypadku jako unikalnego.
Przetaktowywanie procesorów współpracujących z gniazdem Socket A
Procesory Athlon i Duron firmy AMD — wyposażone w obudowę FC-PGA (ang. flip-chip pin grid array) i instalowane w gnieździe Socket A — mają specjalne lutowane mostki znajdujące się na zewnątrz obudowy. Po ich zmodyfikowaniu możliwa jest zmiana lub usunięcie blokady wewnętrznego mnożnika procesora. Tym sposobem można zwiększyć częstotliwość procesora bez konieczności zmiany częstotliwości pracy magistrali i wpływania na funkcjonowanie innych magistral i współpracujących z nimi kart.
Określony mnożnik częstotliwości jest ustawiany lub blokowany za pomocą niewielkiego lutowanego połączenia wykonanego pomiędzy dwoma punktami (stykami) umieszczonymi na zewnątrz procesora. Całkowite usunięcie blokady polega na połączeniu lub rozłączeniu odpowiednich punktów. Niestety, operacja usuwania lub dodawania takich połączeń jest trudna. W celu jej wykonania zwykle należy najpierw zidentyfikować miejsce, w którym zostanie utworzone połączenie, a następnie zamiast stosowania lutu trzeba wykonać połączenie dwóch punktów za pomocą farby przewodzącej (srebro lub miedź). Przykładowo, można wykorzystać specjalną farbę przewodzącą (miedź) sprzedawaną w niewielkich fiolkach w każdym sklepie z częściami samochodowymi. Problem polega na tym, że styki są bardzo małe i jeśli — zamiast przeciwległych — zostaną połączone sąsiednie styki, wtedy może okazać się, że procesor nie działa. W razie konieczności, w celu usunięcia wykonanego mostka, należy posłużyć się specjalnym nożem grawerskim lub skalpelem. Jeśli nie zachowasz ostrożności, możesz z łatwością uszkodzić procesor warty kilkaset złotych. Jeśli nie chcesz do tego dopuścić, lepiej spróbuj „podnieść" częstotliwość pracy magistrali. Zadanie to jest realizowane za pomocą narzędzia BIOS Setup i dokonane zmiany z łatwością mogą być cofnięte bez konieczności mechanicznej ingerencji w konstrukcję procesora.
Ustawienie napięcia zasilania procesora
Kolejną operacją wykonywaną przez entuzjastów zwiększania wydajności procesora jest zmiana jego napięcia zasilania. Gniazda wszystkich nowszych modeli procesorów, włączając w to Slotl, Slot A, Socket 370, Socket 423, Socket 478 i Socket A, są wyposażone w automatyczną detekcję napięcia. Wykorzystując mechanizm detekcji polegający na odczytaniu określonych końcówek procesora, system określa i ustawia prawidłową wartość napięcia zasilania. Niektóre płyty główne — przykładowo produkowane przez firmę Intel — nie umożliwiają ręcznej modyfikacji wartości napięcia. Inne płyty główne, takie jak wspomniana już Asus P3V4X, pozwalają na zwiększanie lub zmniejszanie o dziesiętne części wolta wartości napięcia ustawionego w sposób automatyczny. Niektórzy eksperymentatorzy doszli do wniosku, że niewielkie zwiększenie lub zmniejszenie standardowej wartości napięcia pozwala osiągnąć wyższe częstotliwości przy operacji przetaktowywania procesora, zachowując stabilność systemu.
Osobiście zalecam szczególną ostrożność w przypadku modyfikacji napięcia zasilania, ponieważ inaczej może to doprowadzić do uszkodzenia procesora. Nawet bez dokonywania zmiany napięcia, operacja przetaktowywania procesora ograniczona do modyfikacji częstotliwości magistrali procesora jest dość prosta i dająca spore korzyści. Pamiętaj, aby zaopatrzyć się w wysokiej jakości płytę główną, pamięć, a zwłaszcza dobrą obudowę wyposażoną w dodatkowe wentylatory i wydajny zasilacz. Aby uzyskać więcej informacji na temat wymiany zasilaczy i obudów zajrzyj do rozdziału 21., „Zasilacze i obudowy". W przypadku wykonywania przetaktowywania szczególnie ważne jest, aby komponenty systemowe, a zwłaszcza procesor, były odpowiednio chłodzone. Założenie na procesor trochę lepszego radiatora i dodanie do obudowy dodatkowych wentylatorów nigdy nie zaszkodzi, a w wielu przypadkach takie „wzmocnienie" całego systemu może się bardzo przydać.