INF1 2009 Wykl 06 Zaoczne 4na1


Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6
2/51
Plan wykładu nr 6
Plan wykładu nr 6
Architektura von Neumanna i architektura harwardzka
Informatyka 1
Informatyka 1
Architektura i organizacja systemu komputerowego
Struktura i funkcjonowanie komputera
procesor
przerwania
struktura połączeń
Politechnika Białostocka - Wydział Elektryczny
Politechnika Białostocka - Wydział Elektryczny
magistrala
Elektrotechnika, semestr II, studia niestacjonarne I stopnia
Elektrotechnika, semestr II, studia niestacjonarne I stopnia
Rok akademicki 2008/2009
Rok akademicki 2008/2009
Wykład nr 6 (26.04.2009)
Wykład nr 6 (26.04.2009)
dr in\. Jarosław Forenc
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
3/51 4/51
Architektura von Neumanna Architektura von Neumanna
Architektura von Neumanna Architektura von Neumanna
Architektura von Neumanna jest to rodzaj architektury komputera, Jednostka sterująca (CU - Control Unit)
opisanej w 1945 roku przez matematyka Johna von Neumanna
interpretuje rozkazy z pamięci i powoduje ich wykonanie
Chocia\ nazwa pochodzi od jego nazwiska, to tego typu architektura była
Jednostka arytmetyczno-logiczna (ALU - Arithmetic Logic Unit)
znana ju\ wcześniej
wykonuje działania na liczbach binarnych
Inne spotykane nazwy: architektura z Princeton, store-program computer
Pamięć (Memory)
(koncepcja przechowywanego programu)
przechowuje dane i program (instrukcje
programu, rozkazy programu)
Architektura von Neumanna zakłada
podział komputera na kilka części:
Urządzenia wejścia-wyjścia
jednostkę sterującą
(Input/Output)
jednostkę arytmetyczno-logiczną
pamięć główną
urządzenia wejścia-wyjścia
Jednostka arytmetyczno-logiczna
oraz sterująca tworzą obecnie
procesor (CPU - Central Processing Unit)
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
5/51 6/51
Architektura von Neumanna Architektura von Neumanna
Architektura von Neumanna Architektura von Neumanna
Pamięć w architekturze von Neumanna: Charakterystyka architektury von Neumanna:
informacje przechowywane są w komórkach pamięci (cell) o jednakowym praca systemu komputerowego polega na sekwencyjnym odczytywaniu
rozmiarze, zawierających jednostki informacji zwane słowami (word) instrukcji z pamięci komputera i ich wykonywaniu w procesorze
komórki pamięci tworzą uporządkowany zbiór z jednoznacznie określonymi wykonanie rozkazu polega na:
numerami zwanymi adresami
pobraniu z pamięci słowa będącego kodem instrukcji
pobraniu z pamięci danych
zawartość komórki pamięci mo\e zmienić tylko procesor dokonując, w wyniku
przetworzeniu danych (wykonanie instrukcji)
wykonania rozkazu, przesłania słowa do pamięci
zapisaniu wyników do pamięci
dane oraz instrukcje programu (rozkazy) przechowywane są w tej samej
system komputerowy ma skończoną i funkcjonalnie pełną listę rozkazów
pamięci i są jednakowo dostępne dla procesora
procesor komunikuje się z pamięcią przy wykorzystaniu jednej magistrali
dane i instrukcje zakodowane są za pomocą liczb - bez analizy programu
danych - nie mo\e zatem w tym samym czasie odczytywać danych i instrukcji
trudno jest określić, czy dany obszar pamięci zawiera dane czy instrukcje
wadą architektury von Neumanna jest ograniczony transfer pomiędzy
program jest wprowadzany do systemu komputerowego poprzez urządzenia
procesorem a pamięcią (von Neumann bottleneck) - procesor jest w stanie
zewnętrzne i przechowywany w pamięci w sposób identyczny jak dane
szybko przetwarzać dane, ale musi czekać na ich przesyłane do lub z pamięci
(rozwiązaniem tego problemu jest zastosowanie pamięci podręcznej cache)
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
7/51 8/51
Architektura harwardzka Architektura harwardzka
Architektura harwardzka Architektura harwardzka
Architektura komputera, w której pamięć danych programu jest Pamięci przeznaczone do przechowywania danych i instrukcji nie muszą
oddzielona od pamięci instrukcji być takie same, mogą ró\nić się technologią wykonania, strukturą
adresowania, długością słowa
Nazwa architektury pochodzi od nazwy komputera Harward Mark I,
zaprojektowanego przez Howarda Aikena, w którym pamięć instrukcji Pamięć na instrukcje jest zazwyczaj większa ni\ pamięć na dane
stanowiła taśma dziurkowana, zaś pamięć danych - elektromechaniczne
Pamięć instrukcji i danych zajmują inną przestrzeń adresową
liczniki
Procesor mo\e w tym samym czasie czytać instrukcje oraz uzyskiwać
dostęp do danych
Dzięki prostszej budowie oraz mo\liwości jednoczesnego odczytywania
instrukcji i danych architektura harwardzka jest szybsza od architektury
von Neumanna
Architektura harwardzka jest stosowana w mikrokomputerach
jednoukładowych, procesorach sygnałowych oraz przy dostępie procesora
do pamięci cache
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
9/51 10/51
Ró\nice między architekturą harwardzką a von Neumanna Zmodyfikowana architektura harwardzka (mieszana)
Ró\nice między architekturą harwardzką a von Neumanna Zmodyfikowana architektura harwardzka (mieszana)
W architekturze harwardzkiej: Zmodyfikowana architektura harwardzka łączy w sobie cechy architektury
harwardzkiej i architektury von Neumanna
pamięć instrukcji i pamięć danych zajmują ró\ne przestrzenie adresowe
pamięć instrukcji i pamięć danych mają oddzielne szyny (magistrale) W architekturze tej oddzielone są pamięci danych i rozkazów, lecz
do procesora
wykorzystują one wspólną magistralę danych i adresową
pamięć instrukcji i pamięć danych są zaimplementowane w inny sposób
Architektura ta pozwala na dostęp do pamięci instrukcji tak jakby były
to dane
Część pamięci instrukcji mo\e zawierać stałe dane, np. łańcuchy znaków,
Procesor
które mogą być przesyłane bezpośrednio do procesora z pominięciem
pamięci na dane - zapewnia to oszczędność pamięci na dane
Magistrala instrukcji Magistrala danych
Zazwyczaj w architekturze harwardzkiej pamięć instrukcji jest tylko do
Pamięć programu Pamięć danych
odczytu, a pamięć danych do odczytu i zapisu - stwarza to problemy
(instrukcje programu) (dane programu)
z inicjalizacją wartości w pamięci danych
Rozwiązaniem powy\szego problemu jest właśnie dodanie odpowiednich
Architektura von Neumanna Architektura harwardzka
połączeń i instrukcji umo\liwiających przesyłanie danych z pamięci
instrukcji do pamięci danych
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
11/51 12/51
Architektura von Neumanna i harwardzka - podsumowanie Architektura i organizacja systemu komputerowego
Architektura von Neumanna i harwardzka - podsumowanie Architektura i organizacja systemu komputerowego
W obecnie stosowanych procesorach występują elementy obu architektur: Przedstawienie struktury i zasady działania komputerów jest
von Neumanna i harwardzkiej zagadnieniem dość skomplikowanym, gdy\:
istnieje ogromna ró\norodność sprzętu komputerowego (od komputerów
Pamięć operacyjna komputera jest to typowa architektura von Neumanna
masywnie równoległych do zwykłych komputerów PC)
Pamięć cache jest podzielona na pamięć instrukcji i pamięć danych - jeśli
technika komputerowa rozwija się bardzo szybko, ciągle pojawiają się nowe
danych nie ma w pamięci cache to są  ściągane z pamięci głównej
technologie, interfejsy, standardy
komputer jest systemem zło\onym z bardzo du\ej liczby elementów
Z punktu widzenia programisty posługujemy się architekturą von
Neumana, zaś implementacje sprzętowe zawierają architekturę
Z powy\szych powodów zazwyczaj przedstawia się hierarchiczną strukturę
harwardzką
systemu komputerowego
system hierarchiczny jest to układ wzajemnie powiązanych podsystemów,
Większość stosowanych obecnie mikrokontrolerów jest oparta na
z których ka\dy ma równie\ strukturę hierarchiczną
zmodyfikowanej architekturze harwardzkiej, np.
na ka\dym poziomie określana jest struktura składników systemu
AVR (Atmel)
(sposób ich wzajemnego powiązania) oraz funkcje składników systemu
TMS320 (Texas Instruments)
(działanie poszczególnych składników jako części struktury)
ZiLOG Z8Encore!
Hierarchiczna struktura przedstawiana jest  od góry do dołu
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
13/51 14/51
Architektura komputera a organizacja komputera Funkcjonowanie komputera
Architektura komputera a organizacja komputera Funkcjonowanie komputera
Architektura komputera Funkcje realizowane przez komputer:
odnosi się do atrybutów systemu, które są widzialne dla programisty i mają
przetwarzanie danych
bezpośredni wpływ na logiczne wykonywanie programu
przechowywanie danych (krótkotrwałe
do atrybutów architektury nale\ą m.in. lista rozkazów, liczba bitów
lub długotrwałe)
wykorzystywanych do prezentacji ró\nych typów danych, mechanizmy
wejścia/wyjścia, metody adresowania pamięci przenoszenie danych (pomiędzy komputerem
a światem zewnętrznym)
Organizacja komputera
urządzenia peryferyjne - proces wejścia/wyjścia
odnosi się do jednostek operacyjnych i ich połączeń, które stanowią realizację
du\a odległość - transmisja danych
specyfikacji typu architektury
sterowanie (trzema powy\szymi funkcjami)
atrybuty organizacyjne są to rozwiązania sprzętowe niewidzialne dla
programisty, np. sygnały sterujące, interfejsy między komputerem
a urządzeniami peryferyjnymi, wykorzystywana technologia pamięci
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
15/51 16/51
Struktura komputera Struktura procesora
Struktura komputera Struktura procesora
Komputer składa się z czterech głównych Główne składniki strukturalne
składników strukturalnych: procesora to:
procesor (jednostka centralna, CPU) jednostka sterująca - steruje działaniem
- steruje działaniem komputera i realizuje procesora i pośrednio całego komputera
funkcje przetwarzania danych
jednostka arytmetyczno-logiczna (ALU)
pamięć główna - przechowuje dane - realizuje funkcję przetwarzania danych
przez komputer
wejście-wyjście - przenosi dane
między komputerem a jego rejestry - realizują wewnętrzne
otoczeniem zewnętrznym przechowywanie danych w procesorze
połączenia systemu - wszystkie połączenia procesora - wszystkie
mechanizmy zapewniające komunikację mechanizmy zapewniające komunikację
między jednostką centralną, pamięcią między jednostką sterującą, ALU
główną a wejściem-wyjściem i rejestrami
Wszystkie powy\sze składniki mogą występować w komputerze
pojedynczo lub w większej liczbie
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
17/51 18/51
Działanie komputera Działanie komputera
Działanie komputera Działanie komputera
Podstawowe zadanie komputera to wykonywanie programu Podstawowe zadanie komputera to wykonywanie programu
Program składa się z zestawu rozkazów przechowywanych w pamięci Program składa się z zestawu rozkazów przechowywanych w pamięci
Rozkazy są przetwarzane w dwu krokach: Rozkazy są przetwarzane w dwu krokach:
Cykl pobierania (ang. fetch): Cykl wykonywania (ang. execution):
odczytanie rozkazu z pamięci mo\e zawierać kilka operacji, jest
zale\ny od natury rozkazu
do śledzenia, który rozkaz ma być
pobrany słu\y rejestr zwany licznikiem pobrany rozkaz jest ładowany do
rozkazów (PC) lub wskaznikiem rejestru w procesorze zwanego
instrukcji (IP) rejestrem rozkazu (IR)
jeśli procesor nie otrzyma innego rozkaz ma formę kodu binarnego
polecenia, to powoduje inkrementację określającego działania, które ma
licznika PC po ka\dym pobraniu rozkazu podjąć procesor
i wykonuje następny rozkaz w ciągu
procesor interpretuje rozkaz
i przeprowadza wymagane działania
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
19/51 20/51
Działanie komputera Działanie komputera
Działanie komputera Działanie komputera
W celu przyspieszenia pracy systemu stosuje się tzw. wstępne pobranie Graf stanów cyklu wykonania rozkazu ma następującą postać:
instrukcji (ang. prefetching)
CP1 CW1 CP2 CW2 CP3 CW3
CP - cykl pobierania
CW - cykl wykonywania
CP1 CW1
prefeching
CP2 CW2
CP3 CW3
czas
Działania procesora mo\na podzielić na cztery grupy:
procesor-pamięć - przesłanie danych z procesora do pamięci lub odwrotnie
procesor-we/wy - przesłanie danych z procesora do modułu we/wy lub
odwrotnie
(3) - analizowanie rozkazu w celu określenia rodzaju operacji, która ma być
przetwarzanie danych - operacje arytmetyczne lub logiczne na danych
wykonana oraz w celu określenia argumentu (jednego lub kilku)
sterowanie - np. zmiana sekwencji wykonywania programu, czyli pobranie
(8) - zapisanie wyniku w pamięci lub skierowanie go do we/wy
innego rozkazu ni\ kolejny
Nie wszystkie stany z powy\szego schematu muszą występować
Wykonywanie rozkazów mo\e zawierać kombinacje powy\szych działań
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
21/51 22/51
Działanie komputera Działanie komputera
Działanie komputera Działanie komputera
Graf stanów cyklu wykonania rozkazu ma następującą postać: Ka\dy rozkaz przechowywany jest w postaci binarnej, ma określony
format i u\ywa określonego trybu adresowania
Format rozkazu jest to sposób rozmieszczenia informacji w kodzie rozkazu
Rozkaz zawiera:
kod operacji - rodzaj wykonywanej operacji
argumenty / adresy argumentów wykonywanych operacji
Kod operacji Operandy
Tryb adresowania jest to sposób określania miejsca przechowywania
argumentów rozkazu (operandów)
adresowanie natychmiastowe - argument znajduje się w kodzie rozkazu
Mogą wystąpić sytuacje, w których jeden rozkaz mo\e określać operacje
na wektorze liczb lub na szeregu znaków, co wymaga powtarzania adresowanie bezpośrednie - adres argumentu znajduje się w kodzie rozkazu
operacji pobrania i/lub przechowywania
adresowanie rejestrowe - argument znajduje się w rejestrze
adresowanie pośrednie - adres argumentu znajduje się w rejestrze
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
23/51 24/51
Działanie komputera - przerwania Działanie komputera - przerwania
Działanie komputera - przerwania Działanie komputera - przerwania
Wykonywanie kolejnych rozkazów przez procesor mo\e być przerwane Aby dostosować się do przerwań do cyklu rozkazu jest dodawany cykl
poprzez wystąpienie tzw. przerwania przerwania:
Mo\na wyró\nić kilka klas przerwań:
Po sygnale przerwania procesor:
programowe - generowane po wystąpieniu błędu podczas wykonania
zawiesza wykonanie bie\ącego
rozkazu (np. przepełnienie arytmetyczne, dzielenie przez zero)
programu i zachowuje jego
zegarowe - generowane przez wewnętrzny zegar procesora
kontekst
we/wy - generowane przez sterownik we/wy w celu zasygnalizowania
ustawia licznik programu na
normalnego zakończenia operacji lub zasygnalizowania błędu
początkowy adres programu
uszkodzenie sprzętu - generowane przez uszkodzenie, np. defekt zasilania,
obsługi przerwania
błąd parzystości pamięci
wykonuje program obsługi
przerwania
Przerwania zostały zaimplementowane w celu poprawienia efektywności
przetwarzania wznawia wykonywanie
programu u\ytkowego
Poprzez wykorzystanie przerwań procesor mo\e wykonywać inne
rozkazy, gdy jest realizowana operacja we/wy
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
25/51 26/51
Działanie komputera - przerwania Działanie komputera - przerwania wielokrotne
Działanie komputera - przerwania Działanie komputera - przerwania wielokrotne
Jak działa przerwanie? Podczas obsługi jednego przerwania mo\e pojawić się sygnał kolejnego
przerwania
Problem przerwań wielokrotnych rozwiązywany jest na dwa sposoby:
uniemo\liwienie innych przerwań,
jeśli jakiekolwiek inne przerwanie
jest przetwarzane
określenie priorytetów przerwań -
przerwanie o wy\szym priorytecie
powoduje przerwanie programu
obsługi przerwania o ni\szym
priorytecie
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
27/51 28/51
Działanie komputera - struktura połączeń Działanie komputera - struktura połączeń
Działanie komputera - struktura połączeń Działanie komputera - struktura połączeń
Struktura połączeń jest to zbiór ście\ek łączących podstawowe moduły Struktura połączeń jest to zbiór ście\ek łączących podstawowe moduły
komputera, tj. procesor, pamięć i urządzenia wejścia/wyjścia komputera, tj. procesor, pamięć i urządzenia wejścia/wyjścia
Pamięć: Procesor:
pamięć składa się z określonej odczytuje rozkazy i dane
liczby słów o jednakowej długości
wysyła dane po przetworzeniu Rozkazy
Sygnały ster.
słowa umieszczone są pod
steruje pracą całego systemu Dane Procesor
konkretnymi adresami
Dane
poprzez sygnały sterujące
Sygnały przerw.
słowo mo\e być odczytane
otrzymuje sygnały przerwań
z pamięci lub do niej zapisane
typ operacji określają sygnały
sterujące odczyt i zapis
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
29/51 30/51
Działanie komputera - struktura połączeń Działanie komputera - struktura połączeń
Działanie komputera - struktura połączeń Działanie komputera - struktura połączeń
Struktura połączeń jest to zbiór ście\ek łączących podstawowe moduły Struktura połączeń musi umo\liwiać przesyłanie następujących danych:
komputera, tj. procesor, pamięć i urządzenia wejścia/wyjścia
DMA - bezpośredni dostęp do pamięci:
Moduł wejścia/wyjścia:
Odczyt najczęściej procesor bezpośrednio
istnieją dwie operacje: zapis i odczyt
odczytuje dane z pamięci i zapisuje
Zapis
ka\dy z interfejsów z urządzeniem Dane wew. oraz komunikuje się z urządzeniami
zewnętrznym określany jest portem wejścia/wyjścia
Moduł
Adres Dane zew.
we/wy
i ma jednoznaczny adres
w pewnych przypadkach po\ądane jest
Dane wew. Sygnał przerw.
moduł mo\e wysyłać sygnały umo\liwienie bezpośredniej wymiany
Dane zew.
przerwań do procesora
danych między we/wy a pamięcią
podczas takiego przesyłania moduł we/wy
odczytuje lub zapisuje rozkazy w pamięci,
uwalniając proces od odpowiedzialności
za tę wymianę
powy\sze operacje nazywane są
bezpośrednim dostępem do pamięci
(ang. DMA - Direct Memory Access)
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
31/51 32/51
Działanie komputera - struktura połączeń: magistrala Działanie komputera - magistrala
Działanie komputera - struktura połączeń: magistrala Działanie komputera - magistrala
Najczęściej stosowana struktura połączeń to magistrala Linie mo\na podzielić na trzy grupy: linie danych, adresów i sterowania
Magistrala jest wspólnym nośnikiem transmisji, do którego dołączonych
jest wiele urządzeń, a sygnały wysyłane przez jedno z nich mogą być
odbierane przez pozostałe urządzenia
Magistrala składa się z wielu linii komunikacyjnych, którym przypisane
jest określone znaczenie i określona funkcja
Fizycznie magistrala jest zbiorem równoległych połączeń elektrycznych
System komputerowy zawiera pewną liczbę ró\nych magistrali
Linie danych:
Magistrala łącząca główne zasoby komputera (procesor, pamięć,
przenoszą dane między modułami systemu
wejście/wyjście) nazywana jest magistralą systemową
wszystkie linie danych nazywane są szyną danych
liczba linii określa szerokość szyny danych (8, 16, 32, 64 bity)
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
33/51 34/51
Działanie komputera - magistrala Działanie komputera - magistrala
Działanie komputera - magistrala Działanie komputera - magistrala
Linie mo\na podzielić na trzy grupy: linie danych, adresów i sterowania Linie mo\na podzielić na trzy grupy: linie danych, adresów i sterowania
Linie adresowe: Linie sterowania:
słu\ą do określania zródła i miejsca przeznaczenia danych przesyłanych słu\ą do sterowania dostępem do linii danych i linii adresowych
magistralą
liczba linii adresowych (szerokość szyny adresowej) określa maksymalną
mo\liwą pojemność pamięci systemu
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
35/51 36/51
Działanie komputera - struktury wielomagistralowe Działanie komputera - typy magistral
Działanie komputera - struktury wielomagistralowe Działanie komputera - typy magistral
W przypadku większej liczby urządzeń podłączonych do magistrali ISA (ang. Industry Standard Architecture)
znacząco spada jej wydajność
1981 rok
8-bitowa (XT) i 16-bitowa (AT) szyna danych
Rozwiązaniem tego
24-bitowa szyna adresowa
problemu są struktury
teoretyczna przepustowość: 8 MB/s (praktycznie: 1,6-1,8 MB/s)
wielomagistralowe
o określonej hierarchii
PCI (ang. Peripheral Component Interconnect)
PCI 2.0, 1993 rok, 32-bitowa szyna danych, przepustowość: 133 MB/s
PCI 2.1, 1994 rok, 64-bitowa szyna danych, przepustowość: 533 MB/s
PCI 2.2, 1999 rok, 64-bitowa szyna danych, przepustowość: 533 MB/s
PCI 3.0, 2002 rok, 64-bitowa szyna danych, przepustowość: 533 MB/s
PCI-Express (PCIe, PCI-E)
2004 rok
magistrala lokalna typu szeregowego, łącząca dwa punkty
występuje w kilku wariantach: x1 (250 MB/s), x2 (500 MB/s),
x4 (1000 MB/s), x8 (2000 MB/s), x16 (4000 MB/s), x32 (8000 MB/s)
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
37/51 38/51
Systemy pamięci komputerowych Systemy pamięci komputerowych
Systemy pamięci komputerowych Systemy pamięci komputerowych
Ze względu na poło\enie pamięci w stosunku do komputera wyró\niamy Ze względu na sposób dostępu do danych wyró\niamy:
pamięć:
dostęp sekwencyjny (pamięci taśmowe)
procesora (rejestry)
dostęp bezpośredni (pamięci dyskowe)
wewnętrzną (pamięć główna)
dostęp swobodny (pamięć główna)
zewnętrzną (pamięć pomocnicza - pamięci dyskowe i taśmowe)
dostęp skojarzeniowy (pamięć podręczna)
Parametry charakteryzujące pamięć:
Dostęp sekwencyjny:
pojemność - maksymalna liczba informacji jaką mo\na przechowywać w danej
jednostka danych to rekord
pamięci; wyra\ana w bitach lub bajtach
dostęp do rekordów jest mo\liwy w określonej sekwencji liniowej
czas dostępu - czas niezbędny do zrealizowania operacji odczytu lub zapisu,
przejście z jednego rekordu do następnego następuje poprzez
tj. czas od chwili doprowadzenia adresu do chwili zmagazynowania lub
przepuszczenie i odrzucenie rekordów pośrednich
udostępnienia danych
czas dostępu do ró\nych rekordów mo\e bardzo ró\nić się
czas cyklu pamięci - czas dostępu plus dodatkowy czas, który musi upłynąć
zanim będzie mógł nastąpić kolejny dostęp
szybkość przesyłania (transferu) - maksymalna liczba danych jakie mo\na
odczytać z pamięci lub zapisać do pamięci w jednostce czasu
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
39/51 40/51
Systemy pamięci komputerowych Hierarchia pamięci
Systemy pamięci komputerowych Hierarchia pamięci
Dostęp bezpośredni: Istnieją wzajemne zale\ności pomiędzy parametrami pamięci: kosztem,
pojemnością i czasem dostępu:
odczyt i zapis realizowany jest za pomocą tego samego mechanizmu
mniejszy czas dostępu - większy koszt na bit
poszczególne bloki (rekordy) mają unikatowy adres oparty na fizycznej lokacji
większa pojemność - mniejszy koszt na bit
dostęp jest realizowany przez bezpośredni dostęp do najbli\szego otoczenia,
po którym następuje sekwencyjne poszukiwanie, liczenie lub oczekiwanie większa pojemność - dłu\szy czas dostępu
w celu osiągnięcia lokacji finalnej
W systemach komputerowych nie stosuje się jednego typu pamięci, ale
hierarchię pamięci
Dostęp swobodny:
ka\da adresowalna lokacja w pamięci ma unikatowy fizycznie wbudowany
Rozpatrując hierarchię od góry
mechanizm adresowania
do dołu obserwujemy zjawiska:
czas dostępu jest stały i niezale\ny od poprzednich operacji dostępu
malejący koszt na bit
rosnącą pojemność
Dostęp skojarzeniowy:
rosnący czas dostępu
ka\da lokacja ma własny mechanizm adresowania
malejącą częstotliwość dostępu
czas dostępu jest stały i niezale\ny od poprzednich operacji dostępu
do pamięci przez procesor
słowa są wprowadzane na podstawie części swojej zawartości, a nie
na podstawie całego adresu
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
41/51 42/51
Półprzewodnikowa pamięć główna Półprzewodnikowa pamięć główna
Półprzewodnikowa pamięć główna Półprzewodnikowa pamięć główna
RAM (ang. Random Access Memory) - pamięć o dostępie swobodnym Organizacja pamięci DRAM
odczyt i zapis następuje za pomocą sygnałów elektrycznych
pamięć ulotna - po odłączeniu zasilania dane są tracone
dzieli się na pamięć dynamiczną DRAM i statyczną SRAM
DRAM:
przechowuje dane podobnie jak kondensator ładunek elektryczny
wymaga operacji odświe\ania
jest mniejsza, gęściej upakowana i tańsza ni\ pamięć statyczna
stosowana jest do budowy głównej pamięci operacyjnej komputera
SRAM:
przechowuje dane za pomocą przerzutnikowych konfiguracji bramek logicznych
nie wymaga operacji odświe\ania
jest szybsza i dro\sza od pamięci dynamicznej
stosowana jest do budowy pamięci podręcznej
zródło: W. Stallings:  Organizacja i architektura systemu
komputerowego. Projektowanie systemu a jego wydajność .
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
43/51 44/51
Półprzewodnikowa pamięć główna Pamięć podręczna
Półprzewodnikowa pamięć główna Pamięć podręczna
ROM (ang. Read-Only Memory) - pamięć stała Zastosowanie pamięci podręcznej ma na celu przyspieszenie dostępu
procesora do pamięci głównej
pamięć o dostępie swobodnym przeznaczona tylko do odczytu
W systemie komputerowym występuje względnie du\a i wolniejsza
dane są zapisywane podczas procesu wytwarzania
pamięć główna oraz mniejsza i szybsza pamięć podręczna
pamięć nieulotna
PROM (ang. Programmable ROM) - programowalna pamięć ROM
pamięć podręczna zawiera kopię części
pamięć nieulotna, mo\e być zapisywana tylko jeden raz zawartości pamięci głównej
zapis jest realizowany elektrycznie po wyprodukowaniu
przed odczytaniem słowa z pamięci następuje
sprawdzenie czy znajduje się ono w pamięci
Inne typy pamięci:
podręcznej
EPROM - pamięć wielokrotnie programowalna, kasowanie następuje przez
jeśli tak, to jest przesyłane do procesora
naświetlanie promieniami UV
jeśli nie, to blok pamięci głównej (ustalona
EEPROM - pamięć kasowana i programowana na drodze czysto elektrycznej
liczba słów) jest wczytywany do pamięci
podręcznej, a następnie słowo jest
Flash - rozwinięcie koncepcji pamięci EEPROM, mo\liwe kasowanie
przesyłane do procesora
i programowanie bez wymontowywania pamięci z urządzenia, występuje
w dwóch odmianach: NOR (Flash BIOS), NAND (pen drive, karty pamięci)
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
45/51 46/51
Pamięć podręczna Pamięć zewnętrzna
Pamięć podręczna Pamięć zewnętrzna
Do pamięci podręcznej jest przesyłany cały blok, gdy\ ze względu na Do pamięci zewnętrznych zaliczane są:
tzw. zjawisko lokalności odniesień, istnieje du\e prawdopodobieństwo,
dyski twarde - HDD
\e przyszłe odniesienia będą dotyczyły innych słów w tym samym bloku
pamięci optyczne - CD, DVD
magnetyczne pamięci taśmowe
Budowa dysku twardego:
nośnik danych
część mechaniczna
kontroler
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
47/51 48/51
Koniec wykładu nr 6 yródła (Ksią\ki):
Koniec wykładu nr 6 yródła (Ksią\ki):
Biernat J.:  Architektura komputerów . Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław, 2005.
Rozdz. 2.1. Koncepcja programu pamiętanego (str. 17-19)
Rozdz. 9. System pamięci (str. 179-212)
Ogrodzki J.:  Wstęp do systemów komputerowych . Oficyna Wydawnicza Politechniki Warszawskiej,
Warszawa, 2005.
Rozdz. 1. Podstawy funkcjonowania procesora (str. 7-25)
Rozdz. 2. Cykl rozkazu - wykonywanie i sterowanie (str. 26-43)
Rozdz. 5. Pamięci fizyczne systemów komputerowych (str. 74-102)
Dziękuję za uwagę!
Dziękuję za uwagę!
Rozdz. 6. Sytuacje wyjątkowe i system wejścia-wyjścia (str. 103-144)
Stallings W.:  Organizacja i architektura systemu komputerowego. Projektowanie systemu a jego wydajność .
WNT, Warszawa, 2004.
Rozdz. 2.1. Krótka historia komputerów. Maszyna von Neumanna (str. 33-35)
Rozdz. 3.2. Działanie komputera (str. 72-87)
Rozdz. 3.4. Połączenia magistralowe (str. 89-99)
Rozdz. 4.1. Przegląd systemów pamięci komputerowych (str. 127-136)
Rozdz. 4.3. Pamięć podręczna (str. 151-173)
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6 Rok akademicki 2008/2009, Wykład nr 6
49/51 50/51
yródła (Ksią\ki): yródła (Internet):
yródła (Ksią\ki): yródła (Internet):
Wojtuszkiewicz K.:  Urządzenia techniki komputerowej. Część 1. Jak działa komputer? . PWN, Warszawa, http://pl.wikipedia.org/wiki/Architektura_von_Neumanna - Architektura von Neumanna
2007.
http://pl.wikipedia.org/wiki/Architektura_harwardzka - Architektura harwardzka
Rozdz. 2.3. Pamięci (str. 71-103)
http://pl.wikipedia.org/wiki/Zmodyfikowana_architektura_harwardzka - Zmodyfikowana architektura
Rozdz. 3.1. Pojęcie systemu mikroprocesorowego (str. 105-110)
harwardzka
Rozdz. 3.3. Podstawy działania mikroprocesora (str. 111-130)
Rozdz. 3.4. Układy wejścia/wyjścia (str. 130-133)
Rozdz. 3.5. Operacje wejścia/wyjścia (str. 134-144)
Rozdz. 3.6. Pamięć wirtualna (str. 144-149)
Rozdz. 3.7. Koncepcja pamięci podręcznej (cache) (str. 149-155)
Rozdz. 6.2. Standard ISA (str. 239-255)
Rozdz. 6.4. Standardy magistrali rozszerzającej (str. 263-277)
Informatyka 1, studia niestacjonarne I stopnia dr in\. Jarosław Forenc
Rok akademicki 2008/2009, Wykład nr 6
51/51
yródła (Internet):
yródła (Internet):
http://en.wikipedia.org/wiki/Von_Neumann_architecture - von Neumann architecture
http://en.wikipedia.org/wiki/Harvard_architecture - Harvard architecture
http://en.wikipedia.org/wiki/Modified_Harvard_architecture - Modified Hardvard architecture


Wyszukiwarka

Podobne podstrony:
INF1 2011 Wykl 07 Dzienne 4na1
2009 07 06
ZADANIE A1 2009 04 06
2009 07 06 16h59m 43 500(16566402013641)
wykl 06
Eucharystia Orędzie z dnia 27 12 2009, 11 06 2010
2009 04 06 ZADANIE A2 (4)
Zaczyna się ważny przetarg (ropa w Iraku) (30 06 2009)
Iran wciąż wspiera terrorystów w Iraku (30 06 2009)
W Brytania chce ws wojny irackiej powtórzyć scenariusz z 1982 roku (14 06 2009)
2009 IV wykl 16 Hotmelty

więcej podobnych podstron