91
Komunikacja procesora z innymi elementami architektury komputera
Model z pamięcią rozproszoną ma wiele zalet. Pozwala między innymi na łączenie ze sobą dowolnie wielu bloków procesorowych"1 (rysunek 1.22). Stąd tez wywodzi się określenie dobrze charakteryzujące ten styl podejścia do systemów mulliprocesoro wych: Massive Parallel Processing (MPP). Poszczególne moduły połączone są ze sobą pi zez specjalne magistrale (np. GTL+) lub adaptowane do tego celu rozwiązania sieciowe.
CPU |
CPU | ||
CACHE |
CACHE | ||
L |
L | ||
! |
• | ||
\ | |||
PAMIĘĆ |
s |
ZŁĄ |
CZE |
CPU
CACHĆ
CPU
CACHE
PAMIĘĆ
\
ZŁĄCZE
Magistrala połączeniowa
Równoległe połączenie setek lub nawet tysięcy procesorów prowadzi do osiągnięcia fenomenalnej mocy obliczeniowej, która może jednak być wykorzystana jedynie w nielicznych przypadkach. Stopień w jakim dana aplikacja czerpie korzyści z architektury MPP zależy w ogromnym stopniu od stylu programowania. Konieczność częstej komunikacji między procesorami pochłania moc obliczeniową i blokuje wspólną magistralę.
Cały proces obliczeniowy musi więc być rozpisany na wątki operujące na niezależnych danych. Nie każda aplikacja poddaje się takim zabiegom. Już sama specyfika danego zagadnienia może wykluczyć taką możliwość. Pierwsza z brzegu duża baza danych jest lego najlepszym przykładem Decyduje lu czas dostępu do ogromnych plików dyskowych, którego nie zmniejszy wzbogacenie systemu o kolejnych 100 procesorów. Samo przetwarzanie rekordu jest zwykle ułamkiem tego czasu. Dobrym materiałem do przetwarzania równoległego są natomiast numeryczne obliczenia inżynierskie i naukowe, gdzie występuje zwykle bardzo intensywne przetwarzanie małej liczby danych.
Systemy mulliprpcesorowe w konfiguracji MPP można najczęściej spotkać w centrach komputerowych ośrodków uniwersyteckich niż w ośrodkach obliczeniowych banków.
W literaturze angielskojęzycznej używa się w tym nuciscu terminu Nodes (węzły).