Moving HPC to the Cloud

Moving HPC to the Cloud

By Douglas Eadline

In the coming years, the cloud computing market is easily expected to exceed US$ 100 billion. Many organizations have found using the cloud has a clear advantage over in-house hardware. Indeed, shifting what was a capital expense to an operational expense has many advantages, including instant availability and the ability to scale up (and down) rapidly.

W najbliższych latach, na rynku cloud computing jest łatwo przekroczą 100 mld USD. Wiele organizacji znaleźć za pomocą chmura ma wyraźną przewagę nad in-house sprzętu. Rzeczywiście, przenosząc co koszt kapitału do kosztów operacyjnych ma wiele zalet, w tym natychmiastowej dostępności i możliwość skalowania w górę (lub w dół) szybko.

The advantage of pay-as-you-go computing has been an industry goal for many years. In HPC, the Globus project has shown the power of grid-based computing and has spawned many successful production computation grids. Cloud computing takes grid computing to a whole new level by using virtualization to encapsulate an operating system (OS) instance. Users can construct their own operating system instance and run it in a cloud whenever they need computational resources. In addition to cloud computing, cloud storage also can be used independently or combined with OS instances.

Zaletą pay-as-you-go computing było celem branży od wielu lat. W HPC, projekt Globus pokazało siłę grid computing opartym i zrodził wiele udanych siatek obliczeniowych produkcji. Cloud computing ma Grid Computing na zupełnie nowy poziom, przy użyciu wirtualizacji do hermetyzacji systemu operacyjnego (OS) instancji. Użytkownicy mogą budować własne instancji systemu operacyjnego i uruchomić go w obłoku, gdy potrzebują zasobów obliczeniowych. W uzupełnieniu do cloud computing, cloud storage także może być używany samodzielnie lub w połączeniu z przypadkami OS.

Cloud computing would seem to be an HPC user’s dream offering almost unlimited storage and instantly available and scalable computing resources, all at a reasonable metered cost. For all but the basic HPC applications, however, the use of a typical cloud needs a bit of due diligence because remote HPC services can range from shared HPC clusters to fully virtualized cloud environments.

Cloud computing wydaje się być użytkownikiem HPC marzenie oferuje prawie nieograniczone przechowywanie i natychmiast dostępne i skalowalne zasoby obliczeniowe, wszystkie w rozsądnych kosztach odmierzonej. Za wszystkie podstawowe aplikacje HPC jednak zastosowania typowego chmury wymaga trochę staranności ponieważ zdalne usługi HPC może wynosić od wspólnych klastrów HPC pełni środowiskach wirtualnych chmury.

Not All Clouds Look the Same

Nie wszystkie chmury wyglądają tak samo

A “traditional” cloud offers features that are attractive to the general public. These services comprise single, loosely coupled instances (an instance of an OS running in a virtual environment) and storage systems backed by service level agreements (SLAs) that provide the end user guaranteed levels of service. These clouds offer the following features:

"Tradycyjny" cloud oferuje funkcje, które będą atrakcyjne dla ogółu społeczeństwa. Usługi te obejmują pojedyncze, luźno powiązane instancje (instancja OS działa w środowisku wirtualnym) i systemów pamięci masowej poparte umowami o poziomie usług (SLA), które dostarczają użytkownika końcowego gwarantuje poziom usług. Chmury te mają następujące cechy:

Natychmiastowa dostępność - Cloud oferuje prawie natychmiastową dostępność zasobów.

Duża pojemność - Użytkownicy mogą natychmiast przeskalować liczbę aplikacji w chmurze.

wybór oprogramowania - Użytkownicy mogą projektować wystąpień do swoich potrzeb z up OS.

Wirtualne - Wystąpienia mogą być łatwo przenoszone do iz podobnymi chmurami.

Service-poziom wydajności - Użytkownicy są gwarancją pewnego minimalnego poziomu wydajności.

Although these features serve much of the market, HPC users generally have a different set of requirements:

Chociaż funkcje te służą wiele rynku użytkownicy HPC ogół innego zestawu wymagań:

Zamknąć do "metalu" - wiele człowieka roku zainwestowano w optymalizacji bibliotek i aplikacji HPC do ścisłej współpracy ze sprzętem, co wymaga specjalnych sterowników OS i wsparcia sprzętowego.

Strefa komunikacji - aplikacje HPC użytkownik często muszą obejść jądra systemu operacyjnego i komunikować się bezpośrednio z procesów zdalnych użytkowników.

Dopasowana hardware - sprzęt HPC jest często wybierane na podstawie komunikacji, pamięci i szybkości procesora dla danego zestawu aplikacji.

Dopasowana - przechowywalnia HPC często jest zaprojektowany dla określonego zestawu aplikacji i bazy użytkowników.
• Planowanie Batch - All HPC systemy wykorzystują wsadowy harmonogramu, aby akcje ograniczone zasoby.

Depending on the user’s application domain, these two feature sets can make a big difference in performance. For example, applications that require a single node (or threaded applications) can work in a cloud. In this case, the user might have a single program that must be run with a wide range of input parameters (often called parametric processing), or they might have dataflow jobs, such as the Galaxy suite used in biomedical research. These types of applications can benefit from most cloud computing resources.

W zależności od użytkownika domeny aplikacji, te dwa zestawy funkcji może zrobić wielką różnicę w wydajności. Na przykład aplikacje, które wymagają pojedynczego węzła (lub gwintowanych aplikacji) może pracować w chmurze. W tym przypadku, użytkownik może mieć jeden program, że musi być wykonane z wielu różnych parametrów wejściowych (często nazywane parametryczny przetwarzania), lub mogą mieć pracy przepływu danych, takich jak stosowane w Galaxy pakietu badań biomedycznych. Tego typu aplikacje mogą korzystać z większości zasobów cloud computing.

Some applications can utilize highly parallel systems but do not require a high-performance interconnect or fast storage. One often cited example is digital rendering, in which many non-interacting jobs can be spawned across a large number of nodes with almost perfect scalability. These applications often work well with standard Ethernet and do not require a specialized interconnect for high performance.

Niektóre aplikacje mogą wykorzystać wysoce równoległych systemów, ale nie wymagają wysokiej wydajności interkonekt lub szybki przechowywanie. Często cytowanym przykładem jest cyfrowy rendering, w której wielu nie oddziałujące na siebie zadania można zrodził całej dużej liczby węzłów z skalowalności niemal idealnym. Aplikacje te często pracują dobrze standardzie Ethernet i nie wymaga specjalistycznego interkonekt do wysokiej wydajności.

Moving up the HPC tree, you’ll find interconnect-sensitive applications that require low latency and high throughput interconnects not found in the traditional cloud. Indeed, most of these interconnects (e.g., InfiniBand and High-Performance Ethernet) require “userspace” communication pathways that do not involve the OS kernel. This method makes the use of cloud virtualization very difficult because most virtualization schemes cannot manage “kernel by-pass” applications (i.e., these are “on the wire” data transfers that are hard to virtualize). If high-performance networks are not available, many HPC applications run slowly and suffer from poor scalability (i.e., they see no performance gain when adding nodes).

Poruszanie się na drzewo HPC, znajdziesz interkonekt wrażliwych aplikacji wymagających małego opóźnienia oraz wysoką przepustowość interkonekty nie znaleziono w tradycyjnym chmurze. Rzeczywiście, większość z nich łączy (np. InfiniBand i High-Performance Ethernet) wymagają "przestrzeni użytkownika" ścieżki komunikacyjne, które nie wiążą się z jądra systemu operacyjnego. Metoda ta zastosowanie wirtualizacji cloud bardzo trudne, ponieważ większość systemów wirtualizacji nie uda "jądro by-pass" aplikacji (czyli są to "na drut" transferów danych, które są trudne do wirtualizacji). Jeśli wysokowydajnych sieci nie są dostępne, wiele aplikacji HPC działać powoli i cierpi na słabą skalowalność (tj. nie widzą przyrost wydajności podczas dodawania węzłów).

Also in the tree are many I/O-sensitive applications that, without a very fast I/O subsystem, will run slowly because of storage bottlenecks. To open up these bottlenecks, most HPC systems employ parallel filesystems that drastically increase the I/O bandwidth of computing nodes.

Również w drzewie jest wiele I / O-wrażliwe aplikacje, bez bardzo szybkiego podsystemu I / O, będzie działać wolniej z powodu zatorów magazynowych. Aby otworzyć te wąskie gardła, większość systemów HPC zatrudniać równoległe systemy plików, które radykalnie zwiększają przepustowość I / O węzłów obliczeniowych.

Another growing branch includes performance accelerators or SIMD units (parallel computing Single-Instruction Multiple Data processors) from NVidia and AMD/ATI. This type of hardware is very specific to HPC systems and therefore is not found on typical cloud hardware.

Kolejny oddział rośnie zawiera akceleratory wydajności lub jednostki SIMD (Single-Obliczenia Równolegle Instruction Multiple procesory danych) firmy NVIDIA i AMD / ATI. Tego typu sprzęt jest bardzo specyficzne dla systemów HPC i dlatego nie został znaleziony na typowym sprzęcie chmurze.

At the top of the tree are applications that push on all levels of performance (compute, interconnect, and storage). These applications require fast computation (possible a SIMD unit), fast interconnects, and high-performance storage. Clearly, this computing environment is not found in a typical cloud and is unique to the HPC market. Attempting to run this level of application on a typical cloud will provide sub-par performance. A deeper treatment of these issues can be found in a recent article called “Will HPC Work in the Cloud?

Na szczycie drzewa są aplikacje, które popychają na wszystkich poziomach wydajności (obliczeniowe, interkonekt i magazynowanie). Aplikacje te wymagają szybkiego obliczenia (możliwe jednostki SIMD), szybkie interkonekty i wysokiej wydajności pamięci. Wyraźnie widać, że środowisko komputerowe nie znajduje się w typowej chmurze i jest unikalny na rynku HPC. Próba uruchomienia tego poziomu aplikacji na typowym chmurze zapewnia sub-par wydajność.Głębiej tych sprawach można znaleźć w ostatnim artykule o nazwie "Czy HPC Praca w chmurze?"

Finally, any remote computation scheme needs to address the “moving big data problem.” Many HPC applications require large amounts of data. Many clouds, even those that offer HPC features, cannot solve the problem easily. In particular, if the time to move large datasets to the cloud outweighs the computation time, then the cloud solution is now the slow solution. Interestingly, the fastest way to move data in these cases is with a hard disk and an overnight courier. (It seems the station wagon full of tapes is still the fastest way to transport data.)

Wreszcie, każdy zdalny system obliczeniowy musi zająć się "Moving duży problem danych." Wiele aplikacji HPC wymagają dużych ilości danych. Wiele chmury, nawet te, które oferują funkcje HPC, nie można rozwiązać problemu łatwo. W szczególności, jeśli czas przenoszenia dużych zestawów danych do chmury przewyższają czas obliczeń, po czym roztwór jest teraz chmury powoli roztwór. Co ciekawe, to najszybszy sposób na przenoszenie danych w tych przypadkach jest w dysk twardy oraz kurierem noc. (Wydaje kombi pełne taśm jest nadal najszybszy sposób przenoszenia danych.)

The HPC Cloud Is Out There

Chmura HPC jest tam

With all the differences between the traditional cloud and HPC applications, users will be interested to know that HPC clouds and cloud-like resources are available. A number of companies, including Penguin, R-HPC, Amazon, Univa, SGI, Sabalcore, and Gompute offer specialized HPC clouds. Notably absent is IBM who, at this time, does not offer public HPC clouds. The company, however, does provide many options for constructing internal or private clouds.

Przy wszystkich różnicach między tradycyjnym chmury i aplikacji HPC, użytkownicy będą zainteresowani, aby wiedzieć, że HPC chmury i chmury, jak zasoby są dostępne.Wiele firm, w tym Penguin, R-HPC, Amazon, Univa, SGI, Sabalcore i Gompute specjalistyczną chmury HPC. Zwłaszcza brak jest IBM, który w tym czasie, nie oferuje publiczne chmury HPC.Niemniej jednak, firma nie zapewnia wiele opcji do konstruowania wewnętrznych lub prywatnych chmur.

As with many performance-based systems, the devil is often in the details and the word “cloud” (like the word “grid” in the past) can mean almost anything when it comes to performance. To provide a sense of the current HPC cloud capabilities, the previously mentioned companies were contacted and asked to answer some very specific HPC questions about their cloud offerings. The questions covered several categories including:

Jak w przypadku wielu systemów opartych na wynikach, diabeł tkwi często w szczegółach, a słowo "chmura" (podobnie jak słowo "siatki" w przeszłości) może oznaczać niemal wszystko, jeśli chodzi o wydajność. Aby zapewnić poczucie aktualnymi możliwościami HPC chmur, wspomniane wcześniej firmy zostali powiadomieni i poproszeni o udzielenie odpowiedzi na kilka bardzo konkretnych pytań na temat swoich ofiar HPC cloud. Pytania dotyczyły kilku kategoriach, w tym:

Konfiguracja systemu

Połączenia

Przechowywanie

Zarządzanie obiegiem

Przybliżony koszt

Note that the survey did not include academic clouds, such as those in the Future Grid project. These clouds are increasing, but access, cost, and capabilities can vary and might require research proposals. As with any new HPC project, due diligence will produce the best results. The following survey of HPC cloud vendors will help get you started.

Należy pamiętać, że badanie nie obejmuje akademickie chmury, takie jak te w przyszłości projektu Grid. Chmury te rosną, ale dostęp, kosztów i możliwości mogą się różnić i mogą wymagać wniosków badawczych. Jak w przypadku każdego nowego projektu HPC, due diligence przyniesie najlepsze rezultaty. Poniższy przegląd HPC dostawców cloud pomogą Ci zacząć.

Penguin Computing

One the first vendors to introduce a true HPC cloud was Penguin Computing. The Penguin On Demand, or POD cloud, was one of the first remote HPC services. From the beginning, POD has been a bare-metal compute model similar to an in-house cluster. Each user is given a virtualized login node that does not play a role in code execution. The standard compute node has a range of options, including dual four-core Xeon, dual six-core Xeon, or quad 12-core AMD processors ranging in speed from 2.2 to 2.9GHz with 24 to 128GB of RAM per server and up to 1TB of scratch local storage per node.

Jeden pierwszych producentów do wprowadzenia prawdziwej HPC chmura Penguin Computing.Penguin On Demand, lub chmura POD, była jedną z pierwszych usług zdalnych HPC. Od początku, POD został bare-metal Model podobny do obliczeń w domu klaster. Każdy użytkownik otrzymuje wirtualne węzeł logowania, które nie odgrywają roli w kodu.Średnia węzeł obliczeniowa posiada szereg opcji, w tym cztery podwójne, podwójny Xeon Six-Core Xeon, lub quadem 12-rdzeniowe procesory AMD, począwszy prędkości od 2,2 do 2.9GHz z 24 do 128 GB pamięci RAM na serwer i do 1TB z podstaw lokalnej pamięci na węzeł.

Getting applications running POD HPC clouds can be quite simple, because Penguin has more than 150 commercial and open source applications installed and ready to run on the system. Installing other applications is straightforward and available to users. Nodes with two NVidia Tesla C2075 computing processors are available.

Pobieranie aplikacji działających POD chmury HPC może być całkiem proste, ponieważ Penguin ma ponad 150 komercyjnych i aplikacji open source zainstalowane i gotowe do uruchomienia w systemie. Instalowanie innych aplikacji jest prosta i dostępna dla użytkowników. Węzły z dwoma NVIDIA Tesla C2075 procesorów komputerowych są dostępne.

In terms of network, POD nodes are connected via nonvirtualized, low-latency 10Gb Ethernet (GigE) or QDR IB networks. The network topology is local to ensure maximum bandwidth and minimum latency between nodes. Storage systems are made available via 10GigE to the local compute cluster. Additionally, POD has redundant high-speed Internet with remote connectivity ranging from 50Mbps to 1Gbps.

W zakresie sieci, węzłów POD są połączone nonvirtualized i małych opóźnieniach 10Gb Ethernet (GigE) lub QDR sieci IB.Topologia sieci jest lokalny, aby zapewnić maksymalną przepustowość oraz opóźnienia minimalne między węzłami. Systemy magazynowe są dostępne za pośrednictwem 10GigE do lokalnego klastra obliczeniowego. Dodatkowo POD ma zbędny szybkiego Internetu z pilotem w zakresie od 50 Mb łączności do 1Gbps.

Several storage options are also available, starting with high-speed NFS using 10GigE attached storage. List pricing for storage on POD is US$ 0.10/GB·month. Beyond NFS, there are parallel filesystem options attached via multiple 10GigE links and InfiniBand. Lustre and Panasas high-performance storage systems also can be provided. Finally, dedicated storage servers are available. These systems can isolate data and facilitate encryption/decryption of high volumes of data by using physical shipping rather than Internet transfer.

Niektóre opcje dostępne są także do przechowywania, począwszy od NFS szybkiego korzystania 10GigE załączony przechowywanie. Lista cen magazynowania na POD jest US $ 0.10/GB miesiąc. Beyond NFS, są równoległe opcje systemu plików dołączonych przez wielu linków 10GigE i InfiniBand. Lustre i Panasas wysokowydajne systemy magazynowania również mogą być zrealizowane. Wreszcie, serwery dedykowane pamięci masowej są dostępne. Systemy te mogą izolować danych i ułatwienia szyfrowania / deszyfrowania z dużych ilości danych za pomocą fizycznego wysyłkę zamiast przelewu internetowego.

POD offers a suite of tools to help manage your computation. Aptly called PODTools, Penguin offers a collection of command-line utilities for interacting with their HPC cloud. Beyond the standard SSH login, PODTools provide the ability to submit jobs, transfer data, and generate reports. Additionally, Penguin POD can be seamlessly integrated into existing on-site clusters to outsource excess workloads – often known as “cloud bursting.” All these capabilities are encrypted and offer a high level of security.

POD oferuje zestaw narzędzi, które pomogą zarządzać obliczeń. Trafnie nazwał PODTools, Penguin oferuje zbiór narzędzi wiersza polecenia do interakcji z ich chmurze HPC. Oprócz standardowego SSH zalogowaniu PODTools umożliwiają przesyłanie zadań, transfer danych i generowania raportów. Dodatkowo, Penguin POD może być zintegrowane z istniejącymi na miejscu klastrów outsourcingu nadmiar obciążenia - ". Chmurze pęknięcie" często nazywane Wszystkie te możliwości są szyfrowane i oferują wysoki poziom bezpieczeństwa.

In terms of cost, Penguin has an online pricing estimator. I proposed two usage cases. The first was for a small case consisting of 80 cores with 4GB of RAM per core with basic storage of 500GB. POD pricing is based on cores/hour and would work out to be US$ 6,098.00/month or US$ 0.101/core·hour. A large example of 256 cores with 4GB of RAM per core and 1TB of parallel storage would cost US$ 18,245.00/month with the same US$ 0.101/core·hour.

Pod względem kosztów, Penguin ma internetowy prognozy cenowej. I zaproponowała dwa przypadki użycia.Pierwszy był dla małej przypadku złożonej z 80 rdzeni 4 GB pamięci RAM na rdzeń z podstawowym przechowywania 500GB. POD cenowa oparta na rdzeniach / godziny i będzie pracować za US $ 6,098.00 / miesiąc lub US $ 0.101/core godziny.Duży przykład 256 rdzeni 4 GB pamięci RAM i 1 TB na rdzeń równoległego składowania wyniesie US $ 18,245.00 / miesięcy z tym samym USD 0.101/core godziny.

Perhaps Penguin’s biggest asset is a long history of delivering on-site HPC solutions. This experience has allowed them to develop a staff of industry domain experts. They also have long list of additional services that supplement their POD offering. These include on-premises provision of cloud bursting to the POD cloud, remote management of on-premises HPC services, cloud migration services, private remote HPC as service environments, and private internal clouds.

Może Penguin największym atutem jest długa historia dostarcza na miejscu rozwiązań HPC. Doświadczenie to pozwoliło im stworzyć zespół ekspertów w tej dziedzinie przemysłu. Mają też długą listę dodatkowych usług, które uzupełniają ich POD ofiarę. Należą do nich w lokalu świadczenia chmurze pęknięcie POD chmurze, zdalne zarządzanie w lokalu usług HPC, chmura usług migracji, prywatnym zdalnym HPC jako środowisk usługowych, oraz prywatnych chmur wewnętrznych.

R-HPC

R-HPC offers R-Cloud, wherein clients can “rent” HPC resources. R-Cloud offers two distinct computing environments. The first is a Shared Cluster, which offers a login to shared nodes and a work queue. This environment offers a classic cluster environment and is essentially a “shared cluster in the sky.” Users are billed by the job, creating a pay-as-you go HPC service. No support or administration services are provided. The second environment comprises virtual private clusters that are carved out of a shared configuration. Use can be on-demand with VLAN access. These systems are billed on a 24/7 basis.

R-HPC oferuje R-Cloud, w którym klienci mogą "Czynsz" zasoby HPC. R-Cloud oferuje dwa różne środowiska komputerowego.Pierwszy jest Shared Cluster, która oferuje logowania do udostępnionych węzłów i kolejki pracy. Środowisko to oferuje klasyczne środowisko klastra i jest zasadniczo "współdzielony klaster w niebie." Użytkownicy są rozliczane przez zadania, tworząc pay-as-you przejść usługi HPC. Brak wsparcia lub administracji świadczone są usługi.Drugie środowisko obejmuje wirtualnych prywatnych klastrów, które są wycięte z udostępnionego konfiguracji. Stosowanie może być na żądanie dostępu VLAN. Systemy te są rozliczane na 24/7 podstawie.

R-HPC can provide new 3.4GHz quad core Sandy Bridge-based systems with 16GB of RAM/node (4GB/core), DDR 2:1 blocking InfiniBand, and 1TB of local disk. Additionally, they have dual-socket 2.6GHz eight-core Sandy Bridge with 128GB of RAM/node (8GB/core), QDR non-blocking InfiniBand, 1TB of local storage, and 1TB global storage. These offerings are rounded out by Magny-Cours, Nehalem, and Harpertown systems. GPU-based systems in beta test are provided for dedicated users.

R-HPC może dostarczyć nowych 3.4GHz Quad Core Sandy Bridge-systemy oparte z 16GB pamięci RAM / węzeł (4GB/core), DDR 02:01 InfiniBand blokowania i 1TB dysku lokalnym. Dodatkowo mają dual-socket 2.6GHz osiem rdzeni Sandy Bridge z 128 GB pamięci RAM / węzła (8GB/core), non-blocking QDR Infiniband, 1TB pamięci lokalnej i 1 TB pamięci masowej na świecie. Te oferty są zaokrąglane przez Magny-Cours, Nehalem oraz systemów Harpertown. GPU-systemy w fazie testów beta są dla wyspecjalizowanych użytkowników.

Most applications can be set up and running within one day (although R-HPC notes that licensing issues can delay the process for some users). Similar to Penguin’s products, all the interconnects, which include DDR, QDR, FDR, and GigE, are run on the wire with no OS virtualization layer. Storage options include 10 GigE attached NFS/SMB with Lustre over IB as a possible upgrade. If ultimate storage performance is needed, R-HPC also offers the Kove RAM disk storage array. All dedicated systems have block storage for security, whereas the shared clusters use shared NFS (no private mounts).

Większość aplikacji można skonfigurować i uruchomiony w ciągu jednego dnia (choć R-HPC zauważa, że kwestie licencyjne opóźnić proces dla niektórych użytkowników). Podobny do produktów Penguin, a wszystko łączy, które obejmują DDR, QDR, FDR i GigE, są prowadzone na drucie bez warstwy OS wirtualizacji. Opcje przechowywania obejmują 10 GigE dołączony NFS / SMB z Lustre nad IB jako ewentualnego uaktualnienia. Jeśli ostateczna wydajność pamięci masowej jest potrzebna, R-HPC oferuje również Kove dysku RAM tablicę pamięci. Wszystkie systemy dedykowane pamięci bloku dla bezpieczeństwa, natomiast wspólne klastry używać udostępnionego NFS (żadne prywatne wierzchowce).

R-HPC will make service level agreements on a case-by-case basis depending on the customers needs. In terms of workflow management, Torque/OpenPBS is the most common scheduler; however, Maui and Grid Engine (and derivatives) can be provided as needed. Interestingly, cloud bursting, although possible with R-HPC systems, is almost never requested by customers. Another interesting aspect of R-HPC offerings includes Windows HPC environments.

R-HPC będzie umowy o poziomie usług indywidualnie dla każdego przypadku w zależności od potrzeb klientów. W zakresie zarządzania przepływem pracy, Torque / OpenPBS jest najczęstszą scheduler, jednak Maui i Grid Engine (i pochodne) można zapewnić w razie potrzeby. Co ciekawe, chmury pękają, choć możliwe, z R-systemów HPC, prawie nigdy nie wymagane przez klientów. Innym ciekawym aspektem oferty R-HPC zawiera środowiskach Windows HPC.

In terms of pricing, R-HPC pointed to several factors that make it difficult to offer a standard price for their HPC services. Generally, the length of commitment can factor heavily into the price. The basic “no commitment” starting price is competitive with other cloud providers offering shared systems. Pricing does include NFS over 10GigE. Dedicated systems can be substantially less (i.e., volume reduces cost). Dedicated storage nodes for parallel filesystems are generally twice the hourly rate of dedicated system nodes. R-HPC offers performance tuning and remote administration services as well. They have extensive experience in HPC and can provide “tuned” application-specific private clusters for clients.

W zakresie cen, R-HPC wskazał na kilka czynników, które sprawiają, że trudno jest zaoferować standardowe ceny za swoje usługi HPC. Generalnie długość zobowiązania może czynnik mocno w cenę.Podstawowy "bez zobowiązań", cena wywoławcza jest konkurencyjna wobec innych dostawców cloud oferujących wspólne systemy. Cennik obejmuje NFS nad 10GigE. Dedykowane systemy mogą być zasadniczo mniejsza (np. objętości zmniejsza koszty). Dedykowane węzły magazynowania równoległych systemów plików są na ogół dwa razy stawka godzinowa dedykowanych węzłów systemowych. R-HPC oferuje dostrajania wydajności zdalnych usług administracyjnych, jak również. Mają duże doświadczenie w HPC i może dostarczyć "dostrojone", specyficzne dla aplikacji prywatnych klastrów dla klientów.

Amazon EC2 HPC

Perhaps the most well-known cloud provider is Amazon. Inquiries to Amazon were not returned, so information was gleaned from their web page. Originally, the EC2 service was found not suitable for many HPC applications. Amazon has since created dedicated “cluster instances” that offer better performance to HPC users. Several virtualized HPC instances are available on the basis of users’ needs. Their first offering is two Cluster Compute instances that provide a very large amount of CPU coupled with increased network performance (10GigE). Instances come in two sizes, a Nehalem-based “Quadruple Extra Large Instance” (eight cores/node, 23GB of RAM, 1.7TB of local storage) and a Sandy Bridge-based “Eight Extra Large Instance” (16 cores/node, 60.5GB of RAM, 3.4TB of local storage).

Być może najbardziej znanym dostawcą chmura Amazon. Zapytanie do Amazonii nie zostały zwrócone, więc informacje zebrane z ich strony internetowej. Początkowo usługa EC2 nie znaleziono odpowiednie dla wielu aplikacji HPC. Amazon od stworzył dedykowane "wystąpienia klaster", które oferują lepszą wydajność dla użytkowników HPC. Kilka wirtualnych instancji HPC dostępne są na podstawie potrzeb użytkowników. Ich pierwsza oferta jest dwa Compute Cluster instancji, które zapewniają bardzo dużą ilość procesorów w połączeniu ze wzrostem wydajności sieci (10GigE). Wystąpienia są w dwóch rozmiarach, Nehalem opartych "Quadruple Extra Instancji duże" (osiem rdzeni / węzeł, 23PL RAM, 1.7TB z pamięci lokalnej) i Sandy Bridge bazie "Eight Extra Large Instance" (16 rdzenie / węzeł, 60.5GB RAM, 3.4TB lokalnego przechowywania).

Additionally, Amazon offers two other specialized instances. The first is a Cluster GPU instance that provides two NVidia Tesla Fermi M2050 GPUs with proportionally high CPU and 10GigE network performance. The second is a high-I/O instance that provides two SSD-based volumes, each with 1024GB of storage.

Dodatkowo, Amazon oferuje dwa inne wyspecjalizowane wystąpień.Pierwsza instancja Cluster GPU NVIDIA Tesla zapewnia dwa GPU Fermi M2050 z proporcjonalnie dużą procesora i wydajności sieci 10GigE.Drugi jest wysoki-I / O instancja udostępnia dwa SSD opartych tomów, każdy z 1024GB przechowywania.

Pricing can vary depending upon on-demand, scheduled, or spot purchase of resources. Generally, the cost for on-demand EC2 instances are as follows: Quadruple Extra Large Instance is US$ 1.3/hour (US$ 0.33/core·hour), Eight Extra Large Instance is US$ 2.4/hour (US$ 0.15/core·hour), Cluster GPU instance is US$ 2.1/hour, and the High I/O instance is US$ 3.1/hour.

Ceny mogą się różnić w zależności od na żądanie, zaplanowanych, lub zakup spot zasobów. Generalnie koszt na żądanie instancji EC2 są następujące: Quadruple Extra Large Instance jest US $ 1.3/hour (US $ 0.33/core godzin), Eight Extra Large Instance jest US $ 2.4/hour (US $ 0.15/core godziny), Cluster GPU instancji jest US $ 2.1/hour i szybkie i / O wystąpienie jest US $ 3.1/hour.

Thus, using the small usage case (80 cores, 4GB of RAM per core, and basic storage of 500GB) would cost US$ 24.00/hour (10 Eight Extra Large Instances). The larger usage case (256 cores, 4GB of RAM per core, and 1TB of fast global storage) would cost US$ 38.4/hour (16 Eight Extra Large Instances).

Zatem stosując małą sprawę użytkowania (80 rdzeni, 4GB pamięci RAM na każdy rdzeń, oraz podstawowe przechowywanie 500GB) będzie kosztować USD 24.00/hour (10 Osiem XL Instancje).Większy przypadek użycia (256 rdzenie, 4 GB pamięci RAM na rdzeń, a 1 TB szybkiego globalnego składowania) będzie kosztować USD 38.4/hour (16 Osiem XL Instancje).

Amazon does not charge for data transferred into EC2 but has a varying rate schedule for transfer out of the cloud; additionally, there are EC2 storage costs. Therefore, the total cost depends on compute time, total data storage, and transfer. Once created, the instances must be provisioned and configured to work as a cluster by the user.

Amazon nie pobiera dla danych przesyłanych do EC2 ale ma różny rozkład szybkości transferu z obłoku, dodatkowo istnieje EC2 koszty składowania. Zatem całkowity koszt zależy od czasu obliczeniowego, całkowity przechowywania danych, oraz transferu. Po utworzeniu instancji musi być udzielona i skonfigurowane do pracy w klastrze przez użytkownika.

Besides the Amazon cluster instance, users may select from one of several preconfigured clusters. Several studies also compare Amazon Cluster instances to real clusters[1].

Poza przykład Amazon klastra, użytkownicy mogą wybrać jeden z kilku domyślnych klastrów. Liczne badania także porównać instancji Amazon Cluster rzeczywistych klastrów [1].

Univa

Univa is known as the place Sun Grid Engine landed after the Oracle purchase. Not only does Univa continue to develop and support Grid Engine, they also offer “one-click” HPC computing with their partner RightScale. The companies offer two distinct ways to build clouds. The first is an internal cloud infrastructure system that provides “raw” virtual machines using one of several methods, including VMware, KVM, Xen, or something more sophisticated like OpenStack or VMware vSphere.

Univa jest znany jako miejsce Sun Grid Engine wylądował po zakupie Oracle. Nie tylko Univa nadal rozwijać i wspierać Grid Engine, oferują one również "one-click" obliczeniowych HPC z ich RightScale partnerskiego. Firmy oferują dwa różne sposoby tworzenia chmury.Pierwszy to system wewnętrznej infrastruktury cloud, która zapewnia "raw" maszyn wirtualnych za pomocą jednej z kilku metod, m.in. VMware, Xen, KVM, czy coś bardziej wyrafinowanego jak OpenStack lub VMware vSphere.

Their UniCloud product uses an Infrastructure-as-a-Service (IaaS) layer to create the machines and then directs the IaaS to provision a raw machine on the fly. Once the machine is provisioned, UniCloud takes over as a Platform-as-a-Service (PaaS) layer and does additional software provisioning and configuration to turn the raw instances into nodes that can then be part of an HPC cluster.

Ich UniCloud Produkt wykorzystuje Infrastructure-as-a-Service (IaaS) warstwy do tworzenia maszyn, a następnie kieruje do IaaS postanowienie surową maszynę w locie. Gdy urządzenie jest zabezpieczony, UniCloud przejmuje Platform-as-a-Service (PaaS) warstwy i czy dodatkowego zabezpieczenia oprogramowania i konfiguracji, aby włączyć surowych wystąpień do węzłów, które mogą być częścią klastra HPC.

The second offering is an external cloud infrastructure system, such as Amazon EC2 and AWS, and is used to provide the “raw” virtual machines for HPC use. Once those machines are provisioned by EC2, additional provisioning and configuration management is done by UniCloud (PaaS), which turns those raw instances into nodes that can operate as an HPC cluster. This process is automatic, and adding and removing nodes from this HPC cluster environment can be done on demand.

Druga oferta jest zewnętrzny system infrastruktury cloud, takich jak Amazon EC2 i AWS, i jest używany do "surowe" wirtualnych maszyn do stosowania HPC. Gdy urządzenia te są wpłatami przez EC2, dodatkowe provisioning i zarządzanie konfiguracją dokonuje UniCloud (PaaS), który włącza te surowe wystąpień do węzłów, które mogą działać jako klaster HPC. Proces ten jest automatyczny, a dodawanie i usuwanie węzłów z tego środowiska HPC klastra może być wykonane na zamówienie.

In addition to building HPC clouds, UniCloud can use a rules engine to dynamically change the HPC clouds – changing node roles and adding/removing nodes from the HPC cloud on the fly. This feature allows cloud administrators to tailor the cloud for specific users’ needs. Virtualization is always used in Univa HPC clouds and can adapt to support any underlying type of IaaS layer.

Oprócz budynku HPC chmury UniCloud można użyć silnik reguł dynamicznie zmienić chmury HPC - zmiana węzłów role i dodawania / usuwania węzłów z obłoku HPC w locie. Funkcja ta pozwala administratorom cloud dostosować chmurze dla potrzeb konkretnych użytkowników. Wirtualizacja jest zawsze używany w Univa chmury HPC i mogą dostosować się do wspierania wszelkich podstawowy rodzaj warstwy IaaS.

Univa notes that launching an external cloud on Amazon EC2 is incredibly easy; you can just go to the Amazon Market Place, choose HPC from the list, and then launch your cluster. A similar feature is available from RightScale, where Univa Server template macros are available.

Univa zauważa, że uruchomienie zewnętrznego chmurę na Amazon EC2 jest bardzo łatwe, można po prostu pójść do Amazon Place Market, wybierz HPC z listy, a następnie uruchomić klaster. Podobna funkcja jest dostępna, gdy makra RightScale Univa szablonu serwera są dostępne.

Once the cloud is built, which can take anywhere from 5 to 20 minutes (depending on how large you make your cluster), you can then install your application. Application installation works just like a regular local machine and requires a similar amount of time. Once your application is installed, Univa recommends taking a snapshot of the filesystem volume where the application is installed; otherwise, you might end up installing it again when you restart your cluster.

Gdy chmura jest zbudowana, co może trwać od 5 do 20 minut (w zależności od tego, jak duży zrobić klaster), możesz zainstalować aplikację. Instalacja aplikacji działa jak zwykły maszynie lokalnej i wymaga podobną ilość czasu. Kiedy aplikacja jest zainstalowana, Univa zaleca biorąc migawkę systemu plików woluminu, na którym jest zainstalowana aplikacja, w przeciwnym razie może skończyć się zainstalować ją ponownie po ponownym uruchomieniu klastra.

Univa offers CPU cloud virtualization right now and does not presently offer GPU-based clouds, although they can support it with UniCloud on customer request. In terms of interconnect, Univa offers the standard gigabit Ethernet (10GigE) that is available in many cloud deployments. Interconnects are virtualized, although they have shown some interest in using pass-through to improve performance. Storage options include NFS, and some customers have used other filesystems, such as Gluster.

Univa oferuje wirtualizację cloud procesora teraz i nie ma obecnie oferty GPU oparte na chmury, choć mogą ją wspierać z UniCloud na życzenie klienta. W zakresie interkonektu, Univa oferuje standardowy Gigabit Ethernet (10GigE), który jest dostępny w wielu wdrożeń cloud. Połączenia są wirtualne, choć wykazały pewne zainteresowanie pomocą pass-through w celu zwiększenia wydajności. Możliwości przechowywania m.in. NFS niektórzy klienci korzystali już z innych systemów plików, takich jak Gluster.

As expected, Univa offers Grid Engine as part of their HPC cloud. Their UniCloud package provides prebuilt “kits” that include Univa Grid Engine automatically. Univa Grid Engine can easily request more cloud nodes from UniCloud; alternatively, UniCloud can monitor Univa Grid Engine and add/remove nodes as needed. UniCloud can burst from an internal cloud to an external public cloud or from one public cloud to another public cloud.

Zgodnie z oczekiwaniami, Univa Grid Engine oferuje w ramach swojej chmurze HPC. Ich UniCloud pakiet dostarcza gotowe "zestawy", które obejmują Grid Engine Univa automatycznie. Univa Siatka Silnik można łatwo zażądać więcej węzłów chmura z UniCloud, alternatywnie, można monitorować UniCloud Grid Engine Univa i dodaj / usuń węzłów w razie potrzeby. UniCloud może pęknąć z wewnętrznej do zewnętrznej chmury publicznej chmurze lub z jednej chmurze publicznej innej chmurze publicznej.

In terms of cost, Univa costs are additive to the AWS instance charges and range from US$ 0.02 up to a max of US$ 0.08/core·hour. Remember that these costs provide a “ready-to-run” HPC cloud, whereas buying AWS instances requires the user to configure the cluster. Univa proposed a Medium AWS instance for the small usage case (80 cores, 4GB of RAM per core, basic storage of 500GB) that would cost US$ 14.40/hour [(AWS @ US$ 0.16/hour + Univa @ US$ 0.02/hour)x80]. The larger usage case (256 cores, 4GB of RAM per core, 1TB of fast storage) would cost US$ 58.88/hour.

Pod względem kosztów, koszty Univa sumują się do zarzutów AWS instancji i zakresu od US 0,02 dolarów do max USD 0.08/core godziny. Należy pamiętać, że koszty te stanowią "gotowy do uruchomienia" HPC chmurę, podczas kupowania instancji AWS wymaga od użytkownika, aby skonfigurować klaster. Univa zaproponowała Średni instancji AWS dla małego przypadku użycia (80 rdzeni, 4GB pamięci RAM na każdy rdzeń, podstawowa przechowywanie 500GB), która będzie kosztować USD 14.40/hour [(AWS @ US $ 0.16/hour + @ Univa US $ 0,02 / godzin) x80].Większy przypadek użycia (256 rdzenie, 4 GB pamięci RAM na rdzeń, 1TB szybkiego składowania) będzie kosztować USD 58.88/hour.

Univa also offers remote or on-site consulting that is related to the deployment, support, training, and management of Univa Grid Engine, UniCloud, and UniSight products.

Univa oferuje również zdalne lub na miejscu doradztwo, które są związane z rozmieszczeniem, wsparcie, szkolenia i zarządzania Univa Siatka Engine, UniCloud i produktów UniSight.

Sabalcore Computing

Sabalcore offers HPC systems over the Internet for both on-demand and dedicated solutions. On-demand access is accomplished using an SSH client or secure remote desktop interface from any Windows or Linux laptop, desktop, or workstation. Users are provided with an NFS-exported home directory with persistent storage for results, code, applications, and data.

Sabalcore oferuje systemów HPC w Internecie rozwiązań, zarówno na żądanie i oddany. Dostęp na żądanie jest za pomocą klienta SSH lub bezpieczny zdalny interfejs pulpitu z dowolnego komputera przenośnego z systemem Windows lub Linux, na pulpicie lub stacji roboczej. Użytkownicy są wyposażone w NFS-eksportowanego katalogu domowego z trwałego przechowywania danych dla wyników, kod, aplikacji i danych.

As part of their service, Sabalcore offers accounting tools that allow administrators to assign and track usage by users, projects, or resources. One interesting feature offered by Sabalcore is called Dynamic Cluster Isolation (DCI), which builds an optional firewall around the compute nodes of a particular job. DCI logically isolates the compute nodes of a running job that, according to Sabalcore, should satisfy Federal Government International Traffic in Arms Regulations (ITAR) requirements.

W ramach swoich usług, Sabalcore oferuje narzędzia, które pozwalają administratorom rachunkowości do przypisywania i śledzenia wykorzystania przez użytkowników, projektów lub zasobów. Jedna z ciekawszych funkcji oferowanych przez Sabalcore nazywa Dynamiczna Izolacja Cluster (DCI), która buduje opcjonalny firewall wokół węzłów obliczeniowych danego zadania. DCI logicznie izoluje węzłów obliczeniowych z pracy z systemem, że zgodnie z Sabalcore, powinien zaspokoić rząd federalny ruchu międzynarodowym w przepisach Bronią (ITAR) wymagań.

In terms of hardware, the operating system is preinstalled on the metal with a fixed amount of RAM per core, which is variable depending on the system. To facilitate fast startup, Sabalcore has dozens of popular open source applications that are ready to run. They will also install customer software and allow the customer to build and install their own application software.

W zakresie sprzętu, system operacyjny jest preinstalowany na metalu o stałej ilości pamięci RAM na rdzeń, która jest zmienna w zależności od systemu. W celu ułatwienia szybkiego uruchamiania, Sabalcore dziesiątki popularnych aplikacji open source, które są gotowe do uruchomienia. Będą również zainstalować oprogramowanie klienta i umożliwić klientom budować i instalować własne oprogramowanie.

Available hardware consists of Intel Xeon and AMD Opteron CPUs ranging from eight-core to 32-core nodes, running from 2.33 to 3.0GHz, with 32 to 128GB of RAM per node. They also have a handful of NVidia-based GPUs for testing but are not ready for production work. These resources are connected with both an Ethernet and InfiniBand non-virtualized network, which means they are run directly on the wire. The primary filesystem is based on NFS with parallel filesystems available for specific applications.

Dostępny sprzęt składa się z Intel Xeon i AMD Opteron od ośmiu rdzeni do 32-rdzeniowych węzłów, biegnącym od 2,33 do 3,0 GHz, z 32 do 128 GB pamięci RAM na węźle. Mają też garść NVidia GPU opartym na badaniach, ale nie są gotowe do pracy produkcyjnej. Zasoby te są związane zarówno z sieci Ethernet i InfiniBand niewirtualnym sieci, co oznacza, że ​​są uruchamiane bezpośrednio na przewodzie. Podstawowym plików opiera NFS dostępnych systemów plików równolegle do poszczególnych zastosowań.

The primary scheduler is Torque, and the company also offers a custom scheduler. Currently, they do not offer cloud bursting, but could implement it if needed by customers. In terms of cost, Sabalcore stated that price is volume dependent and ranges from US$ 0.16 to US$ 0.29/core·hour and includes RAM, storage, support, and bandwidth.

Podstawowy harmonogram jest moment obrotowy, a firma oferuje również niestandardowe harmonogramu. Obecnie nie oferują chmurę rozrywającego, ale może wdrożyć go w razie potrzeby przez klientów. W zakresie kosztów, stwierdził, że cena Sabalcore są zależne od masy i waha się od 0,16 do USD USD 0.29/core godziny i obejmuje RAM, pamięci, wsparcie i przepustowości.

Additionally, Sabalcore pointed out that their service includes comprehensive technical support (i.e., installation and tuning of application, workflow optimization, scripting, general consulting, debugging, troubleshooting, etc.) and is available by phone and email. Optional 24/7 phone support is available. They also can provide private clusters, including Windows HPC systems, contracts, custom SLAs, and ITAR-compliant networks.

Dodatkowo Sabalcore wskazał, że ich usługa obejmuje kompleksowe wsparcie techniczne (tj. instalacja i dostrajanie aplikacji, optymalizacji workflow, skryptów, ogólne doradztwo, debugowania, rozwiązywania problemów, itp.) i jest dostępny przez telefon i e-mail. Opcjonalny 24/7 telefon jest dostępny. Mogą również zapewnić prywatne klastrów, w tym systemów Windows HPC, umowami SLA i niestandardowego ITAR-zgodnych sieci.

SGI

SGI’s cloud computing service is called Cyclone and is specifically dedicated for technical applications. Through Cyclone, SGI offers both a software stack and HPC hardware in a nonvirtualized environment together with HPC applications. Pulling from both open source and commercial vendors, they have applications in Computational Biology, Computational Chemistry and Materials, Computational Fluid Dynamics, Finite Element Analysis, and Computational Electromagnetics.

Usługa SGI cloud computing jest nazywany Cyclone i jest specjalnie dedykowany do zastosowań technicznych. Poprzez Cyclone, SGI oferuje zarówno stos oprogramowania i sprzętu HPC w nonvirtualized środowiska wraz z aplikacji HPC. Ciągnięcie zarówno open source i komercyjnych dostawców, mają zastosowanie w biologii obliczeniowej, chemii obliczeniowej i Materiałów, Computational Fluid Dynamics, analiza elementów skończonych, a Electromagnetics Obliczeniowej.

Somewhat unique to Cyclone is the ability to use different computation environments, such as scale-up or scale-out nodes, choice of operating systems (SUSE or RHEL), and two interconnects (SGI NUMAlink or InfiniBand) that can be configured into multiple topologies (e.g., hypercube, all-to-all, fat tree, single-rail, or dual-rail).

Nieco unikalny Cyclone jest możliwość korzystania z różnych środowisk obliczeniowych, takich jak skala-up lub skalowanie węzłów, wybór systemów operacyjnych (SUSE lub RHEL), a dwa interkonekty (SGI NUMAlink lub InfiniBand), które mogą być skonfigurowane do wielu topologii (np. hipersześcian, wszystko-to-wszystko, tłuszcz drzewo, single-rail lub dual-rail).

The SGI Cyclone service offers either 3 or 2GB of memory per core. Using the SGI UV shared memory systems with NUMAlink interconnect, large memory systems can range between 500GB and 2TB of shared memory. Setup time can vary by application, and if the user wants to run one of the pre-installed applications, experienced customers can be up and running on Cyclone within a few hours. SGI notes that new customers can access a web portal GUI interface that provides assistance with running batch jobs on a cluster as well command-line SSH access. For some customers, SGI engineering staff will run their jobs as a service.

SGI oferuje usługi Cyclone albo 3 lub 2 GB pamięci na rdzeń. Korzystanie z SGI UV wspólne systemy pamięci z interkonektu NUMAlink, duże systemy pamięci może wynosić od 500 GB i 2 TB pamięci współdzielonej. Czas instalacji może różnić się od aplikacji, a jeśli użytkownik chce uruchomić jedną z aplikacji zainstalowanych, doświadczeni klienci mogą być uruchomiony na Cyclone w ciągu kilku godzin. SGI zauważa, że nowe klienci mogą uzyskać dostęp do internetowego interfejsu GUI portalu, który zapewnia pomoc z prowadzeniem zadań wsadowych na klastrze, jak również dostępu do linii poleceń SSH. Dla niektórych klientów, SGI inżynieria personel uruchomić pracę jako usługa.

Within the cloud, SGI offers access to SGI ICE and SGI Rackable clusters running Intel Xeon processors as well as SGI UV shared memory systems, also running Intel Xeon processors. Interestingly, SGI notes that they have not seen any demand for GPU accelerators but can offer access to NVidia Tesla GPUs on request. Interconnects are either SGI NUMAlink or InfiniBand and are not virtualized. Customers can request a free trial access with which to test performance, as well as upload and download speeds.

W chmurze, SGI oferuje dostęp do ICE i SGI SGI montażu w szafach klastrów działających procesorów Intel Xeon oraz SGI UV wspólnych systemów pamięci, również z systemem Intel Xeon. Co ciekawe, zauważa, SGI, że nie widziałem żadnego zapotrzebowania na GPU akceleratory ale może zaoferować dostęp do graficznych NVIDIA Tesla na zamówienie. Połączenia są albo SGI NUMAlink lub InfiniBand i nie są wirtualne. Klienci mogą zamówić bezpłatny dostęp próbny, z którym do testowania wydajności, jak również przesyłać i prędkości pobierania.

In terms of storage, high-performance SGI Infinite Storage systems are available for scratch space and long-time archiving of customer data. No pricing information was given for storage. SGI provides a web-based user portal to run LS-DYNA and OpenFOAM that connects with Altair’s PBS Pro job scheduler. For other technical applications, SGI offers PBS Pro as the batch scheduler. Currently, SGI is exploring the option to allow SGI customers to cloud burst onto Cyclone. SGI did not provide any cost information for remote computation. In addition to compute cycles, SGI offers: operating systems and/or application configuration, application tuning, application running, and remote data visualization.

W zakresie przechowywania, wysokowydajne SGI Nieskończone Systemy magazynowe dostępne są miejsca na zarysowania i archiwizacji danych klientów długi czas. Brak informacji na temat ceny, dano do przechowywania. SGI zapewnia portalu internetowego użytkownika do uruchomienia LS-DYNA i OpenFOAM łączący PBS Altair Pro Job Scheduler. Dla innych zastosowań technicznych, SGI oferuje PBS Pro jako partii harmonogramu. Obecnie SGI bada opcję, aby zezwolić klientom SGI do Cloud pęknięcie na Cyclone. SGI nie dostarczyły żadnych kosztów informacje o zdalnym obliczeń. Oprócz obliczyć cykle, oferty SGI: Systemy operacyjne i / lub konfiguracja aplikacji, tuning aplikacji, aplikacja działa, i zdalne wizualizacji danych.

Gompute

The final company in this comparison is Gompute. However, they were not able to respond to my specific questions. The following information was found on their web page. Gompute provides CPU hours, storage, system administration, and support for HPC applications, including both open source and commercial. For commercial applications, users may either start a private license server at Gompute using the license key they get from an authorized reseller or allow the connection to their local license server. Gompute uses a pay-per-use model, whereby users get real-time information about their consumption for each job. This feature allows users to minimize their fixed costs, because the cost is proportional to the use of CPUs, storage, licenses, system support, and so on.

Ostateczna spółka w tym porównaniu jest Gompute. Jednak nie byli w stanie odpowiedzieć na moje konkretne pytania.Następujące informacje znaleźć na ich stronie internetowej. Gompute zapewnia godziny CPU, pamięć masową, administrowania systemem, oraz wsparcie dla aplikacji HPC, w tym zarówno open source i komercyjnych. Dla zastosowań komercyjnych, użytkownik może albo założyć prywatny serwer licencji na Gompute użyciu klucza licencyjnego oni uzyskać od autoryzowanego sprzedawcy lub zezwolić na połączenie z lokalnym serwerem licencji. Gompute używa pay-per-use model, za pomocą którego użytkownicy otrzymują w czasie rzeczywistym informacje o ich zużyciu dla każdego zadania. Ta funkcja pozwala na zminimalizowanie kosztów stałych, gdyż koszt jest proporcjonalny do wykorzystania jednostek centralnych, pamięci, licencje, wsparcie systemu, i tak dalej.

Gompute provides HPC services from computing farms located in Sweden and the United States. Both systems offer the same environment and are based on the Linux operating system. All clusters are based on x86-64 CPU architecture and InfiniBand interconnect. Storage alternatives include InfiniBand-enabled parallel filesystems. Shared and dedicated communication lines are available up to 1Gbps. The transport of data is also possible with the use of hardware-encrypted USB disks and a delivery service.

Gompute świadczy usługi HPC z farm komputerowych zlokalizowanych w Szwecji i Stanach Zjednoczonych. Oba systemy oferują tego samego środowiska i są oparte na systemie operacyjnym Linux. Wszystkie klastry oparte są na architekturze x86-64 CPU i połączenia InfiniBand. Alternatywy bagażu m.in. InfiniBand obsługą równoległych systemów plików. Wspólne i dedykowane linie komunikacyjne są dostępne do 1Gbps.Transport danych możliwe jest również przy użyciu sprzętu zaszyfrowanych dysków USB i spedytora.

Resource usage depends on users’ needs. The several alternatives include running jobs in a ready-to-use batch queue, buying a package of hours to be consumed within a predetermined time interval, reserving a fixed amount of CPU cores for a fixed period of time, or running on a pure batch queue. Users access Gompute resources through an encrypted connection and identify themselves using digital certificates. Users have access only to their data. SSH and SSL protocols are used to access Gompute.

Wykorzystanie zasobów w zależności od potrzeb użytkowników. Poszczególne alternatywy obejmują prowadzenie pracy w gotowy do użycia kolejki partii, kupując pakiet godzin do spożycia w określonym przedziale czasu, zachowując stałą ilość rdzeni procesora na określony okres czasu, lub działa na czystej partii kolejka. Użytkownicy mogą uzyskać dostęp Gompute zasoby poprzez połączenie szyfrowane i identyfikuje się przy użyciu cyfrowych certyfikatów. Użytkownicy mają dostęp tylko do swoich danych. SSH i SSL protokoły są używane do uzyskania dostępu Gompute.

Future Cloud Formations

Przyszłe formacje chmurowe

Given the varied requirements for HPC clouds, it is understandable that the range of options can vary greatly. Solutions range from shared remote clusters to full virtualized systems in the cloud. Each method brings its own feature set that must be matched to the users’ needs.

Ze względu na zróżnicowane wymagania HPC chmur, jest zrozumiałe, że zakres możliwości może być bardzo różna. Rozwiązania w zakresie od udostępnionych zdalnych klastrów do pełnych zwirtualizowanych systemów w chmurze. Każda metoda przynosi własny zestaw funkcji, które muszą być dostosowane do potrzeb użytkowników.

Finally, the above items are not intended to be an exhaustive list of HPC cloud providers. Others exist, and given that the market is new and growing, more vendors will be coming online in the near future. Many other factors should also be considered besides the brief analysis offered here. Your best results will come from doing due diligence and testing your assumptions. Perhaps the most important aspect of cloud HPC is the ability to work with your vendor, because having a good working safety net under your cloud might be the best strategy of all.

Wreszcie, powyższe elementy nie są przeznaczone do wyczerpującej listy HPC dostawców cloud. Inne istnieją, i biorąc pod uwagę, że na rynku jest nowy i rosnący, więcej sprzedawców będzie przychodził online w najbliższej przyszłości. Wiele innych czynników, które należy rozważyć oprócz krótkiej analizy oferowane. Wasze najlepsze wyniki będą pochodzić z robić z należytą starannością i testowania założeń. Być może najważniejszym aspektem cloud HPC jest umiejętność pracy z dostawcą, ponieważ o dobre zabezpieczenie roboczą pod chmury może być najlepszą strategią wszystkich.

Info

[1]A Performance and Cost Analysis of the Amazon Elastic Compute Cloud (EC2) Cluster Compute Instance” by Fenn, M., Holmes, J., Nucclarone, J., and Research Computing and Cyberinfrastructure Group, Penn State University

[1] "Wydajność i analiza kosztów w Amazon Elastic Compute Cloud (EC2) Cluster Compute Instance" przez Fenn, M., Holmes, J., Nucclarone, J., and Computing Badań i Grupy Cyberinfrastructure, Penn State University




Wyszukiwarka

Podobne podstrony:
c jdax01 Journey to the Cloud
Bring the cloud to your datacenter Microsoft Azure Stack
Guide to the properties and uses of detergents in biology and biochemistry
Bo Strath A European Identity to the historical limits of the concept
A Guide to the Law and Courts in the Empire
An Introduction to the Kabalah
5A,[ To the top 3
dos passos rosinante to the road again
19 Trauma to the Spine
The Dirty Truth?out The Cloud And The Digital Age
excercise1 Many Italians immigrated to the United States and?nada
a sociological approach to the simpsons YXTVFI5XHAYBAWC2R7Z7O2YN5GAHA4SQLX3ICYY
Note to the partner
TOU Flo Fly To The Blue Mai 11
Fascia in the Abdominal Wall to the Thigh KT method
Jouni Yrjola Easy Guide to the Classical Sicilian (feat Richter Rauzer and Sozin Attacks)
Controlling Immigration to the U S
Reasons for English Immigration to the Americas
The Renaissance Transformation to the Modern World and Gov

więcej podobnych podstron