Ein Leitfaden zu cloudbasierten HPC-Lösungen und Big Data-Analysen Ein Leitfaden zur Hochleistungsdatenverarbeitung (HPC) „Die HPC-Community hat ein seit langem bestehendes Interesse an der Erstellung von Umgebungen mit horizontaler Skalierung zum Ausführen von durchsatzorientierten und parallel verwalteten Rechenlasten. Sowohl große Umgebungen (z. B. Cloud-Computing-Einrichtungen) als auch Rechenlasten mit horizontaler Skalierung (z. B. Big Data) werden immer wichtiger im Unternehmen. Mit dem Zuwachs an Big Data sowie dem Aufkommen von erschwinglichen, leistungsstarken Clustern und Strategien, die CommoditySysteme für Anwendungen mit horizontaler Skalierung nutzen, schaut die Enterprise-Datenverarbeitungsumgebung heute stark nach HPC aus.“ – Andrew Nelson, VMware bei VMworld 2014* * VMworld 2014: Virtualized HPC as a Service, Andrew Nelson, Referent. http://www.youtube.com/watch?v=ssAOdZehULU. 2 Mit der Nutzung von Big Data liefert Dell Cloud Solutions Antworten auf viele Fragen von Unternehmen und Forschern. HPC hilft beim Entwerfen, Testen und Fliegen von Flugzeugen, bevor sie physisch gebaut werden. Wir können gefährliche Wetterkonstellationen simulieren und Leben retten, indem wir Frühwarnsysteme erstellen. Wir können sogar virtuelle Crash-Tests für Automobile durchführen, mit Wänden voller Monitore und Computeralgorithmen. Die Hochleistungsdatenverarbeitung (High Performance Computing, HPC) ist inzwischen zum Rückgrat der Wissenschaft und Produktentwicklung geworden. Diese bahnbrechende Datenverarbeitungsleistung ist ein absolut unerlässliches Tool für Wissenschaftler, Akademiker und moderne Forscher. Überall auf der Welt verwenden IT-Abteilungen cloudbasierte HPCLösungen von Dell Services, um eine maximale Datenverarbeitungsleistung durch die Nutzung von standardbasierten getesteten und validierten Technologien zu ermöglichen. Geschäftszweigen erschwingliche HPCTools und strategische Vorteile. Der Ansatz von Dell Services für Hochleistungsdatenverarbeitung Dell ist sich der Tatsache bewusst, dass jeder Kunde einzigartige Bedürfnisse und Anforderungen hat. Unser individuell angepasster HPC-Ansatz ist auf drei Bereiche ausgerichtet, um Folgendes zu ermöglichen: Schnellere Erzielung von Ergebnissen durch Unterstützung von Forschungasktivitäten und Fördern der Entwicklung geistigen Eigentums mithilfe von Bare-Metal-Systemen. Cloudbasierte Bare-Metal-Konfigurationen, virtualisierte cloudbasierte Lösungen, die AWS oder Google Cloud Platform verwenden. Wir bieten einen Mehrwert, indem wir hoch flexible Bedingungen, Support und Dell Cloud Manager für Google und Amazon Web Services (AWS) für hybrides CloudManagement bieten. Dell Cloud Manager Auf diese Weise können sich visionäre Wissenschaftler weltweit auf ihre Arbeit konzentrieren: Entdeckungen machen, die die Welt verändern. HPC-Technologie jetzt für jeden erschwinglich Bis vor Kurzem war die Hochleistungsdatenverarbeitung noch ausschließlich Spezialisten mit entsprechend teuren, proprietären Systemen vorbehalten. Mittlerweile bieten Commodity-basierte Infrastrukturlösungen und cloudbasierte Lösungen allen Forschungsorganisationen oder Dell Cloud Manager ist Software zur Verwaltung von Cloud-Infrastrukturen, die Ihnen dabei hilft, den Verbrauch Ihrer Cloud-Services zu verwalten und gleichzeitig Enterprise-Anwendungen in der Cloud bereitzustellen und zu verwalten. Cloud Manager stellt eine Verbindung zu Ihren bestehenden CloudKonten her und bietet eine einheitliche zentrale Verwaltungskonsole, über die Sie alle Aktionen innerhalb der Cloud Ein Leitfaden zur Hochleistungsdatenverarbeitung (HPC) steuern können. Cloud Manager bietet die sichere Verwaltung Ihrer CloudRessourcen, einschließlich differenzierter rollenbasierter Zugriffssteuerungen und Budgetkontrollen für alle Ressourcen, mit der Fähigkeit, Quoten zur Beschränkung von Budgets festzulegen. Bestehende GovernanceRichtlinien können über unsere Anwendungsprogrammierschnittstelle (API), Schlüsselverwaltung und Verschlüsselung auf einfache Weise auf die Cloud erweitert werden, einschließlich Integration in Lightweight Directory Access Protocol (LDAP), Active Directory und Security Assertion Markup Language (SAML). Und die zentralisierte Verwaltung von Ressourcen über alle Clouds oder Cloud-Konten hinweg macht die Überwachung und Berichterstattung wesentlich einfacher als die Nachverfolgung in verteilten Systemen. Sicherheit Cloudbasierte HPC- und Big DataAnalysen von Dell sind sicher. Wir arbeiten mit jedem Kunden zusammen, um diese Probleme zu beheben und für die Sicherheit ihrer Daten zu sorgen. Sichere Datenmigration R Systems kann Daten vom Datenträger oder Band laden. Die Zusammenarbeit mit Google stellt eine ausgezeichnete Methode dar, um große Datenmengen global über Googles Dark-Fiber-Backbone zu verschieben. Datenmigration an Amazon Web Services (AWS) kann mithilfe unterschiedlicher Methodologien erreicht werden. 3 Beantwortete Fragen zur HPC-Technologie von Dell Probleme Wahrnehmung Überlastung der Datenverarbeitungsressourcen bei saisonalen Nachfragespitzen • Negative Kundenerfahrung aufgrund von langsamen Reaktionszeiten der Webseite • An Wettbewerber entgangene Geschäftsabschlüsse • Systemausfälle belasten IT-Personal aufgrund von überlasteten ServerRechenlasten Zeitaufwendige Bereitstellung von IT-Ressourcen • Verzögerte Markteinführungszeit für Anwendungen reduziert den Wettbewerbsvorteil • Vom Unternehmen wahrgenommene Ineffizienzen von IT-Mitarbeitern Schwache Nutzung von virtualisierten Servern Einfrierung oder Kürzungen von ITInvestitionen Cloudbasierte Hochleistungsdatenverarbeitung von Dell • Schnelles Erhöhen oder Reduzieren der Kapazität • Senkung der anwendungsbezogenen Betriebskosten • Schneller Zugriff auf alternative Rechenzentrumsressourcen, wenn zusätzliche Kapazitäten erforderlich sind • Automatisierung wichtiger Bereitstellungsaufgaben • Ermöglichen der Self-ServiceBereitstellung von Servern durch die Geschäftsendbenutzer • Hohe Infrastrukturkosten, die dem Unternehmen in Rechnung gestellt werden oder sich direkt auf das CIOBudget auswirken • Schnellere Anwendungsbereitstellung • Suboptimale Preise/Leistung der Datenverarbeitung • Minimieren von vorab anfallenden Investitionsanforderungen und Risikoressourcen • Unflexible Infrastruktur erfordert Images zur Wahrung der Konsistenz • Begrenzte Funktionen verhindern eine dynamische Neuzuordnung • Verwaltungs- und Überwachungstools zur automatischen Neuzuweisung der Leistung und Nutzung von Serverbereitstellungen • U nfähigkeit, neue Server und Storage zu beschaffen, um die Datenverarbeitungsanforderungen zu erfüllen • Hilft Ihren Kunden beim Übergang von einem Investitionskosten- zu einem Betriebskostenmodell • Fehlende Geldmittel zur Untersuchung neuer Technologien, die zu einem Wettbewerbsvorteil führen können • Nutzen von öffentlichen CloudRessourcen zur Bereitstellung größerer Rechenzentrumskapazitäten und/oder zur Notfall-Wiederherstellung • Verlagerung der Kosten-NutzenEntscheidungen auf das Unternehmen • Ermöglicht Ressourcenumverteilung von betriebsbezogenen Aufgaben auf strategische Geschäftsziele • Förderung der Umweltagenda durch erhöhte Energieeffizienz im Rechenzentrum Leistungsstarke Maximierung der Rechenressourcen • Datenverarbeitungsressourcen sind kostenintensiv und erfordern hohe Investitionen und einen hohen Wartungsaufwand Ein Leitfaden zur Hochleistungsdatenverarbeitung (HPC) • Profitieren von den Vorteilen einer leistungsstarken und schnellen Datenverarbeitung ohne Ausgaben • Fokus auf das eigentliche Geschäft, nicht auf die Wartung von Hardware 4 Dell Bare-Metal-Hochleistungsdatenverarbeitung mit R Systems Dell HPC Cloud mit R Systems Service wurde für die Bereitstellung einer sicheren, privaten Cloud-Umgebung entworfen, gehostet und verwaltet von Dell und R Systems, einem HPC Solutions Partner. Die HPCInfrastruktur besteht aus Dell Kapazitäten für Verarbeitung, Leistung, Storage und Speicher. R Systems bietet einwandfreie HP Services mit benutzerdefinierten Lösungen an von Ihnen gewünschten Standorten, einschließlich unternehmenseigenen Rechenzentren in Champaign, Illinois, an der Universität von Illinois Research Park. R Systems bietet vollständige hardwarebasierte Dell Systeme sowie kundenspezifische Projekte/ Konfigurationen basierend auf individuellen Geschäftsanforderungen. Dell Bare-MetalService ist nur in Nordamerika verfügbar. • Große Kern-Cluster mit der Option einer Infiniband-Verbindung • Große Speicherkonfigurationen, verfügbar für speicherintensive Rechenlasten • Benutzersupport für alle Wissensebenen (von Anfänger bis erfahren) Umfang dieses Service • Unterstützen von Forschern und verbesserte Zusammenarbeit Wenn Sie ein Forschungs- oder Geschäftsunternehmen sind, das vertrauliche Daten oder Hochleistungsanwendungen bei einem Cloud-Anbieter hosten möchte, benötigen Sie architektonische Optionen, die nicht über standardmäßige öffentliche oder mandantenfähige Cloud-Services verfügbar sind. Unser Service bietet eine höhere Flexibilität als die öffentliche Cloud, da er Ihre Fähigkeit zum Betreiben von Produktionsrechenlasten verbessert, die anderenfalls auf den maßgeschneiderten VorOrt-Betrieb in einer gehosteten privaten Cloud begrenzt wäre. Serviceumfang: • Individuell anpassbare Burst-Kapazität oder kurzfristige HPC-Kapazität, die als Betriebsausgabe in 24-Stunden-Schritten bereitgestellt wird. • Anpassbare Sicherheit für öffentliche und private Cloud • Einfach einzurichtender Zugriff • Verfügbar für Linux und Windows • Fundierte Erfahrung mit einer Vielzahl von unabhängigen Softwareanbietern (ISV), wie z. B. ANSYS, CD- adapco, Milliman und Simulia Vorteile: • Niedrige technische Barriere zur Hochleistungsdatenverarbeitung über Burst-Modelle • Eine einzige Schnittstelle für mehrere Cluster verwenden. Die Bursting-Fähigkeit Öffentliche Cloud-Ressourcen helfen Ihnen beim: • Beheben von sporadischen Verarbeitungsspitzen, die die lokale Kapazität übersteigen. • Verwenden von mehreren Beriebssystemen und Anwendungen. Hosting und Verwaltung • Domänenspezifisch (z. B. eine GenomCloud) für Forscher, die: • Ihre Daten, die Daten ihrer Mitarbeiter und Referenzdaten an einem zentralen Standort zur Verarbeitung haben möchten. • Zugriff auf Hochleistungsdatenverarbeitung benötigen. • Intensivieren der Nutzung von CloudRessourcen in Institutionen • Nutzungsbasierte Bezahlung für Ressourcen durch On-Demand-CloudComputing • Reduzieren des Kapitaleinsatzes und der Gesamtbetriebskosten (TCO) • Nutzen der Agilität und der Effizienzen der Cloud • Profitieren von einem ausgezeichneten Benutzersupport mit erstklassig ausgebildeten und erfahrenen Technikern von R Systems Die Services Wenn Sie eine private Cloud über bestehende individuelle Cluster erstellen, können Sie: • Ressourcen zusammenlegen. • Ungenutzte Zyklen auf separaten Clustern freigeben. Ein Leitfaden zur Hochleistungsdatenverarbeitung (HPC) Weitere Informationen zu R Systems und deren „White Glove“-Ansatz für Hochleistungsdatenverarbeitung finden Sie unter Dell bare metal hpc auf youtube.com 5 Google Cloud Platform Google Cloud Platform basiert auf 14 Jahren Erfahrung, in denen Google die schnellste, leistungsstärkste und hochwertigste CloudInfrastruktur auf dem Planeten geschaffen hat. Google unterstützt Google – und das bedeutet einige der größten, hochverfügbarsten Softwareprodukte, die jemals entwickelt wurden. Mit der Cloud-Plattform können auch Sie von dieser Leistung profitieren. Durch Verwendung der Cloud-Plattform nutzen Sie die gleiche Infrastruktur, die Google zur Ausführung von kritischen Aufgaben verwendet, wie z. B. Suchvorgänge, Dokumente und Gmail. Falls Sie dieses Angebot noch nicht kennen – es ist extrem einfach strukturiert. Es werden eine Vielzahl von Methoden zur effektiven Durchführung von Datenverarbeitungsaufgaben bei hoher Skalierung, Speicherung von Daten und Entwicklung von Software zur Verfügung gestellt. Google Cloud Platform besitzt die Fähigkeit, Daten innerhalb von Millisekunden zu verarbeiten. Google Cloud Platform besteht aus einer Reihe von Produkten, je jeweils eine Webschnittstelle, ein Befehlszeilentool und eine REST-API umfassen. • Google App Engine ist eine Platformas-a-Service-Komponente für isolierte Webanwendungen. App Engine ermöglicht eine automatische Skalierung, indem Ressourcen entsprechend der Serverlast erhöht werden. • Google Compute Engine ist die Infrastructure-as-a-Service-Komponente von Google Cloud Platform, die es Benutzern ermöglicht, virtuelle Maschinen (VMs) bei Bedarf zu starten. • Google Cloud Storage ist ein OnlineStorage-Service für Dateien. • Google Cloud Datastore ist ein vollständig verwalteter, hoch verfügbarer NoSQL-DatenStorage für nicht-relationale Daten, der eine REST-API umfasst. • Google Cloud SQL ist eine vollständig verwaltete MySQL-Datenbank, die in der Google Cloud-Infrastruktur enthalten ist. • Google BigQuery ist ein Datenanalysetool, das SQL-ähnliche Fragen zum Verarbeiten von großen Datensätzen in Sekunden verwendet. • Google Cloud Endpoints ist ein Tool zum Erstellen von Services innerhalb von App Engine, das auf einfache Weise über iOS, Android und JavaScript-Clients verbunden werden kann. Google Cloud DNS ist ein Domain Name System (DNS)-Service, der in der Google Cloud-Infrastruktur gehostet wird. Ein Leitfaden zur Hochleistungsdatenverarbeitung (HPC) Beispielsweise bietet Google Genomics eine API zum Speichern, Verarbeiten, Untersuchen und Freigeben von DNA-Sequenz-Lesevorgängen, referenzbasierten Alignments und Variant Calls über die Cloud-Infrastruktur von Google. Google Genomics hilft Forschern bei folgenden Aufgaben: • Speichern von Alignments und Variant Calls für einen oder eine Million Genome • Stapelweise Verarbeitung von Genomdaten durch die Ausführung einer prinzipalen Komponentenanalyse oder eines HardyWeinberg-Gleichgewichts, in Minuten oder Stunden, indem parallele ComputingFrameworks wie MapReduce verwendet werden. • Untersuchen von Daten durch die Segmentierung von Alignments und Varianten nach Genombereich über ein oder mehrere Muster hinweg – für Ihre eigenen Algorithmen oder zur Visualisierung. Sie können mithilfe von BigQuery auch ganze Gruppen verarbeiten, um Transitions-/ Transversionsverhältnisse, allelische Frequenzen, genomweite Zuordnungen usw. zu ermitteln. • Freigeben von Genomdaten an Ihre Forschungsgruppe, Ihre Mitarbeiter, der breiten Community oder der Öffentlichkeit. Sie haben die Wahl. 6 Google Genomics implementiert die von der Global Alliance for Genomics and Health definierte API für Virtualisierung, Analyse usw. Über kompatible Software kann auf Google Genomics, lokale Server oder sonstige Implementierungen zugegriffen werden. Aus einer geschäftlichen Perspektive aus betrachtet analysiert die Lösung Big Data, um einen Überblick über Data Warehouses oder andere Speicherorte zu erlangen, an denen sich die Daten befinden. Google Cloud Plattform ist ein Payas-you-go-Service. BigQuery wird projektbasiert abgerechnet, wodurch Geschäftsbereiche einfach verrechnet werden können. Google bietet einen Preisrechner, der die Kosten in Verbindung mit Google Cloud Platform veranschaulicht. Dell Cloud Manager ist Voraussetzung für die Verwendung von Google Cloud Manager. Es ist eine umfassende Präsentation zu Google Cloud Manager und Dell verfügbar. C3-Instanzen bieten Ihnen im Vergleich zu allen anderen Amazon EC2-Instanzen die Prozessoren mit der höchsten Leistung und dem niedrigsten Preis pro Datenverarbeitungsleistung. I2-Instanzen sind für äußerst E/Aintensive Rechenlasten konzipiert. Der größte I2-Instanzentyp kann über 365.000 zufällige Lesevorgänge pro Sekunde und über 315.000 zufällige Schreibvorgänge pro Sekunde liefern. AWS empfiehlt die Verwendung von C3-Instanzen für rechenintensive Anwendungen und I2-Instanzen für transaktionale Systeme. Google Cloud Platform Datenverarbeitungslösungen • Compute Engine: Ausführen von großen Rechenlasten auf virtuellen Maschinen mithilfe von Infrastructure-as-a-Service (IaaS) • App Engine: Einfaches Entwickeln Ihrer Anwendungen mithilfe von integrierten Services in Ihrem Platform-as-aService-Tool StorageLösungen • Cloud SQL: Speichern und Verwalten von Daten mithilfe einer vollständig verwalteten, relationalen MySQL-Datenbank • Cloud Storage: Verwenden eines beständigen und hoch verfügbaren Objektspeicherservice • Cloud Datastore: Bietet eine verwaltete schemalose NoSQLDatenbank zum Speichern von nicht-relationalen Daten Ein Leitfaden zur Hochleistungsdatenverarbeitung (HPC) Big DataLösungen • BigQuery: Analysieren von Big Data in der Cloud. Senden von schnellen SQL-Abfragen an Datensätze mit mehreren Terabyte in Sekunden. EntwicklerTools • Cloud SDK: Enthält Tools und Bibliotheken, mit denen Sie Ressourcen in unserer Cloud-Plattform erstellen und verwalten können • Push to Deploy: Verwenden des Git-Version-Kontrollsystems zur automatischen Bereitstellung Ihrer Anwendung in unserer App Engine • Cloud Playground: Ausführen von Services wie App Engine, Cloud Storage und Cloud SQL über Ihren Browser • Android Studio: Hinzufügen unserer Cloud-Plattform als Backend zu Ihrer Anwendung – direkt über Android Studio IDE • Plugin für Eclipse: Bietet Tools, API-Unterstützung und einfache Bereitstellung für App Engine Java-Entwicklern. 7 Amazon Web Services – Hochleistungsdatenverarbeitung Uneingeschränkte Infrastruktur Niedrige Kosten bei flexiblen Preisen Beschleunigte Bereitstellung von Lösungen TOP500: Platz 76 der schnellsten bedarfsorientierten Supercomputer Effiziente Cluster Hun 2014 Liste der Top 500 484,2 FLOPS 26,496 Kerne in einem Cluster von EC2 C3 Instanzen Intel Xeon E5-2680v2 10C Prozessoren mit 2,800 GHz LinPack Benchmark Verstärkte Kooperation Datenverarbeitungsservices Elastic Compute Cloud (EC2) Basiseinheit der Datenverarbeitungskapazität, CPUBereiche virtueller Maschinen. Auswahl c3 8x groß von Arbeitsspeicher- und lokalen g2. mittel Festplattenoptionen von Instanztypen, m3. groß von Mikro- bis Clustercomputer Gleichzeitige bedarfsorientierte Cluster Amazon Web Services ist eine Lösung zum Beheben von komplexen wissenschaftlichen, technischen und geschäftlichen Problemen anhand von Anwendungen, die eine hohe Bandbreite, Netzwerke mit niedriger Latenz und sehr hohen Datenverarbeitungsfähigkeiten erfordern. Mit Amazon Web Services können Forschungaktivitäten durch Ausführung von Hochleistungsdatenverarbeitung in der Cloud und Kosten reduziert werden, indem Cluster-Datenverarbeitung oder Cluster-GPU-Server bedarfsgemäß und ohne große Anfangsinvestitionen bereitgestellt werden. Der Zugriff auf ein Netzwerk mit hoher Bandbreite für eng aneinander gekoppelte E/O-intensive Rechenlasten ermöglicht Ihnen die Skalierung von Tausenden von Kernen für durchsatzorientierte Anwendungen. Hochleistungsdatenverarbeitung (HPC) unter Amazon Elastic Ein Leitfaden zur Hochleistungsdatenverarbeitung (HPC) Compute Cloud (EC2) wird durch die Cluster-Computing-optimierten and GPU-Instanztypen (virtuellen Maschinen) ermöglicht. Sie können sie genauso wie andere EC2Instanzen verwenden, doch wurden sie speziell zur Bereitstellung von Hochleistungsnetzwerken entwickelt, sodass bei Bedarf auf Tausende von Instanzen skaliert werden kann. 8 GPU-Instanzen eignen sich hervorragend für Folgendes: • Grafische Anwendungen zur Hochleistungsdatenverarbeitung, einschließlich 3D-Modellierung und -Simulation • Datenverarbeitungs-Rechenlasten, einschließlich Computerchemie, Finanzanalysen und technisches Design • Allgemeiner Zweck der GPUDatenverarbeitung GPU-Instanzen von Amazon Web Services bieten Zugriff auf NVIDIA-GPUs, jeweils mit bis zu 1.536 Compute Unified Device Architecture (CUDA)-Kernen und 4-GB-Videospeicher. Mit den neuesten Treiberversionen bieten diese GPUs Unterstützung für OpenGL, DirectX, CUDA, OpenCL und GRID SDK. Cluster-Gruppen können in einer Platzierungsgruppe gestartet werden. Alle innerhalb einer Platzierungsgruppe gestarteten Instanzen haben eine niedrige Latenz, volle Halbierung und 10 Gbit/s Bandbreite zwischen Instanzen. Platzierungsgruppen sind wie viele andere Amazon EC2Ressourcen dynamisch und bei Bedarf flexibel skalierbar. Sie können auch mehrere Platzierungsgruppen miteinander verbinden, um sehr große Computing Cluster für eine massive parallele Verarbeitung zu erstellen. AWS unterstützt derzeit erweiterte Netzwerkfunktionen mithilfe von Single-Root-E/A-Virtualisierung (SR-IOV) für die C3- und I2Instanztypen. SR-IOV ist eine Methode der Gerätevirtualisierung, die eine höhere E/A-Leistung und niedrigere CPU-Auslastung im Vergleich zu herkömmlichen Implementierungen bietet. Für unterstütze Amazon EC2Instanzen bietet diese Funktion eine höhere PPS-Leistung, eine niedrigere Latenz zwischen Instanzen und minimale Netzwerkschwankungen. AWS bietet zahlreiche Preismodelle zur Unterstützung unterschiedlicher Rechenlasten, wie z. B. „Bedarfsorientiert“, „Reserviert“, „Kassapreis“ und „Dediziert“. Erhalten Sie weitere Informationen zur cloudbasierten Hochleistungsdatenverarbeitung von HPC. Klicken Sie hier, um eine vollständige Einführung in Amazon Web Services zu lesen. Viele Preismodelle zur Unterstützung unterschiedlicher Rechenlasten Bedarfsorientiert Reserviert Kassapreis Dediziert Zahlen Sie nur für die pro Stunde genutzte Datenverarbeitungskapazität ohne langfristige Verpflichtungen. Tätigen einer niedrigen einmaligen Zahlung und Erhalten eines bedeutenden Preisnachlasses auf die stündlichen Gebühren Bieten auf ungenutzte Kapazität, verrechnet zu einem Kassapreis, der basierend auf Angebot und Nachfrage fluktuiert Starten von Instanzen mit Amazon VPC auf Hardware, die für einen einzelnen Kunden dediziert ist Für Rechenlasten mit Spitzenlasten oder zum Definieren von Anforderungen Für eine feste Nutzung Für zeitintensive oder vorübergehende Rechenlasten Für hochsensible oder Compliance-bezogene Rechenlasten Ein Leitfaden zur Hochleistungsdatenverarbeitung (HPC) 9 Dell Partner-Garantie Dell ist sich bewusst, dass Cloud-Preise veränderlich sind. Und wenn der Preis einer Komponente des von einem Partner bereitgestellten Service fällt, spiegeln sich diese Kosteneinsparungen umgehend in Ihrer Rechnung wider. Unabhängig davon, welche Partner verwendet werden, erhalten Sie alle 30 Tage eine einzige Rechnung über die genutzten Dell Services. Bietet das umfangreichste Cloud-Ökosystem der Branche Globale Präsenz Mehrere CloudPlattformen Proprietär | Microsoft | VMware | OpenStack | CloudStack Die bekanntesten Anwendungsfälle Vertikale Anwendungen | NotfallWiederherstellung | ERP und CRM | Webinfrastruktur mit horizontaler Skalierung| Testen und Entwicklung| Produktivitätsanwendungen | Datenverarbeitungsanalyse Dell Cloud Services vor Ort und dedizierte Services Weitere Informationen zu den Service-Angeboten finden Sie unter Dell.com/services oder beim zuständigen Dell Mitarbeiter. Scannen Sie diesen Code oder klicken Sie darauf, um zu erfahren, wie Dell Services Ihr Unternehmen unterstützen kann. Die Verfügbarkeit der Produkte und Services ist je nach Land unterschiedlich. Weitere Informationen erhalten Kunden und Dell Channel-Partner von dem für sie zuständigen Vertriebsmitarbeiter. Alle Angaben sind zum Zeitpunkt der Veröffentlichung korrekt, können jedoch jederzeit ohne Vorankündigung geändert werden und unterliegen der Verfügbarkeit. Dell und Tochterunternehmen von Dell haften nicht für Druckfehler, fehlerhafte Abbildungen oder Auslassungen. Es gelten die allgemeinen Verkaufs- und Servicebedingungen von Dell, die auf Anfrage erhältlich sind. Dell und das Dell Logo sind Marken von Dell Inc. Alle anderen in diesem Dokument verwendeten Marken und Handelsnamen stehen entweder für den jeweiligen Eigentümer oder für dessen Produkte. Dell erhebt keinerlei Anspruch auf Eigentumsrechte an den Marken und Handelsnamen Dritter. © 2014 Dell Inc. Alle Rechte vorbehalten. Oktober 2014 | D468-A Guide to HPC Cloud based solutions.indd | Rev. 1.0