Artikel als PDF anzeigen

Werbung
ITMAGAZINE
Die richtige Wahl der Serverplattform
18. August 2006 - Dem 64-Bit-Computing gehört die Zukunft – darin sind sich alle Experten einig. Doch «64 Bit» ist nicht
gleich «64 Bit». Es existieren verschiedene industriestandardbasierende Serverplattformen mit durchaus unterschiedlichen Techniken: So ist
zwischen Prozessoren mit 64-Bit-Erweiterungen einerseits und «echten» 64-Bit-CPUs zu diffenzieren. Der auf den ersten Blick
geringe Unterschied hat enorme Auswirkungen auf die Leistungsdaten der IT-Infrastruktur. Auf dem Markt der Serversysteme ist die Auswahl der angebotenen Prozessoren breit gestreut: Sie reicht von
x86-basierenden Chips von Intel (Xeon) und AMD (Opteron) mit oder ohne 64-Bit-Erweiterungen bis hin zu
Intel-Itanium-2-CPUs. Darüber hinaus sind auch Server mit sogenannten PA-RISC- oder Alpha-Prozessoren sowie proprietäre
Lösungen diverser Anbieter verfügbar. Unternehmen, die auf eine Industriestandard-basierende 64-Bit-Architektur setzen
möchten, haben derzeit die Wahl zwischen zwei Anbietern: AMD und Intel.
Mit den AMD-Opteron- und den Intel-Xeon-Prozessoren offerieren beide Hersteller ähnliche CPUs, die auf der bekannten
x86-Architektur aufbauen. Diese verfügen im Kern über eine Bandbreite von 32 Bit. Durch Erweiterungen sind die neueren
Modelle jedoch in der Lage, auch 64-Bit-Anwendungen auszuführen. Sie sind somit zum Beispiel für den Betrieb der
64-Bit-Versionen von Windows oder Linux geeignet. Darüber hinaus verfügt Intel auch über einen reinen 64-Bit-Prozessor,
den Itanium, der mittlerweile in der vierten Generation auf dem Markt ist. Durch den grundlegend anderen Aufbau der
Architektur existieren hier – im Gegensatz zu AMD Opteron und Intel Xeon – keinerlei Beschränkungen, die noch aus der
32-Bit-Ära übernommen wurden. So lassen sich im 64-Bit-Computing beispielsweise auch grosse Bereiche des physikalischen
Speichers direkt adressieren – bei 32-Bit-Systemen ist dieser Zugriff auf rund 4 GByte begrenzt. Kann ein Prozessor auf mehr
Arbeitsspeicher direkt zugreifen, muss er seltener auf Daten warten, die zum Beispiel von vergleichsweise langsamen
Festplatten kommen – die Verarbeitungsgeschwindigkeit steigt dadurch zusätzlich.
Die technischen Grundlagen
Der Itanium-Prozessor verfügt im Kern nicht nur über die doppelte Bandbreite, sondern im Vergleich zu seinen Konkurrenten
auch über eine gänzlich unterschiedliche Methodik bei der Verarbeitung von Rechenaufträgen. x86-Prozessoren mit ihrer
CISC-Architektur (Complex Instruction Set Computer) verarbeiten Befehle sequenziell. Hier müssen alle anstehenden Aufträge
«in der Schlange stehen» und warten, bis die vorherigen Befehle verarbeitet sind. Darunter leidet die Leistungsfähigkeit –
speziell bei komplexen Berechnungen. Dagegen setzt Intel beim Itanium auf die parallele Verarbeitungsmethodik EPIC
(Explicitly Parallel Instruction Computing): Der Prozessor kann mehrere Berechnungen zeitgleich ausführen. Davon profitieren
insbesondere Anwendungen, die komplexe und umfangreiche Berechnungen erfordern. Die Voraussetzung dafür ist jedoch,
dass die Applikationen für Itanium geeignet (kompiliert) sind. Dies sind mittlerweile rund 8500 Programme aller namhaften
Hersteller. Darüber hinaus verfügt der Itanium in der neuesten Version über 24 MByte internen Cache – deutlich mehr als
andere Prozessoren.
Der Trend hin zu Prozessoren mit mehreren Kernen (Multi-Core) sorgt inzwischen dafür, dass auch x86-CPUs Aufträge parallel
bearbeiten können – allerdings jeweils nur einen pro Kern. Bei den mittlerweile verfügbaren Dual-Core-Systemen ist somit die
Anzahl der gleichzeitig durchgeführten Aufträge auf zwei begrenzt. Die seit Ende Juli 2006 verfügbare neuste Generation der
Itanium-Prozessoren («Montecito») geht noch einen Schritt weiter: Die CPU hat nicht nur einen Multi-Core-Aufbau, sondern ist
darüber hinaus auch Multi-Thread-fähig. Unter Multi-Threading versteht man das parallele Verarbeiten mehrerer Abläufe
(Threads) in einem einzigen Programm. So ist beispielsweise ein Server mit Dual-Core-CPUs und Dual-Thread-Funktion in der
Lage, vier Programmabläufe je Prozessorsockel gleichzeitig zu verarbeiten.
Die Unterschiede zwischen AMD Opteron und Intel Xeon einerseits sowie Intel Itanium andererseits beschränken sich nicht nur
auf die sequenzielle oder parallele Berechnung. Auch bei den Faktoren Verfügbarkeit und Rechengenauigkeit existieren
deutliche Differenzierungen. Im Gegensatz zu den kostengünstigeren x86-Prozessoren ist die Itanium-Plattform konsequent
für höchstmögliche Ausfallsicherheit konzipiert. Die technische Grundlage dafür bilden redundante Baugruppen, die bereits auf
Prozessorebene dafür sorgen, dass der Ausfall einer Komponente den Geschäftsbetrieb nicht beeinträchtigt. In Kombination
mit dem Clustering zweier oder mehrerer solcher Server lässt sich so die Hochverfügbarkeit der IT gewährleisten. Daher bildet
diese Plattform auch die Grundlage für so genannte Nonstop-Systeme, die für den Betrieb geschäfts- und sicherheitskritischer
Anwendungen eingesetzt werden. Dagegen erreicht der Anwender bei Xeon- und Opteron-basierenden Infrastrukturen eine
möglichst hohe Verfügbarkeit der Systeme in erster Linie lediglich durch das Clustern mehrerer Server. Die Ausfallsicherheit
wird hier faktisch durch die Duplizierung ganzer Server erreicht. Ein weiterer Aspekt ist die Rechengenauigkeit: Aufgrund seiner Architektur weist der Itanium hier ein sehr hohes Mass auf.
Um ähnlich exakte Ergebnisse mit x86-basierenden CPUs in der gleichen Zeit zu erreichen, müssten mehrere solcher Systeme
parallel geschaltet werden.
Die Skalierbarkeit stellt ein weiteres Unterscheidungskriterium dar: Der Ausbau der Serverinfrastrukturen bei x86-basierenden
Lösungen erfolgt per «Scale out». Hierbei werden einfach zusätzliche Server parallel geschaltet, um die benötigte
Rechenleistung bereitzustellen. Dagegen lassen sich Itanium-basierende Systeme bei Bedarf über zusätzliche Prozessoren
aufrüsten. So sind beispielsweise Server der Baureihe HP Integrity mit bis zu 128 Prozessorsockeln ausgestattet. Die
Skalierung kann hier einfach innerhalb bestehender Servergehäuse erfolgen («Scale up»). Daher stellt sich für viele
Unternehmen die Frage, was letztendlich für sie effizienter ist: ein oder mehrere «grosse» Server mit echten
64-Bit-Strukturen oder doch eine mehrfache Anzahl «kleiner» Server mit Intel-Xeon- oder AMD-Opteron-Prozessoren.
Servervirtualisierung
Um einen effizienten Serverbetrieb zu ermöglichen, ist eine flexible Ressourcenzuteilung der Rechenleistung meist ein
probates Mittel. Unternehmen führen dabei ihre Ressourcen in einem virtuellen Pool zusammen und greifen je nach Bedarf auf
diese Kapazitäten zu. Die Ressourcenverteilung erfolgt dabei automatisch und geht bei der Itanium-Architektur bis auf die
Prozessorebene hinunter. Allerdings ist die Virtualisierung nicht auf die reinen 64-Bit-Systeme beschränkt: Auch Infrastrukturen mit x86-basierenden
Servern lassen sich virtualisieren. Dabei setzt die Ressourcenzuteilung jedoch nicht bereits beim einzelnen Prozessor an,
sondern verteilt die Rechenleistung eines kompletten Servers. Hier kommen meist Lösungen spezialisierter Anbieter zum
Einsatz, wie zum Beispiel Vmware.
Welcher Server für welche Applikationen?
Bei der Frage, welche Serverplattform für welche Applikationen die am besten geeignete ist, gibt es einige Richtwerte: So
eignen sich Itanium-basierende Infrastrukturen speziell für den Betrieb grosser Datenbanken und
Data-Warehousing-Anwendungen. Für rechenintensive 64-Bit-Applikationen mit einem hohen Leistungsbedarf bei
Fliesskomma-operationen sind diese CPUs aufgrund der beschriebenen Vorteile wie etwa der durchgängigen 64-Bit-Architektur
und dem grossen direkt adressierbaren Speicher in der Regel die erste Wahl. Da sie sich zudem leicht skalieren lassen, sollten
auch Unternehmen diese Plattform ins Auge fassen, die künftig mit stark steigenden Anforderungen bei den eben genannten
Einsatzbereichen an ihre IT rechnen.
Dagegen spielen Intel-Xeon- und AMD-Opteron-Prozessoren ihre Stärken besonders beim Betrieb kleinerer Datenbanken, bei
statischen und dynamischen Webservices sowie beim File- und Print-Serving aus. Sie verfügen beide über eine hohe
Performance bei 32-Bit-Anwendungen und eignen sich somit gut für die Konsolidierung vorhandener Infrastrukturen. Performance bei 32-Bit-Anwendungen und eignen sich somit gut für die Konsolidierung vorhandener Infrastrukturen. Es existieren jedoch auch Fälle, bei denen keine der Plattformen auf den ersten Blick die effizientere ist. So können zum
Beispiel bei mittelgrossen Datenbanken sowohl Itanium- als auch x86-basierende Server von Vorteil sein. Hier ist eine genaue
Analyse der individuellen Situation notwendig, um sich Klarheit darüber zu verschaffen, welcher Weg der bessere ist. Aufgrund der typischen Anwendungslandschaft in den Unternehmen ist der Einsatz von x86-basierenden Servern meist
ohnehin erforderlich – zum Beispiel für das File- und Print-Serving. Daher ist die Frage «x86 oder Itanium?» auf den Betrieb
einzelner Applikationen beschränkt. Wer dabei von vornherein davon ausgeht, dass eine einheitliche Infrastruktur aus
x86-basierenden Servern deutlich einfacher zu verwalten und somit prinzipiell vorzuziehen sei, irrt jedoch. Da beide
Plattformen auf Industriestandards basieren, ermöglicht eine entsprechende Managementsoftware die einfache und effiziente
Administration auch von kombinierten Serverlandschaften. Auch der kombinierte Einsatz beider Serverarchitekturen ist
mittlerweile Platz sparend möglich: So bieten erste Hersteller bereits Blade-Server mit Intel-Itanium-2-Prozessoren. In
geeigneten Gehäusen (Blade Enclosures) lassen sich beide Servertypen nebeneinander betreiben. Da die Blades beider
Bauarten auf die gleiche zentrale Stromverteilung und Kühlsysteme zugreifen, können Unternehmen, die bislang lediglich
x86-Blades verwenden, kostengünstig und Platz sparend auch Itanium-basierende Blades integrieren. Zu den weiteren
Vorteilen gegenüber Einzelservern zählt der geringere Aufwand für die Netzwerkverkabelung. Zudem sind Switches und Kabel
für Tastaturen, Mäuse und Monitore überflüssig, da sich die Blade-Server über eine Browser-basierende grafische
Benutzeroberfläche verwalten lassen.
Worauf Unternehmen achten sollten
Bevor Unternehmen sich für ein Serverkonzept entscheiden, sollten sie ein Anforderungsprofil erstellen. Der entscheidende
Punkt dabei ist: Welche Applikationen sind im Einsatz, beziehungsweise werden künftig benötigt? Auch Fragen, wie verfügbar
und ausbaufähig die Server sein müssen, sind im Vorfeld zu klären. Dabei empfiehlt es sich generell, auf Server zu setzen, die
auf Industriestandards basieren. Diese lassen sich auch einfach in bestehende Infrastrukturen integrieren und sind zudem
leichter zu verwalten und zu skalieren. Dadurch ist der Investitionsschutz gewährleistet. Um Lösungen zu finden, die perfekt
auf die individuellen Bedürfnisse zugeschnitten sind, ist jedoch eine kompetente Beratung unerlässlich. Von Vorteil ist dabei,
wenn ein Anbieter nicht nur eine Prozessorplattform im Portfolio hat, sondern über eine breite Serverpalette verfügt – von
x86-Lösungen bis hin zu Systemen für das durchgehende 64-Bit-Computing. Auch die Wahl zwischen den Formfaktoren Rack
und Blade sollte gewährleistet sein. Da ein Grossteil der Gesamtkosten nicht bei der Anschaffung, sondern im Betrieb der
Serverinfrastruktur anfällt, ist effiziente und umfassende Software für das System-management ein entscheidendes Kriterium.
Denn die Wahl der besten Serverplattform hilft nichts, wenn sich diese später nicht effizient verwalten lässt.
Copyright by Swiss IT Media 2017 
Herunterladen