Inhaltsverzeichnis

Werbung
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
Fallstudienarbeit
Hochschule:
Hochschule für Oekonomie & Management
Standort:
Berlin
Studiengang:
Bachelor Wirtschaftsinformatik
Veranstaltung:
Fallstudie / Wissenschaftliches Arbeiten
Betreuer:
Prof. Dr. Ralf Hötling
Typ:
Fallstudienarbeit
Themengebiet:
Integration virtueller Infrastrukturen in heterogenen Umgebungen
Autor(en):
Benjamin Eichel, Daniel Schreiber
Studienzeitmodell:
Abendstudium
Semesterbezeichnung: WS11/12
Studiensemester:
2
Bearbeitungsstatus:
Bearbeitung abgeschlossen
Prüfungstermin:
Abgabetermin:
Namen der Autoren:
Benjamin Eichel, Daniel Schreiber
Titel der Arbeit:
"Integration virtueller Infrastrukturen in heterogenen Umgebungen"
Hochschule und Studienort: FOM Berlin
Inhaltsverzeichnis
• 1 Überblick
• 2 Theoretische Einführung
♦ 2.1 Definition Virtualisierung
♦ 2.2 Virtualisierungsverfahren
♦ 2.3 Vor- und Nachteile
◊ 2.3.1 Vorteile und Gründe für
Virtualisierung
◊ 2.3.2 Nachteile und
Herausforderungen durch
Virtualisierung
• 3 Ist-Zustand
• 4 Soll-Zustand: Wahl der Hard- und Software
♦ 4.1 Eingrenzung der Alternativen
♦ 4.2 Betrachtung der Software-Alternativen
◊ 4.2.1 Relevante
Virtualisierungslösungen
◊ 4.2.2 Nutzwertanalyse der
Software-Alternativen
♦ 4.3 Kostenvergleich der
Hardware-Alternativen
• 5 Wirtschaftlichkeitsanalyse
♦ 5.1 Ermittlung der Anschaffungskosten
♦ 5.2 Ermittlung der laufenden Kosten
♦ 5.3 Gegenüberstellung der kumulierten
Kosten
♦ 5.4 Ermittlung des Kapitalwerts
• 6 Implementierung
Inhaltsverzeichnis
1
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
♦ 6.1 Herangehensweise und Zeitplan
♦ 6.2 Konzeption - Hinweise aus der
Virtualisierungspraxis
♦ 6.3 Installation und Konfiguration
◊ 6.3.1 Verwaltungsmöglichkeiten
◊ 6.3.2 Microsoft System Center
Virtual Machine Manager
◊ 6.3.3 Microsoft Hyper-V Server R2
◊ 6.3.4 Gastsysteme
• 7 Fazit und Ausblick
• 8 Abbildungsverzeichnis
• 9 Tabellenverzeichnis
• 10 Fußnoten
• 11 Literatur- und Quellenverzeichnis
1 Überblick
Virtualisierung hat durch die Verfügbarkeit leistungsstarker Hardware und ausgereifter Virtualisierungslösungen
inzwischen in fast allen Bereichen der elektronischen Datenverarbeitung Einzug gehalten.
Die nachfolgende Arbeit zum Thema ?Integration virtueller Infrastrukturen in heterogenen Umgebungen?
beschreibt den Prozess der Auswahl, der Planung und der Implementierung einer Virtualisierungslösung anhand
eines Fallbeispiels.
Hierfür wird im Anschluss an eine kurze theoretische Einführung der Ist-Zustand eines Beispielunternehmens, der
Acrov Consult GmbH, dargestellt und daraus ein zweckmäßiges Soll-Konzept entwickelt. Dabei werden nicht nur
Virtualisierungsprodukte nach ausgewählten Kriterien verglichen, sondern auch eine potenzielle Kostenreduktion
und der zeitliche Ablauf der Umsetzung dargestellt. Den Abschluss bilden Hinweise für die
Implementierungspraxis und ein Fazit mit kurzem Ausblick in die weiterführenden Möglichkeiten der
Virtualisierung.
2 Theoretische Einführung
2.1 Definition Virtualisierung
Thorns beschreibt Virtualisierung zunächst allgemein als die Abstraktion von Hardwareressourcen hin zu einer
virtuellen Maschine.[1] Dabei könne die Virtualisierung in zwei Richtungen erfolgen: entweder als
Zusammenfassung mehrerer physischer Rechner zu einem großen, sehr leistungsfähigen virtuellen System oder
im Gegensatz dazu als die Aufteilung vorhandener Hardware in viele kleinere virtuelle Maschinen, die
unabhängig voneinander für verschiedene Aufgaben oder von verschiedenen Anwendern genutzt werden können.
Die hier vorgenommene Fallstudie beschäftigt sich mit der zweiten Variante, die von Laudon et al.
folgendermaßen definiert wird: ?Unter Virtualisierung versteht man die Unterscheidung von logischen
Computerressourcen und physischen Computersystemen. Durch Virtualisierung können mehrere logische
2 Theoretische Einführung
2
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
(virtuelle) Server mit unterschiedlichen Diensten, unterschiedlichen IP-Adressen und Betriebssystemen auf einem
physischen System betrieben werden."[2]
Diese logischen Computerressourcen oder logischen Systeme umfassen dabei alle Eigenschaften einer
Arbeitsumgebung, wie sie sich aus Sicht eines Anwenders oder aus Sicht einer laufenden Anwendung darstellt.
Die zentralen Elemente einer solchen Arbeitsumgebung, nämlich die CPU, der Arbeitsspeicher, der
Massenspeicher und das Netzwerk-Interface - die sog. Core Four ? sind die Hauptmerkmale einer virtuellen
Maschine. Während normalerweise eine solche Umgebung fest mit einem physischen Rechner verbunden ist,
heben Virtualisierungstechniken diese Bindung auf und schaffen mehrere virtuelle Systemumgebungen, die in
ihren Eigenschaften und ihrem Verhalten sowohl echten Systemumgebungen entsprechen, als auch parallel und
voneinander isoliert innerhalb eines Betriebssystems bzw. auf einem Stück Hardware ausgeführt werden
können.[3]
2.2 Virtualisierungsverfahren
Es gibt unterschiedliche Techniken, um virtuelle Systemumgebungen zu erstellen. Thorns unterscheidet drei
Kategorien: die ?echte? Virtualisierung, die Virtualisierung mittels Emulatoren und Partitionierungsverfahren.[4]
[Abb. 1]
Überblick Virtualisierungsverfahren
Bei der sog. echten Virtualisierung wird die im Hostsystem vorhandene Hardware in mehrere virtuelle
Maschinen aufgeteilt. Die Architektur des Hostsystems und die der virtuellen Maschinen entsprechen sich. Die
virtuellen Maschinen laufen unter jeweils voneinander getrennten Betriebssystemen, die sich nicht gegenseitig
beeinflussen können. Dafür setzt die Virtualisierungssoftware eine weitere Schicht zwischen die Betriebssysteme
und die Hardware, die je nach der Arbeitsweise als Hypervisor oder Virtual Machine Monitor (VMM) bezeichnet
wird. Zu den wichtigsten Aufgaben des VMM gehören die Emulation von nicht direkt ausführbaren Befehlen, das
Belegen und Zuordnen von Hardwareressourcen zu den virtuellen Maschinen (insbesondere des Speichers) und
die Isolation der einzelnen virtuellen Maschinen.
2.1 Definition Virtualisierung
3
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
[Abb. 2]
Aufbau Vollvirtualisierung
Das zweite Verfahren zur Generierung von virtuellen Maschinen bedient sich sog. Emulatoren. Diese ahmen
einen kompletten Computer durch geeignete Software nach. Unabhängig von der tatsächlich vorhandenen
Hardwarearchitektur wird eine nur durch die Software erstellte Systemumgebung geschaffen, in der ein
Betriebssystem für die emulierte Plattform ausgeführt werden kann. Aus Sicht des eigentlichen Betriebssystems
sind Emulatoren aber nichts anderes als Anwendungsprogramme. Emulatoren kommen meistens dann zum
Einsatz, wenn auf einer Plattform gearbeitet werden muss, die lokal nicht verfügbar oder beschaffbar ist. Dies
kommt bspw. dann zum tragen, wenn alte Programme, deren eigentliche Architektur nicht mehr verfügbar ist,
weiterhin genutzt werden sollen oder neue Anwendungen zu testen sind, deren eigentliche Plattformen sich noch
in der Entwicklung befinden. Damit ist der große Vorteil - die Plattformunabhängigkeit ? bereits genannt, die sich
durch die völlige Nachbildung der virtuellen Maschine im Emulator ergibt. Der größte Nachteil dagegen ist die
nicht unerhebliche Abnahme der Performance, die auf den in diesem Zusammenhang neu entstandenen großen
Overhead zurückzuführen ist. Beispiele für Emulatoren sind ?Hercules?, der ?Cisco 7200 Simulator? oder
?PearPC?.
Bei Partitionierungsverfahren werden innerhalb einer Betriebssysteminstanz mehrere virtuelle Umgebungen ?
sog. Container oder Systempartitionen - eingerichtet, deren Prozesse, Benutzer und Dateisysteme wie in
verschiedenen Systemen voneinander getrennt sind, obwohl sie weder eine eigene virtuelle Maschine noch ein
eigenes Betriebssystem für sich haben. Bei dem Partitionierungsverfahren hat der Kernel des Betriebssystems
eine ähnliche Funktion wie der VMM bei der echten Virtualisierung. Er prüft, ob ein Befehl auch Objekte anderer
Partitionen berührt und schränkt den Befehl auf die jeweilige Partition ein. Der große Vorteil gegenüber der
echten Virtualisierung ist, dass der Overhead einer vollständigen Virtualisierung entfällt, kaum
Geschwindigkeitseinbußen durch Kontextbildung zu verzeichnen sind und Ressourcen nicht fest an eine Partition
vergeben werden müssen, was wiederum die Flexibilität erhöht. Zu den gängigsten Partitionierungsverfahren
gehören BSD-Jails, Solaris Zones, Linux VServer oder OpenVZ.
2.2 Virtualisierungsverfahren
4
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
[Abb. 3]
Aufbau Partitionierung
Die Virtualisierungslösung, die in diesem Projekt Verwendung findet, fällt in die Kategorie der
Paravirtualisierung als Unterart der echten Virtualisierung.
2.3 Vor- und Nachteile
Die Art und das Ausmaß von Vor- und Nachteilen, die sich durch Servervirtualisierung ergeben, hängen stark von
der konkreten Situation der vorgefundenen IT-Umgebung und der Unternehmensprozesse ab. Grundsätzlich
können nachfolgend beschriebene Gründe für Virtualisierung sprechen bzw. sind damit verbundene
Herausforderungen zu bewältigen.
2.3.1 Vorteile und Gründe für Virtualisierung
Zunächst kann der Nutzungsgrad der Server durch Virtualisierung gesteigert werden. Ausgehend von einem
Nutzungsgrad von häufig nur 10 ? 15 %, liegt die Auslastung nach Einführung der Virtualisierungslösung oft bei
70 % oder mehr. Dies hat zur Folge, dass die Anzahl der benötigten Rechner bei gleicher Arbeitsmenge gesenkt
werden kann.[5]
Damit sind verschiedene andere Vorteile verbunden. Zum einen können dadurch Energiekosten eingespart
werden. Zwar verbraucht ein gut ausgelasteter, virtualisierter Server mehr Energie als ein einzelner ersetzter
Server mit geringem Nutzungsgrad. Im Vergleich mit der Summe der ersetzten Server kann der Energieverbrauch
aber oft erheblich gesenkt werden. Bei steigenden Energiekosten ist dies ein Vorteil, dessen Bedeutung künftig
zunehmen wird. Mit der Reduzierung der benötigten Zahl an Computern, geht die Reduzierung des
(klimatisierten) Raumbedarfs einher. Für die Kühlung eines Servers kann u. U. noch einmal die gleiche
Stromleistung wie für seinen Betrieb anfallen. Ist die Kühlung unzureichend, muss mit erhöhten Geräteausfällen
gerechnet werden.[6]
Zu den großen Profiteuren gehören durch die Vereinfachung einer zentralen Hardwareverwaltung und das
flexiblere Ressourcen-Management die Administratoren des Netzwerks. So müssen bspw. für neue Anwendungen
nicht mehr jeweils eigene Server angeschafft werden. Neben der damit einhergehenden Kostenersparnis bedeutet
dies zum einen Zeitersparnis für die Administratoren bei Bestellung und für den Einkauf, zum anderen stehen die
2.3 Vor- und Nachteile
5
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
neuen Anwendungen schneller zur Verfügung, weil die Wartezeit auf den neuen Server entfällt. Die
Bereitstellung neuer Systeme wird daneben ganz erheblich dadurch vereinfacht, dass die Systeme nicht mehr
manuell und separat für den Einsatz konfiguriert werden müssen, sondern aus einer zentralen
Managementschnittstelle heraus erstellt werden können, was wiederum Zeit spart.[7] Damit ist einer der
wichtigsten Vorteile in der verbesserten Skalierbarkeit der IT-Umgebung zu sehen, die insbesondere bei
Unternehmen in einem dynamischen Umfeld von Bedeutung ist. Weitere Arbeitserleichterungen bringt die
Virtualisierung bspw. hinsichtlich der Kontrolle der täglichen Datensicherung mit sich, die dann vom Schreibtisch
aus möglich ist[8] bzw. lassen sich durch den Einsatz von Vorlagen erzielen.
Als wesentlicher Vorteil werden oft auch die erhöhte Datensicherheit und die Minimierung von
Hardware-Ausfallzeiten gesehen. Durch ein redundantes Vorhalten aller Daten in einem gespiegelten Storage
kann bei notwendigen Wartungsarbeiten auf den anderen Storage ausgewichen werden, so dass die Ausfallzeiten
nur einige Minuten betragen. Ähnliches gilt im Falle eines Hardwareausfalls, bei dem der andere Server quasi
sofort übernehmen kann.
Als Pluspunkt für die Servervirtualisierung wird schließlich auch die Reduzierung des ?Computerschrotts?
genannt, die sich positiv auf die Ökobilanz eines Unternehmens auswirkt - vorausgesetzt, dass die Hardware
ohnehin hätte erneuert werden müssen.[9]
2.3.2 Nachteile und Herausforderungen durch Virtualisierung
Mit der Servervirtualisierung sind nicht nur Vorteile verbunden. Sie stellt die Unternehmen z. T. auch vor
erhebliche Herausforderungen. Söldner konstatiert, dass virtuelle Serversysteme bisweilen als ein kostengünstiges
bis kostenfreies Gut wahrgenommen werden, so dass in vielen virtuellen Infrastrukturen inzwischen eine
unübersichtliche Gemengelage von Produktiv-, Entwicklungs- und Testumgebungen entstanden ist. Um dies zu
verhindern, seien demzufolge in regelmäßigen Abständen Aufräumarbeiten oder Richtlinien zur Vermeidung von
virtuellen ?Waisen? notwendig.[10]
Damit einhergehend wird u. U. auch die Lizenzverwaltung aufwändiger, da zu prüfen ist, inwieweit die
eingesetzte Virtualisierungslösung durch die Nutzugsrechte an der Software gedeckt ist.[11]
Durch die höhere Komplexität des virtualisierten Netzwerks steigen letztendlich die Anforderungen an die
Fachkenntnisse der Administratoren.
3 Ist-Zustand
Das Unternehmen: Die Acrov Consult GmbH ist ein Beratungs- und Systemhaus im Bereich der deutschen
Immobilienwirtschaft. Sie bietet branchenorientierte Systemunterstützung der Geschäftsprozesse an, in deren
Mittelpunkt das Optimieren von ERP-Technologien steht.
Das Rechenzentrum: Das Consultingunternehmen betreibt ein 25 m² großes Rechenzentrum, in dem 50 Server
rund um die Uhr in Betrieb sind. Der jährliche Stromverbrauch für den Betrieb liegt bei 345.494 kWh. Hinzu
kommen Energiekosten für die Kühlung der Server von 172.747 kWh p.a. Folgende Server sind momentan auf
Basis von Windows, Unix und Linux im Einsatz: Domaincontroller, Gateways, TSM-Sicherungsserver, SQL-,
SAP-, File-, Print- und Mailserver. Mit der bestehenden EDV-Landschaft steht die Acrov Consult GmbH vor
größerem Handlungsbedarf:
3 Ist-Zustand
6
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
• Zehn Windows Server haben den Zustand ?out-of-service? erreicht, d.h. hierfür werden vom Hersteller
keine Ersatzteile bzw. kein Support mehr angeboten.
• Bei 18 Servern läuft die Wartung Mitte des Jahres 2012 aus.
• Auf zwei Dateiservern fehlt Festplattenspeicher für die Aufnahme weiterer Daten.
• Ein Drittel der Server sind nur gering ausgelastet, weil aufgrund einer möglichen gegenseitigen
Beeinflussung der Anwendungen in vielen Fällen jeweils eigene Server benötigt werden.
• Energiepreise und steigender Kühlbedarf des Equipments belasten das Budget des IT-Managements.
• Aus Kostengründen wird von der Anschaffung einer neuen Klimaanlage abgesehen.
• Die Überwachung der Hardware nimmt viel Zeit in Anspruch.
Aussichten: Aufgrund der guten Auftragslage ist auch in den kommenden Jahren mit einem hohen
Kundenzuwachs mit in Folge steigendem Server- und Energiebedarf zu rechnen.
4 Soll-Zustand: Wahl der Hard- und Software
4.1 Eingrenzung der Alternativen
Auf dem Markt sind sehr viele Virtualisierungslösungen verfügbar. Da eine Analyse aller Möglichkeiten einen
unwirtschaftlichen Aufwand darstellt, werden im Rahmen dieses Projektes nur solche Produkte näher betrachtet,
die bestimmten Voraussetzungen gerecht werden. Da es sich im vorliegenden Fall um eine Produktivumgebung
handelt, gehört zu den unabdingbaren Voraussetzungen eine gewisse Reife und Stabilität der Lösung. Daneben
gehören eine gesunde Nutzerbasis, kommerzieller Support und hohe Treiberqualität zu den wichtigsten Kriterien,
die von Nischenprodukten oft nicht erfüllt werden können. Für die Acrov Consult GmbH werden daher als
Software-Alternativen vSphere von VMWare, Hyper-V Server von Microsoft und XenServer von Citrix
betrachtet. Diese Produkte werden von Unternehmen angeboten, die entweder langjährige Erfahrung im
Virtualisierungsumfeld haben oder - bedingt durch ihre Marktposition ? über die Ressourcen verfügen, um einer
Produktivumgebung gerecht zu werden.
4.2 Betrachtung der Software-Alternativen
4.2.1 Relevante Virtualisierungslösungen
VMWare vSphere: VMWare ist ein 1998 gegründetes US-amerikanisches Unternehmen, das eine breite Palette
an verschiedenen Virtualisierungsprodukten anbietet. Die Typ-1-Hypervisoren ESX und ESXi sind für das
VMWare vSphere-Paket verfügbar. Bei ESX handelt es sich um eine Kombination aus Linux- und VMKernel und
Service Konsole. Das Gerücht, ESX entspräche einem modifizierten Linux Betriebssystem, ist falsch - genauso
wie die Vermutung, ESX sei nichts weiter als ein VMware GSX Server mit einem vorinstallierten Linux
Betriebssystem.[12] Beim ESXi handelt es sich um einen ThinHypervisor, der für die Integration der
Hardwarehersteller auf Flashspeicher in ihren Servern zielt. Diese Variante verzichtet auf den Linux-Kernel und
auf große Teile der Service-Konsole. Das ThinHypervisior-Prinzip verringert den Overhead und die Anzahl der
Sicherheitslücken. Ab der Version 5 ist vSphere nur noch mit dem ESXi Hypervisor verfügbar. Version 5 bringt
einige Modifikationen in der Technik mit sich. Es wurden zudem einige Änderungen an der Lizenzierung
vorgenommen: unter anderem ist die Begrenzung der Prozessorkerne und des Gesamtspeichers des Hosts unter
Einführung von Hauptspeicherpools (sog. vRAM) weggefallen.[13]
4 Soll-Zustand: Wahl der Hard- und Software
7
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
Hervorzuheben ist die sehr umfangreiche Featureliste von vSphere. Unter Einhaltung der
Hardware-Kompatibilitätsliste bietet vSphere außerdem eine sehr stabile und leistungsfähige Infrastruktur. Die
Hardwarekompatibilität ist von allen betrachteten Produkten am geringsten. Die Verwaltung kann über CLI
(Command Line Interface), vSphere Client (bei einzelnen vSphere-Servern) oder vCenter
(Verwaltungssammelstelle bei großen Infrastrukturen) erfolgen.
Microsoft Hyper-V Server R2: Microsoft bietet seit der Version 2008 ihres Serverbetriebssystems einen eigenen
Hypervisor an. Er ist als Serverrolle für Microsoft Server ab Version 2008 oder als selbstständiges Betriebssystem
unter dem Namen ?Microsoft Hyper-V Server? verfügbar. Der Hyper-V Server R2 bietet den vollen
Funktionsumfang der Serverrolle und ist lizenzkostenfrei erhältlich. Es handelt sich hier um eine relativ junge
Virtualisierungslösung mit noch nicht sehr umfangreichem Funktionsumfang [14], welcher jedoch von Version zu
Version oder per Service Pack nachgereicht wird (z. B. RemoteFX mit dem Service Pack 1). Der Hyper-V Server
bietet unter den hier betrachteten Alternativen die größte Hardwarekompatibilität, da alle Windows 2008 Treiber
verwendet werden können. Die Verwaltung kann über die Microsoft Powershell (CLI), den Hyper-V Manager
oder den Microsoft System Center Virtual Machine Manager (SCVMM) abgewickelt werden.
Citrix XenServer: Citrix bietet mit der Xen-Familie ein breites Portfolio an Produkten an, von
Anwendungsvirtualisierung (XenApp) über Desktopvirtualisierung (XenDesktop) bis Servervirtualisierung
(XenServer). Der XenServer basiert auf dem Open Source Hypervisor Xen und wird pro Server lizenziert. Da der
XenServer auf einem Linux-Kern fußt, ist er mit sämtlicher von Linux unterstützter Hardware kompatibel. Die
Verwaltung kann über eine SSH-Sitzung (Linux-Shell) oder per XenCenter erfolgen.
Produkt
Lizenzierung
unterstützte
Gastsysteme
Verwaltungsarten
VMWare vSphere
Pro Sockel, vRAM[15]
Windows, Linux, BSD
CLI, vCenter
Microsoft Hyper-V
Lizenzkostenfrei
Windows, Linux
Powershell, MMC,
SCVMM
Windows, Linux, BSD
SSH, XenCenter
Citrix XenServer
Pro Server[16]
[Tab. 1]Produktvergleich Softwarealternativen
4.2.2 Nutzwertanalyse der Software-Alternativen
Um zur Beurteilung der Software-Alternativen nicht nur monetäre, sondern auch nicht-monetäre Kriterien
heranziehen zu können, wurde die Nutzwertanalyse als Bewertungsmodell ausgewählt. Neben der Fähigkeit der
Nutzwertanalyse, eine Vielzahl an Zielkriterien verarbeiten zu können, ist nach Zangemeister das besondere
Kennzeichen von Nutzwertmodellen darin zu sehen, dass explizit formulierte Präferenzaussagen des
Entscheidungsträgers ? und damit subjektive Informationen - berücksichtigt werden können.[17]
Nach dem von Zangemeister beschriebenen Verfahren, ist zunächst ein Zielprogramm aufzustellen.[18] Bei der
Acrov Consult GmbH ist es ein zweistufiges Zielprogramm, bei welchem dem Oberziel ?bestmögliche
Software-Alternative? sechs Unterziele (die Kriterien) zugeordnet werden. Die Acrov Consult GmbH hat als
wichtigste Kriterien geringe Anschaffungskosten und die Verfügbarkeit kommerziellen Supports genannt. Aber
auch Funktionsumfang und Hardwarekompatibilität sind für das Unternehmen von großer Bedeutung. Zu den
Kriterien, die zwar Beachtung finden sollen, aber einen untergeordneten Stellenwert haben, gehören die
Lizenzierung und die Leistung der Windows-Gastsysteme.
Den zweiten Schritt bildet das Aufstellen der Zielertragsmatrix. Hier werden die Alternativen hinsichtlich der
gewählten Kriterien beschrieben (für die Auswertung der Ziele bei der Acrov Consult GmbH siehe den
4.2.1 Relevante Virtualisierungslösungen
8
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
vorangegangenen Abschnitt ?relevante Virtualisierungslösungen?).
In einem dritten Schritt wird die Zielwertmatrix aufgestellt (vgl. Tabelle 2). Dazu werden die Alternativen
hinsichtlich der Zielerträge bewertet. In der hier vorliegenden Nutzwertanalyse werden geringe
Merkmalsausprägungen mit 0, mittlere Merkmalsausprägungen mit 5 und hohe Merkmalsausprägungen mit 10 als
Bewertungsschema festgelegt.
Die Bestimmung der relativen Gewichte der Kriterien erfolgt im vierten Schritt: Nach den o. a. Präferenzen der
Acrov Consult GmbH werden geringe Anschaffungskosten und guter Support mit 25 %, hoher Funktionsumfang
und Hardwarekompatibilität mit 15 % und hohe Leistungsfähigkeit und Lizenzierung mit 10 % gewichtet.
Im fünften und letzten Schritt ist die Wertsynthese vorzunehmen. Im vorliegenden Fall erzielt Hyper-V den
höchsten Gesamtnutzwert und wird somit als beste Alternative angesehen.
Alternative
Kriterium / Gewicht
vSphere
Hyper-V
viel
mittel
Funktionsumfang
15%
10
1,5
5
0,75
wenig
viel
Lizenzierung
10%
0
0
10
1
mittel
viel
Hardwarekompatibilität 15%
5
0,75
10
1,5
wenig
viel
Anschaffungskosten
25%
0
0
10
2,5
viel
mittel
Support
25%
10
2,5
5
1,25
viel
viel
Performance
10%
10
1
10
1
Σ / Gesamtnutzwert
100%
5,75
8,00
[Tab. 2]Zielwertmatrix im Rahmen der Nutzwertanalyse
XenServer
mittel
5
0,75
mittel
5
0,5
viel
10
1,5
mittel
5
1,25
mittel
5
1,25
mittel
5
0,5
5,75
4.3 Kostenvergleich der Hardware-Alternativen
Aufgrund der fast identischen Hardwarekonfiguration seitens der Hersteller wird bei der Analyse der
Hardware-Alternativen der Fokus auf die Gegenüberstellung der Kosten gelegt.
Die Hardwareanforderungen wurden folgendermaßen definiert: Um die Ausfallzeiten zu minimieren, sind alle
betriebsnotwendigen Hardwarekomponenten redundant ausgelegt. Die Server verfügen über redundante Netzteile,
um bei einem möglichen Ausfall die Reparatur bei laufendem Betrieb vornehmen zu können. Zudem wird ein
gespiegelter Festfestplattenverbund (RAID1) für das Betriebssystem eingesetzt und die virtuellen Maschinen auf
einem separaten RAID5-Feld (Nutzkapazität 2,7TB) untergebracht. Die Sicherung der virtuellen Maschinen
erfolgt täglich anhand eines Snapshots (Systemabzug), der auf unserem Storage-Server abgelegt wird.
Die Server verfügen jeweils über zwei Prozessoren mit je 4 Kernen und 64GB Hauptspeicher. Als
Massenspeichermedium kommen SAS-Festplatten zum Einsatz, weil diese hot-plug-fähig und für den
Dauerbetrieb ausgerichtet sind. Als Serverbauart wurde ein 2HE 19? Rack ausgewählt, da hierfür bereits ein
4.2.2 Nutzwertanalyse der Software-Alternativen
9
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
leerer Schrank im Rechenzentrum vorhanden ist und eine mechanische Zugriffssicherheit gewährleistet wird.
Die folgende Tabelle stellt die beiden entsprechenden Angebote von Dell und IBM gegenüber. Da die Hardware
von Dell kostengünstiger ist, fällt die Wahl auf dieses Angebot.
Merkmal
Modell
IBM
X3630 M3
Vor-Ort-Service 5 Jahre Next Day
Dell
R510
5 Jahre Next Day
CPU
Xeon E5645
Xeon E5620
Arbeitsspeicher
64GB DDR3
64GB DDR3
Festplatten
12 * 300GB SAS
12 * 300GB SAS
Gesamtpreis
9.991 ?
8.541 ?
Entscheidung
[Tab. 3]Kostenvergleich Hardware
X
5 Wirtschaftlichkeitsanalyse
Nachdem im vorangegangenen Abschnitt der von der Acrov Consult GmbH gewünschte Soll-Zustand definiert
worden ist, gilt es nun zu prüfen, ob die geplante Virtualisierungslösung gegenüber der Alternative ? dem Betrieb
über herkömmliche Server ohne Virtualisierung ? auch wirtschaftlich vorteilhaft ist oder nicht.
Ein gängiges Investitionsrechenverfahren zur Beurteilung der Wirtschaftlichkeit ist die Kapitalwertmethode.
Dieses Verfahren dient der Beurteilung der absoluten und/oder relativen Vorteilhaftigkeit von
Investitionsalternativen unter Berücksichtigung einer einzelnen (monetären) Zielgröße und gehört zu den
dynamischen Verfahren unter Sicherheit.[19] Die Zielgröße - der Kapitalwert - ist der Vermögenszuwachs einer
Investition. Er entspricht der Summe aller auf einen Zeitpunkt auf- bzw. abgezinsten Ein- und Auszahlungen, die
durch die Realisation eines Investitionsobjekts verursacht werden, abzgl. der Anschaffungsausgaben. Für den
Fall, dass künftige Einzahlungen der Investition nicht zugeordnet werden können (wie beim Rechenzentrum der
Acrov Consult GmbH) oder die Einzahlungen der Investitionsalternativen gleich sind, kann zur Beurteilung der
Vorteilhaftigkeit auch nur der Barwert der Auszahlungen bestimmt werden.[20]
Ein Investitionsobjekt ist absolut vorteilhaft, falls sein Kapitalwert größer ist als Null und relativ vorteilhaft, falls
sein Kapitalwert größer ist als derjenige des alternativen Objekts. Für den Fall, dass die Investition keine
Rückflüsse generiert (oder die Rückflüsse nicht zugeordnet werden können), ist dasjenige Projekt zu wählen,
dessen Auszahlungen den geringsten Barwert haben.[21]
Im Vorgriff auf die folgenden beiden Abschnitte ist anzumerken, dass der Kapitalwertmethode Aus- und
Einzahlungen und nicht Kosten und Leistungen zu Grunde liegen. Es wird hier davon ausgegangen, dass die
kalkulierten Kosten gleichzeitig zu Auszahlungen in entsprechender Höhe führen und daher die
Kapitalwertmethode angewendet werden kann.
5 Wirtschaftlichkeitsanalyse
10
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
5.1 Ermittlung der Anschaffungskosten
Für die Kalkulation der Anschaffungskosten werden die Kosten für die Hardware, die Software und die
Installation der Server und der Betriebssysteme berücksichtigt. Hinzu kommen Kosten für die Schulung der
Administratoren.
Die Installation der zwölf Hyper-V Server und der Betriebssysteme der 40 virtuellen Maschinen wird mit einer
Gesamtdauer von 30 Stunden angegeben. Die Zeit resultiert aus der Möglichkeit, Vorlagen von virtuellen
Maschinen zu erstellen. Dadurch ist nur eine einmalige Standardinstallation des Betriebsystems nötig.
Die Anschaffungskosten für eine neue, virtuelle EDV-Umgebung belaufen sich auf insgesamt 141.632 ?. Der
Vergleich mit einer physikalischen Umgebung ergibt Mehrkosten von insgesamt 44.532 ?. Bei alleiniger
Betrachtung der Anschaffungskosten ist - bedingt durch den höheren Preis der Hardware - die
Virtualisierungslösung kostenintensiver.
Physikalische Server
Virtuelle Server
Menge Einzelpreis Anschaffung Menge
Server Hardware
50
1.480 ?
74.000 ?
Nicht virtualisierbare Server
Windows Server 2008 R2
40
540 ?
21.600 ?
Microsoft System Center
Installation der Betriebssysteme 50 Std. 30 ?
1.500 ?
Einzelpreis Anschaffung
12 (10+2
Backup)
8.541 ?
102.492 ?
5
1.480 ?
7.400 ?
40
540 ?
21.600 ?
1
1.240 ?
1.240 ?
30 Std.
30 ?
900 ?
Schulungen
8.000 ?
Summe
[Tab. 4]Anschaffungskosten
97.100 ?
141.632 ?
5.2 Ermittlung der laufenden Kosten
Für die Kalkulation der laufenden Kosten werden die Energiekosten für den Betrieb und die Kühlung der
Infrastruktur sowie die Monitoringkosten für den Zeitraum von fünf Jahren bestimmt. Weitere Kosten, bspw. für
Material, Löhne oder Steuern etc., werden hier als bei beiden Alternativen identisch angenommen und daher nicht
betrachtet.
Die laufenden Kosten betragen nach fünf Jahren 445.475 ? für die physikalische Lösung gegenüber 280.765 ? bei
der virtualisierten Infrastruktur. Die Gegenüberstellung der laufenden Kosten ergibt einen Kostenvorteil der
virtuellen Server im Vergleich zur physikalischen Alternative von rund 37 %.
Physikalische
Summe der laufenden Kosten
Server
Virtuelle Server
(Hyper-V)
Energiekosten Betrieb / Jahr
42.363 ?
25.746 ?
Energiekosten Kühlung / Jahr
21.182 ?
13.252 ?
5.1 Ermittlung der Anschaffungskosten
11
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
Monitoringkosten / Jahr
25.550 ?
17.155 ?
Gesamtkosten / Jahr
89.095 ?
56.153 ?
Gesamtkosten über 5 Jahre
Kosten
445.475 ?
280.765 ?
[Tab. 5]Laufende
5.3 Gegenüberstellung der kumulierten Kosten
Die folgende Grafik vergleicht die kumulierten Kosten der beiden Investitionsalternativen. Es zeigt sich, dass sich
durch die geringeren laufenden Kosten die höheren Anschaffungskosten bereits nach ca. eineinhalb Jahren
amortisiert haben. Dabei ist allerdings zu berücksichtigen, dass es sich um eine reine Addition der anfallenden
Kosten ohne Berücksichtigung des Zeitwerts der Ausgaben handelt.
[Abb. 4]
Kumulierte Kosten
5.4 Ermittlung des Kapitalwerts
Die Berechnung des Kapitalwerts nach der Formel:
[Abb. 5]
Formel Kapitalwertmethode
ergibt bei einem Kalkulationszinssatz von 5% und einer Nutzungsdauer von 5 Jahren für die Alternative
?Physikalische Server? einen Kapitalwert von rund -482.835 ? und für die virtualisierte Lösung einen Kapitalwert
von rund -384.745 ?. Da die Auszahlungen der Hyper-V Lösung den geringeren Barwert besitzen, gilt diese
5.2 Ermittlung der laufenden Kosten
12
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
Investitionsalternative nach der Kapitalwertmethode als relativ vorteilhaft gegenüber dem Alternativobjekt.
6 Implementierung
6.1 Herangehensweise und Zeitplan
Umfangreiche Projekte wie dieses bedeuten nicht nur technische Veränderungen für das Unternehmen, sondern
auch organisatorische und oftmals auch persönliche Veränderungen für die betroffenen Mitarbeiter. Neben der
technischen Implementierung - auf die in den folgenden Abschnitten eingegangen wird - ist daher stets auch auf
die Einbindung der betroffenen Mitarbeiter zu achten, um Befürchtungen oder Abwehrhaltungen zu vermeiden.
Die Betriebswirtschaftslehre hat Konzepte zur Vermeidung bzw. Überwindung von "Widerständen gegen
Änderungen" entwickelt. Steinmann/Schreyögg beschreiben in diesem Kontext vier ?goldene Regeln?
organisatorischen Wandels.[22]
Aktive Teilnahme am Veränderungsgeschehen: Die betroffenen Mitarbeiter sollen umfassend über die
Hintergründe des anstehenden Wandels informiert werden und an den Entscheidungen partizipieren können.
Übertragen auf die Acrov Consult GmbH beginnt dies bereits mit der Bestandsaufnahme des Ist-Zustands. Die
Systemadministratoren sind aber während des ganzen Prozesses ohnehin für die Bereitstellung von Informationen,
Einschätzungen hinsichtlich der benötigten Systemleistung etc. unabdingbar und damit im Projektgeschehen
involviert.
Die Gruppe als wichtiges Wandelmedium: Es hat sich gezeigt, dass Änderungsprozesse in Gruppen weniger
beängstigend sind und schneller vollzogen werden. Die Implementierungsphase bei der Acrov-Consult GmbH
sollte daher kontinuierlich von regelmäßigen Gesprächen in der Gruppe begleitet werden, in denen Informationen
ausgetauscht und Umsetzungsschwierigkeiten thematisiert werden können. Dies knüpft auch zugleich an die dritte
Regel - die ?gegenseitige Kooperation? - an, durch die die Wandelbereitschaft gefördert wird.
Als vierter und letzter Punkt werden das "Auftauen" alter Gewohnheiten zu Beginn des Projekts und die
"Stabilisierung" gegen Ende des Prozesses genannt. Die eingespielten Arbeitsaufteilungen und Gewohnheiten
müssen anfangs in Frage gestellt und neue Ideen diskutiert werden. Zum Projektabschluss sind die neuen
Strukturen dann wieder ?einzufrieren?, um nicht durch die Macht der Gewohnheit in alte Strukturen
zurückzukehren.
Das Projekt wird im Zeitraum vom 14.02.2012 bis zum 30.11.2012 durchgeführt. Nach Abzug von
Wochenenden und Feiertagen ergibt dies eine effektive Dauer von 127 Tagen, an denen jeweils 8 Stunden am
Projekt gearbeitet wird.
Zeitraum
Projektabschnitt
Bis Ende Februar 2012
Beschaffung der Hardware und der entsprechenden Software für das Testszenario.
Bis Mitte März 2012
Schulung der fünf Administratoren.
Bis Ende März 2012
Installation und Test der Prototypen
Installation und Konfiguration von zwei Prototypen (Hyper-V Server).
Anlegen von Vorlagen für das Einrichten der virtuellen Maschinen und
Installation der Test-Server.
6 Implementierung
13
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
Überprüfung der Funktionalität der Hyper-V Server. Live-Migration der virtuellen
Maschinen von Host zu Host. Einrichten der Sicherungsmethodik und Erstellung
eines Disaster Recovery Plans, gefolgt von einem Disaster Recovery Test.
Bis Ende April 2012
Einkauf der übrigen Hard- und Software für die geplante
Virtualisierungsumgebung.
Bis Ende August 2012
Installation der Hyper-V Server. Anlegen der virtuellen Maschinen und/oder
Migration der bisherigen Server. Testphase, gefolgt von der Domainintegration
und dem Einrichten der Sicherungsverfahren.
Bis Ende November 2012 Übergang in den Produktivbetrieb.
[Tab. 6]Projektplan Tabellenform
[Abb. 6]
Microsoft Project 2007
6.2 Konzeption - Hinweise aus der Virtualisierungspraxis
Um eine leistungsstarke virtuelle Infrastruktur zu gewährleisten, ist es notwendig, sich einige Tatsachen bewusst
zu machen.
• Virtualisierung sollte immer in Verbindung mit Konsolidierung erfolgen, d.h. dass Systeme und Prozesse
zusammengeführt werden. Konsolidierung kann verschiedene Beweggründe haben, z. B. Festigung,
Vereinfachung oder Erhöhung der Flexibilität einer Infrastruktur. Da bei der Acrov Consult GmbH eine
Verdichtung der Infrastruktur integraler Bestandteil des Projekts ist, sollte versucht werden, die Systeme
durch gezieltes Zusammenlegen und Trennen auf weniger Hosts zu verteilen.
• Bei der Virtualisierung von Systemen entsteht immer zusätzlicher Rechenaufwand (sog. Overhead) für
Verteilung und Verwaltung der physikalischen Ressourcen. Mit einer wachsenden Anzahl virtueller
Systeme steigt auch der Overhead.
• Es ist wichtig zu verstehen, was Systemleistung ist und was seine beeinflussenden Faktoren sind.
Systemleistung setzt sich vor allem aus zwei Faktoren zusammen: der Prozessorleistung und der
Input/Output-Leistung (I/O-Leistung). Unter Prozessorleistung wird die reine Rechenleistung eines
Systems verstanden; diese ist in der Regel bei der Virtualisierung ein eher untergeordneter Faktor. Die
I/O-Leistung sagt aus, wie schnell die Daten gelesen und geschrieben werden können. Ist die
I/O-Leistung zu gering bemessen, kann der Prozessor nicht mit Daten versorgt werden und zu einem träge
reagierenden System bei niedriger Prozessorauslastung führen.
Deshalb sind Vorüberlegungen zu Art und Verteilung der Speichermedien von großer Bedeutung. Durch
die gewünschte, bessere Auslastung des physikalischen Servers durch Virtualisierung treten Schwächen
mechanischer Speichermedien zu Tage bzw. verstärken sich. Das Positionieren der Lese-/Schreibköpfe
einer Festplatte dauert einige Millisekunden (z. B. 4,5 Ms bei SAS-Festplatten mit 15.000 rpm) und sollte
6.1 Herangehensweise und Zeitplan
14
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
deshalb vermieden werden. Bei Schreib-/Lesezugriffen wird zwischen SEQUENTIAL (Datenströme - z.
B. File-Server) und RANDOM (zufällig - z. B. Datenbanken) unterschieden. Bei Systemen, die sehr
unterschiedliches Schreib-/Leseverhalten aufweisen, verschlechtert sich die I/O-Leistung drastisch. Aus
diesem Grund sollte vorher das Verhalten der einzelnen Server analysiert und Systeme mit ähnlichem
Verhalten gruppiert werden. Das Auslastungsverhalten kann mit Tools, wie dem SQL
Server-Hilfsprogramm aus dem Microsoft SQL Management Studio, analysiert werden. Danach kann die
Leistungsfähigkeit der virtuellen Maschinen mit leicht verstärkter Systemlast (z. B. mit SQLIO) getestet
werden. Virtuelle Maschinen, die eher RANDOM-Zugriffe verursachen, sollten mit ausreichend
Hauptspeicher ausgestattet sein, um Zugriffe auf die Festplatten zu reduzieren. Server, die bereits unter
hoher Last stehen, sollten aus Leistungsbeweggründen nicht virtualisiert werden, können aber zur
Erleichterung bei der Wartung in eine virtuelle Maschine umgewandelt werden (z. B. um Live-Migration
oder Failover zu realisieren).
• Ferner sollte eine Gesamtsystemlast von ca. 80% erreicht werden, um bei außergewöhnlichen
Belastungen (z. B. bei Monats- oder Jahresabschlüssen) noch einen gewissen Puffer zu haben.
6.3 Installation und Konfiguration
6.3.1 Verwaltungsmöglichkeiten
Zur Verwaltung der Hyper-V Server R2 stehen verschiedene Verfahren zur Verfügung. Zum einen können die
Hyper-V Server über eine CLI, die sog. Microsoft Powershell, gesteuert werden. Die Powershell eignet sich in
Fällen, in denen Abläufe über Skripts automatisiert werden sollen. Alternativ können die sog. Microsoft
Management Console (MMC) oder der Microsoft System Center Virtual Machine Manager (SCVMM) genutzt
werden.
[Abb. 7]
Beispiel MMC-Gerätemanger
Die MMC-Schnittstelle ermöglicht den Zugriff auf den Hyper-V Server über eine Remote-Konsole. Dies
ermöglicht das zentrale Verwalten mehrerer Server, stellt allerdings auch einen relativ hohen Aufwand bei der
Konfiguration dar und bringt einige Einschränkungen mit sich (z. B. erfolgt der Zugriff auf den Geräte Manager
nur im Lese-Modus). Der SCVMM ähnelt optisch den anderen System Center Produkten, richtet allerdings sein
Hauptaugenmerk auf die Funktionen zur Verwaltung von virtuellen Infrastrukturen (beschränkt sich aber nicht auf
diese). Auf den zu verwaltenden Systemen muss ein sog. Service Agent installiert werden, der danach mit dem
System Center kommuniziert. Dieser Agent informiert das System Center über Statusänderungen und ermöglicht
die Steuerung der Systeme oder auch die Verteilung von Software (z. B. Aktualisierungen der
Integrationsdienste). Es ist außerdem möglich, virtuelle Maschinen von einem verwalteten Host auf einen anderen
zu verschieben (sog. Live Migration). Zudem können virtuelle Maschinen mit Prioritäten versehen werden, um
beim Wiederanlauf des Hosts z. B. die Startreihenfolge zu beeinflussen.
6.2 Konzeption - Hinweise aus der Virtualisierungspraxis
15
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
6.3.2 Microsoft System Center Virtual Machine Manager
[Abb. 8]
Beispiel SCVMM-Hostverwaltung
Der SCVMM besteht aus den drei Bestandteilen SystemCenter-Server, SQL-Datenbank und
Administrationskonsole und wird auf einem Windows Server Betriebssystem betrieben. Die drei Komponenten
können auf einem System installiert oder auf mehrere Systeme verteilt werden. Es besteht die Möglichkeit, einen
Microsoft SQL Server 2005 Express während der Installation des SCVMM mit zu installieren oder einen
vorhandenen Microsoft SQL Server zu verwenden. Bei der Acrov Consult GmbH wird die aktuelle Version des
Microsoft SQL Server 2008 R2 SP1 verwendet. Die Installation des Servers beschränkt sich auf Speicherort der
Installation, Installation/Auswahl der Datenbank und Konfiguration der für die Kommunikation verwendeten
Ports. Da mehrere Administrationskonsolen auf einen System Center-Server zugreifen können, empfiehlt sich die
lokale Installation auf dem Server und dem für die Administration vorgesehenen Windows PC.
Nach der Installation können die Hyper-V Server in die Hostliste eingefügt und eine Bibliothek angelegt werden.
Eine Bibliothek kann Datenträger in Form von sog. ISO-Dateien enthalten und/oder Vorlagen für virtuelle
Maschinen. Es empfiehlt sich, zuerst die Betriebssystem-Datenträger in die Bibliothek einzufügen, damit diese
dann für die Installation der ersten virtuellen Maschinen bzw. Vorlagen zur Verfügung stehen.
Nachdem die Hyper-V Server entweder über ihre Netzwerkadresse oder den Active Directory-Verzeichnisdienst
in die Liste der zu verwaltenden Hosts aufgenommen wurden, sollten die verbleibenden Netzwerkanschlüsse für
die Verwendung durch virtuelle Maschinen konfiguriert werden.
Das Erstellen von Vorlagen besteht aus zwei Schritten: dem Erstellen bzw. Installieren einer virtuellen Maschine
und der Umwandlung in eine Vorlage. Hierbei ist zu beachten, dass die virtuelle Maschine nach der Umwandlung
nur noch als Vorlage zur Verfügung steht.
6.3.3 Microsoft Hyper-V Server R2
[Abb. 9]
Beispiel Hyper-V Konsole
Die Installation der Hyper-V Server entspricht der einer Microsoft Server 2008 Core-Installation. Die Interaktion
beschränkt sich auf das Nachladen von Treibern und der Auswahl des Zielmediums. Nach der Installation muss
das Passwort des Administrators vor der ersten Anmeldung gesetzt werden. Als Erstes sollte das Netzwerk
Interface konfiguriert werden, welches für die Verwaltung vorgesehen ist. Danach kann der Hyper-V einen
sprechenden Namen erhalten und gegebenenfalls einer Domäne beitreten. Je nach gewünschter
Verwaltungsmethode muss unter ?Remoteverwaltung konfigurieren? die entsprechende Option aktiviert werden.
6.3.2 Microsoft System Center Virtual Machine Manager
16
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
6.3.4 Gastsysteme
Die Installation der Gastsysteme in virtuellen Umgebungen unterscheidet sich nicht von der auf physikalischer
Hardware. Nach der Installation sollten jedoch die ?Integrationsdienste? installiert werden. Sie enthalten Treiber,
die es dem virtualisierten Betriebssystem ermöglichen, direkt mit dem Hypervisior zu kommunizieren. Man
spricht in diesem Fall von ?Paravirtualisierung?, d.h. das Gastsystem ist sich des Hypervisors bewusst. Zum
Vergleich: Bei ?Vollvirtualisierung? benutzt das Gastsystem ?normale? Hardwaretreiber, die vom Hypervisor
abgefangen und interpretiert werden müssen. Diese Verarbeitung kostet Ressourcen und schlägt sich mit niedriger
I/O-Leistung und hohem Overhead nieder.
7 Fazit und Ausblick
Die vorliegende Fallstudie zeigt, dass durch Virtualisierung von heterogenen Systemlandschaften effektiv Kosten
gespart werden können. Durch den reduzierten Hardwarebedarf wird nachhaltig weniger Strom für Betrieb und
Kühlleistung benötigt. Neben diesem wirtschaftlichen Aspekt wird die Flexibilität erhöht, weil die Ressourcen der
virtuellen Maschinen je nach Bedarf angepasst werden können. Dadurch kann die Auslastung gesteigert und der
Administrationsaufwand gesenkt werden. Die Live-Migration gestattet einen einfachen Austausch von Hardware.
Zudem ermöglicht das Snapshot-Backup-Konzept eine schnelle Wiederherstellung von Datenbeständen.
Für die Zukunft ist eine Disaster Recovery Strategie mit Failover-Cluster geplant. Damit soll erreicht werden,
dass im Falle des Ausfalls einer virtuellen Maschine direkt eine andere diese Position übernimmt und dadurch die
Ausfallzeit minimiert wird. Weiterhin ist vorgesehen, durch den Einsatz von Desktop-Virtualisierung den
Adinistrationsaufwand zusenken. Durch die Einführung von virtuellen Infrastrukturen steht der Acrov Consult
GmbH schließlich die Möglichkeit offen, Dienste aus dem Bereich des Cloud Computings einzuführen. Hier ist
eine Einbindung von neuen Geräten wie Smartphones und Tablets sowie die Integration externer Cloud-Dienste
denkbar.
8 Abbildungsverzeichnis
1. ? Übersicht der Virtualisierungsverfahren
2. ? Aufbau Vollvirtualisierung
3. ? Aufbau Partitionierung
4. ? Kumulierte Kosten
5. ? Formel Kapitalwertmethode
6. ? Projektplan in Microsoft Project 2007
7. ? Remoteverwaltung MMC-Konsole
8. ? Remoteverwaltung SCVMM
9. ? Hyper-V Konsole
9 Tabellenverzeichnis
1. ? Produktvergleich Softwarealternativen
2. ? Zielwertmatrix im Rahmen der Nutzwertanalyse
3. ? Kostenvergleich Hardware
4. ? Anschaffungskosten
9 Tabellenverzeichnis
17
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
5. ? Laufende Kosten
6. ? Projektplan Tabellenform
10 Fußnoten
1. ? Vgl. Thorns, F. (2008a), S. 19.
2. ? Laudon et al. (2010), S. 240.
3. ? Vgl. Thorns, F. (2008a), S. 20.
4. ? Vgl. ebd., S. 22.
5. ? Vgl. Laudon et al. (2010), S. 240.
6. ? Vgl. ebd., S. 241.
7. ? Vgl. Oed, M. (2010), S. 89.
8. ? Vgl. o.V. (2009), S. 10 f.
9. ? Vgl. ebd., S. 8.
10. ? Vgl. Söldner, J-H. (2011), S. 68.
11. ? Vgl. Oed, M. (2010), S. 89.
12. ? Vgl. Lehr, G. (2008), S. 421.
13. ? Vgl. Böckle, R. (2011), o. S.
14. ? Vgl. Thorns, F. (2008b), S. 573.
15. ? Vgl. VMWare (2012), S. 4.
16. ? Vgl. Citrix (2008), o. S.
17. ? Vgl. Zangemeister (1976), S. 7 und 9.
18. ? Vgl. ebd., insbes. S. 324 ff.
19. ? Vgl. Götze, U.(2008), S. 71 ff.
20. ? Vgl. ebd., S. 81.
21. ? Vgl. Röhrich (2007), S. 75.
22. ? Vgl. Steinmann, H., Schreyögg, G. (2000), S. 453 f.
11 Literatur- und Quellenverzeichnis
Böckle, R.
(2011)
Citrix (2008)
Götze, U.
(2008)
Laudon et al.
(2010)
Lehr, G.
(2008)
o.V. (2009)
Oed, M.
(2010)
Böckle, R.: Nach heftigen Protesten: VMware lenkt bei Lizenzierung ein,
http://www.it-business.de/hersteller/unternehmensmeldungen/unternehmensstrategien/articles/326674/, Ab
Citrix: Citrix Unveils Groundbreaking New XenServer Pricing Model Making Virtualization Easier and M
Customers Everywhere, http://www.citrix.com/English/NE/news/news.asp?newsID=1340361 , Abruf am 2
Götze, U.: Investitionsrechnung: Modelle und Analysen zur Beurteilung von Investitionsvorhaben, 6. Aufl.
Laudon, K.C., Laudon, J. P., Schoder, D.: Wirtschaftsinformatik - Eine Einführung, 2. Aufl., München 201
Lehr, G.: VM Ware ESX und Virtual Infrastructure, in: Thorns, F. (Hrsg.), Das Virtualisierungs-Buch - Ko
und Lösungen, 2. Aufl., Böblingen 2008, S. 419-466.
o.V.: Projekt Servervirtualisierung,
http://www.cleaner-production.de/fileadmin/assets/pdfs/Abschlussberichte/Abschlussbericht_20151_Klinik
Abruf am 28.02.2012.
Oed, M.: Optimierung der Software-Bereitstellung für ein Client-Server-basiertes Hochschullabor auf Basi
Virtualisierung, Bachelorarbeit an der Beuth Hochschule für Technik Berlin, Berlin 2010.
11 Literatur- und Quellenverzeichnis
18
Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen
Röhrich, M.
(2007)
Söldner, J-H.
(2011)
Steinmann, H.,
Schreyögg, G.
(2000)
Thorns, F.
(2008a)
Thorns, F.
(2008b)
VMware
(2012)
Zangemeister,
Ch. (1976)
Röhrich, M.: Grundlagen der Investitionsrechnung - Eine Darstellung anhand einer Fallstudie, München 20
Söldner, J-H.: In der privaten Wolke mit vCloud Director 1.5 ? Überführung, in: IX Magazin für profession
Informationstechnik, Ausgabe 11/2011, S. 68-72.
Steinmann, H., Schreyögg, G.: Management: Grundlagen der Unternehmensführung - Konzepte - Funktion
Aufl., Wiesbaden 2000.
Thorns, F.: Virtualisierungstechniken, in: Thorns, F. (Hrsg.), Das Virtualisierungs-Buch - Konzepte, Techn
Lösungen, 2. Aufl., Böblingen 2008, S. 19-38.
Thorns, F.: Microsoft Hyper-V, in: Thorns, F. (Hrsg.), Das Virtualisierungs-Buch - Konzepte, Techniken u
Aufl., Böblingen 2008, S. 573-582.
VMware: VMware vSphere 5.0 Lizenzierung, Preisgestaltung und Paketierung, WHITE PAPER,
http://www.vmware.com/files/pdf/vsphere_pricing.pdf, Abruf am 28.02.2012.
Zangemeister, Ch.: Nutzwertanalyse in der Systemtechnik ? Eine Methodik zur multidimensionalen Bewer
von Projektalternativen, Diss. Techn. Univ. Berlin 1970, 4. Aufl., München 1976.
11 Literatur- und Quellenverzeichnis
19
Herunterladen