Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen Fallstudienarbeit Hochschule: Hochschule für Oekonomie & Management Standort: Berlin Studiengang: Bachelor Wirtschaftsinformatik Veranstaltung: Fallstudie / Wissenschaftliches Arbeiten Betreuer: Prof. Dr. Ralf Hötling Typ: Fallstudienarbeit Themengebiet: Integration virtueller Infrastrukturen in heterogenen Umgebungen Autor(en): Benjamin Eichel, Daniel Schreiber Studienzeitmodell: Abendstudium Semesterbezeichnung: WS11/12 Studiensemester: 2 Bearbeitungsstatus: Bearbeitung abgeschlossen Prüfungstermin: Abgabetermin: Namen der Autoren: Benjamin Eichel, Daniel Schreiber Titel der Arbeit: "Integration virtueller Infrastrukturen in heterogenen Umgebungen" Hochschule und Studienort: FOM Berlin Inhaltsverzeichnis • 1 Überblick • 2 Theoretische Einführung ♦ 2.1 Definition Virtualisierung ♦ 2.2 Virtualisierungsverfahren ♦ 2.3 Vor- und Nachteile ◊ 2.3.1 Vorteile und Gründe für Virtualisierung ◊ 2.3.2 Nachteile und Herausforderungen durch Virtualisierung • 3 Ist-Zustand • 4 Soll-Zustand: Wahl der Hard- und Software ♦ 4.1 Eingrenzung der Alternativen ♦ 4.2 Betrachtung der Software-Alternativen ◊ 4.2.1 Relevante Virtualisierungslösungen ◊ 4.2.2 Nutzwertanalyse der Software-Alternativen ♦ 4.3 Kostenvergleich der Hardware-Alternativen • 5 Wirtschaftlichkeitsanalyse ♦ 5.1 Ermittlung der Anschaffungskosten ♦ 5.2 Ermittlung der laufenden Kosten ♦ 5.3 Gegenüberstellung der kumulierten Kosten ♦ 5.4 Ermittlung des Kapitalwerts • 6 Implementierung Inhaltsverzeichnis 1 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen ♦ 6.1 Herangehensweise und Zeitplan ♦ 6.2 Konzeption - Hinweise aus der Virtualisierungspraxis ♦ 6.3 Installation und Konfiguration ◊ 6.3.1 Verwaltungsmöglichkeiten ◊ 6.3.2 Microsoft System Center Virtual Machine Manager ◊ 6.3.3 Microsoft Hyper-V Server R2 ◊ 6.3.4 Gastsysteme • 7 Fazit und Ausblick • 8 Abbildungsverzeichnis • 9 Tabellenverzeichnis • 10 Fußnoten • 11 Literatur- und Quellenverzeichnis 1 Überblick Virtualisierung hat durch die Verfügbarkeit leistungsstarker Hardware und ausgereifter Virtualisierungslösungen inzwischen in fast allen Bereichen der elektronischen Datenverarbeitung Einzug gehalten. Die nachfolgende Arbeit zum Thema ?Integration virtueller Infrastrukturen in heterogenen Umgebungen? beschreibt den Prozess der Auswahl, der Planung und der Implementierung einer Virtualisierungslösung anhand eines Fallbeispiels. Hierfür wird im Anschluss an eine kurze theoretische Einführung der Ist-Zustand eines Beispielunternehmens, der Acrov Consult GmbH, dargestellt und daraus ein zweckmäßiges Soll-Konzept entwickelt. Dabei werden nicht nur Virtualisierungsprodukte nach ausgewählten Kriterien verglichen, sondern auch eine potenzielle Kostenreduktion und der zeitliche Ablauf der Umsetzung dargestellt. Den Abschluss bilden Hinweise für die Implementierungspraxis und ein Fazit mit kurzem Ausblick in die weiterführenden Möglichkeiten der Virtualisierung. 2 Theoretische Einführung 2.1 Definition Virtualisierung Thorns beschreibt Virtualisierung zunächst allgemein als die Abstraktion von Hardwareressourcen hin zu einer virtuellen Maschine.[1] Dabei könne die Virtualisierung in zwei Richtungen erfolgen: entweder als Zusammenfassung mehrerer physischer Rechner zu einem großen, sehr leistungsfähigen virtuellen System oder im Gegensatz dazu als die Aufteilung vorhandener Hardware in viele kleinere virtuelle Maschinen, die unabhängig voneinander für verschiedene Aufgaben oder von verschiedenen Anwendern genutzt werden können. Die hier vorgenommene Fallstudie beschäftigt sich mit der zweiten Variante, die von Laudon et al. folgendermaßen definiert wird: ?Unter Virtualisierung versteht man die Unterscheidung von logischen Computerressourcen und physischen Computersystemen. Durch Virtualisierung können mehrere logische 2 Theoretische Einführung 2 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen (virtuelle) Server mit unterschiedlichen Diensten, unterschiedlichen IP-Adressen und Betriebssystemen auf einem physischen System betrieben werden."[2] Diese logischen Computerressourcen oder logischen Systeme umfassen dabei alle Eigenschaften einer Arbeitsumgebung, wie sie sich aus Sicht eines Anwenders oder aus Sicht einer laufenden Anwendung darstellt. Die zentralen Elemente einer solchen Arbeitsumgebung, nämlich die CPU, der Arbeitsspeicher, der Massenspeicher und das Netzwerk-Interface - die sog. Core Four ? sind die Hauptmerkmale einer virtuellen Maschine. Während normalerweise eine solche Umgebung fest mit einem physischen Rechner verbunden ist, heben Virtualisierungstechniken diese Bindung auf und schaffen mehrere virtuelle Systemumgebungen, die in ihren Eigenschaften und ihrem Verhalten sowohl echten Systemumgebungen entsprechen, als auch parallel und voneinander isoliert innerhalb eines Betriebssystems bzw. auf einem Stück Hardware ausgeführt werden können.[3] 2.2 Virtualisierungsverfahren Es gibt unterschiedliche Techniken, um virtuelle Systemumgebungen zu erstellen. Thorns unterscheidet drei Kategorien: die ?echte? Virtualisierung, die Virtualisierung mittels Emulatoren und Partitionierungsverfahren.[4] [Abb. 1] Überblick Virtualisierungsverfahren Bei der sog. echten Virtualisierung wird die im Hostsystem vorhandene Hardware in mehrere virtuelle Maschinen aufgeteilt. Die Architektur des Hostsystems und die der virtuellen Maschinen entsprechen sich. Die virtuellen Maschinen laufen unter jeweils voneinander getrennten Betriebssystemen, die sich nicht gegenseitig beeinflussen können. Dafür setzt die Virtualisierungssoftware eine weitere Schicht zwischen die Betriebssysteme und die Hardware, die je nach der Arbeitsweise als Hypervisor oder Virtual Machine Monitor (VMM) bezeichnet wird. Zu den wichtigsten Aufgaben des VMM gehören die Emulation von nicht direkt ausführbaren Befehlen, das Belegen und Zuordnen von Hardwareressourcen zu den virtuellen Maschinen (insbesondere des Speichers) und die Isolation der einzelnen virtuellen Maschinen. 2.1 Definition Virtualisierung 3 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen [Abb. 2] Aufbau Vollvirtualisierung Das zweite Verfahren zur Generierung von virtuellen Maschinen bedient sich sog. Emulatoren. Diese ahmen einen kompletten Computer durch geeignete Software nach. Unabhängig von der tatsächlich vorhandenen Hardwarearchitektur wird eine nur durch die Software erstellte Systemumgebung geschaffen, in der ein Betriebssystem für die emulierte Plattform ausgeführt werden kann. Aus Sicht des eigentlichen Betriebssystems sind Emulatoren aber nichts anderes als Anwendungsprogramme. Emulatoren kommen meistens dann zum Einsatz, wenn auf einer Plattform gearbeitet werden muss, die lokal nicht verfügbar oder beschaffbar ist. Dies kommt bspw. dann zum tragen, wenn alte Programme, deren eigentliche Architektur nicht mehr verfügbar ist, weiterhin genutzt werden sollen oder neue Anwendungen zu testen sind, deren eigentliche Plattformen sich noch in der Entwicklung befinden. Damit ist der große Vorteil - die Plattformunabhängigkeit ? bereits genannt, die sich durch die völlige Nachbildung der virtuellen Maschine im Emulator ergibt. Der größte Nachteil dagegen ist die nicht unerhebliche Abnahme der Performance, die auf den in diesem Zusammenhang neu entstandenen großen Overhead zurückzuführen ist. Beispiele für Emulatoren sind ?Hercules?, der ?Cisco 7200 Simulator? oder ?PearPC?. Bei Partitionierungsverfahren werden innerhalb einer Betriebssysteminstanz mehrere virtuelle Umgebungen ? sog. Container oder Systempartitionen - eingerichtet, deren Prozesse, Benutzer und Dateisysteme wie in verschiedenen Systemen voneinander getrennt sind, obwohl sie weder eine eigene virtuelle Maschine noch ein eigenes Betriebssystem für sich haben. Bei dem Partitionierungsverfahren hat der Kernel des Betriebssystems eine ähnliche Funktion wie der VMM bei der echten Virtualisierung. Er prüft, ob ein Befehl auch Objekte anderer Partitionen berührt und schränkt den Befehl auf die jeweilige Partition ein. Der große Vorteil gegenüber der echten Virtualisierung ist, dass der Overhead einer vollständigen Virtualisierung entfällt, kaum Geschwindigkeitseinbußen durch Kontextbildung zu verzeichnen sind und Ressourcen nicht fest an eine Partition vergeben werden müssen, was wiederum die Flexibilität erhöht. Zu den gängigsten Partitionierungsverfahren gehören BSD-Jails, Solaris Zones, Linux VServer oder OpenVZ. 2.2 Virtualisierungsverfahren 4 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen [Abb. 3] Aufbau Partitionierung Die Virtualisierungslösung, die in diesem Projekt Verwendung findet, fällt in die Kategorie der Paravirtualisierung als Unterart der echten Virtualisierung. 2.3 Vor- und Nachteile Die Art und das Ausmaß von Vor- und Nachteilen, die sich durch Servervirtualisierung ergeben, hängen stark von der konkreten Situation der vorgefundenen IT-Umgebung und der Unternehmensprozesse ab. Grundsätzlich können nachfolgend beschriebene Gründe für Virtualisierung sprechen bzw. sind damit verbundene Herausforderungen zu bewältigen. 2.3.1 Vorteile und Gründe für Virtualisierung Zunächst kann der Nutzungsgrad der Server durch Virtualisierung gesteigert werden. Ausgehend von einem Nutzungsgrad von häufig nur 10 ? 15 %, liegt die Auslastung nach Einführung der Virtualisierungslösung oft bei 70 % oder mehr. Dies hat zur Folge, dass die Anzahl der benötigten Rechner bei gleicher Arbeitsmenge gesenkt werden kann.[5] Damit sind verschiedene andere Vorteile verbunden. Zum einen können dadurch Energiekosten eingespart werden. Zwar verbraucht ein gut ausgelasteter, virtualisierter Server mehr Energie als ein einzelner ersetzter Server mit geringem Nutzungsgrad. Im Vergleich mit der Summe der ersetzten Server kann der Energieverbrauch aber oft erheblich gesenkt werden. Bei steigenden Energiekosten ist dies ein Vorteil, dessen Bedeutung künftig zunehmen wird. Mit der Reduzierung der benötigten Zahl an Computern, geht die Reduzierung des (klimatisierten) Raumbedarfs einher. Für die Kühlung eines Servers kann u. U. noch einmal die gleiche Stromleistung wie für seinen Betrieb anfallen. Ist die Kühlung unzureichend, muss mit erhöhten Geräteausfällen gerechnet werden.[6] Zu den großen Profiteuren gehören durch die Vereinfachung einer zentralen Hardwareverwaltung und das flexiblere Ressourcen-Management die Administratoren des Netzwerks. So müssen bspw. für neue Anwendungen nicht mehr jeweils eigene Server angeschafft werden. Neben der damit einhergehenden Kostenersparnis bedeutet dies zum einen Zeitersparnis für die Administratoren bei Bestellung und für den Einkauf, zum anderen stehen die 2.3 Vor- und Nachteile 5 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen neuen Anwendungen schneller zur Verfügung, weil die Wartezeit auf den neuen Server entfällt. Die Bereitstellung neuer Systeme wird daneben ganz erheblich dadurch vereinfacht, dass die Systeme nicht mehr manuell und separat für den Einsatz konfiguriert werden müssen, sondern aus einer zentralen Managementschnittstelle heraus erstellt werden können, was wiederum Zeit spart.[7] Damit ist einer der wichtigsten Vorteile in der verbesserten Skalierbarkeit der IT-Umgebung zu sehen, die insbesondere bei Unternehmen in einem dynamischen Umfeld von Bedeutung ist. Weitere Arbeitserleichterungen bringt die Virtualisierung bspw. hinsichtlich der Kontrolle der täglichen Datensicherung mit sich, die dann vom Schreibtisch aus möglich ist[8] bzw. lassen sich durch den Einsatz von Vorlagen erzielen. Als wesentlicher Vorteil werden oft auch die erhöhte Datensicherheit und die Minimierung von Hardware-Ausfallzeiten gesehen. Durch ein redundantes Vorhalten aller Daten in einem gespiegelten Storage kann bei notwendigen Wartungsarbeiten auf den anderen Storage ausgewichen werden, so dass die Ausfallzeiten nur einige Minuten betragen. Ähnliches gilt im Falle eines Hardwareausfalls, bei dem der andere Server quasi sofort übernehmen kann. Als Pluspunkt für die Servervirtualisierung wird schließlich auch die Reduzierung des ?Computerschrotts? genannt, die sich positiv auf die Ökobilanz eines Unternehmens auswirkt - vorausgesetzt, dass die Hardware ohnehin hätte erneuert werden müssen.[9] 2.3.2 Nachteile und Herausforderungen durch Virtualisierung Mit der Servervirtualisierung sind nicht nur Vorteile verbunden. Sie stellt die Unternehmen z. T. auch vor erhebliche Herausforderungen. Söldner konstatiert, dass virtuelle Serversysteme bisweilen als ein kostengünstiges bis kostenfreies Gut wahrgenommen werden, so dass in vielen virtuellen Infrastrukturen inzwischen eine unübersichtliche Gemengelage von Produktiv-, Entwicklungs- und Testumgebungen entstanden ist. Um dies zu verhindern, seien demzufolge in regelmäßigen Abständen Aufräumarbeiten oder Richtlinien zur Vermeidung von virtuellen ?Waisen? notwendig.[10] Damit einhergehend wird u. U. auch die Lizenzverwaltung aufwändiger, da zu prüfen ist, inwieweit die eingesetzte Virtualisierungslösung durch die Nutzugsrechte an der Software gedeckt ist.[11] Durch die höhere Komplexität des virtualisierten Netzwerks steigen letztendlich die Anforderungen an die Fachkenntnisse der Administratoren. 3 Ist-Zustand Das Unternehmen: Die Acrov Consult GmbH ist ein Beratungs- und Systemhaus im Bereich der deutschen Immobilienwirtschaft. Sie bietet branchenorientierte Systemunterstützung der Geschäftsprozesse an, in deren Mittelpunkt das Optimieren von ERP-Technologien steht. Das Rechenzentrum: Das Consultingunternehmen betreibt ein 25 m² großes Rechenzentrum, in dem 50 Server rund um die Uhr in Betrieb sind. Der jährliche Stromverbrauch für den Betrieb liegt bei 345.494 kWh. Hinzu kommen Energiekosten für die Kühlung der Server von 172.747 kWh p.a. Folgende Server sind momentan auf Basis von Windows, Unix und Linux im Einsatz: Domaincontroller, Gateways, TSM-Sicherungsserver, SQL-, SAP-, File-, Print- und Mailserver. Mit der bestehenden EDV-Landschaft steht die Acrov Consult GmbH vor größerem Handlungsbedarf: 3 Ist-Zustand 6 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen • Zehn Windows Server haben den Zustand ?out-of-service? erreicht, d.h. hierfür werden vom Hersteller keine Ersatzteile bzw. kein Support mehr angeboten. • Bei 18 Servern läuft die Wartung Mitte des Jahres 2012 aus. • Auf zwei Dateiservern fehlt Festplattenspeicher für die Aufnahme weiterer Daten. • Ein Drittel der Server sind nur gering ausgelastet, weil aufgrund einer möglichen gegenseitigen Beeinflussung der Anwendungen in vielen Fällen jeweils eigene Server benötigt werden. • Energiepreise und steigender Kühlbedarf des Equipments belasten das Budget des IT-Managements. • Aus Kostengründen wird von der Anschaffung einer neuen Klimaanlage abgesehen. • Die Überwachung der Hardware nimmt viel Zeit in Anspruch. Aussichten: Aufgrund der guten Auftragslage ist auch in den kommenden Jahren mit einem hohen Kundenzuwachs mit in Folge steigendem Server- und Energiebedarf zu rechnen. 4 Soll-Zustand: Wahl der Hard- und Software 4.1 Eingrenzung der Alternativen Auf dem Markt sind sehr viele Virtualisierungslösungen verfügbar. Da eine Analyse aller Möglichkeiten einen unwirtschaftlichen Aufwand darstellt, werden im Rahmen dieses Projektes nur solche Produkte näher betrachtet, die bestimmten Voraussetzungen gerecht werden. Da es sich im vorliegenden Fall um eine Produktivumgebung handelt, gehört zu den unabdingbaren Voraussetzungen eine gewisse Reife und Stabilität der Lösung. Daneben gehören eine gesunde Nutzerbasis, kommerzieller Support und hohe Treiberqualität zu den wichtigsten Kriterien, die von Nischenprodukten oft nicht erfüllt werden können. Für die Acrov Consult GmbH werden daher als Software-Alternativen vSphere von VMWare, Hyper-V Server von Microsoft und XenServer von Citrix betrachtet. Diese Produkte werden von Unternehmen angeboten, die entweder langjährige Erfahrung im Virtualisierungsumfeld haben oder - bedingt durch ihre Marktposition ? über die Ressourcen verfügen, um einer Produktivumgebung gerecht zu werden. 4.2 Betrachtung der Software-Alternativen 4.2.1 Relevante Virtualisierungslösungen VMWare vSphere: VMWare ist ein 1998 gegründetes US-amerikanisches Unternehmen, das eine breite Palette an verschiedenen Virtualisierungsprodukten anbietet. Die Typ-1-Hypervisoren ESX und ESXi sind für das VMWare vSphere-Paket verfügbar. Bei ESX handelt es sich um eine Kombination aus Linux- und VMKernel und Service Konsole. Das Gerücht, ESX entspräche einem modifizierten Linux Betriebssystem, ist falsch - genauso wie die Vermutung, ESX sei nichts weiter als ein VMware GSX Server mit einem vorinstallierten Linux Betriebssystem.[12] Beim ESXi handelt es sich um einen ThinHypervisor, der für die Integration der Hardwarehersteller auf Flashspeicher in ihren Servern zielt. Diese Variante verzichtet auf den Linux-Kernel und auf große Teile der Service-Konsole. Das ThinHypervisior-Prinzip verringert den Overhead und die Anzahl der Sicherheitslücken. Ab der Version 5 ist vSphere nur noch mit dem ESXi Hypervisor verfügbar. Version 5 bringt einige Modifikationen in der Technik mit sich. Es wurden zudem einige Änderungen an der Lizenzierung vorgenommen: unter anderem ist die Begrenzung der Prozessorkerne und des Gesamtspeichers des Hosts unter Einführung von Hauptspeicherpools (sog. vRAM) weggefallen.[13] 4 Soll-Zustand: Wahl der Hard- und Software 7 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen Hervorzuheben ist die sehr umfangreiche Featureliste von vSphere. Unter Einhaltung der Hardware-Kompatibilitätsliste bietet vSphere außerdem eine sehr stabile und leistungsfähige Infrastruktur. Die Hardwarekompatibilität ist von allen betrachteten Produkten am geringsten. Die Verwaltung kann über CLI (Command Line Interface), vSphere Client (bei einzelnen vSphere-Servern) oder vCenter (Verwaltungssammelstelle bei großen Infrastrukturen) erfolgen. Microsoft Hyper-V Server R2: Microsoft bietet seit der Version 2008 ihres Serverbetriebssystems einen eigenen Hypervisor an. Er ist als Serverrolle für Microsoft Server ab Version 2008 oder als selbstständiges Betriebssystem unter dem Namen ?Microsoft Hyper-V Server? verfügbar. Der Hyper-V Server R2 bietet den vollen Funktionsumfang der Serverrolle und ist lizenzkostenfrei erhältlich. Es handelt sich hier um eine relativ junge Virtualisierungslösung mit noch nicht sehr umfangreichem Funktionsumfang [14], welcher jedoch von Version zu Version oder per Service Pack nachgereicht wird (z. B. RemoteFX mit dem Service Pack 1). Der Hyper-V Server bietet unter den hier betrachteten Alternativen die größte Hardwarekompatibilität, da alle Windows 2008 Treiber verwendet werden können. Die Verwaltung kann über die Microsoft Powershell (CLI), den Hyper-V Manager oder den Microsoft System Center Virtual Machine Manager (SCVMM) abgewickelt werden. Citrix XenServer: Citrix bietet mit der Xen-Familie ein breites Portfolio an Produkten an, von Anwendungsvirtualisierung (XenApp) über Desktopvirtualisierung (XenDesktop) bis Servervirtualisierung (XenServer). Der XenServer basiert auf dem Open Source Hypervisor Xen und wird pro Server lizenziert. Da der XenServer auf einem Linux-Kern fußt, ist er mit sämtlicher von Linux unterstützter Hardware kompatibel. Die Verwaltung kann über eine SSH-Sitzung (Linux-Shell) oder per XenCenter erfolgen. Produkt Lizenzierung unterstützte Gastsysteme Verwaltungsarten VMWare vSphere Pro Sockel, vRAM[15] Windows, Linux, BSD CLI, vCenter Microsoft Hyper-V Lizenzkostenfrei Windows, Linux Powershell, MMC, SCVMM Windows, Linux, BSD SSH, XenCenter Citrix XenServer Pro Server[16] [Tab. 1]Produktvergleich Softwarealternativen 4.2.2 Nutzwertanalyse der Software-Alternativen Um zur Beurteilung der Software-Alternativen nicht nur monetäre, sondern auch nicht-monetäre Kriterien heranziehen zu können, wurde die Nutzwertanalyse als Bewertungsmodell ausgewählt. Neben der Fähigkeit der Nutzwertanalyse, eine Vielzahl an Zielkriterien verarbeiten zu können, ist nach Zangemeister das besondere Kennzeichen von Nutzwertmodellen darin zu sehen, dass explizit formulierte Präferenzaussagen des Entscheidungsträgers ? und damit subjektive Informationen - berücksichtigt werden können.[17] Nach dem von Zangemeister beschriebenen Verfahren, ist zunächst ein Zielprogramm aufzustellen.[18] Bei der Acrov Consult GmbH ist es ein zweistufiges Zielprogramm, bei welchem dem Oberziel ?bestmögliche Software-Alternative? sechs Unterziele (die Kriterien) zugeordnet werden. Die Acrov Consult GmbH hat als wichtigste Kriterien geringe Anschaffungskosten und die Verfügbarkeit kommerziellen Supports genannt. Aber auch Funktionsumfang und Hardwarekompatibilität sind für das Unternehmen von großer Bedeutung. Zu den Kriterien, die zwar Beachtung finden sollen, aber einen untergeordneten Stellenwert haben, gehören die Lizenzierung und die Leistung der Windows-Gastsysteme. Den zweiten Schritt bildet das Aufstellen der Zielertragsmatrix. Hier werden die Alternativen hinsichtlich der gewählten Kriterien beschrieben (für die Auswertung der Ziele bei der Acrov Consult GmbH siehe den 4.2.1 Relevante Virtualisierungslösungen 8 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen vorangegangenen Abschnitt ?relevante Virtualisierungslösungen?). In einem dritten Schritt wird die Zielwertmatrix aufgestellt (vgl. Tabelle 2). Dazu werden die Alternativen hinsichtlich der Zielerträge bewertet. In der hier vorliegenden Nutzwertanalyse werden geringe Merkmalsausprägungen mit 0, mittlere Merkmalsausprägungen mit 5 und hohe Merkmalsausprägungen mit 10 als Bewertungsschema festgelegt. Die Bestimmung der relativen Gewichte der Kriterien erfolgt im vierten Schritt: Nach den o. a. Präferenzen der Acrov Consult GmbH werden geringe Anschaffungskosten und guter Support mit 25 %, hoher Funktionsumfang und Hardwarekompatibilität mit 15 % und hohe Leistungsfähigkeit und Lizenzierung mit 10 % gewichtet. Im fünften und letzten Schritt ist die Wertsynthese vorzunehmen. Im vorliegenden Fall erzielt Hyper-V den höchsten Gesamtnutzwert und wird somit als beste Alternative angesehen. Alternative Kriterium / Gewicht vSphere Hyper-V viel mittel Funktionsumfang 15% 10 1,5 5 0,75 wenig viel Lizenzierung 10% 0 0 10 1 mittel viel Hardwarekompatibilität 15% 5 0,75 10 1,5 wenig viel Anschaffungskosten 25% 0 0 10 2,5 viel mittel Support 25% 10 2,5 5 1,25 viel viel Performance 10% 10 1 10 1 Σ / Gesamtnutzwert 100% 5,75 8,00 [Tab. 2]Zielwertmatrix im Rahmen der Nutzwertanalyse XenServer mittel 5 0,75 mittel 5 0,5 viel 10 1,5 mittel 5 1,25 mittel 5 1,25 mittel 5 0,5 5,75 4.3 Kostenvergleich der Hardware-Alternativen Aufgrund der fast identischen Hardwarekonfiguration seitens der Hersteller wird bei der Analyse der Hardware-Alternativen der Fokus auf die Gegenüberstellung der Kosten gelegt. Die Hardwareanforderungen wurden folgendermaßen definiert: Um die Ausfallzeiten zu minimieren, sind alle betriebsnotwendigen Hardwarekomponenten redundant ausgelegt. Die Server verfügen über redundante Netzteile, um bei einem möglichen Ausfall die Reparatur bei laufendem Betrieb vornehmen zu können. Zudem wird ein gespiegelter Festfestplattenverbund (RAID1) für das Betriebssystem eingesetzt und die virtuellen Maschinen auf einem separaten RAID5-Feld (Nutzkapazität 2,7TB) untergebracht. Die Sicherung der virtuellen Maschinen erfolgt täglich anhand eines Snapshots (Systemabzug), der auf unserem Storage-Server abgelegt wird. Die Server verfügen jeweils über zwei Prozessoren mit je 4 Kernen und 64GB Hauptspeicher. Als Massenspeichermedium kommen SAS-Festplatten zum Einsatz, weil diese hot-plug-fähig und für den Dauerbetrieb ausgerichtet sind. Als Serverbauart wurde ein 2HE 19? Rack ausgewählt, da hierfür bereits ein 4.2.2 Nutzwertanalyse der Software-Alternativen 9 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen leerer Schrank im Rechenzentrum vorhanden ist und eine mechanische Zugriffssicherheit gewährleistet wird. Die folgende Tabelle stellt die beiden entsprechenden Angebote von Dell und IBM gegenüber. Da die Hardware von Dell kostengünstiger ist, fällt die Wahl auf dieses Angebot. Merkmal Modell IBM X3630 M3 Vor-Ort-Service 5 Jahre Next Day Dell R510 5 Jahre Next Day CPU Xeon E5645 Xeon E5620 Arbeitsspeicher 64GB DDR3 64GB DDR3 Festplatten 12 * 300GB SAS 12 * 300GB SAS Gesamtpreis 9.991 ? 8.541 ? Entscheidung [Tab. 3]Kostenvergleich Hardware X 5 Wirtschaftlichkeitsanalyse Nachdem im vorangegangenen Abschnitt der von der Acrov Consult GmbH gewünschte Soll-Zustand definiert worden ist, gilt es nun zu prüfen, ob die geplante Virtualisierungslösung gegenüber der Alternative ? dem Betrieb über herkömmliche Server ohne Virtualisierung ? auch wirtschaftlich vorteilhaft ist oder nicht. Ein gängiges Investitionsrechenverfahren zur Beurteilung der Wirtschaftlichkeit ist die Kapitalwertmethode. Dieses Verfahren dient der Beurteilung der absoluten und/oder relativen Vorteilhaftigkeit von Investitionsalternativen unter Berücksichtigung einer einzelnen (monetären) Zielgröße und gehört zu den dynamischen Verfahren unter Sicherheit.[19] Die Zielgröße - der Kapitalwert - ist der Vermögenszuwachs einer Investition. Er entspricht der Summe aller auf einen Zeitpunkt auf- bzw. abgezinsten Ein- und Auszahlungen, die durch die Realisation eines Investitionsobjekts verursacht werden, abzgl. der Anschaffungsausgaben. Für den Fall, dass künftige Einzahlungen der Investition nicht zugeordnet werden können (wie beim Rechenzentrum der Acrov Consult GmbH) oder die Einzahlungen der Investitionsalternativen gleich sind, kann zur Beurteilung der Vorteilhaftigkeit auch nur der Barwert der Auszahlungen bestimmt werden.[20] Ein Investitionsobjekt ist absolut vorteilhaft, falls sein Kapitalwert größer ist als Null und relativ vorteilhaft, falls sein Kapitalwert größer ist als derjenige des alternativen Objekts. Für den Fall, dass die Investition keine Rückflüsse generiert (oder die Rückflüsse nicht zugeordnet werden können), ist dasjenige Projekt zu wählen, dessen Auszahlungen den geringsten Barwert haben.[21] Im Vorgriff auf die folgenden beiden Abschnitte ist anzumerken, dass der Kapitalwertmethode Aus- und Einzahlungen und nicht Kosten und Leistungen zu Grunde liegen. Es wird hier davon ausgegangen, dass die kalkulierten Kosten gleichzeitig zu Auszahlungen in entsprechender Höhe führen und daher die Kapitalwertmethode angewendet werden kann. 5 Wirtschaftlichkeitsanalyse 10 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen 5.1 Ermittlung der Anschaffungskosten Für die Kalkulation der Anschaffungskosten werden die Kosten für die Hardware, die Software und die Installation der Server und der Betriebssysteme berücksichtigt. Hinzu kommen Kosten für die Schulung der Administratoren. Die Installation der zwölf Hyper-V Server und der Betriebssysteme der 40 virtuellen Maschinen wird mit einer Gesamtdauer von 30 Stunden angegeben. Die Zeit resultiert aus der Möglichkeit, Vorlagen von virtuellen Maschinen zu erstellen. Dadurch ist nur eine einmalige Standardinstallation des Betriebsystems nötig. Die Anschaffungskosten für eine neue, virtuelle EDV-Umgebung belaufen sich auf insgesamt 141.632 ?. Der Vergleich mit einer physikalischen Umgebung ergibt Mehrkosten von insgesamt 44.532 ?. Bei alleiniger Betrachtung der Anschaffungskosten ist - bedingt durch den höheren Preis der Hardware - die Virtualisierungslösung kostenintensiver. Physikalische Server Virtuelle Server Menge Einzelpreis Anschaffung Menge Server Hardware 50 1.480 ? 74.000 ? Nicht virtualisierbare Server Windows Server 2008 R2 40 540 ? 21.600 ? Microsoft System Center Installation der Betriebssysteme 50 Std. 30 ? 1.500 ? Einzelpreis Anschaffung 12 (10+2 Backup) 8.541 ? 102.492 ? 5 1.480 ? 7.400 ? 40 540 ? 21.600 ? 1 1.240 ? 1.240 ? 30 Std. 30 ? 900 ? Schulungen 8.000 ? Summe [Tab. 4]Anschaffungskosten 97.100 ? 141.632 ? 5.2 Ermittlung der laufenden Kosten Für die Kalkulation der laufenden Kosten werden die Energiekosten für den Betrieb und die Kühlung der Infrastruktur sowie die Monitoringkosten für den Zeitraum von fünf Jahren bestimmt. Weitere Kosten, bspw. für Material, Löhne oder Steuern etc., werden hier als bei beiden Alternativen identisch angenommen und daher nicht betrachtet. Die laufenden Kosten betragen nach fünf Jahren 445.475 ? für die physikalische Lösung gegenüber 280.765 ? bei der virtualisierten Infrastruktur. Die Gegenüberstellung der laufenden Kosten ergibt einen Kostenvorteil der virtuellen Server im Vergleich zur physikalischen Alternative von rund 37 %. Physikalische Summe der laufenden Kosten Server Virtuelle Server (Hyper-V) Energiekosten Betrieb / Jahr 42.363 ? 25.746 ? Energiekosten Kühlung / Jahr 21.182 ? 13.252 ? 5.1 Ermittlung der Anschaffungskosten 11 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen Monitoringkosten / Jahr 25.550 ? 17.155 ? Gesamtkosten / Jahr 89.095 ? 56.153 ? Gesamtkosten über 5 Jahre Kosten 445.475 ? 280.765 ? [Tab. 5]Laufende 5.3 Gegenüberstellung der kumulierten Kosten Die folgende Grafik vergleicht die kumulierten Kosten der beiden Investitionsalternativen. Es zeigt sich, dass sich durch die geringeren laufenden Kosten die höheren Anschaffungskosten bereits nach ca. eineinhalb Jahren amortisiert haben. Dabei ist allerdings zu berücksichtigen, dass es sich um eine reine Addition der anfallenden Kosten ohne Berücksichtigung des Zeitwerts der Ausgaben handelt. [Abb. 4] Kumulierte Kosten 5.4 Ermittlung des Kapitalwerts Die Berechnung des Kapitalwerts nach der Formel: [Abb. 5] Formel Kapitalwertmethode ergibt bei einem Kalkulationszinssatz von 5% und einer Nutzungsdauer von 5 Jahren für die Alternative ?Physikalische Server? einen Kapitalwert von rund -482.835 ? und für die virtualisierte Lösung einen Kapitalwert von rund -384.745 ?. Da die Auszahlungen der Hyper-V Lösung den geringeren Barwert besitzen, gilt diese 5.2 Ermittlung der laufenden Kosten 12 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen Investitionsalternative nach der Kapitalwertmethode als relativ vorteilhaft gegenüber dem Alternativobjekt. 6 Implementierung 6.1 Herangehensweise und Zeitplan Umfangreiche Projekte wie dieses bedeuten nicht nur technische Veränderungen für das Unternehmen, sondern auch organisatorische und oftmals auch persönliche Veränderungen für die betroffenen Mitarbeiter. Neben der technischen Implementierung - auf die in den folgenden Abschnitten eingegangen wird - ist daher stets auch auf die Einbindung der betroffenen Mitarbeiter zu achten, um Befürchtungen oder Abwehrhaltungen zu vermeiden. Die Betriebswirtschaftslehre hat Konzepte zur Vermeidung bzw. Überwindung von "Widerständen gegen Änderungen" entwickelt. Steinmann/Schreyögg beschreiben in diesem Kontext vier ?goldene Regeln? organisatorischen Wandels.[22] Aktive Teilnahme am Veränderungsgeschehen: Die betroffenen Mitarbeiter sollen umfassend über die Hintergründe des anstehenden Wandels informiert werden und an den Entscheidungen partizipieren können. Übertragen auf die Acrov Consult GmbH beginnt dies bereits mit der Bestandsaufnahme des Ist-Zustands. Die Systemadministratoren sind aber während des ganzen Prozesses ohnehin für die Bereitstellung von Informationen, Einschätzungen hinsichtlich der benötigten Systemleistung etc. unabdingbar und damit im Projektgeschehen involviert. Die Gruppe als wichtiges Wandelmedium: Es hat sich gezeigt, dass Änderungsprozesse in Gruppen weniger beängstigend sind und schneller vollzogen werden. Die Implementierungsphase bei der Acrov-Consult GmbH sollte daher kontinuierlich von regelmäßigen Gesprächen in der Gruppe begleitet werden, in denen Informationen ausgetauscht und Umsetzungsschwierigkeiten thematisiert werden können. Dies knüpft auch zugleich an die dritte Regel - die ?gegenseitige Kooperation? - an, durch die die Wandelbereitschaft gefördert wird. Als vierter und letzter Punkt werden das "Auftauen" alter Gewohnheiten zu Beginn des Projekts und die "Stabilisierung" gegen Ende des Prozesses genannt. Die eingespielten Arbeitsaufteilungen und Gewohnheiten müssen anfangs in Frage gestellt und neue Ideen diskutiert werden. Zum Projektabschluss sind die neuen Strukturen dann wieder ?einzufrieren?, um nicht durch die Macht der Gewohnheit in alte Strukturen zurückzukehren. Das Projekt wird im Zeitraum vom 14.02.2012 bis zum 30.11.2012 durchgeführt. Nach Abzug von Wochenenden und Feiertagen ergibt dies eine effektive Dauer von 127 Tagen, an denen jeweils 8 Stunden am Projekt gearbeitet wird. Zeitraum Projektabschnitt Bis Ende Februar 2012 Beschaffung der Hardware und der entsprechenden Software für das Testszenario. Bis Mitte März 2012 Schulung der fünf Administratoren. Bis Ende März 2012 Installation und Test der Prototypen Installation und Konfiguration von zwei Prototypen (Hyper-V Server). Anlegen von Vorlagen für das Einrichten der virtuellen Maschinen und Installation der Test-Server. 6 Implementierung 13 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen Überprüfung der Funktionalität der Hyper-V Server. Live-Migration der virtuellen Maschinen von Host zu Host. Einrichten der Sicherungsmethodik und Erstellung eines Disaster Recovery Plans, gefolgt von einem Disaster Recovery Test. Bis Ende April 2012 Einkauf der übrigen Hard- und Software für die geplante Virtualisierungsumgebung. Bis Ende August 2012 Installation der Hyper-V Server. Anlegen der virtuellen Maschinen und/oder Migration der bisherigen Server. Testphase, gefolgt von der Domainintegration und dem Einrichten der Sicherungsverfahren. Bis Ende November 2012 Übergang in den Produktivbetrieb. [Tab. 6]Projektplan Tabellenform [Abb. 6] Microsoft Project 2007 6.2 Konzeption - Hinweise aus der Virtualisierungspraxis Um eine leistungsstarke virtuelle Infrastruktur zu gewährleisten, ist es notwendig, sich einige Tatsachen bewusst zu machen. • Virtualisierung sollte immer in Verbindung mit Konsolidierung erfolgen, d.h. dass Systeme und Prozesse zusammengeführt werden. Konsolidierung kann verschiedene Beweggründe haben, z. B. Festigung, Vereinfachung oder Erhöhung der Flexibilität einer Infrastruktur. Da bei der Acrov Consult GmbH eine Verdichtung der Infrastruktur integraler Bestandteil des Projekts ist, sollte versucht werden, die Systeme durch gezieltes Zusammenlegen und Trennen auf weniger Hosts zu verteilen. • Bei der Virtualisierung von Systemen entsteht immer zusätzlicher Rechenaufwand (sog. Overhead) für Verteilung und Verwaltung der physikalischen Ressourcen. Mit einer wachsenden Anzahl virtueller Systeme steigt auch der Overhead. • Es ist wichtig zu verstehen, was Systemleistung ist und was seine beeinflussenden Faktoren sind. Systemleistung setzt sich vor allem aus zwei Faktoren zusammen: der Prozessorleistung und der Input/Output-Leistung (I/O-Leistung). Unter Prozessorleistung wird die reine Rechenleistung eines Systems verstanden; diese ist in der Regel bei der Virtualisierung ein eher untergeordneter Faktor. Die I/O-Leistung sagt aus, wie schnell die Daten gelesen und geschrieben werden können. Ist die I/O-Leistung zu gering bemessen, kann der Prozessor nicht mit Daten versorgt werden und zu einem träge reagierenden System bei niedriger Prozessorauslastung führen. Deshalb sind Vorüberlegungen zu Art und Verteilung der Speichermedien von großer Bedeutung. Durch die gewünschte, bessere Auslastung des physikalischen Servers durch Virtualisierung treten Schwächen mechanischer Speichermedien zu Tage bzw. verstärken sich. Das Positionieren der Lese-/Schreibköpfe einer Festplatte dauert einige Millisekunden (z. B. 4,5 Ms bei SAS-Festplatten mit 15.000 rpm) und sollte 6.1 Herangehensweise und Zeitplan 14 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen deshalb vermieden werden. Bei Schreib-/Lesezugriffen wird zwischen SEQUENTIAL (Datenströme - z. B. File-Server) und RANDOM (zufällig - z. B. Datenbanken) unterschieden. Bei Systemen, die sehr unterschiedliches Schreib-/Leseverhalten aufweisen, verschlechtert sich die I/O-Leistung drastisch. Aus diesem Grund sollte vorher das Verhalten der einzelnen Server analysiert und Systeme mit ähnlichem Verhalten gruppiert werden. Das Auslastungsverhalten kann mit Tools, wie dem SQL Server-Hilfsprogramm aus dem Microsoft SQL Management Studio, analysiert werden. Danach kann die Leistungsfähigkeit der virtuellen Maschinen mit leicht verstärkter Systemlast (z. B. mit SQLIO) getestet werden. Virtuelle Maschinen, die eher RANDOM-Zugriffe verursachen, sollten mit ausreichend Hauptspeicher ausgestattet sein, um Zugriffe auf die Festplatten zu reduzieren. Server, die bereits unter hoher Last stehen, sollten aus Leistungsbeweggründen nicht virtualisiert werden, können aber zur Erleichterung bei der Wartung in eine virtuelle Maschine umgewandelt werden (z. B. um Live-Migration oder Failover zu realisieren). • Ferner sollte eine Gesamtsystemlast von ca. 80% erreicht werden, um bei außergewöhnlichen Belastungen (z. B. bei Monats- oder Jahresabschlüssen) noch einen gewissen Puffer zu haben. 6.3 Installation und Konfiguration 6.3.1 Verwaltungsmöglichkeiten Zur Verwaltung der Hyper-V Server R2 stehen verschiedene Verfahren zur Verfügung. Zum einen können die Hyper-V Server über eine CLI, die sog. Microsoft Powershell, gesteuert werden. Die Powershell eignet sich in Fällen, in denen Abläufe über Skripts automatisiert werden sollen. Alternativ können die sog. Microsoft Management Console (MMC) oder der Microsoft System Center Virtual Machine Manager (SCVMM) genutzt werden. [Abb. 7] Beispiel MMC-Gerätemanger Die MMC-Schnittstelle ermöglicht den Zugriff auf den Hyper-V Server über eine Remote-Konsole. Dies ermöglicht das zentrale Verwalten mehrerer Server, stellt allerdings auch einen relativ hohen Aufwand bei der Konfiguration dar und bringt einige Einschränkungen mit sich (z. B. erfolgt der Zugriff auf den Geräte Manager nur im Lese-Modus). Der SCVMM ähnelt optisch den anderen System Center Produkten, richtet allerdings sein Hauptaugenmerk auf die Funktionen zur Verwaltung von virtuellen Infrastrukturen (beschränkt sich aber nicht auf diese). Auf den zu verwaltenden Systemen muss ein sog. Service Agent installiert werden, der danach mit dem System Center kommuniziert. Dieser Agent informiert das System Center über Statusänderungen und ermöglicht die Steuerung der Systeme oder auch die Verteilung von Software (z. B. Aktualisierungen der Integrationsdienste). Es ist außerdem möglich, virtuelle Maschinen von einem verwalteten Host auf einen anderen zu verschieben (sog. Live Migration). Zudem können virtuelle Maschinen mit Prioritäten versehen werden, um beim Wiederanlauf des Hosts z. B. die Startreihenfolge zu beeinflussen. 6.2 Konzeption - Hinweise aus der Virtualisierungspraxis 15 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen 6.3.2 Microsoft System Center Virtual Machine Manager [Abb. 8] Beispiel SCVMM-Hostverwaltung Der SCVMM besteht aus den drei Bestandteilen SystemCenter-Server, SQL-Datenbank und Administrationskonsole und wird auf einem Windows Server Betriebssystem betrieben. Die drei Komponenten können auf einem System installiert oder auf mehrere Systeme verteilt werden. Es besteht die Möglichkeit, einen Microsoft SQL Server 2005 Express während der Installation des SCVMM mit zu installieren oder einen vorhandenen Microsoft SQL Server zu verwenden. Bei der Acrov Consult GmbH wird die aktuelle Version des Microsoft SQL Server 2008 R2 SP1 verwendet. Die Installation des Servers beschränkt sich auf Speicherort der Installation, Installation/Auswahl der Datenbank und Konfiguration der für die Kommunikation verwendeten Ports. Da mehrere Administrationskonsolen auf einen System Center-Server zugreifen können, empfiehlt sich die lokale Installation auf dem Server und dem für die Administration vorgesehenen Windows PC. Nach der Installation können die Hyper-V Server in die Hostliste eingefügt und eine Bibliothek angelegt werden. Eine Bibliothek kann Datenträger in Form von sog. ISO-Dateien enthalten und/oder Vorlagen für virtuelle Maschinen. Es empfiehlt sich, zuerst die Betriebssystem-Datenträger in die Bibliothek einzufügen, damit diese dann für die Installation der ersten virtuellen Maschinen bzw. Vorlagen zur Verfügung stehen. Nachdem die Hyper-V Server entweder über ihre Netzwerkadresse oder den Active Directory-Verzeichnisdienst in die Liste der zu verwaltenden Hosts aufgenommen wurden, sollten die verbleibenden Netzwerkanschlüsse für die Verwendung durch virtuelle Maschinen konfiguriert werden. Das Erstellen von Vorlagen besteht aus zwei Schritten: dem Erstellen bzw. Installieren einer virtuellen Maschine und der Umwandlung in eine Vorlage. Hierbei ist zu beachten, dass die virtuelle Maschine nach der Umwandlung nur noch als Vorlage zur Verfügung steht. 6.3.3 Microsoft Hyper-V Server R2 [Abb. 9] Beispiel Hyper-V Konsole Die Installation der Hyper-V Server entspricht der einer Microsoft Server 2008 Core-Installation. Die Interaktion beschränkt sich auf das Nachladen von Treibern und der Auswahl des Zielmediums. Nach der Installation muss das Passwort des Administrators vor der ersten Anmeldung gesetzt werden. Als Erstes sollte das Netzwerk Interface konfiguriert werden, welches für die Verwaltung vorgesehen ist. Danach kann der Hyper-V einen sprechenden Namen erhalten und gegebenenfalls einer Domäne beitreten. Je nach gewünschter Verwaltungsmethode muss unter ?Remoteverwaltung konfigurieren? die entsprechende Option aktiviert werden. 6.3.2 Microsoft System Center Virtual Machine Manager 16 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen 6.3.4 Gastsysteme Die Installation der Gastsysteme in virtuellen Umgebungen unterscheidet sich nicht von der auf physikalischer Hardware. Nach der Installation sollten jedoch die ?Integrationsdienste? installiert werden. Sie enthalten Treiber, die es dem virtualisierten Betriebssystem ermöglichen, direkt mit dem Hypervisior zu kommunizieren. Man spricht in diesem Fall von ?Paravirtualisierung?, d.h. das Gastsystem ist sich des Hypervisors bewusst. Zum Vergleich: Bei ?Vollvirtualisierung? benutzt das Gastsystem ?normale? Hardwaretreiber, die vom Hypervisor abgefangen und interpretiert werden müssen. Diese Verarbeitung kostet Ressourcen und schlägt sich mit niedriger I/O-Leistung und hohem Overhead nieder. 7 Fazit und Ausblick Die vorliegende Fallstudie zeigt, dass durch Virtualisierung von heterogenen Systemlandschaften effektiv Kosten gespart werden können. Durch den reduzierten Hardwarebedarf wird nachhaltig weniger Strom für Betrieb und Kühlleistung benötigt. Neben diesem wirtschaftlichen Aspekt wird die Flexibilität erhöht, weil die Ressourcen der virtuellen Maschinen je nach Bedarf angepasst werden können. Dadurch kann die Auslastung gesteigert und der Administrationsaufwand gesenkt werden. Die Live-Migration gestattet einen einfachen Austausch von Hardware. Zudem ermöglicht das Snapshot-Backup-Konzept eine schnelle Wiederherstellung von Datenbeständen. Für die Zukunft ist eine Disaster Recovery Strategie mit Failover-Cluster geplant. Damit soll erreicht werden, dass im Falle des Ausfalls einer virtuellen Maschine direkt eine andere diese Position übernimmt und dadurch die Ausfallzeit minimiert wird. Weiterhin ist vorgesehen, durch den Einsatz von Desktop-Virtualisierung den Adinistrationsaufwand zusenken. Durch die Einführung von virtuellen Infrastrukturen steht der Acrov Consult GmbH schließlich die Möglichkeit offen, Dienste aus dem Bereich des Cloud Computings einzuführen. Hier ist eine Einbindung von neuen Geräten wie Smartphones und Tablets sowie die Integration externer Cloud-Dienste denkbar. 8 Abbildungsverzeichnis 1. ? Übersicht der Virtualisierungsverfahren 2. ? Aufbau Vollvirtualisierung 3. ? Aufbau Partitionierung 4. ? Kumulierte Kosten 5. ? Formel Kapitalwertmethode 6. ? Projektplan in Microsoft Project 2007 7. ? Remoteverwaltung MMC-Konsole 8. ? Remoteverwaltung SCVMM 9. ? Hyper-V Konsole 9 Tabellenverzeichnis 1. ? Produktvergleich Softwarealternativen 2. ? Zielwertmatrix im Rahmen der Nutzwertanalyse 3. ? Kostenvergleich Hardware 4. ? Anschaffungskosten 9 Tabellenverzeichnis 17 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen 5. ? Laufende Kosten 6. ? Projektplan Tabellenform 10 Fußnoten 1. ? Vgl. Thorns, F. (2008a), S. 19. 2. ? Laudon et al. (2010), S. 240. 3. ? Vgl. Thorns, F. (2008a), S. 20. 4. ? Vgl. ebd., S. 22. 5. ? Vgl. Laudon et al. (2010), S. 240. 6. ? Vgl. ebd., S. 241. 7. ? Vgl. Oed, M. (2010), S. 89. 8. ? Vgl. o.V. (2009), S. 10 f. 9. ? Vgl. ebd., S. 8. 10. ? Vgl. Söldner, J-H. (2011), S. 68. 11. ? Vgl. Oed, M. (2010), S. 89. 12. ? Vgl. Lehr, G. (2008), S. 421. 13. ? Vgl. Böckle, R. (2011), o. S. 14. ? Vgl. Thorns, F. (2008b), S. 573. 15. ? Vgl. VMWare (2012), S. 4. 16. ? Vgl. Citrix (2008), o. S. 17. ? Vgl. Zangemeister (1976), S. 7 und 9. 18. ? Vgl. ebd., insbes. S. 324 ff. 19. ? Vgl. Götze, U.(2008), S. 71 ff. 20. ? Vgl. ebd., S. 81. 21. ? Vgl. Röhrich (2007), S. 75. 22. ? Vgl. Steinmann, H., Schreyögg, G. (2000), S. 453 f. 11 Literatur- und Quellenverzeichnis Böckle, R. (2011) Citrix (2008) Götze, U. (2008) Laudon et al. (2010) Lehr, G. (2008) o.V. (2009) Oed, M. (2010) Böckle, R.: Nach heftigen Protesten: VMware lenkt bei Lizenzierung ein, http://www.it-business.de/hersteller/unternehmensmeldungen/unternehmensstrategien/articles/326674/, Ab Citrix: Citrix Unveils Groundbreaking New XenServer Pricing Model Making Virtualization Easier and M Customers Everywhere, http://www.citrix.com/English/NE/news/news.asp?newsID=1340361 , Abruf am 2 Götze, U.: Investitionsrechnung: Modelle und Analysen zur Beurteilung von Investitionsvorhaben, 6. Aufl. Laudon, K.C., Laudon, J. P., Schoder, D.: Wirtschaftsinformatik - Eine Einführung, 2. Aufl., München 201 Lehr, G.: VM Ware ESX und Virtual Infrastructure, in: Thorns, F. (Hrsg.), Das Virtualisierungs-Buch - Ko und Lösungen, 2. Aufl., Böblingen 2008, S. 419-466. o.V.: Projekt Servervirtualisierung, http://www.cleaner-production.de/fileadmin/assets/pdfs/Abschlussberichte/Abschlussbericht_20151_Klinik Abruf am 28.02.2012. Oed, M.: Optimierung der Software-Bereitstellung für ein Client-Server-basiertes Hochschullabor auf Basi Virtualisierung, Bachelorarbeit an der Beuth Hochschule für Technik Berlin, Berlin 2010. 11 Literatur- und Quellenverzeichnis 18 Integration_virtueller_Infrastrukturen_in_heterogenen_Umgebungen Röhrich, M. (2007) Söldner, J-H. (2011) Steinmann, H., Schreyögg, G. (2000) Thorns, F. (2008a) Thorns, F. (2008b) VMware (2012) Zangemeister, Ch. (1976) Röhrich, M.: Grundlagen der Investitionsrechnung - Eine Darstellung anhand einer Fallstudie, München 20 Söldner, J-H.: In der privaten Wolke mit vCloud Director 1.5 ? Überführung, in: IX Magazin für profession Informationstechnik, Ausgabe 11/2011, S. 68-72. Steinmann, H., Schreyögg, G.: Management: Grundlagen der Unternehmensführung - Konzepte - Funktion Aufl., Wiesbaden 2000. Thorns, F.: Virtualisierungstechniken, in: Thorns, F. (Hrsg.), Das Virtualisierungs-Buch - Konzepte, Techn Lösungen, 2. Aufl., Böblingen 2008, S. 19-38. Thorns, F.: Microsoft Hyper-V, in: Thorns, F. (Hrsg.), Das Virtualisierungs-Buch - Konzepte, Techniken u Aufl., Böblingen 2008, S. 573-582. VMware: VMware vSphere 5.0 Lizenzierung, Preisgestaltung und Paketierung, WHITE PAPER, http://www.vmware.com/files/pdf/vsphere_pricing.pdf, Abruf am 28.02.2012. Zangemeister, Ch.: Nutzwertanalyse in der Systemtechnik ? Eine Methodik zur multidimensionalen Bewer von Projektalternativen, Diss. Techn. Univ. Berlin 1970, 4. Aufl., München 1976. 11 Literatur- und Quellenverzeichnis 19