Webinar Neuerungen in Failover Clustering in 2016

Werbung
Webinar Neuerungen in
Failover Clustering in 2016
Carsten Rachfahl
Cloud and Datacenter Management MVP
Microsoft Regional Director
Carsten Rachfahl
Microsoft Cloud & Datacenter Management MVP
Microsoft Reginal Director
Mit-Organisator der Cloud & Datacenter Conference
Germany http://cdc-gemany.de
Mit Gründer der Hyper-V Community
Twitter @hypervserver
Einer der Hyper-V Amigos http://hyper-v-amigos.net
Geschäftsführer der Rachfahl IT-Solutions GmbH & Co. KG
https://www.hyper-v-server.de
Cluster Validation Wizard
• Support der neuen und erweiterten
Szenarien (Same Subnet
Multichannel, S2D, …)
• Der Cluster Validation Wizard sollte
als Hilfstool dienen das Fehler
aufdeckt
• Wichtig für einen supporteten Cluster
Verbessertes ClusterLog
• Time zone: Benutzt UTC mit Offset zur Localen Zeit
• Beinhaltet weitere nützliche Informationen, wie z.B.:
• Cluster Objekte mit CSV Informationen
• Folgende Event Channels:
System
Microsoft-Windows-FailoverClustering/Operational logs
Microsoft-Windows-ClusterAwareUpdating-Management/Admin
Microsoft-Windows-ClusterAwareUpdating/Admin log
• DiagnosticVerbose Event log (Ab Loglevel 5)
Microsoft-Windows-FailoverClustering/DiagnosticVerbose
Active Memory Dump
• Beinhaltet nur ManagementOS Speicher
• Ist sehr klein
• Sicherer da keine RAM der VMs
• Nicht Cluster spezifisch aber sehr
hilfreich bei Hyper-V Cluster
• Memory Dump Optionen:
•
•
•
•
•
•
None
Complete Memory Dump
Kernel Memory Dump
Small Memory Dump
Automatic Memory Dump (Default)
Active Memory Dump
Cluster Rolling Upgrade
Rolling Cluster Upgrade ermöglicht es
einen Cluster inplace Upzugraden
• Vorgehen pro Host:
Node Freiräumen und aus Cluster nehmen
Betriebssystem neu Installieren
Node in Cluster aufnehmen
Wiederholen bis alle Nodes auf neuem
Betriebssystem sind
• Clusterfunktionslevel erhöhen
•
•
•
•
• Unterstütze Cluster Rollen:
• Hyper-V
• Scale-Out Fileserver
Win2012
Win2016
R2
Win2012
Win2016
R2
Win2012
Win2016
R2
Cluster Resiliency
• VM Compute Resiliency erhöht die Verfügbarkeit der
VMs bei Netzwerkproblemen
• VM Compute Resiliency Workflows Im Falle eines
Fehlers bei der Inter-Cluster-Kommunikation:
• Knoten wird isoliert
• Die VMs werden nicht mehr gemonitort
• SMB-Storage: VMs laufen weiter
• Block Storage: VMs sind Paused-Critical
• Kommunikationsprobleme > 4 Minuten
• Failover der VMs
• Host wird als Down gekennzeichnet
• 3 Isolierungen pro Stunde => Quarantäne Mode
VMs laufen erstmal
weiter wenn der Knoten
Isoliert wird
?
Network
Fehler
Cluster Resiliency
• Isolated Mode
• Knoten ist nicht länger aktives
Mitglied des Failover Cluster
• VMs werden auf dem Knoten weiter
betrieben
• Quarantäne Mode
• Knoten darf dem Cluster nicht mehr
beitreten (Standardwert: 2 Stunden)
• VMs werden auf andere Knoten
migriert
Block Storage – Pfad Fehler
Verhalten:
• CSV Redirected Mode I/O läuft über anderen
Knoten
• VM läuft weiter
• VM Storage Resiliency
findet nicht statt
•
•
•
•
Storage Verbindungs-Fehler
Storage Stack Fehler
HBA Fehler
Kabel Fehler
Switch Port Fehler
VHD
FC/FCoE/iSCSI/SAS
Block Storage – Alle Pfade fallen aus
Verhalten:
• VM wechselt in Pause
Zustand
• Redirected Mode macht
keinen Sinn da kein Pfad zum
Storage vorhanden ist
• VM bleibt pausiert bis:
• der Storage wieder
verfügbar ist
• 30 Minuten abgelaufen
SAN Ausfall
betrifft alle Knoten
VHD
FC/FCoE/iSCSI/SAS
sind - danach wird VM
ausgeschaltet und auf
anderem Server gestartet
File Storage – Pfad Fehler
Verhalten:
• VM wechselt in Pause Zustand
Knoten bleibt im Cluster
da es
Netzwerkkomunikation
gibt
• VM bleibt pausiert bis:
• der Storage wieder
verfügbar ist
• 30 Minuten abgelaufen sind
•
•
•
•
Netzwerk Verbindungs-Fehler
NIC Treiber
Hardware NIC Ausfall
Kabel Fehler
Switch Port Fehler
danach wird VM
ausgeschaltet und auf
anderem Server gestartet
SMB
VHD
Vereinfachtes Multi-NIC Cluster Netzwerke
•
•
•
•
Cluster nutzt jetzt mehere NICs im gleichen
Subnetz
Alle NICs die im selben Subnetz sind werden
automatisch registriert
Cluster Validierung kennt das Szenario und
läuft ohne Fehler
Damit ist SMB-Multichannel im gleichen Netz
möglich
Virtual Machine Load Balancing
• Virtual Machine Load Balancing(vorher
Node Fairness) ermöglicht ein
automatisches verteilen der VMs
innerhalb des Clusters
• Auswertung der Nodes basiert auf
Speicher & CPU Nutzung
• VMs werden bei einseitiger Belastung
auf andere Nodes livemigriert
• Zur Optimierung kann das Balancing
angepasst werden:
• (Get-Cluster).AutoBalancerMode
• (Get-Cluster).AutoBalancerlevel
• Virtual Machine Load Balancing wird bei
Verwendung von SCVMM Dynamic
Optimization ausgeschaltet
Virtual Machine Start Order
Special VMs
Start Ordering
• Möglichkeit Basis VMs vor allen anderen VMs zu
starten
• Typische Kandidaten: AD Controller, Firewalls
• Start Order für Multi-Tier Anwendungen (z.B.
SharePoint)
• Datenbank  Middle Tier  Front End
• Definition von VM Gruppen für Tiering
Orchestration
• Ereignisse & Trigger um Start einer Gruppe zu
bewerten
Site Awareness in Windows Server 2016
Definition von Node Gruppen in einem Streched
Cluster die ihre physischen Standort wiederspiegeln
Sites
Beeinflusst Placement Policy und Heartbeat
München
Köln
Failover und Livemigration bleibt innerhalb von Node
Gruppen
Failover Affinity
Erst bei Resourcen Mangel Failover zur anderen Site
VMs folgen Storage und werden in der gleichen Site
platziert
Storage Affinity
Nach verschieben einer CSV folgen die VMs nach 1
Minute
New-ClusterFaultDomain –Name München –Type Site –Description “Primary” –Location “München DC1”
New-ClusterFaultDomain –Name Köln –Type Site –Description “Secondary” –Location “Köln DC2”
Set-ClusterFaultDomain –Name Node1 –Parent München
Set-ClusterFaultDomain –Name Node2 –Parent München
Set-ClusterFaultDomain –Name Node3 –Parent Köln
Set-ClusterFaultDomain –Name Node4 –Parent Köln
Preferred Site
Primary
Datacenter
Preferred Site wird für Platzierung bevorzugt
• Cold-start – VMs werden in Preferred Site gestartet
• Failover – VMs bleiben in gleiche Site
• Node Drain – VMs bleiben in gleiche Site
Dynamic Quorum entfernend zuerst Gewichtung von DR Site
sodass die Primary Site überlebt
Prioritized
Scoped
Storage Afinity Site - CSV Load Balancer platziert in der selben
Site
Preferred Site kann global oder pro Gruppe definiert werden
Gewichtung:
1. Storage Affinity Site
2. Group preferred site
Control 3. Cluster preferred site
(Get-Cluster).PreferredSite =“München”
Stretched Cluster
Primary Site
DR Site
Fault Domains
• Ermöglichen granularer Definition von
SPOF (Site, Rack, Chassis, Nodes/
Enclosure)
• Wird von S2D benutzt um Datenkopien in
unterschiedlichen Fault Domains zu
platzieren
• Health Service benutzt Fault Domains
um Angaben über den Ort des Ausfalls
zu liefern
https://technet.microsoft.com/en-us/library/mt703153.aspx
Shared VHDX
• Shared VHDX Einsatz Guest Cluster
• Verbesserungen im Shared VHDX Umgang
• Neues Dateiformat VHD-Set
• Online Backup
• Hyper-V Replica
• Online Resize
VHD
Set
Microsoft Storage Spaces Direct
• What ist Storage Spaces Direct?
•
•
•
•
Software-defined Storage
Hochverfügbar durch Nutzung des Failover Clusters
Skalierbar durch hinzufügen von Servern (Scale-Out)
Designed für Hyper-V und SQL Server
Hyper-Converged
S2D Cluster
Hyper-V Cluster mit lokalen Storage Devices
• Gründe für Storage Spaces Direct?
• Server mit lokal Storage Devices
• Nutzt Industrie Standard Hardware
• unterstützte Typen: SAS, SATA, NVMe
• Kostensenkung durch Verwendung von Enterprise SATA SSDs
• Bessere Flash Performance mit NVMe SSDs
• SMB Direct (RDMA über Ethernet) als Storage Netz
• Unterstützte Szenarien
• Hyper-Converged S2D Cluster
• Converged S2D Cluster
Converged
S2D Cluster
Storage Replica
SRV2
SR over SMB3
Jersey City DC
Manhattan DC
SRV1
Stretch Cluster
NODE3 in HVCLUS
Jersey City DC
NODE1 in HVCLUS
Manhattan DC
• Ein Desaster Recovery Feature,
welches aus Enterprise SAN
Systemen bekannt ist
• Zielt auf Volumes (eigentlich
Partition)
• Repliziert auf Block Basis
• Dateisystem Agnostische
• Unterstützte Szenarien:
• Server zu Server
• Stretched Cluster
• Cluster zu Cluster
Server to Server
SR over SMB3
NODE2 in HVCLUS
NODE4 in HVCLUS
Und da ist noch viel mehr
•
•
•
•
•
•
Workgroup und Multi-Domain cluster
Cloud Witness
Support in Nano Server
Storage QoS
Nested Virtualisierung
…
Cloud & Datacenter Conference 2017
CDC-Germany 2017
• 2 Tage am 4. und 5. Mai 2017
• Microsoft Office in München
• 32 Fachvorträge (MVPs und
Microsoft Tekies)
• Hyper-V Community am 3. Mai und
Abendveranstaltung am 4. Mai
Early Bird gilt noch bis zum 15. Februar
http://www.cdc-germany.de/
Nächstes Webinar
https://webinar.getresponse.com/SEfoH/webinar-azure-stack-uberblick?lang=de
Danke für die Teilnahme
Herunterladen