Webinar Neuerungen in Failover Clustering in 2016 Carsten Rachfahl Cloud and Datacenter Management MVP Microsoft Regional Director Carsten Rachfahl Microsoft Cloud & Datacenter Management MVP Microsoft Reginal Director Mit-Organisator der Cloud & Datacenter Conference Germany http://cdc-gemany.de Mit Gründer der Hyper-V Community Twitter @hypervserver Einer der Hyper-V Amigos http://hyper-v-amigos.net Geschäftsführer der Rachfahl IT-Solutions GmbH & Co. KG https://www.hyper-v-server.de Cluster Validation Wizard • Support der neuen und erweiterten Szenarien (Same Subnet Multichannel, S2D, …) • Der Cluster Validation Wizard sollte als Hilfstool dienen das Fehler aufdeckt • Wichtig für einen supporteten Cluster Verbessertes ClusterLog • Time zone: Benutzt UTC mit Offset zur Localen Zeit • Beinhaltet weitere nützliche Informationen, wie z.B.: • Cluster Objekte mit CSV Informationen • Folgende Event Channels: System Microsoft-Windows-FailoverClustering/Operational logs Microsoft-Windows-ClusterAwareUpdating-Management/Admin Microsoft-Windows-ClusterAwareUpdating/Admin log • DiagnosticVerbose Event log (Ab Loglevel 5) Microsoft-Windows-FailoverClustering/DiagnosticVerbose Active Memory Dump • Beinhaltet nur ManagementOS Speicher • Ist sehr klein • Sicherer da keine RAM der VMs • Nicht Cluster spezifisch aber sehr hilfreich bei Hyper-V Cluster • Memory Dump Optionen: • • • • • • None Complete Memory Dump Kernel Memory Dump Small Memory Dump Automatic Memory Dump (Default) Active Memory Dump Cluster Rolling Upgrade Rolling Cluster Upgrade ermöglicht es einen Cluster inplace Upzugraden • Vorgehen pro Host: Node Freiräumen und aus Cluster nehmen Betriebssystem neu Installieren Node in Cluster aufnehmen Wiederholen bis alle Nodes auf neuem Betriebssystem sind • Clusterfunktionslevel erhöhen • • • • • Unterstütze Cluster Rollen: • Hyper-V • Scale-Out Fileserver Win2012 Win2016 R2 Win2012 Win2016 R2 Win2012 Win2016 R2 Cluster Resiliency • VM Compute Resiliency erhöht die Verfügbarkeit der VMs bei Netzwerkproblemen • VM Compute Resiliency Workflows Im Falle eines Fehlers bei der Inter-Cluster-Kommunikation: • Knoten wird isoliert • Die VMs werden nicht mehr gemonitort • SMB-Storage: VMs laufen weiter • Block Storage: VMs sind Paused-Critical • Kommunikationsprobleme > 4 Minuten • Failover der VMs • Host wird als Down gekennzeichnet • 3 Isolierungen pro Stunde => Quarantäne Mode VMs laufen erstmal weiter wenn der Knoten Isoliert wird ? Network Fehler Cluster Resiliency • Isolated Mode • Knoten ist nicht länger aktives Mitglied des Failover Cluster • VMs werden auf dem Knoten weiter betrieben • Quarantäne Mode • Knoten darf dem Cluster nicht mehr beitreten (Standardwert: 2 Stunden) • VMs werden auf andere Knoten migriert Block Storage – Pfad Fehler Verhalten: • CSV Redirected Mode I/O läuft über anderen Knoten • VM läuft weiter • VM Storage Resiliency findet nicht statt • • • • Storage Verbindungs-Fehler Storage Stack Fehler HBA Fehler Kabel Fehler Switch Port Fehler VHD FC/FCoE/iSCSI/SAS Block Storage – Alle Pfade fallen aus Verhalten: • VM wechselt in Pause Zustand • Redirected Mode macht keinen Sinn da kein Pfad zum Storage vorhanden ist • VM bleibt pausiert bis: • der Storage wieder verfügbar ist • 30 Minuten abgelaufen SAN Ausfall betrifft alle Knoten VHD FC/FCoE/iSCSI/SAS sind - danach wird VM ausgeschaltet und auf anderem Server gestartet File Storage – Pfad Fehler Verhalten: • VM wechselt in Pause Zustand Knoten bleibt im Cluster da es Netzwerkkomunikation gibt • VM bleibt pausiert bis: • der Storage wieder verfügbar ist • 30 Minuten abgelaufen sind • • • • Netzwerk Verbindungs-Fehler NIC Treiber Hardware NIC Ausfall Kabel Fehler Switch Port Fehler danach wird VM ausgeschaltet und auf anderem Server gestartet SMB VHD Vereinfachtes Multi-NIC Cluster Netzwerke • • • • Cluster nutzt jetzt mehere NICs im gleichen Subnetz Alle NICs die im selben Subnetz sind werden automatisch registriert Cluster Validierung kennt das Szenario und läuft ohne Fehler Damit ist SMB-Multichannel im gleichen Netz möglich Virtual Machine Load Balancing • Virtual Machine Load Balancing(vorher Node Fairness) ermöglicht ein automatisches verteilen der VMs innerhalb des Clusters • Auswertung der Nodes basiert auf Speicher & CPU Nutzung • VMs werden bei einseitiger Belastung auf andere Nodes livemigriert • Zur Optimierung kann das Balancing angepasst werden: • (Get-Cluster).AutoBalancerMode • (Get-Cluster).AutoBalancerlevel • Virtual Machine Load Balancing wird bei Verwendung von SCVMM Dynamic Optimization ausgeschaltet Virtual Machine Start Order Special VMs Start Ordering • Möglichkeit Basis VMs vor allen anderen VMs zu starten • Typische Kandidaten: AD Controller, Firewalls • Start Order für Multi-Tier Anwendungen (z.B. SharePoint) • Datenbank Middle Tier Front End • Definition von VM Gruppen für Tiering Orchestration • Ereignisse & Trigger um Start einer Gruppe zu bewerten Site Awareness in Windows Server 2016 Definition von Node Gruppen in einem Streched Cluster die ihre physischen Standort wiederspiegeln Sites Beeinflusst Placement Policy und Heartbeat München Köln Failover und Livemigration bleibt innerhalb von Node Gruppen Failover Affinity Erst bei Resourcen Mangel Failover zur anderen Site VMs folgen Storage und werden in der gleichen Site platziert Storage Affinity Nach verschieben einer CSV folgen die VMs nach 1 Minute New-ClusterFaultDomain –Name München –Type Site –Description “Primary” –Location “München DC1” New-ClusterFaultDomain –Name Köln –Type Site –Description “Secondary” –Location “Köln DC2” Set-ClusterFaultDomain –Name Node1 –Parent München Set-ClusterFaultDomain –Name Node2 –Parent München Set-ClusterFaultDomain –Name Node3 –Parent Köln Set-ClusterFaultDomain –Name Node4 –Parent Köln Preferred Site Primary Datacenter Preferred Site wird für Platzierung bevorzugt • Cold-start – VMs werden in Preferred Site gestartet • Failover – VMs bleiben in gleiche Site • Node Drain – VMs bleiben in gleiche Site Dynamic Quorum entfernend zuerst Gewichtung von DR Site sodass die Primary Site überlebt Prioritized Scoped Storage Afinity Site - CSV Load Balancer platziert in der selben Site Preferred Site kann global oder pro Gruppe definiert werden Gewichtung: 1. Storage Affinity Site 2. Group preferred site Control 3. Cluster preferred site (Get-Cluster).PreferredSite =“München” Stretched Cluster Primary Site DR Site Fault Domains • Ermöglichen granularer Definition von SPOF (Site, Rack, Chassis, Nodes/ Enclosure) • Wird von S2D benutzt um Datenkopien in unterschiedlichen Fault Domains zu platzieren • Health Service benutzt Fault Domains um Angaben über den Ort des Ausfalls zu liefern https://technet.microsoft.com/en-us/library/mt703153.aspx Shared VHDX • Shared VHDX Einsatz Guest Cluster • Verbesserungen im Shared VHDX Umgang • Neues Dateiformat VHD-Set • Online Backup • Hyper-V Replica • Online Resize VHD Set Microsoft Storage Spaces Direct • What ist Storage Spaces Direct? • • • • Software-defined Storage Hochverfügbar durch Nutzung des Failover Clusters Skalierbar durch hinzufügen von Servern (Scale-Out) Designed für Hyper-V und SQL Server Hyper-Converged S2D Cluster Hyper-V Cluster mit lokalen Storage Devices • Gründe für Storage Spaces Direct? • Server mit lokal Storage Devices • Nutzt Industrie Standard Hardware • unterstützte Typen: SAS, SATA, NVMe • Kostensenkung durch Verwendung von Enterprise SATA SSDs • Bessere Flash Performance mit NVMe SSDs • SMB Direct (RDMA über Ethernet) als Storage Netz • Unterstützte Szenarien • Hyper-Converged S2D Cluster • Converged S2D Cluster Converged S2D Cluster Storage Replica SRV2 SR over SMB3 Jersey City DC Manhattan DC SRV1 Stretch Cluster NODE3 in HVCLUS Jersey City DC NODE1 in HVCLUS Manhattan DC • Ein Desaster Recovery Feature, welches aus Enterprise SAN Systemen bekannt ist • Zielt auf Volumes (eigentlich Partition) • Repliziert auf Block Basis • Dateisystem Agnostische • Unterstützte Szenarien: • Server zu Server • Stretched Cluster • Cluster zu Cluster Server to Server SR over SMB3 NODE2 in HVCLUS NODE4 in HVCLUS Und da ist noch viel mehr • • • • • • Workgroup und Multi-Domain cluster Cloud Witness Support in Nano Server Storage QoS Nested Virtualisierung … Cloud & Datacenter Conference 2017 CDC-Germany 2017 • 2 Tage am 4. und 5. Mai 2017 • Microsoft Office in München • 32 Fachvorträge (MVPs und Microsoft Tekies) • Hyper-V Community am 3. Mai und Abendveranstaltung am 4. Mai Early Bird gilt noch bis zum 15. Februar http://www.cdc-germany.de/ Nächstes Webinar https://webinar.getresponse.com/SEfoH/webinar-azure-stack-uberblick?lang=de Danke für die Teilnahme