Kapazitätsplanung für Microsoft SharePoint Server 2010 Microsoft Corporation Veröffentlicht: Januar 2011 Autor: Microsoft Office System and Servers Team ([email protected]) Zusammenfassung Dieses Buch enthält Informationen zum Planen der Kapazität und der Leistungsanforderungen für die Bereitstellung von Microsoft SharePoint Server 2010. Zu den Themen gehören Größenanpassung, Leistungstests, Softwarebeschränkungen und Kapazitätsfallstudien. Zielgruppe sind Geschäftsanwendungsspezialisten, Branchenanwendungsspezialisten, Informationsarchitekten, IT-Universalisten, Programmverwalter und Infrastrukturspezialisten, die eine Lösung basierend auf SharePoint Server 2010 planen. Das Buch ist Teil einer Reihe aus vier Planungshandbüchern, die umfassende IT-Planungsinformationen für SharePoint Server enthalten. Weitere Informationen zum Planen der Architektur einer SharePoint Server 2010Bereitstellung finden Sie unter Planungshandbuch für Serverfarmen und Umgebungen für Microsoft SharePoint Server 2010 (http://go.microsoft.com/fwlink/?linkid=189513&clcid=0x407). Weitere Informationen zum Planen von Websites und Lösungen, die mit SharePoint Server erstellt werden, finden Sie unter Planungshandbuch für Websites und Lösungen für Microsoft SharePoint Server 2010, Teil 1 (http://go.microsoft.com/fwlink/?linkid=196150&clcid=0x407) and Planungshandbuch für Websites und Lösungen für Microsoft SharePoint Server 2010, Teil 2 (http://go.microsoft.com/fwlink/?linkid=208024&clcid=0x407). Bei dem Inhalt dieses Buches handelt es sich um eine Kopie von ausgewählten Inhalten der technischen Bibliothek für SharePoint Server 2010 (http://go.microsoft.com/fwlink/?linkid=181463&clcid=0x407) zum Veröffentlichungsdatum. Der aktuelle Inhalt befindet sich in der technischen Bibliothek im Web. Dieses Dokument wird ―wie besehen‖ bereitgestellt. Die in diesen Unterlagen enthaltenen Angaben und Daten, einschließlich URLs und anderen Verweisen auf Internetwebsites, können ohne vorherige Ankündigung geändert werden. Sie tragen das volle Risiko der Verwendung. Einige Beispiele sind frei erfunden, soweit nichts anderes angegeben ist. Jede Ähnlichkeit mit der Realität ist rein zufällig. Mit diesem Dokument erhalten Sie keine Rechte an geistigem Eigentum in einem beliebigen Microsoft-Produkt. Sie können dieses Dokument als Kopie für eigene interne Referenzzwecke verwenden. © 2011 Microsoft Corporation. Alle Rechte vorbehalten. Microsoft, Access, Active Directory, Backstage, Excel, Groove, Hotmail, InfoPath, Internet Explorer, Outlook, PerformancePoint, PowerPoint, SharePoint, Silverlight, Windows, Windows Live, Windows Mobile, Windows PowerShell, Windows Server und Windows Vista sind entweder eingetragene Marken oder Marken der Microsoft Corporation in den Vereinigten Staaten und/oder anderen Ländern. Inhalt Kapazitätsplanung für Microsoft SharePoint Server 2010............................................... 1 Abrufen von Hilfe................................................................................................................. 7 Leistungs- und Kapazitätsverwaltung (SharePoint Server 2010) ....................................... 8 Capacity management and sizing for SharePoint Server 2010 (in englischer Sprache) .. 10 Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht) ... 11 Glossar........................................................................................................................... 11 Wer sollte Artikel zur Kapazitätsverwaltung lesen? ....................................................... 12 Die Vier Grundkonzepte der Leistung ........................................................................... 15 Kapazitätsverwaltung und Kapazitätsplanung ............................................................... 19 Über- und Unterdimensionierung .................................................................................. 21 Softwaregrenzwerte und -beschränkungen ................................................................... 23 Wichtige Unterschiede zwischen SharePoint Server 2010 und Office SharePoint Server 2007 ................................................................................................................ 24 Wichtige Unterscheidungsmerkmale bei Bereitstellungen von SharePoint Server 2010 .................................................................................................................................... 32 Referenzarchitekturen ................................................................................................... 35 Siehe auch ..................................................................................................................... 39 Kapazitätsplanung für SharePoint Server 2010 ................................................................ 40 Schritt 1: Modellierung ................................................................................................... 40 Schritt 2: Entwurf ........................................................................................................... 50 Schritt 3: Pilot-, Test- und Optimierungsphase .............................................................. 55 Schritt 4: Bereitstellung .................................................................................................. 56 Schritt 5: Überwachung und Wartung ............................................................................ 57 Siehe auch ..................................................................................................................... 57 Testen der Leistung für SharePoint Server 2010 ............................................................. 59 Erstellen eines Testplans............................................................................................... 60 Erstellen der Testumgebung ......................................................................................... 60 Erstellen von Tests und Tools ....................................................................................... 62 Siehe auch ..................................................................................................................... 67 Überwachen und Verwalten von SharePoint Server 2010 ............................................... 68 Konfigurieren der Überwachung .................................................................................... 68 Beseitigen von Engpässen ............................................................................................ 79 Siehe auch ..................................................................................................................... 82 SharePoint Server 2010-Kapazitätsverwaltung: Softwarebeschränkungen und -grenzen ....................................................................................................................................... 83 Übersicht über Beschränkungen und Grenzen ............................................................. 84 Beschränkungen und Grenzen ...................................................................................... 87 Performance and capacity technical case studies (SharePoint Server 2010) (in englischer Sprache) ...................................................................................................................... 128 Microsoft SharePoint Server 2010-Veröffentlichungsumgebung mit Unternehmensintranet: Technische Fallstudie ............................................................ 130 Vorabinformationen ..................................................................................................... 130 Einführung in diese Umgebung ................................................................................... 131 Spezifikationen ............................................................................................................ 132 Arbeitsauslastung ........................................................................................................ 136 Dataset......................................................................................................................... 136 Integritäts- und Leistungsdaten ................................................................................... 137 Enterprise intranet collaboration environment technical case study (SharePoint Server 2010) (in englischer Sprache) ..................................................................................... 140 Prerequisite information ............................................................................................... 140 Introduction to this environment .................................................................................. 141 Specifications ............................................................................................................... 141 Health and Performance Data ..................................................................................... 147 Enterprise intranet collaboration environment lab study (SharePoint Server 2010) (in englischer Sprache) ..................................................................................................... 150 Introduction to this environment .................................................................................. 150 Glossary ....................................................................................................................... 151 Overview ...................................................................................................................... 152 Specifications ............................................................................................................... 153 Results and Analysis ................................................................................................... 159 Departmental collaboration environment technical case study (SharePoint Server 2010) (in englischer Sprache) ................................................................................................ 171 Prerequisite information ............................................................................................... 171 Introduction to this environment .................................................................................. 171 Specifications ............................................................................................................... 172 Workload ...................................................................................................................... 178 Dataset......................................................................................................................... 178 Health and Performance Data ..................................................................................... 179 Divisional portal environment lab study (SharePoint Server 2010) (in englischer Sprache) ..................................................................................................................................... 182 Introduction to this environment .................................................................................. 182 Glossary ....................................................................................................................... 183 Overview ...................................................................................................................... 184 Specifications ............................................................................................................... 185 Results and analysis .................................................................................................... 191 About the authors ........................................................................................................ 205 Social environment technical case study (SharePoint Server 2010) (in englischer Sprache) ...................................................................................................................... 206 Prerequisite information ............................................................................................... 206 Introduction to this environment .................................................................................. 206 Specifications ............................................................................................................... 207 Workload ...................................................................................................................... 212 Dataset......................................................................................................................... 213 Health and Performance Data ..................................................................................... 213 Ergebnisse der Leistungs- und Kapazitätstests und Empfehlungen (SharePoint Server 2010) ............................................................................................................................ 217 Estimate performance and capacity requirements for Access Services in SharePoint Server 2010 (in englischer Sprache) ........................................................................... 220 Test farm characteristics.............................................................................................. 220 Test results .................................................................................................................. 223 Recommendations ....................................................................................................... 234 Troubleshooting ........................................................................................................... 239 Estimate performance and capacity requirements for Excel Services in SharePoint Server 2010 (in englischer Sprache) ....................................................................................... 241 Test farm characteristics.............................................................................................. 241 Test Results ................................................................................................................. 244 Recommendations ....................................................................................................... 254 Schätzen der Leistungs- und Kapazitätsanforderungen für PerformancePoint-Dienste 260 Testfarmmerkmale ....................................................................................................... 260 Testszenarien und Prozesse ....................................................................................... 261 Hardwareeinstellungen und -topologie ........................................................................ 263 Testergebnisse ............................................................................................................ 264 Topologien mit 2M und 3M .......................................................................................... 266 Ergebnisse von 4M+ für die Authentifizierung über das unbeaufsichtigte Dienstkonto .................................................................................................................................. 270 Ergebnisse von 4M+ für die Einzelbenutzerauthentifizierung ..................................... 271 Empfehlungen .............................................................................................................. 272 Analysis Services ......................................................................................................... 274 Häufige Engpässe und ihre Ursachen ......................................................................... 274 Leistungsüberwachung ................................................................................................ 277 Siehe auch ................................................................................................................... 278 Capacity requirements for Web Analytics Shared Service in SharePoint Server 2010 (in englischer Sprache) ..................................................................................................... 279 Introduction .................................................................................................................. 279 Hardware specifications and topology ......................................................................... 282 Capacity requirements ................................................................................................. 286 Siehe auch ................................................................................................................... 290 Schätzen der Leistungs- und Kapazitätsanforderungen für Web Content Management in SharePoint Server 2010 .............................................................................................. 291 Voraussetzungen ......................................................................................................... 292 Testdetails und Ansatz ................................................................................................ 292 Web Content Management-Bereitstellungen............................................................... 295 Optimierung ................................................................................................................. 296 Testergebnisse und Empfehlungen ............................................................................. 300 Informationen zu den Autoren ..................................................................................... 323 Estimate performance and capacity planning for workflow in SharePoint Server 2010 (in englischer Sprache) ..................................................................................................... 324 Test farm characteristics.............................................................................................. 324 Test results .................................................................................................................. 328 Recommendations ....................................................................................................... 334 Troubleshooting ........................................................................................................... 337 Siehe auch ................................................................................................................... 340 Speicher- und SQL Server-Kapazitätsplanung und -Konfiguration (SharePoint Server 2010) ............................................................................................................................ 341 Entwurfs- und Konfigurationsprozess für die Speicher- und Datenbankschicht der SharePoint 2010-Produkte ....................................................................................... 341 Erfassen der Speicher- und SQL Server-Kapazität und der E/A-Anforderungen ....... 342 Auswählen der SQL Server-Version und -Edition ....................................................... 352 Entwerfen der Speicherarchitektur auf der Basis von Kapazität und E/A-Anforderungen .................................................................................................................................. 353 Prognostizieren der Arbeitsspeicheranforderungen .................................................... 355 Grundlegendes zu den Anforderungen an die Netzwerktopologie .............................. 356 Konfigurieren von SQL Server ..................................................................................... 356 Überprüfen von Speicherleistung und -zuverlässigkeit ............................................... 361 Abrufen von Hilfe Das Dokument wurde sorgfältig auf Korrektheit überprüft. Der Inhalt ist ebenfalls online verfügbar in der Office System-TechNet-Bibliothek. Falls es zu Unstimmigkeiten kommen sollte, so können Sie nach Update suchen unter: http://technet.microsoft.com/de-de/office/bb267342 Sollten Sie keine Lösung im Onlineinhalt gefunden haben, können Sie eine E-MailNachricht an das Team von Microsoft Office System and Servers Content senden unter: [email protected] Betrifft Ihre Frage Microsoft Office-Produkte und nicht den Inhalt dieses Buches, durchsuchen Sie das Microsoft-Hilfe- und Supportcenter oder die Microsoft Knowledge Base unter: http://support.microsoft.com/?ln=de-de 7 Leistungs- und Kapazitätsverwaltung (SharePoint Server 2010) Die Leistungs- und Kapazitätsplanung ist der Vorgang der Zuordnung Ihres Lösungsentwurfs für Microsoft SharePoint Server 2010 zu einer Farmgröße und der Hardware, die Ihre Unternehmensanforderungen unterstützen. Relevante Artikel zur Leistungs- und Kapazitätsplanung für Project Server 2010 sind in der Project Server-Dokumentbibliothek unter Plan for performance and capacity (Project Server 2010) verfügbar. Dieser Abschnitt enthält die folgenden Artikel: Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht) In diesem Artikel erhalten Sie einen Überblick über die Konzepte, die im Rahmen der Kapazitätsverwaltung und Größengestaltung von SharePoint 2010-Farmen erläutert werden, sowie über den Planungsvorgang. Kapazitätsplanung für SharePoint Server 2010 Dieser Artikel enthält ausführliche Schritte und Verfahren für die Planung der Kapazität von SharePoint 2010-Farmen. Überwachen und Verwalten von SharePoint Server 2010 Dieser Artikel enthält Informationen zum Verwalten und Überwachen der Leistung von SharePoint 2010-Farmen. Testen der Leistung für SharePoint Server 2010 Dieser Artikel enthält Richtlinien für das Testen der Leistung von SharePoint 2010Farmen. SharePoint Server 2010-Kapazitätsverwaltung: Softwarebeschränkungen und grenzen Dieser Artikel bietet einen Ausgangspunkt für die Planung der Leistung und Kapazität Ihres Systems. Dieser Artikel umfasst Ergebnisse von Leistungs- und Kapazitätstests sowie Richtlinien für eine akzeptable Leistung. Performance and capacity technical case studies (SharePoint Server 2010) (in englischer Sprache) In diesem Artikel werden Links zu wichtigen technischen Fallstudien bereitgestellt, die Details zur Leistung und Kapazität für bestimmte Umgebungen mit SharePoint Server 2010 enthalten. Ergebnisse der Leistungs- und Kapazitätstests und Empfehlungen (SharePoint Server 2010) In diesem Artikel werden Links zu Artikeln bereitgestellt, die Testergebnisse und Empfehlungen für bestimmte Featuregruppen in SharePoint Server 2010 enthalten. Speicher- und SQL Server-Kapazitätsplanung und -Konfiguration (SharePoint Server 2010) 8 In diesem Artikel wird ein Vorgang für die Planung der Speicherkapazität und der SQL Server-Kapazität für eine SharePoint Server 2010-Bereitstellung beschrieben. Die folgenden Ressourcen können bei der Kapazitätsplanung ebenfalls hilfreich sein: Determine hardware and software requirements (SharePoint Server 2010) Technische Diagramme: Topologien für SharePoint Server 2010 Sucharchitekturen für Microsoft SharePoint Server 2010 Entwerfen von Sucharchitekturen für Microsoft SharePoint Server 2010 Planen einer Suchumgebung für Microsoft SharePoint Server 2010 Informationen zum Herunterladen dieser Modelle finden Sie unter Technical diagrams (SharePoint Server 2010). 9 Capacity management and sizing for SharePoint Server 2010 (in englischer Sprache) The articles in this section help you to make the following decisions regarding the appropriate capacity for your Microsoft SharePoint Server 2010 environment: Understand the concepts behind effective capacity management. Define performance and capacity targets for your environment. Select the appropriate data architecture. Choose hardware to support the number of users and the features you intend to deploy. Test, validate, and adjust your environment to achieve your performance and capacity targets. Monitor and adjust your environment to match demand. In this section: Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht) Kapazitätsplanung für SharePoint Server 2010 Testen der Leistung für SharePoint Server 2010 Überwachen und Verwalten von SharePoint Server 2010 10 Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht) Dieser Artikel bietet eine Übersicht über die effektive Planung und Verwaltung der Kapazität von Microsoft SharePoint Server 2010-Umgebungen. In diesem Artikel wird außerdem beschrieben, wie Sie sich solide Kenntnisse der Kapazitätsanforderungen und der Möglichkeiten Ihrer Bereitstellung aneignen, indem Sie die Leistung und den Datenumfang analysieren. Darüber hinaus werden die wichtigsten Auswirkungen auf Anwendungen erörtert, die die Kapazität beeinflussen, einschließlich Inhalts- und Nutzungsmerkmalen. Kapazitätsverwaltung ist ein kontinuierlicher Prozess, da keine Implementierung hinsichtlich Inhalt und Nutzung statisch bleibt. Sie müssen Wachstum und Änderungen einplanen, damit Ihre SharePoint Server 2010-basierte Umgebung auch in Zukunft eine effektive Geschäftslösung darstellt. Kapazitätsplanung ist nur ein Teil des Kapazitätsverwaltungszyklus. Hierunter versteht man die Aktivitäten zu Beginn, mit denen der Lösungsarchitekt eine Ausgangsarchitektur erstellt, die seiner Meinung nach am besten für die SharePoint Server 2010Bereitstellung geeignet ist. Das Kapazitätsverwaltungsmodell beinhaltet weitere Schritte zum Überprüfen und Optimieren der Ausgangsarchitektur sowie einen Feedbackprozess für die erneute Planung und Optimierung der Produktionsumgebung, bis die Entwurfsziele mit einer optimalen Auswahl an Hardware, Topologie und Konfiguration unterstützt werden. Inhalt dieses Artikels: Glossar Wer sollte Artikel zur Kapazitätsverwaltung lesen? Die Vier Grundkonzepte der Leistung Kapazitätsverwaltung und Kapazitätsplanung Über- und Unterdimensionierung Softwaregrenzwerte und -beschränkungen Wichtige Unterschiede zwischen SharePoint Server 2010 und Office SharePoint Server 2007 Wichtige Unterscheidungsmerkmale bei Bereitstellungen von SharePoint Server 2010 Referenzarchitekturen Glossar Die folgenden Spezialbegriffe werden in der Dokumentation zur Kapazitätsverwaltung von SharePoint Server 2010 verwendet. 11 RPS Anforderungen pro Sekunde (Requests per Second). Die Anzahl der Anforderungen, die von einer Farm oder einem Server in einer Sekunde empfangen werden. Dies ist ein gängiges Maß für die Auslastung von Servern und Farmen. Die Anzahl der von einer Farm verarbeiteten Anforderungen ist höher als die Anzahl der Seitenladevorgänge und Endbenutzerinteraktionen. Dies liegt daran, dass jede Seite mehrere Komponenten enthält, von denen beim Laden der Seite jeweils mindestens eine Anforderung erstellt wird. Manche Anforderungen sind im Hinblick auf die Transaktionskosten weniger anspruchsvoll als andere Anforderungen. In unseren Labortests und Dokumenten mit Fallstudien haben wir 401 Anforderungen und Antworten (Authentifizierungshandshakes) aus den Anforderungen entfernt, mit denen die Anforderungen pro Sekunde berechnet wurden, da sie praktisch keine Auswirkungen auf die Farmressourcen haben. Spitzenzeiten Die Tageszeiten, zu denen die Farm am stärksten ausgelastet ist. Spitzenauslastung Die durchschnittliche tägliche maximale Auslastung in der Farm, gemessen in RPS. Auslastungsspitzen Vorübergehende Auslastungsspitzen außerhalb der gewöhnlichen Spitzenzeiten. Sie können durch ungeplante Zunahmen des Benutzerdatenverkehrs, reduzierten Farmdurchsatz aufgrund administrativer Vorgänge oder einer Kombination dieser Faktoren verursacht werden. Vertikales Skalieren Vertikales Skalieren bedeutet, einem Server Ressourcen wie z. B. Prozessoren oder Arbeitsspeicher hinzuzufügen. Horizontales Skalieren Horizontales Skalieren bedeutet, einer Farm weitere Server hinzuzufügen. Wer sollte Artikel zur Kapazitätsverwaltung lesen? Bestimmen Sie anhand der folgenden Fragen, ob Sie diese Artikel lesen sollten. Auswerten von SharePoint Server 2010 Ich bin ein IT-Spezialist oder Entscheidungsträger im Unternehmen und suche nach einer Lösung für spezielle Geschäftsprobleme. SharePoint Server 2010 ist eine Option für meine Bereitstellung. Können damit die für meine speziellen Anforderungen benötigten Features und Skalierbarkeitsmöglichkeiten bereitgestellt werden? Informationen zum Skalieren von SharePoint Server 2010 entsprechend den Anforderungen bestimmter Lösungen sowie zum Bestimmen der für Ihre Anforderungen benötigten Hardware finden Sie weiter unten in diesem Artikel in den folgenden Abschnitten: Wichtige Unterschiede zwischen SharePoint Server 2010 und Office SharePoint Server 2007 Softwaregrenzwerte und -beschränkungen Informationen zum Auswerten von SharePoint Server 2010 für Ihre speziellen Geschäftsanforderungen finden Sie in den folgenden Artikeln: Product evaluation for SharePoint Server 2010 SharePoint Server 2010-Kapazitätsverwaltung: Softwarebeschränkungen und grenzen 12 Upgraden von Office SharePoint Server 2007 Ich verwende derzeit Microsoft Office SharePoint Server 2007. Welche Änderungen gibt es bei SharePoint Server 2010, und was muss ich bei einem Upgrade berücksichtigen? Welche Auswirkungen hat das Upgrade auf die Leistung und Skalierung meiner Topologie? Informationen zu den Unterschieden bei Leistungs- und Kapazitätsfaktoren zwischen Microsoft Office SharePoint Server 2007 und SharePoint Server 2010 finden Sie weiter unten in diesem Artikel im folgenden Abschnitt: Wichtige Unterschiede zwischen SharePoint Server 2010 und Office SharePoint Server 2007 Informationen zu allgemeineren Überlegungen und Anweisungen für ein Upgrade sowie zum Planen und Ausführen eines Upgrades von Microsoft Office SharePoint Server 2007 finden Sie im folgenden Artikel: Upgrading to SharePoint Server 2010 Optimieren einer SharePoint-basierten Live-Umgebung Ich habe SharePoint Server 2010 bereitgestellt und möchte sicherstellen, dass die entsprechende Hardware und Topologie vorhanden sind. Wie werte ich meine Architektur aus und warte sie ordnungsgemäß? Informationen zur Überwachung und zu Leistungsindikatoren für Microsoft SharePoint Server 2010-Farmen finden Sie im folgenden Artikel: Überwachen und Verwalten von SharePoint Server 2010 Informationen zur Verwendung der in die Benutzeroberfläche der Zentraladministration integrierten Systemüberwachungstools finden Sie im folgenden Artikel: Health Monitoring (SharePoint Server 2010) Ich habe SharePoint Server 2010 bereitgestellt, aber es treten Leistungsprobleme auf. Wie kann ich für meine Umgebung eine Problembehandlung vornehmen und sie optimieren? Informationen zur Überwachung und zu Leistungsindikatoren für Microsoft SharePoint Server 2010-Farmen finden Sie im folgenden Artikel: Überwachen und Verwalten von SharePoint Server 2010 Informationen zur Problembehandlung mithilfe der in die Benutzeroberfläche der Zentraladministration integrierten Systemüberwachungstools finden Sie im folgenden Artikel: Solving Problems and Troubleshooting (SharePoint Server 2010) Eine Liste mit Artikeln zur Kapazitätsverwaltung, die für viele spezielle Dienste und Features von SharePoint Server 2010 verfügbar sind (weitere Artikel werden im Laufe der Zeit hinzugefügt), finden Sie im folgenden Artikel: Ergebnisse der Leistungs- und Kapazitätstests und Empfehlungen (SharePoint Server 2010) Informationen zur Größenanpassung und zur Leistung von Datenbanken finden Sie im folgenden Artikel: Speicher- und SQL Server-Kapazitätsplanung und -Konfiguration (SharePoint Server 2010) Informationen zum Remote-BLOB-Speicher (RBS) finden Sie im folgenden Artikel: 13 Plan for remote BLOB storage (RBS) (SharePoint Server 2010) Vom Anfang bis zum Ende Ich möchte alles über die Kapazitätsverwaltung für SharePoint Server 2010 wissen. Wo beginne ich? Informationen zu den allgemeinen Konzepten bei der Kapazitätsverwaltung sowie Links zu zusätzlicher Dokumentation und zusätzlichen Ressourcen finden Sie im folgenden Artikel: Leistungs- und Kapazitätsverwaltung (SharePoint Server 2010) Weitere Informationen zur Kapazitätsverwaltung finden Sie in den folgenden Begleitartikeln zu diesem Übersichtsartikel: Kapazitätsplanung für SharePoint Server 2010 Testen der Leistung für SharePoint Server 2010 Überwachen und Verwalten von SharePoint Server 2010 Sie sollten nun einen gutes Verständnis der Konzepte haben. Informationen zu den Grenzwerten und Beschränkungen von SharePoint Server 2010 finden Sie im folgenden Artikel: SharePoint Server 2010-Kapazitätsverwaltung: Softwarebeschränkungen und grenzen Wenn Sie bereit sind, eine Ausgangstopologie für Ihre SharePoint Server 2010-basierte Umgebung zu definieren, können Sie in der Bibliothek mit den verfügbaren technischen Fallstudien nach der Topologie suchen, die am ehesten Ihren Anforderungen entspricht. Eine Liste mit Fallstudien (weitere Fallstudien werden im Laufe der Zeit hinzugefügt) finden Sie im folgenden Artikel: Performance and capacity technical case studies (SharePoint Server 2010) (in englischer Sprache) Eine Liste mit Artikeln zur Kapazitätsverwaltung, die für viele spezielle Dienste und Features von SharePoint Server 2010 verfügbar sind (weitere Artikel werden im Laufe der Zeit hinzugefügt), finden Sie im folgenden Artikel: Ergebnisse der Leistungs- und Kapazitätstests und Empfehlungen (SharePoint Server 2010) Informationen zur Größenanpassung und zur Leistung von Datenbanken finden Sie im folgenden Artikel: Speicher- und SQL Server-Kapazitätsplanung und -Konfiguration (SharePoint Server 2010) Informationen zum Remote-BLOB-Speicher (RBS) finden Sie im folgenden Artikel: Plan for remote BLOB storage (RBS) (SharePoint Server 2010) Informationen zur Systemüberwachung und Problembehandlung mithilfe der in die Benutzeroberfläche der Zentraladministration integrierten Systemüberwachungstools finden Sie in den folgenden Artikeln: Health Monitoring (SharePoint Server 2010) Solving Problems and Troubleshooting (SharePoint Server 2010) Informationen zu allgemeinen Richtlinien für die Leistungsoptimierung und zu einer Reihe von speziellen Leistungs- und Kapazitätsthemen (weitere Artikel werden im Laufe der Zeit hinzugefügt) finden Sie im folgenden Artikel: 14 Use search administration reports (SharePoint Server 2010) Weitere Informationen zum Virtualisieren von SharePoint Server 2010-basierten Servern finden Sie im folgenden Artikel: Virtualization planning (SharePoint Server 2010) Die Vier Grundkonzepte der Leistung Die Kapazitätsverwaltung befasst sich mit den folgenden vier Hauptaspekten der Größenanpassung Ihrer Lösung: Wartezeit Im Zusammenhang mit der Kapazitätsverwaltung wird Wartezeit definiert als der Zeitraum zwischen dem Starten einer Aktion (z. B. das Klicken auf einen Hyperlink) durch einen Benutzer und dem Zeitpunkt der Übertragung des letzten Bytes an die Clientanwendung oder den Webbrowser. Durchsatz Der Durchsatz ist definiert als die Anzahl gleichzeitiger Anforderungen, die von einem Server oder einer Serverfarm verarbeitet werden kann. Datenvolumen Das Datenvolumen wird definiert als die Inhaltsgröße und der Datenkorpus, die bzw. der vom System gehostet werden kann. Die Struktur und Verteilung der Inhaltsdatenbanken hat erhebliche Auswirkungen auf den Zeitaufwand für die Verarbeitung von Anforderungen durch das System (Wartezeit) sowie die unterstützte Anzahl gleichzeitiger Anforderungen (Durchsatz). Zuverlässigkeit Die Zuverlässigkeit ist ein Maß für die Einhaltung der Zielvorgaben für die Wartezeit und den Durchsatz über einen bestimmten Zeitraum. Bei der Kapazitätsverwaltung für die Umgebung soll in erster Linie ein System eingerichtet und verwaltet werden, das die Zielvorgaben Ihrer Organisation für Wartezeit, Durchsatz, Datenvolumen und Zuverlässigkeit erfüllt. Wartezeit Wartezeit, die auch als vom Endbenutzer wahrgenommene Wartezeit bezeichnet wird, besteht aus den folgenden drei Hauptkomponenten: Der Zeit, die der Server zum Empfangen und Verarbeiten der Anforderung benötigt. Der Zeit, die die Übertragung der Anforderung und der Serverantwort im Netzwerk benötigt. Der Zeit, die das Rendern der Antwort in der Clientanwendung benötigt. Organisationen definieren basierend auf Geschäftsanforderungen und Benutzererwartungen unterschiedliche Zielvorgaben für die Wartezeit. Manche Organisationen können sich eine Wartezeit von mehreren Sekunden leisten, während andere Organisationen sehr schnelle Transaktionen benötigen. Die Optimierung für sehr schnelle Transaktionen ist gewöhnlich teurer und erfordert in der Regel leistungsfähigere Clients und Server, neuere Browser- und Clientanwendungsversionen, Netzwerklösungen mit hoher Bandbreite sowie möglicherweise Investitionen in die Entwicklung und Optimierung von Seiten. Einige wichtige Faktoren, die zu längeren vom Endbenutzer wahrgenommenen Wartezeiten führen, sowie Beispiele für einige häufig auftretende Probleme werden in der folgenden Liste beschrieben. Diese Faktoren sind besonders relevant für Szenarien, bei denen die Clients weit entfernt von der Serverfarm sind oder über eine Netzwerkverbindungen mit niedriger Bandbreite auf die Farm zugreifen. 15 Nicht optimierte Features, Dienste oder Konfigurationsparameter können die Verarbeitung von Anforderungen verzögern und Auswirkungen auf die Wartezeit für Remoteclients und lokale Clients haben. Weitere Informationen finden Sie unter Durchsatz und Zuverlässigkeit weiter unten in diesem Artikel. Webseiten, die für den Server unnötige Anforderungen zum Herunterladen erforderlicher Daten und Ressourcen generieren. Die Optimierung würde das Herunterladen der Mindestanzahl von Ressourcen zum Darstellen der Seite, das Reduzieren der Bildgrößen, das Speichern der statischen Ressourcen in Ordnern, die den anonymen Zugriff ermöglichen, das Gruppieren von Anforderungen und das Aktivieren der Seiteninteraktivität während des asynchronen Herunterladens der Ressourcen vom Server beinhalten. Diese Optimierungen spielen eine wichtige Rolle, um eine akzeptable erstmalige Browseerfahrung zu erzielen. Die Übertragung sehr großer Datenmengen im Netzwerk trägt zu längeren Wartezeiten und zur Beeinträchtigung des Durchsatzes bei. Beispielsweise sollten Bilder und andere Binärobjekte auf einer Seite nach Möglichkeit ein komprimiertes Format wie z. B. PNG oder JPG anstelle von Bitmaps verwenden. Webseiten, die nicht für Zweitzugriff-Seitenladevorgänge optimiert sind. Die Seitenladezeit (Page Load Time, PLT) wird für Zweitzugriff-Seitenladevorgänge verbessert, da manche Seitenressourcen auf dem Client zwischengespeichert sind, und der Browser muss nur nicht zwischengespeicherten dynamischen Inhalt herunterladen. Nicht akzeptable Wartezeiten bei Zweitzugriff-Seitenladevorgängen werden oft durch die falsche Konfiguration des BLOB-Caches (Binary Large Object) oder durch die Deaktivierung der lokalen Browserzwischenspeicherung auf Clientcomputern verursacht. Optimierungen würden die korrekte Zwischenspeicherung von Ressourcen auf dem Client beinhalten. Webseiten mit nicht optimiertem benutzerdefiniertem JavaScript-Code. Dadurch kann das Rendern der Seite auf dem Client verlangsamt werden. Die Optimierung würde die Verarbeitung von JavaScript-Code auf dem Client verzögern, bis der Rest der Seite geladen wurde, und nach Möglichkeit würden Skripts aufgerufen, anstatt JavaScript inline hinzuzufügen. Durchsatz Der Durchsatz wird beschrieben als die Anzahl von Anforderungen, die von einer Serverfarm in einer Zeiteinheit verarbeitet werden können, und wird oft zum Messen des Vorgangsvolumens verwendet, das vom System basierend auf der Größe der Organisation und deren Nutzungsmerkmalen unterstützt werden soll. Für jeden Vorgang fallen bestimmte Kosten bei den Serverfarmressourcen an. Die Kenntnis des Bedarfs und die Bereitstellung einer Farmarchitektur, durch die der Bedarf kontinuierlich erfüllt werden kann, erfordert das Bestimmen der erwarteten Auslastung und das Testen der Architektur mit einer Auslastung. Dadurch soll sichergestellt werden, dass die Wartezeit nicht unter die Zielvorgabe sinkt, wenn viele gleichzeitige Anforderungen vorhanden sind und das System stark beansprucht wird. Es folgen einige gängige Beispiele für Situationen mit niedrigem Durchsatz: Ungeeignete Hardwareressourcen Wenn die Farm mehr Anforderungen empfängt, als gleichzeitig verarbeitet werden können, werden der Warteschlange Anforderungen hinzugefügt. Dadurch wird die Verarbeitung jeder nachfolgenden Anforderung kumulativ verzögert, bis der Bedarf ausreichend reduziert wurde, dass 16 die Warteschlange geleert werden kann. Für die Optimierung einer Farm zur Unterstützung eines höheren Durchsatzes gibt es folgende Beispiele: Stellen Sie sicher, dass die Prozessoren auf Farmservern nicht übermäßig beansprucht werden. Wenn z. B. die CPU-Auslastung zu Spitzenzeiten oder Auslastungsspitzen 80 % überschreitet, fügen Sie weitere Server hinzu, oder verteilen Sie Dienste auf andere Farmserver. Stellen Sie sicher, dass auf Anwendungsservern und Webservern ausreichend Arbeitsspeicher für den kompletten Cache vorhanden ist. Dadurch werden Aufrufe für die Datenbank zum Verarbeiten von Anforderungen für nicht zwischengespeicherte Inhalte vermieden. Stellen Sie sicher, dass es bei den Datenbankservern keine Engpässe gibt. Falls die insgesamt verfügbare Datenträgergeschwindigkeit (IOPS) zur Unterstützung von Spitzenbedarf nicht ausreicht, fügen Sie weitere Datenträger hinzu, oder verteilen Sie Datenbanken auf nicht ausgelastete Datenträger. Weitere Informationen finden Sie im Abschnitt zum Beseitigen von Engpässen des Artikels zur Überwachung und Wartung von SharePoint Server 2010-Produkten und -Technologien. Wenn das Hinzufügen von Ressourcen zu bestehenden Computern nicht ausreicht, um Durchsatzproblem zu beseitigen, fügen Sie Server hinzu, und verteilen Sie betroffene Features und Dienste auf die neuen Server. Nicht optimierte benutzerdefinierte Webseiten Das Hinzufügen von benutzerdefiniertem Code zu häufig verwendeten Seiten in einer Produktionsumgebung ist eine häufige Ursache für Durchsatzprobleme. Durch das Hinzufügen von benutzerdefiniertem Code können für die Verarbeitung von Datenanforderungen zusätzliche Roundtrips zu den Datenbankservern oder Webdiensten generiert werden. Die Anpassung selten verwendeter Seiten hat zwar geringe Auswirkungen auf den Durchsatz, aber selbst gut optimierter Code kann den Farmdurchsatz reduzieren, falls er Tausende Male am Tag angefordert wird. SharePoint Server-Administratoren können das Entwicklerdashboard aktivieren, um benutzerdefinierten Code zu identifizieren, der optimiert werden muss. Für die Optimierung von benutzerdefiniertem Code gibt es folgende Beispiele: Minimieren Sie die Anzahl von Webdienstanforderungen und SQL-Abfragen. Rufen Sie die mindestens erforderlichen Daten bei jedem Roundtrip zum Datenbankserver ab, und reduzieren Sie gleichzeitig die Anzahl notwendiger Roundtrips. Vermeiden Sie das Hinzufügen von benutzerdefiniertem Code zu häufig verwendeten Seiten. Verwenden Sie Indizes, wenn Sie eine gefilterte Datenmenge abrufen. Nicht vertrauenswürdige Lösungen Durch die Bereitstellung von benutzerdefiniertem Code in bin-Ordnern kann die Serverleistung beeinträchtigt werden. Bei jeder Anforderung einer Seite, die nicht vertrauenswürdigen Code enthält, müssen vor dem Laden der Seite von SharePoint Server 2010 Sicherheitsprüfungen ausgeführt werden. Wenn es keinen triftigen Grund für die Bereitstellung von nicht vertrauenswürdigem Code gibt, sollten Sie benutzerdefinierte Assemblys im globalen Assemblycache (GAC) installieren, um unnötige Sicherheitsprüfungen zu vermeiden. 17 Datenvolumen Das Datenvolumen ist der Datenumfang, der vom Server oder der Serverfarm gespeichert werden kann, sodass die Zielvorgaben für Wartezeit und Durchsatz erfüllt werden können. Im Allgemeinen gilt, je größer das Datenvolumen in der Farm ist, desto größer sind die Auswirkungen insgesamt auf den Durchsatz und die Benutzererfahrung. Die zum Verteilen von Daten auf Datenträger und Datenbankserver verwendete Methode kann ebenfalls Auswirkungen auf die Wartezeit und den Durchsatz der Farm haben. Die Größenanpassung der Datenbank, die Datenarchitektur und ausreichend Datenbankserverhardware spielen eine sehr wichtige Rolle für eine optimale Datenbanklösung. Bei einer idealen Bereitstellung wird die Größe von Inhaltsdatenbanken gemäß den Größenvorgaben angepasst, und die Inhaltsdatenbanken werden auf physikalische Datenträger verteilt, sodass Anforderungen aufgrund der übermäßigen Beanspruchung der Datenträger nicht der Warteschlange hinzugefügt werden. Und Datenbankserver unterstützen Spitzenauslastungen und unerwartete Auslastungssitzen, ohne die Schwellenwerte für die Ressourcenverwendung zu überschreiten. Außerdem können bestimmte Tabellen bei der Ausführung bestimmter Vorgänge gesperrt werden. Ein Beispiel hierfür ist das Löschen einer umfangreichen Website. Dabei kann es sein, dass die zugehörigen Tabellen in der Inhaltsdatenbank, in der die Website gespeichert ist, bis zum Abschluss des Löschvorgangs gesperrt sind. Für das Optimieren der Daten- und Speicherleistung einer Farm gibt es folgende Beispiele: Stellen Sie sicher, dass die Datenbanken ordnungsgemäß auf die Datenbankserver verteilt sind und dass die Datenbankserverressourcen für die Unterstützung des Datenvolumens und der Datenverteilung ausreichend sind. Teilen Sie die Datenbanken auf eindeutige logische Einheiten (LUN) auf, die aus eindeutigen physikalischen Datenträgerspindeln bestehen. Verwenden Sie mehrere Datenträger mit schnellen Suchzeiten und geeigneten RAID-Konfigurationen, um die Speicheranforderungen der Datenbankserver zu erfüllen. Sie können Remote-BLOB-Speicher (RBS) verwenden, wenn der Datenkorpus viele BLOB-Daten (Binary Large Objects) enthält. RBS kann die folgenden Vorteile bieten: BLOB-Daten können auf kostengünstigeren Speichergeräten gespeichert werden, die für eine einfache Speicherung konfiguriert sind. Die Verwaltung der BLOB-Speicherung wird von einem System gesteuert, das speziell für das Arbeiten mit BLOB-Daten entwickelt wurde. Datenbankserverressourcen werden für Datenbankvorgänge freigegeben. Diese Vorteile sind mit Kosten verbunden. Bevor Sie RBS mit SharePoint Server 2010 implementieren, müssen Sie prüfen, ob diese potenziellen Vorteile mit den Kosten und Einschränkungen der Implementierung und Wartung von RBS in Einklang zu bringen sind. Weitere Informationen finden Sie unter Plan for remote BLOB storage (RBS) (SharePoint Server 2010). Weitere Informationen zur Planung des Datenvolumens finden Sie unter Speicher- und SQL Server-Kapazitätsplanung und -Konfiguration (SharePoint Server 2010). Zuverlässigkeit 18 Die Zuverlässigkeit ist das Maß für die Einhaltung der Zielvorgaben für die Wartezeit, den Durchsatz und die Datenkapazität der Serverfarm über einen bestimmten Zeitraum. Eine Farm gilt dann als zuverlässig, wenn die Betriebszeit, die Reaktionszeit, die Fehlerrate sowie die Häufigkeit und der Ausschlag von Wartezeitspitzen innerhalb der Zielvorgaben und der betrieblichen Anforderungen liegen. Eine zuverlässige Farm unterstützt außerdem kontinuierlich die Zielvorgaben für Wartezeit und Durchsatz zu Spitzenauslastungs- und Spitzenzeiten oder beim Ausführen von Systemvorgängen wie z. B. Durchforstungen oder täglichen Sicherungen. Ein wichtiger Faktor bei der Unterstützung der Zuverlässigkeit sind die Auswirkungen allgemeiner administrativer Vorgänge auf die Leistungszielvorgaben. Bei bestimmten Vorgängen, wie z. B. der Neuerstellung der Datenbankindizes, Wartungszeitgeberaufträgen oder dem Löschen von mehreren Websites mit viel Inhalt, können Benutzeranforderungen möglicherweise nicht so schnell verarbeitet werden. In diesem Fall können sowohl die Wartezeit als auch der Durchsatz von Endbenutzeranforderungen beeinträchtigt werden. Die Auswirkungen auf die Farm sind abhängig von der Häufigkeit und den Transaktionskosten solcher seltenerer Vorgänge sowie der Tatsache, ob sie während der üblichen Betriebszeit ausgeführt werden. Für die Unterstützung eines zuverlässigeren Systems gibt es folgende Beispiele: Planen Sie ressourcenintensive Zeitgeberauträge und administrative Aufgaben für Nebenzeiten ein. Nehmen Sie eine vertikale Skalierung der Hardware auf den bestehenden Farmservern vor, oder nehmen Sie durch Hinzufügen von Webservern, Anwendungsservern oder zusätzlichen Datenbankservern eine horizontale Skalierung vor. Verteilen Sie ressourcenintensive Dienste und Features auf dedizierte Server. Sie können auch mit einem hardwarebasierten Lastenausgleichsmodul featurespezifischen Datenverkehr an einen Webserver umleiten, der ausschließlich für bestimmte Features oder Dienste vorgesehen ist. Kapazitätsverwaltung und Kapazitätsplanung Mit der Kapazitätsverwaltung wird die Kapazitätsplanung erweitert, um einen zyklischen Ansatz zu formulieren, bei dem die Kapazität einer SharePoint Server 2010Bereitstellung fortlaufend überwacht und optimiert wird, um auf sich ändernde Bedingungen und Anforderungen einzugehen. SharePoint Server 2010 bietet eine höhere Flexibilität und kann für die Unterstützung von Verwendungsszenarien einer Vielzahl unterschiedlicher Skalierungspunkte konfiguriert werden. Es gibt nicht eine einzelne Bereitstellungsarchitektur. Deshalb müssen SystemDesigner und Administratoren die Anforderungen für ihre speziellen Umgebungen kennen. SharePoint Server 2010-Kapazitätsverwaltungsmodell 19 Schritt 1: Modellierung Bei der Modellierung bestimmen Sie die wichtigen Lösungen, die von Ihrer Umgebung unterstützt werden sollen, und richten alle wichtigen Metriken und Parameter ein. Das Resultat der Modellierungsübung sollte eine Liste mit allen wichtigen Daten sein, die Sie zum Entwerfen der Umgebung benötigen. Analysieren Sie die erwartete Arbeitsauslastung und das Dataset. 20 Legen Sie Zielvorgaben für die Leistung und Zuverlässigkeit der Farm fest. Analysieren Sie die SharePoint Server 2010-IIS-Protokolle. Schritt 2: Entwurf Nachdem Sie in Schritt die Daten erfasst haben, können Sie die Farm entwerfen. Das Resultat dieses Schritts sind eine detaillierte Datenarchitektur sowie physikalische und logische Topologien. Bestimmen Sie die Ausgangsarchitektur. Wählen Sie die Hardware aus. Schritt 3: Pilot-, Test- und Optimierungsphase Wenn Sie eine neue Bereitstellung entworfen haben, müssen Sie eine Pilotumgebung zum Testen anhand Ihrer Arbeitsauslastung und der erwarteten Nutzungsmerkmale bereitstellen. Für eine bestehende Farm ist das Testen ratsam, wenn größere Änderungen an der Infrastruktur vorgenommen werden, aber die regelmäßige Optimierung basierend auf Überwachungsergebnissen erforderlich ist, um die Leistungsvorgaben einzuhalten. Das Resultat dieser Phase ist eine Analyse der Testergebnisse anhand der Zielvorgaben sowie eine optimierte Architektur, die die Zielvorgaben für Leistung und Kapazität unterstützt. Pilotphase Stellen Sie eine Pilotumgebung bereit. Testphase Testen Sie anhand der Zielvorgaben für Wartezeit und Durchsatz. Optimierungsphase Sammeln Sie Testergebnisse, und nehmen Sie erforderliche Änderungen an den Farmressourcen und der Topologie vor. Schritt 4: Bereitstellung Dieser Schritt beschreibt das Implementieren der Farm oder das Bereitstellen von Änderungen einer vorhandenen Farm. Das Resultat eines neuen Entwurfs ist die abgeschlossene Bereitstellung in der Liveproduktionsumgebung, einschließlich aller Inhalte und Benutzermigrationen. Das Resultat für eine vorhandene Farm sind überarbeitete Farmzuordnungen und aktualisierte Wartungspläne. Schritt 5: Überwachung und Wartung Dieser Schritt beschreibt, wie Sie die Überwachung einrichten, wie Sie Engpässe vorhersehen und erkennen sowie wie Sie eine regelmäßige Wartung und Aktivitäten zur Vermeidung von Engpässen ausführen. Über- und Unterdimensionierung Überdimensionierung beschreibt einen Farmentwurf, bei dem die Zielvorgaben erreicht werden, ohne Hardware voll zu nutzen, und die Ressourcen in der SharePoint ServerFarm sind in erheblichem Maß und beständig nicht ausgelastet. In einer überdimensionierten Bereitstellung zeigen Arbeitsspeicher, CPU und sonstige Indikatoren der Farmressourcen, dass der Bedarf mit weniger Ressourcen problemlos bewältigt werden kann. Der Nachteil der Überdimensionierung sind erhöhte Ausgaben für Hardware und Wartung sowie ein höherer Strom- und Speicherplatzverbrauch. Unterdimensionierung beschreibt einen Farmentwurf, bei dem die Leistungs- und Kapazitätsvorgaben nicht erreicht werden, da Hardwareressourcen in der SharePoint Server-Farm übermäßig beansprucht werden. Die Unterdimensionierung einer Farm wird manchmal verwendet, um Hardwarekosten zu senken, führt aber im Allgemeinen zu langen Wartezeiten und damit zu einer geringen Benutzerfreundlichkeit, geringer 21 Zufriedenheit, häufigen Eskalationen, hohen Supportkosten und unnötigen Ausgaben für die Problembehandlung und Optimierung der Umgebung. Stellen Sie beim Entwerfen Ihrer Farm sicher, dass die Farm die festgelegten Leistungsund Kapazitätsvorgaben erfüllen kann, und zwar sowohl bei regulärer Spitzenauslastung als auch bei unerwarteten Spitzen. Durch das Entwerfen, Testen und Optimieren können Sie sicherstellen, dass in der Farm die richtige Hardware verwendet wird. Zur Erfüllung der Leistungsvorgaben und zur Berücksichtigung des Wachstums sollten stets mehr Ressourcen vorhanden sein, als zur Erfüllung der Zielvorgaben erforderlich sind. Die Kosten für die überhöhten Investitionen in Hardware sind gewöhnlich viel niedriger als die Ausgaben im Laufe der Zeit für die Behandlung von Problemen, die durch die Unterdimensionierung verursacht wurden. Sie sollten die Größe eines Systems immer so gestalten, dass es zu Spitzenzeiten angemessen reagiert, was für bestimmte Dienste zu verschiedenen Zeiten unterschiedlich sein kann. Für eine effektive Schätzung der Kapazitätsanforderungen müssen Sie für alle Ressourcen den Zeitraum mit dem höchsten Bedarf ermitteln. Möglicherweise sind verschiedene Features und Dienste zu bestimmten Tageszeiten stärker ausgelastet, wie z. B. am Morgen oder nach dem Mittagessen. Die Farm muss außerdem ungeplante Spitzenzeiten unterstützen. Beispielsweise wenn bei Ankündigungen im gesamten Unternehmen ungewöhnlich viele Benutzer gleichzeitig auf eine Website zugreifen. In solchen Zeiten mit hohem Bedarf treten für die Benutzer lange Wartezeiten auf, oder sie erhalten nur eine Antwort von der Farm, wenn ausreichend Farmressourcen für die erhöhte Auslastung in der Farm verfügbar sind. Die Farmkapazität sollte ebenfalls überprüft werden, wenn dem Unternehmen zusätzliche Benutzer hinzugefügt werden. Situationen wie z. B. eine Firmenfusion oder eine Firmenübernahme sind dadurch gekennzeichnet, dass durch den Zugriff neuer Mitarbeiter auf die Farm möglicherweise die Leistung beeinträchtigt wird, wenn dies nicht vorher entsprechend geplant wurde. Betriebsstatus: Grüner Bereich und roter Bereich Bei der Beschreibung der Auslastung eines Produktionssystems werden zwei Hauptbetriebsstatus verwendet. Einerseits der Status Grüner Bereich, in dem das System im normalen, erwarteten Auslastungsbereich arbeitet. Und andererseits der Status Rote Zone, in dem in der Farm ein sehr hoher temporärer Ressourcenbedarf auftritt, der nur für einen begrenzten Zeitraum unterstützt werden kann, bevor Fehler und sonstige Leistungs- und Zuverlässigkeitsprobleme auftreten. Grüner Bereich In diesem Status arbeitet der Server bzw. die Farm unter normalen Auslastungsbedingungen, bis hin zu erwarteten täglichen Spitzenauslastungen. Eine Farm sollte unter diesen Umständen in der Lage sein, akzeptable Reaktionszeiten und Wartezeiten zu ermöglichen. Roter Bereich Der Betriebsbereich, in dem die Auslastung höher als die normale Spitzenauslastung ist, aber Serviceanforderungen weiterhin für einen begrenzten Zeitraum erfüllt werden können. Dieser Status ist gekennzeichnet durch eine Wartezeit über dem üblichen Wert sowie durch mögliche Fehler aufgrund der Überlastung durch Systemengpässe. Ziel des Farmentwurfs ist letztlich die Bereitstellung einer Umgebung, von der eine Auslastung im roten Bereich ohne Servicefehler und innerhalb akzeptabler Zielvorgaben für Wartezeit und Durchsatz kontinuierlich unterstützt wird. 22 Softwaregrenzwerte und -beschränkungen In SharePoint Server 2010 gibt es bestimmte Grenzwerte, die entwurfsbedingt sind und nicht überschritten werden können, während es sich bei anderen Grenzwerten um Standardwerte handelt, die von einem Farmadministrator geändert werden können. Außerdem gibt es bestimmte Grenzwerte, die nicht durch einen konfigurierbaren Wert dargestellt werden, beispielsweise die Anzahl von Websitesammlungen pro Webanwendung. Bei Beschränkungen handelt es sich um absolute Grenzwerte, die entwurfsbedingt nicht überschritten werden können. Es ist wichtig, diese Grenzwerte zu kennen, um sicherzustellen, dass Sie beim Entwerfen Ihrer Farm nicht von falschen Voraussetzungen ausgehen. Ein Beispiel für eine Beschränkung ist die Beschränkung der Dokumentgröße auf 2 GB. Sie können SharePoint Server 2010 nicht so konfigurieren, dass Dokumente mit einer Größe von über 2 GB gespeichert werden. Es handelt sich hierbei um einen integrierten absoluten Wert, der entwurfsbedingt nicht überschritten werden kann. Bei Schwellenwerten handelt es sich um Standardwerte, die nur durch Ändern dieses Werts überschritten werden können. Unter bestimmten Bedingungen können Schwellenwerte überschritten werden, um Abweichungen im Farmentwurf Rechnung zu tragen. Es ist jedoch wichtig zu wissen, dass sich dies auf die Leistung der Farm und auf den geltenden Wert anderer Grenzwerte auswirken kann. Der Standardwert bestimmter Schwellenwerte kann nur bis zu einem absoluten Maximalwert überschritten werden. Ein gutes Beispiel hierfür ist wiederum die Beschränkung der Dokumentgröße. Standardmäßig ist der Schwellenwert für die Dokumentgröße auf 50 MB festgelegt, kann jedoch in einen Wert von maximal 2 GB geändert werden. Unterstützte Grenzwerte definieren den getesteten Wert für einen bestimmten Parameter. Die Standardwerte für diese Grenzwerte wurden durch Tests festgelegt und stellen die bekannten Einschränkungen des Produkts dar. Ein Überschreiten dieser unterstützten Grenzwerte kann zu unerwarteten Ergebnissen, signifikanten Leistungseinbußen und anderen negativen Folgen führen. Bei einigen unterstützten Grenzwerten handelt es sich um konfigurierbare Parameter, die standardmäßig auf den empfohlenen Wert festgelegt sind, während andere Grenzwerte sich auf Parameter beziehen, die nicht durch einen konfigurierbaren Wert dargestellt werden. Ein Beispiel für einen unterstützten Grenzwert ist die Anzahl von Websitesammlungen pro Webanwendung. Der unterstützte Grenzwert liegt bei 500.000. Dabei handelt es sich um die größte Anzahl von Websitesammlungen pro Webanwendung, die beim Testen die Leistungsbenchmarks erfüllt hat. Es ist wichtig zu wissen, dass viele der in diesem Dokument angegebenen Grenzwerte einen Punkt in einer Kurve darstellen, die eine wachsende Ressourcenauslastung und einen damit einhergehenden Leistungsverlust bei Zunahme des Werts beschreibt. Deshalb kann das Überschreiten bestimmter Grenzwerte, wie beispielsweise der Anzahl von Websitesammlungen pro Webanwendung, nur zu einem anteiligen Verlust der Farmleistung führen. In den meisten Fällen empfiehlt es sich jedoch, am oder zumindest nah am festgelegten Grenzwert zu operieren, da akzeptable Leistungs- und Zuverlässigkeitsvorgaben sich am ehesten erreichen lassen, wenn der Entwurf einer Farm ein ausgewogenes Verhältnis zwischen Grenzwerten bietet. 23 Richtlinien für Schwellenwerte und unterstützte Grenzwerte werden auf Leistungsbasis bestimmt. Mit anderen Worten, Sie können die Standardwerte für diese Grenzwerte überschreiten, doch kann es dann zu einer Beeinträchtigung der Farmleistung und zu Auswirkungen auf andere geltende Grenzwerte kommen, wenn Sie den Grenzwert heraufsetzen. Viele Grenzwerte in SharePoint Server 2010 können geändert werden. Es ist jedoch wichtig zu wissen, wie sich die Änderung eines bestimmten Grenzwerts auf andere Teile der Farm auswirkt. Wenn Sie Kontakt zu Microsoft Customer Support Services aufnehmen und es um ein Produktionssystem geht, das die im Dokument Hardware and software requirements (SharePoint Server 2010) aufgeführten Mindesthardwareanforderungen nicht erfüllt, kann Ihnen erst dann ein vollständiger Support geboten werden, nachdem ein Systemupgrade durchgeführt wurde, sodass die Mindestanforderungen erfüllt sind. Festlegen von Grenzwerten In SharePoint Server 2010 werden Schwellenwerte und unterstützte Grenzwerte durch Tests festgelegt sowie durch Beobachten des Farmverhaltens bei zunehmenden Auslastungen bis zu dem Punkt, an dem Farmdienste und -operationen ihren effektiven Betriebsgrenzwert erreichen. Einige Farmdienste und -komponenten können eine höhere Auslastung unterstützen als andere. Deshalb müssen Sie in einigen Fällen einen Grenzwert zuweisen, der auf einem Durchschnittswert aus mehreren Faktoren beruht. So weisen beispielsweise Beobachtungen des Farmverhaltens unter Last beim Hinzufügen von Websitesammlungen darauf hin, dass bestimmte Funktionen eine inakzeptabel lange Wartezeit aufweisen, während andere Funktionen weiterhin innerhalb akzeptabler Parameter arbeiten. Aus diesem Grund ist der Maximalwert, der der Anzahl von Websitesammlungen zugewiesen wird, nicht absolut, sondern beruht auf einer vorhergesehenen Reihe von Nutzungsmerkmalen, bei der die allgemeine Farmleistung beim festgelegten Grenzwert unter den meisten Umständen akzeptabel ist. Wenn einige Dienste mit Parametern arbeiten, die über denen liegen, die zum Testen der Grenzwerte verwendet werden, werden die effektiven Maximalgrenzwerte anderer Dienste verringert. Deshalb sind eine strikte Kapazitätsverwaltung sowie Skalierungstests für bestimmte Bereitstellungen erforderlich, um effektive Grenzwerte für die jeweilige Umgebung aufzustellen. Weitere Informationen zu Beschränkungen und Grenzwerten und deren Auswirkungen auf den Kapazitätsverwaltungsprozess finden Sie unter SharePoint Server 2010Kapazitätsverwaltung: Softwarebeschränkungen und -grenzen. Wichtige Unterschiede zwischen SharePoint Server 2010 und Office SharePoint Server 2007 SharePoint Server 2010 bietet mehr Features und ein flexibleres Topologiemodell als frühere Versionen. Bevor Sie mit dieser komplexeren Architektur den Benutzern leistungsfähigere Features und Funktionalität bereitstellen, müssen Sie deren Auswirkungen auf die Kapazität und Leistung Ihrer Farm sorgfältig überprüfen. In Microsoft Office SharePoint Server 2007 gab es vier Hauptdienste, die Sie in Anbietern für gemeinsame Dienste (Shared Services Provider, SSP) aktivieren konnten: Suchdienst, Dienste für Excel-Berechnungen, Benutzerprofildienst und 24 Geschäftsdatenkatalog-Dienst. Darüber hinaus gab es relativ wenige Clients mit einer direkten Schnittstelle zu Microsoft Office SharePoint Server 2007. In SharePoint Server 2010 gibt es mehr verfügbare Dienste, die als SharePointDienstanwendungen (SharePoint Service Application, SSA) bezeichnet werden. Außerdem gibt es in SharePoint Server 2010 wesentlich mehr Clientanwendungen, die mit der Farm interagieren können, einschließlich mehrerer neuer Office-Anwendungen, mobiler Geräte, Designertools und Browsern. Im Folgenden finden Sie einige Beispiele, wie sich erweiterte Clientinteraktionen auf die Kapazitätsaspekte auswirken: SharePoint Server 2010 enthält Anwendungen für thematische Kategorien, die in Outlook integriert sind. Hiermit können Outlook 2010-Clients Informationen zu E-MailEmpfängern anzeigen, die aus der SharePoint Server-Farm abgerufen werden, wenn E-Mail-Nachrichten im Outlook-Client angezeigt werden. Dies ermöglicht neue Datenverkehrsmuster und Serverauslastungen, die Sie berücksichtigen sollten. Mit einigen neuen Microsoft Office 2010-Clientfunktionen werden Daten automatisch für die SharePoint Server-Farm aktualisiert, selbst wenn die Clientanwendungen geöffnet sind, aber nicht aktiv verwendet werden. Solche Clients wie etwa SharePoint Workspace und OneNote ermöglichen auch neue Datenverkehrsmuster und Serverauslastungen, die Sie berücksichtigen sollten. Die neuen Webinteraktivitätsfunktionen von SharePoint Server 2010, wie z. B. Office Web Apps, ermöglichen die direkte Bearbeitung von Office-Dateien im Browser. Sie verwenden AJAX-Aufrufe, welche neue Datenverkehrsmuster und Serverauslastungen ermöglichen, die Sie berücksichtigen sollten. In Microsoft Office SharePoint Server 2007 war der primäre Client für die Interaktion mit dem Server der Webbrowser. Angesichts des umfangreicheren Featuresatzes in SharePoint Server 2010 nehmen die Anforderungen pro Sekunde (RPS) insgesamt voraussichtlich zu. Darüber hinaus ist der Prozentsatz an Anforderungen vom Browser voraussichtlich niedriger als in Microsoft Office SharePoint Server 2007, was Platz für den wachsenden Prozentsatz an neuem Datenverkehr von anderen Clients schafft, wenn sie in der gesamten Organisation auf breiter Basis verwendet werden. Darüber hinaus gibt es in SharePoint Server 2010 neue Funktionen wie z. B. die systemeigene Unterstützung von eingebetteten Videos, was eine starke Belastung für die Farm bedeuten kann. Einige Funktionen wurden außerdem erweitert, um eine bessere Unterstützung als frühere Versionen zu bieten. Im folgenden Abschnitt werden diese Clientinteraktionen, Dienste und Features sowie deren allgemeine Leistungs- und Kapazitätsauswirkungen auf das System, die Sie beim Entwerfen einer Lösung berücksichtigen sollten, beschrieben. Weitere Informationen zum Ausführen eines Upgrades auf SharePoint Server 2010 finden Sie unter Upgrading to SharePoint Server 2010. Dienste und Features Die folgende Tabelle enthält eine vereinfachte allgemeine Beschreibung der Ressourcenanforderungen für die verschiedenen Dienste auf jeder Ebene. Leere Zellen bedeuten, dass der Dienst auf dieser Ebene nicht ausgeführt wird oder keine Auswirkungen auf diese Ebene aus. X – Bedeutet minimale oder unerhebliche Kosten für die Ressource. Der Dienst kann diese Ressource gemeinsam mit anderen Diensten verwenden. XX – Bedeutet mittlere Kosten für die Ressource. Der Dienst könnte diese Ressource gemeinsam mit anderen Diensten verwenden, die minimale Auswirkungen haben. 25 XXX – Bedeutet hohe Kosten für die Ressource. Der Dienst sollte im Allgemeinen diese Ressource nicht gemeinsam mit anderen Diensten verwenden. Weitere Informationen zum Planen von SQL Server-Datenbanken finden Sie unter Speicher- und SQL Server-Kapazitätsplanung und -Konfiguration (SharePoint Server 2010). Eine Liste mit Artikeln zur Kapazitätsverwaltung, die für viele spezielle Dienste und Features von SharePoint Server 2010 verfügbar sind (weitere Artikel werden im Laufe der Zeit hinzugefügt), finden Sie unter Ergebnisse der Leistungs- und Kapazitätstests und Empfehlungen (SharePoint Server 2010). Dienstanwendung Webser Webser Anwendungs Anwendungs SQL Ser SQL Ser SQL Ser ververserver-CPU server-RAM ver-CPU ververCPU RAM IOPS Speiche r SharePoint XXX Foundation-Dienst XXX Zentraladministrati onsdienst XX XX XX XXX XXX X X X XX XXX XXX XXX XXX XXX Protokollierungsdie XX nst * XX SharePointSuchdienst XXX XXX XXX WordX Anzeigedienstanwe ndung * X XXX XX PowerPoint Services * XX XXX XX Dienste für Excel- XX Berechnungen X XX XXX Visio Services * X X XXX XXX X X X Access Services * X X XXX XX X X X Benutzerprofildiens X t XX XX XX XXX XXX XX Verwalteter X Metadatendienst * XX XX XX X X XX Web AnalyticsDienst * X X XXX XXX XXX Business Connectivity Service * XX XX XXX XX XXX XXX 26 Dienstanwendung Webser Webser Anwendungs Anwendungs SQL Ser SQL Ser SQL Ser ververserver-CPU server-RAM ver-CPU ververCPU RAM IOPS Speiche r InfoPath Forms Services XX XX XX XX X X X Word Automation Services X X XXX XX X X X PerformancePoint- XX Dienstanwendung * XX XXX XXX X X X Project-Dienst * X X X X XXX XXX XX Sandkastenlösung X en * X XXX XXX Workflowfunktione XXX n* XXX Timerdienst XX XX XX XX PowerPivot * X X XXX XXX XX XX XXX Hinweis: Ein Sternchen (*) steht für einen neuen Dienst in SharePoint Server 2010. SharePoint Foundation-Dienst Der SharePoint-Basisdienst für die Zusammenarbeit bei Inhalten. Bei großen Bereitstellungen von SharePoint Server wird empfohlen, redundante Webserver basierend auf der erwarteten Auslastung durch Datenverkehr zuzuordnen, die Größe der SQL Server-basierten Computer, von denen die Inhaltsdatenbanken bereitgestellt werden, entsprechend anzupassen, und Speicherplatz basierend auf der Farmgröße entsprechend zuzuordnen. Zentraladministrationsdienst Der Administrationsdienst. Dieser Dienst stellt relativ geringe Kapazitätsanforderungen. Es wird empfohlen, diesen Dienst auf mehreren Farmservern zu aktivieren, um die Redundanz sicherzustellen. Protokollierungsdienst Der Dienst, mit dem Verwendungs- und Integritätsindikatoren zu Überwachungszwecken aufgezeichnet werden. Hierbei handelt es sich um einen Dienst mit vielen Schreibvorgängen, der in Abhängigkeit von der Anzahl von Indikatoren und der Häufigkeit, mit der sie protokolliert werden, relativ viel Speicherplatz erfordern kann. Bei großen Bereitstellungen von SharePoint Server 2010 wird empfohlen, die Verwendungsdatenbank getrennt von den Inhaltsdatenbanken auf anderen SQL Server-basierten Computern zu speichern. SharePoint-Suchdienstanwendung Die freigegebene Dienstanwendung mit Indizierungs- und Abfragefunktionen. Im Allgemeinen handelt es sich dabei um einen relativ ressourcenintensiven Dienst, der für sehr umfangreiche Inhaltsbereitstellungen 27 skaliert werden kann. Bei großen Bereitstellungen von SharePoint Server, in denen die Suche in Unternehmen eine wichtige Rolle spielt, wird empfohlen, eine separate "Dienstfarm" mit dedizierten Datenbankressourcen zum Hosten von Suchdienstanwendungen, mehrere Anwendungsserver zur Bereitstellung bestimmter Suchfunktionen (Durchforsten oder Abfragen) sowie dedizierte Zielwebserver in den Inhaltsfarmen zu verwenden, um einen akzeptablen Durchsatz zum Durchforsten und Abfragen sicherzustellen. Darüber hinaus können Sie die FAST-Dienstanwendungen als Suchdienstanwendung aktivieren. Erstellen Sie einen oder mehrere FASTSuchconnector zum Indizieren von Inhalt mit FAST Search Server 2010 for SharePoint, und erstellen Sie eine weitere FAST-Suchabfrage (SSA) zum Abfragen von Inhalt, der von den FAST-Suchconnectors durchforstet wird. Word-Anzeigedienstanwendung Durch Aktivieren dieses Diensts können Sie Word-Dokumente direkt im Browser anzeigen. Dieser Dienst wird hinzugefügt, wenn Sie Office Web Apps zusätzlich zu SharePoint Server 2010 installieren. Für diesen Dienst muss ein Anwendungsserver die ursprünglichen Dateien für das Anzeigen im Browser vorbereiten. Bei großen Bereitstellungen von SharePoint Server wird aufgrund der Redundanz und des Durchsatzes die horizontale Skalierung dieses Dienst auf mehrere Anwendungsserver empfohlen. Hinweis: Die Bearbeitung im Browser für Word und OneNote wird aktiviert, wenn Sie Office Web Apps in der SharePoint Server 2010-Farm installieren. Dieses Feature wird auf den Farmwebservern ausgeführt und verwendet keine Dienstanwendungen. PowerPoint-Dienstanwendung Mit diesem Dienst können Benutzer PowerPointDateien anzeigen und direkt im Browser bearbeiten. Außerdem können damit PowerPoint-Livepräsentationen übertragen und freigegeben werden. Dieser Dienst wird hinzugefügt, wenn Sie Office Web Apps in SharePoint Server 2010 installieren. Für diesen Dienst muss ein Anwendungsserver die ursprünglichen Dateien für das Anzeigen im Browser vorbereiten. Bei großen Bereitstellungen von SharePoint Server, wo dieser Dienst häufig verwendet wird, wird empfohlen, mehrere Anwendungsserver bereitzustellen, um eine akzeptable Redundanz und einen akzeptablen Durchsatz sicherzustellen, und weitere Webserver hinzuzufügen, wenn auch die PowerPoint-Übertragung häufig verwendet wird. Dienste für Excel-Berechnungen Mit diesem Dienst werden Excel-Arbeitsblätter direkt im Browser angezeigt und Excel-Berechnungen auf dem Server ausgeführt. Hiermit können Sie außerdem Arbeitsblätter direkt im Browser bearbeiten, wenn Sie Office Web Apps in SharePoint Server 2010 installieren. Bei großen Bereitstellungen von SharePoint Server, wo dieser Dienst häufig verwendet wird, wird empfohlen, eine ausreichende Anzahl von Anwendungsservern mit genügend RAM zuzuordnen, um eine akzeptable Leistung und einen akzeptablen Durchsatz sicherzustellen. PowerPivot für SharePoint Mit diesem Dienst können PowerPivot-fähige ExcelArbeitsblätter direkt im Browser angezeigt werden. Bei großen Bereitstellungen von SharePoint Server, wo dieser Dienst häufig verwendet wird, wird empfohlen, eine ausreichende Anzahl von Anwendungsservern mit genügend RAM und CPU zuzuordnen, um eine akzeptable Leistung und einen akzeptablen Durchsatz sicherzustellen. Weitere Informationen finden Sie unter Hardware- und Softwareanforderungen (PowerPivot für SharePoint). 28 Visio Services Mit diesem Dienst können Sie dynamische Visio-Diagramme direkt im Browser anzeigen. Dieser Dienst ist vom Sitzungsstatusdienst abhängig, der eine relativ kleine SQL Server-Datenbank benötigt. Für Visio Services muss ein Anwendungsserver die ursprünglichen Visio-Dateien für das Anzeigen im Browser vorbereiten. Bei großen Bereitstellungen von SharePoint Server, wo dieser Dienst häufig verwendet wird, wird die horizontale Skalierung dieses Diensts auf mehrere Anwendungsserver mit genügend CPU und RAM empfohlen, um eine akzeptable Leistung und einen akzeptablen Durchsatz sicherzustellen. Access-Dienstanwendung Mit diesem Dienst werden Access-Lösungen in SharePoint Server 2010 gehostet. Bei großen Bereitstellungen von SharePoint Server, wo dieser Dienst häufig verwendet wird, wird die horizontale Skalierung dieses Diensts auf mehrere Anwendungsserver mit genügend RAM empfohlen, um eine akzeptable Leistung und einen akzeptablen Durchsatz sicherzustellen. Der Access-Dienst verwendet SQL Reporting Services, wofür eine SQL ServerDatenbank erforderlich ist, die mit anderen Datenbanken zusammengefasst werden kann. Benutzerprofildienst-Anwendung Dieser Dienst unterstützt die Szenarien für soziale Netzwerke in SharePoint Server 2010 und ermöglicht Websites vom Typ Meine Website, thematische Kategorien, Notizen, Profilsynchronisierung mit Verzeichnissen und weitere Funktionen für soziale Netzwerke. Der Profildienst erfordert drei relativ ressourcenintensive Datenbanken, nämlich die Synchronisierungsdatenbank, die Profildatenbank und die Datenbank für thematische Kategorien. Dieser Dienst ist abhängig von der Dienstanwendung für verwaltete Metadaten. Bei großen Bereitstellungen von SharePoint Server sollten Sie diesen Dienst eventuell auf eine Farm für gemeinsame Dienste verteilen und die Größe der Datenbankserverserverebene ordnungsgemäß anpassen, um eine akzeptable Leistung von häufigen Transaktionen und Verzeichnissynchronisierungsaufträgen sicherzustellen. Dienstanwendung für verwaltete Metadaten Der Dienst, mit dem der zentrale Metadatenspeicher bereitgestellt wird und der die Veröffentlichung von Inhaltstypen im gesamten Unternehmen ermöglicht. Dieser Dienst kann einer dedizierten Farm für Dienste zugeteilt werden. Er erfordert eine Datenbank, die mit anderen Datenbanken zusammengefasst werden kann. Web Analytics-Dienstanwendung Mit diesem Dienst werden Statistiken zu den Nutzungsmerkmalen der Farm erfasst und gespeichert. Für diesen Dienst gelten relativ hohe Anforderungen bezüglich SQL Server-Ressourcen und Speicher. Dieser Dienst kann einer dedizierten Farm für Dienste zugeteilt werden. Bei großen Bereitstellungen von SharePoint Server wird empfohlen, die Web AnalyticsDatenbanken von anderen sehr wichtigen oder ressourcenintensiven Datenbanken zu trennen, indem Sie sie auf unterschiedlichen Datenbankservern hosten. Business Connectivity Service Dieser Dienst ermöglicht die Integration verschiedener Unternehmensbranchenanwendungen in SharePoint Server 2010. Für diesen Dienst müssen mit einem Anwendungsdienst Datenverbindungen zu externen Ressourcen verwaltetet werden. Bei großen Bereitstellungen von SharePoint Server, wo dieser Dienst häufig verwendet wird, wird empfohlen, eine ausreichende Anzahl von Anwendungsservern mit genügend RAM zuzuordnen, um eine akzeptable Leistung sicherzustellen. 29 InfoPath Forms Services Dieser Dienst ermöglicht browserbasierte Formulare in SharePoint Server 2010 sowie die Integration in die InfoPath-Clientanwendung zum Erstellen von Formularen. Dieser Dienst erfordert einen Anwendungsserver und ist vom Sitzungsstatusdienst abhängig, der eine relativ kleine Datenbank benötigt. Dieser Dienst kann mit anderen Diensten zusammengefasst werden und stellt relativ geringe Kapazitätsanforderungen, die in Abhängigkeit davon, wie oft dieser Dienst verwendet wird, erweitert werden können. Word Automation Services-Anwendung Dieser Dienst ermöglicht die Konvertierung von Word-Dateien von einem Format wie z. B. DOC in ein anderes Format wie z. B. DOCX oder PDF. Für diesen Dienst ist ein Anwendungsserver erforderlich. Bei großen Bereitstellungen von SharePoint Server, wo dieser Dienst häufig verwendet wird, wird die horizontale Skalierung dieses Diensts auf mehrere Anwendungsserver mit genügend CPU-Ressourcen empfohlen, um einen akzeptablen Konvertierungsdurchsatz zu erzielen. Darüber hinaus benötigt dieser Dienst eine relativ kleine Datenbank zum Verwalten der Warteschlange mit Konvertierungsaufträgen. PerformancePoint-Dienstanwendung Dieser Dienst ermöglicht PerformancePoint Business Intelligence-Funktionen in SharePoint Server 2010 sowie das Erstellen analytischer Visualisierungen. Für diesen Dienst sind ein Anwendungsserver und eine Datenbank erforderlich. Bei großen Bereitstellungen von SharePoint Server, wo dieser Dienst häufig verwendet wird, wird empfohlen, den Anwendungsservern ausreichend RAM zuzuordnen, um eine akzeptable Leistung und einen akzeptablen Durchsatz sicherzustellen. Project Service Application Dieser Dienst ermöglicht neben SharePoint Server 2010 alle Planungs- und Nachverfolgungsfunktionen von Microsoft Project Server 2010. Für diesen Dienst sind ein Anwendungsserver und eine relativ ressourcenintensive Datenbank erforderlich. Bei großen Bereitstellungen von SharePoint Server, wo dieser Dienst häufig verwendet wird, sollten Sie für die Project Server-Datenbank einen dedizierten Datenbankserver und eventuell sogar eine dedizierte SharePoint Server-Farm für die Project Server-Verwaltungslösungen verwenden. Timerdienst Dieser Dienst ist für die Ausführung der verschiedenen geplanten Aufgaben auf den unterschiedlichen Servern in der Farm zuständig. Vom System werden verschiedene Zeitgeberaufträge ausgeführt. Einige dieser Zeitgeberaufträge werden auf allen Farmservern ausgeführt, während andere Zeitgeberaufträge in Abhängigkeit von der Serverrolle nur auf bestimmten Servern ausgeführt werden. Manche Zeitgeberaufträge sind ressourcenintensiv und können in Abhängigkeit von ihrer Aktivität und vom betroffenen Datenvolumen eine potenzielle Auslastung sowohl auf dem lokalen Server als auch auf den Datenbankservern verursachen. Bei großen Bereitstellungen von SharePoint Server, wo sich Zeitgeberaufträge potenziell auf die Wartezeit für Endbenutzer auswirken können, wird empfohlen, einen dedizierten Server zu verwenden, um die Ausführung der ressourcenintensiveren Aufträge zu trennen. Workflow Diese Funktion ermöglicht integrierte Workflows in SharePoint Server 2010 und führt Workflows auf dem Webserver aus. Die Ressourcenverwendung ist abhängig von der Komplexität der Workflows und der Gesamtanzahl der verarbeiteten Ereignisse. Bei großen Bereitstellungen von SharePoint Server, wo 30 dieser Dienst häufig verwendet wird, sollten Sie eventuell Webserver hinzufügen oder einen dedizierten Server nur für den Workflowtimerdienst verwenden, um sicherzustellen, dass der Datenverkehr von Endbenutzern nicht beeinträchtig wird und dass Workflowvorgänge nicht verzögert werden. Sandkastenlösungen Dieser Dienst ermöglicht die Verwendung dedizierter Farmressourcen für benutzerdefinierten Code. Bei großen Bereitstellungen von SharePoint Server, wo dieser Dienst häufig verwendet wird, sollten Sie eventuell weitere dedizierte Webserver bereitstellen, falls die Serverleistung allmählich durch benutzerdefinierten Code beeinträchtigt wird. Neue Interaktionsmöglichkeiten von Clientanwendungen mit SharePoint Server 2010 In diesem Abschnitt werden einige neue Interaktionsmöglichkeiten von Clientanwendungen, die von SharePoint Server 2010 unterstützt werden, und die Auswirkungen auf die Kapazitätsplanung beschrieben. Die folgende Tabelle enthält eine vereinfachte allgemeine Beschreibung der typischen Auslastung für das System aufgrund dieser neuen Funktionen: X – Bedeutet eine minimale oder unerhebliche Auslastung für die Systemressourcen. XX – Bedeutet eine mittlere Auslastung für die Systemressourcen. XXX – Bedeutet eine hohe Auslastung für die Systemressourcen. Client Datenverkehr Nutzlast Office Web Apps XXX XX PowerPoint-Übertragung XXX X Word und PowerPoint 2010Clientanwendung XX X OneNote-Clientanwendung XXX XXX Outlook Connector für soziale Netzwerke XX XX SharePoint Workspace XXX XX Office Web Apps Das Anzeigen und Bearbeiten im Web von Word-, PowerPoint-, Excel- und OneNote-Dateien ist Teil der Browseranforderungen mit geringfügig unterschiedlichen Datenverkehrsmerkmalen. Diese Art von Interaktion bedeutet eine relativ hohe Auslastung mit Datenverkehr, um Funktionen wie etwa die gemeinsame Dokumenterstellung zu ermöglichen. Bei großen Bereitstellungen von SharePoint Server, wo diese Funktionalität aktiviert ist, sollten Sie von zusätzlicher Auslastung auf den Webservern ausgehen. PowerPoint-Übertragung Die Anforderungen im Zusammenhang mit dem Anzeigen von PowerPoint-Livepräsentationen im Webbrowser sind ebenfalls Teil der Browseranforderungen. Während PowerPoint-Liveübertragungen fordern die beteiligten Clients Änderungen vom Dienst an. Bei großen Bereitstellungen von 31 SharePoint Server, wo diese Funktion häufig verwendet wird, sollten Sie von zusätzlicher Auslastung auf den Webservern ausgehen. Word und PowerPoint 2010-Clientanwendung Die Word- und PowerPoint 2010Clients weisen neue Features auf, die die SharePoint Server-Farm nutzen. Ein Beispiel hierfür ist die gemeinsame Dokumenterstellung, bei der von allen an einer Sitzung für die gemeinsame Dokumenterstellung beteiligten Clientanwendungen häufig Updates zum Server hochgeladen und vom Server heruntergeladen werden. Bei großen Bereitstellungen von SharePoint Server, wo diese Funktion häufig verwendet wird, sollten Sie von zusätzlicher Auslastung auf den Webservern ausgehen. OneNote 2010-Clientanwendung Der OneNote 2010-Client interagiert mit der SharePoint Server-Farm auf ähnliche Weise wie in der vorherigen OneNote-Version und verwendet SharePoint Server 2010 für die Freigabe und gemeinsame Erstellung von OneNote-Notizbüchern. Dieses Szenario bedeutet eine höhere Auslastung von SharePoint Server 2010, selbst wenn die Client geöffnet ist, aber nicht aktiv verwendet wird. Bei großen Bereitstellungen von SharePoint Server, wo diese Funktion häufig verwendet wird, sollten Sie von zusätzlicher Auslastung auf den Webservern ausgehen. Outlook 2010-Clientanwendung In Outlook 2010 gibt es ein neues Feature – den Outlook Connector für soziale Netzwerke –, der die SharePoint Server-Farm nutzt (diese Komponente kann auch früheren Versionen von Outlook hinzugefügt werden). Mithilfe dieses Features können Sie von der SharePoint Server-Farm angeforderte Aktivitäten für soziale Netzwerke direkt in E-Mails anzeigen. Bei großen Bereitstellungen von SharePoint Server, wo diese Funktionalität aktiviert ist, sollten Sie von zusätzlicher Auslastung auf den Webservern ausgehen. SharePoint Workspace SharePoint Workspace 2010-Clients weisen neue Features auf, die die SharePoint Server-Farm nutzen und mit der Sie Websites, Listen und Dokumentbibliotheken mit dem Client für die Offlineverwendung synchronisieren können. SharePoint Workspace 2010 wird regelmäßig mit den angefügten Serverobjekten synchronisiert, wenn der Client ausgeführt wird, und zwar unabhängig davon, ob er aktiv verwendet wird. Bei großen Bereitstellungen von SharePoint Server, wo diese Funktion häufig verwendet wird, sollten Sie von zusätzlicher Auslastung auf den Webservern ausgehen. Wichtige Unterscheidungsmerkmale bei Bereitstellungen von SharePoint Server 2010 Jede Bereitstellung von SharePoint Server 2010 weist wichtige Unterscheidungsmerkmale auf, durch die sie einzigartig wird und sich von anderen Farmen unterscheidet. Diese wichtigen Unterscheidungsmerkmale können mithilfe der folgenden vier Hauptkategorien beschrieben werden: Spezifikation Beschreibt die Hardware der Farm sowie die Topologie und Konfiguration der Farm. Arbeitsauslastung Beschreibt die Anforderungen an die Farm, einschließlich der Anzahl von Benutzern und der Nutzungsmerkmale. Dataset Beschreibt Inhaltsgrößen und die Inhaltsverteilung. 32 Integrität und Leistung Beschreibt die Leistung der Farm bezüglich der Zielvorgaben für Wartezeit und Durchsatz. Spezifikationen Hardware Bei der Hardware handelt es sich um die physikalischen Ressourcen des Computers wie z. B. Prozessoren, Arbeitsspeicher und Festplatten. Hardware beinhaltet auch physikalische Netzwerkkomponenten wie z. B. Netzwerkschnittstellenkarten (Network Interface Card, NIC), Kabel, Switches, Router und Hardwarelastenausgleichsmodule. Viele Leistungs- und Kapazitätsprobleme können dadurch behoben werden, dass Sie die Verwendung der ordnungsgemäßen Hardware sicherstellen. Hingegen kann durch die falsche Verwendung einer einzigen Hardwareressource, wie z. B. nicht genügend Arbeitsspeicher auf einem Server, die Leistung der gesamten Farm beeinträchtigt werden. Topologie Die Topologie bezeichnet die Verteilung und die gegenseitigen Beziehungen von Farmhardware und -komponenten. Es gibt zwei Arten von Topologien: Logische Topologie Die Zuordnung von Softwarekomponenten wie z. B. Dienste und Features in einer Farm. Physikalische Topologie Die Zuordnung von Servern und physikalischen Ressourcen. In der Regeln bestimmen die Anzahl von Benutzern und die Nutzungsmerkmale die physikalische Topologie einer Farm. Und Geschäftsanforderungen wie z. B. die Notwendigkeit der Unterstützung bestimmter Features für die erwartete Auslastung bestimmen die logische Topologie. Konfiguration Der Begriff "Konfiguration" bezeichnet Softwareeinstellungen und die Einstellungen für Parameter. Darüber hinaus bezieht sich die Konfiguration auf die Zwischenspeicherung, RSP, die Einstellungen für konfigurierbare Grenzwerte sowie alle Komponenten der Softwareumgebung, die zur Erfüllung spezieller Anforderungen festgelegt oder geändert werden können. Arbeitsauslastung Die Arbeitsauslastung definiert die operativen Hauptmerkmale der Farm, einschließlich Benutzerbasis, Parallelität, verwendeten Features sowie Benutzer-Agents oder Clientanwendungen, die zum Herstellen einer Verbindung mit der Farm verwendet werden. Den verschiedenen SharePoint Server-Features sind für die Farmressourcen unterschiedliche Kosten zugeordnet. Durch die Beliebtheit von Features mit höheren Kosten können die Leistung und die Integrität des Systems potenziell stark beeinträchtigt werden. Wenn Sie die erwartete Auslastung und die erwarteten Nutzungsmerkmale kennen, können Sie die Größe der Implementierung ordnungsgemäß anpassen und das Risiko reduzieren, dass das System ständig in einem instabilen Zustand ausgeführt wird. Benutzerbasis Die Benutzerbasis einer SharePoint Server-basierten Anwendung ist eine Kombination aus der Gesamtanzahl von Benutzern und deren geografische Verteilung. Darüber hinaus gibt es innerhalb der Gesamtbenutzerbasis Untergruppen von Benutzern, die bestimmte Features oder Dienste intensiver als andere Benutzergruppen verwenden. Die 33 Parallelität von Benutzern wird definiert als der Gesamtprozentsatz von Benutzern, die das System zu einem bestimmten Zeitpunkt aktiv verwenden. Zu den Indikatoren für die Definition der Benutzerbasis gehören die Gesamtanzahl eindeutiger Benutzer und die Anzahl gleichzeitiger Benutzer. Nutzungsmerkmale Die Leistung einer Farm kann nicht nur durch die Anzahl der Benutzer, die mit dem System interagieren, sondern auch durch die Nutzungsmerkmale beeinträchtigt werden. In zwei Organisationen mit der gleichen Anzahl von Benutzern kann es erheblich unterschiedliche Anforderungen geben bezüglich der Tatsache, wie oft Benutzer auf Farmressourcen zugreifen und ob ressourcenintensive Features und Dienste in der Farm aktiviert sind. Zu den Indikatoren zur Beschreibung der Nutzungsmerkmale gehören die Häufigkeit eindeutiger Vorgänge, die allgemeine Mischung von Vorgängen (das Verhältnis von Lese- und Schreibvorgängen und administrativen Vorgängen) sowie die Verwendungsmuster und die Auslastung bei neuen Features, die in der Farm aktiviert sind (z. B. Websites vom Typ Meine Website, Suche, Workflows und Office Web Apps). Dataset Das auf dem System gespeicherte Inhaltsvolumen und die Merkmale der Architektur, in der dieser Inhalt gespeichert ist, können erhebliche Auswirkungen auf die allgemeine Integrität und Leistung des Systems haben. Wenn Sie die Größe, die Zugriffshäufigkeit und die Verteilung der Daten kennen, können Sie die Größe des Speichers im System ordnungsgemäß anpassen und verhindern, dass ein Engpass entsteht, durch den Benutzerinteraktionen mit Farmdiensten verlangsamt werden und die Benutzererfahrung negativ beeinflusst wird. Wenn Sie die Speicherarchitektur einer SharePoint Server-basierten Lösung ordnungsgemäß schätzen und entwerfen möchten, müssen Sie wissen, welches Datenvolumen Sie in dem System speichern werden, und wie viele Benutzer Daten aus unterschiedlichen Datenquellen anfordern. Das Datenvolumen ist eine wichtige Komponente beim Anpassen der Datenträgerkapazität, da dadurch die Leistung anderer Features beeinflusst sowie potenziell die Netzwerklatenz und die verfügbare Bandbreite beeinträchtigt werden kann. Zu den Indikatoren für die Definition des Datasets gehören die Gesamtgröße des Inhalts, die Gesamtanzahl von Dokumenten, die Gesamtanzahl von Websitesammlungen sowie die durchschnittliche und maximale Größe von Websitesammlungen. Integrität und Leistung Die Integrität einer SharePoint Server-Farm ist im Grunde ein vereinfachtes Maß oder eine vereinfachte Bewertung für die Zuverlässigkeit, Stabilität und Leistung des Systems. Das Leistungsverhalten der Farm hinsichtlich der Zielvorgaben hängt im Prinzip von den ersten drei Faktoren ab. Die Bewertung der Integrität und Leistung kann mithilfe bestimmter Indikatoren nachverfolgt und beschrieben werden. Weitere Informationen finden Sie unter Überwachen und Verwalten von SharePoint Server 2010. Zu diesen Indikatoren zählen die Betriebszeit des Systems, die vom Endbenutzer wahrgenommene Wartezeit, die Seitenfehlerrate und Ressourcenverwendungsindikatoren (CPU, RAM). Jede signifikante Änderung bei Hardware, Topologie, Konfiguration, Arbeitsauslastung oder Dataset kann zu erheblichen Abweichungen bei der Zuverlässigkeit und beim Reaktionsverhalten des Systems führen. Mithilfe der Integritätsbewertung kann die Leistung über einen bestimmten Zeitraum nachverfolgt werden, um festzustellen, welche Auswirkungen geänderte Betriebsbedingungen oder Systemänderungen auf die Zuverlässigkeit der Farm haben. 34 Referenzarchitekturen SharePoint Server 2010 ist ein komplexes und leistungsfähiges Produkt, und es gibt keine einheitliche Lösung für alle Architekturen. Jede SharePoint Server-Bereitstellung ist einmalig und durch die Nutzungs- und Datenmerkmale definiert. Jede Organisation muss einen gründlichen Kapazitätsverwaltungsprozess vornehmen und die Flexibilität des SharePoint Server 2010-Systems effektiv nutzen, um eine Lösung mit der richtigen Größe zu erstellen, die die Anforderungen der Organisation am besten erfüllt. Mit dem Konzept der Referenzarchitekturen sollen die wichtigsten Kategorien von SharePoint Server-Bereitstellungen beschrieben und veranschaulicht werden. Damit soll jedoch Systemarchitekten kein Rezept zum Entwerfen von Lösungen angeboten werden. Dieser Abschnitt befasst sich mit der Beschreibung der Vektoren für die Skalierung von SharePoint Server. Die hier aufgelisteten Architekturen sollen die allgemeinen Unterschiede zwischen diesen allgemeinen Kategorien anhand grundlegender Kostenfaktoren und Skalierungsbemühungen verdeutlichen. Einzelserverbereitstellung Die Architektur der Einzelserverbereitstellung besteht aus einem Server mit SharePoint Server 2010 und einer unterstützten Version von SQL Server. Diese Architektur kann zu Evaluierungszwecken, für Entwickler oder für eine isolierte, nicht kritische Abteilungsimplementierung mit ein paar wenigen Benutzern geeignet sein. Von der Verwendung für eine Produktionsumgebung wird jedoch abgeraten. Kleine Farmbereitstellung Eine kleine Farmbereitstellung besteht aus einem einzelnen Datenbankserver oder cluster und einem oder zwei SharePoint Server 2010-basierten Computern. Zu den wichtigsten Merkmalen dieser Architektur zählen begrenzte Redundanz und begrenztes Failover sowie ein minimales aktiviertes SharePoint Server-Funktionsspektrum. Eine kleine Farm ist nur für begrenzte Bereitstellungen geeignet, mit wenigen aktivierten Dienstanwendungen, einer relativ kleinen Benutzerbasis, einer relativ geringen Auslastung (ein paar Anforderungen pro Minute bis zu sehr wenigen Anforderungen pro Sekunde) und einem relativ geringen Datenvolumen (10 oder mehr GB). 35 Mittlere Farmbereitstellung Bei dieser Architektur wird die Topologie in drei Ebenen unterteilt: dedizierte Webserver, dedizierte Anwendungsserver und mindestens ein Datenbankserver oder -cluster. Die Trennung der Ebene der Front-End-Server und der Ebene der Anwendungsservers ermöglicht eine größere Flexibilität bei der Dienstisolierung und das Verteilen der Auslastung im System. Dies ist die gängigste Architektur, und sie weist ein breites Spektrum an Diensttopologien und Farmgrößen auf. Eine mittlere Farmbereitstellung eignet sich für Umgebungen, die Folgendes aufweisen: Mehrere Dienstanwendungen, die auf mehrere Server verteilt sind. Zu einer typischen Featuregruppe können der Office Web Apps-Dienst, der Benutzerprofildienst, der verwaltete Metadatendienst und die Dienste für ExcelBerechnungen zählen. Eine Benutzerbasis von Zehntausenden von Benutzern und eine Auslastung von 10 bis 50 Anforderungen pro Sekunde. Ein Datenspeicher mit einem oder zwei Terabyte. 36 Große Farmbereitstellung Bei großen Farmbereitstellungen werden Dienste und Lösungen auf mehrere Farmen verteilt, und außerdem erfolgt die horizontalt Skalierung der Ebenen in einer einzelnen Farm. Mehrere SharePoint Server-Dienste können in einer dedizierten Farm für Dienste bereitgestellt werden, von der Anforderungen mehrerer Farmen, die die Dienste in Anspruch nehmen, verarbeitet werden. Bei diesen großen Architekturen gibt es in der Regel Webserver, mehrere Anwendungsserver, in Abhängigkeit von den Nutzungsmerkmalen der einzelnen lokalen (nicht gemeinsamen) Dienste, sowie mehrere SQL Server-basierte Server oder SQL Server-Cluster, in Abhängigkeit von der Inhaltsgröße und den Datenbanken für Anwendungsdienste, die in der Farm aktiviert sind. Große Farmarchitekturen sind für Bereitstellungen gedacht, die Folgendes aufweisen: Mehrere Dienstanwendungen, die in einer dedizierten Farm für Dienste zusammengefasst und genutzt werden. In der Regel handelt es sich dabei um den Benutzerprofildienst, den verwalteten Metadatendienst und Web Analytics. Die meisten anderen Dienstanwendungen werden lokal aktiviert. Eine Benutzerbasis mit Hunderttausenden von Benutzern. Eine Auslastung mit Hunderten von Anforderungen pro Sekunde. 37 Ein Dataset mit mindestens 10 Terabyte. 38 Siehe auch Konzepte Kapazitätsplanung für SharePoint Server 2010 Testen der Leistung für SharePoint Server 2010 Überwachen und Verwalten von SharePoint Server 2010 SharePoint Server 2010-Kapazitätsverwaltung: Softwarebeschränkungen und -grenzen Ergebnisse der Leistungs- und Kapazitätstests und Empfehlungen (SharePoint Server 2010) Performance and capacity technical case studies (SharePoint Server 2010) (in englischer Sprache) Weitere Ressourcen Hardware and software requirements (SharePoint Server 2010) 39 Kapazitätsplanung für SharePoint Server 2010 In diesem Artikel wird die Kapazitätsplanung für eine Microsoft SharePoint Server 2010Farm beschrieben. Wenn Sie mit der Kapazitätsplanung und -verwaltung vertraut sind, können Sie Ihr Wissen auf die Systemgrößenanpassung anwenden. Die Größenanpassung bezeichnet die Auswahl und Konfiguration einer entsprechenden Datenarchitektur, einer logischen und physikalischen Topologie sowie der Hardware für eine Lösungsplattform. Es gibt eine Reihe von Aspekten bei der Kapazitätsverwaltung und -verwendung, die Auswirkungen darauf haben, wie Sie die geeignetsten Hardwareund Konfigurationsoptionen festlegen sollten. Bevor Sie diesen Artikel lesen, sollten Sie Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht) lesen. In diesem Artikel werden die Schritte beschrieben, die Sie für eine effektive Kapazitätsverwaltung für Ihre Umgebung ausführen sollten. Jeder Schritt erfordert bestimmte Informationen für die erfolgreiche Ausführung und weist eine Reihe von Resultaten auf, die Sie im nächsten Schritt verwenden werden. Für jeden Schritt werden diese Anforderungen und Resultate in Tabellen aufgelistet. Inhalt dieses Artikels: Schritt 1: Modellierung Schritt 2: Entwurf Schritt 3: Pilot-, Test- und Optimierungsphase Schritt 4: Bereitstellung Schritt 5: Überwachung und Wartung Schritt 1: Modellierung Die Modellierung Ihrer SharePoint Server 2010-basierten Umgebung beginnt mit der Analyse der vorhandenen Lösungen und der Bestimmung des erwarteten Bedarfs und der Zielvorgaben für die geplante Bereitstellung. Zunächst erfassen Sie Informationen zu Benutzerbasis, Datenanforderungen und Zielvorgaben für Wartezeit und Durchsatz und dokumentieren die SharePoint Server-Features, die Sie bereitstellen möchten. Anhand dieses Abschnitts sollten Sie sich damit vertraut machen, welche Daten Sie sammeln sollten, wie Sie sie sammeln sollten, und wie diese Daten in nachfolgenden Schritten verwendet werden können. Analysieren der erwarteten Arbeitsauslastung und des Datasets Für die geeignete Größenanpassung einer SharePoint Server 2010-Implementierung müssen Sie den Bedarf, den Ihre Lösung bewältigen soll, analysieren und kennen. Hierfür müssen Sie in der Lage sein, sowohl die Arbeitsauslastungsmerkmale wie etwa die Anzahl der Benutzer und die am häufigsten verwendeten Vorgänge als auch die Datasetmerkmale wie etwa Inhaltsgröße und Inhaltsverteilung zu beschreiben. 40 In diesem Abschnitt werden bestimmte Metriken und Parameter, die Sie erfassen sollten, sowie Mechanismen zu deren Erfassung behandelt. Arbeitsauslastung Die Arbeitsauslastung beschreibt den durch das System zu unterstützenden Bedarf, die Benutzerbasis und die Nutzungsmerkmale. In der folgenden Tabelle finden Sie einige wichtige Metriken, die beim Bestimmen der Arbeitsauslastung hilfreich sind. Mithilfe dieser Tabelle können Sie diese Metriken beim Erfassen aufzeichnen. Arbeitsauslastungsmerkmale Wert Durchschnittliche tägliche Anforderungen pro Sekunde Durchschn. Anforderungen pro Sekunde zu Spitzenzeiten Gesamtanzahl eindeutiger Benutzer pro Tag Durchschnittliche tägliche Anzahl gleichzeitiger Benutzer Höchstwert gleichzeitiger Benutzer zu Spitzenzeiten Gesamtanzahl der Anforderungen pro Tag Erwartete Arbeitslastverteilung Anzahl der Anforderungen pro Tag % Webbrowser – Suchdurchforstung Webbrowser – Allgemeine Zusammenarbeitsinteraktion Webbrowser – Allgemeine soziale Interaktion Webbrowser – Allgemeine Interaktion Webbrowser – Office Web Apps Office-Clients OneNote-Client SharePoint Workspace Outlook-RSS-Synchronisierung Outlook Connector für soziale Netzwerke 41 Arbeitsauslastungsmerkmale Wert Andere Interaktionen (Benutzerdefinierte Anwendungen/Webdienste) Gleichzeitige Benutzer – Die Gleichzeitigkeit von Vorgängen, die in der Serverfarm ausgeführt werden, wird in der Regel gemessen als die Anzahl eindeutiger Benutzer, die Anforderungen in einem bestimmten Zeitraum generieren. Die wichtigen Metriken sind der tägliche Durchschnittswert und die gleichzeitigen Benutzer zu Spitzenzeiten. Anforderungen pro Sekunde (Requests per Second, RPS) – RPS ist ein häufig verwendeter Indikator zur Beschreibung des Bedarfs in der Serverfarm, ausgedrückt in der Anzahl von Anforderungen, die von der Farm pro Sekunde verarbeitet werden. Dabei erfolgt jedoch keine Unterscheidung bezüglich des Typs oder der Größe der Anforderungen. Die Benutzerbasis jeder Organisation generiert eine Systemauslastung mit einer von den speziellen Nutzungsmerkmalen der Organisation abhängigen Geschwindigkeit. Weitere Informationen zu diesem Begriff finden Sie im Abschnitt Glossar unter Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht). Gesamtanzahl der Anforderungen pro Tag – Die Gesamtanzahl der Anforderungen pro Tag ist ein geeigneter Indikator für die Gesamtarbeitsauslastung, die vom System bewältigt werden muss. In der Regel werden alle Anforderungen, mit Ausnahmen von Authentifizierungshandshakeanforderungen (HTTP-Status 401), über einen Zeitraum von 24 Stunden gemessen. Gesamtanzahl der Benutzer pro Tag – Die Gesamtanzahl der Benutzer ist ein weiterer geeigneter Indikator für die Gesamtarbeitsauslastung, die vom System bewältigt werden muss. Hinweis: Die Gesamtanzahl der Benutzer pro Tag kann auf das Wachstumspotenzial bei der Arbeitsauslastung in der Farm hinweisen. Wenn z. B. die Anzahl potenzieller Benutzer 100.000 Mitarbeiter beträgt, sind 15.000 Benutzer pro Tag ein Hinweis darauf, dass die Arbeitsauslastung im Laufe der Zeit erheblich zunehmen kann, wenn es immer mehr Benutzer werden. Arbeitslastverteilung – Durch die Kenntnis der Verteilung der Anforderungen basierend auf den Clientanwendungen, die mit der Farm interagieren, können Sie den erwarteten Trend und die erwarteten Änderungen bei der Arbeitsauslastung nach der Migration zu SharePoint Server 2010 besser vorhersagen. Wenn Benutzer auf neuere Clientversionen wie z. B. Office 2010 umstellen und die neuen Arbeitsauslastungsmuster zu verwenden beginnen, wird davon ausgegangen, dass die Anforderungen pro Sekunde (RPS) und die Gesamtanzahl der Anforderungen zunehmen werden. Für jeden Client können wir die Anzahl der eindeutigen Benutzer während eines bestimmten Zeitraums an einem Tag sowie die Gesamtanzahl der Anforderungen, die vom Client oder Feature auf dem Server generiert werden, beschreiben. Beispielsweise ist im folgenden Diagramm eine Momentaufnahme einer internen Microsoft-Life-Umgebung mit einer typischen Lösung für soziale Netzwerke 42 dargestellt. Anhand dieses Beispiels ist erkennbar, dass der Großteil der Auslastung durch den Suchcrawler und das typische Webbrowsing der Endbenutzer generiert wird. Darüber hinaus sehen Sie, dass durch den neuen Outlook Connector für soziale Netzwerke eine erhebliche Auslastung generiert wird (6,2 % der Anforderungen). 43 44 Bestimmen der Produktionsarbeitsauslastung 45 Bei der Bestimmung des erforderlichen Durchsatzes Ihrer Farm beginnen Sie mit dem Bestimmen der in Ihrer Farm verwendeten Transaktionsmischung. Konzentrieren Sie sich auf die Analyse der am häufigsten verwendeten Transaktionen, die vom System angeboten werden, und stellen Sie fest, wie oft sie von wie vielen Benutzern verwendet werden. Dadurch können Sie später überprüfen, ob die Farm eine derartige Auslastung in der Testumgebung unterstützt. Im folgenden Diagramm ist die Beziehung von Arbeitsauslastung und Auslastung im System beschrieben: Sammeln Sie die folgenden Informationen, um die erwartete Arbeitsauslastung zu bestimmen: Identifizieren Sie Benutzerinteraktionen, wie z. B. typisches Browsen in Webseiten, Dateidownloads und -uploads, das Anzeigen und Bearbeiten von OfficeWebanwendungen im Browser, Interaktionen bei der gemeinsamen Dokumenterstellung, Synchronisierungen von SharePoint Workspace-Websites, Outlook Connector für soziale Netzwerke, RSS-Synchronisierung (in Outlook oder 46 anderen Viewern), PowerPoint-Übertragungen, freigegebene OneNote-Notizbücher, freigegebene Excel Services-Arbeitsmappen, freigegebene Access ServicesAnwendungen usw. Weitere Informationen finden Sie im Abschnitt Dienste und Features des Artikels Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht). Konzentrieren Sie sich auf das Identifizieren der Interaktionen, die für Ihre Bereitstellung eindeutig sind, und bestimmen Sie die erwarteten Auswirkungen einer derartigen Auslastung. Beispiele hierfür kann die zahlreiche Verwendung von InfoPath-Formularen, Excel Services-Berechnungen und ähnlichen dedizierten Lösungen sein. Identifizieren Sie Systemvorgänge, wie z. B. inkrementelle Suchdurchforstungen, tägliche Sicherungen, Zeitgeberaufträge für die Profilsynchronisierung, Web Analytics-Verarbeitungen, die Protokollierung von Zeitgeberaufträgen usw. Bestimmen Sie die Gesamtanzahl der Benutzer pro Tag, die voraussichtlich die einzelnen Features verwenden werden, und leiten Sie die geschätzte Anzahl gleichzeitiger Benutzer und eine Übersicht über die Anforderungen pro Sekunde ab. Dabei werden Sie von einigen Annahmen ausgehen, wie z. B. die aktuelle Anzahl gleichzeitiger Benutzer und der RPS-Faktor für gleichzeitige Benutzer, der für die verschiedenen Features unterschiedlich ist. Für diesen Vorgang sollten Sie die Arbeitsauslastungstabelle weiter oben in diesem Abschnitt heranziehen. Sie sollten sich nicht auf den durchschnittlichen Durchsatz, sondern unbedingt auf Spitzenzeiten konzentrieren. Durch die Planung für Spitzenaktivität können Sie die Größe Ihrer SharePoint Server 2010-basierten Lösung ordnungsgemäß anpassen. Wenn eine Microsoft Office SharePoint Server 2007-Lösung vorhanden ist, können Sie ein Data Mining für die IIS-Protokolldateien ausführen oder andere Webüberwachungstools verwenden, um bestimmte erwartete Verhaltensweisen der vorhandenen Lösung besser zu verstehen. Weitere Informationen finden Sie in den Anweisungen im nächsten Abschnitt. Falls Sie nicht von einer vorhandenen Lösung migrieren, sollten Sie grobe Schätzungen in die Tabelle eintragen. In späteren Schritten müssen Sie Ihre Vorgaben überprüfen und das System optimieren. Analysieren der IIS-Protokolle von SharePoint Server 2010 Zur Ermittlung wichtiger Metriken zu einer vorhandenen SharePoint Server 2010Bereitstellung, wie z. B. wie viele Benutzer aktiv sind, wie stark sie das System beanspruchen, welche Art von Anforderungen eingehen und von welchen Clienttypen sie stammen, müssen Daten aus ULS- und IIS-Protokollen extrahiert werden. Die Verwendung von Log Parser ist eine der einfachsten Methoden zur Beschaffung dieser Daten. Hierbei handelt es sich um ein leistungsfähiges Tool, das kostenlos von der Microsoft-Website heruntergeladen werden kann. Mit dem Log Parser kann eine Reihe von Text- und Binärformaten gelesen und geschrieben werden, einschließlich aller IISFormate. Ausführliche Informationen zum Analysieren der Verwendung von SharePoint Server 2010 mit dem Log Parser finden Sie unter Analysieren der Verwendung von Microsoft SharePoint-Produkten und -Technologien (http://www.microsoft.com/downloads/details.aspx?familyid=f159af68-c3a3-413ca3f7-2e0be6d5532e&displaylang=de-de). Log Parser 2.2 kann auf der Webseite http://www.microsoft.com/downloads/details.aspx?familyid=890cd06b-abf8-4c25-91b2f8d975cf8c07&displaylang=de-de heruntergeladen werden. 47 Dataset Das Dataset beschreibt das auf dem System gespeicherte Inhaltsvolumen und wie es im Datenspeicher verteilt werden kann. In der folgenden Tabelle finden Sie einige wichtige Metriken, die beim Bestimmen des Datasets hilfreich sind. Mithilfe dieser Tabelle können Sie diese Metriken beim Erfassen aufzeichnen. Objekt Wert Datenbankgröße (in GB) Anzahl der Inhaltsdatenbanken Anzahl der Websitesammlungen Anzahl der Webanwendungen Anzahl der Websites Suchindexgröße (Anzahl der Elemente) Anzahl der Dokumente Anzahl der Listen Durchschnittliche Websitegröße Größte Websitegröße Anzahl der Benutzerprofile Inhaltsgröße – Die Kenntnis der Größe des Inhalts, den Sie voraussichtlich im SharePoint Server 2010-System speichern werden, spielt für das Planen und Entwerfen des Systemspeichers sowie für die ordnungsgemäße Größenanpassung der Suchlösung, mit der dieser Inhalt durchforstet und indiziert wird, eine wichtige Rolle. Die Inhaltsgröße wird als Gesamtspeicherplatz beschrieben. Wenn Sie Inhalt aus einer vorhandenen Bereitstellung migrieren, ist die Festlegung der Gesamtgröße, die Sie verschieben werden, relativ einfach. Bei der Planung sollten Sie das Wachstum im Laufe der Zeit basierend auf dem vorhergesagten Trend berücksichtigen. Gesamtanzahl der Dokumente – Neben der Inhaltsgröße muss unbedingt die Gesamtanzahl der Elemente nachverfolgt werden. Das System reagiert unterschiedlich, wenn 100 GB Daten aus 50 Dateien mit jeweils 2 GB bestehen oder wenn 100.000 Dateien mit jeweils 1 KB vorhanden sind. Bei großen Bereitstellungen gilt, je weniger ein einzelnes Element, ein Dokument oder ein Dokumentbereich belastet wird, desto besser ist die Leistung. Weit verteilte Inhalte wie z. B. viele kleinere Dateien in vielen Websites und Websitesammlungen können einfacher zur Verfügung gestellt werden, als dies bei einer einzelnen großen Dokumentbibliothek mit sehr großen Dateien der Fall ist. Maximale Websitesammlungsgröße – Sie müssen unbedingt die größte Inhaltseinheit identifizieren, die Sie in SharePoint Server 2010 speichern werden. Gewöhnlich verhindern organisatorische Anforderungen das Aufteilen dieser 48 Inhaltseinheit. Die durchschnittliche Größe aller Websitesammlungen und die geschätzte Gesamtanzahl von Websitesammlungen sind zusätzliche Indikatoren zum Identifizieren der bevorzugten Datenarchitektur. Datenmerkmale von Dienstanwendungen – Neben der Analyse der Speicheranforderungen für den Inhaltsspeicher sollten Sie die Größe der folgenden anderen SharePoint Server 2010-Speicher analysieren und bestimmen: Gesamtgröße des Suchindexes Die Gesamtgröße der Profildatenbank basierend auf der Anzahl von Benutzern im Profilspeicher Die Gesamtgröße der Datenbank für Funktionen und Daten für das soziale Netzwerk basierend auf der erwarteten Anzahl von Kategorien, Kollegen und Aktivitäten Die Größe des Metadatenspeichers Die Größe der Verwendungsdatenbank Die Größe der Web Analytics-Datenbank Weitere Informationen zum Bestimmen der Datenbankgrößen finden Sie unter Speicherund SQL Server-Kapazitätsplanung und -Konfiguration (SharePoint Server 2010). Festlegen von Zielvorgaben für die Leistung und Zuverlässigkeit der Farm Eines der Resultate von Schritt 1: Modellierung ist die Kenntnis der Zielvorgaben für die Leistung und Zuverlässigkeit, die für die Anforderungen Ihrer Organisation am besten geeignet sind. Eine ordnungsgemäß entworfene SharePoint Server-Lösung sollte eine Betriebszeit von "vier Neunen" 99,99 % mit Serverreaktionszeiten unterhalb einer Sekunde erzielen. Die folgenden Indikatoren können zum Beschreiben der Leistung und Zuverlässigkeit der Farm verwendet werden: Serververfügbarkeit – Dies wird in der Regel durch die prozentuale Gesamtbetriebszeit des Systems beschrieben. Sie sollten unerwartete Downtime nachverfolgen und die Gesamtverfügbarkeit mit der von Ihnen festgelegten Zielvorgabe vergleichen. Die Zielvorgaben werden im Allgemeinen durch eine Reihe von Neunen beschrieben (z. B. 99 %, 99,9 %, 99,99 %) Serverreaktionszeit – Die Zeit, die die Farm zur Erfüllung von Anforderungen benötigt, ist ein guter Indikator für die Nachverfolgung der Farmintegrität. Dieser Indikator wird gewöhnlich als serverseitige Wartezeit bezeichnet, und im Allgemeinen wird die durchschnittliche oder mittlere Wartezeit (50. Quantil) der täglich bedienten Anforderungen verwendet. Die Zielvorgaben werden generell als Sekundenbruchteile oder Sekunden beschrieben. Wenn es in Ihrer Organisation die Zielvorgabe gibt, Seiten aus SharePoint Server 2010 in weniger als zwei Sekunden verfügbar zu machen, muss die serverseitige Zielvorgabe Sekundenbruchteile sein, damit genügend Zeit vorhanden ist, dass die Seite den Client über das Netzwerk erreichen kann und im Browser gerendert werden kann. Im Allgemeinen sind außerdem längere Serverreaktionszeiten ein Hinweis auf eine instabile Farm, da dies normalerweise Auswirkungen auf den Durchsatz hat und RPS selten Schritt halten kann, wenn Sie für die meisten Anforderungen mehr als eine Sekunde auf dem Server verbringen. 49 Serverspitzenwerte – Ein weiterer guter serverseitiger Wartezeitindikator, der nachverfolgt werden sollte, ist das Verhalten der 5 % der langsamsten Anforderungen. Bei langsameren Anforderungen handelt es sich häufig um Anforderungen, die im System eingehen, wenn es stark ausgelastet ist, oder sogar noch häufiger um Anforderungen, die durch seltenere Aktivitäten während der Interaktion von Benutzern mit dem System beeinträchtigt werden. Bei einem stabilen System sind auch die langsamsten Anforderungen unter Kontrolle. Das Ziel ist in diesem Fall ähnlich wie bei der Serverreaktionszeit. Zum Erreichen einer Antwort unterhalb einer Sekunde bei Serverspitzenwerten müssen Sie jedoch für die Spitzenwerte eine Menge von Ersatzressourcen in das System einbauen. Systemressourcenverwendung – Weitere häufig verwendete Indikatoren zum Nachverfolgen der Systemintegrität stellen eine Sammlung von Systemleistungsindikatoren dar, mit denen der Status jedes Servers in der Farmtopologie identifiziert wird. Die am häufigsten verwendeten Nachverfolgungsindikatoren sind die CP-Auslastung: % und Verfügbarer Arbeitsspeicher. Es gibt jedoch zusätzliche Leistungsindikatoren zum Identifizieren eines instabilen Systems. Weitere Informationen finden Sie in Schritt 5: Überwachung und Wartung. Schritt 2: Entwurf Nachdem Sie Fakten oder Schätzungen für die bereitzustellende Lösung gesammelt haben, können Sie mit dem nächsten Schritt des Entwerfens einer vorgeschlagenen Architektur fortfahren, die Ihrer Meinung nach den erwarteten Bedarf bewältigen kann. Am Ende dieses Schritts sollte ein Entwurf für die physikalische Topologie und ein Layout für die logische Topologie vorliegen, sodass Sie mit notwendigen Bestellungen beginnen können. Die Hardwarespezifikationen und die Anzahl der Server im Layout sind eng miteinander verknüpft. Für eine bestimmte Auslastung gibt es mehrere Lösungen, die für die Bereitstellung zur Auswahl stehen. Gewöhnlich werden entweder ein paar wenige leistungsstarke Server (vertikale Skalierung) oder aber eine größere Anzahl leistungsschwächerer Server (horizontale Skalierung) verwendet. Jede Lösung weist Vorund Nachteile bezüglich Kapazität, Redundanz, Leistung, Kosten, Platzbedarf usw. auf. Es wird empfohlen, diesen Schritt mit der Festlegung der Architektur und Topologie zu beginnen. Definieren Sie das Layout der verschiedenen Farmen und der verschiedenen Dienste in jeder Farm, und wählen Sie dann die Hardwarespezifikationen für die einzelnen Server Ihres Entwurfs aus. Dieses Verfahren können Sie auch ausführen, indem Sie die bereitzustellenden Hardwarespezifikationen identifizieren (viele Organisationen sind auf einen bestimmten Firmenstandard festgelegt) und anschließend die Architektur und Topologie definieren. Zeichnen Sie anhand der folgenden Tabelle die Entwurfsparameter auf. Die angegebenen Daten sind Beispieldaten und sollten nicht für die Größenanpassung Ihrer Farm verwendet werden. Hiermit soll lediglich aufgezeigt werden, wie Sie diese Tabelle für Ihre eigenen Daten verwenden. 50 Rolle Typ Anza Prozesso RA IOPSDatenträgerg Datenlaufw (Stand hl der ren M Anforderun röße erk ard Serve gen BS+Protokoll oder r virtuell) Webserver Virtuell 4 4 Kerne 8 n/v 400 GB n/v Inhaltsdatenbankserver Standa 1 4 Quad- 48 2000 rd Clust Core mit er 2,33 GHz 400 GB 20 300GBDatenträge r mit 15.000 Umdrehun gen pro Minute Anwendungsserver Virtuell 4 4 Kerne 16 n/v 400 GB n/v SuchdurchforstungZielwebserver Virtuell 1 4 Kerne 8 n/v 400 GB n/v Suchabfrageserver Standa 2 rd 2 Quad- 32 n/v Core mit 2,33 GHz 400 GB 500 GB Suchcrawlerserver Standa 2 rd 2 Quad- 16 400 Core mit 2,33 GHz 400 GB n/v 100 GB 16 150GBDatenträge r mit 15.000 Umdrehun gen pro Minute 2000 100 GB (optimiert für das Schreiben) 16 150GBDatenträge r mit 15.000 Umdrehun gen pro Minute Server mit Standa 1 4 Quad- 48 4000 Suchdurchforstungsdate rd Clust Core mit (optimiert nbank er 2,33 GHz für das Lesen) SucheigenschaftenStanda 1 4 Quad- 48 Informationsspeicherdat rd Clust Core mit enbank + er 2,33 GHz Administrationsdatenban kserver Bestimmen der Ausgangsarchitektur In diesem Abschnitt wird beschrieben, wie Sie eine Ausgangsarchitektur auswählen. 51 Bei der Bereitstellung von SharePoint Server 2010 stehen eine Reihe von Topologien zum Implementieren Ihrer Lösung zur Auswahl. Sie können einen einzelnen Server bereitstellen oder viele Server auf eine SharePoint Server-Farm mit gruppierten oder gespiegelten Datenbankservern und separaten Anwendungsservern für verschiedene Dienste horizontal skalieren. Später wählen Sie die Hardwarekonfigurationen basierend auf den Anforderungen der verschiedenen Rollen und basierend auf Kapazität, Verfügbarkeit und Redundanzanforderungen aus. Beginnen Sie mit der Überprüfung der verschiedenen Referenzarchitekturen, und bestimmen Sie die Farmstruktur. Entscheiden Sie, ob die Lösung auf mehrere Farmen verteilt werden soll, oder fassen Sie Dienste, wie z. B. die Suche, in einer dedizierten Farm zusammen. Weitere Informationen finden Sie im Abschnitt Referenzarchitekturen unter Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht). Technische Fallstudien für SharePoint Server 2010 Die Dokumentation zur Kapazitätsverwaltung für SharePoint Server 2010 beinhaltet eine Reihe von technischen Fallstudien für bestehende Produktionsumgebungen. Hier finden Sie ausführliche Beschreibungen vorhandener SharePoint Server-basierter Produktionsumgebungen. Weitere technische Fallstudien werden im Laufe der Zeit veröffentlicht. Sie dienen als Referenz zum Entwerfen einer SharePoint Server-basierten Umgebung für bestimmte Zwecke. Verwenden Sie diese Fallstudien als Referenz beim Entwerfen der Architektur Ihrer SharePoint Server-Lösungen, insbesondere wenn die Beschreibung der wichtigen bereitstellungsspezifischen Unterscheidungsmerkmale mit den Anforderungen und Zielvorgaben der zu erstellenden Lösung vergleichbar sind. In diesen Dokumenten werden für jede dokumentierte Fallstudie die folgenden Informationen beschrieben: Spezifikationen, wie z. B, Hardware, Farmtopologie und Konfiguration. Arbeitsauslastung, einschließlich Benutzerbasis und Nutzungsmerkmalen. Dataset, einschließlich Inhaltsgrößen, Inhaltsmerkmalen und Inhaltsverteilung. Integrität und Leistung, einschließlich einer Reihe aufgezeichneter Indikatoren zur Beschreibung der Zuverlässigkeit und Leistungsmerkmale der Farm. Um weitere Informationen zu erhalten, laden Sie die entsprechenden Dokumente von der http://technet.microsoft.com/de-de/library/cc261716(Office.14).aspx Webseite Technische Fallstudien zu Leistung und Kapazität (http://technet.microsoft.com/dede/library/cc261716(Office.14).aspx) herunter. Auswählen der Hardware Die Auswahl der richtigen Spezifikationen für die Computer in der Farm ist ein wichtiger Schritt, um die Zuverlässigkeit und Leistung der Bereitstellung sicherzustellen. Beachten Sie unbedingt, dass Sie für Spitzenauslastungen und Spitzenzeiten planen sollten. Das heißt, wenn die Farm unter durchschnittlichen Auslastungsbedingungen arbeitet, sollten ausreichend Ressourcen verfügbar sein, um den größtmöglichen erwarteten Bedarf zu bewältigen, während gleichzeitig die Zielvorgaben für Wartezeit und Durchsatz erfüllt werden. Die zentralen Hardwarefeatures für Kapazität und Leistung von Servern entsprechen vier Hauptkategorien: Verarbeitungsleistung, Datenträgerleistung, Netzwerkkapazität und Arbeitsspeicherkapazität eines Systems. 52 Darüber hinaus sollten Sie die Verwendung virtualisierter Computer berücksichtigen. Eine SharePoint Server-Farm kann mithilfe virtueller Computer bereitgestellt werden. Dies bietet zwar keine Leistungsvorteile, dafür aber Verwaltungsvorteile. Das Virtualisieren von SQL Server-basierten Computern wird im Allgemeinen nicht empfohlen, aber das Virtualisieren der Webserver- und Anwendungsserverebenen bietet möglicherweise gewisse Vorteile. Weitere Informationen finden Sie unter Virtualisierungsplanung (http://technet.microsoft.com/de-de/library/ff607968.aspx). Richtlinien für die Hardwareauswahl Auswählen von Prozessoren SharePoint Server 2010 gibt es nur für 64-Bit-Prozessoren. Im Allgemeinen kann mit mehr Prozessoren ein höherer Bedarf abgedeckt werden. In SharePoint Server 2010 werden einzelne Webserver beim Hinzufügen von Prozessorkernen skaliert (wir haben bis zu 24 Prozessorkerne getestet). Je mehr Prozessorkerne der Server aufweist, desto mehr Auslastung kann bewältigt werden, Alles andere ist identisch. Bei großen SharePoint Server-Bereitstellungen wird empfohlen, entweder mehrere Webserver mit 4 Kernen (die virtualisiert werden können) oder weniger und leistungsstärkere Webserver (mit 8/16/24 Kernen) zuzuordnen. Die Prozessorkapazitätsanforderungen der Anwendungsserver hängen von der Rolle des Servers und den darauf ausgeführten Diensten ab. Die SharePoint Server-Features erfordern unterschiedlich viel Verarbeitungsleistung. Beispielsweise ist der SharePointSuchdienst in hohem Maß von der Verarbeitungsleistung des Anwendungsservers abhängig. Weitere Informationen zu den Ressourcenanforderungen von SharePoint Server-Features und -Diensten finden Sie unter Dienste und Features weiter oben in diesem Dokument. Die Prozessorkapazitätsanforderungen für SQL Server hängen auch von den Dienstdatenbanken ab, die von einem SQL Server-basierten Computer gehostet werden. Weitere Informationen zum typischen Verhalten und zu den Anforderungen der verschiedenen Datenbanken finden Sie unter Speicher- und SQL ServerKapazitätsplanung und -Konfiguration (SharePoint Server 2010). Auswählen des Arbeitsspeichers Ihre Server benötigen in Abhängigkeit von der Funktion und der Rolle des Servers eine unterschiedliche Menge an Arbeitsspeicher. Beispielsweise verarbeiten Server, auf denen Suchdurchforstungskomponenten ausgeführt werden, Daten schneller, wenn sie sehr viel Arbeitsspeicher aufweisen, da Dokumente zur Verarbeitung in den Arbeitsspeicher eingelesen werden. Webserver, die viele Zwischenspeicherungsfeatures von SharePoint Server 2010 nutzen, benötigen möglicherweise ebenfalls mehr Arbeitsspeicher. Im Allgemeinen sind die Arbeitsspeicheranforderungen für Webserver stark abhängig von der in der Farm aktivierten Anzahl von Anwendungspools und von der Anzahl gleichzeitig verarbeiteter Anforderungen. Bei den meisten SharePoint ServerProduktionsbereitstellungen wird empfohlen, auf jedem Webserver mindestens 8 GB RAM zuzuordnen, wobei 16 GB für Server mit höherem Datenverkehr oder für Bereitstellungen mit mehreren separat konfigurierten Anwendungspools empfohlen werden. Die Arbeitsspeicheranforderungen für Anwendungsserver variieren ebenfalls. Die SharePoint Server-Features haben unterschiedliche Arbeitsspeicheranforderungen an die Anwendungsebene. Bei den meisten SharePoint Server-Produktionsbereitstellungen 53 wird empfohlen, auf jedem Anwendungsserver mindestens 8 GB RAM zuzuordnen. Anwendungsserver mit 16 GB, 32 GB und 64 GB RAM sind üblich, wenn viele Anwendungsdienste auf demselben Server aktiviert sind, oder wenn Dienste, die in hohem Maß auf Arbeitsspeicher angewiesen sind, wie z. B. die Dienste für ExcelBerechnungen oder der SharePoint Server-Suchdienst, aktiviert sind. Die Arbeitsspeicheranforderungen von Datenbankservern sind direkt abhängig von der Größe der Datenbanken. Weitere Informationen zum Auswählen von Arbeitsspeicher für Ihre SQL Server-basierten Computer finden Sie unter Speicher- und SQL ServerKapazitätsplanung und -Konfiguration (SharePoint Server 2010). Auswählen von Netzwerken Neben dem Vorteil für Benutzer, wenn Clients über das Netzwerk schnellen Zugriff auf Daten haben, benötigt eine verteilte Farm schnellen Zugriff für die Kommunikation zwischen den Servern. Dies gilt insbesondere, wenn Sie Dienste auf mehrere Server verteilen oder einige Dienste anderen Farmen zuteilen. In der Farm gibt es einen erheblichen Datenverkehr auf der Webserverebene, der Anwendungsserverebene und der Datenbankserverebene. Das Netzwerk kann in bestimmten Situationen schnell zu einem Engpass werden, wie z. B. bei der Verwendung sehr großer Dateien oder sehr hoher Auslastungen. Für Webserver und Anwendungsserver sollten mindestens zwei Netzwerkschnittstellenkarten (Network Interface Card, NIC) konfiguriert sein, nämlich eine für den Datenverkehr von Endbenutzern, und eine zweite für die Kommunikation zwischen den Servern. Die Netzwerklatenz zwischen Servern kann erhebliche Auswirkungen auf die Leistung haben. Deshalb muss unbedingt eine Netzwerklatenz von weniger als 1 Millisekunde zwischen dem Webserver und den SQL Server-basierten Computern, von denen die Inhaltsdatenbanken gehostet werden, eingehalten werden. Die SQL Server-basierten Computer, die die Dienstanwendungsdatenbanken hosten, sollten auch möglichst nahe beim Anwendungsserver sein. Das Netzwerk zwischen Farmservern sollte eine Bandbreite von mindestens 1 GBit/s aufweisen. Auswählen von Datenträgern und Speicherplatz Bei der Datenträgerverwaltung geht es nicht einfach darum, ausreichend Speicherplatz für die Daten bereitzustellen. Sie müssen den Bedarf und das Wachstum kontinuierlich bewerten und sicherstellen, dass das System durch die Speicherarchitektur nicht ausgebremst wird. Sie sollten stets darauf achten, dass auf jedem Datenträger mindestens 30 % mehr Speicherkapazität im Vergleich zum höchsten von Ihnen geschätzten Datenanforderungswert vorhanden ist, um zukünftiges Wachstum zu ermöglichen. Darüber hinaus spielt bei den meisten Produktionsumgebungen die Datenträgergeschwindigkeit (IOps) eine entscheidende Rolle für ausreichend Durchsatz, um die Speicheranforderungen der Server zu befriedigen. Sie müssen den Umfang des Datenverkehrs (IOps) schätzen, der für die wichtigsten Datenbanken in der Bereitstellung anfällt, und ausreichend Datenträger zur Bewältigung dieses Datenverkehrs zuordnen. Weitere Informationen zum Auswählen von Datenträgern für Datenbankserver finden Sie unter Speicher- und SQL Server-Kapazitätsplanung und -Konfiguration (SharePoint Server 2010). Für die Webserver und Anwendungsserver gelten ebenfalls Speicheranforderungen. Bei den meisten Produktionsumgebungen wird empfohlen, mindestens 200 GB Speicherplatz für das Betriebssystem und temporäre Dateien sowie 150 GB Speicherplatz für Protokolle zuzuordnen. 54 Schritt 3: Pilot-, Test- und Optimierungsphase Die Test- und Optimierungsphase ist ein wichtiger Bestandteil einer effektiven Kapazitätsverwaltung. Sie sollten neue Architekturen testen, bevor Sie sie in der Produktionsumgebung bereitstellen. Außerdem sollten Sie Akzeptanztests in Verbindung mit den folgenden bewährten Methoden für die Überwachung ausführen, um sicherzustellen, dass die von Ihnen entworfenen Architekturen die Zielvorgaben bezüglich Leistung und Kapazität erfüllen. Auf diese Weise können Sie potenzielle Engpässe identifizieren und optimieren, bevor sie sich auf Benutzer in einer Livebereitstellung negativ auswirken. Das Testen ist besonders wichtig, wenn Sie von einer Microsoft Office SharePoint Server 2007-Umgebung upgraden und Änderungen an der Architektur vornehmen möchten, oder wenn Sie die Benutzerauslastung der neuen SharePoint Server-Features bestimmen. Dadurch können Sie nämlich sicherstellen, dass die neue SharePoint Server-basierte Umgebung die Zielvorgaben bezüglich Leistung und Kapazität erfüllt. Nachdem Sie die Umgebung getestet haben, können Sie die Testergebnisse analysieren, um zu bestimmen, welche Änderungen erforderlich sind, um die von Ihnen in Schritt 1: Modellierung aufgestellten Zielvorgaben bezüglich Leistung und Kapazität zu erfüllen. Die folgenden empfohlenen untergeordneten Schritte sollten Sie für die Testumgebung ausführen: Erstellen Sie die Testumgebung, in der die von Ihnen in Schritt 2: Entwurf entworfene Ausgangsarchitektur imitiert wird. Füllen Sie den Speicherplatz mit dem Dataset oder einem Teil des Datasets, das Sie in Schritt 1: Modellierung definiert haben. Belasten Sie das System mit einer synthetischen Auslastung, die die von Ihnen in Schritt 1: Modellierung definierte Arbeitsauslastung darstellt. Führen Sie Tests aus, analysieren Sie die Ergebnisse, und optimieren Sie die Architektur. Stellen Sie die optimierte Architektur im Rechenzentrum bereit, und führen Sie einen Pilotversuch mit wenigen Benutzern durch. Analysieren Sie die Ergebnisse des Pilotversuchs, identifizieren Sie potenzielle Engpässe, und optimieren Sie die Architektur. Testen Sie bei Bedarf erneut. Stellen Sie in der Produktionsumgebung bereit. Testen Das Testen ist ein wichtiger Faktor, um zu erreichen, dass von Ihrem Systementwurf die anfallende Arbeitsauslastung und die Nutzungsmerkmale unterstützt werden. Ausführliche Informationen zum Testen der Bereitstellung von SharePoint Server 2010 finden Sie unter Testen der Leistung für SharePoint Server 2010. Erstellen eines Testplans Erstellen der Testumgebung Erstellen von Tests und Tools Bereitstellen der Pilotumgebung Vor der Bereitstellung von SharePoint Server 2010 in einer Produktionsumgebung müssen Sie unbedingt vorher eine Pilotumgebung bereitstellen und die Farm gründlich testen, um sicherzustellen, dass sie die Zielvorgaben bezüglich Kapazität und Leistung 55 für die erwarteten Spitzenauslastungen erfüllt. Es wird empfohlen, speziell für große Bereitstellungen die Pilotumgebung zuerst mit einer synthetischen Auslastung zu testen und dann die Auslastung mit wenigen Livebenutzern und Liveinhalten zu testen. Die Analyse einer Pilotumgebung mit wenigen Livebenutzern bietet die Möglichkeit, einige von Ihnen aufgestellte Annahmen zu den Nutzungsmerkmalen und zum Inhaltswachstum zu überprüfen, bevor Sie komplett auf die Produktionsumgebung umstellen. Optimieren Wenn die Zielvorgaben bezüglich Kapazität und Leistung durch Skalieren der Farmhardware oder Änderungen an der Topologie nicht erfüllt werden können, müssen Sie möglicherweise die Lösung überarbeiten. Wenn z. B. die ursprünglichen Anforderungen eine einzelne Farm für die Zusammenarbeit, die Suche und soziale Netzwerke vorsah, müssen Sie möglicherweise einige der Dienste wie z. B. den Suchdienst einer dedizierten Farm für Dienste zuteilen oder die Arbeitsauslastung auf mehr Farmen aufteilen. Eine Alternative ist das Bereitstellen einer dedizierten Farm für soziale Netzwerke und eine weitere Farm für die Teamzusammenarbeit. Schritt 4: Bereitstellung Nachdem Sie die abschließende Testrunde ausgeführt und bestätigt haben, dass die gewählte Architektur die von Ihnen Schritt 1: Modellierung aufgestellten Zielvorgaben bezüglich Leistung und Kapazität erfüllt, können Sie die SharePoint Server 2010-basierte Umgebung für die Produktion bereitstellen. Die geeignete Einführungsstrategie hängt von der Umgebung und der Situation ab. Während die Bereitstellung von SharePoint Server im Allgemeinen den Rahmen dieses Dokuments sprengt, gibt es bestimmte vorgeschlagene Aktivitäten, die sich aus der Kapazitätsplanungsübung ergeben. Es folgen einige Beispiele: Bereitstellen einer neuen SharePoint Server-Farm: Die Kapazitätsplanungsübung sollte die Pläne für einen Entwurf und die Bereitstellung von SharePoint Server 2010 in die richtigen Bahnen gelenkt und bestätigt haben. In diesem Fall ist die Einführung die erste umfassende Bereitstellung von SharePoint Server 2010. Dabei müssen die Server und Dienste, die in den Kapazitätsplanungsübungen verwendet wurden, in die Produktionsumgebung verschoben oder neu erstellt werden. Dies ist das einfachste Szenario, da keine Upgrades oder Änderungen an einer vorhandenen Farm erforderlich sind. Upgraden einer Microsoft Office SharePoint Server 2007-Farm auf SharePoint Server 2010: In der Kapazitätsplanungsübung sollte der Entwurf für eine Farm, die die bestehenden Anforderungen erfüllen und für den höheren Bedarf und die höhere Nutzung einer SharePoint Server 2010-Farm vertikal skaliert werden kann, überprüft worden sein. Die Kapazitätsplanungsübung sollte Testmigrationen beinhaltet haben, um zu überprüfen, wie lange der Upgradeprozess dauert, ob benutzerdefinierter Code geändert oder ersetzt werden muss, ob Drittanbietertools aktualisiert werden müssen usw. Am Ende der Kapazitätsplanung sollten Sie über einen geprüften Entwurf verfügen und wissen, wie lange das Upgrade dauert, sowie einen Plan für die optimale Abarbeitung des Upgradeprozesses haben – z. B. ein direktes Upgrade oder das Migrieren von Inhaltsdatenbanken in eine neue Farm. Falls Sie ein direktes Upgrade ausführen, haben Sie bei der Kapazitätsplanung möglicherweise festgestellt, dass zusätzliche oder aktualisierte Hardware erforderlich ist und die Downtime berücksichtigt werden muss. Das Resultat der Kapazitätsplanungsübung 56 sollte unter anderem eine Liste der erforderlichen Hardwareänderungen und ein detaillierter Plan für die vorherige Bereitstellung der Hardwareänderungen in der Farm sein. Wenn die während der Kapazitätsplanung überprüfte Hardwareplattform vorhanden ist, können Sie das Upgraden auf SharePoint Server 2010 fortsetzen. Verbessern der Leistung einer vorhandenen SharePoint Server 2010-Farm: Die Kapazitätsplanungsübung sollte Ihnen beim Identifizieren der Engpässe in Ihrer aktuellen Implementierung geholfen, Wege zum Reduzieren oder Eliminieren dieser Engpässe aufgezeigt sowie eine optimierte Implementierung, die Ihre Geschäftsanforderungen für SharePoint Server-Dienste erfüllt, ergeben haben. Es gibt verschiedene Methoden zum Beheben von Leistungsproblemen, die von der einfachen Neuzuordnung von Diensten auf vorhandener Hardware, dem Upgraden vorhandener Hardware, bis hin zum Hinzufügen zusätzlicher Hardware und Dienste reichen können. Die verschiedenen Methoden sollten während der Kapazitätsplanungsübung getestet und geprüft werden. Anschließend sollte in Abhängigkeit von den Ergebnissen dieser Tests ein Bereitstellungsplan aufgestellt werden. Schritt 5: Überwachung und Wartung Zur Aufrechterhaltung der Systemleistung müssen Sie den Server überwachen, um potenzielle Engpässe zu identifizieren. Vor einer effektiven Überwachung müssen Sie die wichtigen Indikatoren kennen, von denen Sie auf ein Problem bei einer bestimmten Farmkomponente hingewiesen werden, und diese Indikatoren zu deuten wissen. Falls Sie feststellen, dass in der Farm die von Ihnen definierten Zielvorgaben nicht eingehalten werden, können Sie die Farm anpassen, indem Sie Hardwareressourcen hinzufügen oder entfernen, die Topologie ändern oder die Methode zum Speichern von Daten ändern. Eine Liste der Einstellungen, die Sie ändern können, um die Umgebung in einer früheren Phase zu überwachen, finden Sie unter Überwachen und Verwalten von SharePoint Server 2010. Anhand dieser Liste können Sie entscheiden, ob Änderungen erforderlich sind. Beachten Sie, dass sich eine detailliertere Überwachung auf den Speicherplatzbedarf der Verwendungsdatenbank auswirkt. Wenn die Umgebung stabil ist und diese detaillierte Überwachung nicht mehr benötigt wird, können Sie die folgenden Einstellungen auf die Standardwerte zurücksetzen. Weitere Informationen zur Systemüberwachung und zur Problembehandlung mithilfe der in die Benutzeroberfläche der SharePoint Server-Zentraladministration integrierten Systemüberwachungstools finden Sie in den folgenden Artikeln: Health Monitoring (SharePoint Server 2010) Problembehandlung (http://technet.microsoft.com/enus/library/ee748639(office.14).aspx) Siehe auch Konzepte Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht) Testen der Leistung für SharePoint Server 2010 Überwachen und Verwalten von SharePoint Server 2010 57 Speicher- und SQL Server-Kapazitätsplanung und -Konfiguration (SharePoint Server 2010) Weitere Ressourcen Health Monitoring (SharePoint Server 2010) 58 Testen der Leistung für SharePoint Server 2010 In diesem Artikel wird beschrieben, wie die Leistung von Microsoft SharePoint Server 2010 getestet wird. Die Test- und Optimierungsphase stellt eine wesentliche Komponente bei der effektiven Kapazitätsverwaltung dar. Vor der Bereitstellung in der Produktion sollten Sie neue Architekturen testen und Akzeptanztests unter Einhaltung der optimalen Methoden für die Überwachung durchführen,, um sicherzustellen, dass die von Ihnen entworfenen Architekturen die gewünschten Leistungs- und Kapazitätsziele erreichen. Sie können so potenzielle Engpässe erkennen und optimieren, ehe sich diese auf Benutzer in der tatsächlichen Bereitstellung auswirken. Wenn Sie von einer Microsoft Office SharePoint Server 2007-Umgebung aktualisieren und Änderungen an der Architektur planen oder die Benutzerauslastung der neuen SharePoint Server 2010Features schätzen, sind Tests besonders wichtig, damit sichergestellt wird, dass die neue SharePoint Server 2010-Umgebung die Leistungs- und Kapazitätsziele erreicht. Nach dem Testen der Umgebung können Sie die Testergebnisse analysieren und die Änderungen durchführen, die notwendig sind, um die in Schritt 1: Modellierung in Kapazitätsplanung für SharePoint Server 2010 festgelegten Leistungs- und Kapazitätsziele zu erreichen. Es folgt eine Liste der empfohlenen Teilschritte, die für die Testumgebung ausgeführt werden sollten: Erstellen Sie eine Testumgebung, die den anfänglichen Architekturentwurf aus Schritt 2: Entwurf nachbildet. Füllen Sie den Speicher mit dem Dataset oder Teilen des Datasets auf, den Sie in Schritt 1: Modellierung bestimmt haben. Wenden Sie die synthetische Auslastung auf das System an, die der Arbeitslast entspricht, die Sie in Schritt 1: Modellierung bestimmt haben. Führen Sie Tests aus, analysieren Sie die Ergebnisse und optimieren Sie Ihre Architektur. Stellen Sie die optimierte Architektur in Ihrem Datencenter bereit, und führen Sie eine Pilotversion bei einer kleineren Gruppe von Benutzern ein. Analysieren Sie die Pilotergebnisse, überprüfen Sie auf potenzielle Engpässe, und optimieren Sie die Architektur. Führen Sie ggf. erneut Tests durch. Führen Sie die Bereitstellung in der Produktionsumgebung durch. Vor dem Lesen dieses Artikels sollten Sie sich mit dem Inhalt von Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht) vertraut machen. Inhalt dieses Artikels Erstellen eines Testplans Erstellen der Testumgebung Erstellen von Tests und Tools 59 Erstellen eines Testplans Ihr Plan sollte Folgendes enthalten: Hardware, die für die Ausführung bei erwarteten Produktionsleistungszielen konzipiert ist. Sie sollten die Leistung von Testsystemen immer konservativ messen. Bei Verwendung von benutzerdefiniertem Code oder benutzerdefinierten Komponenten ist es wichtig, diese Komponenten zuerst isoliert zu testen, um ihre Leistung und Stabilität zu überprüfen. Wenn sie stabil sind, sollten Sie das System mit den installierten Komponenten testen und die Leistung mit der Farm ohne die installierten Komponenten vergleichen. Häufig stellen benutzerdefinierte Komponenten die Hauptverursacher von Problemen im Zusammenhang mit der Leistung und Zuverlässigkeit in Produktionssystemen dar. Die Zielsetzung der Tests sollte bekannt sein. Sie sollten im Voraus wissen, welche Ziele im Rahmen der Tests erreicht werden sollten. Soll die Leistung neuer benutzerdefinierter Komponenten, die für die Farm entwickelt wurden, beurteilt werden? Soll die Zeitdauer für das Durchforsten und Indizieren einer Reihe von Inhalten erfasst werden? Soll festgestellt werden, wie viele Anforderungen pro Sekunde von der Farm unterstützt werden können? Für einen Test kann es viele verschiedene Zielsetzungen geben; bei der Ausarbeitung eines guten Testplans sollten Sie als erstes die Ziele festlegen, die verfolgt werden sollen. Wissen, wie das Testziel gemessen werden kann. Wenn Sie beispielsweise die Durchsatzkapazität Ihrer Farm messen möchten, müssen Sie die Anforderungen pro Sekunde (RPS) sowie die Seitenwartezeit erfassen. Wenn Sie die Suchleistung messen möchten, müssen Sie die Durchforstungszeit und die Dokumentindizierungsraten bestimmen. Wenn Sie sich über die Zielsetzung Ihrer Tests im Klaren sind, ist es einfacher, die Schlüsselleistungsindikatoren zu definieren, die im Rahmen der Tests bewertet werden müssen. Erstellen der Testumgebung Nachdem Sie die Ziele für die Tests festgelegt, die Messungen definiert und die Kapazitätsanforderungen für Ihre Farm (aus den Schritten 1 und 2 dieses Prozesses) bestimmt haben, besteht die nächste Aufgabe darin, die Testumgebung zu entwerfen und zu erstellen. Der Aufwand, der mit dem Erstellen einer Testumgebung verbunden ist, wird häufig unterschätzt. Die Testumgebung sollte die Produktionsumgebung so nah wie möglich duplizieren. Zu den Features und Funktionen, die beim Entwurf der Testumgebung berücksichtigt werden sollten, gehören die folgenden: Authentifizierung - Legen Sie fest, ob die Active Directory-Domänendienste (Active Directory Domain Services, AD DS), die formularbasierte Authentifizierung (und wenn ja, mit welchem Verzeichnis) und die anspruchsbasierte Authentifizierung usw. in der Farm verwendet werden sollen. Unabhängig vom verwendeten Verzeichnis werden wie viele Benutzer in der Umgebung benötigt und wie sollen diese erstellt werden? Wie viele Gruppen oder Rollen werden benötigt und wie erstellen Sie sie und füllen sie auf? Sie müssen auch sicherstellen, dass Sie den Authentifizierungsdiensten ausreichend Ressourcen zugewiesen haben, damit keine Engpässe während der Tests auftreten. 60 DNS - Bestimmen Sie, welche Namespaces bei Ihren Tests benötigt werden. Identifizieren Sie die Server, die auf diese Anforderungen reagieren, und stellen Sie sicher, dass in Ihrem Plan die IP-Adressen berücksichtigt werden, die von den jeweiligen Servern verwendet werden sowie die DNS-Einträge, die erstellt werden müssen. Lastenausgleich - Vorausgesetzt, Sie verwenden mehr als einen Server (was normalerweise der Fall ist, da Sie sonst nicht ausreichend Auslastung für die Durchführung von Auslastungstests haben), benötigen Sie eine Art von Lastenausgleichslösung. Dabei kann es sich um ein Hardwarelastenausgleichsmodul oder um Softwarelastenausgleich wie den Windows-Netzwerklastenausgleich (Network Load Balancing, NLB) handeln. Legen Sie fest, was verwendet werden soll, und schreiben Sie alle Konfigurationsinformationen auf, die Sie für das schnelle und effiziente Setup benötigen. Darüber hinaus sollten Sie bedenken, dass Auslastungstest-Agents in der Regel die Adresse zur einer URL nur alle 30 Minuten versuchen aufzulösen. Sie sollten also keine Datei für lokale Hosts oder RoundrobinDNS für den Lastenausgleich verwenden, da sich die Test-Agents voraussichtlich bei jeder einzelnen Anforderung an denselben Server wenden, anstatt die Last auf alle verfügbaren Server zu verteilen. Testserver - Bei der Planung der Testumgebung müssen Sie nicht nur die Server für die SharePoint Server 2010-Farm einplanen, sondern auch die für die Tests erforderlichen Computer. Dazu gehören in der Regel mindestens 3 Server, ggf. sind mehr erforderlich. Wenn Sie Visual Studio Team System (Team Test Load Agent) für die Tests verwenden, wird ein Computer als Auslastungstestcontroller verwendet. Im Allgemeinen werden mindestens 2 Computer als Auslastungstest-Agents eingesetzt. Die Agents sind die Computer, die die Anweisungen vom Testcontroller darüber, was getestet werden soll, entgegen nehmen und die Anforderungen an die SharePoint Server 2010-Farm herausgeben. Die Testergebnisse werden auf einem SQL Serverbasierten Computer gespeichert. Sie sollten nicht denselben SQL Server-basierten Computer verwenden, der für die SharePoint Server 2010-Farm verwendet wird, da durch das Schreiben der Testdaten die verfügbaren SQL Server-Ressourcen für die SharePoint Server 2010-Farm beeinträchtigt werden. Beim Ausführen der Tests müssen auch die Testserver überwacht werden, genauso wie die Server in der SharePoint Server 2010-Farm oder Domänencontroller usw., um sicherzustellen, dass die Testergebnisse der Farm repräsentativ für die geplante Farm sind. Gelegentlich kann es vorkommen, dass die Auslastungs-Agents oder -Controller selbst einen Engpass darstellen. In diesem Fall entspricht der im Test angezeigte Durchsatz nicht dem Maximum, das von der Farm unterstützt werden kann. SQL Server - Folgen Sie in Ihrer Testumgebung den Hinweisen in den Abschnitten "Konfigurieren von SQL Server" und "Überprüfen von Speicherleistung und zuverlässigkeit" im Artikel Speicher- und SQL Server-Kapazitätsplanung und Konfiguration (SharePoint Server 2010). Überprüfung des Datasets - Bei der Auswahl der Inhalte, die Tests unterzogen werden, sollten Sie bedenken, dass in einem optimalen Szenario Daten aus einem vorhandenen Produktionssystem verwendet werden. So können Sie beispielsweise Ihre Inhaltsdatenbanken aus einer Produktionsfarm sichern und in Ihrer Testumgebung wiederherstellen. Fügen Sie dann die Datenbanken an, um die Inhalte in die Farm zu übertragen. Immer wenn Sie Tests auf erfundene Daten oder 61 Beispieldaten anwenden, besteht das Risiko, dass die Ergebnisse aufgrund von Unterschieden der gesammelten Inhalte verfälscht werden. Wenn Sie Beispieldaten erstellen müssen, sollten Sie die folgenden Aspekte für die Inhalte berücksichtigen: Alle Seiten sollten veröffentlicht sein; es sollten keine Inhalte ausgecheckt sein. Die Navigation sollte realistisch sein; erstellen Sie nicht mehr als das, was Sie normalerweise in einer Produktionsumgebung verwenden würden. Sie sollten eine Vorstellung von den Anpassungen haben, die in der Produktionswebsite verwendet werden. So sollten beispielsweise Gestaltungsvorlagen, Stylesheets, JavaScript usw. so eng wie möglich in der Produktionsumgebung implementiert sein. Bestimmen Sie die Anzahl der erforderlichen SharePoint-Gruppen und/oder Berechtigungsebenen und wie Benutzer diesen zugeordnet werden. Stellen Sie fest, ob Profile importiert werden müssen, und wie lange dies ggf. dauert. Finden Sie heraus, ob Benutzergruppen benötigt werden, wie diese ggf. erstellt und aufgefüllt werden. Legen Sie fest, ob zusätzliche Inhaltsquellen für Suchen erforderlich sind und was Sie benötigen, um diese zu erstellen. Wenn Sie keine Inhaltsquellen erstellen müssen, finden Sie heraus, ob Sie Netzwerkzugang haben, um sie zu durchforsten. Stellen Sie fest, ob ausreichend Beispieldaten vorhanden sind - Dokumente, Listen, Listenelemente usw. Erstellen Sie andernfalls einen Plan dafür, wie Sie diese Inhalte erstellen. Erstellen Sie einen Plan, damit ausreichend eindeutige Inhalte im Rahmen der Tests durchsucht werden können. Häufig wird der Fehler gemacht, dass dasselbe Dokument sogar hundert- oder tausendfach unter unterschiedlichen Namen in verschiedene Dokumentbibliotheken hochgeladen wird. Dies kann sich auf die Suchleistung auswirken, da der Suchprozessor beträchtliche Zeit mit der Erkennung von Duplikaten verbringt, was in einer Produktionsumgebung mit tatsächlichen Inhalten nicht notwendig wäre. Erstellen von Tests und Tools Nach dem Einrichten der Testumgebung ist es Zeit, die Tests zu erstellen und zu optimieren, die für die Messung der Leistungskapazität der Farm verwendet werden. In diesem Abschnitt wird gelegentlich spezifisch auf Visual Studio Team System (Team Test Load Agent) verwiesen, doch können viele der Konzepte unabhängig vom verwendeten Auslastungstool angewendet werden. Weitere Informationen zu Visual Studio Team System finden Sie unter Visual Studio Team System im MSDN (http://msdn.microsoft.com/de-de/library/fda2bad5.aspx" ). Sie können auch das SharePoint Load Testing Kit (LTK) zusammen mit VSTS für die Durchführung von Auslastungstests von SharePoint 2010-Farmen verwenden. Mit dem Load Testing Kit wird ein Visual Studio Team System 2008-Auslastungstest auf der Grundlage von Windows SharePoint Services 3.0- und Microsoft Office SharePoint Server 2007-IIS-Protokollen generiert. Der VSTS-Auslastungstest kann verwendet werden, um als Bestandteil der Kapazitätsplanungsübung oder des Stresstests vor dem 62 Upgrade eine synthetische Last für SharePoint Foundation 2010 oder SharePoint Server 2010 zu generieren. Das Load Testing Kit gehört zum Lieferumfang des Microsoft SharePoint 2010 Administration Toolkit Version 1.0, das im Microsoft Download Center (http://www.microsoft.com/downloads/details.aspx?familyid=718447d8-0814-427a-81c3c9c3d84c456e&displaylang=de-de) verfügbar ist. Ein wesentliches Kriterium für den Erfolg der Tests ist die Fähigkeit, eine realistische Arbeitslast zu simulieren, indem Anforderungen für die unterschiedlichsten Testwebsitedaten generiert werden, so als würden Benutzer auf die unterschiedlichsten Inhalte einer SharePoint Server 2010-Farm im Produktionsbetrieb zugreifen. Dazu müssen Sie die Tests in der Regel so konstruieren, dass sie datengesteuert sind. Anstatt Hunderte individueller hardcodierter Tests zu erstellen, die auf eine bestimmte Seite zugreifen, sollten Sie nur einige wenige Tests verwenden, die Datenquellen mit den URLs für diese Elemente enthalten, um dynamisch auf diese Gruppe von Seiten zuzugreifen. In Visual Studio Team System (Team Test Load Agent) kann eine Datenquelle die unterschiedlichsten Formate aufweisen, doch sind CSV-Dateien häufig am einfachsten zu verwalten und zwischen Entwicklungs- und Testumgebungen zu transportieren. Wenn CSV-Dateien mit solchen Inhalten erstellt werden, ist es eventuell notwendig, benutzerdefinierte Tools zum Aufzählen der SharePoint Server 2010-basierten Umgebung und Aufzeichnen der verschiedenen URLs zu erstellen. Möglicherweise benötigen Sie Tools für Aufgaben wie die folgenden: Erstellen von Benutzern und Gruppen in Active Directory oder anderen Authentifizierungsspeichern bei Verwendung der formularbasierten Authentifizierung Aufzählen von URLs für Websites, Listen und Bibliotheken, Listenelemente, Dokumente usw. sowie Übertragen in CSV-Dateien für Auslastungstests Hochladen von Beispieldokumenten für verschiedene Dokumentbibliotheken und Websites Erstellen von Websitesammlungen, Webs, Listen, Bibliotheken, Ordner und Listenelementen Erstellen von "Meine Websites" Erstellen von CSV-Dateien mit Benutzernamen und Kennwörtern für Testbenutzer. Dies sind die Benutzerkonten, über die die Auslastungstests ausgeführt werden. Es sollten mehrere Dateien vorhanden sein, sodass einige beispielsweise nur Administratorbenutzer enthalten, einige Benutzer mit erhöhten Rechten (wie z. B. Autor/Mitwirkender, Hierarchie-Manager usw.) und andere wiederum nur Leser usw. Erstellen einer Liste von Beispielstichwörtern und -begriffen für die Suche Auffüllen von SharePoint-Gruppen und Berechtigungsebenen mit Benutzern und Active Directory-Gruppen (oder Rollen bei Verwendung der formularbasierten Authentifizierung) Beim Erstellen der Webtests sollten Sie u. a. die folgenden optimalen Methoden beachten und implementieren: Aufzeichnen einfacher Webtests als Ausgangspunkt. Diese Tests enthalten hartcodierte Werte für Parameter wie URLs und IDs usw. Ersetzen Sie diese hartcodierten Werte durch Hyperlinks aus Ihren CSV-Dateien. Die Datenbindung 63 dieser Werte ist in Visual Studio Team System (Team Test Load Agent) äußerst einfach. Festlegen von Gültigkeitsregeln für die Tests. Wenn beispielsweise eine Seite angefordert wird, erhalten Sie als Antwort auf einen Fehler oft die Seite error.aspx. Aus Webtestperspektive handelt es sich einfach um eine weitere positive Antwort, da in den Auslastungstestergebnissen der HTTP-Statuscode 200 (erfolgreich) angezeigt wird. Offensichtlich ist jedoch ein Fehler aufgetreten, der anderweitig nachverfolgt werden sollte. Durch eine oder mehrere Gültigkeitsregeln können Sie bestimmten, als Antwort gesendeten Text abfangen, sodass die Überprüfung nicht erfolgreich ausgeführt und die Anforderung als Fehler gekennzeichnet wird. In Visual Studio Team System (Team Test Load Agent) kann als einfache Gültigkeitsregel ResponseUrl bei der Überprüfung verwendet werden. Dabei wird ein Fehler ausgegeben, wenn die nach Umleitungen gerenderte Seite nicht dieselbe Antwortseite ist, die im Test aufgezeichnet wurde. Sie können auch eine FindTextRegel hinzufügen, bei der ein Fehler aufgezeichnet wird, wenn der Ausdruck "Zugriff verweigert" beispielsweise in der Antwort gefunden wird. Verwenden von mehreren Benutzern in verschiedenen Rollen für Tests. Verschiedene Verhalten, wie z. B. das Zwischenspeichern der Ausgabe wird abhängig von den Rechten des jeweiligen Benutzers unterschiedlich gehandhabt. So erhalten beispielsweise ein Websitesammlungsadministrator oder ein authentifizierter Benutzer mit Genehmigungs- oder Dokumenterstellungsrechten keine zwischengespeicherten Ergebnisse, da es ihnen stets möglich sein sollte, auf die aktuellste Version von Inhalten zuzugreifen. Anonyme Benutzer hingegen erhalten zwischengespeicherte Inhalte. Sie müssen sicherstellen, dass es sich bei den Testbenutzern um eine Kombination dieser Rollen handelt, die in etwa der Zusammenstellung der Benutzer in der Produktionsumgebung entspricht. Wenn beispielsweise in einer Produktionsumgebung nur zwei oder drei Websitesammlungsadministratoren vorkommen, sollten Sie keine Tests erstellen, bei denen 10% der Seitenanforderungen von Benutzerkonten stammen, die Websitesammlungsadministratoren für die Testinhalte sind. Die Analyse abhängiger Anforderungen ist ein Attribut von Visual Studio Team System (Team Test Load Agent), das bestimmt, ob der Test-Agent versuchen sollte, nur die Seite oder die Seite einschließlich aller zugehörigen Anforderungen, die Teil der Seite sind, abzurufen, wie z. B. Bilder, Stylesheets und Skripts usw. Beim Testen der Auslastung werden diese Elemente in der Regel aus verschiedenen Gründen ignoriert: Nach dem erstmaligen Zugreifen eines Benutzers auf eine Website werden diese Elemente häufig vom lokalen Browser zwischengespeichert Die Elemente stammen in einer SharePoint Server 2010-basierten Umgebung in der Regel nicht von SQL Server. Wenn der BLOB-Cache aktiviert ist, werden sie vielmehr von den Webservern bereitgestellt, sodass keine SQL Server-Last generiert wird. Wenn der Prozentsatz der Benutzer Ihrer Website, die diese erstmalig besuchen hoch ist, oder wenn Sie die Browserzwischenspeicherung deaktiviert haben oder aus einem sonstigen Grund nicht vorhaben, den BLOB-Cache zu verwenden, kann es sinnvoll sein, die Analyse abhängiger Anforderungen in Ihren Tests zu aktivieren. Für die meisten Implementierungen stellt dies jedoch tatsächlich eine Ausnahme und nicht die Regel dar. 64 Durch Aktivieren der Funktion können die vom Testcontroller gemeldeten RPS-Zahlen deutlich ansteigen. Diese Anforderungen werden so schnell bereitgestellt, dass Sie möglicherweise zu dem trügerischen Schluss gelangen, dass mehr Kapazität in der Farm verfügbar ist als tatsächlich vorhanden. Denken Sie daran, auch die Aktivität von Clientanwendungen zu modellieren. Auch durch Clientanwendungen, wie Microsoft Word, PowerPoint, Excel und Outlook, werden Anforderungen für SharePoint Server 2010-Farmen generiert. Durch Senden der Serveranforderungen, wie z. B. beim Abrufen von RSS-Feeds, Abrufen thematischer Informationen, Anfordern von Details zur Website- und Listenstruktur und Synchronisieren von Daten usw., steigt die Auslastung innerhalb der Umgebung. Diese Anforderungstypen sollten berücksichtigt und modelliert werden, wenn diese Clients Teil Ihrer Implementierung sind. In den meisten Fällen sollte ein Webtest nur eine einzelne Anforderung enthalten. Die Optimierung und Problembehandlung der Testumgebung und einzelner Anforderungen ist einfacher, wenn der Test nur eine einzelne Anforderung enthält. Webtests müssen in der Regel mehrere Anforderungen enthalten, wenn der simulierte Vorgang auf mehreren Anforderungen zusammen gesetzt ist. Wenn Sie beispielsweise diese Reihe von Aktionen testen möchten, benötigen Sie einen aus mehreren Schritten bestehenden Test: Auschecken eines Dokuments, Bearbeiten des Dokuments, Einchecken und Veröffentlichen. Ebenfalls erforderlich ist es, zwischen den Schritten den Zustand zu erhalten. So sollte beispielsweise dasselbe Benutzerkonto für das Auschecken, Bearbeiten und Einchecken verwendet werden. Solche Vorgänge aus mehreren Schritten, die erfordern, dass zwischen den einzelnen Schritten der Zustand erhalten bleibt, werden am besten mit mehreren Anforderungen in einem einzelnen Webtest durchgeführt. Führen Sie jeden Webtest einzeln aus. Stellen Sie sicher, dass jeder Test erfolgreich beendet werden kann, ehe er innerhalb eines umfangreicheren Auslastungstests ausgeführt wird. Überprüfen Sie, dass alle Namen für Webanwendungen aufgelöst werden und die im Test verwendeten Benutzerkonten über ausreichende Rechte für die Ausführung des Tests verfügen. Webtests umfassen die Anforderungen nach einzelnen Seiten, das Hochladen von Dokumenten und das Anzeigen von Listenelementen usw. Diese werden in Auslastungstests alle kombiniert. Ein Auslastungstest ist eine Kombination der verschiedenen Webtests, die ausgeführt werden sollen. Jedem Webtest wird ein Prozentsatz der Zeit für die Ausführung eingeräumt. Wenn Sie beispielsweise feststellen, dass 10% der Anforderungen in einer Produktionsfarm Suchabfragen sind, konfigurieren Sie einen Abfragewebtest für den Auslastungstest, der 10% der Zeit ausgeführt wird. In Visual Studio Team System (Team Test Load Agent) befassen sich Auslastungstests auch mit der Konfiguration von Faktoren wie der Browsermischung, der Netzwerkmischung, Auslastungsmustern und Ausführungseinstellungen. Für Auslastungstests sollten zusätzlich die folgenden optimalen Methoden beachtet und implementiert werden: Verwenden eines angemessenen Lese-/Schreibverhältnisses bei den Tests. Eine überhöhte Anzahl von Schreibvorgängen kann sich deutlich auf den Gesamtdurchsatz eines Tests auswirken. Selbst Farmen für die Zusammenarbeit tendieren zu Lese-/Schreibverhältnissen mit deutlich mehr Lese- als Schreibvorgängen. Weitere Informationen finden Sie unter Technische Fallstudien zu 65 Leistung und Kapazität (http://technet.microsoft.com/dede/library/cc261716(Office.14).aspx). Berücksichtigen der Auswirkungen anderer ressourcenintensiver Vorgänge und Festlegen, ob diese während des Auslastungstests ausgeführt werden sollen. So werden beispielsweise Vorgänge wie Sichern und Wiederherstellen im Allgemeinen nicht während eines Auslastungstests ausgeführt. Eine vollständige Durchforstung sollte in der Regel nicht während eines Auslastungstests ausgeführt werden, während eine inkrementelle Durchforstung nicht ungewöhnlich ist. Überlegen Sie sich, wie der Zeitplan für diese Aufgaben in der Produktion aussieht - werden sie zu Spitzenauslastungszeiten ausgeführt? Wenn dies nicht der Fall ist, sollten sie vermutlich von den Auslastungstests ausgenommen werden, wenn Sie versuchen, die maximale Auslastung bei gleichbleibendem Zustand zu ermitteln, die zu Spitzenzeiten unterstützt werden kann. Keine Verwendung von Reaktionszeiten. Reaktionszeiten sind ein Feature von Visual Studio Team System (Team Test Load Agent), das die Simulierung des Zeitraums ermöglicht, den ein Benutzer zwischen dem Klicken auf einer Seite verstreichen lässt. So lädt beispielsweise ein typischer Benutzer möglicherweise eine Seite, verbringt drei Minuten mit Lesen und klickt dann auf eine Verknüpfung auf der Seite, um eine andere Site zu besuchen. Die korrekte Modellierung in einer Testumgebung ist beinahe unmöglich und bringt den Testergebnissen keinen zusätzlichen Wert. Die Modellierung ist deshalb so schwierig, da die meisten Organisationen keine Möglichkeit haben, verschiedene Benutzer und den Zeitraum zwischen Klicks in verschiedenen Typen von SharePoint-Websites zu überwachen (wie z. B. Veröffentlichungssites im Gegensatz zu Websites für die Zusammenarbeit usw.). Darüber hinaus stellt die Modellierung keinen tatsächlichen Mehrwert dar, da ein Benutzer zwar zwischen Seitenanforderungen pausiert, SharePoint Server 2010basierte Server jedoch nicht. Sie erhalten nur einen konstanten Strom von Anforderungen mit Spitzen und Senken im Laufe der Zeit, verbringen jedoch keine Zeit im Leerlauf, so wie Benutzer zwischen dem Klicken auf Hyperlinks auf einer Seite pausieren. Kenntnisse über den Unterschied zwischen Benutzern und Anforderungen. Visual Studio Team System (Team Test Load Agent) weist ein Auslastungsmuster auf, bei dem Sie zur Eingabe der Anzahl der simulierenden Benutzer aufgefordert werden. Dies hat nichts mit den Anwendungsbenutzern zu tun, vielmehr geht es nur um die Anzahl der Threads, die von den Auslastungstest-Agents zum Generieren von Anforderungen verwendet werden. Ein häufiger Fehler besteht darin, anzunehmen, dass bei einer Bereitstellung für 5.000 Benutzer die Zahl 5.000 in Visual Studio Team System (Team Test Load Agent) verwendet werden sollte - was nicht der Fall ist. Dies ist einer der zahlreichen Gründe, weshalb bei der Schätzung der Anforderungen für die Kapazitätsplanung die Verwendungsanforderungen auf der Anzahl der Anforderungen pro Sekunde und nicht der Anzahl von Benutzern basieren sollten. Bei einem Visual Studio Team System (Team Test Load Agent)-Auslastungstest werden Sie feststellen, dass häufig Hunderte von Anforderungen pro Sekunde bei nur 50 bis 75 Auslastungstest-"Benutzern" generiert werden. Verwenden eines konstanten Auslastungsmusters für zuverlässige und reproduzierbare Testergebnisse. In Visual Studio Team System (Team Test Load Agent) haben Sie die Option, die Auslastung für eine konstante Anzahl von Benutzern (Threads, wie im vorherigen Punkt erläutert), ein intensiviertes 66 Benutzerauslastungsmuster oder einen zielbasierten Verwendungstest zu simulieren. Ein intensiviertes Auslastungsmuster bedeutet, dass Sie mit einer niedrigeren Anzahl von Benutzern beginnen und alle paar Minuten zusätzliche Benutzer hinzufügen. Bei einem zielbasierten Verwendungstest wird ein Schwellenwert für einen bestimmten Diagnoseindikator, wie die CPU-Auslastung, eingerichtet und Versuche getestet, die Auslastung so zu halten, dass der Leistungsindikator sich zwischen den definierten Mindest- und Höchstschwellenwerten bewegt. Wenn Sie jedoch nur den maximalen Durchsatz der SharePoint Server 2010-Farm während Spitzenauslastungszeiten ermitteln möchten, ist es sinnvoller und genauer, nur ein konstantes Auslastungsmuster auszuwählen. Damit können Sie die auf das System anwendbare Auslastung einfacher bestimmen, ehe die Schwellenwerte, die in einer fehlerfreien Farm eingehalten werden sollten, regelmäßig überschritten werden. Bei der Ausführung eines Auslastungstests sollten Sie bedenken, dass Daten in der Datenbank geändert werden. Unabhängig davon, ob Dokumente hochgeladen, Listenelemente bearbeitet oder nur Aktivitäten in der Verwendungsdatenbank aufgezeichnet werden, werden Daten auf SQL Server geschrieben. Um konsistente und seriöse Testergebnisse aus den einzelnen Auslastungstests zu erhalten, sollten Sie vor der Ausführung des ersten Auslastungstests eine Sicherung erstellen. Nach jedem einzelnen Auslastungstest sollte der Inhalt mithilfe der Sicherung so wiederhergestellt werden, wie er zu Beginn des Tests vorlag. Siehe auch Konzepte Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht) Kapazitätsplanung für SharePoint Server 2010 Überwachen und Verwalten von SharePoint Server 2010 Speicher- und SQL Server-Kapazitätsplanung und -Konfiguration (SharePoint Server 2010) Weitere Ressourcen Health Monitoring (SharePoint Server 2010) 67 Überwachen und Verwalten von SharePoint Server 2010 Dieser Artikel enthält Informationen zur Überwachung sowie zu Leistungsindikatoren für Microsoft SharePoint Server 2010-Farmen. Für die Verwaltung der Systemleistung von SharePoint Server 2010 müssen Sie den Server überwachen, um mögliche Engpässe erkennen zu können. Eine leistungsfähige Überwachung ist erst dann möglich, wenn Sie die wichtigsten Indikatoren kennen, die Ihnen Aufschluss darüber geben, ob bestimmte Teile der Farm Aufmerksamkeit erfordern, und wissen, wie diese Indikatoren ausgewertet werden müssen. Wenn Sie feststellen, dass sich Ihre Farm außerhalb der von Ihnen definierten Ziele bewegt, können Sie durch Hinzufügen oder Entfernen von Hardwareressourcen, Ändern der Topologie oder Ändern der Speicherung von Daten entsprechende Anpassungen der Farm vornehmen. Die Informationen in diesem Abschnitt sollen Administratoren bei der manuellen Konfiguration von Leistungsindikatoren und anderen Einstellungen unterstützen. Weitere Informationen zur Systemüberwachung mithilfe der Systemüberwachungstools auf der Oberfläche der SharePoint-Zentraladministration finden Sie in den folgenden Artikeln: Health Monitoring (SharePoint Server 2010) Solving Problems and Troubleshooting (SharePoint Server 2010) Vor dem Lesen dieses Artikels sollten Sie sich mit dem Inhalt von Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht) vertraut machen. Inhalt dieses Artikels Konfigurieren der Überwachung Beseitigen von Engpässen Konfigurieren der Überwachung Es folgt eine Liste der Einstellungen, die Sie zur Überwachung Ihrer Umgebung in den Anfangsphasen ändern können, sodass Sie rechtzeitig erkennen, ob Änderungen erforderlich sind. Die Ausweitung Ihrer Überwachungsfunktionen wirkt sich auf den Speicherplatz aus, der von der Verwendungsdatenbank beansprucht wird. Wenn ein stabiler Zustand der Umgebung erreicht ist und eine detaillierte Überwachung nicht mehr erforderlich ist, sollten Sie die nachfolgenden Einstellungen eventuell wieder auf ihre Standardwerte zurücksetzen. Einstellung Wert Hinweise Ereignisprotokoll-Flutschutz Deaktiviert Der Standardwert ist Aktiviert. Die Einstellung kann deaktiviert werden, um so viele Überwachungsdaten wie möglich zu sammeln. Bei 68 Einstellung Wert Hinweise Normalbetrieb sollte die Einstellung aktiviert sein. Zeitplan für den Zeitgeberauftrag Import der Microsoft SharePoint FoundationVerwendungsdaten 5 Minuten Der Standardwert beträgt 30 Minuten. Durch Senken dieser Einstellung werden die Daten häufiger in die Verwendungsdatenbank importiert, was vor allem für die Problembehandlung hilfreich ist. Bei Normalbetrieb sollte die Einstellung 30 Minuten lauten. Aktiviert Der Standardwert lautet Deaktiviert mit Ausnahme des Anbieters "Suchintegritätsüberwachung Ablaufverfolgung der Ereignisse". Diese Anbieter sammeln Integritätsdaten für verschiedene Features und Komponenten. Bei Normalbetrieb sollten Sie die Standardeinstellung zurücksetzen. Zeitplanintervalle "job1 Minute diagnostics-performancecounter-wfe-provider" und "jobdiagnostics-performancecounter-sql-provider" festlegen Der Standardwert beträgt 5 Minuten. Durch Senken dieser Einstellung werden die Daten häufiger abgerufen, was vor allem für die Problembehandlung hilfreich ist. Bei Normalbetrieb sollte die Einstellung 5 Minuten lauten. Diagnoseanbieter Alle Diagnoseanbieter aktivieren Verschiedenes Aktiviert Stapelablaufverfolgung für Inhaltsanforderungen aktivieren Der Standardwert ist Deaktiviert. Durch Aktivieren dieser Einstellung ist die Diagnose von Inhaltsanforderungsfehlern mithilfe der Prozessstapelablaufverfolgung 69 Einstellung Wert Hinweise möglich. Bei Normalbetrieb sollte die Einstellung deaktiviert sein. Entwicklerdashboard aktivieren Aktiviert Der Standardwert ist Deaktiviert. Das Aktivieren dieser Einstellung ermöglicht die Diagnose von langsamen Seiten oder sonstigen Problemen mithilfe des Entwicklerdashboards. Bei Normalbetrieb und sobald keine Problembehandlung mehr erforderlich ist, sollte die Einstellung deaktiviert werden. Verwendungsdatenerfassung Inhaltsimportverwendung Inhaltsexportverwendung Seitenanforderungen Featureverwendung Suchvorgangsverwendung Websiteinventarverwendung Zeitgeberaufträge Aktiviert Das Aktivieren der Protokollierung dieser Leistungsindikatoren ermöglicht es Ihnen, mehr Verwendungsdaten innerhalb der Umgebung zu sammeln und die Muster im Datenverkehr in der Umgebung besser zu verstehen. Bewertungsverwendung Leistungsindikatoren Wenn Sie die Verwendungsdatenbank einsetzen, können Sie die Leistungsindikatoren hinzufügen, um die Leistung der Farm besser in der Verwendungsdatenbank zu überwachen und zu beurteilen, indem diese automatisch in bestimmten Intervallen (Standardeinstellung beträgt 30 Minuten) protokolliert werden. So können Sie die Verwendungsdatenbank nach diesen Indikatoren abfragen und die Ergebnisse über längere Zeit in einem Diagramm darstellen. Es folgt ein Beispiel für die Verwendung des PowerShell-Cmdlets Add-SPDiagnosticsPerformanceCounter, um den Indikator Prozessorzeit (%) zur Verwendungsdatenbank hinzuzufügen. Es genügt die Ausführung auf einem Webserver: Code kopieren Add-SPDiagnosticsPerformanceCounter -Category "Processor" -Counter "% Processor Time" -Instance "_Total" -WebFrontEnd 70 Es existiert eine Reihe von allgemeinen Leistungsindikatoren, die Sie für jedes Serversystem überwachen sollten. Diese Leistungsindikatoren werden in der folgenden Tabelle beschrieben. Leistungsindikator Beschreibung Prozessor Sie sollten die Prozessorleistung überwachen, um sicherzustellen, dass die gesamte Prozessorauslastung nicht konstant hoch (über 80 Prozent) bleibt. Dies ist ein Hinweis, dass das System nicht in der Lage ist, plötzliche Aktivitätssteigerungen zu verarbeiten. Im Normalbetrieb sollte darauf geachtet werden, dass im Falle des Ausfalls einer Komponente kein Dominoeffekt eintritt und die verbleibenden Komponenten in Mitleidenschaft gezogen werden. Wenn Sie beispielsweise über drei Webserver verfügen, sollten Sie sicherstellen, dass die durchschnittliche CPU-Auslastung aller Server bei unter 60% liegt, damit bei einem Ausfall eines Servers ausreichend verbleibende Kapazität der anderen beiden Server vorhanden ist, um die zusätzliche Last zu übernehmen. Netzwerkschnittstelle Überwachen Sie die Geschwindigkeit, mit der Daten mittels Netzwerkkarte gesendet und empfangen werden. Diese sollte weniger als 50 Prozent der Netzwerkkapazität betragen. Datenträger und Cache Es existiert eine Vielzahl von logischen Datenträgeroptionen, die regelmäßig überwacht werden sollten. Der verfügbare Speicherplatz ist in jeder Kapazitätsstudie wichtig, doch sollte auch der Zeitraum überwacht werden, in der der Datenträger im Leerlauf ist. Abhängig von den Typen von Anwendungen oder Diensten, die Sie auf den Servern ausführen, sollten Sie auch die Lese und Schreibzeiten des Datenträgers überwachen. Verlängerte Warteschlangenzeiten für Lese- oder Schreibfunktionen wirken sich auf die Leistung aus. Der Cache hat deutliche Auswirkungen auf Lese- und Schreibvorgänge. Überwachen Sie auf 71 Leistungsindikator Beschreibung vermehrte Cachefehler. Arbeitsspeicher und Auslagerungsdatei Überwachen Sie die Menge des physikalischen Speichers, der für die Speicherreservierung zur Verfügung steht. Unzureichender Speicher hat die exzessive Nutzung der Auslagerungsdatei und eine Zunahme der Seitenfehler pro Sekunde zur Folge. Systemindikatoren Die folgende Tabelle enthält Informationen zu Systemobjekten und -indikatoren, die Sie der Gruppe von in der Verwendungsdatenbank überwachten Indikatoren mithilfe von SPDiagnosticPerformanceCounter auf einem Webserver hinzufügen können. Objekte und Indikatoren Beschreibung Prozessor Prozessorzeit (%) Gibt die Prozessorauslastung über einen Zeitraum an. Wenn der Wert dauerhaft zu hoch ist, kann sich dies negativ auf die Leistung auswirken. Bei Multiprozessorsystemen sollte der Gesamtwert berechnet werden. Sie können auch die Nutzung der einzelnen Prozessoren messen, um eine ausgeglichene Leistung zwischen den Prozessorkernen sicherzustellen. Datenträger Durchschnittl. Warteschlangenlänge des Datenträgers Gibt die durchschnittliche Anzahl von Leseund Schreibanforderungen in der Warteschlage für den gewählten Datenträger während des Abfragezeitraums an. Eine verlängerte Datenträgerwarteschlange ist unproblematisch, so lange keine Probleme bei den Datenträgerlese- und schreibvorgängen vorkommen und das System kontinuierlich ohne Erweiterung der Warteschlange ausgeführt wird. Durchschnittl. Warteschlangenlänge der Datenträger-Lesevorgänge Die durchschnittliche Anzahl der Leseanforderungen in der Warteschlange. Durchschnittl. Warteschlangenlänge der Die durchschnittliche Anzahl der 72 Objekte und Indikatoren Beschreibung Datenträger-Schreibvorgänge Schreibanforderungen in der Warteschlange. Lesevorgänge/s Die Anzahl der Lesevorgänge auf dem Datenträger pro Sekunde. Schreibvorgänge/s Die Anzahl der Schreibvorgänge auf dem Datenträger pro Sekunde. Arbeitsspeicher - Verfügbare MB Gibt die Menge des physikalischen Speichers an, der für die Speicherreservierung zur Verfügung steht. Unzureichender Speicher hat die exzessive Nutzung der Auslagerungsdatei und eine Zunahme der Seitenfehler pro Sekunde zur Folge. - Cachefehler/s Dieser Indikator gibt die Rate an, mit der Fehler auftreten, wenn eine Seite im Dateisystemcache nicht gefunden wird und aus dem Arbeitsspeicher oder vom Datenträger abgerufen werden muss. Die effektive Verwendung des Caches für Lese- und Schreibvorgänge kann sich deutlich auf die Serverleistung auswirken. Überwachen Sie, ob vermehrt Cachefehler auftreten; ein Hinweis darauf ist eine Reduzierung von Schnelle Lesevorgänge/s (async.) oder von Vorauslesevorgänge/s. - Seiten/s Dieser Leistungsindikator zeigt die Geschwindigkeit an, mit der Seiten vom Datenträger gelesen oder auf den Datenträger geschrieben werden, um Hardwareseitenfehler zu beheben. Ein Anstieg ist ein Hinweis auf systemweite Leistungsprobleme. Auslagerungsdatei - % belegt und Maximale Belegung % In der Serverauslagerungsdatei werden "virtuelle" Speicheradressen auf dem Datenträger gespeichert. Seitenfehler treten auf, wenn ein Prozess angehalten wird und warten muss, während erforderliche "virtuelle" Ressourcen vom Datenträger in den Arbeitsspeicher abgerufen werden. Bei 73 Objekte und Indikatoren Beschreibung unzureichendem physikalischen Speicher treten diese häufiger auf. NIC - Gesamtanzahl Bytes/s Dies ist die Geschwindigkeit, mit der Daten mittels Netzwerkkarte gesendet und empfangen werden. Wenn dieser Wert bei mehr als 40-50 Prozent der Netzwerkkapazität liegt, sollten Sie nach der Ursache suchen. Zur Optimierung Ihrer Suche überwachen Sie Empfangene Bytes/s und Bytes gesendet/s. Prozess - Arbeitssatz Dieser Indikator gibt die aktuelle Größe (in Bytes) des Arbeitssatzes für einen bestimmten Prozess an. Dieser Arbeitsspeicher ist für den Prozess vorbehalten, selbst wenn er nicht verwendet wird. - Prozessorzeit (%) Dieser Indikator gibt die Prozessorzeit in Prozent an, die von einem bestimmten Prozess verwendet wird. Threadanzahl (_Gesamt) Die aktuelle Anzahl von Threads. ASP.NET Anforderungen gesamt Die Gesamtanzahl von Anforderungen seit dem Start des Diensts. Anforderungen in Warteschlange In Microsoft SharePoint Foundation 2010 werden die Grundbausteine für HTMLSeiten bereitgestellt, die im Benutzerbrowser über HTTP gerendert werden. Dieser Indikator gibt die Anzahl der Anforderungen an, die auf die Verarbeitung warten. Wartezeit der Anforderung Die Anzahl von Millisekunden, die die letzte Anforderung in der Warteschlange auf die Verarbeitung warten musste. Mit steigender Anzahl von Warteereignissen sinkt die Leistung beim Rendern von Seiten für Benutzer. Zurückgewiesene Anforderungen Die Gesamtanzahl der Anforderungen, die aufgrund von unzureichenden Serverressourcen nicht ausgeführt wurden. 74 Objekte und Indikatoren Beschreibung Dieser Indikator stellt die Anzahl der Anforderungen dar, die den Statuscode 503 erhielten, als Hinweis, dass der Server überlastet ist. Ausgeführte Anforderungen (_Gesamt) Die Anzahl der derzeit ausgeführten Anforderungen. Anforderungen/s (_Gesamt) Die Anzahl der pro Sekunde ausgeführten Anforderungen. Dieser Indikator gibt den aktuellen Durchsatz der Anwendung an. Bei Dauerauslastung sollte der Wert innerhalb eines bestimmten Bereichs bleiben, wobei andere Serveraktionen (wie z. B. Garbage Collection, Cachebereinigungsthread, externe Servertools usw.) gesperrt sind. .NET CLR-Speicher Auflistungsanzahl der Generation 0 Zeigt die Anzahl der Garbage Collections von Objekten der Generation 0 (also der neuesten, zuletzt zugeordneten Objekte) seit dem Starten der Anwendung an. Beim Verhältnis von "Anzahl der Generation 0: Anzahl der Generation 1: Anzahl der Generation 2" sollte die Auflistungsanzahl der Generation 2 die Auflistungsanzahl der Generation 0 nicht deutlich übersteigen, optimal um den Faktor 2. Auflistungsanzahl der Generation 1 Gibt die Anzahl der Garbage Collections von Objekten der Generation 1 seit dem Starten der Anwendung an. Auflistungsanzahl der Generation 2 Gibt die Anzahl der Garbage Collections von Objekten der Generation 2 seit dem Starten der Anwendung an. Der Indikator wird am Ende einer Garbage Collection der Generation 2 (auch vollständige Garbage Collection genannt) erhöht. GC-Zeitdauer in Prozent Zeigt den Prozentsatz der Zeit für die Durchführung einer Garbage Collection an, die seit dem letzten Garbage CollectionZyklus verstrichen ist. Dieser Indikator gibt in der Regel die Aufgaben des Garbage Collectors zur Sammlung und Komprimierung von Speicher im Auftrag der Anwendung an. Dieser Indikator wird erst am Ende einer Garbage Collection 75 Objekte und Indikatoren Beschreibung aktualisiert. Es handelt sich hierbei nicht um einen Durchschnitt; der Wert spiegelt den letzten gemessenen Wert wider. Bei Normalbetrieb sollte der Wert unter 5% liegen. SQL Server-Leistungsindikatoren Die folgende Tabelle enthält Informationen zu SQL Server-Objekten und Leistungsindikatoren. Objekte und Indikatoren Beschreibung Allgemeine Statistik Dieses Objekt stellt Leistungsindikatoren für die Überwachung der allgemeinen serverweiten Aktivität zur Verfügung, z. B. die Anzahl gleichzeitiger Verbindungen und die Anzahl der Benutzer, die pro Sekunde von Computern mit einer Instanz von SQL Server eine Verbindung herstellen oder trennen. Benutzerverbindungen Dieser Leistungsindikator zeigt den Umfang der Benutzerverbindungen auf dem Computer mit SQL Server an. Wenn dieser Wert um mehr als 500 % ausgehend von Ihrer Baseline ansteigt, kann sich dies in Leistungseinbußen niederschlagen. Datenbanken Dieses Objekt stellt Leistungsindikatoren für die Überwachung von Massenkopiervorgängen, des Sicherungsund Wiederherstellungsdurchsatzes und von Transaktionsprotokollaktivitäten zur Verfügung. Überwachen Sie Transaktionen und das Transaktionsprotokoll, um den Umfang der Benutzeraktivitäten in der Datenbank zu bestimmen und festzustellen, in welchem Umfang das Transaktionsprotokoll aufgefüllt wird. Der Umfang der Benutzeraktivitäten kann die Leistung der Datenbank bestimmen und sich auf die Protokollgröße, Sperren und die Replikation auswirken. Die Überwachung von Protokollaktivitäten auf niedriger Ebene zur Messung der Benutzeraktivität und der Ressourcennutzung kann Ihnen helfen, 76 Objekte und Indikatoren Beschreibung Leistungsengpässe zu identifizieren. Transaktionen/s Dieser Leistungsindikator zeigt den Umfang der Transaktionen für eine bestimmte Datenbank oder die gesamte SQL ServerInstanz pro Sekunde an. Dieser Wert hilft Ihnen beim Erstellen einer Baseline und bei der Problembehandlung. Sperren Dieses Objekt stellt Informationen zu SQL Server-Sperren für einzelne Ressourcentypen zur Verfügung. Anzahl der Deadlocks/s Dieser Leistungsindikator zeigt die Anzahl der Deadlocks pro Sekunde auf dem Computer mit SQL Server an. Dieser Wert sollte normalerweise 0 sein. Durchschnittliche Wartezeit (ms) Dieser Leistungsindikator zeigt die durchschnittliche Länge der Wartezeit für jede Sperranforderung an, die nicht sofort erfüllt werden konnte. Sperrenwartezeit (ms) Dieser Leistungsindikator zeigt die Wartezeit für Sperren in der vergangenen Sekunde an. Sperrenwartezeit/s Sperrenwartevorgänge/Sekunde Dieser Leistungsindikator zeigt die Anzahl der Sperren pro Sekunde an, die nicht sofort erfüllt werden konnten, sodass auf Ressourcen gewartet werden musste. Latches Dieses Objekt stellt Leistungsindikatoren für die Überwachung interner SQL ServerRessourcensperren, so genannter Latches, zur Verfügung. Die Überwachung von Latches zum Bestimmen der Benutzeraktivität und der Ressourcennutzung kann Ihnen helfen, Leistungsengpässe zu identifizieren. Durchschnittliche Latchwartezeit (ms) Dieser Leistungsindikator zeigt die durchschnittliche Wartezeit für Latchanforderungen an, die nicht sofort erfüllt werden konnten. Latchwartezeiten/s Dieser Leistungsindikator zeigt die Anzahl der Latchanforderungen an, die nicht sofort erfüllt werden konnten. 77 Objekte und Indikatoren Beschreibung SQL-Statistik Dieses Objekt stellt Leistungsindikatoren für die Überwachung der Kompilierung und des Typs der Anforderungen zur Verfügung, die an eine Instanz von SQL Server gesendet werden. Die Überwachung der Anzahl der Abfragekompilierungen und Neukompilierungen sowie der Anzahl der Batches, die von einer Instanz von SQL Server empfangen wurden, liefert Ihnen einen Hinweis darauf, wie schnell Benutzerabfragen von SQL Server verarbeitet werden und wie effektiv der Abfrageoptimierer die Abfragen verarbeitet. SQL-Kompilierungen/s Dieser Leistungsindikator zeigt an, wie oft der Pfad für den Kompilierungscode pro Sekunde eingegeben wurde. SQL-Neukompilierungen/s Dieser Leistungsindikator zeigt die Anzahl der erneuten Anweisungskompilierungen pro Sekunde an. Plancache Dieses Objekt stellt Leistungsindikatoren zur Verfügung, mit denen Sie überwachen können, wie SQL Server den Arbeitsspeicher zum Speichern von Objekten wie gespeicherten Prozeduren, Ad-hoc-Anweisungen und vorbereiteten Transact-SQL-Anweisungen sowie Triggern verwendet. Cachetrefferquote Dieser Leistungsindikator zeigt das Verhältnis zwischen Cachetreffern und Plansuchvorgängen an. Puffercache Dieses Objekt stellt Leistungsindikatoren zur Verfügung, mit denen Sie überwachen können, wie SQL Server den Arbeitsspeicher zum Speichern von Datenseiten, internen Datenstrukturen und des Prozedurcaches verwendet. Es stellt darüber hinaus Leistungsindikatoren bereit, um die physikalische E/A zu überwachen, während SQL Server Datenbankseiten liest und schreibt. Puffercache-Trefferquote Dieser Leistungsindikator zeigt den Prozentsatz der Seiten an, die im Puffercache gefunden wurden, ohne dass ein Lesevorgang vom Datenträger 78 Objekte und Indikatoren Beschreibung erforderlich war. Die Quote entspricht der Gesamtzahl von Cachetreffern dividiert durch die Gesamtzahl der Cachesuchvorgänge seit dem Starten einer SQL Server-Instanz. Beseitigen von Engpässen Systemengpässe stellen Konflikte dar, die durch unzureichende Ressourcen bei der Ausführung von Transaktionsanforderungen von Benutzern entstehen. Sie können im Zusammenhang mit physikalischer Hardware, der Betriebsumgebung oder Anwendungen stehen. Häufig sind ineffizienter benutzerdefinierter Code oder unzureichende Drittanbieterlösungen die Ursache für den Engpass und ihre Optimierung könnte zu besseren Ergebnissen führen als Hardware hinzuzufügen. Eine weitere häufige Ursache für Engpässe ist die fehlerhafte Konfiguration der Farm oder eine ineffiziente Lösungsimplementierung, bei der Daten so strukturiert sind, dass zusätzliche Ressourcen notwendig werden. Für einen Systemadministrator ist die konstante Überwachung der Leistung zur Verwaltung von Engpässen unumgänglich. Wird ein Leistungsproblem erkannt, muss die beste Lösung zur Beseitigung des Engpasses erwägt werden. Die Leistungsindikatoren und sonstigen Anwendungen zur Überwachung der Leistung, wie z. B. System Center Operations Manager (SCOM), sind die wichtigsten Tools bei der Nachverfolgung und Analyse von Problemen und helfen Ihnen dabei, Lösungen zu entwickeln. Beseitigung physikalischer Engpässe Physikalische Engpässe entstehen aufgrund von Konflikten von Prozessoren, Datenträgern, Speichern und Netzwerk: es stehen zu viele Anforderungen im Wettbewerb nach zu wenigen physikalischen Ressourcen. Die innerhalb des Themas "Leistungsüberwachung" beschriebenen Objekte und Leistungsindikatoren geben Aufschluss über die Ursache des Leistungsproblems, wie z. B. Hardwareprozessor oder ASP.NET. Für die Beseitigung des Engpasses ist es notwendig, dass Sie das Problem identifizieren und dann Änderungen vornehmen, die das Leistungsproblem entschärfen. Probleme treten selten überraschend auf; wenn Sie die Leistung regelmäßig mithilfe Ihres Tools zur Leistungsüberwachung oder eines ausgefeilten Systems wie SCOM überwachen, ist in der Regel ist eine schrittweise Verschlechterung der Leistung feststellbar. Bei beiden Optionen können Sie in unterschiedlichem Umfang Lösungen in Form von Empfehlungen oder Skriptbefehlen in eine Warnung einbauen. Möglicherweise müssen Sie Engpässe durch Änderungen an Hardware oder Systemkonfigurationen beseitigen, sofern Sie festgestellt haben, dass diese nicht mit einer fehlerhaften Konfiguration, ineffizientem benutzerdefinierten Code, unzureichenden Drittanbieterlösungen oder ineffizienter Lösungsimplementierung zusammenhängen. In den folgenden Tabellen werden Problemschwellenwerte und mögliche Lösungsoptionen aufgeführt. Bei einigen Optionen werden Hardwareupgrades oder -änderungen empfohlen. 79 Objekte und Indikatoren Problem Lösungsoptionen Über 75-85% Upgrade des Prozessors Anzahl Prozessoren erhöhen Prozessor Prozessor - Prozessorzeit (%) Zusätzliche(n) Server hinzufügen Datenträger Durchschnittl. Warteschlangenlänge des Datenträgers Schrittweise Zunahme, System nicht stabil und Rückstau der Warteschlange Anzahl oder Geschwindigkeit von Datenträger erhöhen Arraykonfiguration zu Stripe ändern Einige Daten auf alternativen Server verschieben Leerlaufzeit (%) Höher als 90% Anzahl Datenträger erhöhen Daten auf alternativen Datenträger oder Server verschieben Freier Speicherplatz (%( Weniger als 30% Anzahl Datenträger erhöhen Daten auf alternativen Datenträger oder Server verschieben Arbeitsspeicher Verfügbare MB Weniger als 2 GB auf einem Webserver. Arbeitsspeicher hinzufügen. Hinweis: Der für SQL Server verfügbare Arbeitsspeicher ist entwurfsbedingt niedrig und weist nicht immer auf ein Problem hin. Cachefehler/s Mehr als 1 Arbeitsspeicher hinzufügen Cachegeschwindigkeit oder größe ggf. erhöhen Daten auf alternativen Datenträger oder Server verschieben 80 Objekte und Indikatoren Problem Lösungsoptionen Seiten/s Mehr als 10 Arbeitsspeicher hinzufügen Auslagerungsdatei % belegt und Maximale Belegung % In der Arbeitsspeicher hinzufügen Serverauslagerungsdatei werden "virtuelle" Speicheradressen auf dem Datenträger gespeichert. Seitenfehler treten auf, wenn ein Prozess angehalten wird und warten muss, während erforderliche "virtuelle" Ressourcen vom Datenträger in den Arbeitsspeicher abgerufen werden. Bei unzureichendem physikalischen Speicher treten diese häufiger auf. NIC Gesamtanzahl Bytes/s Über 40-50% der Netzwerkkapazität. Dies ist die Geschwindigkeit, mit der Daten mittels Netzwerkkarte gesendet und empfangen werden. Empfangene Bytes/s und Bytes gesendet/s weiter überwachen Geschwindigkeit der Netzwerkkarte erneut überprüfen Anzahl, Größe und Verwendung von Speicherpuffern überprüfen Prozess Arbeitssatz Über 80% des Gesamtspeicherplatzes Arbeitsspeicher hinzufügen Prozessorzeit (%) Über 75-85% Anzahl Prozessoren erhöhen Arbeitslast auf zusätzliche Server umverteilen ASP.NET AnwendungspoolWiederverwendungen Achten Sie darauf, keine Mehrere täglich, was Einstellungen zu zeitweise auftretende Langsamkeit zur Folge hat implementieren, durch die der Anwendungspool im Verlauf des Tages unnötig wiederverwendet wird. 81 Objekte und Indikatoren Problem Lösungsoptionen Anforderungen in Warteschlange Hunderte oder Tausende von Anforderungen in Warteschlange. Zusätzliche Webserver implementieren Der Standard-Maximalwert für diesen Indikator beträgt 5.000; Sie können diese Einstellung in der Datei Machine.config ändern. Wartezeit der Anforderung Mit steigender Anzahl von Zusätzliche Webserver Warteereignissen sinkt die implementieren Leistung beim Rendern von Seiten für Benutzer. Zurückgewiesene Anforderungen Mehr als 0 Zusätzliche Webserver implementieren Siehe auch Konzepte Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht) Testen der Leistung für SharePoint Server 2010 Kapazitätsplanung für SharePoint Server 2010 Speicher- und SQL Server-Kapazitätsplanung und -Konfiguration (SharePoint Server 2010) Weitere Ressourcen Health Monitoring (SharePoint Server 2010) 82 SharePoint Server 2010Kapazitätsverwaltung: Softwarebeschränkungen und -grenzen In diesem Dokument werden Softwarebeschränkungen und -grenzen von Microsoft SharePoint Server 2010 beschrieben. Hierzu gehören folgende: Beschränkungen: Statische Grenzwerte, die entwurfsbedingt nicht überschritten werden können Schwellenwerte: Konfigurierbare Grenzwerte, die für bestimmte Anforderungen überschritten werden können Unterstützte Grenzwerte: Konfigurierbare Grenzwerte, die standardmäßig auf einen getesteten Wert festgelegt wurden Hinweis: Die in diesem Dokument enthaltenen Informationen zur Kapazitätsplanung bieten Ihnen Hilfestellung bei Ihrem Planungsprozess. Sie stützen sich auf Tests, die bei Microsoft mit realen Ressourcen durchgeführt wurden. Ihre Ergebnisse können jedoch in Abhängigkeit von den verwendeten Anlagen und den Features und Funktionen variieren, die Sie für Ihre Websites implementieren möchten. Inhalt dieses Artikels: Übersicht über Beschränkungen und Grenzen Beschränkungen, Schwellenwerte und unterstützte Grenzwerte Festlegen von Grenzwerten Beschränkungen und Grenzen Grenzen nach Hierarchie Webanwendungsgrenzen Webserver- und Anwendungsservergrenzen Grenzen für Inhaltsdatenbanken Grenzen für Websitesammlungen Listen- und Bibliotheksgrenzen Spaltengrenzen Seitengrenzen Grenzen nach Feature Suchgrenzen Grenzen für den Benutzerprofildienst 83 Inhaltsbereitstellungsgrenzen Bloggrenzen Grenzen für Business Connectivity Services Workflowgrenzen Grenzen für Terminologiespeicher (Datenbank) für verwaltete Metadaten Grenzen für Visio Services Grenzen für PerformancePoint Services Grenzen für Word Automation Services Grenzen für SharePoint Workspace Grenzen für OneNote Grenzen für Office-Webanwendungsdienste Grenzen für Project Server Übersicht über Beschränkungen und Grenzen Dieser Artikel enthält Informationen zur getesteten Leistung und den Kapazitätsgrenzen von SharePoint Server 2010 und stellt Richtlinien für das Verhältnis zwischen diesen Grenzen und einer akzeptablen Leistung bereit. Bestimmen Sie anhand der Informationen in diesem Artikel, ob die von Ihnen geplante Bereitstellung innerhalb der akzeptablen Leistungs- und Kapazitätsgrenzen liegt, um die Grenzwerte in Ihrer Umgebung entsprechend zu konfigurieren. Die Testergebnisse und Richtlinien in diesem Artikel gelten für eine einzelne SharePoint Server 2010-Farm. Möglicherweise werden die Kapazitätsgrenzen der in den Tabellen im Abschnitt Beschränkungen und Grenzen weiter unten in diesem Thema aufgeführten Objekte durch das Hinzufügen von Servern zur Installation nicht erhöht. Allerdings führt das Hinzufügen von Servercomputern zu einer Steigerung des Durchsatzes einer Serverfarm, was bei vielen Objekten erforderlich sein kann, um eine akzeptable Leistung zu erzielen. In einigen Fällen werden bei einem hohen Objektaufkommen in einer Lösung möglicherweise mehr Server in der Farm benötigt. Es gibt zahlreiche Faktoren, die sich auf die Leistung in einer bestimmten Umgebung auswirken können, und jeder dieser Faktoren kann sich auf die Leistung eines anderen Bereichs auswirken. Einige der in diesem Artikel aufgeführten Testergebnisse und Empfehlungen beziehen sich möglicherweise auf Features oder Benutzervorgänge, die es in Ihrer Umgebung nicht gibt, und gelten damit nicht für Ihre Lösung. Präzise Ergebnisse für Ihre eigene Umgebung erhalten Sie nur durch sorgfältiges Testen. Beschränkungen, Schwellenwerte und unterstützte Grenzwerte In SharePoint Server 2010 gibt es bestimmte Grenzwerte, die entwurfsbedingt sind und nicht überschritten werden können, während es sich bei anderen Grenzwerten um Standardwerte handelt, die von einem Farmadministrator geändert werden können. Außerdem gibt es bestimmte Grenzen, die nicht durch einen konfigurierbaren Wert dargestellt werden, beispielsweise die Anzahl von Websitesammlungen pro Webanwendung. Bei Beschränkungen handelt es sich um absolute Grenzwerte, die entwurfsbedingt nicht überschritten werden können. Es ist wichtig, diese Grenzen zu kennen, um 84 sicherzustellen, dass Sie beim Entwerfen Ihrer Farm nicht von falschen Voraussetzungen ausgehen. Ein Beispiel für eine Beschränkung ist die Beschränkung der Dokumentgröße auf 2 GB. Sie können SharePoint Server nicht so konfigurieren, dass Dokumente mit einer Größe von über 2 GB gespeichert werden. Es handelt sich hierbei um einen integrierten absoluten Wert, der entwurfsbedingt nicht überschritten werden kann. Bei Schwellenwerten handelt es sich um Standardwerte, die nur durch Ändern dieses Werts überschritten werden können. Unter bestimmten Bedingungen können Schwellenwerte überschritten werden, um Abweichungen im Farmentwurf Rechnung zu tragen, doch ist es wichtig zu wissen, dass sich dies auf die Leistung der Farm und auch auf den geltenden Wert anderer Grenzen auswirken kann. Der Standardwert bestimmter Schwellenwerte kann nur bis zu einem absoluten Maximalwert überschritten werden. Ein gutes Beispiel hierfür ist die Beschränkung der Dokumentgröße. Standardmäßig ist der Schwellenwert für die Dokumentgröße auf 50 MB festgelegt, er kann jedoch geändert werden, sodass er die maximale Beschränkung von 2 GB unterstützt. Unterstützte Grenzwerte definieren den getesteten Wert für einen bestimmten Parameter. Die Standardwerte für diese Grenzen wurden durch Tests festgelegt und stellen die bekannten Einschränkungen des Produkts dar. Ein Überschreiten dieser unterstützten Grenzwerte kann zu unerwarteten Ergebnissen, signifikanten Leistungseinbußen und anderen negativen Folgen führen. Bei einigen unterstützten Grenzwerten handelt es sich um konfigurierbare Parameter, die standardmäßig auf den empfohlenen Wert festgelegt sind, während andere unterstützte Grenzwerte sich auf Parameter beziehen, die nicht durch einen konfigurierbaren Wert dargestellt werden. Ein Beispiel für einen unterstützten Grenzwert ist die Anzahl von Websitesammlungen pro Webanwendung. Der unterstützte Grenzwert liegt bei 250.000. Dabei handelt es sich um die größte Anzahl von Websitesammlungen pro Webanwendung, die beim Testen die Leistungsbenchmarks erfüllt hat. Es ist wichtig zu wissen, dass viele der in diesem Dokument angegebenen Grenzwerte einen Punkt in einer Kurve darstellen, die eine wachsende Ressourcenlast und einen damit einhergehenden Leistungsverlust bei Zunahme des Werts beschreibt. Deshalb kann das Überschreiten bestimmter Grenzwerte, wie beispielsweise der Anzahl von Websitesammlungen pro Webanwendung, nur zu einem anteiligen Verlust der Farmleistung führen. In den meisten Fällen empfiehlt es sich jedoch, am oder zumindest nah am festgelegten Grenzwert zu operieren, da akzeptable Leistungs- und Zuverlässigkeitsziele sich am ehesten erreichen lassen, wenn der Entwurf einer Farm ein ausgewogenes Verhältnis zwischen Grenzwerten bietet. Richtlinien für Schwellenwerte und unterstützte Grenzwerte werden auf Leistungsbasis bestimmt. Mit anderen Worten, Sie können die Standardwerte für diese Grenzen überschreiten, doch kann es dann zu einer Beeinträchtigung der Farmleistung und zu Auswirkungen auf andere geltende Grenzwerte kommen, wenn Sie den Grenzwert heraufsetzen. Viele Grenzen in SharePoint Server können geändert werden; es ist jedoch wichtig zu wissen, wie sich die Änderung einer bestimmten Grenze auf andere Teile der Farm auswirkt. Festlegen von Grenzwerten 85 In SharePoint Server 2010 werden Schwellenwerte und unterstützte Grenzwerte durch Tests festgelegt sowie durch Beobachten des Farmverhaltens bei zunehmenden Lasten bis zu dem Punkt, an dem Farmdienste und -operationen ihren effektiven Betriebsgrenzwert erreichen. Einige Farmdienste und -komponenten können eine höhere Last unterstützen als andere, sodass Sie in einigen Fällen einen Grenzwert zuweisen müssen, der auf einem Durchschnitt aus mehreren Faktoren beruht. So weisen beispielsweise Beobachtungen des Farmverhaltens unter Last beim Hinzufügen von Websitesammlungen darauf hin, dass bestimmte Funktionen eine inakzeptabel lange Wartezeit aufweisen, während andere Funktionen weiterhin innerhalb akzeptabler Parameter arbeiten. Aus diesem Grund ist der Maximalwert, der der Anzahl von Websitesammlungen zugewiesen wird, nicht absolut, sondern beruht auf einer vorhergesehenen Reihe von Nutzungsmerkmalen, bei der die allgemeine Farmleistung beim festgelegten Grenzwert unter den meisten Umständen akzeptabel ist. Wenn also einige Dienste mit Parametern arbeiten, die über denen liegen, die zum Testen der Grenzwerte verwendet werden, werden die effektiven Maximalgrenzwerte anderer Dienste verringert. Deshalb sind ein striktes Kapazitätsmanagement sowie Skalierungstests für bestimmte Bereitstellungen erforderlich, um effektive Grenzwerte für die jeweilige Umgebung aufzustellen. Hinweis: Dieses Dokument enthält keine Beschreibung der Hardware, die für die Überprüfung der hier genannten Grenzwerte verwendet wurde, da die Grenzwerte aus verschiedenen Farmen und Umgebungen stammen. Eine Beschreibung der bei den Tests verwendeten Farmen finden Sie unter Ergebnisse der Leistungs- und Kapazitätstests und Empfehlungen (SharePoint Server 2010) und Performance and capacity technical case studies (SharePoint Server 2010) (in englischer Sprache). Der Equalizer-Vergleich zur Veranschaulichung Sie können sich Schwellenwerte und unterstützte Grenzwerte wie die Schieberegler eines Grafikequalizers vorstellen, bei dem jeder Grenzwert eine bestimmte Frequenz darstellt. Das Erhöhen eines Grenzwerts kann somit dazu führen, dass der effektive Wert eines oder mehrerer anderer Grenzwerte sinkt. Stellen Sie sich vor, dass ein Schieberegler die maximale Anzahl von Dokumenten pro Bibliothek darstellt, einen unterstützten Grenzwert mit einem getesteten Maximalwert von etwa 30 Millionen. Dieser Wert ist jedoch von einem anderen Regler abhängig, der die maximale Größe von Dokumenten in der Farm darstellt, einen Schwellenwert mit dem Standardwert von 50 MB. Wenn Sie die Maximalgröße von Dokumenten in 1 GB ändern, um Videos oder andere große Objekte einzubeziehen, wird die Anzahl der Dokumente, die von der Bibliothek effizient für Benutzer bereitgestellt werden können, entsprechend reduziert. Beispielsweise kann die Hardwarekonfiguration und Topologie einer bestimmten Farm eine Million Dokumente bis zu 50 MB unterstützen. Die gleiche Farm mit der gleichen Anzahl von Dokumenten kann jedoch nicht dieselben Wartezeit- und Durchsatzziele erreichen, wenn die Farm eine höhere durchschnittliche Dokumentgröße bedient, weil der Grenzwert für die Dateigröße auf 1 GB festgelegt wurde. Das Ausmaß der Reduzierung der maximalen Anzahl von Dokumenten in diesem Beispiel ist schwer vorauszusagen und ist abhängig von der Anzahl großer Dateien in der Bibliothek, dem in ihnen enthaltenen Datenvolumen, den Nutzungsmerkmalen der Farm sowie der Verfügbarkeit von Hardwareressourcen. 86 Beschränkungen und Grenzen In diesem Abschnitt sind die Objekte aufgeführt, die zu einer Lösung gehören können, sowie Richtlinien für eine akzeptable Leistung der einzelnen Objekte. Eine akzeptable Leistung bedeutet, dass das System gemäß Test diese Anzahl an Objekten unterstützen kann, dass die Anzahl jedoch nicht überschritten werden kann, ohne dass es zu Leistungsbeeinträchtigungen oder einer Reduzierung zugehöriger Grenzwerte kommt. Objekte werden sowohl nach Größe als auch nach Feature aufgelistet. Grenzwerte werden zusammen mit Hinweisen zur Beschreibung der Bedingungen bereitgestellt, unter denen der Grenzwert erreicht wird, sowie mit Links zu ggf. verfügbaren zusätzlichen Informationen. Überprüfen Sie mithilfe der Richtlinien in diesem Artikel Ihre allgemeinen Lösungspläne. Wenn Ihre Lösungspläne die empfohlenen Richtlinien für ein oder mehrere Objekte überschreiten, führen Sie eine oder mehrere der folgenden Aktionen durch: Überprüfen Sie die Lösung, um sicherzustellen, dass in anderen Bereichen ein Ausgleich stattfindet. Kennzeichnen Sie diese Bereiche, um sie beim Erstellen Ihrer Bereitstellung zu testen und zu überwachen. Entwerfen Sie die Lösung neu, oder teilen Sie sie auf, um sicherzustellen, dass keine Kapazitätsrichtlinien überschritten werden. Grenzen nach Hierarchie Dieser Abschnitt enthält Grenzen, die nach der logischen Hierarchie einer SharePoint Server 2010-Farm geordnet sind. Webanwendungsgrenzen Die folgende Tabelle enthält die empfohlenen Richtlinien für Webanwendungen. Grenze Maximalwert Grenztyp Hinweise Inhaltsdatenbank 300 pro Webanwendung Unterstützt Bei 300 Inhaltsdatenbanken pro Webanwendung werden Endbenutzeroperationen wie das Öffnen der Website oder Websitesammlungen nicht beeinträchtigt. Zu Leistungsbeeinträchtigungen kommt es jedoch bei Verwaltungsoperationen wie dem Erstellen einer neuen Websitesammlung. Sie sollten Windows PowerShell zum Verwalten der Webanwendung verwenden, wenn eine große Anzahl von Inhaltsdatenbanken vorliegt, da die Verwaltungsschnittstelle langsam und die Navigation 87 Grenze Maximalwert Grenztyp Hinweise erschwert wird. Zone 5 pro Webanwendung Beschränkung Die Anzahl der für eine Farm definierten Zonen ist auf 5 hartcodiert. Zu den Zonen gehören "Standard", "Intranet", "Extranet", "Internet" und "Benutzerdefiniert". Verwalteter Pfad 20 pro Webanwendung Größe des Lösungscaches 300 MB pro Webanwendung Unterstützt Verwaltete Pfade werden auf dem Webserver zwischengespeichert, und CPU-Ressourcen werden verwendet, um eingehende Anforderungen anhand der Liste verwalteter Pfade zu verarbeiten. Das Überschreiten von 20 verwalteten Pfaden pro Webanwendung bedeutet für den Webserver mit jeder Anforderung mehr Last. Wenn Sie beabsichtigen, 20 verwaltete Pfade in einer bestimmten Webanwendung zu überschreiten, sollten Sie testen, ob die entsprechende Systemleistung akzeptabel ist. Schwellenwert Der Lösungscache ermöglicht es dem InfoPathFormulardienst, Lösungen im Cache aufzubewahren, um das Abrufen der Lösungen zu beschleunigen. Wird die Cachegröße überschritten, werden Lösungen vom Datenträger abgerufen, was zu langsameren Antwortzeiten führen kann. Sie können die Größe des Lösungscaches mithilfe des Windows PowerShell-Cmdlets SetSPInfoPathFormsService konfigurieren. Weitere 88 Grenze Maximalwert Grenztyp Hinweise Informationen finden Sie unter SetSPInfoPathFormsService. Webserver- und Anwendungsservergrenzen In der folgenden Tabelle sind die empfohlenen Richtlinien für Webserver in der Farm aufgelistet. Grenze Maximalwert Grenztyp Hinweise Anwendungspools 10 pro Webserver Unterstützt Die maximale Anzahl wird durch Hardwareressourcen bestimmt. Diese Grenze hängt weitgehend von folgenden Faktoren ab: Der Menge an RAM, die den Webservern zugewiesen ist Der Arbeitslast, die von der Farm verarbeitet wird, also die Benutzerbasis und die Nutzungsmerkmale (ein hoch aktiver Anwendungspool kann 10 GB und mehr erreichen) Grenzen für Inhaltsdatenbanken Die folgende Tabelle enthält die empfohlenen Richtlinien für Inhaltsdatenbanken. Grenze Maximalwert Grenztyp Hinweise Größe von Inhaltsdatenbanken 200 GB pro Inhaltsdatenbank Unterstützt Sie sollten die Größe von Inhaltsdatenbanken unbedingt auf 200 GB beschränken, um die Aufrechterhaltung der Systemleistung sicherzustellen. Inhaltsdatenbanken mit 89 Grenze Maximalwert Grenztyp Hinweise einer Größe bis zu 1 Terabyte werden nur bei großen Repositorys mit einer Website und Archiven mit nicht gemeinsamen E/A- und Nutzungsmustern wie Datenarchiven unterstützt. Größere Datenbanken werden für diese Szenarien unterstützt, weil ihre E/AMuster und typischen Datenstrukturformate für größere Größen entwickelt und getestet wurden. Weitere Informationen zu großen Dokumentrepositorys finden Sie in "Schätzen von Leistungs- und Kapazitätsanforderungen für große Dokumentrepositorys" unter Ergebnisse der Leistungs- und Kapazitätstests und Empfehlungen (SharePoint Server 2010) und in Standardszenarien der Verwaltung umfangreicher Inhalte unter Enterprise content storage planning (SharePoint Server 2010). Eine Websitesammlung sollte 100 GB nur dann überschreiten, wenn es sich um die einzige Websitesammlung in der Datenbank handelt. Websitesammlungen pro Inhaltsdatenbank 2.000 empfohlen 5.000 maximal Unterstützt 90 Es wird empfohlen, die Anzahl der Websitesammlungen in einer Inhaltsdatenbank Grenze Maximalwert Grenztyp Hinweise auf 2.000 zu beschränken. Unterstützt werden jedoch bis zu 5.000 Websitesammlungen in einer Datenbank. Diese Grenzwerte stehen im Zusammenhang mit der Upgradegeschwindigkeit. Je höher die Anzahl von Websitesammlungen in einer Datenbank, desto langsamer das Upgrade. Die Begrenzung der Anzahl von Websitesammlungen in einer Datenbank ist der Begrenzung der Größe einer Inhaltsdatenbank untergeordnet, die mehrere Websitesammlungen umfasst (200 GB). Aus diesem Grund muss mit der zunehmenden Anzahl von Websitesammlungen in einer Datenbank die Durchschnittsgröße der in der Datenbank enthaltenen Websitesammlungen abnehmen. Mit dem Überschreiten des Grenzwerts von 2.000 Websitesammlungen riskieren Sie bei Upgrades längere Ausfallzeiten. Wenn Sie beabsichtigen, 2.000 Websitesammlungen zu überschreiten, sollten Sie über eine klare Upgradestrategie verfügen und zusätzliche Hardware erwerben, um 91 Grenze Maximalwert Grenztyp Hinweise Upgrades und Softwareupdates, die sich auf Datenbanken auswirken, zu beschleunigen. Verwenden Sie zum Festlegen der Warnstufe für die Anzahl der Websites in einer Inhaltsdatenbank das Windows PowerShellCmdlet SetSPContentDatabase mit dem WarningSiteCountParameter. Weitere Informationen finden Sie unter SetSPContentDatabase. Remote-BLOBDie Zeit bis zum ersten Beschränkung Wenn SharePoint Server Speichersubsystem Byte einer Antwort vom 2010 für die Verwendung (RBS) in Network NAS darf 20 von RBS konfiguriert ist Attached Storage (NAS) Millisekunden nicht und die BLOBs in NAS überschreiten gespeichert sind, sollten Sie die folgende Beschränkung berücksichtigen. Von dem Zeitpunkt, an dem SharePoint Server 2010 ein BLOB anfordert, bis zum Empfang des ersten Bytes vom NAS dürfen nicht mehr als 20 Millisekunden vergehen. Grenzen für Websitesammlungen Die folgende Tabelle enthält die empfohlenen Richtlinien für Websitesammlungen. Grenze Maximalwert Grenztyp Website 250.000 pro Websitesammlung Unterstützt Die empfohlene Maximalzahl von Websites und Unterwebsites liegt bei 92 Hinweise Grenze Maximalwert Grenztyp Hinweise 250.000 Websites. Sie können eine sehr große Gesamtanzahl von Websites durch Schachteln von Unterwebsites erstellen. So hätten Sie beispielsweise in einer flachen Hierarchie mit 100 Websites mit jeweils 1.000 Unterwebsites eine Gesamtzahl von 100.000 Websites. Hinweis: Das Löschen oder Erstellen einer Website oder Unterwebsite kann sich signifikant auf die Verfügbarkeit einer Website auswirken. Während des Löschens der Website ist der Zugriff auf die Website und die Unterwebsites eingeschränkt. Außerdem kann der Versuch, mehrere Unterwebsites gleichzeitig zu erstellen, fehlschlagen. Größe einer Websitesammlung 100 GB pro Websitesammlung Unterstützt Eine Websitesammlung sollte 100 GB nur dann überschreiten, wenn es sich um die einzige Websitesammlung in der Datenbank handelt. Einige Websitesammlungsaktionen, z. B. die Sicherung/Wiederherstellung von Websites oder das Windows PowerShellCmdlet Move-SPSite, führen zu großen Microsoft SQL Server-Operationen, die sich auf die Leistung auswirken oder fehlschlagen können, wenn andere Websitesammlungen in derselben Datenbank aktiv sind. Weitere Informationen finden Sie unter MoveSPSite. 93 Listen- und Bibliotheksgrenzen Die folgende Tabelle enthält die empfohlenen Richtlinien für Listen und Bibliotheken. Weitere Informationen finden Sie im Whitepaper "Entwerfen umfangreicher Listen und Maximieren der Leistung von Listen" unter Ergebnisse der Leistungs- und Kapazitätstests und Empfehlungen (SharePoint Server 2010). Grenze Maximalwert Grenztyp Hinweise Listenzeilengröße 8.000 Bytes pro Beschränku Jedes Listen- bzw. Bibliothekselement Zeile kann nur insgesamt 8.000 Bytes in der ng Datenbank belegen. 256 Bytes sind für integrierte Spalten reserviert, sodass 7.774 Bytes für Endbenutzerspalten übrig bleiben. Weitere Informationen über den Platzanspruch der einzelnen Felder finden Sie unter Spaltengrenzen. Dateigröße 2 GB Dokumente 30.000.000 pro Unterstützt Bibliothek Sie können sehr große Dokumentbibliotheken durch Schachteln von Ordnern erstellen oder indem Sie Standardansichten und eine Websitehierarchie verwenden. Dieser Wert kann je nach Organisation der Dokumente und Ordner sowie je nach Art und der Größe der gespeicherten Dokumente variieren. Hauptversionen 400.000 Wenn Sie diesen Grenzwert überschreiten, können allgemeine Dateioperationen – wie das Öffnen, Speichern und Löschen von Dateien oder Anzeigen des Dateiverlaufs – möglicherweise nicht mehr erfolgreich ausgeführt werden. Elemente 30.000.000 pro Unterstützt Liste Beschränku Die maximale Dateigröße liegt ng standardmäßig bei 50 MB. Sie kann auf 2 GB erhöht werden, doch können sich viele sehr große Dateien auf die Farmleistung auswirken. Unterstützt 94 Sie können sehr große Listen erstellen, indem Sie Standardansichten, Websitehierarchien und die Metadatennavigation verwenden. Dieser Wert kann je nach Anzahl der Grenze Maximalwert Grenztyp Hinweise Spalten in der Liste und der Nutzung der Liste variieren. Zeilengrößengrenz 6 interne Unterstützt Tabellenzeilen e in der Datenbank, die für ein Listenoder ein Bibliothekselem ent verwendet werden Gibt die maximale Anzahl von internen Tabellenzeilen der Datenbank an, die für ein Listen- oder Bibliothekselement verwendet werden können. Für breite Listen mit vielen Spalten kann jedes Element über mehrere interne Tabellenzeilen umbrochen werden (standardmäßig über bis zu sechs Zeilen). Diese Konfiguration kann nur mithilfe des Objektmodells von Farmadministratoren vorgenommen werden. Die Objektmodellmethode ist SPWebApplication.MaxListItemRowSto rage. Massenvorgänge 100 Elemente Beschränku Die Benutzeroberfläche lässt eine pro ng Auswahl von maximal 100 Elementen Massenvorgang für Massenvorgänge zu. Schwellenw Gibt die maximale Anzahl von JOINSchwellenwert für 8 JOINOperationen pro ert Operationen pro Abfrage an, wie den Listenansichtbeispielsweise solchen, die auf Nachschlagevorga Abfrage Nachschlagespalten, Person/Gruppeng Spalten oder Workflowstatusspalten basieren. Werden in der Abfrage mehr als acht JOIN-Operationen verwendet, wird der Vorgang blockiert. Dies gilt nicht für Operationen mit einzelnen Elementen. Bei Verwendung der Maximalansicht über das Objektmodell (indem keine Ansichtsfelder angegeben werden) gibt SharePoint die ersten acht Nachschlagevorgänge zurück. Schwellenwert für 5.000 die Listenansicht Schwellenw Gibt die maximale Anzahl von Listenert oder Bibliothekselementen an, die mit einem Datenbankvorgang (beispielsweise einer Abfrage) außerhalb des vom Administrator festgelegten täglichen Zeitfensters, in dem keine Einschränkungen für Abfragen bestehen, gleichzeitig verarbeitet werden können. Schwellenwert für 20.000 Listenansicht für Auditoren und Schwellenw Gibt die maximale Anzahl von Listenert oder Bibliothekselementen an, die mit einem Datenbankvorgang 95 Grenze Maximalwert Grenztyp Administratoren Unterwebsite Hinweise (beispielsweise einer Abfrage) gleichzeitig verarbeitet werden können, wenn der Vorgang von einem Auditor oder Administrator mit entsprechenden Berechtigungen ausgeführt wird. Diese Einstellung funktioniert mit Außerkraftsetzung des Objektmodells zulassen. 2.000 pro Schwellenw Die Leistung der Schnittstelle für das Websiteansicht ert Aufzählen von Unterwebsites einer bestimmten Website ist nicht optimal, wenn die Anzahl der Unterwebsites über 2.000 liegt. Außerdem nimmt die Leistung der Seite Gesamter Websiteinhalt und des Strukturansicht-Steuerelements mit der wachsenden Zahl von Unterwebsites signifikant ab. Gemeinsame 10 Bearbeiter Schwellenw Die empfohlene maximale Anzahl Dokumenterstellun gleichzeitig pro ert gleichzeitiger Bearbeiter liegt bei 10. g in Microsoft Dokument Der Höchstwert liegt bei 99. Word und Wenn 99 Bearbeiter gleichzeitig ein Microsoft Dokument zur gemeinsamen PowerPoint für Bearbeitung geöffnet haben, wird ab DOCX-, PPTXdem 100. Benutzer jedem Benutzer der und PPSXFehler "Dokument wird verwendet" Dateien angezeigt, und er muss eine schreibgeschützte Kopie anzeigen. Bei mehr als 10 Bearbeitern gleichzeitig kommt es zu einer sukzessiven Beeinträchtigung der Benutzererfahrung durch mehr Konflikte, und es sind mehr Wiederholungen nötig, um Änderungen erfolgreich hochzuladen. Sicherheitsbereich 1.000 pro Liste Schwellenw Die maximale Anzahl eindeutiger ert Sicherheitsbereiche, die für eine Liste festgelegt werden, sollte 1.000 nicht überschreiten. Ein Bereich ist die Sicherheitsbeschränkung für ein sicherungsfähiges Objekt und all seine untergeordneten Objekte, für die keine separate Sicherheitsbeschränkung vorliegt. Ein Bereich enthält eine 96 Grenze Maximalwert Grenztyp Hinweise Zugriffssteuerungsliste (Access Control List, ACL), doch im Gegensatz zu NTFS-Zugriffssteuerungslisten kann ein Bereich spezifische Sicherheitsprinzipale für SharePoint Server enthalten. Zu den Mitgliedern der Zugriffssteuerungsliste eines Bereichs können Windows-Benutzer, andere, nicht Windows-basierte Benutzerkonten (z. B. formularbasierte Konten), Active Directory-Gruppen oder SharePoint-Gruppen gehören. Spaltengrenzen SharePoint Server 2010-Daten werden in SQL Server-Tabellen gespeichert. Um die maximale Anzahl möglicher Spalten in einer SharePoint-Liste zuzulassen, erstellt SharePoint Server mehrere Zeilen in der Datenbank, wenn Daten nicht in eine Zeile passen. Dieser Vorgang wird Zeilenumbruch genannt. Sobald eine Zeile in SQL Server umbrochen wird, wird der Server bei Abfragen dieses Elements zusätzlich belastet, da ein SQL-Join in der Abfrage enthalten sein muss. Um eine zu große Last zu verhindern, sind standardmäßig maximal sechs SQL Server-Zeilen für ein SharePoint-Element zugelassen. Dieser Grenzwert führt zu einer bestimmten Beschränkung der Anzahl von Spalten, die in einer SharePoint-Liste enthalten sein können. In der folgenden Tabelle werden die Grenzwerte für die einzelnen Spaltentypen erläutert. Der Zeilenumbruchparameter kann auf mehr als sechs erhöht werden, doch kann dies zu einer zu hohen Serverlast führen. Vor dem Überschreiten dieses Grenzwerts sollten deshalb Leistungstests durchgeführt werden. Weitere Informationen finden Sie im Whitepaper "Entwerfen umfangreicher Listen und Maximieren der Leistung von Listen" unter Ergebnisse der Leistungs- und Kapazitätstests und Empfehlungen (SharePoint Server 2010). Für jeden Spaltentyp ist ein Größenwert in Bytes aufgelistet. Die Summe aller Spalten in einer SharePoint-Liste kann 8.000 Bytes nicht übersteigen. Je nach Spaltennutzung können Benutzer die Grenze von 8.000 Bytes vor der Zeilenumbruchgrenze von sechs Zeilen erreichen. Grenze Maximalwert Grenztyp Eine Textzeile 276 Schwellenwert 28 Bytes Größe pro Spalte 97 Hinweise Ein SQL Server-Zeilenumbruch erfolgt nach 64 Spalten in einer SharePoint-Liste. Der Standardwert von sechs Zeilen für den Zeilenumbruch lässt pro SharePoint-Liste maximal 384 Grenze Maximalwert Grenztyp Größe pro Spalte Hinweise Spalten mit einer Textzeile zu (6 x 64 = 384). Da der Grenzwert pro SharePointListenelement jedoch bei 8.000 Bytes liegt, von denen 256 Bytes für integrierte SharePoint-Spalten reserviert sind, liegt die tatsächliche Grenze bei 276 Spalten mit einer Textzeile. Mehrere Textzeilen 192 Schwellenwert 28 Bytes Ein SQL Server-Zeilenumbruch erfolgt nach 32 Spalten in einer SharePoint-Liste. Der Standardwert von sechs Zeilen für den Zeilenumbruch lässt pro SharePoint-Liste maximal 192 Spalten mit mehreren Textzeilen zu (6 x 32 = 192). Auswahl 276 Schwellenwert 28 Bytes Ein SQL Server-Zeilenumbruch erfolgt nach 64 Spalten in einer SharePoint-Liste. Der Standardwert von sechs Zeilen für den Zeilenumbruch lässt pro SharePoint-Liste maximal 394 Auswahlspalten zu (6 x 64 = 384). Da der Grenzwert pro SharePoint-Listenelement jedoch bei 8.000 Bytes liegt, von denen 256 Bytes für integrierte SharePoint-Spalten reserviert sind, liegt die tatsächliche Grenze bei 276 Auswahlspalten. Zahl 72 Schwellenwert 12 Bytes Ein SQL Server-Zeilenumbruch erfolgt nach 12 Spalten in einer SharePoint-Liste. Der Standardwert von sechs Zeilen für den Zeilenumbruch lässt pro SharePoint-Liste maximal 72 Zahlenspalten zu (6 x 12 = 72). Währung 72 Schwellenwert 12 Bytes Ein SQL Server-Zeilenumbruch erfolgt nach 12 Spalten in einer SharePoint-Liste. Der Standardwert von sechs Zeilen 98 Grenze Maximalwert Grenztyp Größe pro Spalte Hinweise für den Zeilenumbruch lässt pro SharePoint-Liste maximal 72 Währungsspalten zu (6 x 12 = 72). Datum und Uhrzeit 48 Schwellenwert 12 Bytes Nachschlagen 96 Schwellenwert 4 Bytes Ein SQL Server-Zeilenumbruch erfolgt nach 16 Spalten in einer SharePoint-Liste. Der Standardwert von sechs Zeilen für den Zeilenumbruch lässt pro SharePoint-Liste maximal 96 Nachschlagespalten mit einem Wert zu (6 x 16 = 96). Ja/Nein 96 Schwellenwert 5 Bytes Ein SQL Server-Zeilenumbruch erfolgt nach 16 Spalten in einer SharePoint-Liste. Der Standardwert von sechs Zeilen für den Zeilenumbruch lässt pro SharePoint-Liste maximal 96 Ja/Nein-Spalten zu (6 x 16 = 96). Person oder Gruppe 96 Schwellenwert 4 Bytes Ein SQL Server-Zeilenumbruch erfolgt nach 16 Spalten in einer SharePoint-Liste. Der Standardwert von sechs Zeilen für den Zeilenumbruch lässt pro SharePoint-Liste maximal 96 Personen- oder Gruppenspalten zu (6 x 16 = 96). Link oder Bild 138 Schwellenwert 56 Bytes 99 Ein SQL Server-Zeilenumbruch erfolgt nach 8 Spalten in einer SharePoint-Liste. Der Standardwert von sechs Zeilen für den Zeilenumbruch lässt pro SharePoint-Liste maximal 48 Datums- und Uhrzeitspalten zu (6 x 8 = 48). Ein SQL Server-Zeilenumbruch erfolgt nach 32 Spalten in einer SharePoint-Liste. Der Standardwert von sechs Zeilen für den Zeilenumbruch lässt pro SharePoint-Liste maximal 192 Grenze Maximalwert Grenztyp Größe pro Spalte Hinweise Link- oder Bildspalten zu (6 x 32 = 192). Da der Grenzwert pro SharePoint-Listenelement jedoch bei 8.000 Bytes liegt, von denen 256 Bytes für integrierte SharePoint-Spalten reserviert sind, liegt die tatsächliche Grenze bei 138 Link- oder Bildspalten. Berechnet 48 Schwellenwert 28 Bytes Ein SQL Server-Zeilenumbruch erfolgt nach 8 Spalten in einer SharePoint-Liste. Der Standardwert von sechs Zeilen für den Zeilenumbruch lässt pro SharePoint-Liste maximal 48 berechnete Spalten zu (6 x 8 = 48). GUID 6 Schwellenwert 20 Bytes Ein SQL Server-Zeilenumbruch erfolgt nach jeder Spalte in einer SharePoint-Liste. Der Standardwert von sechs Zeilen für den Zeilenumbruch lässt pro SharePoint-Liste maximal sechs GUID-Spalten zu (6 x 1 = 6). Int 96 Schwellenwert 4 Bytes Ein SQL Server-Zeilenumbruch erfolgt nach 16 Spalten in einer SharePoint-Liste. Der Standardwert von sechs Zeilen für den Zeilenumbruch lässt pro SharePoint-Liste maximal 96 Int-Spalten zu (6 x 16 = 96). Verwaltete Metadaten 94 Schwellenwert 40 Dem ersten verwalteten Bytes Metadatenfeld, das einer Liste für die hinzugefügt wird, werden vier erste, Spalten zugewiesen: 32 für Ein Nachschlagefeld für jede das eigentliche Tag folgende Ein ausgeblendetes Textfeld für den Zeichenfolgenwert 100 Ein Nachschlagefeld für den Catch-All Grenze Maximalwert Grenztyp Größe pro Spalte Hinweise Ein Nachschlagefeld für den Catch-All-Überlauf Für jedes folgende verwaltete Metadatenfeld, das einer Liste hinzugefügt wird, werden zwei weitere Spalten hinzugefügt: Ein Nachschlagefeld für das eigentliche Tag Ein ausgeblendetes Textfeld für den Zeichenfolgenwert Die maximale Anzahl von Spalten verwalteter Metadaten wird mit (14 + (16 x (n-1)) berechnet, wobei n der Zeilenzuordnungswert ist (Standard: 6). Spalten für externe Daten folgen dem Konzept einer primären Spalte und sekundärer Spalten. Wenn Sie eine externe Datenspalte hinzufügen, können Sie einige sekundäre Felder des externen Inhaltstyps auswählen, die der Liste hinzugefügt werden sollen. So können Sie bei Hinzufügen einer externen Datenspalte vom Inhaltstyp "Kunde", der Felder wie "ID", "Name", "Land" und "Beschreibung" besitzt, sekundäre Felder hinzufügen, um "ID", "Name" und "Beschreibung" des Kunden anzuzeigen. Im Allgemeinen werden folgende Spalten hinzugefügt: Primäre Spalte: ein Textfeld Ausgeblendete ID-Spalte: ein mehrzeiliges Textfeld. Sekundäre Spalten: Jede sekundäre Spalte enthält einen Text/eine Zahl/einen booleschen Wert/mehrzeiligen Text basierend auf dem im GeschäftsdatenkatalogModell definierten Datentyp der sekundären Spalte. So kann beispielsweise "ID" einer Zahlenspalte, "Name" einer Spalte mit einer Textzeile und "Beschreibung" einer Spalte mit mehreren Textzeilen zugeordnet sein. Seitengrenzen Die folgende Tabelle enthält die empfohlenen Richtlinien für Seiten. Grenze Maximalwert Grenztyp Webparts 25 pro Wiki- oder Webpartseite Schwellenwert Bei dieser Zahl handelt es sich um eine Schätzung 101 Hinweise Grenze Maximalwert Grenztyp Hinweise auf der Grundlage einfacher Webparts. Wie viele Webparts auf einer Seite verwendet werden können, bevor die Leistung beeinträchtigt wird, hängt von der Komplexität der Webparts ab. Sicherheitsgrenzen Grenze Maximalwert Anzahl der 5.000 SharePointGruppen, zu denen ein Benutzer gehören kann Grenztyp Hinweise Unterstütz Dies ist keine harte Grenze, entspricht aber den Active t Directory-Richtlinien. Die Zahl wird von mehreren Faktoren beeinflusst: Größe des Benutzertokens 102 Gruppencache: SharePoint Server 2010 besitzt eine Tabelle, in der die Anzahl der Gruppen, zu denen ein Benutzer gehört, zwischengespeichert wird, sobald diese Gruppen in Zugriffssteuerungslisten verwendet werden. Sicherheitsüberprüfungszeit: Mit der wachsenden Zahl von Benutzergruppen, zu denen ein Benutzer gehört, nimmt auch die für die Zugriffsüberprüfung erforderliche Zeit zu. Grenze Maximalwert Benutzer in einer 2 Millionen pro Websitesammlung Websitesammlung Grenztyp Hinweise Unterstütz Sie können Ihrer Website Millionen t von Personen hinzufügen, indem Sie die Sicherheit mithilfe von Microsoft WindowsSicherheitsgruppen anstatt über einzelne Benutzer verwalten. Bei dieser Grenze werden Verwaltbarkeit und die einfache Navigation auf der Benutzeroberfläche berücksichtigt. Wenn Sie zahlreiche Einträge (Sicherheitsgruppen mit Benutzern) in der Websitesammlung haben (über 1.000), sollten Sie anstelle der Benutzeroberfläche Windows PowerShell verwenden, um Benutzer zu verwalten. Auf diese Weise können Sie die Verwaltung vereinfachen. Active Directory5.000 pro SharePoint- Unterstütz Prinzipale/Benutzer Gruppe t in einer SharePoint-Gruppe In SharePoint Server 2010 können Sie Benutzer oder Active DirectoryGruppen einer SharePoint-Gruppe hinzufügen. Eine Zahl von bis zu 5.000 Benutzern (bzw. Active DirectoryGruppen oder -Benutzer) in einer SharePoint-Gruppe bietet eine akzeptable Leistung. Folgende Aktivitäten sind am stärksten von dieser Grenze betroffen: Das Abrufen von Benutzern zur Überprüfung von Berechtigungen. Dieser Vorgang nimmt mit der zunehmenden Anzahl von Benutzern in einer Gruppe inkrementell mehr Zeit in Anspruch. 103 Das Rendern der Mitgliedschaft in der Ansicht. Dieser Vorgang erfordert stets Zeit. Grenze Maximalwert Grenztyp Hinweise SharePointGruppen 10.000 pro Websitesammlung Unterstütz Bei mehr als 10.000 Gruppen nimmt die zum Ausführen von t Vorgängen erforderliche Zeit beträchtlich zu. Dies gilt vor allem für das Hinzufügen eines Benutzers zu einer vorhandenen Gruppe, das Erstellen einer neuen Gruppe und das Rendern von Gruppenansichten. Sicherheitsprinzipal 5.000 pro Unterstütz Die Größe des Bereichs wirkt sich Zugriffssteuerungslist t : Größe des auf die Daten aus, die für eine Sicherheitsbereichs e Sicherheitsüberprüfungsberechnun g verwendet werden. Diese Berechnung erfolgt jedes Mal, wenn der Bereich sich ändert. Es gibt keine harte Grenze, doch dauert die Berechnung umso länger, je größer der Bereich ist. Grenzen nach Feature In diesem Abschnitt werden die Grenzen nach Feature aufgelistet. Suchgrenzen Die folgende Tabelle enthält die empfohlenen Richtlinien für die Suche. Grenze Maximalwert SharePoint20 pro Farm Suchdienstanwendung en Grenztyp Hinweise Unterstütz In einer Farm können t mehrere SharePointSuchdienstanwendungen bereitgestellt werden, da Sie Suchkomponenten und Datenbanken separaten Servern zuweisen können. Die empfohlene Grenze von 20 ist niedriger als die maximale Grenze für alle Dienstanwendungen in einer Farm. Durchforstungsdatenb 10 Schwellen Die Durchforstungsdatenbank anken und Durchforstungsdatenba wert speichert die datenbankelemente nken pro Durchforstungsdaten Suchdienstanwendung (Zeit/Status usw.) zu allen Elementen, die durchforstet 104 Grenze Maximalwert 25 Millionen Elemente pro Durchforstungsdatenba nk Grenztyp Hinweise wurden. Der unterstützte Grenzwert liegt bei 10 Durchforstungsdatenbanken pro SharePointSuchdienstanwendung. Die empfohlene Grenze liegt bei 25 Millionen Elementen pro Durchforstungsdatenbank (oder insgesamt vier Durchforstungsdatenbanken pro Suchdienstanwendung). Durchforstungskompon 16 pro Schwellen Die empfohlene Grenze pro enten Suchdienstanwendung wert Anwendung liegt bei 16 Durchforstungskomponenten insgesamt, mit jeweils zwei pro Durchforstungsdatenbank und zwei pro Server – unter der Voraussetzung, dass der Server mindestens acht Prozessoren (Kerne) besitzt. Die Gesamtzahl von Durchforstungskomponenten pro Server muss niedriger sein als 128/(Abfragekomponenten insgesamt), um die Verschlechterung der Verteilungs-E/A zu minimieren. Das Überschreiten der empfohlenen Grenze muss die Durchforstungsleistung nicht erhöhen; tatsächlich kann die Durchforstungsleistung in Abhängigkeit von den verfügbaren Ressourcen des Durchforstungsservers, der Datenbank und des Inhaltshosts abnehmen. Indexpartitionen 20 pro Schwellen Die Indexpartition beinhaltet Suchdienstanwendung; wert einen Teil des Indexes der 128 insgesamt Suchdienstanwendung. Die empfohlene Grenze ist 20. Eine Erhöhung der Anzahl von Indexpartitionen führt dazu, dass jede Partition 105 Grenze Maximalwert Grenztyp Hinweise einen kleineren Teil des Indexes umfasst und dadurch RAM und Festplattenspeicher reduziert werden, die auf dem Abfrageserver mit der Abfragekomponente benötigt werden, die der Indexpartition zugewiesen ist. Die Gesamtanzahl der Indexpartitionen ist auf 128 beschränkt. Indizierte Elemente 100 Millionen pro Unterstütz Die SharePoint-Suche Suchdienstanwendung; t unterstützt Indexpartitionen, 10 Millionen pro von denen jede jeweils einen Indexpartition Teil des Suchindexes enthält. Das empfohlene Maximum liegt bei zehn Millionen Elementen in einer Partition. Die insgesamt empfohlene maximale Anzahl von Elementen (beispielsweise Personen, Listenelemente, Dokumente, Webseiten) liegt bei 100 Millionen. Durchforstungsprotokol 100 Millionen pro Suchanwendung leinträge Unterstütz Dies ist die Anzahl einzelner Protokolleinträge im t Durchforstungsprotokoll. Sie richtet sich nach der Grenze für indizierte Elemente. Eigenschaftendatenba 10 pro Schwellen Die Eigenschaftendatenbank nken Suchdienstanwendung; wert speichert die Metadaten für 128 insgesamt Elemente in den ihr zugeordneten Indexpartitionen. Eine Indexpartition kann nur einem Eigenschaftenspeicher zugeordnet sein. Die empfohlene Grenze liegt bei zehn Eigenschaftendatenbanken pro Suchdienstanwendung. Die Beschränkung für Indexpartitionen liegt bei 128. Abfragekomponenten 128 pro Schwellen Die Gesamtzahl der Suchanwendung; wert Abfragekomponenten wird 64/(Durchforstungskom durch die Fähigkeit der 106 Grenze Maximalwert Grenztyp ponenten insgesamt) pro Server Hinweise Durchforstungskomponenten zum Kopieren von Dateien beschränkt. Die maximale Anzahl von Abfragekomponenten pro Server wird durch die Fähigkeit der Abfragekomponenten zur Aufnahme der von den Durchforstungskomponenten verteilten Dateien begrenzt. Bereichsregeln 100 Bereichsregeln pro Schwellen Bei Überschreiten dieser Bereich; 600 insgesamt wert Grenze nimmt die Aktualität pro der Durchforstung ab, und Suchdienstanwendung mögliche Ergebnisse von Abfragen mit zugewiesenen Bereichen werden verzögert. Bereiche 200 pro Website Schwellen Hierbei handelt es sich um wert eine empfohlene Grenze pro Website. Das Überschreiten dieser Grenze kann dazu führen, dass die Durchforstungseffizienz abnimmt, und sich auf die Browserwartezeit für Endbenutzer auswirken, falls die Bereiche zur Anzeigegruppe hinzugefügt werden. Außerdem verschlechtert sich die Anzeige der Bereiche in der Verwaltungsoberfläche der Suche, wenn die Anzahl der Bereiche die empfohlene Grenze übersteigt. Anzeigegruppen 25 pro Website Schwellen Anzeigegruppen werden für wert eine gruppierte Anzeige von Bereichen über die Benutzeroberfläche verwendet. Mit dem Überschreiten dieser Grenze verschlechtert sich die Bereichsfunktionalität in der Verwaltungsoberfläche der Suche. 107 Grenze Maximalwert Grenztyp Hinweise Benachrichtigungen 1.000.000 pro Suchanwendung Unterstütz Hierbei handelt es sich um den getesteten Grenzwert. t Inhaltsquellen 50 pro Schwellen Die empfohlene Grenze von Suchdienstanwendung wert 50 kann bis zur Grenze von 500 pro Suchdienstanwendung überschritten werden. Es sollten jedoch weniger Startadressen verwendet werden. Außerdem muss die Grenze für gleichzeitige Durchforstungen berücksichtigt werden. Startadressen 100 pro Inhaltsquelle Gleichzeitige Durchforstungen 20 pro Suchanwendung Schwellen Hierbei handelt es sich um wert die Anzahl der Durchforstungen, die gleichzeitig stattfinden. Ein Überschreiten dieser Zahl kann zu einer Verschlechterung der allgemeinen Durchforstungsrate führen. Durchforstete Eigenschaften 500.000 pro Suchanwendung Schwellen Die empfohlene Grenze kann wert bis zur Beschränkung von 500 pro Inhaltsquelle überschritten werden. Je mehr Startadressen Sie jedoch haben, desto weniger Inhaltsquellen sollten verwendet werden. Bei vielen Startadressen sollten Sie diese als Links auf einer HTML-Seite platzieren und den HTTP-Crawler die Seite durchforsten lassen, indem er den Links folgt. Unterstütz Hierbei handelt es sich um die bei einer Durchforstung t entdeckten Eigenschaften. 100 Regel für Crawlerauswirkungen Schwellen Empfohlene Grenze von 100 wert pro Farm. Die Empfehlung kann überschritten werden, allerdings verschlechtert sich die Anzeige von Websitezugriffsregeln in der 108 Grenze Maximalwert Grenztyp Hinweise Verwaltungsoberfläche der Suche. Bei etwa 2.000 Websitezugriffsregeln wird die Seite Websitezugriffsregeln verwalten unlesbar. Durchforstungsregeln 100 pro Schwellen Dieser Wert kann Suchdienstanwendung wert überschritten werden; allerdings verschlechtert sich die Anzeige von Durchforstungsregeln in der Verwaltungsoberfläche der Suche. Verwaltete Eigenschaften 100.00 pro Schwellen Hierbei handelt es sich um Suchdienstanwendung wert Eigenschaften, die vom Suchsystem in Abfragen verwendet werden. Durchforstete Eigenschaften werden verwalteten Eigenschaften zugeordnet. Zuordnungen 100 pro verwaltete Eigenschaft Schwellen Das Überschreiten dieser wert Grenze kann zu einer Verschlechterung der Durchforstungsgeschwindigke it und Abfrageleistung führen. URL-Entfernungen 100 Entfernungen pro Vorgang Unterstütz Hierbei handelt es sich um die empfohlene Maximalzahl t an URLs, die in einem einzigen Vorgang aus dem System entfernt werden sollten. Autorisierende Seiten Eine Seite auf höchster Schwellen Die empfohlene Grenze ist wert eine autorisierende Seite auf Ebene und minimale höchster Ebene und Seiten auf zweiter und dritter Ebene pro möglichst wenig Seiten auf Suchdienstanwendung zweiter und dritter Ebene, um die gewünschte Relevanz zu erreichen. Die Beschränkung liegt bei 200 pro Relevanzebene pro Suchanwendung, doch wird bei Hinzufügen zusätzlicher Seiten möglicherweise nicht die gewünschte Relevanz erzielt. Fügen Sie die Schlüsselwebsite zur ersten 109 Grenze Maximalwert Grenztyp Hinweise Relevanzebene hinzu. Fügen Sie weitere Schlüsselwebsites auf der zweiten oder dritten Relevanzebene hinzu, und bewerten Sie nach jedem Hinzufügen die Relevanz, um sicherzustellen, dass der gewünschte Relevanzeffekt erreicht wird. Schlüsselwörter 200 pro Websitesammlung Unterstütz Die empfohlene Grenze kann bis zur (durch ASP.NET t bestimmten) Maximalgrenze von 5.000 pro Websitesammlung bei fünf besten Suchergebnissen pro Schlüsselwort überschritten werden. Wenn Sie diese Grenze überschreiten, verschlechtert sich die Anzeige von Schlüsselwörtern auf der Benutzeroberfläche der Websiteverwaltung. Die durch ASP.NET bestimmte Grenze kann durch das Bearbeiten der Dateien Web.Config und Client.config(MaxItemsInOb jectGraph) geändert werden. Erkannte 10.000 pro Beschränk Hierbei handelt es sich um Metadateneigenschaft durchforstetes Element ung die Anzahl von en Metadateneigenschaften, die bestimmt und potenziell zugeordnet oder für Abfragen verwendet werden können, wenn ein Element durchforstet wird. Grenzen für den Benutzerprofildienst Die folgende Tabelle enthält die empfohlenen Richtlinien für den Benutzerprofildienst. Grenze Maximalwert Grenztyp Benutzerprofile 2.000.000 pro Dienstanwendung Unterstützt Eine BenutzerprofilDienstanwendung kann bis zu zwei Millionen 110 Hinweise Grenze Maximalwert Grenztyp Hinweise Benutzerprofile mit umfassender Funktionalität für die Features sozialer Netzwerke unterstützen. Die Zahl stellt die Anzahl der Profile dar, die aus einem Verzeichnisdienst in den Benutzerprofilspeicher importiert werden können, sowie die Anzahl der Profile, die eine BenutzerprofilDienstanwendung unterstützen kann, ohne dass es bei Features für soziale Netzwerke zu Leistungsverschlechterungen kommt. Thematische Kategorien, Notizen und Bewertungen 500.000.000 pro Unterstützt Bis zu 500 Millionen thematische Kategorien, Datenbank für Notizen und Bewertungen Funktionen und Daten insgesamt werden in einer für das soziale Datenbank für Funktionen Netzwerk und Daten für das soziale Netzwerk unterstützt, ohne dass es zu signifikanten Leistungsverschlechterungen kommt. Allerdings kann es bei Wartungsvorgängen wie Sicherung und Wiederherstellung an diesem Punkt zu Leistungsbeeinträchtigungen kommen. Inhaltsbereitstellungsgrenzen Die folgende Tabelle enthält die empfohlenen Richtlinien für die Inhaltsbereitstellung. Grenze Maximalwert Grenztyp In verschiedenen Pfaden 20 ausgeführte Inhaltsbereitstellungsaufträge Hinweise Unterstützt Für gleichzeitig ausgeführte Aufträge in Pfaden, die mit Websitesammlungen in derselben Quellinhaltsdatenbank verbunden sind, besteht ein 111 Grenze Maximalwert Grenztyp Hinweise erhöhtes Risiko für Deadlocks in der Datenbank. Für Aufträge, die gleichzeitig ausgeführt werden müssen, sollten Sie die Websitesammlungen in verschiedene Quellinhaltsdatenbanken verschieben. Hinweis: Gleichzeitig ausgeführte Aufträge in einem Pfad sind nicht möglich. Wenn Sie SQL ServerMomentaufnahmen für die Inhaltsbereitstellung verwenden, wird für jeden Pfad eine Momentaufnahme erstellt. Dadurch werden die E/A-Anforderungen für die Quelldatenbank erhöht. Weitere Informationen finden Sie unter Bereitstellungspfade und aufträge. Bloggrenzen Die folgende Tabelle enthält die empfohlenen Richtlinien für Blogs. Grenze Maximalwert Grenztyp Hinweise Blogbeiträge 5.000 pro Website Unterstützt Die maximale Anzahl von Blogbeiträgen liegt bei 5.000 pro Website. Kommentare 1.000 pro Beitrag Unterstützt Die maximale Anzahl von Kommentaren liegt bei 1.000 pro Beitrag. 112 Grenzen für Business Connectivity Services Die folgende Tabelle enthält die empfohlenen Richtlinien für Business Connectivity Services. Grenze Maximalwert Grenztyp Externe Inhaltstypen (im Arbeitsspeicher) 5.000 pro Webserver (pro Beschränkung Gesamtzahl von Mandant) Definitionen für externe Inhaltstypen, die zu einem bestimmten Zeitpunkt im Arbeitsspeicher auf einem Webserver geladen sind. Externe Systemverbindungen 500 pro Webserver 113 Hinweise Beschränkung Anzahl der aktiven/offenen Systemverbindungen zu einem bestimmten Zeitpunkt. Der standardmäßige Maximalwert liegt bei 200, die Beschränkung bei 500. Diese Grenze wird für den Webserverbereich unabhängig von der Art des externen Systems (wie Datenbank, .NETAssembly usw.) durchgesetzt. Der standardmäßige Maximalwert wird verwendet, um die Anzahl der Verbindungen zu begrenzen. Eine Anwendung kann mittels Ausführungskontext eine höhere Grenze festlegen. Die Beschränkung erzwingt den Grenze Maximalwert Grenztyp Hinweise Maximalwert auch für Anwendungen, die den Standardwert nicht berücksichtigen. Pro Anforderung zurückgegebene Datenbankelemente 2.000 pro Datenbankconnector Schwellenwert Die Anzahl der Elemente pro Anforderung, die der Datenbankconnector zurückgeben kann. Der standardmäßige Maximalwert von 2.000 wird vom Datenbankconnector verwendet, um die Anzahl der Ergebnisse zu begrenzen, die pro Seite zurückgegeben werden können. Die Anwendung kann über den Ausführungskontext eine höhere Grenze festlegen. Die absolute maximale Größe erzwingt den Maximalwert auch für Anwendungen, die den Standardwert nicht berücksichtigen. Die Beschränkung für diese Grenze liegt bei 1.000.000. Workflowgrenzen Die folgende Tabelle enthält die empfohlenen Richtlinien für Workflows. Grenze Maximalwert Grenztyp Schwellenwert für Workflowverschiebung 15 Schwellenwert 15 ist die maximale Anzahl von Workflows, die gleichzeitig für eine 114 Hinweise Grenze Maximalwert Grenztyp Hinweise Inhaltdatenbank ausgeführt werden dürfen, abgesehen von Instanzen, die im Timerdienst ausgeführt werden. Wird dieser Schwellenwert erreicht, werden neue Anforderungen für die Aktivierung von Workflows in die Warteschlange gestellt, um später vom Workflowtimerdienst ausgeführt zu werden. Sobald die Ausführung ohne Zeitgeber beendet ist, werden neue Anforderungen auf diesen Schwellenwert angerechnet. Diese Grenze kann mithilfe des Windows PowerShell-Cmdlets Set-SPFarmConfig konfiguriert werden. Weitere Informationen finden Sie unter SetSPFarmConfig. Hinweis: Diese Grenze bezieht sich nicht auf die Gesamtanzahl von Workflowinstanzen, die ausgeführt werden können, sondern es handelt sich um die Anzahl der Instanzen, die verarbeitet werden. Durch das Heraufsetzen dieser Grenze steigt der 115 Grenze Maximalwert Grenztyp Hinweise Durchsatz beim Starten und Beenden von Workflowaufgaben ebenso wie die Last für Inhaltsdatenbank und Systemressourcen. 100 Batchgröße des Workflowzeitgebers Schwellenwert Die Anzahl der Ereignisse, die bei jeder Ausführung des WorkflowZeitgeberauftrags aufgenommen und an Workflows übermittelt werden. Dieser Wert kann mithilfe von Windows PowerShell konfiguriert werden. Um zusätzliche Ereignisse zu ermöglichen, können Sie zusätzliche Instanzen des Microsoft SharePoint Foundation Workflowtimerdiensts ausführen. Grenzen für Terminologiespeicher (Datenbank) für verwaltete Metadaten Die folgende Tabelle enthält die empfohlenen Richtlinien für Terminologiespeicher verwalteter Metadaten. Grenze Maximalwert Maximale Anzahl der 7 Ebenen geschachtelter Ausdrücke in einem Terminologiespeicher Grenztyp Hinweise Unterstützt Ausdrücke in einem Ausdruckssatz lassen sich hierarchisch darstellen. Ein Ausdruckssatz kann bis zu sieben Ausdrucksebenen (ein übergeordneter Ausdruck mit sechs Schachtelungsebenen darunter) umfassen. 116 Grenze Maximalwert Grenztyp Hinweise Maximale Anzahl von 1.000 Ausdruckssätzen in einem Terminologiespeicher Unterstützt Ein Terminologiespeicher kann bis zu 1.000 Ausdruckssätze beinhalten. Maximale Anzahl von 30.000 Ausdrücken in einem Ausdruckssatz Unterstützt 30.000 ist die maximale Anzahl von Ausdrücken in einem Ausdruckssatz. Hinweis: Zusätzliche Bezeichnungen für einen Ausdruck, beispielsweise Synonyme und Übersetzungen, gelten nicht als separate Ausdrücke. Gesamtanzahl von 1.000.000 Elementen in einem Terminologiespeicher Unterstützt Ein Element ist entweder ein Ausdruck oder ein Ausdruckssatz. Die Gesamtanzahl von Ausdrücken und Ausdruckssätzen kann 1.000.000 nicht übersteigen. Zusätzliche Bezeichnungen für einen Ausdruck, beispielsweise Synonyme und Übersetzungen, gelten nicht als separate Ausdrücke. Hinweis: Ein Terminologiespeicher kann nicht die maximale Anzahl von Ausdruckssätzen und die maximale Anzahl von Ausdrücken gleichzeitig enthalten. Grenzen für Visio Services Die folgende Tabelle enthält die empfohlenen Richtlinien für Instanzen von Visio Services in Microsoft SharePoint Server 2010. 117 Grenze Maximalwert Grenztyp Dateigröße von VisioWebzeichnungen 50 MB Schwellenwert Visio Services verfügt über eine Konfigurationseinstellung, mit deren Hilfe ein Administrator die maximale Größe von Webzeichnungen ändern kann, die Visio verarbeitet. Größere Dateien haben folgende Nebeneffekte: Höherer Speicherbedarf von Visio Services. Visio-Timeout für 120 Sekunden die Neuberechnung von VisioWebzeichnungen Hinweise Höhere CPU-Auslastung. Weniger Anwendungsserveranforderu ngen pro Sekunde. Höhere durchschnittliche Wartezeit. Höhere SharePointFarmnetzwerklast. Schwellenwert Visio Services verfügt über eine Konfigurationseinstellung, mit deren Hilfe ein Administrator die maximale Zeitdauer ändern kann, die für die Neuberechnung einer Zeichnung nach einer Datenaktualisierung aufgewendet werden kann. Ein höherer Timeout für die Neuberechnung hat folgende Auswirkungen: Geringere Verfügbarkeit von CPU und Arbeitsspeicher. Weniger Anwendungsanforderungen pro Sekunde. Höhere durchschnittliche Wartezeit für alle Dokumente. Ein niedrigerer Timeout für die Neuberechnung hat folgende Auswirkungen: Geringere Komplexität der Diagramme, die angezeigt 118 Grenze Maximalwert Grenztyp Hinweise werden können. Mehr Anforderungen pro Sekunde. Niedrigere durchschnittliche Wartezeit für alle Dokumente. Minimales Minimales Cachealter für Visio Cachealter: 0 bis Services (mit Daten 24 Std. verbundene Diagramme) Schwellenwert Das minimale Cachealter gilt für Diagramme, die mit Daten verbunden sind. Es bestimmt den frühesten Zeitpunkt, an dem das aktuelle Diagramm aus dem Cache entfernt werden kann. Das Festlegen des minimalen Cachealters auf einen sehr niedrigen Wert führt zu einem geringeren Durchsatz und einer höheren Wartezeit, weil durch die Außerkraftsetzung des Caches Visio zu häufig gezwungen ist, Neuberechnungen durchzuführen, und die Verfügbarkeit von CPU und Arbeitsspeicher abnimmt. Maximales Maximales Cachealter für Visio Cachealter: 0 bis Services (nicht mit 24 Std. Daten verbundene Diagramme) Schwellenwert Das maximale Cachealter gilt für Diagramme, die nicht mit Daten verbunden sind. Es bestimmt, wie lange das aktuelle Diagramm im Arbeitsspeicher verbleibt. Durch das Erhöhen des maximalen Cachealters nimmt die Wartezeit für häufig angeforderte Zeichnungen ab. Das Festlegen des maximalen Cachealters auf einen sehr hohen Wert führt jedoch zu einer längeren Wartezeit und reduziert den Durchsatz für nicht zwischengespeicherte Elemente, da die bereits im Cache befindlichen Elemente den verfügbaren Arbeitsspeicher belegen. 119 Grenzen für PerformancePoint Services Die folgende Tabelle enthält die empfohlenen Richtlinien für PerformancePoint Services in Microsoft SharePoint Server 2010. Grenze Maximalwert Grenztyp Zellen 1.000.000 pro Abfrage an Excel ServicesDatenquelle Beschränkung Eine PerformancePointScorecard, die eine Excel ServicesDatenquelle aufruft, unterliegt einer Grenze von höchstens 1.000.000 Zellen pro Abfrage. Spalten und Zeilen 15 Spalten mal 60.000 Zeilen Schwellenwert Die maximale Anzahl von Spalten und Zeilen beim Rendern eines PerformancePointDashboardobjekts, das eine Microsoft ExcelArbeitsmappe als Datenquelle verwendet. Die Anzahl der Zeilen kann sich je nach Anzahl der Spalten ändern. Abfrage einer SharePoint- 15 Spalten mal 5.000 Liste Zeilen 120 Unterstützt Hinweise Die maximale Anzahl von Spalten und Zeilen beim Rendern eines PerformancePointDashboardobjekts, das eine SharePoint-Liste als Datenquelle verwendet. Die Anzahl der Zeilen kann sich je nach Anzahl der Grenze Maximalwert Grenztyp Hinweise Spalten ändern. Abfrage einer SQL Server - 15 Spalten mal 20.000 Datenquelle Zeilen Unterstützt Die maximale Anzahl von Spalten und Zeilen beim Rendern eines PerformancePointDashboardobjekts, das eine SQL Server-Tabelle als Datenquelle verwendet. Die Anzahl der Zeilen kann sich je nach Anzahl der Spalten ändern. Grenzen für Word Automation Services Die folgende Tabelle enthält die empfohlenen Richtlinien für Word Automation Services. Grenze Maximalwert Grenztyp Größe der Eingabedatei 512 MB Beschränku Die maximale Dateigröße, die von ng Word Automation Services verarbeitet werden kann. Häufigkeit, mit der Konvertierungen gestartet werden (Minuten) Eine Minute (empfohlen) Schwellenw Diese Einstellung bestimmt, wie ert häufig der Word Automation Services-Zeitgeberauftrag ausgeführt wird. Eine niedrigere Zahl führt dazu, dass der Zeitgeberauftrag schneller ausgeführt wird. Tests haben gezeigt, dass es am besten ist, den Zeitgeberauftrag einmal pro Minute auszuführen. Anzahl der Konvertierungen, die pro Konvertierungsproz ess gestartet werden Schwellenw Für PDF/XPSAusgabeformate: 30 ert x M, für alle anderen Ausgabeformate: 72 x M, wobei M der Wert der Häufigkeit ist, mit der Konvertierungen gestartet werden 15 Minuten (Standard) 59 Minuten (Beschränkung) 121 Hinweise Die Anzahl der zu startenden Konvertierungen wirkt sich auf den Durchsatz von Word Automation Services aus. Werden hierfür höhere Werte festgelegt als empfohlen, kann es zeitweise zu Fehlern bei einigen Konvertierungselementen sowie zum Ablauf von Grenze Maximalwert Grenztyp (Minuten) Hinweise Benutzerberechtigungen kommen. Benutzerberechtigungen laufen 24 Stunden nach Start eines Konvertierungsauftrags ab. 100.000 Größe des Unterstützt Ein Konvertierungsauftrag beinhaltet ein oder mehrere Konvertierungsauftr Konvertierungselem ente Konvertierungselemente, von ags denen jedes eine Konvertierung darstellt, die für eine Eingabedatei in SharePoint ausgeführt wird. Beim Starten eines Konvertierungsauftrags (mithilfe der ConversionJob.StartMethode) werden der Konvertierungsauftrag und alle Konvertierungselemente an einen Anwendungsserver übertragen, der den Auftrag dann in der Word Automation Services-Datenbank speichert. Eine große Anzahl von Konvertierungselementen führt zu einer längeren Ausführungszeit der Start-Methode und einer größeren Anzahl von Bytes, die an den Anwendungsserver übertragen werden. Aktive N-1, wobei N die Schwellenw Konvertierungsproz Anzahl der ert esse insgesamt Prozessorkerne auf den einzelnen Anwendungsservern ist Ein aktiver Konvertierungsprozess kann einen Prozessorkern beanspruchen. Kunden sollten deshalb nicht mehr Konvertierungsprozesse ausführen, als sich Prozessorkerne auf den Anwendungsservern befinden. Sie sollten stets einen Kern für die Verwendung durch den Konvertierungszeitgeberauftrag und SharePoint übrig lassen. Zwei Millionen Größe der Word Unterstützt Word Automation Services Konvertierungselem unterhält eine beständige Automation Services-Datenbank ente Warteschlange mit Konvertierungselementen in der Datenbank. Jede Konvertierungsanforderung generiert einen oder mehrere Datensätze. 122 Grenze Maximalwert Grenztyp Hinweise Word Automation Services löscht Datensätze nicht automatisch aus der Datenbank, sodass die Datenbank ohne Wartung endlos wachsen kann. Administratoren können Konvertierungsaufträge mithilfe des Windows PowerShellCmdlets RemoveSPWordConversionServiceJob History manuell entfernen. Weitere Informationen finden Sie unter RemoveSPWordConversionServiceJobHis tory. Grenzen für SharePoint Workspace Die folgende Tabelle enthält die empfohlenen Richtlinien für Microsoft SharePoint Workspace 2010. Grenze Maximalwert Grenztyp SharePoint WorkspaceSynchronisierung 30.000 Elemente pro Liste Beschränkung SharePoint Workspace synchronisiert keine Listen, die über 30.000 Elemente beinhalten. Diese Beschränkung besteht, weil das Herunterladen einer Liste mit über 30.000 Elementen sehr lange dauert und viele Ressourcen in Anspruch nimmt. SharePoint WorkspaceSynchronisierung Grenze von 1.800 Dokumenten in SharePoint Workspace Beschränkung Benutzer werden bei mehr als 500 123 Hinweise Grenze Maximalwert Grenztyp Hinweise Dokumenten in SharePoint Workspace gewarnt, aber sie können weiter Dokumente hinzufügen. Grenzen für OneNote Die folgende Tabelle enthält die empfohlenen Richtlinien für Microsoft OneNote-Dienste. Grenze Maximalwert Grenztyp Anzahl der Abschnitte und Abschnittsgruppen in einem OneNote-Notizbuch (in SharePoint) Siehe Grenze für "Dokumente" unter "Listen- und Bibliotheksgrenze n" Jeder Abschnitt zählt als ein Ordner und ein Dokument in der Liste. Jede Abschnittsgruppe zählt als ein Ordner und ein Dokument in der Liste. Maximale Größe eines Abschnitts Siehe Grenze für "Dateigröße" unter "Listen- und Bibliotheksgrenze n" Dieser Maximalwert schließt alle Bilder, eingebetteten Dateien und XPSAusdrucke an OneNote aus, die größer sind als 100 KB. Bilder und eingebettete Dateien, die größer sind als 100 KB, werden in ihre eigenen Binärdateien aufgespalten. Das bedeutet, dass ein Abschnitt mit 100 KB eingegebener Daten und vier eingebetteten Word-Dokumenten mit jeweils 1 MB als 100-KBAbschnitt gilt. Maximale Größe eines Bildes, einer eingebetteten Datei und eines OneNoteXPS-Ausdrucks in einem OneNote-Abschnitt. Siehe Grenze für "Dateigröße" unter "Listen- und Bibliotheksgrenze n" Jedes Element wird als separate Binärdatei gespeichert und unterliegt deshalb den Grenzen für die Dateigröße. Jeder Druckvorgang an OneNote führt zu einer binären XPSAusdruckdatei, und zwar auch dann, wenn der 124 Hinweise Grenze Maximalwert Grenztyp Hinweise Ausdruck mehrere Seiten umfasst. Die maximale Größe aller Bilder, eingebetteten Dateien und XPSAusdrucke auf einer OneNote-Seite. Die Standardgrenze ist doppelt so hoch wie die Grenze für die Dateigröße. Schwellenwe Dies gilt für eingebettete rt Inhalte auf einer OneNoteSeite, nicht in einem Abschnitt oder Notizbuch. Benutzern wird in diesem Fall der folgende Fehler in OneNote angezeigt: "jerrcStorageUrl_HotTableF ull (0xE0000794)". Benutzer können dies umgehen, indem sie eingebetteten Inhalt in verschiedene Seiten aufspalten und vorherigen Versionen der Seite löschen. Wenn Benutzer diesen Wert (“Maximale Größe aktueller Tabellen”) anpassen müssen, beträgt der effektive Grenzwert die Hälfte des von ihnen festgelegten Grenzwerts (bei Angabe einer maximalen Größe aktueller Tabellen von 400 MB bedeutet dies beispielsweise, dass die maximale Größe des gesamten eingebetteten Inhalts auf einer Seite auf 200 MB beschränkt ist). Zusammenführungsvorgän Einer pro Beschränkun OneNote führt Änderungen Prozessorkern pro g ge von mehreren Benutzern Webserver zusammen, die gemeinsam ein Notizbuch erstellen. Ist kein Prozessorkern zum Ausführen einer Zusammenführung vorhanden, wird stattdessen eine Konfliktseite generiert, die den Benutzer zwingt, die Zusammenführung manuell durchzuführen. Diese Grenze ist 125 Grenze Maximalwert Grenztyp Hinweise unabhängig davon gültig, ob OneNote als Clientanwendung oder als Microsoft Office Web Apps ausgeführt wird. Grenzen für Office-Webanwendungsdienste Die folgende Tabelle enthält die empfohlenen Richtlinien für Office Web Apps. OfficeClientanwendungsgrenzen gelten auch, wenn eine Anwendung als Webanwendung ausgeführt wird. Grenze Maximalwert Grenztyp Cachegröße 100 GB Schwellenwert Verfügbarer Speicher zum Rendern von Dokumenten, die im Rahmen einer Inhaltsdatenbank erstellt werden. Standardmäßig steht zum Rendern von Dokumenten ein Cache von 100 GB zur Verfügung. Sie sollten den verfügbaren Cache nicht erhöhen. Renderings Eins pro Dokument pro Sekunde pro Prozessorkern pro Anwendungsserver (maximal acht Prozessorkerne) Beschränkung Dies ist die gemessene durchschnittliche Anzahl von Renderings, die über einen gewissen Zeitraum hinweg für "typische" Dokumente auf dem Anwendungsserver durchgeführt werden kann. Grenzen für Project Server 126 Hinweise Die folgende Tabelle enthält die empfohlenen Richtlinien für Microsoft Project Server. Weitere Informationen zur Planung für Project Server finden Sie unter Planning and architecture for Project Server 2010. Grenze Maximalwert Grenztyp Hinweise Ende der Projektzeit Datum: 31.12.2049 Beschränkung Project-Pläne können nicht über das Datum 31.12.2049 hinausgehen. Lieferumfang pro Projektplan 1.500 Lieferumfänge Beschränkung Project-Pläne können nicht mehr als 1.500 Lieferumfänge enthalten. Anzahl der Felder in einer Ansicht Beschränkung Benutzer können einer Ansicht, die sie in Project Web App definiert haben, nicht mehr als 256 Felder hinzufügen. 256 Anzahl der Klauseln in einem 50 Ansichtsfilter Beschränkung Ein Benutzer kann einer Ansicht keinen Filter mit mehr als 50 Klauseln hinzufügen. 127 Performance and capacity technical case studies (SharePoint Server 2010) (in englischer Sprache) This section contains technical case studies that describe specific deployments of Microsoft SharePoint Server 2010. Compare the scenarios in these documents to your planned workload and usage characteristics. If your planned design is similar, you can use the documented deployment as a starting point for your own installation. These articles include information about environments, such as: Environment specifications, such as hardware, farm topology, and configuration The workload used for data generation, including the number and class of users, and farm usage characteristics Farm dataset, including database contents, Search indexes, and external data sources Health and performance data specific to the environment Performance data and recommendations for how to determine the hardware, topology, and configuration you need to deploy a similar environment, and how to optimize your environment for appropriate capacity and performance characteristics Before reading these articles, it is important that you understand the key concepts behind capacity management in SharePoint Server 2010. For more information, see Capacity management and sizing for SharePoint Server 2010 (in englischer Sprache). In this section: Publishing Microsoft SharePoint Server 2010-Veröffentlichungsumgebung mit Unternehmensintranet: Technische Fallstudie Describes the published intranet environment used by employees at Microsoft. Enterprise Intranet Collaboration Enterprise intranet collaboration environment technical case study (SharePoint Server 2010) (in englischer Sprache) Describes an environment that hosts mission-critical team sites and publishing portals for internal organizations, teams, and projects. Enterprise intranet collaboration environment lab study (SharePoint Server 2010) (in englischer Sprache) Describes lab testing performed on a similar environment to the enterprise Intranet collaboration environment. Departmental Collaboration Departmental collaboration environment technical case study (SharePoint Server 2010) (in englischer Sprache) 128 Describes a departmental collaboration environment used by employees of one department inside Microsoft. Divisional portal environment lab study (SharePoint Server 2010) (in englischer Sprache) Describes lab testing performed on a similar environment to the departmental collaboration environment. Social Social environment technical case study (SharePoint Server 2010) (in englischer Sprache) Describes an environment that hosts My Sites that present employee information to the wider organization. The environment serves as a central location for personal sites and shared documents. Microsoft SharePoint Server 2010 social environment: Lab study Provides guidance on performance and capacity planning for a My Site and social computing portal based on SharePoint Server 2010. 129 Microsoft SharePoint Server 2010Veröffentlichungsumgebung mit Unternehmensintranet: Technische Fallstudie In diesem Dokument wird eine spezielle Bereitstellung von Microsoft SharePoint Server 2010 beschrieben. Hierzu gehören folgende Elemente: Spezifikationen für die Umgebung der technischen Fallstudie, wie z. B. Hardware, Farmtopologie und Konfiguration. Die Arbeitsauslastung, die die Anzahl und die Art der Benutzer oder Clients beinhaltet, sowie die Nutzungsmerkmale für die Umgebung. Farmdataset der technischen Fallstudie, einschließlich Datenbankinhalten und Suchindizes. Integritäts- und Leistungsdaten speziell für die Umgebung. Inhalt dieses Artikels: Vorabinformationen Einführung in diese Umgebung Spezifikationen Arbeitsauslastung Dataset Integritäts- und Leistungsdaten Vorabinformationen Vor der Lektüre dieses Dokuments sollten Sie unbedingt mit den wichtigsten Konzepten der Kapazitätsverwaltung in SharePoint Server 2010 vertraut sein. In der folgenden Dokumentation finden Sie Informationen zur empfohlenen Vorgehensweise bei der Kapazitätsverwaltung sowie Kontextinformationen für die effiziente Verwendung der Angaben in diesem Dokument. Außerdem werden die in diesem Dokument verwendeten Begriffe definiert. Weitere konzeptionelle Informationen zu Leistung und Kapazität, die beim Verständnis des Kontexts der Daten in dieser technischen Fallstudie hilfreich sein können, finden Sie in den folgenden Dokumenten: Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht) SharePoint Server 2010-Kapazitätsverwaltung: Softwarebeschränkungen und grenzen 130 Einführung in diese Umgebung In diesem Whitepaper wird eine SharePoint Server 2010-Umgebung bei Microsoft beschrieben. Vergleichen Sie anhand dieses Dokuments Ihre geplanten Auslastungsund Nutzungsmerkmale. Wenn Ihr geplanter Entwurf ähnlich ist, können Sie die hier beschriebene Bereitstellung als Ausgangspunkt für Ihre eigene Installation verwenden. Dieses Dokument enthält Folgendes: Spezifikationen, einschließlich Hardware, Topologie und Konfiguration. Arbeitsauslastung, also die Anforderungen an die Farm, einschließlich der Anzahl von Benutzern und der Nutzungsmerkmale. Dataset, einschließlich Datenbankgrößen. Integritäts- und Leistungsdaten speziell für die Umgebung. Dieses Dokument ist Teil einer Reihe von Performance and capacity technical case studies (SharePoint Server 2010) (in englischer Sprache) zu SharePoint-Umgebungen bei Microsoft. Bei der in diesem Dokument beschriebenen SharePoint Server 2010-Umgebung handelt es sich um eine Produktionsumgebung in einem auf verschiedene Standorte verteilten Großunternehmen. Mitarbeiter zeigen verschiedene Inhalte an, wie z. B. Nachrichten, technische Artikel, Mitarbeiterprofile, Dokumentation und Schulungsressourcen. Mithilfe dieser Umgebung führen Mitarbeiter auch Suchabfragen für alle SharePointUmgebungen im Unternehmen aus. Mitarbeiter erhalten täglich E-Mails mit Links zu Artikeln in der Umgebung, und viele Mitarbeiter legen diese Umgebung als Startseite im Browser fest. 48.000 Einzelbenutzer besuchen die Umgebung an einem geschäftigen Tag und generieren in Spitzenzeiten bis zu 345 Anforderungen pro Sekunde. Da es sich hierbei um eine Intranetwebsite handelt, sind alle Benutzer authentifiziert. Inhalte werden zwar mithilfe eines Modells mit einer einzelnen Umgebung und dem Autor vor Ort veröffentlicht, aber das Veröffentlichungsverfahren der Umgebung gibt an, dass alle Entwurfsinhalte nachts zu einem bestimmten Zeitpunkt mit geringer Auslastung veröffentlicht werden. In diesem Dokument wird die Veröffentlichungsumgebung des Unternehmensintranets an einem typischen Tag beschrieben. 131 Spezifikationen Dieser Abschnitt enthält ausführliche Informationen zur Hardware, Software, Topologie und Konfiguration der Umgebung für die Fallstudie. Hardware Dieser Abschnitt enthält Informationen zu den in dieser Umgebung verwendeten Servercomputern. Hinweis: Diese Umgebung wurde für Vorabversionsbuilds von SharePoint Server 2010 und anderen Produkten skaliert. Deshalb weist die bereitgestellte Hardware eine höhere Kapazität auf, als für die typischen Anforderungen dieser Umgebung erforderlich wäre. Diese Hardware wird nur beschrieben, um zusätzlichen Kontext für diese Umgebung zu liefern und als Ausgangspunkt für ähnliche Umgebungen zu dienen. Sie müssen unbedingt Ihre eigene Kapazitätsverwaltung basierend auf den geplanten Auslastungs- und Nutzungsmerkmalen vornehmen. Weitere Informationen zum Kapazitätsverwaltungsprozess finden Sie unter Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht). Webserver Es gibt vier Webserver in der Farm, mit jeweils identischer Hardware. Mit drei Servern werden Inhalte bereitgestellt, und der vierte Server ist ein dediziertes Suchdurchforstungsziel. Webserver WFE1-4 Prozessor(en) 2 Quad-Core mit 2,33 GHz RAM 32 GB Betriebssystem Windows Server 2008, 64-Bit Größe des SharePoint-Laufwerks 300 GB Anzahl der Netzwerkkarten 2 Geschwindigkeit der Netzwerkkarte 1 Gigabit Authentifizierung Windows NTLM Lastenausgleichstyp Hardwarelastenausgleich Softwareversion SharePoint Server 2010 (Vorabversion) Lokal ausgeführte Dienste Zentraladministration Eingehende E-Mails von Microsoft SharePoint Foundation Microsoft SharePoint Foundation132 Webserver WFE1-4 Webanwendung Microsoft SharePoint FoundationWorkflowtimerdienst Suchabfrage- und Websiteeinstellungsdienst SharePoint Server-Suche Von einer Verbunddienstfarm genutzte Dienste Benutzerprofildienst Web Analytics-Webdienst Business Data Connectivity-Dienst Verwalteter Metadatenwebdienst Anwendungsserver In der Farm sind keine Anwendungsserver vorhanden. Lokale Dienste werden auf den Webservern gehostet. Andere Dienste werden von einer Verbunddienstfarm genutzt. Datenbankserver Es gibt einen SQL-Cluster mit zwei Datenbankservern, mit jeweils identischer Hardware. Einer der Server ist aktiv, und der andere Server ist aus Redundanzgründen passiv. Datenbankserver DB1-2 Prozessor(en) 4 Quad-Core mit 2,4 GHz RAM 32 GB Betriebssystem Windows Server 2008, 64-Bit Speicherung und Geometrie (1,25 TB * 6) + 3 TB Datenträger 1-4: SQL-Daten Datenträger 5: Protokolle Datenträger 6: TempDB Anzahl der Netzwerkkarten 2 Geschwindigkeit der Netzwerkkarte 1 Gigabit Authentifizierung Windows NTLM Softwareversion SQL Server 2008 Topologie Das folgende Diagramm veranschaulicht die Topologie für diese Farm. 133 Konfiguration 134 In der folgenden Tabelle sind geänderte Einstellungen aufgeführt, die sich auf die Leistung oder Kapazität in der Umgebung auswirken. Einstellung Wert Websitesammlungsve Ein rwaltung: Ausgabecache der Websitesammlung Hinweise Durch Aktivieren des Ausgabecaches wird die Servereffizienz verbessert, indem Aufrufe von häufig angeforderten Daten in der Datenbank reduziert werden. Cacheprofil für die Websitesammlung (auswählen) Schreibern erlauben, zwischengespeicherten Intranet (Website für Inhalt anzuzeigen ist aktiviert, wodurch das Standardverhalten außer Kraft gesetzt wird, dass die Zusammena Seiten von Benutzern mit rbeit) Bearbeitungsberechtigung nicht zwischengespeichert werden. Objektcache (Aus | n MB) Ein – 500 MB Die Standardeinstellung ist 100 MB. Durch Anheben des Werts für diese Einstellung können zusätzliche Daten im Arbeitsspeicher des FrontEnd-Webservers gespeichert werden. Verwendungsdienst: 5 Tage Ablaufverfolgungsproto koll – Anzahl der Tage, die Protokolldateien gespeichert werden (Standard: 14 Tage) Die Standardeinstellung ist 14 Tage. Durch Senken des Werts für diese Einstellung kann auf dem Server, auf dem die Protokolldateien gespeichert werden, Speicherplatz gespart werden. Schwellenwert für 1 Sekunde Abfrageprotokollierun g: Microsoft SharePoint Foundation-Datenbank – 1 Sekunde für "QueryLoggingThreshol d" konfigurieren Die Standardeinstellung ist 5 Sekunden. Durch Senken des Werts für diese Einstellung kann Bandbreite und CPU auf dem Datenbankserver gespart werden. Datenbankserver – Standardinstanz: Max. Grad an Parallelität Der Standardwert ist 0. Um eine optimale Leistung sicherzustellen, wird empfohlen, die Option Max. Grad an Parallelität für Datenbankserver, die SharePoint Server 2010-Datenbanken hosten, auf 1 festzulegen. Weitere Informationen zum Festlegen von Max. Grad an Parallelität finden Sie unter max degree of parallelism Option(http://go.microsoft.com/fwlink/?linkid=18 9030&clcid=0x407). 1 135 Arbeitsauslastung In diesem Abschnitt wird die Arbeitsauslastung beschrieben, also die Anforderungen an die Farm, einschließlich der Anzahl von Benutzern und der Nutzungsmerkmale. Arbeitsauslastungsmerkmale Wert Durchschn. Anforderungen pro Sekunde 100 Durchschn. Anforderungen pro Sekunde zu 226 Spitzenzeiten (11–15 Uhr) Gesamtanzahl eindeutiger Benutzer pro Tag 33.580 Durchschnittliche Anzahl gleichzeitiger Benutzer 172 Maximale Anzahl gleichzeitiger Benutzer 376 Gesamtanzahl der Anforderungen pro Tag 3.800.000 In der folgenden Tabelle wird die Anzahl von Anforderungen für jeden Benutzer-Agent angezeigt. Benutzer-Agent Anforderungen Prozentsatz Browser 3.261.563 97,09 % DAV 2.418 0,07 % Suche (Durchforsten) 92.322 2,75 % OneNote 1.628 0,05 % Outlook 961 0,03 % Word 449 0,01 % Dataset In diesem Abschnitt wird das Farmdataset der Fallstudie, einschließlich Datenbankinhalten und Suchindizes, beschrieben. Datasetmerkmale Wert Datenbankgröße (kombiniert) 49,9 GB BLOB-Größe 22,2 GB 136 Datasetmerkmale Wert Anzahl der Inhaltsdatenbanken 3 Anzahl der Webanwendungen 3 Anzahl der Websitesammlungen 4 Anzahl der Websites 797 Suchindexgröße (Anzahl der Elemente) 275.000 Integritäts- und Leistungsdaten Dieser Abschnitt enthält Integritäts- und Leistungsdaten speziell für die Umgebung der Fallstudie. Allgemeine Leistungsindikatoren Metrik Wert Verfügbarkeit (Betriebszeit) 99,95 % Fehlerrate 0,05 % Durchschn. belegter Arbeitsspeicher 1,08 GB Maximal belegter Arbeitsspeicher 2,60 GB Suchdurchforstungen in % des Datenverkehrs (Suchclientanforderungen / Gesamtanforderungen) 6% ASP.NET-Anforderungen in Warteschlange 0,00 In den folgenden Diagrammen sind die durchschnittliche CPU-Auslastung und die Wartezeit für diese Umgebung dargestellt. 137 In diesem Dokument wird die Wartezeit in vier Kategorien unterteilt. In der Regel wird das 50. Quantil der Wartezeit zum Messen der Reaktionszeit des Servers verwendet. Dies bedeutet, dass die Hälfte der Anforderungen innerhalb der Reaktionszeit ausgeführt werden. Mit dem 95. Quantil der Wartezeit werden normalerweise Spitzen bei den Reaktionszeiten des Servers gemessen. Dies bedeutet, dass 95 % der Anforderungen 138 innerhalb der Reaktionszeit ausgeführt werden und demnach bei 5 % der Anforderungen langsamere Reaktionszeiten auftreten. Datenbank-Leistungsindikatoren Achten Sie beim Interpretieren von Datenbankstatistiken für diese Unternehmensveröffentlichungsumgebung darauf, dass die meisten Besucher über Leseberechtigung verfügen. Metrik Wert Verhältnis von Lese-/Schreibvorgängen (E/A 99,999 : 0,001 pro Datenbank) Durchschnittliche Länge der Datenträgerwarteschlange 0,35 Länge der Datenträgerwarteschlange: Lesevorgänge 34 Länge der Datenträgerwarteschlange: Schreibvorgänge 2,5 Lesevorgänge/s 131,33 Schreibvorgänge/s 278,33 SQL-Kompilierungen/s 2,36 SQL-Neukompilierungen/s 94,80 SQL-Sperren: Durchschnittliche Wartezeit 0 ms SQL-Sperren: Sperrenwartezeit 0 ms SQL-Sperren: Deadlocks/s 0 SQL-Latches: Durchschnittliche Wartezeit 0,25 ms SQL-Cachetrefferrate >99 % 139 Enterprise intranet collaboration environment technical case study (SharePoint Server 2010) (in englischer Sprache) This article describes a specific deployment of Microsoft SharePoint Server 2010, that includes the following: Technical case study environment specifications, such as hardware, farm topology and configuration. The workload, that includes the number, and types, of users or clients, and environment usage characteristics. Technical case study farm dataset, that includes database contents and search indexes. Health and performance data that is specific to the environment. In this article: Prerequisite information Introduction to this environment Specifications Workload Dataset Health and Performance Data Prerequisite information Before reading this document, make sure that you understand the key concepts behind SharePoint Server 2010 capacity management. The following documentation will help you learn about the recommended approach to capacity management and provide context for helping you understand how to make effective use of the information in this document, and also define the terms used throughout this document. For more conceptual information about performance and capacity that you might find valuable in understanding the context of the data in this technical case study, see the following documents: Capacity management and sizing for SharePoint Server 2010 (in englischer Sprache) SharePoint Server 2010-Kapazitätsverwaltung: Softwarebeschränkungen und grenzen 140 Introduction to this environment This white paper describes an actual SharePoint Server 2010 environment at Microsoft. Use this document to compare to your planned workload and usage characteristics. If your planned design is similar, you can use the deployment described here as a starting point for your own installation. This document includes the following: Specifications, which include hardware, topology, and configuration. Workload, which is the demand on the farm that includes the number of users, and the usage characteristics. Dataset that includes database sizes. Health and performance data that is specific to the environment. This document is part of a series of Performance and capacity technical case studies (SharePoint Server 2010) (in englischer Sprache) about SharePoint environments at Microsoft. The SharePoint environment described in this document is a production environment at a large, geographically distributed company. The environment hosts very important team sites and publishing portals for internal teams for enterprise collaboration, organizations, teams, and projects. Sites created in this environment are used as communication portals, applications for business solutions, and general collaboration. Self-service site creation is used to provision site collections. Custom code is not permitted. As many as 88,900 unique users visit the environment on a busy day, generating up to 669 requests per second (RPS) during peak hours. Because this is an intranet site, all users are authenticated. The information that is provided in this document reflects the enterprise intranet publishing environment on a typical day. Specifications This section provides detailed information about the hardware, software, topology, and configuration of the case study environment. Hardware 141 This section provides details about the server computers that were used in this environment. Hinweis: This environment is scaled to accommodate pre-release builds of SharePoint Server 2010 and other products. Hence, the hardware deployed has larger capacity than necessary to serve the demand typically experienced by this environment. This hardware is described only to provide additional context for this environment and serve as a starting point for similar environments. It is important to conduct your own capacity management based on your planned workload and usage characteristics. For more information about the capacity management process, see Capacity management and sizing for SharePoint Server 2010 (in englischer Sprache). Web Servers There are four Web servers in the farm, each with identical hardware. Three serve content, and the fourth is a dedicated search crawl target. Web Server WFE1-4 Processor(s) 2 quad core @ 2.33 GHz RAM 32 GB OS Windows Server® 2008, 64 bit Size of the SharePoint drive 205 GB Number of network adapters 2 Network adapter speed 1 Gigabit Authentication Windows NTLM Load balancer type Hardware load balancing Software version SharePoint Server 2010 (pre-release version) Services running locally Central Administration Microsoft SharePoint Foundation Incoming E-Mail Microsoft SharePoint Foundation Web Application Microsoft SharePoint Foundation Workflow Timer Service Search Query and Site Settings Service SharePoint Server Search 142 Web Server WFE1-4 Services consumed from a federated Services farm User Profile Service Web Analytics Web Service Business Data Connectivity Service Managed Metadata Web Service Application Server There are four application servers in the farm, each with identical hardware. Application Server APP1-4 Processor(s) 4 six core @ 2.40 GHz RAM 64 GB OS Windows Server 2008, 64 bit Size of the SharePoint drive 300 GB Number of network adapters 1 Network adapter speed 1 Gigabit Authentication Windows NTLM Load balancer type Hardware load balancing Software version SharePoint Server 2010 (pre-release version) Services running locally Office Web Apps Excel PowerPoint Secure Store Usage and Health State Service Database Servers There is a SQL cluster with 2 database servers, each with identical hardware, one of the servers is active and the other is passive for redundancy. Database Server DB1-2 Processor(s) 4 quad core @ 2.4 GHz RAM 32 GB 143 Database Server DB1-2 OS Windows Server 2008, 64-bit Storage and geometry (1.25 TB * 7) + 3 TB Disk 1-4: SQL Data Disk 5: Logs Disk 6: TempDB Number of network adapters 2 Network adapter speed 1 Gigabit Authentication Windows NTLM Software version SQL Server 2008 Topology The following diagram shows the topology for this farm. 144 Configuration 145 The following table enumerates settings that were changed that affect performance or capacity in the environment. Setting Value Notes Usage Service 5 days The default is 14 days. Lowering this setting can save disk space on the server where the log files are Trace Log – days to store stored. log files (default: 14 days) QueryLoggingThreshold 1 The default is 5 seconds. Lowering this setting can second save bandwidth and CPU on the database server. SharePoint Foundation Database – change QueryLoggingThreshold to 1 second 1 Database Server – Default Instance Max degree of parallelism The default is 0. To ensure optimal performance, we strongly recommend that you set max degree of parallelism to 1 for database servers that host SharePoint Server 2010 databases. For more information about how to set max degree of parallelism, see max degree of parallelism Option(http://go.microsoft.com/fwlink/?LinkId=189030). Workload This section describes the workload, which is the demand on the farm that includes the number of users, and the usage characteristics. Workload Characteristics Value Average Requests per Second (RPS) 157 Average RPS at peak time (11 AM-3 PM) 350 Total number of unique users per day 69,702 Average concurrent users 420 Maximum concurrent users 1,433 Total # of requests per day 18,866,527 This table shows the number of requests for each user agent. User Agent Requests Percentage of Total Search (crawl) 6,384,488 47% DAV 2,446,588 18% 146 User Agent Requests Percentage of Total Browser 730,139 5% OneNote 665,334 5% Office Web Applications 391,599 3% SharePoint Designer 215,695 2% Dataset This section describes the case study farm dataset that includes database sizes and Search indexes. Dataset Characteristics Value Database size (combined) 7.5 TB BLOB size 6.8 TB Number of content databases 87 Number of Web applications 2 Number of site collections 34,423 Number of sites 101,598 Search index size (number of items) 23 million Health and Performance Data This section provides health and performance data that is specific to the Case Study environment. General Counters Metric Value Availability (uptime) 99.1% Failure Rate 0.9% Average memory used 3.4 GB Maximum memory used 16.1 GB Search Crawl % of Traffic (Search client requests / total requests) 47% 147 Metric Value ASP.NET Requests Queued 0.00 The following charts show the average CPU utilization and latency for this environment: 148 In this document, latency is divided into four categories. The 50th percentile latency is typically used to measure the server‘s responsiveness. It means that half of the requests are served within that response time. The 95th percentile latency is typically used to measure spikes in server response times. It means that 95% of requests are served within that response time, and therefore 5% of the requests experience slower response times. Database counters Metric Value Read/Write Ratio (IO Per Database) 99.8 : 0.2 Average Disk queue length 2.3 Disk Queue Length: Reads 2 Disk Queue Length: Writes 0.3 Disk Reads/sec 131.33 Disk Writes/sec 278.33 SQL Compilations/second 9.9 SQL Re-compilations/second 0.07 SQL Locks: Average Wait Time 225 ms SQL Locks: Lock Wait Time 507 ms SQL Locks: Deadlocks Per Second 3.8 SQL Latches: Average Wait Time 14.3 ms SQL Server: Buffer Cache Hit Ratio 74.3% 149 Enterprise intranet collaboration environment lab study (SharePoint Server 2010) (in englischer Sprache) This article contains guidance on performance and capacity planning for an enterprise intranet collaboration solution that is based on Microsoft SharePoint Server 2010. It includes the following: Lab environment specifications, such as hardware, farm topology and configuration Test farm dataset Test results analysis which should help you determine the hardware, topology and configuration that you must have to deploy a similar environment, and optimize your environment for appropriate capacity and performance characteristics In this article: Introduction to this environment Glossary Overview Specifications Results and Analysis Introduction to this environment This document provides guidance about scaling out and scaling up servers in a SharePoint Server 2010 enterprise intranet collaboration solution, based on a testing environment at Microsoft. Capacity planning informs decisions on purchasing hardware and making system configurations to optimize your solution. Different scenarios have different requirements. Therefore, it is important to supplement this guidance with additional testing on your own hardware and in your own environment. If your planned design and workload resembles the environment described in this document, you can use this document to draw conclusions about scaling your environment up and out. This document includes the following: Specifications, which include hardware, topology, and configuration The workload, which is the demand on the farm, includes the number of users, and the usage characteristics The dataset, such as database sizes Test results and analysis for scaling out Web servers Test results and analysis for scaling up Web servers Test results and analysis for scaling out database servers 150 Comparison between Microsoft Office SharePoint Server 2007 and SharePoint Server 2010 about throughput and effect on the web and database servers The SharePoint Server 2010 environment described in this document is a lab environment that mimics a production environment at a large company. The production environment hosts very important team sites and publishing portals for internal teams for enterprise collaboration, organizations, teams, and projects. Employees use that production environment to track projects, collaborate on documents, and share information within their organization. The environment includes a large amount of small sites used for ad-hoc projects and small teams. For details about the production environment, see Enterprise intranet collaboration environment technical case study (SharePoint Server 2010) (in englischer Sprache). Before reading this document, make sure that you understand the key concepts behind capacity management in SharePoint Server 2010. The following documentation will help you learn about the recommended approach to capacity management and provide context for helping you understand how to make effective use of the information in this document, and also define the terms used throughout this document. Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht) SharePoint Server 2010-Kapazitätsverwaltung: Softwarebeschränkungen und grenzen Also, we encourage you to read the following: Speicher- und SQL Server-Kapazitätsplanung und -Konfiguration (SharePoint Server 2010) Glossary There are some specialized terms that you will encounter in this document. Here are some key terms and their definitions. RPS: Requests per second. The number of requests received by a farm or server in one second. This is a common measurement of server and farm load. Note that requests differ from page loads; each page contains several components, each of which creates one or more requests when the page is loaded. Therefore, one page load creates several requests. Typically, authentication checks and events using insignificant resources are not counted in RPS measurements. Green Zone: This is the state at which the server can maintain the following set of criteria: The server-side latency for at least 75% of the requests is less than 1 second. All servers have a CPU Utilization of less than 50%. Hinweis: Because this lab environment did not have an active search crawl running, the database server was kept at 40% CPU Utilization or lower, to reserve 10% for the search crawl load. This assumes Microsoft SQL Server Resource Governor is used in production to limit Search crawl load to 10% CPU. Failure rate is less than 0.01%. Red Zone (Max): This is the state at which the server can maintain the following set of criteria: 151 HTTP request throttling feature is enabled, but no 503 errors (Server Busy) are returned. Failure rate is less than 0. 1%. The server-side latency is less than 3 seconds for at least 75% of the requests. Database server CPU utilization is less than 80%, which allows for 10% to be reserved for the Search crawl load, limited by using SQL Server Resource Governor. AxBxC (Graph notation): This is the number of Web servers, application servers, and database servers respectively in a farm. For example, 8x1x2 means that this environment has 8 Web servers, 1 application server, and 2 database servers. MDF and LDF: SQL Server physical files. For more information, see Files and Filegroups Architecture. Overview This section provides an overview to our scaling approach, to the relationship between this lab environment and a similar case study environment, and to our test methodology. Scaling approach This section describes the specific order that we recommend for scaling servers in your environment, and is the same approach we took for scaling this lab environment. This approach will enable you to find the best configuration for your workload, and can be described as follows: First, we scaled out the Web servers. These were scaled out as far as possible under the tested workload, until the database server became the bottleneck and was unable to accommodate any more requests from the Web servers. Second, we scaled out the database server by moving half of the content databases to another database server. At this point, the Web servers were not creating sufficient load on the database servers. Therefore, they were scaled out additionally. In order to test scale up, we tried another option which is scaling up the Web servers instead of scaling them out. Scaling out the Web servers is generally preferred over scaling them up because scaling out provides better redundancy and availability. Correlating the lab environment with a production environment The lab environment outlined in this document is a smaller scale model of a production environment at Microsoft, and although there are significant differences between the two environments, it can be useful to examine them side by side because both are enterprise collaboration environments where the patterns observed should be similar. The lab environment contains a subset of the data from the production environment, and also some modifications to the workload. This influences the test results with regard to Web server memory usage, because the object cache on the production environment receives a larger amount of hits on unique sites, and therefore uses more memory. The lab environment also has less data, and most of it is cached in memory as opposed to the production environment which carries over seven terabytes of data, so that the database server on the production environment is required to perform more disk reads than the database server in the lab environment. Similarly, the hardware that was used in the lab environment is significantly different from the production environment it models, 152 because there is less demand on those resources. The lab environment relies on more easily available hardware. To get a better understanding of the differences between the environments, read the Specifications section in this document, and compare it to the specifications in the Enterprise intranet collaboration environment technical case study (SharePoint Server 2010) (in englischer Sprache). Methodology and Test Notes This document provides results from a test lab environment. Because this was a lab environment and not a production environment, we were able to control certain factors to show specific aspects of performance for this workload. In addition, certain elements of the production environment, listed here, were left out of the lab environment to simplify testing overhead. We do not recommend omitting these elements for production environments. Between test runs, we modified only one variable at a time, to make it easy to compare results between test runs. The database servers that were used in this lab environment were not part of a cluster because redundancy was not necessary for the purposes of these tests. Search crawl was not running during the tests, whereas it might be running in a production environment. To take this into account, we lowered the SQL Server CPU utilization in our definition of ‗Green Zone‘ and ‗Max‘ to accommodate the resources that a search crawl would have consumed if it were running at the same time with our tests. To learn more about this, read Speicher- und SQL Server-Kapazitätsplanung und -Konfiguration (SharePoint Server 2010). Specifications This section provides detailed information about the hardware, software, topology, and configuration of the lab environment. Hardware The following sections describe the hardware that was used in this lab environment. Web and Application servers There are from one to eight Web servers in the farm, plus one Application server. Web Server WFE1-8 and APP1 Processor(s) 2 quad-core 2.33 GHz processors RAM 8 GB Operating system Windows 2008 Server R2 Size of the SharePoint drive 80 GB Number of network adapters 2 Network adapter speed 1 Gigabit Authentication Windows NTLM 153 Web Server WFE1-8 and APP1 Load balancer type Windows NLB Services running locally WFE 1-8: Basic Federated Services. This included the following: Timer Service, Admin Service, and Trace Service. APP1: Word Automation Services, Excel Services and SandBoxed Code Services. Database Servers There are from two to three database servers, up to two running the default SQL Server instance housing the content databases, and one running the logging database. The logging database is not tracked in this document. Hinweis: If you enable usage reporting, we recommend that you store the logging database on a separate Logical Unit Number (LUN). For large deployments and some medium deployments, a separate LUN will not be sufficient, as the demand on the server’s CPU may be too high. In that case, you will need a separate database server box for the logging database. In this lab environment, the logging database was stored in a separate instance of SQL Server, and its specifications are not included in this document. Database Server – Default Instance DB1-2 Processor(s) 4 dual-core 3.19 GHz processors RAM 32 GB Operating system Windows 2008 Server R2 Storage and geometry Direct Attached Storage (DAS) Internal Array with 5 x 300GB 10krpm disk External Array with 15 x 450GB 15krpm disk 6 x Content Data (External RAID0, 2 spindles 450GB each) 2 x Content Logs (Internal RAID0, 1 spindle 300GB each) 1 x Temp Data (Internal RAID0, 2 spindles 150GB each) 1 x Temp Log (Internal RAID0, 2 spindles 150GB each) 2 x Backup drive (Internal RAID0, 1 spindle each, 300GB each) 154 Database Server – Default Instance DB1-2 Number of network adapters 1 Network adapter speed 1 Gigabit Authentication Windows NTLM Software version SQL Server 2008 R2 (pre-release version) Topology The following diagram shows the topology in this lab environment: 155 Configuration 156 To allow for the optimal performance, the following configuration changes were made in this lab environment. Setting Value Notes On The default is Off. Enabling Blob Caching improves server efficiency by reducing calls to the database server for static page resources that may be frequently requested. Site Collection Blob Caching Database Server – Default Instance Max degree of 1 parallelism The default is 0. To ensure optimal performance, we strongly recommend that you set max degree of parallelism to 1 for database servers that host SharePoint Server databases. For more information about how to set max degree of parallelism, see max degree of parallelism Option(http://go.microsoft.com/fwlink/?LinkId=189030). Workload The transactional mix for the lab environment described in this document resembles the workload characteristics of a production environment at Microsoft. For more information about the production environment, see Enterprise intranet collaboration environment technical case study (SharePoint Server 2010) (in englischer Sprache). Here are the details of the mix for the lab tests run against SharePoint Server 2010 compared to the production environment. Although there are some minor differences in the workloads, both represent a typical transactional mix on an enterprise collaboration environment. 157 Dataset The dataset for the lab environment described in this document is a subset of the dataset from a production environment at Microsoft. For more information about the production environment, see Enterprise intranet collaboration environment technical case study (SharePoint Server 2010) (in englischer Sprache). Dataset Characteristics Value Database size (combined) 130 GB BLOB size 108.3 GB Number of content databases 2 Number of site collections 181 Number of Web applications 1 158 Dataset Characteristics Value Number of sites 1384 Results and Analysis The following results are ordered based on the scaling approach described in the Overview section of this document. Web Server Scale Out This section describes the test results that were obtained when we scaled out the number of Web servers in this lab environment. Test methodology Add Web servers of the same hardware specifications, keeping the rest of the farm the same. Measure RPS, latency, and resource utilization. Analysis In our testing, we found the following: The environment scaled up to four Web servers per database server. However, the increase in throughput was non-linear especially on addition of the fourth Web server. After four Web servers, there are no additional gains to be made in throughput by adding more Web servers because the bottleneck at this point was the database server CPU Utilization. The average latency was almost constant throughout the whole test, unaffected by the number of Web servers and throughput. Hinweis: The conclusions described in this section are hardware specific, and the same throughput might have been achieved by a larger number of lower-end hardware, or a smaller number of higher-end hardware. Similarly, changing the hardware of the database server would affect the results. To get an idea on how much of a difference the hardware of the Web servers can affect these results, see the Web Server Scale Up section. Results graphs and charts In the following graphs, the x axis shows the change in the number of Web servers in the farm, scaling from one Web server (1x1x1) to five Web servers (5x1x1). 1. Latency and RPS The following graph shows how scaling out (adding Web servers) affects latency and RPS. 159 2. Processor utilization The following graph shows how scaling out the Web servers affects processor utilization on the Web server(s) and the database server. 160 3. SQL Server I/O operations per section (IOPs) for MDF and LDF files The following graphs show how the IOPs on the content databases change as the number of Web servers is scaled out. These are measured by looking at the following performance counters: PhysicalDisk: Disk Reads / sec PhysicalDisk: Disk Writes / sec In this lab environment, we determined that our data on IOPs was not representative of a production environment because our dataset was so small that we could fit much more of it in cache than would be possible in the production environment we are modeling. We calculated projected reads by multiplying the value of the data we had from the lab for writes/second by the ratio of reads to writes in our production environment. The results in this section are averages. But there are also spikes that occur during certain operations which have to be accounted for. To learn more about how to estimate IOPs needed, see Speicher- und SQL Server-Kapazitätsplanung und -Konfiguration (SharePoint Server 2010). Maximum: 161 Green Zone: Example of how to read these graphs: 162 An organization with a workload similar to that described in this document that expects 300 RPS to be their green zone, could use 3x1x1 topology, and would use approximately 600 Physical Disk reads/sec on the MDF file. Database Server Scale Out This section describes the test results that were obtained when we scaled out the number of database servers in this lab environment. Test methodology Have two content databases on one database server, and then split them to two servers to effectively double the processor cores and memory available to the database servers in the environment. Keep the total IOPs capacity constant even while adding a database server. This means that the number of reads/sec and writes/sec that the disks could perform for each content database did not change despite splitting the content onto two database servers instead of one. Analysis The first bottleneck in the 4x1x2 environment was the database server CPU utilization. There was close to a linear scale when we added more processor and memory power. Scaling to four Web servers and 2 database servers did not provide much additional RPS because the CPU utilization on the Web servers was close to 100%. When we scaled out database servers (by adding one additional database server) and added four Web servers, performance scaled almost linearly. The bottleneck at that point shifted from being the database server CPU utilization to the content database disk IOPs. No additional tests were performed in this lab environment to scale out past 8x1x2. However we expect that additional IOPs capacity would additionally increase throughput. A correlation between the IOPs used and the RPS achieved by the tests was observed Results graphs and charts In the following graphs, the x axis is always showing four Web servers together with 1 application server and 1 database server (4x1x1) scaling out to eight Web servers together with two database servers (8x1x2). Some also show 1x1x1 or 4x1x2. 1. Latency and RPS The following graph shows how scaling out both Web servers and database servers affects latency and RPS. 163 2. Processor utilization The following graphs show how scaling out affects processor utilization. 164 3. Memory utilization at scale out Throughout our testing, we‘ve observed that the larger the number of site collections in an environment, the more the memory consumed. For example, in the tests here where 181 site collections were accessed, the main w3wp process used up 1.8 GB of RAM. For more examples, see the Performance and capacity technical case studies (SharePoint Server 2010) (in englischer Sprache). Additional content about memory requirements for increased numbers of site collections is under development. Check back for new and updated content. 4. SQL Server I/O operations per section (IOPs) for MDF and LDF files The following graphs show how the IOPs change as both the number of Web servers and the number of database servers is scaled out. Maximum RPS 165 Green Zone RPS Web server Scale Up This section describes the test results that were obtained when we scaled up the Web servers in this lab environment. 166 Test methodology Add more Web server processors, but keep the rest of the farm the same. Analysis Scale is linear up to eight processor cores. Tests show that the environment can take advantage of a twenty-four core box, although there is some degradation as twenty-four cores are approached. Results graphs and charts In the following graph, the x axis is the number of processors and the amount of RAM on the Web server. The following graph shows how scaling up (adding processors) affects RPS on the Web server. Comparing SharePoint Server 2010 and Office SharePoint Server 2007 This section provides information about how the capacity testing for this workload varied between SharePoint Server 2010 and Microsoft Office SharePoint Server 2007. Workload To compare SharePoint Server 2010 with Microsoft Office SharePoint Server 2007, a different test mix was used than the one outlined in the Specifications section, because some SharePoint Server 2010 operations were not available in Microsoft Office SharePoint Server 2007. The test mix for Microsoft Office SharePoint Server 2007 is 167 inspired by the same production environment that the SharePoint Server 2010 tests follow. However this was recorded before the upgrade to SharePoint Server 2010 on that environment. The following graph shows the test mix for the lab and production environments for Microsoft Office SharePoint Server 2007. Test methodology The tests performed for this comparison were performed by creating an Microsoft Office SharePoint Server 2007 environment, testing it with the workload outlined earlier in this section, and then upgrading the content databases to SharePoint Server 2010 without changing the clients using the environment, nor doing a visual upgrade. This upgraded environment was then re-tested for the SharePoint Server 2010 results with the same test mix which includes only Microsoft Office SharePoint Server 2007 operations. The dataset was not modified after the content database upgrade for the SharePoint Server 2010 tests. The test mix for Microsoft Office SharePoint Server 2007 excludes any new SharePoint Server 2010 specific operations, and resembles the enterprise intranet collaboration solution on the same production environment for Microsoft Office SharePoint Server 2007, as described under the Workload section. Analysis When the same number of Web servers are stressed to their maximum throughput on SharePoint Server 2010 and Microsoft Office SharePoint Server 2007, SharePoint Server 2010 achieves 20% less throughput compared to Microsoft Office SharePoint Server 2007. 168 When the Web servers were scaled out to maximize the database server usage, SharePoint Server 2010 was able to achieve 25% better throughput compared to Microsoft Office SharePoint Server 2007. This reflects the improvements that were made in SharePoint Server 2010 to sustain larger deployments. When the web servers were scaled out to maximize the database server usage, SharePoint Server 2010 was SQL Server CPU Utilization bound, whereas Microsoft Office SharePoint Server 2007 was Lock bound on the database tier. This means that increasing the processing power available to the database servers enables SharePoint Server 2010 to achieve better throughput than would be possible with the same hardware using Microsoft Office SharePoint Server 2007. This is caused by the locking mechanisms in the database in Microsoft Office SharePoint Server 2007 which are unaffected by improved hardware so that we were unable to push the database server‘s CPU Utilization past 80%. As a result of these findings outlined earlier in this section, on Microsoft Office SharePoint Server 2007 the maximum throughput possible was achieved in a 5x0x1 topology whereas in SharePoint Server 2010 the maximum throughput possible with the same workload was achieved in a 7x0x1 topology, and yielded a 25% increased total RPS. Results graphs and charts The following graph shows the throughput without scaling out Web servers. The following graph shows the throughput when Web servers were at maximum scale out. 169 170 Departmental collaboration environment technical case study (SharePoint Server 2010) (in englischer Sprache) This document describes a specific deployment of Microsoft SharePoint Server 2010. It includes the following: Technical case study environment specifications, such as hardware, farm topology and configuration The workload that includes the number, and types, of users or clients, and environment usage characteristics Technical case study farm dataset that includes database contents and Search indexes Health and performance data that is specific to the environment In this article: Prerequisite information Introduction to this environment Specifications Workload Dataset Health and Performance Data Prerequisite information Before reading this document, make sure that you understand the key concepts behind SharePoint Server 2010 capacity management. The following documentation will help you learn about the recommended approach to capacity management and provide context for helping you understand how to make effective use of the information in this document, and also define the terms used throughout this document. For more conceptual information about performance and capacity that you might find valuable in understanding the context of the data in this technical case study, see the following documents: Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht) SharePoint Server 2010-Kapazitätsverwaltung: Softwarebeschränkungen und grenzen Introduction to this environment This white paper describes an actual SharePoint Server 2010 environment at Microsoft. Use this document to compare with your planned workload and usage characteristics. If 171 your planned design is similar, you can use the deployment described here as a starting point for your own installation. This document includes the following: Specifications, which include hardware, topology and configuration Workload, which is the demand on the farm that includes the number of users, and the usage characteristics Dataset that includes database sizes Health and performance data that is specific to the environment This document is part of a series of Performance and capacity technical case studies (SharePoint Server 2010) (in englischer Sprache) about SharePoint environments at Microsoft. The SharePoint Server 2010 environment described in this document is a production environment at a large, geographically distributed company. Employees use this environment to track projects, collaborate on documents, and share information within their department. This environment is also used for internal testing, and is frequently upgraded to the latest SharePoint Server pre-release versions as they become available. As many as 9,000 unique users visit the environment on a busy day, generating up to 470 requests per second (RPS) during peak hours. Because this is an intranet site, all users are authenticated. The information that is provided in this document reflects the departmental collaboration environment on a typical day. Specifications This section provides detailed information about the hardware, software, topology, and configuration of the case-study environment. Hardware This section provides details about the server computers that were used in this environment. 172 Hinweis: This environment is scaled to accommodate pre-release builds of SharePoint Server 2010 and other products. Hence, the hardware deployed has larger capacity than necessary to serve the demand typically experienced by this environment. This hardware is described only to provide additional context for this environment and serve as a starting point for similar environments. It is important to conduct your own capacity management based on your planned workload and usage characteristics. For more information about the capacity management process, see Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht). Web Servers There are four Web servers in the farm, each with identical hardware. Three serve content, and the fourth is a dedicated search crawl target. Web Server WFE1-2 WFE3-4 Processor(s) 2 quad core @ 2.33 GHz 2 quad core @ 2.33 GHz RAM 32 GB 16 GB Operating system Windows Server 2008, 64 bit Windows Server 2008, 64 bit Size of the SharePoint drive 3x146GB 15K SAS (3 RAID 1 Disks) Disk 1: OS Disk 2: Swap and BLOB Cache Disk 3: Logs and Temp directory 3x146GB 15K SAS (3 RAID 1 Disks) Disk 1: OS Disk 2: Swap and BLOB Cache Disk 3: Logs and Temp directory Number of network adapters 2 2 Network adapter speed 1 Gigabit 1 Gigabit Authentication Windows NTLM Windows NTLM Load balancer type Hardware load balancing Hardware load balancing Software version SharePoint Server 2010 (prerelease version) SharePoint Server 2010 (pre-release version) Services running locally Search Query WFE3 – No 173 Web Server WFE1-2 WFE3-4 services WFE4 – Search crawl target Application Server There are four application servers in the farm. Web Server APP1-3 APP4 Processor(s) 2 quad core @ 2.33 GHz 2 quad core @ 2.33 GHz RAM 16 GB 16 GB Operating system Windows Server 2008, 64 bit Windows Server 2008, 64 bit Size of the SharePoint drive 3x146GB 15K SAS (3 RAID 1 Disks) Disk 1: OS Disk 2: Swap and BLOB Cache Disk 3: Logs and Temp directory 2x136GB 15K SAS (RAID 0) 4x60GB SSD, SATA (RAID 5) Disk 1: OS Disk 2: Swap and BLOB Cache Disk 3: Logs and Temp directory Number of network adapters 2 2 Network adapter speed 1 Gigabit 1 Gigabit Authentication Windows NTLM Windows NTLM Load balancer type Hardware load balancing Hardware load balancing Software version SharePoint Server 2010 (prerelease version) SharePoint Server 2010 (pre-release version) Services running locally APP1 – Central Administration and Search Crawler all applications except for Office Web Applications APP2 – All applications (including Office Web Applications) APP3 – Office Web Applications 174 Database Servers There are three database servers, one running the default SQL Server instance housing the content databases, one running the Usage and Web Analytics databases, and one running the Search databases. Database DB1 – Default Instance DB2 DB3 Processor(s) 4 quad core @ 3.2 GHz 2 quad core 2 quad core @ 3.2 GHz @ 3.2 GHz RAM 32 GB 16 GB Operating system Windows Windows Server 2008 SP1, 64 Windows Server 2008 Server 2008 bit SP1, 64 bit SP1, 64 bit Storage and geometry 5x146GB 15K SAS + SAN Disk 1: OS (2 disk RAID 10) Disk 2: Swap (2 disk RAID 10) Disk 3: Direct Attached Storage (16 disk RAID 10, Temp DB data) SAS 146 GB 15K Disk 4: Direct Attached Storage (16 disk RAID 10, Temp DB data) SAS 146 GB 15K Disk 5-15: SAN using fiber connection. When possible, one database per two disks. Separating logs and data between LUNs. 15K drives. 32 GB 6x450GB 15K SAS Directly attached 14x146GB 15K SAS Disk 1: Usage logs and OS Disk 2: Usage data 2x136GB 15K SAS (RAID 0) 6x60GB SSD, SATA (RAID 5) Disk 1: OS Disk 2: Swap and BLOB Cache Disk 3: Logs and Temp directory. Solid state drives. 660GB Solid state drives (RAID 5) Number of network adapters 2 2 2 Network adapter speed 1 Gigabit 1 Gigabit 1 Gigabit Authentication Windows NTLM Windows NTLM Windows NTLM Software version SQL Server 2008 SQL Server SQL Server 2008 2008 R2 Topology The following diagram shows the topology for this farm. 175 Configuration 176 The following table enumerates settings that were made that affect performance or capacity in the environment. Setting Value Notes Site collection: On Object Caching (On | Disabled Off) Disabled Anonymous Cache On – 100GB Profile (select) 60 seconds Anonymous Cache Profile (select) Object Cache (Off | n MB) Cross List Query Cache Changes (Every Time | Every n seconds) Enabling the output cache improves server efficiency by reducing calls to the database for data that is frequently requested. Site collection cache profile (select) Intranet (Collaboration Site) “Allow writers to view cached content” is checked, bypassing the ordinary behavior of not letting people with edit permissions to have their pages cached. Object Cache (Off | n MB) On – 500 MB The default is 100 MB. Increasing this setting enables additional data to be stored in the frontend Web server memory. Usage Service: Trace Log – days to store log files (default: 14 days) 5 days The default is 14 days. Lowering this setting can save disk space on the server where the log files are stored. Query Logging 1 second Threshold: Microsoft SharePoint Foundation Database – configure QueryLoggingThreshold to 1 second The default is 5 seconds. Lowering this setting can save bandwidth and CPU on the database server. Database Server – Default Instance: Max degree of parallelism The default is 0. To ensure optimal performance, we strongly recommend that you set max degree of parallelism to 1 for database servers that host SharePoint Server 2010 databases. For more information about how to set max degree of parallelism, see max degree of parallelism Option (http://go.microsoft.com/fwlink/?LinkId=189030). 1 177 Workload This section describes the workload, which is the demand on the farm that includes the number of users, and the usage characteristics. Workload Characteristics Value Average Requests per Second (RPS) 165 Average RPS at peak time (11 AM-3 PM) 216 Total number of unique users per day 9186 Average concurrent users 189 Maximum concurrent users 322 Total # of requests per day 7,124,943 This table shows the number of requests for each user agent. User Agent Requests Percentage of Total Search (crawl) 4,373,433 67.61% Outlook 897,183 13.87% OneNote 456,917 7.06% DAV 273,391 4.23% Browser 247,303 3.82% Word 94,465 1.46% SharePoint Workspaces 70,651 1.09% Office Web Applications 45,125 0.70% Excel 8,826 0.14% Access 1,698 0.03% Dataset This section describes the case study farm dataset that includes database sizes and Search indexes. Dataset Characteristics Value 178 Dataset Characteristics Value Database size (combined) 1.8 TB BLOB size 1.68 TB Number of content databases 18 Total number of databases 36 Number of site collections 7,499 Number of Web applications 7 Number of sites 42,457 Search index size (number of items) 4.6 million Health and Performance Data This section provides health and performance data that is specific to the case study environment. General Counters Metric Value Availability (uptime) 99.9995% Failure Rate 0.0005% Average memory used 0.89 GB Maximum memory used 5.13 GB Search Crawl % of Traffic (Search client requests / total requests) 82.5% The following charts show the average CPU utilization and latency for this environment: 179 In this document, latency is divided into four categories. The 50th percentile latency is typically used to measure the server‘s responsiveness. It means that half of the requests 180 are served within that response time. The 95th percentile latency is typically used to measure spikes in server response times. It means that 95% of requests are served within that response time, and therefore, 5% of the requests experience slower response times. Database Counters Metric Value Average Disk queue length 1.42 Disk Queue Length: Reads 1.38 Disk Queue Length: Writes 0.04 Disk Reads/sec 56.51 Disk Writes/sec 17.60 SQL Compilations/second 13.11 SQL Re-compilations/second 0.14 SQL Locks: Average Wait Time 294.56 ms SQL Locks: Lock Wait Time 867.53 ms SQL Locks: Deadlocks Per Second 1.87 SQL Latches: Average Wait Time 5.10 ms SQL Cache Hit Ratio 99.77% 181 Divisional portal environment lab study (SharePoint Server 2010) (in englischer Sprache) This document provides guidance on performance and capacity planning for a divisional portal based on Microsoft SharePoint Server 2010. It includes the following: Test environment specifications, such as hardware, farm topology and configuration Test farm dataset Test data and recommendations for how to determine the hardware, topology and configuration that you must have to deploy a similar environment, and how to optimize your environment for appropriate capacity and performance characteristics In this article: Introduction to this environment Glossary Overview Specifications Results and analysis Introduction to this environment This document outlines the test methodology and results to provide guidance for capacity planning of a typical divisional portal. A divisional portal is a SharePoint Server 2010 deployment where teams mainly do collaborative activities and some content publishing. This document assumes a "division" to be an organization inside an enterprise with 1,000 to 10,000 employees. Different scenarios will have different requirements. Therefore, it is important to supplement this guidance with additional testing on your own hardware and in your own environment. If your planned design and workload resembles the environment described in this document, you can use this document to draw conclusions about scaling your environment up and out. When you read this document, you will understand how to do the following: Estimate the hardware that is required to support the scale that you need to support: number of users, load, and the features enabled. Design your physical and logical topology for optimal reliability and efficiency. High Availability/Disaster Recovery are not covered in this document. Understand the effect of ongoing search crawls on RPS for a divisional portal deployment. The SharePoint Server 2010 environment described in this document is a lab environment that mimics a production environment at a large company. For details about 182 the production environment, see Departmental collaboration environment technical case study (SharePoint Server 2010) (in englischer Sprache). Before reading this document, make sure that you understand the key concepts behind capacity management in SharePoint Server 2010. The following documentation will help you learn about the recommended approach to capacity management and provide context for helping you understand how to make effective use of the information in this document, and also define the terms used throughout this document. Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht) SharePoint Server 2010-Kapazitätsverwaltung: Softwarebeschränkungen und grenzen Also, we encourage you to read the following: Speicher- und SQL Server-Kapazitätsplanung und -Konfiguration (SharePoint Server 2010) Glossary There are some specialized terms that you will encounter in this document. Here are some key terms and their definitions. RPS: Requests per second. The number of requests received by a farm or server in one second. This is a common measurement of server and farm load. Note that requests differ from page loads; each page contains several components, each of which creates one or more requests when the page is loaded. Therefore, one page load creates several requests. Typically, authentication checks and events using insignificant resources are not counted in RPS measurements. Green Zone: This is the state at which the server can maintain the following set of criteria: The server-side latency for at least 75% of the requests is less than .5 second. All servers have a CPU Utilization of less than 50%. Hinweis: Because this lab environment did not have an active search crawl running, the database server was kept at 40% CPU Utilization or lower, to reserve 10% for the search crawl load. This assumes Microsoft SQL Server Resource Governor is used in production to limit Search crawl load to 10% CPU. Failure rate is less than 0.01%. Red Zone (Max): This is the state at which the server can maintain the following set of criteria: HTTP request throttling feature is enabled, but no 503 errors (Server Busy) are returned. Failure rate is less than 0. 1%. The server-side latency is less than 1 second for at least 75% of the requests. Database server CPU utilization is less than or equal to 75%, which allows for 10% to be reserved for the Search crawl load, limited by using SQL Server Resource Governor. All Web servers have a CPU Utilization of less than or equal to 75%. 183 AxBxC (Graph notation): This is the number of Web servers, application servers, and database servers respectively in a farm. For example, 2x1x1 means that this environment has 2 Web servers, 1 application server, and 1 database server. MDF and LDF: SQL Server physical files. For more information, see Files and Filegroups Architecture. Overview This section provides an overview to our assumptions and our test methodology. Assumptions For our testing, we made the following assumptions: In the scope of this testing, we did not consider disk I/O as a limiting factor. It is assumed that an infinite number of spindles are available. The tests model only peak time usage on a typical divisional portal. We did not consider cyclical changes in traffic seen with day-night cycles. That also means that timer jobs which generally require scheduled nightly runs are not included in the mix. There is no custom code running on the divisional portal deployment in this case. We cannot guarantee behavior of custom code/third-party solutions installed and running in your divisional portal. For the purpose of these tests, all of the services databases and the content databases were put on the same instance of Microsoft SQL Server. The usage database was maintained on a separate instance of SQL Server. For the purpose of these tests, BLOB cache is enabled. Search crawl traffic is not considered in these tests. But to factor in the effects of an ongoing search crawl, we modified definitions of a healthy farm. (Green-zone definition to be 40 percent for SQL Server to allow for 10 percent tax from Search crawls. Similarly, we used 80 percent SQL Server CPU as the criteria for max RPS.) Test methodology We used Visual Studio Team System for Test 2008 SP2 to perform the performance testing. The testing goal was to find the performance characteristic of green zone, max zone and various system stages in between for each topology. Detailed definitions of "max zone" and "green zone" are given in the Glossary as measured by specific values for performance counters, but in general, a farm configuration performing around "max zone" breakpoint can be considered under stress, whereas a farm configuration performing "green zone" breakpoint can be considered healthy. The test approach was to start by using the most basic farm configuration and run a set of tests. The first test is to gradually increase the load on the system and monitor its performance characteristic. From this test we derived the throughput and latency at various user loads and also identified the system bottleneck. After we had this data, we identified at what user load did the farm exhibit green zone and max zone characteristics. We ran separate tests at those pre-identified constant user loads for a longer time. These tests ensured that the farm configuration can provide constant green zone and max zone performance at respective user loads, over longer period of time. Later, while doing the tests for the next configuration, we scaled out the system to eliminate bottlenecks identified in previous run. We kept iterating in this manner until we hit SQL Server CPU bottleneck. 184 We started off with a minimal farm configuration of 1 Web server /application server and 1 database server. Through multiple iterations, we finally ended at 3 Web servers, 1 application server, 1 database server farm configuration, where the database server CPU was maxed out. Below you will find a quick summary and charts of tests we performed on each iteration to establish green zone and max zone for that configuration. That is followed by comparison of green zone and max zone for different iterations, from which we derive our recommendations. The SharePoint Admin Toolkit team has built a tool that is named "Load Test Toolkit (LTK)" which is publically available for customers to download and use. Specifications This section provides detailed information about the hardware, software, topology, and configuration of the lab environment. Hardware The table that follows presents hardware specs for the computers that were used in this testing. Every Web server that was added to the server farm during multiple iterations of the test complies with the same specifications. Web server Application Server Processor(s) [email protected] [email protected] 4px4c@ 3.19GHz RAM 8 GB 8 GB 32 GB Number of network adapters 2 2 1 Network adapter speed 1 Gigabit 1 gigabit 1 Gigabit Load balancer type F5 - Hardware load balancer Not applicable Not applicable ULS Logging level Medium Not applicable Medium Database Server Software The table that follows explains software installed and running on the servers that were used in this testing effort. Web Server Operating System Application Server Windows Server 2008 R2 x64 Windows Server 2008 R2 x64 185 Database Server Windows Server 2008 x64 Web Server Application Server Database Server Software version SharePoint Server 2010 and SharePoint SQL Server Office Web Applications, pre- Server 2010 2008 R2 release versions and Office CTP3 Web Applications, pre-release versions Authentication Windows NTLM Windows NTLM Load balancer type F5 - Hardware load balancer Not applicable Not applicable ULS Logging level Medium Medium Not applicable Anti-Virus Settings Disabled Disabled Disabled Services running locally Microsoft SharePoint Foundation Incoming E-Mail Microsoft SharePoint Foundation Web Application Microsoft SharePoint Foundation Workflow Timer Service Search Query and Site Settings Service SharePoint Server Search Central Not Administration applicable Excel Services Managed Metadata Web Service Microsoft SharePoint Foundation Incoming EMail Microsoft SharePoint Foundation Web Application Microsoft SharePoint Foundation Workflow Timer Service PowerPoint Services Search Query and Site Settings Service 186 Windows NTLM Web Server Application Server Database Server SharePoint Server Search Visio Graphics Services Word Viewing Service The table indicates which services are provisioned in the test environment. Other services such as the User Profile service and Web Analytics are not provisioned. Topology and configuration The following diagram shows the topology used for the tests. We changed the number of Web servers from 1 to 2 to 3, as we moved between iterations, but otherwise the topology remained the same. 187 Dataset and disk geometry 188 The test farm was populated with about 1.62 Terabytes of content, distributed across five different sized content databases. The following table explains this distribution: Content database 1 2 3 4 5 Content database size 36 GB 135 GB 175 1.2 75 GB terabytes GB Number of sites 44 74 9 Number of webs 1544 2308 2242 2041 1178 RAID configuration 0 0 0 0 0 Number of spindles for MDF 1 1 5 3 1 Number of spindles for LDF 1 1 1 1 1 9 222 Transactional mix The following are important notes about the transactional mix: There are no My Sites provisioned on the divisional portal. Also, the User Profile service, which supports My Sites, is not running on the farm. The transactional mix does not include any My Site page/web service hits or traffic related to Outlook Social Connector. The test mix does not include any traffic generated by co-authoring on documents. The test mix does not include traffic from Search Crawl. However this was factored into our tests by modifying the Green-zone definition to be 40 percent SQL Server CPU usage instead of the standard 50 percent to allow for 10 percent for the search crawl. Similarly, we used 80 percent SQL Server CPU as the criteria for max RPS. The following table describes the overall transaction mix. The percentages total 100. Feature or Service Operation Read/write Percentage of mix ECM Get static files r 8.93% View home page r 1.52% Display/Edit upsize list item and r new forms 0.32% Download file by using "Save as" 1.39% Microsoft InfoPath Microsoft OneNote 2010 r Open r Microsoft Office OneNote 2007 file 189 13.04% Feature or Service Operation Read/write Percentage of mix Search Search through OSSSearch.aspx or SearchCenter r 4.11% Workflow Start autostart workflow w 0.35% Microsoft Visio Render Visio file in PNG/XAML r 0.90% Office Web Applications PowerPoint Render Microsoft PowerPoint, r scroll to 6 slides 0.05% Office Web Applications Word Render and scroll Microsoft Word doc in PNG/Silverlight r 0.24% Microsoft SharePoint Foundation List – Check out and then check in an item w 0.83% List - Get list r 0.83% List - Outlook sync r 1.66% List - Get list item changes r 2.49% List - Update list items and adding new items w 4.34% Get view and view collection r 0.22% Get webs r 1.21% Browse to Access denied page r 0.07% View Browse to list feeds r 0.62% Browse to viewlists r 0.03% Browse to default.aspx (home r page) 1.70% Browse to Upload doc to doc lib w 0.05% Browse to List/Library's default r view 7.16% Delete doc in doclib using DAV w 0.83% Get doc from doclib using DAV r 6.44% Lock and Unlock a doc in doclib w using DAV 3.32% Propfind list by using DAV r 4.16% Propfind site by using DAV r 4.16% 190 Feature or Service Operation Read/write Percentage of mix List document by using FPSE r 0.91% Upload doc by using FPSE w 0.91% Browse to all site content page r 0.03% View RSS feeds of lists or wikis r 2.03% Excel Services Render small/large Excel files 1.56% Workspaces WXP - Cobalt internal protocol r 23.00% Full file upload using WXP 0.57% r w Results and analysis This section describes the test methodology and results to provide guidance for capacity planning of a typical divisional portal. Results from 1x1 farm configuration Summary of results On a 1 Web server and 1 database server farm, in addition to Web server duties, the same computer was also acting as application server. Clearly this computer (still called Web server) was the bottleneck. As presented in the data here, the Web server CPU reached around 86% utilization when the farm was subjected to user load of 125 users by using the transactional mix described earlier in this document. At that point, the farm exhibited max RPS of 101.37. Even at a small user load, Web server utilization was always too high to consider this farm as a healthy farm. For the workload and dataset that we used for the test, we do not recommend this configuration as a real deployment. Going by definition of "green zone", there is not really a "green zone" for this farm. It is always under stress, even at a small load. As for "max zone", at the smallest load, where the farm was in "max zone", the RPS was 75. Because the Web server was the bottleneck due to its dual role as an application server, for the next iteration, we separated out the application server role onto its own computer. Performance counters and graphs The following table presents various performance counters captured during testing a 1x1 farm at different steps in user load. User Load 50 75 100 RPS 74.958 89.001 95.79 101.37 Latency 0.42 0.66 0.81 0.81 191 125 User Load 50 75 100 Web server CPU 79.6 80.1 89.9 86 Application server CPU N/A N/A N/A Database server CPU 15.1 18.2 18.6 18.1 75th Percentile (sec) 0.3 0.35 0.55 0.59 95th Percentile (sec) 0.71 0.77 1.03 1 The following chart shows the RPS and latency results for a 1x1 configuration. The following chart shows performance counter data in a 1x1 configuration. 192 125 N/A Results from 1x1x1 farm configuration Summary of results On a 1 Web server, 1 application server and 1 database server farm, the Web server was the bottleneck. As presented in the data in this section, the Web server CPU reached around 85% utilization when the farm was subjected to user load of 150 users by using the transactional mix described earlier in this document. At that point, the farm exhibited max RPS of 124.1. This configuration delivered "green zone" RPS of 99, with 75th percentile latency being 0.23 sec, and the Web server CPU hovering around 56 % utilization. This indicates that this farm can healthily deliver an RPS of around 99. "Max zone" RPS delivered by this farm was 123 with latencies of 0.25 sec and the Web server CPU hovering around 85%. Because the Web server CPU was the bottleneck in this iteration, we relived the bottleneck by adding another the Web server for the next iteration. Performance counters and graphs The following table presents various performance counters captured during testing a 1x1x1 farm, at different steps in user load. User Load 25 50 193 75 100 125 150 User Load 25 50 75 100 125 RPS 53.38 91.8 112.2 123.25 123.25 124.1 Latency 34.2 56 71.7 81.5 84.5 84.9 Web server CPU 23.2 33.8 34.4 32 30.9 35.8 Application server CPU 12.9 19.7 24.1 25.2 23.8 40.9 Database server CPU 0.22 0.23 0.27 0.32 0.35 0.42 75th Percentile (sec) 0.54 0.52 0.68 0.71 0.74 0.88 The following chart shows RPS and latency results for a 1x1x1 configuration. The following chart shows performance counter data in a 1x1x1 configuration. 194 150 Results from 2x1x1 farm configuration Summary of results On a 2 Web server, 1 application server and 1 database server farm, the Web server was the bottleneck. As presented in the data in this section, Web server CPU reached around 76% utilization when the farm was subjected to user load of 200 users by using the transactional mix described earlier in this document. At that point, the farm exhibited max RPS of 318. This configuration delivered "green zone" RPS of 191, with 75th percentile latency being 0.37 sec, and Web server CPU hovering around 47 % utilization. This indicates that this farm can healthily deliver an RPS of around 191. "Max zone" RPS delivered by this farm was 291 with latencies of 0.5 sec and Web server CPU hovering around 75%. Because the Web server CPU was the bottleneck in this iteration, we relived the bottleneck by adding another Web server for the next iteration. Performance counters and graphs The following table presents various performance counters captured during testing a 2x1x1 farm, at different steps in user load. User Load 40 80 195 115 150 175 200 User Load 40 80 115 150 175 200 RPS 109 190 251 287 304 318 Latency 0.32 0.37 0.42 0.49 0.54 0.59 Web server CPU 27.5 47.3 61.5 66.9 73.8 76.2 Application server CPU 17.6 29.7 34.7 38 Database server CPU 21.2 36.1 43.7 48.5 52.8 56.2 75th Percentile (sec) 0.205 0.23 0.27 0.3 95th Percentile (sec) 0.535 0.57 0.625 0.745 0.645 0.57 The following chart shows RPS and latency results for a 2x1x1 configuration. The following chart shows performance counter data in a 2x1x1 configuration. 196 45 45.9 0.305 0.305 Results from 3x1x1 farm configuration Summary of results On a 3 Web server, 1 application server and 1 database server farm, finally, the database server CPU was the bottleneck. As presented in the data in this section, database server CPU reached around 76% utilization when the farm was subjected to user load of 226 users by using the transactional mix described earlier in this document. At that point, the farm exhibited max RPS of 310. This configuration delivered "green zone" RPS of 242, with 75th percentile latency being 0.41 sec, and database server CPU hovering around 44% utilization. This indicates that this farm can healthily deliver an RPS of around 242. "Max zone" RPS delivered by this farm was 318 with latencies of 0.5 sec and database server CPU hovering around 75%. This was the last configuration in the series. Performance counters and graphs The following table presents various performance counters captured during testing a 3x1x1 farm, at different steps in user load. User Load 66 103 141 RPS 193.8 218.5 269.8 275.5 318.25 310 197 17 202 226 User Load 66 103 141 17 202 Latency 0.3 0.41 0.47 0.58 0.54 0.78 Web server CPU 33 38.3 45.8 43.3 51 42.5 Application server CPU 28 32.6 46.5 40 45.1 43.7 Database server CPU 41.6 44.2 52.6 48 61.8 75 75th Percentile (sec) 0.22 0.24 0.30 0.65 0.78 0.87 95th Percentile (sec) 0.49 0.57 0.72 1.49 0.51 1.43 The following chart shows RPS and latency results in a 3x1x1 configuration. The following chart shows performance counter data for a 3x1x1 configuration. 198 226 Comparison From the iterative tests we performed, we found out the points at which a configuration enters max zone or green zone. Here‘s a table of those points. The table and charts in this section provide a summary for all the results that were presented earlier in this article. Topology 1x1 1x1x1 2x1x1 3x1x1 Max RPS 75 123 291 318 Green Zone RPS Not applicable 99 191 242 Max Latency 0.29 0.25 0.5 0.5 Green Zone Latency 0.23 0.23 0.37 0.41 The following chart shows a summary of RPS at different configurations. 199 The following chart shows a summary of latency at different configurations. 200 A note on disk I/O Disk I/O based bottlenecks are not considered while prescribing recommendations in this document. However, it is still interesting to observe the trend. Here are the numbers: Configuration 1x1 1x1x1 2x1x1 3x1x1 Max RPS 75 154 291 318 Reads/Sec 38 34 54 58 Writes/Sec 135 115 230 270 Because we ran the tests in durations of 1 hour and the test uses only a fixed set of sites/webs/document libraries and so on, SQL Server could cache all the data. Thus, our testing caused very little Read IO. We see more write I/O operations that read. It is important to be aware that this is an artifact of the test methodology, and not a good representation of real deployments. Most of the typical divisional portals would have more read operations 3 to 4 times more than write operations. The following chart shows I/Ops at different RPS. 201 Tests with Search incremental crawl As we mentioned before, all the tests until now were run without Search crawl traffic. In order to provide information about how ongoing search crawl can affect performance of a farm, we decided to find out the max user RPS and corresponding user latencies with search crawl traffic in the mix. We added a separate Web server to 3x1x1 farm, designated as a crawl target. We saw a 17% drop in RPS compared to original RPS exhibited by 3x1x1. In a separate test, on the same farm, we used Resource Governor to limit available resources to search crawl 10%. We saw that as Search uses lesser resources, the max RPS of the farm climbs up by 6%. Baseline 3x1x1 Only No 10% Incremental Resource Resource Crawl Governor Governor RPS 318 N/A 276 294.5 Percent RPS difference from baseline 0% N/A 83% 88% Database server CPU (%) 83.40 8.00 86.60 87.3 SA Database server CPU 3.16 2.13 3.88 4.2 202 Baseline 3x1x1 Only No 10% Incremental Resource Resource Crawl Governor Governor Web server CPU (%) 53.40 0.30 47.00 46.5 Application server CPU (%) 22.10 28.60 48.00 41.3 16.50 15.00 12.1 (%) Crawl Web server CPU (%) 0.50 The following chart shows results from tests with incremental Search crawl turned on. 203 Wichtig: Here we are only talking about incremental crawl, on a farm where there are not very many changes to the content. It is important to be aware that 10% resource utilization will be insufficient for a full search crawl. It may also prove to be less if there are too many changes. It is definitely not advised to limit resource utilization to 10% if you are running a full search crawl, or your farm generally sees a high volume of content changes between crawls. Summary of results and recommendations To paraphrase the results from all configurations we tested: With the configuration, dataset and test workload we had selected for the tests, we could scale out to maximum 3 Web servers before SQL Server was bottlenecked on CPU. The absolute max RPS we could reach that point was somewhere around 318. With each additional Web server, increase in RPS was almost linear. We can extrapolate that as long as SQL Server is not bottlenecked, you can add more Web servers and additional increase in RPS is possible. Latencies are not affected much as we approached bottleneck on SQL Server. Incremental Search crawl directly affects RPS offered by a configuration. The effect can be minimized by using Resource Governor. Using the results, here are few recommendations on how to achieve even larger scale if you must have more RPS from your divisional portal: 1x1 farm can deliver up to 75 RPS. However, it is usually stressed. It‘s not a recommended configuration for a divisional portal in production. Separate out content databases and services databases on separate instances of SQL Server: In the test workload used in tests, when SQL Server was bottlenecked on CPU, only 3% of the traffic was to the services databases. Thus this step would have achieved slightly better scale out than what we saw. But, in general, increase in scale out by separating out content databases and services databases is directly proportional to the traffic to services database in your farm. Separate out individual content databases on separate instances of SQL Server. In the dataset used for testing, we had 5 content databases, all located on the same instance of SQL Server. By separating them out on different computers, you will be spreading CPU utilization across multiple computers. Therefore, you will see much larger RPS numbers. Finally when SQL Server is bottlenecked on CPU, adding more CPU to SQL Server can increase RPS potential of the farm almost linearly. How to translate these results into your deployment In this article, we discussed results as measured by RPS and latency, but how do you apply these in the real world? Here‘s some math based on our experience from divisional portal internal to Microsoft. A divisional portal in Microsoft which supports around 8000 employees collaborating heavily, experiences an average RPS of 110. That gives a Users to RPS ratio of ~72 204 (that is, 8000/110). Using the ratio, and the results discussed earlier in this article, we can estimate how many users a particular farm configuration can support healthily: Farm configuration "Green Zone" RPS Approximate number of users it can support 1x1x1 99 7128 2x1x1 191 13452 3x1x1 242 17424 Of course, this is only directly applicable if your transactional mix and hardware is exactly same as the one used for these tests. Your divisional portal may have different usage pattern. Therefore, the ratio may not directly apply. However, we expect it to be approximately applicable. About the authors Gaurav Doshi is a Program Manager for SharePoint Server at Microsoft. Raj Dhrolia is a Software Test Engineer for SharePoint Server at Microsoft. Wayne Roseberry is a Principal Test Lead for SharePoint Server at Microsoft. 205 Social environment technical case study (SharePoint Server 2010) (in englischer Sprache) This document describes a specific deployment of Microsoft SharePoint Server 2010. It includes the following: Technical case study environment specifications, such as hardware, farm topology and configuration The workload that includes the number, and types, of users or clients, and environment usage characteristics Technical case study farm dataset that includes database contents and Search indexes Health and performance data that is specific to the environment In this article: Prerequisite information Introduction to this environment Specifications Workload Dataset Health and Performance Data Prerequisite information Before reading this document, make sure that you understand the key concepts behind SharePoint Server 2010 capacity management. The following documentation will help you learn about the recommended approach to capacity management and provide context for helping you understand how to make effective use of the information in this document, and also define the terms used throughout this document. For more conceptual information about performance and capacity that you might find valuable in understanding the context of the data in this technical case study, see the following documents: Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht) SharePoint Server 2010-Kapazitätsverwaltung: Softwarebeschränkungen und grenzen Introduction to this environment This white paper describes an actual SharePoint Server 2010 environment at Microsoft. Use this document to compare with your planned workload and usage characteristics. If 206 your planned design is similar, you can use the deployment described here as a starting point for your own installation. This document includes the following: Specifications, which include hardware, topology and configuration Workload, which is the demand on the farm that includes the number of users, and the usage characteristics Dataset that includes database sizes Health and performance data specific to the environment This document is part of a series of Performance and capacity technical case studies (SharePoint Server 2010) (in englischer Sprache) about SharePoint environments at Microsoft. The SharePoint Server 2010 environment described in this document is a production environment at a large, geographically distributed company. This environment hosts SharePoint My Sites that connect employees with one another and the information that they need. Employees use this environment to present personal information such as areas of expertise, past projects, and colleagues to the wider organization. The environment also hosts personal sites and documents for viewing, editing, and collaboration. My Sites are integrated with Active Directory Domain Services (AD DS) to provide a central location that can be accessed from the browser and various client applications. As many as 72,000 unique users visit the environment on a busy day, generating up to 180 requests per second (RPS) during peak hours. Because this is an intranet site, all users are authenticated. The information that is provided in this document reflects the enterprise social environment on a typical day. Specifications This section provides detailed information about the hardware, software, topology, and configuration of the case-study environment. Hardware 207 This section provides details about the server computers that were used in this environment. Hinweis: This environment is scaled to accommodate pre-release builds of SharePoint Server 2010 and other products. Hence, the hardware deployed has larger capacity than necessary to serve the demand typically experienced by this environment. This hardware is described only to provide additional context for this environment and serve as a starting point for similar environments. It is important to conduct your own capacity management based on your planned workload and usage characteristics. For more information about the capacity management process, see Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht). Web Servers There are three Web servers in the farm, each with identical hardware. Two serve content, and the third is a dedicated search crawl target. Web Server WFE1-3 Processor(s) 2 quad core @ 2.33 GHz RAM 16 GB Operating system Windows Server 2008, 64 bit Size of the SharePoint drive 400 GB Number of network adapters 2 Network adapter speed 1 Gigabit Authentication Windows NTLM Load balancer type Hardware load balancing Software version SharePoint Server 2010 (pre-release version) Services running locally Central Administration Microsoft SharePoint Foundation Incoming E-Mail Microsoft SharePoint Foundation Web Application Microsoft SharePoint Foundation Workflow Timer Service Search Query and Site Settings Service SharePoint Server Search 208 Web Server WFE1-3 Services consumed from a federated services farm User Profile Service Web Analytics Web Service Business Data Connectivity Service Managed Metadata Web Service Application Server There are two application servers in the farm, each with identical hardware. Application Server APP1-4 Processor(s) 2 quad core @ 2.33 GHz RAM 16 GB OS Windows Server 2008, 64 bit Size of the SharePoint drive 400 GB Number of network adapters 1 Network adapter speed 1 Gigabit Authentication Windows NTLM Load balancer type Hardware load balancing Software version SharePoint Server 2010 (pre-release version) Services running locally Office Web Apps Excel PowerPoint Secure Store Usage and Health State Service Database Servers There is a SQL cluster with two database servers, each with identical hardware. One of the servers is active and the other is passive for redundancy. Database Server DB1-2 Processor(s) 4 quad core @ 2.4 GHz RAM 64 GB 209 Database Server DB1-2 Operating system Windows Server 2008, 64 bit Storage and geometry (1.25 TB * 6) Disk 1-4: SQL Data Disk 5: Logs Disk 6: TempDB Number of network adapters 2 Network adapter speed 1 @ 100MB, 1 @ 1GB Authentication Windows NTLM Software version SQL Server 2008 Topology The following diagram shows the topology for this farm. 210 Configuration 211 The following table enumerates settings that were changed that affect performance or capacity in the environment. Setting Value Notes Usage Service: 5 days The default is 14 days. Lowering this setting can save disk space on the server where the log files are Trace Log – days to store stored. log files (default: 14 days) QueryLoggingThreshold 1 The default is 5 seconds. Lowering this setting can second save bandwidth and CPU on the database server. Microsoft SharePoint Foundation Database – configure QueryLoggingThreshold to 1 second 1 Database Server – Default Instance Max degree of parallelism The default is 0. To ensure optimal performance, we strongly recommend that you set max degree of parallelism to 1 for database servers that host SharePoint Server 2010 databases. For more information about how to set max degree of parallelism, see max degree of parallelism Option(http://go.microsoft.com/fwlink/?LinkId=189030). Workload This section describes the workload, which is the demand on the farm that includes the number of users, and the usage characteristics. Workload Characteristics Value Average Requests per Second (RPS) 64 Average RPS at peak time (11 AM-3 PM) 112 Total number of unique users per day 69,814 Average concurrent users 639 Maximum concurrent users 1186 Total # of requests per day 4,045,677 This table shows the number of requests for each user agent. User Agent Requests 212 Percentage of Total User Agent Requests Percentage of Total Outlook Social Connector Browser 1,808,963 44.71% Search (crawl) 704,569 17.42% DAV 459,491 11.36% OneNote 266,68 6.59% Outlook 372,574 9.21% Browser 85,913 2.12% Word 38,556 0.95% Excel 30,021 0.74% Office Web Applications 20,314 0.50% SharePoint Workspaces 19,017 0.47% Dataset This section describes the case study farm dataset that includes database sizes and Search indexes. Dataset Characteristics Value Database size (combined) 1.5 TB BLOB size 1.05 TB Number of content databases 64 Number of Web applications 1 Number of site collections 87,264 Number of sites 119,400 Search index size (number of items) 5.5 million Health and Performance Data This section provides health and performance data that is specific to the case study environment. General Counters 213 Metric Value Availability (uptime) 99.61% Failure Rate 0.39% Average memory used 0.79 GB Maximum memory used 4.53 GB Search Crawl % of Traffic (Search client requests / total requests) 17.42% The following charts show average CPU utilization and latency for this environment. 214 In this document, latency is divided into four categories. The 50th percentile latency is typically used to measure the server‘s responsiveness. It means that half of the requests are served within that response time. The 95th percentile latency is typically used to measure spikes in server response times. It means that 95% of requests are served within that response time, and therefore, 5% of the requests experience slower response times. Database Counters 215 Metric Value Read/Write Ratio (IO Per Database) 99.854 : 0.146 Average Disk queue length 8.702 Disk Queue Length: Reads 30.518 Disk Queue Length: Writes 4.277 Disk Reads/sec 760.886 Disk Writes/sec 180.644 SQL Compilations/second 3.129 SQL Re-compilations/second 0.032 SQL Locks: Average Wait Time 125 ms SQL Locks: Lock Wait Time 33.322 ms SQL Locks: Deadlocks Per Second 0 SQL Latches: Average Wait Time 0 ms SQL Cache Hit Ratio 20.1% 216 Ergebnisse der Leistungs- und Kapazitätstests und Empfehlungen (SharePoint Server 2010) Dieser Abschnitt enthält eine Reihe von Whitepaper und Artikeln, in denen die Auswirkungen bestimmter Featuregruppen von Microsoft SharePoint Server 2010 auf Leistung und Kapazität beschrieben werden. In diesen Whitepaper und Artikeln finden Sie Informationen zu den Leistungs- und Kapazitätsmerkmalen des Features und wie diese von Microsoft getestet wurden: Testfarmmerkmale Testergebnisse Empfehlungen Problembehandlung bei Leistung und Skalierbarkeit Hinweis: Die Whitepaper werden aktualisiert und als Artikel neu veröffentlicht. Wenn Sie ein Whitepaper von dieser Seite herunterladen, sind bei der Neuveröffentlichung als Artikel möglicherweise aktualisierte Informationen verfügbar. Vor der Lektüre dieser Whitepaper und Artikel sollten Sie unbedingt mit den wichtigsten Konzepten der Kapazitätsverwaltung in SharePoint Server 2010 vertraut sein. Weitere Informationen finden Sie unter Capacity management and sizing for SharePoint Server 2010 (in englischer Sprache). In der folgenden Tabelle werden die verfügbaren Whitepaper und Artikel beschrieben. Wenn der Inhalt als Whitepaper verfügbar ist, ist dieses unter Ergebnisse der Leistungsund Kapazitätstests und Empfehlungen für SharePoint Server 2010 als Microsoft WordDokument verfügbar. Thema Beschreibung Access Services Enthält Informationen, wie sich die Verwendung von Access Services auf Topologien mit SharePoint Server 2010 auswirkt. Den Artikel finden Sie unter Estimate performance and capacity requirements for Access Services in SharePoint Server 2010 (in englischer Sprache). Business Connectivity Services Enthält Informationen zum Speicherbedarf von Business Connectivity Services in Topologien mit SharePoint Server 2010. Laden Sie dieses Whitepaper herunter (BCSCapacityPlanningDoc.docx). 217 Thema Beschreibung Übersicht über Caches Enthält Informationen, wie die drei SharePoint Server 2010Caches zur Umsatzsteigerung und damit zur Erfüllung Ihrer unternehmerischen Anforderungen beitragen. Laden Sie dieses Whitepaper herunter (SharePointServerCachesPerformance.docx). Excel Services in Microsoft Enthält Anweisungen zur Planung von Excel Services in SharePoint Server 2010 Microsoft SharePoint Server 2010. Den Artikel finden Sie unter Estimate performance and capacity requirements for Excel Services in SharePoint Server 2010 (in englischer Sprache). InfoPath Forms Services Enthält Informationen zum Speicherbedarf von InfoPath Forms Services in Topologien mit SharePoint Server 2010. Laden Sie dieses Whitepaper herunter (InfoPath2010CapacityPlanningDoc.docx). Umfangreiche Listen Enthält Hinweise zur Leistung umfangreicher Dokumentbibliotheken und Listen. Dieses Dokument gilt speziell für SharePoint Server 2010, wobei jedoch die behandelten Drosselungslimits auch für Microsoft SharePoint Foundation 2010 gelten. Laden Sie dieses Whitepaper herunter (DesigningLargeListsMaximizingListPerformance.docx). Umfangreiche Dokumentrepositorys Enthält Informationen zur Leistung von umfangreichen Dokumentrepositorys im Hinblick auf SharePoint Server 2010. Laden Sie dieses Whitepaper herunter (LargeScaleDocRepositoryCapacityPlanningDoc.docx). Meine Website und thematische Computerfeatures Enthält Informationen zum Speicherbedarf von Meine Website und sonstigen thematischen Computerfeatures in Topologien mit SharePoint Server 2010. Laden Sie dieses Whitepaper herunter (MySitesSocialComputingCapacityPlanningDoc.docx). Office Web Apps Enthält Informationen zum Speicherbedarf von Office Web Apps in Topologien mit SharePoint Server 2010. Laden Sie dieses Whitepaper herunter (OfficeWebAppsCapacityPlanningDoc.docx). PerformancePoint-Dienste Enthält Informationen zum Speicherbedarf von PerformancePoint-Diensten in Topologien mit SharePoint Server 2010. Den Artikel finden Sie unter Schätzen der Leistungs- und Kapazitätsanforderungen für PerformancePoint-Dienste Suchdienst Enthält Kapazitätsplanungsinformationen für unterschiedliche Bereitstellungen des Suchdiensts in SharePoint Server 2010, einschließlich kleiner, mittlerer und 218 Thema Beschreibung großer Farmen. Laden Sie dieses Whitepaper herunter (SearchforSPServer2010CapacityPlanningDoc.docx). Falls Sie FAST Search Server 2010 for SharePoint als Lösung für die Suche in Unternehmen verwenden, finden Sie weitere Informationen unter Plan for performance and capacity (FAST Search Server 2010 for SharePoint). Visio Services Enthält Informationen zum Speicherbedarf von Visio Services in Topologien mit SharePoint Server 2010. Laden Sie dieses Whitepaper herunter (VisioServicesCapacityPlanningDoc.docx). Web Analytics Enthält Informationen zum Speicherbedarf des Web Analytics-Diensts in Topologien mit SharePoint Server 2010. Die Artikel finden Sie unter Capacity requirements for Web Analytics Shared Service in SharePoint Server 2010 (in englischer Sprache). Web Content Management Enthält Informationen zur Leistungs- und Kapazitätsplanung für eine Web Content Management-Lösung. Den Artikel finden Sie unter Schätzen der Leistungs- und Kapazitätsanforderungen für Web Content Management in SharePoint Server 2010. Word Automation Services Enthält Informationen zur Kapazitätsplanung für Word Automation Services in SharePoint Server 2010. Laden Sie dieses Whitepaper herunter (WASCapacityPlanningDoc.docx). Workflow Enthält Informationen zum Speicherbedarf von Workflow in Topologien mit SharePoint Server 2010. Laden Sie dieses Whitepaper herunter (WorkflowCapacityPlanningDoc.docx). 219 Estimate performance and capacity requirements for Access Services in SharePoint Server 2010 (in englischer Sprache) This article provides guidance on the footprint that usage of Access Services in Microsoft SharePoint Server 2010 has on topologies that are running Microsoft SharePoint Server 2010. In this article: Test farm characteristics Test results Recommendations Troubleshooting Test farm characteristics This section describes the dataset that was used during the testing; the workloads that were placed on the product during performance gathering; the hardware that was used during the testing; and the topology for how that hardware was deployed. Dataset Access Services capacity and performance is highly dependent on the makeup of the applications that are hosted on the service. The size of tables and the complexity of queries often have the most effect on capacity and performance. The testing used representative sizes and complexities, but every application and dataset is different. The capacity and performance will depend on the applications that are being used, their specific complexity, and the data size. To evaluate the capacity profile, Access Services applications were simulated on a farm dedicated to Access Services (no other SharePoint tests were running). The farm contained the following representative sites: 1,500 Access Services applications that have a ―Small‖ size profile; 100 items maximum per list. 1,500 Access Services applications that have a ―Medium‖ size profile; 2,000 items maximum per list. 1,500 Access Services applications that have a ―Large‖ size profile; 10,000 items maximum per list. Each application is made up of multiple lists, and the other lists are appropriately sized based on this largest list. Access Services can handle more data than 10,000 items. This number for the ―Large‖ profile was chosen because it was expected that larger applications would not be common. 220 The applications were evenly distributed among the following applications: Contacts A simple contact management application, dominated by a single list. Projects A simple task and project tracking applications, dominated by two lists (projects and tasks associated with each project). Orders A simple order entry system, similar to the Northwind Traders sample of Microsoft Access, but scaled down, and included many interrelated lists (orders, order details, invoices, invoice details, purchase orders, purchase order details, and so on). Workload To simulate application usage, workloads were created to perform one or more of the following operations: Opening forms Paging through the forms Filtering and sorting data sheets Updating, deleting and inserting records Publishing application Render reports Each workload includes ―think time‖ between user actions, ranging from 5 to 20 seconds. This differs from other SharePoint capacity planning documents. Access Services is stateful; memory cursors and record sets were maintained between user interactions. It was important to simulate a full user session and not merely individual requests. For a single user workload, there is an average of two requests per second. The following table shows the percentages used to determine which application and which size of application to use. Small Medium Large Contacts 16% 10% 9% Projects 18% 12% 10% Orders 11% 8% 6% Green and red zone definitions For each configuration, two tests were ran to determine a ―green zone‖ and a ―red zone.‖ The green zone is the recommended throughput that can be sustained. The red zone is the maximum throughput that can be tolerated for a short time, but should be avoided. The green zone was defined as a point at which the test being run consumes at most half the bottlenecking resource. In this case, the bottlenecking resource was %CPU on any of the three tiers: front-end Web server, application server (Access Data Services), or database server (SQL Server). First, the bottleneck was identified for a particular configuration. If the bottleneck was Access Data Services CPU, we made sure that the green zone test consumed CPU on the Access Data Services computers in a range between 40 and 50 percent. 221 For the red zone, a point was selected at which the maximum throughput was reached. This proved to be a CPU range between 80 and 90 percent. When searching for bottleneck, we looked at %CPU, memory usage (private bytes), disk queue length, network I/O, and other resources that could result in a bottleneck. Both the green and red zone tests were run for 1 hour at a fixed user load. Your results might vary The specific capacity and performance figures presented in this article will differ from figures in a real-world environment. This simulation is only an estimate of what actual users might do. The figures presented are intended to provide a starting point for the design of an appropriately scaled environment. After you have completed the initial system design, you should test the configuration to determine whether the system will support the factors in your environment. Hardware setting and topology Lab Hardware To provide a high level of test-result detail, several farm configurations were used for testing. Farm configurations ranged from one to four front-end Web servers, one to four application servers (if there is Access Services or Access Data Services), and a single database server computer that is running Microsoft SQL Server 2008. In addition, testing was performed by using four client computers. All server computers were 64-bit. All client computers were 32-bit. The following table lists the specific hardware that was used for the testing. Machine role CPU Memory Network Disk Front-end Web server 2 processor, 4 core 2.33 GHz 8 GB 1 gig 2 spindles RAID 5 Application server (Access Data Services) 2 processor, 4 core 2.33 GHz 8 GB 1 gig 2 spindles RAID 5 Database server (SQL Server) 4 processor, 4 core 2.6 GHz 32GB 1 gig Direct Attached Storage (DAS) attached RAID 0 for each Logical Unit Number (LUN) Topology From our experience, CPU on the application sever tier, where Access Data Services is running, is an important limiting factor for throughput. We varied our topology by adding 222 additional Access Data Services computers until it was no longer the bottleneck, and then added a front-end Web server to obtain even more throughput. 1x1: One front-end Web server computer to one Access Data Services computer 1x2: One front-end Web server computer to two Access Data Services computers 1x3: One front-end Web server computer to three Access Data Services computers 1x4: One front-end Web server computer to four Access Data Services computers 2x1: Two front-end Web server computers to one Access Data Services computer 2x2: Two front-end Web server computers to two Access Data Services computers 2x4: Two front-end Web server computers to four Access Data Services computers The computer running SQL Server is a relatively strong computer and at no time did it become the bottleneck (although it started to approach CPU saturation on our 2x4 test), so we did not vary this in our topologies. Depending on the queries that are a part of a real-world application mix, it is expected that the database server (SQL Server) tier could become the bottleneck. Reporting Services was running in connected mode for all of our tests, running in the application server (Access Data Services) tier. Test results The following tables show the test results of Access Services. For each group of tests, only certain specific variables are changed to show the progressive impact on farm performance. All the tests reported in this article were conducted with think time or wait time. This differs from the capacity planning results for other parts of SharePoint. For information about bottlenecks of Access Services, see Common bottlenecks and their causes later in this article. Overall scale The following table and graph summarize the impact of adding additional front-end Web servers and dedicated Active Data Services computers to the farm. These throughput numbers are specifically for the Active Data Services computers. They do not reflect the impact on the overall farm. Topology Baseline solution maximum (RPS) Baseline recommended (RPS) 1x1 25 15 1x2 54 29 1x3 82 45 1x4 88 48 2x1 25 15 2x2 55 29 223 Topology Baseline solution maximum (RPS) Baseline recommended (RPS) 2x4 116 58 224 Recommended results The following graph shows the results for recommended sustainable throughput. 225 As described earlier in this article, adding the fourth Access Data Services computer shifts the bottleneck to the front-end Web server, and that adding a second front-end Web server resolves the resource constraint on the front-end Web server tier. This would imply, that 1x1, 1x2, and 1x3 are reasonable configurations. However, when the fourth Access Data Services computer is added, a front-end Web server should also be added. Because scaling is in a linear manner (straight line between from 1x1 to 1x4), it can be assumed that the addition of a seventh Access Data Services computer would also imply the addition of a third front-end Web server, and so on, to satisfy the needs of the farm. Remember that these results are based on a simulated work load only, and that an actual deployment should be monitored to find the point at which additional front-end Web servers are needed to support additional Access Data Services computers. Also, the front-end Web servers are dedicated to Access Services, and in reality the front-end Web servers are likely shared with other SharePoint workloads. The following graph shows the results. 226 The following graph shows the response time at this throughput level. The response time is very fast, at less than ¼ second on average per request. 227 These results show that the SQL Server computer was not a bottleneck, because adding a second front-end Web server resolved the resource shortage, and the SQL Server CPU was always less than 50 percent. However, be aware that the instance of SQL Server is shared with other SharePoint services and SharePoint itself, and so the cumulative effect might drive CPU or disk I/O queue lengths to the point that they do become a bottleneck. Maximum The following graph shows the results, in which throughput was pushed beyond what could be sustained. In this graph we see that again a second front-end Web server was needed to maximum the usefulness of the fourth Access Data Services computer. Again, your results might vary, because this is highly dependent on the applications and their usage patterns. 228 In this case, the response time is increased, as the overall system is under stress. However, these levels are still approximately one second, and acceptable to most users. It might seem odd that with four Access Data Services computers, two front-end Web servers have an increased response time than one front-end Web server. This is because the overall throughput of the system is increased with two front-end Web servers. 229 SQL Server is again not a limiting factor here, because adding the second front-end Web server put us back on a linear scaling line. However, we are reaching almost 90 percent CPU usage on the instance of SQL Server. Therefore, there is very little headroom remaining. If we were to add a fifth Access Data Services computer, the SQL Server computer likely would have become the bottleneck. 230 Detailed results The following tables show the detailed results for the recommended configurations. Overall 1x1 1x2 1x3 Req/Sec 14.96 28.76 45.22 48.01 14.85 28.77 58.02 Tests/Sec 2.00 3.81 Average Latency 235.80 241.21 247.21 244.87 240.70 242.26 250.94 6.11 1x4 6.42 2x1 1.99 2x2 3.81 2x4 7.80 Average front- 1x1 end Web server tier 1x2 1x3 1x4 2x1 2x2 2x4 %CPU 24.40 41.02 43.62 6.31 12.48 26.18 13.82 231 Average front- 1x1 end Web server tier 1x2 Max w3wp 9.46E+08 Private Bytes 2.31E+08 1.49E+09 1.55E+09 8.43E+08 9.84E+08 1.19E+09 Average 1x1 application server (Access Data Services) tier 1x2 1x3 1x4 2x1 2x2 2x4 %CPU 46.30 42.83 43.74 34.51 46.56 43.45 42.13 %CPU w3wp 33.61 31.15 30.71 24.29 33.48 31.64 29.72 %CPU RS 7.94 9.17 6.84 9.03 8.02 8.71 8.62 1x3 1x4 2x1 2x2 2x4 Max total 4.80E+09 Private Bytes 4.89E+09 4.91E+09 4.62E+09 5.32E+09 4.82E+09 5.07E+09 Max w3wp 2.10E+09 Private Bytes 1.97E+09 2.04E+09 1.86E+09 2.00E+09 2.00E+09 2.07E+09 Max RS 1.78E+09 Private Bytes 2.00E+09 1.97E+09 1.86E+09 2.30E+09 1.89E+09 2.02E+09 Database server (SQL Server) tier (single computer) 1x1 1x2 1x3 1x4 2x1 2x2 2x4 %CPU 12.07 18.64 32.53 36.05 9.89 21.42 47.46 Avg Private Bytes 2.96E+10 3.22E+10 3.25E+10 3.25E+10 2.89E+10 3.22E+10 3.25E+10 Max Private Bytes 3.26E+10 3.25E+10 3.25E+10 3.25E+10 3.25E+10 3.25E+10 3.25E+10 Avg Disk 0.74 Queue Length Total 1.18 1.64 1.77 0.67 1.24 The following tables show the detailed results for the maximum configurations. 232 2.18 Overall 1x1 1x2 1x3 Req/Sec 14.96 28.76 45.22 48.01 14.85 28.77 58.02 Tests/Sec 2.00 3.81 Average Latency 235.80 241.21 247.21 244.87 240.70 242.26 250.94 6.11 1x4 6.42 2x1 1.99 2x2 3.81 2x4 7.80 Average front- 1x1 end Web server tier 1x2 1x3 1x4 2x1 2x2 2x4 %CPU 24.40 41.02 43.62 6.31 12.48 26.18 13.82 Max w3wp 9.46E+08 Private Bytes 2.31E+08 1.49E+09 1.55E+09 8.43E+08 9.84E+08 1.19E+09 Average 1x1 application server (Access Data Services) tier 1x2 1x3 1x4 2x1 2x2 2x4 %CPU 46.30 42.83 43.74 34.51 46.56 43.45 42.13 %CPU w3wp 33.61 31.15 30.71 24.29 33.48 31.64 29.72 %CPU RS 7.94 9.17 6.84 9.03 8.02 8.71 8.62 Max total 4.80E+09 Private Bytes 4.89E+09 4.91E+09 4.62E+09 5.32E+09 4.82E+09 5.07E+09 Max w3wp 2.10E+09 Private Bytes 1.97E+09 2.04E+09 1.86E+09 2.00E+09 2.00E+09 2.07E+09 Max RS 1.78E+09 Private Bytes 2.00E+09 1.97E+09 1.86E+09 2.30E+09 1.89E+09 2.02E+09 Database server (SQL Server) tier (single computer) 1x1 1x2 1x3 1x4 2x1 2x2 2x4 %CPU 12.07 18.64 32.53 36.05 9.89 21.42 47.46 Avg Private Bytes 2.96E+10 3.22E+10 3.25E+10 3.25E+10 2.89E+10 3.22E+10 3.25E+10 233 Database server (SQL Server) tier (single computer) 1x1 1x2 Max Private Bytes 3.26E+10 3.25E+10 3.25E+10 3.25E+10 3.25E+10 3.25E+10 3.25E+10 Avg Disk 0.74 Queue Length Total 1.18 1x3 1x4 1.64 1.77 2x1 0.67 2x2 1.24 2x4 2.18 Recommendations This section provides general performance and capacity recommendations. Access Services capacity and performance is highly dependent on the makeup of the applications that are hosted on the service. The size of tables and the complexity of queries often have the most effect. The testing used representative sizes and complexities, but every application and dataset is different. Therefore, the capacity and performance will depend on the applications in use, their specific complexity, and the data size. Hardware recommendations Access Services uses standard hardware for both front-end Web servers and application servers; no special requirements are necessary. General SharePoint Server 2010 guidelines for CPU number, speed, and memory are applicable for computers in the application server (Access Data Services) tier. Scaled-up and scaled-out topologies To increase the capacity and performance of one of the starting-point topologies, you can do one of two things. You can either scale up by increasing the capacity of your existing servers or scale out by adding additional servers to the topology. This section describes the general performance characteristics of several scaled-out topologies. The sample topologies represent the following common ways to scale out a topology for an Access Services scenario: To provide for more user load, check the CPU for the existing Access Services application servers. Add additional CPUs or cores, or both, to these servers if it is possible. Add more Access Services server computers as needed. This can be done to the point that the front-end Web server has become the bottleneck, and then add front-end Web servers as needed. In our tests, memory on the front-end Web server tier and application server (Access Data Services) tier was not a bottleneck. Depending on the size of the result sets, memory could become an issue. However, we do not expect that to be the norm. Track the private bytes for the Access Data Services w3wp process, as described here. 234 In our tests, SQL Server was not a bottleneck. However, our tests were run in isolation from other SharePoint Server 2010 services. SQL Server CPU and disk I/O should be monitored and additional servers or spindles added as needed. Performance-related Access Services settings One way to control the performance characteristics of Access Services is to limit the size and complexity of queries that can be performed. Access Services provides a set of configurable throttles for controlling queries. Each of the following queries can be set through SharePoint Central Administration. (In the Application Management section, click Manage Service Applications, and then click Access Services.) In general, how much data that has to be retrieved from SharePoint to perform a query will have a significant effect on performance. This can be controlled in several ways. First, the inputs to a query can be limited: Maximum Sources per Query Maximum Records per Table Second, the resulting size of a query can be limited: Maximum Columns per Query Maximum Rows per Query Allow Outer Joins In addition to the size of the query (data size in and out), the processing complexity on the data can be controlled, to reduce the CPU load on the application server (Access Data Services) tier: Maximum Calculated Columns per Query Maximum Order by Clauses per Query Obviously, the previous settings will affect the applications that can be run on the server. For example, if an application is written with 40 output columns from a query, and the settings are below this level, the application will throw a runtime error. A balance between user need and acceptable performance must be struck, and is highly dependent on the kind of Access applications that are expected to be run on the farm. One additional, more extreme measure can be taken. SharePoint Server 2010 supports a set of query operations natively, which Access Services augments to cover a broader set of application scenarios. For Access Services to improve queries from SharePoint, there is the potential that a large amount of data might have to be retrieved from the SharePoint content database. Instead, Access Services can be set to stick with only query operations, which can be natively supported by SharePoint. Therefore, avoiding the data fetch required for more complex operations: Allow Non-Remotable Queries Optimizations Common bottlenecks and their causes During performance testing, several different common bottlenecks were revealed. A bottleneck is a condition in which the capacity of a particular constituent of a farm is reached. This causes a plateau or decrease in farm throughput. The table in Troubleshooting later in this article lists some common bottlenecks and describes their causes and possible resolutions. Performance monitoring 235 To help you determine when you have to scale up or scale out the system, use performance counters to monitor the health of the system. Use the information in the following tables to determine which performance counters to monitor, and to which process the performance counters should be applied. Front-end Web servers The following table shows performance counters and processes to monitor for Web servers in your farm. Performance counter Apply to object Notes % Processor Time Processor(_Total) Shows the percentage of elapsed time that this thread used the processor to execute instructions. Private Bytes Process(w3wp) This value should not approach the Max Private Bytes set for w3wp processes. Iif it does, additional investigation is needed into what component is using the memory. Access Data Services The following table shows performance counters and processes to monitor for application servers, or Access Data Services (Access Data Services) in this case, within your farm. Performance counter Apply to object Notes % Processor Time Processor(_Total) Shows the percentage of elapsed time that this thread used the processor to execute instructions. % Processor Time Process(w3wp) The Access Data Services runs within its own 236 Performance counter Apply to object Notes w2wp process, and it will be obvious which w2wp process this is as it will be getting the bulk of the CPU time. Avg. Disk Queue Length PhysicalDisk(_Total) % Processor Time Process(ReportingServicesService) Reports are handled by SQL Server Reporting Services. If too many reports are being run, or if the reports are very complex, then the CPU and Private Bytes for this process will be high. Private Bytes Process(w3wp) Private Bytes Process(ReportingSrevicesService) Reports are handled by SQL 237 Watch for too much disk writing because of logging. Access Services caches the results of queries in memory, until the user’s session expires (the time-out for which is configurable). If a large amount of data is being processed through the Access Data Services, memory consumption for the Access Data Services’ w3wp will increase. Performance counter Apply to object Notes Server Reporting Services. If too many reports are being run, or reports are very complex, the CPU and Private Bytes for this process will be high. Database servers The following table shows performance counters and processes to monitor for database servers in your farm. Performance counter Apply to object Notes % Processor Time Processor(_Total) Shows the percentage of elapsed time that this thread used the processor to execute instructions. % Processor Time Process(sqlservr) Average values larger than 80 percent indicate that processor capacity on the database server is insufficient. Private Bytes Process(sqlservr) Shows the average amount of memory being consumed by SQL Server. Avg. Disk Queue Length PhysicalDisk(_Total) Shows the average disk queue length; the database requests waiting to be committed to disk. This is often a good indicator that the 238 Performance counter Apply to object Notes instance of SQL Server is becoming overloaded, and that possibly additional disk spindles would help distribute the load. Troubleshooting The following table lists some common bottlenecks and describes their causes and possible resolutions. Bottleneck Cause Resolution Access Data Services CPU Access Services Increase the number of CPUs or cores, or depends on a large both, in the existing Access Data Services amount of computers. Add additional Access Data processing in the Services computers if possible. application server tier. If a 1x1, 1x2, or 1x3 configuration is used, the first bottleneck encountered will likely be the CPU on the Access Data Services servers. Web server CPU usage When a Web server This issue can be resolved in one of two ways. is overloaded with You can add more Web servers to the farm to user requests, distribute user load, or you can scale up the average CPU usage Web server or servers by adding higher-speed will approach 100 processors. percent. This prevents the Web server from responding to requests quickly and can cause timeouts and error messages on client computers. Database server disk I/O When the number of Distributing data files across multiple physical I/O requests to a drives allows for parallel I/O. The blog 239 Bottleneck Cause Resolution hard disk exceeds SharePoint Disk Allocation and Disk I/O (http://go.microsoft.com/fwlink/?LinkId=129557) the disk’s I/O contains useful information about resolving capacity, the disk I/O issues. requests will be queued. As a result, the time to complete each request increases. Reporting Services The Reporting CPU utilization Services process is using a large share of the CPU resources. Dedicate a computer to Reporting Services, taking load from the application server (Access Data Services) tier (connected mode) or the front-end Web server tier (local mode). 240 Estimate performance and capacity requirements for Excel Services in SharePoint Server 2010 (in englischer Sprache) This article describes the effects of using Excel Services in Microsoft SharePoint Server 2010 on topologies running Microsoft SharePoint Server 2010. You can use this information to better scale your deployments based on your latency and throughput requirements. Hinweis: It is important to be aware that the specific capacity and performance figures presented in this article will differ from the figures in real-world environments. The figures presented are intended to provide a starting point for the design of an appropriately scaled environment. After you have completed your initial system design, test the configuration to determine whether the system will support the needs of your environment. In this article: Test farm characteristics Test Results Recommendations For general information about how to plan and run your capacity planning for SharePoint Server 2010, see Capacity management and sizing for SharePoint Server 2010 (in englischer Sprache). Test farm characteristics This section describes the dataset, workloads, hardware settings, topology, and test definitions that were used during the performance and capacity testing of Excel Services. Dataset Excel Services capacity and performance is highly dependent on the makeup of the workbooks that are hosted on the service. The size of the workbook and the complexity of calculations have the most impact. Our testing used representative sizes and complexities, but every workbook is different, and your capacity and performance depends on the actual workbooks you use, and their specific size and complexity. We simulated Excel workbooks on a farm dedicated to Excel to evaluate our capacity profile. Note that no other SharePoint Server tests were running during our capacity profile tests. Within this farm, we used three buckets of workbooks – Small, Large, and Very Large – based on workbook size and complexity: 241 Workbook Characteristics Small Large Very Large Sheets 1-3 1-5 1-20 Columns 10-20 10-500 101,000 Rows 10-40 10-10,000 10030,000 Calculated Cells 0-20% 0-70% 0-70% Number of Formats 1-10 1-15 1-20 Tables 0-1 0-2 0-5 Charts 0-1 0-4 0-4 Workbook Uses External Data 0% 20% 50% Workbook Uses a Pivot Table 0% 3% 3% Workbook Uses Conditional Formats 0% 10% 20% This test farm included 2,000 SharePoint Server sites. Each site contained one small, one large, and one very large workbook. The distribution of the workbooks on the SharePoint Server pages was 10% small workbooks and 90% large and very large workbooks. Additionally, the test farm dataset included SharePoint Server pages that contained 1-5 Excel Web Parts. Workload To simulate application usage, workloads were created to perform one or more of the following operations: Action Mix Small Workbook Large Workbook View 50% 70% Edit 35% 15% Collaborative Viewing 10% 10% Collaborative Editing 5% 5% In addition, 17% of all the workbooks included external data. For large and very large workbooks that included external data, refreshes were performed 80% of the time; small workbooks do not include external data. Each workload includes think time between user actions of 10 seconds. Think time refers to user action delays that simulate how long a user might take to perform the actions. 242 This differs from other SharePoint Server 2010 capacity planning documents. Excel Services is stateful —the workbook is maintained in memory between user interactions — making it important to simulate a full user session and not merely individual requests. On average, there are 0.2 requests per second for a single user workload. We randomly selected one of the 2,000 sites to run the test for each workload. We used the percentages in the following table to select application and application size, within that site. Workbook Selection Use Percentage Small Workbook 30% Large Workbook 55% Dashboard 10% Very Large Workbook 5% Green and Red Zone definitions For each configuration two zones were determined before throughput tests were performed. One zone was the green zone or recommended zone in which throughput can be sustained. The other zone was the red zone or maximum zone in which throughput can be tolerated for a short time but should be avoided. To determine our red and green zone user loads, we first conducted a step test and then stopped when the following conditions were met: Green zone We stopped at the point when any of the computers in our farm (Web front-end, Dienste für Excel-Berechnungen, or Microsoft SQL Server) exceeded 50% CPU usage or the response time for the overall system exceeded 1 second. Red Zone We stopped at the point where the successful RPS for the Dienste für Excel-Berechnungen computers in the farm was at a maximum. Past this point, the overall throughput for the farm started to decrease and/or we would start to see failures from one of the tiers. Often the maximum private bytes in Dienste für ExcelBerechnungen would be exceeded when throughput was in the red zone. After conducting the step tests, we retreated from these maximum values to run a longer constant load test of 1 hour. We stopped the green zone test when 75% of the load was used. We peaked in the red zone step test when we used 65% of the load. If the green zone test was limited by memory, and the CPU usage percentage never exceeded 50%, we instead used 75% of the load number calculated for the red zone. The average response time was less than .25 seconds for both green and red zones, and for both scale-out and scale-up tests. Hardware Settings and Topology This section describes the kinds of computer hardware we used in our lab and the farm configuration topologies that we used in our tests. Lab Hardware Several farm configurations were used for our testing to provide a high level of test-result detail. The farm configurations ranged from one to three Web front-end servers, one to 243 three application servers for Excel Services and Dienste für Excel-Berechnungen, and a single database server computer that is running Microsoft SQL Server 2008. Additionally, our tests used four client computers. All servers were 64-bit, and the client computers were 32-bit. The following table lists the specific hardware that we used for testing. Machine Role CPU Memory Network Web front-end server 2 proc/4 core 2.33 GHz Intel Xeon 8 GB 1 gig Dienste für Excel-Berechnungen 2 proc/4 core 2.33 GHz Intel Xeon 8 GB 1 gig SQL Server 16 GB 1 gig 4 proc/4 core 2.6 GHz Intel Xeon Topology Our testing experience indicates that memory on the Dienste für Excel-Berechnungen tier and CPU on the Web front-end server tier are the most important limiting factors for throughput. Be aware that your experience may vary. As a result, we varied the number of computer servers in both tiers for the scale-out tests. We deployed a topology of 1:1 for the Dienste für Excel-Berechnungen and Web frontend servers for the scale-up tests, and then varied the number of processors and available memory in the Dienste für Excel-Berechnungen computers. Dienste für Excel-Berechnungen is not especially demanding on the SQL Server instance running SharePoint Server 2010, as the workbook is read a binary large object (BLOB) from SharePoint Server 2010 and put in memory on the Dienste für Excel-Berechnungen tier (and additionally disk cached). At no time did SQL Server become a bottleneck. For all tests, bottleneck is defined as a state in which the capacity of a particular component of a farm is reached. Test Results The following tables show the test results of Excel Services in Microsoft SharePoint Server 2010. For each group of tests, only certain specific variables are changed to show the progressive effect on farm performance. Note that all the tests reported on in this article were conducted with think or wait time (think time equals 10 seconds between user actions). This differs from the capacity planning results for other parts of SharePoint Server 2010. For information about Excel Services bottlenecks, see the Common bottlenecks and their causes section in this article. Overall Scale The table here summarizes the effect of adding additional Web Front-End and dedicated Dienste für Excel-Berechnungen computers to the farm. These throughput numbers are specifically for the Dienste für Excel-Berechnungen computers, and do not reflect the effect on the overall farm. 244 Topology Baseline Maximum (RPS) Baseline Recommended (RPS) 1x1 38 31 1x2 35 26 1x3 28 21 2x1 57 35 2x2 62 46 2x3 52 39 3x1 51 32 3x2 81 69 3x3 83 64 245 Recommended Results The following chart shows our results for recommended sustainable throughput. 246 The previous chart shows that there is overhead associated with adding Web front-end computers to the farm. However, this is offset as Dienste für Excel-Berechnungen computers are added. A single Web front-end became the bottleneck after adding two additional Dienste für Excel-Berechnungen computers. This Web front-end bottleneck reversed any benefit that was gained from the additional capacity of adding a second and third Dienste für Excel-Berechnungen computer. Also notice that three Web front-end 247 computers did not add any more throughput, as Dienste für Excel-Berechnungen became the limiting factor. Notice in the previous chart that as Web front-end computers are added, the CPU load on each computer is reduced significantly. Note too, that with two Web front-end computers and three Dienste für Excel-Berechnungen computers, the CPU load is reaching the maximum seen for a single Web front-end computer. This implies that adding another Dienste für Excel-Berechnungen computer would make the Web frontend tier the limiting factor. Remember that these results are for the ―recommended‖ load. This is why the CPU load is maxing out at around 35% instead of at an increased level. Maximum Results The following chart shows our results for maximum peak throughput. 248 Similar to our recommended results, we see that a single Web front-end computer is the limiting factor as we add a second and third Dienste für Excel-Berechnungen computer. Also notice that exactly as with the recommended results, adding a third Web front-end computer does not add to throughput as Dienste für Excel-Berechnungen is the limiting factor after the second Web front-end computer is added. 249 The results in the previous chart show that multiple Web front-end computers do not become as heavily loaded as a single Web front-end computer configuration. This indicates that the Dienste für Excel-Berechnungen computers are the bottleneck after the second Web front-end computer is added. Detailed Results This section shows details for the recommended and maximum results obtained in our tests. Recommended Results The following tables show the recommended results of our tests. Overall 1x1 1x2 250 1x3 2x1 2x2 2x3 3x1 3x2 3x3 Overall 1x1 1x2 1x3 Client Successful RPS 30.56 34.55 31.67 26.03 45.94 68.37 20.71 38.82 63.70 Client Response Time (sec.) 0.22 0.18 0.19 0.16 0.19 0.20 0.15 0.15 0.17 TPS 1.58 1.77 1.61 1.40 2.38 3.54 1.08 2.03 3.25 1x3 2x1 2x1 2x2 2x3 2x2 2x3 3x1 3x2 3x1 3x2 3x3 Web Front-end Tier 1x1 1x2 3x3 % CPU (average over all Web Frontend computers 33.73 37.64 33.84 14.61 23.95 36.90 7.54 13.12 21.75 Dienste für 1x1 ExcelBerechnung en Tier 1x2 1x3 2x1 2x2 2x3 3x1 3x2 3x3 % CPU 30.56 (average over all Dienste für ExcelBerechnung en computers) 34.55 31.67 26.03 45.94 68.37 20.71 38.82 63.70 Peak 5.94E+ 5.82E+ 5.79E+ 5.87E+ 6.09E+ 5.92E+ 5.79E+ 5.91E+ 5.85E+ Private 09 09 09 09 09 09 09 09 09 Bytes (maximum over all Dienste für ExcelBerechnung en computers) Maximum Results The following tables show the maximum results of our tests. Overall 1x1 1x2 251 1x3 2x1 2x2 2x3 3x1 3x2 3x3 Overall 1x1 1x2 Client Successful RPS 37.85 56.70 51.17 35.19 62.04 81.31 27.79 51.62 82.58 Client Response Time (sec.) 0.19 0.28 0.23 0.16 0.20 0.25 0.16 0.16 0.22 TPS 1.92 2.96 2.59 1.81 3.21 4.60 1.41 2.72 4.30 Web Front-end Tier 1x1 1x2 % CPU (average 41.08 over all Web Frontend computers 1x3 1x3 2x1 2x1 2x2 2x2 2x3 2x3 3x1 3x1 3x2 3x3 3x2 3x3 67.78 58.59 19.44 34.11 45.97 10.19 17.79 28.69 Dienste für 1x1 ExcelBerechnung en Tier 1x2 1x3 % CPU 24.99 (average over all Dienste für ExcelBerechnung en computers) 18…44 10.96 2x1 2x2 2x3 3x1 3x2 3x3 23.57 20.56 17.77 18.97 17.04 18.10 Peak 5.91E+ 5.85E+ 5.91E+ 5.88E+ 5.99E+ 6.502E+ 5.94E+ 5.94E+ 6.04E+ Private 09 09 09 09 09 09 09 09 09 Bytes (maximum over all Dienste für ExcelBerechnung en computers) Scale Up Test results We also measured the effect of adding CPUs and memory to the Dienste für ExcelBerechnungen tier. For these tests, a 1x1 topology was used. 252 Our results in the previous chart show that adding additional CPUs was helpful but did not significantly affect the overall throughput. 253 The red zone line in the previous chart shows however, that adding memory does have a significant effect on throughput, especially at peak times. In this test, the same hardware was used throughout. However, the Maximum Private Bytes for the Excel Services process was limited. Since workbooks are kept in memory, the size of the workbooks has a significant effect on how many workbooks, and also how many users, any Dienste für Excel-Berechnungen computer can support. Recommendations This section provides general performance and capacity recommendations for hardware, Excel Services settings, common bottlenecks and troubleshooting. Note that Excel Services capacity and performance is highly dependent on the makeup of the workbooks that are hosted on the service. The size of the workbook and the complexity of calculations have the most effect. Our testing used representative sizes and complexities, but every workbook is different, and your capacity and performance depends on the specific size and complexity of the workbooks you use. 254 Hardware Recommendations Excel Services uses standard hardware for both Web front-end servers and application servers, there are no special requirements. General SharePoint Server 2010 guidelines on CPU number, speed, and memory are applicable for computers in the Dienste für Excel-Berechnungen tier. Note that one of the first bottlenecks an Dienste für ExcelBerechnungen computer is likely to encounter is memory and this may require you to add resources. Before you do, we recommend that you test with a representative set of workbooks from your organization, as the size and complexity of workbooks have a large effect on how much more capacity the addition of memory is likely to have. To increase the capacity and performance of one of the starting-point topologies, you can do one of two things. You can either scale up by increasing the capacity of your existing servers or scale out by adding additional servers to the topology. This section describes the general performance characteristics of several scaled-out topologies. The sample topologies represent the following common ways to scale out a topology for an Excel Services scenario: To provide for more user load, check the CPU and memory for the existing Excel Services application servers. Add additional memory if the CPU is not a concern, or add CPUs if memory is not a concern. If both memory and CPU are reaching their upper limits, additional Dienste für Excel-Berechnungen computers may be necessary. Add additional Dienste für Excel-Berechnungen or application servers until the point that the Web front-end servers become the bottleneck, and then add Web front-end servers as needed. In our tests, SQL Server was not a bottleneck. Excel Services does not make large demands on the database tier, as workbooks are read and written as whole documents, and also workbooks are held in memory throughout the user‘s session. Performance-Related Excel Services Settings One of the ways to control the performance characteristics of Excel Services is to control how memory is used. Each of the global settings in the following list are set through SharePoint Server 2010 Central Administration > Application Management: Manage Service Applications > Excel Services-Anwendung > Global Settings: Maximum Private Bytes — By default, Dienste für Excel-Berechnungen will use up to 50% of the memory on the computer. If the computer is shared with other services, it may make sense to lower this number. If the computer is not being shared and is dedicated to Dienste für Excel-Berechnungen, and is indicating that memory may be a limiting factor, increasing this number may make sense. In any event, experimenting by adjusting this number can guide the administrator to making the necessary changes in order to better scale up. Memory Cache Threshold — Dienste für Excel-Berechnungen will cache unused objects (for example, read-only workbooks for which all sessions have timed out) in memory. By default, Dienste für Excel-Berechnungen will use 90% of the Maximum Private Bytes for this purpose. Lowering this number can improve overall performance if the server is hosting other services in addition to Dienste für ExcelBerechnungen. Increasing this number increases the chances that the workbook being requested will already be in memory and will not have to be reloaded from the SharePoint Server content database. 255 Maximum Unused Object Age — By default, Dienste für Excel-Berechnungen will keep objects in the memory cache as long as possible. To reduce the Dienste für Excel-Berechnungen memory usage, in particular with other services that are running on the same computer, it may make more sense to impose a limit on how long objects are cached in memory. There are also settings available to control the maximum size of a workbook and the lifetime of a session, which in turn control how long a workbook is held in memory. These settings are associated with each trusted location and are not global. These settings can be set through SharePoint Server 2010 Central Administration > Application Management: Manage Service Applications > Excel Services-Anwendung > Trusted Locations, and then edit the settings for each trusted location in the Workbook Properties section on the Edit Trusted File Location page. Maximum Workbook Size Maximum Chart or Image Size By default, Dienste für Excel-Berechnungen is limited to 10 MB or smaller workbooks and 1 MB or smaller charts/images. Obviously using larger workbooks and larger charts/images puts more strain on the available memory of the Dienste für ExcelBerechnungen tier computers. However, there may be users in your organization that need these settings to be increased for Dienste für Excel-Berechnungen to work with their particular workbooks. Session Timeout — By decreasing the session time out, memory is made available for either the unused object cache or other services faster. Volatile Function Cache Lifetime — Volatile functions are functions that can change their value with each successive recalculation of the workbook, for example date/time functions, random number generators, and so on. Because of the load this could generate on the server, Dienste für Excel-Berechnungen does not recalculate these values for each recalculation, instead caching the last values for a short time period. Increasing this lifetime can reduce the load on the server. However, this depends on having workbooks that use volatile functions. Allow External Data — Dienste für Excel-Berechnungen can draw on external data sources. However, the time that is required to draw upon the external source can be significant, with potentially a large amount of data returned. If external data is allowed, there are several additional settings that can help throttle the effect of this feature. Common bottlenecks and their causes During performance testing, several different common bottlenecks were revealed. Bottlenecks are defined as a state in which the capacity of a particular component of a farm is reached. This causes a plateau or decrease in farm throughput. The following table lists some common bottlenecks and describes their causes and possible resolutions. Troubleshooting performance and scalability Bottleneck Cause Resolution Dienste für Excel-Berechnungen Memory Excel Services holds each workbook in memory throughout Scale Up with more memory in 256 Bottleneck Cause Resolution the user's session. A large number of workbooks, or large workbooks, can cause Dienste für ExcelBerechnungen to consume all available memory causing the actually consumed "Private Bytes" to exceed "Maximum Private Bytes." the Dienste für ExcelBerechnungen tier computers, or Scale Out with the addition of more Dienste für ExcelBerechnungen computers. The choice will partly depend on if CPU is also reaching a maximum. Dienste für Excel-Berechnungen CPU Excel Services can depend on a large amount of processing in the application tier, depending on the number and complexity of workbooks. Increase the number of CPUs and/or cores in the existing Dienste für ExcelBerechnungen computers, or add Dienste für ExcelBerechnungen computers. Web server CPU usage When a Web server is overloaded with user requests, average CPU usage will approach 100 percent. This prevents the Web server from responding to requests quickly and can cause timeouts and error messages on client computers. This issue can be resolved in one of two ways. You can add Web servers to the farm to distribute user load, or you can scale up the Web server or servers by adding faster processors. Performance monitoring To help you determine when you have to scale up or scale out the system, use performance counters to monitor the health of the system. Use the information in the following tables to determine which performance counters to monitor, and to which process the performance counters should be applied. Front-end Web server 257 The following table shows performance counters and processes to monitor for front-end Web servers in your farm. Performance Counter Apply to object Notes % Processor Time Processor (w3wp) Shows the percentage of elapsed time that this thread used the processor to execute instructions. % Processor Time Processor (_Total) Shows the percentage of elapsed time that all threads on the server computer that used the processor to execute instructions. Private Bytes Process (w3wp) This value should not approach the Max Private Bytes set for w3wp processes. If it does, additional investigation is needed into what component is using the memory. Dienste für Excel-Berechnungen The following table shows performance counters and processes to monitor for application servers, or in this case Dienste für Excel-Berechnungen, within your farm. Performance Counter Apply to object Notes % Processor Time Processor (_Total) Shows the percentage of elapsed time that all threads on the server that used the processor to execute 258 Performance Counter Apply to object Notes instructions. % Processor Time Processor (w3wp) The Dienste für ExcelBerechnungen runs within its own w3wp process, and it will be obvious which w3wp process this is as it will be getting the bulk of the CPU time. Average Disk Queue Length PhysicalDisk(_Total) Watch for too much disk writing because of logging. Private Bytes Process(w3wp) Excel Services caches workbooks in memory, until the user's session expires (the time out for which is configurable). If a large amount of data is being processed through the Dienste für ExcelBerechnungen, memory consumption for the Dienste für ExcelBerechnungen w3wp will increase. SQL Server As we have previously described, Excel Services is light on the SQL Server tier, as workbooks are read once into memory on the Dienste für Excel-Berechnungen tier during the user's session. Follow general SharePoint Server guidelines for monitoring and troubleshooting of the SQL Server tier. 259 Schätzen der Leistungs- und Kapazitätsanforderungen für PerformancePoint-Dienste In diesem Artikel werden die Auswirkungen durch die Verwendung von PerformancePoint Services auf Topologien beschrieben, auf denen Microsoft SharePoint Server 2010 ausgeführt wird. Hinweis: Dabei sollten Sie beachten, dass die in diesem Artikel genannten spezifischen Kapazitäts- und Leistungsangaben von den Werten in tatsächlichen Umgebungen abweichen. Die hier dargestellten Werte sollen einen Ausgangspunkt für die Entwicklung einer korrekt skalierten Umgebung bilden. Nachdem Sie Ihren ersten Systementwurf erstellt haben, testen Sie die Konfiguration, um zu ermitteln, ob das System die Faktoren in Ihrer Umgebung unterstützt. Inhalt dieses Artikels Testfarmmerkmale Testergebnisse Empfehlungen Allgemeine Informationen zur Durchführung der Kapazitätsplanung für SharePoint Server 2010 finden Sie unter Capacity management and sizing for SharePoint Server 2010 (in englischer Sprache). Testfarmmerkmale Dataset Das Dataset setzte sich aus einem Firmenportal zusammen, das mithilfe von SharePoint Server 2010 und PerformancePoint Services mit einem einzelnen Dashboard mittlerer Größe erstellt wurde. Das Dashboard enthielt zwei Filter, die mit einer Scorecard, zwei Diagrammen und einem Raster verbunden waren. Das Dashboard basierte auf einer einzelnen Microsoft SQL Server 2008 Analysis Services (SSAS)-Datenquelle, die die AdventureWorks-Beispieldatenbanken als SQL Server 2008 Analysis Services-Cube verwendeten. In der nachfolgenden Tabelle werden der Typ und die Größe der einzelnen Elemente des Dashboards beschrieben. Name Beschreibung 260 Größe Name Beschreibung Größe Filter 1 Elementauswahlfilter 7 Dimensionselemente Filter 2 Elementauswahlfilter 20 Dimensionselemente Scorecard Scorecard 15 Dimensionselementzeilen x 4 Spalten (2 KPIs) Diagramm 1 Liniendiagramm 3 Datenreihen x 12 Spalten Diagramm 2 Gestapeltes Balkendiagramm 37 Datenreihen x 3 Spalten Raster Analyseraster 5 Zeilen x 3 Spalten Für das Dashboard mittlerer Größe wurde die Vorlage Kopfzeile und zwei Spalten verwendet. Die Dashboardelementgrößen wurden entweder automatisch festgelegt oder als bestimmter Prozentwert des Dashboards. Jedes Element auf dem Dashboard wurde mit einer Zufallshöhe und -breite zwischen 400 und 500 Pixel dargestellt, um die unterschiedlichen Größen von Webbrowserfenstern zu simulieren. Die Änderung der Höhe und Breite der einzelnen Dashboardelemente ist wichtig, da Diagramme auf der Grundlage der Größe der Webbrowserfenster dargestellt werden. Testszenarien und Prozesse In diesem Abschnitt werden die Testszenarien definiert und der jeweilige Testprozess für jedes Szenario erläutert. Ausführliche Informationen wie Testergebnisse und spezifische Parameter sind nachfolgend in diesem Artikel im Abschnitt "Testergebnisse" aufgeführt. Testname Testbeschreibung Rendern eines Dashboards und fünfmaliges 1. Rendern des Dashboards. zufälliges Ändern eines der beiden Filter mit 2. Auswählen eines der beiden Filter und einer Pause von 15 Sekunden zwischen zufälliges Auswählen eines Filterwerts Interaktionen. sowie Warten, bis das Dashboard erneut gerendert wird. 3. Vier weitere Wiederholungen bei zufälliger Auswahl eines der beiden Filter und eines zufälligen Filterwerts. Rendern eines Dashboards, Auswählen 1. eines Diagramms und fünfmaliges Erweitern 2. und Reduzieren mit einer Pause von 15 Sekunden zwischen Interaktionen. 3. 261 Rendern des Dashboards. Auswählen eines zufälligen Elements in einem Diagramm und dieses erweitern. Auswählen eines anderen zufälligen Elements im Diagramm und dieses Testname Testbeschreibung reduzieren. 4. Auswählen eines anderen zufälligen Elements im Diagramm und dieses erweitern. 5. Auswählen eines anderen zufälligen Elements im Diagramm und dieses reduzieren. Rendern eines Dashboards, Auswählen eines Rasters und fünfmaliges Erweitern und Reduzieren mit einer Pause von 15 Sekunden zwischen Interaktionen. 1. Rendern des Dashboards. Auswählen eines zufälligen Elements in einem Raster und Erweitern des Elements. 2. Auswählen eines anderen zufälligen Elements im Raster und dieses erweitern. 3. Auswählen eines anderen zufälligen Elements im Raster und dieses reduzieren. 4. Auswählen eines anderen zufälligen Elements im Raster und dieses erweitern. Es wurde eine einzelne Testmischung bestehend aus den folgenden Prozentwerten gestarteter Tests angewendet. Testname Testmischung Rendern eines Dashboards und fünfmaliges 80% zufälliges Ändern eines der beiden Filter. 10% Rendern eines Dashboards, Auswählen eines Diagramms und fünfmaliges Erweitern sowie Reduzieren. Rendern eines Dashboards, Auswählen eines Rasters und fünfmaliges Erweitern sowie Reduzieren. 10% Die Microsoft Visual Studio 2008 Load Testing-Tools wurden zum Erstellen einer Reihe von Webtests und Auslastungstests verwendet, bei denen Benutzer simuliert wurden, die Filter zufällig ändern und in Rastern und Diagrammen navigieren. Bei den in diesem Artikel verwendeten Tests wurde eine normale Verteilung von 15 sekündigen Pausen, so genannten "Reaktionszeiten" zwischen Interaktionen sowie eine Reaktionszeit zwischen Testiterationen von 15 Sekunden eingefügt. Durch Anwenden einer Last wurde eine 262 durchschnittliche Antwortzeit von zwei Sekunden für das Rendern einer Scorecard oder eines Berichts erzielt. Die durchschnittliche Antwortzeit wurde über einen Zeitraum von 15 Minuten nach einer ersten Aufwärmphase von 10 Minuten gemessen. Bei jeder neuen Testiteration wurde ein anderes Benutzerkonto aus einem Pool von fünf Tausend Konten und eine zufällige IP-Adresse (mithilfe von IP-Wechsel in Visual Studio) aus einem Pool von ca. 2.200 Adressen ausgewählt. Die Testmischung wurde zweimal auf demselben Dashboard mittlerer Größe ausgeführt. Beim ersten Durchgang wurde die Authentifizierung der Datenquellen so konfiguriert, dass das unbeaufsichtigte Dienstkonto verwendet wurde, welches ein allgemeines Konto zur Anforderung der Daten einsetzt. Die Datenergebnisse sind für mehrere Benutzer identisch, und Caching kann von PerformancePoint Services zur Steigerung der Leistung verwendet werden. Beim zweiten Durchgang wurde die Authentifizierung von Datenquellen so konfiguriert, dass die Einzelbenutzeridentität verwendet wird; der SQL Server Analysis Services-Cube wurde so konfiguriert, dass die dynamische Sicherheit angewendet wird. In dieser Konfiguration wird die Identität des Benutzers von PerformancePoint Services verwendet, um die Daten anzufordern. Da die Datenergebnisse unterschiedlich sein könnten, kann kein Caching für Benutzer verwendet werden. In bestimmten Fällen ist Caching für die Einzelbenutzeridentität möglich, wenn die dynamische Sicherheit von Analysis Services nicht konfiguriert ist und die Analysis Services-Rollen, denen Microsoft Windows-Benutzer und -Gruppen zugeordnet sind, identisch sind. Hardwareeinstellungen und -topologie Laborhardware Um ein hohes Maß an Details bei den Testergebnissen zu erzielen, wurden verschiedene Farmkonfigurationen für die Tests verwendet. Die Farmkonfigurationen reichten von einem bis zu drei Webservern, einem bis vier Anwendungsservern und einem einzelnen Datenbankserver, auf dem Microsoft SQL Server 2008 ausgeführt wurde. Es wurde eine Standard-Unternehmensinstallation von SharePoint Server 2010 durchgeführt. In der folgenden Tabelle ist die jeweilige Hardware für die Tests aufgelistet. Webserver Anwendungsserver Computer, Computer, auf dem auf dem SQL Analysis Server Services ausgeführt ausgeführt wird wird Prozessor(en) 2px4c @ 2,66 GHz 2px4c @ 2,66 GHz 2px4c @ 4px6c @ 2,66 GHz 2,4 GHz RAM 16 GB 32 GB 16 GB Betriebssystem Windows Server 2008 R2 Enterprise Windows Server 2008 R2 Enterprise Windows Windows Server Server 2008 R2 2008 R2 Enterprise Enterprise NIC 1x1 Gigabit 1x1 Gigabit 1x1 263 64 GB 1x1 Webserver Anwendungsserver Computer, Computer, auf dem auf dem SQL Analysis Server Services ausgeführt ausgeführt wird wird Gigabit Authentifizierung NTLM und Kerberos NTLM und Kerberos Gigabit NTLM NTLM und und Kerberos Kerberos Nach dem Skalieren der Farm auf mehrere Webserver wurde ein HardwareLastenausgleichsmodul zur Verteilung der Benutzerlast auf mehrere Webserver mithilfe der Quelladressaffinität verwendet. Bei der Quelladressaffinität wird die IP-Quelladresse eingehender Anforderungen und der Diensthost, an den diese als Lastenausgleich verteilt wurden, aufgezeichnet und alle kommenden Transaktionen an denselben Host geleitet. Topologie Die Ausgangstopologie setzte sich aus zwei physikalischen Servern zusammen, wobei ein Server als Web- und Anwendungsserver und der zweite als Datenbankserver diente. Diese Ausgangstopologie wird als Topologie mit zwei Rechnern (2M) oder als "1x0x1"Topologie bezeichnet, wobei die Anzahl der dedizierten Webserver zuerst aufgeführt ist, gefolgt von den dedizierten Anwendungsservern und schließlich den Datenbankservern. Webserver werden nachfolgend in diesem Dokument auch als Web-Front-Ends (WFE) bezeichnet. Die Last wurde so lange angewendet, bis Einschränkungen auftraten. In der Regel stellte die CPU des Web- oder des Anwendungsservers eine Einschränkung dar; es wurden dann Ressourcen hinzugefügt, um diese Einschränkung zu überwinden. Die Einschränkungen und Topologien wichen abhängig von der Konfiguration der Datenquellenauthentifizierung entweder für das unbeaufsichtigte Dienstkonto oder die Einzelbenutzeridentität mit dynamischer Cubesicherheit stark voneinander ab. Testergebnisse Die Testergebnisse enthalten drei wichtige Measures für die Definition der PerformancePoint Services-Kapazität. Measure Beschreibung Benutzeranzahl Gesamtanzahl der von Visual Studio gemeldeten Benutzer. Anforderungen pro Sekunde Gesamtanzahl der von Visual Studio gemeldeten RPS, (RPS) einschließlich aller Anforderungen und Anforderungen statischer Dateien wie Bilder und Stylesheets. Ansichten pro Sekunde (VPS) Gesamtanzahl der Ansichten, die PerformancePoint Services rendern kann. Eine Ansicht ist ein beliebiger von PerformancePoint Services gerenderter Filter, eine Scorecard, ein Raster oder ein Diagramm oder eine 264 Measure Beschreibung beliebige Webanforderung der Renderingdienst-URL, die RenderWebPartContent oder CreateReportHtml enthält. Weitere Informationen zu CreateReportHtml und RenderWebPartContent finden Sie in der Protokollspezifikation für den Rendering-Dienst der PerformancePoint-Dienste (http://go.microsoft.com/fwlink/?linkid=200609&clcid=0x407). IIS-Protokolle können nach diesen Anforderungen analysiert werden, um die Kapazität von PerformancePoint Services besser zu planen. Darüber hinaus kann mithilfe dieses Measures eine Zahl bereitgestellt werden, die deutlich weniger abhängig von der Dashboardzusammensetzung ist. Ein Dashboard mit zwei Ansichten kann mit einem Dashboard mit 10 Ansichten verglichen werden. Tipp: Bei Verwendung einer Datenquelle, die so konfiguriert ist, dass die Authentifizierung des unbeaufsichtigten Dienstkontos verwendet wird, gilt für das Verhältnis zwischen dedizierten Servern die Regel von einem Webserver zu jeweils zwei Anwendungsservern mit PerformancePoint Services. Tipp: Bei Verwendung einer Datenquelle, die so konfiguriert ist, dass die Einzelbenutzerauthentifizierung verwendet wird, gilt für das Verhältnis zwischen dedizierten Servern die Regel von einem Webserver zu jeweils vier oder mehr Anwendungsservern mit PerformancePoint Services. Bei Topologien mit mehr als vier Anwendungsservern ist davon auszugehen, dass der Analysis Services-Server den Engpass darstellt. Sie sollten die CPU-Auslastung und die Abfragezeit des Analysis Services-Servers überwachen, um bestimmen zu können, ob Analysis Services auf mehrere Server skaliert werden sollte. Durch Verzögerungen bei der Abfragezeit auf dem Analysis Services-Server steigt die durchschnittliche Antwortzeit von PerformancePoint Services deutlich über den gewünschten Schwellenwert von zwei Sekunden. Die nachfolgenden Tabellen enthalten eine Zusammenfassung der Testergebnisse sowohl für die Authentifizierung über das unbeaufsichtigte Dienstkonto als auch die Einzelbenutzerauthentifizierung bei einer horizontalen Skalierung von zwei auf sieben Server. Ausführliche Ergebnisse, die zusätzliche Leistungsindikatoren umfassen, sind nachfolgend in diesem Dokument aufgeführt. Zusammenfassung der Authentifizierung über das unbeaufsichtigte Dienstkonto 265 Topologie (WFExAPPxSQL) Benutzer Anforderungen Ansichten pro Sekunde pro (RPS) Sekunde (VPS) 2M (1x0x1) 360 83 50 3M (1x1x1) 540 127 75 4M (1x2x1) 840 196 117 5M (1x3x1) 950 215 129 6M (2x3x1) 1.250 292 175 7M (2x4x1) 1.500 346 205 Zusammenfassung der Einzelbenutzerauthentifizierung Topologie (WFExAPPxSQL) Benutzer Anforderungen Ansichten pro Sekunde pro (RPS) Sekunde (VPS) 2M (1x0x1) 200 47 27 3M (1x1x1) 240 56 33 4M (1x2x1) 300 67 40 5M (1x3x1) 325 74 44 Topologien mit 2M und 3M Zur einfacheren Erläuterung der Hardwarekosten pro Transaktion und der Antwortzeitkurve wurden die Auslastungstests mit vier steigenden Benutzerauslastungen bis zur maximalen Benutzerauslastung für die 2M- und 3M-Topologien durchgeführt. Authentifizierung über das unbeaufsichtigte Dienstkonto Benutzeranzahl 50 150 250 Durchschnittl. WFE/APP-CPU 19,20% 57,70% 94,00% 96,70% Anforderungen pro Sekunde 18 53 83 83 Ansichten pro Sekunde 31,72 49,27 49,67 0,15 0,38 2 10,73 Durchschnittl. Antwortzeit (s) 0,12 266 360 Einzelbenutzerauthentifizierung Benutzeranzahl 50 100 150 Durchschnittl. WFE/APP-CPU 30,80% 61,30% 86,50% 93,30% Anforderungen pro Sekunde 17 32 43 47 Ansichten pro Sekunde 19,32 26,04 27,75 0,45 0,81 2 10,3 Durchschnittl. Antwortzeit (s) 0,28 267 200 Ergebnisse 3M-Farm (1x1x1) Authentifizierung über das unbeaufsichtigte Dienstkonto Benutzeranzahl 100 250 400 540 Anforderungen pro Sekunde 36 87 124 127 Ansichten pro Sekunde 21 52 74 Durchschnittl. Antwortzeit (s) 0,12 0,18 0,65 2 Durchschnittl. WFE-CPU 11% 28% 43% 46% Max. private Bytes des WFE 0,7 GB vom SharePoint Server-W3WPArbeitsprozess mit Internetinformationsdiensten (Internet Information Services, IIS). 1,4 GB 2,0 2,4 GB GB Durchschnittl. APP-CPU 25% 62% 94% 95% Max. private Bytes des APP 5,9 GB 10,8 GB 14,1 14,6 268 75 Benutzeranzahl 100 250 vom PerformancePoint Services-W3WP-Arbeitsprozess 400 540 GB GB Einzelbenutzerauthentifizierung Benutzeranzahl 50 120 180 240 Anforderungen pro Sekunde 17 39 52 56 Ansichten pro Sekunde 10 23 31 33 Durchschnittl. Antwortzeit (s) 0,28 0,48 0,91 2 Durchschnittl. WFE-CPU 5% 12% 17% 19% Max. private Bytes des WFE 0,78 GB vom SharePoint Server-W3WPArbeitsprozess 1,3 GB 1,6 1,9 GB GB Durchschnittl. APP-CPU 57% 81% 81% 25% 269 Benutzeranzahl 50 Max. private Bytes des APP 19 GB vom PerformancePoint Services-W3WP-Arbeitsprozess 120 180 240 20,1 GB 20,5 20,9 GB GB Ergebnisse von 4M+ für die Authentifizierung über das unbeaufsichtigte Dienstkonto Beginnend mit einer 4M-Topologie wurde die Last angewendet, um eine durchschnittliche Antwortzeit von zwei Sekunden für das Rendern einer Scorecard oder eines Berichts zu erzielen. Im nächsten Schritt wurde ein zusätzlicher Server hinzugefügt, um die Einschränkung (durch die CPU auf dem Web- oder Anwendungsserver) zu umgehen; anschließend wurde die Testmischung erneut ausgeführt. Diese Logik wurde so lange wiederholt, bis insgesamt sieben Server erreicht waren. 270 4M (1x2x1) 5M (1x3x1) 6M 7M (2x3x1) (2x4x1) Benutzeranzahl 840 950 1.250 1.500 Anforderungen pro Sekunde 196 216 292 346 Ansichten pro Sekunde 117 131 175 206 Durchschnittl. WFE-CPU 77% 63% 54% 73% Max. private Bytes des WFE vom SharePoint ServerW3WP-Arbeitsprozess 2,1 GB 1,7 GB 2,1 GB 2,0 GB Durchschnittl. APP-CPU 83% 94% 88% 80% Max. private Bytes des APP vom PerformancePoint Services-W3WPArbeitsprozess 16 GB 12 GB 15 GB 15 GB Ergebnisse von 4M+ für die Einzelbenutzerauthentifizierung Die gleichen Tests wurden für eine für die Einzelbenutzerauthentifizierung konfigurierte Datenquelle wiederholt. Durch Hinzufügen eines Anwendungsservers, um eine Topologie mit vier Anwendungsservern zu erstellen, kam es aufgrund der Abfrageverzögerungen von Analysis Services nicht zu einem Anstieg der von PerformancePoint Services unterstützten Benutzer oder Anforderungen pro Sekunde. 3M (1x1x1) 4M (1x2x1) 5M 6M (1x3x1) (1x4x1) Benutzeranzahl 240 300 325 325 Anforderungen pro Sekunde 56 67 74 74 Ansichten pro Sekunde 33 40 44 45 Durchschnittl. WFE-CPU 19% 24% 26% 12% Max. private Bytes des WFE vom SharePoint ServerW3WP-Arbeitsprozess 2,1 GB 1,9 GB 1,9 GB 1,5 GB Durchschnittl. APP-CPU 89% 68% 53% 53% Max. private Bytes des APP vom PerformancePoint Services-W3WPArbeitsprozess 20 GB 20 GB 20 GB 20 GB 271 Analysis Services-CPU 3M (1x1x1) 4M (1x2x1) 5M 6M (1x3x1) (1x4x1) 17% 44% 57% 68% Empfehlungen Hardwareempfehlungen Die Leistungsindikatoren für Arbeitsspeicher und Prozessoren in den Testtabellen sollten für die Bestimmung der Hardwareanforderungen für eine Installation von PerformancePoint Services verwendet werden. Für Webserver werden die empfohlenen SharePoint Server 2010-Hardwareanforderungen von PerformancePoint Services verwendet. Die Hardwareanforderungen für Anwendungsserver müssen möglicherweise geändert werden, wenn PerformancePoint Services sehr viel Arbeitsspeicher benötigt. Dies ist dann der Fall, wenn Datenquellen für die Einzelbenutzerauthentifizierung konfiguriert werden oder wenn zu viele Dashboards mit langen Datenquellentimeouts vom Anwendungsserver ausgeführt werden. Der Datenbankserver stellte in den Tests keinen Engpass dar und erreichte einen Höchstwert bei einer maximalen CPU-Auslastung von 31% unter dem über das 272 unbeaufsichtigte Dienstkonto authentifizierten 7M-Dashboard. Die PerformancePoint Services-Inhaltsdefinitionen wie Berichte, Scorecards und KPIs werden in SharePointListen gespeichert und von PerformancePoint Services im Arbeitsspeicher zwischengespeichert, wodurch die Auslastung des Datenbankservers sinkt. Arbeitsspeicherbelegung In bestimmten Konfigurationen kann PerformancePoint Services sehr viel Arbeitsspeicher belegen, deshalb ist es wichtig, die Arbeitsspeichernutzung des PerformancePoint Services-Anwendungspools zu überwachen. Verschiedene Elemente werden von PerformancePoint Services im Arbeitsspeicher zwischengespeichert, einschließlich Analysis Services und anderer Abfrageergebnisse der Datenquelle zur Cachelebensdauer der Datenquelle (Standardeinstellung beträgt 10 Minuten). Wenn Sie eine Datenquelle verwenden, die für die Authentifizierung über das unbeaufsichtigte Dienstkonto konfiguriert wurde, werden diese Abfrageergebnisse nur einmal zwischengespeichert und für mehrere Benutzer gemeinsam genutzt. Wenn Sie hingegen eine Datenquelle verwenden, die für die Einzelbenutzerauthentifizierung und die dynamische Cubesicherheit von Analysis Services konfiguriert wurde, werden die Abfrageergebnisse einmal pro Benutzer pro Ansicht (also eine "pro Filter"-Kombination) gespeichert. Das ASP.NET-Cache-API ist das zugrundliegende Cache-API, das von PerformancePoint Services verwendet wird. Der klare Vorteil, der sich aus der Verwendung dieses APIs ergibt, liegt darin, dass der Cache von ASP.NET verwaltet wird und auf der Grundlage von Arbeitsspeicherbegrenzungen Elemente entfernt (so genanntes Kürzen), um Fehler aufgrund von unzureichendem Arbeitsspeicher zu vermeiden. Die Standardbegrenzung für den Arbeitsspeicher liegt bei 60 Prozent des physikalischen Arbeitsspeichers. Nach Erreichen diese Grenzwerts wurden Ansichten von PerformancePoint Services zwar noch gerendert, doch stiegen die Antwortzeiten während des kurzen Zeitraums deutlich an, während dem zwischengespeicherte Einträge von ASP.NET entfernt wurden. Der Leistungsindikator "ASP.NET-Anwendungen \ Cache-API-Kürzungen" des Anwendungspools, der PerformancePoint Services hostet, kann zur Überwachung der ASP.NET-Cachekürzungen verwendet werden, die aufgrund von hoher Arbeitsspeicherauslastung stattfinden. Ist dieser Leistungsindikator größer als Null, sollten Sie in der folgenden Tabelle nach möglichen Lösungen suchen. Problem Lösung Nutzung des Anwendungsserverprozessors Hinzufügen von zusätzlichem physikalischen ist niedrig; andere Dienste werden auf dem Arbeitsspeicher oder Begrenzen des Anwendungsserver ausgeführt. Arbeitsspeichers des ASP.NET-Caches. Nutzung des Anwendungsserverprozessors ist niedrig; nur PerformancePoint Services wird auf dem Anwendungsserver ausgeführt. Konfigurieren der ASP.NETCacheeinstellungen, sodass mehr Arbeitsspeicher vom Cache genutzt wird (falls akzeptabel), oder Hinzufügen von zusätzlichem Arbeitsspeicher. Nutzung des Anwendungsserverprozessors Hinzufügen eines anderen ist hoch. Anwendungsservers. 273 Abfrageergebnisse und Cacheeinträge können von einer Datenquelle, die für die Einzelbenutzerauthentifizierung konfiguriert wurde, freigegeben werden, wenn die Analysis Services-Rollenmitgliedschaften der Benutzer identisch sind und die dynamische Cubesicherheit nicht konfiguriert wurde. Dies ist ein neues Feature von PerformancePoint Services in Microsoft SharePoint Server 2010. Wenn beispielsweise Benutzer A der Rolle 1 und 2 angehört, Benutzer B der Rolle 1 und 2 angehört und Benutzer C der Rolle 1, 2 und 3 angehört, können nur für Benutzer A und Benutzer B Cacheeinträge gemeinsam genutzt werden. Wenn die dynamische Cubesicherheit verwendet wird, können weder für Benutzer A und B noch für Benutzer C Cacheeinträge gemeinsam genutzt werden. Analysis Services Beim Testen von PerformancePoint Services unter Verwendung der Einzelbenutzerauthentifizierung wurden zwei Eigenschaften von Analysis Services geändert, um die Durchsatzleistung bei mehreren Benutzern zu verbessern. In der folgenden Tabelle werden die geänderten Eigenschaften und ihre neuen Werte dargestellt. Analysis Services-Eigenschaft Wert Arbeitsspeicher \ HeapTypeForObjects 0 Arbeitsspeicher \ MemoryHeapType 2 Durch diese beiden Speichereinstellungen wird Analysis Services für die Verwendung des Windows-Heaps anstelle des Analysis Services-Heaps konfiguriert. Vor der Änderung dieser Eigenschaften und bei zunehmender Benutzerauslastung stiegen die Antwortzeiten deutlich von 0,2 Sekunden auf über 30 Sekunden an, während die CPUAuslastung der Web-, Anwendungs- und Analysis Services-Server niedrig blieb. Zur Problembehandlung wurde die Abfragezeit mithilfe von dynamischen Analysis ServicesVerwaltungssichten erfasst, die einen Anstieg der einzelnen Abfragezeiten von 10 Millisekunden auf 5000 Millisekunden zeigten. Die oben genannten Speichereinstellungen wurden aufgrund dieser Ergebnisse geändert. Die Änderung dieser Einstellungen führt zu einer deutlichen Verbesserung des Durchsatzes, bringt nach Angaben des Analysis Services-Teams jedoch nur geringe, messbare Kosten für Einzelbenutzerabfragen mit sich. Vor dem Ändern von Analysis Services-Eigenschaften sollten Sie das Dokument SQL Server 2008-Whitepaper: Handbuch zur Leistungsoptimierung in Analysis Services (http://go.microsoft.com/fwlink/?linkid=165486&clcid=0x407) lesen. Sie erhalten hier einen Einblick in optimale Methoden für die Verbesserung der Durchsatzleistung mit mehreren Benutzern. Häufige Engpässe und ihre Ursachen Während der Leistungstests traten bestimmte Engpässe häufig auf. Ein Engpass ist ein Zustand, bei dem die maximale Kapazität eines bestimmten Bestandteils einer Farm erreicht wird. Dies hat ein Plateau oder eine Abnahme des Durchsatzes der Farm zur 274 Folge. Wenn eine hohe Prozessornutzung als Engpass auftrat, wurden zusätzliche Server hinzugefügt, um den Engpass zu beseitigen. In der folgenden Tabelle sind einige häufige Engpässe und mögliche Lösungen aufgeführt. Dabei wurde angenommen, dass die Prozessornutzung niedrig war und keinen Engpass darstellte. Möglicher Engpass Ursache und was überwacht werden sollte Lösung Leistung des Analysis ServicesSpeicherheaps Standardmäßig wird der eigene Speicherheap von Analysis Services anstelle des Windows-Heaps verwendet, der nur eine niedrige Durchsatzleistung für mehrere Benutzer bietet. Überprüfen Sie die Analysis ServicesAbfragezeiten mithilfe dynamischer Verwaltungssichten, um festzustellen, ob Abfragezeiten mit der Benutzerauslastung steigen und die Analysis ServicesProzessornutzung niedrig ist. Ändern Sie Analysis Services so, dass der Windows-Heap verwendet wird. Anleitungen entnehmen Sie dem Abschnitt "Analysis Services" weiter oben in diesem Artikel sowie dem SQL Server 2008-Whitepaper: Handbuch zur Leistungsoptimierung in Analysis Services (http://go.microsoft.com/fwlink/?linkid=165486&c lcid=0x407). Analysis ServicesAbfrage- und Verarbeitungsthr eads Standardmäßig wird die Anzahl der Abfrage- und Verarbeitungsthreads für Abfragen von Analysis Services begrenzt. Bei lang andauernden Abfragen und hohen Benutzerauslastunge n werden möglicherweise alle verfügbaren Threads verwendet. Überwachen Sie die Leistungsindikatoren der Threads im Leerlauf und der Erhöhen Sie die Anzahl der für Abfragen und Prozesse verfügbaren Threads. Anleitungen entnehmen Sie dem Abschnitt "Analysis Services" sowie dem SQL Server 2008Whitepaper: Handbuch zur Leistungsoptimierung in Analysis Services (http://go.microsoft.com/fwlink/?linkid=165486&c lcid=0x407). 275 Möglicher Engpass Ursache und was überwacht werden sollte Lösung Auftragswarteschlang e unter der Kategorie "MSAS 2008:Threads". Arbeitsspeicher In PerformancePoint Fügen Sie Arbeitsspeicher hinzu, oder erhöhen von Services werden die Sie die Standard-Cachespeicherbegrenzungen Anwendungsserv Abfrageergebnisse von ASP.NET. Weitere Hinweise entnehmen Sie ern von Analysis Services dem Abschnitt "Arbeitsspeicherbelegung" weiter und anderen oben in diesem Dokument. Weitere Datenquellen während Informationen finden Sie auch im Dokument der Lebensdauer des Einstellungen des ASP.NET-Cacheelements Caches der (http://go.microsoft.com/fwlink/?linkid=200610&c Datenquelle lcid=0x407) sowie in Thomas Marquardts zwischengespeichert. Blogbeitrag über Hintergrundinfos zu den Diese Elemente Arbeitsspeicherbegrenzungen des ASP.NETkönnen sehr viel Caches Arbeitsspeicher (http://go.microsoft.com/fwlink/?linkid=200611&c beanspruchen. lcid=0x407). Überwachen Sie den Leistungsindikator "ASP.NETAnwendungen \ Cache-APIKürzungen" des PerformancePoint ServicesAnwendungspools, um festzustellen, ob Cachekürzungen aufgrund von niedrigem Arbeitsspeicher von ASP.NET erzwungen werden. Einstellungen der WCFDrosselung PerformancePoint Services ist als WCFDienst implementiert. Durch WCF wird die maximale Anzahl gleichzeitiger Aufrufe als Dienstdrosselungsver halten eingeschränkt. Obwohl lang andauernde Abfragen Falls erforderlich, ändern Sie das WCFDrosselungsverhalten (Windows Communication Foundation). Informationen finden Sie unter Drosselungsverhalten des WCF-Diensts (http://go.microsoft.com/fwlink/?linkid=200612&c lcid=0x407) und in Wenlong Dongs Blogbeitrag über die WCF-Anforderungsdrosselung und Serverskalierbarkeit (http://go.microsoft.com/fwlink/?linkid=200613&c lcid=0x407). 276 Möglicher Engpass Ursache und was überwacht werden sollte Lösung zu diesem Engpass führen könnten, tritt dieser Engpass nicht häufig auf. Überwachen Sie Aufrufe der Leistungsindikatoren des WCF-/DienstModells, die für PerformancePoint Services ausstehen und vergleichen Sie sie mit der maximalen Anzahl gleichzeitiger Aufrufe. Leistungsüberwachung Um den richtigen Zeitpunkt für eine vertikale oder horizontale Skalierung des Systems zu bestimmen, verwenden Sie Leistungsindikatoren zur Überwachung der Integrität des Systems. PerformancePoint Services ist ein ASP.NET-WCF-Dienst und kann mithilfe derselben Leistungsindikatoren wie zur Überwachung sonstiger ASP.NET-WCF-Dienste überwacht werden. Verwenden Sie darüber hinaus die Informationen in den folgenden Tabellen, um zusätzliche zu überwachende Leistungsindikatoren zu ermitteln und um festzustellen, auf welchen Prozess die Leistungsindikatoren angewendet werden sollten. Leistungsindikator Indikatorinstan Hinweise z ASP.NETPerformanceP Wenn der Wert größer als Null ist, lesen Sie den Anwendungen / Cache- oint Services- Abschnitt "Arbeitsspeicherbelegung" durch. Anwendungsp API-Kürzungen ool MSAS 2008:Threads / n/v Abfragepoolthreads im Leerlauf Wenn der Wert gleich Null ist, lesen Sie die Informationen im Abschnitt "Analysis Services" sowie im SQL Server 2008-Whitepaper: Handbuch zur Leistungsoptimierung in Analysis Services (http://go.microsoft.com/fwlink/?linkid=165486&cl cid=0x407). MSAS 2008:Threads / n/v AbfragepoolAuftragswarteschlangen Wenn der Wert größer als Null ist, lesen Sie die Informationen im Abschnitt "Analysis Services" sowie im SQL Server 2008-Whitepaper: 277 Leistungsindikator Indikatorinstan Hinweise z länge Handbuch zur Leistungsoptimierung in Analysis Services (http://go.microsoft.com/fwlink/?linkid=165486&cl cid=0x407). MSAS 2008:Threads / n/v Verarbeitungspoolthrea ds im Leerlauf Wenn der Wert größer als Null ist, lesen Sie die Informationen im Abschnitt "Analysis Services" sowie im SQL Server 2008-Whitepaper: Handbuch zur Leistungsoptimierung in Analysis Services (http://go.microsoft.com/fwlink/?linkid=165486&cl cid=0x407). MSAS 2008:Threads / n/v VerarbeitungspoolAuftragswarteschlangen länge Wenn der Wert größer als Null ist, lesen Sie die Informationen im Abschnitt "Analysis Services" sowie im SQL Server 2008-Whitepaper: Handbuch zur Leistungsoptimierung in Analysis Services (http://go.microsoft.com/fwlink/?linkid=165486&cl cid=0x407). WCF PerformanceP CountersServiceModelS ointervice Dienstinstanz 3.0.0.0(*)\Ausstehende Aufrufe Wenn der Wert größer als Null ist, lesen Sie die Informationen in WCF-Anforderungsdrosselung und Serverskalierbarkeit (http://go.microsoft.com/fwlink/?linkid=200613&cl cid=0x407). Siehe auch Weitere Ressourcen Plan for PerformancePoint Services (SharePoint Server 2010) 278 Capacity requirements for Web Analytics Shared Service in SharePoint Server 2010 (in englischer Sprache) Initial capacity testing was performed for a simulated midsized deployment of Microsoft SharePoint Server 2010 and other applications that included 30,000 SharePoint entities. This article describes the results of the capacity testing activities and contains guidance on capacity management for the Web Analytics service application in SharePoint Server 2010. In SharePoint Server 2010, the Web Analytics service application enables you to collect, report, and analyze the usage and effectiveness of SharePoint Server 2010 sites. Web Analytics features include reporting, Web Analytics workflow, and Web Analytics Web Part. For more information, see Reporting and usage analysis overview. The aspects of capacity planning that are described in this article include the following: Description of the architecture and topology. Capacity planning guidelines based on the key factors such as total expected traffic and number of SharePoint components. Description of the other factors that affect the performance and capacity requirements. Before you continue to read this article, make sure that you understand key concepts related to SharePoint Server 2010 capacity management. The resources that are listed in this section can help you learn about frequently used terms and get an overview of the recommended approach to capacity management. These resources can also help you use the information that is provided in this article more effectively. For more conceptual information about performance and capacity management, see the following articles: Leistungs- und Kapazitätsverwaltung (SharePoint Server 2010) Capacity management and sizing for SharePoint Server 2010 (in englischer Sprache) In this article: Introduction Hardware specifications and topology Capacity requirements Introduction Overview As part of SharePoint Server 2010, the Web Analytics service application is a set of features that you can use to collect, report, and analyze the usage and effectiveness of a SharePoint Server 2010 deployment. You can organize SharePoint Web Analytics reports into three main categories: 279 Traffic Search Inventory SharePoint Web Analytics reports are typically aggregated for various SharePoint entities, such as sites, site collections, and Web applications for each farm. To view an architectural overview of the Web Analytics service application in a SharePoint deployment, see Architectural overview later in this article. The Web Analytics shared service requires resources primarily at the application server and database server level. This article does not cover the Web Server layer capacity planning, because the Web Analytics service‘s capacity requirements are minimal at this level. This article contains the capacity requirements for several application servers and Microsoft SQL Server based computers, according to the following criteria: Total expected site traffic (clicks, search queries, ratings). Number of SharePoint components (Site, Site Collection, and Web Application) for each farm. Other less significant factors which can affect the capacity requirements are summarized in Other factors later in this article. Architectural overview The following diagram (Figure 1) shows the flow of the site usage data from a Web browser to the analytics databases, and then back to the Web browser as reports. The usage data is logged to the usage files on the Web servers. The usage timer job calls the Logging Web Service to submit the raw data from the usage files. The Logging Web Service writes it to the staging database, where the raw data is stored for seven days (this is not configurable). The Web Analytics components Log Batcher and User Behavior Analyzer clean and process the raw data on the staging database. The Report Consolidator runs one time every 24 hours. The Report Consolidator aggregates the raw data from the staging database on various dimensions, and then writes it to the reporting database. The aggregated data is stored in the reporting database for a default period of 25 months (this is configurable). 280 Figure 1. SharePoint Server 2010 Web Analytics architectural overview The performance of the Logging Web Service primarily depends on the number of application servers. (Scaling out is available for the application servers.) The 281 performance of the Log Batcher and User Behavior Analyzer depends primarily on the analytics staging database. The Read and Write activities that are performed by all the different components can cause the analytics staging database to slow down the process. (Scaling out is available for the staging database.) The performance of the Report Consolidator also primarily depends on the reporting database. (Scaling out of reporting database is not supported.) Hardware specifications and topology This section provides detailed information about the hardware, software, topology, and configuration of a case study environment. Hardware Hinweis: This environment is scaled to accommodate prerelease builds of SharePoint Server 2010 and other products. Therefore, the deployed hardware has larger capacity than necessary to serve the demand typically experienced by this environment. This hardware is described only to provide additional context for this environment and serve as a starting point for similar environments. It is important to conduct your own capacity management based on your planned workload and usage characteristics. For more information about the capacity management process, see Leistungs- und Kapazitätsverwaltung (SharePoint Server 2010). Web servers This article does not cover the Web server layer capacity planning, because the Web Analytic service‘s capacity requirements are minimal at this level. Application servers The following table describes the configuration of each application server. Based on the site traffic and the number of SharePoint components that are involved, users will need one or more application servers. Application server Minimum requirement Processors 4 quad core @ 2.33 GHz RAM 8 GB Operating system Windows Server 2008, 64 bit Size of the SharePoint drive 300 GB Number of network adapters 1 Network adapter speed 1 GB Authentication NTLM Load balancer type SharePoint Load Balancer 282 Application server Minimum requirement Software version SharePoint Server 2010 (prerelease version) Services running locally Central Administration Microsoft SharePoint Foundation Incoming E-mail Microsoft SharePoint Foundation Web Application Microsoft SharePoint Foundation Workflow Timer Service Search Query and Site Settings Service SharePoint Server Search Web Analytics Data Processing Service Web Analytics Web Service Database servers The following table describes the configuration of each database server. Instances of SQL Server were required for both the staging and reporting databases. Database server Minimum requirement Processors 4 quad core @ 2.4 GHz RAM 32 GB Operating system Windows Server 2008, 64-bit Disk size 3 terabytes Hinweis: Although we used this disk size for our capacity testing, your environment will likely require a much larger disk size to support Web Analytics. Number of network adapters 1 Network adapter speed 1 GB Authentication NTLM Software version SQL Server 2008 283 Topology The following diagram (Figure 2) shows the Web Analytics topology. 284 Figure 2. Web Analytics topology 285 Capacity requirements Testing methodology This section presents the capacity requirements with regard to the total amount of site traffic (this is measured by number of clicks, search queries, and ratings) per day that can be supported by different numbers of application servers and SQL Server based computers. The numbers presented currently are for a midsize SharePoint deployment that has about 30,000 SharePoint entities. The Web Analytics shared service aggregates the data for each day. Therefore, the data volume that is presented corresponds to the total number of records (this is measured by number of clicks, search queries, and ratings) that the SharePoint farm is expected to receive each day. This section provides diagrams that show the daily site traffic that can be supported by one, two, or three application servers (Figure 3) and the daily site traffic that can be supported that corresponds to the various database configurations (Figure 4). In the diagrams, data is shown by using two colors: Green Green values indicate the safe limit for the site traffic that can be processed for the corresponding number of application servers and SQL Server based computers. Yellow Yellow values indicate the expected limit for the site traffic that can be processed for the corresponding number of application servers and SQL Server based computers. The green and yellow values are estimates that are based on two key factors: Total site traffic, measured by number of page view clicks, search queries, and ratings. Number of SharePoint entities, such as sites, site collections, and Web applications, for each farm. The estimates also depend on other properties of the data and the data retention period in the reporting database. For testing, the other properties of the data were maintained as constant as described in Dataset description later in this section. Also, in smaller SharePoint deployment environments, you can share the application servers and SQL Server based computers together with other SharePoint services and databases. This article contains information about the capacity of the application servers and the SQL Server based computers that are in a test environment so that the Web Analytics shared service is the only major service that is running on the servers. The actual performance results for environments that actively use other shared services at the same time running might vary. To determine the capacity requirements for your environment, make sure that you estimate the expected daily site traffic and the number of components that you might use for a SharePoint deployment. Then, the number of application servers and SQL Server based computers should be estimated independently, as shown in Figure 3 and Figure 4. Dataset description The dataset that was selected for the test environment is a mid-sized dataset that has approximately 30,000 SharePoint components, which includes all web applications, site collections, and sites. Other characteristics of the data that were kept constant in the environment are also listed in the following table. 286 Dataset characteristics Value Number of SharePoint components 30,000 Number of unique users 117,000 Number of unique queries 68,000 Number of unique assets 500,000 Data size in the reporting database 200 GB The total site traffic, measured by number of clicks, search queries, and ratings, was increased as part of this case study to establish the number of records that can be supported by the corresponding topology. Wichtig: Some typically used topologies generally exceed the capacity planning guidance. Those topologies include the following: Team sites My Site Web sites Self-provisioning portals If you anticipate that you might exceed the capacity planning guidelines, we recommend that you turn off the Web Analytics service application. For more information about how to turn off a service application, see Starting or stopping a service. Application servers The following diagram (Figure 3) shows the daily site traffic that can be supported by one, two, or three application servers. The site traffic is represented in millions of records (each click, search query, or rating makes up a record) each day. The yellow line represents the expected number of records for the corresponding topology, whereas the green line represents the safe assumption for the number of records. 287 Figure 3. Daily site traffic vs. the application servers topology The application servers are not very CPU-intensive or memory intensive. Thus, the CPU and the memory usage are not summarized for this section. SQL Server based computers The following diagram (Figure 4) shows the daily site traffic that can be supported that corresponds to the following configurations: One instance of SQL Server for both staging and reporting databases (1S+R). Two instances of SQL Server, one staging database and one reporting database (1S1R). 288 Three instances of SQL Server, two staging databases and one reporting database (2S1R). The site traffic is represented in millions of records (each click, search, or rating makes up a record) each day. The yellow line represents the expected number of records for the corresponding topology, whereas the green line represents the safe assumption for the number of records. Figure 4. Daily site traffic vs. SQL Server topology The following table summarizes the CPU and memory usage of the various components on the instances of SQL Server that are hosting the staging database and the reporting database. 289 Configuration 1S+R 1S1R 1S1R 2S1R 2S1R Staging + Reporting Staging Reporting Staging Reporting Total sum of percentage 19 of processor time for 8 processor computer 192 5.78 100 13.4 SQL Server buffer hit ratio 99 100 100 100 100 % Disk time 7,142 535 5.28 59.3 98.2 Disk queue length 357 28.6 0.26 2.97 4.91 Other factors Many other factors can affect the performance of various analytics components and can affect the capacity planning. These factors primarily affect the performance of the Report Extractor component because they can affect the size of the data aggregated each day. The total size of the data in the reporting database also affects the performance of the Reporting Extractor, although this is not significant because the data is partitioned daily. Some of these other factors are as follows: Number of unique queries each day. Number of unique users each day. Total number of unique assets clicked each day. Existing data size in the reporting warehouse, based on the data retention in the warehouse. The overall effect of these factors is less significant than the total data volume and the number of site entities. However, it is important to conduct your own capacity management based on your planned workload and usage characteristics. For more information about the capacity management process, see Leistungs- und Kapazitätsverwaltung (SharePoint Server 2010). Remaining issues There are current known issues that significantly affect the current performance of the Web Analytics service application for deployments that have a large site hierarchy, which includes approximately 100,000 or more SharePoint components. This article might be updated with the capacity requirements for larger site hierarchies when more information is available. Siehe auch Konzepte Leistungs- und Kapazitätsverwaltung (SharePoint Server 2010) Weitere Ressourcen SharePoint 2010 Administration Toolkit (SharePoint Server 2010) 290 Schätzen der Leistungs- und Kapazitätsanforderungen für Web Content Management in SharePoint Server 2010 Dieser Artikel enthält Hinweise zur Kapazitätsverwaltung von Microsoft SharePoint Server 2010-Websites, bei denen die Veröffentlichungsinfrastruktur aktiviert wurde. Dieses Dokument enthält spezifische Hinweise für SharePoint Server 2010; die erläuterten Informationen beziehen sich nicht auf SharePoint Foundation. In diesem Artikel werden die folgenden Szenarien erläutert: Eine Internetveröffentlichungssite - eine Website für die Präsenz eines Unternehmens. Diese Art von Website wird im Internet veröffentlicht und ermöglicht es anonymen Internetbenutzern, Informationen über ein Unternehmen zu finden. Auf Websites wie diese wird Branding angewendet, und die Inhalte werden stark gesteuert. Eine Intranetveröffentlichungssite - eine Website für interne Nachrichten. Diese Art von Website wird intern innerhalb einer Organisation veröffentlicht. Ihre Hauptaufgabe besteht darin, Informationen an authentifizierte Benutzer innerhalb der Organisation weiterzugeben. Die Informationen in der Website können straff verwaltet werden, wobei manche Bereiche möglicherweise weniger stark kontrolliert werden. Ein Unternehmenswiki - ein Wissensrepository. Bei einem Unternehmenswiki handelt es sich um eine Website mit einer einzelnen Farm, die kontinuierlich anwächst, wenn Mitwirkende neue Seiten erstellen und diese mit anderen Seiten verknüpfen, die möglicherweise bereits oder noch nicht existieren. Unternehmenswikis werden in der Regel innerhalb einer Organisation veröffentlicht. Diese Website ermöglicht es Benutzern innerhalb eines Unternehmens oder einer Organisation, Wissen mithilfe einer Lösung, die in ihre SharePointUmgebung integriert ist und optimiert wird, zu erfassen und gemeinsam zu nutzen. Nach der Lektüre dieses Dokuments sind Sie mit den folgenden Konzepten vertraut: Die Schlüsselmetriken (Durchsatz), die zur Unterstützung von vielen Lesevorgängen maximiert werden sollten. Verschiedene potenzielle Engpässe, die für die SharePoint Server 2010Bereitstellung mit Web Content Management relevant sind. Die Bedeutung des Ausgabecaches bei der Maximierung des Durchsatzes. Die Auswirkungen von Schreibvorgängen auf die Benutzerfreundlichkeit für Endbenutzer beim Lesen. Inhalt dieses Artikels Voraussetzungen 291 Testdetails und Ansatz Web Content Management-Bereitstellungen Optimierung Testergebnisse und Empfehlungen Informationen zu den Autoren Voraussetzungen Ehe Sie mit der Lektüre dieses Dokuments beginnen, sollten Sie mit den Schlüsselkonzepten der SharePoint Server 2010-Kapazitätsverwaltung vertraut sein. Die folgende Dokumentation bietet Informationen über den empfohlenen Ansatz für die Kapazitätsverwaltung und enthält Kontext, der Ihnen dabei hilft, die Informationen in diesem Dokument sinnvoll einzusetzen. Weitere konzeptionelle Informationen zur Leistung und Kapazität, die sich für das Verständnis des Kontexts der Daten in diesem Artikel als hilfreich erweisen können, finden Sie in den folgenden Dokumenten: Kapazitätsverwaltung und Größenanpassung für SharePoint Server 2010 Technische Fallstudien zu Leistung und Kapazität (SharePoint Server 2010) Testdetails und Ansatz Bei jedem Test kommen Variablen aus der realen Welt vor, die zur Darstellung bestimmter Empfehlungen abstrahiert wurden. Deshalb ist es äußerst wichtig, dass Sie die Tests und Kontrollen in Ihrer eigenen Umgebung ausführen, um eine korrekte Skalierung sicherzustellen, die an das zu erwartende Anforderungsvolumen angepasst ist. Weitere Informationen zu den Konzepten der Kapazitätsverwaltung finden Sie unter Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht). In diesem Artikel wird die Leistung im Zusammenhang mit Websitesammlungs-Features, der SharePoint Server-Veröffentlichungsinfrastruktur und dem Zwischenspeichern der Ausgabe erläutert. Diese Features stehen nur zur Verfügung, wenn die SharePoint Server-Veröffentlichungsinfrastruktur aktiviert ist. Dieses Feature ist standardmäßig für die Veröffentlichungsportale aktiviert. Dataset Die Tests wurden mithilfe eines Datasets ausgeführt, das gemeinsame Eigenschaften mit tatsächlichen Web Content Management-Bereitstellungen aufweist. Bei konstanter Auslastung wurden verschiedene Seiten angefordert. In der folgenden Tabelle wird das Dataset für diese Tests beschrieben. Dataset Objekt Veröffentlichungssite Größe der Inhaltsdatenbanken 2,63 GB Anzahl der Inhaltsdatenbanken 1 Anzahl der Websitesammlungen 1 292 Objekt Veröffentlichungssite Anzahl der Webanwendungen 1 Anzahl der Websites 50 Seitenanzahl 20.000 Seiten, unterteilt in 20 Ordner mit jeweils 1.000 Seiten Zusammensetzung der Seiten Artikelseiten in einfachem HTML mit Verweisen auf zwei Bilder Seitengröße 42 KB unkomprimiert; 12 KB komprimiert Bilder 3.000 mit jeweils 30 KB bis 1,3 MB Es wird die Konfiguration der Internetinformationsdienste (Internet Information Services, IIS) empfohlen, damit Dateien immer komprimiert werden, anstelle der Standardeinstellung zur dynamischen Komprimierung von Dateien. Wenn die dynamische Komprimierung aktiviert ist, werden Seiten von IIS komprimiert, bis die CPUAuslastung über einen bestimmten Schwellenwert ansteigt. Die Komprimierung von Seiten wird erst dann von IIS fortgesetzt, wenn die Auslastung wieder unter den Schwellenwert sinkt. Die in diesem Artikel aufgeführten Tests wurden stets bei aktivierter Komprimierung durchgeführt. In diesem Testdataset wurden nur SharePoint Server 2010-Standardfeatures verwendet, die zum Lieferumfang des Produkts gehören. Abgesehen von diesen Grundfeatures sind in Ihrer Website vermutlich Anpassungen enthalten. Deshalb ist es wichtig, dass Sie die Leistung Ihrer eigenen Lösung testen. Hardware Die Anzahl der Webserver in der Farm variierte von einem Test zum anderen. Bei jedem Test wurde jedoch die identische Hardware verwendet. In der folgenden Tabelle wird die Hardware von Web- und Anwendungsservern beschrieben, die bei diesen Tests verwendet wurde. Hardwarespezifikationen für Anwendungs- und Webserver Webserver Prozessoren 2 Quad-Core mit 2,33 GHz RAM 8 GB Betriebssystem Windows Server 2008 (64-Bit) Größe des SharePoint-Laufwerks 300 GB Anzahl der Netzwerkadapter 2 Geschwindigkeit des Netzwerkadapters 1 Gigabit Authentifizierung Windows-Standardauthentifizierung 293 Webserver Lastenausgleichstyp Hardwarelastenausgleich Softwareversion SharePoint Server 2010 (Vorabversion) Lokal ausgeführte Dienste Zentraladministration Eingehende Microsoft SharePoint Foundation-E-Mail Microsoft SharePoint FoundationWebanwendung Microsoft SharePoint FoundationWorkflowtimerdienst In der folgenden Tabelle wird die Hardware der Datenbankserver für diese Tests beschrieben. Hardwarespezifikationen für Datenbankserver Datenbankserver Prozessoren 4 Quad-Core mit 3,19 GHz RAM 16 GB Betriebssystem Windows Server 2008 (64-Bit) Speicherung 15 Festplatten mit 300 GB @ 15.000 RPM Anzahl der Netzwerkadapter 2 Geschwindigkeit des Netzwerkadapters 1 Gigabit Authentifizierung NTLM Softwareversion Microsoft SQL Server 2008 Glossar In diesem Dokument werden einige Fachbegriffe verwendet. Es folgen die Definitionen zu einigen Schlüsselbegriffen: Anforderungen pro Sekunde (RPS) Die Anzahl der von einer Farm oder einem Server in einer Sekunde empfangenen Anforderungen. Die Server- und Farmauslastung wird häufig mit diesem Wert gemessen. Beachten Sie, dass zwischen Anforderungen und dem Laden von Seiten ein Unterschied besteht; jede Seite enthält verschiedene Komponenten, durch die beim Laden der Seite eine oder mehrere Anforderungen erstellt werden. Deshalb werden beim Laden einer einzelnen Seite verschiedene Anforderungen erstellt. In der Regel werden beim Messen von RPS Überprüfungen der Authentifizierung und Ereignisse, die wenig Ressourcen benötigen, nicht gezählt. 294 Grüner Bereich Dies ist der Zustand, in dem der Server die folgenden Kriterien einhalten kann: Die serverseitige Wartezeit beträgt bei mindestens 75 Prozent der Anforderungen weniger als 1 Sekunde. Alle Server weisen eine CPU-Auslastung von weniger als 50 Prozent auf. Die Fehlerrate ist niedriger als 0,01 Prozent. Web Content Management-Bereitstellungen Es existieren zwei Modelle für das Erstellen von Inhalten in SharePointVeröffentlichungssites, die sich auf die Wahl der Serverfarmtopologie auswirken können. Beim Modell der direkten Dokumenterstellung wird eine einzelne Websitesammlung von Autoren und Besuchern gemeinsam genutzt. Autoren können Inhalte erstellen und jederzeit aktualisieren, was zu einer variablen Verteilung von Lese- und Schreibvorgängen im Verlauf eines bestimmten Tages führt. In einer solchen Serverfarm werden in der Regel viele Lesevorgänge und eine begrenzte Anzahl von Schreibvorgängen verzeichnet. Im folgenden Diagramm wird die Funktionsweise der direkten Dokumenterstellung aus Sicht der Topologie dargestellt. Beim Modell der Inhaltsbereitstellung wird das Erstellen und Veröffentlichen von Inhalten von mehreren Websitesammlungen getrennt und exklusiv unterstützt. Inhalt wird in der Erstellungsumgebung erstellt und dann in regelmäßigen Abständen in der Veröffentlichungsumgebung bereitgestellt, um von Besuchern gelesen zu werden. In der Veröffentlichungsumgebung werden in erster Linie Leseanforderungen ausgeführt, mit Ausnahme der Bereitstellung von Inhalt aus der Erstellungsumgebung. Im Gegensatz zum Modell der direkten Dokumenterstellung kann die Serverlast, die von der Inhaltsbereitstellung ausgeht, auf regelmäßige Intervalle angepasst werden. Im folgenden Diagramm wird die Funktionsweise der Inhaltsbereitstellung aus Sicht der Topologie dargestellt. Diese Modelle der Inhaltserstellung schließen sich gegenseitig aus. Obwohl für Internetveröffentlichungssites und Intranetveröffentlichungssites sowohl das Modell der direkten Dokumenterstellung als auch der Inhaltsbereitstellung verwendet werden kann, werden Unternehmenswikis am besten mit der direkten Inhaltserstellung ausgeführt. Bei einem Unternehmenswiki werden in der Regel mehr Schreibvorgänge als Lesevorgänge verzeichnet, da ein höherer Anteil von Benutzern Seiten bearbeiten kann. 295 Unternehmenswikiseiten unterscheiden sich von Veröffentlichungsseiten und zeichnen sich durch andere Leistungseigenschaften aus. Optimierung Dieser Abschnitt enthält Informationen über die Optimierung Ihrer Web Content Management-Umgebung. Zur Optimierung der Umgebung gehört auch die Verwaltung des Durchsatzes, von Engpässen und der Zwischenspeicherung. Inhalt dieses Abschnitts: Durchsatz als Schlüsselmetrik Engpässe und Abhilfe Hilfe durch Caching Durchsatz als Schlüsselmetrik Durchsatz und Antwortzeit sind die wichtigsten Metriken, die bei der Kapazitätsplanung einer Web Content Management-Bereitstellung von SharePoint Server 2010 optimiert werden müssen. Der Durchsatz gibt die Anzahl der Vorgänge an, die in einer Serverfarm pro Sekunde durchgeführt werden können, gemessen in Anforderungen pro Sekunde (RPS). Engpässe und Abhilfe Eine Systemressource, durch die bei einem Mangel verhindert wird, dass zusätzliche Anforderungen in der Serverfarm bereitgestellt werden, ist ein Engpass. Im folgenden Diagramm werden die Elemente einer Serverfarm dargestellt, die zu Engpässen werden können und überwacht werden sollten. 296 CPU-Auslastung der Webserver Die Webserver-CPU sollte den Engpass in einer gut abgestimmten Topologie darstellen, da sie die am einfachsten zu skalierende Komponente darstellt. Anforderungen werden 297 vom Lastenausgleichsmodul zwischen den Webservern weitergeleitet, der auch sicherstellt, dass kein einzelner Server deutlich mehr beansprucht wird als andere. Obwohl zusätzliche Benutzer die Website besuchen können, nachdem die WebserverCPU vollständig ausgelastet ist, steigt die Serverantwortzeit für diese Benutzer. Dieses Verhalten erweist sich bei der Verwaltung von Belastungsspitzen beim Anforderungsvolumen als hilfreich. Eine anhaltende Auslastung hingegen, die über die Kapazität der Serverfarm hinausgeht, führt schließlich zu Rückständen, die so groß sind, dass der Schwellenwert für wartende Anforderungen überschritten wird. An diesem Punkt werden die Anforderungen von den Webservern gedrosselt und der HTTP-Fehler 503 ausgegeben. In der folgenden Abbildung ist das Absinken der Serverantwortzeit nach Überschreiten des Schwellenwerts für wartende Anforderungen dargestellt, weil ausschließlich HTTP-Fehler ausgegeben werden. Die folgenden Änderungen werden in diesem Diagramm veranschaulicht: 1. Antwortzeit steigt, wenn die CPU-Auslastung der Webserver gegen 100 Prozent steigt. 2. Nach Überschreiten des Schwellenwerts für wartende Anforderungen werden bei weiteren Anforderungen Fehler ausgegeben. 298 Sonstige Engpässe Wenn die Webserver-CPU nicht den Engpass darstellt, sollten als nächstes die Farmtopologie, die Farmkonfiguration oder der Inhalt der bereitgestellten Seiten als mögliche Engpässe überprüft werden. Potenzielle Engpässe können u. a. die folgenden Elemente sein: 1. Netzwerk In Situationen mit hohem Durchsatz kann entweder das Netzwerk zwischen dem Webserver und dem Datenbankserver oder zwischen dem Webserver und Endbenutzern gesättigt sein. Sie können diese Situation vermeiden, indem Dual Gigabit-Netzwerkadapter für die Webserver verwendet werden. 2. Datenbankserver-CPU Wenn die CPU des Datenbankservers den Engpass darstellt, kann der maximale Durchsatz der Farm durch Hinzufügen von Webservern zur Serverfarm nicht gesteigert werden. Ein Engpass der Datenbank-CPU, jedoch nicht der Webserver-CPUs, kann mit zwei Situationen zusammenhängen: a) Unzureichende Cacheeinstellungen oder äußerst langsame Seiten, vor allem jene, deren Ausgabe nicht zwischengespeichert wird. Dieser Zustand zeichnet sich durch eine hohe CPU-Auslastung des Datenbankservers, kombiniert mit niedrigem oder mittlerem Durchsatz und niedriger oder mittlerer Webserverauslastung aus. b) Möglicherweise hat der Datenbankserver die Kapazitätsgrenze für den für die Farm erforderlichen Durchsatz erreicht. Dieser Zustand zeichnet sich durch eine hohe CPU-Auslastung von Webserver und Datenbankserver bei hohem Durchsatz aus. Hilfe durch Caching In SharePoint Server 2010 werden drei Arten von Caching verwendet. Gemeinsames Ziel dieser Caches ist es, die Effizienz durch Senken der Aufrufe an die Datenbank nach häufig angeforderten Daten zu verbessern. Nachfolgende Anforderungen einer Seite können vom Cache des Webservers bedient werden, was eine signifikant niedrigere Ressourcenauslastung auf den Web- und Datenbankservern zur Folge hat. Die drei Arten des Caching sind folgende: Ausgabecache Dieser Cache speichert angeforderte Seiteninhalte im Arbeitsspeicher des Webservers. Weitere Informationen zum Ausgabecache finden Sie unter Ausgabezwischenspeicherung und Cacheprofile (http://go.microsoft.com/fwlink/?linkid=121543&clcid=0x407). Objektcache Dieser Cache speichert SharePoint-Objekte, wie Web- und Listenelement-Metadaten, im Arbeitsspeicher des Webservers. Weitere Informationen zum Objektcache finden Sie unter Objectzwischenspeicherung (http://go.microsoft.com/fwlink/?linkid=123948&clcid=0x407). Datenträgerbasierter Cache für BLOBs (Binary Large Objects) Dieser Cache speichert Bild-, Sound-, Grafikdateien sowie andere umfangreiche Binärdateien auf Datenträgern. Weitere Informationen zum BLOB-Cache finden Sie unter Datenträgerbasiertes Zwischenspeichern für BLOBs (http://go.microsoft.com/fwlink/?linkid=123947&clcid=0x407). Jeder dieser Caches ist für die Beibehaltung eines hohen Durchsatzes wichtig. Die Aktivierung des Ausgabecaches hat jedoch die stärksten Auswirkungen und wird in diesem Artikel ausführlich besprochen. 299 Testergebnisse und Empfehlungen In diesem Abschnitt werden bestimmte Testbereiche erläutert und Empfehlungen gegeben, die aus diesen Tests resultieren. Inhalt dieses Abschnitts: Auswirkungen aus der Aktivierung des Ausgabecaches Anonyme und authentifizierte Benutzer Skalierungseigenschaften von Lese- und Schreibvorgängen Einschränkungen im Zusammenhang mit dem Ausgabecache Auswirkungen des Volumens von Lesevorgängen auf die CPU und die Antwortzeit Auswirkungen von Schreibvorgängen auf den Durchsatz Auswirkungen der Inhaltsbereitstellung Auswirkungen von Datenbankmomentaufnahmen während des Exports bei der Inhaltsbereitstellung Eigenschaften von Inhalten Auswirkungen aus der Aktivierung des Ausgabecaches Der Ausgabecache zeichnet sich als ein wertvolles Feature bei der Optimierung einer SharePoint Server 2010-Lösung für hohe Mengen an Lesevorgängen aus. Im Rahmen dieser Tests wurde zur Messung der maximalen RPS die Anzahl der aktiven Benutzer, die Anforderungen an die Farm sendeten, so lange gesteigert, bis der Datenbankserver oder die Webserver 100 Prozent erreichten und einen Engpass darstellten. Der Test wurde auf den Farmtopologien 1x1 (ein Webserver und ein Datenbankserver), 2x1, 4x1 und 8x1 ausgeführt, um die Auswirkungen durch die horizontale Skalierung der Webserver bei verschiedenen Ausgabecache-Trefferraten vorzuführen. Ausgabecache-Trefferrate Bei der Ausgabecache-Trefferrate werden die Ausgabecachetreffer im Verhältnis zu Cachefehlern gemessen. Ein Cachetreffer tritt auf, wenn der Cache eine Anforderung nach Objektdaten erhält, die bereits im Cache gespeichert sind. Ein Cachefehler tritt auf, wenn eine Anforderung nach Objektdaten eintrifft, die nicht im Cache gespeichert sind. Bei einem Cachefehler versucht der Cache, die angeforderten Objektdaten so zu speichern, dass nachfolgende Anforderungen dieser Daten einen Cachetreffer zur Folge haben. Eine Seitenanforderung kann aus verschiedenen Gründen zu einem Cachefehler führen. Seiten, die so konfiguriert wurden, dass kein Ausgabecache verwendet wird. Personalisierte Seiten, beispielsweise Seiten mit Daten, die für den aktuellen Benutzer spezifisch sind. Erstmaliges Durchsuchen per Ausgabecache-Variationsschlüssel. Erstmaliges Durchsuchen nach Ablauf des zwischengespeicherten Inhalts. Im folgenden Diagramm werden die Auswirkungen des Zwischenspeicherns von Ausgaben auf den Spitzendurchsatz in Farmen mit einer Größe zwischen einem und vier Webservern und einem Datenbankserver dargestellt. 300 Hinweis: Der Datenpunkt für die maximale RPS in einer 4x1-Serverfarm mit einer AusgabecacheTrefferrate von 100 Prozent wurde extrapoliert und nicht tatsächlich ermittelt. Das Anforderungsvolumen der Serverfarm erreichte die Bandbreitengrenze (die Datenübertragungsrate erreichte also 1 Gigabit pro Sekunde). In allen Fällen lag die CPU-Auslastung der Webserver bei 100 Prozent. Die folgende Tabelle enthält eine Liste der Auswirkungen der Ausgabecache-Trefferraten auf Farmtopologien mit 1 bis 4 Webservern und einem Datenbankserver. Auswirkungen der Ausgabecache-Trefferrate auf verschiedene Farmtopologien Ausgabecache- Measure Trefferrate 1x1 2x1 301 4x1 Ausgabecache- Measure Trefferrate 1x1 2x1 4x1 3.463 7.331 11.032 CPU-Auslastung 0% von SQL Server 0% 0% Maximale RPS 3.945 5.937 CPU-Auslastung 5,93% von SQL Server 12,00% 21,80% Maximale RPS 2.864 4.518 CPU-Auslastung 7,12% von SQL Server 14,40% 28,00% Maximale RPS 913 1.596 CPU-Auslastung 9,86% von SQL Server 19,50% 42,00% Maximale RPS 339 638 19,00% 36,30% 100% Maximale RPS 95% 2.137 90% 1.518 50% 459 0% 172 CPU-Auslastung 9,53% von SQL Server Schlussfolgerungen und Empfehlungen im Hinblick auf die Aktivierung des Ausgabecaches Höhere Ausgabecache-Trefferraten haben signifikante Steigerungen der maximalen RPS zur Folge. Deshalb wird die Aktivierung des Ausgabecaches empfohlen, um die SharePoint Server 2010-Veröffentlichungslösung zu optimieren. Der Ausgabecache kann auf der Seite mit den Ausgabecacheeinstellungen für die Websitesammlung konfiguriert werden. Weitere Informationen finden Sie unter Konfigurieren der Seitenausgabe302 Cacheeinstellungen für eine Websitesammlung (http://go.microsoft.com/fwlink/?linkid=205058&clcid=0x407) auf der Website Office.Microsoft.com. In Tests mit aktiviertem Ausgabecache wurde die erste Anforderung, bei der eine Seite zwischengespeichert wurde, weggelassen; ein bestimmter Prozentsatz von Seiten sind also bereits im Cache gespeichert. Wenn ein Benutzer zuerst eine Seite anfordert, die nicht zwischengespeichert ist, wird die Seite dem Cache hinzugefügt. Erreicht der Cache die maximale Kapazität, werden die Daten, deren Anforderung am längsten zurückliegt, aus dem Cache entfernt. Bei der Ausgabecache-Trefferrate von 0 Prozent wird der kurze Zeitraum in einer Umgebung simuliert, während dem der Ausgabecache nach dem Leeren wieder aufgefüllt wird. Dies findet beispielsweise täglich in einer realen Umgebung statt, wenn der Anwendungspool wiederverwendet wird. Die adäquate vertikale oder horizontale Skalierung Ihrer Hardware ist wichtig in Situationen mit einer Cache-Trefferrate von 0 Prozent für den kurzen Zeitraum zwischen der Wiederverwendung des Anwendungspools und dem nächsten Anfordern und Zwischenspeichern von Seiten. Die Cachetrefferrate von 0 Prozent simuliert auch eine Umgebung, in der der Ausgabespeicher nicht aktiviert wurde. Anonyme und authentifizierte Benutzer Im vorhergehenden Test wurde angenommen, dass alle Anforderungen für die Website von anonymen Lesern stammen. In Ihrer Website sind einige oder sogar alle Benutzer möglicherweise authentifiziert. Beispiele für authentifizierte Leseszenarien sind u. a. eine Intranetveröffentlichungssite in einem Unternehmen und für Mitglieder vorbehaltene Inhalte einer Internetwebsite. Mithilfe von Ausgabecacheprofilen können Sie das Ausgabecacheverhalten für authentifizierte Benutzer festlegen, das vom Verhalten für anonyme Benutzer abweicht. Cacheprofile In den Cacheprofilen werden Einstellungen gesammelt, die Sie auf Seiten, Seitenelemente, Inhaltstypen und Skalierungsebenen in einer Websitebereitstellung anwenden können. Durch ein Cacheprofil werden die folgenden Arten von Cacheverhalten definiert: Die Zeitdauer, die Elemente im Cache aufbewahrt werden sollten. Die Sicherheitsrichtlinie für Trimming. Das Ablaufdatum von Einstellungen, wie z. B. Dauer und Änderungen. Die Variationen zwischengespeicherter Inhalte, z. B. auf der Grundlage von Benutzerberechtigungen, Benutzerrechten und sonstigen benutzerdefinierten Variablen. Alle Änderungen am Cacheprofil wirken sich unmittelbar auf die entsprechenden Inhalte der Website aus. Sie können verschiedene Cacheprofile für anonyme Benutzer und authentifizierte Benutzer festlegen. Für anonyme Benutzer wurde das Ausgabecacheprofil Öffentliches Internet (vollständig anonym) verwendet, während für authentifizierte Benutzer das Ausgabecacheprofil Extranet (veröffentlichte Website) verwendet wurde. Im folgenden Diagramm sind die Auswirkungen des authentifizierten Durchsatzes auf die CPU-Auslastung des Datenbankservers dargestellt. 303 Als Authentifizierungsmodell wurde die Windows-Standardauthentifizierung verwendet. Obwohl die Verwendung der Windows-Standardauthentifizierung nicht für Internetsites empfohlen wird, wurde diese Authentifizierungsmethode gewählt, um vorzuführen, dass zusätzlicher Aufwand durch die Authentifizierung entsteht. Der Umfang des Aufwands hängt von Ihrem spezifischen Authentifizierungsmechanismus ab. Wenn Sie Ihre Bereitstellung testen, sollten Sie die Auswirkungen des Authentifizierungsmechanismus berücksichtigen. Weitere Informationen zu den von SharePoint Server 2010 unterstützten Authentifizierungsmechanismen finden Sie unter Plan authentication methods (SharePoint Server 2010). Schlussfolgerungen und Empfehlungen für anonyme und authentifizierte Benutzer Bei authentifizierten Benutzern sind die Anforderungen pro Sekunde (RPS) niedriger, und es besteht ein geringeres horizontales Skalierungspotenzial, da für die Überprüfung der Anmeldeinformationen zusätzliche Last für den Datenbankserver entsteht. Wie in den Testergebnissen gezeigt, ist die maximale RPS bei authentifizierten Benutzern signifikant niedriger als bei einer Farm mit anonymem Zugriff. Skalierungseigenschaften von Lese- und Schreibvorgängen Bei unseren Tests wurden die Schreibvorgänge pro Stunde aufgezeichnet. Im Rahmen dieses Artikels bezeichnet ein Schreibvorgang entweder das Erstellen und Einchecken einer neuen Veröffentlichungsseite oder das Bearbeiten und Einchecken einer vorhandenen Veröffentlichungsseite. Für die folgenden Tests wurden dem System so lange Leser hinzugefügt, bis die CPUAuslastung der Webserver ca. 80-90 Prozent erreichte. Dann wurden Schreibvorgänge in der Umgebung unter Anwendung einer künstlichen Verzögerung ausgeführt. Die 304 Gesamtanzahl der Schreibvorgänge pro Stunde für den Test betrug ca. 500. Bei allen Tests wurde eine Ausgabecache-Trefferrate von 90 Prozent verwendet. Derselbe Test wurde für die Farmtopologien 1x1, 2x1 und 4x1 ausgeführt; zusätzlich zum Gesamtdurchsatz der Lesevorgänge für die einzelnen Konfigurationen wurde die CPUAuslastung der Webserver und von SQL Server ermittelt. Darüber hinaus wurde eine anonyme schreibgeschützte Konfiguration als Baseline und eine Konfiguration mit authentifizierten Lesern unter Verwendung der Windows-Standardauthentifizierung getestet. Obwohl die Webserver-CPU während der schreibgeschützten Skalierungstests bei 100 Prozent vollständig ausgelastet war, wurde die CPU-Auslastung der Webserver bei den Skalierungstests mit Schreibvorgängen bei 80-90 Prozent gehalten. Damit sollte bei der Ausführung von Schreibvorgängen eine zusätzliche CPU-Auslastung möglich sein. Das folgende Diagramm zeigt die Gesamt-RPS für Lesevorgänge, die während der einzelnen Tests ermittelt wurde. Die RPS für Lesevorgänge skaliert linear, während zusätzliche Webserver hinzugefügt werden, selbst bei Schreibaktivität. Werden Schreibvorgänge hinzugefügt, sinkt der Wert von RPS jedoch. Die CPU-Auslastung des Datenbankservers nahm bei steigender Anzahl von 305 Webservern zu. Im folgenden Diagramm werden die Trends für die Zunahme der SQL Server-CPU-Auslastung in den verschiedenen Konfigurationen dargestellt. Wie im Abschnitt Anonyme und authentifizierte Benutzer weiter oben in diesem Artikel erwähnt, wirkt sich die Authentifizierung auf die CPU-Auslastung des Datenbankservers aus, was sich bei zusätzlicher Schreibaktivität noch verstärkt (was sich ebenfalls auf die CPUAuslastung des Datenbankservers auswirkt). Der extrapolierte Trend bei der SQL Server-Verwendung zeigt, dass SQL Server bei sechs Webservern mit authentifizierten Leseanforderungen zum Engpass wird. Bei den anonymen Lesevorgängen hingegen ist die vertikale Skalierung zu einer größeren Anzahl von Webservern machbar. Es ist wichtig, darauf zu achten, dass sich zusätzliche Faktoren in einer Standardbereitstellung auf die Auslastung des Datenbankservers auswirken; diese Faktoren müssen bei der Kapazitätsplanung berücksichtigt werden. Wenn Sie mehr über die Bestimmung eines grünen Bereichs für die CPU-Standardauslastung von Datenbankservern erfahren möchten, lesen Sie die Informationen unter Kapazitätsverwaltung und Größengestaltung für SharePoint Server 2010 (Übersicht). 306 Schlussfolgerungen und Empfehlungen für Skalierungseigenschaften von Lese- und Schreibvorgängen Unsere Daten zeigen, dass die vertikale Skalierung der Anzahl von Webservern eine effektive Strategie zur Steigerung des Durchsatzes ist, sofern der Datenbankserver nicht den Engpass darstellt. Im Durchschnitt führte die Testmischung aus anonymen Lesevorgängen und authentifizierten Schreibvorgängen zu einer Steigerung um 52 Prozent bei der Webserver-CPU-Auslastung verglichen mit einer Testmischung aus anonymen Lesevorgängen und keinen Schreibvorgängen. Darüber hinaus steigt die zusätzliche SQL Server- Auslastung bei authentifizierten Lesevorgängen stark an, da bei jeder Anforderung zusätzliche Authentifizierungsprüfungen ausgeführt werden, die einen Roundtrip zu SQL Server erfordern. Im folgenden Diagramm sind die Auswirkungen des Durchsatzes auf die CPUAuslastung des Datenbankservers dargestellt. Einschränkungen im Zusammenhang mit dem Ausgabecache 307 Wenn das einzige Anliegen bei der Kapazitätsplanung die Maximierung der RPS wäre, könnte aus diesen Tests die Schlussfolgerung gezogen werden, dass die optimale Cachetrefferrate bei 100 Prozent liegt. Aufgrund von Anforderungen hinsichtlich der Datenaktualität oder von Speicherbeschränkungen ist es jedoch nicht möglich oder wünschenswert, die Zwischenspeicherung der Ausgabe einiger oder aller Seiten zu aktivieren. Datenaktualität Daten, die aus dem Ausgabecache stammen, enthalten möglicherweise keine kürzlich vorgenommenen Aktualisierungen des Originalinhalts. In der Quelle der Inhaltsbereitstellung oder (für authentifizierte Autoren) in einem direkten Dokumenterstellungsszenario sind Autoren daran interessiert, dass neueste Änderungen direkt nach dem Aktualisieren des vorhandenen Inhalts angezeigt werden. Dies wird in der Regel durch Festlegen der Eigenschaft Dauer im Cacheprofil erreicht; diese Eigenschaft gibt an, wie lange eine zwischengespeicherte Seite im Ausgabecache vor dem Ablaufen aufbewahrt wird. Nach Ablauf der Seite wird sie aus dem Cache entfernt und eine nachfolgende Anforderung führt zu einem Cachefehler, durch den der Seiteninhalt aktualisiert wird. Die Eigenschaft Auf Änderungen überprüfen im Cacheprofil kann ebenfalls festgelegt werden; dabei vergleicht der Server den Zeitpunkt der Zwischenspeicherung einer Seite mit dem Zeitpunkt der letzten Änderung in einer Websitesammlung. Die Anforderung einer Seite mit nicht übereinstimmenden Zeitstempeln hat die Cacheinvalidierung aller Seiten in der Websitesammlung zur Folge. Da sich die Eigenschaft Auf Änderungen überprüfen auf alle Seiten in einer Websitesammlung auswirkt, wird empfohlen, diese Option nur bei einer direkten Dokumenterstellungslösung zu aktivieren, die selten aktualisiert und im Grunde genommen statisch ist. Die Kombination dieser Option mit einer langen Dauer bietet die Möglichkeit, dass alle Seiten aus dem Cache bereitgestellt werden, bis eine Aktualisierung an der Website vorgenommen wird. Die Eigenschaft Auf Änderungen überprüfen ist standardmäßig nicht aktiviert. Das bedeutet, dass der Webserver Daten aus dem Ausgabecache als Antwort auf Anforderungen nach einer noch nicht abgelaufenen Seite bereitstellt, unabhängig davon, ob die zugrunde liegende ASPX-Originalseite geändert wurde oder nicht. In diesem in einer Serverfarm mit 1x1-Topologie ausgeführten Test stimmen alle Variablen mit den Variablen der Tests im Abschnitt Skalierungseigenschaften von Leseund Schreibvorgängen überein, mit Ausnahme der Eigenschaft Auf Änderungen überprüfen. Wenn die Eigenschaft Auf Änderungen überprüfen aktiviert ist, wird der Cache häufiger geleert, was zu einer niedrigeren Ausgabecache-Trefferrate führt. Im folgenden Diagramm sind die Auswirkungen der Eigenschaft Auf Änderungen überprüfen auf den Durchsatz dargestellt. 308 Die Verwendung der Eigenschaft Auf Änderungen überprüfen im Ausgabecacheprofil wird, abgesehen von Sonderfällen, nicht empfohlen. Eine Website, in der das Modell der direkten Dokumenterstellung verwendet wird und nur selten inhaltliche Änderungen vorgenommen werden, kann für authentifizierte Benutzer zusammen mit einer langen Cachedauer möglicherweise von dieser Einstellung profitieren; bei anderen Arten von Websites ist vermutlich jedoch eine Verschlechterung der RPS feststellbar. Abhängig von Ihren Anforderungen ist es sinnvoll, dass Inhalte, bei denen die Aktualität eine wichtige Rolle spielt, sofort oder zumindest schneller als dies die Standardeinstellungen unterstützen, angezeigt werden. In diesem Fall sollten Sie die Dauer reduzieren oder das Zwischenspeichern von Ausgaben nicht aktivieren. Schlussfolgerungen und Empfehlungen im Hinblick auf die Einschränkungen des Ausgabecaches Durch das Zwischenspeichern von Ausgaben werden nicht alle Probleme im Zusammenhang mit der Kapazitätsverwaltung gelöst. In einigen Situationen ist die Zwischenspeicherung von Ausgaben nicht sinnvoll, was Sie beim Aktivieren des Ausgabecaches und dem Konfigurieren der Ausgabecacheprofile bedenken sollten. Auswirkungen des Volumens von Lesevorgängen auf die CPU und die Antwortzeit Dieser Test wurde auf einer 1x1-Farm mit anonymem Zugriff und aktiviertem Ausgabecache durchgeführt. 309 Im folgenden Diagramm sind die Auswirkungen des Volumens von Lesevorgängen auf die CPU und die Antwortzeit dargestellt. Schlussfolgerungen und Empfehlungen im Hinblick auf die Auswirkungen des Volumens von Lesevorgängen auf die CPU und die Antwortzeit Wie im Abschnitt Engpässe und Abhilfe erläutert, bleibt die Serverantwortzeit im Allgemeinen konstant bis der Webserver ausreichend Anforderungsvolumen empfangen hat, sodass die CPU vollständig ausgelastet ist. Bei vollständiger Auslastung der Webserver-CPU steigt die Antwortzeit signifikant. Die Serverfarm ist jedoch weiterhin in der Lage, zusätzliches Anforderungsvolumen zu bearbeiten. Auswirkungen von Schreibvorgängen auf den Durchsatz Das Verhältnis zwischen Erstellungs- und Bearbeitungsvorgängen ist über die Dauer der Tests gleichmäßig verteilt. Die Werte für Schreibvorgänge pro Stunde wurden bis ca. 500 getestet, da das Erstellen oder Bearbeiten von mehr als 500 Seiten pro Stunde außerhalb des Bereichs liegt, in dem sich die meisten SharePoint-Bereitstellungen bewegen. Bei diesem Test wurden keine automatisierten Prozesse erfasst, wie die Inhaltsbereitstellung, die im Abschnitt Auswirkungen der Inhaltsbereitstellung besprochen ist. Diese Erstellungs- und Bearbeitungsvorgänge können zu mehreren SQL ServerVorgängen führen. Deshalb ist es wichtig, zu wissen, dass die in diesen Tests gemessenen Schreibvorgänge sich nicht auf der SQL Server-Ebene befinden, sondern 310 dem entsprechen, was von einem Benutzer als Schreibvorgang betrachtet wird. Alle Tests von RPS verglichen mit Schreibvorgängen pro Stunde wurden in einer 1x1-Farm durchgeführt. Zunächst wurden dem Test so lange Lesevorgänge hinzugefügt, bis die Webserver-CPU einen Wert zwischen 60 und 80 Prozent erreichte, um Puffer für Belastungsspitzen zu lassen. Diese durchschnittliche Auslastung wurde im Verlauf des Tests beibehalten. Dann wurden Schreibvorgänge unter Anwendung einer künstlichen Verzögerung zur Steuerung der Anzahl der Schreibvorgänge hinzugefügt. Während der Schreibvorgänge traten jedoch Spitzen bei der Auslastung der Webserver- und SQL Server-CPU auf. Einige dieser Spitzen überschritten bei einigen Cachetrefferraten den Schwellenwert für Normalbetrieb, wie im folgenden Diagramm dargestellt, obwohl der Durchschnitt innerhalb der Spanne für Normalbetrieb lag. Wie im vorhergehenden Diagramm zu sehen, ist eine geringe Reduzierung des Durchsatzes feststellbar, wenn der Umgebung Schreibvorgänge hinzugefügt werden. Im Diagramm wird die Änderung des Durchsatzes zwischen einem schreibgeschützten Szenario und Lesevorgängen im Verlauf von ca. 500 Schreibvorgängen pro Stunde veranschaulicht. Für jede Ausgabecache-Trefferrate wurden zwei Datenpunkte aufgezeichnet. Deshalb ist das Verhältnis zwischen Datenpunkten nicht unbedingt linear. 311 Die Reduzierung des Prozentwertes fällt bei niedrigeren Cachetrefferraten deutlicher aus, wie im folgenden Diagramm zu sehen. Die Gesamt-RPS für Lesevorgänge bleibt, unabhängig von den Schreibvorgängen, weitgehend abhängig von der AusgabecacheTrefferrate. Im folgenden Diagramm wird gezeigt, dass die Datenbankserver-CPU-Auslastung bei Hinzufügen von Schreibvorgängen zum System nicht merklich anstieg. Beachten Sie, dass die vertikale Skalierung zwischen 0 und 10 Prozent der CPU-Auslastung liegt. 312 Während der Schreibvorgänge wurde erwartungsgemäß eine zusätzliche SQL ServerAuslastung festgestellt. Die höchste Steigerung lag jedoch bei 2,06 Prozent, was nicht signifikant ist. Die durchschnittliche Datenbankserver-CPU-Auslastung blieb im Verlauf aller Tests unter 10 Prozent. Dieser Test wurde in einer 1x1-Farm durchgeführt. Die Datenbankserver-CPU-Auslastung steigt, wenn die Anzahl der Webserver horizontal skaliert wird. Weitere Informationen hierzu finden Sie unter Skalierungseigenschaften von Lese- und Schreibvorgängen. Während der Tests wurde auch die Webserver-CPU-Auslastung gemessen. Im folgenden Diagramm wird deutlich, dass die durchschnittliche Webserver-CPUAuslastung im Bereich von 60-80 Prozent während der Tests blieb, selbst als die Anzahl der Schreibvorgänge pro Stunde 500 erreichte. 313 Die gemessene CPU-Auslastung erreicht jedoch Spitzenwerte während der Schreibvorgänge, wie im folgenden Diagramm zu sehen. Im Allgemeinen stellen diese CPU-Spitzen kein Problem dar. Zweck des grünen Bereichs ist es, CPU-Reserven freizuhalten, um Spitzen bei der CPU-Auslastung abfangen zu können. Wenn zusätzliche Webserver hinzugefügt werden, werden darüber hinaus die Spitzen zwischen diesen Servern verteilt, sodass die Auswirkungen auf die CPU eines einzelnen Webservers geringer ausfallen. Sie sollten jedoch wissen, dass solche Spitzen in tatsächlichen Bereitstellungen zu erwarten sind; die Aktivität von Schreibvorgängen ist nicht gleichmäßig verteilt, da sie im Allgemeinen in Bursts auftritt. 314 Eine Cachetrefferrate von 90 Prozent ist bei einer Standardbereitstellung sehr niedrig. Die meisten SharePoint Server 2010-Bereitstellungen mit zahlreichen Lesevorgängen weisen eine Ausgabecache-Trefferrate von 95 Prozent oder höher auf. Schlussfolgerungen und Empfehlungen im Hinblick auf die Auswirkungen von Schreibvorgängen auf den Durchsatz Die präsentierten Daten zeigen, dass Schreibvorgänge keine umfassenden negativen Auswirkungen auf den Gesamtdurchsatz des Systems für Leser haben. Sie sollten sich bewusst sein, dass die Aktivität von Schreibvorgängen zu Spitzen bei der CPUAuslastung führen kann und Ihre Standardkonfiguration unter Berücksichtigung dieser Spitzen planen. Die richtige Strategie zum Ausgleichen dieser Spitzen besteht darin, auf mehrere Webserver zu skalieren. Dies bringt zwei Vorteile mit sich: Verteilung der Last durch Schreibvorgänge auf mehrere Webserver, wodurch die Spitzen im Allgemeinen abgeschwächt werden. Gesteigerte RPS für Lesevorgänge, vor allem bei hohen Ausgabecache-Trefferraten. Auswirkungen der Inhaltsbereitstellung 315 Eine Alternative zum Modell der direkten Dokumenterstellung, bei der eine einzelne Umgebung für das Bearbeiten und Lesen verwendet wird, besteht darin, die Umgebung in zwei getrennte Umgebungen zu unterteilen - eine Umgebung für die Dokumenterstellung und eine Umgebung für die Produktion. Mithilfe der Inhaltsbereitstellung wird dann der Inhalt aus der Dokumenterstellungsumgebung in die Produktionsumgebung kopiert. In dieser Konfiguration variiert die Produktionsumgebung von geringer Schreibaktivität bis hin zu keiner Schreibaktivität, außer beim Importieren von Inhalt durch die Inhaltsbereitstellung. Bei diesen Tests wurden so lange Lesevorgänge hinzugefügt, bis die Webserver-CPU-Auslastung den Bereich von 70-80 Prozent erreichte. Durch den Inhaltsbereitstellungsauftrag wurden dann 10 Websites mit jeweils 500 Seiten als Paket aus der Dokumenterstellungs-Websitesammlung exportiert und das Paket dann in die Veröffentlichungssitesammlung importiert. Die Größe des bereitgestellten Pakets ist größer als Pakete in tatsächlichen Umgebungen, um die Dauer des Inhaltsbereitstellungsauftrags so lange zu verlängern, bis Testergebnisse vorliegen. Zusätzliche Informationen zu den Eigenschaften des bereitgestellten Inhalts finden Sie im Abschnitt Dataset. Nach Abschluss des Exports wird der Inhalt in eine gesonderte Websitesammlung importiert und die Auslastung von Anwendungsserver und SQL Server während des Imports zusätzlich zum Durchsatz gemessen. Der Importtest wurde für mehrere unterschiedliche Ausgabecache-Trefferraten durchgeführt. Als Wichtigstes konnte festgestellt werden, dass der Import nur eine geringfügige Auswirkung auf die Gesamt-RPS für Lesevorgänge hat, wie im folgenden Diagramm dargestellt. Darüber hinaus wurde deutlich, dass der Import unabhängig von der Cachetrefferrate keine signifikante Auswirkung auf die Webserver-CPU-Auslastung hat, wie in den folgenden Tabellen zu sehen. Eine deutlichere Auswirkung ergab sich hingegen für die SQL Server-CPU, wie im folgenden Diagramm dargestellt. Dies war zu erwarten, da der Datenbankserver einer höheren Auslastung unterliegt, wenn Inhalt importiert wird. Die Auslastung der SQL Server-CPU blieb jedoch bei allen getesteten Cachetrefferraten selbst während des Imports unter 12 Prozent. 316 In den folgenden Tabellen werden die Auswirkungen des Imports bei der Inhaltsbereitstellung auf die CPU-Auslastung von Webserver und Datenbankserver dargestellt. Auswirkungen des Imports bei der Inhaltsbereitstellung auf die Webserver-CPU-Auslastung Cachetreffer 100% 99% 98% 95% 90% 50% Baseline 72,32% 73,26% 71,28% 73,53% 71,79% 68,05% 63,97% Mit Import 70,93% 74,45% 69,56% 74,12% 70,95% 67,93% 63,94% Auswirkungen des Imports bei der Inhaltsbereitstellung auf die Datenbankserver-CPU-Auslastung 317 0% Cachetreffer 100% 99% 98% 95% 90% 50% 0% Baseline 1,19% 1,64% 2,01% 3,00% 3,73% 5,40% 6,82% Mit Import 6,03% 6,82% 6,97% 7,96% 8,52% 10,29% 10,56% Schlussfolgerungen und Empfehlungen im Hinblick auf die Auswirkungen der Inhaltsbereitstellung Die Ergebnisse der Tests zeigen, dass die Durchführung von Inhaltsbereitstellungsvorgängen während regulärer Websitevorgänge keine signifikanten Leistungsminderungen mit sich bringt. Diese Ergebnisse verdeutlichen, dass es nicht unbedingt erforderlich ist, Inhalt zu Zeiten mit geringem Datenverkehr bereitzustellen, um die Auswirkungen des Vorgangs auf die Gesamtleistung zu minimieren. Die Bereitstellungszeiten können also in erster Linie abhängig von Geschäftsanforderungen und nicht von Leistungsanforderungen gewählt werden. Auswirkungen von Datenbankmomentaufnahmen während des Exports bei der Inhaltsbereitstellung In SharePoint Server 2010 kann die Inhaltsbereitstellung so konfiguriert werden, dass vor dem Exportieren des Inhalts aus der Quellinhaltsdatenbank eine Momentaufnahme der Datenbank erstellt wird. Dadurch wird der Exportvorgang vor Dokumenterstellungsaktivitäten geschützt, die während des Exports stattfinden. Momentaufnahmen können sich jedoch auf die Schreibleistung des Datenbankservers auswirken, da die Momentaufnahme als Multiplikator für die Schreibvorgänge fungiert. Wenn beispielsweise zwei Momentaufnahmen einer Quelldatenbank vorliegen und Sie dann in die Quelldatenbank schreiben, werden die bestehenden Daten vom Datenbankserver in jede Momentaufnahme kopiert und die neuen Daten dann in die Quelldatenbank geschrieben. Das bedeutet, dass ein einzelner Schreibvorgang in der Quelldatenbank drei eigentliche Schreibvorgänge mit sich bringt: einen in die Quelldatenbank und jeweils einen für jede Datenbankmomentaufnahme. Um die Auswirkungen einer Momentaufnahme auf die Erstellungsumgebung zu ermitteln, wurde die RPS für Schreibvorgänge, die Antwortzeit und die CPU-Auslastung der Webserver, Datenbankserver und Anwendungsserver während eines Exportvorgangs gemessen, während dem auch Schreibaktivitäten stattfanden. Die folgenden Tabellen enthalten die Ergebnisse. Auswirkungen von Datenbankmomentaufnahmen während der Inhaltsbereitstellung Metrik 4 WPH - Keine Momentaufnahmen 4 WPH - Mit Momentaufnahmen RPS für Schreibvorgänge 0,2 0,16 Antwortzeit 0,13 0,15 Webserver-CPU (%) 0,42% 0,27% Anwendungsserver-CPU (%) 8,67% 8,98% 318 Metrik 4 WPH - Keine Momentaufnahmen 4 WPH - Mit Momentaufnahmen Datenbankserver-CPU (%) 3,34% 2,41% Auswirkungen von Datenbankmomentaufnahmen während der Inhaltsbereitstellung Metrik 8 WPH - Keine Momentaufnahmen 8 WPH - Mit Momentaufnahmen RPS für Schreibvorgänge 0,44 0,44 Antwortzeit 0,13 0,13 Webserver-CPU (%) 0,61% 0,73% Anwendungsserver-CPU (%) 14,6% 12% Datenbankserver-CPU (%) 7,04% 7,86% Schlussfolgerungen und Empfehlungen im Hinblick auf Datenbankmomentaufnahmen während des Exports bei der Inhaltsbereitstellung Die Ergebnisse der Tests zeigten keine signifikante Auswirkung auf die gemessenen Datenpunkte mit Datenbankmomentaufnahmen. Die gesamte verzeichnete Abweichung lag innerhalb der Fehlermarge. Damit wird bestätigt, dass Datenbankmomentaufnahmen ohne große Bedenken hinsichtlich der Leistung verwendet werden können. Eigenschaften von Inhalten Die Tests wurden unter Verwendung eines einzelnen Datasets ausgeführt, das zur Beantwortung einer bestimmten Reihe von Fragen erstellt wurde. Ihr Dataset weicht davon ab und verändert sich im Laufe der Zeit. In diesem Abschnitt wird untersucht, wie Eigenschaften von Inhalten, wie die Anzahl der Seiten in der Seitenbibliothek und die in den Seiten enthaltenen Features, sich auf Entscheidungen zur Kapazitätsverwaltung auswirken können. Seitenanzahl Die maximale RPS wurde für Seitenbibliotheken unterschiedlicher Größe getestet. Dieser Test wurde in einer 4x1-Topologie bei deaktiviertem Ausgabecache und mit anonymem Zugriff ausgeführt. Die Größe aller Seiten lag unkomprimiert bei 42 KB, komprimiert bei 12 KB. Die Testergebnisse sind in der folgenden Tabelle enthalten. Auswirkungen der Anzahl der Bibliotheksseiten auf RPS Seitenanzahl 3 1.000 20.000 Maximale RPS 860 801 790 319 Die Erhöhung der Seitenanzahl auf 20.000 hatte keine signifikanten Auswirkungen auf die maximale RPS. Mehrwertige Nachschlagefelder Ein mehrwertiges Nachschlagefeld ist eine Spalte in einer Liste, die auf mindestens ein Element in einer anderen Liste verweist, wie z. B. Spalten mit verwalteten Unternehmensmetadaten. Diese Felder werden im Allgemeinen als Stichwörter der Suche für eine Seite verwendet und werden nicht unbedingt gerendert. In manchen Fällen, wie beispielsweise bei Unternehmenswikis, ist es sinnvoll, dass diese Feldwerte im Seiteninhalt gerendert werden. So werden beispielsweise Seiten beim Erstellen möglicherweise nach Kategorien unterteilt (z. B. Aus aller Welt, Wissen und Sport auf einer Nachrichtenseite), und die Gestaltungsvorlage enthält einen Platzhalter, über den dem Benutzer angezeigt wird, in welche Kategorien die Seite eingeteilt wird. Bei mehrwertigen Nachschlagefeldern werden beim Anfordern einer Seite mehr Daten abgerufen. Deshalb kann sich die Verwendung zahlreicher mehrwertiger Nachschlagefelder auf einer Seite auf die Leistung auswirken. Im folgenden Diagramm sind die Auswirkungen mehrwertiger Nachschlagefelder auf den Durchsatz dargestellt. 320 Im folgenden Diagramm sind die Auswirkungen mehrwertiger Nachschlagefelder auf die Verwendung von Farmressourcen dargestellt. 321 Bei zunehmender Anzahl der mehrwertigen Nachschlagefeldern kommt es zu einer Beeinträchtigung der maximalen RPS, da sich der Anstieg auf das Netzwerk zwischen Webserver und Datenbankserver auswirkt. Auswirkungen der Verwendungsberichterstellung Die Verwendungsberichterstellung ist ein Dienst, der Administratoren bei der Überwachung von Statistiken über die Verwendung ihrer Websites hilft. Weitere Informationen zur Verwendungsberichterstellung finden Sie unter Configure usage and health data collection (SharePoint Server 2010). Die Auswirkungen von Zeitgeberaufträgen für die Verwendungsberichterstellung auf die maximale RPS wurde in einer 1x1-Farm getestet. In der folgenden Tabelle sind die Ergebnisse beschrieben. Auswirkungen der Verwendungsprotokollierung auf die Leistung (in RPS) 322 Verwendungsdatenbank ein Verwendungsdatenbank Differenz aus Ausgabecache ein 3.459 3.463 4 Ausgabecache aus 629 638 9 Die Ergebnisse zeigen, dass die Aktivierung der Verwendungsprotokollierung in einem schreibgeschützten Szenario keine signifikanten Auswirkungen auf RPS hat. Informationen zu den Autoren Joshua Stickler ist Program Manager für SharePoint Server 2010 bei Microsoft. Joshua Stickler ist Program Manager für SharePoint Server 2010 bei Microsoft. Zhi Liu ist Software Development Engineer in Test für SharePoint Server 2010 bei Microsoft. Cheuk Dong ist Software Development Engineer in Test für SharePoint Server 2010 bei Microsoft. Philippe Flamm ist Software Development Engineer in Test für SharePoint Server 2010 bei Microsoft. 323 Estimate performance and capacity planning for workflow in SharePoint Server 2010 (in englischer Sprache) This performance and capacity planning article provides guidance on the effect that the use of workflow has on topologies that run Microsoft SharePoint Server 2010. For general information about capacity planning for SharePoint Server 2010, see Leistungs- und Kapazitätsverwaltung (SharePoint Server 2010). Contents Test farm characteristics Test results Recommendations Troubleshooting Test farm characteristics The following sections describe the characteristics of the test farm: Dataset Workload Hardware, settings, and topology Dataset To get benchmarks, most tests ran on a default Team Site on a single site collection in the farm. The manual start tests started workflows by using a list that has 8,000 items. Workload Testing for this scenario helps develop estimates of how different farm configurations respond to changes to the following variables: Effect of the number of front-end servers on throughput for manually starting declarative workflows across multiple computers Effect of the number of front-end servers on throughput for automatically starting declarative workflows on item creation across multiple computers Effect of the number of front-end servers on throughput for completing tasks across multiple computers The specific capacity and performance figures presented in this article will differ from the figures in real-world environments. The figures presented are intended to provide a starting point for the design of an appropriately scaled environment. After you complete the initial system design, test the configuration to determine whether it will support the factors in your environment. 324 This section defines the test scenarios and discusses the test process that was used for each scenario. Detailed information such as test results and specific parameters are given in each test result section later in this article. Test name Test description Throughput for starting workflows manually 1. Associate the included MOSS Approval workflow with a list that creates one task. 2. Populate the list with list items. 3. Call the StartWorkflow Web service method on Workflow.asmx against the items in the list for five minutes. 4. Calculate throughput by looking at the number of workflows in progress. Throughput for starting workflows automatically when an item is created 1. Associate the included MOSS Approval workflow with a list that creates one task, set to automatically start when an item is created. 2. Create items in the list for five minutes. 3. Calculate throughput by looking at the number of workflows in progress. Throughput for completing workflow tasks 1. Associate the included MOSS Approval workflow with a list that creates one task, set to automatically start when an item is created. 2. Create items in the list. 3. Call the AlterToDo Web service method on Workflows.asmx against the items in the task list that was created by the workflows that started. 4. Calculate throughput by looking at the number of workflows completed. Hardware, settings, and topology Topologies that were used for these tests use a single computer for the content database and from one to four front-end computers that have the default installation for SharePoint Server 2010. Although the workflows that were used in these tests are not available in Microsoft SharePoint Foundation 2010, the results can be used to estimate similar scenarios on those deployments. The dataset that was used for these tests contains a 325 single site collection with a single site that is based on the Team Site template on a single content database. To provide a high level of test-result detail, several farm configurations were used for testing. Farm configurations ranged from one to four Web servers and a single computer that is running Microsoft SQL Server 2008. Testing was performed with one client computer. The database server and all Web servers were 64-bit, and the client computer was 32-bit. The following table lists the specific hardware that was used for testing. Web server Database server Processor [email protected] [email protected] RAM 4 GB 16 GB Operating system Windows Server 2008 R2 x64 Windows Server 2008 R2 x64 Storage 680 GB 4.2 terabyte Number of network adapters 2 2 Network adapter speed 1 gigabit 1 gigabit Authentication NTLM NTLM Software version 4747 SQL Server 2008 R1 Number of SQL Server instances 1 1 Load balancer type No load balancer No load balancer ULS logging level Medium Medium Workflow Capacity Planning Topology 326 327 Test results The following tables show the test results for workflow in SharePoint Server 2010. For each group of tests, only certain specific variables are changed to show the progressive effect on farm performance. All the tests reported in this article were conducted without think time, a natural delay between consecutive operations. In a real-world environment, each operation is followed by a delay as the user performs the next step in the task. By contrast, in the test, each operation was immediately followed by the next operation, which resulted in a continual load on the farm. This load can cause database contention and other factors that can adversely affect performance. Effect of scaling the Web server on throughput The following throughput tests were run by using the Approval workflow that is included with SharePoint Server 2010. The workflow association assigns one task, and all instances are run on a single list. Each instance of this workflow creates the following in the content database: An entry in the Workflows table to store workflow status Five secondary list items (one task and four history items) Four event receivers to handle events on the workflow's parent item and task Workflow Postpone Threshold was set to be very large so that workflow operations would never get queued. Each test was run five times, and each test ran for five minutes. Manual start throughput The test in the following table shows how the addition of front-end servers affects the throughput of starting workflows synchronously through the Web service. This test was run with a user load of 25 concurrent users continuously calling the StartWorkflow method on Workflow.asmx and no other load on the farm. The user load was the optimal load before dropped Web requests occurred. The list is prepopulated with up to 8,000 items. Topology Approval workflow maximum RPS 1x1 14.35 2x1 24.08 3x1 29.7 4x1 30.77 The following graph shows how throughput changes. The addition of front-end servers does not necessarily affect farm throughput in a linear manner but instead peaks off at around three to four front-end servers. In summary, the maximum throughput for manually starting workflows is around 30 workflows per second, and adding more than four front-end servers will likely have an insignificant effect. Manual start throughput 328 Automatically starting workflows when items are created throughput The test in the following table shows how the addition of front-end servers affects the throughput of starting workflows automatically when items are created. This test was run with a user load of 150 concurrent users continuously calling the list Web service to create new list items in a single list and no other operations on the server. The list started as an empty list. Topology Approval workflow maximum RPS 1x1 13.0 2x1 25.11 3x1 32.11 4x1 32.18 The following graph shows how throughput changes. The throughput is very close to the manual start operations. Similar to the manual start test, throughput peaks at approximately three or four front-end servers at approximately 32 workflows per second maximum. Adding more than three or four front-end servers will have an insignificant effect. Autostart workflow throughput 329 Task completion throughput The test in the following table shows how the addition of front-end servers affects the throughput of completing workflow tasks. The task list that was used by autostart workflows in the previous test was the list that was used to complete tasks. This test was run with a user load of 25 concurrent users continuously calling the AlterToDo method on Workflow.asmx and no other operations on the server. The list started as an empty list. Topology Approval workflow maximum RPS 1x1 13.5 2x1 23.86 3x1 27.06 4x1 27.14 330 The following graph shows how throughput changes. Similar to the manual start test, throughput peaks at approximately three or four front-end servers at approximately 32 workflows per second maximum. Adding more than three front-end servers will have an insignificant effect. Task completion throughput Effect of list size and number of workflow instances on throughput The test in the following table shows how throughput changes as list size and number of workflows increases. Data population was done by running the autostart workflow test continuously until 1 million items were created in the list, and stopping at different checkpoints throughout the test to perform throughput measurements as we did with the core throughput tests. Tests were performed on a 4x1 topology. To maintain reliability during data population, we had to keep workflow queuing turned on to avoid reaching the maximum number of connections on the database server. If no connections are available and a workflow operation cannot connect to the content 331 database, the operation will be unable to run. See Recommendations for more information about workflow queuing. Number of items or workflows Baseline solution maximum (RPS) 0 32.18 10 32 1,000 28.67 10,000 27.16 100,000 16.98 1,000,000 9.27 Autostart throughput as number of items and workflows increases 332 For a single list and single task and history list, throughput decreases steadily between 1,000 and 100,000 items. However, the rate of degradation reduces after that point. We attribute degradation of throughput to many factors. One factor is the number of rows added to many tables in the content database per instance. As mentioned earlier, workflows create several list items in addition to event receivers that each workflow instance registers. As table sizes grow large in different scopes, adding rows becomes slower, and the aggregate slowdown for these additions becomes a more significant degradation than what is experienced with only list item creation. Task list size contributes additional overhead. In comparing throughput for workflows run on new lists versus new task lists, task lists had a bigger effect on performance. This is because task lists register for more event receivers than the parent list items. The following chart describes the differences. 333 Throughput with different list configurations (workflows started per second) Million item task list Empty task list Million item list 9.27 12 Empty item list 9.3 13 If you know that you will have to run lots of workflows against large lists and need more throughput than what your tests show you can get, consider whether your task lists can be separated between workflow associations. Recommendations This section provides general performance and capacity recommendations. Use these recommendations to determine the capacity and performance characteristics of the starting topology that you created to decide whether you have to scale out or scale up the starting topology. For specific information about minimum and recommended system requirements, see Hardware and software requirements (SharePoint Server 2010). Scaled-out topologies You can increase workflow throughput by scaling out to up to four Web servers. Then, additional increase will be insignificant. Workflow throughput can be restricted by performance-related workflow settings. These settings are described in more detail in Workflow queuing and performance-related settings. Estimating throughput targets Many factors can affect throughput. These factors include the number of users, and the type, complexity, and frequency of user operations. More complex workflows that perform many operations against the content database or register for more events will run slower and consume more resources than other workflows. The workflow used in this test creates several entries in the content database that are built in to the task activities. If you expect to have workflows with small numbers of tasks, you can expect similar throughput characteristics. If most workflows contain very lightweight operations, throughput may be increased. If your workflows will consist of lots of tasks or intense back-end operations or processing power, you can expect throughput to decrease. In addition to understanding what the workflows will do, consider where the workflows will run and whether they will run against large lists, on which throughput will decrease over time. SharePoint Server 2010 can be deployed and configured in many ways. As a result, there is no simple way to estimate how many users can be supported by a given number of servers. Therefore, make sure that you conduct testing in your own environment before you deploy SharePoint Server 2010 in a production environment. Workflow queuing and performance-related settings Workflow uses a queuing system to control workflow-related stress on farm resources and the content database. By using this system, when the number of workflows executing against a database reaches an administrator-configured threshold, successive workflow 334 operations are added to the queue to be run by the Workflow Timer service. By default, this service receives a batch of workflow work items through timer jobs every minute. Several farm administrator settings directly and indirectly related to the queuing mechanism affect the performance and scaling for workflow. The following sections describe what these settings do and how to adjust them to meet performance requirements. Understanding the basic queue settings Farm administrators can adjust the following settings to configure basic characteristics of the queuing system: Workflow Postpone Threshold (Set-SPFarmConfig –WorkflowPostponeThreshold <integer>) The maximum number of workflows that can execute against a single content database before additional requests and operations are queued. Queued workflows show a status of Starting. This is a farm-wide setting that has a default value of 15. This represents the number of workflow operations that are being processed at a time, not the maximum number of workflows that can be in progress. As workflow operations are completed, successive operations will be able to run. Workflow Event Delivery Batch Size (Set-SPWorkflow –BatchSize <integer>) The Workflow Timer service is an exception to the postpone threshold limit and will retrieve batches of items from the queue and execute them one at a time. These batches can be larger than the postpone threshold. The number of work items that the service receives per run is set by using the BatchSize property. The BatchSize property can be set one time per service instance. The default value is 100. When running on application servers that are not configured to be front-end servers, the Workflow Timer service requires workflow configuration settings in Web.config to be set in the configuration database. This must be done through a script that calls UpdateWorkflowConfigurationSettings() on the SPWebApplication object, which will copy the Web.config settings from a front-end server. Workflow Timer Job Frequency (Set-SPTimerJob job-workflow –schedule <string>) The frequency with which the Workflow Timer service runs can be adjusted through timer job settings. By default, the service is set to run every five minutes. This means that there can be a five-minute delay before the work items at the top of the queue are processed. Hinweis: Scheduled work items such as task due date expirations are also picked up by the same timer mechanism. Therefore, they will be delayed by the same time interval. The Workflow Timer service can be turned off on each server by using Shared Services Administration in Central Administration. By default, it will run on every front-end server in the farm. Each job will iterate through all the Web applications and content databases in the farm. The combination of the postpone threshold, batch size, and timer frequency can be used to limit workflow operations against the database. Maximum throughput will be affected by how quickly operations get queued and processed from the queue. For example, with the default settings, a single timer service, and a single content database, if there are 1,000 items in the queue, it will take ten timer job runs to execute them all, which will take 50 minutes to execute. However, if you set the batch size to 335 1,000 and set the timer job to run every minute, the operations would all begin execution after a minute. If you set the postpone threshold higher, more operations will run synchronously, reducing the number of requests that get queued and reducing the total time that is required to process those workflows. Hinweis: We recommend setting the postpone threshold no larger than 200, because concurrent workflow instances run in their own threads and will each open new SQL Server connections, potentially hitting the maximum connection limits on the database server over time. If you do not want workflows running on front-end servers and know that operations do not have to occur immediately, you can isolate the Workflow Timer service to run on select application servers, set the postpone threshold to a very low number to force workflows to usually run in the timer service, and set the batch size large so that it receives items more quickly and frequently. If you want to make sure workflows run more synchronously across the system, set the postpone threshold larger so that workflows are not postponed often and have a more immediate effect. Modify these settings to optimize for how you want workflows to operate. We recommend experimenting with different settings and testing them to optimize them for your environments and requirements. Adjusting settings for queuing If the farm will sustain heavy workflow load for long periods of time or there will be many delay events queued from workflows in the system, the number of queued workflow operations will grow. In addition to the basic queue settings, you may have to tune the following settings to keep the queue in good health: Work Item Event Delivery Batchsize The table that workflow uses for queued events is a general work item table that is shared with other non-workflow features in SharePoint Server 2010. Thus, there is another timer job that dequeues non-workflow work items. Similar to the workflow event delivery batch size, the work item event delivery batch size specifies the number of non-workflow work items that are dequeued at a time. Workflow Failover Timer Job Frequency In rare circumstances, if workflow events cannot be delivered to a workflow instance, the event delivery will be scheduled on the queue as a failover work item to be retried later (starting with 5 minutes later, and then 10 minutes if it fails again, and then 20 minutes, and so on). A workflow failover timer job dequeues failover work items, and this setting adjusts the frequency at which the failover timer will run. By default, this runs every 15 minutes. Workflow Failover Batchsize Similar to the workflow and work item batch size settings, this setting controls the number of failover events that each failover timer job will dequeue. Because there are many timer jobs that operate on the same table, lots of queued items can cause database contention and reduce throughput and reliability. To reduce contention, we recommend the following: 336 Balance Postpone Threshold and Workflow Batchsize so that batch size is small enough or timer job frequency high enough that a timer job can be completed before the next timer job starts in order to avoid building up too many parallel timer job runs that cannot finish. To avoid table locks, do not set either of the two batch size settings larger than 5,000. Tipp: Offset the frequency of the workflow, work item, and failover timer jobs so that they are not always executing at the same times. To get a large list that has workflows, four minutes for the workflow timer job and six minutes for the failover worked well in our data population scripts. Improving scaling for task and history lists Workflows generate many tasks and history items per instance. By default, these lists are indexed to help with scaling, but as these lists grow, performance will always decrease. To reduce the rate of the decrease, keep separate history and task lists for different workflow associations, and periodically change these lists in the workflow association settings as lists become large. Workflow also has a daily timer job (job-workflow-autoclean) that will automatically delete workflow instances and tasks for instances that have been finished for more than 60 days. Leave this timer job on to keep the task lists and events on the task list as clean as possible. If data must be preserved, write the data to other lists or archive locations. Workflow history items are not deleted by this timer job. If you have to clean these up, this should be done with a script or manually through the list user interface. Other considerations Removing columns on lists causes a database operation proportional to the number of items in the list. Removing workflow associations will remove the workflow status column from the list. This causes a large operation on large lists. If you know that a list has millions of items, set the workflow to No New Instance instead of removing workflows. Troubleshooting Bottleneck Cause Database contention Database locks (locks) prevent multiple users from making conflicting modifications to a set of data. When a set of data is locked by a user or process, no other user or process can Resolution To help reduce the incidence of database locks, you can do the following: Distribute workflows to more document libraries. Scale up the database server. Tune the database server hard disk for read/write. Methods exist to circumvent the database 337 Bottleneck Cause Resolution change that same set of data until the first user or process is complete, changing the data and relinquishing the lock. locking system in SQL Server 2005, such as the NOLOCK parameter. However, we do not recommend or support use of this method because of the possibility of data corruption. Database server disk I/O When the number of Distributing data files across multiple physical I/O requests to a drives allows for parallel I/O. The blog hard disk exceeds SharePoint Disk Allocation and Disk I/O the disk's I/O (http://go.microsoft.com/fwlink/?LinkId=129557) capacity, the contains useful information about resolving requests will be disk I/O issues. queued. As a result, the time to complete each request increases. Web server CPU utilization When a Web server This issue can be resolved in one of two ways. is overloaded with You can add Web servers to the farm to user requests, distribute user load, or you can scale up the average CPU Web server or servers by adding faster utilization will processors. approach 100 percent. This prevents the Web server from responding to requests quickly and can cause timeouts and error messages on client computers. Web servers The following table shows performance counters and processes to monitor for Web servers in a farm. Performance counter Apply to object Notes Processor time Total Shows the percentage of elapsed time that this thread used the processor to execute instructions. 338 Performance counter Apply to object Notes Memory utilization Application pool Shows the average utilization of system memory for the application pool. You must determine the correct application pool to monitor. The basic guideline is to determine peak memory utilization for a given Web application, and assign that number plus 10 to the associated application pool. Database servers The following table shows performance counters and processes to monitor for database servers in your farm. Performance counter Apply to object Notes Average disk queue length Hard disk that contains SharedServices.mdf Average values larger than 1.5 per spindle indicate that the write times for that hard disk are insufficient. Processor time SQL Server process Average values larger than 80 percent indicate that processor capacity on the database server is insufficient. Processor time Total Shows the percentage of 339 Performance counter Apply to object Notes elapsed time that this thread used the processor to execute instructions. Memory utilization Total Shows the average utilization of system memory. Siehe auch Weitere Ressourcen Workflow Scalability and Performance in Windows SharePoint Services 3.0 (http://go.microsoft.com/fwlink/?LinkId=207353) 340 Speicher- und SQL ServerKapazitätsplanung und -Konfiguration (SharePoint Server 2010) Dieser Artikel beschreibt, wie Sie die Speicher- und Microsoft SQL ServerDatenbankschicht in einer Microsoft SharePoint Server 2010-Umgebung planen und konfigurieren. Die in diesem Dokument enthaltenen Informationen zur Kapazitätsplanung bieten Ihnen Hilfestellung bei Ihrem Planungsprozess. Sie stützen sich auf Tests, die bei Microsoft mit realen Ressourcen durchgeführt wurden. Ihre Ergebnisse können jedoch in Abhängigkeit von den verwendeten Anlagen und den Features und Funktionen variieren, die Sie für Ihre Websites implementieren möchten. Da SharePoint Server häufig in Umgebungen ausgeführt wird, in denen Datenbanken von eigenständigen SQL Server-Datenbankadministratoren verwaltet werden, ist dieses Dokument für die gemeinschaftliche Nutzung durch SharePoint ServerFarmimplementierer und SQL Server-Datenbankadministratoren gedacht. Wesentliche Kenntnisse im Hinblick auf SharePoint Server und SQL Server werden vorausgesetzt. In diesem Artikel wird vorausgesetzt, dass Sie mit den unter Capacity management and sizing for SharePoint Server 2010 (in englischer Sprache) beschriebenen Konzepten vertraut sind. Entwurfs- und Konfigurationsprozess für die Speicher- und Datenbankschicht der SharePoint 2010-Produkte Es wird empfohlen, den Entwurfsprozess für die Speicher- und Datenbankschicht in die folgenden Schritte zu unterteilen. In jedem Abschnitt finden Sie ausführliche Informationen zu jeweiligen Schritt, einschließlich Speicheranforderungen und bewährten Methoden: Erfassen der Speicher- und SQL Server-Kapazität und der E/A-Anforderungen Auswählen der SQL Server-Version und -Edition Entwerfen der Speicherarchitektur auf der Basis von Kapazität und E/AAnforderungen Prognostizieren der Arbeitsspeicheranforderungen Grundlegendes zu den Anforderungen an die Netzwerktopologie Konfigurieren von SQL Server Überprüfen von Speicherleistung und -zuverlässigkeit 341 Erfassen der Speicher- und SQL ServerKapazität und der E/A-Anforderungen Der Speicherentwurf wird durch verschiedene Faktoren der jeweiligen SharePoint Server 2010-Architektur beeinflusst. Wesentliche Größen sind hierbei der Umfang der verwendeten Inhalte, Features und Dienstanwendungen, die Anzahl der Farmen und die Anforderungen an die Verfügbarkeit. Bevor Sie mit der Planung des Speichers beginnen, sollten Sie sich vergegenwärtigen, welche Datenbanken von SharePoint Server 2010 verwendet werden können. Inhalt dieses Abschnitts: Datenbanken, die von SharePoint 2010-Produkten verwendet werden Grundlegendes zu SQL Server und IOPS Prognostizieren der zentralen Speicher- und IOPS-Anforderungen Bestimmen der Speicher- und IOPS-Anforderungen für Dienstanwendungen Bestimmen der Anforderungen an die Verfügbarkeit Datenbanken, die von SharePoint 2010-Produkten verwendet werden Welche Datenbanken mit SharePoint Server 2010 installiert werden, hängt von den Features ab, die in der Umgebung verwendet werden. Alle SharePoint 2010-ProdukteUmgebungen stützen sich auf die Systemdatenbanken von SQL Server. Dieser Abschnitt enthält einen Überblick über die mit SharePoint Server 2010 installierten Datenbanken. Ausführliche Informationen finden Sie unter Database types and descriptions (SharePoint Server 2010) und Datenbankmodell (http://go.microsoft.com/fwlink/?linkid=187968&clcid=0x407). Produktversion und -Edition Datenbanken SharePoint Foundation 2010 Konfiguration Inhalt der Zentraladministration Inhalt (eine oder mehrere) Verwendung und Integritätsdatensammlung Business Data Connectivity Anwendungsregistrierungsdienst (bei einem Upgrade vom Microsoft Office SharePoint Server 2007-Geschäftsdatenkatalog) Abonnementeinstellungendienst (falls über Windows PowerShell aktiviert) Zusätzliche Datenbanken für SharePoint Server 2010 Standard Edition Suchdienstanwendung: Suchverwaltung Durchforstung (eine oder mehrere) Eigenschaften (eine oder mehrere) Benutzerprofil-Dienstanwendung Profil 342 Produktversion und -Edition Datenbanken Synchronisierung Thematische Kategorien Web Analytics-Dienstanwendung Staging Bericht Einmaliges Anmelden Status Verwaltete Metadaten Word Automation Services Zusätzliche Datenbanken für SharePoint Server 2010 Enterprise Edition PerformancePoint Zusätzliche Datenbanken für Project Server Entwurf 2010 Veröffentlicht Archiv Bericht Zusätzliche Datenbank für FAST Search Server Suchverwaltung Bei einer umfassenderen Anbindung an SQL Server kann Ihre Umgebung auch zusätzliche Datenbanken einschließen, wie in den folgenden Szenarien: Microsoft SQL Server 2008 R2 PowerPivot für Microsoft SharePoint 2010 kann in einer SharePoint Server 2010-Umgebung verwendet werden, die SQL Server 2008 R2 Enterprise Edition und SQL Server Analysis Services einschließt. In diesem Fall müssen Sie auch die Unterstützung für die PowerPivot-Anwendungsdatenbank sowie die zusätzliche Last im System einplanen. Weitere Informationen finden Sie unter Planen einer PowerPivot-Bereitstellung in einer SharePoint-Farm (http://go.microsoft.com/fwlink/?linkid=186698&clcid=0x407). Das Plug-In Microsoft SQL Server 2008 Reporting Services (SSRS) kann mit jeder SharePoint 2010-Produkte-Umgebung verwendet werden. Wenn Sie das Plug-In verwenden, sollten Sie auch die Unterstützung der beiden SQL Server 2008 Reporting Services-Datenbanken und die zusätzliche Last, die für SQL Server 2008 Reporting Services erforderlich ist, einplanen. Grundlegendes zu SQL Server und IOPS Bei jedem Server, der als Host für SQL Server fungiert, ist es sehr wichtig, dass der Server die schnellstmögliche Antwortzeit für das E/A-Subsystem erzielt. Durch eine größere Anzahl und schnellere Datenträger oder Arrays erzielen Sie genügend E/A-Operationen pro Sekunde (I/O Operations Per Second, IOPS), während Wartezeit und Warteschlangenzeit für alle Datenträger niedrig bleiben. Ein langsames Antwortverhalten des E/A-Subsystems kann nicht durch das Hinzufügen anderer Ressourcenarten wie CPU oder Arbeitsspeicher kompensiert werden. Es kann jedoch Auswirkungen auf die gesamte Farm haben und Probleme verursachen. Sorgen 343 Sie daher vor der Bereitstellung für minimale Wartezeiten, und überwachen Sie die vorhandenen Systeme. Bevor Sie eine neue Farm bereitstellen, empfiehlt es sich, für das E/A-Subsystem Vergleichstests mithilfe des Datenträgersubsystem-Benchmarktools SQLIO durchzuführen. Ausführliche Informationen finden Sie unter SQLIO: Datenträgersubsystem-Benchmarktool (http://go.microsoft.com/fwlink/?linkid=105586&clcid=0x407). Ausführliche Informationen zum Analysieren der IOPS-Anforderungen aus SQL ServerSicht finden Sie unter Analysieren der E/A-Besonderheiten und Bestimmen der Größe von Speichersystemen für SQL Server-Datenbankanwendungen (http://sqlcat.com/whitepapers/archive/2010/05/10/analyzing-i-o-characteristicsand-sizing-storage-systems-for-sql-server-database-applications.aspx). Prognostizieren der zentralen Speicher- und IOPS-Anforderungen Konfigurations- und Inhaltsspeicher sowie IOPS sind die Basisgrößen, die Sie bei jeder Bereitstellung von SharePoint Server 2010 planen müssen. Konfigurationsspeicher und IOPS Die Speicheranforderungen für die Konfigurationsdatenbank und die Inhaltsdatenbank der Zentraladministration sind nicht hoch. Es empfiehlt sich, 2 GB für die Konfigurationsdatenbank und 1 GB für die Inhaltsdatenbank der Zentraladministration zuzuordnen Im Laufe der Zeit ist es möglich, dass die Konfigurationsdatenbank auf mehr als 1 GB anwächst, aber ihre Größe nimmt nicht schnell zu. Pro 50.000 Websitesammlungen wird die Datenbank um ungefähr 40_MB größer. Transaktionsprotokolle für die Konfigurationsdatenbank können sehr groß sein. Es wird daher empfohlen, für die Datenbank vom vollständigen zum einfachen Wiederherstellungsmodell zu wechseln. Hinweis: Wenn Sie die Datenbankspiegelung von SQL Server verwenden, um die Verfügbarkeit der Konfigurationsdatenbank sicherzustellen, müssen Sie das vollständige Wiederherstellungsmodell verwenden. Die IOPS-Anforderungen für die Konfigurationsdatenbank und die Inhaltsdatenbank der Zentraladministration sind minimal. Inhaltsspeicher und IOPS Das Prognostizieren des Speichers und der IOPS, die für die Inhaltsdatenbanken erforderlich sind, ist kein exakter Vorgang. Die von uns durchgeführten Tests und die Bereitstellung der folgenden Informationen sollen Ihnen helfen, Schätzwerte abzuleiten, die Sie zum Festlegen der Anfangsgröße Ihrer Bereitstellung verwenden können. Sobald Ihre Umgebung in Betrieb genommen wurde, sollten Sie Ihre Kapazitätsanforderungen jedoch anhand der Daten aus der Live-Umgebung überprüfen. Weitere Informationen zur zugrunde liegenden Kapazitätsplanungsmethodik finden Sie unter Capacity management and sizing for SharePoint Server 2010 (in englischer Sprache). Prognostizieren des Speichers für Inhaltsdatenbanken 344 Das folgende Verfahren beschreibt, wie Sie den ungefähren Speicherbedarf für Ihre Inhaltsdatenbanken ohne Berücksichtigung der zugehörigen Protokolldateien prognostizieren: 1. Berechnen Sie die zu erwartende Anzahl an Dokumenten. Dieser Wert wird in der Formel mit D bezeichnet. Wie Sie die Anzahl der Dokumente berechnen, hängt von den Features ab, die Sie verwenden. Für Websites des Typs Meine Website oder Websites für die Zusammenarbeit empfiehlt es sich, die zu erwartende Anzahl an Dokumenten auf Benutzerbasis zu berechnen und mit der Anzahl der Benutzer zu multiplizieren. Bei Websites für die Datensatzverwaltung oder die Inhaltsveröffentlichung können Sie die Anzahl der Dokumente berechnen, die durch einen Prozess verwaltet und generiert werden. Falls Sie eine Migration von einem bestehenden System durchführen, ist es unter Umständen einfacher, die aktuelle Zuwachsrate und die Nutzung zu extrapolieren. Wenn Sie ein neues System erstellen, sollten Sie die vorhandenen Dateifreigaben oder andere Repositorys überprüfen und die zu erwartende Anzahl an Dokumenten auf der Grundlage dieser Nutzungsrate prognostizieren. 2. Prognostizieren Sie die durchschnittliche Größe der Dokumente, die Sie speichern werden. Dieser Wert wird in der Formel mit G bezeichnet. Es kann sich lohnen, Durchschnittswerte für verschiedene Arten oder Gruppen von Websites zu prognostizieren. Die durchschnittliche Dateigröße für Websites des Typs Meine Website, Medienrepositorys und verschiedene Abteilungsportale kann erheblich variieren. 3. Prognostizieren Sie die Anzahl der Listenelemente in der Umgebung. Dieser Wert wird in der Formel mit L bezeichnet. Das Prognostizieren von Listenelementen ist schwieriger als das Prognostizieren von Dokumenten. Wir verwenden im Allgemeinen einen Schätzwert, der dem Dreifachen der Dokumentenanzahl (D) entspricht, aber dieser Wert variiert in Abhängigkeit davon, wie Sie Ihre Websites voraussichtlich verwenden werden. 4. Bestimmen Sie die ungefähre Anzahl der Versionen. Prognostizieren Sie die durchschnittliche Anzahl der Versionen, die ein beliebiges Dokument in einer Bibliothek aufweisen wird (dieser Wert ist normalerweise deutlich kleiner als die maximal zulässige Anzahl an Versionen). Dieser Wert wird in der Formel mit V bezeichnet. Der Wert von V muss größer als null sein. 5. Verwenden Sie die folgende Formel, um die Größe Ihrer Inhaltsdatenbanken zu prognostizieren: Datenbankgröße = ((D × V) × G) + (10 KB × (L + (V × D))) Der Wert 10 KB in der Formel ist eine Konstante, die den Umfang der für SharePoint Server 2010 erforderlichen Metadaten grob abschätzt. Wenn ein System die Nutzung von Metadaten in erheblichem Umfang erforderlich macht, kann es sich empfehlen, den Wert dieser Konstante zu erhöhen. Beispiel: Wenn Sie die Formel zum Prognostizieren des Speicherplatzes verwenden möchten, der für die Datendateien einer Inhaltsdatenbank in einer Umgebung zur Zusammenarbeit mit den folgenden Merkmalen erforderlich ist, würden Sie ungefähr 105 GB benötigen. 345 Eingabe Wert Anzahl der Dokumente (D) 200.000 Berechnet auf der Grundlage von 10.000 Benutzern mit je 20 Dokumenten Durchschnittliche Dokumentgröße (G) 250 KB Listenelemente (L) 600.000 Anzahl nicht aktueller Versionen (V) 2 Unter der Annahme, dass maximal 10 Versionen zugelassen sind Datenbankgröße = (((200.000 x 2)) × 250) + ((10 KB × (600.000 + (200.000 x 2))) = 110.000.000 KB oder 105 GB Features, die die Größe von Inhaltsdatenbanken beeinflussen Die Verwendung der folgenden SharePoint Server 2010-Features kann sich erheblich auf die Größe von Inhaltsdatenbanken auswirken: Papierkörbe Solange ein Dokument nicht vollständig aus dem Standardpapierkorb und dem endgültigen Papierkorb gelöscht wurde, belegt es Speicherplatz in einer Inhaltsdatenbank. Berechnen Sie, wie viele Dokumente pro Monat gelöscht werden, um den Einfluss von Papierkörben auf die Größe von Inhaltsdatenbanken zu bestimmen. Weitere Informationen finden Sie unter Configure Recycle Bin settings (SharePoint Server 2010). Überwachung Überwachungsdaten können sich sehr schnell anhäufen und große Mengen an Speicherplatz in einer Inhaltsdatenbank beanspruchen, insbesondere dann, wenn die Anzeige von Überwachungsdaten aktiviert ist. Anstatt das uneingeschränkte Anwachsen von Überwachungsdaten zuzulassen, empfiehlt es sich, nur die Überwachung von Ereignissen zu aktivieren, die für die Einhaltung von Vorschriften oder interne Kontrollen notwendig sind. Verwenden Sie die folgenden Richtlinien, um den Speicherplatz zu prognostizieren, der für Überwachungsdaten reserviert werden sollte: Prognostizieren Sie die Anzahl der neuen Überwachungseinträge für eine Website, und multiplizieren Sie diesen Wert mit 2 KB (Einträge sind normalerweise auf 4 KB beschränkt, wobei die durchschnittliche Größe ungefähr 1 KB beträgt). Bestimmen Sie, basierend auf dem Speicherplatz den Sie zuordnen möchten, wie lange (in Tagen) Überwachungsprotokolle aufbewahrt werden sollen. Office Web Apps Wenn Office Web Apps verwendet wird, kann der Office Web Apps-Cache erheblichen Einfluss auf die Größe von Inhaltsdatenbanken haben. Standardmäßig wird der Office Web Apps-Cache auf 100 GB festgelegt. Weitere Informationen zur Größe des Office Web Apps-Caches finden Sie unter Manage the Office Web Apps cache. Prognostizieren der IOPS-Anforderungen für Inhaltsdatenbanken 346 Die IOPS-Anforderungen für Inhaltsdatenbanken variieren beträchtlich in Abhängigkeit von der Verwendung der Umgebung, dem Umfang des verfügbaren Speicherplatzes und der Anzahl der verfügbaren Server. Im Allgemeinen empfiehlt es sich, die prognostizierte Arbeitsauslastung in der Umgebung mit einer der von uns getesteten Lösungen zu vergleichen. Weitere Informationen finden Sie unter Ergebnisse der Leistungs- und Kapazitätstests und Empfehlungen (SharePoint Server 2010). Wichtig: Die Tests für den Inhalt dieses Abschnitts sind noch nicht beendet. Kehren Sie zu einem späteren Zeitpunkt zurück, um weitere Informationen zu erhalten. Bestimmen der Speicher- und IOPS-Anforderungen für Dienstanwendungen Nachdem Sie die Anforderungen im Hinblick auf Inhaltsspeicher und IOPS prognostiziert haben, müssen Sie den Speicher und die IOPS bestimmen, die für die in der Umgebung verwendeten Dienstanwendungen erforderlich sind. Speicher- und IOPS-Anforderungen von SharePoint Foundation 2010-Dienstanwendungen Zum Prognostizieren der Speicheranforderungen für die Dienstanwendungen im System müssen Sie zuerst wissen, welche Dienstanwendungen notwendig sind und wie Sie diese Anwendungen verwenden werden. In der folgenden Tabelle sind die Dienstanwendungen aufgeführt, die in SharePoint Foundation 2010 verfügbar sind und die über Datenbanken verfügen. Dienstanwendungsdatenbank Empfehlungen für die Größenprognose Verwendung und Integritätsdatensammlung Die Verwendungsdatenbank kann sehr schnell anwachsen und erhebliche Anforderungen an die IOPS stellen. In Umgebungen für die Zusammenarbeit, in denen Standardeinstellungen verwendet werden, beanspruchen 1 Million HTTPAnforderungen beispielsweise 2 GB an Speicher. Verwenden Sie eine der folgenden Formeln, um den Umfang der erforderlichen IOPS zu prognostizieren: 115 × Seitenzugriffe/Sekunde 5 × HTTP-Anforderungen Wenn Sie die Größe der Verwendungsdatenbank beschränken müssen, empfiehlt es sich, mit der reinen Protokollierung der Seitenanforderungen zu beginnen. Sie können die Größe der 347 Dienstanwendungsdatenbank Empfehlungen für die Größenprognose Datenbank auch beschränken, indem Sie das Standardintervall für die Aufbewahrung der Daten auf einen Zeitraum von weniger als zwei Wochen festlegen. Platzieren Sie die Verwendungsdatenbank, sofern möglich, auf einem eigenen Datenträger oder einem eigenen physikalischen Laufwerk. Business Data Connectivity-Dienst Die Größe der Business Data ConnectivityDienstdatenbank wird in erster Linie durch die Anzahl der externen Inhaltstypen bestimmt, die Sie unterstützen möchten. Ordnen Sie für jeden externen Inhaltstyp 0,5 MB zu. Wenn Sie nicht wissen, wie viele Inhaltstypen benötigt werden, empfiehlt sich die Zuordnung von 50 MB. Die IOPSAnforderungen sind minimal. Anwendungsregistrierungsdienst Ordnen Sie 1 GB nur zu, wenn Sie ein Upgrade vom Microsoft Office SharePoint Server 2007-Geschäftsdatenkatalog durchführen. Die IOPS-Anforderungen sind minimal. Abonnementeinstellungen Ordnen Sie 1 GB zu. Die IOPSAnforderungen sind minimal. Speicher- und IOPS-Anforderungen von SharePoint Server 2010Dienstanwendungen Zum Prognostizieren der Speicheranforderungen für die Dienstanwendungen im System müssen Sie zuerst wissen, welche Dienstanwendungen notwendig sind und wie Sie diese Anwendungen verwenden werden. In der folgenden Tabelle sind die Dienstanwendungen aufgeführt, die in SharePoint Server 2010 verfügbar sind und die über Datenbanken verfügen. Dienstanwendung Empfehlungen für die Größenprognose Suche Für die Suche sind drei Datenbanken erforderlich. Ihre Umgebung kann mehrere Eigenschaften- und Durchforstungsdatenbanken enthalten. Die Suchverwaltungsdatenbank ist normalerweise klein. Ordnen Sie 10 GB zu. Verwenden Sie die folgenden Multiplikatoren, um den erforderlichen 348 Dienstanwendung Empfehlungen für die Größenprognose Speicher für die Eigenschaften- und Durchforstungsdatenbanken zu prognostizieren: Durchforstung: 0,046 × (Summe der Inhaltsdatenbanken) Eigenschaft: 0,015 × (Summe der Inhaltsdatenbanken) Die IOPS-Anforderungen für die Suche sind beträchtlich. Für die Durchforstungsdatenbank benötigt die Suche 3.500 bis 7.000 IOPS. Für die Eigenschaftendatenbank benötigt die Suche 2.000 IOPS. Ausführliche Informationen zum Prognostizieren der für die Suche erforderlichen Kapazität finden Sie unter Ergebnisse der Leistungs- und Kapazitätstests und Empfehlungen (SharePoint Server 2010). Benutzerprofil Die Benutzerprofildienst-Anwendung ist mit drei Datenbanken verknüpft: Profil, Synchronisierung und Thematische Kategorien. Verwenden Sie die folgenden Informationen, um den erforderlichen Speicher für die Datenbanken zu prognostizieren: Profil: Wenn Sie die Standardeinstellungen verwenden, ist in einer Umgebung, deren Konfiguration die Verwendung von Active Directory vorsieht, in der Profildatenbank ungefähr 1 MB pro Benutzerprofil erforderlich. Synchronisierung. Wenn Sie die Standardeinstellungen verwenden, sind in einer Umgebung mit wenigen Gruppen pro Benutzer in der Synchronisierungsdatenbank ungefähr 630 KB pro Benutzerprofil erforderlich. 90 % des Speichers werden von der Datendatei verwendet. Thematische Kategorien. Wenn Sie die 349 Dienstanwendung Empfehlungen für die Größenprognose Standardeinstellungen verwenden sind in der Datenbank für thematische Kategorien ungefähr 0,009 MB pro Kategorie, Kommentar oder Bewertung erforderlich. Zum Prognostizieren der Anzahl an Kategorien und Notizen, die von den Benutzern erstellt werden, sollten Sie die folgenden Informationen zur Website del.icio.us berücksichtigen: Ungefähr 10 % der Benutzer werden als aktive Benutzer erachtet. Aktive Benutzer erstellen 4,5 Kategorien und 1,8 Kommentare pro Monat. In einer Umgebung für die Zusammenarbeit mit 160.000 Benutzerprofilen, 5 Gruppen, 79.000 Kategorien, Kommentaren und Bewertungen (2.500 Kommentare, 76.000 Kategorien und 800 Bewertungen) und bei Verwendung der Standardeinstellungen wurden für diese Datenbanken die folgenden Größen festgestellt: Verwaltete Metadaten Datenbankname Datenbankgröße Profil 155 GB Synchronisierung 96 GB Thematische Kategorien 0,66 GB Die Dienstanwendung für verwaltete Metadaten verfügt über eine Datenbank. Die Größe der Datenbank wird von der Anzahl der im System verwendeten Inhaltstypen und Schlüsselwörter beeinflusst. Viele Umgebungen umfassen mehrere Instanzen der Dienstanwendung für verwaltete Metadaten. Ausführliche Informationen zum Prognostizieren der Größen- und IOPSAnforderungen für diese Datenbank finden Sie unter Ergebnisse der Leistungs- und 350 Dienstanwendung Empfehlungen für die Größenprognose Kapazitätstests und Empfehlungen (SharePoint Server 2010). Web Analytics Web Analytics verfügt über zwei Datenbanken: die Staging- und die Berichtsdatenbank. Die Größe der Datenbanken wird von vielen Faktoren beeinflusst. Hierzu zählen der Aufbewahrungszeitraum, das tägliche Volumen der verfolgten Daten sowie die Anzahl der Websitesammlungen, Websites und Unterwebsites in der analysierten Webanwendung. Ausführliche Informationen zum Prognostizieren der Größen- und IOPSAnforderungen finden Sie unter Ergebnisse der Leistungs- und Kapazitätstests und Empfehlungen (SharePoint Server 2010). Einmaliges Anmelden Die Größe der Datenbank der Secure Store Service-Anwendung wird durch die Anzahl der Anmeldeinformationen im Speicher und die Anzahl der Einträge in der Überwachungstabelle bestimmt. Es empfiehlt sich, pro 1.000 Anmeldeinforationen 5 MB zuzuordnen. Die IOPS-Anforderungen sind minimal. Status Die Statusdienstanwendung verfügt über eine Datenbank. Es empfiehlt sich, 1 GB für diese Datenbank zuzuordnen. Die IOPSAnforderungen sind minimal. Word Automation Services Die Word Automation Services-Anwendung verfügt über eine Datenbank. Es empfiehlt sich, 1 GB für diese Datenbank zuzuordnen. Die IOPS-Anforderungen sind minimal. PerformancePoint Die PerformancePoint-Dienstanwendung verfügt über eine Datenbank. Es empfiehlt sich, 1 GB für diese Datenbank zuzuordnen. Die IOPS-Anforderungen sind minimal. Bestimmen der Anforderungen an die Verfügbarkeit Verfügbarkeit bezeichnet das Ausmaß, mit dem eine SharePoint Server 2010-Umgebung vom Benutzer als verfügbar wahrgenommen wird. Ein verfügbares System ist ein System, das stabil ist, d. h., Vorfälle, die den Betrieb beeinflussen, treten selten auf, und bei ihrem Auftreten werden zeitnah wirksame Maßnahmen ergriffen. 351 Durch Anforderungen hinsichtlich der Verfügbarkeit kann der Speicherbedarf erheblich steigen. Ausführliche Informationen finden Sie unter Plan for availability (SharePoint Server 2010). Auswählen der SQL Server-Version und Edition Obwohl SharePoint 2010-Produkte mit Microsoft SQL Server 2008 R2, SQL Server 2008 oder SQL Server 2005 ausgeführt werden kann, wird nachdrücklich empfohlen, die Ausführung der Umgebung mit der Enterprise Edition von SQL Server 2008 oder SQL Server 2008 R2 zu erwägen, um die zusätzliche Leistung, Verfügbarkeit, Sicherheit und Verwaltungsfunktionalität nutzen zu können, die diese Edition bereitstellt. Weitere Informationen zur Verwendung von SQL Server 2008 R2 Enterprise Edition finden Sie unter SQL Server 2008 R2 and SharePoint Products 2010: Better Together (White paper) (SharePoint Server 2010). Sie sollten insbesondere die Notwendigkeit der folgenden Features berücksichtigen: Sicherungskomprimierung Durch die Sicherungskomprimierung kann jede SharePoint-Sicherung beschleunigt werden. Dieses Feature ist in SQL Server 2008 Enterprise Edition und SQL Server 2008 R2 Standard Edition verfügbar. Indem Sie die Komprimierungsoption im Sicherungsskript festlegen oder den Server mit SQL Server so konfigurieren, dass die Komprimierung standardmäßig verwendet wird, können Sie die Größe der Datenbanksicherungen und der versendeten Protokolle erheblich reduzieren. Weitere Informationen finden Sie unter Sicherungskomprimierung (SQL Server) (http://go.microsoft.com/fwlink/?linkid=129381&clcid=0x407). Hinweis: Die SQL Server-Datenkomprimierung wird für SharePoint 2010-Produkte nicht unterstützt. Transparente Datenverschlüsselung Wenn Ihre Sicherheitsanforderungen die Verwendung der transparenten Datenverschlüsselung notwendig machen, müssen Sie SQL Server Enterprise Edition verwenden. Web Analytics-Dienstanwendung Wenn Sie beabsichtigen, die Web AnalyticsDienstanwendung für umfangreiche Analysen zu verwenden, sollten Sie die Verwendung von SQL Server Enterprise Edition erwägen, damit das System die Vorteile der Tabellenpartitionierung nutzen kann. Inhaltsbereitstellung Wenn Sie beabsichtigen, das Feature für die Inhaltsbereitstellung zu verwenden, sollten Sie die Verwendung von SQL Server Enterprise Edition in Erwägung ziehen, damit das System die Vorteile von SQL Server-Datenbankmomentaufnahmen nutzen kann. Remote-BLOB-Speicher Wenn Sie den Remote-BLOB-Speicher für eine Datenbank oder einen Speicherort jenseits der Dateien nutzen möchten, die mit den einzelnen Inhaltsdatenbanken verknüpft sind, müssen Sie SQL Server 2008 oder SQL Server 2008 R2 Enterprise Edition verwenden. Ressourcenkontrolle Die Ressourcenkontrolle ist eine in SQL Server 2008 eingeführte Technologie, die Ihnen die Verwaltung von SQL Server352 Arbeitsauslastungen und -Ressourcen durch Angabe der Grenzwerte für den Ressourcenverbrauch durch eingehende Anforderungen ermöglicht. Die Ressourcenkontrolle ermöglicht es Ihnen, Arbeitsauslastungen zu unterscheiden und CPU und Arbeitsspeicher bei Anforderung auf der Basis der von Ihnen angegebenen Grenzwerte zuzuordnen. Dieses Feature ist nur in SQL Server 2008 oder SQL Server 2008 R2 Enterprise Edition verfügbar. Weitere Informationen zur Verwendung der Ressourcenkontrolle finden Sie unter Verwalten von SQL ServerArbeitsauslastungen mit der Ressourcenkontrolle. Die Verwendung der Ressourcenkontrolle mit SharePoint Server 2010 empfiehlt sich aus folgenden Gründen: Begrenzen des Umfangs der SQL Server-Ressourcen, die die von der Suchdurchforstungskomponente angesprochenen Webserver beanspruchen. Es hat sich bewährt, die Durchforstungskomponente auf 10 % der CPU zu begrenzen, wenn das System ausgelastet ist. Überwachen der Anzahl der Ressourcen, die von den einzelnen Datenbanken im System beansprucht werden. Die Ressourcenkontrolle kann Ihnen beispielsweise dabei helfen, die beste Platzierung von Datenbanken auf den verschiedenen Computern mit SQL Server zu bestimmen. PowerPivot für SharePoint 2010 Ermöglicht Benutzern die gemeinsame Nutzung und Zusammenarbeit an benutzergenerierten Datenmodellen und Analysen in Excel und im Browser, während diese Analysen automatisch aktualisiert werden. Dieses Feature gehört zu SQL Server 2008 R2 Enterprise Edition Analysis Services. Entwerfen der Speicherarchitektur auf der Basis von Kapazität und E/A-Anforderungen Die Speicherarchitektur und die Datenträgertypen, die Sie für die Umgebung auswählen, können sich auf die Systemleistung auswirken. Inhalt dieses Abschnitts: Auswählen einer Speicherarchitektur Auswählen von Datenträgertypen Auswählen von RAID-Typen Auswählen einer Speicherarchitektur Die Speicherarchitekturen Direct Attached Storage (DAS), Storage Area Network (SAN) und Network Attached Storage (NAS) werden von SharePoint Server 2010 unterstützt, wobei NAS nur in Kombination mit Inhaltsdatenbanken unterstützt wird, die für die Verwendung von Remote-BLOB-Speicher konfiguriert sind. Welche Option Sie auswählen, hängt von Faktoren innerhalb der Unternehmenslösung und der bestehenden Infrastruktur ab. Jede Speicherarchitektur muss Ihre Anforderungen hinsichtlich der Verfügbarkeit unterstützen und entsprechende IOPS- und Wartezeitwerte bieten. Damit das System unterstützt wird, muss es das erste Byte mit Daten durchweg innerhalb von 20 Millisekunden (ms) zurückgeben. Direct Attached Storage (DAS) 353 DAS ist ein digitales Speichersystem, das direkt und ohne zwischengelagertes Speichernetzwerk an einen Server oder eine Arbeitsstation angeschlossen ist. Zu den physikalischen Datenträgertypen für DAS gehören Serial Attached SCSI (SAS) und Serial Attached ATA (SATA). Im Allgemeinen empfiehlt es sich, eine DAS-Architektur auszuwählen, wenn eine Plattform für freigegebenen Speicher keine Antwortzeiten von 20 ms und keine ausreichende Kapazität für Durchschnitts- und Spitzen-IOPS sicherstellen kann. Storage Area Network (SAN) SAN ist eine Architektur, um Remotespeichergeräte (z. B. Datenträgerarrays und Bandbibliotheken) so mit Servern zu verbinden, dass die Geräte wie lokal mit dem Betriebssystem verbundene Geräte (z. B. Blockspeicher) angezeigt werden. Im Allgemeinen empfiehlt sich die Auswahl eines SAN, wenn die Vorteile von freigegebenem Speicher für Ihre Organisation eine wichtige Rolle spielen. Zu den Vorteilen des freigegebenen Speichers zählen Folgende: Einfachere Neuzuordnung von Datenträgerspeicher zwischen verschiedenen Server. Versorgung mehrerer Server. Keine Begrenzungen hinsichtlich der Anzahl der Datenträger, auf die zugegriffen werden kann. Network Attached Storage (NAS) Eine NAS-Einheit ist ein eigenständiger Computer, der mit einem Netzwerk verbunden ist. Der einzige Zweck besteht darin, dateibasierte Datenspeicherdienste für andere Geräte im Netzwerk bereitzustellen. Das Betriebssystem und andere Software auf der NAS-Einheit bieten die Funktionalität für Datenspeicherung, Dateisysteme und Dateizugriff und ermöglichen die Verwaltung dieser Funktionalität (z. B. Datenspeicherung). Hinweis: NAS wird nur in Kombination mit Inhaltsdatenbanken unterstützt, die für die Verwendung von Remote-BLOB-Speicher konfiguriert sind. Jede Netzwerkspeicherarchitektur muss innerhalb von 1 ms auf ein Pingsignal antworten und das erste Byte mit Daten innerhalb von 20 ms zurückgeben. Diese Einschränkung gilt nicht für den lokalen FILESTREAMAnbieter von SQL Server, da er Daten nur lokal auf dem gleichen Server speichert. Auswählen von Datenträgertypen Die im System verwendeten Datenträgertypen können sich auf die Zuverlässigkeit und die Leistung auswirken. Unter ansonsten gleichbleibenden Bedingungen können größere Laufwerke die durchschnittliche Zeit für Suchvorgänge erhöhen. SharePoint Server 2010 unterstützt die folgenden Laufwerkstypen: SCSI (Small Computer System Interface) SATA (Serial Advanced Technology Attachment) SAS (Serial-attached SCSI) FC (Fibre Channel) IDE (Integrated Device Electronics) 354 SSD (Solid State Drive) oder Flash Disk Auswählen von RAID-Typen RAID (Redundant Array of Independent Disks) wird häufig verwendet, um die Leistungsmerkmale einzelner Datenträger (durch Verteilen der Daten auf verschiedene Datenträger) zu verbessern und um Schutz vor dem Ausfall einzelner Datenträger zu bieten. Für SharePoint Server 2010 werden alle RAID-Typen unterstützt. Empfohlen wird jedoch die Verwendung von RAID 10 oder einer herstellerspezifischen RAID-Lösung, die eine vergleichbare Leistung bietet. Beim Konfigurieren eines RAID-Arrays müssen Sie das Dateisystem am vom Hersteller bereitgestellten Offset ausrichten. Falls keine diesbezüglichen Anweisungen vom Hersteller verfügbar sind, finden Sie die entsprechenden Informationen unter Bewährte E/A-Methoden bei der Vorabbereitstellung von SQL Server (http://go.microsoft.com/fwlink/?linkid=105583&clcid=0x407). Weitere Informationen zum Bereitstellen von RAID und zum SQL Server-E/A-Subsystem finden Sie unter Bewährte Methoden für SQL Server (http://go.microsoft.com/fwlink/?linkid=168612&clcid=0x407). Prognostizieren der Arbeitsspeicheranforderungen Der für SharePoint Server 2010 erforderliche Arbeitsspeicher hängt direkt mit der Größe der Inhaltsdatenbank zusammen, die Sie auf einem Server mit SQL Server hosten. Werden Dienstanwendungen und Features hinzugefügt, werden die Anforderungen an den Arbeitsspeicher aller Wahrscheinlichkeit nach ebenfalls steigen. In der folgenden Tabelle finden Sie Richtlinien für die Größe des empfohlenen Arbeitsspeichers. Hinweis: Die hier zugrunde liegenden Definitionen für kleine und mittlere Bereitstellungen entsprechen den Definitionen im Abschnitt "Referenzarchitekturen" des Artikels Capacity management and sizing for SharePoint Server 2010 (in englischer Sprache). Kombinierte Größe der Inhaltsdatenbanken Empfohlener Arbeitsspeicher für Computer mit SQL Server Minimum für kleine Produktionsbereitstellungen 8 GB Minimum für mittlere Produktionsbereitstellungen 16 GB Empfehlung für bis zu 2 TB 32 GB Empfehlung für den Bereich von 2 TB bis zu 64 GB einem Maximum von 5 TB 355 Hinweis: Diese Werte liegen aufgrund der für eine SharePoint Server 2010-Umgebung erforderlichen Verteilung der Daten über den empfohlenen Mindestwerten für SQL Server. Weitere Informationen zu SQL Server-Systemanforderungen finden Sie unter Hardware- und Softwareanforderungen für die Installation von SQL Server 2008 (http://go.microsoft.com/fwlink/?linkid=129377&clcid=0x407). Zu den weiteren Faktoren, die sich auf den erforderlichen Arbeitsspeicher auswirken können, gehören folgende: Die Verwendung der SQL Server-Spiegelung. Die häufige Verwendung von Dateien mit einer Größe von mehr als 15 MB. Grundlegendes zu den Anforderungen an die Netzwerktopologie Planen Sie die Netzwerkverbindungen innerhalb von und zwischen Farmen. Es wird empfohlen, ein Netzwerk mit geringer Wartezeit zu verwenden. Die folgende Liste enthält einige bewährte Methoden und Empfehlungen. Alle Server in der Farm sollten mit LAN-Bandbreite und -Wartezeit mit dem Server mit SQL Server verbunden sein. Die Wartezeit darf maximal 1 ms betragen. Von einer WAN-Topologie, in der ein Server mit SQL Server entfernt von anderen Farmkomponenten über ein Netzwerk mit einer Wartezeit von mehr als 1 ms bereitgestellt wird, wird abgeraten. Diese Topologie wurde nicht getestet. Planen Sie ein angemessenes WAN-Netzwerk, wenn Sie die SQL Server-Spiegelung oder den Protokollversand verwenden möchten, um einen Remotestandort auf dem neuesten Stand zu halten. Für Webserver und Anwendungsserver wird die Verwendung von zwei Netzwerkadaptern empfohlen: ein Adapter für die Verarbeitung des EndbenutzerDatenverkehrs und ein weiterer Adapter für die Verarbeitung der Kommunikation mit den Servern mit SQL Server. Konfigurieren von SQL Server In den folgenden Abschnitten wird beschrieben, wie Sie die Konfiguration von SQL Server für SharePoint Server 2010 planen sollten. Inhalt dieses Abschnitts: Bestimmen der Anzahl der erforderlichen Instanzen oder Server Konfigurieren von Speicher und Arbeitsspeicher Festlegen von SQL Server-Optionen Konfigurieren von Datenbanken Bestimmen der Anzahl der erforderlichen Instanzen oder Server 356 Generell ist SharePoint Server 2010 so konzipiert, dass die Vorteile der horizontalen Skalierung von SQL Server genutzt werden, d. h., SharePoint Server 2010 zeigt bei einer großen Anzahl mittelgroßer Server mit SQL Server möglicherweise eine bessere Leistung als bei wenigen großen Servern. Platzieren Sie SQL Server immer auf einem dedizierten Server, auf dem keine weiteren Farmrollen ausgeführt oder Datenbanken für andere Anwendungen gehostet werden, es sei denn, Sie stellen das System auf einem eigenständigen Server bereit. Im Folgenden finden Sie allgemeine Richtlinien für die Bereitstellung eines weiteren Servers mit SQL Server: Fügen Sie einen weiteren Datenbankserver hinzu, wenn Sie mehr als vier Webserver verwenden, die alle mit voller Auslastung betrieben werden. Fügen Sie einen weiteren Datenbankserver hinzu, wenn die Inhaltsdatenbanken mehr als 5 TB umfassen. Hinweis: Microsoft unterstützt Serverkonfigurationen, die diese Richtlinien nicht einhalten. Zur Unterstützung der sicheren Speicherung von Anmeldeinformationen bei Verwendung der Secure Store Service-Anwendung wird empfohlen, die Datenbank für einmaliges Anmelden auf einer separaten Datenbankinstanz zu hosten, für die der Zugriff auf einen Administrator begrenzt ist. Konfigurieren von Speicher und Arbeitsspeicher Auf dem Server mit SQL Server 2008 wird für den L2-Cache pro CPU eine Größe von mindestens 2 MB empfohlen, um den Arbeitsspeicher zu verbessern. Befolgen der Konfigurationsempfehlungen des Speicherherstellers Befolgen Sie beim Konfigurieren eines physikalischen Speicherarrays die Empfehlungen des Speicherherstellers zur Hardwarekonfiguration, um eine optimale Leistung zu erzielen. Übernehmen Sie nicht die Standardwerte des Betriebssystems. Falls Ihnen keine Empfehlungen des Herstellers vorliegen, sollten Sie das Datenträgerkonfigurationsprogramm DiskPart.exe verwenden, um den Speicher für SQL Server 2008 zu konfigurieren. Weitere Informationen finden Sie unter Bewährte E/AMethoden bei der Vorabbereitstellung (http://go.microsoft.com/fwlink/?linkid=105583&clcid=0x407). Bereitstellen möglichst vieler Ressourcen Stellen Sie sicher, dass die SQL Server-E/A-Kanäle zu den Datenträgern nicht auch von anderen Anwendungen verwendet werden, z. B. der Auslagerungsdatei und IISProtokollen (Internetinformationsdienste). Stellen Sie so viel Busbandbreite wie möglich zur Verfügung. Mehr Busbandbreite trägt zur Erhöhung der Zuverlässigkeit und der Leistung bei. Bedenken Sie, dass der Datenträger nicht der einzige Verbraucher von Busbandbreite ist. Sie müssen hierbei beispielsweise auch den Netzwerkzugriff berücksichtigen. Festlegen von SQL Server-Optionen Sie sollten die folgenden SQL Server-Einstellungen und Optionen konfigurieren, bevor Sie SharePoint Server bereitstellen. 357 Aktivieren Sie nicht die automatische Erstellung von Statistiken auf einem Computer mit SQL Server, der SharePoint Server unterstützt. Von SharePoint Server werden bestimmte Statistiken implementiert; weitere Statistiken werden nicht benötigt. Durch das automatische Erstellen von Statistiken kann sich der Ausführungsplan einer Abfrage von einer Instanz von SQL Server zu einer anderen Instanz von SQL Server erheblich ändern. Um allen Kunden eine einheitliche Unterstützung zu bieten, stellt SharePoint Server daher bei Bedarf codierte Hinweise für Abfragen zur Verfügung, um szenarioübergreifend eine optimale Leistung zu bieten. Um eine optimale Leistung sicherzustellen, wird empfohlen, die Option max degree of parallelism für Datenbankserver, die SharePoint Server 2010-Datenbanken hosten, auf 1 festzulegen. Weitere Informationen zum Festlegen von max degree of parallelism finden Sie unter max degree of parallelism (Option) (http://go.microsoft.com/fwlink/?linkid=189030&clcid=0x407). Um die Wartung zu vereinfachen, sollten Sie für jeden Datenbankserver in der Farm SQL Server-Verbindungsaliasnamen konfigurieren. Ein Verbindungsalias ist ein alternativer Name, der verwendet werden kann, um eine Verbindung zu einer Instanz von SQL Server herzustellen. Weitere Informationen finden Sie unter Vorgehensweise: Festlegen eines SQL Server-Alias (SQL Server Management Studio) (http://go.microsoft.com/fwlink/?linkid=132064&clcid=0x407). Konfigurieren von Datenbanken Im Folgenden werden bewährte Methoden für die Planung der Konfiguration der einzelnen Datenbanken in einer Umgebung beschrieben. Verteilen und Priorisieren von Daten auf Datenträgern Idealerweise sollten Sie die tempdb-Datenbank, Inhaltsdatenbanken, die Verwendungsdatenbank, Suchdatenbanken und SQL Server 2008Transaktionsprotokolle auf getrennten physikalischen Festplatten platzieren. Die folgende Liste enthält einige bewährte Methoden und Empfehlungen für die Priorisierung von Daten: Verwenden Sie beim Priorisieren von Daten zwischen schnelleren Festplatten die folgende Rangfolge: 1. Tempdb-Datendateien und Transaktionsprotokolle 2. Datenbank-Transaktionsprotokolldateien 3. Suchdatenbanken, ausgenommen die Suchverwaltungsdatenbank 4. Datenbankdatendateien Bei einer Portalwebsite mit vorwiegend Lesezugriffen sollten Sie Daten Vorrang vor Protokollen geben. Anhand von Tests und Kundendaten wurde nachgewiesen, dass die SharePoint Server 2010-Farmleistung durch eine unzureichende Datenträger-E/A für die tempdb-Datenbank erheblich beeinträchtigt werden kann. Weisen Sie für tempdb dedizierte Datenträger zu, um dieses Problem zu vermeiden. Wenn eine hohe Arbeitsauslastung erwartet oder beobachtet wird (d. h., der durchschnittliche Lesevorgang oder der durchschnittliche Schreibvorgang dauert länger als 20 ms), müssen Sie den Engpass ggf. beheben, indem Sie die Dateien entweder auf verschiedenen Datenträgern speichern oder die vorhandenen Datenträger durch schnellere Datenträger ersetzen. 358 Um eine optimale Leistung zu erzielen, sollten Sie tempdb auf einem RAID 10-Array platzieren. Die Anzahl der tempdb-Datendateien sollte der Anzahl der Kern-CPUs entsprechen, und für die tempdb-Datendateien sollte eine einheitliche Größe festgelegt werden. Doppelkernprozessoren werden in diesem Zusammenhang wie zwei CPUs gezählt. Werten Sie jeden Prozessor, der Hyperthreading unterstützt, als eine CPU. Weitere Informationen finden Sie unter Optimieren der Leistung von 'tempdb' (http://go.microsoft.com/fwlink/?linkid=148537&clcid=0x407). Speichern Sie die Datenbankdaten- und Transaktionsprotokolldateien auf verschiedenen Datenträgern. Wenn Dateien Datenträger gemeinsam nutzen müssen, weil die Dateien zu klein sind, um die Verwendung eines ganzen Datenträgers oder Stripesets zu rechtfertigen, oder weil nicht genügend Speicherplatz verfügbar ist, speichern Sie Dateien mit verschiedenen Verwendungsmustern auf demselben Datenträger, um gleichzeitige Zugriffsanforderungen zu minimieren. Wenden Sie sich an den Hersteller der Speicherhardware, um zu erfahren, wie Protokolle und Suchdatenbanken konfiguriert werden müssen, um Schreibvorgänge für eine spezifische Speicherlösung zu optimieren. Verwenden mehrerer Datendateien für Inhaltsdatenbanken Folgen Sie diesen Empfehlungen zur Optimierung der Leistung: Erstellen Sie nur Dateien in der primären Dateigruppe für die Datenbank. Verteilen Sie die Dateien auf verschiedene Datenträger. Die Anzahl der Datendateien sollte kleiner oder gleich der Anzahl der Kern-CPUs sein. Hierbei sollten Doppelkernprozessoren als zwei CPUs gezählt werden. Jeder Prozessor mit Unterstützung für Hyperthreading wird als eine CPU gezählt. Erstellen Sie gleich große Datendateien. Wichtig: Obwohl Sie die in SharePoint Server 2010 integrierten Sicherungs- und Wiederherstellungstools zum Sichern und Wiederherstellen mehrerer Datendateien verwenden können, ist es im Falle von Überschreibungen an demselben Speicherort nicht möglich, mithilfe dieser Tools mehrere Datendateien an einem anderen Speicherort wiederherzustellen. Aus diesem Grund wird die Verwendung der Sicherungs- und Wiederherstellungstools von SQL Server empfohlen, wenn Sie mehrere Datendateien für eine Inhaltsdatenbank verwenden. Weitere Informationen zum Sichern und Wiederherstellen von SharePoint Server 2010 finden Sie unter Plan for backup and recovery (SharePoint Server 2010). Weitere Informationen zum Erstellen und Verwalten von Dateigruppen finden Sie unter Architektur von Dateien und Dateigruppen (http://go.microsoft.com/fwlink/?linkid=117909&clcid=0x407). Begrenzen der Größe der Inhaltsdatenbank zur Verbesserung der Verwaltbarkeit Planen Sie die Datenbankgröße so, dass die Verwaltbarkeit und Leistung der Umgebung verbessert und ein Upgrade vereinfacht wird. 359 Um die Systemleistung sicherzustellen, wird nachdrücklich empfohlen, die Größe der Inhaltsdatenbanken auf 200 GB zu begrenzen. Eine Websitesammlung sollte die Größe von 100 GB nur dann überschreiten, wenn es sich um die einzige Websitesammlung in der Datenbank handelt. Durch diesen Grenzwert wird sichergestellt, dass Sie die SharePoint Server 2010-Tools für differenzierte Sicherungen verwenden können, um eine Websitesammlung, falls notwendig, in eine andere Datenbank zu verschieben. Wichtig: Inhaltsdatenbanken mit einer Größe von bis zu 1 TB werden nur bei großen Repositorys und Archiven mit einer einzigen Website unterstützt, in denen die Daten weitgehend statisch bleiben, beispielsweise Systeme zur Verwaltung von Verweisdokumenten und Datenarchiv-Websites. In diesen Szenarien werden größere Datenbankgrößen unterstützt, da die E/A-Muster und die typischen Datenstrukturformate für größere Maßstäbe entworfen und getestet wurden. Wenn für Ihre Umgebung eine Datenbank erforderlich ist, deren Größe den empfohlenen Wert überschreitet, sollten Sie sich an die folgenden Richtlinien halten: Bei Datenbanken mit vielen großen Dateien, die als BLOBs (Binary Large Objects) gespeichert werden, sollten Sie die Verwendung von Remote-BLOB-Speicher (RBS) erwägen. RBS ist unter folgenden Bedingungen geeignet: 1. Wenn Sie Websites ausführen, die große Dateien enthalten, auf die selten zugegriffen wird, z. B. Wissensrepositorys. 2. Wenn Sie über Daten im Umfang von mehreren TB verfügen. 3. Für Video- oder Mediendateien. Weitere Informationen finden Sie unter Plan for remote BLOB storage (RBS) (SharePoint Server 2010). Folgen Sie den bewährten Methoden zum Anzeigen von Daten aus großen Datenbanken. Weitere Informationen finden Sie unter SharePoint Server 2010Kapazitätsverwaltung: Softwarebeschränkungen und -grenzen. Weitere Informationen zu großen Dokumentrepositorys finden Sie unter "Abschätzen der Leistungs- und Kapazitätsanforderungen für große Dokumentrepositorys" unter Ergebnisse der Leistungs- und Kapazitätstests und Empfehlungen (SharePoint Server 2010). Proaktives Verwalten des Zuwachses von Daten- und Protokolldateien Es wird empfohlen, den Zuwachs von Daten- und Protokolldateien proaktiv zu verwalten, indem Sie die folgenden Empfehlungen berücksichtigen: Vergrößern Sie, soweit wie möglich, vorab alle Daten- und Protokolldateien auf ihre erwartete endgültige Größe. Es empfiehlt sich, die automatische Vergrößerung aus Sicherheitsgründen zu aktivieren. Verlassen Sie sich nicht auf die Standardeinstellungen für die automatische Vergrößerung. Orientieren Sie sich beim Konfigurieren dieser Einstellungen an den folgenden Richtlinien: 360 Wenn Sie Inhaltsdatenbanken planen, die die empfohlene Größe von 200 GB überschreiten, legen Sie den Wert für die automatische Datenbankvergrößerung auf eine feste Anzahl von Megabytes und nicht auf einen Prozentsatz fest. Dadurch wird die Häufigkeit verringert, mit der SQL Server die Dateigröße erhöht. Das Erhöhen der Dateigröße ist ein blockierender Vorgang, bei dem der neue Platz mit leeren Seiten gefüllt werden muss. Legen Sie den Wert für die automatische Vergrößerung für die Eigenschaftenspeicher-Datenbank der Suchdienstanwendung auf 10 % fest. Wenn davon auszugehen ist, dass die berechnete Größe der Inhaltsdatenbank innerhalb des nächsten Jahres nicht die empfohlene Maximalgröße von 200 GB erreicht, sollten Sie für die Datenbank mithilfe der ALTER DATABASE MAXSIZE-Eigenschaft die maximale Größe, die sie laut Prognose innerhalb eines Jahres erreichen wird, zuzüglich eines 20 %igen Fehlerzuschlags festlegen. Überprüfen Sie diese Eigenschaft regelmäßig anhand der zurückliegenden Zuwachsraten, um sicherzustellen, dass sie immer noch einen geeigneten Wert aufweist. Sorgen Sie dafür, dass ein Niveau von mindestens 25 % an verfügbarem Speicherplatz über alle Datenträger hinweg aufrechterhalten wird, um ausreichend Spielraum für Vergrößerungen und Verwendungsmuster bei Spitzenauslastungen zu bieten. Wenn die Größenverwaltung durch Hinzufügen weiterer Datenträger zu einem RAID-Array oder durch Zuordnung weiteren Speichers erfolgt, müssen Sie die Datenträgergröße genau überwachen, um Speicherplatzengpässe zu vermeiden. Überprüfen von Speicherleistung und zuverlässigkeit Überprüfen Sie, ob die Leistung und die Sicherungslösung der verwendeten Hardware die Einhaltung Ihrer Servicelevel-Vereinbarungen ermöglicht. Testen Sie insbesondere die E/A-Subsysteme des Computers mit SQL Server, um eine zufriedenstellende Leistung sicherzustellen. Testen Sie die verwendete Sicherungslösung, um sicherzustellen, dass eine Sicherung innerhalb des verfügbaren Wartungszeitfensters möglich ist. Wenn die in Ihrem Unternehmen erforderlichen Servicelevel-Vereinbarungen durch die Sicherungslösung nicht eingehalten werden, sollten Sie die Verwendung einer Lösung für inkrementelle Sicherungen wie System Center Data Protection Manager (DPM) 2010 in Erwägung ziehen. Es ist wichtig, die folgenden Ressourcenkomponenten eines Servers mit SQL Server nachzuverfolgen: CPU, Arbeitsspeicher, Cachetrefferverhältnis und E/A-Subsystem. Wenn eine oder mehrere dieser Komponenten langsam oder überlastet zu sein scheinen, müssen Sie die entsprechende Strategie auf der Basis der aktuellen und prognostizierten Arbeitsauslastung analysieren. Weitere Informationen finden Sie unter Behandeln von Leistungsproblemen in SQL Server 2008 (http://go.microsoft.com/fwlink/?linkid=168448&clcid=0x407). Im folgenden Abschnitt sind die Leistungsindikatoren aufgeführt, die Sie zum Überwachen der Leistung der SQL Server-Datenbanken verwenden sollten, die in einer SharePoint Server 2010-Umgebung ausgeführt werden. Für jeden Leistungsindikator 361 sind darüber hinaus die ungefähren Werte aufgeführt, die einen reibungslosen Betrieb widerspiegeln. Ausführliche Informationen zum Überwachen der Leistung und zur Verwendung von Leistungsindikatoren finden Sie unter Erste Schritte mit der Leistungsüberwachung (http://go.microsoft.com/fwlink/?linkid=189032&clcid=0x407). Zu überwachende SQL Server-Leistungsindikatoren Überwachen Sie die folgenden SQL Server-Leistungsindikatoren, um die Integrität Ihrer Server sicherzustellen: Allgemeine Statistik Dieses Objekt stellt Leistungsindikatoren für die Überwachung der allgemeinen serverweiten Aktivität zur Verfügung, z. B. die Anzahl gleichzeitiger Verbindungen und die Anzahl der Benutzer, die pro Sekunde von Computern mit einer Instanz von SQL Server eine Verbindung herstellen oder trennen. Erwägen Sie die Überwachung des folgenden Leistungsindikators: Datenbanken Dieses Objekt stellt Leistungsindikatoren für die Überwachung von Massenkopiervorgängen, des Sicherungs- und Wiederherstellungsdurchsatzes und von Transaktionsprotokollaktivitäten zur Verfügung. Überwachen Sie Transaktionen und das Transaktionsprotokoll, um den Umfang der Benutzeraktivitäten in der Datenbank zu bestimmen und festzustellen, in welchem Umfang das Transaktionsprotokoll aufgefüllt wird. Der Umfang der Benutzeraktivitäten kann die Leistung der Datenbank bestimmen und sich auf die Protokollgröße, Sperren und die Replikation auswirken. Die Überwachung von Protokollaktivitäten auf niedriger Ebene zur Messung von der Benutzeraktivität und der Ressourcennutzung kann Ihnen helfen, Leistungsengpässe zu identifizieren. Erwägen Sie die Überwachung des folgenden Leistungsindikators: Benutzerverbindungen Dieser Leistungsindikator zeigt den Umfang der Benutzerverbindungen auf dem Computer mit SQL Server an. Wenn dieser Wert um mehr als 500 % ausgehend von Ihrer Baseline ansteigt, kann sich dies in Leistungseinbußen niederschlagen. Transaktionen/Sekunde Dieser Leistungsindikator zeigt den Umfang der Transaktionen für eine bestimmte Datenbank oder den gesamten Server pro Sekunde an. Dieser Wert hilft Ihnen vor allem hinsichtlich Ihrer Baseline und bei der Problembehandlung. Sperren Dieses Objekt stellt Informationen zu SQL Server-Sperren für einzelne Ressourcentypen zur Verfügung. Erwägen Sie die Überwachung der folgenden Leistungsindikatoren: Durchschnittliche Wartezeit (in Millisekunden) Dieser Leistungsindikator zeigt die durchschnittliche Länge der Wartezeit für jede Sperranforderung an, die nicht sofort erfüllt werden konnte. Wartezeit für Sperre (in Millisekunden) Dieser Leistungsindikator zeigt die Wartezeit für Sperren in der vergangenen Sekunde an. Sperrenwartevorgänge/Sekunde Dieser Leistungsindikator zeigt die Anzahl der Sperren pro Sekunde an, die nicht sofort erfüllt werden konnten, sodass auf Ressourcen gewartet werden musste. Anzahl der Deadlocks/Sekunde Dieser Leistungsindikator zeigt die Anzahl der Deadlocks pro Sekunde auf dem Computer mit SQL Server an. Dieser Wert sollte nicht größer als 0 werden. 362 Latches Dieses Objekt stellt Leistungsindikatoren für die Überwachung interner SQL Server-Ressourcensperren, so genannter Latches, zur Verfügung. Die Überwachung von Latches zum Bestimmen der Benutzeraktivität und der Ressourcennutzung kann Ihnen helfen, Leistungsengpässe zu identifizieren. Erwägen Sie die Überwachung der folgenden Leistungsindikatoren: Durchschnittliche Wartezeit für Latch (in Millisekunden) Dieser Leistungsindikator zeigt die durchschnittliche Wartezeit für Latchanforderungen an, die nicht sofort erfüllt werden konnten. Latchwartevorgänge/Sekunde Dieser Leistungsindikator zeigt die Anzahl der Latchanforderungen an, die nicht sofort erfüllt werden konnten. SQL-Statistik Dieses Objekt stellt Leistungsindikatoren für die Überwachung der Kompilierung und des Typs der Anforderungen zur Verfügung, die an eine Instanz von SQL Server gesendet werden. Die Überwachung der Anzahl der Abfragekompilierungen und Neukompilierungen sowie der Anzahl der Batches, die von einer Instanz von SQL Server empfangen wurden, liefert Ihnen einen Hinweis darauf, wie schnell Benutzerabfragen von SQL Server verarbeitet werden und wie effektiv der Abfrageoptimierer die Abfragen verarbeitet. Erwägen Sie die Überwachung der folgenden Leistungsindikatoren: SQL-Kompilierungen/Sekunde Dieser Leistungsindikator zeigt an, wie oft der Pfad für den Kompilierungscode pro Sekunde eingegeben wurde. Erneute SQL-Kompilierungen/Sekunde Dieser Leistungsindikator zeigt die Anzahl der erneuten Anweisungskompilierungen pro Sekunde an. Puffer-Manager Dieses Objekt stellt Leistungsindikatoren zur Verfügung, mit denen Sie überwachen können, wie SQL Server den Arbeitsspeicher zum Speichern von Datenseiten, internen Datenstrukturen und des Prozedurcaches verwendet. Es stellt darüber hinaus Leistungsindikatoren bereit, um die physische E/A, während SQL Server Datenbankseiten liest und schreibt, zu überwachen. Erwägen Sie die Überwachung des folgenden Leistungsindikators: Puffercache-Trefferquote Dieser Leistungsindikator zeigt den Prozentsatz der Seiten an, die im Puffercache gefunden wurden, ohne dass ein Lesevorgang vom Datenträger erforderlich war. Die Quote entspricht der Gesamtzahl von Cachetreffern dividiert durch die Gesamtzahl der Cachesuchvorgänge für die letzten paar Tausend Seitenzugriffe. Da das Lesen vom Cache weniger aufwendig als das Lesen vom Datenträger ist, ist es in Ihrem Interesse, dass diese Quote hoch ist. Im Allgemeinen können Sie die Puffercache-Trefferquote erhöhen, indem Sie den Arbeitsspeicher, der SQL Server zur Verfügung steht, erhöhen. Plancache Dieses Objekt stellt Leistungsindikatoren zur Verfügung, mit denen Sie überwachen können, wie SQL Server den Arbeitsspeicher zum Speichern von Objekten wie gespeicherten Prozeduren, Ad-hoc-Anweisungen und vorbereiteten Transact-SQL-Anweisungen sowie Triggern verwendet. Erwägen Sie die Überwachung des folgenden Leistungsindikators: Cachetrefferquote Dieser Leistungsindikator zeigt das Verhältnis zwischen Cachetreffern und Plansuchvorgängen an. 363 Zu überwachende Leistungsindikatoren des physikalischen Servers Überwachen Sie die folgenden Leistungsindikatoren, um die Integrität der Computer mit SQL Server sicherzustellen: Prozessor: Gesamtprozessorzeit (%) Dieser Leistungsindikator zeigt den Prozentsatz der Prozessorzeit an, die zum Ausführen von Anwendungs- oder Betriebssystemprozessen aufgewendet wird, die sich nicht im Leerlauf befinden. Auf dem Computer mit SQL Server sollte dieser Leistungsindikator in einem Bereich zwischen 50 und 75 % liegen. Bei dauerhafter Überlastung sollten Sie überprüfen, ob ungewöhnliche Prozessaktivitäten vorliegen oder ob der Server zusätzliche CPUs benötigt. System: Prozessor-Warteschlangenlänge Dieser Leistungsindikator zeigt die Anzahl der Threads in der Prozessorwarteschlange an. Überwachen Sie diesen Leistungsindikator, um sicherzustellen, dass er weniger als das Zweifache der Anzahl an Kern-CPUs beträgt. Arbeitsspeicher: Verfügbare MB Dieser Leistungsindikator zeigt den Umfang des physikalischen Speichers in MB an, der für die auf dem Computer ausgeführten Prozesse verfügbar ist. Überwachen Sie diesen Leistungsindikator, um sicherzustellen, dass ein Niveau von mindestens 20 % des insgesamt verfügbaren physikalischen Arbeitsspeichers aufrechterhalten wird. Arbeitsspeicher: Seiten/s Dieser Leistungsindikator zeigt die Geschwindigkeit an, mit der Seiten vom Datenträger gelesen oder auf den Datenträger geschrieben werden, um Hardware-Seitenfehler zu beheben. Überwachen Sie diesen Leistungsindikator, um sicherzustellen, dass sein Wert unter 100 bleibt. Weitere Informationen und Beschreibungen von Methoden zum Beheben von Arbeitsspeicherproblemen finden Sie unter Überwachen der Arbeitsspeicherverwendung (http://go.microsoft.com/fwlink/?linkid=105585&clcid=0x407). Zu überwachende Datenträger-Leistungsindikatoren Überwachen Sie die folgenden Leistungsindikatoren, um die Integrität der Datenträger sicherzustellen. Beachten Sie, dass es sich bei den folgenden Werten um Messwerte handelt, die über einen Zeitraum gemessen werden, und nicht um plötzlich auftretende Spitzenwerte oder Werte, die auf einer einzigen Messung basieren. Physikalischer Datenträger: Zeit (%): Datenlaufwerk Dieser Leistungsindikator zeigt den Prozentsatz der verstrichenen Zeit an, die das ausgewählte Laufwerk mit dem Bearbeiten von Lese- und Schreibanforderungen beschäftigt ist. Dieser Wert ist ein allgemeiner Indikator für die Auslastung des Datenträgers. Wenn der Leistungsindikator Physikalischer Datenträger: Zeit (%) einen hohen Wert (über 90 %) aufweist, sollten Sie den Leistungsindikator Physikalischer Datenträger: Aktuelle Warteschlangenlänge überprüfen, um festzustellen, wie viele Systemanforderungen auf den Datenträgerzugriff warten. Die Anzahl der wartenden E/A-Anforderungen sollte nicht mehr als das 1,5- bis 2fache der Anzahl der physikalischen Laufwerke betragen, aus denen der physikalische Datenträger besteht. Logischer Datenträger: Übertragungen/s Dieser Leistungsindikator zeigt die Geschwindigkeit an, mit der Lese- und Schreibvorgänge auf dem Datenträger ausgeführt werden. Verwenden Sie diesen Leistungsindikator, um Zuwachstrends zu überwachen und entsprechende Prognosen zu formulieren. 364 Logischer Datenträger: Bytes gelesen/s und Logischer Datenträger: Bytes geschrieben/s Diese Leistungsindikatoren zeigen die Geschwindigkeit an, mit der Bytes bei Lese- oder Schreibvorgängen vom bzw. zum Datenträger übertragen werden. Logischer Datenträger: Mittlere Bytes/Lesevorgang Dieser Leistungsindikator zeigt die durchschnittliche Anzahl der Bytes an, die bei Lesevorgängen vom Datenträger übertragen werden. Dieser Wert kann die Wartezeit für den Datenträger wiedergeben; umfangreichere Lesevorgänge können zu geringfügig längeren Wartezeiten führen. Logischer Datenträger: Mittlere Bytes/Schreibvorgang Dieser Leistungsindikator zeigt die durchschnittliche Anzahl der Bytes an, die bei Schreibvorgängen zum Datenträger übertragen werden. Dieser Wert kann die Wartezeit für den Datenträger wiedergeben; größere Schreibvorgänge können zu geringfügig längeren Wartezeiten führen. Logischer Datenträger: Aktuelle Warteschlangenlänge Dieser Leistungsindikator zeigt die Anzahl der ausstehenden Anforderungen zum Zeitpunkt der Erfassung der Leistungsdaten an. Bei diesem Leistungsindikator sind niedrigere Werte besser. Werte größer als 2 pro Datenträger können auf einen Engpass hinweisen und sollten näher untersucht werden. Das bedeutet, dass ein Wert von bis zu 8 für eine logische Einheit (LUN) aus bis zu 4 Datenträgern akzeptabel sein kann. Engpässe können zu Rückständen führen, die sich über den aktuellen Server, der auf den Datenträger zugreift, hinaus erstrecken und lange Wartezeiten für die Benutzer verursachen. Mögliche Lösungen für einen Engpass können darin bestehen, weitere Datenträger zum RAID-Array hinzuzufügen, vorhandene Datenträger durch schnellere Datenträger zu ersetzen oder einen Teil der Daten auf andere Datenträger zu verschieben. Logischer Datenträger: Durchschnittl. Warteschlangenlänge des Datenträgers Dieser Leistungsindikator zeigt die durchschnittliche Anzahl der Leseund Schreibanforderungen an, die während des Erfassungsintervalls für den ausgewählten Datenträger in die Warteschlange gestellt wurden. Generell gilt, dass es pro physikalischem Laufwerk maximal zwei ausstehende Lese- und Schreibanforderungen geben sollte. Dies ist aufgrund von Speichervirtualisierung und Unterschieden bei den RAID-Stufen der verschiedenen Konfigurationen jedoch schwierig zu messen. Suchen Sie nach überdurchschnittlich langen DatenträgerWarteschlangen in Kombination überdurchschnittlich langen Datenträgerwartezeiten. Diese Kombination kann darauf hinweisen, dass der Speicherarraycache überlastet ist oder dass sich die gemeinsame Nutzung des physikalischen Laufwerks mit anderen Anwendungen nachteilig auf die Leistung auswirkt. Logischer Datenträger: Mittlere Sek./Lesevorgänge und Logischer Datenträger: Mittlere Sek./Schreibvorgänge Diese Leistungsindikatoren zeigen die durchschnittliche Dauer (in Sekunden) für Lese- oder Schreibvorgänge auf dem Datenträger an. Überwachen Sie diese Leistungsindikatoren, um sicherzustellen, dass sie einen Wert von 85 % der Datenträgerkapazität nicht überschreiten. Die Datenträger-Zugriffszeiten steigen exponentiell, wenn Lese- oder Schreibvorgänge mehr als 85 % der Datenträgerkapazität ausmachen. Informationen zum Bestimmen der Kapazität der von Ihnen verwendeten Hardware finden Sie in der Dokumentation des Herstellers. Alternativ können Sie auch das Datenträgersubsystem365 Benchmarktool SQLIO für die Berechnung der Kapazität verwenden. Weitere Informationen finden Sie unter SQLIO: Datenträgersubsystem-Benchmarktool (http://go.microsoft.com/fwlink/?linkid=105586&clcid=0x407). Logischer Datenträger: Mittlere Sek./Lesevorgänge Dieser Leistungsindikator zeigt die durchschnittliche Dauer (in Sekunden) eines Lesevorgangs vom Datenträger an. Bei einem optimal konfigurierten System liegen die Idealwerte zwischen 1 und 5 ms für Protokolle (idealerweise 1 ms für ein zwischengespeichertes Array) und zwischen 4 und 20 ms für Daten (idealerweise unter 10 ms). Höhere Wartezeiten können zu Spitzenzeiten auftreten. Treten jedoch häufiger höhere Werte auf, sollten Sie die Ursachen näher untersuchen. Logischer Datenträger: Mittlere Sek./Schreibvorgänge Dieser Leistungsindikator zeigt die durchschnittliche Dauer (in Sekunden) eines Schreibvorgangs auf dem Datenträger an. Bei einem optimal konfigurierten System liegen die Idealwerte zwischen 1 und 5 ms für Protokolle (idealerweise 1 ms für ein zwischengespeichertes Array) und zwischen 4 und 20 ms für Daten (idealerweise unter 10 ms). Höhere Wartezeiten können zu Spitzenzeiten auftreten. Treten jedoch häufiger höhere Werte auf, sollten Sie die Ursachen näher untersuchen. Wenn Sie RAID-Konfigurationen mit dem Leistungsindikator Mittlere Sek./Lesevorgänge oder Mittlere Sek./Schreibvorgänge verwenden, sollten Sie die in der folgenden Tabelle aufgeführten Formeln verwenden, um die Einund Ausgabegeschwindigkeit für den Datenträger zu bestimmen. RAID-Stufe Formel RAID 0 E/As pro Datenträger = (Lesevorgänge + Schreibvorgänge) / Anzahl der Datenträger RAID 1 E/As pro Datenträger = [Lesevorgänge + (2 × Schreibvorgänge)] / 2 RAID 5 E/As pro Datenträger = [Lesevorgänge + (4 × Schreibvorgänge)] / Anzahl der Datenträger RAID 10 E/As pro Datenträger = [Lesevorgänge + (2 × Schreibvorgänge)] / Anzahl der Datenträger Beispiel für ein RAID 1-System mit zwei physikalischen Datenträgern, für das die Leistungsindikatoren die in der folgenden Tabelle aufgeführten Werte aufweisen: Leistungsindikator Werte Mittlere Sek./Lesevorgänge 80 Logischer Datenträger: Mittlere Sek./Schreibvorgänge 70 Durchschnittl. Warteschlangenlänge des 5 366 Leistungsindikator Werte Datenträgers Der E/A-Wert pro Datenträger kann folgendermaßen berechnet werden: (80 + (2 × 70)) / 2 = 110 Die Warteschlangenlänge des Datenträgers kann folgendermaßen berechnet werden: 5 / 2 = 2,5 In dieser Situation liegt ein grenzwertiger E/A-Engpass vor. Weitere Überwachungstools Für die Überwachung der Datenträgerwartezeit und die Trendanalyse können Sie auch die dynamische Verwaltungssicht sys.dm_io_virtual_file_stats in SQL Server 2008 verwenden. Weitere Informationen finden Sie unter sys.dm_io_virtual_file_stats (Transact-SQL) (http://go.microsoft.com/fwlink/?linkid=105587&clcid=0x407). 367