Mehr Leistung bei betriebsnotwendigen Anwendungen dank SQL Server. Ein Whitepaper Veröffentlichung: September 2015 Themengebiet: SQL Server 2016 CTP2 und SQL Server 2014 Zusammenfassung: Datenmenge und -komplexität nehmen überall zu, und die Fähigkeit sie zu nutzen wird für Organisationen aller Branchen immer wichtiger. Digitale Transaktionen und Erfahrungen müssen über geografische Hindernisse und Zeitzonen hinweg verfügbar sein. Heutzutage finden diese von Millionen Interaktionen generierten Daten ihren Weg auf jedes Gerät, in jede Anwendung und jeden Vorgang. IT-Organisationen müssen einen Ausgleich schaffen zwischen den Auswirkungen dieser Datenexplosion und der Notwendigkeit ständiger Betriebszeit, weltweiter Verfügbarkeit, steigender gesetzlicher Compliance und einer sich weiterentwickelnden digitalen Welt, in der Kunden immer mehr erwarten und verlangen. Leistung, Stabilität, Sicherheit, Verfügbarkeit und die Fähigkeit, aus Daten schnelle Erkenntnisse zu gewinnen, ist für Unternehmen kritischer denn je. In diesem Whitepaper wird beschrieben, wie all diese Fähigkeiten durch die kontinuierliche Verbesserung von Microsoft SQL Server bei niedrigeren Kosten und höheren Erträgen möglich werden. Seite 1 Copyright Die in diesem Dokument enthaltenen Informationen geben den aktuellen Standpunkt der Microsoft Corp. zu den besprochenen Themen zum Zeitpunkt der Veröffentlichung wieder. Da Microsoft auf sich wandelnde Marktbedingungen reagieren muss, darf das Dokument nicht als verbindliche Zusage seitens Microsoft interpretiert werden, und Microsoft kann die Richtigkeit der genannten Informationen nach dem Zeitpunkt der Veröffentlichung nicht garantieren. Dieses Whitepaper dient ausschließlich zu Informationszwecken. MICROSOFT GIBT FÜR DIE IN DIESEM DOKUMENT ENTHALTENEN INFORMATIONEN KEINE GARANTIEERKLÄRUNGEN AB, WEDER AUSDRÜCKLICH NOCH STILLSCHWEIGEND NOCH STATUARISCH. Die Einhaltung aller geltenden Urheberrechtsgesetze obliegt dem Benutzer. Ohne die im Urheberrecht festgelegten Rechte einzuschränken, darf kein Teil dieses Dokuments vervielfältigt, in einem Datenabfragesystem gespeichert oder eingeführt werden oder in irgendeiner Form oder mittels irgendwelcher Methode (elektronisch, mechanisch, mittels Kopie, Aufnahme oder anderweitig) oder für irgendwelchen Zweck ohne die ausdrückliche schriftliche Erlaubnis von Microsoft Corp. übermittelt werden. Microsoft kann über Patente, Patentanmeldungen, Marken, Urheberrechte oder andere gewerblichen Schutzrechte verfügen, die den Gegenstand dieses Dokuments abdecken. Sofern es in einem schriftlichen Lizenzvertrag von Microsoft nicht ausdrücklich geregelt ist, erteilt die Bereitstellung dieses Dokuments Ihnen keine Lizenz für diese Patente, Marken, Urheberrechte oder andere gewerblichen Schutzrechte. © 2015 Microsoft Corp. Alle Rechte vorbehalten. Seite 2 Inhalt Kurzfassung ........................................................................................................................................... 4 Die Evolution von SQL Server ........................................................................................................... 5 Leistungsstärke für Ihre anspruchsvollsten Anwendungen mit SQL Server ........................ 8 Leistung ................................................................................................................................................................................ 9 In-Memory Online Transaction Processing (OLTP) ....................................................................................................... 9 30-fache Leistungssteigerung........................................................................................................................................... 10 Verringerte Datenbankgröße und verbesserte Leistung: Daten- und Sicherungskomprimierung ............... 10 Systemeigene JSON-Unterstützung ................................................................................................................................ 11 Sicherheit und Berichtspflichten ..................................................................................................................................11 Standardmäßig sicher: Verringern der Verwundbarkeit ............................................................................................ 12 Transparent Data Encryption............................................................................................................................................. 12 Verschlüsselte Sicherungen ............................................................................................................................................... 13 2016 neu: Always Encrypted .............................................................................................................................................. 13 2016 neu: Sicherheit auf Zeilenebene ............................................................................................................................. 15 Integrierte Tools für Compliance: SQL Server-Prüfungstools .................................................................................. 15 Verfügbarkeit ................................................................................................................................................................... 16 AlwaysOn ................................................................................................................................................................................ 16 Verbessertes AlwaysOn ...................................................................................................................................................... 18 Skalierbarkeit .................................................................................................................................................................... 19 Columnstore .......................................................................................................................................................................... 19 Die Cloud und unternehmenskritische Systeme ....................................................................... 20 Herkömmliche Bare-Metal-Bereitstellung..................................................................................................................... 20 Hybrid-Lösungen ............................................................................................................................................................ 21 Cloud-Bereitstellung: Public und Private Cloud ........................................................................................................... 22 Private Cloud.......................................................................................................................................................................... 23 Stretch-Datenbanken .......................................................................................................................................................... 24 Always Encrypted.................................................................................................................................................................. 25 Seite 3 Vergleichen der Kosten unternehmenskritischer Funktionen .............................................. 26 Erwarten der Grundlagen ............................................................................................................................................. 26 Verstehen von Optionen .............................................................................................................................................. 27 Schlussfolgerung ............................................................................................................................... 28 Weitere Informationen .................................................................................................................... 28 Kurzfassung Interaktionen im Web, stationäre Transaktionen, Apps auf Mobiltelefonen und intelligente Geräte in der Produktion: Heutzutage weiten sich Datenquellen so explosionsartig aus, dass die Datenmenge exponentiell hochschnellt. Auf den ersten Blick überwältigend, gibt dies Organisationen aller Art die Möglichkeit, die Daten für eine intelligentere Entscheidungsfindung zu nutzen. Heutzutage kommen Daten einer Währung gleich, einem Kompass und einer neuen natürlichen Ressource, auf die zurückgegriffen werden kann, um neue Wertformen zu schaffen. Unternehmen, die das erkennen, heben sich ab und sind erfolgreich. In einer kürzlich durchgeführten ICD-Studie wurden Unternehmen mit und ohne datenzentrische Kultur miteinander verglichen. Das Ergebnis zeigt eine massive „Daten-Dividende“ bei Unternehmen, die sich diese neuen datenintensiven Umgebungen zu Nutze machten – bis hin zu 1,6 Billionen USD in neuen Werten weltweit. In diesem Licht betrachten Organisationen Daten jetzt auf neue Weise. Informationen (relationale wie nicht relationale, interne wie externe) sollen genutzt werden. Neue analytische Modelle werden auf historische Daten angewendet, um die Zukunft vorherzusagen. Neue Erkenntnisse entstehen und werden in Organisationen vielfältig genutzt. Und all das geschieht schnell – häufig in gefühlter Echtzeit. So werden mehr Produktivität, größere Effizienz sowie eine schnellere Innovation und damit ein steigender Absatz und mehr Umsatzquellen erreicht. Diese Realität in der Geschäftswelt motiviert die nächste Innovationswelle bei der Microsoft-Plattform. Damit wir diesen Bedarf heute und morgen unterstützen können, investieren wir bei der weiteren Entwicklung von SQL Server verstärkt in diese Kernbereiche: Leistung: Die in SQL Server integrierten In-Memory-Tools gehen weit über isolierte Funktionen hinaus und unterstützen eine deutliche Leistungsverbesserung in vielen Szenarien Sicherheit und Compliance: Der SQL Server entwickelt sich weiter. Es wurden neue neue Funktionen wie „Always Encrypted“ und „Sicherheit auf Zeilenebene“ implementiert. Dieses bietet neue Möglichkeiten zum Schutz von Daten, nicht nur im Ruhezustand sondern auch in „Bewegung“. Dieses bietet neue Möglichkeiten zum Schutz von Daten, nicht nur im Ruhezustand sondern auch in „Bewegung“ Verfügbarkeit: SQL Server ist bereits für seine Stabilität und zuverlässige Leistung bekannt. Die neuen Verbesserungen bei AlwaysOn ermöglichen eine bessere Lastverteilung und neue Funktionen für flexible und effiziente Sicherungen Seite 4 Skalierbarkeit: Neue Verbesserungen bei Servern, Speicher und Netzwerk haben einen direkten Einfluss auf die Leistung in kritischen Anwendungsszenarien Clouddienste: Neue Tools in SQL Server und Microsoft Azure erleichtern die Ausweitung in die Cloud, die Erstellung von Lösungen für Patches, Sicherung und Notfallwiederherstellung und den Zugriff auf alle Ressourcen – sowohl lokal als auch in der Private Cloud oder der Public Cloud In diesem Whitepaper werden die neuen und die kommenden Funktionen besprochen, die SQL Server heute zur kosteneffizientesten, flexibelsten und leistungsstärksten Datenbank machen. Die Evolution von SQL Server Wir glauben, dass unsere Kunden die Schlüsselfunktionen von SQL Server und der weiterreichenden Microsoft Data Platform nutzen möchten. Deshalb haben wir diesen einzigartigen Entwurfsansatz gewählt, als wir mit der Integration von In-Memory in PowerPivot für Millionen von Zeilen für die Datenanalyse in Excel mit der Verbesserung der Analysefunktionen begonnen haben. In SQL Server 2012 erweiterten wir den Wirkungsbereich von In-Memory dank des gleichen integrierten Ansatzes, indem wir den Analysediensten In-Memory hinzufügten, um der IT eine schnellere Erstellung von Datenmodellen zu ermöglichen. In SQL Server 2014 deckten wir die letzte Workload durch die Einführung einer In-Memory OLTP-Lösung (Onlinetransaktionsverarbeitung) ab, die die Transaktionsleistung deutlich beschleunigt. Auch haben wir In-Memory-Columnstore durch eine schnellere Leistung und eine deutlich erhöhte Datenkomprimierung verbessert, damit die Speichernutzung optimiert werden kann. Kunden reagierten auf diese Entwicklung mit weiterem Vertrauen in die Verwendung von SQL Server bei der Verwaltung ihrer zentralen Daten. Auch Branchenanalysten haben positiv reagiert. Gartner bewertete SQL Server kürzlich als beste operative Datenbank (Abbildung 1). Abbildung 1: Gartner Magic Quadrant für operative Datenbanken1 1 Gartner, http://www.gartner.com/technology/reprints.do?id=1-237UHKQ&ct=141016&st=sb, Oktober 2014 Seite 5 Außerdem wurden SQL Server in den letzten 15 Jahren kontinuierlich innovative Funktionen hinzugefügt (Abbildung 2). Abbildung 2: Die in den verschiedenen Versionen hinzugefügten SQL Server-Funktionen Mit SQL Server 2016 wird diese Innovationstradition fortgeführt. Sie ist möglicherweise der größte Schritt nach vorne in der Geschichte der Datenplattformen von Microsoft mit operativer Analyse in Echtzeit, umfangreichen Visualisierungen auf Mobilgeräten, integrierter Analyse, neuer erweiterter Sicherheitstechnologie und neuen Hybrid Cloud-Szenarien. SQL Server 2016 bietet starke innovative Funktionen mit massiver In-Memory-Leistungssteigerung und Echtzeitanalyse. Umfassende Sicherheitsfunktionen wie die neue Always Encrypted-Technologie helfen beim Schutz Ihrer Daten in Ruhe und in Bewegung. Erstklassige Lösungen für hohe Verfügbarkeit und Notfallwiederherstellung bieten neue Verbesserungen bei der AlwaysOn-Technologie. Organisationen erhalten detailliertere Erkenntnisse in alle Daten mit den neuen Funktionen, die über Business Intelligence hinausgehen und können eine erweiterte Analyse direkt in ihrer Datenbank durchführen und umfassende Visualisierungen für geschäftliche Erkenntnisse auf jedem Gerät darstellen. Sie können auch die Vorteile der elastischen Cloud mit den neuen Hybrid-Szenarien durch die neue Stretch-Datenbank-Technologie nutzen, mit der Sie Ihre warmen und kalten Transaktionsdaten in Microsoft Azure auf sichere Weise transparent auslagern, damit die Daten unabhängig von ihrer Größe stets für Abfragen zur Verfügung stehen. Zudem bietet SQL Server 2016 eine vollständige Datenbankplattform für Hybrid Cloud und ermöglicht das einfache Erstellen, Bereitstellen und Verwalten von lokalen und Cloud-Lösungen. In SQL Server 2016 werden die folgenden neuen Funktionen und Verbesserungen eingeführt: Die verbesserte In-Memory-Leistung bietet bis zu 30-fach schnellere Transaktionen sowie mehr als 100-fach schnellere Abfragen als herkömmliche relationale Datenbanken sowie betriebliche Analyse in Echtzeit Die neue Always Encrypted-Technologie hilft beim Schutz Ihrer Daten in Ruhe und in Bewegung, im Hauptspeicher und in der Cloud, mit Hauptschlüsseln in der Anwendung und ohne Anwendungsänderungen Seite 6 Die Stretch-Datenbank-Technologie bietet Ihnen mehr historische Daten Ihres Kunden durch das transparente Strecken der warmen und kalten OLTP-Daten in Microsoft Azure auf sichere Art – ohne Anwendungsänderungen Die integrierte erweiterte Analyse bietet die Vorteile der Skalierbarkeit und Leistung beim Erstellen und Ausführen von Analysealgorithmen in R direkt in der SQL ServerTransaktionsdatenbank Umfassende Erkenntnisse durch umfangreiche Visualisierungen auf Mobilgeräten mit nativen Apps für Windows, iOS und Android Vereinfachte Verwaltung relationaler und nicht relationaler Daten durch Abfragen mit T-SQL unter Verwendung von PolyBase Schnellere Hybrid-Backup-, Hochverfügbarkeits- und Notfallwiederherstellungsszenarien zum Sichern und Wiederherstellen Ihrer lokalen Datenbanken in Microsoft Azure und Platzieren der SQL Server AlwaysOn-Sekundärzonen in Azure Seite 7 Leistungsstärke für Ihre anspruchsvollsten Anwendungen mit SQL Server Wegen der dramatischen Verschiebung hin zu komplexen, unstrukturierten Datentypen, müssen Organisationen heutzutage Back-End-Lösungen nutzen, die alle Datenquellen umfassen und gleichzeitig hohe Verfügbarkeit und Funktionen für anspruchsvolle Szenarien bieten. IT-Organisationen müssen dieses höhere strategische Potenzial von Daten gegenüber dem Druck durch Globalisierung, konservativen Budgets sowie den in vielen Gebieten der Welt immer strengeren Transparenz-Richtlinien und -Anforderungen ausbalancieren. Das muss ihnen mit höheren Betriebszeiten und besserer Leistung gelingen; und mit einer gestaffelten Gefahrenabwehr, die bestmögliche Sicherheit bietet. Bei SQL Server 2016 zählen wir darauf, dank neuester Innovationen für viele der an der Leistung beteiligten Bestandteile bis an die Grenze der möglichen Leistung, Sicherheit, Verfügbarkeit und Skalierbarkeit zu gehen. Abbildung 1: Ein Überblick der neuen Funktionen von SQL Server 2016 Seite 8 Leistung Die Datenmenge steigt exponentiell, und die Fähigkeit heutiger Analysten und Business Intellligence-Tools, Erkenntnisse aus diesen Daten zu gewinnen, ist wichtiger als je zuvor. Moderne Datenbanktechnologien müssen den Vorteil dieser verstärkten Datenströme mit schnelleren, parallelen Prozessoren und großen Speicherreservoirs nutzen können, damit ein Unternehmen weiter wettbewerbsfähig bleibt. Bei SQL Server 2014 und dem kommenden SQL Server 2016 wird die Leistungssteigerung dank einer Reihe neuer Technologien erreicht, die unter anderem In-Memory, Abfragespeicher, JSON und Unterstützung von Zeitreihen umfassen. Die in SQL Server integrierten In-Memory-Tools gehen weit über isolierte Funktionen hinaus und unterstützen eine deutliche Leistungsverbesserung in vielen Szenarien. Diese Technologien umfassen In-Memory-OLTP, primär für transaktionale Abläufe, und In-Memory Columnstore, primär für Abläufe bei der Entscheidungsunterstützung (letzteres wird im Whitepaper „Deeper Insights“ besprochen). Mit der neuen Funktion zum Speichern von Abfragen können Sie Abfragepläne erstellen, um sie für bestimmte Anwendungsszenarien zu optimieren. Damit erhalten Sie weitere Möglichkeiten zur Leistungsanpassung. Die systemeigene JSON-Unterstützung im Kerndatenbankmodul ist eine weitere neue Funktion, die Unterstützung für die Arbeit mit schemafreien Daten in SQL Server bietet. Mit der neuen Datenbankfunktion für Zeitreihen können Sie Datenänderung über einen Zeitraum hinweg aufzeichnen, prüfen und abfragen. Lesen Sie weiter, und erfahren Sie mehr über diese neuen Möglichkeiten. In-Memory Online Transaction Processing (OLTP) SQL Server wurde entworfen, als Hauptspeicher noch sehr teuer war und Daten daher auf Datenträgern gespeichert wurden, solange sie nicht tatsächlich zur Verarbeitung erforderlich waren. Diese Voraussetzung gilt nicht mehr, denn der Preis für Speicher ist in den letzten 30 Jahren enorm gefallen. Gleichzeitig wurden Mehrkernserver erschwinglich und so kostet ein Server mit 32 Kernen und 1 TB Speicherplatz heute oftmals deutlich weniger als 50.000 USD. Wegen dieser Tendenz zu deutlich günstigerem Speicher und vielen Kernen, begann das SQL Server-Team bei Microsoft mit der Erstellung eines Datenbankmoduls, das für große Hauptspeicher und Vielkern-CPUs optimiert ist. Die Leistungssteigerung wird im Vergleich zur bisherigen datenträgerbasierten Speicherung unserer relationalen Daten durch Änderungen in den drei Hauptgebieten erreicht. 1. Datenstrukturen. Es wurden vollkommen neue Datenstrukturen für die Zeilen und Indizes von In-Memory-OLTP entworfen. Diese Strukturen wurden versionsübergreifend entworfen, sodass sie ohne Sperren aktualisiert werden können Seite 9 2. Kein Sperren, kein Verriegeln. Sperren sind eine der häufigsten Ursachen für lange Warte- und langsame Antwortzeiten in einem OLTP-System mit mehreren Benutzern. Die In-Memory-OLTPDatenstrukturen wurden so entworfen, dass sie bei Datenänderungsoperationen keine Sperren erfordern. Da die Daten nicht vom Datenträger in den Speicherpuffer gelesen und die Zeilen nicht auf Seiten gespeichert werden, sind bei der In-Memory-OLTP-Datenverarbeitung keine Seitenriegel notwendig 3. Systemeigene Kompilierung. Obwohl wir bei den Abfragen und Vorgängen in SQL Server von „Neukompilierung“ sprechen, wird der Code nicht wirklich kompiliert. Er wird in einen niedrigeren Code übersetzt, der interpretiert werden kann. Eine Kompilierung in Maschinencode erfolgt jedoch nicht. Bei der Ausführung normaler Vorgänge mit datenträgerbasierten Tabellen ist die zeilenweise Interpretation jedes einzelnen Vorgangs erforderlich. In-Memory-OLTP unterstützt allerdings systemeigen kompilierte Prozeduren, die auf speicheroptimierte Tabellen zugreifen können, die dann tatsächlich kompiliert und als DLLs geladen werden Diese große Änderung bei Datenspeicherung und -zugriff, zusammen mit vielen kleineren Änderungen, einschließlich effizienterer Schreibvorgänge bei Protokollen, ermöglichen die erstaunlichen Leistungssteigerungen bei SQL Server 2014 In-Memory-OLTP. 30-fache Leistungssteigerung Mit der In-Memory-Technologie für SQL Server werden Durchsatz und Latenz der SQL ServerOLTP-Funktionalität dramatisch verbessert. Sie wurde entworfen, um die Anforderungen selbst der anspruchvollsten Anwendungen für Transaktionsverarbeitung zu erfüllen und Microsoft arbeitete bei der Erfüllung dieser Ziele eng mit einer Reihe von Unternehmen zusammen. Dell erreichte eine neunmal schnellere Leistung. Das Beth Israel Deaconess Medical Center konnte die Abfragezeiten um 75 % verringern und die Datenspeicherung von 30 auf 90 Tage verdreifachen. Wir setzen unseren Entwurfsansatz von Workload-optimiertem In-Memory fort. Zudem ermöglichen wir Ihnen jetzt Echtzeiteinblicke in Betriebsdaten zur Erstellung eines Spaltenindexes der In-Memory oder auf Datenträgern gesicherten Zeilen. So erhalten Sie die einzigartige Kombination aus In-Memory-OLTP-Geschwindigkeit und Analysen in Echtzeit. Selbst, wenn Sie In-Memory nicht nutzen, erhalten Sie operative Erkenntnisse. Zudem können Sie unsere In-Memory-Technologie mit der Unterstützung für erweiterte T-SQL-Oberfläche auf mehr Anwendungen denn je anwenden. Bei SQL Server 2016 halten wir am Workload-optimierten Ansatz fest, denn Kunden möchten In-Memory nach Workload optimieren. Wenn es um In-Memory OLTP geht, können Sie diese angepasste Technologie jetzt für Transaktionsleistungen mit einer erweiterten T-SQL-Oberfläche auf einer bedeutend größeren Anzahl von Anwendungen nutzen. Zusätzlich zu 30-fachen Leistungssteigerungen können Sie jetzt Erkenntnisse in den Betrieb Ihrer Betriebsdaten in Echtzeit nehmen. Diese Daten können In-Memory oder auf einem Datenträger vorliegen. Verringerte Datenbankgröße und verbesserte Leistung: Datenund Sicherungskomprimierung Viele Organisationen möchten Geschwindigkeit und Zuverlässigkeit erhöhen, indem Sie mehr Daten auf spezielle Datenträger-Arrays oder ein SAN auslagern. Doch häufig ist dies aufgrund der Kosten solcher leistungsstarken Speichersysteme nicht möglich. Mit der Sicherungs- und Datenkomprimierung in SQL-Server kann Speicherplatz freigegeben werden, da die Größe der Datenbanken drastisch verringert Seite 10 werden. Eine verringerte Datengröße kann die Leistung steigern. Mit mehr Speicher können mehr Daten auf dem SAN gespeichert werden. Da das Speichern von Daten auf dem SAN zuverlässiger ist, wird so die Verfügbarkeit erhöht. Außerdem wird mit SQL Server Datenkomprimierung für Anwender möglich, die Unicode UCS-2 verwenden. Dank dieser Möglichkeit können Organisationen mit globalen Zeichensätzen in ihrem Datenspeicher den Vorteil der Datenkomprimierung nutzen und davon profitieren. Neu bei SQL Server 2016: Systemeigene JSON-Unterstützung JSON ist das von mehreren NoSQL-Modulen, einschließlich Azure DocumentDB, verwendete Speicherformat. DocumentDB nutzt Azure Blob-Speicher zum Speichern von schemalosen Dokumenten, bietet jedoch einen reichhaltigen SQL-Abfragedialekt, mit dem Sie SQL-Abfragen der im Dokument enthaltenen Daten durchführen können. Außer von DocumentDB wird JSON auch von Azure Search genutzt. Azure Search ist eine vollständig verwaltete Suchlösung, mit der Entwickler differenzierte Suchmöglichkeiten in webbasierten und mobilen Anwendungen integrieren können, ohne sich um die Komplexität einer Volltextsuche oder die Bereitstellung, Pflege oder Verwaltung einer Infrastruktur kümmern zu müssen. Dank der Kombination der neuen Unterstützung für JSON in SQL Server mit diesen weiteren MicrosoftTools können Daten auf unterschiedlichste Weise zwischen relationaler und schemaloser Speicherung und den auf solche Daten zugreifenden Anwendungen, verschoben werden. Wir haben die systemeigene JSON-Unterstützung zum Kerndatenbankmodul hinzugefügt, um Ihnen eine schemalose Datenunterstützung zum Behandeln unterschiedlicher Datentypen direkt in SQL-Server zu ermöglichen. Dank der ebenfalls hinzugefügten Unterstützung für temporäre Datenbanken können Sie Datenänderung über einen Zeitraum hinweg aufzeichnen, prüfen und abfragen. Sicherheit und Berichtspflichten Die Sicherheitslandschaft hat sich mit den Jahren dramatisch geändert, ohne an Bedeutung zu verlieren. Heute sehen sich Organisationen einer Flut von Geräten und Gerätetypen, verschiedenen Netzwerktechnologien sowie Daten gegenüber, die in einer Vielzahl von Formaten auf unterschiedlichen Plattformen gespeichert sind – auch in der Cloud. Wie schützen Sie Daten, die ständig in Bewegung sind? Wie stellen Sie zur richtigen Zeit den richtigen Personen den richtigen Zugriff bereit? SQL Server erhält in der aktuellen Version neue Funktionen wie „Always Encrypted“ und „Sicherheit auf Zeilenebene“ neue Möglichkeiten zum Schutz von Daten in Ruhe und in Bewegung. Mit weiteren neuen Funktionen wird die Sicherheit in einer Umgebung mit mehreren Instanzen verbessert; durch den differenzierten Zugriff auf Grundlage solcher Attribute wie Standort, Funktion und so weiter. Neue Funktionen bringen SQL Server auch im Jahr 2016 weiter voran, um die Art von genau angepasster, exakter Steuerung bereitzustellen, die Unternehmen heute benötigen. Seite 11 Standardmäßig sicher: Verringern der Verwundbarkeit Microsoft und das SQL Server-Team nehmen Sicherheit sehr ernst. Vor mehr als 10 Jahren implementierte Microsoft die Trustworthy Computing-Initiative. Für diese Initiative sind SQL ServerTechniker zu regelmäßigen Sicherheitsschulungen verpflichtet und sind unabhängig von ihrer Arbeitsgruppe in allen Bereichen ihrer Tätigkeit für die Sicherheit verantwortlich. Diese unternehmensweite Disziplin zum Schutz von Sicherheit und Privatsphäre wurde entwickelt, um Software zu erstellen, die schon im Entwurf sicher ist – und um die Gesamtrisiken bei der Sicherheit standardmäßig zu verringern. Gemäß dem Ausschuss für öffentliche Sicherheit des National Institute of Standards and Technology (NIST) weist SQL Server im Vergleich mit den wichtigsten Datenbankanbietern die geringste Anzahl von Sicherheitsrisiken auf. Zudem wurde SQL Server vom Information Technology Industry Council (ITIC) als „die sicherste Datenbank“ ausgezeichnet.2 Die Möglichkeit zur Datenverschlüsselung unabhängig vom Speicherort und bei Daten in Bewegung, ermöglicht jederzeit und überall einen Zugriff, bei dem sicherstellt ist, dass nur die richtige Person mit den richtigen Anmeldeinformationen die Daten lesen kann – das aber auf jedem Gerät nahezu überall in der Welt. SQL Server 2016 bietet eine Reihe von Verbesserung bei der Datenverschlüsselung, die sicherstellen, dass Daten sicher sind, unabhängig davon, wohin sie übertragen werden, und dennoch von Benutzern der dynamischen Geschäftsumgebungen von heute genutzt werden können. SQL Server wird 2016 die Art, in der vertrauliche Daten behandelt und geschützt werden, weiter verfeinern. Mit diesen Verbesserungen sollen Unternehmen agil und wettbewerbsfähig bleiben und gleichzeitig der Compliance der heutigen, undurchsichtigen Gesetzesanforderungen gerecht werden. Transparent Data Encryption Die TDE-Funktion (Transparent Data Encryption) von SQL Server ermöglicht Organisationen die Verschlüsselung von Daten, solange sie auf einem Datenträger gespeichert sind, sowie eine Entschlüsselung beim Einlesen in den Speicher. Bei TDE kommt ein Schlüssel zur Datenbankverschlüsselung (DEK) zum Einsatz, der zum Zweck der besseren Verfügbarkeit bei einer Wiederherstellung im Boot-Datensatz der Datenbank gespeichert ist. Bei DEK handelt es sich um einen symmetrischen Schlüssel, der unter Verwendung eines in der Master-Datenbank auf dem Server gespeicherten Zertifikats gesichert wird, oder um einen asymmetrischen Schlüssel, der von einem EKM-Modul geschützt wird. Einfach ausgedrückt, werden mit TDE gespeicherte Daten geschützt, also die Daten- und Protokolldateien. Damit können Softwareentwickler Daten mithilfe von AES- und 3DESVerschlüsselungsalgorithmen verschlüsseln, ohne vorhandene Anwendungen zu ändern. Ver- und Entschlüsselungsvorgänge werden vom Datenbankmodul im Hintergrund behandelt. So müssen Organisationen keine Änderungen an ihren Anwendungen vornehmen, damit SQL Server ihre Daten sichern kann. Aufgrund der im Datenbankmodul integrieren Verschlüsselung ist diese für Anwendungen und Benutzer transparent – und sie ist in SQL Server Enterprise Edition enthalten. 2 Information Technology Intelligence Corp. (ITIC), SQL Server bietet branchenführende Sicherheit, September 2012. Seite 12 Außerdem ermöglicht die erweiterbare Schlüsselverwaltung zusammen mit TDE eine Speicherung von Verschlüsselungsschlüsseln außerhalb der Datenbank. Mit der erweiterbaren Schlüsselverwaltung können Organisationen ein Hardwaregerät oder das Verschlüsselungs-Tool eines Drittanbieters zur Erstellung von Verschlüsselungsschlüsseln verwenden. Da der Schlüssel getrennt von den verschlüsselten Daten gespeichert wird, ist es für nicht autorisierte Benutzer noch schwieriger, Zugriff auf die verschlüsselten Daten zu erlangen. Sicherungen der mit TDE geschützten Datenbanken sind ebenfalls verschlüsselt. Verbesserungen bei SQL Server 2016: TDE unterstützt jetzt die Speicherung von speicheroptimierten OLTP-Tabellen. Damit werden größere Sicherheit und Leistungssteigerungen durch Speicheroptimierung erreicht. Dynamic Data Masking verringert die Risiken für vertrauliche Daten, indem sie für unberechtigte Benutzer maskiert werden. Mit dieser Funktion können Sie auf Tabellen- und Spaltenebene Richtlinien einrichten, die mehrere Masking-Funktionen erfüllen. Beispielsweise die Maskierung der ersten acht Stellen und Anzeigen der letzten vier Stellen einer ID oder Kreditkartennummer. Sobald die Richtlinien eingerichtet wurden, werden diese Masken bei Abfragen angewendet. Sie können bestimmten berechtigten Anmeldungen das Anzeigen der reinen Daten erlauben. Verschlüsselte Sicherungen Mit SQL Server können Daten während der Sicherungserstellung verschlüsselt werden. Indem Sie beim Erstellen der Sicherung der Verschlüsselungsalgorithmus und die Verschlüsselung (ein Zertifikat oder asymmetrischer Schlüssel) angeben, können Sie eine verschlüsselte Sicherungsdatei erstellen. Lokale und Microsoft Azure-Speicherstandorte werden unterstützt. Darüber hinaus können Verschlüsselungsoptionen für SQL Server Managed Backup bei Microsoft Azure-Vorgängen konfiguriert werden. Das ist eine neue in SQL Server 2014 eingeführte Funktion. Zum Verschlüsseln während der Sicherung müssen Sie einen Verschlüsselungsalgorithmus und eine Verschlüsselung angeben, um den Verschlüsselungsschlüssel zu sichern. Die folgenden Verschlüsselungsoptionen werden unterstützt: Verschlüsselungsalgorithmus: Die unterstützten Verschlüsselungsalgorithmen sind: AES 128, AES 192, AES 256 und Triple DES Verschlüsselung: Ein Zertifikat oder asymmetrischer Schlüssel Verbesserungen bei SQL Server 2016: Bei der verschlüsselten Sicherung wird jetzt auch Komprimierung unterstützt. 2016 neu: Always Encrypted In SQL Server 2016 werden einige Sicherheitsinnovationen eingeführt. Always Encrypted fügt eine einzigartige Funktion hinzu, mit der Sie Ihre Daten verschlüsseln können, während sie gespeichert sind oder übertragen werden, und die im verschlüsselten Zustand abgefragt werden können. Das ist für interne Compliance optimal, besonders bei gesetzlich geregelten Branchen oder bei der Behandlung besonders vertraulicher Daten, und ist mit minimalem Aufwand erreicht. Wir nennen diese Funktion „Transparent Queryable Encryption“. TDE verhindert keinen Zugriff auf die verschlüsselten Daten durch einen Sicherheitsadministrator oder DBA. Mit der neuen Always Encrypted-Funktion in SQL Server 2016 werden in einer SQL-Datenbank gespeicherte vertrauliche Daten vor DBAs und anderen nicht autorisierten Benutzern mit höherer Berechtigung geschützt. Bei Always Encrypted werden Daten in einem Always Encrypted-fähigen Seite 13 Clienttreiber auf transparente Weise verschlüsselt, bevor die verschlüsselten Daten zur Datenbank hochgeladen werden (die Daten werden vor der Rückgabe an die Anwendung wieder transparent entschlüsselt). SQL Server garantiert, dass die Daten und der dazugehörige Schlüssel niemals als Klartext auf dem Server angezeigt werden. Dennoch kann SQL Server Abfragen der verschlüsselten Daten durchführen. Always Encrypted ist die erste Datenplattformlösung im Markt mit abfragbarer Verschlüsselung. SQL Server 2016 unterstützt deterministische Verschlüsselung, mit der Gleichheitsprüfungen auf verschlüsselten Spalten möglich sind. Gleichheitsvorgänge umfassen Joins, „gruppieren nach“ und eindeutige Operatoren. Damit wird die Verschlüsselung von vertraulichen Daten wie Identifikationsoder Kreditkartennummern möglich, die in der Regel nur Teil von Suchvorgängen sind. Alle anderen Vorgänge werden bei der Ausführung auf verschlüsselten Spalten als nicht unterstützt fehlschlagen. Das bedeutet beispielsweise, dass in einer Anwendung eine SELECT-Anweisung für eine bestimmte Kreditkartennummer ausgeführt werden kann, ohne dass nicht autorisierte Benutzern diese angezeigt wird (auch keinen Benutzern mit SA-Anmeldedaten) (Abbildung 7). Abbildung 7: Abfragbare Verschlüsselung mit Always Encrypted Die Verwendung von Always Encrypted bei Clientanwendungen erfordert nur wenige Änderungen an Client oder Server. Dadurch liegen die Entwicklungskosten für die Nutzung dieser Vorteile dieser Funktion sehr niedrig. Allerdings wird ein Always Encrypted-fähiger Clienttreiber zwischen dem Client und der Datenbank benötigt. Ob Sie Always Encrypted für eine neue oder eine vorhandene Anwendung einrichten, die Implementierung mit SSMS oder SQL Server Data Tools (SSDT) ist einfach und wird von Tools unterstützt, mit denen der Vorgang so leicht wie möglich wird. Bei neuen Anwendungen wählen Sie die zu verschlüsselnde Spalte und die Einstellungen zur Verschlüsselung aus, richten mit dem Tool zum Einrichten des Schlüssels den CMK (Content Master Key) und den CEK (Content Encryption Key) ein und identifizieren mögliche Auswirkungen auf das Schema oder die Anwendungsabfragen mit dem Tool zur Schemaanalyse (nur bei SSDT). Seite 14 Bei vorhandenen Anwendungen ist für die Einrichtung die Verschlüsselung der (bisherigen) Klartextdaten in den ausgewählten Spalten erforderlich. Das ist auf zwei Arten möglich: 1. Das Erstellen neuer, verschlüsselter Spalten und das Kopieren der Daten aus den unverschlüsselten Spalten, bevor die alten Spalten mit den neuen im Schema getauscht und jegliche Unstimmigkeiten der alten Daten auf die neuen übertragen werden. Dieser Vorgang wird vom Verschlüsselungs-Tool unterstützt 2. Wenn Sie die Datenbank zu einem neuen Zielserver migrieren, können Sie das Verschlüsselungs-Tool zusammen mit der Funktion zum Importieren/Exportieren für die Migration der Daten in eine verschlüsselte Spalte verwenden 2016 neu: Sicherheit auf Zeilenebene SQL Server führt das Feld klar an, wenn es um die Sicherheit Ihrer unternehmenskritischen Anwendungen geht. Auch bieten wir, worum Sie schon lange gebeten haben: Sicherheit auf Zeilenebene. Sicherheit auf Spaltenebene bietet eine genaue Zugriffssteuerung für Spalten in einer Tabelle, die auf den von Ihnen festgelegten Bedingungen basiert. Mit RLS können Sie Daten für verschiedene Kunden, Abteilungen oder Anwender in der gleichen Tabelle speichern und dann den Zugriff auf Spalten basierend auf dem Kontext zur Ausführung einer Abfrage begrenzen. RLS funktioniert zur Abfragezeit transparent. Änderungen an der Anwendung sind nicht erforderlich. Es kommt eine zentralisierte Sicherheitslogik zum Einsatz, die sich in der Datenbank befindet und an die von ihr geschützte Tabelle schemagebunden ist. So wird größere Sicherheit erreicht. Die Implementierung von RLS in einer Datenbank kann die Wartung und Komplexität von Clientanwendungen deutlich verringern. In RLS erstellen Sie zunächst eine Prädikatsfunktion, in der Ihre Zugriffslogik verschachtelt ist. Das ist einfach eine benutzerdefinierte Inlinefunktion mit Tabellenwert zur Implementierung der Sicherheitslogik. Das kann so einfach oder so komplex sein, wie für Sie erforderlich, und es können so viele Tabellen referenziert werden, wie notwendig. Die Prädikatsfunktion filtert die Spalten, auf die ein gegebener Benutzer zugreifen kann. Stellen Sie sich zum Beispiel eine Funktion vor, mit der die Angestellten eines Krankenhauses nur dann auf die Spalten in einer Patiententabelle zugreifen können, wenn die Krankenhausabteilung, der ein Krankenhausmitarbeiter zugewiesen ist, und die Zeitpunkte, an denen er dort war, übereinstimmen. RLS ermöglicht dem Krankenhaus, eine Sicherheitsrichtlinie zu erstellen, bei denen Suchfunktionen an mindestens eine Tabelle gebunden werden. Sobald sie an die Tabelle gebunden sind, wird jeder Zugriff auf diese Tabelle durch die Sicherheitsrichtlinie geleitet. Ein Mitarbeiter, der Patienten abfragt, würde also nur die Patienten sehen, die während seiner Zeiten in seiner Abteilung stationiert waren. Integrierte Tools für Compliance: SQL Server-Prüfungstools Datenbanküberprüfung ist in SQL Server integriert, um eine Überprüfung zu erleichtern. Denn so ist sie kontinuierlich verfügbar und hilft Organisationen bei der Überprüfung von Datenbankaktivitäten, einschließlich Lesevorgängen auf der Datenbank; bei minimaler Auswirkung auf die Leistung. Da Compliance-Richtlinien immer strenger werden, können Organisationen integrierte Tools wie die Folgenden verwenden: SQL Server Audit (alle Editionen): Ermöglicht es Organisationen, die Vorteile von SQL Server Audit der Enterprise Edition auf alle SQL Server-Editionen auszuweiten. Diese Erweiterbarkeit erlaubt eine gründlichere Vorgehensweise bei der Prüfung auf allen SQL Server-Datenbanken und macht Standardisierung, höhere Leistung und reichhaltigere Funktionen möglich Seite 15 Benutzerdefinierte Prüfung: Ermöglicht einer Anwendung auf der mittleren Ebene, benutzerdefinierte Ereignisse in das Prüfungsprotokoll zu schreiben. Dadurch wird mehr Flexibilität zum Speichern der Prüfungsinformationen erreicht Überwachungsfilterung: Bietet eine größere Flexibilität bei der Filterung unerwünschter Ereignisse im Prüfungsprotokoll Überwachungsausfallsicherheit: Ermöglicht die Wiederherstellung von Überwachungsdaten bei Problemen mit temporären Dateien und dem Netzwerk, die sicherstellt, dass Überwachungsprotokolle beim einem Failover nicht verloren gehen Verfügbarkeit Die heutige Geschäftswelt reicht über geografische Grenzen und Zeitzonen hinweg. In dieser ganztägigen Umgebung sind Fenster für Ausfallzeiten nicht mehr akzeptabel. Einfach ausgedrückt, müssen die Apps der Unternehmen einfach ständig funktionieren. Die Verfügbarkeitsfunktionen von SQL Server werden stetig verfeinert, um unternehmenskritische Betriebszeiten, schnelle Failover, verbesserte Verwaltungsfähigkeit und eine bessere Nutzung der Hardwareressourcen bereitzustellen. SQL Server ist bereits für seine solide und zuverlässige Leistung bekannt und wird in den nächsten Monaten mit Funktionen ausgestattet, mit denen es zuverlässiger wird denn je. AlwaysOn wird mit jeder Version besser und leistungsstärker. Auch bei SQL Server 2016 werden bedeutende neue Verbesserungen bei AlwaysOn hinzugefügt. In SQL Server 2016 wird ein besserer Lastenausgleich implementiert. Es werden Kompatibilitätsprobleme bei DTC (Distributed Transaction Coordinator) und SSIS gelöst und neue Funktionen für eine flexible und effiziente Sicherung kommen hinzu. AlwaysOn Das in SQL Server 2012 eingeführte AlwaysOn maximiert die Verfügbarkeit einer Reihe von Benutzerdatenbanken für ein Unternehmen. In SQL Server 2014 werden diese Funktionen um eine integrierte und verbesserte Lösung für hohe Verfügbarkeit und Notfallwiederherstellung erweitert, die eine Redundanz innerhalb und über Datenzentren hinweg bereitstellen, um schnelle AnwendungsFailover bei geplanten und ungeplanten Ausfallzeiten zu ermöglichen. AlwaysOn stellt eine Reihe von Funktionen in einer einzigen Lösung bereit. Wir arbeiten weiter daran, AlwaysOn mit jeder Version besser und leistungsstärker werden zu lassen. Bei SQL Server 2016 hat diese leistungsstarke Funktion noch mehr zu bieten. Die nächste SQL ServerVersion wird bis zu drei synchrone Replikate sowie lesbare asynchrone Replikate unterstützen. Diese Replikate können sich in unterschiedlichen Domänen und entweder auf lokalen oder virtuellen AzureComputern befinden. Wir haben auch einen besseren Lastenausgleich der Replikate hinzugefügt, die eine Round-Robin-Methode nutzt. Der Distributed Transaction Coordinator ermöglicht die Synchronisation von Transaktionen über unterschiedliche Datenbanken hinweg. Dies ist vor allem für Kunden mit IBM, Oracle und SQL vorteilhaft, wenn sie beispielsweise Transaktionen in ihren bereitgestellten Systemen replizieren möchten. 2016 werden die hohe Verfügbarkeit und die Skalierbarkeit der Standard Edition verbessert. Wir fügen AlwaysOn-Basic für Failover bei zwei Knoten hinzu. Kern- und Speicherbeschränkungen entfallen. Allerdings sind alle der In-Memory- sowie der Sicherheitsfunktionen und der verbesserten Möglichkeiten für hohe Verfügbarkeit nur in der Enterprise Edition enthalten. Seite 16 Abbildung 8: Einheitliche Lösung für hohe Verfügbarkeit Die Verfügbarkeitsgruppen von SQL Server AlwaysOn stellen eine Lösung für hohe Verfügbarkeit und die Notfallwiederherstellung dar. Sie bietet eine Alternative zur Datenbankspiegelung auf Unternehmensebene. Verfügbarkeitsgruppen sind ein integrierter Optionssatz, der automatische und manuelle Failover einer Datenbankgruppe, Unterstützung für bis zu acht sekundäre Replikate, schnellere Failover für Anwendungen und automatische Seitenreparatur umfasst. Jede Verfügbarkeitsgruppe ist ein Container für einen diskreten Benutzerdatenbanksatz, die als Verfügbarkeitsdatenbanken bezeichnet werden, und bei denen ein Failover gemeinsam erfolgt. Eine Verfügbarkeitsgruppe kann über viele mögliche Failover-Ziele (sekundäre Replikate) verfügen. Darüber hinaus können Organisationen diese sekundären Replikate leicht für die Unterstützung von schreibgeschütztem Zugriff auf sekundäre Datenbanken und die Sicherung von sekundären Datenbanken konfigurieren. Durch Verfügbarkeitsgruppen wird freigegebener Speicherplatz auf Datenträgern wie SAN (Storage Area Netzwerk) oder NAS (Network Attached Sotrage) für die Bereitstellung einer Failover-Clusterinstanz unnötig. SQL Server AlwaysOnFailover-Clusterinstanzen verbessern das Failover-Clustering bei SQL Server und unterstützen websiteübergreifendes Clustering in Subnetzen, die Failover auf SQL Server-Instanzen über Datenbanken hinweg ermöglichen. Schnellere und vorhersehbare Failover von Instanzen ist ein weiterer Hauptvorteil, der eine schnellere Anwendungswiederherstellung ermöglicht. Dank der Unterstützung von Windows Server Cluster Shared Volumes wird die Verwendung und Verwaltung von SAN-Speicher bei AlwaysOn durch eine verbesserte Ausfallsicherheit bei Speicherfailover und die Vermeidung von Laufwerksbuchstaben in SAN verbessert. SQL Server AlwaysOn bei mehreren aktiven Sekundärreplikaten ermöglicht die Verwendung von bis zu acht sekundären Instanzen für die Ausführung von Berichtabfragen (um ein Vielfaches schneller als bei Replizierung) und Sicherungsoptionen, sogar bei Netzwerkfehlern. Diese sind bei der Neuzuweisung von Hardware im Leerlauf und bei der Verbesserung von Ressourcennutzung hilfreich. Zudem kann die Leistung der primären und sekundären Workloads drastisch verbessert werden, da Ressourcen nicht mehr aufgeteilt werden müssen. Seite 17 Der Verfügbarkeitsgruppen-Listener von SQL Server AlwaysOn ermöglicht schnellere Failover bei Clientverbindungen für AlwaysOn in Situationen, die mehrere Subnetze verwenden. Clientanwendungen können jetzt Failover bei mehreren Subnetzen (bis zu 64) erreichen, und das fast genauso schnell, wie bei einem Failover in einem einzelnen Subnetz. Inzwischen können Organisationen dank der Möglichkeit, die Verbindung aus der Anwendung heraus auf „schreibgeschützt“ (anstatt auf „lesen und schreiben“) festzulegen dazu nutzen, den Typ der auf den hoch verfügbaren Servern ausgeführten Workloads zu steuern, damit Ressourcen effizienter verwaltet werden können. SQL Server AlwaysOn zu Azure Virtual Machine ermöglicht es Organisationen, mithilfe des Assistenten zum Hinzufügen von Azure-Replikaten sekundäre Replikate in einem virtuellen Azure-Computer hinzuzufügen. Sie können diese Replikate dann für die Notfallwiederherstellung, die Berichterstellung und für Sicherungsvorgänge verwenden. Mit dieser Konfiguration können Kapitalausgaben verringert werden, da der Bedarf für den Erwerb zusätzlicher Hardware für sekundäre AlwaysOn-Replikate entfällt. Verbesserungen bei SQL Server 2016: Verbessertes AlwaysOn Für SQL Server 2016 wurde AlwaysOn hinsichtlich Skalierbarkeit und Verwaltbarkeit enorm verbessert. Für die Skalierbarkeit wird in SQL Server 2016 ein Lastenausgleich von lesbaren Sekundärreplikate hinzugefügt. Damit lässt sich mindestens eine Gruppe lesbarer Sekundärreplikate für den Lastenausgleich definieren. Verbindungen werden den Mitgliedern der Gruppe mit Round-Robin zugewiesen. Abbildung 9: AlwaysOn – lesbarer sekundärer Lastenausgleich In dieser Version wird zudem die Anzahl von automatischen Failover-Zielen von zwei auf drei erhöht. Letztlich wurde auch die Leistung des Protokolltransports verbessert. Mit In-Memory-OLTP und weiteren Technologien zur Beschleunigung von Datenbanken, wird die Pipeline für hohe Verfügbarkeit noch wichtiger. SQL Server 2016 bietet Verbesserungen in den Bereichen Durchsatz und Latenz. Seite 18 Die Verwaltungsfähigkeit wurde in einigen Bereichen von SQL Server 2016 ebenfalls verbessert. Unter anderem für DTC – registrierte Transaktionen für Datenbanken der Verfügbarkeitsgruppen. DTC-Ressourcen sind an die Datenbank und nicht an die Instanz gebunden. Dadurch sieht der DTC bei einem Failover die gleichen Ressourcen auf der neuen primären Replik und der Transaktionsausgang kann gelöst werden. Eine weitere verwaltungsfähige Verbesserung ist die Überwachung der Integrität auf Datenbankebene. In SQL Server 2014 wird bei der Überwachung der Verfügbarkeitsgruppenintegriät nur die Integrität der Instanz überwacht. Eine Datenbank kann offline oder beschädigt sein, doch so lange die Integrität der Instanz selbst gewahrt ist, wird SQL Server keinen Failover auslösen. SQL Server 2016 ermöglicht es Ihnen optional die Integritätsüberwachung zu ändern und dabei die Integrität der Datenbanken in der Verfügbarkeitsgruppe zu berücksichtigen. GMSA (Group Managed Service Accounts) stellen eine weitere Verbesserung der Verwaltungsfähigkeit dar. GMSAs sind Konten auf Domänenebene, die automatisch verwaltet werden. Diese gleichen dem Standarddienstkonto, liegen aber im Bereich einer Domäne. Damit ist die Festlegung von Berechtigungen für Netzwerkressourcen in den Instanzen der Verfügbarkeitsgruppen möglich, ohne dass ein Benutzerkonto erforderlich ist. Skalierbarkeit Ob Analysen auf großen Datasets durchgeführt werden oder eine Verkaufswebsite am Black Friday, die heutige Geschäftsumgebung erfordert Skalierbarkeit. Die Interaktion zwischen SQL Server und Windows Server ist ein Bereich, der zu großen Verbesserungen bei der Skalierbarkeit führen kann. SQL Server kann in vielen Bereichen einen Nutzen aus dem Funktionsumfang von Windows Server ziehen. Die Verbesserungen bei Servern, Speicher und Netzwerk haben alle einen direkten Einfluss auf unternehmenskritische SQL Server-Workloads. Mit SQL Server und Windows Server lässt sich die physische Verarbeitung jetzt auf bis zu 640 logische Prozessoren skalieren. Bei virtuellen Computern kann auf bis zu 64 logische Prozessoren skaliert werden. SQL Server optimiert Ressourcen auch mithilfe von Speicherplätzen und Netzwerk-Virtualisierung auf eine neue Weise. Eine Reihe anderer Tools und Techniken kann bei der Verbesserung der Skalierbarkeit ebenfalls hilfreich sein. SQL Server bietet zudem einige Verbesserungen, die das Einrichten einer Private Cloud deutlich vereinfachen. Außerdem ist SQL Server, wie unten beschrieben, in das Cloud Platform System von Microsoft integriert. Daraus ergeben sich neue Möglichkeiten für die rasche Skalierung einer Private Cloud. Columnstore Der In-Memory-Columnstore-Index ist Standard bei der Speicherung und Abfrage großer Data Warehousing-Faktentabellen. Dazu wird die spaltenbasierte Verarbeitung bei der Speicherung und Abfrage von Daten verwendet, um gegenüber der herkömmlichen zeilenorientierten Speicherung eine bis zu 10-fache Abfrageleistung in Ihrem Data Warehouse und eine bis zu 10-fache Komprimierung gegenüber der nicht komprimierten Datengröße zu erreichen. Dank dieses sehr hohen Niveaus bei der Datenkomprimierung können Ihre Kosten bei der Data Warehouse-Speicherung deutlich verringert werden. Dazu ermöglichen sie eine um eine Größenordnung bessere Leistung, als ein Seite 19 BTree-Index. Sie sind das bevorzugte Datenspeicherformat für Workloads bei Data Warehousing und Analyse. Ab dem SQL Server 2016 Community Technology Preview 2 (CTP2) können Sie Columnstore-Indexe für Analysen in Echtzeit auf Ihrem Betriebs-Workload verwenden. Deshalb sind Columnstore-Indexe so schnell: In den Spalten werden Werte aus der gleichen Domäne gespeichert. Üblicherweise haben diese ähnliche Werte. Das ermöglicht hohe Komprimierungsraten. Damit wird der E/A-Engpass in Ihrem System minimiert oder sogar eliminiert und gleichzeitig der Speicherbedarf deutlich verringert Hohe Komprimierungsraten verbessern die Abfrageleistung aufgrund des geringeren In-MemoryBedarfs. So kann die Abfrageleistung verbessert werden, da SQL Server mehr Abfragen und Datenvorgänge In-Memory durchführen kann Bei der Batchausführung wird die Abfrageleistung durch die gemeinsame Verarbeitung mehrerer Zeilen in der Regel um das 2- bis 4-fache verbessert Bei Abfragen werden häufig nur einige Spalten aus einer Tabelle ausgewählt. Dadurch wird die gesamte E/A vom physischen Medium verringert Die Cloud und unternehmenskritische Systeme Fraglos wird sich die Cloud durchsetzen und künftig eine zentrale Rolle im Betrieb von Organisationen spielen. Unternehmen verschieben immer mehr Daten in die Cloud und SQL Server entwickelt sich mit neuen Funktionen, um diese Verschiebung zu ermöglichen und Daten überall sicher zu verwahren. Neue Tools in SQL Server und Microsoft Azure erleichtern die Ausweitung in die Cloud, die Erstellung von Lösungen für Patches, Sicherung und Notfallwiederherstellung und den Zugriff auf alle Ressourcen – sowohl lokal als auch in der Private Cloud oder der Public Cloud. Diese Tools ermöglichen einen einfachen Einstieg in die Cloud für lokale SQL Server-Datenbanken, mit denen Kunden ihre vorhandenen Fähigkeiten nutzen können, um von den globalen MicrosoftRechenzentren zu profitieren. Das wird durch eine Architektur erreicht, die für Hybridlösungen entworfen wurde und gleichzeitig die Einfachheit bei üblichen Aufgaben wahren, sowie einen Satz konsistenter Tools bereitstellen soll, die sowohl lokal als auch in der Cloud auf ähnliche Wiese funktionieren. Herkömmliche Bare-Metal-Bereitstellung Trotz enormer Verbesserungen bei der Virtualisierungstechnologie in den letzten 10 Jahren bringt die Virtualisierung bestimmter Workloads nach wie vor deutliche Leistungseinbußen mit sich. Für große, komplexe und unternehmenskritische OLTP-Systeme (Online Transactional Processing) sind noch immer enorme, dedizierte Server erforderlich, bei denen das Betriebssystem und die Datenbankplattform direkt installiert sind. In solchen Situationen, in denen die Fähigkeit zur Skalierung wichtig ist und jedes Quäntchen zusätzlicher Leistung zählt, müssen Organisationen diese Möglichkeit für sich nutzen. Diese Situationen betreffen in der Regel Organisationen, die in den meisten Fällen die größtmögliche Leistung aus einigen der denkbar größten Servercomputer ziehen müssen. Infolgedessen wird für den Betrieb von Anwendungen in der Regel bestimmte Serverhardware abgestellt. Seite 20 Ein Hauptvorteil bei der Ausführung wichtiger dedizierter Hardwareressourcen liegt in der Vielzahl von Gelegenheiten für eine verbesserte physische Anpassung. Das bedeutendste Gebiet für eine Datenbankbereitstellung wie SQL Server ist die physische Konfiguration des Speichersubsystems. Die Möglichkeit physischer Anpassung geht Organisationen verloren, wenn sie auf eine reine Cloud-Umgebung wechseln. Hybrid-Lösungen Beim Konzept der Hybrid Cloud wurde erkannt, dass Organisationen in ihrem Unternehmen in der Regel ein Portfolio verschiedener Anwendungen und ein weites Umgebungsfeld mit einmaligen Anforderungen nutzen. Einige Anwendungen erfordern genaue und komplexe Hardwarekonfigurationen, sodass eine Bereitstellung in die von Cloudcomputing gebotene allumfassende Umgebung unmöglich wird. Gleichermaßen gibt es in vielen Geschäftsfeldern Workloads, die für große Public Clouds wie geschaffen sind. Es kann wirtschaftlich nicht sinnvoll sein, für Anwendungen, bei denen es zu enormen Spitzen und Tiefen bei der Nachfrage kommt, ausreichende Hardware zuzuweisen. Daher ist die Verfügbarkeit von cloudfähigen Datenbanksystemen entscheidend für den Erfolg von Unternehmen, die aus Cloudcomputing einen Nutzen ziehen möchten. Mit SQL Server kann Hybrid-IT besser genutzt werden. Sie ist für das von heutigen Organisationen umgesetzte Spektrum aus Bereitstellungsansätzen verfügbar (Abbildung 3). Abbildung 3: Moderne IT-Abteilungen können Geschäftsbedürfnisse durch eine Kombination aus lokaler und in der Cloud gehosteter Bereitstellung erfüllen Das Zielvon Microsoft für die Hybrid Cloud ist eine breite Auswahl an Möglichkeiten, wie und wo Organisationen ihre Anwendungen ausführen können. Gleichzeitig soll sichergestellt sein, dass sie einen gemeinsamen Satz von Serverprodukten, Tools und Erfahrung für ein Lösungsportfolio verwenden können (Abbildung 4). Seite 21 Abbildung 4: Jeder Ansatz bei der Datenbankbereitstellung birgt einmalige Vorteile und Herausforderungen. Organisationen verschieben Workloads immer stärker in die Cloud. Cloud-Bereitstellung: Public und Private Cloud Eine Private Cloud kann über alle Merkmale einer Public Cloud verfügen, sie muss es aber nicht. Bei vielen privaten Clouds wird beispielsweise kein vollständiger Buchführungsmechanismus für die Rückbelastung implementiert. Dennoch lassen Organisationen ihre Strategie für die Private Cloud reifen, und rücken an die von Privaten Clouds gebotenen Dienste und Dienststufen immer näher an die von Anbietern von Public Clouds heran. Gepoolte und virtualisierte Ressourcen Servervirtualisierung untermauert Private und Public Cloud-Umgebungen. Allerdings ist für einen cloudbasierten Ansatz mehr als nur die reine Virtualisierung von Workloads erforderlich. Viele lokale Virtualisierungsumgebungen haben spezifische Anwendungsziele. Obwohl die Umgebung virtualisiert wurde, muss die Anwendung auf bestimmten dedizierten Serverhosts ausgeführt werden. In einigen Fällen aus technischer Notwendigkeit, in anderen, weil eine bestimmte Abteilung diesen Knoten „besitzt“. Eine Cloud-Umgebung basiert auf dem Pooling von Hardwareressourcen und obwohl die Virtualisierung ein Schlüssel für die Möglichkeiten des Pooling ist, reicht dies allein nicht aus. Pooling ist der Mechanismus, mit dem Ressourcen aggregiert und dann als ein homogener Möglichkeitenpool verfügbar gemacht werden, mit dem jede Workload ausgeführt werden kann. Workloads, die in einer gepoolten Cloud-Umgebung ausgeführt werden, sind von der physischen Hardware, auf der sie bereitgestellt werden, nicht wahrnehmbar. Aufgrund der erforderlichen erhöhten Anpassung stellen die oben beschriebenen Tier-1-Workloads Pooling-Anti-Pattern dar. Eine SQL Server-Workload beispielsweise, die einen bestimmten Ansatz bei der physischen Anpassung und bestimmte Festplatten-Spindelentwürfe erfordert, könnte zwar virtualisiert werden, lässt sich aber nicht leicht für die Nutzung gepoolter Ressourcen umsetzen, da einmalige Ressourcenanforderungen erfüllt werden müssen, die von anderen Anwendungen wahrscheinlich nicht benötigt werden. Wenn Sie diese bestimmten Spindelkonfigurationen in einen Pool geben, werden diese wohl von keiner weiteren Person genutzt. Seite 22 Flexibilität Flexibilität bezieht sich auf die Fähigkeit der Cloud auf Bedarfsspitzen und -Einbrüche zu reagieren. Viele Geschäftsprozesse sind saisonaler Natur. Bei der jährlichen Heuernte beispielsweise greifen die meisten Bauern auf externe Auftragsnehmer zurück, die über die erforderlichen Maschinen verfügen, da es nicht wirtschaftlich ist, wenn die notwendigen großen Traktoren und die Heupresse eine Jahr lang ungenutzt bleiben. IT-Workloads sind ebenfalls sehr saisonal und doch werden die Computer, die für deren Unterstützung erforderlich sind, in der Regel in ausreichender Menge gekauft, um Spitzenlasten abzudecken und bleiben zwischenzeitlich ungenutzt. Das typische Beispiel eines saisonalen Workloads ist der Verkauf von Eintrittskarten für sportliche und kulturelle Ereignisse. Wenn ein großes Ereignis ansteht, kann die Anzahl von Kunden, die eine Eintrittskarte kaufen möchten, in vielen Fällen höher als das Angebot sein. In der Vergangenheit haben Kunden Nächte vor der Verkaufsstelle verbracht, um eine Karte zu erhalten. Online stattdessen schwärmen interessierte Besucher zum virtuellen Verkaufsstand, der daraufhin oftmals überfüllt ist. Da Cloud-Ressourcen häufig generisch und gepoolt sind, fällt eine Rechtfertigung für übermäßige Kapazität leicht. Cloud-Anbieter, öffentliche wie private, versuchen in der Regel einen Anteil ihrer Kapazität jederzeit verfügbar zu halten, um Spitzenzeiten abdecken zu können. Öffentliche Clouds sind hier eindeutig von Vorteil. Da Public Clouds auf großem Maßstab mit Tausenden von Kunden betrieben werden, die auf ihre gepoolten Ressourcen zugreifen, können sie erheblich mehr absoluten Spielraum wahren, als eine kleinere Private Cloud: Ein Prozent einer Cloud mit 100 Servern gestattet nur wenig Spielraum für Spitzen, wohingegen dies bei einem Prozent einer Cloud mit 10.000 Servern sehr wohl möglich ist. Flexibilität ist das Merkmal einer Cloud, das in einem privaten Datenzentrum am schwierigsten umzusetzen ist, da eine Organisation dazu ungenutzte Kapazitäten erfordert. Dennoch ist die Vermeidung von Leerlauf üblicherweise eine der Hauptrechtfertigungen für cloudbasierte Bereitstellungen. Bei einigen Workloads ist die Bereitstellung in einer Private Cloud nicht sinnvoll. Ein guter Test des Cloud-Kalibers ist die Frage: „Wie viel der in der Cloud bereitgestellten Kapazität übersteigt meinen erwarteten flexiblen Bedarf?“ Kapazität sollte in Größenordnungen und nicht nur als Mehrfaches gemessen werden. Wenn Sie davon ausgehen, dass sie bei einem Ausbruch Server im Zehnerbereich benötigen, sollten Sie nach einer Cloud suchen, die mindestens über Tausende von Knoten verfügt. Private Cloud Self-Service Self-Service im Cloud Computing greift zwei sich ergänzende Ziele auf. Erstens werden die Kosten für das Bereitstellen der Dienstleistung weiter gesenkt, indem die Arbeitskraft, die für gewöhnlich für die Bereitstellung von Ressourcen erforderlich ist, verringert oder eliminiert wird. Zweitens ist es eine Maßnahme, die Benutzern zugutekommt, da sie, sofern gut umgesetzt, Self-Service-Möglichkeiten bietet. Cloud-Kunden können auf Ressourcen direkt zugreifen. Es gibt keinen komplizierten Genehmigungsvorgang. Die Anfrage muss nicht erst zur Geschäftspriorität bei IT-Administratoren werden. In einer Cloud-Umgebung erhalten Benutzer delegierte Rechte zur Nutzung der Poolressourcen nach Bedarf. Damit wird sichergestellt, dass die Workloads der Benutzer keine anderen Workloads beeinflussen und dass Benutzer nur Ressourcen bis zu dem Kapazitätsniveau nutzen, für das sie berechtigt sind (oder im Fall einer Public Cloud, bis an die Grenze ihres Kreditlimits). Self-Service treibt die Flexibilität von Geschäften voran, indem sie Organisationen ermöglicht, Neues auszuprobieren Seite 23 und schnell neue Märkte zu erreichen. Ob in einer Private Cloud innerhalb eines Unternehmens oder außerhalb in Azure, Anwendungen können viel schneller von der Entwicklung zur Produktion gebracht werden, als bei anderen Bereitstellungsansätzen. Neu bei SQL Server 2016: Stretch-Datenbanken Daten wachsen ständig und schnell und Benutzer möchten in der Regel alle Daten, einschließlich abgeschlossener Geschäftsdaten (Archiv/kalt), aus vielen denkbaren Gründen erhalten. Zum Beispiel diesen: Gesetzliche Anforderungen (zum Beispiel Steuern) Überwachung (zum Beispiel Betrugsuntersuchung) Planung (zum Beispiel zum Vergleich vergangener Ergebnisse) Die Art des Geschäfts (zum Beispiel der Verlauf der Transaktionsdetails eines Wiederverkäufers) Unmöglichkeit mit Sicherheit festzustellen, was sicher gelöscht werden kann (zum Beispiel, worum eine Regierungsbehörde oder der Prüfer einer wichtigen Institution bitten wird) Bei herkömmlichen Archivlösungen handelt es sich in der Regel um Drittanbietersoftware, die vollständig andere Datenspeicher und Anwendungen für den Zugriff erfordern. Einige Archivlösungen hängen von Sicherungen oder Offlinespeicherung ab. Das ist möglicherweise bei einigen Umgebungen akzeptabel, aber viele Unternehmen möchten ihr Archiv dort speichern, wo die Daten generiert werden. Es soll zudem bei Bedarf mit derselben Anwendung zugreifbar sein, ohne dass darauf gewartet werden muss, dass die Daten wiederhergestellt oder online gestellt werden. Mit SQL Server 2016 Stretch Databases können Sie eine lokale Tabelle transparent zu Microsoft Azure strecken und so nahezu unendliche Kapazität mit niedriger TCO-Speicherung erreichen. Anwendungen funktionieren ohne Änderungen im Code weiter. Bereits vorhandene Fertigkeiten und Prozesse von Datenbankadministratoren (DBA) bleiben relevant und Entwickler können aktuelle Tools und APIs weiterhin nutzen. Bei Stretch Databases fallen die Komplexität und die Kosten nicht an, zu denen es bei der Verwaltung externer Archivierung und Hardware kommt. Stretch Databases ist eine einmalige Funktion, mit der diese üblichen Probleme gelöst werden. Stretch Databases kann dabei helfen, Daten bei Bedarf selektiv in die Cloud zu migrieren. Die Funktion kann auch dabei helfen, vorhandene Anwendungen zu verbessern und DBA-Aufgaben bei größeren Datenbanken zu erleichtern. Mit der Stretch Databases-Funktion werden ausgewählte Daten vom lokalen SQL Server in die Cloud migriert. Seite 24 Always Encrypted Always Encrypted fügt eine einzigartige Funktion hinzu, mit der Sie Ihre Daten verschlüsseln können, während sie gespeichert sind oder übertragen werden, und die im verschlüsselten Zustand abgefragt werden können. Das ist für interne Compliance optimal, besonders bei gesetzlich geregelten Branchen oder bei der Behandlung besonders vertraulicher Daten, und ist mit minimalem Aufwand erreicht. Die neue Always Encrypted-Funktion in SQL Server 2016 schützt vertrauliche Daten, die in einer SQL-Datenbank und in der Cloud gespeichert sind. Bei Always Encrypted werden Daten in einem Always Encrypted-fähigen Clienttreiber auf transparente Weise verschlüsselt, bevor die verschlüsselten Daten zur Datenbank hochgeladen werden (die Daten werden vor der Rückgabe an die Anwendung wieder transparent entschlüsselt). SQL Server garantiert, dass die Daten und der dazugehörige Schlüssel niemals als Klartext auf dem Server angezeigt werden. Dennoch kann SQL Server Abfragen der verschlüsselten Daten durchführen. Always Encrypted ist die erste Datenplattformlösung im Markt mit abfragbarer Verschlüsselung. SQL Server 2016 unterstützt deterministische Verschlüsselung, mit der Gleichheitsprüfungen auf verschlüsselten Spalten möglich sind. Damit wird die Verschlüsselung von vertraulichen Daten wie Identifikations- oder Kreditkartennummern möglich, die in der Regel nur Teil von Suchvorgängen sind. Transparent Data Encryption (TDE) wird bei gespeicherten, übertragenen und verwendeten Daten genutzt, indem einzelne Spalten in einer Tabelle selektiv mit Schlüsseln verschlüsselt werden, die niemals an das Datenbanksystem oder den Cloud-Dienstanbieter gegeben werden. Seite 25 Vergleichen der Kosten unternehmenskritischer Funktionen In einer Technologielandschaft, in der Organisationen erwarten, dass Anbieter die Bedeutung von unternehmenskritisch intuitiv kennen sowie leichte und kosteneffiziente Lösungen bereitstellen, beantwortet Microsoft diese Erwartungen mit Tools und Funktionen für Unternehmen, die in die Datenbanktechnologie integriert sind, ohne dass teure Add-Ons gekauft werden müssen. SQL Server stellt diese unternehmenskritischen Möglichkeiten für Organisationen bereit, damit diese in einer dynamischen digitalen Welt wettbewerbsfähig bleiben. Die in diesem Schriftstück besprochenen Funktionen sind alle in der SQL Server Enterprise Edition enthalten, und es sind keine teuren Optionen erforderlich, um eine vollständige und moderne Datenbanklösung bereitzustellen. Erwarten der Grundlagen Viele traditionelle Anbieter liefern in ihren Premium-Versionen nur begrenzte Funktionalität und unternehmenskritische Anforderungen werden nur durch zusätzliche Optionen oder Funktionspakete zugänglich. Beispiele zusätzlicher Optionen sind Sicherheitsfunktionen, und Funktionen für hohe Verfügbarkeit, Leistung und räumliche Fähigkeiten. Doch Organisationen haben sich entwickelt. Die Bereitstellung von Sicherheitsfunktionen in Unternehmensqualität wie Verfügbarkeit, Leistung oder Unterstützung für komplexe Datentypen, um nur einige zu nennen, ist für Anbieter nicht mehr optional. Genauso, wie die Käufer eines Hauses erwarten, dass Dach, Fenster und Türen vorhanden sind, kann eine Organisation bei einer Datenbank für Unternehmen integrierte Verfügbarkeits-, Leistungsund Sicherheitsfunktionen erwarten. In Abbildung 11 ist der Unterschied zwischen zwei ähnlichen Datenbanklösungen zu sehen: Microsoft SQL Server und Oracle Database; inklusive der Auswirkung auf das Budget bei Hinzufügen von Optionen für einen ähnlichen Endzustand. Abbildung 11: Vergleich von SQL Server und Oracle Database Seite 26 Verstehen von Optionen Tabelle 1 hebt die Optionen hervor, die von wichtigen Anbietern von Datenbankverwaltungssystemen (DBMS) erfüllt werden müssen, um unternehmenskritischen Bedürfnissen moderner Organisationen gerecht zu werden. Was als optional galt, wird nun häufig von Organisationen benötigt, um die neuen Standards bei unternehmenskritischen Operationen zu erfüllen. Es ist leicht erkennbar, wie das Hinzufügen von Optionen oder Funktionspaketen zum Erreichen einer unternehmenskritischen Bereitschaft die Gesamtkosten einer Datenbank in die Höhe schnellen lassen. Tabelle 1: Vergleich der unternehmenskritischen Lösungen von Microsoft und Oracle Microsoft SQL Server Enterprise EditionBasislizenz (einschließlich 1 Jahr Support) Oracle-Datenbank (nicht alle Optionen werden angezeigt) 27,496 USD 95,000 USD Datenverfügbarkeit Enthalten 11.500 USD (Active Data Guard) Gesamt: 23.000 USD Leistung und Skalierbarkeit Enthalten 11.500 USD (Erweiterte Komprimierung) 23.000 USD (Datenbank In-Memory) 11.500 USD (Partitioning) 11.500 USD (Echte Anwendungstests) 7.500 USD (Diagnosepaket) 5.000 USD (Anpassungspaket) Gesamt: 140.000 USD Unternehmenssicherheit Enthalten Kostenloser Download 15.000 USD (Erweiterte Sicherheit) 11.500 USD (Bezeichnungssicherheit) Gesamt: 53.000 USD Alle Daten integriert Enthalten 17.500 USD (Räumlichkeit & Diagramm) Gesamt: 35.000 USD Gesamtkosten 27,496 USD 346,000 USD Hinweis Die Preise von Microsoft sind geschätzte Verkaufspreise des Handels. Alle Preise von Microsoft und Oracle verstehen sich als Pro-Prozessor-Datenbankpreise (auf Grundlage eines Quad-Core Intel Xenon-Prozessors) bei Kauf innerhalb der Vereinigten Staaten und sind in US-Dollar angegeben. Die Preise basieren auf Informationen von Anbieterwebsites. Die Preise von Oracle wurden der weltweiten Oracle Technology-Preisliste vom 9. April 2015 entnommen. Zusätzlich zu unternehmenskritischen Funktionen umfasst SQL Server Enterprise eine Reihe weiterer Funktionen zur Datenintegration, Datenverwaltung, Data Warehouse, Datenbereinigung und End-To-End-Business Intelligence. Laut Gartners Magic Quadrant für Data Warehouse und Datenverwaltungslösungen für Analytics3 ist Microsoft bei Data Warehouse-Plattformen für Unternehmen dank solcher Produktinnovationen wie der In-Memory-Columnstore-Technologie führend. Darüber hinaus ist4 Microsoft laut Gartner Magic Quadrant für Business Intelligence- und Analytics-Plattformen führend bei der Unterstützung von Organisationen hinsichtlich breitgefächertem Endkundenverständnis und Produktivität sowie IT-Überwachung durch verwaltete Tools für Self-Service Business Intelligence, 3 4 Gartner, Magic Quadrant für Data Warehouse und Datenverwaltungslösungen für Analytics, Februar 2015 Gartner, Magic Quadrant für Business Intelligence und Analytics-Plattformen, Februar 2015 Seite 27 die eigenständig und innerhalb von Microsoft SharePoint funktionieren. SQL Server bietet Zugriff auf diese branchenführenden Funktionen für Business Intelligence ohne teure Add-Ons. Bei SQL Server sind die Business Intelligence-Tools in der Basis-Enterprise-Lizenz enthalten und auch in der neuen Business Intellligence-Version verfügbar. Organisationen können auf diese Weise durch diese bereits enthaltene Tools für die Integration, Verwaltung und Bereinigung von Daten Kosteneinsparungen erreichen. Diese Tools ermöglichen Datenqualitäts-Managern, die leichte Bereinigung und die Verwaltung von Daten mit SQL Server Integration Services, Master Data-Verwaltung und Data Quality Services. Ähnliche Tools für Business Intelligence und Datenverwaltung können bei anderen Anbietern mehrere Hunderttausend US-Dollar zusätzlicher Kosten verursachen. Schlussfolgerung SQL Server bietet mit der Möglichkeit für unternehmenskritische Vorgänge einen neuen Standard, aufgrund der in die Lösung integrierten Verfügbarkeits-, Leistungs- und Sicherheitsfunktionen auf Unternehmensniveau. Integrierte Lösungen für hohe Verfügbarkeit ermöglichen schnellere Failover und zuverlässigere Sicherungen. Sie sind leichter zu konfigurieren, zu warten und zu überwachen. So können Organisationen die Gesamtbetriebskosten (TCO) verringern. SQL Server bietet zudem unternehmenskritische Leistung und Größe bei vorhersagbarer Leistung bei Serveraktivitäten einschließlich komplexer Abfragen, Datenintegration und -analyse. Da SQL Server für Sicherheitsstandards entworfen wurde, verfügt es über eine minimale Gesamtoberfläche und Datenbanksoftware, die von Natur aus sicherer ist. Eine verbesserte Sicherheit verbunden mit integrierten leicht zu nutzenden Tools und gesteuertem Datenzugriff ermöglicht Organisationen die Einhaltung strenger Compliance-Richtlinien. SQL Server unterstützt komplexe Datentypen und neuartige Datenquellen, die mit der selben Sorgfalt behandelt werden. Dadurch erfahren Organisationen eine nahtlose Unterstützung für eine Reihe von Plattformen und heterogene Umgebungen. Schließlich bietet SQL Server unternehmenskritische Funktionen für niedrige Gesamtbetriebskosten, dank vollwertiger Unternehmensfunktionalität, die in die Lösung integriert und nicht als teure Add-Ons angeboten wird. Letztlich können sich Organisationen auf eine umfassende, integrierte Lösung verlassen, bei der die Kosten eingegrenzt, Compliance-Anforderungen verwaltet und gleichzeitig der Bedarf einer sich entwickelnden digitalen Welt erfüllt werden. Weitere Informationen Weitere Informationen über die in diesem White Paper besprochenen Themen finden Sie auf der SQL Server-Website unter http://www.microsoft.com/en-us/server-cloud/products/sql-server-2016/. Seite 28