W H I T E PA P E R Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse CONTENTS Kurzbeschreibung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Deduplizierung mit fester Blocklänge vs. variabler Blocklänge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Testkonfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Methodik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Beobachtungen, Resultate und Kommentar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Unstrukturierte Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Halbstrukturierte Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Strukturierte Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Vorhaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .8 2 WHITE PAPER | Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse KURZBESCHREIBUNG Das Problem: Deduplizierung ist für viele IT-Einkäufer zu einem Auswahlkriterium geworden, sodass praktisch jeder Hersteller von Speicherprodukten etwas in seine Systeme einbindet, das er Deduplizierung nennt. Dabei handelt es sich bei der Deduplizierung um eine Technik und keine eigene Technologie. Es gibt eine Reihe von Deduplizierungsverfahren, deren Effektivität jedoch stark variiert. Sinn und Zweck der Deduplizierung besteht in der Senkung von Kosten, und je effektiver die Datenreduktion, desto geringer die Gesamtbetriebskosten (TCO). Da hilft es wenig, dass mancher Anbieter beim Versuch, eindrucksvolle Zahlen für seine Datenblätter zu generieren, viel Kreativität in den Messverfahren walten lässt, und Branchenanalysten direkte Eins-zuEins-Produktvergleiche meiden. Der Medienhype der Hersteller, Marketingkampagnen, die Konkurrenten gezielt bekämpfen, und der Mangel an wirklich aussagekräftigen Informationen erschweren die Suche nach einem Deduplizierungsprodukt, das dem jeweiligem Bedarf und Budget optimal entspricht. Das Ziel: Der Grad der Datenreduzierung sollte bei der Beurteilung verschiedener Deduplizierungsprodukte nicht das einzige Vergleichskriterium sein, als einzelner Faktor hat er jedoch den größten Einfluss auf den TCO. Er wirkt sich direkt auf Speicherkapazität, Netzwerkbandbreite (bei der Replikation), Stromverbrauch, Kühlung und Stellfläche aus und ist sogar ein Ausschlusskriterium in den SLAs für einen DR-Schutz. Deduplizierungsverfahren lassen sich grob in zwei Kategorien einteilen: Deduplizierung mit Datenblöcken fester Länge und mit Datenblöcken variabler Länge. Ziel dieses Dokuments ist es, die grundlegenden Unterschiede zwischen beiden Ansätzen, die anhand einfacher Tests mit realen Daten ermittelt wurden, zu demonstrieren. Notwendigerweise kamen in diesen Tests spezifische Hardware- und Softwareprodukte zum Einsatz. Jedoch lassen sich die Ergebnisse auf alle Produkte, die Deduplizierung mit Datenblöcken fixer bzw. variabler Länge einsetzen, übertragen. Darüber hinaus werden weitere Hintergrundfakten beleuchtet, Begriffe definiert, Methoden beschrieben und die Ergebnisse der Tests vorgestellt und erläutert. Fazit: Die Testergebnisse zeigen, dass sich Daten mit Deduplizierung basierend auf variabler Blocklänge weitaus effektiver reduzieren lassen als mit fester Blocklänge. Deduplizierung mit variabler Blocklänge ist mindestens um das Zwei- bis Dreifache effizienter, bei längeren Vorhaltungszeiten und bestimmten Datentypen wird der Abstand weitaus größer. Ein Dreifaches klingt vielleicht nicht sonderlich bemerkenswert, bedeutet aber, dass eine Lösung mit fester Blocklänge auch das Dreifache an Speicher, die dreifache Netzwerkbandbreite zur Replizierung, mehr Strom, Kühlung und Stellplatz als eine Lösung mit variablen Blöckgrössen benötigt. Diese Divergenz kann sogar den Unterschied ausmachen, ob Service Level Agreements (SLAs) für den DR-Schutz eingehalten werden oder nicht. DEDUPLIZIERUNG MIT FESTER BLOCKLÄNGE VS. VARIABLER BLOCKLÄNGE Deduplizierung mit fester Länge bricht den eingehenden Datenfluss in Abschnitte bzw. Blöcke identischer Länge auf. Die Blöcke werden verglichen, und nur die neuen, bisher unbekannten Blöcke werden nach der Komprimierung auf Disk gespeichert. Duplikate werden verworfen. Dabei wird ein System von Verweisen verwendet, um die eingespeisten Daten dem Pool bisher unbekannter (oder einmaliger) Blöcke zuzuordnen. Einige Verfahren lassen dem Administrator die Wahl der Blockgröße und nennen dies dann „variabel“. Die festgelegte Länge wird dann allerdings wieder für alle Daten verwendet. Jedoch hat die Möglichkeit, die Blocklänge manuell zu ändern, nichts mit einer Deduplizierung mit variabler Blöcklänge zu tun. Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse | WHITE PAPER 3 Bei der echten Deduplizierung mit variabler Blöcklänge ist die Blocklänge nicht auf eine Standardgröße festgelegt. Stattdessen teilt ein Algorithmus die Daten anhand „natürlicher Grenzen“ in den Daten. Automatisch und in Echtzeit werden so Datenblöcke gebildet, deren Länge je nach Art der eingehenden Daten variiert. Die neuen, noch nicht vorhandenen Datenblöcke werden komprimiert und auf Festplatte gespeichert. Pointer (Verweise) dienen der Zuordnung der eingespeisten Daten zu den einmaligen Blöcken. Was geschieht bei Änderungen an den Daten? Bei Methoden mit Datenblöcken fixer Größe verschieben sich sämtliche Datenblöcke nach der ersten Änderung, sofern die Änderung an der Datei nicht exakt ein Mehrfaches der festgelegten Blockgröße beträgt. Durch diese Änderung verschieben sich die Inhalte aller Datenblöcke in Bezug auf ihre festen Blockgrenzen, sodass der Algorithmus die nachfolgenden, eigentlich unveränderten Daten nicht mehr als bereits vorhanden erkennt. Algorithmen, die mit variablen Blockgrößen arbeiten, unterteilen die Daten anhand ihrer Charakteristika in variable Blöcke und nicht anhand einer willkürlichen Blockgröße. Dies macht die Blöcke flexibler bei Datenänderungen. Ausschließlich neue oder geänderte Daten werden gespeichert; die Einmaligkeit der restlichen Datei ist somit nicht davon betroffen. Abb. 1 Beispiel für fixe vs. variable Deduplizierung N O W N I H I O W S T E T ME S N O W S N I T H T I O W S E ME I S T H E Feste Länge I S T I ME N I T T T H E ALLE Blöcke ändern sich Nehmen Sie einen Satz, teilen Sie ihn in Blöcke... O W S H E I ME T I ME S I T T N O W S H E I ME Variable Länge Fügen Sie nun einen Buchstaben hinzu...... EIN Block ändert sich TESTKONFIGURATION Im Test wurde die Deduplizierungsleistung von drei Produkten verglichen: • DXi6900-Appliance von Quantum mit Quantums patentierter Deduplizierung mit variablen Datenblöcken • NetBackup 5200-Appliance von Symantec mit Deduplizierung von Datenblöcken fester Länge • CommVault Simpana 10, ebenfalls mit Deduplizierung fester Datenblöcke Bei allen Tests kamen dieselbe Hardware, Software und dieselben Daten zum Einsatz. Die Quelldaten lagen direkt auf dem Data Mover-Server. Die Backups wurden auf ein DXi®-System oder die NetBackup 5200-Appliance gespielt. Beim Simpana-Deduplizierungstest wurden die Daten auf eine NFS-Disk-Share geschrieben. Die NFS-Share wurde auf einer DXi konfiguriert, auf der jedoch die Deduplizierungs- und Kompressionsfunktionen deaktiviert waren. Als Ziel hätte jede Festplatte genutzt werden können, die DXi bot jedoch den Vorteil, dass die standardmäßig enthaltene Advanced Reporting-Funktion zur Auswertung der Ergebnisse genutzt werden konnte. Bei der NBU 5200 wurden die Statistiken von der entsprechenden Schnittstelle des Geräts entnommen. Bei den DXi- und NetBackup 5200-Tests wurde Symantec NetBackup 7.6 als Data Mover verwendet. 4 WHITE PAPER | Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse DATEN Es ist einfach, ein Deduplizierungssystem brillieren zu lassen, wenn im Test nur künstlich generierte, hochgradig redundante Daten einspeist werden – doch solche Tests haben mit der Praxis nichts zu tun. Im Gegensatz zu den meisten anderen Anbietern verwendet Quantum zum Testen der DXi eine Testumgebung aus reellen Daten, die von der IT-Abteilung von Quantum gestellt werden. Diese Testdaten bestehen aus einer chronologischen Sequenz von Images dreier Datensätze. Unstrukturierte (User-Home-Verzeichnisse), halbstrukturierte (E-Mail) und strukturierte (Datenbank) Datentypen stellen Deduplizierungssysteme vor verschiedene Herausforderungen. Erst ein Test mit allen drei Datentypen liefert ein vollständiges Bild davon, wie sich ein System in einer typischen Unternehmensumgebung bewährt. Die Resultate der Deduplizierung hängen bis einem bestimmten Punkt von den verwendeten Daten ab. Die Unterschiede, die sich zwischen der Deduplizierung fester und variabler Datenblöcke feststellen lassen, sind allgemein anwendbar. METHODIK Die folgende Prozedur wurde für alle drei Datentypen nacheinander auf den Deduplizierungssystemen ausgeführt: • Sicherung der ältesten Version der Daten, Erfassung der Menge an einmaligen Daten, die auf Disk gespeichert werden • Sicherung der nächstälteren Version der Daten, Erfassung der Menge an neuen einmaligen Daten, die auf Disk gespeichert werden • Fortsetzung für jede neuere Version der Daten in Serie sowie grafische Abbildung der Resultate Diese Methodik bildet die Abfolge des Backups aller drei Datentypen exakt nach. Änderungen werden der Reihe nach an bestimmten Zeitpunkten erfasst. Jedes Deduplizierungssystem wurde mit denselben Daten in derselben Abfolge getestet. Es gibt verschiedene Arten, Deduplizierung zu messen – beispielsweise als Verhältnis oder Prozentsatz der eingesparten Kapazität auf Festplatte – doch sie lassen sich alle auf denselben Faktor reduzieren: den Bedarf an Festplatte und Bandbreite. Je effektiver die Deduplizierung, desto weniger Festplattenkapazität wird für die Datenspeicherung benötigt. Entsprechend sinkt auch der Bedarf an WAN-Bandbreite für die DR-Replikation. Denken Sie beim Betrachten der Grafik daran, dass niedriger gleich besser ist, d. h. es wurde weniger Disk-Kapazität verbraucht. BEOBACHTUNGEN, RESULTATE UND KOMMENTAR Deduplizierung, Kompression und Gesamt-Datenreduktion: Identifiziert ein Deduplizierungssystem einen einmaligen Datenblock, wird dieser erst komprimiert und dann auf Festplatte gespeichert. Somit ist die verzeichnete gesamte Datenreduktion das Ergebnis von Deduplizierung und Kompression. Erhält man eine „10:1-Reduktion“, könnte dies das Ergebnis einer 5:1-Deduplizierung in Kombination mit einer 2:1-Kompression sein. Normalerweise komprimieren Kompressionsverfahren, die bei der Datenspeicherung verwendet werden, die Daten in einem Verhältnis von ca. 2:1, je nach Typ. Die nachfolgende Grafik enthält eine Linie für die hypothetische 2:1-Kompression. Diese Linie zeigt die gespeicherte Datenmenge, wenn die Quelldaten nur im 2:1-Verhältnis komprimiert würden, wie z. B. auf LTO-Tapes. Ihre Position bietet einen Referenzpunkt für die Gesamteffektivität der Deduplikationssysteme gegenüber einfacher Kompression. Der Verlauf der Linien kann einen Hinweis darauf geben, zu welchen Teilen die Gesamtreduktion eines Systems auf Kompression oder auf Deduplizierung zurückzuführen ist. Folgt die Linie eines Systems dem Verlauf der Referenzlinie, bedeutet dies, dass ein erheblicher Anteil der Reduktion auf einfache Kompression und nicht auf Deduplizierung zurückzuführen ist. Von den drei getesteten Systemen bietet nur das DXi-System eine Reporting-Funktion, die explizit aufzeigt, welchen Anteil Kompression und Deduplizierung an der Gesamtreduktion haben. Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse | WHITE PAPER 5 UNSTRUKTURIERTE DATEN In der typischen Unternehmensumgebung liegt ein großer, häufig sogar überwiegender Anteil der Daten in unstrukturierter Form vor. Branchenstudien zufolge sind unstrukturierte Daten der bei weitem am schnellsten wachsende Datentyp in den meisten Unternehmen. Abb. 2: Unstrukturierte Daten, 48 aufeinander folgende Backups GB Unique Data Stored (Less is Better) CV, NBU, DXi vs. 2:1 Compression - Unstructured Simpana 10 Fixed-block NetBackup 5200 Fixed-block 2:1 Compression DXi Variable-block DXi consumes 67% less disk Lower = Better: Less Capacity Consumed Backups • Ergebnis: DXi-Deduplizierung mit variabler Blocklänge findet deutlich mehr Redundanzen in den Daten als Systeme mit Datenblöcken fester Länge. -- Simpana belegt 3-mal so viel Kapazität wie die DXi -- NetBackup 5200 belegt 2,75-mal so viel Kapazität wie die DXi • Ergebnis: Die Linien des Simpana- und des NetBackup-Systems liegen beide nah an der 2:1-Linie. Dies bedeutet, dass ein Großteil der Reduktion beider Produkte (die mit festen Blocklängen arbeiten), auf der Kompression und nicht auf der Deduplizierung beruht. Die DXiTechnologie mit variabler Blocklänge arbeitet eindeutig auf grundlegend andere Weise, da die DXi-Linie nicht wie die anderen Produkte der 2:1-Linie ähnelt. HALBSTRUKTURIERTE DATEN E-Mail ist das klassische Beispiel für halbstrukturierte Daten. Jedes Unternehmen braucht E-Mail und andere Formen der Nachrichtenübermittlung. Doch solange diese Dienste nicht an einen externen Anbieter ausgelagert werden, muss die hauseigene IT die entsprechenden Daten sichern und vorhalten, um einer Vielzahl an Backup-, DR- und Compliance-Anforderungen gerecht zu werden. Messagingsysteme generieren immer größere Datenmengen, doch werden oft spezialisierte Archivierungslösungen eingesetzt, die den sicherungswürdigen Teil dieser Daten deutlich reduzieren. Abb. 3: Semistrukturierte Daten, 18 Backups in Folge – für eine Hochrechnung auf 60 Tage siehe Abschnitt „Vorhaltung“ weiter unten. GB Unique Data Stored (Less is Better) CV, NBU, DXi vs. 2:1 Compression - Semi-structured Simpana 10 Fixed-block NetBackup 5200 Fixed-block 2:1 Compression DXi Variable-block DXi consumes up to 78% less disk Lower = Better: Less Capacity Consumed Backups 6 WHITE PAPER | Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse • Ergebnis: DXi-Deduplizierung bei variabler Blocklänge findet deutlich mehr Redundanzen in den Daten als Systeme mit Datenblöcken fester Länge. -- Simpana belegt 4,5-mal so viel Kapazität wie die DXi -- NetBackup 5200 belegt 2,5-mal so viel Kapazität wie die DXi • Ergebnis: Der Datentyp ist von Bedeutung. Im Gegensatz zum vorherigen Beispiel besteht ein signifikanter Unterschied im Reduktionsvermögen der beiden Produkte, die mit festen Blocklängen arbeiten. Simpana übertrifft die 2:1-Komprimierung nur mit Mühe; NetBackup 5200 ist sehr viel effektiver. Keine der beiden Appliances ist so effizient wie der DXi-Ansatz mit variablen Datenblöcken. STRUKTURIERTE DATEN Strukturierte Daten sind nur ein anderer Begriff für die traditionellen Datenbanken wie Oracle, MS SQL Server oder DB2. In den meisten Organisationen scheinen strukturierte Daten angesichts der Berge an unstrukturierten Daten nur einen winzig kleinen Anteil auszumachen. Unabhängig von ihrer tatsächlichen Menge wachsen strukturierte Daten in der Regel sehr viel langsamer als die unstrukturierten. Es gibt viele Möglichkeiten für die Sicherung von Datenbanken. In der Regel kommt ein kombiniertes Verfahren zum Einsatz, mit dem RTO und RPO gewährleistet sind. (RTO = Recovery Time Objective, maximal tolerierbare Wiederanlaufzeit, RPO = Recovery Time Objective, maximal tolerierbarer Datenverlust). In vielen Fällen ist die Deduplizierung strukturierter Daten schwierig und produziert keine nennenswerte Verbesserung in der Datenreduktion. Abb. 4: Strukturierte Daten, 12 Backups nacheinander GB Unique Data Stored (Less is Better) CV, NBU, DXi vs. 2:1 Compression - Structured Simpana 10 Fixed-block NetBackup 5200 Fixed-block 2:1 Compression DXi Variable-block DXi consumes up to 57% less disk Lower = Better: Less Capacity Consumed Backups • Ergebnis: Alle getesteten Produkte lieferten bessere Ergebnisse als die Referenzkompression von 2:1, die Deduplizierung variabler Blocklängen der DXi-Appliance ist jedoch wieder das effizienteste Verfahren. -- Simpana belegt 2,3-mal so viel Kapazität wie die DXi -- NetBackup 5200 belegt 1,8-mal so viel Kapazität wie die DXi Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse | WHITE PAPER 7 VORHALTUNG Es ist wichtig, zu verstehen, dass die oben gezeigten Unterschiede im Einfluss der Deduplizierung keine festen Verhältnisse darstellen. Ihre Auswirkungen zeigen sich im Laufe der Zeit mit dem Auseinanderlaufen der Kurven. Zu den zentralen Faktoren, die berücksichtigt werden müssen, zählen die Erfordernisse in Bezug auf die Aufbewahrung der Backup-Daten. Eine effizientere Deduplizierung liefert den größeren Nutzen, da mehr Backups aufbewahrt (oder vorgehalten) werden können. Aufgrund der Anzahl der Backup-Images in der Testumgebung lieferte der Test nur eingeschränkte Ergebnisse, der Effekt einer längeren Vorhaltung lässt sich jedoch mithilfe von Trend-Linien illustrieren. Abb. 5: Semistrukturierte Daten mit Trend-Linien GB Unique Data Stored (Less is Better) CV, NBU, DXi vs. 2:1 Compression - Structured Simpana 10 Fixed-block NetBackup 5200 Fixed-block DXi Variable-block 6.3x enefit lock b ntion ble-b te ia e r r a V with ases incre 3.3x 4.5x 2.5x 1x Lower = Better: Less Capacity Consumed 1x Backups • Ergebnis: Je länger Backups gespeichert werden, desto größer der Vorteil. -- Simpana belegt 4,5-mal so viel Kapazität wie die DXi nach 18 Backups. -- Der Abstand wächst auf das 6,3-fache, wenn 60 Backups vorgehalten werden. -- NetBackup 5200 belegt 2,5-mal so viel Kapazität wie die DXi nach 18 Backups. -- Der Abstand wächst auf das 3,3-fache, wenn 60 Backups vorgehalten werden. ZUSAMMENFASSUNG Deduplizierung eröffnet neue Optionen der Datensicherung und rückt bislang zu teure Optionen in greifbare Nähe. Nutzen und TCO hängen direkt mit der Effektivität des gewählten Deduplizierungsverfahrens zusammen. Feste Blocklänge vs. variable Blocklänge: Der direkte Vergleich unter Verwendung echter Unternehmensdaten zeigt, dass die Deduplizierung von Daten mit variabler Blocklänge zwischen 2- und 6-mal so effektiv ist wie Methoden mit fester Blocklänge. Kompression vs. Deduplizierung: Die Deduplizierungssysteme nutzen zwei Methoden der Datenreduktion: Kompression und Deduplizierung. Einige Lösungen, die Daten fester Blocklänge deduplizieren, erzielen wenig bis keinen Mehrwert im Vergleich zur herkömmlichen Komprimierung alleine. Effekt auf die Infrastruktur: Speichereffizienz dreht sich nicht nur um den Speicher. Die Datenreduzierung korreliert direkt mit der für die Replikation erforderlichen WAN-Bandbreite. Ein System, das die Daten 2-mal so effizient reduziert wie ein anderes, erfordert auch nur die halbe Bandbreite. WAN-Verbindungen sind kostspielig, deshalb muss die Anbindung im Sinne der SLAs für das DR so klein wie möglich ausgelegt sein. Ebenso entspricht eine bessere Datenreduktion geringeren Ausgaben für Strom und Kühlung sowie einem geringeren Platzbedarf. Je mehr Zeit vergeht, desto mehr steigen die Infrastrukturkosten im Vergleich zu den Anschaffungskosten einer Lösung, weshalb es sich lohnt, sie im Blick zu behalten. Wenn Sie sich für Software-basierte Ansätze interessieren, sollten Sie bedenken, dass diese enorme Server-Ressourcen voraussetzen. Achten Sie also darauf, dass der Nutzen die Kosten rechtfertigt. 8 WHITE PAPER | Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse Vorhaltung: Der Effizienzvorteil der Deduplizierung ist nicht nur ein einfaches Vielfaches. Er wächst mit der Zeit und Anzahl der aufbewahrten Backups. Je länger die Daten vorgehalten werden und je mehr Daten es werden, desto größer sind auch die Vorteile eines Systems, das Datenblöcke variabler Länge dedupliziert. Beim Vergleich von Produkten müssen Sie ausreichend Datenzyklen testen, um den Effekt bei Ihrer maximalen Aufbewahrungszeit auf Disk beurteilen zu können. Sind Sie noch skeptisch? Quantum hat bei diesem Test größtmögliche Neutralität walten lassen. Wenn Sie von den Ergebnissen nicht überzeugt sind, demonstrieren wir Sie Ihnen gerne in Ihrer eigenen Umgebung. Qualifizierten Interessenten führen wir in einer Machbarkeitsstudie die Stärke unseres Deduplizierungsverfahrens mit Datenblöcken variabler Länge vor. Argumente für Quantum DXi Inline-Deduplizierung mit variablen Datenblöcken: Alle Daten werden vor der Speicherung auf Disk dedupliziert und komprimiert. Einfaches Portfolio: 3 skalierbare Modelle mit 1 TB bis 510 TB nutzbarer Kapazität Skalierbare Architektur: DXi bietet nahtlos skalierbare Kapazität und Performance • „Pay-as-you-Grow“ – Capacity-on-Demand ermöglicht Kapazitätserweiterungen via Lizenzschlüssel • Kapazität und Speicherdichte – 4 TB-Festplattenlaufwerke • SEDs (Selbstverschlüsselnde Festplatten) sichern abgelegte Daten ohne PerformanceEinbußen Quantum StorNext® 5: Schnelles flexibles Dateisystem für maximale Performance • DXi nutzt dedizierte Disk-Pools für die Speicherung von Metadaten und deduplizierten Inhalten auf einer für diesen Datentyp optimierten Festplatte. Dies ermöglicht volle Leistung für alle Kapazitäten eines Modells. Quantum ist der einzige Anbieter mit dieser Architektur. Mehr Produktivität im IT-Team • Benutzeroberfläche – Darstellung sämtlicher Betriebsdaten; Installationsassistenten gewährleisten einfache und effiziente Einrichtung und Bereitstellung • System Scheduler – Primäre Systemaufgaben (Replikation, Space Reclamation, CLIVerarbeitung) können zu festgelegten Zeiten ausgeführt werden, um DXi-Ressourcen prioritäre Aufgaben zuzuweisen • Advanced Reporting – Das DXi-System speichert Verlaufsdaten von 6 Jahren, um eine optimierte Ressourcennutzung und eine proaktive Systemplanung für künftiges Wachstum zu ermöglichen • Quantum Vision – Konsolidierte Verwaltung und Analyse für alle Quantum Produkte • Regelbasierte Warnmeldungen bei niedriger Restkapazität Ergänzende Hintergrundinformationen und Referenzmaterial Grundlagen der Datendeduplizierung: Ein technisches White Paper – Allgemeine Diskussion zum Thema Datendeduplizierung [WP00126A] Validierungsstudie von ESG Lab zu Quantums Deduplizierungssystem DXi6900 – Unabhängige Überprüfung der Quantum DXi6900 durch ESG [WP00201A] ESG Lab-Validierungsbericht zur Datensicherung mit VMware vSphere / Februar 2013 – Unabhängiger ESG-Bericht beleuchtet die Überlegenheit von Deduplizierungsverfahren mit variablen Blocklängen gegenüber Verfahren mit fester Blocklänge beim VM-Backup. Wachstum und Management unstrukturierter Daten Ihre unstrukturierten Daten haben viel zu bieten – finden Sie‘s heraus Strukturierte Daten vs. unstrukturierte Daten US Patent 5,990,810 – Quantums wegweisendes Patent der Deduplizierung variabler Datenblöcke, 1999 erteilt Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse | WHITE PAPER 9 ÜBER QUANTUM Quantum ist ein führender Anbieter von spezialisierten Lösungen für Scale-Out-Storage, Archivierung und Datensicherung, die die gemeinsame Nutzung, Vorhaltung und Zugänglichkeit von digitalen Inhalten über den gesamten Datenlebenszyklus gewährleisten. Mehr als 100.000 Kunden – vom kleineren Unternehmen bis zum multinationalen Konzern – vertrauen auf Quantum, wenn es um die Herausforderungen selbst anspruchsvollster Daten-Workflows geht. Mit Quantum können sie sicher sein (Be Certain™), dass sie über die optimalen End-to-End-Speicherlösungen für die Wertschöpfung aus ihren Daten verfügen und Kosten sowie Komplexität reduziert werden. Weitere Informationen erhalten Sie unter www.quantum.com/customerstories. www.quantum.com/de • +49 89 94303-0 ©2015 Quantum Corporation. Alle Rechte, Änderungen und Irrtümer vorbehalten. Quantum, das Quantum Logo, DXi und StorNext sind eingetragene Marken der Quantum Corporation und ihrer verbundenen Unternehmen in den USA und/oder anderen Ländern. Alle anderen Marken sind Eigentum ihrer jeweiligen Eigentümer. WP00200G-v01 Jan 2015 Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse | WHITE PAPER 10