Effektivität der Datenreduktion bei Deduplizierung mit variablen

Werbung
W H I T E PA P E R
Effektivität der Datenreduktion bei Deduplizierung
mit variablen Blocklängen gegenüber festen
Blocklängen: Eine technische Analyse
CONTENTS
Kurzbeschreibung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Deduplizierung mit fester Blocklänge vs. variabler Blocklänge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Testkonfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Methodik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Beobachtungen, Resultate und Kommentar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Unstrukturierte Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Halbstrukturierte Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Strukturierte Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Vorhaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .8
2 WHITE PAPER | Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse
KURZBESCHREIBUNG
Das Problem: Deduplizierung ist für viele IT-Einkäufer zu einem Auswahlkriterium
geworden, sodass praktisch jeder Hersteller von Speicherprodukten etwas in seine
Systeme einbindet, das er Deduplizierung nennt. Dabei handelt es sich bei der
Deduplizierung um eine Technik und keine eigene Technologie. Es gibt eine Reihe von
Deduplizierungsverfahren, deren Effektivität jedoch stark variiert. Sinn und Zweck der
Deduplizierung besteht in der Senkung von Kosten, und je effektiver die Datenreduktion,
desto geringer die Gesamtbetriebskosten (TCO). Da hilft es wenig, dass mancher
Anbieter beim Versuch, eindrucksvolle Zahlen für seine Datenblätter zu generieren, viel
Kreativität in den Messverfahren walten lässt, und Branchenanalysten direkte Eins-zuEins-Produktvergleiche meiden. Der Medienhype der Hersteller, Marketingkampagnen,
die Konkurrenten gezielt bekämpfen, und der Mangel an wirklich aussagekräftigen
Informationen erschweren die Suche nach einem Deduplizierungsprodukt, das dem
jeweiligem Bedarf und Budget optimal entspricht.
Das Ziel: Der Grad der Datenreduzierung sollte bei der Beurteilung verschiedener
Deduplizierungsprodukte nicht das einzige Vergleichskriterium sein, als einzelner Faktor
hat er jedoch den größten Einfluss auf den TCO. Er wirkt sich direkt auf Speicherkapazität,
Netzwerkbandbreite (bei der Replikation), Stromverbrauch, Kühlung und Stellfläche
aus und ist sogar ein Ausschlusskriterium in den SLAs für einen DR-Schutz.
Deduplizierungsverfahren lassen sich grob in zwei Kategorien einteilen: Deduplizierung mit
Datenblöcken fester Länge und mit Datenblöcken variabler Länge. Ziel dieses Dokuments
ist es, die grundlegenden Unterschiede zwischen beiden Ansätzen, die anhand einfacher
Tests mit realen Daten ermittelt wurden, zu demonstrieren. Notwendigerweise kamen in
diesen Tests spezifische Hardware- und Softwareprodukte zum Einsatz. Jedoch lassen
sich die Ergebnisse auf alle Produkte, die Deduplizierung mit Datenblöcken fixer bzw.
variabler Länge einsetzen, übertragen. Darüber hinaus werden weitere Hintergrundfakten
beleuchtet, Begriffe definiert, Methoden beschrieben und die Ergebnisse der Tests vorgestellt und erläutert.
Fazit: Die Testergebnisse zeigen, dass sich Daten mit Deduplizierung basierend auf
variabler Blocklänge weitaus effektiver reduzieren lassen als mit fester Blocklänge.
Deduplizierung mit variabler Blocklänge ist mindestens um das Zwei- bis Dreifache effizienter, bei längeren Vorhaltungszeiten und bestimmten Datentypen wird der Abstand
weitaus größer. Ein Dreifaches klingt vielleicht nicht sonderlich bemerkenswert, bedeutet
aber, dass eine Lösung mit fester Blocklänge auch das Dreifache an Speicher, die dreifache Netzwerkbandbreite zur Replizierung, mehr Strom, Kühlung und Stellplatz als eine
Lösung mit variablen Blöckgrössen benötigt. Diese Divergenz kann sogar den Unterschied
ausmachen, ob Service Level Agreements (SLAs) für den DR-Schutz eingehalten werden
oder nicht.
DEDUPLIZIERUNG MIT FESTER BLOCKLÄNGE VS.
VARIABLER BLOCKLÄNGE
Deduplizierung mit fester Länge bricht den eingehenden Datenfluss in Abschnitte bzw.
Blöcke identischer Länge auf. Die Blöcke werden verglichen, und nur die neuen, bisher
unbekannten Blöcke werden nach der Komprimierung auf Disk gespeichert. Duplikate
werden verworfen. Dabei wird ein System von Verweisen verwendet, um die eingespeisten Daten dem Pool bisher unbekannter (oder einmaliger) Blöcke zuzuordnen. Einige
Verfahren lassen dem Administrator die Wahl der Blockgröße und nennen dies dann
„variabel“. Die festgelegte Länge wird dann allerdings wieder für alle Daten verwendet. Jedoch hat die Möglichkeit, die Blocklänge manuell zu ändern, nichts mit einer
Deduplizierung mit variabler Blöcklänge zu tun.
Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse | WHITE PAPER 3
Bei der echten Deduplizierung mit variabler Blöcklänge ist die Blocklänge nicht auf eine
Standardgröße festgelegt. Stattdessen teilt ein Algorithmus die Daten anhand „natürlicher Grenzen“
in den Daten. Automatisch und in Echtzeit werden so Datenblöcke gebildet, deren Länge je nach Art
der eingehenden Daten variiert. Die neuen, noch nicht vorhandenen Datenblöcke werden komprimiert
und auf Festplatte gespeichert. Pointer (Verweise) dienen der Zuordnung der eingespeisten Daten zu
den einmaligen Blöcken.
Was geschieht bei Änderungen an den Daten? Bei Methoden mit Datenblöcken fixer Größe verschieben sich sämtliche Datenblöcke nach der ersten Änderung, sofern die Änderung an der Datei nicht
exakt ein Mehrfaches der festgelegten Blockgröße beträgt. Durch diese Änderung verschieben sich
die Inhalte aller Datenblöcke in Bezug auf ihre festen Blockgrenzen, sodass der Algorithmus die
nachfolgenden, eigentlich unveränderten Daten nicht mehr als bereits vorhanden erkennt.
Algorithmen, die mit variablen Blockgrößen arbeiten, unterteilen die Daten anhand ihrer
Charakteristika in variable Blöcke und nicht anhand einer willkürlichen Blockgröße. Dies macht die
Blöcke flexibler bei Datenänderungen. Ausschließlich neue oder geänderte Daten werden gespeichert; die Einmaligkeit der restlichen Datei ist somit nicht davon betroffen.
Abb. 1 Beispiel für fixe vs. variable Deduplizierung
N O W
N
I
H
I
O W
S
T
E
T
ME
S N O W
S N
I
T H
T I
O W
S
E
ME
I S
T H E
Feste Länge
I S
T I ME
N
I
T
T
T H E
ALLE
Blöcke
ändern sich
Nehmen Sie einen Satz,
teilen Sie ihn in Blöcke...
O W
S
H E
I ME
T I ME
S
I
T
T
N O W
S
H E
I ME
Variable Länge
Fügen Sie nun einen
Buchstaben hinzu......
EIN
Block
ändert sich
TESTKONFIGURATION
Im Test wurde die Deduplizierungsleistung von drei Produkten verglichen:
• DXi6900-Appliance von Quantum mit Quantums patentierter Deduplizierung mit variablen
Datenblöcken
• NetBackup 5200-Appliance von Symantec mit Deduplizierung von Datenblöcken fester Länge
• CommVault Simpana 10, ebenfalls mit Deduplizierung fester Datenblöcke
Bei allen Tests kamen dieselbe Hardware, Software und dieselben Daten zum Einsatz. Die
Quelldaten lagen direkt auf dem Data Mover-Server. Die Backups wurden auf ein DXi®-System oder
die NetBackup 5200-Appliance gespielt. Beim Simpana-Deduplizierungstest wurden die Daten auf
eine NFS-Disk-Share geschrieben. Die NFS-Share wurde auf einer DXi konfiguriert, auf der jedoch
die Deduplizierungs- und Kompressionsfunktionen deaktiviert waren. Als Ziel hätte jede Festplatte
genutzt werden können, die DXi bot jedoch den Vorteil, dass die standardmäßig enthaltene Advanced
Reporting-Funktion zur Auswertung der Ergebnisse genutzt werden konnte. Bei der NBU 5200 wurden die Statistiken von der entsprechenden Schnittstelle des Geräts entnommen. Bei den DXi- und
NetBackup 5200-Tests wurde Symantec NetBackup 7.6 als Data Mover verwendet.
4 WHITE PAPER | Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse
DATEN
Es ist einfach, ein Deduplizierungssystem brillieren zu lassen, wenn im Test nur künstlich generierte, hochgradig redundante Daten einspeist werden – doch solche Tests haben mit der Praxis
nichts zu tun. Im Gegensatz zu den meisten anderen Anbietern verwendet Quantum zum Testen
der DXi eine Testumgebung aus reellen Daten, die von der IT-Abteilung von Quantum gestellt werden. Diese Testdaten bestehen aus einer chronologischen Sequenz von Images dreier Datensätze.
Unstrukturierte (User-Home-Verzeichnisse), halbstrukturierte (E-Mail) und strukturierte
(Datenbank) Datentypen stellen Deduplizierungssysteme vor verschiedene Herausforderungen.
Erst ein Test mit allen drei Datentypen liefert ein vollständiges Bild davon, wie sich ein System in
einer typischen Unternehmensumgebung bewährt. Die Resultate der Deduplizierung hängen bis
einem bestimmten Punkt von den verwendeten Daten ab. Die Unterschiede, die sich zwischen der
Deduplizierung fester und variabler Datenblöcke feststellen lassen, sind allgemein anwendbar.
METHODIK
Die folgende Prozedur wurde für alle drei Datentypen nacheinander auf den
Deduplizierungssystemen ausgeführt:
• Sicherung der ältesten Version der Daten, Erfassung der Menge an einmaligen Daten, die auf
Disk gespeichert werden
• Sicherung der nächstälteren Version der Daten, Erfassung der Menge an neuen einmaligen
Daten, die auf Disk gespeichert werden
• Fortsetzung für jede neuere Version der Daten in Serie sowie grafische Abbildung der
Resultate
Diese Methodik bildet die Abfolge des Backups aller drei Datentypen exakt nach. Änderungen werden der Reihe nach an bestimmten Zeitpunkten erfasst. Jedes Deduplizierungssystem wurde mit
denselben Daten in derselben Abfolge getestet.
Es gibt verschiedene Arten, Deduplizierung zu messen – beispielsweise als Verhältnis oder
Prozentsatz der eingesparten Kapazität auf Festplatte – doch sie lassen sich alle auf denselben
Faktor reduzieren: den Bedarf an Festplatte und Bandbreite. Je effektiver die Deduplizierung,
desto weniger Festplattenkapazität wird für die Datenspeicherung benötigt. Entsprechend sinkt
auch der Bedarf an WAN-Bandbreite für die DR-Replikation. Denken Sie beim Betrachten der
Grafik daran, dass niedriger gleich besser ist, d. h. es wurde weniger Disk-Kapazität verbraucht.
BEOBACHTUNGEN, RESULTATE UND KOMMENTAR
Deduplizierung, Kompression und Gesamt-Datenreduktion: Identifiziert ein
Deduplizierungssystem einen einmaligen Datenblock, wird dieser erst komprimiert und dann
auf Festplatte gespeichert. Somit ist die verzeichnete gesamte Datenreduktion das Ergebnis von
Deduplizierung und Kompression. Erhält man eine „10:1-Reduktion“, könnte dies das Ergebnis
einer 5:1-Deduplizierung in Kombination mit einer 2:1-Kompression sein.
Normalerweise komprimieren Kompressionsverfahren, die bei der Datenspeicherung verwendet
werden, die Daten in einem Verhältnis von ca. 2:1, je nach Typ. Die nachfolgende Grafik enthält
eine Linie für die hypothetische 2:1-Kompression. Diese Linie zeigt die gespeicherte Datenmenge,
wenn die Quelldaten nur im 2:1-Verhältnis komprimiert würden, wie z. B. auf LTO-Tapes. Ihre
Position bietet einen Referenzpunkt für die Gesamteffektivität der Deduplikationssysteme gegenüber einfacher Kompression. Der Verlauf der Linien kann einen Hinweis darauf geben, zu welchen
Teilen die Gesamtreduktion eines Systems auf Kompression oder auf Deduplizierung zurückzuführen ist. Folgt die Linie eines Systems dem Verlauf der Referenzlinie, bedeutet dies, dass ein erheblicher Anteil der Reduktion auf einfache Kompression und nicht auf Deduplizierung zurückzuführen ist. Von den drei getesteten Systemen bietet nur das DXi-System eine Reporting-Funktion, die
explizit aufzeigt, welchen Anteil Kompression und Deduplizierung an der Gesamtreduktion haben.
Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse | WHITE PAPER 5
UNSTRUKTURIERTE DATEN
In der typischen Unternehmensumgebung liegt ein großer, häufig sogar überwiegender Anteil der
Daten in unstrukturierter Form vor. Branchenstudien zufolge sind unstrukturierte Daten der bei weitem am schnellsten wachsende Datentyp in den meisten Unternehmen.
Abb. 2: Unstrukturierte Daten, 48 aufeinander folgende Backups
GB Unique Data Stored
(Less is Better)
CV, NBU, DXi vs. 2:1 Compression - Unstructured
Simpana 10 Fixed-block
NetBackup 5200 Fixed-block
2:1 Compression
DXi Variable-block
DXi consumes
67% less disk
Lower = Better: Less Capacity Consumed
Backups
• Ergebnis: DXi-Deduplizierung mit variabler Blocklänge findet deutlich mehr Redundanzen in
den Daten als Systeme mit Datenblöcken fester Länge.
-- Simpana belegt 3-mal so viel Kapazität wie die DXi
-- NetBackup 5200 belegt 2,75-mal so viel Kapazität wie die DXi
• Ergebnis: Die Linien des Simpana- und des NetBackup-Systems liegen beide nah an der
2:1-Linie. Dies bedeutet, dass ein Großteil der Reduktion beider Produkte (die mit festen
Blocklängen arbeiten), auf der Kompression und nicht auf der Deduplizierung beruht. Die DXiTechnologie mit variabler Blocklänge arbeitet eindeutig auf grundlegend andere Weise, da die
DXi-Linie nicht wie die anderen Produkte der 2:1-Linie ähnelt.
HALBSTRUKTURIERTE DATEN
E-Mail ist das klassische Beispiel für halbstrukturierte Daten. Jedes Unternehmen braucht E-Mail
und andere Formen der Nachrichtenübermittlung. Doch solange diese Dienste nicht an einen
externen Anbieter ausgelagert werden, muss die hauseigene IT die entsprechenden Daten sichern
und vorhalten, um einer Vielzahl an Backup-, DR- und Compliance-Anforderungen gerecht zu
werden. Messagingsysteme generieren immer größere Datenmengen, doch werden oft spezialisierte Archivierungslösungen eingesetzt, die den sicherungswürdigen Teil dieser Daten deutlich
reduzieren.
Abb. 3: Semistrukturierte Daten, 18 Backups in Folge – für eine Hochrechnung auf 60 Tage siehe Abschnitt „Vorhaltung“ weiter unten.
GB Unique Data Stored
(Less is Better)
CV, NBU, DXi vs. 2:1 Compression - Semi-structured
Simpana 10 Fixed-block
NetBackup 5200 Fixed-block
2:1 Compression
DXi Variable-block
DXi consumes up
to 78% less disk
Lower = Better: Less Capacity Consumed
Backups
6 WHITE PAPER | Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse
• Ergebnis: DXi-Deduplizierung bei variabler Blocklänge findet deutlich mehr Redundanzen in
den Daten als Systeme mit Datenblöcken fester Länge.
-- Simpana belegt 4,5-mal so viel Kapazität wie die DXi
-- NetBackup 5200 belegt 2,5-mal so viel Kapazität wie die DXi
• Ergebnis: Der Datentyp ist von Bedeutung. Im Gegensatz zum vorherigen Beispiel besteht
ein signifikanter Unterschied im Reduktionsvermögen der beiden Produkte, die mit festen Blocklängen arbeiten. Simpana übertrifft die 2:1-Komprimierung nur mit Mühe;
NetBackup 5200 ist sehr viel effektiver. Keine der beiden Appliances ist so effizient wie der
DXi-Ansatz mit variablen Datenblöcken.
STRUKTURIERTE DATEN
Strukturierte Daten sind nur ein anderer Begriff für die traditionellen Datenbanken wie Oracle, MS
SQL Server oder DB2. In den meisten Organisationen scheinen strukturierte Daten angesichts der
Berge an unstrukturierten Daten nur einen winzig kleinen Anteil auszumachen. Unabhängig von
ihrer tatsächlichen Menge wachsen strukturierte Daten in der Regel sehr viel langsamer als die
unstrukturierten.
Es gibt viele Möglichkeiten für die Sicherung von Datenbanken. In der Regel kommt ein kombiniertes Verfahren zum Einsatz, mit dem RTO und RPO gewährleistet sind. (RTO = Recovery Time
Objective, maximal tolerierbare Wiederanlaufzeit, RPO = Recovery Time Objective, maximal tolerierbarer Datenverlust). In vielen Fällen ist die Deduplizierung strukturierter Daten schwierig und
produziert keine nennenswerte Verbesserung in der Datenreduktion.
Abb. 4: Strukturierte Daten, 12 Backups nacheinander
GB Unique Data Stored
(Less is Better)
CV, NBU, DXi vs. 2:1 Compression - Structured
Simpana 10 Fixed-block
NetBackup 5200 Fixed-block
2:1 Compression
DXi Variable-block
DXi consumes up
to 57% less disk
Lower = Better: Less Capacity Consumed
Backups
• Ergebnis: Alle getesteten Produkte lieferten bessere Ergebnisse als die Referenzkompression
von 2:1, die Deduplizierung variabler Blocklängen der DXi-Appliance ist jedoch wieder das
effizienteste Verfahren.
-- Simpana belegt 2,3-mal so viel Kapazität wie die DXi
-- NetBackup 5200 belegt 1,8-mal so viel Kapazität wie die DXi
Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse | WHITE PAPER 7
VORHALTUNG
Es ist wichtig, zu verstehen, dass die oben gezeigten Unterschiede im Einfluss der Deduplizierung
keine festen Verhältnisse darstellen. Ihre Auswirkungen zeigen sich im Laufe der Zeit mit dem
Auseinanderlaufen der Kurven. Zu den zentralen Faktoren, die berücksichtigt werden müssen,
zählen die Erfordernisse in Bezug auf die Aufbewahrung der Backup-Daten. Eine effizientere
Deduplizierung liefert den größeren Nutzen, da mehr Backups aufbewahrt (oder vorgehalten)
werden können. Aufgrund der Anzahl der Backup-Images in der Testumgebung lieferte der Test
nur eingeschränkte Ergebnisse, der Effekt einer längeren Vorhaltung lässt sich jedoch mithilfe von
Trend-Linien illustrieren.
Abb. 5: Semistrukturierte Daten mit Trend-Linien
GB Unique Data Stored
(Less is Better)
CV, NBU, DXi vs. 2:1 Compression - Structured
Simpana 10 Fixed-block
NetBackup 5200 Fixed-block
DXi Variable-block
6.3x
enefit
lock b ntion
ble-b
te
ia
e
r
r
a
V
with
ases
incre
3.3x
4.5x
2.5x
1x
Lower = Better: Less Capacity Consumed
1x
Backups
• Ergebnis: Je länger Backups gespeichert werden, desto größer der Vorteil.
-- Simpana belegt 4,5-mal so viel Kapazität wie die DXi nach 18 Backups.
-- Der Abstand wächst auf das 6,3-fache, wenn 60 Backups vorgehalten werden.
-- NetBackup 5200 belegt 2,5-mal so viel Kapazität wie die DXi nach 18 Backups.
-- Der Abstand wächst auf das 3,3-fache, wenn 60 Backups vorgehalten werden.
ZUSAMMENFASSUNG
Deduplizierung eröffnet neue Optionen der Datensicherung und rückt bislang zu teure
Optionen in greifbare Nähe. Nutzen und TCO hängen direkt mit der Effektivität des gewählten
Deduplizierungsverfahrens zusammen.
Feste Blocklänge vs. variable Blocklänge: Der direkte Vergleich unter Verwendung echter
Unternehmensdaten zeigt, dass die Deduplizierung von Daten mit variabler Blocklänge zwischen
2- und 6-mal so effektiv ist wie Methoden mit fester Blocklänge.
Kompression vs. Deduplizierung: Die Deduplizierungssysteme nutzen zwei Methoden
der Datenreduktion: Kompression und Deduplizierung. Einige Lösungen, die Daten fester
Blocklänge deduplizieren, erzielen wenig bis keinen Mehrwert im Vergleich zur herkömmlichen
Komprimierung alleine.
Effekt auf die Infrastruktur: Speichereffizienz dreht sich nicht nur um den Speicher. Die
Datenreduzierung korreliert direkt mit der für die Replikation erforderlichen WAN-Bandbreite. Ein
System, das die Daten 2-mal so effizient reduziert wie ein anderes, erfordert auch nur die halbe
Bandbreite. WAN-Verbindungen sind kostspielig, deshalb muss die Anbindung im Sinne der SLAs
für das DR so klein wie möglich ausgelegt sein. Ebenso entspricht eine bessere Datenreduktion
geringeren Ausgaben für Strom und Kühlung sowie einem geringeren Platzbedarf. Je mehr Zeit
vergeht, desto mehr steigen die Infrastrukturkosten im Vergleich zu den Anschaffungskosten
einer Lösung, weshalb es sich lohnt, sie im Blick zu behalten. Wenn Sie sich für Software-basierte
Ansätze interessieren, sollten Sie bedenken, dass diese enorme Server-Ressourcen voraussetzen.
Achten Sie also darauf, dass der Nutzen die Kosten rechtfertigt.
8 WHITE PAPER | Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse
Vorhaltung: Der Effizienzvorteil der Deduplizierung ist nicht nur ein einfaches Vielfaches. Er
wächst mit der Zeit und Anzahl der aufbewahrten Backups. Je länger die Daten vorgehalten
werden und je mehr Daten es werden, desto größer sind auch die Vorteile eines Systems, das
Datenblöcke variabler Länge dedupliziert. Beim Vergleich von Produkten müssen Sie ausreichend
Datenzyklen testen, um den Effekt bei Ihrer maximalen Aufbewahrungszeit auf Disk beurteilen zu
können.
Sind Sie noch skeptisch? Quantum hat bei diesem Test größtmögliche Neutralität walten lassen.
Wenn Sie von den Ergebnissen nicht überzeugt sind, demonstrieren wir Sie Ihnen gerne in Ihrer
eigenen Umgebung. Qualifizierten Interessenten führen wir in einer Machbarkeitsstudie die Stärke
unseres Deduplizierungsverfahrens mit Datenblöcken variabler Länge vor.
Argumente für Quantum DXi
Inline-Deduplizierung mit variablen Datenblöcken: Alle Daten werden vor der Speicherung auf
Disk dedupliziert und komprimiert.
Einfaches Portfolio: 3 skalierbare Modelle mit 1 TB bis 510 TB nutzbarer Kapazität
Skalierbare Architektur: DXi bietet nahtlos skalierbare Kapazität und Performance
• „Pay-as-you-Grow“ – Capacity-on-Demand ermöglicht Kapazitätserweiterungen via
Lizenzschlüssel
• Kapazität und Speicherdichte – 4 TB-Festplattenlaufwerke
• SEDs (Selbstverschlüsselnde Festplatten) sichern abgelegte Daten ohne PerformanceEinbußen
Quantum StorNext® 5: Schnelles flexibles Dateisystem für maximale Performance
• DXi nutzt dedizierte Disk-Pools für die Speicherung von Metadaten und deduplizierten
Inhalten auf einer für diesen Datentyp optimierten Festplatte. Dies ermöglicht volle Leistung
für alle Kapazitäten eines Modells. Quantum ist der einzige Anbieter mit dieser Architektur.
Mehr Produktivität im IT-Team
• Benutzeroberfläche – Darstellung sämtlicher Betriebsdaten; Installationsassistenten gewährleisten einfache und effiziente Einrichtung und Bereitstellung
• System Scheduler – Primäre Systemaufgaben (Replikation, Space Reclamation, CLIVerarbeitung) können zu festgelegten Zeiten ausgeführt werden, um DXi-Ressourcen prioritäre Aufgaben zuzuweisen
• Advanced Reporting – Das DXi-System speichert Verlaufsdaten von 6 Jahren, um eine optimierte Ressourcennutzung und eine proaktive Systemplanung für künftiges Wachstum zu
ermöglichen
• Quantum Vision – Konsolidierte Verwaltung und Analyse für alle Quantum Produkte
• Regelbasierte Warnmeldungen bei niedriger Restkapazität
Ergänzende Hintergrundinformationen und Referenzmaterial
Grundlagen der Datendeduplizierung: Ein technisches White Paper – Allgemeine Diskussion zum Thema
Datendeduplizierung [WP00126A]
Validierungsstudie von ESG Lab zu Quantums Deduplizierungssystem DXi6900 – Unabhängige Überprüfung der
Quantum DXi6900 durch ESG [WP00201A]
ESG Lab-Validierungsbericht zur Datensicherung mit VMware vSphere / Februar 2013 – Unabhängiger ESG-Bericht
beleuchtet die Überlegenheit von Deduplizierungsverfahren mit variablen Blocklängen gegenüber Verfahren mit
fester Blocklänge beim VM-Backup.
Wachstum und Management unstrukturierter Daten
Ihre unstrukturierten Daten haben viel zu bieten – finden Sie‘s heraus
Strukturierte Daten vs. unstrukturierte Daten
US Patent 5,990,810 – Quantums wegweisendes Patent der Deduplizierung variabler Datenblöcke, 1999 erteilt
Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse | WHITE PAPER 9
ÜBER QUANTUM
Quantum ist ein führender Anbieter von spezialisierten Lösungen für Scale-Out-Storage, Archivierung und Datensicherung,
die die gemeinsame Nutzung, Vorhaltung und Zugänglichkeit von digitalen Inhalten über den gesamten Datenlebenszyklus
gewährleisten. Mehr als 100.000 Kunden – vom kleineren Unternehmen bis zum multinationalen Konzern – vertrauen auf
Quantum, wenn es um die Herausforderungen selbst anspruchsvollster Daten-Workflows geht. Mit Quantum können sie sicher
sein (Be Certain™), dass sie über die optimalen End-to-End-Speicherlösungen für die Wertschöpfung aus ihren Daten verfügen
und Kosten sowie Komplexität reduziert werden. Weitere Informationen erhalten Sie unter www.quantum.com/customerstories.
www.quantum.com/de • +49 89 94303-0
©2015 Quantum Corporation. Alle Rechte, Änderungen und Irrtümer vorbehalten. Quantum, das
Quantum Logo, DXi und StorNext sind eingetragene Marken der Quantum Corporation und ihrer
verbundenen Unternehmen in den USA und/oder anderen Ländern. Alle anderen Marken sind
Eigentum ihrer jeweiligen Eigentümer.
WP00200G-v01 Jan 2015
Effektivität der Datenreduktion bei Deduplizierung mit variablen Blocklängen gegenüber festen Blocklängen: Eine technische Analyse | WHITE PAPER 10
Herunterladen