Data Management

Große Workloads mit universellen Filesets effizient sichern

Große Workloads mit universellen Filesets effizient sichern

Mehr Flexibilität und Einfachheit

Wenn sich das Datenwachstum in Unternehmen weiter fortsetzt – wofür vieles spricht, führt das Management von Daten zu einer zunehmenden Belastung für Sicherungs- und Wiederherstellungsumgebungen. Herkömmliche Methoden zum Sichern großer Datenmengen können zunehmend die Server-CPU und den Speicher dermaßen beanspruchen, dass die Anwendungsperformance massive leidet. An dem Punkt, an dem kritische Geschäftsaufgaben aufgrund von Leistungseinbußen nicht mehr ausgeführt werden können, kann der Datensicherungsprozess sogar negative Auswirkungen haben, wie Rubrik feststellt.

„Eine periodische herkömmliche Vollsicherung kann mehrere Stunden erfordern, selbst während des gesamten Produktionsfensters. Dabei kann es aber sein, dass einige kritische Dateien unter Millionen von anderen Daten auf dem System nicht erfasst werden“, erklärt Roland Stritt, Director Channels EMEA bei Rubrik . „Schwierig wird es dann, wenn beispielsweise nur eine einzelne Datei wiederhergestellt werden muss. Die herkömmliche Backup-Anwendung hat sie möglicherweise nicht gesichert aufgrund von Ineffizienzen beim Aufspielen großer Datenmengen.“

Rubrik rät Unternehmen zum Sichern großer Workloads deshalb zu universellen Filesets. Diese bieten mehr Flexibilität und Einfachheit, da Backup-Administratoren nun die Möglichkeit erhalten, logische Gruppen von Dateien und Ordnern zu erstellen, die gesichert werden können. Ganz gleich, ob Windows-/Linux-Hosts oder NAS-Freigaben verwaltet werden, steht mit universellen Filesets eine einfache und effektive Methode für die Sicherung und Wiederherstellung in großem Maßstab zur Verfügung. Eine Fokussierung auf den „Incremental forever“-Ansatz und die Technologie universeller Filesets bietet eine granulare Steuerung, die es ermöglicht, eine Teilmenge von Daten innerhalb eines Hosts zu sichern und somit die Server-CPU und den Speicher zu erhalten.

Universelle Filesets haben mehrere Anwendungsfälle und fungieren daher als universelle Filesets. Der Begriff „universell“ gilt für die Dateigruppen, da verschiedene Betriebssysteme (Windows und Linux) und Geräte (NAS) mithilfe des Filesets-Konzept gesichert werden können.

Roland Stritt erklärt: „Ein Fileset oder Dateisatz ist eine logische Darstellung eines benutzerdefinierten Datenpfads mit inklusiven und exklusiven Werten. Eine Dateigruppe kann auch vollständige Pfade oder Dateinamen verwenden, um Objekte einzuschließen, auszuschließen oder Ausnahmen zu definieren. Der entsprechende Cluster interpretiert die Syntax, die für die „Einschließen“- oder „Ausschließen“-Felder von Dateigruppen eingegeben wurde, indem er einer relativen Pfadregel folgt. Im Falle von NAS-Dateigruppen bedeutet dies, dass nach dem Definieren des Freigabepfads alle zugehörigen Dateigruppen nur den gewünschten Pfad nach der Freigabe enthalten müssen.“

Universelle Filesets bieten sich an als bewährtes und kritisches Tool, das mit Sicherungen und Wiederherstellungen auf granularer Ebene eine flexible Sicherung ermöglicht. Ohne eine solche Lösung werden Backup-Administratoren weiterhin Probleme mit unzureichender Backup-Leistung, inakzeptablen Wiederherstellungszeiten und herkömmlichen Backup-Methoden haben“, fasst Roland Stritt zusammen. „Die Filesets stellen Unternehmen eine leistungsstarke Lösung bereit, um ihre Backups anzupassen und ihre Wiederherstellung zu optimieren

Der Hauptgrund, warum Dateigruppen erforderlich sind, besteht darin, das Steuerelement in die Hände des Benutzers zu legen. Diese „Macht“ zu haben, erzeugt ein Gefühl von Freiheit, das es Benutzern erlaubt, Werte vollständig anzupassen, um sie einzuschließen oder auszuschließen. Die gesamte „Schwerarbeit“ wird vom entsprechenden Cluster automatisch über die Fileset-Definitionen ausgeführt. Eine Plattform für Data Management stellt die nötige Intelligenz bereit, um eingehende Datensätze in 100-GB-Zielpartitionsgrößen zu unterteilen. Das Partitionieren von Dateigruppen in Blöcke sorgt für eine höhere Performance bei der Erfassung und Wiederherstellung, da die Arbeitslast auf alle verfügbaren Knoten im Cluster verteilt wird. Diese Verteilung ermöglicht es, viele Dateien als einzelne Dateigruppe zu sichern. Darüber hinaus werden Dateigruppen weiterhin horizontal skaliert, wenn mehr Knoten an die Cloud Data Management-Plattform angeschlossen werden. Bei NAS-Daten wird der Durchsatz für NFS verbessert, da Anforderungen auf Verzeichnisebene statt auf Dateiebene eingegeben werden.