Data Domain: Auflisten von Dateien im Data-Domain-Dateisystem, sfs-dump

Summary: In diesem Artikel wird erläutert, wie Sie die Data-Domain-CLI verwenden, um die Datei- und Verzeichnislisten für einzelne MTrees oder für das Dateisystem als Ganzes auszulesen. Auf diese Weise können NutzerInnen mithilfe der Backupanwendung herausfinden, was in der Data Domain gespeichert ist. ...

This article applies to This article does not apply to This article is not tied to any specific product. Not all product versions are identified in this article.

Symptoms

Data Domain ist ein passives Back-end-Storage-Gerät. Es speichert nur das, was die Backupanwendungen vorgeben, und löscht nur Daten, wenn es von der Backupanwendung angewiesen wird, Dateien zu löschen. Data Domain erstellt oder löscht Dateien niemals eigenständig.

Unabhängig vom eingegebenen Protokoll enthält das Data-Domain-Dateisystem nur Dateien (in Verzeichnissen), die in MTrees organisiert sind. Alle Dateien (sowohl Dateien in aktiven als auch in allen Cloud-Einheiten) verwenden denselben Stamm und Namespace. Es ist nur ein einziger Namespace vorhanden, was bedeutet, dass bei den Datei- und Verzeichnisauflistungen die Dateien in den aktiven und Cloud-Einheiten ohne Unterscheidung aufgeführt werden.

Eine detaillierte Auflistung der Dateien kann aus folgenden Gründen nützlich sein:
  • Vergleichen mit einer Liste von Dateien, die von einer Backupanwendung gemanagt werden, um nach Dateien zu suchen, die aus dieser Backupanwendung verwaist sind
  • Auflisten aller Dateien über einem bestimmten Altersschwellenwert, um festzustellen, ob die Backupanwendung die Backupaufbewahrung ordnungsgemäß durchsetzt
Aufgrund der kürzlich in DDOS vorgenommenen Änderungen haben sich die Befehle zum Erfassen der Dateiauflistungen aus Data-Domain-Systemen im Laufe der Zeit geändert. Diese sind nur über die DD-CLI verfügbar und lauten je nach Version wie folgt:
  • Für DDOS vor 7.13.0.0, 7.10.1.15, 7.7.5.25 und 6.2.1.110
se sfs_dump
  • Für DDOS 7.13.0.0, 7.10.1.15, 7.7.5.25 und 6.2.1.110 oder höher
filesys sfs-dump

Cause

Die DDOS-Version 7.13.0.0, 7.10.1.15, 7.7.5.25 und 6.2.1.110 und höher bieten keinen Zugriff mehr auf den folgenden Befehl im SE-Modus:
sfs_dump
Der SE-Modus, der für den Zugriff auf diese Funktion erforderlich war, ist veraltet, siehe DSA-2023-412: Dell Technologies PowerProtect-Sicherheitsupdate für mehrere Sicherheitslücken

Für einen Übergangszeitraum waren einige Funktionen des alten sfs_dump -Befehls im SE-Modus nicht verfügbar, wurden aber zu einem späteren Zeitpunkt wieder eingeführt. In diesem Wissensdatenbank-Artikel wird versucht, die Unterschiede zu erklären und wie mit der jeweiligen Befehlsausgabe umzugehen ist.

Resolution

Wie Sie eine detaillierte Auflistung der Dateien in einer Data Domain über die CLI abrufen und wie Sie die Informationen der in der Data Domain gespeicherten Dateien verarbeiten, hängt von der ausgeführten DDOS-Version ab. Nachdem die Textausgabedatei mit den Details zu den Dateien erfasst wurde, ist die Verarbeitung dieser Ausgabe in ein brauchbareres Format immer gleich, da das Ausgabeformat für alle DDOS-Versionen gleich ist (oder mithilfe eines Skripts in ein gängiges Format konvertiert werden kann).

Bei allen DDOS-Versionen müssen sich NutzerInnen bei Data Domain als Admin-NutzerIn über einen SSH-Client anmelden, der auf Client-Seite die Protokollierung der Konsolenausgabe in eine Textdatei unterstützt (PuTTY eignet sich gut hierfür). NutzerInnen müssen den SSH-Client so konfigurieren, dass die Ausgabe in eine Textdatei auf dem Client-Computer protokolliert wird (dabei darf es keine Beschränkung hinsichtlich der Anzahl der protokollierten Zeilen oder der Länge der einzelnen Zeilen geben). Die SSH-Sitzungsprotokolldatei (und damit die DD-Dateiauflistungen) wird nicht auf die Data Domain geschrieben, sondern (normalerweise) auf den Desktop-Computer, von dem aus die SSH-Verbindung initiiert wurde.

Stellen Sie bei der Erfassung der SSH-Sitzungsausgabe sicher, dass Sie der Datei einen aussagekräftigen Namen geben (z. B. den Data-Domain-Hostnamen und den MTree-Namen, der ausgelesen werden soll) und dass ausreichend Speicherplatz für die Protokolldatei vorhanden ist, die bei Systemen mit 1 Million Dateien ca. 200 MB betragen kann.

Der genaue Befehl, der über die DD-CLI zum Erfassen von Dateiauflistungen ausgeführt werden muss, hängt von der verwendeten DDOS-Version ab. Die Befehle sind unten aufgelistet.
 

DDOS-Versionen vor 7.13.0.0, 7.10.1.15, 7.7.5.25 und 6.2.1.110:

Diese Versionen unterstützen weiterhin den Befehl se sfs_dump (und die Option -c zur Ausgabe der Dateidetails direkt als CSV ohne weitere Verarbeitung), obwohl aus Sicherheitsgründen davon abgeraten wird, den SE-Modus zu verwenden. Stattdessen sollte auf die neueste verfügbare LTS-DDOS-Version aktualisiert werden.

Stellen Sie sicher, dass Sie bei der Data Domain als Admin-NutzerIn mit einem SSH-Client angemeldet sind, der für das Schreiben der Ausgabe auf die Festplatte konfiguriert ist. Wechseln Sie in den SE-Berechtigungsmodus und führen Sie dann den folgenden Befehl für jeden MTree aus, für den Sie die Dateidetails abrufen wollen:
#### To produce the output directly as CSV
# se sfs_dump -c <mtree-path>

#### To produce the output as default format
# se sfs_dump <mtree-path>
Mit dem Befehl können in diesen Versionen auch alle Dateien im Dateisystem auf einmal aufgelistet werden (anstatt einzeln für jeden MTree). Um die Dateidetails für alle Dateien im Dateisystem abzurufen, lassen Sie den MTree-Pfad weg:
# se sfs_dump -c
Beenden Sie nach Abschluss des Vorgangs die Protokollierung des SSH-Clients auf die Festplatte und speichern Sie die Dateien für die weitere Verarbeitung.

Das Format für die Befehlsausgabe ist eine Zeile pro Datei. Wenn Sie -c nicht verwenden, ist das Format mit dem oben für spätere Versionen angegebenen identisch. In Fällen, in denen -c (für die CSV-Ausgabe) verwendet wurde, sieht das Format folgendermaßen aus (einschließlich einer Kopfzeile, die als erste Zeile in der Ausgabe angezeigt wird):
name    mtime   fileid  size    seg_bytes       seg_count       redun_seg_count pre_lc_size     post_lc_size
/data/col1/backup/file       1656995350000000000     78      33554431        33668007        4016    0       33668007        34208564


DDOS-Version 7.13.0.0, 7.10.1.15, 7.7.5.25 und 6.2.1.110 oder höher:

Diese Versionen bieten keinen Zugriff mehr auf sfs_dump im SE-Modus (Folgendes ist nicht verfügbar):
se sfs_dump
Der SE-Modus ist aufgrund gefundener Sicherheitsprobleme veraltet. Den alternativ zu verwendenden Befehl finden Sie unten. Beachten Sie den leicht abweichenden Befehlsnamen und dass der MTree, der aufgelistet werden soll, nach dem Schlüsselwort „MTree“ angegeben wird:
# filesys sfs-dump mtree <mtree-path>
Für die in der Überschrift angegebenen Versionen entspricht dieser sfs-dump-Befehl dem Befehl se sfsa_dump:
  • Der neue Befehl bietet keine Unterstützung für die Option -c für die Ausgabe der Dateiinformationen im CSV-Format (Spalten).
  • Mit dem neuen Befehl kann jeweils nur ein MTree ausgelesen werden. Es gibt keine Unterstützung für das Auslesen des gesamten Dateisystems in einem einzigen Aufruf.
Wenn KundInnen mit diesen Versionen die Dateidetails aller MTrees ausgeben möchten, müssen sie die gesamte Liste der MTrees im Data-Domain-Dateisystem durchlaufen und den Befehl für jeden MTree einzeln ausführen. NutzerInnen können eine Liste der MTrees im System mit folgendem Befehl abrufen:
# mtree list
Die Ausgabe des folgenden Befehls ist identisch mit der des vorherigen Befehls se sfs_dump , wenn er ohne die Option -c verwendet wird.
filesys sfs-dump
Stellen Sie sicher, dass Sie bei der Data Domain als Admin-NutzerIn mit einem SSH-Client angemeldet sind, der für das Schreiben der Ausgabe auf die Festplatte konfiguriert ist, und führen Sie dann den folgenden Befehl für jeden MTree aus, für den Sie die Dateidetails abrufen möchten:
# filesys sfs-dump mtree <mtree-path>

Wenn Sie die Dateidetails für mehr als einen MTree abrufen, wählen Sie aus, ob alle Auslesungen in dieselbe Ausgabedatei übertragen werden sollen, oder wechseln Sie in der SSH-Client-Konfiguration zu einer anderen Datei, bevor Sie den Befehl für jeden MTree ausführen.

Alternativ kann die Erfassung der Ausgabe auch unbeaufsichtigt durchgeführt werden, indem Sie den Befehl wie folgt über SSH ausführen:

#### Releases 7.13.0.0, 7.10.1.15, 7.7.5.25 and 6.2.1.110 onwards only
# ssh sysadmin@DD-HOSTNAME "filesys sfs-dump mtree /data/col1/backup" > sfs-dump-DD-backup.txt

In beiden Fällen zeigt die Ausgabe eine Zeile pro Datei im folgenden Format an:

/data/col1/backup/file: mtime: 1580211658000000000 fileid: 175 size: 136794 type: 9 seg_bytes: 138282 seg_count: 18 redun_seg_count: 14 (78%) pre_lc_size: 15045 post_lc_size: 8760 (58%) mode: 02000100644 start_offset: 0 end_offset: 18446744073709551615

DDOS-Version 8.1.0.0, 7.13.1.10, 7.10.1.30 und 7.7.5.40 oder höher:

Aufgrund von Kundennachfragen wurden einige Funktionen des alten Befehls se sfs_dump wieder eingeführt und sind nun mit dem Befehl filesys sfs-dump verfügbar. Dazu zählen:
  • Die Möglichkeit, die Option -c hinzuzufügen, damit die Ausgabe in einem CSV-ähnlichen Format gedruckt wird (durch Spalten getrennte Felder)
  • Die Möglichkeit, die Dateiinformationen für alle Dateien im Dateisystem gleichzeitig zu erfassen
Der Befehl ist weiterhin derselbe wie in den unmittelbar vorherigen Versionen, aber mit den erwähnten Verbesserungen, die im Folgenden zusammengefasst werden:
 
#### File listing for all the files in a given MTree path
# filesys sfs-dump mtree <mtree-path>

#### File listing for all the files in a given MTree path, with CSV-like output
# filesys sfs-dump -c mtree <mtree-path>

#### File listing for all the files in the FS
# filesys sfs-dump

#### File listing for all the files in the FS, with CSV-like output
# filesys sfs-dump -c

Dieser Befehl bleibt weiterhin „ausgeblendet“, sodass er nicht in der interaktiven CLI-Hilfe oder in der Dokumentation angezeigt wird.
 

Verarbeitung der Daten von sfs_dump oder filesys sfs-dump in nützliche Informationen:

Das Format für die einzelnen Dateien, die in der Ausgabe gemeldet werden, wenn filesys sfs-dump oder sfs_dump ohne -c -Option verwendet werden, ist wie folgt:
/data/col1/backup/file: mtime: 1580211658000000000 fileid: 175 size: 136794 type: 9 seg_bytes: 138282 seg_count: 18 redun_seg_count: 14 (78%) pre_lc_size: 15045 post_lc_size: 8760 (58%) mode: 02000100644 start_offset: 0 end_offset: 18446744073709551615

Field 01 : filename with full path (/data/col1/backup/file)
Field 03 : file last modification time as UNIX epoch in nanoseconds (nanoseconds since January 1st 1970 at midnight)
Field 05 : file (inode) ID, inode numbers are per MTree (175)
Field 07 : pre-comp size for the file in bytes (136794)
Field 09 : type of file (9)
Field 11 : segment store bytes (this is NOT the file size), please ignore (138282)
Field 13 : segment count, or the number of segments the file consists of (18)
Field 15 : number of file segments which are redundant, or not unique (14)
Field 16 : percentage of non-unique segments to total segments (78%)
Field 18 : combined size of the file's unique segments after deduplication (15045)
Field 20 : combined size of the file's unique segments after deduplication and local compression (8760)
Field 21 : ratio of post-deduplicated + post-compressed unique segments size to post-deduplicated unique segment size (58%), shows how well local compression worked
Field 23 : file mode, please ignore
Im obigen Beispiel hat die Datei die ursprüngliche Größe von 136.794 Bytes. Nach dem Durchlaufen der Data-Domain-Dateisystem-Aufnahmepipeline wird berechnet, dass die Datei nach der Deduplizierung 15.045 Bytes benötigt und 8.760 Bytes, wenn die einmaligen Segmente der Datei vor dem Schreiben auf die Festplatte komprimiert werden. Daher gilt:
  • Für die Dateideduplizierung („gcomp“ oder globale Komprimierung genannt) wird der Faktor 9,09 (von 136.794 auf 15.045 Bytes) verwendet.
  • Für die lokale Dateikomprimierung („lcomp“ oder lokale Komprimierung genannt) wird der Faktor 1,72 (von 15.045 auf 8.760 Bytes) verwendet.
  • Für die geschätzte Gesamtreduzierung der Dateigröße („Komprimierungsverhältnis“ genannt) wird der Faktor 15,62 (von 136.794 auf 8.760 Bytes) verwendet.
Alternativ ist die Ausgabe von sfs_dump -c ähnlich, aber kürzer:
/data/col1/backup/file       1656995350000000000     78      33554431        33668007        4016    0       33668007        34208564

Field 01 : filename with full path (/data/col1/backup/file)
Field 02 : file last modification time as UNIX epoch in nanoseconds (nanoseconds since January 1st 1970 at midnight)
Field 03 : file (inode) ID, inode numbers are per MTree
Field 04 : pre-comp size for the file in bytes (33554431)
Filed 05 : segment store bytes (this is NOT the file size), please ignore (33668007)
Field 06 : segment count, or the number of segments the file consists of (4016)
Field 07 : number of file segments which are redundant, or not unique (0)
Field 08 : combined size of the file's unique segments after deduplication (33668007)
Field 09 : combined size of the file's unique segments after deduplication and local compression (34208564)
Für dieses Beispiel können die gleichen Berechnungen wie für das vorherige Beispiel durchgeführt werden:
  • Für die Dateideduplizierung („gcomp“ oder globale Komprimierung genannt) wird der Faktor 0,99 (von 33.554.431 auf 33.668.007 Bytes) verwendet.
  • Für die lokale Dateikomprimierung („lcomp“ oder lokale Komprimierung genannt) wird der Faktor 0,98 (von 33.668.007 auf 34.208.564 Bytes) verwendet.
  • Für die geschätzte Gesamtreduzierung der Dateigröße („Komprimierungsverhältnis“ genannt) wird der Faktor 0,98 (von 33.554.431 auf 34.208.564 Bytes) verwendet.
Im Vergleich zu der Datei ohne die Option -c wird hier weder eine Deduplizierung (keine redundanten Segmente) noch eine lokale Komprimierung erreicht. Dies weist darauf hin, dass es sich um eine komprimierte Datei handelt.
 
Achtung: Die Daten in den Ausgabedateien, die sich auf Größen beziehen (außer „pre-comp size for the file in bytes“) sind als ungefähre Angaben zu betrachten und nicht vollständig zuverlässig. Die Metadaten für Dateien werden zum Zeitpunkt der Dateiaufnahme erstellt. Sie sind zu dem Zeitpunkt korrekt, werden aber danach nicht mehr aktualisiert, sodass sie mit der Zeit veralten. Und auch wenn für die post_lc_size einer Datei ein bestimmter Wert angezeigt wird, bedeutet das nicht, dass der von dieser Datei verwendete Speicherplatz mit diesem Wert übereinstimmt, da es zahlreiche Overheads auf Dateisystemebene gibt, die auf Dateiebene nicht berücksichtigt werden. Die Einschränkungen entsprechen denen des Befehls:
mtree show compression
Um die Informationen aus den obigen Ausgabedateien nutzen zu können, müssen die numerischen Daten für den jeweiligen Zweck der NutzerInnen verarbeitet werden. Anwendungsfälle können u. a. sein:
  • Ermitteln von gcomp und lcomp für Dateien auf einem bestimmten Pfad (wenn ein Pfad zu einem bestimmten Backup-Server oder -Client, einer bestimmten Policy, einem bestimmten Job usw. gehört)
  • Berechnen, wie viele Daten (vor der Komprimierung) an einem bestimmten Speicherort vorhanden sind, die älter sind als ein bestimmter Zeitraum (um verwaiste Backups zu ermitteln oder Probleme von Backupanwendungen zu beheben, die Backups nicht rechtzeitig ablaufen lassen)
  • Jede andere Statistik, für die NutzerInnen eine Verwendung haben
Um nur einen einzigen Satz an Anweisungen zu erhalten und den Verlust der Option sfs_dump -c in den neueren Versionen zu kompensieren, empfehlen wir, die Ausgabedaten in das oben genannte CSV-Format zu konvertieren und dann die CSV-Datei zur weiteren Verarbeitung zu verwenden. Je nach Ihren Fähigkeiten können Sie die Nicht-CSV-Ausgabe jedoch auch direkt verarbeiten.

Um eine Nicht-CSV-basierte Ausgabe von sfs_dump in eine mit sfs_dump -c identische Ausgabe zu konvertieren, können Sie die folgende Linux-Befehlszeile verwenden:
# cat sfs-dump-noCSV.txt | grep ^/ | awk '
BEGIN {print "name\tmtime\tfileid\tsize\tseg_bytes\tseg_count\tredun_seg_count\tpre_lc_size\tpost_lc_size"}
{
    colon_index = index($0, ":")
    filename = substr($0, 1, colon_index - 1)
    gsub(/^[[:space:]]+|[[:space:]]+$/, "", filename)
    n = split(substr($0, colon_index + 1), fields, " ")
    print filename "\t" fields[2] "\t" fields[4] "\t" fields[6] "\t" fields[10] "\t" fields[12] "\t" fields[14] "\t" fields[17] "\t" fields[19]
}' > sfs-dump-CSV.csv
 
Hinweis: Der obige Befehl ignoriert alle Einträge in der Eingabedatei (sfs-dump-noCSV.txt), die nicht mit einem Schrägstrich beginnen, da nur Zeilen, die mit „/data“ beginnen, Dateidetails für die Verarbeitung enthalten sollten. Ausgabedateien haben eine erste Zeile als Kopfzeile und verwenden das Tabulatorzeichen (\t) als Feldtrennzeichen.

Alle nachfolgenden Anweisungen werden NutzerInnen in der vorliegenden Form zur Verfügung gestellt. Es gibt keine Gewährleistung oder Verpflichtung seitens Dell für die nachstehenden Anweisungen. Das Gewinnen von Erkenntnissen aus den Dateidetails ist die Aufgabe von NutzerInnen. Wie dies erreicht wird, hängt komplett vom Toolset ab, das für das Mining von Daten in der Dateiausgabe verwendet wird, sowie dem Ziel und den Kenntnissen der NutzerInnen in der Verarbeitung der Daten aus der oben beschriebenen Befehlsausgabe. Einige NutzerInnen verwenden möglicherweise die Linux-Befehlszeilenverarbeitung für Textdateien, um Aggregate zu erstellen, andere möchten Eingaben für Diagrammwerte mithilfe von „gnuplot“ erzeugen, während die Mehrheit der NutzerInnen höchstwahrscheinlich einen einfacheren (aber eingeschränkten) Ansatz sucht, um aus der CSV-Datei ein Arbeitsblatt für Analysezwecke zu erstellen.

Dell hat sich bemüht, sicherzustellen, dass die nachstehenden Anweisungen korrekt sind, wie erwartet funktionieren und einen Nutzen bieten. Wir können jedoch nicht garantieren, dass sie für jede/n NutzerIn funktionieren, und wir bieten auch keinen Support für diese Anweisungen, da sie außerhalb des Supportumfangs liegen.


Importieren der CSV-formatierten Ausgabe von sfs_dump in ein Arbeitsblatt (Beispiel für Excel):

Sobald die CSV-Version der Dateidetails verfügbar ist, besteht eine Möglichkeit, Erkenntnisse aus den Daten zu gewinnen, darin, die Daten in eine Tabellenkalkulationssoftware zu laden. Als Beispiel wird hier Microsoft Excel verwendet, obwohl die Anweisungen für andere Software ähnlich sein sollten. Um die CSV-Textdatei als CSV in Excel zu importieren, führen Sie die folgenden Schritte aus:
  1. Öffnen Sie Excel und erstellen Sie ein leeres neues Arbeitsblatt.
  2. Gehen Sie oben zum Menü Daten und klicken Sie dann auf das Symbol Aus Text/CSV.
  3. Verwenden Sie das Dialogfeld, um die Dateidaten im CSV-Format (sfs-dump-CSV.csv wie im Beispielkonvertierungsskript für das Nicht-CSV-Format) zu finden, wählen Sie sie aus und klicken Sie auf Importieren.
  4. Wenn das Format der Eingabedatei korrekt ist und Excel das Format aus den ersten 200 Zeilen auslesen kann (was es sollte), sollte ein Dialogfeld die Vorschau des zu erzeugenden Arbeitsblatts anzeigen. Überprüfen Sie die Informationen, um sicherzustellen, dass alles korrekt angezeigt wird, einschließlich der ersten Zeile als Kopfzeile.
  5. Wenn in der Vorschau alles in Ordnung ist, klicken Sie unten im Dialogfeld auf die Schaltfläche Laden und Ihr neues Arbeitsblatt wird Ihnen mit der korrekten Formatierung angezeigt, wobei die Feldüberschriften mit Such- und Filteroptionen versehen sind.
Die Daten im Arbeitsblatt sind auch so bereits nützlich. Sie können aber z. B. einen Zahlenfilter auf numerische Felder wie Größe (um nur Dateien ab einer bestimmten Größe anzuzeigen) oder einen Textfilter auf das Namensfeld anwenden, sodass nur die Dateien aus der Data-Domain-Dateiausgabe angezeigt werden, die einem bestimmten Muster entsprechen (nur diejenigen, die mit dem Pfad für einen bestimmten MTree beginnen), und andere abgeleitete Berechnungen mit diesen Daten durchführen.

Ein korrekt importiertes Excel-Arbeitsblatt sollte Daten in den Spalten A bis I enthalten. Wenn nur Daten in Spalte A vorhanden sind, sich aber über den gesamten Bildschirm erstrecken, schließen Sie Excel und wiederholen Sie die obigen Schritte 1 bis 5.

Hinzufügen weiterer berechneter Felder

Das Arbeitsblatt kann um so viele berechnete Felder erweitert werden wie nötig. Ein interessantes Feld, das hinzugefügt werden kann, ist das für Menschen lesbare Datum und die Uhrzeit, das/die der mtime der Dateien entsprechen (Zeitpunkt der letzten Änderung, was normalerweise der Zeitpunkt ist, an dem sie auf die DD geschrieben wurden). Außerdem kann das Berechnen und Anzeigen von Komprimierungswerten pro Datei hilfreich sein, je nachdem, wofür die Daten verwendet werden sollen. Die neuen Spalten werden automatisch mithilfe von Excel-Formeln ausgefüllt, wie unten beschrieben.

Zeitstempelkonvertierung:

So konvertieren Sie den UNIX-ähnlichen Zeitstempel in ein/e für Menschen lesbare/s Datum und Uhrzeit:
  1. Klicken Sie mit der rechten Maustaste auf die Zelle J2 und wählen Sie Zellen formatieren aus.
  2. Wählen Sie in der Liste Kategorie auf der linken Seite Benutzerdefiniert aus.
  3. Falls noch nicht vorhanden, erstellen Sie das Format für das für Menschen lesbare Datum-/Uhrzeitformat (das Beispiel enthält die EST-Zeichenfolge am Ende. Sie können sie durch Ihre eigene Zeitzonendefinition ersetzen oder EST ganz weglassen): jjjj-mm-tt hh:mm:ss "EST"
  4. Klicken Sie auf OK, wenn Sie fertig sind. Jetzt verfügt Zelle J2 über ein benutzerdefiniertes Format für Daten.
  5. Fügen Sie die folgende Formel zu Zelle J2 hinzu. Ersetzen Sie in der Formel das (-6*3600) durch den korrekten Zeitzonenunterschied zu UTC für die konfigurierte Zeitzone in der Data Domain zum Zeitpunkt des Abrufens der sfs-dump-Daten. Zum Beispiel ist die östliche US-Zeit im Sommer 6 Stunden hinter UTC zurück, daher hier „-6“.
Wenn Sie eine so präzise Zeiteinstellung nicht benötigen, können Sie stattdessen eine abgekürzte Formel verwenden. Die einfachste Möglichkeit, die Formel hinzuzufügen und zu vermeiden, dass das Datums- und Uhrzeitformat überschrieben wird, besteht darin, eine der beiden folgenden Versionen zu kopieren und in Zelle J2 einzufügen, nachdem Sie das Zeichen für „gleich“ = in die Zelle eingegeben haben, um mit der Bearbeitung der Zelle zu beginnen:
(((B2/1000000000+(-6*3600))/86400)+25569)
(((B2/1000000000)/86400)+25569)
Hinweis: Wenn Sie Text in J2 einfügen, ohne die Zelle zuerst in den Bearbeitungsmodus (sozusagen) zu versetzen, überschreiben Sie das Format der Zelle. Alternativ können Sie der Formel ein = voranstellen, den gesamten Text kopieren, mit der rechten Maustaste auf Zelle J2 klicken, Inhalte einfügen und dann Als Text auswählen und abschließend auf OK klicken. Dies sollte den gleichen Effekt erzielen. Wenn dies richtig gemacht wurde, führt Excel automatisch Folgendes aus:
  • Fügt die Formel in Zelle J2 sowie in jede Zelle der restlichen Zeilen in der Tabelle ein 
  • Berechnet die Formel für die gesamte Tabelle und zeigt Datum und Uhrzeit im konfigurierten Format an
  • Formatiert die Spalte wie die bereits vorhandenen und konfiguriert die Kopfzeile als Datum mit der Möglichkeit, Datumsfilter anzuwenden. Das Einzige, was Sie tun müssen, ist einen passenden Namen für die Spalte (Datum) anzugeben.

Komprimierungsinformationen

Sie können Spalten für die Komprimierungsinformationen pro Datei hinzufügen, indem Sie wie oben erläutert vorgehen. Dieses Mal werden die Formeln mit dem = angegeben, sodass Sie den gesamten Text kopieren und über Inhalte einfügen als Text einfügen müssen:
  • Kopieren Sie die folgende Formel und fügen Sie sie über Inhalte einfügen als Text in Zelle K2 ein, um eine Spalte für die Deduplizierung bzw. gcomp pro Datei zu erstellen:
    =IF(H2=0,0,D2/H2)
  • Kopieren Sie die folgende Formel und fügen Sie sie über Inhalte einfügen als Text in Zelle L2 ein, um eine Spalte für die lokale Komprimierung bzw. lcomp pro Datei zu erstellen:
    =IF(I2=0,0,H2/I2)
  • Kopieren Sie die folgende Formel und fügen Sie sie über Inhalte einfügen als Text in Zelle M2 ein, um eine Spalte für das gesamte Dateikomprimierungsverhältnis pro Datei zu erstellen:
    =K2*L2
Geben Sie den neuen Spalten passende Namen. Wenn Sie für die Komprimierungswerte ein anderes Format verwenden möchten (z. B. um die Anzahl der Dezimalstellen zu begrenzen), gehen Sie wie im Beispiel für Datum und Uhrzeit vor und legen Sie das numerische Format der Zelle im Voraus fest, bevor Sie die Formel einfügen.

Denken Sie daran, Ihre Arbeit zu speichern, indem Sie zum Menü Datei gehen und Speichern als verwenden, wobei der Typ für die gespeicherte Datei auf Excel-Arbeitsmappe (*.xlsx) festgelegt sein muss, damit Formatierung und Filter beibehalten werden.

Nach Abschluss der beschriebenen Aktionen enthält Ihr Arbeitsblatt die folgenden (relevanten) Spalten:
  • A enthält den Dateinamen.
  • B enthält den Datumsstempel (in UNIX-Epochen in Nanosekunden) für den Zeitpunkt, an dem die Datei zuletzt geschrieben wurde.
  • D enthält die Originalgröße der Datei.
  • H enthält die Größe nach der globalen Komprimierung.
  • I enthält die Größe nach der globalen und der lokalen Komprimierung.
  • J enthält den Datumsstempel für den Zeitpunkt, an dem die Datei zuletzt geschrieben wurde, in für Menschen lesbarer Form.
  • K enthält die globale Komprimierung (Deduplizierung) für die Datei.
  • L enthält die lokale Komprimierung für die Datei.
  • M enthält die gesamte Komprimierung für die Datei.
Alle Dateigrößen werden in Bytes angegeben.
Sie können Excel nun verwenden, um nach Bedarf zu filtern oder zu sortieren, um Berichte zu Ihren Daten zu erstellen.
  • So zeigen Sie beispielsweise nur Dateien im MTree /data/col1/backup an, die älter als 30 Tage sind:
  1. Klicken Sie in der Kopfzeile Name auf den Pfeil nach unten, wählen Sie Textfilter aus, dann Beginnt mit und geben Sie dann /data/col1/backup/ in das Feld ein. Der abschließende Schrägstrich ist wichtig. Klicken Sie auf OK.
  2. Klicken Sie in der Kopfzeile Zuletzt geschriebenes Datum auf den Pfeil nach unten, wählen Sie Datumsfilter und dann Vor aus. Verwenden Sie die Datumsauswahl auf der rechten Seite des Dialogfelds, um ein Datum auszuwählen, das 30 Tage zurückliegt. Klicken Sie auf OK.
In der Statusleiste unten wird angezeigt, wie viele Zeilen dieser Auswahl entsprechen.

Additional Information

Befehl für Dateispeicherort (aktiv und Cloud)

Es gibt eine Möglichkeit, die Dateien mit der Angabe, welche sich in aktiven und welche in Cloud-Einheiten befinden, aufzulisten. Diese lautet wie folgt:
#### For the DD FS as a whole
# filesys report generate file-location

#### For an individual MTree or subdirectory
# filesys report generate file-location path /data/col1/test

Die Ausgabe sieht in beiden Fällen folgendermaßen aus:

-------------------------      ----------------------      ----------------------      ---------------------------
File Name                      Location(Unit Name)         Size                        Placement Time
-------------------------      ----------------------      ----------------------      ---------------------------
/data/col1/test/file1.bin                  Cloud-Unit                  200.00 GiB      Sat Mar  5 13:24:10 2022
/data/col1/test/file2.bin                      Active                   10.00 TiB      Sat May 14 00:48:17 2022
-------------------------      ----------------------      ----------------------      ---------------------------
Der obige Befehl ist jedoch für die meisten Zwecke ungeeignet, da z. B. die Größe in menschenlesbaren Einheiten angegeben wird (und nicht in Bytes oder MiB oder einem festgelegten Multiplikator). Außerdem entspricht nur für Dateien in aktiven Einheiten die Platzierungszeit dem Zeitpunkt, zu dem die Backups auf der Data Domain erstellt wurden, jedoch nicht für Dateien in der Cloud (die „Platzierungszeit“ für Dateien in der Cloud entspricht dem Zeitpunkt, zu dem die Dateien in die Cloud-Einheit verschoben wurden).

Beachten Sie auch, dass der folgende Befehl (und das Skript zur Konvertierung von Nicht-CSV- sfs_dump) Daten in Spalten ausgibt, die durch Tabulatoren getrennt sind. Die in der Ausgabe vorhandenen Tabulatorzeichen müssen in der Protokolldatei gespeichert werden, da andernfalls mit den oben beschriebenen Schritten zum Importieren der CSV-Datei in Excel die Felder nicht korrekt getrennt werden können.
sfs_dump -c
Die Anweisungen setzen angemessene Excel-Kenntnisse voraus, können aber auch für andere Tabellenkalkulationssoftware verwendet werden.

Moderne Versionen von Excel erlauben zwar viele Zeilen, denken Sie jedoch daran, dass jede Datei in der zu verarbeitenden Ausgabe von sfs_dump eine einzelne Zeile darstellt, sodass Excel in der Lage sein muss, ein Arbeitsblatt mit so vielen Zeilen wie Dateien in Ihrem Dataset schnell zu verarbeiten und zu aktualisieren. Der Grenzwert liegt bei etwas mehr als 1 Million Zeilen, aber selbst bei einer weit darunter liegenden Dateianzahl ist Excel möglicherweise nicht das passende Tool für die Aufgabe (zu langsam).

Wenn Ihre Ausgabe von sfs_dump zu viele Dateien für Ihre Excel-Version enthält oder Sie Daten aus Performancegründen in kleineren Bits verarbeiten möchten, können Sie versuchen, das Verfahren einmal für jeden MTree auszuführen, sodass Sie mehrere Arbeitsblätter für das System erhalten.

Da selbst die Ausgabe von sfs_dump für einen einzelnen MTree für Excel zu groß sein kann, können Sie in diesem Fall den Linux-Befehl split (oder ein ähnliches Tool für die Aufteilung großer Textdateien) verwenden, um mehrere kleinere CSV-Dateien zu erhalten, die Sie nacheinander verarbeiten können, z. B.:
# split  -b <size> <filename> <new filename prefix>  (splits by file size)
# split  -l <size> <filename> <new filename prefix>  (splits by number of lines)
# split  -n <size> <filename> <new filename prefix>  (splits by number of pieces)

Um beispielsweise eine Eingabetextdatei in Blöcke von jeweils 200 MiB aufzuteilen, sodass die Teile benannt werden, führen Sie zuerst Folgendes aus:

"sfs_dump.out.split"

Und anschließend:

# split -b 200M sfs_dump.out sfs_dump.out.split


Skript für die Verwendung von "filesys sfs-dump" für die Ausgabe der Dateidaten des gesamten Dateisystems

Für die wenigen Versionen, bei denen die Dateidetails nicht im CSV-Format ausgegeben werden können, wird NutzerInnen das weiter unten angezeigte Skript in der vorliegenden Form (ohne Gewähr) von Dell zur Verfügung gestellt, um ein ähnliches Ergebnis durch die Verarbeitung einer Nicht-CSV-basierten Ausgabe von sfs_dump zu erzielen.

Da die Versionen, die keine CSV-Ausgabe unterstützen, auch nicht zulassen, dass die Informationen für alle Dateien im Dateisystem als Ganzes ausgegeben werden, verwendet das Skript SSH, um eine Verbindung zur Ziel-Data-Domain herzustellen und durch die Liste der MTrees zu iterieren. Dabei wird die Dateiausgabe für jeweils einen MTree ausgeführt, um die Dateiliste für alle MTrees zu erfassen, und diese dann für die weitere Verarbeitung in ein CSV-Format umgewandelt:
#!/bin/bash

#### WARNING
####     This script is provided to you by Dell Technologies with NO GUARANTEE, as best-effort sample code to get a full FS sfs-dump collected
####     for DDOS releases which do not support "se sfs-dump", or as an alternative to it, in releases which support "filesys fs-dump"
####     That this script does not work for you, or if you need help setting it up, extending it, or resolving any issues, is not entitled to support
####     This script is not part of Dell PowerProtect / Data Domain, and hence it is not supported

#### Replace values below to suit your needs
USERNAME="sysadmin"
DD_HOSTNAME="10.60.36.172"
#### NO CHANGES NEEDED BEYOND THIS POINT

clear
echo "Script collects a full FS sfs-dump from \"${DD_HOSTNAME}\", using the command \"filesys sfs-dump\", one MTree at a time"
echo "    * Script has to be configured by settting the \"USERNAME\" and \"DD_HOSTNAME\" variables within the top of the script"
echo "    * Script expects passwordless SSH connection as \"USERNAME\" to the \"DD_HOSTNAME\" configured"
echo "    * To configure passwordless SSH login to a DataDomain, check KB at https://www.dell.com/support/kbdoc/000004033 "
echo "    * Test passwordless login is configured and working prior to going ahead with this script"
echo "    * If passwordless login is not configured, script will ask for the \"${USERNAME}\" password "
echo "          - Once for getting the MTree list"
echo "          - And once for each one of the MTrees in \"${DD_HOSTNAME}\" "
echo
echo -n "Are you sure you want to continue? (y/n) : "
read -n 1 answer
echo
if [ "${answer}" = "y" ]; then
    echo "Going ahead with the script."
    echo
else
    echo "Stopping script now. Re-run when passwordless login to \"${DD_HOSTNAME}\" as \"${USERNAME}\" works. Bye."
    exit 1
fi

echo -n "1/6 : Collecting list of MTrees from DD..."
ssh ${USERNAME}@${DD_HOSTNAME} "mtree list" 2>/dev/null | grep ^/ | awk '{print $(NF-3)}' > mtree-list.txt
echo "Done."

n_mtrees=$( wc -l mtree-list.txt | cut -d" "  -f1 )
echo -n "2/6 : Collecting per-Mtree sfs-dump information for ${n_mtrees} MTrees ..."
for mtree in `cat mtree-list.txt`; do
    name=$(echo $mtree | cut -d/ -f4)
    ssh ${USERNAME}@${DD_HOSTNAME} "filesys sfs-dump mtree ${mtree}" 2>/dev/null | grep ^/ > sfs-dump-${name}.txt
    echo -n "."
done
echo "Done."

echo -n "3/6 : Putting all the files together..."
for file in `ls sfs-dump-*.txt`; do 
    if [ -s "${file}" ]; then cat ${file} >> sfs-dump-noCSV.txt; fi
done
echo "Done."

echo -n "4/6 : Converting sfs-dump output to CSV format..."
cat sfs-dump-noCSV.txt | grep ^/ | grep -v ^$ | awk '
BEGIN {print "name\tmtime\tfileid\tsize\tseg_bytes\tseg_count\tredun_seg_count\tpre_lc_size\tpost_lc_size"}
{
    colon_index = index($0, ":")
    filename = substr($0, 1, colon_index - 1)
    gsub(/^[[:space:]]+|[[:space:]]+$/, "", filename)
    n = split(substr($0, colon_index + 1), fields, " ")
    print filename "\t" fields[2] "\t" fields[4] "\t" fields[6] "\t" fields[10] "\t" fields[12] "\t" fields[14] "\t" fields[17] "\t" fields[19]
}' > sfs-dump-CSV.csv
echo "Done."

echo -n "5/6 : Cleaning up..."
for mtree in `cat mtree-list.txt`; do name=$(echo $mtree | cut -d/ -f4); rm -f sfs-dump-${name}.txt ; done
rm sfs-dump-noCSV.txt
rm mtree-list.txt
echo "Done."


echo -n "6/6 : Summary"
echo
n_files=$( wc -l sfs-dump-CSV.csv | cut -d" "  -f1 )
echo
echo "Collecting whole FS sfs-dump data from ${HOSTNAME} completed"
echo "File includes output for ${n_mtrees} MTrees, with a combined $(( ${n_files} - 1 )) files across Active and Cloud Tiers (if applicable)"
echo "Start of file shown below for your convenience :"
echo "===================="
head -5 sfs-dump-CSV.csv
echo "===================="
echo
echo "Done."

exit 0

Skript zum Kombinieren der Ausgabe von Nicht-CSV-basiertem „sfs-dump“ und „filesys report generate file-location“ in einer CSV-Datei mit denselben Informationen wie im obigen Skript sowie Informationen zum Datei-Tier und zur Platzierungszeit

Das folgende Skript wird NutzerInnen in der vorliegenden Form (ohne Gewähr) von Dell zur Verfügung gestellt, um die Ausgabe der obigen Befehle sfs_dump und filesys report generate file-location zu optimieren. NutzerInnen können Dateien basierend auf dem Tier (aktiv oder eine der bis zu zwei konfigurierten Cloud-Einheiten) herausfiltern, um einen genaueren Einblick in die Dateiverteilung pro Tier zu erhalten, da jedem Dateieintrag in der Ausgabe-CSV-Datei Informationen zum Standort des Tiers und zur Platzierungszeit hinzufügt werden.

Die Skripte erwarten die Ausgabe von sfs-dump (nicht sfs_dump -c) als ersten Parameter und die Ausgabe von filesys report generate file-location als zweiten. Die Ausgabe wird in eine hartcodierte Datei mit dem Namen „sfs-dump-output-tiers.csv“ geschrieben, der im Skript selbst geändert werden kann.

Die Ausgabe kann mit Excel auf die gleiche Weise wie oben erläutert verarbeitet werden.
#!/bin/bash

#### WARNING
####     This script is provided to you by Dell Technologies with NO GUARANTEE, as best-effort sample code to match the output from commands :
####       * sfs-dump (in non CSV format)
####       * filesys report generate file-location
####     So that a new CSV with the file paths appearing on both is created for all the data in sfs-dump file with the added tier and placement time information from location report
####
####     This script is not part of Dell PowerProtect / Data Domain, and hence it is not supported
####
####     Usage : extend-sfs-dump-with-tier.sh sfs-dump-output.csv file-location-output.log
####     Output : static "sfs-dump-output-tiers.csv" file name (may be changed below)

#### Replace values below to suit your needs
OUTPUT_FILENAME="sfs-dump-output-tiers.csv"
#### NO CHANGES NEEDED BEYOND THIS POINT

clear

if [ ! $# == 2 ]; then
    echo "Combine output from sfs-dump and tier location report into a CSV file with tier and placement time information"
    echo
    echo "Usage : $0 SFS-DUMP-OUTPUT-FILE    REPORT-FILE-LOCATION-FILE"
    echo "NOTE : SFS-DUMP-OUTPUT-FILE has to be in non-CSV format"
    exit 1
fi

INPUT_SFSDUMP="$1"
INPUT_LOCATION="$2"


echo -n "1/6 : Sanity checking input files..."
if [ ! -s "${INPUT_SFSDUMP}" ]; then
    echo "Input file ${INPUT_SFSDUMP} does not exist"
    exit 1
fi
if [ ! -s "${INPUT_LOCATION}" ]; then
    echo "Input file ${INPUT_LOCATION} does not exist"
    exit 1
fi
n_files_sfsdump=`grep ^/ ${INPUT_SFSDUMP} | wc -l`
n_files_location=`grep ^/ ${INPUT_LOCATION} | wc -l`
if [ ${n_files_sfsdump} -eq ${n_files_location} ]; then
    echo -n "both have the same amount of files (${n_files_location}). "
else
    echo -n "sfs-dump has ${n_files_sfsdump} files whereas location report has ${n_files_location} files, this may be normal if the difference is small. "
fi
echo "Done."


echo -n "2/6 : Sanitize \"file-location\" input..."
cat ${INPUT_LOCATION} | awk 'BEGIN {rejected="temp-location-rejected.log"; accepted="temp-location-accepted.log"} { if ( $0 ~ "Missing -unit") { gsub(/Missing -unit/, "Missing-Cloud-Unit", $0); print $0 > rejected } else { if ($0 ~ "^/" ) print $0 > accepted } }'
if [ -s "temp-location-rejected.log" ]; then
    REJECTS_EXIST="yes"
    echo -n "Some files in location report sit in unavailable or deleted cloud units, you may need to re-run this script after fixing the issue and gathering a new location report. "
    cat temp-location-rejected.log temp-location-accepted.log | sed -e 's/\t/:\t/' | sort > temp-location-report-sorted.log
    rm temp-location-rejected.log
else
    cat temp-location-accepted.log | sed -e 's/\t/:\t/' | sort > temp-location-report-sorted.log
    REJECTS_EXIST="no"
fi
rm temp-location-accepted.log
echo "Done."


echo -n "3/6 : Sanitize \"sfs-dump\" input..."
cat ${INPUT_SFSDUMP} | grep ^/ | sort > temp-sfs-dump.log
echo "Done."


echo -n "4/6 : Merging information for sfs-dump and location report..."
join -1 1 -2 1 temp-sfs-dump.log temp-location-report-sorted.log > temp-merged-information.log
rm temp-sfs-dump.log
rm temp-location-report-sorted.log
n_files_combined=`grep ^/ temp-merged-information.log | wc -l`
if [ ${n_files_combined} -eq 0 ]; then
    echo "No files matched from input files. sfs-dump output must NOT be in CSV format. Exiting."
    rm temp-merged-information.log
    exit 1
fi
echo -n "Input files matched on ${n_files_combined} files. "
echo "Done."


echo -n "5/6 : Converting merged sfs-dump / location-report output to CSV format..."
cat temp-merged-information.log | grep ^/ | grep -v ^$ | awk '
BEGIN {print "name\tmtime\tfileid\tsize\tseg_bytes\tseg_count\tredun_seg_count\tpre_lc_size\tpost_lc_size\ttier\tplacement_time"}
{
    colon_index = index($0, ":")
    filename = substr($0, 1, colon_index - 1)
    gsub(/^[[:space:]]+|[[:space:]]+$/, "", filename)
    n = split(substr($0, colon_index + 1), fields, " ")
    print filename "\t" fields[2] "\t" fields[4] "\t" fields[6] "\t" fields[10] "\t" fields[12] "\t" fields[14] "\t" fields[17] "\t" fields[19] "\t" fields[27] \
        "\t" fields[length(fields)-4] " " fields[length(fields)-3] " " fields[length(fields)-2] " " fields[length(fields)-1] " " fields[length(fields)]
}' > ${OUTPUT_FILENAME}
rm temp-merged-information.log
echo "Done."


echo -n "6/6 : Summary"
echo
echo
echo "Merging information from sfs-dump (${INPUT_SFSDUMP}) and location-report ${INPUT_LOCATION} output completed."
echo "Output file (${OUTPUT_FILENAME}) includes information for a total ${n_files_combined} files, out of ${n_files_sfsdump} in input sfs-dump, and ${n_files_location} in input location report."
if [ "${REJECTS_EXIST}" == "yes" ]; then
    echo "Note there are some files in disconnected or deleted cloud units, for which the \"tier\" field has been replaced with \"Missing-Cloud-Unit\"."
fi
echo
echo "Start of file shown below for your convenience :"
echo "===================="
head -5 ${OUTPUT_FILENAME}
echo "===================="
echo
echo "You may follow the instructions in https://www.dell.com/support/kbdoc/000081345 to process this CSV file in an spreadhseet"
echo
echo "Done."

exit 0


Für Veritas-NetBackup-NutzerInnen:

Es ist bekannt, dass Veritas NetBackup (NBU) für Dateien in einer Data Domain Dateinamen erstellt, die Doppelpunkte enthalten. Im Folgenden sind beispielsweise gültige NBU-Dateinamenpfade aufgeführt, wenn Data Domain als Back-end-Storage für NBU verwendet wird:
/data/col1/MTREE_NAME/POLICY-NAME_1400502741_C1_F1:1400502741:VM_PRD-02:4:1::
/data/col1/MTREE_NAME/POLICY-NAME_1400502741_C1_F2:1400502741:VM_PRD-02:4:1::
/data/col1/MTREE_NAME/POLICY-NAME_1400502741_C1_HDR:1400502741:VM_PRD-02:4:1::
Dies stellt jedoch ein Problem für die obigen Beispielskripte dar, da der Doppelpunkt als Trennzeichen für die Ausgabe des Befehls sfs_dump verwendet wird und das Ausführen der obigen Skripte daher zu falschen Ergebnissen führt.

In diesen Fällen müssen Sie das Skript wie folgt bearbeiten:
--- iterate-dd-for-fs-sfs-dump.sh       2024-01-23 06:32:16.521409000 -0500
+++ iterate-dd-for-fs-sfs-dump-NBU.sh   2024-02-27 03:26:42.808246000 -0500
@@ -55,11 +55,11 @@
 cat sfs-dump-noCSV.txt | grep ^/ | grep -v ^$ | awk '
 BEGIN {print "name\tmtime\tfileid\tsize\tseg_bytes\tseg_count\tredun_seg_count\tpre_lc_size\tpost_lc_size"}
 {
-    colon_index = index($0, ":")
-    filename = substr($0, 1, colon_index - 1)
+    colon_index = index($0, ":::")
+    filename = substr($0, 1, colon_index + 1)
     gsub(/^[[:space:]]+|[[:space:]]+$/, "", filename)
     n = split(substr($0, colon_index + 1), fields, " ")
-    print filename "\t" fields[2] "\t" fields[4] "\t" fields[6] "\t" fields[10] "\t" fields[12] "\t" fields[14] "\t" fields[17] "\t" fields[19]
+    print filename "\t" fields[3] "\t" fields[5] "\t" fields[7] "\t" fields[11] "\t" fields[13] "\t" fields[15] "\t" fields[18] "\t" fields[20] "\t"
 }' > sfs-dump-CSV.csv
 echo "Done."
Diese Änderungen gelten für das Skript, das durch alle MTrees in einer Data Domain iteriert. Um die sfs_dump -Daten für einzelne MTrees abzurufen, sind die Änderungen für das andere Skript identisch. Wie auch die Skripte selbst werden die oben genannten Änderungen von Dell ohne Gewähr zur Verfügung gestellt.

Affected Products

Data Domain

Products

Data Domain
Article Properties
Article Number: 000081345
Article Type: Solution
Last Modified: 27 May 2025
Version:  21
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.