Data Domain: Lösen von Problemen mit hoher Speicherplatzauslastung oder mangelnder verfügbarer Kapazität auf Data Domain Restorern (DDRs)
Сводка: Dieser Artikel enthält eine Schritt-für-Schritt-Anleitung, die bei Problemen mit einer hohen Speicherplatzauslastung oder einem Mangel an verfügbarer Kapazität auf Data Domain Restorers (DDRs) hilft ...
Данная статья применяется к
Данная статья не применяется к
Эта статья не привязана к какому-либо конкретному продукту.
В этой статье указаны не все версии продуктов.
Симптомы
Alle Data Domain Restorers (DDRs) enthalten einen Pool/einen Speicherbereich, der als "aktive Stufe" bezeichnet wird:
- Dies ist der Bereich der Festplatte, in dem sich neu eingelesene Dateien/Daten befinden, und bei den meisten DDRs verbleiben die Dateien hier, bis sie durch eine Client-Backupanwendung abgelaufen/gelöscht werden
- Auf DDRs, die mit Extended Retention (ER) oder Long Term Retention (LTR) konfiguriert sind, kann der Datenverschiebungsprozess periodisch ausgeführt werden, um alte Dateien von der aktiven Stufe in die Archiv- oder Cloud-Stufen zu migrieren
- Die einzige Möglichkeit, Speicherplatz in der aktiven Stufe zurückzugewinnen, der von gelöschten/verschobenen Dateien belegt wurde, ist die Ausführung des Prozesses Clean/Automatische Speicherbereinigung
Die aktuelle Auslastung der aktiven Stufe kann über die Befehle 'filesys show space' oder 'df' angezeigt werden:
# df
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 33098.9 - - -
/data: post-comp 65460.3 518.7 64941.6 1% 0.0
/ddvar 29.5 19.7 8.3 70% -
/ddvar/core 31.5 0.2 29.7 1% -
---------------- -------- -------- --------- ---- --------------
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 33098.9 - - -
/data: post-comp 65460.3 518.7 64941.6 1% 0.0
/ddvar 29.5 19.7 8.3 70% -
/ddvar/core 31.5 0.2 29.7 1% -
---------------- -------- -------- --------- ---- --------------
Falls konfiguriert, werden Details der Archiv-/Cloud-Stufen unter der aktiven Stufe angezeigt.
Die Nutzung der aktiven Stufe muss sorgfältig verwaltet werden, sonst kann Folgendes eintreten:
- Der aktiven Stufe steht möglicherweise nicht mehr genügend Speicherplatz zur Verfügung, sodass Warnmeldungen/Meldungen wie die folgende angezeigt werden:
EVT-SPACE-00004: Space usage in Data Collection has exceeded 95% threshold.
- Wenn die aktive Stufe zu 100 % voll ist, können keine neuen Daten in den DDR geschrieben werden, was dazu führen kann, dass Backups/Replikationen fehlschlagen. In diesem Szenario werden Warnmeldungen/Meldungen wie die folgende angezeigt:
CRITICAL: MSG-CM-00002: /../vpart:/vol1/col1/cp1/cset: Container set [container set ID] out of space
- Wenn die aktive Stufe voll ist, kann dies unter Umständen dazu führen, dass das Data Domain File System (DDFS) schreibgeschützt wird, so dass vorhandene Dateien nicht gelöscht werden können.
Dieser Wissensdatenbank-Artikel versucht,
- zu erklären, warum die aktive Stufe voll werden kann
- eine Reihe einfacher Prüfungen zu beschreiben, die durchgeführt werden können, um die Ursache für eine hohe Auslastung der aktiven Stufe und entsprechende Abhilfemaßnahmen zu ermitteln
Hinweis:
- Dieser Artikel ist nicht erschöpfend (d. h. es kann eine kleine Anzahl von Situationen geben, in denen die aktive Stufe eines DDR aus einem Grund stark ausgelastet/voll ist, der in diesem Dokument nicht behandelt wird)
- Dieser Artikel deckt keine hohe Auslastung von Archiv- oder Cloud-Stufen ab
Причина
- Backupdateien/Sicherungssätze werden von Client-Backupanwendungen aufgrund falscher Aufbewahrungsrichtlinien oder einer falschen Konfiguration der Backupanwendung nicht korrekt abgelaufen/gelöscht
- Replikationsverzögerung, die dazu führt, dass eine große Menge alter Daten auf der aktiven Stufe gehalten wird, während die Replikation auf die Replikate noch aussteht
- Daten, die auf die aktive Stufe geschrieben werden, haben eine geringere Gesamtkomprimierungsrate als erwartet
- Das System wurde nicht richtig dimensioniert, d. h. es ist einfach zu klein für die Datenmenge, die darauf gespeichert werden soll
- Backups bestehen aus einer großen Anzahl sehr kleiner Dateien. Diese Dateien verbrauchen viel mehr Speicherplatz als erwartet, wenn sie ursprünglich geschrieben werden; dieser Speicherplatz sollte jedoch mit Clean/automatische Speicherbereinigung zurückgewonnen werden
- Die Datenverschiebung wird auf Systemen, die mit ER/LTR konfiguriert sind, nicht regelmäßig ausgeführt, wodurch alte Dateien, die in die Archiv-/Cloud-Stufen migriert werden sollten, auf der aktiven Stufe verbleiben
- Clean/Automatische Speicherbereinigung wird nicht regelmäßig durchgeführt
- Zu viele oder alte Mtree-Snapshots auf dem DDR verhindern, dass bei einem Clean-Vorgang Platz von gelöschten Dateien/Daten zurückgewonnen wird
Разрешение
Schritt 1: Bestimmen, ob ein Clean der aktiven Stufe ausgeführt werden muss
Das Data Domain-Betriebssystem (DDOS) versucht, einen Zähler mit dem Namen "Cleanable gib" für die aktive Stufe aufrechtzuerhalten. Hierbei handelt es sich um eine Schätzung der Menge des physischen Speicherplatzes (post-comp), der potenziell auf der aktiven Stufe durch Ausführen von Clean/automatischen Speicherbereinigung zurückgewonnen werden kann. Dieser Zähler wird durch die Befehle 'filesys show space'/'df' angezeigt:
Wenn eines der Folgenden gilt:
Um zu bestätigen, dass Clean wie erwartet gestartet wurde, kann der Befehl 'filesys status' verwendet werden, d. h.:
Hinweis:
Falls erforderlich, legen Sie einen Clean-Zeitplan für die aktive Stufe fest – zum Beispiel jeden Dienstag um 6:00 Uhr:
# filesys clean set schedule Tue 0600
Bereinigung des Dateisystems ist für "Di" um "0600" Uhr geplant.
Beachten Sie, dass auf Systemen, die mit Extended Retention (ER) konfiguriert sind, Clean möglicherweise für die Ausführung nach Abschluss der Datenverschiebung konfiguriert ist und keinen eigenen separaten Zeitplan hat. Dieses Szenario wird später in diesem Dokument beschrieben.
Wenn der Clean-Vorgang abgeschlossen ist, verwenden Sie die Befehle 'filesys show space'/'df', um festzustellen, ob die Nutzungsprobleme behoben wurden. Wenn die Auslastung weiterhin hoch ist, fahren Sie mit den verbleibenden Schritten in diesem Artikel fort.
Schritt 2: Auf große Mengen an Replikationsverzögerung gegen Quellreplikationskontexte prüfen
Das Design der nativen Data Domain-Replikation basiert auf dem Konzept der 'Replikationskontexte'. Zum Beispiel, wenn Daten zwischen Systemen repliziert werden müssen:
Um festzustellen, ob die Replikationskontexte verzögert werden, sollten folgende Schritte durchgeführt werden:
Kontexte, für die das aktuelle System die Quelle ist und die erhebliche Verzögerungen oder Kontexte anzeigen, die nicht mehr benötigt werden, sollten unterbrochen werden. Dies kann durch Ausführen des folgenden Befehls auf dem Quell- und Zielsystem durchgeführt werden:
Um beispielsweise die oben gezeigten 'interesting' Kontexte aufzuheben, werden die folgenden Befehle auf Quelle und Ziel ausgeführt:
Hinweis:
Der Inhalt von DDFS ist logisch in Mtrees unterteilt. Es ist üblich, dass einzelne Backupanwendungen/Clients in einzelne Mtrees schreiben. Wenn eine Backupanwendung außer Betrieb genommen wird, kann sie keine Daten mehr in den DDR schreiben bzw. aus diesem löschen, wodurch alte/überflüssige Mtrees auf dem System verbleiben können. Die Daten in diesen Mtrees bleiben auf unbestimmte Zeit bestehen und belegen Speicherplatz auf der Festplatte des DDR. Folglich sollten solche überflüssigen Mtrees gelöscht werden. Zum Beispiel:
Zum Beispiel:
# mtree delete /data/col1/Budu_test
Ein Data Domain-Snapshot stellt einen Point-in-Time-Snapshot des entsprechenden Mtree dar. Daraus folgt:
Wenn sie auf einem Mtree ohne Snapshots ausgeführt werden, wird Folgendes angezeigt:
Beim Ausführen eines Mtree mit Snapshots wird Folgendes angezeigt:
Diese Snapshots sollten abgelaufen werden, sodass sie beim Ausführen von Clean entfernt werden können und der von ihnen belegte Speicherplatz auf der Festplatte freigegeben wird:
# snapshot expire [Snapshot-Name] mtree [Mtree-Name]
Zum Beispiel:
Hinweis:
Autosupports vom DDR enthalten Histogramme, die eine Aufschlüsselung der Dateien auf dem DDR nach Alter anzeigen, z. B.:
Dies kann nützlich sein, um festzustellen, ob es Dateien auf dem System gibt, die nicht wie erwartet von der Client-Backupanwendung abgelaufen/gelöscht wurden. Wenn z. B. von einer Backupanwendung, bei der die maximale Aufbewahrungszeit für eine Datei 6 Monate beträgt, in das obige System geschrieben wird, ist sofort ersichtlich, dass die Backupanwendung Dateien nicht wie erwartet abläuft/löscht, da sich ca. 80.000 Dateien, die älter als 6 Monate sind, auf dem DDR befinden.
Hinweis:
Bei Bedarf kann der erforderliche Data Domain-Support zusätzliche Berichte bereitstellen, die:
Schritt 6 - Prüfen auf Backups, die eine große Anzahl kleiner Dateien enthalten
Aufgrund des Designs von DDFS können kleine Dateien (im Wesentlichen alle Dateien, die kleiner als ca. 10 MB sind) übermäßig viel Speicherplatz verbrauchen, wenn sie anfänglich in den DDR geschrieben werden. Dies liegt an der "SISL"-Architektur (Stream Informed Segment Layout), die bewirkt, dass kleine Dateien mehrere einzelne 4,5-MB-Blöcke auf der Festplatte belegen. Beispielsweise kann eine 4 KB große Datei beim ersten Schreiben bis zu 9 MB physischen Speicherplatz verbrauchen.
Dieser übermäßige Speicherplatz wird später beim Ausführen von Clean/automatische Speicherbereinigung zurückgewonnen (da die Daten von kleinen Dateien dann in einer kleineren Anzahl von 4,5-MB-Blöcken zusammengefasst werden), kann aber dazu führen, dass kleinere Modelle von DDR eine übermäßige Auslastung aufweisen und sich füllen, wenn solche Backups ausgeführt werden.
Autosupports enthalten Histogramme von Dateien, aufgeschlüsselt nach Größe, z. B.:
Wenn es Anzeichen dafür gibt, dass Backups eine sehr große Anzahl kleiner Dateien schreiben, kann das System zwischen jedem Aufruf von Clean/automatische Speicherbereinigung durch eine erhebliche vorübergehende Erhöhung der Auslastung beeinträchtigt werden. In diesem Fall ist es besser, die Backupmethode so zu ändern, dass alle kleinen Dateien in ein einziges größeres Archiv (z. B. eine tar-Datei) aufgenommen werden, bevor sie auf den DDR geschrieben werden. Beachten Sie, dass ein solches Archiv nicht komprimiert oder verschlüsselt werden sollte (da dies die Komprimierungs-/Deduplizierungsrate dieser Daten beeinträchtigt).
Schritt 7: Überprüfen, ob die Deduplizierungsrate niedriger als erwartet ist
Der Hauptzweck eines DDR ist die Deduplizierung und Komprimierung der vom Gerät aufgenommenen Daten. Das Deduplizierungs-/Komprimierungsverhältnis hängt stark vom Anwendungsfall des Systems und der Art der darin enthaltenen Daten ab. In vielen Fällen gibt es jedoch ein "erwartetes" Gesamtkomprimierungsverhältnis, das auf den Ergebnissen von Proof-of-Concept-Tests oder Ähnlichem basiert. Um die aktuelle Gesamtkomprimierungsrate des Systems zu ermitteln (und damit, ob sie den Erwartungen entspricht), kann der Befehl 'filesys show compression' verwendet werden. Zum Beispiel:
Im obigen Beispiel erreicht das System ein Gesamtkomprimierungsverhältnis von 65,3x für die aktive Stufe (was sehr gut ist). Wenn dieser Wert hingegen zeigt, dass das allgemeine Komprimierungsverhältnis die Erwartungen nicht erfüllt, sind wahrscheinlich weitere Ermittlungen erforderlich. Beachten Sie, dass die Untersuchung einer niedrigeren Komprimierungsrate als erwartet ein komplexes Thema ist, das viele Ursachen haben kann. Weitere Informationen zur weiteren Untersuchung finden Sie im folgenden Artikel: https://support.emc.com/kb/487055
Schritt 8: Überprüfen, ob das System eine Quelle für die Erfassungsreplikation ist
Wenn bei der Erfassungsreplikation das Quellsystem physisch größer als das Ziel ist, wird die Größe des Quellsystems künstlich begrenzt, um der des Ziels zu entsprechen (d. h. es gibt einen Bereich auf der Festplatte der Quelle, der als unbrauchbar markiert wird). Der Grund dafür ist, dass bei der Erfassungsreplikation das Ziel eine Blockebenen-Kopie der Quelle sein muss. Wenn die Quelle jedoch physisch größer als das Ziel ist, besteht die Möglichkeit, dass zu viele Daten auf die Quelle geschrieben werden, die dann nicht auf das Ziel repliziert werden können (da es bereits voll ist). Dieses Szenario lässt sich vermeiden, indem die Größe der Quelle auf die des Ziels begrenzt wird.
Sobald einer der beiden Schritte durchgeführt wurde, wird sofort zusätzlicher Speicherplatz in der aktiven Stufe des Quellsystems verfügbar gemacht (d. h. es ist kein Clean bzw. keine automatische Speicherbereinigung der aktiven Stufe erforderlich, bevor dieser Speicherplatz verwendet wird)
Schritt 9: Überprüfen, ob die Datenverschiebung regelmäßig ausgeführt wird
Wenn der DDR entweder mit Extended Retention (ER) oder Long Term Retention (LTR) konfiguriert ist, wird eine zweite Stufe von Speicher angehängt (Archiv-Stufe für ER oder Cloud-Stufe für LTR). In diesem Szenario werden Datenverschiebungsrichtlinien wahrscheinlich für Mtrees konfiguriert, um ältere/unveränderte Daten, die eine langfristige Aufbewahrung erfordern, aus der aktiven Stufe in die alternative Speicherstufe zu migrieren, damit der von diesen Dateien in der aktiven Stufe belegte Speicherplatz durch Clean/automatische Speicherbereinigung physisch zurückgewonnen werden kann. Wenn die Datenverschiebungsrichtlinien falsch konfiguriert sind oder der Datenverschiebungsprozess nicht regelmäßig ausgeführt wird, verbleiben alte Daten länger als erwartet in der aktiven Stufe und verbrauchen weiterhin physischen Speicherplatz auf der Festplatte.
ER und LTR schließen sich gegenseitig aus, so dass ein System entweder nur eine aktive Stufe (kein ER/LTR konfiguriert) oder eine aktive und Archivstufe (ER konfiguriert) oder eine aktive und Cloud-Stufe (LTR konfiguriert) enthält.
Wenn die Datenverschiebungsrichtlinien falsch sind/fehlen, sollten diese korrigiert werden. Weitere Informationen zur Durchführung dieser Richtlinien finden Sie im Data Domain-Administratorhandbuch.
Beachten Sie, dass Data Domain im Allgemeinen empfiehlt, die Datenverschiebung über einen automatisierten Zeitplan auszuführen. Einige Kunden entscheiden sich jedoch dafür, diesen Prozess ad-hoc (d. h. bei Bedarf) auszuführen. In diesem Szenario sollten Datenverschiebungen regelmäßig gestartet werden, indem Sie Folgendes ausführen:
Weitere Informationen zum Ändern des Zeitplans für die Datenverschiebung finden Sie im Data Domain-Administratorhandbuch.
Wenn die Datenverschiebung schon längere Zeit nicht mehr ausgeführt wurde, versuchen Sie, den Prozess manuell zu starten, und überwachen Sie ihn dann wie folgt:
Wenn die Datenverschiebung aus irgendeinem Grund nicht gestartet werden kann, wenden Sie sich bitte an Ihren vertraglich gebundenen Supportanbieter, um weitere Unterstützung zu erhalten.
Auf LTR-Systemen sollte der Clean-Vorgang für die aktive Stufe weiterhin mit einem eigenen Zeitplan konfiguriert werden.
Schritt 10: Zusätzlichen Speicher zur aktiven Stufe hinzufügen
Wenn alle vorherigen Schritte durchgeführt wurden, die aktive Stufe bis zum Abschluss bereinigt wurde, jedoch immer noch nicht genügend Speicherplatz auf der aktiven Stufe verfügbar ist, wurde das System wahrscheinlich nicht richtig für die Arbeitslast ausgelegt, die es erhält. In diesem Fall sollte eine der folgenden Maßnahmen durchgeführt werden:
Wenden Sie sich an Ihr Vertriebsteam, um das Hinzufügen von Speicher zu besprechen.
Das Data Domain-Betriebssystem (DDOS) versucht, einen Zähler mit dem Namen "Cleanable gib" für die aktive Stufe aufrechtzuerhalten. Hierbei handelt es sich um eine Schätzung der Menge des physischen Speicherplatzes (post-comp), der potenziell auf der aktiven Stufe durch Ausführen von Clean/automatischen Speicherbereinigung zurückgewonnen werden kann. Dieser Zähler wird durch die Befehle 'filesys show space'/'df' angezeigt:
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- --------- --------- ---- --------------
/data: pre-comp - 7259347.5 - - -
/data: post-comp 304690.8 251252.4 53438.5 82% 51616.1 <=== NOTE
/ddvar 29.5 12.5 15.6 44% -
---------------- -------- --------- --------- ---- --------------
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- --------- --------- ---- --------------
/data: pre-comp - 7259347.5 - - -
/data: post-comp 304690.8 251252.4 53438.5 82% 51616.1 <=== NOTE
/ddvar 29.5 12.5 15.6 44% -
---------------- -------- --------- --------- ---- --------------
Wenn eines der Folgenden gilt:
- Der Wert für 'Cleanable GiB' ist groß.
- DDFS ist zu 100 % voll (und daher schreibgeschützt)
# filesys clean start
Clean gestartet. Verwenden Sie 'filesys clean watch', um den Fortschritt zu überwachen.
Clean gestartet. Verwenden Sie 'filesys clean watch', um den Fortschritt zu überwachen.
Um zu bestätigen, dass Clean wie erwartet gestartet wurde, kann der Befehl 'filesys status' verwendet werden, d. h.:
# filesys status
Das Dateisystem ist aktiviert und wird ausgeführt.
Cleaning started at 2017/05/19 18:05:58: phase 1 of 12 (pre-merge)
50.6% complete, 64942 GiB free; time: phase 0:01:05, total 0:01:05
Das Dateisystem ist aktiviert und wird ausgeführt.
Cleaning started at 2017/05/19 18:05:58: phase 1 of 12 (pre-merge)
50.6% complete, 64942 GiB free; time: phase 0:01:05, total 0:01:05
Hinweis:
- Wenn Clean nicht gestartet werden kann, wenden Sie sich an ihren vertraglich festgelegten Supportanbieter, um weitere Unterstützung zu erhalten. Dies kann darauf hinweisen, dass im System ein 'missing segment error' aufgetreten ist, der eine Deaktivierung von Clean verursacht
- Wenn Clean bereits ausgeführt wird, wird die folgende Meldung angezeigt, wenn versucht wird, den Vorgang zu starten:
**** Cleaning already in progress. Verwenden Sie 'filesys clean watch', um den Fortschritt zu überwachen.
- Es wird kein Speicherplatz in der aktiven Stufe freigegeben/zurückgewonnen, bis die Kopie-Phase im Clean-Vorgang erreicht ist (standardmäßig Phase 9 in DDOS 5.4.x und früher, Phase 11 in DDOS 5.5.x und höher). Weitere Informationen zu den von Clean verwendeten Phasen finden Sie unter: https://support.emc.com/kb/446734
- Clean kann die Menge an Speicherplatz, der durch 'Cleanable GiB' angezeigt wird, nicht zurückgewinnen, da dieser Wert im Wesentlichen eine Schätzung ist. Weitere Informationen zu diesem Thema finden Sie unter: https://support.emc.com/kb/485637
- Clean kann möglicherweise nicht den gesamten potenziellen Speicherplatz in einem einzigen Durchlauf zurückgewinnen. Dies liegt daran, dass Clean auf DDRs mit sehr großen Datensätzen den Teil des Dateisystems bearbeitet, der die meisten überflüssigen Daten enthält (d. h. um den besten Ertrag an freiem Speicherplatz für die Zeit zu erzielen, die für den Clean-Durchgang benötigt wird). In einigen Szenarien muss Clean unter Umständen mehrmals ausgeführt werden, bevor der gesamte potenzielle Speicherplatz zurückgewonnen ist
- Wenn der Wert für 'Cleanable GiB' sehr groß war, kann dies darauf hindeuten, dass Clean nicht in regelmäßigen Abständen ausgeführt wurde. Überprüfen Sie, ob ein Zeitplan für Clean festgelegt wurde:
# filesys clean show schedule
Falls erforderlich, legen Sie einen Clean-Zeitplan für die aktive Stufe fest – zum Beispiel jeden Dienstag um 6:00 Uhr:
# filesys clean set schedule Tue 0600
Bereinigung des Dateisystems ist für "Di" um "0600" Uhr geplant.
Beachten Sie, dass auf Systemen, die mit Extended Retention (ER) konfiguriert sind, Clean möglicherweise für die Ausführung nach Abschluss der Datenverschiebung konfiguriert ist und keinen eigenen separaten Zeitplan hat. Dieses Szenario wird später in diesem Dokument beschrieben.
Wenn der Clean-Vorgang abgeschlossen ist, verwenden Sie die Befehle 'filesys show space'/'df', um festzustellen, ob die Nutzungsprobleme behoben wurden. Wenn die Auslastung weiterhin hoch ist, fahren Sie mit den verbleibenden Schritten in diesem Artikel fort.
Schritt 2: Auf große Mengen an Replikationsverzögerung gegen Quellreplikationskontexte prüfen
Das Design der nativen Data Domain-Replikation basiert auf dem Konzept der 'Replikationskontexte'. Zum Beispiel, wenn Daten zwischen Systemen repliziert werden müssen:
- Replikationskontexte werden auf Quell- und Ziel-DDRs erstellt.
- Die Kontexte werden initialisiert.
- Nach Abschluss der Initialisierung sendet die Replikation periodisch Aktualisierungen/Deltas von der Quelle zum Ziel, um die Daten auf den Systemen synchron zu halten.
- Verzeichnisreplikationskontexte (werden verwendet, wenn ein einzelner Verzeichnisbaum unter /data/col1/backup zwischen Systemen repliziert wird):
Die Verzeichnisreplikation verwendet ein Replikationsprotokoll auf dem Quell-DDR, um ausstehende Dateien zu verfolgen, die noch nicht zum Ziel repliziert wurden
Wenn ein Verzeichnisreplikationskontext verzögert ist, verfolgt das Replikationsprotokoll auf dem Quell-DDR eine große Anzahl von Dateien, die noch repliziert werden müssen
Selbst wenn diese Dateien gelöscht werden, während sie weiterhin vom Replikationsprotokoll referenziert werden, kann Clean den von diesen Dateien belegten Speicherplatz auf der Festplatte nicht zurückgewinnen
Wenn ein Verzeichnisreplikationskontext verzögert ist, verfolgt das Replikationsprotokoll auf dem Quell-DDR eine große Anzahl von Dateien, die noch repliziert werden müssen
Selbst wenn diese Dateien gelöscht werden, während sie weiterhin vom Replikationsprotokoll referenziert werden, kann Clean den von diesen Dateien belegten Speicherplatz auf der Festplatte nicht zurückgewinnen
- Mtree-Replikationskontexte (werden verwendet, wenn ein anderer Mtree als /data/col1/backup zwischen Systemen repliziert wird):
Die Mtree-Replikation verwendet Snapshots, die auf Quell- und Zielsystemen erstellt wurden, um die Unterschiede zwischen den Systemen zu ermitteln und somit festzustellen, welche Dateien von der Quelle an das Ziel gesendet werden müssen
Wenn ein Mtree-Replikationskontext in Verzug ist, kann der entsprechende Mtree sehr alte Snapshots aufweisen, die auf Quell- und Zielsystemen erstellt wurden
Selbst wenn Dateien aus dem replizierten Mtree auf dem Quellsystem vorhanden sind, wenn diese Dateien bereits vorhanden waren, als die Snapshots der Mtree-Replikation auf dem System erstellt wurden, kann Clean den von diesen Dateien belegten Speicherplatz auf der Festplatte nicht zurückgewinnen
Wenn ein Mtree-Replikationskontext in Verzug ist, kann der entsprechende Mtree sehr alte Snapshots aufweisen, die auf Quell- und Zielsystemen erstellt wurden
Selbst wenn Dateien aus dem replizierten Mtree auf dem Quellsystem vorhanden sind, wenn diese Dateien bereits vorhanden waren, als die Snapshots der Mtree-Replikation auf dem System erstellt wurden, kann Clean den von diesen Dateien belegten Speicherplatz auf der Festplatte nicht zurückgewinnen
- Erfassungsreplikationskontexte (werden verwendet, wenn der gesamte Inhalt eines DDR auf ein anderes System repliziert wird):
Die Erfassungsreplikation führt eine 'blockbasierte' Replikation aller Daten auf einem Quellsystem auf ein Zielsystem durch
Wenn eine Erfassungsreplikation verzögert ist, funktioniert der Clean-Vorgang auf dem Quellsystem nicht optimal. In diesem Szenario wird auf der Quelle ein Alert generiert, der anzeigt, dass eine Teilbereinigung durchgeführt wird, um die Synchronisation mit dem Zielsystem zu vermeiden
Clean kann daher nicht so viel Speicherplatz wie erwartet auf dem Quell-DDR zurückgewinnen
Wenn eine Erfassungsreplikation verzögert ist, funktioniert der Clean-Vorgang auf dem Quellsystem nicht optimal. In diesem Szenario wird auf der Quelle ein Alert generiert, der anzeigt, dass eine Teilbereinigung durchgeführt wird, um die Synchronisation mit dem Zielsystem zu vermeiden
Clean kann daher nicht so viel Speicherplatz wie erwartet auf dem Quell-DDR zurückgewinnen
Um festzustellen, ob die Replikationskontexte verzögert werden, sollten folgende Schritte durchgeführt werden:
- Ermitteln Sie den Hostnamen des aktuellen Systems:
sysadmin@dd4200# hostname
Der Hostname lautet: dd4200.ddsupport.emea
Der Hostname lautet: dd4200.ddsupport.emea
- Bestimmen Sie das Datum/die Uhrzeit auf dem aktuellen System:
sysadmin@dd4200# date
Fri May 19 19:04:06 IST 2017
Fri May 19 19:04:06 IST 2017
- Listen Sie die auf dem System konfigurierten Replikationskontexte zusammen mit ihrer 'synced as of time' auf. Beachten Sie, dass es sich um Kontexte handelt, in denen das 'Ziel' nicht den Hostnamen des aktuellen Systems enthält (was darauf hinweist, dass das aktuelle System die Quelle ist) und die 'synced as of time' erheblich alt ist:
sysadmin@dd4200# replication status
CTX Destination Enabled Connection Sync'ed-as-of-time Tenant-Unit
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
3 mtree://dd4200.ddsupport.emea/data/col1/DFC no idle Thu Jan 8 08:58 - <=== NOT INTERESTING - CURRENT SYSTEM IS THE DESTINATION
9 mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree no idle Mon Jan 25 14:48 - <=== INTERESTING - LAGGING AND CURRENT SYSTEM IS THE SOURCE
13 dir://DD2500-1.ddsupport.emea/backup/dstfolder no disconnected Thu Mar 30 17:55 - <=== INTERESTING - LAGGING AND CURRENT SYSTEM IS THE SOURCE
17 mtree://DD2500-1.ddsupport.emea/data/col1/oleary yes idle Fri May 19 18:57 - <=== NOT INTERESTING - CONTEXT IS UP TO DATE
18 mtree://dd4200.ddsupport.emea/data/col1/testfast yes idle Fri May 19 19:18 - <=== NOT INTERESTING - CONTEXT IS UP TO DATE
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
CTX Destination Enabled Connection Sync'ed-as-of-time Tenant-Unit
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
3 mtree://dd4200.ddsupport.emea/data/col1/DFC no idle Thu Jan 8 08:58 - <=== NOT INTERESTING - CURRENT SYSTEM IS THE DESTINATION
9 mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree no idle Mon Jan 25 14:48 - <=== INTERESTING - LAGGING AND CURRENT SYSTEM IS THE SOURCE
13 dir://DD2500-1.ddsupport.emea/backup/dstfolder no disconnected Thu Mar 30 17:55 - <=== INTERESTING - LAGGING AND CURRENT SYSTEM IS THE SOURCE
17 mtree://DD2500-1.ddsupport.emea/data/col1/oleary yes idle Fri May 19 18:57 - <=== NOT INTERESTING - CONTEXT IS UP TO DATE
18 mtree://dd4200.ddsupport.emea/data/col1/testfast yes idle Fri May 19 19:18 - <=== NOT INTERESTING - CONTEXT IS UP TO DATE
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
Kontexte, für die das aktuelle System die Quelle ist und die erhebliche Verzögerungen oder Kontexte anzeigen, die nicht mehr benötigt werden, sollten unterbrochen werden. Dies kann durch Ausführen des folgenden Befehls auf dem Quell- und Zielsystem durchgeführt werden:
# replication break [destination]
Um beispielsweise die oben gezeigten 'interesting' Kontexte aufzuheben, werden die folgenden Befehle auf Quelle und Ziel ausgeführt:
(dd4200.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(BenDDVE.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(BenDDVE.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(dd4200.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
(DD2500-1.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
(DD2500-1.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
Hinweis:
- Sobald Kontexte unterbrochen sind, muss ein Clean der aktiven Stufe durchgeführt werden, um potenziellen Speicherplatz in der aktiven Stufe zurückzugewinnen.
- Bei Verwendung der Mtree-Replikation können nach dem Unterbrechen der Kontexte Mtree-Replikations-Snapshots auf der Festplatte verbleiben. Stellen Sie sicher, dass Schritt 5 befolgt wird, um alle überflüssigen Snapshots vor der Ausführung von Clean zu löschen.
- Wenn der Quell-/Ziel-Mtree so konfiguriert ist, dass Daten in Archiv- oder Cloud-Stufen migriert werden, ist Vorsicht geboten, wenn entsprechende Mtree-Replikationskontexte unterbrochen werden, da diese Kontexte in Zukunft möglicherweise nicht mehr neu erstellt/initialisiert werden können. Der Grund dafür ist, dass bei der Initialisierung eines Mtree-Replikationskontexts ein Mtree-Snapshot auf dem Quellsystem erstellt wird, der Details zu allen Dateien im Mtree enthält (unabhängig von der Stufe). Dieser Snapshot wird dann vollständig auf die aktive Stufe des Ziels repliziert. Wenn die aktive Stufe des Ziels nicht über genügend freien Speicherplatz verfügt, um alle Mtree-Daten von der Quelle zu übernehmen, kann die Initialisierung nicht abgeschlossen werden. Für weitere Informationen zu diesem Problem wenden Sie sich bitte an Ihren vertraglich gebundenen Supportanbieter
- Wenn ein Erfassungsreplikationskontext unterbrochen wird, kann der Kontext nicht neu erstellt/initialisiert werden, ohne dass zuerst die Instanz von DDFS auf dem Ziel-DDR zerstört wird (und alle Daten auf diesem System verloren gehen). Infolgedessen kann eine anschließende Initialisierung erhebliche Zeit/Netzwerkbandbreite in Anspruch nehmen, da alle Daten von der Quelle erneut physisch zum Ziel repliziert werden müssen
Der Inhalt von DDFS ist logisch in Mtrees unterteilt. Es ist üblich, dass einzelne Backupanwendungen/Clients in einzelne Mtrees schreiben. Wenn eine Backupanwendung außer Betrieb genommen wird, kann sie keine Daten mehr in den DDR schreiben bzw. aus diesem löschen, wodurch alte/überflüssige Mtrees auf dem System verbleiben können. Die Daten in diesen Mtrees bleiben auf unbestimmte Zeit bestehen und belegen Speicherplatz auf der Festplatte des DDR. Folglich sollten solche überflüssigen Mtrees gelöscht werden. Zum Beispiel:
- Besorgen Sie sich eine Liste der Mtrees auf dem System:
# mtree list
Name Pre-Comp (GiB) Status
------------------------------------------------------------- -------------- -------
/data/col1/Budu_test 147.0 RW
/data/col1/Default 8649.8 RW
/data/col1/File_DayForward_Noida 42.0 RW/RLCE
/data/col1/labtest 1462.7 RW
/data/col1/oscar_data 0.2 RW
/data/col1/test_oscar_2 494.0 RO/RD
------------------------------------------------------------- -------------- -------
Name Pre-Comp (GiB) Status
------------------------------------------------------------- -------------- -------
/data/col1/Budu_test 147.0 RW
/data/col1/Default 8649.8 RW
/data/col1/File_DayForward_Noida 42.0 RW/RLCE
/data/col1/labtest 1462.7 RW
/data/col1/oscar_data 0.2 RW
/data/col1/test_oscar_2 494.0 RO/RD
------------------------------------------------------------- -------------- -------
- Alle Mtrees, die nicht mehr benötigt werden, sollten mit dem Befehl 'mtree delete' gelöscht werden, d. h.:
# mtree delete [mtree name]
Zum Beispiel:
# mtree delete /data/col1/Budu_test
...
MTree "/data/col1/Budu_test" deleted successfully.
MTree "/data/col1/Budu_test" deleted successfully.
- Speicherplatz, der vom gelöschten Mtree auf der Festplatte verbraucht wird, wird bei der nächsten Ausführung von Clean/Automatische Speicherbereinigung auf der aktiven Stufe zurückgewonnen.
- Bei Mtrees, die Ziele für die Mtree-Replikation sind (d. h. in der Ausgabe von 'mtree list' den Status RO/RD haben), sollte der entsprechende Replikationskontext unterbrochen werden, bevor der Mtree gelöscht wird
- Mtrees, die als logische DDBoost-Speichereinheiten (LSUs) oder als Pools für virtuelle Bandbibliotheken (VTLs) verwendet werden, können möglicherweise nicht über den Befehl 'mtree delete' gelöscht werden. Weitere Einzelheiten zum Löschen solcher Mtrees finden Sie im Data Domain-Administrationshandbuch
- Mtrees, für die eine Aufbewahrungssperre konfiguriert ist (d. h. einen Status von RLCE oder RLGE haben), können nicht gelöscht werden. Stattdessen müssen einzelne Dateien innerhalb des Mtree die Aufbewahrungssperre aufheben und einzeln gelöscht werden. Weitere Einzelheiten finden Sie im Data Domain-Administrationshandbuch
Ein Data Domain-Snapshot stellt einen Point-in-Time-Snapshot des entsprechenden Mtree dar. Daraus folgt:
- Alle Dateien, die zum Zeitpunkt der Erstellung des Snapshots im Mtree vorhanden sind, werden vom Snapshot referenziert
- Obwohl der Snapshot weiterhin vorhanden ist, selbst wenn diese Dateien entfernt/gelöscht werden, kann Clean keinen physischen Speicherplatz zurückgewinnen, den sie auf der Festplatte belegen. Dies liegt daran, dass die Daten auf dem System bleiben müssen, falls später auf die Kopie der Datei im Snapshot zugegriffen wird.
- Ermitteln Sie eine Liste der Mtrees auf dem System mit dem Befehl 'mtree list', wie in Schritt 3 gezeigt
- Listen Sie mit dem Befehl 'snapshot list' die Snapshots auf, die für jeden Mtree existieren:
# snapshot list mtree [mtree name]
Wenn sie auf einem Mtree ohne Snapshots ausgeführt werden, wird Folgendes angezeigt:
# snapshot list mtree /data/col1/Default
Snapshot Information for MTree: /data/col1/Default
----------------------------------------------
No snapshots found.
Snapshot Information for MTree: /data/col1/Default
----------------------------------------------
No snapshots found.
Beim Ausführen eines Mtree mit Snapshots wird Folgendes angezeigt:
# snapshot list mtree /data/col1/labtest
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 Mar 31 2016 12:00 Mar 26 2017 12:00 expired
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00
testsnap-2016-07-31-12-00 1301.3 Jul 31 2016 12:00 Jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9 Oct 31 2016 12:00 Oct 26 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan 31 2017 12:00 Jan 26 2018 12:00
testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 Mar 31 2016 12:00 Mar 26 2017 12:00 expired
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00
testsnap-2016-07-31-12-00 1301.3 Jul 31 2016 12:00 Jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9 Oct 31 2016 12:00 Oct 26 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan 31 2017 12:00 Jan 26 2018 12:00
testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
- Wenn Snapshots vorhanden sind, verwenden Sie die Ausgabe von 'snapshot list mtree [mtree name]', um Snapshots zu bestimmen, die:
nicht den Status 'expired' haben (siehe Spalte "Status")
vor längerer Zeit erstellt wurden (z. B. Snapshots aus der obigen Liste, die im Jahr 2016 erstellt wurden)
Diese Snapshots sollten abgelaufen werden, sodass sie beim Ausführen von Clean entfernt werden können und der von ihnen belegte Speicherplatz auf der Festplatte freigegeben wird:
# snapshot expire [Snapshot-Name] mtree [Mtree-Name]
Zum Beispiel:
# snapshot expire testsnap-2016-05-31-12-00 mtree /data/col1/labtest
Snapshot "testsnap-2016-05-31-12-00" für Mtree "/data/col1/labtest" wird bis zum 19. Mai 2017 19:31 Uhr gespeichert.
Snapshot "testsnap-2016-05-31-12-00" für Mtree "/data/col1/labtest" wird bis zum 19. Mai 2017 19:31 Uhr gespeichert.
- Wenn der Befehl 'snapshot list' erneut ausgeführt wird, werden diese Snapshots jetzt als 'expired' aufgeführt:
# snapshot list mtree /data/col1/labtest
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 Mar 31 2016 12:00 Mar 26 2017 12:00 expired
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00 expired
testsnap-2016-07-31-12-00 1301.3 Jul 31 2016 12:00 Jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9 Oct 31 2016 12:00 Oct 26 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan 31 2017 12:00 Jan 26 2018 12:00
testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 Mar 31 2016 12:00 Mar 26 2017 12:00 expired
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00 expired
testsnap-2016-07-31-12-00 1301.3 Jul 31 2016 12:00 Jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9 Oct 31 2016 12:00 Oct 26 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan 31 2017 12:00 Jan 26 2018 12:00
testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
Hinweis:
- Es ist nicht möglich, festzustellen, wie viele physische Daten ein einzelner Snapshot oder ein Satz von Snapshots auf der Festplatte enthält. Der einzige Wert für 'space', der einem Snapshot zugeordnet ist, ist ein Hinweis auf die vorkomprimierte (logische) Größe des Mtree, als der Snapshot erstellt wurde (wie in der obigen Ausgabe gezeigt)
- Snapshots mit dem Namen 'REPL-MTREE-AUTO-YYYY-MM-DD-HH-MM-SS' werden von der Mtree-Replikation verwaltet und sollten unter normalen Umständen nicht manuell gelöscht werden müssen (die Replikation löscht diese Snapshots automatisch, wenn sie nicht mehr benötigt werden). Wenn solche Snapshots sehr alt sind, deutet dies darauf hin, dass der entsprechende Replikationskontext wahrscheinlich eine erhebliche Verzögerung aufweist (wie in Schritt 2 beschrieben)
- Snapshots mit dem Namen 'REPL-MTREE-RESYNC-RESERVE-YYYY-MM-DD-HH-MM-SS' werden von der Mtree-Replikation erstellt, wenn ein Mtree-Replikationskontext defekt ist. Sie dienen dazu, eine vollständige Neusynchronisierung der Replikationsdaten zu vermeiden, wenn der defekte Kontext später wiederhergestellt wird (z. B. wenn der Kontext irrtümlich unterbrochen wurde). Wenn die Replikation nicht wiederhergestellt wird, können diese Kontexte wie oben beschrieben manuell abgelaufen werden
- Abgelaufene Snapshots bleiben bis zur nächsten Ausführung von Clean/automatische Speicherbereinigung auf dem System erhalten. Zu diesem Zeitpunkt werden sie physisch gelöscht und aus der Ausgabe von 'snapshot list mtree [Mtree-Name]' entfernt - Clean kann dann den von diesen Snapshots belegten Speicherplatz auf der Festplatte zurückgewinnen
Autosupports vom DDR enthalten Histogramme, die eine Aufschlüsselung der Dateien auf dem DDR nach Alter anzeigen, z. B.:
File Distribution
-----------------
448,672 files in 5,276 directories
Count Space
----------------------------- --------------------------
Age Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 day 7,244 1.6 1.6 4537.9 0.1 0.1
1 week 40,388 9.0 10.6 63538.2 0.8 0.8
2 weeks 47,850 10.7 21.3 84409.1 1.0 1.9
1 month 125,800 28.0 49.3 404807.0 5.0 6.9
2 months 132,802 29.6 78.9 437558.8 5.4 12.3
3 months 8,084 1.8 80.7 633906.4 7.8 20.1
6 months 5,441 1.2 81.9 1244863.9 15.3 35.4
1 year 21,439 4.8 86.7 3973612.3 49.0 84.4
> 1 year 59,624 13.3 100.0 1265083.9 15.6 100.0
--------- ----------- ----- ------- -------- ----- -------
-----------------
448,672 files in 5,276 directories
Count Space
----------------------------- --------------------------
Age Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 day 7,244 1.6 1.6 4537.9 0.1 0.1
1 week 40,388 9.0 10.6 63538.2 0.8 0.8
2 weeks 47,850 10.7 21.3 84409.1 1.0 1.9
1 month 125,800 28.0 49.3 404807.0 5.0 6.9
2 months 132,802 29.6 78.9 437558.8 5.4 12.3
3 months 8,084 1.8 80.7 633906.4 7.8 20.1
6 months 5,441 1.2 81.9 1244863.9 15.3 35.4
1 year 21,439 4.8 86.7 3973612.3 49.0 84.4
> 1 year 59,624 13.3 100.0 1265083.9 15.6 100.0
--------- ----------- ----- ------- -------- ----- -------
Dies kann nützlich sein, um festzustellen, ob es Dateien auf dem System gibt, die nicht wie erwartet von der Client-Backupanwendung abgelaufen/gelöscht wurden. Wenn z. B. von einer Backupanwendung, bei der die maximale Aufbewahrungszeit für eine Datei 6 Monate beträgt, in das obige System geschrieben wird, ist sofort ersichtlich, dass die Backupanwendung Dateien nicht wie erwartet abläuft/löscht, da sich ca. 80.000 Dateien, die älter als 6 Monate sind, auf dem DDR befinden.
Hinweis:
- Es liegt in der Verantwortung der Backupanwendung, alle Dateien zu löschen bzw. ablaufen zu lassen
- Ein DDR wird Dateien nie automatisch ablaufen/löschen. Wenn die Backupanwendung nicht explizit zum Löschen einer Datei aufgefordert wird, bleibt die Datei auf dem DDR-Speicher bestehen und belegt auf unbestimmte Dauer Platz
Bei Bedarf kann der erforderliche Data Domain-Support zusätzliche Berichte bereitstellen, die:
- den Namen/die Änderungszeit aller Dateien in einem DDR nach Alter sortiert angeben (sodass der Name/Speicherort der alten Daten ermittelt werden kann)
- Histogramme des Dateialters in separate Berichte für die aktive/Archivierungs-/Cloud-Stufe aufteilen (wobei die ER/LTR-Funktionen aktiviert sind)
- Sammeln Sie Beweise wie im Abschnitt "Sammeln von sfs_dump" im Abschnitt "Hinweise" in diesem Dokument beschrieben
- Eröffnen Sie einen Service-Request bei Ihrem vertraglich gebundenen Supportanbieter
Schritt 6 - Prüfen auf Backups, die eine große Anzahl kleiner Dateien enthalten
Aufgrund des Designs von DDFS können kleine Dateien (im Wesentlichen alle Dateien, die kleiner als ca. 10 MB sind) übermäßig viel Speicherplatz verbrauchen, wenn sie anfänglich in den DDR geschrieben werden. Dies liegt an der "SISL"-Architektur (Stream Informed Segment Layout), die bewirkt, dass kleine Dateien mehrere einzelne 4,5-MB-Blöcke auf der Festplatte belegen. Beispielsweise kann eine 4 KB große Datei beim ersten Schreiben bis zu 9 MB physischen Speicherplatz verbrauchen.
Dieser übermäßige Speicherplatz wird später beim Ausführen von Clean/automatische Speicherbereinigung zurückgewonnen (da die Daten von kleinen Dateien dann in einer kleineren Anzahl von 4,5-MB-Blöcken zusammengefasst werden), kann aber dazu führen, dass kleinere Modelle von DDR eine übermäßige Auslastung aufweisen und sich füllen, wenn solche Backups ausgeführt werden.
Autosupports enthalten Histogramme von Dateien, aufgeschlüsselt nach Größe, z. B.:
Count Space
----------------------------- --------------------------
Size Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 KiB 2,957 35.8 35.8 0.0 0.0 0.0
10 KiB 1,114 13.5 49.3 0.0 0.0 0.0
100 KiB 249 3.0 52.4 0.1 0.0 0.0
500 KiB 1,069 13.0 65.3 0.3 0.0 0.0
1 MiB 113 1.4 66.7 0.1 0.0 0.0
5 MiB 446 5.4 72.1 1.3 0.0 0.0
10 MiB 220 2.7 74.8 1.9 0.0 0.0
50 MiB 1,326 16.1 90.8 33.6 0.2 0.2
100 MiB 12 0.1 91.0 0.9 0.0 0.2
500 MiB 490 5.9 96.9 162.9 0.8 1.0
1 GiB 58 0.7 97.6 15.6 0.1 1.1
5 GiB 29 0.4 98.0 87.0 0.5 1.6
10 GiB 17 0.2 98.2 322.9 1.7 3.3
50 GiB 21 0.3 98.4 1352.7 7.0 10.3
100 GiB 72 0.9 99.3 6743.0 35.1 45.5
500 GiB 58 0.7 100.0 10465.9 54.5 100.0
> 500 GiB 0 0.0 100.0 0.0 0.0 100.0
--------- ----------- ----- ------- -------- ----- -------
----------------------------- --------------------------
Size Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 KiB 2,957 35.8 35.8 0.0 0.0 0.0
10 KiB 1,114 13.5 49.3 0.0 0.0 0.0
100 KiB 249 3.0 52.4 0.1 0.0 0.0
500 KiB 1,069 13.0 65.3 0.3 0.0 0.0
1 MiB 113 1.4 66.7 0.1 0.0 0.0
5 MiB 446 5.4 72.1 1.3 0.0 0.0
10 MiB 220 2.7 74.8 1.9 0.0 0.0
50 MiB 1,326 16.1 90.8 33.6 0.2 0.2
100 MiB 12 0.1 91.0 0.9 0.0 0.2
500 MiB 490 5.9 96.9 162.9 0.8 1.0
1 GiB 58 0.7 97.6 15.6 0.1 1.1
5 GiB 29 0.4 98.0 87.0 0.5 1.6
10 GiB 17 0.2 98.2 322.9 1.7 3.3
50 GiB 21 0.3 98.4 1352.7 7.0 10.3
100 GiB 72 0.9 99.3 6743.0 35.1 45.5
500 GiB 58 0.7 100.0 10465.9 54.5 100.0
> 500 GiB 0 0.0 100.0 0.0 0.0 100.0
--------- ----------- ----- ------- -------- ----- -------
Wenn es Anzeichen dafür gibt, dass Backups eine sehr große Anzahl kleiner Dateien schreiben, kann das System zwischen jedem Aufruf von Clean/automatische Speicherbereinigung durch eine erhebliche vorübergehende Erhöhung der Auslastung beeinträchtigt werden. In diesem Fall ist es besser, die Backupmethode so zu ändern, dass alle kleinen Dateien in ein einziges größeres Archiv (z. B. eine tar-Datei) aufgenommen werden, bevor sie auf den DDR geschrieben werden. Beachten Sie, dass ein solches Archiv nicht komprimiert oder verschlüsselt werden sollte (da dies die Komprimierungs-/Deduplizierungsrate dieser Daten beeinträchtigt).
Schritt 7: Überprüfen, ob die Deduplizierungsrate niedriger als erwartet ist
Der Hauptzweck eines DDR ist die Deduplizierung und Komprimierung der vom Gerät aufgenommenen Daten. Das Deduplizierungs-/Komprimierungsverhältnis hängt stark vom Anwendungsfall des Systems und der Art der darin enthaltenen Daten ab. In vielen Fällen gibt es jedoch ein "erwartetes" Gesamtkomprimierungsverhältnis, das auf den Ergebnissen von Proof-of-Concept-Tests oder Ähnlichem basiert. Um die aktuelle Gesamtkomprimierungsrate des Systems zu ermitteln (und damit, ob sie den Erwartungen entspricht), kann der Befehl 'filesys show compression' verwendet werden. Zum Beispiel:
# filesys Show Compression
Von: 2017-05-03 13:00 Zu: 2017-05-10 13:00
Aktive Stufe:
Pre-Comp Post-Comp Global-Comp Local-Comp Total-Comp
(GiB) (GiB) Factor Factor Factor
(Reduction %)
---------------- -------- --------- ----------- ---------- -------------
Currently Used:* 20581.1 315.4 - - 65.3x (98.5)
Written:
Last 7 days 744.0 5.1 80.5x 1.8x 145.6x (99.3)
Last 24 hrs
---------------- -------- --------- ----------- ---------- -------------
* Does not include the effects of pre-comp file deletes/truncates
Von: 2017-05-03 13:00 Zu: 2017-05-10 13:00
Aktive Stufe:
Pre-Comp Post-Comp Global-Comp Local-Comp Total-Comp
(GiB) (GiB) Factor Factor Factor
(Reduction %)
---------------- -------- --------- ----------- ---------- -------------
Currently Used:* 20581.1 315.4 - - 65.3x (98.5)
Written:
Last 7 days 744.0 5.1 80.5x 1.8x 145.6x (99.3)
Last 24 hrs
---------------- -------- --------- ----------- ---------- -------------
* Does not include the effects of pre-comp file deletes/truncates
Im obigen Beispiel erreicht das System ein Gesamtkomprimierungsverhältnis von 65,3x für die aktive Stufe (was sehr gut ist). Wenn dieser Wert hingegen zeigt, dass das allgemeine Komprimierungsverhältnis die Erwartungen nicht erfüllt, sind wahrscheinlich weitere Ermittlungen erforderlich. Beachten Sie, dass die Untersuchung einer niedrigeren Komprimierungsrate als erwartet ein komplexes Thema ist, das viele Ursachen haben kann. Weitere Informationen zur weiteren Untersuchung finden Sie im folgenden Artikel: https://support.emc.com/kb/487055
Schritt 8: Überprüfen, ob das System eine Quelle für die Erfassungsreplikation ist
Wenn bei der Erfassungsreplikation das Quellsystem physisch größer als das Ziel ist, wird die Größe des Quellsystems künstlich begrenzt, um der des Ziels zu entsprechen (d. h. es gibt einen Bereich auf der Festplatte der Quelle, der als unbrauchbar markiert wird). Der Grund dafür ist, dass bei der Erfassungsreplikation das Ziel eine Blockebenen-Kopie der Quelle sein muss. Wenn die Quelle jedoch physisch größer als das Ziel ist, besteht die Möglichkeit, dass zu viele Daten auf die Quelle geschrieben werden, die dann nicht auf das Ziel repliziert werden können (da es bereits voll ist). Dieses Szenario lässt sich vermeiden, indem die Größe der Quelle auf die des Ziels begrenzt wird.
- Überprüfen Sie mithilfe der Befehle aus Schritt 2, ob das System eine Quelle für die Erfassungsreplikation ist. Führen Sie dazu 'replication status' aus und ermitteln Sie, ob es Replikationskontexte gibt, die mit 'col://' beginnen (was auf Erfassungsreplikation hinweist), die NICHT den Hostnamen des lokalen Systems im Ziel enthalten (was bedeutet, dass dieses System eine Quelle für den Replikationskontext sein muss)
- Wenn das System eine Quelle für die Erfassungsreplikation ist, prüfen Sie die Größe der aktiven Stufe jedes Systems, indem Sie sich bei beiden anmelden und den Befehl 'filesys show space' ausführen. Vergleichen Sie die Größe 'post-comp' der aktiven Stufe auf allen
- Wenn die Quelle deutlich größer als das Ziel ist, wird die Größe der aktiven Stufe künstlich eingeschränkt.
- Damit der gesamte Speicherplatz auf der Quelle für Daten genutzt werden kann, sollte Folgendes durchgeführt werden:
Fügen Sie der aktiven Stufe des Ziels zusätzlichen Speicherplatz hinzu, so dass seine Größe >= der Größe der aktiven Stufe der Quelle ist
Unterbrechen Sie den Erfassungsreplikationskontext (mit den Befehlen aus Schritt 2). Beachten Sie, dass dies natürlich verhindert, dass Daten vom Quell- in den Ziel-DDR repliziert werden
Sobald einer der beiden Schritte durchgeführt wurde, wird sofort zusätzlicher Speicherplatz in der aktiven Stufe des Quellsystems verfügbar gemacht (d. h. es ist kein Clean bzw. keine automatische Speicherbereinigung der aktiven Stufe erforderlich, bevor dieser Speicherplatz verwendet wird)
Schritt 9: Überprüfen, ob die Datenverschiebung regelmäßig ausgeführt wird
Wenn der DDR entweder mit Extended Retention (ER) oder Long Term Retention (LTR) konfiguriert ist, wird eine zweite Stufe von Speicher angehängt (Archiv-Stufe für ER oder Cloud-Stufe für LTR). In diesem Szenario werden Datenverschiebungsrichtlinien wahrscheinlich für Mtrees konfiguriert, um ältere/unveränderte Daten, die eine langfristige Aufbewahrung erfordern, aus der aktiven Stufe in die alternative Speicherstufe zu migrieren, damit der von diesen Dateien in der aktiven Stufe belegte Speicherplatz durch Clean/automatische Speicherbereinigung physisch zurückgewonnen werden kann. Wenn die Datenverschiebungsrichtlinien falsch konfiguriert sind oder der Datenverschiebungsprozess nicht regelmäßig ausgeführt wird, verbleiben alte Daten länger als erwartet in der aktiven Stufe und verbrauchen weiterhin physischen Speicherplatz auf der Festplatte.
- Überprüfen Sie zunächst, ob das System für ER oder LTR konfiguriert ist, indem Sie 'filesys show space' ausführen und auf das Vorhandensein einer Archiv- oder Cloud-Stufe prüfen. Beachten Sie, dass diese alternativen Speicherstufen eine Post-Comp-Größe von > 0 GB haben müssen, um nutzbar zu sein:
# filesys show space
...
Archive Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 4163.8 - - -
/data: post-comp 31938.2 1411.9 30526.3 4% -
---------------- -------- -------- --------- ---- -------------
# filesys show space
...
Cloud Tier
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 338905.8 0.0 338905.8 0% 0.0
---------------- -------- -------- --------- ---- -------------
...
Archive Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 4163.8 - - -
/data: post-comp 31938.2 1411.9 30526.3 4% -
---------------- -------- -------- --------- ---- -------------
# filesys show space
...
Cloud Tier
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 338905.8 0.0 338905.8 0% 0.0
---------------- -------- -------- --------- ---- -------------
ER und LTR schließen sich gegenseitig aus, so dass ein System entweder nur eine aktive Stufe (kein ER/LTR konfiguriert) oder eine aktive und Archivstufe (ER konfiguriert) oder eine aktive und Cloud-Stufe (LTR konfiguriert) enthält.
- Wenn das System mit ER/LTR konfiguriert ist, überprüfen Sie die Datenverschiebungsrichtlinien anhand der Mtrees, um sicherzustellen, dass diese wie erwartet sind und so eingestellt sind, dass alte Daten auf die alternative Speicherstufe verschoben werden:
ER: # archive data-movement policy show
LTR: # data-movement policy show
LTR: # data-movement policy show
Wenn die Datenverschiebungsrichtlinien falsch sind/fehlen, sollten diese korrigiert werden. Weitere Informationen zur Durchführung dieser Richtlinien finden Sie im Data Domain-Administratorhandbuch.
- Wenn das System mit ER/LTR konfiguriert ist, prüfen Sie, ob die Datenverschiebung so geplant ist, dass sie in regelmäßigen Abständen ausgeführt wird, um Dateien/Daten physisch von der aktiven Stufe in den alternativen Speicher zu migrieren:
ER: # archive data-movement schedule show
LTR: # data-movement schedule show
LTR: # data-movement schedule show
Beachten Sie, dass Data Domain im Allgemeinen empfiehlt, die Datenverschiebung über einen automatisierten Zeitplan auszuführen. Einige Kunden entscheiden sich jedoch dafür, diesen Prozess ad-hoc (d. h. bei Bedarf) auszuführen. In diesem Szenario sollten Datenverschiebungen regelmäßig gestartet werden, indem Sie Folgendes ausführen:
ER: # archive data-movement start
LTR: # data-movement start
LTR: # data-movement start
Weitere Informationen zum Ändern des Zeitplans für die Datenverschiebung finden Sie im Data Domain-Administratorhandbuch.
- Wenn das System für ER/LTR überprüfen Sie den Zeitpunkt der letzten Ausführung der Datenverschiebung:
ER: # archive data-movement status
LTR: # data-movement status
LTR: # data-movement status
Wenn die Datenverschiebung schon längere Zeit nicht mehr ausgeführt wurde, versuchen Sie, den Prozess manuell zu starten, und überwachen Sie ihn dann wie folgt:
ER: # archive data-movement watch
LTR: # data-movement watch
LTR: # data-movement watch
Wenn die Datenverschiebung aus irgendeinem Grund nicht gestartet werden kann, wenden Sie sich bitte an Ihren vertraglich gebundenen Supportanbieter, um weitere Unterstützung zu erhalten.
- Sobald die Datenverschiebung abgeschlossen ist, sollte 'active tier clean' ausgeführt werden (möglicherweise ist dieser Befehl so konfiguriert, dass er nach Abschluss der Datenverschiebung automatisch startet), um sicherzustellen, dass der von den migrierten Dateien belegte Speicherplatz in der aktiven Stufe physisch freigegeben wird:
# filesys clean start
Auf ER-Systemen ist es üblich, die Datenverschiebung so zu planen, dass sie regelmäßig ausgeführt wird (z. B. einmal pro Woche) und dann die aktive Stufe clean so zu konfigurieren, dass sie nach Abschluss der Datenverschiebung ausgeführt wird. In diesem Szenario liegt für 'active tier clean' kein eigener unabhängiger Zeitplan vor. Um diesen zu konfigurieren, entfernen Sie zunächst den aktuellen 'active tier clean'-Zeitplan:
# filesys clean set schedule never
Konfigurieren Sie die Datenverschiebung so, dass sie in regelmäßigen Abständen ausgeführt wird, gefolgt von einem automatischen Clean der aktiven Stufe, z. B. so, dass die Datenverschiebung jeden Dienstag um 6 Uhr morgens ausgeführt wird, gefolgt von einer Bereinigung der aktiven Stufe:
# archive data-movement schedule set days Tue time 0600
The Archive data movement schedule has been set.
Archive data movement is scheduled to run on day(s) "tue" at "06:00" hrs
So können Sie bestätigen, dass der Clean-Vorgang der aktiven Stufe so konfiguriert ist, dass er nach Abschluss der Datenverschiebung wie folgt abläuft:
# archive show config
Enabled Yes
Data movement Schedule Run on day(s) "tue" at "06:00" hrs <=== SCHEDULE
Data movement throttle 100 percent
Default age threshold data movement policy 14 days
Run filesys clean after archive data movement Yes <=== RUN CLEAN ON COMPLETION
Archive Tier local compression gz
Packing data during archive data movement enabled
Space Reclamation disabled
Space Reclamation Schedule No schedule
Auf ER-Systemen ist es üblich, die Datenverschiebung so zu planen, dass sie regelmäßig ausgeführt wird (z. B. einmal pro Woche) und dann die aktive Stufe clean so zu konfigurieren, dass sie nach Abschluss der Datenverschiebung ausgeführt wird. In diesem Szenario liegt für 'active tier clean' kein eigener unabhängiger Zeitplan vor. Um diesen zu konfigurieren, entfernen Sie zunächst den aktuellen 'active tier clean'-Zeitplan:
# filesys clean set schedule never
Konfigurieren Sie die Datenverschiebung so, dass sie in regelmäßigen Abständen ausgeführt wird, gefolgt von einem automatischen Clean der aktiven Stufe, z. B. so, dass die Datenverschiebung jeden Dienstag um 6 Uhr morgens ausgeführt wird, gefolgt von einer Bereinigung der aktiven Stufe:
# archive data-movement schedule set days Tue time 0600
The Archive data movement schedule has been set.
Archive data movement is scheduled to run on day(s) "tue" at "06:00" hrs
So können Sie bestätigen, dass der Clean-Vorgang der aktiven Stufe so konfiguriert ist, dass er nach Abschluss der Datenverschiebung wie folgt abläuft:
# archive show config
Enabled Yes
Data movement Schedule Run on day(s) "tue" at "06:00" hrs <=== SCHEDULE
Data movement throttle 100 percent
Default age threshold data movement policy 14 days
Run filesys clean after archive data movement Yes <=== RUN CLEAN ON COMPLETION
Archive Tier local compression gz
Packing data during archive data movement enabled
Space Reclamation disabled
Space Reclamation Schedule No schedule
Auf LTR-Systemen sollte der Clean-Vorgang für die aktive Stufe weiterhin mit einem eigenen Zeitplan konfiguriert werden.
Schritt 10: Zusätzlichen Speicher zur aktiven Stufe hinzufügen
Wenn alle vorherigen Schritte durchgeführt wurden, die aktive Stufe bis zum Abschluss bereinigt wurde, jedoch immer noch nicht genügend Speicherplatz auf der aktiven Stufe verfügbar ist, wurde das System wahrscheinlich nicht richtig für die Arbeitslast ausgelegt, die es erhält. In diesem Fall sollte eine der folgenden Maßnahmen durchgeführt werden:
- Reduzieren Sie die Arbeitslast, die das System bewältigen muss. Zum Beispiel:
Leiten Sie eine Teilmenge von Backups auf einen alternativen Speicher um
Verringern Sie die Aufbewahrungszeit von Backups, so dass sie schneller ablaufen/gelöscht werden
Verringern Sie die Anzahl/Ablaufzeit geplanter Snapshots gegen Mtrees auf dem System
Unterbrechen Sie überflüssige Replikationskontexte, für die das lokale System ein Ziel ist, und löschen Sie dann die entsprechenden Mtrees
Verringern Sie die Aufbewahrungszeit von Backups, so dass sie schneller ablaufen/gelöscht werden
Verringern Sie die Anzahl/Ablaufzeit geplanter Snapshots gegen Mtrees auf dem System
Unterbrechen Sie überflüssige Replikationskontexte, für die das lokale System ein Ziel ist, und löschen Sie dann die entsprechenden Mtrees
- Fügen Sie der aktiven Stufe des Systems zusätzlichen Speicher hinzu und erweitern Sie seine Größe:
# storage add [tier active] enclosure [enclosure number] | disk [device number]
# filesys expand
# filesys expand
Wenden Sie sich an Ihr Vertriebsteam, um das Hinzufügen von Speicher zu besprechen.
Дополнительная информация
Der Data Domain-Support kann eine Reihe von Berichten erzeugen, die folgende Informationen enthalten:
- Eine Liste aller Dateien auf einer bestimmten Stufe (d. h. aktiv/Archiv/Cloud), sortiert nach Alter
- Geschätzte Größe und Komprimierungsverhältnis nach mtree/major-Verzeichnisstruktur
- Eine Liste aller Dateien in einem bestimmten Mtree, sortiert nach Alter
- und so weiter
Um dies zu ermöglichen, sollten die folgenden Informationen erfasst werden:
- Ein neues Support-Paket vom DDR. Weitere Informationen finden Sie unter: https://support.EMC.com/kb/323283
- Die Ausgabe von "sfs_dump" oder "sfs_dump-c":
Melden Sie sich bei der DDR-CLI an und wechseln Sie in den se-Modus. (Beachten Sie, dass Systeme, die mit Verschlüsselung und/oder Kartenverriegelung konfiguriert sind, zu diesem Zeitpunkt möglicherweise zur Eingabe der Anmeldeinformationen eines Nutzers mit der Rolle "Security" auffordern):
# system show serialno
[Seriennummer des Systems angezeigt]
# priv set se
[Kennwort-Eingabeaufforderung – Seriennummer des Systems von oben eingeben]
[Seriennummer des Systems angezeigt]
# priv set se
[Kennwort-Eingabeaufforderung – Seriennummer des Systems von oben eingeben]
Aktivieren Sie die Protokollierung in Ihrer Terminalsitzung. Beispiel: Wenn Sie Putty verwenden, kann dies folgendermaßen erfolgen: Klicken Sie mit der rechten Maustaste auf die Menüleiste -> Einstellungen ändern ... -> Sitzung -> Protokollierung -> Wählen Sie die gesamte Sitzungsausgabe aus, wählen Sie einen Dateinamen aus -> Anwenden
Führen Sie sfs_dump aus:
# se sfs_dump
Nachdem Sie den Vorgang abgeschlossen haben, erhalten Sie eine Kopie des Sitzungsprotokolls zur weiteren Analyse.
- Ein Bericht zum Speicherort der Datei (erforderlich, wenn das System für ER oder LTR konfiguriert ist):
Melden Sie sich bei der DDR-CLI an
Aktivieren Sie die Protokollierung in Ihrer Terminalsitzung. Beispiel: Wenn Sie Putty verwenden, kann dies folgendermaßen erfolgen: Klicken Sie mit der rechten Maustaste auf die Menüleiste -> Einstellungen ändern ... -> Sitzung -> Protokollierung -> Wählen Sie die gesamte Sitzungsausgabe aus und wählen Sie einen Dateinamen aus -> Anwenden
Erfassen Sie einen Bericht zum Speicherort der Datei:
ER: # archive report generate file-location
LTR: # filesys report generate file-location
Nachdem Sie den Vorgang abgeschlossen haben, erhalten Sie eine Kopie des Sitzungsprotokolls zur weiteren Analyse.
Aktivieren Sie die Protokollierung in Ihrer Terminalsitzung. Beispiel: Wenn Sie Putty verwenden, kann dies folgendermaßen erfolgen: Klicken Sie mit der rechten Maustaste auf die Menüleiste -> Einstellungen ändern ... -> Sitzung -> Protokollierung -> Wählen Sie die gesamte Sitzungsausgabe aus und wählen Sie einen Dateinamen aus -> Anwenden
Erfassen Sie einen Bericht zum Speicherort der Datei:
ER: # archive report generate file-location
LTR: # filesys report generate file-location
Nachdem Sie den Vorgang abgeschlossen haben, erhalten Sie eine Kopie des Sitzungsprotokolls zur weiteren Analyse.
Wenden Sie sich an ihren vertraglich festgelegten Supportanbieter, um Unterstützung bei der Erfassung der oben genannten Angaben oder einem der Schritte in diesem Archiv zu erhalten.
Затронутые продукты
Data DomainПродукты
Data DomainСвойства статьи
Номер статьи: 000054303
Тип статьи: Solution
Последнее изменение: 21 Jul 2025
Версия: 6
Получите ответы на свои вопросы от других пользователей Dell
Услуги технической поддержки
Проверьте, распространяются ли на ваше устройство услуги технической поддержки.