Data Domain: Problemen oplossen met hoog ruimtegebruik of een gebrek aan beschikbare capaciteit op Data Domain Restorers (DDR's)
Сводка: Dit artikel bevat een stapsgewijze procedure om te helpen bij problemen met een hoog ruimtegebruik of een gebrek aan beschikbare capaciteit op Data Domain Restorers (DDR's)
Данная статья применяется к
Данная статья не применяется к
Эта статья не привязана к какому-либо конкретному продукту.
В этой статье указаны не все версии продуктов.
Симптомы
Alle Data Domain Restorers (DDR's) bevatten een pool/storageruimte die bekend staat als de 'actieve laag':
- Dit is het gedeelte van de schijf waar nieuwe bestanden/data zich bevinden en op de meeste DDR's blijven bestanden hier staan totdat ze verlopen of verwijderd worden door een clientback-upapplicatie
- Op DDR's die zijn geconfigureerd met Extended Retention (ER) of Long Term Retention (LTR), kan het dataverplaatsingsproces periodiek worden uitgevoerd om oude bestanden van de actieve laag naar archief- of cloudlagen te migreren
- De enige manier om ruimte terug te winnen in de actieve laag die werd gebruikt door verwijderde/gemigreerde bestanden, is door het garbage collection/clean-proces (GC) uit te voeren
Het huidige gebruik van de actieve laag kan worden weergegeven via de opdrachten 'filesys show space' of 'df':
# df
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 33098.9 - - -
/data: post-comp 65460.3 518.7 64941.6 1% 0.0
/ddvar 29.5 19.7 8.3 70% -
/ddvar/core 31.5 0.2 29.7 1% -
---------------- -------- -------- --------- ---- --------------
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 33098.9 - - -
/data: post-comp 65460.3 518.7 64941.6 1% 0.0
/ddvar 29.5 19.7 8.3 70% -
/ddvar/core 31.5 0.2 29.7 1% -
---------------- -------- -------- --------- ---- --------------
Houd er rekening mee dat, indien geconfigureerd, details van archief-/cloudlagen worden weergegeven onder de actieve laag
Het gebruik van de actieve laag moet zorgvuldig worden beheerd, anders kan het volgende gebeuren:
- De actieve laag kan beginnen met onvoldoende beschikbare ruimte, waardoor waarschuwingen/berichten zoals de volgende worden weergegeven:
EVT-SPACE-00004: Space usage in Data Collection has exceeded 95% threshold.
- Als de actieve laag 100% vol raakt, kunnen er geen nieuwe data naar de DDR worden geschreven, waardoor back-ups/replicatie mislukken - in dit scenario kunnen waarschuwingen/berichten zoals de volgende worden weergegeven:
CRITICAL: MSG-CM-00002: /../vpart:/vol1/col1/cp1/cset: Container set [container set ID] out of space
- In sommige omstandigheden kan het vol raken van de actieve laag ertoe leiden dat het Data Domain File System (DDFS) alleen-lezen wordt, waarna bestaande bestanden niet kunnen worden verwijderd.
Dit Knowledge Base-artikel probeert:
- Uit te leggen waarom de actieve laag vol kan raken
- Een eenvoudige reeks controles te beschrijven die kunnen worden uitgevoerd om de oorzaak van een intensief gebruik van de actieve laag en de bijbehorende herstelstappen vast te stellen.
Let op:
- Dit artikel is niet uitputtend (d.w.z. er kan een klein aantal situaties zijn waarin de actieve laag van een DDR in hoge mate wordt gebruikt/volraakt om een reden die niet in dit document wordt beschreven), maar het is bedoeld om de meest voorkomende oorzaken/problemen te behandelen.
- Dit artikel behandelt geen intensief gebruik van archief- of cloudlagen
Причина
- Back-upbestanden/storagesets worden door clientback-upapplicaties niet correct verwijderd of aangeduid als verlopen vanwege een onjuist bewaarbeleid of een onjuiste configuratie van back-upapplicatie
- Replicatievertraging waardoor een grote hoeveelheid oude data op de actieve laag wordt bewaard in afwachting van replicatie naar replica's.
- Data die naar de actieve laag worden geschreven, hebben een lagere compressiesnelheid dan verwacht
- Het systeem heeft niet de juiste grootte, d.w.z. het is gewoon te klein voor de hoeveelheid data die erop worden geschreven
- Back-ups bestaan uit een groot aantal zeer kleine bestanden - deze bestanden nemen veel meer ruimte in beslag dan verwacht bij het schrijven, maar deze ruimte moet worden teruggewonnen tijdens clean/garbage collection
- Dataverplaatsing wordt niet regelmatig uitgevoerd op systemen die zijn geconfigureerd met ER/LTR, waardoor oude bestanden die moeten worden gemigreerd naar archief-/cloudlagen op de actieve laag blijven
- Clean/garbage collection wordt niet regelmatig uitgevoerd
- Overmatige of oude mtree-snapshots die aanwezig zijn op de DDR, waardoor clean geen ruimte kan terugwinnen van verwijderde bestanden/data
Разрешение
Stap 1 - Bepaal of active tier clean moet worden uitgevoerd
Het Data Domain Operating System (DDOS) probeert een teller met de naam 'Cleanable GiB' bij te houden voor de actieve laag. Dit is een schatting van de hoeveel fysieke (post-comp) ruimte mogelijk kan worden teruggewonnen in de actieve laag door clean/garbage collection uit te voeren. Deze teller wordt weergegeven aan de hand van de opdrachten 'filesys show space'/'df':
Als een van beide het geval is:
Om te bevestigen dat clean is gestart zoals verwacht, kan de opdracht 'filesys status' worden gebruikt, d.w.z.:
Let op:
Stel indien nodig een schema op voor een active tier clean, bijvoorbeeld elke dinsdag om 6 uur 's ochtends:
# filesys clean set schedule Tue 0600
Het opruimen van het bestandssysteem is gepland om op "Tue" om "0600” uitgevoerd te worden.
Houd er rekening mee dat op systemen die zijn geconfigureerd met Extended Retention (ER) clean kan worden geconfigureerd om te worden uitgevoerd nadat de dataverplaatsing is voltooid en mogelijk geen eigen afzonderlijk schema heeft. Dit scenario komt verderop in dit document aan bod
Nadat clean is voltooid, gebruikt u de opdrachten 'filesys show space'/'df' om te bepalen of gebruiksproblemen zijn opgelost. Als het gebruik nog steeds hoog is, gaat u verder met de resterende stappen in dit artikel.
Stap 2 - Controleer of er een grote mate van replicatievertraging is voor de bronreplicatiecontexten
Systeemeigen Data Domain replicatie is ontworpen rond het concept van 'replicatiecontexten'. Bijvoorbeeld wanneer data moeten worden gerepliceerd tussen systemen:
Om te bepalen of replicatiecontexten vertraging oplopen, moeten de volgende stappen worden uitgevoerd:
Contexten waarvoor het huidige systeem de bron is en die aanzienlijke vertraging vertonen of contexten die niet langer nodig zijn, moeten worden verbroken. Dit kan worden uitgevoerd door de volgende opdracht uit te voeren op het bron- en doelsysteem:
Om bijvoorbeeld de hierboven getoonde 'interessante’ contexten te verbreken, zouden de volgende opdrachten op de bron en het doel moeten worden uitgevoerd:
Let op:
De inhoud van DDFS is logisch onderverdeeld in mtrees. Het is gebruikelijk voor afzonderlijke back-upapplicaties/clients om naar een afzonderlijke mtrees te schrijven. Als een back-upapplicatie buiten gebruik wordt gesteld, kan deze niet langer data schrijven naar of verwijderen uit de DDR, waardoor oude/overbodige mtrees op het systeem kunnen achterblijven. Data in deze mtrees blijven voor onbepaalde tijd bestaan en blijven schijfruimte gebruiken op de DDR. Daarom moeten dergelijke overbodige mtrees worden verwijderd. Bijvoorbeeld:
Bijvoorbeeld:
# mtree delete /data/col1/Budu_test
Een Data Domain snapshot vertegenwoordigt een snapshot van de bijbehorende mtree. Als gevolg daarvan:
Bij uitvoering op een mtree zonder snapshots wordt het volgende weergegeven:
Bij uitvoering op een mtree met snapshots wordt het volgende weergegeven:
Deze snapshots moeten zodanig verlopen zijn dat ze kunnen worden verwijderd wanneer clean wordt uitgevoerd en ruimte die ze op de schijf innemen wordt vrijgemaakt:
# snapshot expire [snapshot name] mtree [mtree name]
Bijvoorbeeld:
Let op:
Autosupports van de DDR bevatten histogrammen met een uitsplitsing van bestanden op de DDR naar ouderdom, bijvoorbeeld:
Dit kan handig zijn om te bepalen of er bestanden op het systeem aanwezig zijn die niet zijn verlopen of verwijderd zoals verwacht door de clientback-upapplicatie. Als bijvoorbeeld naar het bovenstaande systeem is geschreven door een back-upapplicatie waarbij de maximale retentieperiode voor een bestand 6 maanden was, is het direct duidelijk dat de back-upapplicatie geen laat verlopen/verwijderen zoals verwacht, aangezien er ongeveer 80.000 bestanden ouder zijn dan 6 maanden op de DDR.
Let op:
Indien nodig kan Data Domain support aanvullende rapporten verstrekken aan:
Stap 6 - Controleer op back-ups met een groot aantal kleine bestanden
Vanwege het ontwerp van DDFS kunnen kleine bestanden (in wezen elk bestand dat kleiner is dan ongeveer 10 MB) buitensporig veel ruimte in beslag nemen wanneer ze in eerste instantie naar de DDR worden geschreven. Dit komt door de 'SISL'-architectuur (Stream Informed Segment Layout) die ervoor zorgt dat kleine bestanden meerdere individuele blokken van 4,5 MB aan schijfruimte in beslag nemen. Een 4Kb-bestand kan bijvoorbeeld in eerste instantie tot 9 MB fysieke schijfruimte in beslag nemen
Deze overtollige ruimte wordt vervolgens teruggewonnen wanneer clean/garbage collection wordt uitgevoerd (omdat data van kleine bestanden vervolgens worden samengevoegd tot een kleiner aantal blokken van 4,5 MB), maar kan ervoor zorgen dat kleinere modellen van DDR overmatig worden gebruikt en worden gevuld wanneer dergelijke back-ups worden uitgevoerd.
Autosupports bevatten histogrammen van bestanden opgesplitst naar grootte, bijvoorbeeld:
Als er aanwijzingen zijn dat back-ups zeer grote aantallen kleine bestanden schrijven, kan het systeem worden beïnvloed door een aanzienlijke tijdelijke toename van het gebruik tussen elke aanroep van clean/garbage collection. In dit scenario verdient het de voorkeur om de back-upmethodologie te wijzigen om alle kleine bestanden op te nemen in een enkel groter archief (zoals een tar-bestand) voordat ze naar de DDR worden geschreven. Merk op dat een dergelijk archief niet mag worden gecomprimeerd of versleuteld (omdat hierdoor de compressiesnelheid/de-duplicatieverhouding van die data wordt beschadigd).
Stap 7 - Controleer of de de-duplicatieverhouding lager is dan verwacht
Het belangrijkste doel van een DDR is de-duplicatie en comprimeren van data die door het apparaat worden opgenomen. De verhouding tussen de-duplicatie/compressie is sterk afhankelijk van het gebruik van het systeem en het type data dat het bevat, maar in veel gevallen zal er een 'verwachte' algehele compressiesnelheid zijn op basis van resultaten die zijn verkregen door middel van een haalbaarheidstest of vergelijkbare methode. Om de huidige algehele compressiesnelheid van het systeem te bepalen (en dus of het aan de verwachtingen voldoet) kan het commando 'filesys show compressie' worden gebruikt. Bijvoorbeeld:
In bovenstaande voorbeeld bereikt het systeem een algehele compressiesnelheid van 65,3x voor de actieve laag (dit is bijzonder goed). Als deze waarde echter aangeeft dat de algehele compressiesnelheid niet aan de verwachtingen voldoet, is nader onderzoek waarschijnlijk nodig. Merk op dat het onderzoeken van een lager dan verwachte compressiesnelheid een complex onderwerp is dat vele hoofdoorzaken kan hebben. Zie het volgende artikel voor meer informatie over zo'n onderzoek:
https://support.emc.com/kb/487055
Stap 8 - Controleer of het systeem een bron is voor verzameling-replicatie
Bij gebruik van verzameling-replicatie als het bronsysteem fysiek groter is dan de bestemming, wordt de grootte van het bronsysteem kunstmatig beperkt tot die van de bestemming (d.w.z. er zal een schijfgedeelte op de bron zijn dat als onbruikbaar wordt gemarkeerd). De reden hiervoor is dat bij het gebruik van verzameling-replicatie de bestemming een kopie van de bron moet zijn als de bron indien fysiek groter dan de bestemming is, de kans bestaat dat er te veel data naar de bron worden geschreven die dan niet naar de bestemming kunnen worden gerepliceerd (omdat deze al vol is). Dit scenario wordt voorkomen door de grootte van de bron te beperken zodat deze overeenkomt met de bestemming.
Zodra een van deze is uitgevoerd, komt er onmiddellijk extra ruimte beschikbaar in de actieve laag van het bronsysteem (d.w.z. het is niet nodig om de active tier clean/garbage collection uit te voeren voordat u deze ruimte gebruikt)
Stap 9 - Controleer of dataverplaatsing regelmatig wordt uitgevoerd
Als de DDR is geconfigureerd met Extended Retention (ER) of Long Term Retention (LTR), is er een tweede storagelaag aan gekoppeld (archieflaag voor ER of cloudlaag voor LTR). In dit scenario is beleid voor dataverplaatsing waarschijnlijk geconfigureerd op mtrees om oudere/ongewijzigde data te migreren die langdurig moeten worden bewaard van de actieve laag naar de alternatieve storagelaag, zodat de ruimte die door deze bestanden in de actieve laag wordt gebruikt, fysiek kan worden teruggewonnen door clean/garbage collection. Als het beleid voor dataverplaatsing onjuist is geconfigureerd of als het dataverplaatsingsproces niet regelmatig wordt uitgevoerd, blijven oude data langer dan verwacht in de actieve laag en blijven ze fysieke ruimte op de schijf gebruiken.
Merk op dat ER en LTR elkaar uitsluiten, dus een systeem bevat ofwel alleen een actieve laag (geen ER/LTR geconfigureerd) of een actieve en archieflaag (ER geconfigureerd) of een actieve en cloudlaag (LTR geconfigureerd)
Als het beleid voor dataverplaatsing onjuist is / ontbreekt, moet dit worden gecorrigeerd - raadpleeg de Data Domain Administrators Guide voor hulp bij het uitvoeren hiervan
Houd er rekening mee dat Data Domain over het algemeen aanbeveelt om dataverplaatsing uit te voeren via een geautomatiseerd schema, maar sommige klanten kiezen ervoor om dit proces op een ad-hoc manier uit te voeren (d.w.z. wanneer dat nodig is). In dit scenario moet u de dataverplaatsing regelmatig starten door het volgende uit te voeren:
Raadpleeg de Data Domain Administrators Guide voor meer informatie over het wijzigen van het schema voor dataverplaatsing
Als de dataverplaatsing al enige tijd niet is uitgevoerd, probeer dan het proces handmatig te starten en controleer dan als volgt:
Als de dataverplaatsing om welke reden dan ook niet start, neem dan contact op met uw gecontracteerde supportprovider voor verdere hulp.
Op LTR-systemen moet active tier clean nog steeds worden geconfigureerd met een eigen schema
Stap 10 - Voeg extra storageruimte toe aan de actieve laag
Als alle voorgaande stappen zijn uitgevoerd, active tier clean is voltooid, maar er is nog steeds onvoldoende ruimte beschikbaar op de actieve laag, dan heeft het systeem waarschijnlijk niet de juiste grootte voor de workload die het ontvangt. In dit geval moet een van de volgende handelingen worden uitgevoerd:
Neem contact op met uw verkoopaccountteam om de toevoeging van storageruimte te bespreken.
Het Data Domain Operating System (DDOS) probeert een teller met de naam 'Cleanable GiB' bij te houden voor de actieve laag. Dit is een schatting van de hoeveel fysieke (post-comp) ruimte mogelijk kan worden teruggewonnen in de actieve laag door clean/garbage collection uit te voeren. Deze teller wordt weergegeven aan de hand van de opdrachten 'filesys show space'/'df':
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- --------- --------- ---- --------------
/data: pre-comp - 7259347.5 - - -
/data: post-comp 304690.8 251252,4 53438,5 82% 51616,1 /ddvar 29,5 12,5 15,6 44% -
---------------- -------- --------- --------- ---- --------------
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- --------- --------- ---- --------------
/data: pre-comp - 7259347.5 - - -
/data: post-comp 304690.8 251252,4 53438,5 82% 51616,1 /ddvar 29,5 12,5 15,6 44% -
---------------- -------- --------- --------- ---- --------------
Als een van beide het geval is:
- De waarde voor 'Cleanable GiB' is hoog
- DDFS is 100% vol geraakt (en is daarom alleen-lezen)
# filesys clean start
Cleaning started. Use 'filesys clean watch' to monitor progress.
Cleaning started. Use 'filesys clean watch' to monitor progress.
Om te bevestigen dat clean is gestart zoals verwacht, kan de opdracht 'filesys status' worden gebruikt, d.w.z.:
# filesys status
The filesystem is enabled and running.
Cleaning started at 2017/05/19 18:05:58: phase 1 of 12 (pre-merge)
50.6% complete, 64942 GiB free; time: phase 0:01:05, total 0:01:05
The filesystem is enabled and running.
Cleaning started at 2017/05/19 18:05:58: phase 1 of 12 (pre-merge)
50.6% complete, 64942 GiB free; time: phase 0:01:05, total 0:01:05
Let op:
- Als clean niet kan worden gestart, neem dan contact op met uw gecontracteerde supportprovider voor verdere assistentie - dit kan erop wijzen dat het systeem een fout met een ontbrekend segment heeft aangetroffen waardoor clean werd uitgeschakeld
- Als clean al wordt uitgevoerd, wordt het volgende bericht weergegeven wanneer wordt geprobeerd het programma op te starten:
**** Cleaning already in progress. Use 'filesys clean watch' to monitor progress.
- Er kan geen ruimte in de actieve laag worden vrijgemaakt/teruggewonnen totdat clean de kopieerfase bereikt (standaardfase 9 in DDOS 5.4.x en ouder, fase 11 in DDOS 5.5.x en nieuwer). Voor meer informatie over de fasen die door clean worden gebruikt: https://support.emc.com/kb/446734
- Clean claimt mogelijk niet de hoeveelheid ruimte die wordt aangegeven door 'Cleanable GiB', aangezien deze waarde in wezen een schatting is. Zie voor meer informatie hierover: https://support.emc.com/kb/485637
- Clean kan mogelijk niet alle potentiële ruimte in één keer terugwinnen - dit komt omdat op DDR's met zeer grote datasets clean moet werken met het gedeelte van het bestandssysteem dat de meest overbodige data bevat (d.w.z. om het beste rendement in vrije ruimte te geven voor de tijd die nodig is om clean uit te voeren). In sommige scenario's moet clean mogelijk meerdere keren worden uitgevoerd voordat alle potentiële ruimte is teruggewonnen.
- Als de waarde voor 'Cleanable GiB' erg groot is, kan dit erop duiden dat clean niet regelmatig is uitgevoerd - controleer of er een schema voor clean is ingesteld:
# filesys clean show schedule
Stel indien nodig een schema op voor een active tier clean, bijvoorbeeld elke dinsdag om 6 uur 's ochtends:
# filesys clean set schedule Tue 0600
Het opruimen van het bestandssysteem is gepland om op "Tue" om "0600” uitgevoerd te worden.
Houd er rekening mee dat op systemen die zijn geconfigureerd met Extended Retention (ER) clean kan worden geconfigureerd om te worden uitgevoerd nadat de dataverplaatsing is voltooid en mogelijk geen eigen afzonderlijk schema heeft. Dit scenario komt verderop in dit document aan bod
Nadat clean is voltooid, gebruikt u de opdrachten 'filesys show space'/'df' om te bepalen of gebruiksproblemen zijn opgelost. Als het gebruik nog steeds hoog is, gaat u verder met de resterende stappen in dit artikel.
Stap 2 - Controleer of er een grote mate van replicatievertraging is voor de bronreplicatiecontexten
Systeemeigen Data Domain replicatie is ontworpen rond het concept van 'replicatiecontexten'. Bijvoorbeeld wanneer data moeten worden gerepliceerd tussen systemen:
- Replicatiecontexten worden gemaakt op bron- en doel-DDR's
- De contexten worden geïnitialiseerd
- Zodra de initialisatie is voltooid, verzendt replicatie periodiek updates/delta’s van bron naar bestemming om data op de systemen gesynchroniseerd te houden
- Directory-replicatiecontexten (gebruikt bij het repliceren van een enkele mapstructuur onder /data/col1/backup tussen systemen):
Directory-replicatie maakt gebruik van een replicatielogboek op de bron-DDR voor het bijhouden van openstaande bestanden die nog niet naar de bestemming zijn gerepliceerd
Als een directory-replicatiecontext vertraging oploopt, dan zal het replicatielogboek op de bron-DDR een groot aantal bestanden volgen die in afwachting zijn van replicatie
Zelfs als deze bestanden worden verwijderd, terwijl er nog steeds naar wordt verwezen door het replicatielogboek, kan clean geen ruimte vrijmaken op de schijf die door deze bestanden wordt gebruikt.
Als een directory-replicatiecontext vertraging oploopt, dan zal het replicatielogboek op de bron-DDR een groot aantal bestanden volgen die in afwachting zijn van replicatie
Zelfs als deze bestanden worden verwijderd, terwijl er nog steeds naar wordt verwezen door het replicatielogboek, kan clean geen ruimte vrijmaken op de schijf die door deze bestanden wordt gebruikt.
- Mtree-replicatiecontexten (gebruikt bij het repliceren van een andere mtree andere dan/data/col1/backup tussen systemen):
Mtree-replicatie maakt gebruik van snapshots gemaakt op bron- en doelsystemen om verschillen tussen systemen te bepalen en daarom welke bestanden van de bron naar bestemming moeten worden verzonden
Als een mtree-replicatiecontext vertraging oploopt, kan de bijbehorende mtree zeer oude snapshots hebben gemaakt op bron- en doelsystemen
Zelfs als bestanden afkomstig zijn van de gerepliceerde mtree, als die bestanden al bestonden toen mtree-replicatiesnapshots werden gemaakt op het systeem, kan clean geen ruimte vrijmaken op de schijf die door deze bestanden wordt gebruikt
Als een mtree-replicatiecontext vertraging oploopt, kan de bijbehorende mtree zeer oude snapshots hebben gemaakt op bron- en doelsystemen
Zelfs als bestanden afkomstig zijn van de gerepliceerde mtree, als die bestanden al bestonden toen mtree-replicatiesnapshots werden gemaakt op het systeem, kan clean geen ruimte vrijmaken op de schijf die door deze bestanden wordt gebruikt
- Verzameling-replicatiecontexten (gebruikt bij het repliceren van de volledige inhoud van een DDR naar een ander systeem):
Verzamelingsreplicatie voert de 'blokgebaseerde’ replicatie uit van alle data op een bronsysteem naar een
Als de replicatie van een verzameling vertraging oploopt, zal clean op het bronsysteem niet optimaal kunnen functioneren - in dit scenario wordt een waarschuwing gegenereerd op de bron om aan te geven dat een gedeeltelijk clean wordt uitgevoerd om synchronisatie met het doelsysteem te vermijden
Clean kan daarom niet zoveel ruimte op de bron-DDR terugwinnen als verwacht
Als de replicatie van een verzameling vertraging oploopt, zal clean op het bronsysteem niet optimaal kunnen functioneren - in dit scenario wordt een waarschuwing gegenereerd op de bron om aan te geven dat een gedeeltelijk clean wordt uitgevoerd om synchronisatie met het doelsysteem te vermijden
Clean kan daarom niet zoveel ruimte op de bron-DDR terugwinnen als verwacht
Om te bepalen of replicatiecontexten vertraging oplopen, moeten de volgende stappen worden uitgevoerd:
- Bepaal de hostnaam van het huidige systeem:
sysadmin@dd4200# hostname
The Hostname is: dd4200.ddsupport.emea
The Hostname is: dd4200.ddsupport.emea
- Bepaal de datum/tijd op het huidige systeem:
sysadmin@dd4200# date
Fri May 19 19:04:06 IST 2017
Fri May 19 19:04:06 IST 2017
- Maak een lijst van replicatiecontexten die op het systeem zijn geconfigureerd, samen met hun 'synced as of time'. Let op: contexten die van belang zijn, zijn die waarin de 'Destination' NIET de hostnaam van het huidige systeem bevat (wat aangeeft dat het huidige systeem de bron is) en de 'synced as of time’ aanzienlijk oud is:
sysadmin@dd4200# replicatiestatus
CTX Destination Enabled Connection Sync'ed-as-time Tenant-Unit
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
3 mtree://dd4200.ddsupport.emea/data/col1/DFC no idle do 8 jan 08:58 - < NIET INTERESSANT - HUIDIG SYSTEEM IS DE BESTEMMING
9 mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree geen inactiviteit ma 25 jan 14:48 - 13 dir://DD2500-1.ddsupport.emea/backup/dstfolder geen losgekoppelde do 30 17:55 - 17 mtree://DD2500-1.ddsupport.emea/data/col1/oleary yes idle vr 19 mei 2018 18:57 - 18 mtree://dd4200.ddsupport.emea/data/col1/testfast yes idle vr 19 mei 19:18 - --- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
CTX Destination Enabled Connection Sync'ed-as-time Tenant-Unit
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
3 mtree://dd4200.ddsupport.emea/data/col1/DFC no idle do 8 jan 08:58 - < NIET INTERESSANT - HUIDIG SYSTEEM IS DE BESTEMMING
9 mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree geen inactiviteit ma 25 jan 14:48 - 13 dir://DD2500-1.ddsupport.emea/backup/dstfolder geen losgekoppelde do 30 17:55 - 17 mtree://DD2500-1.ddsupport.emea/data/col1/oleary yes idle vr 19 mei 2018 18:57 - 18 mtree://dd4200.ddsupport.emea/data/col1/testfast yes idle vr 19 mei 19:18 - --- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
Contexten waarvoor het huidige systeem de bron is en die aanzienlijke vertraging vertonen of contexten die niet langer nodig zijn, moeten worden verbroken. Dit kan worden uitgevoerd door de volgende opdracht uit te voeren op het bron- en doelsysteem:
# replication break [destination]
Om bijvoorbeeld de hierboven getoonde 'interessante’ contexten te verbreken, zouden de volgende opdrachten op de bron en het doel moeten worden uitgevoerd:
(dd4200.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(BenDDVE.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(BenDDVE.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(dd4200.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
(DD2500-1.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
(DD2500-1.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
Let op:
- Zodra contexten zijn verbroken, moet de active tier clean worden uitgevoerd om potentiële ruimte in de actieve laag terug te winnen
- Als u mtree-replicatie gebruikt wanneer de contexten zijn verbroken, kunnen snapshots van mtree-replicatie op de schijf blijven staan. Zorg ervoor dat 5 wordt gevolgd om overbodige snapshots te laten vervallen voordat u clean uitvoert
- Als de mtree van de bron/bestemming is geconfigureerd voor het migreren van data naar archief- of cloudlagen, moet u voorzichtig zijn bij het verbreken van overeenkomstige mtree-replicatiecontexten, aangezien deze contexten in de toekomst mogelijk niet opnieuw kunnen worden hersteld/geïnitialiseerd. De reden hiervoor is dat wanneer een mtree-replicatiecontext wordt geïnitialiseerd, er een mtree-snapshot wordt gemaakt op het bronsysteem en details bevat van alle bestanden in de mtree (ongeacht de laag). Deze snapshot wordt vervolgens volledig gerepliceerd naar de actieve laag van de bestemming. Als gevolg hiervan, als de actieve laag van de bestemming niet voldoende vrije ruimte heeft om alle mtree-data van de bron op te nemen, kan de initialisatie niet worden voltooid. Neem contact op met uw gecontracteerde supportprovider voor meer informatie over dit probleem.
- Als een verzameling-replicatiecontext is verbroken, kan de context niet opnieuw worden hersteld/geïnitialiseerd zonder eerst de instantie van DDFS op de doel-DDR te vernietigen (en alle data op dit systeem te verliezen). Als gevolg hiervan kan een volgende initialisatie veel tijd of netwerkbandbreedte in beslag nemen omdat alle data van de bron opnieuw fysiek naar de bestemming moeten worden gerepliceerd.
De inhoud van DDFS is logisch onderverdeeld in mtrees. Het is gebruikelijk voor afzonderlijke back-upapplicaties/clients om naar een afzonderlijke mtrees te schrijven. Als een back-upapplicatie buiten gebruik wordt gesteld, kan deze niet langer data schrijven naar of verwijderen uit de DDR, waardoor oude/overbodige mtrees op het systeem kunnen achterblijven. Data in deze mtrees blijven voor onbepaalde tijd bestaan en blijven schijfruimte gebruiken op de DDR. Daarom moeten dergelijke overbodige mtrees worden verwijderd. Bijvoorbeeld:
- Maak een lijst van mtrees op het systeem:
# mtree list
Name Pre-Comp (GiB) Status
------------------------------------------------------------- -------------- -------
/data/col1/Budu_test 147.0 RW
/data/col1/Default 8649.8 RW
/data/col1/File_DayForward_Noida 42.0 RW/RLCE
/data/col1/labtest 1462.7 RW
/data/col1/oscar_data 0,2 RW
/data/col1/test_oscar_2 494.0 RO/RD
------------------------------------------------------------- -------------- -------
Name Pre-Comp (GiB) Status
------------------------------------------------------------- -------------- -------
/data/col1/Budu_test 147.0 RW
/data/col1/Default 8649.8 RW
/data/col1/File_DayForward_Noida 42.0 RW/RLCE
/data/col1/labtest 1462.7 RW
/data/col1/oscar_data 0,2 RW
/data/col1/test_oscar_2 494.0 RO/RD
------------------------------------------------------------- -------------- -------
- Alle mtrees die niet meer nodig zijn, moeten worden verwijderd met de opdracht 'mtree delete’, d.w.z.:
# mtree delete [mtree name]
Bijvoorbeeld:
# mtree delete /data/col1/Budu_test
...
MTree "/data/col1/Budu_test" deleted successfully.
MTree "/data/col1/Budu_test" deleted successfully.
- De ruimte die door de verwijderde mtree op de schijf wordt gebruikt, wordt teruggewonnen de volgende keer dat de active tier clean/garbage collection wordt uitgevoerd.
- Bij mtrees die bestemmingen zijn voor mtree-replicatie (d.w.z. de status van RO/RD in de uitvoer van mtree-lijst) moet de bijbehorende replicatiecontext worden verbroken voordat de mtree wordt verwijderd.
- Mtrees die worden gebruikt als DDBoost logische storageunits (LSU’s) of als virtuele tape library (VTL)-pools kunnen mogelijk niet worden verwijderd via de 'mtree delete'-opdracht. Raadpleeg de handleiding voor Data Domain beheer voor meer informatie over het verwijderen van dergelijke mtrees
- Mtrees die zijn geconfigureerd voor retentievergrendeling (d.w.z. met de status RLCE of RLGE) kunnen niet worden verwijderd. In plaats daarvan moet de retentievergrendeling van afzonderlijke bestanden in de mtree worden teruggedraaid en afzonderlijk worden verwijderd. Raadpleeg de handleiding voor Data Domain beheer voor meer informatie
Een Data Domain snapshot vertegenwoordigt een snapshot van de bijbehorende mtree. Als gevolg daarvan:
- Alle bestanden die in de mtree aanwezig zijn op het moment dat de snapshot wordt gemaakt, worden door de snapshot gerefereerd
- Terwijl de snapshot blijft bestaan, zelfs als deze bestanden worden verwijderd, kan clean geen fysieke ruimte terugwinnen die ze op de schijf gebruiken - dit komt omdat de data op het systeem moeten blijven voor het geval de kopie van het bestand in de snapshot later wordt geopend
- Maak een lijst met mtrees op het systeem met behulp van de 'mtree list'-opdracht zoals weergegeven in stap 3
- Maak een lijst van snapshots die voor elke mtree bestaan met behulp van de 'snapshot list'-opdracht:
# snapshot list mtree [mtree name]
Bij uitvoering op een mtree zonder snapshots wordt het volgende weergegeven:
# snapshot list mtree /data/col1/Default
Snapshot Information for MTree: /data/col1/Default
----------------------------------------------
No snapshots found.
Snapshot Information for MTree: /data/col1/Default
----------------------------------------------
No snapshots found.
Bij uitvoering op een mtree met snapshots wordt het volgende weergegeven:
# snapshot list mtree /data/col1/labtest
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 31 mrt 2016 12:00 26 mrt 2017 12:00 verlopen
testsnap-2016-05-31-12-00 1198.8 31 mei 2016 12:00 26 mei 2017 12:00
testsnap-2016-07-31-12-00 1301.3 jul 31 2016 12:00 jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 31 aug 2016 12:00 26 aug 2017 12:00
testsnap-2016-10-31-12-00 1424.9 31 okt 2016 12:00 26 okt 2017 13:00
testsnap-2016-12-31-12-00 1403.1 31 dec 2016 12:00 26 dec 2017 12:00
testsnap-2017-01-31-12-00 1421.0 31 jan 2017 12:00 26 jan 2018 12:00
testsnap-0 2017-03-31-12-00 1468.7 31 mrt 2017 12:00 26 mrt 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 11 mei 2017 15:18 mei 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 31 mrt 2016 12:00 26 mrt 2017 12:00 verlopen
testsnap-2016-05-31-12-00 1198.8 31 mei 2016 12:00 26 mei 2017 12:00
testsnap-2016-07-31-12-00 1301.3 jul 31 2016 12:00 jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 31 aug 2016 12:00 26 aug 2017 12:00
testsnap-2016-10-31-12-00 1424.9 31 okt 2016 12:00 26 okt 2017 13:00
testsnap-2016-12-31-12-00 1403.1 31 dec 2016 12:00 26 dec 2017 12:00
testsnap-2017-01-31-12-00 1421.0 31 jan 2017 12:00 26 jan 2018 12:00
testsnap-0 2017-03-31-12-00 1468.7 31 mrt 2017 12:00 26 mrt 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 11 mei 2017 15:18 mei 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
- Waar snapshots bestaan, gebruikt u de uitvoer van 'snapshot list mtree [mtree name]’ om snapshots te bepalen die:
Niet ‘expired’ zijn (zie kolom Status
Een aanzienlijke tijd in het verleden zijn gemaakt (bijvoorbeeld snapshots gemaakt in 2016 op basis van de bovenstaande lijst)
Deze snapshots moeten zodanig verlopen zijn dat ze kunnen worden verwijderd wanneer clean wordt uitgevoerd en ruimte die ze op de schijf innemen wordt vrijgemaakt:
# snapshot expire [snapshot name] mtree [mtree name]
Bijvoorbeeld:
# snapshot expire testsnap-2016-05-31-12-00 mtree /data/col1/labtest
Snapshot "testsnap-2016-05-31-12-00" for mtree "/data/col1/labtest" will be retained until May 19 2017 19:31.
Snapshot "testsnap-2016-05-31-12-00" for mtree "/data/col1/labtest" will be retained until May 19 2017 19:31.
- Als de ‘snapshot list'-opdracht opnieuw wordt uitgevoerd, worden deze snapshots nu weergegeven als verlopen:
# snapshot list mtree /data/col1/labtest
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 31 mrt 2016 12:00 26 mrt 2017 12:00 verlopen
testsnap-2016-05-31-12-00 1198.8 31 mei 2016 12:00 26 mei 2017 12:00 verlopen
testsnap-2016-07-31-12-00 1301.3 jul 31 2016 12:00 jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 31 aug 2016 12:00 26 aug 2017 12:00
testsnap-2016-10-31-12-00 1424.9 31 okt 2016 12:00 26 okt 2017 13:00
testsnap-2016-12-31-12-00 1403.1 31 dec 2016 12:00 26 dec 2017 12:00
testsnap-2017-01-31-12-00 1421.0 31 jan 2017 12:00 26 jan 2018 12:00
testsnap-0 2017-03-31-12-00 1468.7 31 mrt 2017 12:00 26 mrt 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 11 mei 2017 15:18 mei 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 31 mrt 2016 12:00 26 mrt 2017 12:00 verlopen
testsnap-2016-05-31-12-00 1198.8 31 mei 2016 12:00 26 mei 2017 12:00 verlopen
testsnap-2016-07-31-12-00 1301.3 jul 31 2016 12:00 jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 31 aug 2016 12:00 26 aug 2017 12:00
testsnap-2016-10-31-12-00 1424.9 31 okt 2016 12:00 26 okt 2017 13:00
testsnap-2016-12-31-12-00 1403.1 31 dec 2016 12:00 26 dec 2017 12:00
testsnap-2017-01-31-12-00 1421.0 31 jan 2017 12:00 26 jan 2018 12:00
testsnap-0 2017-03-31-12-00 1468.7 31 mrt 2017 12:00 26 mrt 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 11 mei 2017 15:18 mei 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
Let op:
- Het is niet mogelijk om te bepalen hoeveel fysieke data een individuele snapshot of verzameling snapshots op de schijf bevat - de enige waarde voor 'ruimte' die aan een snapshot is gekoppeld, is een indicatie van de voorgecomprimeerde (logische) grootte van de mtree toen de snapshot werd gemaakt (zoals weergegeven in de bovenstaande uitvoer)
- Snapshots met de naam 'REPL-MTREE-AUTO-YYYY-MM-DD-HH-MM-SS' worden beheerd door mtree-replicatie en hoeft u deze onder normale omstandigheden niet handmatig te laten vervallen (replicatie zal deze snapshots automatisch laten verlopen wanneer ze niet meer nodig zijn). Als dergelijke snapshots extreem oud zijn, geeft dit aan dat de bijbehorende replicatiecontext waarschijnlijk een aanzienlijke vertraging vertoont (zoals beschreven in stap 2).
- Snapshots met de naam 'REPL-MTREE-RESYNC-RESERVE-YYYY-MM-DD-HH-MM-SS' worden gemaakt door mtree-replicatie wanneer een mtree-replicatiecontext wordt verbroken. De bedoeling ervan is dat ze kunnen worden gebruikt om een volledige hersynchronisatie van replicatiedata te voorkomen als de verbroken context later opnieuw wordt hersteld (bijvoorbeeld als de context per ongeluk is verbroken). Als replicatie niet wordt hersteld, kunt u deze contexten niet meer handmatig laten verlopen, zoals hierboven beschreven.
- Verlopen snapshots blijven op het systeem bestaan tot de volgende keer dat clean/garbage collection wordt uitgevoerd - op dit punt worden ze fysiek verwijderd en verwijderd uit de uitvoer van 'snapshot list mtree [mtree name]' - clean kan dan elke ruimte terugwinnen die deze snapshots op de schijf gebruiken
Autosupports van de DDR bevatten histogrammen met een uitsplitsing van bestanden op de DDR naar ouderdom, bijvoorbeeld:
Bestandsdistributie
-----------------
448.672 bestanden in 5276 mappen
Aantal ruimte
----------------------------- --------------------------
Leeftijdsbestanden % cumul% GiB% cumul%
--------- ----------- ----- ------- -------- ----- -------
1 dag 7244 1,6 1,6 4537,9 0,1 0,1
1 week 40.388 9,0 10,6 63538,2 0,8 0,8
2 weken 47.850 10,7 21,3 84409.1 1,0 1,9
1 maand 125.800 28,0 49,3 404807,0 5,0 6,9
2 maanden 132.802 29,6 78,9 437558,8 5,4 12,3
3 maanden 8.084 1,8 80,7 633906.4 7,8 20,1
6 maanden 5441 1,2 81,9 1244863,9 15,3 35,4
1 jaar 21.439 4,8 86,7 3973612,3 49,0 84,4
> 1 jaar 59.624 13,3 100,0 1265083,9 15,6 100,0
--------- ----------- ----- ------- -------- ----- -------
-----------------
448.672 bestanden in 5276 mappen
Aantal ruimte
----------------------------- --------------------------
Leeftijdsbestanden % cumul% GiB% cumul%
--------- ----------- ----- ------- -------- ----- -------
1 dag 7244 1,6 1,6 4537,9 0,1 0,1
1 week 40.388 9,0 10,6 63538,2 0,8 0,8
2 weken 47.850 10,7 21,3 84409.1 1,0 1,9
1 maand 125.800 28,0 49,3 404807,0 5,0 6,9
2 maanden 132.802 29,6 78,9 437558,8 5,4 12,3
3 maanden 8.084 1,8 80,7 633906.4 7,8 20,1
6 maanden 5441 1,2 81,9 1244863,9 15,3 35,4
1 jaar 21.439 4,8 86,7 3973612,3 49,0 84,4
> 1 jaar 59.624 13,3 100,0 1265083,9 15,6 100,0
--------- ----------- ----- ------- -------- ----- -------
Dit kan handig zijn om te bepalen of er bestanden op het systeem aanwezig zijn die niet zijn verlopen of verwijderd zoals verwacht door de clientback-upapplicatie. Als bijvoorbeeld naar het bovenstaande systeem is geschreven door een back-upapplicatie waarbij de maximale retentieperiode voor een bestand 6 maanden was, is het direct duidelijk dat de back-upapplicatie geen laat verlopen/verwijderen zoals verwacht, aangezien er ongeveer 80.000 bestanden ouder zijn dan 6 maanden op de DDR.
Let op:
- Het is de verantwoordelijkheid van de back-upapplicatie om alle bestanden te laten verlopen/verwijderen
- Een DDR zal nooit bestanden automatisch laten verlopen/verwijderen, tenzij de back-upapplicatie opdracht geeft om expliciet een bestand te verwijderen, blijft het bestand op de DDR staan met gebruik van ruimte voor onbepaalde tijd
Indien nodig kan Data Domain support aanvullende rapporten verstrekken aan:
- Geef de naam/wijzigingstijd op van alle bestanden op een DDR geordend op ouderdom (zodat de naam/locatie van eventuele oude data kan worden bepaald)
- Splits histogrammen van bestandsouderdom op in afzonderlijke rapporten voor de actieve/archief-/cloudlaag (waarbij de ER/LTR-functies zijn ingeschakeld)
- Verzamel bewijsmateriaal zoals beschreven in de alinea 'sfs_dump verzamelen' van het gedeelte Opmerkingen van dit document
- Open een serviceaanvraag met uw gecontracteerde supportprovider
Stap 6 - Controleer op back-ups met een groot aantal kleine bestanden
Vanwege het ontwerp van DDFS kunnen kleine bestanden (in wezen elk bestand dat kleiner is dan ongeveer 10 MB) buitensporig veel ruimte in beslag nemen wanneer ze in eerste instantie naar de DDR worden geschreven. Dit komt door de 'SISL'-architectuur (Stream Informed Segment Layout) die ervoor zorgt dat kleine bestanden meerdere individuele blokken van 4,5 MB aan schijfruimte in beslag nemen. Een 4Kb-bestand kan bijvoorbeeld in eerste instantie tot 9 MB fysieke schijfruimte in beslag nemen
Deze overtollige ruimte wordt vervolgens teruggewonnen wanneer clean/garbage collection wordt uitgevoerd (omdat data van kleine bestanden vervolgens worden samengevoegd tot een kleiner aantal blokken van 4,5 MB), maar kan ervoor zorgen dat kleinere modellen van DDR overmatig worden gebruikt en worden gevuld wanneer dergelijke back-ups worden uitgevoerd.
Autosupports bevatten histogrammen van bestanden opgesplitst naar grootte, bijvoorbeeld:
Count Space
----------------------------- --------------------------
Size Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 KiB 2.957 35.8 35.8 0.0 0.0 0.0
10 KiB 1.114 13.5 49.3 0.0 0.0 0.0
100 KiB 249 3.0 52.4 0.1 0.0 0.0
500 KiB 1.069 13.0 65.3 0.3 0.0 0.0
1 MiB 113 1.4 66.7 0.1 0.0 0.0
5 MiB 446 5,4 72,1 1,3 0,0 0,0
10 MiB 220 2,7 74,8 1,9 0,0 0,0
50 MiB 1326 16,1 90,8 33,6 0,2 0,2
100 MiB 12 0,1 91,0 0,9 0,0 0,2
500 MiB 490 5,9 96,9 162,9 0,8 1,0
1 GiB 58 0,7 97,6 15,6 0,1 1,1 1,15
GiB 29 0,4 98,0 87,0 0,5 1,6
10 GiB 17 0,2 98,2 322,9 1,7 3,3
50 GiB 21 0,3 98,4 1352,7 7,0 10,3
100 GiB 72 0,9 99,3 6743,0 35,1 45,5
500 GiB 58 0,7 100,0 10 465,9 54,5 100,0
> 500 GiB 0 0,0 100,0 0,0 0,0 100,0
--------- ----------- ----- ------- -------- ----- -------
----------------------------- --------------------------
Size Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 KiB 2.957 35.8 35.8 0.0 0.0 0.0
10 KiB 1.114 13.5 49.3 0.0 0.0 0.0
100 KiB 249 3.0 52.4 0.1 0.0 0.0
500 KiB 1.069 13.0 65.3 0.3 0.0 0.0
1 MiB 113 1.4 66.7 0.1 0.0 0.0
5 MiB 446 5,4 72,1 1,3 0,0 0,0
10 MiB 220 2,7 74,8 1,9 0,0 0,0
50 MiB 1326 16,1 90,8 33,6 0,2 0,2
100 MiB 12 0,1 91,0 0,9 0,0 0,2
500 MiB 490 5,9 96,9 162,9 0,8 1,0
1 GiB 58 0,7 97,6 15,6 0,1 1,1 1,15
GiB 29 0,4 98,0 87,0 0,5 1,6
10 GiB 17 0,2 98,2 322,9 1,7 3,3
50 GiB 21 0,3 98,4 1352,7 7,0 10,3
100 GiB 72 0,9 99,3 6743,0 35,1 45,5
500 GiB 58 0,7 100,0 10 465,9 54,5 100,0
> 500 GiB 0 0,0 100,0 0,0 0,0 100,0
--------- ----------- ----- ------- -------- ----- -------
Als er aanwijzingen zijn dat back-ups zeer grote aantallen kleine bestanden schrijven, kan het systeem worden beïnvloed door een aanzienlijke tijdelijke toename van het gebruik tussen elke aanroep van clean/garbage collection. In dit scenario verdient het de voorkeur om de back-upmethodologie te wijzigen om alle kleine bestanden op te nemen in een enkel groter archief (zoals een tar-bestand) voordat ze naar de DDR worden geschreven. Merk op dat een dergelijk archief niet mag worden gecomprimeerd of versleuteld (omdat hierdoor de compressiesnelheid/de-duplicatieverhouding van die data wordt beschadigd).
Stap 7 - Controleer of de de-duplicatieverhouding lager is dan verwacht
Het belangrijkste doel van een DDR is de-duplicatie en comprimeren van data die door het apparaat worden opgenomen. De verhouding tussen de-duplicatie/compressie is sterk afhankelijk van het gebruik van het systeem en het type data dat het bevat, maar in veel gevallen zal er een 'verwachte' algehele compressiesnelheid zijn op basis van resultaten die zijn verkregen door middel van een haalbaarheidstest of vergelijkbare methode. Om de huidige algehele compressiesnelheid van het systeem te bepalen (en dus of het aan de verwachtingen voldoet) kan het commando 'filesys show compressie' worden gebruikt. Bijvoorbeeld:
# filesys show compression
From: 2017-05-03 13:00 To: 2017-05-10 13:00
Active Tier:
Pre-Comp Post-Comp Global-Comp Local-Comp Total-Comp
(GiB) Factor
(Reduction %)
---------------- -------- --------- ----------- ---------- -------------
Currently Used:* 20581.1 315.4 - - 65.3x (98.5)
Written:
Afgelopen 7 dagen 744,0 5,1 80,5x 1,8x 145,6x (99,3)
Laatste 24 uur
---------------- -------- --------- ----------- ---------- -------------
* Omvat niet de gevolgen van het verwijderen/afkapen van pre-comp-bestanden
From: 2017-05-03 13:00 To: 2017-05-10 13:00
Active Tier:
Pre-Comp Post-Comp Global-Comp Local-Comp Total-Comp
(GiB) Factor
(Reduction %)
---------------- -------- --------- ----------- ---------- -------------
Currently Used:* 20581.1 315.4 - - 65.3x (98.5)
Written:
Afgelopen 7 dagen 744,0 5,1 80,5x 1,8x 145,6x (99,3)
Laatste 24 uur
---------------- -------- --------- ----------- ---------- -------------
* Omvat niet de gevolgen van het verwijderen/afkapen van pre-comp-bestanden
In bovenstaande voorbeeld bereikt het systeem een algehele compressiesnelheid van 65,3x voor de actieve laag (dit is bijzonder goed). Als deze waarde echter aangeeft dat de algehele compressiesnelheid niet aan de verwachtingen voldoet, is nader onderzoek waarschijnlijk nodig. Merk op dat het onderzoeken van een lager dan verwachte compressiesnelheid een complex onderwerp is dat vele hoofdoorzaken kan hebben. Zie het volgende artikel voor meer informatie over zo'n onderzoek:
https://support.emc.com/kb/487055
Stap 8 - Controleer of het systeem een bron is voor verzameling-replicatie
Bij gebruik van verzameling-replicatie als het bronsysteem fysiek groter is dan de bestemming, wordt de grootte van het bronsysteem kunstmatig beperkt tot die van de bestemming (d.w.z. er zal een schijfgedeelte op de bron zijn dat als onbruikbaar wordt gemarkeerd). De reden hiervoor is dat bij het gebruik van verzameling-replicatie de bestemming een kopie van de bron moet zijn als de bron indien fysiek groter dan de bestemming is, de kans bestaat dat er te veel data naar de bron worden geschreven die dan niet naar de bestemming kunnen worden gerepliceerd (omdat deze al vol is). Dit scenario wordt voorkomen door de grootte van de bron te beperken zodat deze overeenkomt met de bestemming.
- Controleer met behulp van de opdrachten van stap 2 of het systeem een bron is voor replicatie van verzamelingen. Voer hiervoor 'replication status’ uit en bepaal of er replicatiecontexten zijn die beginnen met 'col://' (geeft verzameling-replicatie aan) die NIET de hostnaam van het lokale systeem in de bestemming bevat (wat aangeeft dat dit systeem een bron moet zijn voor de replicatiecontext)
- Als het systeem een bron is voor verzameling-replicatie, controleer dan de grootte van de actieve laag van elk systeem door u op beide aan te melden en de opdracht 'filesys show space' uit te voeren - vergelijk de grootte van ‘post-comp’ van de actieve lagen op elk
- Als de bron aanzienlijk groter is dan de bestemming, zal de actieve laaggrootte ervan kunstmatig worden beperkt.
- Om ervoor te zorgen dat alle ruimte op de bron bruikbaar is voor data, moet het volgende worden uitgevoerd:
Voeg extra storageruimte toe aan de actieve laag van de bestemming, zodat de grootte ervan >= de grootte van de actieve laag van de bron
Verbreek de replicatiecontext van de verzameling (met behulp van opdrachten uit stap 2) - merk op dat dit uiteraard voorkomt dat data worden gerepliceerd vanaf de bron -> doel-DDR
Zodra een van deze is uitgevoerd, komt er onmiddellijk extra ruimte beschikbaar in de actieve laag van het bronsysteem (d.w.z. het is niet nodig om de active tier clean/garbage collection uit te voeren voordat u deze ruimte gebruikt)
Stap 9 - Controleer of dataverplaatsing regelmatig wordt uitgevoerd
Als de DDR is geconfigureerd met Extended Retention (ER) of Long Term Retention (LTR), is er een tweede storagelaag aan gekoppeld (archieflaag voor ER of cloudlaag voor LTR). In dit scenario is beleid voor dataverplaatsing waarschijnlijk geconfigureerd op mtrees om oudere/ongewijzigde data te migreren die langdurig moeten worden bewaard van de actieve laag naar de alternatieve storagelaag, zodat de ruimte die door deze bestanden in de actieve laag wordt gebruikt, fysiek kan worden teruggewonnen door clean/garbage collection. Als het beleid voor dataverplaatsing onjuist is geconfigureerd of als het dataverplaatsingsproces niet regelmatig wordt uitgevoerd, blijven oude data langer dan verwacht in de actieve laag en blijven ze fysieke ruimte op de schijf gebruiken.
- Bevestig in eerste instantie of het systeem is geconfigureerd voor ER of LTR door 'filesys show space' uit te voeren en te controleren op het bestaan van een archief- of cloudlaag - houd er rekening mee dat deze alternatieve storagelagen een post-comp-grootte van > 0 Gb moeten hebben om bruikbaar te zijn:
# filesys show space
...
Archive Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 4163.8 - - -
/data: post-comp 31938.2 1411.9 30526.3 4% -
---------------- -------- -------- --------- ---- -------------
# filesys show space
...
Cloud Tier
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 338905.8 0.0 338905.8 0% 0.0
---------------- -------- -------- --------- ---- -------------
...
Archive Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 4163.8 - - -
/data: post-comp 31938.2 1411.9 30526.3 4% -
---------------- -------- -------- --------- ---- -------------
# filesys show space
...
Cloud Tier
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 338905.8 0.0 338905.8 0% 0.0
---------------- -------- -------- --------- ---- -------------
Merk op dat ER en LTR elkaar uitsluiten, dus een systeem bevat ofwel alleen een actieve laag (geen ER/LTR geconfigureerd) of een actieve en archieflaag (ER geconfigureerd) of een actieve en cloudlaag (LTR geconfigureerd)
- Als het systeem is geconfigureerd met ER/LTR, controleer dan het beleid voor dataverplaatsing op mtrees om ervoor te zorgen dat deze zijn zoals verwacht en stel ze zo in dat oude data naar de alternatieve storagelaag worden geduwd:
ER: # archive data-movement policy show
LTR: # data-movement policy show
LTR: # data-movement policy show
Als het beleid voor dataverplaatsing onjuist is / ontbreekt, moet dit worden gecorrigeerd - raadpleeg de Data Domain Administrators Guide voor hulp bij het uitvoeren hiervan
- Als het systeem is geconfigureerd met ER/LTR, controleer dan of de dataverplaatsing is gepland om met regelmatige tussenpozen te worden uitgevoerd om bestanden/data fysiek van de actieve laag naar alternatieve storage te migreren:
ER: # archive data-movement schedule show
LTR: # data-movement schedule show
LTR: # data-movement schedule show
Houd er rekening mee dat Data Domain over het algemeen aanbeveelt om dataverplaatsing uit te voeren via een geautomatiseerd schema, maar sommige klanten kiezen ervoor om dit proces op een ad-hoc manier uit te voeren (d.w.z. wanneer dat nodig is). In dit scenario moet u de dataverplaatsing regelmatig starten door het volgende uit te voeren:
ER: # archive data-movement start
LTR: # data-movement start
LTR: # data-movement start
Raadpleeg de Data Domain Administrators Guide voor meer informatie over het wijzigen van het schema voor dataverplaatsing
- Als het systeem is geconfigureerd voor ER/LTR, controleer dan de laatste keer dat dataverplaatsing werd uitgevoerd:
ER: # archive data-movement status
LTR: # data-movement status
LTR: # data-movement status
Als de dataverplaatsing al enige tijd niet is uitgevoerd, probeer dan het proces handmatig te starten en controleer dan als volgt:
ER: # archive data-movement watch
LTR: # data-movement watch
LTR: # data-movement watch
Als de dataverplaatsing om welke reden dan ook niet start, neem dan contact op met uw gecontracteerde supportprovider voor verdere hulp.
- Zodra de dataverplaatsing is voltooid, moet active tier clean worden uitgevoerd (merk op dat het kan worden geconfigureerd om automatisch te starten na voltooiing van de dataverplaatsing) om ervoor te zorgen dat de ruimte die wordt gebruikt door mijn gemigreerde bestanden in de actieve laag fysiek wordt vrijgemaakt:
# filesys clean start
Op ER-systemen is het gebruikelijk om dataverplaatsing zo te plannen dat deze regelmatig wordt uitgevoerd (d.w.z. eenmaal per week) en vervolgens active tier clean zo te configureren dat deze wordt uitgevoerd na voltooiing van de dataverplaatsing. In dit scenario heeft active tier clean geen eigen onafhankelijk schema. Om dit te configureren, moet u eerst het huidige actieve schema voor active tier clean verwijderen:
# filesys clean set schedule never
Configureer dataverplaatsing om periodiek uit te voeren, gevolgd door automatische opschoning van actieve lagen, bijvoorbeeld om elke dinsdag om 6 uur dataverplaatsing uit te voeren, gevolgd door een actief tier clean-schema:
# schema voor verplaatsing van archiefdata ingesteld dagen di t/m 0600
Het schema voor verplaatsing van archiefdata is ingesteld.
Verplaatsing van archiefdata is gepland om te worden uitgevoerd op de dag(en) "di" om "06:00" uur
Het kan worden bevestigd dat de actieve tier clean is geconfigureerd om uit te voeren na voltooiing van de dataverplaatsing als volgt:
# archive show config
Enabled Yes
Data movement Schedule Run on day(s) "di" at "06:00" hrs
Dataverplaatsing beperkt 100%
standaard leeftijdsdrempel beleid voor dataverplaatsing 14 dagen
Run filesys clean after archive data movement Yes Archive Tier local compression gz
Packing data during archive data movement enabled
Space Reclamation disabled
Space Reclamation Schedule No schedule
Op ER-systemen is het gebruikelijk om dataverplaatsing zo te plannen dat deze regelmatig wordt uitgevoerd (d.w.z. eenmaal per week) en vervolgens active tier clean zo te configureren dat deze wordt uitgevoerd na voltooiing van de dataverplaatsing. In dit scenario heeft active tier clean geen eigen onafhankelijk schema. Om dit te configureren, moet u eerst het huidige actieve schema voor active tier clean verwijderen:
# filesys clean set schedule never
Configureer dataverplaatsing om periodiek uit te voeren, gevolgd door automatische opschoning van actieve lagen, bijvoorbeeld om elke dinsdag om 6 uur dataverplaatsing uit te voeren, gevolgd door een actief tier clean-schema:
# schema voor verplaatsing van archiefdata ingesteld dagen di t/m 0600
Het schema voor verplaatsing van archiefdata is ingesteld.
Verplaatsing van archiefdata is gepland om te worden uitgevoerd op de dag(en) "di" om "06:00" uur
Het kan worden bevestigd dat de actieve tier clean is geconfigureerd om uit te voeren na voltooiing van de dataverplaatsing als volgt:
# archive show config
Enabled Yes
Data movement Schedule Run on day(s) "di" at "06:00" hrs
Dataverplaatsing beperkt 100%
standaard leeftijdsdrempel beleid voor dataverplaatsing 14 dagen
Run filesys clean after archive data movement Yes Archive Tier local compression gz
Packing data during archive data movement enabled
Space Reclamation disabled
Space Reclamation Schedule No schedule
Op LTR-systemen moet active tier clean nog steeds worden geconfigureerd met een eigen schema
Stap 10 - Voeg extra storageruimte toe aan de actieve laag
Als alle voorgaande stappen zijn uitgevoerd, active tier clean is voltooid, maar er is nog steeds onvoldoende ruimte beschikbaar op de actieve laag, dan heeft het systeem waarschijnlijk niet de juiste grootte voor de workload die het ontvangt. In dit geval moet een van de volgende handelingen worden uitgevoerd:
- Verlaag de workload van het systeem, bijvoorbeeld:
Leid een subset van back-ups om naar alternatieve storage
Verkort de retentieperiode van back-ups, zodat deze sneller verlopen/verwijderd worden
Verkort het aantal of de verloopperiode van geplande snapshots van mtrees op het systeem
Verbreek overbodige replicatiecontexten waarvoor het lokale systeem een bestemming is, en verwijder vervolgens de bijbehorende mtrees
Verkort de retentieperiode van back-ups, zodat deze sneller verlopen/verwijderd worden
Verkort het aantal of de verloopperiode van geplande snapshots van mtrees op het systeem
Verbreek overbodige replicatiecontexten waarvoor het lokale systeem een bestemming is, en verwijder vervolgens de bijbehorende mtrees
- Voeg extra storageruimte toe aan de actieve laag van het systeem en breid de grootte ervan uit:
# storage add [tier active] enclosure [enclosure number] | disk [device number]
# filesys expand
# filesys expand
Neem contact op met uw verkoopaccountteam om de toevoeging van storageruimte te bespreken.
Дополнительная информация
Data Domain support kan een aantal rapporten genereren met informatie zoals:
- Een lijst met alle bestanden in een bepaalde laag (d.w.z. actief/archief/cloud) gerangschikt op ouderdom
- Geschatte grootte en compressiesnelheid per mtree/hoofddirectorystructuur
- Een lijst met alle bestanden in een bepaalde mtree gerangschikt op ouderdom
- enzovoort
Om dit mogelijk te maken, moet de volgende informatie worden verzameld:
- Een verse supportbundel vanuit de DDR - zie het volgende artikel voor meer informatie: https://support.emc.com/kb/323283
- De uitvoer van 'sfs_dump' of 'sfs_dump -c':
Meld u aan bij de DDR CLI en zet deze in de SE-modus.(Houd er rekening mee dat systemen die zijn geconfigureerd met versleuteling en/of retentievergrendeling op dit punt om gebruikersreferenties met de rol ‘beveiliging’ kunnen vragen):
# system show serialno
[system serial number displayed]
# priv set se
[password prompt - enter system serial number from above]
[system serial number displayed]
# priv set se
[password prompt - enter system serial number from above]
Schakel logboekregistratie voor uw terminalsessie in. Als u bijvoorbeeld PuTTY wilt gebruiken, kunt u het volgende doen: Klik met de rechtermuisknop op de menubalk -> Change settings... -> Session -> Logging -> Selecteer 'All session output' en selecteer een bestandsnaam -> Apply
Voer sfs_dump uit:
# se sfs_dump
Haal na voltooiing een kopie van het sessielogboek op voor verdere analyse.
- Een bestandslocatierapport (vereist als het systeem is geconfigureerd voor ER of LTR):
Meld u aan bij de DDR CLI
Schakel logboekregistratie voor uw terminalsessie in. Als u bijvoorbeeld PuTTY wilt gebruiken, kunt u het volgende doen: Klik met de rechtermuisknop op de menubalk -> Change settings... --> Session -> Logging -> Selecteer 'All session output' en selecteer een bestandsnaam -> Apply
Verzamel een bestandslocatierapport
ER: # archive report generate file-location
LTR: # filesys report generate file-location
Haal na voltooiing een kopie van het sessielogboek op voor verdere analyse.
Schakel logboekregistratie voor uw terminalsessie in. Als u bijvoorbeeld PuTTY wilt gebruiken, kunt u het volgende doen: Klik met de rechtermuisknop op de menubalk -> Change settings... --> Session -> Logging -> Selecteer 'All session output' en selecteer een bestandsnaam -> Apply
Verzamel een bestandslocatierapport
ER: # archive report generate file-location
LTR: # filesys report generate file-location
Haal na voltooiing een kopie van het sessielogboek op voor verdere analyse.
Voor hulp bij het verzamelen van het bovenstaande of bij een van de stappen in deze archive clean, kunt u contact opnemen met uw gecontracteerde supportprovider.
Затронутые продукты
Data DomainПродукты
Data DomainСвойства статьи
Номер статьи: 000054303
Тип статьи: Solution
Последнее изменение: 21 Jul 2025
Версия: 6
Получите ответы на свои вопросы от других пользователей Dell
Услуги технической поддержки
Проверьте, распространяются ли на ваше устройство услуги технической поддержки.