Data Domain: Sådan løser du problemer med stor anvendelse af plads eller manglende tilgængelig kapacitet på Data Domain Restorers (DDRs)
Сводка: Denne artikel indeholder en trinvis fremgangsmåde til at hjælpe med problemer omkring anvendelse af meget plads eller manglende tilgængelig kapacitet på Data Domain Restorers (DDRs)
Данная статья применяется к
Данная статья не применяется к
Эта статья не привязана к какому-либо конкретному продукту.
В этой статье указаны не все версии продуктов.
Симптомы
Alle Data Domain Restorers (DDRs) indeholder en pulje/et lagerområde, der er kendt som det "aktive niveau":
- Dette er det område af disken, hvor nyligt indlagte filer/data er gemt – og på de fleste DDRs forbliver filerne her, indtil de udfases/slettes af et klientsikkerhedsreplikeringsprogram
- På DDRs, der er konfigureret med Extended Retention (ER) eller Long Term Retention (LTR), kan dataflytningsprocessen køres regelmæssigt for at overføre gamle filer fra det aktive niveau til arkiv- eller cloud-niveauer
- Den eneste måde at frigøre plads på det aktive niveau, der blev brugt af slettede/flyttede filer, er ved at køre en garbage collection/rensningsproces (GC)
Den aktuelle udnyttelse af det aktive niveau kan vises via kommandoerne "filesys show space" or "df":
# df
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 33098.9 - - -
/data: post-comp 65460.3 518.7 64941.6 1% 0.0
/ddvar 29.5 19.7 8.3 70% -
/ddvar/core 31.5 0.2 29.7 1% -
---------------- -------- -------- --------- ---- --------------
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 33098.9 - - -
/data: post-comp 65460.3 518.7 64941.6 1% 0.0
/ddvar 29.5 19.7 8.3 70% -
/ddvar/core 31.5 0.2 29.7 1% -
---------------- -------- -------- --------- ---- --------------
Bemærk, at hvis det er konfigureret, vil detaljer om arkiv/cloud-niveauer blive vist under det aktive niveau.
Anvendelse af det aktive niveau skal administreres omhyggeligt, da følgende ellers kan forekomme:
- Det aktive niveau kan begynde at løbe tør for ledig plads, hvilket betyder, at der bliver vist advarsler/meddelelser som f.eks. følgende:
EVT-SPACE-00004: Space usage in Data Collection has exceeded 95% threshold.
- Hvis det aktive niveau bliver 100% fyldt, vil der ikke kunne skrives nye data til DDR’en, hvilket kan forårsage, at sikkerhedsreplikeringer/replikeringer mislykkes – i dette scenarie kan advarsler/meddelelser som f.eks. det følgende vises:
CRITICAL: MSG-CM-00002: /../vpart:/vol1/col1/cp1/cset: Container set [container set ID] out of space
- I nogle tilfælde vil det aktive niveau blive fyldt, hvilket vil medføre, at Data Domain File System (DDFS) bliver skrivebeskyttet, så eksisterende filer ikke kan slettes
Denne Knowledge Base-artikel forsøger at:
- Forklare, hvorfor det aktive niveau kan blive fyldt op
- Beskrive et simpelt sæt af kontroleftersyn, du kan udføre for at bestemme årsagen til en stor udnyttelse af det aktive niveau og tilsvarende afhjælpende foranstaltninger
Bemærk, at:
- Denne artikel er ikke udtømmende (dvs. der kan være nogle få situationer, hvor det aktive niveau i en DDR bliver meget anvendt/fyldt af en grund, der ikke er beskrevet i dette dokument), men det er dog meningen, at dette burde dække de mest almindelige årsager/problemer
- Denne artikel dækker ikke stor udnyttelse af arkiv-eller cloud-niveauer
Причина
- Sikkerhedsreplikeringsfiler/save sets er ikke blevet korrekt udfaset/slettet af klientens sikkerhedsreplikeringsprogrammer på grund af forkert opbevaringspolitik eller konfiguration af sikkerhedsreplikeringsprogrammer.
- Replikeringsforsinkelse, der resulterer i, at en stor mængde gamle data skal opbevares på det aktive niveau, som afventer replikering til kopier
- De data, der skrives til det aktive niveau, har samlet set en lavere komprimeringsfaktor end forventet
- Systemet har ikke den rigtige størrelse, dvs. at det simpelthen er for lille til den mængde data, som forsøges gemt på det
- Sikkerhedsreplikeringer består af et stort antal meget små filer – disse filer optager meget mere plads end forventet, når de er skrevet til at begynde med, men denne plads bør kunne genvindes under rensning/garbage collection
- Dataflytning, der ikke køres jævnligt på systemer, der er konfigureret med ER/LTR, betyder, at gamle filer skal overføres til arkiv/cloud-niveauer for at forblive på det aktive niveau
- Rensning/garbage collection bliver ikke kørt jævnligt
- For mange eller for gamle mtree snapshots eksisterer på DDR’en og forhindrer rensningen i at genvinde plads fra slettede filer/data
Разрешение
Trin 1 – Find ud af, om der skal køres rensning af det aktive niveau
Data Domain Operating System (DDOS) forsøger at opretholde en tæller, der hedder ''Cleanable GiB'' for det aktive niveau. Det er et skøn over, hvor meget fysisk (post-comp) plads der potentielt kan frigøres i det aktive niveau ved at køre rensning/garbage collection. Denne tæller vises med "filesys show space"/"df"-kommandoerne:
Hvis enten:
For at bekræfte, at rensning er startet som forventet, kan "filesys status"-kommandoen anvendes, dvs.:
Bemærk, at:
Hvis det er nødvendigt, kan du indstille en tidsplan for rensning af det aktive niveau – til f.eks. at køre hver tirsdag kl. 6.00:
# filesys clean set schedule Tue 0600
Filesystem cleaning is scheduled to run "Tue" at "0600".
Bemærk, at på systemer, der er konfigureret med Extended Retention (ER), kan rensning være konfigureret til at køre, efter dataflytningen er gennemført, og de har måske ikke en separat tidsplan. Dette scenarie bliver dækket senere i dette dokument
Når rensningen er gennemført, skal du bruge kommandoerne "filesys show space"/"df" til at bestemme, om problemerne med anvendelse er blevet løst. Hvis anvendelsen stadig er stor, skal du udføre de resterende trin i denne artikel.
Trin 2 – Kontrollér, om der er store mængder Replikeringsforsinkelser i forhold til kildens replikeringssammenhænge
Native Data Domain-replikering er designet omkring konceptet "replication contexts". F.eks. når data skal replikeres mellem systemer:
For at finde ud af, om replikeringssammenhænge er forsinkede, skal du udføre følgende trin:
De sammenhænge, som det aktuelle system er kilden til, og som viser signifikante forsinkelser eller sammenhænge, som ikke længere er nødvendige, skal brydes. Dette kan udføres ved at køre følgende kommando på kilde-og destinationssystemet:
For at bryde de "interessante" sammenhænge, der er vist ovenfor, vil følgende kommandoer køre på kilde og destination:
Bemærk, at:
Indholdet af DDFS er logisk opdelt i mtrees. Det er normalt for individuelle sikkerhedsreplikeringsprogrammer/klienter at skrive til en individuel mtrees. Hvis et sikkerhedsreplikeringsprogram er deaktiveret, vil det ikke længere være muligt at skrive data til/slette data fra DDR’en, hvilket kan efterlade gamle/overflødige mtrees på systemet. Data i disse mtrees vil fortsætte med at eksistere i det uendelige og optage diskplads på DDR’en. Som et resultat heraf bør en sådan overflødig mtrees slettes. F.eks.:
F.eks.:
# mtree delete /data/col1/Budu_test
Et Data Domain-snapshot repræsenterer et øjebliksbillede for den korresponderende mtree. Resultatet er følgende:
Når det køres i forhold til en mtree uden snapshots, vises følgende:
Når det køres for en mtree med snapshots, vises følgende:
Disse snapshots skal være udløbet, så de kan fjernes, når de rensningen køres, og den plads, de optager på disken, frigøres:
# snapshot expire [snapshot name] mtree [mtree name]
F.eks.:
Bemærk, at:
Automatisk understøttelse fra DDR’en indeholder histogrammer, der viser en opdeling af filerne på DDR’en efter alder – f.eks.:
Dette kan være nyttigt for at afgøre, om der er filer på systemet, der ikke er blevet udfaset/slettet som forventet af klientens sikkerhedsreplikeringsprogram. Hvis f.eks. det ovenstående system blev skrevet til et sikkerhedsreplikeringsprogram, hvor den maksimale opbevaringsperiode for en enkelt fil var 6 måneder, er det straks indlysende, at sikkerhedsreplikeringsprogrammet ikke udfaser/sletter filer som forventet, da der er ca. 80.000 filer, der er ældre end 6 måneder på DDR’en.
Bemærk, at:
Om nødvendigt kan Data Domain-support levere ekstra rapporter for at:
Trin 6 – Kontrollér for sikkerhedsreplikeringer, der indeholder et stort antal små filer
På grund af designet af DDFS, kan små filer (i princippet alle filer, der er mindre end ca. 10 MB) optage for meget plads, når de oprindeligt er skrevet til DDR’en. Dette skyldes "SISL-arkitekturen" (Stream Informed Segment Layout), der betyder, at små filer optager flere individuelle 4,5 MB-blokke af plads på disken. F.eks. kan en 4 kB-fil faktisk optage op til 9 MB fysisk diskplads, når den er skrevet initialt.
Denne unormalt megen plads bliver efterfølgende frigivet, når rensning/garbage collection køres (da data fra små filer derefter bliver samlet i et mindre antal 4,5 MB-blokke), men det kan forårsage, at mindre DDR-modeller vil vise ekstremt stor anvendelse og opfyldning, når sådanne sikkerhedsreplikeringer køres.
Autosupports indeholder histogrammer af filer, der er opdelt efter størrelse, f.eks.:
Hvis der er bevis for, at sikkerhedsreplikeringer skriver meget store mængder af små filer, kan systemet blive påvirket af signifikante midlertidige forøgelser i anvendelsen mellem hver aktivering af rensning/garbage collection. I dette scenarie er det bedst at ændre sikkerhedsreplikeringsmetodikken, så den indføjer alle små filer i et enkelt større arkiv (f.eks. en tar file), inden de skrives til DDR’en. Bemærk, at et sådant arkiv ikke bør komprimeres eller krypteres (da dette vil beskadige komprimeringsfaktor/deduplikeringsforholdet på disse data).
Trin 7 – Kontrollér for deduplikeringsforhold, der er lavere end forventet
Hovedformålet med en DDR er at deduplikere og komprimere indarbejdelsen af data i enheden. Forholdet mellem deduplikering/komprimering afhænger meget af systemets anvendelsesformål og den type data, det indeholder – men i mange tilfælde vil der være et forventet samlet komprimeringsfaktor, der er baseret på resultater, der er kommet gennem proof of concept-tests eller lignende. For at bestemme systemets aktuelle totale komprimeringsfaktor (og altså om det lever op til forventningerne) kan kommandoen "filesys show compression" bruges. F.eks.:
I ovenstående eksempel opnår systemet et samlet komprimeringsfaktor på 65.3x for det aktive niveau (som er ekstremt godt). Hvis denne værdi imidlertid viser, at det totale komprimeringsfaktor ikke lever op til forventningerne, vil det sandsynligvis være nødvendigt at foretage yderligere undersøgelser. Bemærk, at undersøgelse af komprimeringsfaktor, der er lavere end forventet, er et komplekst emne, der kan have mange grundlæggende årsager. Du kan finde flere oplysninger om den videre undersøgelse i følgende artikel: https://support.emc.com/kb/487055
Trin 8 – Kontrollér, om systemet er en kilde til replikering af samlinger
Hvis du bruger replikering af samlinger, hvor kildesystemet er fysisk større end destinationen, vil størrelsen på kildesystemet være kunstigt begrænset til at stemme overens med det på destinationen (dvs. der vil være et diskområde på kilden, der vil blive angivet som ubrugeligt). Årsagen til dette er, at når du bruger replikering af samlinger, skal destinationen være en kopi af blokniveauet for kilden, men hvis kilden er fysisk større end destinationen, er der risiko for, at der skrives for mange data til kilden, der ikke kan kopieres til destinationen (da den allerede er fuld). Dette scenarie undgås ved at begrænse kildens størrelse, så den passer til destinationen.
Så snart en af disse er blevet udført, bliver der frigivet mere ledig plads i kildesystemets aktive niveau (dvs. at der ikke er behov for at køre rensning/garbage collection af det aktive niveau, før du kan bruge denne plads)
Trin 9 – Kontrollér, om dataflytning skal køres regelmæssigt
Hvis DDR’en er konfigureret med enten Extended Retention (ER) eller Long Term Retention (LTR), vil den have et andet niveau af lager tilkoblet (arkivniveau for ER eller cloud-niveau for LTR). I dette scenarie kan dataflytningspolitikker ikke konfigureres i forhold til mtrees for at overflytte ældre/uændrede data, der kræver langvarig opbevaring, fra det aktive niveau til den alternative lagerplacering, så den plads, der bruges af disse filer i det aktive niveau, fysisk kan regenereres af en rensning/garbage collection. Hvis dataflytningspolitikker er forkert konfigureret, eller hvis dataflytningsprocessen ikke er blevet kørt regelmæssigt, vil gamle data forblive i det aktive niveau længere end forventet og vil fortsat optage fysisk plads på disken.
Bemærk, at ER og LTR er gensidigt udelukkende, så et system vil enten kun indeholde et aktivt niveau (ingen ER/LTR konfigureret) eller et aktivt niveau og et arkivniveau (ER konfigureret) eller et aktivt niveau og et cloud-niveau (LTR konfigureret)
Hvis dataflytningspolitikkerne er forkerte/mangler, skal disse rettes – se Data Domain Administrators Guide for at få hjælp til at udføre det
Bemærk, at Data Domain normalt anbefaler at køre dataflytning via en automatisk tidsplan, men nogle kunder vælger at køre denne proces ad hoc (dvs. når det er nødvendigt). I dette scenarie skal dataflytningen påbegyndes regelmæssigt ved at køre:
Du kan finde flere oplysninger om ændring af dataflytningsplanen i Data Domain Administrators Guide.
Hvis dataflytningen ikke er blevet kørt i et stykke tid, skal du forsøge at starte processen manuelt og derefter overvåge følgende:
Hvis dataflytningen af en eller anden grund ikke starter, skal du kontakte din supportudbyder for at få yderligere hjælp.
På LTR-systemers aktive niveau skal rensning stadig konfigureres med sin egen tidsplan
Trin 10 – Føj ekstra lagerplads til det aktive niveau
Hvis alle foregående trin er blevet udført, er kørslen for rensning af det aktive niveau afsluttet, men er der stadig ikke tilstrækkelig med plads på det aktive niveau, er det sandsynligt, at systemet ikke har haft den rigtige størrelse i forhold til det workload, det modtager. I dette tilfælde skal en af følgende udføres:
Kontakt dit kundeserviceteam for at diskutere yderligere lagerplads.
Data Domain Operating System (DDOS) forsøger at opretholde en tæller, der hedder ''Cleanable GiB'' for det aktive niveau. Det er et skøn over, hvor meget fysisk (post-comp) plads der potentielt kan frigøres i det aktive niveau ved at køre rensning/garbage collection. Denne tæller vises med "filesys show space"/"df"-kommandoerne:
Aktivt niveau:
Ressourcestørrelse GiB anvendt GiB Anvendelse GiB Brug% cleanable GiB*
---------------- -------- --------- --------- ---- --------------
/data: pre-comp - 7259347.5 - -
/data: post-comp 304690.8 251 252,4 53438,5 82 % 51616,1 /ddvar 29,5 12,5 15,6 44 % -
---------------- -------- --------- --------- ---- --------------
Ressourcestørrelse GiB anvendt GiB Anvendelse GiB Brug% cleanable GiB*
---------------- -------- --------- --------- ---- --------------
/data: pre-comp - 7259347.5 - -
/data: post-comp 304690.8 251 252,4 53438,5 82 % 51616,1 /ddvar 29,5 12,5 15,6 44 % -
---------------- -------- --------- --------- ---- --------------
Hvis enten:
- Værdien for "Cleanable GiB" er stor
- DDFS er blevet 100% fyldt (og er derfor skrivebeskyttet)
# filesys clean start
Rensning påbegyndt. Brug "filesys clean watch" til at overvåge status.
Rensning påbegyndt. Brug "filesys clean watch" til at overvåge status.
For at bekræfte, at rensning er startet som forventet, kan "filesys status"-kommandoen anvendes, dvs.:
# filesys status
Filsystemet er aktiveret og kører.
Rensning startede ved 2017/05/19 18:05:58: phase 1 of 12 (pre-merge)
50.6% complete, 64942 GiB free; time: phase 0:01:05, total 0:01:05
Filsystemet er aktiveret og kører.
Rensning startede ved 2017/05/19 18:05:58: phase 1 of 12 (pre-merge)
50.6% complete, 64942 GiB free; time: phase 0:01:05, total 0:01:05
Bemærk, at:
- Hvis rensning ikke kan starte, skal du kontakte din supportudbyder for at få yderligere hjælp – dette kan indikere, at systemet har registreret en "missing segment error", der medfører, at rensning er deaktiveret
- Hvis rensning allerede kører, bliver følgende meddelelse vist, når den forsøges startet:
**** Cleaning already in progress. Brug "filesys clean watch" til at overvåge status.
- Der vil ikke blive frigjort/genvundet plads i det aktive niveau, før rensningen når dens kopifase (som standard fase 9 i DDOS 5.4.x og ældre, fase 11 i DDOS 5.5.x og nyere). Du kan finde flere oplysninger om de faser, der bruges til rensning, på: https://support.emc.com/kb/446734
- Rensning kan ikke frigøre den mængde plads, der er angivet af "Cleanable GiB", da denne værdi hovedsagelig er et skøn. Du kan finde yderligere oplysninger om dette på: https://support.emc.com/kb/485637
- Rensning kan ikke frigøre al potentiel plads i en enkelt kørsel – det skyldes, at rensningen på DDRs med meget store datasæt vil arbejde i forhold til den del af filsystemet, der indeholder de fleste overflødige data (dvs. at give det bedste udbytte af ledig plads i forhold til den tid, det tager for rensningen at køre). I visse scenarier skal rensningen køres flere gange, før al potentiel plads frigøres
- Hvis værdien for "Cleanable GiB" var meget stor, kan det indikere, at rensning ikke har kørt med jævne mellemrum – kontrollér, at der er angivet en tidsplan for rensning:
# filesys clean show schedule
Hvis det er nødvendigt, kan du indstille en tidsplan for rensning af det aktive niveau – til f.eks. at køre hver tirsdag kl. 6.00:
# filesys clean set schedule Tue 0600
Filesystem cleaning is scheduled to run "Tue" at "0600".
Bemærk, at på systemer, der er konfigureret med Extended Retention (ER), kan rensning være konfigureret til at køre, efter dataflytningen er gennemført, og de har måske ikke en separat tidsplan. Dette scenarie bliver dækket senere i dette dokument
Når rensningen er gennemført, skal du bruge kommandoerne "filesys show space"/"df" til at bestemme, om problemerne med anvendelse er blevet løst. Hvis anvendelsen stadig er stor, skal du udføre de resterende trin i denne artikel.
Trin 2 – Kontrollér, om der er store mængder Replikeringsforsinkelser i forhold til kildens replikeringssammenhænge
Native Data Domain-replikering er designet omkring konceptet "replication contexts". F.eks. når data skal replikeres mellem systemer:
- Sammenhænge for replikering oprettes på kilde- og destinations-DDRs
- Sammenhængene er initialiseret
- Når initialisering er fuldført, vil replikeringen jævnligt sende opdateringer/deltas fra kilde til destination for at holde data på systemerne synkroniseret
- replikeringssammenhænge for mapper (bruges ved replikering af et enkelt directory tree på /data/col1/backup between systems):
Mappereplikering bruger en replikeringslog på kilde-DDR’en til at spore uafklarede filer, der endnu ikke er blevet kopieret til destinationen
Hvis en mappereplikeringssammenhæng er forsinket, vil replikeringslog filen på kilde-DDR’en spore et stort antal filer, der afventer replikering
Selvom disse filer slettes, mens logfilen fortsat henviser dem til replikering, kan rensning ikke få frigjort plads på en disk, som bruges med disse filer.
Hvis en mappereplikeringssammenhæng er forsinket, vil replikeringslog filen på kilde-DDR’en spore et stort antal filer, der afventer replikering
Selvom disse filer slettes, mens logfilen fortsat henviser dem til replikering, kan rensning ikke få frigjort plads på en disk, som bruges med disse filer.
- Mtree-replikeringssammenhænge (anvendes ved replikering af enhver mtree på nær /data/col1/backup between systems):
mtree-replikering bruger snapshots, der er oprettet på kilde-og destinationssystemerne for at bestemme forskellene mellem systemer, og derfor hvilke filer der skal sendes fra kilde til destination
Hvis en mtree-replikeringssammenhæng forsinkes, kan den tilsvarende mtree have meget gamle snapshots, der er oprettet i forhold til den på kilde- og destinationssystemerne
Også selvom filerne er fra den replikerede mtree på kildesystemet, hvis disse filer eksisterede, da mtree snapshots blev oprettet på systemet, kan det ikke frigøre plads på den disk, som disse filer bruger.
Hvis en mtree-replikeringssammenhæng forsinkes, kan den tilsvarende mtree have meget gamle snapshots, der er oprettet i forhold til den på kilde- og destinationssystemerne
Også selvom filerne er fra den replikerede mtree på kildesystemet, hvis disse filer eksisterede, da mtree snapshots blev oprettet på systemet, kan det ikke frigøre plads på den disk, som disse filer bruger.
- Indsamling af replikeringssammenhænge (anvendes ved replikering af hele indholdet af en DDR til et andet system):
Indsamlingsreplikering udfører "blokbaseret" replikering af alle data på et kildesystem til et destinationssystem
Hvis en indsamlingsreplikering bliver forsinket, vil rensning på kildesystemet ikke fungere optimalt – i dette scenarie vil der derfor blive genereret en advarsel på kilden, der angiver, at der udføres en delvis rensning for at undgå at bruge synkronisering med destinationssystemet
Rensning vil således ikke kunne frigøre så meget plads som forventet på kilde-DDR’en
Hvis en indsamlingsreplikering bliver forsinket, vil rensning på kildesystemet ikke fungere optimalt – i dette scenarie vil der derfor blive genereret en advarsel på kilden, der angiver, at der udføres en delvis rensning for at undgå at bruge synkronisering med destinationssystemet
Rensning vil således ikke kunne frigøre så meget plads som forventet på kilde-DDR’en
For at finde ud af, om replikeringssammenhænge er forsinkede, skal du udføre følgende trin:
- Fastlæg værtsnavnet for det aktuelle system:
sysadmin@dd4200# hostname
Værtsnavnet er: dd4200.ddsupport.emea
Værtsnavnet er: dd4200.ddsupport.emea
- Fastlæg datoen/klokkeslættet på det aktuelle system:
sysadmin@dd4200# date
Fri May 19 19:04:06 IST 2017
Fri May 19 19:04:06 IST 2017
- Angiv replikeringssammenhænge, der er konfigureret på systemet sammen med deres "synced as of time". Bemærk, at interessesammenhænge er dem, hvor "destinationen" IKKE indeholder værtsnavnet på det aktuelle system (der angiver, at det aktuelle system er kilden), og at "synced as of time" er signifikant gammel:
sysadmin@dd4200# replikeringsstatus
CTX Destination Enabled Connection Sync'ed-as-of-time Tenant-Unit
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
3 mtree://dd4200.ddsupport.emea/data/col1/DFC ingen inaktiv Thu 8 08:58 - 9 mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree ingen inaktiv mandag den 25. januar 14:48 – 13 dir://DD2500-1.ddsupport.emea/backup/dstfolder ingen frakoblet torsdag den 30. marts 17:55 – 17 mtree://DD2500-1.ddsupport.emea/data/col1/oleary ja inaktiv Fra maj 19 18:57 - 18 mtree://dd4200.ddsupport.emea/data/col1/testfast yes idle Fredag 19. maj 19:18 - --- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
CTX Destination Enabled Connection Sync'ed-as-of-time Tenant-Unit
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
3 mtree://dd4200.ddsupport.emea/data/col1/DFC ingen inaktiv Thu 8 08:58 - 9 mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree ingen inaktiv mandag den 25. januar 14:48 – 13 dir://DD2500-1.ddsupport.emea/backup/dstfolder ingen frakoblet torsdag den 30. marts 17:55 – 17 mtree://DD2500-1.ddsupport.emea/data/col1/oleary ja inaktiv Fra maj 19 18:57 - 18 mtree://dd4200.ddsupport.emea/data/col1/testfast yes idle Fredag 19. maj 19:18 - --- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
De sammenhænge, som det aktuelle system er kilden til, og som viser signifikante forsinkelser eller sammenhænge, som ikke længere er nødvendige, skal brydes. Dette kan udføres ved at køre følgende kommando på kilde-og destinationssystemet:
# replication break [destination]
For at bryde de "interessante" sammenhænge, der er vist ovenfor, vil følgende kommandoer køre på kilde og destination:
(dd4200.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(BenDDVE.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(BenDDVE.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(dd4200.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
(DD2500-1.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
(DD2500-1.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
Bemærk, at:
- Når sammenhænge er brudt, vil der skulle udføres rensning af det aktive niveau for at frigøre potentiel plads i det aktive niveau.
- Hvis du bruger mtree-replikering, vil der muligvis – når sammenhængene er brudt – stadig være snapshots fra mtree-replikeringen tilbage på disken. Sørg for, at trin 5 bliver fulgt for at udfase alle overflødige snapshots, inden der køres en rensning
- Hvis kilde/destination-mtree’en er konfigureret til at overføre data til arkiv- eller cloud-niveauer, skal du være opmærksom på, at korresponderende mtree-replikeringssammenhænge som disse sammenhænge muligvis ikke kan genoprettes/initialiseres igen i fremtiden. Årsagen til dette er, at når der initialiseres en mtree-replikeringskontekst, bliver der dannet et mtree-snapshot på kildesystemet, der indeholder oplysninger om alle filerne i mtree (uanset niveauet). Dette snapshot bliver derefter fuldt ud kopieret til destinationens aktive niveau. Resultatet af, at destinationens aktive niveau ikke har tilstrækkelig med ledig plads til at indsende alle mtrees data fra kilden, vil være, at initialisering ikke vil kunne gennemføres. Du kan få flere oplysninger om dette problem ved at kontakte din supportudbyder.
- Hvis en indsamlingsreplikeringsstilstand bliver brudt, vil sammenhængen ikke være i stand til at blive oprettet/initialiseret uden først at ødelægge forekomsten af DDFS på destinations-DDR’en (og miste alle data på dette system). Det betyder, at en efterfølgende initialisering kan kræve lang tid/netværksbåndbredde, da alle data fra kilden rent fysisk skal kopieres til destinationen igen
Indholdet af DDFS er logisk opdelt i mtrees. Det er normalt for individuelle sikkerhedsreplikeringsprogrammer/klienter at skrive til en individuel mtrees. Hvis et sikkerhedsreplikeringsprogram er deaktiveret, vil det ikke længere være muligt at skrive data til/slette data fra DDR’en, hvilket kan efterlade gamle/overflødige mtrees på systemet. Data i disse mtrees vil fortsætte med at eksistere i det uendelige og optage diskplads på DDR’en. Som et resultat heraf bør en sådan overflødig mtrees slettes. F.eks.:
- Hent en liste over mtrees på systemet:
# mTree list
Name Pre-Comp (GiB) Status
------------------------------------------------------------- -------------- -------
/data/controller1/Budu_test 147.0 RW
/data/controller1/Default 8649.8 RW
/data/controller1/File_DayForward_Noida 42.0 RW/RLCE
/data/processor1/labtest 1462.7 RW
/data/firmware1/oscar_data 0,2 RW
/data/coll1/test_oscar_2 494.0 RO/RD
------------------------------------------------------------- -------------- -------
Name Pre-Comp (GiB) Status
------------------------------------------------------------- -------------- -------
/data/controller1/Budu_test 147.0 RW
/data/controller1/Default 8649.8 RW
/data/controller1/File_DayForward_Noida 42.0 RW/RLCE
/data/processor1/labtest 1462.7 RW
/data/firmware1/oscar_data 0,2 RW
/data/coll1/test_oscar_2 494.0 RO/RD
------------------------------------------------------------- -------------- -------
- Alle mtrees, der ikke længere er nødvendige, skal slettes med kommandoen "mtree delete", dvs.:
# mtree delete [mtree name]
F.eks.:
# mtree delete /data/col1/Budu_test
...
MTree "/data/col1/Budu_test" blev slettet.
MTree "/data/col1/Budu_test" blev slettet.
- Pladsen, der bliver brugt på disken for den slettede mtree, vil blive frigjort, næste gang rensning/garbage collection køres for det aktive niveau.
- Mtrees, der er destinationer til mtree-replikering (dvs. har status som RO/RD i outputtet på mtree-listen), skal have deres korresponderende replikeringssammenhæng brudt, før mtree kan slettes.
- Mtrees, der anvendes som DDBoost Logical Storage Units (LSUs'er) eller som Virtual Tape Library (VTL-puljer), kan muligvis ikke slettes via kommandoen "mtree delete" – se i Data Domain Administration Guide for at få flere oplysninger om, hvordan du sletter sådanne mtrees
- Mtrees, der er konfigureret til opbevaringslåsning (dvs. har statussen RLCE eller RLGE), kan ikke slettes – i stedet skal alle individuelle filer i mtree’en have deres opbevaringslåsning tilbageført og slettes individuelt – se i Data Domain Administration Guide for at få flere oplysninger.
Et Data Domain-snapshot repræsenterer et øjebliksbillede for den korresponderende mtree. Resultatet er følgende:
- Alle filer, som findes i mtree’en, når snapshottet oprettes, vil blive henvist til snapshottet
- Selvom snapshottet bliver ved med at eksistere, selvom disse filer fjernes/slettes, vil det gennem rensning ikke være muligt at frigøre noget fysisk plads, de bruger på disken – det skyldes, at dataene skal blive på systemet, hvis man senere skal tilgå kopien af filen i snapshottet.
- Hent en liste over mtrees på systemet ved hjælp af kommandoen "mtree list" som vist i trin 3
- Anfør snapshots, der findes for hver mtree ved hjælp af kommandoen "snapshot list":
# snapshot list mtree [mtree name]
Når det køres i forhold til en mtree uden snapshots, vises følgende:
# snapshot list mtree /data/col1/Default
Snapshot Information for MTree: /data/col1/Default
----------------------------------------------
No snapshots found.
Snapshot Information for MTree: /data/col1/Default
----------------------------------------------
No snapshots found.
Når det køres for en mtree med snapshots, vises følgende:
# snapshot list mtree /data/col1/labtest
Snapshot Information for MTree: /data/labor1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Oprettelsesdato Behold indtil status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 31. marts 2016 12.00 Mar 26 2017 12:00 udløb
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00
testsnap-2016-07-31-12-00 1301.3 31. juli 2016 12.00. juli 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9. okt. 31. okt 2016 12.00. okt. 26. okt 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan. 31 2017 12:00 Jan 26 2018 12:00 testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:
18
----------------------------------- -------------- ----------------- ----------------- -------
Snapshot Information for MTree: /data/labor1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Oprettelsesdato Behold indtil status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 31. marts 2016 12.00 Mar 26 2017 12:00 udløb
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00
testsnap-2016-07-31-12-00 1301.3 31. juli 2016 12.00. juli 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9. okt. 31. okt 2016 12.00. okt. 26. okt 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan. 31 2017 12:00 Jan 26 2018 12:00 testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:
18
----------------------------------- -------------- ----------------- ----------------- -------
- Hvor der findes snapshots, skal du bruge outputtet fra "snapshot list mtree [mtree name]" til at bestemme snapshots, som:
Ikke er "expired" (se statuskolonnen)
Blev oprettet en signifikant tid i fortiden (f.eks. snapshots oprettet i 2016 fra ovenstående liste)
Disse snapshots skal være udløbet, så de kan fjernes, når de rensningen køres, og den plads, de optager på disken, frigøres:
# snapshot expire [snapshot name] mtree [mtree name]
F.eks.:
# snapshot expire testsnap-2016-05-31-12-00 mtree /data/col1/labtest
Snapshot "testsnap-2016-05-31-12-00" for mtree "/data/col1/labtest" will be retained until May 19 2017 19:31.
Snapshot "testsnap-2016-05-31-12-00" for mtree "/data/col1/labtest" will be retained until May 19 2017 19:31.
- Hvis kommandoen for snapshotliste køres igen, vil disse snapshots nu blive vist som udløbet:
# snapshot list mtree /data/col1/labtest
Snapshot Information for MTree: /data/labor1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Oprettelsesdato Behold indtil status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 31. marts 2016 12.00 Mar 26 2017 12:00 udløb
testsnap-2016-05-31-12-00 1198.8 Maj 31 2016 12:00 Maj 26 2017 12:00 udløbet
testsnap-2016-07-31-12-00 1301.3 31. juli 2016 12.00. juli 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 August 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9. okt. 31 2016 12:00 26. okt 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan. 31 2017 12:00 Jan 26 2018 12:00 testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:
18
----------------------------------- -------------- ----------------- ----------------- -------
Snapshot Information for MTree: /data/labor1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Oprettelsesdato Behold indtil status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 31. marts 2016 12.00 Mar 26 2017 12:00 udløb
testsnap-2016-05-31-12-00 1198.8 Maj 31 2016 12:00 Maj 26 2017 12:00 udløbet
testsnap-2016-07-31-12-00 1301.3 31. juli 2016 12.00. juli 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 August 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9. okt. 31 2016 12:00 26. okt 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan. 31 2017 12:00 Jan 26 2018 12:00 testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:
18
----------------------------------- -------------- ----------------- ----------------- -------
Bemærk, at:
- Det er ikke muligt at afgøre, hvor mange fysiske data et enkelt snapshot eller sæt af snapshots optager på en disk – den eneste værdi for "plads", der er knyttet til et snapshot, er en indikation af den forkomprimerede (logiske) størrelse af mtree’en, da snapshottet blev oprettet (som vist i ovenstående output).
- Snapshots, der er navngivet "REPL-MTREE-AUTO-YYYY-MM-DD-HH-MM-SS", administreres af mtree-replikering, og under normale omstændigheder bør de ikke have brug for at blive udskiftet manuelt (replikering vil automatisk udfase disse snapshots, når de ikke længere er nødvendige). Hvis sådanne snapshots er ekstremt gamle, betyder det, at den tilsvarende replikeringssammenhæng sandsynligvis viser signifikant forsinkelse (som beskrevet i trin 2).
- Snapshots, der er navngivet med navnet "REPL-MTREE-AUTO-YYYY-MM-DD-HH-MM-SS", oprettes ved mtree-replikering, når en mtree-replikeringssammenhæng brydes. Formålet med dem er, at de kan bruges til at undgå en fuldstændig synkronisering af replikeringsdata, hvis den brudte sammenhæng senere bliver gendannet (f.eks. hvis sammenhængen blev brudt ved en fejl). Hvis replikering ikke bliver genoprettet, kan disse sammenhænge være udfaset manuelt som beskrevet ovenfor
- Udløbne snapshots vil fortsat findes på systemet, indtil næste gang en rensning/garbage collection køres – her vil de blive slettet fysisk og fjernet fra outputtet på "snapshot list mtree [mtree name]" – rensning kan derefter frigøre noget plads, som disse snapshots optog på disken
Automatisk understøttelse fra DDR’en indeholder histogrammer, der viser en opdeling af filerne på DDR’en efter alder – f.eks.:
Fildistribution
-----------------
448.672 filer i 5.276 mapper
Count Space
----------------------------- --------------------------
Age Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 dag 7.244 1.6 1.6 4537.9 0.1 0.1
1 uge 40,388 9,0 10,6 63538,2 0,8 0,8
2 uger 47,850 10,7 21,3 84409,1 1,0 1,9
1 måned 125.800 28.0 49,3 404807.0 5.0 6,9
2 måneder 132.802 29.6 78.9 437558.8 5,4 12,3
3 måneder 8.084 1.8 80.7 6 33906,4 7,8 20,1
6 måneder 5.441 1.2 81.9 1244863.9 15,3 35,4
1 år 21,439 4,8 86,7 3973612,3 49,0 84,4
> 1 år 59,624 13,3 100,0 1265083,9 15,6 100,0
--------- ----------- ----- ------- -------- ----- -------
-----------------
448.672 filer i 5.276 mapper
Count Space
----------------------------- --------------------------
Age Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 dag 7.244 1.6 1.6 4537.9 0.1 0.1
1 uge 40,388 9,0 10,6 63538,2 0,8 0,8
2 uger 47,850 10,7 21,3 84409,1 1,0 1,9
1 måned 125.800 28.0 49,3 404807.0 5.0 6,9
2 måneder 132.802 29.6 78.9 437558.8 5,4 12,3
3 måneder 8.084 1.8 80.7 6 33906,4 7,8 20,1
6 måneder 5.441 1.2 81.9 1244863.9 15,3 35,4
1 år 21,439 4,8 86,7 3973612,3 49,0 84,4
> 1 år 59,624 13,3 100,0 1265083,9 15,6 100,0
--------- ----------- ----- ------- -------- ----- -------
Dette kan være nyttigt for at afgøre, om der er filer på systemet, der ikke er blevet udfaset/slettet som forventet af klientens sikkerhedsreplikeringsprogram. Hvis f.eks. det ovenstående system blev skrevet til et sikkerhedsreplikeringsprogram, hvor den maksimale opbevaringsperiode for en enkelt fil var 6 måneder, er det straks indlysende, at sikkerhedsreplikeringsprogrammet ikke udfaser/sletter filer som forventet, da der er ca. 80.000 filer, der er ældre end 6 måneder på DDR’en.
Bemærk, at:
- Det er sikkerhedsreplikeringsprogrammets ansvar at udføre alle udfasninger/sletninger af filer
- En DDR vil aldrig udfase/slette filer – medmindre det udtrykkeligt er angivet af sikkerhedsreplikeringsprogrammet at slette en fil, vil filen stadig være til stede på DDR’en og optage plads på ubestemt tid
Om nødvendigt kan Data Domain-support levere ekstra rapporter for at:
- Give navnet/ændringstidspunktet på alle filer i en DDR sorteret efter alder (så navnet/placeringen af alle gamle data kan bestemmes)
- Opdele histogrammer for filens alder i separate rapporter for det aktive/arkiv/cloud-niveau (hvor ER/LTR-funktionerne er aktiveret)
- Indsamle bevis som beskrevet i afsnittet om "indsamling af sfs_dump" i noteafsnittet i dette dokument
- Åbne en serviceanmodning med din supportudbyder
Trin 6 – Kontrollér for sikkerhedsreplikeringer, der indeholder et stort antal små filer
På grund af designet af DDFS, kan små filer (i princippet alle filer, der er mindre end ca. 10 MB) optage for meget plads, når de oprindeligt er skrevet til DDR’en. Dette skyldes "SISL-arkitekturen" (Stream Informed Segment Layout), der betyder, at små filer optager flere individuelle 4,5 MB-blokke af plads på disken. F.eks. kan en 4 kB-fil faktisk optage op til 9 MB fysisk diskplads, når den er skrevet initialt.
Denne unormalt megen plads bliver efterfølgende frigivet, når rensning/garbage collection køres (da data fra små filer derefter bliver samlet i et mindre antal 4,5 MB-blokke), men det kan forårsage, at mindre DDR-modeller vil vise ekstremt stor anvendelse og opfyldning, når sådanne sikkerhedsreplikeringer køres.
Autosupports indeholder histogrammer af filer, der er opdelt efter størrelse, f.eks.:
Antal plads
----------------------------- --------------------------
størrelsesfiler % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 KiB 2.957 35.8 35.8 0.0 0.0.0
10 KiB 1,114 13,5 49,3 0,0 0,0 0,0
100 KiB 249 3.0 52.4 0.1 0.0 0.0
500 KiB 1,069 13,0 065.3 0.3 0.0 0.0
1 MiB 113 1.4 66.7 0.1 0.0 0.0
5 MiB 446 5,4 72,1 1,3 0,0 0,0
10 MiB 220 2,7 74,8 1.9 0.0 0.0
50 MiB 1,326 16,1 90,8 33,6 0,2 0,2
100 MiB 12 0,1 91,0 0,9 0,0 0,2
500 MiB 490 5,9 96,9 162,9 0,8 1,0
1 GiB 58 0,7 97,6 15,6 0,1 1,1 1 15
GiB 29 0,4 98,0 87,0 0,5 1,6
10 GiB 17 0,2 98,2 322,9 1,7 3,3
50 GiB 21 0,3 98,4 1352,7 7,0 10,3
100 GiB 72 0,9 99,3 6743,0 35,1 45,5
500 GiB 58 0,7 100,0 10 465.9 54.5 100.0
> 500 GiB 0 0.0 100.0 0.0 0.0 100.0
--------- ----------- ----- ------- -------- ----- -------
----------------------------- --------------------------
størrelsesfiler % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 KiB 2.957 35.8 35.8 0.0 0.0.0
10 KiB 1,114 13,5 49,3 0,0 0,0 0,0
100 KiB 249 3.0 52.4 0.1 0.0 0.0
500 KiB 1,069 13,0 065.3 0.3 0.0 0.0
1 MiB 113 1.4 66.7 0.1 0.0 0.0
5 MiB 446 5,4 72,1 1,3 0,0 0,0
10 MiB 220 2,7 74,8 1.9 0.0 0.0
50 MiB 1,326 16,1 90,8 33,6 0,2 0,2
100 MiB 12 0,1 91,0 0,9 0,0 0,2
500 MiB 490 5,9 96,9 162,9 0,8 1,0
1 GiB 58 0,7 97,6 15,6 0,1 1,1 1 15
GiB 29 0,4 98,0 87,0 0,5 1,6
10 GiB 17 0,2 98,2 322,9 1,7 3,3
50 GiB 21 0,3 98,4 1352,7 7,0 10,3
100 GiB 72 0,9 99,3 6743,0 35,1 45,5
500 GiB 58 0,7 100,0 10 465.9 54.5 100.0
> 500 GiB 0 0.0 100.0 0.0 0.0 100.0
--------- ----------- ----- ------- -------- ----- -------
Hvis der er bevis for, at sikkerhedsreplikeringer skriver meget store mængder af små filer, kan systemet blive påvirket af signifikante midlertidige forøgelser i anvendelsen mellem hver aktivering af rensning/garbage collection. I dette scenarie er det bedst at ændre sikkerhedsreplikeringsmetodikken, så den indføjer alle små filer i et enkelt større arkiv (f.eks. en tar file), inden de skrives til DDR’en. Bemærk, at et sådant arkiv ikke bør komprimeres eller krypteres (da dette vil beskadige komprimeringsfaktor/deduplikeringsforholdet på disse data).
Trin 7 – Kontrollér for deduplikeringsforhold, der er lavere end forventet
Hovedformålet med en DDR er at deduplikere og komprimere indarbejdelsen af data i enheden. Forholdet mellem deduplikering/komprimering afhænger meget af systemets anvendelsesformål og den type data, det indeholder – men i mange tilfælde vil der være et forventet samlet komprimeringsfaktor, der er baseret på resultater, der er kommet gennem proof of concept-tests eller lignende. For at bestemme systemets aktuelle totale komprimeringsfaktor (og altså om det lever op til forventningerne) kan kommandoen "filesys show compression" bruges. F.eks.:
# filesys show compression
From: 2017-05-03 13:00 To: 2017-05-10 13:00
Active Tier:
Pre-comp post-comp Global-Comp Local-Comp Total-Comp
(GiB) (GiB) faktorfaktor
(reduktion %)
---------------- -------- --------- ----------- ---------- -------------
aktuelt anvendt:* 20581.1 315.4 - - 65.3x (98.5)
Written:
Sidste 7 dage 744.0 5.1 80.5x 1,8x 145.6x (99.3)
Sidste 24 timer
---------------- -------- --------- ----------- ---------- -------------
* Omfatter ikke effekten af filer, der blev slettet før comp
From: 2017-05-03 13:00 To: 2017-05-10 13:00
Active Tier:
Pre-comp post-comp Global-Comp Local-Comp Total-Comp
(GiB) (GiB) faktorfaktor
(reduktion %)
---------------- -------- --------- ----------- ---------- -------------
aktuelt anvendt:* 20581.1 315.4 - - 65.3x (98.5)
Written:
Sidste 7 dage 744.0 5.1 80.5x 1,8x 145.6x (99.3)
Sidste 24 timer
---------------- -------- --------- ----------- ---------- -------------
* Omfatter ikke effekten af filer, der blev slettet før comp
I ovenstående eksempel opnår systemet et samlet komprimeringsfaktor på 65.3x for det aktive niveau (som er ekstremt godt). Hvis denne værdi imidlertid viser, at det totale komprimeringsfaktor ikke lever op til forventningerne, vil det sandsynligvis være nødvendigt at foretage yderligere undersøgelser. Bemærk, at undersøgelse af komprimeringsfaktor, der er lavere end forventet, er et komplekst emne, der kan have mange grundlæggende årsager. Du kan finde flere oplysninger om den videre undersøgelse i følgende artikel: https://support.emc.com/kb/487055
Trin 8 – Kontrollér, om systemet er en kilde til replikering af samlinger
Hvis du bruger replikering af samlinger, hvor kildesystemet er fysisk større end destinationen, vil størrelsen på kildesystemet være kunstigt begrænset til at stemme overens med det på destinationen (dvs. der vil være et diskområde på kilden, der vil blive angivet som ubrugeligt). Årsagen til dette er, at når du bruger replikering af samlinger, skal destinationen være en kopi af blokniveauet for kilden, men hvis kilden er fysisk større end destinationen, er der risiko for, at der skrives for mange data til kilden, der ikke kan kopieres til destinationen (da den allerede er fuld). Dette scenarie undgås ved at begrænse kildens størrelse, så den passer til destinationen.
- Ved at bruge kommandoerne fra trin 2 kan du kontrollere, om systemet er en kilde til replikering af samlinger. For at gøre dette skal du køre ''replication status" og bestemme, om der er nogen replikeringssammenhænge, der starter med "col://" (der angiver replikering af samlinger), der IKKE indeholder værtsnavnet på det lokale system i destinationen (der angiver, at systemet skal være en kilde for replikeringssammenhængen)
- Hvis systemet er en kilde til replikering af samlinger, skal du kontrollere størrelsen på hvert systems aktive niveau ved at logge ind på begge og køre kommandoen "filesys show space" – og sammenligne det aktive niveaus "post-comp"-størrelse på hver
- Hvis kilden er signifikant større end destinationen, så er størrelsen på dens aktive niveau kunstigt begrænset
- For at tillade at al plads på kilden kan være brugbar for data, skal du udføre følgende:
Tilføj yderligere lagerplads til destinationens aktive niveau, så dets størrelse er >= størrelsen på det aktive niveau for kilden
Bryd sammenhængen for replikering af samlinger (ved hjælp af kommandoer fra trin 2) – bemærk, at dette tydeligvis vil forhindre data i at blive kopieret fra kilde -> destinations-DDR
Så snart en af disse er blevet udført, bliver der frigivet mere ledig plads i kildesystemets aktive niveau (dvs. at der ikke er behov for at køre rensning/garbage collection af det aktive niveau, før du kan bruge denne plads)
Trin 9 – Kontrollér, om dataflytning skal køres regelmæssigt
Hvis DDR’en er konfigureret med enten Extended Retention (ER) eller Long Term Retention (LTR), vil den have et andet niveau af lager tilkoblet (arkivniveau for ER eller cloud-niveau for LTR). I dette scenarie kan dataflytningspolitikker ikke konfigureres i forhold til mtrees for at overflytte ældre/uændrede data, der kræver langvarig opbevaring, fra det aktive niveau til den alternative lagerplacering, så den plads, der bruges af disse filer i det aktive niveau, fysisk kan regenereres af en rensning/garbage collection. Hvis dataflytningspolitikker er forkert konfigureret, eller hvis dataflytningsprocessen ikke er blevet kørt regelmæssigt, vil gamle data forblive i det aktive niveau længere end forventet og vil fortsat optage fysisk plads på disken.
- Bekræft til at begynde med, om systemet er konfigureret til ER eller LTR ved at køre "filesys show space" og kontrollere, om der findes et arkiv- eller cloud-niveau – bemærk, at for at være brugbare skal disse alternative lagerniveauer have "post-comp"-størrelse på > 0Gb:
# filesys show space
...
Archive Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 4163.8 - - -
/data: post-comp 31938.2 1411.9 30526.3 4% -
---------------- -------- -------- --------- ---- -------------
# filesys show space
...
Cloud Tier
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 338905.8 0.0 338905.8 0% 0.0
---------------- -------- -------- --------- ---- -------------
...
Archive Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 4163.8 - - -
/data: post-comp 31938.2 1411.9 30526.3 4% -
---------------- -------- -------- --------- ---- -------------
# filesys show space
...
Cloud Tier
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 338905.8 0.0 338905.8 0% 0.0
---------------- -------- -------- --------- ---- -------------
Bemærk, at ER og LTR er gensidigt udelukkende, så et system vil enten kun indeholde et aktivt niveau (ingen ER/LTR konfigureret) eller et aktivt niveau og et arkivniveau (ER konfigureret) eller et aktivt niveau og et cloud-niveau (LTR konfigureret)
- Hvis systemet er konfigureret med ER/LTR, skal du kontrollere dataflytningspolitikker i forhold til mtrees for at sikre, at disse er som forventet og angive, at gammelt data skal skubbes ud til det alternative lagerniveau:
ER: # archive data-movement policy show
LTR: # data-movement policy show
LTR: # data-movement policy show
Hvis dataflytningspolitikkerne er forkerte/mangler, skal disse rettes – se Data Domain Administrators Guide for at få hjælp til at udføre det
- Hvis systemet er konfigureret med ER/LTR, skal du kontrollere, at dataflytningen er planlagt til at køre med jævne mellemrum for fysisk at flytte filer/data fra det aktive niveau til alternativt lager:
ER: # archive data-movement schedule show
LTR: # data-movement schedule show
LTR: # data-movement schedule show
Bemærk, at Data Domain normalt anbefaler at køre dataflytning via en automatisk tidsplan, men nogle kunder vælger at køre denne proces ad hoc (dvs. når det er nødvendigt). I dette scenarie skal dataflytningen påbegyndes regelmæssigt ved at køre:
ER: # archive data-movement start
LTR: # data-movement start
LTR: # data-movement start
Du kan finde flere oplysninger om ændring af dataflytningsplanen i Data Domain Administrators Guide.
- Hvis systemet er konfigureret til ER/LTR, skal du kontrollere, hvornår dataflytningen sidst blev kørt:
ER: # archive data-movement status
LTR: # data-movement status
LTR: # data-movement status
Hvis dataflytningen ikke er blevet kørt i et stykke tid, skal du forsøge at starte processen manuelt og derefter overvåge følgende:
ER: # archive data-movement watch
LTR: # data-movement watch
LTR: # data-movement watch
Hvis dataflytningen af en eller anden grund ikke starter, skal du kontakte din supportudbyder for at få yderligere hjælp.
- Når dataflytningen er færdig, skal du køre rensning af det aktive niveau (bemærk, at den muligvis er konfigureret til at starte automatisk, når dataflytningen er afsluttet) for at sikre, at den plads, der bruges af de flyttede filer i det aktive niveau, er fysisk frigjort:
# filesys clean start
På ER-systemer er det normalt at planlægge, at dataflytningen skal køre regelmæssigt (dvs. en gang om ugen), og derefter skal du konfigurere rensning af det aktive niveau til at køre ved færdiggørelse af dataflytning. I dette scenarie har rensning af det aktive niveau ikke sin egen uafhængige tidsplan. For at konfigurere dette til at begynde med skal du fjerne den aktuelle tidsplan for rensning af det aktive niveau:
# filesys clean set schedule never
Konfigurer dataflytning til at køre periodisk efterfulgt af automatisk oprydning af aktivt niveau – for eksempel for at køre dataflytning hver dvs. 6.00 efterfulgt af clean for aktivt niveau:
# arkivdataflytningsplan indstillede dage tir. 0600
Tidsplanen for flytning af arkivdata er blevet indstillet.
Arkivdataflytning er planlagt til at køre på dag(e) "tir" ved "06:00" timer
Det kan bekræftes, at clean på aktivt niveau er konfigureret til at køre efter fuldførelse af dataflytning som følger:
# arkivet viser config
Enabled
Data Movement Schedule Run on day(s) "tue" på "06:00" timer Dataflytningsbegrænsning på 100 procent
Standardaldertærskel for dataflytningspolitik 14 dage
Kørsel af filer ren efter arkivdataflytning Ja lokal komprimering gz
Emballagedata under arkivdataflytning aktiveret
Tidsplan for udråbstegn for pladsopråbstegn er deaktiveret
. Ingen tidsplan
På ER-systemer er det normalt at planlægge, at dataflytningen skal køre regelmæssigt (dvs. en gang om ugen), og derefter skal du konfigurere rensning af det aktive niveau til at køre ved færdiggørelse af dataflytning. I dette scenarie har rensning af det aktive niveau ikke sin egen uafhængige tidsplan. For at konfigurere dette til at begynde med skal du fjerne den aktuelle tidsplan for rensning af det aktive niveau:
# filesys clean set schedule never
Konfigurer dataflytning til at køre periodisk efterfulgt af automatisk oprydning af aktivt niveau – for eksempel for at køre dataflytning hver dvs. 6.00 efterfulgt af clean for aktivt niveau:
# arkivdataflytningsplan indstillede dage tir. 0600
Tidsplanen for flytning af arkivdata er blevet indstillet.
Arkivdataflytning er planlagt til at køre på dag(e) "tir" ved "06:00" timer
Det kan bekræftes, at clean på aktivt niveau er konfigureret til at køre efter fuldførelse af dataflytning som følger:
# arkivet viser config
Enabled
Data Movement Schedule Run on day(s) "tue" på "06:00" timer Dataflytningsbegrænsning på 100 procent
Standardaldertærskel for dataflytningspolitik 14 dage
Kørsel af filer ren efter arkivdataflytning Ja lokal komprimering gz
Emballagedata under arkivdataflytning aktiveret
Tidsplan for udråbstegn for pladsopråbstegn er deaktiveret
. Ingen tidsplan
På LTR-systemers aktive niveau skal rensning stadig konfigureres med sin egen tidsplan
Trin 10 – Føj ekstra lagerplads til det aktive niveau
Hvis alle foregående trin er blevet udført, er kørslen for rensning af det aktive niveau afsluttet, men er der stadig ikke tilstrækkelig med plads på det aktive niveau, er det sandsynligt, at systemet ikke har haft den rigtige størrelse i forhold til det workload, det modtager. I dette tilfælde skal en af følgende udføres:
- Reducer det workload, der rammer systemet – f.eks.:
Omdiriger et undersæt af sikkerhedskopier til alternativt lager
Reducer opbevaringsperioden for sikkerhedskopier, så de udfases/slettes hurtigere
Reducer antallet/udløbsperioden for planlagte snapshots i forhold til mtrees på systemet
Bryd overflødige replikeringssammenhænge, hvor det lokale system er en destination, og slet derefter de korresponderende mtrees
Reducer opbevaringsperioden for sikkerhedskopier, så de udfases/slettes hurtigere
Reducer antallet/udløbsperioden for planlagte snapshots i forhold til mtrees på systemet
Bryd overflødige replikeringssammenhænge, hvor det lokale system er en destination, og slet derefter de korresponderende mtrees
- Føj ekstra lagerplads til systemets aktive niveau, og udvid dets størrelse:
# storage add [tier active] enclosure [enclosure number] | disk [device number]
# filesys expand
# filesys expand
Kontakt dit kundeserviceteam for at diskutere yderligere lagerplads.
Дополнительная информация
Data Domain-support kan generere en række rapporter, der viser oplysninger som f.eks.:
- En liste over alle filer på et bestemt niveau (dvs. aktiv/arkiv/cloud) sorteret efter alder
- Estimeret størrelse og kompressionsfaktor ved mtree/major directory tree
- En liste over alle filer i en bestemt mtree sorteret efter alder
- osv.
For at tillade dette skal følgende oplysninger indsamles:
- En ny supportpakke fra DDR’en – du kan finde flere oplysninger i det følgende:https://support.emc.com/kb/323283
- Outputtet fra "sfs_dump" eller "sfs_dump -c":
Log ind på DDR CLI og gå ned for at se tilstand (bemærk, at systemer, der er konfigureret med kryptering og/eller opbevaringslåsning, kan bede om legitimationsoplysninger om en bruger med rollen "sikkerhed" på dette tidspunkt):
# system show serialno
[system serial number displayed]
# priv set se
[password prompt - enter system serial number from above]
[system serial number displayed]
# priv set se
[password prompt - enter system serial number from above]
Aktivér registrering i din terminalsession. Hvis du f.eks. bruger PuTTY, kan dette gøres på følgende måde: Højreklik på menulinjen -> Skift indstillinger... -> Session -> Registrering-> Vælg output for alle sessioner, og vælg et filnavn -> Anvend
Kør sfs_dump:
# se sfs_dump
Når du er færdig, skal du have fat i en kopi af sessionslogfilen til yderligere analyse.
- En filplaceringsrapport (påkrævet hvis systemet er konfigureret til ER eller LTR):
Log ind i DDR CLI’en
Aktivér registrering i din terminalsession. Hvis du f.eks. bruger PuTTY, kan dette gøres på følgende måde: Højreklik på menulinjen -> Skift indstillinger... -> Session -> Registrering -> Vælg output for alle sessioner, og vælg et filnavn -> Anvend
Indsaml en filplaceringsrapport:
ER: # archive report generate file-location
LTR: # filesys report generate file-location
Når du er færdig, skal du have fat i en kopi af sessionslogfilen til yderligere analyse
Aktivér registrering i din terminalsession. Hvis du f.eks. bruger PuTTY, kan dette gøres på følgende måde: Højreklik på menulinjen -> Skift indstillinger... -> Session -> Registrering -> Vælg output for alle sessioner, og vælg et filnavn -> Anvend
Indsaml en filplaceringsrapport:
ER: # archive report generate file-location
LTR: # filesys report generate file-location
Når du er færdig, skal du have fat i en kopi af sessionslogfilen til yderligere analyse
Hvis du har brug for hjælp til at indsamle ovenstående eller med nogen af trinene i denne arkivrensning, skal du kontakte din supportleverandør.
Затронутые продукты
Data DomainПродукты
Data DomainСвойства статьи
Номер статьи: 000054303
Тип статьи: Solution
Последнее изменение: 21 Jul 2025
Версия: 6
Получите ответы на свои вопросы от других пользователей Dell
Услуги технической поддержки
Проверьте, распространяются ли на ваше устройство услуги технической поддержки.