Data Domain Virtual Edition: Forklaring af udnyttelse af datadiskplads på Data Domain Virtual Edition (DDVE)
Summary: Forklaring af udnyttelse af datadiskplads på Data Domain Virtual Edition (DDVE)
This article applies to
This article does not apply to
This article is not tied to any specific product.
Not all product versions are identified in this article.
Symptoms
Data Domain Virtual Edition (DDVE) er et nyt produkt, der muliggør implementering af en Data Domain Restorer (DDR) i et virtuelt miljø. Når installationen er fuldført, er det nødvendigt at klargøre datadiske til brug for DDFS-filsystemet i DDVE. Denne artikel forklarer, hvordan den fysiske plads på disse datadiske bruges, og hvorfor den brugbare plads i DDFS-filsystemet kan være betydeligt lavere end den samlede størrelse på alle datadiske
Resolution
Når du føjer datadiske til en forekomst af DDVE, skal visse kapacitetsregler overholdes:
- Den første datadisk, der tilføjes, skal være mindst 200 GB i størrelse
- Alle efterfølgende datadiske skal være mindst 100 GB i størrelse
Årsagen til, at den første disk skal være mindst 200 GB i størrelse, er, at der er betydelige omkostninger på denne disk som beskrevet nedenfor.
Lad os antage, at en 200 GB datadisk præsenteres for DDVE, føjes til det aktive niveau og bruges til at oprette en forekomst af DDFS-filsystemet. Den fysiske disk vil blive brugt som følger:
I første omgang er disken partitioneret med skive 5, der bruges til datalagring, og skive 6, der bruges til ext3-filsystemer:
Model: Ukendt (ukendt)
Disk /dev/dm-4: 200 GiB
Sektorstørrelse (logisk/fysisk): 512B/512B
Partitionstabel: GPT-nummer
Startslutstørrelse Filsystemets navneflag
1 0,00 GiB 0,00 GiB 0,00 GiB primær
2 0,00 GiB 0,00 GiB 0,00 GiB primær
3 0,00 GiB 0,01 GiB 0,01 GiB primær
4 0,01 GiB 0,01 GiB 0,00 GiB primær
5 0,01 GiB 193 GiB 193 GiB primær <=== Bruges til datalagring
6 193 GiB 200 GiB 6,77 GiB primær <=== Bruges til ext3
Som følge heraf gives ~193 GB diskplads (slice 5) til RAID-driveren til brug.
Bemærk dog, at DDVE bruger begrebet RAID on LUN (ROL) til at beskytte mod visse typer databeskadigelse (f.eks. databeskadigelse, som ikke kan registreres/repareres af det underliggende storagesystem). ROL reserverer ca. 5,6 % af pladsen i skive 5 til paritetsoplysninger. Som følge heraf vil RAID kun gøre ~182,3 GB tilgængelig til brug for DDFS (som vist nedenfor - bemærk, at hver sektor er 512 byte stor):
Array [ppart2] (aktiv): [RAID-type 106] [(0x1, 0x30) muligheder] [NVR:N/N] [4608KB-stribe] [382362624 sektorer] [382362624 samlede sektorer]
[DM-4P5]
Den ~ 182.3Gb plads, der gives til DDFS, er skåret op i blokke på 1075838976 bytes i størrelse - som et resultat kan vi oprette 181 sådanne blokke. Blokkene allokeres derefter til forskellige filsystemer på øverste niveau inden for DDFS efter behov. Bemærk, at når du opretter en ny forekomst af DDFS, skal der tildeles en betydelig mængde plads til metadata såsom indeks / resumévektor / CP meta / reserverede blokke filsystemer:
FAST NUM BLOKSTØRRELSE
STØRRELSE BLOKKE STØRRELSE NAVN
Ja 194726854656 181 1075838976 /.. /vpart:/vol2/col1
Ja 194726854656 181 1075838976 /.. /vpart:/vol2/col1/cp1
Nr. 37654364160 21 1075838976 /.. /vpart:/vol2/col1/cp1/cset
nr. 65626177536 61 1075838976 /.. /vpart:/vol2/col1/cp1/full_indices
Nr. 22592618496 21 1075838976 /.. /vpart:/vol2/col1/cp1/partial_indices
Nr. 1075838976 1 1075838976 /.. /vpart:/vol2/col1/cp1/summary.0
Nr. 1075838976 1 1075838976 /.. /vpart:/vol2/col1/cp1/summary.1
Nr. 1075838976 1 1075838976 /.. /vpart:/vol2/col1/cp_meta
Nr. 10758389760 10 1075838976 /.. /vpart:/vol2/reserved_blocks
Bemærk, at alt andet end containersættet (CSET - hvor brugerdata er gemt) bruger 95 * 1075838976 byteblokke. Som følge heraf er der 86 blokke tilbage, som CSET potentielt kan bruge. Bemærk, at 86 * 1075838976 bytes = ~ 86.2Gb.
Inden for CSET bruger vi en meget lille mængde plads til metadata og estimerer derefter, at vi kan bruge alle de resterende 1075838976 byteblokke på systemet til at oprette 4.5Mb containere. Hvis vi tjekker CSET-metadata, ser vi:
cm_attrs.psize=4718592 <=== Hver beholder er 4,5 MB
...
cm_attrs.max_containere=17403 <=== Maksimalt muligt antal 'brugbare' containere
...
cm_attrs.reserved_containers=2176 <=== Reserverede containere til interne operationer
Det samlede antal containere, der kan oprettes i CSET, er 17403 + 2176 = 19579
Hver beholder fylder 4,5 MB, så 19579-containere svarer til 86,0 GB diskplads
Bemærk dog, at reserverede containere kun er til intern brug (ved handlinger som rengøring), så de tages ikke i betragtning, når filsystemets brugbare størrelse vises for brugerne. På grund af dette er den 'brugbare' størrelse af DDFS-filsystemet 17403 * 4.5Mb = ~ 76.5Gb
Af denne grund, hvis en bruger kører 'filesys show space' efter at have tilføjet en enkelt 200 GB disk og oprettet en forekomst af DDFS, vil de se, at DDFS-filsystemet kun er 76.5 GB i størrelse:
Aktivt niveau:
Ressourcestørrelse GiB brugt GiB Benyt GiB brug% Rengørbar GiB *
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 9.0 - - -
/data: post-comp 76.5 15.0 61.4 20% 1.1
/ddvar 49.2 1.3 45.4 3% -
/ddvar/core 158.5 0.7 149.7 0% -
---------------- -------- -------- --------- ---- --------------
Bemærk, at faste omkostninger på efterfølgende datadiske er betydeligt lavere:
- Efterfølgende diske indeholder ikke ext3-filsystemer
- DDFS-metadata findes allerede på den første disk, så der oprettes meget lidt på efterfølgende diske
Lad os f.eks. antage, at vi tilføjer en anden 100 GB disk og udvider DDFS. På denne disk vil skive 5 blive givet til RAID-driveren (som på den første disk), men skive 6, mens den stadig er oprettet, med kun være 4Kb i størrelse:
6 107 GB 107 GB 4096B primær
Som følge heraf gives praktisk talt hele den anden disk til RAID (via skive 5). RAID bruger 5,6 % af denne plads til ROL og præsenterer derefter resten for DDFS - i følgende eksempel gives ~94,3 GB af 100 Gb-disken til DDFS til brug:
Array [ppart3] (aktiv): [RAID-type 106] [(0x1, 0x30) muligheder] [NVR:N/N] [4608KB-stribe] [197858304 sektorer] [197858304 samlede sektorer]
[DM-2P5]
Dette rum er skåret op i 1075838976 byteblokke - som følge heraf opretter systemet yderligere 93 blokke, som DDFS kan bruge:
FAST NUM BLOKSTØRRELSE
BLOKKE STØRRELSE NAVN
Ja 294779879424 274 1075838976 /.. /vpart:/vol1/col1
Ja 294779879424 274 1075838976 /.. /vpart:/vol1/col1/cp1
Nr. 22592618496 21 1075838976 /.. /vpart:/vol1/col1/cp1/cset
Nr. 65626177536 61 1075838976 /.. /vpart:/vol1/col1/cp1/full_indices
Nr. 22592618496 21 1075838976 /.. /vpart:/vol1/col1/cp1/partial_indices
Nr. 1075838976 1 1075838976 /.. /vpart:/vol1/col1/cp1/summary.0
Nr. 1075838976 1 1075838976 /.. /vpart:/vol1/col1/cp1/summary.1
Nr. 2151677952 2 1075838976 /.. /vpart:/vol1/col1/cp_meta
Nr. 10758389760 10 1075838976 /.. /vpart:/vol1/reserved_blocks
Bemærk, at da alle metadatafilsystemer allerede blev oprettet på den første datadisk, bruges kun en enkelt blok til metadata på den anden disk (via det cp_meta filsystem). Resten af pladsen stilles til rådighed for CSET og anses for at kunne bruges til normale containere:
cm_attrs.max_containers=38379
...
cm_attrs.reserved_containers=2176
Bemærk, at 38379 * 4,5 Mb = ~168,7 Gb:
Ressourcestørrelse GiB brugt GiB Benyt GiB Brug% Rengørbar GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0,0 - - -
/data: post-comp 168,7 0,1 168,6 0% 0,0
/ddvar 49,2 0,5 46,2 1% -
/ddvar/core 158,5 0,3 150,1 0 % -
---------------- -------- -------- --------- ---- -------------
Dette viser, at omkostningerne er betydeligt mindre på alle undtagen den første datadisk:
Fra den første 200 GB disk fik DDFS 76,5 GB brugbar plads
Fra den anden 100 GB datadisk fik DDFS 92,2 GB brugbar plads
Denne tendens fortsætter for alle efterfølgende datadiske.
Endelig skal det bemærkes, at metadata inden for DDFS (såsom indeksfilsystemerne) ikke er faste i størrelse. Afhængigt af systemets arbejdsbyrde skal de muligvis vokse, hvilket vil tage brugbar plads væk fra CSET. Hvis dette sker, vil den brugbare størrelse af CSET falde. Dette forventes - den samlede størrelse af CSET (og størrelsen af DDFS-filsystemet i henhold til 'filesys show space') bør ikke betragtes som en statisk værdi, selvom størrelsen på underliggende datadiske ikke ændres.
- Den første datadisk, der tilføjes, skal være mindst 200 GB i størrelse
- Alle efterfølgende datadiske skal være mindst 100 GB i størrelse
Årsagen til, at den første disk skal være mindst 200 GB i størrelse, er, at der er betydelige omkostninger på denne disk som beskrevet nedenfor.
Lad os antage, at en 200 GB datadisk præsenteres for DDVE, føjes til det aktive niveau og bruges til at oprette en forekomst af DDFS-filsystemet. Den fysiske disk vil blive brugt som følger:
I første omgang er disken partitioneret med skive 5, der bruges til datalagring, og skive 6, der bruges til ext3-filsystemer:
Model: Ukendt (ukendt)
Disk /dev/dm-4: 200 GiB
Sektorstørrelse (logisk/fysisk): 512B/512B
Partitionstabel: GPT-nummer
Startslutstørrelse Filsystemets navneflag
1 0,00 GiB 0,00 GiB 0,00 GiB primær
2 0,00 GiB 0,00 GiB 0,00 GiB primær
3 0,00 GiB 0,01 GiB 0,01 GiB primær
4 0,01 GiB 0,01 GiB 0,00 GiB primær
5 0,01 GiB 193 GiB 193 GiB primær <=== Bruges til datalagring
6 193 GiB 200 GiB 6,77 GiB primær <=== Bruges til ext3
Som følge heraf gives ~193 GB diskplads (slice 5) til RAID-driveren til brug.
Bemærk dog, at DDVE bruger begrebet RAID on LUN (ROL) til at beskytte mod visse typer databeskadigelse (f.eks. databeskadigelse, som ikke kan registreres/repareres af det underliggende storagesystem). ROL reserverer ca. 5,6 % af pladsen i skive 5 til paritetsoplysninger. Som følge heraf vil RAID kun gøre ~182,3 GB tilgængelig til brug for DDFS (som vist nedenfor - bemærk, at hver sektor er 512 byte stor):
Array [ppart2] (aktiv): [RAID-type 106] [(0x1, 0x30) muligheder] [NVR:N/N] [4608KB-stribe] [382362624 sektorer] [382362624 samlede sektorer]
[DM-4P5]
Den ~ 182.3Gb plads, der gives til DDFS, er skåret op i blokke på 1075838976 bytes i størrelse - som et resultat kan vi oprette 181 sådanne blokke. Blokkene allokeres derefter til forskellige filsystemer på øverste niveau inden for DDFS efter behov. Bemærk, at når du opretter en ny forekomst af DDFS, skal der tildeles en betydelig mængde plads til metadata såsom indeks / resumévektor / CP meta / reserverede blokke filsystemer:
FAST NUM BLOKSTØRRELSE
STØRRELSE BLOKKE STØRRELSE NAVN
Ja 194726854656 181 1075838976 /.. /vpart:/vol2/col1
Ja 194726854656 181 1075838976 /.. /vpart:/vol2/col1/cp1
Nr. 37654364160 21 1075838976 /.. /vpart:/vol2/col1/cp1/cset
nr. 65626177536 61 1075838976 /.. /vpart:/vol2/col1/cp1/full_indices
Nr. 22592618496 21 1075838976 /.. /vpart:/vol2/col1/cp1/partial_indices
Nr. 1075838976 1 1075838976 /.. /vpart:/vol2/col1/cp1/summary.0
Nr. 1075838976 1 1075838976 /.. /vpart:/vol2/col1/cp1/summary.1
Nr. 1075838976 1 1075838976 /.. /vpart:/vol2/col1/cp_meta
Nr. 10758389760 10 1075838976 /.. /vpart:/vol2/reserved_blocks
Bemærk, at alt andet end containersættet (CSET - hvor brugerdata er gemt) bruger 95 * 1075838976 byteblokke. Som følge heraf er der 86 blokke tilbage, som CSET potentielt kan bruge. Bemærk, at 86 * 1075838976 bytes = ~ 86.2Gb.
Inden for CSET bruger vi en meget lille mængde plads til metadata og estimerer derefter, at vi kan bruge alle de resterende 1075838976 byteblokke på systemet til at oprette 4.5Mb containere. Hvis vi tjekker CSET-metadata, ser vi:
cm_attrs.psize=4718592 <=== Hver beholder er 4,5 MB
...
cm_attrs.max_containere=17403 <=== Maksimalt muligt antal 'brugbare' containere
...
cm_attrs.reserved_containers=2176 <=== Reserverede containere til interne operationer
Det samlede antal containere, der kan oprettes i CSET, er 17403 + 2176 = 19579
Hver beholder fylder 4,5 MB, så 19579-containere svarer til 86,0 GB diskplads
Bemærk dog, at reserverede containere kun er til intern brug (ved handlinger som rengøring), så de tages ikke i betragtning, når filsystemets brugbare størrelse vises for brugerne. På grund af dette er den 'brugbare' størrelse af DDFS-filsystemet 17403 * 4.5Mb = ~ 76.5Gb
Af denne grund, hvis en bruger kører 'filesys show space' efter at have tilføjet en enkelt 200 GB disk og oprettet en forekomst af DDFS, vil de se, at DDFS-filsystemet kun er 76.5 GB i størrelse:
Aktivt niveau:
Ressourcestørrelse GiB brugt GiB Benyt GiB brug% Rengørbar GiB *
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 9.0 - - -
/data: post-comp 76.5 15.0 61.4 20% 1.1
/ddvar 49.2 1.3 45.4 3% -
/ddvar/core 158.5 0.7 149.7 0% -
---------------- -------- -------- --------- ---- --------------
Bemærk, at faste omkostninger på efterfølgende datadiske er betydeligt lavere:
- Efterfølgende diske indeholder ikke ext3-filsystemer
- DDFS-metadata findes allerede på den første disk, så der oprettes meget lidt på efterfølgende diske
Lad os f.eks. antage, at vi tilføjer en anden 100 GB disk og udvider DDFS. På denne disk vil skive 5 blive givet til RAID-driveren (som på den første disk), men skive 6, mens den stadig er oprettet, med kun være 4Kb i størrelse:
6 107 GB 107 GB 4096B primær
Som følge heraf gives praktisk talt hele den anden disk til RAID (via skive 5). RAID bruger 5,6 % af denne plads til ROL og præsenterer derefter resten for DDFS - i følgende eksempel gives ~94,3 GB af 100 Gb-disken til DDFS til brug:
Array [ppart3] (aktiv): [RAID-type 106] [(0x1, 0x30) muligheder] [NVR:N/N] [4608KB-stribe] [197858304 sektorer] [197858304 samlede sektorer]
[DM-2P5]
Dette rum er skåret op i 1075838976 byteblokke - som følge heraf opretter systemet yderligere 93 blokke, som DDFS kan bruge:
FAST NUM BLOKSTØRRELSE
BLOKKE STØRRELSE NAVN
Ja 294779879424 274 1075838976 /.. /vpart:/vol1/col1
Ja 294779879424 274 1075838976 /.. /vpart:/vol1/col1/cp1
Nr. 22592618496 21 1075838976 /.. /vpart:/vol1/col1/cp1/cset
Nr. 65626177536 61 1075838976 /.. /vpart:/vol1/col1/cp1/full_indices
Nr. 22592618496 21 1075838976 /.. /vpart:/vol1/col1/cp1/partial_indices
Nr. 1075838976 1 1075838976 /.. /vpart:/vol1/col1/cp1/summary.0
Nr. 1075838976 1 1075838976 /.. /vpart:/vol1/col1/cp1/summary.1
Nr. 2151677952 2 1075838976 /.. /vpart:/vol1/col1/cp_meta
Nr. 10758389760 10 1075838976 /.. /vpart:/vol1/reserved_blocks
Bemærk, at da alle metadatafilsystemer allerede blev oprettet på den første datadisk, bruges kun en enkelt blok til metadata på den anden disk (via det cp_meta filsystem). Resten af pladsen stilles til rådighed for CSET og anses for at kunne bruges til normale containere:
cm_attrs.max_containers=38379
...
cm_attrs.reserved_containers=2176
Bemærk, at 38379 * 4,5 Mb = ~168,7 Gb:
Ressourcestørrelse GiB brugt GiB Benyt GiB Brug% Rengørbar GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0,0 - - -
/data: post-comp 168,7 0,1 168,6 0% 0,0
/ddvar 49,2 0,5 46,2 1% -
/ddvar/core 158,5 0,3 150,1 0 % -
---------------- -------- -------- --------- ---- -------------
Dette viser, at omkostningerne er betydeligt mindre på alle undtagen den første datadisk:
Fra den første 200 GB disk fik DDFS 76,5 GB brugbar plads
Fra den anden 100 GB datadisk fik DDFS 92,2 GB brugbar plads
Denne tendens fortsætter for alle efterfølgende datadiske.
Endelig skal det bemærkes, at metadata inden for DDFS (såsom indeksfilsystemerne) ikke er faste i størrelse. Afhængigt af systemets arbejdsbyrde skal de muligvis vokse, hvilket vil tage brugbar plads væk fra CSET. Hvis dette sker, vil den brugbare størrelse af CSET falde. Dette forventes - den samlede størrelse af CSET (og størrelsen af DDFS-filsystemet i henhold til 'filesys show space') bør ikke betragtes som en statisk værdi, selvom størrelsen på underliggende datadiske ikke ændres.
Additional Information
Bemærk, at oplysningerne i denne artikel er gyldige fra og med DDOS 5.7.30.0 og kan ændres i efterfølgende versioner.
Affected Products
Data Domain Virtual EditionProducts
Data Domain, Data Domain Virtual EditionArticle Properties
Article Number: 000059680
Article Type: Solution
Last Modified: 05 Sep 2025
Version: 3
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.