Data Domain Virtual Edition: Forklaring av bruk av plass på data på Data Domain Virtual Edition (DDVE)
Summary: Forklaring av bruk av plass på data på Data Domain Virtual Edition (DDVE)
This article applies to
This article does not apply to
This article is not tied to any specific product.
Not all product versions are identified in this article.
Symptoms
Data Domain Virtual Edition (DDVE) er et nytt produkt som tillater implementering av Data Domain Restorer (DDR) i et virtuelt miljø. Når implementeringen er fullført, er det nødvendig å klargjøre datadisker for bruk av DDFS-filsystemet i DDVE. Denne artikkelen forklarer hvordan den fysiske plassen på disse datadiskene brukes, og hvorfor den tilgjengelige plassen i DDFS-filsystemet kan være betydelig lavere enn den kombinerte størrelsen på alle datadisker
Resolution
Når du legger til datadisker i en forekomst av DDVE, må visse kapasitetsregler følges: – Den første datadisken som legges til, må være minst 200 GB stor
- Alle etterfølgende datadisker må være minst 100 GB i størrelse
Grunnen til at den første disken må være minst 200 GB i størrelse,
er at det er betydelige kostnader på denne disken som beskrevet nedenfor.
La oss anta at en datadisk på 200 GB presenteres for DDVE, legges til på det aktive nivået og brukes til å opprette en forekomst av DDFS-filsystemet. Den fysiske disken vil bli brukt som følger:
I utgangspunktet er disken partisjonert med stykke 5 som brukes til datalagring og stykke 6 som brukes til ext3 filsystemer:
modell: Ukjent (ukjent)
Disk /dev/dm-4: 200 GiB
Sektorstørrelse (logisk/fysisk): 512B/512B
Partisjonstabell: gpt-nummer
Start sluttstørrelse Filsystem Navn Flagg
1 0.00GiB 0.00GiB 0.00GiB primær
2 0.00GiB 0.00GiB 0.00GiB primær
3 0.00GiB 0.01GiB 0.01GiB primær
4 0.01GiB 0.01GiB 0.00GiB primær
5 0,01 GiB 193 GiB 193 GiB primær <=== Brukes til datalagring
6 193 GiB 200 GiB 6,77 GiB primær <=== Brukes for ext3
Som et resultat av dette vil ~193 GB diskplass (stykke 5) bli gitt til RAID-driveren for bruk.
Vær imidlertid oppmerksom på at DDVE bruker et konsept med RAID på LUN (ROL) for å beskytte mot visse typer dataødeleggelse (for eksempel ødelagte data som ikke kan oppdages/repareres av den underliggende lagringsmatrisen). ROL reserverer omtrent 5,6 % av plassen i skive 5 for paritetsinformasjon. Som et resultat vil RAID bare gjøre ~182,3 Gb tilgjengelig for bruk av DDFS (som vist nedenfor – merk at hver sektor er 512 byte):
Array [ppart2] (aktiv): [RAID-type 106] [(0x1, 0x30)-alternativer] [NVR:N/N] [4608 KB stripe] [382362624 sektorer] [382362624 sektorer totalt]
[DM-4P5]
Den ~ 182.3Gb plass gitt til DDFS er skåret opp i blokker på 1075838976 byte i størrelse - som et resultat kan vi lage 181 slike blokker. Blokkene blir deretter allokert til ulike filsystemer på øverste nivå i DDFS etter behov. Merk at når du oppretter en ny forekomst av DDFS, må en betydelig mengde plass tildeles for metadata, for eksempel indeksen / sammendragsvektoren / CP meta / reserverte blokker filsystemer:
FAST NUM BLOKKSTØRRELSE
STØRRELSE BLOKKER STØRRELSE NAVN
Ja 194726854656 181 1075838976 /.. /vpart:/vol2/col1
Ja 194726854656 181 1075838976 /.. /vpart:/vol2/col1/cp1
No 37654364160 21 1075838976 /.. /vpart:/vol2/col1/cp1/cset
No 65626177536 61 1075838976 /.. /vpart:/vol2/col1/cp1/full_indices
No 22592618496 21 1075838976 /.. /vpart:/vol2/col1/cp1/partial_indices
No 1075838976 1 1075838976 /.. /vpart:/vol2/col1/cp1/summary.0
No 1075838976 1 1075838976 /.. /vpart:/vol2/col1/cp1/summary.1
No 1075838976 1 1075838976 /.. /vpart:/vol2/col1/cp_meta
No 10758389760 10 1075838976 /.. /vpart:/vol2/reserved_blocks
Merk at alt annet enn beholdersettet (CSET - der brukerdata lagres) bruker 95 * 1075838976 byteblokker. Som et resultat er det 86 blokker igjen for potensiell bruk av CSET. Merk at 86 * 1075838976 byte = ~ 86,2 GB.
Innenfor CSET bruker vi en svært liten mengde plass for metadata og anslår deretter at vi kan bruke alle de gjenværende 1075838976 byteblokkene på systemet for å lage 4.5Mb containere. Hvis vi sjekker CSET-metadata, ser vi:
cm_attrs.psize=4718592 <=== Hver beholder er 4,5 MB
...
cm_attrs.max_containers=17403 <=== Maksimalt antall 'brukbare' beholdere
...
cm_attrs.reserverte_containere=2176 <=== Reserverte containere for interne operasjoner
Totalt antall beholdere som kan opprettes i CSET er 17403 + 2176 = 19579
Hver beholder er 4,5 MB stor, så 19579-containere tilsvarer 86,0 GB diskplass
Vær imidlertid oppmerksom på at reserverte beholdere kun er til intern bruk (ved operasjoner som rengjøring), så de tas ikke i betraktning når brukerne viser den brukbare størrelsen på filsystemet. På grunn av dette er den "brukbare" størrelsen på DDFS-filsystemet 17403 * 4.5Mb = ~ 76.5Gb
Av denne grunn, hvis en bruker kjører 'filesys show space' etter å ha lagt til en enkelt 200 GB disk og opprettet en forekomst av DDFS, vil de se at DDFS-filsystemet bare er 76.5Gb i størrelse:
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB *
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 9.0 - - -
/data: post-comp 76.5 15.0 61.4 20% 1.1
/ddvar 49.2 1.3 45.4 3% -
/ddvar/core 158.5 0.7 149.7 0% -
---------------- -------- -------- --------- ---- --------------
Merk at kostnadene på påfølgende datadisker er betydelig lavere:
- Påfølgende disker holder ikke ext3-filsystemer
- DDFS-metadata eksisterer allerede på den første disken, så svært lite opprettes på påfølgende disker La oss for eksempel anta at vi legger til en annen 100 GB disk og utvider
DDFS. På denne disken skive 5 vil bli gitt til RAID-driveren (som på den første disken), men skive 6, mens det fortsatt er opprettet, med bare være 4Kb i størrelse:
6 107 GB 107 GB 4096B primær
Som et resultat blir praktisk talt hele den andre disken gitt til RAID (via skive 5). RAID bruker 5,6 % av denne plassen for ROL, og presenterer deretter resten for DDFS – i følgende eksempel gis ~94,3 GB av 100 GB-disken til DDFS for bruk:
Array[ppart3] (aktiv): [RAID-type 106] [(0x1, 0x30)-alternativer] [NVR:N/N] [4608 KB stripe] [197858304 sektorer] [197858304 sektorer totalt]
[DM-2P5]
Denne plassen er skåret opp i 1075838976 byte blokker - som et resultat systemet oppretter en ekstra 93 blokker for DDFS å bruke:
FAST NUM BLOKKSTØRRELSE
STØRRELSE BLOKKER STØRRELSE NAVN
Ja 294779879424 274 1075838976 /.. /vpart:/vol1/col1
Ja 294779879424 274 1075838976 /.. /vpart:/vol1/col1/cp1
No 22592618496 21 1075838976 /.. /vpart:/vol1/col1/cp1/cset
No 65626177536 61 1075838976 /.. /vpart:/vol1/col1/cp1/full_indices
No 22592618496 21 1075838976 /.. /vpart:/vol1/col1/cp1/partial_indices
No 1075838976 1 1075838976 /.. /vpart:/vol1/col1/cp1/summary.0
No 1075838976 1 1075838976 /.. /vpart:/vol1/col1/cp1/summary.1
No 2151677952 2 1075838976 /.. /vpart:/vol1/col1/cp_meta
No 10758389760 10 1075838976 /.. /vpart:/vol1/reserved_blocks
Merk at siden alle metadatafilsystemer ble opprettet på den første datadisken, brukes bare en enkelt blokk for metadata på den andre disken (via cp_meta-filsystemet). Resten av plassen blir gjort tilgjengelig for CSET og anses som brukbar for normale beholdere:
cm_attrs.max_containere = 38379
...
cm_attrs.reserved_containers=2176
Merk at 38379 * 4.5Mb = ~ 168.7Gb:
Resource Size GiB Brukt GiB Benytt GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 168.7 0.1 168.6 0% 0.0
/ddvar 49.2 0.5 46.2 1% -
/ddvar/kjerne 158,5 0,3 150,1 0% -
---------------- -------- -------- --------- ---- -------------
Dette viser at administrasjonskostnadene er betydelig mindre på alle, bortsett fra den første datadisken:
Fra den første 200 GB-disken fikk DDFS 76,5 GB brukbar plass
Fra den andre 100 GB datadisken fikk DDFS 92,2 GB brukbar plass
Denne trenden fortsetter for alle påfølgende datadisker.
Til slutt bør det bemerkes at metadata i DDFS (for eksempel indeksfilsystemene) ikke er faste i størrelse. Avhengig av arbeidsmengden til systemet, kan det hende de trenger å vokse, noe som vil ta brukbar plass vekk fra CSET. Hvis dette skjer, vil den brukbare størrelsen på CSET reduseres. Dette er forventet - den totale størrelsen på CSET (og størrelsen på DDFS-filsystemet i henhold til "filesys show space") bør ikke betraktes som en statisk verdi selv om størrelsen på underliggende datadisker ikke endres.
- Alle etterfølgende datadisker må være minst 100 GB i størrelse
Grunnen til at den første disken må være minst 200 GB i størrelse,
er at det er betydelige kostnader på denne disken som beskrevet nedenfor.
La oss anta at en datadisk på 200 GB presenteres for DDVE, legges til på det aktive nivået og brukes til å opprette en forekomst av DDFS-filsystemet. Den fysiske disken vil bli brukt som følger:
I utgangspunktet er disken partisjonert med stykke 5 som brukes til datalagring og stykke 6 som brukes til ext3 filsystemer:
modell: Ukjent (ukjent)
Disk /dev/dm-4: 200 GiB
Sektorstørrelse (logisk/fysisk): 512B/512B
Partisjonstabell: gpt-nummer
Start sluttstørrelse Filsystem Navn Flagg
1 0.00GiB 0.00GiB 0.00GiB primær
2 0.00GiB 0.00GiB 0.00GiB primær
3 0.00GiB 0.01GiB 0.01GiB primær
4 0.01GiB 0.01GiB 0.00GiB primær
5 0,01 GiB 193 GiB 193 GiB primær <=== Brukes til datalagring
6 193 GiB 200 GiB 6,77 GiB primær <=== Brukes for ext3
Som et resultat av dette vil ~193 GB diskplass (stykke 5) bli gitt til RAID-driveren for bruk.
Vær imidlertid oppmerksom på at DDVE bruker et konsept med RAID på LUN (ROL) for å beskytte mot visse typer dataødeleggelse (for eksempel ødelagte data som ikke kan oppdages/repareres av den underliggende lagringsmatrisen). ROL reserverer omtrent 5,6 % av plassen i skive 5 for paritetsinformasjon. Som et resultat vil RAID bare gjøre ~182,3 Gb tilgjengelig for bruk av DDFS (som vist nedenfor – merk at hver sektor er 512 byte):
Array [ppart2] (aktiv): [RAID-type 106] [(0x1, 0x30)-alternativer] [NVR:N/N] [4608 KB stripe] [382362624 sektorer] [382362624 sektorer totalt]
[DM-4P5]
Den ~ 182.3Gb plass gitt til DDFS er skåret opp i blokker på 1075838976 byte i størrelse - som et resultat kan vi lage 181 slike blokker. Blokkene blir deretter allokert til ulike filsystemer på øverste nivå i DDFS etter behov. Merk at når du oppretter en ny forekomst av DDFS, må en betydelig mengde plass tildeles for metadata, for eksempel indeksen / sammendragsvektoren / CP meta / reserverte blokker filsystemer:
FAST NUM BLOKKSTØRRELSE
STØRRELSE BLOKKER STØRRELSE NAVN
Ja 194726854656 181 1075838976 /.. /vpart:/vol2/col1
Ja 194726854656 181 1075838976 /.. /vpart:/vol2/col1/cp1
No 37654364160 21 1075838976 /.. /vpart:/vol2/col1/cp1/cset
No 65626177536 61 1075838976 /.. /vpart:/vol2/col1/cp1/full_indices
No 22592618496 21 1075838976 /.. /vpart:/vol2/col1/cp1/partial_indices
No 1075838976 1 1075838976 /.. /vpart:/vol2/col1/cp1/summary.0
No 1075838976 1 1075838976 /.. /vpart:/vol2/col1/cp1/summary.1
No 1075838976 1 1075838976 /.. /vpart:/vol2/col1/cp_meta
No 10758389760 10 1075838976 /.. /vpart:/vol2/reserved_blocks
Merk at alt annet enn beholdersettet (CSET - der brukerdata lagres) bruker 95 * 1075838976 byteblokker. Som et resultat er det 86 blokker igjen for potensiell bruk av CSET. Merk at 86 * 1075838976 byte = ~ 86,2 GB.
Innenfor CSET bruker vi en svært liten mengde plass for metadata og anslår deretter at vi kan bruke alle de gjenværende 1075838976 byteblokkene på systemet for å lage 4.5Mb containere. Hvis vi sjekker CSET-metadata, ser vi:
cm_attrs.psize=4718592 <=== Hver beholder er 4,5 MB
...
cm_attrs.max_containers=17403 <=== Maksimalt antall 'brukbare' beholdere
...
cm_attrs.reserverte_containere=2176 <=== Reserverte containere for interne operasjoner
Totalt antall beholdere som kan opprettes i CSET er 17403 + 2176 = 19579
Hver beholder er 4,5 MB stor, så 19579-containere tilsvarer 86,0 GB diskplass
Vær imidlertid oppmerksom på at reserverte beholdere kun er til intern bruk (ved operasjoner som rengjøring), så de tas ikke i betraktning når brukerne viser den brukbare størrelsen på filsystemet. På grunn av dette er den "brukbare" størrelsen på DDFS-filsystemet 17403 * 4.5Mb = ~ 76.5Gb
Av denne grunn, hvis en bruker kjører 'filesys show space' etter å ha lagt til en enkelt 200 GB disk og opprettet en forekomst av DDFS, vil de se at DDFS-filsystemet bare er 76.5Gb i størrelse:
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB *
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 9.0 - - -
/data: post-comp 76.5 15.0 61.4 20% 1.1
/ddvar 49.2 1.3 45.4 3% -
/ddvar/core 158.5 0.7 149.7 0% -
---------------- -------- -------- --------- ---- --------------
Merk at kostnadene på påfølgende datadisker er betydelig lavere:
- Påfølgende disker holder ikke ext3-filsystemer
- DDFS-metadata eksisterer allerede på den første disken, så svært lite opprettes på påfølgende disker La oss for eksempel anta at vi legger til en annen 100 GB disk og utvider
DDFS. På denne disken skive 5 vil bli gitt til RAID-driveren (som på den første disken), men skive 6, mens det fortsatt er opprettet, med bare være 4Kb i størrelse:
6 107 GB 107 GB 4096B primær
Som et resultat blir praktisk talt hele den andre disken gitt til RAID (via skive 5). RAID bruker 5,6 % av denne plassen for ROL, og presenterer deretter resten for DDFS – i følgende eksempel gis ~94,3 GB av 100 GB-disken til DDFS for bruk:
Array[ppart3] (aktiv): [RAID-type 106] [(0x1, 0x30)-alternativer] [NVR:N/N] [4608 KB stripe] [197858304 sektorer] [197858304 sektorer totalt]
[DM-2P5]
Denne plassen er skåret opp i 1075838976 byte blokker - som et resultat systemet oppretter en ekstra 93 blokker for DDFS å bruke:
FAST NUM BLOKKSTØRRELSE
STØRRELSE BLOKKER STØRRELSE NAVN
Ja 294779879424 274 1075838976 /.. /vpart:/vol1/col1
Ja 294779879424 274 1075838976 /.. /vpart:/vol1/col1/cp1
No 22592618496 21 1075838976 /.. /vpart:/vol1/col1/cp1/cset
No 65626177536 61 1075838976 /.. /vpart:/vol1/col1/cp1/full_indices
No 22592618496 21 1075838976 /.. /vpart:/vol1/col1/cp1/partial_indices
No 1075838976 1 1075838976 /.. /vpart:/vol1/col1/cp1/summary.0
No 1075838976 1 1075838976 /.. /vpart:/vol1/col1/cp1/summary.1
No 2151677952 2 1075838976 /.. /vpart:/vol1/col1/cp_meta
No 10758389760 10 1075838976 /.. /vpart:/vol1/reserved_blocks
Merk at siden alle metadatafilsystemer ble opprettet på den første datadisken, brukes bare en enkelt blokk for metadata på den andre disken (via cp_meta-filsystemet). Resten av plassen blir gjort tilgjengelig for CSET og anses som brukbar for normale beholdere:
cm_attrs.max_containere = 38379
...
cm_attrs.reserved_containers=2176
Merk at 38379 * 4.5Mb = ~ 168.7Gb:
Resource Size GiB Brukt GiB Benytt GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 168.7 0.1 168.6 0% 0.0
/ddvar 49.2 0.5 46.2 1% -
/ddvar/kjerne 158,5 0,3 150,1 0% -
---------------- -------- -------- --------- ---- -------------
Dette viser at administrasjonskostnadene er betydelig mindre på alle, bortsett fra den første datadisken:
Fra den første 200 GB-disken fikk DDFS 76,5 GB brukbar plass
Fra den andre 100 GB datadisken fikk DDFS 92,2 GB brukbar plass
Denne trenden fortsetter for alle påfølgende datadisker.
Til slutt bør det bemerkes at metadata i DDFS (for eksempel indeksfilsystemene) ikke er faste i størrelse. Avhengig av arbeidsmengden til systemet, kan det hende de trenger å vokse, noe som vil ta brukbar plass vekk fra CSET. Hvis dette skjer, vil den brukbare størrelsen på CSET reduseres. Dette er forventet - den totale størrelsen på CSET (og størrelsen på DDFS-filsystemet i henhold til "filesys show space") bør ikke betraktes som en statisk verdi selv om størrelsen på underliggende datadisker ikke endres.
Additional Information
Vær oppmerksom på at informasjonen i denne artikkelen er gyldig fra og med DDOS 5.7.30.0 og kan endres i senere versjoner.
Affected Products
Data Domain Virtual EditionProducts
Data Domain, Data Domain Virtual EditionArticle Properties
Article Number: 000059680
Article Type: Solution
Last Modified: 05 Sep 2025
Version: 3
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.