Data Domain Virtual Edition: Spiegazione dell'utilizzo dello spazio su un disco dati in DDVE (Data Domain Virtual Edition)
Summary: Spiegazione dell'utilizzo dello spazio su un disco dati in DDVE (Data Domain Virtual Edition)
This article applies to
This article does not apply to
This article is not tied to any specific product.
Not all product versions are identified in this article.
Symptoms
DDVE (Data Domain Virtual Edition) è un nuovo prodotto che consente il deployment di un DDR (Data Domain Restorer) in un ambiente virtuale. Una volta completato il deployment, è necessario eseguire il provisioning dei dischi dati per l'utilizzo da parte del file system DDFS in DDVE. Questo articolo spiega come viene utilizzato lo spazio fisico su tali dischi dati e perché lo spazio utilizzabile all'interno del file system DDFS potrebbe essere notevolmente inferiore rispetto alle dimensioni combinate di tutti i dischi dati
Resolution
Quando si aggiungono dischi dati a un'istanza di DDVE, è necessario rispettare determinate regole di capacità:
- Il primo disco dati aggiunto deve avere una dimensione minima di 200 GB
- Tutti i dischi dati successivi devono avere una dimensione minima di 100 GB
Il motivo per cui il primo disco deve avere una dimensione minima di 200 GB è che su questo disco sono presenti notevoli overhead, come descritto di seguito.
Supponiamo che un disco dati da 200 GB venga presentato a DDVE, aggiunto all'Active Tier e utilizzato per creare un'istanza del file system DDFS. Il disco fisico viene utilizzato come segue:
Inizialmente il disco viene partizionato con la sezione 5 utilizzata per lo storage dei dati e la sezione 6 viene utilizzata per i file system ext3:
Model: Unknown (unknown)
Disk /dev/dm-4: 200GiB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 0.00GiB 0.00GiB 0.00GiB primary
2 0.00GiB 0.00GiB 0.00GiB primary
3 0.00GiB 0.01GiB 0.01GiB primary
4 0.01GiB 0.01GiB 0.00GiB primary
5 0.01GiB 193GiB 193GiB primary <=== Used for data storage
6 193GiB 200GiB 6.77GiB primary <=== Used for ext3
Di conseguenza, circa 193 GB di spazio su disco (sezione 5) vengono assegnati al driver RAID per l'uso.
Tuttavia, DDVE utilizza un concetto "RAID on LUN" (ROL) per proteggere da determinati tipi di danneggiamento dei dati (ad esempio, un danneggiamento dei dati che non può essere rilevato/riparato dall'array di storage sottostante). ROL riserva circa il 5,6% dello spazio nella sezione 5 per informazioni sulla parità. Di conseguenza, RAID rende disponibili solo circa 182,3 GB per l'uso da parte di DDFS (come mostrato di seguito, ogni settore ha una dimensione di 512 byte)
Array [ppart2] (active): [raid-type 106] [(0x1, 0x30) options] [NVR:N/N] [striscia da 4608 KB] [382362624 settori] [382362624 settori totali
] [dm-4p5]
Lo spazio di circa 182,3 GB assegnato a DDFS viene suddiviso in blocchi di 1.075.838.976 byte ciascuno; di conseguenza, è possibile creare 181 blocchi di questo tipo. I blocchi vengono quindi assegnati a vari file system di livello superiore all'interno di DDFS secondo necessità. Quando si crea una nuova istanza di DDFS, è necessario allocare una quantità significativa di spazio per i metadati, come gli indici, i vettori di riepilogo, i metadati dei checkpoint e i file system dei blocchi riservati/meta-controllo/blocchi riservati:
FIXED NUM BLOCK
SIZE SIZE BLOCKS SIZE NAME
Yes 194726854656 181 1075838976 /../vpart:/vol2/col1
Yes 194726854656 181 1075838976 /../vpart:/vol2/col1/cp1
No 37654364160 21 1075838976 /../vpart:/vol2/col1/cp1/cset
No 65626177536 61 1075838976 /../vpart:/vol2/col1/cp1/full_indices
No 22592618496 21 1075838976 /../vpart:/vol2/col1/cp1/partial_indices
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.0
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.1
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp_meta
No 10758389760 10 1075838976 /../vpart:/vol2/reserved_blocks
TUtto, ad eccezione del set di container (CSET, dove sono archiviati i dati dell'utente), consuma 95 blocchi da 1.075.838.976 byte ciascuno. Di conseguenza, rimangono 86 blocchi per il potenziale utilizzo da parte di CSET. Si noti che 86 * 1.075.838.976 byte = circa 86,2 GB.
All'interno di CSET utilizziamo una quantità molto ridotta di spazio per i metadati, quindi prevediamo di poter utilizzare tutti i blocchi da 1.075.838.976 byte rimanenti nel sistema per creare container da 4,5 MB. Controllando i metadati CSET, si nota quanto segue:
cm_attrs.psize=4718592 <=== Each container is 4.5Mb
...
cm_attrs.max_containers=17403 <=== Maximum possible number of 'usable' containers
...
cm_attrs.reserved_containers=2176 <=== Reserved containers for internal operations
Il numero totale di container che possono essere creati all'interno di CSET è 17.403 + 2.176 = 19.579
Ogni container ha una dimensione di 4,5 MB, quindi 19.579 container equivalgono a 86,0 GB di spazio su disco
Tuttavia, i container riservati sono solo per uso interno (per operazioni come la pulizia), quindi non vengono presi in considerazione quando si mostrano le dimensioni utilizzabili del file system agli utenti. A causa di questo aspetto, le dimensioni "utilizzabili" del file system DDFS sono 17.403 * 4,5 MB = circa 76,5 GB.
Per questo motivo, se un utente esegue "filesys show space" dopo aver aggiunto un singolo disco da 200 GB e creato un'istanza di DDFS, le dimensioni del file system DDFS sono di appena 76,5 GB:
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 9.0 - - -
/data: post-comp 76.5 15.0 61.4 20% 1.1
/ddvar 49.2 1.3 45.4 3% -
/ddvar/core 158.5 0.7 149.7 0% -
---------------- -------- -------- --------- ---- --------------
Gli overhead sui dischi dati successivi sono notevolmente inferiori:
- I dischi successivi non contengono i file system ext3
- I metadati DDFS sono già presenti sul primo disco, quindi sui dischi successivi viene creata una quantità minima di dati
Ad esempio, supponiamo di aggiungere un secondo disco da 100 GB e di espandere DDFS. Su questo disco, la sezione 5 viene assegnata al driver RAID (come sul primo disco), ma la sezione 6, pur venendo comunque creata, ha una dimensione di soli 4 KB:
6 107GB 107GB 4096B primary
Di conseguenza, praticamente tutto il secondo disco viene assegnato a RAID (tramite la sezione 5). RAID utilizza il 5,6% di questo spazio per ROL, quindi offre il resto a DDFS (nel seguente esempio circa 94,3 GB del disco da 100 GB vengono forniti a DDFS per l'uso:
Array [ppart3] (active): [raid-type 106] [(0x1, 0x30) options] [NVR:N/N] [4608KB stripe] [197858304 sectors] [197858304 total sectors]
[dm-2p5]
Questo spazio viene suddiviso in blocchi da 1.075.838.976 byte; di conseguenza, il sistema crea altri 93 blocchi per l'uso da parte di DDFS:
FIXED NUM BLOCK
SIZE SIZE BLOCKS SIZE NAME
Yes 294779879424 274 1075838976 /../vpart:/vol1/col1
Yes 294779879424 274 1075838976 /../vpart:/vol1/col1/cp1
No 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/cset
No 65626177536 61 1075838976 /../vpart:/vol1/col1/cp1/full_indices
No 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/partial_indices
No 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.0
No 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.1
No 2151677952 2 1075838976 /../vpart:/vol1/col1/cp_meta
No 10758389760 10 1075838976 /../vpart:/vol1/reserved_blocks
Si noti che, poiché tutti i file system dei metadati sono già stati creati sul primo disco dati, sul secondo disco viene utilizzato un solo blocco per i metadati (tramite il file system cp_meta). Il resto dello spazio è reso disponibile per CSET ed è considerato utilizzabile per i container normali:
cm_attrs.max_containers=38379
...
cm_attrs.reserved_containers=2176
Si noti che 38.379 * 4,5 MB = circa 168,7 GB:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 168.7 0.1 168.6 0% 0.0
/ddvar 49.2 0.5 46.2 1% -
/ddvar/core 158.5 0.3 150.1 0% -
---------------- -------- -------- --------- ---- -------------
Ciò dimostra che gli overhead sono notevolmente ridotti su tutti i dischi dati, tranne il primo:
Dal disco da 200 GB, DDFS ha ottenuto 76,5 GB di spazio utilizzabile
Dal secondo disco dati da 100 GB, DDFS ha ottenuto 92,2 GB di spazio utilizzabile
Questa tendenza continua per tutti i dischi dati successivi.
Infine, i metadati all'interno di DDFS (come i file system dell'indice) non sono di dimensioni fisse. A seconda del carico di lavoro del sistema, potrebbe essere necessario che tali metadati crescano, riducendo così lo spazio disponibile per CSET. In questo caso, le dimensioni utilizzabili di CSET diminuiscono. Questo comportamento è previsto: la dimensione totale di CSET (e la dimensione del file system DDFS, come mostrato dal comando "filesys show space") non deve essere considerata un valore statico, anche se la dimensione dei dischi dati sottostanti non cambia.
- Il primo disco dati aggiunto deve avere una dimensione minima di 200 GB
- Tutti i dischi dati successivi devono avere una dimensione minima di 100 GB
Il motivo per cui il primo disco deve avere una dimensione minima di 200 GB è che su questo disco sono presenti notevoli overhead, come descritto di seguito.
Supponiamo che un disco dati da 200 GB venga presentato a DDVE, aggiunto all'Active Tier e utilizzato per creare un'istanza del file system DDFS. Il disco fisico viene utilizzato come segue:
Inizialmente il disco viene partizionato con la sezione 5 utilizzata per lo storage dei dati e la sezione 6 viene utilizzata per i file system ext3:
Model: Unknown (unknown)
Disk /dev/dm-4: 200GiB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 0.00GiB 0.00GiB 0.00GiB primary
2 0.00GiB 0.00GiB 0.00GiB primary
3 0.00GiB 0.01GiB 0.01GiB primary
4 0.01GiB 0.01GiB 0.00GiB primary
5 0.01GiB 193GiB 193GiB primary <=== Used for data storage
6 193GiB 200GiB 6.77GiB primary <=== Used for ext3
Di conseguenza, circa 193 GB di spazio su disco (sezione 5) vengono assegnati al driver RAID per l'uso.
Tuttavia, DDVE utilizza un concetto "RAID on LUN" (ROL) per proteggere da determinati tipi di danneggiamento dei dati (ad esempio, un danneggiamento dei dati che non può essere rilevato/riparato dall'array di storage sottostante). ROL riserva circa il 5,6% dello spazio nella sezione 5 per informazioni sulla parità. Di conseguenza, RAID rende disponibili solo circa 182,3 GB per l'uso da parte di DDFS (come mostrato di seguito, ogni settore ha una dimensione di 512 byte)
Array [ppart2] (active): [raid-type 106] [(0x1, 0x30) options] [NVR:N/N] [striscia da 4608 KB] [382362624 settori] [382362624 settori totali
] [dm-4p5]
Lo spazio di circa 182,3 GB assegnato a DDFS viene suddiviso in blocchi di 1.075.838.976 byte ciascuno; di conseguenza, è possibile creare 181 blocchi di questo tipo. I blocchi vengono quindi assegnati a vari file system di livello superiore all'interno di DDFS secondo necessità. Quando si crea una nuova istanza di DDFS, è necessario allocare una quantità significativa di spazio per i metadati, come gli indici, i vettori di riepilogo, i metadati dei checkpoint e i file system dei blocchi riservati/meta-controllo/blocchi riservati:
FIXED NUM BLOCK
SIZE SIZE BLOCKS SIZE NAME
Yes 194726854656 181 1075838976 /../vpart:/vol2/col1
Yes 194726854656 181 1075838976 /../vpart:/vol2/col1/cp1
No 37654364160 21 1075838976 /../vpart:/vol2/col1/cp1/cset
No 65626177536 61 1075838976 /../vpart:/vol2/col1/cp1/full_indices
No 22592618496 21 1075838976 /../vpart:/vol2/col1/cp1/partial_indices
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.0
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.1
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp_meta
No 10758389760 10 1075838976 /../vpart:/vol2/reserved_blocks
TUtto, ad eccezione del set di container (CSET, dove sono archiviati i dati dell'utente), consuma 95 blocchi da 1.075.838.976 byte ciascuno. Di conseguenza, rimangono 86 blocchi per il potenziale utilizzo da parte di CSET. Si noti che 86 * 1.075.838.976 byte = circa 86,2 GB.
All'interno di CSET utilizziamo una quantità molto ridotta di spazio per i metadati, quindi prevediamo di poter utilizzare tutti i blocchi da 1.075.838.976 byte rimanenti nel sistema per creare container da 4,5 MB. Controllando i metadati CSET, si nota quanto segue:
cm_attrs.psize=4718592 <=== Each container is 4.5Mb
...
cm_attrs.max_containers=17403 <=== Maximum possible number of 'usable' containers
...
cm_attrs.reserved_containers=2176 <=== Reserved containers for internal operations
Il numero totale di container che possono essere creati all'interno di CSET è 17.403 + 2.176 = 19.579
Ogni container ha una dimensione di 4,5 MB, quindi 19.579 container equivalgono a 86,0 GB di spazio su disco
Tuttavia, i container riservati sono solo per uso interno (per operazioni come la pulizia), quindi non vengono presi in considerazione quando si mostrano le dimensioni utilizzabili del file system agli utenti. A causa di questo aspetto, le dimensioni "utilizzabili" del file system DDFS sono 17.403 * 4,5 MB = circa 76,5 GB.
Per questo motivo, se un utente esegue "filesys show space" dopo aver aggiunto un singolo disco da 200 GB e creato un'istanza di DDFS, le dimensioni del file system DDFS sono di appena 76,5 GB:
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 9.0 - - -
/data: post-comp 76.5 15.0 61.4 20% 1.1
/ddvar 49.2 1.3 45.4 3% -
/ddvar/core 158.5 0.7 149.7 0% -
---------------- -------- -------- --------- ---- --------------
Gli overhead sui dischi dati successivi sono notevolmente inferiori:
- I dischi successivi non contengono i file system ext3
- I metadati DDFS sono già presenti sul primo disco, quindi sui dischi successivi viene creata una quantità minima di dati
Ad esempio, supponiamo di aggiungere un secondo disco da 100 GB e di espandere DDFS. Su questo disco, la sezione 5 viene assegnata al driver RAID (come sul primo disco), ma la sezione 6, pur venendo comunque creata, ha una dimensione di soli 4 KB:
6 107GB 107GB 4096B primary
Di conseguenza, praticamente tutto il secondo disco viene assegnato a RAID (tramite la sezione 5). RAID utilizza il 5,6% di questo spazio per ROL, quindi offre il resto a DDFS (nel seguente esempio circa 94,3 GB del disco da 100 GB vengono forniti a DDFS per l'uso:
Array [ppart3] (active): [raid-type 106] [(0x1, 0x30) options] [NVR:N/N] [4608KB stripe] [197858304 sectors] [197858304 total sectors]
[dm-2p5]
Questo spazio viene suddiviso in blocchi da 1.075.838.976 byte; di conseguenza, il sistema crea altri 93 blocchi per l'uso da parte di DDFS:
FIXED NUM BLOCK
SIZE SIZE BLOCKS SIZE NAME
Yes 294779879424 274 1075838976 /../vpart:/vol1/col1
Yes 294779879424 274 1075838976 /../vpart:/vol1/col1/cp1
No 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/cset
No 65626177536 61 1075838976 /../vpart:/vol1/col1/cp1/full_indices
No 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/partial_indices
No 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.0
No 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.1
No 2151677952 2 1075838976 /../vpart:/vol1/col1/cp_meta
No 10758389760 10 1075838976 /../vpart:/vol1/reserved_blocks
Si noti che, poiché tutti i file system dei metadati sono già stati creati sul primo disco dati, sul secondo disco viene utilizzato un solo blocco per i metadati (tramite il file system cp_meta). Il resto dello spazio è reso disponibile per CSET ed è considerato utilizzabile per i container normali:
cm_attrs.max_containers=38379
...
cm_attrs.reserved_containers=2176
Si noti che 38.379 * 4,5 MB = circa 168,7 GB:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 168.7 0.1 168.6 0% 0.0
/ddvar 49.2 0.5 46.2 1% -
/ddvar/core 158.5 0.3 150.1 0% -
---------------- -------- -------- --------- ---- -------------
Ciò dimostra che gli overhead sono notevolmente ridotti su tutti i dischi dati, tranne il primo:
Dal disco da 200 GB, DDFS ha ottenuto 76,5 GB di spazio utilizzabile
Dal secondo disco dati da 100 GB, DDFS ha ottenuto 92,2 GB di spazio utilizzabile
Questa tendenza continua per tutti i dischi dati successivi.
Infine, i metadati all'interno di DDFS (come i file system dell'indice) non sono di dimensioni fisse. A seconda del carico di lavoro del sistema, potrebbe essere necessario che tali metadati crescano, riducendo così lo spazio disponibile per CSET. In questo caso, le dimensioni utilizzabili di CSET diminuiscono. Questo comportamento è previsto: la dimensione totale di CSET (e la dimensione del file system DDFS, come mostrato dal comando "filesys show space") non deve essere considerata un valore statico, anche se la dimensione dei dischi dati sottostanti non cambia.
Additional Information
Le informazioni contenute in questo articolo sono valide a partire da DD OS 5.7.30.0 e potrebbero essere modificate nelle versioni successive.
Affected Products
Data Domain Virtual EditionProducts
Data Domain, Data Domain Virtual EditionArticle Properties
Article Number: 000059680
Article Type: Solution
Last Modified: 05 Sep 2025
Version: 3
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.