Data Domain Virtual Edition: Explicação da utilização do espaço em disco de dados no Data Domain Virtual Edition (DDVE)
Summary: Explicação da utilização do espaço em disco de dados no Data Domain Virtual Edition (DDVE)
This article applies to
This article does not apply to
This article is not tied to any specific product.
Not all product versions are identified in this article.
Symptoms
Data Domain Virtual Edition (DDVE) é um novo produto que permite a implementação de um Data Domain Restorer (DDR) em um ambiente virtual. Após a conclusão da implementação, será necessário provisionar discos de dados para uso pelo file system DDFS no DDVE. Este artigo explica como o espaço físico desses discos de dados é usado e por que o espaço utilizável no file system DDFS pode ser significativamente menor do que o tamanho combinado de todos os discos de dados
Resolution
Ao adicionar discos de dados a uma instância do DDVE, é preciso seguir determinadas regras de capacidade:
- O primeiro disco de dados adicionado deve ter no mínimo 200 Gb
- Todos os discos de dados subsequentes devem ter no mínimo 100 Gb
O motivo pelo qual o primeiro disco deve ter no mínimo 200 Gb é que há sobrecargas significativas nesse disco, conforme descrito abaixo.
Vamos supor que um disco de dados de 200 Gb seja apresentado ao DDVE, adicionado ao nível ativo e usado para criar uma instância do file system DDFS. O disco físico será usado da seguinte forma:
Inicialmente, o disco é particionado, com a fatia 5 sendo usada para armazenamento de dados e a fatia 6 usada para file systems ext3:
Model: Unknown (unknown)
Disk /dev/dm-4: 200GiB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 0.00GiB 0.00GiB 0.00GiB primary
2 0.00GiB 0.00GiB 0.00GiB primary
3 0.00GiB 0.01GiB 0.01GiB primary
4 0.01GiB 0.01GiB 0.00GiB primary
5 0.01GiB 193GiB 193GiB primary <=== Used for data storage
6 193GiB 200GiB 6.77GiB primary <=== Used for ext3
Como resultado, aproximadamente 193 Gb de espaço em disco (fatia 5) serão atribuídos ao driver de RAID para utilização.
Observe, no entanto, que o DDVE usa um conceito de RAID em LUN (ROL) para se proteger contra certos tipos de corrupção de dados (por exemplo, corrupção de dados que não pode ser detectada/reparada pelo storage array subjacente). O ROL reserva aproximadamente 5,6% do espaço na fatia 5 para informações de paridade. Como resultado, o RAID disponibilizará apenas cerca de 182,3 Gb para uso pelo DDFS (conforme exibido abaixo; observe que cada setor tem 512 bytes):
Array [ppart2] (active): [raid-type 106] [(0x1, 0x30) options] [NVR:N/N] [4608KB stripe] [382362624 sectors] [382362624 total sectors]
[dm-4p5]
O espaço de aproximadamente 182,3 Gb atribuído ao DDFS é dividido em blocos de 1.075.838.976 bytes. Como resultado, podemos criar 181 blocos desse tipo. Em seguida, os blocos são alocados a vários file systems de nível superior no DDFS, conforme necessário. Observe que, ao criar uma nova instância do DDFS, é necessário alocar uma quantidade significativa de espaço para metadados, como os file systems de índice/vetor de resumo/meta CP/blocos reservados:
FIXED NUM BLOCK
SIZE SIZE BLOCKS SIZE NAME
Yes 194726854656 181 1075838976 /../vpart:/vol2/col1
Yes 194726854656 181 1075838976 /../vpart:/vol2/col1/cp1
No 37654364160 21 1075838976 /../vpart:/vol2/col1/cp1/cset
No 65626177536 61 1075838976 /../vpart:/vol2/col1/cp1/full_indices
No 22592618496 21 1075838976 /../vpart:/vol2/col1/cp1/partial_indices
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.0
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.1
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp_meta
No 10758389760 10 1075838976 /../vpart:/vol2/reserved_blocks
Observe que tudo, exceto o conjunto de contêineres (CSET — onde os dados do usuário são armazenados), consome 95 * 1.075.838.976 blocos de bytes. Como resultado, há 86 blocos restantes para uso potencial pelo CSET. Observe que 86 * 1.075.838.976 bytes são aproximadamente 86,2 Gb.
No CSET, usamos uma quantidade muito pequena de espaço para metadados e, em seguida, estimamos que podemos usar todos os blocos de 1.075.838.976 bytes restantes no sistema para criar contêineres de 4,5 Mb. Se verificarmos os metadados do CSET, vemos que:
cm_attrs.psize=4718592 <=== Each container is 4.5Mb
...
cm_attrs.max_containers=17403 <=== Maximum possible number of 'usable' containers
...
cm_attrs.reserved_containers=2176 <=== Reserved containers for internal operations
O número total de contêineres que podem ser criados no CSET é 17.403 + 2.176 = 19.579.
Cada contêiner tem 4,5 Mb e, portanto, 19.579 contêineres equivalem a 86,0 Gb de espaço em disco.
Observe, no entanto, que os contêineres reservados são apenas para uso interno (por operações como limpeza) e, sendo assim, não são considerados ao exibir o tamanho utilizável do file system aos usuários. Devido a isso, o tamanho "utilizável" do file system DDFS é 17.403 * 4,5 Mb = ~76,5 Gb.
Por esse motivo, se um usuário executar "filesys show space" após adicionar um só disco de 200 Gb e criar uma instância do DDFS, verá que o file system DDFS tem apenas 76,5 Gb:
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 9.0 - - -
/data: post-comp 76.5 15.0 61.4 20% 1.1
/ddvar 49.2 1.3 45.4 3% -
/ddvar/core 158.5 0.7 149.7 0% -
---------------- -------- -------- --------- ---- --------------
Observe que as sobrecargas nos discos de dados subsequentes são significativamente menores:
- Os discos subsequentes não contêm file systems ext3.
- Os metadados DDFS já existem no primeiro disco e, portanto, muito pouco é criado nos discos subsequentes.
Por exemplo, vamos supor que adicionamos um segundo disco de 100 Gb e expandimos o DDFS. Nesse disco, a fatia 5 será atribuída ao driver de RAID (tal como no primeiro disco), mas a fatia 6, embora continue existindo, terá apenas 4 Kb:
6 107GB 107GB 4096B primary
Como resultado, praticamente todo o segundo disco é destinado ao RAID (por meio da fatia 5). O Raid usa 5,6% desse espaço para ROL e apresenta o restante ao DDFS. No exemplo abaixo, cerca de 94,3 Gb do disco de 100 Gb são atribuídos ao DDFS para uso:
Array [ppart3] (active): [raid-type 106] [(0x1, 0x30) options] [NVR:N/N] [4608KB stripe] [197858304 sectors] [197858304 total sectors]
[dm-2p5]
Esse espaço é dividido em blocos de 1.075.838.976 bytes e, como resultado, o sistema cria 93 blocos adicionais para uso do DDFS:
FIXED NUM BLOCK
SIZE SIZE BLOCKS SIZE NAME
Yes 294779879424 274 1075838976 /../vpart:/vol1/col1
Yes 294779879424 274 1075838976 /../vpart:/vol1/col1/cp1
No 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/cset
No 65626177536 61 1075838976 /../vpart:/vol1/col1/cp1/full_indices
No 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/partial_indices
No 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.0
No 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.1
No 2151677952 2 1075838976 /../vpart:/vol1/col1/cp_meta
No 10758389760 10 1075838976 /../vpart:/vol1/reserved_blocks
Observe que, como todos os file systems de metadados já foram criados no primeiro disco de dados, apenas um bloco é usado para metadados no segundo disco (por meio do file system cp_meta). O restante do espaço é disponibilizado para o CSET e é considerado utilizável para contêineres normais:
cm_attrs.max_containers=38379
...
cm_attrs.reserved_containers=2176
Observe que 38.379 * 4,5 Mb = ~168,7 Gb:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 168.7 0.1 168.6 0% 0.0
/ddvar 49.2 0.5 46.2 1% -
/ddvar/core 158.5 0.3 150.1 0% -
---------------- -------- -------- --------- ---- -------------
Isso mostra que as sobrecargas são significativamente menores em todos os discos de dados, exceto no primeiro:
Do primeiro disco de 200 Gb, o DDFS obteve 76,5 Gb de espaço utilizável
A partir do segundo disco de dados de 100 Gb, o DDFS obteve 92,2 Gb de espaço utilizável
Essa tendência continua para todos os discos de dados subsequentes.
Por fim, deve-se observar que os metadados no DDFS (como os file systems de índice) não têm tamanho fixo. Dependendo da carga de trabalho do sistema, eles podem precisar crescer, o que ocupará o espaço utilizável do CSET. Se isso acontecer, o tamanho utilizável do CSET diminuirá. Esse comportamento é esperado: o tamanho total do CSET (e o tamanho do file system DDFS, conforme "filesys show space") não deve ser considerado um valor estático, mesmo que o tamanho dos discos de dados subjacentes não mude.
- O primeiro disco de dados adicionado deve ter no mínimo 200 Gb
- Todos os discos de dados subsequentes devem ter no mínimo 100 Gb
O motivo pelo qual o primeiro disco deve ter no mínimo 200 Gb é que há sobrecargas significativas nesse disco, conforme descrito abaixo.
Vamos supor que um disco de dados de 200 Gb seja apresentado ao DDVE, adicionado ao nível ativo e usado para criar uma instância do file system DDFS. O disco físico será usado da seguinte forma:
Inicialmente, o disco é particionado, com a fatia 5 sendo usada para armazenamento de dados e a fatia 6 usada para file systems ext3:
Model: Unknown (unknown)
Disk /dev/dm-4: 200GiB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 0.00GiB 0.00GiB 0.00GiB primary
2 0.00GiB 0.00GiB 0.00GiB primary
3 0.00GiB 0.01GiB 0.01GiB primary
4 0.01GiB 0.01GiB 0.00GiB primary
5 0.01GiB 193GiB 193GiB primary <=== Used for data storage
6 193GiB 200GiB 6.77GiB primary <=== Used for ext3
Como resultado, aproximadamente 193 Gb de espaço em disco (fatia 5) serão atribuídos ao driver de RAID para utilização.
Observe, no entanto, que o DDVE usa um conceito de RAID em LUN (ROL) para se proteger contra certos tipos de corrupção de dados (por exemplo, corrupção de dados que não pode ser detectada/reparada pelo storage array subjacente). O ROL reserva aproximadamente 5,6% do espaço na fatia 5 para informações de paridade. Como resultado, o RAID disponibilizará apenas cerca de 182,3 Gb para uso pelo DDFS (conforme exibido abaixo; observe que cada setor tem 512 bytes):
Array [ppart2] (active): [raid-type 106] [(0x1, 0x30) options] [NVR:N/N] [4608KB stripe] [382362624 sectors] [382362624 total sectors]
[dm-4p5]
O espaço de aproximadamente 182,3 Gb atribuído ao DDFS é dividido em blocos de 1.075.838.976 bytes. Como resultado, podemos criar 181 blocos desse tipo. Em seguida, os blocos são alocados a vários file systems de nível superior no DDFS, conforme necessário. Observe que, ao criar uma nova instância do DDFS, é necessário alocar uma quantidade significativa de espaço para metadados, como os file systems de índice/vetor de resumo/meta CP/blocos reservados:
FIXED NUM BLOCK
SIZE SIZE BLOCKS SIZE NAME
Yes 194726854656 181 1075838976 /../vpart:/vol2/col1
Yes 194726854656 181 1075838976 /../vpart:/vol2/col1/cp1
No 37654364160 21 1075838976 /../vpart:/vol2/col1/cp1/cset
No 65626177536 61 1075838976 /../vpart:/vol2/col1/cp1/full_indices
No 22592618496 21 1075838976 /../vpart:/vol2/col1/cp1/partial_indices
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.0
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.1
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp_meta
No 10758389760 10 1075838976 /../vpart:/vol2/reserved_blocks
Observe que tudo, exceto o conjunto de contêineres (CSET — onde os dados do usuário são armazenados), consome 95 * 1.075.838.976 blocos de bytes. Como resultado, há 86 blocos restantes para uso potencial pelo CSET. Observe que 86 * 1.075.838.976 bytes são aproximadamente 86,2 Gb.
No CSET, usamos uma quantidade muito pequena de espaço para metadados e, em seguida, estimamos que podemos usar todos os blocos de 1.075.838.976 bytes restantes no sistema para criar contêineres de 4,5 Mb. Se verificarmos os metadados do CSET, vemos que:
cm_attrs.psize=4718592 <=== Each container is 4.5Mb
...
cm_attrs.max_containers=17403 <=== Maximum possible number of 'usable' containers
...
cm_attrs.reserved_containers=2176 <=== Reserved containers for internal operations
O número total de contêineres que podem ser criados no CSET é 17.403 + 2.176 = 19.579.
Cada contêiner tem 4,5 Mb e, portanto, 19.579 contêineres equivalem a 86,0 Gb de espaço em disco.
Observe, no entanto, que os contêineres reservados são apenas para uso interno (por operações como limpeza) e, sendo assim, não são considerados ao exibir o tamanho utilizável do file system aos usuários. Devido a isso, o tamanho "utilizável" do file system DDFS é 17.403 * 4,5 Mb = ~76,5 Gb.
Por esse motivo, se um usuário executar "filesys show space" após adicionar um só disco de 200 Gb e criar uma instância do DDFS, verá que o file system DDFS tem apenas 76,5 Gb:
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 9.0 - - -
/data: post-comp 76.5 15.0 61.4 20% 1.1
/ddvar 49.2 1.3 45.4 3% -
/ddvar/core 158.5 0.7 149.7 0% -
---------------- -------- -------- --------- ---- --------------
Observe que as sobrecargas nos discos de dados subsequentes são significativamente menores:
- Os discos subsequentes não contêm file systems ext3.
- Os metadados DDFS já existem no primeiro disco e, portanto, muito pouco é criado nos discos subsequentes.
Por exemplo, vamos supor que adicionamos um segundo disco de 100 Gb e expandimos o DDFS. Nesse disco, a fatia 5 será atribuída ao driver de RAID (tal como no primeiro disco), mas a fatia 6, embora continue existindo, terá apenas 4 Kb:
6 107GB 107GB 4096B primary
Como resultado, praticamente todo o segundo disco é destinado ao RAID (por meio da fatia 5). O Raid usa 5,6% desse espaço para ROL e apresenta o restante ao DDFS. No exemplo abaixo, cerca de 94,3 Gb do disco de 100 Gb são atribuídos ao DDFS para uso:
Array [ppart3] (active): [raid-type 106] [(0x1, 0x30) options] [NVR:N/N] [4608KB stripe] [197858304 sectors] [197858304 total sectors]
[dm-2p5]
Esse espaço é dividido em blocos de 1.075.838.976 bytes e, como resultado, o sistema cria 93 blocos adicionais para uso do DDFS:
FIXED NUM BLOCK
SIZE SIZE BLOCKS SIZE NAME
Yes 294779879424 274 1075838976 /../vpart:/vol1/col1
Yes 294779879424 274 1075838976 /../vpart:/vol1/col1/cp1
No 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/cset
No 65626177536 61 1075838976 /../vpart:/vol1/col1/cp1/full_indices
No 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/partial_indices
No 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.0
No 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.1
No 2151677952 2 1075838976 /../vpart:/vol1/col1/cp_meta
No 10758389760 10 1075838976 /../vpart:/vol1/reserved_blocks
Observe que, como todos os file systems de metadados já foram criados no primeiro disco de dados, apenas um bloco é usado para metadados no segundo disco (por meio do file system cp_meta). O restante do espaço é disponibilizado para o CSET e é considerado utilizável para contêineres normais:
cm_attrs.max_containers=38379
...
cm_attrs.reserved_containers=2176
Observe que 38.379 * 4,5 Mb = ~168,7 Gb:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 168.7 0.1 168.6 0% 0.0
/ddvar 49.2 0.5 46.2 1% -
/ddvar/core 158.5 0.3 150.1 0% -
---------------- -------- -------- --------- ---- -------------
Isso mostra que as sobrecargas são significativamente menores em todos os discos de dados, exceto no primeiro:
Do primeiro disco de 200 Gb, o DDFS obteve 76,5 Gb de espaço utilizável
A partir do segundo disco de dados de 100 Gb, o DDFS obteve 92,2 Gb de espaço utilizável
Essa tendência continua para todos os discos de dados subsequentes.
Por fim, deve-se observar que os metadados no DDFS (como os file systems de índice) não têm tamanho fixo. Dependendo da carga de trabalho do sistema, eles podem precisar crescer, o que ocupará o espaço utilizável do CSET. Se isso acontecer, o tamanho utilizável do CSET diminuirá. Esse comportamento é esperado: o tamanho total do CSET (e o tamanho do file system DDFS, conforme "filesys show space") não deve ser considerado um valor estático, mesmo que o tamanho dos discos de dados subjacentes não mude.
Additional Information
Observe que as informações contidas neste artigo são válidas a partir do DDOS 5.7.30.0 e podem mudar em versões subsequentes.
Affected Products
Data Domain Virtual EditionProducts
Data Domain, Data Domain Virtual EditionArticle Properties
Article Number: 000059680
Article Type: Solution
Last Modified: 05 Sep 2025
Version: 3
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.