Data Domain Virtual Edition: Data Domain Virtual Edition (DDVE)でのデータ ディスク領域使用率の説明
Summary: Data Domain Virtual Edition (DDVE)でのデータ ディスク領域使用率の説明
This article applies to
This article does not apply to
This article is not tied to any specific product.
Not all product versions are identified in this article.
Symptoms
Data Domain Virtual Edition (DDVE)は、仮想環境にData Domain Restorer (DDR)を導入できる新製品です。DDVEの導入が完了すると、DDFSファイル システムで使用するためのデータ ディスクをプロビジョニングする必要があります。この記事では、これらのデータ ディスク上の物理領域がどのように使用されるか、またDDFSファイル システムで使用可能な空き領域が、すべてのデータ ディスクの合計サイズよりも大幅に小さくなる理由について説明します。
Resolution
DDVEのインスタンスにデータ ディスクを追加する場合、以下の容量ルールを遵守する必要があります。
- 最初に追加されるデータ ディスクは、200Gb以上であること
- 2つ目後に追加されるすべてのデータ ディスクは、100Gb以上であること
最初のディスクが200Gb以上でなければならない理由は、後述するように、このディスクには大きなオーバーヘッドが発生するためです。
ここでは、200Gbのデータ ディスクがDDVEに接続されてアクティブ階層に追加され、DDFSファイル システムのインスタンス作成に使用される場合を想定します。物理ディスクは次のように使用されます。
初期状態では、ディスクはパーティション化され、スライス5がデータ ストレージに、スライス6がext3ファイル システムに使用されます。
Model: Unknown (unknown)
Disk /dev/dm-4: 200GiB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 0.00GiB 0.00GiB 0.00GiB primary
2 0.00GiB 0.00GiB 0.00GiB primary
3 0.00GiB 0.01GiB 0.01GiB primary
4 0.01GiB 0.01GiB 0.00GiB primary
5 0.01GiB 193GiB 193GiB primary <=== Used for data storage
6 193GiB 200GiB 6.77GiB primary <=== Used for ext3
この結果、193Gbのディスク領域(スライス5)がRAIDドライバーに割り当てられて使用されます。
ただし、DDVEはRAID on LUN (ROL)の概念を使用して、特定のタイプのデータ破損(たとえば、基盤となるストレージアレイで検出/修復できないデータ破損)からデータを保護することに留意してください。ROLは、スライス5の領域の約5.6%をパリティー情報用に予約します。その結果、RAIDによりDDFSで使用可能な領域は約182.3Gbに制限されます(以下を参照。各セクターのサイズは512バイトであることに注意)。
Array [ppart2] (active): [raid-type 106] [(0x1, 0x30) options] [NVR:N/N] [4608KB stripe] [382362624 sectors] [382362624 total sectors]
[dm-4p5]
DDFSに割り当てられた最大182.3Gbの領域は、1075838976バイトのブロックに分割され、その結果、181個のブロックを作成できます。その後、ブロックはDDFS内で必要に応じて、さまざまな上位レベルのファイル システムに割り当てられます。DDFSの新しいインスタンスを作成する場合は、インデックス/サマリー ベクトル/CPメタ/予約済みブロック ファイル システムなどのメタデータに大量の領域を割り当てる必要があることに注意してください。
FIXED NUM BLOCK
SIZE SIZE BLOCKS SIZE NAME
Yes 194726854656 181 1075838976 /../vpart:/vol2/col1
Yes 194726854656 181 1075838976 /../vpart:/vol2/col1/cp1
No 37654364160 21 1075838976 /../vpart:/vol2/col1/cp1/cset
No 65626177536 61 1075838976 /../vpart:/vol2/col1/cp1/full_indices
No 22592618496 21 1075838976 /../vpart:/vol2/col1/cp1/partial_indices
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.0
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.1
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp_meta
No 10758389760 10 1075838976 /../vpart:/vol2/reserved_blocks
コンテナー セット(CSET:ユーザー データが格納される場所)以外のすべての要素は、1075838976バイトのブロックを95個分消費することに注意してください。その結果、CSETが使用できるブロックとして86個のブロックが残ります。86 × 1075838976バイト
CSET内では、メタデータに使用される領域はごくわずかですが、システム上の残りの1075838976バイトのブロックはすべて、4.5Mbのコンテナーを作成するために使用できると見積もられます。CSETのメタデータを確認すると、次のように表示されます。
cm_attrs.psize=4718592 <=== Each container is 4.5Mb
...
cm_attrs.max_containers=17403 <=== Maximum possible number of 'usable' containers
...
cm_attrs.reserved_containers=2176 <=== Reserved containers for internal operations
CSET内に作成できるコンテナーの合計数は17403 + 2176 = 19579となります。
各コンテナーのサイズは4.5Mbなので、19579個のコンテナーは86.0Gbのディスク領域に相当します。
ただし、予約されたコンテナーは内部でのみ使用されるため(クリーニングなどの操作)、ファイル システムの使用可能なサイズをユーザーに表示する際には考慮されません。そのため、DDFSファイル システムの「使用可能」サイズは17403 × 4.5Mb
このため、ユーザーが200Gbのディスクを1台追加し、DDFSのインスタンスを作成した後に「filesys show space」を実行した場合、DDFSファイル システムのサイズはわずか76.5Gbであると表示されます。
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 9.0 - - -
/data: post-comp 76.5 15.0 61.4 20% 1.1
/ddvar 49.2 1.3 45.4 3% -
/ddvar/core 158.5 0.7 149.7 0% -
---------------- -------- -------- --------- ---- --------------
その後に追加されるデータ ディスクのオーバーヘッドは大幅に小さくなります。
- 後続のディスクはext3ファイル システムを含みません
- DDFSメタデータは最初のディスクにすでに存在しているため、後続のディスクにはほとんど作成されません
例えば、2台目の100Gbディスクを追加して、DDFSを拡張する場合を想定してみましょう。このディスクでは、スライス5はRAIDドライバーに割り当てられます(最初のディスクと同様)が、スライス6については、まだ作成中であり、サイズは4Kbのみになります。
6 107GB 107GB 4096B primary
その結果、実質的に2番目のディスク全体がRAIDに割り当てられます(スライス5を介して)。RAIDは、この領域の5.6%をROLに使用し、残りの領域をDDFSに提供します。次の例では、100Gbのディスクのうち最大で94.3GbがDDFS使用可能な領域として提供されます。
Array [ppart3] (active): [raid-type 106] [(0x1, 0x30) options] [NVR:N/N] [4608KB stripe] [197858304 sectors] [197858304 total sectors]
[dm-2p5]
この領域は1075838976バイトのブロックに分割されるため、結果的にシステムはDDFSでの使用に追加の93ブロックを作成します。
FIXED NUM BLOCK
SIZE SIZE BLOCKS SIZE NAME
Yes 294779879424 274 1075838976 /../vpart:/vol1/col1
Yes 294779879424 274 1075838976 /../vpart:/vol1/col1/cp1
No 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/cset
No 65626177536 61 1075838976 /../vpart:/vol1/col1/cp1/full_indices
No 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/partial_indices
No 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.0
No 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.1
No 2151677952 2 1075838976 /../vpart:/vol1/col1/cp_meta
No 10758389760 10 1075838976 /../vpart:/vol1/reserved_blocks
すべてのメタデータ ファイル システムは最初のデータ ディスクにすでに作成されているため、2番目のディスクではメタデータのために1個のブロックのみが使用されます(cp_metaファイル システムを介して)。残りの領域はCSETで使用可能になり、通常のコンテナーで使用可能と見なされます。
cm_attrs.max_containers=38379
...
cm_attrs.reserved_containers=2176
38379 × 4.5Mb
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 168.7 0.1 168.6 0% 0.0
/ddvar 49.2 0.5 46.2 1% -
/ddvar/core 158.5 0.3 150.1 0% -
---------------- -------- -------- --------- ---- -------------
これは、以下の理由により、最初のデータ ディスクを除くすべてのデータ ディスクでオーバーヘッドが大幅に小さくなることを示しています。
最初の200Gbディスクから、DDFSは76.5Gbの使用可能領域を取得しました
2番目の100Gbデータ ディスクから、DDFSは92.2Gbの使用可能領域を取得しました
この傾向は、後続のすべてのデータ ディスクでも継続します。
最後に、DDFS内のメタデータ(インデックス ファイル システムなど)のサイズは固定されないことに注意する必要があります。システムのワークロードによっては、これらを拡張する必要があるため、CSETから使用可能な領域が奪われる可能性があります。このような場合、CSETの使用可能なサイズは減少します。これは予想されることです。そのため、基盤となるデータ ディスクのサイズが変わらない場合でも、CSETの合計サイズ(および「filesys show space」によって示されるDDFSファイル システムのサイズ)は、基盤となるデータ ディスクのサイズが変化しなくても、静的な値とは見なされません。
- 最初に追加されるデータ ディスクは、200Gb以上であること
- 2つ目後に追加されるすべてのデータ ディスクは、100Gb以上であること
最初のディスクが200Gb以上でなければならない理由は、後述するように、このディスクには大きなオーバーヘッドが発生するためです。
ここでは、200Gbのデータ ディスクがDDVEに接続されてアクティブ階層に追加され、DDFSファイル システムのインスタンス作成に使用される場合を想定します。物理ディスクは次のように使用されます。
初期状態では、ディスクはパーティション化され、スライス5がデータ ストレージに、スライス6がext3ファイル システムに使用されます。
Model: Unknown (unknown)
Disk /dev/dm-4: 200GiB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 0.00GiB 0.00GiB 0.00GiB primary
2 0.00GiB 0.00GiB 0.00GiB primary
3 0.00GiB 0.01GiB 0.01GiB primary
4 0.01GiB 0.01GiB 0.00GiB primary
5 0.01GiB 193GiB 193GiB primary <=== Used for data storage
6 193GiB 200GiB 6.77GiB primary <=== Used for ext3
この結果、193Gbのディスク領域(スライス5)がRAIDドライバーに割り当てられて使用されます。
ただし、DDVEはRAID on LUN (ROL)の概念を使用して、特定のタイプのデータ破損(たとえば、基盤となるストレージアレイで検出/修復できないデータ破損)からデータを保護することに留意してください。ROLは、スライス5の領域の約5.6%をパリティー情報用に予約します。その結果、RAIDによりDDFSで使用可能な領域は約182.3Gbに制限されます(以下を参照。各セクターのサイズは512バイトであることに注意)。
Array [ppart2] (active): [raid-type 106] [(0x1, 0x30) options] [NVR:N/N] [4608KB stripe] [382362624 sectors] [382362624 total sectors]
[dm-4p5]
DDFSに割り当てられた最大182.3Gbの領域は、1075838976バイトのブロックに分割され、その結果、181個のブロックを作成できます。その後、ブロックはDDFS内で必要に応じて、さまざまな上位レベルのファイル システムに割り当てられます。DDFSの新しいインスタンスを作成する場合は、インデックス/サマリー ベクトル/CPメタ/予約済みブロック ファイル システムなどのメタデータに大量の領域を割り当てる必要があることに注意してください。
FIXED NUM BLOCK
SIZE SIZE BLOCKS SIZE NAME
Yes 194726854656 181 1075838976 /../vpart:/vol2/col1
Yes 194726854656 181 1075838976 /../vpart:/vol2/col1/cp1
No 37654364160 21 1075838976 /../vpart:/vol2/col1/cp1/cset
No 65626177536 61 1075838976 /../vpart:/vol2/col1/cp1/full_indices
No 22592618496 21 1075838976 /../vpart:/vol2/col1/cp1/partial_indices
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.0
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.1
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp_meta
No 10758389760 10 1075838976 /../vpart:/vol2/reserved_blocks
コンテナー セット(CSET:ユーザー データが格納される場所)以外のすべての要素は、1075838976バイトのブロックを95個分消費することに注意してください。その結果、CSETが使用できるブロックとして86個のブロックが残ります。86 × 1075838976バイト
CSET内では、メタデータに使用される領域はごくわずかですが、システム上の残りの1075838976バイトのブロックはすべて、4.5Mbのコンテナーを作成するために使用できると見積もられます。CSETのメタデータを確認すると、次のように表示されます。
cm_attrs.psize=4718592 <=== Each container is 4.5Mb
...
cm_attrs.max_containers=17403 <=== Maximum possible number of 'usable' containers
...
cm_attrs.reserved_containers=2176 <=== Reserved containers for internal operations
CSET内に作成できるコンテナーの合計数は17403 + 2176 = 19579となります。
各コンテナーのサイズは4.5Mbなので、19579個のコンテナーは86.0Gbのディスク領域に相当します。
ただし、予約されたコンテナーは内部でのみ使用されるため(クリーニングなどの操作)、ファイル システムの使用可能なサイズをユーザーに表示する際には考慮されません。そのため、DDFSファイル システムの「使用可能」サイズは17403 × 4.5Mb
このため、ユーザーが200Gbのディスクを1台追加し、DDFSのインスタンスを作成した後に「filesys show space」を実行した場合、DDFSファイル システムのサイズはわずか76.5Gbであると表示されます。
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 9.0 - - -
/data: post-comp 76.5 15.0 61.4 20% 1.1
/ddvar 49.2 1.3 45.4 3% -
/ddvar/core 158.5 0.7 149.7 0% -
---------------- -------- -------- --------- ---- --------------
その後に追加されるデータ ディスクのオーバーヘッドは大幅に小さくなります。
- 後続のディスクはext3ファイル システムを含みません
- DDFSメタデータは最初のディスクにすでに存在しているため、後続のディスクにはほとんど作成されません
例えば、2台目の100Gbディスクを追加して、DDFSを拡張する場合を想定してみましょう。このディスクでは、スライス5はRAIDドライバーに割り当てられます(最初のディスクと同様)が、スライス6については、まだ作成中であり、サイズは4Kbのみになります。
6 107GB 107GB 4096B primary
その結果、実質的に2番目のディスク全体がRAIDに割り当てられます(スライス5を介して)。RAIDは、この領域の5.6%をROLに使用し、残りの領域をDDFSに提供します。次の例では、100Gbのディスクのうち最大で94.3GbがDDFS使用可能な領域として提供されます。
Array [ppart3] (active): [raid-type 106] [(0x1, 0x30) options] [NVR:N/N] [4608KB stripe] [197858304 sectors] [197858304 total sectors]
[dm-2p5]
この領域は1075838976バイトのブロックに分割されるため、結果的にシステムはDDFSでの使用に追加の93ブロックを作成します。
FIXED NUM BLOCK
SIZE SIZE BLOCKS SIZE NAME
Yes 294779879424 274 1075838976 /../vpart:/vol1/col1
Yes 294779879424 274 1075838976 /../vpart:/vol1/col1/cp1
No 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/cset
No 65626177536 61 1075838976 /../vpart:/vol1/col1/cp1/full_indices
No 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/partial_indices
No 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.0
No 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.1
No 2151677952 2 1075838976 /../vpart:/vol1/col1/cp_meta
No 10758389760 10 1075838976 /../vpart:/vol1/reserved_blocks
すべてのメタデータ ファイル システムは最初のデータ ディスクにすでに作成されているため、2番目のディスクではメタデータのために1個のブロックのみが使用されます(cp_metaファイル システムを介して)。残りの領域はCSETで使用可能になり、通常のコンテナーで使用可能と見なされます。
cm_attrs.max_containers=38379
...
cm_attrs.reserved_containers=2176
38379 × 4.5Mb
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 168.7 0.1 168.6 0% 0.0
/ddvar 49.2 0.5 46.2 1% -
/ddvar/core 158.5 0.3 150.1 0% -
---------------- -------- -------- --------- ---- -------------
これは、以下の理由により、最初のデータ ディスクを除くすべてのデータ ディスクでオーバーヘッドが大幅に小さくなることを示しています。
最初の200Gbディスクから、DDFSは76.5Gbの使用可能領域を取得しました
2番目の100Gbデータ ディスクから、DDFSは92.2Gbの使用可能領域を取得しました
この傾向は、後続のすべてのデータ ディスクでも継続します。
最後に、DDFS内のメタデータ(インデックス ファイル システムなど)のサイズは固定されないことに注意する必要があります。システムのワークロードによっては、これらを拡張する必要があるため、CSETから使用可能な領域が奪われる可能性があります。このような場合、CSETの使用可能なサイズは減少します。これは予想されることです。そのため、基盤となるデータ ディスクのサイズが変わらない場合でも、CSETの合計サイズ(および「filesys show space」によって示されるDDFSファイル システムのサイズ)は、基盤となるデータ ディスクのサイズが変化しなくても、静的な値とは見なされません。
Additional Information
この記事に記載されている情報は、DDOS 5.7.30.0の時点で有効であり、以降のリリースで変更される可能性があることに注意してください。
Affected Products
Data Domain Virtual EditionProducts
Data Domain, Data Domain Virtual EditionArticle Properties
Article Number: 000059680
Article Type: Solution
Last Modified: 05 Sep 2025
Version: 3
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.