Data Domain Virtual Edition: DDVE(Data Domain Virtual Edition)의 데이터 디스크 공간 활용도에 대한 설명
Summary: DDVE(Data Domain Virtual Edition)의 데이터 디스크 공간 활용도에 대한 설명
This article applies to
This article does not apply to
This article is not tied to any specific product.
Not all product versions are identified in this article.
Symptoms
DDVE(Data Domain Virtual Edition)는 가상 환경에 DDR(Data Domain Restorer)을 구축할 수 있는 새로운 제품입니다. 구축이 완료되면 DDVE 내의 DDFS 파일 시스템에서 사용할 데이터 디스크를 프로비저닝해야 합니다. 이 문서에서는 이러한 데이터 디스크의 물리적 공간이 사용되는 방법과 DDFS 파일 시스템 내의 가용 공간이 모든 데이터 디스크의 총 크기보다 크게 낮을 수 있는 이유를 설명합니다.
Resolution
DDVE 인스턴스에 데이터 디스크를 추가할 때 특정 용량 규칙을 준수해야 합니다.
- 추가되는 첫 번째 데이터 디스크의 크기는 최소 200Gb여야 합니다.
- 모든 후속 데이터 디스크의 크기는 최소 100GB여야 합니다.
첫 번째 디스크의 크기가 최소 200GB여야 하는 이유는 아래에서 설명하는 대로 이 디스크에 상당한 오버헤드가 있기 때문입니다.
200GB 데이터 디스크가 DDVE에 제공되고 활성 계층에 추가되며 DDFS 파일 시스템의 인스턴스를 생성하는 데 사용된다고 가정해 보겠습니다. 물리적 디스크는 다음과 같이 사용됩니다.
처음에는 디스크가 데이터 스토리지에 사용되는 슬라이스 5와 ext3 파일 시스템에 사용되는 슬라이스 6으로 파티셔닝됩니다.
Model: Unknown (unknown)
Disk /dev/dm-4: 200GiB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 0.00GiB 0.00GiB 0.00GiB primary
2 0.00GiB 0.00GiB 0.00GiB primary
3 0.00GiB 0.01GiB 0.01GiB primary
4 0.01GiB 0.01GiB 0.00GiB primary
5 0.01GiB 193GiB 193GiB primary <=== 데이터 저장용으로 사용됨
6 193GiB 200GiB 6.77GiB primary <=== ext3용으로 사용됨
그 결과 약 193 GiB의 디스크 공간(slice 5) 이 RAID 드라이버에서 사용됩니다.
참고: 단, DDVE는 특정 유형의 데이터 손상을 방지하기 위해 기본 스토리지 어레이에서 감지·복구할 수 없는 오류에도 대비하는 ROL(RAID on LUN) 개념을 사용합니다. ROL은 패리티 정보를 위해 슬라이스 5의 약 5.6%의 공간을 예약합니다. 따라서 RAID는 DDFS에서 최대 182.3GB만 사용할 수 있도록 합니다(아래 참조 - 각 섹터의 크기는 512바이트임).
Array [ppart2] (active): [raid-type 106] [(0x1, 0x30) options] [NVR:N/N] [4608KB stripe] [382362624 sectors] [382362624 total sectors]
[dm-4p5]
DDFS에 주어진 ~182.3Gb의 공간은 1075838976바이트의 블록으로 분할되어 181개의 블록을 생성할 수 있습니다. 그런 다음 블록은 필요에 따라 DDFS 내의 다양한 상위 레벨 파일 시스템에 할당됩니다. DDFS의 새 인스턴스를 생성할 때는 인덱스/요약 벡터/CP 메타/예약된 블록 파일 시스템과 같은 메타데이터에 상당한 양의 공간을 할당해야 합니다
FIXED NUM BLOCK
SIZE SIZE BLOCKS SIZE NAME
Yes 194726854656 181 1075838976 /../vpart:/vol2/col1
Yes 194726854656 181 1075838976 /../vpart:/vol2/col1/cp1
No 37654364160 21 1075838976 /../vpart:/vol2/col1/cp1/cset
No 65626177536 61 1075838976 /../vpart:/vol2/col1/cp1/full_indices
No 22592618496 21 1075838976 /../vpart:/vol2/col1/cp1/partial_indices
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.0
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.1
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp_meta
No 10758389760 10 1075838976 /../vpart:/vol2/reserved_blocks
참고로 사용자 데이터가 저장되는 컨테이너 세트(CSET)를 제외한 모든 항목은 95 * 1075838976바이트 블록을 사용합니다. 결과적으로 CSET가 사용할 수 있는 잠재적인 블록이 86개 남아 있습니다. 86 * 1075838976바이트 = ~86.2Gb입니다.
CSET 내에서 메타데이터에 매우 작은 공간을 사용하며, 4.5Mb 컨테이너를 생성하기 위해 시스템에서 나머지 1075838976바이트 블록을 모두 사용할 수 있다고 추정합니다. CSET 메타데이터를 확인하면 다음이 표시됩니다.
cm_attrs.psize=4718592 <=== 각 컨테이너는 4.5Mb입니다
...
cm_attrs.max_containers=17403 <=== 가능한 '사용 가능한' 컨테이너의 최대 수
...
cm_attrs.reserved_containers=2176 <=== 내부 작업을 위한 예약된 컨테이너 수
CSET 내에서 생성할 수 있는 총 컨테이너 수는 17403 + 2176 = 19579입니다.
각 컨테이너의 크기는 4.5Mb이므로 19579개의 컨테이너는 86.0Gb 디스크 공간에 해당합니다.
참고: 예약된 컨테이너는 내부 전용이므로(정리 등의 작업을 통해) 사용자에게 파일 시스템의 가용 크기를 표시할 때는 고려되지 않습니다. 따라서 DDFS 파일 시스템의 '가용' 크기는 17403 * 4.5Mb = ~76.5Gb입니다
. 따라서 사용자가 200GB 디스크 하나를 추가하고 DDFS 인스턴스를 생성한 후 'filesys show space'를 실행하면 DDFS 파일 시스템의 크기가 76.5Gb에 불과한 것으로 표시됩니다.
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 9.0 - - -
/data: post-comp 76.5 15.0 61.4 20% 1.1
/ddvar 49.2 1.3 45.4 3% -
/ddvar/core 158.5 0.7 149.7 0% -
---------------- -------- -------- --------- ---- --------------
참고로 이후 추가되는 데이터 디스크의 오버헤드는 크게 낮습니다.
- 이후 디스크에는 ext3 파일 시스템이 생성되지 않습니다.
- DDFS 메타데이터는 첫 번째 디스크에 이미 존재하므로, 추가 디스크에는 거의 생성되지 않습니다.
예를 들어, 두 번째 100GB 디스크를 추가하고 DDFS를 확장한다고 가정해 보겠습니다. 이 디스크에서 슬라이스 5는 RAID 드라이버(첫 번째 디스크와 같이)에 제공되지만 슬라이스 6은 생성되는 동안 크기가 4KB만 됩니다.
6 107GB 107GB 4096B primary
결과적으로 두 번째 디스크 전체가 RAID에 할당됩니다(슬라이스 5를 통해). RAID는 ROL에 이 공간의 5.6%를 사용하며 나머지는 DDFS에 제공합니다. 다음 예에서는 100GB 디스크의 약 94.3Gb가 DDFS에 할당되어 사용할 수 있습니다.
Array [ppart3] (active): [raid-type 106] [(0x1, 0x30) options] [NVR:N/N] [4608KB stripe] [197858304 sectors] [197858304 total sectors]
[dm-2p5]
이 공간은 1075838976바이트 블록으로 분할됩니다. 따라서 시스템은 DDFS에 사용할 93개의 블록을 추가로 생성합니다.
FIXED NUM BLOCK
SIZE SIZE BLOCKS SIZE NAME
Yes 294779879424 274 1075838976 /../vpart:/vol1/col1
Yes 294779879424 274 1075838976 /../vpart:/vol1/col1/cp1
No 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/cset
No 65626177536 61 1075838976 /../vpart:/vol1/col1/cp1/full_indices
No 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/partial_indices
No 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.0
No 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.1
No 2151677952 2 1075838976 /../vpart:/vol1/col1/cp_meta
No 10758389760 10 1075838976 /../vpart:/vol1/reserved_blocks
참고로 모든 메타데이터 파일 시스템은 이미 첫 번째 데이터 디스크에서 생성되었기 때문에, 두 번째 디스크에서는 메타데이터용으로 단 하나의 블록만 사용됩니다(이는 cp_meta 파일 시스템을 통해). 나머지 공간은 CSET에서 사용할 수 있으며 일반 컨테이너에 사용할 수 있는 것으로 간주됩니다.
cm_attrs.max_containers=38379
...
cm_attrs.reserved_containers=2176
참고로 38379 * 4.5Mb = ~168.7Gb입니다.
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 168.7 0.1 168.6 0% 0.0
/ddvar 49.2 0.5 46.2 1% -
/ddvar/core 158.5 0.3 150.1 0% -
---------------- -------- -------- --------- ---- -------------
이는 첫 번째 데이터 디스크를 제외한 모든 디스크에서 오버헤드가 현저히 줄어든다는 것을 보여줍니다.
첫 번째 200GB 디스크에서 DDFS는 76.5GB의 사용 가능한 공간을 확보했습니다.
두 번째 100GB 데이터 디스크에서는 DDFS가 92.2GB의 사용 가능한 공간을 확보했습니다.
이러한 경향은 이후 추가되는 모든 데이터 디스크에서도 동일하게 이어집니다.
마지막으로, DDFS 내의 메타데이터(예: 인덱스 파일 시스템)는 고정된 크기가 아니라는 점에 유의해야 합니다. 시스템의 워크로드에 따라 CSET에서 가용 공간을 제거하기 위해 확장해야 할 수 있습니다. 이 경우 CSET의 가용 크기가 줄어듭니다. 이는 예상된 결과입니다. 기본 데이터 디스크의 크기가 변경되지 않더라도 CSET의 총 크기(및 'filesys show space'에 따른 DDFS 파일 시스템의 크기)는 정적인 값으로 간주해서는 안 됩니다.
- 추가되는 첫 번째 데이터 디스크의 크기는 최소 200Gb여야 합니다.
- 모든 후속 데이터 디스크의 크기는 최소 100GB여야 합니다.
첫 번째 디스크의 크기가 최소 200GB여야 하는 이유는 아래에서 설명하는 대로 이 디스크에 상당한 오버헤드가 있기 때문입니다.
200GB 데이터 디스크가 DDVE에 제공되고 활성 계층에 추가되며 DDFS 파일 시스템의 인스턴스를 생성하는 데 사용된다고 가정해 보겠습니다. 물리적 디스크는 다음과 같이 사용됩니다.
처음에는 디스크가 데이터 스토리지에 사용되는 슬라이스 5와 ext3 파일 시스템에 사용되는 슬라이스 6으로 파티셔닝됩니다.
Model: Unknown (unknown)
Disk /dev/dm-4: 200GiB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 0.00GiB 0.00GiB 0.00GiB primary
2 0.00GiB 0.00GiB 0.00GiB primary
3 0.00GiB 0.01GiB 0.01GiB primary
4 0.01GiB 0.01GiB 0.00GiB primary
5 0.01GiB 193GiB 193GiB primary <=== 데이터 저장용으로 사용됨
6 193GiB 200GiB 6.77GiB primary <=== ext3용으로 사용됨
그 결과 약 193 GiB의 디스크 공간(slice 5) 이 RAID 드라이버에서 사용됩니다.
참고: 단, DDVE는 특정 유형의 데이터 손상을 방지하기 위해 기본 스토리지 어레이에서 감지·복구할 수 없는 오류에도 대비하는 ROL(RAID on LUN) 개념을 사용합니다. ROL은 패리티 정보를 위해 슬라이스 5의 약 5.6%의 공간을 예약합니다. 따라서 RAID는 DDFS에서 최대 182.3GB만 사용할 수 있도록 합니다(아래 참조 - 각 섹터의 크기는 512바이트임).
Array [ppart2] (active): [raid-type 106] [(0x1, 0x30) options] [NVR:N/N] [4608KB stripe] [382362624 sectors] [382362624 total sectors]
[dm-4p5]
DDFS에 주어진 ~182.3Gb의 공간은 1075838976바이트의 블록으로 분할되어 181개의 블록을 생성할 수 있습니다. 그런 다음 블록은 필요에 따라 DDFS 내의 다양한 상위 레벨 파일 시스템에 할당됩니다. DDFS의 새 인스턴스를 생성할 때는 인덱스/요약 벡터/CP 메타/예약된 블록 파일 시스템과 같은 메타데이터에 상당한 양의 공간을 할당해야 합니다
FIXED NUM BLOCK
SIZE SIZE BLOCKS SIZE NAME
Yes 194726854656 181 1075838976 /../vpart:/vol2/col1
Yes 194726854656 181 1075838976 /../vpart:/vol2/col1/cp1
No 37654364160 21 1075838976 /../vpart:/vol2/col1/cp1/cset
No 65626177536 61 1075838976 /../vpart:/vol2/col1/cp1/full_indices
No 22592618496 21 1075838976 /../vpart:/vol2/col1/cp1/partial_indices
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.0
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.1
No 1075838976 1 1075838976 /../vpart:/vol2/col1/cp_meta
No 10758389760 10 1075838976 /../vpart:/vol2/reserved_blocks
참고로 사용자 데이터가 저장되는 컨테이너 세트(CSET)를 제외한 모든 항목은 95 * 1075838976바이트 블록을 사용합니다. 결과적으로 CSET가 사용할 수 있는 잠재적인 블록이 86개 남아 있습니다. 86 * 1075838976바이트 = ~86.2Gb입니다.
CSET 내에서 메타데이터에 매우 작은 공간을 사용하며, 4.5Mb 컨테이너를 생성하기 위해 시스템에서 나머지 1075838976바이트 블록을 모두 사용할 수 있다고 추정합니다. CSET 메타데이터를 확인하면 다음이 표시됩니다.
cm_attrs.psize=4718592 <=== 각 컨테이너는 4.5Mb입니다
...
cm_attrs.max_containers=17403 <=== 가능한 '사용 가능한' 컨테이너의 최대 수
...
cm_attrs.reserved_containers=2176 <=== 내부 작업을 위한 예약된 컨테이너 수
CSET 내에서 생성할 수 있는 총 컨테이너 수는 17403 + 2176 = 19579입니다.
각 컨테이너의 크기는 4.5Mb이므로 19579개의 컨테이너는 86.0Gb 디스크 공간에 해당합니다.
참고: 예약된 컨테이너는 내부 전용이므로(정리 등의 작업을 통해) 사용자에게 파일 시스템의 가용 크기를 표시할 때는 고려되지 않습니다. 따라서 DDFS 파일 시스템의 '가용' 크기는 17403 * 4.5Mb = ~76.5Gb입니다
. 따라서 사용자가 200GB 디스크 하나를 추가하고 DDFS 인스턴스를 생성한 후 'filesys show space'를 실행하면 DDFS 파일 시스템의 크기가 76.5Gb에 불과한 것으로 표시됩니다.
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 9.0 - - -
/data: post-comp 76.5 15.0 61.4 20% 1.1
/ddvar 49.2 1.3 45.4 3% -
/ddvar/core 158.5 0.7 149.7 0% -
---------------- -------- -------- --------- ---- --------------
참고로 이후 추가되는 데이터 디스크의 오버헤드는 크게 낮습니다.
- 이후 디스크에는 ext3 파일 시스템이 생성되지 않습니다.
- DDFS 메타데이터는 첫 번째 디스크에 이미 존재하므로, 추가 디스크에는 거의 생성되지 않습니다.
예를 들어, 두 번째 100GB 디스크를 추가하고 DDFS를 확장한다고 가정해 보겠습니다. 이 디스크에서 슬라이스 5는 RAID 드라이버(첫 번째 디스크와 같이)에 제공되지만 슬라이스 6은 생성되는 동안 크기가 4KB만 됩니다.
6 107GB 107GB 4096B primary
결과적으로 두 번째 디스크 전체가 RAID에 할당됩니다(슬라이스 5를 통해). RAID는 ROL에 이 공간의 5.6%를 사용하며 나머지는 DDFS에 제공합니다. 다음 예에서는 100GB 디스크의 약 94.3Gb가 DDFS에 할당되어 사용할 수 있습니다.
Array [ppart3] (active): [raid-type 106] [(0x1, 0x30) options] [NVR:N/N] [4608KB stripe] [197858304 sectors] [197858304 total sectors]
[dm-2p5]
이 공간은 1075838976바이트 블록으로 분할됩니다. 따라서 시스템은 DDFS에 사용할 93개의 블록을 추가로 생성합니다.
FIXED NUM BLOCK
SIZE SIZE BLOCKS SIZE NAME
Yes 294779879424 274 1075838976 /../vpart:/vol1/col1
Yes 294779879424 274 1075838976 /../vpart:/vol1/col1/cp1
No 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/cset
No 65626177536 61 1075838976 /../vpart:/vol1/col1/cp1/full_indices
No 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/partial_indices
No 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.0
No 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.1
No 2151677952 2 1075838976 /../vpart:/vol1/col1/cp_meta
No 10758389760 10 1075838976 /../vpart:/vol1/reserved_blocks
참고로 모든 메타데이터 파일 시스템은 이미 첫 번째 데이터 디스크에서 생성되었기 때문에, 두 번째 디스크에서는 메타데이터용으로 단 하나의 블록만 사용됩니다(이는 cp_meta 파일 시스템을 통해). 나머지 공간은 CSET에서 사용할 수 있으며 일반 컨테이너에 사용할 수 있는 것으로 간주됩니다.
cm_attrs.max_containers=38379
...
cm_attrs.reserved_containers=2176
참고로 38379 * 4.5Mb = ~168.7Gb입니다.
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 168.7 0.1 168.6 0% 0.0
/ddvar 49.2 0.5 46.2 1% -
/ddvar/core 158.5 0.3 150.1 0% -
---------------- -------- -------- --------- ---- -------------
이는 첫 번째 데이터 디스크를 제외한 모든 디스크에서 오버헤드가 현저히 줄어든다는 것을 보여줍니다.
첫 번째 200GB 디스크에서 DDFS는 76.5GB의 사용 가능한 공간을 확보했습니다.
두 번째 100GB 데이터 디스크에서는 DDFS가 92.2GB의 사용 가능한 공간을 확보했습니다.
이러한 경향은 이후 추가되는 모든 데이터 디스크에서도 동일하게 이어집니다.
마지막으로, DDFS 내의 메타데이터(예: 인덱스 파일 시스템)는 고정된 크기가 아니라는 점에 유의해야 합니다. 시스템의 워크로드에 따라 CSET에서 가용 공간을 제거하기 위해 확장해야 할 수 있습니다. 이 경우 CSET의 가용 크기가 줄어듭니다. 이는 예상된 결과입니다. 기본 데이터 디스크의 크기가 변경되지 않더라도 CSET의 총 크기(및 'filesys show space'에 따른 DDFS 파일 시스템의 크기)는 정적인 값으로 간주해서는 안 됩니다.
Additional Information
이 문서에 포함된 정보는 DDOS 5.7.30.0 기준으로 유효하며 후속 릴리스에서 변경될 수 있습니다.
Affected Products
Data Domain Virtual EditionProducts
Data Domain, Data Domain Virtual EditionArticle Properties
Article Number: 000059680
Article Type: Solution
Last Modified: 05 Sep 2025
Version: 3
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.