Data Domain Virtual Edition:Data Domain Virtual Edition (DDVE) 上的数据磁盘空间利用率说明
Summary: Data Domain Virtual Edition (DDVE) 上的数据磁盘空间利用率说明
This article applies to
This article does not apply to
This article is not tied to any specific product.
Not all product versions are identified in this article.
Symptoms
Data Domain Virtual Edition (DDVE) 是一款新产品,允许在虚拟环境中部署 Data Domain Restorer (DDR)。部署完成后,必须调配数据磁盘以供 DDVE 中的 DDFS 文件系统使用。本文将解释数据磁盘上物理空间的使用方式,以及为什么 DDFS 文件系统中的可用空间可能明显低于所有数据磁盘的总大小。
Resolution
在向 DDVE 实例添加数据磁盘时,请务必遵守以下特定容量规则:
— 添加的第一个数据磁盘的容量大小不得低于 200 GB
— 所有后续添加的数据磁盘的容量大小不得低于 100 GB
第一个磁盘的容量大小不得低于 200 GB 的原因是该磁盘会承担大量的开销,如下所述。
假设一下,为 DDVE 配置一块 200 GB 的数据磁盘,将该磁盘添加到活动层,并用其来创建 DDFS 文件系统实例。物理磁盘的使用方式如下:
最初,磁盘分区为切片 5 用于数据存储,切片 6 用于 ext3 文件系统:
型号:未知(未知)
Disk /dev/dm-4:200GiB
Sector size (logical/physical): 512 B/512 B
分区表:gpt
编号 起始 结束 容量大小 文件系统 名称 标记
1 0.00GiB 0.00GiB 0.00GiB 主
2 0.00GiB 0.00GiB 0.00GiB 主
3 0.00GiB 0.01GiB 0.01GiB 主
4 0.01GiB 0.01GiB 0.00GiB 主
5 0.01GiB 193GiB 193GiB 主 <=== 用于数据存储
6 193GiB 200GiB 6.77GiB 主 <=== 用于 ext3
因此,约 193 GB 的磁盘空间(切片 5)将提供给 RAID 驱动程序使用。
但请注意,该 DDVE 采用的是一种在 LUN 上支持 RAID (ROL) 的技术理念,用于防范某些类型的数据损坏(例如底层存储阵列无法检测/修复的数据损坏)。ROL 会在切片 5 中为奇偶校验信息保留约 5.6% 的空间。因此,RAID 将仅能提供约 182.3 GB 的空间供 DDFS 使用(如下所示 — 请注意每个扇区的空间大小为 512 字节):
阵列 [ppart2](活动):[RAID-类型 106] [(0x1, 0x30) 选项] [NVR:N/N] [4608 KB 条带] [382362624 个扇区] [共 382362624 个扇区]
[dm-4p5]
这一约为 182.3 GB 的空间会提供给 DDFS 使用,并会被划分成数个大小为 1075838976 字节的数据块,这样一来,我们可以创建 181 个这样的数据块。这些数据块随后根据需要分配给 DDFS 中的各种上层文件系统。请注意,创建新的 DDFS 实例时,需要为索引/摘要矢量/CP 元数据/保留数据块文件系统等元数据分配大量空间,具体分配空间如下:
固定分配 数量 数据块
空间大小 空间大小 数据块空间大小 名称
是 194726854656 181 1075838976 /../vpart:/vol2/col1
是 194726854656 181 1075838976 /../vpart:/vol2/col1/cp1
否 37654364160 21 1075838976 /../vpart:/vol2/col1/cp1/cset
否 65626177536 61 1075838976 /../vpart:/vol2/col1/cp1/full_indices
否 22592618496 21 1075838976 /../vpart:/vol2/col1/cp1/partial_indices
否 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.0
否 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.1
否 1075838976 1 1075838976 /../vpart:/vol2/col1/cp_meta
否 10758389760 10 1075838976 /../vpart:/vol2/reserved_blocks
请注意,除容器集(CSET — 用于存储用户数据的位置)之外,所有组件共占用了 95 个数据块,每个数据块的空间大小为 1075838976 字节。因此,还剩 86 个数据块可供 CSET 使用。请注意,86 个数据块 * 1075838976 字节 = 约86.2 GB。
在 CSET 中,我们仅会将非常少量的空间用于元数据,然后我们可以预估,能将系统中剩余的所有 1075838976 字节的数据块用于创建若干个 4.5 MB 的容器。检查 CSET 元数据时,我们会看到:
cm_attrs.psize=4718592 <=== 每个容器的空间大小为 4.5 MB
...
cm_attrs.max_containers=17403 <===“可用”容器的最大可能数量
...
cm_attrs.reserved_containers=2176 <=== 用于内部操作的保留容器数量
CSET 内可创建的容器数量总计为:17403 + 2176 = 19579
每个容器的空间大小为 4.5 MB,所以 19579 个容器相当于 86.0 GB 的磁盘空间
但请注意,这些保留容器仅供内部操作使用(如用于清理等操作),因此在向用户展示文件系统的可用空间大小时不包含这部分空间。如此一来,DDFS 文件系统的“可用”空间大小为:17403 个容器 * 4.5 MB = 约 76.5 GB
鉴于此,如果用户在添加了单个 200 GB 磁盘并创建了一个 DDFS 实例后再运行“filesys show space”,他们会看到该 DDFS 文件系统的大小仅为 76.5 GB,具体情况如下:
活动层:
资源 空间大小 GiB 已用空间 GiB 可用空间 GiB 已用空间百分比 % 可清理空间 GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 9.0 - - -
/data: post-comp 76.5 15.0 61.4 20% 1.1
/ddvar 49.2 1.3 45.4 3% -
/ddvar/core 158.5 0.7 149.7 0% -
---------------- -------- -------- --------- ---- --------------
请注意,后续添加的数据磁盘开销将显著降低,原因在于:
— 后续磁盘不需要承载 ext3 文件系统
— DDFS 元数据已存在于添加的第一块磁盘上,后续磁盘上几乎不会新增元数据
例如,假设我们添加了第二个 100 GB 的磁盘,扩展了 DDFS。本磁盘上,切片 5 将分配给 RAID 驱动程序(与第一个磁盘相同),但切片 6 虽然正在创建中,但其大小仅为 4KB。
6 107 GB 107 GB 4096 B 主
这样一来,第二个磁盘的几乎全部容量都会被提供给 RAID 使用(通过切片 5)。ROL 会将此空间的 5.6% 用于 ROL,其余空间则会提供给 DDFS 使用。如下例所示,一个 100 GB 的磁盘,其约 94.3 GB 的空间会提供给 DDFS 使用,具体情况如下:
阵列 [ppart3](活动):[RAID-类型 106] [(0x1, 0x30) 选项] [NVR:N/N] [4608 KB 条带] [197858304 个扇区] [共 197858304 个扇区]
[dm-2p5]
此空间会被划分成数个大小为 1075838976 字节的数据块,这样一来,系统可创建 93 个额外的数据块供 DDFS 使用:
固定分配 数量 数据块
空间大小 空间大小 数据块空间大小 名称
是 294779879424 274 1075838976 /../vpart:/vol1/col1
是 294779879424 274 1075838976 /../vpart:/vol1/col1/cp1
否 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/cset
否 65626177536 61 1075838976 /../vpart:/vol1/col1/cp1/full_indices
否 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/partial_indices
否 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.0
否 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.1
否 2151677952 2 1075838976 /../vpart:/vol1/col1/cp_meta
否 10758389760 10 1075838976 /../vpart:/vol1/reserved_blocks
请注意,由于所有元数据都已在第一个磁盘上创建,因此第二个磁盘上仅有一个数据块会用于元数据(通过 cp_元数据文件系统)。其剩余空间会提供给 CSET 使用,并会作为正常容器的可用空间,具体情况如下:
cm_attrs.max_containers=38379
...
cm_attrs.reserved_containers=2176
请注意,该空间大小为:38379 个容器 * 4.5 MB = 约 168.7 GB:
资源 空间大小 GiB 已用空间 GiB 可用空间 GiB 已用空间百分比 % 可清理空间 GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 168.7 0.1 168.6 0% 0.0
/ddvar 49.2 0.5 46.2 1% -
/ddvar/core 158.5 0.3 150.1 0% -
---------------- -------- -------- --------- ---- -------------
此内容显示,除第一个磁盘外,其余磁盘的开销都会大幅减少:
从第一个 200 GB 磁盘中获得了 76.5 GB 的可用空间
从第二个 100 GB 磁盘中获得了 92.2 GB 的可用空间
此趋势会在后续添加的磁盘中继续延续。
最后请注意,DDFS 内的元数据(如索引文件系统)占用的空间大小并非是固定不变的。其空间大小根据系统工作负载而定,一旦需要扩展,即会挤占 CSET 的可用空间。如果发生这种情况,则 CSET 的可用大小将会减小。这种情况在预料之内,因此,即便底层数据磁盘的空间大小不变,CSET 的总空间大小(以及通过运行“filesys show space”显示的 DDFS 文件系统空间大小)也不应被视为一个静态值。
— 添加的第一个数据磁盘的容量大小不得低于 200 GB
— 所有后续添加的数据磁盘的容量大小不得低于 100 GB
第一个磁盘的容量大小不得低于 200 GB 的原因是该磁盘会承担大量的开销,如下所述。
假设一下,为 DDVE 配置一块 200 GB 的数据磁盘,将该磁盘添加到活动层,并用其来创建 DDFS 文件系统实例。物理磁盘的使用方式如下:
最初,磁盘分区为切片 5 用于数据存储,切片 6 用于 ext3 文件系统:
型号:未知(未知)
Disk /dev/dm-4:200GiB
Sector size (logical/physical): 512 B/512 B
分区表:gpt
编号 起始 结束 容量大小 文件系统 名称 标记
1 0.00GiB 0.00GiB 0.00GiB 主
2 0.00GiB 0.00GiB 0.00GiB 主
3 0.00GiB 0.01GiB 0.01GiB 主
4 0.01GiB 0.01GiB 0.00GiB 主
5 0.01GiB 193GiB 193GiB 主 <=== 用于数据存储
6 193GiB 200GiB 6.77GiB 主 <=== 用于 ext3
因此,约 193 GB 的磁盘空间(切片 5)将提供给 RAID 驱动程序使用。
但请注意,该 DDVE 采用的是一种在 LUN 上支持 RAID (ROL) 的技术理念,用于防范某些类型的数据损坏(例如底层存储阵列无法检测/修复的数据损坏)。ROL 会在切片 5 中为奇偶校验信息保留约 5.6% 的空间。因此,RAID 将仅能提供约 182.3 GB 的空间供 DDFS 使用(如下所示 — 请注意每个扇区的空间大小为 512 字节):
阵列 [ppart2](活动):[RAID-类型 106] [(0x1, 0x30) 选项] [NVR:N/N] [4608 KB 条带] [382362624 个扇区] [共 382362624 个扇区]
[dm-4p5]
这一约为 182.3 GB 的空间会提供给 DDFS 使用,并会被划分成数个大小为 1075838976 字节的数据块,这样一来,我们可以创建 181 个这样的数据块。这些数据块随后根据需要分配给 DDFS 中的各种上层文件系统。请注意,创建新的 DDFS 实例时,需要为索引/摘要矢量/CP 元数据/保留数据块文件系统等元数据分配大量空间,具体分配空间如下:
固定分配 数量 数据块
空间大小 空间大小 数据块空间大小 名称
是 194726854656 181 1075838976 /../vpart:/vol2/col1
是 194726854656 181 1075838976 /../vpart:/vol2/col1/cp1
否 37654364160 21 1075838976 /../vpart:/vol2/col1/cp1/cset
否 65626177536 61 1075838976 /../vpart:/vol2/col1/cp1/full_indices
否 22592618496 21 1075838976 /../vpart:/vol2/col1/cp1/partial_indices
否 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.0
否 1075838976 1 1075838976 /../vpart:/vol2/col1/cp1/summary.1
否 1075838976 1 1075838976 /../vpart:/vol2/col1/cp_meta
否 10758389760 10 1075838976 /../vpart:/vol2/reserved_blocks
请注意,除容器集(CSET — 用于存储用户数据的位置)之外,所有组件共占用了 95 个数据块,每个数据块的空间大小为 1075838976 字节。因此,还剩 86 个数据块可供 CSET 使用。请注意,86 个数据块 * 1075838976 字节 = 约86.2 GB。
在 CSET 中,我们仅会将非常少量的空间用于元数据,然后我们可以预估,能将系统中剩余的所有 1075838976 字节的数据块用于创建若干个 4.5 MB 的容器。检查 CSET 元数据时,我们会看到:
cm_attrs.psize=4718592 <=== 每个容器的空间大小为 4.5 MB
...
cm_attrs.max_containers=17403 <===“可用”容器的最大可能数量
...
cm_attrs.reserved_containers=2176 <=== 用于内部操作的保留容器数量
CSET 内可创建的容器数量总计为:17403 + 2176 = 19579
每个容器的空间大小为 4.5 MB,所以 19579 个容器相当于 86.0 GB 的磁盘空间
但请注意,这些保留容器仅供内部操作使用(如用于清理等操作),因此在向用户展示文件系统的可用空间大小时不包含这部分空间。如此一来,DDFS 文件系统的“可用”空间大小为:17403 个容器 * 4.5 MB = 约 76.5 GB
鉴于此,如果用户在添加了单个 200 GB 磁盘并创建了一个 DDFS 实例后再运行“filesys show space”,他们会看到该 DDFS 文件系统的大小仅为 76.5 GB,具体情况如下:
活动层:
资源 空间大小 GiB 已用空间 GiB 可用空间 GiB 已用空间百分比 % 可清理空间 GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 9.0 - - -
/data: post-comp 76.5 15.0 61.4 20% 1.1
/ddvar 49.2 1.3 45.4 3% -
/ddvar/core 158.5 0.7 149.7 0% -
---------------- -------- -------- --------- ---- --------------
请注意,后续添加的数据磁盘开销将显著降低,原因在于:
— 后续磁盘不需要承载 ext3 文件系统
— DDFS 元数据已存在于添加的第一块磁盘上,后续磁盘上几乎不会新增元数据
例如,假设我们添加了第二个 100 GB 的磁盘,扩展了 DDFS。本磁盘上,切片 5 将分配给 RAID 驱动程序(与第一个磁盘相同),但切片 6 虽然正在创建中,但其大小仅为 4KB。
6 107 GB 107 GB 4096 B 主
这样一来,第二个磁盘的几乎全部容量都会被提供给 RAID 使用(通过切片 5)。ROL 会将此空间的 5.6% 用于 ROL,其余空间则会提供给 DDFS 使用。如下例所示,一个 100 GB 的磁盘,其约 94.3 GB 的空间会提供给 DDFS 使用,具体情况如下:
阵列 [ppart3](活动):[RAID-类型 106] [(0x1, 0x30) 选项] [NVR:N/N] [4608 KB 条带] [197858304 个扇区] [共 197858304 个扇区]
[dm-2p5]
此空间会被划分成数个大小为 1075838976 字节的数据块,这样一来,系统可创建 93 个额外的数据块供 DDFS 使用:
固定分配 数量 数据块
空间大小 空间大小 数据块空间大小 名称
是 294779879424 274 1075838976 /../vpart:/vol1/col1
是 294779879424 274 1075838976 /../vpart:/vol1/col1/cp1
否 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/cset
否 65626177536 61 1075838976 /../vpart:/vol1/col1/cp1/full_indices
否 22592618496 21 1075838976 /../vpart:/vol1/col1/cp1/partial_indices
否 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.0
否 1075838976 1 1075838976 /../vpart:/vol1/col1/cp1/summary.1
否 2151677952 2 1075838976 /../vpart:/vol1/col1/cp_meta
否 10758389760 10 1075838976 /../vpart:/vol1/reserved_blocks
请注意,由于所有元数据都已在第一个磁盘上创建,因此第二个磁盘上仅有一个数据块会用于元数据(通过 cp_元数据文件系统)。其剩余空间会提供给 CSET 使用,并会作为正常容器的可用空间,具体情况如下:
cm_attrs.max_containers=38379
...
cm_attrs.reserved_containers=2176
请注意,该空间大小为:38379 个容器 * 4.5 MB = 约 168.7 GB:
资源 空间大小 GiB 已用空间 GiB 可用空间 GiB 已用空间百分比 % 可清理空间 GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 168.7 0.1 168.6 0% 0.0
/ddvar 49.2 0.5 46.2 1% -
/ddvar/core 158.5 0.3 150.1 0% -
---------------- -------- -------- --------- ---- -------------
此内容显示,除第一个磁盘外,其余磁盘的开销都会大幅减少:
从第一个 200 GB 磁盘中获得了 76.5 GB 的可用空间
从第二个 100 GB 磁盘中获得了 92.2 GB 的可用空间
此趋势会在后续添加的磁盘中继续延续。
最后请注意,DDFS 内的元数据(如索引文件系统)占用的空间大小并非是固定不变的。其空间大小根据系统工作负载而定,一旦需要扩展,即会挤占 CSET 的可用空间。如果发生这种情况,则 CSET 的可用大小将会减小。这种情况在预料之内,因此,即便底层数据磁盘的空间大小不变,CSET 的总空间大小(以及通过运行“filesys show space”显示的 DDFS 文件系统空间大小)也不应被视为一个静态值。
Additional Information
本文中包含的信息自 DDOS 5.7.30.0 起有效,并且在后续版本中可能会更改。
Affected Products
Data Domain Virtual EditionProducts
Data Domain, Data Domain Virtual EditionArticle Properties
Article Number: 000059680
Article Type: Solution
Last Modified: 05 Sep 2025
Version: 3
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.