Data Domain:Data Domain 文件系统(DDFS)清理/垃圾数据收集(GC)阶段概览
Summary: 本文概述了 Data Domain 清理/垃圾数据收集期间的阶段,并介绍了在不同版本的 Data Domain 操作系统中使用的各种清理算法之间的区别。
This article applies to
This article does not apply to
This article is not tied to any specific product.
Not all product versions are identified in this article.
Symptoms
Data Domain 文件系统(DDFS)不同于许多常见文件系统的实施方式,在从文件系统中删除文件时,如果从该文件使用的文件系统空间中删除了文件,则不能立即使用。原因是因为 Data Domain Restorer (DDR)不会立即确定是否已删除的文件引用的数据也会被其他文件重复数据消除,因此是否可以安全地删除该数据。
清理(有时也称为垃圾收集/GC)是 DDR 的过程:
的情况下,也是如此。本文介绍了清理/GC 的更多详细信息,其中介绍了以下内容:
清理(有时也称为垃圾收集/GC)是 DDR 的过程:
- 确定磁盘上的哪些数据是多余的(即不再由文件或快照等对象引用)
- 以物理方式删除多余的数据,使底层磁盘空间可供重复使用(即接收新数据)
- 长期运行
- 计算成本高昂
的情况下,也是如此。本文介绍了清理/GC 的更多详细信息,其中介绍了以下内容:
- 清理通常运行的阶段
- 各种 DDOS 版本中使用的不同清理算法
Cause
无
Resolution
每次运行 "clean/GC" 时,都有两个主要用途—首先它必须在 DDR 上找到多余的数据,简要概述如何完成此操作,如下所示:
请注意,在清理/GC 到达拷贝阶段之前,不会在系统上物理释放空间。因此,开始清理和开始释放空间之间可能存在显著延迟(因为必须首先运行完成的枚举进程)。因此,在启动清理/GC 之前,不应允许系统填满100%。
枚举阶段的成本通常是 cpu utilisation (即通常绑定 CPU)的成本,而拷贝阶段的成本代价是 CPU 和 i/o (即通常是 CPU 和 i/o 绑定的)。但在摘要中,可以说:
DDOS 5.4 (及更低版本)—全清晰算法:运行6或10个阶段(如上图所示):
当从 DDOS 5.x 升级到6.0 (或更高版本)时,同样的 Ddr 会自动从物理到完美的物理清理算法进行切换。但是请注意,理想的物理清理算法要求索引为 "索引 2.0" 格式,然后才能使用。请注意:
如上面所述,无论使用何种清理/GC 算法,clean 都可能需要可变数量的阶段—例如完整的清理算法可能需要6或10个阶段。这样做的原因是:
没有可用于直接确定系统是否已从物理干净算法切换到完全清晰的物理清理算法的信息:
无论使用何种干净算法,拷贝阶段(在物理上从系统中取出死数据)的功能都在所有版本中以相似的方式工作。拷贝阶段的性能通常取决于:
示例1:
与示例2中所述的拷贝相比,要显著增加 i/o 和 CPU 的数量非常大,因此,在此示例中,将显著释放45Mb 物理空间。
用户通常无法控制 DDR 上磁盘上的死数据,因为这很多取决于写入系统的数据的使用情形/类型。但是请注意,清理/GC 确实会保留统计信息,以帮助确定在拷贝阶段中遇到的死数据的 "零碎" (因此允许用户确定此碎片是否可以解释可能长时间运行的拷贝阶段)。Autosupports 中收集了来自全新/GC 的最新阶段的此类统计信息。例如,下面显示了死数据相当连续的拷贝阶段(即,大多数为拷贝保存选择的容器数通常会失效数据):
拷贝的活动数据的百分比: 3.6% 4.3%
相反,下图显示了发生故障的数据被分段的拷贝阶段(即,大多数选择用于拷贝存储的容器大部分活动数据):
拷贝的活动数据的百分比: 70.9% 71.5%
如上面所述,清理/GC 将必须在第二种情况下执行相对更多的工作,以实现 DDR 上的物理可用空间,这会导致拷贝阶段的吞吐量减少。
拷贝阶段的吞吐量也会受到以下影响:
- Clean/GC 可枚举 DDFS 文件系统的内容,查找系统中当前存在的文件、快照和复制日志等对象
- 然后,它将确定这些对象积极引用的磁盘上的所有物理数据
- 主动引用的数据被称为 "live",不能从 DDR 中删除; 否则,引用此数据的对象将被损坏(这些数据将无法再被读取为其依赖的底层数据将不再存在于磁盘上)
- 任何对象无法主动引用的数据被视为 "失效",并且是多余的—此数据可以安全地从系统中删除。
- DDR 中的所有数据都打包为大小为 4.5 Mb 的对象(称为容器)
- 通过枚举清理/GC 可以确定哪些 4.5 Mb 容器保存失效数据,以及每个
- 默认情况下,clean/GC 将选择包含 "处理" > 8% 的失效数据的 4.5 Mb 容器
- 再次检查选择用于处理的容器,以确认其是否拥有大量失效数据
- 实时数据从这些容器中提取并写入到文件系统末尾的新 4.5 Mb 容器中
- 完成后,所选容器(包括其包含的死数据)将从物理上释放磁盘空间的磁盘中删除。
- 在 DDR 上使用的 DDOS 版本(因此,默认情况下,此版本的 DDOS 使用的是清理算法)
- 系统的配置/内容
- 预枚举—枚举 DDFS 文件系统的内容
- 预合并—执行 DDFS 索引合并,以确保将索引信息的最新副本刷新到磁盘
- 预先筛选器—确定 DDFS 文件系统中是否存在重复数据,如果是,则为
- 预先选择-确定应通过清理来 "处理" 4.5 Mb 容器
- Copy —从所选容器进行物理提取,将此数据写入新容器,然后删除选定容器
- Summary —重建摘要向量(在接收新数据的过程中用作 optimisation)
请注意,在清理/GC 到达拷贝阶段之前,不会在系统上物理释放空间。因此,开始清理和开始释放空间之间可能存在显著延迟(因为必须首先运行完成的枚举进程)。因此,在启动清理/GC 之前,不应允许系统填满100%。
枚举阶段的成本通常是 cpu utilisation (即通常绑定 CPU)的成本,而拷贝阶段的成本代价是 CPU 和 i/o (即通常是 CPU 和 i/o 绑定的)。但在摘要中,可以说:
- 枚举阶段的总长度取决于需要枚举的 DDR 数据量
- 拷贝阶段的总长度取决于需要删除的 DDR 上的失效数据量,以及数据在磁盘上的碎片化程度(如下所述)
DDOS 5.4 (及更低版本)—全清晰算法:运行6或10个阶段(如上图所示):
- DDFS 文件系统的内容枚举从上到下(即,以文件为中心)
- DDFS 会发现 DDR 上存在的所有文件,然后依次扫描每个文件,以确定该文件引用的数据
- 这允许清理/GC 确定磁盘上的哪些数据是 "live"
- DDFS 的内容将向上枚举(即它不再扫描单个文件)
- DDFS 会发现在磁盘上引用物理数据的文件系统元数据,并扫描该元数据以确定引用的数据
- 这允许清理/GC 确定磁盘上的哪些数据是 "live"
- 这是通过添加 "分析" 阶段实现的(因此,在完整清理算法中的相位计数增加)
- 但是,在大多数情况下,物理清理的总持续时间预计比同一系统的完全干净要短(尽管包含多个单独的阶段)
- 这只是一个 optimisation 的物理干净算法,并在下面将进一步讨论
- 大量小文件(当从一个文件的枚举移至下一个文件时,上下文切换非常昂贵/缓慢)
- 高重复数据消除率(作为多个文件引用相同的物理数据,以便多次枚举相同的数据)
当从 DDOS 5.x 升级到6.0 (或更高版本)时,同样的 Ddr 会自动从物理到完美的物理清理算法进行切换。但是请注意,理想的物理清理算法要求索引为 "索引 2.0" 格式,然后才能使用。请注意:
- "索引 2.0" 格式随 DDOS 5.5 引入(因此,在5.5 或更高版本上创建的所有文件系统均已使用索引2.0)
- 在5.4 或更低版本上创建的文件系统最初将具有索引1.0 格式的索引。升级到 DDOS 5.5 (或更高版本)后,索引将转换为索引2.0 格式—每次清理时,都会发生 ~ 1% 的索引在每个清理期间只进行转换,因此可能需要最多2年(假定每周运行一次清理)将索引完全转换为2.0 格式
如上面所述,无论使用何种清理/GC 算法,clean 都可能需要可变数量的阶段—例如完整的清理算法可能需要6或10个阶段。这样做的原因是:
- DDFS 启动后,它会保留要由清理/GC 使用的固定内存量
- 在此内存清理/GC 中,创建数据结构以描述枚举的结果(即磁盘上存在 live 与死数据的位置)
- 当 DDR 包含相对少量的数据时,DDFS 文件系统的完整内容可以在此内存区域中进行说明
- 但是,在许多系统上,在枚举 DDFS 文件系统的全部内容之前,此内存区域可能会耗尽
- 因此,这些系统会执行 "采样",这会增加所需的清理阶段数
- 在整个文件系统中执行枚举的采样传递—请注意,此枚举不是 "complete" (即,它不会记录有关文件系统每个部分的完整信息,而不是近似于文件系统的每个部分的信息)
- 使用此采样信息可以确定 DDFS 文件系统的哪个部分将获得最大的优势,以便对其进行清理/GC (例如,文件系统的哪个部分在被清理的空间方面得到了最佳返回)
- 针对文件系统的所选部分执行第二轮枚举,其内容现在可以在保留用于 GC 的内存内完全描述
- 需要通过清理/GC 执行的阶段数增加
- 清理/GC 的总持续时间的对应增加
没有可用于直接确定系统是否已从物理干净算法切换到完全清晰的物理清理算法的信息:
- 当系统在 DDOS 5.5-5.7 上运行物理清洁时,在清理过程中执行了12个阶段
- 在升级到 DDOS 6.0 (或更高版本)的系统之后,在清理过程中仅执行7阶段
无论使用何种干净算法,拷贝阶段(在物理上从系统中取出死数据)的功能都在所有版本中以相似的方式工作。拷贝阶段的性能通常取决于:
- 必须删除的 "失效" 数据量
- 此死数据的 "碎片化" (即它在磁盘间的分布方式)
示例1:
- 为拷贝选择了10个容器(45Mb 总计数据)
- 所有这些容器均不保存实时数据(即他们保留的数据完全未引用/失效)
- 因此,拷贝只需将这些容器标记为已删除即可释放磁盘上的45Mb 物理空间
- 为拷贝选择了100容器(450Mb 总计数据)
- 其中每个容器均包含90% 的活动数据/10% 的数据失效数据
- 要处理这些容器拷贝,必须执行以下操作:
从所有100容器(405Mb 数据)中读取90% 的实时数据
创建一组新容器,以在文件系统的末尾保存此405Mb 数据
将此405Mb 数据写入这些容器,并相应地更新结构(例如索引)
将100选定容器标记为已删除,因此释放磁盘上的45Mb 物理空间
与示例2中所述的拷贝相比,要显著增加 i/o 和 CPU 的数量非常大,因此,在此示例中,将显著释放45Mb 物理空间。
用户通常无法控制 DDR 上磁盘上的死数据,因为这很多取决于写入系统的数据的使用情形/类型。但是请注意,清理/GC 确实会保留统计信息,以帮助确定在拷贝阶段中遇到的死数据的 "零碎" (因此允许用户确定此碎片是否可以解释可能长时间运行的拷贝阶段)。Autosupports 中收集了来自全新/GC 的最新阶段的此类统计信息。例如,下面显示了死数据相当连续的拷贝阶段(即,大多数为拷贝保存选择的容器数通常会失效数据):
拷贝的活动数据的百分比: 3.6% 4.3%
相反,下图显示了发生故障的数据被分段的拷贝阶段(即,大多数选择用于拷贝存储的容器大部分活动数据):
拷贝的活动数据的百分比: 70.9% 71.5%
如上面所述,清理/GC 将必须在第二种情况下执行相对更多的工作,以实现 DDR 上的物理可用空间,这会导致拷贝阶段的吞吐量减少。
拷贝阶段的吞吐量也会受到以下影响:
- 使用加密:可能需要在拷贝期间对数据进行解密/重新加密,这会显著增加所需的 CPU 容量
- 使用低带宽 optimisation:容器可能需要在拷贝期间生成 "草图" 信息,这也会导致所需 CPU 数量显著增加
Additional Information
下面的知识库文章中提供了有关检查/修改清理计划和限制的进一步说明: https://support.emc.com/kb/306100
注意:
包含 "100" 的清洁限制的 DDR (例如,最高/最高级别的可能限制设置)将使用大量的 CPU 和 i/o,而清洁正在运行,即使 DDR 受其他工作负载影响,也不会释放资源(在这种情况下,运行清理会导致接收/恢复/复制操作的性能显著降低)
例如:
此信息也可通过 Data Domain 命令行 Shell (DDCLI)显示,如下所示:
登录 DDCLI
# system show serialno
-Display GC statistics:
SE@dd4200 # # filesys 显示详细-统计 70
gc 统计信息,以便在活动成功时进行物理清理1中止0最近
成功的 GC 容器范围:198到 562458
GC 阶段: 预合并时间: 177平均: 177 seg/s: 0续/s: 857
GC 阶段: 预分析时间: 187平均: 187 seg/s: 0续/s: 811
GC 阶段: 预枚举时间: 573平均: 573 seg/s: 1086296接续/s: 264
GC 阶段: 预筛选时间: 181平均: 181 seg/s: 1728325接续/s: 838
GC 阶段: 预选择时间: 77平均: 77 seg/s: 3500864接续/s: 1970
GC 阶段: copy time: 54平均: 54 seg/s: 0续/s: 2809
GC 阶段: 摘要时间: 平均1: 1 seg/s: 0续/s: 151726
.。。
注意:
- 在正常情况下,清理应计划每周运行一次,但这会导致磁盘上的数据变得过多(例如,出现空间较差的空间),这可能会导致读取/复制/数据移动性能不佳
- 清理限制不会影响清理所消耗的 CPU 和 i/o 带宽总量,而是控制对系统上其他工作负载的敏感清理。例如:
对 "1" 进行干净限制的 DDR (即,最低/最低程度可能达到的限制设置)仍将占用大量 CPU 和 i/o,同时清洁正在运行。但是,一旦 DDR 遇到任何其他工作负载,就会立即停止并释放资源。
包含 "100" 的清洁限制的 DDR (例如,最高/最高级别的可能限制设置)将使用大量的 CPU 和 i/o,而清洁正在运行,即使 DDR 受其他工作负载影响,也不会释放资源(在这种情况下,运行清理会导致接收/恢复/复制操作的性能显著降低)
- 默认情况下,清理限制设置为50—用户有责任使用不同的限制设置测试运行整洁,同时 DDR 会经历正常工作负载以确定允许的限制设置:
清理以尽可能最短的时间运行
清理以运行,而不会导致其他工作负载的性能下降
- 请注意,只要执行以下操作,运行时间长不一定就是问题:
Clean 可以在其计划的开始时间(即,如果计划在6am 上开始,将在6am 下的周二完成)上完全完成清理
系统具有足够的可用空间,例如在清理到达拷贝阶段之前不会变满(并且空间开始回收)
清理不会导致其他工作负载在运行时的性能下降。
- 应配置使用延长保留功能的系统,以便:
从活动 > 归档层的数据移动计划为定期运行(即每周一次)
活动层清理计划为在完成数据移动时运行
活动层清理没有自己的/独立的计划(因为这可能会导致过多的清理)
- Autosupports 和详细信息中包含最新的清理操作的完整信息:
清理期间运行的阶段概览
每个清理阶段的持续时间和吞吐量
每个清理阶段的详细统计信息
例如:
针对活动成功39的物理清理的 GC 统计信息中止了0最近
成功的 GC 容器范围:15925661到 62813670
GC 阶段: 预合并时间: 133平均: 154 seg/s: 0续/s: 0
GC 阶段: 预分析时间: 1331平均: 1768 seg/s: 0续/s: 0
GC 阶段: 预枚举时间: 34410平均: 31832 seg/s: 1471833接续/s: 0
GC 阶段: 预筛选时间: 2051平均: 1805 seg/s: 1988827接续/s: 0
GC 阶段: 预选择时间: 2770平均: 2479 seg/s: 1472593接续/s: 2675
GC 阶段: merge time: 111平均: 69 seg/s: 0续/s: 0
GC 阶段: 分析时间: 1350平均: 900 seg/s: 0续/s: 0
GC 阶段: 候选时间: 1478平均: 739 seg/s: 6833465接续/s: 2156
GC 阶段: 枚举时间: 37253平均: 20074 seg/s: 5490502接续/s: 0
GC 阶段: 筛选时间: 1667平均: 910 seg/s: 9787652接续/s: 0
GC 阶段: copy time: 52164平均: 49496 seg/s: 0续/s: 61
GC 阶段: 摘要时间: 2840平均: 2427 seg/s: 5552869接续/s: 2501
GC 分析阶段详细信息:
索引中的最近累积段数: 16316022459 572186212855
唯一分段数循环: 494653358 319255282440
唯一的 Lp 分段计数: 494653866 17879171482
延迟缓冲区重新分配计数: 0 0
索引完全升级: 1 16
仅扫描 Lps:
最多支持 1 39 Lp 段数: 18105971430 706132885747
.。。
成功的 GC 容器范围:15925661到 62813670
GC 阶段: 预合并时间: 133平均: 154 seg/s: 0续/s: 0
GC 阶段: 预分析时间: 1331平均: 1768 seg/s: 0续/s: 0
GC 阶段: 预枚举时间: 34410平均: 31832 seg/s: 1471833接续/s: 0
GC 阶段: 预筛选时间: 2051平均: 1805 seg/s: 1988827接续/s: 0
GC 阶段: 预选择时间: 2770平均: 2479 seg/s: 1472593接续/s: 2675
GC 阶段: merge time: 111平均: 69 seg/s: 0续/s: 0
GC 阶段: 分析时间: 1350平均: 900 seg/s: 0续/s: 0
GC 阶段: 候选时间: 1478平均: 739 seg/s: 6833465接续/s: 2156
GC 阶段: 枚举时间: 37253平均: 20074 seg/s: 5490502接续/s: 0
GC 阶段: 筛选时间: 1667平均: 910 seg/s: 9787652接续/s: 0
GC 阶段: copy time: 52164平均: 49496 seg/s: 0续/s: 61
GC 阶段: 摘要时间: 2840平均: 2427 seg/s: 5552869接续/s: 2501
GC 分析阶段详细信息:
索引中的最近累积段数: 16316022459 572186212855
唯一分段数循环: 494653358 319255282440
唯一的 Lp 分段计数: 494653866 17879171482
延迟缓冲区重新分配计数: 0 0
索引完全升级: 1 16
仅扫描 Lps:
最多支持 1 39 Lp 段数: 18105971430 706132885747
.。。
此信息也可通过 Data Domain 命令行 Shell (DDCLI)显示,如下所示:
登录 DDCLI
-拖至 "se" 模式:
# system show serialno
[显示的系统序列号]
# priv.edb set se
[请注意,某些系统可能会提示您在此阶段提供安全角色的用户的详细信息]
[password 提示符-输入从上到的序列号]
-Display GC statistics:
SE@dd4200 # # filesys 显示详细-统计 70
gc 统计信息,以便在活动成功时进行物理清理1中止0最近
成功的 GC 容器范围:198到 562458
GC 阶段: 预合并时间: 177平均: 177 seg/s: 0续/s: 857
GC 阶段: 预分析时间: 187平均: 187 seg/s: 0续/s: 811
GC 阶段: 预枚举时间: 573平均: 573 seg/s: 1086296接续/s: 264
GC 阶段: 预筛选时间: 181平均: 181 seg/s: 1728325接续/s: 838
GC 阶段: 预选择时间: 77平均: 77 seg/s: 3500864接续/s: 1970
GC 阶段: copy time: 54平均: 54 seg/s: 0续/s: 2809
GC 阶段: 摘要时间: 平均1: 1 seg/s: 0续/s: 151726
.。。
Affected Products
Data DomainProducts
Data DomainArticle Properties
Article Number: 000017462
Article Type: Solution
Last Modified: 11 Dec 2023
Version: 4
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.