Data Domain:Data Domain Restorer(DDR)における高い領域使用率または使用可能な容量不足に関する問題を解決する方法
Сводка: この記事では、Data Domain Restorer(DDR)における高い領域使用率や使用可能な容量不足に関する問題に対処する詳しい手順について説明します。
Данная статья применяется к
Данная статья не применяется к
Эта статья не привязана к какому-либо конкретному продукту.
В этой статье указаны не все версии продуктов.
Симптомы
すべてのData Domain Restorer(DDR)には、「アクティブ階層」と呼ばれるストレージのプール/領域が含まれます。
- これは、新しく取得されたファイル/データが存在するディスク領域で、クライアント バックアップ アプリケーションによって失効/削除されるまで、ほとんどのDDRではファイルはここに残ります
- Extended Retention(ER)またはLong Term Retention(LTR)で構成されたDDRでは、データ移動プロセスを定期的に実行して、アクティブ階層からアーカイブ階層またはクラウド階層に古いファイルを移行することができます
- 削除/移行済みファイルによって使用されたアクティブ階層の領域を再利用する唯一の方法は、ガベージ コレクション/クリーニング プロセス(GC)を実行する方法です
アクティブ階層の現在の使用率は、「filesys show space」または「df」コマンドを使用して表示できます。
# df
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 33098.9 - - -
/data: post-comp 65460.3 518.7 64941.6 1% 0.0
/ddvar 29.5 19.7 8.3 70% -
/ddvar/core 31.5 0.2 29.7 1% -
---------------- -------- -------- --------- ---- --------------
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 33098.9 - - -
/data: post-comp 65460.3 518.7 64941.6 1% 0.0
/ddvar 29.5 19.7 8.3 70% -
/ddvar/core 31.5 0.2 29.7 1% -
---------------- -------- -------- --------- ---- --------------
構成されている場合、アーカイブ階層/クラウド階層の詳細がアクティブ階層の下に表示されることに注意してください。
アクティブ階層の使用率は慎重に管理する必要があります。そうしないと、次の状況が発生する可能性があります。
- アクティブ階層で、利用可能な領域が不足し、次のようなアラート/メッセージが表示される可能性がある:
EVT-SPACE-00004: Space usage in Data Collection has exceeded 95% threshold.
- アクティブ階層が100%フルになると、DDRに新しいデータを書き込むことができなくなり、バックアップ/レプリケーションが失敗する可能性がある - このシナリオでは、次のようなアラート/メッセージが表示される場合がある:
CRITICAL: MSG-CM-00002: /../vpart:/vol1/col1/cp1/cset: Container set [container set ID] out of space
- 状況によっては、アクティブ階層がフルになると、Data Domainファイル システム(DDFS)が読み取り専用になり、その時点で既存のファイルを削除できなくなることがある
このナレッジベース記事では、次について説明します。
- アクティブ階層がフルになることがある理由
- アクティブ階層の使用率が高い原因を特定するためのシンプルなチェックリストと、対応する救済手順
以下の点に注意してください。
- この記事は完全ではありません(つまり、この記事で説明されていない理由により、DDRのアクティブ階層の使用率が高くなる場合があります)。ただし、ここでは最も一般的な原因/問題について説明することを目的としています。
- この記事では、アーカイブ階層またはクラウド階層の高い使用率については説明しません。
Причина
- 保存ポリシーまたはバックアップ アプリケーションの構成が正しくないため、クライアント バックアップ アプリケーションによりバックアップ ファイル/セーブセットが正しく失効/削除されていない
- レプリケーションの遅延により、アクティブ階層に大量の古いデータが残り、レプリカへのレプリケーションが保留の状態となる
- アクティブ階層に書き込まれるデータの圧縮比が、適切な全体の圧縮比を下回っている
- システムが正しくサイズ設定されていない。つまり、それに保存しようとしていたデータ量に対して小さすぎる
- バックアップに非常に小さなファイルが多数含まれている - これらのファイルは、最初に書き込まれたときに、適切な領域以上を消費しているが、クリーニング/ガベージ コレクション中にこの領域を再利用する必要がある
- ER/LTRで設定されたシステムでデータ移動が定期的に実行されていないため、アーカイブ/クラウド階層に移行する必要がある古いファイルがアクティブ階層に残っている
- クリーニング/ガベージ コレクションが定期的に実行されていない
- DDR上に過剰または古いMtreeスナップショットがあり、削除されたファイル/データが使用していた領域をクリーニングにより再利用できない
Разрешение
手順1 - アクティブ階層のクリーニングを実行する必要があるかどうかを判断する
Data Domainオペレーティング システム(DDOS)は、アクティブ階層に対して「Cleanable GiB」と呼ばれるカウンターを維持しようとします。これは、クリーニング/ガベージ コレクションを実行することによって、アクティブ階層でどの程度の物理(圧縮前)領域を再利用できるかを推定するものです。このカウンターは、「filesys show space」/「df」コマンドによって表示されます。
いずれかの場合:
クリーニングが適切に開始したことを確認するには、「filesys status」コマンドを使用します。例:
以下の点に注意してください。
必要に応じて、次のようにアクティブ階層のクリーニング スケジュールを設定します。例えば、毎週火曜日の午前6時に実行する場合:
# filesys clean set schedule Tue 0600
Filesystem cleaning is scheduled to run "Tue" at "0600".
Extended Retention(ER)で構成されたシステムでは、データ移動を完了した後にクリーニングが実行されるように構成されていて、個別のスケジュールを持たない場合があることに注意してください。このシナリオについては、この記事で後述します。
クリーニングが完了したら、「filesys show space/df」コマンドを使用して、使用率の問題が解決されたかどうかを確認します。まだ使用率が高い場合は、この記事の残りの手順を実行します。
手順2 - ソース レプリケーション コンテキストに対する大量のレプリケーション遅延を確認する
ネイティブのData Domainレプリケーションは、「レプリケーション コンテキスト」の概念に基づいて設計されています。例えば、システム間でデータをレプリケートする必要がある場合:
レプリケーション コンテキストが遅れているかどうかを確認するには、次の手順を実行する必要があります。
現在のシステムがソースであるコンテキスト、顕著な遅延が発生しているコンテキスト、または不要になったコンテキストは、中断する必要があります。これを実行するには、ソース システムとターゲット システムで次のコマンドを実行します。
たとえば、前述の「対象の」コンテキストを中断するには、次のコマンドをソースとターゲットで実行します。
以下の点に注意してください。
DDFSの内容は、論理的にMtreeに分割されます。個々のバックアップ アプリケーション/クライアントが個別のMtreeに書き込まれるのは一般的なことです。バックアップ アプリケーションが破棄された場合、システム上に古い/余分なMtreeが残っている可能性のあるDDRからデータを書き込む/削除することはできなくなります。これらのMtreeのデータは、DDRのディスク上の領域を使用して無期限に存続します。そのため、このような余分なMtreeを削除する必要があります。例:
例:
# mtree delete /data/col1/Budu_test
Data Domainスナップショットは、特定の時点における対応するMtreeのスナップショットを示します。結果:
スナップショットのないMtreeに対して実行すると、次のように表示されます。
スナップショットがあるMtreeに対して実行すると、次のように表示されます。
これらのスナップショットを失効させて、クリーニングの実行時にそれらを削除して、ディスク上で使用していた領域を解放できるようにします。
# snapshot expire [snapshot name] mtree [mtree name]
例:
以下の点に注意してください。
DDRからの自動サポートには、次の例のように、DDR上のファイルの内訳を示すヒストグラム(経過時間別)が含まれています。
これは、クライアント バックアップ アプリケーションによって、適切に失効/削除されていないファイルがシステムに存在するかどうかを判断するのに役立ちます。例えば、1つのファイルの最大保存期間が6か月である場合に、バックアップ アプリケーションによって上記のシステムに書き込みが行われた場合、DDRに6か月より古いファイルが約8万ファイルあるため、バックアップ アプリケーションが適切にファイルを失効/削除していないことがすぐに分かります。
以下の点に注意してください。
必要に応じて、Data Domainサポートにより、次の目的で追加のレポートを提供できます。
手順6 - 大量の小さなファイルを含むバックアップを確認する
DDFSの設計により、小さなファイル(基本的におよそ10Mbよりも小さいファイル)は、最初にDDRに書き込まれるときに、余分な領域を消費することがあります。これは、「SISL」(Stream Informed Segment Layout)アーキテクチャが原因で、小さなファイルがディスク上で複数の個別の4.5Mbの領域ブロックを消費するためです。例えば、4Kbファイルは、最初に書き込みを行ったときに、実際には最大9Mbの物理ディスク領域を消費することがあります。
この過剰な領域は、あとでクリーニング/ガベージ コレクションの実行時に再利用されます(小さなファイルからのデータはより少ない数の4.5Mbブロックに集約されるため)。ただし、より小さいモデルのDDRでは、そのようなバックアップを実行すると、過剰な使用率とフィルが発生することがあります。
自動サポートには、次の例のように、サイズ別に分割されたファイルのヒストグラムが含まれます。
バックアップで非常に大量の小さなファイルを書き込んでいる証拠がある場合、クリーニング/ガベージ コレクションの各呼び出しの間で、使用率の一時的な急増によりシステムが影響を受ける可能性があります。このシナリオでは、すべての小さいファイルをDDRに書き込む前に単一の大規模なアーカイブ(tarファイルなど)に含むように、バックアップ方法を変更することをお勧めします。このようなアーカイブは、圧縮または暗号化してはならない点に注意してください(そのデータの圧縮比/重複排除率に悪影響があるため)。
手順7 - 予想より低い重複排除率を確認する
DDRの主な目的は、デバイスにより取得されるデータの重複排除および圧縮を行うことです。重複排除/圧縮の比率は、システムの用途やデータのタイプによって大きく異なりますが、多くの場合、概念のテストや同様の結果に基づく「適切な」全体の圧縮比があります。システムの現在の全体的な圧縮比を確認し、それに伴う適切な圧縮比の達成有無を確認するには、「filesys show compression」コマンドを使用できます。例:
上記の例では、システムはアクティブ階層で65.3xの全体的な圧縮比を達成しています(非常に良い)。ただし、この値が、適切な全体的な圧縮比を満たしていない場合は、さらに調査が必要になる可能性があります。予想よりも低い圧縮比の調査は、多くの根本原因を持つ可能性のある複雑なテーマであることに注意してください。さらに詳しく調査する方法の詳細については、次の記事を参照してください。https://support.emc.com/kb/487055
手順8 - システムがコレクション レプリケーションのソースであるかどうかを確認する
コレクション レプリケーションを使用する場合、ソース システムがターゲットよりも物理的に大きい場合は、ソース システムのサイズがターゲットと一致するように人為的に制限されます(つまり、ソース上のディスク領域の一部が使用不可としてマークされます)。その理由は、コレクション レプリケーションを使用する場合、ターゲットはソースのブロック レベルのコピーである必要がありますが、ソースがターゲットよりも物理的に大きい場合は、ソースに過剰なデータが書き込まれ、ターゲットにレプリケートできなくなる可能性があるためです(既にフルであるため)。このシナリオは、ターゲットと一致するようにソースのサイズを制限することで回避できます。
これらのいずれかが実行されるとすぐに、ソース システムのアクティブ階層で、追加の領域がすぐに使用できるようになります(つまり、この領域を使用する前にアクティブ階層のクリーニング/ガベージ コレクションを実行する必要はありません)
手順9 - データ移動が定期的に実行されているかどうかを確認する
DDRがExtended Retention(ER)またはLong Term Retention(LTR)のいずれかで構成されている場合は、2つ目の階層のストレージが割り当てられます(ERにはアクティブ階層、またはLTRにはクラウド階層)。このシナリオでは、データ移動ポリシーがMtreeに対して構成されていて、長期保存を必要とする古い/未変更のデータをアクティブ階層から代替のストレージ階層に移行できる可能性が高くなります。これにより、アクティブ階層のこれらのファイルによって使用されていた領域を、クリーニング/ガベージ コレクションによって物理的に再利用できます。データ移動ポリシーが正しく構成されていない場合、またはデータ移動プロセスが定期的に実行されていない場合、古いデータは予想よりも長い間アクティブ階層に残り、ディスク上の物理的な領域を使用し続けます。
ERとLTRは相互に排他的であるため、システムにはアクティブ階層のみ(ER/LTRで構成されていない)、アクティブ階層とアーカイブ階層(ERで構成されている)、またはアクティブ階層とクラウド階層(LTRで構成)のいずれかが含まれることに注意してください。
データ移動ポリシーが正しくない場合、または設定されていない場合は、修正する必要があります。これを行うには、『Data Domain Administrators Guide』を参照してください。
Data Domainでは、一般的に、自動化されたスケジュールを使用してデータを移動することを推奨しています。ただし、このプロセスをアドホックな方法で実行することもできます(必要な場合)。このシナリオでは、次を実行してデータ移動を定期的に開始する必要があります。
データ移動スケジュールを変更する方法の詳細については、『Data Domain Administrators Guide』を参照してください。
データ移動がしばらく実行されていない場合は、次のようにプロセスを手動で開始して監視します。
何らかの理由でデータ移動が開始しない場合は、契約しているサポート プロバイダーに連絡してサポートを受けてください。
LTRシステムでは、アクティブ階層のクリーニングを独自のスケジュールで設定する必要があります。
手順10 - アクティブ階層にストレージを追加する
これまでの手順をすべて実行し、アクティブ階層のクリーニングが完了しても、アクティブ階層に十分な領域がない場合は、システムのサイズが受信するワークロードに対して適切に設定されていない可能性があります。この場合は、次のいずれかを実行する必要があります。
ストレージの追加については、担当のセールス アカウント チームにお問い合わせください。
Data Domainオペレーティング システム(DDOS)は、アクティブ階層に対して「Cleanable GiB」と呼ばれるカウンターを維持しようとします。これは、クリーニング/ガベージ コレクションを実行することによって、アクティブ階層でどの程度の物理(圧縮前)領域を再利用できるかを推定するものです。このカウンターは、「filesys show space」/「df」コマンドによって表示されます。
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- --------- --------- ---- --------------
/data: pre-comp - 7259347.5 - - -
/data: post-comp 304690.8 251252.4 53438.5 82% 51616.1 <=== NOTE
/ddvar 29.5 12.5 15.6 44% -
---------------- -------- --------- --------- ---- --------------
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- --------- --------- ---- --------------
/data: pre-comp - 7259347.5 - - -
/data: post-comp 304690.8 251252.4 53438.5 82% 51616.1 <=== NOTE
/ddvar 29.5 12.5 15.6 44% -
---------------- -------- --------- --------- ---- --------------
いずれかの場合:
- 「Cleanable GiB」の値が大きい
- DDFSが100%フルになった(それに伴って読み取り専用になった)
# filesys clean start
Cleaning started. Use 'filesys clean watch' to monitor progress.
Cleaning started. Use 'filesys clean watch' to monitor progress.
クリーニングが適切に開始したことを確認するには、「filesys status」コマンドを使用します。例:
# filesys status
The filesystem is enabled and running.
Cleaning started at 2017/05/19 18:05:58: phase 1 of 12 (pre-merge)
50.6% complete, 64942 GiB free; time: phase 0:01:05, total 0:01:05
The filesystem is enabled and running.
Cleaning started at 2017/05/19 18:05:58: phase 1 of 12 (pre-merge)
50.6% complete, 64942 GiB free; time: phase 0:01:05, total 0:01:05
以下の点に注意してください。
- クリーニングを開始できない場合は、契約しているサポート プロバイダーに連絡してサポートを受けてください。これは、システムで「セグメント欠落エラー」が発生し、クリーニングが無効になっていることを示している可能性があります
- クリーニングがすでに実行されている場合、開始しようとすると、次のメッセージが表示されます:
**** Cleaning already in progress. Use 'filesys clean watch' to monitor progress.
- アクティブ階層の領域は、クリーニングがそのコピー フェーズに達するまで解放/再利用されません(デフォルトでは、DDOS 5.4.x以前のフェーズ9、DDOS 5.5.x以降のフェーズ11)。クリーニングで使用されるフェーズの詳細については、次を参照してください:https://support.emc.com/kb/446734
- 「Cleanable GiB」が示す領域の値は基本的に推定値であるため、クリーニングによって再利用できない場合があります。詳細については、次を参照してください:https://support.emc.com/kb/485637
- クリーニングは1回の実行ですべての潜在的な領域を再利用できない場合があります。これは、非常に大規模なデータセットを含むDDRでは、クリーニングが最も不要なデータを含むファイル システムの一部に対して実行されるためです(クリーニングを実行するのにかかる時間で最大の空き領域を得るため)。状況によっては、すべての潜在的な領域を再利用する前に、クリーニングを複数回実行する必要がある場合があります
- 「Cleanable GiB」の値が非常に大きい場合は、クリーニングが定期的に実行されていないことを示している可能性があります。次のようにクリーニング スケジュールが設定されていることを確認します:
# filesys clean show schedule
必要に応じて、次のようにアクティブ階層のクリーニング スケジュールを設定します。例えば、毎週火曜日の午前6時に実行する場合:
# filesys clean set schedule Tue 0600
Filesystem cleaning is scheduled to run "Tue" at "0600".
Extended Retention(ER)で構成されたシステムでは、データ移動を完了した後にクリーニングが実行されるように構成されていて、個別のスケジュールを持たない場合があることに注意してください。このシナリオについては、この記事で後述します。
クリーニングが完了したら、「filesys show space/df」コマンドを使用して、使用率の問題が解決されたかどうかを確認します。まだ使用率が高い場合は、この記事の残りの手順を実行します。
手順2 - ソース レプリケーション コンテキストに対する大量のレプリケーション遅延を確認する
ネイティブのData Domainレプリケーションは、「レプリケーション コンテキスト」の概念に基づいて設計されています。例えば、システム間でデータをレプリケートする必要がある場合:
- レプリケーション コンテキストは、ソースとターゲットのDDR上に作成される
- コンテキストが初期化される
- 初期化が完了すると、レプリケーションにより、ソースからターゲットへアップデート/デルタが定期的に送信され、システム上のデータを同期し続ける
- ディレクトリー レプリケーション コンテキスト(システム間で/data/col1/backup下の1つのディレクトリー ツリーをレプリケートする場合に使用):
ディレクトリー レプリケーションは、ソースDDRのレプリケーション ログを使用して、ターゲットにまだレプリケートされていない未処理のファイルを追跡します。
ディレクトリー レプリケーション コンテキストが遅れている場合は、ソースDDRのレプリケーション ログは、レプリケーション保留中の大量のファイルを追跡します。
これらのファイルが削除された場合でも、レプリケーション ログによって引き続き参照されますが、クリーニングではこれらのファイルによって使用されていたディスク上の領域を再利用できません。
ディレクトリー レプリケーション コンテキストが遅れている場合は、ソースDDRのレプリケーション ログは、レプリケーション保留中の大量のファイルを追跡します。
これらのファイルが削除された場合でも、レプリケーション ログによって引き続き参照されますが、クリーニングではこれらのファイルによって使用されていたディスク上の領域を再利用できません。
- Mtreeレプリケーション コンテキスト(システム間で/data/col1/backup以外のMtreeをレプリケートする場合に使用):
Mtreeレプリケーションでは、ソース システムとターゲット システムで作成されたスナップショットを使用して、システム間の違いを特定します。これにより、どのファイルをソースからターゲットに送信する必要があるかが分かります。
Mtreeレプリケーション コンテキストが遅れている場合、対応するMtreeには、それに対してソースおよびターゲット システムで作成された非常に古いスナップショットが残っている場合があります。
ファイルがソース システムのレプリケートされたMtreeからのものである場合でも、それらのファイルがシステムでMtreeレプリケーション スナップショットが作成された時に存在していた場合、クリーニングではそれらのファイルによって使用されていたディスクの領域は再利用できません。
Mtreeレプリケーション コンテキストが遅れている場合、対応するMtreeには、それに対してソースおよびターゲット システムで作成された非常に古いスナップショットが残っている場合があります。
ファイルがソース システムのレプリケートされたMtreeからのものである場合でも、それらのファイルがシステムでMtreeレプリケーション スナップショットが作成された時に存在していた場合、クリーニングではそれらのファイルによって使用されていたディスクの領域は再利用できません。
- コレクション レプリケーション コンテキスト(1つのDDRの内容全体を別のシステムにレプリケートする場合に使用):
コレクション レプリケーションでは、ソース システム上のすべてのデータで「ブロック ベース」レプリケーションを行います。
コレクション レプリケーションが遅れている場合は、ソース システムのクリーニングを最適に行うことができません。このシナリオでは、ターゲット システムとの同期を使用しないように、部分的なクリーニングが実行されていることを示すアラートがソースで生成されます。
そのため、クリーニングではソースDDRで想定されるだけの領域を再利用できません。
コレクション レプリケーションが遅れている場合は、ソース システムのクリーニングを最適に行うことができません。このシナリオでは、ターゲット システムとの同期を使用しないように、部分的なクリーニングが実行されていることを示すアラートがソースで生成されます。
そのため、クリーニングではソースDDRで想定されるだけの領域を再利用できません。
レプリケーション コンテキストが遅れているかどうかを確認するには、次の手順を実行する必要があります。
- 現在のシステムのホスト名を確認します。
sysadmin@dd4200# hostname
The Hostname is: dd4200.ddsupport.emea
The Hostname is: dd4200.ddsupport.emea
- 現在のシステムの日付/時刻を確認します。
sysadmin@dd4200# date
Fri May 19 19:04:06 IST 2017
Fri May 19 19:04:06 IST 2017
- システム上で構成されたレプリケーション コンテキストと、その「synced as of time」の一覧を表示します。対象となるコンテキストは、ターゲットに現行システムのホスト名が含まれず(現在のシステムがソースであることを示す)、「synced as of time」がかなり古くなっていることに注意してください。
sysadmin@dd4200# replication status
CTX Destination Enabled Connection Sync'ed-as-of-time Tenant-Unit
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
3 mtree://dd4200.ddsupport.emea/data/col1/DFC no idle Thu Jan 8 08:58 - <=== NOT INTERESTING - CURRENT SYSTEM IS THE DESTINATION
9 mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree no idle Mon Jan 25 14:48 - <=== INTERESTING - LAGGING AND CURRENT SYSTEM IS THE SOURCE
13 dir://DD2500-1.ddsupport.emea/backup/dstfolder no disconnected Thu Mar 30 17:55 - <=== INTERESTING - LAGGING AND CURRENT SYSTEM IS THE SOURCE
17 mtree://DD2500-1.ddsupport.emea/data/col1/oleary yes idle Fri May 19 18:57 - <=== NOT INTERESTING - CONTEXT IS UP TO DATE
18 mtree://dd4200.ddsupport.emea/data/col1/testfast yes idle Fri May 19 19:18 - <=== NOT INTERESTING - CONTEXT IS UP TO DATE
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
CTX Destination Enabled Connection Sync'ed-as-of-time Tenant-Unit
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
3 mtree://dd4200.ddsupport.emea/data/col1/DFC no idle Thu Jan 8 08:58 - <=== NOT INTERESTING - CURRENT SYSTEM IS THE DESTINATION
9 mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree no idle Mon Jan 25 14:48 - <=== INTERESTING - LAGGING AND CURRENT SYSTEM IS THE SOURCE
13 dir://DD2500-1.ddsupport.emea/backup/dstfolder no disconnected Thu Mar 30 17:55 - <=== INTERESTING - LAGGING AND CURRENT SYSTEM IS THE SOURCE
17 mtree://DD2500-1.ddsupport.emea/data/col1/oleary yes idle Fri May 19 18:57 - <=== NOT INTERESTING - CONTEXT IS UP TO DATE
18 mtree://dd4200.ddsupport.emea/data/col1/testfast yes idle Fri May 19 19:18 - <=== NOT INTERESTING - CONTEXT IS UP TO DATE
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
現在のシステムがソースであるコンテキスト、顕著な遅延が発生しているコンテキスト、または不要になったコンテキストは、中断する必要があります。これを実行するには、ソース システムとターゲット システムで次のコマンドを実行します。
# replication break [destination]
たとえば、前述の「対象の」コンテキストを中断するには、次のコマンドをソースとターゲットで実行します。
(dd4200.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(BenDDVE.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(BenDDVE.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(dd4200.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
(DD2500-1.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
(DD2500-1.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
以下の点に注意してください。
- コンテキストを中断したら、アクティブ階層の潜在的な領域を再利用するために、アクティブ階層のクリーニングを実行する必要があります
- Mtreeレプリケーションを使用する場合、コンテキストを中断すると、Mtreeレプリケーション スナップショットがディスクに残る場合がありますクリーニングを実行する前に、手順5に従って余分なスナップショットを失効させたことを確認します
- ソース/ターゲットのMtreeがアーカイブ階層またはクラウド階層にデータを移行するように構成されている場合は、対応するMtreeレプリケーション コンテキストを中断するときに注意が必要です。これらのコンテキストは、後で再作成/初期化することができない場合があります。その理由は、Mtreeレプリケーション コンテキストが初期化されると、ソース システム上にMtreeスナップショットが作成され、Mtree内のすべてのファイルの詳細が含まれるためです(階層に関係なく)。その後、このスナップショットは、ターゲットのアクティブ階層に完全にレプリケートされます。そのため、ターゲットのアクティブ階層に、ソースからすべてのMtreeデータを取得するために十分な空き領域がない場合は、初期化を完了できません。この問題の詳細については、契約しているサポート プロバイダーにお問い合わせください
- コレクション レプリケーション コンテキストを中断した場合は、ターゲットDDR上のDDFSのインスタンスを破棄することなく(このシステム上のすべてのデータを失うことなく)、コンテキストを再作成/初期化することはできません。したがって、その後の初期化では、ソースからのすべてのデータを再度ターゲットに物理的にレプリケートする必要があるため、かなりの時間とネットワーク帯域幅を要する可能性があります
DDFSの内容は、論理的にMtreeに分割されます。個々のバックアップ アプリケーション/クライアントが個別のMtreeに書き込まれるのは一般的なことです。バックアップ アプリケーションが破棄された場合、システム上に古い/余分なMtreeが残っている可能性のあるDDRからデータを書き込む/削除することはできなくなります。これらのMtreeのデータは、DDRのディスク上の領域を使用して無期限に存続します。そのため、このような余分なMtreeを削除する必要があります。例:
- システム上のMtreeのリストを取得します。
# mtree list
Name Pre-Comp (GiB) Status
------------------------------------------------------------- -------------- -------
/data/col1/Budu_test 147.0 RW
/data/col1/Default 8649.8 RW
/data/col1/File_DayForward_Noida 42.0 RW/RLCE
/data/col1/labtest 1462.7 RW
/data/col1/oscar_data 0.2 RW
/data/col1/test_oscar_2 494.0 RO/RD
------------------------------------------------------------- -------------- -------
Name Pre-Comp (GiB) Status
------------------------------------------------------------- -------------- -------
/data/col1/Budu_test 147.0 RW
/data/col1/Default 8649.8 RW
/data/col1/File_DayForward_Noida 42.0 RW/RLCE
/data/col1/labtest 1462.7 RW
/data/col1/oscar_data 0.2 RW
/data/col1/test_oscar_2 494.0 RO/RD
------------------------------------------------------------- -------------- -------
- 不要になったすべてのMtreeは、「mtree delete」コマンドを使用して削除する必要があります。例:
# mtree delete [mtree name]
例:
# mtree delete /data/col1/Budu_test
...
MTree "/data/col1/Budu_test" deleted successfully.
MTree "/data/col1/Budu_test" deleted successfully.
- 削除されたMtreeによってディスク上で消費された領域は、次にアクティブ階層のクリーニング/ガベージ コレクションが実行されるときに再利用されます。
- MtreeレプリケーションのターゲットであるMtree(つまり、Mtreeリストの出力にRO/RDのステータスがある)は、Mtreeが削除される前に、その対応するレプリケーション コンテキストを中断する必要があります
- DDBoost論理ストレージ ユニット(LSU)、または仮想テープ ライブラリー(VTL)プールとして使用されているMtreeは、「mtree delete」コマンドを使用して削除することができない場合があります。このようなMtreeを削除する方法の詳細については、『Data Domain Administration Guide』を参照してください
- Retention Lockが構成されたMtree(つまり、RLCEまたはRLGEのステータスを持つ)を削除することはできません。代わりに、Mtree内の個々のファイルにRetention Lockを戻し、個別に削除する必要があります。詳細については、『Data Domain Administration Guide』を参照してください
Data Domainスナップショットは、特定の時点における対応するMtreeのスナップショットを示します。結果:
- スナップショットの作成時にMtree内に存在するすべてのファイルがスナップショットによって参照されます
- これらのファイルが消去または削除されてもスナップショットは引き続き存在しますが、クリーニングでは、ディスクで使用されている物理スペースを再利用することはできません。これは、スナップショット内のファイルのコピーに後でアクセスする場合に備えて、データをシステムに残す必要があるためです
- 手順3に示すように、「mtree list」コマンドを使用して、システム上のMtreeのリストを取得する
- 「snapshot list」コマンドを使用して、各Mtreeにあるスナップショットの一覧を表示する:
# snapshot list mtree [mtree name]
スナップショットのないMtreeに対して実行すると、次のように表示されます。
# snapshot list mtree /data/col1/Default
Snapshot Information for MTree: /data/col1/Default
----------------------------------------------
No snapshots found.
Snapshot Information for MTree: /data/col1/Default
----------------------------------------------
No snapshots found.
スナップショットがあるMtreeに対して実行すると、次のように表示されます。
# snapshot list mtree /data/col1/labtest
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 Mar 31 2016 12:00 Mar 26 2017 12:00 expired
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00
testsnap-2016-07-31-12-00 1301.3 Jul 31 2016 12:00 Jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9 Oct 31 2016 12:00 Oct 26 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan 31 2017 12:00 Jan 26 2018 12:00
testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 Mar 31 2016 12:00 Mar 26 2017 12:00 expired
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00
testsnap-2016-07-31-12-00 1301.3 Jul 31 2016 12:00 Jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9 Oct 31 2016 12:00 Oct 26 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan 31 2017 12:00 Jan 26 2018 12:00
testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
- スナップショットが存在する場合、「snapshot list mtree [mtree name]」の出力を使用して、以下のスナップショットを確認します。
「失効」していない(ステータス列を確認)
かなり前に作成された(例えば、前述のリストから2016年に作成されたスナップショットなど)
これらのスナップショットを失効させて、クリーニングの実行時にそれらを削除して、ディスク上で使用していた領域を解放できるようにします。
# snapshot expire [snapshot name] mtree [mtree name]
例:
# snapshot expire testsnap-2016-05-31-12-00 mtree /data/col1/labtest
Snapshot "testsnap-2016-05-31-12-00" for mtree "/data/col1/labtest" will be retained until May 19 2017 19:31.
Snapshot "testsnap-2016-05-31-12-00" for mtree "/data/col1/labtest" will be retained until May 19 2017 19:31.
- 「snapshot list」コマンドを再度実行すると、これらのスナップショットは「expired」としてリストされます。
# snapshot list mtree /data/col1/labtest
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 Mar 31 2016 12:00 Mar 26 2017 12:00 expired
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00 expired
testsnap-2016-07-31-12-00 1301.3 Jul 31 2016 12:00 Jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9 Oct 31 2016 12:00 Oct 26 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan 31 2017 12:00 Jan 26 2018 12:00
testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 Mar 31 2016 12:00 Mar 26 2017 12:00 expired
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00 expired
testsnap-2016-07-31-12-00 1301.3 Jul 31 2016 12:00 Jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9 Oct 31 2016 12:00 Oct 26 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan 31 2017 12:00 Jan 26 2018 12:00
testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
以下の点に注意してください。
- 個別のスナップショットまたはスナップショットのセットがディスク上に保持する物理データの量を判断することはできません。スナップショットに関連づけられた「領域」を示す唯一の値は、スナップショットが作成されたときのMtreeの圧縮前の(論理的な)サイズです(上記の出力を参照)
- 「REPL-MTREE-AUTO-YYYY-MM-DD-HH-MM-SS」という名前のスナップショットは、Mtreeレプリケーションによって管理され、通常の状況では、手動で失効させる必要はありません(これらのスナップショットが不要になった場合は、レプリケーションで自動的にこれらを失効させます)。そのようなスナップショットが非常に古い場合は、対応するレプリケーション コンテキストに大きな遅延が発生している可能性が高いことを示しています(「手順2」を参照)
- Mtreeレプリケーション コンテキストが中断されたときに、「REPL-MTREE-RESYNC-RESERVE-YYYY-MM-DD-HH-MM-SS」という名前のスナップショットがMtreeレプリケーションによって作成されます。それらは、中断したコンテキストを後で再作成する場合(例えば、コンテキストがエラーで中断した場合など)、レプリケーション データの完全な再同期を回避するために使用できます。レプリケーションが再確立されない場合は、前述のように、これらのコンテキストを手動で失効させることができます
- 失効にされたスナップショットは、次回のクリーニング/ガベージ コレクションが実行されるまでシステム上に残ります。この時点では、これらは物理的に削除され、「snapshot list mtree [mtree name]」の出力から消去されます。その後、クリーニングによりこれらのスナップショットがディスク上で使用していた領域を再利用できます
DDRからの自動サポートには、次の例のように、DDR上のファイルの内訳を示すヒストグラム(経過時間別)が含まれています。
File Distribution
-----------------
448,672 files in 5,276 directories
Count Space
----------------------------- --------------------------
Age Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 day 7,244 1.6 1.6 4537.9 0.1 0.1
1 week 40,388 9.0 10.6 63538.2 0.8 0.8
2 weeks 47,850 10.7 21.3 84409.1 1.0 1.9
1 month 125,800 28.0 49.3 404807.0 5.0 6.9
2 months 132,802 29.6 78.9 437558.8 5.4 12.3
3 months 8,084 1.8 80.7 633906.4 7.8 20.1
6 months 5,441 1.2 81.9 1244863.9 15.3 35.4
1 year 21,439 4.8 86.7 3973612.3 49.0 84.4
> 1 year 59,624 13.3 100.0 1265083.9 15.6 100.0
--------- ----------- ----- ------- -------- ----- -------
-----------------
448,672 files in 5,276 directories
Count Space
----------------------------- --------------------------
Age Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 day 7,244 1.6 1.6 4537.9 0.1 0.1
1 week 40,388 9.0 10.6 63538.2 0.8 0.8
2 weeks 47,850 10.7 21.3 84409.1 1.0 1.9
1 month 125,800 28.0 49.3 404807.0 5.0 6.9
2 months 132,802 29.6 78.9 437558.8 5.4 12.3
3 months 8,084 1.8 80.7 633906.4 7.8 20.1
6 months 5,441 1.2 81.9 1244863.9 15.3 35.4
1 year 21,439 4.8 86.7 3973612.3 49.0 84.4
> 1 year 59,624 13.3 100.0 1265083.9 15.6 100.0
--------- ----------- ----- ------- -------- ----- -------
これは、クライアント バックアップ アプリケーションによって、適切に失効/削除されていないファイルがシステムに存在するかどうかを判断するのに役立ちます。例えば、1つのファイルの最大保存期間が6か月である場合に、バックアップ アプリケーションによって上記のシステムに書き込みが行われた場合、DDRに6か月より古いファイルが約8万ファイルあるため、バックアップ アプリケーションが適切にファイルを失効/削除していないことがすぐに分かります。
以下の点に注意してください。
- すべてのファイルの失効/削除を実行するのは、バックアップ アプリケーションの責任です
- DDRは、バックアップ アプリケーションによってファイルの削除を明示的に指示されている場合を除き、ファイルを自動的に削除することはありません。ファイルは、DDRで領域を使用して無期限に存続します
必要に応じて、Data Domainサポートにより、次の目的で追加のレポートを提供できます。
- DDRにあるすべてのファイルの名前/変更時刻を、経過時間別に提供する(古いデータの名前/場所を判断できるように)
- ファイルの経過時間のヒストグラムを、アクティブ/アーカイブ/クラウド階層に分割する(ER/LTR機能が有効になっている)
- この記事の「注」セクションにある「sfs_dumpの収集」の項の説明に従って、証拠を収集する
- 契約しているサポート プロバイダーでサービス リクエストを開始する
手順6 - 大量の小さなファイルを含むバックアップを確認する
DDFSの設計により、小さなファイル(基本的におよそ10Mbよりも小さいファイル)は、最初にDDRに書き込まれるときに、余分な領域を消費することがあります。これは、「SISL」(Stream Informed Segment Layout)アーキテクチャが原因で、小さなファイルがディスク上で複数の個別の4.5Mbの領域ブロックを消費するためです。例えば、4Kbファイルは、最初に書き込みを行ったときに、実際には最大9Mbの物理ディスク領域を消費することがあります。
この過剰な領域は、あとでクリーニング/ガベージ コレクションの実行時に再利用されます(小さなファイルからのデータはより少ない数の4.5Mbブロックに集約されるため)。ただし、より小さいモデルのDDRでは、そのようなバックアップを実行すると、過剰な使用率とフィルが発生することがあります。
自動サポートには、次の例のように、サイズ別に分割されたファイルのヒストグラムが含まれます。
Count Space
----------------------------- --------------------------
Size Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 KiB 2,957 35.8 35.8 0.0 0.0 0.0
10 KiB 1,114 13.5 49.3 0.0 0.0 0.0
100 KiB 249 3.0 52.4 0.1 0.0 0.0
500 KiB 1,069 13.0 65.3 0.3 0.0 0.0
1 MiB 113 1.4 66.7 0.1 0.0 0.0
5 MiB 446 5.4 72.1 1.3 0.0 0.0
10 MiB 220 2.7 74.8 1.9 0.0 0.0
50 MiB 1,326 16.1 90.8 33.6 0.2 0.2
100 MiB 12 0.1 91.0 0.9 0.0 0.2
500 MiB 490 5.9 96.9 162.9 0.8 1.0
1 GiB 58 0.7 97.6 15.6 0.1 1.1
5 GiB 29 0.4 98.0 87.0 0.5 1.6
10 GiB 17 0.2 98.2 322.9 1.7 3.3
50 GiB 21 0.3 98.4 1352.7 7.0 10.3
100 GiB 72 0.9 99.3 6743.0 35.1 45.5
500 GiB 58 0.7 100.0 10465.9 54.5 100.0
> 500 GiB 0 0.0 100.0 0.0 0.0 100.0
--------- ----------- ----- ------- -------- ----- -------
----------------------------- --------------------------
Size Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 KiB 2,957 35.8 35.8 0.0 0.0 0.0
10 KiB 1,114 13.5 49.3 0.0 0.0 0.0
100 KiB 249 3.0 52.4 0.1 0.0 0.0
500 KiB 1,069 13.0 65.3 0.3 0.0 0.0
1 MiB 113 1.4 66.7 0.1 0.0 0.0
5 MiB 446 5.4 72.1 1.3 0.0 0.0
10 MiB 220 2.7 74.8 1.9 0.0 0.0
50 MiB 1,326 16.1 90.8 33.6 0.2 0.2
100 MiB 12 0.1 91.0 0.9 0.0 0.2
500 MiB 490 5.9 96.9 162.9 0.8 1.0
1 GiB 58 0.7 97.6 15.6 0.1 1.1
5 GiB 29 0.4 98.0 87.0 0.5 1.6
10 GiB 17 0.2 98.2 322.9 1.7 3.3
50 GiB 21 0.3 98.4 1352.7 7.0 10.3
100 GiB 72 0.9 99.3 6743.0 35.1 45.5
500 GiB 58 0.7 100.0 10465.9 54.5 100.0
> 500 GiB 0 0.0 100.0 0.0 0.0 100.0
--------- ----------- ----- ------- -------- ----- -------
バックアップで非常に大量の小さなファイルを書き込んでいる証拠がある場合、クリーニング/ガベージ コレクションの各呼び出しの間で、使用率の一時的な急増によりシステムが影響を受ける可能性があります。このシナリオでは、すべての小さいファイルをDDRに書き込む前に単一の大規模なアーカイブ(tarファイルなど)に含むように、バックアップ方法を変更することをお勧めします。このようなアーカイブは、圧縮または暗号化してはならない点に注意してください(そのデータの圧縮比/重複排除率に悪影響があるため)。
手順7 - 予想より低い重複排除率を確認する
DDRの主な目的は、デバイスにより取得されるデータの重複排除および圧縮を行うことです。重複排除/圧縮の比率は、システムの用途やデータのタイプによって大きく異なりますが、多くの場合、概念のテストや同様の結果に基づく「適切な」全体の圧縮比があります。システムの現在の全体的な圧縮比を確認し、それに伴う適切な圧縮比の達成有無を確認するには、「filesys show compression」コマンドを使用できます。例:
# filesys show compression
From: 2017-05-03 13:00 To: 2017-05-10 13:00
Active Tier:
Pre-Comp Post-Comp Global-Comp Local-Comp Total-Comp
(GiB) (GiB) Factor Factor Factor
(Reduction %)
---------------- -------- --------- ----------- ---------- -------------
Currently Used:* 20581.1 315.4 - - 65.3x (98.5)
Written:
Last 7 days 744.0 5.1 80.5x 1.8x 145.6x (99.3)
Last 24 hrs
---------------- -------- --------- ----------- ---------- -------------
* Does not include the effects of pre-comp file deletes/truncates
From: 2017-05-03 13:00 To: 2017-05-10 13:00
Active Tier:
Pre-Comp Post-Comp Global-Comp Local-Comp Total-Comp
(GiB) (GiB) Factor Factor Factor
(Reduction %)
---------------- -------- --------- ----------- ---------- -------------
Currently Used:* 20581.1 315.4 - - 65.3x (98.5)
Written:
Last 7 days 744.0 5.1 80.5x 1.8x 145.6x (99.3)
Last 24 hrs
---------------- -------- --------- ----------- ---------- -------------
* Does not include the effects of pre-comp file deletes/truncates
上記の例では、システムはアクティブ階層で65.3xの全体的な圧縮比を達成しています(非常に良い)。ただし、この値が、適切な全体的な圧縮比を満たしていない場合は、さらに調査が必要になる可能性があります。予想よりも低い圧縮比の調査は、多くの根本原因を持つ可能性のある複雑なテーマであることに注意してください。さらに詳しく調査する方法の詳細については、次の記事を参照してください。https://support.emc.com/kb/487055
手順8 - システムがコレクション レプリケーションのソースであるかどうかを確認する
コレクション レプリケーションを使用する場合、ソース システムがターゲットよりも物理的に大きい場合は、ソース システムのサイズがターゲットと一致するように人為的に制限されます(つまり、ソース上のディスク領域の一部が使用不可としてマークされます)。その理由は、コレクション レプリケーションを使用する場合、ターゲットはソースのブロック レベルのコピーである必要がありますが、ソースがターゲットよりも物理的に大きい場合は、ソースに過剰なデータが書き込まれ、ターゲットにレプリケートできなくなる可能性があるためです(既にフルであるため)。このシナリオは、ターゲットと一致するようにソースのサイズを制限することで回避できます。
- 手順2のコマンドを使用して、システムがコレクション レプリケーションのソースであるかどうかを確認します。これを行うには、「replication status」を実行し、「col://」(コレクション レプリケーションを示す)で始まり、ターゲットのローカル システムのホスト名を含まない(このシステムがレプリケーション コンテキストのソースである必要があることを示す)、レプリケーション コンテキストがあるかどうかを確認します
- システムがコレクション レプリケーションのソースである場合は、両方にログインし、「filesys show space」コマンドを実行して、各システムのアクティブ階層のサイズをチェックします
- ソースがターゲットよりも大幅に大きい場合は、そのアクティブ階層のサイズは人為的に制限されます
- ソース上のすべての領域をデータが使用できるようにするには、次の操作を実行する必要があります。
ターゲットのアクティブ階層にストレージを追加して、そのサイズがソースのアクティブ階層のサイズ以上(>=)になるようにする
コレクション レプリケーション コンテキストを中断する(手順2のコマンドを使用) - これにより、確実にソースから -> ターゲットDDRにデータがレプリケートされない点に注意してください
これらのいずれかが実行されるとすぐに、ソース システムのアクティブ階層で、追加の領域がすぐに使用できるようになります(つまり、この領域を使用する前にアクティブ階層のクリーニング/ガベージ コレクションを実行する必要はありません)
手順9 - データ移動が定期的に実行されているかどうかを確認する
DDRがExtended Retention(ER)またはLong Term Retention(LTR)のいずれかで構成されている場合は、2つ目の階層のストレージが割り当てられます(ERにはアクティブ階層、またはLTRにはクラウド階層)。このシナリオでは、データ移動ポリシーがMtreeに対して構成されていて、長期保存を必要とする古い/未変更のデータをアクティブ階層から代替のストレージ階層に移行できる可能性が高くなります。これにより、アクティブ階層のこれらのファイルによって使用されていた領域を、クリーニング/ガベージ コレクションによって物理的に再利用できます。データ移動ポリシーが正しく構成されていない場合、またはデータ移動プロセスが定期的に実行されていない場合、古いデータは予想よりも長い間アクティブ階層に残り、ディスク上の物理的な領域を使用し続けます。
- 最初に、「filesys show space」を実行し、アーカイブまたはクラウド階層の有無を確認することにより、システムがERまたはLTRで構成されているかどうかを確認します。これを使用できるようにするには、これらの代替ストレージ階層の圧縮後サイズが0Gbより大きい(>)必要があります。
# filesys show space
...
Archive Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 4163.8 - - -
/data: post-comp 31938.2 1411.9 30526.3 4% -
---------------- -------- -------- --------- ---- -------------
# filesys show space
...
Cloud Tier
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 338905.8 0.0 338905.8 0% 0.0
---------------- -------- -------- --------- ---- -------------
...
Archive Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 4163.8 - - -
/data: post-comp 31938.2 1411.9 30526.3 4% -
---------------- -------- -------- --------- ---- -------------
# filesys show space
...
Cloud Tier
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 338905.8 0.0 338905.8 0% 0.0
---------------- -------- -------- --------- ---- -------------
ERとLTRは相互に排他的であるため、システムにはアクティブ階層のみ(ER/LTRで構成されていない)、アクティブ階層とアーカイブ階層(ERで構成されている)、またはアクティブ階層とクラウド階層(LTRで構成)のいずれかが含まれることに注意してください。
- システムがER/LTRで構成されている場合は、古いデータが代替ストレージ階層にプッシュされるようにMtreeに対するデータ移動ポリシーが適切に設定されていることを確認します。
ER: # archive data-movement policy show
LTR: # data-movement policy show
LTR: # data-movement policy show
データ移動ポリシーが正しくない場合、または設定されていない場合は、修正する必要があります。これを行うには、『Data Domain Administrators Guide』を参照してください。
- システムがER/LTRで構成されている場合は、定期的にアクティブ階層から代替ストレージにファイル/データが物理的に移行されるようにスケジュール設定されていることを確認します。
ER: # archive data-movement schedule show
LTR: # data-movement schedule show
LTR: # data-movement schedule show
Data Domainでは、一般的に、自動化されたスケジュールを使用してデータを移動することを推奨しています。ただし、このプロセスをアドホックな方法で実行することもできます(必要な場合)。このシナリオでは、次を実行してデータ移動を定期的に開始する必要があります。
ER: # archive data-movement start
LTR: # data-movement start
LTR: # data-movement start
データ移動スケジュールを変更する方法の詳細については、『Data Domain Administrators Guide』を参照してください。
- システムがER/LTRで構成されている場合は、最後に実行されたデータ移動を確認します。
ER: # archive data-movement status
LTR: # data-movement status
LTR: # data-movement status
データ移動がしばらく実行されていない場合は、次のようにプロセスを手動で開始して監視します。
ER: # archive data-movement watch
LTR: # data-movement watch
LTR: # data-movement watch
何らかの理由でデータ移動が開始しない場合は、契約しているサポート プロバイダーに連絡してサポートを受けてください。
- データ移動が完了したら、アクティブ階層のクリーニングを実行する必要があります(データ移動が完了したときに自動的に開始するように構成されている可能性があることに注意してください)。これにより、アクティブ階層で移行されたファイルに使用されていた領域が物理的に解放されます。
# filesys clean start
ERシステムでは、データ移動を定期的に実行するようにスケジュール設定し(1週間に1回など)、データ移動の完了時にアクティブ階層のクリーニングを実行するように構成することが一般的です。このシナリオでは、アクティブ階層のクリーニングに独自の独立したスケジュールはありません。これを構成するには、最初に現在のアクティブ階層のクリーニング スケジュールを削除します。
# filesys clean set schedule never
データ移動を定期的に実行して、アクティブ階層の自動クリーニングを実行するように設定します。例えば、毎週火曜日の午前6時にデータ移動を実行し、アクティブ階層のクリーニングを実行する場合:
# archive data-movement schedule set days Tue time 0600
The Archive data movement schedule has been set.
Archive data movement is scheduled to run on day(s) "tue" at "06:00" hrs
次のように、データ移動が完了した後にアクティブ階層のクリーニングが実行されるように設定されていることを確認できます。
# archive show config
Enabled Yes
Data movement Schedule Run on day(s) "tue" at "06:00" hrs <=== SCHEDULE
Data movement throttle 100 percent
Default age threshold data movement policy 14 days
Run filesys clean after archive data movement Yes <=== RUN CLEAN ON COMPLETION
Archive Tier local compression gz
Packing data during archive data movement enabled
Space Reclamation disabled
Space Reclamation Schedule No schedule
ERシステムでは、データ移動を定期的に実行するようにスケジュール設定し(1週間に1回など)、データ移動の完了時にアクティブ階層のクリーニングを実行するように構成することが一般的です。このシナリオでは、アクティブ階層のクリーニングに独自の独立したスケジュールはありません。これを構成するには、最初に現在のアクティブ階層のクリーニング スケジュールを削除します。
# filesys clean set schedule never
データ移動を定期的に実行して、アクティブ階層の自動クリーニングを実行するように設定します。例えば、毎週火曜日の午前6時にデータ移動を実行し、アクティブ階層のクリーニングを実行する場合:
# archive data-movement schedule set days Tue time 0600
The Archive data movement schedule has been set.
Archive data movement is scheduled to run on day(s) "tue" at "06:00" hrs
次のように、データ移動が完了した後にアクティブ階層のクリーニングが実行されるように設定されていることを確認できます。
# archive show config
Enabled Yes
Data movement Schedule Run on day(s) "tue" at "06:00" hrs <=== SCHEDULE
Data movement throttle 100 percent
Default age threshold data movement policy 14 days
Run filesys clean after archive data movement Yes <=== RUN CLEAN ON COMPLETION
Archive Tier local compression gz
Packing data during archive data movement enabled
Space Reclamation disabled
Space Reclamation Schedule No schedule
LTRシステムでは、アクティブ階層のクリーニングを独自のスケジュールで設定する必要があります。
手順10 - アクティブ階層にストレージを追加する
これまでの手順をすべて実行し、アクティブ階層のクリーニングが完了しても、アクティブ階層に十分な領域がない場合は、システムのサイズが受信するワークロードに対して適切に設定されていない可能性があります。この場合は、次のいずれかを実行する必要があります。
- システムにかかるワークロードを減らす - 例:
バックアップのサブセットを代替ストレージにリダイレクトする
バックアップの保存期間を短くして、より早く失効/削除されるようにする
システム上のMtreeに対してスケジュールされたスナップショットの数/有効期限を短くする
ローカル システムがターゲットである余分なレプリケーション コンテキストを中断してから、対応するMtreeを削除する
バックアップの保存期間を短くして、より早く失効/削除されるようにする
システム上のMtreeに対してスケジュールされたスナップショットの数/有効期限を短くする
ローカル システムがターゲットである余分なレプリケーション コンテキストを中断してから、対応するMtreeを削除する
- システムのアクティブ階層にストレージを追加し、そのサイズを拡張する:
# storage add [tier active] enclosure [enclosure number] | disk [device number]
# filesys expand
# filesys expand
ストレージの追加については、担当のセールス アカウント チームにお問い合わせください。
Дополнительная информация
Data Domainサポートにより、次のような情報を表示する多数のレポートを生成できます。
- 特定の階層(アクティブ/アーカイブ/クラウドなど)にあるすべてのファイルのリスト(経過時間順)
- Mtree/メジャー ディレクトリー ツリーごとの推定サイズと圧縮比
- 特定のMtreeにあるすべてのファイルのリスト(経過時間順)
- など...
これを許可するには、次の情報を収集する必要があります。
- DDRからの新規サポート バンドル - 詳細については、https://support.emc.com/kb/323283を参照してください。
- 「sfs_dump」または「sfs_dump-c」の出力:
DDR CLIにログインし、seモードにドロップします(この時点で、暗号化および/またはRetention Lockを使用して構成されたシステムでは、「セキュリティ」の役割を持つユーザーの認証情報の入力を求めるプロンプトが表示されることに注意してください)。
# system show serialno
[system serial number displayed]
# priv set se
[password prompt - enter system serial number from above]
[system serial number displayed]
# priv set se
[password prompt - enter system serial number from above]
ターミナル セッションのログを有効にします。例えば、puttyを使用する場合は、次のように実行できます。メニュー バーを右クリック -> [Change Settings]...-> [Session] -> [Logging] -> すべてのセッション出力を選択してファイル名を選択 -> [Apply]
sfs_dumpを実行します。
# se sfs_dump
完了したら、セッション ログのコピーを取得して詳細な分析を行います。
- ファイルの場所レポート(システムがERまたはLTRで設定されている場合に必要):
DDR CLIにログインします。
ターミナル セッションのログを有効にします。例えば、puttyを使用する場合は、次のように実行できます。メニュー バーを右クリック -> [Change Settings]...-> [Session] -> [Logging] -> すべてのセッション出力を選択してファイル名を選択 -> [Apply]
ファイルの場所レポートを収集します。
ER: # archive report generate file-location
LTR: # filesys report generate file-location
完了したら、セッション ログを取得して詳細な分析を行ってください。
ターミナル セッションのログを有効にします。例えば、puttyを使用する場合は、次のように実行できます。メニュー バーを右クリック -> [Change Settings]...-> [Session] -> [Logging] -> すべてのセッション出力を選択してファイル名を選択 -> [Apply]
ファイルの場所レポートを収集します。
ER: # archive report generate file-location
LTR: # filesys report generate file-location
完了したら、セッション ログを取得して詳細な分析を行ってください。
上記を収集する際、またはこのアーカイブのクリーニングに関するいずれかの手順でサポートが必要な場合は、契約しているサポート プロバイダーにお問い合わせください。
Затронутые продукты
Data DomainПродукты
Data DomainСвойства статьи
Номер статьи: 000054303
Тип статьи: Solution
Последнее изменение: 21 Jul 2025
Версия: 6
Получите ответы на свои вопросы от других пользователей Dell
Услуги технической поддержки
Проверьте, распространяются ли на ваше устройство услуги технической поддержки.