新しい会話を開始

Solved!

ソリューションへ移動

2 Intern

 • 

346 メッセージ

1038

2021年2月25日 17:00

IsilonのSmartpoolによるプール間のデータ移動に関して

Isilon NL400⇒H400への機種変更の作業をしています。

 

Smartpools機能を使用し、NL400上にあったデータを全て、H400上に移動したいと考え、ファイルプールポリシーで、/ifsディレクトリの全てのデータを、H400のプールに移動する設定を行い、実行しました。

 

結果ほとんどのデータは、H400のプールに移動できたのですが、

一部、NL400上にデータが残っているように見えています。

NL400は4ノードのプールであり、それぞれのノード上には、以下のような容量が残っているように見えています。

ノード1 :4GB

ノード2 :300GB

ノード3 :8GB

ノード4 :8GB

 

ファイルプールポリシーで移動できないデータはどの様なものが考えられるでしょうか?

ノード1,3,4は、残っていても妥当な容量に感じられますが、

ノード2のみ300GB程度の容量となっているのが気になります。

このクラスタの保護レベルは、+2d:1nですが、NL400のノード2だけデータが残っているということは、ノード2上に残っているデータはミラーされていないデータであると推測しています。

 

2 Intern

 • 

293 メッセージ

2021年2月25日 21:00

どこの情報を見て各ノードの残容量を判断されているのかは明記されていない為、断定はできませんが、残っている可能性があるのは、経験的には以下のようなものが考えられます。

・/ifs/.ifsvar配下のファイルでクラスタ全体で共有または各ノードにコピーされているようなdbあるいは設定ファイルなどのデータ

・Collectの処理待ちなどでまだ解放されていない不要ブロック

・パッチなどの一時データ(過去に特定ノードだけパッチインストールがうまくいかなかったなどの場合は怪しいかもしれません)

 

ご参考まで。不安であればSRで確認することをお勧めいたします。

Moderator

 • 

6.7K メッセージ

2021年3月1日 20:00

uchiyさん

SSA 横から失礼します。

 

”Collectの処理待ちなどでまだ解放されていない不要ブロックも使用済みの容量としてカウントされるということでしょうか?

→おっしゃる通りになります。

 

参考KBDell EMC Knowledge Article 000165117 : Deployment KB: Isilon: Smartpool job unable to move data.

 

Cause 3    Data blocks are tied up because Collect/Multiscan jobs are not running overtime:

Resolution 3   Ensure that 'Autobalance/AutobalanceLIN' and 'Collect' or 'Multiscan' jobs are running in a timely manner.

 

ノード2をsmartfailすれば、残っている容量のうちクラスタとして必要なデータは、H400のプールに強制的に移動されると考えていますが、これはただしいですか?

→まずどのDataNode2に残っているのかNode2SSH接続して/ifs 配下を確認するのはどうでしょうか。それによって対応が変わってくる可能性があるので。(過去履歴見るとそうでした。。)

2 Intern

 • 

346 メッセージ

2021年2月25日 21:00

ご確認ありがとうございます。

 

”Collectの処理待ちなどでまだ解放されていない不要ブロック”も使用済みの容量としてカウントされるということでしょうか?

Isilonの使用容量は、全体容量ー未使用領域の容量で計算されるのですかね?

 

今後、NL400はSmartfailでクラスタから切り離しを行う予定です。

ノード2をsmartfailすれば、残っている容量のうちクラスタとして必要なデータは、

H400のプールに強制的に移動されると考えていますが、これはただしいですか?

 

 

2 Intern

 • 

346 メッセージ

2021年3月1日 22:00

>→まずどのDataがNode2に残っているのかNode2へSSH接続して/ifs 配下を確認するのはどうでしょうか。

>それによって対応が変わってくる可能性があるので。(過去履歴見るとそうでした。。)

 

どの様にすれば確認できますか?

ノード2にどのデータが残っているか確認する方法はありますか?

コマンドなどでの確認方法があれば教えていただけると助かります。

 

 

なお、私の権限では、以下のナレッジにはアクセスできませんでした。

参考KB:Dell EMC Knowledge Article 000165117 : Deployment KB: Isilon: Smartpool job unable to move data.

 

Moderator

 • 

6.7K メッセージ

2021年3月2日 01:00

uchiyさん

ご返信をありがとうございます。
ごめんなさい・・・

確かに新しいNodeもClusterに追加されているのであれば個別にノード2にどのデータが残っているかは確認できないです。
またお知らせしたKBは閲覧権限がサポートのみ、のため全文掲載ができないので残っているData の確認(というかその原因の確認)も含めてサポートへ確認することをお勧めします。

2 Intern

 • 

293 メッセージ

2021年3月9日 04:00

>ノード2をsmartfailすれば、残っている容量のうちクラスタとして必要なデータは、

> H400のプールに強制的に移動されると考えていますが、これはただしいですか?

ノード2をsmartfailしても、ノード1,3,4にデータは再構築される可能性はあります。

ノード1-4のうち、3台以上Smartfailが完了したタイミングで、ノードpoolが維持できなくなるので新しいモデルの方に必要なデータは全てspilloverします。

 

イベントは見つかりませんでした!

Top