VNX. Очистка репликации, когда корневые контрольные точки репликации повреждены или неактивны (исправляется пользователем)
Summary: Очистка репликации, когда корневые контрольные точки репликации повреждены или неактивны (исправляется пользователем)
This article applies to
This article does not apply to
This article is not tied to any specific product.
Not all product versions are identified in this article.
Symptoms
Корневые контрольные точки повреждены (распространенная причина, по которой внутренние LUN имеют неустранимые ошибки из-за сбоев дисков)
В приведенных выше выходных данных видны только контрольные точки root, что указывает на то, что основная файловая система исправна. Обычно это случается, если savvol создан на другом пуле хранения данных, в котором произошло повреждение, и связанная с ним файловая система безопасна.
[nasadmin@CS0 ~]$ server_mount ALL | grep unmount root_rep_ckpt_28_242474_1 on /root_rep_ckpt_28_242474_1 ckpt,perm,ro,<unmounted> root_rep_ckpt_28_242474_2 on /root_rep_ckpt_28_242474_2 ckpt,perm,ro,<unmounted> root_rep_ckpt_27_242517_1 on /root_rep_ckpt_27_242517_1 ckpt,perm,ro,<unmounted> root_rep_ckpt_27_242517_2 on /root_rep_ckpt_27_242517_2 ckpt,perm,ro,<unmounted>
В приведенных выше выходных данных видны только контрольные точки root, что указывает на то, что основная файловая система исправна. Обычно это случается, если savvol создан на другом пуле хранения данных, в котором произошло повреждение, и связанная с ним файловая система безопасна.
[nasadmin@CS0 ~]$ nas_replicate -l Name Type Local Mover Interconnect Celerra Status rep_fs1 filesystem server_2 -->Replication Remote_CS Critical 8865448248:The replication session encountered an error that halted progress. rep_fs2 filesystem server_2 -->Replication Remote_CS OK rep_fs3 filesystem server_2 -->Replication Remote_CS Critical 8865448248:The replication session encountered an error that halted progress.В приведенном выше выводе будет отражена ошибка, как это видно из 2 критических ошибок репликации (что соответствует 2 наборам состояния размонтирования контрольной точки root, наблюдаемому в server_mount выходных данных)
Cause
Если в модуле переноса данных происходит сбой, в большинстве случаев это происходит из-за повреждения дисков, и VNX помечает файловую систему как поврежденную. Корневые контрольные точки также будут размонтированы.
Resolution
Примечание.: Проблемы с серверной частью должны быть устранены в первую очередь, например, если какие-либо диски требуют замены, это необходимо решить в первую очередь.
Чтобы удалить затронутые репликации, выполните следующие действия:
При прямой попытке удалить сессии задача удаления может отображаться как зависшающая. Потому что при удалении будет предпринята попытка обновления контрольных точек root, и обновление зависнет, так как оно повреждено. Обратитесь к разделу примечаний, чтобы устранить это. Эта процедура должна выполняться в правильном порядке с помощью командной строки на управляющей станции.
1) Войдите на управляющую станцию как nasadmin
. 2) Определите имя сессии репликации, следуя этому примеру:
2. Определите контрольные точки репликации и удалите, следуя этому примеру.
3) Удалите сессию репликации, используя следующий синтаксис:
4) Удалите репликацию на удаленной стороне, выполнив указанный выше шаг 3.
Обратитесь в службу технической поддержки Dell EMC , если не удалось выполнить какое-либо из указанных выше действий. Укажите идентификатор этой статьи базы знаний.
Чтобы удалить затронутые репликации, выполните следующие действия:
При прямой попытке удалить сессии задача удаления может отображаться как зависшающая. Потому что при удалении будет предпринята попытка обновления контрольных точек root, и обновление зависнет, так как оно повреждено. Обратитесь к разделу примечаний, чтобы устранить это. Эта процедура должна выполняться в правильном порядке с помощью командной строки на управляющей станции.
1) Войдите на управляющую станцию как nasadmin
. 2) Определите имя сессии репликации, следуя этому примеру:
a) Find the full name of root checkpoints by: [nasadmin@CS0 ~]$ server_mount ALL | grep unmount root_rep_ckpt_28_242474_1 on /root_rep_ckpt_28_242474_1 ckpt,perm,ro,<unmounted> root_rep_ckpt_28_242474_2 on /root_rep_ckpt_28_242474_2 ckpt,perm,ro,<unmounted> b) For each checkpoint, issue the following command and note the file system name [nasadmin@CS0 ~]$ /nas/sbin/rootnas_fs -info root_rep_ckpt_28_242474_1 | grep checkpt_of checkpt_of= fs1 Mon Jun 15 16:51:54 EDT 2015 Repeat above as every FS will have 2 root checkpoints per replication session, so good to get all FS names first before proceeding to next step
2. Определите контрольные точки репликации и удалите, следуя этому примеру.
a) Identify the file system name from the replications failing with critical errors by :
nas_replicate -list
Example:
$ nas_replicate -i jsq-stx-mq
ID = 156_APM001_01F4_137_APM002_01F4
Name = rep_fs1
Source Status = Critical 8865448248: The replication session encountered an error that halted progres s.
Network Status = OK
Destination Status = OK
Last Sync Time = Wed Jul 13 14:35:15 EDT 2016
Type = filesystem
Celerra Network Server = CS01
Dart Interconnect = Replication
Peer Dart Interconnect = Replication
Replication Role = source <== note the role
Source Filesystem = fs1 <== this is the fs name if the role is source
Source Data Mover = server_2
Source Interface = 10.x.x.x
Source Control Port = 0
Source Current Data Port = 0
Destination Filesystem = fs1-DR <== this is the fs name if the role is destination
Destination Data Mover = server_2
Destination Interface = 10.x.x.x
...
Match this name from names identified in step 2 to ensure they are same.
b) Check the replication checkpoint status by : fs_ckpt <fs_name> -list -all
Example:
$ fs_ckpt fs1 -list -all
id ckpt_name creation_time inuse fullmark total_savvol_used ckpt_usage_on_savvol
32 root_rep_ckpt_28_242474_ 06/15/2015-16:51:54-EDT y 90% INACTIVE N/A
33 root_rep_ckpt_28_242474_ 06/15/2015-16:51:56-EDT y 90% INACTIVE N/A
34 fs1_ckpt1 06/17/2015-16:51:56-EDT y 90% INACTIVE N/A
Info 26306752329: The value of ckpt_usage_on_savvol for read-only checkpoints may not be consistent with the total_savvol_used.
id wckpt_name inuse fullmark total_savvol_used base ckpt_usage_on_savvol
INACTIVE indicates, this is corrupted.
c) If the "inuse" value is "y", delete the root checkpoints using the following command: /nas/sbin/rootnas_fs -delete id=<root_ckpt_id> -o umount=yes -ALLOW_REP_INT_CKPT_OP
Rarely, root checkpoint may have, inuse" value as "n", then, /nas/sbin/rootnas_fs -delete id=<root_ckpt_id> -ALLOW_REP_INT_CKPT_OP
Example:
[nasadmin@CS0 ~]$ /nas/sbin/rootnas_fs -delete id=32 -o umount=yes -ALLOW_REP_INT_CKPT_OP
id = 32
name = root_rep_ckpt_28_242474_1
acl = 0
in_use = True
type = ckpt
worm = off
..
d) Repeat above step and delete all the root checkpoints
e) For non root checkpoints, delete using same command with out the last arument (Example: /nas/sbin/rootnas_fs -delete id=34 -o umount=yes)
For the "source" replication role : nas_replicate -delete <replication_session_name> -mode source -background For the "destination" replication role : nas_replicate -delete <replication_session_name> -mode destination -background Above command will give a task number, which can be used to view the status, by "nas_task -i <task_number>
4) Удалите репликацию на удаленной стороне, выполнив указанный выше шаг 3.
[ "nas_replicate -delete <session_name> -mode <mode> -background" ]Если все указанные выше действия выполнены, операция удаления репликации завершается. Новую репликацию можно перенастроить с помощью Unisphere или командной строки.
Обратитесь в службу технической поддержки Dell EMC , если не удалось выполнить какое-либо из указанных выше действий. Укажите идентификатор этой статьи базы знаний.
Additional Information
Если предпринимается прямая попытка удалить сессии в Unisphere или с помощью команды nas_replicate -delete, задача удаления может отображаться как зависшающая. В большинстве случаев это можно исправить без перезагрузки модуля переноса данных.
1) Определите задачу с помощью:
2) Найдите подробную информацию (в частности, имя модуля переноса данных) следующим образом:
3) Прервите задачу следующим образом:
Выше также следует удалить сессию репликации и корневые контрольные точки. Все контрольные точки пользователя необходимо удалить вручную.
1) Определите задачу с помощью:
nas_task -list | grep -i run
2) Найдите подробную информацию (в частности, имя модуля переноса данных) следующим образом:
nas_task -info <task_number>
3) Прервите задачу следующим образом:
nas_task -abort <task_numer> -mover <data_mover_name>
Выше также следует удалить сессию репликации и корневые контрольные точки. Все контрольные точки пользователя необходимо удалить вручную.
Affected Products
vVNXArticle Properties
Article Number: 000056557
Article Type: Solution
Last Modified: 29 Jul 2025
Version: 4
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.