VNX: Oprydning i replikering, når rodkontrolpunkter for replikering er beskadiget/inaktive (kan rettes af brugeren)

Summary: Oprydning i replikering, når rodkontrolpunkter for replikering er beskadiget/inaktive (kan rettes af brugeren)

This article applies to This article does not apply to This article is not tied to any specific product. Not all product versions are identified in this article.

Symptoms

Root checkpoints beskadiget (almindelig årsag er backend luns har uncorrectables på grund af diskfejl)
 
[nasadmin@CS0 ~]$ server_mount ALL | grep unmount
root_rep_ckpt_28_242474_1 on /root_rep_ckpt_28_242474_1 ckpt,perm,ro,<unmounted>
root_rep_ckpt_28_242474_2 on /root_rep_ckpt_28_242474_2 ckpt,perm,ro,<unmounted>
root_rep_ckpt_27_242517_1 on /root_rep_ckpt_27_242517_1 ckpt,perm,ro,<unmounted>
root_rep_ckpt_27_242517_2 on /root_rep_ckpt_27_242517_2 ckpt,perm,ro,<unmounted>

I dette ovenstående output kan kun root-kontrolpunkter ses, og dette indikerer, at hovedfilsystemet er godt. Dette sker normalt, hvis savvol er bygget på forskellige Storage Pool, som havde korruption, og det tilknyttede filsystem er sikkert.
[nasadmin@CS0 ~]$ nas_replicate -l
Name                      Type       Local Mover               Interconnect         Celerra      Status
rep_fs1                filesystem server_2                  -->Replication       Remote_CS  Critical 8865448248:The replication session encountered an error that halted progress.
rep_fs2                filesystem server_2                  -->Replication       Remote_CS  OK
rep_fs3                filesystem server_2                  -->Replication       Remote_CS  Critical 8865448248:The replication session encountered an error that halted progress.
Ovenstående output afspejler fejlen, som det fremgår af de 2 replikeringskritiske fejl (som matcher de 2 sæt rodkontrolpunktsafmonteringsstatus, der ses i server_mount output)

Cause

Hvis dataflytteren går i panik, skyldes dette i de fleste tilfælde korruption på grund af diske, og VNX markerer filsystemet som korrupt. Rodkontrolpunkter bliver også afmonteret.

Resolution

Bemærk: Backend-problemerne skal løses først, som om nogen diske skal udskiftes, det skal være først. 

Sådan sletter du berørte replikeringer:

Hvis sessionerne forsøges direkte slettet, kan sletteopgaven vises som hængt. Fordi sletningen vil forsøge at opdatere rodkontrolpunkterne, og opdateringen hænger, fordi den er beskadiget. Se noteafsnittet for at rette det. Denne procedure skal rettes i korrekt rækkefølge og skal udføres fra kontrolstationen via kommandoprompten.

1) Log ind på kontrolstationen som nasadmin

2) Identificer replikeringssessionens navn ved at følge dette eksempel:
a) Find the full name of root checkpoints by:
[nasadmin@CS0 ~]$ server_mount ALL | grep unmount
root_rep_ckpt_28_242474_1 on /root_rep_ckpt_28_242474_1 ckpt,perm,ro,<unmounted>
root_rep_ckpt_28_242474_2 on /root_rep_ckpt_28_242474_2 ckpt,perm,ro,<unmounted>
b) For each checkpoint, issue the following command and note the file system name
[nasadmin@CS0 ~]$ /nas/sbin/rootnas_fs -info root_rep_ckpt_28_242474_1 | grep checkpt_of
checkpt_of= fs1 Mon Jun 15 16:51:54 EDT 2015

Repeat above as every FS will have 2 root checkpoints per replication session, so good to get all FS names first before proceeding to next step

2) Identificer replikeringskontrolpunkterne, og slet ved at følge dette eksempel
 
a) Identify the file system name from the replications failing with critical errors by :
nas_replicate -list

Example: 
$ nas_replicate -i jsq-stx-mq
ID                             = 156_APM001_01F4_137_APM002_01F4
Name                           = rep_fs1
Source Status                  = Critical 8865448248: The replication session encountered an error that halted progres                                                                                          s.
Network Status                 = OK
Destination Status             = OK
Last Sync Time                 = Wed Jul 13 14:35:15 EDT 2016
Type                           = filesystem
Celerra Network Server         = CS01
Dart Interconnect              = Replication
Peer Dart Interconnect         = Replication
Replication Role               = source  <== note the role 
Source Filesystem              = fs1 <== this is the fs name if the role is source
Source Data Mover              = server_2
Source Interface               = 10.x.x.x
Source Control Port            = 0
Source Current Data Port       = 0
Destination Filesystem         = fs1-DR <== this is the fs name if the role is destination
Destination Data Mover         = server_2
Destination Interface          = 10.x.x.x
...

Match this name from names identified in step 2 to ensure they are same.
b) Check the replication checkpoint status by : fs_ckpt <fs_name> -list -all

Example: 
$ fs_ckpt fs1 -list -all
id    ckpt_name                creation_time           inuse fullmark   total_savvol_used  ckpt_usage_on_savvol
32    root_rep_ckpt_28_242474_ 06/15/2015-16:51:54-EDT   y   90%        INACTIVE           N/A
33    root_rep_ckpt_28_242474_ 06/15/2015-16:51:56-EDT   y   90%        INACTIVE           N/A
34    fs1_ckpt1                          06/17/2015-16:51:56-EDT   y   90%        INACTIVE           N/A
Info 26306752329: The value of ckpt_usage_on_savvol for read-only checkpoints may not be consistent with the total_savvol_used.

id    wckpt_name               inuse fullmark total_savvol_used  base  ckpt_usage_on_savvol

INACTIVE indicates, this is corrupted.
c) If the "inuse" value is "y", delete the root checkpoints using the following command:  /nas/sbin/rootnas_fs -delete id=<root_ckpt_id> -o umount=yes -ALLOW_REP_INT_CKPT_OP 
Rarely, root checkpoint may have, inuse" value as "n", then,  /nas/sbin/rootnas_fs -delete id=<root_ckpt_id> -ALLOW_REP_INT_CKPT_OP 

Example:
[nasadmin@CS0 ~]$ /nas/sbin/rootnas_fs -delete id=32  -o umount=yes -ALLOW_REP_INT_CKPT_OP 
id        = 32
name      = root_rep_ckpt_28_242474_1
acl       = 0
in_use    = True
type      = ckpt
worm      = off
..

d) Repeat above step and delete all the root checkpoints 
e) For non root checkpoints, delete using same command with out the last arument (Example: /nas/sbin/rootnas_fs -delete id=34 -o umount=yes)
3) Slet replikeringssessionen ved hjælp af følgende syntaks:
For the "source" replication role : nas_replicate -delete <replication_session_name> -mode source -background
For the "destination" replication role : nas_replicate -delete <replication_session_name> -mode destination -background

Above command will give a task number, which can be used to view the status, by "nas_task -i <task_number>

4) Slet også replikeringen på fjernsiden ved blot at bruge ovenstående trin 3
 [ "nas_replicate -delete <session_name> -mode <mode> -background" ] 
Hvis alle ovenstående trin er udført, fuldføres replikeringssletningsaktiviteten. En ny replikering kan omkonfigureres ved hjælp af Unisphere eller kommandoprompt.

Kontakt Dell EMC s tekniske support , hvis et af ovenstående trin mislykkes.  Citer dette vidensbaseartikel-id.

Additional Information

Hvis sessionerne forsøges direkte slettet på enten Unisphere eller via kommandoen "nas_replicate -delete", vises sletteopgaven muligvis som hængt. I de fleste tilfælde kan dette løses uden behov for at genstarte data mover

.1) Identificer opgaven via:
nas_task -list | grep -i run

2) Find de detaljerede oplysninger (især navnet på dataflytteren) ved at:
nas_task -info <task_number>

3) Afbryd opgaven ved at:
nas_task -abort <task_numer> -mover <data_mover_name>

Ovenstående skal også slette replikeringssessionen og rodkontrolpunkterne. Alle brugerkontrolpunkter skal slettes manuelt.

Affected Products

vVNX
Article Properties
Article Number: 000056557
Article Type: Solution
Last Modified: 29 Jul 2025
Version:  4
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.