VNX: Bereinigen der Replikation, wenn Replikations-Root-Prüfpunkte beschädigt/inaktiv sind (vom Nutzer korrigierbar)

Summary: Bereinigen der Replikation, wenn Replikations-Root-Prüfpunkte beschädigt/inaktiv sind (vom Nutzer korrigierbar)

This article applies to This article does not apply to This article is not tied to any specific product. Not all product versions are identified in this article.

Symptoms

Root-Prüfpunkte sind beschädigt (häufige Ursache ist, dass Back-end-LUNs aufgrund von Festplattenausfällen nicht korrigierbare Werte aufweisen)
 
[nasadmin@CS0 ~]$ server_mount ALL | grep unmount
root_rep_ckpt_28_242474_1 on /root_rep_ckpt_28_242474_1 ckpt,perm,ro,<unmounted>
root_rep_ckpt_28_242474_2 on /root_rep_ckpt_28_242474_2 ckpt,perm,ro,<unmounted>
root_rep_ckpt_27_242517_1 on /root_rep_ckpt_27_242517_1 ckpt,perm,ro,<unmounted>
root_rep_ckpt_27_242517_2 on /root_rep_ckpt_27_242517_2 ckpt,perm,ro,<unmounted>

In der obigen Ausgabe sind nur Root-Prüfpunkte zu sehen, was darauf hinweist, dass das Hauptdateisystem in Ordnung ist. Dies geschieht normalerweise, wenn savvol auf einem anderen Storage Pool erstellt wird, der beschädigt wurde und das zugehörige Dateisystem sicher ist.
[nasadmin@CS0 ~]$ nas_replicate -l
Name                      Type       Local Mover               Interconnect         Celerra      Status
rep_fs1                filesystem server_2                  -->Replication       Remote_CS  Critical 8865448248:The replication session encountered an error that halted progress.
rep_fs2                filesystem server_2                  -->Replication       Remote_CS  OK
rep_fs3                filesystem server_2                  -->Replication       Remote_CS  Critical 8865448248:The replication session encountered an error that halted progress.
Die obige Ausgabe gibt den Fehler an, wie er aus den 2 kritischen Replikationsfehlern ersichtlich ist (was mit dem in server_mount Ausgabe angezeigten Root-Prüfpunkt-Unmount-Status übereinstimmt)

Cause

Wenn beim Data Mover ein Fehler auftritt, wird dies in den meisten Fällen durch eine Beschädigung durch Festplatten verursacht und VNX markiert das Dateisystem als beschädigt. Root-Prüfpunkte werden ebenfalls unmountet.

Resolution

Hinweis: Die Back-end-Probleme müssen zuerst behoben werden, z. B. wenn Festplatten ausgetauscht werden müssen, das muss zuerst behoben werden. 

So löschen Sie betroffene Replikationen:

Wenn direkt versucht wird, die Sitzungen zu löschen, wird die Löschaufgabe möglicherweise als aufgehängt. Denn beim Löschen wird versucht, die Stammprüfpunkte zu aktualisieren, und das Update bleibt hängen, weil es beschädigt ist. Weitere Informationen zur Behebung finden Sie im Abschnitt "Hinweise". Dieses Verfahren dient der Fehlerbehebung in der richtigen Reihenfolge und muss von der Control Station über die Eingabeaufforderung durchgeführt werden.

1) Melden Sie sich bei der Control Station als nasadmin

an. 2) Identifizieren Sie den Namen der Replikationssitzung, indem Sie diesem Beispiel folgen:
a) Find the full name of root checkpoints by:
[nasadmin@CS0 ~]$ server_mount ALL | grep unmount
root_rep_ckpt_28_242474_1 on /root_rep_ckpt_28_242474_1 ckpt,perm,ro,<unmounted>
root_rep_ckpt_28_242474_2 on /root_rep_ckpt_28_242474_2 ckpt,perm,ro,<unmounted>
b) For each checkpoint, issue the following command and note the file system name
[nasadmin@CS0 ~]$ /nas/sbin/rootnas_fs -info root_rep_ckpt_28_242474_1 | grep checkpt_of
checkpt_of= fs1 Mon Jun 15 16:51:54 EDT 2015

Repeat above as every FS will have 2 root checkpoints per replication session, so good to get all FS names first before proceeding to next step

2) Identifizieren Sie die Replikationsprüfpunkte und löschen Sie sie, indem Sie diesem Beispiel folgen.
 
a) Identify the file system name from the replications failing with critical errors by :
nas_replicate -list

Example: 
$ nas_replicate -i jsq-stx-mq
ID                             = 156_APM001_01F4_137_APM002_01F4
Name                           = rep_fs1
Source Status                  = Critical 8865448248: The replication session encountered an error that halted progres                                                                                          s.
Network Status                 = OK
Destination Status             = OK
Last Sync Time                 = Wed Jul 13 14:35:15 EDT 2016
Type                           = filesystem
Celerra Network Server         = CS01
Dart Interconnect              = Replication
Peer Dart Interconnect         = Replication
Replication Role               = source  <== note the role 
Source Filesystem              = fs1 <== this is the fs name if the role is source
Source Data Mover              = server_2
Source Interface               = 10.x.x.x
Source Control Port            = 0
Source Current Data Port       = 0
Destination Filesystem         = fs1-DR <== this is the fs name if the role is destination
Destination Data Mover         = server_2
Destination Interface          = 10.x.x.x
...

Match this name from names identified in step 2 to ensure they are same.
b) Check the replication checkpoint status by : fs_ckpt <fs_name> -list -all

Example: 
$ fs_ckpt fs1 -list -all
id    ckpt_name                creation_time           inuse fullmark   total_savvol_used  ckpt_usage_on_savvol
32    root_rep_ckpt_28_242474_ 06/15/2015-16:51:54-EDT   y   90%        INACTIVE           N/A
33    root_rep_ckpt_28_242474_ 06/15/2015-16:51:56-EDT   y   90%        INACTIVE           N/A
34    fs1_ckpt1                          06/17/2015-16:51:56-EDT   y   90%        INACTIVE           N/A
Info 26306752329: The value of ckpt_usage_on_savvol for read-only checkpoints may not be consistent with the total_savvol_used.

id    wckpt_name               inuse fullmark total_savvol_used  base  ckpt_usage_on_savvol

INACTIVE indicates, this is corrupted.
c) If the "inuse" value is "y", delete the root checkpoints using the following command:  /nas/sbin/rootnas_fs -delete id=<root_ckpt_id> -o umount=yes -ALLOW_REP_INT_CKPT_OP 
Rarely, root checkpoint may have, inuse" value as "n", then,  /nas/sbin/rootnas_fs -delete id=<root_ckpt_id> -ALLOW_REP_INT_CKPT_OP 

Example:
[nasadmin@CS0 ~]$ /nas/sbin/rootnas_fs -delete id=32  -o umount=yes -ALLOW_REP_INT_CKPT_OP 
id        = 32
name      = root_rep_ckpt_28_242474_1
acl       = 0
in_use    = True
type      = ckpt
worm      = off
..

d) Repeat above step and delete all the root checkpoints 
e) For non root checkpoints, delete using same command with out the last arument (Example: /nas/sbin/rootnas_fs -delete id=34 -o umount=yes)
3) Löschen Sie die Replikationssitzung mit der folgenden Syntax:
For the "source" replication role : nas_replicate -delete <replication_session_name> -mode source -background
For the "destination" replication role : nas_replicate -delete <replication_session_name> -mode destination -background

Above command will give a task number, which can be used to view the status, by "nas_task -i <task_number>

4) Löschen Sie auch die Replikation auf der Remoteseite, indem Sie nur den obigen Schritt 3 ausführen.
 [ "nas_replicate -delete <session_name> -mode <mode> -background" ] 
Wenn alle oben genannten Schritte durchgeführt wurden, ist die Replikationslöschaktivität damit abgeschlossen. Eine neue Replikation kann mithilfe von Unisphere oder der Eingabeaufforderung neu konfiguriert werden.

Wenden Sie sich an den technischen Support von Dell EMC , wenn einer der oben genannten Schritte fehlschlägt.  Zitieren Sie diese Wissensdatenbank-Artikel-ID.

Additional Information

Wenn direkt versucht wird, die Sitzungen entweder in Unisphere oder über den Befehl "nas_replicate -delete" zu löschen, wird die Löschaufgabe möglicherweise als hängend angezeigt. In den meisten Fällen kann dies behoben werden, ohne dass der Data Mover neu gestartet werden muss.

1) Identifizieren Sie die Aufgabe über:
nas_task -list | grep -i run

2) Suchen Sie die detaillierten Informationen (insbesondere den Namen des Data Mover) wie folgt:
nas_task -info <task_number>

3) Brechen Sie die Aufgabe ab, indem Sie:
nas_task -abort <task_numer> -mover <data_mover_name>

Oben sollten auch die Replikationssitzung und die Root-Prüfpunkte gelöscht werden. Alle Nutzerprüfpunkte müssen manuell gelöscht werden.

Affected Products

vVNX
Article Properties
Article Number: 000056557
Article Type: Solution
Last Modified: 29 Jul 2025
Version:  4
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.