VNX: Replicatie opschonen wanneer replicatiebasiscontrolepunten beschadigd/inactief zijn (op te lossen door gebruiker)
Summary: Replicatie opschonen wanneer replicatiebasiscontrolepunten beschadigd/inactief zijn (op te lossen door gebruiker)
This article applies to
This article does not apply to
This article is not tied to any specific product.
Not all product versions are identified in this article.
Symptoms
Basiscontrolepunten beschadigd (veelvoorkomende reden is dat back-end-LUN's niet te corrigeren zijn vanwege schijffouten)
In deze bovenstaande uitvoer zijn alleen root-controlepunten te zien en dit geeft aan dat het hoofdbestandssysteem goed is. Dit gebeurt meestal als savvol is gebouwd op een andere opslagpool die beschadigd is en het bijbehorende bestandssysteem veilig is.
[nasadmin@CS0 ~]$ server_mount ALL | grep unmount root_rep_ckpt_28_242474_1 on /root_rep_ckpt_28_242474_1 ckpt,perm,ro,<unmounted> root_rep_ckpt_28_242474_2 on /root_rep_ckpt_28_242474_2 ckpt,perm,ro,<unmounted> root_rep_ckpt_27_242517_1 on /root_rep_ckpt_27_242517_1 ckpt,perm,ro,<unmounted> root_rep_ckpt_27_242517_2 on /root_rep_ckpt_27_242517_2 ckpt,perm,ro,<unmounted>
In deze bovenstaande uitvoer zijn alleen root-controlepunten te zien en dit geeft aan dat het hoofdbestandssysteem goed is. Dit gebeurt meestal als savvol is gebouwd op een andere opslagpool die beschadigd is en het bijbehorende bestandssysteem veilig is.
[nasadmin@CS0 ~]$ nas_replicate -l Name Type Local Mover Interconnect Celerra Status rep_fs1 filesystem server_2 -->Replication Remote_CS Critical 8865448248:The replication session encountered an error that halted progress. rep_fs2 filesystem server_2 -->Replication Remote_CS OK rep_fs3 filesystem server_2 -->Replication Remote_CS Critical 8865448248:The replication session encountered an error that halted progress.Bovenstaande uitvoer geeft de fout weer zoals blijkt uit de kritieke fouten van de 2 replicaties (die overeenkomen met de 2 sets van de status voor het ongedaan maken van de hoofdcontrolepunten in server_mount uitvoer)
Cause
Als de datamover in paniek raakt, wordt dit meestal veroorzaakt door beschadiging door schijven en markeert VNX het bestandssysteem als beschadigd. Root-controlepunten worden ook ontkoppeld.
Resolution
Opmerking: De backend-problemen moeten eerst worden opgelost, bijvoorbeeld als er schijven moeten worden vervangen, die eerst moeten worden opgelost.
Betreffende replicaties verwijderen:
Als er direct wordt geprobeerd de sessies te verwijderen, kan de verwijdertaak worden weergegeven als vastgelopen. Omdat de verwijdering zal proberen de root-controlepunten bij te werken en de update zal blijven hangen omdat deze beschadigd is. Raadpleeg de opmerkingensectie om dat op te lossen. Deze procedure moet in de juiste volgorde worden opgelost en moet worden uitgevoerd vanaf het controlestation via de opdrachtprompt.
1) Meld u aan bij het controlestation als nasadmin
2) Identificeer de naam van de replicatiesessie aan de hand van dit voorbeeld:
2) Identificeer de replicatiecontrolepunten en verwijder ze volgens dit voorbeeld
3) Verwijder de replicatiesessie met behulp van de volgende syntaxis:
4) Verwijder ook de replicatie aan de externe kant met alleen de bovenstaande stap 3
Neem contact op met de technische support van Dell EMC als een van de bovenstaande stappen mislukt. Citeer de ID van dit Knowledge Base-artikel.
Betreffende replicaties verwijderen:
Als er direct wordt geprobeerd de sessies te verwijderen, kan de verwijdertaak worden weergegeven als vastgelopen. Omdat de verwijdering zal proberen de root-controlepunten bij te werken en de update zal blijven hangen omdat deze beschadigd is. Raadpleeg de opmerkingensectie om dat op te lossen. Deze procedure moet in de juiste volgorde worden opgelost en moet worden uitgevoerd vanaf het controlestation via de opdrachtprompt.
1) Meld u aan bij het controlestation als nasadmin
2) Identificeer de naam van de replicatiesessie aan de hand van dit voorbeeld:
a) Find the full name of root checkpoints by: [nasadmin@CS0 ~]$ server_mount ALL | grep unmount root_rep_ckpt_28_242474_1 on /root_rep_ckpt_28_242474_1 ckpt,perm,ro,<unmounted> root_rep_ckpt_28_242474_2 on /root_rep_ckpt_28_242474_2 ckpt,perm,ro,<unmounted> b) For each checkpoint, issue the following command and note the file system name [nasadmin@CS0 ~]$ /nas/sbin/rootnas_fs -info root_rep_ckpt_28_242474_1 | grep checkpt_of checkpt_of= fs1 Mon Jun 15 16:51:54 EDT 2015 Repeat above as every FS will have 2 root checkpoints per replication session, so good to get all FS names first before proceeding to next step
2) Identificeer de replicatiecontrolepunten en verwijder ze volgens dit voorbeeld
a) Identify the file system name from the replications failing with critical errors by :
nas_replicate -list
Example:
$ nas_replicate -i jsq-stx-mq
ID = 156_APM001_01F4_137_APM002_01F4
Name = rep_fs1
Source Status = Critical 8865448248: The replication session encountered an error that halted progres s.
Network Status = OK
Destination Status = OK
Last Sync Time = Wed Jul 13 14:35:15 EDT 2016
Type = filesystem
Celerra Network Server = CS01
Dart Interconnect = Replication
Peer Dart Interconnect = Replication
Replication Role = source <== note the role
Source Filesystem = fs1 <== this is the fs name if the role is source
Source Data Mover = server_2
Source Interface = 10.x.x.x
Source Control Port = 0
Source Current Data Port = 0
Destination Filesystem = fs1-DR <== this is the fs name if the role is destination
Destination Data Mover = server_2
Destination Interface = 10.x.x.x
...
Match this name from names identified in step 2 to ensure they are same.
b) Check the replication checkpoint status by : fs_ckpt <fs_name> -list -all
Example:
$ fs_ckpt fs1 -list -all
id ckpt_name creation_time inuse fullmark total_savvol_used ckpt_usage_on_savvol
32 root_rep_ckpt_28_242474_ 06/15/2015-16:51:54-EDT y 90% INACTIVE N/A
33 root_rep_ckpt_28_242474_ 06/15/2015-16:51:56-EDT y 90% INACTIVE N/A
34 fs1_ckpt1 06/17/2015-16:51:56-EDT y 90% INACTIVE N/A
Info 26306752329: The value of ckpt_usage_on_savvol for read-only checkpoints may not be consistent with the total_savvol_used.
id wckpt_name inuse fullmark total_savvol_used base ckpt_usage_on_savvol
INACTIVE indicates, this is corrupted.
c) If the "inuse" value is "y", delete the root checkpoints using the following command: /nas/sbin/rootnas_fs -delete id=<root_ckpt_id> -o umount=yes -ALLOW_REP_INT_CKPT_OP
Rarely, root checkpoint may have, inuse" value as "n", then, /nas/sbin/rootnas_fs -delete id=<root_ckpt_id> -ALLOW_REP_INT_CKPT_OP
Example:
[nasadmin@CS0 ~]$ /nas/sbin/rootnas_fs -delete id=32 -o umount=yes -ALLOW_REP_INT_CKPT_OP
id = 32
name = root_rep_ckpt_28_242474_1
acl = 0
in_use = True
type = ckpt
worm = off
..
d) Repeat above step and delete all the root checkpoints
e) For non root checkpoints, delete using same command with out the last arument (Example: /nas/sbin/rootnas_fs -delete id=34 -o umount=yes)
For the "source" replication role : nas_replicate -delete <replication_session_name> -mode source -background For the "destination" replication role : nas_replicate -delete <replication_session_name> -mode destination -background Above command will give a task number, which can be used to view the status, by "nas_task -i <task_number>
4) Verwijder ook de replicatie aan de externe kant met alleen de bovenstaande stap 3
[ "nas_replicate -delete <session_name> -mode <mode> -background" ]Als alle bovenstaande stappen zijn uitgevoerd, is hiermee de activiteit replicatie verwijderd voltooid. Een nieuwe replicatie kan opnieuw worden geconfigureerd met Unisphere of de opdrachtprompt.
Neem contact op met de technische support van Dell EMC als een van de bovenstaande stappen mislukt. Citeer de ID van dit Knowledge Base-artikel.
Additional Information
Als er direct geprobeerd wordt om de sessies te verwijderen op Unisphere of via de opdracht "nas_replicate -delete", kan de verwijdertaak worden weergegeven als vastgelopen. In de meeste gevallen kan dit worden opgelost zonder dat de datamover opnieuw hoeft te worden opgestart.
1) Identificeer de taak via :
2) Zoek de gedetailleerde informatie (met name de naam van de dataverplaatser) door:
3) Breek de taak af door:
Bovenstaande moeten ook de replicatiesessie en de root-controlepunten verwijderen. Gebruikerscontrolepunten moeten handmatig worden verwijderd.
1) Identificeer de taak via :
nas_task -list | grep -i run
2) Zoek de gedetailleerde informatie (met name de naam van de dataverplaatser) door:
nas_task -info <task_number>
3) Breek de taak af door:
nas_task -abort <task_numer> -mover <data_mover_name>
Bovenstaande moeten ook de replicatiesessie en de root-controlepunten verwijderen. Gebruikerscontrolepunten moeten handmatig worden verwijderd.
Affected Products
vVNXArticle Properties
Article Number: 000056557
Article Type: Solution
Last Modified: 29 Jul 2025
Version: 4
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.