VPlex : Volume de consignation présentant une défaillance critique en raison du retrait du disque de la baie de stockage back-end
Summary: Cet article décrit le problème de suppression d’un disque de la baie de stockage back-end alors qu’il est toujours utilisé sur le VPlex en tant que volume de journalisation et fournit une solution de contournement pour résoudre ce problème. ...
Symptoms
1. Un volume de journalisation s’affiche comme une défaillance critique dans la sortie du bilan de santé.
VPlexcli :/> health-check
Version du produit : 5.3.0.03.00.04
Type de produit : Métro
Type de connectivité WAN : FC
Type de matériel : VS2
Taille du cluster : 1 moteurs
Clusters:
---------
Cluster Cluster Oper Health Connected Expelled Local-com
État de l’ID du nom État
--------- ------- ----- ------------- --------- -------- ---------
cluster-1 1 ok ok True False ok
cluster-2 2 ok défaillance mineure True False ok
cluster-2 Transition/Indications d’intégrité :
105 Devices or storage-volumes unhealthy
volume de stockage inaccessible
Métadonnées:
----------
Cluster Volume Volume Oper Health Active
Nom Nom Type État État
--------- -------------------------------------- -------------- ----- ---------------- ------
cluster-1 VPLEX_DC1_meta meta-volume ok ok True
cluster-1 logging_vplex_dc2_log logging-volume ok ok -
cluster-1 VPLEX_DC1_meta_backup_2016Jun15_235911 meta-volume ok ok False
cluster-1 VPLEX_DC1_meta_backup_2016Jun14_235911 meta-volume ok ok False
cluster-1 LV_CLUSTER1_LOG1 logging-volume ok ok -
cluster-2 logging_volume_vplex logging-volume error critical-failure -
cluster-2 VPLEX_DC2_META meta-volume ok ok True
cluster-2 LV_CLUSTER2_LOG1 logging-volume ok ok -
cluster-2 VPLEX_DC2_META_backup_2016Jun15_235907 meta-volume ok ok False
cluster-2 VPLEX_DC2_META_backup_2016Jun14_235909 meta-volume ok ok False
Stockage:
--------
Cluster Total Unhealthy Total Unhealthy Total Unhealthy Non visible With
Nom Stockage Stockage Virtual Dist Dist Dual à partir de Unsupported
Volumes Volumes Volumes Volumes Devs Chemins Tous les Dirs # de chemins
--------- ------- --------- ------- --------- ----- --------- ----- ----------- -----------
cluster-1 59 0 52 51 51 51 0 0 0
cluster-2 57 1 51 51 51 51 0 0 0
2. La vérification de cette hiérarchie de volumes de journalisation indique que le stockage sur lequel il repose a été supprimé.
VPlexcli :/clusters/cluster-2/system-volumes/vplex_dc2_log_vol/components> show-use-hierarchy /clusters/cluster-2/system-volumes/vplex_dc2_log_vol
volume de journalisation : vplex_dc2_log_vol (10G, raid-0, panne-critique, cluster-2)
étendue : extent_vplex_DC2_LOG_bad_1 (10G, panne critique)
storage-volume : vplex_DC2_LOG_bad (10G, critical-failure)
> ------ AUCUNE information sur les baies de stockage
Cause
Resolution
Suivez les étapes de contournement ci-dessous pour résoudre ce problème :
1. Vérifiez le contexte du volume de journalisation pour voir si les périphériques distribués sont toujours définis sur ce volume de journalisation.
VPlexcli :/clusters/cluster-2/system-volumes> ll
Name Volume Type Operational Health State Active Ready Geometry Component Block Block Capacity Slots
-------------------------------------- -------------- Status ---------------- ------ ----- -------- Count Count Size -------- -----
-------------------------------------- -------------- ----------- ---------------- ------ ----- -------- --------- -------- ----- -------- -----
LV_CLUSTER2_LOG1_vol logging-volume ok ok - - raid-1 1 2621440 4K 10G -
VPLEX_DC2_META meta-volume ok ok true true raid-1 2 22019840 4K 84G 32000
VPLEX_DC2_META_backup_2016Jun14_235909 meta-volume ok ok false true raid-1 1 22019840 4K 84G 64000
VPLEX_DC2_META_backup_2016Jun15_235907 meta-volume ok ok false true raid-1 1 22019840 4K 84G 64000
vplex_dc2_log_vol logging-volume error critical-failure - - raid-0 1 2621440 4K 10G -
VPlexcli :/clusters/cluster-2/system-volumes> cd /vplex_dc2_log_vol/segments
VPlexcli :/clusters/cluster-2/system-volumes/vplex_dc2_log_vol/segments> ll
Utilisation du bloc de départ du nom
Nombre de blocs ---------------------------------------------------- ------------------------------------------
---------------------------------------------------- -------- ------- ------------------------------------------
alloué-device_DD1 0 8192 alloué pour device_DD1
allocated-device_DD2 0 1 600 alloué pour device_DD2
alloué device_DD3 0 800 alloués pour device_DD3
2. Créez un nouveau volume de journalisation et assurez-vous que la hiérarchie est saine
VPlexcli :/clusters/cluster-2/system-volumes/LV_CLUSTER2_LOG1_vol/components> show-use-hierarchy /clusters/cluster-2/system-volumes/LV_CLUSTER2_LOG1_vol
volume de journalisation : LV_CLUSTER2_LOG1_vol (10G, RAID 1, cluster 2)
étendue : extent_CLUSTER2_LOG1 (10G)
storage-volume : CLUSTER2_LOG1 (10G)
unité logique : VPD83T3:60060160690037000f5263e23732e611
baie_de_stockage :<NOM DE LA BAIE>
3. Vérifiez que ce volume affiche de l’espace libre
VPlexcli :/clusters/cluster-2/system-volumes/LV_CLUSTER2_LOG1_vol/segments> ll
Name Starting Block Block Count Use
------ -------------- ----------- ----
free-0 0 2621440 libre
4. Accédez au contexte des périphériques distribués
VPlexcli :/> cd distributed-storage/distributed-devices/
5. Définissez le nouveau volume de consignation en tant que volume de journalisation du cluster
VPlexcli :/distributed-storage/distributed-devices> set-log --logging-volumes LV_CLUSTER2_LOG1_vol --distributed-devices *
6. Vérifiez que le nouveau volume de journalisation contient désormais les informations relatives aux périphériques distribués.
VPlexcli :/clusters/cluster-2/system-volumes/LV_CLUSTER2_LOG1_vol/segments> ll
Utilisation du bloc de départ du nom
Nombre de blocs ---------------------------------------------------- ------------------------------------------
---------------------------------------------------- -------- ------- ------------------------------------------
alloué-device_DD1 0 8192 alloué pour device_DD1
allocated-device_DD2 0 1 600 alloué pour device_DD2
alloué device_DD3 0 800 alloués pour device_DD3
7. Vérifiez que l’ancien volume de journalisation n’affiche plus que de l’espace libre
VPlexcli :/clusters/cluster-2/system-volumes/vplex_dc2_log_vol/segments> ll
Name Starting Block Block Count Use
------ -------------- ----------- ----
gratuit-0 0 24578 gratuit
8. Accédez au contexte system-volumes et vérifiez qu’il existe un volume de journalisation sain
VPlexcli :/clusters/cluster-2/system-volumes> ll
Name Volume Type Operational Health State Active Ready Geometry Component Block Block Capacity Slots
-------------------------------------- -------------- Status ---------------- ------ ----- -------- Count Count Size -------- -----
-------------------------------------- -------------- ----------- ---------------- ------ ----- -------- --------- -------- ----- -------- -----
LV_CLUSTER2_LOG1_vol logging-volume ok ok - - raid-1 1 2621440 4K 10G -
VPLEX_DC2_META meta-volume ok ok true true raid-1 2 22019840 4K 84G 32000
VPLEX_DC2_META_backup_2016Jun14_235909 meta-volume ok ok false true raid-1 1 22019840 4K 84G 64000
VPLEX_DC2_META_backup_2016Jun15_235907 meta-volume ok ok false true raid-1 1 22019840 4K 84G 64000
vplex_dc2_log_vol logging-volume error critical-failure - - raid-0 1 2621440 4K 10G -
9. Détruisez l’ancien volume indiqué en état de panne critique
VPlexcli :/clusters/cluster-2/system-volumes> logging-volume destroy --logging-volume vplex_dc2_log_vol
10. Détruisez l’étendue dans laquelle le volume de consignation a été créé sur
VPlexcli :/clusters/cluster-2/storage-elements/extents> extent destroy --extents extent_vplex_DC2_LOG_bad_1
AVERTISSEMENT: Les objets suivants seront détruits :
Contexte
-----------------------------------------------------------------------
/clusters/cluster-2/storage-elements/extents/extent_vplex_DC2_LOG_bad_1
Voulez-vous continuer ? (Oui/Non) Oui
Vous avez détruit 1 extension ciblée sur 1.
11. Accédez au contexte du volume de stockage et annulez la revendication du volume de stockage sur lequel le volume de consignation a été créé
VPlexcli :/clusters/cluster-2/storage-elements/storage-volumes/vplex_DC2_LOG_bad> unclaim
1 des 1 volumes de stockage non réclamés.
12. Confirmez que le bilan de santé renvoie le bon fonctionnement.
VPlexcli :> bilan de santé
Version du produit : 5.3.0.03.00.04
Type de produit : Métro
Type de connectivité WAN : FC
Type de matériel : VS2
Taille du cluster : 1 moteurs
Clusters:
---------
Cluster Cluster Oper Health Connected Expelled Local-com
État de l’ID du nom État
--------- ------- ----- ------ --------- -------- ---------
cluster-1 1 ok ok True False ok
cluster-2 2 ok ok True False ok
Métadonnées:
----------
Cluster Volume Volume Oper Health Active
Nom Nom Type État État
--------- -------------------------------------- -------------- ----- ------ ------
cluster-1 VPLEX_DC1_meta meta-volume ok ok True
cluster-1 logging_vplex_dc2_log logging-volume ok ok -
cluster-1 VPLEX_DC1_meta_backup_2016Jun15_235911 meta-volume ok ok False
cluster-1 VPLEX_DC1_meta_backup_2016Jun14_235911 meta-volume ok ok False
cluster-1 LV_CLUSTER1_LOG1 logging-volume ok ok -
cluster-2 VPLEX_DC2_META meta-volume ok ok True
cluster-2 LV_CLUSTER2_LOG1 logging-volume ok ok -
cluster-2 VPLEX_DC2_META_backup_2016Jun15_235907 meta-volume ok ok False
cluster-2 VPLEX_DC2_META_backup_2016Jun14_235909 meta-volume ok ok False
Stockage:
--------
Cluster Total Unhealthy Total Unhealthy Total Unhealthy Non visible With
Nom Stockage Stockage Virtual Dist Dist Dual à partir de Unsupported
Volumes Volumes Volumes Volumes Devs Chemins Tous les Dirs # de chemins
--------- ------- --------- ------- --------- ----- --------- ----- ----------- -----------
cluster-1 59 0 52 0 51 0 0 0 0
cluster-2 56 0 51 0 51 0 0 0 0
VPlexcli :/> ll **/storage-arrays/*
/clusters/cluster-2/storage-elements/storage-arrays/<ARRAY NAME> :
Attributs:
Valeur du nom
------------------- ----------------------------------------------------------
Commutateur automatique True
État de connectivité dégradé
contrôleurs [<NOM DE LA BAIE.> SPA, <ARRAY NAME.> SPB]
nombre-unité-logique 57
ports [0x5006016108602147, 0x5006016408602147,
0x5006016908602147, 0x5006016c08602147]
b. Vérifiez le contexte de l’unité logique pour les unités logiques affichées en erreur
VPlexcli :/clusters/cluster-2/storage-elements/storage-arrays/<ARRAY NAME>/logical-units> ll
Name Connectivity Active/AAO Passive/AAN Visibility LUNs ALUA Support
---------------------------------------- Contrôleurs d’état Contrôleurs ---------- ------------------ -----------------
---------------------------------------- ------------ ------------------ ------------------ ---------- ------------------ -----------------
VPD83T3:6006016076003700b743afe458dbe311 error <ARRAY NAME.> NOM> DE <LA BAIE SPA. SPB none implicit-explicit
c. Accédez au contexte de l’unité logique qui s’affiche en erreur et vérifiez qu’aucun stockage sous-jacent n’y est associé.
VPlexcli :/clusters/cluster-2/storage-elements/storage-arrays/<ARRAY NAME>/logical-units/VPD83T3:6006016076003700b743afe458dbe311> ll
Valeur du nom
---------------------- --------------------
active-aao-controller [<NOM DE LA BAIE.> SPA]
active-aao-visibility []
alua-support implicit-explicit
Erreur d’état de la connectivité
luns [] <-----------Pas de stockage sous-jacent
passive-aan-controller [<NOM DE LA BAIE.> SPB]
visibilité-aan-passive []
volume_stockage -
Visibilité Aucune
d. Oubliez cette unité logique
VPlexcli:/clusters/cluster-2/storage-elements/storage-arrays/<ARRAY NAME>:/logical-units/VPD83T3:6006016076003700b743afe458dbe311> forget
1 of 1 logical-units were forgotten.
e. Vérifiez que l’état d’intégrité de la baie de stockage s’affiche désormais comme OK
VPlexcli :/> ll **/storage-arrays
/clusters/cluster-2/storage-elements/storage-arrays :
Name Connectivity Auto Ports Logical
Unité de ------------------- du commutateur d’état ---------------------------
----------------------------------------------------------------Compter
--------------------------- ------------ ------ ------------------- -------
<ARRAY NAME> ok true 0x5006016108602147, 56
0x5006016408602147,
0x5006016908602147,
0x5006016c08602147