VPLEX: Aktivt system til deling af metavolumen
Summary: I denne artikel beskrives det, hvad du skal gøre, hvis scriptet rapporterer, at de aktive metavolumenben er på samme system under kørsel af NDU precheck.
Symptoms
Når du kører NDU precheck-kommandoen, før en planlagt NDU eller når du kontrollerer tilstanden for VPLEX uden for en NDU rapporterer precheck-kommandoen, at den aktive metavolume deler backend-system (BE).
Cause
Dette problem skyldes, at precheck-kommandoen ser, at begge ben i det aktive metavolumen er på det samme backend-array. Dette kan skyldes:
- Metavolumenet blev oprindeligt konfigureret med kun ét tilgængeligt backend-array, og begge ben blev konfigureret på det enkelte array. Denne situation blev ikke opdateret, da et andet system blev føjet til VPLEX.
- Metadiskenheden blev oprindeligt konfigureret ved, at brugeren indstillede to diskenheder fra ét system, selvom to eller flere systemer var knyttet til VPLEX. Dette er ikke en understøttet handling, hvor to eller flere systemer er knyttet til VPLEX og skal løses ved at omkonfigurere metavolumenet med benene, der sættes op på to forskellige systemer.
Resolution
Du kan rette denne fejl ved at kontrollere, om en anden diskenhed, der opfylder de påkrævede kriterier for en metadiskenhed, er tilgængelig på et andet system, hvis et andet system nu er tilgængeligt.
Kravene til bedste praksis for en metadiskenhed er, at der skal være to (2) lagerdiskenheder, der er:
-
Uafhentede
-
78 GB eller større
-
På forskellige systemer
-
Tyk klargjort (ikke bygget med tynde LUN er)
Procedure:
-
Kontrollér, om der er tilgængelige kandidater til metadatadiskenhed ved hjælp af KB-artikel 000158150 "VPlex: "Sådan angiver du storagediskenheder, der er kvalificerede kandidater, som kan bruges til at oprette metadatadiskenheder", til processen med at vise de storagediskenheder, der opfylder kriterierne for en VPLEX-metadiskenhed.
-
Når du har en anden diskenhed på et andet system, der opfylder kriterierne, skal du knytte denne nye diskenhed til den aktuelle metadiskenhed ved hjælp af CLI-kommandoen:
meta-volume attach-mirror.Eksempel på output:
VPlexcli:/> meta-volume attach-mirror --storage-volume VPD83T3:60060160c9c02xxxxxxxxxxxxx99e711 --meta-volume C1_Meta
-
Ved VPlexcli prompten skal du ændre mappe (cd) til konteksten "system-volumes" og køre den lange liste, 'll,' kommando. Du bør se de aktive metadatavolumener "driftsstatus", der vises som "forringet" og "Sundhedstilstand" som "mindre fejl".
VPlexcli:/clusters/cluster-1/system-volumes> ll Name Volume Type Operational Health State Active Ready Geometry Component Block Block Capacity Slots ------------------------------- -------------- Status ------------- ------ ----- -------- Count Count Size -------- ----- ------------------------------- -------------- ----------- ------------- ------ ----- -------- --------- -------- ----- -------- ----- C1_Logging_vol logging-volume ok ok - - raid-1 1 2621440 4K 10G - C1_Meta meta-volume degraded minor-failure true true raid-1 3 20971264 4K 80G 64000 C1_Meta_backup_2018Jun05_120042 meta-volume ok ok false true raid-1 1 20971264 4K 80G 64000 -
Kør kommandoen:
rebuild status. Dette skal vise metavolumen som genopbygning, og "genopbygningstypen" skal være "fuld", da det er en ny genopbygning.VPlexcli:/clusters/cluster-1/system-volumes> rebuild status [1] storage_volumes marked for rebuild Global rebuilds: No active global rebuilds. cluster-1 local rebuilds: device rebuild type rebuilder director rebuilt/total percent finished throughput ETA ------- ------------ ------------------ ------------- ---------------- ---------- --------- C1_Meta full s1_0339_spa 20.1G/80G 25.07% 63.2M/s 16.2min
-
Kontroller komponentniveauet for metavolumen for at se det nyligt tilsluttede ben. Kør kommandoen:
ll <meta-volume name>/components. Dette viser den nye komponent som "Slot nummer 2" som vist i eksemplet nedenfor, dens "driftsstatus" er "fejl", og dens "Sundhedstilstand" er "kritisk fejl".Eksempel på output:
VPlexcli:/clusters/cluster-1/system-volumes> ll C1_Meta/components/ /clusters/cluster-1/system-volumes/C1_Meta/components: Name Slot Type Operational Health State Capacity ---------------------------------------- Number -------------- Status ---------------- -------- ---------------------------------------- ------ -------------- ----------- ---------------- -------- VPD83T3:600601601330270098b5c2118665e611 0 storage-volume ok ok 80G VPD83T3:600601601330270098b5c2118699e711 1 storage-volume ok ok 80G VPD83T3:60060160c9c02c00c47cb55a4a99e711 2 storage-volume error critical-failure 80G <<<< -
Vent på, at den fulde genopbygning er fuldført, hvilket kan tage tid, vær tålmodig. Du kan kontrollere status for genopbygningen ved at køre kommandoen "genopbyg status" fra og til, indtil du ser, at genopbygningen er fuldført.
VPlexcli:/clusters/cluster-1/system-volumes> rebuild status Global rebuilds: No active global rebuilds. Local rebuilds: No active local rebuilds.
-
Gentag trin 3, og metadiskenheden bør nu vise dens "Driftsstatus" og dens "Sundhedstilstand" som "ok".
VPlexcli:/clusters/cluster-1/system-volumes> ll Name Volume Type Operational Health Active Ready Geometry Component Block Block Capacity Slots ------------------------------- -------------- Status State ------ ----- -------- Count Count Size -------- ----- ------------------------------- -------------- ----------- ------ ------ ----- -------- --------- -------- ----- -------- ----- C1_Logging_vol logging-volume ok ok - - raid-1 1 2621440 4K 10G - C1_Meta meta-volume ok ok true true raid-1 3 20971264 4K 80G 64000 <<<< C1_Meta_backup_2018Jun05_120042 meta-volume ok ok false true raid-1 1 20971264 4K 80G 64000 -
Gentag 5 for at kontrollere, at den nye del vises som "Slot nummer 2", og at dens "Driftstilstand" og "Sundhedstilstand" begge vises som "ok".
VPlexcli:/clusters/cluster-1/system-volumes> ll C1_Meta/components/ /clusters/cluster-1/system-volumes/C1_Meta/components: Name Slot Type Operational Health Capacity ---------------------------------------- Number -------------- Status State -------- ---------------------------------------- ------ -------------- ----------- ------ -------- VPD83T3:600601601330270098b5c2118665e611 0 storage-volume ok ok 80G VPD83T3:600601601330270098b5c2118699e711 1 storage-volume ok ok 80G VPD83T3:60060160c9c02c00c47cb55a4a99e711 2 storage-volume ok ok 80G -
Fjern den del af metadiskenheden, der er angivet som slot 1, da den er på samme matrix som den del, der er angivet som slot 0, ved at køre kommandoen som vist nedenfor:
Eksempel på output:
VPlexcli:/clusters/cluster-1/system-volumes> meta-volume detach-mirror -d VPD83T3:600601601330270098b5c2118699e711 -v C1_Meta
-
Kør kommandoen fra trin 8 igen, og du bør nu kun se to diskenheder, der er angivet, hver fra et andet system, med "Slotnummer" for "0" og "1".
VPlexcli:/clusters/cluster-1/system-volumes> ll C1_Meta/components/ /clusters/cluster-1/system-volumes/C1_Meta/components: Name Slot Type Operational Health Capacity ---------------------------------------- Number -------------- Status State -------- ---------------------------------------- ------ -------------- ----------- ------ -------- VPD83T3:600601601330270098b5c2118665e611 0 storage-volume ok ok 80G VPD83T3:60060160c9c02c00c47cb55a4a99e711 1 storage-volume ok ok 80G
-
Bekræft, at metadiskenheden og sikkerhedskopieringsmetadiskenheden er god, ved at køre CLI-kommandoen som vist nedenfor:
VPlexcli:/> ll /clusters/*/system-volumes/ /clusters/cluster-1/system-volumes: Name Volume Type Operational Health Active Ready Geometry Component Block Block Capacity Slots ------------------------------- -------------- Status State ------ ----- -------- Count Count Size -------- ----- ------------------------------- -------------- ----------- ------ ------ ----- -------- --------- -------- ----- -------- ----- C1_Logging_vol logging-volume ok ok - - raid-1 1 2621440 4K 10G - C1_Meta meta-volume ok ok true true raid-1 2 20971264 4K 80G 64000 C1_Meta_backup_2018Jun04_120017 meta-volume ok ok false true raid-1 1 20971264 4K 80G 64000 C1_Meta_backup_2018Jun05_120042 meta-volume ok ok false true raid-1 1 20971264 4K 80G 64000 /clusters/cluster-2/system-volumes: Name Volume Type Operational Health Active Ready Geometry Component Block Block Capacity Slots ------------------------------- -------------- Status State ------ ----- -------- Count Count Size -------- ----- ------------------------------- -------------- ----------- ------ ------ ----- -------- --------- -------- ----- -------- ----- C2_Logging_vol logging-volume ok ok - - raid-0 1 2621440 4K 10G - C2_Meta meta-volume ok ok true true raid-1 2 20446976 4K 78G 64000 C2_Meta_backup_2018Jul01_060025 meta-volume ok ok false true raid-1 1 20446976 4K 78G 64000 C2_Meta_backup_2018Jul02_060022 meta-volume ok ok false true raid-1 1 20971264 4K 80G 64000
-
Da du oprettede en metadiskenhed, er den sikkerhedskopierede metalydstyrke ikke nøjagtig. Som du kan se ovenfor i trin 11, viser sikkerhedskopieringerne af metadata på klynge 1, hvor den nye metadiskenhed blev oprettet til eksemplerne i denne KB, at de sidst kørte en sikkerhedskopiering omkring begyndelsen af juni. Du skal ødelægge de gamle sikkerhedskopier og konfigurere nye sikkerhedskopier. Det kan du gøre ved at se KB-artiklen 000038636 "VPLEX: 0x8a4a6006.0x8a4a6003.0x8a4a6005, Den automatiske sikkerhedskopiering af metadiskenheden kunne ikke fuldføres (eller) Der findes ingen gyldig sikkerhedskopieringsmetadiskenhed (eller) Sikkerhedskopiering af metadata kunne ikke destrueres", og følg trinnene i løsningen i afsnittet Løsning. Hver sikkerhedskopieringsdiskenhed skal også være på forskellige systemer, når to eller flere systemer er tilsluttet en VPLEX. Dette er til overflødige formål.