VPLEX: Aktivt system til deling af metavolumen

Summary: I denne artikel beskrives det, hvad du skal gøre, hvis scriptet rapporterer, at de aktive metavolumenben er på samme system under kørsel af NDU precheck.

This article applies to This article does not apply to This article is not tied to any specific product. Not all product versions are identified in this article.

Symptoms

Når du kører NDU precheck-kommandoen, før en planlagt NDU eller når du kontrollerer tilstanden for VPLEX uden for en NDU rapporterer precheck-kommandoen, at den aktive metavolume deler backend-system (BE).

 

Cause

Dette problem skyldes, at precheck-kommandoen ser, at begge ben i det aktive metavolumen er på det samme backend-array. Dette kan skyldes:

  • Metavolumenet blev oprindeligt konfigureret med kun ét tilgængeligt backend-array, og begge ben blev konfigureret på det enkelte array. Denne situation blev ikke opdateret, da et andet system blev føjet til VPLEX.
  • Metadiskenheden blev oprindeligt konfigureret ved, at brugeren indstillede to diskenheder fra ét system, selvom to eller flere systemer var knyttet til VPLEX. Dette er ikke en understøttet handling, hvor to eller flere systemer er knyttet til VPLEX og skal løses ved at omkonfigurere metavolumenet med benene, der sættes op på to forskellige systemer.

 

Resolution

Du kan rette denne fejl ved at kontrollere, om en anden diskenhed, der opfylder de påkrævede kriterier for en metadiskenhed, er tilgængelig på et andet system, hvis et andet system nu er tilgængeligt.

Kravene til bedste praksis for en metadiskenhed er, at der skal være to (2) lagerdiskenheder, der er:

  • Uafhentede

  • 78 GB eller større

  • På forskellige systemer

  • Tyk klargjort (ikke bygget med tynde LUN er)

Procedure:

  1. Kontrollér, om der er tilgængelige kandidater til metadatadiskenhed ved hjælp af KB-artikel 000158150 "VPlex: "Sådan angiver du storagediskenheder, der er kvalificerede kandidater, som kan bruges til at oprette metadatadiskenheder", til processen med at vise de storagediskenheder, der opfylder kriterierne for en VPLEX-metadiskenhed.

  2. Når du har en anden diskenhed på et andet system, der opfylder kriterierne, skal du knytte denne nye diskenhed til den aktuelle metadiskenhed ved hjælp af CLI-kommandoen: meta-volume attach-mirror.

    Eksempel på output:

    VPlexcli:/> meta-volume attach-mirror --storage-volume VPD83T3:60060160c9c02xxxxxxxxxxxxx99e711 --meta-volume C1_Meta
  3. Ved VPlexcli prompten skal du ændre mappe (cd) til konteksten "system-volumes" og køre den lange liste, 'll,' kommando. Du bør se de aktive metadatavolumener "driftsstatus", der vises som "forringet" og "Sundhedstilstand" som "mindre fejl".

    VPlexcli:/clusters/cluster-1/system-volumes> ll
    Name                             Volume Type     Operational  Health State   Active  Ready  Geometry  Component  Block     Block  Capacity  Slots
    -------------------------------  --------------  Status       -------------  ------  -----  --------  Count      Count     Size   --------  -----
    -------------------------------  --------------  -----------  -------------  ------  -----  --------  ---------  --------  -----  --------  -----
    C1_Logging_vol                   logging-volume  ok           ok             -       -      raid-1    1          2621440   4K     10G       -
    C1_Meta                          meta-volume     degraded     minor-failure  true    true   raid-1    3          20971264  4K     80G       64000
    C1_Meta_backup_2018Jun05_120042  meta-volume     ok           ok             false   true   raid-1    1          20971264  4K     80G       64000
  4. Kør kommandoen: rebuild status. Dette skal vise metavolumen som genopbygning, og "genopbygningstypen" skal være "fuld", da det er en ny genopbygning.

    VPlexcli:/clusters/cluster-1/system-volumes> rebuild status
    [1] storage_volumes marked for rebuild
    
    Global rebuilds:
      No active global rebuilds.
    
    cluster-1 local rebuilds:
    device   rebuild type  rebuilder director  rebuilt/total  percent finished  throughput  ETA
    -------  ------------  ------------------  -------------  ----------------  ----------  ---------
    C1_Meta  full          s1_0339_spa             20.1G/80G            25.07%     63.2M/s    16.2min
  5. Kontroller komponentniveauet for metavolumen for at se det nyligt tilsluttede ben. Kør kommandoen: ll <meta-volume name>/components. Dette viser den nye komponent som "Slot nummer 2" som vist i eksemplet nedenfor, dens "driftsstatus" er "fejl", og dens "Sundhedstilstand" er "kritisk fejl".

    Eksempel på output:

    VPlexcli:/clusters/cluster-1/system-volumes> ll C1_Meta/components/
    
    /clusters/cluster-1/system-volumes/C1_Meta/components:
    Name                                      Slot    Type            Operational  Health State      Capacity
    ----------------------------------------  Number  --------------  Status       ----------------  --------
    ----------------------------------------  ------  --------------  -----------  ----------------  --------
    VPD83T3:600601601330270098b5c2118665e611  0       storage-volume  ok           ok                80G
    VPD83T3:600601601330270098b5c2118699e711  1       storage-volume  ok           ok                80G
    VPD83T3:60060160c9c02c00c47cb55a4a99e711  2       storage-volume  error        critical-failure  80G <<<<
  6. Vent på, at den fulde genopbygning er fuldført, hvilket kan tage tid, vær tålmodig. Du kan kontrollere status for genopbygningen ved at køre kommandoen "genopbyg status" fra og til, indtil du ser, at genopbygningen er fuldført.

    VPlexcli:/clusters/cluster-1/system-volumes> rebuild status
    
    Global rebuilds:
      No active global rebuilds.
    
    Local rebuilds:
      No active local rebuilds.
  7. Gentag trin 3, og metadiskenheden bør nu vise dens "Driftsstatus" og dens "Sundhedstilstand" som "ok".

    VPlexcli:/clusters/cluster-1/system-volumes> ll
    Name                             Volume Type     Operational  Health  Active  Ready  Geometry  Component  Block     Block  Capacity  Slots
    -------------------------------  --------------  Status       State   ------  -----  --------  Count      Count     Size   --------  -----
    -------------------------------  --------------  -----------  ------  ------  -----  --------  ---------  --------  -----  --------  -----
    C1_Logging_vol                   logging-volume  ok           ok      -       -      raid-1    1          2621440   4K     10G       -
    C1_Meta                          meta-volume     ok           ok      true    true   raid-1    3          20971264  4K     80G       64000 <<<<
    C1_Meta_backup_2018Jun05_120042  meta-volume     ok           ok      false   true   raid-1    1          20971264  4K     80G       64000
  8. Gentag 5 for at kontrollere, at den nye del vises som "Slot nummer 2", og at dens "Driftstilstand" og "Sundhedstilstand" begge vises som "ok".

    VPlexcli:/clusters/cluster-1/system-volumes> ll C1_Meta/components/
    
    /clusters/cluster-1/system-volumes/C1_Meta/components:
    Name                                      Slot    Type            Operational  Health  Capacity
    ----------------------------------------  Number  --------------  Status       State   --------
    ----------------------------------------  ------  --------------  -----------  ------  --------
    VPD83T3:600601601330270098b5c2118665e611  0       storage-volume  ok           ok      80G
    VPD83T3:600601601330270098b5c2118699e711  1       storage-volume  ok           ok      80G
    VPD83T3:60060160c9c02c00c47cb55a4a99e711  2       storage-volume  ok           ok      80G
  9. Fjern den del af metadiskenheden, der er angivet som slot 1, da den er på samme matrix som den del, der er angivet som slot 0, ved at køre kommandoen som vist nedenfor:

    Eksempel på output:

    VPlexcli:/clusters/cluster-1/system-volumes> meta-volume detach-mirror -d VPD83T3:600601601330270098b5c2118699e711 -v C1_Meta
  10. Kør kommandoen fra trin 8 igen, og du bør nu kun se to diskenheder, der er angivet, hver fra et andet system, med "Slotnummer" for "0" og "1".

    VPlexcli:/clusters/cluster-1/system-volumes> ll C1_Meta/components/
    
    /clusters/cluster-1/system-volumes/C1_Meta/components:
    Name                                      Slot    Type            Operational  Health  Capacity
    ----------------------------------------  Number  --------------  Status       State   --------
    ----------------------------------------  ------  --------------  -----------  ------  --------
    VPD83T3:600601601330270098b5c2118665e611  0       storage-volume  ok           ok      80G
    VPD83T3:60060160c9c02c00c47cb55a4a99e711  1       storage-volume  ok           ok      80G
  11. Bekræft, at metadiskenheden og sikkerhedskopieringsmetadiskenheden er god, ved at køre CLI-kommandoen som vist nedenfor:

    VPlexcli:/> ll /clusters/*/system-volumes/
    
    /clusters/cluster-1/system-volumes:
    Name                             Volume Type     Operational  Health  Active  Ready  Geometry  Component  Block     Block  Capacity  Slots
    -------------------------------  --------------  Status       State   ------  -----  --------  Count      Count     Size   --------  -----
    -------------------------------  --------------  -----------  ------  ------  -----  --------  ---------  --------  -----  --------  -----
    C1_Logging_vol                   logging-volume  ok           ok      -       -      raid-1    1          2621440   4K     10G       -
    C1_Meta                          meta-volume     ok           ok      true    true   raid-1    2          20971264  4K     80G       64000
    C1_Meta_backup_2018Jun04_120017  meta-volume     ok           ok      false   true   raid-1    1          20971264  4K     80G       64000
    C1_Meta_backup_2018Jun05_120042  meta-volume     ok           ok      false   true   raid-1    1          20971264  4K     80G       64000
    
    /clusters/cluster-2/system-volumes:
    Name                             Volume Type     Operational  Health  Active  Ready  Geometry  Component  Block     Block  Capacity  Slots
    -------------------------------  --------------  Status       State   ------  -----  --------  Count      Count     Size   --------  -----
    -------------------------------  --------------  -----------  ------  ------  -----  --------  ---------  --------  -----  --------  -----
    C2_Logging_vol                   logging-volume  ok           ok      -       -      raid-0    1          2621440   4K     10G       -
    C2_Meta                          meta-volume     ok           ok      true    true   raid-1    2          20446976  4K     78G       64000
    C2_Meta_backup_2018Jul01_060025  meta-volume     ok           ok      false   true   raid-1    1          20446976  4K     78G       64000
    C2_Meta_backup_2018Jul02_060022  meta-volume     ok           ok      false   true   raid-1    1          20971264  4K     80G       64000
  12. Da du oprettede en metadiskenhed, er den sikkerhedskopierede metalydstyrke ikke nøjagtig. Som du kan se ovenfor i trin 11, viser sikkerhedskopieringerne af metadata på klynge 1, hvor den nye metadiskenhed blev oprettet til eksemplerne i denne KB, at de sidst kørte en sikkerhedskopiering omkring begyndelsen af juni. Du skal ødelægge de gamle sikkerhedskopier og konfigurere nye sikkerhedskopier. Det kan du gøre ved at se KB-artiklen 000038636 "VPLEX: 0x8a4a6006.0x8a4a6003.0x8a4a6005, Den automatiske sikkerhedskopiering af metadiskenheden kunne ikke fuldføres (eller) Der findes ingen gyldig sikkerhedskopieringsmetadiskenhed (eller) Sikkerhedskopiering af metadata kunne ikke destrueres", og følg trinnene i løsningen i afsnittet Løsning. Hver sikkerhedskopieringsdiskenhed skal også være på forskellige systemer, når to eller flere systemer er tilsluttet en VPLEX. Dette er til overflødige formål.

 

Affected Products

VPLEX GeoSynchrony, VPLEX Series, VPLEX VS2, VPLEX VS6
Article Properties
Article Number: 000170490
Article Type: Solution
Last Modified: 28 Jan 2026
Version:  5
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.