RecoverPoint: Feil CG-er og RPA-er nede i RecoverPoint-systemer som bruker samme Unity-array
Summary: Replikering av konsistensgrupper som mislykkes og RecoverPoint-apparater (RPA-er) som går inn i omstartsregulering på flere RecoverPoint-systemer som bruker samme Unity-array.
This article applies to
This article does not apply to
This article is not tied to any specific product.
Not all product versions are identified in this article.
Symptoms
Replikeringsproblemer starter på flere RecoverPoint-systemer som bruker samme Unity-array, etter at du har opprettet en ny konsistensgruppe (CG) eller lagt til journalvolumer på eksisterende CG-er.
Fra systemhendelser (CLI):
Fra replikeringslogger:
Fra systemhendelser (CLI):
Topic: GROUP Scope: DETAILED Level: ERROR Event ID: 4040 Summary: Journal error More information: Full sweep to be performed. Topic: GROUP Scope: ADVANCED Level: INFO Event ID: 4075 Summary: Journal available Topic: GROUP Scope: NORMAL Level: WARNING Event ID: 4082 Summary: The dirtying action took place either due to a user action (e.g. group was enabled or journal volumes changed) or due to a system fatal error. There will be only one full sweep on this link in the next synchronization, regardless of the number of times the link's copies are marked as dirty until the synchronization starts. More information: The copy marked all of its replication volumes as dirty.
Fra replikeringslogger:
2022/09/07 23:27:48.185 - #0 - 16558/16380 - Stream: errno=0 Assertion failed: false Line 2142 File /home/builderv/ReleaseBuilds/rel-hydra_patch1/src/kashya_infra/stream/Stream.inl PID: 16380 Info: Trying to get head from a stream without open it first END OF LOGGER 2022/09/07 20:40:31.781 - #0 - 7714/7467 - Stream: errno=0 Assertion failed: false Line 2149 File /home/builderv/ReleaseBuilds/rel-hydra_patch1/src/kashya_infra/stream/Stream.inl PID: 7467 Info: Stream must be recovered or init before get head END OF LOGGER 2022/09/07 21:39:29.335 - #0 - 13316/12743 - NO TOPIC: errno=0 Assertion failed: 0 Line 89 File SerializableQueueElement.cc PID: 12743 Info: NO INFO END OF LOGGER
Cause
Dette problemet oppstår når flere RPA-er fra ulike RecoverPoint-systemer skriver til samme journalvolum. Når dette skjer, blir journalhistorikken for begge CG-ene ødelagt og starter et fullstendig opprydding for å sikre datakonsistens. Dette utløser også replikeringsprosessen på nytt, noe som fører til omstartregulering av RPA-ene.
Resolution
Resolusjon:
Kontroller at hver konsistensgruppe inneholder unike journalvolumer i alle RecoverPoint-systemer. (Admin CLI-kommandoen "get_group_volumes" kan være nyttig for å identifisere journalvolumene som brukes på tvers av hvert system.)
- På berørte CG-er går du til Journal-fanen i målkopien.
- Klikk på "Rediger journaler" -knappen, velg nytt journalvolum du vil legge til CG og fjern problemet Journal Volume.
Additional Information
Dokumentert i "Dell EMC RecoverPoint-implementering med tekniske merknader for lagring i mellomsjiktet" side 7 under begrensninger:
I motsetning til VNX har ikke Unity lagringsgrupper. Derfor er alle volumer synlige for alle RPA-klynger, inkludert volumer som allerede er beskyttet av andre RPA-klynger. Beskytter bare ubeskyttede volumer. Hvis du beskytter et volum som allerede er beskyttet:
I motsetning til VNX har ikke Unity lagringsgrupper. Derfor er alle volumer synlige for alle RPA-klynger, inkludert volumer som allerede er beskyttet av andre RPA-klynger. Beskytter bare ubeskyttede volumer. Hvis du beskytter et volum som allerede er beskyttet:
- Replikering starter ikke
- Koblingstilstanden viser at systemet er midlertidig stanset
- En feil indikerer at volumene allerede er beskyttet
- Datafeil kan oppstå hvis det valgte volumet er et journalvolum i en annen RPA-klynge
Affected Products
RecoverPoint, RecoverPoint CL, RecoverPoint EX, RecoverPoint SEArticle Properties
Article Number: 000203635
Article Type: Solution
Last Modified: 22 Sept 2025
Version: 6
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.