DataDomain: Guía de actualización del SO para sistemas de alta disponibilidad (HA)
Summary: Descripción general del proceso para las actualizaciones de Data Domain Operating System (DDOS) en dispositivos de “alta disponibilidad” de Data Domain (DDHA).
Instructions
A fin de reducir el tiempo de inactividad por el mantenimiento planificado, la actualización gradual del sistema se incluye en la arquitectura de HA. Una actualización gradual puede actualizar primero el nodo en espera y, luego, usar una conmutación por error de HA esperada para transferir los servicios del nodo activo al nodo en espera. Por último, los nodos activos anteriores se actualizarán y se reincorporarán al clúster de HA como nodos en espera. Todos los procesos se realizan con un solo comando.
Un enfoque de actualización manual alternativo es la “actualización local”. Actualice primero el nodo en espera de forma manual y, luego, actualice manualmente el nodo activo. Por último, el nodo en espera se reincorporará al clúster de HA. La actualización local se puede realizar para una actualización regular o corregir problemas.
Es posible que la conversión de datos de todas las operaciones de actualización del sistema en el nodo activo no se inicie hasta que ambos sistemas se actualicen al mismo nivel y el estado de HA se restaure por completo.
DDOS 5.7 en adelante soporta dos tipos de métodos de actualización de sistemas de HA:
-
Actualización gradual: actualización automática de ambos nodos de HA con un solo comando. El servicio se transfiere al otro nodo después de la actualización.
-
Actualización local: actualización manual de los nodos de HA, uno por uno. El servicio se mantiene en el mismo nodo después de la actualización.
Prepare el sistema para la actualización:
-
Asegúrese de que el estado del sistema de HA sea “altamente disponible”.
Login GUI à Home à Dashboard
- El archivo RPM de DDOS se debe colocar en el nodo activo y la actualización debe comenzar desde este nodo.
Login GUI à Home à Dashboard
- Cargar el archivo RPM en el nodo activo
Después de la carga, aparecerá el archivo RPM.
- Ejecute la comprobación previa en el nodo activo. La actualización se debe anular si se produce algún error.
Desactive también la GC, la transferencia de datos y la replicación antes de iniciar la actualización (paso 6) para que estos trabajos no provoquen un tiempo de apagado de DDFS más prolongado durante la actualización. Un tiempo de apagado de DDFS más corto ayudará a minimizar el impacto para los clientes. Estas cargas de trabajo no afectan las operaciones de respaldo/restauración del cliente.
En función de las necesidades, estos servicios se pueden reanudar una vez finalizada la actualización mediante los comandos de habilitación correspondientes. Consulte la guía de administración para obtener más detalles.
Hay algunos otros comandos y comprobaciones manuales que se describen en la guía de administración que no son estrictamente necesarios para un sistema de HA. Actualmente, se sugiere realizar un reinicio previo como prueba para los sistemas de nodo único. No es necesario para los sistemas de HA porque el paso 5 “conmutación por error de alta disponibilidad” a continuación ya incluye un reinicio automático durante el proceso de conmutación por error.
- Opcional. Antes de ejecutar una actualización gradual, se recomienda realizar la conmutación por error de HA dos veces de forma manual en el nodo activo. El fin es probar la funcionalidad de conmutación por error. La operación hará que el nodo activo se reinicie; tenga en cuenta esto.
En primer lugar, prepárese para la conmutación por error mediante el apagado de la GC, la transferencia de datos y la replicación. Consulte la guía de administración para saber cómo hacerlo a través de la GUI. Estos servicios no afectan las cargas de trabajo de respaldo/restauración del cliente. Luego, continúe con “conmutación por error de HA”.

(Cuando el estado del sistema de HA vuelva a ser “altamente disponible”, ejecute la segunda “conmutación por error de HA” y espere a que ambos nodos estén en línea)
Después de la conmutación por error de HA, los servicios detenidos se pueden reanudar mediante los comandos de habilitación correspondientes. Consulte la guía de administración para obtener más detalles.
Las pruebas de conmutación por error anteriores son opcionales y no es necesario realizarlas justo antes de una actualización. Las pruebas de conmutación por error se pueden realizar antes de la actualización, por ejemplo, con dos semanas de anticipación, de modo que se pueda utilizar una ventana de mantenimiento más pequeña para la actualización posterior. El tiempo de inactividad del servicio DDFS para cada conmutación por error es de alrededor de 10 minutos (menos o más según las versiones de DDOS y algunos otros factores). Las versiones 7.4 y posteriores de DDOS tendrán menos tiempo de inactividad versión tras versión debido a las mejoras continuas del software de DDOS.
- Si la comprobación previa finalizó sin problemas, continúe con la actualización gradual en el nodo activo.
- Espere que la actualización gradual finalice. Antes de que esto ocurra, no active ninguna operación de conmutación por error de HA.
Disponibilidad de DDFS durante el comando anterior:
-
Primero actualizará el nodo en espera y lo reiniciará con la nueva versión. Tarda aproximadamente entre 20 y 30 minutos, dependiendo de varios factores. El servicio DDFS está activo y funciona en el nodo activo durante este período sin ninguna degradación del rendimiento.
-
Después de aplicar el nuevo DDOS, el sistema realizará una conmutación por error del servicio DDFS al nodo en espera actualizado. Tarda aproximadamente 10 minutos (menos o más dependiendo de varios factores).
-
Un factor importante es la actualización del FW del DAE. Puede introducir alrededor de 20 minutos más de tiempo de inactividad, según la cantidad de DAE que estén configurados. Consulte el artículo de la base de conocimientos “Data Domain: La actualización gradual de HA puede fallar para el firmware del gabinete externo actualizado”, con el fin de determinar si se requiere una actualización del FW del DAE. Tenga en cuenta que, a partir de DDOS 7.5, hay una mejora para habilitar la actualización en línea del FW del DAE, lo que elimina esta preocupación.
-
Es posible comunicarse con el soporte de Dell para analizar los factores que podrían afectar los tiempos de actualización. Según el sistema operativo del cliente, la aplicación y el protocolo entre el cliente y el sistema de HA, a veces es posible que el usuario deba reanudar manualmente las cargas de trabajo del cliente justo después de la conmutación por error. Por ejemplo, si con los clientes de DDBoost el tiempo de conmutación por error es superior a 10 minutos, se agota el tiempo de espera del cliente y el usuario debe reanudar las cargas de trabajo de forma manual. Pero, por lo general, hay opciones disponibles para los clientes con el fin de establecer valores de tiempo de espera y cantidad de reintentos.
-
Tenga en cuenta que el servicio de DDFS está inactivo durante el período de conmutación por error. Al observar el resultado del comando “filesys status” en el nodo actualizado, se sabrá si el servicio DDFS se reanuda o no. Se espera que las versiones 7.4 y posteriores de DDOS tengan cada vez menos tiempo de inactividad debido a las mejoras en el código de DDOS.
Después de la conmutación por error, se actualizará el nodo activo anteriormente. Después de ejecutar la actualización, se reiniciará con la nueva versión y, luego, se reincorporará al clúster de HA como el nodo en espera. El servicio DDFS no se ve afectado durante este proceso, ya que ya se reanudó en el paso 2 anterior.
Verificación:
- Una vez finalizada la actualización gradual, debe iniciar sesión en la GUI a través de la dirección IP del nodo en espera anterior, en este caso, es nodo 1.
- Compruebe si hay alertas inesperadas.
- En este punto, la actualización gradual finalizó correctamente.
Actualización gradual a través de la CLI:
Prepare el sistema para la actualización:
- Asegúrese de que el estado del sistema de HA sea “altamente disponible”.
#ha status
HA System name: HA-system
HA System status: highly available ç
Node Name Node id Role HA State
----------------------------- ------- ------- --------
Node0 0 active online
Node1 1 standby online
----------------------------- ------- ------- --------
- El archivo RPM de DDOS se debe colocar en el nodo activo y la actualización debe comenzar desde este nodo.
#ha status
HA System name: HA-system
HA System status: highly available
Node Name Node id Role HA State
----------------------------- ------- ------- --------
Node0 0 active online ß Node0 is active node
Node1 1 standby online
----------------------------- ------- ------- --------
- Cargar el archivo RPM en el nodo activo
Client-server # scp <rpm file> sysadmin@HA-system.active_node:/ddr/var/releases/
Password: (customer defined it.)
(From client server, target path is “/ddr/var/releases”)
Active-node # system package list
File Size (KiB) Type Class Name Version ------------------ ---------- ------ ---------- ----- ------- x.x.x.x-12345.rpm 2927007.3 System Production DD OS x.x.x.x ------------------ ---------- ------ ---------- ----- -------
- Ejecute la comprobación previa en el nodo activo. La actualización se debe anular si se produce algún error.
Active-node # system upgrade precheck <rpm file>
Upgrade precheck in progress:
Node 0: phase 1/1 (Precheck 100%) , Node 1: phase 1/1 (Precheck 100%)
Upgrade precheck found no issues.
Desactive también la GC, la transferencia de datos y la replicación antes de iniciar la actualización (paso 6) para que estos trabajos no provoquen un tiempo de apagado de DDFS más prolongado durante la actualización. Un tiempo de apagado de DDFS más corto ayudará a minimizar el impacto para los clientes. Estas cargas de trabajo no afectan las operaciones de respaldo/restauración del cliente. En función de las necesidades, estos servicios se pueden reanudar una vez finalizada la actualización mediante los comandos de habilitación correspondientes. Consulte la guía de administración para obtener más detalles.
Active-node # filesys clean stop
Active-node # cloud clean stop
Active-node # data-movement suspend
Active-node # data-movement stop to-tier active
Active-node # replication disable all
Tenga en cuenta que hay algunos comandos de “supervisión” para comprobar si se realizan las operaciones anteriores.
Active-node # filesys clean watch
Active-node # cloud clean watch
Active-node # data-movement watch
Hay algunos otros comandos y comprobaciones manuales que se describen en la guía de administración que no son estrictamente necesarios para un sistema de HA. Actualmente, se sugiere realizar un reinicio previo como prueba para los sistemas de nodo único. No es necesario para los sistemas de HA porque el paso 5 “conmutación por error de alta disponibilidad” a continuación ya incluye un reinicio automático durante el proceso de conmutación por error.
- Opcional. Antes de ejecutar una actualización gradual, se recomienda realizar la conmutación por error de HA dos veces de forma manual en el nodo activo. El fin es probar la funcionalidad de conmutación por error. La operación hará que el nodo activo se reinicie; tenga en cuenta esto.
En primer lugar, prepárese para la conmutación por error mediante el desactivación de la GC, la transferencia de datos y la replicación. Estos servicios no afectan las cargas de trabajo de respaldo/restauración del cliente. Luego, ejecute la “conmutación por error de HA”.
A continuación, se muestran los comandos para ejecutarla:
Active-node # filesys clean stop
Active-node # cloud clean stop
Active-node # data-movement suspend
Active-node # data-movement stop to-tier active
Active-node # replication disable all
Tenga en cuenta que hay algunos comandos de “supervisión” para comprobar si se realizan las operaciones anteriores.
Active-node # filesys clean watch
Active-node # cloud clean watch
Active-node # data-movement watch
Y, luego, ejecute el comando de conmutación por error:
Active-node # ha failoverEsta operación iniciará una conmutación por error desde este nodo. El nodo local se reiniciará.
Do you want to proceed? (yes|no) [no]: yes
Failover operation initiated. Ejecute “ha status” para monitorear el estado
(Cuando el estado del sistema de HA vuelva a ser “altamente disponible”, ejecute la segunda “conmutación por error de HA” y espere a que ambos nodos estén en línea)
Después de la conmutación por error de HA, los servicios detenidos se pueden reanudar mediante los comandos de habilitación correspondientes. Consulte la guía de administración para obtener más detalles.
Las pruebas de conmutación por error anteriores son opcionales y no es necesario realizarlas justo antes de una actualización. Las pruebas de conmutación por error se pueden realizar antes de la actualización, por ejemplo, con dos semanas de anticipación, de modo que se pueda utilizar una ventana de mantenimiento más pequeña para la actualización posterior. El tiempo de inactividad del servicio DDFS para cada conmutación por error es de alrededor de 10 minutos (menos o más según las versiones de DDOS y algunos otros factores). La versión 7.4 y posteriores de DDOS tendrán menos tiempo de inactividad versión tras versión debido a las mejoras continuas del software de DDOS.
- Si la comprobación previa finalizó sin problemas, continúe con la actualización gradual en el nodo activo.
Active-node # system upgrade start <rpm file> El comando “system upgrade” actualiza el SO de Data Domain. El acceso a los archivos
se interrumpe durante la actualización. El sistema se reinicia automáticamente
después de la actualización.
Are you sure? (yes|no) [no]: yes ok, proceeding. Upgrade in progress: Node Severity Issue Solution ---- -------- ------------------------------ -------- 0 WARNING 1 component precheck script(s) failed to complete 0 INFO Upgrade time est: 60 mins 1 WARNING 1 component precheck script(s) failed to complete 1 INFO Upgrade time est: 80 mins ---- -------- ------------------------------ -------- Node 0: phase 2/4 (Install 0%) , Node 1: phase 1/4 (Precheck 100%) Upgrade phase status legend: DU : Data Upgrade FO : Failover .. PC : Peer Confirmation VA : Volume Assembly Node 0: phase 3/4 (Reboot 0%) , Node 1: phase 4/4 (Finalize 5%) FO Upgrade has started. System will reboot.
Disponibilidad de DDFS durante el comando anterior:
-
Primero actualizará el nodo en espera y lo reiniciará con la nueva versión. Tarda aproximadamente entre 20 y 30 minutos, dependiendo de varios factores. El servicio DDFS está activo y funciona en el nodo activo durante este período sin ninguna degradación del rendimiento.
-
Después de aplicar el nuevo DDOS, el sistema realizará una conmutación por error del servicio DDFS al nodo en espera actualizado. Tarda aproximadamente 10 minutos (menos o más dependiendo de varios factores).
-
Un factor importante es la actualización del FW del DAE. Puede introducir alrededor de 20 minutos más de tiempo de inactividad, según la cantidad de DAE que estén configurados. Consulte el artículo de la base de conocimientos “Data Domain: La actualización gradual de HA puede fallar para el firmware del gabinete externo actualizado”, con el fin de determinar si se requiere una actualización del FW del DAE. Tenga en cuenta que, a partir de DDOS 7.5, hay una mejora para habilitar la actualización en línea del FW del DAE, lo que elimina esta preocupación.
-
Es posible comunicarse con el soporte de Dell para analizar los factores que podrían afectar los tiempos de actualización. Según el sistema operativo del cliente, la aplicación y el protocolo entre el cliente y el sistema de HA, a veces es posible que el usuario deba reanudar manualmente las cargas de trabajo del cliente justo después de la conmutación por error. Por ejemplo, si con los clientes de DDBoost el tiempo de conmutación por error es superior a 10 minutos, se agota el tiempo de espera del cliente y el usuario debe reanudar las cargas de trabajo de forma manual. Pero, por lo general, hay opciones disponibles para los clientes con el fin de establecer valores de tiempo de espera y cantidad de reintentos.
-
-
Después de la conmutación por error, se actualizará el nodo activo anteriormente. Después de ejecutar la actualización, se reiniciará con la nueva versión y, luego, se reincorporará al clúster de HA como el nodo en espera. El servicio DDFS no se ve afectado durante este proceso, ya que ya se reanudó en el paso 2 anterior.
- Una vez que el nodo en espera (nodo 1) se reinicia y se puede acceder a él, es posible iniciar sesión en el nodo en espera para controlar el estado o el progreso de la actualización.
Node1 # system upgrade status
Current Upgrade Status: DD OS upgrade In Progress
Node 0: phase 3/4 (Reboot 0%)
Node 1: phase 4/4 (Finalize 100%) waiting for peer confirmation
- Espere que la actualización gradual finalice. Antes de que esto ocurra, no active ninguna operación de conmutación por error de HA.
Node1 # system upgrade status
Current Upgrade Status: DD OS upgrade Succeeded
End time: 20xx.xx.xx:xx:xx
- Compruebe el estado de HA; ambos nodos están en línea y el estado del sistema de HA es “altamente disponible”.
Node1 # ha status detailed
HA System name: HA-system
HA System Status: highly available
Interconnect Status: ok
Primary Heartbeat Status: ok
External LAN Heartbeat Status: ok
Hardware compatibility check: ok
Software Version Check: ok
Node Node1:
Role: active
HA State: online
Node Health: ok
Node Node0:
Role: standby
HA State: online
Node Health: ok
Mirroring Status:
Component Name Status
-------------- ------
nvram ok
registry ok
sms ok
ddboost ok
cifs ok
-------------- ------
Verificación:
- Compruebe que ambos nodos tengan la misma versión de DDOS.
Node1 # system show version
Data Domain OS x.x.x.x-12345
Node0 # system show version
Data Domain OS x.x.x.x-12345
- Compruebe si hay alertas inesperadas.
Node1 # alert show current
Node0 # alert show current
- En este punto, la actualización gradual finalizó correctamente.
Nota: Si tiene algún problema con la actualización, comuníquese con el soporte de Data Domain para obtener más instrucciones y asistencia.
ACTUALIZACIÓN LOCAL para el par de DDHA:
A grandes rasgos, una actualización local funciona de la siguiente manera:
Prepare el sistema para la actualización:
- Compruebe el estado del sistema de HA. Incluso si el estado es degradado, la actualización local puede funcionar en esta situación.
#ha status HA System name: HA-system HA System status: highly available <- Node Name Node id Role HA State ----------------------------- ------- ------- -------- Node0 0 active online Node1 1 standby online ----------------------------- ------- ------- --------
- El archivo RPM de DDOS se debe colocar en ambos nodos y la actualización debe comenzar desde el nodo en espera.
#ha status
HA System name: HA-system
HA System status: highly available
Node Name Node id Role HA State
----------------------------- ------- ------- --------
Node0 0 active online
Node1 1 standby online <- Node1 is standby node
----------------------------- ------- ------- --------
- Cargue el archivo RPM en ambos nodos.
Client-server # scp <rpm file> sysadmin@HA- system.active_node:/ddr/var/releases/
Client-server # scp <rpm file> sysadmin@HA-system.standby_node:/ddr/var/releases/
Password: (customer defined it.)
(From client server, target path is “/ddr/var/releases”)
Active-node # system package list File Size (KiB) Type Class Name Version ------------------ ---------- ------ ---------- ----- ------- x.x.x.x-12345.rpm 2927007.3 System Production DD OS x.x.x.x ------------------ ---------- ------ ---------- ----- ------ Standby-node # system package list File Size (KiB) Type Class Name Version ------------------ ---------- ------ ---------- ----- ------- x.x.x.x-12345.rpm 2927007.3 System Production DD OS x.x.x.x ------------------ ---------- ------ ---------- ----- ------
- Ejecute una comprobación previa en el nodo activo si el estado de HA es “altamente disponible”. La actualización se debe anular si se produce algún error.
Active-node # system upgrade precheck <rpm file>
Upgrade precheck in progress: Node 0: phase 1/1 (Precheck 100%) , Node 1: phase 1/1 (Precheck 100%) Upgrade precheck found no issues.
Si el estado de HA es “degradado”, debe realizar una verificación previa en ambos nodos.
Active-node # system upgrade precheck <rpm file> local
Upgrade precheck in progress:
Node 0: phase 1/1 (Precheck 100%)
Upgrade precheck found no issues.
Standby-node # system upgrade precheck <rpm file> local
Upgrade precheck in progress:
Node 1: phase 1/1 (Precheck 100%)
Upgrade precheck found no issues.
- Desconecte el nodo en espera.
Standby-node # ha offline
This operation will cause the ha system to no longer be highly available.
Do you want to proceed? (yes|no) [no]: yes
Standby node is now offline.
(NOTA: Si la operación de desconexión falló o el estado de alta disponibilidad está degradado, continúe con la actualización local, ya que los pasos posteriores pueden manejar fallas).
- Asegúrese de que el estado del nodo en espera sea fuera de línea.
Standby-node # ha status
HA System name: HA-system
HA System status: degraded
Node Name Node id Role HA State
----------------------------- ------- ------- --------
Node1 1 standby offline
Node0 0 active degraded
----------------------------- ------- ------- --------
- Realice la actualización del nodo en espera. Esta operación provocará el reinicio del nodo en espera.
El comando “system upgrade” actualiza el SO de Data Domain. El acceso a los archivos
se interrumpe durante la actualización. El sistema se reinicia automáticamente
después de la actualización.
Are you sure? (yes|no) [no]: yes
ok, proceeding.
La marca “local” es altamente disruptiva para los sistemas de HA y se debe utilizar solo como una operación de reparación.
Are you sure? (yes|no) [no]: yes
ok, proceeding.
Actualización en curso:
Node 1: phase 3/4 (Reboot 0%)
La actualización ha comenzado. El sistema se reiniciará.
- El nodo en espera se reiniciará con la nueva versión de DDOS, pero permanecerá fuera de línea.
- Compruebe el estado de actualización del sistema; puede tardar más de 30 minutos en finalizar la actualización del SO.
Standby-node # system upgrade status
Current Upgrade Status: DD OS upgrade Succeeded
End time: 20xx.xx.xx:xx:xx
- Compruebe el estado del sistema de HA, el nodo en espera (en este caso, es el nodo 1) está fuera de línea y el estado de HA es “degradado”.
Standby-node # ha status
HA System name: HA-system
HA System status: degraded
Node Name Node id Role HA State
----------------------------- ------- ------- --------
Node1 1 standby offline
Node0 0 active degraded
----------------------------- ------- ------- --------
- Realice la actualización local en el nodo activo. Esta operación reiniciará el nodo activo.
Active-node # system upgrade start <rpm file> local
The 'system upgrade' command upgrades the Data Domain OS. File access
is interrupted during the upgrade. The system reboots automatically
after the upgrade.
Are you sure? (yes|no) [no]: yes
ok, proceeding.
The 'local' flag is highly disruptive to HA systems and should be used only as a repair operation.
Are you sure? (yes|no) [no]: yes
ok, proceeding.
Upgrade in progress:
Node Severity Issue Solution
---- -------- ------------------------------ --------
0 WARNING 1 component precheck
script(s) failed to complete
0 INFO Upgrade time est: 60 mins
---- -------- ------------------------------ --------
Node 0: phase 3/4 (Reboot 0%)
Upgrade has started. System will reboot.
- Compruebe el estado de actualización del sistema; puede tardar más de 30 minutos en finalizar la actualización del SO.
Active-node # system upgrade status
Current Upgrade Status: DD OS upgrade Succeeded
End time: 20xx.xx.xx:xx:xx
- Una vez finalizada la actualización del nodo activo, el estado del sistema de HA sigue degradado. Ejecute el siguiente comando para poner en línea al nodo en espera; se reiniciará el nodo en espera.
Standby-node # ha online The operation will reboot this node. Do you want to proceed? (yes|no) [no]: yes Broadcast message from root (Wed Oct 14 22:38:53 2020): The system is going down for reboot NOW! **** Error communicating with management service.(NOTA: Si no se ejecutó “ha offline” en los pasos anteriores, ignore este paso)
- El nodo en espera se reiniciará y se reincorporará al clúster. Después de esto, el estado de HA volverá a ser “altamente disponible”.
Active-node # ha status detailed
HA System name: Ha-system
HA System Status: highly available
Interconnect Status: ok
Primary Heartbeat Status: ok
External LAN Heartbeat Status: ok
Hardware compatibility check: ok
Software Version Check: ok
Node node0:
Role: active
HA State: online
Node Health: ok
Node node1:
Role: standby
HA State: online
Node Health: ok
Mirroring Status:
Component Name Status
-------------- ------
nvram ok
registry ok
sms ok
ddboost ok
cifs ok
-------------- ------
Verificación:
- Compruebe que ambos nodos tengan la misma versión de DDOS.
Node1 # system show version
Data Domain OS x.x.x.x-12345
Node0 # system show version
Data Domain OS x.x.x.x-12345
- Compruebe si hay alertas inesperadas.
Node1 # alert show current
Node0 # alert show current
- En este punto, la actualización gradual finalizó correctamente.
Additional Information
Actualización gradual:
-
Tenga en cuenta que se realiza una sola conmutación por error durante la actualización, por lo que las funciones se intercambiarán
-
La información de actualización se conserva en infra.log, pero puede haber información adicional en ha.log
-
El progreso de la actualización se puede monitorear a través de la vigilancia de actualización del sistema
Actualización de nodo local:
-
Una actualización de nodo local no realiza una conmutación por error de HA
-
Como resultado, será un período prolongado de tiempo de inactividad mientras el nodo activo actualiza/reinicia/realiza actividades de actualización posteriores al reinicio, lo que probablemente hará que se agote el tiempo de espera de los respaldos/restauraciones y que fallen. Requerir la asignación de una ventana de tiempo de mantenimiento para la actualización local.
-
Incluso si el estado del sistema de HA es “degradado”, se puede continuar con la actualización local.
-
Por algún motivo, la actualización gradual puede fallar de manera inesperada. En esta situación, la actualización local se puede considerar como un método de corrección.