Migração não disruptiva (NDM) do VMAX/PowerMax para a plataforma de host IBMi
Summary: As famílias de plataformas de armazenamento empresarial Dell EMC VMAX e PowerMax são compatíveis com migrações não disruptivas baseadas em armazenamento para migrar sistemas de host essenciais aos negócios para novos storage arrays sem tempo de inatividade do aplicativo. Com o lançamento da família de códigos PowerMaxOS 5978.444.444, o suporte a NDM foi adicionado à plataforma de host IBMi. Este artigo descreve como configurar e executar uma Migração não disruptiva em sistemas IBMi, incluindo algumas considerações e um procedimento prático. ...
This article applies to
This article does not apply to
This article is not tied to any specific product.
Not all product versions are identified in this article.
Instructions
Ambiente para suporte:
O NDM para IBMi está disponível para sistemas host IBMi compatíveis que estão conectados ao VMAX ou PowerMax arrays que executam a versão 5978.444.444 ou posterior do PowerMaxOS.
Isso se aplica a LPARs IBMi em execução na plataforma IBM Power Server Power6 ou posterior e executando o sistema operacional IBMi versão i6.1.1 ou posterior. A matriz de suporte geral do eLab do VMAX ou PowerMax apresenta detalhes e lista os IOAs Fibre Channel (FC) compatíveis (os IOAs IBMi são adaptadores de E/S, também conhecidos como HBAs (Host Bus Adapters, adaptadores de barramento de host)). O NDM também é compatível quando o IBMi é um client LPAR com recursos de E/S virtual atribuídos a partir de um servidor de E/S virtual da IBM (VIOS). Com o recurso VIOS da IBM/VFC (NPIV), os adaptadores FC virtuais (vFCs) são atribuídos aos LPARs do client para conexão com o storage array usando switches SAN compatíveis.
Os vFCs agem como uma passagem para a conectividade do disco do host. No host, isso é totalmente transparente e todos os recursos compatíveis do storage array também estão disponíveis na configuração do adaptador virtualizado.
Cenário de histórico e migração de alto nível:
O Symmetrix Remote Data Facility (SRDF) foi desenvolvido no início dos anos 1990 como uma tecnologia de replicação de recuperação de desastres (DR) para os storage arrays empresariais da EMC. Ele também tem sido usado por muitos anos para realizar migrações baseadas em armazenamento de um array para outro. Ou seja, conecta "consecutivamente" os arrays ANTIGOS e NOVOS e copia os volumes de dados ao realizar uma atualização de tecnologia implementando um novo storage array. Embora o processo de cópia do SRDF dos volumes ou unidades lógicas (LUNs) seja transparente para os sistemas host conectados, tradicionalmente ele sempre exigiu uma breve janela de "transferência" off-line quando o processo de cópia era concluído a partir dos volumes de origem (R1). Os volumes (novos) de destino (R2s) eram habilitados para leitura/gravação e as conexões FC dos sistemas host eram apontadas (por meio de zoneamento e mascaramento de SAN) para o novo array.
O SRDF/Metro foi introduzido com a família de storage arrays VMAX All Flash. O SRDF/Metro fornece acesso verdadeiro ao host Active/Active para os volumes source- (R1) e target-(R2) de ambos os arrays. O SRDF/Metro funciona com drivers de vários caminhos de host compatíveis para acesso ao disco. Isso inclui a proteção nativa IBMi Dynamic Multi Path (DMP) para os caminhos do disco. O IBMi DMP detecta automaticamente se há vários caminhos de FC para o mesmo dispositivo de disco. Ele também fornece um esquema básico, mas eficaz, de balanceamento de carga em "rodízio" para distribuir a carga de trabalho de E/S do disco pelos caminhos de adaptador FC disponíveis. O IBMi DMP fornece failover de caminho automático se houver possibilidade de falha das conexões, redirecionando a operação de E/S do disco para um dos caminhos ativos restantes. Quando as conexões com falha são restauradas, o IBMi recupera automaticamente esses caminhos e começa a enviar a E/S do disco para esses caminhos novamente.
A NDM é baseada na tecnologia de SRDF/Metro subjacente para fornecer acesso simultâneo aos dispositivos de armazenamento antigos e novos. Quando um par de dispositivos de replicação SRDF/Metro (R1>R2) é criado, a mesma identidade do dispositivo R1 é apresentada a partir do dispositivo R2 no array de destino. Basicamente, o mesmo ID serial de disco e WWPN do dispositivo são apresentados a partir de ambos os dispositivos. Inicialmente, o novo dispositivo R2 está em um estado AA-NR/DEV-INACT (Active/Active-Not Ready/ Device Inactive). Depois que o par de dispositivos R1>R2 for sincronizado, ele poderá entrar em um estado Active/Active, ativando o acesso de leitura e gravação ao volume R2. Quando o caminho do IBMi LPAR para o dispositivo R2 está ativado (zoneamento e mascaramento de SAN para o novo array ativado), o host IBMi detecta um novo caminho de FC para o dispositivo de disco existente. Em um cenário de NDM do IBMi, apresentamos os dispositivos R1 + R2 Active/Active e depois, ao remover o acesso aos dispositivos R1, o host IBMi perde o acesso aos caminhos do array antigo, mas continua sendo executado nos dispositivos R2. Assim que isso for feito, o ambiente poderá ser limpo; remova o mascaramento de R1 antigo, remova o zoneamento antigo e execute um utilitário para "redefinir vários caminhos" no sistema IBMi para parar de usar os caminhos inativos antigos. Pode ser necessária uma carga inicial do programa (IPL), também conhecida como reinicialização, para remover os caminhos inativos antigos do banco de dados de configuração de dispositivo dos hosts IBMi (repositório de informações de gerenciamento de armazenamento IBMi), mas essa não é uma tarefa obrigatória, ela também pode aguardar até a próxima IPL planejada.
Outras informações úteis:
"Práticas recomendadas e guia operacional da NDM"
https://infohub.delltechnologies.com/t/dell-powermax-and-vmax-non-disruptive-and-minimally-disruptive-migration-best-practices-and-operational-guide/
====================================================== ================
==================================PRACTICAL IBMi NDM Procedimento:
O NDM para IBMi está disponível para sistemas host IBMi compatíveis que estão conectados ao VMAX ou PowerMax arrays que executam a versão 5978.444.444 ou posterior do PowerMaxOS.
Isso se aplica a LPARs IBMi em execução na plataforma IBM Power Server Power6 ou posterior e executando o sistema operacional IBMi versão i6.1.1 ou posterior. A matriz de suporte geral do eLab do VMAX ou PowerMax apresenta detalhes e lista os IOAs Fibre Channel (FC) compatíveis (os IOAs IBMi são adaptadores de E/S, também conhecidos como HBAs (Host Bus Adapters, adaptadores de barramento de host)). O NDM também é compatível quando o IBMi é um client LPAR com recursos de E/S virtual atribuídos a partir de um servidor de E/S virtual da IBM (VIOS). Com o recurso VIOS da IBM/VFC (NPIV), os adaptadores FC virtuais (vFCs) são atribuídos aos LPARs do client para conexão com o storage array usando switches SAN compatíveis.
Os vFCs agem como uma passagem para a conectividade do disco do host. No host, isso é totalmente transparente e todos os recursos compatíveis do storage array também estão disponíveis na configuração do adaptador virtualizado.
Cenário de histórico e migração de alto nível:
O Symmetrix Remote Data Facility (SRDF) foi desenvolvido no início dos anos 1990 como uma tecnologia de replicação de recuperação de desastres (DR) para os storage arrays empresariais da EMC. Ele também tem sido usado por muitos anos para realizar migrações baseadas em armazenamento de um array para outro. Ou seja, conecta "consecutivamente" os arrays ANTIGOS e NOVOS e copia os volumes de dados ao realizar uma atualização de tecnologia implementando um novo storage array. Embora o processo de cópia do SRDF dos volumes ou unidades lógicas (LUNs) seja transparente para os sistemas host conectados, tradicionalmente ele sempre exigiu uma breve janela de "transferência" off-line quando o processo de cópia era concluído a partir dos volumes de origem (R1). Os volumes (novos) de destino (R2s) eram habilitados para leitura/gravação e as conexões FC dos sistemas host eram apontadas (por meio de zoneamento e mascaramento de SAN) para o novo array.
O SRDF/Metro foi introduzido com a família de storage arrays VMAX All Flash. O SRDF/Metro fornece acesso verdadeiro ao host Active/Active para os volumes source- (R1) e target-(R2) de ambos os arrays. O SRDF/Metro funciona com drivers de vários caminhos de host compatíveis para acesso ao disco. Isso inclui a proteção nativa IBMi Dynamic Multi Path (DMP) para os caminhos do disco. O IBMi DMP detecta automaticamente se há vários caminhos de FC para o mesmo dispositivo de disco. Ele também fornece um esquema básico, mas eficaz, de balanceamento de carga em "rodízio" para distribuir a carga de trabalho de E/S do disco pelos caminhos de adaptador FC disponíveis. O IBMi DMP fornece failover de caminho automático se houver possibilidade de falha das conexões, redirecionando a operação de E/S do disco para um dos caminhos ativos restantes. Quando as conexões com falha são restauradas, o IBMi recupera automaticamente esses caminhos e começa a enviar a E/S do disco para esses caminhos novamente.
A NDM é baseada na tecnologia de SRDF/Metro subjacente para fornecer acesso simultâneo aos dispositivos de armazenamento antigos e novos. Quando um par de dispositivos de replicação SRDF/Metro (R1>R2) é criado, a mesma identidade do dispositivo R1 é apresentada a partir do dispositivo R2 no array de destino. Basicamente, o mesmo ID serial de disco e WWPN do dispositivo são apresentados a partir de ambos os dispositivos. Inicialmente, o novo dispositivo R2 está em um estado AA-NR/DEV-INACT (Active/Active-Not Ready/ Device Inactive). Depois que o par de dispositivos R1>R2 for sincronizado, ele poderá entrar em um estado Active/Active, ativando o acesso de leitura e gravação ao volume R2. Quando o caminho do IBMi LPAR para o dispositivo R2 está ativado (zoneamento e mascaramento de SAN para o novo array ativado), o host IBMi detecta um novo caminho de FC para o dispositivo de disco existente. Em um cenário de NDM do IBMi, apresentamos os dispositivos R1 + R2 Active/Active e depois, ao remover o acesso aos dispositivos R1, o host IBMi perde o acesso aos caminhos do array antigo, mas continua sendo executado nos dispositivos R2. Assim que isso for feito, o ambiente poderá ser limpo; remova o mascaramento de R1 antigo, remova o zoneamento antigo e execute um utilitário para "redefinir vários caminhos" no sistema IBMi para parar de usar os caminhos inativos antigos. Pode ser necessária uma carga inicial do programa (IPL), também conhecida como reinicialização, para remover os caminhos inativos antigos do banco de dados de configuração de dispositivo dos hosts IBMi (repositório de informações de gerenciamento de armazenamento IBMi), mas essa não é uma tarefa obrigatória, ela também pode aguardar até a próxima IPL planejada.
Outras informações úteis:
"Práticas recomendadas e guia operacional da NDM"
https://infohub.delltechnologies.com/t/dell-powermax-and-vmax-non-disruptive-and-minimally-disruptive-migration-best-practices-and-operational-guide/
====================================================== ================
==================================PRACTICAL IBMi NDM Procedimento:
#NDM (Non Disruptive Migration) procedure for IBMi host environments. #From VMAX>>>VMAX, VMAX>>>PMAX, PMAX>>>PMAX #Written: Q4-2021 #Author: Wopke Hoekstra CSA IBMi Global Practice #Version: 5 ========================================================================================== # Just for reference: PowerMax OS 5978 Levels: Name Release Level/Code Elm 5978.144.144 Elm SR 5978.221.221 Foxtail 5978.444.444 Foxtail SR 5978.479.479 Hickory 5978.669.669 Hickory SR 5978.711.711 ========================================================================================== #PREREQS: # MINIMUM Microcode Requirements: Foxtail (NDM IBMi support and NDM METRO-Mode available) # MINIMUM of 2 RF directors per array are required # Central external UniSphere/SE (SymCLI) server required with access to the source and target arrays # MINIMUM SE version of 9.1 ==================================================================================================== #Actual Customer Environment where this procedure was used: # "OLD" VMAX: SN# ckxxxxxxxxx/ckxxxxxxxxx / 5978.479.479 # "NEW" PMAX: SN# ckxxxxxxxxx/ckxxxxxxxxx / 5978.479.479 ============================================================================================================ #Suggested NDM procedure: METRO NDM with Pre-Copy #Also refer to the DELL EMC PowerMax NDM Whitepaper: Paragraph 3.2.4 / page 120 ============================================================================================================ #PROCEDURE: Metro-based NDM with precopy #NOTE: (NDM with precopy allows end users to copy application data from the source array to target array while the application is still running on the source array) #SAN requirements: #Existing Host FC IOA ports/WWPN's will be used to also zone to the new target array's FA-ports. NO NEED for additional host FC connections. #NOTE: The NEW array needs to be connected to the same SAN Fabric's as the OLD array. #For each zone; add the desired target-array's FA-port WWPN into the existing zone (already containing the host initiator WWPN and OLD array FA-port WWPN) #Or alternatively create new zones with same initiators to the new target-array's FA-ports #NOTE: For LPAR's using VIOS/VFC(NPIV) connections and when the environment is setup for Live Partition Mobility, the vFC's secondary WWPN will be included in the zoning/masking. #The secondary WWPN's will not be active and are not in the source array's Login History Table. NDM does not accept inactive WWPN's to be in the IG of the source host, hence the NDM VALIDATE and CREATE commands will fail. #WORKAROUND: Temporarily remove the secondary WWPN's from the source LPAR IG. After the migration, simply add these secondary WWPN's back into the new IG on the target array. #Setup-phase: #symdm –src_sid -tgt_sid environment -setup symdm -sid 008 -tgt_sid 661 environment setup #NDM RDFGroup will be created. Now modify the SAN zoning to include the target-array FA-ports. #NOTE: No devices are presented from the target-array yet. #NOTE: You can already check if the existing initiator-WWPN's are actively logging in to the new array symaccess -sid 661 list logins -dirport 1d:4 #To check the environment at any time: #symdm –src_sid -tgt_sid environment -validate symdm -src_sid 336 -tgt_sid 662 environment -validate symdm -src_sid 008 -tgt_sid 661 environment -validate Other commands to display further details: symdm -sid 336 -environment list symcfg -sid 336 list -rdfg all symcfg -sid 008 list -rdfg all #NOTE: Take a copy of the source-array's masking database before the activity: symaccess -sid 336 list view -all -v -detail>masking336_24Nov2021.txt symaccess -sid 008 list view -all -v -detail>masking008_24Nov2021.txt #Create Phase (with precopy: (run validation prior to execution)) #This creates an SRDF/Metro session with NDM attributes and puts the SRDF/Metro pair into adaptive copy disk mode. #It starts syncing data from R1 to R2. #Bias is on the Metro-based NDM source. #symdm create –src_sid -tgt_sid -sg [-tgt_srp ] [-tgt_pg ] -precopy #First validate: symdm create -src_sid 008 -tgt_sid 661 -sg SG_IBMPROD1_1 -precopy -validate #Then execute: symdm create -src_sid 008 -tgt_sid 661 -sg SG_IBMPROD1_1 -precopy #Check NDM status: #symdm –sid xxx list (-v) (-detail) #symdm –sid -sg list –v –pairs_info -detail (shows device pairing) #symrdf list -sid xxx (-rdfg xxx) (-sg xxx) #symstat –sid –rdfg –type RDF –i xx symdm -sid 008 list #ReadyTGT Phase: #Moves RDF pair state from adaptive copy mode to Active/Active(in case of witness protection) or Active/Bias (without witness protection). #Target devices are moved into a read/write mode, It puts the NDM pair in Active/Active or Active/Bias mode #Masking view is created on the target array using the masking elements created during the create command. #symdm –sid -sg readytgt symdm -sid 008 -sg SG_IBMPROD1_1 readytgt #Check status: #symdm –sid xxx list (-v) (-detail) #symrdf list -sid xxx (-rdfg xxx) (-sg xxx) symdm -sid 008 list #On the IBMi LPAR, check for new detected FC paths (to the devices on new PowerMax) #Logon to LPAR, go into System Service Tools: STRSST and go to "work with disks"> "disk configuration"> "9.Disk Paths" #Let the system discover the paths, this may take a few minutes, just hit F5 to refresh the disk path status screen and verify all disks have the new paths added. #Commit Phase (this is the actual cutover to the new array): #symdm –sid -sg commit symdm -sid 008 -sg SG_IBMPROD1_1 commit #The masking views will be removed on the old source array. #On the IBMi LPAR, check for the old paths going into "failed" status (these failing paths are the paths to the old source array) #Zoning cleanup: Remove the old array's FA-ports from the respective zones for this LPAR. #Use SST procedure to run MULTIPATH RESETTER macro (this will prevent further error messages being sent to the QSYSOPR MSGQ until the system is IPL-ed) #After next planned IPL, the path status will be correct again, with only the new active paths listed. #ONLINE MIGRATION COMPLETED! ============================ #Remove NDM environment (ONLY after last migration is completed): #symdm -sid xxx -environment -list #symdm –src_sid -tgt_sid environment -remove symdm -sid 008 -tgt_sid 661 environment -remove ============================================================================================================ #Reset Device external Identity (un-Spoof) (Optional OFFLINE operation). #Resetting the target's device external identity back to the original array-based identity of the NEW array (changes the IBMi disk serial number (= Vol.ID + Array-ID)) #THIS REQUIRES A SHUTDOWN OF THE IBMi LPAR! #Can be done as planned activity when the IBMi LPAR is doing an offline activity, and will be re-IPL-ed... I.e. for full backup, scheduled IPL, etc. #Only unmasked devices can be unspoofed, so first record/save the details of the current masking view, then delete the MV, unspoof and then recreate the MV. symaccess -sid xxx show view -name xxxxxxxx >masking_xxxxxxxx.txt symaccess -sid xxx delete view -name xxxxxxxx symdev -sid xxx list -identity_set # For a single device: symdev -sid xxx reset -identity -dev xxx -nop # For a range of devices: symdev -sid xxx reset -identity -devs xxx:xxx -nop symaccess -sid xxx create view -name xxxxxxxx -sg xxxxxxxx -pg xxxxxxxx -ig xxxxxxxx #Now IPL the LPAR and after system is back online, verify the disk serial numbers from SST. #The serial ID's should now reflect the new arrays symdev ID and array serial number.
Affected Products
PowerMax, Symmetrix, VMAXArticle Properties
Article Number: 000193832
Article Type: How To
Last Modified: 19 Mar 2025
Version: 7
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.