VMAX/PowerMax unterbrechungsfreie Migration (NDM) für die IBMi-Hostplattform

Summary: Die Storage-Plattform-reihe Dell EMC VMAX und PowerMax Enterprise unterstützt speicherbasierte unterbrechungsfreie Migrationen, um geschäftskritische Hostsysteme ohne Anwendungsausfallzeiten auf neue Storage-Arrays zu migrieren. Mit der Veröffentlichung der Codereihe PowerMaxOS 5978.444.444 wird NDM-Unterstützung für die IBMi-Hostplattform hinzugefügt. In diesem Artikel wird beschrieben, wie Sie eine unterbrechungsfreie Migration für IBMi-Systeme einrichten und durchführen, einschließlich einiger Überlegungen und eines praktischen Verfahrens. ...

This article applies to This article does not apply to This article is not tied to any specific product. Not all product versions are identified in this article.

Instructions

Supportumgebung:
NDM for IBMi ist für unterstützte IBMi-Hostsysteme verfügbar, die mit VMAX- oder PowerMax-Arrays mit Version 5978.444.444 oder höher von PowerMaxOS verbunden sind.

Dies gilt für IBMi-LPARs, die auf der IBM Power Server-Plattform Power6 oder höher und der IBMi-Betriebssystemversion i6.1.1 oder höher ausgeführt werden. Die allgemeine eLab-Supportmatrix für VMAX oder PowerMax enthält Details und listet die unterstützten FC-EAAs (Fibre Channel) auf (IBMi-IOAs sind E/A-Adapter, auch bekannt als HBAs (Host-Bus-Adapter)). NDM wird auch unterstützt, wenn IBMi ein Client-LPAR mit zugewiesenen virtuellen I/O-Ressourcen von einem virtuellen IBM I/O-Server (VIOS) ist. Mit der Funktion IBM VIOS/VFC(NPIV) werden virtuelle FC-Adapter (vFCs) den Client-LPARs für die Verbindung mit dem Storage-Array über unterstützte SAN-Switches zugewiesen.
vFC fungieren als Passthrough für die Hostfestplattenkonnektivität. Auf Hostseite ist dies vollständig transparent und alle unterstützten Funktionen des Storage-Arrays sind auch in diesem virtualisierten Adapter-Setup verfügbar.

Migration im Hintergrund und auf übergeordneter Ebene:
Symmetrix Remote Data Facility (SRDF) wurde Anfang der 1990er Jahre als Disaster-Recovery-Replikationstechnologie (DR) für die EMC Enterprise-Storage-Arrays entwickelt. Es wird auch seit vielen Jahren verwendet, um Storage-basierte Migrationen von einem Array zu einem anderen durchzuführen. Das heißt, die ALTEN und NEUEN Arrays nahtlos zu verbinden und die Daten-Volumes zu kopieren, wenn Sie eine Technologieaktualisierung durchführen, indem Sie ein neues Storage-Array implementieren. Obwohl der SRDF-Kopierprozess der Volumes oder logischen Einheiten (LUNs) für die angeschlossenen Hostsysteme transparent ist, war in der Regel immer ein kurzes Offline-Zeitfenster für die Umstellung erforderlich, wenn der Kopiervorgang von den Quell-Volumes (R1) abgeschlossen wurde. Die (neuen) Ziel-Volumes (R2s) waren lese-/schreibfähig und die FC-Verbindungen der Hostsysteme verwiesen (über SAN-Zoning und Masking) auf das neue Array. 

SRDF/Metro wurde mit der Produktreihe der VMAX All Flash-Storage-Arrays eingeführt. SRDF/Metro bietet echten Active/Active-Hostzugriff auf die Quell- (R1) und Ziel-Volumes (R2) von beiden Arrays. SRDF/Metro funktioniert mit unterstützten Host-Multipath-Treibern für den Festplattenzugriff. Dazu gehört der native IBMi DMP-Schutz (Dynamic Multi Path) für Festplattenpfade. IBMi DMP erkennt automatisch, wenn mehrere FC-Pfade zum gleichen Festplattengerät vorhanden sind. Es bietet auch ein grundlegendes, aber effektives Lastenausgleichsschema im Rundlaufverfahren zur Verteilung der Festplatten-E/A-Workload über die verfügbaren FC-Adapterpfade. IBMi DMP bietet automatisches Pfad-Failover, wenn Verbindungen fehlschlagen, indem der Festplatten-E/A-Vorgang zu einem der verbleibenden aktiven Pfade umgeleitet wird. Wenn fehlerhafte Verbindungen wiederhergestellt werden, stellt IBMi diese Pfade automatisch wieder her und beginnt erneut mit dem Senden von Festplatten-E/A an diese Pfade.

NDM basiert auf der zugrunde liegenden SRDF/Metro-Technologie, um gleichzeitigen Zugriff auf die alten und die neuen Storage-Geräte bereitzustellen. Wenn ein SRDF/Metro-Replikationsgerätepaar (R1>R2) erstellt wird, wird dieselbe R1-Geräteidentität vom R2-Gerät im Zielarray angezeigt. Im Wesentlichen werden die gleiche serielle Laufwerks-ID und der gleiche Geräte-WWPN von beiden Geräten angezeigt. Anfänglich befindet sich das neue R2-Gerät im Status AA-NR/DEV-INACT (Active/Active-Not Ready/ Device Inactive). Sobald das R1>R2-Gerätepaar synchronisiert ist, kann es durch Aktivieren des Lese- und Schreibzugriffs auf das R2-Volume in den Zustand „Active/Active“ versetzt werden. Wenn der Pfad vom IBMi LPAR zum R2-Gerät jetzt aktiviert ist (SAN-Zoning und Masking für das neue Array aktiviert), erkennt der IBMi-Host einen neuen FC-Pfad zum vorhandenen Festplattengerät. In einem IBMi-NDM-Szenario sind R1- + R2-Geräte im Status „Active/Active“ vorhanden. Durch Entfernen des Zugriffs auf die R1-Geräte verliert der IBMi-Host den Zugriff auf die Pfade des alten Arrays, wird aber weiterhin auf den R2-Geräten ausgeführt. Sobald dies abgeschlossen ist, kann die Umgebung bereinigt werden. Entfernen Sie das alte R1-Masking, entfernen Sie das alte Zoning und führen Sie ein Dienstprogramm zum Zurücksetzen von Multipath auf dem IBMi-System aus, um die Verwendung der alten inaktiven Pfade zu beenden. Es kann einen IPL (Initial Program Load) lang alias Neustart dauern, um die alten inaktiven Pfade aus der Gerätekonfigurationsdatenbank der IBMi-Hosts (IBMi Storage Management Information Repository) zu entfernen. Dies ist jedoch keine obligatorische Aufgabe, sie kann auch bis zur nächsten geplanten IPL warten. 
 
Weitere nützliche Informationen:
"Best Practices und Betriebshandbuch für NDM"
https://infohub.delltechnologies.com/t/dell-powermax-and-vmax-non-disruptive-and-minimally-disruptive-migration-best-practices-and-operational-guide/
––––

dem praktischen IBMi-NDM-Verfahren:
 
#NDM (Non Disruptive Migration) procedure for IBMi host environments.
#From VMAX>>>VMAX, VMAX>>>PMAX, PMAX>>>PMAX
#Written: Q4-2021
#Author: Wopke Hoekstra CSA IBMi Global Practice
#Version: 5
==========================================================================================

# Just for reference: PowerMax OS 5978 Levels:

Name        Release Level/Code  
Elm         5978.144.144
Elm SR      5978.221.221
Foxtail     5978.444.444
Foxtail SR  5978.479.479
Hickory     5978.669.669
Hickory SR  5978.711.711
==========================================================================================
#PREREQS:
# MINIMUM Microcode Requirements: Foxtail (NDM IBMi support and NDM METRO-Mode available)
# MINIMUM of 2 RF directors per array are required
# Central external UniSphere/SE (SymCLI) server required with access to the source and target arrays
# MINIMUM SE version of 9.1
====================================================================================================

#Actual Customer Environment where this procedure was used:
# "OLD" VMAX: SN# ckxxxxxxxxx/ckxxxxxxxxx / 5978.479.479
# "NEW" PMAX: SN# ckxxxxxxxxx/ckxxxxxxxxx / 5978.479.479 

============================================================================================================
#Suggested NDM procedure: METRO NDM with Pre-Copy
#Also refer to the DELL EMC PowerMax NDM Whitepaper: Paragraph 3.2.4 / page 120
============================================================================================================

#PROCEDURE: Metro-based NDM with precopy 
#NOTE: (NDM with precopy allows end users to copy application data from the source array to target array while the application is still running on the source array)

#SAN requirements:
#Existing Host FC IOA ports/WWPN's will be used to also zone to the new target array's FA-ports. NO NEED for additional host FC connections.
#NOTE: The NEW array needs to be connected to the same SAN Fabric's as the OLD array.
#For each zone; add the desired target-array's FA-port WWPN into the existing zone (already containing the host initiator WWPN and OLD array FA-port WWPN)
#Or alternatively create new zones with same initiators to the new target-array's FA-ports

#NOTE: For LPAR's using VIOS/VFC(NPIV) connections and when the environment is setup for Live Partition Mobility, the vFC's secondary WWPN will be included in the zoning/masking.
#The secondary WWPN's will not be active and are not in the source array's Login History Table. NDM does not accept inactive WWPN's to be in the IG of the source host, hence the NDM VALIDATE and CREATE commands will fail.
#WORKAROUND: Temporarily remove the secondary WWPN's from the source LPAR IG. After the migration, simply add these secondary WWPN's back into the new IG on the target array. 

#Setup-phase: 
#symdm –src_sid  -tgt_sid  environment -setup
symdm -sid 008 -tgt_sid 661 environment setup
#NDM RDFGroup will be created.

Now modify the SAN zoning to include the target-array FA-ports.
#NOTE: No devices are presented from the target-array yet.
#NOTE: You can already check if the existing initiator-WWPN's are actively logging in to the new array
symaccess -sid 661 list logins -dirport 1d:4

#To check the environment at any time:
#symdm –src_sid  -tgt_sid  environment -validate
symdm -src_sid 336 -tgt_sid 662 environment -validate
symdm -src_sid 008 -tgt_sid 661 environment -validate

Other commands to display further details:
symdm -sid 336 -environment list
symcfg -sid 336 list -rdfg all
symcfg -sid 008 list -rdfg all

#NOTE: Take a copy of the source-array's masking database before the activity:
symaccess -sid 336 list view -all -v -detail>masking336_24Nov2021.txt
symaccess -sid 008 list view -all -v -detail>masking008_24Nov2021.txt

#Create Phase (with precopy: (run validation prior to execution))
#This creates an SRDF/Metro session with NDM attributes and puts the SRDF/Metro pair into adaptive copy disk mode. 
#It starts syncing data from R1 to R2. 
#Bias is on the Metro-based NDM source.
#symdm create –src_sid  -tgt_sid  -sg  [-tgt_srp ] [-tgt_pg ] -precopy 
#First validate:
symdm create -src_sid 008 -tgt_sid 661 -sg SG_IBMPROD1_1 -precopy -validate
#Then execute:
symdm create -src_sid 008 -tgt_sid 661 -sg SG_IBMPROD1_1 -precopy

#Check NDM status:
#symdm –sid xxx list (-v) (-detail)
#symdm –sid -sg  list –v –pairs_info -detail (shows device pairing)
#symrdf list -sid xxx (-rdfg xxx) (-sg xxx)
#symstat –sid  –rdfg –type RDF –i xx
symdm -sid 008 list

#ReadyTGT Phase: 
#Moves RDF pair state from adaptive copy mode to Active/Active(in case of witness protection) or Active/Bias (without witness protection).
#Target devices are moved into a read/write mode, It puts the NDM pair in Active/Active or Active/Bias mode
#Masking view is created on the target array using the masking elements created during the create command.
#symdm –sid  -sg  readytgt
symdm -sid 008 -sg SG_IBMPROD1_1 readytgt

#Check status:
#symdm –sid xxx list (-v) (-detail)
#symrdf list -sid xxx (-rdfg xxx) (-sg xxx)
symdm -sid 008 list

#On the IBMi LPAR, check for new detected FC paths (to the devices on new PowerMax)
#Logon to LPAR, go into System Service Tools: STRSST and go to "work with disks"> "disk configuration"> "9.Disk Paths"
#Let the system discover the paths, this may take a few minutes, just hit F5 to refresh the disk path status screen and verify all disks have the new paths added.

#Commit Phase (this is the actual cutover to the new array):
#symdm –sid  -sg  commit
symdm -sid 008 -sg SG_IBMPROD1_1 commit

#The masking views will be removed on the old source array.
#On the IBMi LPAR, check for the old paths going into "failed" status (these failing paths are the paths to the old source array)
#Zoning cleanup: Remove the old array's FA-ports from the respective zones for this LPAR.
#Use SST procedure to run MULTIPATH RESETTER macro (this will prevent further error messages being sent to the QSYSOPR MSGQ until the system is IPL-ed)
#After next planned IPL, the path status will be correct again, with only the new active paths listed.

#ONLINE MIGRATION COMPLETED!
============================

#Remove NDM environment (ONLY after last migration is completed):
#symdm -sid xxx -environment -list
#symdm –src_sid  -tgt_sid  environment -remove
symdm -sid 008 -tgt_sid 661 environment -remove
============================================================================================================

#Reset Device external Identity (un-Spoof) (Optional OFFLINE operation).
#Resetting the target's device external identity back to the original array-based identity of the NEW array (changes the IBMi disk serial number (= Vol.ID + Array-ID))
#THIS REQUIRES A SHUTDOWN OF THE IBMi LPAR!
#Can be done as planned activity when the IBMi LPAR is doing an offline activity, and will be re-IPL-ed... I.e. for full backup, scheduled IPL, etc.

#Only unmasked devices can be unspoofed, so first record/save the details of the current masking view, then delete the MV, unspoof and then recreate the MV.
symaccess -sid xxx show view -name xxxxxxxx >masking_xxxxxxxx.txt
symaccess -sid xxx delete view -name xxxxxxxx 
symdev -sid xxx list -identity_set
# For a single device: symdev -sid xxx reset -identity -dev xxx -nop
# For a range of devices: symdev -sid xxx reset -identity -devs xxx:xxx -nop
symaccess -sid xxx create view -name xxxxxxxx -sg xxxxxxxx -pg xxxxxxxx -ig xxxxxxxx 

#Now IPL the LPAR and after system is back online, verify the disk serial numbers from SST.
#The serial ID's should now reflect the new arrays symdev ID and array serial number.

Affected Products

PowerMax, Symmetrix, VMAX
Article Properties
Article Number: 000193832
Article Type: How To
Last Modified: 19 Mar 2025
Version:  7
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.