ВПЛЕКС: Не вдається видалити виведений з експлуатації масив зберігання з VPLEX UI або CLI

Summary: У цій статті обговорюються застарілі або фантомні масиви, які виникають після видалення масиву з VPLEX, а також кроки, які потрібно зробити для видалення фантомного масиву.

This article applies to This article does not apply to This article is not tied to any specific product. Not all product versions are identified in this article.

Symptoms

Для кластера VPLEX було налаштовано кілька масивів ідентичної моделі, потім один або кілька масивів були виведені з експлуатації та видалені з VPLEX. Якщо хоча б один ідентичний масив все ще налаштований для кластера VPLEX, це може викликати умову, описану в цій статті знань.

Кінцевий користувач вивів з експлуатації один або кілька масивів зберігання даних з VPLEX (але не всі масиви загальної моделі), і один або кілька старих масивів все ще відображаються в UI та CLI.

Щоб побачити, які масиви все ще відображаються як фантомні масиви, запустіть наступну команду на VPlexcli Оперативне:     

VPlexcli:/> ll /clusters/cluster-1/storage-elements/storage-arrays
/clusters/cluster-1/storage-elements/storage-arrays:
Name                             Connectivity  Auto    Ports                Logical
-------------------------------  Status        Switch  -------------------  Unit
-------------------------------  ------------  ------  -------------------  Count
-------------------------------  ------------  ------  -------------------  -------
EMC-SYMMETRIX-111111111          ok            -       0x500009xxxxxxxxx1,  28
                                      0x500009xxxxxxxxx2,
                                      0x500009xxxxxxxxx3,
                                      0x500009xxxxxxxxx4
XtremIO-XtremApp-                error         -                            0
XtremIO-XtremApp-FNM11111111111  ok            -       0x514xxxxxxxxxxxx0,  9
                                      0x514xxxxxxxxxxxx1,
                                      0x514xxxxxxxxxxxx4,
                                      0x514xxxxxxxxxxxx5
Виведений з експлуатації або видалений масив (зазвичай XtremIO або Symmetrix) показує "помилку", без серійного номера і без портів і "0" логічних блоків і вже повинен бути відокремлений від VPLEX.
 
Примітка: Користувач повинен використовувати процедуру «Видалити диск або масив з VPLEX», доступну на SolVe Online у розділі, Різні >процедури адміністратора>VPLEX>Керуйте в будь-який час, коли він хоче видалити диск або масив із VPLEX.

Cause

Якщо LUN0 не виділено, масиви зберігання відповідають неунікальним ідентифікатором LU на INQ VPD83. Через це кілька масивів ідентичної моделі, які мають Initiator-Target (ITs) без виділених LUN, в кінцевому підсумку мають однаковий ідентифікатор LU для стандартного LUN0. Це викликає проблеми при спробі вивести з експлуатації один з масивів з VPLEX.

Ця проблема виникає, якщо решта масивів зберігання не мають реального LUN0.

Перевірте логічні одиниці (в VPlexcli) для всіх інших масивів ідентичної моделі та поставити галочку в колонці "LUNs". Якщо запис 0x0000000000000000 відсутній, то це означає, що з цього масиву немає реального LUN0, виділеного з цього масиву:     

Приклад без LUN0:
VPlexcli:/cluster-1/storage-elements/storage-arrays/XtremIO-XtremApp-FNM11111111111/logical-units> ll

/clusters/cluster-1/storage-elements/storage-arrays/XtremIO-XtremApp-FNM11111111111/logical-units:
Name                                              Connectivity    Active/AAO      Passive/AAN  Visibility  LUNs                ALUA
------------------------------------------  Status             Controllers     Controllers  ----------  ------------------  Support
------------------------------------------  ----------------   --------------------  -----------  ----------  ------------------  -------
VPD83T3:514xxxxxxxxxxxx1          ok                    FNM11111111111               active      0x0001000000000000  none
VPD83T3:514xxxxxxxxxxxx2          ok                    FNM11111111111               active      0x0002000000000000  none
VPD83T3:514xxxxxxxxxxxx3          ok                    FNM11111111111               active      0x0003000000000000  none
Приклад з LUN0:
VPlexcli:/cluster-1/storage-elements/storage-arrays/XtremIO-XtremApp-FNM11111111111/logical-units> ll

/clusters/cluster-1/storage-elements/storage-arrays/XtremIO-XtremApp-FNM11111111111/logical-units:
Name                               Connectivity  Active/AAO      Passive/AAN  Visibility  LUNs                ALUA
                                         Status        Controllers     Controllers  ----------  ------------------  Support

VPD83T3:514xxxxxxxxxxxx0  ok            FNM11111111111               active      0x0000000000000000  none
VPD83T3:514xxxxxxxxxxxx1  ok            FNM11111111111               active      0x0001000000000000  none
VPD83T3:514xxxxxxxxxxxx2  ok            FNM11111111111               active      0x0002000000000000  none
VPD83T3:514xxxxxxxxxxxx3  ok            FNM11111111111               active      0x0003000000000000  none

Resolution

Для того, щоб всі інші ідентичні масиви не були виведені з експлуатації, користувач повинен зайти в масиви і представити LUN0 VPLEX. Після цього знову відкрийте масиви у VPLEX, по одному, якщо на VPLEX все ще налаштовано кілька масивів. Якщо на базовому масиві налаштовано кілька груп сховищ або маскування-представлень, кожна з них вимагає свій унікальний LUN0. Мета полягає в тому, щоб кожен зонований шлях між VPLEX і масивом зберігання мав виділений LUN0. Як тільки це буде виконано для всіх масивів, що залишилися, старіший або виведений з експлуатації масив повинен бути автоматично видалений з VPLEX CLI або UI.

Якщо після виконання інструкцій у цій статті проблема не зникає, зверніться до служби підтримки Dell і згадайте цю статтю.

Варто зазначити, що це косметичне попередження і не впливає на функціональність VPLEX. Допустимо залишити питання як є без наслідків.

Це питання часто вирішується самостійно під час:      
  • Неруйнівне оновлення (NDU) або оновлення VPLEX
  • Віяловий перезапуск прошивки директора VPLEX
  • Планове обслуговування живлення, яке вимикає прошивку директора, а потім знову вмикає її

Additional Information

Переконайтеся, що всі цільові порти, які зоновані для VPLEX, також замасковані на масиві. Це гарантує, що всі ІТ можуть бути забезпечені, як мінімум, реальним LUN0. Якщо LUN0 не виділено, масив може відповісти неунікальним ідентифікатором LU на INQ VPD83. Через це кілька ідентичних масивів, які мають ІТ без виділених ЛУН, в кінцевому підсумку мають однаковий ідентифікатор LU для стандартного LUN0. Це викликає проблеми при спробі вивести з експлуатації один з масивів з VPLEX. Така поведінка була помічена (але не обмежуючись) масивами XtremIO, Symmetrix або VMAX, наданими для VPLEX.

Affected Products

VPLEX for All Flash, VPLEX Series, VPLEX VS1, VPLEX VS2, VPLEX VS6
Article Properties
Article Number: 000173891
Article Type: Solution
Last Modified: 02 Jul 2025
Version:  3
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.