В..: В томе журнала отображается критический сбой из-за удаления диска из внутреннего массива хранения данных
Summary: В этой статье описывается проблема, при которой диск удаляется из внутреннего массива хранения данных, в то время как он все еще используется в VPlex в качестве тома ведения журнала, и приводятся шаги по устранению этой проблемы. ...
Symptoms
1. Том ведения журнала отображается как критический сбой в выходных данных диагностики системы.
VPlexcli:/> диагностика работоспособности
Версия продукта: 5.3.0.03.00.04
Тип продукта: Метро
Тип подключения к глобальной сети: ФК
Тип оборудования: ВС2
Размер кластера: 1 двигателя
Кластеров:
---------
Кластер Кластер Oper Health подключен Исключен Local-com
Имя, идентификатор, состояние, состояние
--------- ------- ----- ------------- --------- -------- ---------
cluster-1 1 ok ok True False ok
cluster-2 2 ok minor-failure True False ok
Кластер-2 Переход/показания к состоянию здоровья:
105 неработоспособных устройств или томов хранения данных
Том хранилища недоступен
Метаданных:
----------
Том кластера Состояние работоспособности тома активного оператора
Имя Имя Тип Состояние
--------- -------------------------------------- -------------- ----- ---------------- ------
cluster-1 VPLEX_DC1_meta meta-volume ok ok True
cluster-1 logging_vplex_dc2_log logging-volume ok -
cluster-1 VPLEX_DC1_meta_backup_2016Jun15_235911 meta-volume ok ok False
cluster-1 VPLEX_DC1_meta_backup_2016Jun14_235911 meta-volume ok ok False
cluster-1 LV_CLUSTER1_LOG1 logging-volume ok -
Кластер 2 logging_volume_vplex ошибка тома ведения журнала critical-failure -
cluster-2 VPLEX_DC2_META meta-volume ok ok True
кластер-2 LV_CLUSTER2_LOG1 том-ведения журнала в порядке, в порядке, -
cluster-2 VPLEX_DC2_META_backup_2016Jun15_235907 meta-volume ok ok False
cluster-2 VPLEX_DC2_META_backup_2016Jun14_235909 meta-volume ok ok False
Хранение:
--------
Кластер Всего неработоспособен Всего неработоспособен Всего неработоспособен Нет Не отображается С
Имя: Хранилище, Хранилище, Виртуальное, Виртуальное, Виртуальное, Распределенное, Двойное, из Не поддерживается
Тома Тома Тома Разработчики томов Пути разработчиков Все каталоги # путей
--------- ------- --------- ------- --------- ----- --------- ----- ----------- -----------
кластер-1 59 0 52 51 51 51 0 0 0
кластер-2 57 1 51 51 51 51 0 0 0
2. При проверке этой иерархии томов ведения журналов хранилище, на котором она построена, удалено.
VPlexcli:/clusters/cluster-2/system-volumes/vplex_dc2_log_vol/components> show-use-hierarchy /clusters/cluster-2/system-volumes/vplex_dc2_log_vol
том-ведения журнала: vplex_dc2_log_vol (10 Гбит/с, RAID-0, критический-сбой, кластер-2)
Степень: extent_vplex_DC2_LOG_bad_1 (10 Гбит/с, критический сбой)
том хранилища: vplex_DC2_LOG_bad (10 Гбит/с, критический сбой)
> ------ НЕТ информации о массиве хранения данных
Cause
Resolution
Для устранения этой проблемы выполните следующие действия.
1. Проверьте контекст тома ведения журнала, чтобы узнать, по-прежнему ли для распределенных устройств установлен этот том ведения журнала.
VPlexcli:/clusters/cluster-2/system-volumes> ll
Имя Тип тома Эксплуатационное состояние Состояние Активная готовая геометрия Компонентный блок Блок Емкость блока Разъемы для емкости
-------------------------------------- -------------- состояние ---------------- ------ ----- -------- размер счетчика -------- -----
-------------------------------------- -------------- ----------- ---------------- ------ ----- -------- --------- -------- ----- -------- -----
LV_CLUSTER2_LOG1_vol logging-volume ok - - raid-1 1 2621440 4K 10G -
VPLEX_DC2_META метатом, в порядке, в порядке, true, RAID-1, 2 22019840 4K, 84 Гбит/с, 32000 МГц
VPLEX_DC2_META_backup_2016Jun14_235909 meta-volume ok ok false true raid-1 1 22019840 4K 84G 64000
VPLEX_DC2_META_backup_2016Jun15_235907 meta-volume ok ok false true raid-1 1 22019840 4K 84G 64000
vplex_dc2_log_vol ошибка тома ведения журнала critical-failure — — RAID-0 1 2621440 4K 10G —
VPlexcli:/clusters/cluster-2/system-volumes> cd /vplex_dc2_log_vol/segments
VPlexcli:/clusters/cluster-2/system-volumes/vplex_dc2_log_vol/segments> ll
Имя Начальное использование блока
---------------------------------------------------- Количество блоков ------------------------------------------
---------------------------------------------------- -------- ------- ------------------------------------------
выделено – device_DD1 0 8192 выделено на device_DD1
выделено – device_DD2 0 1600 выделено на device_DD2
выделено – device_DD3 0 800 выделено на device_DD3
2. Создайте новый том ведения журнала и убедитесь, что иерархия работоспособна
VPlexcli:/clusters/cluster-2/system-volumes/LV_CLUSTER2_LOG1_vol/components> show-use-hierarchy /clusters/cluster-2/system-volumes/LV_CLUSTER2_LOG1_vol
logging-volume: LV_CLUSTER2_LOG1_vol (10 Гбит/с, RAID-1, кластер-2)
Степень: extent_CLUSTER2_LOG1 (10 Гбит/с)
Том хранилища: CLUSTER2_LOG1 (10 Гбит/с)
логическая единица: VPD83T3:60060160690037000f5263e23732e611
массив хранения:<ИМЯ МАССИВА>
3. Убедитесь, что на этом томе отображается свободное пространство
VPlexcli:/clusters/cluster-2/system-volumes/LV_CLUSTER2_LOG1_vol/segments> ll
Имя Начальный блок Количество блоков Использовать
------ -------------- ----------- ----
свободно-0 0 2621440 бесплатно
4. Перейдите в контекст распределенных устройств
VPlexcli:/> cd distributed-storage/distributed-devices/
5. Установите новый logging-volume в качестве logging-volume для кластера
VPlexcli:/distributed-storage/distributed-devices> set-log --logging-volumes LV_CLUSTER2_LOG1_vol --distributed-devices *
6. Убедитесь, что новый том ведения журнала теперь содержит информацию о распределенном устройстве
VPlexcli:/clusters/cluster-2/system-volumes/LV_CLUSTER2_LOG1_vol/segments> ll
Имя Начальное использование блока
---------------------------------------------------- Количество блоков ------------------------------------------
---------------------------------------------------- -------- ------- ------------------------------------------
выделено – device_DD1 0 8192 выделено на device_DD1
выделено – device_DD2 0 1600 выделено на device_DD2
выделено – device_DD3 0 800 выделено на device_DD3
7. Убедитесь, что на старом томе журнала теперь отображается только свободное пространство
VPlexcli:/clusters/cluster-2/system-volumes/vplex_dc2_log_vol/segments> ll
Имя Начальный блок Количество блоков Использовать
------ -------------- ----------- ----
свободно-0 0 24578 бесплатно
8. Перейдите к контексту system-volumes и убедитесь в наличии работоспособного тома журнала.
VPlexcli:/clusters/cluster-2/system-volumes> ll
Имя Тип тома Эксплуатационное состояние Состояние Активная готовая геометрия Компонентный блок Блок Емкость блока Разъемы для емкости
-------------------------------------- -------------- состояние ---------------- ------ ----- -------- размер счетчика -------- -----
-------------------------------------- -------------- ----------- ---------------- ------ ----- -------- --------- -------- ----- -------- -----
LV_CLUSTER2_LOG1_vol logging-volume ok - - raid-1 1 2621440 4K 10G -
VPLEX_DC2_META метатом, в порядке, в порядке, true, RAID-1, 2 22019840 4K, 84 Гбит/с, 32000 МГц
VPLEX_DC2_META_backup_2016Jun14_235909 meta-volume ok ok false true raid-1 1 22019840 4K 84G 64000
VPLEX_DC2_META_backup_2016Jun15_235907 meta-volume ok ok false true raid-1 1 22019840 4K 84G 64000
vplex_dc2_log_vol ошибка тома ведения журнала critical-failure — — RAID-0 1 2621440 4K 10G —
9. Уничтожьте старый том, который отображается в состоянии критического сбоя
VPlexcli:/clusters/cluster-2/system-volumes> logging-volume destroy --logging-volume vplex_dc2_log_vol
10. Удалить экстент, в котором был создан том ведения журнала
VPlexcli:/clusters/cluster-2/storage-elements/extents> extent destroy --extents extent_vplex_DC2_LOG_bad_1
ПРЕДУПРЕЖДЕНИЕ: Будут уничтожены следующие предметы:
Контекст
-----------------------------------------------------------------------
/clusters/cluster-2/storage-elements/extents/extent_vplex_DC2_LOG_bad_1
Продолжить? (Да/Нет) Да
Уничтожен 1 из 1 целевых экстентов.
11. Перейдите в контекст тома хранилища и отмените освобождение тома хранилища, на котором был создан том ведения журнала.
VPlexcli:/clusters/cluster-2/storage-elements/storage-volumes/vplex_DC2_LOG_bad> unclaim
Неистребованные тома хранилища 1 из 1.
12. Подтверждение проверки работоспособности возвращает чистые результаты
VPlexcli:> health-check
Версия продукта: 5.3.0.03.00.04
Тип продукта: Метро
Тип подключения к глобальной сети: ФК
Тип оборудования: ВС2
Размер кластера: 1 двигателя
Кластеров:
---------
Кластер Кластер Oper Health подключен Исключен Local-com
Имя, идентификатор, состояние, состояние
--------- ------- ----- ------ --------- -------- ---------
cluster-1 1 ok ok True False ok
cluster-2 2 ok ok True False ok
Метаданных:
----------
Том кластера Состояние работоспособности тома активного оператора
Имя Имя Тип Состояние
--------- -------------------------------------- -------------- ----- ------ ------
cluster-1 VPLEX_DC1_meta meta-volume ok ok True
cluster-1 logging_vplex_dc2_log logging-volume ok -
cluster-1 VPLEX_DC1_meta_backup_2016Jun15_235911 meta-volume ok ok False
cluster-1 VPLEX_DC1_meta_backup_2016Jun14_235911 meta-volume ok ok False
cluster-1 LV_CLUSTER1_LOG1 logging-volume ok -
cluster-2 VPLEX_DC2_META meta-volume ok ok True
кластер-2 LV_CLUSTER2_LOG1 том-ведения журнала в порядке, в порядке, -
cluster-2 VPLEX_DC2_META_backup_2016Jun15_235907 meta-volume ok ok False
cluster-2 VPLEX_DC2_META_backup_2016Jun14_235909 meta-volume ok ok False
Хранение:
--------
Кластер Всего неработоспособен Всего неработоспособен Всего неработоспособен Нет Не отображается С
Имя: Хранилище, Хранилище, Виртуальное, Виртуальное, Виртуальное, Распределенное, Двойное, из Не поддерживается
Тома Тома Тома Разработчики томов Пути разработчиков Все каталоги # путей
--------- ------- --------- ------- --------- ----- --------- ----- ----------- -----------
кластер-1 59 0 52 0 51 0 0 0 0
кластер-2 56 0 51 0 51 0 0 0 0
VPlexcli:/> ll **/storage-arrays/*
/clusters/cluster-2/storage-elements/storage-arrays/<ARRAY NAME:>
Атрибуты:
Значение имени
------------------- ----------------------------------------------------------
Автопереключение true
Состояние подключения ухудшилось
контроллеры [<ИМЯ МАССИВА.> SPA, <ИМЯ ДИСКОВОГО МАССИВА>. СПБ]
логическое-количество единиц 57
порты [0x5006016108602147, 0x5006016408602147,
0x5006016908602147, 0x5006016c08602147]
b. Проверьте контекст логических единиц, если логические единицы отображаются ошибочно
VPlexcli:/clusters/cluster-2/storage-elements/storage-arrays/<ARRAY NAME/>logical-units> ll
Имя Возможности подключения Активный/AAO Пассивный/AAN Видимость LUN Поддержка ALUA
Контроллеры состояния ---------------------------------------- Контроллеры ---------- ------------------ -----------------
---------------------------------------- ------------ ------------------ ------------------ ---------- ------------------ -----------------
Ошибка <VPD83T3:6006016076003700b743afe458dbe311 ИМЯ ДИСКОВОГО МАССИВА>. ИМЯ> МАССИВА <SPA. SPB нет явно-неявно-явно
c. Перейдите к контексту логического блока, отображаемого в ошибке, и убедитесь, что с этим не связано базовое хранилище.
VPlexcli:/clusters/cluster-2/storage-elements/storage-arrays/<ARRAY NAME/logical-units>/VPD83T3:6006016076003700b743afe458dbe311> ll
Значение имени
---------------------- --------------------
active-aao-controller [<ИМЯ ДИСКОВОГО МАССИВА.> СПА]
активная-aao-видимость []
alua-support implicit-explicit
Ошибка connectivity-status
LUN [] <-----------Нет базовой системы хранения
passive-aan-controller [<ИМЯ ДИСКОВОГО МАССИВА.> СПБ]
Пассивная видимость []
Том-хранилища -
Видимость отсутствует
d. Забудьте об этой логической единице
VPlexcli:/clusters/cluster-2/storage-elements/storage-arrays/<ARRAY NAME>:/logical-units/VPD83T3:6006016076003700b743afe458dbe311> forget
1 of 1 logical-units were forgotten.
e. Убедитесь, что состояние работоспособности массива хранения данных теперь отображается как «OK».
VPlexcli:/> ll **/storage-arrays
/clusters/cluster-2/storage-elements/storage-arrays:
Имя Возможности подключения Автоматические порты Логические
Устройство переключателя состояния ------------------- --------------------------- состоянии
----------------------------------------------------------------Считать
--------------------------- ------------ ------ ------------------- -------
<ИМЯ ДИСКОВОГО МАССИВА> в порядке, истинное 0x5006016108602147, 56
0x5006016408602147,
0x5006016908602147,
0x5006016c08602147