Домен даних: Як вирішити проблеми з великим використанням простору або нестачею доступних потужностей у реставраторах доменів даних (DDR)
Сводка: Ця стаття містить покрокову процедуру, яка допоможе вирішити проблеми, пов'язані з високим використанням простору або нестачею доступних потужностей у реставраторах доменів даних (DDR)
Данная статья применяется к
Данная статья не применяется к
Эта статья не привязана к какому-либо конкретному продукту.
В этой статье указаны не все версии продуктов.
Симптомы
Усі реставратори доменів даних (DDR) містять пул/область сховища, відому як «активний рівень»:
- Це область диска, де знаходяться щойно прийняті файли/дані, і в більшості DDR файли залишаються тут, доки термін їх дії не закінчиться/не буде видалений клієнтською програмою резервного копіювання
- На DDR, налаштованих на розширене зберігання (ER) або довгострокове зберігання (LTR), процес переміщення даних може періодично запускатися для міграції старих файлів з активного рівня на рівні архіву або хмари
- Єдиний спосіб звільнити місце на активному рівні, який використовувався видаленими/перенесеними файлами, — це запустити процес збирання/очищення сміття (GC)
Поточне використання активного рівня можна відобразити за допомогою команд 'fileys show space' або 'df':
# df
Активний рівень:Розмір ресурсу GiB Використовується GiB Avail GiB Використання% Чистий GiB*
---------------- -------- -------- --------- ---- --------------
/дані: pre-comp - 33098.9 - - -
/дані:
post-comp 65460.3 518.7 64941.6 1% 0.0/ddvar 29.5 19.7 8.3 70% -/ddvar/core 31.5 0.2
29.7 1% -
---------------- -------- -------- --------- ---- --------------
Активний рівень:Розмір ресурсу GiB Використовується GiB Avail GiB Використання% Чистий GiB*
---------------- -------- -------- --------- ---- --------------
/дані: pre-comp - 33098.9 - - -
/дані:
post-comp 65460.3 518.7 64941.6 1% 0.0/ddvar 29.5 19.7 8.3 70% -/ddvar/core 31.5 0.2
29.7 1% -
---------------- -------- -------- --------- ---- --------------
Зверніть увагу, що якщо цей параметр налаштовано, детальна інформація про рівні архіву/хмари буде показана під активним рівнем.
Використання активного рівня має ретельно контролюватися, інакше може статися наступне:
- На активному рівні може почати закінчуватися вільне місце, що спричинятиме відображення попереджень/повідомлень на кшталт такого:
EVT-SPACE-00004: Використання простору під час збору даних перевищило поріг у 95%.
- Якщо активний рівень заповниться на 100%, нові дані не зможуть бути записані в DDR, що може спричинити збій резервного копіювання/реплікації — у цьому сценарії можуть відображатися попередження/повідомлення, такі як такі:
КРИТИЧНИЙ: MSG-CM-00002: /.. /vpart:/vol1/col1/cp1/cset: У наборі контейнерів [ідентифікатор набору контейнерів] бракує місця
- У деяких випадках заповнення активного рівня може призвести до того, що файлова система домену даних (DDFS) почне читатися лише після цього наявні файли не можуть бути видалені
У цій статті бази знань зроблено спробу:
- Поясніть, чому активний рівень може стати повним
- Опишіть простий набір перевірок, які можна виконати для визначення причини високого використання активного рівня та відповідних заходів щодо виправлення
Зазначимо, що:
- Ця стаття не є вичерпною (тобто може існувати невелика кількість ситуацій, коли активний рівень DDR стає інтенсивно використовуваним/повним з причини, не обговореної в цьому документі), однак передбачається, що вона повинна охоплювати найбільш поширені причини/проблеми
- У цій статті не розглядається широке використання архівних або хмарних рівнів
Причина
- Файли резервних копій/набори збережень неправильно завершуються/видаляються клієнтськими програмами резервного копіювання через неправильну політику збереження або конфігурацію програми резервного копіювання
- Затримка реплікації, що призводить до того, що велика кількість старих даних зберігається на активному рівні в очікуванні реплікації в репліки
- Дані, що записуються на активний рівень, мають нижчий, ніж очікувалося, загальний коефіцієнт стиснення
- Розмір системи неправильний, тобто вона просто замала для обсягу даних, які намагаються на ній зберігати
- Резервні копії складаються з великої кількості дуже маленьких файлів - ці файли займають набагато більше місця, ніж очікується при початковому записі, однак цей простір повинен бути звільнений під час очищення/збирання сміття
- Переміщення даних не виконується регулярно в системах, налаштованих за допомогою ER/LTR, через що старі файли, які слід перенести на рівні архіву/хмари, залишаються на активному рівні
- Прибирання/вивезення сміття не виконується регулярно
- Надмірні або старі знімки mtree, що існують на DDR, що перешкоджають очищенню місця від видалених файлів/даних
Разрешение
Крок 1 – Визначте, чи потрібно запускати
активне очищення рівняОпераційна система Data Domain Operating System (DDOS) намагається підтримувати лічильник під назвою «Cleanable GiB» для активного рівня. Це оцінка того, скільки фізичного (пост-комп) простору потенційно може бути звільнено на активному рівні, запустивши чистоту/збір сміття. Цей лічильник відображається командами 'fileys show space'/'df':
Якщо:
Щоб підтвердити, що очищення розпочалося належним чином, можна скористатися командою 'fileys status', тобто:
Зазначимо, що:
Якщо потрібно, встановіть розклад очищення активного рівня, наприклад, щоб запускати щовівторка о 6 ранку:
# fileys clean set schedule Tue 0600 Очищення файлової системи заплановано на запуск "Tue" о "0600
".
Зауважте, що в системах, налаштованих із розширеним збереженням (ER), clean може бути налаштовано на запуск після завершення переміщення даних і може не мати власного окремого розкладу. Цей сценарій розглядається далі в цьому документі
Після завершення очищення використовуйте команди 'fileys show space'/'df', щоб визначити, чи вирішено проблеми з використанням. Якщо використання все ще високе, перейдіть до решти кроків у цій статті.
Крок 2 - Перевірте наявність великої затримки реплікації в контексті
реплікації джерелаРеплікація домену нативних даних розроблена навколо концепції «контекстів реплікації». Наприклад, коли дані потрібно реплікувати між системами:
Щоб визначити, чи затримуються контексти реплікації, слід виконати наступні кроки:
Контексти, для яких поточна система є джерелом і які демонструють значні затримки, або контексти, які більше не потрібні, повинні бути розірвані. Це можна зробити, виконавши таку команду у вихідній та цільовій системах:
Наприклад, щоб розірвати «цікаві» контексти, показані вище, наступні команди будуть виконані для джерела та призначення:
Зазначимо, що:
Вміст DDFS логічно поділено на mtree. Зазвичай окремі програми резервного копіювання/клієнти пишуть до окремого mtrees. Якщо програма резервного копіювання буде введена в експлуатацію, вона більше не зможе записувати дані/видаляти дані з DDR, що може залишити старі/зайві mtree у системі. Дані в цих mtree продовжуватимуть існувати нескінченно довго, використовуючи місце на диску в DDR. Як наслідок, будь-які такі зайві дерева повинні бути видалені. Наприклад:
Наприклад:
# mtree delete /data/col1/Budu_test
mtreeЗнімок домену даних являє собою моментальний знімок відповідного mtree. В результаті:
При запуску з mtree без знімків буде показано наступне:
При запуску з mtree зі знімками буде показано наступне:
Термін дії цих знімків повинен бути прострочений, щоб їх можна було видалити, коли чисті пробіжки і місце, яке вони займають на диску, звільниться:
# snapshot expire [ім'я знімка] mtree [ім'я mtree]
Наприклад:
Зазначимо, що:
Автопідтримка з DDR містить гістограми, що показують розбивку файлів на DDR за віком - наприклад:
Це може бути корисним для визначення того, чи є в системі файли, термін дії яких не був прострочений/видалений, як очікувала програма резервного копіювання клієнта. Наприклад, якщо вищезазначена система була записана програмою резервного копіювання, де максимальний термін зберігання будь-якого одного файлу становив 6 місяців, відразу стає очевидним, що термін дії програми резервного копіювання не закінчується/не видаляє файли, як очікувалося, оскільки на DDR є приблизно 80 000 файлів, старіших за 6 місяців.
Зазначимо, що:
При необхідності служба підтримки Data Domain може надавати додаткові звіти для того, щоб:
Крок 6 - Перевірте наявність резервних копій, які містять велику кількість дрібних файлів
Через конструкцію DDFS невеликі файли (по суті, будь-який файл, розмір якого менше приблизно 10 Мб) можуть займати надмірне місце при початковому записі в DDR. Це пов'язано з архітектурою 'SISL' (Stream Informed Segment Layout), яка змушує невеликі файли займати кілька окремих блоків простору по 4,5 Мб на диску. Наприклад, файл розміром 4 Кб може займати до 9 МБ фізичного дискового простору під час початкового запису.
Цей надмірний простір згодом звільняється під час прибирання/збирання сміття (оскільки дані з невеликих файлів потім агрегуються в меншу кількість блоків по 4,5 Мб), але може призвести до того, що менші моделі DDR демонструють надмірне використання та заповнюються під час запуску таких резервних копій.
Автопідтримка містить гістограми файлів, розбиті за розміром, наприклад:
Якщо є докази того, що резервні копії записують дуже велику кількість малих файлів, на систему може вплинути значне тимчасове збільшення використання між кожним викликом прибирання/збирання сміття. У цьому сценарії краще змінити методологію резервного копіювання, щоб включити всі малі файли до одного більшого архіву (наприклад, файла tar), перш ніж записувати їх до DDR. Зауважте, що будь-який такий архів не повинен бути стиснутий або зашифрований (оскільки це пошкодить коефіцієнт стиснення/коефіцієнт видалення дублікатів цих даних).
Крок 7 – Перевірте, чи є нижчий, ніж очікувалося, коефіцієнт
видалення дублікатівОсновним призначенням DDR є видалення дублікатів і стиснення даних, що приймаються пристроєм. Співвідношення видалення дублювання/стиснення дуже сильно залежить від випадку використання системи та типу даних, які вона зберігає, однак у багатьох випадках буде «очікуваний» загальний коефіцієнт стиснення, заснований на результатах, отриманих за допомогою тестування доказу концепції або подібного. Щоб визначити поточний загальний коефіцієнт стиснення системи (і, отже, чи відповідає вона очікуванням), можна скористатися командою 'fileys show compression'. Наприклад:
У наведеному вище прикладі система досягає загального ступеня стиснення 65,3x для активного рівня (що надзвичайно добре). Якщо, однак, це значення показує, що загальний ступінь стиснення не відповідає очікуванням, то, ймовірно, будуть потрібні подальші дослідження. Зауважте, що дослідження нижчого, ніж очікувалося, ступеня стиснення є складною темою, яка може мати багато першопричин. Для отримання додаткової інформації про подальше розслідування, будь ласка, перегляньте наступну статтю:
https://support.emc.com/kb/487055Крок 8 - Перевірте, чи є система джерелом для реплікації
колекційПри використанні реплікації колекції, якщо вихідна система фізично більша за цільову систему, розмір вихідної системи буде штучно обмежений, щоб відповідати розміру місця призначення (тобто на джерелі буде область диска, яка буде позначена як непридатна для використання). Причина цього полягає в тому, що при використанні реплікації колекції цільовим призначенням має бути копія джерела на рівні блоку, однак, якщо джерело фізично більше за призначення, існує ймовірність того, що до джерела може бути записано зайві дані, які потім не можуть бути відтворені до місця призначення (оскільки воно вже заповнене). Цього сценарію можна уникнути, обмеживши розмір джерела відповідно до місця призначення.
Як тільки будь-яка з цих функцій буде виконана, на активному рівні вихідної системи буде негайно доступно додатковий простір (тобто немає необхідності запускати активний рівень очищення/збирання сміття перед використанням цього простору)
Крок 9 - Перевірте, чи регулярно виконується
переміщення данихЯкщо DDR налаштовано на розширене зберігання (ER) або довгострокове зберігання (LTR), до нього буде приєднано другий рівень сховища (рівень архіву для ER або хмарний рівень для LTR). У цьому сценарії політики переміщення даних, ймовірно, налаштовані на mtrees для міграції старіших/немодифікованих даних, які потребують тривалого зберігання з активного рівня на альтернативний рівень сховища, таким чином, що простір, який використовують ці файли на активному рівні, може бути фізично зайнятий шляхом очищення/збирання сміття. Якщо політики переміщення даних налаштовані неправильно або якщо процес переміщення даних не запускається регулярно, старі дані залишатимуться на активному рівні довше, ніж очікувалося, і продовжуватимуть використовувати фізичний простір на диску.
Зауважте, що ER і LTR є взаємовиключними, тому система міститиме або лише активний рівень (ER/LTR не налаштовано), або активний і архівний рівень (налаштовано ER), або активний і хмарний рівень (налаштовано LTR)
Якщо правила переміщення даних неправильні/відсутні, їх слід виправити - зверніться до Посібника адміністраторів домену даних, щоб отримати допомогу в цьому
Зверніть увагу, що Data Domain зазвичай рекомендує запускати переміщення даних за автоматизованим розкладом, однак деякі клієнти вирішують запускати цей процес ситуативно (тобто за потреби). У цьому сценарії рух даних слід запускати регулярно, виконуючи:
Для отримання додаткової інформації про зміну розкладу переміщення даних зверніться до Посібника адміністраторів доменів даних
Якщо переміщення даних не запускалося протягом деякого часу, спробуйте вручну запустити процес, а потім відстежуйте наступним чином:
Якщо з будь-якої причини рух даних не розпочинається, зверніться до постачальника послуг підтримки, з яким укладено договір, для отримання додаткової допомоги.
У системах LTR активне рівневе очищення, як і раніше, має бути налаштоване з власним графіком
Крок 10 – Додайте додаткове сховище до активного рівня
Якщо всі попередні кроки були виконані, активний рівень чисто запускається до завершення, однак на активному рівні все ще недостатньо вільного місця, ймовірно, система не була правильно підібрана відповідно до робочого навантаження, яке вона отримує. У цьому випадку слід виконати одну з таких дій:
Щоб обговорити збільшення обсягу пам'яті, зв'яжіться зі своїм відділом по роботі з клієнтами.
активне очищення рівняОпераційна система Data Domain Operating System (DDOS) намагається підтримувати лічильник під назвою «Cleanable GiB» для активного рівня. Це оцінка того, скільки фізичного (пост-комп) простору потенційно може бути звільнено на активному рівні, запустивши чистоту/збір сміття. Цей лічильник відображається командами 'fileys show space'/'df':
Активний рівень:Розмір ресурсу GiB Використано GiB Avail GiB Використання% Чистий GiB*
---------------- -------- --------- --------- ---- --------------
/дані: pre-comp - 7259347.5 - - -/data:
post-comp 304690.8 251252.4 53438.5 82% 51616.1 /ddvar 29.5 12.5 15.6 44% -
---------------- -------- --------- --------- ---- --------------
---------------- -------- --------- --------- ---- --------------
/дані: pre-comp - 7259347.5 - - -/data:
post-comp 304690.8 251252.4 53438.5 82% 51616.1 /ddvar 29.5 12.5 15.6 44% -
---------------- -------- --------- --------- ---- --------------
Якщо:
- Значення для параметра "ГіБ, який можна очистити" є великим
- DDFS заповнилася на 100% (і тому доступна лише для читання)
# fileys clean start
Очищення розпочато. Використовуйте «fileys clean watch», щоб відстежувати прогрес.
Очищення розпочато. Використовуйте «fileys clean watch», щоб відстежувати прогрес.
Щоб підтвердити, що очищення розпочалося належним чином, можна скористатися командою 'fileys status', тобто:
# fileys status
Файлову систему увімкнено і запущено.
Прибирання розпочато о 2017/05/19 18:05:58: фаза 1 з 12 (до злиття)
50.6% завершено, 64942 Гіб вільно; час: фаза 0:01:05, всього 0:01:05
Файлову систему увімкнено і запущено.
Прибирання розпочато о 2017/05/19 18:05:58: фаза 1 з 12 (до злиття)
50.6% завершено, 64942 Гіб вільно; час: фаза 0:01:05, всього 0:01:05
Зазначимо, що:
- Якщо clean не може запуститися, зверніться до свого постачальника послуг підтримки за подальшою допомогою, оскільки це може означати, що система зіткнулася з помилкою «відсутній сегмент», що призводить до вимкнення очищення
- Якщо clean вже запущено, при спробі запуску з'явиться наступне повідомлення:
Прибирання вже триває. Використовуйте «fileys clean watch», щоб відстежувати прогрес.
- Жодне місце на активному рівні не буде звільнено/відновлено, доки чистий не досягне фази копіювання (за замовчуванням фаза 9 у DDOS 5.4.x і раніші, фаза 11 у DDOS 5.5.x і пізніші). Для отримання додаткової інформації про фази, що використовуються clean, див.: https://support.emc.com/kb/446734
- Clean може не повернути обсяг простору, зазначений «GiB, що очищається», оскільки це значення, по суті, є оцінкою. Для отримання додаткової інформації про це див.: https://support.emc.com/kb/485637
- Clean не може звільнити весь потенційний простір за один прогін — це пов'язано з тим, що на DDR, що містять дуже великі набори даних, clean працюватиме проти частини файлової системи, що містить найбільше зайвих даних (тобто для забезпечення найкращої віддачі вільного простору за час, витрачений на чистоту). У деяких сценаріях очищення може знадобитися запустити кілька разів, перш ніж буде звільнено весь потенційний простір
- Якщо значення для параметра «ГіБ, що очищається» було дуже великим, це може означати, що очищення не виконується через регулярні проміжки часу - перевірте, чи встановлено розклад очищення:
# filesys чистий показ розкладу
Якщо потрібно, встановіть розклад очищення активного рівня, наприклад, щоб запускати щовівторка о 6 ранку:
# fileys clean set schedule Tue 0600 Очищення файлової системи заплановано на запуск "Tue" о "0600
".
Зауважте, що в системах, налаштованих із розширеним збереженням (ER), clean може бути налаштовано на запуск після завершення переміщення даних і може не мати власного окремого розкладу. Цей сценарій розглядається далі в цьому документі
Після завершення очищення використовуйте команди 'fileys show space'/'df', щоб визначити, чи вирішено проблеми з використанням. Якщо використання все ще високе, перейдіть до решти кроків у цій статті.
Крок 2 - Перевірте наявність великої затримки реплікації в контексті
реплікації джерелаРеплікація домену нативних даних розроблена навколо концепції «контекстів реплікації». Наприклад, коли дані потрібно реплікувати між системами:
- Контексти реплікації створюються на вихідних і цільових DDR
- Контексти ініціалізуються
- Після завершення ініціалізації реплікація періодично надсилатиме оновлення/дельти від джерела до місця призначення, щоб синхронізувати дані в системах
- Контексти реплікації каталогів (використовуються при реплікації одного дерева каталогів у /data/col1/backup між системами):
Реплікація каталогів використовує журнал реплікації вихідної DDR для відстеження непогашених файлів, які ще не були скопійовані до місця призначення
Якщо контекст реплікації каталогу затримується, журнал реплікації на вихідній DDR відстежуватиме велику кількість файлів, які очікують на реплікацію Навіть якщо ці файли видалені, в той час як на них продовжує посилатися журнал реплікації
, clean не зможе звільнити місце на диску, який використовується цими файлами
Якщо контекст реплікації каталогу затримується, журнал реплікації на вихідній DDR відстежуватиме велику кількість файлів, які очікують на реплікацію Навіть якщо ці файли видалені, в той час як на них продовжує посилатися журнал реплікації
, clean не зможе звільнити місце на диску, який використовується цими файлами
- Контексти реплікації Mtree (використовуються при реплікації будь-якого mtree, відмінного від /data/col1/backup між системами):
Реплікація mtree використовує знімки, створені у вихідній та цільовій системах, щоб визначити відмінності між системами і, отже, які файли потрібно надсилати з джерела до місця призначення
Якщо контекст реплікації mtree затримується, то відповідне mtree може мати дуже старі знімки, створені проти нього у вихідних та цільових системах Навіть якщо файли з реплікованого mtree у вихідній системі
, якщо ці файли існували на момент створення знімків реплікації mtree на System Clean не зможе звільнити місце на диску, який використовується цими файлами
Якщо контекст реплікації mtree затримується, то відповідне mtree може мати дуже старі знімки, створені проти нього у вихідних та цільових системах Навіть якщо файли з реплікованого mtree у вихідній системі
, якщо ці файли існували на момент створення знімків реплікації mtree на System Clean не зможе звільнити місце на диску, який використовується цими файлами
- Контексти реплікації колекції (використовуються при реплікації всього вмісту однієї DDR в іншу систему):
Реплікація колекції виконує реплікацію всіх даних вихідної системи на основі блоків у систему
призначення Якщо реплікація колекції затримується, то clean на вихідній системі не зможе працювати оптимально — у цьому сценарії на джерелі буде згенеровано попередження про те, що виконується часткове очищення, щоб уникнути використання синхронізації з цільовою системою
Таким чином, Clean не зможе зайняти стільки місця, скільки очікувалося на вихідному коді DDR
призначення Якщо реплікація колекції затримується, то clean на вихідній системі не зможе працювати оптимально — у цьому сценарії на джерелі буде згенеровано попередження про те, що виконується часткове очищення, щоб уникнути використання синхронізації з цільовою системою
Таким чином, Clean не зможе зайняти стільки місця, скільки очікувалося на вихідному коді DDR
Щоб визначити, чи затримуються контексти реплікації, слід виконати наступні кроки:
- Визначте ім'я хоста поточної системи:
sysadmin@dd4200# ім'я хоста Ім'я
хоста: dd4200.ddsupport.emea
хоста: dd4200.ddsupport.emea
- Визначте дату/час у поточній системі:
sysadmin@dd4200# дата: Пт травня 19 19:04:
06 IST 2017
06 IST 2017
- Список контекстів реплікації, налаштованих у системі, разом із їхніми «синхронізованими на час». Зауважте, що контексти, що становлять інтерес, — це ті, де «призначення» НЕ містить назви вузла поточної системи (що вказує на те, що джерелом є поточна система), а «синхронізовано станом на час» є значно старішим:
sysadmin@dd4200# статус
реплікації CTX Destination Enabled Connection Sync'ed-of-of-time Tenant-Unit
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
3 mtree://dd4200.ddsupport.emea/data/col1/DFC без простою Чт січ 8 08:58 - 9 mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree немає простою Пн січ 25 14:48 - 13 dir://DD2500-1.ddsupport.emea/backup/dstfolder не відключено Чет бер 30 17:55 - 17 mtree://DD2500-1.ddsupport.emea/data/col1/oleary так бездіяльний Пт 19 травня 18:57 - 18 mtree://dd4200.ddsupport.emea/data/col1/testfast Так Простою Пт 19 травня 19:18 - --- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
реплікації CTX Destination Enabled Connection Sync'ed-of-of-time Tenant-Unit
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
3 mtree://dd4200.ddsupport.emea/data/col1/DFC без простою Чт січ 8 08:58 - 9 mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree немає простою Пн січ 25 14:48 - 13 dir://DD2500-1.ddsupport.emea/backup/dstfolder не відключено Чет бер 30 17:55 - 17 mtree://DD2500-1.ddsupport.emea/data/col1/oleary так бездіяльний Пт 19 травня 18:57 - 18 mtree://dd4200.ddsupport.emea/data/col1/testfast Так Простою Пт 19 травня 19:18 - --- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
Контексти, для яких поточна система є джерелом і які демонструють значні затримки, або контексти, які більше не потрібні, повинні бути розірвані. Це можна зробити, виконавши таку команду у вихідній та цільовій системах:
# розрив реплікації [призначення]
Наприклад, щоб розірвати «цікаві» контексти, показані вище, наступні команди будуть виконані для джерела та призначення:
(dd4200.ddsupport.emea): # розрив реплікації mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(BenDDVE.ddsupport.emea): # розрив реплікації mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(BenDDVE.ddsupport.emea): # розрив реплікації mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(dd4200.ddsupport.emea): # розрив реплікації dir://DD2500-1.ddsupport.emea/backup/dstfolder
(DD2500-1.ddsupport.emea): # розрив реплікації dir://DD2500-1.ddsupport.emea/backup/dstfolder
(DD2500-1.ddsupport.emea): # розрив реплікації dir://DD2500-1.ddsupport.emea/backup/dstfolder
Зазначимо, що:
- Після того, як контексти будуть порушені, потрібно буде виконати очищення активного рівня, щоб звільнити потенційний простір на активному рівні
- Якщо використовується реплікація mtree після того, як контексти пошкоджені, знімки реплікації mtree можуть залишатися на диску. Переконайтеся, що виконано крок 5, щоб видалити будь-які зайві знімки перед запуском
- Якщо mtree джерела/призначення налаштовано на перенесення даних на рівні архіву або хмари, слід бути обережним при порушенні відповідних контекстів реплікації mtree, оскільки ці контексти можуть бути не можуть бути повторно створені/ініціалізовані в майбутньому. Причина цього полягає в тому, що коли контекст реплікації mtree ініціалізується, знімок mtree створюється у вихідній системі та містить подробиці всіх файлів у mtree (незалежно від рівня). Потім цей знімок повністю реплікується на активний рівень пункту призначення. В результаті, якщо активний рівень призначення не має достатньо вільного місця для отримання всіх даних mtrees з джерела, ініціалізація не зможе завершитися. Для отримання додаткової інформації з цього питання, будь ласка, зв'яжіться з постачальником послуг підтримки за контрактом
- Якщо контекст реплікації колекції порушено, контекст не можна буде повторно створити/ініціалізувати без попереднього знищення екземпляра DDFS на DDR призначення (і втрати всіх даних у цій системі). Як наслідок, подальша ініціалізація може зайняти значний час/пропускну здатність мережі, оскільки всі дані з джерела повинні бути знову фізично репліковані до місця призначення
Вміст DDFS логічно поділено на mtree. Зазвичай окремі програми резервного копіювання/клієнти пишуть до окремого mtrees. Якщо програма резервного копіювання буде введена в експлуатацію, вона більше не зможе записувати дані/видаляти дані з DDR, що може залишити старі/зайві mtree у системі. Дані в цих mtree продовжуватимуть існувати нескінченно довго, використовуючи місце на диску в DDR. Як наслідок, будь-які такі зайві дерева повинні бути видалені. Наприклад:
- Отримати список mtrees у системі:
# mtree list
Ім'я Pre-Comp (GiB) Статус
------------------------------------------------------------- -------------- -------
/data/col1/Budu_test 147.0 RW /data/col1/За замовчуванням 8649.8 RW /data/col1/File_DayForward_Noida 42.0 RW
/RLCE
/data/col1/labtest 1462.7 RW
/data/col1/oscar_data 0.2 RW
/data/col1/test_oscar_2 494.0 RO/RD
------------------------------------------------------------- -------------- -------
Ім'я Pre-Comp (GiB) Статус
------------------------------------------------------------- -------------- -------
/data/col1/Budu_test 147.0 RW /data/col1/За замовчуванням 8649.8 RW /data/col1/File_DayForward_Noida 42.0 RW
/RLCE
/data/col1/labtest 1462.7 RW
/data/col1/oscar_data 0.2 RW
/data/col1/test_oscar_2 494.0 RO/RD
------------------------------------------------------------- -------------- -------
- Будь-які mtree, які більше не потрібні, слід вилучити за допомогою команди 'mtree delete', тобто:
# mtree delete [ім'я mtree]
Наприклад:
# mtree delete /data/col1/Budu_test
...
MTree "/data/col1/Budu_test" успішно видалено.
MTree "/data/col1/Budu_test" успішно видалено.
- Місце, зайняте на диску видаленим mtree, буде зайнято при наступному запуску активного рівня очищення/збирання сміття.
- Mtree, які є адресатами для реплікації mtree (тобто мають статус RO/RD у виводі списку mtree), повинні мати відповідний контекст реплікації, перш ніж mtree буде видалено
- Mtree, які використовуються як логічні модулі зберігання DDBoost (LSU) або як пули віртуальної стрічкової бібліотеки (VTL), можуть бути не можуть бути видалені за допомогою команди 'mtree delete' - зверніться до Посібника з адміністрування домену даних для отримання додаткової інформації про видалення таких mtree
- Mtree, які налаштовані на блокування збереження (тобто мають статус RLCE або RLGE), не можуть бути видалені — натомість окремі файли в mtree повинні бути скасовані та видалені окремо — зверніться до Посібника з адміністрування домену даних для отримання додаткової інформації
mtreeЗнімок домену даних являє собою моментальний знімок відповідного mtree. В результаті:
- Будь-які файли, які існують у mtree на момент створення знімка, будуть посилатися на знімок
- Незважаючи на те, що знімок продовжує існувати, навіть якщо ці файли видалені/видалені, чисті не зможуть зайняти будь-який фізичний простір, який вони використовують на диску, це пов'язано з тим, що дані повинні залишатися в системі на випадок, якщо пізніше буде отримано доступ до копії файлу на знімку
- Отримайте список mtrees у системі за допомогою команди 'mtree list', як показано на кроці 3
- Виведіть список знімків, які існують для кожного mtree, за допомогою команди 'snapshot list':
# список знімків mtree [ім'я mtree]
При запуску з mtree без знімків буде показано наступне:
# snapshot list mtree /data/col1/Default
Snapshot Information for MTree: /data/col1/Default
----------------------------------------------
Знімків не знайдено.
Snapshot Information for MTree: /data/col1/Default
----------------------------------------------
Знімків не знайдено.
При запуску з mtree зі знімками буде показано наступне:
# snapshot list mtree /data/col1/labtest
Інформація про знімок для MTree: /data/col1/labtest
----------------------------------------------
Name Pre-comp (GiB) Створити дату Зберігати до статусу
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 31 березня 2016 12:00 26 березня 2017 12:00 минув
testsnap-2016-05-31-12-00 1198.8 31 травня 2016 12:00 26 травня 2017 12:00 testsnap-2016-07-31-12-00 1301.3 31 липня 2016 12:00 26 липня 2017 12:00 testsnap-2016-08-31-12-00 1327.5 31 серпня 2016 12:00 26 серпня 2017 12:00 testsnap-2016-10-31-12-00 1424.9 31 жовтня 2016 12:00 26 жов 2017 13:00
testsnap-2016-12-31-12-00 1403.1 31 грудня 2016 12:00 26 грудня 2017 12:00 testsnap-2017-01-31-12-00 1421.0 31 січня 2017 12:00 26 січня 2018 12:00 testsnap-2017-03-31-12-00 1468.7 31 березня 2017 12:00 26 березня 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 11 травня 2017, 15:18 11 травня 2018, 15:18
----------------------------------- -------------- ----------------- ----------------- -------
Інформація про знімок для MTree: /data/col1/labtest
----------------------------------------------
Name Pre-comp (GiB) Створити дату Зберігати до статусу
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 31 березня 2016 12:00 26 березня 2017 12:00 минув
testsnap-2016-05-31-12-00 1198.8 31 травня 2016 12:00 26 травня 2017 12:00 testsnap-2016-07-31-12-00 1301.3 31 липня 2016 12:00 26 липня 2017 12:00 testsnap-2016-08-31-12-00 1327.5 31 серпня 2016 12:00 26 серпня 2017 12:00 testsnap-2016-10-31-12-00 1424.9 31 жовтня 2016 12:00 26 жов 2017 13:00
testsnap-2016-12-31-12-00 1403.1 31 грудня 2016 12:00 26 грудня 2017 12:00 testsnap-2017-01-31-12-00 1421.0 31 січня 2017 12:00 26 січня 2018 12:00 testsnap-2017-03-31-12-00 1468.7 31 березня 2017 12:00 26 березня 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 11 травня 2017, 15:18 11 травня 2018, 15:18
----------------------------------- -------------- ----------------- ----------------- -------
- Там, де існують знімки, використовуйте вихідні дані зі списку знімків mtree [назва mtree]», щоб визначити знімки, які:
Термін дії не минув (див. стовпець стану)
були створені значний час у минулому (наприклад, знімки, створені у 2016 році з наведеного вище списку);
Термін дії цих знімків повинен бути прострочений, щоб їх можна було видалити, коли чисті пробіжки і місце, яке вони займають на диску, звільниться:
# snapshot expire [ім'я знімка] mtree [ім'я mtree]
Наприклад:
# snapshot expire testsnap-2016-05-31-12-00 mtree /data/col1/labtest Знімок "testsnap-2016-05-31-12-00" для mtree "/data/col1/labtest
" буде збережено до 19:31 травня 2017 року.
" буде збережено до 19:31 травня 2017 року.
- Якщо команду snapshot list буде запущено знову, ці знімки тепер відображатимуться як застарілі:
# snapshot list mtree /data/col1/labtest
Інформація про знімок для MTree: /data/col1/labtest
----------------------------------------------
Name Pre-comp (GiB) Створити дату Зберігати до статусу
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 31 березня 2016 12:00 26 березня 2017 12:00 минув
testsnap-2016-05-31-12-00 1198.8 31 травня 2016 12:00 26 травня 2017 12:00 закінчився
testsnap-2016-07-31-12-00 1301.3 31 липня 2016 12:00 26 липня 2017 12:00 testsnap-2016-08-31-12-00 1327.5 31 серпня 2016 12:00 26 серпня 2017 12:00 testsnap-2016-10-31-12-00 1424.9 31 жов 2016 12:00 26 жов 2017 13:00
testsnap-2016-12-31-12-00 1403.1 31 грудня 2016 12:00 26 грудня 2017 12:00 testsnap-2017-01-31-12-00 1421.0 31 січня 2017 12:00 26 січня 2018 12:00 testsnap-2017-03-31-12-00 1468.7 31 березня 2017 12:00 26 березня 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 11 травня 2017, 15:18 11 травня 2018, 15:18
----------------------------------- -------------- ----------------- ----------------- -------
Інформація про знімок для MTree: /data/col1/labtest
----------------------------------------------
Name Pre-comp (GiB) Створити дату Зберігати до статусу
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 31 березня 2016 12:00 26 березня 2017 12:00 минув
testsnap-2016-05-31-12-00 1198.8 31 травня 2016 12:00 26 травня 2017 12:00 закінчився
testsnap-2016-07-31-12-00 1301.3 31 липня 2016 12:00 26 липня 2017 12:00 testsnap-2016-08-31-12-00 1327.5 31 серпня 2016 12:00 26 серпня 2017 12:00 testsnap-2016-10-31-12-00 1424.9 31 жов 2016 12:00 26 жов 2017 13:00
testsnap-2016-12-31-12-00 1403.1 31 грудня 2016 12:00 26 грудня 2017 12:00 testsnap-2017-01-31-12-00 1421.0 31 січня 2017 12:00 26 січня 2018 12:00 testsnap-2017-03-31-12-00 1468.7 31 березня 2017 12:00 26 березня 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 11 травня 2017, 15:18 11 травня 2018, 15:18
----------------------------------- -------------- ----------------- ----------------- -------
Зазначимо, що:
- Неможливо визначити, скільки фізичних даних вміщує окремий знімок або набір знімків на диску — єдиним значенням «простору», пов'язаного зі знімком, є вказівка на попередньо стиснутий (логічний) розмір mtree на момент створення знімка (як показано у наведеному вище виведенні)
- Знімки, які мають назву «REPL-MTREE-AUTO-YYYY-MM-DD-HH-MM-SS», керуються реплікацією mtree, і за звичайних обставин їх не потрібно видаляти вручну (реплікація автоматично завершить термін дії цих знімків, коли вони більше не потрібні). Якщо такі знімки дуже старі, це вказує на те, що відповідний контекст реплікації, ймовірно, демонструє значну затримку (як описано на кроці 2)
- Знімки з назвою «REPL-MTREE-RESYNC-RESERVE-YYYY-MM-DD-HH-MM-SS» створюються за допомогою реплікації mtree, коли контекст реплікації mtree порушено. Їх призначення полягає в тому, що вони можуть бути використані для уникнення повної повторної синхронізації даних реплікації, якщо пошкоджений контекст буде пізніше відтворено (наприклад, якщо контекст був пошкоджений помилково). Якщо реплікацію не буде відновлено, ці контексти можна буде завершити вручну, як описано вище
- Прострочені знімки продовжуватимуть існувати в системі до наступного запуску clean/garbage collection — на цьому етапі вони будуть фізично видалені та видалені з виводу 'snapshot list mtree [mtree name]' - clean може звільнити будь-який простір, який ці знімки використовували на диску
Автопідтримка з DDR містить гістограми, що показують розбивку файлів на DDR за віком - наприклад:
Розподіл
файлів-----------------
448 672 файлів у 5 276 каталогах
Кількість Простір
----------------------------- --------------------------
вік Файли % кумуль% ГіБ % кумуль%
--------- ----------- ----- ------- -------- ----- -------
1 день 7 244 1,6 1,6 4537,9 0,1 0,1
1 тиждень 40 388 9,0 10,6 63538,2 0,8 0,8
2 тижні 47 850 10,7 21,3 84409,1 1,0 1,9
1 місяць 125 800 28,0 49,3 404807,0 5,0 6,9 2 місяці 132 802 29,6 78,9 437558,8 5,4 12,3 3 місяці 8 084 1,8 80,7 633906,4 7,8 20,1 6 місяців 5 441 1,2
81,9 1244863,9
15,3
35,4
1 рік 21 439 4,8 86,7 3973612,3 49,0 84,4
> 1 рік 59 624 13,3 100,0 1265083,9 15,6 100,0
--------- ----------- ----- ------- -------- ----- -------
файлів-----------------
448 672 файлів у 5 276 каталогах
Кількість Простір
----------------------------- --------------------------
вік Файли % кумуль% ГіБ % кумуль%
--------- ----------- ----- ------- -------- ----- -------
1 день 7 244 1,6 1,6 4537,9 0,1 0,1
1 тиждень 40 388 9,0 10,6 63538,2 0,8 0,8
2 тижні 47 850 10,7 21,3 84409,1 1,0 1,9
1 місяць 125 800 28,0 49,3 404807,0 5,0 6,9 2 місяці 132 802 29,6 78,9 437558,8 5,4 12,3 3 місяці 8 084 1,8 80,7 633906,4 7,8 20,1 6 місяців 5 441 1,2
81,9 1244863,9
15,3
35,4
1 рік 21 439 4,8 86,7 3973612,3 49,0 84,4
> 1 рік 59 624 13,3 100,0 1265083,9 15,6 100,0
--------- ----------- ----- ------- -------- ----- -------
Це може бути корисним для визначення того, чи є в системі файли, термін дії яких не був прострочений/видалений, як очікувала програма резервного копіювання клієнта. Наприклад, якщо вищезазначена система була записана програмою резервного копіювання, де максимальний термін зберігання будь-якого одного файлу становив 6 місяців, відразу стає очевидним, що термін дії програми резервного копіювання не закінчується/не видаляє файли, як очікувалося, оскільки на DDR є приблизно 80 000 файлів, старіших за 6 місяців.
Зазначимо, що:
- Програма резервного копіювання несе відповідальність за виконання всіх термінів дії/видалення файлів
- Термін дії DDR ніколи не закінчується/видаляється автоматично — якщо програма резервного копіювання не накаже явно видалити файл, файл продовжуватиме існувати в DDR з використанням простору необмежений час
При необхідності служба підтримки Data Domain може надавати додаткові звіти для того, щоб:
- Вкажіть назву/час модифікації всіх файлів на DDR, упорядкованих за віком (щоб можна було визначити назву/розташування будь-яких старих даних)
- Розділіть гістограми віку файлів на окремі звіти для активного/архівного/хмарного рівня (де ввімкнено функції ER/LTR)
- Збирайте докази, як описано в параграфі «Збір sfs_dump» розділу приміток цього документа
- Відкрийте запит на обслуговування у свого постачальника послуг за контрактом
Крок 6 - Перевірте наявність резервних копій, які містять велику кількість дрібних файлів
Через конструкцію DDFS невеликі файли (по суті, будь-який файл, розмір якого менше приблизно 10 Мб) можуть займати надмірне місце при початковому записі в DDR. Це пов'язано з архітектурою 'SISL' (Stream Informed Segment Layout), яка змушує невеликі файли займати кілька окремих блоків простору по 4,5 Мб на диску. Наприклад, файл розміром 4 Кб може займати до 9 МБ фізичного дискового простору під час початкового запису.
Цей надмірний простір згодом звільняється під час прибирання/збирання сміття (оскільки дані з невеликих файлів потім агрегуються в меншу кількість блоків по 4,5 Мб), але може призвести до того, що менші моделі DDR демонструють надмірне використання та заповнюються під час запуску таких резервних копій.
Автопідтримка містить гістограми файлів, розбиті за розміром, наприклад:
Кількість простору
----------------------------- --------------------------
розмір файлів % кумуль% ГіБ % кумуль%
--------- ----------- ----- ------- -------- ----- -------
1 КіБ 2,957 35,8 35,8 0,0 0,0 0,0 10 Кіб 1,114 13,5 49,3 0,0 0,0 0,0 0,0
100 КіБ 249 3,0 52,4 0,1 0,0 0,0 500 КіБ 1 069 13,0 65,3 0,3 0,0 0,0 1 МіБ 113 1,4 66,7 0,1 0,0 0,0 5 МіБ 446 5,4 72,1 1,3 0,0 0,0 10 МіБ 220 2,7 74,8 1,9 0,0 0,0 50 МіБ 1 326 16,1 90,8 33,6 0,2 0,2
100 МіБ 12 0,1 91,0 0,9 0,0 0,2 500 МіБ 490 5,9 96,9 162,9 0,8 1,0 1 Гіб 58 0,7 97,6 15,6 0,1 1,1 5 Гіб 29 0,4 98,0 87,0 0,5 1,6
10 Гіб 17 0,2 98,2
322,9 1,7
3,3 50 Гіб 21 0,3 98,4 1352,7 7,0
10,3
100 Гіб 72 0,9 99,3 6743,0 35,1 45,5 500 Гіб 58 0,7 100,0 10465,9 54,5
100,0 > 500 Гіб 0 0,0 100,0 0,0 100,0
--------- ----------- ----- ------- -------- ----- -------
----------------------------- --------------------------
розмір файлів % кумуль% ГіБ % кумуль%
--------- ----------- ----- ------- -------- ----- -------
1 КіБ 2,957 35,8 35,8 0,0 0,0 0,0 10 Кіб 1,114 13,5 49,3 0,0 0,0 0,0 0,0
100 КіБ 249 3,0 52,4 0,1 0,0 0,0 500 КіБ 1 069 13,0 65,3 0,3 0,0 0,0 1 МіБ 113 1,4 66,7 0,1 0,0 0,0 5 МіБ 446 5,4 72,1 1,3 0,0 0,0 10 МіБ 220 2,7 74,8 1,9 0,0 0,0 50 МіБ 1 326 16,1 90,8 33,6 0,2 0,2
100 МіБ 12 0,1 91,0 0,9 0,0 0,2 500 МіБ 490 5,9 96,9 162,9 0,8 1,0 1 Гіб 58 0,7 97,6 15,6 0,1 1,1 5 Гіб 29 0,4 98,0 87,0 0,5 1,6
10 Гіб 17 0,2 98,2
322,9 1,7
3,3 50 Гіб 21 0,3 98,4 1352,7 7,0
10,3
100 Гіб 72 0,9 99,3 6743,0 35,1 45,5 500 Гіб 58 0,7 100,0 10465,9 54,5
100,0 > 500 Гіб 0 0,0 100,0 0,0 100,0
--------- ----------- ----- ------- -------- ----- -------
Якщо є докази того, що резервні копії записують дуже велику кількість малих файлів, на систему може вплинути значне тимчасове збільшення використання між кожним викликом прибирання/збирання сміття. У цьому сценарії краще змінити методологію резервного копіювання, щоб включити всі малі файли до одного більшого архіву (наприклад, файла tar), перш ніж записувати їх до DDR. Зауважте, що будь-який такий архів не повинен бути стиснутий або зашифрований (оскільки це пошкодить коефіцієнт стиснення/коефіцієнт видалення дублікатів цих даних).
Крок 7 – Перевірте, чи є нижчий, ніж очікувалося, коефіцієнт
видалення дублікатівОсновним призначенням DDR є видалення дублікатів і стиснення даних, що приймаються пристроєм. Співвідношення видалення дублювання/стиснення дуже сильно залежить від випадку використання системи та типу даних, які вона зберігає, однак у багатьох випадках буде «очікуваний» загальний коефіцієнт стиснення, заснований на результатах, отриманих за допомогою тестування доказу концепції або подібного. Щоб визначити поточний загальний коефіцієнт стиснення системи (і, отже, чи відповідає вона очікуванням), можна скористатися командою 'fileys show compression'. Наприклад:
# filesys показати стиснення
Від: 2017-05-03 13:00 Кому: 2017-05-10 13:00
Активний рівень:
Pre-comp Post-Comp Global-comp Local-Comp Total-Comp
(GiB) (GiB) Факторний фактор
(зменшення %)
---------------- -------- --------- ----------- ---------- -------------
Використовується в даний час:* 20581.1 315.4 - - 65.3x (98.5)
Написано:
Останні 7 днів 744.0 5.1 80.5x 1.8x 145.6x (99.3)
Останні 24 години
---------------- -------- --------- ----------- ---------- -------------
* Не включає ефекти видалення/обрізання файлів перед комп'ютером
Від: 2017-05-03 13:00 Кому: 2017-05-10 13:00
Активний рівень:
Pre-comp Post-Comp Global-comp Local-Comp Total-Comp
(GiB) (GiB) Факторний фактор
(зменшення %)
---------------- -------- --------- ----------- ---------- -------------
Використовується в даний час:* 20581.1 315.4 - - 65.3x (98.5)
Написано:
Останні 7 днів 744.0 5.1 80.5x 1.8x 145.6x (99.3)
Останні 24 години
---------------- -------- --------- ----------- ---------- -------------
* Не включає ефекти видалення/обрізання файлів перед комп'ютером
У наведеному вище прикладі система досягає загального ступеня стиснення 65,3x для активного рівня (що надзвичайно добре). Якщо, однак, це значення показує, що загальний ступінь стиснення не відповідає очікуванням, то, ймовірно, будуть потрібні подальші дослідження. Зауважте, що дослідження нижчого, ніж очікувалося, ступеня стиснення є складною темою, яка може мати багато першопричин. Для отримання додаткової інформації про подальше розслідування, будь ласка, перегляньте наступну статтю:
https://support.emc.com/kb/487055Крок 8 - Перевірте, чи є система джерелом для реплікації
колекційПри використанні реплікації колекції, якщо вихідна система фізично більша за цільову систему, розмір вихідної системи буде штучно обмежений, щоб відповідати розміру місця призначення (тобто на джерелі буде область диска, яка буде позначена як непридатна для використання). Причина цього полягає в тому, що при використанні реплікації колекції цільовим призначенням має бути копія джерела на рівні блоку, однак, якщо джерело фізично більше за призначення, існує ймовірність того, що до джерела може бути записано зайві дані, які потім не можуть бути відтворені до місця призначення (оскільки воно вже заповнене). Цього сценарію можна уникнути, обмеживши розмір джерела відповідно до місця призначення.
- За допомогою команд з кроку 2 перевірте, чи є система джерелом для реплікації колекції. Для цього запустіть ''replication status' і визначте, чи є якісь контексти реплікації, починаючи з 'col://' (що вказує на реплікацію колекції), які НЕ містять імені хоста локальної системи в адресаті (вказуючи на те, що ця система повинна бути джерелом для контексту реплікації)
- Якщо система є джерелом для реплікації колекції, перевірте розмір кожного активного рівня системи, увійшовши в обидва та виконавши команду 'fileys show space' - порівняйте розмір активних рівнів 'post-comp' на кожному
- Якщо джерело значно більше за ціль, то його активний розмір рівня буде штучно обмежений
- Щоб увесь простір у джерелі можна було використовувати для даних, слід виконати такі дії:
Додайте додаткове сховище до активного рівня призначення таким чином, щоб його розмір становив >= розмір активного рівня джерела
Розбийте контекст реплікації колекції (за допомогою команд з кроку 2) - зауважте, що це, очевидно, завадить реплікації даних з вихідного -> DDR призначення
Як тільки будь-яка з цих функцій буде виконана, на активному рівні вихідної системи буде негайно доступно додатковий простір (тобто немає необхідності запускати активний рівень очищення/збирання сміття перед використанням цього простору)
Крок 9 - Перевірте, чи регулярно виконується
переміщення данихЯкщо DDR налаштовано на розширене зберігання (ER) або довгострокове зберігання (LTR), до нього буде приєднано другий рівень сховища (рівень архіву для ER або хмарний рівень для LTR). У цьому сценарії політики переміщення даних, ймовірно, налаштовані на mtrees для міграції старіших/немодифікованих даних, які потребують тривалого зберігання з активного рівня на альтернативний рівень сховища, таким чином, що простір, який використовують ці файли на активному рівні, може бути фізично зайнятий шляхом очищення/збирання сміття. Якщо політики переміщення даних налаштовані неправильно або якщо процес переміщення даних не запускається регулярно, старі дані залишатимуться на активному рівні довше, ніж очікувалося, і продовжуватимуть використовувати фізичний простір на диску.
- Спочатку перевірте, чи налаштована система для ER або LTR, запустивши 'fileys show space' і перевіривши наявність архіву або хмарного рівня - зауважте, що для зручності використання ці альтернативні рівні сховища повинні мати пост-комп'ютерний розмір > 0Gb:
# filesys показати простір
...
Рівень архіву:Розмір ресурсу GiB Використано GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------/data: pre-comp - 4163.8 - - -
/data:
post-comp 31938.2 1411.9 30526.3 4% -
---------------- -------- -------- --------- ---- -------------
# filesys показати простір...
Розмір ресурсу хмарного рівня
GiB Використано GiB Avail GiB Використання% Очищений GiB
---------------- -------- -------- --------- ---- -------------/дані: pre-comp - 0.0 - - -
/data: post-comp 338905.8 0.0 338905.8 0% 0.0
---------------- -------- -------- --------- ---- -------------
...
Рівень архіву:Розмір ресурсу GiB Використано GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------/data: pre-comp - 4163.8 - - -
/data:
post-comp 31938.2 1411.9 30526.3 4% -
---------------- -------- -------- --------- ---- -------------
# filesys показати простір...
Розмір ресурсу хмарного рівня
GiB Використано GiB Avail GiB Використання% Очищений GiB
---------------- -------- -------- --------- ---- -------------/дані: pre-comp - 0.0 - - -
/data: post-comp 338905.8 0.0 338905.8 0% 0.0
---------------- -------- -------- --------- ---- -------------
Зауважте, що ER і LTR є взаємовиключними, тому система міститиме або лише активний рівень (ER/LTR не налаштовано), або активний і архівний рівень (налаштовано ER), або активний і хмарний рівень (налаштовано LTR)
- Якщо система налаштована на ER/LTR, перевірте політики переміщення даних за mtrees, щоб переконатися, що вони відповідають очікуванням, і встановіть їх таким чином, щоб старі дані були витіснені на альтернативний рівень сховища:
Швидка допомога: # архів політики переміщення даних показати
LTR: # Показ політики руху даних
LTR: # Показ політики руху даних
Якщо правила переміщення даних неправильні/відсутні, їх слід виправити - зверніться до Посібника адміністраторів домену даних, щоб отримати допомогу в цьому
- Якщо система налаштована на ER/LTR, переконайтеся, що переміщення даних заплановано на регулярні проміжки часу, щоб фізично перенести файли/дані з активного рівня до альтернативного сховища:
Швидка допомога: # архів графіка руху даних показати
LTR: # Показ розкладу руху даних
LTR: # Показ розкладу руху даних
Зверніть увагу, що Data Domain зазвичай рекомендує запускати переміщення даних за автоматизованим розкладом, однак деякі клієнти вирішують запускати цей процес ситуативно (тобто за потреби). У цьому сценарії рух даних слід запускати регулярно, виконуючи:
Швидка допомога: # архів data-movement start
LTR: # старт руху даних
LTR: # старт руху даних
Для отримання додаткової інформації про зміну розкладу переміщення даних зверніться до Посібника адміністраторів доменів даних
- Якщо система налаштована на ER/LTR, перевірте, коли востаннє виконувався рух даних:
Швидка допомога: # архів статусу
переміщення даних LTR: # статус переміщення даних
переміщення даних LTR: # статус переміщення даних
Якщо переміщення даних не запускалося протягом деякого часу, спробуйте вручну запустити процес, а потім відстежуйте наступним чином:
Швидка допомога: # архів руху-даних дивитися LTR
: # годинник за рухом даних
: # годинник за рухом даних
Якщо з будь-якої причини рух даних не розпочинається, зверніться до постачальника послуг підтримки, з яким укладено договір, для отримання додаткової допомоги.
- Після завершення переміщення даних слід запустити активне очищення рівня (зауважте, що воно може бути налаштоване на автоматичний запуск після завершення переміщення даних), щоб гарантувати, що використане мої перенесені файли на активному рівні фізично звільнено:
# файли чистий старт
У системах швидкої допомоги прийнято планувати регулярне виконання переміщення даних (тобто раз на тиждень), а потім налаштовувати активне рівневе очищення для запуску після завершення переміщення даних. У цьому випадку активне очищення рівня не має власного незалежного графіка. Щоб налаштувати це початково, видаліть поточний активний рівень чистого розкладу:
# filesys clean set schedule never
Налаштуйте рух даних так, щоб він запускався періодично з подальшим автоматичним активним очищенням рівня - наприклад, запускати переміщення даних щовівторка о 6 ранку з подальшим активним очищенням рівня:
# архів графік переміщення даних встановлених днів Вт час 0600
Встановлено розклад переміщення даних архіву.
Переміщення архівних даних запланованона день (дні) "вт" о 06:00 год Можна підтвердити, що активне очищення рівня налаштовано на запуск після завершення переміщення даних наступним чином:# архів показати конфігурацію Увімкнено Так Рух даних Розклад Виконується в день(и) "вт" о "06:
00
" годин
Дросельна заслінка руху даних 100 відсотків
Віковий поріг за замовчуванням Політика переміщення даних 14 днів
Запустіть файли після переміщення архівних даних Так Рівень архіву Локальне стиснення gz
Упаковка даних під час переміщення архівних даних увімкнено
Космічна меліорація вимкнена
Графік космічної меліорації Без розкладу
У системах швидкої допомоги прийнято планувати регулярне виконання переміщення даних (тобто раз на тиждень), а потім налаштовувати активне рівневе очищення для запуску після завершення переміщення даних. У цьому випадку активне очищення рівня не має власного незалежного графіка. Щоб налаштувати це початково, видаліть поточний активний рівень чистого розкладу:
# filesys clean set schedule never
Налаштуйте рух даних так, щоб він запускався періодично з подальшим автоматичним активним очищенням рівня - наприклад, запускати переміщення даних щовівторка о 6 ранку з подальшим активним очищенням рівня:
# архів графік переміщення даних встановлених днів Вт час 0600
Встановлено розклад переміщення даних архіву.
Переміщення архівних даних запланованона день (дні) "вт" о 06:00 год Можна підтвердити, що активне очищення рівня налаштовано на запуск після завершення переміщення даних наступним чином:# архів показати конфігурацію Увімкнено Так Рух даних Розклад Виконується в день(и) "вт" о "06:
00
" годин
Дросельна заслінка руху даних 100 відсотків
Віковий поріг за замовчуванням Політика переміщення даних 14 днів
Запустіть файли після переміщення архівних даних Так Рівень архіву Локальне стиснення gz
Упаковка даних під час переміщення архівних даних увімкнено
Космічна меліорація вимкнена
Графік космічної меліорації Без розкладу
У системах LTR активне рівневе очищення, як і раніше, має бути налаштоване з власним графіком
Крок 10 – Додайте додаткове сховище до активного рівня
Якщо всі попередні кроки були виконані, активний рівень чисто запускається до завершення, однак на активному рівні все ще недостатньо вільного місця, ймовірно, система не була правильно підібрана відповідно до робочого навантаження, яке вона отримує. У цьому випадку слід виконати одну з таких дій:
- Зменшіть навантаження, що б'є по системі - наприклад:
Переспрямування підмножини резервних копій до альтернативного сховища
Скоротіть період зберігання резервних копій таким чином, щоб вони швидше закінчувалися/видалялися
Зменшіть кількість/період закінчення запланованих знімків проти mtrees у системі
Розбийте зайві контексти реплікації, для яких локальна система є місцем призначення, а потім видаліть відповідні mtrees
Скоротіть період зберігання резервних копій таким чином, щоб вони швидше закінчувалися/видалялися
Зменшіть кількість/період закінчення запланованих знімків проти mtrees у системі
Розбийте зайві контексти реплікації, для яких локальна система є місцем призначення, а потім видаліть відповідні mtrees
- Додайте додаткове сховище до активного рівня системи та розширте його розміри:
# Додавання сховища [Активний рівень] Корпус [номер корпусу] | disk [номер пристрою]
# fileys розгорнути
# fileys розгорнути
Щоб обговорити збільшення обсягу пам'яті, зв'яжіться зі своїм відділом по роботі з клієнтами.
Дополнительная информация
Підтримка Data Domain може генерувати ряд звітів, які відображають таку інформацію, як:
- Список усіх файлів певного рівня (наприклад, активних/архівних/хмарних), упорядкованих за віком
- Приблизний розмір і коефіцієнт стиснення за mtree/основним деревом каталогів
- Список усіх файлів у певному mtree, упорядкований за віком
- і так далі
Для цього необхідно зібрати наступну інформацію:
- Свіжий пакет підтримки від DDR - додаткову інформацію дивіться нижче: https://support.emc.com/kb/323283
- Виведення 'sfs_dump' або 'sfs_dump -c':
Увійдіть у DDR CLI і перейдіть у режим se (зауважте, що системи, налаштовані з шифруванням та/або блокуванням збереження, можуть запитувати облікові дані користувача з роллю «безпека» на цьому етапі):
# system show serialno
[відображається серійний номер системи]# priv set se
[password prompt - введіть серійний номер системи зверху]
[відображається серійний номер системи]# priv set se
[password prompt - введіть серійний номер системи зверху]
Увімкніть ведення журналу в термінальному сеансі. Наприклад, якщо використовувати шпаклівку, це можна зробити наступним чином: Клацніть правою кнопкою миші на панелі меню -> Змінити параметри... -> Сеанс -> Ведення журналу -> Вибрати всі виведені дані сеансу і вибрати назву файла -> Застосувати
Виконайте sfs_dump:
# se sfs_dump
Після завершення, будь ласка, отримайте копію журналу сесій для подальшого аналізу.
- Звіт про місцезнаходження файлу (необхідний, якщо система налаштована на ER або LTR):
Увійдіть у DDR CLI
Увімкніть вхід до системи в термінальному сеансі. Наприклад, якщо використовувати шпаклівку, це можна зробити наступним чином: Клацніть правою кнопкою миші на панелі меню -> Змінити параметри... -> Сеанс -> Ведення журналу -> Вибрати всі виведені дані сесії та вибрати ім'я файлу -> Подати заявку
Зібрати звіт про розташування файлу:ER:
# архівний звіт генерує локацію
файлу LTR: # fileys звіт генерує розташування
файлуПісля завершення, будь ласка, отримайте копію журналу сесій для подальшого аналізу
Увімкніть вхід до системи в термінальному сеансі. Наприклад, якщо використовувати шпаклівку, це можна зробити наступним чином: Клацніть правою кнопкою миші на панелі меню -> Змінити параметри... -> Сеанс -> Ведення журналу -> Вибрати всі виведені дані сесії та вибрати ім'я файлу -> Подати заявку
Зібрати звіт про розташування файлу:ER:
# архівний звіт генерує локацію
файлу LTR: # fileys звіт генерує розташування
файлуПісля завершення, будь ласка, отримайте копію журналу сесій для подальшого аналізу
Щоб отримати допомогу у зборі вищезазначеного або виконати будь-який із кроків у цьому архіві, зверніться до постачальника послуг підтримки, з яким укладено договір.
Затронутые продукты
Data DomainПродукты
Data DomainСвойства статьи
Номер статьи: 000054303
Тип статьи: Solution
Последнее изменение: 21 Jul 2025
Версия: 6
Получите ответы на свои вопросы от других пользователей Dell
Услуги технической поддержки
Проверьте, распространяются ли на ваше устройство услуги технической поддержки.