Домен даних: Як NetWorker працює з Data Domain і Cloud Tier
Summary: NetWorker (NW) має вбудовану підтримку Data Domain Cloud Tier (DD CT). Існують хибні уявлення та зіткнення термінологів, які розглядаються в цій статті.
This article applies to
This article does not apply to
This article is not tied to any specific product.
Not all product versions are identified in this article.
Symptoms
NetWorker (NW) має вбудовану підтримку Data Domain Cloud Tier (DD CT). Це означає, що адміністратор NW може встановлювати політики для багаторівневого переходу в хмару: NW позначає окремі резервні зображення, щоб потім переміщення даних DD у хмару запускалося та надсилало ці файли до налаштованого хмарного блоку.
Першим важливим фактом, на який слід звернути увагу, є те, що NW не переміщує і не копіює (не клонує) дані в хмару. Він створює копії (клони) SSID для відправки в хмару, але клони знаходяться (спочатку) на рівні DD Active. Лише після того, як запрацює налаштований графік переміщення даних DD, SSID, позначений для (багаторівневої) хмари, має бути відправлений у хмарне сховище.
Весь процес від створення резервної копії до моменту, коли цей SSID доступний у хмарі, працює дуже схоже на наведене нижче:
Першим важливим фактом, на який слід звернути увагу, є те, що NW не переміщує і не копіює (не клонує) дані в хмару. Він створює копії (клони) SSID для відправки в хмару, але клони знаходяться (спочатку) на рівні DD Active. Лише після того, як запрацює налаштований графік переміщення даних DD, SSID, позначений для (багаторівневої) хмари, має бути відправлений у хмарне сховище.
Весь процес від створення резервної копії до моменту, коли цей SSID доступний у хмарі, працює дуже схоже на наведене нижче:
Cause
1. NW налаштований на зберігання резервних копій на DD (ingest завжди відбувається на рівень DD Active). Як правило, він використовує один блок зберігання для того, щоб:
2. У NetWorker кожна політика резервного копіювання зберігається під тим, що NetWorker називає "пристроєм". Пристрій — це просто підкаталог під коренем модуля зберігання даних, наприклад:
3. NW в кінцевому підсумку налаштовується для DD CT, і призводить до конфігурації переміщення даних, керованої програмами руху даних, у DD, як показано нижче:
4. Принцип роботи NW для DD CT не «маркує» файли, які потрібно перемістити в хмару, на їх початковому місці: Коли клієнт встановлює NW для хмарного рівня, він повинен створити інший пристрій у тому самому сховищі, де файли, які будуть надіслані в хмару, спочатку будуть клоновані NW. Наприклад, даний SSID, налаштований на зберігання в DD CT, відображатиметься як два окремі (але ідентичні) файли у звіті про розташування файлу DD:
5. Документація NetWorker просить, щоб пристрій рівня Cloud у майстрі NW був створений під тим самим сховищем, що й файли на активному рівні. Створення хмарного пристрою на іншому пристрої зберігання може призвести до того, що клони будуть виконані з використанням не "fastcopy", що призводить до набагато повільнішого часу клонування. Це відповідний розділ у документації NW:
https://www.dell.com/support/manuals/en-us/networker/nw_p_ddboostdedup_integration/configuring-networker-devices-for-dd-cloud-tier?guid=guid-680d906f-10c7-4266-822e-1a0f3ba3e201⟨=en-us
6. Одним із наслідків наведеного вище твердження з документації NW є те, що в налаштуваннях NetWorker / Data Domain з хмарним рівнем зазвичай усі дані зберігаються в одному сховищі в межах DD, і немає підтримуваного способу надсилання резервних зображень NW до двох окремих хмарних блоків. Конфігурація переміщення даних DD не може мати більше однієї політики для одного і того ж джерела Mtree, що може становити проблему в таких ситуаціях, як, наприклад, максимальна пропускна здатність першого хмарного блоку (див. нижче приклад):
DDBOOST Storage-Unit Show Type BoostFS ------------------------- Name Pre-Comp (GiB) Status User Report Physical BoostFS Size (MiB) -------------------- -------------- ------ ------------- --------------- ------- NW-STORAGE-UNIT 25680542.0 RW boostuser - no -------------------- -------------- ------ ------------- --------------- -------
2. У NetWorker кожна політика резервного копіювання зберігається під тим, що NetWorker називає "пристроєм". Пристрій — це просто підкаталог під коренем модуля зберігання даних, наприклад:
/data/col1/NW-STORAGE-UNIT/DAILY-DB-DEV01/00/80/ee140226-00000006-2b625ef6-66625ef6-0e095000-e36c9c56 /data/col1/NW-STORAGE-UNIT/DAILY-DB-DEV02/00/48/f8959462-00000006-3f775a89-66775a89-b8fa5000-e36c9c56 /data/col1/NW-STORAGE-UNIT/MONTHLY-DB-DEV01/03/93/30e0c543-00000006-3d5cac26-665cac26-f6f75000-e36c9c56 /data/col1/NW-STORAGE-UNIT/MONTHLY-FS-DEV06/92/30/05729157-00000006-cc5a6431-665a6431-9e685000-e36c9c56Тут політиками або пристроями будуть "DAILY-DB-DEV01", "DAILY-DB-DEV02", "MONTHLY-DB-DEV01" та "MONTHLY-FS-DEV06".
3. NW в кінцевому підсумку налаштовується для DD CT, і призводить до конфігурації переміщення даних, керованої програмами руху даних, у DD, як показано нижче:
Cloud Data-Movement Configuration --------------------------------- Mtree Target(Tier/Unit Name) Policy Value ------------------------------- ---------------------- ----------- ------- /data/col1/NW-STORAGE-UNIT Cloud/CLOUD-UNIT app-managed enabled ------------------------------- ---------------------- ----------- -------Для конфігурації переміщення даних DD в хмару береться вихідний MTree (NW storage unit), цільовий хмарний блок (CLOUD-UNIT) і політика, яка для NetWorker (і Avamar) повинна бути "app-managed", а не "вік-threshold", так як які файли переміщати в хмару визначаються (позначаються) NW, а не вибираються за віком самих файлів.
4. Принцип роботи NW для DD CT не «маркує» файли, які потрібно перемістити в хмару, на їх початковому місці: Коли клієнт встановлює NW для хмарного рівня, він повинен створити інший пристрій у тому самому сховищі, де файли, які будуть надіслані в хмару, спочатку будуть клоновані NW. Наприклад, даний SSID, налаштований на зберігання в DD CT, відображатиметься як два окремі (але ідентичні) файли у звіті про розташування файлу DD:
# filesys report generate file-location tiering -------------------------------- ---------------------- ----- --------------------------- File Name Location(Unit Name) Size Placement Time -------------------------------- ---------------------- ----- --------------------------- /data/col1/NW-STORAGE-UNIT/MONTHLY-FS-DEV05/85/72/365bdbce-00000006-3157c1bc-6657c1bc-32035000-e36c9c56 Active 1.15 TiB Thu May 30 04:00:59 2024 /data/col1/NW-STORAGE-UNIT/CLOUD-LONG-TERM-DEV04/85/72/365bdbce-00000006-3157c1bc-6657c1bc-32035000-e36c9c56 CLOUD-UNIT 1.15 TiB Sat Jun 1 11:13:33 2024З наведеної вище інформації видно, що:
- Резервне зображення з довгим SSID "365bdbce-00000006-3157c1bc-6657c1bc-32035000-e36c9c56" було записано на рівень DD Active і востаннє записано в "Чт травня 30 04:00:59 2024", під назвою пристрою "MONTHLY-FS-DEV05"
- Існує політика багаторівневого розподілу (з цільовим пристроєм) під назвою "CLOUD-LONG-TERM-DEV04/"
- Коли політика багаторівневості була запущена (це, швидше за все, станеться вже після завершення резервного копіювання) копія (клон) SSID була зроблена з оригінального пристрою на хмарний пристрій NW під назвою «CLOUD-LONG-TERM-DEV04»
- Зрештою було запущено рух даних DD, і клон оригінальної резервної копії було переміщено з Active до хмарного блоку, процес для файлу завершився "Сб 1 червня 11:13:33 2024"
- На момент збору наведеної вище інформації про розташування файлу існувала копія одного і того ж довгого SSID як на рівні Active, так і на рівні Cloud DD
- Термін дії NW закінчиться і ви видалите окремі копії, коли настане термін, теоретично, копія в активному рівні буде закінчена раніше, ніж копія в хмарі, яка повинна зберігатися довше (або в іншому випадку було б безглуздо відправляти цей резервний образ у хмару в першу чергу)
5. Документація NetWorker просить, щоб пристрій рівня Cloud у майстрі NW був створений під тим самим сховищем, що й файли на активному рівні. Створення хмарного пристрою на іншому пристрої зберігання може призвести до того, що клони будуть виконані з використанням не "fastcopy", що призводить до набагато повільнішого часу клонування. Це відповідний розділ у документації NW:
https://www.dell.com/support/manuals/en-us/networker/nw_p_ddboostdedup_integration/configuring-networker-devices-for-dd-cloud-tier?guid=guid-680d906f-10c7-4266-822e-1a0f3ba3e201⟨=en-us
Configuring NetWorker devices for DD Cloud Tier ----------------------------------------------- Use the Device Configuration Wizard to configure NetWorker devices for the DD Cloud Tier devices. The Data Domain devices that contain the source backup data must reside on the same mtree as the DD Cloud Tier device that will store the clone data. The storage node that manages the Data Domain devices must be a NetWorker 19.7 storage node.
6. Одним із наслідків наведеного вище твердження з документації NW є те, що в налаштуваннях NetWorker / Data Domain з хмарним рівнем зазвичай усі дані зберігаються в одному сховищі в межах DD, і немає підтримуваного способу надсилання резервних зображень NW до двох окремих хмарних блоків. Конфігурація переміщення даних DD не може мати більше однієї політики для одного і того ж джерела Mtree, що може становити проблему в таких ситуаціях, як, наприклад, максимальна пропускна здатність першого хмарного блоку (див. нижче приклад):
Active Tier: Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB* ---------------- -------- --------- --------- ---- -------------- /data: pre-comp - 8477328.0 - - - /data: post-comp 944180.2 769927.8 174252.4 82% 90605.3 ---------------- -------- --------- --------- ---- -------------- Cloud Tier unit-wise space usage -------------------------------- CLOUD-UNIT Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB ---------------- ---------- ---------- --------- ---- ------------- /data: pre-comp - 16935910.0 - - - /data: post-comp 1572768.4* 1572755.0 13.4 100% 0.0 ---------------- ---------- ---------- --------- ---- ------------- Cloud Data-Movement Configuration --------------------------------- Mtree Target(Tier/Unit Name) Policy Value ------------------------ ---------------------- ----------- ------- /data/col1/NW-STORAGE-UNIT Cloud/CLOUD-UNIT app-managed enabled ------------------------ ---------------------- ----------- -------
Resolution
7. Намагаючись подолати вищезазначене обмеження, клієнт може створити новий накопичувач NetWorker для майбутніх резервних копій. Або вони можуть зробити клони з існуючого сховища на пристрій у новому, пізніше додавши другу політику переміщення даних DD з нового сховища до нового хмарного блоку. Це закінчується конфігурацією, як показано нижче:
Окрім вимоги документації NW, проблема полягає в тому, що клонування буде повільним. Також, ви можете побачити щось подібне в DD SSP (system show performance):
Коли NW використовує "fastcopy" для клонів (що відбувається для клонів у межах одного сховища), ми не повинні бачити навантаження на читання. Тут ми бачимо це, тому що клонування між блоками зберігання здійснюється NW через "filecopy", а у випадку з цим прикладом все було навіть гірше, ніж це:
8. У випадку, як у прикладі (конфігурація NW з одним блоком зберігання даних і DD CT з уже заповненим хмарним блоком), правильна конфігурація для NW полягає в створенні нового хмарного блоку в DD.
Це дозволяє уникнути створення другого блоку зберігання даних у ДД і створити нову політику хмарного рівня в NW на інший пристрій у межах того ж існуючого сховища.
Потім змініть конфігурацію переміщення даних DD для майбутніх запусків переміщення даних, щоб мати новий хмарний блок як ціль.
Остаточна конфігурація на стороні ДД виглядає так:
Коли рух даних DD виконується за розкладом, усі файли в одному NW сховищі будуть перераховані та визначені, чи дозволені (позначені) для переміщення даних, і ще не в жодному хмарному блоці. Незалежно від того, в якій піддиректорії (пристрої) вони знаходяться в межах ДД, всі відмічені файли для переміщення даних не в хмарному блоці поки будуть окремо відправлені на цільовий хмарний блок (CLOUD-UNIT02) по черзі.
Після успішного копіювання файлу в хмару та перевірки за допомогою DD файл стає «встановленим», що означає, що DD змінює файловий CH (Content Handle) для позначення фізичного розташування файлу (щоб дозволити йому знайти дані для файлу на активному рівні або в будь-якому з двох хмарних блоків).
Коли пізніше програма резервного копіювання намагається прочитати або викликати файли в хмарі, фізичне розташування даних файлу є прозорим для NW, оскільки DD точно знає, звідки зчитувати дані. Це відокремлено від поточної конфігурації переміщення даних DD.
9. Нарешті, клієнт у прикладі не дотримувався документації NW на початку (зіткнувся з серйозними проблемами з продуктивністю клонів NW) і в результаті отримав якийсь SSID, який зберігався тричі (один раз в активному та один раз у кожному з двох хмарних блоків), що цілком нормально (хоча це може бути марною тратою місця залежно від налаштованих політик збереження) :
Є три копії одного і того ж файлу, дві з яких були переміщені в хмару, по одній на кожен з хмарних блоків.
Коли NW намагається прочитати з будь-якого з них, DD знає, де знаходиться кожен з них, і прозоро робить все необхідне, щоб доставити дані назад на NW без будь-якої різниці в порівнянні з ситуацією лише з активним рівнем.
Термін дії кожного з трьох файлів в кінцевому підсумку закінчується і видаляється NW.
Є три копії одного і того ж файлу, дві з яких були переміщені в хмару, по одній на кожен з хмарних блоків.
Коли NW намагається прочитати з будь-якого з них, DD точно знає, де знаходиться кожен з них, і прозоро зробить все необхідне, щоб доставити дані назад на NW без будь-якої різниці в порівнянні з ситуацією лише з активним рівнем.
Кожен з трьох файлів в кінцевому підсумку буде прострочений (і видалений) NW.
Cloud Unit List --------------- Name Profile Status Reason ------------ ------------------ ------ ------------------------------- CLOUD-UNIT CLOUD-UNIT_profile Active Cloud unit connected and ready. <<-- existing Cloud Unit CLOUD-UNIT02 CLOUD-UNIT_profile Active Cloud unit connected and ready. <<-- new Cloud Unit ------------ ------------------ ------ ------------------------------- Cloud Data-Movement Configuration --------------------------------- Mtree Target(Tier/Unit Name) Policy Value ------------------------------- ---------------------- ----------- ------- /data/col1/NW-STORAGE-UNIT Cloud/CLOUD-UNIT app-managed enabled /data/col1/NW-STORAGE-UNIT-NEW Cloud/CLOUD-UNIT02 app-managed enabled ------------------------------- ---------------------- ----------- -------
Окрім вимоги документації NW, проблема полягає в тому, що клонування буде повільним. Також, ви можете побачити щось подібне в DD SSP (system show performance):
-----------Throughput (MB/s)----------- ---------------Protocol----------------- Compression ------Cache Miss-------- -----------Streams----------- -MTree Active- ----State--- -----Utilization----- --Latency-- Repl Date Time Read Write Repl Network Repl Pre-comp ops/s load data(MB/s) wait(ms/MB) gcomp lcomp thra unus ovhd data meta rd/ wr/ r+/ w+/ in/ out rd/wr 'CDPVMSFIRL' CPU disk in ms stream ---------- -------- ----- ----- ----in/out--- ----in/out--- ----- --%-- --in/out--- --in/out--- ----- ----- ---- ---- ---- ---- ---- ----------------------------- -------------- ----------- -avg/max---- --max--- --avg/sdev- ----------- 2024/06/13 18:27:00 0.0 0.0 0.00/ 0.00 0.00/ 0.00 2 NaN% 0.00/ 0.00 20.97/ 37.46 1.7 1.7 0% 0% 21% 0% 2% 0/ 0/ 0/ 0/ 0/ 0 0/ 0 ---V---I--- 6%/ 8%[13] 7%[28] 2.1/ 7.5 116.0/ 2.2 2024/06/13 18:37:00 0.0 0.0 0.00/ 0.00 0.00/ 0.00 89 NaN% 0.01/ 0.01 19.45/ 68.12 2.8 2.1 0% 0% 21% 0% 1% 0/ 0/ 0/ 0/ 0/ 0 0/ 0 ---V---I--- 5%/ 6%[4] 7%[28] 0.7/ 3.7 115.8/ 3.0 2024/06/13 18:47:00 39.6 39.5 0.00/ 0.00 0.00/ 0.00 1160 NaN% 0.54/ 37.82 4.27/ 0.42 62.5 1.7 0% 0% 11% 0% 1% 1/ 1/ 0/ 0/ 0/ 0 1/ 1 ---V---I--- 5%/ 7%[4] 7%[28] 0.4/ 3.0 118.8/ 3.4 2024/06/13 18:57:00 215.5 215.5 0.00/ 0.00 0.00/ 0.00 825 NaN% 0.93/205.66 4.29/ 0.30 291.2 1.2 0% 0% 7% 0% 1% 1/ 1/ 0/ 0/ 0/ 0 1/ 1 ---V---I--- 7%/ 9%[14] 8%[28] 0.1/ 3.8 118.8/ 3.7 2024/06/13 19:07:00 223.9 223.9 0.00/ 0.00 0.00/ 0.00 856 NaN% 0.94/213.74 4.32/ 0.29 327.5 1.1 0% 0% 7% 0% 1% 1/ 1/ 0/ 0/ 0/ 0 1/ 1 ---V---I--- 7%/ 9%[14] 8%[28] 0.1/ 0.8 118.5/ 4.4 2024/06/13 19:17:00 218.5 218.5 0.00/ 0.00 0.00/ 0.00 1916 NaN% 1.01/208.56 5.34/ 0.32 278.3 1.3 0% 0% 9% 0% 1% 1/ 1/ 0/ 0/ 0/ 0 1/ 1 ---V---I--- 7%/ 9%[4] 8%[28] 0.2/ 3.7 118.2/ 3.6 2024/06/13 19:27:00 174.3 174.3 0.00/ 0.00 0.00/ 0.00 696 NaN% 2.25/166.37 2.02/ 0.30 64.7 1.5 0% 1% 19% 0% 1% 1/ 1/ 0/ 0/ 0/ 0 0/ 2 ---V---I--- 8%/ 12%[13] 9%[28] 0.4/ 6.5 121.5/ 4.6 2024/06/13 19:37:00 182.6 183.5 0.00/ 0.00 0.00/ 0.00 719 NaN% 5.40/174.31 1.24/ 0.29 34.8 1.1 2% 6% 28% 0% 3% 1/ 3/ 0/ 0/ 0/ 0 0/ 2 ---V---I--- 8%/ 11%[43] 12%[28] 0.3/ 6.0 121.8/ 6.9 ... 2024/06/20 15:39:00 150.4 293.6 0.00/ 0.00 0.00/ 0.00 6716 NaN% 25.47/146.12 1.39/ 0.59 11.8 1.0 1% 0% 19% 0% 4% 0/ 2/ 0/ 0/ 0/ 0 0/ 2 ---V---I--- 7%/ 13%[15] 5%[14] 0.2/ 1.0 119.2/ 4.0 2024/06/20 15:49:00 215.9 298.8 0.00/ 0.00 0.00/ 0.00 12448 NaN% 31.55/212.33 1.60/ 0.65 9.8 1.0 2% 0% 0% 0% 2% 0/ 2/ 0/ 0/ 0/ 0 0/ 2 ---V---I--- 8%/ 15%[15] 4%[21] 0.2/ 0.5 117.5/ 2.7 2024/06/20 15:59:00 186.5 344.3 0.00/ 0.00 0.00/ 0.00 1854 NaN% 24.07/178.14 1.04/ 0.33 14.6 1.0 5% 0% 21% 0% 2% 1/ 2/ 0/ 0/ 0/ 0 0/ 2 ---V---I--- 6%/ 14%[15] 5%[ 3] 0.4/ 4.4 119.2/ 2.3 2024/06/20 16:09:00 205.3 426.2 0.00/ 0.00 0.00/ 0.00 808 NaN% 18.73/196.08 1.09/ 0.30 24.4 1.0 4% 5% 27% 0% 3% 0/ 2/ 0/ 0/ 0/ 0 0/ 2 ---V---I--- 6%/ 14%[47] 5%[ 3] 0.3/ 0.3 117.5/ 2.6 2024/06/20 16:19:00 211.7 399.3 0.00/ 0.00 0.00/ 0.00 843 NaN% 17.86/202.10 1.09/ 0.29 23.5 1.0 2% 0% 0% 0% 2% 1/ 2/ 0/ 0/ 0/ 0 0/ 2 ---V---I--- 6%/ 13%[15] 3%[ 3] 0.3/ 4.8 119.2/ 1.8 ... 2024/06/23 18:21:00 470.3 484.6 0.00/ 0.00 0.00/ 0.00 1807 NaN% 9.85/448.86 2.59/ 0.30 50.2 1.1 1% 21% 34% 0% 0% 4/ 5/ 0/ 0/ 0/ 0 0/ 2 ---V---I--- 7%/ 11%[9] 9%[13] 0.2/ 1.5 126.8/ 8.8 2024/06/23 18:31:00 477.2 494.6 0.00/ 0.00 0.00/ 0.00 1846 NaN% 8.99/455.44 2.69/ 0.29 57.3 1.1 1% 13% 27% 0% 0% 4/ 5/ 0/ 0/ 0/ 0 0/ 2 -------I--- 5%/ 9%[0] 7%[17] 0.2/ 1.7 127.0/ 6.8 2024/06/23 18:41:00 458.9 481.3 0.00/ 0.00 0.00/ 0.00 2913 NaN% 10.17/438.07 2.57/ 0.30 48.3 1.1 1% 12% 28% 0% 0% 4/ 5/ 0/ 0/ 0/ 0 0/ 2 -------I--- 5%/ 8%[0] 7%[ 3] 0.2/ 1.2 127.0/ 5.8 2024/06/23 18:51:00 468.7 481.2 0.00/ 0.00 0.00/ 0.00 1807 NaN% 10.60/447.40 2.27/ 0.29 46.5 1.1 1% 19% 34% 0% 1% 4/ 5/ 0/ 0/ 0/ 0 0/ 2 -------I--- 7%/ 9%[9] 9%[ 3] 0.2/ 1.5 127.0/ 5.6 2024/06/23 19:01:00 474.0 485.5 0.00/ 0.00 0.00/ 0.00 1814 NaN% 14.32/452.44 1.99/ 0.29 33.6 1.1 2% 26% 39% 0% 0% 4/ 5/ 0/ 0/ 0/ 0 0/ 2 ---V---I--- 6%/ 10%[15] 11%[ 3] 0.2/ 1.5 126.2/ 6.4
Коли NW використовує "fastcopy" для клонів (що відбувається для клонів у межах одного сховища), ми не повинні бачити навантаження на читання. Тут ми бачимо це, тому що клонування між блоками зберігання здійснюється NW через "filecopy", а у випадку з цим прикладом все було навіть гірше, ніж це:
06/19 08:24:14.178358 [7fbbf6b4a390] ddboost-<nw-node1.example.com-52424>: JOB START IMAGE_READ ip=10.20.30.40 pid=1727382 cd=1 enc=off //NW-STORAGE-UNIT/MONTHLY-FS-DEV06/03/54/d2b98e7a-00000006-4f5a1067-665a1067-88e55000-e36c9c56 06/19 08:24:14.286608 [7facd6691b70] ddboost-<nw-node2.example.com-58788>: JOB START IMAGE_WRITE ip=10.20.30.40 pid=18392 cd=1 enc=off //NW-STORAGE-UNIT-CT/CLOUD-LONG-TERM02-DEV07/03/54/d2b98e7a-00000006-4f5a1067-665a1067-88e55000-e36c9c56Тут відбувається клон для SSID "d2b98e7a-00000006-4f5a1067-665a1067-88e55000-e36c9c56":
- З пристрою "MONTHLY-FS-DEV06" у вихідному сховищі з іменем (NW-STORAGE-UNIT), завдання ЧИТАННЯ виконується з вузла NW з іменем "nw-node1.example.com"
- На пристрій з іменем "CLOUD-LONG-TERM02-DEV07" під новим накопичувачем (NW-STORAGE-UNIT-CT) виконується завдання WRITE на вузол NW з іменем "nw-node2.example.com"
8. У випадку, як у прикладі (конфігурація NW з одним блоком зберігання даних і DD CT з уже заповненим хмарним блоком), правильна конфігурація для NW полягає в створенні нового хмарного блоку в DD.
Це дозволяє уникнути створення другого блоку зберігання даних у ДД і створити нову політику хмарного рівня в NW на інший пристрій у межах того ж існуючого сховища.
Потім змініть конфігурацію переміщення даних DD для майбутніх запусків переміщення даних, щоб мати новий хмарний блок як ціль.
Остаточна конфігурація на стороні ДД виглядає так:
Cloud Unit List --------------- Name Profile Status Reason ------------ ------------------ ------ ------------------------------- CLOUD-UNIT CLOUD-UNIT_profile Active Cloud unit connected and ready. <<-- existing Cloud Unit CLOUD-UNIT02 CLOUD-UNIT_profile Active Cloud unit connected and ready. <<-- new Cloud Unit ------------ ------------------ ------ ------------------------------- Cloud Data-Movement Configuration --------------------------------- Mtree Target(Tier/Unit Name) Policy Value ------------------------------- ---------------------- ----------- ------- /data/col1/NW-STORAGE-UNIT Cloud/CLOUD-UNIT02 app-managed enabled <<-- target cloud unit changed from "CLOUD-UNIT" ------------------------------- ---------------------- ----------- -------Коли виконуються як існуючі, так і нові багаторівневі політики NW, вони створять клони збережень, які будуть відправлені в хмару, і клони будуть зроблені в межах одного сховища під іншим пристроєм (підкаталогом), а файли в NW «хмарні пристрої» будуть позначені для переміщення даних.
Коли рух даних DD виконується за розкладом, усі файли в одному NW сховищі будуть перераховані та визначені, чи дозволені (позначені) для переміщення даних, і ще не в жодному хмарному блоці. Незалежно від того, в якій піддиректорії (пристрої) вони знаходяться в межах ДД, всі відмічені файли для переміщення даних не в хмарному блоці поки будуть окремо відправлені на цільовий хмарний блок (CLOUD-UNIT02) по черзі.
Після успішного копіювання файлу в хмару та перевірки за допомогою DD файл стає «встановленим», що означає, що DD змінює файловий CH (Content Handle) для позначення фізичного розташування файлу (щоб дозволити йому знайти дані для файлу на активному рівні або в будь-якому з двох хмарних блоків).
Коли пізніше програма резервного копіювання намагається прочитати або викликати файли в хмарі, фізичне розташування даних файлу є прозорим для NW, оскільки DD точно знає, звідки зчитувати дані. Це відокремлено від поточної конфігурації переміщення даних DD.
9. Нарешті, клієнт у прикладі не дотримувався документації NW на початку (зіткнувся з серйозними проблемами з продуктивністю клонів NW) і в результаті отримав якийсь SSID, який зберігався тричі (один раз в активному та один раз у кожному з двох хмарних блоків), що цілком нормально (хоча це може бути марною тратою місця залежно від налаштованих політик збереження) :
-------------------------------- ---------------------- ----- --------------------------- File Name Location(Unit Name) Size Placement Time -------------------------------- ---------------------- ----- --------------------------- /data/col1/NW-STORAGE-UNIT/MONTHLY-FS-DEV05/85/72/365bdbce-00000006-3157c1bc-6657c1bc-32035000-e36c9c56 Active 1.15 TiB Thu May 30 04:00:59 2024 /data/col1/NW-STORAGE-UNIT/CLOUD-LONG-TERM-DEV04 /85/72/365bdbce-00000006-3157c1bc-6657c1bc-32035000-e36c9c56 CLOUD-UNIT 1.15 TiB Sat Jun 1 11:13:33 2024 /data/col1/NW-STORAGE-UNIT-CT/CLOUD-LONG-TERM02-DEV07/85/72/365bdbce-00000006-3157c1bc-6657c1bc-32035000-e36c9c56 CLOUD-UNIT02 1.15 TiB Tue Jun 18 10:49:10 2024
Є три копії одного і того ж файлу, дві з яких були переміщені в хмару, по одній на кожен з хмарних блоків.
Коли NW намагається прочитати з будь-якого з них, DD знає, де знаходиться кожен з них, і прозоро робить все необхідне, щоб доставити дані назад на NW без будь-якої різниці в порівнянні з ситуацією лише з активним рівнем.
Термін дії кожного з трьох файлів в кінцевому підсумку закінчується і видаляється NW.
Є три копії одного і того ж файлу, дві з яких були переміщені в хмару, по одній на кожен з хмарних блоків.
Коли NW намагається прочитати з будь-якого з них, DD точно знає, де знаходиться кожен з них, і прозоро зробить все необхідне, щоб доставити дані назад на NW без будь-якої різниці в порівнянні з ситуацією лише з активним рівнем.
Кожен з трьох файлів в кінцевому підсумку буде прострочений (і видалений) NW.
Affected Products
Data DomainArticle Properties
Article Number: 000226881
Article Type: Solution
Last Modified: 19 Aug 2024
Version: 2
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.