Data Domain: Como resolver problemas relacionados à alta utilização de espaço ou à falta de capacidade disponível em DDRs (restauradores do Data Domain)
Сводка: Este artigo apresenta um procedimento passo a passo para ajudá-lo a resolver problemas relacionados à alta utilização de espaço ou à falta de capacidade disponível em DDRs (restauradores do Data Domain) ...
Данная статья применяется к
Данная статья не применяется к
Эта статья не привязана к какому-либо конкретному продукту.
В этой статье указаны не все версии продуктов.
Симптомы
Todos os restauradores do Data Domain (DDRs) contêm um pool/área de armazenamento conhecido como "nível ativo":
- Essa é a área do disco onde residem os arquivos/dados recém-incluídos e, na maioria dos DDRs, os arquivos permanecem nela até que eles expirem/sejam excluídos por um aplicativo de backup do client
- Nos DDRs configurados com retenção estendida (ER) ou retenção a longo prazo (LTR), periodicamente, o processo de movimentação de dados pode ser executado para migrar arquivos antigos do nível ativo para os níveis de arquivamento ou de nuvem
- A única maneira de recuperar o espaço do nível ativo que foi usado pelos arquivos excluídos/migrados é executando o processo de coleta de lixo/limpeza (GC)
A utilização atual do nível ativo pode ser exibida com os comandos 'filesys show space' ou 'df':
# df
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 33098.9 - - -
/data: post-comp 65460.3 518.7 64941.6 1% 0.0
/ddvar 29.5 19.7 8.3 70% -
/ddvar/core 31.5 0.2 29.7 1% -
---------------- -------- -------- --------- ---- --------------
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 33098.9 - - -
/data: post-comp 65460.3 518.7 64941.6 1% 0.0
/ddvar 29.5 19.7 8.3 70% -
/ddvar/core 31.5 0.2 29.7 1% -
---------------- -------- -------- --------- ---- --------------
Observe que, se configurado, os detalhes dos níveis de arquivamento/nuvem serão exibidos abaixo do nível ativo.
A utilização do nível ativo precisa ser cuidadosamente gerenciada, caso contrário, pode ocorrer o seguinte:
- O nível ativo pode começar a ficar sem espaço disponível, causando a exibição de alertas/mensagens como os seguintes:
EVT-SPACE-00004: O uso de espaço da coleta de dados ultrapassou o limite de 95%.
- Se o nível ativo ficar 100% completo, dados novos não poderão ser gravados no DDR, o que pode fazer com que os backups/a replicação apresentem falha. Neste cenário, podem ser exibidos alertas/mensagens como estes:
CRITICAL: MSG-CM-00002: /../vpart:/vol1/col1/cp1/cset: Container set [ID do conjunto de contêineres] out of space
- Em algumas circunstâncias, o fato de o nível ativo ficar cheio poderá tornar o Data Domain File System (DDFS) somente leitura. Nesse ponto, os arquivos existentes não poderão ser excluídos
Este artigo da base de conhecimento tenta:
- Explicar por que o nível ativo pode ficar cheio
- Descrever um conjunto simples de verificações que podem ser realizadas para determinar a causa da alta utilização do nível ativo e as etapas corretivas correspondentes
Observe que:
- este artigo não é completo (por exemplo, pode haver um número reduzido de situações em que o nível ativo de um DDR se torna altamente utilizado/completo por um motivo não discutido neste documento). No entanto, ele aborda as causas e problemas mais comuns
- Este artigo não abrange a alta utilização de níveis de nuvem ou de arquivamento
Причина
- Os arquivos de backup/savesets não estão sendo expirados/excluídos corretamente por aplicativos de backup do client devido a uma configuração do aplicativo de backup ou política de retenção incorreta
- Um atraso na replicação faz com que um grande volume de dados antigos seja mantido no nível ativo e a replicação para réplicas fica pendente
- Os dados que estão sendo gravados no nível ativo têm uma taxa de compactação geral menor que a esperada
- O sistema não foi dimensionado corretamente, por exemplo, ele é muito pequeno para o volume de dados a ser armazenado nele
- Os backups consistem em vários arquivos muito pequenos, e esses arquivos consomem muito mais espaço do que o esperado quando são gravados inicialmente. No entanto, esse espaço deve ser recuperado durante a coleta de lixo/limpeza
- A movimentação de dados não é executada regularmente em sistemas configurados com ER/LTR, o que faz com que os arquivos antigos sejam migrados para os níveis de arquivamento/nuvem para permanecerem no nível ativo
- A limpeza/coleta de lixo não está sendo executada regularmente
- Snapshots de mtree excessivos ou antigos existentes no DDR estão impedindo a limpeza do espaço de recuperação de dados/arquivos excluídos
Разрешение
Etapa 1 - Determinar se a limpeza do nível ativo precisa ser executada
O Data Domain Operating System (DDOS) tenta manter um contador chamado "Cleanable GiB" para o nível ativo. Ele é uma estimativa da quantidade de espaço físico (pós-compactação) que poderia ser recuperada no nível ativo por meio da execução de limpeza/coleta de lixo. Esse contador é mostrado pelos comandos 'filesys show space'/'df':
Se:
Para confirmar se a limpeza foi iniciada como esperado, o comando 'filesys status' pode ser usado, por exemplo:
Observe que:
Se necessário, defina um agendamento de limpeza de nível ativo. Por exemplo, para execução da limpeza todas as terças-feiras às 6:00:
# filesys clean set schedule Tue 0600
A limpeza do sistema de arquivos está agendada para ser executada às "terças-feiras" às "06:00".
Observe que, em sistemas configurados com retenção estendida (ER), a limpeza pode ser configurada para ser executada após a conclusão da movimentação de dados e pode não ter seu próprio agendamento separado. Esse cenário é abordado no final deste documento
Depois que a limpeza tiver sido concluída, use os comandos 'filesys show space'/'df' para determinar se os problemas de utilização foram resolvidos. Se a utilização ainda estiver alta, siga as etapas restantes deste artigo.
Etapa 2 - Verificar se há grandes quantidades de atraso de replicação em relação aos contextos de replicação de origem
A replicação nativa do Data Domain foi projetada com base no conceito de "contextos de replicação". Por exemplo, quando os dados precisam ser replicados entre sistemas:
Para determinar se os contextos de replicação estão atrasados, as etapas a seguir devem ser realizadas:
Contextos para os quais o sistema atual é a origem e que exibem atrasos significativos ou contextos que não são mais necessários devem ser interrompidos. Isso pode ser feito executando o seguinte comando nos sistemas de origem e de destino:
Por exemplo, para interromper os contextos "interessantes" mostrados acima, os seguintes comandos seriam executados na origem e no destino:
Observe que:
O conteúdo do DDFS é dividido logicamente em mtrees. É comum que os clients/aplicativos de backup individuais gravem em uma mtree individual. Se um aplicativo de backup for desativado, ele não poderá mais gravar/excluir dados do DDR, o que pode deixar mtrees antigas/supérfluas no sistema. Os dados nessas mtrees continuarão a existir indefinidamente usando espaço em disco no DDR. Como resultado, qualquer mtree supérflua deve ser excluída. Por exemplo:
Por exemplo:
# mtree delete /data/col1/Budu_test
Um snapshot do Data Domain representa um snapshot pontual da mtree correspondente. Como resultado:
Ao executar em uma mtree sem snapshots, o seguinte será exibido:
Ao executar em uma mtree com snapshots, o seguinte será exibido:
Esses snapshots devem ser expirados para que possam ser removidos quando a limpeza for executada e o espaço que eles ocupam em disco seja liberado:
# snapshot expire [nome do snapshot] mtree [nome da mtree]
Por exemplo:
Observe que:
Os Autosupports do DDR contêm histogramas que mostram a divisão dos arquivos no DDR por data de criação. Por exemplo:
Isso pode ser útil para determinar se há arquivos no sistema que ainda não foram expirados/excluídos conforme esperado pelo aplicativo de backup do client. Por exemplo, se o sistema acima tiver sido gravado por um aplicativo de backup em que o período de retenção máximo para qualquer arquivo era de 6 meses, é óbvio que o aplicativo de backup não está expirando/excluindo arquivos conforme o esperado, pois há aproximadamente 80.000 arquivos com mais de 6 meses no DDR.
Observe que:
Se necessário, o suporte do Data Domain pode oferecer outros relatórios para:
Etapa 6 - Verificar se há backups que incluam um grande número de arquivos pequenos
Devido ao design do DDFS, os arquivos pequenos (essencialmente, qualquer arquivo que seja menor do que aproximadamente 10 MB) podem consumir espaço excessivo quando gravados inicialmente no DDR. Isso acontece porque a arquitetura "SISL" (Stream Informed Segment Layout) faz com que os arquivos pequenos consumam vários blocos individuais de 4,5 MB de espaço em disco. Por exemplo, um arquivo de 4 KB pode consumir até 9 MB de espaço em disco físico quando gravado inicialmente.
Esse espaço excessivo é recuperado subsequentemente quando a coleta de lixo/limpeza é executada (porque os dados de arquivos pequenos são agregados em um número menor de blocos de 4,5 MB). Mas isso pode fazer com que modelos menores do DDR gerem utilização e preenchimento excessivos quando esses backups são executados.
Os autosupports contêm histogramas de arquivos divididos por tamanho, por exemplo:
Se houver evidências de backups gravando números muito grandes de arquivos pequenos, o sistema pode ser afetado por aumentos temporários significativos na utilização entre cada invocação de coleta de lixo/limpeza. Nesse cenário, é preferível alterar a metodologia de backup para incluir todos os arquivos pequenos em um único arquivamento maior (como um arquivo tar) antes de gravá-los no DDR. Observe que os arquivamentos não devem ser compactados ou criptografados (porque isso danificará a taxa de compactação/desduplicação dos dados).
Etapa 7 - Verificar se a taxa de desduplicação é menor que a esperada
O principal objetivo de um DDR é desduplicar e compactar os dados incluídos pelo dispositivo. A taxa de desduplicação/compactação depende bastante do caso de uso do sistema e do tipo de dados que ele contém. No entanto, em muitos casos, haverá uma taxa de compactação geral "esperada" com base nos resultados obtidos pelo teste de prova de conceito ou semelhante. Para determinar a taxa de compactação geral atual do sistema (e, portanto, se ela está atendendo às expectativas), o comando 'filesys show compression' pode ser usado. Por exemplo:
No exemplo acima, o sistema está atingindo uma taxa de compactação geral de 65,3 x para o nível ativo (o que é muito bom). Se, no entanto, esse valor mostrar que a taxa de compactação geral não está atendendo às expectativas, provavelmente será necessário realizar uma investigação mais profunda. Observe que a investigação de uma taxa de compactação menor que a esperada é um assunto complexo que pode ter muitas causas raíz. Para obter mais informações sobre como fazer essa investigação, consulte este artigo: https://support.emc.com/kb/487055
Etapa 8 - Verificar se o sistema é uma origem de replicação de conjunto
Ao usar a replicação de conjunto, se o sistema de origem for fisicamente maior do que o destino, o tamanho do sistema de origem será artificialmente limitado para corresponder ao do destino (por exemplo, uma área de disco na origem será marcada como inutilizável). Isso ocorre porque, ao usar a replicação de conjunto, o destino precisa ser uma cópia em nível de bloco da origem. No entanto, se a origem for fisicamente maior do que o destino, os dados excessivos poderão ser gravados na origem, mas não replicados para o destino (já que ele já está cheio). Esse cenário é evitado com a limitação do tamanho da origem para corresponder ao destino.
Assim que uma dessas alterações tiver sido realizada, o espaço adicional será disponibilizado imediatamente no nível ativo do sistema de origem (por exemplo, não é necessário executar a coleta de lixo/limpeza do nível ativo antes de usar esse espaço)
Etapa 9 - Verificar se a movimentação de dados está sendo executada regularmente
Se o DDR estiver configurado com retenção estendida (ER) ou retenção a longo prazo (LTR), ele terá um segundo nível de armazenamento conectado (nível de arquivamento para ER ou nível da nuvem para LTR). Nesse cenário, as políticas de movimentação de dados provavelmente são configuradas em relação às mtrees para migrar dados mais antigos/não modificados que exigem retenção a longo prazo do nível ativo para o nível alternativo de armazenamento, de forma que o espaço utilizado por esses arquivos no nível ativo possa ser fisicamente recuperado pela coleta de lixo/limpeza. Se as políticas de movimentação de dados forem configuradas incorretamente ou se o processo de movimentação de dados não for executado regularmente, os dados antigos permanecerão no nível ativo por mais tempo do que o esperado e continuarão a usar o espaço físico no disco.
Observe que ER e LTR são mutuamente exclusivos. Dessa forma, um sistema conterá apenas um nível ativo (não configurado com ER/LTR) ou um nível ativo e de arquivamento (configurado com ER) ou um nível ativo e da nuvem (configurado com LTR )
Se as políticas de movimentação de dados estiverem incorretas/ausentes, elas deverão ser corrigidas. Consulte o Guia do Administrador do Data Domain para obter assistência sobre como fazer isso
O Data Domain recomenda a execução da movimentação de dados por meio de um agendamento automatizado. No entanto, alguns clientes preferem executar esse processo de maneira ad-hoc (por exemplo, quando necessário). Nesse cenário, a movimentação de dados deve ser iniciada regularmente com a execução de:
Para obter mais informações sobre a modificação do agendamento da movimentação de dados, consulte o Guia do Administrador do Data Domain
Se a movimentação de dados não tiver sido executada por algum tempo, tente iniciar o processo manualmente e, em seguida, faça o monitoramento da seguinte maneira:
Se a movimentação de dados não for iniciada por qualquer motivo, entre em contato com o fornecedor de suporte contratado para obter assistência adicional.
Em sistemas com LTR, a limpeza do nível ativo ainda deve ser configurada com seu próprio agendamento
Etapa 10 - Adicionar mais armazenamento ao nível ativo
Se todas as etapas anteriores tiverem sido realizadas, a limpeza do nível ativo tiver sido concluída e, mesmo assim, não houver espaço suficiente disponível no nível ativo, é provável que o sistema não tenha sido dimensionado corretamente para a carga de trabalho que está recebendo. Nesse caso, realize uma das seguintes ações:
Para falar sobre a adição de armazenamento, entre em contato com a equipe da conta de vendas.
O Data Domain Operating System (DDOS) tenta manter um contador chamado "Cleanable GiB" para o nível ativo. Ele é uma estimativa da quantidade de espaço físico (pós-compactação) que poderia ser recuperada no nível ativo por meio da execução de limpeza/coleta de lixo. Esse contador é mostrado pelos comandos 'filesys show space'/'df':
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- --------- --------- ---- --------------
/data: pre-comp - 7259347.5 - - -
/data: post-comp 304690.8 251252.4 53438.5 82% 51616.1 <=== NOTE
/ddvar 29.5 12.5 15.6 44% -
---------------- -------- --------- --------- ---- --------------
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- --------- --------- ---- --------------
/data: pre-comp - 7259347.5 - - -
/data: post-comp 304690.8 251252.4 53438.5 82% 51616.1 <=== NOTE
/ddvar 29.5 12.5 15.6 44% -
---------------- -------- --------- --------- ---- --------------
Se:
- O valor de 'Cleanable GiB' for grande
- O DDFS tiver ficado 100% cheio (ficando, portanto, somente leitura)
# filesys clean start
Limpeza iniciada. Use 'filesys clean watch' para monitorar o andamento.
Limpeza iniciada. Use 'filesys clean watch' para monitorar o andamento.
Para confirmar se a limpeza foi iniciada como esperado, o comando 'filesys status' pode ser usado, por exemplo:
# filesys status
The filesystem is enabled and running.
Cleaning started at 2017/05/19 18:05:58: phase 1 of 12 (pre-merge)
50.6% complete, 64942 GiB free; time: phase 0:01:05, total 0:01:05
The filesystem is enabled and running.
Cleaning started at 2017/05/19 18:05:58: phase 1 of 12 (pre-merge)
50.6% complete, 64942 GiB free; time: phase 0:01:05, total 0:01:05
Observe que:
- Se a limpeza não for iniciada, entre em contato com o fornecedor de suporte contratado para obter assistência adicional. Isso pode indicar que o sistema encontrou um "erro de segmento ausente", causando a desativação da limpeza
- Se a limpeza já estiver em execução, a mensagem a seguir será exibida quando você tentar iniciá-la:
**** Cleaning already in progress. Use 'filesys clean watch' para monitorar o andamento.
- Nenhum espaço no nível ativo será liberado/recuperado até que a limpeza atinja a fase de cópia (por padrão, fase 9 no DDOS 5.4.x e anteriores, fase 11 no DDOS 5.5.x e posteriores). Para obter mais informações sobre as fases usadas pela limpeza, consulte: https://support.emc.com/kb/446734
- A limpeza pode não recuperar a quantidade de espaço indicada por 'Cleanable GiB', pois esse valor é apenas uma estimativa. Para obter mais informações sobre isso, consulte: https://support.emc.com/kb/485637
- A limpeza pode não recuperar todo o espaço possível em uma única execução. Isso ocorre porque, em DDRs que contêm conjuntos de dados muito grandes, a limpeza ocorre em relação à porção do sistema de arquivos que contém os dados mais supérfluos (por exemplo, para oferecer melhor resultado de liberação de espaço pelo tempo necessário para a execução da limpeza). Em alguns cenários, a limpeza pode precisar ser executada várias vezes antes que todo o espaço possível seja recuperado
- Se o valor de 'Cleanable GiB' era muito grande, isso pode indicar que a limpeza não foi executada em intervalos regulares. Verifique se um agendamento de limpeza foi definido:
# filesys clean show schedule
Se necessário, defina um agendamento de limpeza de nível ativo. Por exemplo, para execução da limpeza todas as terças-feiras às 6:00:
# filesys clean set schedule Tue 0600
A limpeza do sistema de arquivos está agendada para ser executada às "terças-feiras" às "06:00".
Observe que, em sistemas configurados com retenção estendida (ER), a limpeza pode ser configurada para ser executada após a conclusão da movimentação de dados e pode não ter seu próprio agendamento separado. Esse cenário é abordado no final deste documento
Depois que a limpeza tiver sido concluída, use os comandos 'filesys show space'/'df' para determinar se os problemas de utilização foram resolvidos. Se a utilização ainda estiver alta, siga as etapas restantes deste artigo.
Etapa 2 - Verificar se há grandes quantidades de atraso de replicação em relação aos contextos de replicação de origem
A replicação nativa do Data Domain foi projetada com base no conceito de "contextos de replicação". Por exemplo, quando os dados precisam ser replicados entre sistemas:
- Os contextos de replicação são criados nos DDRs de origem e de destino
- Os contextos são inicializados
- Quando a inicialização for concluída, a replicação enviará periodicamente atualizações/deltas da origem para o destino para manter os dados sincronizados nos sistemas
- Contextos de replicação de diretório (usados durante a replicação de uma única árvore de diretório em /data/col1/backup entre sistemas):
A replicação de diretório usa um log de replicação no DDR de origem para rastrear arquivos pendentes que ainda não foram replicados para o destino
Se um contexto de replicação de diretório estiver atrasado, o log de replicação no DDR de origem rastreará um grande número de arquivos que estão com replicação pendente
Mesmo se esses arquivos forem excluídos, embora o log de replicação continue fazendo referência a eles, a limpeza não será capaz de recuperar o espaço em disco usado por esses arquivos
Se um contexto de replicação de diretório estiver atrasado, o log de replicação no DDR de origem rastreará um grande número de arquivos que estão com replicação pendente
Mesmo se esses arquivos forem excluídos, embora o log de replicação continue fazendo referência a eles, a limpeza não será capaz de recuperar o espaço em disco usado por esses arquivos
- Contextos de replicação de mtree (usados durante a replicação de qualquer mtree diferente de /data/col1/backup entre os sistemas):
A replicação de mtree usa snapshots criados em sistemas de origem e destino para determinar as diferenças entre sistemas e, portanto, quais arquivos precisam ser enviados da origem para o destino
Caso um contexto de replicação de mtree esteja atrasado, a mtree correspondente pode gerar snapshots muito antigos nos sistemas de origem e destino
Mesmo se os arquivos forem da mtree replicada no sistema de origem, se esses arquivos existiam quando os snapshots de replicação de mtree foram criados no sistema, a limpeza não será capaz de recuperar o espaço em disco usado por esses arquivos
Caso um contexto de replicação de mtree esteja atrasado, a mtree correspondente pode gerar snapshots muito antigos nos sistemas de origem e destino
Mesmo se os arquivos forem da mtree replicada no sistema de origem, se esses arquivos existiam quando os snapshots de replicação de mtree foram criados no sistema, a limpeza não será capaz de recuperar o espaço em disco usado por esses arquivos
- Contextos de replicação de conjunto (usados durante a replicação de todo o conteúdo de um DDR para outro sistema):
A replicação de conjunto realiza a replicação "baseada em blocos" de todos os dados de um sistema de origem para um sistema de destino
Se uma replicação de conjunto estiver atrasada, a limpeza no sistema de origem não será capaz de operar de modo ideal. Neste cenário, um alerta será gerado na origem, indicando que uma limpeza parcial está sendo realizada para evitar o uso da sincronização com o sistema de destino
Portanto, a limpeza não poderá recuperar o espaço esperado no DDR de origem
Se uma replicação de conjunto estiver atrasada, a limpeza no sistema de origem não será capaz de operar de modo ideal. Neste cenário, um alerta será gerado na origem, indicando que uma limpeza parcial está sendo realizada para evitar o uso da sincronização com o sistema de destino
Portanto, a limpeza não poderá recuperar o espaço esperado no DDR de origem
Para determinar se os contextos de replicação estão atrasados, as etapas a seguir devem ser realizadas:
- Determine o nome do host do sistema atual:
sysadmin@dd4200# hostname
O nome do host é: dd4200.ddsupport.emea
O nome do host é: dd4200.ddsupport.emea
- Determine a data/hora do sistema atual:
sysadmin@dd4200# date
Fri May 19 19:04:06 IST 2017
Fri May 19 19:04:06 IST 2017
- Liste os contextos de replicação configurados no sistema, juntamente com o "horário da última sincronização". Observe que contextos de interesse são aqueles em que o "destino" não contém o nome do host do sistema atual (que indica que o sistema atual é a origem) e o "horário da última sincronização" é significativamente antigo:
sysadmin@dd4200# replication status
CTX Destination Enabled Connection Sync'ed-as-of-time Tenant-Unit
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
3 mtree://dd4200.ddsupport.emea/data/col1/DFC no idle Thu Jan 8 08:58 - <=== NOT INTERESTING - CURRENT SYSTEM IS THE DESTINATION
9 mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree no idle Mon Jan 25 14:48 - <=== INTERESTING - LAGGING AND CURRENT SYSTEM IS THE SOURCE
13 dir://DD2500-1.ddsupport.emea/backup/dstfolder no disconnected Thu Mar 30 17:55 - <=== INTERESTING - LAGGING AND CURRENT SYSTEM IS THE SOURCE
17 mtree://DD2500-1.ddsupport.emea/data/col1/oleary yes idle Fri May 19 18:57 - <=== NOT INTERESTING - CONTEXT IS UP TO DATE
18 mtree://dd4200.ddsupport.emea/data/col1/testfast yes idle Fri May 19 19:18 - <=== NOT INTERESTING - CONTEXT IS UP TO DATE
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
CTX Destination Enabled Connection Sync'ed-as-of-time Tenant-Unit
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
3 mtree://dd4200.ddsupport.emea/data/col1/DFC no idle Thu Jan 8 08:58 - <=== NOT INTERESTING - CURRENT SYSTEM IS THE DESTINATION
9 mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree no idle Mon Jan 25 14:48 - <=== INTERESTING - LAGGING AND CURRENT SYSTEM IS THE SOURCE
13 dir://DD2500-1.ddsupport.emea/backup/dstfolder no disconnected Thu Mar 30 17:55 - <=== INTERESTING - LAGGING AND CURRENT SYSTEM IS THE SOURCE
17 mtree://DD2500-1.ddsupport.emea/data/col1/oleary yes idle Fri May 19 18:57 - <=== NOT INTERESTING - CONTEXT IS UP TO DATE
18 mtree://dd4200.ddsupport.emea/data/col1/testfast yes idle Fri May 19 19:18 - <=== NOT INTERESTING - CONTEXT IS UP TO DATE
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
Contextos para os quais o sistema atual é a origem e que exibem atrasos significativos ou contextos que não são mais necessários devem ser interrompidos. Isso pode ser feito executando o seguinte comando nos sistemas de origem e de destino:
# replication break [destino]
Por exemplo, para interromper os contextos "interessantes" mostrados acima, os seguintes comandos seriam executados na origem e no destino:
(dd4200.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(BenDDVE.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(BenDDVE.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(dd4200.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
(DD2500-1.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
(DD2500-1.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
Observe que:
- quando os contextos forem interrompidos, a limpeza do nível ativo precisará ser realizada para recuperar o espaço possível no nível ativo
- Se a replicação de mtree for usada quando os contextos forem interrompidos, os snapshots de replicação de mtree poderão permanecer no disco. Siga a Etapa 5 para expirar os snapshots supérfluos antes de executar a limpeza
- Se a mtree de origem/destino estiver configurada para migrar dados para níveis de arquivamento ou nuvem, é preciso tomar cuidado ao interromper os contextos de replicação de mtree correspondentes, pois esses contextos podem não ser recriados/inicializados novamente no futuro. Isso acontece porque quando um contexto de replicação de mtree é inicializado, um snapshot de mtree é criado no sistema de origem e contém detalhes de todos os arquivos na mtree (independentemente do nível). Em seguida, esse snapshot é replicado de modo completo para o nível ativo de destino. Como resultado, se o nível ativo de destino não tiver espaço livre suficiente para incluir todos os dados da mtree de origem, a inicialização não poderá ser concluída. Para obter mais informações sobre esse problema, entre em contato com o fornecedor de suporte contratado
- Se um contexto de replicação de conjunto for interrompido, o contexto não poderá ser recriado/inicializado sem primeiro destruir a instância do DDFS no DDR de destino (e perder todos os dados no sistema). Como resultado, uma inicialização subsequente poderá consumir uma quantidade considerável de largura de banda da rede/tempo, uma vez que todos os dados da origem devem ser fisicamente replicados de volta para o destino
O conteúdo do DDFS é dividido logicamente em mtrees. É comum que os clients/aplicativos de backup individuais gravem em uma mtree individual. Se um aplicativo de backup for desativado, ele não poderá mais gravar/excluir dados do DDR, o que pode deixar mtrees antigas/supérfluas no sistema. Os dados nessas mtrees continuarão a existir indefinidamente usando espaço em disco no DDR. Como resultado, qualquer mtree supérflua deve ser excluída. Por exemplo:
- Obtenha uma lista de mtrees no sistema:
# mtree list
Name Pre-Comp (GiB) Status
------------------------------------------------------------- -------------- -------
/data/col1/Budu_test 147.0 RW
/data/col1/Default 8649.8 RW
/data/col1/File_DayForward_Noida 42.0 RW/RLCE
/data/col1/labtest 1462.7 RW
/data/col1/oscar_data 0.2 RW
/data/col1/test_oscar_2 494.0 RO/RD
------------------------------------------------------------- -------------- -------
Name Pre-Comp (GiB) Status
------------------------------------------------------------- -------------- -------
/data/col1/Budu_test 147.0 RW
/data/col1/Default 8649.8 RW
/data/col1/File_DayForward_Noida 42.0 RW/RLCE
/data/col1/labtest 1462.7 RW
/data/col1/oscar_data 0.2 RW
/data/col1/test_oscar_2 494.0 RO/RD
------------------------------------------------------------- -------------- -------
- Todas os mtrees que não forem mais necessárias devem ser excluídas com o comando 'mtree delete', por exemplo:
# mtree delete [nome da mtree]
Por exemplo:
# mtree delete /data/col1/Budu_test
...
MTree "/data/col1/Budu_test" deleted successfully.
MTree "/data/col1/Budu_test" deleted successfully.
- O espaço consumido no disco pela mtree excluída será recuperado na próxima vez que a coleta de lixo/limpeza do nível ativo for executada.
- mtrees que forem destinos para replicação de mtree (por exemplo, com um status RO/RD no resultado da lista de mtrees) devem ter seu contexto de replicação correspondente interrompido antes que a mtree seja excluída
- As mtrees usadas como unidades de armazenamento lógico (LSUs) de DDBoost ou como pools de VTL (Virtual Tape Library, biblioteca de fitas virtuais) não podem ser excluídas com o comando 'mtree delete'. Consulte o Guia de administração do Data Domain para obter mais detalhes sobre a exclusão dessas mtrees
- As mtrees configuradas para bloqueio de retenção (por exemplo, com um status RLCE ou RLGE) não podem ser excluídas. Em vez disso, os arquivos individuais na mtree devem ter os bloqueios de retenção revertidos e ser excluídos individualmente. Consulte o Guia de Administração do Data Domain para obter mais detalhes
Um snapshot do Data Domain representa um snapshot pontual da mtree correspondente. Como resultado:
- Todos os arquivos que existirem na mtree quando o snapshot for criado serão referenciados pelo snapshot
- Enquanto o snapshot continuar a existir, mesmo se esses arquivos forem removidos/excluídos, a limpeza não será capaz de recuperar o espaço físico usado no disco. Isso ocorre porque os dados devem permanecer no sistema caso a cópia do arquivo no snapshot seja acessada mais tarde
- Obtenha uma lista de mtrees no sistema usando o comando 'mtree list', conforme mostrado na Etapa 3
- Liste os snapshots que existem para cada mtree usando o comando 'snapshot list':
# snapshot list mtree [nome da mtree]
Ao executar em uma mtree sem snapshots, o seguinte será exibido:
# snapshot list mtree /data/col1/Default
Snapshot Information for MTree: /data/col1/Default
----------------------------------------------
No snapshots found.
Snapshot Information for MTree: /data/col1/Default
----------------------------------------------
No snapshots found.
Ao executar em uma mtree com snapshots, o seguinte será exibido:
# snapshot list mtree /data/col1/labtest
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 Mar 31 2016 12:00 Mar 26 2017 12:00 expired
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00
testsnap-2016-07-31-12-00 1301.3 Jul 31 2016 12:00 Jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9 Oct 31 2016 12:00 Oct 26 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan 31 2017 12:00 Jan 26 2018 12:00
testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 Mar 31 2016 12:00 Mar 26 2017 12:00 expired
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00
testsnap-2016-07-31-12-00 1301.3 Jul 31 2016 12:00 Jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9 Oct 31 2016 12:00 Oct 26 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan 31 2017 12:00 Jan 26 2018 12:00
testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
- Onde existirem snapshots, use o resultado de 'snapshot list mtree [nome da mtree]' para determinar os snapshots que:
Não estão "expirados" (consulte a coluna status)
Foram criados há um tempo significativo (por exemplo, os snapshots criados em 2016 da lista acima)
Esses snapshots devem ser expirados para que possam ser removidos quando a limpeza for executada e o espaço que eles ocupam em disco seja liberado:
# snapshot expire [nome do snapshot] mtree [nome da mtree]
Por exemplo:
# snapshot expire testsnap-2016-05-31-12-00 mtree /data/col1/labtest
Snapshot "testsnap-2016-05-31-12-00" for mtree "/data/col1/labtest" will be retained until May 19 2017 19:31.
Snapshot "testsnap-2016-05-31-12-00" for mtree "/data/col1/labtest" will be retained until May 19 2017 19:31.
- Se o comando de lista de snapshots for executado novamente, esses snapshots agora serão listados como expirados:
# snapshot list mtree /data/col1/labtest
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 Mar 31 2016 12:00 Mar 26 2017 12:00 expired
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00 expired
testsnap-2016-07-31-12-00 1301.3 Jul 31 2016 12:00 Jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9 Oct 31 2016 12:00 Oct 26 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan 31 2017 12:00 Jan 26 2018 12:00
testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 Mar 31 2016 12:00 Mar 26 2017 12:00 expired
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00 expired
testsnap-2016-07-31-12-00 1301.3 Jul 31 2016 12:00 Jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9 Oct 31 2016 12:00 Oct 26 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan 31 2017 12:00 Jan 26 2018 12:00
testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
Observe que:
- não é possível determinar o volume de dados físicos de um snapshot individual ou conjunto de snapshots mantém no disco. O único valor de "espaço" associado a um snapshot é uma indicação do tamanho compactado (lógico) da mtree quando o snapshot foi criado (como mostrado no resultado acima)
- Os snapshots nomeados como 'REPL-MTREE-AUTO-AAAA-MM-DD-HH-MM-SS' são gerenciados pela replicação de mtree e, em circunstâncias normais, não precisam ser expirados manualmente (a replicação expirará automaticamente esses snapshots quando eles não forem mais necessários). Se tais snapshots forem extremamente antigos, isso indica que o contexto de replicação correspondente provavelmente está mostrando um atraso significativo (conforme descrito na Etapa 2)
- Os snapshots nomeados como 'REPL-MTREE-RESYNC-RESERVE-AAAA-MM-DD-HH-MM-SS' são criados pela replicação de mtree quando um contexto de replicação de mtree é interrompido. Eles podem ser usados para evitar uma ressincronização completa dos dados de replicação se o contexto interrompido for posteriormente recriado (por exemplo, se o contexto foi interrompido por engano). Se a replicação não tiver que ser restabelecida, esses contextos poderão ser expirados manualmente, conforme descrito acima
- Os snapshots expirados continuarão a existir no sistema até a próxima vez que a coleta de lixo/limpeza for executada. Nesse momento, eles serão excluídos fisicamente e serão removidos do resultado de 'snapshot list mtree [nome da mtree]'. A limpeza poderá, então, recuperar qualquer espaço que os snapshots estavam usando no disco
Os Autosupports do DDR contêm histogramas que mostram a divisão dos arquivos no DDR por data de criação. Por exemplo:
File Distribution
-----------------
448,672 files in 5,276 directories
Count Space
----------------------------- --------------------------
Age Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 day 7,244 1.6 1.6 4537.9 0.1 0.1
1 week 40,388 9.0 10.6 63538.2 0.8 0.8
2 weeks 47,850 10.7 21.3 84409.1 1.0 1.9
1 month 125,800 28.0 49.3 404807.0 5.0 6.9
2 months 132,802 29.6 78.9 437558.8 5.4 12.3
3 months 8,084 1.8 80.7 633906.4 7.8 20.1
6 months 5,441 1.2 81.9 1244863.9 15.3 35.4
1 year 21,439 4.8 86.7 3973612.3 49.0 84.4
> 1 year 59,624 13.3 100.0 1265083.9 15.6 100.0
--------- ----------- ----- ------- -------- ----- -------
-----------------
448,672 files in 5,276 directories
Count Space
----------------------------- --------------------------
Age Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 day 7,244 1.6 1.6 4537.9 0.1 0.1
1 week 40,388 9.0 10.6 63538.2 0.8 0.8
2 weeks 47,850 10.7 21.3 84409.1 1.0 1.9
1 month 125,800 28.0 49.3 404807.0 5.0 6.9
2 months 132,802 29.6 78.9 437558.8 5.4 12.3
3 months 8,084 1.8 80.7 633906.4 7.8 20.1
6 months 5,441 1.2 81.9 1244863.9 15.3 35.4
1 year 21,439 4.8 86.7 3973612.3 49.0 84.4
> 1 year 59,624 13.3 100.0 1265083.9 15.6 100.0
--------- ----------- ----- ------- -------- ----- -------
Isso pode ser útil para determinar se há arquivos no sistema que ainda não foram expirados/excluídos conforme esperado pelo aplicativo de backup do client. Por exemplo, se o sistema acima tiver sido gravado por um aplicativo de backup em que o período de retenção máximo para qualquer arquivo era de 6 meses, é óbvio que o aplicativo de backup não está expirando/excluindo arquivos conforme o esperado, pois há aproximadamente 80.000 arquivos com mais de 6 meses no DDR.
Observe que:
- É de responsabilidade do aplicativo de backup realizar a expiração/exclusão de todos os arquivos
- Um DDR nunca expirará/excluirá arquivos automaticamente. A menos que instruído pelo aplicativo de backup para excluir explicitamente um arquivo, o arquivo continuará a existir no DDR usando espaço indefinidamente
Se necessário, o suporte do Data Domain pode oferecer outros relatórios para:
- Determinar o nome/a hora de modificação de todos os arquivos em um DDR ordenados por data de criação (assim, o nome/local dos dados antigos pode ser determinado)
- Dividir os histogramas da data de criação do arquivo em relatórios separados para o nível ativo/de arquivamento/em nuvem (em que os recursos ER/LTR estão ativados)
- Colete evidências conforme descrito no parágrafo "Coleta de sfs_dump" da seção Observações deste documento
- Abra um chamado para o fornecedor de suporte contratado
Etapa 6 - Verificar se há backups que incluam um grande número de arquivos pequenos
Devido ao design do DDFS, os arquivos pequenos (essencialmente, qualquer arquivo que seja menor do que aproximadamente 10 MB) podem consumir espaço excessivo quando gravados inicialmente no DDR. Isso acontece porque a arquitetura "SISL" (Stream Informed Segment Layout) faz com que os arquivos pequenos consumam vários blocos individuais de 4,5 MB de espaço em disco. Por exemplo, um arquivo de 4 KB pode consumir até 9 MB de espaço em disco físico quando gravado inicialmente.
Esse espaço excessivo é recuperado subsequentemente quando a coleta de lixo/limpeza é executada (porque os dados de arquivos pequenos são agregados em um número menor de blocos de 4,5 MB). Mas isso pode fazer com que modelos menores do DDR gerem utilização e preenchimento excessivos quando esses backups são executados.
Os autosupports contêm histogramas de arquivos divididos por tamanho, por exemplo:
Count Space
----------------------------- --------------------------
Size Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 KiB 2,957 35.8 35.8 0.0 0.0 0.0
10 KiB 1,114 13.5 49.3 0.0 0.0 0.0
100 KiB 249 3.0 52.4 0.1 0.0 0.0
500 KiB 1,069 13.0 65.3 0.3 0.0 0.0
1 MiB 113 1.4 66.7 0.1 0.0 0.0
5 MiB 446 5.4 72.1 1.3 0.0 0.0
10 MiB 220 2.7 74.8 1.9 0.0 0.0
50 MiB 1,326 16.1 90.8 33.6 0.2 0.2
100 MiB 12 0.1 91.0 0.9 0.0 0.2
500 MiB 490 5.9 96.9 162.9 0.8 1.0
1 GiB 58 0.7 97.6 15.6 0.1 1.1
5 GiB 29 0.4 98.0 87.0 0.5 1.6
10 GiB 17 0.2 98.2 322.9 1.7 3.3
50 GiB 21 0.3 98.4 1352.7 7.0 10.3
100 GiB 72 0.9 99.3 6743.0 35.1 45.5
500 GiB 58 0.7 100.0 10465.9 54.5 100.0
> 500 GiB 0 0.0 100.0 0.0 0.0 100.0
--------- ----------- ----- ------- -------- ----- -------
----------------------------- --------------------------
Size Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 KiB 2,957 35.8 35.8 0.0 0.0 0.0
10 KiB 1,114 13.5 49.3 0.0 0.0 0.0
100 KiB 249 3.0 52.4 0.1 0.0 0.0
500 KiB 1,069 13.0 65.3 0.3 0.0 0.0
1 MiB 113 1.4 66.7 0.1 0.0 0.0
5 MiB 446 5.4 72.1 1.3 0.0 0.0
10 MiB 220 2.7 74.8 1.9 0.0 0.0
50 MiB 1,326 16.1 90.8 33.6 0.2 0.2
100 MiB 12 0.1 91.0 0.9 0.0 0.2
500 MiB 490 5.9 96.9 162.9 0.8 1.0
1 GiB 58 0.7 97.6 15.6 0.1 1.1
5 GiB 29 0.4 98.0 87.0 0.5 1.6
10 GiB 17 0.2 98.2 322.9 1.7 3.3
50 GiB 21 0.3 98.4 1352.7 7.0 10.3
100 GiB 72 0.9 99.3 6743.0 35.1 45.5
500 GiB 58 0.7 100.0 10465.9 54.5 100.0
> 500 GiB 0 0.0 100.0 0.0 0.0 100.0
--------- ----------- ----- ------- -------- ----- -------
Se houver evidências de backups gravando números muito grandes de arquivos pequenos, o sistema pode ser afetado por aumentos temporários significativos na utilização entre cada invocação de coleta de lixo/limpeza. Nesse cenário, é preferível alterar a metodologia de backup para incluir todos os arquivos pequenos em um único arquivamento maior (como um arquivo tar) antes de gravá-los no DDR. Observe que os arquivamentos não devem ser compactados ou criptografados (porque isso danificará a taxa de compactação/desduplicação dos dados).
Etapa 7 - Verificar se a taxa de desduplicação é menor que a esperada
O principal objetivo de um DDR é desduplicar e compactar os dados incluídos pelo dispositivo. A taxa de desduplicação/compactação depende bastante do caso de uso do sistema e do tipo de dados que ele contém. No entanto, em muitos casos, haverá uma taxa de compactação geral "esperada" com base nos resultados obtidos pelo teste de prova de conceito ou semelhante. Para determinar a taxa de compactação geral atual do sistema (e, portanto, se ela está atendendo às expectativas), o comando 'filesys show compression' pode ser usado. Por exemplo:
# filesys show compression
De: 2017-03-05 13:00 Para: 2017-10-05 13:00
Nível ativo:
Pre-Comp Post-Comp Global-Comp Local-Comp Total-Comp
(GiB) (GiB) Factor Factor Factor
(Reduction %)
---------------- -------- --------- ----------- ---------- -------------
Currently Used:* 20581.1 315.4 - - 65.3x (98.5)
Written:
Last 7 days 744.0 5.1 80.5x 1.8x 145.6x (99.3)
Last 24 hrs
---------------- -------- --------- ----------- ---------- -------------
* Não inclui os efeitos das exclusões/truncamentos de arquivos antes da compactação
De: 2017-03-05 13:00 Para: 2017-10-05 13:00
Nível ativo:
Pre-Comp Post-Comp Global-Comp Local-Comp Total-Comp
(GiB) (GiB) Factor Factor Factor
(Reduction %)
---------------- -------- --------- ----------- ---------- -------------
Currently Used:* 20581.1 315.4 - - 65.3x (98.5)
Written:
Last 7 days 744.0 5.1 80.5x 1.8x 145.6x (99.3)
Last 24 hrs
---------------- -------- --------- ----------- ---------- -------------
* Não inclui os efeitos das exclusões/truncamentos de arquivos antes da compactação
No exemplo acima, o sistema está atingindo uma taxa de compactação geral de 65,3 x para o nível ativo (o que é muito bom). Se, no entanto, esse valor mostrar que a taxa de compactação geral não está atendendo às expectativas, provavelmente será necessário realizar uma investigação mais profunda. Observe que a investigação de uma taxa de compactação menor que a esperada é um assunto complexo que pode ter muitas causas raíz. Para obter mais informações sobre como fazer essa investigação, consulte este artigo: https://support.emc.com/kb/487055
Etapa 8 - Verificar se o sistema é uma origem de replicação de conjunto
Ao usar a replicação de conjunto, se o sistema de origem for fisicamente maior do que o destino, o tamanho do sistema de origem será artificialmente limitado para corresponder ao do destino (por exemplo, uma área de disco na origem será marcada como inutilizável). Isso ocorre porque, ao usar a replicação de conjunto, o destino precisa ser uma cópia em nível de bloco da origem. No entanto, se a origem for fisicamente maior do que o destino, os dados excessivos poderão ser gravados na origem, mas não replicados para o destino (já que ele já está cheio). Esse cenário é evitado com a limitação do tamanho da origem para corresponder ao destino.
- Usando os comandos da Etapa 2, verifique se o sistema é uma origem para a replicação de conjunto. Para fazer isso, execute 'replication status' e determine se há contextos de replicação iniciando com 'col://' (indicando a replicação de conjunto) que NÃO contêm o nome do host do sistema local no destino (indicando que esse sistema deve ser uma origem para o contexto de replicação)
- Se o sistema for uma origem para a replicação de conjunto, verifique o tamanho de cada nível ativo do sistema fazendo login em ambos e executando o comando 'filesys show space'. Compare o tamanho de 'post-comp' dos níveis ativos de cada sistema
- Se a origem for significativamente maior do que o destino, o tamanho do nível ativo será artificialmente limitado
- Para permitir que todo o espaço da origem seja utilizado pelos dados, faça o seguinte:
Adicione mais armazenamento para o nível ativo de destino, de forma que o tamanho dele seja >= ao tamanho do nível ativo de origem
Interrompa o contexto de replicação de conjunto (usando os comandos da etapa 2). Observe que, obviamente, isso impedirá que os dados sejam replicados do DDR de origem –> de destino
Assim que uma dessas alterações tiver sido realizada, o espaço adicional será disponibilizado imediatamente no nível ativo do sistema de origem (por exemplo, não é necessário executar a coleta de lixo/limpeza do nível ativo antes de usar esse espaço)
Etapa 9 - Verificar se a movimentação de dados está sendo executada regularmente
Se o DDR estiver configurado com retenção estendida (ER) ou retenção a longo prazo (LTR), ele terá um segundo nível de armazenamento conectado (nível de arquivamento para ER ou nível da nuvem para LTR). Nesse cenário, as políticas de movimentação de dados provavelmente são configuradas em relação às mtrees para migrar dados mais antigos/não modificados que exigem retenção a longo prazo do nível ativo para o nível alternativo de armazenamento, de forma que o espaço utilizado por esses arquivos no nível ativo possa ser fisicamente recuperado pela coleta de lixo/limpeza. Se as políticas de movimentação de dados forem configuradas incorretamente ou se o processo de movimentação de dados não for executado regularmente, os dados antigos permanecerão no nível ativo por mais tempo do que o esperado e continuarão a usar o espaço físico no disco.
- Inicialmente, confirme se o sistema está configurado para ER ou LTR executando 'filesys show space' e verificando a existência de um nível de arquivo ou de nuvem. Observe que, para serem utilizados, esses níveis alternativos de armazenamento devem ter > 0 Gb após a compactação:
# filesys show space
...
Archive Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 4163.8 - - -
/data: post-comp 31938.2 1411.9 30526.3 4% -
---------------- -------- -------- --------- ---- -------------
# filesys show space
...
Cloud Tier
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 338905.8 0.0 338905.8 0% 0.0
---------------- -------- -------- --------- ---- -------------
...
Archive Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 4163.8 - - -
/data: post-comp 31938.2 1411.9 30526.3 4% -
---------------- -------- -------- --------- ---- -------------
# filesys show space
...
Cloud Tier
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 338905.8 0.0 338905.8 0% 0.0
---------------- -------- -------- --------- ---- -------------
Observe que ER e LTR são mutuamente exclusivos. Dessa forma, um sistema conterá apenas um nível ativo (não configurado com ER/LTR) ou um nível ativo e de arquivamento (configurado com ER) ou um nível ativo e da nuvem (configurado com LTR )
- Se o sistema estiver configurado com ER/LTR, verifique as políticas de movimentação de dados em relação às mtrees para garantir que elas estejam conforme o esperado e definidas de forma que os dados antigos sejam enviados para o nível alternativo de armazenamento:
ER: # archive data-movement policy show
LTR: # data-movement policy show
LTR: # data-movement policy show
Se as políticas de movimentação de dados estiverem incorretas/ausentes, elas deverão ser corrigidas. Consulte o Guia do Administrador do Data Domain para obter assistência sobre como fazer isso
- Se o sistema estiver configurado com ER/LTR, verifique se a movimentação de dados está agendada para ser executada em intervalos regulares para migrar fisicamente arquivos/dados do nível ativo para o armazenamento alternativo:
ER: # archive data-movement schedule show
LTR: # data-movement schedule show
LTR: # data-movement schedule show
O Data Domain recomenda a execução da movimentação de dados por meio de um agendamento automatizado. No entanto, alguns clientes preferem executar esse processo de maneira ad-hoc (por exemplo, quando necessário). Nesse cenário, a movimentação de dados deve ser iniciada regularmente com a execução de:
ER: # archive data-movement start
LTR: # data-movement start
LTR: # data-movement start
Para obter mais informações sobre a modificação do agendamento da movimentação de dados, consulte o Guia do Administrador do Data Domain
- Se o sistema estiver configurado para ER/LTR, verifique a última vez em que a movimentação de dados foi executada:
ER: # archive data-movement status
LTR: # data-movement status
LTR: # data-movement status
Se a movimentação de dados não tiver sido executada por algum tempo, tente iniciar o processo manualmente e, em seguida, faça o monitoramento da seguinte maneira:
ER: # archive data-movement watch
LTR: # data-movement watch
LTR: # data-movement watch
Se a movimentação de dados não for iniciada por qualquer motivo, entre em contato com o fornecedor de suporte contratado para obter assistência adicional.
- Depois que a movimentação de dados for concluída, a limpeza do nível ativo deve ser executada (observe que ela pode ser configurada para ser iniciada automaticamente após a conclusão da movimentação de dados) para garantir que o espaço usado pelos arquivos migrados no nível ativo seja fisicamente liberado:
# filesys clean start
Em sistemas ER, é comum agendar a movimentação de dados para ser executada regularmente (por exemplo, uma vez por semana). Configure a limpeza do nível ativo para ser executada após a conclusão da movimentação de dados. Nesse cenário, a limpeza do nível ativo não tem seu próprio agendamento independente. Para configurar isso inicialmente, remova o agendamento de limpeza do nível ativo atual:
# filesys clean set schedule never
Configure a movimentação de dados para ser executada periodicamente, seguida por uma limpeza automática do nível ativo. Por exemplo, para executar a movimentação de dados todas as terças-feiras às 6h, seguida pela limpeza do nível ativo:
# archive data-movement schedule set days Tue time 0600
The Archive data movement schedule has been set.
Archive data movement is scheduled to run on day(s) "tue" at "06:00" hrs
É possível confirmar que a limpeza do nível ativo está configurada para ser executada após a conclusão da movimentação de dados da seguinte maneira:
# archive show config
Enabled Yes
Data movement Schedule Run on day(s) "tue" at "06:00" hrs <=== SCHEDULE
Data movement throttle 100 percent
Default age threshold data movement policy 14 days
Run filesys clean after archive data movement Yes <=== RUN CLEAN ON COMPLETION
Archive Tier local compression gz
Packing data during archive data movement enabled
Space Reclamation disabled
Space Reclamation Schedule No schedule
Em sistemas ER, é comum agendar a movimentação de dados para ser executada regularmente (por exemplo, uma vez por semana). Configure a limpeza do nível ativo para ser executada após a conclusão da movimentação de dados. Nesse cenário, a limpeza do nível ativo não tem seu próprio agendamento independente. Para configurar isso inicialmente, remova o agendamento de limpeza do nível ativo atual:
# filesys clean set schedule never
Configure a movimentação de dados para ser executada periodicamente, seguida por uma limpeza automática do nível ativo. Por exemplo, para executar a movimentação de dados todas as terças-feiras às 6h, seguida pela limpeza do nível ativo:
# archive data-movement schedule set days Tue time 0600
The Archive data movement schedule has been set.
Archive data movement is scheduled to run on day(s) "tue" at "06:00" hrs
É possível confirmar que a limpeza do nível ativo está configurada para ser executada após a conclusão da movimentação de dados da seguinte maneira:
# archive show config
Enabled Yes
Data movement Schedule Run on day(s) "tue" at "06:00" hrs <=== SCHEDULE
Data movement throttle 100 percent
Default age threshold data movement policy 14 days
Run filesys clean after archive data movement Yes <=== RUN CLEAN ON COMPLETION
Archive Tier local compression gz
Packing data during archive data movement enabled
Space Reclamation disabled
Space Reclamation Schedule No schedule
Em sistemas com LTR, a limpeza do nível ativo ainda deve ser configurada com seu próprio agendamento
Etapa 10 - Adicionar mais armazenamento ao nível ativo
Se todas as etapas anteriores tiverem sido realizadas, a limpeza do nível ativo tiver sido concluída e, mesmo assim, não houver espaço suficiente disponível no nível ativo, é provável que o sistema não tenha sido dimensionado corretamente para a carga de trabalho que está recebendo. Nesse caso, realize uma das seguintes ações:
- Reduza a carga de trabalho no sistema. Por exemplo:
Redirecione um subconjunto de backups para o armazenamento alternativo
Reduza o período de retenção de backups, de forma que eles sejam expirados/apagados mais rapidamente
Reduza o número/período de expiração dos snapshots agendados em relação às mtrees no sistema
Interrompa contextos de replicação supérfluos para os quais o sistema local é um destino e exclua as mtrees correspondentes
Reduza o período de retenção de backups, de forma que eles sejam expirados/apagados mais rapidamente
Reduza o número/período de expiração dos snapshots agendados em relação às mtrees no sistema
Interrompa contextos de replicação supérfluos para os quais o sistema local é um destino e exclua as mtrees correspondentes
- Adicione mais armazenamento ao nível ativo do sistema e expanda seu tamanho:
# storage add [nível ativo] enclosure [número do compartimento] | disk [número do dispositivo]
# filesys expand
# filesys expand
Para falar sobre a adição de armazenamento, entre em contato com a equipe da conta de vendas.
Дополнительная информация
O suporte do Data Domain pode gerar vários relatórios que mostram informações como:
- Uma lista de todos os arquivos em um nível específico (por ex., ativo/arquivamento/nuvem) ordenados por data de criação
- Tamanho estimado e taxa de compactação por mtree/árvore de diretório principal
- Uma lista de todos os arquivos em uma mtree específica ordenados por data de criação
- e assim por diante
Para isso, as seguintes informações devem ser coletadas:
- Um novo pacote de suporte do DDR - acesse a seguinte página para obter mais informações: https://support.emc.com/kb/323283
- O resultado de 'sfs_dump' ou 'sfs_dump-c':
Faça login na CLI do DDR e vá para o modo SE (observe que os sistemas configurados com criptografia e/ou bloqueio de retenção podem solicitar credenciais de um usuário com a função "segurança" neste ponto):
# system show serialno
[número de série do sistema exibido]
# priv set se
[prompt de senha - insira o número de série do sistema conforme acima]
[número de série do sistema exibido]
# priv set se
[prompt de senha - insira o número de série do sistema conforme acima]
Habilite o log na sua sessão de terminal. Por exemplo, se estiver usando putty, isso pode ser feito da seguinte maneira: Clique com o botão direito na barra de menus -> Change settings... -> Session -> Logging -> Selecione todos os resultados das sessões e selecione um nome de arquivo -> Apply
Execute sfs_dump:
# se sfs_dump
Quando terminar, faça uma cópia do log da sessão para análise adicional.
- Um relatório do local do arquivo (necessário se o sistema estiver configurado para ER ou LTR):
Faça login na CLI do DDR
Habilite o log na sua sessão de terminal.. Por exemplo, se estiver usando putty, isso pode ser feito da seguinte maneira: Clique com o botão direito na barra de menus -> Change settings... -> Session -> Logging -> Selecione todos os resultados de sessões e selecione um nome de arquivo -> Apply
Colete um relatório de localização do arquivo:
ER: # archive report generate file-location
LTR: # filesys report generate file-location
Quando terminar, faça uma cópia do log da sessão para análise adicional
Habilite o log na sua sessão de terminal.. Por exemplo, se estiver usando putty, isso pode ser feito da seguinte maneira: Clique com o botão direito na barra de menus -> Change settings... -> Session -> Logging -> Selecione todos os resultados de sessões e selecione um nome de arquivo -> Apply
Colete um relatório de localização do arquivo:
ER: # archive report generate file-location
LTR: # filesys report generate file-location
Quando terminar, faça uma cópia do log da sessão para análise adicional
Para obter assistência na coleta das informações acima ou em qualquer uma das etapas dessa limpeza de arquivamento, entre em contato com seu fornecedor de suporte contratado.
Затронутые продукты
Data DomainПродукты
Data DomainСвойства статьи
Номер статьи: 000054303
Тип статьи: Solution
Последнее изменение: 21 Jul 2025
Версия: 6
Получите ответы на свои вопросы от других пользователей Dell
Услуги технической поддержки
Проверьте, распространяются ли на ваше устройство услуги технической поддержки.