Avamar: 그리드는 데이터 파티션 스파스 파일의 차이로 인해 관리 모드로 전환됩니다.

Summary: 이 문서에서는 데이터 파티션 간에 스파스 파일 수가 달라 그리드가 관리자 모드로 전환되는 문제를 해결합니다.

This article applies to This article does not apply to This article is not tied to any specific product. Not all product versions are identified in this article.

Symptoms

모든 백업 및 복제 대상 작업이 실패합니다.

Avamar Server가 관리자 모드입니다.

용량이 diskreadonly 값.

모든 데이터 파티션의 스트라이프 수는 비슷합니다.

status.dpn
Thu Jul 16 09:41:28 CEST 2015  [avamar.emc.com] Thu Jul 16 07:41:27 2020 UTC (Initialized Thu Jan 16 16:42:42 2014 UTC)
Node   IP Address     Version   State   Runlevel  Srvr+Root+User Dis Suspend Load UsedMB Errlen  %Full   Percent Full and Stripe Status by Disk
0.0     10.10.10.10  7.1.1-145  ONLINE fullaccess mhpu+0hpu+0000   1 false   0.03 35759 80935381   1.6%   1%(onl:1414)  1%(onl:1418)  1%(onl:1408)  1%(onl:1414)  1%(onl:1414)  1%(onl:1412)
Srvr+Root+User Modes = migrate + hfswriteable + persistwriteable + useraccntwriteable

System ID: 1434729928@00:50:56:8A:24:53

All reported states=(ONLINE), runlevels=(fullaccess), modes=(mhpu+0hpu+0000)
System-Status: ok
Access-Status: admin

No checkpoint yet
No GC yet
No hfscheck yet

Maintenance windows scheduler capacity profile is active.
  The backup window is currently running.
  Next backup window start time: Thu Jul 16 20:00:00 2020 CEST
  Next maintenance window start time: Thu Jul 16 12:00:00 2020 CEST
 

다음 명령의 출력은 그리드가 관리자 모드에 있음을 나타냅니다. diskbeat:
(diskbeat 은(는) 서버 액세스 모드를 변경한 활동입니다.

avmaint nodelist --xmlperline=99 | grep activityaccess 
<activityaccessmodes adminuser="mhpu+0hpu+0hpu" checkpoint="mhpu+0hpu+0hpu" conversion="mhpu+0hpu+0hpu" diskbeat="mhpu+0hpu+0000" garbagecollect="mhpu+0hpu+0hpu" 
heartbeat="mhpu+0hpu+0hpu" hfscheckserver="mhpu+0hpu+0hpu" hfscheckexecute="mhpu+0hpu+0hpu" nodebeat="mhpu+0hpu+0hpu" runlevel="mhpu+0hpu+0hpu" 
testintegrity="mhpu+0hpu+0hpu" removehashes="mhpu+0hpu+0hpu" rebuildstripe="mhpu+0hpu+0hpu" diskfull="mhpu+0hpu+0hpu" hashrefcheck="mhpu+0hpu+0hpu"/> 
 

df 명령이 데이터 파티션 간에 큰 불일치를 표시합니다.

예:

df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/sda2             7.9G  6.2G  1.4G  82% /
udev                   18G  288K   18G   1% /dev
tmpfs                  18G     0   18G   0% /dev/shm
/dev/sda1             130M   62M   61M  51% /boot
/dev/sda7             1.5G  227M  1.2G  17% /var
/dev/sda9              77G   50G   23G  70% /space
/dev/sdb1             1.0T  190G  835G  19% /data01
/dev/sdc1             1.0T  183G  842G  18% /data02
/dev/sdd1             1.0T  185G  839G  19% /data03
/dev/sde1             1.0T  416G  608G  41% /data04
/dev/sdf1             1.0T  190G  835G  19% /data05
/dev/sdg1             1.0T  187G  838G  19% /data06 

이 출력에서 /data04는 41%가 사용되고 다른 데이터 파티션은 18%-19%가 사용됩니다.

데이터 파티션 간의 이러한 크기 차이는 freespaceunbalance 값.
(freespaceunbalance 은 데이터 파티션 간의 최대 용량 차이입니다.

 

추가 조사에 따르면 다음과 같습니다.

체크포인트 (cp) 오버헤드는 데이터 파티션에서 유사하지만 cur 크기는 하나 이상의 파티션에서 더 낮습니다.

cps -blk 
Checkpoint usage by partition:
  188.020 /data01/cur
  181.944 /data02/cur
  186.020 /data03/cur
  435.234 /data04/cur
  190.617 /data05/cur
  187.797 /data06/cur
    0.540 /data01/cp.20200716082941
    0.542 /data02/cp.20200716082941
    0.548 /data03/cp.20200716082941
    0.038 /data04/cp.20200716082941
    0.523 /data05/cp.20200716082941
    0.493 /data06/cp.20200716082941
    0.759 /data01/cp.20200716080454
    0.777 /data02/cp.20200716080454
    0.781 /data03/cp.20200716080454
    0.336 /data04/cp.20200716080454
    0.751 /data05/cp.20200716080454
    0.721 /data06/cp.20200716080454

GB used     %use Total checkpoint usage by node:
 6593.815        Total blocks on node           Thu Jul 16 10:41:56 2020
 5198.045  78.83 Total blocks available
 1369.633  20.77 cur                            Thu Jul 16 10:33:14 2020
    2.683   0.04 cp.20200716082941              Thu Jul 16 10:32:42 2020
    4.125   0.06 cp.20200716080454              Thu Jul 16 10:14:15 2020
 1376.440  20.87 Total blocks used by dpn 
 

CUR 파티션 겉보기 크기(애플리케이션에 표시되는 크기)와 CUR 디스크 사용량(파일이 차지하는 실제 공간) 사이에는 큰 차이가 있습니다.

du -sh --apparent-size /data??/cur
458G    /data01/cur
456G    /data02/cur
456G    /data03/cur
455G    /data04/cur
457G    /data05/cur
456G    /data06/cur 
du -sh /data??/cur
176G    /data01/cur
170G    /data02/cur
174G    /data03/cur
406G    /data04/cur
178G    /data05/cur
175G    /data06/cur

Cause

하나 이상의 데이터 파티션에 다른 데이터 파티션보다 희소 파일이 더 많습니다.

스파스 파일은 파일에 할당된 블록이 대부분 비어 있을 때 파일 시스템 공간을 보다 효율적으로 사용하려고 시도하는 파일 유형입니다.
(예: 0만 포함하거나 아무 것도 포함하지 않는 블록은 실제로 디스크에 저장되지 않습니다.

대신 빈 블록을 나타내는 간단한 정보(메타데이터)를 디스크에 씁니다.

 

이 문제는 일반적으로 높은 변경률과 관련이 있으며, 이로 인해 체크포인트 오버헤드가 급격히 증가합니다.

Resolution

1. 다음 명령을 실행합니다.

status.dpn 
avmaint nodelist --xmlperline=99 | grep activityaccess 
df -h 
cps -blk
du -sh --apparent-size /data??/cur
du -sh /data??/cur 
 

2. 이 문서를 참조하고 위에서 수집한 출력을 제공하여 Dell Technologies Avamar 지원 팀과 함께 서비스 요청을 생성합니다.

Affected Products

Avamar, Avamar Server
Article Properties
Article Number: 000036449
Article Type: Solution
Last Modified: 17 Jun 2025
Version:  6
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.