Avamar : L’interface utilisateur ADME est vide et affiche un contenu vide en raison de l’utilisation de l’espace '/'
Summary: Avamar Data Migration Enabler (ADME) est vide et ne renseigne pas à 100 % en raison de la barre oblique racine « / ».
Symptoms
Le fichier journal a été supprimé et la capacité a été réduite, ce qui a permis de renseigner l’interface utilisateur par la suite.
root@<avamar-host>:/atoadmin/tmp/atocfg2/#: cp autotapeout2.stat /data01/.
root@<avamar-host>:/atoadmin/tmp/atocfg2/#: rm -rf autotapeout2.stat
root@<avamar-host>:/atoadmin/log/#: df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda5 7.9G 6.2G 1.4G 83% /
udev 16G 256K 16G 1% /dev
tmpfs 16G 0 16G 0% /dev/shm
/dev/sda1 114M 54M 55M 50% /boot
/dev/sda3 1.8T 105G 1.7T 6% /data01
/dev/sda7 1.5G 171M 1.3G 12% /var
/dev/sdb1 1.9T 61G 1.8T 4% /data02
/dev/sdc1 1.9T 60G 1.8T 4% /data03
root@<avamar-host>:/atoadmin/log/#:
Il est recommandé de redémarrer l’interface utilisateur ADMe après :
root@<avamar-host>:/data01/#: adme -gui stop
ADMe WEB-UI has been stopped.
root@<avamar-hostname>:/data01/#: adme -gui start
Le service ADMe WEB-UI a démarré avec succès PID=[122153]
Pour le démarrer, pointez votre navigateur sur l’URL.
https://<avamar-hostname>:8888
root@<avamar-host>:/data01/#:
root@<avamar-host>:/data01/#: adme -gui status
Le service ADMe WEB-UI a démarré PID=[122153]
Pour lancer l’interface utilisateur Web, pointez sur votre navigateur jusqu’à l’URL suivante : https://< avamar-hostname> :8888
root@<avamar-host>:/data01/#:
Lors de l’ouverture et de la connexion à l’interface utilisateur ADMe (https://Avamar-URL:8888), l’interface utilisateur ADMe affiche une page vierge sans ressources ni contenu.
Symptômes :
- ADMe affiche une page blanche vierge.
- Lors de la navigation dans d’autres onglets ou vues, une page blanche vierge s’affiche également et le contenu n’apparaît pas non plus.
Cause
Après enquête, il est apparu que le répertoire racine '/' est plein à 100 %.
L’interface utilisateur ADME peut être vérifiée si elle n’est pas consignée en raison de l’espace :
- Statut de l’interface utilisateur
- Cela peut être vérifié à l’aide de la commande ci-dessous, qui vérifie l’état de l’interface utilisateur.
root@<avamar-hostname>:/atoadmin/#: adme -gui status /usr/local/avamar/bin/adme[18520]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18528]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18535]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18548]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18554]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18564]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18567]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18568]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18569]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18570]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18571]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18572]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18573]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18574]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18575]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18611]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18612]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18613]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18614]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18615]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18616]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18617]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18618]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18619]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18620]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18621]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18622]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[18623]: echo: write to 1 failed [No space left on device] /usr/local/avamar/bin/adme[19083]: echo: write to 1 failed [No space left on device] ADMe WEB-UI service is started PID=[20228] To launch Web-UI, point your browser to URL - https://<avamar-hostname>:8888 root@<avamar-hostname>:/atoadmin/#:
2- df -h
Pour identifier la capacité consommant des fichiers, procédez comme suit :
root@<avamar-hostname>:/atoadmin/tmp/atocfg2/#: df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda5 7.9G 7.9G 0 100% /
udev 16G 256K 16G 1% /dev
tmpfs 16G 0 16G 0% /dev/shm
/dev/sda1 114M 54M 55M 50% /boot
/dev/sda3 1.8T 104G 1.7T 6% /data01
/dev/sda7 1.5G 171M 1.3G 12% /var
/dev/sdb1 1.9T 61G 1.8T 4% /data02
/dev/sdc1 1.9T 60G 1.8T 4% /data03
root@<avamar-hostname>:/atoadmin/tmp/atocfg2/#:
Remplacez le répertoire par le point de montage '/' et exécutez la commande Perl suivante.
Cette commande perl répertorie une arborescence des répertoires/fichiers triés par taille.
root@<Avamar-hostname>:/atoadmin/#: cd /
root@<Avamar-hostname>://#: perl -e'%h=map{/.\s/;99**(ord$&&7)-$`,$_}`du -hx`;die@h{sort%h}'
0 ./dev
7.7G .
4.7G ./usr
2.9G ./usr/local
2.3G ./usr/local/avamar
2.1G ./atoadmin
1.7G ./atoadmin/tmp
1.6G ./atoadmin/tmp/atocfg2
1.2G ./usr/local/avamar/bin
692M ./usr/local/avamar/lib
508M ./usr/local/avamar-tomcat-7.0.59
497M ./usr/local/avamar-tomcat-7.0.59/webapps
437M ./usr/share
399M ./usr/local/avamar/tmp
360M ./usr/java
341M ./usr/lib64
335M ./usr/lib
301M ./opt
294M ./root
291M ./root/.avamardata
276M ./atoadmin/log
201M ./usr/sbin
188M ./opt/emc-third-party
182M ./usr/java/jre1.8.0_131
181M ./usr/java/jre1.8.0_131/lib
176M ./usr/java/jre1.8.0_112
175M ./usr/java/jre1.8.0_112/lib
173M ./lib
162M ./lib/modules
160M ./usr/bin
153M ./opt/emc-third-party/platform/suse-11-x64/ruby-1.9.1
141M ./usr/lib64/erlang
136M ./usr/local/avamar/lib/jetty
127M ./usr/local/avamar-tomcat-7.0.59/webapps/aam
121M ./usr/local/avamar-tomcat-7.0.59/webapps/dtlt
115M ./usr/lib64/erlang/lib
111M ./usr/share/locale
109M ./usr/lib/locale
Il est clair que les répertoires de journaux mis en évidence ci-dessus pour ADMe ont été classés à partir du haut à l’aide des répertoires.
Vérification sous /atoadmin/logle webui.log.2 Le fichier semble avoir atteint 223 mégaoctets, ce qui est inhabituellement volumineux par rapport à d’autres journaux qui tournent généralement à 11 Mo.
root@<avamar-hostname>:/atoadmin/log/#: ls -lSrh
total 366M
-rwxrwxrwx 1 root root 0 Mar 15 17:06 webui.log.0.lck
-rwxrwxrwx 1 root root 0 May 8 17:27 atoevent.log
-rwxrwxrwx 1 root root 0 Oct 26 2016 1
-rwxrwxrwx 1 root root 13K Apr 14 2017 admbatch-ADM.log
-rwxrwxrwx 1 root root 25K Nov 9 14:47 admbatch-LINUXFS.log
-rwxrwxrwx 1 root root 28K Apr 19 2017 atoevent.log20
-rwxrwxrwx 1 root root 31K Apr 17 03:15 recapture_history.log
-rwxrwxrwx 1 root root 80K Mar 15 17:06 nohup.out
-rwxrwxrwx 1 root root 196K Apr 10 07:46 admbatch-HYPERV2.log
-rwxrwxrwx 1 root root 241K Apr 18 2017 admbatch-HYPERV.log
-rwxrwxrwx 1 root root 346K Apr 27 08:59 atoevent.log3
-rwxrwxrwx 1 root root 637K Apr 13 2016 admbatch-ONDEMAND.log
-rwxrwxrwx 1 root root 671K May 7 15:32 atoevent.log2
-rwxrwxrwx 1 root root 1.2M Apr 27 08:59 admbatch-WINFS.log
-rwxrwxrwx 1 root root 1.3M May 1 16:29 admbatch-SQL1.log
-rwxrwxrwx 1 root root 1.6M May 3 20:08 admbatch-SQL.log
-rwxrwxrwx 1 root root 2.5M Apr 7 02:37 admbatch-HYPERV1.log
-rwxrwxrwx 1 root root 2.7M Apr 20 08:51 admbatch-NDMP.log
-rwxrwxrwx 1 root root 8.9M May 9 11:06 webui.log.0
-rwxrwxrwx 1 root root 11M Jun 13 2017 webui.log.4
-rwxrwxrwx 1 root root 11M Jan 17 19:10 webui.log.1
-rwxrwxrwx 1 root root 11M Aug 8 2017 webui.log.3
-rwxrwxrwx 1 root root 93M May 9 11:15 admbatch-NDMP1.log
-rwxrwxrwx 1 root root 223M Sep 20 2017 webui.log.2
Après une enquête plus approfondie sur le problème, il a été découvert que l’ADMe s’était connecté à ce fichier pendant trois jours consécutifs, affichant le message suivant.
root@<avamar-hostname>:/atoadmin/log/#: tail -20 webui.log.2
>>> Waiting for -migrate phase to begin before initiating the cancel operation
......................................................................................
......................................................................................
......................................................................................
......................................................................................
......................................................................................
......................................................................................
......................................................................................
......................................................................................
......................................................................................
......................................................................................
......................................................................................
......................................................................................
................................................
Dans ce scénario, ADMe n’a pas réussi à se connecter aux répartiteurs ou aux sessions Avamar, n’a pas pu générer de commandes de maintenance et a continué à échouer pendant trois jours par la suite.
Sep 18, 2017 5:05:34 PM com.avamar.pss.server.ATOServiceImpl runADMECommand
INFO: Output : 0 ERROR! Exit code 15: Cannot connect to Avamar dispatcher
ERROR: avmaint: cpstatus: cannot connect to server <avamar-hostname> at <avamar-ip>:27000
ERROR: avmaint: gcstatus: cannot connect to server <avamar-hostname> at <avamar-ip>:27000
Gathering client/group properties & job stats information...
Sep 18, 2017 5:05:34 PM com.avamar.pss.server.ATOServiceImpl getJobActivities
INFO: Loading Activities for : all from /atoadmin/jobstats/jobactivity.csv
Sep 18, 2017 5:08:37 PM com.avamar.pss.server.ATOServiceImpl runADMECommand
INFO: Output :
>>> Waiting for -migrate phase to begin before initiating the cancel operation .
>>> Waiting for -migrate phase to begin before initiating the cancel operation ..
>>> Waiting for -migrate phase to begin before initiating the cancel operation ...
>>> Waiting for -migrate phase to begin before initiating the cancel operation ....
>>> Waiting for -migrate phase to begin before initiating the cancel operation .....
>>> Waiting for -migrate phase to begin before initiating the cancel operation ......
>>> Waiting for -migrate phase to begin before initiating the cancel operation .......
>>> Waiting for -migrate phase to begin before initiating the cancel operation ........
>>> Waiting for -migrate phase to begin before initiating the cancel operation .........
>>> Waiting for -migrate phase to begin before initiating the cancel operation ..........
>>> Waiting for -migrate phase to begin before initiating the cancel operation ...........
>>> Waiting for -migrate phase to begin before initiating the cancel operation ............
>>> Waiting for -migrate phase to begin before initiating the cancel operation .............
>>> Waiting for -migrate phase to begin before initiating the cancel operation ..............
>>> Waiting for -migrate phase to begin before initiating the cancel operation ...............
>>> Waiting for -migrate phase to begin before initiating the cancel operation ................
>>> Waiting for -migrate phase to begin before initiating the cancel operation .................
>>> Waiting for -migrate phase to begin before initiating the cancel operation ..................
>>> Waiting for -migrate phase to begin before initiating the cancel operation ...................
>>> Waiting for -migrate phase to begin before initiating the cancel operation ....................
>>> Waiting for -migrate phase to begin before initiating the cancel operation .....................Resolution
- Pour résoudre le problème, réduisez l’utilisation sur le point de montage racine « / » pour l’amener en dessous de 100 %, ce qui permet à l’interface utilisateur ADMe de se renseigner correctement.
- Consultez le support Dell pour identifier les fichiers et confirmer que les fichiers identifiés peuvent être supprimés
- Une fois que l’espace est supprimé de la racine '/' et que l’espace est inférieur à 100 %, redémarrez l’interface utilisateur ADME.
Additional Information
Reportez-vous à la base de connaissances (KB) pour résoudre les problèmes d’espace :