ScaleIO: Fejlfinding af MDM_Disconnect fejl
Summary: MDM-ejerskab (Primary Metadata Manager) flyttes hyppigt mellem MDM-servere.
Symptoms
Følgende hændelse vises, når du bruger showevents.py værktøjet:
6956 2017-07-06 18:21:05.803 MDM_CLUSTER_LOST_CONNECTION WARNING The MDM, ID 27fea9a11c073e82, lost connection
Følgende vises i trc-logfilerne på den sekundære MDM-server:
06/07 18:21:05.486947 0x7ffbc89feeb0:netPath_IsKaNeeded:01858: :: Connected Live CLIENT path 0x7ffb9400a060 of portal 0x7ffb94003780 net 0x7ffbac0044b0 socket 17 inflights 0 didn't receive message for 3 iterations from 10.xxx.xxx.xxx:9011. Marking as down
Cause
MDM-afbrydelser opstår typisk, når de sekundære MDM'er eller tiebreaker ikke har set en holde sig i live inden for timeoutperioden på 500 millisekunder.
Resolution
Kontroller netværkskort (NIC er) på MDM- og TB-serverne for tabte pakker:
[root@scaleio-1 ~]# ifconfig ens192 ens192: flags=4163 mtu 1500 inet 10.xxx.xxx.xxx netmask 255.xxx.xxx.0 broadcast 10.xxx.xxx.xxx inet6 fe80::250:56ff:feb7:2a06 prefixlen 64 scopeid 0x20 ether 00:50:56:b7:2a:06 txqueuelen 1000 (Ethernet) RX packets 311779767 bytes 53460032583 (49.7 GiB) RX errors 0 dropped 41 overruns 0 frame 0 TX packets 312147963 bytes 45970694962 (42.8 GiB) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
Kontroller desuden latenstiden for forbindelsen mellem MDM-noderne og TB ved hjælp af ping-kommandoen:
[root@scaleio-1 ~]# ping 10.xxx.xxx.xxx PING 10.xxx.xxx.xxx (10.xxx.xxx.xxx) 56(84) bytes of data. 64 bytes from 10.xxx.xxx.xxx: icmp_seq=1 ttl=64 time=0.414 ms 64 bytes from 10.xxx.xxx.xxx: icmp_seq=2 ttl=64 time=0.395 ms 64 bytes from 10.xxx.xxx.xxx: icmp_seq=3 ttl=64 time=0.370 ms 64 bytes from 10.xxx.xxx.xxx: icmp_seq=4 ttl=64 time=0.399 ms 64 bytes from 10.xxx.xxx.xxx: icmp_seq=5 ttl=64 time=0.497 ms 64 bytes from 10.xxx.xxx.xxx: icmp_seq=6 ttl=64 time=0.534 ms
Hvis ventetiden varierer eller kommer tæt på 500 ms, kan dette være problemet for afbrydelsen.
Der er også ikke-netværksårsager til MDM-afbrydelsen. Hvis processen bliver hængt eller ikke modtager tilstrækkelige CPU-ressourcer, kan den ikke sende keepalive-pakken rettidigt. Kontroller systemet for CPU-udnyttelse ved hjælp af den øverste kommando.
På VMware-systemer modtager den virtuelle maskine (VM) muligvis ikke tilstrækkelige ressourcer, hvis systemet er overtegnet. Du kan kontrollere, om dette er situationen ved at undersøge CPU-klargøringstiden for VM'en.