ScaleIO: Troubleshooting MDM_Disconnect errors
Summary: Het eigendom van Primary Metadata Manager (MDM) wordt regelmatig verplaatst tussen MDM-servers.
Symptoms
De volgende gebeurtenis wordt weergegeven bij het gebruik van de showevents.py tool:
6956 2017-07-06 18:21:05.803 MDM_CLUSTER_LOST_CONNECTION WARNING The MDM, ID 27fea9a11c073e82, lost connection
Het volgende wordt weergegeven in de trc-logboeken van de secundaire MDM-server:
06/07 18:21:05.486947 0x7ffbc89feeb0:netPath_IsKaNeeded:01858: :: Connected Live CLIENT path 0x7ffb9400a060 of portal 0x7ffb94003780 net 0x7ffbac0044b0 socket 17 inflights 0 didn't receive message for 3 iterations from 10.xxx.xxx.xxx:9011. Marking as down
Cause
MDM-verbroken verbindingen treden meestal op wanneer de secundaire MDM's of tiebreaker niet binnen de time-outperiode van 500 milliseconden in leven zijn gebleven.
Resolution
Controleer de netwerkinterfacekaarten (NIC's) op de MDM- en TB-servers op gevallen pakketten:
[root@scaleio-1 ~]# ifconfig ens192 ens192: flags=4163 mtu 1500 inet 10.xxx.xxx.xxx netmask 255.xxx.xxx.0 broadcast 10.xxx.xxx.xxx inet6 fe80::250:56ff:feb7:2a06 prefixlen 64 scopeid 0x20 ether 00:50:56:b7:2a:06 txqueuelen 1000 (Ethernet) RX packets 311779767 bytes 53460032583 (49.7 GiB) RX errors 0 dropped 41 overruns 0 frame 0 TX packets 312147963 bytes 45970694962 (42.8 GiB) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
Controleer bovendien de latentie van de verbinding tussen de MDM-knooppunten en TB met de ping-opdracht:
[root@scaleio-1 ~]# ping 10.xxx.xxx.xxx PING 10.xxx.xxx.xxx (10.xxx.xxx.xxx) 56(84) bytes of data. 64 bytes from 10.xxx.xxx.xxx: icmp_seq=1 ttl=64 time=0.414 ms 64 bytes from 10.xxx.xxx.xxx: icmp_seq=2 ttl=64 time=0.395 ms 64 bytes from 10.xxx.xxx.xxx: icmp_seq=3 ttl=64 time=0.370 ms 64 bytes from 10.xxx.xxx.xxx: icmp_seq=4 ttl=64 time=0.399 ms 64 bytes from 10.xxx.xxx.xxx: icmp_seq=5 ttl=64 time=0.497 ms 64 bytes from 10.xxx.xxx.xxx: icmp_seq=6 ttl=64 time=0.534 ms
Als de latentie varieert of in de buurt van 500 ms komt, kan dit het probleem zijn voor het verbreken van de verbinding.
Er zijn ook niet-netwerkredenen voor het verbreken van de MDM-verbinding. Als het proces vastloopt of niet voldoende CPU-resources ontvangt, kan het keepalive-pakket niet tijdig worden verzonden. Controleer het systeem op CPU-gebruik met de topopdracht.
Op VMware-systemen ontvangt de virtuele machine (VM) mogelijk niet voldoende resources als het systeem overbelast is. U kunt controleren of dit het geval is door de CPU-gereedheidstijd voor de VM te onderzoeken.