ScaleIO: Troubleshooting von MDM_Disconnect Fehlern
Summary: Die Eigentumsrechte des primären Metadatenmanagers (MDM) werden häufig zwischen MDM-Servern verschoben.
Symptoms
Das folgende Ereignis wird angezeigt, wenn Sie das showevents.py Tool verwenden:
6956 2017-07-06 18:21:05.803 MDM_CLUSTER_LOST_CONNECTION WARNING The MDM, ID 27fea9a11c073e82, lost connection
Folgendes wird in den TRC-Protokollen des sekundären MDM-Servers angezeigt:
06/07 18:21:05.486947 0x7ffbc89feeb0:netPath_IsKaNeeded:01858: :: Connected Live CLIENT path 0x7ffb9400a060 of portal 0x7ffb94003780 net 0x7ffbac0044b0 socket 17 inflights 0 didn't receive message for 3 iterations from 10.xxx.xxx.xxx:9011. Marking as down
Cause
MDM-Trennungen treten in der Regel auf, wenn die sekundären MDMs oder der Tiebreaker innerhalb des Timeout-Zeitraums von 500 Millisekunden keinen Keep Alive erlebt haben.
Resolution
Überprüfen Sie die Netzwerkschnittstellenkarten (NICs) auf den MDM- und TB-Servern auf verworfene Pakete:
[root@scaleio-1 ~]# ifconfig ens192 ens192: flags=4163 mtu 1500 inet 10.xxx.xxx.xxx netmask 255.xxx.xxx.0 broadcast 10.xxx.xxx.xxx inet6 fe80::250:56ff:feb7:2a06 prefixlen 64 scopeid 0x20 ether 00:50:56:b7:2a:06 txqueuelen 1000 (Ethernet) RX packets 311779767 bytes 53460032583 (49.7 GiB) RX errors 0 dropped 41 overruns 0 frame 0 TX packets 312147963 bytes 45970694962 (42.8 GiB) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
Überprüfen Sie außerdem die Latenz der Verbindung zwischen den MDM-Nodes und TB mithilfe des Ping-Befehls:
[root@scaleio-1 ~]# ping 10.xxx.xxx.xxx PING 10.xxx.xxx.xxx (10.xxx.xxx.xxx) 56(84) bytes of data. 64 bytes from 10.xxx.xxx.xxx: icmp_seq=1 ttl=64 time=0.414 ms 64 bytes from 10.xxx.xxx.xxx: icmp_seq=2 ttl=64 time=0.395 ms 64 bytes from 10.xxx.xxx.xxx: icmp_seq=3 ttl=64 time=0.370 ms 64 bytes from 10.xxx.xxx.xxx: icmp_seq=4 ttl=64 time=0.399 ms 64 bytes from 10.xxx.xxx.xxx: icmp_seq=5 ttl=64 time=0.497 ms 64 bytes from 10.xxx.xxx.xxx: icmp_seq=6 ttl=64 time=0.534 ms
Wenn die Latenz variiert oder sich 500 ms nähert, könnte dies das Problem für die Trennung sein.
Es gibt auch nicht-netzwerkbezogene Gründe für die MDM-Trennung. Wenn der Prozess hängen bleibt oder keine ausreichenden CPU-Ressourcen erhält, kann er das Keepalive-Paket nicht rechtzeitig senden. Überprüfen Sie das System mit dem Befehl top auf CPU-Auslastung.
Auf VMware-Systemen erhält die virtuelle Maschine (VM) möglicherweise nicht genügend Ressourcen, wenn das System überbelegt ist. Sie können überprüfen, ob dies der Fall ist, indem Sie die CPU-Bereitschaftszeit für die VM untersuchen.