Isilon OneFS: Smartfail-out für einen Node-Pool
Summary: In diesem Artikel wird beschrieben, wie Sie einen ordnungsgemäßen Smartfail-Vorgang für einen Node-Pool durchführen, der in einem Cluster nicht mehr benötigt wird.
Instructions
Hier sind die Schritte zum ordnungsgemäßen SmartFail-out eines Node-Pools, der im Cluster nicht mehr benötigt wird.
- Verschieben der meisten Daten mithilfe von Dateipool-Policies
- Bearbeiten Sie mithilfe der CLI oder WebUI die Dateipool-Policies, um Daten aus dem Pool, der außer Betrieb genommen wird, einem anderen Pool im Cluster zuzuweisen. Unterstützung bei der optimalen Konfiguration finden Sie im Administrationshandbuch für Ihre OneFS-Version.
Nachdem die Dateipool-Policies geändert wurden, starten Sie einen SmartPools-Job, um die vorgenommenen Änderungen zu übernehmen. Wenn die Dateipool-Policies korrekt konfiguriert wurden, sollten die meisten Daten verschoben werden.
Hinweis: Es ist normal, dass noch ein gewisser Speicherplatz im Node-Pool belegt ist (in der Regel unter 5 %, aber es können auch mehr sein). Das ist in Ordnung und verursacht keine Probleme.
- Stellen Sie sicher, dass Global Spillover aktiviert ist, damit die letzten Daten auf den Nodes in andere Node-Pools verschoben werden können.
CLI:# isi storagepool settings view
WebUI:
Dateisystem ->Storage-Pools - SmartPools-Einstellungen>
Wenn es nicht aktiviert ist, stellen Sie sicher, dass es aktiviert ist.
- Starten Sie den Smartfail-Prozess.
Führen Sie mit dem folgenden Befehl jeweils ein Smartfail für einen Node durch:
OneFS 7.x# isi devices -a smartfail -d <node LNN>
OneFS 8.x# isi devices node smartfail --node-lnn=<node LNN>
Wenn der Smartfail-Prozess abgeschlossen ist (FlexProtect/LIN-Job), fahren Sie mit dem nächsten Node fort.
Führen Sie nacheinander ein Smartfail-Fail-Verfahren durch, bis zwei Nodes übrig sind.
Starten Sie den Smartfail-Prozess auf beiden Nodes zusammen, um ein Node-Pool-Quorum von mindestens 51 % der Geräte zu erreichen, die online sind.
Durch Smartfailing von nur einem der letzten 2 Nodes wird das Quorum unterbrochen und der Smartfail-Prozess kann nicht abgeschlossen werden.
Wenn Sie beide Nodes in den Smartfail-Status versetzen, bleibt das Quorum erhalten, die Daten werden auf die anderen Node-Pools verteilt.
Additional Information
Stellen Sie immer sicher, dass sich die Systemmarkierung auch auf Node-Pools befindet, für die KEIN Smartfail-Vorgang aus dem Cluster durchgeführt wird.
Wissensdatenbank-Artikel für Systemmarkierung: Performanceauswirkungen von PowerScale 9.x auf gemischte Node-Cluster mit Archiv-Nodes
Um zu überprüfen, welche Pool-IDs das Systemflag haben, verwenden Sie den folgenden Befehl:
sysctl efs.bam.disk_pool_db|grep -B2 -A10 system_group
Beispiel für eine Zeilensuche nach pool_and_group_ids:
pool_and_group_ids={ 3, 4, 5 }
Verwenden Sie den folgenden Befehl, um zu bestätigen, dass die Laufwerkpool-IDs mit der obigen Ausgabe übereinstimmen:
isi storagepool health
In der Beispielzeile suchen Sie nach der Zahl nach dem Namen des Laufwerkpools, das folgende Beispiel zeigt: 3 bedeutet ID 3:
s210_6.9tb_800gb- UM--- HDD +2d:1n 2:bay4,9,11,13,1 Nodes: Nodes:
ssd_32gb:3 8,23, 1:bay4,9,1 Drives: Drives:
3,18,23