Isilon OneFS: Smartfail-out für einen Node-Pool

Summary: In diesem Artikel wird beschrieben, wie Sie einen ordnungsgemäßen Smartfail-Vorgang für einen Node-Pool durchführen, der in einem Cluster nicht mehr benötigt wird.

This article applies to This article does not apply to This article is not tied to any specific product. Not all product versions are identified in this article.

Instructions

Hier sind die Schritte zum ordnungsgemäßen SmartFail-out eines Node-Pools, der im Cluster nicht mehr benötigt wird.

  1. Verschieben der meisten Daten mithilfe von Dateipool-Policies
    1. Bearbeiten Sie mithilfe der CLI oder WebUI die Dateipool-Policies, um Daten aus dem Pool, der außer Betrieb genommen wird, einem anderen Pool im Cluster zuzuweisen. Unterstützung bei der optimalen Konfiguration finden Sie im Administrationshandbuch für Ihre OneFS-Version.

Nachdem die Dateipool-Policies geändert wurden, starten Sie einen SmartPools-Job, um die vorgenommenen Änderungen zu übernehmen. Wenn die Dateipool-Policies korrekt konfiguriert wurden, sollten die meisten Daten verschoben werden.

Hinweis: Es ist normal, dass noch ein gewisser Speicherplatz im Node-Pool belegt ist (in der Regel unter 5 %, aber es können auch mehr sein). Das ist in Ordnung und verursacht keine Probleme.

 

  1. Stellen Sie sicher, dass Global Spillover aktiviert ist, damit die letzten Daten auf den Nodes in andere Node-Pools verschoben werden können.

CLI:
# isi storagepool settings view

WebUI:
Dateisystem ->Storage-Pools - SmartPools-Einstellungen>

Wenn es nicht aktiviert ist, stellen Sie sicher, dass es aktiviert ist.

 

  1. Starten Sie den Smartfail-Prozess.
    Führen Sie mit dem folgenden Befehl jeweils ein Smartfail für einen Node durch:
     
    OneFS 7.x
    # isi devices -a smartfail -d <node LNN>
    OneFS 8.x
    # isi devices node smartfail --node-lnn=<node LNN>

Wenn der Smartfail-Prozess abgeschlossen ist (FlexProtect/LIN-Job), fahren Sie mit dem nächsten Node fort.

Führen Sie nacheinander ein Smartfail-Fail-Verfahren durch, bis zwei Nodes übrig sind.
Starten Sie den Smartfail-Prozess auf beiden Nodes zusammen, um ein Node-Pool-Quorum von mindestens 51 % der Geräte zu erreichen, die online sind.
Durch Smartfailing von nur einem der letzten 2 Nodes wird das Quorum unterbrochen und der Smartfail-Prozess kann nicht abgeschlossen werden.
Wenn Sie beide Nodes in den Smartfail-Status versetzen, bleibt das Quorum erhalten, die Daten werden auf die anderen Node-Pools verteilt.

Additional Information

Stellen Sie immer sicher, dass sich die Systemmarkierung auch auf Node-Pools befindet, für die KEIN Smartfail-Vorgang aus dem Cluster durchgeführt wird. 
Wissensdatenbank-Artikel für Systemmarkierung: Performanceauswirkungen von PowerScale 9.x auf gemischte Node-Cluster mit Archiv-Nodes

Um zu überprüfen, welche Pool-IDs das Systemflag haben, verwenden Sie den folgenden Befehl:

sysctl efs.bam.disk_pool_db|grep -B2 -A10 system_group


Beispiel für eine Zeilensuche nach pool_and_group_ids:

pool_and_group_ids={ 3, 4, 5 }   


Verwenden Sie den folgenden Befehl, um zu bestätigen, dass die Laufwerkpool-IDs mit der obigen Ausgabe übereinstimmen:

isi storagepool health


In der Beispielzeile suchen Sie nach der Zahl nach dem Namen des Laufwerkpools, das folgende Beispiel zeigt: 3 bedeutet ID 3:

 s210_6.9tb_800gb-    UM---   HDD  +2d:1n 2:bay4,9,11,13,1 Nodes:        Nodes:  
ssd_32gb:3                                8,23, 1:bay4,9,1 Drives:       Drives:
                                          3,18,23

Affected Products

PowerScale OneFS

Products

PowerScale OneFS
Article Properties
Article Number: 000170788
Article Type: How To
Last Modified: 25 Nov 2025
Version:  6
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.