Isilon OneFS: Så här smartfailar du ut en nodpool
Summary: I den här artikeln beskrivs hur du smartfailar en nodpool som inte längre behövs i ett kluster på rätt sätt.
Instructions
Här är stegen för att korrekt smartfaila ut en nodpool som inte längre behövs i klustret.
- Flytta det mesta av data med hjälp av filpoolsprinciper
- Med hjälp av CLI eller WebUI redigerar du filpoolsprinciperna för att peka data från poolen som inaktiveras till en annan pool i klustret. Mer information om hur du konfigurerar detta finns i administrationshandboken för din OneFS-version.
När filpoolsprinciperna har ändrats startar du ett SmartPools-jobb för att tillämpa de ändringar som har gjorts. Om filpoolsprinciperna har konfigurerats korrekt bör detta flytta de flesta data.
Obs! Det är normalt att det fortfarande används lite utrymme på nodpoolen (vanligtvis under 5 %, men det kan vara mer). Detta är bra och kommer inte att orsaka några problem.
- Se till att Global Spillover är aktiverat så att den sista biten data på noderna tillåts flyttas till andra nodpooler.
CLI:# isi storagepool settings view
WebUI:
Filsystem –>lagringspooler –>SmartPools-inställningar
Om den inte är aktiverad, se till att den är aktiverad.
- Starta Smartfail-processen.
Smartfail en nod i taget med följande kommando:
OneFS 7.x# isi devices -a smartfail -d <node LNN>
OneFS 8.x# isi devices node smartfail --node-lnn=<node LNN>
När Smartfail-processen har slutförts (FlexProtect/Lin-jobb) går du vidare till nästa nod.
Smartfail dem en i taget tills två noder återstår.
Starta Smartfail-processen på båda noderna tillsammans för ett nodpoolkvorum på minst 51 % av enheterna online.
Smartfail: endast en nod av de sista 2 bryter kvorumet och det kommer inte att kunna slutföra Smartfail-processen.
Om du placerar båda noderna i en Smartfail-status behålls kvorum, data stripes till de andra nodpoolerna.
Additional Information
Se alltid till att kontrollera att systemflaggan även finns på nodpooler som INTE kommer att smartmisslyckas från klustret.
KB för systemflagga: PowerScale 9.x prestandapåverkan på blandade nodkluster med arkivnoder
Om du vill kontrollera vilka pool-ID:n som har systemflaggan använder du kommandot nedan:
sysctl efs.bam.disk_pool_db|grep -B2 -A10 system_group
Exempel på radsökning efter pool_and_group_ids:
pool_and_group_ids={ 3, 4, 5 }
Använd kommandot nedan för att bekräfta att diskpools-ID:t matchar ovanstående utdata:
isi storagepool health
Exempelrad söker efter numret efter diskpoolens namn, nedan exempel visar: 3 betyder ID 3:
s210_6.9tb_800gb- UM--- HDD +2d:1n 2:bay4,9,11,13,1 Nodes: Nodes:
ssd_32gb:3 8,23, 1:bay4,9,1 Drives: Drives:
3,18,23