Tutorial sobre la implementación automatizada para ScaleIO
Publicado el ABR. 22, 2025
En este video, se muestra el procedimiento de demostración de una implementación automatizada de ScaleIO.
Bienvenidos. Es posible que se pregunte qué es el software Scale Scale para encontrar almacenamiento de DELL E MC que proporciona almacenamiento de bloques a escala de centro de datos mediante servidores X 86 estándar y redes Ethernet. Esto permite que los centros de datos se alejen del hardware propietario, lo que ofrece más funcionalidad y confiabilidad de servidores y redes genéricos. La escala es increíblemente versátil, con clústeres que varían en tamaño de al menos tres a miles, tanto en configuraciones hiperconvergentes como solo de almacenamiento. Esto le permite comenzar con poco y crecer fácilmente a medida que crece la demanda, lo que aumenta el tamaño de su clúster en números pequeños o grandes de manera automatizada y transparente, sin importar el tamaño.
Cada nodo de un clúster de almacenamiento definido por software tiene un poco de sobrecarga administrativa durante la implementación. La administración de servidores, el hipervisor y el software de almacenamiento necesitan varias redes, configuradas, configuradas con contraseñas de root configuradas y software instalado y actualizado según el tamaño del clúster. Esto podría tardar varios días. Incluso para un equipo de administradores. En este video, demostraremos cómo scal permite que un solo administrador implemente un clúster completo en menos de 30 minutos desde el encendido del nodo para hacerlo. Comenzaremos con un clúster de tres nodos que aprovecha Dell E MC Ready Nodes para escalar: los nodos listos para IO son servidores X 86 configurados de manera óptima con el hipervisor y la máquina virtual de escalamiento preinstalados. Los Ready Nodes están disponibles en una amplia variedad de configuraciones.
Dos sistemas de discos U 24 basados en Dell PowerEdge R 7 30 XD y un sistema de unidades U 10 basado en Power Edge R 630. Cada uno está disponible en configuraciones todo flash híbridas o solo HCD, así como hiperconvergentes con más RAM y CP o como personalidades solo de almacenamiento. Antes de avanzar demasiado en la demostración, debemos tomarnos unos minutos para presentar algunos conceptos y acrónimos de escal. Comencemos con el host. El host es el sistema operativo o el hipervisor en el que está instalado el software o la máquina virtual de SCA. Hoy en día, utilizamos VMWARE I como nuestro host. Dado que nuestro host es un hipervisor, scal se ejecutará en su propia máquina virtual a la que se hace referencia como SBM o máquina virtual de escala. Expandamos la SBM para destacar dos funciones clave.
Los primeros son los clientes de datos de I/O de escalamiento que administran la conexión de host al almacenamiento de I/O de escalamiento y los servidores de datos de I/O de escalamiento o SDS que administran el almacenamiento local y lo presentan a SCS como un pool grande. Algunos nodos actúan como administradores de metadatos o MDMS MS DIRECT SD SD CS al nodo SDS correcto; cada clúster tiene al menos dos MDMS. Una primaria y otra secundaria. La función de preferencia es necesaria para ayudar a decidir qué MDM es el principal en caso de una falla de red. Echemos un vistazo a los pasos necesarios para crear nuestro clúster de I/O a escala de tres nodos.
El primer paso es la instalación física de los nodos en los racks del centro de datos. Dell nos facilita el proceso con Ready Rails. Estos rieles no requieren tornillos y, afortunadamente, no requieren destornilladores. Después de la instalación en los racks, los nodos deberán cablearse a las redes. Se requieren tres redes físicas: una red de administración de un gigabit para el hipervisor Ira y redes de administración escalables, y una red redundante de 10 gigabit Ethernet para datos y comunicación entre clústeres, las redes de datos pueden ser bastante complicadas para clústeres muy grandes con cientos de nodos. Pero, en pocas palabras, el único requisito es que cada nodo pueda comunicarse con todos los demás nodos y con cada SDC. En esta imagen, se muestra cómo se cablean las redes de nuestro clúster de tres nodos utilizado para la demostración.
Mientras los nodos se instalan físicamente y se cablean, nuestro administrador puede comenzar a trabajar instalando el software de administración de IO de Scale y configurando la información que el asistente de implementación extraerá para configurar las redes de seguridad de los nodos y conectarlas a V Center. Una vez que se configura el software de administración y los nodos se encienden y se conectan a sus redes. La implementación automatizada puede comenzar cuando iniciamos sesión, la primera vez que se nos pedirá que hagamos nuestra configuración inicial donde definimos las contraseñas y las direcciones IP para cada una de las capas de redes y software. Hay algunas pautas específicas que se detallan en la sección de introducción.
Siéntase libre de pausar si desea leerlos en detalle. En cada paso durante la implementación, tendremos la oportunidad de revisar y cambiar los ajustes antes de avanzar al paso siguiente. Aquí se describen todos los pasos realizados durante la implementación automatizada en seguridad. Establecemos la ruta deseada o la contraseña de administrador para cada capa de software. Aquí, establecemos un rango para un grupo de direcciones IP desde el cual la implementación automatizada extraerá IP S para cada nodo. Las redes de datos son las redes privadas Ethernet redundantes de 10 gigas etiquetadas aquí como redes de datos A y B. Finalmente, establecemos nuestra conexión con el servidor del V center y seleccionamos el centro de datos en el que se colocarán los nodos para iniciar la implementación proporcionada. Nuestros nodos se instalaron cableados y encendidos.
Simplemente hacemos clic en el botón Agregar nodos porque este era el laboratorio de I/O de escalamiento. Encontramos ocho nodos, pero solo estamos seleccionando los tres nodos que estamos usando hoy. Hemos acelerado un poco las cosas, pero siempre se ve un reloj en marcha. Las direcciones IP se aplican para cambiar cualquiera de ellas. Podríamos haber seleccionado la IP antes de continuar aquí. Vemos nuestras redes A y B y las IP de los pools que definimos anteriormente durante el paso de implementación, las funciones del clúster están asignadas y son necesarias. El software se implementa y configura; los dominios de protección son mucho más relevantes para los clústeres más grandes. Y tendremos otro video más adelante que los cubre con mucho más detalle. Los nodos tienen una combinación de SDS y HDD S. Necesitamos elegir cómo se usará el sds.
Los configuraremos como dispositivos de caché, aplicando la configuración a todos los nodos y acelerando el rendimiento de nuestros tds. Confirmamos que cada dispositivo está asignado a un pool de almacenamiento, aunque aquí solo tenemos un pool, los clústeres más grandes pueden tener varios pools que varían en características de rendimiento o disponibilidad. En un video posterior, se abordarán los pools de almacenamiento con mucho más detalle. Una vez que se crea el pool de almacenamiento y finaliza la implementación, nuestro tiempo total fue de poco más de 27 minutos y, sorprendentemente, habría sido muy similar con docenas o cientos de nodos.
La pestaña hardware nos permite revisar la configuración de cada nodo, ver sus direcciones IP y la función del clúster, y ver cualquier componente de hardware que pueda tener problemas. El tablero nos muestra nuestra utilización de la capacidad, nuestra visión general del rendimiento, así como otra información relacionada con la administración diaria del sistema, después de haber implementado completamente nuestro sistema de almacenamiento definido por software a escala. Nuestro próximo paso, que abordamos en el siguiente video de esta serie, es aprovisionar almacenamiento a nuestros clientes. Los hosts de VMWARE.