Hoy en día, la estructura hiperconvergente o HCI (por sus siglas en inglés) consolida el cómputo, almacenamiento, redes y virtualización en una sola solución.
Hewlett Packard Enterprises la define como el sistema que permite simplificar las operaciones de TI desglosando los nichos tradicionales y permitiendo que el mismo hardware gestione el almacenamiento, el procesamiento, las redes y la virtualización.
Es la infraestructura elegida por las empresas que desean mantenerse competitivas y garantizar que sus centros de datos estén preparados para la nube. Sin embargo, el camino puede ser arduo y muchas no saben saben ni por dónde empezar.
Existían servidores enormes y cada uno tenía cierta capacidad de almacenamiento físico de datos, es decir, un disco duro o varios. Posteriormente, estos se llevaron fuera de los servidores a una cabinas de almacenamiento, muy costosas por cierto, en donde se van aprovisionando diferentes volúmenes lógicos a los servidores, de tal forma que todos comparten un almacenamiento único conceptualmente. Pero esto es muy caro y poco escalable. Aquí es donde entra la siguiente tecnología: la hiperconvergencia.
Es la propiedad en la que dos o más componentes se agrupan para brindar un servicio o realizar una función específica. En este caso, servidores de cómputo, hardware de almacenamiento y switches de red en un solo gabinete o contenedor (rack). El soporte y herramientas de gestión son otorgados por diferentes fabricantes.
Representa la combinación de componentes virtuales y físicos de una infraestructura, tales como servidores, switches de red y hardware de almacenamiento integrados nativamente en un único dispositivo, el cual es controlado y administrado por software. El soporte y las herramientas de gestión son otorgados por un único fabricante.
La hiperconvergencia devuelve los almacenamientos físicos a los servidores, pero la diferencia fundamental es que ahora se construye un volumen lógico (grupo de información), que es la suma de todos los almacenamientos físicos que tengo y que puedo asignar a los diferentes servidores. Por lo tanto, ya no hay un vínculo, uno a uno, entre mi servidor y el disco duro o el almacenamiento que está dentro de éste, sino que ahora lo que se hace es que los diferentes servidores tienen dentro alojados volúmenes lógicos; es decir, no utilizan directamente lo que tienen instalado físicamente sino lo que les es asignado.
Esto permite utilizar al máximo todo el almacenamiento disponible en la instalación y no tener servidores que tengan discos ociosos u otros con los discos llenos, sino que se trata de un todo que no está desacoplado como sucedía con las cabinas. Y todo esto es mucho más barato y escalable.
Además, tiene alta disponibilidad; es decir que si se cae uno de los discos, se asigna de manera dinámica almacenamiento de otro disco duro, otro volumen en cualquier otro servidor. Y al final, tienes redundancia de datos, no pierdes absolutamente nada y todo sigue funcionando.
La gran ventaja no está en la aplicación de hardware, sino en las soluciones de software que están corriendo encima aprovisionando volúmenes lógicos para aprovechar toda la capacidad física de almacenamiento que tiene la infraestructura. Ahí está la diferencia.
Los primeros que utilizaron este tipo de tecnología fueron plataformas como Uber o Facebook que requerían redes de almacenamiento diferentes por el gran volumen de datos que manejan. Hoy, esta se ha comercializado y está accesible para todo el mundo.
En este nivel se trabaja con base en tres componentes:
1. La capa de cómputo.
2. La capa de almacenamiento.
3. La capa de red.
Este tipo de soluciones son ofertadas como una solución pre integrada en un gabinete o contenedor (rack).
En este nivel, además de las capas mencionadas se integra la capa de software de virtualización. En este punto ocurre la convergencia de estas capas que son encapsuladas en un contenedor mucho más compacto para el ahorro de espacio.
Generalmente soporta a un solo fabricante de software y no admite otros. La arquitectura sigue siendo la misma.
En este nivel se integran nativamente los servidores, el almacenamiento y la comunicación necesaria entre ellos, convergiendo en un solo aparato que ocupa dos unidades de rack.
Recordemos que la clave está en la integración nativa de estos componentes, eliminando la necesidad de un switch SAM y una controladora de discos.
Este aparato (appliance) será el encargado de realizar las funciones de:
• Cómputo
• Almacenamiento (definido por software)
• Red (visualización, orquestación y microsegmentación).
Para la hiperconvergencia el almacenamiento es definido por software y es una solución que soporta software de virtualización de diferentes fabricantes.
La hiperconvergencia se caracteriza por tener una capa con gran cantidad de software con funcionalidades clave, como:
• Respaldo
• Réplica
• Recuperación ante desastres
• Deduplicación
• Compresión
• Conexión con la nube
Ya no es necesario el uso de tecnología SAM, el silo de comunicación entre servidores y almacenamiento es eliminado, y todo está dentro del aparato.
Al estar basado en software, HPE ha agregado varias características adicionales, como:
1. Escalabilidad ilimitada. Se puede crecer a cientos o miles de nodos de forma predecible con base en el análisis de las cargas de trabajo.
2. Gestión centralizada. Desde un único punto se puede acceder y administrar todos los equipos a nivel local y global.
3. Automatización y autocorrección. En caso de ocurrir una o varias fallas, los equipos están preparados para soportar y manejar una situación de emergencia.
4. Monitoreo y métricas. Se puede monitorear todo el entorno tanto físico como de software para detectar cualquier anomalía; mapear toda la infraestructura a medida que se escala, comprender la capacidad, realizar correcciones y enfocar el esfuerzo del personal en el crecimiento de la organización.
Significa que es un sistema donde la programación que controla las tareas relacionadas con el almacenamiento y la gestión se desacopla del hardware físico y se convierte en un archivo binario que se integra a la capa de software hiperconvergente, logrando obtener una interfaz estandarizada para la administración de nodos.
La hiperconvergencia está enfocada en la máquina virtual, lo cual es totalmente distinto a las soluciones de almacenamiento tradicionales que están enfocadas en volúmenes lógicos. Esto brinda un nivel de granularidad fino para la restauración en el punto deseado sin tener que manipular el volumen completo.
El sistema de almacenamiento definido por software cumple con las características de un almacenamiento de clase empresarial, pues tiene la capacidad de calcular las entradas y salidas por segundo (IOPS).
La hiperconvergencia permite ejecutar una infraestructura con los siguientes beneficios:
• Escalabilidad sin límite.
• Agilidad y rapidez en el despliegue de aplicaciones.
• Automatización de la administración y solución de problemas.
• Incremento de la seguridad de los datos.
• Reducción de la intervención manual y facilidad de gestión.
• Bajo costo de propiedad (TCO)
• Continuidad de negocio
• Expansión y crecimiento de la empresa.
La hiperconvergencia es el modelo más escalable, más eficiente y de más bajo costo para aprovisionar recursos e inteligencia artificial a tu empresa. Tómala en cuenta en tus planes de consolidación tecnológica y apóyate en los asesores expertos de PCH.
Referencias:
Hewlett Packard Enterprise, ¿Qué es la hiperconvergencia?, marzo 2021
Hewlett Packard Enterprise, La HCI más disruptiva del sector es la DHCI, marzo 2021.
Hewlett Packard Enterprise, HPE Nimble Storage, marzo 2021.