domingo, 26 de abril de 2026

Discovery OS y Phoenix OS : Los guardianes del arranque antes de que exista el clúster

Cuando recibes un nodo Nutanix recién salido de fábrica y lo conectas a la red, lo primero que te pregunta es: ¿Quién eres y qué quieres instalar? Y para responder a esa pregunta, Nutanix recurre a dos sistemas operativos muy especiales que no son ni AHV, ni ESXi, ni nada que vayas a ver en producción. Son los protagonistas silenciosos del proceso de instalación: Discovery OS y Phoenix OS.

Son dos piezas muy distintas, con propósitos distintos, pero que muchos profesionales confunden o incluso desconocen. Vamos a ponerles cara y apellidos.



El contexto: ¿Qué hay en un nodo antes de instalar nada?

Antes de hablar de estas dos tecnologías, conviene entender qué se encuentra un ingeniero cuando recibe un nodo Nutanix desde fábrica, porque no siempre viene igual.

Nutanix y sus socios OEM instalan software en los nodos en fábrica antes de enviarlos al cliente. Para los envíos dentro de EE. UU., ese software es un hipervisor y AOS. Para los nodos NX de fábrica, el hipervisor es AHV. En el caso de las fábricas OEM, el proveedor decide qué hipervisor enviar al cliente, pero siempre instalan AOS independientemente del hipervisor. Sin embargo, para los envíos fuera de EE. UU., Nutanix instala un software ligero llamado DiscoveryOS, que permite al nodo ser descubierto en Foundation o en la opción de Expansión de Clúster de Prism. 

Resumiendo: si estás en España (o cualquier país fuera de EE. UU.) y recibes un nodo NX directo de Nutanix, lo que arranca es DiscoveryOS. Sin hipervisor, sin CVM, solo lo justo para que Foundation pueda encontrarlo en la red.

Discovery OS: El "hola, estoy aquí" del nodo recién llegado

DiscoveryOS es, en esencia, un sistema operativo de mínimo peso cuya única misión es hacer que el nodo sea localizable y gestionable antes de que exista ningún stack real instalado.

Como un nodo con DiscoveryOS no viene preinstalado con hipervisor ni AOS, debe pasar por el proceso de imaging antes de poder unirse a un clúster. Tanto Foundation como la opción de Expandir Clúster permiten hacer ese imaging directamente con el hipervisor y AOS correctos.

Técnicamente, DiscoveryOS ejecuta un servicio Foundation integrado que permite al nodo emitir su "latido" (heartbeat) de disponibilidad hacia la red. Cuando los nodos salen de fábrica, tendrán ya sea un CVM funcional (con el servicio Foundation de CVM en ejecución) o DiscoveryOS (para los envíos internacionales de NX). Los nodos, independientemente de su ubicación, emiten su estado de "listo" hacia Foundation Central

¿Cómo se descubren estos nodos en la práctica?

El proceso de descubrimiento utiliza IPv6 multicast sobre el segmento local. Por eso uno de los errores más comunes en despliegues es que el switch de top-of-rack no tenga IPv6 activado. El descubrimiento usa IPv6 multicast, por lo que hay que asegurarse de que el switch lo soporte y esté activado. Nutanix Community (https://next.nutanix.com/how-it-works-22/unable-to-discover-the-nodes-42109) Si el switch no lo soporta, los nodos serán invisibles para Foundation, y el remedio es añadirlos manualmente con la IP de IPMI ya configurada.

¿Y con Foundation Central?

Los nodos de fábrica necesitan estar conectados a una red que tenga un ámbito DHCP definido con opciones específicas. Esto es para garantizar que los nodos reciben automáticamente la IP de Foundation Central y las claves API propias del entorno. El servidor DHCP debe estar configurado con opciones específicas del proveedor (vendor class: NutanixFC).

Una vez reciben esa información, se "presentan" a Foundation Central y el administrador puede orquestar el imaging desde ahí, incluso en nodos remotos sin necesidad de estar físicamente presente.

En resumen, DiscoveryOS es:
  • El sistema operativo de bootstrap que lleva preinstalado cualquier nodo NX enviado fuera de EE. UU.
  • Un sistema de mínimo footprint: no tiene hipervisor ni CVM operativa.
  • El mecanismo de "mano levantada" que hace que Foundation pueda localizar el nodo.
  • Compatible con Foundation y con la función de Expandir Clúster de Prism.
  • Una capa de software ligera que permite al nodo ser descubierto por AOS 5.11 y versiones posteriores, y así ser gestionado e instalado por una CVM de un clúster existente. (https://next.nutanix.com/installation-configuration-23/foundation-how-to-image-bare-metal-nodes-33787)

Phoenix OS: La sala de operaciones para reinstalar un nodo

Si DiscoveryOS es el recién llegado que levanta la mano, Phoenix OS es el bisturí que usas cuando algo ha salido mal, o cuando necesitas operar sobre un nodo de forma quirúrgica y offline.

Phoenix es un instalador basado en ISO que se puede utilizar para realizar las siguientes tareas de instalación en hardware bare-metal, un nodo a la vez: configurar ajustes del hipervisor, switches virtuales, etc., después de instalar un hipervisor en un disco de arranque de host de reemplazo; instalar la Controller VM (CVM), que ejecuta AOS; e instalar el hipervisor en un nodo nuevo o de reemplazo. Nutanix Community.

La clave de Phoenix es que es un ISO arrancable que puedes montar vía consola remota (IPMI/iDRAC/iLO) y que convierte cualquier nodo en una pequeña estación de trabajo de instalación. Lo que incluya ese ISO determina qué puedes hacer con él.

¿Qué puede llevar dentro un ISO de Phoenix?
  • Solo Phoenix (sin AOS ni hipervisor): te deja en un prompt de línea de comandos. Útil para configurar parámetros del hipervisor cuando ya está instalado.
  • Phoenix + AOS: puede instalar la CVM.
  • Phoenix + AOS + ISO del hipervisor: instala todo el stack en un solo paso, de golpe.

La utilidad de un ISO de Phoenix depende del software que incluya. Si incluye los archivos del instalador de AOS, puedes usar la imagen para instalar AOS. Si incluye un ISO del hipervisor, puedes usarla para instalar el hipervisor. (https://next.nutanix.com/installation-configuration-23/appendix-imaging-a-node-phoenix-38084)

¿Cómo se genera un ISO de Phoenix?

Hay dos formas. La primera es descargarlo directamente desde el portal de soporte de Nutanix. La segunda es generarlo desde una Foundation VM con el comando adecuado. Por ejemplo, para generar un ISO con AOS y AHV incluidos:

./generate_iso phoenix \

--aos-package=/home/nutanix/foundation/nos/nutanix_installer_package-release-XXX.tar.gz \

--kvm=/home/nutanix/foundation/isos/hypervisor/kvm/kvm_host_bundle_XX.iso

Este proceso puede generar un ISO de Phoenix de varios GB con la versión de AOS y AHV incluida. (https://next.nutanix.com/installation-configuration-23/phoenix-os-44818)

El proceso de instalación con Phoenix, paso a paso resumido:
  1. Se monta el ISO vía consola IPMI (iDRAC, iLO, BMC...) como un CD/DVD virtual.
  2. Se configura el boot para arrancar desde ese dispositivo virtual.
  3. Se reinicia el nodo y se espera a que aparezca el menú del instalador de Nutanix. Se selecciona "Install CVM (Wipes existing data!) and Install, Configure Hypervisor" en el campo de acción. Dell
  4. Los scripts de instalación de AOS y/o configuración del hipervisor se ejecutan en el primer arranque. El proceso puede tardar hasta una hora en completarse. El nodo puede reiniciarse varias veces automáticamente durante la instalación. No se debe apagar ni reiniciar manualmente el host OS hasta que la instalación se complete. Dell
  5. Una vez finalizado, se desmonta el ISO y se confirma el reinicio final.

¿Cuándo usar Phoenix y cuándo NO usarlo?

Esta es la pregunta del millón, y la documentación oficial de Nutanix es muy clara al respecto:

Phoenix no es normalmente necesario ni recomendado para hacer imaging de un nodo individual. Se debe usar Phoenix para hacer imaging de un nodo individual únicamente cuando usar Prism o Foundation no sea una opción viable, como en algunos escenarios de sustitución de hardware. El software recomendado para hacer imaging, incluso cuando se quiere hacer imaging de un nodo individual, son Foundation y la consola web de Prism.

Dicho de otra manera: si Foundation funciona, úsalo. Es más sencillo, más rápido y gestiona el proceso completo. Phoenix entra en escena cuando:
  • Tienes un nodo bare-metal sin acceso a Foundation.
  • Estás en un escenario de recuperación de disco de arranque del host.
  • No tienes acceso IPv4/IPv6 para que Foundation descubra el nodo.
  • Necesitas instalar de forma absolutamente aislada, nodo por nodo.

Un pequeño esquema resumen de uso:




...Y una tablita resumen:


CaracterísticaDiscovery OSPhoenix OS
TipoSO ligero preinstalado en fábricaISO arrancable generado bajo demanda
PropósitoHacer el nodo localizable vía FoundationInstalar/reinstalar hipervisor y CVM de forma offline
Viene de fábricaSí (envíos fuera de EE. UU.)No. Se descarga o genera manualmente
Necesita redSí (IPv6 multicast para descubrimiento)No necesariamente (se puede montar por IPMI)
Instala el stackNo (solo facilita el descubrimiento)Sí (si incluye AOS e ISO del hipervisor)
Cuándo usarloNodos nuevos en proceso de Foundation normalEscenarios de recuperación o sin acceso a Foundation
Recomendado para uso habitualSolo cuando Foundation no es viable


Conclusión: Dos herramientas, dos momentos distintos del ciclo de vida

El ecosistema Nutanix está muy bien pensado para que el proceso de instalación sea lo más automático y desatendido posible. DiscoveryOS y Phoenix OS cubren los dos extremos del espectro: el primero, el escenario ideal donde el nodo "sale solo" en Foundation nada más conectarse a la red; el segundo, el escenario de último recurso donde necesitas operar a corazón abierto sobre el hardware.

Como regla de oro: si puedes usar Foundation, úsalo siempre. Si el nodo arranca en DiscoveryOS (lo cual es lo habitual en Europa), Foundation lo detectará sin problema. Y si algún día te encuentras con un nodo que no arranca bien, un disco de arranque roto o un escenario de recuperación, ya sabes que Phoenix está ahí esperando, listo para resucitar lo que sea necesario. Vamos, que el nombre no es casual.

Dejo un poco de bibliografia, aunque los enlaces anteriores ya cubren todo el articulo, pero si te gusta el tema, conviene que te leas todo esto:

El registro es gratuito, no necesitas ser cliente.

Nutanix Biblehttps://www.nutanixbible.com/2h-book-of-basics-foundation-imaging.html — cubre Foundation, DiscoveryOS y todo el proceso de imaging en profundidad, completamente gratis y siempre actualizado.

Nutanix Communityhttps://next.nutanix.com/installation-configuration-23/ — foro oficial con hilos técnicos sobre Phoenix, Foundation y DiscoveryOS. Gratuito y sin registro para leer.

Dell Support KB (para nodos Dell/Nutanix): https://www.dell.com/support/kbdoc/en-us/000121516 — las guías de Phoenix para nodos Dell son públicas y sin login.

viernes, 24 de abril de 2026

Las comunidades de Nutanix: NTC, MCX y Partner Elite, qué son, en qué se diferencian y por qué importan

 Si llevas tiempo en el ecosistema Nutanix, seguro que te has topado con estas siglas en LinkedIn o en los foros de la comunidad. NTC, MCX, Partner Elite. Cada año aparecen listas de seleccionados, felicitaciones cruzadas y alguna que otra pregunta de "¿y eso qué es exactamente?". En este post intento ordenar el mapa, ver cómo han evolucionado estos programas en los últimos años y, sobre todo, qué significan en la práctica para alguien que trabaja día a día con la tecnología.

El NTC: de reconocimiento técnico a comunidad de divulgadores

El programa Nutanix Technology Champions existe desde hace años y, en esencia, reconoce a profesionales que contribuyen de forma activa y constante a la comunidad: foros, blogs, charlas en eventos, vídeos, podcasts. No es una certificación técnica, es un reconocimiento a quién comparte lo que sabe.

Lo que sí ha cambiado con el tiempo es el perfil que buscan. Hace unos años el NTC tenía un componente más centrado en el usuario final, en el administrador que opera la plataforma en el día a día. Hoy la convocatoria es más abierta: buscan bloggers, speakers, podcasters, líderes de grupos de usuarios, gente que contribuye en los foros y también "conectores" que mueven el ecosistema aunque no tengan un blog con miles de visitas. Incluso los partners pueden acceder, algo que antes no estaba tan claro.

¿Esto es bueno o malo? Depende de cómo lo mires. Hay quien lo ve como una dilución del programa. Yo lo veo como una adaptación realista: el ecosistema cloud ya no vive solo en los CPDs, vive en LinkedIn, en GitHub, en meetups y en YouTube. Y tiene sentido reconocer también a quienes mueven el conocimiento en esos espacios.

Lo que no ha cambiado, y eso es importante, es lo que ofrece el programa a quienes entran. Acceso anticipado a roadmaps de producto, beta testing, reuniones directas con los equipos de ingeniería, el NTC Tech Summit en San José y canal propio en Slack con el equipo interno de Nutanix. No es un badge vacío: quien ha estado dentro lo valora precisamente por ese acceso directo a la información que aún no es pública.


MCX y Partner Elite: dos piezas distintas para perfiles distintos

Además del NTC, Nutanix ha construido dos programas más que cubren perfiles diferentes, aunque a veces desde fuera puedan parecer solapados.

El "MCX (Multicloud Experts Community)" se lanzó en EMEA en enero de 2025 y tiene una lógica distinta. No es exclusivo de Nutanix: busca expertos en entornos multicloud con independencia del vendor. La idea detrás es que los proyectos cloud complejos requieren gente que entienda AWS, Azure, GCP y la nube privada al mismo tiempo, y que esa conversación tiene que ocurrir en algún sitio. El MCX quiere ser ese sitio. Webinars, labs, retos trimestrales, certificaciones gratuitas y meetups periódicos. Los requisitos de entrada sí mantienen un foco técnico claro: hay que acreditar experiencia real en entornos multicloud.

El "Partner Elite" es otra cosa completamente diferente. Es un programa solo por invitación dirigido a técnicos de empresas partner, y premia la excelencia en implementación con cliente. Acceso directo a los equipos de producto de Nutanix, recursos formativos anticipados y soporte para cerrar proyectos complejos. Es el reconocimiento al canal técnico de alto nivel, algo que antes no tenía un programa tan definido.

Resumiendo la diferencia:


ProgramaPara quiénQué premia
NTCCualquier profesional técnicoDivulgación y contribución a la comunidad
MCXExpertos multicloud (agnóstico de vendor)Conocimiento técnico cross-platform
Partner EliteTécnicos en empresas partnerExcelencia en implantación con cliente final


La convivencia de los tres tiene sentido sobre el papel. En la práctica, pueden surgir preguntas sobre los límites entre ellos, especialmente cuando un mismo profesional podría encajar en más de uno. Pero eso es inevitable en cualquier ecosistema que crece: las categorías limpias son para los PowerPoints, la realidad siempre es más difusa.


España: el elefante en la habitación

Si miras las listas de NTC de los últimos años, la presencia española es escasa. No hay una razón única para explicarlo, pero hay varios factores que contribuyen.

El primero es el idioma. La comunidad global de Nutanix funciona en inglés, y publicar un blog técnico o participar activamente en los foros en inglés tiene una barrera de entrada real para muchos profesionales. No es falta de conocimiento, es que el esfuerzo adicional de hacerlo en otro idioma hace que mucha gente directamente no lo haga, aunque tenga mucho que aportar.

El segundo es la visibilidad. Para entrar en el NTC o en el MCX hace falta que tu actividad sea pública y rastreable: posts, comentarios, charlas, vídeos. Hay muchísimos buenos técnicos en España que saben perfectamente lo que hacen, pero que trabajan en la sombra. Eso no les hace menos válidos, pero sí menos visibles para estos programas.

La buena noticia es que Nutanix está respondiendo a esto de forma concreta. Hace pocas semanas se lanzó el Foro en Español dentro de la comunidad oficial, un espacio dedicado íntegramente a la comunidad hispanohablante. No es una sección testimonial: ya tiene hilos técnicos activos sobre monitorización con Prometheus y Grafana, arquitecturas de alta disponibilidad para Prism Central, migración de sistemas legacy a AHV y debates sobre homelabs con Nutanix CE. El propio equipo de Nutanix participó en el hilo de bienvenida haciendo una mención explícita a los MCX como los referentes técnicos llamados a darle impulso desde el primer día.

Y eso se nota. Los MCX Meetups periódicos ya se están haciendo en español, hay profesionales que están empezando a publicar en ese foro con regularidad, y la dinámica está arrancando. Si eres técnico de Nutanix y llevas tiempo queriendo contribuir pero el inglés te frenaba, este es el momento.

En definitiva...

Estos programas tienen valor real, pero ese valor lo crea la gente que los forma, no la etiqueta en sí. El NTC de alguien que lleva años publicando contenido técnico de calidad, respondiendo dudas en foros y hablando en eventos vale mucho. El mismo título en manos de alguien que no hace nada visible después de entrar, no vale nada.

Lo interesante de la situación actual es que Nutanix está bajando las barreras de entrada para la comunidad hispanohablante al mismo tiempo que el ecosistema español está ganando masa crítica. El foro en español, los meetups de MCX y la mayor presencia local son una oportunidad concreta para que más profesionales de aquí den el paso.

El conocimiento está, las ganas también. Solo hace falta publicarlo.

lunes, 16 de febrero de 2026

VMware Cloud Foundation 9.0 - vSphere Kubernetes Service (VKS) 3V0-24.25: mi evaluacion del exámen

Aprovechando que acabo de pasar el examen 3V0-24.25 (Advanced VMware Cloud Foundation 9.0 vSphere Kubernetes Service), aprovecharé para plasmar en este post mis impresiones tanto del examen como de la necesidad del mismo ya que, tras el estudio, me reafirmo en una idea: la nube no es un lugar, es un modelo operativo. Y para muchas empresas, ese modelo debe empezar "en casa" para mantener la soberanía y el control del dato.

A diferencia de un Kubernetes estándar, VKS en VMware Cloud Foundation (VCF) integra la agilidad del desarrollo moderno con el rigor de la infraestructura empresarial. Durante el examen, la dificultad radica en entender cómo interactúan los componentes internos para ofrecer este servicio:


Arquitectura de Supervisor: Es el corazón de la solución. He aprendido que la resiliencia es crítica: un Supervisor de zona única está ligado a un clúster de vSphere específico , mientras que un Multi-Zone Supervisor requiere al menos tres zonas para distribuir las VMs del plano de control y garantizar la alta disponibilidad. Esta configuración debe definirse en el despliegue inicial, ya que no existe una migración simple "in-place" posterior. Machacan mucho con esto.

Componentes Internos del Clúster VKS: Para que Kubernetes funcione sobre vSphere, el clúster ejecuta tres piezas fundamentales:
  • Cloud Provider Implementation: Para gestionar servicios de balanceo de carga.
  • Container Storage Interface (CSI): Un plugin paravirtual que se integra con CNS para el almacenamiento persistente.
  • Container Network Interface (CNI): Encargado de la conectividad de los pods.
Gestión de Datos y Ciclo de Vida: La protección no es opcional. El examen profundiza en el uso de Velero Plugin for vSphere, la única herramienta válida para respaldar vSphere Pods. Además, el uso de Cluster API es lo que permite que el ciclo de vida de los clústeres sea automatizado y declarativo, al puro estilo Kubernetes.

No es un examen que me haya parecido especialmente complicado, aunque es más difícil que los VCP. La dificultad reside en la precisión de los procedimientos "Day-2". No basta con saber qué es un Namespace; debes conocer el orden exacto para "zonalizarlo": desde crear el Namespace, asignar zonas y configurar redes, hasta definir cuotas y permisos RBAC. Y lo mismo que este, otros tantos ejemplos, como la ejecución de Velero, o qué permite exactamente proteger esta solucion.

También hay varias cuestiones sobre la capacidad de automatizar la seguridad con cert-manager, convirtiendo los certificados TLS en objetos nativos de Kubernetes que se renuevan solos, eliminando el error humano.

No he tenido la sensacion de que, y a diferencia con el examen de Administrador de VCF, hagan demasiado hincapié en NSX, pero como componente utilizado en entornos multicluster, las preguntas que caen hacen referencia a esta situacion sobre todo.

Conclusión: aprobar el VMware Advanced Certified Professional (VKS) valida que puedes construir una infraestructura donde los desarrolladores consumen recursos de forma autoservicio, pero donde el administrador de IT mantiene el gobierno total a través de políticas de almacenamiento (CNS) y límites de recursos. Porque, no lo olvidemos, el examen es a nivel administrador de plataforma, no saldrá absolutamente nada relacionado con la creación de un pod, mas allá de entender qué es un pod o los requerimientos que estos puedan tener a nivel de provisión de recursos para su correcto funcionamiento.

Para finalizar, os dejo el ENLACE al blueprint. Aunque recomiendo pasarse por los Techdocs de Broadcom, concretamente AQUI, y utilizar esto como referencia de estudio.

lunes, 9 de febrero de 2026

De VCP a VCAP: El mapa definitivo para dominar el stack completo de VMware Cloud Foundation

 ¡Seguimos con los esperados cambios en las rutas de certificación de VMware! Hace meses se anunciaron de nuevo los VCAP, con cambios con respecto a los anteriores. Eran los siguientes:

Poco después agregaron un par de imprescindibles: los antiguos vSAN y NSX, ahora reconvertidos al más genérico Storage y Networking:

Y finalmente, se les acaban de unir los siguientes:

Estas 3 ultimas son distintas a las anteriores en que si os fijáis son una especialización de la plataforma técnica, no una especialización técnica en si. Dicho de otra forma, son una evolución de estas 3:

Si miráis en la web de certificaciones, podréis decir "pues veo también un Foundation Administrator". Pues si, ahí está, pero no le haría mucho caso. Foundation sobrevive en zona EMEA, pero para el resto del mundo solo hay VCF. Y llegado al EOL de vSphere 8, no creo que sobreviva Foundation.

De manera que la cosa queda asi: 

  • Examenes para definir los 3 paths: Support, Architect y Administrator, con codigos 2V0-13.25, 2V0-15.25 y 2V0-17.25
  • Exámenes de especializacion, con códigos 3V0-21.25, 3V0-22.25, 3V0-23.25, 3V0-24.25 y 3V0-25.25
  • Examenes de de ruta avanzados: 3V0-11.26, 3V0-12.26 y 3V0-13.26
Agrego un pequeño esquemita:


Ahora viene el ladrillo tedioso donde te cuento un poco las diferencias de cada una de las certificaciones:

  • VCAP – VCF Administrator (3V0-11.26): Excelencia Operativa del Día 2. Esta certificación se ensucia las manos con la realidad diaria. No solo valida la gestión del ciclo de vida, sino tareas críticas que suelen ser puntos de dolor constantes, como la rotación de certificados y la gestión de contraseñas. Se centra en el uso de APIs declarativas y flujos de trabajo de automatización para mantener la conformidad y la eficiencia operativa.
  • VCAP – VCF Architect (3V0-12.26): Diseño Estratégico y Resiliencia. Aquí el foco es la toma de decisiones de alto impacto. Un arquitecto certificado debe dominar los modelos de dominios de carga de trabajo (workload domains) y la planificación de capacidad. Su rol es equilibrar la escalabilidad con la recuperación ante desastres, asegurando que el diseño soporte los objetivos de negocio sin disparar la complejidad técnica.
  • VCAP – VCF Support (3V0-13.26): Diagnóstico Maestro. Esta es la credencial para quienes resuelven lo "irresoluble". Valida un conocimiento profundo de las estructuras de logs de VCF y la metodología de resolución de problemas. Un aspecto clave aquí es la madurez operativa: el examen valida la capacidad de discernir cuándo un problema requiere una resolución interna y cuándo es necesaria una escalación al fabricante, optimizando los tiempos de respuesta.

lunes, 26 de enero de 2026

Reinventando la Virtualización: La Alianza Estratégica entre Nutanix y Pure Storage

El pasado jueves 22 de enero Nutanix emitió un webinar con PureStorage donde hablaron sobre su alianza. El webinar liderado por Alan Synnott, Imran Malik, Cody Hosterman y Darren Woollard profundiza en cómo la colaboración entre Nutanix y Pure Storage no solo busca ofrecer una alternativa, sino una evolución tecnológica superior.

Anunciada originalmente en mayo de 2025 y lanzada oficialmente en diciembre del mismo año, esta solución conjunta promete flexibilidad, escala y resiliencia sin precedentes.

El artículo que viene a continuación está generado a partir del webinar, y es un resumen bastante interesante de ambas tecnologías:


El Motor del Cambio: Más allá del "Efecto Broadcom"

Aunque los cambios en las licencias y la estrategia de VMware fueron un catalizador importante, la asociación nació de una visión más profunda. Según Cody Hosterman (Pure Storage), el objetivo es responder a preguntas críticas sobre el futuro de la infraestructura: ¿Cómo evolucionar hacia aplicaciones modernizadas en contenedores o arquitecturas preparadas para la IA?

La alianza ofrece a los clientes la libertad de elegir "lo mejor de ambos mundos": la simplicidad operativa de Nutanix y el rendimiento de datos líder de Pure Storage.


Arquitectura de Siguiente Generación: Desacoplando para Escalar

Históricamente, Nutanix se asociaba con la infraestructura hiperconvergente (HCI) donde el almacenamiento reside dentro del servidor. Sin embargo, las demandas actuales exigen una mayor flexibilidad.

Integración Nativa a nivel de Ingeniería: A diferencia de otras soluciones que utilizan "plugins" externos, esta integración fue desarrollada directamente por los ingenieros de Nutanix dentro de su propio stack (Nutanix Cloud Platform).

Hipervisor AHV sobre Pure Storage: El software de Nutanix ahora puede gestionar directamente el almacenamiento externo de Pure a través de una red de alta velocidad (NVMe-TCP).

Adiós a la complejidad de iSCSI: El sistema viene pre-configurado con las mejores prácticas de red y rendimiento, eliminando la necesidad de que el usuario ajuste parámetros complejos manualmente.

Experiencia de Usuario: Gestión en un Solo Panel

Uno de los principios de diseño fue mantener la experiencia "invisible" de Nutanix.

Prism Central como centro de control: El administrador de TI puede realizar el 90% de sus tareas diarias desde la consola de Nutanix (Prism), sin tener que saltar constantemente a la interfaz del almacenamiento.

Soporte Unificado: Gracias al trabajo de ingeniería conjunta, Nutanix puede dar soporte "hasta los bits y bytes" del código de integración. Si surge un problema, existe un canal directo entre los equipos de soporte de ambas compañías, evitando que el cliente quede atrapado entre dos proveedores.


Protección de la Inversión y Migración

La solución está diseñada para facilitar la transición desde otros hipervisores:

Migración Transparente: Los clientes pueden conectar sus servidores Nutanix a la misma cabina Pure Storage donde residen sus VMs actuales (por ejemplo, de VMware).

Conversión: Utilizando las herramientas de Nutanix, las cargas de trabajo pueden migrarse y convertirse al ecosistema Nutanix/Pure dentro del mismo hardware de almacenamiento, protegiendo la inversión previa en cabinas All-Flash.


Resiliencia y Ciberseguridad de Doble Capa

La ciber-resiliencia es una prioridad absoluta. La solución combina las fortalezas de ambas plataformas para crear una defensa profunda contra el ransomware:

Lado Nutanix: Micro-segmentación nativa para evitar el movimiento lateral de amenazas y detección de anomalías en el tráfico.

Lado Pure Storage: Tecnología Safe Mode con snapshots inmutables que no pueden ser borrados ni siquiera por administradores comprometidos, asegurando que siempre haya una copia limpia de los datos para la recuperación.


Conclusión y Futuro.

La alianza entre Nutanix y Pure Storage representa el fin de los silos tecnológicos. Como señaló Darren Woollard (Nutanix), la tecnología ha evolucionado lo suficiente como para que el almacenamiento externo sobre redes de alta velocidad ofrezca un rendimiento igual o superior a los discos locales, permitiendo una escalabilidad independiente de cómputo y datos.

Con una hoja de ruta activa y nuevas integraciones planeadas para 2026, esta colaboración se perfila como el nuevo estándar de oro para el centro de datos moderno.

lunes, 19 de enero de 2026

Optimiza tu hardware: Por qué Prism Element es suficiente para tu infraestructura local

En el dinámico entorno de las empresas en España, donde la agilidad y el aprovechamiento máximo de los recursos son fundamentales, la tecnología no debería ser una carga adicional, sino un motor silencioso. Para aquellas organizaciones que operan con infraestructuras contenidas, como clústeres de tres o cuatro nodos, el objetivo primordial es que cada vatio de energía y cada giga de memoria se traduzca en valor directo para el negocio. Nutanix responde a esta necesidad mediante una filosofía de autonomía, permitiendo que la inteligencia y el control residan directamente en el lugar donde viven los datos, sin depender de capas externas innecesarias para el funcionamiento diario.

Esta capacidad de autogestión se manifiesta en lo que se conoce como un enfoque de "clúster primero". En las versiones más recientes de la plataforma, las decisiones críticas sobre el rendimiento y la protección de las aplicaciones se toman de manera local, lo que garantiza que la infraestructura siga operativa incluso si los servicios de coordinación centralizada no están disponibles. Al colocar el control en el mismo sitio donde se ejecutan las cargas de trabajo, los posibles fallos se vuelven mucho más fáciles de entender y gestionar, permitiendo que la continuidad del negocio sea una realidad predecible y no un desafío constante.

Para administrar este entorno local de forma sencilla, la plataforma ofrece una interfaz integrada conocida como Prism Element. Se trata esencialmente de un panel de control que ya viene incorporado en el sistema, funcionando como una consola única para supervisar la salud del equipo y gestionar las máquinas virtuales sin necesidad de instalaciones adicionales. Para una pequeña empresa, utilizar esta herramienta local es una decisión estratégica: permite ahorrar recursos de procesamiento y memoria RAM que, de otro modo, tendrían que reservarse para una consola de gestión externa, liberando esa potencia para que las aplicaciones de la empresa funcionen con mayor fluidez.

Es cierto que disponemos de una versión de gestión más amplia, Prism Central, pero es fundamental entender que su uso es una elección deliberada y no una obligación para que todo funcione. Mientras que esta consola extendida es excelente para coordinar múltiples ubicaciones o aplicar políticas de seguridad complejas en grandes flotas de servidores, en un entorno de un solo sitio puede resultar redundante. En estos casos, la sencillez de la gestión local no solo reduce la complejidad operativa, sino que optimiza la inversión en hardware al eliminar la necesidad de mantener una infraestructura de gestión que excede las necesidades reales de la escala actual.



A pesar de esta autonomía local, el uso de Prism Central sigue siendo obligatorio en los siguientes cinco escenarios específicos donde la tarea requiere una coordinación que supera los límites de un clúster individual:

  1. Gobernanza de redes avanzadas (Nutanix Flow): Aunque el filtrado y el tráfico de datos se ejecutan localmente en cada clúster para garantizar la resiliencia, Prism Central es el componente indispensable para definir y distribuir la "intención" de red. Es la autoridad central que asegura que las políticas de seguridad sean consistentes y uniformes en múltiples entornos.
  2. Orquestación de recuperación ante desastres (DR) multiclúster: Si bien el movimiento de datos opera a nivel de clúster, Prism Central es necesario cuando los flujos de trabajo de recuperación abarcan varios clústeres o sitios físicos. Su función es coordinar los dominios de protección y gestionar de forma coherente las relaciones de conmutación por error (failover).
  3. Gestión y coordinación de flotas: Se requiere Prism Central siempre que la arquitectura necesite una superficie de control compartida para problemas que son intrínsecamente centrales. Esto permite que las operaciones a gran escala sean predecibles al centralizar la orquestación sin penalizar las funciones locales básicas.
  4. Control de identidades y acceso (RBAC): En entornos con múltiples dominios, Prism Central funciona como el punto obligatorio para gestionar el control de acceso basado en roles y proporcionar visibilidad administrativa global de todos los activos.
  5. Ajustes de sistema y contratos operativos: Bajo el modelo actual, ciertas configuraciones críticas del sistema, como los servidores de hora (NTP), ya no se manejan de forma aislada, sino a través de superficies de control definidas en Prism Central. Esto garantiza que los cambios sigan rutas oficiales y reforzadas por la arquitectura de la plataforma.

En resumen, los clústeres actuales tienen libertad operativa para trabajar de forma independiente, y solo requieren la intervención de Prism Central cuando es necesario unificar criterios, coordinar varios sitios o aplicar reglas globales para toda la infraestructura

martes, 13 de enero de 2026

De 10 clústeres a 7,500: Cómo Nutanix Central unifica regiones con Prism Central

Si ya te mueves como pez en el agua con Nutanix, seguro que Prism Central (PC) es tu mejor amigo para gestionar tus clústeres. Pero, ¿qué pasa cuando tu "imperio" crece tanto que tienes varios Prism Centrals repartidos por el mundo? Ahí es donde entra Nutanix Central, el nuevo "capitán de capitanes" que viene a poner orden en la galaxia multicloud. ¡Vamos a ver qué nos ofrece esta consola!



En su nivel más básico, Nutanix Central es una consola de gestión unificada que proporciona acceso centralizado a todos los servicios de Nutanix en entornos de nube híbrida. Si ya conoces Nutanix, sabes que Prism Central es el "cerebro" que gestiona múltiples clústeres de servidores. Pues bien, Nutanix Central es el nivel superior: es la plataforma que te permite gestionar múltiples instancias de Prism Central desde un único lugar.
Es importante aclarar que Nutanix Central no es un reemplazo de Prism Central, ni una forma de gestionar directamente los servidores individuales (Prism Element), sino una capa de visibilidad global que unifica todo el ecosistema. Imagínatelo como una capa de federación. Simplificándolo al máximo, lo podríamos definir de esta manera:
  • Prism Element (PE): Gestiona un clúster de nodos (1 a 1).
  • Prism Central (PC): Gestiona varios clústeres (1 a muchos).
  • Nutanix Central: Gestiona varios dominios (donde cada dominio es una instancia de Prism Central).
  • Su misión es darte visibilidad global y un acceso unificado a todos los servicios de Nutanix en entornos híbridos desde una sola consola.
Vamos a entrar en la parte técnica del asunto: la gestión de dominios y arquitectura basada en Nutanix Central: Porque en Nutanix Central, cada Prism Central registrado se convierte en un dominio.
El punto clave de este sistema se basa en la comunicacion entre los dominios, a través de conexiones cifradas y autenticadas por el puerto TCP 443. Pero técnicamente, Nutanix Central despliega una infraestructura de subdominios críticos para que todo fluya:
  • iam.nutanix-central-dns: Para que el Identity and Access Management (IAM) global funcione.
  • *.transport.nutanix-central-dns: Aquí vive el túnel Ikat Hub, que permite una comunicación continua y segura entre Nutanix Central y tus Prism Centrals locales.

Nutanix Central se ofrece tanto en formato SaaS como on-premises. En su versión on-premises, se despliega a través del Marketplace de Prism Central utilizando la Plataforma de Microservicios (MSP) de Nutanix. Técnicamente, esto significa que corre sobre un clúster de Kubernetes interno, lo que facilita las actualizaciones automáticas y la resiliencia de los servicios.
Si lo desplegasemos On-Prem, hay que tener en cuenta que una implementación estándar ("Small") de Nutanix Central tiene la capacidad de gestionar hasta 25 dominios de Prism Central. Asumiendo que cada Prism Central gestiona sus propios clústeres (por ejemplo, 300 clústeres por dominio), Nutanix Central puede llegar a supervisar hasta 7,500 clústeres en total. Para este nivel de gestión, requiere recursos considerables: 44 vCPUs, 50 GiB de RAM y 384 GiB de almacenamiento.
En el tema seguridad, una de las ventajas técnicas más pesadas frente a Prism Central es el IAM unificado. En lugar de crear usuarios y roles en cada Prism Central, aquí defines Políticas de Autorización globales. Puedes vincular identidades (usuarios de tu AD o SAML) con operaciones específicas sobre entidades de cualquier dominio.
Esto permite, por ejemplo, que un admin de seguridad tenga permisos de "solo lectura" en los clústeres de Europa pero sea "Super Admin" en los de América, todo gestionado desde la misma tabla de control.

CaracterísticaPrism CentralNutanix Central
Unidad de GestiónClústeres (AOS)Dominios (Prism Centrals)
VisibilidadLocal/Multi-clústerGlobal/Federada (Mapa geográfico)
MarketplaceLocal al PCGlobal (despliegue en cualquier dominio)
InfraestructuraVM tradicional o MSPNativa en MSP (Kubernetes)

Si hicieramos una analogía con , por ejemplo un negocio de supermercados, cada tienda tendría su propio sistema informático para controlar el inventario y las cajas (eso sería Prism Element). Para gestionar todas las tiendas de una misma ciudad, tendrías una oficina regional con un sistema que supervisa cada local (eso es Prism Central). Nutanix Central sería la oficina corporativa global: un único panel desde el cual el dueño de la cadena puede ver el rendimiento, las alertas y enviar nuevas directivas a todas las oficinas regionales del mundo al mismo tiempo, sin tener que entrar una por una en cada sistema regional.