miércoles, 6 de agosto de 2025

Cómo apagar un único nodo de un clúster Nutanix

Puntualmente podemos encontrarnos en la necesidad de tener que apagar los nodos de manera individual, con el fin de realizar algún tipo de mantenimiento sobre el mismo, como por ejemplo, un incremento de RAM.

Para esto, no hace falta apagar el clúster, sino que simplemente pondremos el nodo en mantenimiento. El sistema se encarga de balancear las VMs a los otros nodos. Todo este proceso se realiza desde la consola de administración de Nutanix. En este caso, sobre un Nutanix CE, realizo los pasos sobre Elements.

En el menú superior nos vamos a "Hardware". Por defecto, entra en la pestaña Overview. Nos vamos a "Table", y ahí podremos ver nuestros hosts. Pinchamos sobre el que vamos a apagar, y veremos una serie de opciones en el menú inferior. Una de ellas es "Enter in maintenance mode. Pulsamos el botón, y aparecerá el mensaje que tienes en pantalla, donde avisa del balanceo de las máquinas en ejecución.


Este proceso no es instantáneo, hay que darle tiempo al clúster, y esperar hasta que veas que está sin actividad, algo así:

IMPORTANTE: poner en mantenimiento el host APAGA la CVM. Los servicios relacionados con Prism se delegaran a otra CVM, si diese la casualidad que la CVM del host que vamos a apagar estuviera funcionando como controller de Prism Elements.

Seguidamente, tenemos que detener el host. Para ello, nos conectamos via SSH a otra CVM del cluster.con nuestro usuario nutanix, por ejemplo. Cambiamos a Bash, y ejecutamos los siguientes comandos:

ssh root@IP_del_host_AHV

shutdown -h now

Con esto, se apaga el host de manera controlada:

Si lo tenemos virtualizado, como es este caso, donde trabajo sobre nested host en ESXi, aparecerá la VM apagada

Supongamos que trabajamos sobre un host físico: el proceso es el mismo, solo que podríamos apagar de manera controlada el hipervisor tirando de iDrac, ILO o IPMI.

Para arrancar de nuevo el host, encendemos la VM y esperamos a que nos muestre el prompt de login, y desde Prism sacamos al nodo de mantenimiento:

En cuanto veamos que nos da en Prism la IP de la CVM, podemos abrir una conexion ssh contra la CVm que tiene que haber levantado ya, accedemos con nuestro user nutanix, y escribimos "cluster status". Si todo fue bien, nos anunciará un "Cluster succeed"

¡Ya está! ¡No tiene mas!
Recapitulando: ponemos en mantenimiento el nodo, entramos por ssh a la CVM de otro nodo, nos conectamos al AHV del nodo que vamos a apagar, lanzamos un shutdown, hacemos lo que tenemos que hacer, arrrancamos el host, y sacamos de mantenimiento.

jueves, 31 de julio de 2025

Expandir un cluster Nutanix con un nuevo nodo

 A la hora de crear un cluster con Nutanix CE, no queda otra que hacerlo via cli, ya que perdemos la capacidad de generarlo con Foundation. Pero, ¿Y si queremos expandirlo?

Nutanix CE permite crear un cluster de 1 nodo, un cluster de 2 nodos, y luego el cluster minimo recomendado, de 3 nodos. Pero puedes expandirlo hasta los 4 nodos. Y eso es lo que vamos a hacer ahora.

Aunque via cli, lo que encontramos en la documentacion de Nutanix es que "Expand cluster using ncli is disabled by default in AOS 6.1.1 or later", significa que poder, podriamos hacerlo, pero que es mas facil si lo hacemos via Prism. Para ello, entramos en nuestro Prism Elements, y nos vamos al icono de settings, a la derecha de la barra de menú:

En el apartado de la izquierda, veremos la opción "Expand Cluster". Pinchamos en ella.

Seleccionamos la primera opción de las 2 que nos da. La segunda seria para realizar la instalacion del hipervisor en un nodo no preparado todavia. Super cómodo en entornos reales, pero aqui lo que estamos haciendo es agregar una VM que ya preparamos previamente, y pulsamos Next:

Lo primero que nos pide es seleccionar el host. En este caso solo tenemos una preparada, asi que en el autodiscovery que hace solo localiza 1, pero de tener varias, verifica la que quieres agregar a partir de su serial number. En el CVM que vamos a agregar, nos basta hacer un "hostname" para averiguar el serial number, ya que es lo que pone por defecto al crear el nodo. Pulsamos Next

En el siguiente paso, seleccionamos el tipo de nodo. Vamos a generar un nodo tipo HCI, y Next

En el siguiente paso no tenemos que hacer nada, al estar ya todo en la misma red. Continuamos:

Finalmente, podemos ejecutar los checks iniciales, o ejecutar la adicion del host al cluster. Va a hacer los check igualmente, antes de agregarlo, asi que a tu eleccion. Lo peor que puede pasar en caso de fallo es que no se agregue el nodo y todo se quede igual que al principio, asi que dale sin miedo.


Como veis, el proceso ha variado ligeramente con respecto a hace unos años, pero en líneas generales, es fácil.

sábado, 26 de julio de 2025

Cómo crear un cluster Nutanix CE nested

 ¡Vamos con un poco de cacharreo! Y qué mejor para cacharrear que montarte un entorno de laboratorio virtual? Vamos a ver cómo podemos montarnos un clúster de 3 nodos Nutanix con la Community Edition.

Lo primero de todo, tendremos que descargarnos los elementos necesarios para ello, y en este caso y yendo a lo simple, nos bastará con la ISO del AOS. De manera que hacemos login en my.nutanix.com (si no tienes cuenta, te la creas, es gratis) y pinchamos en el apartado Community Edition.

Os vais a encontrar las instrucciones de descarga e instalación, pero planteadas para un entorno físico. En este caso, nos descargamos de AQUI la ISO, y continuaremos de otra manera a la que indica la web.

Vamos a nuestro ESXi, y le copiamos la ISO. Seguidamente, creamos 3 VMs con las siguientes características: 

CPU: 8 cores

Memoria: 32 GB

Disco duro 1: 40 Gb

Disco duro 2: 200 Gb

Disco duro 3: 500 Gb

Yo le he metido más CPU y memoria. Realmente con 4 cores y algo menos de RAM debería valer. Lo que sí es importante, que el disco duro 1 tenga al menos 40 Gb. Si habéis visto otros tutoriales, normalmente dicen que 16 GB. Son insuficientes, y da problemas a la hora de realizar la instalación.

En Unidad de CD le ponemos el arranque con la ISO descargada previamente.

IMPORTANTE: vamos a las opciones de la VM y en "parámetros de configuración", pulsamos sobre "editar configuración"


Entra las variables que hay, pulsamos sobre "agregar parámetro" e introducimos en el apartado "Clave", "disk.EnableUUID" y en el apartado "Valor", "TRUE", la como se ve en la siguiente imagen:

En la pestaña de Virtual Hardware, CPU, expandimos el menú y marcamos "Expose hardware assisted virtualization to the guest OS".

Una vez creadas las VMs, arrancamos con la ISO cargada. Se verá una breve pantalla por un segundo con el arranque de la CE, y mucha pantalla negra con texto de carga, hasta que llegamos a la ventana de configuración    

Esta página es un chiste. Veis el EULA ese, que nadie se lee? Pues hay que hacer scroll hasta el final, o en la siguiente pantalla no podrás continuar con el proceso. ¡Avisados estáis! Asi que venga, a mantener pulsada la flecha abajo, hasta el final del documento. Después ya podéis marcar el Accept, y pulsar Start

Tómatelo con calma, el proceso de instalación no es rápido.

Finalizado el proceso, pedirá desmontar el disco y un reinicio. Cuidado con el reinicio, porque aparenta ser rápido, y te da el prompt en poco tiempo, pero internamente está levantando procesos, y le llevará mucho levantar completamente. Para verificar que está listo, accedemos por ssh a cualquiera de nuestras CVMs, con el user y pass por defecto, ya sabes: username nutanix y password nutanix/4u

Introducimos el siguiente comando: "watch -d genesis status". Necesitamos que aparezcan levantados 2 servicios: foundation y genesis.

Con estos servicios levantados, ya podemos iniciar la creación del clúster..

Aquí, la sintaxis correcta sería la siguiente: cluster -s <cvm_ip_1>,<cvm_ip_2>,<cvm_ip_3> –dns_servers 1.1.1.1 create

Incluso, además de las IPs de las CVMs y el servidor DNS, podemos pasar más info a la creación del cluster. Algo asi: cluster -s <cvm_ip_1>,<cvm_ip_2>,<cvm_ip_3> --dns_servers=<IP de los servidores DNS> --cluster_name=<el nombre del cluster> --cluster_external_ip=<la IP propia del cluster> create

Personalmente, me ha dado bastantes problemas hacerlo así, posiblemente porque el DC y DNS de pruebas para el entorno lo tengo "de aquella manera", y ni creando previamente los registros DNS acababa de funcionar correctamente, así que el comando que yo utilizo es solamente el siguiente:

cluster -s <cvm_ip_1>,<cvm_ip_2>,<cvm_ip_3>  create 

La creación del clúster es bastante rápida. Ahora, una sucesión de comanditos para ir creando los parámetros que en otros casos se dan en la misma creación del clúster. Empezamos con un "cluster start"

A continuación, definimos el nombre del clúster con un "ncli cluster edit-params new-name=cluster_name"

Seguidamente configuramos esa Virtual IP Address del clúster, con un "ncli cluster set-external-ip-address external-ip-address=cluster_ip_address"

Para agregar los servidores DNS, introducimos "ncli cluster add-to-name-servers servers=DNS_server_ip_address"

Y ya por ultimo metemos el servidor, o listado de servidores, NTP con "ncli cluster add-to-ntp-servers servers=NTP_server_ip_address" (de este comando se me pasó la captura, sorry).

Con esto, sólo queda que accedas a tu clúster a través de la virtual ip recien configurada, y, ¡a jugar!

PD: Como curiosidad, conéctate de nuevo a una CVM y vuelve a ejecutar el watch -d genesis status. Ahora verás una pila de servicios notablemente superior. Y muchos te sonarán, de la arquitectura de Nutanix, esos servicios que se describen en la Biblia de Nutanix para explicar cómo se comunican los distintos componentes de la solución. Bueno, pues aquí los tienes, en directo:


Ten en cuenta que provisionamos a estas VMs un almacenamiento decente para jugar, así que mi recomendación es empezar por algo facilito: creación de contenedores, y luego file servers.

jueves, 3 de julio de 2025

¡Sorpresa! Unboxing gourmet de Nutanix & Lenovo

El otro día tuve la oportunidad de participar en una sesión técnica de Nutanix y Lenovo. Ya sabéis que Nutanix es una solución de software, y aunque originalmente estuvo más ligada a Supermicro, lo cierto es que son agnósticos de hardware, y haciendo un esfuerzo notable en compatibilizar sus productos con todas las opciones de hardware posibles.

Nada que añadir del evento, un webinar sólido y bien presentado sobre la base de Nutanix. Para los que todavía a estas alturas no conozcan el producto, ya tardáis en asistir a uno de sus webinars, o haceros un test drive para conocer la solución.

Lo que no me esperaba es el detalle para los asistentes. Es bastante habitual que en los webinars de todas las empresas haya un Kahoot, o alguna cosa por el estilo al final, que rompe un poco la seriedad del momento y lo desencorseta un poco de la estructura habitual. Pero lo que no me esperaba era un mini encuesta con "sorpresa" final.

Parece frágil, pero no estoy seguro, quizá no lo han etiquetado suficiente...

Sinceramente, tenia este detalle olvidado, un poco como esos sorteos de papeletas de colegio, que compras a los niños, y a saber donde acaba luego la participación. Pero esta vez, apenas 5 minutos de finalizar mis tareas laborales, llaman al telefonillo (bendito teletrabajo). Un mensajero con una caja bastante voluminosa a mi nombre, que no entra en el "Citibox".  Hago memoria, miro en pedidos de las distintas tiendas online, a ver si ya estoy comprando en sueños, pero parece estar todo en orden, no era nada que hubiera comprado.

Vamos con el "unboxing", y ahí queda todo mucho mas claro:

¡Sorpresa! Ese fantástico webinar sí que tenia algo más que ofrecer. Muy bien protegido dentro de la caja, y con papel burbuja como para estar una tarde entera reventando burbujitas, el equipo de Nutanix y Lenovo envía una cesta gourmet muy bien presentada.

Vamos a ver mejor lo que nos ha llegado... Tenemos 3 paquetes de paleta de cebo de campo ibérica, un paquete de chorizo de bellota ibérico, un queso de oveja semicurado, un par de paquetitos de picos de pan para acompañar, y fuet espetec y por supuesto, un vino para maridar todo esto.

Siempre he dicho que no hay otra empresa como Nutanix montando fiestones  eventos, pero desde luego, detalles como estos te alegran el día. Cuando no había necesidad de hacerlo, cuando el webinar en sí ya valía cada segundo de tu tiempo para informarte de todo lo que su tecnología ofrece, llega ese "algo mas", ese famoso "one more thing" estilo Jobs, que si no es con alguna novedad en su producto, es con gestos como este.

Nutanix Iberia, ¡soy vuestro fan!


martes, 17 de junio de 2025

¡Llega VCF 9! ¿Qué nos trae de nuevo?

VMware Cloud Foundation (VCF) continúa evolucionando, y la versión 9.0 llega para redefinir el panorama de la nube privada. Este lanzamiento se centra en proporcionar una plataforma de confianza, optimizada para todas las aplicaciones, desde las tradicionales hasta las más modernas, incluyendo cargas de trabajo de IA. Con VCF 9.0, no solo estamos hablando de mejoras incrementales, sino de una transformación que busca impulsar resultados de negocio tangibles y significativos.
Pero, ¿Qué novedades clave trae VCF 9.0 para tu infraestructura? Pues una barbaridad, así que vayamos por partes...

1. Redefiniendo la Infraestructura Moderna con Rendimiento Superior

VCF 9.0 introduce innovaciones en el core de la plataforma que se traducen directamente en un rendimiento mejorado y una reducción significativa del Costo Total de Propiedad (TCO):


  • Tiering de Memoria Avanzado con NVMe: Esta característica optimiza la ubicación de las cargas de trabajo en diferentes niveles de memoria, permitiendo asignar niveles de menor costo a tareas menos críticas. El resultado es una reducción del TCO de memoria y servidor de hasta un 38%
  • vSAN ESA con Deduplicación Global: La Express Storage Architecture (ESA) de vSAN, introducida en vSAN 8, está optimizada para dispositivos NVMe de alto rendimiento, utilizando un modelo de "una sola capa" de unidades independientes. Con VCF 9.0, la deduplicación global en vSAN ESA maximiza la eficiencia del almacenamiento y promete reducir el TCO del almacenamiento en un 34% (requiere solicitud de cotización o RPQ). Además, vSAN ESA mejora la eficiencia de la CPU por E/S procesada y permite una codificación de borrado eficiente en todas las circunstancias, ofreciendo resiliencia superior y snapshots escalables nativas. Las operaciones de compresión, cifrado y suma de comprobación de datos se realizan una sola vez en el momento de la ingesta. También, es compatible con cargas de trabajo nativas de la nube a través de Cloud Native Storage (CNS) y habilita la desagregación del almacenamiento.
  • Ruta de Datos Mejorada de NSX: Esta mejora proporciona un rendimiento de conmutación hasta 3 veces más rápido, lo que se traduce en una menor latencia y carga de CPU para las cargas de trabajo de red intensiva
  • Optimización de vMotion para IA: Permite migrar cargas de trabajo de inteligencia artificial con un impacto de rendimiento insignificante y un tiempo de inactividad de aproximadamente el 1%
  • Recuperación Nativa Eficiente: Ofrece protección de datos de vSAN a vSAN con instantáneas profundas.
  • Computación Confidencial: Habilita cargas de trabajo seguras con capacidades de computación confidencial

2. Una Experiencia de Nube Unificada y Simplificada

VMware Cloud Foundation 9.0 pone un fuerte énfasis en la simplicidad operativa y una experiencia de consumo de la nube más intuitiva.


  • Instalador de VMware Cloud Foundation: Simplifica enormemente el proceso de construcción y despliegue de una nube privada. Elimina la necesidad de instalaciones individuales de componentes y asegura el uso de una topología validada, proporcionando una experiencia rediseñada para la instalación y migración.
  • Consola de Operaciones de VCF: Esta consola centraliza la configuración y la gobernanza, ofreciendo seguridad proactiva, diagnósticos mejorados y gestión del ciclo de vida. Facilita la configuración y las operaciones diarias. El SDDC Manager proporciona una visión integral de la infraestructura física y virtual, con acceso centralizado para gestionar recursos. Incluye un panel de bienvenida que guía a los administradores a través de tareas de configuración sugeridas y ofrece tutoriales prácticos.
  • Gestión de Costos, Repercusión de Cargos y Demostración de Costos: Permite una visibilidad clara del uso de los recursos y los costos asociados, establece políticas para el cumplimiento del presupuesto y permite la asignación precisa de costos a los departamentos.
  • Consumo Simplificado de Redes en la Nube y VPC: Brinda acceso bajo demanda a los recursos de infraestructura, simplifica la entrega para los usuarios finales y permite políticas personalizables para la gobernanza y el control, permitiendo conectar, separar, asegurar y proteger cargas de trabajo fácilmente.
  • Catálogo de Autoservicio, IaC (Infrastructure as Code) y Gestión de Clústeres VKS: Facilita el aprovisionamiento automatizado de servicios, agiliza los despliegues y simplifica la gestión del ciclo de vida de la infraestructura de la nube.

3. Seguridad y Resiliencia Reforzadas

La seguridad es primordial, y VCF 9.0 fortalece las capacidades de protección en todos los niveles:


  • Panel de Operaciones de Seguridad: Ofrece una vista unificada para monitorear la postura de seguridad, rastrear CVEs (Vulnerabilidades y Exposiciones Comunes) y acelerar la respuesta a problemas de cumplimiento.
  • Cumplimiento y Monitoreo de la Configuración: Detecta automáticamente las desviaciones de las políticas de seguridad y operativas, simplifica las auditorías y ayuda a prevenir configuraciones erróneas.
  • Gestión de Identidades y Certificados: VCF 9.0 mejora la gestión de certificados, permitiendo la integración con autoridades de certificación como Microsoft CA o OpenSSL, además de soportar certificados de terceros. El SDDC Manager notifica sobre la expiración de certificados y contraseñas. También gestiona la rotación y actualización manual de contraseñas para cuentas de servicio, de consola y de administrador de SSO, e incluso permite remediar contraseñas expiradas.
  • Actualizaciones en Servicio Crítico de ESXi y Actualizaciones Flexibles y Asíncronas: Estas características minimizan el tiempo de inactividad y garantizan la continuidad de las operaciones para cargas de trabajo críticas.

4. Preparación para VCF 9.0: Lo que Necesitas Saber

Para aquellos que planean una actualización o una nueva implementación, el documento de briefing incluye una lista de verificación importante:


  • Rutas de Actualización: Si actualmente utilizas VCF 3.x o 4.x, necesitarás una actualización. Las instalaciones de VCF 5.x permiten una actualización en el mismo lugar (in-place).
  • Compatibilidad de Componentes: Los entornos con vSphere 8.x y NSX 4.x están listos para VCF 9.0. Aquellos con versiones anteriores de vSphere (<8) o NSX (<4) requerirán precauciones especiales para la actualización en el mismo lugar.
  • Hardware: Los procesadores Intel Skylake, Broadwell y Kabylake ya no son compatibles, ya que fueron marcados como obsoletos en versiones anteriores.
  • Soluciones de Terceros: VMware no ha realizado cambios en la API, por lo que la compatibilidad con soluciones de terceros dependerá de la calificación de cada proveedor.
  • Soporte Específico: El soporte para Dell VxRail y PowerFlex está en desarrollo o requiere una Solicitud de Propuesta (RPQ). vVOL sigue siendo compatible, pero será declarado obsoleto.
  • vCloud Director: No es compatible con la actualización directa a VCF 9.0.
  • Cumplimiento: VCF 9.0 soporta STIG (excluyendo vRO/vRNI) y FIPS (habilitado por defecto).

En resumen, VMware Cloud Foundation 9.0 se posiciona como una plataforma robusta y adaptable, diseñada para modernizar la infraestructura de la nube privada, optimizar las operaciones y garantizar una seguridad y resiliencia de primer nivel. Es una apuesta clara por la eficiencia, la automatización y la preparación para las cargas de trabajo del futuro.
Pero no solo eso: ha redondeado el producto existente simplificando la instalación y facilitando la actualización del entorno.
¡Anímate a explorar todo lo que VCF 9.0 tiene para ofrecer y lleva tu nube privada al siguiente nivel!

PD: Os dejo AQUI el link al articulo oficial de presentacion. Aviso que es un ladrillo...

lunes, 16 de junio de 2025

Elementos de software necesarios para la instalación de un cluster Nutanix con Foundation

Instalar un clúster Nutanix en entornos bare-metal puede resultar complejo si no se dispone de un método ágil para preparar los nodos. La Foundation VM te permite hacerlo usando solo un portátil (en Windows, Linux o macOS con Oracle VirtualBox/VMware Workstation), sin necesidad de red local compleja. Además, puedes llevarla contigo para realizar instalaciones en distintos lugares con facilidad. Aunque más fácil todavía es utilizar Fountation Portable en Windows o MacOs, donde directamente no utilizas siquiera una VM, sino que lanzas la app que trae preinstalada la Foundation VM. Ya hablé de esto en un post anterior, y recomiendo este método.

Una vez elegida la herramienta con la que realizaremos el despliegue, deberemos preparar los archivos de instalación. Para ello, hay 3 archivos fundamentales a actualizar:

AOS

Que en el Field Installation Guide aparece como "nutanix_installer_package-version#.tar.gz", pero que en la web de descargas aparece como AOS Upgrade / Installer, de manera que te puedes volver un poco loco buscando el archivo.


Este archivo luego irá copiado a la carpeta /home/nutanix/foundation/nos. Pongamos que tienes Portable foundation: en ese caso, va a C:\Program Files (x86)\Nutanix\Portable Foundation\nos

ISO a utilizar. 

SI vas a utilizar de hipervisor un ESXi, va a /home/nutanix/ESXi/. Si es AVH, a /home/nutanix/KVM/. Si por el contrario utilizas Portable Foundation, va a C:\Program Files (x86)\Nutanix\Portable Foundation\isos\hypervisor\kvm

Whitelist

Revisa el archivo Whitelist, para asegurarte de que está actualizado, y las isos que vas a utilizar cumplen con la version adecuada. El archivo iso_whitelist.json puedes encontrarlo en la zona de descarga de Foundation, mencionado en letra bien pequeñita, no sea que lo encuentres fácilmente, al comienzo de todo:



El archivo iso_whitelist lo puedes localizar, en Portable, en "C:\Program Files (x86)\Nutanix\Portable Foundation\config". Para las Foundation VM, ya buscas el equivalente.
Con estos 3 archivos, las versiones revisadas, y todo en su sitio, estás listo para el despliegue.

Un último apunte... revisa, relee, apréndetelo de memoria...el Field Installation Guide, que puedes encontrar en My.Nutanix / Support & Insights / Software Documentation / Foundation /Field installation Guide

viernes, 13 de junio de 2025

Credenciales por defecto de Nutanix

En todas las instalaciones me pasa lo mismo, que menos el pass de las IPMI, que está clarete dónde se encuentra (aunque es lo primero que debamos cambiar según tenemos el sistema montado), con el resto de pass, las pequeñas variantes hacen que acabes probando los accesos 5 veces por aplicación, cada vez que lo intentas. Así que aquí dejo mi chuletilla de Usuario, Pass, y aplicación de acceso. He de decir que no es contenido original, lo he sacado de masteringnutanix.com y modificado a mi gusto, de manera que si ves que falta algo, pásate por ahí, lo mismo he omitido hardware que yo normalmente no utilizo, pero tú si.


Credenciales por defecto del software de Nutanix

Software/Management ToolTargetUsernamePassword
vSphere Web ClientESXi hostrootnutanix/4u
vSphere client (Windows)ESXi hostrootnutanix/4u
Nutanix Prism ElementNutanix Controller VMadminNutanix/4u
Nutanix Prism CentralNutanix P Controller VMadminNutanix/4u
Remote desktop/ConsoleWindows Hyper-V HostAdministratornutanix/4u
SSH client or consoleESXI hostrootnutanix/4u
SSH client or consoleAcropolis Hypervisor(AHV)rootnutanix/4u
SSH clientNutanix Controller VMadminnutanix/4u
SSH clientNutanix Controller VMnutanixnutanix/4u
SQL Server Mobility Service VMSQL VMnutanixnutanix/4u
SSH client or consoleAcropolis OpenStack Services VMrootadmin
SSH client or consoleNutanix ERAeraNutanix.1
Console/GUINutanix ERAeraNutanix.1
SSH client or consoleXplorer VMnutanxnutanix/4u
SSH client or consoleNutanix Moveadminnutanix/4u


Credenciales por defecto de los Nutanix NX Series.

Software/Management ToolTargetUsernamePassword
SSH client or consoleIPMIADMINPassword is Node serial Number
SSH client or consoleNutanix Controller VMnutanixnutanix/4u
SSH client or consoleAcropolis Hypervisor(AHV)nutanixnutanix/4u


Credenciales por defecto de los Dell XC

Software/Management ToolTargetUsernamePassword
SSH client or consoleidracrootPrinted on the server
SSH client or consoleNutanix Controller VMnutanixnutanix/4u
SSH client or consoleAcropolis Hypervisor(AHV)nutanixnutanix/4u


Lenovo ThinkAgile HX Series

Software/Management ToolTargetUsernamePassword
SSH client or consoleXClarityUSERIDPASSW0RD (with a zero, not the letter O)
SSH client or consoleNutanix Controller VMnutanixnutanix/4u
SSH client or consoleAcropolis Hypervisor(AHV)nutanixnutanix/4u

HP DX Series

Software/Management ToolTargetUsernamePassword
SSH client or consoleILOAdministratorPassword is Node serial Number
SSH client or consoleNutanix Controller VMnutanixnutanix/4u
SSH client or consoleAcropolis Hypervisor(AHV)nutanixnutanix/4u


¡Pues con esto ya estamos! Ya sabes que el Node Serial Number se puede ver fácilmente también en la pegatina que trae el servidor por detrás, prácticamente al lado del puerto de lIPMI, y normalmente acompañado de otra pegatina con el S/N de la maquina.

Venga, ¡a instalar!

miércoles, 11 de junio de 2025

He probado Foundation for Windows: Ahora ya no uso otro instalador

 Me encontraba el otro día pasando frio en el CPD junto a un switch de 48 puertos, y pegándome desde un equipo Windows (lo habitual en las empresas, ya sabes), con las configuraciones de Foundation en VirtualBox y VMware Workstation, para el despliegue de un cluster Nutanix. Lo básico ya lo conoceréis Descargas Foundation, revisas la whitelist, buscas dónde dejar la ISO a instalar...


Reconozco que llevo cierto tiempo sin hacer instalaciones y te aseguro que montar un clúster, me da igual de qué tecnología, no es como montar en bicicleta. 

Según me descargo Foundation, pruebo con VMware Workstation. Lo mismo es cosa mía, pero la ultima versión de este software creo que no funciona correctamente, las conexiones bridged no funcionan, y una configuración de NAT parece hacer esa función. Ya es raro...pero si además en un reinicio por resolución de VM se queda totalmente frita...total, que decido volver al clásico VirtualBox para Foundation, que me da que le han puesto más cariño. 

Con VirtualBox me encuentro el problema habitual con el redimensionamiento de la ventana: va de pena. Es mejor no tocarlo. Aun así, iluso de mi, traté de ajustar la resolución, lo que me llevó a...borrar la maquina y empezar de nuevo, que iba a ser más rápido que el ajuste de ventana para que el reconocimiento del ratón en la VM funcionara adecuadamente. Solventado este primer percance, decido lanzar Foundation. Como decía, hacia tiempo que no instalaba, pero juraría que la imagen básica venia con el AOS y una versión de AHV...pues si así fue, ahora seguro que no. De nuevo configuración de red (y reinicio, que a la VM en VB no le sientan bien los cambios), y le descargo su ISO. Reajusto la red, y relanzo Foundation. Sin éxito. Básicamente, la guerra habitual en estas instalaciones, no encuentra los nodos.

Decidiendo si cortarme las venas o dejármelas largas, y rebuscando en mi archivo de VMs para recuperar mi antigua Foundation y actualizarla, decido probar lo que siempre me dijeron que mejor no tocar: Foundation for Windows, una versión nueva, tan reciente como que tenia fecha del mismo día. 

Unifico las capturas de la instalación para hacer el articulo más llevadero. Básicamente es un "siguiente siguiente siguiente", prestando atención en la carpeta de instalación porque es donde volcará las ISOS que te descargues:

Cuando ejecutas la aplicación (que por cierto, al arranque la llaman "adecuadamente" Portable Foundation), verás que es lo mismo que con las Foundation VM, aunque con pequeñas diferencias...Por ejemplo, en la primera ventana, veras que te indica algo así como "he detectado todas estas redes en tu equipo. Si alguna de estas llega a los nodos que vamos a instalar, no toques nada"

Esto, para mi, ya es ver el cielo. Puedes estar perfectamente en tu red, a la vez que instalas con ethernet los nodos.

Me salto la fase de descubrimiento de los nodos, es muy simple y lo hizo realmente bien, y voy a AOS e hipervisor. Verás que tienes distintas opciones en el hipervisor, como ver la whitelist, descargar los instaladores de AHV, refrescar el menú desplegable de mas abajo en el supuesto que hayas descargado algo, y subir un nuevo binario (la ISO, vaya). Esto es lo que comentaba anteriormente en el proceso de instalación. Subir la ISO no es mas que el que te la mueva a su carpeta correspondiente en Program Files, así que tras cierto tiempo, posiblemente quieras hacer limpieza.

También, como podéis ver en la imagen, te chequea automáticamente si la ISO subida está en la whitelist. Es taaaan fácil poder hacer esto desde tu equipo, en vez de una VM, que cuando los pruebes, te olvidarás de esas instalaciones a través de VM. 

Avanzamos a la pantalla de instalación, y ejecutamos. Igual que en Foundation, va dando detalles del proceso por host, y acceso a los logs.


Finalizado el despliegue, podremos ver, desde los logs por host, a la descarga de un bundle de logs de todo el proceso, incluyendo Prism.

Me he ahorrado tiempo de configuración de VM, espacio en disco, peleas con las redes de las VMs para subir ISOS y luego reconfigurar y reiniciar para que llegue a la red adecuada... De ahora en adelante, lo tengo claro: Portable Foundation, o Foundation for Windows, como quieras llamarlo

jueves, 5 de junio de 2025

Así fue el evento del día 29 de mayo de VMUG Madrid

Tras meses de planificación, el pasado 29 de mayo toda la comunidad de  VMUG Madrid nos reunimos en un ambiente técnico, distendido y lleno de entusiasmo, con ganas de compartir, aprender y seguir construyendo comunidad.

Una agenda de lujo

La mañana arrancó fuerte con Nacho Arrieta (VMware), que nos ofreció una visión clara y detallada del rumbo de VMware Cloud Foundation (VCF) en su charla "VCF Vision and Roadmap". Una sesión que sentó las bases para entender por dónde va el futuro de la infraestructura híbrida.

A continuación, Jessica Navas, también desde VMware, nos presentó "A Smarter Way to Build, Operate and Consume Private Cloud". Su enfoque práctico y directo conectó perfectamente con la audiencia, sobre todo al hablar de cómo optimizar nuestras nubes privadas para que sean realmente eficientes y alineadas con las necesidades reales del negocio.

Después del coffee break (y de algunas charlas muy interesantes en los pasillos), Fernando Ramos de OVHcloud nos trajo una propuesta diferente: la nube privada alojada como alternativa a los grandes hiperescalares. Su sesión "Hosted Private Cloud", pensada especialmente para pymes, fue clara, concisa y muy orientada a casos reales. Incluso hubo tiempo para una demo improvisada… ¡y eso siempre se agradece!

Más allá de las ponencias

Además del contenido técnico, lo mejor fue, como siempre, la comunidad. Ver caras conocidas, conocer nuevos miembros y compartir experiencias reales es lo que hace especial a cada evento de VMUG. El ambiente fue inmejorable: profesional, pero cercano. Con ganas de aprender, pero también de pasarlo bien.

Gracias y… ¡nos vemos en la próxima!

Desde el equipo organizador, queremos dar las gracias a todos los asistentes, ponentes y colaboradores. Sin vosotros, este tipo de encuentros no serían posibles.

Ya estamos pensando en la siguiente cita, y por supuesto, ¡esperamos veros allí!

domingo, 11 de mayo de 2025

.NEXT 2025: ¡Inmersión total en el futuro del multicloud y el almacenamiento de Nutanix!

Todavía con la energía a tope tras haber vivido unos días increíbles en Washington, D.C. para el esperado .NEXT 2025. Ha sido una experiencia fantástica, vibrante y repleta de información de valor que sin duda supondrá un cambio en las posibilidades de uso de Nutanix.

Entre la marea de anuncios y sesiones fascinantes, hubo un hilo conductor que resonó especialmente: la evolución del almacenamiento externo dentro del universo Nutanix. Para los que lidiamos con la realidad de entornos híbridos y la gestión de datos dispersos, las novedades presentadas fueron como escuchar una melodía familiar con arreglos completamente nuevos y emocionantes.

La narrativa de Nutanix en .NEXT 2025 fue clara: derribar las barreras entre el almacenamiento interno y externo. Ya no se trata de mundos separados, sino de un único ecosistema donde la gestión fluye de manera intuitiva y eficiente. ¿Os imagináis poder tener esa visibilidad granular y ese control unificado sobre vuestros datos, sin importar dónde residan físicamente? Pues bien, Nutanix está haciendo esa visión realidad.

Lo que realmente me gustó fue la forma en que Nutanix está abordando la complejidad. No se trata solo de "conectar" almacenamiento externo, sino de integrarlo de forma inteligente, aplicando la misma filosofía de simplicidad y gestión centralizada que ya conocemos de su plataforma principal. Esto significa menos quebraderos de cabeza, menos silos de información y, en definitiva, más tiempo para dedicarnos a nuestras cosas.

Nutanix no está reinventando la rueda para el almacenamiento externo; está extendiendo su lenguaje familiar, su interfaz intuitiva, a este nuevo dominio. Para los que ya navegamos por Prism, la sensación es de "hogar, dulce hogar", incluso cuando gestionamos recursos que están fuera de la caja.

Foto tomada de Dell

No puedo dejar de hablar del ambientazo que se respiró en este .NEXT 2025. Fue una mezcla perfecta de tecnología, buen rollo y muchas ganas de compartir. Al principio, tengo que admitirlo, el inglés con acento de Washington me pilló un poco fuera de juego (hablan rapidísimo), pero te vas acostumbrando. Y al final te das cuenta de que casi la mitad de la gente con la que te cruzas habla español, así que todo fluye mucho más fácil. Charlas técnicas en cualquier rincón, dentro o fuera del evento, y siempre con alguien dispuesto a compartir ideas o echar una mano.

Porque sí, las keynotes y los anuncios de los grandes nombres están muy bien, pero lo más potente de estos eventos es lo que pasa entre bambalinas. Esas conversaciones improvisadas, los contactos que haces en la cola del café, o la charla que empieza con un “¿de dónde eres?” y termina en un debate sobre arquitectura cloud. Al final, esto va más allá de las novedades del momento. Va de gente, de conexiones reales, y de salir de ahí con la sensación de haber aprendido algo nuevo, no solo por lo que viste, sino por con quién lo compartiste.

Y claro, no puedo hablar del .NEXT sin mencionar las fiestas de Nutanix. O sea… qué nivel. He estado en unos cuantos eventos del sector, y lo digo sin dudar: nadie monta una fiesta como esta gente. Desde que pones un pie en el lugar ya sabes que va a ser algo distinto. Música por todo lo alto, DJs que no paran, músicos en vivo que te hacen imposible quedarte quieto, y de repente —¡zas!— aparece un actor disfrazado animando a la peña como si estuvieras en medio de un show de Las Vegas.

Pero eso no es todo: juegos por todos lados (sí, tipo arcade, futbolines... lo que se te ocurra), un catering espectacular con comida para todos los gustos, cócteles creados para el evento y bebida fluyendo como si no hubiera un mañana. Literalmente podías estar hablando de Kubernetes con alguien mientras a tu lado un saxofonista improvisaba sobre una base de house. Surrealista y maravilloso.

Y lo mejor de todo es que, más allá del espectáculo, el ambiente seguía siendo de comunidad. De gente con ganas de pasarlo bien, sí, pero también de seguir charlando, compartiendo ideas o simplemente desconectar juntos después de un día intenso de charlas técnicas. Sin postureos, sin formalidades. Solo buena vibra, buena música y muy, muy buena compañía.

Mi conclusión tras el .NEXT 2025 es que en lo tecnico, Nutanix no solo está respondiendo a las necesidades del presente en cuanto a gestión de datos híbridos, sino que está respondiendo a las peticiones de sus clientes. La forma en que están integrando el almacenamiento externo dentro de su plataforma es un paso, desde mi punto de vista, tremendamente acertado. Y en lo personal, son estos momentos los que hacen que sientas que merezca la pena todo ese esfuerzo, esas horas, dias, semanas, invertidas en aprender sobre esta tecnología. Y gracias a todos los que han hecho estos momentos posibles, tanto a la gente de Nutanix, como a los demás colegas de profesión. Seguro que nos volveremos a ver, solo espero que sea antes del .NEXT 26!

¿Pudisteis vivir la experiencia .NEXT 2025? ¿Qué fue lo que más os resonó? ¡Me encantaría leer vuestras impresiones en los comentarios! 👇