miércoles, 6 de agosto de 2025

Cómo apagar un único nodo de un clúster Nutanix

Puntualmente podemos encontrarnos en la necesidad de tener que apagar los nodos de manera individual, con el fin de realizar algún tipo de mantenimiento sobre el mismo, como por ejemplo, un incremento de RAM.

Para esto, no hace falta apagar el clúster, sino que simplemente pondremos el nodo en mantenimiento. El sistema se encarga de balancear las VMs a los otros nodos. Todo este proceso se realiza desde la consola de administración de Nutanix. En este caso, sobre un Nutanix CE, realizo los pasos sobre Elements.

En el menú superior nos vamos a "Hardware". Por defecto, entra en la pestaña Overview. Nos vamos a "Table", y ahí podremos ver nuestros hosts. Pinchamos sobre el que vamos a apagar, y veremos una serie de opciones en el menú inferior. Una de ellas es "Enter in maintenance mode. Pulsamos el botón, y aparecerá el mensaje que tienes en pantalla, donde avisa del balanceo de las máquinas en ejecución.


Este proceso no es instantáneo, hay que darle tiempo al clúster, y esperar hasta que veas que está sin actividad, algo así:

IMPORTANTE: poner en mantenimiento el host APAGA la CVM. Los servicios relacionados con Prism se delegaran a otra CVM, si diese la casualidad que la CVM del host que vamos a apagar estuviera funcionando como controller de Prism Elements.

Seguidamente, tenemos que detener el host. Para ello, nos conectamos via SSH a otra CVM del cluster.con nuestro usuario nutanix, por ejemplo. Cambiamos a Bash, y ejecutamos los siguientes comandos:

ssh root@IP_del_host_AHV

shutdown -h now

Con esto, se apaga el host de manera controlada:

Si lo tenemos virtualizado, como es este caso, donde trabajo sobre nested host en ESXi, aparecerá la VM apagada

Supongamos que trabajamos sobre un host físico: el proceso es el mismo, solo que podríamos apagar de manera controlada el hipervisor tirando de iDrac, ILO o IPMI.

Para arrancar de nuevo el host, encendemos la VM y esperamos a que nos muestre el prompt de login, y desde Prism sacamos al nodo de mantenimiento:

En cuanto veamos que nos da en Prism la IP de la CVM, podemos abrir una conexion ssh contra la CVm que tiene que haber levantado ya, accedemos con nuestro user nutanix, y escribimos "cluster status". Si todo fue bien, nos anunciará un "Cluster succeed"

¡Ya está! ¡No tiene mas!
Recapitulando: ponemos en mantenimiento el nodo, entramos por ssh a la CVM de otro nodo, nos conectamos al AHV del nodo que vamos a apagar, lanzamos un shutdown, hacemos lo que tenemos que hacer, arrrancamos el host, y sacamos de mantenimiento.

jueves, 31 de julio de 2025

Expandir un cluster Nutanix con un nuevo nodo

 A la hora de crear un cluster con Nutanix CE, no queda otra que hacerlo via cli, ya que perdemos la capacidad de generarlo con Foundation. Pero, ¿Y si queremos expandirlo?

Nutanix CE permite crear un cluster de 1 nodo, un cluster de 2 nodos, y luego el cluster minimo recomendado, de 3 nodos. Pero puedes expandirlo hasta los 4 nodos. Y eso es lo que vamos a hacer ahora.

Aunque via cli, lo que encontramos en la documentacion de Nutanix es que "Expand cluster using ncli is disabled by default in AOS 6.1.1 or later", significa que poder, podriamos hacerlo, pero que es mas facil si lo hacemos via Prism. Para ello, entramos en nuestro Prism Elements, y nos vamos al icono de settings, a la derecha de la barra de menú:

En el apartado de la izquierda, veremos la opción "Expand Cluster". Pinchamos en ella.

Seleccionamos la primera opción de las 2 que nos da. La segunda seria para realizar la instalacion del hipervisor en un nodo no preparado todavia. Super cómodo en entornos reales, pero aqui lo que estamos haciendo es agregar una VM que ya preparamos previamente, y pulsamos Next:

Lo primero que nos pide es seleccionar el host. En este caso solo tenemos una preparada, asi que en el autodiscovery que hace solo localiza 1, pero de tener varias, verifica la que quieres agregar a partir de su serial number. En el CVM que vamos a agregar, nos basta hacer un "hostname" para averiguar el serial number, ya que es lo que pone por defecto al crear el nodo. Pulsamos Next

En el siguiente paso, seleccionamos el tipo de nodo. Vamos a generar un nodo tipo HCI, y Next

En el siguiente paso no tenemos que hacer nada, al estar ya todo en la misma red. Continuamos:

Finalmente, podemos ejecutar los checks iniciales, o ejecutar la adicion del host al cluster. Va a hacer los check igualmente, antes de agregarlo, asi que a tu eleccion. Lo peor que puede pasar en caso de fallo es que no se agregue el nodo y todo se quede igual que al principio, asi que dale sin miedo.


Como veis, el proceso ha variado ligeramente con respecto a hace unos años, pero en líneas generales, es fácil.

sábado, 26 de julio de 2025

Cómo crear un cluster Nutanix CE nested

 ¡Vamos con un poco de cacharreo! Y qué mejor para cacharrear que montarte un entorno de laboratorio virtual? Vamos a ver cómo podemos montarnos un clúster de 3 nodos Nutanix con la Community Edition.

Lo primero de todo, tendremos que descargarnos los elementos necesarios para ello, y en este caso y yendo a lo simple, nos bastará con la ISO del AOS. De manera que hacemos login en my.nutanix.com (si no tienes cuenta, te la creas, es gratis) y pinchamos en el apartado Community Edition.

Os vais a encontrar las instrucciones de descarga e instalación, pero planteadas para un entorno físico. En este caso, nos descargamos de AQUI la ISO, y continuaremos de otra manera a la que indica la web.

Vamos a nuestro ESXi, y le copiamos la ISO. Seguidamente, creamos 3 VMs con las siguientes características: 

CPU: 8 cores

Memoria: 32 GB

Disco duro 1: 40 Gb

Disco duro 2: 200 Gb

Disco duro 3: 500 Gb

Yo le he metido más CPU y memoria. Realmente con 4 cores y algo menos de RAM debería valer. Lo que sí es importante, que el disco duro 1 tenga al menos 40 Gb. Si habéis visto otros tutoriales, normalmente dicen que 16 GB. Son insuficientes, y da problemas a la hora de realizar la instalación.

En Unidad de CD le ponemos el arranque con la ISO descargada previamente.

IMPORTANTE: vamos a las opciones de la VM y en "parámetros de configuración", pulsamos sobre "editar configuración"


Entra las variables que hay, pulsamos sobre "agregar parámetro" e introducimos en el apartado "Clave", "disk.EnableUUID" y en el apartado "Valor", "TRUE", la como se ve en la siguiente imagen:

En la pestaña de Virtual Hardware, CPU, expandimos el menú y marcamos "Expose hardware assisted virtualization to the guest OS".

Una vez creadas las VMs, arrancamos con la ISO cargada. Se verá una breve pantalla por un segundo con el arranque de la CE, y mucha pantalla negra con texto de carga, hasta que llegamos a la ventana de configuración    

Esta página es un chiste. Veis el EULA ese, que nadie se lee? Pues hay que hacer scroll hasta el final, o en la siguiente pantalla no podrás continuar con el proceso. ¡Avisados estáis! Asi que venga, a mantener pulsada la flecha abajo, hasta el final del documento. Después ya podéis marcar el Accept, y pulsar Start

Tómatelo con calma, el proceso de instalación no es rápido.

Finalizado el proceso, pedirá desmontar el disco y un reinicio. Cuidado con el reinicio, porque aparenta ser rápido, y te da el prompt en poco tiempo, pero internamente está levantando procesos, y le llevará mucho levantar completamente. Para verificar que está listo, accedemos por ssh a cualquiera de nuestras CVMs, con el user y pass por defecto, ya sabes: username nutanix y password nutanix/4u

Introducimos el siguiente comando: "watch -d genesis status". Necesitamos que aparezcan levantados 2 servicios: foundation y genesis.

Con estos servicios levantados, ya podemos iniciar la creación del clúster..

Aquí, la sintaxis correcta sería la siguiente: cluster -s <cvm_ip_1>,<cvm_ip_2>,<cvm_ip_3> –dns_servers 1.1.1.1 create

Incluso, además de las IPs de las CVMs y el servidor DNS, podemos pasar más info a la creación del cluster. Algo asi: cluster -s <cvm_ip_1>,<cvm_ip_2>,<cvm_ip_3> --dns_servers=<IP de los servidores DNS> --cluster_name=<el nombre del cluster> --cluster_external_ip=<la IP propia del cluster> create

Personalmente, me ha dado bastantes problemas hacerlo así, posiblemente porque el DC y DNS de pruebas para el entorno lo tengo "de aquella manera", y ni creando previamente los registros DNS acababa de funcionar correctamente, así que el comando que yo utilizo es solamente el siguiente:

cluster -s <cvm_ip_1>,<cvm_ip_2>,<cvm_ip_3>  create 

La creación del clúster es bastante rápida. Ahora, una sucesión de comanditos para ir creando los parámetros que en otros casos se dan en la misma creación del clúster. Empezamos con un "cluster start"

A continuación, definimos el nombre del clúster con un "ncli cluster edit-params new-name=cluster_name"

Seguidamente configuramos esa Virtual IP Address del clúster, con un "ncli cluster set-external-ip-address external-ip-address=cluster_ip_address"

Para agregar los servidores DNS, introducimos "ncli cluster add-to-name-servers servers=DNS_server_ip_address"

Y ya por ultimo metemos el servidor, o listado de servidores, NTP con "ncli cluster add-to-ntp-servers servers=NTP_server_ip_address" (de este comando se me pasó la captura, sorry).

Con esto, sólo queda que accedas a tu clúster a través de la virtual ip recien configurada, y, ¡a jugar!

PD: Como curiosidad, conéctate de nuevo a una CVM y vuelve a ejecutar el watch -d genesis status. Ahora verás una pila de servicios notablemente superior. Y muchos te sonarán, de la arquitectura de Nutanix, esos servicios que se describen en la Biblia de Nutanix para explicar cómo se comunican los distintos componentes de la solución. Bueno, pues aquí los tienes, en directo:


Ten en cuenta que provisionamos a estas VMs un almacenamiento decente para jugar, así que mi recomendación es empezar por algo facilito: creación de contenedores, y luego file servers.

jueves, 3 de julio de 2025

¡Sorpresa! Unboxing gourmet de Nutanix & Lenovo

El otro día tuve la oportunidad de participar en una sesión técnica de Nutanix y Lenovo. Ya sabéis que Nutanix es una solución de software, y aunque originalmente estuvo más ligada a Supermicro, lo cierto es que son agnósticos de hardware, y haciendo un esfuerzo notable en compatibilizar sus productos con todas las opciones de hardware posibles.

Nada que añadir del evento, un webinar sólido y bien presentado sobre la base de Nutanix. Para los que todavía a estas alturas no conozcan el producto, ya tardáis en asistir a uno de sus webinars, o haceros un test drive para conocer la solución.

Lo que no me esperaba es el detalle para los asistentes. Es bastante habitual que en los webinars de todas las empresas haya un Kahoot, o alguna cosa por el estilo al final, que rompe un poco la seriedad del momento y lo desencorseta un poco de la estructura habitual. Pero lo que no me esperaba era un mini encuesta con "sorpresa" final.

Parece frágil, pero no estoy seguro, quizá no lo han etiquetado suficiente...

Sinceramente, tenia este detalle olvidado, un poco como esos sorteos de papeletas de colegio, que compras a los niños, y a saber donde acaba luego la participación. Pero esta vez, apenas 5 minutos de finalizar mis tareas laborales, llaman al telefonillo (bendito teletrabajo). Un mensajero con una caja bastante voluminosa a mi nombre, que no entra en el "Citibox".  Hago memoria, miro en pedidos de las distintas tiendas online, a ver si ya estoy comprando en sueños, pero parece estar todo en orden, no era nada que hubiera comprado.

Vamos con el "unboxing", y ahí queda todo mucho mas claro:

¡Sorpresa! Ese fantástico webinar sí que tenia algo más que ofrecer. Muy bien protegido dentro de la caja, y con papel burbuja como para estar una tarde entera reventando burbujitas, el equipo de Nutanix y Lenovo envía una cesta gourmet muy bien presentada.

Vamos a ver mejor lo que nos ha llegado... Tenemos 3 paquetes de paleta de cebo de campo ibérica, un paquete de chorizo de bellota ibérico, un queso de oveja semicurado, un par de paquetitos de picos de pan para acompañar, y fuet espetec y por supuesto, un vino para maridar todo esto.

Siempre he dicho que no hay otra empresa como Nutanix montando fiestones  eventos, pero desde luego, detalles como estos te alegran el día. Cuando no había necesidad de hacerlo, cuando el webinar en sí ya valía cada segundo de tu tiempo para informarte de todo lo que su tecnología ofrece, llega ese "algo mas", ese famoso "one more thing" estilo Jobs, que si no es con alguna novedad en su producto, es con gestos como este.

Nutanix Iberia, ¡soy vuestro fan!


martes, 17 de junio de 2025

¡Llega VCF 9! ¿Qué nos trae de nuevo?

VMware Cloud Foundation (VCF) continúa evolucionando, y la versión 9.0 llega para redefinir el panorama de la nube privada. Este lanzamiento se centra en proporcionar una plataforma de confianza, optimizada para todas las aplicaciones, desde las tradicionales hasta las más modernas, incluyendo cargas de trabajo de IA. Con VCF 9.0, no solo estamos hablando de mejoras incrementales, sino de una transformación que busca impulsar resultados de negocio tangibles y significativos.
Pero, ¿Qué novedades clave trae VCF 9.0 para tu infraestructura? Pues una barbaridad, así que vayamos por partes...

1. Redefiniendo la Infraestructura Moderna con Rendimiento Superior

VCF 9.0 introduce innovaciones en el core de la plataforma que se traducen directamente en un rendimiento mejorado y una reducción significativa del Costo Total de Propiedad (TCO):


  • Tiering de Memoria Avanzado con NVMe: Esta característica optimiza la ubicación de las cargas de trabajo en diferentes niveles de memoria, permitiendo asignar niveles de menor costo a tareas menos críticas. El resultado es una reducción del TCO de memoria y servidor de hasta un 38%
  • vSAN ESA con Deduplicación Global: La Express Storage Architecture (ESA) de vSAN, introducida en vSAN 8, está optimizada para dispositivos NVMe de alto rendimiento, utilizando un modelo de "una sola capa" de unidades independientes. Con VCF 9.0, la deduplicación global en vSAN ESA maximiza la eficiencia del almacenamiento y promete reducir el TCO del almacenamiento en un 34% (requiere solicitud de cotización o RPQ). Además, vSAN ESA mejora la eficiencia de la CPU por E/S procesada y permite una codificación de borrado eficiente en todas las circunstancias, ofreciendo resiliencia superior y snapshots escalables nativas. Las operaciones de compresión, cifrado y suma de comprobación de datos se realizan una sola vez en el momento de la ingesta. También, es compatible con cargas de trabajo nativas de la nube a través de Cloud Native Storage (CNS) y habilita la desagregación del almacenamiento.
  • Ruta de Datos Mejorada de NSX: Esta mejora proporciona un rendimiento de conmutación hasta 3 veces más rápido, lo que se traduce en una menor latencia y carga de CPU para las cargas de trabajo de red intensiva
  • Optimización de vMotion para IA: Permite migrar cargas de trabajo de inteligencia artificial con un impacto de rendimiento insignificante y un tiempo de inactividad de aproximadamente el 1%
  • Recuperación Nativa Eficiente: Ofrece protección de datos de vSAN a vSAN con instantáneas profundas.
  • Computación Confidencial: Habilita cargas de trabajo seguras con capacidades de computación confidencial

2. Una Experiencia de Nube Unificada y Simplificada

VMware Cloud Foundation 9.0 pone un fuerte énfasis en la simplicidad operativa y una experiencia de consumo de la nube más intuitiva.


  • Instalador de VMware Cloud Foundation: Simplifica enormemente el proceso de construcción y despliegue de una nube privada. Elimina la necesidad de instalaciones individuales de componentes y asegura el uso de una topología validada, proporcionando una experiencia rediseñada para la instalación y migración.
  • Consola de Operaciones de VCF: Esta consola centraliza la configuración y la gobernanza, ofreciendo seguridad proactiva, diagnósticos mejorados y gestión del ciclo de vida. Facilita la configuración y las operaciones diarias. El SDDC Manager proporciona una visión integral de la infraestructura física y virtual, con acceso centralizado para gestionar recursos. Incluye un panel de bienvenida que guía a los administradores a través de tareas de configuración sugeridas y ofrece tutoriales prácticos.
  • Gestión de Costos, Repercusión de Cargos y Demostración de Costos: Permite una visibilidad clara del uso de los recursos y los costos asociados, establece políticas para el cumplimiento del presupuesto y permite la asignación precisa de costos a los departamentos.
  • Consumo Simplificado de Redes en la Nube y VPC: Brinda acceso bajo demanda a los recursos de infraestructura, simplifica la entrega para los usuarios finales y permite políticas personalizables para la gobernanza y el control, permitiendo conectar, separar, asegurar y proteger cargas de trabajo fácilmente.
  • Catálogo de Autoservicio, IaC (Infrastructure as Code) y Gestión de Clústeres VKS: Facilita el aprovisionamiento automatizado de servicios, agiliza los despliegues y simplifica la gestión del ciclo de vida de la infraestructura de la nube.

3. Seguridad y Resiliencia Reforzadas

La seguridad es primordial, y VCF 9.0 fortalece las capacidades de protección en todos los niveles:


  • Panel de Operaciones de Seguridad: Ofrece una vista unificada para monitorear la postura de seguridad, rastrear CVEs (Vulnerabilidades y Exposiciones Comunes) y acelerar la respuesta a problemas de cumplimiento.
  • Cumplimiento y Monitoreo de la Configuración: Detecta automáticamente las desviaciones de las políticas de seguridad y operativas, simplifica las auditorías y ayuda a prevenir configuraciones erróneas.
  • Gestión de Identidades y Certificados: VCF 9.0 mejora la gestión de certificados, permitiendo la integración con autoridades de certificación como Microsoft CA o OpenSSL, además de soportar certificados de terceros. El SDDC Manager notifica sobre la expiración de certificados y contraseñas. También gestiona la rotación y actualización manual de contraseñas para cuentas de servicio, de consola y de administrador de SSO, e incluso permite remediar contraseñas expiradas.
  • Actualizaciones en Servicio Crítico de ESXi y Actualizaciones Flexibles y Asíncronas: Estas características minimizan el tiempo de inactividad y garantizan la continuidad de las operaciones para cargas de trabajo críticas.

4. Preparación para VCF 9.0: Lo que Necesitas Saber

Para aquellos que planean una actualización o una nueva implementación, el documento de briefing incluye una lista de verificación importante:


  • Rutas de Actualización: Si actualmente utilizas VCF 3.x o 4.x, necesitarás una actualización. Las instalaciones de VCF 5.x permiten una actualización en el mismo lugar (in-place).
  • Compatibilidad de Componentes: Los entornos con vSphere 8.x y NSX 4.x están listos para VCF 9.0. Aquellos con versiones anteriores de vSphere (<8) o NSX (<4) requerirán precauciones especiales para la actualización en el mismo lugar.
  • Hardware: Los procesadores Intel Skylake, Broadwell y Kabylake ya no son compatibles, ya que fueron marcados como obsoletos en versiones anteriores.
  • Soluciones de Terceros: VMware no ha realizado cambios en la API, por lo que la compatibilidad con soluciones de terceros dependerá de la calificación de cada proveedor.
  • Soporte Específico: El soporte para Dell VxRail y PowerFlex está en desarrollo o requiere una Solicitud de Propuesta (RPQ). vVOL sigue siendo compatible, pero será declarado obsoleto.
  • vCloud Director: No es compatible con la actualización directa a VCF 9.0.
  • Cumplimiento: VCF 9.0 soporta STIG (excluyendo vRO/vRNI) y FIPS (habilitado por defecto).

En resumen, VMware Cloud Foundation 9.0 se posiciona como una plataforma robusta y adaptable, diseñada para modernizar la infraestructura de la nube privada, optimizar las operaciones y garantizar una seguridad y resiliencia de primer nivel. Es una apuesta clara por la eficiencia, la automatización y la preparación para las cargas de trabajo del futuro.
Pero no solo eso: ha redondeado el producto existente simplificando la instalación y facilitando la actualización del entorno.
¡Anímate a explorar todo lo que VCF 9.0 tiene para ofrecer y lleva tu nube privada al siguiente nivel!

PD: Os dejo AQUI el link al articulo oficial de presentacion. Aviso que es un ladrillo...

lunes, 16 de junio de 2025

Elementos de software necesarios para la instalación de un cluster Nutanix con Foundation

Instalar un clúster Nutanix en entornos bare-metal puede resultar complejo si no se dispone de un método ágil para preparar los nodos. La Foundation VM te permite hacerlo usando solo un portátil (en Windows, Linux o macOS con Oracle VirtualBox/VMware Workstation), sin necesidad de red local compleja. Además, puedes llevarla contigo para realizar instalaciones en distintos lugares con facilidad. Aunque más fácil todavía es utilizar Fountation Portable en Windows o MacOs, donde directamente no utilizas siquiera una VM, sino que lanzas la app que trae preinstalada la Foundation VM. Ya hablé de esto en un post anterior, y recomiendo este método.

Una vez elegida la herramienta con la que realizaremos el despliegue, deberemos preparar los archivos de instalación. Para ello, hay 3 archivos fundamentales a actualizar:

AOS

Que en el Field Installation Guide aparece como "nutanix_installer_package-version#.tar.gz", pero que en la web de descargas aparece como AOS Upgrade / Installer, de manera que te puedes volver un poco loco buscando el archivo.


Este archivo luego irá copiado a la carpeta /home/nutanix/foundation/nos. Pongamos que tienes Portable foundation: en ese caso, va a C:\Program Files (x86)\Nutanix\Portable Foundation\nos

ISO a utilizar. 

SI vas a utilizar de hipervisor un ESXi, va a /home/nutanix/ESXi/. Si es AVH, a /home/nutanix/KVM/. Si por el contrario utilizas Portable Foundation, va a C:\Program Files (x86)\Nutanix\Portable Foundation\isos\hypervisor\kvm

Whitelist

Revisa el archivo Whitelist, para asegurarte de que está actualizado, y las isos que vas a utilizar cumplen con la version adecuada. El archivo iso_whitelist.json puedes encontrarlo en la zona de descarga de Foundation, mencionado en letra bien pequeñita, no sea que lo encuentres fácilmente, al comienzo de todo:



El archivo iso_whitelist lo puedes localizar, en Portable, en "C:\Program Files (x86)\Nutanix\Portable Foundation\config". Para las Foundation VM, ya buscas el equivalente.
Con estos 3 archivos, las versiones revisadas, y todo en su sitio, estás listo para el despliegue.

Un último apunte... revisa, relee, apréndetelo de memoria...el Field Installation Guide, que puedes encontrar en My.Nutanix / Support & Insights / Software Documentation / Foundation /Field installation Guide

viernes, 13 de junio de 2025

Credenciales por defecto de Nutanix

En todas las instalaciones me pasa lo mismo, que menos el pass de las IPMI, que está clarete dónde se encuentra (aunque es lo primero que debamos cambiar según tenemos el sistema montado), con el resto de pass, las pequeñas variantes hacen que acabes probando los accesos 5 veces por aplicación, cada vez que lo intentas. Así que aquí dejo mi chuletilla de Usuario, Pass, y aplicación de acceso. He de decir que no es contenido original, lo he sacado de masteringnutanix.com y modificado a mi gusto, de manera que si ves que falta algo, pásate por ahí, lo mismo he omitido hardware que yo normalmente no utilizo, pero tú si.


Credenciales por defecto del software de Nutanix

Software/Management ToolTargetUsernamePassword
vSphere Web ClientESXi hostrootnutanix/4u
vSphere client (Windows)ESXi hostrootnutanix/4u
Nutanix Prism ElementNutanix Controller VMadminNutanix/4u
Nutanix Prism CentralNutanix P Controller VMadminNutanix/4u
Remote desktop/ConsoleWindows Hyper-V HostAdministratornutanix/4u
SSH client or consoleESXI hostrootnutanix/4u
SSH client or consoleAcropolis Hypervisor(AHV)rootnutanix/4u
SSH clientNutanix Controller VMadminnutanix/4u
SSH clientNutanix Controller VMnutanixnutanix/4u
SQL Server Mobility Service VMSQL VMnutanixnutanix/4u
SSH client or consoleAcropolis OpenStack Services VMrootadmin
SSH client or consoleNutanix ERAeraNutanix.1
Console/GUINutanix ERAeraNutanix.1
SSH client or consoleXplorer VMnutanxnutanix/4u
SSH client or consoleNutanix Moveadminnutanix/4u


Credenciales por defecto de los Nutanix NX Series.

Software/Management ToolTargetUsernamePassword
SSH client or consoleIPMIADMINPassword is Node serial Number
SSH client or consoleNutanix Controller VMnutanixnutanix/4u
SSH client or consoleAcropolis Hypervisor(AHV)nutanixnutanix/4u


Credenciales por defecto de los Dell XC

Software/Management ToolTargetUsernamePassword
SSH client or consoleidracrootPrinted on the server
SSH client or consoleNutanix Controller VMnutanixnutanix/4u
SSH client or consoleAcropolis Hypervisor(AHV)nutanixnutanix/4u


Lenovo ThinkAgile HX Series

Software/Management ToolTargetUsernamePassword
SSH client or consoleXClarityUSERIDPASSW0RD (with a zero, not the letter O)
SSH client or consoleNutanix Controller VMnutanixnutanix/4u
SSH client or consoleAcropolis Hypervisor(AHV)nutanixnutanix/4u

HP DX Series

Software/Management ToolTargetUsernamePassword
SSH client or consoleILOAdministratorPassword is Node serial Number
SSH client or consoleNutanix Controller VMnutanixnutanix/4u
SSH client or consoleAcropolis Hypervisor(AHV)nutanixnutanix/4u


¡Pues con esto ya estamos! Ya sabes que el Node Serial Number se puede ver fácilmente también en la pegatina que trae el servidor por detrás, prácticamente al lado del puerto de lIPMI, y normalmente acompañado de otra pegatina con el S/N de la maquina.

Venga, ¡a instalar!