Team Leader - Nutanix Technology Champion - Nutanix NTC Storyteller

Julien DUMUR
Infrastructure in a Nutshell
nutanix hycu

Aujourd’hui, je vais vous présenter la méthode de déploiement de la solution de sauvegarde HYCU sur mon cluster Nutanix AHV.

Dans le précédent article, je vous ai présenté les prérequis nécessaires à l’installation de la solution avec notamment l’envoi des fichiers d’installation HYCU vers le cluster Nutanix AHV. A ce stade, vous devriez donc avoir la version désirée d’HYCU disponible sur votre cluster :

Dans mon cas, j’ai volontairement placé 3 versions différentes du logiciel afin de pouvoir montrer :

  • le déploiement de la solution
  • l’upgrade avec upgrade path

Sizing

Avant de procéder à l’installation, il faut d’abord la dimensionner en fonction de nos besoins. Pour cela, HYCU donne des indications sur les tailles de VM en fonction de la quantité de machines virtuelles à sauvegarder :

Dans mon cas, ayant moins de 50 machines virtuelles à sauvegarder, je vais partir sur la plus petite des tailles :

  • 8 vCPU
  • 8Gb RAM
  • 32Gb de stockage

Maintenant que ma VM est dimensionnée, passons à son déploiement.

Déploiement du contrôleur HYCU

Pour déployer la VM HYCU,, il faut se connecter au Prism Element, se rendre dans le menu « VM » et cliquer sur « Create VM ». Dans la fenêtre qui s’affiche, je lui donne un nom et je passe à la suite :

Je sais les valeurs retenues lors du dimensionnement dans la section « Compute Details » :

Et j’ajoute ensuite le premier disque de type « DISK » en tant que « Clone from Image Service » et je sélection l’image que j’ai précédemment chargée sur mon cluster « hycu-4.9.0-5310 » :

J’ajoute ensuite un second disque de type « DISK » cette fois ci, en « Allocate on Storage Container » puisqu’il s’agit d’un disque vierge de 32Gb que je place sur le container de stockage par défaut :

Enfin, j’affecte une carte réseau à ma machine virtuelle sur le sous réseau de mon choix :

Ma machine virtuelle est maintenant déployée, je peux la démarrer :

Mon prochain article détaillera la configuration initiale de la machine virtuelle HYCU qui permettra de finaliser l’initialisation du système et d’accéder à l’interface d’administration de la solution.

Read More
nutanix hycu

Dans mon précédent article, je vous ai présenté la solution de sauvegarde HYCU. Je vais maintenant vous décrire mon environnement de déploiement et vous expliquer comment récupérer les sources d’installation de la solution.

Environnement de déploiement

Mon environnement de déploiement est le suivant :

  • Cluster Nutanix CE2.1 pour déployer et comme source des backups
  • NAS Synology en guise de destination des backups

C’est suffisant pour tester la solution et simuler un véritable environnement de production.

J’ai déjà paramétré un partage sur le NAS Synology pour recevoir les sauvegardes et je me suis assuré que le cluster Nutanix, la VM HYCU et le NAS Synology pourraient communiquer sans problème.

Je verrais par la suite si je peux simuler un emplacement complémentaire de type S3 pour simuler une externalisation des données en mode « Archivage ».

Passons maintenant à la récupération des fichiers nécessaires à l’installation.

Compatibilité de la solution

Au niveau compatibilité, voici les principaux éléments à avoir en tête sur le scope qui nous intéresse :

  • Nutanix AOS 6.5, 6.8 et 6.10
  • Nutanix Files 4.4 et 5.0
  • Nutanix Objects, Amazon S3, Wasabi
  • VM Windows Server 2016, 2019, 2022
  • Linux

Je vous invite à consulter la compatibility matrix disponible sur le site Support HYCU pour prendre connaissance de l’ensemble des plateformes compatibles HYCU : https://download.hycu.com/ec/v5.1.0/help/en/HYCU_CompatibilityMatrix.pdf

Récupération des images d’installation

Pour récupérer les images, il faut se rendre sur le site de l’éditeur et faire une demande de licence d’essai : https://www.hycu.com/solutions/data-protection/nutanix#getForm

Il y a quelques champs à remplir, une personne de chez HYCU va ensuite vous contacter par téléphone (renseignez donc un numéro sur lequel vous êtes joignable !) pour vous demander quelles sont vos motivations.

Une fois l’ensemble des prérequis remplis, HYCU vous fournira un lien de téléchargement qui vous permettra de récupérer l’image d’installation du logiciel au format qcow2, prêt à être importé sur votre cluster Nutanix.

Transfert des images sur le cluster Nutanix

Une fois que vous avez téléchargé l’image qcow2 de HYCU, il faut maintenant la transférer sur votre cluster Nutanix.

Pour cela, connectez vous au Prism Element de votre cluster Nutanix CE et rendez vous dans « Settings > Image Configuration » :

Cliquez sur « Upload image », renseignez le formulaire et sélectionnez l’image précédemment téléchargée :

Comme ce sera un pré-requis lors de futures opérations sur votre HYCU, je vous invite à prendre tout de suite de bonnes habitudes et à nommer votre image selon le modèle HYCU-VERSION-BUILD.

Cliquez sur « Save » pour lancer le transfert et patientez jusqu’à ce que votre image soit traitée par le cluster et qu’elle soit indiquée comme « ACTIVE ».

La documentation HYCU

Pour la documentation officielle de l’éditeur, elle est disponible en libre accès sur le site HYCU au format PDF : https://support.hycu.com/hc/en-us/categories/15363454825500-Documentation

Pas de traduction autre que l’anglais, il va donc falloir vous mettre à la langue de Shakespeare !

Voilà, vous avez maintenant tout ce qu’il faut pour déployer le contrôleur HYCU sur votre cluster, rendez vous dans un prochain article pour découvrir comment déployer le contrôleur.

Read More
nutanix hycu

Dans un monde où la gestion des données est un enjeu majeur, les entreprises recherchent des solutions de sauvegarde et de reprise après sinistre efficaces, simples et performantes. HYCU se distingue comme une solution de sauvegarde spécifiquement conçue pour les environnements hyperconvergés, en particulier Nutanix.

Cet article est le premier d’un guide complet sur la solution de sauvegarde HYCU, guide que vous pourrez retrouver avec les autres guides ici : https://juliendumur.fr/guides/

Intégration native avec Nutanix

HYCU est la première solution de sauvegarde développée exclusivement pour Nutanix. Contrairement aux solutions traditionnelles adaptées aux infrastructures hyperconvergées, HYCU est conçue pour exploiter pleinement l’écosystème Nutanix. Elle s’intègre directement avec Nutanix AHV et Nutanix Files, garantissant une protection optimale des données sans impacter les performances du système.

Grâce à son intégration API-first, HYCU est capable de s’aligner parfaitement avec l’architecture Nutanix. Cela permet aux administrateurs IT de gérer les sauvegardes et la restauration depuis l’interface Nutanix Prism, offrant ainsi une gestion centralisée et intuitive. Cette approche réduit la courbe d’apprentissage et limite les efforts opérationnels.

Fonctionnalités clés de HYCU pour Nutanix

Contrairement aux solutions traditionnelles nécessitant l’installation d’agents sur chaque machine virtuelle, HYCU repose sur une approche sans agent, réduisant ainsi la consommation des ressources et simplifiant la maintenance. Il est capable de détecter automatiquement les charges de travail et adapte les politiques de sauvegarde en fonction des configurations définies. Cette automatisation minimise les interventions humaines et réduit le risque d’erreur.

L’une des forces de HYCU est sa capacité à effectuer des restaurations granulaire (fichiers individuels, bases de données spécifiques) ou complètes (machines virtuelles entières) en quelques clics, garantissant ainsi une reprise rapide en cas de panne.

HYCU intègre également des technologies avancées de compression et de déduplication des données, réduisant ainsi la consommation de stockage et améliorant les performances globales des sauvegardes. L’intégration natif du verrouillage WORM améliore également l’immutabilité et et la sécurité des données sauvegardées.

Toutefois, HYCU ne se limite pas aux infrastructures Nutanix on-premise. Il prend en charge les environnements cloud hybrides et multi-cloud, permettant aux entreprises de protéger leurs données sur AWS, Google Cloud, et Microsoft Azure. Il est également capable de sauvegarder les environnements VMWare ESXi ou bien des applications SaaS.

Contrairement aux solutions complexes nécessitant des configurations avancées, HYCU propose une approche « plug-and-play » où la mise en place et l’exploitation sont accessibles même aux équipes IT non spécialisées en sauvegarde. L’interface utilisateur intuitive permet aux administrateurs de gérer l’ensemble du cycle de vie des sauvegardes et des restaurations en quelques clics.

Cas d’usage et bénéfices

Les entreprises utilisant HYCU pour Nutanix bénéficient d’une protection de leurs données optimisée sans compromettre les performances de leur infrastructure. Parmi les principaux bénéfices, on retrouve :

  • La réduction des coûts opérationnels grâce à une gestion simplifiée et une réduction des besoins en stockage.
  • Le gain de temps significatif grâce à l’automatisation et à la rapidité des restaurations.
  • Une meilleure continuité des activités avec une reprise rapide après sinistre.
  • Une protection conforme aux exigences réglementaires grâce aux fonctionnalités de chiffrement et de rétention des données.

HYCU combiné avec les environnements Nutanix est une solution de sauvegarde moderne et innovante qui s’aligne parfaitement avec les principes de l’hyperconvergence. Dans le prochain article, je vous présenterais les différents prérequis nécessaires au déploiement de la solution.

Read More

Il y a quelques mois, je m’offrais un Steamdeck pour passer le temps durant ma convalescence après une opération du pied qui m’a cloué à mon canapé. Je vous avais déjà montré que l’on peut administrer un cluster depuis le Steamdeck et j’ai voulu pousser l’expérience un peu plus loin…

Le multi-boot sur le Steamdeck

Pour rendre l’exécution de Foundation for Windows possible sur le Steam deck, il a fallut que je trouve une solution pour faire tourner un Windows 11 à la place du SteamOS nativement embarqué.

Pour réaliser l’opération, j’avais plusieurs options :

  • remplacer le système d’exploitation embarqué pour passer de SteamOS à Windows 11 mais cela me rajoutait énormément de contraintes pour pouvoir jouer sur la console à mes jeux Steam
  • mettre en place un système de multi-boot avec un disque externe sur lequel j’aurai installé un Windows 11 mais cela faisait un périphérique possiblement encombrant à trimballer…

L’objectif étant d’avoir une solution de boot additionnelle pour mon Steamdeck afin de pouvoir expérimenter Windows sur la machine dans diverses situations sans avoir à supprimer le système d’exploitation embarqué nativement, j’ai opté pour la deuxième option et je me suis mis en quête d’un disque externe qui ferait l’affaire.

En parcourant Internet, je suis finalement tombé sur un projet Kickstarter « Genki SavePoint » : https://www.kickstarter.com/projects/humanthings/genki-savepoint?lang=fr

Le Genki Savepoint est un boîtier pour mini SSD conçu pour une utilisation portable. Sur le papier, voici les promesses du boitier :

  • Compatible SSD M.2 2230
  • Capacité max de 2Tb
  • Vitesse de transfert de 10Gb/s
  • Chargement 100w
  • Dissipateur de chaleur intégré
  • Condensateur de protection intégré

Je me suis donc empressé de soutenir le projet en commandant 2 boitiers que j’ai fini par recevoir après quelques semaines d’attentes. J’y ai ajouté un SSD M.2 2230 de 1Tb pour pouvoir avoir un espace suffisant quelle que soit l’utilisation que j’en aurai…

Exit SteamOS, bonjour Windows 11 !

Une fois le boitier et le SSD reçus, j’ai procédé au montage du SSD dans le boitier et pour cela, il suffit de dévisser le dissipateur pour révéler le connecter M.2 et pouvoir insérer le SSD. Une fois connecté à l’ordinateur, le boitier est détecté comme un disque dur externe.

Il m’a fallu maintenant préparer le SSD en installant un Windows 11 dessus à l’aide de Rufus. Je ne vais pas détailler le processus ici puisque le constructeur du boitier s’en est chargé ici : https://www.genkithings.com/blogs/blog/installing-windows-on-savepoint

Une fois Windows 11 installé, j’ai téléchargé l’ensemble des drivers disponibles (https://help.steampowered.com/fr/faqs/view/6121-ECCD-D643-BAA8) et les différents logiciels que je souhaitais installer ensuite (dont Foundation for Windows) et je les ai mis en prévision sur le disque. Les choses sérieux pouvaient commencer…

Installation de Nutanix Foundation

Au premier démarrage sur le boitier, il a fallut évidemment que je fasse toute la configuration du système d’exploitation et que j’installe l’ensemble des drivers préalablement installés.

Ensuite, le déploiement de Foundation sur le Steamdeck est simple puisqu’il m’a suffit d’exécuter le fichier que j’avais téléchargé sur le site officiel (https://portal.nutanix.com/page/downloads?product=foundation).

Une fois l’installation terminée, j’ai ouvert le navigateur internet et j’ai ouvert l’adresse http://locahost:8000/gui/index.html pour accéder à l’interface de Nutanix Foundation :

Sans surprise, Foundation for Windows tourne impeccable sur le Steamdeck, mais quid d’un déploiement sans port réseau RJ45 embarqué ? Pour répondre à cette problématique, il m’a suffit de faire l’acquisition d’un mini dock USB-C avec :

  • 1 RJ45
  • 3 USB2
  • 1 USB-C
  • 2 HDMI

A ce stade, le Steamdeck est « Foundation Ready » et prêt à déployer des clusters. Toutefois, la dernière question qui reste en suspend est la suivante : est ce que cela fonctionne ? En toute honnêteté, je n’en sais rien car malheureusement je n’ai pas eu de cluster à disposition me permettant faire un test grandeur nature, mais dès que l’occasion se présentera ce sera fait !

Read More

Afin de sécuriser les flux intra-cluster dans un environnement où la segmentation réseau est inexistante, il est parfois nécessaire de configurer le backplane network pour les isoler des flux de production.

Présentation du backplane network

Le backplane network crée une interface dédiée dans un VLAN distinct sur tous les hôtes CVM et AHV du cluster pour l’échange de trafic de réplication de stockage. Le backplane network partage les mêmes adaptateurs physiques sur le pont br0 par défaut, mais utilise un VLAN non routable différent. Cela permet d’isoler les flux du cluster de ceux des machines de production de façon logique et/ou physique.

Cas d’usage

Dans notre cas, le réseau client ne dispose d’aucune segmentation du réseau et tous ses équipements sont dans le même sous-réseau (serveurs, pc, imprimantes, téléphones…).

L’objectif était donc de mettre en place le backplane network pour isoler et sécuriser les flux intra-cluster sur un VLAN dédié et indépendant du reste du réseau (flux en rouge sur le schéma) :

La première étape consiste à modifier la configuration des switchs Top-of-Rack pour ajouter le nouveau VLAN.

Configuration des switchs top-of-rack

Avant de procéder à l’activation du backplane network, il est nécessaire de préparer les ports des switchs top-of-rack pour cette opération. Dans notre cas, nous sommes sur des switchs Mellanox avec une configuration des ports en actif-backup avec un VLAN d’administration en 100 et un VLAN non routé dédié au backplane network en 3000 :

interface ethernet 1/1
switchport mode hybrid
switchport hybrid allowed-vlan add 3000
switchport access vlan 100
exit
interface ethernet 1/2
switchport mode hybrid
switchport hybrid allowed-vlan add 3000
switchport access vlan 100
exit
interface ethernet 1/3
switchport mode hybrid
switchport hybrid allowed-vlan add 3000
switchport access vlan 100
exit
interface ethernet 1/4
switchport mode hybrid
switchport hybrid allowed-vlan add 3000
switchport access vlan 100
exit

Il faut bien entendu adapter les commandes à votre modèle de switch et reproduire cette configuration sur le 2e switch Top of Rack.

ATTENTION à ne pas faire d’erreur lors de la modification de votre configuration réseau au risque de compromettre l’accès à votre cluster.

Une fois la configuration terminée, il est maintenant possible de mettre en place le backplane network sur le cluster.

Configuration du backplane network

Avant de pouvoir démarrer, il est impératif de passer l’ensemble des hôtes en mode maintenance. Pour ce faire, il faut se connecter sur une CVM et taper la commande suivante :

acli host.enter_maintenance_mode HOST_IP

Il faut répéter la commande avec l’adresse ip de chacun des hôtes de votre cluster.

Une fois l’ensemble des hôtes en mode maintenance, il faut se connecter à Prism Element, se rendre dans le menu « Setting > Network Configuration > Internal Interfaces » :

En face de « Backplane LAN » cliquer sur « Configure » :

Sur la fenêtre qui s’affiche, saisissez :

  • l’adresse ip du réseau que vous souhaitez utiliser pour le backplane network
  • le masque de sous réseau associé à ce subnet
  • l’ID du VLAN que vous avez choisi
  • le virtual switch qui va devoir le porter

Conseils et bonnes pratiques pour le choix de votre backplane network :

  • le réseau ne doit pas être routé
  • il ne doit pas exister sur le réseau
  • il faut le choisir suffisamment étendu pour intégrer les noeuds existants et éventuellement un cluster expand
  • l’ID du VLAN doit être unique sur le réseau

Une fois l’opération de configuration terminée sur le cluster, il faut sortir l’ensemble des hotes de maintenance avec la commande suivante :

acli host.exit_maintenance_mode HOST_IP

Il faut saisir la commande sur une CVM et la répéter avec l’adresse IP de chacun des hôtes du cluster.

Dans network configuration, vous pourrez constater que le réseau backplane network est désormais configuré et actif :

Votre trafic intra cluster est désormais isolé du reste du réseau.

Read More

Parfois et pour diverses raisons, il est nécessaire de configurer le VLAN directement au niveau de notre cluster Nutanix, notamment pour assurer la segmentation du réseau.

Cas d’usage

Ayant eu un peu de temps pour moi durant les vacances de Noel, je me suis attelé à la reprise de la configuration de mon réseau local afin d’isoler mon lab Nutanix de mon réseau interne.

Pour cela, il a fallu avant que je reconfigure mes équipements Ubiquiti afin de :

  • créer le VLAN 84 au niveau de la Dream Machine Pro
  • propager le VLAN 84 sur le switch 24 ports puis sur le switch 5 ports sur lequel est branché le cluster

Changement du VLAN sur AHV

Avant d’entamer les modifications, je commence par vérifier la configuration réseau de mon hôte :

[root@NTNX-5e8f7308-A ~]# ovs-vsctl list port br0
_uuid : b76f885d-59b2-4153-99d3-27605a729ab8
bond_active_slave : []
bond_downdelay : 0
bond_fake_iface : false
bond_mode : []
bond_updelay : 0
cvlans : []
external_ids : {}
fake_bridge : false
interfaces : [17e8b0de-2ef5-4f6f-b253-94a766ec9603]
lacp : []
mac : []
name : br0
other_config : {}
protected : false
qos : []
rstp_statistics : {}
rstp_status : {}
statistics : {}
status : {}
tag : 0
trunks : []
vlan_mode : []

Le résultat de la commande nous montre qu’il n’y a pas de tag sur mon hôte. Nous allons y remédier avec la commande suivante :

[root@NTNX-5e8f7308-A ~]# ovs-vsctl set port br0 tag=84

La commande « ovs-vsctl set port br0 tag= » permet de taguer l’interface de mon hôte avec l’ID du VLAN que j’ai dédié à mon réseau Nutanix. On vérifie ensuite l’application de la configuration :

[root@NTNX-5e8f7308-A ~]# ovs-vsctl show
Bridge br0
    Port vnet4
        tag: 0
        Interface vnet4
    Port br0-up
        Interface eth4
        Interface eth0
        Interface eth5
        Interface eth2
        Interface eth1
        Interface eth3
    Port br0.u
        Interface br0.u
            type: patch
            options: {peer=br.dmx.d.br0}
    Port br0
        tag: 84
        Interface br0
            type: internal
    Port br0-dhcp
        Interface br0-dhcp
            type: vxlan
            options: {key="1", remote_ip="192.168.84.200"}
    Port br0-arp
        Interface br0-arp
            type: vxlan
            options: {key="1", remote_ip="192.168.5.2"}
    Port vnet2
        Interface vnet2
ovs_version: "2.14.8"

On peut maintenant constater que le VLAN est configuré sur mon hôte, il faut maintenant faire la configuration coté CVM…

Configuration du VLAN sur la CVM

On commence par vérifier la configuration réseau de notre CVM :

[root@NTNX-5e8f7308-A ~]# ovs-vsctl show
    Bridge br0
        Port br0-up
            Interface eth4
            Interface eth0
            Interface eth5
            Interface eth2
            Interface eth1
            Interface eth3
        Port br0-arp
            Interface br0-arp
                type: vxlan
                options: {key="1", remote_ip="192.168.5.2"}
        Port br0.u
            Interface br0.u
                type: patch
                options: {peer=br.dmx.d.br0}
        Port vnet5
            Interface vnet5
        Port br0
            tag: 84
            Interface br0
                type: internal
        Port br0-dhcp
            Interface br0-dhcp
                type: vxlan
                options: {key="1", remote_ip="192.168.84.200"}
        Port vnet2
            Interface vnet2
    ovs_version: "2.14.8"

On peut constater ici que mon interface réseau ne comporte aucune information de vlan. Je procède donc à la configuration du VLAN ID en me connectant à ma CVM puis en tapant la commande

change_cvm_vlan VLANID
nutanix@NTNX-5e8f7308-A-CVM:192.168.84.200:~$ change_cvm_vlan 84
This operation will perform a network restart. Please enter [y/yes] to proceed or any other key to cancel: y
Changing vlan tag to 84
Replacing external NIC in CVM, old XML:
<interface type="bridge">
      <mac address="52:54:00:8e:69:bc" />
      <source bridge="br0" />
      <virtualport type="openvswitch">
        <parameters interfaceid="356e3bf3-5700-4131-b1b2-4fa65195a6e2" />
      </virtualport>
      <target dev="vnet0" />
      <model type="virtio" />
      <driver name="vhost" queues="4" />
      <alias name="ua-1decc31c-2764-416a-b509-d54ecd1a684f" />
      <address type="pci" domain="0x0000" bus="0x00" slot="0x03" function="0x0" />
    </interface>

        new XML:
<interface type="bridge">
      <mac address="52:54:00:8e:69:bc" />
      <model type="virtio" />
      <driver name="vhost" queues="4" />
      <address type="pci" domain="0x0000" bus="0x00" slot="0x03" function="0x0" />
    <source bridge="br0" /><virtualport type="openvswitch" /><vlan><tag id="84" /></vlan></interface>

CVM external NIC successfully updated.
Performing a network restart

On contrôle maintenant la configuration réseau de la CVM pour vérifier que le tag a bien été configuré :

[root@NTNX-5e8f7308-A ~]# ovs-vsctl show
Bridge br0
Port br0-up
Interface eth4
Interface eth0
Interface eth5
Interface eth2
Interface eth1
Interface eth3
Port br0-arp
Interface br0-arp
type: vxlan
options: {key="1", remote_ip="192.168.5.2"}
Port br0.u
Interface br0.u
type: patch
options: {peer=br.dmx.d.br0}
Port vnet5
tag: 84
Interface vnet5
Port br0
tag: 84
Interface br0
type: internal
Port br0-dhcp
Interface br0-dhcp
type: vxlan
options: {key="1", remote_ip="192.168.84.200"}
Port vnet2
Interface vnet2
ovs_version: "2.14.8"

Ma CVM est dorénavant sur le VLAN 84. Il ne me reste plus qu’à reproduire ces manipulations sur l’ensemble de mes noeuds et de vérifier ensuite que tout fonctionne correctement.

ATTENTION : la commande change_cvm_vlan présente un bug connu en 6.8 avec AHV 20230302.100173 qui fait que le VLAN ID n’est pas préservé lors du redémarrage de l’hôte : https://portal.nutanix.com/page/documents/kbs/details?targetId=kA0VO0000002uJ30AI

Read More

Les easter eggs, ou « œufs de Pâques » en français, sont des éléments cachés dans divers médias, notamment les films, les jeux vidéo, les logiciels et même les sites web et Nutanix n’y fait pas exception.

Ces petites références sont souvent placées intentionnellement par les créateurs pour divertir les utilisateurs curieux et observateurs. Ils peuvent prendre la forme de références culturelles, de clins d’œil humoristiques, de messages secrets ou de fonctionnalités inédites, accessibles uniquement par des méthodes particulières.

Les easter eggs sont devenus une sorte de tradition dans le monde numérique, renforçant l’engagement des fans et créant une connexion spéciale entre les créateurs et leur audience.

Le jeu « 2048 »

Le jeu 2048 est un puzzle populaire se jouant sur une grille 4×4. L’objectif est de fusionner des tuiles de même valeur pour atteindre la tuile de 2048. Les touches fléchées du clavier permettent de déplacer les tuiles dans les quatre directions. Chaque mouvement fait apparaître une nouvelle tuile de valeur 2 ou 4. Le jeu se termine lorsque plus aucun mouvement n’est possible.

Nutanix intègre le jeu 2048 dans ses consoles Prism Element et Prism Central, vous offrant une pause ludique lors de l’utilisation de la plateforme. Pour accéder à ce jeu, suivez les étapes suivantes :

Connectez-vous à votre interface Prism Element ou Prism Central via votre navigateur web puis, dans le coin supérieur droit de l’interface, cliquez sur votre nom d’utilisateur pour dérouler le menu.

Dans le menu déroulant, choisissez l’option intitulée « Nothing To Do? » :

Une fois l’option sélectionnée, le jeu 2048 s’ouvrira dans une nouvelle fenêtre, prêt à être joué !

Si l’option « Nothing To Do? » n’apparaît pas dans le menu, il est possible que l’administrateur l’ait désactivée. Pour vérifier ce paramètre, accédez aux Paramètres de la console, puis à la section Apparence et enfin aux Paramètres de l’interface utilisateur. Assurez-vous que la case permettant d’activer le jeu est cochée.

NetHack

Nethack est un jeu emblématique de la culture geek, connu pour son gameplay en mode texte et ses nombreux easter eggs et références culturelles. Les dragons sont des créatures puissantes dans ce jeu, et les dessins ASCII sont souvent un hommage à ce type de jeux.

La référence à NetHack est cachée dans Nutanix Move. Pour l’afficher, connectez vous en SSH à la VM Move et tapez la commande suivante :

cat /opt/xtract-vm/bin/dragon.txt

Et voici ce que vous aurez à l’écran !

Options de personnalisation avancées

Vous pouvez accéder à des options de personnalisation avancées grâce à un raccourci caché qui vous permettra de customiser la page de connexion de votre cluster !

Pour y accéder, connectez vous à votre cluster, rendez vous dans les paramètres puis dans la rubrique « UI Settings ». Ensuite, cliquez sur « UI Settings » tout en maintenant la touche « Alt » de votre clavier enfoncée :

Vous aurez alors plus d’options de personnalisation de l’interface de connexion :

Le Seigneur des Anneaux

Parmi les services qui permettent de faire tourner votre cluster, il en est 2 qui sont une référence directe à l’épée d’Aragorn dans l’oeuvre de Tolkien, le Seigneur des Anneaux. Je parle évidemment d’Anduril, Flamme de l’Ouest, forgée avec les fragments de Narsil.

Anduril et Narsil sont 2 services Nutanix que vous pouvez retrouver quand vous tapez la commande « cluster status » sur une de vos CVMs :

Stargate

Toujours parmi les services Nutanix, on peut retrouver une référence au film et à la série culte du même nom : Stargate, la porte des étoiles.

Pour l’afficher, toujours la même commande : cluster status depuis une CVM :

Star Trek

Parmi les autres easter eggs cachés dans Nutanix, on peut trouver une référence à l’univers de Star Trek avec le service Uhura qui est une référence à Nyota Uhura, un lieutenant de l’USS Enterprise !

Pour l’afficher, toujours la même commande : cluster status depuis une CVM :

Xmen

Toujours parmi les services Nutanix, on peut trouver une référence à l’univers des Xmen avec le service Cerebro !

Cerebro est un ordinateur de haute technologie créé par le Professeur Charles Xavier avec l’aide de Magneto et qui amplifie les ondes cérébrales de la personne qui l’utilise.

Pour l’afficher, toujours la même commande : cluster status depuis une CVM :

Terminator

Très explicite celui ci, et toujours parmi les services de votre cluster… Terminator, méchant incontournable de la pop culture !

Pour l’afficher, toujours la même commande : cluster status depuis une CVM :

Mythologie grecque et romaine

Le plus gros morceaux des références puisqu’il existe pas loin d’une dizaine de références aux Dieux des mythologies grecque et romaine…

Zeus, Hera, Minerve, Athena… Il y passent presque tous !

Si vous souhaitez visiter le Mont Olympe, c’est toujours en CLI depuis une CVM avec un cluster status :

Et vous ? Avez vous trouvé d’autres références cachées dans Nutanix ?

Read More

Une question qui revient régulièrement : « quelles sont les mots de passe par défaut sur mon cluster ? »

Voici une liste exhaustive des mots de passe d’un cluster Nutanix en post-installation, ainsi que ceux de certaines briques additionnelles :

Mots de passe des hôtes AHV

  • Compte « root » : nutanix/4u
  • Compte « nutanix » : nutanix/4u
  • Compte « admin » : nutanix/4u

Mots de passe des CVM :

  • Compte « admin » : nutanix/4u
  • Compte « nutanix » : nutanix/4u

Mots de passe de Prism Central :

  • Compte « admin » : Nutanix/4u
  • Compte « nutanix » : nutanix/4u

Mots de passe de Nutanix Move :

  • Compte « admin » : nutanix/4u

Mot de passe Nutanix Files :

  • Compte « nutanix » : nutanix/4u

Je vous invite à lire cet article pour effectuer le changement des mots de passe de votre cluster : https://juliendumur.fr/nutanix-ahv-operations-post-install-partie-1/

Read More
Nutanix Blog Header

Après le re-ip d’un Prism Central chez un client, le menu permettant de basculer entre les sections applicatives ne fonctionnait plus du tout et générait un message d’erreur au survol :

En inspectant le fichier de log « Styx.log » : /home/docker/domain-manager/log/styx.log, j’ai pu trouver ce type de lignes de logs :

V3ApiError: ACCESS_DENIED | No permission to access the resource.;

Dans le fichier « Athena.INFO », j’ai également trouvé des erreurs JWT qui indiquaient des problèmes de parsing de certificat :

ERROR 2024-11-18T17:49:01,154Z Thread-1 athena.authentication_connectors.CertificateAuthenticator.getX509Certificate:309 certificate parsing exception {}. Please ensure the certificate is valid

Pour corriger l’erreur, j’ai du régénérer un nouveau certificat à l’aide de la commande suivante :

nutanix@PCVM:~$ncli ssl-certificate ssl-certificate-generate

Une fois le processus de régénération terminé, le menu de mon Prism Central s’est remis à fonctionner parfaitement bien.

Documentation officielle : https://portal.nutanix.com/page/documents/kbs/details?targetId=kA07V0000004UtNSAU

Read More

Lors du déploiement de Prism Central sur mon cluster Nutanix CE 2.1, j’ai été confronté à un message d’erreur qui m’empêchait d’enregistrer mon cluster sur Prism Central…

En effet, une fois l’ensemble des paramètres renseignés lors de la validation j’obtiens le message d’erreur « Cluster has dual stack enabled. Cannot register to a PC. » :

Ce message d’erreur est lié à la présence d’IPv6 en parallèle d’IPv4 sur le cluster, mais une solution existe et elle réside dans la commande suivante :

manage_ipv6 unconfigure; manage_ipv6 disable

Il faut répondre « Y » à la question « Proceed to remove above IPv6 configuration? » afin de valider le processus :

nutanix@NTNX-436d2f97-A-CVM:192.168.84.200:~$ manage_ipv6 unconfigure; manage_ipv6 disable
[INFO] Initializing script… done
[INFO] Current IPv6 configuration on cluster: {
"svmips": {
"192.168.84.200": null
},
"hostips": {
"192.168.84.199": null
},
"prefixlen": null,
"gateway": null
}
[INFO] Note: This operation will restart the following services: ['CerebroService', 'StargateService']
Proceed to remove above IPv6 configuration? [Y/N]: Y
[+] CVM and Hypervisor IPv6 addresses unconfigured
[+] Cleared IPv6 configuration from Zeus
[+] CVM and hypervisor firewall rules updated
[+] Necessary services have been restarted
[INFO] Marked Ergon task 4673fda3-92da-4efe-59f5-1dd3fc51a6cd as kSucceeded
[INFO] Action unconfigure completed successfully
Script output logged to /home/nutanix/data/logs/manage_ipv6.out
[INFO] Initializing script… done
[+] IPv6 disabled on CVMs and Hypervisors
[INFO] Marked Ergon task 9cdfcb37-436a-479f-4d7a-08ef69e266b0 as kSucceeded
[INFO] Action disable completed successfully
Script output logged to /home/nutanix/data/logs/manage_ipv6.out
nutanix@NTNX-436d2f97-A-CVM:192.168.84.200:~$

Une fois la procédure terminée, l’enregistrement du Prism Central se déroule sans aucun problème :

Si vous rencontrez des problèmes pour désactiver IPv6, Goerge a donné une autre technique pour y parvenir :

Ajouter ces lignes dans /etc/sysctl.conf:

net.ipv6.conf.all.disable_ipv6 = 1
net.ipv6.conf.all.disable_policy = 1
net.ipv6.conf.default.disable_ipv6 = 1
net.ipv6.conf.default.disable_policy = 1
net.ipv6.conf.eth0.disable_ipv6 = 1
net.ipv6.conf.eth0.disable_policy = 1
net.ipv6.conf.eth1.disable_ipv6 = 1
net.ipv6.conf.eth1.disable_policy = 1
net.ipv6.conf.eth2.disable_ipv6 = 1
net.ipv6.conf.eth2.disable_policy = 1
net.ipv6.conf.lo.disable_ipv6 = 1
net.ipv6.conf.lo.disable_policy = 1

Lancer la commande :

sudo sysctl -p 

Faire un reboot de toutes les CVMs. Relancer ensuite la commande manage_ipv6 unconfigure :

manage_ipv6 unconfigure; manage_ipv6 disable
Read More

Abonnez-vous