Team Leader - Nutanix Technology Champion - Nutanix NTC Storyteller

Julien DUMUR
Infrastructure in a Nutshell

Il y a quelques mois, je m’offrais un Steamdeck pour passer le temps durant ma convalescence après une opération du pied qui m’a cloué à mon canapé. Je vous avais déjà montré que l’on peut administrer un cluster depuis le Steamdeck et j’ai voulu pousser l’expérience un peu plus loin…

Le multi-boot sur le Steamdeck

Pour rendre l’exécution de Foundation for Windows possible sur le Steam deck, il a fallut que je trouve une solution pour faire tourner un Windows 11 à la place du SteamOS nativement embarqué.

Pour réaliser l’opération, j’avais plusieurs options :

  • remplacer le système d’exploitation embarqué pour passer de SteamOS à Windows 11 mais cela me rajoutait énormément de contraintes pour pouvoir jouer sur la console à mes jeux Steam
  • mettre en place un système de multi-boot avec un disque externe sur lequel j’aurai installé un Windows 11 mais cela faisait un périphérique possiblement encombrant à trimballer…

L’objectif étant d’avoir une solution de boot additionnelle pour mon Steamdeck afin de pouvoir expérimenter Windows sur la machine dans diverses situations sans avoir à supprimer le système d’exploitation embarqué nativement, j’ai opté pour la deuxième option et je me suis mis en quête d’un disque externe qui ferait l’affaire.

En parcourant Internet, je suis finalement tombé sur un projet Kickstarter « Genki SavePoint » : https://www.kickstarter.com/projects/humanthings/genki-savepoint?lang=fr

Le Genki Savepoint est un boîtier pour mini SSD conçu pour une utilisation portable. Sur le papier, voici les promesses du boitier :

  • Compatible SSD M.2 2230
  • Capacité max de 2Tb
  • Vitesse de transfert de 10Gb/s
  • Chargement 100w
  • Dissipateur de chaleur intégré
  • Condensateur de protection intégré

Je me suis donc empressé de soutenir le projet en commandant 2 boitiers que j’ai fini par recevoir après quelques semaines d’attentes. J’y ai ajouté un SSD M.2 2230 de 1Tb pour pouvoir avoir un espace suffisant quelle que soit l’utilisation que j’en aurai…

Exit SteamOS, bonjour Windows 11 !

Une fois le boitier et le SSD reçus, j’ai procédé au montage du SSD dans le boitier et pour cela, il suffit de dévisser le dissipateur pour révéler le connecter M.2 et pouvoir insérer le SSD. Une fois connecté à l’ordinateur, le boitier est détecté comme un disque dur externe.

Il m’a fallu maintenant préparer le SSD en installant un Windows 11 dessus à l’aide de Rufus. Je ne vais pas détailler le processus ici puisque le constructeur du boitier s’en est chargé ici : https://www.genkithings.com/blogs/blog/installing-windows-on-savepoint

Une fois Windows 11 installé, j’ai téléchargé l’ensemble des drivers disponibles (https://help.steampowered.com/fr/faqs/view/6121-ECCD-D643-BAA8) et les différents logiciels que je souhaitais installer ensuite (dont Foundation for Windows) et je les ai mis en prévision sur le disque. Les choses sérieux pouvaient commencer…

Installation de Nutanix Foundation

Au premier démarrage sur le boitier, il a fallut évidemment que je fasse toute la configuration du système d’exploitation et que j’installe l’ensemble des drivers préalablement installés.

Ensuite, le déploiement de Foundation sur le Steamdeck est simple puisqu’il m’a suffit d’exécuter le fichier que j’avais téléchargé sur le site officiel (https://portal.nutanix.com/page/downloads?product=foundation).

Une fois l’installation terminée, j’ai ouvert le navigateur internet et j’ai ouvert l’adresse http://locahost:8000/gui/index.html pour accéder à l’interface de Nutanix Foundation :

Sans surprise, Foundation for Windows tourne impeccable sur le Steamdeck, mais quid d’un déploiement sans port réseau RJ45 embarqué ? Pour répondre à cette problématique, il m’a suffit de faire l’acquisition d’un mini dock USB-C avec :

  • 1 RJ45
  • 3 USB2
  • 1 USB-C
  • 2 HDMI

A ce stade, le Steamdeck est « Foundation Ready » et prêt à déployer des clusters. Toutefois, la dernière question qui reste en suspend est la suivante : est ce que cela fonctionne ? En toute honnêteté, je n’en sais rien car malheureusement je n’ai pas eu de cluster à disposition me permettant faire un test grandeur nature, mais dès que l’occasion se présentera ce sera fait !

Read More

Afin de sécuriser les flux intra-cluster dans un environnement où la segmentation réseau est inexistante, il est parfois nécessaire de configurer le backplane network pour les isoler des flux de production.

Présentation du backplane network

Le backplane network crée une interface dédiée dans un VLAN distinct sur tous les hôtes CVM et AHV du cluster pour l’échange de trafic de réplication de stockage. Le backplane network partage les mêmes adaptateurs physiques sur le pont br0 par défaut, mais utilise un VLAN non routable différent. Cela permet d’isoler les flux du cluster de ceux des machines de production de façon logique et/ou physique.

Cas d’usage

Dans notre cas, le réseau client ne dispose d’aucune segmentation du réseau et tous ses équipements sont dans le même sous-réseau (serveurs, pc, imprimantes, téléphones…).

L’objectif était donc de mettre en place le backplane network pour isoler et sécuriser les flux intra-cluster sur un VLAN dédié et indépendant du reste du réseau (flux en rouge sur le schéma) :

La première étape consiste à modifier la configuration des switchs Top-of-Rack pour ajouter le nouveau VLAN.

Configuration des switchs top-of-rack

Avant de procéder à l’activation du backplane network, il est nécessaire de préparer les ports des switchs top-of-rack pour cette opération. Dans notre cas, nous sommes sur des switchs Mellanox avec une configuration des ports en actif-backup avec un VLAN d’administration en 100 et un VLAN non routé dédié au backplane network en 3000 :

interface ethernet 1/1
switchport mode hybrid
switchport hybrid allowed-vlan add 3000
switchport access vlan 100
exit
interface ethernet 1/2
switchport mode hybrid
switchport hybrid allowed-vlan add 3000
switchport access vlan 100
exit
interface ethernet 1/3
switchport mode hybrid
switchport hybrid allowed-vlan add 3000
switchport access vlan 100
exit
interface ethernet 1/4
switchport mode hybrid
switchport hybrid allowed-vlan add 3000
switchport access vlan 100
exit

Il faut bien entendu adapter les commandes à votre modèle de switch et reproduire cette configuration sur le 2e switch Top of Rack.

ATTENTION à ne pas faire d’erreur lors de la modification de votre configuration réseau au risque de compromettre l’accès à votre cluster.

Une fois la configuration terminée, il est maintenant possible de mettre en place le backplane network sur le cluster.

Configuration du backplane network

Avant de pouvoir démarrer, il est impératif de passer l’ensemble des hôtes en mode maintenance. Pour ce faire, il faut se connecter sur une CVM et taper la commande suivante :

acli host.enter_maintenance_mode HOST_IP

Il faut répéter la commande avec l’adresse ip de chacun des hôtes de votre cluster.

Une fois l’ensemble des hôtes en mode maintenance, il faut se connecter à Prism Element, se rendre dans le menu « Setting > Network Configuration > Internal Interfaces » :

En face de « Backplane LAN » cliquer sur « Configure » :

Sur la fenêtre qui s’affiche, saisissez :

  • l’adresse ip du réseau que vous souhaitez utiliser pour le backplane network
  • le masque de sous réseau associé à ce subnet
  • l’ID du VLAN que vous avez choisi
  • le virtual switch qui va devoir le porter

Conseils et bonnes pratiques pour le choix de votre backplane network :

  • le réseau ne doit pas être routé
  • il ne doit pas exister sur le réseau
  • il faut le choisir suffisamment étendu pour intégrer les noeuds existants et éventuellement un cluster expand
  • l’ID du VLAN doit être unique sur le réseau

Une fois l’opération de configuration terminée sur le cluster, il faut sortir l’ensemble des hotes de maintenance avec la commande suivante :

acli host.exit_maintenance_mode HOST_IP

Il faut saisir la commande sur une CVM et la répéter avec l’adresse IP de chacun des hôtes du cluster.

Dans network configuration, vous pourrez constater que le réseau backplane network est désormais configuré et actif :

Votre trafic intra cluster est désormais isolé du reste du réseau.

Read More

Parfois et pour diverses raisons, il est nécessaire de configurer le VLAN directement au niveau de notre cluster Nutanix, notamment pour assurer la segmentation du réseau.

Cas d’usage

Ayant eu un peu de temps pour moi durant les vacances de Noel, je me suis attelé à la reprise de la configuration de mon réseau local afin d’isoler mon lab Nutanix de mon réseau interne.

Pour cela, il a fallu avant que je reconfigure mes équipements Ubiquiti afin de :

  • créer le VLAN 84 au niveau de la Dream Machine Pro
  • propager le VLAN 84 sur le switch 24 ports puis sur le switch 5 ports sur lequel est branché le cluster

Changement du VLAN sur AHV

Avant d’entamer les modifications, je commence par vérifier la configuration réseau de mon hôte :

[root@NTNX-5e8f7308-A ~]# ovs-vsctl list port br0
_uuid : b76f885d-59b2-4153-99d3-27605a729ab8
bond_active_slave : []
bond_downdelay : 0
bond_fake_iface : false
bond_mode : []
bond_updelay : 0
cvlans : []
external_ids : {}
fake_bridge : false
interfaces : [17e8b0de-2ef5-4f6f-b253-94a766ec9603]
lacp : []
mac : []
name : br0
other_config : {}
protected : false
qos : []
rstp_statistics : {}
rstp_status : {}
statistics : {}
status : {}
tag : 0
trunks : []
vlan_mode : []

Le résultat de la commande nous montre qu’il n’y a pas de tag sur mon hôte. Nous allons y remédier avec la commande suivante :

[root@NTNX-5e8f7308-A ~]# ovs-vsctl set port br0 tag=84

La commande « ovs-vsctl set port br0 tag= » permet de taguer l’interface de mon hôte avec l’ID du VLAN que j’ai dédié à mon réseau Nutanix. On vérifie ensuite l’application de la configuration :

[root@NTNX-5e8f7308-A ~]# ovs-vsctl show
Bridge br0
    Port vnet4
        tag: 0
        Interface vnet4
    Port br0-up
        Interface eth4
        Interface eth0
        Interface eth5
        Interface eth2
        Interface eth1
        Interface eth3
    Port br0.u
        Interface br0.u
            type: patch
            options: {peer=br.dmx.d.br0}
    Port br0
        tag: 84
        Interface br0
            type: internal
    Port br0-dhcp
        Interface br0-dhcp
            type: vxlan
            options: {key="1", remote_ip="192.168.84.200"}
    Port br0-arp
        Interface br0-arp
            type: vxlan
            options: {key="1", remote_ip="192.168.5.2"}
    Port vnet2
        Interface vnet2
ovs_version: "2.14.8"

On peut maintenant constater que le VLAN est configuré sur mon hôte, il faut maintenant faire la configuration coté CVM…

Configuration du VLAN sur la CVM

On commence par vérifier la configuration réseau de notre CVM :

[root@NTNX-5e8f7308-A ~]# ovs-vsctl show
    Bridge br0
        Port br0-up
            Interface eth4
            Interface eth0
            Interface eth5
            Interface eth2
            Interface eth1
            Interface eth3
        Port br0-arp
            Interface br0-arp
                type: vxlan
                options: {key="1", remote_ip="192.168.5.2"}
        Port br0.u
            Interface br0.u
                type: patch
                options: {peer=br.dmx.d.br0}
        Port vnet5
            Interface vnet5
        Port br0
            tag: 84
            Interface br0
                type: internal
        Port br0-dhcp
            Interface br0-dhcp
                type: vxlan
                options: {key="1", remote_ip="192.168.84.200"}
        Port vnet2
            Interface vnet2
    ovs_version: "2.14.8"

On peut constater ici que mon interface réseau ne comporte aucune information de vlan. Je procède donc à la configuration du VLAN ID en me connectant à ma CVM puis en tapant la commande

change_cvm_vlan VLANID
nutanix@NTNX-5e8f7308-A-CVM:192.168.84.200:~$ change_cvm_vlan 84
This operation will perform a network restart. Please enter [y/yes] to proceed or any other key to cancel: y
Changing vlan tag to 84
Replacing external NIC in CVM, old XML:
<interface type="bridge">
      <mac address="52:54:00:8e:69:bc" />
      <source bridge="br0" />
      <virtualport type="openvswitch">
        <parameters interfaceid="356e3bf3-5700-4131-b1b2-4fa65195a6e2" />
      </virtualport>
      <target dev="vnet0" />
      <model type="virtio" />
      <driver name="vhost" queues="4" />
      <alias name="ua-1decc31c-2764-416a-b509-d54ecd1a684f" />
      <address type="pci" domain="0x0000" bus="0x00" slot="0x03" function="0x0" />
    </interface>

        new XML:
<interface type="bridge">
      <mac address="52:54:00:8e:69:bc" />
      <model type="virtio" />
      <driver name="vhost" queues="4" />
      <address type="pci" domain="0x0000" bus="0x00" slot="0x03" function="0x0" />
    <source bridge="br0" /><virtualport type="openvswitch" /><vlan><tag id="84" /></vlan></interface>

CVM external NIC successfully updated.
Performing a network restart

On contrôle maintenant la configuration réseau de la CVM pour vérifier que le tag a bien été configuré :

[root@NTNX-5e8f7308-A ~]# ovs-vsctl show
Bridge br0
Port br0-up
Interface eth4
Interface eth0
Interface eth5
Interface eth2
Interface eth1
Interface eth3
Port br0-arp
Interface br0-arp
type: vxlan
options: {key="1", remote_ip="192.168.5.2"}
Port br0.u
Interface br0.u
type: patch
options: {peer=br.dmx.d.br0}
Port vnet5
tag: 84
Interface vnet5
Port br0
tag: 84
Interface br0
type: internal
Port br0-dhcp
Interface br0-dhcp
type: vxlan
options: {key="1", remote_ip="192.168.84.200"}
Port vnet2
Interface vnet2
ovs_version: "2.14.8"

Ma CVM est dorénavant sur le VLAN 84. Il ne me reste plus qu’à reproduire ces manipulations sur l’ensemble de mes noeuds et de vérifier ensuite que tout fonctionne correctement.

ATTENTION : la commande change_cvm_vlan présente un bug connu en 6.8 avec AHV 20230302.100173 qui fait que le VLAN ID n’est pas préservé lors du redémarrage de l’hôte : https://portal.nutanix.com/page/documents/kbs/details?targetId=kA0VO0000002uJ30AI

Read More

Les easter eggs, ou « œufs de Pâques » en français, sont des éléments cachés dans divers médias, notamment les films, les jeux vidéo, les logiciels et même les sites web et Nutanix n’y fait pas exception.

Ces petites références sont souvent placées intentionnellement par les créateurs pour divertir les utilisateurs curieux et observateurs. Ils peuvent prendre la forme de références culturelles, de clins d’œil humoristiques, de messages secrets ou de fonctionnalités inédites, accessibles uniquement par des méthodes particulières.

Les easter eggs sont devenus une sorte de tradition dans le monde numérique, renforçant l’engagement des fans et créant une connexion spéciale entre les créateurs et leur audience.

Le jeu « 2048 »

Le jeu 2048 est un puzzle populaire se jouant sur une grille 4×4. L’objectif est de fusionner des tuiles de même valeur pour atteindre la tuile de 2048. Les touches fléchées du clavier permettent de déplacer les tuiles dans les quatre directions. Chaque mouvement fait apparaître une nouvelle tuile de valeur 2 ou 4. Le jeu se termine lorsque plus aucun mouvement n’est possible.

Nutanix intègre le jeu 2048 dans ses consoles Prism Element et Prism Central, vous offrant une pause ludique lors de l’utilisation de la plateforme. Pour accéder à ce jeu, suivez les étapes suivantes :

Connectez-vous à votre interface Prism Element ou Prism Central via votre navigateur web puis, dans le coin supérieur droit de l’interface, cliquez sur votre nom d’utilisateur pour dérouler le menu.

Dans le menu déroulant, choisissez l’option intitulée « Nothing To Do? » :

Une fois l’option sélectionnée, le jeu 2048 s’ouvrira dans une nouvelle fenêtre, prêt à être joué !

Si l’option « Nothing To Do? » n’apparaît pas dans le menu, il est possible que l’administrateur l’ait désactivée. Pour vérifier ce paramètre, accédez aux Paramètres de la console, puis à la section Apparence et enfin aux Paramètres de l’interface utilisateur. Assurez-vous que la case permettant d’activer le jeu est cochée.

NetHack

Nethack est un jeu emblématique de la culture geek, connu pour son gameplay en mode texte et ses nombreux easter eggs et références culturelles. Les dragons sont des créatures puissantes dans ce jeu, et les dessins ASCII sont souvent un hommage à ce type de jeux.

La référence à NetHack est cachée dans Nutanix Move. Pour l’afficher, connectez vous en SSH à la VM Move et tapez la commande suivante :

cat /opt/xtract-vm/bin/dragon.txt

Et voici ce que vous aurez à l’écran !

Options de personnalisation avancées

Vous pouvez accéder à des options de personnalisation avancées grâce à un raccourci caché qui vous permettra de customiser la page de connexion de votre cluster !

Pour y accéder, connectez vous à votre cluster, rendez vous dans les paramètres puis dans la rubrique « UI Settings ». Ensuite, cliquez sur « UI Settings » tout en maintenant la touche « Alt » de votre clavier enfoncée :

Vous aurez alors plus d’options de personnalisation de l’interface de connexion :

Le Seigneur des Anneaux

Parmi les services qui permettent de faire tourner votre cluster, il en est 2 qui sont une référence directe à l’épée d’Aragorn dans l’oeuvre de Tolkien, le Seigneur des Anneaux. Je parle évidemment d’Anduril, Flamme de l’Ouest, forgée avec les fragments de Narsil.

Anduril et Narsil sont 2 services Nutanix que vous pouvez retrouver quand vous tapez la commande « cluster status » sur une de vos CVMs :

Stargate

Toujours parmi les services Nutanix, on peut retrouver une référence au film et à la série culte du même nom : Stargate, la porte des étoiles.

Pour l’afficher, toujours la même commande : cluster status depuis une CVM :

Star Trek

Parmi les autres easter eggs cachés dans Nutanix, on peut trouver une référence à l’univers de Star Trek avec le service Uhura qui est une référence à Nyota Uhura, un lieutenant de l’USS Enterprise !

Pour l’afficher, toujours la même commande : cluster status depuis une CVM :

Xmen

Toujours parmi les services Nutanix, on peut trouver une référence à l’univers des Xmen avec le service Cerebro !

Cerebro est un ordinateur de haute technologie créé par le Professeur Charles Xavier avec l’aide de Magneto et qui amplifie les ondes cérébrales de la personne qui l’utilise.

Pour l’afficher, toujours la même commande : cluster status depuis une CVM :

Terminator

Très explicite celui ci, et toujours parmi les services de votre cluster… Terminator, méchant incontournable de la pop culture !

Pour l’afficher, toujours la même commande : cluster status depuis une CVM :

Mythologie grecque et romaine

Le plus gros morceaux des références puisqu’il existe pas loin d’une dizaine de références aux Dieux des mythologies grecque et romaine…

Zeus, Hera, Minerve, Athena… Il y passent presque tous !

Si vous souhaitez visiter le Mont Olympe, c’est toujours en CLI depuis une CVM avec un cluster status :

Et vous ? Avez vous trouvé d’autres références cachées dans Nutanix ?

Read More

Une question qui revient régulièrement : « quelles sont les mots de passe par défaut sur mon cluster ? »

Voici une liste exhaustive des mots de passe d’un cluster Nutanix en post-installation, ainsi que ceux de certaines briques additionnelles :

Mots de passe des hôtes AHV

  • Compte « root » : nutanix/4u
  • Compte « nutanix » : nutanix/4u
  • Compte « admin » : nutanix/4u

Mots de passe des CVM :

  • Compte « admin » : nutanix/4u
  • Compte « nutanix » : nutanix/4u

Mots de passe de Prism Central :

  • Compte « admin » : Nutanix/4u
  • Compte « nutanix » : nutanix/4u

Mots de passe de Nutanix Move :

  • Compte « admin » : nutanix/4u

Mot de passe Nutanix Files :

  • Compte « nutanix » : nutanix/4u

Je vous invite à lire cet article pour effectuer le changement des mots de passe de votre cluster : https://juliendumur.fr/nutanix-ahv-operations-post-install-partie-1/

Read More
Nutanix Blog Header

Après le re-ip d’un Prism Central chez un client, le menu permettant de basculer entre les sections applicatives ne fonctionnait plus du tout et générait un message d’erreur au survol :

En inspectant le fichier de log « Styx.log » : /home/docker/domain-manager/log/styx.log, j’ai pu trouver ce type de lignes de logs :

V3ApiError: ACCESS_DENIED | No permission to access the resource.;

Dans le fichier « Athena.INFO », j’ai également trouvé des erreurs JWT qui indiquaient des problèmes de parsing de certificat :

ERROR 2024-11-18T17:49:01,154Z Thread-1 athena.authentication_connectors.CertificateAuthenticator.getX509Certificate:309 certificate parsing exception {}. Please ensure the certificate is valid

Pour corriger l’erreur, j’ai du régénérer un nouveau certificat à l’aide de la commande suivante :

nutanix@PCVM:~$ncli ssl-certificate ssl-certificate-generate

Une fois le processus de régénération terminé, le menu de mon Prism Central s’est remis à fonctionner parfaitement bien.

Documentation officielle : https://portal.nutanix.com/page/documents/kbs/details?targetId=kA07V0000004UtNSAU

Read More

Lors du déploiement de Prism Central sur mon cluster Nutanix CE 2.1, j’ai été confronté à un message d’erreur qui m’empêchait d’enregistrer mon cluster sur Prism Central…

En effet, une fois l’ensemble des paramètres renseignés lors de la validation j’obtiens le message d’erreur « Cluster has dual stack enabled. Cannot register to a PC. » :

Ce message d’erreur est lié à la présence d’IPv6 en parallèle d’IPv4 sur le cluster, mais une solution existe et elle réside dans la commande suivante :

manage_ipv6 unconfigure; manage_ipv6 disable

Il faut répondre « Y » à la question « Proceed to remove above IPv6 configuration? » afin de valider le processus :

nutanix@NTNX-436d2f97-A-CVM:192.168.84.200:~$ manage_ipv6 unconfigure; manage_ipv6 disable
[INFO] Initializing script… done
[INFO] Current IPv6 configuration on cluster: {
"svmips": {
"192.168.84.200": null
},
"hostips": {
"192.168.84.199": null
},
"prefixlen": null,
"gateway": null
}
[INFO] Note: This operation will restart the following services: ['CerebroService', 'StargateService']
Proceed to remove above IPv6 configuration? [Y/N]: Y
[+] CVM and Hypervisor IPv6 addresses unconfigured
[+] Cleared IPv6 configuration from Zeus
[+] CVM and hypervisor firewall rules updated
[+] Necessary services have been restarted
[INFO] Marked Ergon task 4673fda3-92da-4efe-59f5-1dd3fc51a6cd as kSucceeded
[INFO] Action unconfigure completed successfully
Script output logged to /home/nutanix/data/logs/manage_ipv6.out
[INFO] Initializing script… done
[+] IPv6 disabled on CVMs and Hypervisors
[INFO] Marked Ergon task 9cdfcb37-436a-479f-4d7a-08ef69e266b0 as kSucceeded
[INFO] Action disable completed successfully
Script output logged to /home/nutanix/data/logs/manage_ipv6.out
nutanix@NTNX-436d2f97-A-CVM:192.168.84.200:~$

Une fois la procédure terminée, l’enregistrement du Prism Central se déroule sans aucun problème :

Si vous rencontrez des problèmes pour désactiver IPv6, Goerge a donné une autre technique pour y parvenir :

Ajouter ces lignes dans /etc/sysctl.conf:

net.ipv6.conf.all.disable_ipv6 = 1
net.ipv6.conf.all.disable_policy = 1
net.ipv6.conf.default.disable_ipv6 = 1
net.ipv6.conf.default.disable_policy = 1
net.ipv6.conf.eth0.disable_ipv6 = 1
net.ipv6.conf.eth0.disable_policy = 1
net.ipv6.conf.eth1.disable_ipv6 = 1
net.ipv6.conf.eth1.disable_policy = 1
net.ipv6.conf.eth2.disable_ipv6 = 1
net.ipv6.conf.eth2.disable_policy = 1
net.ipv6.conf.lo.disable_ipv6 = 1
net.ipv6.conf.lo.disable_policy = 1

Lancer la commande :

sudo sysctl -p 

Faire un reboot de toutes les CVMs. Relancer ensuite la commande manage_ipv6 unconfigure :

manage_ipv6 unconfigure; manage_ipv6 disable
Read More
Nutanix Blog Header

Cela faisait plusieurs jours que nous les attendions, elles sont enfin arrivées ! Je parle évidemment de AOS 7 et AHV 10 qui ont été mises à disposition ce mercredi 4 décembre par Nutanix.

Nouveautés AOS 7

Parmi les nouveautés d’AOS 7 vous pourrez notamment retrouver :

  • Disaster Recovery pour Flow
  • Support de Cloud KMS (si vous avez raté les annonces d’OVHcloud c’est par ici)
  • Augmentation de la quantité de mémoire supportée par les noeuds jusqu’à 8Tb
  • Centralisation de la gestion des mots de passe dans Prism Central pour les comptes systèmes AHV
  • Nutanix API v4

Plus de 150 bugs ont été corrigés avec encore 28 bugs en cours de traitement.

Pour la release note complète, c’est par ici : https://portal.nutanix.com/page/documents/details?targetId=Release-Notes-AOS-v7_0:Release-Notes-AOS-v7_0

Nouveautés AHV 10

Au niveau d’AHV 10, voici quelques fonctionnalités qui débarquent :

  • Nouveau format pour le nommage de version
  • PCIe Passthrough pour les Guest VMs
  • Support des cartes graphiques NVidia A2 Tensor Core et H100 NVL
  • Support de la configuration du boot device order depuis le aCLI

En parallèle, ce sont plus de 40 bugs connus qui ont été corrigés. Attention toutefois, 13 sont toujours identifiés.

Pour la release note complète, c’est par ici : https://portal.nutanix.com/page/documents/details?targetId=Release-Notes-AHV-v10_0:Release-Notes-AHV-v10_0

A vos mises à jour !

Read More
nutanix university

Nutanix, au travers de la Nutanix University, vient de lancer les nouvelles versions de ses certifications phares : la Nutanix Certified Associate (NCA) 6.10 et la Nutanix Certified Professional – Multi-Cloud Infrastructure (NCP-MCI) 6.10.

Si vous êtes professionnel de l’IT, passionné par le cloud ou si vous souhaitez valider vos compétences avec l’un des acteurs majeurs du secteur, cette mise à jour de certifications est une occasion à ne pas manquer.

Pourquoi passer ces certifications ?

Les certifications Nutanix sont reconnues dans le monde entier pour valider les compétences dans la conception, le déploiement, et la gestion des infrastructures cloud. En particulier :

  • La certification NCA 6.10 s’adresse aux professionnels débutants ou intermédiaires, ceux qui souhaitent démontrer leur compréhension des principes fondamentaux de la virtualisation, du stockage, et des environnements cloud avec Nutanix.
  • La certification NCP-MCI 6.10 s’adresse quant à elle aux experts souhaitant valider leur maîtrise des concepts de l’infrastructure multi-cloud, de la gestion des ressources sur plusieurs plateformes et de la manière d’optimiser les environnements hybrides et multi-cloud avec Nutanix.

Ces certifications peuvent jouer un rôle décisif dans votre parcours professionnel, en prouvant vos compétences et en vous ouvrant de nouvelles opportunités dans des entreprises de toutes tailles.

Inscription Gratuite Jusqu’au 13 Décembre !

Pour célébrer le lancement de ces nouvelles certifications, Nutanix offre une opportunité exclusive : les examens de certification NCA 6.10 et NCP-MCI 6.10 sont gratuits jusqu’au 13 décembre 2024 ! C’est l’occasion parfaite pour valider vos compétences débourser 1 centime.

L’inscription est simple et rapide. Il vous suffit de vous rendre sur le site officiel de la Nutanix University, de vous connecter et de sélectionner la certification souhaitée.

Une fois inscrit, vous aurez accès à la plateforme de formation en ligne et pourrez planifier votre examen selon vos disponibilités. Au moment du paiement, utilisez le coupon de réduction correspondant à la certification choisie :

  • NCA 6.10 : NXFRNCA24
  • NCP-MCI 6.10 : NXFRNCP24

Important : L’offre gratuite est valable jusqu’au 13 décembre 2024. Après cette date, les coupons de réduction ne seront plus valables. N’hésitez donc pas à vous inscrire dès maintenant pour ne pas manquer cette occasion !

Article officiel Nutanix : https://next.nutanix.com/education-blog-153/announcing-nca-ncp-mci-v6-10-get-certified-for-free-with-limited-time-offer-43744?blaid=6791730

Read More

C’est une question que l’on me pose régulièrement : « avec quel cluster tu réalises tes tests pour tes articles ? ». Voici donc a quoi ressemble mon homelab Nutanix…

Mon infrastructure réseau

Avant de parler de mon cluster Nutanix, je vais vous présenter mon infrastructure maison que j’ai installé il y a maintenant 4 ans lors de la construction de la maison.

J’ai basé mon infrastructure réseau sur les équipements de la marque Ubiquiti. Le matériel est très bien, silencieux, robuste, facile à prendre en main… mais pour la configuration c’est vraiment très particulier et nous sommes très loin de ce que l’on à l’habitude de pratiquer au quotidien en datacenter.

J’ai donc mis en place :

  • une Ubiquiti Dream Machine Pro pour toute la partie réseau / filtrage avec
    • 2 ports SFP+ 10Gb
    • 8 ports 1Gb

  • un switch Ubiquiti USW Pro 24 PoE qui dispose de
    • 2 ports SFP+ en 10Gb
    • 24 ports 1Gb PoE

  • Des switchs Ubiquiti Flex dans divers points de la maison

Mon accès internet est actuellement une connexion Free qui s’appuie sur la Freebox Delta et qui m’offre un débit théorique de 10Gb/s :

Au programme :

  • une arrivée fibre 10Gb
  • 4 ports RJ45 en 1Gb (B, C, D, E)
  • 1 port SFP+ 10Gb (F)

Une box bien fournie pour permettre un accès à Internet sans latence.

La topologie réseau ressemble donc à ceci :

Comme vous pouvez le constater, pas d’infrastructure de type professionnel à la maison donc si vous ne disposez que de matériels de type grand public, n’hésitez pas à vous lancer cela fera l’affaire.

Mon cluster Nutanix

Mon cluster Nutanix n’a rien d’exceptionnel, c’est un matériel assez ancien puisqu’il est basé sur un chassis Intel S2600WTTR qui a été lancé par le constructeur en 2016 !

Lien vers la fiche technique : https://www.intel.fr/content/www/fr/fr/products/sku/88281/intel-server-board-s2600wttr/specifications.html

Je l’ai récupéré dans une précédente expérience professionnelle, le cluster avait une panne matérielle que l’administration ne souhaitait pas traiter compte tenu de l’age du matériel et du fait que l’infrastructure existante était en cours de remplacement par des clusters Nutanix tout neuf.

J’ai procédé à la réparation à mes frais afin que le serveur soit de nouveau opérationnel. Au niveau de l’installation physique, le cluster n’a pas droit de séjour dans la maison (rapport au bruit), il est donc dans le garage, installé de manière peu conventionnelle :

La configuration matérielle de mon cluster est la suivante :

  • 2 processeurs Intel Xeon E5-2640 v4 @ 2.4Ghz
  • 384 Gb de RAM
  • 1 SDD de 120Gb pour l’OS
  • 4 SDD de 800Gb SAS
  • 6 HDD de 1.6Tb SAS
  • 2 ports réseaux RJ45 10Gb

Cette configuration matérielle me permet d’avoir une redondance au niveau des disques. Ce n’est pas le scénario idéal mais c’est déjà bien mieux que pas de redondance du tout. La quantité de CPU / RAM me permet quant à elle de faire tourner un grand nombre de machines virtuelles sans que les performances ne soient dégradées :

Si je devais apporter une modification matérielle sur mon cluster, je pense que j’opterais pour une carte réseau fibre 10Gb afin d’avoir une liaison 10Gb d’un bout à l’autre de la chaine Internet > Routeur > Pare Feu > Switch > Cluster.

Le cluster est aujourd’hui installé avec un Nutanix CE 2.1 dans les dernières versions disponibles :

Cela me permet de tester les toutes dernières fonctionnalités, de réaliser des tests de configurations et il me sert également de support pour la rédaction de l’ensemble des articles du blog, chaque sujet traité étant bien évidemment testé sur le Lab avant publication.

Bien que le Lab me soit indispensable pour rédiger mes articles, je ne le laisse pas allumé en permanence car il consomme une quantité d’électricité importante comme je l’ai déjà évoqué dans l’un de mes précédents articles.

Voilà pour mon infra, en espérant que cela vous donne envie de vous lancer et de monter votre propre cluster Nutanix CE.

Read More

Abonnez-vous