Team Leader - Nutanix Technology Champion - Nutanix NTC Storyteller

Julien DUMUR
Infrastructure in a Nutshell
Nutanix Blog Header

Après le re-ip d’un Prism Central chez un client, le menu permettant de basculer entre les sections applicatives ne fonctionnait plus du tout et générait un message d’erreur au survol :

En inspectant le fichier de log « Styx.log » : /home/docker/domain-manager/log/styx.log, j’ai pu trouver ce type de lignes de logs :

V3ApiError: ACCESS_DENIED | No permission to access the resource.;

Dans le fichier « Athena.INFO », j’ai également trouvé des erreurs JWT qui indiquaient des problèmes de parsing de certificat :

ERROR 2024-11-18T17:49:01,154Z Thread-1 athena.authentication_connectors.CertificateAuthenticator.getX509Certificate:309 certificate parsing exception {}. Please ensure the certificate is valid

Pour corriger l’erreur, j’ai du régénérer un nouveau certificat à l’aide de la commande suivante :

nutanix@PCVM:~$ncli ssl-certificate ssl-certificate-generate

Une fois le processus de régénération terminé, le menu de mon Prism Central s’est remis à fonctionner parfaitement bien.

Documentation officielle : https://portal.nutanix.com/page/documents/kbs/details?targetId=kA07V0000004UtNSAU

Read More

Lors du déploiement de Prism Central sur mon cluster Nutanix CE 2.1, j’ai été confronté à un message d’erreur qui m’empêchait d’enregistrer mon cluster sur Prism Central…

En effet, une fois l’ensemble des paramètres renseignés lors de la validation j’obtiens le message d’erreur « Cluster has dual stack enabled. Cannot register to a PC. » :

Ce message d’erreur est lié à la présence d’IPv6 en parallèle d’IPv4 sur le cluster, mais une solution existe et elle réside dans la commande suivante :

manage_ipv6 unconfigure; manage_ipv6 disable

Il faut répondre « Y » à la question « Proceed to remove above IPv6 configuration? » afin de valider le processus :

nutanix@NTNX-436d2f97-A-CVM:192.168.84.200:~$ manage_ipv6 unconfigure; manage_ipv6 disable
[INFO] Initializing script… done
[INFO] Current IPv6 configuration on cluster: {
"svmips": {
"192.168.84.200": null
},
"hostips": {
"192.168.84.199": null
},
"prefixlen": null,
"gateway": null
}
[INFO] Note: This operation will restart the following services: ['CerebroService', 'StargateService']
Proceed to remove above IPv6 configuration? [Y/N]: Y
[+] CVM and Hypervisor IPv6 addresses unconfigured
[+] Cleared IPv6 configuration from Zeus
[+] CVM and hypervisor firewall rules updated
[+] Necessary services have been restarted
[INFO] Marked Ergon task 4673fda3-92da-4efe-59f5-1dd3fc51a6cd as kSucceeded
[INFO] Action unconfigure completed successfully
Script output logged to /home/nutanix/data/logs/manage_ipv6.out
[INFO] Initializing script… done
[+] IPv6 disabled on CVMs and Hypervisors
[INFO] Marked Ergon task 9cdfcb37-436a-479f-4d7a-08ef69e266b0 as kSucceeded
[INFO] Action disable completed successfully
Script output logged to /home/nutanix/data/logs/manage_ipv6.out
nutanix@NTNX-436d2f97-A-CVM:192.168.84.200:~$

Une fois la procédure terminée, l’enregistrement du Prism Central se déroule sans aucun problème :

Si vous rencontrez des problèmes pour désactiver IPv6, Goerge a donné une autre technique pour y parvenir :

Ajouter ces lignes dans /etc/sysctl.conf:

net.ipv6.conf.all.disable_ipv6 = 1
net.ipv6.conf.all.disable_policy = 1
net.ipv6.conf.default.disable_ipv6 = 1
net.ipv6.conf.default.disable_policy = 1
net.ipv6.conf.eth0.disable_ipv6 = 1
net.ipv6.conf.eth0.disable_policy = 1
net.ipv6.conf.eth1.disable_ipv6 = 1
net.ipv6.conf.eth1.disable_policy = 1
net.ipv6.conf.eth2.disable_ipv6 = 1
net.ipv6.conf.eth2.disable_policy = 1
net.ipv6.conf.lo.disable_ipv6 = 1
net.ipv6.conf.lo.disable_policy = 1

Lancer la commande :

sudo sysctl -p 

Faire un reboot de toutes les CVMs. Relancer ensuite la commande manage_ipv6 unconfigure :

manage_ipv6 unconfigure; manage_ipv6 disable
Read More
Nutanix Blog Header

Cela faisait plusieurs jours que nous les attendions, elles sont enfin arrivées ! Je parle évidemment de AOS 7 et AHV 10 qui ont été mises à disposition ce mercredi 4 décembre par Nutanix.

Nouveautés AOS 7

Parmi les nouveautés d’AOS 7 vous pourrez notamment retrouver :

  • Disaster Recovery pour Flow
  • Support de Cloud KMS (si vous avez raté les annonces d’OVHcloud c’est par ici)
  • Augmentation de la quantité de mémoire supportée par les noeuds jusqu’à 8Tb
  • Centralisation de la gestion des mots de passe dans Prism Central pour les comptes systèmes AHV
  • Nutanix API v4

Plus de 150 bugs ont été corrigés avec encore 28 bugs en cours de traitement.

Pour la release note complète, c’est par ici : https://portal.nutanix.com/page/documents/details?targetId=Release-Notes-AOS-v7_0:Release-Notes-AOS-v7_0

Nouveautés AHV 10

Au niveau d’AHV 10, voici quelques fonctionnalités qui débarquent :

  • Nouveau format pour le nommage de version
  • PCIe Passthrough pour les Guest VMs
  • Support des cartes graphiques NVidia A2 Tensor Core et H100 NVL
  • Support de la configuration du boot device order depuis le aCLI

En parallèle, ce sont plus de 40 bugs connus qui ont été corrigés. Attention toutefois, 13 sont toujours identifiés.

Pour la release note complète, c’est par ici : https://portal.nutanix.com/page/documents/details?targetId=Release-Notes-AHV-v10_0:Release-Notes-AHV-v10_0

A vos mises à jour !

Read More
nutanix university

Nutanix, au travers de la Nutanix University, vient de lancer les nouvelles versions de ses certifications phares : la Nutanix Certified Associate (NCA) 6.10 et la Nutanix Certified Professional – Multi-Cloud Infrastructure (NCP-MCI) 6.10.

Si vous êtes professionnel de l’IT, passionné par le cloud ou si vous souhaitez valider vos compétences avec l’un des acteurs majeurs du secteur, cette mise à jour de certifications est une occasion à ne pas manquer.

Pourquoi passer ces certifications ?

Les certifications Nutanix sont reconnues dans le monde entier pour valider les compétences dans la conception, le déploiement, et la gestion des infrastructures cloud. En particulier :

  • La certification NCA 6.10 s’adresse aux professionnels débutants ou intermédiaires, ceux qui souhaitent démontrer leur compréhension des principes fondamentaux de la virtualisation, du stockage, et des environnements cloud avec Nutanix.
  • La certification NCP-MCI 6.10 s’adresse quant à elle aux experts souhaitant valider leur maîtrise des concepts de l’infrastructure multi-cloud, de la gestion des ressources sur plusieurs plateformes et de la manière d’optimiser les environnements hybrides et multi-cloud avec Nutanix.

Ces certifications peuvent jouer un rôle décisif dans votre parcours professionnel, en prouvant vos compétences et en vous ouvrant de nouvelles opportunités dans des entreprises de toutes tailles.

Inscription Gratuite Jusqu’au 13 Décembre !

Pour célébrer le lancement de ces nouvelles certifications, Nutanix offre une opportunité exclusive : les examens de certification NCA 6.10 et NCP-MCI 6.10 sont gratuits jusqu’au 13 décembre 2024 ! C’est l’occasion parfaite pour valider vos compétences débourser 1 centime.

L’inscription est simple et rapide. Il vous suffit de vous rendre sur le site officiel de la Nutanix University, de vous connecter et de sélectionner la certification souhaitée.

Une fois inscrit, vous aurez accès à la plateforme de formation en ligne et pourrez planifier votre examen selon vos disponibilités. Au moment du paiement, utilisez le coupon de réduction correspondant à la certification choisie :

  • NCA 6.10 : NXFRNCA24
  • NCP-MCI 6.10 : NXFRNCP24

Important : L’offre gratuite est valable jusqu’au 13 décembre 2024. Après cette date, les coupons de réduction ne seront plus valables. N’hésitez donc pas à vous inscrire dès maintenant pour ne pas manquer cette occasion !

Article officiel Nutanix : https://next.nutanix.com/education-blog-153/announcing-nca-ncp-mci-v6-10-get-certified-for-free-with-limited-time-offer-43744?blaid=6791730

Read More

C’est une question que l’on me pose régulièrement : « avec quel cluster tu réalises tes tests pour tes articles ? ». Voici donc a quoi ressemble mon homelab Nutanix…

Mon infrastructure réseau

Avant de parler de mon cluster Nutanix, je vais vous présenter mon infrastructure maison que j’ai installé il y a maintenant 4 ans lors de la construction de la maison.

J’ai basé mon infrastructure réseau sur les équipements de la marque Ubiquiti. Le matériel est très bien, silencieux, robuste, facile à prendre en main… mais pour la configuration c’est vraiment très particulier et nous sommes très loin de ce que l’on à l’habitude de pratiquer au quotidien en datacenter.

J’ai donc mis en place :

  • une Ubiquiti Dream Machine Pro pour toute la partie réseau / filtrage avec
    • 2 ports SFP+ 10Gb
    • 8 ports 1Gb

  • un switch Ubiquiti USW Pro 24 PoE qui dispose de
    • 2 ports SFP+ en 10Gb
    • 24 ports 1Gb PoE

  • Des switchs Ubiquiti Flex dans divers points de la maison

Mon accès internet est actuellement une connexion Free qui s’appuie sur la Freebox Delta et qui m’offre un débit théorique de 10Gb/s :

Au programme :

  • une arrivée fibre 10Gb
  • 4 ports RJ45 en 1Gb (B, C, D, E)
  • 1 port SFP+ 10Gb (F)

Une box bien fournie pour permettre un accès à Internet sans latence.

La topologie réseau ressemble donc à ceci :

Comme vous pouvez le constater, pas d’infrastructure de type professionnel à la maison donc si vous ne disposez que de matériels de type grand public, n’hésitez pas à vous lancer cela fera l’affaire.

Mon cluster Nutanix

Mon cluster Nutanix n’a rien d’exceptionnel, c’est un matériel assez ancien puisqu’il est basé sur un chassis Intel S2600WTTR qui a été lancé par le constructeur en 2016 !

Lien vers la fiche technique : https://www.intel.fr/content/www/fr/fr/products/sku/88281/intel-server-board-s2600wttr/specifications.html

Je l’ai récupéré dans une précédente expérience professionnelle, le cluster avait une panne matérielle que l’administration ne souhaitait pas traiter compte tenu de l’age du matériel et du fait que l’infrastructure existante était en cours de remplacement par des clusters Nutanix tout neuf.

J’ai procédé à la réparation à mes frais afin que le serveur soit de nouveau opérationnel. Au niveau de l’installation physique, le cluster n’a pas droit de séjour dans la maison (rapport au bruit), il est donc dans le garage, installé de manière peu conventionnelle :

La configuration matérielle de mon cluster est la suivante :

  • 2 processeurs Intel Xeon E5-2640 v4 @ 2.4Ghz
  • 384 Gb de RAM
  • 1 SDD de 120Gb pour l’OS
  • 4 SDD de 800Gb SAS
  • 6 HDD de 1.6Tb SAS
  • 2 ports réseaux RJ45 10Gb

Cette configuration matérielle me permet d’avoir une redondance au niveau des disques. Ce n’est pas le scénario idéal mais c’est déjà bien mieux que pas de redondance du tout. La quantité de CPU / RAM me permet quant à elle de faire tourner un grand nombre de machines virtuelles sans que les performances ne soient dégradées :

Si je devais apporter une modification matérielle sur mon cluster, je pense que j’opterais pour une carte réseau fibre 10Gb afin d’avoir une liaison 10Gb d’un bout à l’autre de la chaine Internet > Routeur > Pare Feu > Switch > Cluster.

Le cluster est aujourd’hui installé avec un Nutanix CE 2.1 dans les dernières versions disponibles :

Cela me permet de tester les toutes dernières fonctionnalités, de réaliser des tests de configurations et il me sert également de support pour la rédaction de l’ensemble des articles du blog, chaque sujet traité étant bien évidemment testé sur le Lab avant publication.

Bien que le Lab me soit indispensable pour rédiger mes articles, je ne le laisse pas allumé en permanence car il consomme une quantité d’électricité importante comme je l’ai déjà évoqué dans l’un de mes précédents articles.

Voilà pour mon infra, en espérant que cela vous donne envie de vous lancer et de monter votre propre cluster Nutanix CE.

Read More

Il y a une dizaine de jours sortait la dernière version de Prism Central : la pc.2024.2.

En voulant mettre mon Prism Central à jour ce week end, je me suis aperçu que cette version n’est pas proposée via le LCM…

Ce n’est pourtant pas ce qui va m’arrêter…

Si vous n’avez pas installé Prism Central, je vous invite plutôt à aller lire mon autre article dédié : Déployer Prism Central sur Nutanix CE 2.1

Récupération du package de mise à jour

Pour récupérer la version pc.2024.2 de Prism Central, il faut se connecter au portail Nutanix, dans la rubrique « Prism Central » du menu « Downloads » : https://portal.nutanix.com/page/downloads?product=prism

Ensuite, dans la liste des fichiers, cherchez le fichier « Prism Central LCM Bundle » :

Patientez pendant le téléchargement qui peut s’avérer un peu long (près de 10Gb à récupérer !).

Transfert du fichier de mise à jour

Le fichier de mise à jour récupéré, il faut maintenant le transférer sur le cluster. Pour cela, connectez vous à votre interface Prism Central et rendez vous dans le menu « LCM » de l’Admin Center. Ouvrez le menu « Direct Upload » :

Cliquez ensuite sur « + Upload Bundle » et allez sélectionner le fichier que vous venez de télécharger :

Patentiez pendant le téléchargement. Une fois l’opération terminée, le package de mise à jour devrait apparaitre dans la liste :

Mise à jour de Prism Central

Pour installer la mise à jour fraichement transférée, si vous avez bien suivi les étapes précédentes vous devriez la retrouver dans le menu « Udaptes » :

Cochez la mise à jour, cliquez sur « View Upgrade Plan » :

Vérifiez le plan de mise à jour proposé et cliquez sur « Apply 1 Updates » :

Le processus de mise à jour est lancé, il n’y a plus qu’à patienter pendant quelques dizaines de minutes pour que la mise à jour soit complète :

L’installation de la mise à jour sur votre cluster sera sans impact sur votre environnement de production, vous ne pourrez toutefois pas accéder au Prism Central pendant toute la durée de la mise à jour. Vous pouvez suivre l’avancée des opérations depuis la console de la VM Prism Central :

Au bout d’une trentaine de minutes, l’installation de la mise à jour devrait être terminée et votre Prism Central mis à jour en vers pc.2024.2 :

Comptez encore une quinzaine de minutes avant qu’il soit totalement opérationnel.

Read More

J’en parlais dans l’un des articles de mon guide ultime sur Nutanix Move, pour les versions supérieures à la 5.3.0 de Nutanix Move, l’intégration des fichiers VDDK est désormais une étape obligatoire pour pouvoir ajouter un cluster VMware ESXi sur Move.

Qu’est-ce que le VDDK ?
VDDK (VMware Virtual Disk Development Kit) est un ensemble de bibliothèques et d’utilitaires fournis par VMware qui permet aux applications d’effectuer des opérations sur les disques virtuels.
Ces opérations comprennent la création, l’accès et la gestion des disques virtuels utilisés par les environnements VMware.
Nutanix Move utilise VDDK pour effectuer des migrations à partir d’environnements VMware.
En utilisant VDDK, Nutanix Move peut :

  • Accéder au disque virtuel VMware
  • Créer et gérer des snapshots
  • Transférer des données efficacement

Pourquoi dois-je installer VDDK manuellement (depuis la version 5.3 de Move) ?
Vous devez installer VDDK manuellement car il est nécessaire pour la migration et Nutanix Move ne peut pas  le télécharger automatiquement.
Cette exigence est maintenant commune à d’autres produits de migration utilisant VDDK.
L’intégration de VDDK avec Nutanix Move a donc été mise à jour depuis la version 5.3. Ce changement a pour but de s’aligner sur la façon dont les autres éditeurs intègrent VDDK à leurs outils de migration.

Quelles sont les versions de VDDK requises pour les versions ESXi 5.x, 6.x et 7.x ?
Pour ESXi 5.1 : VDDK 6.0.3 est nécessaire.
Pour les autres versions ESXi prises en charge : VDDK 7.0.3.1 est nécessaire.
NB: dans Move, si vous ajoutez un vCenter au lieu d’un hôte ESXi, VDDK 7.0.3.1 sera nécessaire.

Pour pouvoir récupérer ces fichiers, un compte actif sur le site de Broadcom était jusqu’à présent nécessaire au téléchargement des VDDK. Le problème qui se posait était que le site web du nouveau propriétaire de VMware subit des dernières semaines une série de dysfonctionnements qui rendait impossible les téléchargements de ces précieux fichiers.

Face à la vague de mécontentement sur les réseaux sociaux tels que X ou Reddit, une solution alternative de téléchargement a été mise en place !

Vous pouvez désormais récupérer le fichier VDDK dont vous avez besoin à l’adresse suivante : https://broadcom.ent.box.com/v/vddkdownloads

Une excellente nouvelle pour tous ceux qui ont besoin de ces fichiers pour leur migration vers Nutanix AHV !

Read More

Ca y est, il est enfin complet ! Après une cinquantaine d’heures passées à installer, configurer, tester un environnement de labo et à rédiger chaque article, mon guide ultime Nutanix Move sur la migration vers Nutanix AHV est enfin terminé.

Au total, cela représente :

  • 6500+ mots
  • 160+ captures d’écrans
  • 50+ heures de travail

C’est clairement un des projets les plus ambitieux sur mon blog ! Pour retrouver plus facilement l’ensemble de mes guides actuels ou à venir, j’ai créé un lien dédié dans le menu.

Au programme :

Nutanix Move – Partie 1 : Présentation de la solution

Nutanix Move – Partie 2 : Mes environnements de migration

Nutanix Move – Partie 3 : Prérequis

Nutanix Move – Partie 4 : Déploiement de la solution

Nutanix Move – Partie 5 : Initialisation de l’appliance

Nutanix Move – Partie 6 : Ajout du cluster à migrer VMWare ESXi

Nutanix Move – Partie 7 : Ajout du cluster à migrer Microsoft Hyper-V

Nutanix Move – Partie 8 : Ajout du cluster cible Nutanix AHV

Nutanix Move – Partie 9 : Plan de migration ESXi vers AHV

Nutanix Move – Partie 10 : Plan de migration Hyper-V vers AHV

Nutanix Move – Partie 11 : Ultimes conseils et bonnes pratiques

Nutanix Move – Partie 12 : Migration des VMs

Nutanix Move – Partie 13 : Problèmes réseaux post-migration

Nutanix Move – Partie 14 : Problèmes de boot post-migration

Le guide évoluera probablement si je rencontre de nouveaux cas intéressant à partager pour étoffer mon retour d’expérience.

N’oubliez pas que la réussite de votre migration vers Nutanix AHV dépendra énormément de la préparation en amont que vous réaliserez.

Vous avez maintenant les clés pour réussir votre migration depuis Microsoft Hyper-V ou VMware ESXi vers Nutanix AHV.

Et si vous hésitez encore à sauter le pas, n’hésitez pas à venir me faire part de vos interrogations, de vos craintes ou bien encore à demander à d’autres personnes qui sont déjà passé par là qu’elles vous donnent leur retour d’expérience.

D’autres guides arrivent prochainement… Stay tuned !

Read More
nutanix move

Il peut arriver que vous hébergiez des serveurs dont les systèmes d’exploitation ne sont pas supportés par Nutanix Move. Dans ces rares cas, vous devrez alors procéder manuellement pour migrer vos machines virtuelles et vous pourrez être confronté à des problèmes de boot post-migration.

Pour la démonstration, j’ai choisi un système d’exploitation vraiment très ancien : Ubuntu 12.04.

Cette version ne fait pas partie de la liste des systèmes supportés par Nutanix Move pour la migration et la migration doit donc être réalisée manuellement :

J’ai paramétré un plan de migration manuelle pour cette machine virtuelle et je procède à sa migration qui se déroule sans problème :

Malheureusement, au démarrage de la machine virtuelle coté Nutanix AHV, je rencontre un problème de boot :

Pour corriger cette problématique, j’éteins la machine virtuelle, je me connecte à mon Prism Central et je navigue jusqu’au menu « Compute and Storage > Images » :

Je clique sur « Add Image », je sélectionne « VM Disk » en tant que source de l’image et je sélectionne ma VM Ubuntu12 :

Je nomme le disque avec un nom explicite et je clique sur « Next » :

Je laisse l’option de placement de l’image dans sa configuration par défaut et je sauvegarde :

L’image de mon disk va apparaitre dans la liste des images disponibles sur mon cluster Nutanix :

Je retourne ensuite dans le menu « Compute and Storage > VMs » et ouvre le panneau de configuration de ma machine virtuelle :

La partie qui nous intéresse concerne les disques de la machines au nombre de 2 avec un disque virtuel et un lecteur type CD-ROM :

La première étape consiste à supprimer tous les disques en cliquant sur l’icone de corbeille :

Ensuite, une fois les 2 disques supprimés, cliquer sur « Attach Disk » :

Configurez le disque comme suit :

  • 1 – Type : Disk
  • 2 – Operation : Clone From Image
  • 3 – Image : sélectionnez le disque que vous avez ajouté au départ
  • 4 – Capacity : vous pouvez lui donner la taille de votre choix
  • 5 – Bus Type : sélectionnez PCI

Validez la nouvelle configuration de votre machine virtuelle et démarrez là. Le problème de démarrage est désormais réglé, et le système d’exploitation démarre parfaitement bien :

Welcome to Ubuntu 12.04 LTS (GNU/Linux 3.2.0-23-generic x86_64)
Documentation: https://help.ubuntu.com/ System information as of Thu Sep 26 15:58:58 CEST 2024 System load: 0.0 Processes: 67
Usage of /: 3.5% of 37.68GB Users logged in: 1
Memory usage: 2% IP address for eth0: 192.168.2.137
Swap usage: 0% Graph this data and manage this system at https://landscape.canonical.com/
0 packages can be updated.
0 updates are security updates.
Your Ubuntu release is not supported anymore.
For upgrade information, please visit:
http://www.ubuntu.com/releaseendoflife
New release '14.04.6 LTS' available.
Run 'do-release-upgrade' to upgrade to it.
Last login: Thu Sep 26 15:58:05 2024
nutanix@ubuntu24hv:~$

Le principal problème rencontré lors de la migration de ces systèmes obsolètes est un problème au niveau du démarrage. En suivant cette méthode, vous devriez pouvoir migrer l’ensemble de vos machines virtuelles sans encombre.

Read More
nutanix move

Il peut arriver que vous hébergiez des serveurs dont les systèmes d’exploitation ne sont pas supportés par Nutanix Move. Dans ces rares cas, vous devrez alors procéder manuellement pour migrer vos machines virtuelles et vous pourrez rencontrer des problématiques de réseaux post-migration.

Dans mon exemple, j’ai déployé sur mon ESXi une machine Ubuntu Serveur en version 24.04LTS, un système d’exploitation sorti il y a seulement quelques mois. Il n’est pas encore supporté officiellement par Nutanix Move d’après la documentation :

Lors de la création de mon plan de migration, je n’ai rencontré aucune erreur, j’ai pu valider les options sans encombre, en mode automatique et je le démarre immédiatement.

Malheureusement, la préparation automatique de la machine virtuelle échoue :

Le message est clair, Nutanix Move n’arrive pas à installer les drivers nécessaires :

Drivers Installation Failed. Driver(s) virtio_scsi could not be installed for kernel 6.8.0-45-generic

Je supprime donc mon plan de migration, j’en créé un nouveau en manuel et j’éteins la machine virtuelle sans exécuter les scripts :

Je démarre ensuite mon plan de migration pour migrer la machine virtuelle vers mon cluster AHV et tout se déroule correctement :

Une fois le transfert de données, je lance la bascule immédiatement. Le serveur est migré :

Coté Nutanix AHV, je vois bien ma machine virtuelle fraichement migrée :

Je démarre la machine virtuelle pour vérifier que la migration s’est bien passée. La VM démarre correctement mais elle ne prend pas d’adresse IP…

Cette problématique est courante avec les systèmes d’exploitation récents. En règle générale, ils intègrent de base les modules et composants nécessaires à la prise en charge totale par Nutanix. Toutefois, il est fréquent que la configuration des cartes réseaux ne soit pas correctement reprise après migration.

Pour corriger le dysfonctionnement, il faut ouvrir une console sur notre VM et procéder à la configuration manuellement.

On commence par récupérer le nom de l’interface :

nutanix@ubuntu24e1:~$ sudo lshw -class network
[sudo] password for nutanix:
*-network
description: Ethernet controller
product: Virtio network device
vendor: Red Hat, Inc.
physical id: 3
bus info: pci@0000:00:03.0
version: 00
width: 64 bits
clock: 33MHz
capabilities: msix bus_master cap_list rom
configuration: driver=virtio-pci latency=0
resources: irq:11 ioport:c040(size=32) memory:febd1000-febd1fff memory:fe000000-fe003fff memory:feb80000-febbffff
*-virtio0
description: Ethernet interface
physical id: 0
bus info: virtio@0
logical name: ens3
serial: 50:6b:8d:c0:82:7b
capabilities: ethernet physical

Ici il s’agit de ens3. Maintenant on va modifier le fichier de configuration de la carte réseau :

nutanix@ubuntu24e1:~$ sudo vi /etc/netplan/50-cloud-init.yaml
This file is generated from information provided by the datasource. Changes to it will not persist across an instance reboot. To disable cloud-init's network configuration capabilities, write a file /etc/cloud/cloud.cfg.d/99-disable-network-config.cfg with the following:
network: {config: disabled}
network:
ethernets:
ens160:
dhcp4: true
version: 2

Corrigez la ligne « ens » avec le nom correct de votre carte réseau et sauvegardez le fichier. Appliquez la configuration :

sudo netplan apply

Ca y est, la machine récupère une adresse ip.

Vous avez saisi le principe, mon exemple est basé sur Ubuntu mais reproductible sur les autres distributions Linux récentes, pour peu que vous adaptiez les commandes au système d’exploitation.

Read More