Team Leader - Nutanix Technology Champion - Nutanix NTC Storyteller

Julien DUMUR
Infrastructure in a Nutshell
nutanix ahv cli reference guide

Dans ce nouvel article, nous allons voir l’ensemble des principales commandes CLI de Nutanix AHV qui permettent de réaliser certaines vérifications sur vos machines virtuelles, en lignes de commandes.

L’ensemble des commandes de cet article sont à exécuter en SSH depuis n’importe quelle CVM du cluster.

Afficher la liste des machines virtuelles

Pour afficher la liste des machines virtuelles présentes sur le cluster Nutanix, il suffit de lancer la commande suivante :

acli vm.list

Cela vous affichera l’ensemble des VMs présentes sur le cluster, sans les CVMs :

nutanix@NTNX-S348084X9211699-B-CVM:192.168.84.22:~$ acli vm.list
VM name VM UUID
LINUX 88699c96-11a5-49ce-9d1d-ac6dfeff913d
NTNX-192-168-84-200-PCVM-1760699089 f659d248-9ece-4aa0-bb0c-22a3b3abbe12
vm_test 9439094a-7b6b-48ca-9821-a01310763886

Comme vous pouvez le constater, je n’ai que 2 machines virtuelles sur mon cluster :

  • mon Prism Central
  • une machine virtuelle « LINUX » fraichement déployée
  • une machine virtuelle de test

Une commande pratique pour récupérer rapidement l’intégralité des machines virtuelles et leurs UUID respectifs. Voyons maintenant comment récupérer des informations sur une machine virtuelle en particulier.

Récupérer les informations d’une machine virtuelle

Pour afficher les informations détaillées d’une machine virtuelle, il faut utiliser la commande suivante :

acli vm.get VM_NAME

En reprenant l’exemple de ma machine virtuelle « LINUX », cela renvoi les informations suivantes :

nutanix@NTNX-S348084X9211699-B-CVM:192.168.84.22:~$ acli vm.get LINUX
LINUX {
config {
agent_vm: False
allow_live_migrate: True
apc_config {
apc_enabled: False
}
bios_uuid: "88699c96-11a5-49ce-9d1d-ac6dfeff913d"
boot {
boot_device_order: "kCdrom"
boot_device_order: "kDisk"
boot_device_order: "kNetwork"
hardware_virtualization: False
secure_boot: False
uefi_boot: True
}
cpu_hotplug_enabled: True
cpu_passthrough: False
disable_branding: False
disk_list {
addr {
bus: "ide"
index: 0
}
cdrom: True
device_uuid: "fae2ee55-8736-4f3a-9b2c-7d5f5770bf33"
empty: True
iso_type: "kOther"
}
disk_list {
addr {
bus: "scsi"
index: 0
}
cdrom: False
container_id: 4
container_uuid: "2ead3997-e915-4ee2-b9a4-0334889e434b"
device_uuid: "f9a8a84c-6937-4d01-bfd2-080271c44916"
naa_id: "naa.6506b8def195dc769b32f3fe47100297"
storage_vdisk_uuid: "215ba83c-44cb-4c41-bddc-1aa3a44d41c7"[7] 0:python3.9* "ntnx-s348084x9211699-" 21:12 21-Oct-25 vmdisk_size: 42949672960
vmdisk_uuid: "42a18a62-861a-497a-9d73-e959513ce709"
}
generation_uuid: "9c018794-a71a-45ae-aeca-d61c5dd6d11a"
gpu_console: False
hwclock_timezone: "UTC"
machine_type: "pc"
memory_mb: 8192
memory_overcommit: False
name: "LINUX"
ngt_enable_script_exec: False
ngt_fail_on_script_failure: False
nic_list {
connected: True
mac_addr: "50:6b:8d:fb:a1:4c"
network_name: "NUTANIX"
network_type: "kNativeNetwork"
network_uuid: "7d13d75c-5078-414f-a46a-90e3edc42907"
queues: 1
rx_queue_size: 256
type: "kNormalNic"
uuid: "c6f02560-b8e6-4eed-bc09-1675855dfc77"
vlan_mode: "kAccess"
}
num_cores_per_vcpu: 1
num_threads_per_core: 1
num_vcpus: 2
num_vnuma_nodes: 0
power_state_mechanism: "kHard"
scsi_controller_enabled: True
vcpu_hard_pin: False
vga_console: True
vm_type: "kGuestVM"
vtpm_config { is_enabled: False
}
} is_ngt_ipless_reserved_sp_ready: True
is_rf1_vm: False
logical_timestamp: 1
state: "kOff"
uuid: "88699c96-11a5-49ce-9d1d-ac6dfeff913d"

Comme vous pouvez le constater, cela renvoi l’intégralité des informations d’une machine virtuelle. Il est possible de filtrer une partie des informations renvoyées avec certaines commandes. Voici celles que j’utilise le plus souvent :

acli vm.disk_get VM_NAME : pour récupérer les informations détaillées de l’ensemble des disques d’une machine virtuelle

nutanix@NTNX-S348084X9211699-B-CVM:192.168.84.22:~$ acli vm.disk_get LINUX
ide.0 {
addr {
bus: "ide"
index: 0
}
cdrom: True
device_uuid: fae2ee55-8736-4f3a-9b2c-7d5f5770bf33
empty: True
iso_type: "kOther"
}
scsi.0 {
addr {
bus: "scsi"
index: 0
}
cdrom: False
container_id: 4
container_uuid: "2ead3997-e915-4ee2-b9a4-0334889e434b"
device_uuid: f9a8a84c-6937-4d01-bfd2-080271c44916
naa_id: "naa.6506b8def195dc769b32f3fe47100297"
storage_vdisk_uuid: 215ba83c-44cb-4c41-bddc-1aa3a44d41c7
vmdisk_size: 42949672960
vmdisk_uuid: 42a18a62-861a-497a-9d73-e959513ce709
}

acli vm.nic_get VM_NAME : pour récupérer la liste détaillée des cartes réseaux attachées à une machine virtuelle

nutanix@NTNX-S348084X9211699-B-CVM:192.168.84.22:~$ acli vm.nic_get LINUX
50:6b:8d:fb:a1:4c {
connected: True
mac_addr: "50:6b:8d:fb:a1:4c"
network_name: "NUTANIX"
network_type: "kNativeNetwork"
network_uuid: "7d13d75c-5078-414f-a46a-90e3edc42907"
queues: 1
rx_queue_size: 256
type: "kNormalNic"
uuid: "c6f02560-b8e6-4eed-bc09-1675855dfc77"
vlan_mode: "kAccess"
}

acli vm.snapshot_list VM_NAME : pour récupérer la liste des snapshots associés à une machine virtuelle

nutanix@NTNX-S348084X9211699-B-CVM:192.168.84.22:~$ acli vm.snapshot_list LINUX
Snapshot name Snapshot UUID
SNAPSHOT_BEFORE_UPGRADE e7c1e84e-7087-42fd-9e9e-2b053f0d5714

Vous savez tout ou presque sur la vérification de vos machines virtuelles.

Pour la liste complète des commandes, je vous invite à consulter la documentation officielle : https://portal.nutanix.com/page/documents/details?targetId=Command-Ref-AOS-v7_3:man-ncli-c.html

Dans le prochain article, nous nous attaquerons à un gros morceau : la création de machines virtuelles via les commandes CLI.

Read More
nutanix on ovhcloud hosted private cloud

Nous avons vu dans un précédent article comment déployer et réaliser la configuration de base d’une passerelle Palo Alto afin de remplacement la passerelle de base fourni avec votre cluster Nutanix OVHcloud.

Je vais maintenant vous présenter comment connecter cette passerelle au RTvRack fourni avec votre cluster afin de le connecter à internet.

Connexion de la passerelle au RTvRack

Dans « Network > Zones », on commence par créer une nouvelle zone de type « Layer3 » qu’on va appeler « WAN » pour plus de simplicité :

Vous pouvez également créer une ou plusieurs autres zones pour y rattacher vos autres interfaces (exemple : une zone « INTERNE »).

Ensuite, dans « Network > Interfaces », éditer l’interface ethernet1/1. Si vous avez correctement créé votre VM sur Nutanix, elle va correspondre à l’interface de sortie WAN. Ce sera une interface de type « Layer3 » :

Sur l’onglet « Config », sélectionner le Virtual Router « default » et sélectionner la zone de sécurité « WAN ».

Sur l’onglet « IPv4 », ajouter l’IP publique disponible dans le range qui vous a été fourni par OVHcloud avec votre cluster en veillant à bien mettre un masque en /32 à la fin :

Vous pouvez retrouver l’information relative au réseau de votre adresse IP publique sur votre compte OVHcloud dans « Hosted Private Cloud > Network > IP » : https://www.ovh.com/manager/#/dedicated/ip

En fonction de l’adresse IP publique et de son masque de réseau associé vous pourrez déduire :

  • l’ip publique à attribuer à la patte WAN de votre passerelle
  • l’ip de la passerelle WAN

Exemple avec le réseau 6.54.32.10/30 :

Adresse de réseau (non utilisable) : 6.54.32.8
Première adresse (adresse publique de la PA-VM) : 6.54.32.9
Dernière adresse : 6.54.32.10 (adresse de la passerelle WAN)
Adresse de broadcast : 6.54.32.11 (adresse de broadcast)

Recommencer l’opération avec l’interface qui correspond au subnet de votre cluster Nutanix avec comme adresse IP celle de la passerelle que vous avez indiqué lors du déploiement de votre cluster.

Veillez par contre à mettre le masque correspondant à celui du réseau dans laquelle l’interface se trouve comme indiqué dans la documentation : https://docs.paloaltonetworks.com/pan-os/11-0/pan-os-networking-admin/configure-interfaces/layer-3-interfaces/configure-layer-3-interfaces#iddc65fa08-60b8-47b2-a695-2e546b4615e9.

Dans « Network > Virtuals Routers », éditer le routeur par défaut. Vous devriez retrouver votre interface « ethernet1/1 » à minima, ainsi que les autres interfaces que vous auriez déjà configurées :

Ensuite, dans le sous menu « Static Routes », créer une nouvelle route avec un nom qui vous parle, une destination en 0.0.0.0/0, sélectionner l’interface « ethernet1/1 » et comme Next Hop l’adresse ip de la passerelle du réseau publique qui vous a été fourni par OVHcloud :

Enfin, aller dans l’onglet « Device > Setup > Services » et éditer l’option « Service Route Configuration » dans « Services Features » afin de spécifier l’interface de sortie et l’adresse ip en /32 associée pour certain des services :

La liste des services à configurer à minima est la suivante :

  • DNS
  • External Dynamic Lists
  • NTP
  • Palo Alto Networks Services
  • URL Updates

Vous pouvez valider et faire un commit. Votre passerelle PA-VM communique maintenant avec le RTvRack OVHcloud, il ne vous reste plus qu’à finaliser les configurations pour sécuriser l’installation et créer vos règles de pare-feu pour permettre à votre cluster d’accéder à internet.

Read More
header nutanix

Un post rapide pour vous annoncer que les inscriptions au programme Nutanix Technology Champion (NTC) sont ouvertes !

À compter d’aujourd’hui, 1er octobre 2025, et jusqu’au 31 octobre 2025, vous pouvez postuler en remplissant le formulaire dédié.

L’ensemble des candidatures seront étudiées en novembre pour une nomination des NTC’s 2026 courant décembre.

Vous avez un blog sur lequel vous publiez régulièrement ? Vous avez l’envie de partager vos connaissances sur Nutanix avec des experts du monde entier ? Alors n’hésitez pas et visitez la page officielle : https://next.nutanix.com/community-blog-154/step-into-the-spotlight-nutanix-technology-champion-2026-applications-now-open-44876

Évidemment, j’ai déjà postulé en espérant faire partie des heureux élus pour la 3e année consécutive ! Bonne chance à tous !

Read More

Derrière ce titre à la référence musicale se cache l’événement annuel organisé par Nutanix France : le Nutanix .NEXT on Tour !

Nutanix .NEXT on Tour Paris

Comme l’année dernière, Nutanix organise une fois de plus une édition du NEXT on Tour à Paris le 2 octobre 2025 au CNIT La Défense.

Au programme de cette journée, des sessions plénières, des keynotes, des retours d’expériences… Certains partenaires auront également un stand, l’occasion parfaite pour les clients français de l’éditeur de pouvoir échanger durant toute une journée avec des professionnels des infrastructures hyperconvergées.

Parmi les sujets qui seront abordés lors de cette journée, vous pourrez retrouver :

  • La migration vers Nutanix
  • La gestion et l’automatisation du votre cloud hybride avec Nutanix Cloud Manager
  • Nutanix Kubernetes Plateform
  • L’IA
  • et bien d’autres !

Vous pouvez retrouver le programme détaillé ici : https://www.nutanix.com/fr/go/next-on-tour-paris

Venez nous rencontrer sur le stand Mikadolabs !

En tant Nutanix Pure Player, Mikadolabs aura un stand cette année encore lors du salon. Je serais présent là bas une bonne partie de la journée pour vous recevoir et répondre à vos questions concernant Nutanix et l’hyperconvergence avec une partie de la Team.

N’hésitez pas à passer dire bonjour et si vous n’êtes pas encore inscrit à l’événement, vous pouvez encore le faire via ce lien : Inscriptions à l’événement

Rendez vous dans 2 semaines !

Read More
nutanix on ovhcloud hosted private cloud

Dans cet article, je vous partage mon retour d’expérience complet sur la réinstallation complète d’un cluster Nutanix chez OVHcloud.

Une fois connecté à l’interface de gestion OVHcloud, se rendre dans « Hosted Private Cloud » : 

Dans le menu déroulant de gauche, cliquez sur le cluster que vous souhaitez redéployer :

Sur la page qui s’affiche, cliquez sur « Redéployer mon cluster » : 

Cliquez sur « Continuer » :

Redéploiement automatique

La première option consiste à reprendre les paramètres par défaut fournis par OVHcloud pour réinstaller complètement le cluster dans sa configuration de base :

Un récapitulatif des paramètres s’affiche avant que vous ne validiez pour de bon la réinstallation de votre cluster :

Redéploiement personnalisé

Il est possible de personnaliser entièrement la configuration du réseau IP de votre cluster lors de sa phase d’installation. Lors du choix de la méthode de déploiement du cluster, sélectionnez « Personnaliser la configuration » et cliquez sur « Suivant » : 

Renseignez les différents champs avec les informations que vous souhaitez attribuer à votre cluster et cliquez sur « Redéployer » : 

Saisissez « REDEPLOY » dans le champ prévu à cet effet et cliquez sur « Confirmer » pour lancer la procédure de réinstallation : 

Sur la page générale de votre cluster, un message indique que le redéploiement du cluster est en cours : 

Il ne reste plus qu’à patienter jusqu’à ce que le cluster soit complètement redéployé. L’ensemble des configurations de base sont déjà réalisées, il ne vous reste plus qu’à finaliser les spécifiques tels que l’authentification, le relais smtp, la supervision…

Read More
nutanix ahv cli reference guide

Dans la série Maxi Best Of Nutanix CLI, les 2 précédents articles traitaient de la vérification de la configuration du réseau d’un cluster Nutanix et de la gestion des subnets.

Dans ce nouvel article, nous allons aborder la gestion des containers de stockage via les commandes CLI sur vos clusters Nutanix…

L’ensemble des commandes présentes dans cet article sont à exécuter depuis une des CVMs du cluster et fonctionnent sur un cluster en AOS 6.10+.

Vérifier l’état des containers

Pour vérifier l’état de vos containers de stockage, la commande la plus simple est la suivante :

ncli container list

Cette commande vous permettra d’afficher l’ensemble des informations relatives à tous les containers de votre cluster.

Si vous souhaitez afficher un container en particulier, vous pouvez passer le nom (méthode la plus simple) ou l’ID de votre container si vous l’avez en paramètre :

ncli container list name=NAME
ncli container list id=ID

Enfin, une dernière commande pour n’afficher que les statistiques d’utilisation de vos containers :

ncli container list-stats

Renommer un container

Pour renommer un container de stockage, il est impératif qu’il soit totalement vide.

Le renommage d’un container de stockage peut être effectué grâce à la commande suivante :

ncli container edit name=ACTUALNAME new-name=NEWNAME

Sur le container par défaut, cela donnerai par exemple la commande suivante :

ncli container edit name=default-container-21425105524428 new-name=ntnx-lab-container

ATTENTION : il existe 2 containers créés par défaut lors du déploiement votre cluster, « SelfServiceContainer » et « NutanixManagementShare ». Il ne faut pas tenter de les renommer !

Créer un container

Il est également possible de créer des containers de stockage en CLI :

ncli container create name=NAME sp-name=STORAGE-POOL-NAME

Le paramètre « name » et le « sp-name » sont les seuls paramètres obligatoires lors de l’exécution de la commande. Cela vous permettra de créer un container de base sur le storage pool choisi avec les paramètres suivants :

  • pas de mécanisme d’optimisation de la donnée
  • pas de restriction / réservation
  • le replication factor par défaut

Mais la commande de création d’un container peut s’avérer très pratique si vous devez créer des containers de stockage par lot, par exemple si vous hébergez plusieurs clients sur un cluster avec chacun une quantité d’espace de stockage allouée !

Par exemple, pour créer un container de stockage avec comme paramètres :

  • nom de container « client-alpha »
  • capacité réservée de 64Gb
  • capacité maximale de 64Gb
  • avec la compression en temps réel activée

Voici la commande qu’il faudrait passer :

ncli container create name=client-alpha res-capacity=64 adv-capacity=64 enable-compression=true compression-delay=0 sp-name=default-storage-pool-21425105524428

Un container avec les caractéristiques associées sera alors créé :

Modifier les paramètres d’un container

Un container existant peut également être modifié. Vous pouvez a peu prêt tout modifier au niveau des paramètres, des mécanismes d’optimisation de la donnée, aux tailles réservées / allouées, réplication factor…

Pour l’ensemble des paramètres, je vous invite à consulter la documentation officielle (lien en bas de page).

Supprimer un container

Supprimer un container est assez simple mais nécessite que l’ensemble des fichiers stockés dessus soient au préalable supprimés ou déplacés. La suppression se fait via la commande suivante :

ncli container remove name=NAME

Il peut arriver que malgré la suppression ou le déplacement des vdisks de vos VMs, la suppression vous soit toujours refusée. C’est souvent dû à de petits fichiers résiduels.

Il faut alors ajoute le paramètre « ignore-small-files » pour forcer la suppression :

ncli container remove name=NAME ignore-small-files=true

Cela donnerai par exemple :

ncli container remove name=lab-container ignore-small-files=true

ATTENTION : il existe 2 containers créés par défaut lors du déploiement votre cluster, « SelfServiceContainer » et « NutanixManagementShare ». Il ne faut pas tenter de les supprimer !

Documentation officielle

Pour en savoir plus sur certaines options des commandes présentées, je vous invite à consulter la documentation officielle : https://portal.nutanix.com/page/documents/details?targetId=Command-Ref-AOS-v6_10:acl-ncli-container-auto-r.html

Read More
nutanix ahv cli reference guide

Dans le précédent article du menu Maxi Best Of Nutanix CLI, je vous ai présenté l’ensemble des meilleures commandes pour vérifier l’intégralité de la configuration du réseau de votre cluster Nutanix.

Dans ce nouvel article, nous allons maintenant voir comment les commandes CLI peuvent nous aider à à créer ou à modifier les réseaux de notre cluster Nutanix…

L’ensemble des commandes de cet article sont à exécuter au niveau d’une des CVMs du cluster.

Création d’un subnet non managé sur Nutanix AHV 

Pour créer un nouveau subnet non managé (sans IPAM) à l’échelle du cluster AHV, la commande est vraiment très simple : 

acli net.create NAME vlan=VLAN_ID

Il faut remplacer :

  • NAME par le nom que vous souhaitez attribuer à votre subnet
  • VLAN_ID par l’ID du VLAN

Voici un exemple de commande qui permet de créer le vlan « NUTANIX » avec comme vlan id « 84 » :

acli net.create NUTANIX vlan=84

Par défaut, le vlan sera créé sur le vswitch « vs0 » mais si vous souhaitez le créer sur un autre virtual switch, vous pouvez le spécifier en paramètre :

acli net.create NAME vlan=VLAN_ID virtual_switch=VSWITCH

Il faut dans ce cas remplacer :

  • NAME par le nom que vous souhaitez attribuer à votre subnet
  • VLAN_ID par l’ID du VLAN
  • VSWITCH par le nom du bridge sur lequel vous voulez créer le subnet

Voici un exemple de commande qui permet de créer le vlan « NUTANIX » avec comme vlan id « 84 » sur le vswitch « vs0 » :

acli net.create NUTANIX vlan=84 virtual_switch=vs0

Vous pouvez ensuite lancer la commande « acli net.list » et vérifier que votre nouveau subnet apparait bien dans la liste.

Création d’un subnet managé sur Nutanix AHV

Cette commande permet de créer un nouveau subnet managé (avec IPAM) à l’échelle du cluster AHV avec les options de base de passerelle et masque de sous réseau. 

acli net.create NAME vlan=VLAN_ID virtual_switch=vs0 ip_config=GATEWAY/MASK

Il faut remplacer :

  • NAME par le nom que vous souhaitez attribuer à votre subnet
  • VLAN_ID par l’ID du VLAN
  • vs0 par le nom du bridge sur lequel vous voulez créer le subnet
  • GATEWAY par l’adresse IP de la passerelle du subnet
  • MASK par le masque de sous réseau

Voici un exemple de commande qui permet de créer le vlan « NUTANIX » avec un vlan id « 84 » sur le vswitch « vs0 », avec une adresse de passerelle « 10.0.84.254 » sur le réseau « 10.0.84.0/24 » :

acli net.create NUTANIX vlan=84 virtual_switch=vs0 ip_config=10.0.84.254/24

Suppression d’un subnet existant

Pour supprimer un subnet existant sur un cluster Nutanix AHV, rien de plus simple ! Il suffit de lancer la commande suivante : 

acli net.delete NAME 

Il faut remplacer NAME par le nom du subnet que vous souhaitez supprimer, ce qui donnerai par exemple pour le subnet précédemment créé :

acli net.delete NUTANIX

Rien de plus simple !

Création / Suppression de subnets en masse

Afin de me faciliter la tâche lors de l’import de grandes quantités de subnets, j’ai créé plusieurs fichiers CSV que je peux ensuite convertir en liste de commandes afin de créer à la chaine de multiples subnets.

Tout est sur mon Github : https://github.com/Exe64/NUTANIX

Pour les subnets non managés : https://github.com/Exe64/NUTANIX/blob/main/nutanix-unmanaged-subnets.csv

Pour les subnets managés : https://github.com/Exe64/NUTANIX/blob/main/nutanix-managed-subnets.csv

Pour la suppression de subnets : https://github.com/Exe64/NUTANIX/blob/main/nutanix-subnets-delete.csv

Pour en savoir plus sur l’utilisation de ces fichiers, je vous invite à consulter mon article dédié :

Documentation officielle

La documentation complète des commandes disponibles sur le site officiel de l’éditeur : https://portal.nutanix.com/page/documents/details?targetId=Command-Ref-AOS-v6_10:man-acli-c.html

Read More
nutanix ahv cli reference guide

Que vous ayez besoin de réaliser des opérations particulières ou répétitives, faire du troubleshooting ou d’avoir une vu plus détaillée, les commandes CLI d’un cluster Nutanix seront vos meilleures alliées.

Dans cet article, je vous propose un condensé des meilleures commandes permettant de réaliser toutes les vérifications de la configuration réseau d’un cluster Nutanix, que ce soit au niveau du cluster, des hôtes, des CVMs ou encore des machines virtuelles…

Vous devez avoir un cluster sous AOS 6.10+ pour éxecuter certaines des commandes de ce guide.

A. Via les commandes Nutanix acli depuis n’importe quelle CVM du cluster Nutanix AHV

Lister l’état des interfaces des hosts : 

acli net.list_host_nic 192.168.84.11 @IP_HOST_AHV 

Résultat :

Lister tous les vSwitchs actuellement configurés sur le cluster : 

acli net.list_virtual_switch 

Résultat :

Vous pouvez lister la configuration d’un vSwitch en particulier en le passant en argument de la commande :

acli net.list_virtual_switch vs1

Lister tous les subnets créés sur le cluster :

acli net.list 

Résultat :

Lister les VMs rattachées à un subnet en particulier :

acli net.list_vms SUBNET

B. Via le script Nutanix manage_ovs depuis n’importe quelle CVM du cluster Nutanix AHV

Lister l’état des interfaces d’un host AHV :

manage_ovs show_interfaces

Résultat :

Vous pouvez également lister l’état des interfaces de l’ensemble des hôtes du cluster :

allssh "manage_ovs show_interfaces"

Lister l’état des uplinks (bond) d’un host AHV :

manage_ovs show_uplinks

Résultat :

Vous pouvez également lister l’état des uplinks (bond) de tous les hôtes AHV du cluster :

allssh "manage_ovs show_uplinks"

Afficher les informations LLDP des interfaces d’un host AHV :

manage_ovs show_lldp

Résultat :

Vous pouvez également afficher les informations LLDP des interfaces de tous les hôtes AHV du cluster :

allssh "manage_ovs show_lldp"

Afficher les bridges actuellement créés sur un host AHV :

manage_ovs show_bridges

Résultat :

Vous pouvez également afficher les bridges actuellement créés sur tous les hôtes AHV du cluster :

allssh "manage_ovs show_bridges"

Afficher le mappage des interfaces de la CVM avec celles des hosts AHV :

manage_ovs show_cvm_uplinks_map

Résultat :

Vous pouvez également afficher le mappage des interfaces des CVM sur tous les hôtes AHV du cluster :

allssh "manage_ovs show_cvm_uplinks_map"

 

C. Via la commande Open vSwitch depuis n’importe quel hote d’un cluster Nutanix AHV 

Lister les bridges existants d’un host AHV :

ovs-vsctl list-br

Résultat :

Lister toutes les interfaces attachées à un bridge en particulier d’un host AHV :

ovs-vsctl list-ifaces br0

Résultat :

Afficher la configuration d’un port bond d’un host AHV :

ovs-vsctl list port br0-up

Résultat :

Afficher la configuration et l’état d’un bond sur un host AHV :

ovs-appctl bond/show br0-up

Résultat :

Afficher des informations sur l’état d’un bond configuré en LACP sur un host AHV :

ovs-appctl lacp/show br1-up

Un grand merci à Yohan pour l’idée d’article et le coup de main !

Read More
header nutanix

La nouvelle version des VirtIO est disponible et voici les nouveautés et corrections de bugs !

Nouveautés

Le pilote QEMU « null » a été remplacé par un périphérique FwCfg entièrement fonctionnel, permettant la collecte des vidages mémoire des machines virtuelles Windows directement sur les hôtes AHV.

Ajout d’un nouveau bouton de configuration : vous pouvez désormais ajuster le nombre de requêtes d’E/S traitées avant de réessayer lorsque la file d’attente virtuelle est pleine, ce qui vous offre un meilleur contrôle sur le comportement des E/S.

Correction de bugs

Correction d’un problème gênant qui provoquait le blocage des machines virtuelles Windows après le démontage du disque. Les opérations seront fluides à partir de maintenant.

Bon à savoir

Cette nouvelle version est entièrement compatible avec toutes les versions AOS et AHV prises en charge.

Elle est disponible en téléchargement ici : https://portal.nutanix.com/page/downloads/?product=ahv&version=1.2.5&bit=VirtIO

Les anciennes versions sont toujours disponibles sur le portail d’assistance Nutanix, sous Téléchargements > AHV > VirtIO > Autres versions.

Pour obtenir de l’aide sur l’installation, consultez le Guide d’administration AHV.

A vos mises à jour !

Read More
Nutanix Foundation on a Steamdeck

Dans un de mes précédents articles, je vous avais parlé de mon installation de Nutanix Foundation sur mon Steamdeck. Malheureusement, je n’avais pas encore eu l’opportunité de pouvoir lancer une installation avec le setup faute de serveur à imager.

Mais les choses ont changé car j’ai depuis peu en ma possession un serveur Supermicro SuperServer 5019D-FN8TP ! J’ai d’ailleurs rédigé un article sur la mise en oeuvre de Nutanix Foundation sur un matériel non officiellement supporté :

Préparation du matériel en vue du Foundation

Pour pouvoir espérer imager mon noeud avec Nutanix Foundation depuis mon Steamdeck, il fallait impérativement que je sois connecté au réseau en RJ45, un type de connectique absent de la console de Valve…

J’ai donc fait l’acquisition d’un dock externe disposant de plusieurs ports USB et d’un port RJ45 connectable en USB-C.

J’ai réalisé les branchements suivants :

  • connexion du dock externe sur le port USB-C du Steamdeck
  • connexion de l’alimentation sur le port USB-C du dock prévu à cet effet
  • connexion du cable réseau sur le port RJ45 du dock
  • connexion du disque SSD externe (sur lequel est installé Windows) sur un des ports USB du dock

Cela m’a permis de faire booter le Steamdeck sur le SSD pour démarrer sous Windows 11 !

Nutanix Foundation on a Steamdeck

Nutanix Foundation d’un noeud avec un Steamdeck

Comme je vous en avait parlé dans le précédent article, j’ai déjà Nutanix Foundation installé donc je ne vais pas m’étendre sur cette partie là et passer directement à la partie Foundation !

Pour ce Foundation, j’ai utilisé la toute dernière version disponible à savoir la Foundation 5.9 avec les versions AOS 10 et AHV 7 !

Nutanix Foundation on a Steamdeck

Le processus de Foundation démarre impeccablement bien comme attendu et le processus arrive à son terme après un certains temps :

Nutanix Foundation on a Steamdeck

Comme vous pouvez le constater, imager un noeud avec le Steamdeck c’est possible ! Est ce que c’est pertinent ? Aucune certitude mais je peux au moins dire que « je l’ai fait ! ».

Read More