Lors de mes déploiements de cluster Nutanix, je me suis souvent heurté à la question du plan de test à dérouler après chaque installation.
Comme il m’arrivait de parfois oublier certaines choses, j’ai fini par réaliser un plan de test complet, lisible et compréhensible que je mets aujourd’hui à votre disposition.
Le plan de test présenté permet de vérifier et de s’assurer que l’ensemble des configurations ont été mises en place, que la redondance réseau et électrique de votre cluster sont conformes aux bonnes pratiques.
Pour un cas client, nous avons eu à créer plus de 70 subnets sur 2 clusters et réaliser l’opération en passant par l’interface graphique aurait été beaucoup trop long et fastidieux. Voici la méthode pour réaliser l’opération en CLI en seulement quelques minutes.
Création des subnets non-managés
Pour me rendre la tâche beaucoup plus facile, j’ai créé un fichier Excel au format .csv dans lequel j’ai mis 3 colonnes :
L’idée est de remplir la colonne VLAN_NAME et VLAN_ID avec le nom des VLANs et leurs ID associés, fournis par le client dans le Predelivery Questionnaire :
Ce qui donnerai :
Enregistrer le fichier puis l’ouvrir avec Notepad++ :
Remplacer le caractère « ; » par un espace :
Remplacer ensuite « vlan= » par « vlan= » pour recoller l’ID des VLANs à la commande :
Connectez vous ensuite à une CVM de votre cluster et faites un copier coller de toutes les lignes en une seule fois dans l’interface en ligne de commandes :
Nutanix Controller VM (CVM) is a virtual storage appliance.
Alteration of the CVM (unless advised by Nutanix Technical Support or
Support Portal Documentation) is unsupported and may result in loss
of User VMs or other data residing on the cluster.
Unsupported alterations may include (but are not limited to):
- Configuration changes / removal of files.
- Installation of third-party software/scripts not approved by Nutanix.
- Installation or upgrade of software packages from non-Nutanix
sources (using yum, rpm, or similar).
** SSH to CVM via 'nutanix' user will be restricted in coming releases. **
** Please consider using the 'admin' user for basic workflows. **
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_10 vlan=10
acli net.create VLAN_26 vlan=26
acli net.create VLAN_27 vlan=27
acli net.create VLAN_28 vlan=28
acli net.create VLAN_29 vlan=29
acli net.create VLAN_30 vlan=30
acli net.create VLAN_31 vlan=31
acli net.create VLAN_32 vlan=32
acli net.create VLAN_33 vlan=33
acli net.create VLAN_34 vlan=34
acli net.create VLAN_35 vlan=35
acli net.create VLAN_36 vlan=36
acli net.create VLAN_37 vlan=37
acli net.create VLAN_38 vlan=38
acli net.create VLAN_39 vlan=39
acli net.create VLAN_40 vlan=40nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_11 vlan=11
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_12 vlan=12
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_13 vlan=13
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_14 vlan=14
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_15 vlan=15
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_16 vlan=16
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_17 vlan=17
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_18 vlan=18
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_19 vlan=19
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_20 vlan=20
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_21 vlan=21
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_22 vlan=22
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_23 vlan=23
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_24 vlan=24
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_25 vlan=25
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_26 vlan=26
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_27 vlan=27
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_28 vlan=28
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_29 vlan=29
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_30 vlan=30
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_31 vlan=31
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_32 vlan=32
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_33 vlan=33
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_34 vlan=34
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_35 vlan=35
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_36 vlan=36
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_37 vlan=37
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_38 vlan=38
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_39 vlan=39
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_40 vlan=40
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$
Un petit contrôle sur l’interface Prism Element pour confirmer la bonne création de vos VLANs :
L’étape supplémentaire, c’est le remplacement de « GATEWAY/MASK » par la passerelle du réseau que vous souhaitez ajouter accompagné de son masque de sous réseau. Exemple :
Ensuite, il faut bien sûr refaire le nettoyage de votre fichier via Notepad pour remplacer par un espace ou supprimer les « ; » avant d’importer tout cela dans votre terminal SSH.
Dans notre exemple, vous allez créer le réseau suivant :
Pour supprimer des subnets le principe est similaire, il suffit de remplacer « net.create » par « net.delete » et de n’indiquer que le nom des subnets à supprimer :
Ayant récupéré un vieux serveur destiné au recyclage pour m’en faire un lab Nutanix sur la Community Edition, je n’ai jamais eu sa configuration détaillée.
En cherchant dans les commandes Nutanix, j’ai trouvé une commande qui permet de réaliser un inventaire matériel exhaustif :
La commande renvoie dans un premier temps les informations générales du cluster (nom, ID, UUID, Version, IPs…) :
####################################################
# TIMESTAMP : Fri Jul 26 09:07:43 2024 (UTC +0000) #
####################################################
Cluster Name: MiddleEarth
Cluster Id: 585086141872525258
Cluster UUID: 00061c09-6abd-7835-081e-a4bf0150cfca
Cluster Version: 6.5.2
NCC Version: 4.6.6.3-5e8b6399
CVM ID(Svmid) : 2
CVM external IP : 192.168.2.200
Hypervisor IP : 192.168.2.199
Hypervisor version : Nutanix 20220304.342
IPMI IP : 192.168.2.139
Node serial : BQWL80251503
Model : CommunityEdition
Node Position : A
Block S/N : e854cc31
Puis la commande va commencer à renvoyer les informations générales concernant le cluster à savoir l’hyperviseur, le fabricant, l’ensemble des informations du noeud (position, nom d’hote, fabricant, modèle, numéro de série…), les informations du bios et de l’interface de management :
Running /hardware_info/show_hardware_info [ INFO ]
------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
Detailed information for show_hardware_info:
Node 192.168.2.200:
INFO:
--------------------------------------------------------------------------------
Updated: Thu, 25 Jul 2024 12:54:59 UTC
Host UUID: 22dd9131-373f-482a-818f-c60b06988a7d
CVM IP: 192.168.2.200
Hypervisor Version:el7.nutanix.20220304.342
NOS Version:el7.3-release-fraser-6.5.2-stable-f2ce4db7d67f495ebfd6208bef9ab0afec9c74af
NCC Version:4.6.6.3-5e8b6399
--------------------------------------------------------------------------------
Nutanix Product Info
+--------------------------------------------------------------------------------------------------+
| Manufacturer | Intel Corporation |
| Product name | CommunityEdition |
| Product part number | CommunityEdition |
| Configured Serial Number | e854cc31 |
+--------------------------------------------------------------------------------------------------+
Chassis
+--------------------------------------------------------------------------------------------------+
| Bootup state | Safe |
| Manufacturer | ............................... |
| Serial number | .................. |
| Thermal state | Safe |
| Version | .................. |
+--------------------------------------------------------------------------------------------------+
Node Module
+--------------------------------------------------------------------------------------------------+
| Node Position | A |
| Bootup state | Safe |
| Host name | NTNX-e854cc31-A |
| Hypervisor type | KVM |
| Manufacturer | Intel Corporation |
| Product name | S2600WTTR |
| Product part number | G92187-372 |
| Serial number | BQWL80251503 |
| Thermal state | Safe |
| Version | G92187-372 |
+--------------------------------------------------------------------------------------------------+
BIOS Information
+--------------------------------------------------------------------------------------------------+
| Release date | 09/02/2020 |
| Revision | 0.0 |
| Rom size | 16384 KB |
| Vendor | Intel Corporation |
| Version | SE5C610.86B.01.01.1029.090220201031 |
+--------------------------------------------------------------------------------------------------+
BMC
+--------------------------------------------------------------------------------------------------+
| Device id | 33 |
| Device available | True |
| Device revision | 1 |
| Firmware revision | 1.61.1 |
| Ipmi version | 2.0 |
| Manufacturer | Intel Corporation |
| Manufacturer id | 343 |
| Product id | 111 (0x006f) |
+--------------------------------------------------------------------------------------------------+
Le contrôleur de stockage est ensuite remonté :
Storage Controller
+--------------------------------------------------------------------------------------------------+
| Location | ioc0 |
| Driver name | virtio-pci |
| Manufacturer | Red Hat, Inc. |
| Status | running |
+--------------------------------------------------------------------------------------------------+
| Location | ioc0 |
| Driver name | virtio-pci |
| Manufacturer | Red Hat, Inc. |
| Status | running |
+--------------------------------------------------------------------------------------------------+
Puis c’est au tour de l’ensemble des informations générales sur la mémoire installée :
Physical Memory Array
+--------------------------------------------------------------------------------------------------+
| Bank | NODE 1 |
| Configured slots | 5 |
| Max size | 384 GB |
| Num slots | 12 |
| Total installed size | 160 GB |
+--------------------------------------------------------------------------------------------------+
| Bank | NODE 2 |
| Configured slots | 6 |
| Max size | 384 GB |
| Num slots | 12 |
| Total installed size | 192 GB |
+--------------------------------------------------------------------------------------------------+
Ce sont ensuite les informations concernant les alimentations qui s’affichent :
System Power Supply
+--------------------------------------------------------------------------------------------------+
| Location | Pwr Supply 1 FRU (ID 2) |
| Manufacturer | None |
| Max power capacity | 0.0 W |
| Product part number | G84027-009 |
| Revision | None |
| Serial number | EXWD80400190 |
| Status | OK |
+--------------------------------------------------------------------------------------------------+
| Location | Pwr Supply 2 FRU (ID 3) |
| Manufacturer | None |
| Max power capacity | 0.0 W |
| Product part number | G84027-009 |
| Revision | None |
| Serial number | EXWD82000830 |
| Status | OK |
+--------------------------------------------------------------------------------------------------+
| Location | To Be Filled By O.E.M. |
| Manufacturer | To Be Filled By O.E.M. |
| Max power capacity | 0.0 W |
| Product part number | To Be Filled By O.E.M. |
| Revision | To Be Filled By O.E.M. |
| Serial number | To Be Filled By O.E.M. |
| Status | Unknown |
+--------------------------------------------------------------------------------------------------+
Puis celles concernant le ou les processeurs :
Processor Information
+--------------------------------------------------------------------------------------------------+
| Socket designation | Socket 1 |
| Core count | 10 |
| Core enabled | 10 |
| Current speed | 2400 MHz |
| External clock | 100 MHz |
| Id | 0xbfebfbff000406f1L |
| L1 cache size | 640 KB |
| L2 cache size | 2560 KB |
| L3 cache size | 25600 KB |
| Max speed | 4000 MHz |
| Status | POPULATED |
| Thread count | 20 |
| Type | Central |
| Version | Intel(R) Xeon(R) CPU E5-2640 v4 @ 2.40GHz |
| Voltage | 1.8 V |
+--------------------------------------------------------------------------------------------------+
| Socket designation | Socket 2 |
| Core count | 10 |
| Core enabled | 10 |
| Current speed | 2400 MHz |
| External clock | 100 MHz |
| Id | 0xbfebfbff000406f1L |
| L1 cache size | 640 KB |
| L2 cache size | 2560 KB |
| L3 cache size | 25600 KB |
| Max speed | 4000 MHz |
| Status | POPULATED |
| Thread count | 20 |
| Type | Central |
| Version | Intel(R) Xeon(R) CPU E5-2640 v4 @ 2.40GHz |
| Voltage | 1.8 V |
+--------------------------------------------------------------------------------------------------+
Viennent ensuite les informations détaillées de chaque barrette de mémoire vive installée :
Memory Module
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_A1 |
| Bank connection | NODE 1 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401EA4F9 |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_A2 |
| Bank connection | NODE 1 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401E96DC |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_B1 |
| Bank connection | NODE 1 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401E97B9 |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_B2 |
| Bank connection | NODE 1 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401EA624 |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_C1 |
| Bank connection | NODE 1 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401EA4AB |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_E1 |
| Bank connection | NODE 2 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401EA625 |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_E2 |
| Bank connection | NODE 2 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401E97AC |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_F1 |
| Bank connection | NODE 2 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401EA591 |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_F2 |
| Bank connection | NODE 2 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401EA5D8 |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_G1 |
| Bank connection | NODE 2 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401EA1E7 |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_H1 |
| Bank connection | NODE 2 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401EA4A9 |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
Puis les informations concernant les cartes réseaux installées :
NIC
+--------------------------------------------------------------------------------------------------+
| Location | eth0 |
| Device name | eth0 |
| Driver name | ixgbe |
| Firmware version | 0x800004f8 |
| Mac address | a4:bf:01:50:cf:ca |
| Manufacturer | Intel Corporation(8086) |
| Product name | Ethernet Controller 10-Gigabit X540-AT2(1528) |
| Sub device | Subsystem device 35c5(35c5) |
| Sub vendor | Intel Corporation(8086) |
| Driver Version | 5.16.5 |
+--------------------------------------------------------------------------------------------------+
| Location | eth1 |
| Device name | eth1 |
| Driver name | ixgbe |
| Firmware version | 0x800004f8 |
| Mac address | a4:bf:01:50:cf:cb |
| Manufacturer | Intel Corporation(8086) |
| Product name | Ethernet Controller 10-Gigabit X540-AT2(1528) |
| Sub device | Subsystem device 35c5(35c5) |
| Sub vendor | Intel Corporation(8086) |
| Driver Version | 5.16.5 |
+--------------------------------------------------------------------------------------------------+
S’affichent ensuite l’ensemble des disques de stockages installés, HDD comme SSD :
SSD
+--------------------------------------------------------------------------------------------------+
| Capacity | 120.0 GB |
| Firmware version | 2.22 |
| Hypervisor disk | True |
| Power on hours | 0 |
| Product part number | OCZ-AGILITY3 |
| Secured boot disk | False |
| Serial number | OCZ-6F95UNJ029ACBIFD |
| Smartctl status | PASSED |
+--------------------------------------------------------------------------------------------------+
| Capacity | 800.0 GB |
| Firmware version | C925 |
| Hypervisor disk | True |
| Manufacturer | WDC |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Secured boot disk | False |
| Serial number | V6V2TU8A |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Location | 5 |
| Capacity | 500.0 GB |
| Firmware version | RVT04B6Q |
| Hypervisor disk | True |
| Power on hours | 3921 |
| Product part number | Samsung SSD 860 EVO 500GB |
| Secured boot disk | False |
| Serial number | S4CNNX0N803693N |
| Smartctl status | PASSED |
+--------------------------------------------------------------------------------------------------+
| Location | 6 |
| Capacity | 800.0 GB |
| Firmware version | C925 |
| Hypervisor disk | True |
| Manufacturer | WDC |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Secured boot disk | False |
| Serial number | V6V2PDUA |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Location | 8 |
| Capacity | 800.0 GB |
| Firmware version | C925 |
| Hypervisor disk | True |
| Manufacturer | WDC |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Secured boot disk | False |
| Serial number | V6V2U2TA |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Location | 9 |
| Capacity | 800.0 GB |
| Firmware version | C925 |
| Hypervisor disk | True |
| Manufacturer | WDC |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Secured boot disk | False |
| Serial number | V6V2SYZA |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Location | 10 |
| Capacity | 500.0 GB |
| Firmware version | RVT04B6Q |
| Hypervisor disk | True |
| Power on hours | 3926 |
| Product part number | Samsung SSD 860 EVO 500GB |
| Secured boot disk | False |
| Serial number | S4CNNX0N803688F |
| Smartctl status | PASSED |
+--------------------------------------------------------------------------------------------------+
| Location | 12 |
| Capacity | 800.0 GB |
| Firmware version | C925 |
| Hypervisor disk | True |
| Manufacturer | WDC |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Secured boot disk | False |
| Serial number | V6V2L6LA |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
HDD
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | C004 |
| Hypervisor disk | True |
| Manufacturer | SEAGATE |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 10500 rpm |
| Secured boot disk | False |
| Serial number | WBN3AW060000C036516V |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | C003 |
| Hypervisor disk | True |
| Manufacturer | SEAGATE |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 10500 rpm |
| Secured boot disk | False |
| Serial number | WBN1FVRH0000K9277TAC |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | C003 |
| Hypervisor disk | True |
| Manufacturer | SEAGATE |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 10500 rpm |
| Secured boot disk | False |
| Serial number | WBN1B7QZ0000K923B2PF |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Manufacturer | Seagate |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 500.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Power on hours | 0 |
| Product part number | Samsung SSD 860 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Manufacturer | Seagate |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Manufacturer | Seagate |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Manufacturer | Seagate |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Manufacturer | Seagate |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 500.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Power on hours | 0 |
| Product part number | Samsung SSD 860 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | C003 |
| Hypervisor disk | True |
| Manufacturer | SEAGATE |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 10500 rpm |
| Secured boot disk | False |
| Serial number | WBN1EH950000K93000FK |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Capacity | 800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Manufacturer | Seagate |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | C001 |
| Hypervisor disk | True |
| Manufacturer | SEAGATE |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 10500 rpm |
| Secured boot disk | False |
| Serial number | WBN00K6G0000E802B5B0 |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | C003 |
| Hypervisor disk | True |
| Manufacturer | SEAGATE |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 10500 rpm |
| Secured boot disk | False |
| Serial number | WBN0DZLT0000E837B2FX |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
Et enfin, les informations concernant le ou les GPU éventuellement installés avec les détails résiduels concernant les logs affichés :
GPU
+--------------------------------------------------------------------------------------------------+
| Class | Display controller:VGA compatible controller:VGA controller |
| Device | MGA G200e [Pilot] ServerEngines (SEP1) |
| Revision | 5 |
| Slot | 0000:08:00.0 |
| Sub device | Subsystem device 0103 |
| Sub vendor | Intel Corporation |
| Vendor | Matrox Electronics Systems Ltd. |
+--------------------------------------------------------------------------------------------------+
INFO: Hardware Info log file can be found at : /home/nutanix/data/hardware_logs
INFO: NuCollector output written to: /home/nutanix/data/hardware_logs/192.168.2.200_output
INFO: The command to verify the output is: cd /home/nutanix/data/hardware_logs && sha224sum -c output.checksum
Refer to KB 7084 (http://portal.nutanix.com/kb/7084) for details on show_hardware_info or Recheck with: ncc hardware_info show_hardware_info
+-----------------------+
| State | Count |
+-----------------------+
| Info | 1 |
| Total Plugins | 1 |
+-----------------------+
Plugin output written to /home/nutanix/data/logs/ncc-output-latest.log
Cette commande est vraiment pratique pour exporter rapidement une liste exhaustive de l’ensemble de la configuration matérielle de son cluster notamment si il est nécessaire de vérifier une compatibilité ou de transmettre les informations au support si cela s’avérait nécessaire.
Lors du déploiement d’un nouveau cluster, le nom du container de stockage par défaut est généré automatiquement et n’est pas spécialement esthétique.
Pour le renommer, une seule solution : passer par la Command Line Interface.
Afin de réaliser cette opération, connectez vous à une CVM de votre cluster et listez l’ensemble des containers existants sur le cluster :
nutanix@CVM : ncli container list
L’ensemble des containers et leurs détails associés va alors s’afficher. Cherchez dans la liste le container que vous souhaitez renommer et tapez la commande suivante :
Remplacez « NOM_ACTUEL » par le nom généré automatiquement par le système lors de la création du container, et NOUVEAU_NOM par le nom que vous souhaitez attribuer à ce container en ne mettant ni espace ni caractère spécial autre que le – et le _
Vérifiez ensuite que votre container a été correctement renommé avec la commande :
nutanix@CVM : ncli container list
Sur Prism Element, vous verrez également apparaitre le nouveau nom que vous avez attribué à votre container de stockage :
C’est dans la feuille de route de Nutanix ! L’authentification par mot de passe est dans le collimateur de l’éditeur qui compte bien y mettre fin et averti ses utilisateurs via une alerte informationnelle :
L’objectif est de faire progressivement basculer les clients vers l’authentification par clés SSH afin de l’imposer dans une future version de son hyperviseur.
Création des clés SSH
Les algorithmes de chiffrement SSH supportés sont :
AES128-CTR
AES192-CTR
AES256-CTR
Si vous possédez déjà une paire de clés de ce type, vous pouvez directement passer à l’intégration au cluster.
Pour créer une paire de clés SSH, nous allons avoir besoin d’un outils comme PuttyGen.
Cliquez sur « Generate » et bougez le curseur de la souris au dessus de la fênetre. Indiquez ensuite une passphrase puis sauvegardez la clé publique et la clé privée.
ATTENTION : veillez à utiliser une passphrase forte et non prédictible.
Il faut maintenant intégrer la clé publique au cluster.
Intégration de la clé publique au cluster
Pour intégrer votre clé publique à votre cluster, connectez vous à l’interface Prism et rendez vous dans « Settings > Cluster Lockdown »
Cliquez sur « New Public Key », donnez lui un nom, collez y le contenu de votre clé publique et validez.
A ce stade, l’authentification classique par mot de passe et celle par clé SSH sont toutes les deux actives et fonctionnelles, il est temps de tester.
Tests et activation du cluser lockdown
Pour commencer, nous allons tester l’authentification via clé SSH. Pas de panique, quoi qu’il arrive, même si la connexion SSH via les clés ne fonctionne pas après l’activation du cluster lockdown, vous pourrez toujours faire marche arrière via l’interface Prism.
Configurez votre outils de connexion SSH préféré, intégrez y votre clé privée puis lancez une connexion à votre cluster Nutanix. En premier lieu, renseignez le login que vous souhaitez utiliser, ici j’ai choisi « nutanix » :
Puis saisissez la passphrase que vous avec configuré lors de la création de votre clé SSH. Validez, vous voilà connecté à votre cluster via votre clé SSH sans avoir eu à utiliser le mot de passe du compte « nutanix ».
Désactivons maintenant l’authentification par mot de passe en retournant dans le menu « Settings > Cluster Lockdown ». Décochez la case « Enable Remote Login with Password » :
Retentez de vous connecter en utilisant le compte « nutanix » et le mot de passe habituel et constatez que vous ne pouvez plus vous connecter avec cette méthode :
Tentez maintenant avec votre clé privée :
Votre cluster est désormais accessible en SSH uniquement via le système de clés SSH. Si vous êtes plusieurs administrateurs à intervenir sur le serveur, n’oubliez pas de répéter l’opération pour chacun d’entre eux.
Point important : pensez à garder vos clés privées en lieu sûr et à utiliser une passphrase forte.
La mise à jour d’un cluster hyperconvergé peut parfois être chronophage et présenter certains risques d’interruption de la production si le processus est mal maitrisé.
Nutanix a optimisé le processus de mise à jour de ses cluster afin que ce soit le plus simple et le plus automatisé possible, le fameux « 1-click upgrade ».
Life Cycle Manager sur Prism Element
LCM présente de légères différences entre Prism Element et Prism Central. Voici a quoi l’interface ressemble sur Prism Element :
LCM sur Prism Element permet de gérer les mises à jour d’une partie des briques de votre cluster :
AHV
AOS
Cluster Maintenance Utilities
File
Flow
Foundation
Licensing
NCC
Ce sont ces briques que vous pourrez mettre à jour au travers de Prism Element.
Life Cycle Manager sur Prism Central
LCM sur Prism Central permet de gérer la mise à jour des briques restantes qui sont principalement les briques logicielles :
Life Cycle Manager : l’inventaire
Le LCM Inventory, que ce soit sur Prism Element ou Prism Central, permet de répertorier l’ensemble des versions logicielles et matérielles installées sur votre cluster, ainsi que les éventuelles mises à jour ou firmware disponibles :
Le processus d’inventaire dure une dizaine de minutes environ :
Il permet ensuite d’accéder à l’ensemble des versions installées et disponibles :
LCM : l’ordre de mise à jour recommandé
Avec la multitude briques logicielles et la partie matérielle, il n’est pas toujours aisé de savoir dans quel ordre mettre les différents modules à jour.
La première étape des mises à jour de votre cluster se passe sur Prism Central :
Les actions à réaliser dans l’ordre :
LCM inventory
NCC Check and Upgrade
Prism Central Upgrade
Il faut ensuite basculer sur Prism Element pour la deuxième étape :
Les actions à réaliser dans l’ordre :
LCM inventory
NCC Check and Upgrade
Foundation Upgrade
AOS Upgrade
Firmwares Upgrade
AHV Upgrade
Il est recommandé de refaire un LCM inventory une fois la mise à jour d’AHV terminée afin de vérifier qu’il ne reste pas de mise à jour matérielle à appliquer.
Vient enfin la dernière étape, à nouveau sur Prism Central :
Les actions à réaliser dans l’ordre :
LCM inventory
Toutes les mises à jour logicielles (Nutanix Files, Self-Services (Calm), NKE (Karbon), NDB, Flow…)
Pour réaliser les mises à jour souhaitées, il suffit de les cocher puis de cliquer sur « View upgrade plan » :
Une fois le plan de mise à jour élaboré par LCM, il faut cliquer une dernière fois pour lancer le processus :
Chaque étape du processus nécessite du temps car le cluster multiplie les contrôles à chaque étapes pour vérifier la conformité des mises à jour installées :
Il est important de préciser que le processus de mise à jour du cluster, exception faite de certains briques logicielles, ne provoque pas d’arrêt de service si les bonnes pratiques sont respectées concernant la tolérance de panne.
Nutanix dispose d’une brique permettant d’automatiser le déploiement et le cycle de vie des applications : Nutanix Self-Service (anciennement Calm).
Je vais vous montrer comment déployer Nutanix Self-Service sur votre cluster Nutanix.
Présentation de Nutanix Self-Service
Self-Service (anciennement Calm) rationalise la gestion, le déploiement et l’évolutivité des applications dans les clouds hybrides grâce au libre-service, à l’automatisation et à la gouvernance centralisée basée sur les rôles.
Déployer Nutanix Self-Service
Pour déployer Nutanix Self-Service, vous devez impérativement disposer d’un Prism Central fonctionnel sur votre cluster. En effet, la quasi totalité des briques complémentaires de Nutanix sont gérées par Prism Central, ne le cherchez donc pas sur Prism Element.
Dans le menu latéral, cherchez la rubrique « Services » et cliquez sur « Calm » (l’ancienne appellation de Nutanix Self-Service) :
Le déploiement est très simple, il suffit ensuite de cliquer sur « Enable App. Orchestration » :
La première case est à cocher impérativement pour pouvoir déployer Self-Service, la seconde est optionnelle mais fortement recommandée car elle permet d’accéder au catalogue en ligne proposant une pléthore de blueprints prêt à l’emploi.
Une fois que vous avez fait votre choix, cliquez sur « Save » et patientez une dizaine de minutes pendant que Self-Service se déploie :
Une fois le déploiement achevé, un nouveau Volume Groups sera disponible sur votre cluster Nutanix :
Ca y est, Nutanix Self-Service est déployé et prêt à l’emploi :
Il arrive que le compte admin d’un cluster Nutanix soit verrouillé à cause d’un trop grand nombre d’échec d’authentification et que vous ne puissiez plus vous y connecter.
La plupart du temps, cela est consécutif à un changement du mot de passe du compte admin sur le cluster si celui ci est utilisé sur d’autres systèmes comme Nutanix Move ou HYCU par exemple.
Voici comment réinitialiser le mot de passe du compte « admin » d’un cluster
Retirer le compte « admin » des routines
Pour commencer, si vous ne voulez pas que le problème se reproduise, il faut impérativement retirer le compte « admin » du cluster des éléments qui peuvent causer cela. Cela peut être le logiciel de sauvegarde, une brique Nutanix (Move par exemple), un outils de supervision éventuellement.
Il est important de ne pas utiliser le compte « admin » d’un cluster pour connecter un outils sur le cluster.
Réinitialiser le mot de passe « admin »
Connectez vous en SSH à une CVM du cluster Nutanix sur lequel le compte est verrouillé avec le compte « root ».
Saisissez ensuite la commande suivante :
passwd admin
Entrez 2 fois le nouveau mot de passe, le mot de passe est remis à neuf.
Déverrouiller le compte « admin »
Pour déverrouiller le compte « admin », entrez la commande suivante :
Dans le cadre de la mise en place de labs sur une infrastructure Nutanix, vous pouvez être amené à déployer un hyperviseur (ESXi, Promox, Hyper-V…) sur l’hyperviseur AHV (Inception !).
Vous serez alors confronté à ce type de message d’erreur lors de l’installation d’ESXi par exemple (la forme diffère pour d’autres hyperviseurs, mais le fond reste le même) :
Le processeur ne sera pas détecté comme étant doté de capacités de virtualisation et vous ne pourrez donc pas déployer d’hyperviseur… Mais il est possible de bypasser cette restriction.
Nutanix AHV : bypasser la restriction processeur
Je pars du principe que la machine virtuelle sur laquelle vous souhaitez déployer un hyperviseur est déjà créée.
Pour bypasser la restriction processeur, il faut se connecter à une des CVMs de notre cluster et modifier notre machine virtuelle avec la commande acli vm.update et le paramètre « cpu_passthrough » :
Attention, cette commande ne fonctionnera que si votre machine virtuelle est éteinte.
Une fois que la commande est appliquée vous pouvez relancer votre installation… Excepté pour ESXi qui nécessite encore une petite subtilité !
Nutanix AHV : tronquer le type de carte réseau pour installer ESXi
Pour installer un ESXi niché sur Nutanix AHV et qu’il soit pleinement fonctionnel, vous devez également modifier les adaptateurs réseaux pour lui faire croire qu’ils sont de type e1000.
Pour cela, toujours machine virtuelle éteinte, connectez vous à une des CVMs, et tapez la commande suivante :
Veillez à remplacer VM_NAME par le nom de la machine virtuelle concernée, et NETWORK_NAME par un des réseaux préalablement créé sur votre cluster Nutanix. Vous obtiendrez le message suivant :
Avec la flambée des prix sur les licences VMWare liée au rachat de l’entreprise par Broadcom, nombreux sont les clients à chercher des solutions alternatives à ESXi afin d’échapper à une facture salée.
Parmi les alternatives, il existe bien évidemment Nutanix parmi les alternatives mais les clients sont assez frileux en ce qui concerne la migration de VMWare ESXi vers Nutanix AHV, une tâche qui peut être fastidieuse si il faut migrer les VMs une à une.
C’est là que Nutanix Move entre en jeu. Nutanix Move est un outils mis à disposition par Nutanix pour faciliter la migration des machines virtuelles vers n’importe quel cloud.
Ce qui va nous intéresser est principalement une migration d’ESXi ou d’Hyper-V vers Nutanix AHV.
Nutanix Move : récupération de la machine virtuelle
Pour récupérer l’image de la machine virtuelle, il faut se connecter au portail Support de Nutanix : https://portal.nutanix.com/ puis aller dans la section « Downloads » :
Cliquer sur « Move » et télécharger sur le bouton « Move QCOW2 file for AHV » :
Pour déployer la machine virtuelle Nutanix Move, aller dans VMs, cliquer sur « Create VM » et renseigner le formulaire de création de machine virtuelle :
Dans la partie Disks, ajouter un disque de type « DISK », dans operation sélectionner « Clone from Image Service » et sélectionner l’image précédemment téléchargée :
Cliquer sur « Add » puis ajouter une interface réseau, la machine virtuelle est déployée.
Accès à Nutanix Move
Nutanix Move est accessible en http via l’IP qui lui a été attribuée :
La première étape est de changer le mot de passe d’accès :
Nutanix Move est désormais déployé, nous verrons dans un prochain article comment ajouter des environnements cibles.
We use cookies to improve your experience on our site. By using our site, you consent to cookies.
This website uses cookies
Websites store cookies to enhance functionality and personalise your experience. You can manage your preferences, but blocking some cookies may impact site performance and services.
Essential cookies enable basic functions and are necessary for the proper function of the website.
Name
Description
Duration
Cookie Preferences
This cookie is used to store the user's cookie consent preferences.
30 days
These cookies are needed for adding comments on this website.
Name
Description
Duration
comment_author
Used to track the user across multiple sessions.
Session
comment_author_email
Used to track the user across multiple sessions.
Session
comment_author_url
Used to track the user across multiple sessions.
Session
Statistics cookies collect information anonymously. This information helps us understand how visitors use our website.
Matomo is an open-source web analytics platform that provides detailed insights into website traffic and user behavior.