Il arrive parfois que des tâches soient bloquées indéfiniment sur votre cluster sans jamais aboutir ni échouer. Il vous faut alors procéder à une action manuelle pour remédier au problème.
Attention, cette opération n’est pas sans risques, c’est pourquoi je vous conseille vivement de vous rapprocher du support Nutanix si vous n’êtes pas sûr de vous.
La première étape consiste à vérifier depuis combien de temps la tâche s’exécute. Pour cela, rendez vous sur la page des tâches et filtrez sur les tâches en cours d’exécution :
Dans le cas présent, nous pouvons constater que la tâche s’exécute depuis plus de 10 mois. Aucun doute, elle est plantée et doit être annulée manuellement.
Pour ce faire, il faut se connecter à une des CVMs et taper la commande suivante :
Après une installation réussie de Nutanix AHV, l’ensemble des mots de passe configurés sur le cluster sont les mots de passe par défaut « nutanix/4u » et il est impératif de les changer pour une sécurité maximale.
Recommandations concernant la complexité
Vous devez impérativement choisir des mots de passe forts pour sécuriser votre infrastructure et qu’ils soient uniques !
La complexité minimum requise par Nutanix est :
8 caractères
1 minuscule minimum
1 majuscule maximum
1 chiffre minimum
1 caractère spécial
Certains mots de passe du cluster vous demanderons également de respecter certaines contraintes liées à l’historique du mot de passe.
De manière générale, je vous préconiserais d’utiliser un générateur de mot de passe bien souvent intégré à votre logiciel de gestion des mots de passe pour créer vos mots de passe et d’appliquer une longueur d’au minimum 16 caractères en respectant les règles de complexité indiquées ci-dessus.
Le mot de passe admin de Prism Element
Cette étape est indispensable et vous ne pouvez pas la contourner. Si c’est bien la première fois que vous vous y connectez, le login est « admin » et le mot de passe « nutanix/4u ». Le système va vous demander de configurer un nouveau mot de passe en respectant les critères de complexité.
Le mot de passe SSH « Nutanix » de la CVM
Si vous laissez le mot de passe par défaut, vous aurez des messages d’alertes critiques sur votre interface Prism Element.
Pour y remédier, connectez vous à l’IP d’une des CVMs de votre cluster en SSH avec l’identifiant nutanix et le mot de passe par défaut nutanix/4u. Ensuite, un simple « passwd » vous permettra de configurer un nouveau mot de passe :
nutanix@NTNX-99110c89-A-CVM:~$ passwd
Changing password for user nutanix.
Current password:
New password:
Retype new password:
passwd: all authentication tokens updated successfully.
nutanix@NTNX-99110c89-A-CVM:~$
Renseignez le mot de passe actuel, puis 2 fois consécutivement le nouveau mot de passe et le tour est joué !
Les mots de passe SSH des hôtes
Juste, après une installation les mots de passe des hôtes Nutanix sont toujours ceux par défaut et cela va vous générer des alertes critiques sur le cluster.
Pour changer le mot de passe « root » des hôtes, connectez vous à une des CVMs et tapez la commander associée :
nutanix@NTNX-99110c89-A-CVM:192.168.2.200:~$ echo -e "CHANGING ALL AHV HOST ROOT PASSWORDS.\nPlease input new password: "; read -rs password1; echo "Confirm new password: "; read -rs password2; if [ "$password1" == "$password2" ]; then for host in $(hostips); do echo Host $host; echo $password1 | ssh root@$host "passwd --stdin root"; done; else echo "The passwords do not match"; fi
Le système vous demandera alors de saisir 2 fois le nouveau mot de passe :
CHANGING ALL AHV HOST ROOT PASSWORDS.
Please input new password:
Confirm new password:
Host 192.168.2.199
Nutanix AHV
Changing password for user root.
Pour changer le mot de passe « admin » des hôtes, connectez vous à une des CVMs et tapez la commander associée :
nutanix@NTNX-99110c89-A-CVM:192.168.2.200:~$ echo -e "CHANGING ALL AHV HOST ADMIN PASSWORDS.\nPlease input new password: "; read -rs password1; echo "Confirm new password: "; read -rs password2; if [ "$password1" == "$password2" ]; then for host in $(hostips); do echo Host $host; echo $password1 | ssh root@$host "passwd --stdin admin"; done; else echo "The passwords do not match"; fi
Le système vous demandera alors de saisir 2 fois le nouveau mot de passe :
CHANGING ALL AHV HOST ADMIN PASSWORDS.
Please input new password:
Confirm new password:
Host 192.168.2.199
Nutanix AHV
Changing password for user admin.
passwd: all authentication tokens updated successfully.
Pour changer le mot de passe « nutanix » des hôtes, connectez vous à une des CVMs et tapez la commander associée :
nutanix@NTNX-99110c89-A-CVM:192.168.2.200:~$ echo -e "CHANGING ALL AHV HOST NUTANIX PASSWORDS.\nPlease input new password: "; read -rs password1; echo "Confirm new password: "; read -rs password2; if [ "$password1" == "$password2" ]; then for host in $(hostips); do echo Host $host; echo $password1 | ssh root@$host "passwd --stdin nutanix"; done; else echo "The passwords do not match"; fi
Le système vous demandera alors de saisir 2 fois le nouveau mot de passe :
CHANGING ALL AHV HOST NUTANIX PASSWORDS.
Please input new password:
Confirm new password:
Host 192.168.2.199
Nutanix AHV
Changing password for user nutanix.
passwd: all authentication tokens updated successfully.
Après avoir réinstallé mon cluster avec la dernière version de la Nutanix Community Edition, je me suis heurté à un problème pour déployer Prism Central.
En effet, aucune version compatible n’est proposée de base pour l’installation :
Problématique me direz vous ! Effectivement, et pour y remédier nous allons devoir récupérer les binaires pour poursuivre l’installation à la main…
Renseigner la configuration technique puis cliquez sur « Next » :
La dernière fenêtre est une nouveauté des dernières versions, je vous conseille de laisser les paramètres par défaut et de cliquer sur « Deploy » :
Un peu de patience pendant le déploiement :
Une fois le déploiement achevé, rendez vous sur l’adresse de votre Prism Central et authentifiez vous avec le couple d’identifiants par défaut habituel :
Lors de la toute première connexion, il va vous être demandé de configurer un nouveau mot de passe :
Connectez vous ensuite avec le nouveau mot de passe que vous venez de configurer. Validez ensuite les conditions d’utilisation :
Laissez ensuite Pulse activé :
Si ensuite comme moi vous constatez que votre cluster n’est toujours pas enregistré sur Prism Central, retournez sur Prism Element et relancez la procédure en sélectionnant cette fois « Connect » :
Renseignez les éléments de connexion à votre Prism Central et validez pour lancer l’enregistrement :
Félicitations, votre Prism Central en version PC.2024 est maintenant opérationnel sur votre cluster Nutanix sous AOS 6.8
Lors de mes déploiements de cluster Nutanix, je me suis souvent heurté à la question du plan de test à dérouler après chaque installation.
Comme il m’arrivait de parfois oublier certaines choses, j’ai fini par réaliser un plan de test complet, lisible et compréhensible que je mets aujourd’hui à votre disposition.
Le plan de test présenté permet de vérifier et de s’assurer que l’ensemble des configurations ont été mises en place, que la redondance réseau et électrique de votre cluster sont conformes aux bonnes pratiques.
Pour un cas client, nous avons eu à créer plus de 70 subnets sur 2 clusters et réaliser l’opération en passant par l’interface graphique aurait été beaucoup trop long et fastidieux. Voici la méthode pour réaliser l’opération en CLI en seulement quelques minutes.
Création des subnets non-managés
Pour me rendre la tâche beaucoup plus facile, j’ai créé un fichier Excel au format .csv dans lequel j’ai mis 3 colonnes :
L’idée est de remplir la colonne VLAN_NAME et VLAN_ID avec le nom des VLANs et leurs ID associés, fournis par le client dans le Predelivery Questionnaire :
Ce qui donnerai :
Enregistrer le fichier puis l’ouvrir avec Notepad++ :
Remplacer le caractère « ; » par un espace :
Remplacer ensuite « vlan= » par « vlan= » pour recoller l’ID des VLANs à la commande :
Connectez vous ensuite à une CVM de votre cluster et faites un copier coller de toutes les lignes en une seule fois dans l’interface en ligne de commandes :
Nutanix Controller VM (CVM) is a virtual storage appliance.
Alteration of the CVM (unless advised by Nutanix Technical Support or
Support Portal Documentation) is unsupported and may result in loss
of User VMs or other data residing on the cluster.
Unsupported alterations may include (but are not limited to):
- Configuration changes / removal of files.
- Installation of third-party software/scripts not approved by Nutanix.
- Installation or upgrade of software packages from non-Nutanix
sources (using yum, rpm, or similar).
** SSH to CVM via 'nutanix' user will be restricted in coming releases. **
** Please consider using the 'admin' user for basic workflows. **
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_10 vlan=10
acli net.create VLAN_26 vlan=26
acli net.create VLAN_27 vlan=27
acli net.create VLAN_28 vlan=28
acli net.create VLAN_29 vlan=29
acli net.create VLAN_30 vlan=30
acli net.create VLAN_31 vlan=31
acli net.create VLAN_32 vlan=32
acli net.create VLAN_33 vlan=33
acli net.create VLAN_34 vlan=34
acli net.create VLAN_35 vlan=35
acli net.create VLAN_36 vlan=36
acli net.create VLAN_37 vlan=37
acli net.create VLAN_38 vlan=38
acli net.create VLAN_39 vlan=39
acli net.create VLAN_40 vlan=40nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_11 vlan=11
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_12 vlan=12
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_13 vlan=13
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_14 vlan=14
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_15 vlan=15
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_16 vlan=16
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_17 vlan=17
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_18 vlan=18
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_19 vlan=19
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_20 vlan=20
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_21 vlan=21
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_22 vlan=22
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_23 vlan=23
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_24 vlan=24
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_25 vlan=25
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_26 vlan=26
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_27 vlan=27
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_28 vlan=28
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_29 vlan=29
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_30 vlan=30
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_31 vlan=31
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_32 vlan=32
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_33 vlan=33
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_34 vlan=34
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_35 vlan=35
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_36 vlan=36
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_37 vlan=37
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_38 vlan=38
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_39 vlan=39
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$ acli net.create VLAN_40 vlan=40
nutanix@NTNX-e854cc31-A-CVM:192.168.2.200:~$
Un petit contrôle sur l’interface Prism Element pour confirmer la bonne création de vos VLANs :
L’étape supplémentaire, c’est le remplacement de « GATEWAY/MASK » par la passerelle du réseau que vous souhaitez ajouter accompagné de son masque de sous réseau. Exemple :
Ensuite, il faut bien sûr refaire le nettoyage de votre fichier via Notepad pour remplacer par un espace ou supprimer les « ; » avant d’importer tout cela dans votre terminal SSH.
Dans notre exemple, vous allez créer le réseau suivant :
Pour supprimer des subnets le principe est similaire, il suffit de remplacer « net.create » par « net.delete » et de n’indiquer que le nom des subnets à supprimer :
Ayant récupéré un vieux serveur destiné au recyclage pour m’en faire un lab Nutanix sur la Community Edition, je n’ai jamais eu sa configuration détaillée.
En cherchant dans les commandes Nutanix, j’ai trouvé une commande qui permet de réaliser un inventaire matériel exhaustif :
La commande renvoie dans un premier temps les informations générales du cluster (nom, ID, UUID, Version, IPs…) :
####################################################
# TIMESTAMP : Fri Jul 26 09:07:43 2024 (UTC +0000) #
####################################################
Cluster Name: MiddleEarth
Cluster Id: 585086141872525258
Cluster UUID: 00061c09-6abd-7835-081e-a4bf0150cfca
Cluster Version: 6.5.2
NCC Version: 4.6.6.3-5e8b6399
CVM ID(Svmid) : 2
CVM external IP : 192.168.2.200
Hypervisor IP : 192.168.2.199
Hypervisor version : Nutanix 20220304.342
IPMI IP : 192.168.2.139
Node serial : BQWL80251503
Model : CommunityEdition
Node Position : A
Block S/N : e854cc31
Puis la commande va commencer à renvoyer les informations générales concernant le cluster à savoir l’hyperviseur, le fabricant, l’ensemble des informations du noeud (position, nom d’hote, fabricant, modèle, numéro de série…), les informations du bios et de l’interface de management :
Running /hardware_info/show_hardware_info [ INFO ]
------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
Detailed information for show_hardware_info:
Node 192.168.2.200:
INFO:
--------------------------------------------------------------------------------
Updated: Thu, 25 Jul 2024 12:54:59 UTC
Host UUID: 22dd9131-373f-482a-818f-c60b06988a7d
CVM IP: 192.168.2.200
Hypervisor Version:el7.nutanix.20220304.342
NOS Version:el7.3-release-fraser-6.5.2-stable-f2ce4db7d67f495ebfd6208bef9ab0afec9c74af
NCC Version:4.6.6.3-5e8b6399
--------------------------------------------------------------------------------
Nutanix Product Info
+--------------------------------------------------------------------------------------------------+
| Manufacturer | Intel Corporation |
| Product name | CommunityEdition |
| Product part number | CommunityEdition |
| Configured Serial Number | e854cc31 |
+--------------------------------------------------------------------------------------------------+
Chassis
+--------------------------------------------------------------------------------------------------+
| Bootup state | Safe |
| Manufacturer | ............................... |
| Serial number | .................. |
| Thermal state | Safe |
| Version | .................. |
+--------------------------------------------------------------------------------------------------+
Node Module
+--------------------------------------------------------------------------------------------------+
| Node Position | A |
| Bootup state | Safe |
| Host name | NTNX-e854cc31-A |
| Hypervisor type | KVM |
| Manufacturer | Intel Corporation |
| Product name | S2600WTTR |
| Product part number | G92187-372 |
| Serial number | BQWL80251503 |
| Thermal state | Safe |
| Version | G92187-372 |
+--------------------------------------------------------------------------------------------------+
BIOS Information
+--------------------------------------------------------------------------------------------------+
| Release date | 09/02/2020 |
| Revision | 0.0 |
| Rom size | 16384 KB |
| Vendor | Intel Corporation |
| Version | SE5C610.86B.01.01.1029.090220201031 |
+--------------------------------------------------------------------------------------------------+
BMC
+--------------------------------------------------------------------------------------------------+
| Device id | 33 |
| Device available | True |
| Device revision | 1 |
| Firmware revision | 1.61.1 |
| Ipmi version | 2.0 |
| Manufacturer | Intel Corporation |
| Manufacturer id | 343 |
| Product id | 111 (0x006f) |
+--------------------------------------------------------------------------------------------------+
Le contrôleur de stockage est ensuite remonté :
Storage Controller
+--------------------------------------------------------------------------------------------------+
| Location | ioc0 |
| Driver name | virtio-pci |
| Manufacturer | Red Hat, Inc. |
| Status | running |
+--------------------------------------------------------------------------------------------------+
| Location | ioc0 |
| Driver name | virtio-pci |
| Manufacturer | Red Hat, Inc. |
| Status | running |
+--------------------------------------------------------------------------------------------------+
Puis c’est au tour de l’ensemble des informations générales sur la mémoire installée :
Physical Memory Array
+--------------------------------------------------------------------------------------------------+
| Bank | NODE 1 |
| Configured slots | 5 |
| Max size | 384 GB |
| Num slots | 12 |
| Total installed size | 160 GB |
+--------------------------------------------------------------------------------------------------+
| Bank | NODE 2 |
| Configured slots | 6 |
| Max size | 384 GB |
| Num slots | 12 |
| Total installed size | 192 GB |
+--------------------------------------------------------------------------------------------------+
Ce sont ensuite les informations concernant les alimentations qui s’affichent :
System Power Supply
+--------------------------------------------------------------------------------------------------+
| Location | Pwr Supply 1 FRU (ID 2) |
| Manufacturer | None |
| Max power capacity | 0.0 W |
| Product part number | G84027-009 |
| Revision | None |
| Serial number | EXWD80400190 |
| Status | OK |
+--------------------------------------------------------------------------------------------------+
| Location | Pwr Supply 2 FRU (ID 3) |
| Manufacturer | None |
| Max power capacity | 0.0 W |
| Product part number | G84027-009 |
| Revision | None |
| Serial number | EXWD82000830 |
| Status | OK |
+--------------------------------------------------------------------------------------------------+
| Location | To Be Filled By O.E.M. |
| Manufacturer | To Be Filled By O.E.M. |
| Max power capacity | 0.0 W |
| Product part number | To Be Filled By O.E.M. |
| Revision | To Be Filled By O.E.M. |
| Serial number | To Be Filled By O.E.M. |
| Status | Unknown |
+--------------------------------------------------------------------------------------------------+
Puis celles concernant le ou les processeurs :
Processor Information
+--------------------------------------------------------------------------------------------------+
| Socket designation | Socket 1 |
| Core count | 10 |
| Core enabled | 10 |
| Current speed | 2400 MHz |
| External clock | 100 MHz |
| Id | 0xbfebfbff000406f1L |
| L1 cache size | 640 KB |
| L2 cache size | 2560 KB |
| L3 cache size | 25600 KB |
| Max speed | 4000 MHz |
| Status | POPULATED |
| Thread count | 20 |
| Type | Central |
| Version | Intel(R) Xeon(R) CPU E5-2640 v4 @ 2.40GHz |
| Voltage | 1.8 V |
+--------------------------------------------------------------------------------------------------+
| Socket designation | Socket 2 |
| Core count | 10 |
| Core enabled | 10 |
| Current speed | 2400 MHz |
| External clock | 100 MHz |
| Id | 0xbfebfbff000406f1L |
| L1 cache size | 640 KB |
| L2 cache size | 2560 KB |
| L3 cache size | 25600 KB |
| Max speed | 4000 MHz |
| Status | POPULATED |
| Thread count | 20 |
| Type | Central |
| Version | Intel(R) Xeon(R) CPU E5-2640 v4 @ 2.40GHz |
| Voltage | 1.8 V |
+--------------------------------------------------------------------------------------------------+
Viennent ensuite les informations détaillées de chaque barrette de mémoire vive installée :
Memory Module
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_A1 |
| Bank connection | NODE 1 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401EA4F9 |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_A2 |
| Bank connection | NODE 1 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401E96DC |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_B1 |
| Bank connection | NODE 1 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401E97B9 |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_B2 |
| Bank connection | NODE 1 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401EA624 |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_C1 |
| Bank connection | NODE 1 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401EA4AB |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_E1 |
| Bank connection | NODE 2 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401EA625 |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_E2 |
| Bank connection | NODE 2 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401E97AC |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_F1 |
| Bank connection | NODE 2 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401EA591 |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_F2 |
| Bank connection | NODE 2 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401EA5D8 |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_G1 |
| Bank connection | NODE 2 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401EA1E7 |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
| Location | DIMM_H1 |
| Bank connection | NODE 2 |
| Capable speed | 2667.000000 MHz |
| Current speed | 2134 MHz |
| Installed size | 32768 MB |
| Manufacturer | Samsung |
| Product part number | M393A4K40CB2-CTD |
| Serial number | 401EA4A9 |
| Type | DDR4 |
+--------------------------------------------------------------------------------------------------+
Puis les informations concernant les cartes réseaux installées :
NIC
+--------------------------------------------------------------------------------------------------+
| Location | eth0 |
| Device name | eth0 |
| Driver name | ixgbe |
| Firmware version | 0x800004f8 |
| Mac address | a4:bf:01:50:cf:ca |
| Manufacturer | Intel Corporation(8086) |
| Product name | Ethernet Controller 10-Gigabit X540-AT2(1528) |
| Sub device | Subsystem device 35c5(35c5) |
| Sub vendor | Intel Corporation(8086) |
| Driver Version | 5.16.5 |
+--------------------------------------------------------------------------------------------------+
| Location | eth1 |
| Device name | eth1 |
| Driver name | ixgbe |
| Firmware version | 0x800004f8 |
| Mac address | a4:bf:01:50:cf:cb |
| Manufacturer | Intel Corporation(8086) |
| Product name | Ethernet Controller 10-Gigabit X540-AT2(1528) |
| Sub device | Subsystem device 35c5(35c5) |
| Sub vendor | Intel Corporation(8086) |
| Driver Version | 5.16.5 |
+--------------------------------------------------------------------------------------------------+
S’affichent ensuite l’ensemble des disques de stockages installés, HDD comme SSD :
SSD
+--------------------------------------------------------------------------------------------------+
| Capacity | 120.0 GB |
| Firmware version | 2.22 |
| Hypervisor disk | True |
| Power on hours | 0 |
| Product part number | OCZ-AGILITY3 |
| Secured boot disk | False |
| Serial number | OCZ-6F95UNJ029ACBIFD |
| Smartctl status | PASSED |
+--------------------------------------------------------------------------------------------------+
| Capacity | 800.0 GB |
| Firmware version | C925 |
| Hypervisor disk | True |
| Manufacturer | WDC |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Secured boot disk | False |
| Serial number | V6V2TU8A |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Location | 5 |
| Capacity | 500.0 GB |
| Firmware version | RVT04B6Q |
| Hypervisor disk | True |
| Power on hours | 3921 |
| Product part number | Samsung SSD 860 EVO 500GB |
| Secured boot disk | False |
| Serial number | S4CNNX0N803693N |
| Smartctl status | PASSED |
+--------------------------------------------------------------------------------------------------+
| Location | 6 |
| Capacity | 800.0 GB |
| Firmware version | C925 |
| Hypervisor disk | True |
| Manufacturer | WDC |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Secured boot disk | False |
| Serial number | V6V2PDUA |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Location | 8 |
| Capacity | 800.0 GB |
| Firmware version | C925 |
| Hypervisor disk | True |
| Manufacturer | WDC |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Secured boot disk | False |
| Serial number | V6V2U2TA |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Location | 9 |
| Capacity | 800.0 GB |
| Firmware version | C925 |
| Hypervisor disk | True |
| Manufacturer | WDC |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Secured boot disk | False |
| Serial number | V6V2SYZA |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Location | 10 |
| Capacity | 500.0 GB |
| Firmware version | RVT04B6Q |
| Hypervisor disk | True |
| Power on hours | 3926 |
| Product part number | Samsung SSD 860 EVO 500GB |
| Secured boot disk | False |
| Serial number | S4CNNX0N803688F |
| Smartctl status | PASSED |
+--------------------------------------------------------------------------------------------------+
| Location | 12 |
| Capacity | 800.0 GB |
| Firmware version | C925 |
| Hypervisor disk | True |
| Manufacturer | WDC |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Secured boot disk | False |
| Serial number | V6V2L6LA |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
HDD
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | C004 |
| Hypervisor disk | True |
| Manufacturer | SEAGATE |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 10500 rpm |
| Secured boot disk | False |
| Serial number | WBN3AW060000C036516V |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | C003 |
| Hypervisor disk | True |
| Manufacturer | SEAGATE |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 10500 rpm |
| Secured boot disk | False |
| Serial number | WBN1FVRH0000K9277TAC |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | C003 |
| Hypervisor disk | True |
| Manufacturer | SEAGATE |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 10500 rpm |
| Secured boot disk | False |
| Serial number | WBN1B7QZ0000K923B2PF |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Manufacturer | Seagate |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 500.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Power on hours | 0 |
| Product part number | Samsung SSD 860 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Manufacturer | Seagate |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Manufacturer | Seagate |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Manufacturer | Seagate |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Manufacturer | Seagate |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 500.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Power on hours | 0 |
| Product part number | Samsung SSD 860 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | C003 |
| Hypervisor disk | True |
| Manufacturer | SEAGATE |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 10500 rpm |
| Secured boot disk | False |
| Serial number | WBN1EH950000K93000FK |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Capacity | 800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Power on hours | 0 |
| Product part number | WUSTR6480ASS204 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | None |
| Hypervisor disk | False |
| Manufacturer | Seagate |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 0 rpm |
| Secured boot disk | False |
| Serial number | None |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | C001 |
| Hypervisor disk | True |
| Manufacturer | SEAGATE |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 10500 rpm |
| Secured boot disk | False |
| Serial number | WBN00K6G0000E802B5B0 |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
| Capacity | 1800.0 GB |
| Firmware version | C003 |
| Hypervisor disk | True |
| Manufacturer | SEAGATE |
| Power on hours | 0 |
| Product part number | ST1800MM0129 |
| Rotation rate | 10500 rpm |
| Secured boot disk | False |
| Serial number | WBN0DZLT0000E837B2FX |
| Smartctl status | OK |
+--------------------------------------------------------------------------------------------------+
Et enfin, les informations concernant le ou les GPU éventuellement installés avec les détails résiduels concernant les logs affichés :
GPU
+--------------------------------------------------------------------------------------------------+
| Class | Display controller:VGA compatible controller:VGA controller |
| Device | MGA G200e [Pilot] ServerEngines (SEP1) |
| Revision | 5 |
| Slot | 0000:08:00.0 |
| Sub device | Subsystem device 0103 |
| Sub vendor | Intel Corporation |
| Vendor | Matrox Electronics Systems Ltd. |
+--------------------------------------------------------------------------------------------------+
INFO: Hardware Info log file can be found at : /home/nutanix/data/hardware_logs
INFO: NuCollector output written to: /home/nutanix/data/hardware_logs/192.168.2.200_output
INFO: The command to verify the output is: cd /home/nutanix/data/hardware_logs && sha224sum -c output.checksum
Refer to KB 7084 (http://portal.nutanix.com/kb/7084) for details on show_hardware_info or Recheck with: ncc hardware_info show_hardware_info
+-----------------------+
| State | Count |
+-----------------------+
| Info | 1 |
| Total Plugins | 1 |
+-----------------------+
Plugin output written to /home/nutanix/data/logs/ncc-output-latest.log
Cette commande est vraiment pratique pour exporter rapidement une liste exhaustive de l’ensemble de la configuration matérielle de son cluster notamment si il est nécessaire de vérifier une compatibilité ou de transmettre les informations au support si cela s’avérait nécessaire.
Lors du déploiement d’un nouveau cluster, le nom du container de stockage par défaut est généré automatiquement et n’est pas spécialement esthétique.
Pour le renommer, une seule solution : passer par la Command Line Interface.
Afin de réaliser cette opération, connectez vous à une CVM de votre cluster et listez l’ensemble des containers existants sur le cluster :
nutanix@CVM : ncli container list
L’ensemble des containers et leurs détails associés va alors s’afficher. Cherchez dans la liste le container que vous souhaitez renommer et tapez la commande suivante :
Remplacez « NOM_ACTUEL » par le nom généré automatiquement par le système lors de la création du container, et NOUVEAU_NOM par le nom que vous souhaitez attribuer à ce container en ne mettant ni espace ni caractère spécial autre que le – et le _
Vérifiez ensuite que votre container a été correctement renommé avec la commande :
nutanix@CVM : ncli container list
Sur Prism Element, vous verrez également apparaitre le nouveau nom que vous avez attribué à votre container de stockage :
Nutanix vient d’annoncer la mise à disposition de la version 6.8 eSTS d’AOS et avec cette nouvelle version son lot de nouveautés dont…. la version pc2024.1 de Prism Central !
Je ne vais pas détailler l’ensemble des fonctionnalités ajoutées ou mises à jour dans cette nouvelle version d’AOS et vous laisse pour cela consulter les Release Notes.
J’ai plutôt décidé de m’attarder sur une fonctionnalité qui arrive avec la nouvelle version de Prism Central attendue par de nombreux clients qui disposent d’une infrastructure de modeste taille : Prism Central X-Small.
Prism Central X-Small
Parmi toutes les nouveautés rendues disponibles par la nouvelle version pc2024.1 de Prism Central, un ajout de fonctionnalité a retenu toute mon attention : Prism Central X-Small.
Jusqu’à présent, le déploiement de Prism Central n’était possible que selon 3 templates :
Dénomination
Configuration matérielle
Capacité de gestion
Small
6 vCPU / 28Gb RAM / 500Gb Stockage
2500 VMs / 10 Clusters / 200 Noeuds
Large
10 vCPU / 46Gb RAM / 2500Gb Stockage
12500 VMs / 25 Clusters / 500 Noeuds
X-Large
14 vCPU / 62Gb RAM / 2500Gb Stockage
12500 VMs / 25 Clusters / 500 Noeuds
A l’instar du déploiement X-Large qui propose une configuration imposante de Prism Central, il manquait jusqu’à présent un déploiement de taille minimale. Prism Central X-Small vient combler ce vide :
Configuration matérielle
Capacité de gestion
4 vCPU 18Gb RAM 100Gb Stockage
500 VMs 5 Clusters 50 Noeuds
Comme vous pouvez le constater, ce template de Prism Central une configuration matérielle allégée, ce n’est pas le seul point de différenciation avec les autres templates de déploiement.
En effet, de part sa configuration, ce déploiement de Prism Central ne permet pas d’exploiter toutes les fonctionnalités habituellement proposées. Voici les points de différenciation :
Supporté
Non supporté
Multi-cluster management (Up to 5)
Scale-out
VM management
Flow Virtual Networking
Host management
Flow Network Security
Infrastructure management, monitoring and health
Self-Service
Enterprise authentication and RBAC
Intelligent Operations
REST APIs
Nutanix Kubernetes Engine
Comprehensive search
Objects
Life Cycle Manager (LCM)
Files
Pulse Insights
Foundation Central
Prism Central Backup and Restore
Foundation
Categories
Quotas
Projects
Multi-site DR
Microservices infrastructe
Marketplace
Identity and access management
Reporting and Dashboards
Security dashboard
Nearsync / Synchronous replication
Si vous souhaitez bénéficier d’une fonctionnalité non supportée par Prism Central X-Small, vous devrez envisager de déployer un template Small / Large / X-Large.
Cas d’usage
Le principal cas d’usage qui me vient immédiatement en tête est le suivant :
une infrastructure simple
1 à 3 clusters de taille modeste
une centaine de machines virtuelles
pas de besoin de services complémentaires (Flow, Self-Service, NKE…)
C’est le type d’installation que l’on rencontre chez de nombreuses PME ou collectivités territoriales par exemple, l’arrivée de Prism Central X-Small tombe par conséquent à point nommé.
C’est dans la feuille de route de Nutanix ! L’authentification par mot de passe est dans le collimateur de l’éditeur qui compte bien y mettre fin et averti ses utilisateurs via une alerte informationnelle :
L’objectif est de faire progressivement basculer les clients vers l’authentification par clés SSH afin de l’imposer dans une future version de son hyperviseur.
Création des clés SSH
Les algorithmes de chiffrement SSH supportés sont :
AES128-CTR
AES192-CTR
AES256-CTR
Si vous possédez déjà une paire de clés de ce type, vous pouvez directement passer à l’intégration au cluster.
Pour créer une paire de clés SSH, nous allons avoir besoin d’un outils comme PuttyGen.
Cliquez sur « Generate » et bougez le curseur de la souris au dessus de la fênetre. Indiquez ensuite une passphrase puis sauvegardez la clé publique et la clé privée.
ATTENTION : veillez à utiliser une passphrase forte et non prédictible.
Il faut maintenant intégrer la clé publique au cluster.
Intégration de la clé publique au cluster
Pour intégrer votre clé publique à votre cluster, connectez vous à l’interface Prism et rendez vous dans « Settings > Cluster Lockdown »
Cliquez sur « New Public Key », donnez lui un nom, collez y le contenu de votre clé publique et validez.
A ce stade, l’authentification classique par mot de passe et celle par clé SSH sont toutes les deux actives et fonctionnelles, il est temps de tester.
Tests et activation du cluser lockdown
Pour commencer, nous allons tester l’authentification via clé SSH. Pas de panique, quoi qu’il arrive, même si la connexion SSH via les clés ne fonctionne pas après l’activation du cluster lockdown, vous pourrez toujours faire marche arrière via l’interface Prism.
Configurez votre outils de connexion SSH préféré, intégrez y votre clé privée puis lancez une connexion à votre cluster Nutanix. En premier lieu, renseignez le login que vous souhaitez utiliser, ici j’ai choisi « nutanix » :
Puis saisissez la passphrase que vous avec configuré lors de la création de votre clé SSH. Validez, vous voilà connecté à votre cluster via votre clé SSH sans avoir eu à utiliser le mot de passe du compte « nutanix ».
Désactivons maintenant l’authentification par mot de passe en retournant dans le menu « Settings > Cluster Lockdown ». Décochez la case « Enable Remote Login with Password » :
Retentez de vous connecter en utilisant le compte « nutanix » et le mot de passe habituel et constatez que vous ne pouvez plus vous connecter avec cette méthode :
Tentez maintenant avec votre clé privée :
Votre cluster est désormais accessible en SSH uniquement via le système de clés SSH. Si vous êtes plusieurs administrateurs à intervenir sur le serveur, n’oubliez pas de répéter l’opération pour chacun d’entre eux.
Point important : pensez à garder vos clés privées en lieu sûr et à utiliser une passphrase forte.
La mise à jour d’un cluster hyperconvergé peut parfois être chronophage et présenter certains risques d’interruption de la production si le processus est mal maitrisé.
Nutanix a optimisé le processus de mise à jour de ses cluster afin que ce soit le plus simple et le plus automatisé possible, le fameux « 1-click upgrade ».
Life Cycle Manager sur Prism Element
LCM présente de légères différences entre Prism Element et Prism Central. Voici a quoi l’interface ressemble sur Prism Element :
LCM sur Prism Element permet de gérer les mises à jour d’une partie des briques de votre cluster :
AHV
AOS
Cluster Maintenance Utilities
File
Flow
Foundation
Licensing
NCC
Ce sont ces briques que vous pourrez mettre à jour au travers de Prism Element.
Life Cycle Manager sur Prism Central
LCM sur Prism Central permet de gérer la mise à jour des briques restantes qui sont principalement les briques logicielles :
Life Cycle Manager : l’inventaire
Le LCM Inventory, que ce soit sur Prism Element ou Prism Central, permet de répertorier l’ensemble des versions logicielles et matérielles installées sur votre cluster, ainsi que les éventuelles mises à jour ou firmware disponibles :
Le processus d’inventaire dure une dizaine de minutes environ :
Il permet ensuite d’accéder à l’ensemble des versions installées et disponibles :
LCM : l’ordre de mise à jour recommandé
Avec la multitude briques logicielles et la partie matérielle, il n’est pas toujours aisé de savoir dans quel ordre mettre les différents modules à jour.
La première étape des mises à jour de votre cluster se passe sur Prism Central :
Les actions à réaliser dans l’ordre :
LCM inventory
NCC Check and Upgrade
Prism Central Upgrade
Il faut ensuite basculer sur Prism Element pour la deuxième étape :
Les actions à réaliser dans l’ordre :
LCM inventory
NCC Check and Upgrade
Foundation Upgrade
AOS Upgrade
Firmwares Upgrade
AHV Upgrade
Il est recommandé de refaire un LCM inventory une fois la mise à jour d’AHV terminée afin de vérifier qu’il ne reste pas de mise à jour matérielle à appliquer.
Vient enfin la dernière étape, à nouveau sur Prism Central :
Les actions à réaliser dans l’ordre :
LCM inventory
Toutes les mises à jour logicielles (Nutanix Files, Self-Services (Calm), NKE (Karbon), NDB, Flow…)
Pour réaliser les mises à jour souhaitées, il suffit de les cocher puis de cliquer sur « View upgrade plan » :
Une fois le plan de mise à jour élaboré par LCM, il faut cliquer une dernière fois pour lancer le processus :
Chaque étape du processus nécessite du temps car le cluster multiplie les contrôles à chaque étapes pour vérifier la conformité des mises à jour installées :
Il est important de préciser que le processus de mise à jour du cluster, exception faite de certains briques logicielles, ne provoque pas d’arrêt de service si les bonnes pratiques sont respectées concernant la tolérance de panne.
We use cookies to improve your experience on our site. By using our site, you consent to cookies.
This website uses cookies
Websites store cookies to enhance functionality and personalise your experience. You can manage your preferences, but blocking some cookies may impact site performance and services.
Essential cookies enable basic functions and are necessary for the proper function of the website.
Name
Description
Duration
Cookie Preferences
This cookie is used to store the user's cookie consent preferences.
30 days
These cookies are needed for adding comments on this website.
Name
Description
Duration
comment_author
Used to track the user across multiple sessions.
Session
comment_author_email
Used to track the user across multiple sessions.
Session
comment_author_url
Used to track the user across multiple sessions.
Session
Statistics cookies collect information anonymously. This information helps us understand how visitors use our website.
Matomo is an open-source web analytics platform that provides detailed insights into website traffic and user behavior.