Aujourd’hui, je vais vous présenter la méthode de déploiement de la solution de sauvegarde HYCU sur mon cluster Nutanix AHV.
Dans le précédent article, je vous ai présenté les prérequis nécessaires à l’installation de la solution avec notamment l’envoi des fichiers d’installation HYCU vers le cluster Nutanix AHV. A ce stade, vous devriez donc avoir la version désirée d’HYCU disponible sur votre cluster :
Dans mon cas, j’ai volontairement placé 3 versions différentes du logiciel afin de pouvoir montrer :
le déploiement de la solution
l’upgrade avec upgrade path
Sizing
Avant de procéder à l’installation, il faut d’abord la dimensionner en fonction de nos besoins. Pour cela, HYCU donne des indications sur les tailles de VM en fonction de la quantité de machines virtuelles à sauvegarder :
Dans mon cas, ayant moins de 50 machines virtuelles à sauvegarder, je vais partir sur la plus petite des tailles :
8 vCPU
8Gb RAM
32Gb de stockage
Maintenant que ma VM est dimensionnée, passons à son déploiement.
Déploiement du contrôleur HYCU
Pour déployer la VM HYCU,, il faut se connecter au Prism Element, se rendre dans le menu « VM » et cliquer sur « Create VM ». Dans la fenêtre qui s’affiche, je lui donne un nom et je passe à la suite :
Je sais les valeurs retenues lors du dimensionnement dans la section « Compute Details » :
Et j’ajoute ensuite le premier disque de type « DISK » en tant que « Clone from Image Service » et je sélection l’image que j’ai précédemment chargée sur mon cluster « hycu-4.9.0-5310 » :
J’ajoute ensuite un second disque de type « DISK » cette fois ci, en « Allocate on Storage Container » puisqu’il s’agit d’un disque vierge de 32Gb que je place sur le container de stockage par défaut :
Enfin, j’affecte une carte réseau à ma machine virtuelle sur le sous réseau de mon choix :
Ma machine virtuelle est maintenant déployée, je peux la démarrer :
Mon prochain article détaillera la configuration initiale de la machine virtuelle HYCU qui permettra de finaliser l’initialisation du système et d’accéder à l’interface d’administration de la solution.
Dans mon précédent article, je vous ai présenté la solution de sauvegarde HYCU. Je vais maintenant vous décrire mon environnement de déploiement et vous expliquer comment récupérer les sources d’installation de la solution.
Environnement de déploiement
Mon environnement de déploiement est le suivant :
Cluster Nutanix CE2.1 pour déployer et comme source des backups
NAS Synology en guise de destination des backups
C’est suffisant pour tester la solution et simuler un véritable environnement de production.
J’ai déjà paramétré un partage sur le NAS Synology pour recevoir les sauvegardes et je me suis assuré que le cluster Nutanix, la VM HYCU et le NAS Synology pourraient communiquer sans problème.
Je verrais par la suite si je peux simuler un emplacement complémentaire de type S3 pour simuler une externalisation des données en mode « Archivage ».
Passons maintenant à la récupération des fichiers nécessaires à l’installation.
Compatibilité de la solution
Au niveau compatibilité, voici les principaux éléments à avoir en tête sur le scope qui nous intéresse :
Il y a quelques champs à remplir, une personne de chez HYCU va ensuite vous contacter par téléphone (renseignez donc un numéro sur lequel vous êtes joignable !) pour vous demander quelles sont vos motivations.
Une fois l’ensemble des prérequis remplis, HYCU vous fournira un lien de téléchargement qui vous permettra de récupérer l’image d’installation du logiciel au format qcow2, prêt à être importé sur votre cluster Nutanix.
Transfert des images sur le cluster Nutanix
Une fois que vous avez téléchargé l’image qcow2 de HYCU, il faut maintenant la transférer sur votre cluster Nutanix.
Pour cela, connectez vous au Prism Element de votre cluster Nutanix CE et rendez vous dans « Settings > Image Configuration » :
Cliquez sur « Upload image », renseignez le formulaire et sélectionnez l’image précédemment téléchargée :
Comme ce sera un pré-requis lors de futures opérations sur votre HYCU, je vous invite à prendre tout de suite de bonnes habitudes et à nommer votre image selon le modèle HYCU-VERSION-BUILD.
Cliquez sur « Save » pour lancer le transfert et patientez jusqu’à ce que votre image soit traitée par le cluster et qu’elle soit indiquée comme « ACTIVE ».
Pas de traduction autre que l’anglais, il va donc falloir vous mettre à la langue de Shakespeare !
Voilà, vous avez maintenant tout ce qu’il faut pour déployer le contrôleur HYCU sur votre cluster, rendez vous dans un prochain article pour découvrir comment déployer le contrôleur.
Dans un monde où la gestion des données est un enjeu majeur, les entreprises recherchent des solutions de sauvegarde et de reprise après sinistre efficaces, simples et performantes. HYCU se distingue comme une solution de sauvegarde spécifiquement conçue pour les environnements hyperconvergés, en particulier Nutanix.
Cet article est le premier d’un guide complet sur la solution de sauvegarde HYCU, guide que vous pourrez retrouver avec les autres guides ici : https://juliendumur.fr/guides/
Intégration native avec Nutanix
HYCU est la première solution de sauvegarde développée exclusivement pour Nutanix. Contrairement aux solutions traditionnelles adaptées aux infrastructures hyperconvergées, HYCU est conçue pour exploiter pleinement l’écosystème Nutanix. Elle s’intègre directement avec Nutanix AHV et Nutanix Files, garantissant une protection optimale des données sans impacter les performances du système.
Grâce à son intégration API-first, HYCU est capable de s’aligner parfaitement avec l’architecture Nutanix. Cela permet aux administrateurs IT de gérer les sauvegardes et la restauration depuis l’interface Nutanix Prism, offrant ainsi une gestion centralisée et intuitive. Cette approche réduit la courbe d’apprentissage et limite les efforts opérationnels.
Fonctionnalités clés de HYCU pour Nutanix
Contrairement aux solutions traditionnelles nécessitant l’installation d’agents sur chaque machine virtuelle, HYCU repose sur une approche sans agent, réduisant ainsi la consommation des ressources et simplifiant la maintenance. Il est capable de détecter automatiquement les charges de travail et adapte les politiques de sauvegarde en fonction des configurations définies. Cette automatisation minimise les interventions humaines et réduit le risque d’erreur.
L’une des forces de HYCU est sa capacité à effectuer des restaurations granulaire (fichiers individuels, bases de données spécifiques) ou complètes (machines virtuelles entières) en quelques clics, garantissant ainsi une reprise rapide en cas de panne.
HYCU intègre également des technologies avancées de compression et de déduplication des données, réduisant ainsi la consommation de stockage et améliorant les performances globales des sauvegardes. L’intégration natif du verrouillage WORM améliore également l’immutabilité et et la sécurité des données sauvegardées.
Toutefois, HYCU ne se limite pas aux infrastructures Nutanix on-premise. Il prend en charge les environnements cloud hybrides et multi-cloud, permettant aux entreprises de protéger leurs données sur AWS, Google Cloud, et Microsoft Azure. Il est également capable de sauvegarder les environnements VMWare ESXi ou bien des applications SaaS.
Contrairement aux solutions complexes nécessitant des configurations avancées, HYCU propose une approche « plug-and-play » où la mise en place et l’exploitation sont accessibles même aux équipes IT non spécialisées en sauvegarde. L’interface utilisateur intuitive permet aux administrateurs de gérer l’ensemble du cycle de vie des sauvegardes et des restaurations en quelques clics.
Cas d’usage et bénéfices
Les entreprises utilisant HYCU pour Nutanix bénéficient d’une protection de leurs données optimisée sans compromettre les performances de leur infrastructure. Parmi les principaux bénéfices, on retrouve :
La réduction des coûts opérationnels grâce à une gestion simplifiée et une réduction des besoins en stockage.
Le gain de temps significatif grâce à l’automatisation et à la rapidité des restaurations.
Une meilleure continuité des activités avec une reprise rapide après sinistre.
Une protection conforme aux exigences réglementaires grâce aux fonctionnalités de chiffrement et de rétention des données.
HYCU combiné avec les environnements Nutanix est une solution de sauvegarde moderne et innovante qui s’aligne parfaitement avec les principes de l’hyperconvergence. Dans le prochain article, je vous présenterais les différents prérequis nécessaires au déploiement de la solution.
Il y a quelques mois, je m’offrais un Steamdeck pour passer le temps durant ma convalescence après une opération du pied qui m’a cloué à mon canapé. Je vous avais déjà montré que l’on peut administrer un cluster depuis le Steamdeck et j’ai voulu pousser l’expérience un peu plus loin…
Le multi-boot sur le Steamdeck
Pour rendre l’exécution de Foundation for Windows possible sur le Steam deck, il a fallut que je trouve une solution pour faire tourner un Windows 11 à la place du SteamOS nativement embarqué.
Pour réaliser l’opération, j’avais plusieurs options :
remplacer le système d’exploitation embarqué pour passer de SteamOS à Windows 11 mais cela me rajoutait énormément de contraintes pour pouvoir jouer sur la console à mes jeux Steam
mettre en place un système de multi-boot avec un disque externe sur lequel j’aurai installé un Windows 11 mais cela faisait un périphérique possiblement encombrant à trimballer…
L’objectif étant d’avoir une solution de boot additionnelle pour mon Steamdeck afin de pouvoir expérimenter Windows sur la machine dans diverses situations sans avoir à supprimer le système d’exploitation embarqué nativement, j’ai opté pour la deuxième option et je me suis mis en quête d’un disque externe qui ferait l’affaire.
Le Genki Savepoint est un boîtier pour mini SSD conçu pour une utilisation portable. Sur le papier, voici les promesses du boitier :
Compatible SSD M.2 2230
Capacité max de 2Tb
Vitesse de transfert de 10Gb/s
Chargement 100w
Dissipateur de chaleur intégré
Condensateur de protection intégré
Je me suis donc empressé de soutenir le projet en commandant 2 boitiers que j’ai fini par recevoir après quelques semaines d’attentes. J’y ai ajouté un SSD M.2 2230 de 1Tb pour pouvoir avoir un espace suffisant quelle que soit l’utilisation que j’en aurai…
Exit SteamOS, bonjour Windows 11 !
Une fois le boitier et le SSD reçus, j’ai procédé au montage du SSD dans le boitier et pour cela, il suffit de dévisser le dissipateur pour révéler le connecter M.2 et pouvoir insérer le SSD. Une fois connecté à l’ordinateur, le boitier est détecté comme un disque dur externe.
Une fois Windows 11 installé, j’ai téléchargé l’ensemble des drivers disponibles (https://help.steampowered.com/fr/faqs/view/6121-ECCD-D643-BAA8) et les différents logiciels que je souhaitais installer ensuite (dont Foundation for Windows) et je les ai mis en prévision sur le disque. Les choses sérieux pouvaient commencer…
Installation de Nutanix Foundation
Au premier démarrage sur le boitier, il a fallut évidemment que je fasse toute la configuration du système d’exploitation et que j’installe l’ensemble des drivers préalablement installés.
Une fois l’installation terminée, j’ai ouvert le navigateur internet et j’ai ouvert l’adresse http://locahost:8000/gui/index.html pour accéder à l’interface de Nutanix Foundation :
Sans surprise, Foundation for Windows tourne impeccable sur le Steamdeck, mais quid d’un déploiement sans port réseau RJ45 embarqué ? Pour répondre à cette problématique, il m’a suffit de faire l’acquisition d’un mini dock USB-C avec :
1 RJ45
3 USB2
1 USB-C
2 HDMI
A ce stade, le Steamdeck est « Foundation Ready » et prêt à déployer des clusters. Toutefois, la dernière question qui reste en suspend est la suivante : est ce que cela fonctionne ? En toute honnêteté, je n’en sais rien car malheureusement je n’ai pas eu de cluster à disposition me permettant faire un test grandeur nature, mais dès que l’occasion se présentera ce sera fait !
Afin de sécuriser les flux intra-cluster dans un environnement où la segmentation réseau est inexistante, il est parfois nécessaire de configurer le backplane network pour les isoler des flux de production.
Présentation du backplane network
Le backplane network crée une interface dédiée dans un VLAN distinct sur tous les hôtes CVM et AHV du cluster pour l’échange de trafic de réplication de stockage. Le backplane network partage les mêmes adaptateurs physiques sur le pont br0 par défaut, mais utilise un VLAN non routable différent. Cela permet d’isoler les flux du cluster de ceux des machines de production de façon logique et/ou physique.
Cas d’usage
Dans notre cas, le réseau client ne dispose d’aucune segmentation du réseau et tous ses équipements sont dans le même sous-réseau (serveurs, pc, imprimantes, téléphones…).
L’objectif était donc de mettre en place le backplane network pour isoler et sécuriser les flux intra-cluster sur un VLAN dédié et indépendant du reste du réseau (flux en rouge sur le schéma) :
La première étape consiste à modifier la configuration des switchs Top-of-Rack pour ajouter le nouveau VLAN.
Configuration des switchs top-of-rack
Avant de procéder à l’activation du backplane network, il est nécessaire de préparer les ports des switchs top-of-rack pour cette opération. Dans notre cas, nous sommes sur des switchs Mellanox avec une configuration des ports en actif-backup avec un VLAN d’administration en 100 et un VLAN non routé dédié au backplane network en 3000 :
Il faut bien entendu adapter les commandes à votre modèle de switch et reproduire cette configuration sur le 2e switch Top of Rack.
ATTENTION à ne pas faire d’erreur lors de la modification de votre configuration réseau au risque de compromettre l’accès à votre cluster.
Une fois la configuration terminée, il est maintenant possible de mettre en place le backplane network sur le cluster.
Configuration du backplane network
Avant de pouvoir démarrer, il est impératif de passer l’ensemble des hôtes en mode maintenance. Pour ce faire, il faut se connecter sur une CVM et taper la commande suivante :
acli host.enter_maintenance_mode HOST_IP
Il faut répéter la commande avec l’adresse ip de chacun des hôtes de votre cluster.
Une fois l’ensemble des hôtes en mode maintenance, il faut se connecter à Prism Element, se rendre dans le menu « Setting > Network Configuration > Internal Interfaces » :
En face de « Backplane LAN » cliquer sur « Configure » :
Sur la fenêtre qui s’affiche, saisissez :
l’adresse ip du réseau que vous souhaitez utiliser pour le backplane network
le masque de sous réseau associé à ce subnet
l’ID du VLAN que vous avez choisi
le virtual switch qui va devoir le porter
Conseils et bonnes pratiques pour le choix de votre backplane network :
le réseau ne doit pas être routé
il ne doit pas exister sur le réseau
il faut le choisir suffisamment étendu pour intégrer les noeuds existants et éventuellement un cluster expand
l’ID du VLAN doit être unique sur le réseau
Une fois l’opération de configuration terminée sur le cluster, il faut sortir l’ensemble des hotes de maintenance avec la commande suivante :
acli host.exit_maintenance_mode HOST_IP
Il faut saisir la commande sur une CVM et la répéter avec l’adresse IP de chacun des hôtes du cluster.
Dans network configuration, vous pourrez constater que le réseau backplane network est désormais configuré et actif :
Votre trafic intra cluster est désormais isolé du reste du réseau.
Parfois et pour diverses raisons, il est nécessaire de configurer le VLAN directement au niveau de notre cluster Nutanix, notamment pour assurer la segmentation du réseau.
Cas d’usage
Ayant eu un peu de temps pour moi durant les vacances de Noel, je me suis attelé à la reprise de la configuration de mon réseau local afin d’isoler mon lab Nutanix de mon réseau interne.
Pour cela, il a fallu avant que je reconfigure mes équipements Ubiquiti afin de :
créer le VLAN 84 au niveau de la Dream Machine Pro
propager le VLAN 84 sur le switch 24 ports puis sur le switch 5 ports sur lequel est branché le cluster
Changement du VLAN sur AHV
Avant d’entamer les modifications, je commence par vérifier la configuration réseau de mon hôte :
Le résultat de la commande nous montre qu’il n’y a pas de tag sur mon hôte. Nous allons y remédier avec la commande suivante :
[root@NTNX-5e8f7308-A ~]# ovs-vsctl set port br0 tag=84
La commande « ovs-vsctl set port br0 tag= » permet de taguer l’interface de mon hôte avec l’ID du VLAN que j’ai dédié à mon réseau Nutanix. On vérifie ensuite l’application de la configuration :
[root@NTNX-5e8f7308-A ~]# ovs-vsctl show
Bridge br0
Port vnet4
tag: 0
Interface vnet4
Port br0-up
Interface eth4
Interface eth0
Interface eth5
Interface eth2
Interface eth1
Interface eth3
Port br0.u
Interface br0.u
type: patch
options: {peer=br.dmx.d.br0}
Port br0
tag: 84
Interface br0
type: internal
Port br0-dhcp
Interface br0-dhcp
type: vxlan
options: {key="1", remote_ip="192.168.84.200"}
Port br0-arp
Interface br0-arp
type: vxlan
options: {key="1", remote_ip="192.168.5.2"}
Port vnet2
Interface vnet2
ovs_version: "2.14.8"
On peut maintenant constater que le VLAN est configuré sur mon hôte, il faut maintenant faire la configuration coté CVM…
Configuration du VLAN sur la CVM
On commence par vérifier la configuration réseau de notre CVM :
[root@NTNX-5e8f7308-A ~]# ovs-vsctl show
Bridge br0
Port br0-up
Interface eth4
Interface eth0
Interface eth5
Interface eth2
Interface eth1
Interface eth3
Port br0-arp
Interface br0-arp
type: vxlan
options: {key="1", remote_ip="192.168.5.2"}
Port br0.u
Interface br0.u
type: patch
options: {peer=br.dmx.d.br0}
Port vnet5
Interface vnet5
Port br0
tag: 84
Interface br0
type: internal
Port br0-dhcp
Interface br0-dhcp
type: vxlan
options: {key="1", remote_ip="192.168.84.200"}
Port vnet2
Interface vnet2
ovs_version: "2.14.8"
On peut constater ici que mon interface réseau ne comporte aucune information de vlan. Je procède donc à la configuration du VLAN ID en me connectant à ma CVM puis en tapant la commande
change_cvm_vlan VLANID
nutanix@NTNX-5e8f7308-A-CVM:192.168.84.200:~$ change_cvm_vlan 84
This operation will perform a network restart. Please enter [y/yes] to proceed or any other key to cancel: y
Changing vlan tag to 84
Replacing external NIC in CVM, old XML:
<interface type="bridge">
<mac address="52:54:00:8e:69:bc" />
<source bridge="br0" />
<virtualport type="openvswitch">
<parameters interfaceid="356e3bf3-5700-4131-b1b2-4fa65195a6e2" />
</virtualport>
<target dev="vnet0" />
<model type="virtio" />
<driver name="vhost" queues="4" />
<alias name="ua-1decc31c-2764-416a-b509-d54ecd1a684f" />
<address type="pci" domain="0x0000" bus="0x00" slot="0x03" function="0x0" />
</interface>
new XML:
<interface type="bridge">
<mac address="52:54:00:8e:69:bc" />
<model type="virtio" />
<driver name="vhost" queues="4" />
<address type="pci" domain="0x0000" bus="0x00" slot="0x03" function="0x0" />
<source bridge="br0" /><virtualport type="openvswitch" /><vlan><tag id="84" /></vlan></interface>
CVM external NIC successfully updated.
Performing a network restart
On contrôle maintenant la configuration réseau de la CVM pour vérifier que le tag a bien été configuré :
[root@NTNX-5e8f7308-A ~]# ovs-vsctl show Bridge br0 Port br0-up Interface eth4 Interface eth0 Interface eth5 Interface eth2 Interface eth1 Interface eth3 Port br0-arp Interface br0-arp type: vxlan options: {key="1", remote_ip="192.168.5.2"} Port br0.u Interface br0.u type: patch options: {peer=br.dmx.d.br0} Port vnet5 tag: 84 Interface vnet5 Port br0 tag: 84 Interface br0 type: internal Port br0-dhcp Interface br0-dhcp type: vxlan options: {key="1", remote_ip="192.168.84.200"} Port vnet2 Interface vnet2 ovs_version: "2.14.8"
Ma CVM est dorénavant sur le VLAN 84. Il ne me reste plus qu’à reproduire ces manipulations sur l’ensemble de mes noeuds et de vérifier ensuite que tout fonctionne correctement.
Les easter eggs, ou « œufs de Pâques » en français, sont des éléments cachés dans divers médias, notamment les films, les jeux vidéo, les logiciels et même les sites web et Nutanix n’y fait pas exception.
Ces petites références sont souvent placées intentionnellement par les créateurs pour divertir les utilisateurs curieux et observateurs. Ils peuvent prendre la forme de références culturelles, de clins d’œil humoristiques, de messages secrets ou de fonctionnalités inédites, accessibles uniquement par des méthodes particulières.
Les easter eggs sont devenus une sorte de tradition dans le monde numérique, renforçant l’engagement des fans et créant une connexion spéciale entre les créateurs et leur audience.
Le jeu « 2048 »
Le jeu 2048 est un puzzle populaire se jouant sur une grille 4×4. L’objectif est de fusionner des tuiles de même valeur pour atteindre la tuile de 2048. Les touches fléchées du clavier permettent de déplacer les tuiles dans les quatre directions. Chaque mouvement fait apparaître une nouvelle tuile de valeur 2 ou 4. Le jeu se termine lorsque plus aucun mouvement n’est possible.
Nutanix intègre le jeu 2048 dans ses consoles Prism Element et Prism Central, vous offrant une pause ludique lors de l’utilisation de la plateforme. Pour accéder à ce jeu, suivez les étapes suivantes :
Connectez-vous à votre interface Prism Element ou Prism Central via votre navigateur web puis, dans le coin supérieur droit de l’interface, cliquez sur votre nom d’utilisateur pour dérouler le menu.
Dans le menu déroulant, choisissez l’option intitulée « Nothing To Do? » :
Une fois l’option sélectionnée, le jeu 2048 s’ouvrira dans une nouvelle fenêtre, prêt à être joué !
Si l’option « Nothing To Do? » n’apparaît pas dans le menu, il est possible que l’administrateur l’ait désactivée. Pour vérifier ce paramètre, accédez aux Paramètres de la console, puis à la section Apparence et enfin aux Paramètres de l’interface utilisateur. Assurez-vous que la case permettant d’activer le jeu est cochée.
NetHack
Nethack est un jeu emblématique de la culture geek, connu pour son gameplay en mode texte et ses nombreux easter eggs et références culturelles. Les dragons sont des créatures puissantes dans ce jeu, et les dessins ASCII sont souvent un hommage à ce type de jeux.
La référence à NetHack est cachée dans Nutanix Move. Pour l’afficher, connectez vous en SSH à la VM Move et tapez la commande suivante :
cat /opt/xtract-vm/bin/dragon.txt
Et voici ce que vous aurez à l’écran !
Options de personnalisation avancées
Vous pouvez accéder à des options de personnalisation avancées grâce à un raccourci caché qui vous permettra de customiser la page de connexion de votre cluster !
Pour y accéder, connectez vous à votre cluster, rendez vous dans les paramètres puis dans la rubrique « UI Settings ». Ensuite, cliquez sur « UI Settings » tout en maintenant la touche « Alt » de votre clavier enfoncée :
Vous aurez alors plus d’options de personnalisation de l’interface de connexion :
Le Seigneur des Anneaux
Parmi les services qui permettent de faire tourner votre cluster, il en est 2 qui sont une référence directe à l’épée d’Aragorn dans l’oeuvre de Tolkien, le Seigneur des Anneaux. Je parle évidemment d’Anduril, Flamme de l’Ouest, forgée avec les fragments de Narsil.
Anduril et Narsil sont 2 services Nutanix que vous pouvez retrouver quand vous tapez la commande « cluster status » sur une de vos CVMs :
Stargate
Toujours parmi les services Nutanix, on peut retrouver une référence au film et à la série culte du même nom : Stargate, la porte des étoiles.
Pour l’afficher, toujours la même commande : cluster status depuis une CVM :
Star Trek
Parmi les autres easter eggs cachés dans Nutanix, on peut trouver une référence à l’univers de Star Trek avec le service Uhura qui est une référence à Nyota Uhura, un lieutenant de l’USS Enterprise !
Pour l’afficher, toujours la même commande : cluster status depuis une CVM :
Xmen
Toujours parmi les services Nutanix, on peut trouver une référence à l’univers des Xmen avec le service Cerebro !
Cerebro est un ordinateur de haute technologie créé par le Professeur Charles Xavier avec l’aide de Magneto et qui amplifie les ondes cérébrales de la personne qui l’utilise.
Pour l’afficher, toujours la même commande : cluster status depuis une CVM :
Terminator
Très explicite celui ci, et toujours parmi les services de votre cluster… Terminator, méchant incontournable de la pop culture !
Pour l’afficher, toujours la même commande : cluster status depuis une CVM :
Mythologie grecque et romaine
Le plus gros morceaux des références puisqu’il existe pas loin d’une dizaine de références aux Dieux des mythologies grecque et romaine…
Zeus, Hera, Minerve, Athena… Il y passent presque tous !
Si vous souhaitez visiter le Mont Olympe, c’est toujours en CLI depuis une CVM avec un cluster status :
Et vous ? Avez vous trouvé d’autres références cachées dans Nutanix ?
Après le re-ip d’un Prism Central chez un client, le menu permettant de basculer entre les sections applicatives ne fonctionnait plus du tout et générait un message d’erreur au survol :
En inspectant le fichier de log « Styx.log » : /home/docker/domain-manager/log/styx.log, j’ai pu trouver ce type de lignes de logs :
V3ApiError: ACCESS_DENIED | No permission to access the resource.;
Dans le fichier « Athena.INFO », j’ai également trouvé des erreurs JWT qui indiquaient des problèmes de parsing de certificat :
ERROR 2024-11-18T17:49:01,154Z Thread-1 athena.authentication_connectors.CertificateAuthenticator.getX509Certificate:309 certificate parsing exception {}. Please ensure the certificate is valid
Pour corriger l’erreur, j’ai du régénérer un nouveau certificat à l’aide de la commande suivante :
Lors du déploiement de Prism Central sur mon cluster Nutanix CE 2.1, j’ai été confronté à un message d’erreur qui m’empêchait d’enregistrer mon cluster sur Prism Central…
En effet, une fois l’ensemble des paramètres renseignés lors de la validation j’obtiens le message d’erreur « Cluster has dual stack enabled. Cannot register to a PC. » :
Ce message d’erreur est lié à la présence d’IPv6 en parallèle d’IPv4 sur le cluster, mais une solution existe et elle réside dans la commande suivante :
manage_ipv6 unconfigure; manage_ipv6 disable
Il faut répondre « Y » à la question « Proceed to remove above IPv6 configuration? » afin de valider le processus :
nutanix@NTNX-436d2f97-A-CVM:192.168.84.200:~$ manage_ipv6 unconfigure; manage_ipv6 disable
[INFO] Initializing script… done
[INFO] Current IPv6 configuration on cluster: {
"svmips": {
"192.168.84.200": null
},
"hostips": {
"192.168.84.199": null
},
"prefixlen": null,
"gateway": null
}
[INFO] Note: This operation will restart the following services: ['CerebroService', 'StargateService']
Proceed to remove above IPv6 configuration? [Y/N]: Y
[+] CVM and Hypervisor IPv6 addresses unconfigured
[+] Cleared IPv6 configuration from Zeus
[+] CVM and hypervisor firewall rules updated
[+] Necessary services have been restarted
[INFO] Marked Ergon task 4673fda3-92da-4efe-59f5-1dd3fc51a6cd as kSucceeded
[INFO] Action unconfigure completed successfully
Script output logged to /home/nutanix/data/logs/manage_ipv6.out
[INFO] Initializing script… done
[+] IPv6 disabled on CVMs and Hypervisors
[INFO] Marked Ergon task 9cdfcb37-436a-479f-4d7a-08ef69e266b0 as kSucceeded
[INFO] Action disable completed successfully
Script output logged to /home/nutanix/data/logs/manage_ipv6.out
nutanix@NTNX-436d2f97-A-CVM:192.168.84.200:~$
Une fois la procédure terminée, l’enregistrement du Prism Central se déroule sans aucun problème :
Si vous rencontrez des problèmes pour désactiver IPv6, Goerge a donné une autre technique pour y parvenir :
We use cookies to improve your experience on our site. By using our site, you consent to cookies.
This website uses cookies
Websites store cookies to enhance functionality and personalise your experience. You can manage your preferences, but blocking some cookies may impact site performance and services.
Essential cookies enable basic functions and are necessary for the proper function of the website.
Name
Description
Duration
Cookie Preferences
This cookie is used to store the user's cookie consent preferences.
30 days
These cookies are needed for adding comments on this website.
Name
Description
Duration
comment_author
Used to track the user across multiple sessions.
Session
comment_author_email
Used to track the user across multiple sessions.
Session
comment_author_url
Used to track the user across multiple sessions.
Session
Statistics cookies collect information anonymously. This information helps us understand how visitors use our website.
Matomo is an open-source web analytics platform that provides detailed insights into website traffic and user behavior.