Team Leader - Nutanix Technology Champion - Nutanix NTC Storyteller

Julien DUMUR
Infrastructure in a Nutshell

Parmi les solution de End-user Computing existantes sur le marché, nous connaissons tous Citrix qui est déjà disponible et supporté par Nutanix depuis un petit moment.

Pour rappel, les solutions de End User Computing (EUC) de Citrix sont un ensemble de technologies qui permettent aux entreprises de fournir un accès sécurisé, centralisé et performant aux applications, bureaux virtuels et données, depuis n’importe quel appareil, à n’importe quel moment, et à n’importe quel endroit.

Le support multi-cluster pour les VDI sous Citrix a également été annoncé : https://www.nutanix.com/blog/multi-cluster-citrix-vdi-support-on-nutanix-ahv-with-prism#

Nutanix a profité de la première Keynote du .NEXT pour annoncer l’arrivée en Global Access en fin d’année 2025 du support de la solution Omnissa Horizon.

Les solutions de End User Computing (EUC) d’Omnissa sont issues de la division EUC de VMware, devenue une entité indépendante en 2024 suite à son acquisition par le fonds d’investissement KKR. Omnissa se positionne comme un acteur majeur dans la fourniture de plateformes de travail numériques sécurisées, intelligentes et adaptables, centrées sur l’expérience utilisateur avec notamment son produit dédié aux bureaux virtuels : Horizon 8.

Pour ceux que cela intéresserait de tester, je suis passé sur leur stand et ils m’ont indiqué que la beta ouverte devrait démarrer au tout début de l’été.

Annonce officielle de Omnissa Horizon sur Nutanix : https://www.nutanix.com/blog/announcing-omnissa-horizon-on-nutanix-ahv#

Read More

Cette année encore, j’ai eu la chance d’être invité, de part mon statut de Nutanix Technology Champion, à l’événement annuel organisé par Nutanix : le .NEXT 2025 !

Direction Washington DC !

Chaque année, le .NEXT change de continent. L’année passée, c’était l’Europe qui recevait l’événement à Barcelone en Espagne. Cette année, c’est Washington DC aux Etats Unis d’Amérique qui a été retenu pour accueillir l’événement du 7 au 9 mai 2025.

C’est la seconde fois que j’ai l’occasion de venir aux Etats Unis (la première était lors du NTC Tech Connect à San José), j’ai donc décidé de profiter de l’occasion pour passer une journée supplémentaire en tant que touriste. C’est le Zero Day !

Un voyage tranquille

Le voyage de chez moi en France jusqu’à Washington DC a été relativement tranquille. Tout d’abord, TGV d’Orange jusqu’à Lyon le 5 mai pour pouvoir dormir à l’aéroport et être sur place le lendemain matin.

Boarding, Lyon

Le 6 mai, de bout 7h, enregistrement des bagages à 8h et décollage à 10h après avoir passé tous les contrôles sans encombre. Atterrissage à Dublin à 11h heure locale, 1h30 de transit, tout juste le temps de passer le contrôle aux frontières US avant d’embarquer sur mon vol transatlantique. 8h de vol, 3 films (Top Gun Maverick, Deadpool 2 et enfin Deadpool et Wolverine), un repas, une sieste et un goûter plus tard, me voilà enfin à l’aéroport international de Dulles.

Dulles International Airport, Washington DC
Dulles International Airport, Washington DC

Un dernier trajet en métro me permettra d’arriver à l’hôtel vers 17h heure locale, après un périple d’environ 15h… Une douche plus tard, je suis sorti pour marcher autour de l’hôtel. J’ai pu voir la porte de l’amitié à l’entrée de Chinatown et les bureaux du FBI avant que la pluie (on se serait cru en Bretagne) ne débarque et me contraigne à rentrer…

Federal Bureau of Investigations, Washington DC
Federal Bureau of Investigations, Washington DC

Zero Day : une « balade » dans Washington DC

Complètement déphasé par le décalage horaire, je me suis réveillé à 5h du matin. Petit coup de fil à la maison (pratique, c’était 11h là bas), une douche et me voilà parti à déambuler dans les rues de Washington DC à 6h30 du matin, direction la Maison Blanche !

The White House, Washington DC
The White House, Washington DC

Après avoir demandé 2 fois mon chemin au Secret Service (vous êtes trop sympa les gars, merci !), j’ai pu faire le tour de la Résidence (très bonne série sur Netflix soit dit en passant) avant de mettre le cap sur Constitution Avenue et sa ribambelle de monuments.

J’ai commencé par le Washington Monument. J’ai ensuite mis le cap vers le World War II Memorial tout en répondant aux questions techniques d’un client inquiet, puis j’ai longé la Lincoln Memorial Reflecting Pool pour me rendre jusqu’au Lincoln Memorial.

Lincoln Memorial, Washington DC
Lincoln Memorial, Washington DC

Un petit détour par le mémorial de la guerre du Vietnam et je suis reparti en sens inverse, de l’autre coté de la Lincoln Memorial Reflecting Pool, pour me rendre au Smithsonian National Air and Space Museum qui ouvrait à 10h et pour lequel j’avais réservé une place.

The Smithsonian National Air and Space Museum, Washington DC
The Smithsonian National Air and Space Museum, Washington DC

Après 2h de visite très intéressante (honnêtement, si vous voulez absolument tout lire, prévoyez bien 3 voir 4h) où j’ai , me voila reparti. J’ai été voir le Smithsonian Castle avant de prendre la direction du Capitole, me rappelant ainsi au passage les bons moments passés devant House of Cards…

Vous pourriez croire que la fin de journée approche mais… Non pas du tout ! Comme je suis parti de l’hotel à 6h30 du matin, il était à peine 13h.

J’ai donc décidé d’aller visiter le Smithsonian National Museum of Natural History ! Et je peux vous dire que ca vaut le détour, j’y ai passé 2h encore (même timing que pour le premier musée, et il faut environ 3 ou 4h pour bien lire tout les petits panneaux) et je ne suis absolument pas déçu !

The Smithsonian National Museum of Natural History, Washington DC
The Smithsonian National Museum of Natural History, Washington DC

Maintenant direction le centre des conventions pour récupérer mon pass pour demain…

Récupération du pass .NEXT

Pour esquiver la file d’attente de demain matin, j’ai décidé d’anticiper la récupération de mon pass 3 jours pour le .NEXT. Comme c’est à coté de l’hotel, je n’ai même pas eu à faire un détour pour m’y rendre.

En 3 minutes top chrono j’avais récupéré mon précieux sésame et retrouvé 2 de mes acolytes NTCs, Chad et Jason avec qui j’ai discuté quelques minutes avant de rentrer à l’hôtel reprendre des forces avant la soirée avec la team Mikadolabs !

Read More

Le monde de l’informatique hybride et du multicloud s’apprête à vivre un moment fort avec l’événement Nutanix .NEXT 2025, qui se tiendra du 7 au 9 mai à Washington DC.

Cet événement annuel est une plateforme incontournable pour les professionnels de l’IT, les experts en cloud et les passionnés de technologie.

Avec des sessions captivantes, des démonstrations de produits innovants et des opportunités de rencontres, le Nutanix .NEXT 2025 promet d’être une expérience enrichissante. Pour rappel, l’année dernière c’était au tour de Barcelone d’accueillir l’événement !

Pourquoi assister au .NEXT ?

L’événement Nutanix .NEXT est bien plus qu’une simple conférence. C’est une occasion unique de découvrir les dernières avancées en matière de cloud hybride, d’intelligence artificielle et d’applications cloud natives. Les participants auront accès à des sessions interactives, des laboratoires pratiques et des certifications gratuites. Parmi les sujets abordés, on retrouvera notamment :

  • AI et ML dans l’entreprise : Découvrez comment l’intelligence artificielle et le machine learning peuvent transformer votre organisation.
  • Applications cloud natives : Apprenez à gérer la convergence VM-conteneurs pour des applications modernes.
  • Sécurité et réseau dans le cloud moderne : Explorez les solutions de micro segmentation et de protection contre les ransomwares.

Les moments forts de l’événement

L’événement sera marqué par des keynotes majeures (et notamment celle de Rajiv Ramaswami), des démonstrations de nouvelles fonctionnalités et des opportunités de rencontres. Parmi les intervenants, on retrouve des personnalités renommées tels que José Andrés (chef, restaurateur, auteur) ou encore Evy Poumpouras (ancien agent spécial et interrogateur des services secrets, analyste de la sécurité nationale) qui partageront leurs expériences et leurs visions pour l’avenir de l’IT.

De plus, les participants pourront profiter de l’événement pour aller à la rencontre des partenaires de l’événements tels que OVHcloud ou encore HYCU directement sur leurs stands respectifs.

Mon planning du Nutanix .NEXT 2025

Faisant partie du programme Nutanix Technology Champion, j’ai la chance d’être invité à l’événément. Voici donc un aperçu de mon emploi du temps prévu pour l’événement :

  • Jour 0 : 6 mai
    • Journée « touriste », j’arrive 24h en avance afin de profiter de Washington DC une journée complète.
    • Pas encore de programme précis en tête pour cette journée, surement les sites touristiques majeurs.
    • Récupération des accès pour éviter la foule du premier jour.
  • Jour 1 : 7 mai
    • 8h00 : Café « de réseautage », l’occasion parfaite pour agrandir son réseau
    • 8h30 : Exploration des stands (préparez les goodies, j’arrive !)
    • 10h15 : Keynote d’ouverture
    • 11h45 : Déjeuner et exploration de l’exposition
    • 15h00 : Certification NCP Unified Storage 6.10 (refresh)
    • 15h30 : Super session Nutanix Cloud Infrastructure
    • 17h00 : Réception de bienvenue
    • Il est fort probable que je fasse une petite session « Washington by Night » avant de rentrer à l’hôtel
  • Jour 2 : 8 mai
    • 9h30 : Keynote sur l’AI et le ML
    • 11h : Certification NCM MCI 6.10 (refresh)
    • 13h : Déjeuner
    • 14h15 : Session sur la sécurité dans le cloud
    • 15h30 : Maîtriser la migration vers Nutanix : stratégies, outils et bonnes pratiques
    • 16h45 : Session générale de clôture du jour 2
    • 18h00 : Célébration .NEXT
  • Jour 3 : 9 mai
    • 8h00 : Certification NCP Database Automation 6.10
    • 9h00 : Pas grand chose de défini pour l’instant, probablement une exploration des stands
    • 11h45 : Clôture de l’événement

Si vous me croisez dans les allées, n’hésitez pas à venir me voir si le coeur vous en dit !

Rendez vous à Washington DC !

Le Nutanix .NEXT 2025 est une opportunité exceptionnelle pour approfondir vos connaissances, élargir votre réseau professionnel et découvrir les tendances qui façonneront l’avenir de l’IT.

Que vous soyez novice ou expert, cet événement a quelque chose à offrir à chacun. Alors, préparez vos bagages et rejoignez moi à Washington DC pour trois jours riches en émotion !

Envie de vous joindre à l’événement ? https://next2025.nutanix.com/

Read More

C’est une problématique rencontrée par beaucoup de personnes lors de leur premier déploiement d’une machine virtuelle sous Microsoft Windows : la détection du stockage.

Je vais vous montrer comment procéder pour déployer une machine virtuelle Windows sur Nutanix AHV.

Pré-requis

Pour commencer, il faut récupérer l’image ISO des VirtIO sur le site Support de Nutanix (enregistrement sur le site nécessaire) : https://portal.nutanix.com/page/downloads?product=ahv

Pensez à sélectionner « VirtIO » dans le menu déroulant en haut de page puis téléchargez la version « Nutanix VirtIO for Windows (iso) » :

Une fois l’image ISO récupérée, il faut la transférer sur le cluster. Si vous ne savez pas comment procéder, je vous invite à consulter mon article à ce sujet : https://juliendumur.fr/nutanix-telecharger-une-image-sur-son-cluster/

Passons maintenant au déploiement de la machine virtuelle.

Création de la machine virtuelle sous Prism Element

Connectez vous à l’interface web Prism Element de votre cluster Nutanix, puis dans le menu sélectionnez « VM » :

Sur la page de gestion des machines virtuelles, cliquez sur « Create VM » en haut à droite :

Dans la fenêtre qui s’affiche, il y a un certain nombre de champs à remplir :

Dans l’ordre :

  • Nom de la machine virtuelle
  • Le fuseau horaire
  • La quantité de vCPU
  • La quantité de RAM

Ensuite, il faut ajouter un ou des disques :

Pour chaque type de disque que vous voudrez ajouter, il faudra sélectionner les options qui conviennent :

Dans le cas de notre VM, nous allons ajouter :

  • 1 disque de 40Go pour le système d’exploitation
  • 1 CD-ROM avec l’ISO Windows
  • 1 CD-ROM avec l’ISO contenant les VirtIO

Vous devriez avoir 3 disques à ce stade :

L’ajout d’un adaptateur réseau est la dernière étape avant de finaliser la création de la machine virtuelle :

Si vous ne savez pas comment ajouter de nouveaux réseaux sur votre cluster, je vous recommande de consulter mon article sur le sujet :

La machine est créée, vous pouvez passer à son déploiement.

Création de la machine virtuelle sous Prism Central

Pour créer la VM sous Prism Central, rendez vous dans le menu « Infrastructure > Compute > VMs » :

Cliquez ensuite sur « Create VM » pour accéder au menu de création de la VM :

Les champs à remplir restent globalement similaires à ceux que vous pouvez retrouver sous Prism Element, bien qu’organisés légèrement différemment :

Et répartis sur plusieurs onglets :

Le processus étant globalement identique, je ne vais pas redétailler toutes les étapes. Petite différence notable : la possibilité d’affecter dès la création une ou plusieurs catégories à notre VM :

Le dernier onglet permet de vérifier l’ensemble des informations que nous venons de paramétrer :

Déploiement de la machine virtuelle

Pour déployer la machine virtuelle, démarrez la et lancez la console. La première étape est de choisir la langue :

Cliquez ensuite sur « Installer maintenant » :

Puis sélectionnez la version que vous souhaitez installer :

Acceptez le contrat de licence :

Cliquez maintenant sur « Personnalisé… » :

Malheur ! Le disque dur que vous avez configuré lors de la création de la machine virtuelle n’apparait pas… Cliquez sur « Charger un pilote » afin de corriger ce problème :

Cliquez sur « Parcourir » :

Naviguez maintenant jusqu’au répertoire correspondant à la version de Windows que vous déployez, dans mon cas Windows Server 2022 :

Sélectionnez l’ensemble des pilotes de la liste et cliquez sur « Suivant » :

Une fois l’installation des pilotes terminées, le disque apparait enfin :

L’installation est lancée, il n’y a plus qu’à patienter :

Votre machine virtuelle est déployée !

Read More

Parfois et pour diverses raisons, il est nécessaire de configurer le VLAN directement au niveau de notre cluster Nutanix, notamment pour assurer la segmentation du réseau.

Cas d’usage

Ayant eu un peu de temps pour moi durant les vacances de Noel, je me suis attelé à la reprise de la configuration de mon réseau local afin d’isoler mon lab Nutanix de mon réseau interne.

Pour cela, il a fallu avant que je reconfigure mes équipements Ubiquiti afin de :

  • créer le VLAN 84 au niveau de la Dream Machine Pro
  • propager le VLAN 84 sur le switch 24 ports puis sur le switch 5 ports sur lequel est branché le cluster

Changement du VLAN sur AHV

Avant d’entamer les modifications, je commence par vérifier la configuration réseau de mon hôte :

[root@NTNX-5e8f7308-A ~]# ovs-vsctl list port br0
_uuid : b76f885d-59b2-4153-99d3-27605a729ab8
bond_active_slave : []
bond_downdelay : 0
bond_fake_iface : false
bond_mode : []
bond_updelay : 0
cvlans : []
external_ids : {}
fake_bridge : false
interfaces : [17e8b0de-2ef5-4f6f-b253-94a766ec9603]
lacp : []
mac : []
name : br0
other_config : {}
protected : false
qos : []
rstp_statistics : {}
rstp_status : {}
statistics : {}
status : {}
tag : 0
trunks : []
vlan_mode : []

Le résultat de la commande nous montre qu’il n’y a pas de tag sur mon hôte. Nous allons y remédier avec la commande suivante :

[root@NTNX-5e8f7308-A ~]# ovs-vsctl set port br0 tag=84

La commande « ovs-vsctl set port br0 tag= » permet de taguer l’interface de mon hôte avec l’ID du VLAN que j’ai dédié à mon réseau Nutanix. On vérifie ensuite l’application de la configuration :

[root@NTNX-5e8f7308-A ~]# ovs-vsctl show
Bridge br0
    Port vnet4
        tag: 0
        Interface vnet4
    Port br0-up
        Interface eth4
        Interface eth0
        Interface eth5
        Interface eth2
        Interface eth1
        Interface eth3
    Port br0.u
        Interface br0.u
            type: patch
            options: {peer=br.dmx.d.br0}
    Port br0
        tag: 84
        Interface br0
            type: internal
    Port br0-dhcp
        Interface br0-dhcp
            type: vxlan
            options: {key="1", remote_ip="192.168.84.200"}
    Port br0-arp
        Interface br0-arp
            type: vxlan
            options: {key="1", remote_ip="192.168.5.2"}
    Port vnet2
        Interface vnet2
ovs_version: "2.14.8"

On peut maintenant constater que le VLAN est configuré sur mon hôte, il faut maintenant faire la configuration coté CVM…

Configuration du VLAN sur la CVM

On commence par vérifier la configuration réseau de notre CVM :

[root@NTNX-5e8f7308-A ~]# ovs-vsctl show
    Bridge br0
        Port br0-up
            Interface eth4
            Interface eth0
            Interface eth5
            Interface eth2
            Interface eth1
            Interface eth3
        Port br0-arp
            Interface br0-arp
                type: vxlan
                options: {key="1", remote_ip="192.168.5.2"}
        Port br0.u
            Interface br0.u
                type: patch
                options: {peer=br.dmx.d.br0}
        Port vnet5
            Interface vnet5
        Port br0
            tag: 84
            Interface br0
                type: internal
        Port br0-dhcp
            Interface br0-dhcp
                type: vxlan
                options: {key="1", remote_ip="192.168.84.200"}
        Port vnet2
            Interface vnet2
    ovs_version: "2.14.8"

On peut constater ici que mon interface réseau ne comporte aucune information de vlan. Je procède donc à la configuration du VLAN ID en me connectant à ma CVM puis en tapant la commande

change_cvm_vlan VLANID
nutanix@NTNX-5e8f7308-A-CVM:192.168.84.200:~$ change_cvm_vlan 84
This operation will perform a network restart. Please enter [y/yes] to proceed or any other key to cancel: y
Changing vlan tag to 84
Replacing external NIC in CVM, old XML:
<interface type="bridge">
      <mac address="52:54:00:8e:69:bc" />
      <source bridge="br0" />
      <virtualport type="openvswitch">
        <parameters interfaceid="356e3bf3-5700-4131-b1b2-4fa65195a6e2" />
      </virtualport>
      <target dev="vnet0" />
      <model type="virtio" />
      <driver name="vhost" queues="4" />
      <alias name="ua-1decc31c-2764-416a-b509-d54ecd1a684f" />
      <address type="pci" domain="0x0000" bus="0x00" slot="0x03" function="0x0" />
    </interface>

        new XML:
<interface type="bridge">
      <mac address="52:54:00:8e:69:bc" />
      <model type="virtio" />
      <driver name="vhost" queues="4" />
      <address type="pci" domain="0x0000" bus="0x00" slot="0x03" function="0x0" />
    <source bridge="br0" /><virtualport type="openvswitch" /><vlan><tag id="84" /></vlan></interface>

CVM external NIC successfully updated.
Performing a network restart

On contrôle maintenant la configuration réseau de la CVM pour vérifier que le tag a bien été configuré :

[root@NTNX-5e8f7308-A ~]# ovs-vsctl show
Bridge br0
Port br0-up
Interface eth4
Interface eth0
Interface eth5
Interface eth2
Interface eth1
Interface eth3
Port br0-arp
Interface br0-arp
type: vxlan
options: {key="1", remote_ip="192.168.5.2"}
Port br0.u
Interface br0.u
type: patch
options: {peer=br.dmx.d.br0}
Port vnet5
tag: 84
Interface vnet5
Port br0
tag: 84
Interface br0
type: internal
Port br0-dhcp
Interface br0-dhcp
type: vxlan
options: {key="1", remote_ip="192.168.84.200"}
Port vnet2
Interface vnet2
ovs_version: "2.14.8"

Ma CVM est dorénavant sur le VLAN 84. Il ne me reste plus qu’à reproduire ces manipulations sur l’ensemble de mes noeuds et de vérifier ensuite que tout fonctionne correctement.

ATTENTION : la commande change_cvm_vlan présente un bug connu en 6.8 avec AHV 20230302.100173 qui fait que le VLAN ID n’est pas préservé lors du redémarrage de l’hôte : https://portal.nutanix.com/page/documents/kbs/details?targetId=kA0VO0000002uJ30AI

Read More

Des missions en urgence à Madrid à un événement au siège de Nutanix à San Jose en Californie, cette année 2024 a prouvé que mes plus grandes réalisations sont le fruit d’un travail d’équipe d’une part, mais également individuel.

Quelques étapes clés :

  • Déploiements d’infrastructures critiques à travers la France et l’Europe
  • L’équipe Mikadolabs agrandie avec l’arrivée de plusieurs membres clés
  • Obtention de plusieurs certifications Nutanix (NCP-MCI, NCM-MCI, NCS-Core)
  • Renouvellement en tant que Nutanix Technology Champion pour 2025 🚀

2024 m’a appris que la vraie expertise technique n’est rien sans une équipe solide.

Mes 3 posts Linkedin majeurs de cette année :

« How it started // How it’s going » : Probablement le post qui restera très longtemps celui qui aura eu le plus d’impact… Plus de 60000 impressions et plus de 370 réactions, c’est sans conteste possible mon post de 2024 !

Les 2 posts suivants sont beaucoup plus modestes avec seulement 3000 impressions chacuns…

« Il y a des missions où tu sais dès le départ que ce sera compliqué » : Un post écrit avec le coeur et les tripes pour poser le bilan d’une intervention de dernière minute…

« Les augmentations de prix à 2 chiffres ne sont pas terminées » : un post sur l’actualité high tech concernant le rachat de VMWare par Broadcom…

Alors que 2024 s’apprête à tirer sa révérence, je voudrais dire à mon incroyable équipe chez Mikadolabs, à la formidable communauté Nutanix et surtout à mes amis NTC : MERCI. Cette année n’aurait pas été aussi belle sans vous.

2025 sera l’année de l’approfondissement de mon expertise Nutanix, du renforcement du partenariat avec OVHcloud et celle de nouvelles responsabilités au sein de l’équipe Mikadolabs.

Stay Tuned !

Read More

C’est dans la feuille de route de Nutanix ! L’authentification par mot de passe est dans le collimateur de l’éditeur qui compte bien y mettre fin et averti ses utilisateurs via une alerte informationnelle :

L’objectif est de faire progressivement basculer les clients vers l’authentification par clés SSH afin de l’imposer dans une future version de son hyperviseur.

Création des clés SSH

Les algorithmes de chiffrement SSH supportés sont :

  • AES128-CTR
  • AES192-CTR
  • AES256-CTR

Si vous possédez déjà une paire de clés de ce type, vous pouvez directement passer à l’intégration au cluster.

Pour créer une paire de clés SSH, nous allons avoir besoin d’un outils comme PuttyGen.

Cliquez sur « Generate » et bougez le curseur de la souris au dessus de la fênetre. Indiquez ensuite une passphrase puis sauvegardez la clé publique et la clé privée.

ATTENTION : veillez à utiliser une passphrase forte et non prédictible.

Il faut maintenant intégrer la clé publique au cluster.

Intégration de la clé publique au cluster

Pour intégrer votre clé publique à votre cluster, connectez vous à l’interface Prism et rendez vous dans « Settings > Cluster Lockdown »

Cliquez sur « New Public Key », donnez lui un nom, collez y le contenu de votre clé publique et validez.

A ce stade, l’authentification classique par mot de passe et celle par clé SSH sont toutes les deux actives et fonctionnelles, il est temps de tester.

Tests et activation du cluser lockdown

Pour commencer, nous allons tester l’authentification via clé SSH. Pas de panique, quoi qu’il arrive, même si la connexion SSH via les clés ne fonctionne pas après l’activation du cluster lockdown, vous pourrez toujours faire marche arrière via l’interface Prism.

Configurez votre outils de connexion SSH préféré, intégrez y votre clé privée puis lancez une connexion à votre cluster Nutanix. En premier lieu, renseignez le login que vous souhaitez utiliser, ici j’ai choisi « nutanix » :

Puis saisissez la passphrase que vous avec configuré lors de la création de votre clé SSH. Validez, vous voilà connecté à votre cluster via votre clé SSH sans avoir eu à utiliser le mot de passe du compte « nutanix ».

Désactivons maintenant l’authentification par mot de passe en retournant dans le menu « Settings > Cluster Lockdown ». Décochez la case « Enable Remote Login with Password » :

Retentez de vous connecter en utilisant le compte « nutanix » et le mot de passe habituel et constatez que vous ne pouvez plus vous connecter avec cette méthode :

Tentez maintenant avec votre clé privée :

Votre cluster est désormais accessible en SSH uniquement via le système de clés SSH. Si vous êtes plusieurs administrateurs à intervenir sur le serveur, n’oubliez pas de répéter l’opération pour chacun d’entre eux.

Point important : pensez à garder vos clés privées en lieu sûr et à utiliser une passphrase forte.

Documentation officielle

La documentation officielle Nutanix : https://portal.nutanix.com/page/documents/details?targetId=Nutanix-Security-Guide-v6_7:mul-security-cluster-lockdown-pc-t.html

Read More

Pour pouvoir déployer une machine virtuelle sur votre cluster Nutanix et qu’elle soit joignable sur votre réseau, vous devrez commencer par configurer le ou les réseaux sur votre cluster.

Création d’un réseau sous Prism Element

Sous Prism Element, dans le menu « Settings > Network Configuration » se trouve la liste de l’ensemble des réseaux existants sur le cluster, cliquez sur « Create Subnet » :

Saisissez ensuite les informations concernant votre réseau, à savoir le nom et le vlan ID :

Dans le cas où vous ne disposeriez pas d’un serveur DHCP, vous avez la possibilité de laisser Nutanix gérer l’adressage du réseau créé grâce à l’option « Enable IP address management » :

Il vous faudra alors remplir toutes les options qui auraient normalement été délivrées par un serveur DHCP classique :

Cliquez sur « Save » une fois que les paramètres sont corrects. Recommencez pour chaque VLAN dont vous avez besoin sur votre infrastructure.

Création d’un réseau sous Prism Central

Dans Prism Central, la gestion des réseaux s’effectue dans « Network & Security > Subnets » :

Pour ajouter un nouveau réseau, cliquez sur « Create Subnet » :

C’est ensuite un formulaire similaire à celui de Prism Element qu’il faut remplir en activant, ou non, l’option « IP Address Management » si vous souhaitez laisser la gestion de votre adressage à Nutanix.

Documentation officielle Nutanix

Lien vers la documentation officielle : https://portal.nutanix.com/page/documents/solutions/details?targetId=BP-2071-AHV-Networking:bp-ahv-network-management.html

Read More

Vous avez envie de vous perfectionner en diagnostic sur Linux ou de tuer le temps en attendant le reboot de votre infra ? J’ai la solution !

Sad Servers

Le site Sad Servers propose des scénarios divers et variés qui vont vous mettre face à des problèmes à résoudre. Tout se passe dans le navigateur, pas besoin de logiciel particulier si ce n’est votre navigateur habituel.

sadservers

Au programme, un serveur « malade » que vous devrez soigner en un minimum de temps possible. Attention, si certains scénarios peuvent paraitre simple de prime abord, une solide connaissance des commandes Linux vous aidera grandement dans votre tâche.

Comment ca marche ?

Et bien c’est très simple, vous sélectionnez votre scénario, vous lisez le pitch, vous démarrez la console (comptez 50 à 60s pour que la VM démarre) et vous pouvez commencer à diagnostiquer !

Un système d’aide est présent si vous ne savez plus quoi faire pour résoudre le problème en cours.

Un moyen parfait de réviser ses commandes Linux et d’acquérir / perfectionner ses compétences en résolution d’incident.

Le site : https://sadservers.com/

Read More

Récemment, mon switch Ubiquiti USW-Pro-24-PoE a rencontré quelques soucis de liaison avec ma console Unifi.

Read More