La virtualisation est mature, mais certaines frilosités persistent encore car cela passera souvent par un big bang des habitudes.
Le challenge est alors d'apporter de la valeur ajoutée au métier des utilisateurs via l'infrastructure, à travers de nouveaux usages proposés.
Les grands axes du moments sont la virtualisation de serveur qui se poursuit, et les problématiques de PCA/PRA (pandémie, site détruit, grève des transports...) toujours d'actualité.
Mais le cheval de bataille de tous les éditeurs "la course à virtualisation de poste de travail" n'a pas encore démarrée réellement.
Pourtant si le poste de travail classique est trop cher pour l'entreprise :1€ dépensé en Apex correspond à 3€ en Opex.
Il coûte encore plus cher lors :
- d'un refresh du parc (changement matériel)
- de nouveaux déploiements (services, agences...)
- migration d'OS (arrivée de Windows 7)
Une évolution des mentalités est également nécessaire, pour faire porter ces projets par les équipes internes ayant déjà réalisé des projets de virtualisation de serveurs, plus aguerris au contexte que les équipes poste de travail classique, qui doivent être par contre des contributeurs importants et profiter de l'occasion pour revoir les workflow et gestion associés à cet élément.
Une de nos missions est aussi de faire concilier à la fois la gestion du physique et du virtuel, effectuée pas forcément par les mêmes équipes. Les besoins en compétences et formations coté exploitation et administration doivent être identifiés afin de ne pas représenter un frein à la virtualisation.
Aujourd'hui le matériel est réellement conçu pour la virtualisation, les machines sont dimensionnées pour cela. Le rendement est important coté rationalisation - ce qui n'était pas le cas il y a encore quelques années, car on utilisait des serveurs « classiques » pour en faire des hyperviseurs ou du server based computing (TS/Xenapp) . La puissance machine pour un serveur bi-socket a été multiplié par 17 sur les dernières années.
A nous de revoir à la hausse les ambitions de consolidation et rationalisation, et de démontrer que "tout est virtualisable, sauf ce qui ne l'est réellement pas !"
Le dernier bastion est même en train de tomber: la virtualisation des bases de données, avec un récent retour de la réalité en entreprise montrant que 80% des serveurs de SGBD installés n'utilisent que 20% des ressources allouées sur serveur physique! (source Vmware)
Quelques attentions majeures de la virtualisation persistent avec le stockage, la gestion des I/O machines et le dimensionnement/vitesse réseau (en central et vers les sites distants), à prendre sérieusement en compte lors des études techniques et TCO/ROI.
Un autre aspect est aussi d'éviter les débordements que peut apporter la virtualisation!
Faire attention coté exploitation aux machines inutilisées (en ligne ou non) qui prennent de la place (en stockage) et de la puissance hyperviseur inutilement; car on provisionne très facilement les machines en quelques minutes, mais on ne les gère et monitore pas forcément aussi bien que les machines physiques. Un grand compte a d'ailleurs après inventaire supprimé 800 machines virtuelles oubliées.
Un autre débordement peut être venir aussi de la mode du moment, la technologie qui a le vent en poupe n'est pas forcément LA solution à tous les besoins ou problèmes. J'ai entendu par exemple des propos de personnes voulant migrer leur parc Xenapp sur du Xendesktop parce que quelques cas n'étaient pas éligibles en Xenapp; les deux solutions peuvent parfaitement cohabiter en fournissant chacune une infrastructure au besoin requis.
La virtualisation à la fois fournisseur et cliente du SI étant au cœur du débat de l'IT, notre métier a dépassé depuis longtemps le stade de l'expertise technique, pour s'orienter vers le métier de conseil en infrastructure et réel partenaire pour nos clients sur leurs projets.
Patrice Boukobza