Les Bonnes pratiques pour la virtualisation

Cet article présente quelques points essentiels à prendre en compte afin de réussir un projet de virtualisation dans les meilleures conditions.


le cercle vertueux

Lorsqu’une entreprise souhaite se lancer dans un projet de virtualisation de son système d’information, il faut au préalable qu’elle, ou sa DSI, définisse les objectifs souhaités dans ce projet. En effet la virtualisation, nous l’avons vu apporte bien des avantages, il faut donc que la société définisse ses priorités et s’interroge sur ce qu’elle souhaite. Souhaite-elle:

–       Le nombre de ses serveurs, nous parlons alors de consolidation.

–       Maximiser la disponibilité de ses applications, il s’agit là de l’aspect haute disponibilité, tolérance de pannes, reprise après désastre.

–       Optimiser l’agilité et la flexibilité de son système d’information, tel que le provisionning de serveurs ou le changement de datacenter.

Une fois définit ces objectifs, il est plus facile pour une entreprise de choisir les technologies à implémenter sur son système, et également les points de son infrastructure qu’il faudra faire évoluer.

Je vais donc présenter ci-dessous, les principaux points sensibles à analyser lorsqu’une entreprise souhaite se lancer dans un projet de virtualisation, tels que la gestion des capacités, la gestion des performances ou encore la cohabitation des équipes d’administration et le support logiciel.

  • Bien étudier son environnement pour bien le virtualiser, notion de « Capacity Management ».

Le premier aspect important, qui conditionne la réussite d’un projet de virtualisation est la compréhension complète des caractéristiques de l’environnement que l’on souhaite virtualisé, c’est ce que ‘on appelle le « capacity management ». Pour cela un entreprise se doit de réaliser un audit de son architecture, en analysant les différentes métriques d’utilisation de ses serveurs tel que   :

–       La consommation CPU.

–       L’utilisation de la mémoire.

–       La gestion du débit des entrées/sorties réseaux

–       La gestion du débit des entrés/sorties au niveau du stockage.

L’analyse de ses métriques permet de connaître de manière très précise l’environnement et de qualifier les bons candidats à la virtualisation et les applications qui devront nécessairement continuer de fonctionner sur un serveur physique dédié. Cette analyse permet également de construire des profils types de son environnement, et par exemple il est déconseillé de consolider sur un même serveur des applications utilisant beaucoup de mémoire et beaucoup d’entrées/sorties disques.

Nous conseillons de réaliser cette phase d’audit sur plusieurs mois pour non seulement éviter les pièges des hausses de consommation ou de trafic dues à une période particulière, qui fausserait les résultats de consommation moyenne, mais cela permet également d’avoir un aperçu de ses périodes de fortes hausses, comme des plages horaires de journée, des fins de mois, etc…

Nous préconisons aux entreprises d’utiliser un logiciel qui réalisera la collecte de toutes ses informations, et les traitera pour en sortir un compte rendu détaillé et optimal. Plusieurs éditeurs proposent ce type de logiciel, tel que Novell avec PlateSpin Recon, Systar avec Omnivision, ou Uptime Software. Notons aussi l’outil gratuit MAP (Microsoft Assessment and Planning développé par Microsoft pour Windows) et qui peut s’avérer très pratique pour un exercice de capacity planning initial.

Cette phase d’audit est essentielle pour la connaissance de son environnement, et pour qualifier un planning de capacité (capacity planning). Néanmoins elle n’est pas suffisante car elle ne prend pas en compte l’évolution dans le temps de l’augmentation de la consommation des VM, notamment pour les infrastructures possédant plus d’une cinquantaine de machines virtuelles. L’évolution de la consommation de ces ressources peut très vite poser de gros problèmes aux VM consolidées sur la même machine physique. Ainsi, pour améliorer la réactivité face à ce genre de problèmes, il est nécessaire pour une DSI de disposer d’une analyse des capacités disponibles sur les autres serveurs, pour déplacer la VM responsable en toute tranquillité.

La gestion des capacités est donc un élément indispensable, tant sur la gestion du projet que sur l’exploitation quotidienne du système d’information, afin d’éviter au maximum les déconvenues en matière de services rendu aux utilisateurs.

  • Organisation des équipes.

Un aspect de la virtualisation souvent inconnu des entreprises, notamment dans les grosses structures, et la quasi élimination des frontières existant entre les couches réseaux, systèmes, stockages et calculs. Généralement, pour les grandes entreprises il existe une équipe système, une équipe en charge du réseau, une autre en charge du stockage ou encore du calcul. Or, avec la virtualisation il est très fréquent que l’équipe système soit amenée à opérer sur la partie réseaux ou stockage, et ce à cause de la fluidité des environnements virtualisés. Par exemple, l’intégration de systèmes de fichiers en clusters dans la plupart des hyperviseurs induit un changement des schémas traditionnels de stockage.

Il est donc conseillé aux grandes entreprises, possédant des services différents, d’anticiper et de mettre en place des équipes pluridisciplinaires, regroupant administrateurs réseaux, administrateurs systèmes et administrateurs stockage, et ce afin d’éviter tout conflit entre ces mêmes équipes. La meilleure façon de procéder est de réunir toutes ces équipes, de les former ensemble et de définir avec elles,  les responsabilités de chacune, ainsi que les règles de cohabitation nécessaires à la bonne gestion du système virtualisé.

  • Définir un modèle de coût afin de facturer les utilisateurs

Dans un environnement de production classique, généralement, la facturation des ressources informatiques est faite par services en fonction des ressources utilisées ou demandées par ces différents services. Le problème dans un environnement virtualisé est que les ressources sont mutualisées. Ainsi, et pour éviter les abus, une entreprise se doit définir un modèle de couts afin de refacturer aux mieux les différents services en fonction de leur utilisation des ressources.

En effet il a été constaté dans certaines entreprises ayant virtualisé leur système d’information, une augmentation très conséquente du nombre de machines virtuelles, faute de modèle de couts efficace. Un affichage clair et précis des prix fixés, une entreprise limite ainsi les abus et dérives. C’est également un excellent moyen pour un service informatique interne de se benchmarker face à ses concurrents extérieurs, et de définir des règles de recours aux services de prestataires, tels que les opérateurs d’infrastructures en nuage, ou « cloud computing ».

  • S’assurer du support de ses fournisseurs de logiciels

Un point souvent sous-estimé dans les projets de virtualisation touche aux aspects de support logiciel. Ce domaine reste un vrai champ de mines, aucun éditeur n’ayant adopté une politique homogène en matière de support technique sur les grands hyperviseurs du marché. Longtemps des éditeurs comme SAP ou Oracle ont refusé de supporter leurs clients faisant fonctionner leurs logiciels sur une couche de virtualisation. C’est un problème réglé chez SAP mais toujours saillant chez Oracle, qui n’assure un support total de ses solutions que sur son propre hyperviseur, OracleVM.

Un autre problème persistant est celui des licences logicielles. Certains éditeurs facturent ainsi leurs outils au socket processeur, mais ne reconnaissent pas les capacités de découpage des hyperviseurs. Ainsi une machine virtuelle à laquelle on a alloué 2 CPU virtuels sur une machine à 4 CPU pourra se voir réclamer une licence pour 4 CPU chez certains éditeurs.  Pire, certains éditeurs et pas des moindres, n’admettent pas que leur logiciel puisse être déplacé d’un serveur à un autre avec une technologie de migration en live (cela a par exemple été longtemps le cas de Microsoft, qui exigeait que ses logiciels ne changent pas de serveur avant un délai minimum de 90 jours après leur dernier déplacement) . Autant dire qu’il est prudent de se renseigner sur ce que son éditeur considère comme légitime avant d’imaginer virtualiser un logiciel.

Publicités
Galerie | Cet article, publié dans Articles, est tagué , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s