Lead-analytics

La virtualisation peut-elle échouer ? | Infrastructure
Lost Password?

A password will be emailed to you. You will be able to change your password and other profile details once you have logged in.

La virtualisation peut-elle échouer ?

La plupart des révolutions informatiques passent par un point critique, lorsque le marché s’étend au delà des courageux (ou imprudents) adoptants de la première heure, passe par l’acceptation des courants dominants, et finit par devenir un ”must have” universel. Tribune rédigée par Jan Ursi, Directeur Technique EMEA, d’Infoblox .

La virtualisation est passée au delà de la première de ces étapes, et, en tant que concept, est aujourd’hui largement acceptée (près de 40% de la charge des x86 tournait déjà dans des machines virtuelles au début de l’année et ce chiffre devrait atteindre les 75% en 2015 d’après Gartner (données mars 2011).

Mais le point critique menant à l’acceptation de masse signifierait une propagation de la virtualisation depuis les eaux profondes des entreprises classées dans les Fortune 500 jusqu’aux larges bancs de sable du marché des PME. Mais ces dernières sont elles prêtes à l’accueillir ?

Si l’on en croit les résultats troublants d’un récent sondage effectué par Infoblox, la réponse est définitivement « non ». Le navire de la Virtualisation semble sur le point de s’échouer…

Des systèmes digitaux bâtis sur des fondations en papier ?

Un sondage effectué récemment par Infoblox entreprenait de suivre les préparations au passage à l’IPv6 à travers la zone EMEA : une des questions clefs se proposait de savoir « de quelle manière votre organisation suit-elle actuellement la trace de vos adresses IP ?’. Et les réponses données à cette question se sont avérées extrêmement lourdes de sens si l’on se place dans le contexte d’une virtualisation envisagée. 40% des entreprises ou organisations interrogées s’appuient encore sur des processus manuels, suivant la trace de leurs adresses IP sur des feuilles de calcul dans le meilleur des cas, ou, bien pire, en s’appuyant sur des archives papiers.

Bien que cela démontre que plus de la moitié ont migré vers des logiciels automatisés, le fait est que, dans la plupart des cas, cela n’était fournit qu’à travers de solutions en ‘pack’, type Windows Active Directory. Même si cela n’apparait pas dans les résultats du sondage, cela corrobore les estimations des analystes concernant l’écrasante confiance que les entreprises placent dans les processus manuels ou encore dans les outils très simples destinés à la gestion de l’administration réseau.

Ces outils très simples sont peu onéreux et omniprésents, mais ne peuvent en général pas prendre en charge des domaines multiples ou des sous-réseaux en fournissant une coordination extérieure à ces systèmes (et une telle coordination est elle-même souvent basée sur des feuilles de calcul gérées manuellement). De plus, dans les nombreuses organisations qui utilisent à la fois Linux et Windows, une certaine forme de coordination manuelle est également nécessaire.

En dehors du coût engendré par la main d’œuvre et de l’important risque d’erreurs humaines, de telles solutions posent problème pour les industries soumises aux réglementations de conformités. Ni BIND, ni AD, ni même les feuilles de calcul manuelles ne possèdent de trace d’historiques ou d’audits intégrées. En ce qui concerne les rapports de conformité, ils doivent être émis régulièrement et nécessitent encore d’avantage de travail manuel extrêmement fastidieux.

Les exigences de la virtualisation

C’est vrai, la virtualisation est d’ors et déjà très répandue, mais, dans la majeur partie des cas, elle ne va pas plus loin que de simples installations en  “phase 1” qui permettent à plusieurs applications d’être réunies sur un seul et même serveur physique pour réduire l’espace de stockage, la puissance requise et les coûts de refroidissement.

Si les entreprises tentent une mise à l’échelle au-delà de la phase 1 pour pouvoir supporter les charges dynamiques et les infrastructures privées en Cloud, elles devront faire face à des niveaux de changement et de complexité sans précédents. Au sein des centres de données virtuels, les administrateurs doivent être capables de redimensionner la puissance de traitement d’un seul coup. Si ce changement n’est pas hautement automatisé, les nombreuses étapes requises pour le redimensionnement de l’infrastructure réseau et de ses services de cœur comme l’attribution des adresses IP, le DNS et le DHCP, nécessiteront un temps considérable et une main d’œuvre importante. Ces changement incluent également: le pare-feu, le VLAN, la QoS et les règles de politique, ainsi que d’autres changements sur les éléments physiques et virtuels des réseaux pour pouvoir supporter le centre de données virtuel.

Alors que le rythme de ces changements et de leur complexité s’accélère, très peu de départements informatiques s’agrandissent pour pouvoir maintenir l’allure. Comme l’explique Zeus Kerravala, Vice Président Senior et membre distingué de la Recherche au sein du Yankee Group : « Tout au long du cycle de vie d’une machine virtuelle se produisent différents événements qui nécessitent de la visibilité et des changements. La plupart des fonctions ‘serveur centriques’ faites pour gérer cela sont construites dans les hyper viseurs, mais le revers de la médaille (source de l’immense complexité à laquelle les entreprises font face lorsqu’elles tentent de mettre à l’échelle leurs déploiements virtuels) sont les changements des réseaux associés qui sont habituellement réalisés manuellement. La seule façon de surmonter cet obstacle est la technologie d’automatisation. »

Mais il n’est pas seulement question de changements de gestion, le problème consiste également à garder la trace subséquente de ces changements, comme le souligne Daniel Boyd, administrateur informatique chez Berry College :

« La virtualisation a été présentée et mise en avant comme étant la meilleure chose depuis l’invention de la roue en termes d’économies et de flexibilité. Nous avons d’ors et déjà réalisé une partie de cette promesse. Mais nous avons rencontré des problèmes de visibilité et de gestion. Il est toujours difficile de savoir où se trouve chaque chose et il serait très utile d’avoir une application unique capable de nous montrer où se trouvent toutes les ressources, quelle machine virtuelle se trouve sur quel hôte, avec toutes les informations disponibles en un coup d’œil, plutôt que d’avoir à vérifier cinq applications de gestion différentes avant de pouvoir trouver l’information dont j’ai besoin. »

L’expérience vécue au sein de Berry College est loin d’être unique en son genre, si l’on en croit l’analyste industriel Jim Frey de chez Enterprise Management Associates, qui ajoute :

« Il y a très peu d’espoir, voir même aucun espoir, que les processus manuels puissent suivre le rythme des changements introduits par la virtualisation des serveurs et les services ‘Cloud’ : l’unique réponse logique est l’automatisation. Dans ce cas là, les administrateurs réseau pourront bénéficier grandement d’une automatisation plus serrée et d’un contrôle plus efficace sur la gestion des adresses IP, comme d’un moyen clef pour maintenir un réseau hautement fonctionnel et performant ».

La virtualisation au bord du gouffre ?

En conséquence, la virtualisation ne dépassera pas la « phase 1 » tant que les gestionnaires réseaux ne renonceront pas à s’appuyer sur les feuilles de calculs, les processus manuels et les outils basiques fournis en packs pour garder la trace de leurs adresses IP et gérer les services de cœur comme le DNS et le DHCP. Ils doivent migrer vers une solution automatisée capable de se mettre à l’échelle dans un environnement virtuel au sein duquel les machines virtuelles sont mises à disposition, migrées ou éteintes de façon dynamique.

Et pourtant, si on se fie à notre sondage, 40% des organisations n’ont même pas commencé à faire face à ce problème et celles qui l’ont fait s’appuient encore de façon prédominante sur des outils logiciels basiques. Même sans la pression supplémentaire générée par la virtualisation, les statistiques des analystes sont dérangeantes :

  • Les deux tiers des problèmes de performances des systèmes sont liées à des changements réseau, d’après Gartner et IDC
  • Plus de 70% du temps de travail des équipes informatiques est passé sur du travail imprévu d’après une étude faite par Metzler & Associates
  • Jusqu’à 80% de toutes les ressources informatiques sont utilisées uniquement pour maintenir le statu quo, d’après IDC

Sans une automatisation complète, cette situation peu économique va perdurer et la virtualisation ne restera qu’une niche technologique pour toutes les organisations, à l’exception de quelques unes parmi les plus importantes.  Et ce parce que les seules qui jouiront réellement de la virtualisation seront celles qui ont d’ors et déjà investi dans des systèmes automatisés flexibles, capables de fournir la visibilité nécessaire, la gestion des changements et les aptitudes à s’adapter aux règles de conformités à la fois dans les environnements virtuels et physiques.

Quel est donc le secret de leur réussite ? En réalité, il n’y a aucun secret : en effet, les solutions actuelles destinées aux changements réseaux et à la gestion de leurs configurations, sophistiquées mais faciles à déployer, combinent une automatisation puissante à une bonne visibilité de la santé, de la politique et de la conformité du réseau. Elles sont capables de rassembler et d’analyser les configurations des infrastructures réseaux, d’identifier les violations de la politique, de démontrer l’impact des changements sur la santé du réseau et de remédier aux problèmes. En résumé, elles permettent à l’entreprise d’automatiser la gestion des infrastructures de cœur de réseaux et supportent des réseaux, des applications et des initiatives hautement dynamiques, comme bien entendu la virtualisation et le Cloud Computing.

Et comme si cela ne suffisait pas, elles permettent également un retour sur investissement immédiat puisqu’elles réduisent fortement la dépendance vis-à-vis des équipes informatiques spécialisées, les tâches manuelles répétitives (ce qui fait gagner du temps et diminue sensiblement le risque d’erreur humaine) et les délais logistiques qui freinent l’agilité commerciale.

Le tableau ci-après fournit quelques exemples de ce que cela représente en termes de gain de temps et d’argent lors de l’accomplissement de tâches quotidiennes.

Tâches

Etapes

Temps nécessaire à l’exécution manuelle

Temps nécessaire pour Infoblox

Affectation d’une adresse IP 8 1-2 jours 2 Min
Changement DNS 7 2-4 heures 1 Min
Récupération d’une adresse IP 8 2-4 jours 1 Min
Dimensionnement réseau 9 1 semaine 3 Min

Conclusion

La virtualisation et le Cloud Computing sont des technologies qui promettent d’immenses bénéfices à toute la communauté du monde des affaires, mais la grande majorité des entreprises n’ont pas encore acquis les capacités réseaux fondamentales nécessaires à la récolte de ces bénéfices.

Avant même d’envisager la virtualisation d’un serveur ou la solution Cloud, la première question à se poser devrait être : « mon réseau est-il prêt à supporter la virtualisation ? ». Sans l’automatisation de l’infrastructure réseau, la réponse est clairement « non ».

Ce type d’automatisation ne requiert pas un changement massif et source de perturbations du réseau. Les solutions actuelles peuvent être tout simplement branchées à un réseau (ou téléchargées sous forme de logiciel dans un environnement virtuel) pour en obtenir le contrôle via une console adaptée. Il ne requiert pas non plus de gros investissements, puisque des unités de base sont disponibles pour les petites agences, jusqu’aux systèmes haut de gamme destinés aux centres de données les plus importants.

S’il s’agissait uniquement de permettre la migration vers l’environnement virtuel de demain, ce serait déjà un argument clef. Cependant, l’automatisation des changements réseaux traite également le problème dominant terrassant les réseaux d’affaires à ce jour : 80% des interruptions peuvent en effet être attribuées aux erreurs humaines qui surviennent lorsque des changements sont effectués sur le réseau.

Automatiser les services de cœur de réseau IP comme la gestion des adresses IP, le DNS et le DHCP, et les intégrer à l’aide de changements automatisés sur tous les équipements réseaux comme les commutateurs (switchs), les routeurs et les pare-feu : c’est là la seule manière de préparer les réseaux actuels aux exigences futures.


Partager cet article




Sur le même sujet...

Aucun Commentaire