Qu’est-ce qu’un container ? Qu’est-ce que Docker ?
Le container est un mécanisme de virtualisation concurrent et complémentaire des machines virtuelles. Il permet d’encapsuler une application et toutes les ressources et dépendances dont elle a besoin. Comme dans une VM, le container fournit une abstraction de toutes les couches sous-jacentes jusqu’au matériel lui-même, mais en ajoutant une totale abstraction du système d’exploitation. Un container n’a pas besoin d’un système d’exploitation dédié pour faire tourner l’application. Il s’appuie sur une instance du système d’exploitation partagée avec les autres containers sur le même serveur physique ou virtuel. Docker est la première solution de container apparue mi 2013 et également de très loin la plus répandue sur le marché en 2016.

L’intérêt pour les containers et pour Docker monte en flèche, pour quelles raisons ?
La promesse des containers est extrêmement séduisante car elle apporte des solutions pertinentes aux DSI et aux Cloud Providers. Les containers apportent au cloud ce qui en limitait fortement l’intérêt jusqu’à présent : la portabilité-réversibilité et la productivité réelle !

Qu’est-ce que le DevOps ?
« Devops » est une démarche et une organisation consistant à fédérer et aligner au sein d’une même entité l’ensemble des équipes des « dev » ou « Dev engineers » en charge du système d’information et les « ops » ou « Ops engineers » chargés d’exploiter les applications. L’objectif est d’augmenter la productivité en réduisant la durée des cycles de mise en production de nouvelles versions. On visera ainsi le « ARA » (Application Release Automation) et le « Continuous Delivery » qui seront précisément facilités par l’usage des containers.

Les grands fournisseurs du Cloud vont-ils proposer un service de container ?
Tout va très vite : c’est déjà fait ! D’où le nouvel acronyme : CaaS « Container as a Service » qui comprend de base la portabilité implicite des containers d’un cloud à l’autre et ajoute des outils de gestion dont on espère qu’ils seront eux aussi agnostiques en fonction des résultats du « Open Container Project ».

Les DSI sont-elles prêtes à s’adapter à ce nouvel écosystème ?
La situation actuelle rappelle l’arrivée des micro-ordinateurs dans la décennie 80-90. Le déclencheur est le même : un choc de productivité et d’agilité apporté par la créativité des fournisseurs du marché. Elle séduit les utilisateurs finaux et les directions métiers. On notera que, plus que la DSI elle-même, dans son rôle global, ce sont ses structures internes – directions de l’ingénierie, de l’infrastructure informatique et de la production informatique – qui sont secouées par ces évolutions.

Les relations entre ces trois entités et leurs fournisseurs externes (fournisseur de cloud, fournisseur de SaaS, ESN) deviennent complexes et sont confrontées à des conflits d’intérêt. Pour les réalisations applicatives spécifiques destinées à procurer un avantage concurrentiel le même type de démarche se produit également : les prestataires approchent les directions métiers et entament des prototypes et projets dans les PaaS du cloud public. Se pose ensuite aux DSI la question du passage en production et de l’intégration au SI : rester dans le cloud ou internaliser ?

Quel est l’impact prévisible sur les architectures IT des entreprises ?
Une chose est acquise, l’architecture globale devient et deviendra de plus en plus hybride et distribuée. Les entreprises utilisatrices ont déjà le plus souvent différents fournisseurs de solutions en SaaS. Elles sont en passe d’avoir un ou plusieurs fournisseurs de PaaS qui devront apporter une interconnexion aux applications traditionnelles du data center. Certaines grandes entreprises souhaiterons faire le choix d’une solution PaaS- CaaS internalisée dans leur Datacenter privé en propre ou hébergé, ce qui devra les amener pour être compétitive face aux grands fournisseurs de cloud à renouveler leurs architectures. L’architecture portant le SI de l’entreprise sera donc très distribuée.

Quel sera l’impact sur la stratégie data center ?
L’impact n’est pas simple à généraliser car chaque entreprise peut avoir des spécificités en fonction de ses métiers, de son historique, de son existant data center et des flux dans le SI global distribué. On peut néanmoins esquisser deux grandes tendances :

Une centralisation dans des grandes métropoles que l’on pourrait qualifier de « bassin d’économie numérique ». Les flux entre les data center privatifs de l’entreprise et ses différents Cloud Provider vont augmenter. Les conditions de performance pour ces flux inter-Cloud et les coûts seront optimisés dans une zone géographique restreinte. L’ile de France est un bon exemple car elle est dotée d’une large offre d’hébergement avec un coût d’énergie bas.

L’abandon progressif des data centers dans les locaux de l’entreprise.
Un calcul montre que l’exploitation de son propre data center n’est rentable qu’au-delà d’environ 200kW. A l’heure où une VM consomme moins de 5 W, et 1 To de stockage consomme 2 W, seules de très grandes entreprises dépasseront ce seuil. Les entreprises vont donc de plus en plus abandonner leur Datacenter au profit d’une combinaison d’hébergement en colocation chez des hébergeurs et de services IaaS et PaaS de Cloud Provider.

Comment mettre en place une démarche de transformation intégrant ces nouvelles approches ?
Les entreprises  devront prendre en compte, dès à présent, dans leur feuille de route (Roadmap) d’infrastructure de DevOps et des containers. Il s’agit de se familiariser avec ces nouveaux outils, de comprendre les enjeux, les bénéfices potentiels mais également d’en appréhender les risques pour l’entreprise.

 

 

_________
Bertrand Quillévéré, Vialis groupe Quodagis