Grâce à l’accélération d’acteurs anciens et nouveaux notamment dans les domaines du SaaS et du Cloud public, les utilisateurs, clients et prestataires se retrouvent face à une multitude d’opportunités pour transformer numériquement leur métier, l’entreprise et leurs offres de produits et services.

Au vu des milliards investis chaque année par les faiseurs, grands et moins grands, il ne se passe pas une semaine sans qu’une grande annonce se fasse dans une course à haute vitesse pour faire progresser ou consolider le positionnement sur un marché. Il n’est pas rare d’entendre aussi bien chez les clients que chez les prestataires (intégrateurs, infogérants, Cloud providers…) que l’allure est presque trop soutenue. La France a longtemps été considérée comme ayant un retard considérable dans l’adoption du Cloud, mais semble profiter de l’élan général pour gagner du terrain sur le peloton de tête (USA, UK, Pays nordiques…).

Le contexte actuel avec des vols de données personnelles à grande échelle, des attaques ransomware sans précédent, le cyber-espionnage, le Shadow IT, etc. – des menaces bien réelles – pousse les organisations à remettre le contrôle au centre des préoccupations (ex : solutions CASB, dispositif légal RGPD, solutions anti-intrusion, anonymisation des données, etc.) pour assurer une sécurité maximale.

Cela amène cependant à parfois perdre de vue les impacts futurs. Or, cette transformation donne lieu à un accroissement vertigineux des volumes de données, des fusions de SI complexes sur des passerelles communes (hybridation Cloud) et un rythme soutenu dans le Time-to-market (DevOps). Ces différents facteurs influent fortement sur l’évolution du SI et imposent le concept de la prédictibilité.

A travers les applications BI notamment, une entreprise est capable de réaliser des projections complexes sur les évolutions des ventes, de la logistique, de la production, etc. Evidemment, le socle informatique ne peut pas échapper à cette logique de prédictibilité essentielle à toute entreprise. Comment les mises en production futures impacteront-elles l’application (tests de non-régression) ? L’outillage de production saura-il tenir le rythme imposé (ordonnanceur, sauvegarde, supervision applicative, etc.) ? Comment anticiper l’expérience utilisateur (prévenir des lenteurs, des saturations de connexions…) ?

Nous rencontrons très régulièrement des clients conscients du manque de prédictibilité sur leur SI, mais contraints de faire avec la situation, principalement à cause de la lourdeur des tests à faire et des exigences de la production au quotidien. L’ajout de nouveaux jobs sur un chemin critique peut déjà constituer un important défi pour une DSI.

Pourtant, il existe des solutions permettant de mener à bien des tests en conditions réelles : de la virtualisation et réplication « à la volée » de bases de données pour avoir des jeux de données toujours fraiches en passant par des outils divers de capacity planning jusqu’aux solutions de tests de charge.

L’essentiel est de pouvoir réduire le plus possible le facteur temps afin de baisser la charge pesant sur le processus de tests, voire même de le contrôler totalement en accélérant « virtuellement » les évènements de la Production (exécution des lots, des jobs de sauvegarde…). C’est encore un marché naissant comparé au développement applicatif en amont qui, lui, s’est doté de nombreux outils pour faire mieux plus vite.

La bonne nouvelle est que les technologies et les méthodes ayant rendu le développement plus efficace sont également motrices dans l’évolution des offres et des solutions en matière de tests applicatifs et de leur automatisation.

Quand on mesure les gains de temps qui sont déjà réalisables avec les outils existants, on ne peut que se réjouir de ce que le futur proche nous offrira.

______________
David Barrat est Directeur du pôle « outils de production » au sein d’ITS Integra