Une étude de Compuware montre qu’un incident informatique majeur a coûté à lui seul jusqu’à 6,9 millions de livres sterling à une entreprise. Sans compter que près de la moitié des entreprises (45 %) ont déjà subi une perte en termes d’image ou de part de marché suite à un incident technologique majeur. Lorsque les pannes vont jusqu’à affecter le client, il devient évident que la gestion des performances technologiques n’est plus seulement le problème des services informatiques.

Entrée sous le feu dans un monde interconnecté

Malheureusement, les problèmes techniques sont monnaie courante, comme en témoigne régulièrement l’actualité. Le site Web américain Healthcare.gov site en a récemment fait les frais, par exemple. Rien de bien étonnant puisque, selon la même étude, quatre entreprises sur cinq ont subi au moins un incident technologique majeur rien que sur l’année écoulée. La lutte quasi quotidienne des entreprises contre ces problèmes grève leurs budgets et nuit sur le long terme à leur santé financière. Et avec l’arrivée du mobile et du cloud, qui ont rajouté des maillons à la chaîne applicative, les services informatiques ont plus de mal encore à identifier l’origine des goulets d’étranglement et à prévenir les dysfonctionnements.

Il n’est donc guère surprenant que 75 % des entreprises avouent ne pas réussir à réduire le nombre des incidents. En août dernier, le site américain d’Amazon a connu une panne de courte durée qui s’est soldée par un manque à gagner de près de 3 millions de livres sterling, et ce chiffre ne tient pas compte des frais occasionnés pour remettre le processus de commande sur pied. L’incident n’a duré que 40 minutes, mais certains peuvent durer plusieurs jours ; il est facile d’imaginer le montant de la facture !

Malheureusement, il n’a jamais été aussi difficile d’assurer la stabilité technique, surtout quand il s’agit de services en ligne. Avec l’explosion du cloud et l’intégration du Web, nombre d’entreprises font appel à des services Web tiers, en intégrant notamment des médias sociaux, des serveurs publicitaires et des fonctions spécifiques à la sécurité en ligne.

Selon des données récentes d’ Outage Analyzer (outil gratuit fournissant en temps réel une vision de l’état de santé des services Web au niveau mondial), près de 1 500 services Web tiers seraient actuellement en exploitation, un site Web utilisant en moyenne entre neuf et treize services pour exécuter une transaction classique. Si l’intégration avec des services tiers présente de nombreux avantages (amélioration de l’expérience utilisateur, référencement, contenu publicitaire, données marketing, etc.), elle comporte également des inconvénients. Un site Web international est impacté en moyenne par 25 pannes de services tiers par jour, ce qui signifie qu’en dépit de tous ses efforts, une entreprise risque de subir des défaillances informatiques et un manque à gagner à cause de problèmes concernant les services tiers.

Se défendre en adoptant de nouvelles approches de gestion des performances

Pour que les entreprises puissent reprendre le contrôle des performances technologiques, un certain nombre de problèmes doivent être résolus. Tout d’abord, l’informatique doit être reconnue pour ce qu’elle est, à savoir une composante clé de l’activité de l’entreprise. Les responsables business et les services informatiques doivent mieux s’accorder sur la manière de gérer les investissements et de répondre aux problèmes. L’informatique ne doit plus être reléguée au second plan. Elle doit être intégrée à tous les niveaux de l’entreprise et faire partie des sujets débattus en conseil d’administration.

Les entreprises doivent également comprendre qu’il est nécessaire d’adopter une nouvelle approche de la gestion de l’environnement informatique. Le nombre de maillons des systèmes sur lesquels reposent des services tels les sites d’e-commerce et les banques en ligne a augmenté de manière exponentielle, tout comme leur complexité et leur interdépendance. Trop d’entreprises gèrent toujours l’informatique de façon cloisonnée, ce qui peut rendre la prévention des pannes et l’identification de l’origine des problèmes extrêmement chronophages. Il est essentiel d’adopter une approche de gestion de la technologie plus proactive, mieux intégrée et orientée business.

Il est nécessaire d’adopter une double stratégie de gestion des performances. Premièrement, les services informatiques doivent avoir une vision extrêmement précise de leurs applications, et être en mesure de repérer les problèmes de performance en temps réel afin de les résoudre rapidement et efficacement. Deuxièmement, pour détecter les problèmes des services tiers risquant de déclencher une réaction en chaîne, les équipes informatiques doivent tester les services du point de vue de l’utilisateur 24 h/24 et 7 j/7, pour connaître leur fonctionnement en situation réelle. Chaque utilisateur compte. Il est donc indispensable d’avoir une visibilité sur chacune des transactions, tous réseaux et équipements confondus, plutôt que de se fier à des techniques d’échantillonnage. Cela permettra d’identifier l’origine de chaque goulet d’étranglement, les défaillances et les points faibles susceptibles de se trouver sur le chemin des transactions applicatives –  depuis le centre de données jusqu’à l’écran de l’utilisateur en passant par Internet et le cloud. L’entreprise sera ainsi mieux armée pour anticiper les problèmes et éviter la déferlante d’appels téléphoniques au centre d’assistance lorsqu’un incident se produit.

La question est maintenant de savoir si les équipes informatiques réussiront à devenir les super héros dont leur entreprise a besoin ou si elles attendront les bras croisés que la guerre technologique interconnectée fasse de nouvelles victimes.

 

 

_____________
Sébastien Huet est Consultant Avant-Vente chez Compuware APM