A quoi reconnaît-on un outil de monitoring des années 2000 ?

Trop d’agents tue l’agent !

Exécutez-vous des agents distincts pour Java, .NET, PHP, Node.js, les serveurs, l’expérience utilisateurs… ? Quel cauchemar ! il est tout simplement impossible de gérer une telle multitude d’agents dans les environnements complexes actuels. S’il vous faut des semaines entières pour cartographier votre application uniquement pour comprendre comment la monitorer, alors il y a de fortes chances que vous utilisiez une solution de monitoring de deuxième génération, déjà obsolète.

Des millions de données, mais zéro réponse

Tous les outils de monitoring génèrent un nombre incalculable de données. Mais c’est ce que chacun tire de ces données qui fait la différence. Une solution de deuxième génération vous fournit un tas de graphiques et d’indicateurs, tous plus sophistiqués les uns que les autres. Mais à vous ensuite de les analyser. Cela fonctionnait quand les environnements étaient suffisamment simples pour pouvoir être appréhendés par l’humain. Mais ce n’est plus le cas aujourd’hui ! A l’ère de la troisième génération, vous avez besoin de données ET de réponses… et le plus rapidement possible !

Un outil multifonction (et beaucoup d’adhésif !)

Avec les outils d’APM de deuxième génération, tout est question d’application… et c’est un bon début ! Le problème, c’est que la performance de votre application ne dépend pas que de la qualité de son code. Avec le temps, vous avez sans doute dû ajouter un grand nombre d’outils de monitoring supplémentaires pour vos serveurs, votre réseau, vos fichiers de log, l’expérience de vos utilisateurs, etc. Au fil du temps, les fournisseurs de solutions de deuxième génération se sont empressés de développer de nouveaux modules pour compléter le puzzle. Mais l’approche reste fragmentaire, et non holistique. Résultat ? Des coûts supplémentaires de logiciel, de maintenance, de ressources humaines, et de formations. Et toujours pas de réponses.

Le règne du système « D »

Avec le monitoring de deuxième génération, tout est manuel ! L’implémentation et les mises à jour, la découverte et l’identification des problèmes, de leur impact business et de leur cause. C’est le règne du système « D » (ou pour les plus jeunes, du DIY, Do It Yourself). Et c’était gérable tant que les environnements applicatifs étaient simples. Mais pourquoi croyez-vous que la plupart des entreprises ne monitorent aujourd’hui que 5 à 10% de leurs applications les plus critiques ?  Parce que c’est un vrai casse-tête !

Conteneur ? C’est quoi, un conteneur ?

Les solutions de monitoring de deuxième génération ont été développées bien avant que quiconque ne sache ce qu’était un conteneur. Donc, que faire quand on est un fournisseur de solutions de deuxième génération ? Vous pouvez prétendre qu’un conteneur est juste un serveur miniature. Ce qui signifie que vous allez instrumenter manuellement chaque conteneur avec le bon agent, modifier les images, et installer et configurer les plugins.  À ceci près que les conteneurs ne sont pas des mini-serveurs. La vocation même des conteneurs, c’est de faire plus simple et d’aller plus vite. Mais c’est tout simplement impossible avec des outils de monitoring obsolètes.

Ça ne marche tout simplement pas dans le cloud !

Avec le cloud d’entreprise, tout est agilité, innovation et time-to-market. Les équipes DevOps déploient des conteneurs et des microservices qui s’exécutent sur des environnements hybrides, multi-cloud, dont on attend qu’ils soient évolutifs et fiables. Or, le monitoring de deuxième génération n’est tout simplement pas conçu pour ce monde, et n’y fonctionnera donc pas.

Si vous vous reconnaissez dans l’un ou plusieurs de ces signes, il est peut-être temps pour vous d’envisager une nouvelle solution de monitoring, qui soit adaptée aux environnements complexes d’aujourd’hui, et qui vous apporte la visibilité et l’intelligence nécessaire pour véritablement optimiser vos performances.

___________
Gilles Portier est Senior consultant APM Dynatrace