Les solutions de surveillance via le cloud connait depuis le début de l’année 2015 un essor sans précédent, incitant les sociétés de capital-risque à multiplier les acquisitions et à investir massivement dans les start-ups de la Silicon Valley et d’ailleurs. Mais l’argent ne fait pas tout et la surveillance réseau via le cloud, aussi utile soit-elle, ne constitue pas pour autant une panacée.

Surveiller le réseau dans le Cloud ? Oui, mais pas seulement…

Si l’effet de masse y est pour beaucoup dans cette dynamique, le business model des start-ups qui se sont engouffrées dans la brèche comporte néanmoins certaines failles, à commencer par le fait que le problème qu’elles se font fort de résoudre ne se pose pas pour la grande majorité des entreprises…

Certes, bon nombre de ces jeunes sociétés ont su relever certains défis peu complexes pour parvenir à superviser un flux d’activités virtualisé. Elles ont misé sur plusieurs tendances identifiées dans le monde de l’informatique, surfant notamment sur le succès des applications cloud et de l’Internet des Objets. Elles ont réussi à attirer l’attention des observateurs, au point de conquérir le statut de « must-have de demain ». Cependant, elles sont – à bien des égards – hors sujet. En effet, il faut garder en tête que le matériel physique, à l’instar des réseaux locaux, occupe une place centrale dans tous les réseaux informatiques, et que cela n’est pas près de changer. Au demeurant, personne ne prétend que la transition vers le cloud soit une mauvaise idée. Bien au contraire, une telle stratégie paraît plus qu’opportune dans bien des cas, et force est de reconnaître que la surveillance du cloud y a toute sa place. Cependant, tout élément n’a pas vocation à être déplacé.

Un réseau peut contenir des millions de commutateurs, serveurs, firewalls et autres terminaux, lesquels sont en grande partie complètement obsolètes. Or, il est capital de pouvoir suivre l’activité de chacun des composants du réseau – ce que l’on ne peut faire si l’on se contente de se connecter aux APIs d’un des grands fournisseurs de services en mode cloud. L’équation est on ne peut plus simple : le fonctionnement de toute entreprise repose sur son hardware, et celui-ci est souvent dépassé. Si la surveillance via le cloud est optimisée pour les technologies les plus récentes et les plus abouties, le hardware n’en forme pas moins l’ossature du réseau, aussi ancien soit-il.

L’industrie change, mais pas aussi vite que les technologies

L’Internet des Objets (IdO) constitue indéniablement un des grands chantiers de la surveillance réseau, mais aussi un véritable talon d’Achille pour la surveillance via le cloud. L’une des grandes promesses de l’IdO est de transformer le modèle économique de l’industrie. Tandis que beaucoup se concentrent sur la façon dont ces objets intelligents permettront au consommateur de demain de baisser son chauffage ou de remplir son réfrigérateur à distance, l’usine connectée s’annonce également comme une révolution. Un exemple qui illustre parfaitement pourquoi la surveillance réseau n’a pas spécialement vocation à se faire sur le cloud, mais plutôt à réaliser un travail « de base ».

L’usine connectée ne se reposera pas exclusivement sur les technologies les plus novatrices. Dans tous les secteurs de l’industrie, de la manufacture de produits à la production d’énergie, les activités sont tributaires du matériel de l’entreprise, parfois organisé en interne de façon peu optimale. Les systèmes SCADA en sont le parfait exemple. Pierre angulaire des activités de l’entreprise, ils coûtent chers à mettre en place – il faut des années pour en amortir les coûts. Pour que ces systèmes soient connectés, il faudra s’appuyer sur une connaissance sans faille du fonctionnement de l’entreprise et de son matériel. Les fournisseurs de solutions de surveillance doivent permettre à leurs utilisateurs de travailler avec le vieux matériel, que ce soit par le biais de capteurs personnalisés ou de modèles intuitifs.

En outre, il existe certains processus qui nécessitent une connexion en local. Les usines ne transfèreront jamais l’intégralité de leur flux de travail sur le cloud – cela serait totalement insensé. Les machines doivent être reliées au moyen de connexions LAN sécurisées, c’est-à-dire via la fibre, filaire ou wifi. Celles-ci doivent offrir un débit extrêmement haut et une fiabilité à toute épreuve, ce que les systèmes virtualisés sont incapables de faire à l’heure actuelle. Or, aucun fabricant n’est disposé à tolérer des ralentissements de débit ou des problèmes de connectivité, surtout s’il n’a aucune emprise sur ceux-ci. Les pannes cloud n’ont rien d’exceptionnel, mais il est inconcevable qu’un salarié soit contraint de quitter son usine pour rentrer chez lui parce que les serveurs d’Amazon ne fonctionnent plus.

La surveillance réseau a toujours supposé une présence physique et continuera de le faire. Un logiciel de surveillance doit être à même de communiquer avec l’ensemble des composants du réseau – qu’il s’agisse d’Amazon Web Services ou d’un système SCADA vieux de 25 ans – indépendamment de la qualité de la connexion. Le service informatique doit pouvoir garder un œil sur tout, des applications en mode cloud aux valves d’un oléoduc ou d’une centrale électrique située à plusieurs centaines de kilomètres. Il faut des années d’expérience pour mettre au point des outils capables d’accomplir une telle mission, bien plus que le temps nécessaire pour se connecter à une API. Le fonctionnement de l’internet mondial repose majoritairement sur des serveurs et commutateurs vieux de plusieurs années. Pour assurer son avenir, il est donc capital de comprendre sur quels éléments la surveillance se porte et se portera.

___________
Dirk Paessler est fondateur et directeur général de Paessler AG, éditeur du logiciel de surveillance réseau PRTG.